PL208846B1 - Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym - Google Patents

Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym

Info

Publication number
PL208846B1
PL208846B1 PL371410A PL37141003A PL208846B1 PL 208846 B1 PL208846 B1 PL 208846B1 PL 371410 A PL371410 A PL 371410A PL 37141003 A PL37141003 A PL 37141003A PL 208846 B1 PL208846 B1 PL 208846B1
Authority
PL
Poland
Prior art keywords
signal
representation
reconstructed
frequency
baseband
Prior art date
Application number
PL371410A
Other languages
English (en)
Other versions
PL371410A1 (pl
Inventor
Michael Mead Truman
Mark Stuart Vinton
Original Assignee
Dolby Lab Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Lab Licensing Corp filed Critical Dolby Lab Licensing Corp
Publication of PL371410A1 publication Critical patent/PL371410A1/pl
Publication of PL208846B1 publication Critical patent/PL208846B1/pl

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/0017Lossless audio signal coding; Perfect reconstruction of coded audio signal by transmission of coding error
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Stereophonic System (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Superconductors And Manufacturing Methods Therefor (AREA)
  • Ceramic Products (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Description

Przedmiotem wynalazku jest sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym, zwłaszcza przy przesyłaniu i zapisywaniu sygnałów akustycznych, ograniczając ilość informacji potrzebnych do przesłania lub zapisu danego sygnału akustycznego, przy zachowaniu danego poziomu jakości odbieranego sygnału wyjściowego.
Znanych jest wiele systemów telekomunikacyjnych, napotykających problemy związane z tym, że wymagania dotyczące pojemności informacyjnej przy przesyłaniu i zapisywaniu informacji często przewyższają istniejące możliwości. W związku z tym ważne jest ograniczanie ilości informacji potrzebnej przy przesyłaniu lub zapisywaniu sygnału akustycznego, odbieranego przez ludzi, bez pogarszania jego jakości. Wymagana jest przy tym poprawa jakości sygnału wyjściowego dla danej szerokości pasma lub pojemności pamięci.
W znanych sposobach przetwarzania sygnał u akustycznego w urzą dzeniu elektronicznym, przy przesyłaniu i zapisywaniu sygnałów akustycznych należy zmniejszyć wymagania dotyczące pojemności informacji i należy zapewnić określony poziom percepcyjnej jakości sygnału wyjściowego. Te dwa wymagania są ze sobą sprzeczne, ponieważ zmniejszenie jakości przesyłanych informacji może spowodować pogorszenie percepcyjnej jakości sygnału wyjściowego. Obiektywne ograniczenia, takie jak prędkość transmisji danych, są zwykle określane przez sam system telekomunikacyjny, a subiektywne wymagania percepcyjne są zwykle dyktowane przez zastosowanie.
Znane sposoby zmniejszania wymagań dotyczących ilości informacji polegają na przesyłaniu lub zapisywaniu tylko wybranej części sygnału wejściowego, a reszta zostaje odrzucona. Korzystnie odrzucana jest tylko ta część sygnału, która jest uważana albo za redundancyjną albo za nieważną percepcyjnie. Jeżeli potrzebne jest dalsze zmniejszanie, korzystnie odrzucana jest tylko ta część sygnału, która jest uważana za mającą najmniejsze znaczenie dla percepcji.
W zastosowaniach dotyczących mowy, dla których ważniejsza jest zrozumiałość niż wierność, takich jak kodowanie mowy, może być przenoszona lub zapisywana tylko część sygnału nazywana tutaj sygnałem pasma podstawowego i zawierająca tylko percepcyjnie najważniejsze części widma częstotliwości sygnału. Odbiornik może odtwarzać pominiętą część sygnału mowy z informacji zawartej w sygnale pasma podstawowego. Odtworzony sygnał zwykle nie jest percepcyjnie identyczny z sygnał em pierwotnym, lecz w wielu zastosowaniach wystarczy odtwarzanie przybliż one. Z drugiej strony, zastosowania przeznaczone do osiągnięcia wysokiego stopnia wierności, takie jak zastosowania dotyczące muzyki wysokiej jakości, wymagają zwykle wyższej jakości sygnału wyjściowego. Aby otrzymać sygnał wyjściowy o wyższej jakości, należy zwykle przesyłać większą ilość informacji lub wykorzystywać bardziej skomplikowany sposób wytwarzania sygnału wyjściowego.
Znana jest technika stosowana przy dekodowaniu sygnału mowy, zwana odtwarzaniem wysokiej częstotliwości HFR, w której jest przesyłany lub zapisywany sygnał pasma podstawowego, zawierający tylko składowe o niskiej częstotliwości. Odbiornik odtwarza pominięte składowe o wysokiej częstotliwości na podstawie zawartości odbieranego sygnału pasma podstawowego i łączy sygnał pasma podstawowego z odtworzonymi składowymi o wysokiej częstotliwości, aby wytworzyć sygnał wyjściowy. Chociaż odtworzone składowe o wysokiej częstotliwości zwykle nie są identyczne ze składowymi o wysokiej czę stotliwoś ci w sygnale pierwotnym, technika ta moż e zapewniać sygnał wyjś ciowy, który jest bardziej zadowalający niż w innych technikach, które nie stosują odtwarzania wysokich częstotliwości. Znane są trzy typowe techniki odtwarzania wysokich częstotliwości: składanie widma, przesuwanie widma i prostowanie, które zostały opisane w publikacji pod tytułem „High-Frequency Regeneration in Speech Coding Systems (Regeneracja wysokoczęstotliwościowa w systemach kodowania mowy), Makhoul i Berouti; ICASSP 1979 IEEE International Conf. on Acoust, Speech and Signal Proc, 2-4 kwietnia, 1979. Techniki te są zwykle niewłaściwe dla systemów odtwarzania o wysokiej jakości, takich jak używane przy muzyce wysokiej jakości. Składanie widma i przesuwanie widma może powodować wytwarzanie niepożądanych tonów tła, a prostowanie ma tendencję do wytwarzania składowych, które są odbierane jako ostre dźwięki. W wielu przypadkach, w których techniki te dawały niezadowalające wyniki, stosowano je w koderach mowy o ograniczonym paśmie, gdzie odtwarzanie wysokich częstotliwości było ograniczane do przesuwania składowych poniżej 5 kHz.
Stosowanie znanych technik odtwarzania wysokich częstotliwości powoduje pierwszy problem związany z właściwościami dźwięku i szumu w sygnałach i drugi problem związany z czasowym kształtem lub obwiednią odtwarzanych sygnałów. Wiele naturalnych sygnałów zawiera składową
PL 208 846 B1 szumu, która wzrasta w funkcji częstotliwości. W znanych technikach odtwarzania wysokich częstotliwości składowe o wysokiej częstotliwości są odtwarzane z sygnału pasma podstawowego, ale nie odtwarzają prawidłowej mieszaniny składowych podobnych do dźwięku i składowych podobnych do szumu w odtwarzanym sygnale przy wyższych częstotliwościach. Odtworzony sygnał często zawiera wyraźne brzęczenie wysokoczęstotliwościowe, przypisywane podstawieniu, przez składowe podobne do dźwięku w paśmie podstawowym, pierwotnych składowych o wysokiej częstotliwości, bardziej podobnych do szumu. Ponadto w znanych technikach odtwarzania wysokiej częstotliwości składowe widmowe nie są odtwarzane w taki sposób, że obwiednia czasowa odtworzonego sygnału zachowuje lub jest przynajmniej podobna do czasowej obwiedni sygnału pierwotnego. Znane techniki są albo specyficzne dla mowy, opierając się na właściwościach mowy, które nie są właściwe w przypadku muzyki, albo dla innych postaci sygnału akustycznego lub też wymagają wielkich mocy obliczeniowych, których nie można w sposób ekonomiczny zrealizować.
Według wynalazku sposób przetwarzania sygnału akustycznego charakteryzuje się tym, że dokonuje się jednego lub wielu przekształceń sygnału akustycznego w domenie czasowej na sygnał w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej, zawierającego pewne, lecz nie wszystkie, składowe widmowe sygnału akustycznego, analizuje się sygnał akustyczny dla obliczenia ocenianej obwiedni widmowej przynajmniej części sygnału akustycznego, oblicza się ocenianą obwiednię czasową przynajmniej części sygnału akustycznego oraz łączy się dane przedstawiające reprezentację sygnału pasma podstawowego w domenie częstotliwościowej, ocenianą obwiednię czasową przynajmniej części sygnału akustycznego i ocenianą obwiednię widmową w sygnał wyjś ciowy wła ś ciwy do przesył ania lub zapisywania.
Korzystnie zmienia się długość jednego lub wielu przekształceń domen czasowych na domeny częstotliwościowe.
Korzystnie dokonuje się transformacji analizy kasowania z aliasowaniem w domenie czasowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
Korzystnie dokonuje się przekształcenia sygnału akustycznego w domenie czasowej na sygnał w domenie częstotliwoś ciowej dla otrzymania reprezentacji sygnał u akustycznego w domenie czę stotliwościowej oraz filtruje się reprezentację sygnału akustycznego w domenie częstotliwościowej dla wydzielenia części reprezentacji sygnału akustycznego w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
Korzystnie filtruje się za pomocą zespołu filtrów analizy sygnał akustyczny dla otrzymania wielu sygnałów podpasma, reprezentujących sygnał akustyczny, filtruje się za pomocą pierwszego zespołu filtrów analizy pierwszą grupę jednego lub wielu sygnałów podpasma, które zawierają pewne, lecz nie wszystkie, z wielu sygnałów podpasma dla otrzymania reprezentacji sygnału pasma podstawowego w domenie czę stotliwo ś ciowej i filtruje się za pomocą drugiego zespoł u filtrów analizy drugą grupę jednego lub wielu sygnałów pasma podstawowego, które nie są zawarte w pierwszej grupie sygnałów podpasma oraz analizuje się uzyskany sygnał dla otrzymania ocenianej obwiedni widmowej sygnału resztkowego.
Korzystnie modyfikuje się drugą grupę sygnałów podpasma zgodnie z odwrotnością ocenianej obwiedni czasowej drugiej grupy sygnałów podpasma dla otrzymania czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma, przy czym oceniana obwiednia czasowa przynajmniej części sygnału akustycznego zawiera ocenianą obwiednię czasową drugiej grupy sygnałów podpasma i dokonuje się jednego lub wielu przekształceń domeny czasowej na domenę częstotliwościową w czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma dla otrzymania ocenianej obwiedni widmowej sygnału resztkowego.
Korzystnie modyfikuje się pierwszą grupę sygnałów podpasma zgodnie z odwrotnością ocenianej obwiedni czasowej pierwszej grupy sygnałów podpasma dla otrzymania czasowo spłaszczonej reprezentacji pierwszej grupy sygnałów podpasma, przy czym oceniana obwiednia czasowa przynajmniej części sygnału akustycznego zawiera ocenianą obwiednię czasową pierwszej grupy sygnałów podpasma i dokonuje się jednego lub wielu przekształceń domeny czasowej na domenę częstotliwościową w czasowo spłaszczonej reprezentacji pierwszej grupy sygnałów podpasma dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
Korzystnie uzyskuje się parametr mieszania szumu z czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma i łączy się dane w sygnał wyjściowy, który reprezentuje parametr mieszania szumu.
PL 208 846 B1
Korzystnie analizuje się reprezentację w domenie częstotliwościowej przynajmniej sygnału resztkowego dla otrzymania ocenianej obwiedni czasowej.
Korzystnie oblicza się czasowo spłaszczoną reprezentację przynajmniej części sygnału akustycznego w odpowiedzi na odwrotność ocenianej obwiedni czasowej i oblicza się ocenianą obwiednię widmową z czasowo spłaszczonej reprezentacji.
Według wynalazku sposób generowania odtworzonego sygnału akustycznego charakteryzuje się tym, że odbiera się sygnał zawierający dane reprezentujące sygnał pasma podstawowego, otrzymywany z sygnału akustycznego, ocenianą obwiednię widmową i ocenianą obwiednię czasową, wydziela się reprezentację sygnału pasma podstawowego w domenie częstotliwościowej z danych, przetwarza się składowe widmowe pasma podstawowego częstotliwościowo dla otrzymania odtwarzanego sygnału zawierającego odtwarzane składowe widmowe i dokonuje się jednego lub wielu przekształceń domeny częstotliwościowej na domenę czasową w kombinacji składowych widmowych odtwarzanego sygnału ze składowymi widmowymi reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej, przy czym uzyskuje się reprezentację w domenie czasowej o przebiegu czasowym regulowanym w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową przez modyfikację składowych widmowych w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową albo przez modyfikację reprezentacji w domenie czasowej w odpowiedzi na dane reprezentują ce ocenianą obwiednię czasową .
Korzystnie zmienia się długość jednego lub wielu przekształceń domeny częstotliwościowej na domenę czasową.
Korzystnie dokonuje się transformacji syntezy kasowania z aliasowaniem w domenie czasowej dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej.
Korzystnie dostosowuje się przetwarzanie składowych widmowych przez zmianę tego, którego składowe widmowe przesuwa się, lub przez zmianę wartości częstotliwości, o którą składowe widmowe przesuwa się.
Korzystnie odbiera się dane w sygnale, który reprezentuje parametr mieszania szumu, uzyskiwany z miary zawartości szumu w sygnale akustycznym, generuje się sygnał szumu mający składowe widmowe, które zmieniają się zasadniczo odwrotnie do częstotliwości i modyfikuje się odtwarzany sygnał przez regulację amplitud odtwarzanych składowych widmowych zgodnie z ocenianą obwiednią widmową i parametrem mieszania szumu oraz łączy się modyfikowany odtwarzany sygnał z sygnałem szumu.
Korzystnie łączy się składowe widmowe odtwarzanego sygnału i składowe widmowe reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania odtworzonego sygnału i filtruje się za pomocą zespołu filtrów syntezy odtworzony sygnał dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej.
Korzystnie filtruje się za pomocą pierwszego zespołu filtrów syntezy reprezentację sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie czasowej, filtruje się za pomocą drugiego zespołu filtrów syntezy odtwarzany sygnał dla otrzymania reprezentacji odtwarzanego sygnału w domenie czasowej i generuje się reprezentację odtworzonego sygnału w domenie czasowej dla przedstawienia kombinacji reprezentacji sygnału pasma podstawowego w domenie czasowej i reprezentacji odtwarzanego sygnału w domenie czasowej.
Korzystnie modyfikuje się reprezentację odtwarzanego sygnału w domenie czasowej zgodnie z ocenianą obwiednią czasową i łączy się reprezentację sygnał u pasma podstawowego w domenie czasowej i zmodyfikowaną reprezentację odtwarzanego sygnału dla otrzymania odtworzonego sygnału.
Korzystnie modyfikuje się reprezentację sygnału pasma podstawowego w domenie czasowej zgodnie z ocenianą obwiednią czasową i łączy się zmodyfikowaną reprezentacją sygnału pasma podstawowego w domenie czasowej i zmodyfikowaną reprezentację odtwarzanego sygnału w domenie czasowej dla otrzymania odtworzonego sygnału.
Korzystnie modyfikuje się reprezentację odtworzonego sygnału w domenie częstotliwościowej zgodnie z danymi reprezentującymi ocenianą obwiednię czasową dla regulacji przebiegu czasowego reprezentacji odtworzonego sygnału w domenie czasowej.
Zaletą wynalazku jest opracowanie właściwego przetwarzania sygnałów akustycznych w celu zmniejszenia ilości informacji potrzebnej do prezentowania sygnału podczas przesyłania lub zapisywania przy zachowaniu odbieranej jakości sygnału. Chociaż niniejszy wynalazek dotyczy zwłaszcza
PL 208 846 B1 odtwarzania sygnałów muzycznych, nadaje się on również do szerokiego zakresu sygnałów akustycznych, w tym i głosu.
Przedmiot wynalazku jest pokazany w przykładach wykonania na rysunku, na którym:
fig. 1 przedstawia główne części składowe systemu łączności, fig. 2 - schemat blokowy nadajnika, fig. 3A i 3B - wykresy graficzne hipotetycznych przebiegów sygnału akustycznego i sygnału pasma podstawowego, fig. 4 - schemat blokowy odbiornika, fig. 5A-5D - wykresy graficzne hipotetycznych przebiegów sygnału pasma podstawowego i sygnałów wytwarzanych przez przetwarzanie sygnału pasma podstawowego, fig. 6A-6G - wykresy graficzne hipotetycznych przebiegów sygnałów otrzymywanych przez odtworzenie składowych o wysokiej częstotliwości przy użyciu zarówno przesuwania widma, jak i mieszania szumu, fig. 6H - przebieg sygnału z fig. 6G po regulacji wzmocnienia, fig. 7 - przebieg sygnału pasma podstawowego z fig. 6B, połączonego z odtworzonym sygnałem pokazanym na fig. 6H, fig. 8A - przebieg czasowy sygnału, fig. 8B - przebieg czasowy sygnału wyjściowego, wytworzonego przez uzyskiwanie sygnału pasma podstawowego z sygnału z fig. 8A i odtwarzanie sygnału przez proces przesuwania widma, fig. 8C - przebieg czasowy sygnału z fig. 8B po przeprowadzeniu regulacji czasowej obwiedni, fig. 9 - schemat blokowy nadajnika, który dostarcza informacje potrzebne do regulacji czasowej obwiedni przy zastosowaniu technik w domenie czasowej, fig. 10 - schemat blokowy odbiornika do realizacji regulacji czasowej obwiedni przy użyciu technik w domenie czasowej, fig. 11 - schemat blokowy nadajnika, który dostarcza informacje potrzebne do regulacji czasowej obwiedni przy zastosowaniu technik w domenie częstotliwościowej oraz fig. 12 - schemat blokowy odbiornika do realizacji regulacji czasowej obwiedni przy użyciu technik w domenie częstotliwościowej.
Figura 1 przedstawia główne części składowe systemu łączności w schemacie blokowymi. Źródło 112 informacji wytwarza w torze 115 sygnał akustyczny, reprezentujący zasadniczo dowolny rodzaj informacji akustycznej, jak mowa lub muzyka. Nadajnik 136 odbiera sygnał akustyczny z toru 115 i przetwarza informacje do postaci nadającej się do przesyłania w kanale 140. Nadajnik 136 może przygotować sygnał dopasowany do właściwości fizycznych kanału 140. Kanał 140 może być torem przesyłania, takim jak przewody elektryczne lub światłowody, albo też może być torem łączności radiowej. Kanał 140 może również zawierać pamięć, która przechowuje sygnał na nośniku pamięci, takim jak magnetyczna taśma lub dysk, albo dysk optyczny, do późniejszego wykorzystania przez odbiornik 142. Odbiornik 142 może realizować wiele różnych funkcji przetwarzania sygnału, takich jak demodulacja lub dekodowanie sygnału odebranego z kanału 140. Sygnał wyjściowy odbiornika 142 jest podawany poprzez tor 145 do przetwornika 147, który przetwarza go w sygnał wyjściowy 152 odpowiedni dla użytkownika. W konwencjonalnym systemie odtwarzania sygnału akustycznego przykładowo głośniki służą jako przetwornik do przetwarzania sygnałów elektrycznych w sygnały akustyczne.
Systemy łączności, które są ograniczone do przesyłania w kanale, który ma ograniczoną szerokość pasma lub zapisywanie przeprowadzane jest na nośniku o ograniczonej pojemności, napotykają problemy, gdy popyt na informacje przewyższa dostępną szerokość pasma lub pojemność. W rezultacie w dziedzinie rozgłaszania i zapisywania ciągle konieczne jest zmniejszanie ilości informacji w nadawanym lub zapisywanym sygnale akustycznym z dostosowaniem do percepcji ludzkiej bez pogarszania subiektywnej jakości sygnału akustycznego. Podobnie trzeba polepszać jakość sygnału wyjściowego przy danej szerokości pasma przesyłania lub pojemności zapisu.
Technika używana w związku z kodowaniem mowy znana jest jako odtwarzanie wysokiej częstotliwości. Przesyłany lub zapisywany jest tylko sygnał pasma podstawowego, zawierający składowe niskiej częstotliwości sygnału mowy. Odbiornik 142 odtwarza pominięte składowe wysokiej częstotliwości na podstawie zawartości odebranego sygnału pasma podstawowego i łączy sygnał pasma podstawowego z odtworzonymi składowymi wysokiej częstotliwości, by wytworzyć sygnał wyjściowy. Zwykle jednak znane techniki odtwarzania wysokiej częstotliwości wytwarzają odtworzone składowe wysokiej częstotliwości, które można łatwo odróżnić od składowych wysokiej częstotliwości w pierwotnym sygnale. Przedmiotowy wynalazek proponuje ulepszoną technikę odtwarzania składowych widmowych, która wytwarza odtworzone składowe widmowe w odbiorze bardziej podobne do analogicz6
PL 208 846 B1 nych składowych widmowych pierwotnego sygnału niż to jest przy znanych technikach. Warto zauważyć, że chociaż opisane tu sposoby są czasami nazywane odtwarzaniem wysokiej częstotliwości, przedmiotowy wynalazek nie ogranicza się do odtwarzania wysokoczęstotliwościowych składowych sygnału. Opisane poniżej sposoby mogą być również wykorzystywane do odtwarzania składowych widmowych w dowolnej części widma.
B. Nadajnik
Figura 2 przedstawia schemat blokowy nadajnika 136 według jednego aspektu przedmiotowego wynalazku. Wejściowy sygnał akustyczny jest odbierany z toru 115 i przetwarzany przez zespół 705 filtrów analizowania, by otrzymać reprezentację sygnału wejściowego w domenie częstotliwościowej. Analizator 710 sygnału pasma podstawowego określa, które składowe widmowe sygnału wejściowego mają być odrzucone. Filtr 715 usuwa te składowe widmowe, które mają zostać odrzucone, by wytworzyć sygnał pasma podstawowego złożony z pozostałych składowych widmowych. Zespół 720 oceny obwiedni widmowej uzyskuje ocenę obwiedni widmowej sygnału wejściowego. Analizator 722 widma analizuje ocenioną obwiednię widmową, by określić parametry mieszania szumu dla sygnału. Zespół 725 formatowania sygnału łączy informacje ocenionej obwiedni widmowej, parametry mieszania szumu i sygnał pasma podstawowego w sygnał wyjściowy, mający postać odpowiednią do przesyłania lub zapisywania.
1. Zespół filtrów analizowania
Zespół 705 filtrów analizowania może być realizowany zasadniczo przez każdą transformację z domeny czasowej do domeny częstotliwościowej. Transformacja użyta w korzystnej realizacji przedmiotowego wynalazku jest opisana w pracy Princen, Johnson i Bradley, „Sub-band/Transform Coding Using Filter Bank Designs Based on Time Domain Aliasing Cancellation, ICASSP 1987 Conf. Proc, maj 1987, str. 2161-64. Transformacja ta jest w domenie czasowej równoważna systemowi analizysyntezy krytycznie próbkowanego pojedynczego pasma bocznego z nieparzystym układaniem stosu z kasowaniem zastępującym domenę czasową, w skrócie O-TDAC.
Według tej techniki O-TDAC sygnał akustyczny jest próbkowany, poddawany kwantyzacji i grupowany w szereg zachodzących na siebie bloków próbek sygnału w domenie czasowej. Każdy blok próbki jest ważony przez funkcję okna analizy. Jest to równoważnik zwielokrotniania próbka po próbce bloku próbek sygnału. Technika O-TDAC wykorzystuje zmodyfikowaną dyskretną transformację cosinusoidalną (DCT) do ważonych bloków próbek sygnału w domenie czasowej w celu wytworzenia zbioru współczynników transformacji, nazywanych tu blokami transformacji. Aby uzyskać krytyczne próbkowanie, technika ta utrzymuje tylko połowę współczynników widmowych przed przesyłaniem lub zapisywaniem. Niestety, zachowanie tylko połowy współczynników widmowych powoduje, że komplementarna transformacja odwrotna wytwarza składowe zastępujące domenę czasową. Technika O-TDAC może ukrywać zastępowanie i dokładnie odtwarzać sygnał wejściowy. Długość bloków może być zmieniana przez znane techniki wykorzystywania właściwości sygnału. Trzeba jednak uważać na spójność fazy z przyczyn omówionych poniżej. Dodatkowe szczegóły techniki O-TDAC podano w opisie patentowym USA nr 5.394.473.
W celu odtworzenia bloków pierwotnego sygnału wejściowego z bloków transformacji technika O-TDAC wykorzystuje odwrotną zmodyfikowaną transformację DCT. Bloki sygnałów wytworzone przez tę odwrotną transformację są ważone przez funkcję okna syntezy, nakładane na siebie i dodawane w celu odtworzenia sygnału wejściowego. Aby ukryć zastępowanie w domenie czasowej i dokładnie odtworzyć sygnał wejściowy, okna analizy i syntezy muszą być skonstruowane tak, by spełniały dokładnie pewne kryteria.
W jednej korzystnej realizacji systemu przesyłania lub zapisywania wejściowego sygnału cyfrowego próbkowanego z częstotliwością 44,1 tysiąca próbek na sekundę, składowe widma otrzymane z zespołu 705 filtrów analizy są dzielone na cztery subpasma, których zakresy częstotliwości podano w tabeli 1.
T a b e l a 1
Pasmo Zakres częstotliwości (kHz)
0 0,0 - 5,5
1 5,5 - 11,0
2 11,0 - 16,5
3 16,5 - 22,0
PL 208 846 B1
2. Analizator sygnału pasma podstawowego
Analizator 710 sygnału pasma podstawowego wybiera, które składowe widma należy odrzucić, a które zachować dla sygnału pasma podstawowego. Wybór taki może się zmieniać w zależności od właściwości sygnału wejściowego lub też może pozostawać stały w zależności od wymagań zastosowania. Jednakże twórcy wynalazku stwierdzili doświadczalnie, że odbierana jakość sygnału akustycznego pogarsza się, jeżeli odrzucić jedną lub więcej podstawowych częstotliwości sygnału. Korzystne jest zatem zachowanie tych części widma, które zawierają podstawowe częstotliwości sygnału. Ponieważ podstawowe częstotliwości głosu i większości naturalnych instrumentów muzycznych zwykle nie są większe niż w przybliżeniu 5 kHz, korzystna realizacja nadajnika 136 przeznaczonego do zastosowań muzycznych wykorzystuje stałą częstotliwość odcięcia w przybliżeniu 5000 kHz i odrzuca wszystkie składowe widma powyżej tej częstotliwości. W przypadku stałej częstotliwości odcięcia analizator sygnału pasma podstawowego nie musi robić nic poza określeniem stałej częstotliwości odcięcia filtru 715 i widmowego analizatora 722. W alternatywnym przykładzie realizacji analizator 710 sygnału pasma podstawowego jest wyeliminowany, a filtr 715 i widmowy analizator 722 działają zgodnie ze stałą częstotliwością odcięcia. W strukturze subpasm przedstawionej powyżej w tabeli 1, przykładowo tylko w subpaśmie 0, utrzymane są składowe widmowe dla sygnału pasma podstawowego. Wybór ten jest również odpowiedni, ponieważ ucho ludzkie nie może łatwo wykrywać różnic częstotliwości powyżej 5 kHz i dlatego nie może łatwo wychwycić niedokładności w odtworzonych składowych powyżej tej częstotliwości.
Wybór częstotliwości odcięcia ma wpływ na szerokość pasma sygnału pasma podstawowego, która z kolei ma wpływ na kompromis pomiędzy wymaganiami dotyczącymi pojemności informacji sygnału wyjściowego generowanego przez nadajnik 136 a odbieraną jakością sygnału odtworzonego przez odbiornik 142. Odbierana jakość sygnału odtworzonego przez odbiornik 142 jest zależna od trzech czynników, które są omówione w następnych ustępach.
Pierwszym czynnikiem jest dokładność nadawanej lub zapisanej reprezentacji sygnału pasma podstawowego. Zwykle, jeżeli szerokość pasma sygnału pasma podstawowego jest utrzymywana jako stała, odbierana jakość odtworzonego sygnału będzie coraz lepsza przy zwiększaniu dokładności reprezentacji sygnału pasma podstawowego. Niedokładności reprezentują szum, który będzie słyszalny w odtworzonym sygnale, jeżeli niedokładności te są wystarczająco duże. Szum ten będzie pogarszać zarówno odbieraną jakość sygnału pasma podstawowego, jak i składowe widmowe odtwarzane z sygnału pasma podstawowego. W przykładowej realizacji reprezentacja sygnału pasma podstawowego jest zestawiona ze współczynników transformacji w domenie częstotliwościowej. Dokładność takiej reprezentacji jest kontrolowana przez liczbę bitów wykorzystywanych do wyrażenia każdego współczynnika transformacji. Można zastosować pewne techniki kodowania, by osiągnąć określony poziom dokładności za pomocą mniejszej liczby bitów. Jednakże przy każdej technice kodowania istnieje podstawowy kompromis pomiędzy wymaganą dokładnością sygnału pasma podstawowego a wymaganą pojemnością informacji.
Drugim czynnikiem jest szerokość pasma sygnału pasma podstawowego, które jest nadawane lub zapisywane. Zwykle, jeżeli dokładność reprezentacji sygnału pasma podstawowego jest utrzymywana jako stała, odbierana jakość odtworzonego sygnału będzie rosnąć wraz ze zwiększaniem szerokości pasma sygnału pasma podstawowego. Stosowanie sygnałów pasma podstawowego o większej szerokości pasma umożliwia ograniczenie w odbiorniku 142 odtwarzanych składowych widmowych do wyższych częstotliwości, przy których słuch ludzki jest mniej wrażliwy na różnice w układzie czasowym i widmowym. W przykładowej realizacji wspomnianej powyżej szerokość pasma sygnału pasma podstawowego jest kontrolowana przez liczbę współczynników transformacji w reprezentacji. Można zastosować pewne techniki kodowania, by przenosić pewną liczbę współczynników za pomocą mniejszej liczby bitów. Jednakże podstawowy kompromis pomiędzy wymaganiami szerokości pasma sygnału pasma podstawowego a wymaganiami pojemności informacji istnieje przy każdej technice kodowania.
Trzecim czynnikiem jest pojemność informacji potrzebna do przesyłania lub zapisywania reprezentacji sygnału pasma podstawowego. Jeżeli wymagania dotyczące pojemności informacji są utrzymywane jako stałe, dokładność sygnału pasma podstawowego będzie zmieniać się odwrotnie proporcjonalnie z szerokością pasma sygnału pasma podstawowego. Potrzeby danego zastosowania będą zwykle wyznaczały wymaganie dotyczące określonej pojemności informacji dla sygnału wyjściowego wytworzonego przez nadajnik 136. Pojemność taka musi być przyporządkowana różnym częściom sygnału wyjściowego, takim jak reprezentacja sygnału pasma podstawowego i oceniana obwiednia
PL 208 846 B1 widmowa. Przyporządkowanie takie musi równoważyć wymagania wielu sprzecznych dążeń, które są znane w systemach telekomunikacyjnych. W ramach takiego przyporządkowania szerokość pasma sygnału pasma podstawowego należy wybierać tak, by równoważyć kompromis z dokładnością kodowania w celu optymalizacji odbieranej jakości odtworzonego sygnału.
3. Zespół oceny obwiedni widmowej
Zespół 720 oceny obwiedni widmowej analizuje sygnał akustyczny, by uzyskać informacje dotyczące obwiedni widmowej sygnału. Jeżeli dostępna pojemność informacji pozwoli, odbiornik 136 korzystnie otrzymuje ocenę widmowej obwiedni sygnału przez podzielenie widma sygnału na pasma częstotliwościowe o szerokości zbliżonej do krytycznych pasm ucha ludzkiego i wyprowadzenie informacji dotyczących siły sygnału w każdym paśmie. W większości zastosowań o ograniczonej pojemności informacji korzystne jest jednak podzielenie widma na mniejszą liczbę subpasm, tak jak w układzie przedstawionym powyżej w tabeli 1. Można stosować inne odmiany, takie jak obliczanie widmowej gęstości mocy lub wyprowadzanie średniej albo maksymalnej amplitudy w każdym paśmie. Bardziej skomplikowane sposoby mogą zapewniać wyższą jakość sygnału wyjściowego, ale zwykle wymagają większej mocy obliczeniowej. Wybór sposobu użytego w celu otrzymania ocenionej obwiedni widmowej zwykle ma pewne implikacje praktyczne, ponieważ zwykle ma wpływ na odbieraną jakość systemu telekomunikacyjnego. Jednakże wybór sposobu nie jest w zasadzie krytyczny. W razie potrzeby można stosować zasadniczo każdy sposób.
W jednym przykładzie realizacji z użyciem struktury subpasm przedstawionej w tabeli 1, zespół 720 oceny obwiedni widmowej otrzymuje ocenę obwiedni widmowej tylko dla subpasm 0, 1 i 2. Subpasmo 3 jest z tego wykluczone, aby zmniejszyć ilość informacji wymaganą do reprezentowania ocenianej obwiedni widmowej.
4. Analizator widmowy
Analizator widmowy 722 analizuje ocenianą obwiednię widmową otrzymaną z zespołu 720 oceny obwiedni widmowej oraz informacje z analizatora 710 sygnału pasma podstawowego, które wyznaczają składowe widmowe, które należy odrzucić z sygnału pasma podstawowego i oblicza co najmniej jeden z parametrów mieszania szumu, które mają być użyte przez odbiornik 142 do wygenerowania składowej szumu dla przesuwanych składowych widma. Korzystny przykład realizacji zmniejsza do minimum wymagania dotyczące prędkości transmisji danych przez obliczanie i przesyłanie jednego parametru mieszania szumu, który ma być stosowany przez odbiornik 142 wobec wszystkich przesuwanych składowych. Parametry mieszania szumu mogą być obliczane dowolnym z wielu różnych sposobów. Korzystny sposób polega na wyznaczeniu pojedynczego parametru mieszania szumu równego mierze płaskości widmowej, która jest obliczana ze stosunku średniej geometrycznej do średniej arytmetycznej krótkotrwałego widma mocy. Stosunek ten zgrubnie wyznacza płaskość widma. Większa miara płaskości widmowej, która oznacza bardziej płaskie widmo, oznacza również, że odpowiedni jest większa poziom mieszania szumu.
W alternatywnej realizacji nadajnika 136 składowe widmowe są grupowane w wielu subpasmach, takich jak przedstawione w tabeli 1, a nadajnik 136 wysyła dla każdego subpasma parametr mieszania szumu. Określa to dokładniej ile szumu należy zmieszać z informacją zawartą w przesuwanej częstotliwości, ale wymaga to również większej prędkości transmisji danych przy przesyłaniu dodatkowych parametrów mieszania szumu.
5. Filtr sygnału pasma podstawowego
Filtr 715 otrzymuje informacje z analizatora 710 sygnału pasma podstawowego, które identyfikują składowe widmowe wybrane do usunięcia z sygnału pasma podstawowego i eliminują wybrane składowe częstotliwościowe, by otrzymać reprezentację sygnału pasma podstawowego w domenie częstotliwościowej do przesyłania lub zapisania. Figury 3A i 3B są hipotetycznymi ilustracjami graficznymi sygnału akustycznego i odpowiedniego sygnału pasma podstawowego. Figura 3A przedstawia obwiednię widmową reprezentacji 600 hipotetycznego sygnału akustycznego w domenie częstotliwościowej. Figura 3B przedstawia obwiednię widmową sygnału 610 pasma podstawowego, która pozostaje po przetworzeniu sygnału akustycznego w celu usunięcia wybranych składowych wysokiej częstotliwości.
Filtr 715 może być realizowany zasadniczo w dowolny sposób, który skutecznie usuwa składowe częstotliwościowe, które zostały wybrane do usunięcia. W jednym przykładzie realizacji filtr 715 wykorzystuje funkcję okna w domenie częstotliwościowej do reprezentowania wejściowego sygnału akustycznego w domenie częstotliwościowej. Kształt tej funkcji okna jest wybrany tak, aby zapewnić
PL 208 846 B1 odpowiedni kompromis pomiędzy selektywnością częstotliwościową i tłumiennością wobec wpływów w domenie czę stotliwo ściowej na wyjś ciowy sygnał akustyczny, który jest ostatecznie wytwarzany przez odbiornik 142.
6. Zespół formowania sygnału
Zespół 725 formowania sygnału wytwarza sygnał wyjściowy w kanale telekomunikacyjnym 140 przez łączenie informacji ocenionej obwiedni widmowej, co najmniej jednego parametru mieszania szumu i reprezentacji sygnału pasma podstawowego w sygnał wyjściowy w postaci nadającej się do przesyłania lub zapisania. Poszczególne sygnały mogą być łączone zasadniczo w dowolny sposób. W wielu zastosowaniach zespół 725 formatowania powoduje zwielokrotnienie oddzielnych sygnałów w szeregowy strumień bitów o odpowiednich wzorach synchronizacji, z odpowiednią detekcją błędów i kodami korekcji oraz z innymi informacjami, które dotyczą operacji przesyłania albo zapisywania, lub też zastosowania, w którym wykorzystywana jest informacja akustyczna. Zespół 725 formatowania sygnału może również kodować całość lub części sygnału wyjściowego, aby zmniejszyć wymagania dotyczące pojemności informacji, zapewnić bezpieczeństwo, albo doprowadzić sygnał wyjściowy do postaci, która ułatwia późniejsze wykorzystywanie go.
C. Odbiornik
Figura 4 jest schematem blokowym odbiornika 142 według jednego aspektu przedmiotowego wynalazku. Zespół 805 deformatowania odbiera sygnał z telekomunikacyjnego kanału 140 i otrzymuje z tego kanału sygnał pasma podstawowego, informacje ocenionej obwiedni widmowej oraz co najmniej jeden parametr mieszania szumu. Te elementy informacji są przesyłane do zespołu 808 przetwarzania sygnału, który zawiera widmowy odtwarzacz 810, regulator fazy 815, mieszający filtr 818 i regulator wzmocnienia 820. Odtwarzacz 810 składowych widmowych określa, których składowych widmowych brakuje w sygnale pasma podstawowego i odtwarza je przez przesunięcie wszystkich lub przynajmniej niektórych składowych widmowych sygnału pasma podstawowego na miejsca brakujących składowych widmowych. Te przeniesione składowe są przekazywane do regulatora fazy 815, który ustawia fazę co najmniej jednej składowej widmowej w połączonym sygnale, aby zapewnić zgodność fazową. Mieszający filtr 818 dodaje co najmniej jeden składnik szumowy do przeniesionych składowych zgodnie z co najmniej jednym parametrem mieszania szumu, odebranym z sygnałem pasma podstawowego. Taki regulator wzmocnienia 820 ustawia amplitudę składowych widmowych w odtworzonym sygnale zgodnie z informacjami ocenionej obwiedni widmowej, odebranymi wraz z sygnałem pasma podstawowego. Przeniesione i ustawione składowe widmowe są łączone z sygnałem pasma podstawowego, by wytworzyć reprezentację sygnału wyjściowego w domenie częstotliwościowej. Zespół 825 filtrów syntezy przetwarza ten sygnał, by otrzymać reprezentację sygnału wyjściowego w domenie czasowej, którą przesyła się wzdłuż toru 145.
1. Zespół deformatowania
Zespół 805 deformatowania przetwarza sygnał odebrany z telekomunikacyjnego kanału 140 w taki sposób, że jest on komplementarny w odniesieniu do procesu formatowania, przeprowadzanego przez zespół 725 formatowania sygnału. W wielu zastosowaniach zespół 805 deformatowania odbiera szeregowy strumień bitów z kanału 140, wykorzystuje wzory synchronizacji zawarte w tym strumieniu bitów do synchronizowania swego działania, wykorzystuje kody korekcji i wykrywania błędów do identyfikacji i usuwania błędów, które zostały wprowadzone w strumień bitów podczas przesyłania lub zapisywania oraz działa jako demultiplekser, by utworzyć reprezentację sygnału pasma podstawowego, informacje ocenionej obwiedni widmowej, co najmniej jeden parametr mieszania szumu oraz dowolne inne informacje, które mogą być potrzebne w tym zastosowaniu. Zespół 805 deformatowania może również dekodować całość lub części szeregowego strumienia bitów w celu odwrócenia wyników ewentualnego kodowania przeprowadzonego przez nadajnik 136. Reprezentacja sygnału pasma podstawowego w domenie częstotliwościowej jest podawana na odtwarzacz 810 składowych widmowych, parametry mieszania szumu są podawane na filtr 818 mieszania, a informacje obwiedni widmowej są podawane na regulator wzmocnienia 820.
2. Odtwarzacz składowych widmowych
Odtwarzacz 810 składowych widmowych odtwarza brakujące składowe widmowe przez kopiowanie lub przenoszenie wszystkich lub przynajmniej niektórych składowych widmowych sygnału pasma podstawowego w miejsca brakujących składowych sygnału. Składowe widmowe mogą być kopiowane do więcej niż jednego przedziału częstotliwości, co umożliwia wytwarzanie sygnału wyjściowego o szerokości pasma większej niż podwójna szerokość pasma sygnału pasma podstawowego.
PL 208 846 B1
W przykładzie realizacji odbiornika 142, który wykorzystuje tylko subpasma 0 i 1 z tabeli 1, sygnał pasma podstawowego nie zawiera żadnych składowych widmowych powyżej częstotliwości odcięcia wynoszącej w przybliżeniu 5,5 kHz. Składowe widmowe sygnału pasma podstawowego są kopiowane lub przenoszone do zakresu częstotliwości 5,5-11,0 kHz. Jeżeli przykładowo potrzebna jest szerokość pasma 16,5 kHz, składowe widmowe sygnału pasma podstawowego mogą być również przenoszone do zakresów częstotliwości 11,0-16,5 kHz. Zwykle składowe widmowe są przenoszone do niezachodzących na siebie zakresów częstotliwości tak, że żadna szczelina nie istnieje w widmie zawierającym sygnał pasma podstawowego i wszystkie skopiowane składowe widmowe. Jednakże cecha taka nie jest istotna. Składowe widmowe mogą być przenoszone do zachodzących na siebie zakresów częstotliwości i/lub do zakresów częstotliwości ze szczelinami w widmie zasadniczo w dowolny żądany sposób.
Wybór, które składowe widmowe należy kopiować, można było zmienić w celu dostosowania do określonego zastosowania. Przykładowo składowe widmowe, które są kopiowane, nie muszą zaczynać się przy dolnej krawędzi pasma podstawowego i nie muszą kończyć się przy górnej krawędzi pasma podstawowego. Odbieraną jakość sygnału odtworzonego przez odbiornik 142 można czasami polepszyć przez wykluczenie podstawowych częstotliwości głosu i instrumentów, a kopiowanie tylko harmonicznych. Aspekt ten zastosowano w jednym przykładzie realizacji przez wykluczenie z przeniesienia takich składowych widmowych pasma podstawowego, które są poniżej około 1 kHz. Jeśli chodzi o strukturę pasma podstawowego przedstawioną przykładowo powyżej w tabeli 1, przenoszone są tylko składowe widmowe w zakresie od 1 kHz do około 5,5 kHz.
Jeżeli szerokość pasma wszystkich składowych widmowych, które mają być odtwarzane, jest większa niż szerokość pasma składowych widmowych pasma podstawowego, które mają być kopiowane, wówczas składowe widmowe pasma podstawowego mogą być kopiowane w sposób kołowy, zaczynając od składowej o najmniejszej częstotliwości, aż do składowej o największej częstotliwości, a w razie potrzeby z kontynuowaniem znów od składowej od najmniejszej częstotliwości. Przykładowo, biorąc pod uwagę strukturę subpasm przedstawioną w tabeli 1, jeżeli mają być kopiowane tylko składowe widmowe pasma podstawowego od 1 kHz do 5,5 kHz i mają być odtwarzane składowe widmowe dla subpasm 1 i 2, które obejmują częstotliwości od 5,5 kHz do 16,5 kHz, wówczas składowe widmowe pasma podstawowego 1-5,5 kHz są kopiowane do odpowiednich częstotliwości 5,5-10 kHz i te same składowe widmowe pasma podstawowego 1-5,5 kHz są ponownie kopiowane do odpowiednich częstotliwości 10-14,5 kHz, zaś składowe widmowe pasma podstawowego w zakresie 1-3 kHz są kopiowane do odpowiednich częstotliwości 14,5-16,5 kHz. Alternatywnie ten proces kopiowania można przeprowadzać dla każdego oddzielnego subpasma składowych odtwarzanych przez kopiowanie składowej o najniższej częstotliwości w paśmie podstawowym do dolnej krawędzi odpowiedniego subpasma i kontynuowanie ze składowymi widmowymi pasma podstawowego w układzie kołowym, jak to jest potrzebne do zakończenia przenoszenia do tego subpasma.
Na fig. 5A-5D przedstawiono hipotetyczne ilustracje graficzne obwiedni widmowej sygnału pasma podstawowego i obwiedni widmowej sygnałów tworzonych przez przeniesienie składowych widmowych w sygnale pasma podstawowego. Figura 5A przedstawia hipotetyczny zdekodowany sygnał 900 pasma podstawowego. Figura 5B przedstawia składowe widmowe sygnału 905 pasma podstawowego przeniesione do wyższych częstotliwości. Figura 5C przedstawia składowe 910 sygnału pasma podstawowego przeniesione wielokrotnie do wyższych częstotliwości. Figura 5D przedstawia sygnał uzyskiwany przez połączenie przeniesionych składowych 915 i sygnału 920 pasma podstawowego.
3. Regulator fazy
Przenoszenie składowych widmowych może powodować pewne nieciągłości fazy odtworzonych składowych. Opisana powyżej realizacja transformacji O-TDAC, jak również wiele innych możliwych realizacji tworzy reprezentacje w domenie częstotliwościowej, które są zorganizowane w blokach współczynników transformacji. Przeniesione składowe widmowe są również zorganizowane w blokach. Jeżeli składowe widmowe odtworzone przez przeniesienie mają nieciągłości fazy pomiędzy kolejnymi blokami, istnieje prawdopodobieństwo wystąpienia słyszalnych artefaktów w wyjściowym sygnale akustycznym.
Regulator fazy 815 ustawia fazę każdej odtworzonej składowej widmowej tak, by utrzymywać zgodną lub spójną fazę. W przykładzie realizacji odbiornika 142, w którym wykorzystuje się opisaną powyżej transformację O-TDAC, każda z odtworzonych składowych widmowych jest mnożona przez wartość zespoloną ejAw, gdzie Δω oznacza interwał częstotliwości, do którego przenoszona jest odpowiednia składowa widmowa, wyrażony jako wiele współczynników transformacji, które odpowiadają
PL 208 846 B1 temu interwałowi częstotliwości. Przykładowo, jeżeli pewna składowa widmowa jest przenoszona do częstotliwości sąsiedniej składowej, wówczas interwał przenoszenia Δω jest równy jedności. Alternatywne przykłady realizacji mogą wymagać różnych technik regulacji fazy odpowiednich dla konkretnej realizacji zespołu 825 filtrów syntezy.
Proces przenoszenia można dostosować do odtworzonych składowych z harmonicznymi znaczących składowych widmowych w sygnale pasma podstawowego. Dwa sposoby dostosowania przenoszenia polegają na zmienianiu albo specyficznych składowych widmowych, które są kopiowane, albo wartości przenoszenia. Jeżeli stosowany jest proces adaptacyjny, należy zwracać szczególną uwagę na zgodność fazy, jeżeli składowe widmowe są zorganizowane w blokach. Jeżeli odtwarzane składowe widmowe są kopiowane z różnych składowych podstawowych w poszczególnych blokach, albo jeśli wartość przenoszenia częstotliwości jest zmieniana w poszczególnych blokach, istnieje bardzo duże prawdopodobieństwo, że odtworzone składowe nie będą zgodne pod względem fazy. Możliwe jest dostosowanie przenoszenia składowych widmowych, ale trzeba starać się, by słyszalność artefaktów powodowanych przez niezgodność fazową nie była znaczna. System, który wykorzystuje albo techniki wielokrotnego przepuszczania, albo techniki przewidywania, mógłby wyznaczać interwały, w których przenoszenie mogłoby być dostosowywane. Bloki reprezentujące interwały sygnału akustycznego, w których odtworzone składowe widmowe są uważane za niesłyszalne, są zwykle dobrymi kandydatami do dostosowania procesu przenoszenia.
4. Filtr mieszania szumu
Filtr 818 mieszania szumu wytwarza składową szumu dla przenoszonych składowych widmowych przy wykorzystaniu parametrów mieszania szumu otrzymanych z zespołu 805 deformatowania. Mieszający filtr 818 wytwarza sygnał szumu, oblicza funkcję mieszania szumu wykorzystującą parametry mieszania szumu i wykorzystuje tę funkcję mieszania szumu do łączenia sygnału szumu z przenoszonymi składowymi widmowymi.
Sygnał szumu może być wytwarzany dowolnym z wielu różnych sposobów. W korzystnym przykładzie realizacji sygnał szumu jest wytwarzany przez generowanie ciągu przypadkowych liczb, których rozkład charakteryzuje się zerową średnią i wariancją równą jedności. Mieszający filtr 818 reguluje sygnał szumu przez mnożenie sygnału szumu przez funkcję mieszania szumu. Jeżeli stosuje się pojedynczy parametr mieszania szumu, wówczas funkcja mieszania szumu zasadniczo powinna regulować sygnał szumu tak, by miał on większą amplitudę przy wyższych częstotliwościach. Wynika to z omówionych powyżej założeń, że sygnały głosu i sygnały naturalnych instrumentów muzycznych mają tendencję do zawierania więcej szumu przy wyższych częstotliwościach. W korzystnym przykładzie realizacji, kiedy składowe widmowe są przenoszone do wyższych częstotliwości, funkcja mieszania szumu ma maksymalną amplitudę przy najwyższej częstotliwości i zmniejsza się gładko do wartości minimalnej przy najniższej częstotliwości, przy której szum jest mieszany.
Jeden przykład realizacji wykorzystuje funkcję mieszania szumu N(/c) określoną następującym wzorem:
N(k) = maks I . k l-M'N— + B-1,0] dla kMIN < k < Imaks (1)
V kMAKS - kMIN ) gdzie maks(x,y) oznacza większą ze zmiennych x i y,
B = parametr mieszania szumu oparty na SFM, k = indeks odtwarzanych składowych widmowych, kMAKS = największa częstotliwość odtwarzania składowej widmowej, oraz kMIN = najmniejsza częstotliwość odtwarzania składowej widmowej.
W tym przykładzie realizacji wartość B zmienia się od zero do jeden, przy czym jeden oznacza płaskie widmo, które jest typowe dla sygnału podobnego do szumu, a zero oznacza kształt widma, który nie jest płaski i jest typowy dla sygnału dźwiękopodobnego. Wartość ułamka w równaniu 1 zmienia się od zero do jeden, gdy k zwiększa się od kMIN do kMAKS. Jeżeli B jest równe zero, pierwszy czynnik funkcji „maks zmienia się od wartości minus jeden do zero, a zatem N(k) będzie równe zero w całym odtwarzanym widmie i żaden szum nie będzie dodawany do odtworzonych składowych widmowych. Jeżeli B jest równe jeden, pierwszy czynnik funkcji max zmienia się od zero do jeden. Na skutek tego N(k) zwiększa się liniowo od zera przy najniższej odtwarzanej częstotliwości kMIN, aż do wartości równej jeden przy maksymalnej odtwarzanej częstotliwości kMAKS. Jeżeli B ma wartość pomiędzy zerem a jednością, N(k) jest równe zero od kMIN, aż do pewnej częstotliwości pomiędzy kMIN a kMAKS, po czym zwiększa się liniowo w pozostałej części odtwarzanego widma. Amplituda odtwa12
PL 208 846 B1 rzanych składowych widmowych jest regulowana przez mnożenie odtworzonych składowych przez funkcję mieszania szumu. Regulowany sygnał szumu i regulowane odtworzone składowe widmowe zostają połączone.
Opisany powyżej przykład realizacji jest jedynie jednym odpowiednim przykładem. W razie potrzeby można stosować inne techniki mieszania szumu.
Figury 6A-6G są hipotetycznymi ilustracjami graficznymi widmowych obwiedni sygnałów otrzymanych przez odtworzenie składowych wysoko-częstotliwościowych przy użyciu zarówno przesunięcia widmowego, jak i mieszania szumu. Figura 6A przedstawia hipotetyczny wejściowy sygnał 410, który ma być wysyłany. Figura 6B przedstawia sygnał 420 pasma podstawowego wytworzony przez odrzucenie składowych wysokoczęstotliwościowych. Figura 6C przedstawia odtworzone składowe 431,432 i 433 wysokiej częstotliwości. Figura 6D przedstawia możliwą funkcję 440 mieszania szumu, która nadaje większą wagę składowym szumu o wyższych częstotliwościach. Figura 6E jest schematyczną ilustracją sygnału 445 szumu, który został pomnożony przez funkcję 440 mieszania szumu. Figura 6F przedstawia sygnał 450 wytworzony przez pomnożenie odtworzonych składowych 431,432 i 433 wysokiej częstotliwości przez odwrotność funkcji 440 mieszania szumu. Figura 6G jest schematyczną ilustracją połączonego sygnału 460, uzyskanego po dodaniu regulowanego sygnału 445 szumu do regulowanych składowych 450 wysokiej częstotliwości. Figura 6G przedstawia schematycznie, że wysokoczęstotliwościowa część 430 stanowi mieszaninę przeniesionych składowych 431, 432 i 433 wysokiej częstotliwości i szumu.
5. Regulator wzmocnienia
Regulator 820 wzmocnienia ustawia amplitudę odtworzonego sygnału w zależności od informacji ocenionej obwiedni widmowej, otrzymanej z zespołu 805 deformatowania. Figura 6H jest hipotetyczną ilustracją obwiedni widmowej sygnału 460 pokazanego na fig. 6G po regulacji wzmocnienia. Część 510 tego sygnału, zawierającego mieszaninę przesuniętych składowych widmowych i szumu, otrzymała obwiednię widmową zbliżoną do obwiedni widmowej pierwotnego sygnału 410, pokazanego na fig. 6A. Odtwarzanie obwiedni widmowej w dokładnej skali zwykle nie jest niezbędne, ponieważ odtworzone składowe widmowe nie odtwarzają dokładnie składowych widmowych pierwotnego sygnału. Przesunięty szereg harmoniczny zwykle nie będzie równy szeregowi harmonicznemu. Z tego powodu zwykle nie ma możliwości zapewnienia, że odtworzony sygnał wyjściowy jest identyczny z pierwotnym sygnałem wejściowym w dokładnej skali. Zgrubne przybliżenia, które dopasowują energię widmową w małej liczbie krytycznych pasm dają dobry wynik. Należy również zauważyć, że zastosowanie raczej zgrubnej oceny kształtu widma, a nie dokładniejszej aproksymacji jest zwykle korzystne, ponieważ zgrubna ocena nakłada na kanały przesyłowe i nośniki zapisu mniejsze wymagania dotyczące pojemności informacji. W zastosowaniach akustycznych, które mają więcej niż jeden kanał, można jednak polepszyć zobrazowanie słuchowe przez użycie dokładniejszych aproksymacji kształtu widma, tak że można wprowadzić dokładniejsze regulacje wzmocnienia, by zapewnić dokładne zrównoważenie pomiędzy kanałami.
6. Zespół filtrów syntezy
Odtworzone składowe widmowe poddane regulacji wzmocnienia przez regulator 820 wzmocnienia łączy się z reprezentacją sygnału pasma podstawowego w domenie częstotliwościowej, odebraną z zespołu 805 deformatowania, by utworzyć reprezentację odtworzonego sygnału w domenie częstotliwościowej. Można to zrobić przez dodanie odtworzonych składowych do analogicznych składowych sygnału pasma podstawowego. Figura 7 przedstawia hipotetyczny sygnał odtworzony otrzymany przez łączenie sygnału pasma podstawowego, pokazanego na fig. 6B, z odtworzonymi składowymi, pokazanymi na fig. 6H.
Zespół 825 filtrów syntezy transformuje reprezentację odtworzonego sygnału w domenie częstotliwościowej w reprezentację w domenie czasowej. Ten zespół filtrów może być zrealizowany zasadniczo w dowolny sposób, ale powinien być odwrotnością zespołu 705 filtrów, używanego w nadajniku 136. W korzystnej realizacji, omówionej powyżej, odbiornik 142 wykorzystuje syntezę O-TDAC, która stosuje odwrotną zmodyfikowaną transformację DCT.
D. Alternatywne przykłady realizacji wynalazku
Szerokość i lokalizację sygnału pasma podstawowego można ustalać zasadniczo w dowolny sposób i można je zmieniać dynamicznie np. w zależności od właściwości sygnału wejściowego. W jednym alternatywnym przykładzie realizacji nadajnik 136 generuje sygnał pasma podstawowego przez odrzucanie wielu pasm składowych widmowych, przez co tworzone są w widmie sygnału pasma
PL 208 846 B1 podstawowego szczeliny. Podczas odtwarzania składowych widmowych części sygnału pasma podstawowego są przesuwane w celu odtworzenia brakujących składowych widmowych.
Można również zmieniać kierunek przesuwania. W innym przykładzie realizacji nadajnik 136 odrzuca składowe widmowe niskiej częstotliwości, by wytworzyć sygnał pasma podstawowego usytuowany przy stosunkowo wyższych częstotliwościach. Odbiornik 142 przesuwa części sygnału pasma podstawowego wysokiej częstotliwości do dołu w kierunku do niższych częstotliwości, by odtworzyć brakujące składowe widmowe.
E. Sterowanie obwiednią czasową
Omówione powyżej techniki odtwarzania nadają się do generowania odtworzonego sygnału, który zasadniczo zachowuje obwiednię widmową wejściowego sygnału akustycznego. Jednakże, czasowa obwiednia sygnału wejściowego zwykle nie jest zachowana, fig. 8A przedstawia czasowy kształt akustycznego sygnału 860. Figura 8B przedstawia czasowy kształt odtworzonego wyjściowego sygnału 870, wytworzonego przez uzyskanie sygnału pasma podstawowego z sygnału 860 z fig. 8A i odtworzenie odrzuconych składowych widmowych w procesie przesuwania składowych widmowych. Czasowy kształt odtworzonego sygnału 870 różni się znacznie od czasowego kształtu pierwotnego sygnału 860.
Zmiany czasowego kształtu mogą mieć znaczny wpływ na odbieraną jakość odtworzonego sygnału akustycznego. Poniżej omówione zostaną dwa sposoby zachowywania obwiedni czasowej.
1. Technika w domenie czasowej
Według pierwszego sposobu nadajnik 136 określa czasową obwiednię wejściowego sygnału akustycznego w domenie czasowej, a odbiornik 142 odtwarza taką samą lub zasadniczo taką samą obwiednię czasową odtworzonego sygnału w domenie czasowej.
a) Nadajnik
Figura 9 przedstawia schemat blokowy jednego przykładu realizacji nadajnika 136 w systemie łączności, który wykorzystuje sterowanie obwiedni czasowej przy użyciu techniki w domenie czasowej. Zespół 205 filtrów analizy odbiera sygnał wejściowy z toru 115 i dzieli ten sygnał na wiele sygnałów subpasm częstotliwości. Na rysunku tym przedstawiono tylko dwa subpasma, by zachować przejrzystość, jednakże zespół 205 filtrów analizy może dzielić sygnał wejściowy na dowolną całkowitą liczbę subpasm, która jest większa niż jeden.
Zespół 205 filtrów analizy może być realizowany zasadniczo w dowolny sposób, np. w postaci jednego lub wielu filtrów zwierciadła kwadraturowego (QMF), połączonych kaskadowo, albo korzystnie przez technikę pseudo-QMF, która umożliwia dzielenie sygnału wejściowego na dowolną całkowitą liczbę subpasm w jednym etapie filtrowania. Dodatkowe informacje na temat techniki pseudo-QMF można znaleźć w pracy Vaidyanathan, Multirate Systems and Filter Banks, Prentice Hall, New Jersey, 1993, str. 354-373.
Do tworzenia sygnału pasma podstawowego wykorzystuje się co najmniej jeden sygnał subpasma. Pozostałe sygnały subpasm zawierają składowe widmowe sygnału wejściowego, które są odrzucane. W wielu zastosowaniach sygnał pasma podstawowego jest tworzony z jednego sygnału subpasma, reprezentującego składowe widmowe najniższej częstotliwości z sygnału wejściowego, ale zasadniczo nie jest to konieczne. W jednym korzystnym przykładzie realizacji systemu przesyłania lub zapisywania wejściowego sygnału cyfrowego próbkowanego z częstotliwością 44,1 tysiąca próbek na sekundę zespół 205 filtrów analizy dzieli sygnał wejściowy na cztery subpasma, których zakresy częstotliwości są takie, jak przedstawiono w tabeli 1. Subpasmo najniższej częstotliwości jest wykorzystywane do tworzenia sygnału pasma podstawowego.
W przykładzie realizacji z fig. 9, zespół 205 filtrów analizy przepuszcza sygnał subpasma niskiej częstotliwości jako sygnał pasma podstawowego do zespołu 213 oceniania obwiedni czasowej i modulatora 214. Zespół 213 oceny obwiedni czasowej tworzy ocenioną obwiednię czasową sygnału pasma podstawowego, podawaną na modulator 214 i zespół 225 formatowania sygnału. Korzystnie składowe widmowe sygnału pasma podstawowego poniżej 500 Hz są albo wykluczane z procesu oceny obwiedni czasowej, albo są tłumione tak, że nie mają żadnego znaczącego wpływu na kształt ocenionej obwiedni czasowej. Można to osiągnąć przez poddawanie sygnału przeanalizowanego przez zespół 213 oceny obwiedni czasowej działaniu odpowiedniego filtru górnoprzepustowego. Modulator 214 dzieli amplitudę sygnału pasma podstawowego przez ocenianą obwiednią tymczasową i podaje na zespół 215 filtrów analizy reprezentację sygnału pasma podstawowego, która jest spłaszczona czasowo. Zespół 215 filtrów analizy wytwarza reprezentację spłaszczonego sygnału pasma podstawowego w domenie częstotliwościowej, która jest podawana na koder 220 w celu zakodowania. Zespół 215 filtrów analizy, jak również omówiony poniżej zespół 212 filtrów analizy mogą być
PL 208 846 B1 realizowane przez zasadniczo dowolną transformację z domeny czasowej do domeny częstotliwościowej, jednakże zasadniczo korzystna jest transformacja podobna do transformacji O-TDAC, która realizuje krytycznie próbkowany zespół filtrów. Koder 220 jest opcjonalny. Jednakże jego stosowanie jest korzystne, ponieważ kodowanie można zwykle wykorzystywać do zmniejszania wymagań informacyjnych spłaszczonego sygnału pasma podstawowego. Spłaszczony sygnał pasma podstawowego w postaci zakodowanej lub też nie jest podawany na zespół 225 formatowania sygnału.
Zespół 205 filtrów analizy podaje sygnał subpasma wyższej częstotliwości na zespół 210 oceny obwiedni czasowej i na modulator 211. Zespół 210 oceny obwiedni czasowej tworzy ocenioną obwiednię czasową sygnału subpasma wyższej częstotliwości i podaje ją na modulator 211 oraz na zespół 225 formatowania sygnału wyjściowego. Modulator 211 dzieli amplitudę sygnału subpasma wyższej częstotliwości przez ocenioną obwiednię czasową i podaje na zespół 212 filtrów analizy reprezentację sygnału subpasma wyższej częstotliwości, która jest spłaszczona czasowo. Zespół 212 filtrów analizy wytwarza reprezentację spłaszczonego sygnału subpasma wyższej częstotliwości w domenie częstotliwościowej. Zespół 720 obwiedni widmowej i widmowy analizator 722 podają ocenioną obwiednię widmową i odpowiednio co najmniej jeden parametr mieszania szumu dla sygnału subpasma wyższej częstotliwości zasadniczo w taki sam sposób, jak opisano powyżej, na zespół 225 formatowania sygnału.
Zespół 225 formatowania sygnału podaje sygnał wyjściowy w telekomunikacyjny kanał 140 przez łączenie reprezentacji spłaszczonego sygnału pasma podstawowego, ocenionych czasowych obwiedni sygnału pasma podstawowego i sygnału subpasma wyższej częstotliwości, ocenionej obwiedni widmowej oraz co najmniej jednego parametru mieszania szumu w sygnał wyjściowy. Poszczególne sygnały i informacje są składane w jeden sygnał o formacie nadającym się do przesyłania lub zapisywania przy użyciu zasadniczo dowolnej żądanej techniki formatowania, jak opisano powyżej w odniesieniu do zespołu 725 formatowania sygnału.
b) Zespół oceny obwiedni czasowej
Zespoły 210 i 213 oceny obwiedni czasowej mogą być realizowane wieloma różnymi sposobami. W jednym przykładzie realizacji każdy z tych zespołów oceny przetwarza sygnał subpasma tak, że dzieli go na bloki próbek sygnału subpasma. Te bloki próbek sygnału subpasma są również przetwarzane albo przez zespół 212 filtrów analizy, albo przez zespół 215 filtrów analizy. W wielu praktycznych realizacjach bloki te zawierają liczbę próbek, która jest potęgą liczby dwa i jest większa niż 256 próbek. Taka wielkość bloku jest zwykle korzystna w celu polepszenia skuteczności i rozdzielczości częstotliwościowej transformacji użytych do zrealizowania zespołów 212 i 215 filtrów analizy. Taka długość bloków może być również przyjęta w odpowiedzi na pewne właściwości sygnału wejściowego, takie jak występowanie lub brak dużych sygnałów przejściowych. Każdy blok jest ponadto dzielony na grupy po 256 próbek do oceny obwiedni czasowej. Wielkość tych grup jest wybrana tak, by wyważyć kompromis pomiędzy dokładnością oceny a ilością informacji potrzebną do przenoszenia tej oceny w sygnale wyjściowym.
W jednym przykładzie realizacji zespół oceny obwiedni czasowej oblicza moc próbek w każdej grupie próbek sygnału subpasma. Zestaw wartości mocy dla bloku próbek sygnału subpasma jest ocenioną obwiednią czasową tego bloku. W innym przykładzie realizacji zespół oceny obwiedni czasowej oblicza wartość średnią wielkości próbek sygnału subpasma w każdej grupie. Zestaw średnich dla bloku jest ocenioną obwiednią czasową tego bloku.
Zestaw wartości ocenionej obwiedni może być kodowany wieloma różnymi sposobami. W jednym przykładzie obwiednią dla każdego bloku jest reprezentowana przez wartość początkową dla pierwszej grupy próbek w bloku i zestaw wartości różnicowych, które wyrażają względne wartości dla dalszych grup. W innym przykładzie kody różnicowe albo kody bezwzględne wykorzystuje się w sposób adaptacyjny, by zmniejszyć ilość informacji potrzebną do przenoszenia tych wartości.
c) Odbiornik
Figura 10 przedstawia schemat blokowy jednego przykładu realizacji odbiornika 142 w systemie telekomunikacyjnym, który wykorzystuje sterowanie obwiedni czasowej przy użyciu techniki w domenie czasowej. Zespół 265 deformatowania otrzymuje sygnał z telekomunikacyjnego kanału 140 i uzyskuje z tego sygnału reprezentację spłaszczonego sygnału pasma podstawowego, ocenione obwiednie czasowe sygnału pasma podstawowego oraz sygnał subpasma wyższej częstotliwości, ocenioną obwiednię widmową i co najmniej jeden parametr mieszania szumu. Dekoder 267 jest opcjonalny, ale powinien być używany, by usuwać wpływ kodowania przeprowadzonego w nadajniku 136 w celu otrzymania reprezentacji spłaszczonego sygnału pasma podstawowego w domenie częstotliwościowej.
PL 208 846 B1
Zespół 280 filtrów syntezy otrzymuje reprezentację spłaszczonego sygnału pasma podstawowego w domenie częstotliwościowej i wytwarza reprezentację w domenie czasowej stosując technikę, która jest odwróceniem techniki stosowanej w zespole 215 filtrów analizy w nadajniku 136. Modulator 281 otrzymuje ocenioną obwiednię czasową sygnału pasma podstawowego z zespołu 265 deformatowania i wykorzystuje tę ocenioną obwiednię do modulowania spłaszczonego sygnału pasma podstawowego, odebranego z zespołu 280 filtrów syntezy. Modulacja ta tworzy czasowy kształt, który jest zasadniczo taki sam jak czasowy kształt pierwotnego sygnału pasma podstawowego przed spłaszczeniem przez modulator 214 w nadajniku 136.
Procesor 808 sygnału odbiera reprezentację spłaszczonego sygnału pasma podstawowego w domenie częstotliwościowej, ocenioną obwiednię widmową oraz co najmniej jeden parametr mieszania szumu z zespołu 265 deformatowania i odtwarza składowe widmowe w taki sam sposób, jak omówiono powyżej w odniesieniu do procesora 808 sygnału, przedstawionego na fig. 4. Odtworzone składowe widmowe są podawane na zespół 283 filtrów syntezy, który wytwarza reprezentację w domenie czasowej wykorzystując technikę, która jest odwróceniem techniki użytej przez zespoły 212 i 215 filtrów analizy w nadajniku 136. Modulator 284 odbiera ocenioną obwiednię czasową sygnału subpasma wyższej częstotliwości z zespołu 265 deformatowania i wykorzystuje tę ocenioną obwiednię do modulowania odtworzonych składowych widmowych sygnału odebranego z zespołu 283 filtrów syntezy. Modulacja taka tworzy czasowy kształt, który jest zasadniczo taki sam jak czasowy kształt pierwotnego sygnału subpasma wyższej częstotliwości przed spłaszczeniem przez modulator 211 w nadajniku 136.
Zmodulowany sygnał subpasma i zmodulowany sygnał subpasma wyższej częstotliwości są łączone ze sobą, by utworzyć odtworzony sygnał, który jest podawany na zespół 287 filtrów syntezy. Ten zespół 287 filtrów syntezy wykorzystuje technikę będącą odwróceniem techniki użytej przez zespół 205 filtrów analizy w nadajniku 136 do przesłania torem 145 sygnału wyjściowego, który jest percepcyjnie nieodróżnialny lub prawie nieodróżnialny od pierwotnego sygnału wejściowego, odbieranego z toru 115 przez nadajnik 136.
2. Technika w domenie częstotliwościowej
Zgodnie z tym drugim sposobem nadajnik 136 określa czasową obwiednię wejściowego sygnału akustycznego w domenie częstotliwościowej, a odbiornik 142 odtwarza taką samą lub zasadniczo taką samą obwiednię czasową dla odtworzonego sygnału w domenie częstotliwościowej.
a) Nadajnik
Figura 11 przedstawia schemat blokowy jednego przykładu realizacji nadajnika 136 w systemie telekomunikacyjnym, który przeprowadza sterowanie obwiedni czasowej przy użyciu techniki w domenie częstotliwościowej. Realizacja tego nadajnika jest bardzo podobna do realizacji nadajnika pokazanego na fig. 2. Zasadnicza różnica tkwi w zespole 707 oceny obwiedni czasowej. Inne części składowe nie są tu szczegółowo omawiane, ponieważ ich działanie jest zasadniczo takie samo jak opisano powyżej w odniesieniu do fig. 2.
Jak pokazano na fig. 11, zespół 707 oceny obwiedni czasowej odbiera z zespołu 705 filtrów analizy reprezentację sygnału wejściowego w domenie częstotliwościowej, którą analizuje w celu utworzenia oceny obwiedni czasowej w sygnale wejściowym. Korzystnie składowe widmowe poniżej 500 Hz są albo odrzucane z reprezentacji w domenie częstotliwościowej, albo są tłumione tak, że nie mają one znaczącego wpływu na proces oceny obwiedni czasowej. Zespół 707 oceny obwiedni czasowej otrzymuje reprezentację czasowo spłaszczonej wersji sygnału wejściowego w domenie częstotliwościowej przez rozplecenie reprezentacji ocenionej obwiedni czasowej w domenie częstotliwościowej i reprezentacji sygnału wejściowego w domenie częstotliwościowej. Takie rozplecenie można przeprowadzić przez splecenie reprezentacji sygnału wejściowego w domenie częstotliwościowej z odwrotnością reprezentacji ocenionej obwiedni czasowej w domenie częstotliwościowej. Reprezentacja czasowo spłaszczonej wersji sygnału wejściowego w domenie częstotliwościowej jest podawana na filtr 715, analizator 710 sygnału pasma podstawowego i zespół 720 oceny obwiedni widmowej. Opis reprezentacji ocenionej obwiedni czasowej w domenie częstotliwościowej jest podawany na zespół 725 formatowania sygnału, by utworzyć sygnał wyjściowy, który jest podawany w telekomunikacyjny kanał 140.
b) Zespół oceny obwiedni czasowej
Zespół 707 oceny obwiedni czasowej może być realizowany wieloma sposobami. Podstawę techniczną jednego przykładu realizacji zespołu oceny obwiedni czasowej można wyjaśnić w systemie liniowym przedstawionym przez równanie 2:
PL 208 846 B1 y(t) = h(t) · x(t) (2) gdzie y(t) = sygnał do przesyłania; h(t) = obwiednia czasowa sygnału do przesyłania; znak kropki (·) oznacza mnożenie; oraz x(t) = czasowo spłaszczona wersja sygnału y(t).
Równanie 2 można zapisać w następującej postaci:
Y[k] = H[k] * X[k] (3) gdzie Y[k] = reprezentacja sygnału wejściowego y(t) w domenie częstotliwościowej;
H[k] = reprezentacja h(t) w domenie częstotliwościowej;
znak gwiazdki (*) oznacza splot; oraz
X[k] = reprezentacja x(t) w domenie częstotliwościowej.
Nawiązując do fig. 11, sygnał y(t) jest sygnałem akustycznym, jaki nadajnik 136 otrzymuje z toru 115. Zespół 705 filtrów analizy tworzy reprezentację Y[k] sygnału Y(t) w domenie częstotliwościowej. Zespół 707 oceny obwiedni czasowej otrzymuje ocenę reprezentacji H[k] czasowej obwiedni h(t) sygnału w domenie częstotliwościowej przez rozwiązanie zestawu równań otrzymanego z autoregresywnego ruchomego średniego (ARMA) modelu Y[k] i X[k]. Dodatkowe informacje na temat stosowania modeli ARMA można uzyskać z pracy Proakis i Manolakis, Digital Signal Processing: Principles, Algorithms and Applications, MacMillan Publishing Co., Nowy Jork, 1988. Patrz zwłaszcza s. 818-821.
W korzystnym przykładzie realizacji nadajnika 136 zespół 705 filtrów wykorzystuje pewną transformację do bloków próbek reprezentujących sygnał y(t), aby utworzyć reprezentację Y[k] w domenie czasowej, zestawioną w bloki współczynników transformacji. Każdy blok współczynników transformacji wyraża krótkotrwałe widmo sygnału y(t). Reprezentacja X[k] w domenie częstotliwościowej jest również zestawiona w blokach. Każdy blok współczynników w reprezentacji X[k] w domenie częstotliwościowej reprezentuje blok próbek dla spłaszczonego czasowo sygnału x(t), który jest przyjmowany jako stabilny w szerokim sensie (WSS). Zakłada się również, że współczynniki w każdym bloku reprezentacji X[k] są rozmieszczone niezależnie (ID). Przy tych założeniach sygnały można wyrazić przez model ARMA następująco:
Y[k] + ^a1Y[k-l]= £bqX[k - q] (4) l1 q-0
Równanie 4 można rozwiązać dla al, i bq przez rozwiązanie dla autokorelacji funkcji Y[k]:
E{Y[k]Y[k-m]}=]ra1E{Y[k-1} Y[k-m]+ Σbq E{x[k-q]-Y[k-m]} (5) l =1 q = 0 gdzie E{ } oznacza funkcję średniej statystycznej;
L = długość autoregresywnej części modelu ARMA; oraz
Q = długość ruchomej części średniej modelu ARMA.
Równanie 5 można zapisać w następującej postaci:
/. o Rrr M = Σ RyAm ~ Ą + Σ b<,RV (6) /=1 q=0 gdzie RYY[n] oznacza autokorelację funkcji Y[n] oraz
RxY[k] oznacza korelację krzyżową Y[k] i x[k].
Jeżeli założymy ponadto, że system liniowy reprezentowany przez H[k] jest tylko autoregresywny, wówczas drugie wyrażenie po prawej stronie równania 6 jest równe wariancji σ2χ z X[k]. Równanie 6 można wtedy zapisać następująco:
PL 208 846 B1
Równanie 7 można rozwiązać przez inwersję następującego zestawu równań liniowych:
^rr 7?n. [2] * 1 ‘ σΎ
Ą,.[l] [o] /?„.[-1] ' ^rr [_ «1 0
[l] 7?JT [0] · Ą’r [- -Ł + 2] «2 0
ĄT[i] 7?JT[Z-2] · • Μθ] . 0
Na tej podstawie można teraz opisać jeden przykład realizacji zespołu oceny obwiedni czasowej, który wykorzystuje techniki w domenie częstotliwościowej. W tym przykładzie realizacji zespół
707 oceny obwiedni czasowej otrzymuje reprezentację Y[k] wejściowego sygnału y(t) w domenie czasowej i oblicza ciąg autokorelacji RXX[m] dla -L < m < L. Wartości te są wykorzystywane do zbudowania macierzy przedstawionej w równaniu 8. Macierz ta jest następnie poddawana inwersji w celu rozwiązania jej dla współczynników aj. Ponieważ macierz w równaniu 8 jest macierzą Toeplitz'a, jej inwersję można wyznaczyć przez algorytm Levinson-Durbin'a. Informacje - patrz praca Proakis i Manolakis, str. 458-462.
Zestaw równań otrzymany przez inwersję tej macierzy nie może zostać rozwiązany bezpośrednio, ponieważ nie jest znana wariancja σ2χ funkcji X[k]. Jednakże ten zestaw równań można rozwiązać dla pewnej dowolnej wariancji, takiej jak wartość jeden. Po rozwiązaniu dla tej wartości dowolnej ten zestaw równań otrzymuje zespół nieznormalizowanych współczynników {a'0,...,a'L}. Współczynniki te są nieznormalizowane, ponieważ równania były rozwiązane dla wariancji dowolnej. Współczynniki te mogą zostać znormalizowane przez podzielenie każdego z nich przez wartość pierwszego nieznormalizowanego współczynnika a'0, co można wyrazić następująco:
ai = -Oi. dla 0 < i < L (9) a'0
Wariancję można otrzymać z następującego równania:
σ2χ = — (10) a'0
Zespół znormalizowanych współczynników {1, a1, aL} reprezentuje zera spłaszczającego filtru FF, który można spleść z reprezentacją Y[k] wejściowego sygnału y(f) w domenie częstotliwościowej, by otrzymać reprezentację X[k] czasowo spłaszczonej wersji x(t) sygnału wejściowego w domenie częstotliwościowej. Taki zestaw znormalizowanych współczynników reprezentuje również bieguny filtra odtwarzania FR, które można spleść z reprezentacją X[k] czasowo spłaszczonego sygnału x(t) w domenie częstotliwościowej, by otrzymać reprezentację tego płaskiego sygnału w domenie częstotliwościowej, posiadającą zmodyfikowany kształt czasowy zasadniczo identyczny z czasową obwiednią wejściowego sygnału y(t).
Zespół 707 oceny obwiedni czasowej splata spłaszczający filtr FF z reprezentacją Y[k] w domenie częstotliwościowej, otrzymaną z zespołu 705 filtrów i podaje czasowo spłaszczony wynik na filtr 715, analizator 710 sygnału pasma podstawowego oraz zespół 720 oceny obwiedni widmowej. Opis współczynników w spłaszczającym filtrze FF jest podawany na zespół 725 formatowania sygnału do włączania w sygnał wyjściowy przesyłany torem 140.
c) Odbiornik
Figura 12 przedstawia schemat blokowy jednego przykładu realizacji odbiornika 142 w systemie telekomunikacyjnym, który realizuje sterowanie obwiedni czasowej przy użyciu techniki w domenie częstotliwości. Realizacja tego odbiornika jest bardzo podobna do realizacji odbiornika pokazanego na fig. 4. Zasadnicza różnica tkwi w zespole 807 odtwarzania obwiedni czasowej. Inne części składowe nie są tu omawiane bardziej szczegółowo, ponieważ ich działanie jest zasadniczo takie samo jak opisano powyżej w odniesieniu do fig. 4.
PL 208 846 B1
W nawiązaniu do fig. 12 zespół 807 odtwarzania obwiedni czasowej odbiera z zespołu 805 deformatowania opis ocenionej obwiedni czasowej, który jest splatany z reprezentacją odtworzonego sygnału w domenie częstotliwościowej. Wynik otrzymany ze splatania jest podawany na zespół 825 filtrów syntezy, który przesyła w torze 145 sygnał wyjściowy percepcyjnie niemożliwy do odróżnienia lub prawie niemożliwy do odróżnienia od pierwotnego sygnału wejściowego, otrzymywanego z toru 115 przez nadajnik 136.
Zespół 807 odtwarzania obwiedni czasowej może być realizowany wieloma sposobami. W realizacji kompatybilnej z realizacją omówionego powyżej zespołu oceny obwiedni zespół 805 deformatowania tworzy zestaw współczynników, które reprezentują bieguny filtru odtwarzania FR, które są splatane z reprezentacją odtworzonego sygnału w domenie częstotliwościowej.
d) Alternatywne przykłady realizacji
Możliwe są alternatywne przykłady realizacji. W jednym alternatywnym wykonaniu nadajnika 136 składowe widmowe reprezentacji w domenie częstotliwościowej otrzymane z zespołu 705 filtrów są grupowane w subpasma częstotliwości. Zestaw subpasm z tabeli 1 jest jednym odpowiednim przykładem. Spłaszczający filtr FF jest realizowany dla każdego subpasma i splatany z reprezentacją każdego subpasma w domenie częstotliwościowej w celu czasowego spłaszczenia go. Zespół 725 formatowania sygnału włącza w sygnał wyjściowy identyfikację ocenionej obwiedni czasowej dla każdego subpasma. Odbiornik 142 otrzymuje tę identyfikację obwiedni dla każdego subpasma, ma odpowiedni filtr FR odtwarzania dla każdego subpasma i splata go z reprezentacją odpowiedniego subpasma w domenie częstotliwościowej w odtworzonym sygnale.
Według innej alternatywy tworzy się tabelę złożoną z wielu zestawów współczynników {Ci}i. Współczynniki {1, a1,...,aL} spłaszczającego filtru FF obliczane są dla sygnału wejściowego, a następnie są porównywane z każdym z wielu zestawów współczynników zapisanych w tabeli. Zestaw {Ci}j w tej tabeli, uważany za najbliższy obliczonym współczynnikom, zostaje wybrany i użyty do spłaszczania sygnału wejściowego. Identyfikacja zestawu {Ci}j, który jest wybrany z tabeli, podawana jest na zespół 725 formatowania sygnału w celu włączenia w sygnał wyjściowy. Odbiornik 142 odbiera identyfikację zestawu {Ci}j, sprawdza tablicę zapisanych zestawów współczynników, by otrzymać odpowiedni zestaw współczynników {Ci}j, tworzy filtr FR odtwarzania, odpowiadający tym współczynnikom i splata ten filtr z reprezentacją odtworzonego sygnału w domenie częstotliwościowej. Alternatywa taka może być również stosowana wobec subpasm, jak opisano powyżej.
Jeden sposób wybierania zestawu współczynników polega na tworzeniu docelowego punktu w L-wymiarowej przestrzeni ze współrzędnymi euklidesowymi równymi obliczonym współczynnikom (a1, aL) dla sygnału wejściowego lub subpasma sygnału wejściowego. Każdy z zestawów zapisanych w tej tabeli określa również odpowiedni punkt w przestrzeni L-wymiarowej. Zapisany w tabeli zestaw, którego skojarzony punkt ma najkrótszą odległość euklidesową do punktu docelowego, jest uważany za najbliższy obliczonym współczynnikom. Jeżeli tabela zawiera przykładowo 256 zestawów współczynników, na zespół 725 formatowania sygnału może być podawana liczba ośmiobitowa identyfikująca wybrany zestaw współczynników.
F. Przykłady realizacji
Niniejszy wynalazek może być realizowany wieloma różnymi sposobami. W zależności od potrzeb można stosować techniki analogowe i cyfrowe. Różne aspekty można realizować przez dyskretne elementy elektryczne, obwody scalone, programowane tablice logiczne, człony ASIC oraz inne rodzaje elementów elektronicznych i przez urządzenia realizujące przykładowo programy złożone z poleceń. Programy złożone z poleceń mogą być przenoszone przez zasadniczo dowolne czytelne za pomocą urządzeń media, takie jak magnetyczne i optyczne nośniki pamięci, pamięć stała i pamięć programowalna.

Claims (20)

1. Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym, znamienny tym, że dokonuje się jednego lub wielu przekształceń sygnału akustycznego w domenie czasowej na sygnał w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej, zawierającego pewne, lecz nie wszystkie, składowe widmowe sygnału akustycznego, analizuje się sygnał akustyczny dla obliczenia ocenianej obwiedni widmowej przynajmniej części sygnału akustycznego, oblicza się ocenianą obwiednię czasową przynajmniej części
PL 208 846 B1 sygnału akustycznego oraz łączy się dane przedstawiające reprezentację sygnału pasma podstawowego w domenie częstotliwościowej, ocenianą obwiednię czasową przynajmniej części sygnału akustycznego i ocenianą obwiednię widmową w sygnał wyjściowy właściwy do przesyłania lub zapisywania.
2. Sposób według zastrz. 1, znamienny tym, że zmienia się długość jednego lub wielu przekształceń domen czasowych na domeny częstotliwościowe.
3. Sposób według zastrz. 1 albo 2, znamienny tym, że dokonuje się transformacji analizy kasowania z aliasowaniem w domenie czasowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
4. Sposób według zastrz. 3, znamienny tym, że dokonuje się przekształcenia sygnału akustycznego w domenie czasowej na sygnał w domenie częstotliwościowej dla otrzymania reprezentacji sygnału akustycznego w domenie częstotliwościowej oraz filtruje się reprezentację sygnału akustycznego w domenie częstotliwościowej dla wydzielenia części reprezentacji sygnału akustycznego w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
5. Sposób według zastrz. 3, znamienny tym, że filtruje się za pomocą zespołu filtrów analizy sygnał akustyczny dla otrzymania wielu sygnałów podpasma, reprezentujących sygnał akustyczny, filtruje się za pomocą pierwszego zespołu filtrów analizy pierwszą grupę jednego lub wielu sygnałów podpasma, które zawierają pewne, lecz nie wszystkie, z wielu sygnałów podpasma dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej i filtruje się za pomocą drugiego zespołu filtrów analizy drugą grupę jednego lub wielu sygnałów pasma podstawowego, które nie są zawarte w pierwszej grupie sygnałów podpasma oraz analizuje się uzyskany sygnał dla otrzymania ocenianej obwiedni widmowej sygnału resztkowego.
6. Sposób według zastrz. 5, znamienny tym, że modyfikuje się drugą grupę sygnałów podpasma zgodnie z odwrotnością ocenianej obwiedni czasowej drugiej grupy sygnałów podpasma dla otrzymania czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma, przy czym oceniana obwiednią czasowa przynajmniej części sygnału akustycznego zawiera ocenianą obwiednię czasową drugiej grupy sygnałów podpasma i dokonuje się jednego lub wielu przekształceń domeny czasowej na domenę częstotliwościową w czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma dla otrzymania ocenianej obwiedni widmowej sygnału resztkowego.
7. Sposób według zastrz. 6, znamienny tym, że modyfikuje się pierwszą grupę sygnałów podpasma zgodnie z odwrotnością ocenianej obwiedni czasowej pierwszej grupy sygnałów podpasma dla otrzymania czasowo spłaszczonej reprezentacji pierwszej grupy sygnałów podpasma, przy czym oceniana obwiednia czasowa przynajmniej części sygnału akustycznego zawiera ocenianą obwiednię czasową pierwszej grupy sygnałów podpasma i dokonuje się jednego lub wielu przekształceń domeny czasowej na domenę częstotliwościową w czasowo spłaszczonej reprezentacji pierwszej grupy sygnałów podpasma dla otrzymania reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej.
8. Sposób według zastrz. 6, znamienny tym, że uzyskuje się parametr mieszania szumu z czasowo spłaszczonej reprezentacji drugiej grupy sygnałów podpasma i łączy się dane w sygnał wyjściowy, który reprezentuje parametr mieszania szumu.
9. Sposób według zastrz. 4, znamienny tym, że analizuje się reprezentację w domenie częstotliwościowej przynajmniej sygnału resztkowego dla otrzymania ocenianej obwiedni czasowej.
10. Sposób według zastrz. 4, znamienny tym, że oblicza się czasowo spłaszczoną reprezentację przynajmniej części sygnału akustycznego w odpowiedzi na odwrotność ocenianej obwiedni czasowej i oblicza się ocenianą obwiednię widmową z czasowo spłaszczonej reprezentacji.
11. Sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym, znamienny tym, że odbiera się sygnał zawierający dane reprezentujące sygnał pasma podstawowego, otrzymywany z sygnału akustycznego, ocenianą obwiednię widmową i ocenianą obwiednię czasową, wydziela się reprezentację sygnału pasma podstawowego w domenie częstotliwościowej z danych, przetwarza się składowe widmowe pasma podstawowego częstotliwościowo dla otrzymania odtwarzanego sygnału zawierającego odtwarzane składowe widmowe i dokonuje się jednego lub wielu przekształceń domeny częstotliwościowej na domenę czasową w kombinacji składowych widmowych odtwarzanego sygnału ze składowymi widmowymi reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej, przy czym uzyskuje się reprezentację w domenie czasowej o przebiegu czasowym regulowanym
PL 208 846 B1 w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową przez modyfikację składowych widmowych w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową albo przez modyfikację reprezentacji w domenie czasowej w odpowiedzi na dane reprezentujące ocenianą obwiednię czasową.
12. Sposób według zastrz. 11, znamienny tym, że zmienia się długość jednego lub wielu przekształceń domeny częstotliwościowej na domenę czasową.
13. Sposób według zastrz. 11 albo 12, znamienny tym, że dokonuje się transformacji syntezy kasowania z aliasowaniem w domenie czasowej dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej.
14. Sposób według zastrz. 13, znamienny tym, że dostosowuje się przetwarzanie składowych widmowych przez zmianę tego, którego składowe widmowe przesuwa się, lub przez zmianę wartości częstotliwości, o którą składowe widmowe przesuwa się.
15. Sposób według zastrz. 14, znamienny tym, że odbiera się dane w sygnale, który reprezentuje parametr mieszania szumu, uzyskiwany z miary zawartości szumu w sygnale akustycznym, generuje się sygnał szumu mający składowe widmowe, które zmieniają się zasadniczo odwrotnie do częstotliwości i modyfikuje się odtwarzany sygnał przez regulację amplitud odtwarzanych składowych widmowych zgodnie z ocenianą obwiednią widmową i parametrem mieszania szumu oraz łączy się modyfikowany odtwarzany sygnał z sygnałem szumu.
16. Sposób według zastrz. 14, znamienny tym, że łączy się składowe widmowe odtwarzanego sygnału i składowe widmowe reprezentacji sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania odtworzonego sygnału i filtruje się za pomocą zespołu filtrów syntezy odtworzony sygnał dla otrzymania reprezentacji odtworzonego sygnału w domenie czasowej.
17. Sposób według zastrz. 14, znamienny tym, że filtruje się za pomocą pierwszego zespołu filtrów syntezy reprezentację sygnału pasma podstawowego w domenie częstotliwościowej dla otrzymania reprezentacji sygnału pasma podstawowego w domenie czasowej, filtruje się za pomocą drugiego zespołu filtrów syntezy odtwarzany sygnał dla otrzymania reprezentacji odtwarzanego sygnału w domenie czasowej i generuje się reprezentację odtworzonego sygnału w domenie czasowej dla przedstawienia kombinacji reprezentacji sygnału pasma podstawowego w domenie czasowej i reprezentacji odtwarzanego sygnału w domenie czasowej.
18. Sposób według zastrz. 17, znamienny tym, że modyfikuje się reprezentację odtwarzanego sygnału w domenie czasowej zgodnie z ocenianą obwiednią czasową i łączy się reprezentację sygnału pasma podstawowego w domenie czasowej i zmodyfikowaną reprezentację odtwarzanego sygnału dla otrzymania odtworzonego sygnału.
19. Sposób według zastrz. 18, znamienny tym, że modyfikuje się reprezentację sygnału pasma podstawowego w domenie czasowej zgodnie z ocenianą obwiednią czasową i łączy się zmodyfikowaną reprezentację sygnału pasma podstawowego w domenie czasowej i zmodyfikowaną reprezentację odtwarzanego sygnału w domenie czasowej dla otrzymania odtworzonego sygnału.
20. Sposób według zastrz. 14, znamienny tym, że modyfikuje się reprezentację odtworzonego sygnału w domenie częstotliwościowej zgodnie z danymi reprezentującymi ocenianą obwiednię czasową dla regulacji przebiegu czasowego reprezentacji odtworzonego sygnału w domenie czasowej.
PL371410A 2002-03-28 2003-03-21 Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym PL208846B1 (pl)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US10/113,858 US20030187663A1 (en) 2002-03-28 2002-03-28 Broadband frequency translation for high frequency regeneration

Publications (2)

Publication Number Publication Date
PL371410A1 PL371410A1 (pl) 2005-06-13
PL208846B1 true PL208846B1 (pl) 2011-06-30

Family

ID=28453693

Family Applications (1)

Application Number Title Priority Date Filing Date
PL371410A PL208846B1 (pl) 2002-03-28 2003-03-21 Sposób przetwarzania sygnału akustycznego w urządzeniu elektronicznym i sposób generowania odtworzonego sygnału akustycznego w urządzeniu elektronicznym

Country Status (16)

Country Link
US (19) US20030187663A1 (pl)
EP (2) EP2194528B1 (pl)
JP (1) JP4345890B2 (pl)
KR (1) KR101005731B1 (pl)
CN (2) CN100338649C (pl)
AT (1) ATE511180T1 (pl)
AU (1) AU2003239126B2 (pl)
CA (1) CA2475460C (pl)
HK (2) HK1078673A1 (pl)
MX (1) MXPA04009408A (pl)
MY (1) MY140567A (pl)
PL (1) PL208846B1 (pl)
SG (8) SG153658A1 (pl)
SI (1) SI2194528T1 (pl)
TW (1) TWI319180B (pl)
WO (1) WO2003083834A1 (pl)

Families Citing this family (162)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7742927B2 (en) * 2000-04-18 2010-06-22 France Telecom Spectral enhancing method and device
AUPR433901A0 (en) 2001-04-10 2001-05-17 Lake Technology Limited High frequency signal construction method
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US7583805B2 (en) * 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
US7644003B2 (en) * 2001-05-04 2010-01-05 Agere Systems Inc. Cue-based audio coding/decoding
US20030035553A1 (en) * 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
US20030187663A1 (en) 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
US20040138876A1 (en) * 2003-01-10 2004-07-15 Nokia Corporation Method and apparatus for artificial bandwidth expansion in speech processing
EP1482482A1 (de) * 2003-05-27 2004-12-01 Siemens Aktiengesellschaft Frequenzerweiterung für Synthesizer
JP4719674B2 (ja) 2003-06-30 2011-07-06 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ノイズの加算によるデコードオーディオの品質の向上
US20050004793A1 (en) * 2003-07-03 2005-01-06 Pasi Ojala Signal adaptation for higher band coding in a codec utilizing band split coding
US7461003B1 (en) * 2003-10-22 2008-12-02 Tellabs Operations, Inc. Methods and apparatus for improving the quality of speech signals
US7672838B1 (en) 2003-12-01 2010-03-02 The Trustees Of Columbia University In The City Of New York Systems and methods for speech recognition using frequency domain linear prediction polynomials to form temporal and spectral envelopes from frequency domain representations of signals
US6980933B2 (en) * 2004-01-27 2005-12-27 Dolby Laboratories Licensing Corporation Coding techniques using estimated spectral magnitude and phase derived from MDCT coefficients
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
DE102004021403A1 (de) * 2004-04-30 2005-11-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Informationssignalverarbeitung durch Modifikation in der Spektral-/Modulationsspektralbereichsdarstellung
US7512536B2 (en) * 2004-05-14 2009-03-31 Texas Instruments Incorporated Efficient filter bank computation for audio coding
EP1744139B1 (en) * 2004-05-14 2015-11-11 Panasonic Intellectual Property Corporation of America Decoding apparatus and method thereof
CN101015000A (zh) * 2004-06-28 2007-08-08 皇家飞利浦电子股份有限公司 无线音频
WO2006018748A1 (en) * 2004-08-17 2006-02-23 Koninklijke Philips Electronics N.V. Scalable audio coding
TWI393120B (zh) * 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 用於音訊信號編碼及解碼之方法和系統、音訊信號編碼器、音訊信號解碼器、攜帶有位元流之電腦可讀取媒體、及儲存於電腦可讀取媒體上的電腦程式
TWI393121B (zh) * 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式
MX2007002483A (es) 2004-08-30 2007-05-11 Qualcomm Inc Memoria intermedia sin oscilacion adaptiva para voz sobre ip.
US8085678B2 (en) 2004-10-13 2011-12-27 Qualcomm Incorporated Media (voice) playback (de-jitter) buffer adjustments based on air interface
US7720230B2 (en) * 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
US8204261B2 (en) * 2004-10-20 2012-06-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Diffuse sound shaping for BCC schemes and the like
DE602005017302D1 (de) * 2004-11-30 2009-12-03 Agere Systems Inc Synchronisierung von parametrischer raumtonkodierung mit extern bereitgestelltem downmix
EP1817767B1 (en) 2004-11-30 2015-11-11 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
US7787631B2 (en) * 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
US7903824B2 (en) * 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
JP4761506B2 (ja) * 2005-03-01 2011-08-31 国立大学法人北陸先端科学技術大学院大学 音声処理方法と装置及びプログラム並びに音声システム
US8155965B2 (en) 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
US8355907B2 (en) 2005-03-11 2013-01-15 Qualcomm Incorporated Method and apparatus for phase matching frames in vocoders
CN101138274B (zh) 2005-04-15 2011-07-06 杜比国际公司 用于处理去相干信号或组合信号的设备和方法
US8311840B2 (en) * 2005-06-28 2012-11-13 Qnx Software Systems Limited Frequency extension of harmonic signals
JP4554451B2 (ja) * 2005-06-29 2010-09-29 京セラ株式会社 通信装置、通信システム、変調方法、及びプログラム
DE102005032724B4 (de) 2005-07-13 2009-10-08 Siemens Ag Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen
FR2891100B1 (fr) * 2005-09-22 2008-10-10 Georges Samake Codec audio utilisant la transformation de fourier rapide, le recouvrement partiel et une decomposition en deux plans basee sur l'energie.
KR100717058B1 (ko) * 2005-11-28 2007-05-14 삼성전자주식회사 고주파 성분 복원 방법 및 그 장치
JP5034228B2 (ja) * 2005-11-30 2012-09-26 株式会社Jvcケンウッド 補間装置、音再生装置、補間方法および補間プログラム
US8126706B2 (en) * 2005-12-09 2012-02-28 Acoustic Technologies, Inc. Music detector for echo cancellation and noise reduction
JP5457171B2 (ja) * 2006-03-20 2014-04-02 オランジュ オーディオデコーダ内で信号を後処理する方法
US20080076374A1 (en) * 2006-09-25 2008-03-27 Avraham Grenader System and method for filtering of angle modulated signals
AU2007300810B2 (en) * 2006-09-29 2010-06-17 Lg Electronics Inc. Methods and apparatuses for encoding and decoding object-based audio signals
US8295507B2 (en) * 2006-11-09 2012-10-23 Sony Corporation Frequency band extending apparatus, frequency band extending method, player apparatus, playing method, program and recording medium
KR101434198B1 (ko) * 2006-11-17 2014-08-26 삼성전자주식회사 신호 복호화 방법
JP4967618B2 (ja) * 2006-11-24 2012-07-04 富士通株式会社 復号化装置および復号化方法
JP5103880B2 (ja) * 2006-11-24 2012-12-19 富士通株式会社 復号化装置および復号化方法
CN101237317B (zh) * 2006-11-27 2010-09-29 华为技术有限公司 确定发送频谱的方法和装置
EP1947644B1 (en) * 2007-01-18 2019-06-19 Nuance Communications, Inc. Method and apparatus for providing an acoustic signal with extended band-width
CN101689368B (zh) * 2007-03-30 2012-08-22 韩国电子通信研究院 对具有多声道的多对象音频信号进行编码和解码的设备和方法
ES2403410T3 (es) * 2007-08-27 2013-05-17 Telefonaktiebolaget L M Ericsson (Publ) Frecuencia de transición adaptativa entre el rellenado con ruido y la extensión del ancho de banda
DK3401907T3 (da) 2007-08-27 2020-03-02 Ericsson Telefon Ab L M Fremgangsmåde og indretning til perceptuel spektral afkodning af et audiosignal omfattende udfyldning af spektrale huller
EP2220646A1 (en) * 2007-11-06 2010-08-25 Nokia Corporation Audio coding apparatus and method thereof
RU2483368C2 (ru) * 2007-11-06 2013-05-27 Нокиа Корпорейшн Кодер
KR100970446B1 (ko) * 2007-11-21 2010-07-16 한국전자통신연구원 주파수 확장을 위한 가변 잡음레벨 결정 장치 및 그 방법
US8688441B2 (en) * 2007-11-29 2014-04-01 Motorola Mobility Llc Method and apparatus to facilitate provision and use of an energy value to determine a spectral envelope shape for out-of-signal bandwidth content
US8433582B2 (en) * 2008-02-01 2013-04-30 Motorola Mobility Llc Method and apparatus for estimating high-band energy in a bandwidth extension system
US20090201983A1 (en) * 2008-02-07 2009-08-13 Motorola, Inc. Method and apparatus for estimating high-band energy in a bandwidth extension system
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
US8005152B2 (en) 2008-05-21 2011-08-23 Samplify Systems, Inc. Compression of baseband signals in base transceiver systems
USRE47180E1 (en) * 2008-07-11 2018-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating a bandwidth extended signal
US8463412B2 (en) * 2008-08-21 2013-06-11 Motorola Mobility Llc Method and apparatus to facilitate determining signal bounding frequencies
CN101727906B (zh) * 2008-10-29 2012-02-01 华为技术有限公司 高频带信号的编解码方法及装置
CN101770775B (zh) * 2008-12-31 2011-06-22 华为技术有限公司 信号处理方法及装置
US8463599B2 (en) * 2009-02-04 2013-06-11 Motorola Mobility Llc Bandwidth extension method and apparatus for a modified discrete cosine transform audio coder
JP5387076B2 (ja) * 2009-03-17 2014-01-15 ヤマハ株式会社 音処理装置およびプログラム
RU2452044C1 (ru) 2009-04-02 2012-05-27 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Устройство, способ и носитель с программным кодом для генерирования представления сигнала с расширенным диапазоном частот на основе представления входного сигнала с использованием сочетания гармонического расширения диапазона частот и негармонического расширения диапазона частот
EP2239732A1 (en) 2009-04-09 2010-10-13 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for generating a synthesis audio signal and for encoding an audio signal
JP4921611B2 (ja) * 2009-04-03 2012-04-25 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
JP4932917B2 (ja) * 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
AU2012204076B2 (en) * 2009-04-03 2013-12-12 Ntt Docomo, Inc. Speech encoding device, speech decoding device, speech encoding method, speech decoding method, speech encoding program, and speech decoding program
TWI484481B (zh) * 2009-05-27 2015-05-11 杜比國際公司 從訊號的低頻成份產生該訊號之高頻成份的系統與方法,及其機上盒、電腦程式產品、軟體程式及儲存媒體
US11657788B2 (en) 2009-05-27 2023-05-23 Dolby International Ab Efficient combined harmonic transposition
TWI401923B (zh) * 2009-06-06 2013-07-11 Generalplus Technology Inc 適應性時脈重建方法與裝置以及進行音頻解碼方法
JP5754899B2 (ja) 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
PL3998606T3 (pl) * 2009-10-21 2023-03-06 Dolby International Ab Nadrpóbkowanie w połączonym banku filtrów modułu transpozycji
US8699727B2 (en) * 2010-01-15 2014-04-15 Apple Inc. Visually-assisted mixing of audio using a spectral analyzer
EP3564954B1 (en) * 2010-01-19 2020-11-11 Dolby International AB Improved subband block based harmonic transposition
TWI557723B (zh) 2010-02-18 2016-11-11 杜比實驗室特許公司 解碼方法及系統
EP2362375A1 (en) 2010-02-26 2011-08-31 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for modifying an audio signal using harmonic locking
RU2596033C2 (ru) 2010-03-09 2016-08-27 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Устройство и способ получения улучшенной частотной характеристики и временного фазирования способом расширения полосы аудио сигналов в фазовом вокодере
WO2011110496A1 (en) 2010-03-09 2011-09-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for handling transient sound events in audio signals when changing the replay speed or pitch
AU2011226212B2 (en) * 2010-03-09 2014-03-27 Dolby International Ab Apparatus and method for processing an input audio signal using cascaded filterbanks
JP5651980B2 (ja) * 2010-03-31 2015-01-14 ソニー株式会社 復号装置、復号方法、およびプログラム
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5652658B2 (ja) 2010-04-13 2015-01-14 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP6103324B2 (ja) * 2010-04-13 2017-03-29 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
US8793126B2 (en) * 2010-04-14 2014-07-29 Huawei Technologies Co., Ltd. Time/frequency two dimension post-processing
US9443534B2 (en) * 2010-04-14 2016-09-13 Huawei Technologies Co., Ltd. Bandwidth extension system and approach
RU2527735C2 (ru) * 2010-04-16 2014-09-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство, способ и компьютерная программа для выработки широкополосного сигнала с использованием управляемого расширения ширины полосы и слепого расширения ширины полосы
TW201138354A (en) * 2010-04-27 2011-11-01 Ind Tech Res Inst Soft demapping method and apparatus thereof and communication system thereof
CN102237954A (zh) * 2010-04-30 2011-11-09 财团法人工业技术研究院 软性解映射方法及其装置与其通讯系统
MY176904A (en) * 2010-06-09 2020-08-26 Panasonic Ip Corp America Bandwidth extension method, bandwidth extension apparatus, program, integrated circuit, and audio decoding apparatus
SG10201505469SA (en) 2010-07-19 2015-08-28 Dolby Int Ab Processing of audio signals during high frequency reconstruction
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
US8762158B2 (en) * 2010-08-06 2014-06-24 Samsung Electronics Co., Ltd. Decoding method and decoding apparatus therefor
US8759661B2 (en) 2010-08-31 2014-06-24 Sonivox, L.P. System and method for audio synthesizer utilizing frequency aperture arrays
US8649388B2 (en) 2010-09-02 2014-02-11 Integrated Device Technology, Inc. Transmission of multiprotocol data in a distributed antenna system
JP5707842B2 (ja) 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
US8989088B2 (en) * 2011-01-07 2015-03-24 Integrated Device Technology Inc. OFDM signal processing in a base transceiver system
US9059778B2 (en) * 2011-01-07 2015-06-16 Integrated Device Technology Inc. Frequency domain compression in a base transceiver system
WO2012095700A1 (en) * 2011-01-12 2012-07-19 Nokia Corporation An audio encoder/decoder apparatus
WO2012111767A1 (ja) * 2011-02-18 2012-08-23 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、及び音声符号化プログラム
US8653354B1 (en) * 2011-08-02 2014-02-18 Sonivoz, L.P. Audio synthesizing systems and methods
JP5942358B2 (ja) 2011-08-24 2016-06-29 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
PL2791937T3 (pl) 2011-11-02 2016-11-30 Wytworzenie rozszerzenia pasma wysokiego sygnału dźwiękowego o poszerzonym paśmie
EP2631906A1 (en) * 2012-02-27 2013-08-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Phase coherence control for harmonic signals in perceptual audio codecs
CN106409299B (zh) * 2012-03-29 2019-11-05 华为技术有限公司 信号编码和解码的方法和设备
JP5997592B2 (ja) 2012-04-27 2016-09-28 株式会社Nttドコモ 音声復号装置
US9369149B1 (en) 2012-05-03 2016-06-14 Integrated Device Technology, Inc. Method and apparatus for efficient baseband unit processing in a communication system
US9313453B2 (en) * 2012-08-20 2016-04-12 Mitel Networks Corporation Localization algorithm for conferencing
CN107945813B (zh) * 2012-08-29 2021-10-26 日本电信电话株式会社 解码方法、解码装置、和计算机可读取的记录介质
US9135920B2 (en) * 2012-11-26 2015-09-15 Harman International Industries, Incorporated System for perceived enhancement and restoration of compressed audio signals
CN106847297B (zh) * 2013-01-29 2020-07-07 华为技术有限公司 高频带信号的预测方法、编/解码设备
US9786286B2 (en) * 2013-03-29 2017-10-10 Dolby Laboratories Licensing Corporation Methods and apparatuses for generating and using low-resolution preview tracks with high-quality encoded object and multichannel audio signals
US8804971B1 (en) 2013-04-30 2014-08-12 Dolby International Ab Hybrid encoding of higher frequency and downmixed low frequency content of multichannel audio
MY170179A (en) * 2013-06-10 2019-07-09 Fraunhofer Ges Forschung Apparatus and method for audio signal envelope encoding, processing and decoding by splitting the audio signal envelope employing distribution quantization and coding
PL3008726T3 (pl) 2013-06-10 2018-01-31 Fraunhofer Ges Forschung Urządzenie i sposób kodowania obwiedni sygnału audio, przetwarzania i dekodowania przez modelowanie reprezentacji sumy skumulowanej z zastosowaniem kwantyzacji i kodowania rozkładu
CA2916150C (en) 2013-06-21 2019-06-18 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method realizing improved concepts for tcx ltp
US9454970B2 (en) * 2013-07-03 2016-09-27 Bose Corporation Processing multichannel audio signals
EP2830061A1 (en) 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
BR112016003029B1 (pt) 2013-08-23 2023-04-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Aparelho e método para processamento de um sinal de áudio utilizando uma combinação em uma faixa de sobreposição
US9203933B1 (en) 2013-08-28 2015-12-01 Integrated Device Technology, Inc. Method and apparatus for efficient data compression in a communication system
JP6531649B2 (ja) 2013-09-19 2019-06-19 ソニー株式会社 符号化装置および方法、復号化装置および方法、並びにプログラム
US9553954B1 (en) 2013-10-01 2017-01-24 Integrated Device Technology, Inc. Method and apparatus utilizing packet segment compression parameters for compression in a communication system
US8989257B1 (en) 2013-10-09 2015-03-24 Integrated Device Technology Inc. Method and apparatus for providing near-zero jitter real-time compression in a communication system
US9485688B1 (en) 2013-10-09 2016-11-01 Integrated Device Technology, Inc. Method and apparatus for controlling error and identifying bursts in a data compression system
US9398489B1 (en) 2013-10-09 2016-07-19 Integrated Device Technology Method and apparatus for context based data compression in a communication system
US9313300B2 (en) 2013-11-07 2016-04-12 Integrated Device Technology, Inc. Methods and apparatuses for a unified compression framework of baseband signals
JP6345780B2 (ja) * 2013-11-22 2018-06-20 クゥアルコム・インコーポレイテッドQualcomm Incorporated ハイバンドコーディングにおける選択的位相補償
CN105849801B (zh) 2013-12-27 2020-02-14 索尼公司 解码设备和方法以及程序
US20150194157A1 (en) * 2014-01-06 2015-07-09 Nvidia Corporation System, method, and computer program product for artifact reduction in high-frequency regeneration audio signals
FR3017484A1 (fr) * 2014-02-07 2015-08-14 Orange Extension amelioree de bande de frequence dans un decodeur de signaux audiofrequences
US9542955B2 (en) 2014-03-31 2017-01-10 Qualcomm Incorporated High-band signal coding using multiple sub-bands
PL3139380T3 (pl) * 2014-05-01 2019-09-30 Nippon Telegraph And Telephone Corporation Koder, dekoder, sposób kodowania, sposób dekodowania, program kodujący, program dekodujący i nośnik rejestrujący
EP4002359A1 (en) * 2014-06-10 2022-05-25 MQA Limited Digital encapsulation of audio signals
US10256856B2 (en) * 2014-10-31 2019-04-09 Telefonaktiebolaget Lm Ericsson (Publ) Radio receiver, method of detecting an obtruding signal in the radio receiver, and computer program
US10068558B2 (en) * 2014-12-11 2018-09-04 Uberchord Ug (Haftungsbeschränkt) I.G. Method and installation for processing a sequence of signals for polyphonic note recognition
JP6763194B2 (ja) * 2016-05-10 2020-09-30 株式会社Jvcケンウッド 符号化装置、復号装置、通信システム
KR20180056032A (ko) 2016-11-18 2018-05-28 삼성전자주식회사 신호 처리 프로세서 및 신호 처리 프로세서의 제어 방법
WO2018199989A1 (en) * 2017-04-28 2018-11-01 Hewlett-Packard Development Company, L.P. Loudness enhancement based on multiband range compression
KR102468799B1 (ko) * 2017-08-11 2022-11-18 삼성전자 주식회사 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
CN107545900B (zh) * 2017-08-16 2020-12-01 广州广晟数码技术有限公司 带宽扩展编码和解码中高频弦信号生成的方法和装置
EP3701523B1 (en) 2017-10-27 2021-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Noise attenuation at a decoder
EP3483880A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483882A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
US10714098B2 (en) 2017-12-21 2020-07-14 Dolby Laboratories Licensing Corporation Selective forward error correction for spatial audio codecs
TWI702594B (zh) 2018-01-26 2020-08-21 瑞典商都比國際公司 用於音訊信號之高頻重建技術之回溯相容整合
CN118038881A (zh) * 2018-04-05 2024-05-14 瑞典爱立信有限公司 支持生成舒适噪声的方法和设备
CN109036457B (zh) * 2018-09-10 2021-10-08 广州酷狗计算机科技有限公司 恢复音频信号的方法和装置
CN115318605B (zh) * 2022-07-22 2023-09-08 东北大学 变频超声换能器自动匹配方法

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3995115A (en) * 1967-08-25 1976-11-30 Bell Telephone Laboratories, Incorporated Speech privacy system
US3684838A (en) * 1968-06-26 1972-08-15 Kahn Res Lab Single channel audio signal transmission system
US4051331A (en) * 1976-03-29 1977-09-27 Brigham Young University Speech coding hearing aid system utilizing formant frequency transformation
US4232194A (en) * 1979-03-16 1980-11-04 Ocean Technology, Inc. Voice encryption system
NL7908213A (nl) * 1979-11-09 1981-06-01 Philips Nv Spraaksynthese inrichting met tenminste twee vervormingsketens.
US4419544A (en) * 1982-04-26 1983-12-06 Adelman Roger A Signal processing apparatus
JPS6011360B2 (ja) * 1981-12-15 1985-03-25 ケイディディ株式会社 音声符号化方式
US4667340A (en) * 1983-04-13 1987-05-19 Texas Instruments Incorporated Voice messaging system with pitch-congruent baseband coding
US4866777A (en) * 1984-11-09 1989-09-12 Alcatel Usa Corporation Apparatus for extracting features from a speech signal
US4790016A (en) * 1985-11-14 1988-12-06 Gte Laboratories Incorporated Adaptive method and apparatus for coding speech
WO1986003873A1 (en) * 1984-12-20 1986-07-03 Gte Laboratories Incorporated Method and apparatus for encoding speech
US4885790A (en) * 1985-03-18 1989-12-05 Massachusetts Institute Of Technology Processing of acoustic waveforms
US4935963A (en) * 1986-01-24 1990-06-19 Racal Data Communications Inc. Method and apparatus for processing speech signals
JPS62234435A (ja) * 1986-04-04 1987-10-14 Kokusai Denshin Denwa Co Ltd <Kdd> 符号化音声の復号化方式
EP0243562B1 (en) * 1986-04-30 1992-01-29 International Business Machines Corporation Improved voice coding process and device for implementing said process
US4776014A (en) * 1986-09-02 1988-10-04 General Electric Company Method for pitch-aligned high-frequency regeneration in RELP vocoders
US5054072A (en) * 1987-04-02 1991-10-01 Massachusetts Institute Of Technology Coding of acoustic waveforms
EP0287741B1 (en) * 1987-04-22 1993-03-31 International Business Machines Corporation Process for varying speech speed and device for implementing said process
US5127054A (en) * 1988-04-29 1992-06-30 Motorola, Inc. Speech quality improvement for voice coders and synthesizers
US4964166A (en) * 1988-05-26 1990-10-16 Pacific Communication Science, Inc. Adaptive transform coder having minimal bit allocation processing
US5109417A (en) * 1989-01-27 1992-04-28 Dolby Laboratories Licensing Corporation Low bit rate transform coder, decoder, and encoder/decoder for high-quality audio
US5054075A (en) * 1989-09-05 1991-10-01 Motorola, Inc. Subband decoding method and apparatus
CN1062963C (zh) * 1990-04-12 2001-03-07 多尔拜实验特许公司 用于产生高质量声音信号的解码器和编码器
EP0520068B1 (en) * 1991-01-08 1996-05-15 Dolby Laboratories Licensing Corporation Encoder/decoder for multidimensional sound fields
US5327457A (en) * 1991-09-13 1994-07-05 Motorola, Inc. Operation indicative background noise in a digital receiver
JP2693893B2 (ja) * 1992-03-30 1997-12-24 松下電器産業株式会社 ステレオ音声符号化方法
US5455888A (en) * 1992-12-04 1995-10-03 Northern Telecom Limited Speech bandwidth extension method and apparatus
EP0653846B1 (en) * 1993-05-31 2001-12-19 Sony Corporation Apparatus and method for coding or decoding signals, and recording medium
US5623577A (en) * 1993-07-16 1997-04-22 Dolby Laboratories Licensing Corporation Computationally efficient adaptive bit allocation for encoding method and apparatus with allowance for decoder spectral distortions
WO1995010886A1 (fr) * 1993-10-08 1995-04-20 Sony Corporation Processeur de signaux numeriques, procede de traitement de signaux numeriques et support d'enregistrement de donnees
JPH07160299A (ja) * 1993-12-06 1995-06-23 Hitachi Denshi Ltd 音声信号帯域圧縮伸張装置並びに音声信号の帯域圧縮伝送方式及び再生方式
US5619503A (en) * 1994-01-11 1997-04-08 Ericsson Inc. Cellular/satellite communications system with improved frequency re-use
US6173062B1 (en) * 1994-03-16 2001-01-09 Hearing Innovations Incorporated Frequency transpositional hearing aid with digital and single sideband modulation
US6169813B1 (en) * 1994-03-16 2001-01-02 Hearing Innovations Incorporated Frequency transpositional hearing aid with single sideband modulation
AU3215295A (en) * 1994-08-12 1996-03-14 Neosoft, A.G. Nonlinear digital communications system
US5587998A (en) * 1995-03-03 1996-12-24 At&T Method and apparatus for reducing residual far-end echo in voice communication networks
DE69619284T3 (de) * 1995-03-13 2006-04-27 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Erweiterung der Sprachbandbreite
DE19509149A1 (de) 1995-03-14 1996-09-19 Donald Dipl Ing Schulz Codierverfahren
JPH08328599A (ja) 1995-06-01 1996-12-13 Mitsubishi Electric Corp Mpegオーディオ復号器
JPH09101799A (ja) * 1995-10-04 1997-04-15 Sony Corp 信号符号化方法及び装置
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
JP3092653B2 (ja) * 1996-06-21 2000-09-25 日本電気株式会社 広帯域音声符号化装置及び音声復号装置並びに音声符号化復号装置
DE19628293C1 (de) * 1996-07-12 1997-12-11 Fraunhofer Ges Forschung Codieren und Decodieren von Audiosignalen unter Verwendung von Intensity-Stereo und Prädiktion
US5744739A (en) * 1996-09-13 1998-04-28 Crystal Semiconductor Wavetable synthesizer and operating method using a variable sampling rate approximation
US6098038A (en) * 1996-09-27 2000-08-01 Oregon Graduate Institute Of Science & Technology Method and system for adaptive speech enhancement using frequency specific signal-to-noise ratio estimates
GB2318029B (en) * 1996-10-01 2000-11-08 Nokia Mobile Phones Ltd Audio coding method and apparatus
JPH10124088A (ja) * 1996-10-24 1998-05-15 Sony Corp 音声帯域幅拡張装置及び方法
TW326070B (en) * 1996-12-19 1998-02-01 Holtek Microelectronics Inc The estimation method of the impulse gain for coding vocoder
US6167375A (en) * 1997-03-17 2000-12-26 Kabushiki Kaisha Toshiba Method for encoding and decoding a speech signal including background noise
US6336092B1 (en) * 1997-04-28 2002-01-01 Ivl Technologies Ltd Targeted vocal transformation
EP0878790A1 (en) * 1997-05-15 1998-11-18 Hewlett-Packard Company Voice coding system and method
SE512719C2 (sv) * 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
JPH10341256A (ja) * 1997-06-10 1998-12-22 Logic Corp 音声から有音を抽出し、抽出有音から音声を再生する方法および装置
US6035048A (en) * 1997-06-18 2000-03-07 Lucent Technologies Inc. Method and apparatus for reducing noise in speech and audio signals
DE19730130C2 (de) * 1997-07-14 2002-02-28 Fraunhofer Ges Forschung Verfahren zum Codieren eines Audiosignals
US5899969A (en) 1997-10-17 1999-05-04 Dolby Laboratories Licensing Corporation Frame-based audio coding with gain-control words
US6159014A (en) * 1997-12-17 2000-12-12 Scientific Learning Corp. Method and apparatus for training of cognitive and memory systems in humans
US6019607A (en) * 1997-12-17 2000-02-01 Jenkins; William M. Method and apparatus for training of sensory and perceptual systems in LLI systems
JP3473828B2 (ja) 1998-06-26 2003-12-08 株式会社東芝 オーディオ用光ディスク及び情報再生方法及び再生装置
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
EP1126620B1 (en) * 1999-05-14 2005-12-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for expanding band of audio signal
US6226616B1 (en) * 1999-06-21 2001-05-01 Digital Theater Systems, Inc. Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility
GB2351889B (en) * 1999-07-06 2003-12-17 Ericsson Telefon Ab L M Speech band expansion
US6978236B1 (en) * 1999-10-01 2005-12-20 Coding Technologies Ab Efficient spectral envelope coding using variable time/frequency resolution and time/frequency switching
AUPQ366799A0 (en) * 1999-10-26 1999-11-18 University Of Melbourne, The Emphasis of short-duration transient speech features
US6704711B2 (en) * 2000-01-28 2004-03-09 Telefonaktiebolaget Lm Ericsson (Publ) System and method for modifying speech signals
US7058572B1 (en) * 2000-01-28 2006-06-06 Nortel Networks Limited Reducing acoustic noise in wireless and landline based telephony
FR2807897B1 (fr) * 2000-04-18 2003-07-18 France Telecom Methode et dispositif d'enrichissement spectral
US7742927B2 (en) * 2000-04-18 2010-06-22 France Telecom Spectral enhancing method and device
EP1158799A1 (en) 2000-05-18 2001-11-28 Deutsche Thomson-Brandt Gmbh Method and receiver for providing subtitle data in several languages on demand
EP1158800A1 (en) 2000-05-18 2001-11-28 Deutsche Thomson-Brandt Gmbh Method and receiver for providing audio translation data on demand
US7330814B2 (en) * 2000-05-22 2008-02-12 Texas Instruments Incorporated Wideband speech coding with modulated noise highband excitation system and method
SE0001926D0 (sv) 2000-05-23 2000-05-23 Lars Liljeryd Improved spectral translation/folding in the subband domain
WO2001093251A1 (en) * 2000-05-26 2001-12-06 Koninklijke Philips Electronics N.V. Transmitter for transmitting a signal encoded in a narrow band, and receiver for extending the band of the signal at the receiving end
US20020016698A1 (en) * 2000-06-26 2002-02-07 Toshimichi Tokuda Device and method for audio frequency range expansion
SE0004163D0 (sv) * 2000-11-14 2000-11-14 Coding Technologies Sweden Ab Enhancing perceptual performance of high frequency reconstruction coding methods by adaptive filtering
SE0004187D0 (sv) 2000-11-15 2000-11-15 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
US7236929B2 (en) * 2001-05-09 2007-06-26 Plantronics, Inc. Echo suppression and speech detection techniques for telephony applications
US6941263B2 (en) * 2001-06-29 2005-09-06 Microsoft Corporation Frequency domain postfiltering for quality enhancement of coded speech
US20050004803A1 (en) * 2001-11-23 2005-01-06 Jo Smeets Audio signal bandwidth extension
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
WO2004084182A1 (en) * 2003-03-15 2004-09-30 Mindspeed Technologies, Inc. Decomposition of voiced speech for celp speech coding
DE602004020765D1 (de) * 2004-09-17 2009-06-04 Harman Becker Automotive Sys Bandbreitenerweiterung von bandbegrenzten Tonsignalen
US8086451B2 (en) * 2005-04-20 2011-12-27 Qnx Software Systems Co. System for improving speech intelligibility through high frequency compression
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
US8015368B2 (en) * 2007-04-20 2011-09-06 Siport, Inc. Processor extensions for accelerating spectral band replication

Also Published As

Publication number Publication date
US9947328B2 (en) 2018-04-17
KR20040101227A (ko) 2004-12-02
US10529347B2 (en) 2020-01-07
US20180005639A1 (en) 2018-01-04
US20150243295A1 (en) 2015-08-27
SG2013057666A (en) 2015-12-30
US10269362B2 (en) 2019-04-23
EP1488414A1 (en) 2004-12-22
CA2475460C (en) 2012-02-28
HK1114233A1 (en) 2008-10-24
CA2475460A1 (en) 2003-10-09
US20170206909A1 (en) 2017-07-20
US9412388B1 (en) 2016-08-09
US20150279379A1 (en) 2015-10-01
CN101093670A (zh) 2007-12-26
SG10201710911VA (en) 2018-02-27
PL371410A1 (pl) 2005-06-13
US20160232904A1 (en) 2016-08-11
SG173224A1 (en) 2011-08-29
KR101005731B1 (ko) 2011-01-06
US20090192806A1 (en) 2009-07-30
ATE511180T1 (de) 2011-06-15
AU2003239126A1 (en) 2003-10-13
EP2194528B1 (en) 2011-05-25
US20030187663A1 (en) 2003-10-02
US8126709B2 (en) 2012-02-28
CN1639770A (zh) 2005-07-13
US9704496B2 (en) 2017-07-11
MXPA04009408A (es) 2005-01-25
US20170084281A1 (en) 2017-03-23
US9412389B1 (en) 2016-08-09
US9548060B1 (en) 2017-01-17
US9653085B2 (en) 2017-05-16
US9466306B1 (en) 2016-10-11
AU2003239126B2 (en) 2009-06-04
US20120328121A1 (en) 2012-12-27
US9412383B1 (en) 2016-08-09
US9767816B2 (en) 2017-09-19
US20140161283A1 (en) 2014-06-12
SG153658A1 (en) 2009-07-29
US8457956B2 (en) 2013-06-04
US20120128177A1 (en) 2012-05-24
MY140567A (en) 2009-12-31
US20160314796A1 (en) 2016-10-27
US9343071B2 (en) 2016-05-17
US20160232905A1 (en) 2016-08-11
CN100338649C (zh) 2007-09-19
SI2194528T1 (sl) 2012-03-30
US20170148454A1 (en) 2017-05-25
SG10201710917UA (en) 2018-02-27
TW200305855A (en) 2003-11-01
US20160232911A1 (en) 2016-08-11
US20190172472A1 (en) 2019-06-06
US9177564B2 (en) 2015-11-03
US20160379655A1 (en) 2016-12-29
US20180204581A1 (en) 2018-07-19
HK1078673A1 (en) 2006-03-17
SG10201710913TA (en) 2018-02-27
US8285543B2 (en) 2012-10-09
US9324328B2 (en) 2016-04-26
SG10201710915PA (en) 2018-02-27
TWI319180B (en) 2010-01-01
JP2005521907A (ja) 2005-07-21
CN101093670B (zh) 2010-06-02
JP4345890B2 (ja) 2009-10-14
SG10201710912WA (en) 2018-02-27
WO2003083834A1 (en) 2003-10-09
EP2194528A1 (en) 2010-06-09
US20200143817A1 (en) 2020-05-07

Similar Documents

Publication Publication Date Title
US10529347B2 (en) Methods, apparatus and systems for determining reconstructed audio signal

Legal Events

Date Code Title Description
DISD Decisions on discontinuance of the proceedings of a derived patent or utility model

Ref document number: 387962

Country of ref document: PL