PL183498B1 - Dekoder akustyczny wielokanałowy - Google Patents

Dekoder akustyczny wielokanałowy

Info

Publication number
PL183498B1
PL183498B1 PL96346688A PL34668896A PL183498B1 PL 183498 B1 PL183498 B1 PL 183498B1 PL 96346688 A PL96346688 A PL 96346688A PL 34668896 A PL34668896 A PL 34668896A PL 183498 B1 PL183498 B1 PL 183498B1
Authority
PL
Poland
Prior art keywords
audio
subband
decoder
bit
channel
Prior art date
Application number
PL96346688A
Other languages
English (en)
Inventor
Stephen M. Smyth
Michael H. Smyth
William P. Smith
Original Assignee
Digital Theater Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Theater Systems filed Critical Digital Theater Systems
Publication of PL183498B1 publication Critical patent/PL183498B1/pl

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Stereophonic System (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Color Television Systems (AREA)

Abstract

1 . Dekoder akustyczny wielokanalowy do odtwarzania wielokrotnych kanalów akustycznych az do szybkosci prób- kowania dekodera ze strumienia danych, w którym kazdy kanal akustyczny byl próbkowany z szybkoscia próbkowa- nia kodera, przynajmniej tak duza jak szybkosc próbkowa- nia dekodera, podzielona na wiele podpasm czestotliwosci, poddana kompresji i multipleksowana w strumien danych z szybkoscia transmisji, znamienny tym, ze zawiera bufor wejsciowy (324) do wczytywania 1 pamietania strumienia danych w danym czasie, ze slowem synchronizacji, naglów- kiem ramki, naglówkiem akustycznym i co najmniej jedna podramka, do którego jest dolaczony demultiplekser (40) do wykrywania slowa synchronizacji, rozpakowania naglówka ramki dla wydzielania wielkosci okna nastawianej w funkcji stosunku szybkosci transmisji do szybkosci próbkowania ko- dera, rozpakowania naglówka akustycznego i sekwencyjnego rozpakowania kazdej podramki do którego jest dolaczony deko- der (42, 44) pasma podstawowego do dekodowania kodów akustycznych podpasma w odtwarzane sygnaly podpasma, bez odniesienia do jakichkolwiek innych podramek, do któ- rego jest dolaczony filtr (44) odtwarzania pasma podstawo- wego, do którego jest dolaczony dekoder (58, 60) o duzej szybkosci próbkowania, do dekodowania kodów akustycz- nych o duzej szybkosci próbkowania w odtworzony sygnal o duzej szybkosci próbkowania dla kazdego kanalu akusty- cznego i filtr (62) odtwarzania kanalu, który laczy sygnaly odtworzony pasma podstawowego i o duzej szybkosci próbkowa- nia w wielokanalowy sygnal akustyczny Fig 3 PL PL PL PL PL PL PL PL PL

Description

Przedmiotem wynalazku jest dekoder akustyczny wielokanałowy, zwłaszcza dotyczący kodowania i dekodowania o wysokiej jakości wielokanałowych sygnałów akustycznych. Koder jest zwłaszcza koderem podpasma, który wykorzystuje doskonałe/niedoskonałe filtry przy odtwarzaniu, kodowanie predykcyjne/niepredykcyjne podpasma, analizę przejściową i przydział bitów psychoakustyczny/minimalnego średniego błędu kwadratowego (mmse) w funkcji czasu, częstotliwości oraz wielokrotne kanały akustyczne do wytwarzania strumienia danych z ograniczonym obciążeniem obliczeniowym dekodowania.
Znane kodery akustyczne i dźwiękowe o wysokiej jakości są podzielone na dwie szerokie klasy. Po pierwsze, kodery przekształcania/podpasma o dużej rozdzielczości częstotliwości, które
183 498 kwantują adaptacyjnie podpasmo lub próbki współczynników przy analizie zgodnie z obliczaniem psychoakustycznym. Po drugie, kodery podpasma o małej rozdzielczości, które poprawiają słabąrozdzielczość częstothwościowąprzez przetwarzanie próbek podpasma przy zastosowaniu adaptacyjnej różnicowej modulacji kodowo-impulsowej ADPCM.
Pierwsza klasa koderów wykorzystuje duże, krótkotrwałe zmiany widmowe sygnałów dźwiękowych przez przydziały bitów zgodnie z energią widmową sygnału. Duża rozdzielczość tych koderów umożliwia dostarczanie sygnału przetworzonego częstotliwościowo bezpośrednio dla modelu psychoakustycznego, który jest oparty na teorii pasma krytycznego słyszalności. Koder akustyczny, przedstawiony na przykład przez Dolby’ego AC-3, Todda i innych w publikacji pod tytułem “AC-3: Elastyczne kodowanie percepcyjne do przetwarzania i pamiętania sygnałów akustycznych Convention of the Audio Engineering Society, luty 1994, oblicza 1024 współczynników częstotliwościowych w sygnałach z modulacjąkodowo-impulsową i zapewnia model psychoakustyczny dla 1024 współczynników częstotliwościowych w każdym kanale w celu określania szybkości transmisji bitów dla każdego współczynnika. System Dolby’ego stosuje analizę przejściową, która zmniejsza wymiar analizowanego okna do 256 próbek dla izolacji stanów przejściowych. Koder AC-3 stosuje prawnie zastrzeżony algorytm adaptacji wstecznej do dekodowania przydziału bitów. To powoduje zmniejszenie ilości informacji o przydziale bitów, którajest przesyłana wraz z kodowanymi danymi akustycznymi. W wyniku tego szerokość pasma dostępna dla sygnałów akustycznych jest zwiększana w schematach adaptacyjnych wstecznych, co prowadzi do poprawy jakości dźwięku.
W drugiej klasie koderów kwantowanie sygnałów różnicowych podpasma jest albo stałe albo dostosowane dla minimalizacji mocy szumu kwantowania we wszystkich lub niektórych podpasmach, bez wyraźnego odniesienia do teorii psychoakustycznego maskowania Znane jest, że bezpośredni, psychoakustyczny poziom progowy zakłócenia nie może być doprowadzony do sygnałów predykcyjnych/podpasma różnicowego z powodu trudności w ocenie prognozowania przed procesem przydziału bitów, co jest bardziej złożone w wyniku oddziaływania szumu kwantowania na proces prognozowania.
Kodery te działają ponieważ percepcyjnie krytyczne sygnały akustyczne są okresowe w długich przedziałach czasu, co jest wykorzystywane przez kwantowanie predykcyjne różnicowe. Podział sygnału na małą liczbę podpasm powoduje zmniejszenie akustycznych wpływów modulacji szumu i umożliwia wykorzystanie długotrwałych zmian widmowych w sygnałach akustycznych. Jeżeli liczba podpasm jest zwiększona, wzmocnienie prognozowania w każdym podpasmie jest zmniejszone i w pewnym punkcie wzmocnienie prognozowania dąży do zera.
Znany jest z publikacji Digital Theater Systems, L.P., koder akustyczny, w którym każdy kanał akustyczny z modulacją kodowo-impulsową jest filtrowany do czterech podpasm i każde podpasmo jest kodowane przy zastosowaniu kodera wstecznego adaptacyjnej różnicowej modulacji kodowo-impulsowej ADPCM, który dostosowuje współczynniki prognozowania do danych podpasma. Przydział bitów jest stały i taki sam dla każdego kanału, przy czym podpasmom o niższych częstotliwościach jest przypisanych więcej bitów niż podpasmom o wyższych częstotliwościach. Przydział bitów zapewnia stały współczynnik kompresji, na przykład 4T.
Znany koder DTS jest opisany przez Mike’a Smytha i Stephena Smytha w publikacji “ΑΡΤ-Χ100: Koder akustyczny z modulacją ADPCM podpasma o małym opóźnieniu, małej szybkości transmisji bitów do transmisji radiofonicznej”, Proceedings of tne lOth International AES Conference 1991, strony 41-56.
Oba typy znanych koderów akustycznych mają inne wspólne ograniczenia. Po pierwsze, znane kodery akustyczne kodują-dekodująze stałą wielkością ramki, tojest liczba próbek lub okres czasu reprezentowany przez ramkę jest stały. W wyniku tego, gdy kodowana szybkość transmisji wzrasta względem szybkości próbkowania, ilość danych czyli bajtów w ramce także wzrasta. Zatem wielkość bufora dekodera musi być przeznaczona do dostosowania się do najtrudniejszego przypadku, aby zapobiec przepełnieniu danymi. To powoduje zwiększenie wielkości pamięci RAM, co komplikuje dekoder. Po drugie, znane kodery akustyczne nie są łatwo rozszerzalne dla próbkowania częstotliwości większych niż 48 kHz, co spowodowałoby, że istniejące dekodery
183 498 stałyby się niezgodne z formatem wymaganym dla nowych koderów Ten brak zgodności cech jestpoważnym ograniczeniem. Ponadto znane formaty stosowane do kodowania danych z modulacj ą kodowo-impulsową wymagaj ą, żeby cała ramka była wczytywana przez dekoder przed rozpoczęciem odtwarzania, co wymaga, żeby wielkość bufora była ograniczona do bloków danych w przybliżeniu 100 ms, tak że opóźnienie lub czas oczekiwania nie przeszkadzają słuchaczowi
Te znane kodery mają zdolność kodowania do 24 kHz i często wyższe podpasma są obniżane, co powoduje zmniejszenie dokładności i wierności przy wielkich częstotliwościach odtwarzanego sygnału. Znane kodery zwykle wykorzystująjeden z dwóch typów schematu wykrywania błędów. Najbardziej znane jest kodowanie Reada Solomona, w którym koder dodaje bity wykrywania błędów do informacji w strumieniu danych, co ułatwia wykrywanie i korekcję błędów w informacji, jednak błędy w danych akustycznych nie zostają wykryte. Znanajest także kontrola ramki i nagłówków akustycznych dla nieważnych stanów kodowania. Dla przykładu, określony parametr 3-bitowy może mieć tylko 3 ważne stany. Jeżeli jest identyfikowany jeden z pozostałych 5 stanów, musi pojawić się błąd, co zapewnia zdolność wykrywania i nie powoduje wykrywania błędów w danych akustycznych.
Znany jest z opisu patentowego USA nr 5 583 962 wielokanałowy koder akustyczny, który zmniejsza szybkość transmisji bitów wielokanałowego sygnału akustycznego kodowanego z modulacją kodowo-impulsową, przy zachowaniu poziomu dokładności porównywalnego jak dla dysku kompaktowego, przez wykorzystanie połączenia redundancji subiektywnych i obiektywnych w poszczególnych kanałach czyli wewnątrzkanałowych i pomiędzy kanałami akustycznymi czyli międzykanałowych.
Podstawowym procesem jest tu międzykanałowy proces kodowania znany jako kodowanie natężenia lub jako kodowanie łączne stereo. Kodowanie natężenia jest procesem, w którym częstotliwości akustyczne, zgrupowane w pasma krytyczne, omawiane jako podpasma, są w pewnych warunkach sumowane z sygnałami pasma krytycznego w innych kanałach akustycznych, kodowanymi i pamiętanymijako sygnał złożony. Dla dekodowania i odtwarzania złożonego sygnału, w każdym kanale jest umieszczana kopia stosowana do wytwarzania sygnału złożonego, a natężenie każdego kanałujest zmodyfikowane oddzielnie dla dopasowania natężenia sygnałów podpasma przed sumowaniem. Proces zmiany natężenia sygnału złożonego w dekoderze jest nazywany sterowaniem. Kodowanie natężenia jest stosowane przy zmniejszaniu szybkości transmisji bitów, ponieważ zwykle mniej danych jest wymaganych do kodowania złożonych podpasm oraz informacji natężenia i sterowania niż jest to wymagane do kodowania sygnałów oddzielnych podpasm z każdego kanału.
W tym rozwiązaniu jest stosowany zespół filtrów i urządzenie kwantujące poziomu zgrubnego oraz dwa lub więcej sygnałów akustycznych jest filtrowanych w podpasma, stosując szerokości pasma w przybliżeniu równe pasmom krytycznym słyszalności przez człowieka i te podpasma są najpierw przepuszczane do urządzenia kwantującego poziomu zgrubnego, które zasadniczo wykonuje prostą konwersję zmiennopozycyjną bloku dwójkowego. Zostaje dokonany zgrubny pomiar energii podpasma i ocena liczby bitów wymaganych do kwantowania każdego sygnału podpasma dla uzyskania pewnego poziomu dokładności sygnału na wyjściu dekodera i wytworzenia wymaganego przydziału bitów. Ocenę przydziału bitów dokonuje się na przykład przez zastosowanie pomiarów maski szumu psychoakustycznego, a jej wynik jest przenoszony do sterownika.
Alokator adaptacyjny bitów przydziela zmienną liczbę bitów podpasmom we wszystkich kanałach akustycznych. Podpasmom o największej energii widmowej jest przydzielanych więcej bitów niż podpasmom o małej zawartości sygnałów. Bity są przydzielane na przykład ze wspólnego obszaru bitów, którego wymiar jest określony przez wymaganą szybkość transmisji bitów kodera, wymiar okna zespołu filtrów i szybkość próbkowania wejściowego sygnału cyfrowego akustycznego. Adaptacyjny proces przydziału bitów jest powtarzany lub modyfikowany w pewnych przykładach wykonania w odpowiedzi na informację dostarczaną z powrotem z procesu sterowania, który porównuje rzeczywisty przydział bitów z wymaganym przydziałem bitów i adaptacyjnie przeprowadza proces sterowania w jednym lub więcej podpasmach dla
183 498 zmniej szenia liczby bitów wymaganych do kodowania sygnałów podpasma w celu uzyskania sygnałów złożonych i wytworzenia sygnałów sterujących. Sygnały sterujące są stosowane przez dekoder do umieszczania sygnału złożonego w oddzielnych kanałach.
Urządzenie kwantujące przygotowuje kwantową reprezentację kodowanego sygnału akustycznego do następnego zapamiętania lub przesłania do dekodera. W procesie wydziela się słowa kodu podpasma ze strumienia bitów i ponownie normalizuje się kody.
Sterownik odwrotnego sterowania odtwarza dyskretne podpasma dla każdego kanału dla sterowanych podpasm. Zespół filtrów odwrotnych dekodera ponownie łączy podpasma każdego kanału w cyfrowe sygnały akustyczne pojedynczego pasma z modulacją kodowo-impulsową Charakterystyka tego zespołu filtrów jest odwrotna względem charakterystyki zespołu filtrów kodera dla zwiększenia do maksimum kasowania pseudonazw.
Znanyjest z opisu patentowego USA nr 5 588 024 sposób wydajnego obliczania psychoakustycznego przydziału bitów dla kodowania podpasma częstotliwości cyfrowego sygnału akustycznego. Przedstawiony jest proces kodowania-dekodowania podpasma przy zastosowaniu warstwy akustycznej MPEG, która jest stosowana jako odniesienie dla porównywania wydajności algorytmu przydziału bitów MPEG z algorytmem według wynalazku. Sposób ten polega na tym, że stałe okno próbek akustycznych z modulacjąkodowo-impulsowąjest dostarczane zarówno do filtru podpasmajak i do kalkulatora współczynnika sygnału do maski SMR. Kalkulator stosuje własny filtr do sygnału wejściowego, zwykle z pasmami o szerokości bliskiej pasmom krytycznym, i oblicza poziom maski dla każdego krytycznego sygnału pasma w oparciu o model psychoakustyczny. Poziom maskowania jest określony jako maksymalny poziom szumu kwantowania, któremu podlega urządzenie kwantujące pasma krytycznego przed tym, jak ten szum stanie się słyszalny czyli nie będzie maskowany. Współczynnik sygnału do maski dla każdego podpasma jest otrzymywany przez odwzorowanie na mapie poziomów maskowania pasma krytycznego do poziomów maskowania podpasma i pobranie stosunku tych poziomów maskowania i poziomów niekwantowanego sygnału podpasma. Te współczynniki sygnału do maski są dostarczane do alokatora bitów dla przydziału bitów podpasmom. Zakładając, że całkowita liczba bitów nie przekracza osiągalnej puli bitów, taki przydział bitów zapewnia jakość dźwięku na wyjściu dekodera, która jest bliska jakości dźwięku pierwotnego, wejściowego sygnału akustycznego. '
Sygnały podpasma z filtru podpasma są dostarczane zarówno do determinatora współczynnika skalowaniajak i urządzenia kwantującego. Szybkość transmisji bitów jest 192 kilobitów na sekundę, szybkość próbkowania 48 kHz i wymiar okna z modulacją kodowo-impulsową 384 próbki. Stosowanym tutaj sposobem przydziału bitu do podpasm jest przydział bitów proporcjonalnie do wartości współczynnika sygnału do maski, dostarczanego przez kalkulator lub oddziaływanie iteracyjne aż do wykorzystania wszystkich bitów z puli
Znanyjest z opisu patentowego japońskiego sposób wykrywania przejść w koderze akustycznym podpasma o małej szybkości transmisji bitów i procedura przydziału bitów, która zmienia liczbę poziomów kwantowania w odpowiedzi na stan przejściowy sygnału, dla zmniejszenia do minimum występowania słyszalnego szumu kwantowania w obecności przejść - zjawisko znane jako echo wstępne. Zastosowanyjest wtym celu układ kodowania akustycznego, który dekoreluje sygnał wejściowy przy zastosowaniu przekształcania ortogonalnego FFT, DCT. Przedstawione jest urządzenie, które dzieli sygnał na trzy pasma częstotliwości przy zastosowaniu filtrów Współczynniki FFT każdego podpasma są dostarczane do kalkulatora poziomu progowego maskowania szumu, który wywołuje minimalny przydział bitów do każdego bloku współczynników FFT. Ten przydział bitówjest modyfikowany zgodnie z trybami przejściowymi wskazywanymi dla każdego bloku przez wybór wykrywania przejścia.
Dekoder według wynalazku zawiera bufor wejściowy do wczytywania i pamiętania strumienia danych w danym czasie, ze słowem synchronizacji, nagłówkiem ramki, nagłówkiem akustycznym i co najmniej jedną podramką, do którego jest dołączony demultiplekser do wykrywania słowa synchronizacji, rozpakowania nagłówka ramki dla wydzielania wielkości okna nastawianej w funkcji stosunku szybkości transmisji do szybkości próbkowania kodera, rozpakowania
183 498 nagłówka akustycznego i sekwencyjnego rozpakowania każdej podramki, do którego jest dołączony dekoder pasma podstawowego do dekodowania kodów akustycznych podpasma w odtwarzane sygnały podpasma, bez odniesienia do jakichkolwiek innych podramek, do którego jest dołączony filtr odtwarzania pasma podstawowego, do którego jest dołączony dekoder o dużej szybkości próbkowania, do dekodowania kodów akustycznych o dużej szybkości próbkowania w odtworzony sygnał o dużej szybkości próbkowania dla każdego kanału akustycznego i filtr odtwarzania kanału, który łączy sygnały odtworzony pasma podstawowego i o dużej szybkości próbkowania w wielokanałowy sygnał akustyczny.
Korzystnie filtr odtwarzania pasma podstawowego zawiera niedoskonały zespół filtrów odtwarzania NPR i doskonały zespół filtrów odtwarzania PR oraz nagłówek ramki zawiera kod filtru do wyboru jednego spośród zespołów filtrów NPR i PR.
Korzystnie dekoder pasma podstawowego zawiera wiele odwrotnych koderów z adaptacyjną różnicową modulacjąkodowo-impulsową do dekodowania kodów akustycznych pasma podstawowego, a informacja boczna zawiera współczynniki prognozowania dla koderów ADPCM i stan prognozowania PMODE dla sterowania dostarczaniem współczynników prognozowania do koderów ADPCM.
Korzystnie informacja boczna zawiera tablicę przydziału bitów dla każdego podpasma kanału, w którym każda szybkość transmisji bitów podpasma jest stała w podramce, co najmniej jeden współczynnik skalowania dla każdego podpasma w każdym kanale i stan przejściowy TMODE dla każdego podpasma w każdym kanale, dla identyfikacji liczby współczynników skalowania i związanych z nimi pod-podramek, przy czym dekoder pasma podstawowego jest przystosowany do skalowania kodów akustycznych podpasm przez poszczególne współczynniki skalowania zgodnie ze stanami TMODE.
Zaletą wynalazku jest dostarczenie dekodera akustycznego zdolnego do dekodowania z wieloma szybkościami próbkowania dekodowania.
Przedmiot wynalazku jest uwidoczniony w przykładach wykonania na rysunku, na którym fig. I przedstawia schemat blokowy 5-kanałowego kodera akustycznego według wynalazku, fig. 2 schemat blokowy kodera wielokanałowego, fig. 3 - schemat blokowy kodera i dekodera pasma podstawowego, fig. 4a i 4b - schematy blokowe kodera i dekodera o dużej szybkości próbkowania, fig. 5 - schemat blokowy kodera jednokanałowego, fig. 6 - wykres bajtów na ramkę w funkcji wielkości ramki dla zmiennych szybkości transmisji, fig. 7 - wykres odpowiedzi amplitudowej dla filtrów odtwarzania NPR i PR, fig. 8 - wykres utożsamiania podpasma dla filtru odtwarzania, fig 9 - wykres krzywych zakłócenia dla filtrów NPR i PR, fig. 10 - schemat kodera pojedynczego pasma, fig. 11a i 11b -wykrywanie stanu przejściowego i obliczanie współczynnika skalowania dla podramki, fig 12 - proces kodowania entropii dla kwantowanych TMODES, fig. 13 -proces kwantowania współczynnika skalowania, fig. 14 -splot maski sygnałowej z odpowiedzią częstotliwościową sygnału dla wytwarzania stosunku sygnału do maski SMR, fig. 15 - wykres odpowiedzi słuchowej człowieka, fig. 16 - wykres stosunku sygnału do maski SMR dla podpasm, fig. 17 wykres sygnałów błędu dla przydziałów akustycznych i bitów mmse, fig. 18a i 18b -wykres poziomów energii podpasma i odwrócony wykres, ilustrujące proces przydziału bitów typu “napełnienia wodą” mmse, fig. 19 - schemat blokowy pojedynczej ramki w strumieniu danych, fig. 20 - schemat blokowy dekodera, fig. 21 - schemat blokowy układu kodera i fig. 22 - schemat blokowy układu dekodera.
Tabela 1 zestawia maksymalną wielkość ramki w funkcji szybkości próbkowania i szybkości transmisji, tabela 2 zestawia maksymalnie dopuszczoną wielkość ramki, bajtów w funkcji szybkości próbkowania i szybkości transmisji i tabela 3 przedstawia związek pomiędzy wartością indeksu ABIT, liczbą poziomów kwantowania i uzyskanym podpasmem stosunku sygnału do maski SMR.
Figura 1 pokazuje, że wynalazek łączy cechy obu znanych schematów kodowania plus dodatkowe cechy w pojedynczym, wielokanałowym koderze akustycznym 10. Algorytm kodowania jest przeznaczony do wykonania przy studyjnych poziomach jakości, to jest jakości lepszej
183 498 niż dysku kompaktowego i zapewniania szerokiego zakresu zastosowań dla zmiany poziomów kompresji, szybkości próbkowania, długości słów, liczby kanałów i jakości percepcyjnej.
Koder 12 koduje wielokrotne kanały danych akustycznych z modulacją kodowo-impulsową 14, zwykle próbkowane przy 48 kHz i długościach słów pomiędzy 16 i 24 bitami, w strumieniu danych 16 ze znaną szybkością transmisji, korzystnie w zakresie 32-4096 kilobitów na sekundę. Inaczej niż znane kodery akustyczne, struktura ta jest rozszerzana do większych szybkości próbkowania 48-192 kHz, bez powodowania niezgodności istniejących dekoderów, które były zaprojektowane dla szybkości próbkowania pasma podstawowego lub jakiejkolwiek pośredniej szybkości próbkowania. Ponadto dane akustyczne z modulacją kodowo-impulsową 14 sąokienkowane i kodowane ramkąw danym czasie, przy czym każda ramkajest korzystnie dzielona na 1-4 podramek. Wielkość okna akustycznego, to jest liczba próbek z modulacją kodowo-impulsową, jest oparta na względnych wartościach szybkości próbkowania i szybkości transmisji, więc wielkość ramki wyjściowej, to jest liczba bajtów, odczytywana przez dekoder 18 na ramkę jest ograniczona, korzystnie pomiędzy 5, 3 i 8 kilobajtów.
W wyniku tego wielkość pamięci RAM, wymaganej dla strumienia danych z dekodera do bufora, jest utrzymywana jako stosunkowo mała, co upraszcza dekoder. Przy małych szybkościach stosuje się większe wielkości okna dla przesyłania ramki danych PCT, co poprawia osiągnięcia kodowania. Przy większych szybkościach transmisji bitów muszą być zastosowane mniejsze wielkości okna do spełnienia wymagania ograniczenia danych. To koniecznie zmniejsza osiągnięcia kodowania, lecz przy większych szybkościach jest to niewystarczające. Również sposób, w jaki dane z modulacjąkodowo-impulsowąsąprzesyłane w ramce, umożliwia dekoderowi 18 rozpoczęcie odtwarzania przed wczytaniem całej ramki wyjściowej do bufora, co powoduje zmniejszenie opóźnienia lub czasu oczekiwania kodera akustycznego.
Koder 12 zawiera zespół filtrów o dużej rozdzielczości, który jest korzystnie przełączany pomiędzy niedoskonałymi i doskonałymi filtrami odtwarzania w oparciu o szybkość transmisji bitów, dla rozkładania każdego kanału danych akustycznych z modLilacjąkodowo-impulsową 14 na pewną liczbę sygnałów podpasma. Kodery predykcyjny i kwantowania wektorowego VQ są stosowane do kodowania podpasm mniejszej i większej częstotliwości. Początkowe podpasmo kwantowania wektorowego jest stałe lub jest określane dynamicznie w funkcji własności bieżącego sygnału. Łączne kodowanie częstotliwości jest wykorzystywane przy małych szybkościach transmisji bitów do równoczesnego kodowania wielokrotnych kanałów w podpasmach większych częstotliwości
Koder predykcyjny korzystnie przełącza pomiędzy trybami pracy z modulacją APCM i z modulacją ADPCM w oparciu o wzmocnienie prognozowania podpasma. Analizator stanu przejściowego dzieli każdą podramkę podpasma na sygnały echa początkowego i końcowego czyli pod-podramki i oblicza poszczególne współczynniki skalowania dla pod-podramek echa początkowego i końcowego zmniej szaj ąc przez to zakłócenie echa początkowego. Koder przydziela adaptacyjnie osiągalną szybkość transmisji bitów we wszystkich kanałach z modulacjakodowo-impulsową i dzieli na podpasma dla bieżącej ramki zgodnie z określonymi potrzebami, na przykład psychoakustycznymi, w celu optymalizacji wydajności kodowania. Przez połączenie kodowania predykcyjnego i modelowania psychoakustycznego, wydajność kodowania przy małej szybkości transmisji bitów jest zwiększona, przez co zmniejsza się szybkość transmisji bitów, przy której jest osiągana subiektywna przezroczystość. Programowalny sterownik 19, taki jak komputer lub blok klawiszy, jest połączony interfejsem z koderem 32 dla przekazywania informacji trybu pracy akustycznej, zawierającej parametry, takie jak wymagana szybkość transmisji bitów, liczba kanałów, odtwarzanie PR lub NPR, szybkość próbkowania i szybkość transmisji.
Kodowane sygnały i informacja wstęgi bocznej są upakowywane i multipleksowane w strumieniu danych 16, tak że obciążenie obliczeniowe dekodowania jest ograniczone do wymaganego zakresu. Strumień danych 16 jest kodowany lub przesyłany przez nośnik transmisji 20, taki jak dysk kompaktowy, cyfrowy dysk wideo lub satelita nadający programy odbierane bezpośrednio. Dekoder 18 dekoduje poszczególne sygnały podpasma i wykonuje operację filtrowania odwrotnego w celu wytwarzania wielokanałowego sygnału akustycznego 22, który jest
183 498 subiektywnie równoważny pierwotnemu wielokanałowemu sygnałowi akustycznemu z modulacją kodowo-impulsową 14. System akustyczny 24, taki jak system teatru domowego lub komputer multimedialny, odtwarza sygnał akustyczny dla użytkownika.
Figura 2 pokazuje wielokanałowy koder 12, który zawiera wiele indywidualnych koderów kanałowych 26, korzystnie pięć - lewy przedni, środkowy, prawy przedni, lewy tylny i prawy tylny, które wytwarzająposzczególne zespoły kodowanych sygnałów 28 podpasma, korzystnie 32 sygnały podpasma na kanał. Koder 12 wykorzystuje system zarządzania 30 bitami globalnymi, który przydziela dynamicznie bity ze wspólnej puli bitów kanałów, pomiędzy podpasmami w kanale i w indywidualnej ramce w danym podpasmie. Koder 12 stosuje również łączne techniki kodowania częstotliwości dla korzystania ze współzależności pomiędzy kanałami w podpasmach większych częstotliwości. Ponadto koder 12 stosuje kwantowanie wektorowe w podpasmach większych częstotliwości, które nie są szczególnie dostrzegalne, w celu zapewnienia podstawowej dokładności lub wierności przy wielkich częstotliwościach z bardzo małą szybkością transmisji bitów W ten sposób koder wykorzystuje żądania różnych sygnałów, na przykład wartości podpasm rms i poziomów maskowania psychoakustycznego kanałów wielokrotnych i niejednorodny rozkład energii sygnałów dla częstotliwości w każdym kanale i czasu w danej ramce.
Przy przeglądzie przydziału bitów system zarządzania 30 najpierw decyduje, które podpasma kanałów sąkodowane częstotliwościowo łącznie i uśrednia te dane, a następnie określa, które podpasma sąkodowane przy zastosowaniu kwantowania wektorowego oraz odejmuje te bity od osiągalnej szybkości transmisji bitów. Decyzję o podpasmach dla kwantowania wektorowego podejmuje się a priori przez to, że wszystkie podpasma powyżej częstotliwości progowej są kwantowane wektorowo lub podejmuje się w oparciu o skutki maskowania psychoakustycznego poszczególnych podpasm w każdej ramce. Następnie system zarządzania 3θ przydziela bity ABIT przy zastosowaniu maskowania psychoakustycznego w pozostałych podpasmach dla optymalizacji subiektywnej jakości dekodowanego sygnału akustycznego. Jeżeli są dostępne bity dodatkowe, koder może przełączyć się na czysty schemat mmse, to jest typu “napełniania wodą” i ponownie przydzielić wszystkie bity w oparciu o podpasma względem wartości rms dla minimalizacji wartości rms sygnału błędu. To jest możliwe do zastosowania przy bardzo dużych szybkościach transmisji bitów. Korzystne rozwiązanie polega na zachowaniu psychoakustycznego przydziału bitów i przydziale tylko bitów dodatkowych zgodnie ze schematem mmse. To powoduje utrzymanie kształtu sygnału szumu wytwarzanego przez maskowanie psychoakustyczne, lecz jednorodne przesunięcie poziomu szumu do dołu.
Rozwiązanie jest modyfikowane tak, że bity dodatkowe są przydzielane zgodnie z różnicą pomiędzy rms i poziomami psychoakustycznymi. W wyniku tego przydział psychoakustyczny przechodzi do przydziału mmse, gdy szybkość transmisji bitów wzrasta, przez co zapewnia gładkie przejście pomiędzy tymi dwiema technikami. Powyższe techniki są szczególnie możliwe do zastosowania dla systemów o stałej szybkości transmisji bitów. Odmiennie koder 12 ustala poziom zakłócenia, subiektywny lub mse i umożliwia zmianę całkowitej szybkości transmisji bitów dla utrzymania poziomu zakłócenia. Multiplekser 32 mnoży sygnały pasma podstawowego i informację wstęgi bocznej w strumieniu danych 16 zgodnie ze szczególnym formatem danych.
Szczegóły formatu danych są omawiane poniżej odnośnie fig. 20.
Figura 3 wyjaśnia kodowanie pasma podstawowego. Dla szybkości próbkowania w zakresie 8-48 kHz koder kanałowy 26 wykorzystuje jednorodny zespół 34 filtrów analizy 512-zaczepowych, 32-pasmowych, pracujących przy częstotliwości próbkowania 48 kHz dla podziału widma akustycznego 0-24 kHz każdego kanału na 32 podpasma mające szerokość pasma 750 Hz na podpasmo. Podczas etapu kodowania 36 następuje kodowanie każdego sygnału podpasma i multipleksowanie 38 ich w skompresowany strumień danych 16. Dekoder 18 odbiera skompresowany strumień danych, rozdziela kodowane dane dla każdego podpasma przy zastosowaniu układu rozpakowania 40, dekoduje każdy sygnał 42 podpasma i odtwarza cyfrowe sygnały akustyczne z modulacją kodowo-impulsową Fprób = 48 kHz, przy zastosowaniu jednorodnego zespołu 44 filtrów interpolacji 512-zaczepowych, 32-pasmowych dla każdego kanału.
183 498
W tej strukturze wszystkie strategie kodowania, na przykład szybkości próbkowania 48,96 lub 192 kHz, stosują 32-pasmowy proces kodowania-dekodowania przy najmniejszych częstotliwościach akustycznych pasma podstawowego, na przykład pomiędzy 0-24 kHz. Zatem dekodery, które są zaprojektowane i zbudowane obecnie w oparciu o szybkość próbkowania 48 kHz, będą zgodne z przyszłymi koderami, które są zaprojektowane do wykorzystania składowych o większych częstotliwościach.
Istniejący dekoder odczytywałby sygnał pasma podstawowego 0-24 kHz i ignorowałby kodowane dane dla większych częstotliwości.
Przy kodowaniu z dużą szybkością próbkowania w zakresie 48 - 96 kHz, koder kanałowy 26 korzystnie dzieli widmo akustyczne na dwa i wykorzystuje jednorodny zespół filtrów analizy 32-pasmowych dla dolnej połówki i zespół filtrów analizy 8-pasmowych dla górnej połówki.
Figura 4a 14b pokazuje widmo akustyczne 0-48 kHz, które jest początkowo dzielone przy zastosowaniu zespołu 46 filtrów wstępnych działania dziesiętnego 256-zaczepowych, 2-pasmowych, zapewniających szerokość pasma akustycznego 24 kHz na pasmo. Pasmo dolne 0-24 kHz jest dzielone i kodowane w 32 jednorodnych pasmach w sposób opisany powyżej odnośnie fig. 3. Natomiast pasmo górne 24-48 kHz jest dzielone i kodowane w 8 jednorodnych pasmach. Jeżeli opóźnienie zespołu 48 filtrów działania dziesiętnego, 8-pasmowych nie jest takie samo, jak zespołów filtrów 32-pasmowych, wówczas etap kompensacji opóźnienia 50 jest wykorzystywany gdzieś w torze sygnabi 24-48 kHz dla zapewnienia, żeby oba przebiegi czasowe wyrównywały się przed zespołem filtrów rekombinacji 2-pasmowych w dekoderze W systemie kodowania z próbkowaniem 96 kHz, pasmo akustyczne 24-48 kHz jest opóźniane o 384 próbki i następnie dzielone na 8 jednorodnych pasm przy zastosowaniu zespołu filtrów interpolacji 128-zaczepowych Każde z podpasm 3 kHz jest kodowane 521 upakowywane 54 przez kodowane dane pasma 0-24 kHz w celu utworzenia skompresowanego strumienia danych 16.
Po dojściu do dekodera 18 skompresowany strumień danych 16 jest rozpakowywany 56 i kody zarówno dla dekodera 32-pasmowego w zakresie 0-24 kHz, jak i dekodera 8-pasmowego w zakresie 24-48 kHz, są rozdzielane i dostarczane do poszczególnych etapów dekodowania 42 i 58 Osiem i trzydzieści dwa dekodowane podpasma są odtwarzane przy zastosowaniu jednorodnych zespołów 60 i 44 filtrów interpolacji 128-zaczepowych 1512-zaczepowych. Dekodowane podpasma sąkolejno rekombinowane przy zastosowaniu jednorodnego zespołu 62 filtrów interpolacji 256-zaczepowych, 2-pasmowych dla wytwarzania pojedynczego, cyfrowego sygnału akustycznego z modulacją kodowo-impulsową z szybkością próbkowania 96 kHz. W przypadku, gdy jest pożądane, żeby dekoder działał z połowiczną szybkością próbkowania skompresowanego strumienia danych, może to być dogodnie przeprowadzone przez odrzucenie kodowanych danych pasma górnego 24-48 kHz i dekodowanie tylko 32 podpasm w zakresie akustycznym 0-24 kHz.
We wszystkich opisanych strategiach kodowania proces kodowania-dekodowania 32-pasmowego jest przeprowadzany dla części pasma podstawowego o szerokości pasma akustycznego 0-24 kHz.
Figura 5 pokazuje urządzenie wprowadzania i zapisywania 64 obrazów, które okienkuje kanał danych akustycznych z modulacjąkodowo-impulsową 14 dla segmentowania go na kolejne ramki 66 danych. Okno akustyczne z modulacją kodowo-impulsową określa liczbę ciągłych próbek wejściowych, dla których proces kodowania powoduje wytwarzanie ramki wyjściowej w strumieniu danych. Wielkość okna jest ustalana w oparciu o stopień kompresji, to jest stosunek szybkości transmisji do szybkości próbkowania, tak że ilość danych kodowanych w każdej ramce jest ograniczona. Każda kolejna ramka 66 danych jest dzielona na 32 jednorodne pasma częstotliwościowe 68 przez zespół 34 filtrów działania dziesiętnego FIR 512-zaczepowych, 32-pasmowych. Próbki wyjściowe z każdego podpasma są buforowane i dostarczane do etapu kodowania 32-pasmowego 36.
Na fig. 10-19 jest opisany szczegółowo etap analizy 70, podczas którego są wytwarzane optymalne współczynniki prognozowania, przydziały bitów urządzenia kwantującego różnicowego i optymalne współczynniki skalowania urządzenia kwantującego dla buforowanych próbek podpasma Etap analizy 70 decyduje także, które podpasma są kwantowane wektorowo
183 498 i które sąkodowane łącznie częstotliwościowo, jeżeli te decyzje nie są stałe. Te dane lub informacja wstęgi bocznej są kierowane do przodu do wybranego etapu z modulacją ADPCM 72, etapu kwantowania wektorowego 73 lub etapu kodowania JFC 74 łącznie częstotliwościowo oraz do multipleksera 32 danych układu upakowującego.
Próbki podpasma są następnie kodowane w procesie z modulacją ADPCM lub kwantowania wektorowego i kody kwantowania są wprowadzane do multipleksera. Etap JFC 74 nie koduje aktualnie próbek podpasma, lecz wytwarza kody wskazujące, które podpasma kanałów są połączone i gdzie są one umieszczone w strumieniu danych. Kody kwantowania i informacja wstęgi bocznej każdego podpasma sąupakowywane w strumieniu danych 16 i przesyłane do dekodera.
Po dojściu do dekodera 18 strumień danych jest demultipleksowany 40 lub rozpakowywany z powrotem do indywidualnych podpasm. Współczynniki skalowania i przydziały bitów są najpierw instalowane w urządzeniach kwantujących odwrotnych 75 wraz ze współczynnikami prognozowania dla każdego podpasma. Kody różnicowe sąnastępnie odtwarzane przy zastosowaniu albo procesu z modulacją ADPCM 76 albo odwrotnego procesu kwantowania wektorowego 77 bezpośrednio albo odwrotnego procesu JFC 78 dla wyznaczonych podpasm. Podpasma są w końcu łączone z powrotem do pojedynczego sygnału akustycznego z modulacjakodowo-impulsową22 przy zastosowaniu zespołu 44 filtrów interpolacji 32-pasmowych.
Figura 6 pokazuje, że przy ramkowaniu sygnału z modulacją kodowo-impulsową, urządzenie wprowadzania i zapisywania 64 obrazów, pokazane na fig. 5, zmienia wielkość okna 79, gdy szybkość transmisji zmienia się dla danej szybkości próbkowania, tak że liczba bajtów na ramkę wyjściową 80 jest ograniczona do zakresu na przykład od 5,3 kilobajtów do 8 kilobajtów/. Tabele 112 są tabelami projektowania, które umożliwiają projektantowi wybrać optymalną wielkość okna i wielkość bufora dekodera czyli wielkość ramki dla danej szybkości próbkowania i szybkości transmisji. Przy małych szybkościach transmisji wielkość ramki jest stosunkowo duża. To umożliwia koderowi wykorzystanie niepłaskiego rozkładu wariancji sygnału akustycznego w czasie i poprawę osiągnięć kodera akustycznego. Przy dużych szybkościach wielkość ramki jest zmniejszona, tak ze całkowita liczba bajtów nie przepełnia bufora dekodera. W wyniku tego projektant dostarcza do dekodera 8 kilobajtów pamięci RAM w celu zapewnienia wszystkich szybkości transmisji To powoduje uproszczenie dekodera. Ogólnie wielkość okna akustycznego jest dana przez równanie'
Okno akustyczne = (Wielkość ramki)* Fprób*
T \ szybkość gdzie wielkość ramki jest wielkością bufora dekodera, Fprób jest szybkością próbkowania i Tszybkosć jest szybkością transmisji. Wielkość okna akustycznego jest niezależna od liczby kanałów akustycznych Jednak gdy liczba kanałów jest zwiększona, stopień kompresji musi także wzrosnąć dla utrzymania wymaganej szybkości transmisji.
Tabela 1 Fprób (kHz)
Tszybkosć 8-12 16-24 32-48 64-96 128-192
< 512kbitna s 1024 2048 4096 * *
< 1024 kbit nas * 1024 2048 * *
< 2048 kbit na s * * 1024 2048 *
< 4096 kbit na s * * * 1024 2048
183 498
Tabela 2 Fprób (kHz)
Tsybkosć 8-12 16-24 32-48 64-96 128-192
< 512kbitnas 8-5,3k 8-5,3k 8-5,3k * *
< 1024 kbit na s * 8-5,3k 8-5,3k * *
< 2048 kbit na s * * 8-5,3k 8-5,3k *
< 4096 kbit na s * * * 8-5,3k 8-5,3k
Przy filtrowaniu podpasma jednorodny zespół 34 filtrów działania dziesiętnego 512-zaczepowych, 32-pasmowych wybiera z dwóch wielofazowych zespołów filtrów do podziału ramki 66 danych na 32 jednorodne podpasma 68 pokazane na fig. 5. Te dwa zespoły filtrów mają różne własności odtwarzania, które wpływają na wzmocnienie kodowania podpasma co do dokładności odtwarzania. Jedna klasa filtrów jest nazywana doskonałymi filtrami odtwarzania PR. Wówczas gdy filtr kodowania działania dziesiętnego doskonałego filtru odtwarzania i filtr dekodowania interpolacji są umieszczone obok siebie, odtwarzany sygnał jest doskonały, przy czym doskonały jest określony jako zawarty w 0,5 lsb przy 24 bitach rozdzielczości. Druga klasa filtrów jest nazywana niedoskonałymi filtrami odtwarzania NPR, ponieważ odtwarzany sygnał ma mezerowy poziom szumu, który jest związany z własnością niedoskonałego kasowania utożsamiania procesu filtrowania.
Figura 7 pokazuje funkcje przenoszenia 82 i 84 doskonałych i niedoskonałych filtrów odtwarzania dla pojedynczego podpasma. Ze względu na to, że niedoskonałe filtry odtwarzania me sąograniczone do zapewniania doskonałego odtwarzania, wykazują znacznie większe współczynniki eliminacji NSBR pasma bliskiego tłumieniowemu, to jest stosunek pasma przepustowego do pierwszego płata bocznego charakterystyki, niż doskonałe filtry odtwarzania 110 dB do 85 dB.
Figura 8 pokazuje płaty boczne filtru, powodujące wytwarzanie sygnału 86, który zwykle występuje w trzecim podpasmie dla wprowadzenia do sąsiednich podpasm. Wzmocnienie podpasma mierzy eliminację sygnału w sąsiednich podpasmach i dlatego wskazuje zdolność filtru do uniezależnienia sygnału akustycznego. Ze względu na to, że filtry NPR mają znacznie większy współczynnik NSBR niż filtry PR, będą także miały znacznie większe wzmocnienie podpasma. W wyniku tego filtry NPR zapewniają lepszą wydajność kodowania.
Figura 9 pokazuje całkowite zakłócenie skompresowanego strumienia danych zmniejszone, gdy całkowita szybkość transmisji bitów wzrasta dla obu filtrów PR i NPR. Jednak przy małych szybkościach różnica wartości wzmocnienia podpasma pomiędzy dwoma typami filtrów jest większa niż poziom szumu związany z filtrem NPR. Zatem krzywa zakłócenia 90 związana z filtrem NPR jest usytuowana poniżej krzywej zakłócenia 92 związanej z filtrem PR. Wobec tego przy małych szybkościach koder akustyczny wybiera zespół filtrów NPR. W pewnym punkcie 94 błąd kwantowania kodera spada poniżej poziomu szumu filtru NPR tak, że dodanie bitów dodatkowych do kodera z modulacją aDpCM nie daje żadnych dodatkowych korzyści W tym punkcie koder akustyczny przełącza się na zespół filtrów PR.
Przy kodowaniu z modulacją ADPCM, koder z modulacją ADPCM 72 wytwarza próbkę prognozowaną p(n) z kombinacji liniowej H poprzednio odtworzonych próbek. Ta próbka prognozowana jest następnie odejmowana od wejścia x(n) dla dania próbki różnicowej d(n). Próbki różnicowe są skalowane przez podzielenie ich przez współczynnik skalowania RMS lub PEAK dla dopasowania amplitud RMS próbek różnicowych do charakterystyki Q urządzenia kwantującego. Skalowana próbka różnicowa ud(n) jest wprowadzana do charakterystyki urządzenia kwantującego z poziomami L etapu-wielkości SZ, jak to określono przez liczbę bitów ABIT przydzielonych bieżącej próbce Urządzenie kwantujące wytwarza kod poziomu QL(n) dla każdej
183 498 skalowanej próbki różnicowej ud(n). Te kody poziomu są ostatecznie przesyłane do stopnia z modulacją ADPCM dekodera. Dla aktualizacji prognozowanej historii, kody poziomu QL(n) urządzenia kwantującego są miejscowo dekodowane przy zastosowaniu odwrotnego urządzenia kwantującego 1/Q o charakterystyce identycznej do Q w celu wytwarzania kwantowanej, skalowanej próbki różnicowej ud(n). Próbka ud(n) jest ponownie skalowana przez pomnożenie jej przez współczynnik skalowania RMS lub PEAK, w celu wytworzenia d(n). Kwantowana wersja x(n) pierwotnej próbki wejściowej x(n) jest odtwarzana przez dodanie początkowej próbki prognozowania p(n) do kwantowanej próbki różnicowej d(n). Ta próbka jest następnie stosowana do aktualizacji prognozowanej historii.
Przy kwantowaniu wektorów, współczynniki prognozowania i próbki pasma podstawowego wielkiej częstotliwości sąkodowane przy zastosowaniu kwantowania wektorowego. Prognozowane kwantowanie wektorowe ma wymiar wektora 4 próbek i szybkości transmisji bitów 3 bity na próbkę. Końcowa książka kodów składa się zatem z 4096 wektorów kodowych o wymiarze 4. Wyszukiwanie wektorów dopasowanych ma strukturę dwupoziomowego drzewa, w którym każdy węzeł drzewa ma 64 gałęzie. Poziom górny pamięta 64 wektory kodowe węzła, które są potrzebne tylko w koderze do wspomagania procesu wyszukiwania. Poziom dolny styka się z 4096 końcowymi wektorami kodowymi, które są wymagane zarówno w koderze jak i dekoderze. Dla każdego wyszukiwaniajest wymaganych 128 obliczeń MSE wymiaru 4. Książka kodów i wektory węzłów na poziomie górnym są szkolone przy zastosowaniu metody LEG, z ponad 5 milionami wektorów szkolących współczynników prognozowania. Wektory szkolące są gromadzone dla całego podpasma, które ma dodatnie wzmocnienie prognozowania, przy kodowaniu szerokiego zakresu materiału akustycznego. Dla wektorów badanych w zespole szkolącym, uzyskuje się średnie SNR w przybliżeniu 30 dB.
Kwantowanie wektorowe wielkiej częstotliwości ma wymiar wektora 32 próbek, długość podramki i szybkość transmisji 0,3125 bitów na próbkę. Końcowa książka kodów składa się zatem z 1024 wektorów kodów o wymiarze 32. Wyszukiwanie wektorów dopasowanych ma strukturę dwupoziomowego drzewa, w którym każdy węzeł drzewa ma 32 gałęzie. Poziom górny pamięta 32 wektory kodowe węzła, które są potrzebne tylko w koderze. Poziom dolny zawiera 1024 końcowych wektorów kodowych, które są wymagane zarówno w koderze jak i dekoderze. Dla każdego wyszukiwania są wymagane 64 obliczenia MSE wymiaru 32. Książka kodów i wektory węzłów na poziomie górnym są szkolone przy zastosowaniu metody LBG, z ponad 7 milionami wektorów szkolących próbki podpasma wielkiej częstotliwości. Próbki, które tworzą wektory, są gromadzone z wyjść podpasm 16 do 32 przy szybkości próbkowania 48 kHz dla szerokiego zakresu materiału akustycznego. Przy szybkości próbkowania 48 kHz, próbki szkolące reprezentują częstotliwości akustyczne w zakresie od 12 do 24 kHz. Dla wektorów badanych w zespole szkolącym, uzyskuje się średnie SNR w przybliżeniu 3 dB. Chociaż 3 dB jest małym SNR, jest ono wystarczające do zapewniania dokładności wielkich częstotliwości lub wierności przy tych wielkich częstotliwościach. To jest percepcyjnie znacznie lepsze niż znane techniki, które po prostu obniżają podpasma wielkiej częstotliwości.
Przy kodowaniu łącznym częstotliwościowym, w zastosowaniach z bardzo małą szybkościątransmisji bitów dokładność całkowitego odtwarzania można poprawić przez kodowanie tylko dodawania sygnałów podpasma wielkiej częstotliwości z dwóch lub więcej kanałów akustycznych zamiast kodowania ich niezależnie. Kodowanie łączne częstotliwościowejest możliwe, ponieważ podpasma wielkiej częstotliwości często mają podobne rozkłady energii i ponieważ układ słuchowy człowieka jest czuły głównie na natężenie składowych o wielkich częstotliwościach, zamiast ich dokładną strukturę. Zatem odtworzony sygnał średni zapewnia dobrą dokładność całkowitą, ponieważ przy dowolnej szybkości transmisji bitów dostępnych jest więcej bitów do kodowania wyczuwalnie ważnych małych częstotliwości.
Indeksy kodowania łącznego częstotliwościowego JOINX są przesyłane bezpośrednio do dekodera w celu wskazania, które kanały i podpasma zostały połączone i gdzie kodowany sygnał jest usytuowany w strumieniu danych. Dekoder odtwarza sygnał w wyznaczonym kanale i następnie kopiuje go do każdego z pozostałych kanałów. Każdy kanał jest następnie skalowany zgodnie
183 498 z poszczególnym współczynnikiem skalowania RMS. Ze względu na to, że kodowanie łączne częstotliwościowe powoduje uśrednianie sygnałów czasowych w oparciu o podobieństwo rozkładów energii, dokładność odtwarzania jest zmniejszona. Zatem jego zastosowanie jest zwykle ograniczone do zastosowań z małą szybkościątransmisji bitów i głównie do sygnałów 10-20 kHz. W środowisku do zastosowań z dużą szybkością transmisji bitów kodowanie łączne częstotliwościowe jest zwykle uniemożliwione.
Figura 10 wyjaśnia działanie kodera podpasma i procesu kodowania dla pojedynczego pasma bocznego, który jest kodowany przy zastosowaniu procesów z modulacją ADPCM/APCM, a zwłaszcza oddziaływanie wzajemne etapu analizy 70 i kodera z modulacją ADPCM 72, pokazane na fig. 5 oraz system zarządzania 30 bitami globalnymi, pokazany na fig. 2.
Figury 11-19 pokazują szczegółowo procesy składowe pokazane na fig. 13. Zespół 34 filtrów dzieli sygnał danych akustycznych z modulaccjąkodowo-impulsowa 14 na sygnały x(n) 32 podpasm, które są wpisane w poszczególne bufory 96 próbkowania podpasma. Zakładając wielkość okna akustycznego 4096 próbek, każdy bufor 96 próbkowania podpasma pamięta pełną ramkę z 128 próbek, które są dzielone na 4 podramki 32-próbkowe. Wielkość okna z 1024 próbek powodowałby wytwarzanie pojedynczej podramki z 32 próbek. Próbki x(n) sąkierowane do etapu analizy 70 w celu określania współczynników prognozowania, trybu prognozowania PMODE, przejściowego trybu pracy TMODE i współczynników skalowania SF dla każdej podramki. Próbki x(n) są także dostarczane do systemu zarządzania 30, który określa przydział bitów ABIT dla każdej podramki na podpasmo na kanał akustyczny. Następnie próbki x(n) są przepuszczane do kodera z modulacją ADPCM 72, po jednej podramce w danym czasie.
Przy ocenie optymalnych współczynników prognozowania, współczynniki prognozowania H, korzystnie 4-tego rzędu, są wytwarzane oddzielnie dla każdej podramki, stosując standardową metodę autokorelacji 98 optymalizowaną w bloku próbek x(n) podpasma, to jest równań Weinera-Hopfa lub Yule’a-Walkera.
Przy kwantowaniu optymalnych współczynników prognozowania, każdy zespół czterech współczynników prognozowania jest korzystnie kwantowany przy zastosowaniu książki kodów 12-bitowych wektorów 4-elementowego wyszukiwania drzewa, 3 bity na współczynnik, opisanej powyżej. Książka kodów 12-bitowyjh wektorów zawiera 4096 wektorów współczynników, które są optymalizowane dla wymaganego rozkładu prawdopodobieństwa przy zastosowaniu standardowego algorytmu grupowania. Wyszukiwanie 100 kwantowania wektorowego wybiera wektor współczynnika, który ma najmniejszy ważony średni błąd kwadratowy względem współczynników optymalnych. Współczynniki optymalne dla każdej podramki są następnie zastępowane przez te “kwantowane wektory. Odwrotny kwantowany wektorowo LUT 101 jest stosowany do dostarczania kwantowanych współczynników prognozowanych do kodera z modulacją ADPCM 72.
Przy ocenie sygnału różnicowego prognozowania d(n), problemem z modulacją ADPCM jest to, że sekwencja próbek różnicowych d(n) nie może być łatwo prognozowana przed rzeczywistym procesem rekurencyjnym 72. Podstawowym wymaganiem podpasma adaptacyjnego z modulacją ADPCM w przód jest to, żeby energia sygnału różnicowego była znana przed kodowaniem z modulacją ADPCM w celu obliczania właściwego przydziału bitów dla urządzenia kwantującego, które wytwarza znany błąd kwantowania lub poziom szumu w odtwarzanych próbkach. Znajomość energii sygnału różnicowego jest także wymagana do umożliwienia określenia optymalnego współczynnika skalowania różnicowego przed kodowaniem.
Niekorzystnie energia sygnału różnicowego nie tylko zależy od charakterystyk sygnału wejściowego, lecz także od osiągnięć urządzenia prognozującego. Poza znanymi ograniczeniami, takimi jak rząd prognozowania i optymalność współczynników prognozowania, na osiągnięcia urządzenia prognozującego wpływa także poziom błędu kwantowania lub szumu indukowanego w odtwarzanych próbkach. Ze względu na to, że szum kwantowania jest wyznaczony przez końcowy przydział bitów ABIT i same wartości współczynnika skalowania różnicowego RMS lub PEAK, ocena energii sygnału różnicowego musi następować iteracyjnie 102.
183 498
W etapie 1 następuje założenie zerowego błędu kwantowania. Pierwsza ocena sygnału różnicowego jest dokonywana przez przeprowadzenie buforowanych próbek x(n) podpasma przez proces z modulacją ADPCM, w którym nie dokonuje się kwantowania sygnału różnicowego. To jest uzyskiwane przez uniemożliwienie kwantowania i skalowania RMS w pętli kodowania z modulacją ADPCM. Przez ocenę sygnału różnicowego d(n) w ten sposób, usuwane są z obliczeń wpływy wartości współczynników skalowania i przydziałów bitów Jednak wpływ błędu kwantowania na współczynniki prognozowania jest brany pod uwagę w procesie przez zastosowanie wektorowych, kwantowanych współczynników prognozowania. Odwrotny kwantowany wektorowe lut 104 jest stosowany do dostarczania kwantowanych współczynników prognozowania. W celu dalszego zwiększenia dokładności ocenianego prognozowania, próbki historii z rzeczywistego prognozowania z modulacją ADPCM, które były zgromadzone na końcu poprzedniego bloku, sąkopiowane dla prognozowania przed obliczaniem. To zapewnia, że prognozowanie rozpoczyna się od tego miejsca, gdzie rzeczywiste prognozowanie z modulacją ADPCM pozostało na końcu poprzedniego bufora wejściowego.
Główna różnica pomiędzy tą oceną ed(n) i rzeczywistym procesem d(n) jest taka, ze jest ignorowany wpływ szumu kwantowania na odtwarzane próbki x(n) i na zmniejszoną dokładność prognozowania. W przypadku urządzeń kwantujących o dużej liczbie poziomów, poziom szumu będzie zwykle mały, zakładając właściwe skalowanie i dlatego rzeczywista energia sygnału różnicowego będzie dokładnie dopasowana do obliczonej podczas oceny. Jednak gdy liczba poziomów urządzenia kwantuj ącego jest mała, j akj est to w przypadku typowych koderów akustycznych o małej szybkości transmisji bitów, rzeczywisty sygnał prognozowany i dlatego energia sygnału różnicowego mogą znacznie różnić się od ocenianej. To powoduje wytwarzanie poziomów szumu kodowania, które różnią się od prognozowanych wcześniej w procesie adaptacyjnym przydzielania bitów.
Pomimo tego zmiana w osiągnięciach prognozowania może me być znaczna dla zastosowania lub szybkości transmisji bitów/. Zatem ocena może być stosowana bezpośrednio do obliczania przydziałów bitów i współczynników skalowania bez iteracji. Dodatkowym uściśleniem byłaby kompensacja strat osiągnięć przez rozmyślną nadmierną ocenę energii sygnału różnicowego, jeżeli jest prawdopodobne, że urządzenie kwantujące o małej liczbie poziomów ma być przydzielone temu podpasmu. Nadmierna ocena może być także stopniowana zgodnie ze zmieniającą się liczbą poziomów urządzenia kwantującego dla poprawy dokładności.
W etapie 2 następuje ponowne obliczanie przy zastosowaniu ocenianych przydziałów bitów i współczynników skalowania. Po wytworzeniu przydziałów bitów ABIT i współczynników skalowania SF przy zastosowaniu pierwszego sygnału różnicowego oceny, ich optymalność może być zbadana przez przeprowadzenie dalszego procesu oceny z modulacjąADPĆM przy zastosowaniu ocenianych wartości ABIT i RMS czyli PEAK w pętli z modulacją ADPCM 72. Jak przy pierwszej ocenie, historia ocenianego prognozowania jest kopiowana z rzeczywistego prognozowania z modulacją ADPCM przed rozpoczęciem obliczania dla zapewnienia, żeby oba prognozowania rozpoczynały się od tego samego punktu. Po przejściu buforowanych próbek wejściowych przez tę drugą pętlę oceny, uzyskiwany poziom szumu w każdym podpasmie jest porównywany z założonym poziomem szumu w procesie adaptacyjnym przydziału bitów. Jakiekolwiek znaczne różnice mogą być kompensowane w celu modyfikacji przydziału bitów i/lub współczynników skalowania.
Etap 2 może być powtórzony w celu właściwego uściślenia poziomu rozłożonego szumu w odpasmach, za każdym razem stosując najbardziej aktualną ocenę sygnału różnicowego do obliczania następnego zespołu przydziałów bitów i współczynników skalowania. Ogólnie, jeżeli współczynniki skalowania zmieniałyby się więcej niż w przybliżeniu 2-3 dB, następnie są one ponownie obliczane. Inaczej przydział bitów stwarzałby niebezpieczeństwo zakłócenia współczynników sygnał do maski, uzyskiwanych w psychoakustycznym procesie maskowania lub odmiennie w procesie mmse. Zwykle jest wystarczająca pojedyncza iteracja.
Przy obliczaniu trybów prognozowania PMOD podpasma, w celu poprawy wydajności kodowania sterownik 106 dowolnie wyłącza proces prognozowania, gdy wzmocnienie prognozowania
183 498 w bieżącej podramce spada poniżej poziomu progowego przez nastawienie znacznika stanu PMODE. Znacznik stanu PMODE jest nastawiany na jeden, gdy wzmocnienie prognozowania, stosunek energii sygnału wejściowego i ocenianej energii sygnału różnicowego, mierzony podczas etapu oceny dla bloku próbek wejściowych, przekracza pewien dodatni poziom progowy Odwrotnie, jeżeli mierzone wzmocnienie prognozowania jest mniejsze niż dodatni poziom progowy, współczynniki prognozowania z modulacją ADPCM sąnastawiane na zero zarówno w koderze jak i dekoderze dla tego pasma i poszczególny PMODE jest nastawiany na zero. Poziom progowy wzmocnienia prognozowania jest nastawiany tak, że jest równy stopniowi zakłócenia organizacji transmitowanego wektora współczynnika prognozowania. To jest dokonywane w celu zapewnienia, że gdy PMODE = 1, wzmocnienie kodowania dla procesu z modulacją ADPCM jest zawsze większe lub równe wzmocnieniu kodowania w procesie kodowania adaptacyjnym z modulacją kodowo-impulsową w przód. Inaczej przez nastawienie PMODE na zero i przestawienie współczynników prognozowania, proces z modulacją ADPCM jest odwracany po prostu na APCM.
Znaczniki stanu PMODE mogą być nastawione na stan wysoki w dowolnym lub wszystkich podpasmach, jeżeli zmiany wzmocnienia kodowania z modulacją ADPCM nie są ważne dla programu użytkowego. Odwrotnie, znaczniki stanu PMODE mogą być nastawione na stan niski, jeżeli na przykład pewne podpasma nie mająbyć wcale kodowane, szybkość transmisji bitów w programie użytkowymjest dość wysoka, tak że nie są wymagane wzmocnienia prognozowania do utrzymania subiektywnej jakości akustycznej, zawartość przejściowa sygnału jest duża lub charakterystyka trwałego połączenia kodowanych sygnałów akustycznych z modulacją ADPCM nie jest po prostu pożądana, jak to może mieć miejsce w przypadku programów użytkowych przy nadawaniu sygnałów akustycznych.
Oddzielne tryby prognozowania PMODE sątransmitowane dla każdego podpasma z szybkością równą szybkości aktualizacji liniowego prognozowania w procesach kodowania i dekodowania z modulacją ADPCM. Celem parametru PMODE jest wskazanie dekoderowi, czy określone podpasmo będzie miało dowolny adres wektora współczynnika prognozowania, związany z jego blokiem kodowanych danych akustycznych. Wówczas gdy PMODE = 1 w dowolnym podpasmie, adres wektora współczynnika prognozowania będzie zawsze wprowadzony do strumienia danych. Wówczas gdy PMODE = 0 w dowolnym podpasmie, adres wektora współczynnika prognozowania nie będzie nigdy wprowadzony do strumienia danych i współczynniki prognozowania są nastawione na zero w etapach zarówno kodowania jak i dekodowania z modulacją ADPCM.
Obliczanie PMODE rozpoczyna się przez analizę energii buforowanego sygnału wejściowego podpasma względem odpowiednich energii buforowanego ocenianego sygnału różnicowego, otrzymywanych podczas oceny pierwszego etapu, to jest zakładając brak błędu kwantowania. Zarówno próbki wejściowe x(n) jak i oceniane próbki różnicowe ed(n) są buforowane dla każdego podpasma oddzielnie. Wielkość buforu jest równa liczbie próbek zawartych w każdym okresie aktualizacji prognozowania, na przykład wielkości podramki. Wzmocnienie prognozowania jest następnie obliczane jako:
Pwzmocnienie (dB) - 20.0 * Logi0 (RMSx(n)RMSed(n)) gdzie RMSx(n) = wartość średnia kwadratowa buforowanych próbek wejściowych x(n) i RMSed(n) = wartość średnia kwadratowa buforowanych, ocenianych próbek różnicowych ed(n).
Dla dodatnich wzmocnień prognozowania, sygnał różnicowy jest przeciętnie mniejszy niż sygnał wejściowy i dlatego może być osiągany zmniejszony szum odtwarzania przy zastosowaniu procesu z modulacją ADPCM w APCM dla tej samej szybkości transmisji bitów. Dla ujemnych wzmocnień, koder z modulacją ADPCM wytwarza sygnał różnicowy przeciętnie większy niż sygnał wejściowy, co daje większe poziomy szumu niż APCM dla tej samej szybkości transmisji bitów. Zwykle poziom progowy wzmocnienia prognozowania, który włączą PMODE, będzie
183 498 dodatni i będzie miał wartość, która uwzględnia dodatkową pojemność kanału, zużywaną przez transmitowanie adresu wektorowego współczynników prognozowania.
Przy obliczaniu przejściowych trybów TMODE podpasma, sterownik 106 oblicza tryby przejściowe TMODE dla każdej podramki w każdym podpasmie. Tryby TMODE wskazują liczbę współczynników skalowania i próbki w buforze ocenianego sygnału różnicowego ed(n), gdy PMODE = 1lub w buforze sygnału wejściowego x(n) podpasma, gdy PMODE=0, dla których są one ważne. Tryby TMODE są aktualizowane z taką samą szybkością, jak adresy wektorowe współczynników prognozowania i są transmitowane do dekodera Celem trybów przejściowych jest zmniejszenie słyszalnych błędów echa wstępnego kodowania przy występowaniu stanów przejściowych sygnału.
Stan przejściowy jest określony jako szybkie przejście pomiędzy sygnałem o małej amplitudzie i sygnałem o dużej amplitudzie. Ze względu na to, że współczynniki skalowania są uśrednione w bloku próbek różnicowych podpasma, jeżeli szybka zmiana amplitudy sygnału ma miejsce w bloku, to jest jeżeli występuje stan przejściowy, obliczony współczynnik skalowania dąży do tego, żeby być znacznie większy niż optymalny dla próbek o małej amplitudzie, poprzedzających stan przejściowy. Dlatego błąd kwantowania w próbkach poprzedzających stan przejściowy może być bardzo duży
Ten szum jest odbierany jako zakłócenie typu echa wstępnego.
W praktyce tryb przejściowy jest stosowany do modyfikacji współczynnika skalowania podpasma, uśredniającego długość bloku dla ograniczania wpływu stanu przejściowego na skalowanie próbek bezpośrednio go poprzedzających. Uzasadnieniem zrobienia tego jest zjawisko maskowania wstępnego właściwe dla układu słuchowego człowieka, który sugeruje, że w obecności stanów przejściowych, szum może być maskowany przed stanem przejściowym, przy założeniu, że jego czas trwania jest krótki.
W zależności od wartości PMODE, albo zawartość, to jest podramka, bufora próbki x(n) podpasma albo ed (n) bufora ocenianej różnicy sąkopiowane do bufora analizy przejściowej Tutaj zawartości bufora są dzielone jednorodnie na 2, 3 lub 4 pod-podramki, w zależności od wielkości próbki bufora analizy. Dla przykładu, jeżeli bufor analizy zawiera próbki 32 podpasm (21,3 ms @1500 Hz), bufor jest dzielony na 4 pod-podramki, każda z 8 próbek, dając rozdzielczość czasu
5,3 ms dla szybkości próbkowania podpasma 1500 Hz. Odmiennie, jeżeli okno analizy było konfigurowane przy 16 próbkach podpasma, wówczas bufor musi być podzielony tylko na dwie pod-podramki, aby dać taką samą rozdzielczość czasu.
Sygnał w każdej pod-podramce jest analizowany i jest określany stan przejściowy każdej, innej niż pierwsza. Jeżeli jakieś pod-podramki są oceniane jako przejściowe, wytwarzane sądwa oddzielne współczynniki skalowania dla bufora analizy, to jest bieżącej podramki. Pierwszy współczynnik skalowania jest obliczany z próbek w pod-podramkach poprzedzających przejściową pod-podrąmkę. Drugi współczynnik skalowania jest obliczany z próbek w przejściowej pod-podramce wraz ze wszystkimi poprzednimi pod-podramkami.
Stan przejściowy pierwszej pod-podramki nie jest obliczany, ponieważ szum kwantowania jest ograniczony automatycznie przez początek samego okna analizy. Jeżeli więcej niż jedna pod-podramka jest określanajako przejściowa, wówczas jest rozważana tylko ta, która występuje pierwsza Jeżeli nie są wykrywane wcale żadne podbufory przejściowe, wówczas jest obliczany tylko pojedynczy współczynnik skalowania, stosując wszystkie z próbek w buforze analizującym. W ten sposób wartości współczynnika skalowania, które zawierająpróbki przejściowe, nie są stosowane do skalowania wcześniejszych próbek więcej niż okres pod-podramki w czasie wstecz Szum kwantowania przejściowego jest więc ograniczony do okresu pod-podramki
Przy określaniu stanu przejściowego, pod-podramka jest określanaj ako przejściowa, jeżeli stosunek jej energii w poprzednim podbuforze przekracza przejściowy poziom progowy (TT) i energia w poprzedniej podramce jest poniżej poziomu progowego przejściowego wstępnego (PTT). Wartości TT i PTT zależą od szybkości transmisji bitów i stopnia wymaganego tłumienia echa wstępnego. Są one normalnie zmieniane, aż zakłócenie typu odbieranego echa wstępnego dopasowuje się do poziomu innych błędów kodowania, jeżeli one istnieją. Zwiększenie wartości
183 498
TT i/lub zmniejszenie wartości PTT powoduje malenie prawdopodobieństwa określania pod-podramekjako przejściowe i dlatego zmniejsza szybkość transmisji bitów związaną z transmisją współczynników skalowania. Odwrotnie, zmniejszenie wartości TT i/lub zwiększenie wartości PTT powoduje wzrost prawdopodobieństwa określania pod-podramek jako przejściowe i dlatego zwiększa szybkość transmisji bitów związaną z transmisją współczynników skalowania.
Jeżeli TT i PTT są indywidualnie nastawiane dla każdego podpasma, czułość wykrywania stanu przejściowego kodera może być dowolnie nastawiana dla dowolnego podpasma. Dla przykładu, jeżeli zostaje wykryte, że echo wstępne w podpasmach wielkiej częstotliwości jest mniej wyczuwalne niż w podpasmach mniejszej częstotliwości, wówczas poziomy progowe mogą być nastawiane na zmniejszenie prawdopodobieństwa stanów przejściowych określanych w podpasmach większej częstotliwości. Ponadto, ponieważ tryby tMoDe są wprowadzane do skompresowanego strumienia danych, dekoder nigdy nie potrzebuje znać algorytmu wykrywania stanu przejściowego stosowanego w koderze w celu właściwego dekodowania informacji TMODE.
Zostanie teraz opisana konfiguracja z czterema podbuforami
Figura 11apokazuje, zejeżeli pierwszapod-podramka 108 w buforze analizującym 109 podpasma jest przejściowa lub jeżeli nie są wykrywane żadne pod-podramki przejściowe, wówczas TMODE = 0 Jeżeli druga pod-podramka jest przejściowa, a nie pierwsza, wówczas TMODE = 1 Jeżeli trzecia pod-podramka jest przejściowa, a nie pierwsza lub druga, wówczas TMODE = 2. Jeżeli tylko czwarta pod-podramka jest przejściowa, lecz nie pierwsza, wówczas TMODE = 3
Figura 11b pokazuje, ze przy obliczaniu współczynników skalowania, gdy TMODE = 0, współczynniki skalowania 110 są obliczane we wszystkich pod-podramkach. Wówczas gdy TMODE = 1, pierwszy współczynnik skalowaniajest obliczany w pierwszej pod-podramce i drugi współczynnik skalowania w poprzednich pod-podramkach. Wówczas gdy TMODE = 2, pierwszy współczynnik skalowania jest obliczany w pierwszej i drugiej pod-podramce i drugi współczynnik skalowania we wszystkich poprzednich pod-podramkach. Wówczas gdy TMODE = 3, pierwszy współczynnik skalowania jest obliczany w pierwszej, drugiej i trzeciej pod-podramce i drugi współczynnik skalowania jest obliczany w czterech pod-podramkach.
Przy kodowaniu i dekodowaniu z modulacją ADPCM, stosując tryb TMODE, gdy TMODE = 0, pojedynczy współczynnik skalowania jest stosowany do skalowania próbek różnicowych podpasma dla czasu trwania całego bufora analizującego, tojest podramki ijest transmitowany do dekodera dla ułatwienia skalowania odwrotnego. Wówczas, gdy TMODE > 0, dwa współczynniki skalowania są stosowane do skalowania próbek różnicowych podpasma i oba są transmitowane do dekodera. Dla dowolnego trybu TMODe każdy współczynnik skalowaniajest stosowany do skalowania próbek różnicowych stosowanych do wytwarzania go w pierwszym miejscu.
Przy obliczaniu współczynników skalowania podpasma RMS lub PEAK, w zależności od wartości PMODE dla tego podpasma, albo oceniane próbki różnicowe ed(n) albo próbki wejściowe x(n) podpasma są stosowane do obliczania właściwych współczynników skalowania. Tryby tMoDe są stosowane przy tym obliczaniu do określania zarówno liczby współczynników skalowania, jak i do identyfikacji pod-podramek w buforze.
Przy obliczaniu współczynnika skalowania RMS, dla j-tego podpasma współczynniki skalowania rms są obliczane jak następuje.
Gdy TMODE=0, wówczas pojedyncza wartość rms jest:
RMSa J^ed(n)2 /L k„=i gdzie L jest liczbą próbek w podramce.
Gdy TMODE > 0, dwie wartości rms są·
RMSJ J^ed(n)2 /L
183 498 żk+l ' RMS2J= Zed(n)2 /L
Vn = l >
0,5 gdzie k=(TMODE*L/NSB) i NSB jest liczbą jednorodnych pod-podramek.
Jeżeli PMODE=0, wówczas próbki edj(n) są zastępowane przez próbki wejściowe Xj(n).
Przy obliczaniu współczynnika skalowania PeAk, dla j-tego podpasma współczynniki skalowania szczytowego są obliczane jak następuje.
Gdy TMODE=0, pojedyncza wartość szczytowa jest:
PeAKj max (ABS (edj(n)) dla n=1, L
Gdy TMODE>0, dwie wartości szczytowe są:
PEAK1=max(ABS (edJn)) dla n=1, (TMODE*L/NBS)
PEAK2=max(ABS(edJ(n)) dla n=(HTMODE*L/NBS), L
Jeżeli PMODE=0, wówczas próbki edj(n) sązastępowane przez próbki wejściowe XJ(n).
Przy kwantowaniu PMODE, TMODE i współczynników skalowania i kwantowaniu trybów PMODE, znaczniki stanu prognozowania mają tylko dwie wartości, włączenia lub wyłączenia, i są transmitowane do dekodera bezpośrednio jako kody 1 -bitowe.
Przy kwantowaniu trybów TMODE, znaczniki stanu przejściowego mają maksymalnie 4 wartości: 0,1, 2 i 3 i są albo transmitowane do dekodera bezpośrednio, stosując 2-bitowe słowa kodu liczb całkowitych bez znaku lub opcjonalnie przez 4-poziomową tablicę entropii w celu zmniejszenia średniej długości słowa TMODE do poniżej 2 bitów. Zwykle opcjonalne kodowanie entropii jest stosowane do programów użytkowych o małej szybkości transmisji bitów w celu zachowania bitów.
Figura 12 przedstawia szczegółowo proces kodowania 112 entropii, jest jak następuje· kody stanu przejściowego TMODE(j) dla j podpasm są odwzorowywane do postaci liczby p 4-poziomowej książki kodów o zmiennej długości i środkowym elemencie wyniesionym nad wiersz, gdzie każda książka kodów jest optymalizowana dla różnej wejściowej charakterystyki statystycznej. Wartości TMODE są odwzorowywane w 4-poziomowych tabelach 114 i jest obliczane 116 całkowite użycie bitów, związane z każdątabeląNBp. Tabela, która zapewnia najmniejsze użycie bitów w procesie odwzorowania, jest wybierana 118 przy zastosowaniu indeksu THUFF. Odwzorowane kody VTMODE(j) są wydzielane z tej tabeli, upakowywane i transmitowane do dekodera wraz ze słowem indeksu THUFF. Dekoder, który utrzymuje ten sam zespół
4-poziomowych tabeli odwrotnych, stosuje indeks THUFF do kierowania wejściowych kodów VTMODE(j) o zmiennej długości do właściwej tablicy dla dekodowania z powrotem do indeksów TMODE.
Przy kwantowaniu współczynników skalowania podpasma, w celu transmisji współczynników skalowania do dekodera, muszą być one kwantowane do znanego formatu kodu. W tym systemie są one kwantowane przy zastosowaniu jednorodnej, 64-poziomowej charakterystyki logarytmicznej, jednorodnej, 128-poziomowej charakterystyki logarytmicznej lub jednorodnej, 64-poziomowej charakterystyki logarytmicznej 120 kodowanej ze zmienną szybkością. Urządzenie kwantujące 64-poziomowe ma wielkość stopniową2,25 dB w obu przypadkach i 128-poziomowe wielkość stopniową 1,25 dB. Kwantowanie 64-poziomowe jest stosowane do szybkości transmisji bitów od małych do średnich, a dodatkowe kodowanie ze zmienną szybkościąjest stosowane do programów użytkowych o małej szybkości transmisji bitów, a 128-poziomowe jest ogólnie stosowane do dużych szybkości transmisji bitów.
Proces kwantowania 120 jest przedstawiony na fig. 13. Współczynniki skalowania RMS lub PEAK są odczytywane z bufora 121, przetwarzane do domeny 122 dziennika i następnie dostarczane albo do 64-poziomowego albo 128-poziomowego, jednorodnego urządzenia kwantującego 124, 126, określonego przez sterowanie 128 stanem kodera. Kwantowane współczynniki skalowania dziennika są następnie wpisywane do bufora 130. Zakres 128 i 64-poziomowych urządzeń kwantujących jest wystarczający do pokrycia współczynników skalowania przez
183 498 zakres dynamiczny o w przybliżeniu 160 dB i 144 dB. 128-poziomowa granica górna jest nastawiana dla pokrycia zakresu dynamicznego 24-bitowych, wejściowych, cyfrowych sygnałów akustycznych z modulacją kodowo-impulsową. 64-poziomowa granica górna jest nastawiana dla pokrycia zakresu dynamicznego 20-bitowych, wejściowych, cyfrowych sygnałów akustycznych z modulacją kodowo-impulsową.
Współczynniki skalowania dziennika są odwzorowywane do urządzenia kwantującego i współczynnik skalowania jest zastępowany przez najbliższy kod poziomu RMSqL lub pEAKqL urządzenia kwantującego. W przypadku 64-po złomowego urządzenia kwantującego te kody mają długość 6 bitów i zakres pomiędzy 0-63. W przypadku 128-poziomowego urządzenia kwantującego, kody mają długość 7 bitów i zakres pomiędzy 0-127.
Kwantowanie odwrotne 131 jest realizowane po prostu przez odwzorowanie kodów poziomu z powrotem do określonej odwrotnej charakterystyki kwantowania dla zapewnienia wartości RMSq lub PEAKq Kwantowane współczynniki skalowania są stosowane zarówno w koderze jak i dekoderze dla skalowania próbek różnicowych z modulacją ADPCM lub APCM, jeżeli PMODE = O, zapewniając przez to, że zarówno procesy skalowania jak i odwrotnego skalowania są identyczne.
Jeżeli szybkość transmisji bitów kodów 64-poziomowych urządzeń kwantujących mą być zmniejszona, realizowana jest dodatkowa entropia lub kodowanie o zmiennej długości Kody 64-poziomowe podlegają najpierw kodowaniu różnicowemu 132 pierwszego rzędu w podpasmach j, przechodząc w drugim podpasmie (j=2) do najwyższego podpasma aktywnego. Proces może być także stosowany do kodowania współczynników skalowania PEAK. Oznaczone kody różnicowe DRMSqL(j) lub DPEAKqL(j) mają maksymalny zakres +/-6 3 i sąpamiętane w buforze 134. W celu zmniejszenia ich szybkości transmisji bitów w pierwotnych kodach 6-bitowych, kody różnicowe są odwzorowywane do liczby (p) 127-poziomowych książek kodów o zmiennej długości i środkowym elemencie wyniesionym nad wiersz. Każda książka kodów jest optymalizowana dla różnej wejściowej charakterystyki statystycznej.
Proces kodowania entropii oznaczonych kodów różnicowych jest taki sam, jak proces kodowania entropii dla stanów przejściowych przedstawionych na fig. 12, poza tym, że jest stosowanych p 127-poziomowych tabel kodów o zmiennej długości. Tabela, która zapewnia najmniejsze użycie bitów w procesie odwzorowania, jest wybierana przy zastosowaniu indeksu SHUFF. Odwzorowane kody VDRMSqL(J) są wydzielane z tej tablicy, pakowane i transmitowane do dekodera wraz ze słowem indeksowym SHUFF. Dekoder, który utrzymuje ten sam zespół (p) 127-poziomowych tablic odwrotnych, stosuje indeks SHUFF do kierowania kodów wejściowych o zmiennej długości do właściwej tablicy dla dekodowania z powrotem do poziomów kodu różnicowego urządzenia kwantującego. Poziomy kodu różnicowego sąprzywracane do wartości bezwzględnych przy zastosowaniu następujących procedur:
RMSqL(1) = drmSql(1)
RMSqL(J) = DRMSqL(J) + RMSql(J-1) dla j=2,... K i poziomy kodu różnicowego PEAK są przywracane do wartości bezwzględnych przy zastosowaniu następujących procedur:
PEAKqL(1) = DPEAKql(1)
PEAKqL(J) = DPEAKql(J) + PEAKQL(j-q) dla J=2,...K gdzie w obu przypadkach K = liczba podpasm aktywnych.
Przydział bitów globalnych następuje w systemie zarządzania 30 bitami globalnymi, pokazanym na fig. 10, który zarządza rozdziałem bitów ABIT, określa liczbę podpasm aktywnych SUB i strategię łącznej częstotliwości JOINX oraz strategię kwantowania wektorowego dla wielokanałowego kodera akustycznego w celu zapewniania subiektywnie przezroczystego kodowania przy zmniejszonej szybkości transmisji bitów; To powoduje zwiększenie liczby kanałów akustycznych i/lub czasu odtwarzania, który może być kodowany i pamiętany na stałym nośniku, przy utrzymaniu lub poprawie dokładności akustycznej. Ogólnie system zarządzania 30 najpierw przydziela bity każdemu podpasmu zgodnie z analizą psychoakustyczną modyfikowaną przez
183 498 wzmocnienie prognozowania kodera. Pozostałe bity są następnie przydzielane zgodnie ze schematem mmse dla obniżenia poziomu całkowitego szumu. W celu optymalizacji wydajności kodowania, system zarządzania 30 przydziela równocześnie bity we wszystkich kanałach akustycznych, wszystkich podpasmach i w całej ramce. Ponadto można zastosować strategię łącznego kodowania częstotliwościowego. W ten sposób system wykorzystuje nierównomierny rozdział energii sygnału pomiędzy kanały akustyczne, w zakresie częstotliwości i w czasie.
Podczas analizy psychoakustycznej pomiary psychoakustyczne są stosowane do określania wyczuwalnie niewłaściwej informacji w sygnale akustycznym. Wyczuwalnie niewłaściwa informacja jest określana jako te części sygnału akustycznego, które nie powinny być słyszane przez słuchaczy i mogąbyć mierzone w danym okresie czasu, zakresie częstotliwości lub w oparciu o inne dane
Dwa główne czynniki wplywająna pomiar psychoakustyczny. Jednym jest zależny od częstotliwości, bezwzględny poziom progowy słyszalności przez ludzi. Innym jest zjawisko maskowania polegające na zdolności człowieka słyszenia jednego dźwięku i drugiego dźwięku odtwarzanego równocześnie lub nawet po pierwszym dźwięku. Innymi słowy, pierwszy dźwięk zapobiega słyszeniu przez nas drugiego dźwięku i mówi się, że jest maskowany.
W koderze podpasma wynik końcowy obliczenia psychoakustycznego jest zespołem liczb, które określ^jiąmesłyszalny poziom szumu dla każdego podpasma w tej chwili. To obliczanie jest wprowadzone do standardu. Te liczby zmieniają się dynamicznie wraz z sygnałem akustycznym Koder usiłuj e regulować poziom szumu kwantowania w podpasmach przy pomocy procesu przydziału bitów, tak że szum kwantowania w tych podpasmach jest mniejszy niż poziom słyszalny
Dokładne obliczanie psychoakustyczne wymaga zwykle zastosowania rozdzielczości wielkiej częstotliwości przy przekształcaniu czasowo-częstotliwościowym. To daje duże okno analizy dla przekształcenia czasowo-częstotliwościowego. Standardowa wielkość okna analizy wynosi 1024 próbek, co odpowiada podramce skompresowanych danych akustycznych. Rozdzielczość częstotliwościowa o długości 1024 fft jest w przybliżeniu dopasowana do rozdzielczości czasowej ucha ludzkiego.
Wyjściem modelu psychoakustycznego jest stosunek sygnału do maski SMR dla każdego z 32 podpasm. SMR wskazuje wielkość szumu kwantowania, który może wytrzymać określone podpasmo, a więc wskazuje także liczbę bitów wymaganych do kwantowania próbek w podpasmie. Szczególnie, duże SMR (>>1) wskazuje, że jest wymagana duża liczba bitów i małe SMR (>0) wskazuje, że jest wymaganych mniej bitów. Jeżeli SMR<0, wówczas sygnał akustyczny jest usytuowany poniżej poziomu progowego maskowania szumu i żadne bity nie są wymagane do kwantowania.
Figura 14 pokazuje, że wytwarzane są stosunki sygnału do maski SMR dla każdej kolejnej ramki, ogólnie przez obliczenie fft, korzystnie o długości 1024, próbek akustycznych z modulacją kodowo-impulsową w celu wytwarzania sekwencji współczynników częstotliwości 142, zwinięcie współczynników z tonem zależnym od częstotliwości i psychoakustycznymi maskami 144 szumu dla każdego podpasma, uśrednienie uzyskanych współczynników w każdym podpasmie dla wytwarzania poziomów SMR i opcjonalnie normalizowanie SMR zgodnie z odpowiedzią słyszalności 146 przez człowieka, pokazana na fig. 15.
Czułość ucha ludzkiego jest maksymalna przy częstotliwościach bliskich 4 kHz i spada, gdy częstotliwość jest zwiększana lub zmniejszana. Zatem w celu odbioru na tym samym poziomie, sygnał 20 kHz musi być znacznie silniejszy niż sygnał 4 kHz. Tak więc zwykle SMR-y przy częstotliwościach bliskich 4 kHz są stosunkowo bardziej ważne niż przy częstotliwościach zewnętrznych. Jednak dokładny kształt krzywej zależy od średniej mocy sygnału dostarczanego do słuchacza. Wówczas gdy natężenie dźwięku wzrasta, odpowiedź słyszalności 146 podlega kompresji. Wobec tego system optymalizowany dla określonego natężenia dźwięku będzie podoptymalny przy innych natężeniach dźwięku. W wyniku tego albo jest wybierany nominalny poziom mocy dla normalizacji poziomów stosunków sygnału do maski SMR albo normalizacja jest uniemożliwiona.
183 498
Figura 16 pokazuje wynikowe stosunki sygnału do maski SMR 148 dla 32 podpasm
Procedura przydziału bitów polega na tym, że system zarządzania 30 najpierw wybiera właściwą strategię kodowania, której podpasma są kodowane z algorytmami kwantowania wektorowego i z modulacją ADPCM i czy JFC będzie włączane. Następnie system zarządzania 30 wybiera rozwiązanie przydziału bitów albo psychoakustyczne albo MMSE. Dla przykładu, przy dużych szybkościach transmisji bitów system może wyłączać modelowanie psychoakustyczne i stosować prawdziwy schemat przydziału mmse. To powoduje zmniejszenie złożoności obliczeniowej bez jakiejkolwiek wyczuwanej zmiany odtwarzanego sygnału akustycznego. Odwrotnie, przy małych szybkościach system może aktywować omawiany powyżej schemat kodowania łącznej częstotliwości dla poprawy dokładności odtwarzania przy mniej szych częstotliwościach. System zarządzania 30 przełącza się pomiędzy normalnym przydziałem psychoakustycznym i przydziałem mmse w oparciu o zawartość przejściową sygnału na podstawie kolejnych ramek Wówczas gdy zawartość przejściowąjestduża, założenie stacjonarności, które jest stosowane do obliczania SMR, me jest już prawdziwe, a więc schemat mmse zapewnia lepsze osiągnięcia
Przy przydziale psychoakustycznym, system zarządzania 30 najpierw przydzielą dostępne bity w celu realizacji zjawisk psychoakustycznych i następnie przydziela pozostałe bity niższemu poziomowi szumu całkowitego. Pierwszym etapem jest określanie SMR dla każdego podpasma dla bieżącej ramki, jak to opisano powyżej. Następnym etapem jest regulacja SMR dla wzmocnienia prognozowania wzmocnienie w poszczególnych podpasmach w celu wytwarzania stosunków maska do szumu MNR. Zasadąjest to, że koder z modulacją ADPCM będzie dostarczać część wymaganego SMR. W wyniku tego niesłyszalne poziomy szumu psychoakustycznego mogą być uzyskiwane przy mniejszej ilości bitów.
MNR dla j-tego podpasma, zakładając PMODE = 1, jest dane przez:
MNR (j) = SMR (j) - Pwzmocmeme (j) *PEF(ABIT) gdzie PEF(ABIT) jest współczynnikiem wydajności prognozowania urządzenia kwantującego. W celu obliczenia MNR(j), projektant musi mieć ocenę przydziału bitów (ABIT), która może być wytworzona albo przez przydzielenie bitów wyłącznie w oparciu o SMR(j) albo przez założenie, ze PEF(ABIT) = 1 Przy średnich do dużych szybkościach transmisji bitów, skuteczne wzmocnienie prognozowania jest w przybliżeniu równe obliczonemu wzmocnieniu prognozowania. Jednak przy małych szybkościach transmisji bitów, skuteczne wzmocnienie prognozowania jest zmniejszone Skuteczne wzmocnienie prognozowania, które jest uzyskiwane przy zastosowaniu na przykład 5-poziomowego urządzenia kwantującego, wynosi w przybliżeniu 0,7 ocenianego wzmocnienia prognozowania, podczas gdy 65-poziomowe urządzenie kwantujące umożliwia uzyskanie skutecznego wzmocnienia prognozowania w przybliżeniu równego ocenianemu wzmocnieniu prognozowania, PEF = 1,0. Przy wartości granicznej, gdy szybkość transmisji bitów wynosi zero, kodowanie z prognozowaniem jest zasadniczo uniemożliwione i skuteczne wzmocnienie prognozowania wynosi zero.
W następnym etapie system zarządzania 30 wytwarza schemat przydziału bitów, który realizuje MNR dla każdego podpasma. To jest dokonywane przy zastosowaniu przybliżenia, że 1 bit jest równy 6 dB zakłócenia sygnału. Dla zapewnienia tego, ze zakłócenie kodowania jest mniejsze niż słyszalny psychoakustycznie poziom progowy, przypisana szybkość transmisji bitów jest największą liczbą całkowitą MNR podzielonego przez 6 dB, co jest dane przez.
ABIT(j) = j]
Figura 17 pokazuje sygnał 157, przy czym przez przydział bitów poziom szumu 156wodtwarzanym sygnale ma tendencję do nadążania za samym sygnałem 157. Zatem przy częstotliwościach, przy których sygnał jest bardzo silny, poziom szumu będzie stosunkowo duży, lecz pozostanie niesłyszalny. Przy częstotliwościach, przy których sygnał jest stosunkowo słaby, poziom szumu będzie bardzo mały i niesłyszalny. Średni błąd związany z tego typu modelowaniem psychoakustycznym będzie zawsze większy niż poziom szumu mmse 158, lecz stopień słyszalności może być lepszy, szczególnie przy małych szybkościach transmisji bitów·.
183 498
W przypadku, w którym suma przydzielonych bitów dla każdego podpasma we wszystkich kanałach akustycznych jest większa lub mniejsza niż docelowa szybkość transmisji bitów, procedura zarządzania będzie iteracyjnie zmniejszać lub zwiększać przydział bitów dla poszczególnych podpasm. Odmiennie, docelowa szybkość transmisji bitów może być obliczona dla każdego kanału akustycznego. To jest podoptymalne, lecz prostsze, szczególnie w realizacji sprzętowej. Dla przykładu, dostępne bity mogą być rozłożone jednorodnie na kanały akustyczne lub mogą być rozdzielone proporcjonalnie do średniej SMR lub RMS każdego kanału.
W przypadku, w którym docelowa szybkość transmisji bitów jest przekroczona o sumę przydziałów bitów lokalnych, obejmujących bity kodu kwantowania wektorowego i informację wstęgi bocznej, procedura zarządzania bitami globalnymi będzie powodować stopniowe zmniejszanie przydziałów lokalnych bitów podpasma. Dostępna jest pewna liczba specyficznych technik zmniejszających średnią szybkość transmisji bitów'. Po pierwsze, szybkości transmisji bitów', które były zaokrąglone w górę przez funkcję największej liczby całkowitej, mogąbyć zaokrąglone w dół. Następnie jeden bit może być odprowadzony z podpasm mających najmniejsze MNR. Ponadto podpasma największej częstotliwości mogą być wyłączone lub może być uniemożliwione kodowanie łączne częstotliwościowo. Wszystkie strategie zmniejszania szybkości transmisji bitów nadążają za ogólną zasadą stopniowego zmniejszania rozdzielczości kodowania w sposób płynny, przy wyczuwalnie najmniej ofensywnej strategii Wprowadzanej najpierw i najbardziej ofensywnej strategu stosowanej ostatnio.
W przypadku, gdy docelowa szybkość transmisji bitów jest większa niż suma przydziałów bitów lokalnych, obejmujących bity kodu kwantowania wektorowego i informację wstęgi bocznej, procedura zarządzania bitami globalnymi będzie zwiększać postępowo i iteracyjnie przydziały bitów pasma lokalnego w celu zmniejszenia poziomu szumu całkowitego odtwarzanego sygnału. To może powodować kodowanie podpasm, którym poprzednio zostały przydzielone bity zerowe. Koszty ogólne transmisji bitów w podpasmach włączania mogą w ten sposób potrzebować odzwierciedlać koszt transmisji dowolnych współczynników prognozowania, jeżeli jest umożliwiony PMODE.
Procedura zarządzania zapewnia wybór spośród jednego z trzech różnych schematów przydzielania pozostałych bitów. Jedną opcjąjest zastosowanie rozwiązania mmse, które ponownie przydziela wszystkie bity, tak że uzyskany poziom szumu jest w przybliżeniu płaski To jest równoważne uniemożliwieniu początkowego modelowania psychoakustycznego.
Figura 18a pokazuje wykres 160 wartości RMS podpasm, który jest odwracany góra do dołu, w celu uzyskania poziomu szumu mmse, jak to pokazano na fig. 18b i jest stosowana technika “napełniania wodą”, aż zostaną wyczerpane wszystkie bity. Ta technika jest nazywana napełnianiem wodą, ponieważ poziom zakłócenia spadajednorodnie, gdy liczba przydzielonych bitów wzrasta. W pokazanym przykładzie pierwszy bitjest przypisany podpasmu 1, drugi i trzeci bity sąprzypisane podpasmom 1 i 2, czwarty do siódmego bity sąprzypisane podpasmom 1, 2, 4 17 i tak dalej. Odmiennie jeden bitjest przypisany każdemu podpasmu dla zapewnienia, że każde podpasmo będzie kodowane i następnie pozostałe napełnione wodą.
Drugą, korzystną opcjąjest przydzielenie pozostałych bitów zgodnie z rozwiązaniem mmse i wykresem RMS opisanymi powyżej. Skutkiem tej metody jest jednorodne obniżenie poziomu szumu 157 pokazanego na fig. 17, przy pozostawieniu kształtu związanego z maskowaniem psychoakustycznym. To zapewnia dobry kompromis pomiędzy zakłóceniem psychoakustycznym i mse
Trzecimi rozwiązaniem jest przydzielenie pozostałych bitów przy zastosowaniu rozwiązania mmse, jak zastosowane do wykresu różnicy pomiędzy wartościami RMS i MNR dla podpasm. Skutkiem tego rozwiązania jest łagodne przejście kształtu poziomu szumu od optymalnego kształtu psychoakustycznego 157 do optymalnego płaskiego kształtu mmse 158, gdy szybkość transmisji bitów wzrasta. W dowolnym z tych schematów, jeżeli błąd kodowania w dowolnym podpasmie spada poniżej 0,5 bitu mniej znaczącego, względem źródła z modulacją kodowo-impulsową, wówczas więcej bitów nie jest przydzielanych temu podpasmu. Opcjonalnie mogąbyć zastosowane stałe wartości maksymalne przydziałów bitów podpasma do ograniczania maksymalnej liczby bitów przydzielanych poszczególnym podpasmom.
183 498
W systemie kodowania omawianym powyżej założyliśmy, że średnia szybkość transmisji bitów na próbkę jest stała i wytworzyliśmy przydział bitów dla maksymalizacji dokładności odtwarzanego sygnału akustycznego. Odmiennie, poziom zakłócenia, mse lub percepcyjny, może być ustalony i dopuszczona zmiana szybkości transmisji bitów dla uzyskania zadawalającego poziomu zakłócenia. W rozwiązaniu mmse wykres RMS jest po prostu napełniany wodą, aż do uzyskania zadawalającego poziomu zakłócenia. Wymagana szybkość transmisji bitów zmieni się w oparciu o poziomy RMS podpasm. W rozwiązaniu psychoakustycznym bity są przydzielane dla uzyskania zadawalających MNR. W wyniku tego szybkość transmisji bitów zmieni się w oparciu o poszczególne SMR i wzmocnienia prognozowania. Ten typ przydziału nie jest obecnie użyteczny, ponieważ współczesne dekodery działają ze stałą szybkością. Jednak odmienne systemy dostarczania danych, takie jak ATM lub nośniki danych o dostępie bezpośrednim, mogą uczynić kodowanie o zmiennej szybkości praktycznym w bliskiej przyszłości.
Kwantowanie indeksów przydziału bitów ABIT polega na tym, że indeksy przydziału bitów ABIT są wytwarzane dla każdego podpasma i każdego kanału akustycznego w adaptacyjnej procedurze przydziału bitów w procesie zarządzania bitami globalnymi. Celem indeksów w koderze jest wskazanie liczby poziomów 162 pokazanych na fig. 10, które są potrzebne do kwantowania sygnału różnicowego w celu uzyskania subiektywnie optymalnego poziomu szumu odtwarzania w sygnale akustycznym dekodera. W dekoderze wskazują one liczbę poziomów potrzebną do kwantowania odwrotnego. Indeksy są wytwarzane dla każdego bufora analizującego i ich wartości mogą być w zakresie od 0 do 27. Związek pomiędzy wartością indeksu, liczbąpoziomów urządzenia kwantującego i przybliżonym, uzyskanym podpasmem różnicowym SNqR jest pokazany w tablicy 3. Ze względu na to, że sygnał różnicowy jest normalizowany, wielkość stopniowa 164 jest nastawiana na równą jedności.
Tabela 3
Indeks ABIT # z poziomów Q Długość kodu (bity) SNQR(dB)
1 2 3 4
0 0 0 -
1 3 zmienna 8
2 5 zmienna 12
3 7 (lub 8) zmienna (lub 3) 16
4 9 zmienna 19
5 13 zmienna 21
6 17 (lub 16) zmienna (lub 4) 24
7 25 zmienna 27
8 33 (lub 32) zmienna (lub 5) 30
9 65 (lub 64) zmienna (lub 6) 36
10 129 (lub 128) zmienna (lub 7) 42
11 256 8 48
12 512 9 54
13 1024 10 60
14 2048 11 66
15 4096 12 72
16 8192 13 78
183 498
c.d tabeli 3
1 2 3 4
17 16384 14 84
18 32768 15 90
19 65536 16 96
20 131072 17 102
21 262144 18 108
22 524268 19 114
23 1048576 20 120
24 2097152 21 126
25 4194304 22 132
26 8388608 23 138
27 16777216 24 144
indeksy przydziału bitów ABIT są albo transmitowane do dekodera bezpośrednio, stosując 4-bitowe słowa kodu liczb całkowitych bez znaku, 5-bitowe słowa kodu liczb całkowitych bez znaku lub stosując 12-poziomową tablicę entropii. Zwykłe kodowanie entropii byłoby wykorzystywane dla programów użyytkowyc.h o małej szybkości transmisji bitów w celu utrzymania bitów Sposób kodowania ABIT jest nastawiany przez sterowanie trybem pracy w koderze i jest przekazywany do dekodera Koder entropii odwzorowuje 166 indeksy ABIT w o kieślonej książce kodów zidentyfikowanej przez indeks BHUFF i specyficzny kod VAB1T w książce kodów, stosując proces pokazany na fig. 12 przez 12-poziomowe tablice AB1T
Przy sterowaniu szybkością transmisji bitów globalnych, ze względu na to, ze zarówno informacja wstęgi bocznej, jak i próbki podpasma różnicowego mogą być opcjonalnie kodowane przy zastosowaniu książek kodów o zmiennej długości entropii, należy zastosować pewien mechanizm regulacji wynikowej szybkości transmisji bitów kodera, gdy skompresowany strumień bitów ma być transmitowany ze stałą szybkością. Ze względu na to, że nie jest normalnie pożądane modyfikowanie informacji wstęgi bocznej po obliczeniu, regulacje szybkości transmisji bitów są najlepiej osiągane przez iterącyjną zmianę procesu kwantowania próbek podpasma różnicowego w koderze z modulacją ADPCM, aż zostanie osiągnięte ograniczenie szybkości.
W opisanym systemie, system sterowania 178 szybkością całkowitą na fig. 10 reguluje szybkość transmisji bitów, która wynika z procesu odwzorowania kodów poziomu urządzenia kwantującego w tablicy entropii, przez zmianę rozkładu statystycznego wartości kodu poziomów Zakłada się, że wszystkie tablice entropii mają podobną tendencję do większych długości kodów dla większych wartości kodu poziomów. W tym przypadku średnia szybkość transmisji bitów jest zmniejszona, gdy prawdopodobieństwo poziomów kodu o małych wartościach wzrasta i odwrotnie W procesie kwantowania z modulacją ADPCM lub APCM, wielkość współczynnika skalowania określa rozkład lub użycie wartości kodu poziomów. Dla przykładu, gdy wielkość współczynnika skalowania wzrasta, próbki różnicowe będą dążyły do podlegania kwantowaniu przez mniejsze poziomy i dlatego wartości kodu staną się stopniowo mniejsze To z kolei będzie powodować mniejsze długości słowa kodu i mniejsze szybkości transmisji bitów
Przez zwiększenie wielkości współczynnika skalowania, szum odtwarzania w próbkach podpasma jest także zwiększany w tym samym stopniu. Jednak w praktyce regulacja współczynników skalowania normalnie nie jest większa niż 1 dB do 3 dB. Jeżeli jest wymagana większa regulacja, byłoby lepiej powrócić do rozdziału bitów i zmniejszenia całkowitego rozdziału bitów zamiast ryzyka możliwości słyszalnego szumu kwantowania występującego w podpasmach, które stosowałyby nieścisły współczynnik skalowania.
183 498
W celu regulacji rozdziału bitów z modulacją ADPCM kodowanego entropią, próbki historii prognozowania dla każdego podpasma są pamiętane w buforze tymczasowym w przypadku, gdy cykl kodowania z modulacja ADPCM jest powtarzany Następnie bufory próbkowania podpasma są wszystkie kodowane w pełnym procesie z modulacja ADPCM, przy zastosowaniu współczynników prognozowania Ah otrzymywanych z analizy LPC podpasma wraz ze współczynnikami skalowania RMS lub PEAK, przydziałami bitów ABIT urządzenia kwantującego, stanami przejściowymi TMODE i stanami prognozowania PMODE, uzyskiwanymi z ocenianego sygnału różnicowego. Wynikowe kody poziomów urządzenia kwantującego sąbuforowane i odwzorowywane do książki kodów z entropią o zmiennej długości, która wykazuje najmniejsze użycie bitów··, stosując ponownie indeks przydziału bitów do określania wielkości książki kodów
System sterowania 178 analizuje następnie liczbę bitów stosowanych dla każdego podpasma, stosując ten sam indeks przydziału bitów we wszystkich indeksach. Dla przykładu, gdy ABIT=1, obliczanie przydziału bitów w zarządzaniu bitami globalnymi mogłoby mieć założoną średnia szybkość 1,4 na próbkę podpasma (to jest średnia szybkość dla książki kodów entropii zakłada optymalny rozkład amplitudy kodów poziomów). Jeżeli użycie bitów całkowitych wszystkich podpasm, dla których ABIT=1, jest większe niż 1,4/(całkowita liczba próbek podpasma), wtedy współczynniki skalowania mogłyby być zwiększone we wszystkich tych podpasmach dla spowodowania zmniejszenia szybkości transmisji bitów. Decyzja regulacji współczynników skalowania podpasma jest korzystnie pozostawiona, aż wszystkie szybkości indeksu ABIT zostaną udostępnione. W wyniku tego indeksy przy szybkościach transmisji bitów mniejszych niż założone w procesie przydziału bitów, mogą kompensować występujące przy szybkościach transmisji bitów powyżej tego poziomu. Ta ocena może być także rozciągnięta na pokrycie wszystkich kanałów akustycznych, jeżeli jest to właściwe.
Zalecana procedura zmniejszania całkowitej szybkości transmisji bitów ma być rozpoczynana przy najmniejszej szybkości transmisji bitów indeksu ABIT, która przekracza poziom progowy i zwiększać współczynniki skalowania w każdym z podpasm, które mają ten przydział bitów·'. Rzeczywiste użycie bitów jest zmniejszone o liczbę bitów, którymi te pasma były pierwotnie przy nominalnej szybkości dla tego przydziału. Jeżeli modyfikowane użycie bitów jest nadal w nadmiarze względem maksymalnego dopuszczonego, wtedy współczynniki skalowania podpasma dla następnego największego indeksu ABIT, dla którego użycie bitów przekracza nominalne, sązwiększone Ten proces jest kontynuowany, aż modyfikowane użycie bitów jest poniżej maksymalnego.
Po osiągnięciu tego, dane starej historii są wprowadzane do urządzeń prognozujących i proces kodowania z modulacją ADPCM 72 jest powtarzany dla tych podpasm, które majązmodyfikowane współczynniki skalowania. Po tym kody poziomów są ponownie odwzorowywane do najbardziej optymalnych książek kodów entropii i użycie bitów jest ponownie obliczane. Jeżeli dowolne użycie bitów nadal przekraczało nominalne szybkości, wówczas współczynniki skalowania są dalej zwiększane i cykl jest powtarzany.
Modyfikacja współczynników skalowania może być dokonana na dwa sposoby. Pierwszym jest transmisja do dekodera współczynnika regulacji dla każdego indeksu ABIT. Dla przykładu słowo 2-bitowe mogłoby sygnalizować zakres regulacji powiedzmy 0, 12 i 3 dB Ponieważ ten sam współczynnik regulacji jest stosowany dla wszystkich podpasm, które stosująindeks ABIT i tylko indeksy 1-10 mogą stosować kodowanie entropii, maksymalna liczba współczynników regulacji, która musi być transmitowana dla wszystkich podpasm, wynosi 10. Alternatywnie, współczynnik skalowania może być zmieniany w każdym podpasmie przez wybór wysokiego poziomu kwantowania. Jednak ponieważ urządzenia kwantujące współczynniki skalowania mają wielkości stopniowe odpowiednio 1,25 12/5 dB, regulacja współczynnika skalowania jest ograniczona do tych etapów. Ponadto przy zastosowaniu tej techniki, kodowanie różnicowe współczynników skalowania i wynikowe użycie bitów może wymagać ponownego obliczenia, jeżeli kodowanie entropii jest umożliwione.
Ta sama procedura może być zastosowana także do zwiększania szybkości transmisji bitów, to jest gdy szybkość transmisji bitów jest mniejsza niż wymagana szybkość transmisji bitów.
183 498
W tym przypadku współczynniki skalowania byłyby zmniejszone dla spowodowania, żeby próbki różnicowe zrobiły większy użytek z zewnętrznych poziomów urządzenia kwantującego, a więc użycia dłuższych słów kodu w tablicy entropii.
Jeżeli użycie bitów dla indeksów przydziału bitów nie może być zmniejszone w zakresie dopuszczalnej liczby iteracji lub w przypadku, gdy są transmitowane współczynniki regulacji współczynnika skalowania, liczba etapów regulacji osiąga wartość graniczną, wtedy sąmożliwe dwie naprawy. Po pierwsze, współczynniki skalowania podpasm, które są w zakresie szybkości nominalnej, mogą być zwiększone, skutkiem czego zmniejsza się całkowita szybkość transmisji bitów. Alternatywnie, cały proces kodowania z modulacją ADPCM może być przerwany i adaptacyjne przydziały bitów w podpasmach ponownie obliczone, tym razem stosując mniej bitów-·.
Multiplekser 32 pokazany na fig 10 upakowuje dane dla każdego kanału i następnie multipleksuje upakowane dane dla każdego kanału w ramkę wyjściową w celu utworzenia strumienia danych 16.
Figura 19 pokazuje metodę upakowywania i multipleksowania danych, to jest formatu ramki 186 wyznaczonej tak, że koder akustyczny jest stosowany w szerokim zakresie programów użytkowych i rozszerzany do wyższych częstotliwości próbkowania, a liczba danych w każdej ramce jest ograniczana, odtwarzanie może być początkowano w każdej pod-podramce niezależnie dla zmniejszenia czasu oczekiwania i błędy dekodowania są zmniejszane.
Pojedyncza ramka 186,4096 próbek z modulacJąkodowo-impulsową/kanał określa granice strumienia bitów, w których wystarczająca informacja służy do właściwego dekodowania bloku akustycznego i składa się z 4 podramek 188,1024 próbek z moduli^iyiąkodowo-impulsową/kanał, które z kolei sąwykonane każda z 4 pod-podramek 190,256 próbek z modulacJąkodowo-impulsową/kanał. Słowo synchronizacji 192 ramki jest umieszczone na początku każdej ramki akustycznej. Informacja 194 nagłówka ramki daje przede wszystkim informację dotyczącą konstrukcji ramki 186, konfiguracji kodera, który wytworzył strumień i różnych opcjonalnych cech operacyjnych, takich jak wprowadzone sterowanie zakresem dynamicznym i kod czasowy. Opcjonalna informacja 196 nagłówka mówi dekoderowi, czy jest wymagane mieszanie do dołu, czy została zrealizowana kompensacja zakresu dynamicznego i czy pomocnicze bajty danych są wprowadzone do strumienia danych. Nagłówki 198 kodowania akustycznego wskazująuporządkowanie upakowania i formaty kodowania stosowane w koderze dla asemblowania informacji wstęgi bocznej kodowania, to jest przydziału bitów, współczynników skalowania, PMODE, TMODE, książek kodów itd. Pozostała część ramki jest wykonana z kolejnych podramek akustycznych SUBF 188
Układ akustyczny 206jest dekodowany przy zastosowaniu urządzenia kwantującego Huffmana, stałego odwrotnego i jest dzielony na pewną liczbę pod-podramek SSC, każdą dekodującą do 256 próbek z modulacją kodowo-impulsową na kanał akustyczny. Nadmiernie próbkowany układ akustyczny 208 występuje tylko, gdy częstotliwość próbkowaniajest większa niż 48 kHz. Aby pozostać zgodnymi, dekodery, które nie mogą działać z szybkościami próbkowania powyżej 48 kHz, powinny przeskakiwać ten układ danych akustycznych. DSYNC 210 jest stosowane do sprawdzania końca położenia podramki w ramce akustycznej. Jeżeli położenie nie sprawdza się, sygnał akustyczny dekodowany w podramce jest określany jako niepewny. W wyniku tego, albo ta ramka jest blokowana szumowo albo poprzednia ramka jest powtarzana.
Figura 20 przedstawia schemat blokowy dekodera 18 próbkowania podpasma Dekoder jest całkiem prosty w porównaniu z koderem i nie przeprowadza obliczeń, które maja podstawowe znaczenie dla jakości odtwarzanego sygnału akustycznego, takiego jak przydziały bitów Po synchronizacji układ rozpakowania 40 rozpakowuje skompresowany strumień danych akustycznych 16, wykrywa i w razie potrzeby koryguje błędy powodowane transmisją oraz demultipleksuje dane do poszczególnych kanałów akustycznych. Sygnały różnicowe podpasma sąponownie kwantowane do sygnałów z modulacją kodowo-impulsową i każdy kanał akustyczny jest filtrowany odwrotnie dla przemiany sygnału z powrotem do strefy czasu.
W przypadku ramki akustycznej odbioru i nagłówków rozpakowania, strumień danych kodowanych jest pakowany lub ramkowany w koderze i zawiera w każdej ramce dane dodatkowe
183 498 do synchronizacji dekodera, detekcji błędu i korekcji, kodowania akustycznego znaczników stanu i kodowania informacji wstęgi bocznej, poza samymi rzeczywistymi kodami akustycznymi. Układ rozpakowania 40 wykrywa słowo SYNC i wydziela wielkość ramki FSIZE. Strumień bitów kodowanych składa się z kolejnych ramek akustycznych, z których każda rozpoczyna się 32-bitowym 0x7ffe8001 słowem synchronizacji SYNC. Wielkość fizyczna ramki akustycznej FSIZE jest wydzielana z bajtów następujących po słowie synchronizacji. To umożliwia programatorowi nastawienie zegara wielkości zasobów komputera. Następnie jest wydzielane NBIks, co umożliwia dekoderowi obliczenie wielkości okna akustycznego 32(Nblks+l). To mówi dekoderowi, którą informację wstęgi bocznej wydzielać i jak dużo wytwarzać odtworzonych próbek.
Zaraz po otrzymaniu bajtów nagłówka ramki: sync, ftype, surp, nbiks, fsize, amode, sfreq, ratę, mixt, dynf, dynct, time, auxcnt, Iff, hflag, ważność pierwszych 12 bajtów można sprawdzić przy zastosowaniu bajtów kontrolnych Reeda Solomona, HCRC Skorygują one 1 błędny bajt spośród 14 bajtów lub 2 błędnych bajtów znacznika. Po zakończeniu kontroli błędu, informacja nagłówka jest stosowana do aktualizacji znaczników dekodera.
Nagłówki: filts, vernum, chist, pcmr, unspec po HCRC i do informacji opcjonalnej mogą być wydzielone i zastosowane do aktualizacji znaczników dekodera. Ponieważ ta informacja nie zmienia się dla różnych ramek, większość schematu głosowania może być stosowana do kompensacji błędów bitów. Opcjonalne dane nagłówka: times, mcoeff, dcoeff, auxd, ocrc są wydzielane zgodnie z nagłówkami mixct, dynf, time i auxcnt. Dane opcjonalne mogą być sprawdzane przy zastosowaniu opcjonalnych bajtów kontroli Reeda Solomona OCRC.
Nagłówki ramek kodowania akustycznego: subfs, subs, chs, vqsub, joinx, thuff, shuff, bhuff, se15, se17, se19, se112, se113, sel17, se125, se133, se165, se1129, ahcrc są transmitowane jeden raz w każdej ramce Mogą być sprawdzone przy zastosowaniu bajtów kontrolnych akustycznych Reeda Solomona AHCRC. Większość nagłówków jest powtarzanych dla każdego kanału akustycznego, jak określony przez CHS.
W przypadku informacji wstęgi bocznej kodowania podramki rozpakowania, ramka kodowania akustycznego jest podzielona na pewną liczbę podramek SUBFS. Cała potrzebna informacja wstęgi bocznej pmode, pvq, tmode, scales, abits, hfreq jest wprowadzona dla właściwego dekodowania każdej podramki akustycznej bez odniesienia do dowolnej innej podramki. Każda kolejna podramkajest dekodowana przez pierwsze rozpakowanie jej informacji wstęgi bocznej
1-bitowy znacznik stanu prognozowania PMODE jest transmitowany do każdego podpasma aktywnego i w całym kanale akustycznym. Znaczniki stanu PMODE są ważne dla bieżącej podramki. PMODE=0 powoduje, że współczynniki prognozowania nie są wprowadzone do ramki akustycznej dla tego podpasma. W tym przypadku współczynniki prognozowania w tym paśmie są przestawiane na zero przez czas trwania podramki. PMODE=1 powoduje, że informacja wstęgi bocznej zawiera współczynniki prognozowania dla tego podpasma. W tym przypadku współczynniki prognozowania są wydzielane i instalowane w urządzeniu prognozującym przez czas trwania podramki.
Dla każdego PMODE=1 w układzie pmode, odpowiedni indeks adresu kwantowania wektorowego współczynnika prognozowaniajest usytuowany w układzie PVQ. Indeksy są stałymi, 12-bitowymi słowami liczb całkowitych bez znaku i 4 współczynniki prognozowania są wydzielane z tablicy przeglądowej przez odwzorowanie 12-bitowej liczby całkowitej w tablicę 266 wektorów.
Indeksy przydziału bitów ABIT wskazują liczbę poziomów w odwrotnym urządzeniu kwantującym, które przetworzy kody akustyczne podpasma z powrotem w wartości bezwzględne. Format rozpakowania różni się dla ABIT w każdym kanale akustycznym, w zależności od indeksu BHUFF i specyficznego kodu VABIT 256.
Informacja wstęgi bocznej TMODE 238 stanu przejściowego jest stosowana do wskazania położenia stanów przejściowych w każdym podpasmie względem podramki. Każda podramka jest dzielona na 1 do 4 pod-podramki. W terminach próbek podpasma każda pod-podramka składa się z 8 próbek. Maksymalna wielkość podramki wynosi 32 próbek podpasma. Jeżeli stan przejściowy występuje w pierwszej pod-podramce, wówczas tmode=0. Stan przejściowy w drugiej pod-podramce jest wskazany, gdy tmode=1 i tak dalej. W celu sterowania zakłóceniem
183 498 przejściowym, takim jak echo wstępne, dwa współczynniki skalowania są transmitowane dla podpasm podramki, gdzie TMODE jest większe niż 0. Indeksy THUFF, wydzielane z nagłówków akustycznych, określają metodę wymaganą do dekodowania TMODE. Wówczas, gdy THUFF=3, TMODE są rozpakowywane jako 2-bitowe liczby całkowite bez znaku.
Indeksy współczynników skalowania sątransmitowane dla umożliwienia właściwego skalowania kodów akustycznych podpasma w każdej podramce. Jeżeli TMODE jest równe zeru, wówczas transmitowany jest jeden współczynnik skalowania. Jeżeli TMODE jest większe niż zero dla dowolnego podpasma, wówczas transmitowane są razem dwa współczynniki skalowania. Indeksy SHUFF 240, wydzielane z nagłówków akustycznych, określają metodę wymaganą do dekodowania SCALES dla każdego oddzielnego kanału akustycznego. Indeksy vDrMSql określają wartość współczynnika skalowania RMS.
W pewnych stanach indeksy SCALES sąrozpakowywane przy zastosowaniu wyboru pięciu 129-poziomowych, oznaczonych, odwrotnych urządzeń kwantujących Huffmana. Wynikowe, odwrotne, kwantowane indeksy są jednak kodowane różnicowo i są przetwarzane w bezwzględne jak następuje
ABS_SĆALE(n+1)=SĆALES(n)-SĆALES(n+1)/ gdzie n jest n-tym współczynnikiem skalowania różnicowego w kanale akustycznym, rozpoczynając od pierwszego podpasma
Przy stanach kodowania akustycznego o małej szybkości transmisji bitów, koder akustyczny stosuje kwantowanie wektorowe dla skutecznego kodowania bezpośrednio próbek akustycznych podpasma wielkiej częstotliwości. Nie jest stosowane żadne kodowanie różnicowe w tych podpasmach i wszystkie układy dotyczące normalnych procesów z modulacją ADPCM muszą być utrzymywane w stanie przestawienia. Pierwsze podpasmo, które jest kodowane przy zastosowaniu kwantowania wektorowego, jest wskazane przez VQSUB i wszystkie podpasma do SUBS są również kodowane w ten sposób.
Indeksy wielkiej częstotliwości HFREQ sąrozpakowywane 248 jako stałe, 10-bitowe liczby całkowite bez znaku. 32 próbki wymagane dla każdej podramki podpasma są wydzielane z ułamkowego dziesiętnego LUT Q4 przez dostarczenie właściwych indeksów·'. To jest powtarzane dla każdego kanału, w którym stan kwantowania wektorowego wielkiej częstotliwości jest aktywny.
Współczynnik działania dziesiętnego dla kanału efektów jest zawsze X128. Liczba 8-bitowych próbek efektów, występujących w LFE, jest dana przez SSC*2, gdy PSC=0 lub (SSC+1)*2, gdy PSC me jest zero. Dodatkowy, 7-bitowy współczynnik skalowania liczby całkowitej bez znaku, jest także wprowadzony na końcu układu LFE i to jest przetwarzane do rms przy zastosowaniu 7-bitowego LUT.
Przy rozpakowywaniu układu kodów akustycznych pod-podramki, proces wydzielania dla kodów akustycznych podpasmajest zasilany przez indeksy ABIT i w przypadku, gdy ABIT<11, indeksy SEL także. Kody akustyczne są formatowane albo przy użyciu kodów Huffmana o zmiennej długości lub stałych kodów liniowych. Ogólnie indeksy ABIT spośród 10 lub mniej będą dawały kody Huffmana o zmiennej długości, które są wybrane przez kody VQL(n) 258, podczas gdy ABIT powyżej 10 zawsze znaczą kody stałe. Wszystkie urządzenia kwantujące mająjednorodną charakterystykę środkową. Dla urządzeń kwantujących o stałym kodzie Y2-nąjbardziej ujemny poziomjest obniżony/. Kody akustyczne są upakowywane w pod-podramki, z których każda reprezentuje maksymalnie 8-podpasmowe próbki i te pod-podramki są powtarzane do czterech razy w bieżącej podramce.
Jeżeli znacznik szybkości próbkowania SFREQ wskazuje szybkość większą niż 48 kHz, wówczas układ danych over_audio będzie występował w ramce akustycznej. Dwa pierwsze bajty w tym układzie będą wskazywać wielkość bajtu over_audio. Ponadto szybkość próbkowania urządzenia dekoderowego powinna być nastawiona na działanie przy SFREQ/2 lub SFREQ/4, zależnie od szybkości próbkowania o wielkiej częstotliwości.
Przy kontroli synchronizacji rozpakowania, słowo kontroli synchronizacji rozpakowania danych DSYN C=0xfff jest wykrywane na końcu każdej podramki dla umożliwienia kontroli całości rozpakowania. Zastosowanie zmiennych słów kodu w informacji wstęgi bocznej i kodów
183 498 akustycznych, jak w przypadku małych szybkości bitów akustycznych, może prowadzić do złego rozmieszczenia rozpakowania, jeżeli zarówno nagłówki, informacja wstęgi bocznej, jak i układy akustyczne zostały uszkodzone przez błędy bitów. Jeżeli wskaźnik rozpakowania nie wskazuje początku DSYN, wówczas można założyć, że poprzedni sygnał akustyczny podramki jest niepewny
Po rozpakowaniu całej informacji wstęgi bocznej i danych akustycznych, dekoder odtwarza wielokanałowy sygnał akustyczny jedna podramka w danym czasie fig. 20 przedstawia część dekodera pasma podstawowego dla pojedynczego podpasma w pojedynczym kanale.
Przy odtwarzaniu współczynników skalowania RMS, dekoder odtwarza współczynniki skalowania RMS SCALES dla algorytmów z modulacją ADPCM, VQ i JPC. W szczególności indeksy VTMODE i THUFF są odwzorowywane odwrotnie w celu identyfikacji stanu przejściowego TMODE dla bieżącej podramki. Następnie indeks SHUFF, kody i TMODE są odwzorowywane odwrotnie dla odtwarzania kodu różnicowego RMS. Kod różnicowy RMS jest kodowany odwrotnie różnicowe 242 dla wybrania kodu RMS, któryjest następnie kodowany odwrotnie 244 w celu wytwarzania współczynnika skalowania RMS.
Przy kwantowaniu odwrotnym wektorów wielkiej częstotliwości, dekoder kwantuje odwrotnie wektory wielkiej częstotliwości dla odtwarzania sygnałów akustycznych podpasma W szczególności wydzielane próbki wielkiej częstotliwości HFREQ, które są oznaczoną, 8-bitową, ułamkową liczbą dwójkową Q4, identyfikowane przez początkowe podpasmo kwantowania wektorowego VQSUBS, są odwzorowywane do odwrotnego kwantowanego wektorowo lut 248. Wybrana wartość tablicy jest kwantowana odwrotnie 250 i skalowana 252 przez współczynnik skalowania RMS.
Przy kwantowaniu odwrotnym kodów akustycznych, przed wprowadzeniem do pętli z modulacją ADPCM, kody akustyczne są kwantowane odwrotnie i skalowane dla wytwarzania odtwarzanych próbek różnicowych podpasma. Kwantowanie odwrotne jest osiągane najpierw przez odwrotne odwzorowanie indeksu VABIT i BHUFF dla określenia indeksu ABIT, który określa wielkość stopniową i liczbę poziomów kwantowania, oraz odwzorowanie odwrotne indeksu SEL i kodów akustycznych VQL(n), które wytwarzają kody QL(n) poziomów kwantowania. Następnie słowa kodów QL(n) są odwzorowywane do odwrotnej tablicy przeglądowej 260 urządzenia kwantującego, określonej przez indeksy ABIT i SEL. Chociaż kody są uporządkowane przez ABIT, każdy oddzielny kanał akustyczny będzie miał oddzielny specyfikator SEL Proces przeglądania daje oznaczoną liczbę poziomów kwantowania, która może być przetworzona w jednostkowe rms w wyniku pomnożenia przez wielkość stopniową kwantowania. Wartości jednostkowych rms są następnie przetwarzane w pełne próbki różnicowe w wyniku pomnożenia przez wyznaczony współczynnik skalowania RMS SCALES 262.
1. QL[n] = 1/Q [code[nj], gdzie 1/Q jest odwrotną tablicą przeglądania urządzenia kwantującego
2. Y[n] = QL[n] * Wielkość stopniowa [abits]
3. Rd[n] = Y[n] * scalefactor, gdzie Rd = odtwarzane próbki różnicowe
Przy odwrotnej modulacji ADPCM, proces dekodowania z modulacją ADPCM jest wykonywany dla każdej próbki różnicowej podpąsma jak następuje:
1. Wprowadzanie współczynników prognozowania z odwrotnego kwantowanego wektorowo lut 268.
Wytwarzania paóbki prognozowania pazea splot bleżących współczyninków prognozowania z poprzednimi 4 odtworzonymi próbkami oodoąsmą utrzymywanymi w układzie 268 historii prognozowania.
P[n] = suma (Współ[i]*R[n-i]) dla i = 1, 4 gdzie n = okres bieżącej próbki
3. Dodawania ^0^ ζ^^ιιozawaola wo odłworzopej zróbki ró0glcowej <^łw wytwarzania odtwarzanej próbki 270 oadoosmo.
R[n] = Rd[n] + P[n]
183 498
4. Aktualizacjahiatoan prognorowania, tajest kopii biożącei, żdtwaodanea paóbki póbpąsma, do góry listy historii.
R[n-i] = R[n-i+1] dla I = 4,1
W przypadku, gdy PMODE=0/ współczynniki prognozowania będą zero, próbka prognozowania zero i odtwarzana próbka podpasmajestrówna próbce oodoαsma różnicowego. Chociaż w tym przypadku obliczanie prognozowania jest niepotrzebne, jest istotne, żeby historia prognozowania była utrzymywana aktualizowana w przypadku, gdy PMODE powinno stać się aktywne w przyszłych podramkach. Ponadto, jeżeli HFLAG jest aktywne w bieżącej podramce akustycznej, historia prognozowania powinna być wyjaśniona przed dekodowaniem najpierwszej pod-padramki w ramce. Historia powinna być aktualizowana zwykle od tego wskazania.
W przypadku podpasm z kwantowaniem wektorowo wielkiej częstotliwości lub gdy jest znoszony wybór podpasm, to jest powyżej granicy SUBS, historia prognozowania powinna pozostać wyjaśniona aż do czasu, w którym prognozowanie podpasma staje się aktywne.
Przy sterowaniu wyborem z modulacją ADPCM, V0 i dekodowania JFC, pierwszy przełącznik steruje wyborem wyjścia albo z modulacją ADPCM albo kwantowaniem wektorowym. Indeks VQSUBS identyfikuje początkowe oodpasmo dla kodowania wektorowego. Zatem, jeżeli bieżące padpasmajest mniejsze niż VQSUBS, przełącznik wybiera wyjście z modulacją ADPCM. Inaczej, wybiera on wyjście kwantowania wektorowego. Drugi “przełącznik” 278 steruje wyborem albo bezpośredniego wyjścia kanału albo wyjściem kodowania JFC. Indeks JOINX identyfikuje, które kanały są połączone i w którym kanale jest wytwarzany odtwarzany sygnał. Odtwarzany sygnał JFC tworzy źródło natężenia dla wejść JFC w innych kanałach. Zatem, jeżeli bieżące oadpasmo j est częścią JF C i nie j est wyznaczonym kanałem, wówczas przełącznik wybiera wyjście JFC. Normalnie przełącznik wybiera wyjście kanału.
Przy tworzeniu macierzy do dołu, stan kodowania akustycznego dla strumienia danychjest wskazany przez AMODE. Dekodowane kanały akustyczne mogąbyć następnie ponownie kierowane do dopasowania fizycznego, wyjściowego układu kanałów w układzie dekoderowym 280
Dla danych sterowania zakresem dynamicznym, współczynniki DCOEFF zakresu dynamicznego są opcjonalnie wprowadzone do ramki akustycznej w etapie kodowania 282. Celem tej cechy jest umożliwienie dogodnej kompresji dynamicznego zakresu akustycznego na wyjściu dekodera. Kompresja zakresu dynamicznego jest szczególnie ważna przy słuchaniu w otoczeniu, gdzie wysokie poziomy szumu otaczającego uniemożliwiają odróżnienie sygnałów o niskim poziomie bez niebezpieczeństwa uszkodzenia głośników podczas głośnych przejść. Ten problem jest ponadto złożony w wyniku wzrastającego użycia 20-bitowych zapisów akustycznych z modulacją kodowo-impulsową, które mają zakresy dynamiczne tak wysokie jak 110 dB.
W zależności od wielkości okna ramki NBLKS albo jeden, dwa albo cztery współczynniki są transmitowane na kanał akustyczny dla dowolnego stanu kodowania DYNF. Jeżeli jest transmitowany pojedynczy współczynnik, jest to stosowane do całej ramki Przy dwóch współczynnikach pierwszy jest stosowany do pierwszej połowy ramki i drugi do drugiej połowy ramki. Cztery współczynniki sąTOzłozone w każdej ćwiartce ramki. Większa rozdzielczość w czasie jest możliwa przez interpolację pomiędzy transmitowanymi danymi lokalnie.
Każdy współczynnik jest 8-bitowym, oznaczonym, ułamkowym, dwójkowym Q2 i reprezentuje wartość wzmocnienia logarytmicznego, jak to pokazano w tablicy 53 podającej zakres +/-31,75 dB w etapach 0,25 dB. Współczynniki są uporządkowane przez liczbę kanałów. Na zakres dynamiczny kompresji oddziałuje się przez mnożenie dekodowanych próbek akustycznych przez współczynnik liniowy.
Stopień kompresji można zmieniać przez właściwą regulację wartości współczynników w dekoderze lub wyłączanie całkowite przez ignorowanie współczynników.
32-pasmowy zespół 44 filtrów interpolacji przetwarza 32 padoasma dla każdego kanału akustycznego w pojedynczy sygnał strefy czasu z modulacją kodowo-impulsową. Niedoskonałe współczynniki odtwarzania, 512-zaczepowe filtry FIR, są stosowane, gdy FILTS=0. Doskonałe współczynniki odtwarzania są stosowane, gdy FILTS=1. Normalnie współczynniki modulacji
183 498 cosmus będą obliczane wstępnie i pamiętane w ROM. Procedura interpolacji może być rozszerzona dla odtworzenia większych bloków danych w celu zmniejszenia wymaganych wielkości zasobów pętli. Jednak w przypadku ramek zakończenia minimalna rozdzielczość, którą można uzyskać, wynosi 32 próbki z modulacją kodowo-impulsową. Algorytm interpolacji jest jak następuje· utworzenie współczynników modulacji cosinus, wczytanie 32 nowych próbek podpasma do układu X1N, pomnożenie przez współczynniki modulacji cosinus i utworzenie układów tymczasowych SUM i D1FF, zapamiętanie historii, pomnożenie przez współczynniki filtrów·, utworzenie 32 próbek wyjściowych z modulacją kodowo-impulsową, aktualizacja układów roboczych i wyprowadzenie 32 nowych próbek z modulacją kodowo-impulsową.
W zależności od szybkości transmisji bitów i schematu kodowania podczas działania, strumień bitów może określać współczynniki F1LTS albo niedoskonałego albo doskonałego zespołu filtrów interpolacji odtwarzania. Ze względu na to, że zespoły filtrów działania dziesiętnego kodera są obliczane z 40-bitową dokładnością nieustaloną, zdolność dekodera do uzyskiwania maksymalnej teoretycznej dokładności odtwarzania zależy od długości słowa źródła z modulacją kodowo-impulsową i dokładności rdzenia DSP dla obliczania splotów i sposobu, w który operacje są skalowane.
Przy interpolacji z modulacją kodowo-impulsową zjawisk o małych częstotliwościach, dane akustyczne związane z kanałem zjawisk o małej częstotliwości są niezależne od głównych kanałów akustycznych. Ten kanał jest kodowany przy zastosowaniu 8-bitowego procesu APCM działającego na wejściu 20-bitowym z modulacjąkodowo-impulsową, X128 dziesiętnym (o szerokości pasma 120 Hz). Dziesiętne zjawiska akustyczne są regulowane w czasie przez bieżącą podramkę akustyczna w głównych kanałach akustycznych. Zatem, ponieważ opóźnienie w 32-pasmowym zespole filtrów interpolacji wynosi 256 próbek, 512 zaczepów, należy uważać na zapewnienie tego, żeby interpolowany kanał zjawisk o małej częstotliwości był także wyregulowany z pozostałymi kanałami akustycznymi przed wyjściem. Nie jest wymagana żadna kompensacja, jeżeli FIR interpolacji zjawisk jest także 512-zaczepowy.
Algorytm LFT wykorzystuje 512 zaczepowy FlR interpolacji 128X jak następuje: odwzorowanie 7-bitowego współczynnika skalowania w rms, pomnożenie przez wielkość stopniową
7-bitowego urządzenia kwantującego, wytworzenie wartości podpróbek z wartości normalizowanych i interpolacja przez 128 przy zastosowaniu filtru dolnoprzepustowego, takiego jak dany dla każdej podpróbki.
Figury 21 i 22 przedstawiają podstawową strukturę funkcjonalną wykonania sprzętu komputerowego wersji sześciokanałowej kodera i dekodera dla działania z szybkościami próbkowania 32,44/1148 kHz Omawiając fig. 22, stosowanych jest osiem mikroukładów 296 procesorów sygnałów cyfrowych (DSP) urządzeń analogowych ADSP21020 40-bitowych, zmiennopozycyjnych, do wykonania sześciokanałowego, cyfrowego kodera akustycznego 298. Sześć DSP jest stosowanych do kodowania każdego z kanałów, podczas gdy siódmy i ósmy są stosowane do realizacji funkcji “rozdziału i zarządzania bitami globalnymi” i “formatera strumienia danych i kodowania błędu”. Każdy ADSP21020jest zegarowany przy częstotliwości 33 MHz i wykorzystuje zewnętrzną, 48-bitową X 32k ram programu (PRAM) 300, 40-bitową X 32k ram danych (SRAM) 302 do przeprowadzania algorytmów. W przypadku koderówjest stosowany także 8-bitowy X 512k EPROM 304 do pamiętania ustalonych stałych, takich jak książki kodów entropii o zmiennej długości. Strumień danych formatujący DSP stosuje mikroukład CRC 306 Reeda Solomona do ułatwiania wykrywania błędu i zabezpieczania dekodera. Komunikacja pomiędzy koderem DSP oraz przydziałem i zarządzaniem bitów globalnychjest realizowana przy zastosowaniu dwuwejściowej, statycznej RAM 308.
Przebieg przetwarzania kodowania jest jak następuje. 2-kanałowy, cyfrowy strumień danych akustycznych z modulacją kodowo-impulsową 310 jest wydzielany na wyjściu każdego z trzech cyfrowych odbiorników akustycznych AES/EBU. Pierwszy kanał każdej pary jest kierowany kolejno do DSP kodera CH1, 3 i 5, podczas gdy drugi kanał każdego jest kierowany kolejno do CH2,416. Próbki z modulacją kodowo-impulsową są wczytywane do DSP przez przetwarzanie słów z modulacjąkodowo-impulsowąszeregowych w równoległe (s/p). Każdy koder gromadzi
183 498 ramkę próbek z modulacJąkodowo-lmpulsowąi realizuje kodowanie danych ramki, jak to opisano poprzednio. Informacja dotycząca ocenianego sygnału różnicowego (ed(n)) i próbek podpasma (x(n)) dla każdego kanałujest transmitowana do DSP przydziału i zarządzania bitami globalnymi przez dwuwejściową RAM. Strategie przydziału bitów dla każdego kodera sąnastępnie odczytywane wstecznie w ten sam sposób. Po zakończeniu procesu kodowania, dane kodowane i informacja wstęgi bocznej dla sześciu kanałów są transmitowane do formatera DSP strumienia danych przez przydział i zarządzanie DSP bitami globalnymi. W tym etapie bajty kontroli CRC są wytwarzane selektywnie i dodawane do danych kodowanych w celu zapewnienia ochrony przed błędami w dekoderze. W końcu cały pakiet danych 16 jest gromadzony i dostarczany na wyjście.
Sześciokanałowe wykonanie dekodera komputerowego jest opisane na fig. 22. Mikroukład 324 procesora sygnałów cyfrowych (DSP) pojedynczych urządzeń analogowych ADSP21020 40-bitowych, zmiennopozycyjnych, jest stosowany do wykonania sześciokanałowego, cyfrowego dekodera akustycznego ADSP21020 jest zegarowany przy 33 MHz i wykorzystuje zewnętrzną, 48-bitowąX 32k ram programu (PRAM) 326, 40-bitowąX 32k ram danych (SRAM) 328 do przeprowadzania algorytmu dekodowania. Dodatkowa 8-bitowa X 512k EPROM 330 jest także stosowana do pamiętania ustalonych stałych, takich jak entropia o zmiennej długości i książki kodów wektorów współczynników prognozowania.
Przebieg przetwarzania dekodowania jestjak następuje. Skompresowany strumień danych 16 jest wprowadzany do DSP przez przetwornik szeregowo-równoległy (s/p) 332. Dane są rozpakowywane i dekodowane, jak to przedstawiono poprzednio. Próbki podpasma są odtwarzane w pojedynczym strumieniu danych z modulacjąkodowo-impulsową22 dla każdego kanału i wyprowadzane do trzech mikroukładów 334 cyfrowych nadajników akustycznych AES/EBU przez trzy przetworniki równoległo-szeregowe (p/s) 335.
Dla przykładu, gdy szybkości procesora wzrastająi pamięci sąmniej skomplikowane, częstotliwości próbkowania, szybkości transmisji i wielkość bufora najprawdopodobniej wzrastają.
183 498
183 498
C\2
O
>, m —< -p
N Ul t-l-rl en x> tn a
183 498 νθ
m cn αο
183 498
C ui >,
φ C
Φ
ο Ό
V)
φ C
£_ Φ
CL
ε ε
ο
ί/ϊ
Φ απ _ <Γ ° C ωο ΰ ίλ u C w V*
-'μ- σ> Ζ3 r; υ 1Λ (U Ο183 498 ο
ct αι c
O CT° 4? V?01 <u O o c
CT N
o Z -*Z iZ) m
JZ) <$CT
U_
183 498
o ν) α.
cm
CM
un
o
LJ
CL
183 498
FIG. 6
FIG.8
FIG.9
183 498
183 498
FIG. 11A
109
Bufor podramki
TMODE Pod-podramka 1 Pod-pod- | Pod-pod- ramka 2 | ramka 3 Pod-podramka 4
0 RMS 1 lub Peak 1
1 RMS 1 lub Peak 1 RMS 2 lub Peak 2
2 RMS liub Peak 1 RMS 2 lub Peak 2
3 RMS 1 lub Peak 1 RMS 2 lub Peak 2
110
FIG. 11B
183 498
yługości_ ______| /THUFF ->VTMODE(j)
FIG. 12
183 498
U (0
L
Cu ε
Φ
X!
>1
1-1 +J
Φ
Ή c
(0 o
M
Φ
X ω
οα
O
CO
FIG. 13
183 498
FIG. 15
FIG. 16
183 498 (dB)
FIG.18B
183 498
Ο αο
-X οι
C
ΙΜ <_) αο
Ο \Ο
Ο <1CNI
Os αο ο»
ΓχΙ \Ο
L/3
Cul
Ό
Ο
CM
- (Λ
ΓΌ
'. (Ο
-X 3^ Ό ω σ,ε
Π3 J0 2 u
Ο
CM
Cul
Ο
Cul \
ο ο
Cul \
Λ&
Ο£ (
5« i
C kj >u«O i (Z) N
TT c u.
y
5-S <u o. 3 £ ę-S £ lii tJ OłO o»>,łOw Cl
9^3
-5 >vj i Sć (Λ
NJ O.U ξίΞ > — o
Ό OJ Qj
5? ~ ić -» u £ C =>
e θ'* _ _O Π3
V αο co i
1 PODRAMKA AKUSTYCZNA 2 1 Synchroni- zacja rozpakowania
Opcjonalne sygnały akustyczne próbko- wane nadmiernie
ί c 3> N -£x ?^3 ό 3 £ ™
Fbd-podramka 3 Kody akustyczne
Pod-podramka2 Kody akustyczne
Fbd-podramka 1 Kody akustyczne
a o -sio ra Ń? Q.uj
3 ΛΛ o i > S-To IżJ Ό 4lQ> O — M 3 O
Informacja boczna akustyczna
fry < Z ni UJ >- Synchroni- zacja rozpakowania
Opcjonalne sygnały akustyczne próbko- wane nadmiernie
•J- 5 Ol 1 £ (_ UJ =&£·-£· ą° s Ό JĆ £ *
Ί m C N 2 o w hSc 3 Ό -Jg & 10
uo o ic < < ić ΣΞ < QC O O Q_ Pod-podbramki Kody akustyczne
Rod-podbramka1 Kody akustyczne
O _o ΉΓ 3 — w lu 4_ -Seo (u N 2> —«<_ N NI CL uj
Kody VQ wielkiej częstotliwości
Informacja boczna akustyczna
< z NJ UJ >- Synchroni- zacja rozpa, kowania
Opcjonalne sygnały akustyczne próbko- wane nadmiernie
<9 jz ω W R-O-i a°« 1 <£ 10
Pod-podramka 3 Kody akustyczne
UO Z) ić < < ić r < cc CM <9 u -4 C C ful fe 9^3 -o & m
LJ O CU Pod-podramka 1 Kody akustyczne
UJ V) , o — 5P3 5-»x v> Go 3 ΙΌ M Q> NI O.C1
UJ V) o σ > Oł-»- O OJ «► UJ — «U Zi u
In formacja boczna akustyczna
ig. 19
183 498
Fig.20
183 498
GO σ'
Csl o
“O d>
ra
>,
c c
ro ro
Ό 5 o
.£2 N
’c OJ O c
cn
E o
3 l_ ί- α.
ro
(_ ‘c
JU ro 5
ro o
c_ o O-* u___ sO
ct3 oj _2 c — ro -Q o T <Λ C
Ό o
CM
-J*
X
Φ
Ό
O
X
IZ '5'zl
X
ADSP21020 40-bitowe zmiennopo- zycyjne DSP
J
□ — 3 5 O 3 seto- we SRAM
PM
X
X m
m
OO
O m
N
O >*x:
ω.£
«.s c o ro—· n cn ro·?
N O C_ -łr3'-5
Ό o
CM
PM
X
X m
m j'
X
L->
Ό
O
-5—
c_ CD
O Iti
J3J£ (Z)
T> c Oc <
E
Φ
Ό
O
X
183 498
IN CM ΓΧ ίΧ ΓΜ <Ν
3 3 3
Al Al Al
(0 «3 <0
c fi fi
θ' θ' en
>. Fi >1
to to to
0 O O
θ' θ' tn
0) (U Φ
3 3 3
0 0 0
M O I-i 0 H 0
Μ-» CntNM-l Cn^r m owo
>1 Φ >i® >1 Φ
υ fi -H O fi -H N N o fi -η N
φ O r-l Φ o n Φ O tn
-H >i -H >, Ή >,
u +) W □ -P rM υ -u ah
xo o ιβχο to ίο Xfl to <0
•n 3 fi -n 3 fi n 3 fi
>iAJ (0 <0 (0
s <0 .*& <0 Ai 3: <0 Ai
<N.
CN
-η μ ο -η □ ιχ en ε 3 χο ε Φ 3 Ό •η Ο C Μ 4->
Φ At <0 -U -d
S to 3 to η
183 498
Departament Wydawnictw UP RP. Nakład 70 egz.
Cena 6,00 zł.

Claims (4)

  1. Zastrzeżenia patentowe
    1. Dekoder akustyczny wielokanałowy do odtwarzania wielokrotnych kanałów akustycznych aż do szybkości próbkowania dekodera ze strumienia danych, w którym każdy kanał akustyczny był próbkowany z szybkością próbkowania kodera, przynajmniej tak dużąjak szybkość próbkowania dekodera, podzieloną na wiele podpasm częstotliwości, poddaną kompresji i multipleksowana w strumień danych z szybkościątransmisji, znamienny tym, że zawiera bufor wejściowy (324) do wczytywania i pamiętania strumienia danych w danym czasie, ze słowem synchronizacji, nagłówkiem ramki, nagłówkiem akustycznym i co najmniej jednąpodramką, do którego jest dołączony demultiplekser (40) do wykrywania słowa synchronizacji, rozpakowania nagłówka ramki dla wydzielania wielkości okna nastawianej w funkcji stosunku szybkości transmisji do szybkości próbkowania kodera, rozpakowania nagłówka akustycznego i sekwencyjnego rozpakowania każdej podramki. do którego jest dołączony dekoder (42,44) pasma podstawowego do dekodowania kodów akustycznych podpasma w odtwarzane sygnały podpasma, bez odniesienia do jakichkolwiek innych podramek, do którego jest dołączony filtr (44) odtwarzania pasma podstawowego, do którego jest dołączony dekoder (58,60) o dużej szybkości próbkowania, do dekodowania kodów akustycznych o dużej szybkości próbkowania w odtworzony sygnał o dużej szybkości próbkowania dla każdego kanału akustycznego i filtr (62) odtwarzania kanału, który łączy sygnały odtworzony pasma podstawowego i o dużej szybkości próbkowania w wielokanałowy sygnał akustyczny.
  2. 2. Dekoder według zastrz. 1, znamienny tym, że filtr (44) odtwarzania pasma podstawowego zawiera niedoskonały zespół filtrów odtwarzania NPR i doskonały zespół filtrów odtwarzania PR oraz nagłówek ramki zawiera kod filtru do wyborujednego spośród zespołów filtrów NPR i PR.
  3. 3. Dekoder według zastrz. 1, znamienny tym, że dekoder pasma podstawowego zawiera wiele odwrotnych koderów (268,270) z adaptacyjną różnicową modulacją kodowo-impulsową do dekodowania kodów akustycznych pasma podstawowego, a informacja boczna zawiera współczynniki prognozowania dla koderów ADPCM i stan prognozowania PMODE dla sterowania dostarczaniem współczynników prognozowania do koderów ADPCM.
  4. 4. Dekoder według zastrz. 1, znamienny tym, że informacja boczna zawiera tablicę przydziału bitów dla każdego podpasma kanału, w którym każda szybkość transmisji bitów podpasma jest stała w podramce, co najmniej jeden współczynnik skalowania dla każdego podpasma w każdym kanale i stan przejściowy tMODE dla każdego podpasma w każdym kanale, dla identyfikacji liczby współczynników skalowania i związanych z nimi pod-podramek, przy czym dekoder pasma podstawowego jest przystosowany do skalowania kodów akustycznych podpasm przez poszczególne współczynniki skalowania zgodnie ze stanami TMODE.
PL96346688A 1995-12-01 1996-11-21 Dekoder akustyczny wielokanałowy PL183498B1 (pl)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US789695P 1995-12-01 1995-12-01
US08/642,254 US5956674A (en) 1995-12-01 1996-05-02 Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
PCT/US1996/018764 WO1997021211A1 (en) 1995-12-01 1996-11-21 Multi-channel predictive subband coder using psychoacoustic adaptive bit allocation

Publications (1)

Publication Number Publication Date
PL183498B1 true PL183498B1 (pl) 2002-06-28

Family

ID=26677495

Family Applications (3)

Application Number Title Priority Date Filing Date
PL96327082A PL182240B1 (pl) 1995-12-01 1996-11-21 Koder akustyczny wielokanalowy PL PL PL PL PL PL PL PL PL
PL96346687A PL183092B1 (pl) 1995-12-01 1996-11-21 Produkt akustyczny wielokanałowy
PL96346688A PL183498B1 (pl) 1995-12-01 1996-11-21 Dekoder akustyczny wielokanałowy

Family Applications Before (2)

Application Number Title Priority Date Filing Date
PL96327082A PL182240B1 (pl) 1995-12-01 1996-11-21 Koder akustyczny wielokanalowy PL PL PL PL PL PL PL PL PL
PL96346687A PL183092B1 (pl) 1995-12-01 1996-11-21 Produkt akustyczny wielokanałowy

Country Status (18)

Country Link
US (4) US5956674A (pl)
EP (1) EP0864146B1 (pl)
JP (1) JP4174072B2 (pl)
KR (1) KR100277819B1 (pl)
CN (5) CN101872618B (pl)
AT (1) ATE279770T1 (pl)
AU (1) AU705194B2 (pl)
BR (1) BR9611852A (pl)
CA (2) CA2238026C (pl)
DE (1) DE69633633T2 (pl)
DK (1) DK0864146T3 (pl)
EA (1) EA001087B1 (pl)
ES (1) ES2232842T3 (pl)
HK (4) HK1015510A1 (pl)
MX (1) MX9804320A (pl)
PL (3) PL182240B1 (pl)
PT (1) PT864146E (pl)
WO (1) WO1997021211A1 (pl)

Families Citing this family (549)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997029549A1 (fr) * 1996-02-08 1997-08-14 Matsushita Electric Industrial Co., Ltd. Codeur, decodeur, codeur-decodeur et support d'enregistrement de signal audio large bande
US8306811B2 (en) * 1996-08-30 2012-11-06 Digimarc Corporation Embedding data in audio and detecting embedded data in audio
JP3622365B2 (ja) * 1996-09-26 2005-02-23 ヤマハ株式会社 音声符号化伝送方式
JPH10271082A (ja) * 1997-03-21 1998-10-09 Mitsubishi Electric Corp 音声データ復号装置
US7110662B1 (en) 1997-03-25 2006-09-19 Samsung Electronics Co., Ltd. Apparatus and method for recording data on a DVD-audio disk
US6449227B1 (en) * 1997-03-25 2002-09-10 Samsung Electronics Co., Ltd. DVD-audio disk, and apparatus and method for playing the same
US6741796B1 (en) 1997-03-25 2004-05-25 Samsung Electronics, Co., Ltd. DVD-Audio disk, and apparatus and method for playing the same
WO1998044637A1 (en) * 1997-03-28 1998-10-08 Sony Corporation Data coding method and device, data decoding method and device, and recording medium
US6298025B1 (en) * 1997-05-05 2001-10-02 Warner Music Group Inc. Recording and playback of multi-channel digital audio having different resolutions for different channels
SE512719C2 (sv) * 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
US6636474B1 (en) * 1997-07-16 2003-10-21 Victor Company Of Japan, Ltd. Recording medium and audio-signal processing apparatus
US5903872A (en) * 1997-10-17 1999-05-11 Dolby Laboratories Licensing Corporation Frame-based audio coding with additional filterbank to attenuate spectral splatter at frame boundaries
DE69722973T2 (de) * 1997-12-19 2004-05-19 Stmicroelectronics Asia Pacific Pte Ltd. Verfahren und gerät zur phasenschätzung in einem transformationskodierer für hochqualitätsaudio
WO1999034527A1 (en) * 1997-12-27 1999-07-08 Sgs-Thomson Microelectronics Asia Pacific (Pte) Ltd. Method and apparatus for estimation of coupling parameters in a transform coder for high quality audio
JP3802219B2 (ja) * 1998-02-18 2006-07-26 富士通株式会社 音声符号化装置
CA2262197A1 (en) * 1998-02-18 1999-08-18 Henrietta L. Galiana Automatic segmentation of nystagmus or other complex curves
JPH11234136A (ja) * 1998-02-19 1999-08-27 Sanyo Electric Co Ltd デジタルデータの符号化方法及び符号化装置
US6253185B1 (en) * 1998-02-25 2001-06-26 Lucent Technologies Inc. Multiple description transform coding of audio using optimal transforms of arbitrary dimension
KR100304092B1 (ko) * 1998-03-11 2001-09-26 마츠시타 덴끼 산교 가부시키가이샤 오디오 신호 부호화 장치, 오디오 신호 복호화 장치 및 오디오 신호 부호화/복호화 장치
US6400727B1 (en) * 1998-03-27 2002-06-04 Cirrus Logic, Inc. Methods and system to transmit data acquired at a variable rate over a fixed rate channel
US6385345B1 (en) * 1998-03-31 2002-05-07 Sharp Laboratories Of America, Inc. Method and apparatus for selecting image data to skip when encoding digital video
JPH11331248A (ja) * 1998-05-08 1999-11-30 Sony Corp 送信装置および送信方法、受信装置および受信方法、並びに提供媒体
US6141645A (en) * 1998-05-29 2000-10-31 Acer Laboratories Inc. Method and device for down mixing compressed audio bit stream having multiple audio channels
US6141639A (en) * 1998-06-05 2000-10-31 Conexant Systems, Inc. Method and apparatus for coding of signals containing speech and background noise
KR100548891B1 (ko) * 1998-06-15 2006-02-02 마츠시타 덴끼 산교 가부시키가이샤 음성 부호화 장치 및 음성 부호화 방법
US6061655A (en) * 1998-06-26 2000-05-09 Lsi Logic Corporation Method and apparatus for dual output interface control of audio decoder
US6301265B1 (en) * 1998-08-14 2001-10-09 Motorola, Inc. Adaptive rate system and method for network communications
US7457415B2 (en) 1998-08-20 2008-11-25 Akikaze Technologies, Llc Secure information distribution system utilizing information segment scrambling
JP4308345B2 (ja) * 1998-08-21 2009-08-05 パナソニック株式会社 マルチモード音声符号化装置及び復号化装置
US6704705B1 (en) * 1998-09-04 2004-03-09 Nortel Networks Limited Perceptual audio coding
GB9820655D0 (en) * 1998-09-22 1998-11-18 British Telecomm Packet transmission
US7272556B1 (en) * 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
JP4193243B2 (ja) * 1998-10-07 2008-12-10 ソニー株式会社 音響信号符号化方法及び装置、音響信号復号化方法及び装置並びに記録媒体
US6463410B1 (en) * 1998-10-13 2002-10-08 Victor Company Of Japan, Ltd. Audio signal processing apparatus
US6219634B1 (en) * 1998-10-14 2001-04-17 Liquid Audio, Inc. Efficient watermark method and apparatus for digital signals
US6320965B1 (en) 1998-10-14 2001-11-20 Liquid Audio, Inc. Secure watermark method and apparatus for digital signals
US6345100B1 (en) 1998-10-14 2002-02-05 Liquid Audio, Inc. Robust watermark method and apparatus for digital signals
US6330673B1 (en) 1998-10-14 2001-12-11 Liquid Audio, Inc. Determination of a best offset to detect an embedded pattern
US6754241B1 (en) * 1999-01-06 2004-06-22 Sarnoff Corporation Computer system for statistical multiplexing of bitstreams
US6931372B1 (en) * 1999-01-27 2005-08-16 Agere Systems Inc. Joint multiple program coding for digital audio broadcasting and other applications
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US6357029B1 (en) * 1999-01-27 2002-03-12 Agere Systems Guardian Corp. Joint multiple program error concealment for digital audio broadcasting and other applications
US6378101B1 (en) * 1999-01-27 2002-04-23 Agere Systems Guardian Corp. Multiple program decoding for digital audio broadcasting and other applications
TW477119B (en) * 1999-01-28 2002-02-21 Winbond Electronics Corp Byte allocation method and device for speech synthesis
FR2791167B1 (fr) * 1999-03-17 2003-01-10 Matra Nortel Communications Procedes de codage, de decodage et de transcodage audio
JP3739959B2 (ja) * 1999-03-23 2006-01-25 株式会社リコー デジタル音響信号符号化装置、デジタル音響信号符号化方法及びデジタル音響信号符号化プログラムを記録した媒体
DE19914742A1 (de) * 1999-03-31 2000-10-12 Siemens Ag Verfahren zum Übertragen von Daten
US8270479B2 (en) * 1999-04-06 2012-09-18 Broadcom Corporation System and method for video and audio encoding on a single chip
JP2001006291A (ja) * 1999-06-21 2001-01-12 Fuji Film Microdevices Co Ltd オーディオ信号の符号化方式判定装置、及びオーディオ信号の符号化方式判定方法
US7283965B1 (en) * 1999-06-30 2007-10-16 The Directv Group, Inc. Delivery and transmission of dolby digital AC-3 over television broadcast
US6553210B1 (en) * 1999-08-03 2003-04-22 Alliedsignal Inc. Single antenna for receipt of signals from multiple communications systems
US6581032B1 (en) * 1999-09-22 2003-06-17 Conexant Systems, Inc. Bitstream protocol for transmission of encoded voice signals
US7181297B1 (en) 1999-09-28 2007-02-20 Sound Id System and method for delivering customized audio data
US6496798B1 (en) * 1999-09-30 2002-12-17 Motorola, Inc. Method and apparatus for encoding and decoding frames of voice model parameters into a low bit rate digital voice message
US6741947B1 (en) * 1999-11-30 2004-05-25 Agilent Technologies, Inc. Monitoring system and method implementing a total node power test
US6732061B1 (en) * 1999-11-30 2004-05-04 Agilent Technologies, Inc. Monitoring system and method implementing a channel plan
US6842735B1 (en) * 1999-12-17 2005-01-11 Interval Research Corporation Time-scale modification of data-compressed audio information
US7792681B2 (en) * 1999-12-17 2010-09-07 Interval Licensing Llc Time-scale modification of data-compressed audio information
KR100718829B1 (ko) * 1999-12-24 2007-05-17 코닌클리케 필립스 일렉트로닉스 엔.브이. 다채널 오디오 신호 처리 장치
AU4904801A (en) * 1999-12-31 2001-07-16 Octiv, Inc. Techniques for improving audio clarity and intelligibility at reduced bit rates over a digital network
US6499010B1 (en) * 2000-01-04 2002-12-24 Agere Systems Inc. Perceptual audio coder bit allocation scheme providing improved perceptual quality consistency
TW499672B (en) * 2000-02-18 2002-08-21 Intervideo Inc Fast convergence method for bit allocation stage of MPEG audio layer 3 encoders
US7679678B2 (en) * 2000-02-29 2010-03-16 Sony Corporation Data processing device and method, and recording medium and program
EP1287617B1 (de) * 2000-04-14 2003-12-03 Siemens Aktiengesellschaft Verfahren zum kanaldecodieren eines datenstroms mit nutzdaten und redundanzdaten, vorrichtung zum kanaldecodieren, computerlesbares speichermedium und computerprogramm-element
US6782366B1 (en) * 2000-05-15 2004-08-24 Lsi Logic Corporation Method for independent dynamic range control
US7136810B2 (en) * 2000-05-22 2006-11-14 Texas Instruments Incorporated Wideband speech coding system and method
US6725110B2 (en) * 2000-05-26 2004-04-20 Yamaha Corporation Digital audio decoder
KR20020029672A (ko) * 2000-05-30 2002-04-19 요트.게.아. 롤페즈 씨.디. 오디오 상의 코딩된 정보
US6678647B1 (en) * 2000-06-02 2004-01-13 Agere Systems Inc. Perceptual coding of audio signals using cascaded filterbanks for performing irrelevancy reduction and redundancy reduction with different spectral/temporal resolution
US6778953B1 (en) * 2000-06-02 2004-08-17 Agere Systems Inc. Method and apparatus for representing masked thresholds in a perceptual audio coder
US7110953B1 (en) * 2000-06-02 2006-09-19 Agere Systems Inc. Perceptual coding of audio signals using separated irrelevancy reduction and redundancy reduction
US6754618B1 (en) * 2000-06-07 2004-06-22 Cirrus Logic, Inc. Fast implementation of MPEG audio coding
US6601032B1 (en) * 2000-06-14 2003-07-29 Intervideo, Inc. Fast code length search method for MPEG audio encoding
US6748363B1 (en) * 2000-06-28 2004-06-08 Texas Instruments Incorporated TI window compression/expansion method
US6542863B1 (en) 2000-06-14 2003-04-01 Intervideo, Inc. Fast codebook search method for MPEG audio encoding
US6678648B1 (en) 2000-06-14 2004-01-13 Intervideo, Inc. Fast loop iteration and bitstream formatting method for MPEG audio encoding
US6745162B1 (en) * 2000-06-22 2004-06-01 Sony Corporation System and method for bit allocation in an audio encoder
JP2002014697A (ja) * 2000-06-30 2002-01-18 Hitachi Ltd ディジタルオーディオ装置
FI109393B (fi) 2000-07-14 2002-07-15 Nokia Corp Menetelmä mediavirran enkoodaamiseksi skaalautuvasti, skaalautuva enkooderi ja päätelaite
US6931371B2 (en) * 2000-08-25 2005-08-16 Matsushita Electric Industrial Co., Ltd. Digital interface device
SE519981C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
US20020075965A1 (en) * 2000-12-20 2002-06-20 Octiv, Inc. Digital signal processing techniques for improving audio clarity and intelligibility
WO2002032147A1 (en) * 2000-10-11 2002-04-18 Koninklijke Philips Electronics N.V. Scalable coding of multi-media objects
US20030023429A1 (en) * 2000-12-20 2003-01-30 Octiv, Inc. Digital signal processing techniques for improving audio clarity and intelligibility
US7526348B1 (en) * 2000-12-27 2009-04-28 John C. Gaddy Computer based automatic audio mixer
CN1205540C (zh) * 2000-12-29 2005-06-08 深圳赛意法微电子有限公司 含有解码器的电路、时分寻址的方法和一个微控制器
EP1223696A3 (en) * 2001-01-12 2003-12-17 Matsushita Electric Industrial Co., Ltd. System for transmitting digital audio data according to the MOST method
GB0103242D0 (en) * 2001-02-09 2001-03-28 Radioscape Ltd Method of analysing a compressed signal for the presence or absence of information content
GB0108080D0 (en) * 2001-03-30 2001-05-23 Univ Bath Audio compression
DE60210766T2 (de) * 2001-04-09 2007-02-08 Koninklijke Philips Electronics N.V. Adpcm sprachkodiersystem mit phasenfaltungs und -entfaltungsfiltern
EP1386308B1 (en) * 2001-04-09 2006-04-12 Koninklijke Philips Electronics N.V. Adpcm speech coding system with specific step-size adaptation
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610205B2 (en) * 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
WO2002084646A1 (en) * 2001-04-18 2002-10-24 Koninklijke Philips Electronics N.V. Audio coding
US7644003B2 (en) * 2001-05-04 2010-01-05 Agere Systems Inc. Cue-based audio coding/decoding
US7583805B2 (en) * 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
US7047201B2 (en) * 2001-05-04 2006-05-16 Ssi Corporation Real-time control of playback rates in presentations
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US6804565B2 (en) 2001-05-07 2004-10-12 Harman International Industries, Incorporated Data-driven software architecture for digital sound processing and equalization
US7451006B2 (en) 2001-05-07 2008-11-11 Harman International Industries, Incorporated Sound processing system using distortion limiting techniques
US7447321B2 (en) 2001-05-07 2008-11-04 Harman International Industries, Incorporated Sound processing system for configuration of audio signals in a vehicle
JP4591939B2 (ja) * 2001-05-15 2010-12-01 Kddi株式会社 適応的符号化伝送装置および受信装置
US6661880B1 (en) 2001-06-12 2003-12-09 3Com Corporation System and method for embedding digital information in a dial tone signal
EP1271470A1 (en) * 2001-06-25 2003-01-02 Alcatel Method and device for determining the voice quality degradation of a signal
US7460629B2 (en) 2001-06-29 2008-12-02 Agere Systems Inc. Method and apparatus for frame-based buffer control in a communication system
SE0202159D0 (sv) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
JP3463752B2 (ja) * 2001-07-25 2003-11-05 三菱電機株式会社 音響符号化装置、音響復号化装置、音響符号化方法および音響復号化方法
JP3469567B2 (ja) * 2001-09-03 2003-11-25 三菱電機株式会社 音響符号化装置、音響復号化装置、音響符号化方法及び音響復号化方法
US7062429B2 (en) * 2001-09-07 2006-06-13 Agere Systems Inc. Distortion-based method and apparatus for buffer control in a communication system
US7333929B1 (en) 2001-09-13 2008-02-19 Chmounk Dmitri V Modular scalable compressed audio data stream
US6944474B2 (en) * 2001-09-20 2005-09-13 Sound Id Sound enhancement for mobile phones and other products producing personalized audio for users
US6732071B2 (en) * 2001-09-27 2004-05-04 Intel Corporation Method, apparatus, and system for efficient rate control in audio encoding
JP4245288B2 (ja) * 2001-11-13 2009-03-25 パナソニック株式会社 音声符号化装置および音声復号化装置
CA2430923C (en) * 2001-11-14 2012-01-03 Matsushita Electric Industrial Co., Ltd. Encoding device, decoding device, and system thereof
EP1449212B1 (en) * 2001-11-16 2021-09-29 Nagravision S.A. Embedding supplementary data in an information signal
EP1423847B1 (en) 2001-11-29 2005-02-02 Coding Technologies AB Reconstruction of high frequency components
US7240001B2 (en) * 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US6934677B2 (en) * 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7055018B1 (en) 2001-12-31 2006-05-30 Apple Computer, Inc. Apparatus for parallel vector table look-up
US7558947B1 (en) 2001-12-31 2009-07-07 Apple Inc. Method and apparatus for computing vector absolute differences
US7114058B1 (en) 2001-12-31 2006-09-26 Apple Computer, Inc. Method and apparatus for forming and dispatching instruction groups based on priority comparisons
US6822654B1 (en) 2001-12-31 2004-11-23 Apple Computer, Inc. Memory controller chipset
US6697076B1 (en) 2001-12-31 2004-02-24 Apple Computer, Inc. Method and apparatus for address re-mapping
US6693643B1 (en) 2001-12-31 2004-02-17 Apple Computer, Inc. Method and apparatus for color space conversion
US6877020B1 (en) 2001-12-31 2005-04-05 Apple Computer, Inc. Method and apparatus for matrix transposition
US7015921B1 (en) 2001-12-31 2006-03-21 Apple Computer, Inc. Method and apparatus for memory access
US7305540B1 (en) 2001-12-31 2007-12-04 Apple Inc. Method and apparatus for data processing
US7034849B1 (en) 2001-12-31 2006-04-25 Apple Computer, Inc. Method and apparatus for image blending
US7467287B1 (en) 2001-12-31 2008-12-16 Apple Inc. Method and apparatus for vector table look-up
US6931511B1 (en) 2001-12-31 2005-08-16 Apple Computer, Inc. Parallel vector table look-up with replicated index element vector
US7681013B1 (en) 2001-12-31 2010-03-16 Apple Inc. Method for variable length decoding using multiple configurable look-up tables
US6573846B1 (en) 2001-12-31 2003-06-03 Apple Computer, Inc. Method and apparatus for variable length decoding and encoding of video streams
US7848531B1 (en) * 2002-01-09 2010-12-07 Creative Technology Ltd. Method and apparatus for audio loudness and dynamics matching
US6618128B2 (en) * 2002-01-23 2003-09-09 Csi Technology, Inc. Optical speed sensing system
ES2255678T3 (es) * 2002-02-18 2006-07-01 Koninklijke Philips Electronics N.V. Codificacion de audio parametrica.
US20030161469A1 (en) * 2002-02-25 2003-08-28 Szeming Cheng Method and apparatus for embedding data in compressed audio data stream
US20100042406A1 (en) * 2002-03-04 2010-02-18 James David Johnston Audio signal processing using improved perceptual model
US7313520B2 (en) * 2002-03-20 2007-12-25 The Directv Group, Inc. Adaptive variable bit rate audio compression encoding
US20030187663A1 (en) 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7225135B2 (en) * 2002-04-05 2007-05-29 Lectrosonics, Inc. Signal-predictive audio transmission system
US20040125707A1 (en) * 2002-04-05 2004-07-01 Rodolfo Vargas Retrieving content of various types with a conversion device attachable to audio outputs of an audio CD player
US7428440B2 (en) * 2002-04-23 2008-09-23 Realnetworks, Inc. Method and apparatus for preserving matrix surround information in encoded audio/video
WO2003092327A1 (en) 2002-04-25 2003-11-06 Nokia Corporation Method and device for reducing high frequency error components of a multi-channel modulator
JP4016709B2 (ja) * 2002-04-26 2007-12-05 日本電気株式会社 オーディオデータの符号変換伝送方法と符号変換受信方法及び装置とシステムならびにプログラム
WO2003093775A2 (en) * 2002-05-03 2003-11-13 Harman International Industries, Incorporated Sound detection and localization system
US7096180B2 (en) * 2002-05-15 2006-08-22 Intel Corporation Method and apparatuses for improving quality of digitally encoded speech in the presence of interference
US7050965B2 (en) * 2002-06-03 2006-05-23 Intel Corporation Perceptual normalization of digital audio signals
CN1324557C (zh) * 2002-06-21 2007-07-04 汤姆森特许公司 从串行化的数字音频数据流中提取数字音频数据字的方法
US7325048B1 (en) * 2002-07-03 2008-01-29 3Com Corporation Method for automatically creating a modem interface for use with a wireless device
KR100462615B1 (ko) * 2002-07-11 2004-12-20 삼성전자주식회사 적은 계산량으로 고주파수 성분을 복원하는 오디오 디코딩방법 및 장치
US8228849B2 (en) * 2002-07-15 2012-07-24 Broadcom Corporation Communication gateway supporting WLAN communications in multiple communication protocols and in multiple frequency bands
EP1523863A1 (en) 2002-07-16 2005-04-20 Koninklijke Philips Electronics N.V. Audio coding
CN100477531C (zh) * 2002-08-21 2009-04-08 广州广晟数码技术有限公司 用于对多声道数字音频信号进行压缩编码的编码方法
CN1783726B (zh) * 2002-08-21 2010-05-12 广州广晟数码技术有限公司 用于从音频数据码流中解码重建多声道音频信号的解码器
EP1394772A1 (en) * 2002-08-28 2004-03-03 Deutsche Thomson-Brandt Gmbh Signaling of window switchings in a MPEG layer 3 audio data stream
JP4676140B2 (ja) 2002-09-04 2011-04-27 マイクロソフト コーポレーション オーディオの量子化および逆量子化
ES2378462T3 (es) 2002-09-04 2012-04-12 Microsoft Corporation Codificación entrópica por adaptación de codificación entre modalidades de nivel y de longitud/nivel de cadencia
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
US7299190B2 (en) * 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
TW573293B (en) * 2002-09-13 2004-01-21 Univ Nat Central Nonlinear operation method suitable for audio encoding/decoding and an applied hardware thereof
SE0202770D0 (sv) * 2002-09-18 2002-09-18 Coding Technologies Sweden Ab Method for reduction of aliasing introduces by spectral envelope adjustment in real-valued filterbanks
FR2846179B1 (fr) 2002-10-21 2005-02-04 Medialive Embrouillage adaptatif et progressif de flux audio
US6707398B1 (en) 2002-10-24 2004-03-16 Apple Computer, Inc. Methods and apparatuses for packing bitstreams
US6707397B1 (en) 2002-10-24 2004-03-16 Apple Computer, Inc. Methods and apparatus for variable length codeword concatenation
US6781528B1 (en) 2002-10-24 2004-08-24 Apple Computer, Inc. Vector handling capable processor and run length encoding
US6781529B1 (en) 2002-10-24 2004-08-24 Apple Computer, Inc. Methods and apparatuses for variable length encoding
US7650625B2 (en) * 2002-12-16 2010-01-19 Lsi Corporation System and method for controlling audio and video content via an advanced settop box
US7555017B2 (en) * 2002-12-17 2009-06-30 Tls Corporation Low latency digital audio over packet switched networks
US7272566B2 (en) * 2003-01-02 2007-09-18 Dolby Laboratories Licensing Corporation Reducing scale factor transmission cost for MPEG-2 advanced audio coding (AAC) using a lattice based post processing technique
KR100547113B1 (ko) * 2003-02-15 2006-01-26 삼성전자주식회사 오디오 데이터 인코딩 장치 및 방법
TW594674B (en) * 2003-03-14 2004-06-21 Mediatek Inc Encoder and a encoding method capable of detecting audio signal transient
CN100339886C (zh) * 2003-04-10 2007-09-26 联发科技股份有限公司 可以检测声音信号的暂态位置的编码器及编码方法
FR2853786B1 (fr) * 2003-04-11 2005-08-05 Medialive Procede et equipement de distribution de produits videos numeriques avec une restriction de certains au moins des droits de representation et de reproduction
WO2004093494A1 (en) * 2003-04-17 2004-10-28 Koninklijke Philips Electronics N.V. Audio signal generation
EP1618763B1 (en) * 2003-04-17 2007-02-28 Koninklijke Philips Electronics N.V. Audio signal synthesis
US8073684B2 (en) * 2003-04-25 2011-12-06 Texas Instruments Incorporated Apparatus and method for automatic classification/identification of similar compressed audio files
SE0301273D0 (sv) * 2003-04-30 2003-04-30 Coding Technologies Sweden Ab Advanced processing based on a complex-exponential-modulated filterbank and adaptive time signalling methods
CN100546233C (zh) * 2003-04-30 2009-09-30 诺基亚公司 用于支持多声道音频扩展的方法和设备
US7739105B2 (en) * 2003-06-13 2010-06-15 Vixs Systems, Inc. System and method for processing audio frames
WO2004112400A1 (en) * 2003-06-16 2004-12-23 Matsushita Electric Industrial Co., Ltd. Coding apparatus, coding method, and codebook
KR100556365B1 (ko) * 2003-07-07 2006-03-03 엘지전자 주식회사 음성 인식장치 및 방법
US7454431B2 (en) * 2003-07-17 2008-11-18 At&T Corp. Method and apparatus for window matching in delta compressors
US7289680B1 (en) * 2003-07-23 2007-10-30 Cisco Technology, Inc. Methods and apparatus for minimizing requantization error
TWI220336B (en) * 2003-07-28 2004-08-11 Design Technology Inc G Compression rate promotion method of adaptive differential PCM technique
US7996234B2 (en) * 2003-08-26 2011-08-09 Akikaze Technologies, Llc Method and apparatus for adaptive variable bit rate audio encoding
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
WO2005027096A1 (en) * 2003-09-15 2005-03-24 Zakrytoe Aktsionernoe Obschestvo Intel Method and apparatus for encoding audio
SG120118A1 (en) * 2003-09-15 2006-03-28 St Microelectronics Asia A device and process for encoding audio data
US20050083808A1 (en) * 2003-09-18 2005-04-21 Anderson Hans C. Audio player with CD mechanism
US7349842B2 (en) * 2003-09-29 2008-03-25 Sony Corporation Rate-distortion control scheme in audio encoding
US7325023B2 (en) * 2003-09-29 2008-01-29 Sony Corporation Method of making a window type decision based on MDCT data in audio encoding
US7283968B2 (en) 2003-09-29 2007-10-16 Sony Corporation Method for grouping short windows in audio encoding
US7426462B2 (en) * 2003-09-29 2008-09-16 Sony Corporation Fast codebook selection method in audio encoding
DE602004030594D1 (de) * 2003-10-07 2011-01-27 Panasonic Corp Verfahren zur entscheidung der zeitgrenze zur codierung der spektro-hülle und frequenzauflösung
TWI226035B (en) * 2003-10-16 2005-01-01 Elan Microelectronics Corp Method and system improving step adaptation of ADPCM voice coding
RU2374703C2 (ru) * 2003-10-30 2009-11-27 Конинклейке Филипс Электроникс Н.В. Кодирование или декодирование аудиосигнала
KR20050050322A (ko) * 2003-11-25 2005-05-31 삼성전자주식회사 직교주파수다중화방식의 이동통신시스템에서 적응변조 방법
KR100571824B1 (ko) * 2003-11-26 2006-04-17 삼성전자주식회사 부가정보 삽입된 mpeg-4 오디오 bsac부호화/복호화 방법 및 장치
FR2867649A1 (fr) * 2003-12-10 2005-09-16 France Telecom Procede de codage multiple optimise
WO2005057550A1 (ja) * 2003-12-15 2005-06-23 Matsushita Electric Industrial Co., Ltd. 音声圧縮伸張装置
US7725324B2 (en) * 2003-12-19 2010-05-25 Telefonaktiebolaget Lm Ericsson (Publ) Constrained filter encoding of polyphonic signals
SE527670C2 (sv) * 2003-12-19 2006-05-09 Ericsson Telefon Ab L M Naturtrogenhetsoptimerad kodning med variabel ramlängd
US7809579B2 (en) * 2003-12-19 2010-10-05 Telefonaktiebolaget Lm Ericsson (Publ) Fidelity-optimized variable frame length encoding
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
JP2005217486A (ja) * 2004-01-27 2005-08-11 Matsushita Electric Ind Co Ltd ストリーム復号装置
DE102004009949B4 (de) * 2004-03-01 2006-03-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ermitteln eines Schätzwertes
US20090299756A1 (en) * 2004-03-01 2009-12-03 Dolby Laboratories Licensing Corporation Ratio of speech to non-speech audio such as for elderly or hearing-impaired listeners
CA2992097C (en) 2004-03-01 2018-09-11 Dolby Laboratories Licensing Corporation Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
US7272567B2 (en) * 2004-03-25 2007-09-18 Zoran Fejzo Scalable lossless audio codec and authoring tool
TWI231656B (en) * 2004-04-08 2005-04-21 Univ Nat Chiao Tung Fast bit allocation algorithm for audio coding
US8032360B2 (en) * 2004-05-13 2011-10-04 Broadcom Corporation System and method for high-quality variable speed playback of audio-visual media
US7512536B2 (en) * 2004-05-14 2009-03-31 Texas Instruments Incorporated Efficient filter bank computation for audio coding
ATE387750T1 (de) * 2004-05-28 2008-03-15 Tc Electronic As Impulsbreitenmodulatorsystem
DE602004024773D1 (de) * 2004-06-10 2010-02-04 Panasonic Corp System und Verfahren für Laufzeit-Rekonfiguration
WO2005124722A2 (en) * 2004-06-12 2005-12-29 Spl Development, Inc. Aural rehabilitation system and method
KR100634506B1 (ko) * 2004-06-25 2006-10-16 삼성전자주식회사 저비트율 부호화/복호화 방법 및 장치
KR100997298B1 (ko) * 2004-06-27 2010-11-29 애플 인크. 멀티-패스 비디오 인코딩 방법
US20050286443A1 (en) * 2004-06-29 2005-12-29 Octiv, Inc. Conferencing system
US20050285935A1 (en) * 2004-06-29 2005-12-29 Octiv, Inc. Personal conferencing node
US8843378B2 (en) * 2004-06-30 2014-09-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-channel synthesizer and method for generating a multi-channel output signal
KR100773539B1 (ko) * 2004-07-14 2007-11-05 삼성전자주식회사 멀티채널 오디오 데이터 부호화/복호화 방법 및 장치
US20060015329A1 (en) * 2004-07-19 2006-01-19 Chu Wai C Apparatus and method for audio coding
US7391434B2 (en) * 2004-07-27 2008-06-24 The Directv Group, Inc. Video bit stream test
US7706415B2 (en) * 2004-07-29 2010-04-27 Microsoft Corporation Packet multiplexing multi-channel audio
US7508947B2 (en) * 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
KR100608062B1 (ko) * 2004-08-04 2006-08-02 삼성전자주식회사 오디오 데이터의 고주파수 복원 방법 및 그 장치
US7930184B2 (en) * 2004-08-04 2011-04-19 Dts, Inc. Multi-channel audio coding/decoding of random access points and transients
CN101010724B (zh) * 2004-08-27 2011-05-25 松下电器产业株式会社 音频编码器
US20070250308A1 (en) * 2004-08-31 2007-10-25 Koninklijke Philips Electronics, N.V. Method and device for transcoding
US7725313B2 (en) * 2004-09-13 2010-05-25 Ittiam Systems (P) Ltd. Method, system and apparatus for allocating bits in perceptual audio coders
US7895034B2 (en) 2004-09-17 2011-02-22 Digital Rise Technology Co., Ltd. Audio encoding system
US7630902B2 (en) * 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
CN101046963B (zh) * 2004-09-17 2011-03-23 广州广晟数码技术有限公司 解码经编码的音频数据流的方法
JP4809234B2 (ja) * 2004-09-17 2011-11-09 パナソニック株式会社 オーディオ符号化装置、復号化装置、方法、及びプログラム
US7937271B2 (en) * 2004-09-17 2011-05-03 Digital Rise Technology Co., Ltd. Audio decoding using variable-length codebook application ranges
JP4555299B2 (ja) * 2004-09-28 2010-09-29 パナソニック株式会社 スケーラブル符号化装置およびスケーラブル符号化方法
JP4892184B2 (ja) * 2004-10-14 2012-03-07 パナソニック株式会社 音響信号符号化装置及び音響信号復号装置
US7061405B2 (en) * 2004-10-15 2006-06-13 Yazaki North America, Inc. Device and method for interfacing video devices over a fiber optic link
JP4815780B2 (ja) * 2004-10-20 2011-11-16 ヤマハ株式会社 オーバーサンプリングシステム、デコードlsi、およびオーバーサンプリング方法
US8204261B2 (en) * 2004-10-20 2012-06-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Diffuse sound shaping for BCC schemes and the like
US7720230B2 (en) * 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
SE0402651D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods for interpolation and parameter signalling
JP5017121B2 (ja) 2004-11-30 2012-09-05 アギア システムズ インコーポレーテッド 外部的に供給されるダウンミックスとの空間オーディオのパラメトリック・コーディングの同期化
US7787631B2 (en) * 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
EP1817767B1 (en) * 2004-11-30 2015-11-11 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
CN1938759A (zh) * 2004-12-22 2007-03-28 松下电器产业株式会社 Mpeg音频解码方法
US7903824B2 (en) * 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
WO2006075079A1 (fr) * 2005-01-14 2006-07-20 France Telecom Procede d’encodage de pistes audio d’un contenu multimedia destine a une diffusion sur terminaux mobiles
US7208372B2 (en) * 2005-01-19 2007-04-24 Sharp Laboratories Of America, Inc. Non-volatile memory resistor cell with nanotip electrode
KR100707177B1 (ko) * 2005-01-19 2007-04-13 삼성전자주식회사 디지털 신호 부호화/복호화 방법 및 장치
KR100765747B1 (ko) * 2005-01-22 2007-10-15 삼성전자주식회사 트리 구조 벡터 양자화를 이용한 스케일러블 음성 부호화장치
CA2596341C (en) * 2005-01-31 2013-12-03 Sonorit Aps Method for concatenating frames in communication system
US7672742B2 (en) * 2005-02-16 2010-03-02 Adaptec, Inc. Method and system for reducing audio latency
EP1851866B1 (en) * 2005-02-23 2011-08-17 Telefonaktiebolaget LM Ericsson (publ) Adaptive bit allocation for multi-channel audio encoding
US9626973B2 (en) * 2005-02-23 2017-04-18 Telefonaktiebolaget L M Ericsson (Publ) Adaptive bit allocation for multi-channel audio encoding
DE102005010057A1 (de) * 2005-03-04 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
JP4988717B2 (ja) 2005-05-26 2012-08-01 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及び装置
US8170883B2 (en) * 2005-05-26 2012-05-01 Lg Electronics Inc. Method and apparatus for embedding spatial information and reproducing embedded signal for an audio signal
WO2006126843A2 (en) 2005-05-26 2006-11-30 Lg Electronics Inc. Method and apparatus for decoding audio signal
CN101185117B (zh) * 2005-05-26 2012-09-26 Lg电子株式会社 解码音频信号的方法和装置
US7548853B2 (en) * 2005-06-17 2009-06-16 Shmunk Dmitry V Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
KR100718132B1 (ko) * 2005-06-24 2007-05-14 삼성전자주식회사 오디오 신호의 비트스트림 생성 방법 및 장치, 그를 이용한부호화/복호화 방법 및 장치
EP1908057B1 (en) * 2005-06-30 2012-06-20 LG Electronics Inc. Method and apparatus for decoding an audio signal
CA2613731C (en) * 2005-06-30 2012-09-18 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US8494667B2 (en) * 2005-06-30 2013-07-23 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US7830921B2 (en) 2005-07-11 2010-11-09 Lg Electronics Inc. Apparatus and method of encoding and decoding audio signal
US7599840B2 (en) 2005-07-15 2009-10-06 Microsoft Corporation Selectively using multiple entropy models in adaptive coding and decoding
US7630882B2 (en) * 2005-07-15 2009-12-08 Microsoft Corporation Frequency segmentation to obtain bands for efficient coding of digital media
US8225392B2 (en) * 2005-07-15 2012-07-17 Microsoft Corporation Immunizing HTML browsers and extensions from known vulnerabilities
US7693709B2 (en) * 2005-07-15 2010-04-06 Microsoft Corporation Reordering coefficients for waveform coding or decoding
US7562021B2 (en) * 2005-07-15 2009-07-14 Microsoft Corporation Modification of codewords in dictionary used for efficient coding of digital media spectral data
US7684981B2 (en) * 2005-07-15 2010-03-23 Microsoft Corporation Prediction of spectral coefficients in waveform coding and decoding
US7539612B2 (en) 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
KR100851970B1 (ko) * 2005-07-15 2008-08-12 삼성전자주식회사 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
CN1909066B (zh) * 2005-08-03 2011-02-09 昆山杰得微电子有限公司 音频编码码量控制和调整的方法
WO2007019533A2 (en) * 2005-08-04 2007-02-15 R2Di, Llc System and methods for aligning capture and playback clocks in a wireless digital audio distribution system
US7565018B2 (en) 2005-08-12 2009-07-21 Microsoft Corporation Adaptive coding and decoding of wide-range coefficients
US7933337B2 (en) 2005-08-12 2011-04-26 Microsoft Corporation Prediction of transform coefficients for image compression
JP4859925B2 (ja) * 2005-08-30 2012-01-25 エルジー エレクトロニクス インコーポレイティド オーディオ信号デコーディング方法及びその装置
JP4568363B2 (ja) * 2005-08-30 2010-10-27 エルジー エレクトロニクス インコーポレイティド オーディオ信号デコーディング方法及びその装置
US7788107B2 (en) * 2005-08-30 2010-08-31 Lg Electronics Inc. Method for decoding an audio signal
KR20070025905A (ko) * 2005-08-30 2007-03-08 엘지전자 주식회사 멀티채널 오디오 코딩에서 효과적인 샘플링 주파수비트스트림 구성방법
ATE455348T1 (de) * 2005-08-30 2010-01-15 Lg Electronics Inc Vorrichtung und verfahren zur dekodierung eines audiosignals
JP5478826B2 (ja) * 2005-10-03 2014-04-23 シャープ株式会社 表示装置
CN101283249B (zh) * 2005-10-05 2013-12-04 Lg电子株式会社 信号处理的方法和装置以及编码和解码方法及其装置
KR100878833B1 (ko) * 2005-10-05 2009-01-14 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
US7751485B2 (en) * 2005-10-05 2010-07-06 Lg Electronics Inc. Signal processing using pilot based coding
US7672379B2 (en) * 2005-10-05 2010-03-02 Lg Electronics Inc. Audio signal processing, encoding, and decoding
US7696907B2 (en) * 2005-10-05 2010-04-13 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7646319B2 (en) * 2005-10-05 2010-01-12 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
DE102005048581B4 (de) * 2005-10-06 2022-06-09 Robert Bosch Gmbh Teilnehmerschnittstelle zwischen einem FlexRay-Kommunikationsbaustein und einem FlexRay-Teilnehmer und Verfahren zur Übertragung von Botschaften über eine solche Schnittstelle
US8055500B2 (en) * 2005-10-12 2011-11-08 Samsung Electronics Co., Ltd. Method, medium, and apparatus encoding/decoding audio data with extension data
KR20080047443A (ko) * 2005-10-14 2008-05-28 마츠시타 덴끼 산교 가부시키가이샤 변환 부호화 장치 및 변환 부호화 방법
US20070094035A1 (en) * 2005-10-21 2007-04-26 Nokia Corporation Audio coding
US7653533B2 (en) * 2005-10-24 2010-01-26 Lg Electronics Inc. Removing time delays in signal paths
TWI307037B (en) * 2005-10-31 2009-03-01 Holtek Semiconductor Inc Audio calculation method
WO2007063625A1 (ja) * 2005-12-02 2007-06-07 Matsushita Electric Industrial Co., Ltd. 信号処理装置および信号処理方法
US8345890B2 (en) 2006-01-05 2013-01-01 Audience, Inc. System and method for utilizing inter-microphone level differences for speech enhancement
US8332216B2 (en) * 2006-01-12 2012-12-11 Stmicroelectronics Asia Pacific Pte., Ltd. System and method for low power stereo perceptual audio coding using adaptive masking threshold
US7752053B2 (en) 2006-01-13 2010-07-06 Lg Electronics Inc. Audio signal processing using pilot based coding
US8411869B2 (en) 2006-01-19 2013-04-02 Lg Electronics Inc. Method and apparatus for processing a media signal
US7831434B2 (en) 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
US7953604B2 (en) * 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
US8190425B2 (en) * 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
US8204252B1 (en) 2006-10-10 2012-06-19 Audience, Inc. System and method for providing close microphone adaptive array processing
US8194880B2 (en) 2006-01-30 2012-06-05 Audience, Inc. System and method for utilizing omni-directional microphones for speech enhancement
US9185487B2 (en) * 2006-01-30 2015-11-10 Audience, Inc. System and method for providing noise suppression utilizing null processing noise subtraction
US8744844B2 (en) 2007-07-06 2014-06-03 Audience, Inc. System and method for adaptive intelligent noise suppression
KR100878816B1 (ko) 2006-02-07 2009-01-14 엘지전자 주식회사 부호화/복호화 장치 및 방법
JP2007249075A (ja) * 2006-03-17 2007-09-27 Toshiba Corp 音声再生装置および高域補間処理方法
JP4193865B2 (ja) * 2006-04-27 2008-12-10 ソニー株式会社 デジタル信号切換え装置及びその切換え方法
ATE527833T1 (de) * 2006-05-04 2011-10-15 Lg Electronics Inc Verbesserung von stereo-audiosignalen mittels neuabmischung
DE102006022346B4 (de) * 2006-05-12 2008-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Informationssignalcodierung
US8849231B1 (en) 2007-08-08 2014-09-30 Audience, Inc. System and method for adaptive power control
US8204253B1 (en) 2008-06-30 2012-06-19 Audience, Inc. Self calibration of audio device
US8949120B1 (en) 2006-05-25 2015-02-03 Audience, Inc. Adaptive noise cancelation
US8934641B2 (en) * 2006-05-25 2015-01-13 Audience, Inc. Systems and methods for reconstructing decomposed audio signals
US8150065B2 (en) * 2006-05-25 2012-04-03 Audience, Inc. System and method for processing an audio signal
US8326609B2 (en) * 2006-06-29 2012-12-04 Lg Electronics Inc. Method and apparatus for an audio signal processing
US8682652B2 (en) 2006-06-30 2014-03-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
US8818818B2 (en) * 2006-07-07 2014-08-26 Nec Corporation Audio encoding device, method, and program which controls the number of time groups in a frame using three successive time group energies
US7797155B2 (en) * 2006-07-26 2010-09-14 Ittiam Systems (P) Ltd. System and method for measurement of perceivable quantization noise in perceptual audio coders
US7907579B2 (en) * 2006-08-15 2011-03-15 Cisco Technology, Inc. WiFi geolocation from carrier-managed system geolocation of a dual mode device
CN100531398C (zh) * 2006-08-23 2009-08-19 中兴通讯股份有限公司 一种移动多媒体广播系统的多音轨实现方法
US7882462B2 (en) 2006-09-11 2011-02-01 The Mathworks, Inc. Hardware definition language generation for frame-based processing
US7461106B2 (en) 2006-09-12 2008-12-02 Motorola, Inc. Apparatus and method for low complexity combinatorial coding of signals
JP4823001B2 (ja) * 2006-09-27 2011-11-24 富士通セミコンダクター株式会社 オーディオ符号化装置
US20100040135A1 (en) * 2006-09-29 2010-02-18 Lg Electronics Inc. Apparatus for processing mix signal and method thereof
EP2084901B1 (en) 2006-10-12 2015-12-09 LG Electronics Inc. Apparatus for processing a mix signal and method thereof
EP2337380B8 (en) * 2006-10-13 2020-02-26 Auro Technologies NV A method and encoder for combining digital data sets, a decoding method and decoder for such combined digital data sets and a record carrier for storing such combined digital data sets
EP1918909B1 (en) * 2006-11-03 2010-07-07 Psytechnics Ltd Sampling error compensation
US7616568B2 (en) * 2006-11-06 2009-11-10 Ixia Generic packet generation
EP2092516A4 (en) * 2006-11-15 2010-01-13 Lg Electronics Inc METHOD AND APPARATUS FOR AUDIO SIGNAL DECODING
JP5103880B2 (ja) * 2006-11-24 2012-12-19 富士通株式会社 復号化装置および復号化方法
US8265941B2 (en) 2006-12-07 2012-09-11 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
KR101111520B1 (ko) * 2006-12-07 2012-05-24 엘지전자 주식회사 오디오 처리 방법 및 장치
US7508326B2 (en) * 2006-12-21 2009-03-24 Sigmatel, Inc. Automatically disabling input/output signal processing based on the required multimedia format
US8255226B2 (en) * 2006-12-22 2012-08-28 Broadcom Corporation Efficient background audio encoding in a real time system
FR2911020B1 (fr) * 2006-12-28 2009-05-01 Actimagine Soc Par Actions Sim Procede et dispositif de codage audio
FR2911031B1 (fr) * 2006-12-28 2009-04-10 Actimagine Soc Par Actions Sim Procede et dispositif de codage audio
MX2009007412A (es) * 2007-01-10 2009-07-17 Koninkl Philips Electronics Nv Decodificador de audio.
US8275611B2 (en) * 2007-01-18 2012-09-25 Stmicroelectronics Asia Pacific Pte., Ltd. Adaptive noise suppression for digital speech signals
KR20090115200A (ko) * 2007-02-13 2009-11-04 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
US20100121470A1 (en) * 2007-02-13 2010-05-13 Lg Electronics Inc. Method and an apparatus for processing an audio signal
JP5254983B2 (ja) * 2007-02-14 2013-08-07 エルジー エレクトロニクス インコーポレイティド オブジェクトベースオーディオ信号の符号化及び復号化方法並びにその装置
US8184710B2 (en) 2007-02-21 2012-05-22 Microsoft Corporation Adaptive truncation of transform coefficient data in a transform-based digital media codec
US8259926B1 (en) 2007-02-23 2012-09-04 Audience, Inc. System and method for 2-channel and 3-channel acoustic echo cancellation
KR101149449B1 (ko) * 2007-03-20 2012-05-25 삼성전자주식회사 오디오 신호의 인코딩 방법 및 장치, 그리고 오디오 신호의디코딩 방법 및 장치
CN101272209B (zh) * 2007-03-21 2012-04-25 大唐移动通信设备有限公司 一种对多通道复用数据进行滤波的方法及设备
US9466307B1 (en) 2007-05-22 2016-10-11 Digimarc Corporation Robust spectral encoding and decoding methods
WO2009004227A1 (fr) * 2007-06-15 2009-01-08 France Telecom Codage de signaux audionumériques
US7761290B2 (en) 2007-06-15 2010-07-20 Microsoft Corporation Flexible frequency and time partitioning in perceptual transform coding of audio
US8046214B2 (en) 2007-06-22 2011-10-25 Microsoft Corporation Low complexity decoder for complex transform coding of multi-channel sound
US7944847B2 (en) * 2007-06-25 2011-05-17 Efj, Inc. Voting comparator method, apparatus, and system using a limited number of digital signal processor modules to process a larger number of analog audio streams without affecting the quality of the voted audio stream
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
US8189766B1 (en) 2007-07-26 2012-05-29 Audience, Inc. System and method for blind subband acoustic echo cancellation postfiltering
US8285554B2 (en) * 2007-07-27 2012-10-09 Dsp Group Limited Method and system for dynamic aliasing suppression
KR101403340B1 (ko) * 2007-08-02 2014-06-09 삼성전자주식회사 변환 부호화 방법 및 장치
US8521540B2 (en) * 2007-08-17 2013-08-27 Qualcomm Incorporated Encoding and/or decoding digital signals using a permutation value
US8576096B2 (en) * 2007-10-11 2013-11-05 Motorola Mobility Llc Apparatus and method for low complexity combinatorial coding of signals
US8209190B2 (en) * 2007-10-25 2012-06-26 Motorola Mobility, Inc. Method and apparatus for generating an enhancement layer within an audio coding system
US8249883B2 (en) 2007-10-26 2012-08-21 Microsoft Corporation Channel extension coding for multi-channel source
GB2454208A (en) 2007-10-31 2009-05-06 Cambridge Silicon Radio Ltd Compression using a perceptual model and a signal-to-mask ratio (SMR) parameter tuned based on target bitrate and previously encoded data
US8199927B1 (en) 2007-10-31 2012-06-12 ClearOnce Communications, Inc. Conferencing system implementing echo cancellation and push-to-talk microphone detection using two-stage frequency filter
JP2011507013A (ja) * 2007-12-06 2011-03-03 エルジー エレクトロニクス インコーポレイティド オーディオ信号処理方法及び装置
US9275648B2 (en) * 2007-12-18 2016-03-01 Lg Electronics Inc. Method and apparatus for processing audio signal using spectral data of audio signal
US8239210B2 (en) * 2007-12-19 2012-08-07 Dts, Inc. Lossless multi-channel audio codec
US20090164223A1 (en) * 2007-12-19 2009-06-25 Dts, Inc. Lossless multi-channel audio codec
US8143620B1 (en) 2007-12-21 2012-03-27 Audience, Inc. System and method for adaptive classification of audio sources
US8180064B1 (en) 2007-12-21 2012-05-15 Audience, Inc. System and method for providing voice equalization
JP5153791B2 (ja) * 2007-12-28 2013-02-27 パナソニック株式会社 ステレオ音声復号装置、ステレオ音声符号化装置、および消失フレーム補償方法
WO2009096898A1 (en) * 2008-01-31 2009-08-06 Agency For Science, Technology And Research Method and device of bitrate distribution/truncation for scalable audio coding
KR101441898B1 (ko) * 2008-02-01 2014-09-23 삼성전자주식회사 주파수 부호화 방법 및 장치와 주파수 복호화 방법 및 장치
US20090210222A1 (en) * 2008-02-15 2009-08-20 Microsoft Corporation Multi-Channel Hole-Filling For Audio Compression
US8194882B2 (en) 2008-02-29 2012-06-05 Audience, Inc. System and method for providing single microphone noise suppression fallback
US20090234642A1 (en) * 2008-03-13 2009-09-17 Motorola, Inc. Method and Apparatus for Low Complexity Combinatorial Coding of Signals
US8355511B2 (en) 2008-03-18 2013-01-15 Audience, Inc. System and method for envelope-based acoustic echo cancellation
US8639519B2 (en) * 2008-04-09 2014-01-28 Motorola Mobility Llc Method and apparatus for selective signal coding based on core encoder performance
KR101599875B1 (ko) * 2008-04-17 2016-03-14 삼성전자주식회사 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 부호화 방법 및 장치, 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 복호화 방법 및 장치
KR20090110242A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 신호를 처리하는 방법 및 장치
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
KR101227876B1 (ko) * 2008-04-18 2013-01-31 돌비 레버러토리즈 라이쎈싱 코오포레이션 서라운드 경험에 최소한의 영향을 미치는 멀티-채널 오디오에서 음성 가청도를 유지하는 방법과 장치
US8179974B2 (en) 2008-05-02 2012-05-15 Microsoft Corporation Multi-level representation of reordered transform coefficients
US8630848B2 (en) 2008-05-30 2014-01-14 Digital Rise Technology Co., Ltd. Audio signal transient detection
CN101605017A (zh) * 2008-06-12 2009-12-16 华为技术有限公司 编码比特的分配方法和装置
US8909361B2 (en) * 2008-06-19 2014-12-09 Broadcom Corporation Method and system for processing high quality audio in a hardware audio codec for audio transmission
JP5366104B2 (ja) * 2008-06-26 2013-12-11 オランジュ マルチチャネル・オーディオ信号の空間合成
US8521530B1 (en) 2008-06-30 2013-08-27 Audience, Inc. System and method for enhancing a monaural audio signal
US8774423B1 (en) 2008-06-30 2014-07-08 Audience, Inc. System and method for controlling adaptivity of signal modification using a phantom coefficient
US8380523B2 (en) * 2008-07-07 2013-02-19 Lg Electronics Inc. Method and an apparatus for processing an audio signal
CA2729665C (en) * 2008-07-10 2016-11-22 Voiceage Corporation Variable bit rate lpc filter quantizing and inverse quantizing device and method
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
TWI427619B (zh) * 2008-07-21 2014-02-21 Realtek Semiconductor Corp 音效混波裝置與方法
US8406307B2 (en) 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
CN102177426B (zh) * 2008-10-08 2014-11-05 弗兰霍菲尔运输应用研究公司 多分辨率切换音频编码/解码方案
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8121830B2 (en) * 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US9947340B2 (en) 2008-12-10 2018-04-17 Skype Regeneration of wideband speech
GB0822537D0 (en) 2008-12-10 2009-01-14 Skype Ltd Regeneration of wideband speech
GB2466201B (en) * 2008-12-10 2012-07-11 Skype Ltd Regeneration of wideband speech
AT509439B1 (de) * 2008-12-19 2013-05-15 Siemens Entpr Communications Verfahren und mittel zur skalierbaren verbesserung der qualität eines signalcodierverfahrens
US8219408B2 (en) * 2008-12-29 2012-07-10 Motorola Mobility, Inc. Audio signal decoder and method for producing a scaled reconstructed audio signal
US8140342B2 (en) * 2008-12-29 2012-03-20 Motorola Mobility, Inc. Selective scaling mask computation based on peak detection
US8175888B2 (en) * 2008-12-29 2012-05-08 Motorola Mobility, Inc. Enhanced layered gain factor balancing within a multiple-channel audio coding system
US8200496B2 (en) * 2008-12-29 2012-06-12 Motorola Mobility, Inc. Audio signal decoder and method for producing a scaled reconstructed audio signal
CA2760677C (en) 2009-05-01 2018-07-24 David Henry Harkness Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
JP5539992B2 (ja) * 2009-08-20 2014-07-02 トムソン ライセンシング レート制御装置、レート制御方法及びレート制御プログラム
GB0915766D0 (en) * 2009-09-09 2009-10-07 Apt Licensing Ltd Apparatus and method for multidimensional adaptive audio coding
EP2323130A1 (en) * 2009-11-12 2011-05-18 Koninklijke Philips Electronics N.V. Parametric encoding and decoding
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
US8694947B1 (en) 2009-12-09 2014-04-08 The Mathworks, Inc. Resource sharing workflows within executable graphical models
US9008329B1 (en) 2010-01-26 2015-04-14 Audience, Inc. Noise reduction using multi-feature cluster tracker
EP2367169A3 (en) * 2010-01-26 2014-11-26 Yamaha Corporation Masker sound generation apparatus and program
US8718290B2 (en) 2010-01-26 2014-05-06 Audience, Inc. Adaptive noise reduction using level cues
DE102010006573B4 (de) * 2010-02-02 2012-03-15 Rohde & Schwarz Gmbh & Co. Kg IQ-Datenkompression für Breitbandanwendungen
EP2365630B1 (en) * 2010-03-02 2016-06-08 Harman Becker Automotive Systems GmbH Efficient sub-band adaptive fir-filtering
US8428936B2 (en) * 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
US8374858B2 (en) * 2010-03-09 2013-02-12 Dts, Inc. Scalable lossless audio codec and authoring tool
CN102222505B (zh) * 2010-04-13 2012-12-19 中兴通讯股份有限公司 可分层音频编解码方法系统及瞬态信号可分层编解码方法
JP5850216B2 (ja) * 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
US9378754B1 (en) 2010-04-28 2016-06-28 Knowles Electronics, Llc Adaptive spatial classifier for multi-microphone systems
US20120029926A1 (en) 2010-07-30 2012-02-02 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for dependent-mode coding of audio signals
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
US9208792B2 (en) 2010-08-17 2015-12-08 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for noise injection
KR102564590B1 (ko) 2010-09-16 2023-08-09 돌비 인터네셔널 에이비 교차 곱 강화된 서브밴드 블록 기반 고조파 전위
CN103262158B (zh) * 2010-09-28 2015-07-29 华为技术有限公司 对解码的多声道音频信号或立体声信号进行后处理的装置和方法
EP2450880A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Data structure for Higher Order Ambisonics audio data
JP5609591B2 (ja) * 2010-11-30 2014-10-22 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
US9436441B1 (en) 2010-12-08 2016-09-06 The Mathworks, Inc. Systems and methods for hardware resource sharing
CN103370705B (zh) * 2011-01-05 2018-01-02 谷歌公司 用于便利文本输入的方法和系统
CN103534754B (zh) 2011-02-14 2015-09-30 弗兰霍菲尔运输应用研究公司 在不活动阶段期间利用噪声合成的音频编解码器
SG192746A1 (en) * 2011-02-14 2013-09-30 Fraunhofer Ges Forschung Apparatus and method for processing a decoded audio signal in a spectral domain
RU2571561C2 (ru) * 2011-04-05 2015-12-20 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования, способ декодирования, кодер, декодер, программа и носитель записи
US9881625B2 (en) * 2011-04-20 2018-01-30 Panasonic Intellectual Property Corporation Of America Device and method for execution of huffman coding
GB2490879B (en) * 2011-05-12 2018-12-26 Qualcomm Technologies Int Ltd Hybrid coded audio data streaming apparatus and method
KR102053900B1 (ko) 2011-05-13 2019-12-09 삼성전자주식회사 노이즈 필링방법, 오디오 복호화방법 및 장치, 그 기록매체 및 이를 채용하는 멀티미디어 기기
US8731949B2 (en) * 2011-06-30 2014-05-20 Zte Corporation Method and system for audio encoding and decoding and method for estimating noise level
US9355000B1 (en) 2011-08-23 2016-05-31 The Mathworks, Inc. Model level power consumption optimization in hardware description generation
US8774308B2 (en) * 2011-11-01 2014-07-08 At&T Intellectual Property I, L.P. Method and apparatus for improving transmission of data on a bandwidth mismatched channel
US8781023B2 (en) * 2011-11-01 2014-07-15 At&T Intellectual Property I, L.P. Method and apparatus for improving transmission of data on a bandwidth expanded channel
FR2984579B1 (fr) * 2011-12-14 2013-12-13 Inst Polytechnique Grenoble Procede de traitement numerique sur un ensemble de pistes audio avant mixage
EP2702587B1 (en) * 2012-04-05 2015-04-01 Huawei Technologies Co., Ltd. Method for inter-channel difference estimation and spatial audio coding device
JP5998603B2 (ja) * 2012-04-18 2016-09-28 ソニー株式会社 音検出装置、音検出方法、音特徴量検出装置、音特徴量検出方法、音区間検出装置、音区間検出方法およびプログラム
TWI505262B (zh) * 2012-05-15 2015-10-21 Dolby Int Ab 具多重子流之多通道音頻信號的有效編碼與解碼
JP6174129B2 (ja) * 2012-05-18 2017-08-02 ドルビー ラボラトリーズ ライセンシング コーポレイション パラメトリックオーディオコーダに関連するリバーシブルダイナミックレンジ制御情報を維持するシステム
GB201210373D0 (en) * 2012-06-12 2012-07-25 Meridian Audio Ltd Doubly compatible lossless audio sandwidth extension
CN102752058B (zh) * 2012-06-16 2013-10-16 天地融科技股份有限公司 音频数据传输系统、音频数据传输装置及电子签名工具
TWI586150B (zh) * 2012-06-29 2017-06-01 新力股份有限公司 影像處理裝置及非暫態電腦可讀儲存媒體
JP6065452B2 (ja) 2012-08-14 2017-01-25 富士通株式会社 データ埋め込み装置及び方法、データ抽出装置及び方法、並びにプログラム
US9129600B2 (en) 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
JP5447628B1 (ja) * 2012-09-28 2014-03-19 パナソニック株式会社 無線通信装置及び通信端末
KR102200643B1 (ko) 2012-12-13 2021-01-08 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 음성 음향 부호화 장치, 음성 음향 복호 장치, 음성 음향 부호화 방법 및 음성 음향 복호 방법
CA3076775C (en) 2013-01-08 2020-10-27 Dolby International Ab Model based prediction in a critically sampled filterbank
JP6179122B2 (ja) * 2013-02-20 2017-08-16 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム
US9093064B2 (en) 2013-03-11 2015-07-28 The Nielsen Company (Us), Llc Down-mixing compensation for audio watermarking
WO2014164361A1 (en) 2013-03-13 2014-10-09 Dts Llc System and methods for processing stereo audio content
JP6146069B2 (ja) * 2013-03-18 2017-06-14 富士通株式会社 データ埋め込み装置及び方法、データ抽出装置及び方法、並びにプログラム
US9940942B2 (en) 2013-04-05 2018-04-10 Dolby International Ab Advanced quantizer
EP2800401A1 (en) 2013-04-29 2014-11-05 Thomson Licensing Method and Apparatus for compressing and decompressing a Higher Order Ambisonics representation
US10499176B2 (en) 2013-05-29 2019-12-03 Qualcomm Incorporated Identifying codebooks to use when coding spatial components of a sound field
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
EP3046105B1 (en) * 2013-09-13 2020-01-15 Samsung Electronics Co., Ltd. Lossless coding method
CN105637581B (zh) * 2013-10-21 2019-09-20 杜比国际公司 用于音频信号的参数重建的去相关器结构
WO2015060654A1 (ko) * 2013-10-22 2015-04-30 한국전자통신연구원 오디오 신호의 필터 생성 방법 및 이를 위한 파라메터화 장치
US10261760B1 (en) 2013-12-05 2019-04-16 The Mathworks, Inc. Systems and methods for tracing performance information from hardware realizations to models
US10078717B1 (en) 2013-12-05 2018-09-18 The Mathworks, Inc. Systems and methods for estimating performance characteristics of hardware implementations of executable models
AU2014371411A1 (en) 2013-12-27 2016-06-23 Sony Corporation Decoding device, method, and program
US8767996B1 (en) 2014-01-06 2014-07-01 Alpine Electronics of Silicon Valley, Inc. Methods and devices for reproducing audio signals with a haptic apparatus on acoustic headphones
US10986454B2 (en) 2014-01-06 2021-04-20 Alpine Electronics of Silicon Valley, Inc. Sound normalization and frequency remapping using haptic feedback
US8977376B1 (en) 2014-01-06 2015-03-10 Alpine Electronics of Silicon Valley, Inc. Reproducing audio signals with a haptic apparatus on acoustic headphones and their calibration and measurement
PT3111560T (pt) * 2014-02-27 2021-07-08 Ericsson Telefon Ab L M Método e aparelho para indexação e desindexação de quantificação vetorial em pirâmide de vetores de amostra de áudio/vídeo
US9564136B2 (en) * 2014-03-06 2017-02-07 Dts, Inc. Post-encoding bitrate reduction of multiple object audio
KR102201027B1 (ko) 2014-03-24 2021-01-11 돌비 인터네셔널 에이비 고차 앰비소닉스 신호에 동적 범위 압축을 적용하는 방법 및 디바이스
US9685164B2 (en) * 2014-03-31 2017-06-20 Qualcomm Incorporated Systems and methods of switching coding technologies at a device
FR3020732A1 (fr) * 2014-04-30 2015-11-06 Orange Correction de perte de trame perfectionnee avec information de voisement
US9997171B2 (en) * 2014-05-01 2018-06-12 Gn Hearing A/S Multi-band signal processor for digital audio signals
EP4002359A1 (en) * 2014-06-10 2022-05-25 MQA Limited Digital encapsulation of audio signals
JP6432180B2 (ja) * 2014-06-26 2018-12-05 ソニー株式会社 復号装置および方法、並びにプログラム
EP2960903A1 (en) * 2014-06-27 2015-12-30 Thomson Licensing Method and apparatus for determining for the compression of an HOA data frame representation a lowest integer number of bits required for representing non-differential gain values
US9922657B2 (en) * 2014-06-27 2018-03-20 Dolby Laboratories Licensing Corporation Method for determining for the compression of an HOA data frame representation a lowest integer number of bits required for representing non-differential gain values
EP2980795A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
EP2980794A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
EP2988300A1 (en) * 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices
JP6724782B2 (ja) * 2014-09-04 2020-07-15 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
US9978388B2 (en) 2014-09-12 2018-05-22 Knowles Electronics, Llc Systems and methods for restoration of speech components
EP3467827B1 (en) * 2014-10-01 2020-07-29 Dolby International AB Decoding an encoded audio signal using drc profiles
CN105632503B (zh) * 2014-10-28 2019-09-03 南宁富桂精密工业有限公司 信息隐藏方法及系统
US9659578B2 (en) * 2014-11-27 2017-05-23 Tata Consultancy Services Ltd. Computer implemented system and method for identifying significant speech frames within speech signals
CA2978075A1 (en) * 2015-02-27 2016-09-01 Auro Technologies Nv Encoding and decoding digital data sets
EP3067887A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
EP3067885A1 (en) * 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding a multi-channel signal
CN106161313A (zh) * 2015-03-30 2016-11-23 索尼公司 无线通信系统中的电子设备、无线通信系统和方法
US10043527B1 (en) * 2015-07-17 2018-08-07 Digimarc Corporation Human auditory system modeling with masking energy adaptation
AU2016312404B2 (en) * 2015-08-25 2020-11-26 Dolby International Ab Audio decoder and decoding method
CN109074813B (zh) * 2015-09-25 2020-04-03 杜比实验室特许公司 处理高清晰度音频数据
US10423733B1 (en) 2015-12-03 2019-09-24 The Mathworks, Inc. Systems and methods for sharing resources having different data types
KR101968456B1 (ko) 2016-01-26 2019-04-11 돌비 레버러토리즈 라이쎈싱 코오포레이션 적응형 양자화
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
US10770088B2 (en) * 2016-05-10 2020-09-08 Immersion Networks, Inc. Adaptive audio decoder system, method and article
US10699725B2 (en) * 2016-05-10 2020-06-30 Immersion Networks, Inc. Adaptive audio encoder system, method and article
US20170330575A1 (en) * 2016-05-10 2017-11-16 Immersion Services LLC Adaptive audio codec system, method and article
JP6763194B2 (ja) * 2016-05-10 2020-09-30 株式会社Jvcケンウッド 符号化装置、復号装置、通信システム
US10756755B2 (en) * 2016-05-10 2020-08-25 Immersion Networks, Inc. Adaptive audio codec system, method and article
CN109416913B (zh) * 2016-05-10 2024-03-15 易默森服务有限责任公司 自适应音频编解码系统、方法、装置及介质
CN105869648B (zh) * 2016-05-19 2019-11-22 日立楼宇技术(广州)有限公司 混音方法及装置
EP3472832A4 (en) 2016-06-17 2020-03-11 DTS, Inc. DISTANCE-BASED PANORAMIC USING NEAR / FAR FIELD RENDERING
US10375498B2 (en) 2016-11-16 2019-08-06 Dts, Inc. Graphical user interface for calibrating a surround sound system
JP6843992B2 (ja) * 2016-11-23 2021-03-17 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 相関分離フィルタの適応制御のための方法および装置
JP2018092012A (ja) * 2016-12-05 2018-06-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10362269B2 (en) * 2017-01-11 2019-07-23 Ringcentral, Inc. Systems and methods for determining one or more active speakers during an audio or video conference session
US10354667B2 (en) * 2017-03-22 2019-07-16 Immersion Networks, Inc. System and method for processing audio data
US10699721B2 (en) * 2017-04-25 2020-06-30 Dts, Inc. Encoding and decoding of digital audio signals using difference data
CN109427338B (zh) * 2017-08-23 2021-03-30 华为技术有限公司 立体声信号的编码方法和编码装置
US11227615B2 (en) * 2017-09-08 2022-01-18 Sony Corporation Sound processing apparatus and sound processing method
KR102622714B1 (ko) 2018-04-08 2024-01-08 디티에스, 인코포레이티드 앰비소닉 깊이 추출
CN115410583A (zh) 2018-04-11 2022-11-29 杜比实验室特许公司 基于机器学习的用于音频编码和解码的基于感知的损失函数
CN109243471B (zh) * 2018-09-26 2022-09-23 杭州联汇科技股份有限公司 一种快速编码广播用数字音频的方法
US10763885B2 (en) 2018-11-06 2020-09-01 Stmicroelectronics S.R.L. Method of error concealment, and associated device
CN111341303B (zh) * 2018-12-19 2023-10-31 北京猎户星空科技有限公司 一种声学模型的训练方法及装置、语音识别方法及装置
CN109831280A (zh) * 2019-02-28 2019-05-31 深圳市友杰智新科技有限公司 一种声波通讯方法、装置及可读存储介质
KR102687153B1 (ko) * 2019-04-22 2024-07-24 주식회사 쏠리드 통신 신호를 처리하는 방법 및 이를 이용하는 통신 노드
US11361772B2 (en) 2019-05-14 2022-06-14 Microsoft Technology Licensing, Llc Adaptive and fixed mapping for compression and decompression of audio data
US10681463B1 (en) * 2019-05-17 2020-06-09 Sonos, Inc. Wireless transmission to satellites for multichannel audio system
WO2020232631A1 (zh) * 2019-05-21 2020-11-26 深圳市汇顶科技股份有限公司 一种语音分频传输方法、源端、播放端、源端电路和播放端电路
JP7285967B2 (ja) 2019-05-31 2023-06-02 ディーティーエス・インコーポレイテッド フォービエイテッドオーディオレンダリング
CN110365342B (zh) * 2019-06-06 2023-05-12 中车青岛四方机车车辆股份有限公司 波形解码方法及装置
EP3751567B1 (en) * 2019-06-10 2022-01-26 Axis AB A method, a computer program, an encoder and a monitoring device
US11380343B2 (en) 2019-09-12 2022-07-05 Immersion Networks, Inc. Systems and methods for processing high frequency audio signal
GB2587196A (en) * 2019-09-13 2021-03-24 Nokia Technologies Oy Determination of spatial audio parameter encoding and associated decoding
CN112530444B (zh) * 2019-09-18 2023-10-03 华为技术有限公司 音频编码方法和装置
US20210224024A1 (en) * 2020-01-21 2021-07-22 Audiowise Technology Inc. Bluetooth audio system with low latency, and audio source and audio sink thereof
WO2021183916A1 (en) * 2020-03-13 2021-09-16 Immersion Networks, Inc. Loudness equalization system
CN111261194A (zh) * 2020-04-29 2020-06-09 浙江百应科技有限公司 一种基于pcm技术的音量分析方法
CN112037802B (zh) * 2020-05-08 2022-04-01 珠海市杰理科技股份有限公司 基于语音端点检测的音频编码方法及装置、设备、介质
CN111583942B (zh) * 2020-05-26 2023-06-13 腾讯科技(深圳)有限公司 语音会话的编码码率控制方法、装置和计算机设备
CN112187397B (zh) * 2020-09-11 2022-04-29 烽火通信科技股份有限公司 一种通用的多通道数据同步方法和装置
CN112885364B (zh) * 2021-01-21 2023-10-13 维沃移动通信有限公司 音频编码方法和解码方法、音频编码装置和解码装置
CN113485190B (zh) * 2021-07-13 2022-11-11 西安电子科技大学 一种多通道数据采集系统及采集方法
US20230154474A1 (en) * 2021-11-17 2023-05-18 Agora Lab, Inc. System and method for providing high quality audio communication over low bit rate connection
CN114299971A (zh) * 2021-12-30 2022-04-08 合肥讯飞数码科技有限公司 一种语音编码方法、语音解码方法和语音处理装置
CN115103286B (zh) * 2022-04-29 2024-09-27 北京瑞森新谱科技股份有限公司 一种asio低延时声学采集方法
WO2024012666A1 (en) * 2022-07-12 2024-01-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding ar/vr metadata with generic codebooks
CN115171709B (zh) * 2022-09-05 2022-11-18 腾讯科技(深圳)有限公司 语音编码、解码方法、装置、计算机设备和存储介质
CN116032901B (zh) * 2022-12-30 2024-07-26 北京天兵科技有限公司 多路音频数据信号采编方法、装置、系统、介质和设备
US11935550B1 (en) * 2023-03-31 2024-03-19 The Adt Security Corporation Audio compression for low overhead decompression

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0064119B1 (fr) * 1981-04-30 1985-08-28 International Business Machines Corporation Perfectionnement aux procédés de codage de la voix et dispositif de mise en oeuvre du procédé perfectionné
JPS5921039B2 (ja) * 1981-11-04 1984-05-17 日本電信電話株式会社 適応予測符号化方式
US4455649A (en) * 1982-01-15 1984-06-19 International Business Machines Corporation Method and apparatus for efficient statistical multiplexing of voice and data signals
US4547816A (en) 1982-05-03 1985-10-15 Robert Bosch Gmbh Method of recording digital audio and video signals in the same track
US4535472A (en) * 1982-11-05 1985-08-13 At&T Bell Laboratories Adaptive bit allocator
US5051991A (en) * 1984-10-17 1991-09-24 Ericsson Ge Mobile Communications Inc. Method and apparatus for efficient digital time delay compensation in compressed bandwidth signal processing
US4757536A (en) * 1984-10-17 1988-07-12 General Electric Company Method and apparatus for transceiving cryptographically encoded digital data
US4622680A (en) * 1984-10-17 1986-11-11 General Electric Company Hybrid subband coder/decoder method and apparatus
US4817146A (en) * 1984-10-17 1989-03-28 General Electric Company Cryptographic digital signal transceiver method and apparatus
US4675863A (en) * 1985-03-20 1987-06-23 International Mobile Machines Corp. Subscriber RF telephone system for providing multiple speech and/or data signals simultaneously over either a single or a plurality of RF channels
JPS62154368A (ja) 1985-12-27 1987-07-09 Canon Inc 記録装置
US4815074A (en) * 1986-08-01 1989-03-21 General Datacomm, Inc. High speed bit interleaved time division multiplexer for multinode communication systems
US4899384A (en) * 1986-08-25 1990-02-06 Ibm Corporation Table controlled dynamic bit allocation in a variable rate sub-band speech coder
DE3639753A1 (de) * 1986-11-21 1988-06-01 Inst Rundfunktechnik Gmbh Verfahren zum uebertragen digitalisierter tonsignale
NL8700985A (nl) * 1987-04-27 1988-11-16 Philips Nv Systeem voor sub-band codering van een digitaal audiosignaal.
JPH0783315B2 (ja) * 1988-09-26 1995-09-06 富士通株式会社 可変レート音声信号符号化方式
US4881224A (en) 1988-10-19 1989-11-14 General Datacomm, Inc. Framing algorithm for bit interleaved time division multiplexer
US5341457A (en) * 1988-12-30 1994-08-23 At&T Bell Laboratories Perceptual coding of audio signals
EP0411998B1 (en) 1989-07-29 1995-03-22 Sony Corporation 4-Channel PCM signal processing apparatus
US5115240A (en) * 1989-09-26 1992-05-19 Sony Corporation Method and apparatus for encoding voice signals divided into a plurality of frequency bands
DE69028176T2 (de) * 1989-11-14 1997-01-23 Nippon Electric Co Adaptive Transformationskodierung durch optimale Blocklängenselektion in Abhängigkeit von Unterschieden zwischen aufeinanderfolgenden Blöcken
CN1062963C (zh) * 1990-04-12 2001-03-07 多尔拜实验特许公司 用于产生高质量声音信号的解码器和编码器
US5388181A (en) * 1990-05-29 1995-02-07 Anderson; David J. Digital audio compression system
JP2841765B2 (ja) * 1990-07-13 1998-12-24 日本電気株式会社 適応ビット割当て方法及び装置
JPH04127747A (ja) * 1990-09-19 1992-04-28 Toshiba Corp 可変レート符号化方式
US5365553A (en) * 1990-11-30 1994-11-15 U.S. Philips Corporation Transmitter, encoding system and method employing use of a bit need determiner for subband coding a digital signal
US5136377A (en) * 1990-12-11 1992-08-04 At&T Bell Laboratories Adaptive non-linear quantizer
US5123015A (en) * 1990-12-20 1992-06-16 Hughes Aircraft Company Daisy chain multiplexer
WO1992012607A1 (en) * 1991-01-08 1992-07-23 Dolby Laboratories Licensing Corporation Encoder/decoder for multidimensional sound fields
NL9100285A (nl) * 1991-02-19 1992-09-16 Koninkl Philips Electronics Nv Transmissiesysteem, en ontvanger te gebruiken in het transmissiesysteem.
EP0506394A2 (en) * 1991-03-29 1992-09-30 Sony Corporation Coding apparatus for digital signals
ZA921988B (en) * 1991-03-29 1993-02-24 Sony Corp High efficiency digital data encoding and decoding apparatus
JP3134338B2 (ja) * 1991-03-30 2001-02-13 ソニー株式会社 ディジタル音声信号符号化方法
EP0588932B1 (en) * 1991-06-11 2001-11-14 QUALCOMM Incorporated Variable rate vocoder
JP3508138B2 (ja) 1991-06-25 2004-03-22 ソニー株式会社 信号処理装置
GB2257606B (en) * 1991-06-28 1995-01-18 Sony Corp Recording and/or reproducing apparatuses and signal processing methods for compressed data
CA2075156A1 (en) * 1991-08-02 1993-02-03 Kenzo Akagiri Digital encoder with dynamic quantization bit allocation
KR100263599B1 (ko) * 1991-09-02 2000-08-01 요트.게.아. 롤페즈 인코딩 시스템
JP3226945B2 (ja) * 1991-10-02 2001-11-12 キヤノン株式会社 マルチメディア通信装置
FR2685593B1 (fr) * 1991-12-20 1994-02-11 France Telecom Dispositif de demultiplexage en frequence a filtres numeriques.
US5642437A (en) * 1992-02-22 1997-06-24 Texas Instruments Incorporated System decoder circuit with temporary bit storage and method of operation
CA2090052C (en) * 1992-03-02 1998-11-24 Anibal Joao De Sousa Ferreira Method and apparatus for the perceptual coding of audio signals
US5285498A (en) * 1992-03-02 1994-02-08 At&T Bell Laboratories Method and apparatus for coding audio signals based on perceptual model
EP0559348A3 (en) * 1992-03-02 1993-11-03 AT&T Corp. Rate control loop processor for perceptual encoder/decoder
DE4209544A1 (de) * 1992-03-24 1993-09-30 Inst Rundfunktechnik Gmbh Verfahren zum Übertragen oder Speichern digitalisierter, mehrkanaliger Tonsignale
JP2693893B2 (ja) * 1992-03-30 1997-12-24 松下電器産業株式会社 ステレオ音声符号化方法
US5734789A (en) * 1992-06-01 1998-03-31 Hughes Electronics Voiced, unvoiced or noise modes in a CELP vocoder
TW235392B (pl) * 1992-06-02 1994-12-01 Philips Electronics Nv
US5436940A (en) * 1992-06-11 1995-07-25 Massachusetts Institute Of Technology Quadrature mirror filter banks and method
JP2976701B2 (ja) * 1992-06-24 1999-11-10 日本電気株式会社 量子化ビット数割当方法
US5408580A (en) * 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
US5396489A (en) * 1992-10-26 1995-03-07 Motorola Inc. Method and means for transmultiplexing signals between signal terminals and radio frequency channels
US5381145A (en) * 1993-02-10 1995-01-10 Ricoh Corporation Method and apparatus for parallel decoding and encoding of data
US5657423A (en) * 1993-02-22 1997-08-12 Texas Instruments Incorporated Hardware filter circuit and address circuitry for MPEG encoded data
TW272341B (pl) * 1993-07-16 1996-03-11 Sony Co Ltd
US5451954A (en) * 1993-08-04 1995-09-19 Dolby Laboratories Licensing Corporation Quantization noise suppression for encoder/decoder system
US5488665A (en) * 1993-11-23 1996-01-30 At&T Corp. Multi-channel perceptual audio compression system with encoding mode switching among matrixed channels
JPH07202820A (ja) * 1993-12-28 1995-08-04 Matsushita Electric Ind Co Ltd ビットレート制御システム
US5608713A (en) * 1994-02-09 1997-03-04 Sony Corporation Bit allocation of digital audio signal blocks by non-linear processing
JP2778482B2 (ja) * 1994-09-26 1998-07-23 日本電気株式会社 帯域分割符号化装置
US5748903A (en) * 1995-07-21 1998-05-05 Intel Corporation Encoding images using decode rate control
ES2201929B1 (es) * 2002-09-12 2005-05-16 Araclon Biotech, S.L. Anticuerpos policlonales, metodo de preparacion y uso de los mismos.

Also Published As

Publication number Publication date
CA2238026C (en) 2002-07-09
KR19990071708A (ko) 1999-09-27
ES2232842T3 (es) 2005-06-01
BR9611852A (pt) 2000-05-16
CN1848241B (zh) 2010-12-15
AU705194B2 (en) 1999-05-20
US5974380A (en) 1999-10-26
CN1303583C (zh) 2007-03-07
HK1149979A1 (en) 2011-10-21
AU1058997A (en) 1997-06-27
PT864146E (pt) 2005-02-28
CN1848242B (zh) 2012-04-18
KR100277819B1 (ko) 2001-01-15
CA2331611A1 (en) 1997-06-12
HK1015510A1 (en) 1999-10-15
CN101872618B (zh) 2012-08-22
CN1132151C (zh) 2003-12-24
CN1848242A (zh) 2006-10-18
EA001087B1 (ru) 2000-10-30
EP0864146A1 (en) 1998-09-16
HK1092271A1 (en) 2007-02-02
PL183092B1 (pl) 2002-05-31
JP2000501846A (ja) 2000-02-15
PL182240B1 (pl) 2001-11-30
MX9804320A (es) 1998-11-30
CN1848241A (zh) 2006-10-18
EP0864146B1 (en) 2004-10-13
EP0864146A4 (en) 2001-09-19
DE69633633D1 (de) 2004-11-18
ATE279770T1 (de) 2004-10-15
US6487535B1 (en) 2002-11-26
EA199800505A1 (ru) 1998-12-24
JP4174072B2 (ja) 2008-10-29
DK0864146T3 (da) 2005-02-14
CN1208489A (zh) 1999-02-17
US5978762A (en) 1999-11-02
CN101872618A (zh) 2010-10-27
PL327082A1 (en) 1998-11-23
HK1092270A1 (en) 2007-02-02
CA2331611C (en) 2001-09-11
WO1997021211A1 (en) 1997-06-12
DE69633633T2 (de) 2005-10-27
US5956674A (en) 1999-09-21
CA2238026A1 (en) 1997-06-12
CN1495705A (zh) 2004-05-12

Similar Documents

Publication Publication Date Title
PL183498B1 (pl) Dekoder akustyczny wielokanałowy
JP3093179B2 (ja) 高品質オーディオ用短時間遅延変換エンコーダ及びデコーダ
KR100991450B1 (ko) 스펙트럼 홀 충전을 사용하는 오디오 코딩 시스템
JP3178026B2 (ja) ディジタル信号符号化装置及び復号化装置
KR101016982B1 (ko) 디코딩 장치
US5581654A (en) Method and apparatus for information encoding and decoding
JP3153933B2 (ja) データ符号化装置及び方法並びにデータ復号化装置及び方法
Musmann Genesis of the MP3 audio coding standard
WO1995034956A1 (fr) Procede et dispositif de codage de signal, procede et dispositif de decodage de signal, support d&#39;enregistrement et dispositif de transmission de signaux
JPH05313694A (ja) データ圧縮伸張装置
US20110282674A1 (en) Multichannel audio coding
Thiagarajan et al. Analysis of the MPEG-1 Layer III (MP3) algorithm using MATLAB
Johnston et al. AT&T perceptual audio coding (PAC)
Paraskevas et al. A differential perceptual audio coding method with reduced bitrate requirements
JPH08123488A (ja) 高能率符号化方法、高能率符号記録方法、高能率符号伝送方法、高能率符号化装置及び高能率符号復号化方法
Noll et al. ISO/MPEG audio coding
Bosi MPEG audio compression basics
Absar et al. AC-3 Encoder Implementation on the D950 DSP-Core
Bosi et al. MPEG-1 Audio
Bosi et al. Dolby AC-3