PL183092B1 - Produkt akustyczny wielokanałowy - Google Patents

Produkt akustyczny wielokanałowy

Info

Publication number
PL183092B1
PL183092B1 PL96346687A PL34668796A PL183092B1 PL 183092 B1 PL183092 B1 PL 183092B1 PL 96346687 A PL96346687 A PL 96346687A PL 34668796 A PL34668796 A PL 34668796A PL 183092 B1 PL183092 B1 PL 183092B1
Authority
PL
Poland
Prior art keywords
audio
frame
acoustic
channel
bit
Prior art date
Application number
PL96346687A
Other languages
English (en)
Inventor
Stephen M. Smyth
Michael H. Smyth
William P. Smith
Original Assignee
Digital Theater Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Digital Theater Systems filed Critical Digital Theater Systems
Publication of PL183092B1 publication Critical patent/PL183092B1/pl

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Stereophonic System (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Color Television Systems (AREA)

Abstract

1 . Produkt akustyczny wielokanalowy, znamienny tyra, ze zawiera nos- nik (20) danych odczytywanych urzadzenia przenosnego i s tr u mien (16) da- nych cyfrowych, reprezentujacy wielokanalowy sygnal akustyczny probkowany z szybkoscia probkowania, kodowany w zakresie pasma podsta- wowego dzielonego na podpasma czestotliwosci i w zakresie czestotliwosci o duzej szybkosci probkowania oraz nosnik danych odczytywanych urzadzenia przenosnego jest wpisywany jako sekwencja ramek akustycznych (186) z szybkoscia transmisji, przy czym kazda z ramek akustycznych zawiera w ko- lejnosci slowo synchronizacji (192), naglówek (194) ramki, zawierajacy wie- lkosc okna wskazujaca liczbe próbek akustycznych w ramce akustycznej i wielkosc ramki wskazujaca liczbe bajtów w ramce akustycznej, a wielkosc okna akustycznego jest nastawiona jako funkcja stosunku szybkosci transmi- sji do szybkosci próbkowania do ograniczenia wielkosci ramki do mniejszej niz wielkosc maksymalna, naglówek akustyczny (198) do wskazywania uporzadkowania upakowania i formatu kodowania dla ramki akustycznej, co najmniej jedna podramke akustyczna (188), a kazda podramka akustyczna za- wiera informacje boczna (200) do dekodowania podramki akustycznej bez odniesienia do jakiejkolwiek innej podramki, wiele pod-podramek akustycz- nych (190) pasma podstawowego, w którym dane akustyczne dla kazdego z podpasm czestotliwosci kanalu sa upakowywane i multipleksowane przez inne kanaly, blok akustyczny (208) o duzej szybkosci probkowania, w którym dane akustyczne w zakresie czestotliwosci o duzej szybkosci probkowania dla kazdego kanalu sa upakowywane i multipleksowane przez inne kanaly dla de- kodowania wielokanalowego sygnalu akustycznego z wieloma szybkosciami próbkowania dekodowania oraz synchronizator rozpakowywania (210) do kontroli konca podramki FIG 1 PL PL PL PL PL PL PL PL PL

Description

Przedmiotem wynalazku jest produkt akustyczny wielokanałowy, zwłaszcza dotyczący kodowania i dekodowania o wysokiej jakości wielokanałowych sygnałów akustycznych. Koder jest zwłaszcza koderem podpasma, który wykorzystuje doskonałe/niedoskonałe filtry przy odtwarzaniu, kodowanie predykcyjne/niepredykcyjne podpasma, analizę przejściową i przydział bitów psychoakustyczny/minimalnego średniego błędu kwadratowego (mmse) w funkcji czasu, częstotliwości oraz wielokrotne kanały akustyczne do wytwarzania strumienia danych z ograniczonym obciążeniem obliczeniowym dekodowania.
Znane kodery akustyczne i dźwiękowe o wysokiej jakości są podzielone na dwie szerokie klasy. Po pierwsze, kodery przekształcania/podpasma o dużej rozdzielczości częstotliwości, które kwantująadaptacyjnie podpasmo lub próbki współczynników przy analizie zgodnie z obliczaniem psychoakustycznym. Po drugie, kodery podpasma o małej rozdzielczości, które poprawiają słabąrozdzielczość częstotliwościowąprzez przetwarzanie próbek podpasma przy zastosowaniu adaptacyjnej różnicowej modulacji kodowo-impulsowej ADPCM.
Pierwsza klasa koderów wykorzystuje duże, krótkotrwałe zmiany widmowe sygnałów dźwiękowych przez przydziały bitów zgodnie z energią widmową sygnału. Duża rozdzielczość
183 092 tych koderów umożliwia dostarczanie sygnału przetworzonego częstotliwościowo bezpośrednio dla modelu psychoakustycznego, który jest oparty na teorii pasma krytycznego słyszalności. Koder akustyczny, przedstawiony na przykład przez Dolb/ego AC-3, Todda i innych w publikacji pod tytułem „AC-3 : Elastyczne kodowanie percepcyjne do przetwarzania i pamiętania sygnałów akustycznych” Convention of the Audio Engineering Society, luty 1994, oblicza 1024 współczynników częstotliwościowych w sygnałach z modulacjąkodowo-impulsowąi zapewnia model psychoakustyczny dla 1024 współczynników częstotliwościowych w każdym kanale w celu określania szybkości transmisji bitów dla każdego współczynnika. System Dolby'ego stosuje analizę przejściową, która zmniejsza wymiar analizowanego okna do 256 próbek dla izolacji stanów przejściowych. Koder AC-3 stosuje prawnie zastrzeżony algorytm adaptacji wstecznej do dekodowania przydziału bitów. To powoduje zmniejszenie ilości informacji o przydziale bitów, która jest przesyłana wraz z kodowanymi danymi akustycznymi. W wyniku tego szerokość pasma dostępna dla sygnałów akustycznych jest zwiększana w schematach adaptacyjnych wstecznych, co prowadzi do poprawy jakości dźwięku.
W drugiej klasie koderów kwantowanie sygnałów różnicowych podpasma jest albo stałe albo dostosowane dla minimalizacji mocy szumu kwantowania we wszystkich lub niektórych podpasmach, bez wyraźnego odniesienia do teorii psychoakustycznego maskowania. Znane jest, że bezpośredni, psychoakustyczny poziom progowy zakłócenia nie może być doprowadzony do sygnałów predykcyjnych/podpasma różnicowego z powodu trudności w ocenie prognozowania przed procesem przydziału bitów, co jest bardziej złożone w wyniku oddziaływania szumu kwantowania na proces prognozowania.
Kodery te działają, ponieważ percepcyjnie krytyczne sygnały akustyczne są okresowe w długich przedziałach czasu, co jest wykorzystywane przez kwantowanie predykcyjne różnicowe. Podział sygnału na małą liczbę podpasm powoduje zmniejszenie akustycznych wpływów modulacji szumu i umożliwia wykorzystanie długotrwałych zmian widmowych w sygnałach akustycznych. Jeżeli liczba podpasm jest zwiększona, wzmocnienie prognozowania w każdym podpasmie jest zmniejszone i w pewnym punkcie wzmocnienie prognozowania dąży do zera.
Znany jest z publikacji Digital Theater Systems, L.P., koder akustyczny, w którym każdy kanał akustyczny z modulacjąkodowo-impulsowąjest filtracyjny do czterech podpasm i każde podpasmo jest kodowane przy zastosowaniu kodera wstecznego adaptacyjnej różnicowej modulacji kodowo-impulsowej ADPCM, który dostosowuje współczynniki prognozowania do danych podpasma. Przydział bitów jest stały i taki sam dla każdego kanału, przy czym podpasmom o niższych częstotliwościach jest przypisanych więcej bitów niż podpasmom o wyższych częstotliwościach. Przydział bitów zapewnia stały współczynnik kompresji, na przykład 4:1.
Znany koder DTS jest opisany przez Mike'a Smytha i Stephena Smytha w publikacji „APT-X100: Koder akustyczny z modulacją ADPCM podpasma o małym opóźnieniu, małej szybkości transmisji bitów do transmisji radiofonicznej”, Proceedings of the 10th International aEs Conference 1991, strony 41-56.
Oba typy znanych koderów akustycznych mają inne wspólne ograniczenia. Po pierwsze, znane kodery akustyczne kodują-dekodują ze stałą wielkością ramki, to jest liczba próbek lub okres czasu reprezentowany przez ramkę jest stały. W wyniku tego, gdy kodowana szybkość transmisji wzrasta względem szybkości próbkowania, ilość danych czyli bajtów w ramce także wzrasta. Zatem wielkość bufora dekodera musi być przeznaczona do dostosowania się do najtrudniejszego przypadku, aby zapobiec przepełnieniu danymi. To powoduje zwiększenie wielkości pamięci RAM, co komplikuje dekoder. Po drugie, znane kodery akustyczne nie są łatwo rozszerzalne dla próbkowania częstotliwości większych niż 48 kHz, co spowodowałoby, że istniejące dekodery stałyby się niezgodne z formatem wymaganym dla nowych koderów. Ten brak zgodności cech jest poważnym ograniczeniem. Ponadto znane formaty stosowane do kodowania danych z modulacjąkodowo-impulsową wymagają, żeby cała ramka była wczytywana przez dekoder przed rozpoczęciem odtwarzania, co wymaga, żeby wielkość bufora była ograniczona do bloków danych w przybliżeniu 100 ms, tak że opóźnienie lub czas oczekiwania nie przeszkadzaj ą słuchaczowi.
183 092
Te znane kodery majązdolność kodowania do 24 kHz i często wyższe podpasma są obniżane, co powoduje zmniejszenie dokładności i wierności przy wielkich częstotliwościach odtwarzanego sygnału. Znane kodery zwykle wykorzystują jeden z dwóch typów schematu wykrywania błędów. Najbardziej znane jest kodowanie Reada Solomona, w którym koder dodaje bity wykrywania błędów do informacji w strumieniu danych, co ułatwia wykrywanie i korekcję błędów w informacji, jednak błędy w danych akustycznych nie zostają wykryte. Znana jest także kontrola ramki i nagłówków akustycznych dla nieważnych stanów kodowania. Dla przykładu, określony parametr 3-bitowy może mieć tylko 3 ważne stany. Jeżeli jest identyfikowany jeden z pozostałych 5 stanów, musi pojawić się błąd, co zapewnia zdolność wykrywania i nie powoduje wykrywania błędów w danych akustycznych.
Znany jest z opisu patentowego USA nr 5 583 962 wielokanałowy koder akustyczny, który zmniejsza szybkość transmisji bitów wielokanałowego sygnału akustycznego kodowanego z modulacją kodowo-impulsową, przy zachowaniu poziomu dokładności porównywalnego jak dla dysku kompaktowego, przez wykorzystanie połączenia redundancji subiektywnych i obiektywnych w poszczególnych kanałach czyli wewnątrzkanałowych i pomiędzy kanałami akustycznymi czyli międzykanałowych.
Podstawowym procesem jest tu międzykanałowy proces kodowania znany jako kodowanie natężenia lub jako kodowanie łączne stereo. Kodowanie natężenia jest procesem, w którym częstotliwości akustyczne, zgrupowane w pasma krytyczne, omawiane jako podpasma, są w pewnych warunakch sumowane z sygnałami pasma krytycznego w innych kanałach akustycznych, kodowanymi i pamiętanymi jako sygnał złożony. Dla dekodowania i odtwarzania złożonego sygnału, w każdym kanale jest umieszczona kopia stosowana do wytwarzania sygnału złożonego, a natężenie każdego kanału jest zmodyfikowane oddzielnie dla dopasowania natężenia sygnałów podpasma przed sumowaniem. Proces zmiany natężenia sygnału złożonego w dekoderze jest nazywany sterowaniem. Kodowanie natężenia jest stosowane przy zmniejszeniu szybkości transmisji bitów, ponieważ zwykle mniej danychjest wymaganych do kodowania złożonych podpasm oraz informacji natężenia i sterowania niż jest to wymagane do kodowania sygnałów oddzielnych podpasm z każdego kanału.
W tym rozwiązaniujest stosowany zespół filtrów i urządzenie kwantujące poziomu zgrubnego oraz dwa lub więcej sygnałów akustycznych jest filtrowanych w podpasma, stosując szerokości pasma w przybliżeniu równe pasmom krytycznym słyszalności przez człowieka i te podpasma są najpierw przepuszczane do urządzenia kwantującego poziomu zgrubnego, które zasadniczo wykonuje prostą konwersję zmiennopozycyjną bloku dwójkowego. Zostaje dokonany zgrubny pomiar energii podpasma i ocena liczby bitów wymaganych do kwantowania każdego sygnału podpasma dla uzyskania pewnego poziomu dokładności sygnału na wej ściu dekodera i wytworzenia wymaganego przydziału bitów. Ocenę przydziału bitów dokonuje się na przykład przez zastosowanie pomiarów maski szumu psychoakustycznego, a jej wynik jest przenoszony do sterownika.
Alokator adaptacyjny bitów przydziela zmienną liczbę bitów podpasma we wszystkich kanałach akustycznych. Podpasmom o największej energii widmowej jest przydzielanych więcej bitów niż podpasmom o małej zawartości sygnałów. Bity są przydzielane na przykład ze wspólnego obszaru bitów, którego wymiar jest określony przez wymaganą szybkość transmisji bitów kodera, wymiar okna zespołu filtrów i szybkość próbkowania wejściowego sygnału cyfrowego akustycznego. Adaptacyjny proces przydziału bitów jest powtarzany lub modyfikowany w pewnych przykładach wykonania w odpowiedzi na informację dostarczaną z powrotem z procesu sterowania, który porównuje rzeczywisty przydział bitów z wymaganym przydziałem bitów i adaptacyjnie przeprowadza proces sterowania w jednym lub więcej podpasmach dla zmniejszenia liczby bitów wymaganych do kodowania sygnałów podpasma w celu uzyskania sygnałów złożonych i wytworzenia sygnałów sterujących. Sygnały sterujące są stosowane przez dekoder do umieszczania sygnału złożonego w oddzielnych kanałach.
183 092
Urządzenie kwantujące przygotowuje kwantową reprezentację kodowanego sygnału akustycznego do następnego zapamiętania lub przesłania do dekodera. W procesie wydziela się słowa kodu podpasma ze strumienia bitów i ponownie normalizuje się kody.
Sterownik odwrotnego sterowania odtwarza dyskretne podpasma dla każdego kanału dla sterowanych podpasm. Zespół filtrów odwrotnych dekodera ponownie łączy podpasma każdego kanału w cyfrowe sygnały akustyczne pojedynczego pasma z modulacją kodowo-impulsową. Charakterystyka tego zespołu filtrów jest odwrotna względem charakterystyki zespołu filtrów kodera dla zwiększenia do maksimum kasowania pseudonazw.
Znany jest z opisu patentowego USA nr 5 588 024 sposób wydajnego obliczania psychoakustycznego przydziału bitów dla kodowania podpasma częstotliwości cyfrowego sygnału akustycznego. Przedstawiony jest proces kodowania-dekodowania podpasma przy zastosowaniu warstwy akustycznej MPEG, która jest stosowana jako odniesienie dla porównywania wydajności algorytmu przydziału bitów MPEG z algorytmem według wynalazku. Sposób ten polega na tym, że stałe okno próbek akustycznych z modulacjąkodowo-impulsowąjest dostarczane zarówno do filtru podpasmajak i do kalkulatora współczynnika sygnału do maski SMR. Kalkulator stosuje własny filtr do sygnału wejściowego, zwykle z pasmami o szerokości bliskiej pasmom krytycznym, i oblicza poziom maski dla każdego krytycznego sygnału pasma w oparciu o model psychoakustyczny. Poziom maskowania jest określony jako maksymalny poziom szumu kwantowania, któremu podlega urządzenie kwantujące pasma krytycznego przed tym, jak ten szum stanie się słyszalny czyli nie będzie maskowany. Współczynnik sygnału do maski dla każdego podpasma jest otrzymywany przez odwzorowanie na mapie poziomów maskowania pasma krytycznego do poziomów maskowania podpasma i pobranie stosunku tych poziomów maskowania i poziomów niekwantowanego sygnału podpasma. Te współczynniki sygnału do maski sądostarczane do alokatora bitów dla przydziału bitów podpasmom. Zakładając, że całkowita liczba bitów nie przekracza osiągalnej puli bitów, taki przydział bitów zapewnia jakość dźwięku na wyjściu dekodera, która jest bliska jakości dźwięku pierwotnego, wejściowego sygnału akustycznego.
Sygnały podpasma z filtru podpasma są dostarczane zarówno do determinatora współczynnika skalowania jak i urządzenia kwantującego. Szybkość transmisji bitów jest 192 kilobitów na sekundę, szybkość próbkowania 48 kHz i wymiar okna z modulacjąkodowo-impulsową 384 próbki. Stosowanym tutaj sposobem przydziału bitu do podpasm jest przydział bitów proporcjonalnie do wartości współczynnika sygnału do maski, dostarczanego przez kalkulator lub oddziaływanie iteracyjne aż do wykorzystania wszystkich bitów z puli.
Znany jest z opisu patentowego japońskiego sposób wykrywania przejść w koderze akustycznym podpasma o małej szybkości transmisji bitów i procedura przydziału bitów, która zmienia liczbę poziomów kwantowania w odpowiedzi na stan przejściowy sygnału, dla zmniejszenia do minimum występowania słyszalnego szumu kwantowania w obecności przej ść - zjawisko znane jako echo wstępne. Zastosowanyjest w tym celu układ kodowania akustycznego, który dekoreluje sygnał wejściowy przy zastosowaniu przekształcania ortogonalnego FFT, DCT. Przedstawione jest urządzenie, które dzieli sygnał na trzy pasma częstotliwości przy zastosowaniu filtrów. Współczynniki FFT każdego podpasma są dostarczane do kalkulatora poziomu progowego maskowania szumu, który wywołuje minimalny przydział bitów do każdego bloku współczynników FFT. Ten przydział bitów jest modyfikowany zgodnie z trybami przejściowymi wskazywanymi dla każdego bloku przez wybór wykrywania przejścia.
Produkt akustyczny wielokanałowy według wynalazku zawiera nośnik danych odczytywanych urządzenia przenośnego i strumień danych cyfrowych, reprezentujący wielokanałowy sygnał akustyczny próbkowany z szybkościąpróbkowania, kodowany w zakresie pasma podstawowego dzielonego na podpasma częstotliwości i w zakresie częstotliwości o dużej szybkości próbkowania oraz nośnik danych odczytywanych urządzenia przenośnego jest wpisywany jako sekwencja ramek akustycznych z szybkością transmisji, przy czym każda z ramek akustycznych zawiera w kolejności słowo synchronizacji, nagłówek ramki, zawierający wielkość okna wskazującą liczbę próbek akustycznych w ramce akustycznej i wielkość ramki wskazującą liczbę bajtów w ramce akustycznej, a wielkość okna akustycznego jest nastawiona jako funkcja stosunku
183 092 szybkości transmisji do szybkości próbkowania do ograniczenia wielkości ramki do mniejszej niż wielkość maksymalna, nagłówek akustyczny do wskazywania uporządkowania upakowania i formatu kodowania dla ramki akustycznej, co najmniej jedną podramkę akustyczną, a każda podramka akustyczna zawiera informację boczną do dekodowania podramki akustycznej bez odniesienia do jakiejkolwiek innej podramki, wiele pod-podramek akustycznych pasma podstawowego, w którym dane akustyczne dla każdego z podpasm częstotliwości kanału sąupakowywane i multipleksowane przez inne kanały, blok akustyczny o dużej szybkości próbkowania, w którym dane akustyczne w zakresie częstotliwości o dużej szybkości próbkowania dla każdego kanału są upakowywane i multipleksowane przez inne kanały dla dekodowania wielokanałowego sygnału akustycznego z wieloma szybkościami próbkowania dekodowania oraz synchronizator rozpakowywania do kontroli końca podramki.
Korzystnie, cyfrowy strumień danych reprezentuje wielokanałowy sygnał akustyczny kodowany w zakresie pasma podstawowego i zakresie częstotliwości o dużej częstotliwości próbkowania, a każda ramka akustyczna zawiera blok akustyczny o dużej szybkości próbkowania, w którym dane akustyczne w zakresie częstotliwości o dużej częstotliwości próbkowania dla każdego kanału są upakowane i multipleksowane z innymi kanałami dla dekodowania wielokanałowego sygnału akustycznego z wieloma częstotliwościami próbkowania dekodowania.
Przedmiot wynalazku jest uwidoczniony w przykładach wykonania na rysunku, na którym fig. 1 przedstawia schemat blokowy 5-kanałowego kodera akustycznego według wynalazku, fig. 2 - schemat blokowy kodera wielokanałowego, fig. 3 - schemat blokowy kodera i dekodera pasma podstawowego, fig. 4a i 4b - schematy blokowe kodera i dekodera o dużej szybkości próbkowania, fig. 5 - schemat blokowy koderajednokanałowego, fig. 6 - wykres bajtów na ramkę w funkcji wielkości ramki dla zmiennych szybkości transmisji, fig. 7 - wykres odpowiedzi amplitudowej dla filtrów odtwarzania NPR i PR, fig. 8 - wykres utożsamiania podpasma dla filtru odtwarzania, fig. 9 wykres krzywych zakłócenia dla filtrów NPR i PR, fig. 10 - schemat kodera pojedynczego pasma, fig. 11a i 11b - wykrywanie stanu przejściowego i obliczanie współczynnika skalowania dla podramki, fig. 12 - proces kodowania entropii dla kwantowanych TMODES, fig. 13 - proces kwantowania współczynnika skalowania, fig. 14 - splot maski sygnałowej z odpowiedzią częstotliwościową sygnału dla wytwarzania stosunku sygnału do maski SMR, fig. 15 - wykres odpowiedzi słuchowej człowieka, fig. 16 - wykres stosunku sygnału do maski SMR dla podpasm, fig. 17 - wykres sygnałów błędu dla przydziałów akustycznych i bitów mmse, fig. 18a i 18b - wykres poziomów energii podpasma i odwrócony wykres, ilustrujące proces przydziału bitów typu „napełnienia wodą” mmse, fig. 19 - schemat blokowy pojedynczej ramki w strumieniu danych, fig. 20 - schemat blokowy dekodera, fig. 21 - schemat blokowy układu kodera i fig. 22 - schemat blokowy układu dekodera.
Tabela 1 zestawia maksymalną wielkość ramki w funkcji szybkości próbkowania i szybkości transmisji, tabela 2 zestawia maksymalnie dopuszczoną wielkość ramki, bajtów w funkcji szybkości próbkowania i szybkości transmisji i tabela 3 przedstawia związek pomiędzy wartością indeksu ABIT, liczbą poziomów kwantowania i uzyskanym podpasmem stosunku sygnału do maski SMR.
Figura 1 pokazuje, że wynalazek łączy cechy obu znanych schematów kodowania plus dodatkowe cechy w pojedynczym, wielokanałowym koderze akustycznym 10. Algorytm kodowaniajest przeznaczony do wykonana przy studyjnych poziomachjakości, tojestjakości lepszej niż dysku kompaktowego i zapewniania szerokiego zakresu zastosowań dla zmiany poziomów kompresji, szybkości próbkowania, długości słów, liczby kanałów i jakości percepcyjnej.
Koder 12 koduje wielokrotne kanały danych akustycznych z modulacją kodowo-impulsową 14, zwykle próbkowane przy 48 kHz i długościach słów pomiędzy 16 i 24 bitami, w strumieniu danych 16 ze znaną szybkościątransmisji, korzystnie w zakresie 32-4096 kilobitów na sekundę. Inaczej niż znane kodery akustyczne, struktura ta jest rozszerzana do większych szybkości próbkowania 48-192 kHz, bez powodowania niezgodności istniejących dekoderów, które były zaprojektowane dla szybkości próbkowania pasma podstawowego lub jakiejkolwiek pośredniej szybkości próbkowania. Ponadto, dane akustyczne z modulacjąkodowo-impulsową 14 są okienkowane i kodowane ramką w
183 092 danym czasie, przy czym każda ramka jest korzystnie dzielona na 1-4 podramek. Wielkość okna akustycznego, to jest liczba próbek z modulacjąkodowo-impulsową, jest oparta na względnych wartościach szybkości próbkowania i szybkości transmisji, więc wielkość ramki wyjściowej, to jest liczba bajtów, odczytywana przez dekoder 18 na ramkę jest ograniczona, korzystnie pomiędzy 5, 3 i 8 kilobajtów.
W wyniku tego wielkość pamięci RAM, wymaganej dla strumienia danych z dekodera do bufora, jest utrzymywana jako stosunkowo mała, co upraszcza dekoder. Przy małych szybkościach stosuje się większe wielkości okna dla przesyłania ramki danych PCT, co poprawia osiągnięcia kodowania. Przy większych szybkościach transmisji bitów muszą być zastosowane mniejsze wielkości okna do spełnienia wymagania ograniczenia danych. To koniecznie zmniejsza osiągnięcia kodowania, lecz przy większych szybkościachjest to niewystarczające. Również sposób, w jaki dane z modulacjjikodowo-impulsową są przesyłane w ramce, umożliwia dekoderowi 18 rozpoczęcie odtwarzania przed wczytaniem całej ramki wyjściowej do bufora, co powoduje zmniejszenie opóźnienia lub czasu oczekiwania kodera akustycznego.
Koder 12 zawiera zespół filtrów o dużej rozdzielczości, który jest korzystnie przełączany pomiędzy niedoskonałymi i doskonałymi filtrami odtwarzania w oparciu o szybkość transmisji bitów, dla rozkładania każdego kanału danych akustycznych z modulacjąkodowo-impulsową 14 na pewną liczbę sygnałów podpasma. Kodery predykcyjny i kwantowania wektorowego VQ są stosowane do kodowania podpasm mniejszej i większej częstotliwości. Początkowe podpasmo kwantowania wektorowego jest stałe lub jest określane dynamicznie w funkcji własności bieżącego sygnału. Łączne kodowanie częstotliwościjest wykorzystywane przy małych szybkościach transmisji bitów do równoczesnego kodowania wielokrotnych kanałów w podpasmach większych częstotliwości.
Koder predykcyjny korzystnie przełącza pomiędzy trybami pracy z modulacją APCM i z modulacją ADPCM w oparciu o wzmocnienie prognozowania podpasma. Analizator stanu przejściowego dzieli każdąpodramkę podpasma na sygnały echa początkowego i końcowego czyli pod-podramki i oblicza poszczególne współczynniki skalowania dla pod-podramek echa początkowego i końcowego, zmniejszając przez to zakłócenie echa początkowego. Koder przydziela adaptacyjnie osiągalną szybkość transmisji bitów we wszystkich kanałach z modulacją kodowo-impulsową i dzieli na podpasma dla bieżącej ramki zgodnie z określonymi potrzebami, na przykład psychoakustycznymi, w celu optymalizacji wydajności kodowania. Przez połączenie kodowania predykcyjnego i modelowania psychoakustycznego, wydajność kodowania przy małej szybkości transmisji bitów jest zwiększona, przez co zmniejsza się szybkość transmisji bitów, przy której jest osiągana subiektywna przezroczystość. Programowalny sterownik 19, taki jak komputer lub blok klawiszy, jest połączony interfejsem z koderem 12 dla przekazywania informacji trybu pracy akustycznej, zawierającej parametry, takie jak wymagana szybkość transmisji bitów, liczba kanałów, odtwarzanie PR lub NPR, szybkość próbkowania i szybkość transmisji.
Kodowane sygnały i informacja wstęgi bocznej są upakowywane i multipleksowane w strumieniu danych 16, tak że obciążenie obliczeniowe dekodowania jest ograniczone do wymaganego zakresu. Strumień danych 16 jest kodowany lub przesyłany przez nośnik transmisji 20, taki jak dysk kompaktowy, cyfrowy dysk wideo lub satelita nadający propramy odbierane bezpośrednio. Dekoder 18 dekoduje poszczególne sygnały podpasma i wykonuje operację filtrowania odwrotnego w celu wytwarzania wielokanałowego sygnału akustycznego 22, który jest subiektywnie równoważny pierwotnemu, wielokanałowemu sygnałowi akustycznemu z modulacją kodowo-impulsową 14. System akustyczny 24, taki jak system teatru domowego lub komputer multimedialny, odtwarza sygnał akustyczny dla użytkownika.
Figura 2 pokazuje wielokanałowy koder 12, który zawiera wiele indywidualnych koderów kanałowych 26, korzystnie pięć - lewy przedni, środkowy, prawy przedni, lewy tylny i prawy tylny, które wytwarzają poszczególne zespoły kodowanych sygnałów 28 podpasma, korzystnie 32 sygnały podpasma na kanał. Koder 12 wykorzystuje system zarządzania 30 bitami globalnymi, który przydziela dynamicznie bity ze wspólnej puli bitów kanałów, pomiędzy podpasmami w kanale i w indywidualnej ramce w danym podpasmie. Koder 12 stosuje również łączne techniki ko8
183 092 dowania częstotliwości dla korzystania ze współzależności pomiędzy kanałami w podpasmach większych częstotliwości. Ponadto, koder 12 stosuje kwantowanie wektorowe w podpasmach większych częstotliwości, które nie są szczególnie dostrzegalne, w celu zapewnienia podstawowej dokładności lub wierności przy wielkich częstotliwościach z bardzo małą szybkością transmisji bitów. W ten sposób koder wykorzystuje żądania różnych sygnałów, na przykład wartości podpasm rms i poziomów maskowania psychoakustycznego kanałów wielokrotnych i niejednorodny rozkład energii sygnałów dla częstotliwości w każdym kanale i czasu w danej ramce.
Przy przeglądzie przydziału bitów system zarządania 30 najpierw decyduje, które podpasma kanałów są kodowane częstotliwościowo łącznie i uśrednia te dane, a następnie określa, które podpasma są kodowane przy zastosowaniu kwantowania wektorowego oraz odejmuje te bity od osiągalnej szybkości transmisji bitów. Decyzję o podpasmach dla kwantowania wektorowego podejmuje się a priori przez to, że wszystkie podpasma powyżej częstotliwości progowej są kwantowane wektorowo lub podejmuje się w oparciu o skutki maskowania psychoakustycznego poszczególnych podpasm w każdej ramce. Następnie system zarządzania 30 przydziela bity ABIT przy zastosowaniu maskowania psychoakustycznego w pozostałych podpasmach dla optymalizacji subiektywnej jakości dekodowanego sygnału akustycznego. Jeżeli są dostępne bity dodatkowe, koder może przełączyć się na czysty schemat mmse, to jest typu „napełniania wodą” i ponownie przydzielić wszystkie bity w oparciu o podpasma względem wartości rms dla minimalizacji wartości rms sygnału błędu. To jest możlwie do zastosowania przy bardzo dużych szybkościach transmisji bitów·.
Korzystne rozwiązanie polega na zachowaniu psychoakustycznego przydziału bitów i przydziale tylko bitów dodatkowych zgodnie ze schematem mmse. To powoduje utrzymanie kształtu sygnału szumu wytwarzanego przez maskowanie psychoakustyczne, lecz jednorodne przesunięcie poziomu szumu do dołu.
Rozwiązanie jest modyfikowane tak, że bity dodatkowe są przydzielane zgodnie z różnicą pomiędzy rms i poziomami psychoakustycznymi. W wyniku tego przydział psychoakustyczny przechodzi do przydziału mmse, gdy szybkość transmisji bitów wzrasta, przez co zapewnia gładkie przejście pomiędzy tymi dwiema technikami. Powyższe techniki są szczególnie możliwe do zastosowania dla systemów o stałej szybkości transmisji bitów. Odmiennie koder 12 ustala poziom zakłócenia, subiektywny lub mse i umożliwia zmianę całkowitej szybkości transmisji bitów dla utrzymania, poziomu zakłócenia. Multiplekser 32 mnoży sygnały pasma podstawowego i informację wstęgi bocznej w strumieniu danych 16 zgodnie ze szczególnym formatem danych. Szczegóły formatu danych są omawiane poniżej odnośnie fig. 20.
Figura 3 wyjaśnia kodowanie pasma podstawowego. Dla szybkości próbkowania w zakresie 8-48 kHz koder kanałowy 26 wykorzystuje jednorodny zespół 34 filtrów analizy 512-zaczepowych, 32-pasmowych, pracujących przy częstotliwości próbkowania 48 kHz dla podziału widma akustycznego 0-24 kHz każdego kanału na 32 podpasma mające szerokość pasma 750 Hz na podpasmo. Podczas etapu kodowania 36 następuje kodowanie każdego sygnału podpasma i multipleksowanie 38 ich w skompresowany strumień danych 16. Dekoder 18 odbiera skompresowany strumień danych, rozdziela kodowane dane dla każdego podpasma przy zastosowaniu układu rozpakowania 40, dekoduje każdy sygnał 42 podpasma i odtwarza cyfrowe sygnały akustyczne z modulacją kodowo-impulsową Fprób = 48 kHz, przy zastosowaniu jednorodnego zespołu 44 filtrów interpolacji 512-zaczepowych, 32-pasmowych dla każdego kanału.
W tej strukturze wszystkie strategie kodowania, na przykład szybkości próbkowania 48,96 lub 192 kHz, stosują32-pasmowy proces kodowania -dekodowania przy najmniejszych częstotliwościach akustycznych pasma podstawowego, na przykład pomiędzy 0-24 kHz. Zatem dekodery, które są zaprojektowane i zbudowane obecnie w oparciu o szybkość próbkowania 48 kHz, będą zgodne z przyszłymi koderami, które są zaprojektowane do wykorzystania składowych o większych częstotliwościach. Istniejący dekoder odczytywałby sygnał pasma podstawowego 0 24 kHz i ignorowałby kodowane dane dla większych częstotliwości.
183 092
Przy kodowaniu z dużą szybkością próbkowania w zakresie 48 - 96 kHz, koder kanałowy 26 korzystnie dzieli widmo akustyczne na dwa i wykorzystuje jednorodny zespół filtrów analizy 32-pasmowych dla dolnej połówki i zespół filtrów analizy 8-pasmowych dla górnej połówki.
Figura 4a i 4b pokazuje widmo akustyczne 0-48 kHz, które jest początkowo dzielone przy zastosowaniu zespołu 46 filtrów wstępnych działania dziesiętnego 256-zaczepowych, 2-pasmowych, zapewniających szerokość pasma akustycznego 24 kHz na pasmo. Pasmo dolne 0-24 kHz jest dzielone i kodowane w 32 jednorodnych pasmach w sposób opisany powyżej odnośnie fig. 3. Natomiast pasmo górne 24 - 48 kHz jest dzielone i kodowane w 8 jednorodnych pasmach. Jeżeli opóźnienie zespołu 48 filtrów działania dziesiętnego, 8-pasmowych nie jest takie samo, jak zespołów filtrów 32-pasmowych, wówczas etap kompensacji opóźnienia 50 jest wykorzystywany gdzieś w torze sygnału 24 - 48 kHz dla zapewnienia, żeby oba przebiegi czasowe wyrównywały się przed zespołem filtrów rekombinacji 2-pasmowych w dekoderze. W systemie kodowania z próbkowaniem 96 kHz, pasmo akustyczne 24 - 48 kHz jest opóźnione o 384 próbki i następnie dzielone na 8 jednorodnych pasm przy zastosowaniu zespołu filtrów interpolacji 128-zaczepowych. Każde z podpasm 3 kHz jest kodowane 52 i upakowywane 54 przez kodowane dane pasma 0-24 kHz w celu utworzenia skompresowanego strumienia danych 16.
Po dojściu do dekodera 18 skompresowany strumień danych 16 jest rozpakowywany 56 i kody zarówno dla dekodera 32-pasmowego w zakresie 0-24 kHz, jak i dekodera 8-pasmowego w zakresie 24 - 48 kHz, są rozdzielane i dostarczane do poszczególnych etapów dekodowania 42 i 58. Osiem i trzydzieści dwa dekodowane podpasma są odtwarzane przy zastosowaniu jednorodnych zespołów 60 i 44 filtrów interpolacji 128-zaczepowych i 512-zaczepowych. Dekodowane podpasma sąkolejno rekombinowane przy zastosowaniujednorodnego zespołu 62 filtrów interpolacji 256-zaczepowych, 2-pasmowych dla wytwarzania pojedynczego, cyfrowego sygnału akustycznego z modulacją kodowo-impulsową z szybkością próbkowania 96 kHz. W przypadku, gdy jest pożądane, żeby dekoder działał z połowiczną szybkością próbkowania skompresowanego strumienia danych, może to być dogodnie przeprowadzone przez odrzucenie kodowanych danych pasma górnego 24 - 48 kHz i dekodowanie tylko 32 podpasm w zakresie akustycznym 0-24 kHz.
We wszystkich opisanych strategiach kodowania proces kodowania-dekodowania 32-pasmowego jest przeprowadzany dla części pasma podstawowego o szerokości pasma akustycznego 0 - 24 kHz.
Figura 5 pokazuje urządzenie wprowadzania i zapisywania 64 obrazów, które okienkuje kanał danych akustycznych z modulacjąkodowo-impulsową 14 dla segmentowania go na kolejne ramki 66 danych. Okno akustyczne z moduli^(y^kodowo-i^piuls^wą określa liczbę ciągłych próbek wejściowych, dla których proces kodowania powoduje wytwarzanie ramki wyjściowej w strumieniu danych. Wielkość okna jest ustalana w oparciu o stopień kompresji, to jest stosunek szybkości transmisji do szybkości próbkowania, tak że ilość danych kodowanych w każdej ramce jest ograniczona. Każda kolejna ramka 66 danych jest dzielona na 32 jednorodne pasma częstotliwościowe 68 przez zespół 34 filtrów działania dziesiętnego FIR 512-zaczepowych, 32-pasmowych. Próbki wyjściowe z każdego podpasma są buforowane i dostarczane do etapu kodowania 32-pasmowego 36.
Na figurze 10-19 jest opisany szczegółowo etap analizy 70, podczas którego są wytwarzane optymalne współczynniki prognozowania, przydziały bitów urządzenia kwantującego różnicowego i optymalne współczynniki skalowania urządzenia kwantującego dla buforowanych próbek podpasma. Etapy analizy 70 decyduje także, które podpasma sąkwantowane wektorowo i które sąkodowane łącznie częstotliwościowo, jeżeli te decyzje nie są stałe. Te dane lub informacja wstęgi bocznej są kierowane do przodu do wybranego etapu z modulacją ADPCM 72, etapu kwantowania wektorowego 73 lub etapu kodowania JFC 74 łącznie częstotliwościowo oraz do multipleksera 32 danych układu upakowującego. Próbki podpasma są następnie kodowane w procesie z modulacją ADPCM lub kwantowania wektorowego i kody kwantowania są wprowadzane do multipleksera. Etap JFC 74 nie koduje aktualnie próbek podpasma, lecz wytwarza kody wskazujące, które podpasma kanałów sąpołączone i gdzie są one umieszczone w strumieniu da10
183 092 nych. Kody kwantowania i informacja wstęgi bocznej każdego podpasma są upakowywane w strumieniu danych 16 i przesyłane do dekodera.
Po dojściu do dekodera 18 strumień danych jest demultipleksowany 40 lub rozpakowywany z powrotem do indywidualnych podpasm. Współczynniki skalowania i przydziały bitów są najpierw instalowane w urządzeniach kwantujących odwrotnych 75 wraz ze współczynnikami prognozowania dla każdego podpasma. Kody różnicowe są następnie odtwarzane przy zastosowaniu albo procesu z modulacjąADPCM 76 albo odwrotnego procesu kwantowania wektorowego 77 bezpośrednio albo odwrotnego procesu JFC 78 dla wyznaczonych podpasm. Podpasma są w końcu łączone z powrotem do pojedynczego sygnału akustycznego z modulacją kodowo-impulsową22 przy zastosowaniu zespołu 44 filtrów interpolacji 32-pasmowych.
Figura 6 pokazuje, że przy ramkowaniu sygnału z modulacją kodowo-impulsową, urządzenie wprowadzania i zapisywania 64 obrazów, pokazane na fig. 5, zmienia wielkość okna 79, gdy szybkość transmisji zmienia się dla danej szybkości próbkowania, tak że liczba bajtów na ramkę wyjściową80 jest ograniczona do zakresu na przykład od 5,3 kilobajtów do 8 kilobajtów. Tabele 1 i 2 są tabelami projektowania, które umożliwiąjąprojektantowi wybrać optymalnąwielkość okna i wielkość bufora dekodera czyli wielkość ramki dla danej szybkości próbkowania i szybkości transmisji. Przy małych szybkościach transmisji wielkość ramki jest stosunkowo duża. To umożliwia koderowi wykorzystanie niepłaskiego rozkładu wariancji sygnału akustycznego w czasie i poprawę osiągnięć kodera akustycznego. Przy dużych szybkościach wielkość ramki jest zmniejszona, tak że całkowita liczba bajtów nie przepełnia bufora dekodera. W wyniku tego projektant dostarcza do dekodera 8 kilobajtów pamięci RAM w celu zapewnienia wszystkich szybkości transmisji. To powoduje uproszczenie dekodera. Ogólnie wielkość okna akustycznego jest dana przez równanie:
g
Okno akustyczne = (Wielkość ramki)* Fprób* (-) ^Szybkość gdzie wielkość ramki jest wielkościąbufora dekodera, Fpb jest szybkością próbkowania i Tszybkość jest szybkością transmisji. Wielkość okna akustycznego jest niezależna od liczby kanałów akustycznych. Jednak gdy liczba kanałów jest zwiększona, stopień kompresji musi także wzrosnąć dla utrzymania wymaganej szybkości transmisji.
Tabela 1 Fprób (kHz)
Tszybkość 8-12 16-24 32-48 64-96 128-192
<512 kbit na s 1024 2048 4096 * *
<1024 kbit na s * 1024 2048 * *
<2048 kbit ba s * * 1024 2048 *
<4096 kbit na s * * * 1024 2048
Tabela 2
Fprób (kHz)
Tszybkosc 8-12 16-24 32-48 64-96 128-192
<512 kbit na s 8-5, 3k 8-5, 3k 8-5, 3k * *
<1024 kbit na s * 8-5, 3k 8-5, 3k * *
<2048 kbit na s * * 8-5, 3k 8-5,3k *
<4096 kbit na s * * * 8-5, 3k 8-5. 3k
Przy filtrowaniu podpasma jednorodny zespół 34 filtrów działania dziesiętnego 512-zaczepowych, 23-pasmowych wybiera z dwóch wielofazowych zespołów filtrów do podziału ramki 66 danych na 32 jednorodne podpasma 68 pokazane na fig. 5. Te dwa zespoły filtrów mają
183 092 różne własności odtwarzania, które wpływają na wzmocnienie kodowania podpasma co do dokładności odtwarzania. Jedna klasa filtrów jest nazywana doskonałymi filtrami odtwarzania PR. Wówczas gdy filtr kodowania działania dziesiętnego doskonałego filtru odtwarzania i filtr dekodowania interpolacji są umieszczone obok siebie, odtwarzany sygnał jest doskonały, przy czym doskonały jest określonyjako zawarty w 0,5 1sb przy 24 bitach rozdzielczości. Druga klasa filtrów jest nazywana niedoskonałymi filtrami odtwarzania NPR, ponieważ odtwarzany sygnał ma niezerowy poziom szumu, który jest związany z własnością niedoskonałego kasowania utożsamiania prosecu filtrowania.
Figura 7 pokazuje funkcje przenoszenia 82 i 84 doskonałych i niedoskonałych filtrów odtwarzania dla pojedynczego podpasma. Ze względu na to, że niedoskonałe filtry odtwarzania nie są ograniczone do zapewniania doskonałego odtwarzania, wykazują znacznie większe współczynniki eliminacji NSBR pasma bliskiego tłumieniowemu, to jest stosunek pasma przepustowego do pierwszego płata bocznego charakterystyki, niż doskonałe filtry odtwarzania 110 dB do 85 dB.
Figura 8 pokazuje płaty boczne filtru, powodujące wytwarzanie sygnału 86, który zwykle występuje w trzecim podpasmie dla wprowadzenia do sąsiednich podpasm. Wzmocnienie podpasma mierzy eliminację sygnału w sąsiednich podpasmach i dlatego wskazuje zdolność filtru do uniezależnienia sygnału akustycznego. Ze względu na to, że filtry NPR mają znacznie większy współczynnik NSBR niż filtry PR, będą także miały znacznie większe wzmocnienie podpasma. W wyniku tego filtry NPR zapewniają lepszą wydajność kodowania.
Figura 9 pokazuje całkowite zakłócenie skompresowanego strumienia danych zmniejszone, gdy całkowita szybkość transmisji bitów wzrasta dla obu filtrów PR i NPR. Jednak przy małych szybkościach różnica wartości wzmocnienia podpasma pomiędzy dwoma typami filtrów jest większa niż poziom szumu związany z filtrem NPR. Zatem krzywa zakłócenia 90 związana z filtrem NPR jest usytuowana poniżej krzywej zakłócenia 92 związanej z filtrem PR. Wobec tego przy małych szybkościach koder akustyczny wybiera zespół filtrów NPR. W pewnym punkcie 94 błąd kwantowania kodera spada poniżej poziomu szumu filtru NPR tak, że dodanie bitów dodatkowych do kodera z modulacjąADPCM nie daje żadnych dodatkowych korzyści. W tym punkcie koder akustyczny przełącza się na zespół filtrów PR.
Przy kodowaniu z modulacjąADPCM, koder z modulacjąADPCM 72 wytwarza próbkę prognozowanąp(n) z kombinacji liniowej H poprzednio odtworzonych próbek. Ta próbka prognozowana jest następnie odejmowana od wejścia x(n) dla dania próbki różnicowej d(n). Próbki różnicowe są skalowane przez podzielenie ich przez współczynnik skalowania RMS lub PEAK dla dopasowania amplitud RMS próbek różnicowych do charakterystyki Q urządzenia kwantującego. Skalowana próbka różnicowa ud(n) jest wprowadzana do charakterystyki urządzenia kwantującego z poziomami L etapu-wielkości SZ, jak to określono przez liczbę bitów ABIT przydzielonych bieżącej próbce. Urządzenie kwantujące wytwarza kod poziomu QL(n) dla każdej skalowanej próbki różnicowej ud(n). Te kody poziomu są ostatecznie przesyłane do stopnia z modulacją ADPCM dekodera. Dla aktualizacji prognozowanej historii, kody poziomu QL(n) urządzenia kwantującego są miejscowo dekodowane przy zastosowaniu odwrotnego urządzenia kwantującego 1/Q o charakterystyce identycznej do Q w celu wytwarzania kwantowanej, skalowanej próbki różnicowej ud(n). Próbka ud(n) jest ponownie skalowana przez pomnożenie jej przez współczynnik skalowania RMS lub PEAK, w celu wytworzenia d(n). Kwantowana wersja x(n) pierwotnej próbki wejściowej x(n) jest odtwarzana przez dodanie początkowej próbki prognozowania p(n) do kwantowanej próbki różnicowej d(n). Ta próbkajest następnie stosowana do aktualizacji prognozowanej historii.
Przy kwantowaniu wektorów, współczynniki prognozowania i próbki pasma podstawowego wielkiej częstotliwości sąkodowane przy zastosowaniu kwantowania wektorowego. Prognozowane kwantowanie wektorowe ma wymiar wektora 4 próbek i szybkości transmisji bitów 3 bity na próbkę. Końcowa książka kodów składa się zatem z 4096 wektorów kodowych o wymiarze 4. Wyszukiwanie wektorów dopasowanych ma strukturę dwupoziomowego drzewa, w którym każdy węzeł drzewa ma 64 gałęzie. Poziom górny pamięta 64 wektory kodowe węzła, które
183 092 są potrzebne tylko w koderze do wspomagania procesu wyszukiwania. Poziom dolny styka się z 4096 końcowymi wektorami kodowymi, które sąwymagane zarówno w koderze jak i dekoderze. Dla każdego wyszukiwania jest wymaganych 128 obliczeń MSE wymiaru 4. Książka kodów i wektory węzłów na poziomie górnym sąszkolone przy zastosowaniu metody LBG, z ponad 5 milionami wektorów szkolących współczynników prognozowania. Wektory szkolące są gromadzone dla całego podpasma, które ma dodatnie wzmocnienie prognozowania, przy kodowaniu szerokiego zakresu materiału akustycznego. Dla wektorów badanych w zespole szkolącym, uzyskuje się średnie SNR w przybliżeniu 30 dB.
Kwantowanie wektorowe wielkiej częstotliwości ma wymiar wektora 32 próbek, długość podramki i szybkość transmisji 0,3125 bitów na próbkę. Końcowa książka kodów składa się zatem z 1024 wektorów kodów o wymiarze 32. Wyszukiwanie wektorów dopasowanych ma strukturę dwupoziomowego drzewa, w którym każdy węzeł drzewa ma 32 gałęzie. Poziom górny pamięta 32 wektory kodowe węzła, które są potrzebne tylko w koderze. Poziom dolny zawiera 1024 końcowych wektorów kodowych, które są wymagane zarówno w koderze jak i dekoderze. Dla każdego wyszukiwania są wymagane 64 obliczenia MSE wymiaru 32. Książka kodów i wektory węzłów na poziomie górnym sąszkolone przy zastosowaniu metody LBG, z ponad 7 milionami wektorów szkolących próbki podpasma wielkiej częstotliwości. Próbki, które tworzą wektory, są gromadzone z wyj ść podpasm 16 do 32 przy szybkości próbkowania 48 kHz dla szerokiego zakresu materiału akustycznego. Przy szybkości próbkowania 48 kHz, próbki szkolące reprezentują częstotliwości akustyczne w zakresie od 12 do 24 kHz. Dla wektorów badanych w zespole szkolącym, uzyskuje się średnie SNR w przybliżeniu 3 dB. Chociaż 3 dB jest małym SNR, jest ono wystarczające do zapewniania dokładności wielkich częstotliwości lub wierności przy tych wielkich częstotliwościach. To jest percepcyjnie znacznie lepsze niż znane techniki, które po prostu obniżają podpasma wielkiej częstotliwości.
Przy kodowaniu łącznym częstotliwościowym, w zastosowaniach z bardzo małą szybkością transmisji bitów dokładność całkowitego odtwarzania można poprawić przez kodowanie tylko dodawania sygnałów podpasma wielkiej częstotliwości z dwóch lub więcej kanałów akustycznych zamiast kodowania ich niezależnie. Kodowanie łączne częstotliwościowe jest możliwe, ponieważ podpasma wielkiej częstotliwości często mają podobne rozkłady energii i ponieważ układ słuchowy człowieka jest czuły głównie na natężenie składowych o wielkich częstotliwościach, zamiast ich dokładną strukturę. Zatem odtworzony sygnał średni zapewnia dobrą dokładność całkowitą, ponieważ przy dowolnej szybkości transmisji bitów dostępnych jest więcej bitów do kodowania wyczuwalnie ważnych małych częstotliwości.
Indeksy kodowania łącznego częstotliwościowego JOINX są przesyłane bezpośrednio do dekodera w celu wskazania, które kanały i podpasma zostały połączone i gdzie kodowany sygnał jest usytuowany w strumieniu danych. Dekoder odtwarza sygnał w wyznaczonym kanale i następnie kopiuje go do każdego z pozostałych kanałów. Każdy kanał jest następnie skalowany zgodnie z poszczególnym współczynnikiem skalowania RMS. Ze względu na to, że kodowanie łączne częstotliwościowe powoduje uśrednianie sygnałów czasowych w oparciu o podobieństwo rozkładów energii, dokładność odtwarzaniajest zmniejszona. Zatem jego zastosowanie jest zwykle ograniczone do zastosowań z małą szybkością transmisji bitów i głównie do sygnałów 10-20 kHz. W środowisku do zastosowań z dużą szybkością transmisji bitów kodowanie łączne częstotliwościowe jest zwykle uniemożliwione.
F igura 10 wyjaśnia działanie kodera podpasma i procesu kodowania dla pojedynczego pasma bocznego, który jest kodowany przy zastosowaniu procesów z modulacją ADPCM/APCM, a zwłaszcza oddziaływanie wzajemne etapu analizy 70 i kodera z modulacjąADPCM 72, pokazane na fig. 5 oraz system zarządzania 30 bitami globalnymi, pokazany na fig. 2.
Figury 11-19 pokazują szczegółowo procesy składowe pokazane na fig. 13. Zespół 34 filtrów dzieli sygnał danych akustycznych z moduli^iyi^kodowo-impulsową 14 na sygnały x(n) 32 podpasm, które są wpisane w poszczególne bufory 96 próbkowania podpasma. Zakładając wielkość okna akustycznego 4096 próbek, każdy bufor próbkowania podpasma pamięta pełną ramkę z 128 próbek, które sądzielone na 4 podramki 32-próbkowe. Wielkość okna z 1024 próbek powo183 092 dowałby wytwarzanie pojedynczej podramki z 32 próbek. Próbki x(n) są kierowane do etapu analizy 70 w celu określania współczynników prognozowania, trybu prognozowania PMODE, przejściowego trybu pracy TMODE i współczynników skalowania SF dla każdej podramki. Próbki x(n) są także dostarczane do systemu zarządzania 30, który określa przydział bitów ABIT dla każdej podramki na podpasmo na kanał akustyczny. Następnie próbki x(n) są przepuszczane do kodera z modulacjąADPCM 72, po jednej podramce w danym czasie.
Przy ocenie optymalnych współczynników prognozowania, współczynniki prognozowania H, korzystnie 4-tego rzędu, są wytwarzane oddzielnie dla każdej podramki, stosując standardową metodę autokorelacji 98 optymalizowaną w bloku próbek x(n) podpasma, to jest równań Weinera-Hopfa lub Yule'a-Walkera.
Przy kwantowaniu optymalnych współczynników prognozowania, każdy zespół czterech współczynników prognozowania jest korzystnie kwantowany przy zastosowaniu książki kodów 12-bitowych wektorów 4-elementowego wyszukiwania drzewa, 3 bity na współczynnik, opisanej powyżej. Książka kodów 12-bitowych wektorów zawiera 4096 wektorów współczynników, które są optymalizowane dla wymaganego rozkładu prawdopodobieństwa przy zastosowaniu standardowego algorytmu grupowania. Wyszukiwanie 100 kwantowania wektorowego wybiera wektor współczynnika, który ma najmniejszy ważony średni błąd kwadratowy względem współczynników optymalnych. Współczynniki optymalne dla każdej podramki są następnie zastępowane przez te „kwantowane” wektory. Odwrotny kwantowany wektorowo LUT 101 jest stosowany do dostarczania kwantowanych współczynników prognozowanych do kodera z modulacją ADPCM 72.
Przy ocenie sygnału różnicowego prognozowania d(n), problemem z modulacjąADPCM jest to, że sekwencja próbek różnicowych d(n) nie może być łatwo prognozowana przed rzeczywistym procesem rekurencyjnym 72. Podstawowym wymaganiom podpasma adaptacyjnego z moduli^tyiąADPCM w przód jest to, żeby energia sygnału różnicowego była znana przed kodowaniem z modulacją ADPCM w celu obliczania właściwego przydziału bitów dla urządzenia kwantującego, które wytwarza znany błąd kwantowania lub poziom szumu w odtwarzanych próbkach. Znajomość energii sygnału różnicowego jest także wymagana do umożliwienia określenia optymalnego współczynnika skalowania różnicowego przed kodowaniem.
Niekorzystnie energia sygnału różnicowego nie tylko zależy od charakterystyk sygnału wejściowego, lecz także od osiągnięć urządzenia prognozującego. Poza znanymi ograniczeniami, takimi jak rząd prognozowania i optymalność współczynników prognozowania, na osiągnięcia urządzenia prognozującego wpływa także poziom błędu kwantowania lub szumu indukowanego w odtwarzanych próbkach. Ze względu na to, że szum kwantowania jest wyznaczony przez końcowy przydział bitów ABIT i same wartości współczynnika skalowania różnicowego RMS lub PEAK, ocena energii sygnału różnicowego musi następować iteracyjnie 102.
W etapie 1 następuje założenie zerowego błędu kwantowania. Pierwsza ocena sygnału różnicowego jest dokonywana przez przeprowadzenie buforowanych próbek x(n) podpasma przez proces z modulacjąADPCM, w którym nie dokonuje się kwantowania sygnału różnicowego. To jest uzyskiwane przez uniemożliwienie kwantowania i skalowania RMS w pętli kodowania z modulacjąADPCM. Przez ocenę sygnału różnicowego d(n) w ten sposób, usuwane sąz obliczeń wpływy wartości współczynników skalowania i przydziałów bitów. Jednak wpływ błędu kwantowania na współczynniki prognozowania jest brany pod uwagę w procesie przez zastosowanie wektorowych, kwantowanych współczynników prognozowania. Odwrotny kwantowany wektorowo lut 104 jest stosowany do dostarczania kwantowanych współczynników prognozowania.
W celu dalszego zwiększenia dokładności ocenianego prognozowania, próbki historii z rzeczywistego prognozowania z modulacjąADPCM, które były zgromadzone na końcu poprzedniego bloku, są kopiowane dla prognozowania przed obliczaniem. To zapewnia, że prognozowanie rozpoczyna się od tego miejsca, gdzie rzeczywiste prognozowanie z modulacjąADPCM pozostało na końcu poprzedniego bufora wejściowego.
Główna różnica pomiędzy tą oceną ed(n) i rzeczywistym procesem d(n) jest taka, żejest ignorowany wpływ szumu kwantowania na odtwarzane próbki x(n) i na zmniejszoną dokładność
183 092 prognozowania. W przypadku urządzeń kwantujących o dużej liczbie poziomów, poziom szumu będzie zwykle mały, zakładając właściwe skalowanie i dlatego rzeczywista energia sygnału różnicowego będzie dokładnie dopasowana do obliczonej podczas oceny. Jednak gdy liczba poziomów urządzenia kwantującego jest mała, jak jest to w przypadku typowych koderów akustycznych o małej szybkości transmisji bitów, rzeczywisty sygnał prognozowany i dlatego energia sygnału różnicowego mogą znacznie różnic się od ocenianej. To powoduje wytwarzanie poziomów szumu kodowania, które różnią się od prognozowanych wcześniej w procesie adaptacyjnym przydzielania bitów.
Pomimo tego zmiana w osiągnięciach prognozowania może nie być znaczna dla zastosowania lub szybkości transmisji bitów. Zatem ocena może być stosowana bezpośrednio do obliczania przydziałów bitów i współczynników skalowania bez iteracji. Dodatkowym uściśleniem byłaby kompensacja strat osiągnięć przez rozmyślną nadmierną ocenę energii sygnału różnicowego, jeżeli jest prawdopodobne, że urządzenie kwantujące o małej liczbie poziomów ma być przydzielone temu podpasmu. Nadmierna ocena może być także stopniowana zgodnie ze zmieniającą się liczbą poziomów urządzenia kwantującego dla poprawy dokładności.
W etapie 2 następuje ponowne obliczanie przy zastosowaniu ocenianych przydziałów bitów i współczynników skalowania. Po wytworzeniu przydziałów bitów ABIT i współczynników skalowania SF przy zastosowaniu pierwszego sygnału różnicowego oceny, ich optymalność może być zbadana przez przeprowadzenie dalszego procesu oceny z modulacjąADPCM przy zastosowaniu ocenianych wartości ABIT i RMS czyli PEAK w pętli z modulacjąADPCM 72. Jak przy pierwszej ocenie, historia ocenianego prognozowania jest kopiowana z rzeczywistego prognozowania z modulacją ADPCM przed rozpoczęciem obliczania dla zapewnienia, żeby oba prognozowania rozpoczynały się od tego samego punktu. Po przejściu buforowanych próbek wejściowych przez tę drugą pętlę oceny, uzyskiwany poziom szumu w każdym podpasmie jest porównywany z założonym poziomem szumu w procesie adaptacyjnym przydziału bitów. Jakiekolwiek znaczne różnice mogą być kompensowane w celu modyfikacji przydziału bitów i/lub współczynników skalowania.
Etap 2 może być powtórzony w celu właściwego uściślenia poziomu rozłożonego szumu w podpasmach, za każdym razem stosując najbardziej aktualną ocenę sygnału różnicowego do obliczania następnego zespołu przydziałów bitów i współczynników skalowania. Ogólnie, jeżeli współczynniki skalowania zmieniałyby się więcej niż w przybliżeniu 2-3 dB, następnie są one ponownie obliczane. Inaczej przydział bitów stwarzałby niebezpieczeństwo zakłócenia współczynników sygnał do maski, uzyskiwanych w psychoakustycznym procesie maskowania lub odmiennie w procesie mmse. Zwykle jest wystarczająca pojedyncza iteracja.
Przy obliczaniu trybów prognozowania PMOD podpasma, w celu poprawy wydajności kodowania sterownik 106 dowolnie wyłącza proces prognozowania, gdy wzmocnienie prognozowania w bieżącej podramce spada poniżej poziomu progowego przez nastawienie znacznika stanu PMODE. Znacznik stanu PMODE jest nastawiany na jeden, gdy wzmocnienie prognozowania, stosunek energii sygnału wejściowego i ocenianej energii sygnału różnicowego, mierzony podczas etapu oceny dla bloku próbek wejściowych, przekracza pewien dodatni poziom progowy. Odwrotnie, jeżeli mierzone wzmocnienie prognozowaniajest mniejsze niż dodatni poziom progowy, współczynniki prognozowania z modulacjąADPCM są nastawiane na zero zarówno w koderze jak i dekoderze dla tego pasma i poszczególny PMODE jest nastawiany na zero. Poziom progowy wzmocnienia prognozowania jest nastawiany tak, że jest równy stopniowi zakłócenia organizacji transmitowanego wektora współczynnika prognozowania. To jest dokonywane w celu zapewnienia, że gdy PMODE = 1, wzmocnienie kodowania dla procesu z modulacją ADPCM jest zawsze większe lub równe wzmocnieniu kodowania w procesie kodowania adaptacyjnym z modulacją kodowo-impulsową w przód. Inaczej przez nastawienie PMODE na zero i przestawienie współczynników prognozowania, proces z modulacją ADPCM jest odwracany po prostu na APCM.
Znaczniki stanu PMODE mogą być nastawione na stan wysoki w dowolnym lub wszystkich podpasmach, jeżeli zmiany wzmocnienia kodowania z modulaccąADPCM nie są ważne
183 092 dla programu użytkowego. Odwrotnie, znaczniki stanu PMODE mogą być nastawione na stan niski, jeżeli na przykład pewne podpasma nie mają być wcale kodowane, szybkość transmisj i bitów w programie użytkowym jest dość wysoka, tak że nie są wymagane wzmocnienia prognozowania do utrzymania subiektywnej jakości akustycznej, zawartość przejściowa sygnałujest duża lub charakterystyka trwałego połączenia kodowanych sygnałów akustycznych z modulacją ADPCM nie jest po prostu pożądana, jak to może mieć miejsce w przypadku programów użytkowych przy nadawaniu sygnałów akustycznych.
Oddzielne tryby prognozowania PMODE są transmitowane dla każdego podpasma z szybkością równa szybkości aktualizacji liniowego prognozowania w procesach kodowania i dekodowania z modulacją ADPCM. Celem parametru PMODE jest wskazanie dekoderowi, czy określone podpasmo będzie miało dowolny adres wektora współczynnika prognozowania, związany z jego blokiem kodowanych danych akustycznych. Wówczas gdy PMODE = 1 w dowolnym podpasmie, adres wektora współczynnika prognozowania będzie zawsze wprowadzony do strumienia danych. Wówczas gdy PMODE = 0 w dowolnym podpasmie, adres wektora współczynnika prognozowania nie będzie nigdy wprowadzony do strumienia danych i współczynniki prognozowania są nastawione na zero w etapach zarówno kodowania jak i dekodowania z modulacją ADPCM.
Obliczanie PMODE rozpoczyna się przez analizę energii buforowanego sygnału wejściowego podpasma względem odpowiednich energii buforowanego ocenianego sygnału różnicowego, otrzymywanych podczas oceny pierwszego etapu, to jest zakładając brak błędu kwantowania. Zarówno próbki wejściowe x(n) jak i oceniane próbki różnicowe ed(n) są buforowane dla każdego podpasma oddzielnie. Wielkość buforu jest równa liczbie próbek zawartych w każdym okresie aktualizacji prognozowania, na przykład wielkości podramki. Wzmocnienie prognozowania jest następnie obliczane jako:
P wzmocnienie (dB) = 20.0*Logio(RMSx(n)/RMStdn) gdzie RMSx(n) = wartość średnia kwadratowa buforowanych próbek wejściowych x(n) i RMSed(n)=wartość średnia kwadratdwa buforowanych, fcenianych próbek różnicowych ed(n).
Dla dudotoićh wzmocnień prognoeow'aniu, sygnał różnicowy rebtprbobiętnic mniejszy niż sygnał w ej ^0^7 i wrożr być osiowany omniesozóóy szom odst^zenia prey zastosowaniu η-ο^η z modunaotkADPCM w APCM drz tet οοπό szybkości (ΓαΜ-ηΒ-r bitów. Dla ^ηmuych wzmozmeń, koder z mo dykcją ADPCM wolwnsza sygaar nśżiii^o wy yrzeciętaie yiż tρnnałwerCciller'y, co daje więkeze PCziomy twu-nu niś APCM dia cej symej ozybkon ii ^^1™^ Zwykfo poziorn progowy wrmocoisnia poogndzewąoir, któoy wtoozn PM ODE , t)si^oic dhdbtyii i)i;r^zir πιτΟ wartośń, ktzra uwr^o^li^^drria nodctyową bOJ'onmość kaMału,
Dlżywadą nrzcz ttansmifowopio adresu wektorowruw wspźłszydoików wągconowcnia.
Prwą obiiczooin orzejściawych iryynw TMODE yndpasmw, sterownik 106 wylicza tryby przejŚPiowe TMODE dlokoCdnj ydnrrndeiwkażOumprPnzrmio. Tiyky TMODE wskanująhczbę wspó(cuynnikUw skaiowżdio b próOOi oo yub—zd ocrożanego nyτbdhi roM^ODw ewn edują, gdy TMODE j-tilubw yufbpeptpnnaru webki wwef^o zin) podpaomai wćw PMODE p y, gin któn)ch dy aoe wDżne. Teτby TMODE ćw aUtyalizowunć z taką odDą zoybkośaio, jaD aeresd oveórdrowd wso óicdwnnik(')se drooroeowndin o i^ćolraowoWo waok ąo Pekodesh. nelem trybów pszm0clowyu0 jwsr bmnisjszbóiu rrc'ćwalnouh bię dńw asho wntupwogn dokowani aploo wdetbyowzniu i^(mIsSjv przejśoiowysn sngndnt.
ntpy djzejściwwu jest określony jako szybkie przejście pomiędzy sygnałem o małej amplitudzie ś sygnałem o (^^oo . Zowzglbdu do tej że w'spOręzydmki sPalowaoia oj nźzrdnidne os SIoOu oróbek róamberwdnh ρζΟι^ι^, ίεζεΗ r^Wsa zniżana bmplienyy sygnału ma η^'ο^ w ΗιΑυ. tejerPreżwiż wyst^hUJP dron oaaejś-lowy, obliczony wrpOłbeynnik skaiowpoia o£00o ifo żebyb yć znaczniw więTuz0 nta o^malny dla obół^ o matej am^itubzir, po^10- ddżjązocΟ g^n ρτιρτΙΟ Dantegę błąd kwpntowania w prr>ł^l^£^<^h poproj dzoj ących siar 0^0rciody możo Wpr: kardzo WuD}^. Ten rbum rw- odbiorany t rkó zakłóc«Pi^r^ o^u echa wstapbono.
183 092
W praktyce tryb przejściowy jest stosowany do modyfikacji współczynnika skalowania podpasma, uśredniającego długość bloku dla ograniczania wpływu stanu przejściowego na skalowanie próbek bezpośrednio go poprzedzających. Uzasadnieniem zrobienia tego jest zjawisko maskowania wstępnego właściwe dla układu słuchowego człowieka, który sugeruje, że w obecności stanów przejściowych, szum może być maskowany przed stanem przejściowym, przy założeniu, że jego czas trwania jest krótki.
W zależności od wartości PMODE, albo zawartość, to jest podramka, bufora próbki x(n) podpasma albo ed(n) bufora ocenianej różnicy są kopiowane do bufora analizy przejściowej. Tutaj zawartości bufora są dzielone jednorodnie na 2,3 lub 4 pod-podramki, w zależności od wielkości próbki bufora analizy. Dla przykładu, jeżeli bufor analizy zawiera próbki 32 podpasm (21,3 ms @1500 Hz), bufor jest dzielony na 4 pod-podramki, każda z 8 próbek, dając rozdzielczość czasu 5,3 ms dla szybkości próbkowania podpasma 1500 Hz. Odmiennie, jeżeli okno analizy było konfigurowane przy 16 próbkach podpasma, wówczas bufor musi być podzielony tylko na dwie pod-podramki, aby dać taką samą rozdzielczość czasu.
Sygnał w każdej pod-podramce jest analizowany i jest określany stan przejściowy każdej, innej niż pierwsza. Jeżeli jakieś pod-podramki są oceniane jako przejściowe, wytwarzane są dwa oddzielne współczynniki skalowania dla bufora analizy, to jest bieżącej podramki. Pierwszy współczynnik skalowania jest obliczany z próbek w pod-podramakch poprzedzających przejściową pod-podramkę. Drugi współczynnik skalowania jest obliczany z próbek w przejściowej pod-podramce wraz ze wszystkimi poprzednimi pod-podramkami.
Stan przej ściowy pierwszej pod-podramki nie jest obliczany, ponieważ szum kwantowania jest ograniczony automatycznie przez początek samego okna analizy. Jeżeli więcej niż jedna pod-podramka jest określana jako przejściowa, wówczas jest rozważana tylko ta, która występuje pierwsza. Jeżeli nie są wykrywane wcale żadne podbufory przejściowe, wówczas jest obliczany tylko pojedynczy współczynnik skalowania, stosując wszystkie z próbek w buforze analizującym. W ten sposób wartości współczynnika skalowania, które zawierają próbki przejściowe, nie są stosowane do skalowania wcześniejszych próbek więcej niż okres pod-podramki w czasie wstecz. Szum kwantowania przej ściowegojest więc ograniczony do okresu pod-podramki.
Przy określaniu stanu przejściowego, pod-podramkajest określanajako przejściowa, jeżeli stosunek jej energii w poprzednim podbuforze przekracza przejściowy poziom progowy (TT) i energia w poprzedniej podramce jest poniżej poziomu progowego przejściowego wstępnego (TT). Wartości TT i PTT zależą od szybkości transmisji bitów i stopnia wymaganego tłumienia echa wstępnego. Są one normalnie zmieniane, aż zakłócenie typu odbieranego echa wstępnego dopasowuje się do poziomu innych błędów kodowania, jeżeli one istnieją. Zwiększenie wartości TT i/lub zmniejszenie wartości PTT powoduje malenie prawdopodobieństwa określania pod-podramek jako przejściowe i dlatego zmniejsza szybkość transmisji bitów związaną z transmisją współczynników skalowania. Odwrotnie, zmniejszenie wartości TT i/lub zwiększenie wartości PTT powoduje wzrost prawdopodobieństwa określania pod-podramek jako przejściowe i dlatego zwiększa szybkość transmisji bitów związaną z transmisją współczynników skalowania.
Jeżeli TT i PTT są indywidualnie nastawiane dla każdego podpasma, czułość wykrywania stanu przejściowego kodera może być dowolnie nastawiana dla dowolnego podpasma. Dla przykładu, jeżeli zostaje wykryte, że echo wstępne w podpasmach wielkiej częstotliwości jest mniej wyczuwalne niż w podpasmach mniejszej częstotliwości, wówczas poziomy progowe mogą być nastawiane na zmniejszenie prawdopodobieństwa stanów przejściowych określanych w podpasmach większej częstotliwości. Ponadto, ponieważ tryby TMODe są wprowadzane do skompresowanego strumienia danych, dekoder nigdy nie potrzebuje znać algorytmu wykrywania stanu przejściowego stosowanego w koderze w celu właściwego dekodowania informacji TMODE.
Zostanie teraz opisana konfiguracja z czterema podbuforami.
Figura 11a pokazuje, że jeżeli pierwsza pod-podramka 108 w buforze analizującym 109 podpasma jest przejściowa lub jeżeli nie są wykrywane żadne pod-podramki przejściowe, wówczas TMODE = 0. Jeżeli druga pod-podramka jest przejściowa, a nie pierwsza, wówczas TMODE = 1. Jeżeli trzecia pod-podramka jest przejściowa, a nie pierwsza lub druga, wówczas
183 092
TMODE = 2. Jeżeli tylko czwarta pod-podramka jest przejściowa, lecz nie pierwsza, wówczas TMODE = 3.
Figura 11b pokazuje, że przy obliczaniu współczynników skalowania, gdy TMODE = 0, współczynniki skalowania 110 są obliczane we wszystkich pod-podramkach. Wówczas gdy TMODE = 1, pierwszy współczynnik skalowania jest obliczany w pierwszej pod-podramce i drugi współczynnik skalowania w poprzednich pod-podramkach. Wówczas gdy TMODE = 2, pierwszy współczynnik skalowania jest obliczany w pierwszej i drugiej pod-podramce i drugi współczynnik skalowania we wszystkich poprzednich pod-podramkach. Wówczas gdy TMODE = 3, pierwszy współczynnik skalowania jest obliczany w pierwszej, drugiej i trzeciej pod-podramce i drugi współczynnik skalowania jest obliczany w czterech pod-podramkach.
Przy kodowaniu i dekodowaniu z modulacjąADPCM, stosując tryb TMODE, gdy TMODE = 0, pojedynczy współczynnik skalowania jest stosowany do skalowania próbek różnicowych podpasma dla czasu trwania całego bufora analizującego, to jest podramki i jest transmitowany do detektora dla ułatwienia skalowania odwrotnego. Wówczas gdy TMODE>0, dwa współczynniki skalowania są stosowane do skalowania próbek różnicowych podpasma i oba sątransmitowane do dekodera. Dla dowolnego trybu TMODE każdy współczynnik skalowania jest stosowany do skalowania próbek różnicowych stosowanych do wytwarzania go w pierwszym miejscu.
Przy obliczaniu współczynników skalowania podpasma RMS lub PEAK, w zależności od wartości PMODE dla tego podpasma, albo oceniane próbki różnicowe ed(n) albo próbki wejściowe x(n) podpasma są stosowane do obliczania właściwych współczynników skalowania. Tryby TMODE są stosowane przy tym obliczaniu do określania zarówno liczby współczynników skalowania, jak i do identyfikacji pod-podramek w buforze.
Przy obliczaniu współczynnika skalowania RMS, dlaj-tego podpasma współczynniki skalowania rms są obliczane jak następuje.
Gdy TMODE=0, wówczas pojedyncza wartość rms jest:
L
RMSj = (Σed(n)2 / L)0,5 n = 1 gdzie L jest liczbą próbek w podramce.
Gdy TMODE>0, dwie wartości rms są:
k
RMS1j = (Σed(n)2 /L^ n - 1 k + 1
RMS2 = (Σed(n)2 / L)0, n= 1 gdzie k=(TMODE*L/NSB) i NSB jest liczbą jednorodnych pod-podramek.
Jeżeli PMODE=0, wówczas próbki ed,(n) są zastępowane przez próbki wejściowe x,(n). Przy obliczaniu współczynnika skalowania PEAK, dla j-tego podpasma współczynniki skalowania szczytowego są obliczane jak następuje.
Gdy TMODE=0, pojedyncza wartość szczytowa jest:
PEAKj = max (ABS (ed, (n)) dla n=1, L Gdy TMODE>0, dwie wartości szczytowe są:
PEAK1j=max (ABS (edj (n)) dla n=1, (TMODE*L/NBS)
PEAK2j=max (ABS (edj )n)) dla n= (1 +TMODE*L/NBS), L
Jeżeli PMODE=0, wówczas próbki edj (n) sązastępowane przez próbki wejściowe Xj (n).
183 092
Przy kwantowaniu PMODE, TMODE i współczynników skalowania i kwantowaniu trybów PMODE, znaczniki stanu prognozowania majątylko dwie wartości, włączenia lub wyłączenia, i są transmitowane do dekodera bezpośrednio jako kody 1-bitowe.
Przy kwantowaniu trybów TMODE, znaczniki stanu przejściowego mają maksymalnie 4 wartości: 0,-1,2, i 3 i są albo transmitowane do dekodera bezpośrednio, stosując 2-bitowe słowa kodu liczb całkowitych bez znaku lub opcjonalnie przez 4-poziomątabelę entropii w celu zmniejszenia średniej długości słowa TMODE do poniżej 2 bitów. Zwykle opcjonalne kodowanie entropii jest stosowane do programów użytkowych o małej szybkości transmisji bitów w celu zachowania bitów.
Figura 12 przedstawia szczegółowo proces kodowania 112 entropii, jest jak następuje: kody stanu przejściowego TMODE (j) dla j podpasm są odwzorowywane do postaci liczby p
4-poziomowej książki kodów o zmiennej długości i środkowym elemencie wyniesionym nad wiersz, gdzie każda książka kodów jest optymalizowana dla różnej wejściowej charakterystyki statystycznej. Wartości TMODE są odwzorowywane w 4-poziomowych tabelach 114 i jest obliczane 116 całkowite użycie bitów, związane zkażdątabeląNbp. Tabela, która zapewnia najmniejsze użycie bitów w procesie odwzorowania, jest wybierana 118 przy zastosowaniu indeksu THUFF. Odwzorowane kody VTMODE(j) są wydzielane z tej tabeli, upakowywane i transmitowane do dekodera wraz ze słowem indeksu THUFF. Dekoder, który utrzymuje ten sam zespół 4-poziomowych tabel odwrotnych, stosuje indeks THUFF do kierowania wejściowych kodów VTMODE(j) o zmiennej długości do właściwej tabeli dla dekodowania z powrotem do indeksów TMODE.
Przy kwantowaniu współczynników skalowania podpasma, w celu transmisji współczynników skalowania do dekodera, muszą być one kwantowane do znanego formatu kodu. W tym systemie są one kwantowane przy zastosowaniu jednorodnej, 64-poziomowej charakterystyki logarytmicznej, jednorodnej, 128-poziomowej charakterystyki logarytmicznej lub jednorodnej, 64-poziomowej charakterystyki logarytmicznej 120 kodowanej ze zmienną szybkością. Urządzenie kwantujące 64-poziomowe ma wielkość stopniową 2,25 dB w obu przypadkach i 128-poziomowe wielkość stopniową 1,25 dB. Kwantowanie 64-poziomowe jest stosowane do szybkości transmisji bitów, od małych do średnich, a dodatkowe kodowanie ze zmienną szybkościąjest stosowane do programów użytkowych o małej szybkości transmisji bitów, a 128-poziomowe jest ogólnie stosowane do dużych szybkości transmisji bitów.
Proces kwantowania 120 jest przedstawiony na fig. 13. Współczynniki skalowania RMS lub PEAK są odczytywane z bufora 121, przetwarzane do domeny 122 dziennika i następnie dostarczane albo do 64-poziomowego albo 128-poziomowego, jednorodnego urządzenia kwantującego 124, 126, określonego przez sterowanie 128 stanem kodera. Kwantowane współczynniki skalowania dziennika są następnie wpisywane do bufora 130. Zakres 128 i 64-poziomowych urządzeń kwantujących jest wystarczający do pokrycia współczynników skalowania przez zakres dynamiczny o w przybliżeniu 160 dB i 144 dB. 128-poziomowa granica górna jest nastawiana dla pokrycia zakresu dynamicznego 24-bitowych, wejściowych, cyfrowych sygnałów akustycznych z modulacjąkodowo-impulsową. 64-poziomowa granica górna jest nastawiana dla pokrycia zakresu dynamicznego 20-bitowych, wejściowych, cyfrowych sygnałów akustycznych z modulacja kodowo-impulsową.
Współczynniki skalowania dziennika są odwzorowywane do urządzenia kwantującego i współczynnik skalowania jest zastępowany przez najbliższy kod poziomu RMSqL lub PEAKqL urządzenia kwantującego. W przypadku 64-poziomowego urządzenia kwantującego te kody mają długość 6 bitów i zakres pomiędzy 0-63. W przypadku 128-poziomowego urządzenia kwantującego, kody maja długość 7 bitów i zakres pomiędzy 0-127.
Kwantowanie odwrotne 131 j est realizowane po prostu przez odwzorowanie kodów poziomu z powrotem do określonej odwrotnej charakterystyki kwantowania dla zapewnienia wartości RMSq lub PEAKq. Kwantowane współczynniki skalowania są stosowane zarówno w koderze jak i dekoderze dla skalowania próbek różnicowych z modulacjąADPCM lub APCM, jeżeli PMO183 092
DE = 0, zapewniając przez to, że zarówno procesy skalowania jak i odwrotnego skalowania są identyczne.
Jeżeli szybkość transmisji bitów kodów 64-poziomowych urządzeń kwantujących ma być zmniejszona, realizowana jest dodatkowa entropia lub kodowanie o zmiennej długości. Kody 64-poziomowe podlegają najpierw kodowaniu różnicowemu 132 pierwszego rzędu w podpasmach j, przechodząc w drugim podpaśmie (j=2) do najwyższego podpasma aktywnego.
Proces może być także stosowany do kodowania współczynników skalowania PEAK. Oznaczone kody różnicowe DRMSqL (j) lub DPEAKqL (j) mają maksymalny zakres +/-63 i są pamiętane w buforze 134. W celu zmniejszenia ich szybkości transmisji bitów w pierwotnych kodach 6-bitowych, kody różnicowe są odwzorowywane do liczby (p) 127-poziomowych książek kodów o zmiennej długości i środkowym elemencie wyniesionym nad wiersz. Każda książka kodów jest optymalizowana dla różnej wejściowej charakterystyki statystycznej.
Proces kodowania entropii oznaczonych kodów różnicowych jest taki sam, jak proces kodowania entropii dla stanów przejściowych przedstawionych na fig. 12, poza tym, że jest stosowanych p 127-poziomowych tablic kodów o zmiennej długości. Tabela, która zapewnia najmniejsze użycie bitów w procesie odwzorowania, jest wybierana przy zastosowaniu indeksu SHUFF. Odwzorowane kody VDRMSqL (j) sąwydzielane z tej tabeli, pakowane i transmitowane do dekodera wraz ze słowem indeksowym SHUFF. Dekoder, który utrzymuje ten sam zespół (p) 127-poziomowych tabel odwrotnych, stosuje indeks SHUFF do kierowania kodów wejściowych o zmiennej długości do właściwej tabeli dla dekodowania z powrotem do poziomów kodu różnicowego urządzenia kwantującego. Poziomy kodu różnicowego są przywracane do wartości bezwzględnych przy zastosowaniu następujących procedur:
RMSqL(1) = DRMSql(1)
RMSql (j) = DRMSql (j) + RMSql (j-1) dla j=2,...K i poziomy kodu różnicowego PEAK są przywracane do wartości bezwzględnych przy zastosowaniu następujących procedur:
PEAKqL (1) = DPEAKqL (1)
PEAKqL (j) = DPEAKql (j) + PEAKql (j-1) dla j=2,...K gdzie w obu przypadkach K = liczba podpasm aktywnych.
Przydział bitów globalnych następuje w systemie zarządzania 30 bitami globalnymi, pokazanym na fig. 10, który zarządza rozdziałem bitów ABIT, określa liczbę podpasm aktywnych SUB i strategię łącznej częstotliwości JOINX oraz strategię kwantowania wektorowego dla wielokanałowego kodera akustycznego w celu zapewniania subiektywnie przezroczystego kodowania przy zmniejszonej szybkości transmisji bitów; To powoduje zwiększenie liczby kanałów akustycznych i/lub czasu odtwarzania, który może być kodowany i pamiętany na stałym nośniku, przy utrzymaniu lub poprawie dokładności akustycznej. Ogólnie system zarządzania 30 najpierw przydziela bity każdemu podpasmu zgodnie z analizą psychoakustyczną modyfikowaną przez wzmocnienie prognozowania kodera. Pozostałe bity są następnie przydzielane zgodnie ze schematem mmse dla obniżenia poziomu całkowitego szumu. W celu optymalizacji wydajności kodowania, system zarządzania 30 przydziela równocześnie bity we wszystkich kanałach akustycznych, wszystkich podpasmach i w całej ramce. Ponadto można zastosować strategię łącznego kodowania częstotliwościowego. W ten sposób system wykorzystuje nierównomierny rozdział energii sygnału pomiędzy kanały akustyczne, w zakresie częstotliwości i w czasie.
Podczas analizy psychoakustycznej pomiary psychoakustyczne są stosowane do określania wyczuwalnie niewłaściwej informacji w sygnale akustycznym. Wyczuwalnie niewłaściwa informacja jest określana jako te części sygnału akustycznego, które nie powinny być słyszane przez słuchaczy i mogąbyć mierzone w danym okresie czasu, zakresie częstotliwości lub w oparciu o inne dane.
Dwa główne czynniki wpływająna pomiar psychoakustyczny. Jednym jest zależny od częstotliwości, bezwględny poziom progowy słyszalności przez ludzi. Innym jest zjawisko maskowania polegające na zdolności człowieka słyszenia jednego dźwięku i drugiego dźwięku
183 092 odtwarzanego równocześnie lub nawet po pierwszym dźwięku. Innymi słowy, pierwszy dźwięk zapobiega słyszeniu przez nas drugiego dźwięku i mówi się, że jest maskowany.
W koderze podpasma wynik końcowy obliczenia psychoakustycznego jest zespołem liczb, które określaj ą niesłyszalny poziom szumu dla każdego podpasma w tej chwili. To obliczanie jest wprowadzone do standardu. Te liczby zmieniają się dynamicznie wraz z sygnałem akustycznym. Koder usiłuje regulować poziom szumu kwantowania w podpasmach przy pomocy procesu przydziału bitów, tak że szum kwantowania w tych podpasmach jest mniejszy niż poziom słyszalny.
Dokładne obliczanie psychoakustyczne wymaga zwykle zastosowania rozdzielczości wielkiej częstotliwości przy przekształcaniu czasowo-częstotliwościowym. To daje duże okno analizy dla przekształcenia czasowo-częstotliwościowego. Standardowa wielkość okna analizy wynosi 1024 próbek, co odpowiada podramce skompresowanych danych akustycznych. Rozdzielczość częstotliwościowa o długości 1024 ffi jest w przybliżeniu dopasowana do rozdzielczości czasowej ucha ludzkiego.
Wyjściem modelu psychoakustycznego jest stosunek sygnału do maski SMR dla każdego z 32 podpasm. SMR wskazuje wielkość szumu kwantowania, który może wytrzymać określone podpasmo, a więc wskazuje także liczbę bitów wymaganych do kwantowania próbek w podpaśmie. Szczególnie, duże SMR (>>1) wskazuje, że jest wymagana duża liczba bitów i małe SMR (>0) wskazuje, że jest wymaganych mniej bitów. Jeżeli SMR<0, wówczas sygnał akustyczny jest usytuowany poniżej poziomu progowego maskowania szumu i żadne bity nie są wymagane do kwantowania.
Figura 14 pokazuje, że wytwarzane są stosunki sygnału do maski SMR dla każdej kolejnej ramki, ogólnie przez obliczenie fft, korzystnie o długości 1024, próbek akustycznych z modulacją kodowo-impulsową w celu wytwarzania sekwencji współczynników częstotliwości 142, zwinięcie współczynników z tonem zależnym od częstotliwości i psychoakustycznymi maskami 144 szumu dla każdego podpasma, uśrednienie uzyskanych współczynników w każdym podpasmie dla wytwarzania poziomów SMR i opcjonalnie normalizowanie SMR zgodnie z odpowiedzią słyszalności 146 przez człowieka, pokazaną na fig. 15.
Czułość ucha ludzkiego jest maksymalna przy częstotliwościach bliskich 4 kHz i spada, gdy częstotliwość jest zwiększana lub zmniejszana. Zatem w celu odbioru na tym samym poziomie, sygnał 20 kHz musi być znacznie silniejszy niż sygnał 4 kHz. Tak więc zwykle SMR-y przy częstotliwościach bliskich 4 kHz są stosunkowo bardziej ważne niż przy częstotliwościach zewnętrznych. Jednak dokładny kształt krzywej zależy od średniej mocy sygnału dostarczanego do słuchacza. Wówczas gdy natężenie dźwięku wzrasta, odpowiedź słyszalności 146 podlega kompresji. Wobec tego system optymalizowany dla określonego natężenia dźwięku będzie podoptymalny przy innych natężeniach dźwięku. W wyniku tego albo jest wybierany nominalny poziom mocy dla normalizacji poziomów stosunków sygnału do maski sMr albo normalizacjajest uniemożliwiona.
Figura 16 pokazuje wynikowe stosunki sygnału do maski SMR 148 dla 32 podpasm.
Procedura przydziału bitów polega na tym, że system zarządzania 30 najpierw wybiera właściwą strategię kodowania, której podpasma są kodowane z algorytmami kwantowania wektorowego i z modulacCąADPCM i czy JFC będzie włączane. Następnie system zarządzania 30 wybiera rozwiązanie przydziału bitów albo psychoakustyczne albo MMSE. Dla przykładu, przy dużych szybkościach transmisji bitów system może wyłączać modelowanie psychoakustyczne i stosować prawdziwy schemat przydziału mmse. To powoduje zmniejszenie złożoności obliczeniowej bez jakiejkolwiek wyczuwanej zmiany odtwarzanego sygnału akustycznego. Odwrotnie, przy małych szybkościach system może aktywować omawiany powyżej schemat kodowania łącznej częstotliwości dla poprawy dokładności odtwarzania przy mniejszych częstotliwościach. System zarządzania 30 przełącza się pomiędzy normalnym przydziałem psychoakustycznym i przydziałem mmse w oparciu o zawartość przejściową sygnału na podstawie kolejnych ramek. Wówczas gdy zawartość przejściowajest duża, założenie stacjonamości, które jest stosowane do obliczania SMR, nie jest już prawdziwe, a więc schemat mmse zapewnia lepsze osiągnięcia.
Przy przydziale psychoakustycznym, system zarządzania 30 najpierw przydziela dostępne bity w celu realizacji zjawisk psychoakustycznych i następnie przydziela pozostałe bity niższe183 092 mu poziomowi szumu całkowitego. Pierwszym etapem jest określanie SMR dla każdego podpasma dla bieżącej ramki, jak to opisano powyżej. Następnym etapem jest regulacja SMR dla wzmocnienia prognozowania Pwzmocnienie w poszczególnych podpasmach w celu wytwarzania stosunków maska do szumu MNR. Zasadąjest to, że koder z modulacjąADPCM będzie dostarczać część wymaganego SMR. W wyniku tego niesłyszalne poziomy szumu psychoakustycznego mogą być uzyskiwane przy mniejszej ilości bitów.
MNR dlaj-tego podpasma, zakładając PMODE = 1, jest dane przez:
MNR (j) = SMR (j) - Pwzmocnienie (j) *PEF (ABIT) gdzie PEF (ABIT) jest współczynnikiem wydajności prognozowania urządzenia kwantującego. W celu obliczenia MNR (j), projektant musi mieć ocenę przydziału bitów (ABIT), która może być wytworzona albo przez przydzielenie bitów wyłącznie w oparciu o SMR (j) albo przez założenie, że PEF (ABIT) = 1. Przy średnich do dużych szybkościach transmisji bitów, skuteczne wzmocnienie prognozowania jest w przybliżeniu równe obliczonemu wzmocnieniu prognozowania. Jednak przy małych szybkościach transmisji bitów, skuteczne wzmocnienie prognozowania jest zmniejszone. Skuteczne wzmocnienie prognozowania, które jest uzyskiwane przy zastosowaniu na przykład 5-poziomowego urządzenia kwantującego, wynosi w przybliżeniu 0,7 ocenianego wzmocnienia prognozowania, podczas gdy 65-poziomowe urządzenie kwantujące umożliwia uzyskanie skutecznego wzmocnienia prognozowania w przybliżeniu równego ocenianemu wzmocnieniu prognozowania, PEF = 1,0. Przy wartości granicznej, gdy szybkość transmisji bitów wynosi zero, kodowanie z prognozowaniem jest zasadniczo uniemożliwione i skuteczne wzmocnienie prognozowania wynosi zero.
W następnym etapie system zarządzania 30 wytwarza schemat przydziału bitów, który realizuje MNR dla każdego podpasma. To jest dokonywane przy zastosowaniu przybliżenia, że 1 bit jest równy 6 dB zakłócenia sygnału. Dla zapewnienia tego, że zakłócenie kodowania jest mniejsze niż słyszalny psychoakustycznie poziom progowy, przypisana szybkość transmisji bitów jest największą liczbą całkowitą MNR podzielonego przez 6 dB, co jest dane przez:
ABIT (j) =
MNR(j) 6dB .
Figura 17 pokazuje sygnał 157, przy czym przez przydział bitów poziom szumu 156 w odtwarzanym sygnale ma tendencję do nadążania za samym sygnałem 157. Zatem przy częstotliwościach, przy których sygnał jest bardzo silny, poziom szumu będzie stosunkowo duży, lecz pozostanie niesłyszalny. Przy częstotliwościach, przy których sygnał jest stosunkowo słaby, poziom szumu będzie bardzo mały i niesłyszalny. Średni błąd związany z tego typu modelowaniem psychoakustycznym będzie zawsze większy niż poziom szumu mmse 158, lecz stopień słyszalności może być lepszy, szczególnie przy małych szybkościach transmisji bitów.
W przypadku, w którym suma przydzielonych bitów dla każdego podpasma we wszystkich kanałach akustycznychjest większa 'lub mniejsza niż docelowa szybkość transmisji bitów, procedura zarządzania będzie iteracyjnie zmniejszać lub zwiększać przydział bitów dla poszczególnych podpasm. Odmiennie, docelowa szybkość transmisji bitów może być obliczona dla każdego sygnału akustycznego. To jest podoptymalne, lecz prostsze, szczególnie w realizacji sprzętowej. Dla przykładu, dostępne bity mogą być rozłożone jednorodnie na kanały akustyczne lub mogą być rozdzielone proporcjonalnie do średniej SMR lub RMS każdego kanału.
W przypadku, w którym docelowa szybkość transmisji bitów jest przekroczona o sumę przydziałów bitów lokalnych, obejmujących bity kodu kwantowania wektorowego i informację wstęgi bocznej, procedura zarządzania bitami globalnymi będzie powodować stopniowe zmniejszanie przydziałów lokalnych bitów podpasma. Dostępna jest pewna liczba specyficznych technik zmniejszających średnią szybkość transmisji bitów. Po pierwsze, szybkości transmisji bitów', które były zaokrąglone w górę przez funkcję największej liczby całkowitej, mogąbyć zaokrąglo22
183 092 ne w dół. Następnie jeden bit może być odprowadzony z podpasm mających najmniejsze MNR. Ponadto podpasma największej częstotliwości mogą być wyłączone lub może być uniemożliwione kodowanie łączne częstotliwościowo. Wszystkie startegie zmniejszania szybkości transmisji bitów nadążają za ogólną zasadą stopniowego zmniejszania rozdzielczości kodowania w sposób płynny, przy wyczuwalnie najmniej ofensywnej strategii wprowadzanej najpierw i najbardziej ofensywnej strategii stosowanej ostatnio.
W przypadku, gdy docelowa szybkość transmisji bitów jest większa niż suma przydziałów bitów lokalnych, obejmujących bity kodu kwantowania wektorowego i informację wstęgi bocznej, procedura zarządzania bitami globalnymi będzie zwiększać postępowo i iteracyjnie przydziały bitów pasma lokalnego w celu zmniejszenia poziomu szumu całkowitego odtwarzanego sygnału. To może powodować kodowanie podpasm, którym poprzednio zostały przydzielone bity zerowe. Koszty ogólne transmisji bitów w podpasmach włączania mogą w ten sposób potrzebować odzwierciedlać koszt transmisji dowolnych współczynników prognozowania, jeżeli jest umożliwiony PMODE.
Procedura zarządzania zapewnia wybór spośród jednego z trzech różnych schematów przydzielania pozostałych bitów. Jedną opcjąjest zastosowanie rozwiązania mmse, które ponownie przydziela wszystkie bity, tak że uzyskany poziom szumu jest w przybliżeniu płaski. To jest równoważne uniemożliwieniu początkowego modelowania psychoakustycznego.
Figura 18a pokazuje wykres 160 wartości RMS podpasm, który jest odwracany górą do dołu, w celu uzyskania poziomu szumu mmse, jak to pokazano na fig. 18b i jest stosowana technika „napełniania wodą”, aż zostaną wyczerpane wszystkie bity. Ta technika jest nazywana napełnianiem wodą, ponieważ poziom zakłócenia spadajednorodnie, gdy liczba przydzielonych bitów wzrasta. W pokazanym przykładzie pierwszy bitjest przypisany podpasmu 1, drugi i trzeci bity sąprzypisane podpasmom 1 i 2, czwarty do siódmegobity sąprzypisane podpasmom 1,2,4 i 7 i tak dalej. Odmiennie jeden bit jest przypisany każdemu podpasmu dla zapewnienia, że każde podpasmo będzie kodowane i następnie pozostałe napełnione wodą.
Drugą, korzystną opcjąjest przydzielenie pozostałych bitów zgodnie z rozwiązaniem mmse i wykresem RMS opisanymi powyżej. Skutkiem tej metodyjestjednorodne obniżenie poziomu szumu 151 pokazanego na fig. 17, przy pozostawieniu kształtu związanego z maskowaniem psychoakustycznym. To zapewnia dobry kompromis pomiędzy zakłóceniem psychoakustycznym i mse.
Trzecim rozwiązaniem jest przydzielenie pozostałych bitów przy zastosowaniu rozwiązania mmse, jak zastosowane do wykresu różnicy pomiędzy wartościami RMS i MNR dla podpasm. Skutkiem tego rozwiązania jest łagodne przejście kształtu poziomu szumu od optymalnego kształtu psychoakustycznego 157 do optymalnego płaskiego kształtu mmse 158, gdy szybkość transmisji bitów wzrasta. W dowolnym z tych schematów, jeżeli błąd kodowania w dowolnym podpasmie spada poniżej 0,5 bitu mniej znaczącego, względem źródła z modulacją kodowoimpulsową, wówczas więcej bitów nie jest przydzielanych temu podpasmu. Opcjonalnie mogą być zastosowane stałe wartości maksymalne przydziałów bitów podpasma do ograniczania maksymalnej liczby bitów przydzielanych poszczególnym podpasmom.
W systemie kodowania omawianym powyżej założyliśmy, że średnia szybkość transmisji bitów na próbkę jest stała i wytworzyliśmy przydział bitów dla maksymalizacji dokładności odtwarzanego sygnału akustycznego. Odmiennie, poziom zakłócenia, mse lub percepcyjny, może być ustalony i dopuszczona zmiana szybkości transmisji bitów dla uzyskania zadawalającego poziomu zakłócenia. W rozwiązaniu mmse wykres RMS jest po prostu napełniany wodą, aż do uzyskania zadawalającego poziomu zakłócenia. Wymagana szybkość transmisji bitów zmieni się w oparciu o poziomy RMS podpasm. W rozwiązaniu psychoakustycznym bity sąprzydzielane dla uzyskania zadawalających MNR. W wyniku tego szybkość transmisji bitów zmieni się w oparciu o poszczególne sMr i wzmocnienia prognozowania. Ten typ przydziału nie jest obecnie użyteczny, ponieważ współczesne dekodery działają ze stałą szybkością. Jednak odmienne systemy dostarczania danych, takie jak ATM lub nośniki danych o dostępie bezpośrednim, mogą uczynić kodowanie o zmiennej szybkości praktycznym w bliskiej przyszłości.
183 092
Kwantowanie indeksów przydziału bitów ABIT polega na tym, że indeksy przydziału bitów ABIT są wytwarzane dla każdego podpasma i każdego kanału akustycznego w adaptacyjnej procedurze przydziału bitów w procesie zarządzania bitami globalnymi. Celem indeksów w koderze jest wskazanie liczby poziomów 162 pokazanych na fig. 10, które sąpotrzebne do kwantowania sygnału różnicowego w celu uzyskania subiektywnie optymalnego poziomu szumu odtwarzania w sygnale akustycznym dekodera. W dekoderze wskazują one liczbę poziomów potrzebną do kwantowania odwrotnego. Indeksy są wytwarzane dla każdego bufora analizującego i ich wartości mogąbyć w zakresie od 0 do 27. Związek pomiędzy wartościąindeksu, liczbąpoziomów urządzenia kwantującego i przybliżonym, uzyskanym podpasmem różnicowym SNqR jest pokazany w tabeli 3. Ze względu na to, że sygnał różnicowy jest normalizowany, wielkość stopniowa 164 jest nastawiana na równą jedności.
Tabela 3
Indeks ABIT # z poziomów Q Długość kodu (bity) SNqR (dB)
0 0 0 -
1 3 zmienna 8
2 5 zmienna 12
3 7 (lub 8) zmienna (lub 3) 16
4 9 zmienna 19
5 13 zmienna 21
6 17 (lub 16) zmienna (lub 4) 24
7 25 zmienna 27
8 33 (lub 32) zmienna (lub 5) 30
9 65 (lub 64) zmienna (lub 6) 36
10 129 (lub 128) zmienna (lub 7) 42
11 256 8 48
12 512 9 54
13 1024 10 60
14 2048 11 66
15 4096 12 72
16 8192 13 78
17 16384 14 84
18 32768 15 90
19 65536 16 96
20 131072 17 102
21 262144 18 108
22 524268 19 114
23 1048576 20 120
24 2097152 21 126
25 4194304 22 132
26 8388608 23 138
27 16777216 24 144
183 092
Indeksy przydziału bitów ABIT są albo transmitowane do dekodera bezpośrednio, stosując 4-bitowe słowa kodu liczb całkowitych bez znaku, 5-bitowe słowa kodu liczb całkowitych bez znaku lub stosując 12-poziomowątabelę entropii. Zwykle kodowanie entropii byłoby wykorzystywane dla programów użytkowych o małej szybkości transmisji bitów w celu utrzymania bitów. Sposób kodowania ABIT jest nastawiany przez sterowanie trybem pracy w koderze i jest przekazywany do dekodera. Koder entropii odwzorowuje 166 indeksy ABIT w określonej książce kodów zidentyfikowanej przez indeks BHUFF i specyficzny kod VABIT w książce kodów, stosując proces pokazany na fig. 12 przez 12-poziomowe tabele ABIT.
Przy sterowaniu szybkością transmisji bitów globalnych, ze względu na to, że zarówno informacja wstęgi bocznej, jak i próbki podpasma różnicowego mogą być opcjonalnie kodowane przy zastosowaniu książek kodów o zmiennej długości entropii, należy zastosować pewien mechanizm regulacji wynikowej szybkości transmisji bitów kodera, gdy skondensowany strumień bitów ma być transmitowany ze stałą szybkością. Ze względu na to, że nie jest normalnie pożądane modyfikowanie informacji wstęgi bocznej po obliczeniu, regulacje szybkości transmisji bitów są najlepiej osiągane przez iteracyjną zmianę procesu kwantowania próbek podpasma różnicowego w koderze z modukacją ADPCM, aż zostanie osiągnięte ograniczenie szybkości.
W opisanym systemie, system sterowania 178 szybkością całkowitą na fig. 10 reguluje szybkość transmisji bitów, która wynika z procesu odwzorowania kodów poziomu urządzenia kwantującego w tabeli entropii, przez zmianę rozkładu statystycznego wartości kodu poziomów. Zakłada się, że wszystkie tabele entropii mają podobną tendencję do większych długości kodów dla większych wartości kodu poziomów. W tym przypadku średnia szybkość transmisji bitów jest zmniejszona, gdy prawdopodobieństwo poziomów kodu o małych wartościach wzrasta i odwrotnie. W procesie kwantowania z modulaccąADPCM lub APCM, wielkość współczynnika skalowania określa rozkład lub użycie wartości kodu poziomów. Dla przykładu, gdy wielkość współczynnika skalowania wzrasta, próbki różnicowe będą dążyły do podlegania kwantowaniu przez mniejsze poziomy i dlatego wartości kodu staną się stopniowo mniejsze. To z kolei będzie powodować mniejsze długości słowa kodu i mniejsze szybkości transmisji bitów.
Przez zwiększenie wielkości współczynnika skalowania, szum odtwarzania w próbkach podpasma jest także związany w tym samym stopniu. Jednak w praktyce regulacja współczynników skalowania normalnie nie jest większa niż 1dB do 3 dB. Jeżeli jest wymagana większa regulacja, byłoby lepiej powrócić do rozdziału bitów i zmniejszenia całkowitego rozdziału bitów zamiast ryzyka możliwości słyszalnego szumu kwantowania występującego w podpasmach, które stosowałyby nieścisły współczynnik skalowania.
W celu regulacji rozdziału bitów z modulacjąADPCM kodowanego entropią, próbki historii prognozowania dla każdego podpasma są pamiętane w buforze tymczasowym w przypadku, gdy cykl kodowania z modulacją ADPCM jest powtarzany. Następnie bufory próbkowania podpasma są wszystkie kodowane w pełnym procesie z modulacją ADPCM, przy zastosowaniu współczynników prognozowania AH otrzymanych z analizy LPC podpasma wraz ze współczynnikami skalowania RMS lub PEAK, przydziałami bitów ABIT urządzenia kwantującego, stanami przejściowymi TMODE i stanami prognozowania PMODE, uzyskiwanymi z ocenianego sygnału różnicowego. Wynikowe kody poziomów urządzenia kwantującego są buforowane i odwzorowywane do książki kodów z entropią o zmiennej długości, która wskazuje najmniejsze użycie bitów, stosując ponownie indeks przydziału bitów do określania wielkości książki kodów
System sterowania 178 analizuje następnie liczbę bitów stosowanych dla każdego podpasma, stosując ten sam indeks przydziału bitów we wszystkich indeksach. Dla przykładu, gdy ABIT=1, obliczanie przydziału bitów w zarządzaniu bitami globalnymi mogłoby mieć założoną średnią szybkość 1,4 na próbkę podpasma (to jest średnia szybkość dla książki kodów entropii zakłada optymalny rozkład amplitudy kodów poziomów). Jeżeli użycie bitów całkowitych wszystkich podpasm, dla których ABIT= 1, jest większe niż 1 ,4/ (całkowita liczba próbek podpasma), wtedy współczynniki skalowania mogłyby być zwiększone we wszystkich tych podpasmach dla spowodowania zmniejszenia szybkości transmisji bitów. Decyzja regulacji współczynników skalowania podpasma jest korzystnie pozostawiona, aż wszystkie szybkości
183 092 indeksu ABIT zostaną udostępnione. W wyniku tego indeksy przy szybkościach transmisji bitów mniejszych niż złożone w procesie przydziału bitów, mogą kompensować występujące przy szybkościach transmisji bitów powyżej tego poziomu. Ta ocena może być także rozciągnięta na pokrycie wszystkich kanałów akustycznych, jeżeli jest to właściwe.
Zalecana procedura zmniejszania całkowitej szybkości transmisji bitów ma być rozpoczynana przy najmniejszej szybkości transmisji bitów indeksu ABIT, która przekracza poziom progowy i zwiększa współczynniki skalowania w każdym z podpasm, które mają ten przydział bitów. Rzeczywiste użycie bitów jest zmniejszone o liczbę bitów, którymi te pasma były pierwotnie przy nominalnej szybkości dla tego przydziału. Jeżeli modyfikowane użycie bitów jest nadal w nadmiarze względem maksymalnego dopuszczonego, wtedy współczynniki skalowania podpasma dla następnego największego indeksu ABIT, dla którego użycie bitów przekracza nominalne, są zwiększone. Ten proces jest kontynuowany, aż modyfikowane użycie bitów jest poniżej maksymalnego.
Po osiągnięciu tego, dane starej historii są wprowadzane do urządzeń prognozujących i proces kodowania z modulacjąADPCM 72 jest powtarzany dla tych podpasm, które mają zmodyfikowane współczynniki skalowania. Po tym kody poziomów są ponownie odwzorowywane do najbardziej optymalnych książek kodów entropii i użycie bitów jest ponownie obliczane. Jeżeli dowolne użycie bitów nadal przekraczało nominalne szybkości, wówczas współczynniki skalowania są dalej zwiększane i cykl jest powtarzany.
Modyfikacja współczynników skalowania może być dokonana na dwa sposoby. Pierwszym jest transmisja do dekodera współczynnika regulacji dla każdego indeksu ABIT. Dla przykładu słowo 2-bitowe mogłoby sygnalizować zakres regulacji powiedzmy 0,1,2 i 3 dB. Ponieważ ten sam współczynnik regulacji jest stosowany dla wszystkich podpasm, które stosują indeks ABIT i tylko indeksy 1-10 mogą stosować kodowanie entropii, maksymalna liczba współczynników regulacji, która musi być transmitowana dla wszystkich podpasm, wynosi 10. Alternatywnie, współczynnik skalowania może być zmieniany w każdym podpaśmie przez wybór wysokiego poziomu kwantowania. Jednak ponieważ urządzenia kwantujące współczynniki skalowania mają wielkości stopniowe odpowiednio 1,25 i 2,5 dB, regulacja współczynnika skalowania jest ograniczona do tych etapów.
Ponadto przy zastosowaniu tej techniki, kodowanie różnicowe współczynników skalowania i wynikowe użycie bitów może wymagać ponownego obliczenia, jeżeli kodowanie entropii jest umożliwione.
Ta sama procedura może być zastosowana także do zwiększania szybkości transmisji bitów, tojest gdy szybkość transmisji bitów jest mniejsza niż wymagana szybkość transmisji bitów. W tym przypadku współczynniki skalowania byłyby zmniejszone dla spowodowania, żeby próbki różnicowe zrobiły większy użytek z zewnętrznych poziomów urządzenia kwantującego, a więc użycia dłuższych słów kodu w tabeli entropii.
Jeżeli użycie bitów dla indeksów przydziału bitów nie może być zmniejszone w zakresie dopuszczalnej liczby iteracji lub w przypadku, gdy są transmitowane współczynniki regulacji współczynnika skalowania, liczba etapów regulacji osiąga wartość graniczną, wtedy są możliwe dwie naprawy. Po pierwsze, współczynniki skalowania podpasm, które są w zakresie szybkości nominalnej, mogą być zwiększone, skutkiem czego zmniejsza się całkowita szybkość transmisji bitów.
Alternatywnie, cały proces kodowania z modulayąADPCM może być przerwany i adaptacyjne przydziały bitów w podpasmach ponownie obliczone, tym razem stosując mniej bitów.
Multiplekser 32 pokazany na fig. 10 upakowuje dane dla każdego kanału i następnie multipleksuje upakowane dane dla każdego kanału w ramkę wyjściową w celu utworzenia strumienia danych 16.
Figura 19 pokazuje metodę upakowywania i multipleksowania danych, to jest formatu ramki 186 wyznaczonej tak, że koder akustyczny jest stosowany w szerokim zakresie programów użytkowych i rozszerzany do wyższych częstotliwości próbkowania, a liczba danych w każdej
183 092 ramce jest ograniczona, odtwarzanie może być początkowane w każdej pod-podramce niezależnie dla zmniejszenia czasu oczekiwania i błędy dekodowania są zmniejszane.
Pojedyncza ramka 186,4096 próbek z modulacją kodowo-impulsową/kanał określa granice strumienia bitów·', w których wystarczająca informacja służy do właściwego dekodowania bloku akustycznego i składa się z 4 podramek 188,1024 próbek z modulacją kodowo-impulsową/kanał, które z kolei są wykonane każda z 4 pod-podramek 190,256 próbek z modulacją kodowo-impulsową/kanał. Słowo synchronizacji 192 ramki jest umieszczone na początku każdej ramki akustycznej. Informacja 194 nagłówka ramki daje przede wszystkim informacje dotyczącą konstrukcji ramki 186, konfiguracji kodera, który wytworzył strumień i różnych opcjonalnych cech operacyjnych, takich jak wprowadzone sterowanie zakresem dynamicznym i kod czasowy. Opcjonalna informacja 196 nagłówka mówi dekoderowi, czy jest wymagane mieszanie do dołu, czy została zrealizowana kompensacja zakresu dynamicznego i czy pomocnicze bajty danych są wprowadzone do strumienia danych. Nagłówki 198 kodowania akustycznego wskazują uporządkowanie upakowania i formaty kodowania stosowane w koderze dla asemblowania informacji wstęgi bocznej kodowania, to jest przydziału bitów, współczynników skalowania, PMODE, TMODE, książek kodów itd. Pozostała część ramki jest wykonana z kolejnych podramek akustycznych SUBF 188.
Układ akustyczny 206 jest dekodowany przy zastosowaniu urządzenia kwantującego Huffmana/stałego odwrotnego ijest dzielony na pewną liczbę pod-podramek SSC, każdą dekodującą do 256 próbek z modulacją kodowo-impulsową na kanał akustyczny. Nadmiernie próbkowany układ akustyczny 208 występuje tylko, gdy częstotliwość próbkowania jest większa niż 48 kHz. Aby pozostać zgodnymi, dekodery, które nie mogą działać z szybkościami próbkowania powyżej 48 kHz, powinny przeskakiwać ten układ danych akustycznych. DSYNC 210 jest stosowane do sprawdzania końca położenia podramki w ramce akustycznej. Jeżeli położenie nie sprawdza się, sygnał akustyczny dekodowany w podramce jest określany jako niepewny. W wyniku tego, albo ta ramka jest blokowana szumowo albo poprzednia ramka jest powtarzana.
Figura 20 przedstawia schemat blokowy dekodera 18 próbkowania podpasma. Dekoder jest całkiem prosty w porównaniu z koderem i nie przeprowadza obliczeń, które mająpodstawowe znaczenie dla jakości odtwarzanego sygnału akustycznego, takiego jak przydziały bitów. Po synchronizacj i układ rozpakowania 40 rozpakowuje skompresowany strumień danych akustycznych 16, wykrywa i w razie potrzeby koryguje błędy powodowane transmisją oraz demultipleksuje dane do poszczególnych kanałów akustycznych. Sygnały różnicowe podpasma są ponownie kwantowane do sygnałów z modulacją kodowo-impulsową i każdy kanał akustyczny jest filtrowany odwrotnie dla przemiany sygnału z powrotem do strefy czasu.
W przypadku ramki akustycznej odbioru i nagłówków rozpakowania, strumień danych kodowanych jest pakowany lub ramkowany w koderze i zawiera w każdej ramce dane dodatkowe do synchronizacji dekodera, detekcji błędu i korekcji, kodowania akustycznego znaczników stanu i kodowania informacji wstęgi bocznej, poza samymi rzeczywistymi kodami akustycznymi. Układ rozpakowania 40 wykrywa słowo SYNC i wydziela wielkość ramki FSIZE. Strumień bitów kodowanych składa się z kolejnych ramek akustycznych, z których każda rozpoczyna się 32-bitowym 0x7ffe8001 słowem synchronizacji SYNC. Wielkość fizyczna ramki akustycznej FSIZE jest wydzielana z bajtów następujących po słowie synchronizacji. To umożliwia programatorowi nastawienie zegara wielkości zasobów komputera. Następnie jest wydzielane NB Iks, co umożliwia dekoderowi obliczenie wielkości okna akustycznego 32(Nb1ks+1). To mówi dekoderowi, którą informację wstęgi bocznej wydzielać i jak dużo wytwarzać odtworzonych próbek.
Zaraz po otrzymaniu bajtów nagłówka ramki: sync, ftype, surp, nb 1 ks, fsize, amode, sfreq, rate, mixt, dynf, dynct, time, auxcnt, lff hflag, ważność pierwszych 12 bajtów można sprawdzić przy zastosowaniu bajtów kontrolnych Reeda Solomona, HCRC. Skorygują one 1 błędny bajt spośród 14 bajtów lub 2 błędnych bajtów znacznika. Po zakończeniu kontroli błędu, informacja nagłówka jest stosowana do aktualizacji znaczników dekodera.
Nagłówki: filts, vemum, chist, pcmr, unspec po HCRC i do informacji opcjonalnej mogą być wydzielone i zastosowane do aktualizacji znaczników dekodera. Ponieważ ta informacja nie
183 092 zmienia się dla różnych ramek, większość schematu głosowania może być stosowana do kompensacji błędów bitów. Opcjonalne dane nagłówka: times, mcoeff, dcoeff, auxd, ocrc są wydzielane zgodnie z nagłówkami mixet, dynf, time i auxent. Dane opcjonalne mogą być sprawdzane przy zastosowaniu opcjonalnych bajtów kontroli Reeda Solomona OCRC.
Nagłówki ramek kodowania akustycznego: subfs, subs, chs, vqsub, joinx, thuff, shuff, bhuff, sel5, se17, sel9, se112, se113, se117, se125, se133, se165, se1129, ahcrc są transmitowane jeden raz w każdej ramce. Mogą być sprawdzone przy zastosowaniu bajtów kontrolnych akustycznych Reeda Solomona AHCRC. Większość nagłówków jest powtarzanych dla każdego kanału akustycznego, jak określony przez CHS.
W przypadku informacji wstęgi bocznej kodowania podramki rozpakowania, ramka kodowania akustycznego jest podzielona na pewnąliczbę podramek SUBFS. Cała potrzebna informacja wstęgi bocznej: pmode, pvq, tmode, scales, abits, hfreq jest wprowadzona dla właściwego dekodowania każdej podramki akustycznej bez odniesienia do dowolnej innej podramki. Każda kolejna podramkajest dekodowana przez pierwsze rozpakowaniejej informacji wstęgi bocznej.
1-bitowy znacznik stanu prognozowania PMODE jest transmitowany do każdego aktywnego i w całym kanale akustycznym. Znaczniki stanu PMODE są ważne dla bieżącej podramki. PMODE=0 powoduje, że współczynniki prognozowania nie są wprowadzone do ramki akustycznej dla tego podpasma. W tym przypadku współczynniki prognozowania w tym paśmie są przestawiane na zero przez czas trwania podramki. PMODE=1 powoduje, że informacja wstęgi bocznej zawiera współczynniki prognozowania dla tego podpasma. W tym przypadku współczynniki prognozowania są wydzielane i instalowane w urządzeniu prognozującym przez czas trwania podramki.
Dla każdego PMODE= 1 w układzie pmode, odpowiedni indeks adresu kwantowania wektorowego współczynnika prognozowania jest usytuowany w układzie PVQ. Indeksy są stałymi, 12-bitowymi słowami liczb całkowitych bez znaku i 4 współczynniki prognozowania sąwydzielane z tabeli przeglądowej przez odwzorowanie 12-bitowej liczby całkowitej w tabelę 266 wektorów.
Indeksy przydziału bitów ABIT wskazują liczbę poziomów w odwrotnym urządzeniu kwantującym, które przetworzy kody akustyczne podpasma z powrotem w wartości bezwzględne. Format rozpakowania różni się dla ABIT w każdym kanale akustycznym, w zależności od indeksu BHUFF i specyficznego kodu VABIT 256.
Informacja wstęgi bocznej TMODE 238 stanu przejściowego jest stosowana do wskazania położenia stanów przejściowych w każdym podpaśmie względem podramki. Każda podramka jest dzielona na 1 do 4 podramki. W terminach próbek podpasma każda podramka składa się z 8 próbek. Maksymalna wielkość podramki wynosi 32 próbek podpasma. Jeżeli stan przejściowy występuje w pierwszej pod-podramce, wówczas tmode=0. Stan przejściowy w drugiej pod-podramce jest wskazany, gdy tmode=1 i tak dalej. W celu sterowania zakłóceniem przejściowym, takim jak echo wstępne, dwa współczynniki skalowania są transmitowane dla podpasm podramki, gdzie TMODE jest większe niż 0. Indeksy THUFF, wydzielane z nagłówków akustycznych, określają metodę wymaganą do dekodowania TMODE. Wówczas gdy THUFF=3, tMoDE są rozpakowywane jako 2-bitowe liczby całkowite bez znaku.
Indeksy współczynników skalowania są transmitowane dla umożliwienia właściwego skalowania kodów akustycznych podpasma w każdej podramce. Jeżeli TMODE jest równe zeru, wówczas transmitowany jest jeden współczynnik skalowania. Jeżeli TMODE jest większe niż zero dla dowolnego podpasma, wówczas transmitowane są razem dwa współczynniki skalowania. Indeksy SHUFF 240, wydzielane z nagłówków akustycznych, określają metodę wymaganą do dekodowania SCALES dla każdego oddzielnego kanału akustycznego. Indeksy VDRMSql określają wartość współczynnika skalowania RMS.
W pewnych stanach indeksy SCALES są rozpakowywane przy zastosowaniu wyboru pięciu 129-poziomowych, oznaczonych,odwrotnycyh urządzeń kwantujących Huffmana. Wynikowe, odwrotne, kwantowane indeksy są jednak kodowane różnicowo i są przetwarzane w bezwzględne jak następuje:
183 092
ABSSCALE (n+1)=SCALES (n) -SCALES (n+1), gdzie n jest n-tym współczynnikiem skalowania różnicowego w kanale akustycznym, rozpoczynając od pierwszego podpasma.
Przy stanach kodowania akustycznego o małej szybkości transmisji bitów, koder akustyczny stosuje kwantowanie wektorowe dla skutecznego kodowania bezpośrednio próbek akustycznych podpasma wielkiej częstotliwości. Nie jest stosowane żadne kodowanie różnicowe w tych podpasmach i wszystkie układy dotyczące normalnych procesów z modi^ll^tyjąADPCM muszą być utrzymywane w stanie przestawienia. Pierwsze podpasmo, które jest kodowane przy zastosowaniu kwantowania wektorowego, jest wskazane przez VQSUB i wszystkie podpasma do SUBS są również kodowane w ten sposób.
Indeksy wielkiej częstotliwości HFREQ są rozpakowywane 248jako stałe, 10-bitowe liczby całkowite bez znaku. 32 próbki wymagane dla każdej podramki podpasma są wydzielane z ułamkowego dziesiętnego LUT Q4 przez dostarczenie właściwych indeksów. Tojest powtarzane dla każdego kanału, w którym stan kwantowania wektorowego wielkiej częstotliwości jest aktywny.
Współczynnik działania dziesiętnego dla kanału efektów jest zawsze X128. Liczba 8-bitowych próbek efektów, występujących w LFE, jest dana przez SSC*2, gdy PSC=0 lub (SSC+1)*2, gdy PSC nie jest zero. Dodatkowy, 7-bitowy współczynnik skalowania liczby całkowitej bez znaku, jest także wprowadzony na końcu układu LFE i to jest przetwarzane do rms przy zastosowaniu 7-bitowego LUT.
Przy rozpakowywaniu układu kodów akustycznych podramki, proces wydzielania dla kodów akustycznych podpasma jest zasilany przez indeksy ABIT i w przypadku, gdy ABIT<11, indeksy SEL także. Kody akustyczne są formatowane albo przy użyciu kodów Huffmana o zmiennej długości lub stałych kodów liniowych. Ogólnie indeksy ABIT spośród 10 lub mniej będą dawały kody Huffmana o zmiennej długości, które są wybrane przez kody VQL (n) 258, podczas gdy ABIT powyżej 10 zawsze znaczą kody stałe. Wszystkie urządzenia kwantujące mająjednorodnącharakterystykę środkową. Dla urządzeń kwantujących o stałym kodzie Y najbardziej ujemny poziom jest obniżony. Kody akustyczne są upakowywane w pod-podramki, z których każda reprezentuje maksymalnie 8-podpasmowe próbki i te pod-podramki są powtarzane do czterech razy w bieżącej podramce.
Jeżeli znacznik szybkości próbkowania SFREQ wskazuje szybkość większą niż 48 kHz, wówczas układ danych over_audio będzie występował w ramce akustycznej. Dwa pierwsze bajty w tym układzie będą wskazywać wielkość bajtu over_audio. Ponadto szybkość próbkowania urządzenia dekodorowego powinna być nastawiona na działanie przy SFREQ/2 lub SFREQ/4, zależnie od szybkości próbkowania o wielkiej częstotliwości.
Przy kontroli synchronizacji rozpakowania, słowo kontroli synchronizacji rozpakowania danych DSYN C=0xfiff jest wykrywane na końcu każdej podramki dla umożliwienia kontroli całości rozpakowania. Zastosowanie zmiennych słów kodu w informacji wstęgi bocznej i kodów akustycznych, jak w przypadku małych szybkości bitów akustycznych, może prowadzić do złego rozmieszczenia rozpakowania, jeżeli zarówno nagłówki, informacja wstęgi bocznej, jak i układy akustyczne zostały uszkodzone przez błędy bitów. Jeżeli wskaźnik rozpakowania nie wskazuje początku DSYN, wówczas można założyć, że poprzedni sygnał akustyczny podramki jest niepewny.
Po rozpakowaniu całej informacji wstęgi bocznej i danych akustycznych, dekoder odtwarza wielokanałowy sygnał akustyczny jedna podramka w danym czasie. Figura 20 przedstawia część dekodera pasma podstawowego dla pojedynczego podpasma w pojedynczym kanale.
Przy odtwarzaniu współczynników skalowania RMS, dekoder odtwarza współczynniki skalowania RMS SCALES dla algorytmów z modulacjąADPCM, VQ i JPC. W szczególności indeksy VTMODE i THUFF są odwzorowywane odwrotnie w celu identyfikacji stanu przejściowego TMODE dla bieżącej podramki. Następnie indeks SHUFF, kody VDRMSqL i TMODE są odwzorowywane odwrotnie dla odtwarzania kodu różnicowego RMS. Kod różnicowy RMS jest kodowany odwrotnie różnicowo 242 dla wybrania kodu RMS, któryjest następnie kodowany odwrotnie 244 w celu wytwarzania współczynnika skalowania RMS.
183 092
Przy kwantowaniu odwrotnym wektorów wielkiej częstotliwości, dekoder kwantuje odwrotnie wektory wielkiej częstotliwości dla odtwarzania sygnałów akustycznych podpasma. W szczególności wydzielane próbki wielkiej częstotliwości HFREQ, które są oznaczoną, 8-bitową, ułamkową liczbą dwójkową Q4, identyfikowane przez początkowe podpasmo kwantowania wektorowego VQSUBS, są odwzorowywane do odwrotnego kwantowanego wektorowo lut 248. Wybrana wartość tabeli jest kwantowana odwrotnie 250 i skalowana 252 przez współczynnik skalowania RMS.
Przy kwantowaniu odwrotnym kodów akustycznych, przed wprowadzeniem do pętli z modulacją ADPCM, kody akustyczne są kwantowane odwrotnie i skalowane dla wytwarzania odtwarzanych próbek różnicowych podpasma. Kwantowanie odwrotne jest osiągane najpierw przez odwrotne odwzorowanie indeksu VABIT i BHUFF dla określenia indeksu ABIT, który określa wielkość stopniową i liczbę poziomów kwantowania, oraz odwzorowanie odwrotne indeksu SEL i kodów akustycznych vQl (n), które wytwarzająkody QL (n) poziomów kwantowania. Następnie słowa kodów Ql (n) są odwzorowywane do odwrotnej tabeli przeglądowej 260 urządzenia kantującego, określonej przez indeksy ABIT i SEL. Chociaż kody są uporządkowane przez ABIT, każdy oddzielny kanał akustyczny będzie miał oddzielny specyfikator SEL. Proces przeglądania daje oznaczoną liczbę poziomów kwantowania, która może być przetworzona w jednostkowe rms w wyniku pomnożenia przez wielkość stopniową kwantowania. Wartości jednostkowych rms są następnie przetwarzane w pełne próbki różnicowe w wyniku pomnożenia przez wyznaczony współczynnik skalowania RMS SCALES 262.
1. QL [n] = 1/'Q [code [n]], gdzie 1/Q jest odwrotną tabelą przeglądania urządzenia kwantującego.
2. Y [n] = QL [n] * Wielkość stopniowa [abits]
3. Rd [n[ = Y [n] * scalefactor, gdzie Rd = odtwarzane próbki różnicowe
Przy odwrotnej modulacji ADPCM, proces dekodowania z modulacjąADPCM jest wykonywany dla każdej próbki różnicowej podpasma jak następuje:
1. Wprowadzanie współczynników prognozowania z odwrotnego kwantowanego wektorowo lut 268.
2. Wytwarzanie próbki prognozowania przez splot bieżących współczynników prognozowania z poprzednimi 4 odtworzonymi próbkami podpasma utrzymywanymi w układzie 268 historii prognozowania.
P [n] = suma (Współ [i] * R [n-i]) dla i = 1,4 gdzie n=okres bieżącej próbki
3. Dodawanie próbki prognozowania do odtworzonej próbki różnicowej dla odtwarzanej próbki 270 podpasma.
R [n]=Rd [n] + P [n]
4. Aktualizacja historii prognozowania, to jest kopii bieżącej, odtwarzanej próbki podpasma, do góry listy historii.
R [n-i] = R [n-i+1] dla I = 4,1
W przypadku, gdy PMODE=O, współczynniki prognozowania będą zero, próbka prognozowania zero i odtwarzana próbka podpasmajest równa próbce podpasma różnicowego. Chociaż w tym przypadku obliczanie prognozowaniajest niepotrzebne, jest istotne, żeby historia prognozowania była utrzymywana aktualizowana w przypadku, gdy PMODE powinno stać się aktywne w przyszłych podramkach. Ponadto, jeżeli HFLAG jest aktywne w bieżącej podramce akustycznej, historia prognozowania powinna być wyjaśniona przed dekodowaniem najpierwszej pod-podramki w ramce. Historia powinna być aktualizowana zwykle od tego wskazania.
W przypadku podpasm z kwantowaniem wektorowo wielkiej częstotliwości lub gdy jest znoszony wybór podpasm, to jest powyżej granicy SUBS, historia prognozowania powinna pozostać wyjaśniona do czasu, w którym prognozowanie podpasma staje się aktywne.
Przy sterowaniu wyborem z modulacją ADPCM, Vo i dekodowania JFC, pierwszy przełącznik steruje wyborem wyjścia albo z modulaqąADPCM albo kwantowaniem wektoro30
183 092 wym. Indeks VQSUBS identyfikuje początkowe podpasmo dla kodowania wektorowego. Zatem, jeżeli bieżące podpasmo jest mniejsze niż VQSUBS, przełącznik wybiera wyjście z modulacją ADPCM. Inaczej, wybiera on wyjście kwantowania wektorowego. Drugi „przełącznik” 278 steruje wyborem albo bezpośredniego wyjścia kanału albo wyjściem kodowania JFC. Indeks JOINX identyfikuje, które kanały sąpołączone i w którym kanale jest wytwarzany odtwarzany sygnał. Odtwarzany sygnał JFC tworzy źródło natężenia dla wejść JFC w innych kanałach. Zatem, jeżeli bieżące podpasmo jest częścią JFC i nie jest wyznaczonym kanałem, wówczas przełącznik wybiera wyjście JFC. Normalnie przełącznik wybiera wyjście kanału.
Przy tworzeniu macierzy do dołu, stan kodowania akustycznego dla strumienia danychjest wskazany przez AMODE. Dekodowane kanały akustyczne mogąbyć następnie ponownie kierowane do dopasowania fizycznego, wyjściowego układu kanałów w układzie dekoderowym 280.
Dla danych sterowania zakresem dynamicznym, współczynniki DCOEFF zakresu dynamicznego są opcjonalnie wprowadzone do ramki akustycznej w etapie kodowania 282. Celem tej cechy jest umożliwienie dogodnej kompresji dynamicznego zakresu akustycznego na wyjściu dekodera. Kompresj a zakresu dynamicznegoj est szczególnie ważna przy słuchaniu w otoczeniu, gdzie wysokie poziomy szumu otaczającego uniemożliwiają odróżnienie sygnałów o niskim poziomie bez niebezpieczeństwa uszkodzenia głośników podczas głośnych przejść. Ten problem jest ponadto złożony w wyniku wzrastającego użycia 20-bitowych zapisów akustycznych z modulacją kodowo-impulsową, które mają zakresy dynamiczne tak wysokie jak 110 dB.
W zależności od wielkości okna ramki NBLKS albo jeden, dwa albo cztery współczynniki są transmitowane na kanał akustyczny dla dowolnego stanu kodowania DYNF. Jeżeli jest transmitowany pojedynczy współczynnik, jest to stosowane do całej ramki. Przy dwóch współczynnikach pierwszyjest stosowany do pierwszej połowy ramki i drugi do drugiej połowy ramki. Cztery współczynniki sąrozłożone w każdej ćwiartce ramki. Większa rozdzielczość w czasie jest możliwa przez interpolację pomiędzy transmitowanymi danymi lokalnie.
Każdy współczynnik jest 8-bitowym, oznaczonym, ułamkowym, dwójkowym Q2 i reprezentuje wartość wzmocnienia logarytmicznego, jak to pokazano w tabeli 53 podającej zakres +/-31,75 dB w etapach 0,25 dB. Współczynniki są uporządkowane przez liczbę kanałów. Na zakres dynamiczny kompresji oddziałuje się przez mnożenie dekodowanych próbek akustycznych przez współczynnik liniowy.
Stopień kompresji można zmieniać przez właściwą regulację wartości współczynników w dekoderze lub wyłączanie całkowite przez ignorowanie współczynników.
32-pasmowy zespół 44 filtrów interpolacji przetwarza 32 podpasma dla każdego kanału akustycznego w pojedynczy sygnał strefy czasu z modulacjąkodowo-impulsową. Niedoskonałe współczynniki odtwarzania, 512-zaczepowe filtry FIR, są stosowane, gdy FILTS=0. Doskonałe współczynniki odtwarzania są stosowane, gdy FILTS=1. Normalnie współczynniki modulacji cosinus będą obliczane wstępnie i pamiętane w ROM. Procedura interpolacji może być rozszerzona dla odtworzenia większych bloków danych w celu zmniejszenia wymaganych wielkości zasobów pętli. Jednak w przypadku ramek zakończenia minimalna rozdzielczość, którą można uzyskać, wynosi 32 próbki z modulacjąkodowo-impulsową. Algorytm interpolacji jest jak następuje: utworzenie współczynników modulacji cosinus, wczytanie 32 nowych próbek podpasma do układu XIN, pomnożenie przez współczynniki modulacji cosinus i utworzenie układów tymczasowych SUM i DIFF, zapamiętanie historii, pomnożenie przez współczynniki filtrów, utworzenie 32 próbek wyjściowych z modulaccąkodowo-impulsową, aktualizacja układów roboczych i wprowadzenie 32 nowych próbek z modulacjąkodowo-impulsową.
W zależności od szybkości transmisji bitów i schematu kodowania podczas działania, strumień bitów może określać współczynniki FILTS albo niedoskonałego albo doskonałego zespołu filtrów interpolacji odtwarzania. Ze względu na to, że zespoły filtrów działania dziesiętnego kodera są obliczane z 40-bitową dokładnością nieustaloną, zdolność dekodera do uzyskiwania maksymalnej teoretycznej dokładności odtwarzania zależy od długości słowa źródła z modulacją kodowo-impulsową i dokładności rdzenia DSP dla obliczania splotów i sposobu, w który operacje są skalowane.
183 092
Przy interpolacji z modulacją kodowo-impulsową zjawisk o małych częstotliwościach, dane akustyczne związane z kanałem zjawisk o małej częstotliwości są niezależne od głównych kanałów akustycznych. Ten kanał jest kodowany przy zastosowaniu 8-bitowego procesu APCM działającego na wejściu 20-bitowym z modulacjąkodowo-impulsową, X128 dziesiętnym (o szerokości pasma 120 Hz). Dziesiętne zjawiska akustyczne są regulowane w czasie przez bieżącą podramkę akustyczną w głównych kanałach akustycznych. Zatem, ponieważ opóźnienie w 32-pasmowym zespole filtrów interpolacji wynosi 256 próbek, 512 zaczepów, należy uważać na zapewnienie tego, żeby interpolowany kanał zjawisk o małej częstotliwości był także wyregulowany z pozostałymi kanałami akustycznymi przed wyjściem. Nie jest wymagana żadna kompensacja, jeżeli FIR interpolacji zjawisk jest także 512-zaczepowy.
Algorytm LFT wykorzystuje 512 zaczepowy FIR interpolacji 128X jak następuje: odwzorowanie 7-bitowego współczynnika skalowania w rms, pomnożenie przez wielkość stopniową 7-bitowego urządzenia kwantującego, wytworzenie wartości podpróbek z wartości normalizowanych i interpolacja przez 128 przy zastosowaniu filtru dolnoprzepustowego, takiego jak dany dla każdej podpróbki.
Figura 21 i 22 przedstawiają podstawową strukturę funkcjonalną wykonania sprzętu komputerowego wersji sześciokanałowej kodera i dekodera dla działania z szybkościami próbkowania 32,44,1 i 48 kHz. Omawiając fig. 22, stosowanychjest osiem mikroukładów 296 procesorów sygnałów cyfrowych (DSP) urządzeń analogowych ADSP21020 40-bitowych, zmiennopozycyjnych, do wykonania sześciokanałowego, cyfrowego kodera akustycznego 298. Sześć DSP jest stosowanych do kodowania każdego z kanałów, podczas gdy siódmy i ósmy są stosowane do realizacji funkcji „rozdziału i zarządzania bitami globalnymi” i „formatera strumienia danych i kodowania błędu”. Każdy ADSP21020 jest zegarowany przy częstotliwości 33 MHz i wykorzystuje zewnętrzną, 48-bit^<^’wrąX 32k ram programu (PRAM) 300, 40-bit^oo^iąX 32k ram danych (SRAM) 302 do przeprowadzania algorytmów. W przypadku koderów jest stosowany także 8-bitowy X 512k EPROM 304 do pamiętania ustalonych stałych, takich jak książki kodów entropii o zmiennej długości. Strumień danych formatujący DSP stosuje mikroukład CRC 306 Reeda Solomona do ułatwiania wykrywania błędu i zabezpieczenia dekodera. Komunikacja pomiędzy koderem DSP oraz przydziałem i zarządzaniem bitów globalnych jest realizowana przy zastosowaniu dwuwejściowej, statycznej RAM 308.
Przebieg przetwarzania kodowania jest jak następuje, 2-kanałowy, cyfrowy strumień danych akustycznych z modulacja kodowo-impulsową 310 jest wydzielany na wyjściu każdego z trzech cyfrowych odbiorników akustycznych AES/EBU. Pierwszy kanał każdej pary jest kierowany kolejno do DSP kodera CH 1,3 i 5, podczas gdy drugi kanał każdego jest kierowany kolejno do CH2,4 i 6. Próbki z modulacją kodowo-impulsową są wczytywane do DSP przez przetwarzanie słów z modulacjąkodowo-impulsową. szeregowych w równoległe (s/p). Każdy koder gromadzi ramkę próbek z modulacją kodowo-impulsową i realizuje kodowanie danych ramki, jak to opisano poprzednio. Informacja dotycząca ocenianego sygnału różnicowego (ed (n)) i próbek podpasma (x (n)) dla każdego kanału jest transmitowana do DSP przydziału i zarządzania bitami globalnymi przez dwuwej ściową RAM. Strategie przydziału bitów dla każdego kodera są następnie odczytywane wstecznie w ten sam sposób. Po zakończeniu procesu kodowania, dane kodowane i informacja wstęgi bocznej dla sześciu kanałów są transmitowane do formatera DSP strumienia danych przez przydział i zarządzanie DSP bitami globalnymi. W tym etapie bajty kontroli CRC są wytwarzane selektywnie i dodawane do danych kodowanych w celu zapewnienia ochrony przed błędami w dekoderze. W końcu cały pakiet danych 16 jest gromadzony i dostarczany na wyjście.
Sześciokanałowe wykonanie dekodera komputerowego jest opisane na fig. 22. Mikroukład 324 procesora sygnałów cyfrowych (DSP) pojedynczych urządzeń analogowych ADSP21020 40-bitowych, zmiennopozycyjnych, jest stosowany do wykonania sześciokanałowego, cyfrowego dekodera akustycznego. ADSP21020 jest zegarowany przy 33 MHz i wykorzystuje zewnętrzną, 48-bitową X 32k ram programu (PRAM) 326, 40-bitową X 32k ram danych (SRAM) 328 do przeprowadzania algorytmu dekodowania. Dodatkowa 8-bitowa X 512k
183 092
EPROM 330 jest także stosowana do pamiętania ustalonych stałych, takich jak entropia o zmiennej długości i książki kodów wektorów współczynników prognozowania.
Przebieg przetwarzania dekodowaniajest jak następuje. Skompresowany strumień danych 16 jest wprowadzony do DSP przez przetwornik szeregoworównoległy (s/p) 332. Dane są rozpakowywane i dekodowane, jak to przedstawiono poprzednio. Próbki podpasma są odtwarzane w pojedynczym strumieniu danych z modulacjąkodowo-impulsową22 dla każdego kanału i wyprowadzane do trzech mikroukładów 334 cyfrowych nadajników akustycznych AES/EBU przez trzy przetworniki równoległo-szeregowe (p/s) 335.
Dla przykładu, gdy szybkości procesora wzrastająi pamięci są mniej skomplikowane, częstotliwości próbkowania, szybkości transmisji i wielkość bufora najprawdopodobniej wzrastają.
CGJ
O
ί ił Ν Μ τνΗ tn ił m j»
183 092 χθ
co m
cn
183 092
S 5 c
Z ro o “O w
OJ -c L_ 0/ ł?
o Ξ i:
ΟΊ l/l
ro cn
LL.
ai
V
-i/J
O cn m , % => £ . J c ω „?m_ σι
Ji >» >-»-ł rU (Z) Π3 U183 092 ο
σ>
c ο-χι_ι
Ο CTO J5 w cn ΐ α» ο θ c
CTN
JZł
-J· σι ίι_ ° <4σι ιλ
183 092
Fig. 5
183 092
FIG. 6
FIG.7 (dB)
FIG. 8
FIG.9 > Szybkość transmisji bitów
183 092
Szybkość _ 30 /178 transmisji / /__ bitów I Zarządzenie bitami_________________________ Zarządzenia bitami globalnymi Użycie bitów informacji bocznej globalnymi
183 092
FIG. 11A
109
Bufor podramki
TMODE Pod-podramka 1 Pod-pod- | Pod-pod- ramka 2 | ramka 3 Pod-podramka 4
0 RMS 1 lub Peak 1
1 RUS 1 lub Peak 1 RMS 2 lub Peak 2
2 RMS 1 lub Peak 1 RMS 2 lub Peak 2
3 RUS 1 lub Peak 1 RUS 2 lub Peak 2
110
FIG. 11B
183 092 fe.
Cs,
Cd
Q
O s
£
<M τ—I
O
H fc
O
183 092 ο
co (0
Μ
CU
Λ >ι
U
4J
Φ
Ή c
φ ϊ
ο
Μ
Φ
4->
Μ*
CO
Η
Ο
Η fo
183 092 (dB)
FIG. 15
FIG. 16
183 092 (dB)
2 3 4 5 6 7
FIG.18B
183 092
Ch
183 092
CL
Fig.20
183 092
183 092
04 04 04 04 04 04
3 3 3
rM «Μ τΜ
(0 Φ Φ
fi C C
σ» σ» σ'
>1 >1 >1
η ο «
0 0 0
σ' σ> σ'
φ φ φ
5 * 5
0 0 0
Μ 0 Ρ 0 Ρ ο
U4 ζΤ»Ο4 Μ-4 Ο*1Γ Μ-ł φηνο
>1 φ >1 Φ > Φ
υ C Η ο C-H 0 C Ή
Μ Ν Ν
φ 0 r-t φ 0 σι Φ υ ιη
•Η >1 •Η >, «Η >,
0 -Ρ .Μ 0 -Ρ «Μ ϋ -Ρ <Μ
ΧΟ Φ φχο β Φ ΧΟ « Φ
-π 3 fi-ηί fi -η 3 fi >ι.2 Φ >.2 4 >i.2 Φ
xo g Φ 3 Ό •η Ο fi H -Ρ φ X (8 4J -Η α 3 β Λ
Ο
Η
183 092
Departament Wydawnictw UP RP. Nakład 70 egz.
Cena 6,00 zł.

Claims (2)

  1. Zastrzeżenia patentowe
    1. Produkt akustyczny wielokanałowy, znamienny tym, że zawiera nośnik (20) danych odczytywanych urządzenia przenośnego i strumień (16) danych cyfrowych, reprezentujący wielokanałowy sygnał akustyczny próbkowany z szybkością próbkowania, kodowany w zakresie pasma podstawowego dzielonego na podpasma częstotliwości i w zakresie częstotliwości o dużej szybkości próbkowania oraz nośnik danych odczytywanych urządzenia przenośnego jest wpisywany jako sekwencja ramek akustycznych (186) z szybkością transmisji, przy czym każda z ramek akustycznych zawiera w kolejności słowo synchronizacji (192), nagłówek (194) ramki, zawierający wielkość okna wskazującą liczbę próbek akustycznych w ramce akustycznej i wielkość ramki wskazującą liczbę bajtów w ramce akustycznej, a wielkość okna akustycznego jest nastawionajako funkcja stosunku szybkości transmisji do szybkości próbkowania do ograniczenia wielkości ramki do mniejszej niż wielkość maksymalna, nagłówek akustyczny (198) do wskazywania uporządkowania upakowania i formatu kodowania dla ramki akustycznej, co najmniej jedną podramkę akustyczną (188), a każda podramka akustyczna zawiera informację boczną(200) do dekodowania podramki akustycznej bez odniesienia dojakiejkolwiek innej podramki, wiele pod-podramek akustycznych (190) pasma podstawowego, w którym dane akustyczne dla każdego z podpasm częstotliwości kanału sąupakowywane i multipleksowane przez inne kanały, blok akustyczny (208) o dużej szybkości próbkowania, w którym dane akustyczne w zakresie częstotliwości o dużej szybkości próbkowania dla każdego kanału sąupakowywane i multipleksowane przez inne kanały dla dekodowania wielokanałowego sygnału akustycznego z wieloma szybkościami próbkowania dekodowania oraz synchronizator rozpakowywania (210) do kontroli końca podramki.
  2. 2. Produkt według zastrz. 1, znamienny tym, że cyfrowy strumień danych reprezentuje wielokanałowy sygnał akustyczny kodowany w zakresie pasma podstawowego i zakresie częstotliwości o dużej częstotliwości próbkowania, a każda ramka akustyczna zawiera blok akustyczny (208) o dużej szybkości próbkowania, w którym dane akustyczne w zakresie częstotliwości o dużej częstotliwości próbkowania dla każdego kanału sąupakowane i multipleksowane z innymi kanałami dla dekodowania wielokanałowego sygnału akustycznego z wieloma częstotliwościami próbkowania dekodowania.
PL96346687A 1995-12-01 1996-11-21 Produkt akustyczny wielokanałowy PL183092B1 (pl)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US789695P 1995-12-01 1995-12-01
US08/642,254 US5956674A (en) 1995-12-01 1996-05-02 Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
PCT/US1996/018764 WO1997021211A1 (en) 1995-12-01 1996-11-21 Multi-channel predictive subband coder using psychoacoustic adaptive bit allocation

Publications (1)

Publication Number Publication Date
PL183092B1 true PL183092B1 (pl) 2002-05-31

Family

ID=26677495

Family Applications (3)

Application Number Title Priority Date Filing Date
PL96346688A PL183498B1 (pl) 1995-12-01 1996-11-21 Dekoder akustyczny wielokanałowy
PL96346687A PL183092B1 (pl) 1995-12-01 1996-11-21 Produkt akustyczny wielokanałowy
PL96327082A PL182240B1 (pl) 1995-12-01 1996-11-21 Koder akustyczny wielokanalowy PL PL PL PL PL PL PL PL PL

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PL96346688A PL183498B1 (pl) 1995-12-01 1996-11-21 Dekoder akustyczny wielokanałowy

Family Applications After (1)

Application Number Title Priority Date Filing Date
PL96327082A PL182240B1 (pl) 1995-12-01 1996-11-21 Koder akustyczny wielokanalowy PL PL PL PL PL PL PL PL PL

Country Status (17)

Country Link
US (4) US5956674A (pl)
EP (1) EP0864146B1 (pl)
JP (1) JP4174072B2 (pl)
KR (1) KR100277819B1 (pl)
CN (5) CN1848242B (pl)
AT (1) ATE279770T1 (pl)
AU (1) AU705194B2 (pl)
BR (1) BR9611852A (pl)
CA (2) CA2238026C (pl)
DE (1) DE69633633T2 (pl)
DK (1) DK0864146T3 (pl)
EA (1) EA001087B1 (pl)
ES (1) ES2232842T3 (pl)
MX (1) MX9804320A (pl)
PL (3) PL183498B1 (pl)
PT (1) PT864146E (pl)
WO (1) WO1997021211A1 (pl)

Families Citing this family (568)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990082402A (ko) * 1996-02-08 1999-11-25 모리시타 요이찌 광대역 오디오신호 부호장치, 광대역 오디오신호 복호장치, 광대역 오디오신호 부호 복호장치 및 광대역 오디오신호 기록매체
US8306811B2 (en) * 1996-08-30 2012-11-06 Digimarc Corporation Embedding data in audio and detecting embedded data in audio
JP3622365B2 (ja) * 1996-09-26 2005-02-23 ヤマハ株式会社 音声符号化伝送方式
JPH10271082A (ja) * 1997-03-21 1998-10-09 Mitsubishi Electric Corp 音声データ復号装置
US6449227B1 (en) 1997-03-25 2002-09-10 Samsung Electronics Co., Ltd. DVD-audio disk, and apparatus and method for playing the same
US6741796B1 (en) * 1997-03-25 2004-05-25 Samsung Electronics, Co., Ltd. DVD-Audio disk, and apparatus and method for playing the same
US7110662B1 (en) 1997-03-25 2006-09-19 Samsung Electronics Co., Ltd. Apparatus and method for recording data on a DVD-audio disk
EP0907255A1 (en) * 1997-03-28 1999-04-07 Sony Corporation Data coding method and device, data decoding method and device, and recording medium
US6298025B1 (en) * 1997-05-05 2001-10-02 Warner Music Group Inc. Recording and playback of multi-channel digital audio having different resolutions for different channels
SE512719C2 (sv) * 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
US6636474B1 (en) * 1997-07-16 2003-10-21 Victor Company Of Japan, Ltd. Recording medium and audio-signal processing apparatus
US5903872A (en) * 1997-10-17 1999-05-11 Dolby Laboratories Licensing Corporation Frame-based audio coding with additional filterbank to attenuate spectral splatter at frame boundaries
DE69722973T2 (de) * 1997-12-19 2004-05-19 Stmicroelectronics Asia Pacific Pte Ltd. Verfahren und gerät zur phasenschätzung in einem transformationskodierer für hochqualitätsaudio
WO1999034527A1 (en) * 1997-12-27 1999-07-08 Sgs-Thomson Microelectronics Asia Pacific (Pte) Ltd. Method and apparatus for estimation of coupling parameters in a transform coder for high quality audio
CA2262197A1 (en) * 1998-02-18 1999-08-18 Henrietta L. Galiana Automatic segmentation of nystagmus or other complex curves
JP3802219B2 (ja) * 1998-02-18 2006-07-26 富士通株式会社 音声符号化装置
JPH11234136A (ja) * 1998-02-19 1999-08-27 Sanyo Electric Co Ltd デジタルデータの符号化方法及び符号化装置
US6253185B1 (en) * 1998-02-25 2001-06-26 Lucent Technologies Inc. Multiple description transform coding of audio using optimal transforms of arbitrary dimension
KR100304092B1 (ko) 1998-03-11 2001-09-26 마츠시타 덴끼 산교 가부시키가이샤 오디오 신호 부호화 장치, 오디오 신호 복호화 장치 및 오디오 신호 부호화/복호화 장치
US6400727B1 (en) * 1998-03-27 2002-06-04 Cirrus Logic, Inc. Methods and system to transmit data acquired at a variable rate over a fixed rate channel
US6396956B1 (en) * 1998-03-31 2002-05-28 Sharp Laboratories Of America, Inc. Method and apparatus for selecting image data to skip when encoding digital video
JPH11331248A (ja) * 1998-05-08 1999-11-30 Sony Corp 送信装置および送信方法、受信装置および受信方法、並びに提供媒体
US6141645A (en) * 1998-05-29 2000-10-31 Acer Laboratories Inc. Method and device for down mixing compressed audio bit stream having multiple audio channels
US6141639A (en) * 1998-06-05 2000-10-31 Conexant Systems, Inc. Method and apparatus for coding of signals containing speech and background noise
KR100548891B1 (ko) * 1998-06-15 2006-02-02 마츠시타 덴끼 산교 가부시키가이샤 음성 부호화 장치 및 음성 부호화 방법
US6061655A (en) * 1998-06-26 2000-05-09 Lsi Logic Corporation Method and apparatus for dual output interface control of audio decoder
US6301265B1 (en) * 1998-08-14 2001-10-09 Motorola, Inc. Adaptive rate system and method for network communications
US7457415B2 (en) 1998-08-20 2008-11-25 Akikaze Technologies, Llc Secure information distribution system utilizing information segment scrambling
JP4308345B2 (ja) * 1998-08-21 2009-08-05 パナソニック株式会社 マルチモード音声符号化装置及び復号化装置
US6704705B1 (en) * 1998-09-04 2004-03-09 Nortel Networks Limited Perceptual audio coding
GB9820655D0 (en) * 1998-09-22 1998-11-18 British Telecomm Packet transmission
US7272556B1 (en) * 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
JP4193243B2 (ja) * 1998-10-07 2008-12-10 ソニー株式会社 音響信号符号化方法及び装置、音響信号復号化方法及び装置並びに記録媒体
US6463410B1 (en) * 1998-10-13 2002-10-08 Victor Company Of Japan, Ltd. Audio signal processing apparatus
US6219634B1 (en) * 1998-10-14 2001-04-17 Liquid Audio, Inc. Efficient watermark method and apparatus for digital signals
US6345100B1 (en) 1998-10-14 2002-02-05 Liquid Audio, Inc. Robust watermark method and apparatus for digital signals
US6320965B1 (en) 1998-10-14 2001-11-20 Liquid Audio, Inc. Secure watermark method and apparatus for digital signals
US6330673B1 (en) 1998-10-14 2001-12-11 Liquid Audio, Inc. Determination of a best offset to detect an embedded pattern
US6754241B1 (en) * 1999-01-06 2004-06-22 Sarnoff Corporation Computer system for statistical multiplexing of bitstreams
US6931372B1 (en) * 1999-01-27 2005-08-16 Agere Systems Inc. Joint multiple program coding for digital audio broadcasting and other applications
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US6357029B1 (en) * 1999-01-27 2002-03-12 Agere Systems Guardian Corp. Joint multiple program error concealment for digital audio broadcasting and other applications
US6378101B1 (en) * 1999-01-27 2002-04-23 Agere Systems Guardian Corp. Multiple program decoding for digital audio broadcasting and other applications
TW477119B (en) * 1999-01-28 2002-02-21 Winbond Electronics Corp Byte allocation method and device for speech synthesis
FR2791167B1 (fr) * 1999-03-17 2003-01-10 Matra Nortel Communications Procedes de codage, de decodage et de transcodage audio
JP3739959B2 (ja) * 1999-03-23 2006-01-25 株式会社リコー デジタル音響信号符号化装置、デジタル音響信号符号化方法及びデジタル音響信号符号化プログラムを記録した媒体
DE19914742A1 (de) * 1999-03-31 2000-10-12 Siemens Ag Verfahren zum Übertragen von Daten
JP2001006291A (ja) * 1999-06-21 2001-01-12 Fuji Film Microdevices Co Ltd オーディオ信号の符号化方式判定装置、及びオーディオ信号の符号化方式判定方法
US7283965B1 (en) * 1999-06-30 2007-10-16 The Directv Group, Inc. Delivery and transmission of dolby digital AC-3 over television broadcast
US6553210B1 (en) * 1999-08-03 2003-04-22 Alliedsignal Inc. Single antenna for receipt of signals from multiple communications systems
US6581032B1 (en) * 1999-09-22 2003-06-17 Conexant Systems, Inc. Bitstream protocol for transmission of encoded voice signals
US7181297B1 (en) 1999-09-28 2007-02-20 Sound Id System and method for delivering customized audio data
US6496798B1 (en) * 1999-09-30 2002-12-17 Motorola, Inc. Method and apparatus for encoding and decoding frames of voice model parameters into a low bit rate digital voice message
US6732061B1 (en) * 1999-11-30 2004-05-04 Agilent Technologies, Inc. Monitoring system and method implementing a channel plan
US6741947B1 (en) * 1999-11-30 2004-05-25 Agilent Technologies, Inc. Monitoring system and method implementing a total node power test
US7792681B2 (en) * 1999-12-17 2010-09-07 Interval Licensing Llc Time-scale modification of data-compressed audio information
US6842735B1 (en) * 1999-12-17 2005-01-11 Interval Research Corporation Time-scale modification of data-compressed audio information
EP1208725B1 (en) * 1999-12-24 2009-06-03 Koninklijke Philips Electronics N.V. Multichannel audio signal processing device
WO2001050459A1 (en) * 1999-12-31 2001-07-12 Octiv, Inc. Techniques for improving audio clarity and intelligibility at reduced bit rates over a digital network
US6499010B1 (en) * 2000-01-04 2002-12-24 Agere Systems Inc. Perceptual audio coder bit allocation scheme providing improved perceptual quality consistency
TW499672B (en) * 2000-02-18 2002-08-21 Intervideo Inc Fast convergence method for bit allocation stage of MPEG audio layer 3 encoders
DE60141734D1 (de) * 2000-02-29 2010-05-20 Sony Corp Gerät und verfahren zur verarbeitung von daten, aufzeichnungsmedium und programm
CN1208904C (zh) * 2000-04-14 2005-06-29 西门子公司 具有有用数据和冗余数据的数据流的信道解码方法和装置
US6782366B1 (en) * 2000-05-15 2004-08-24 Lsi Logic Corporation Method for independent dynamic range control
US7136810B2 (en) * 2000-05-22 2006-11-14 Texas Instruments Incorporated Wideband speech coding system and method
US6725110B2 (en) * 2000-05-26 2004-04-20 Yamaha Corporation Digital audio decoder
KR20020029672A (ko) * 2000-05-30 2002-04-19 요트.게.아. 롤페즈 씨.디. 오디오 상의 코딩된 정보
US7110953B1 (en) * 2000-06-02 2006-09-19 Agere Systems Inc. Perceptual coding of audio signals using separated irrelevancy reduction and redundancy reduction
US6678647B1 (en) * 2000-06-02 2004-01-13 Agere Systems Inc. Perceptual coding of audio signals using cascaded filterbanks for performing irrelevancy reduction and redundancy reduction with different spectral/temporal resolution
US6778953B1 (en) * 2000-06-02 2004-08-17 Agere Systems Inc. Method and apparatus for representing masked thresholds in a perceptual audio coder
US6754618B1 (en) * 2000-06-07 2004-06-22 Cirrus Logic, Inc. Fast implementation of MPEG audio coding
US6748363B1 (en) * 2000-06-28 2004-06-08 Texas Instruments Incorporated TI window compression/expansion method
US6601032B1 (en) * 2000-06-14 2003-07-29 Intervideo, Inc. Fast code length search method for MPEG audio encoding
US6678648B1 (en) 2000-06-14 2004-01-13 Intervideo, Inc. Fast loop iteration and bitstream formatting method for MPEG audio encoding
US6542863B1 (en) 2000-06-14 2003-04-01 Intervideo, Inc. Fast codebook search method for MPEG audio encoding
US6745162B1 (en) * 2000-06-22 2004-06-01 Sony Corporation System and method for bit allocation in an audio encoder
JP2002014697A (ja) * 2000-06-30 2002-01-18 Hitachi Ltd ディジタルオーディオ装置
FI109393B (fi) * 2000-07-14 2002-07-15 Nokia Corp Menetelmä mediavirran enkoodaamiseksi skaalautuvasti, skaalautuva enkooderi ja päätelaite
US6931371B2 (en) * 2000-08-25 2005-08-16 Matsushita Electric Industrial Co., Ltd. Digital interface device
SE519981C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
US20020075965A1 (en) * 2000-12-20 2002-06-20 Octiv, Inc. Digital signal processing techniques for improving audio clarity and intelligibility
EP1327360A1 (en) * 2000-10-11 2003-07-16 Koninklijke Philips Electronics N.V. Scalable coding of multi-media objects
US20030023429A1 (en) * 2000-12-20 2003-01-30 Octiv, Inc. Digital signal processing techniques for improving audio clarity and intelligibility
US7526348B1 (en) * 2000-12-27 2009-04-28 John C. Gaddy Computer based automatic audio mixer
CN1205540C (zh) * 2000-12-29 2005-06-08 深圳赛意法微电子有限公司 含有解码器的电路、时分寻址的方法和一个微控制器
EP1223696A3 (en) * 2001-01-12 2003-12-17 Matsushita Electric Industrial Co., Ltd. System for transmitting digital audio data according to the MOST method
GB0103242D0 (en) * 2001-02-09 2001-03-28 Radioscape Ltd Method of analysing a compressed signal for the presence or absence of information content
GB0108080D0 (en) * 2001-03-30 2001-05-23 Univ Bath Audio compression
ATE323935T1 (de) * 2001-04-09 2006-05-15 Koninkl Philips Electronics Nv Adpcm sprachkodiersystem mit phasenfaltungs und - entfaltungsfiltern
WO2002082425A1 (en) * 2001-04-09 2002-10-17 Koninklijke Philips Electronics N.V. Adpcm speech coding system with specific step-size adaptation
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610205B2 (en) * 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
PL365018A1 (pl) * 2001-04-18 2004-12-27 Koninklijke Philips Electronics N.V. Kodowanie audio
US7644003B2 (en) * 2001-05-04 2010-01-05 Agere Systems Inc. Cue-based audio coding/decoding
US7047201B2 (en) * 2001-05-04 2006-05-16 Ssi Corporation Real-time control of playback rates in presentations
US7583805B2 (en) * 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US6804565B2 (en) 2001-05-07 2004-10-12 Harman International Industries, Incorporated Data-driven software architecture for digital sound processing and equalization
US7447321B2 (en) 2001-05-07 2008-11-04 Harman International Industries, Incorporated Sound processing system for configuration of audio signals in a vehicle
US7451006B2 (en) 2001-05-07 2008-11-11 Harman International Industries, Incorporated Sound processing system using distortion limiting techniques
JP4591939B2 (ja) * 2001-05-15 2010-12-01 Kddi株式会社 適応的符号化伝送装置および受信装置
EP1430706A4 (en) * 2001-06-11 2011-05-18 Broadcom Corp SYSTEM AND METHOD FOR MULTI-CHANNEL VIDEO AND AUDIO CODING ON A SINGLE CHIP
US6661880B1 (en) 2001-06-12 2003-12-09 3Com Corporation System and method for embedding digital information in a dial tone signal
EP1271470A1 (en) * 2001-06-25 2003-01-02 Alcatel Method and device for determining the voice quality degradation of a signal
US7460629B2 (en) 2001-06-29 2008-12-02 Agere Systems Inc. Method and apparatus for frame-based buffer control in a communication system
SE0202159D0 (sv) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
JP3463752B2 (ja) * 2001-07-25 2003-11-05 三菱電機株式会社 音響符号化装置、音響復号化装置、音響符号化方法および音響復号化方法
JP3469567B2 (ja) * 2001-09-03 2003-11-25 三菱電機株式会社 音響符号化装置、音響復号化装置、音響符号化方法及び音響復号化方法
US7062429B2 (en) * 2001-09-07 2006-06-13 Agere Systems Inc. Distortion-based method and apparatus for buffer control in a communication system
US7333929B1 (en) 2001-09-13 2008-02-19 Chmounk Dmitri V Modular scalable compressed audio data stream
US6944474B2 (en) * 2001-09-20 2005-09-13 Sound Id Sound enhancement for mobile phones and other products producing personalized audio for users
US6732071B2 (en) * 2001-09-27 2004-05-04 Intel Corporation Method, apparatus, and system for efficient rate control in audio encoding
JP4245288B2 (ja) * 2001-11-13 2009-03-25 パナソニック株式会社 音声符号化装置および音声復号化装置
CA2430923C (en) * 2001-11-14 2012-01-03 Matsushita Electric Industrial Co., Ltd. Encoding device, decoding device, and system thereof
WO2003043003A2 (en) * 2001-11-16 2003-05-22 Koninklijke Philips Electronics N.V. Embedding supplementary data in an information signal
CN1279512C (zh) 2001-11-29 2006-10-11 编码技术股份公司 用于改善高频重建的方法和装置
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7240001B2 (en) * 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US6931511B1 (en) 2001-12-31 2005-08-16 Apple Computer, Inc. Parallel vector table look-up with replicated index element vector
US6573846B1 (en) 2001-12-31 2003-06-03 Apple Computer, Inc. Method and apparatus for variable length decoding and encoding of video streams
US7114058B1 (en) 2001-12-31 2006-09-26 Apple Computer, Inc. Method and apparatus for forming and dispatching instruction groups based on priority comparisons
US6877020B1 (en) 2001-12-31 2005-04-05 Apple Computer, Inc. Method and apparatus for matrix transposition
US6693643B1 (en) 2001-12-31 2004-02-17 Apple Computer, Inc. Method and apparatus for color space conversion
US7055018B1 (en) 2001-12-31 2006-05-30 Apple Computer, Inc. Apparatus for parallel vector table look-up
US6822654B1 (en) 2001-12-31 2004-11-23 Apple Computer, Inc. Memory controller chipset
US6697076B1 (en) 2001-12-31 2004-02-24 Apple Computer, Inc. Method and apparatus for address re-mapping
US7681013B1 (en) 2001-12-31 2010-03-16 Apple Inc. Method for variable length decoding using multiple configurable look-up tables
US7034849B1 (en) 2001-12-31 2006-04-25 Apple Computer, Inc. Method and apparatus for image blending
US7558947B1 (en) 2001-12-31 2009-07-07 Apple Inc. Method and apparatus for computing vector absolute differences
US7015921B1 (en) 2001-12-31 2006-03-21 Apple Computer, Inc. Method and apparatus for memory access
US7467287B1 (en) 2001-12-31 2008-12-16 Apple Inc. Method and apparatus for vector table look-up
US7305540B1 (en) 2001-12-31 2007-12-04 Apple Inc. Method and apparatus for data processing
US7848531B1 (en) * 2002-01-09 2010-12-07 Creative Technology Ltd. Method and apparatus for audio loudness and dynamics matching
US6618128B2 (en) * 2002-01-23 2003-09-09 Csi Technology, Inc. Optical speed sensing system
ES2255678T3 (es) * 2002-02-18 2006-07-01 Koninklijke Philips Electronics N.V. Codificacion de audio parametrica.
US20030161469A1 (en) * 2002-02-25 2003-08-28 Szeming Cheng Method and apparatus for embedding data in compressed audio data stream
US20100042406A1 (en) * 2002-03-04 2010-02-18 James David Johnston Audio signal processing using improved perceptual model
US7313520B2 (en) * 2002-03-20 2007-12-25 The Directv Group, Inc. Adaptive variable bit rate audio compression encoding
US20030187663A1 (en) 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7225135B2 (en) * 2002-04-05 2007-05-29 Lectrosonics, Inc. Signal-predictive audio transmission system
US20040125707A1 (en) * 2002-04-05 2004-07-01 Rodolfo Vargas Retrieving content of various types with a conversion device attachable to audio outputs of an audio CD player
US7428440B2 (en) * 2002-04-23 2008-09-23 Realnetworks, Inc. Method and apparatus for preserving matrix surround information in encoded audio/video
AU2002307896A1 (en) 2002-04-25 2003-11-10 Nokia Corporation Method and device for reducing high frequency error components of a multi-channel modulator
JP4016709B2 (ja) * 2002-04-26 2007-12-05 日本電気株式会社 オーディオデータの符号変換伝送方法と符号変換受信方法及び装置とシステムならびにプログラム
JP4744874B2 (ja) * 2002-05-03 2011-08-10 ハーマン インターナショナル インダストリーズ インコーポレイテッド サウンドの検出および特定システム
US7096180B2 (en) * 2002-05-15 2006-08-22 Intel Corporation Method and apparatuses for improving quality of digitally encoded speech in the presence of interference
US7050965B2 (en) * 2002-06-03 2006-05-23 Intel Corporation Perceptual normalization of digital audio signals
JP4554361B2 (ja) * 2002-06-21 2010-09-29 トムソン ライセンシング シリアル・ディジタル・オーディオ・データ・ストリーム復号器を有するブロードキャスト・ルータ
US7325048B1 (en) * 2002-07-03 2008-01-29 3Com Corporation Method for automatically creating a modem interface for use with a wireless device
KR100462615B1 (ko) * 2002-07-11 2004-12-20 삼성전자주식회사 적은 계산량으로 고주파수 성분을 복원하는 오디오 디코딩방법 및 장치
US8228849B2 (en) * 2002-07-15 2012-07-24 Broadcom Corporation Communication gateway supporting WLAN communications in multiple communication protocols and in multiple frequency bands
BR0305555A (pt) * 2002-07-16 2004-09-28 Koninkl Philips Electronics Nv Método e codificador para codificar um sinal de áudio, aparelho para fornecimento de um sinal de áudio, sinal de áudio codificado, meio de armazenamento, e, método e decodificador para decodificar um sinal de áudio codificado
CN1233163C (zh) * 2002-08-21 2005-12-21 中山正音数字技术有限公司 多声道数字音频信号的压缩编码和解码设备及其方法
CN1783726B (zh) * 2002-08-21 2010-05-12 广州广晟数码技术有限公司 用于从音频数据码流中解码重建多声道音频信号的解码器
EP1394772A1 (en) * 2002-08-28 2004-03-03 Deutsche Thomson-Brandt Gmbh Signaling of window switchings in a MPEG layer 3 audio data stream
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
US7299190B2 (en) * 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
EP2282310B1 (en) 2002-09-04 2012-01-25 Microsoft Corporation Entropy coding by adapting coding between level and run-length/level modes
JP4676140B2 (ja) * 2002-09-04 2011-04-27 マイクロソフト コーポレーション オーディオの量子化および逆量子化
TW573293B (en) * 2002-09-13 2004-01-21 Univ Nat Central Nonlinear operation method suitable for audio encoding/decoding and an applied hardware thereof
SE0202770D0 (sv) 2002-09-18 2002-09-18 Coding Technologies Sweden Ab Method for reduction of aliasing introduces by spectral envelope adjustment in real-valued filterbanks
FR2846179B1 (fr) * 2002-10-21 2005-02-04 Medialive Embrouillage adaptatif et progressif de flux audio
US6781528B1 (en) 2002-10-24 2004-08-24 Apple Computer, Inc. Vector handling capable processor and run length encoding
US6707398B1 (en) 2002-10-24 2004-03-16 Apple Computer, Inc. Methods and apparatuses for packing bitstreams
US6781529B1 (en) 2002-10-24 2004-08-24 Apple Computer, Inc. Methods and apparatuses for variable length encoding
US6707397B1 (en) 2002-10-24 2004-03-16 Apple Computer, Inc. Methods and apparatus for variable length codeword concatenation
US7650625B2 (en) * 2002-12-16 2010-01-19 Lsi Corporation System and method for controlling audio and video content via an advanced settop box
US7555017B2 (en) * 2002-12-17 2009-06-30 Tls Corporation Low latency digital audio over packet switched networks
US7272566B2 (en) * 2003-01-02 2007-09-18 Dolby Laboratories Licensing Corporation Reducing scale factor transmission cost for MPEG-2 advanced audio coding (AAC) using a lattice based post processing technique
KR100547113B1 (ko) * 2003-02-15 2006-01-26 삼성전자주식회사 오디오 데이터 인코딩 장치 및 방법
TW594674B (en) * 2003-03-14 2004-06-21 Mediatek Inc Encoder and a encoding method capable of detecting audio signal transient
CN100339886C (zh) * 2003-04-10 2007-09-26 联发科技股份有限公司 可以检测声音信号的暂态位置的编码器及编码方法
FR2853786B1 (fr) * 2003-04-11 2005-08-05 Medialive Procede et equipement de distribution de produits videos numeriques avec une restriction de certains au moins des droits de representation et de reproduction
ES2282860T3 (es) * 2003-04-17 2007-10-16 Koninklijke Philips Electronics N.V. Generacion de señal de audio.
ATE355590T1 (de) * 2003-04-17 2006-03-15 Koninkl Philips Electronics Nv Audiosignalsynthese
US8073684B2 (en) * 2003-04-25 2011-12-06 Texas Instruments Incorporated Apparatus and method for automatic classification/identification of similar compressed audio files
SE0301273D0 (sv) * 2003-04-30 2003-04-30 Coding Technologies Sweden Ab Advanced processing based on a complex-exponential-modulated filterbank and adaptive time signalling methods
WO2004098105A1 (en) * 2003-04-30 2004-11-11 Nokia Corporation Support of a multichannel audio extension
US7739105B2 (en) * 2003-06-13 2010-06-15 Vixs Systems, Inc. System and method for processing audio frames
WO2004112400A1 (en) * 2003-06-16 2004-12-23 Matsushita Electric Industrial Co., Ltd. Coding apparatus, coding method, and codebook
KR100556365B1 (ko) * 2003-07-07 2006-03-03 엘지전자 주식회사 음성 인식장치 및 방법
US7454431B2 (en) * 2003-07-17 2008-11-18 At&T Corp. Method and apparatus for window matching in delta compressors
US7289680B1 (en) * 2003-07-23 2007-10-30 Cisco Technology, Inc. Methods and apparatus for minimizing requantization error
TWI220336B (en) * 2003-07-28 2004-08-11 Design Technology Inc G Compression rate promotion method of adaptive differential PCM technique
US7996234B2 (en) * 2003-08-26 2011-08-09 Akikaze Technologies, Llc Method and apparatus for adaptive variable bit rate audio encoding
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7983909B2 (en) * 2003-09-15 2011-07-19 Intel Corporation Method and apparatus for encoding audio data
SG120118A1 (en) * 2003-09-15 2006-03-28 St Microelectronics Asia A device and process for encoding audio data
US20050083808A1 (en) * 2003-09-18 2005-04-21 Anderson Hans C. Audio player with CD mechanism
US7283968B2 (en) 2003-09-29 2007-10-16 Sony Corporation Method for grouping short windows in audio encoding
US7325023B2 (en) * 2003-09-29 2008-01-29 Sony Corporation Method of making a window type decision based on MDCT data in audio encoding
US7426462B2 (en) * 2003-09-29 2008-09-16 Sony Corporation Fast codebook selection method in audio encoding
US7349842B2 (en) * 2003-09-29 2008-03-25 Sony Corporation Rate-distortion control scheme in audio encoding
DE602004030594D1 (de) * 2003-10-07 2011-01-27 Panasonic Corp Verfahren zur entscheidung der zeitgrenze zur codierung der spektro-hülle und frequenzauflösung
TWI226035B (en) * 2003-10-16 2005-01-01 Elan Microelectronics Corp Method and system improving step adaptation of ADPCM voice coding
BR122018007834B1 (pt) * 2003-10-30 2019-03-19 Koninklijke Philips Electronics N.V. Codificador e decodificador de áudio avançado de estéreo paramétrico combinado e de replicação de banda espectral, método de codificação avançada de áudio de estéreo paramétrico combinado e de replicação de banda espectral, sinal de áudio avançado codificado de estéreo paramétrico combinado e de replicação de banda espectral, método de decodificação avançada de áudio de estéreo paramétrico combinado e de replicação de banda espectral, e, meio de armazenamento legível por computador
KR20050050322A (ko) * 2003-11-25 2005-05-31 삼성전자주식회사 직교주파수다중화방식의 이동통신시스템에서 적응변조 방법
KR100571824B1 (ko) * 2003-11-26 2006-04-17 삼성전자주식회사 부가정보 삽입된 mpeg-4 오디오 bsac부호화/복호화 방법 및 장치
FR2867649A1 (fr) * 2003-12-10 2005-09-16 France Telecom Procede de codage multiple optimise
JPWO2005057550A1 (ja) * 2003-12-15 2007-12-13 松下電器産業株式会社 音声圧縮伸張装置
US7725324B2 (en) * 2003-12-19 2010-05-25 Telefonaktiebolaget Lm Ericsson (Publ) Constrained filter encoding of polyphonic signals
US7809579B2 (en) * 2003-12-19 2010-10-05 Telefonaktiebolaget Lm Ericsson (Publ) Fidelity-optimized variable frame length encoding
SE527670C2 (sv) * 2003-12-19 2006-05-09 Ericsson Telefon Ab L M Naturtrogenhetsoptimerad kodning med variabel ramlängd
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
JP2005217486A (ja) * 2004-01-27 2005-08-11 Matsushita Electric Ind Co Ltd ストリーム復号装置
DE102004007200B3 (de) * 2004-02-13 2005-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
US20090299756A1 (en) * 2004-03-01 2009-12-03 Dolby Laboratories Licensing Corporation Ratio of speech to non-speech audio such as for elderly or hearing-impaired listeners
DE102004009949B4 (de) * 2004-03-01 2006-03-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ermitteln eines Schätzwertes
CA3026267C (en) 2004-03-01 2019-04-16 Dolby Laboratories Licensing Corporation Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
US7392195B2 (en) * 2004-03-25 2008-06-24 Dts, Inc. Lossless multi-channel audio codec
TWI231656B (en) * 2004-04-08 2005-04-21 Univ Nat Chiao Tung Fast bit allocation algorithm for audio coding
US8032360B2 (en) * 2004-05-13 2011-10-04 Broadcom Corporation System and method for high-quality variable speed playback of audio-visual media
US7512536B2 (en) * 2004-05-14 2009-03-31 Texas Instruments Incorporated Efficient filter bank computation for audio coding
DE602004012165T2 (de) * 2004-05-28 2009-06-18 The Tc Group A/S Impulsbreitenmodulatorsystem
ATE453156T1 (de) * 2004-06-10 2010-01-15 Panasonic Corp System und verfahren für laufzeit-rekonfiguration
WO2005124722A2 (en) * 2004-06-12 2005-12-29 Spl Development, Inc. Aural rehabilitation system and method
KR100634506B1 (ko) * 2004-06-25 2006-10-16 삼성전자주식회사 저비트율 부호화/복호화 방법 및 장치
CN102833539B (zh) * 2004-06-27 2015-03-25 苹果公司 多通路视频编码
US20050286443A1 (en) * 2004-06-29 2005-12-29 Octiv, Inc. Conferencing system
US20050285935A1 (en) * 2004-06-29 2005-12-29 Octiv, Inc. Personal conferencing node
US8843378B2 (en) * 2004-06-30 2014-09-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-channel synthesizer and method for generating a multi-channel output signal
KR100773539B1 (ko) * 2004-07-14 2007-11-05 삼성전자주식회사 멀티채널 오디오 데이터 부호화/복호화 방법 및 장치
US20060015329A1 (en) * 2004-07-19 2006-01-19 Chu Wai C Apparatus and method for audio coding
US7391434B2 (en) * 2004-07-27 2008-06-24 The Directv Group, Inc. Video bit stream test
US7706415B2 (en) 2004-07-29 2010-04-27 Microsoft Corporation Packet multiplexing multi-channel audio
US7508947B2 (en) * 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
KR100608062B1 (ko) * 2004-08-04 2006-08-02 삼성전자주식회사 오디오 데이터의 고주파수 복원 방법 및 그 장치
US7930184B2 (en) * 2004-08-04 2011-04-19 Dts, Inc. Multi-channel audio coding/decoding of random access points and transients
CN101010724B (zh) * 2004-08-27 2011-05-25 松下电器产业株式会社 音频编码器
KR20070074546A (ko) * 2004-08-31 2007-07-12 코닌클리케 필립스 일렉트로닉스 엔.브이. 트랜스코딩을 위한 방법 및 디바이스
US7725313B2 (en) * 2004-09-13 2010-05-25 Ittiam Systems (P) Ltd. Method, system and apparatus for allocating bits in perceptual audio coders
US7895034B2 (en) * 2004-09-17 2011-02-22 Digital Rise Technology Co., Ltd. Audio encoding system
WO2006030754A1 (ja) * 2004-09-17 2006-03-23 Matsushita Electric Industrial Co., Ltd. オーディオ符号化装置、復号化装置、方法、及びプログラム
US7937271B2 (en) * 2004-09-17 2011-05-03 Digital Rise Technology Co., Ltd. Audio decoding using variable-length codebook application ranges
US7630902B2 (en) * 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
CN101312041B (zh) * 2004-09-17 2011-05-11 广州广晟数码技术有限公司 多声道数字音频编码设备及其方法
BRPI0516201A (pt) * 2004-09-28 2008-08-26 Matsushita Electric Industrial Co Ltd aparelho de codificação escalonável e método de codificação escalonável
JP4892184B2 (ja) * 2004-10-14 2012-03-07 パナソニック株式会社 音響信号符号化装置及び音響信号復号装置
US7061405B2 (en) * 2004-10-15 2006-06-13 Yazaki North America, Inc. Device and method for interfacing video devices over a fiber optic link
US8204261B2 (en) * 2004-10-20 2012-06-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Diffuse sound shaping for BCC schemes and the like
JP4815780B2 (ja) * 2004-10-20 2011-11-16 ヤマハ株式会社 オーバーサンプリングシステム、デコードlsi、およびオーバーサンプリング方法
US7720230B2 (en) * 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
SE0402651D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods for interpolation and parameter signalling
US7787631B2 (en) * 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
US7761304B2 (en) 2004-11-30 2010-07-20 Agere Systems Inc. Synchronizing parametric coding of spatial audio with externally provided downmix
WO2006060279A1 (en) * 2004-11-30 2006-06-08 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
EP1713060A4 (en) * 2004-12-22 2007-04-25 Matsushita Electric Industrial Co Ltd MPEG AUDIO DECODING METHOD
US7903824B2 (en) * 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
WO2006075079A1 (fr) * 2005-01-14 2006-07-20 France Telecom Procede d’encodage de pistes audio d’un contenu multimedia destine a une diffusion sur terminaux mobiles
KR100707177B1 (ko) * 2005-01-19 2007-04-13 삼성전자주식회사 디지털 신호 부호화/복호화 방법 및 장치
US7208372B2 (en) * 2005-01-19 2007-04-24 Sharp Laboratories Of America, Inc. Non-volatile memory resistor cell with nanotip electrode
KR100765747B1 (ko) * 2005-01-22 2007-10-15 삼성전자주식회사 트리 구조 벡터 양자화를 이용한 스케일러블 음성 부호화장치
WO2006079348A1 (en) * 2005-01-31 2006-08-03 Sonorit Aps Method for generating concealment frames in communication system
US7672742B2 (en) * 2005-02-16 2010-03-02 Adaptec, Inc. Method and system for reducing audio latency
US9626973B2 (en) * 2005-02-23 2017-04-18 Telefonaktiebolaget L M Ericsson (Publ) Adaptive bit allocation for multi-channel audio encoding
CN101124740B (zh) * 2005-02-23 2012-05-30 艾利森电话股份有限公司 多声道音频信号编码和解码的方法和装置和音频传送系统
DE102005010057A1 (de) * 2005-03-04 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
WO2006126843A2 (en) 2005-05-26 2006-11-30 Lg Electronics Inc. Method and apparatus for decoding audio signal
WO2006126856A2 (en) * 2005-05-26 2006-11-30 Lg Electronics Inc. Method of encoding and decoding an audio signal
JP4988716B2 (ja) 2005-05-26 2012-08-01 エルジー エレクトロニクス インコーポレイティド オーディオ信号のデコーディング方法及び装置
CN101185118B (zh) * 2005-05-26 2013-01-16 Lg电子株式会社 解码音频信号的方法和装置
US7548853B2 (en) * 2005-06-17 2009-06-16 Shmunk Dmitry V Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
KR100718132B1 (ko) * 2005-06-24 2007-05-14 삼성전자주식회사 오디오 신호의 비트스트림 생성 방법 및 장치, 그를 이용한부호화/복호화 방법 및 장치
US8082157B2 (en) * 2005-06-30 2011-12-20 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
WO2007004831A1 (en) * 2005-06-30 2007-01-11 Lg Electronics Inc. Method and apparatus for encoding and decoding an audio signal
EP1946294A2 (en) * 2005-06-30 2008-07-23 LG Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US8121836B2 (en) 2005-07-11 2012-02-21 Lg Electronics Inc. Apparatus and method of processing an audio signal
US8225392B2 (en) * 2005-07-15 2012-07-17 Microsoft Corporation Immunizing HTML browsers and extensions from known vulnerabilities
US7562021B2 (en) * 2005-07-15 2009-07-14 Microsoft Corporation Modification of codewords in dictionary used for efficient coding of digital media spectral data
US7539612B2 (en) 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
US7693709B2 (en) * 2005-07-15 2010-04-06 Microsoft Corporation Reordering coefficients for waveform coding or decoding
KR100851970B1 (ko) * 2005-07-15 2008-08-12 삼성전자주식회사 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
US7630882B2 (en) * 2005-07-15 2009-12-08 Microsoft Corporation Frequency segmentation to obtain bands for efficient coding of digital media
US7599840B2 (en) 2005-07-15 2009-10-06 Microsoft Corporation Selectively using multiple entropy models in adaptive coding and decoding
US7684981B2 (en) * 2005-07-15 2010-03-23 Microsoft Corporation Prediction of spectral coefficients in waveform coding and decoding
CN1909066B (zh) * 2005-08-03 2011-02-09 昆山杰得微电子有限公司 音频编码码量控制和调整的方法
WO2007019533A2 (en) * 2005-08-04 2007-02-15 R2Di, Llc System and methods for aligning capture and playback clocks in a wireless digital audio distribution system
US7565018B2 (en) 2005-08-12 2009-07-21 Microsoft Corporation Adaptive coding and decoding of wide-range coefficients
US7933337B2 (en) 2005-08-12 2011-04-26 Microsoft Corporation Prediction of transform coefficients for image compression
US8577483B2 (en) * 2005-08-30 2013-11-05 Lg Electronics, Inc. Method for decoding an audio signal
US7788107B2 (en) * 2005-08-30 2010-08-31 Lg Electronics Inc. Method for decoding an audio signal
US7822616B2 (en) * 2005-08-30 2010-10-26 Lg Electronics Inc. Time slot position coding of multiple frame types
KR20070025905A (ko) * 2005-08-30 2007-03-08 엘지전자 주식회사 멀티채널 오디오 코딩에서 효과적인 샘플링 주파수비트스트림 구성방법
KR101169280B1 (ko) * 2005-08-30 2012-08-02 엘지전자 주식회사 오디오 신호의 디코딩 방법 및 장치
JP5478826B2 (ja) * 2005-10-03 2014-04-23 シャープ株式会社 表示装置
US7696907B2 (en) * 2005-10-05 2010-04-13 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
US7672379B2 (en) * 2005-10-05 2010-03-02 Lg Electronics Inc. Audio signal processing, encoding, and decoding
KR100857115B1 (ko) 2005-10-05 2008-09-05 엘지전자 주식회사 신호 처리 방법 및 이의 장치, 그리고 인코딩 및 디코딩방법 및 이의 장치
US7751485B2 (en) * 2005-10-05 2010-07-06 Lg Electronics Inc. Signal processing using pilot based coding
US7646319B2 (en) * 2005-10-05 2010-01-12 Lg Electronics Inc. Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor
JP2009511948A (ja) 2005-10-05 2009-03-19 エルジー エレクトロニクス インコーポレイティド 信号処理方法及び装置、エンコーディング及びデコーディング方法並びにそのための装置
DE102005048581B4 (de) * 2005-10-06 2022-06-09 Robert Bosch Gmbh Teilnehmerschnittstelle zwischen einem FlexRay-Kommunikationsbaustein und einem FlexRay-Teilnehmer und Verfahren zur Übertragung von Botschaften über eine solche Schnittstelle
EP2555187B1 (en) * 2005-10-12 2016-12-07 Samsung Electronics Co., Ltd. Method and apparatus for encoding/decoding audio data and extension data
CN101283407B (zh) * 2005-10-14 2012-05-23 松下电器产业株式会社 变换编码装置和变换编码方法
US20070094035A1 (en) * 2005-10-21 2007-04-26 Nokia Corporation Audio coding
US7742913B2 (en) 2005-10-24 2010-06-22 Lg Electronics Inc. Removing time delays in signal paths
TWI307037B (en) * 2005-10-31 2009-03-01 Holtek Semiconductor Inc Audio calculation method
US20080162862A1 (en) * 2005-12-02 2008-07-03 Yoshiki Matsumoto Signal Processing Apparatus and Signal Processing Method
US8345890B2 (en) 2006-01-05 2013-01-01 Audience, Inc. System and method for utilizing inter-microphone level differences for speech enhancement
US8332216B2 (en) * 2006-01-12 2012-12-11 Stmicroelectronics Asia Pacific Pte., Ltd. System and method for low power stereo perceptual audio coding using adaptive masking threshold
US7752053B2 (en) 2006-01-13 2010-07-06 Lg Electronics Inc. Audio signal processing using pilot based coding
WO2007083952A1 (en) 2006-01-19 2007-07-26 Lg Electronics Inc. Method and apparatus for processing a media signal
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
US8190425B2 (en) * 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
US7953604B2 (en) * 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
US8744844B2 (en) * 2007-07-06 2014-06-03 Audience, Inc. System and method for adaptive intelligent noise suppression
US8204252B1 (en) 2006-10-10 2012-06-19 Audience, Inc. System and method for providing close microphone adaptive array processing
US9185487B2 (en) * 2006-01-30 2015-11-10 Audience, Inc. System and method for providing noise suppression utilizing null processing noise subtraction
US8194880B2 (en) 2006-01-30 2012-06-05 Audience, Inc. System and method for utilizing omni-directional microphones for speech enhancement
US8612238B2 (en) 2006-02-07 2013-12-17 Lg Electronics, Inc. Apparatus and method for encoding/decoding signal
JP2007249075A (ja) * 2006-03-17 2007-09-27 Toshiba Corp 音声再生装置および高域補間処理方法
JP4193865B2 (ja) * 2006-04-27 2008-12-10 ソニー株式会社 デジタル信号切換え装置及びその切換え方法
ATE527833T1 (de) * 2006-05-04 2011-10-15 Lg Electronics Inc Verbesserung von stereo-audiosignalen mittels neuabmischung
DE102006022346B4 (de) * 2006-05-12 2008-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Informationssignalcodierung
US8849231B1 (en) 2007-08-08 2014-09-30 Audience, Inc. System and method for adaptive power control
US8204253B1 (en) 2008-06-30 2012-06-19 Audience, Inc. Self calibration of audio device
US8934641B2 (en) * 2006-05-25 2015-01-13 Audience, Inc. Systems and methods for reconstructing decomposed audio signals
US8949120B1 (en) 2006-05-25 2015-02-03 Audience, Inc. Adaptive noise cancelation
US8150065B2 (en) * 2006-05-25 2012-04-03 Audience, Inc. System and method for processing an audio signal
ES2390181T3 (es) * 2006-06-29 2012-11-07 Lg Electronics Inc. Procedimiento y aparato para procesar una señal de audio
US8682652B2 (en) 2006-06-30 2014-03-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
EP2038879B1 (en) * 2006-06-30 2015-11-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and audio decoder having a dynamically variable warping characteristic
WO2008004649A1 (fr) * 2006-07-07 2008-01-10 Nec Corporation Dispositif de codage audio, procédé de codage audio, et programme de ceux-ci
US7797155B2 (en) * 2006-07-26 2010-09-14 Ittiam Systems (P) Ltd. System and method for measurement of perceivable quantization noise in perceptual audio coders
US7907579B2 (en) * 2006-08-15 2011-03-15 Cisco Technology, Inc. WiFi geolocation from carrier-managed system geolocation of a dual mode device
CN100531398C (zh) * 2006-08-23 2009-08-19 中兴通讯股份有限公司 一种移动多媒体广播系统的多音轨实现方法
US7882462B2 (en) 2006-09-11 2011-02-01 The Mathworks, Inc. Hardware definition language generation for frame-based processing
US7461106B2 (en) * 2006-09-12 2008-12-02 Motorola, Inc. Apparatus and method for low complexity combinatorial coding of signals
JP4823001B2 (ja) * 2006-09-27 2011-11-24 富士通セミコンダクター株式会社 オーディオ符号化装置
WO2008039045A1 (en) * 2006-09-29 2008-04-03 Lg Electronics Inc., Apparatus for processing mix signal and method thereof
EP2084901B1 (en) 2006-10-12 2015-12-09 LG Electronics Inc. Apparatus for processing a mix signal and method thereof
ES2399562T3 (es) * 2006-10-13 2013-04-02 Auro Technologies Método y codificador para combinar conjuntos de datos digitales, método para descodificar y descodificador para tales conjuntos de datos digitales combinados y soporte de grabación para almacenar tales conjuntos de datos digitales combinados
DE602006015328D1 (de) * 2006-11-03 2010-08-19 Psytechnics Ltd Abtastfehlerkompensation
US7616568B2 (en) * 2006-11-06 2009-11-10 Ixia Generic packet generation
KR101100221B1 (ko) * 2006-11-15 2011-12-28 엘지전자 주식회사 오디오 신호의 디코딩 방법 및 그 장치
JP5103880B2 (ja) * 2006-11-24 2012-12-19 富士通株式会社 復号化装置および復号化方法
CA2670864C (en) 2006-12-07 2015-09-29 Lg Electronics Inc. A method and an apparatus for processing an audio signal
US8265941B2 (en) 2006-12-07 2012-09-11 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
US7508326B2 (en) * 2006-12-21 2009-03-24 Sigmatel, Inc. Automatically disabling input/output signal processing based on the required multimedia format
US8255226B2 (en) * 2006-12-22 2012-08-28 Broadcom Corporation Efficient background audio encoding in a real time system
FR2911020B1 (fr) * 2006-12-28 2009-05-01 Actimagine Soc Par Actions Sim Procede et dispositif de codage audio
FR2911031B1 (fr) * 2006-12-28 2009-04-10 Actimagine Soc Par Actions Sim Procede et dispositif de codage audio
WO2008084427A2 (en) * 2007-01-10 2008-07-17 Koninklijke Philips Electronics N.V. Audio decoder
US8275611B2 (en) * 2007-01-18 2012-09-25 Stmicroelectronics Asia Pacific Pte., Ltd. Adaptive noise suppression for digital speech signals
US20100119073A1 (en) * 2007-02-13 2010-05-13 Lg Electronics, Inc. Method and an apparatus for processing an audio signal
US20100121470A1 (en) * 2007-02-13 2010-05-13 Lg Electronics Inc. Method and an apparatus for processing an audio signal
RU2394283C1 (ru) * 2007-02-14 2010-07-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства для кодирования и декодирования объектно-базированных аудиосигналов
TWI431610B (zh) * 2007-02-14 2014-03-21 Lg Electronics Inc 用以將以物件為主之音訊信號編碼與解碼之方法與裝置
US8184710B2 (en) 2007-02-21 2012-05-22 Microsoft Corporation Adaptive truncation of transform coefficient data in a transform-based digital media codec
US8259926B1 (en) 2007-02-23 2012-09-04 Audience, Inc. System and method for 2-channel and 3-channel acoustic echo cancellation
KR101149449B1 (ko) * 2007-03-20 2012-05-25 삼성전자주식회사 오디오 신호의 인코딩 방법 및 장치, 그리고 오디오 신호의디코딩 방법 및 장치
CN101272209B (zh) * 2007-03-21 2012-04-25 大唐移动通信设备有限公司 一种对多通道复用数据进行滤波的方法及设备
US9466307B1 (en) 2007-05-22 2016-10-11 Digimarc Corporation Robust spectral encoding and decoding methods
US8719012B2 (en) * 2007-06-15 2014-05-06 Orange Methods and apparatus for coding digital audio signals using a filtered quantizing noise
US7761290B2 (en) 2007-06-15 2010-07-20 Microsoft Corporation Flexible frequency and time partitioning in perceptual transform coding of audio
US8046214B2 (en) 2007-06-22 2011-10-25 Microsoft Corporation Low complexity decoder for complex transform coding of multi-channel sound
US7944847B2 (en) * 2007-06-25 2011-05-17 Efj, Inc. Voting comparator method, apparatus, and system using a limited number of digital signal processor modules to process a larger number of analog audio streams without affecting the quality of the voted audio stream
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
US8189766B1 (en) 2007-07-26 2012-05-29 Audience, Inc. System and method for blind subband acoustic echo cancellation postfiltering
US8285554B2 (en) * 2007-07-27 2012-10-09 Dsp Group Limited Method and system for dynamic aliasing suppression
KR101403340B1 (ko) * 2007-08-02 2014-06-09 삼성전자주식회사 변환 부호화 방법 및 장치
US8521540B2 (en) * 2007-08-17 2013-08-27 Qualcomm Incorporated Encoding and/or decoding digital signals using a permutation value
US8576096B2 (en) * 2007-10-11 2013-11-05 Motorola Mobility Llc Apparatus and method for low complexity combinatorial coding of signals
US8209190B2 (en) * 2007-10-25 2012-06-26 Motorola Mobility, Inc. Method and apparatus for generating an enhancement layer within an audio coding system
US8249883B2 (en) 2007-10-26 2012-08-21 Microsoft Corporation Channel extension coding for multi-channel source
US8199927B1 (en) 2007-10-31 2012-06-12 ClearOnce Communications, Inc. Conferencing system implementing echo cancellation and push-to-talk microphone detection using two-stage frequency filter
GB2454208A (en) * 2007-10-31 2009-05-06 Cambridge Silicon Radio Ltd Compression using a perceptual model and a signal-to-mask ratio (SMR) parameter tuned based on target bitrate and previously encoded data
WO2009072685A1 (en) * 2007-12-06 2009-06-11 Lg Electronics Inc. A method and an apparatus for processing an audio signal
CA2708861C (en) * 2007-12-18 2016-06-21 Lg Electronics Inc. A method and an apparatus for processing an audio signal
US8239210B2 (en) * 2007-12-19 2012-08-07 Dts, Inc. Lossless multi-channel audio codec
US20090164223A1 (en) * 2007-12-19 2009-06-25 Dts, Inc. Lossless multi-channel audio codec
US8143620B1 (en) 2007-12-21 2012-03-27 Audience, Inc. System and method for adaptive classification of audio sources
US8180064B1 (en) 2007-12-21 2012-05-15 Audience, Inc. System and method for providing voice equalization
US8359196B2 (en) * 2007-12-28 2013-01-22 Panasonic Corporation Stereo sound decoding apparatus, stereo sound encoding apparatus and lost-frame compensating method
WO2009096898A1 (en) * 2008-01-31 2009-08-06 Agency For Science, Technology And Research Method and device of bitrate distribution/truncation for scalable audio coding
KR101441898B1 (ko) * 2008-02-01 2014-09-23 삼성전자주식회사 주파수 부호화 방법 및 장치와 주파수 복호화 방법 및 장치
US20090210222A1 (en) * 2008-02-15 2009-08-20 Microsoft Corporation Multi-Channel Hole-Filling For Audio Compression
US8194882B2 (en) 2008-02-29 2012-06-05 Audience, Inc. System and method for providing single microphone noise suppression fallback
US20090234642A1 (en) * 2008-03-13 2009-09-17 Motorola, Inc. Method and Apparatus for Low Complexity Combinatorial Coding of Signals
US8355511B2 (en) 2008-03-18 2013-01-15 Audience, Inc. System and method for envelope-based acoustic echo cancellation
US8639519B2 (en) * 2008-04-09 2014-01-28 Motorola Mobility Llc Method and apparatus for selective signal coding based on core encoder performance
KR101599875B1 (ko) * 2008-04-17 2016-03-14 삼성전자주식회사 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 부호화 방법 및 장치, 멀티미디어의 컨텐트 특성에 기반한 멀티미디어 복호화 방법 및 장치
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
KR20090110242A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 신호를 처리하는 방법 및 장치
AU2009274456B2 (en) * 2008-04-18 2011-08-25 Dolby Laboratories Licensing Corporation Method and apparatus for maintaining speech audibility in multi-channel audio with minimal impact on surround experience
US8179974B2 (en) 2008-05-02 2012-05-15 Microsoft Corporation Multi-level representation of reordered transform coefficients
US8630848B2 (en) 2008-05-30 2014-01-14 Digital Rise Technology Co., Ltd. Audio signal transient detection
CN101605017A (zh) * 2008-06-12 2009-12-16 华为技术有限公司 编码比特的分配方法和装置
US8909361B2 (en) * 2008-06-19 2014-12-09 Broadcom Corporation Method and system for processing high quality audio in a hardware audio codec for audio transmission
ES2387867T3 (es) * 2008-06-26 2012-10-03 FRANCE TéLéCOM Síntesis espacial de señales de audio multicanal
US8774423B1 (en) 2008-06-30 2014-07-08 Audience, Inc. System and method for controlling adaptivity of signal modification using a phantom coefficient
US8521530B1 (en) 2008-06-30 2013-08-27 Audience, Inc. System and method for enhancing a monaural audio signal
US8380523B2 (en) * 2008-07-07 2013-02-19 Lg Electronics Inc. Method and an apparatus for processing an audio signal
JP5710476B2 (ja) * 2008-07-10 2015-04-30 ヴォイスエイジ・コーポレーション スーパーフレームにおいてlpcフィルタの量子化および逆量子化を行うためのデバイスおよび方法
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
TWI427619B (zh) * 2008-07-21 2014-02-21 Realtek Semiconductor Corp 音效混波裝置與方法
US8406307B2 (en) 2008-08-22 2013-03-26 Microsoft Corporation Entropy coding/decoding of hierarchically organized data
KR20130133917A (ko) * 2008-10-08 2013-12-09 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 다중 분해능 스위치드 오디오 부호화/복호화 방법
US8359205B2 (en) 2008-10-24 2013-01-22 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
US8121830B2 (en) * 2008-10-24 2012-02-21 The Nielsen Company (Us), Llc Methods and apparatus to extract data encoded in media content
US9667365B2 (en) 2008-10-24 2017-05-30 The Nielsen Company (Us), Llc Methods and apparatus to perform audio watermarking and watermark detection and extraction
GB0822537D0 (en) 2008-12-10 2009-01-14 Skype Ltd Regeneration of wideband speech
US9947340B2 (en) 2008-12-10 2018-04-17 Skype Regeneration of wideband speech
GB2466201B (en) * 2008-12-10 2012-07-11 Skype Ltd Regeneration of wideband speech
AT509439B1 (de) * 2008-12-19 2013-05-15 Siemens Entpr Communications Verfahren und mittel zur skalierbaren verbesserung der qualität eines signalcodierverfahrens
US8140342B2 (en) * 2008-12-29 2012-03-20 Motorola Mobility, Inc. Selective scaling mask computation based on peak detection
US8219408B2 (en) * 2008-12-29 2012-07-10 Motorola Mobility, Inc. Audio signal decoder and method for producing a scaled reconstructed audio signal
US8200496B2 (en) * 2008-12-29 2012-06-12 Motorola Mobility, Inc. Audio signal decoder and method for producing a scaled reconstructed audio signal
US8175888B2 (en) 2008-12-29 2012-05-08 Motorola Mobility, Inc. Enhanced layered gain factor balancing within a multiple-channel audio coding system
AU2010242814B2 (en) 2009-05-01 2014-07-31 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to provide secondary content in association with primary broadcast media content
US9159330B2 (en) 2009-08-20 2015-10-13 Gvbb Holdings S.A.R.L. Rate controller, rate control method, and rate control program
GB0915766D0 (en) * 2009-09-09 2009-10-07 Apt Licensing Ltd Apparatus and method for multidimensional adaptive audio coding
EP2323130A1 (en) * 2009-11-12 2011-05-18 Koninklijke Philips Electronics N.V. Parametric encoding and decoding
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
US8694947B1 (en) 2009-12-09 2014-04-08 The Mathworks, Inc. Resource sharing workflows within executable graphical models
US8861742B2 (en) * 2010-01-26 2014-10-14 Yamaha Corporation Masker sound generation apparatus and program
US8718290B2 (en) 2010-01-26 2014-05-06 Audience, Inc. Adaptive noise reduction using level cues
US9008329B1 (en) 2010-01-26 2015-04-14 Audience, Inc. Noise reduction using multi-feature cluster tracker
DE102010006573B4 (de) * 2010-02-02 2012-03-15 Rohde & Schwarz Gmbh & Co. Kg IQ-Datenkompression für Breitbandanwendungen
EP2365630B1 (en) * 2010-03-02 2016-06-08 Harman Becker Automotive Systems GmbH Efficient sub-band adaptive fir-filtering
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
US8428936B2 (en) * 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
US8374858B2 (en) * 2010-03-09 2013-02-12 Dts, Inc. Scalable lossless audio codec and authoring tool
CN102222505B (zh) * 2010-04-13 2012-12-19 中兴通讯股份有限公司 可分层音频编解码方法系统及瞬态信号可分层编解码方法
JP5850216B2 (ja) * 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
US9378754B1 (en) 2010-04-28 2016-06-28 Knowles Electronics, Llc Adaptive spatial classifier for multi-microphone systems
US8831933B2 (en) 2010-07-30 2014-09-09 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for multi-stage shape vector quantization
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
US9208792B2 (en) 2010-08-17 2015-12-08 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for noise injection
IL317702A (en) 2010-09-16 2025-02-01 Dolby Int Ab Method and system for harmonic, block, subchannel, and enhanced transposition by rhetorical multiplication
JP5681290B2 (ja) * 2010-09-28 2015-03-04 ホアウェイ・テクノロジーズ・カンパニー・リミテッド デコードされたマルチチャネルオーディオ信号またはデコードされたステレオ信号を後処理するためのデバイス
EP2450880A1 (en) 2010-11-05 2012-05-09 Thomson Licensing Data structure for Higher Order Ambisonics audio data
JP5609591B2 (ja) * 2010-11-30 2014-10-22 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法及びオーディオ符号化用コンピュータプログラム
US9436441B1 (en) 2010-12-08 2016-09-06 The Mathworks, Inc. Systems and methods for hardware resource sharing
EP2661705A4 (en) * 2011-01-05 2016-06-01 Google Inc METHOD AND SYSTEM FOR FACILITATING TEXT INPUT
MX2013009303A (es) 2011-02-14 2013-09-13 Fraunhofer Ges Forschung Codec de audio utilizando sintesis de ruido durante fases inactivas.
AR085362A1 (es) * 2011-02-14 2013-09-25 Fraunhofer Ges Forschung Aparato y metodo para procesar una señal de audio decodificada en un dominio espectral
ES2617958T3 (es) 2011-04-05 2017-06-20 Nippon Telegraph And Telephone Corporation Codificación de una señal acústica
EP3594943B1 (en) * 2011-04-20 2024-02-21 Panasonic Holdings Corporation Device and method for execution of huffman coding
GB2490879B (en) 2011-05-12 2018-12-26 Qualcomm Technologies Int Ltd Hybrid coded audio data streaming apparatus and method
TWI576829B (zh) 2011-05-13 2017-04-01 三星電子股份有限公司 位元配置裝置
JP2013015598A (ja) * 2011-06-30 2013-01-24 Zte Corp オーディオ符号化/復号化方法、システム及びノイズレベルの推定方法
US9355000B1 (en) 2011-08-23 2016-05-31 The Mathworks, Inc. Model level power consumption optimization in hardware description generation
US8774308B2 (en) * 2011-11-01 2014-07-08 At&T Intellectual Property I, L.P. Method and apparatus for improving transmission of data on a bandwidth mismatched channel
US8781023B2 (en) * 2011-11-01 2014-07-15 At&T Intellectual Property I, L.P. Method and apparatus for improving transmission of data on a bandwidth expanded channel
FR2984579B1 (fr) * 2011-12-14 2013-12-13 Inst Polytechnique Grenoble Procede de traitement numerique sur un ensemble de pistes audio avant mixage
ES2540215T3 (es) * 2012-04-05 2015-07-09 Huawei Technologies Co., Ltd. Método de estimación de diferencia inter-canal y dispositivo de codificación de audio espacial
JP5998603B2 (ja) * 2012-04-18 2016-09-28 ソニー株式会社 音検出装置、音検出方法、音特徴量検出装置、音特徴量検出方法、音区間検出装置、音区間検出方法およびプログラム
TWI505262B (zh) * 2012-05-15 2015-10-21 Dolby Int Ab 具多重子流之多通道音頻信號的有效編碼與解碼
CN119495308A (zh) * 2012-05-18 2025-02-21 杜比实验室特许公司 用于维持与参数音频编码器相关联的可逆动态范围控制信息的系统
GB201210373D0 (en) * 2012-06-12 2012-07-25 Meridian Audio Ltd Doubly compatible lossless audio sandwidth extension
CN102752058B (zh) * 2012-06-16 2013-10-16 天地融科技股份有限公司 音频数据传输系统、音频数据传输装置及电子签名工具
TWI586150B (zh) * 2012-06-29 2017-06-01 新力股份有限公司 影像處理裝置及非暫態電腦可讀儲存媒體
JP6065452B2 (ja) 2012-08-14 2017-01-25 富士通株式会社 データ埋め込み装置及び方法、データ抽出装置及び方法、並びにプログラム
US9129600B2 (en) 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
JP5447628B1 (ja) * 2012-09-28 2014-03-19 パナソニック株式会社 無線通信装置及び通信端末
PT2933799T (pt) 2012-12-13 2017-09-05 Panasonic Ip Corp America Dispositivo de codificação de áudio de voz, dispositivo de descodificação de áudio de voz, método de codificação de áudio de voz e método de descodificação de áudio de voz
CA3012134C (en) 2013-01-08 2019-10-15 Dolby International Ab Model based prediction in a critically sampled filterbank
JP6179122B2 (ja) * 2013-02-20 2017-08-16 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム
JP6250071B2 (ja) * 2013-02-21 2017-12-20 ドルビー・インターナショナル・アーベー パラメトリック・マルチチャネル・エンコードのための方法
US9093064B2 (en) 2013-03-11 2015-07-28 The Nielsen Company (Us), Llc Down-mixing compensation for audio watermarking
US9794715B2 (en) 2013-03-13 2017-10-17 Dts Llc System and methods for processing stereo audio content
JP6146069B2 (ja) * 2013-03-18 2017-06-14 富士通株式会社 データ埋め込み装置及び方法、データ抽出装置及び方法、並びにプログラム
WO2014161994A2 (en) 2013-04-05 2014-10-09 Dolby International Ab Advanced quantizer
EP2800401A1 (en) 2013-04-29 2014-11-05 Thomson Licensing Method and Apparatus for compressing and decompressing a Higher Order Ambisonics representation
US9763019B2 (en) 2013-05-29 2017-09-12 Qualcomm Incorporated Analysis of decomposed representations of a sound field
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
PL3660843T3 (pl) * 2013-09-13 2023-01-16 Samsung Electronics Co., Ltd. Sposób kodowania bezstratnego
UA117258C2 (uk) * 2013-10-21 2018-07-10 Долбі Інтернешнл Аб Структура декорелятора для параметричного відновлення звукових сигналів
CN105900455B (zh) * 2013-10-22 2018-04-06 延世大学工业学术合作社 用于处理音频信号的方法和设备
US9817931B1 (en) 2013-12-05 2017-11-14 The Mathworks, Inc. Systems and methods for generating optimized hardware descriptions for models
US10078717B1 (en) 2013-12-05 2018-09-18 The Mathworks, Inc. Systems and methods for estimating performance characteristics of hardware implementations of executable models
BR112016014476B1 (pt) 2013-12-27 2021-11-23 Sony Corporation Aparelho e método de decodificação, e, meio de armazenamento legível por computador
US10986454B2 (en) 2014-01-06 2021-04-20 Alpine Electronics of Silicon Valley, Inc. Sound normalization and frequency remapping using haptic feedback
US8977376B1 (en) 2014-01-06 2015-03-10 Alpine Electronics of Silicon Valley, Inc. Reproducing audio signals with a haptic apparatus on acoustic headphones and their calibration and measurement
US8767996B1 (en) 2014-01-06 2014-07-01 Alpine Electronics of Silicon Valley, Inc. Methods and devices for reproducing audio signals with a haptic apparatus on acoustic headphones
ES2880779T3 (es) * 2014-02-27 2021-11-25 Ericsson Telefon Ab L M Método y aparato para la indexación y desindexación de cuantificación vectorial piramidal de vectores de muestra de audio/video
US9564136B2 (en) * 2014-03-06 2017-02-07 Dts, Inc. Post-encoding bitrate reduction of multiple object audio
TWI718979B (zh) 2014-03-24 2021-02-11 瑞典商杜比國際公司 應用動態範圍壓縮至高階保真立體音響信號之方法和裝置
US9685164B2 (en) * 2014-03-31 2017-06-20 Qualcomm Incorporated Systems and methods of switching coding technologies at a device
FR3020732A1 (fr) * 2014-04-30 2015-11-06 Orange Correction de perte de trame perfectionnee avec information de voisement
US9997171B2 (en) * 2014-05-01 2018-06-12 Gn Hearing A/S Multi-band signal processor for digital audio signals
KR102503347B1 (ko) * 2014-06-10 2023-02-23 엠큐에이 리미티드 오디오 신호의 디지털 캡슐화
JP6432180B2 (ja) * 2014-06-26 2018-12-05 ソニー株式会社 復号装置および方法、並びにプログラム
KR102655047B1 (ko) * 2014-06-27 2024-04-08 돌비 인터네셔널 에이비 Hoa 데이터 프레임 표현의 압축을 위해 비차분 이득 값들을 표현하는 데 필요하게 되는 비트들의 최저 정수 개수를 결정하는 방법
EP2960903A1 (en) 2014-06-27 2015-12-30 Thomson Licensing Method and apparatus for determining for the compression of an HOA data frame representation a lowest integer number of bits required for representing non-differential gain values
EP2980794A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
EP2988300A1 (en) * 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices
WO2016035731A1 (ja) * 2014-09-04 2016-03-10 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2016040885A1 (en) 2014-09-12 2016-03-17 Audience, Inc. Systems and methods for restoration of speech components
WO2016050740A1 (en) 2014-10-01 2016-04-07 Dolby International Ab Efficient drc profile transmission
CN105632503B (zh) * 2014-10-28 2019-09-03 南宁富桂精密工业有限公司 信息隐藏方法及系统
US9659578B2 (en) * 2014-11-27 2017-05-23 Tata Consultancy Services Ltd. Computer implemented system and method for identifying significant speech frames within speech signals
CN107430862B (zh) * 2015-02-27 2022-10-04 奥罗技术公司 数字数据集合的编码和解码
EP3067885A1 (en) * 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding a multi-channel signal
EP3067887A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
CN106161313A (zh) * 2015-03-30 2016-11-23 索尼公司 无线通信系统中的电子设备、无线通信系统和方法
TWI607655B (zh) * 2015-06-19 2017-12-01 Sony Corp Coding apparatus and method, decoding apparatus and method, and program
US10043527B1 (en) * 2015-07-17 2018-08-07 Digimarc Corporation Human auditory system modeling with masking energy adaptation
CA2999271A1 (en) 2015-08-25 2017-03-02 Dolby Laboratories Licensing Corporation Audio decoder and decoding method
CN109074813B (zh) * 2015-09-25 2020-04-03 杜比实验室特许公司 处理高清晰度音频数据
US10423733B1 (en) 2015-12-03 2019-09-24 The Mathworks, Inc. Systems and methods for sharing resources having different data types
JP6467561B1 (ja) 2016-01-26 2019-02-13 ドルビー ラボラトリーズ ライセンシング コーポレイション 適応的な量子化
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
US20170330575A1 (en) * 2016-05-10 2017-11-16 Immersion Services LLC Adaptive audio codec system, method and article
US10699725B2 (en) * 2016-05-10 2020-06-30 Immersion Networks, Inc. Adaptive audio encoder system, method and article
US10770088B2 (en) * 2016-05-10 2020-09-08 Immersion Networks, Inc. Adaptive audio decoder system, method and article
US10756755B2 (en) * 2016-05-10 2020-08-25 Immersion Networks, Inc. Adaptive audio codec system, method and article
JP6763194B2 (ja) * 2016-05-10 2020-09-30 株式会社Jvcケンウッド 符号化装置、復号装置、通信システム
EP3455854B1 (en) * 2016-05-10 2020-09-16 Immersion Services LLC Adaptive audio codec method and apparatus
CN105869648B (zh) * 2016-05-19 2019-11-22 日立楼宇技术(广州)有限公司 混音方法及装置
KR102483042B1 (ko) 2016-06-17 2022-12-29 디티에스, 인코포레이티드 근거리/원거리 렌더링을 사용한 거리 패닝
US10375498B2 (en) 2016-11-16 2019-08-06 Dts, Inc. Graphical user interface for calibrating a surround sound system
KR102201308B1 (ko) * 2016-11-23 2021-01-11 텔레호낙티에볼라게트 엘엠 에릭슨(피유비엘) 상관해제 필터들의 적응적 제어를 위한 방법 및 장치
JP2018092012A (ja) * 2016-12-05 2018-06-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10362269B2 (en) * 2017-01-11 2019-07-23 Ringcentral, Inc. Systems and methods for determining one or more active speakers during an audio or video conference session
US10339947B2 (en) * 2017-03-22 2019-07-02 Immersion Networks, Inc. System and method for processing audio data
US10699721B2 (en) 2017-04-25 2020-06-30 Dts, Inc. Encoding and decoding of digital audio signals using difference data
CN109427338B (zh) 2017-08-23 2021-03-30 华为技术有限公司 立体声信号的编码方法和编码装置
US11227615B2 (en) * 2017-09-08 2022-01-18 Sony Corporation Sound processing apparatus and sound processing method
US10609503B2 (en) 2018-04-08 2020-03-31 Dts, Inc. Ambisonic depth extraction
WO2019199995A1 (en) * 2018-04-11 2019-10-17 Dolby Laboratories Licensing Corporation Perceptually-based loss functions for audio encoding and decoding based on machine learning
CN109243471B (zh) * 2018-09-26 2022-09-23 杭州联汇科技股份有限公司 一种快速编码广播用数字音频的方法
EP4220639B1 (en) 2018-10-26 2025-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Directional loudness map based audio processing
US10763885B2 (en) * 2018-11-06 2020-09-01 Stmicroelectronics S.R.L. Method of error concealment, and associated device
CN111341303B (zh) * 2018-12-19 2023-10-31 北京猎户星空科技有限公司 一种声学模型的训练方法及装置、语音识别方法及装置
CN109831280A (zh) * 2019-02-28 2019-05-31 深圳市友杰智新科技有限公司 一种声波通讯方法、装置及可读存储介质
EP3719799A1 (en) 2019-04-04 2020-10-07 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. A multi-channel audio encoder, decoder, methods and computer program for switching between a parametric multi-channel operation and an individual channel operation
KR102687153B1 (ko) * 2019-04-22 2024-07-24 주식회사 쏠리드 통신 신호를 처리하는 방법 및 이를 이용하는 통신 노드
US11361772B2 (en) 2019-05-14 2022-06-14 Microsoft Technology Licensing, Llc Adaptive and fixed mapping for compression and decompression of audio data
US10681463B1 (en) * 2019-05-17 2020-06-09 Sonos, Inc. Wireless transmission to satellites for multichannel audio system
CN110366752B (zh) * 2019-05-21 2023-10-10 深圳市汇顶科技股份有限公司 一种语音分频传输方法、源端、播放端、源端电路和播放端电路
CN113950845B (zh) 2019-05-31 2023-08-04 Dts公司 凹式音频渲染
CN110365342B (zh) * 2019-06-06 2023-05-12 中车青岛四方机车车辆股份有限公司 波形解码方法及装置
EP3751567B1 (en) * 2019-06-10 2022-01-26 Axis AB A method, a computer program, an encoder and a monitoring device
KR20220054645A (ko) 2019-09-03 2022-05-03 돌비 레버러토리즈 라이쎈싱 코오포레이션 저지연, 저주파 효과 코덱
US11380343B2 (en) 2019-09-12 2022-07-05 Immersion Networks, Inc. Systems and methods for processing high frequency audio signal
GB2587196A (en) 2019-09-13 2021-03-24 Nokia Technologies Oy Determination of spatial audio parameter encoding and associated decoding
CN112530444B (zh) * 2019-09-18 2023-10-03 华为技术有限公司 音频编码方法和装置
US20210224024A1 (en) * 2020-01-21 2021-07-22 Audiowise Technology Inc. Bluetooth audio system with low latency, and audio source and audio sink thereof
WO2021183916A1 (en) * 2020-03-13 2021-09-16 Immersion Networks, Inc. Loudness equalization system
CN111261194A (zh) * 2020-04-29 2020-06-09 浙江百应科技有限公司 一种基于pcm技术的音量分析方法
CN112037802B (zh) * 2020-05-08 2022-04-01 珠海市杰理科技股份有限公司 基于语音端点检测的音频编码方法及装置、设备、介质
CN111583942B (zh) * 2020-05-26 2023-06-13 腾讯科技(深圳)有限公司 语音会话的编码码率控制方法、装置和计算机设备
TWI908813B (zh) * 2020-06-11 2025-12-21 美商杜拜研究特許公司 針對低延遲音訊編解碼器之參數之量化及熵編碼
CN114093373B (zh) * 2020-07-30 2025-03-14 腾讯科技(深圳)有限公司 音频数据传输方法、装置、电子设备及存储介质
TWI882003B (zh) * 2020-09-03 2025-05-01 美商杜拜研究特許公司 低延遲、低頻率效應之編碼解碼器
CN112187397B (zh) * 2020-09-11 2022-04-29 烽火通信科技股份有限公司 一种通用的多通道数据同步方法和装置
CN112885364B (zh) * 2021-01-21 2023-10-13 维沃移动通信有限公司 音频编码方法和解码方法、音频编码装置和解码装置
DE102021205251B4 (de) * 2021-05-21 2024-08-08 Sivantos Pte. Ltd. Verfahren und Vorrichtung zur frequenzselektiven Verarbeitung eines Audiosignals mit geringer Latenz
CN113485190B (zh) * 2021-07-13 2022-11-11 西安电子科技大学 一种多通道数据采集系统及采集方法
EP4416723B1 (en) * 2021-10-14 2025-11-19 Qualcomm Incorporated Systems and methods for multi-band audio coding
US20230154474A1 (en) * 2021-11-17 2023-05-18 Agora Lab, Inc. System and method for providing high quality audio communication over low bit rate connection
CN114299971B (zh) * 2021-12-30 2025-01-03 合肥讯飞数码科技有限公司 一种语音编码方法、语音解码方法和语音处理装置
US12374341B2 (en) * 2022-04-18 2025-07-29 Apple Inc. Channel-aligned audio coding
CN115103286B (zh) * 2022-04-29 2024-09-27 北京瑞森新谱科技股份有限公司 一种asio低延时声学采集方法
US20230397138A1 (en) * 2022-06-02 2023-12-07 Qualcomm Incorporated Sync raster configuration for cell search
WO2024012666A1 (en) * 2022-07-12 2024-01-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding or decoding ar/vr metadata with generic codebooks
CN115589498B (zh) * 2022-09-05 2025-11-04 安徽文香科技股份有限公司 一种音视频处理同步方法、装置、电子设备和存储介质
CN115171709B (zh) * 2022-09-05 2022-11-18 腾讯科技(深圳)有限公司 语音编码、解码方法、装置、计算机设备和存储介质
CN116032901B (zh) * 2022-12-30 2024-07-26 北京天兵科技有限公司 多路音频数据信号采编方法、装置、系统、介质和设备
US11935550B1 (en) * 2023-03-31 2024-03-19 The Adt Security Corporation Audio compression for low overhead decompression
CN118447870B (zh) * 2023-12-28 2025-05-02 荣耀终端股份有限公司 音频处理方法和电子设备
WO2026008628A1 (en) 2024-07-01 2026-01-08 P&X Medical Nv Use of immersive sound devices to prevent or treat cns related diseases
CN119380721B (zh) * 2024-11-20 2026-01-09 深圳市聚云物联有限公司 一种基于公网的全球对讲翻译系统和对讲翻译终端

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3171990D1 (en) * 1981-04-30 1985-10-03 Ibm Speech coding methods and apparatus for carrying out the method
JPS5921039B2 (ja) * 1981-11-04 1984-05-17 日本電信電話株式会社 適応予測符号化方式
US4455649A (en) * 1982-01-15 1984-06-19 International Business Machines Corporation Method and apparatus for efficient statistical multiplexing of voice and data signals
US4547816A (en) 1982-05-03 1985-10-15 Robert Bosch Gmbh Method of recording digital audio and video signals in the same track
US4535472A (en) * 1982-11-05 1985-08-13 At&T Bell Laboratories Adaptive bit allocator
US4757536A (en) * 1984-10-17 1988-07-12 General Electric Company Method and apparatus for transceiving cryptographically encoded digital data
US4817146A (en) * 1984-10-17 1989-03-28 General Electric Company Cryptographic digital signal transceiver method and apparatus
US5051991A (en) * 1984-10-17 1991-09-24 Ericsson Ge Mobile Communications Inc. Method and apparatus for efficient digital time delay compensation in compressed bandwidth signal processing
US4622680A (en) * 1984-10-17 1986-11-11 General Electric Company Hybrid subband coder/decoder method and apparatus
US4675863A (en) * 1985-03-20 1987-06-23 International Mobile Machines Corp. Subscriber RF telephone system for providing multiple speech and/or data signals simultaneously over either a single or a plurality of RF channels
JPS62154368A (ja) 1985-12-27 1987-07-09 Canon Inc 記録装置
US4815074A (en) * 1986-08-01 1989-03-21 General Datacomm, Inc. High speed bit interleaved time division multiplexer for multinode communication systems
US4899384A (en) * 1986-08-25 1990-02-06 Ibm Corporation Table controlled dynamic bit allocation in a variable rate sub-band speech coder
DE3639753A1 (de) * 1986-11-21 1988-06-01 Inst Rundfunktechnik Gmbh Verfahren zum uebertragen digitalisierter tonsignale
NL8700985A (nl) * 1987-04-27 1988-11-16 Philips Nv Systeem voor sub-band codering van een digitaal audiosignaal.
JPH0783315B2 (ja) * 1988-09-26 1995-09-06 富士通株式会社 可変レート音声信号符号化方式
US4881224A (en) 1988-10-19 1989-11-14 General Datacomm, Inc. Framing algorithm for bit interleaved time division multiplexer
US5341457A (en) * 1988-12-30 1994-08-23 At&T Bell Laboratories Perceptual coding of audio signals
DE69017977T2 (de) 1989-07-29 1995-08-03 Sony Corp 4-Kanal-PCM-Signalverarbeitungsgerät.
US5115240A (en) * 1989-09-26 1992-05-19 Sony Corporation Method and apparatus for encoding voice signals divided into a plurality of frequency bands
US5235623A (en) * 1989-11-14 1993-08-10 Nec Corporation Adaptive transform coding by selecting optimum block lengths according to variatons between successive blocks
CN1062963C (zh) * 1990-04-12 2001-03-07 多尔拜实验特许公司 用于产生高质量声音信号的解码器和编码器
US5388181A (en) * 1990-05-29 1995-02-07 Anderson; David J. Digital audio compression system
JP2841765B2 (ja) * 1990-07-13 1998-12-24 日本電気株式会社 適応ビット割当て方法及び装置
JPH04127747A (ja) * 1990-09-19 1992-04-28 Toshiba Corp 可変レート符号化方式
US5365553A (en) * 1990-11-30 1994-11-15 U.S. Philips Corporation Transmitter, encoding system and method employing use of a bit need determiner for subband coding a digital signal
US5136377A (en) * 1990-12-11 1992-08-04 At&T Bell Laboratories Adaptive non-linear quantizer
US5123015A (en) * 1990-12-20 1992-06-16 Hughes Aircraft Company Daisy chain multiplexer
CA2077662C (en) * 1991-01-08 2001-04-17 Mark Franklin Davis Encoder/decoder for multidimensional sound fields
NL9100285A (nl) * 1991-02-19 1992-09-16 Koninkl Philips Electronics Nv Transmissiesysteem, en ontvanger te gebruiken in het transmissiesysteem.
ZA921988B (en) * 1991-03-29 1993-02-24 Sony Corp High efficiency digital data encoding and decoding apparatus
EP0506394A2 (en) * 1991-03-29 1992-09-30 Sony Corporation Coding apparatus for digital signals
JP3134338B2 (ja) * 1991-03-30 2001-02-13 ソニー株式会社 ディジタル音声信号符号化方法
DE69232202T2 (de) * 1991-06-11 2002-07-25 Qualcomm, Inc. Vocoder mit veraendlicher bitrate
JP3508138B2 (ja) 1991-06-25 2004-03-22 ソニー株式会社 信号処理装置
GB2257606B (en) * 1991-06-28 1995-01-18 Sony Corp Recording and/or reproducing apparatuses and signal processing methods for compressed data
EP0805564A3 (en) * 1991-08-02 1999-10-13 Sony Corporation Digital encoder with dynamic quantization bit allocation
KR100263599B1 (ko) * 1991-09-02 2000-08-01 요트.게.아. 롤페즈 인코딩 시스템
JP3226945B2 (ja) * 1991-10-02 2001-11-12 キヤノン株式会社 マルチメディア通信装置
FR2685593B1 (fr) * 1991-12-20 1994-02-11 France Telecom Dispositif de demultiplexage en frequence a filtres numeriques.
US5642437A (en) * 1992-02-22 1997-06-24 Texas Instruments Incorporated System decoder circuit with temporary bit storage and method of operation
EP0559348A3 (en) * 1992-03-02 1993-11-03 AT&T Corp. Rate control loop processor for perceptual encoder/decoder
CA2090052C (en) * 1992-03-02 1998-11-24 Anibal Joao De Sousa Ferreira Method and apparatus for the perceptual coding of audio signals
US5285498A (en) * 1992-03-02 1994-02-08 At&T Bell Laboratories Method and apparatus for coding audio signals based on perceptual model
DE4209544A1 (de) * 1992-03-24 1993-09-30 Inst Rundfunktechnik Gmbh Verfahren zum Übertragen oder Speichern digitalisierter, mehrkanaliger Tonsignale
JP2693893B2 (ja) * 1992-03-30 1997-12-24 松下電器産業株式会社 ステレオ音声符号化方法
US5734789A (en) * 1992-06-01 1998-03-31 Hughes Electronics Voiced, unvoiced or noise modes in a CELP vocoder
TW235392B (pl) * 1992-06-02 1994-12-01 Philips Electronics Nv
US5436940A (en) * 1992-06-11 1995-07-25 Massachusetts Institute Of Technology Quadrature mirror filter banks and method
JP2976701B2 (ja) * 1992-06-24 1999-11-10 日本電気株式会社 量子化ビット数割当方法
US5408580A (en) * 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
US5396489A (en) * 1992-10-26 1995-03-07 Motorola Inc. Method and means for transmultiplexing signals between signal terminals and radio frequency channels
US5381145A (en) * 1993-02-10 1995-01-10 Ricoh Corporation Method and apparatus for parallel decoding and encoding of data
US5657423A (en) * 1993-02-22 1997-08-12 Texas Instruments Incorporated Hardware filter circuit and address circuitry for MPEG encoded data
TW272341B (pl) * 1993-07-16 1996-03-11 Sony Co Ltd
US5451954A (en) * 1993-08-04 1995-09-19 Dolby Laboratories Licensing Corporation Quantization noise suppression for encoder/decoder system
US5488665A (en) * 1993-11-23 1996-01-30 At&T Corp. Multi-channel perceptual audio compression system with encoding mode switching among matrixed channels
JPH07202820A (ja) * 1993-12-28 1995-08-04 Matsushita Electric Ind Co Ltd ビットレート制御システム
US5608713A (en) * 1994-02-09 1997-03-04 Sony Corporation Bit allocation of digital audio signal blocks by non-linear processing
JP2778482B2 (ja) * 1994-09-26 1998-07-23 日本電気株式会社 帯域分割符号化装置
US5748903A (en) * 1995-07-21 1998-05-05 Intel Corporation Encoding images using decode rate control
ES2201929B1 (es) * 2002-09-12 2005-05-16 Araclon Biotech, S.L. Anticuerpos policlonales, metodo de preparacion y uso de los mismos.

Also Published As

Publication number Publication date
ATE279770T1 (de) 2004-10-15
HK1015510A1 (en) 1999-10-15
DE69633633T2 (de) 2005-10-27
MX9804320A (es) 1998-11-30
CN1208489A (zh) 1999-02-17
HK1092270A1 (en) 2007-02-02
PL327082A1 (en) 1998-11-23
CA2331611C (en) 2001-09-11
US5978762A (en) 1999-11-02
AU1058997A (en) 1997-06-27
KR100277819B1 (ko) 2001-01-15
DK0864146T3 (da) 2005-02-14
CN101872618A (zh) 2010-10-27
AU705194B2 (en) 1999-05-20
US6487535B1 (en) 2002-11-26
CN1848241A (zh) 2006-10-18
EP0864146A1 (en) 1998-09-16
KR19990071708A (ko) 1999-09-27
CN1848241B (zh) 2010-12-15
HK1092271A1 (en) 2007-02-02
CN1495705A (zh) 2004-05-12
CN1303583C (zh) 2007-03-07
HK1149979A1 (en) 2011-10-21
CA2331611A1 (en) 1997-06-12
ES2232842T3 (es) 2005-06-01
EP0864146B1 (en) 2004-10-13
EP0864146A4 (en) 2001-09-19
BR9611852A (pt) 2000-05-16
PT864146E (pt) 2005-02-28
CA2238026A1 (en) 1997-06-12
PL183498B1 (pl) 2002-06-28
CA2238026C (en) 2002-07-09
CN1132151C (zh) 2003-12-24
CN1848242A (zh) 2006-10-18
US5974380A (en) 1999-10-26
EA001087B1 (ru) 2000-10-30
PL182240B1 (pl) 2001-11-30
WO1997021211A1 (en) 1997-06-12
JP2000501846A (ja) 2000-02-15
DE69633633D1 (de) 2004-11-18
CN1848242B (zh) 2012-04-18
JP4174072B2 (ja) 2008-10-29
US5956674A (en) 1999-09-21
CN101872618B (zh) 2012-08-22
EA199800505A1 (ru) 1998-12-24

Similar Documents

Publication Publication Date Title
PL183092B1 (pl) Produkt akustyczny wielokanałowy
JP3093179B2 (ja) 高品質オーディオ用短時間遅延変換エンコーダ及びデコーダ
JP3178026B2 (ja) ディジタル信号符号化装置及び復号化装置
KR970007661B1 (ko) 스테레오포닉 오디오 신호의 입력세트 코딩방법
US5664056A (en) Digital encoder with dynamic quantization bit allocation
JP3508146B2 (ja) ディジタル信号符号化復号化装置、ディジタル信号符号化装置及びディジタル信号復号化装置
KR100397690B1 (ko) 데이터부호화장치및그방법
JP2821713B2 (ja) 高品質オーディオ用低ビット伝送速度変換コーダ、デコーダ、及びエンコーダ・デコーダ
JP3153933B2 (ja) データ符号化装置及び方法並びにデータ復号化装置及び方法
US5581654A (en) Method and apparatus for information encoding and decoding
EP0961414A2 (en) Method and apparatus for encoding, decoding and compression of audio-type data
WO1995034956A1 (en) Method and device for encoding signal, method and device for decoding signal, recording medium, and signal transmitting device
Musmann Genesis of the MP3 audio coding standard
EP1228506B1 (en) Method of encoding an audio signal using a quality value for bit allocation
JPH08123488A (ja) 高能率符号化方法、高能率符号記録方法、高能率符号伝送方法、高能率符号化装置及び高能率符号復号化方法
JP3093178B2 (ja) 高品質オーディオ用低ビットレート変換エンコーダ及びデコーダ
Bosi MPEG audio compression basics
Absar et al. AC-3 Encoder Implementation on the D950 DSP-Core
HK1092270B (en) Multi-channel audio encoder