PL177313B1 - Urządzenie przetwarzające poddane kompresji sygnały akustyczne i wizyjne w odbiorniku - Google Patents

Urządzenie przetwarzające poddane kompresji sygnały akustyczne i wizyjne w odbiorniku

Info

Publication number
PL177313B1
PL177313B1 PL95308615A PL30861595A PL177313B1 PL 177313 B1 PL177313 B1 PL 177313B1 PL 95308615 A PL95308615 A PL 95308615A PL 30861595 A PL30861595 A PL 30861595A PL 177313 B1 PL177313 B1 PL 177313B1
Authority
PL
Poland
Prior art keywords
audio
video
signal
pts
decompressor
Prior art date
Application number
PL95308615A
Other languages
English (en)
Other versions
PL308615A1 (en
Inventor
Douglas E. Lankford
Original Assignee
Thomson Consumer Electronics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Consumer Electronics filed Critical Thomson Consumer Electronics
Publication of PL308615A1 publication Critical patent/PL308615A1/xx
Publication of PL177313B1 publication Critical patent/PL177313B1/pl

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4396Processing of audio elementary streams by muting the audio signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • H04N7/54Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
    • H04N7/56Synchronising systems therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

1. Urzadzenie przetwarzajace poddane kompresji sygnaly akustyczne i wizyjne, zawierajace modem majacy wejscie poddanego kompresji sygnalu aku- stycznego i wizyjnego, dolaczony przez inwersyjny procesor transportowy do bufora szybkosci dolaczonego do dekompresora sygnalów akustycznych i do dekompresora sygnalów wizyjnych, znamienne tym, ze zawiera uklady odejmujace (217, 218, 219) dolaczone do wyjsc dekompresorów (212, 214) sy- gnalów akustycznych i wizyjnych, przy czym dekom- presor (212) sygnalów akustycznych jest dolaczony poprzez przerzutnik zatrzaskowy (220) do inwersyjne- go procesora transportowego (202) i dekompresor (214) sygnalów wizyjnych jest dolaczony poprzez prze- rzutnik zatrzaskowy (222) do inwersyjnego procesora transportowego, a do ukladów odejmujacych (217, 218, 219) jest dolaczony detektor progowy (225) dolaczony do tranzystora (229) blokujacego zaklócenia. F IG . 2 PL PL PL PL PL PL

Description

Przedmiotem wynalazku jest urządzenie przetwarzające poddane kompresji sygnały akustyczne i wizyjne w odbiorniku.
Znane jest zastosowanie protokołu MPEG dla sygnału wizyjnego poddanego kompresji, który to protokół jest określony przez Moving Pictures EKperts Group z International
177 313
Standardization Organization. Ten protokół określa standard sygnału uniwersalnego, który obejmuje zarówno kodowanie wewnątrzramkowe jak i prognozowane kodowanie kompensowane ruchem. Ze względu na zmiany formatu kodowania dla różnych ramek i zmiany zawartości obrazu, różne ramki mają bardzo rozbieżne ilości danych poddanych kompresji. W wyniku różnych ramek przy kompresji z różnymi ilościami danych występuje tendencja do transmitowania ramek danych w sposób asynchroniczny.
Znane jest, że sygnały akustyczne poddaje się także kompresji zgodnie z protokołem MPEG. Sygnał akustyczny poddany kompresji może być związany z sygnałem wizyjnym, lecz transmitowany niezależnie. Dla celów transmisji sygnał akustyczny poddany kompresji jest segmentowany na pakiety, które są następnie multipleksowane z podziałem czasu wraz zpoddanym kompresji sygnałem wizyjnym w sposób asynchroniczny.
Związane ze sobą, poddane kompresji składowe akustyczne i wizyjne są nie tylko niezależne asynchronicznie, lecz ich wzajemny związek czasowy, czyli synchronizm, nie występuje przy transmisji. Poddane kompresji składowe sygnały akustyczne i wizyjne protokołu MPEG mogą zawierać znaczniki czasowe PTS prezentacji do ustalania odniesienia pomiędzy poszczególnymi segmentami sygnału poddanego kompresji i sygnałem zegarowym odniesienia. Akustyczne i wizyjne znaczniki czasowe PTS są wykorzystywane przez urządzenie odbiorcze zarówno do ponownej synchronizacji składowych poddanych dekompresji j'ak i przywrócenia ich wzajemnych związków czasowych.
Szczególnie dokuczliwą cechą odtwarzanych sygnałów akustycznych i wizyjnych jest utrata synchronizacji dźwięku z obrazem, obserwowana na podstawie ruchów ust, czyli pomiędzy ruchami ust i wypowiadanymi słowami.
Znany jest z opisu patentowego Stanów Zjednoczonych Ameryki nr 5 381 186 sposób blokowania zakłóceń, w którym porównuje się sygnał synchronizacji ramki odbieranego sygnału akustycznego ze standardowym sygnałem synchronizacji ramki, wykrywa się liczbę nierównych bitów synchronizacji na ramkę porównywanych sygnałów synchronizacji, wykrywa się liczbę nierównych bitów w następnej ramce zgodnie z wykrywaną liczbą nierównych bitów i blokuje się zakłócenia zgodnie z wykrywaną, liczbą nierównych bitów.
Znany jest z tego samego opisu patentowego układ blokowania zakłóceń, stosowany w dekoderze sygnałów wizyjnych, zawierający komparator sygnałów synchronizacji do porównywania akustycznego sygnału synchronizacji ramki, zawierającego bity danych w odbieranym sygnale, ze standardowym sygnałem synchronizacji ramki, zawierającym określoną liczbę bitów synchronizacji na ramkę i wytwarzającym w odpowiedzi sygnał porównania, detektor liczby nierównych bitów, który odbiera sygnał porównania do wykrywania liczby bitów synchronizacji na ramkę w akustycznym sygnale synchronizacji ramki odbieranego sygnału i standardowym sygnale synchronizacji ramki, które nie są dopasowane oraz sterownik blokowania zakłóceń do sterowania blokowaniem zakłóceń w odpowiedzi na liczbę bitów synchronizacji na ramkę, które nie są dopasowane. Znany układ blokowania zakłóceń dekodera usuwa zakłócenia wytwarzane przy zmianie kanałów w odbiorniku radiofonicznym wielokanałowym i eliminuje całkowicie nadmierne błędy w odbieranym sygnale i zakłócenia wytwarzane przy zmianie kanałów.
Urządzenie według wynalazku zawiera układy odejmujące dołączone do wyjść dekompresorów sygnałów akustycznych i wizyjnych, przy czym dekompresor sygnałów akustycznych jest dołączony poprzez przerzutnik zatrzaskowy do inwersyjnego procesora transportowego i dekompresor sygnałów wizyjnych jest dołączony poprzez przerzutnik zatrzaskowy do inwersyjnego procesora transportowego, a do układów odejmujących jest dołączony detektor progowy dołączony do tranzystora blokującego zakłócenia.
Korzystnie detektor progowy ma wyjście sygnału sterującego o pierwszym i drugim stanie, dołączone do tranzystora blokującego zakłócenia, dla przepuszczania poddanego dekompresji sygnału akustycznego w drugim stanie i dostarczania wartości zastępczej w pierwszym stanie.
Korzystnie do tranzystora blokującego zakłócenia jest dołączony przetwornik cyfrowo-analogowy.
17*7313
Korzystnie do tranzystora blokującego zakłócenia jest dołączony element I dołączony do dekompresora sygnałów akustycznych i mający wejście zezwolenia dołączone do detektora progowego.
Korzystnie pomiędzy dekompresory sygnałów akustycznych i wizyjnych i inwersyjny procesor transportowy jest włączony zegar, a do układu odejmującego i do detektora progowego jest dołączony filtr i układ przetwarzający, do którego wyjścia jest dołączony układ podstawy czasu sygnału akustycznego, dla dostarczania sygnału błędu synchronizacji.
Korzystnie do tranzystora blokującego zakłócenia jest dołączony następny detektor progowy, a pomiędzy nimi jest włączony element LUB do łączenia sygnałów sterujących z detektora progowego i następnego detektora progowego, dla synchronizacji dźwięku z obrazem na podstawie ruchów ust.
Korzystnie zegar zawiera sterowany napięciowo generator miejscowego sygnału zegarowego, do którego wejścia jest dołączony licznik, a do wyjścia jest dołączony sterownik zegarowy, którego wejście jest dołączone do sterowanego napięciowo generatora, dla określania czasu pomiędzy wystąpieniem znaczników czasowych i sygnałów akustycznych i wizyjnych, a układy odejmujące są dołączone do zegara oraz filtru i układu przetwarzającego, dla obliczania różnicy znaczników czasowych i wytwarzania sygnału sterującego synchronizacją oraz detektor progowy jest przystosowany do wytwarzania sygnału błędu, gdy sygnał sterujący synchronizacją przekracza określoną wartość.
Zaletą wynalazku jest zapewnienie urządzenia przetwarzającego w odbiorniku, które zapewnia powrót synchronizacji pomiędzy dźwiękiem i fonią w przypadku błędów synchronizacji wywołanych zakłóceniami sygnałów akustycznych i wizyjnych.
Przedmiot wynalazku jest uwidoczniony w przykładach wykonania na rysunku, na którym fig. 1 przedstawia schemat blokowy urządzenia nadawczego do kompresji sygnałów akustycznych i wizyjnych, fig. 2 - schemat blokowy urządzenia odbiorczego do dekompresji sygnałów akustycznych i wizyjnych według wynalazku, fig. 3 - schemat blokowy układu do dostarczania sygnału zegarowego urządzenia odbiorczego, mającego taką samą częstotliwość jak sygnał zegarowy urządzenia nadawczego, fig 4. - sieć działań urządzenia z fig. 2 i fig. 5 schemat blokowy układu blokującego zakłócenia, stosowanego w urządzeniu z fig. 2.
Figura 1 przedstawia typowe urządzenie do nadawania poddawanych kompresji, cyfrowych sygnałów akustycznych i wizyjnych. Sygnał ze źródła 10 sygnałów akustycznych i wizyjnych jest dostarczany do kompresora 11 sygnałów wizyjnych, który zawiera na przykład koder prognozowania kompensowany ruchem, wykorzystujący dyskretne transformacje cosinus. Poddany kompresji sygnał wizyjny z kompresora 11 jest doprowadzany do układu formatowania 12, który formatuje sygnał wizyjny i dane pomocnicze zgodnie z protokołem sygnałowym, na przykład protokołem MPEG w standardzie International Organization for Standardization. Sygnał standardowy jest dostarczany do procesora transportowego 13, który dzieli sygnał na pakiety danych i dodaje dane organizacyjne, aby zapewnić odporność na zakłócenia podczas nadawania. Pakiety transmitowane normalnie z niejednorodną szybkością są dostarczane do bufora 14 szybkości, który dostarcza dane wyjściowe o względnie stałej szybkości dostosowanej do kanału transmisyjnego o względnie małej szerokości pasma. Dane buforowane są doprowadzane do modemu nadawczego 15 transmitującego dalej sygnał.
Zegar 22 dostarcza sygnał zegarowy sterujący znaczną częścią urządzenia, zawierającą przynajmniej procesor transportowy 13. Zegar 22 działa z ustaloną częstotliwością, na przykład 27 MHz i jest tutaj stosowany do wytwarzania informacji taktowania. Zegar 22 jest dołączony do wejścia synchronizacji licznika 23, który jest przystosowany na przykład do zliczania modulo 230. Wyjście wartości zliczanych przez licznik 23 jest dołączone do dwóch przerzutników zatrzaskowych 24 i 25. Stan przerzutnika zatrzaskowego 24 jest ustalany przez źródło 10 sygnałów akustycznych i wizyjnych, aby blokować wartości zliczane przy wystąpieniu określonych czasów 'trwania ramek. Te blokowane wartości odpowiadają znacznikom czasowym PTS^z prezentacji wizyjnej i są wprowadzane do poddanego kompresji sygnału wizyjnego za pomocą układu formatowania 12 oraz są wykorzystywane przez odbiornik do zapewnienia synchronizacji ruchu ust na wizji z fonią. Stan przerzutnika zatrzaskowego 25 jest ustalany przez procesor transportowy 13 lub sterownik 21 systemu, aby blom 313 kować wartości zliczane zgodnie z określoną regułą. Te zliczane wartości sygnału zegarowego odniesienia SCR zegara 22 są wprowadzane jako dane pomocnicze do pomocniczych pakietów transportowych.
Sygnał akustyczny, związany z sygnałem wizyjnym ze źródła 10, jest dostarczany do kompresora 18 sygnałów akustycznych. Kompresor 18 dostarcza impulsy próbkujące ramki, niezależne od ramek sygnałów wizyjnych, w celu sterowania przerzutnikiem zatrzaskowym 19. Odpowiednio do impulsów próbkujących, przerzutnik zatrzaskowy 19 rejestruje wartości zliczane przez licznik 23. Te blokowane wartości odpowiadają znacznikom czasowym PTSak prezentacji akustycznej i są wprowadzone do poddanego kompresji sygnału akustycznego dostarczanego przez kompresor 18. Poddany kompresji sygnał akustyczny jest dostarczany do procesora transportowego 17, który dzieli sygnał na pakiety danych i dodaje dane organizacyjne, aby zapewnić odporność na zakłócenia podczas nadawania. Transportowane pakiety akustyczne, dostarczane przez procesor transportowy 17, są doprowadzane do multipleksera 16, który multipleksuje z podziałem czasu transportowane pakiety akustyczne i wizyjne. Na fig. 1 są pokazane oddzielne procesory transportowe w kanałach przetwarzania sygnałów akustycznych i wizyjnych. Dla systemów, w których szybkość danych jest umiarkowana, funkcje dwóch procesorów transportowych 13,17 i multipleksera 16 można połączyć w pojedynczym procesorze transportowym.
Sterownik 21 systemu jest układem o zmiennym stanie, programowanym dla koordynacji różnych elementów przetwarzania. Sterownik 21 systemu, kompresory 11 i 18 sygnałów wizyjnych i akustycznych, procesory transportowe 13 i 17 oraz bufor 14 szybkości działają synchronicznie poprzez wspólny zegar 22 tak długo, jak długo jest zapewnione właściwe współdziałanie pomiędzy elementami przetwarzania. Ponieważ oba kompresory 11 i 18 dostarczają wartości znaczników czasowych PTS z tego samego licznika 23, pomiędzy oboma sygnałami poddanymi kompresji jest zapewniona dokładna regulacja w czasie w poddanym kompresji sygnale wyjściowym.
Figura 2 przedstawia urządzenie odbiorcze do dekompresji sygnałów akustycznych i wizyjnych według wynalazku, w którym modem odbiorczy 200 spełnia odwrotną funkcję niż modem nadawczy 15 z fig. 1, a bufor 206 szybkości - odwrotną funkcję niż bufor 14 szybkości z fig. 1. Inwersyjny procesor transportowy 202 dzieli transportowe pakiety i przydziela poszczególnym paczkom pakietów różne bloki pamięci w buforze 206 szybkości. Poszczególne paczki pakietów są oddzielane od danych pomocniczych, przy czym dane pomocnicze są dostarczane do sterownika 210 systemu. W odmiennym urządzeniu oddzielny procesor transportowy jest włączony do każdego kanału przetwarzania i tak zorganizowany, aby rozpoznawać i przetwarzać tylko dane związane z poszczególnymi kanałami.
Poddane kompresji dane wizyjne z bufora 206 szybkości są przekazywane do dekompresora 214 sygnałów wizyjnych. Bufor 206 szybkości przyjmuje poddane kompresji dane wizyjne z prędkością impulsową lub zmienną oraz na żądanie dostarcza dane do dekompresora 214 sygnałów wizyjnych. Dekompresor 214 sygnałów wizyjnych wytwarza, odpowiednio do poddanego kompresji sygnału wizyjnego, nie poddany kompresji sygnał wizyjny do odtwarzania lub zapamiętania w układach odtwarzających lub pamiętających, których nie pokazano.
Poddane kompresji dane akustyczne z inwersyjnego procesora transportowego 202 są dostarczane do bufora 206 szybkości, który dostarcza, zgodnie z protokołem sygnałowym, poddany kompresji sygnał akustyczny do dekompresora 212 sygnałów akustycznych. Dekompresor 212 sygnałów akustycznych, w odpowiedzi na poddany kompresji sygnał akustyczny, wytwarza nie poddany kompresji sygnał akustyczny do odtwarzania lub zapamiętania w układach odtwarzających lub pamięciowych, których nie pokazano.
Inwersyjny procesor transportowy 202 dostarcza także sygnały zegarowe odniesienia SCR na podstawie danych pomocniczych i sygnały sterujące do zegara 208. Zegar 208 wytwarza, w odpowiedzi na te sygnały, sygnał zegarowy synchroniczny przynajmniej z działaniem procesora transportowego. Ten sygnał zegarowy jest dostarczany do sterownika 210 systemu, aby sterować regulacją w czasie elementów przetwarzania.
Figura 3 przedstawia szczegółowo układ do dostarczania sygnału zegarowego urządzenia odbiorczego. Dane z modemu odbiorczego 200 są przekazywane do inwersyjnego
177 313 procesora transportowego 202', zawierającego detektor 31 pakietów pomocniczych. Inwersyjny procesor transportowy 202' oddziela dane transportowe nagłówka od poszczególnych paczek pakietów transportowych. W odpowiedzi na dane transportowe nagłówka, procesor 202' demultipleksuje paczki wymaganych, związanych ze sobą składowych sygnału akustycznego i wizyjnego. Paczki akustyczne i wizyjne oraz pomocnicze są zapisywane w oddzielnych blokach pamięci bufora 206 szybkości. Każdy z bloków pamięci działa jako pamięć typu FIFO, zapisując dane, gdy jest ona dostępna z modemu, i odczytując dane, gdy jest to wymagane przez procesor sygnału składowego, którego nie pokazano. Sygnały zegarowe odniesienia wakietach pomocniczych są kierowane i zapamiętywane w pamięci 34.
Detektor 31 pakietów pomocniczych, który jest na przykład dopasowanym filtrem do rozpoznawania słów kodu oznaczających pomocniczy pakiet transportowy, zawierający sygnał zegarowy odniesienia SCR, wytwarza impuls sterujący przy wystąpieniu pakietów transportowych zawierających takie dane. Impuls sterujący jest stosowany do odbioru i zapamiętania w przerzutniku zatrzaskowym 35 wartości zliczanej, wykazywanej na bieżąco przez licznik 36 w czasie dokładnie odniesionym do czasu wykrywania. Licznik 36 zlicza impulsy dostarczane przez sterowany napięciowo generator 37 miejscowego sygnału zegarowego. Licznik 36 zlicza modulo M, które może być, lecz niekoniecznie, tą samą liczbą, jak liczba N w jego odpowiedniku, w liczniku 23. Jeżeli M różni się od N, różnica może być umieszczona w równaniu błędu.
Sterowany napięciowo generator 37 miejscowego sygnału zegarowego jest sterowany przez odfiltrowany w filtrze dolnoprzepustowym 38 sygnał błędu dostarczany przez sterownik zegarowy 39. Sygnał błędu jest wytwarzany w następujący sposób. Niech sygnał zegarowy odniesienia SCR, pojawiający się w czasie n, będzie oznaczony SCR„, a zliczana wartość, uzyskana równocześnie w przerzutniku zatrzaskowym 35, będzie oznaczona LCR„. Sterownik zegarowy 39 odczytuje kolejne wartości SCR i LCR oraz wytwarza sygnał błędu E proporcjonalny do różnicy:
E => | SCR - SCRn- | -1 LCRn - LCRm |
Sygnał błędu E jest wykorzystywany do wprowadzania sterowanego napięciowo generatora 37 w stan o częstotliwości zmierzającej do wyrównania różnic. Różnice ujemne, powodowane przez cykliczne zliczanie przez licznik modulo, można zaniedbać. Sygnał błędu wytwarzany przez sterownik zegarowy 39 ma postać sygnału impulsowego o modulowanej szerokości impulsów, przekształcanego w analogowy sygnał błędu przy wykorzystaniu filtru dolnoprzepustowego 38 w układzie analogowym.
Ograniczeniem tego systemu jest to, że liczniki na obu końcach systemu zliczają tę samą częstotliwość lub nawet ją mnożą. Wymaga to, żeby częstotliwość znamionowa generatora sterowanego napięciowo była prawie równa częstotliwości zegara.
Poprzednie rozwiązanie zapewnia raczej szybką synchronizację, lecz może wprowadzić długo trwający sygnał błędu LTE proporcjonalny do różnicy, jak następuje:
LTE => |LCRn - LCR0 | - |SCRn - SCRj gdzie SCR0 i LCR0 są na przykład pierwszym występującym sygnałem zegarowym odniesienia i odpowiadającą mu, zablokowaną wartością licznika odbiorczego. Nominalnie sygnały błędu E i LTE zmieniają się w dyskretnych krokach. Wówczas, gdy system jest synchronizowany, sygnał błędu waha się o jednostkę wokół punktu zerowego. Zalecaną metodą synchronizacji jest zapoczątkowanie sterowania generatora sterowanego napięciowo, wykorzystując sygnał błędu E aż do wystąpienia jednostkowego odchylenia w sygnale błędu E, anastępnie włączenie w celu użycia sygnału błędu LTE, aby sterować generatorem sterowanym napięciowo.
Sygnał zegarowy, dostarczany przez sterowany napięciowo generator 37, jest wykorzystywany na przykład do sterowania przynajmniej procesorem transportowym i buforami szybkości. Ponieważ jest on synchronizowany przynajmniej częstotliwościowo z zegarem,
177 313 możliwość przepełnienia lub niedopełnienia bufora szybkości, spowodowana błędami regulacji w czasie zegara, zasadniczo nie istnieje.
Na podstawie fig. 2 można wyjaśnić synchronizację akustyczną i wizyjną. Znacznik czasowy PTSwz prezentacji jest wprowadzany do poddanego kompresji sygnału wizyjnego, związanego z określonymi danymi wizyjnymi. Znacznik PTSwiz jest wskaźnikiem czasu względnego, w którym sygnał wizyjny ma być odtworzony. Podobnie poddany kompresji sygnał akustyczny zawiera znaczniki czasowe PTSak prezentacji, związane z sygnałem akustycznym, które mają być odtworzone w czasach odniesionych do poszczególnych znaczników czasowych PTS-k. W odbiorniku znaczniki czasowe PTSak i PTSwz nie mogą być porównane bezpośrednio, aby zapewnić synchronizację akustyczną i wizyjną, ponieważ poszczególne próbki są określane w różnych chwilach. Poszczególne wartości znaczników czasowych są porównywane z ciągłą podstawą czasu, która jest sygnałem zegarowym odbiornika, dostarczanym przez sterowany napięciowo generator 37. Jest to dokonywane przez próbkowanie zliczanych wartości LCR wytwarzanych przez zegar 208 w celu uzyskania znaczników czasowych.
Wówczas, gdy występuje dana związana ze znacznikiem czasowym PTS, próbkowana jest zliczana wartość LCR. Na przykład, dekompresor 212 sygnałów akustycznych wysyła znacznik czasowy PTSak , gdy poszczególna ramka akustyczna jest wyprowadzana w celu odtworzenia. W tym czasie sygnał sterujący ustala stan przerzutnika zatrzaskowego 220 w celu próbkowania zliczanej wartości LCR, której poszczególne wartości są oznaczone przez LAS dla poszczególnych znaczników akustycznych. Podobnie gdy dekompresor wizyjny ' dostarcza ramkę wizyjną do odtworzenia, dostarcza on znacznik czasowy PTSwz i impuls sterujący ustalający stan przerzutnika zatrzaskowego 222 w celu zapamiętania bieżących, zliczanych wartości LCR, które są oznaczone przez LVS dla poszczególnych znaczników wizyjnych.
Wartości LAS i PTSak są doprowadzone do końcówek wejściowych układu odejmującego 218, który wytwarza sygnał AA.pTS zgodnie z równaniem:
Δα-pts = PTSak - LAS
Natomiast wartości LVS i PTSwiz sh doprowadzane do końcówek wejściowych układu odejmującego 217, który wytwarza sygnał Av_pts zgodnie z równaniem:
^v-pts = PTSwz - LVS.
Sygnały Av-ts i Δα-pts są doprowadzane do końcówek wejściowych następnego układu odejmującego 219, który wytwarza sygnał błędu ERRpts synchronizacji akustycznej i wizyjnej zgodnie z równaniem:
ERRpts ~ ^v-pts Δα-ts
Synchronizacja akustyczna i wizyjna wymaga, żeby błąd synchronizacji akustycznej i wizyjnej był sprowadzony do zera. Zatem, gdy różnica wartości odpowiadających znacznikom czasowym PTS akustycznym i wizyjnym jest równa w czasie, w jednostkach odniesienia, pomiędzy pojawieniem się odpowiednich znaczników czasowych PTS, sygnały akustyczne i wizyjne będą zsynchronizowane.
Do regulacji synchronizacji akustycznej i wizyjnej stosowane są dwa mechanizmy oparte na sygnale błędu ERRptS pomijanie i powtarzanie sekcji danych oraz zmiana taktowania przetwarzania. Pomijanie ustalonych przedziałów, czyli ramek akustycznych, przyspiesza przepływ danych akustycznych w ustalonym przedziale względem sygnału wizyjnego. Powtarzanie lub blokowanie bez wykorzystania danych opóźnia przepływ danych akustycznych wustalonych przedziałach względem sygnału wizyjnego. Pomijanie i powtarzanie ramek akustycznych jest słyszalne w różnych warunkach i dlatego jest stosowane tylko dla zgrubnej regulacji synchronizacji. Nawet wtedy krótkie pomijanie lub powtarzanie może być korzystne przy określaniu błędów synchronizacji akustycznej i wizyjnej. Jeżeli ramki akustyczne są
177 313 krótsze niż 40 ms, regulacja zgrubna przez pomijanie i powtarzanie może powodować błędy synchronizacji w zakresie ± 20 ms, co mieści się w standardach przemysłowych synchronizacji akustycznej i wizyjnej. Jednak ta synchronizacja będzie gorsza, jeżeli podstawa czasu sygnału akustycznego nie będzie zgodna z odpowiadającą źródłu. Wówczas gdy synchronizacja jest regulowana zgrubnie, zmiany częstotliwości taktowania przetwarzania akustycznego są określane tak, żeby umożliwić dokładną synchronizację akustyczną i wizyjną.
Sygnał błędu ERRPTS synchronizacji jest dostarczany do filtru i układu przetwarzającego 216. Funkcja filtrowania powoduje wygładzanie sygnału ERRPTS w celu minimalizacji nienormalnych efektów, które mogłyby być powodowane przez sygnał zakłócenia. Funkcja przetwarzania powoduje wówczas badanie wygładzonego sygnału błędu i określa, czy pomijanie i powtarzanie sygnału akustycznego powinno być zastosowane, aby spowodować synchronizację zgrubną sygnałów akustycznych i wizyjnych i/lub czy powinna być zastosowana regulacja częstotliwości przetwarzania akustycznego dla uzyskania dokładnej synchronizacji. Jeżeli konieczna jest synchronizacja zgrubna, to układ przetwarzania 216 dostarcza sygnał sterujący S/R do dekompresora 212 sygnałów akustycznych w celu wprowadzenia dekompresora w stan pomijania lub powtarzania poddanej dekompresji, bieżącej ramki akustycznej. Odmiennie lub w uzupełnieniu do regulacji zgrubnej, jeżeli jest wymagana dokładna regulacja, układ przetwarzania 216 dostarcza sygnał sterujący do układu podstawy czasu 215 sygnału akustycznego dla regulacji częstotliwości taktowania przetwarzania akustycznego.
Figura 4 przedstawia sieć działań w systemie. Po inicjalizacji w kroku 400 system kontroluje w kroku 401 dekompresor akustyczny co do obecności znacznika czasowego PTSak i jeżeli znacznik czasowy PTSak jest wykrywany, zostaje on odczytany w kroku 403 i zostaje odebrane i zapamiętane miejscowe odniesienie zegarowe LAS. Jeżeli znacznik czasowy PTSak nie pojawił się, system kontroluje w kroku 402 kompresor sygnałów wizyjnych co do obecności znacznika czasowego PTSW]Z. Jeżeli znacznik czasowy PTSW1Z pojawił się, zostaje on odczytany w kroku 404 i zostaje odebrane i zapamiętane miejscowe odniesienie zegarowe LVS. Wówczas, gdy oba znaczniki czasowe PTSak i PTS^ zostały odczytane, sygnał błędu ERRPTS jest obliczany w kroku 405 zgodnie z równaniem:
ERR^ts — Δν.ργδ - Δα.ΡΤ5
Wartość sygnału błędu jest badana w kroku 406 w celu określenia, czy jest ona większa niż połowa czasu trwania ramki akustycznej. Jeżeli jest ona większa niż połowa czasu trwania ramki akustycznej, sygnał błędu jest sprawdzany w kroku 407 co do polaryzacji. Jeżeli polaryzacja jest dodatnia, bieżąca ramka akustyczna jest powtarzana w kroku 409. Jeżeli polaryzacja jest ujemna, bieżąca ramka akustyczna jest pomijana w kroku 408. Po pominięciu lub powtórzeniu ramki, system powraca do pozycji wyjściowej, oczekując na następne pojawienie się znacznika czasowego PTS.
W kroku 406, jeżeli wartość sygnału błędu jest mniejsza niż połowa czasu trwania ramki akustycznej, w kroku 410 jest badany błąd w celu określenia, czy jest on większy od zera. Jeżeli błąd jest większy od zera, jest on sprawdzany w kroku 412 w celu określenia, czy jest on mniejszy od poprzedniego sygnału błędu. Jeżeli jest mniejszy od poprzedniego sygnału błędu, to znaczy, że system dąży do synchronizacji i parametry sterowania synchronizacją nie są zmieniane. System wraca do pozycji wyjściowej i czeka na następny znacznik czasowy PTS. I odwrotnie, jeżeli błąd wzrósł powyżej poprzedniego sygnału błędu, taktowanie przetwarzania akustycznego jest regulowane w kroku 414 w celu zmniejszenia częstotliwości.
W kroku 410, jeżeli błąd jest mniejszy od zera czyli ujemny, jest on sprawdzany w kroku 411 w celu określenia, czy jest większy od poprzedniego sygnału błędu. Jeżeli jest większy od poprzedniego sygnału błędu, oznacza to także, że system dąży do synchronizacji i parametry sterujące synchronizacją nie są zmieniane. W innym przypadku, gdy bieżący sygnał błędu jest mniejszy od poprzedniego sygnału błędu, system oddała się od stanu synchronizacji i częstotliwość taktowania przetwarzania akustycznego jest zwiększana w kroku 413. Po krokach 412 i 413 przetwarzania system powraca do oczekiwania na następne pojawienie się znacznika czasowego PTS. System zapewnia tylko zgrubną regulację przez pomijanie lub
177 313 powtarzanie ramek akustycznych, aż do zmniejszenia błędu synchronizacji akustycznej i wizyjnej do wartości mniejszej od połowy czasu trwania ramki akustycznej.
W odmiennym wykonaniu filtrowany sygnał błędu jest porównywany z określoną wartością progową związaną z wielkością poszczególnych ramek akustycznych. Jeżeli sygnał błędu jest mniejszy od wartości progowej, oznacza to, że błąd regulacji akustycznej i wizyjnej w czasie jest mniejszy niż ramka akustyczna, a sygnał błędu jest doprowadzany do układu podstawy czasu 215 sygnału akustycznego, w którym jest stosowany do regulacji częstotliwości taktowania przetwarzania sygnału akustycznego przy dekompresji. W innym przypadku, jeżeli sygnał błędu jest większy niż wartość progowa, sygnał błędu może być podzielony na czas trwania ramki akustycznej w celu określenia liczby ramek akustycznych, o które sygnał akustyczny i wizyjny jest odstrojpny. Część całkowita ilorazu jest doprowadzana do dekompresora sygnałów akustycznych w celu wprowadzenia go w stan pomijania lub powtarzania tej liczby ramek akustycznych. Polaryzacja sygnału błędu będzie określać, czy ramki akustyczne powinny być pominięte lub powtórzone. Nominalnie dana poddana kompresji jest umieszczana w pamięci buforowej przed dekodowaniem, stąd pominięcie lub powtórzenie ramek akustycznych jest prostym sposobem kontrolowanego zezwalania pamięci na rozkazy odczytu i zapisu.
Część ułamkowa ilorazu jest doprowadzana do układu podstawy czasu 215 sygnału akustycznego, w którym jest stosowana do regulacji taktowania przetwarzania akustycznego w celu dokładnej regulacji synchronizacji akustycznej i wizyjnej.
Szybkość wytwarzania znaczników czasowych PTS akustycznych jest proporcjonalna do szybkości przetwarzania dekompresora akustycznego. Szybkość przetwarzania dekompresora akustycznego jest wprost proporcjonalna do częstotliwości sygnału zegarowego stosowanego przy sterowaniu dekompresorem sygnałów akustycznych. Jeżeli częstotliwość zegarowa dekompresora akustycznego jest niezależna od zegara stosowanego do sterowania dekompresorem sygnałów wizyjnych i jest regulowana dokładnie, to względna szybkość pojawiania się znaczników czasowych PTS akustycznych i wizyjnych może być regulowana i dokładnie synchronizowana.
Poddany dekompresji sygnał akustyczny jest doprowadzany do przetwornika cyfrowoanalogowego 227. Analogowy sygnał wyjściowy z przetwornika cyfrowo-analogowego 227 jest doprowadzany do następnego analogowego układu przetwarzającego, którego nie pokazano, poprzez rezystor 228. Obwód przewodzenia tranzystora 229 blokującego zakłócenia jest włączony pomiędzy rezystor 228 i potencjał masy. Elektroda sterująca tranzystora jest dołączona do wyjścia detektora progowego 225. Dodatnie napięcie sterujące większe od napięcia baza-emiter wprowadza tranzystor 229 blokujący zakłócenia w stan stabilizacji wyjściowego sygnału akustycznego z przetwornika cyfrowo-analogowego 227 na potencjale masy, blokując zakłócenia sygnału akustycznego.
Zwykle poddany kompresji sygnał akustyczny zawiera wiele składowych, takich jak sygnał kanału lewego i kanału prawego. Figura 2 przedstawia dla uproszczenia tylko jedno wyjście akustyczne, chociaż każdy kanał akustyczny zawiera obwód blokujący zakłócenia, sterowany przez wspólny sygnał sterujący blokowaniem zakłóceń.
Blokowanie zakłóceń sygnału akustycznego jest stosowane z wielu powodów, na przykład z powodu utraty synchronizacji dźwięku z obrazem. Urządzenie według wynalazku blokuje zakłócenia sygnału akustycznego na podstawie błędu synchronizacji ruchu ust na wizji względem fonii.
jako mniejszą od 20 ms, lecz większą od połowy MPEG1, warstwy II ramki akustycznej, która wynosi Widz może zauważyć błędy synchronizacji ruchu ust na wizji względem fonii rzędu -20 ms lub +40 ms. W przedstawionym systemie zakłócenia sygnałów akustycznych są blokowane, gdy błąd synchronizacji mchu ust na wizji względem fonii przekracza około 13 ms. Wartość progową 13 ms wybrano 24 ms. Wartość progową wybrano jako nieco większą od połowy ramki akustycznej przy pominięciach i powtórzeniach ramek synchronizacji akustycznej i wizyjnej, przy której możliwy jest początkowy stan synchronizacji w połowie ramki przy 12 ms, a wartość progowa około 12 ms lub mniej mogłaby powodować jest także doprowadzany do układu synchronizowaną, lecz z blokadą zakłóceń fonię. Dodatkowo wartość
177 313 progowa równa połowie ramki daje przerywane blokowanie zakłóceń, wywołane nieznacznymi odchyleniami w obliczonych błędach synchronizacji ruchu ust na wizji względem fonii, które zostały spowodowane nieoznaczonością zegarowania i próbkowania strobującego znaczników czasowych PTS.
Sygnał sterujący blokowaniem zakłóceń jest wytwarzany przez detektor progowy 225, który kontroluje sygnał błędu synchronizacji akustycznej i wizyjnej, otrzymywany z układu odejmującego 219. Wówczas gdy sygnał błędu przekracza wartość odpowiadającą 13 ms, wytwarzana jest wartość sterująca blokowaniem zakłóceń. Aby wykluczyć wytwarzanie przez zakłócenia lub inne stany impulsowe fałszywych sygnałów blokujących, sygnały błędu zukładu odejmującego 219 są filtrowane przez filtr dolnoprzepustowy przed doprowadzeniem do detektora progowego 225.
Przerywane strzałki wychodzące z detektora progowego 225 i kończące się na przetworniku cyfrowo-analogowym 227 i dekompresorze 212 sygnałów akustycznych wskazują różne możliwości blokowania zakłóceń. Na przykład sygnał sterowania blokowaniem zakłóceń może być przeznaczony do wyłączenia wyjścia przetwornika cyfrowo-analogowego 227 lub wyjścia dekompresora 212 sygnałów akustycznych. W każdej chwili funkcja wyłączania powinna być przystosowana do ustalania stanu poszczególnego elementu przetwarzającego, aby wartość amplitudy sygnału na wyjściu występowała w środku dynamicznego zakresu sygnału wyjściowego. Urządzenie z fig. 2 pokazuje także, że blokowanie zakłóceń, lub wygaszanie sygnałów wizyjnych może być wprowadzone poprzez sterowanie przetwornikiem cyfrowoanalogowym 224 sygnałów wizyjnych.
Figura 5 przedstawia inny przykład wykonania urządzenia blokującego zakłócenia. Sygnał pomijania i powtarzania S/R, wytwarzany przez filtr 216, jest stosowany do pierwotnego sterowania blokowaniem zakłóceń. Sygnał jest doprowadzony do układu blokującego zakłócenia przez element LUB 230. Jeżeli w systemie dokładne sterowanie do regulacji podstawy czasu sygnału akustycznego osiąga zakres obejmujący co najmniej połowę ramki akustycznej, to detektor progowy 231 może być włączony, aby kontrolować sygnał sterowania dokładnego podstawą czasu sygnału akustycznego i wytwarzać wtórny sygnał sterowania blokowaniem zakłóceń. Ten wtórny sygnał sterowania blokującego zakłócenia przez element LUB 230.
Urządzenie z fig. 5 przedstawia układ blokujący zakłócenia, zawierający element I 226, do selektywnego doprowadzania poddanego dekompresji sygnału akustycznego z dekompresora 212 do przetwornika cyfrowo-analogowego 227. Nominalnie sygnały akustyczne są dwubiegunowe i wahają się wokół wartości zerowej. Element I, gdy znajduje się w stanie odłączonym, dostarcza na wyjściu wartość zerową, która jest w środku dynamicznego zakresu sygnału.
Obecnie znajdują zastosowanie satelitarne systemy bezpośrednich rozgłośni wykorzystujących poddawane dekompresji sygnały akustyczne i wizyjne, w których wiele pakietowanych programów jest multipleksowanych i przenoszonych z podziałem czasu przez pojedynczy przekaźnik. Określony program może zawierać tylko sygnały akustyczne, unikając problemów synchronizacji ruchu warg na wizji z fonią. Jednak mogą być odtwarzane niepożądane sygnały akustyczne, jeżeli synchronizacja zegarowa nie działała. Dlatego można wprowadzić następny detektor progowy 232 do kontroli sygnału błędu wytwarzanego przez sterownik 39 zegara, przedstawiony na fig. 3. Detektor progowy 232 wytwarza sygnał sterujący blokowaniem zakłóceń, gdy sygnał błędu wytworzony przez sterownik reprezentuje odchylenie częstotliwości od ustalonego stanu, na przykład 0,2. Ten sygnał sterujący blokowaniem zakłóceń jest doprowadzany do elementu LUB 230, aby spowodować blokowanie zakłóceń sygnałów akustycznych aż do momentu, gdy zegar urządzenia nadawczego jest zasadniczo zsynchronizowany z zegarem urządzenia odbiorczego. Podobnie może być wprowadzone urządzenie detekcyjne do pomiaru odchylenia częstotliwości układu podstawy czasu 215 sygnału akustycznego w celu wytworzenia następnego sygnału blokującego zakłócenia, który może być poddany działaniu funkcji logicznej w elemencie LUB 230.
17*7313
177 313 ο
τ·
CM
177 313 zegar systemu
200
INWERSYJNY PROCESOR TRANSPORTOWY m 313
/413
FIG. 4
177 313 φ DO WYŚWIETLANIA ,(=o| DAC -ffi,....., » LUB kodera ntsc
21¾^
226
2Zt —Λ_
FIG. 5
232
177 313
Departament Wydawnictw UP RP. Nakład 70 egz. Cena 4,00 zł.

Claims (7)

  1. Zastrzeżenia patentowe
    1. Urządzenie przetwarzające poddane kompresji sygnały akustyczne i wizyjne, zawierające modem mający wejście poddanego kompresji sygnału akustycznego i wizyjnego, dołączony przez inwersyjny procesor transportowy do bufora szybkości dołączonego do dekompresora sygnałów akustycznych i do dekompresora sygnałów wizyjnych, znamienne tym, że zawiera układy odejmujące (217, 218, 219) dołączone do wyjść dekompresorów (212, 214) sygnałów akustycznych i wizyjnych, przy czym dekompresor (212) sygnałów akustycznych jest dołączony poprzez przerzutnik zatrzaskowy (220) do inwersyjnego procesora transportowego (202) i dekompresor (214) sygnałów wizyjnych jest dołączony poprzez przerzutnik zatrzaskowy (222) do inwersyjnego procesora transportowego, a do układów odejmujących (217, 218, 219) jest dołączony detektor progowy (225) dołączony do tranzystora (229) blokującego zakłócenia.
  2. 2. Urządzenie według zesta. 1, znamiennz tym, że detelmorprogowy (22^) ma wyjść i e sygnału sterującego o pierwszym i drugim stanie, dołączone do tranzystora (229) blokującego zakłócenia, dla przepuszczania poddanego dekompresji sygnału akustycznego w drugim stanie i dostarczania wartości zastępczej w pierwszym stanie.
  3. 3. Urządzenie według zastrz. 2, znamienne tym, że do tranzystora (229) blokującego zakłócenia jest dołączony przetwornik cyfrowo-analogowy (227).
  4. 4. Urządzenie według zastrz. 2, znamienne tym, że do tranzystora (229) blokującego zakłócenia jest dołączony element I (226) dołączony do dekompresora (212) sygnałów akustycznych i mający wejście zezwolenia dołączone do detektora progowego (231).
  5. 5. Urządzenie według zastrz. 2, znamienne tym, że pomiędzy dekompresory (212,214) sygnałów akustycznych i wizyjnych i inwersyjny procesor transportowy (202) jest włączony zegar (208), a do układu odejmującego (219) i do detektora progowego (225) jest dołączony filtr i układ przetwarzający (216), do którego wyjścia jest dołączony układ podstawy czasu (215) sygnału akustycznego, dla dostarczania sygnału błędu synchronizacji.
  6. 6. Urządzenie według zastrz. 1 albo 2, albo 3, znamienne tym, że do tranzystora (229) blokującego zakłócenia jest dołączony następny detektor progowy (232), a pomiędzy nimi jest włączony element LUB (230) do łączenia sygnałów sterujących z detektora progowego (231) i następnego detektora progowego (232), dla synchronizacji dźwięku z obrazem na podstawie ruchów ust.
  7. 7. Urządzenie według zastrz. 5, znamienne tym, że zegar (208) zawiera sterowany napięciowo generator (37) miejscowego sygnału zegarowego, do którego wejścia jest dołączony licznik (36), a do wyjścia jest dołączony sterownik zegarowy (39), którego wejście jest dołączone do sterowanego napięciowo generatora (37), dla określania czasu T pomiędzy wystąpieniem znaczników czasowych (PTSak i PTSwi/_) sygnałów akustycznych i wizyjnych, a układy odejmujące (217, 218, 219) są dołączone do zegara (208) oraz filtru i układu przetwarzającego (216), dla obliczania różnicy znaczników czasowych i wytwarzania sygnału sterującego synchronizacją, oraz detektor progowy (225) jest przystosowany do wytwarzania sygnału błędu, gdy sygnał sterujący synchronizacją przekracza określoną wartość.
PL95308615A 1994-05-17 1995-05-16 Urządzenie przetwarzające poddane kompresji sygnały akustyczne i wizyjne w odbiorniku PL177313B1 (pl)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/245,113 US5467139A (en) 1993-09-30 1994-05-17 Muting apparatus for a compressed audio/video signal receiver

Publications (2)

Publication Number Publication Date
PL308615A1 PL308615A1 (en) 1995-11-27
PL177313B1 true PL177313B1 (pl) 1999-10-29

Family

ID=22925345

Family Applications (1)

Application Number Title Priority Date Filing Date
PL95308615A PL177313B1 (pl) 1994-05-17 1995-05-16 Urządzenie przetwarzające poddane kompresji sygnały akustyczne i wizyjne w odbiorniku

Country Status (12)

Country Link
US (1) US5467139A (pl)
EP (1) EP0683604B1 (pl)
JP (1) JP3932059B2 (pl)
KR (1) KR100366401B1 (pl)
CN (1) CN1088305C (pl)
BR (1) BR9502039A (pl)
CA (1) CA2147013C (pl)
DE (1) DE69527573T2 (pl)
MY (1) MY112618A (pl)
PL (1) PL177313B1 (pl)
RU (1) RU2150792C1 (pl)
TW (1) TW325632B (pl)

Families Citing this family (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5486864A (en) * 1993-05-13 1996-01-23 Rca Thomson Licensing Corporation Differential time code method and apparatus as for a compressed video signal
JPH07202820A (ja) * 1993-12-28 1995-08-04 Matsushita Electric Ind Co Ltd ビットレート制御システム
JP3408617B2 (ja) * 1994-03-16 2003-05-19 富士通株式会社 画像符号化データの同期ワード多重化方式
US5603016A (en) * 1994-08-03 1997-02-11 Intel Corporation Method for synchronizing playback of an audio track to a video track
US5598352A (en) * 1994-09-30 1997-01-28 Cirrus Logic, Inc. Method and apparatus for audio and video synchronizing in MPEG playback systems
US5594660A (en) * 1994-09-30 1997-01-14 Cirrus Logic, Inc. Programmable audio-video synchronization method and apparatus for multimedia systems
US5920842A (en) * 1994-10-12 1999-07-06 Pixel Instruments Signal synchronization
JP3575100B2 (ja) * 1994-11-14 2004-10-06 ソニー株式会社 データ送信/受信装置及び方法並びにデータ記録/再生装置及び方法
JP3149328B2 (ja) * 1995-01-09 2001-03-26 松下電器産業株式会社 送信装置と受信装置
US5920572A (en) * 1995-06-30 1999-07-06 Divicom Inc. Transport stream decoder/demultiplexer for hierarchically organized audio-video streams
US9832244B2 (en) * 1995-07-14 2017-11-28 Arris Enterprises Llc Dynamic quality adjustment based on changing streaming constraints
US7512698B1 (en) * 1995-07-14 2009-03-31 Broadband Royalty Corporation Dynamic quality adjustment based on changing streaming constraints
US5570372A (en) * 1995-11-08 1996-10-29 Siemens Rolm Communications Inc. Multimedia communications with system-dependent adaptive delays
US5784572A (en) * 1995-12-29 1998-07-21 Lsi Logic Corporation Method and apparatus for compressing video and voice signals according to different standards
US5835493A (en) * 1996-01-02 1998-11-10 Divicom, Inc. MPEG transport stream remultiplexer
JPH09200569A (ja) * 1996-01-17 1997-07-31 Sony Corp フレームシンクロナイザー
US5920833A (en) * 1996-01-30 1999-07-06 Lsi Logic Corporation Audio decoder employing method and apparatus for soft-muting a compressed audio signal
US5918205A (en) * 1996-01-30 1999-06-29 Lsi Logic Corporation Audio decoder employing error concealment technique
JP3052824B2 (ja) * 1996-02-19 2000-06-19 日本電気株式会社 オーディオ再生時刻調整回路
US5828414A (en) * 1996-02-23 1998-10-27 Divicom, Inc. Reduction of timing jitter in audio-video transport streams
US5917482A (en) * 1996-03-18 1999-06-29 Philips Electronics N.A. Corporation Data synchronizing system for multiple memory array processing field organized data
BR9709751A (pt) * 1996-04-29 1999-08-10 Princeton Video Image Inc Inserção eletrônica intensificada de áudio de sinais em víde
ES2194801T3 (es) * 1996-07-05 2003-12-01 Matsushita Electric Ind Co Ltd Procedimiento de presentacion de la fecha y sincronizacion de multiples planos objeto de videos.
US6002441A (en) * 1996-10-28 1999-12-14 National Semiconductor Corporation Audio/video subprocessor method and structure
US5845251A (en) * 1996-12-20 1998-12-01 U S West, Inc. Method, system and product for modifying the bandwidth of subband encoded audio data
US5864813A (en) * 1996-12-20 1999-01-26 U S West, Inc. Method, system and product for harmonic enhancement of encoded audio signals
US6477496B1 (en) 1996-12-20 2002-11-05 Eliot M. Case Signal synthesis by decoding subband scale factors from one audio signal and subband samples from different one
US5864820A (en) * 1996-12-20 1999-01-26 U S West, Inc. Method, system and product for mixing of encoded audio signals
US6463405B1 (en) 1996-12-20 2002-10-08 Eliot M. Case Audiophile encoding of digital audio data using 2-bit polarity/magnitude indicator and 8-bit scale factor for each subband
US6516299B1 (en) 1996-12-20 2003-02-04 Qwest Communication International, Inc. Method, system and product for modifying the dynamic range of encoded audio signals
US6782365B1 (en) 1996-12-20 2004-08-24 Qwest Communications International Inc. Graphic interface system and product for editing encoded audio data
JP3000949B2 (ja) * 1997-02-12 2000-01-17 日本電気株式会社 音声・画像同期圧縮再生装置及びその方法
US6266091B1 (en) 1997-07-31 2001-07-24 Lsi Logic Corporation System and method for low delay mode operation video decoding
US6310918B1 (en) 1997-07-31 2001-10-30 Lsi Logic Corporation System and method for motion vector extraction and computation meeting 2-frame store and letterboxing requirements
US6289053B1 (en) 1997-07-31 2001-09-11 Lsi Logic Corporation Architecture for decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements
US6101221A (en) * 1997-07-31 2000-08-08 Lsi Logic Corporation Video bitstream symbol extractor for use in decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements
US6236681B1 (en) 1997-07-31 2001-05-22 Lsi Logic Corporation Method for decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements
US6122316A (en) * 1997-07-31 2000-09-19 Lsi Logic Corporation MPEG decoding system meeting 2-frame store and letterboxing requirements
US7366670B1 (en) * 1997-08-05 2008-04-29 At&T Corp. Method and system for aligning natural and synthetic video to speech synthesis
KR19990040286A (ko) * 1997-11-17 1999-06-05 윤종용 스크린 뮤트기능을 갖는 영상 재생장치 및 그에 따른 스크린 뮤트방법
JP3063841B2 (ja) * 1997-11-26 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置
US6351471B1 (en) 1998-01-14 2002-02-26 Skystream Networks Inc. Brandwidth optimization of video program bearing transport streams
US6246701B1 (en) 1998-01-14 2001-06-12 Skystream Corporation Reference time clock locking in a remultiplexer for video program bearing transport streams
US6351474B1 (en) * 1998-01-14 2002-02-26 Skystream Networks Inc. Network distributed remultiplexer for video program bearing transport streams
US6292490B1 (en) 1998-01-14 2001-09-18 Skystream Corporation Receipts and dispatch timing of transport packets in a video program bearing stream remultiplexer
US6195368B1 (en) 1998-01-14 2001-02-27 Skystream Corporation Re-timing of video program bearing streams transmitted by an asynchronous communication link
EP0973129A3 (en) 1998-07-17 2005-01-12 Matsushita Electric Industrial Co., Ltd. Motion image data compression system
JP2000050182A (ja) * 1998-08-03 2000-02-18 Japan Advanced Inst Of Science & Technology Hokuriku A−v用オーディオ信号処理方法
DE19930824C2 (de) * 1999-07-03 2001-05-31 Grundig Ag Bild- und Tonwiedergabegerät und Verfahren für dessen Betrieb
US6583821B1 (en) 1999-07-16 2003-06-24 Thomson Licensing S.A. Synchronizing apparatus for a compressed audio/video signal receiver
CA2313979C (en) * 1999-07-21 2012-06-12 Thomson Licensing Sa Synchronizing apparatus for a compressed audio/video signal receiver
DE19956913C2 (de) * 1999-11-26 2001-11-29 Grundig Ag Verfahren und Vorrichtung zur Anpassung der Laufzeitdifferenz von Video- und Audiosignal in einem Fernsehgerät
JP2001231035A (ja) * 2000-02-14 2001-08-24 Nec Corp 復号同期制御装置、復号装置、及び復号同期制御方法
EP1139665A1 (en) * 2000-03-29 2001-10-04 Deutsche Thomson-Brandt Gmbh Method and apparatus for changing the output delay of audio or video data encoding
JP4481444B2 (ja) * 2000-06-30 2010-06-16 株式会社東芝 画像符号化装置
FR2815805B1 (fr) * 2000-10-23 2005-09-02 Telediffusion De France Tdf Procede de synchronisation de signaux numeriques
US7039116B1 (en) * 2000-11-07 2006-05-02 Cisco Technology, Inc. Methods and apparatus for embedding and format conversion of compressed video data
US7030930B2 (en) * 2001-03-06 2006-04-18 Ati Technologies, Inc. System for digitized audio stream synchronization and method thereof
US8880709B2 (en) 2001-09-12 2014-11-04 Ericsson Television Inc. Method and system for scheduled streaming of best effort data
CN1278549C (zh) 2001-10-18 2006-10-04 松下电器产业株式会社 声像再现装置和声像再现方法
CN1292588C (zh) 2001-10-29 2006-12-27 松下电器产业株式会社 图像声音同步装置
US6956871B2 (en) * 2002-04-19 2005-10-18 Thomson Licensing Apparatus and method for synchronization of audio and video streams
JP3629253B2 (ja) * 2002-05-31 2005-03-16 株式会社東芝 音声再生装置および同装置で用いられる音声再生制御方法
US7283566B2 (en) * 2002-06-14 2007-10-16 Silicon Image, Inc. Method and circuit for generating time stamp data from an embedded-clock audio data stream and a video clock
CN1720749B (zh) 2002-12-04 2010-12-08 三叉微系统(远东)有限公司 自动测试音频/视频同步的方法
US20040117840A1 (en) * 2002-12-12 2004-06-17 Boudreau Paul A. Data enhanced multi-media system for a set-top terminal
US7567746B2 (en) * 2003-03-19 2009-07-28 Panasonic Corporation Data processing device
US7826562B2 (en) * 2003-05-28 2010-11-02 Panasonic Corporation Digital interface receiver apparatus
US7693222B2 (en) * 2003-08-13 2010-04-06 Ericsson Television Inc. Method and system for re-multiplexing of content-modified MPEG-2 transport streams using PCR interpolation
US7471337B2 (en) * 2004-06-09 2008-12-30 Lsi Corporation Method of audio-video synchronization
US7400653B2 (en) * 2004-06-18 2008-07-15 Dolby Laboratories Licensing Corporation Maintaining synchronization of streaming audio and video using internet protocol
WO2006101504A1 (en) * 2004-06-22 2006-09-28 Sarnoff Corporation Method and apparatus for measuring and/or correcting audio/visual synchronization
US20060209210A1 (en) * 2005-03-18 2006-09-21 Ati Technologies Inc. Automatic audio and video synchronization
KR100638138B1 (ko) * 2005-05-24 2006-10-24 주식회사 픽스트리 비디오/오디오 부호화 및 다중화 기능을 가진 하드웨어장치 및 그 작동 방법
CN101208949A (zh) * 2005-06-29 2008-06-25 天龙马兰士集团有限公司 再生装置
US8670537B2 (en) * 2006-07-31 2014-03-11 Cisco Technology, Inc. Adjusting audio volume in a conference call environment
IN2012DN05033A (pl) 2009-12-14 2015-10-02 Nippon Steel Sumitomo Metal Corp
US8640181B1 (en) * 2010-09-15 2014-01-28 Mlb Advanced Media, L.P. Synchronous and multi-sourced audio and video broadcast
TWI513320B (zh) * 2012-06-25 2015-12-11 Hon Hai Prec Ind Co Ltd 視訊會議裝置及其唇形同步的方法
CN104935827B (zh) * 2014-03-21 2018-07-06 北京同步科技有限公司 视频帧同步时嵌入音频的处理系统及处理方法
US10178281B2 (en) 2014-07-28 2019-01-08 Starkey Laboratories, Inc. System and method for synchronizing audio and video signals for a listening system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4398220A (en) * 1980-09-05 1983-08-09 Tokyo Shibaura Denki Kabushiki Kaisha Circuit for detecting the operational state of a television receiver
USRE33535E (en) * 1985-09-16 1991-02-12 Audio to video timing equalizer method and apparatus
JPH06103859B2 (ja) * 1988-10-24 1994-12-14 松下電器産業株式会社 音声信号復調回路
JP2944131B2 (ja) * 1990-03-22 1999-08-30 株式会社東芝 ビデオ記録再生装置
GB2244184B (en) * 1990-05-16 1993-11-17 Thames Television Audio delay detector
JP2808884B2 (ja) * 1990-10-31 1998-10-08 松下電器産業株式会社 テレビジョン信号変換装置
JPH0817485B2 (ja) * 1991-01-29 1996-02-21 三洋電機株式会社 Muse音声デコーダ
JPH05191784A (ja) * 1992-01-13 1993-07-30 Pioneer Electron Corp Muse音声デコーダおよびmuse伝送システム
US5287182A (en) * 1992-07-02 1994-02-15 At&T Bell Laboratories Timing recovery for variable bit-rate video on asynchronous transfer mode (ATM) networks
KR0155730B1 (ko) * 1993-03-31 1998-11-16 김광호 뮤트회로 및 방법

Also Published As

Publication number Publication date
EP0683604B1 (en) 2002-07-31
JPH0846884A (ja) 1996-02-16
CA2147013C (en) 2004-12-07
KR100366401B1 (ko) 2003-02-26
DE69527573T2 (de) 2003-01-09
BR9502039A (pt) 1996-01-16
KR950035369A (ko) 1995-12-30
CA2147013A1 (en) 1995-11-18
DE69527573D1 (de) 2002-09-05
PL308615A1 (en) 1995-11-27
TW325632B (en) 1998-01-21
US5467139A (en) 1995-11-14
EP0683604A3 (en) 1998-10-28
RU2150792C1 (ru) 2000-06-10
EP0683604A2 (en) 1995-11-22
MY112618A (en) 2001-07-31
CN1088305C (zh) 2002-07-24
JP3932059B2 (ja) 2007-06-20
CN1116390A (zh) 1996-02-07
RU95107648A (ru) 1997-02-10

Similar Documents

Publication Publication Date Title
PL177313B1 (pl) Urządzenie przetwarzające poddane kompresji sygnały akustyczne i wizyjne w odbiorniku
KR100337212B1 (ko) 디지탈전송시스템내에서의음성신호및영상신호동기화장치
US6583821B1 (en) Synchronizing apparatus for a compressed audio/video signal receiver
JP4208089B2 (ja) データ送信装置および方法
KR100298958B1 (ko) 압축 비디오 신호용 동기화 장치
KR20070105947A (ko) 압축 오디오/비디오 신호 수신기용 동기화 장치 및 방법
JP2002290969A (ja) 同期制御装置
JP2003037574A (ja) ストリーム送信装置および受信装置、ならびに送受信方法

Legal Events

Date Code Title Description
LAPS Decisions on the lapse of the protection rights

Effective date: 20120516