PL174674B1 - Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych - Google Patents

Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych

Info

Publication number
PL174674B1
PL174674B1 PL94305189A PL30518994A PL174674B1 PL 174674 B1 PL174674 B1 PL 174674B1 PL 94305189 A PL94305189 A PL 94305189A PL 30518994 A PL30518994 A PL 30518994A PL 174674 B1 PL174674 B1 PL 174674B1
Authority
PL
Poland
Prior art keywords
audio
video
signal
clock
signals
Prior art date
Application number
PL94305189A
Other languages
English (en)
Other versions
PL305189A1 (en
Inventor
Douglas E. Lankford
Michael S. Deiss
Original Assignee
Thomson Consumer Electronics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Consumer Electronics filed Critical Thomson Consumer Electronics
Publication of PL305189A1 publication Critical patent/PL305189A1/xx
Publication of PL174674B1 publication Critical patent/PL174674B1/pl

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4392Processing of audio elementary streams involving audio buffer management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • H04N5/602Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
    • H04N7/54Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
    • H04N7/56Synchronising systems therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Television Receiver Circuits (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Details Of Television Systems (AREA)
  • Television Systems (AREA)
  • Synchronizing For Television (AREA)
  • Television Signal Processing For Recording (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

1. Urzadzenie do synchronizacji sygnalów akustycz- nych i wizyjnych, dolaczone do ukladu transmisji poddanych kompresji sygnalów akustycznych i wizyjnych ze znacznika- mi czasowymi zwiazanymi z sygnalami zegarowymi ukladu, zawierajace zródlo odzyskiwanych, poddanych kompresji sygnalów akustycznych i wizyjnych, dolaczone do sterow - nika ukladu, do generatora sygnalów zegarowych, do do kompresora sygnalów wizyjnych dla dostarczania wizyjnych znaczników czasowych i do dekompresora sygnalów akustycz- nych dla dostarczania akustycznych znaczników czaso- wych, znamienne tym, ze do wyjscia dekompresora (214) sygnalów wizyjnych jest dolaczone jedno wejscie pierwszego ukladu odejmujacego (217), do którego drugiego wejscia jest dolaczony pierwszy przerzutnik zatrzaskowy (222) dolaczony do generatora (208) sygnalów zegarowych, a do wyjscia dekompresora (212) sygnalów akustycznych jest dolaczone jedno wejscie drugiego ukladu odejmujacego (218), do którego drugiego wejscia jest dolaczony drugi przerzutnik zatrza- skowy (220) dolaczony do generatora (208) sygnalów zega- rowych, a wyjscia obu ukladów odejmujacych sa dolaczone do trzeciego ukladu odejmujacego (219) wartosci znaczników czasowych akustycznych i wizyjnych, dolaczonego do ukladu synchronizacji. FIG. 2 PL PL PL PL

Description

Przedmiotem wynalazku jest urządzenie do synchronizacji sygnałów akustycznych i wizyjnych, zwłaszcza dla cyfrowego systemu łączności.
Nadawanie i odbiór sygnałów akustycznych i wizyjnych wymaga, żeby składowe akustyczne i wizyjne były właściwie zsynchronizowane. Standardy ELA. RS-250-B ograniczają różnicę czasu pomiędzy związanymi ze sobą sygnałami akustycznymi i wizyjnymi do czasu wyprzedzenia 25 ms lub opóźnienia 40 ms, a standardy filmowe ograniczają różnicę czasu związanych ze sobą sygnałów akustycznych i wizy'nych do ±1/2 ramki, co odpowiada 20,8 ms. Dopuszczalnym parametrem docelowym dla źródła synchronizacji sygnałów akustycznych i wizynych odbieranych przez widza jest więc różnica czasu ± 20 ms.
174 674
Cyfrowe systemy łączności zwykle zwielokrotniają w czasie składowe sygnału w pojedynczym kanale, co jest stosowane w układach transmisji sygnałów akustycznych i wizyjnych wykorzystywanych w łączności kablowej, światłowodowej, naziemnej i satelitarnej. Zwielokrotnianie w czasie składowych sygnału może zniszczyć ich normalny związek czasowy pomiędzy nadawaniem i odtwarzaniem informacji, wobec czego korzystne jest, żeby krytyczne składowe czasowe transmitowanych sygnałów składowych zostały związane z odniesieniem czasowym przed operacją zwielokrotniania. To jest nazywane znakowaniem informacji, a próbki taktowania są nazywane znacznikami czasowymi.
Odbiornik musi być ściśle związany z podstawą czasu nadajnika, co jest zapewnione przez to, że wyjście danych jest dopasowane do wejścia odbiornika. Jeżeli odbiornik odtwarza dane zbyt szybko, bufory w odbiorniku mogą wykazywać niedomiar, co powoduje przerwanie sygnału wyjściowego. Jeżeli odbiornik odtwarza dane zbyt wolno, bufory mogą wykazywać nadmiar i zakładając skończoną szybkość buforów, powoduje to utratę danych.
Znany jest system łączności, w którym odbiornik jest synchronizowany z nadajnikiem przez dodatkowe znaczniki czasowe SCR sygnałów zegarowych odniesienia układu, związane z uprzednio określonymi pakietami transmitowanej informacji. Taktowanie zapisu znaczników czasowych SCR sygnałów zegarowych odniesienia układu nie ma żadnego związku z przedstawieniem znaczników czasowych PTS, które są związane z danymi wizyjnymi, innymi niż dostarczane z tego samego licznika. Znaczniki czasowe SCR sygnałów zegarowych odniesienia układu są wytwarzane przez próbkowanie licznika modulo 2n (N > 32), który zlicza sygnał zegarowy o zasadniczo stałej częstotliwości w nadajniku. Odbiornik wykorzystuje pętlę synchronizacji fazowej, która ma częstotliwość spoczynkową zasadniczo równą częstotliwości zegarowej nadajnika. Sygnał zegarowy odbiornika, czyli zegara lokalnego, jest także zliczany modulo 2n i za każdym razem, gdy znacznik czasowy SCR sygnału zegarowego odniesienia układu dochodzi do odbiornika, sygnał licznika lokalnego jest próbkowany w celu dostarczenia znaczników czasowych LCR lokalnych sygnałów zegarowych odniesienia. Nie dokonano żadnych prób uczynienia lokalnego znacznika czasowego LCR równym znacznikowi czasowemu SCR układu. Zamiast tego sygnał zegara lokalnego jest regulowany w oparciu o zmiany przetwarzania różnicy pomiędzy znacznikami czasowymi LCR i SCR. Sygnał błędu ERR jest wytwarzany zgodnie z równaniem:
ERR = (SCRn - SCR,, i) - (LCRn - LCRn-i).
Sygnał błędu ERR jest wykorzystywany do sterowania częstotliwością zegara lokalnego. W wyniku tego procesu lokalny znacznik czasowy LCR staje się dowolnie bliski częstotliwości zegarowej nadajnika. Ponieważ oba zegary, układu i lokalny, zliczają modulo N, mają one przejścia cykliczne. Przy ich wystąpieniu poszczególne wyrażenia SCRn - SCRn-1 oraz LCRn - SCRn-1 będą ujemne i błędne. Układ kontroluje biegunowość poszczególnych różnic i gdy jedna z różnic jest ujemna, jest ona pomijana.
Sygnał wizyjny kodowany zgodnie ze standardem MPEG, czyli standardem kompresji obrazów, wykorzystywanym przy zapisie obrazów wizyjnych, zawiera składowe reprezentujące wizyjne znaczniki PTSvd, które są synchronizowane z wejściowymi ramkami wizyjnymi. Poszczególne wizyjne znaczniki czasowe PTSvid wskazują czasy względne, w których ramki mają być odtwarzane w odbiorniku, z częstotliwością nominalną 30 Hz, przy zastosowaniu sygnału o formacie NTSC. Sygnał akustyczny jest także kodowany przy pomocy akustycznych znaczników czasowych PTSaUd, w oparciu o tę samą podstawę czasu, jak podstawa czasu układu, przy czym te znaczniki czasowe są umieszczone w warstwie pakietów o standardzie MPEG, obejmującej kodowane dane akustyczne. Warstwa pakietów akustycznych układu zawiera na przykład kilka ramek danych akustycznych i poszczególne ramki są w tym przykładzie równe 24 ms pierwotnych danych akustycznych. Ramki akustyczne są w przybliżeniu sześć razy dłuższe od czasu trwania transportowanego pakietu o 127 bajtach. Transmitowana informacja, sygnały akustyczne, wizyjne, dane itd. są dzielone na poszczególne transportowane pakiety o określonych wymiarach, z wieloma różnymi
174 674 słowami sterującymi załączonymi na końcu, w celu dostarczenia dodatkowej warstwy detekcji/korekcji błędu i synchronizacji. Poza tym zgodnie z protokołem standardu MPEG, liczba ramek akustycznych na warstwę w standardzie MPEG jest zmienna. Wobec tego może występować mała albo żadna współzależność pomiędzy prezentowanymi wizyjnymi znacznikami czasowymi PTSvid i akustycznymi znacznikami czasowymi PTSaUd dla sygnałów akustycznych i wizyjnych. Tak więc synchronizacja składowych akustycznych i wizyjnychjest trudna, jeżeli próbuje się dokonać jej przez porównanie wizyjnych znaczników czasowych PTSvd z akustycznymi znacznikami czasowymi PTSaUdZnane są z opisu patentowego USA nr 4 313 135 sposób i urządzenie do zabezpieczania lub przywracania synchronizacji sygnałów akustycznych względem sygnałów wizyjnych. Układ synchronizacji sygnałów akustycznych zawiera detektor opóźnienia do pomiaru opóźnienia sygnałów wizyjnych przez układ przetwarzania sygnałów wizyjnych, taki jak jeden lub więcej układów synchronizacji ramki, oraz do pomiaru zmiennego opóźnienia sygnałów akustycznych, sterowanego przez detektor tak, żeby wyrównać opóźnienia sygnałów wizyjnych i sygnałów akustycznych.
Znane są z opisu patentowego USA nr 4 429 332 sposób i urządzenie do przesyłania poddanej kompresji informacji o częstotliwościach akustycznych, w których ta informacja w okresie dziesięciu sekundjest próbkowana, przetwarzana do postaci cyfrowej i pamiętana w pamięci. Następnie jest ona odczytywana z pamięci wielokrotnie szybciej, na przykład 400 razy szybciej, przetwarzana do postaci analogowej, łączona z telewizyjnymi sygnałami synchronizacji i transmitowana jako ramka sygnału telewizyjnego. Ten sygnał jest odbierany, przetwarzany z postaci analogowej na cyfrową, pamiętany z dużą szybkością i następnie odczytywany z częstotliwością akustyczną, aby odzyskać pierwotną dziesięciosekundową informację o częstotliwości akustycznej.
Znane są z opisu patentowego USA nr 4 703 355 sposób i urządzenie do korekcji synchronizacji sygnałów akustycznych i wizyjnych, w których sygnały te transmituje się i resynchronizuje, przy czym koduje się sygnały synchronizacji akustycznej w sygnale wizyjnym przed transmisją oraz dekoduje się sygnały synchronizacji akustycznej z sygnału wizyjnego po transmisji. Dekodowane sygnały synchronizacji akustycznej są porównywane z sygnałami synchronizacji wytwarzanymi z transmitowanego sygnału akustycznego i jest wytwarzany współczynnik opóźnienia reprezentujący względne opóźnienie pomiędzy transmitowanym sygnałem akustycznym i transmitowanym sygnałem wizyjnym. Zarówno transmitowany sygnał wizyjny, jak i transmitowany sygnał akustyczny są następnie opóźniane o wartość współczynnika opóźnienia dla resynchronizacji dwóch sygnałów.
Znane są z opisu patentowego USA nr 4 851 909 sposób i urządzenie do podtrzymywania synchronizacji sygnałów akustycznych i wizyjnych w sygnale telewizyjnym odczytywanym z cyfrowej pamięci buforowej przez sygnał odniesienia. Zarówno składowa analogowa jak i wizyjna sygnału telewizyjnego są przetwarzane do postaci cyfrowej. Składowa akustyczna jest przetwarzana ze znacznie mniejszą szybkością próbkowania o długości słowa, która jest całkowitą wielokrotnością długości słowa wizyjnego. Cyfrowa składowa akustyczna jest następnie poddawana kompresji przy zastosowaniu pamięci przejściowej i odczytywana z niej z szybkością, która jest połową szybkości próbkowania cyfrowej składowej wizyjnej, po czym długość słowa jest dzielona na połowę i szybkość transmisji słowa podwajana w układzie rejestru przesuwnego. W tej postaci składowa akustyczna jest wprowadzana w okresach wygaszania linii składowej wizyjnej w postaci zgodnej przez multiplekser, którego sygnał wyjściowy jest odczytywany w pojedynczym polu obrazu lub pamięci pełnego obrazu przy sterowaniu generatorem adresu synchronicznie z wejściową składową wizyjną. Pamięć buforowa jest odczytywana z szybkością sterowaną przez sygnał odniesienia, co jest stosowane przy synchronizacji w studiu telewizyjnym. Po stronie wyjściowej cyifrowe składowe wizyjne i akustyczne sygnału telewizyjnego są rozdzielane przez demultiplekser, długość słowa akustycznego jest podwajana i szybkość transmisji słowa jest dzielona na połowę, a jeszcze poddany kompresji sygnał akustyczny rozszerzony, dla udostępnienia zasadniczo ciągłej składowej cyfrowej. Składowa akustyczna jest następnie przetwarzana do postaci analogowej i jest prawidłowo synchronizowana dla występowania
174 674 wraz z cyfrową składową wizyjną przetwarzaną do postaci analogowej na wyjściu demultipleksera. Zapobiega się więc zastosowaniu oddzielnych układów opóźniania sygnałów akustycznych dzięki użyciu stosunkowo prostych układów multipleksowania i układów przetwarzania sygnałów akustycznych.
Znane jest z opisu patentowego USA nr 5 202 761 urządzenie do synchronizacji sygnałów akustycznych mające detektor opóźnienia do dokładnego pomiaru opóźnienia wprowadzanego przez urządzenie wizyjne połączone ze sterowanym, o zmiennym opóźnieniu układem opóźniającym sygnały akustyczne dla dokładnego opóźniania sygnału o częstotliwościach akustycznych o zasadniczo taką samą wartość, jak opóźnienie sygnału akustycznego. Urządzenie działa skutecznie nawet przy opóźnieniach sygnałów wizyjnych przekraczających jedną ramkę, bez wymagania zastosowania pomocniczego układu korelacji. Zmienne opóźnienie sygnałów akustycznych może również obejmować dokładne filtrowanie dla kompensacji niekorzystnych zjawisk wprowadzanych przez opóźnienie.
Znany jest z opisu patentowego USA nr 5 231492 system transmisji z multipleksowaniem sygnałów wizyjnych i akustycznych do multipleksowania, transmisji i odbioru danych obrazu i danych akustycznych, w którym dane obrazu i dane akustyczne są równoważone dla ograniczonej pojemności transmisji tak, żeby otrzymać lepszą całkowitą jakość dla skutecznego wykorzystania zdolności transmisyjnej ośrodka. Zawartości co najmniej jednej danej obrazu i danej akustycznej są wykrywane i wykorzystywane do sterowania zawartością transmisji. Zawartość transmisji jest sterowana przez zmianę danych i dźwięku dla korekcji różnicy pomiędzy szybkością przetwarzania danych obrazu i danych akustycznych, skutkiem czego poprawia się jakość systemu konferencji sygnałów wizyjnych lub podobnego, gdzie zdolność transmisji jest niewystarczająca.
W urządzeniu według wynalazku do wyjścia dekompresora sygnałów wizyjnych jest dołączone jedno wejście pierwszego układu odejmującego, do którego drugiego wejścia jest dołączony pierwszy przerzutnik zatrzaskowy dołączony do generatora sygnałów zegarowych, a do wyjścia dekompresora sygnałów akustycznych jest dołączone jedno wejście drugiego układu odejmującego, do którego drugiego wejścia jest dołączony drugi przerzutnik zatrzaskowy dołączony do generatora sygnałów zegarowych, a wyjścia obu układów odejmujących są dołączone do trzeciego układu odejmującego wartości znaczników czasowych akustycznych i wizyjnych, dołączonego do układu synchronizacji.
Układ synchronizacji zawiera filtr i procesor dołączone do układu podstawy czasu sygnałów akustycznych.
Układ odejmujący ma wejście akustycznych znaczników czasowych i wejście wizyjnych znaczników czasowych oraz wyjście sygnału błędu synchronizacji.
Korzystnie do przerzutnika zatrzaskowego jest dołączony licznik lokalny do zliczania cykli lokalnego sygnału zegarowego.
Korzystnie licznik lokalny jest przystosowany do zliczania modulo N.
Filtr i procesor jest dołączony do dekompresora sygnałów akustycznych dla regulacji przeskakiwania i powtarzania sygnału akustycznego.
Układ podstawy czasu jest dołączony do dekompresora sygnałów akustycznych dla regulacji częstotliwości sygnału zegarowego.
Do filtru i procesora oraz generatora sygnałów zegarowych jest dołączony układ mnożący szybkości przesyłanych danych binarnych.
Zaletą wynalazku jest zapewnienie układu synchronizacji sygnałów akustycznych i wizyjnych, który umożliwia uproszczenie procesu synchronizacji związanego ze składowymi akustycznymi i wizyjnymi.
Przedmiot wynalazku jest uwidoczniony w przykładach wykonania na rysunku, na którym fig. 1 przedstawia znany układ transmisji poddanych kompresji sygnałów akustycznych i wizyjnych w schemacie blokowym, fig. 2 ' - urządzenie odbiorcze z dekompresją sygnałów akustycznych i wizyjnych wraz z układem synchronizacji, według wynalazku, w schemacie blokowym, fig. 3 - układ wytwarzania sygnałów zegarowych odbiornika, w schemacie blokowym, fig. 4 - sieć działań układu z fig. 2 oraz fig. 5 i 6 - inne układy
174 674 wytwarzania sygnałów zegarowych do przetwarzania sygnałów akustycznych, realizowane jako jeden z elementów układu z fig. 2.
Figura 1 przedstawia znany układ transmisji poddanych kompresji cyfrowych sygnałów wizyjnych, dla którego można zastosować układ według wynalazku. Sygnał wizyjny ze źródła 10 sygnałów akustycznych i wizyjnychjest doprowadzany do kompresora 11 sygnałów akustycznych, który zawiera na przykład koder prognozowania kompensowany ruchem, wykorzystujący dyskretne transformanty cosinus. Poddany kompresji sygnał wizyjny z kompresora 11 sygnałów wizyjnych jest doprowadzany do formatera 12. Formater 12 formatuje poddany kompresji sygnał wizyjny i inne pomocnicze dane zgodnie z danym protokołem sygnału, na przykład standardem MPEG określonym przez Międzynarodową Organizację Normalizacji. Standardowy sygnał jest dostarczany do pierwszego procesora transportowego 13, który dzieli sygnał na pakiety danych i dodaje pewne dane organizacyjne dla zapewnienia odporności na szum w trakcie transmisji. Transportowane pakiety, które normalnie mają niejednorodnością szybkość, są dostarczane przez multiplekser 16 do bufora 14 szybkości, który dostarcza dane wyjściowe ze względnie stałą szybkością, właściwą dla skutecznego zastosowania kanału transmisyjnego o stosunkowo wąskim paśmie. Buforowane dane są doprowadzane do modulatora-demodulatora 15, który realizuje transmisję sygnału.
Zegar 22 układu dostarcza sygnał zegarowy do sterowania znaczną częścią układu, zawierającą przynajmniej procesor transportowy 13. Zegar 22 pracuje ze stałą częstotliwością, na przykład 27 MHz. Tutaj jest on zastosowany do wytwarzania informacji taktowania. Zegar 22 jest dołączony do wejścia zegarowego licznika 23, który jest zaprojektowany na przykład do zliczania modulo 2. Zliczane wartości dostarczane na wyjściu przez licznik 23 są doprowadzane do dwóch przerzutników zatrzaskowych 24 i 25. Pierwszy przerzutnik zatrzaskowy 24 jest ustawiany przez źródło 10 sygnałów akustycznych i wizyjnych w celu blokowania zliczanych wartości przy występowaniu poszczególnych przedziałów ramek. Te zliczane wartości oznaczone przez wizyjne znaczniki czasowe PTSVid są wprowadzane do poddanego kompresji strumienia sygnałów wizyjnych przez formater 12 i są wykorzystywane przez odbiornik do zapewniania synchronizacji związanych ze sobą sygnałów akustycznych i wizyjnych. Drugi przerzutnik zatrzaskowy 25 jest ustawiany przez pierwszy procesor transportowy 13 lub sterownik 21 układu w celu blokowania zliczanych wartości zgodnie z określonym planem. Te zliczane wartości są oznaczone przez znaczniki czasowe SCR sygnałów zegarowych odniesienia układu i są umieszczone jako dane pomocnicze w poszczególnych transportowanych pakietach pomocniczych.
Sygnał akustyczny związany z sygnałem wizyjnym ze źródła 10 sygnałów akustycznych i wizyjnych jest doprowadzany do kompresora 18 sygnałów akustycznych. Kompresor 18 sygnałów akustycznych dostarcza impulsy próbkowania ramki, niezależnie od ramek wizyjnych, dla sterowania przerzutnikiem zatrzaskowym 19. W odpowiedzi na impulsy próbkowania, przerzutnik zatrzaskowy 19 odbiera zliczane wartości dostarczane przez licznik 23. Te blokowane wartości odpowiadają akustycznym znacznikom czasowym PTSaud. Akustyczne znaczniki czasowe PTSaud są wprowadzane do poddanego kompresji sygnału akustycznego dostarczanego przez kompresor 18 sygnałów akustycznych. Poddany kompresji sygnał akustyczny jest doprowadzany do drugiego procesora transportowego 17, który dzieli sygnał na pakiety danych i dodaje pewne dane organizacyjne dla zapewnienia odporności na szum w trakcie transmisji. Transportowane pakiety akustyczne dostarczane przez drugi procesor transportowy 17 są doprowadzane do multipleksera 16, który zwielokrotnia z podziałem czasu transportowane pakiety akustyczne i wizyjne. Na figurze są pokazane oddzielne procesory transportowe 13,17 w kanałach przetwarzania sygnałów akustycznych i wizyjnych. W układach, gdzie szybkość danych jest umiarkowana, funkcje dwóch procesorów transportowych 13, 17 i multipleksera 16 można połączyć w pojedynczym procesorze transportowym.
Sterownik 21 układu jest urządzeniem o zmiennym stanie, programowanym dla uzgadniania pracy różnych elementów przetwarzających. Sterownik 21, kompresory 11 i 18, procesory transportowe 13 i 17 i bufor 14 szybkości mogą, lecz nie muszą, pracować
174 674 synchronicznie poprzez wspólny układ zegarowania tak długo, jak jest zapewniona właściwa procedura synchronizacji pomiędzy elementami przetwarzającymi. Oba kompresory 11,18 otrzymują wartości znaczników czasowych PTSvd i PTSaud z tego samego licznika 23, więc w poddanym kompresji sygnale wyjściowym jest zapewniony dokładny związek synchronizacji pomiędzy dwoma sygnałami poddanymi kompresji.
Figura 2 przedstawia przykładowe urządzenie odbiorcze z układem synchronizacji, według wynalazku, w którym modulator-demodulator 200 spełnia odwrotną funkcję niż modulator-demodulator 15 z fig. 1, a bufory 204 i 206 szybkości spełniają odwrotną funkcję niż bufor 14 szybkości z fig. 1. Na fig. 2 jest pokazany pojedynczy inwersyjny procesor transportowy 202, który dzieli poszczególne transportowane pakiety przez obsługę i przydzielenie poszczególnych danych właściwemu kanałowi przetwarzania. Przy tym poszczególne obciążenia użyteczne transportowanego sygnału pakietów są oddzielane od danych pomocniczych i są doprowadzane do właściwego kanału przetwarzania, a dane pomocnicze są doprowadzane do sterownika 210 układu. W innym układzie w każdym kanale przetwarzania jest włączony oddzielny procesor transportowy, który jest przystosowany do rozpoznawania i przetwarzania tylko danych związanych z poszczególnymi kanałami.
Poddane kompresji dane wizyjne z inwersyjnego procesora transportowego 202 są doprowadzane do bufora 204 szybkości, który dostarcza poddany kompresji sygnał wizyjny zgodnie z protokołem układu do dekompresora 214 sygnałów wizyjnych. Bufor 204 szybkości odbiera dane z szybkością impulsową czyli niezgodną i dostarcza dane na żądanie do dekompresora 214 sygnałów wizyjnych, który wytwarza nie poddany kompresji sygnał wizyjny, następnie obrazowany lub pamiętany w urządzeniach obrazowania lub pamięciowych, których nie pokazano na rysunku.
Poddane kompresji dane akustyczne z inwersyjnego procesora transportowego 202 są doprowadzane do bufora 206 szybkości, który dostarcza poddany kompresji sygnał akustyczny zgodnie z protokołem układu do dekompresora 212 sygnałów akustycznych, który wytwarza nie poddany kompresji sygnał akustyczny, następnie odtwarzany lub pamiętany w głośnikach lub urządzeniach pamięciowych, których nie pokazano na rysunku.
Inwersyjny procesor transportowy 202 dostarcza również znaczniki czasowe SCR sygnałów zegarowych odniesienia układu z przesyłanych danych pomocniczych i sygnały sterujące do generatora 208 sygnałów zegarowych, który wytwarza sygnały zegarowe synchronicznie przynajmniej z działaniem procesora transportowego 202. Te sygnały zegarowe są dostarczane do sterownika 210 układu, sterującego synchronizacją układów przetwarzaj ących.
Figura 3 przedstawia szczegółowo układ wytwarzania sygnałów zegarowych odbiornika, zawierający generator 208 sygnałów zegarowych będący regeneratorem. Dane z modulatora-demodulatora 200 odbiornika z fig. 2 są doprowadzane do inwersyjnego procesora transportowego 202' zawierającego detektor 31 pakietów pomocniczych. Inwersyjny procesor transportowy 202' oddziela transportowane dane nagłówka od poszczególnych obciążeń użytkowych transportowanych pakietów. W odpowiedzi na transportowane dane nagłówka, inwersyjny procesor transportowy 202' dostarcza użytkowe sygnały akustyczne i sygnały wizyjne do obciążenia, na przykład do urządzenia dekompresji, którego nie pokazano na rysunku, oraz dane pomocnicze AUX do układów przetwarzania danych pomocniczych, których także nie pokazano na rysunku. Znaczniki czasowe SCR sygnałów zegarowych odniesienia układu, występujące w danych pomocniczych, są zawracane i wprowadzane do pamięci 34.
Detektor 31 pakietów pomocniczych, który jest na przykład dopasowanym filtrem zdolnym do rozpoznawania słów kodu określających transportowany pakiet pomocniczy, zawierający znaczniki czasowe SCR sygnałów zegarowych odniesienia układu, wytwarza impuls sterujący przy występowaniu transportowanych pakietów zawierających takie dane. Impuls sterujący jest wykorzystywany do odbioru i pamiętania w przerzutniku zatrzaskowym 35 wartości zliczenia wykazywanej bieżąco przez licznik lokalny 36 w czasie związanym dokładnie z czasem detekcji. Licznik lokalny 36 jest przystosowany do zliczania impulsów dostarczanych przez generator 37 o sterowanym napięciu. Licznik lokalny 36 jest
174 674 przystosowany do zliczania modulo M, które może być, lecz niekoniecznie, tą samą liczbą, jak w przypadku licznika 23 z fig. 1. Jeżeli M różni się od N, różnica może być wykorzystana w równaniu błędu.
Z toru łączącego przerzutnik zatrzaskowy 35 i licznik lokalny 36 są odprowadzane znaczniki czasowe LCR lokalnych sygnałów zegarowych odniesienia.
Generator 37 o sterowanym napięciujest sterowany przez sygnał błędu odfiltrowany przez filtr dolnoprzepustowy 38. Ten sygnał błędu jest dostarczany przez sterownik 39 sygnałów zegarowych i jest wywarzany w następujący sposób. Niech wartość znaczników czasowych sCr sygnałów zegarowych odniesienia układu, występująca w czasie n, będzie oznaczona SCRn i wartość znaczników czasowych LCR lokalnych sygnałów zegarowych odniesienia, odbierana równocześnie w przerzutniku zatrzaskowym 35, będzie oznaczona LCRn. Sterownik 39 sygnałów zegarowych odczytuje kolejne wartości SCRn i LCRn i wytwarza sygnał błędu E proporcjonalny do różnic:
E => (SCRn - SCRn-1) - (LCRn - LCRn-1).
Sygnał błędu E jest wykorzystywany do ustalania stanu generatora 37 o sterowanym napięciu na częstotliwość dążącą do wyównania różnic. Jak już wspomniano wcześniej, różnice ujemne, wykazywane w związku ze stanem licznika modulo, można pominąć. Sygnał błędu, wywarzany przez sterownik 39 sygnałów zegarowych, występuje na przykład w postaci sygnału o modulowanej szerokości impulsów, który jest przetwarzany w analogowy sygnał błędu w wyniku wyposażenia filtru dolnoprzepustowego 38 w elementy analogowe.
Ograniczeniem tego układu jest to, że liczniki na dwóch końcach układu zliczają tę samą częstotliwość lub nawet jej wielokrotności. Wymaga to, żeby częstotliwość nominalna generatora 37 o sterowanym napięciu była dość bliska częstotliwości zegara 22.
Powyższe rozwiązanie zapewnia szybką synchronizację, lecz może wprowadzić długookresowy błąd LTE proporcjonalny do różnicy:
LTE =» (LCRn - LCR0) - (SCR„ - CSR0), gdzie SCR0 i LCR0 są na przykład pierwszą występującą wartością znacznika czasowego SCR sygnału zegarowego odniesienia i blokowaną wartością licznika odbiornika.
Nominalnie sygnały błędu E i LTE zmieniają się w dyskretnych etapach. Wówczas po zsynchronizowaniu układu, sygnał błędu waha się o jedną jednostkę wokół punktu zerowego. Korzystnym symbolem synchronizacji jest zapoczątkowanie sterowania generatora 37 o sterowanym napięciu przy użyciu sygnału błędu E, aż do momentu, gdy w sygnale błędu E wystąpi jednostkowe wahnięcie, a następnie przełączenie na użycie długookresowego sygnału błędu LTE do sterowania generatorem 37 o sterowanym napięciu.
Sygnał zegarowy układu, dostarczany przez generator 37 o sterowanym napięciu, jest wykorzystywany do uruchamiania przynajmniej procesora transportowego i buforów szybkości. Ponieważ jest on synchronizowany przynajmniej częstotliwościowo z zegarem 22, zasadniczo nie istnieje możliwość wystąpienia nadmiaru lub niedomiaru bufora szybkości w związku z błędami taktowania zegarowego.
Powracając do fig. 2, w celu wyjaśnienia synchronizacji sygnałów akustycznych i wizyjnych, należy odwołać się do tego, że prezentowany wizyjny znacznik czasowy PTSwd jest zawarty w poddanym kompresji sygnale wizyjnym związanym z określonymi danymi wizyjnymi. Wizyjny znacznik czasowy PTSvd wskazuje względny czas, w którym ma być obrazowany sygnał wizyjny. Podobnie poddany kompresji sygnał akustyczny zawiera prezentowane akustyczne znaczniki czasowe PTSand związane z sygnałem akustycznym odtwarzanym w czasach związanych z poszczególnymi akustycznymi znacznikami czasowymi PTS„ud. W odbiorniku znaczniki czasowe PTSaud i PTSvd nie mogą być porównywane bezpośrednio, aby zapewnić synchronizację akustyczną i wizyjną, ponieważ poszczególne próbki zostały określone w różnych chwilach. Poszczególne wartości znaczników czasowych PTSa„d i PTSvd są porównywane z ciągłą podstawą czasu sygnału zegarowego odbiornika, dostarczanego przez generator 37 o sterowanym napięciu. Jest to
174 674 realizowane przez próbkowanie znaczników czasowych LCR lokalnego sygnału zegarowego odniesienia.
Wówczas gdy jest prezentowana dana związana ze znacznikiem czasowym PTSaud lub PTSvid, próbkowany jest znacznik czasowy LCR lokalnego sygnału zegarowego odniesienia. Na przykład dekompresor 212 sygnałów akustycznych wysyła akustyczne znaczniki czasowe PTSaud, gdy na wyjściu występuje ramka akustyczna przeznaczona do odtworzenia. W tych czasach sygnał sterujący ustala stan przerzutnika zatrzaskowego 220 w celu próbkowania znacznika czasowego LCR lokalnego sygnału zegarowego odniesienia o wartościach LAS dla lokalnego akustycznego znacznika czasowego. Podobnie, gdy dekompresor 214 sygnałów wizyjnych dostarcza ramkę wizyjną dla obrazowania, dostarcza on wizyjny znacznik czasowy PTSvid i impuls sterujący dla ustalania stanu przerzutnika zatrzaskowego 222 w celu zapamiętania bieżącej wartości LVS znacznika czasowego LCR lokalnego sygnału zegarowego odniesienia dla lokalnych wizyjnych znaczników czasowych.
Wartości LAS i odpowiednie wartości znaczników czasowych PTSaud są doprowadzane do poszczególnych końcówek wejściowych układu odejmującego 218, który otrzymuje sygnał Δα-pts zgodnie z równaniem:
Δα-PTS = PTSaud - LAS
Wartości LVS i odpowiednie wartości znaczników czasowych PTSvd są doprowadzone do poszczególnych końcówek wejściowych.układu odejmującego 217, który otrzymuje sygnał Δν-pTs zgodnie z równaniem:
Δυ-pts = PTSvid - LVS
Sygnały Δν-p-rs i Δα-pts są doprowadzane do poszczególnych końcówek wejściowych następnego układu odejmującego 219, który otrzymuje sygnał błędu synchronizacji ERRpts dla sygnałów akustycznych i wizyjnych zgodnie z równaniem:
ERRpts — Δυ-pts - Δα-pts
Synchronizacja sygnałów akustycznych i wizyjnych wymaga, żeby błąd synchronizacji sygnałów akustycznych i wizyjnych był sprowadzany do zera. To oznacza, że gdy różnica wartości znaczników czasowych PTSaud i PTSvid sygnałów akustycznych i wizyjnych jest równa w czasie, w jednostkach lokalnego odniesienia, pomiędzy wystąpieniem odpowiednich wartości znaczników czasowych PTSaud i PTSvid, sygnał akustyczny i wizyjny będzie synchroniczny.
Można zastosować dwa mechanizmy regulacji synchronizacji sygnałów akustycznych i wizyjnych w oparciu o sygnał błędu ERRpts, mianowicie przeskakiwanie i powtarzanie sekcji danych oraz przetwarzanie odchylenia sygnału zegarowego. Przeskakiwanie ustalonych przedziałów, czyli ramek sygnałów akustycznych, powoduje wyprzedzenie strumienia danych akustycznych o ustalony przedział względem sygnału wizyjnego. Powtarzanie, czyli tłumienie bez zużywania danych, opóźnia strumień danych akustycznych o ustalone przedziały względem sygnału wizyjnego. Przeskakiwanie i powtarzanie ramek akustycznych jest w wielu warunkach słyszalne, a zatem jest wykorzystywane tylko do zgrubnej regulacji synchronizacji. Nawet krótkie przeskakiwanie lub powtarzanie może być korzystne do usuwania błędów synchronizacji sygnałów akustycznych i wizyjnych. Jeżeli ramki akustyczne są krótsze niż 40 ms, regulacja zgrubna przez przeskakiwanie i powtarzanie może powodować błędy synchronizacji w zakresie ± 20 ms, co mieści się w zakresie standardów przemysłowych dla synchronizacji sygnałów akustycznych i wizyjnych. Jednak ta synchronizacja pogorszy się, jeżeli podstawa czasu dla przetwarzania sygnałów akustycznych nie jest dopasowana do podstawy czasu źródła sygnałów. Po regulacji zgrubnej synchronizacji są wprowadzane zmiany częstotliwości zegarowej dla przetwarzania sygnałów akustycznych w celu dokładnego określenia synchronizacji sygnałów akustycznych i wizyjnych.
174 674
Sygnał błędu ERRpts jest dostarczany do filtru i procesora 216. Funkcja filtrowania powoduje wygładzenie sygnału błędu ERRpts w celu zmniejszenia do minimum skutków odchyleń, które inaczej mogłyby być wytwarzane przez sygnał szumu. Funkcja przetwarzania realizowana w filtrze i procesorze 216 umożliwia wówczas badanie wygładzonego sygnału błędu i określa, czy przeskakiwanie i powtarzanie sygnału akustycznego powinno być wykorzystane do spowodowania synchronizacji zgrubnej sygnałów akustycznych i wizyjnych i/lub czy regulacja częstotliwości przetwarzania sygnałów akustycznych powinna być wykorzystana do spowodowania dokładnej synchronizacji. Jeżeli zgrubna regulacja synchronizacji jest uważana za konieczną, filtr i procesor 216 dostarcza sygnał sterujący do dekompresora 212 sygnałów akustycznych w celu ustalenia stanu dekompresora na przeskakiwanie lub powtarzanie bieżącej ramki sygnału akustycznego poddawanego dekompresji. W innym przypadku lub w uzupełnieniu do regulacji zgrubnej, jeżeli regulacja dokładna jest uważana za konieczną, procesor 216 dostarcza sygnał sterujący do układu podstawy czasu 215 sygnałów akustycznych w celu regulacji częstotliwości sygnału zegarowego dla przetwarzania sygnałów akustycznych.
Figura 4 przedstawia sieć działań dla układu z fig. 2, podając szczegółowo algorytm przetwarzania. Po uruchomieniu urządzenia, co oznaczono przez start w kroku 400, w kroku 401 układ kontroluje nową ramkę akustyczną w dekompresorze sygnałów akustycznych, ze względu na wystąpienie akustycznego znacznika czasowego PTSa„d i jeżeli akustyczny znacznik czasowy PTSaud jest wykrywany, w kroku 403 następuje jego odczyt oraz odbiór i zapis wartości LAS lokalnego sygnału zegarowego odniesienia. Jeżeli akustyczny znacznik czasowy PTSaud nie wystąpił, w kroku 402 układ kontroluje nową ramkę wizyjną w kompresorze sygnałów wizyjnych, ze względu na wystąpienie wizyjnego znacznika czasowego PTSvid. Jeżeli wizyjny znacznik czasowy PTSvid wystąpił w kroku 404, następuje odczyt tego wizyjnego znacznika czasowego PTSVid oraz odbiór i zapamiętanie wartości LVS lokalnego sygnału zegarowego odniesienia. Wówczas, gdy oba znaczniki czasowe PTSaud i PTSVid zostały odczytane, w kroku 405 następuje obliczenie wartości sygnału błędu ERRpts zgodnie z równaniem:
ERRpts = Δψ-ptre - Δα-pts
Wartość sygnału błędu ERRpts jest badana w kroku 406 w celu określenia, czy jest ona większa od połowy przedziału ramki sygnału wizyjnego. Jeżeli jest ona większa od połowy przedziału ramki sygnału akustycznego, w kroku 407 sygnał błędu ERRpts jest sprawdzany ze względu na biegunowość. Jeżeli biegunowość jest dodatnia, w kroku 409 następuje powtórzenie bieżącej ramki akustycznej. Jeżeli jest ona ujemna, w kroku 408 następuje przeskoczenie bieżącej ramki akustycznej. Po przeskoczeniu lub powtórzeniu ramki, układ powraca do położenia startowego w celu oczekiwania na następne wyi^itąpienie znacznika czasowego PTS.
Po kroku 406, jeżeli wartość sygnału błędu jest mniejsza niż połowa przedziału ramki akustycznej, w kroku 410 błąd jest badany w celu określenia, czy wartość sygnału błędu ERRpts jest większa od zera. Jeżeli wartość tego błędu jest większa od zera, w kroku 412 następuje sprawdzenie, czy wartość sygnału błędu ERRpts jest mniejsza od poprzedniej wartości sygnału błędu. Jeżeli jest ona mniejsza od poprzedniej wartości sygnału błędu, oznacza to, że układ zbliża się do synchronizacji i parametry sterujące synchronizacją nie są zmienione. Układ powraca do położenia startowego w celu oczekiwania na następne znaczniki czasowe PTS. Odwrotnie, jeżeli błąd wzrósł ponad poprzedni sygnał błędu, w kroku 414 zegar przetwarzający sygnały akustyczne jest regulowany w celu zmniejszenia jego częstotliwości.
Po kroku 410, jeżeli błąd jest mniejszy niż zero czyli ujemny, w kroku 411 jest sprawdzany w celu określenia, czy wartość sygnału błędu ERRpts jest większa od poprzedniej wartości sygnału błędu. Jeżeli jest ona większa od poprzedniego sygnału błędu, oznacza to także, że układ zbliża się do synchronizacji i parametry sterujące synchronizacją nie są zmienione. Odmiennie, jeżeli bieżący sygnał błędu jest mniejszy od poprzedniego sygnału błędu, w kroku 413 układ oddala się nadal od synchronizacji i częstotliwość zegarowa dla przetwarzania sygnałów akustycznych jest zwiększana. Po krokach 412 i 413 układ powraca do stanu oczekiwania na następne wystąpienie znaczników czasowych PTS. W tym przykładzie układ realizuje tylko regulacje zgrubne przez przeskakiwanie i powtarzanie ramek akustycznych, aż błąd synchronizacji sygnałów akustycznych i wizyjnych zostanie zmniejszony do wartości mniejszej niż połowa przedziału ramki akustycznej.
W innym przykładzie wykonania odfiltrowany sygnał błędu jest porównywany z określonym poziomem progowym związanym z wymiarem poszczególnych ramek akustycznych. Jeżeli sygnał błędu jest mniejszy niż poziom progowy, wskazując, że błąd taktowania sygnałów akustycznych i wizyjnych jest mniejszy niż ramka akustyczna, sygnał błędu jest doprowadzany do układu podstawy czasu 215 sygnałów akustycznych, gdzie jest wykorzystywany do regulacji częstotliwości zegara przetwarzającego i poddającego dekompresji sygnał akustyczny. Odwrotnie, jeżeli sygnał błędu jest większy niż poziom progowy, sygnał błędu może być podzielony na przedział ramki akustycznej w celu określenia liczby ramek akustycznych, o które sygnał akustyczny jest przesunięty względem sygnału wizyjnego. Część całkowita ilorazu jest doprowadzana do dekompresora sygnałów akustycznych, aby wprowadzić dekompresor sygnałów akustycznych w stan przeskakiwania lub powtarzania tej liczby ramek akustycznych. Biegunowość sygnału błędu będzie określać, czy ramki akustyczne powinny podlegać przeskokowi lub powtórzeniu. Nominalnie dane poddane dekompresji są wprowadzane do pamięci buforowej przed wystąpieniem na wyjściu, więc przeskakiwanie, lub powtarzanie ramek akustycznych jest proste do sterowania, umożliwiając wykonywanie rozkazów odczytu i zapisu pamięci.
Część ilorazu jest doprowadzana do układu podstawy czasu 215 sygnałów akustycznych, gdzie jest wykorzystywana do regulacji zegara przetwarzającego sygnały akustyczne w celu dokładnej synchronizacji sygnałów akustycznych i wizyjnych.
Szybkość wytwarzania akustycznych znaczników czasowych PTSaud jest proporcjonalna do szybkości przetwarzania przez dekompresor sygnałów akustycznych. Szybkość przetwarzania przez dekompresor sygnałów akustycznych jest wprost proporcjonalna do częstotliwości sygnału zegarowego stosowanego do uruchomienia dekompresora sygnałów akustycznych. Jeżeli częstotliwość zegarowa dekompresora sygnałów akustycznych jest niezależna od zegara zastosowanego do uruchomienia dekompresora sygnałów wizyjnych oraz jest dokładnie regulowana, wtedy względna szybkość występowania akustycznych i wizyjnych znaczników czasowych PTS może być regulowana, a sygnały akustyczne i wizyjne dokładnie synchronizowane.
Figura 5 przedstawia pierwszy przykład wykonania układu wytwarzania regulowanego sygnału zegarowego do przetwarzania sygnałów akustycznych. Na fig. 5 generator 503 o sterowanym napięciu jest włączony w pętli synchronizacji fazowej zawierającej detektor fazowy 50θ i filtr dolnoprzepustowy 501. Wyjście generatora 503 o sterowanym napięciu jest dołączone do jednego wejścia detektora fazowego 500. Generator 208 sygnałów zegarowych układu jest dołączony do drugiego wejścia detektora fazowego 500 poprzez układ mnożący 505 szybkości przesyłania danych binarnych. Sygnał błędu fazy, otrzymywany przez detektor fazowy 500, jest filtrowany przez filtr dolnoprzepustowy 501. Wygładzony sygnał błędu fazy jest doprowadzony do wejściowej końcówki sterującej generatora 503 o sterowanym napięciu w celu wprowadzania go w stan drgań o takiej samej częstotliwości i fazie jak sygnał wyjściowy układu mnożącego 505 szybkości przesyłania danych binarnych. W tym przykładzie częstotliwość zegarowa układu wynosi w przybliżeniu 27 MHz i wymagana częstotliwość zegarowa dla przetwarzania sygnałów akustycznych wynosi w przybliżeniu 1/380 częstotliwości sygnału zegarowego o 27 MHz. Sygnał sterujący z procesora 216 jest doprowadzony do wejściowej końcówki sterującej układu mnożącego 505 szybkości przesyłania danych binarnych w celu sterowania jego częstotliwością wyjściową. Ten sygnał sterujący jest wybrany w celu reprezentowania nominalnego współczynnika podziału 1/380, przy czym jest modulowany wokół tej wartości tak, żeby ustalać stan wyjścia układu mnożącego 505 szybkości przesyłania danych binarnych w celu wytwarzania
174 674 częstotliwości wyjściowej proporcjonalnej do chwilowej, wymaganej szybkości przetwarzania sygnałów akustycznych.
Figura 6 przedstawia drugi przykład wykonania układu wytwarzania regulowanego sygnału zegarowego do przetwarzania sygnałów akustycznych. W tym przykładzie stała częstotliwość zegarowa z generatora 208 sygnałów zegarowych lub innego stabilnego generatora jest doprowadzana do jednego wejścia układu mnożącego 600 szybkości przesyłania danych binarnych, który jest sterowany przez sygnał sterujący z procesora 216 w celu wytwarzania nominalnej, wymaganej częstotliwości zegarowej dla przetwarzania sygnałów akustycznych. W odpowiedzi na sygnał błędu procesor 216 zmienia sygnał sterujący w celu ustalenia stanu układu mnożącego 600 szybkości przesyłania danych binarnych, albo zwiększającego albo zmniejszającego nominalną częstotliwość zegarową dla przetwarzania sygnałów akustycznych.
W następnym przykładzie wykonania układ wytwarzania regulowanego, sygnału zegarowego do przetwarzania sygnałów akustycznych, którego nie pokazano na rysunku, zawiera generator do dostarczania nominalnej, maksymalnej częstotliwości zegarowej dla przetwarzania sygnałów akustycznych, oraz obwód bramkujący. Generator jest dołączony do obwodu przetwarzającego sygnały akustyczne przez obwód bramkujący. Obwód bramkujący jest sterowany przez procesor 216 w celu usunięcia niektórych impulsów wyjściowych generatora, aby zapewnić wymaganą średnią częstotliwość zegarową dla przetwarzania sygnałów akustycznych.
W innym przykładzie wykonania układ synchronizacji z połączeniem, oznaczonym kreskowaną strzałką na fig. 2, może być przystosowany do przeskakiwania lub powtarzania ramek wizyjnych dla uzyskania synchronizacji. Można przeskakiwać ramki wizyjne w celu wyprzedzania lub opóźniania sygnałów wizyjnych przez sygnały akustyczne i można przeskakiwać ramki akustyczne w celu opóźniania lub wyprzedzania sygnałów wizynych przez sygnały akustyczne. Jednak w korzystnym przykładzie wykonania ramki akustyczne są przeskakiwane i powtarzane dla opóźniania i wyprzedzania sygnałów wizyjnych przez sygnały akustyczne.
174 674
174 674
FIG. 2
174 674
210
k38
ΧΓ'
SYGNAŁY
^.AKUSTYCZNE κ SYGNAŁY ''WIZYJNE y aux
FIG. 3
174 674
FIG. 4
174 674
216
216
Departament Wydawnictw UP RP. Nakład 90 egz. Cena 4,00 zł

Claims (8)

  1. Zastrzeżenia patentowe
    1. Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych, dołączone do układu transmisji poddanych kompresji sygnałów akustycznych i wizyjnych ze znacznikami czasowymi związanymi z sygnałami zegarowymi układu, zawierające źródło odzyskiwanych, poddanych kompresji sygnałów akustycznych i wizyjnych, dołączone do sterownika układu, do generatora sygnałów zegarowych, do dekompresora sygnałów wizyjnych dla dostarczania wizyjnych znaczników czasowych i do dekompresora sygnałów akustycznych dla dostarczania akustycznych znaczników czasowych, znamienne tym, że do wyjścia dekompresora (214) sygnałów wizyjnych jest dołączone jedno wejście pierwszego układu odejmującego (217), do którego drugiego wejścia jest dołączony pierwszy przerzutnik zatrzaskowy (222) dołączony do generatora (208) sygnałów zegarowych, a do wyjścia dekompresora (212) sygnałów akustycznych jest dołączone jedno wejście drugiego układu odejmującego (218), do którego drugiego wejścia jest dołączony drugi przerzutnik zatrzaskowy (220) dołączony do generatora (208) sygnałów zegarowych, a wyjścia obu układów odejmujących są dołączone do trzeciego układu odejmującego (219) wartości znaczników czasowych akustycznych i wizyjnych, dołączonego do układu synchronizacji.
  2. 2. Urządzenie według zastrz. 1, znamienne tym, że układ synchronizacji zawiera filtr i procesor (216) dołączone do układu podstawy czasu (215) sygnałów akustycznych.
  3. 3. Urządzenie według zastrz. 1, znamienne tym, że układ odejmujący (219) ma wejście akustycznych znaczników czasowych (PTSaIJd) i wejście wizyjnych znaczników czasowych (PTSVid) oraz wyjście sygnału błędu synchronizacji.
  4. 4. Urządzenie według zastrz. 1, znamienne tym, że do przerzutnika zatrzaskowego (220) jest dołączony licznik lokalny (36) do zliczania cykli lokalnego sygnału zegarowego.
  5. 5. Urządzenie według zastrz. 4, znamienne tym, że licznik lokalny (36) jest przystosowany do zliczania modulo N.
  6. 6. Urządzenie według zastrz. 2, znamienne tym, że filtr i procesor (216) jest dołączony do dekompresora (212) sygnałów akustycznych dla regulacji przeskakiwania i powtarzania sygnału akustycznego.
  7. 7. Urządzenie według zastrz. 2, znamienne tym, że układ podstawy czasu (215) jest dołączony do dekompresora (212) sygnałów akustycznych dla regulacji częstotliwości sygnału zegarowego.
  8. 8. Urządzenie według zastrz. 6, znamienne tym, że do filtru i procesora (216) oraz generatora (208) sygnałów zegarowych jest dołączony układ mnożący (505) szybkości przesyłanych danych binarnych.
PL94305189A 1993-09-30 1994-09-26 Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych PL174674B1 (pl)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/129,974 US5430485A (en) 1993-09-30 1993-09-30 Audio/video synchronization in a digital transmission system

Publications (2)

Publication Number Publication Date
PL305189A1 PL305189A1 (en) 1995-04-03
PL174674B1 true PL174674B1 (pl) 1998-08-31

Family

ID=22442450

Family Applications (1)

Application Number Title Priority Date Filing Date
PL94305189A PL174674B1 (pl) 1993-09-30 1994-09-26 Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych

Country Status (15)

Country Link
US (1) US5430485A (pl)
EP (1) EP0648056B1 (pl)
JP (4) JP3633972B2 (pl)
KR (1) KR100337212B1 (pl)
CN (1) CN1053308C (pl)
AU (1) AU684520B2 (pl)
CA (1) CA2132186C (pl)
DE (1) DE69417139T2 (pl)
ES (1) ES2131139T3 (pl)
FI (1) FI112144B (pl)
MY (1) MY111711A (pl)
PL (1) PL174674B1 (pl)
RU (1) RU2142210C1 (pl)
SG (1) SG70960A1 (pl)
TR (1) TR28210A (pl)

Families Citing this family (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7382929B2 (en) 1989-05-22 2008-06-03 Pixel Instruments Corporation Spatial scan replication circuit
US5878273A (en) 1993-06-24 1999-03-02 Discovision Associates System for microprogrammable state machine in video parser disabling portion of processing stages responsive to sequence-- end token generating by token generator responsive to received data
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system
US5612981A (en) * 1994-02-15 1997-03-18 Philips Electronics North America Corporation Apparatus and methods for improving timing recovery of a system clock
JP3197766B2 (ja) * 1994-02-17 2001-08-13 三洋電機株式会社 Mpegオーディオデコーダ、mpegビデオデコーダおよびmpegシステムデコーダ
US5566174A (en) * 1994-04-08 1996-10-15 Philips Electronics North America Corporation MPEG information signal conversion system
US5521979A (en) * 1994-04-22 1996-05-28 Thomson Consumer Electronics, Inc. Packet video signal inverse transport system
US5642171A (en) * 1994-06-08 1997-06-24 Dell Usa, L.P. Method and apparatus for synchronizing audio and video data streams in a multimedia system
US5734432A (en) * 1994-07-15 1998-03-31 Lucent Technologies, Inc. Method of incorporating a variable rate auxiliary data stream with a variable rate primary data stream
US5603016A (en) * 1994-08-03 1997-02-11 Intel Corporation Method for synchronizing playback of an audio track to a video track
GB9512068D0 (en) * 1995-06-14 1995-08-09 Thomson Consumer Electronics Bus and interface system for consumer digital equipment
US6236694B1 (en) * 1994-08-19 2001-05-22 Thomson Licensing S.A. Bus and interface system for consumer digital equipment
US5598352A (en) * 1994-09-30 1997-01-28 Cirrus Logic, Inc. Method and apparatus for audio and video synchronizing in MPEG playback systems
US5594660A (en) * 1994-09-30 1997-01-14 Cirrus Logic, Inc. Programmable audio-video synchronization method and apparatus for multimedia systems
US5920842A (en) * 1994-10-12 1999-07-06 Pixel Instruments Signal synchronization
US5771075A (en) * 1994-12-08 1998-06-23 Lg Electronics Inc. Audio/video synchronizer
US5588029A (en) * 1995-01-20 1996-12-24 Lsi Logic Corporation MPEG audio synchronization system using subframe skip and repeat
US5905768A (en) * 1994-12-13 1999-05-18 Lsi Logic Corporation MPEG audio synchronization system using subframe skip and repeat
IT1268195B1 (it) * 1994-12-23 1997-02-21 Sip Decodificatore per segnali audio appartenenti a sequenze audiovisive compresse e codificate.
US5543853A (en) * 1995-01-19 1996-08-06 At&T Corp. Encoder/decoder buffer control for variable bit-rate channel
US5621772A (en) * 1995-01-20 1997-04-15 Lsi Logic Corporation Hysteretic synchronization system for MPEG audio frame decoder
US5751694A (en) * 1995-05-22 1998-05-12 Sony Corporation Methods and apparatus for synchronizing temporally related data streams
US6119213A (en) * 1995-06-07 2000-09-12 Discovision Associates Method for addressing data having variable data width using a fixed number of bits for address and width defining fields
US5920572A (en) * 1995-06-30 1999-07-06 Divicom Inc. Transport stream decoder/demultiplexer for hierarchically organized audio-video streams
US6058141A (en) * 1995-09-28 2000-05-02 Digital Bitcasting Corporation Varied frame rate video
JPH09149411A (ja) * 1995-11-24 1997-06-06 Ekushingu:Kk 復号化装置
US6836295B1 (en) 1995-12-07 2004-12-28 J. Carl Cooper Audio to video timing measurement for MPEG type television systems
US5784572A (en) * 1995-12-29 1998-07-21 Lsi Logic Corporation Method and apparatus for compressing video and voice signals according to different standards
US5835493A (en) * 1996-01-02 1998-11-10 Divicom, Inc. MPEG transport stream remultiplexer
US5828414A (en) * 1996-02-23 1998-10-27 Divicom, Inc. Reduction of timing jitter in audio-video transport streams
US5875354A (en) * 1996-03-01 1999-02-23 Apple Computer, Inc. System for synchronization by modifying the rate of conversion by difference of rate between first clock and audio clock during a second time period
US6233256B1 (en) * 1996-03-13 2001-05-15 Sarnoff Corporation Method and apparatus for analyzing and monitoring packet streams
JPH09266460A (ja) * 1996-03-28 1997-10-07 Sony Corp 送受信システム
US5878039A (en) * 1996-04-24 1999-03-02 Nec America, Inc. Bus rate adaptation and time slot assignment circuit for a sonet multiplex system
US6181383B1 (en) 1996-05-29 2001-01-30 Sarnoff Corporation Method and apparatus for preserving synchronization of audio and video presentation when splicing transport streams
JP3418065B2 (ja) * 1996-06-26 2003-06-16 三菱電機株式会社 光ディスク
DE69719828T2 (de) * 1996-07-05 2003-12-24 Matsushita Electric Ind Co Ltd Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Videoobjektebenen
JP3063824B2 (ja) * 1996-10-29 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置
EP2175666B1 (en) 1996-12-04 2012-11-14 Panasonic Corporation Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus
JP3454653B2 (ja) * 1996-12-27 2003-10-06 矢崎総業株式会社 データ送信装置、データ受信装置、データ通信装置、及びデータ通信方法
ATE331390T1 (de) * 1997-02-14 2006-07-15 Univ Columbia Objektbasiertes audiovisuelles endgerät und entsprechende bitstromstruktur
EP0880246A3 (en) 1997-05-15 1999-12-01 Matsushita Electric Industrial Co., Ltd. Compressed code decoding device and audio decoding device
GB2326781B (en) * 1997-05-30 2001-10-10 British Broadcasting Corp Video and audio signal processing
US6310918B1 (en) 1997-07-31 2001-10-30 Lsi Logic Corporation System and method for motion vector extraction and computation meeting 2-frame store and letterboxing requirements
US6122316A (en) * 1997-07-31 2000-09-19 Lsi Logic Corporation MPEG decoding system meeting 2-frame store and letterboxing requirements
US6236681B1 (en) 1997-07-31 2001-05-22 Lsi Logic Corporation Method for decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements
US6266091B1 (en) 1997-07-31 2001-07-24 Lsi Logic Corporation System and method for low delay mode operation video decoding
US6289053B1 (en) 1997-07-31 2001-09-11 Lsi Logic Corporation Architecture for decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements
US6101221A (en) * 1997-07-31 2000-08-08 Lsi Logic Corporation Video bitstream symbol extractor for use in decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements
KR100257070B1 (ko) * 1997-08-14 2000-05-15 김영환 박막트랜지스터 및 이의 제조방법
KR100436676B1 (ko) * 1997-09-04 2004-06-22 실리콘 이미지, 인크.(델라웨어주 법인) 고속, 동기된 데이터 통신을 위한 시스템 및 방법
JP3063838B2 (ja) * 1997-10-02 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置および方法
US5899969A (en) * 1997-10-17 1999-05-04 Dolby Laboratories Licensing Corporation Frame-based audio coding with gain-control words
KR100301826B1 (ko) * 1997-12-29 2001-10-27 구자홍 비디오디코더
KR19990061872A (ko) * 1997-12-31 1999-07-26 서평원 에스티비에서 비디오데이터 전송제어시스템
US6292490B1 (en) 1998-01-14 2001-09-18 Skystream Corporation Receipts and dispatch timing of transport packets in a video program bearing stream remultiplexer
US6351471B1 (en) 1998-01-14 2002-02-26 Skystream Networks Inc. Brandwidth optimization of video program bearing transport streams
US6246701B1 (en) 1998-01-14 2001-06-12 Skystream Corporation Reference time clock locking in a remultiplexer for video program bearing transport streams
US6351474B1 (en) * 1998-01-14 2002-02-26 Skystream Networks Inc. Network distributed remultiplexer for video program bearing transport streams
US6195368B1 (en) 1998-01-14 2001-02-27 Skystream Corporation Re-timing of video program bearing streams transmitted by an asynchronous communication link
US7199836B1 (en) * 1998-02-13 2007-04-03 The Trustees Of Columbia University In The City Of New York Object-based audio-visual terminal and bitstream structure
US6081299A (en) 1998-02-20 2000-06-27 International Business Machines Corporation Methods and systems for encoding real time multimedia data
US6249319B1 (en) * 1998-03-30 2001-06-19 International Business Machines Corporation Method and apparatus for finding a correct synchronization point within a data stream
GB9807295D0 (en) * 1998-04-03 1998-06-03 Snell & Wilcox Ltd Improvements relating to audio-video delay
SE517547C2 (sv) 1998-06-08 2002-06-18 Ericsson Telefon Ab L M Signalsynkronisering vid signalkvalitetsmätning
US6016166A (en) * 1998-08-31 2000-01-18 Lucent Technologies Inc. Method and apparatus for adaptive synchronization of digital video and audio playback in a multimedia playback system
JP2000092348A (ja) 1998-09-10 2000-03-31 Mitsubishi Electric Corp フレームシンクロナイザ
WO2000064145A1 (en) * 1999-04-20 2000-10-26 Alexandr Vitalievich Kitaev Video camera
EP1496654B1 (en) * 1999-05-25 2006-07-12 Lucent Technologies Inc. Method for telecommunications using internet protocol
US6583821B1 (en) * 1999-07-16 2003-06-24 Thomson Licensing S.A. Synchronizing apparatus for a compressed audio/video signal receiver
CA2313979C (en) * 1999-07-21 2012-06-12 Thomson Licensing Sa Synchronizing apparatus for a compressed audio/video signal receiver
KR100644562B1 (ko) * 1999-08-20 2006-11-13 삼성전자주식회사 오디오/비디오 신호 동기 장치 및 그 방법
GB0000874D0 (en) 2000-01-14 2000-03-08 Koninkl Philips Electronics Nv Latency handling for interconnected devices
WO2002015591A1 (en) * 2000-08-16 2002-02-21 Koninklijke Philips Electronics N.V. Method of playing multimedia data
US20020089602A1 (en) * 2000-10-18 2002-07-11 Sullivan Gary J. Compressed timing indicators for media samples
FR2815805B1 (fr) * 2000-10-23 2005-09-02 Telediffusion De France Tdf Procede de synchronisation de signaux numeriques
US20020159552A1 (en) * 2000-11-22 2002-10-31 Yeshik Shin Method and system for plesiosynchronous communications with null insertion and removal
US20020077117A1 (en) * 2000-12-15 2002-06-20 Jocelyn Cloutier Synchronous transmission of data with network remote control
US7030930B2 (en) * 2001-03-06 2006-04-18 Ati Technologies, Inc. System for digitized audio stream synchronization and method thereof
JP2002290932A (ja) 2001-03-27 2002-10-04 Toshiba Corp デジタル放送受信装置とその制御方法
EP1433317B1 (en) * 2001-07-19 2007-05-02 Thomson Licensing Fade resistant digital transmission and reception system
JP3591493B2 (ja) * 2001-07-25 2004-11-17 ソニー株式会社 ネットワークシステム、およびネットワークシステムの同期方法
US8880709B2 (en) * 2001-09-12 2014-11-04 Ericsson Television Inc. Method and system for scheduled streaming of best effort data
KR100831213B1 (ko) * 2001-09-17 2008-05-21 엘지전자 주식회사 음성 데이터와 영상 데이터의 재생 동기화 장치 및 방법
US7269338B2 (en) * 2001-12-11 2007-09-11 Koninklijke Philips Electronics N.V. Apparatus and method for synchronizing presentation from bit streams based on their content
US7283566B2 (en) * 2002-06-14 2007-10-16 Silicon Image, Inc. Method and circuit for generating time stamp data from an embedded-clock audio data stream and a video clock
US6850284B2 (en) * 2002-08-27 2005-02-01 Motorola, Inc. Method and apparatus for decoding audio and video information
US7230651B2 (en) * 2002-10-22 2007-06-12 Broadcom Corporation A/V decoder having a clocking scheme that is independent of input data streams
KR100984818B1 (ko) * 2002-11-07 2010-10-05 톰슨 라이센싱 버퍼 연산을 사용하는 디지털 환경에서 오디오와 비디오간의 립싱크를 결정하기 위한 방법 및 시스템
CN1720749B (zh) * 2002-12-04 2010-12-08 三叉微系统(远东)有限公司 自动测试音频/视频同步的方法
FR2849328A1 (fr) * 2002-12-20 2004-06-25 St Microelectronics Sa Procede et dispositif de synchronisation de la presentation de trames audio et/ou de trames video
US6833765B2 (en) * 2003-01-23 2004-12-21 Ess Technology, Inc. Frequency locked loop with improved stability using binary rate multiplier circuits
GB0306973D0 (en) 2003-03-26 2003-04-30 British Telecomm Transmitting video
US8086752B2 (en) 2006-11-22 2011-12-27 Sonos, Inc. Systems and methods for synchronizing operations among a plurality of independently clocked digital data processing devices that independently source digital data
US11294618B2 (en) 2003-07-28 2022-04-05 Sonos, Inc. Media player system
US10613817B2 (en) 2003-07-28 2020-04-07 Sonos, Inc. Method and apparatus for displaying a list of tracks scheduled for playback by a synchrony group
US11650784B2 (en) 2003-07-28 2023-05-16 Sonos, Inc. Adjusting volume levels
US8290603B1 (en) 2004-06-05 2012-10-16 Sonos, Inc. User interfaces for controlling and manipulating groupings in a multi-zone media system
US11106424B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
US11106425B2 (en) 2003-07-28 2021-08-31 Sonos, Inc. Synchronizing operations among a plurality of independently clocked digital data processing devices
US7693222B2 (en) 2003-08-13 2010-04-06 Ericsson Television Inc. Method and system for re-multiplexing of content-modified MPEG-2 transport streams using PCR interpolation
JP4735932B2 (ja) * 2003-09-02 2011-07-27 ソニー株式会社 コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム
US7366462B2 (en) 2003-10-24 2008-04-29 Qualcomm Incorporated Method and apparatus for seamlessly switching reception between multimedia streams in a wireless communication system
US7570304B1 (en) * 2003-11-21 2009-08-04 Sigma Designs, Inc. Method, apparatus and computer program product for synchronizing presentation of digital video data with serving of digital video data
KR20050052717A (ko) * 2003-12-01 2005-06-07 엘지전자 주식회사 오디오 원본 보존 트랜스코딩 시스템 및 방법
US7405769B2 (en) * 2004-02-09 2008-07-29 Broadcom Corporation Method and system for 3D comb synchronization and alignment of standard and non-standard video signals
GB0406901D0 (en) * 2004-03-26 2004-04-28 British Telecomm Transmitting recorded material
US9977561B2 (en) 2004-04-01 2018-05-22 Sonos, Inc. Systems, methods, apparatus, and articles of manufacture to provide guest access
DE102004017215A1 (de) * 2004-04-05 2005-10-20 Sennheiser Electronic Audiovisuelles System
US7170545B2 (en) * 2004-04-27 2007-01-30 Polycom, Inc. Method and apparatus for inserting variable audio delay to minimize latency in video conferencing
US8024055B1 (en) 2004-05-15 2011-09-20 Sonos, Inc. Method and system for controlling amplifiers
US8868698B2 (en) 2004-06-05 2014-10-21 Sonos, Inc. Establishing a secure wireless network with minimum human intervention
US8326951B1 (en) 2004-06-05 2012-12-04 Sonos, Inc. Establishing a secure wireless network with minimum human intervention
US7400653B2 (en) * 2004-06-18 2008-07-15 Dolby Laboratories Licensing Corporation Maintaining synchronization of streaming audio and video using internet protocol
JP4270084B2 (ja) 2004-09-14 2009-05-27 株式会社日立製作所 記録再生装置
CN100340115C (zh) * 2004-10-22 2007-09-26 威盛电子股份有限公司 影音资料流中时间轴切换处理装置及其方法
US20060104305A1 (en) * 2004-11-12 2006-05-18 William Yoshida Audio/video streaming system
JP4304615B2 (ja) 2004-11-17 2009-07-29 ソニー株式会社 データ処理装置、データ処理方法及びデータ処理プログラム
GB0428155D0 (en) * 2004-12-22 2005-01-26 British Telecomm Buffer underflow prevention
KR100652956B1 (ko) * 2005-01-14 2006-12-01 삼성전자주식회사 비디오 수신지연 알림방법 및 이를 적용한 방송수신장치
JP4624121B2 (ja) * 2005-01-31 2011-02-02 日本電気株式会社 符号化装置、これで用いるstc補正方法、符号化システム、送出系、及び音声送受信システム
KR100658866B1 (ko) * 2005-03-10 2006-12-15 엘지전자 주식회사 비디오 및 오디오 데이터 동기화 장치 및 방법
US8233540B2 (en) * 2005-03-10 2012-07-31 Qualcomm Incorporated Method of time base reconstruction for discrete time labeled video
US20060209210A1 (en) * 2005-03-18 2006-09-21 Ati Technologies Inc. Automatic audio and video synchronization
US7669219B2 (en) * 2005-04-15 2010-02-23 Microsoft Corporation Synchronized media experience
KR100638138B1 (ko) * 2005-05-24 2006-10-24 주식회사 픽스트리 비디오/오디오 부호화 및 다중화 기능을 가진 하드웨어장치 및 그 작동 방법
US20070019931A1 (en) * 2005-07-19 2007-01-25 Texas Instruments Incorporated Systems and methods for re-synchronizing video and audio data
US8358375B2 (en) 2005-10-27 2013-01-22 National University Corporation Chiba University Method and device for accurately and easily measuring a time difference between video and audio
CA2544459A1 (en) * 2006-04-21 2007-10-21 Evertz Microsystems Ltd. Systems and methods for synchronizing audio and video data signals
US8379735B2 (en) * 2006-05-15 2013-02-19 Microsoft Corporation Automatic video glitch detection and audio-video synchronization assessment
US9202509B2 (en) 2006-09-12 2015-12-01 Sonos, Inc. Controlling and grouping in a multi-zone media system
US8483853B1 (en) 2006-09-12 2013-07-09 Sonos, Inc. Controlling and manipulating groupings in a multi-zone media system
US8788080B1 (en) 2006-09-12 2014-07-22 Sonos, Inc. Multi-channel pairing in a media system
JP5186094B2 (ja) * 2006-09-29 2013-04-17 サクサ株式会社 通信端末、マルチメディア再生制御方法、およびプログラム
US8027560B2 (en) * 2007-02-05 2011-09-27 Thales Avionics, Inc. System and method for synchronizing playback of audio and video
US8842971B2 (en) * 2007-07-31 2014-09-23 The Directv Group, Inc. Methods and apparatus to present audio and video at non-native rates
EP2101503A1 (en) * 2008-03-11 2009-09-16 British Telecommunications Public Limited Company Video coding
CN102177726B (zh) * 2008-08-21 2014-12-03 杜比实验室特许公司 用于音频和视频签名生成和检测的特征优化和可靠性估计
EP2200319A1 (en) 2008-12-10 2010-06-23 BRITISH TELECOMMUNICATIONS public limited company Multiplexed video streaming
EP2219342A1 (en) 2009-02-12 2010-08-18 BRITISH TELECOMMUNICATIONS public limited company Bandwidth allocation control in multiple video streaming
JP2010211466A (ja) * 2009-03-10 2010-09-24 Canon Inc 画像処理装置および画像処理方法及びプログラム
EP2323392B1 (en) * 2009-11-03 2012-01-04 Tektronix International Sales GmbH Method and apparatus for measuring delay within a compressed digital stream
KR101090356B1 (ko) 2009-12-28 2011-12-13 주식회사 더블유코퍼레이션 오디오 신호 및 비디오 신호의 동기화 오차 보정 방법 및 장치
US8640181B1 (en) * 2010-09-15 2014-01-28 Mlb Advanced Media, L.P. Synchronous and multi-sourced audio and video broadcast
US9191147B1 (en) * 2010-09-16 2015-11-17 Benjamin J. Sheahan Apparatus and method for conversion between analog and digital domains with a time stamp for digital control system and ultra low error rate communications channel
US11429343B2 (en) 2011-01-25 2022-08-30 Sonos, Inc. Stereo playback configuration and control
US11265652B2 (en) 2011-01-25 2022-03-01 Sonos, Inc. Playback device pairing
US8938312B2 (en) 2011-04-18 2015-01-20 Sonos, Inc. Smart line-in processing
CN103621102B (zh) 2011-05-12 2017-05-03 英特尔公司 用于音频与视频同步的方法、装置及系统
JP5778478B2 (ja) * 2011-05-23 2015-09-16 ルネサスエレクトロニクス株式会社 データ処理システム
US9042556B2 (en) 2011-07-19 2015-05-26 Sonos, Inc Shaping sound responsive to speaker orientation
US9729115B2 (en) 2012-04-27 2017-08-08 Sonos, Inc. Intelligently increasing the sound level of player
TWI513320B (zh) * 2012-06-25 2015-12-11 Hon Hai Prec Ind Co Ltd 視訊會議裝置及其唇形同步的方法
HUP1300436A2 (en) 2012-07-20 2014-02-28 Sumitomo Chemical Co Method for reducing damage by harmful organisms in corn cultivation
RU2522742C2 (ru) * 2012-08-07 2014-07-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Новосибирский государственный технический университет" Измеритель линейных перемещений
US9008330B2 (en) 2012-09-28 2015-04-14 Sonos, Inc. Crossover frequency adjustments for audio speakers
US9244516B2 (en) 2013-09-30 2016-01-26 Sonos, Inc. Media playback system using standby mode in a mesh network
US9226087B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
US9226073B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
US10178281B2 (en) 2014-07-28 2019-01-08 Starkey Laboratories, Inc. System and method for synchronizing audio and video signals for a listening system
JP6586769B2 (ja) * 2015-04-28 2019-10-09 カシオ計算機株式会社 撮像システム、撮像装置、収音装置、撮像方法、収音方法及びプログラム
US10248376B2 (en) 2015-06-11 2019-04-02 Sonos, Inc. Multiple groupings in a playback system
US10303422B1 (en) 2016-01-05 2019-05-28 Sonos, Inc. Multiple-device setup
US10158905B2 (en) * 2016-09-14 2018-12-18 Dts, Inc. Systems and methods for wirelessly transmitting audio synchronously with rendering of video
US10142043B2 (en) * 2016-10-11 2018-11-27 Viavi Solutions Inc. Time differential digital circuit
US10712997B2 (en) 2016-10-17 2020-07-14 Sonos, Inc. Room association based on name
CN107888611B (zh) * 2017-11-29 2020-10-02 武汉船舶通信研究所(中国船舶重工集团公司第七二二研究所) 通信方法和装置
CN111954064B (zh) * 2020-08-31 2022-11-04 三星电子(中国)研发中心 音视频同步方法和装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4313135B1 (en) * 1980-07-28 1996-01-02 J Carl Cooper Method and apparatus for preserving or restoring audio to video
US4429332A (en) * 1981-05-18 1984-01-31 Eeco Incorporated Television compressed audio
US5202761A (en) * 1984-11-26 1993-04-13 Cooper J Carl Audio synchronization apparatus
US4703355A (en) * 1985-09-16 1987-10-27 Cooper J Carl Audio to video timing equalizer method and apparatus
DE3732111A1 (de) * 1987-09-24 1989-04-06 Bosch Gmbh Robert Verfahren zur laufzeitanpassung von video- und audiosignalen an ein referenzsignal
US5231492A (en) * 1989-03-16 1993-07-27 Fujitsu Limited Video and audio multiplex transmission system
JP2865782B2 (ja) * 1990-03-16 1999-03-08 富士通株式会社 非同期伝送用codec装置
US5287182A (en) * 1992-07-02 1994-02-15 At&T Bell Laboratories Timing recovery for variable bit-rate video on asynchronous transfer mode (ATM) networks
JP3255308B2 (ja) * 1992-12-18 2002-02-12 ソニー株式会社 データ再生装置
US5430485A (en) * 1993-09-30 1995-07-04 Thomson Consumer Electronics, Inc. Audio/video synchronization in a digital transmission system

Also Published As

Publication number Publication date
AU684520B2 (en) 1997-12-18
FI112144B (fi) 2003-10-31
FI944529A (fi) 1995-03-31
KR950010508A (ko) 1995-04-28
JP4382736B2 (ja) 2009-12-16
KR100337212B1 (ko) 2002-11-23
TR28210A (tr) 1996-03-01
DE69417139T2 (de) 1999-10-28
JP2009124732A (ja) 2009-06-04
JP3976759B2 (ja) 2007-09-19
DE69417139D1 (de) 1999-04-22
CN1110854A (zh) 1995-10-25
JP2006074821A (ja) 2006-03-16
EP0648056A3 (en) 1995-12-13
EP0648056B1 (en) 1999-03-17
FI944529A0 (fi) 1994-09-29
US5430485A (en) 1995-07-04
RU94034121A (ru) 1996-07-27
JP2005117677A (ja) 2005-04-28
PL305189A1 (en) 1995-04-03
MY111711A (en) 2000-11-30
CN1053308C (zh) 2000-06-07
JP3633972B2 (ja) 2005-03-30
JPH07177479A (ja) 1995-07-14
AU7027894A (en) 1995-04-13
EP0648056A2 (en) 1995-04-12
CA2132186A1 (en) 1995-03-31
ES2131139T3 (es) 1999-07-16
SG70960A1 (en) 2000-03-21
CA2132186C (en) 2004-07-06
RU2142210C1 (ru) 1999-11-27

Similar Documents

Publication Publication Date Title
PL174674B1 (pl) Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych
JP4492972B2 (ja) ビデオ・エンコーダおよびエンコーダからデコーダへのタイミングを同期させる方法
JP2002027467A (ja) 圧縮されたビデオ信号を発生する装置および伝達する方法