PL174674B1 - Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych - Google Patents
Urządzenie do synchronizacji sygnałów akustycznych i wizyjnychInfo
- Publication number
- PL174674B1 PL174674B1 PL94305189A PL30518994A PL174674B1 PL 174674 B1 PL174674 B1 PL 174674B1 PL 94305189 A PL94305189 A PL 94305189A PL 30518994 A PL30518994 A PL 30518994A PL 174674 B1 PL174674 B1 PL 174674B1
- Authority
- PL
- Poland
- Prior art keywords
- audio
- video
- signal
- clock
- signals
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4305—Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4341—Demultiplexing of audio and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4392—Processing of audio elementary streams involving audio buffer management
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/60—Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
- H04N5/602—Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals for digital sound signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/24—Systems for the transmission of television signals using pulse code modulation
- H04N7/52—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal
- H04N7/54—Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal the signals being synchronous
- H04N7/56—Synchronising systems therefor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Synchronisation In Digital Transmission Systems (AREA)
- Television Receiver Circuits (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Details Of Television Systems (AREA)
- Television Systems (AREA)
- Synchronizing For Television (AREA)
- Television Signal Processing For Recording (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
Abstract
1. Urzadzenie do synchronizacji sygnalów akustycz- nych i wizyjnych, dolaczone do ukladu transmisji poddanych kompresji sygnalów akustycznych i wizyjnych ze znacznika- mi czasowymi zwiazanymi z sygnalami zegarowymi ukladu, zawierajace zródlo odzyskiwanych, poddanych kompresji sygnalów akustycznych i wizyjnych, dolaczone do sterow - nika ukladu, do generatora sygnalów zegarowych, do do kompresora sygnalów wizyjnych dla dostarczania wizyjnych znaczników czasowych i do dekompresora sygnalów akustycz- nych dla dostarczania akustycznych znaczników czaso- wych, znamienne tym, ze do wyjscia dekompresora (214) sygnalów wizyjnych jest dolaczone jedno wejscie pierwszego ukladu odejmujacego (217), do którego drugiego wejscia jest dolaczony pierwszy przerzutnik zatrzaskowy (222) dolaczony do generatora (208) sygnalów zegarowych, a do wyjscia dekompresora (212) sygnalów akustycznych jest dolaczone jedno wejscie drugiego ukladu odejmujacego (218), do którego drugiego wejscia jest dolaczony drugi przerzutnik zatrza- skowy (220) dolaczony do generatora (208) sygnalów zega- rowych, a wyjscia obu ukladów odejmujacych sa dolaczone do trzeciego ukladu odejmujacego (219) wartosci znaczników czasowych akustycznych i wizyjnych, dolaczonego do ukladu synchronizacji. FIG. 2 PL PL PL PL
Description
Przedmiotem wynalazku jest urządzenie do synchronizacji sygnałów akustycznych i wizyjnych, zwłaszcza dla cyfrowego systemu łączności.
Nadawanie i odbiór sygnałów akustycznych i wizyjnych wymaga, żeby składowe akustyczne i wizyjne były właściwie zsynchronizowane. Standardy ELA. RS-250-B ograniczają różnicę czasu pomiędzy związanymi ze sobą sygnałami akustycznymi i wizyjnymi do czasu wyprzedzenia 25 ms lub opóźnienia 40 ms, a standardy filmowe ograniczają różnicę czasu związanych ze sobą sygnałów akustycznych i wizy'nych do ±1/2 ramki, co odpowiada 20,8 ms. Dopuszczalnym parametrem docelowym dla źródła synchronizacji sygnałów akustycznych i wizynych odbieranych przez widza jest więc różnica czasu ± 20 ms.
174 674
Cyfrowe systemy łączności zwykle zwielokrotniają w czasie składowe sygnału w pojedynczym kanale, co jest stosowane w układach transmisji sygnałów akustycznych i wizyjnych wykorzystywanych w łączności kablowej, światłowodowej, naziemnej i satelitarnej. Zwielokrotnianie w czasie składowych sygnału może zniszczyć ich normalny związek czasowy pomiędzy nadawaniem i odtwarzaniem informacji, wobec czego korzystne jest, żeby krytyczne składowe czasowe transmitowanych sygnałów składowych zostały związane z odniesieniem czasowym przed operacją zwielokrotniania. To jest nazywane znakowaniem informacji, a próbki taktowania są nazywane znacznikami czasowymi.
Odbiornik musi być ściśle związany z podstawą czasu nadajnika, co jest zapewnione przez to, że wyjście danych jest dopasowane do wejścia odbiornika. Jeżeli odbiornik odtwarza dane zbyt szybko, bufory w odbiorniku mogą wykazywać niedomiar, co powoduje przerwanie sygnału wyjściowego. Jeżeli odbiornik odtwarza dane zbyt wolno, bufory mogą wykazywać nadmiar i zakładając skończoną szybkość buforów, powoduje to utratę danych.
Znany jest system łączności, w którym odbiornik jest synchronizowany z nadajnikiem przez dodatkowe znaczniki czasowe SCR sygnałów zegarowych odniesienia układu, związane z uprzednio określonymi pakietami transmitowanej informacji. Taktowanie zapisu znaczników czasowych SCR sygnałów zegarowych odniesienia układu nie ma żadnego związku z przedstawieniem znaczników czasowych PTS, które są związane z danymi wizyjnymi, innymi niż dostarczane z tego samego licznika. Znaczniki czasowe SCR sygnałów zegarowych odniesienia układu są wytwarzane przez próbkowanie licznika modulo 2n (N > 32), który zlicza sygnał zegarowy o zasadniczo stałej częstotliwości w nadajniku. Odbiornik wykorzystuje pętlę synchronizacji fazowej, która ma częstotliwość spoczynkową zasadniczo równą częstotliwości zegarowej nadajnika. Sygnał zegarowy odbiornika, czyli zegara lokalnego, jest także zliczany modulo 2n i za każdym razem, gdy znacznik czasowy SCR sygnału zegarowego odniesienia układu dochodzi do odbiornika, sygnał licznika lokalnego jest próbkowany w celu dostarczenia znaczników czasowych LCR lokalnych sygnałów zegarowych odniesienia. Nie dokonano żadnych prób uczynienia lokalnego znacznika czasowego LCR równym znacznikowi czasowemu SCR układu. Zamiast tego sygnał zegara lokalnego jest regulowany w oparciu o zmiany przetwarzania różnicy pomiędzy znacznikami czasowymi LCR i SCR. Sygnał błędu ERR jest wytwarzany zgodnie z równaniem:
ERR = (SCRn - SCR,, i) - (LCRn - LCRn-i).
Sygnał błędu ERR jest wykorzystywany do sterowania częstotliwością zegara lokalnego. W wyniku tego procesu lokalny znacznik czasowy LCR staje się dowolnie bliski częstotliwości zegarowej nadajnika. Ponieważ oba zegary, układu i lokalny, zliczają modulo N, mają one przejścia cykliczne. Przy ich wystąpieniu poszczególne wyrażenia SCRn - SCRn-1 oraz LCRn - SCRn-1 będą ujemne i błędne. Układ kontroluje biegunowość poszczególnych różnic i gdy jedna z różnic jest ujemna, jest ona pomijana.
Sygnał wizyjny kodowany zgodnie ze standardem MPEG, czyli standardem kompresji obrazów, wykorzystywanym przy zapisie obrazów wizyjnych, zawiera składowe reprezentujące wizyjne znaczniki PTSvd, które są synchronizowane z wejściowymi ramkami wizyjnymi. Poszczególne wizyjne znaczniki czasowe PTSvid wskazują czasy względne, w których ramki mają być odtwarzane w odbiorniku, z częstotliwością nominalną 30 Hz, przy zastosowaniu sygnału o formacie NTSC. Sygnał akustyczny jest także kodowany przy pomocy akustycznych znaczników czasowych PTSaUd, w oparciu o tę samą podstawę czasu, jak podstawa czasu układu, przy czym te znaczniki czasowe są umieszczone w warstwie pakietów o standardzie MPEG, obejmującej kodowane dane akustyczne. Warstwa pakietów akustycznych układu zawiera na przykład kilka ramek danych akustycznych i poszczególne ramki są w tym przykładzie równe 24 ms pierwotnych danych akustycznych. Ramki akustyczne są w przybliżeniu sześć razy dłuższe od czasu trwania transportowanego pakietu o 127 bajtach. Transmitowana informacja, sygnały akustyczne, wizyjne, dane itd. są dzielone na poszczególne transportowane pakiety o określonych wymiarach, z wieloma różnymi
174 674 słowami sterującymi załączonymi na końcu, w celu dostarczenia dodatkowej warstwy detekcji/korekcji błędu i synchronizacji. Poza tym zgodnie z protokołem standardu MPEG, liczba ramek akustycznych na warstwę w standardzie MPEG jest zmienna. Wobec tego może występować mała albo żadna współzależność pomiędzy prezentowanymi wizyjnymi znacznikami czasowymi PTSvid i akustycznymi znacznikami czasowymi PTSaUd dla sygnałów akustycznych i wizyjnych. Tak więc synchronizacja składowych akustycznych i wizyjnychjest trudna, jeżeli próbuje się dokonać jej przez porównanie wizyjnych znaczników czasowych PTSvd z akustycznymi znacznikami czasowymi PTSaUdZnane są z opisu patentowego USA nr 4 313 135 sposób i urządzenie do zabezpieczania lub przywracania synchronizacji sygnałów akustycznych względem sygnałów wizyjnych. Układ synchronizacji sygnałów akustycznych zawiera detektor opóźnienia do pomiaru opóźnienia sygnałów wizyjnych przez układ przetwarzania sygnałów wizyjnych, taki jak jeden lub więcej układów synchronizacji ramki, oraz do pomiaru zmiennego opóźnienia sygnałów akustycznych, sterowanego przez detektor tak, żeby wyrównać opóźnienia sygnałów wizyjnych i sygnałów akustycznych.
Znane są z opisu patentowego USA nr 4 429 332 sposób i urządzenie do przesyłania poddanej kompresji informacji o częstotliwościach akustycznych, w których ta informacja w okresie dziesięciu sekundjest próbkowana, przetwarzana do postaci cyfrowej i pamiętana w pamięci. Następnie jest ona odczytywana z pamięci wielokrotnie szybciej, na przykład 400 razy szybciej, przetwarzana do postaci analogowej, łączona z telewizyjnymi sygnałami synchronizacji i transmitowana jako ramka sygnału telewizyjnego. Ten sygnał jest odbierany, przetwarzany z postaci analogowej na cyfrową, pamiętany z dużą szybkością i następnie odczytywany z częstotliwością akustyczną, aby odzyskać pierwotną dziesięciosekundową informację o częstotliwości akustycznej.
Znane są z opisu patentowego USA nr 4 703 355 sposób i urządzenie do korekcji synchronizacji sygnałów akustycznych i wizyjnych, w których sygnały te transmituje się i resynchronizuje, przy czym koduje się sygnały synchronizacji akustycznej w sygnale wizyjnym przed transmisją oraz dekoduje się sygnały synchronizacji akustycznej z sygnału wizyjnego po transmisji. Dekodowane sygnały synchronizacji akustycznej są porównywane z sygnałami synchronizacji wytwarzanymi z transmitowanego sygnału akustycznego i jest wytwarzany współczynnik opóźnienia reprezentujący względne opóźnienie pomiędzy transmitowanym sygnałem akustycznym i transmitowanym sygnałem wizyjnym. Zarówno transmitowany sygnał wizyjny, jak i transmitowany sygnał akustyczny są następnie opóźniane o wartość współczynnika opóźnienia dla resynchronizacji dwóch sygnałów.
Znane są z opisu patentowego USA nr 4 851 909 sposób i urządzenie do podtrzymywania synchronizacji sygnałów akustycznych i wizyjnych w sygnale telewizyjnym odczytywanym z cyfrowej pamięci buforowej przez sygnał odniesienia. Zarówno składowa analogowa jak i wizyjna sygnału telewizyjnego są przetwarzane do postaci cyfrowej. Składowa akustyczna jest przetwarzana ze znacznie mniejszą szybkością próbkowania o długości słowa, która jest całkowitą wielokrotnością długości słowa wizyjnego. Cyfrowa składowa akustyczna jest następnie poddawana kompresji przy zastosowaniu pamięci przejściowej i odczytywana z niej z szybkością, która jest połową szybkości próbkowania cyfrowej składowej wizyjnej, po czym długość słowa jest dzielona na połowę i szybkość transmisji słowa podwajana w układzie rejestru przesuwnego. W tej postaci składowa akustyczna jest wprowadzana w okresach wygaszania linii składowej wizyjnej w postaci zgodnej przez multiplekser, którego sygnał wyjściowy jest odczytywany w pojedynczym polu obrazu lub pamięci pełnego obrazu przy sterowaniu generatorem adresu synchronicznie z wejściową składową wizyjną. Pamięć buforowa jest odczytywana z szybkością sterowaną przez sygnał odniesienia, co jest stosowane przy synchronizacji w studiu telewizyjnym. Po stronie wyjściowej cyifrowe składowe wizyjne i akustyczne sygnału telewizyjnego są rozdzielane przez demultiplekser, długość słowa akustycznego jest podwajana i szybkość transmisji słowa jest dzielona na połowę, a jeszcze poddany kompresji sygnał akustyczny rozszerzony, dla udostępnienia zasadniczo ciągłej składowej cyfrowej. Składowa akustyczna jest następnie przetwarzana do postaci analogowej i jest prawidłowo synchronizowana dla występowania
174 674 wraz z cyfrową składową wizyjną przetwarzaną do postaci analogowej na wyjściu demultipleksera. Zapobiega się więc zastosowaniu oddzielnych układów opóźniania sygnałów akustycznych dzięki użyciu stosunkowo prostych układów multipleksowania i układów przetwarzania sygnałów akustycznych.
Znane jest z opisu patentowego USA nr 5 202 761 urządzenie do synchronizacji sygnałów akustycznych mające detektor opóźnienia do dokładnego pomiaru opóźnienia wprowadzanego przez urządzenie wizyjne połączone ze sterowanym, o zmiennym opóźnieniu układem opóźniającym sygnały akustyczne dla dokładnego opóźniania sygnału o częstotliwościach akustycznych o zasadniczo taką samą wartość, jak opóźnienie sygnału akustycznego. Urządzenie działa skutecznie nawet przy opóźnieniach sygnałów wizyjnych przekraczających jedną ramkę, bez wymagania zastosowania pomocniczego układu korelacji. Zmienne opóźnienie sygnałów akustycznych może również obejmować dokładne filtrowanie dla kompensacji niekorzystnych zjawisk wprowadzanych przez opóźnienie.
Znany jest z opisu patentowego USA nr 5 231492 system transmisji z multipleksowaniem sygnałów wizyjnych i akustycznych do multipleksowania, transmisji i odbioru danych obrazu i danych akustycznych, w którym dane obrazu i dane akustyczne są równoważone dla ograniczonej pojemności transmisji tak, żeby otrzymać lepszą całkowitą jakość dla skutecznego wykorzystania zdolności transmisyjnej ośrodka. Zawartości co najmniej jednej danej obrazu i danej akustycznej są wykrywane i wykorzystywane do sterowania zawartością transmisji. Zawartość transmisji jest sterowana przez zmianę danych i dźwięku dla korekcji różnicy pomiędzy szybkością przetwarzania danych obrazu i danych akustycznych, skutkiem czego poprawia się jakość systemu konferencji sygnałów wizyjnych lub podobnego, gdzie zdolność transmisji jest niewystarczająca.
W urządzeniu według wynalazku do wyjścia dekompresora sygnałów wizyjnych jest dołączone jedno wejście pierwszego układu odejmującego, do którego drugiego wejścia jest dołączony pierwszy przerzutnik zatrzaskowy dołączony do generatora sygnałów zegarowych, a do wyjścia dekompresora sygnałów akustycznych jest dołączone jedno wejście drugiego układu odejmującego, do którego drugiego wejścia jest dołączony drugi przerzutnik zatrzaskowy dołączony do generatora sygnałów zegarowych, a wyjścia obu układów odejmujących są dołączone do trzeciego układu odejmującego wartości znaczników czasowych akustycznych i wizyjnych, dołączonego do układu synchronizacji.
Układ synchronizacji zawiera filtr i procesor dołączone do układu podstawy czasu sygnałów akustycznych.
Układ odejmujący ma wejście akustycznych znaczników czasowych i wejście wizyjnych znaczników czasowych oraz wyjście sygnału błędu synchronizacji.
Korzystnie do przerzutnika zatrzaskowego jest dołączony licznik lokalny do zliczania cykli lokalnego sygnału zegarowego.
Korzystnie licznik lokalny jest przystosowany do zliczania modulo N.
Filtr i procesor jest dołączony do dekompresora sygnałów akustycznych dla regulacji przeskakiwania i powtarzania sygnału akustycznego.
Układ podstawy czasu jest dołączony do dekompresora sygnałów akustycznych dla regulacji częstotliwości sygnału zegarowego.
Do filtru i procesora oraz generatora sygnałów zegarowych jest dołączony układ mnożący szybkości przesyłanych danych binarnych.
Zaletą wynalazku jest zapewnienie układu synchronizacji sygnałów akustycznych i wizyjnych, który umożliwia uproszczenie procesu synchronizacji związanego ze składowymi akustycznymi i wizyjnymi.
Przedmiot wynalazku jest uwidoczniony w przykładach wykonania na rysunku, na którym fig. 1 przedstawia znany układ transmisji poddanych kompresji sygnałów akustycznych i wizyjnych w schemacie blokowym, fig. 2 ' - urządzenie odbiorcze z dekompresją sygnałów akustycznych i wizyjnych wraz z układem synchronizacji, według wynalazku, w schemacie blokowym, fig. 3 - układ wytwarzania sygnałów zegarowych odbiornika, w schemacie blokowym, fig. 4 - sieć działań układu z fig. 2 oraz fig. 5 i 6 - inne układy
174 674 wytwarzania sygnałów zegarowych do przetwarzania sygnałów akustycznych, realizowane jako jeden z elementów układu z fig. 2.
Figura 1 przedstawia znany układ transmisji poddanych kompresji cyfrowych sygnałów wizyjnych, dla którego można zastosować układ według wynalazku. Sygnał wizyjny ze źródła 10 sygnałów akustycznych i wizyjnychjest doprowadzany do kompresora 11 sygnałów akustycznych, który zawiera na przykład koder prognozowania kompensowany ruchem, wykorzystujący dyskretne transformanty cosinus. Poddany kompresji sygnał wizyjny z kompresora 11 sygnałów wizyjnych jest doprowadzany do formatera 12. Formater 12 formatuje poddany kompresji sygnał wizyjny i inne pomocnicze dane zgodnie z danym protokołem sygnału, na przykład standardem MPEG określonym przez Międzynarodową Organizację Normalizacji. Standardowy sygnał jest dostarczany do pierwszego procesora transportowego 13, który dzieli sygnał na pakiety danych i dodaje pewne dane organizacyjne dla zapewnienia odporności na szum w trakcie transmisji. Transportowane pakiety, które normalnie mają niejednorodnością szybkość, są dostarczane przez multiplekser 16 do bufora 14 szybkości, który dostarcza dane wyjściowe ze względnie stałą szybkością, właściwą dla skutecznego zastosowania kanału transmisyjnego o stosunkowo wąskim paśmie. Buforowane dane są doprowadzane do modulatora-demodulatora 15, który realizuje transmisję sygnału.
Zegar 22 układu dostarcza sygnał zegarowy do sterowania znaczną częścią układu, zawierającą przynajmniej procesor transportowy 13. Zegar 22 pracuje ze stałą częstotliwością, na przykład 27 MHz. Tutaj jest on zastosowany do wytwarzania informacji taktowania. Zegar 22 jest dołączony do wejścia zegarowego licznika 23, który jest zaprojektowany na przykład do zliczania modulo 2. Zliczane wartości dostarczane na wyjściu przez licznik 23 są doprowadzane do dwóch przerzutników zatrzaskowych 24 i 25. Pierwszy przerzutnik zatrzaskowy 24 jest ustawiany przez źródło 10 sygnałów akustycznych i wizyjnych w celu blokowania zliczanych wartości przy występowaniu poszczególnych przedziałów ramek. Te zliczane wartości oznaczone przez wizyjne znaczniki czasowe PTSVid są wprowadzane do poddanego kompresji strumienia sygnałów wizyjnych przez formater 12 i są wykorzystywane przez odbiornik do zapewniania synchronizacji związanych ze sobą sygnałów akustycznych i wizyjnych. Drugi przerzutnik zatrzaskowy 25 jest ustawiany przez pierwszy procesor transportowy 13 lub sterownik 21 układu w celu blokowania zliczanych wartości zgodnie z określonym planem. Te zliczane wartości są oznaczone przez znaczniki czasowe SCR sygnałów zegarowych odniesienia układu i są umieszczone jako dane pomocnicze w poszczególnych transportowanych pakietach pomocniczych.
Sygnał akustyczny związany z sygnałem wizyjnym ze źródła 10 sygnałów akustycznych i wizyjnych jest doprowadzany do kompresora 18 sygnałów akustycznych. Kompresor 18 sygnałów akustycznych dostarcza impulsy próbkowania ramki, niezależnie od ramek wizyjnych, dla sterowania przerzutnikiem zatrzaskowym 19. W odpowiedzi na impulsy próbkowania, przerzutnik zatrzaskowy 19 odbiera zliczane wartości dostarczane przez licznik 23. Te blokowane wartości odpowiadają akustycznym znacznikom czasowym PTSaud. Akustyczne znaczniki czasowe PTSaud są wprowadzane do poddanego kompresji sygnału akustycznego dostarczanego przez kompresor 18 sygnałów akustycznych. Poddany kompresji sygnał akustyczny jest doprowadzany do drugiego procesora transportowego 17, który dzieli sygnał na pakiety danych i dodaje pewne dane organizacyjne dla zapewnienia odporności na szum w trakcie transmisji. Transportowane pakiety akustyczne dostarczane przez drugi procesor transportowy 17 są doprowadzane do multipleksera 16, który zwielokrotnia z podziałem czasu transportowane pakiety akustyczne i wizyjne. Na figurze są pokazane oddzielne procesory transportowe 13,17 w kanałach przetwarzania sygnałów akustycznych i wizyjnych. W układach, gdzie szybkość danych jest umiarkowana, funkcje dwóch procesorów transportowych 13, 17 i multipleksera 16 można połączyć w pojedynczym procesorze transportowym.
Sterownik 21 układu jest urządzeniem o zmiennym stanie, programowanym dla uzgadniania pracy różnych elementów przetwarzających. Sterownik 21, kompresory 11 i 18, procesory transportowe 13 i 17 i bufor 14 szybkości mogą, lecz nie muszą, pracować
174 674 synchronicznie poprzez wspólny układ zegarowania tak długo, jak jest zapewniona właściwa procedura synchronizacji pomiędzy elementami przetwarzającymi. Oba kompresory 11,18 otrzymują wartości znaczników czasowych PTSvd i PTSaud z tego samego licznika 23, więc w poddanym kompresji sygnale wyjściowym jest zapewniony dokładny związek synchronizacji pomiędzy dwoma sygnałami poddanymi kompresji.
Figura 2 przedstawia przykładowe urządzenie odbiorcze z układem synchronizacji, według wynalazku, w którym modulator-demodulator 200 spełnia odwrotną funkcję niż modulator-demodulator 15 z fig. 1, a bufory 204 i 206 szybkości spełniają odwrotną funkcję niż bufor 14 szybkości z fig. 1. Na fig. 2 jest pokazany pojedynczy inwersyjny procesor transportowy 202, który dzieli poszczególne transportowane pakiety przez obsługę i przydzielenie poszczególnych danych właściwemu kanałowi przetwarzania. Przy tym poszczególne obciążenia użyteczne transportowanego sygnału pakietów są oddzielane od danych pomocniczych i są doprowadzane do właściwego kanału przetwarzania, a dane pomocnicze są doprowadzane do sterownika 210 układu. W innym układzie w każdym kanale przetwarzania jest włączony oddzielny procesor transportowy, który jest przystosowany do rozpoznawania i przetwarzania tylko danych związanych z poszczególnymi kanałami.
Poddane kompresji dane wizyjne z inwersyjnego procesora transportowego 202 są doprowadzane do bufora 204 szybkości, który dostarcza poddany kompresji sygnał wizyjny zgodnie z protokołem układu do dekompresora 214 sygnałów wizyjnych. Bufor 204 szybkości odbiera dane z szybkością impulsową czyli niezgodną i dostarcza dane na żądanie do dekompresora 214 sygnałów wizyjnych, który wytwarza nie poddany kompresji sygnał wizyjny, następnie obrazowany lub pamiętany w urządzeniach obrazowania lub pamięciowych, których nie pokazano na rysunku.
Poddane kompresji dane akustyczne z inwersyjnego procesora transportowego 202 są doprowadzane do bufora 206 szybkości, który dostarcza poddany kompresji sygnał akustyczny zgodnie z protokołem układu do dekompresora 212 sygnałów akustycznych, który wytwarza nie poddany kompresji sygnał akustyczny, następnie odtwarzany lub pamiętany w głośnikach lub urządzeniach pamięciowych, których nie pokazano na rysunku.
Inwersyjny procesor transportowy 202 dostarcza również znaczniki czasowe SCR sygnałów zegarowych odniesienia układu z przesyłanych danych pomocniczych i sygnały sterujące do generatora 208 sygnałów zegarowych, który wytwarza sygnały zegarowe synchronicznie przynajmniej z działaniem procesora transportowego 202. Te sygnały zegarowe są dostarczane do sterownika 210 układu, sterującego synchronizacją układów przetwarzaj ących.
Figura 3 przedstawia szczegółowo układ wytwarzania sygnałów zegarowych odbiornika, zawierający generator 208 sygnałów zegarowych będący regeneratorem. Dane z modulatora-demodulatora 200 odbiornika z fig. 2 są doprowadzane do inwersyjnego procesora transportowego 202' zawierającego detektor 31 pakietów pomocniczych. Inwersyjny procesor transportowy 202' oddziela transportowane dane nagłówka od poszczególnych obciążeń użytkowych transportowanych pakietów. W odpowiedzi na transportowane dane nagłówka, inwersyjny procesor transportowy 202' dostarcza użytkowe sygnały akustyczne i sygnały wizyjne do obciążenia, na przykład do urządzenia dekompresji, którego nie pokazano na rysunku, oraz dane pomocnicze AUX do układów przetwarzania danych pomocniczych, których także nie pokazano na rysunku. Znaczniki czasowe SCR sygnałów zegarowych odniesienia układu, występujące w danych pomocniczych, są zawracane i wprowadzane do pamięci 34.
Detektor 31 pakietów pomocniczych, który jest na przykład dopasowanym filtrem zdolnym do rozpoznawania słów kodu określających transportowany pakiet pomocniczy, zawierający znaczniki czasowe SCR sygnałów zegarowych odniesienia układu, wytwarza impuls sterujący przy występowaniu transportowanych pakietów zawierających takie dane. Impuls sterujący jest wykorzystywany do odbioru i pamiętania w przerzutniku zatrzaskowym 35 wartości zliczenia wykazywanej bieżąco przez licznik lokalny 36 w czasie związanym dokładnie z czasem detekcji. Licznik lokalny 36 jest przystosowany do zliczania impulsów dostarczanych przez generator 37 o sterowanym napięciu. Licznik lokalny 36 jest
174 674 przystosowany do zliczania modulo M, które może być, lecz niekoniecznie, tą samą liczbą, jak w przypadku licznika 23 z fig. 1. Jeżeli M różni się od N, różnica może być wykorzystana w równaniu błędu.
Z toru łączącego przerzutnik zatrzaskowy 35 i licznik lokalny 36 są odprowadzane znaczniki czasowe LCR lokalnych sygnałów zegarowych odniesienia.
Generator 37 o sterowanym napięciujest sterowany przez sygnał błędu odfiltrowany przez filtr dolnoprzepustowy 38. Ten sygnał błędu jest dostarczany przez sterownik 39 sygnałów zegarowych i jest wywarzany w następujący sposób. Niech wartość znaczników czasowych sCr sygnałów zegarowych odniesienia układu, występująca w czasie n, będzie oznaczona SCRn i wartość znaczników czasowych LCR lokalnych sygnałów zegarowych odniesienia, odbierana równocześnie w przerzutniku zatrzaskowym 35, będzie oznaczona LCRn. Sterownik 39 sygnałów zegarowych odczytuje kolejne wartości SCRn i LCRn i wytwarza sygnał błędu E proporcjonalny do różnic:
E => (SCRn - SCRn-1) - (LCRn - LCRn-1).
Sygnał błędu E jest wykorzystywany do ustalania stanu generatora 37 o sterowanym napięciu na częstotliwość dążącą do wyównania różnic. Jak już wspomniano wcześniej, różnice ujemne, wykazywane w związku ze stanem licznika modulo, można pominąć. Sygnał błędu, wywarzany przez sterownik 39 sygnałów zegarowych, występuje na przykład w postaci sygnału o modulowanej szerokości impulsów, który jest przetwarzany w analogowy sygnał błędu w wyniku wyposażenia filtru dolnoprzepustowego 38 w elementy analogowe.
Ograniczeniem tego układu jest to, że liczniki na dwóch końcach układu zliczają tę samą częstotliwość lub nawet jej wielokrotności. Wymaga to, żeby częstotliwość nominalna generatora 37 o sterowanym napięciu była dość bliska częstotliwości zegara 22.
Powyższe rozwiązanie zapewnia szybką synchronizację, lecz może wprowadzić długookresowy błąd LTE proporcjonalny do różnicy:
LTE =» (LCRn - LCR0) - (SCR„ - CSR0), gdzie SCR0 i LCR0 są na przykład pierwszą występującą wartością znacznika czasowego SCR sygnału zegarowego odniesienia i blokowaną wartością licznika odbiornika.
Nominalnie sygnały błędu E i LTE zmieniają się w dyskretnych etapach. Wówczas po zsynchronizowaniu układu, sygnał błędu waha się o jedną jednostkę wokół punktu zerowego. Korzystnym symbolem synchronizacji jest zapoczątkowanie sterowania generatora 37 o sterowanym napięciu przy użyciu sygnału błędu E, aż do momentu, gdy w sygnale błędu E wystąpi jednostkowe wahnięcie, a następnie przełączenie na użycie długookresowego sygnału błędu LTE do sterowania generatorem 37 o sterowanym napięciu.
Sygnał zegarowy układu, dostarczany przez generator 37 o sterowanym napięciu, jest wykorzystywany do uruchamiania przynajmniej procesora transportowego i buforów szybkości. Ponieważ jest on synchronizowany przynajmniej częstotliwościowo z zegarem 22, zasadniczo nie istnieje możliwość wystąpienia nadmiaru lub niedomiaru bufora szybkości w związku z błędami taktowania zegarowego.
Powracając do fig. 2, w celu wyjaśnienia synchronizacji sygnałów akustycznych i wizyjnych, należy odwołać się do tego, że prezentowany wizyjny znacznik czasowy PTSwd jest zawarty w poddanym kompresji sygnale wizyjnym związanym z określonymi danymi wizyjnymi. Wizyjny znacznik czasowy PTSvd wskazuje względny czas, w którym ma być obrazowany sygnał wizyjny. Podobnie poddany kompresji sygnał akustyczny zawiera prezentowane akustyczne znaczniki czasowe PTSand związane z sygnałem akustycznym odtwarzanym w czasach związanych z poszczególnymi akustycznymi znacznikami czasowymi PTS„ud. W odbiorniku znaczniki czasowe PTSaud i PTSvd nie mogą być porównywane bezpośrednio, aby zapewnić synchronizację akustyczną i wizyjną, ponieważ poszczególne próbki zostały określone w różnych chwilach. Poszczególne wartości znaczników czasowych PTSa„d i PTSvd są porównywane z ciągłą podstawą czasu sygnału zegarowego odbiornika, dostarczanego przez generator 37 o sterowanym napięciu. Jest to
174 674 realizowane przez próbkowanie znaczników czasowych LCR lokalnego sygnału zegarowego odniesienia.
Wówczas gdy jest prezentowana dana związana ze znacznikiem czasowym PTSaud lub PTSvid, próbkowany jest znacznik czasowy LCR lokalnego sygnału zegarowego odniesienia. Na przykład dekompresor 212 sygnałów akustycznych wysyła akustyczne znaczniki czasowe PTSaud, gdy na wyjściu występuje ramka akustyczna przeznaczona do odtworzenia. W tych czasach sygnał sterujący ustala stan przerzutnika zatrzaskowego 220 w celu próbkowania znacznika czasowego LCR lokalnego sygnału zegarowego odniesienia o wartościach LAS dla lokalnego akustycznego znacznika czasowego. Podobnie, gdy dekompresor 214 sygnałów wizyjnych dostarcza ramkę wizyjną dla obrazowania, dostarcza on wizyjny znacznik czasowy PTSvid i impuls sterujący dla ustalania stanu przerzutnika zatrzaskowego 222 w celu zapamiętania bieżącej wartości LVS znacznika czasowego LCR lokalnego sygnału zegarowego odniesienia dla lokalnych wizyjnych znaczników czasowych.
Wartości LAS i odpowiednie wartości znaczników czasowych PTSaud są doprowadzane do poszczególnych końcówek wejściowych układu odejmującego 218, który otrzymuje sygnał Δα-pts zgodnie z równaniem:
Δα-PTS = PTSaud - LAS
Wartości LVS i odpowiednie wartości znaczników czasowych PTSvd są doprowadzone do poszczególnych końcówek wejściowych.układu odejmującego 217, który otrzymuje sygnał Δν-pTs zgodnie z równaniem:
Δυ-pts = PTSvid - LVS
Sygnały Δν-p-rs i Δα-pts są doprowadzane do poszczególnych końcówek wejściowych następnego układu odejmującego 219, który otrzymuje sygnał błędu synchronizacji ERRpts dla sygnałów akustycznych i wizyjnych zgodnie z równaniem:
ERRpts — Δυ-pts - Δα-pts
Synchronizacja sygnałów akustycznych i wizyjnych wymaga, żeby błąd synchronizacji sygnałów akustycznych i wizyjnych był sprowadzany do zera. To oznacza, że gdy różnica wartości znaczników czasowych PTSaud i PTSvid sygnałów akustycznych i wizyjnych jest równa w czasie, w jednostkach lokalnego odniesienia, pomiędzy wystąpieniem odpowiednich wartości znaczników czasowych PTSaud i PTSvid, sygnał akustyczny i wizyjny będzie synchroniczny.
Można zastosować dwa mechanizmy regulacji synchronizacji sygnałów akustycznych i wizyjnych w oparciu o sygnał błędu ERRpts, mianowicie przeskakiwanie i powtarzanie sekcji danych oraz przetwarzanie odchylenia sygnału zegarowego. Przeskakiwanie ustalonych przedziałów, czyli ramek sygnałów akustycznych, powoduje wyprzedzenie strumienia danych akustycznych o ustalony przedział względem sygnału wizyjnego. Powtarzanie, czyli tłumienie bez zużywania danych, opóźnia strumień danych akustycznych o ustalone przedziały względem sygnału wizyjnego. Przeskakiwanie i powtarzanie ramek akustycznych jest w wielu warunkach słyszalne, a zatem jest wykorzystywane tylko do zgrubnej regulacji synchronizacji. Nawet krótkie przeskakiwanie lub powtarzanie może być korzystne do usuwania błędów synchronizacji sygnałów akustycznych i wizyjnych. Jeżeli ramki akustyczne są krótsze niż 40 ms, regulacja zgrubna przez przeskakiwanie i powtarzanie może powodować błędy synchronizacji w zakresie ± 20 ms, co mieści się w zakresie standardów przemysłowych dla synchronizacji sygnałów akustycznych i wizyjnych. Jednak ta synchronizacja pogorszy się, jeżeli podstawa czasu dla przetwarzania sygnałów akustycznych nie jest dopasowana do podstawy czasu źródła sygnałów. Po regulacji zgrubnej synchronizacji są wprowadzane zmiany częstotliwości zegarowej dla przetwarzania sygnałów akustycznych w celu dokładnego określenia synchronizacji sygnałów akustycznych i wizyjnych.
174 674
Sygnał błędu ERRpts jest dostarczany do filtru i procesora 216. Funkcja filtrowania powoduje wygładzenie sygnału błędu ERRpts w celu zmniejszenia do minimum skutków odchyleń, które inaczej mogłyby być wytwarzane przez sygnał szumu. Funkcja przetwarzania realizowana w filtrze i procesorze 216 umożliwia wówczas badanie wygładzonego sygnału błędu i określa, czy przeskakiwanie i powtarzanie sygnału akustycznego powinno być wykorzystane do spowodowania synchronizacji zgrubnej sygnałów akustycznych i wizyjnych i/lub czy regulacja częstotliwości przetwarzania sygnałów akustycznych powinna być wykorzystana do spowodowania dokładnej synchronizacji. Jeżeli zgrubna regulacja synchronizacji jest uważana za konieczną, filtr i procesor 216 dostarcza sygnał sterujący do dekompresora 212 sygnałów akustycznych w celu ustalenia stanu dekompresora na przeskakiwanie lub powtarzanie bieżącej ramki sygnału akustycznego poddawanego dekompresji. W innym przypadku lub w uzupełnieniu do regulacji zgrubnej, jeżeli regulacja dokładna jest uważana za konieczną, procesor 216 dostarcza sygnał sterujący do układu podstawy czasu 215 sygnałów akustycznych w celu regulacji częstotliwości sygnału zegarowego dla przetwarzania sygnałów akustycznych.
Figura 4 przedstawia sieć działań dla układu z fig. 2, podając szczegółowo algorytm przetwarzania. Po uruchomieniu urządzenia, co oznaczono przez start w kroku 400, w kroku 401 układ kontroluje nową ramkę akustyczną w dekompresorze sygnałów akustycznych, ze względu na wystąpienie akustycznego znacznika czasowego PTSa„d i jeżeli akustyczny znacznik czasowy PTSaud jest wykrywany, w kroku 403 następuje jego odczyt oraz odbiór i zapis wartości LAS lokalnego sygnału zegarowego odniesienia. Jeżeli akustyczny znacznik czasowy PTSaud nie wystąpił, w kroku 402 układ kontroluje nową ramkę wizyjną w kompresorze sygnałów wizyjnych, ze względu na wystąpienie wizyjnego znacznika czasowego PTSvid. Jeżeli wizyjny znacznik czasowy PTSvid wystąpił w kroku 404, następuje odczyt tego wizyjnego znacznika czasowego PTSVid oraz odbiór i zapamiętanie wartości LVS lokalnego sygnału zegarowego odniesienia. Wówczas, gdy oba znaczniki czasowe PTSaud i PTSVid zostały odczytane, w kroku 405 następuje obliczenie wartości sygnału błędu ERRpts zgodnie z równaniem:
ERRpts = Δψ-ptre - Δα-pts
Wartość sygnału błędu ERRpts jest badana w kroku 406 w celu określenia, czy jest ona większa od połowy przedziału ramki sygnału wizyjnego. Jeżeli jest ona większa od połowy przedziału ramki sygnału akustycznego, w kroku 407 sygnał błędu ERRpts jest sprawdzany ze względu na biegunowość. Jeżeli biegunowość jest dodatnia, w kroku 409 następuje powtórzenie bieżącej ramki akustycznej. Jeżeli jest ona ujemna, w kroku 408 następuje przeskoczenie bieżącej ramki akustycznej. Po przeskoczeniu lub powtórzeniu ramki, układ powraca do położenia startowego w celu oczekiwania na następne wyi^itąpienie znacznika czasowego PTS.
Po kroku 406, jeżeli wartość sygnału błędu jest mniejsza niż połowa przedziału ramki akustycznej, w kroku 410 błąd jest badany w celu określenia, czy wartość sygnału błędu ERRpts jest większa od zera. Jeżeli wartość tego błędu jest większa od zera, w kroku 412 następuje sprawdzenie, czy wartość sygnału błędu ERRpts jest mniejsza od poprzedniej wartości sygnału błędu. Jeżeli jest ona mniejsza od poprzedniej wartości sygnału błędu, oznacza to, że układ zbliża się do synchronizacji i parametry sterujące synchronizacją nie są zmienione. Układ powraca do położenia startowego w celu oczekiwania na następne znaczniki czasowe PTS. Odwrotnie, jeżeli błąd wzrósł ponad poprzedni sygnał błędu, w kroku 414 zegar przetwarzający sygnały akustyczne jest regulowany w celu zmniejszenia jego częstotliwości.
Po kroku 410, jeżeli błąd jest mniejszy niż zero czyli ujemny, w kroku 411 jest sprawdzany w celu określenia, czy wartość sygnału błędu ERRpts jest większa od poprzedniej wartości sygnału błędu. Jeżeli jest ona większa od poprzedniego sygnału błędu, oznacza to także, że układ zbliża się do synchronizacji i parametry sterujące synchronizacją nie są zmienione. Odmiennie, jeżeli bieżący sygnał błędu jest mniejszy od poprzedniego sygnału błędu, w kroku 413 układ oddala się nadal od synchronizacji i częstotliwość zegarowa dla przetwarzania sygnałów akustycznych jest zwiększana. Po krokach 412 i 413 układ powraca do stanu oczekiwania na następne wystąpienie znaczników czasowych PTS. W tym przykładzie układ realizuje tylko regulacje zgrubne przez przeskakiwanie i powtarzanie ramek akustycznych, aż błąd synchronizacji sygnałów akustycznych i wizyjnych zostanie zmniejszony do wartości mniejszej niż połowa przedziału ramki akustycznej.
W innym przykładzie wykonania odfiltrowany sygnał błędu jest porównywany z określonym poziomem progowym związanym z wymiarem poszczególnych ramek akustycznych. Jeżeli sygnał błędu jest mniejszy niż poziom progowy, wskazując, że błąd taktowania sygnałów akustycznych i wizyjnych jest mniejszy niż ramka akustyczna, sygnał błędu jest doprowadzany do układu podstawy czasu 215 sygnałów akustycznych, gdzie jest wykorzystywany do regulacji częstotliwości zegara przetwarzającego i poddającego dekompresji sygnał akustyczny. Odwrotnie, jeżeli sygnał błędu jest większy niż poziom progowy, sygnał błędu może być podzielony na przedział ramki akustycznej w celu określenia liczby ramek akustycznych, o które sygnał akustyczny jest przesunięty względem sygnału wizyjnego. Część całkowita ilorazu jest doprowadzana do dekompresora sygnałów akustycznych, aby wprowadzić dekompresor sygnałów akustycznych w stan przeskakiwania lub powtarzania tej liczby ramek akustycznych. Biegunowość sygnału błędu będzie określać, czy ramki akustyczne powinny podlegać przeskokowi lub powtórzeniu. Nominalnie dane poddane dekompresji są wprowadzane do pamięci buforowej przed wystąpieniem na wyjściu, więc przeskakiwanie, lub powtarzanie ramek akustycznych jest proste do sterowania, umożliwiając wykonywanie rozkazów odczytu i zapisu pamięci.
Część ilorazu jest doprowadzana do układu podstawy czasu 215 sygnałów akustycznych, gdzie jest wykorzystywana do regulacji zegara przetwarzającego sygnały akustyczne w celu dokładnej synchronizacji sygnałów akustycznych i wizyjnych.
Szybkość wytwarzania akustycznych znaczników czasowych PTSaud jest proporcjonalna do szybkości przetwarzania przez dekompresor sygnałów akustycznych. Szybkość przetwarzania przez dekompresor sygnałów akustycznych jest wprost proporcjonalna do częstotliwości sygnału zegarowego stosowanego do uruchomienia dekompresora sygnałów akustycznych. Jeżeli częstotliwość zegarowa dekompresora sygnałów akustycznych jest niezależna od zegara zastosowanego do uruchomienia dekompresora sygnałów wizyjnych oraz jest dokładnie regulowana, wtedy względna szybkość występowania akustycznych i wizyjnych znaczników czasowych PTS może być regulowana, a sygnały akustyczne i wizyjne dokładnie synchronizowane.
Figura 5 przedstawia pierwszy przykład wykonania układu wytwarzania regulowanego sygnału zegarowego do przetwarzania sygnałów akustycznych. Na fig. 5 generator 503 o sterowanym napięciu jest włączony w pętli synchronizacji fazowej zawierającej detektor fazowy 50θ i filtr dolnoprzepustowy 501. Wyjście generatora 503 o sterowanym napięciu jest dołączone do jednego wejścia detektora fazowego 500. Generator 208 sygnałów zegarowych układu jest dołączony do drugiego wejścia detektora fazowego 500 poprzez układ mnożący 505 szybkości przesyłania danych binarnych. Sygnał błędu fazy, otrzymywany przez detektor fazowy 500, jest filtrowany przez filtr dolnoprzepustowy 501. Wygładzony sygnał błędu fazy jest doprowadzony do wejściowej końcówki sterującej generatora 503 o sterowanym napięciu w celu wprowadzania go w stan drgań o takiej samej częstotliwości i fazie jak sygnał wyjściowy układu mnożącego 505 szybkości przesyłania danych binarnych. W tym przykładzie częstotliwość zegarowa układu wynosi w przybliżeniu 27 MHz i wymagana częstotliwość zegarowa dla przetwarzania sygnałów akustycznych wynosi w przybliżeniu 1/380 częstotliwości sygnału zegarowego o 27 MHz. Sygnał sterujący z procesora 216 jest doprowadzony do wejściowej końcówki sterującej układu mnożącego 505 szybkości przesyłania danych binarnych w celu sterowania jego częstotliwością wyjściową. Ten sygnał sterujący jest wybrany w celu reprezentowania nominalnego współczynnika podziału 1/380, przy czym jest modulowany wokół tej wartości tak, żeby ustalać stan wyjścia układu mnożącego 505 szybkości przesyłania danych binarnych w celu wytwarzania
174 674 częstotliwości wyjściowej proporcjonalnej do chwilowej, wymaganej szybkości przetwarzania sygnałów akustycznych.
Figura 6 przedstawia drugi przykład wykonania układu wytwarzania regulowanego sygnału zegarowego do przetwarzania sygnałów akustycznych. W tym przykładzie stała częstotliwość zegarowa z generatora 208 sygnałów zegarowych lub innego stabilnego generatora jest doprowadzana do jednego wejścia układu mnożącego 600 szybkości przesyłania danych binarnych, który jest sterowany przez sygnał sterujący z procesora 216 w celu wytwarzania nominalnej, wymaganej częstotliwości zegarowej dla przetwarzania sygnałów akustycznych. W odpowiedzi na sygnał błędu procesor 216 zmienia sygnał sterujący w celu ustalenia stanu układu mnożącego 600 szybkości przesyłania danych binarnych, albo zwiększającego albo zmniejszającego nominalną częstotliwość zegarową dla przetwarzania sygnałów akustycznych.
W następnym przykładzie wykonania układ wytwarzania regulowanego, sygnału zegarowego do przetwarzania sygnałów akustycznych, którego nie pokazano na rysunku, zawiera generator do dostarczania nominalnej, maksymalnej częstotliwości zegarowej dla przetwarzania sygnałów akustycznych, oraz obwód bramkujący. Generator jest dołączony do obwodu przetwarzającego sygnały akustyczne przez obwód bramkujący. Obwód bramkujący jest sterowany przez procesor 216 w celu usunięcia niektórych impulsów wyjściowych generatora, aby zapewnić wymaganą średnią częstotliwość zegarową dla przetwarzania sygnałów akustycznych.
W innym przykładzie wykonania układ synchronizacji z połączeniem, oznaczonym kreskowaną strzałką na fig. 2, może być przystosowany do przeskakiwania lub powtarzania ramek wizyjnych dla uzyskania synchronizacji. Można przeskakiwać ramki wizyjne w celu wyprzedzania lub opóźniania sygnałów wizyjnych przez sygnały akustyczne i można przeskakiwać ramki akustyczne w celu opóźniania lub wyprzedzania sygnałów wizynych przez sygnały akustyczne. Jednak w korzystnym przykładzie wykonania ramki akustyczne są przeskakiwane i powtarzane dla opóźniania i wyprzedzania sygnałów wizyjnych przez sygnały akustyczne.
174 674
174 674
FIG. 2
174 674
210
k38
ΧΓ'
SYGNAŁY
^.AKUSTYCZNE κ SYGNAŁY ''WIZYJNE y aux
FIG. 3
174 674
FIG. 4
174 674
216
216
Departament Wydawnictw UP RP. Nakład 90 egz. Cena 4,00 zł
Claims (8)
- Zastrzeżenia patentowe1. Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych, dołączone do układu transmisji poddanych kompresji sygnałów akustycznych i wizyjnych ze znacznikami czasowymi związanymi z sygnałami zegarowymi układu, zawierające źródło odzyskiwanych, poddanych kompresji sygnałów akustycznych i wizyjnych, dołączone do sterownika układu, do generatora sygnałów zegarowych, do dekompresora sygnałów wizyjnych dla dostarczania wizyjnych znaczników czasowych i do dekompresora sygnałów akustycznych dla dostarczania akustycznych znaczników czasowych, znamienne tym, że do wyjścia dekompresora (214) sygnałów wizyjnych jest dołączone jedno wejście pierwszego układu odejmującego (217), do którego drugiego wejścia jest dołączony pierwszy przerzutnik zatrzaskowy (222) dołączony do generatora (208) sygnałów zegarowych, a do wyjścia dekompresora (212) sygnałów akustycznych jest dołączone jedno wejście drugiego układu odejmującego (218), do którego drugiego wejścia jest dołączony drugi przerzutnik zatrzaskowy (220) dołączony do generatora (208) sygnałów zegarowych, a wyjścia obu układów odejmujących są dołączone do trzeciego układu odejmującego (219) wartości znaczników czasowych akustycznych i wizyjnych, dołączonego do układu synchronizacji.
- 2. Urządzenie według zastrz. 1, znamienne tym, że układ synchronizacji zawiera filtr i procesor (216) dołączone do układu podstawy czasu (215) sygnałów akustycznych.
- 3. Urządzenie według zastrz. 1, znamienne tym, że układ odejmujący (219) ma wejście akustycznych znaczników czasowych (PTSaIJd) i wejście wizyjnych znaczników czasowych (PTSVid) oraz wyjście sygnału błędu synchronizacji.
- 4. Urządzenie według zastrz. 1, znamienne tym, że do przerzutnika zatrzaskowego (220) jest dołączony licznik lokalny (36) do zliczania cykli lokalnego sygnału zegarowego.
- 5. Urządzenie według zastrz. 4, znamienne tym, że licznik lokalny (36) jest przystosowany do zliczania modulo N.
- 6. Urządzenie według zastrz. 2, znamienne tym, że filtr i procesor (216) jest dołączony do dekompresora (212) sygnałów akustycznych dla regulacji przeskakiwania i powtarzania sygnału akustycznego.
- 7. Urządzenie według zastrz. 2, znamienne tym, że układ podstawy czasu (215) jest dołączony do dekompresora (212) sygnałów akustycznych dla regulacji częstotliwości sygnału zegarowego.
- 8. Urządzenie według zastrz. 6, znamienne tym, że do filtru i procesora (216) oraz generatora (208) sygnałów zegarowych jest dołączony układ mnożący (505) szybkości przesyłanych danych binarnych.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/129,974 US5430485A (en) | 1993-09-30 | 1993-09-30 | Audio/video synchronization in a digital transmission system |
Publications (2)
Publication Number | Publication Date |
---|---|
PL305189A1 PL305189A1 (en) | 1995-04-03 |
PL174674B1 true PL174674B1 (pl) | 1998-08-31 |
Family
ID=22442450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PL94305189A PL174674B1 (pl) | 1993-09-30 | 1994-09-26 | Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych |
Country Status (15)
Country | Link |
---|---|
US (1) | US5430485A (pl) |
EP (1) | EP0648056B1 (pl) |
JP (4) | JP3633972B2 (pl) |
KR (1) | KR100337212B1 (pl) |
CN (1) | CN1053308C (pl) |
AU (1) | AU684520B2 (pl) |
CA (1) | CA2132186C (pl) |
DE (1) | DE69417139T2 (pl) |
ES (1) | ES2131139T3 (pl) |
FI (1) | FI112144B (pl) |
MY (1) | MY111711A (pl) |
PL (1) | PL174674B1 (pl) |
RU (1) | RU2142210C1 (pl) |
SG (1) | SG70960A1 (pl) |
TR (1) | TR28210A (pl) |
Families Citing this family (169)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7382929B2 (en) | 1989-05-22 | 2008-06-03 | Pixel Instruments Corporation | Spatial scan replication circuit |
US5878273A (en) | 1993-06-24 | 1999-03-02 | Discovision Associates | System for microprogrammable state machine in video parser disabling portion of processing stages responsive to sequence-- end token generating by token generator responsive to received data |
US5430485A (en) * | 1993-09-30 | 1995-07-04 | Thomson Consumer Electronics, Inc. | Audio/video synchronization in a digital transmission system |
US5612981A (en) * | 1994-02-15 | 1997-03-18 | Philips Electronics North America Corporation | Apparatus and methods for improving timing recovery of a system clock |
JP3197766B2 (ja) * | 1994-02-17 | 2001-08-13 | 三洋電機株式会社 | Mpegオーディオデコーダ、mpegビデオデコーダおよびmpegシステムデコーダ |
US5566174A (en) * | 1994-04-08 | 1996-10-15 | Philips Electronics North America Corporation | MPEG information signal conversion system |
US5521979A (en) * | 1994-04-22 | 1996-05-28 | Thomson Consumer Electronics, Inc. | Packet video signal inverse transport system |
US5642171A (en) * | 1994-06-08 | 1997-06-24 | Dell Usa, L.P. | Method and apparatus for synchronizing audio and video data streams in a multimedia system |
US5734432A (en) * | 1994-07-15 | 1998-03-31 | Lucent Technologies, Inc. | Method of incorporating a variable rate auxiliary data stream with a variable rate primary data stream |
US5603016A (en) * | 1994-08-03 | 1997-02-11 | Intel Corporation | Method for synchronizing playback of an audio track to a video track |
GB9512068D0 (en) * | 1995-06-14 | 1995-08-09 | Thomson Consumer Electronics | Bus and interface system for consumer digital equipment |
US6236694B1 (en) * | 1994-08-19 | 2001-05-22 | Thomson Licensing S.A. | Bus and interface system for consumer digital equipment |
US5598352A (en) * | 1994-09-30 | 1997-01-28 | Cirrus Logic, Inc. | Method and apparatus for audio and video synchronizing in MPEG playback systems |
US5594660A (en) * | 1994-09-30 | 1997-01-14 | Cirrus Logic, Inc. | Programmable audio-video synchronization method and apparatus for multimedia systems |
US5920842A (en) * | 1994-10-12 | 1999-07-06 | Pixel Instruments | Signal synchronization |
US5771075A (en) * | 1994-12-08 | 1998-06-23 | Lg Electronics Inc. | Audio/video synchronizer |
US5588029A (en) * | 1995-01-20 | 1996-12-24 | Lsi Logic Corporation | MPEG audio synchronization system using subframe skip and repeat |
US5905768A (en) * | 1994-12-13 | 1999-05-18 | Lsi Logic Corporation | MPEG audio synchronization system using subframe skip and repeat |
IT1268195B1 (it) * | 1994-12-23 | 1997-02-21 | Sip | Decodificatore per segnali audio appartenenti a sequenze audiovisive compresse e codificate. |
US5543853A (en) * | 1995-01-19 | 1996-08-06 | At&T Corp. | Encoder/decoder buffer control for variable bit-rate channel |
US5621772A (en) * | 1995-01-20 | 1997-04-15 | Lsi Logic Corporation | Hysteretic synchronization system for MPEG audio frame decoder |
US5751694A (en) * | 1995-05-22 | 1998-05-12 | Sony Corporation | Methods and apparatus for synchronizing temporally related data streams |
US6119213A (en) * | 1995-06-07 | 2000-09-12 | Discovision Associates | Method for addressing data having variable data width using a fixed number of bits for address and width defining fields |
US5920572A (en) * | 1995-06-30 | 1999-07-06 | Divicom Inc. | Transport stream decoder/demultiplexer for hierarchically organized audio-video streams |
US6058141A (en) * | 1995-09-28 | 2000-05-02 | Digital Bitcasting Corporation | Varied frame rate video |
JPH09149411A (ja) * | 1995-11-24 | 1997-06-06 | Ekushingu:Kk | 復号化装置 |
US6836295B1 (en) | 1995-12-07 | 2004-12-28 | J. Carl Cooper | Audio to video timing measurement for MPEG type television systems |
US5784572A (en) * | 1995-12-29 | 1998-07-21 | Lsi Logic Corporation | Method and apparatus for compressing video and voice signals according to different standards |
US5835493A (en) * | 1996-01-02 | 1998-11-10 | Divicom, Inc. | MPEG transport stream remultiplexer |
US5828414A (en) * | 1996-02-23 | 1998-10-27 | Divicom, Inc. | Reduction of timing jitter in audio-video transport streams |
US5875354A (en) * | 1996-03-01 | 1999-02-23 | Apple Computer, Inc. | System for synchronization by modifying the rate of conversion by difference of rate between first clock and audio clock during a second time period |
US6233256B1 (en) * | 1996-03-13 | 2001-05-15 | Sarnoff Corporation | Method and apparatus for analyzing and monitoring packet streams |
JPH09266460A (ja) * | 1996-03-28 | 1997-10-07 | Sony Corp | 送受信システム |
US5878039A (en) * | 1996-04-24 | 1999-03-02 | Nec America, Inc. | Bus rate adaptation and time slot assignment circuit for a sonet multiplex system |
US6181383B1 (en) | 1996-05-29 | 2001-01-30 | Sarnoff Corporation | Method and apparatus for preserving synchronization of audio and video presentation when splicing transport streams |
JP3418065B2 (ja) * | 1996-06-26 | 2003-06-16 | 三菱電機株式会社 | 光ディスク |
DE69719828T2 (de) * | 1996-07-05 | 2003-12-24 | Matsushita Electric Ind Co Ltd | Verfahren zum Anzeigezeitstempeln und zur Synchronisation mehrerer Videoobjektebenen |
JP3063824B2 (ja) * | 1996-10-29 | 2000-07-12 | 日本電気株式会社 | オーディオ・ビデオ同期再生装置 |
EP2175666B1 (en) | 1996-12-04 | 2012-11-14 | Panasonic Corporation | Optical disk for high resolution and three-dimensional video recording, optical disk reproduction apparatus, and optical disk recording apparatus |
JP3454653B2 (ja) * | 1996-12-27 | 2003-10-06 | 矢崎総業株式会社 | データ送信装置、データ受信装置、データ通信装置、及びデータ通信方法 |
ATE331390T1 (de) * | 1997-02-14 | 2006-07-15 | Univ Columbia | Objektbasiertes audiovisuelles endgerät und entsprechende bitstromstruktur |
EP0880246A3 (en) | 1997-05-15 | 1999-12-01 | Matsushita Electric Industrial Co., Ltd. | Compressed code decoding device and audio decoding device |
GB2326781B (en) * | 1997-05-30 | 2001-10-10 | British Broadcasting Corp | Video and audio signal processing |
US6310918B1 (en) | 1997-07-31 | 2001-10-30 | Lsi Logic Corporation | System and method for motion vector extraction and computation meeting 2-frame store and letterboxing requirements |
US6122316A (en) * | 1997-07-31 | 2000-09-19 | Lsi Logic Corporation | MPEG decoding system meeting 2-frame store and letterboxing requirements |
US6236681B1 (en) | 1997-07-31 | 2001-05-22 | Lsi Logic Corporation | Method for decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements |
US6266091B1 (en) | 1997-07-31 | 2001-07-24 | Lsi Logic Corporation | System and method for low delay mode operation video decoding |
US6289053B1 (en) | 1997-07-31 | 2001-09-11 | Lsi Logic Corporation | Architecture for decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements |
US6101221A (en) * | 1997-07-31 | 2000-08-08 | Lsi Logic Corporation | Video bitstream symbol extractor for use in decoding MPEG compliant video bitstreams meeting 2-frame and letterboxing requirements |
KR100257070B1 (ko) * | 1997-08-14 | 2000-05-15 | 김영환 | 박막트랜지스터 및 이의 제조방법 |
KR100436676B1 (ko) * | 1997-09-04 | 2004-06-22 | 실리콘 이미지, 인크.(델라웨어주 법인) | 고속, 동기된 데이터 통신을 위한 시스템 및 방법 |
JP3063838B2 (ja) * | 1997-10-02 | 2000-07-12 | 日本電気株式会社 | オーディオ・ビデオ同期再生装置および方法 |
US5899969A (en) * | 1997-10-17 | 1999-05-04 | Dolby Laboratories Licensing Corporation | Frame-based audio coding with gain-control words |
KR100301826B1 (ko) * | 1997-12-29 | 2001-10-27 | 구자홍 | 비디오디코더 |
KR19990061872A (ko) * | 1997-12-31 | 1999-07-26 | 서평원 | 에스티비에서 비디오데이터 전송제어시스템 |
US6292490B1 (en) | 1998-01-14 | 2001-09-18 | Skystream Corporation | Receipts and dispatch timing of transport packets in a video program bearing stream remultiplexer |
US6351471B1 (en) | 1998-01-14 | 2002-02-26 | Skystream Networks Inc. | Brandwidth optimization of video program bearing transport streams |
US6246701B1 (en) | 1998-01-14 | 2001-06-12 | Skystream Corporation | Reference time clock locking in a remultiplexer for video program bearing transport streams |
US6351474B1 (en) * | 1998-01-14 | 2002-02-26 | Skystream Networks Inc. | Network distributed remultiplexer for video program bearing transport streams |
US6195368B1 (en) | 1998-01-14 | 2001-02-27 | Skystream Corporation | Re-timing of video program bearing streams transmitted by an asynchronous communication link |
US7199836B1 (en) * | 1998-02-13 | 2007-04-03 | The Trustees Of Columbia University In The City Of New York | Object-based audio-visual terminal and bitstream structure |
US6081299A (en) | 1998-02-20 | 2000-06-27 | International Business Machines Corporation | Methods and systems for encoding real time multimedia data |
US6249319B1 (en) * | 1998-03-30 | 2001-06-19 | International Business Machines Corporation | Method and apparatus for finding a correct synchronization point within a data stream |
GB9807295D0 (en) * | 1998-04-03 | 1998-06-03 | Snell & Wilcox Ltd | Improvements relating to audio-video delay |
SE517547C2 (sv) | 1998-06-08 | 2002-06-18 | Ericsson Telefon Ab L M | Signalsynkronisering vid signalkvalitetsmätning |
US6016166A (en) * | 1998-08-31 | 2000-01-18 | Lucent Technologies Inc. | Method and apparatus for adaptive synchronization of digital video and audio playback in a multimedia playback system |
JP2000092348A (ja) | 1998-09-10 | 2000-03-31 | Mitsubishi Electric Corp | フレームシンクロナイザ |
WO2000064145A1 (en) * | 1999-04-20 | 2000-10-26 | Alexandr Vitalievich Kitaev | Video camera |
EP1496654B1 (en) * | 1999-05-25 | 2006-07-12 | Lucent Technologies Inc. | Method for telecommunications using internet protocol |
US6583821B1 (en) * | 1999-07-16 | 2003-06-24 | Thomson Licensing S.A. | Synchronizing apparatus for a compressed audio/video signal receiver |
CA2313979C (en) * | 1999-07-21 | 2012-06-12 | Thomson Licensing Sa | Synchronizing apparatus for a compressed audio/video signal receiver |
KR100644562B1 (ko) * | 1999-08-20 | 2006-11-13 | 삼성전자주식회사 | 오디오/비디오 신호 동기 장치 및 그 방법 |
GB0000874D0 (en) | 2000-01-14 | 2000-03-08 | Koninkl Philips Electronics Nv | Latency handling for interconnected devices |
WO2002015591A1 (en) * | 2000-08-16 | 2002-02-21 | Koninklijke Philips Electronics N.V. | Method of playing multimedia data |
US20020089602A1 (en) * | 2000-10-18 | 2002-07-11 | Sullivan Gary J. | Compressed timing indicators for media samples |
FR2815805B1 (fr) * | 2000-10-23 | 2005-09-02 | Telediffusion De France Tdf | Procede de synchronisation de signaux numeriques |
US20020159552A1 (en) * | 2000-11-22 | 2002-10-31 | Yeshik Shin | Method and system for plesiosynchronous communications with null insertion and removal |
US20020077117A1 (en) * | 2000-12-15 | 2002-06-20 | Jocelyn Cloutier | Synchronous transmission of data with network remote control |
US7030930B2 (en) * | 2001-03-06 | 2006-04-18 | Ati Technologies, Inc. | System for digitized audio stream synchronization and method thereof |
JP2002290932A (ja) | 2001-03-27 | 2002-10-04 | Toshiba Corp | デジタル放送受信装置とその制御方法 |
EP1433317B1 (en) * | 2001-07-19 | 2007-05-02 | Thomson Licensing | Fade resistant digital transmission and reception system |
JP3591493B2 (ja) * | 2001-07-25 | 2004-11-17 | ソニー株式会社 | ネットワークシステム、およびネットワークシステムの同期方法 |
US8880709B2 (en) * | 2001-09-12 | 2014-11-04 | Ericsson Television Inc. | Method and system for scheduled streaming of best effort data |
KR100831213B1 (ko) * | 2001-09-17 | 2008-05-21 | 엘지전자 주식회사 | 음성 데이터와 영상 데이터의 재생 동기화 장치 및 방법 |
US7269338B2 (en) * | 2001-12-11 | 2007-09-11 | Koninklijke Philips Electronics N.V. | Apparatus and method for synchronizing presentation from bit streams based on their content |
US7283566B2 (en) * | 2002-06-14 | 2007-10-16 | Silicon Image, Inc. | Method and circuit for generating time stamp data from an embedded-clock audio data stream and a video clock |
US6850284B2 (en) * | 2002-08-27 | 2005-02-01 | Motorola, Inc. | Method and apparatus for decoding audio and video information |
US7230651B2 (en) * | 2002-10-22 | 2007-06-12 | Broadcom Corporation | A/V decoder having a clocking scheme that is independent of input data streams |
KR100984818B1 (ko) * | 2002-11-07 | 2010-10-05 | 톰슨 라이센싱 | 버퍼 연산을 사용하는 디지털 환경에서 오디오와 비디오간의 립싱크를 결정하기 위한 방법 및 시스템 |
CN1720749B (zh) * | 2002-12-04 | 2010-12-08 | 三叉微系统(远东)有限公司 | 自动测试音频/视频同步的方法 |
FR2849328A1 (fr) * | 2002-12-20 | 2004-06-25 | St Microelectronics Sa | Procede et dispositif de synchronisation de la presentation de trames audio et/ou de trames video |
US6833765B2 (en) * | 2003-01-23 | 2004-12-21 | Ess Technology, Inc. | Frequency locked loop with improved stability using binary rate multiplier circuits |
GB0306973D0 (en) | 2003-03-26 | 2003-04-30 | British Telecomm | Transmitting video |
US8086752B2 (en) | 2006-11-22 | 2011-12-27 | Sonos, Inc. | Systems and methods for synchronizing operations among a plurality of independently clocked digital data processing devices that independently source digital data |
US11294618B2 (en) | 2003-07-28 | 2022-04-05 | Sonos, Inc. | Media player system |
US10613817B2 (en) | 2003-07-28 | 2020-04-07 | Sonos, Inc. | Method and apparatus for displaying a list of tracks scheduled for playback by a synchrony group |
US11650784B2 (en) | 2003-07-28 | 2023-05-16 | Sonos, Inc. | Adjusting volume levels |
US8290603B1 (en) | 2004-06-05 | 2012-10-16 | Sonos, Inc. | User interfaces for controlling and manipulating groupings in a multi-zone media system |
US11106424B2 (en) | 2003-07-28 | 2021-08-31 | Sonos, Inc. | Synchronizing operations among a plurality of independently clocked digital data processing devices |
US8234395B2 (en) | 2003-07-28 | 2012-07-31 | Sonos, Inc. | System and method for synchronizing operations among a plurality of independently clocked digital data processing devices |
US11106425B2 (en) | 2003-07-28 | 2021-08-31 | Sonos, Inc. | Synchronizing operations among a plurality of independently clocked digital data processing devices |
US7693222B2 (en) | 2003-08-13 | 2010-04-06 | Ericsson Television Inc. | Method and system for re-multiplexing of content-modified MPEG-2 transport streams using PCR interpolation |
JP4735932B2 (ja) * | 2003-09-02 | 2011-07-27 | ソニー株式会社 | コンテンツ受信装置、ビデオオーディオ出力タイミング制御方法及びコンテンツ提供システム |
US7366462B2 (en) | 2003-10-24 | 2008-04-29 | Qualcomm Incorporated | Method and apparatus for seamlessly switching reception between multimedia streams in a wireless communication system |
US7570304B1 (en) * | 2003-11-21 | 2009-08-04 | Sigma Designs, Inc. | Method, apparatus and computer program product for synchronizing presentation of digital video data with serving of digital video data |
KR20050052717A (ko) * | 2003-12-01 | 2005-06-07 | 엘지전자 주식회사 | 오디오 원본 보존 트랜스코딩 시스템 및 방법 |
US7405769B2 (en) * | 2004-02-09 | 2008-07-29 | Broadcom Corporation | Method and system for 3D comb synchronization and alignment of standard and non-standard video signals |
GB0406901D0 (en) * | 2004-03-26 | 2004-04-28 | British Telecomm | Transmitting recorded material |
US9977561B2 (en) | 2004-04-01 | 2018-05-22 | Sonos, Inc. | Systems, methods, apparatus, and articles of manufacture to provide guest access |
DE102004017215A1 (de) * | 2004-04-05 | 2005-10-20 | Sennheiser Electronic | Audiovisuelles System |
US7170545B2 (en) * | 2004-04-27 | 2007-01-30 | Polycom, Inc. | Method and apparatus for inserting variable audio delay to minimize latency in video conferencing |
US8024055B1 (en) | 2004-05-15 | 2011-09-20 | Sonos, Inc. | Method and system for controlling amplifiers |
US8868698B2 (en) | 2004-06-05 | 2014-10-21 | Sonos, Inc. | Establishing a secure wireless network with minimum human intervention |
US8326951B1 (en) | 2004-06-05 | 2012-12-04 | Sonos, Inc. | Establishing a secure wireless network with minimum human intervention |
US7400653B2 (en) * | 2004-06-18 | 2008-07-15 | Dolby Laboratories Licensing Corporation | Maintaining synchronization of streaming audio and video using internet protocol |
JP4270084B2 (ja) | 2004-09-14 | 2009-05-27 | 株式会社日立製作所 | 記録再生装置 |
CN100340115C (zh) * | 2004-10-22 | 2007-09-26 | 威盛电子股份有限公司 | 影音资料流中时间轴切换处理装置及其方法 |
US20060104305A1 (en) * | 2004-11-12 | 2006-05-18 | William Yoshida | Audio/video streaming system |
JP4304615B2 (ja) | 2004-11-17 | 2009-07-29 | ソニー株式会社 | データ処理装置、データ処理方法及びデータ処理プログラム |
GB0428155D0 (en) * | 2004-12-22 | 2005-01-26 | British Telecomm | Buffer underflow prevention |
KR100652956B1 (ko) * | 2005-01-14 | 2006-12-01 | 삼성전자주식회사 | 비디오 수신지연 알림방법 및 이를 적용한 방송수신장치 |
JP4624121B2 (ja) * | 2005-01-31 | 2011-02-02 | 日本電気株式会社 | 符号化装置、これで用いるstc補正方法、符号化システム、送出系、及び音声送受信システム |
KR100658866B1 (ko) * | 2005-03-10 | 2006-12-15 | 엘지전자 주식회사 | 비디오 및 오디오 데이터 동기화 장치 및 방법 |
US8233540B2 (en) * | 2005-03-10 | 2012-07-31 | Qualcomm Incorporated | Method of time base reconstruction for discrete time labeled video |
US20060209210A1 (en) * | 2005-03-18 | 2006-09-21 | Ati Technologies Inc. | Automatic audio and video synchronization |
US7669219B2 (en) * | 2005-04-15 | 2010-02-23 | Microsoft Corporation | Synchronized media experience |
KR100638138B1 (ko) * | 2005-05-24 | 2006-10-24 | 주식회사 픽스트리 | 비디오/오디오 부호화 및 다중화 기능을 가진 하드웨어장치 및 그 작동 방법 |
US20070019931A1 (en) * | 2005-07-19 | 2007-01-25 | Texas Instruments Incorporated | Systems and methods for re-synchronizing video and audio data |
US8358375B2 (en) | 2005-10-27 | 2013-01-22 | National University Corporation Chiba University | Method and device for accurately and easily measuring a time difference between video and audio |
CA2544459A1 (en) * | 2006-04-21 | 2007-10-21 | Evertz Microsystems Ltd. | Systems and methods for synchronizing audio and video data signals |
US8379735B2 (en) * | 2006-05-15 | 2013-02-19 | Microsoft Corporation | Automatic video glitch detection and audio-video synchronization assessment |
US9202509B2 (en) | 2006-09-12 | 2015-12-01 | Sonos, Inc. | Controlling and grouping in a multi-zone media system |
US8483853B1 (en) | 2006-09-12 | 2013-07-09 | Sonos, Inc. | Controlling and manipulating groupings in a multi-zone media system |
US8788080B1 (en) | 2006-09-12 | 2014-07-22 | Sonos, Inc. | Multi-channel pairing in a media system |
JP5186094B2 (ja) * | 2006-09-29 | 2013-04-17 | サクサ株式会社 | 通信端末、マルチメディア再生制御方法、およびプログラム |
US8027560B2 (en) * | 2007-02-05 | 2011-09-27 | Thales Avionics, Inc. | System and method for synchronizing playback of audio and video |
US8842971B2 (en) * | 2007-07-31 | 2014-09-23 | The Directv Group, Inc. | Methods and apparatus to present audio and video at non-native rates |
EP2101503A1 (en) * | 2008-03-11 | 2009-09-16 | British Telecommunications Public Limited Company | Video coding |
CN102177726B (zh) * | 2008-08-21 | 2014-12-03 | 杜比实验室特许公司 | 用于音频和视频签名生成和检测的特征优化和可靠性估计 |
EP2200319A1 (en) | 2008-12-10 | 2010-06-23 | BRITISH TELECOMMUNICATIONS public limited company | Multiplexed video streaming |
EP2219342A1 (en) | 2009-02-12 | 2010-08-18 | BRITISH TELECOMMUNICATIONS public limited company | Bandwidth allocation control in multiple video streaming |
JP2010211466A (ja) * | 2009-03-10 | 2010-09-24 | Canon Inc | 画像処理装置および画像処理方法及びプログラム |
EP2323392B1 (en) * | 2009-11-03 | 2012-01-04 | Tektronix International Sales GmbH | Method and apparatus for measuring delay within a compressed digital stream |
KR101090356B1 (ko) | 2009-12-28 | 2011-12-13 | 주식회사 더블유코퍼레이션 | 오디오 신호 및 비디오 신호의 동기화 오차 보정 방법 및 장치 |
US8640181B1 (en) * | 2010-09-15 | 2014-01-28 | Mlb Advanced Media, L.P. | Synchronous and multi-sourced audio and video broadcast |
US9191147B1 (en) * | 2010-09-16 | 2015-11-17 | Benjamin J. Sheahan | Apparatus and method for conversion between analog and digital domains with a time stamp for digital control system and ultra low error rate communications channel |
US11429343B2 (en) | 2011-01-25 | 2022-08-30 | Sonos, Inc. | Stereo playback configuration and control |
US11265652B2 (en) | 2011-01-25 | 2022-03-01 | Sonos, Inc. | Playback device pairing |
US8938312B2 (en) | 2011-04-18 | 2015-01-20 | Sonos, Inc. | Smart line-in processing |
CN103621102B (zh) | 2011-05-12 | 2017-05-03 | 英特尔公司 | 用于音频与视频同步的方法、装置及系统 |
JP5778478B2 (ja) * | 2011-05-23 | 2015-09-16 | ルネサスエレクトロニクス株式会社 | データ処理システム |
US9042556B2 (en) | 2011-07-19 | 2015-05-26 | Sonos, Inc | Shaping sound responsive to speaker orientation |
US9729115B2 (en) | 2012-04-27 | 2017-08-08 | Sonos, Inc. | Intelligently increasing the sound level of player |
TWI513320B (zh) * | 2012-06-25 | 2015-12-11 | Hon Hai Prec Ind Co Ltd | 視訊會議裝置及其唇形同步的方法 |
HUP1300436A2 (en) | 2012-07-20 | 2014-02-28 | Sumitomo Chemical Co | Method for reducing damage by harmful organisms in corn cultivation |
RU2522742C2 (ru) * | 2012-08-07 | 2014-07-20 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Новосибирский государственный технический университет" | Измеритель линейных перемещений |
US9008330B2 (en) | 2012-09-28 | 2015-04-14 | Sonos, Inc. | Crossover frequency adjustments for audio speakers |
US9244516B2 (en) | 2013-09-30 | 2016-01-26 | Sonos, Inc. | Media playback system using standby mode in a mesh network |
US9226087B2 (en) | 2014-02-06 | 2015-12-29 | Sonos, Inc. | Audio output balancing during synchronized playback |
US9226073B2 (en) | 2014-02-06 | 2015-12-29 | Sonos, Inc. | Audio output balancing during synchronized playback |
US10178281B2 (en) | 2014-07-28 | 2019-01-08 | Starkey Laboratories, Inc. | System and method for synchronizing audio and video signals for a listening system |
JP6586769B2 (ja) * | 2015-04-28 | 2019-10-09 | カシオ計算機株式会社 | 撮像システム、撮像装置、収音装置、撮像方法、収音方法及びプログラム |
US10248376B2 (en) | 2015-06-11 | 2019-04-02 | Sonos, Inc. | Multiple groupings in a playback system |
US10303422B1 (en) | 2016-01-05 | 2019-05-28 | Sonos, Inc. | Multiple-device setup |
US10158905B2 (en) * | 2016-09-14 | 2018-12-18 | Dts, Inc. | Systems and methods for wirelessly transmitting audio synchronously with rendering of video |
US10142043B2 (en) * | 2016-10-11 | 2018-11-27 | Viavi Solutions Inc. | Time differential digital circuit |
US10712997B2 (en) | 2016-10-17 | 2020-07-14 | Sonos, Inc. | Room association based on name |
CN107888611B (zh) * | 2017-11-29 | 2020-10-02 | 武汉船舶通信研究所(中国船舶重工集团公司第七二二研究所) | 通信方法和装置 |
CN111954064B (zh) * | 2020-08-31 | 2022-11-04 | 三星电子(中国)研发中心 | 音视频同步方法和装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4313135B1 (en) * | 1980-07-28 | 1996-01-02 | J Carl Cooper | Method and apparatus for preserving or restoring audio to video |
US4429332A (en) * | 1981-05-18 | 1984-01-31 | Eeco Incorporated | Television compressed audio |
US5202761A (en) * | 1984-11-26 | 1993-04-13 | Cooper J Carl | Audio synchronization apparatus |
US4703355A (en) * | 1985-09-16 | 1987-10-27 | Cooper J Carl | Audio to video timing equalizer method and apparatus |
DE3732111A1 (de) * | 1987-09-24 | 1989-04-06 | Bosch Gmbh Robert | Verfahren zur laufzeitanpassung von video- und audiosignalen an ein referenzsignal |
US5231492A (en) * | 1989-03-16 | 1993-07-27 | Fujitsu Limited | Video and audio multiplex transmission system |
JP2865782B2 (ja) * | 1990-03-16 | 1999-03-08 | 富士通株式会社 | 非同期伝送用codec装置 |
US5287182A (en) * | 1992-07-02 | 1994-02-15 | At&T Bell Laboratories | Timing recovery for variable bit-rate video on asynchronous transfer mode (ATM) networks |
JP3255308B2 (ja) * | 1992-12-18 | 2002-02-12 | ソニー株式会社 | データ再生装置 |
US5430485A (en) * | 1993-09-30 | 1995-07-04 | Thomson Consumer Electronics, Inc. | Audio/video synchronization in a digital transmission system |
-
1993
- 1993-09-30 US US08/129,974 patent/US5430485A/en not_active Expired - Lifetime
-
1994
- 1994-08-16 AU AU70278/94A patent/AU684520B2/en not_active Expired
- 1994-09-08 TR TR00898/94A patent/TR28210A/xx unknown
- 1994-09-15 CA CA002132186A patent/CA2132186C/en not_active Expired - Lifetime
- 1994-09-20 MY MYPI94002502A patent/MY111711A/en unknown
- 1994-09-23 RU RU94034121A patent/RU2142210C1/ru active
- 1994-09-26 PL PL94305189A patent/PL174674B1/pl unknown
- 1994-09-27 KR KR1019940024248A patent/KR100337212B1/ko not_active IP Right Cessation
- 1994-09-28 SG SG1996002308A patent/SG70960A1/en unknown
- 1994-09-28 ES ES94115279T patent/ES2131139T3/es not_active Expired - Lifetime
- 1994-09-28 DE DE69417139T patent/DE69417139T2/de not_active Expired - Lifetime
- 1994-09-28 EP EP94115279A patent/EP0648056B1/en not_active Expired - Lifetime
- 1994-09-29 FI FI944529A patent/FI112144B/fi not_active IP Right Cessation
- 1994-09-29 CN CN94116777A patent/CN1053308C/zh not_active Expired - Lifetime
- 1994-09-29 JP JP27010794A patent/JP3633972B2/ja not_active Expired - Lifetime
-
2004
- 2004-11-15 JP JP2004330007A patent/JP3976759B2/ja not_active Expired - Lifetime
-
2005
- 2005-10-11 JP JP2005296188A patent/JP4382736B2/ja not_active Expired - Lifetime
-
2009
- 2009-01-06 JP JP2009000956A patent/JP2009124732A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
AU684520B2 (en) | 1997-12-18 |
FI112144B (fi) | 2003-10-31 |
FI944529A (fi) | 1995-03-31 |
KR950010508A (ko) | 1995-04-28 |
JP4382736B2 (ja) | 2009-12-16 |
KR100337212B1 (ko) | 2002-11-23 |
TR28210A (tr) | 1996-03-01 |
DE69417139T2 (de) | 1999-10-28 |
JP2009124732A (ja) | 2009-06-04 |
JP3976759B2 (ja) | 2007-09-19 |
DE69417139D1 (de) | 1999-04-22 |
CN1110854A (zh) | 1995-10-25 |
JP2006074821A (ja) | 2006-03-16 |
EP0648056A3 (en) | 1995-12-13 |
EP0648056B1 (en) | 1999-03-17 |
FI944529A0 (fi) | 1994-09-29 |
US5430485A (en) | 1995-07-04 |
RU94034121A (ru) | 1996-07-27 |
JP2005117677A (ja) | 2005-04-28 |
PL305189A1 (en) | 1995-04-03 |
MY111711A (en) | 2000-11-30 |
CN1053308C (zh) | 2000-06-07 |
JP3633972B2 (ja) | 2005-03-30 |
JPH07177479A (ja) | 1995-07-14 |
AU7027894A (en) | 1995-04-13 |
EP0648056A2 (en) | 1995-04-12 |
CA2132186A1 (en) | 1995-03-31 |
ES2131139T3 (es) | 1999-07-16 |
SG70960A1 (en) | 2000-03-21 |
CA2132186C (en) | 2004-07-06 |
RU2142210C1 (ru) | 1999-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
PL174674B1 (pl) | Urządzenie do synchronizacji sygnałów akustycznych i wizyjnych | |
JP4492972B2 (ja) | ビデオ・エンコーダおよびエンコーダからデコーダへのタイミングを同期させる方法 | |
JP2002027467A (ja) | 圧縮されたビデオ信号を発生する装置および伝達する方法 |