KR100352981B1 - 엠펙-1 데이터 전송 장치 및 그 방법 - Google Patents

엠펙-1 데이터 전송 장치 및 그 방법 Download PDF

Info

Publication number
KR100352981B1
KR100352981B1 KR1019990018490A KR19990018490A KR100352981B1 KR 100352981 B1 KR100352981 B1 KR 100352981B1 KR 1019990018490 A KR1019990018490 A KR 1019990018490A KR 19990018490 A KR19990018490 A KR 19990018490A KR 100352981 B1 KR100352981 B1 KR 100352981B1
Authority
KR
South Korea
Prior art keywords
data
yuv
pcm
mpeg
pts
Prior art date
Application number
KR1019990018490A
Other languages
English (en)
Other versions
KR20000074499A (ko
Inventor
유혁
정진환
Original Assignee
유혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유혁 filed Critical 유혁
Priority to KR1019990018490A priority Critical patent/KR100352981B1/ko
Priority to US09/575,494 priority patent/US6779041B1/en
Publication of KR20000074499A publication Critical patent/KR20000074499A/ko
Application granted granted Critical
Publication of KR100352981B1 publication Critical patent/KR100352981B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6175Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 네트워크상에 엠펙-1 데이터를 전송하는 경우 엠펙-1 데이터를 중간 데이터로 변환하고 서버에서 비디오 중간 데이터와 오디오 중간 데이터를 동기화시키고 패킷 형태로 중간 데이터를 전송해줌으로써, 클라이언트에서는 간단한 변환으로 중간 데이터를 수신하여 처리토록 해주는 엠펙-1 데이터 전송 장치 및 그 방법에 관한 것으로서, 이러한 본 발명은, 엠펙-1 파일의 시스템 스트림을 디코딩하는 엠펙-1(MPEG-1) 시스템 스트림 디코더, 엠펙-1 시스템 스트림 디코더에서 전달받은 비디오 스트림을 중간 데이터인 YUV 데이터로 변환하는 YUV 데이터 생성기, 엠펙-1 시스템 스트림 디코더에서 전달받은 오디오 스트림을 PCM 데이터로 변환하는 PCM 데이터 생성기, 엠펙-1 시스템 스트림 디코더에서 얻어지는 YUV PTS 및 PCM PTS와 시스템 시계로 YUV 데이터 및 PCM 데이터를 동기하여 클라이언트로 전송해주는 엠펙-1 중간 데이터 서버를 구비 함으로써, 클라이언트 측에서는 간단한 변환으로 수신한 엠펙-1 비디오/오디오 데이터를 실시간 적으로 처리할 수 있다.

Description

엠펙-1 데이터 전송 장치 및 그 방법{Apparatus and Method for streaming of MPEG-1 data}
본 발명은 네트워크(Network)를 통한 엠펙-1(MPEG-1) 데이터 전송에 관한 것으로, 특히 네트워크상에 엠펙-1 데이터를 전송하는 경우 엠펙-1 데이터를 중간 데이터로 변환하고 서버에서 비디오 중간 데이터와 오디오 중간 데이터를 동기화시키고 패킷 형태로 중간 데이터를 전송해줌으로써 클라이언트에서는 간단한 변환으로 중간 데이터를 수신하여 처리토록 해주는 엠펙-1 데이터 전송 장치 및 그 방법에 관한 것이다.
일반적으로, 네트워크를 통한 엠펙-1 데이터(비디오 데이터 및 오디오 데이터)의 전송은 네트워크의 제한된 데이터 전송 속도와 전송되는 데이터량을 고려하여, 전송측에서는 각각의 프로토콜을 이용하여 패킷 형태로 엠펙-1 데이터를 전송한다. 이 경우 수신측에서는 별도의 패킷 형태의 엠펙-1 데이터를 수신하는 장치와 압축 엠펙-1 데이터를 해제시키는 디코딩 장치를 구비하고, 전송된 엠펙-1 데이터를 수신하여 처리한다.
즉, 네트워크를 통해 엠펙-1 데이터를 전송하는 시스템은, 서버와 클라이언트로 이루어지며, 서버는 데이터 저장부에 다수의 엠펙-1 데이터를 저장하며, 클라이언트로부터 임의의 데이터 요구가 있을 경우 해당 엠펙-1 데이터를 인출하여 클라이언트로 전송해주는 역할을 한다.
이로 인해 클라이언트에서는 엠펙-1 데이터를 디코딩하는 장치가 별도로 부가되어야만 엠펙-1 데이터를 처리할 수 있으므로, 클라이언트 컴퓨터의 구성이 복잡해지는 단점이 있다.
또한, 클라이언트에서 비디오와 오디오의 동기를 구현해야 하므로 동기화에 따르는 복잡함을 초래하는 단점도 있었다.
또한, 클라이언트 측에서는 엠펙-1 데이터를 디코딩하게 되므로 고속의 중앙처리장치도 필요하게 되어 하드웨어의 구현이 복잡해지고, 경제적인 측면에서도 제품의 가격을 상승시키는 단점이 있었다.
따라서 본 발명은 상기와 같은 종래 기술의 제반 문제점을 해결하기 위해서 제안된 것으로서,
본 발명의 목적은, 네트워크상에 엠펙-1 데이터를 전송하는 경우 엠펙-1 데이터를 중간 데이터로 변환하고 서버에서 비디오 중간 데이터와 오디오 중간 데이터를 동기화시키고 패킷 형태로 중간 데이터를 전송해줌으로써 클라이언트에서는 간단한 변환으로 중간 데이터를 수신하여 처리토록 해주는 엠펙-1 데이터 전송 장치를 제공하는 데 있다.
본 발명의 다른 목적은, 네트워크에 동기화된 중간 데이터 형태의 엠펙-1 데이터를 전송하는 경우 엠펙-1 데이터를 중간 데이터로 변환하고 서버에서 비디오 데이터와 오디오 데이터를 동기화시키고 패킷 형태로 중간 데이터를 전송해줌으로써 클라이언트에서는 간단한 변환으로 중간 데이터를 수신하여 처리토록 해주는 엠펙-1 데이터 전송 방법을 제공하는 데 있다.
상기와 같은 목적을 달성하기 위한 본 발명은,
서버가 비디오와 오디오의 동기화를 고려하여 중간 데이터(YUV, PCM)를 네트워크에 전송함으로써, 클라이언트는 단순히 네트워크에서 들어 오는 중간 데이터를 순차적으로 처리하여도 비디오(YUV)와 오디오(PCM) 사이의 동기화가 이루어지도록 한다.
또한, 서버에서 비디오와 오디오의 동기화를 위해서 엠펙-1 파일의 시스템 스트림(System Stream)부분에 있는 PTS(Present Time Stamp)를 이용한다.
즉, 비디오와 오디오는 엠펙-1에서 각각 비디오 스트림, 오디오 스트림으로 압축되어 있으며, 시스템 스트림의 PTS에 의해 동기화가 되어 있다. 따라서 서버는 이 PTS를 이용하여 비디오 디코더와 오디오 디코더에서 각각 출력되는 YUV(Y는 휘도신호, U,V는 색차신호)와 PCM(펄스 부호 변조 데이터 : 음성신호임)을 동기화하여 클라이언트에게 네트워크로 전송해준다.
도1은 본 발명에서 엠펙-1 데이터 전송을 위한 네트워크 구성도이고,
도2는 본 발명에 의한 엠펙-1 데이터 전송 장치 블록 구성도이고,
도3은 본 발명에 의한 엠펙-1 데이터 전송 과정을 보인 흐름도이고,도4는 도3에서 YUV 데이터 생성 루틴의 상세 흐름도이고,
도5는 도3에서 PCM 데이터 동기화 루틴의 상세 흐름도이고,도6은 도3에서 YUV 데이터 전송 루틴의 상세 흐름도이며,
도7은 도3에서 PCM 데이터 생성 루틴의 상세 흐름도이고,도8은 도3에서 PCM 데이터 동기화 루틴의 상세 흐름도이고,도9는 도3에서 PCM 데이터 전송 루틴의 상세 흐름도이며,도10은 본 발명에 적용되는 상수의 의미를 설명하는 테이블이고,
도11은 본 발명에서 슬리프 시간을 설명하기 위한 흐름도이다.
<도면의 주요 부분에 대한 부호의 설명>
10 : 서버 20 : 클라이언트
100 : 엠펙-1 시스템 스트림 디코더
200 : YUV 데이터 생성기 300 : PCM 데이터 생성기
400 : 엠펙-1 중간 데이터 서버
이하, 상기와 같은 기술적 사상에 따른 본 발명의 바람직한 실시예를 첨부한 도면에 의거 상세히 설명하면 다음과 같다.
첨부한 도면 도1은 본 발명이 적용되는 네트워크 시스템의 개략 구성도이다.
이는 크게 서버(10)와, 클라이언트(20)로 대별 되며, 상기 서버(10)는 데이터 저장부(11)에서 압축된 엠펙-1 파일을 저장하며, 중간 데이터 생성부(12)에서는, 상기 데이터 저장부(11)에 저장된 압축된 엠펙-1 파일을 YUV 데이터와 PCM 데이터로 변환하여 네트워크로 전송한다.
여기서 서버(10)는, 압축된 엠펙-1 파일중 비디오 데이터는 YUV 데이터로, 오디오 데이터는 PCM 데이터로 변환한 상태에서, 시스템 스트림의 PTS를 이용하여 비디오 및 오디오의 동기화를 구현한 상태에서 네트워크로 전송하여 클라이언트에 제공해준다.
따라서 클라이언트(20)는 패킷 처리 장치(21)에서 네트워크를 통해 전송되는 YUV 데이터 및 PCM 데이터를 포함하는 패킷을 수신하여 실시간 처리하게 되고, 처리한 비디오 신호는 비디오 출력부(22)에 전달해주어 비디오 출력이 이루어지도록 하며, 처리한 오디오 신호는 오디오 출력부(23)에 전달해주어 오디오 출력이 이루어지도록 한다.
즉, 패킷 처리 장치(21)는 네트워크를 통해 전송되는 패킷 데이터가 압축이 상당 부분 해제되고 동기화가 이루어진 YUV 형태 비디오 데이터와 PCM 형태 오디오 데이터이기 때문에, 단순한 변환(예를 들어, 스케일링, RGB변환, 아날로그 오디오 변환)을 통하여 실시간적으로 수신된 YUV 데이터 및 PCM 데이터를 처리할 수 있다.
상기에서 PTS는 재생출력의 시각 관리 정보로서, 엠펙-1 시스템의 기준 복호기 내부의 STC(System Time Clock : 기본이 되는 동기신호)가 상기 PTS와 일치할때 그 액세스 단위를 재생 출력한다. PTS의 정밀도는 90KHz의 클럭으로 계측한 값을 33비트 길이로 나타낸다. 오디오의 한 샘플 주기보다 높은 정밀도를 얻기 위해서 NTSC와 PAL 양측 비디오 방식의 프레임 주파수의 공배수인 90KHz를 사용한다.또한, 90KHz클럭에서의 계측치로 SMPTE(Society of Motion Picture and Television Engineers : 미국 영화 TV 기술협회)와 마찬가지로 하루 24시간의 범위를 표현할 수 있도록 하기 위해서 33비트의 길이를 사용한다.
도2는 본 발명에 의한 엠펙-1 데이터 전송장치 블록도이다.
도시된 바와 같이, 엠펙-1 파일의 시스템 스트림을 디코딩하는 엠펙-1(MPEG-1) 시스템 스트림 디코더(100), 상기 엠펙-1 시스템 스트림 디코더(100)에서 전달받은 비디오 스트림을 중간 데이터인 YUV 데이터로 변환하는 YUV 데이터 생성기(200), 상기 엠펙-1 시스템 스트림 디코더(100)에서 전달받은 오디오 스트림을 PCM 데이터로 변환하는 PCM 데이터 생성기(300), 상기 엠펙-1 시스템 스트림 디코더(100)에서 얻어지는 YUV PTS 및 PCM PTS와 시스템 시계로 상기 YUV 데이터 생성기(200) 및 PCM 데이터 생성기(300)에서 각각 얻어지는 YUV 데이터 및 PCM 데이터를 동기하여 클라이언트로 전송해주는 엠펙-1 중간 데이터 서버(400)로 구성된다.
상기에서, 엠펙-1 중간 데이터 서버(400)는, 시스템 시간(ST)을 제공하는 시스템 시계(410), 상기 시스템 시계(410)에서 얻어지는 시스템 시간과 상기 엠펙-1 시스템 스트림 디코더(100)에서 얻어지는 YUV PTS와 PCM PTS로 생성된 YUV 패킷과 PCM 패킷의 동기화를 제어하는 동기화부(420), 상기 YUV 데이터 생성기(200)에서 얻어지는 YUV 중간 데이터를 패킷화하고 상기 동기화부(420)의 제어에 따라 동기화하여 전송하는 YUV 데이터 전송기(430), 상기 PCM 데이터 생성기(300)에서 얻어지는 PCM 데이터를 패킷화하고 상기 동기화부(420)의 제어에 따라 동기화하여 전송하는 PCM 데이터 전송기(440)로 구성된다.
이와 같이 구성된 본 발명에 의한 엠펙-1 데이터 전송장치는, 엠펙-1 시스템 스트림 디코더(100)에서 엠펙-1 파일을 읽어서 YUV PTS와 PCM PTS는 엠펙-1 중간 데이터 서버(400)에 제공해주게 되고, 비디오 스트림과 오디오 스트림을 각각 생성하며, 생성한 엠펙-1 비디오 스트림은 YUV 데이터 생성기(200)에 전달해주고, 생성한 엠펙-1 오디오 스트림은 PCM 데이터 생성기(300)에 전달한다.
상기 YUV 데이터 생성기(200)는 상기 엠펙-1 시스템 스트림 디코더(100)에서 전달받은 비디오 스트림을 중간 데이터인 YUV 데이터로 변환하여 상기 엠펙-1 중간 데이터 서버(400)에 전달하며, 상기 PCM 데이터 생성기(300)는 상기 엠펙-1 시스템 스트림 디코더(100)에서 전달받은 오디오 스트림을 PCM 데이터로 변환하여 상기 엠펙-1 중간 데이터 서버(400)에 전달한다.
그러면 엠펙-1 중간 데이터 서버(400)는 상기 YUV 데이터 생성기(200)와 PCM 데이터 생성기(300)에서 각각 전달받은 YUV 데이터 및 PCM 데이터를 상기 엠펙-1시스템 스트림 디코더(100)에서 제공받은 YUV PTS와 PCM PTS, 그리고 시스템 시계(410)에서 전달받은 시스템 시간(ST)으로 동기화하여 클라이언트에게 전송을 한다.
이를 좀 더 상세히 설명하면,
엠펙-1 중간 데이터 서버(400)는, 시스템 시계(410)에서 얻어지는 시스템 시간(ST)과 상기 엠펙-1 시스템 스트림 디코더(100)에서 얻어지는 YUV PTS로 YUV 패킷 생성부(431)에서 생성한 YUV 패킷의 동기화를 제어한다. 이렇게 비디오 동기화가 제어된 YUV 패킷은 YUV 데이터 전송부(432)에서 클라이언트측으로 전송이 이루어진다.
또한, 시스템 시계(410)에서 얻어지는 시스템 시간(ST)과 상기 엠펙-1 시스템 스트림 디코더(100)에서 얻어지는 PCM PTS로 PCM 패킷 생성부(441)에서 생성한 PCM 패킷의 동기화를 제어한다. 이렇게 오디오 동기화가 제어된 PCM 패킷은 PCM 데이터 전송부(442)에서 클라이언트측으로 전송이 이루어진다.
도10은 본 발명에 의한 엠펙-1 데이터 전송 장치 및 전송 방법에서 대두되는 함수를 설명하기 위한 테이블이다.
여기서, ETH_SPEED는 네트워크 전송 기계의 속도를 나타내며, MTU는 Maximum Transmission Unit를 나타내고, Q는 운영체제의 시간 량(Quantum)을 나타내고, SCF는 시스템 클록 주파수이며, SCF2는 SCF를 32비트로 변환한 것을 나타내며, SCR2MS는 PTS를 천분의 1초로 변환한 것을 나타내고, V_FPS는 엠펙-1 비디오 프레임의 속도를 나타내며, V_SPF는 엠펙-1 한 프레임 간의 시간 간격을 나타낸다. 또한, V_SAM은 엠펙-1 비디오 서브샘플링 형태를 나타내며, V_PIX는 8비트/바이트 * 3/2, 즉 4:2:0 서브샘플링을 나타낸다. 그리고 V_DIM은 엠펙-1 프레임 가로 * 엠펙-1 프레임 세로를 나타내고, V_BIT는 엠펙-1 프레임의 크기를 나타낸다(V_DIM * V_PIX). 아울러 V_DPF는 하나의 프레임을 네트워크에 전송하는 시간을 나타내며, V_BNS는 디코딩 시작 시간을 나타내고, T1은 비디오 디코딩 전에 다음 프레임을 디코딩할 것인지, 버릴 것인지를 판별하기 위한 기준 값이고, T2는 비디오 플레이 전에 다음 프레임을 플렝할 것인지, 아니면 다음 프레임을 버릴 것인지를 판별하기 위한 기준값이다. 또한, A_FRE는 오디오 주파수를 나타내고, A_SAM은 오디오 한 프레임의 샘플 수를 나타내며, A_SPF는 A_SAM/A_FRE*(1000m/s)를 나타낸다.
도3은 본 발명에 의한 엠펙-1 데이터 전송 과정을 보인 흐름도로서, ST는 단계(STEP)를 나타낸다.
이에 도시된 바와 같이, 단계 ST100에서는 네트워크 연결을 초기화한다. 다음으로 단계 ST200에서는 시스템 시계를 초기화시킨다. 다음으로, 단계 ST300에서는 YUV 데이터 버퍼를 초기화시키며, 단계 ST400에서는 읽어들인 엠펙-1 파일중 비디오 데이터만을 변환하여 YUV 데이터로 만든다. 단계 ST500에서는 시스템 디코더에서 얻어지는 YUV PTS로 상기 변환한 YUV 데이터를 동기화 시키고, 단계 ST600에서는 동기화한 YUV 데이터를 네트워크로 전송한다. 단계 ST700에서는 YUV 데이터의 전송 완료 여부를 확인하여, 전송할 YUV 데이터가 존재하면 상기 단계 ST400으로 이동하고, 전송할 YUV 데이터가 없으면 종료한다. 그리고 단계 ST800에서는 PCM 데이터 버퍼를 초기화시키고, 단계 ST900에서는 상기 읽어들인 엠펙-1 파일중 오디오 데이터만을 변환하여 PCM 데이터로 만든다. 그리고 단계 ST1000에서는 시스템 디코더에서 얻어지는 PCM PTS로 상기 변환한 PCM 데이터를 동기화 시키고, 단계 ST1100에서는 상기 동기화한 PCM 데이터를 네트워크로 전송한다. 또한, 단계 ST1200에서는 PCM데이터의 전송 완료 여부를 확인하여, 전송할 PCM 데이터가 존재하면 상기 단계 ST900으로 이동하고, 전송할 PCM 데이터가 없으면 종료한다.여기서, 읽어들인 엠펙-1 데이터중 비디오 파일을 먼저 중간 데이터로 변환하고 이를 전송하는 과정을 먼저 설명 하였으나, 실제적으로 비디오 디코더와 오디오 디코더는 별로도 구비되어 있으므로 시간 차이 없이 각각의 디코더에서 별도로 디코딩이 이루어진다.
도4는 도3의 YUV 데이터 생성 루틴(ST400)을 좀 더 상세히 보여주는 흐름도이다.
도시된 바와 같이, YUV 패킷 버퍼의 상태를 체크하여(ST401), 빈 버퍼가 없으면 엠펙-1 한 프레임 간의 시간 간격(V_SPF) 동안 변환을 중지한 상태에서 상기 버퍼 상태 체크 단계(ST401)로 리턴을 한다(ST402). 이와는 달리 빈 버퍼가 있을 경우에는, YUV PTS 값을 시스템 디코더에서 얻은 후(ST403), 시스템 시계(ST)값을 설정한다(ST404). 여기서 시스템 시계(ST)값은 (현재 시각 - V_BNS)*NS2SCR이 된다. 다음으로 상기 시스템 시계(ST)의 시간값에서 상기 YUV PTS 값을 감산하고 그 결과치를 미리 정한 기준 시간(T1 : 비디오 중간 데이터 변환 전에 다음 프레임을 변환할 것인지, 버릴 것인지를 판별하기 위한 시간 값)과 비교한다(ST405). 이 비교결과 상기 결과치가 기준 시간(T1)보다 크거나 같을 경우에는 엠펙-1 비디오 스트림에서 한 프레임을 버리고(ST406), 상기 단계 ST403으로 리턴 한다. 아울러 상기 결과치가 기준 시간(T1)보다 작을 경우에는 엠펙-1 비디오 스트림에서 한 프레임의 비디오 스트림을 YUV 데이터로 변환하고(ST407), 이를 YUV PTS와 함께 버퍼에 저장한다(ST408). 이러한 과정으로 엠펙-1 파일중 비디오 파일을 비디오 중간 데이터인 YUV 데이터로 변환하게 된다.도5는 도3의 YUV 데이터 동기화 루틴(ST500)의 상세 흐름도이다.
도시된 바와 같이, YUV 패킷 버퍼의 상태를 체크하고(ST501), 상기 YUV 패킷 버퍼가 비어있는 경우에는 엠펙-1 한 프레임 간의 시간 간격(V_SPF) 동안 동기화를 중지하고 그 시간이 경과하면 상기 버퍼 상태 체크 단계(ST501)로 리턴을 한다(ST502). 이와는 달리 상기 YUV 패킷 버퍼에 YUV 패킷 데이터가 존재하면, YUV PTS 및 YUV 데이터를 상기 버퍼로부터 읽어 들인다(ST503). 그런 후 시스템 시계(ST)값을 설정한다(ST504). 여기서 시스템 시계(ST)값은 (현재 시각 - V_BNS)*NS2SCR이 된다. 다음으로 상기 시스템 시계(ST)의 시간 값에서 상기 YUV PTS 값을 감산하고 그 결과치를 미리 정한 기준 시간(T2 : 비디오 중간 데이터 전송 전에 다음 프레임을 전송할 것인지, 버릴 것인지를 판별하기 위한 시간 값)과 비교한다(ST505). 이 비교결과 상기 결과치가 기준 시간(T2)보다 크거나 같을 경우에는 YUV 한 프레임을 버리고(ST506), 상기 단계 ST501로 리턴 한다. 아울러 상기 결과치가 기준 시간(T2)보다 작을 경우에는 상기 시스템 시계값(ST)과 상기 YUV PTS값을 비교한다(ST507). 이 비교 결과 상기 시스템 시간값(ST)이 상기 YUV PTS 보다 크거나 같을 경우에는 YUV 데이터의 동기화 루틴을 종료하고, 이와는 달리 상기 YUV PTS값이 상기 시스템 시간값(ST) 보다 클 경우에는 상기 YUV PTS에서 상기 시스템 시간값(ST)을 감산하여 얻어지는 결과의 시간만큼 YUV 데이터의 동기화 과정을 쉬게된다(ST508). 그 후에는 다시 YUV 데이터의 동기화 과정을 시작하는 단계로 리턴을 한다.
도6은 도3의 YUV 데이터 전송 루틴(ST600)의 상세 흐름도이다.
도시된 바와 같이, 전송할 YUV 데이터가 입력되면(ST601), YUV 패킷 헤더를 생성한다(ST602). 그리고 상기 YUV 데이터를 서브-샘플링(Sub-sampling)에 적합하게 일정량을 패킷에 복사한다(ST603). 그리고 상기 YUV 데이터가 복사된 패킷을 네트워크로 전송한다(ST604). 그리고 전송할 YUV 데이터가 더 있는가를 확인하여(ST605), 전송할 YUV 데이터가 존재할 경우에는 상기 단계 ST602로 리턴 한다. 아울러 전송할 YUV 데이터가 없을 경우에는 YUV 데이터 전송 과정을 종료한다.도7은 도3의 PCM 데이터 생성 루틴(ST900)의 상세 흐름도이다.
도시된 바와 같이, PCM 데이터를 저장하는 버퍼의 상태를 체크한다(ST901). 상기 버퍼의 상태를 체크한 결과 빈 버퍼가 없을 경우에는 일정 시간(엠펙-1 한 프레임 간의 시간 간격 : A-SPF시간) 만큼 PCM 변환을 중지하고(ST902), 그 시간이 경과하면 상기 버퍼 상태 체크 단계(ST901)로 리턴 한다. 이와는 달리 상기 버퍼의 상태를 체크한 결과 빈 버퍼가 존재할 경우에는 PCM PTS값을 시스템 디코더에서 얻는다(ST903). 그런 다음 엠펙-1 오디오 스트림에서 한 프레임의 오디오 스트림을 PCM 데이터로 변환을 하고(ST904), 그 변환한 PCM 데이터와 PCM PTS를 상기 PCM 데이터 패킷 버퍼에 일시 저장한다(ST905). 이러한 과정으로 읽어들인 엠펙-1 파일내의 오디오 파일을 오디오 중간 데이터인 PCM 데이터로 변환한다.
도8은 도 3의 PCM 데이터 동기화 루틴(ST1000)의 상세 흐름도이다.도시된 바와 같이, PCM 패킷 버퍼의 상태를 체크하고(ST1001), 상기 PCM 패킷 버퍼가 비어있는 경우에는 엠펙-1 한 프레임 간의 시간 간격(A_SPF) 동안 동기화를 중지하고 그 시간이 경과하면 상기 버퍼 상태 체크 단계(ST1001)로 리턴을 한다(ST1002). 이와는 달리 상기 PCM 패킷 버퍼에 PCM 패킷 데이터가 존재하면, PCM PTS 및 PCM 데이터를 상기 버퍼로부터 읽어 들인다(ST1003). 그런 후 시스템 시계(ST)값을 설정한다(ST1004). 여기서 시스템 시계(ST)값은 (현재 시각 - A_BNS)*NS2SCR이 된다. 다음으로 상기 시스템 시계(ST)의 시간값과 상기 PCM PTS 값을 비교하고, 그 결과 상기 시스템 시간값(ST)이 상기 PCM PTS 보다 크거나 같을 경우에는 PCM 데이터의 동기화 루틴을 종료하고, 이와는 달리 상기 PCM PTS값이 상기 시스템 시간값(ST) 보다 클 경우에는 상기 PCM PTS에서 상기 시스템 시간값(ST)을 감산(PCM PTS - ST)하여 얻어지는 결과의 시간만큼 PCM 데이터의 동기화 과정을 쉬게된다(ST1006). 이후에는 다시 PCM 데이터 동기화 루틴의 시작 단계로 리턴을 한다.도 9는 도 3의 PCM 데이터 전송 루틴(ST1100)의 상세 흐름도이다.도시된 바와 같이, PCM 데이터가 입력되면(ST1101), PCM 패킷 헤더를 생성한다(ST1102). 그리고 상기 PCM 데이터를 일정량 패킷에 복사한다(ST1103). 그리고 상기 PCM 데이터가 복사된 패킷을 네트워크로 전송한다(ST1104). 그리고 전송할 PCM 데이터가 더 있는가를 확인하여(ST1105), 전송할 PCM 데이터가 존재할 경우에는 상기 단계 ST1102로 리턴 한다. 아울러 전송할 PCM 데이터가 없을 경우에는 PCM 데이터의 전송 과정을 종료한다.도11은 본 발명에서 쉬는(Sleep) 시간을 설명하기 위한 흐름도이다.
먼저, 단계 ST1300에서는 각각의 파라미터를 설정한다. 즉, P(ms) = T * SCR2MS, S1(ms) = V_SPF, S2(ms) = S1 - V_DPF, S3(ms) = S2 + Q, S4(ms) = S2 - Q로 설정한다. 그런 다음 단계 ST1400에서는 P > S3인지를 확인하여, P > S3이면 상기 S3 시간 동안 정지한다(ST1500). 이와는 달리 상기 P > S3가 아니면, P > S4인지를 확인한다(ST1600). 이 확인 결과 P > S4이면 상기 S2 시간 동안 정지한다(ST1700). 또한, 상기 P > S4가 아니면, P > Q인지를 확인하여(ST1800), P > Q이면 상기 정지 시간(T)을 Q로 설정하고(ST1900), 그 시간동안(T) 정지한다(ST2000).
이상에서 상술한 바와 같이 본 발명은, 서버에서 클라이언트로부터 요청된 엠펙-1 파일을 YUV 데이터 및 PCM 데이터로 변환하고, YUV PTS 및 PCM PTS를 이용하여 비디오 데이터 및 오디오 데이터를 동기화시켜 클라이언트에 제공해 줌으로써, 클라이언트에서는 별도의 디코딩 장치나 동기화 장치가 필요없게 되므로, 클라이언트 시스템의 구축 비용을 절감할 수 있고, 클라이언트측의 하드웨어 구성이 단순화되어도 실시간적으로 비디오/오디오 데이터의 처리가 가능한 이점이 있다.

Claims (9)

  1. 클라이언트와 서버를 네트워크로 연결하여 엠펙-1 파일을 전송하는 시스템에 있어서,
    엠펙-1 파일의 시스템 스트림을 디코딩하는 엠펙-1(MPEG-1) 시스템 스트림 디코더;
    상기 엠펙-1 시스템 스트림 디코더에서 전달받은 비디오 스트림을 중간 데이터인 YUV 데이터로 변환하는 YUV 데이터 생성기;
    상기 엠펙-1 시스템 스트림 디코더에서 전달받은 오디오 스트림을 PCM 데이터로 변환하는 PCM 데이터 생성기;
    상기 엠펙-1 시스템 스트림 디코더에서 얻어지는 YUV PTS 및 PCM PTS와 시스템 시계로 상기 YUV 데이터 생성기 및 PCM 데이터 생성기에서 각각 얻어지는 YUV 데이터 및 PCM 데이터를 동기하여 클라이언트로 전송해주는 엠펙-1 중간 데이터 서버를 포함하여 구성된 것을 특징으로 하는 엠펙-1 데이터 전송 장치.
  2. 제1항에 있어서, 상기 엠펙-1 중간 데이터 서버는, 시스템 시간(ST)을 제공하는 시스템 시계, 상기 시스템 시계에서 얻어지는 시스템 시간과 상기 엠펙-1 시스템 스트림 디코더에서 얻어지는 YUV PTS와 PCM PTS로 생성된 YUV 패킷과 PCM 패킷의 동기화를 제어하는 동기화부, 상기 YUV 데이터 생성기에서 얻어지는 YUV 중간 데이터를 패킷화하고 상기 동기화부의 제어에 따라 상기 YUV 데이터를 동기화하여 전송하는 YUV 데이터 전송기, 상기 PCM 데이터 생성기에서 얻어지는 PCM 데이터를 패킷화하고 상기 동기화부의 제어에 따라 상기 PCM 데이터를 동기화하여 전송하는 PCM 데이터 전송기로 구성된 것을 특징으로 하는 엠펙-1 데이터 전송 장치.
  3. 클라이언트와 서버를 네트워크로 연결하여 엠펙-1 파일을 전송하는 방법에 있어서,
    네트워크 연결을 초기화하고, 시스템 시계를 초기화시킨 다음 YUV 데이터 버퍼를 초기화시키고 읽어들인 엠펙-1 파일중 비디오 파일만을 YUV 데이터로 변환하여 YUV 데이터를 생성하는 단계와;
    시스템 디코더에서 얻어지는 YUV PTS와 시스템 시계에서 얻어지는 시스템 시간(ST)으로 상기 변환한 YUV 데이터를 동기화 시키는 단계와;
    상기 동기화한 YUV 데이터를 네트워크로 전송하는 단계와;
    상기 읽어들인 엠펙-1 파일중 오디오 파일만을 PCM 데이터로 변환하여 PCM 데이터를 생성하는 단계와;
    상기 시스템 디코더에서 얻어지는 PCM PTS와 시스템 시계에서 얻어지는 시스템 시간(ST)으로 상기 변환한 PCM 데이터를 동기화 시키는 단계와;
    상기 동기화한 PCM 데이터를 네트워크로 전송하는 단계를 포함하여 이루어짐을 특징으로 하는 엠펙-1 데이터 전송 방법.
  4. 제3항에 있어서, 상기 YUV 데이터 생성 단계는,
    YUV 패킷 버퍼의 상태를 체크하여 빈 버퍼가 없으면 엠펙-1 한 프레임 간의 시간 간격(V_SPF) 동안 변환을 중지한 후 상기 버퍼 상태 체크 단계로 리턴 하는 단계와, 상기 빈 버퍼가 있을 경우에는 YUV PTS 값을 시스템 디코더에서 얻은 후 시스템 시계값(ST)을 설정하는 단계와, 상기 시스템 시계값(ST)에서 상기 YUV PTS 값을 감산하고 그 결과치를 비디오 중간 데이터 변환 전에 다음 프레임을 변환할 것인지, 버릴 것인지를 판별하기 위한 기준 시간 값(T1)과 비교하는 단계와, 상기 비교결과 상기 결과치가 기준 시간 값(T1)보다 크거나 같을 경우에는 엠펙-1 비디오 스트림에서 한 프레임을 버리는 단계와, 상기 결과치가 기준 시간 값(T1)보다 작을 경우에는 엠펙-1 비디오 스트림에서 한 프레임의 비디오 스트림을 YUV 데이터로 변환하고, 이를 YUV PTS와 함께 버퍼에 저장하는 단계로 이루어짐을 특징으로 하는 엠펙-1 데이터 전송 방법.
  5. 제3항에 있어서, 상기 PCM 데이터 동기화 단계는,
    YUV 패킷 버퍼의 상태를 체크하고, 상기 YUV 패킷 버퍼가 비어있는 경우에는 엠펙-1 한 프레임 간의 시간 간격(V_SPF) 동안 동기화를 중지하고 그 시간이 경과하면 상기 버퍼 상태 체크 단계로 리턴 하는 단계와, 상기 YUV 패킷 버퍼에 YUV 패킷 데이터가 존재하면, YUV PTS 및 YUV 데이터를 상기 버퍼로부터 읽어들이는 단계와, 시스템 시계(ST)값을 설정하는 단계와, 상기 시스템 시계(ST)의 시간값에서 상기 YUV PTS 값을 감산하고 그 결과치를 비디오 중간 데이터 전송 전에 다음 프레임을 전송할 것인지, 버릴 것인지를 판별하기 위한 시간 값(T2)과 비교하는 단계와, 상기 결과치가 기준 시간(T2)보다 크거나 같을 경우에는 YUV 한 프레임을 버리는 단계와, 상기 결과치가 기준 시간(T2)보다 작을 경우에는 상기 시스템 시계값(ST)과 상기 YUV PTS값을 비교하는 단계와, 상기 시스템 시간값(ST)이 상기 YUV PTS 보다 크거나 같을 경우에는 YUV 데이터의 동기화 과정을 종료하고, 상기 YUV PTS값이 상기 시스템 시간값(ST) 보다 클 경우에는 상기 YUV PTS에서 상기 시스템 시간값(ST)을 감산하여 얻어지는 결과의 시간만큼 YUV 데이터의 동기화 과정을 정지하는 단계로 이루어짐을 특징으로 하는 엠펙-1 데이터 전송방법.
  6. 제3항에 있어서, 상기 YUV 데이터 전송 단계는,
    전송할 YUV 데이터가 입력되면, YUV 패킷 헤더를 생성하는 단계와, 상기 YUV 데이터를 서브-샘플링(Sub-sampling)에 적합하게 일정량 패킷에 복사하는 단계와, 상기 YUV 데이터가 복사된 패킷을 네트워크로 전송하는 단계로 이루어짐을 특징으로 하는 엠펙-1 데이터 전송방법.
  7. 제3항에 있어서, 상기 PCM 데이터 생성 단계는,
    PCM 데이터를 저장하는 버퍼의 상태를 체크하고, 상기 버퍼의 상태를 체크한 결과 빈 버퍼가 없을 경우에는 엠펙-1 한 프레임 간의 시간 간격(A-SPF시간) 만큼 PCM 변환을 중지하는 단계와, 상기 버퍼의 상태를 체크한 결과 빈 버퍼가 존재할 경우에는 PCM PTS값을 시스템 디코더에서 획득하는 단계와, 엠펙-1 오디오 스트림에서 한 프레임의 오디오 스트림을 PCM 데이터로 변환하는 단계와, 변환한 PCM 데이터와 PCM PTS를 상기 PCM 데이터 패킷 버퍼에 일시 저장하는 단계로 이루어짐을 특징으로 하는 엠펙-1 데이터 전송방법.
  8. 제3항에 있어서, 상기 PCM 데이터 동기화 단계는,
    PCM 패킷 버퍼의 상태를 체크하고, 상기 PCM 패킷 버퍼가 비어있는 경우에는 엠펙-1 한 프레임 간의 시간 간격(A_SPF) 동안 동기화를 중지하고 그 시간이 경과하면 상기 버퍼 상태 체크 단계로 이동하는 단계와, 상기 PCM 패킷 버퍼에 PCM 패킷 데이터가 존재하면, PCM PTS 및 PCM 데이터를 상기 버퍼로부터 읽어 들이는 단계와, 시스템 시계(ST)값을 설정하는 단계와, 상기 시스템 시계(ST)의 시간값과 상기 PCM PTS 값을 비교하고, 그 결과 상기 시스템 시간값(ST)이 상기 PCM PTS 보다 크거나 같을 경우에는 PCM 데이터의 동기화 과정을 종료하는 단계와, 상기 PCM PTS값이 상기 시스템 시간값(ST) 보다 클 경우에는 상기 PCM PTS에서 상기 시스템 시간값(ST)을 감산하여 얻어지는 결과의 시간만큼 PCM 데이터의 동기화 과정을 정지하는 단계로 이루어짐을 특징으로 하는 엠펙-1 데이터 전송방법.
  9. 제3항에 있어서, 상기 PCM 데이터 전송 단계는,
    PCM 패킷 헤더를 생성하는 단계와, 상기 PCM 데이터를 일정량 패킷에 복사하는 단계와, 상기 PCM 데이터가 복사된 패킷을 네트워크로 전송하는 단계로 이루어짐을 특징으로 하는 엠펙-1 데이터 전송방법.
KR1019990018490A 1999-05-21 1999-05-21 엠펙-1 데이터 전송 장치 및 그 방법 KR100352981B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1019990018490A KR100352981B1 (ko) 1999-05-21 1999-05-21 엠펙-1 데이터 전송 장치 및 그 방법
US09/575,494 US6779041B1 (en) 1999-05-21 2000-05-18 Apparatus and method for streaming MPEG-1 data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990018490A KR100352981B1 (ko) 1999-05-21 1999-05-21 엠펙-1 데이터 전송 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20000074499A KR20000074499A (ko) 2000-12-15
KR100352981B1 true KR100352981B1 (ko) 2002-09-18

Family

ID=19587101

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990018490A KR100352981B1 (ko) 1999-05-21 1999-05-21 엠펙-1 데이터 전송 장치 및 그 방법

Country Status (2)

Country Link
US (1) US6779041B1 (ko)
KR (1) KR100352981B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100906586B1 (ko) 2004-05-13 2009-07-09 퀄컴 인코포레이티드 무선 통신 시스템에서 오디오 데이터와 비디오 데이터의동기화

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020039149A1 (en) * 2000-10-02 2002-04-04 Eduardo Perez System and method for streaming video over a network
WO2002031673A1 (en) * 2000-10-13 2002-04-18 Thin Multimedia, Inc. Method and apparatus for streaming video data
SE521697C2 (sv) * 2001-01-25 2003-11-25 Xelerated Ab Anordningar och förfarande för behandling av data i en logisk rörledning
JP2007274019A (ja) * 2006-03-30 2007-10-18 Matsushita Electric Ind Co Ltd デジタル方式情報配信システムおよびその方法
KR101673784B1 (ko) * 2015-06-26 2016-11-07 현대자동차주식회사 히트석션기능의 쿨링팬 쉬라우드
CN110602542B (zh) * 2019-08-13 2022-02-08 视联动力信息技术股份有限公司 音视频同步的方法、音视频同步系统、设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6148135A (en) * 1996-01-29 2000-11-14 Mitsubishi Denki Kabushiki Kaisha Video and audio reproducing device and video decoding device
JP3104681B2 (ja) * 1998-06-10 2000-10-30 日本電気株式会社 オーディオ・ビデオ同期再生方法および装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100906586B1 (ko) 2004-05-13 2009-07-09 퀄컴 인코포레이티드 무선 통신 시스템에서 오디오 데이터와 비디오 데이터의동기화

Also Published As

Publication number Publication date
US6779041B1 (en) 2004-08-17
KR20000074499A (ko) 2000-12-15

Similar Documents

Publication Publication Date Title
US7610605B2 (en) Method and apparatus for conversion and distribution of data utilizing trick-play requests and meta-data information
JP4668515B2 (ja) マルチメディアコンテンツに同期化されたメタデータ伝送装置及び方法
US7379653B2 (en) Audio-video synchronization for digital systems
US7949777B2 (en) Communication protocol for controlling transfer of temporal data over a bus between devices in synchronization with a periodic reference signal
AU754879B2 (en) Processing coded video
US7433946B2 (en) Mechanism for transmitting elementary streams in a broadcast environment
US20090196357A1 (en) Trick Mode Operations
CN112752115B (zh) 直播数据传输方法、装置、设备及介质
EP2061241A1 (en) Method and device for playing video data of high bit rate format by player suitable to play video data of low bit rate format
US20110010748A1 (en) Video distribution device, video distribution system, and video distribution method
CN100473163C (zh) 动静态混合画面的投影方法和投影系统
US7333711B2 (en) Data distribution apparatus and method, and data distribution system
KR100352981B1 (ko) 엠펙-1 데이터 전송 장치 및 그 방법
US7269184B2 (en) Data transmission method and apparatus and data receiving method and apparatus
CN102939766B (zh) 接收器和接收器侧使用单个解码器使能信道变化的方法
JP2000092348A (ja) フレームシンクロナイザ
US7269839B2 (en) Data distribution apparatus and method, and data distribution system
US7929831B2 (en) Video recording
US8290063B2 (en) Moving image data conversion method, device, and program
JP4767916B2 (ja) 動画像符号化データ変換装置
US20040109678A1 (en) Imaging apparatus, recording apparatus and recording method
KR20000057102A (ko) 데이터 송수신 방법, 전자 기기, 및 데이터 송수신프로그램 공급 매체
KR100236981B1 (ko) 동영상 스트림의 고속 전후진 제어 방법
JP2005051287A (ja) トランスコーダおよびこれを用いた記録再生装置
US20070030897A1 (en) Encoding apparatus and method, recording apparatus and method, and decoding apparatus and method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080903

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee