KR100233937B1 - Video and audio synchronization method using timestamp compensation and mpeg-2 encoder - Google Patents

Video and audio synchronization method using timestamp compensation and mpeg-2 encoder Download PDF

Info

Publication number
KR100233937B1
KR100233937B1 KR1019960046485A KR19960046485A KR100233937B1 KR 100233937 B1 KR100233937 B1 KR 100233937B1 KR 1019960046485 A KR1019960046485 A KR 1019960046485A KR 19960046485 A KR19960046485 A KR 19960046485A KR 100233937 B1 KR100233937 B1 KR 100233937B1
Authority
KR
South Korea
Prior art keywords
audio
video
delay
encoder
input
Prior art date
Application number
KR1019960046485A
Other languages
Korean (ko)
Other versions
KR19980027646A (en
Inventor
김재동
김시중
고종석
권순홍
Original Assignee
이계철
한국전기통신공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이계철, 한국전기통신공사 filed Critical 이계철
Priority to KR1019960046485A priority Critical patent/KR100233937B1/en
Publication of KR19980027646A publication Critical patent/KR19980027646A/en
Application granted granted Critical
Publication of KR100233937B1 publication Critical patent/KR100233937B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23608Remultiplexing multiplex streams, e.g. involving modifying time stamps or remapping the packet identifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 엠펙-2(mpge-2) 인코더의 비디오와 오디오의 디코딩타임스템프차이 및 이를 통한 표현타임스탬프를 인코더의 오디오부분에서 보상하여 전송하므로써 디코더에서 비디오와 오디오가 동기를 이루도록 하기 위한 타임스탬프 보상을 이용한 비디오와 오디오 동기 방법 및 이를 이용한 MPEG-2 인코더 장치에 관한 것으로, 디코더에서 아무런 조작이 없이 인코더에서 코딩 및 디코딩 지연 요소를 고려한 타임스탬프를 삽입하여 미디어인 비디오와 오디오간의 동기를 이루도록 하므로써, HDTV, 주문형 비디오 서비스, DTV 등의 MPEG-2 인코더 및 디코더를 사용하는 장치들에 널리 사용할 수 있는 잇점을 수반한다.The present invention compensates for the difference in the decoding timestamp between the video and audio of the MPEG-2 encoder and the presentation time stamp through the audio portion of the encoder, thereby transmitting a time stamp for synchronizing video and audio in the decoder The present invention relates to a video and audio synchronization method using compensation and an MPEG-2 encoder apparatus using the compensation method. In the encoder, a time stamp considering a coding and a decoding delay element is inserted in an encoder to perform synchronization between video and audio , HDTVs, video-on-demand services, and MPEG-2 encoders and decoders such as DTV.

Description

타임스탬프 보상을 이용한 비디오와 오디오 동기 방법 및 이를 이용한 엠팩-2(MPEG-2) 인코더 장치Video and audio synchronization method using time stamp compensation and MPEG-2 encoder device using the same

본 발명은 타임스탬프 보상을 이용한 비디오와 오디오 동기 방법 및 이를 이용한 엠펙-2(이하 MPEG-2라 칭한다) 인코더 장치에 관한 것으로, 보다 상세하게는 MPEG-2 인코더의 비디오와 오디오의 디코딩타임스탬프 차이 및 이를 통한 표현타임스탬프를 인코더의 오디오부분에서 보상하여 전송하므로써 디코더에서 비디오와 오디오가 동기를 이루도록 하기 위한 타임스탬프 보상을 이용한 비디오와 오디오 동기 방법 및 이를 이용한 MPEG-2 인코더 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video and audio synchronizing method using timestamp compensation and an MPEG-2 encoder device using the same. More particularly, the present invention relates to an MPEG- And an MPEG-2 encoder device using the video and audio synchronizing method using timestamp compensation for synchronizing video and audio in a decoder by compensating and transmitting an expression time stamp through the audio portion of the encoder.

일반적으로 시간 종속적인 멀티미디어 서비스의 질은 서비스를 구성하는 미디어 객체의 연속성과 미디어 객체간의 동기에 있다. 이는 요구형 서비스 및 등시성서비스에서도 동일하게 적용된다. 미디어 객체에 대한 연속성은 개별 미디어에 대한 안정적인 재생을 가능하게 하며, 이는 미디어 객체가 표현되는 주기가 일정하다는 것을 의미한다.In general, the quality of time-dependent multimedia services depends on the continuity of the media objects constituting the service and the synchronization between the media objects. This applies equally to demanding services and isochronous services. Continuity for a media object enables stable reproduction of individual media, which means that the period in which the media object is represented is constant.

또한 시간 종속적인 미디어 객체간의 동기는 시간상의 상관관계를 규명하므로써 가능하다. 그러나 이러한 시간상의 상관관계가 규명되지 않은 인코더 시스템에서 발생된 MPEG-2 데이터는 디코더에서 동기를 이루기 어려운 점이 있다. 이를 보상하기 위해 편법으로서 인위적으로 지연이 작은 미디어의 디코딩 시간이나 재생시간을 조절하는 방법을 사용하였는데, 그 일예로 종래에는 비디오 프레임과 오디오프레임을 디코더로 전송할 경우 비디오 프레임내에는 비디오 데이터의 복호시간과 재생시간을 설정한 디코딩타임스탬프(Decoding Time Stamp : 이하 DTS라 칭한다.)값들을 표현타임스탬프(Presentaion Time Stamp : 이하 PTS라 칭한다)값들을 삽입하여 전송하였고, 오디오 프레임내에는 DTS값을 삽입하여 디코딩을 행하도록 하였다.In addition, synchronization between time-dependent media objects is possible by identifying the temporal correlation. However, MPEG-2 data generated in an encoder system in which such a temporal correlation has not been determined is difficult to be synchronized in a decoder. In order to compensate for this, a method of adjusting a decoding time or a reproduction time of a medium artificially delayed is used. As an example, when a video frame and an audio frame are transmitted to a decoder, And a decoding time stamp (hereinafter referred to as " DTS ") value in which a reproduction time is set are inserted and transmitted, and a DTS value is inserted in the audio frame So as to perform decoding.

그러나 이 방법 역시 비디오와 오디오 정확한 동기를 맞추는 것이 어렵고, 실시간 서비스에서는 부적절하다는 문제점이 발생되었으며, 최상의 방법으로는 인코더에서 정확한 타임스탬프를 삽입하는 것이 고려되고 있다.However, this method is also difficult to accurately synchronize video and audio, and is inadequate for real-time service. As a best practice, it is considered to insert an accurate time stamp in the encoder.

본 발명은 상기에 기술한 바와 같은 종래 문제점을 해결하기 위하여 디코더에서 아무런 조작이 없이 인코더에서 코딩 및 디코딩 지연 요소를 고려한 각각의 타임스탬프를 전송 프레임 내에 삽입하여 미디어인 비디오와 오디오간의 동기를 이루기 위한 방법 및 이를 이용한 인코더 장치를 제공하는 것을 목적으로 한다.In order to solve the conventional problems as described above, the present invention provides a method for synchronizing video and audio by inserting respective time stamps considering coding and decoding delay factors in an encoder into a transmission frame, And an encoder device using the same.

제1도는 본 발명이 적용되는 비디오 및 오디오 코덱 시스팀의 구성 및 각 구성요소의 지연모델을 나타낸 개략적인 블록도.FIG. 1 is a schematic block diagram showing a configuration of a video and audio codec system to which the present invention is applied and a delay model of each component.

제2도는 본 발명에 따른 타임스탬프 보상법을 이용하는 MPEG-2 인코더 장치의 구성도.FIG. 2 is a block diagram of an MPEG-2 encoder apparatus using a time stamp compensation method according to the present invention; FIG.

〈도면의 주요부분에 대한 부호의 설명〉Description of the Related Art

11 : 비디오 인코더 12 : 오디오 인코더11: Video encoder 12: Audio encoder

13 : 다중화부 14 : 역다중화부13: multiplexer 14: demultiplexer

15 : 비디오 디코더 16 : 오디오 디코더15: video decoder 16: audio decoder

21 : 비디오 부호화기 22 : 오디오 부호화기21: video encoder 22: audio encoder

23 : 비디오 PES 패킷화기 24 : 오디오 PES 패킷화기23: Video PES packetizer 24: Audio PES packetizer

25, 26 : 수신버퍼 27 : 다중화기25, 26: Receive buffer 27: Multiplexer

28 : 타임스탬프 보상기28: Timestamp compensator

상기와 같은 목적을 달성하기 위하여 엠펙-2(MPEG-2) 시스팀에서 비디오와 오디오의 동기방법에 있어서 인코더단에서 디코더단으로 데이터 프레임 전송시, 비디오 프레임 내에 디코딩타임스탬프(DTS)와 표현타임스탬프(PTS)를 삽입하여 전송하는 제 1과정과: 상기 비디오 프레임 내에 삽입되는 DTS를 사용하여 비디오 데이터와 오디어 데이터 간의 동기를 보정하기 위한 값(Dcommpen)을 계산하는 제 2과정과; 오디오 프레임 내에는 상기 계산된 보정값(Dcompen)을 이용하여 계산한 DTS와 PTS를 삽입하여 전송하는 제 3과정을 구비하여, 인코더단에서 비디오와 오디오간 동기를 확립하여 디코더단으로 전송하는 것을 특징으로 한다.To achieve the above object, there is provided a method of synchronizing video and audio in an MPEG-2 system, comprising the steps of: receiving a decoding time stamp (DTS) and a presentation time stamp (DTS) inserted in the video frame; and a second step of calculating a value (Dcommpen) for correcting synchronization between the video data and the audio data using the DTS inserted in the video frame; And a third step of inserting DTS and PTS calculated using the calculated correction value D compen into the audio frame and transmitting the inserted DTS and PTS, thereby establishing synchronization between video and audio at the encoder end and transmitting it to the decoder end .

또한 상기와 같은 목적을 달성하기 위하여 비디오 부호화기와, 오디오부호화기, 비디오의 부호화된 신호를 패킷화하여 트랜스포트스트림 다중화기로 출력하는 비디오 페킷요소스티림(PES) 패킷화기, 오디오의 부호화된 신호를 패킷화하여 트랜스포트 스트림 다중화기로 출력하기 위한 오디오 PES 패킷화기, 상기 비디오 부호화기로부터 비디오 데이터를 수신받아 상기 비디오 PES 패킷화기로 전송하기 위한 수신버퍼 및, 상기 오디오 부호화기로부터 오디어 데이터를 수신받아 상기 오디오 PES 패킷화기로 전송하기 위한 수신버퍼로 이루어진 MPEG-2 인코더 장치에 있어서, 상기 비디오 부호화기로부터 비디오 액세스 유니트의 첫번째 바이트가 수신버퍼에 입력되는 시간정보를 나타내는 비디오 액세스 유니트 지시 비트와 부호화기에 프레임영상이 입력되는 시간정보를 나타내는 부호화 시작 지시 비트 및 상기 오디오 부호화기로부터 오디오 액세스 유니트의 첫번째 바이트가 수신버퍼에 입력되는 시간정보를 나타내는 오디오 액세스 유니트 지시 비트를 입력으로 하여 오디오와 비디오의 디코딩타임스탬프 차이값(Dcompen)을 계산하고, 그 차이값을 오디오의 디코딩타임스탬프에 보상하여 상기 비디오 및 오디오 PES 패킷화기측으로 비디오 및 오디오 각각의 디코딩타임스탬프와 표현 타임스탬프를 출력하는 타임스탬프 보상기를 포함하는 것을 특징으로 한다.In order to achieve the above object, a video packet element stream (PES) packetizer for packetizing a coded signal of a video coder, an audio coder, and a video and outputting the coded signal to a transport stream multiplexer, An audio PES packetizer for outputting the audio PES packet to a transport stream multiplexer, a receiving buffer for receiving video data from the video encoder and transmitting the video data to the video PES packetizer, A video encoder unit comprising: a video access unit indication bit indicating time information for inputting a first byte of a video access unit from a video encoder to a reception buffer; Be Coding Start indicating the time information indicating bits and the decoding time stamp difference value between the audio and video, the first byte of an audio access unit indication bit indicating a time information input to the receive buffer of the audio access unit from the audio encoder to the input (D compen And a time stamp compensator for compensating the difference value to a decoding time stamp of the audio and outputting a decoding time stamp and a presentation time stamp of each of the video and audio to the video and audio PES packetizer side .

상술적 목적, 특징 및 장점은 첨부되 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이다. 이하 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하면 다음과 같다.The foregoing and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명이 적용되는 비디오 및 오디오 코덱 시스팀의 구성 및 각 구성요소의 지연모델을 나타내는 도면으로, MPEG-2 인코더는 비디오 인코더(11)와 오디오 인코더(12) 및 다중화부(13)로 구성이 된다. MPEG-2 디코더는 역다중화부(14), 비디오 디코더(15) 및 오디오 디코더(16)로 구성이 된다.FIG. 1 is a diagram showing a configuration of a video and audio codec system to which the present invention is applied and a delay model of each component. The MPEG-2 encoder includes a video encoder 11, an audio encoder 12 and a multiplexer 13 . The MPEG-2 decoder is composed of a demultiplexer 14, a video decoder 15 and an audio decoder 16.

이 모델의 각 구성요소는 고유의 코딩, 디코딩, 다중화 및 역다중화 지연이 발생하게 된다. 인코더의 비디오 및 오디오 인코더 지연을 각각 dve, dae라 하고, 디코더의 비디오 및 오디오 디코더 지연을 각각 dvb,dad라 한다. 그리고 다중화(13)부 및 역다중화부(14)의 지연은 각각 dmux,ddemux라 정의한다. 인코더에서 발생된 트랜스포트 스트림은 통신망을 통하여 전송이 되는데, 이 때의 망에서 발생하는 지연은 dnet라 칭한다. 이 지연파라미터들에 대한 설명은 다음과 같다.Each component of the model has inherent coding, decoding, multiplexing, and demultiplexing delays. La the video and audio encoders, each encoder of the delay d ve, d ae, and La, respectively the video and audio decoder in the decoder delay d vb, d ad. The delays of the multiplexing unit 13 and the demultiplexing unit 14 are defined as d mux and d demux , respectively. The transport stream generated by the encoder is transmitted through the communication network. The delay occurring in the network at this time is referred to as d net . A description of these delay parameters is as follows.

dve는 카메라로부터 입력된 아날로그 영상신호가 디지틀 신호로 변환되어 비디오 인코더(11)가 코딩하기 위한 색신호 성분을 만들어 프레임 메모리에 데이터를 저장하기까지 소요되는 전처리 시간과, 전처리 과정을 거친 프레임 영상 데이터를 부호화한 최초의 압축영상데이터가 발생하기까지 걸린 시간을 뜻한다.d ve is subjected to pre-treatment time and a pre-processing required to create the color signal component to the the analog image signal input from the camera is converted to a digital signal video encoder 11 coding to store the data in the frame memory frame image data Is the time taken until the first compressed image data obtained by encoding the first compressed image data is generated.

dae는 비디오의 경우와 마찬가지로 마이크로부터 입력된 아날로그 음성신호가 디지틀 신호로 변환된 후, 메모리에 저장되어 코딩된 첫 데이터가 발생하기까지 소요된 시간을 의미한다. 이들에 상응하는 디코더에서의 지연은 dvb,dad가 된다. 한편, dmux는 압축 부호화된 비디오 및 오디어 데이터가 다중화되어 전송되기까지의 소요시간을 의미하며,,ddemux는 다중화부(13)로부터 전송된 데이터가 역다중화되어 각 비디오 및 오디오 디코더(15, 16)로 전송되기까지의 소요시간을 의미한다.d ae means the time taken for the analog voice signal input from the microphone to be converted into the digital signal and then stored in the memory until the first coded data is generated. The delays in the corresponding decoders are d vb, d ad . On the other hand, d mux is compressed means that it takes time until the encoded video and O to media data are multiplexed transmission, and,, d demux the multiplexing unit 13, the data is demultiplexed for each of video and audio decoders (15 transferred from the And 16, respectively.

한편, 비디오는 오디오와 달리 특유의 지연요소가 더 존재하는데, 이는 가상버퍼에 의한 지연이다. 가상버퍼는 가변비트율 출력을 가지는 비디오 인코더의 출력을 항등비트율로 출력하기 위해 사용되며, 일정 양을 이 버퍼에 저장한 후에 데이터를 출력하므로써 최종적으로 디코더에서 버퍼에의 부족 또는 넘침을 방지하기 위한 것이다. 이 지연요소는 dvbv_delay라 정의한다.On the other hand, video has a unique delay element unlike audio, which is delayed by the virtual buffer. The virtual buffer is used to output the output of a video encoder having a variable bit rate output at an arbitrary bit rate, and to output a data after storing a certain amount of data in the buffer, thereby preventing a decoder from overflowing or overflowing . This delay element is defined as d vbv_delay .

이러한 지연요소들은 공통적인 시간지수를 사용하는데, 이는 27Mhz 국부발지기로부터 생성된 33비트의 90Khz 계수기 값이다. 이 계수기의 값을 시스팀 클럭계수기(System Time clock Counter : 이하 STC라 칭한다)라 한다. STC는 시스템디코더에서의 시각 기준이 된다.These delay factors use a common time index, which is the 33-bit 90Khz counter value generated from the 27Mhz local oscillator. The value of this counter is called a system time clock counter (STC). STC is the time reference in the system decoder.

비디오 및 오디오에 대한 DTS 및 PTS는 상기에서도 잠시 언급한 바와 같이 인코더에서 전송 프레임 내에 삽입이 된다. DTS는 복호시각을 관리하기 위한 정보이며 PTS는 재생출력의 시각을 관리하기 위한 정보를 나타내는 타임스탬프이다.The DTS and PTS for video and audio are inserted in the transmission frame in the encoder as mentioned above for a moment. DTS is information for managing the decoding time, and PTS is a time stamp indicating information for managing the reproduction output time.

이 값들의 삽입은 일정한 단위로 수행되는데, 이를 액세스 유니트(Access Unit : 이하 AU라 칭한다)라 하며, 프레임은 그 한 예가 된다. 따라서 비디오의 삽입단위는 하나의 프레임 영상이 될 수 있으며, 오디오의 경우에는 오디오 프레임이라 불린다.The insertion of these values is performed in a predetermined unit, which is called an access unit (AU), and a frame is an example of this. Therefore, the insertion unit of the video can be one frame image, and in the case of audio, it is called an audio frame.

카메라로부터 입력되는 k번째 AU에 대한 DTS는 다음의 식으로 주어진다.The DTS for the kth AU input from the camera is given by the following equation.

DTSvideo(k) = Evideo(k)dve(k) + dvbv_delay(k) + dnetk ≥ 0 (1) DTS video (k) = E video (k) d ve (k) + d vbv_delay (k) + d net k ≥ 0 (1)

이 식에서 Evideo(k)는 k번째 영상이 입력될 당시의 STC값이다. 식 1이 의미하는 것은 k번째 영상이 입력되어 전처리과정을 거치고 최초의 비디오 데이터가 발생하기까지의 지연(dve(k))과 가상버퍼지연(dvbv_delay(k)) 및 망 전송지연(dnet)이 고려되어야 정확한 DTS를 알아낼 수 있다는 것이다. 영상의 코딩모드 및 버퍼상태에 따라 변화하는 값을 갖는 DTS와 달리, 영상이 디코더에서 표현되는 시점을 나타내는 PTS는 다음의 식과 같이 나타낼 수 있다.In this equation, E video (k) is the STC value at the time when the kth video is input. Equation 1 means it is the k-th image is input to go through the pre-treatment process of a delay until the first video data is generated (d ve (k)) and the virtual buffer delay (d vbv_delay (k)), and network transmission delay (d net ) must be taken into account in order to find the correct DTS. Unlike the DTS, which has a value varying according to the coding mode and the buffer state of the image, the PTS indicating the time at which the image is represented in the decoder can be expressed by the following equation.

이 식에서 dve(k)는 압축전송된 영상을 비디오 디코더가 디코딩하기 시작하여 영상데이터를 복원한 후 프레임 메모리에 저장하여 표현하기까지 소요되는 시간을 의미한다. MPEG-2 비디오는 인트라(intra : I) 영상, 순방향 예측(predictive : P)영상, I(혹은 P)영상과 P영상을 참조하는 양방향 예측(bidirectionally interpolated : B) 영상으로 구분되는데, B영상의 유무에 따라 디코더에서는 재생시 프레임 재배열이 생긴다. 식 2는 이를 고려한 PTS이며a는 이 프레임 재배열도 인한 디코딩 시간과 재생시간의 차를 의미한다. B형상이 없는 모드로 코딩한 경우에는, α= 0이되며, dvd(k)는 상대적으로 작은 값이므로 무시하면 PTSvideo(k) = DTSvideo(k)가 된다.In this equation d ve (k) is the time it takes to represent the storage of a compressed image sent to the frame memory, restore the image data by the video decoder to start decoding. MPEG-2 video is divided into an intra (I) video, a predictive (P) video, a bidirectionally interpolated (B) video referring to an I (or P) video and a P video. Depending on the presence or absence of the decoder, a frame rearrangement occurs in the decoder. Equation 2 is the PTS considering this and a is the difference between decoding time and playback time due to this frame rearrangement. If the coding since they do not have the B-like mode, and is α = 0, d vd (k ) is ignored because it is relatively small when the video value of PTS (k) = DTS video (k).

오디오도 비디오와 마찬가지로 DTS와 PTS가 정의되는데, 이는 다음의 수식과 같다.Audio, like video, defines DTS and PTS as follows:

DTSaudio(n) = Eaudio(n) + dae(n) +dnetn ≥ 0 (3)DTS audio (n) = E audio (n) + d ae (n) + d net n? 0 (3)

PTSaudio= DTSaudio(n) + dad(n)PTS audio = DTS audio (n) + d ad (n)

= Eaudio(n) + dae(n) + dad(n) +dnet(4)= E audio (n) + d ae (n) + d ad (n) + d net (4)

식 3과 4에서 Eaudio(n)은 n번째 오디오 AU가 입력된 시점에서의 STC값이며, dae(n)은 n번째 음성이 입력되어 최초의 압축된 오디오 AU의 데이터가 출력되는 데 소요되는 시간이다. dae(n)은 압축전송된 오디오 데이터가 복원되어 출력되는데 소요되는 시간을 나타낸다. 오디오의 PTS와 DTS는 오디오 코덱에서 사용되는 표본화 주파수와 밀접한 관계가 있으며, 이에 따라 각각 다른 값을 갖는다. 여기서 망지연 dnet는 비디오의 경우와 동일한 값을 갖는다.In Equations 3 and 4, E audio (n) is the STC value at the time when the nth audio AU is input, and d ae (n) is the input of the n th audio and outputs the data of the first compressed audio AU Time. d ae (n) represents the time required for the compressed and transmitted audio data to be restored and output. The PTS and DTS of audio are closely related to the sampling frequency used in the audio codec and thus have different values. Here, the network delay d net has the same value as in the case of video.

이상에서 살펴본 것과 같이 미디어간의 동기에서 고려되어져야 할 사항은 각 미디어의 코딩 및 디코딩 지연이다. 일반적으로 MPEG-2 코덱시스팀에서 비디오의 코딩 및 디코딩 지연은 오디오의 경우보다 크며, 이는 양방향 예측모드인 B 영상의 갯수에 따라 변화하게 된다. 따라서 디코더에서 각 미디어간의 동기를 맞추기 위해서는 오디오의 DTS 및 PTS에 일정한 값을 더함으로써 코딩 및 디코딩 지연차를 보상해 주어야 하며, 한 번 보상된 값은 서비스의 종료시까지 지속되어져야 한다.As described above, the coding and decoding delay of each media is a consideration in the synchronization between media. Generally, the coding and decoding delay of video in MPEG-2 codec system is larger than that of audio, and it changes according to the number of B images which are bidirectional prediction mode. Therefore, in order to synchronize the media with each other in the decoder, it is necessary to compensate the coding and decoding delay difference by adding a certain value to the DTS and PTS of the audio, and the compensated value should be maintained until the end of the service.

본 발명에서 분석한 비디오와 오디오의 DTS를 사용하면 미디어 객체간의 동기를 맞출 수 있는데, 오디오의 코딩 및 디코딩 지연이 비디오에 비해 상대적으로 작기 때문에 최초의 지연차에 대한 값을 보정하면 디코더에서 미디어간의 동기를 맞출 수 있다. 이 보정값은 최초의 비디오 및 오디오 DTS에 대한 차가 되며, 각각의 최초 지연은 다음과 같다.The DTS of video and audio analyzed in the present invention can synchronize media objects. Since the coding and decoding delay of audio is relatively small compared to video, if the value of the first delay difference is corrected, You can synchronize. This correction value is the difference for the initial video and audio DTS, and each initial delay is as follows.

DTSvideo(0) = Evideo(0) + dve(0) +dvbv_delay(0) + dnet(5) DTS video (0) = E video (0) + d ve (0) + d vbv_delay (0) + d net (5)

DTSaudio(0) = Evideo(0) + dae(0) +dnet(6)DTS audio (0) = E video (0) + d ae (0) + d net (6)

식 5, 6에서 각 미디어의 최초 입력 시점인 Evideo(0)와 Eaudio(0)는 동일한 시점이므로 같은 STC 값을 갖는다. 따라서 미디어간의 동기를 맞추기 위한 오디오 DTS의 보상값인 DTScompen는 다음의 식이 된다In Eqs. 5 and 6, E video (0) and E audio (0), which are the initial input points of each media, have the same STC value since they are at the same time. Therefore, DTS compen, which is the compensation value of audio DTS for synchronizing the media, is expressed by the following equation

DTScompen =DTSvideo(0) - DTSaudio(0)DTS compen = DTS video (0) - DTS audio (0)

= dve(0) +dvbv_delay(0) -dae(0) (7) = D ve (0) + d vbv_delay (0) -d ae (0) (7)

따라서 오디오가 비디오와 같이 서비스되는 경우에는 미디어간의 동기를 맞추기 위하여 이 보정된 값이 반영된 다음의값이 된다.Therefore, when the audio is served as video, the following values Lt; / RTI >

이상의 정량적인 분석을 통하여 완전한 비디오와 오디오의 동기를 이루기 위한 오디오의 타임스탬프 보정값을 살펴보았다. 여기에서는 인코더가 정보의 제공없이는 알 수 없는 지연요소가 있는데, 이는 디코더의 디코딩 지연요소인 dvd(0), dad(0) 및 dnet가 포함된다. 이러한 지연요소는 전체 지연요소와 비교하였을 때 무시하여도 되는 값들이다.Through the above quantitative analysis, the time stamp correction value of the audio for synchronizing the complete video and audio was examined. Here, there is an unknown delay element without the encoder providing the information, which includes the decoding delay elements d vd (0), d ad (0) and d net of the decoder. These delay factors are the values that can be ignored when compared to the total delay factor.

도 2는 본 발명에서 dvd(0), dad(0) 및 dnet지연요소를 제외한 경우에서 타임스탬프 보상을 이용하는 MPEG-2인코더 장치의 구성을 나타낸다. 종래의 인코더 장치는 비디오 부호화기와(21), 오디오부호화기(22), 비디오의 부호화된 신호를 패킷화하여 트랜스포트 스트림 다중화기(27)로 출력하는 비디오 패킷요소스트림(Packetized Elementary Stream : 이하 PES라 칭한다) 패킷화기(23), 오디오의 부호화된 신호를 패킷화하여 트랜스포트 스트림 다중화기 (27)로 출력하기 위한 오디오 PES 패킷화기(24), 상기 비디오 부호화기(21)로부터 비디오 데이터를 수신받아 상기 비디오 PES 패킷화기(23)로 전송하기 위한 수신버퍼(25) 및, 상기 오디오 부호화기(22)로부터 오디오 데이터를 수신받아 상기 오디오 PES 패킷화기(24)로 전송하기 위한 수신버퍼(26)로 이루어져 있다.2 shows a configuration of an MPEG-2 encoder apparatus using timestamp compensation in the case where d vd (0), d ad (0), and d net delay elements are excluded in the present invention. The conventional encoder apparatus includes a video encoder 21, an audio encoder 22, a packetized elementary stream (hereinafter, referred to as PES) packetized by packetizing a coded video signal and outputting the packetized signal to a transport stream multiplexer 27 An audio PES packetizer 24 for packetizing an audio encoded signal and outputting the packetized audio signal to a transport stream multiplexer 27 and a video encoder 24 for receiving the video data from the video encoder 21, A receiving buffer 25 for transmitting the audio data to the video PES packetizer 23 and a receiving buffer 26 for receiving audio data from the audio encoder 22 and transmitting the audio data to the audio PES packetizer 24 .

본 발명은 상기의 인코더 장치에 보상값 Dcompen을 구하여 보상된값을 만들어 내는 위한 타임스탬프 보상기(28)를 도입하였다.In the present invention, the compensation value D compen is obtained in the encoder device, A time stamp compensator 28 for generating a value is introduced.

비디오 부호화기(21)에서는 카메라로부터 프레임영상이 입력되는 시간정보를 부호화 시각 지시비트로 90Khz 계수기 및 타임스탬프 보상기(28)로 알리면 보상기(28)에서는 이 정보를 이용하여 90Khz 계수기의 값을 저정한다. 이 값은 Evideo(0)가 된다. 이 때 오디오 데이터를 A/D 변환하기 시작한다.(Eaudio(0). 이 시간으로부터 비디오 AU의 첫번째 바이트가 수신버퍼(25)에 입력되는 시간정보인 비디오 AU지시 비트가 보상기로 입력되면 dvde(0)가 계산되고, 마찬가지로 오디오에 대해서도 dae(0)가 계산된다. dvbv_delay(0)는 비디오 데이터 중에서 첫번째의 영상 데이터 헤더가 가상버퍼에서 정의된 양 만큼 쌓이기까지의 소요시간으로 이는 일정량 만큼 쌓였을 때의 시간 정보를 제공받을 수도 있다. 이상의 과정을 거치면 식 7에서 제시한 보상값인 Dcompen값을 구할 수 있으며, 결국 이 값을 이용하여 보상된 오디오의 DTS와 PTS를 얻을 수 있으며, 디코더에서는 비디오와 오디오의 동기를 일치시켜 재생 가능하게 된다.When the video encoder 21 notifies the 90-kHz counter and the time stamp compensator 28 of the time information indicating the time at which the frame image is input from the camera, the value of the 90-kHz counter is set by the compensator 28 using this information. This value becomes E video (0). At this time it starts to convert the audio data A / D. (E audio ( 0). When the first byte, the time information of video AU indication bit which is input to the reception buffer 25 from the time the video AU is input to the compensator d vde (0) it is calculated, as is also the audio d ae (0) is calculated. d vbv_delay (0) is that the time required until an amount video data header of the first is defined in the virtual buffer to accumulate in the video data It is possible to obtain the D compen value, which is the compensation value given in Equation 7. Thus, the DTS and the PTS of the compensated audio can be obtained by using this value , The decoder can reproduce video and audio synchronized with each other.

이 상에서와 같이 본 발명은 AU가 디코딩되어야 하는 시점을 나타내는 비디오 및 오디오의 DTS 및 PTS를 인코더에서 정확히 구하여 비디오 및 오디오의 동기를 보상하므로써 디코더에서는 아무런 조작없이 비디오와 디코더의 오디오간의 동기를 이룰 수 있도록 한 것으로서, HDTV, 주문형 비디오 서비스, DTV 등의 MPEG-2 인코더 및 디코더를 사용하는 장치들에 널리 사용할 수 있는 잇점을 수반한다.As described above, according to the present invention, the DTS and the PTS of the video and audio, which indicate the point in time at which the AU should be decoded, are precisely obtained in the encoder and the synchronization of video and audio is compensated so that the decoder can synchronize the video and the audio of the decoder , Which has the advantage of being widely used in devices that use MPEG-2 encoders and decoders such as HDTVs, video-on-demand services, and DTVs.

아울러 본 발명의 바람직한 실시예들은 예시의 목적을 위해 개시된 것이며, 당업자라면 본 발명의 사상과 범위안에서 다양한 수정, 변경, 부가등이 가능할 것이며, 이러한 수정 변경 등은 이하의 특허 청구의 범위에 속하는 것으로 보아야 할 것이다.It will be apparent to those skilled in the art that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. You should see.

Claims (8)

엠펙-2(MPEG-2) 시스팀에서 비디오와 오디오의 동기방법에 있어서, 인코더단에서 디코더단으로 데이터 프레임 전송시, 비디오 프레임 내에 디코딩타임스탬프(DPS)와 표현타임스탬프(PTS)를 삽입하여 전송하는 제 1과정과; 상기 비디오 프레임 내에 삽입되는 DTS를 사용하여 비디오 데이터와 오디오 데이터 간의 동기를 보정하기 위한 값(Dcompen)을 계산하는 제 2과정과; 오디오 프레임 내에는 상기 계산된 보정값(Dcompen)이용하여 계산한 DTS와 PTS를 삽입하여 전송하는 제 3과정을 구비하여, 인코더단에서 비디오와 오디오간 동기를 확립하여 디코더단으로 전송하는 것을 특징으로 하는 타임스탬프 보상을 이용한 비디오와 오디오 동기화 방법.In the MPEG-2 system, when a data frame is transmitted from an encoder end to a decoder end, a decoding time stamp (DPS) and a presentation time stamp (PTS) are inserted in a video frame for transmission A first step of: A second step of calculating a value (D compen ) for correcting the synchronization between the video data and the audio data using the DTS inserted in the video frame; And a third step of inserting DTS and PTS calculated using the calculated correction value D compen into the audio frame and transmitting the inserted DTS and PTS, thereby establishing synchronization between video and audio at the encoder end and transmitting the same to the decoder end A method for synchronizing video and audio using time stamp compensation. 제1항에 있어서, 상기 제 2 과정에서 계산하는 보정값(Dcompen)은 하기 식을 통해 계산하는 것을 특징으로 하는 타임스탬프 보상을 이용한 비디오와 오디오 동기화 방법.The method of claim 1, wherein the correction value (D compen ) calculated in the second step is calculated through the following equation. Dcomper=dve(0)+dvbv_delay(0)-dae(0) D comper = d ve (0) + d vbv_delay (0) -d ae (0) (dve(0) : 최초의 영상이 입력되어 전처리과정을 거치고 최초의 비디오 데이터가 발생하기까지의 지연(d ve (0): the first image input is undergoing a pre-processing delay until the first video data is generated dvbv_delay(0) : 최초의 영상 입력에 대한 가상버퍼 지연d vbv_delay (0): Virtual buffer delay for the first video input dae(0) : 최초의 음성이 입력되어 최초의 압축된 오디오 엑세스 유니트(AU)의 데이터가 출력되는데 소요되는 시간d ae (0): the time required for the first compressed audio access unit (AU) to output the first audio input 비디오 부호화기와, 오디오부호화기, 비디오의 부호화된 신호를 패킷화하여 트랜스포트 스트림 다중화기로 출력하는 비디오 패킷요소스티림(PES) 패킷화기, 오디오의 부호화된 신호를 패킷화하여 트랜스포트 스트림 다중화기로 출력하기 위한 오디오 PES 패킷화기, 상기 비디오 부호화기로부터 비디오 데이터를 수신받아 상기 비디오 PES 패킷화기로 전송하기 위한 수신버퍼 및, 상기 오디오 부호화기로부터 오디오 데이터를 수신받아 상기 오디오 PES 패킷화기로 전송하기 위한 수신버퍼로 이루어진 MPEG-2인코더 장치에 있어서, 상기 비디오 부호화기로부터 비디오 액세스 유니트의 첫번째 바이트가 수신버퍼에 입력되는 시간정보를 나타내는 비디오 액세스 유니트 지시 비트 및, 상기 오디오 부호화기로부터 오디오 액세스 유니트의 첫번째 바이트가 수신버퍼에 입력되는 시간정보를 나타내는 오디오 액세스 유니트 지시 비트와 부호화비트를 입력으로 하여 오디오와 비디오의 디코딩타임스탬프(DTS) 차이값(Dcompen)을 계산하고, 그 차이값을 오디오의 디코딩타임스탬프에 보상하여 상기 비디오 및 오디오 PES 패킷화기측으로 비디오 및 오디오 각각의 디코딩타임스탬프와 표현 타임스탬프(PTS)를 출력하는 타임스탬프 보상기를 포함하는 것을 특징으로 하는 타임스탬프 보상을 이용한 엠펙-2(MPEG-2) 인코더 장치.A video encoder, a video encoder, a video packet element (PES) packetizer for packetizing the encoded signals of the video and outputting them to a transport stream multiplexer, and outputting the packetized audio signals to a transport stream multiplexer A receiving buffer for receiving video data from the video encoder and transmitting the video data to the video PES packetizer, and a receiving buffer for receiving audio data from the audio encoder and transmitting the audio data to the audio PES packetizer A video encoder unit comprising: a video access unit indication bit indicating time information that a first byte of a video access unit is input to a receive buffer from the video encoder; Due to the audio access unit to input an instruction bits and the coded bits representing the time information is input to the buffer calculating the decoding time stamp (DTS) difference of the audio and video (D compen), and the difference value to the decoding time stamp of the audio And outputting a decoding time stamp and a presentation time stamp (PTS) of each video and audio to the video and audio PES packetizer by compensating the MPEG- ) Encoder device. 제1항에 있어서, 상기 제 3과정에서 계산하는 DTS는 하기 식을 통해 계산하는 것을 특징으로 하는 타임스탬프 보상을 이용한 비디오와 오디오 동기화 방법The method of claim 1, wherein the DTS calculated in the third step is calculated through the following equation: DTSaudio(n) = Eaudio(n)+dae(n)-dae(0)+dve(0)+dvbv_delay(0)+dnet DTS audio (n) = E audio (n) + d ae (n) -d ae (0) + d ve (0) + d vbv_delay (0) + d net ( n≥0, Eaudio(n) : n번째 오디오 억세스 유니트가 입력된 시점에서의 시스팀 클럭 계수기(STC) 값, dae(n) : n번째 음성이 입력되어 최초의 압축된 오디오 억세스 유니트(AU)의 데이터가 출력되는데 소요되는 시간, dae(0) : 최초의 음성이 입력되어 최초의 압축된 오디어 억세스 유니트으 데이터가 출력되는 데 소요되는 시간, dve(0) : 최초의 영상이 입력되어 전처리과정을 거치고 최초의 비디오 데이터가 발생하기까지의 지연, dvbv_delay(0) : 최초의 영상 입력에 대한 가상버퍼에 지연, dnet: 망에서 발생하는 지연)(N≥0, audio E (n): n-th audio access systems, a clock counter (STC) value in the unit time of the input, d ae (n): n-th input speech is first compressed audio access unit ( AU) time there is a data output, d ae (0): the first audio is input time it takes to be first compressed audio access units coming from the data output, d ve (0): first image D vbv_delay (0): delay in the virtual buffer for the first video input, d net : delay occurring in the network) 제1항에 있어서, 상기 제 3과정에서 계산하는 PTS는 하기 식을 통해 계산하는 것을 특징으로 하는 타임스탬프 보상을 이용한 비디오와 오디오 동기화 방법.The method of claim 1, wherein the PTS calculated in the third step is calculated through the following equation. PTSaudio(n) = 보상된 오디오 프레임 내의 DTSaudio(n)+dad(n)PTS audio (n) = DTS audio (n) + d ad (n) in the compensated audio frame ( n ≥0 , dad(n) : 압축 전송된 오디오 데이터가 복원되어 출력되는데 소요되는 시간)(n? 0, d ad (n): time required for restoring and outputting compressed audio data) 제3항에 있어서, 상기 오디오와 비디오의 디코딩타임스탬프 차이값(Dcompen)은 하기 식을 통해 계산하는 것을 특징으로 하는 타임스탬프 보상을 이용한 엠펙-2(MPEG-2) 인코더장치.4. The apparatus of claim 3, wherein the decoding time stamp difference value (D compen ) of the audio and the video is calculated by the following equation. Dcompen= dve(0) + dvbv_delay(0) - dae(0) D compen = d ve (0) + d vbv_delay (0) - d ae (0) ( dve(0) : 최초의 영상이 입력되어 전처리과정을 거치고 최초의 비디오 데이터가 발생하기까지의 지연, dvbv_delay(0) : 최초의 영상 입력에 대한 가상버퍼 지연, dae(0) : 최초의 음성이 입력되어 최초의 압축된 오디오 엑세스 유니트(AU)의 데이터가 출력되는데 소요되는 시간)(D ve (0): the first image is input to go through the pre-processing delay until the first video data is generated, d vbv_delay (0): the virtual buffer for a first image input delay, d ae (0): The time required for inputting the first voice and outputting the data of the first compressed audio access unit AU) 제3항에 있어서, 상기 타임스탬프 보상기에서 출력되는 오디오 DPS는 하기 식을 통해 계산하는 것을 특징으로 하는 타임스탬프 보상을 이용한 엠펙-2(MPEG-2)인코더 장치.4. The apparatus of claim 3, wherein the audio DPS output from the time stamp compensator is calculated by the following equation. DTSaudio(n) = Eaudio(n)+dae(n) - dae(n) + dve(0) + dvbv_delay(0) + dnet DTS audio (n) = E audio (n) + d ae (n) - d ae (n) + d ve (0) + d vbv_delay (0) + d net ( n ≥0, Eaudio(n) : n번째 오디오 억세스 유니트가 입력된 시점에서의 시스팀 클럭 계수기(STC) 값, dae(n) : n번째 음성이 입력되어 최초의 압축된 오디오 억세스 유니트(AU)의 데이터가 출력되는데 소요되는 시간, dae(n) : 최조의 음성이 입력되어 최초의 압축된 오디오 억세스 유니트의 데이터가 출력되는 데 소요되는 시간, dve(0) : 최초의 영상이 입력되어 전처리과정을 거치고 최초의 비디오 데이터가 발생하기까지의 지연, dvbv_delay(0) : 최초의 영상 입력에 대한 가성버퍼 지연, dnet: 망에서 발생하는 지연)(n): e audio (n): the system clock counter (STC) value at the time when the nth audio ACCESS UNIT is input, DAE (n): the nth audio is input and the first compressed audio ACCESS UNIT AU) time there is a data output, d ae (n): the time the maximum set of speech is input required to the data in the first compressed audio access unit is output, d ve (0): the first image D vbv_delay (0): false buffer delay for the first image input, d net : delay occurring in the network) 제3항에 있어서, 상기 타임스탬프 보상기에서 출력되는 오디오 PTS는 하기 식을 통해 계산하는 것을 특징으로 하는 타임스탬프 보상을 이용한 엠펙-2(MPEG-2)인코더 장치.The MPEG-2 encoder apparatus according to claim 3, wherein the audio PTS output from the time stamp compensator is calculated by the following equation. PTSaudio(n) =타임스템프 보상기에서 출력되는 DTSaudio(n) +dad(n)PTS audio (n) = DTS audio (n) output from the time stamp compensator + d ad (n) ( n ≥0, dad(n) : 압축 전송된 오디오 데이터가 복원되어 출력되는데 소요되는 시간)(n? 0, d ad (n): time required for restoring and outputting compressed audio data)
KR1019960046485A 1996-10-17 1996-10-17 Video and audio synchronization method using timestamp compensation and mpeg-2 encoder KR100233937B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960046485A KR100233937B1 (en) 1996-10-17 1996-10-17 Video and audio synchronization method using timestamp compensation and mpeg-2 encoder

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960046485A KR100233937B1 (en) 1996-10-17 1996-10-17 Video and audio synchronization method using timestamp compensation and mpeg-2 encoder

Publications (2)

Publication Number Publication Date
KR19980027646A KR19980027646A (en) 1998-07-15
KR100233937B1 true KR100233937B1 (en) 1999-12-15

Family

ID=19477820

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960046485A KR100233937B1 (en) 1996-10-17 1996-10-17 Video and audio synchronization method using timestamp compensation and mpeg-2 encoder

Country Status (1)

Country Link
KR (1) KR100233937B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100669622B1 (en) * 2004-12-31 2007-01-15 엘지전자 주식회사 Synchronization method for audio and video of mobile picture phone
US7898574B2 (en) 2004-10-22 2011-03-01 Lg Electronics Inc. Image processor and operating method thereof
KR101436629B1 (en) * 2007-11-14 2014-11-04 엘지전자 주식회사 Display apparatus and method for recording image
CN107690073A (en) * 2016-08-05 2018-02-13 阿里巴巴集团控股有限公司 A kind of net cast method and Living streaming server

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100658866B1 (en) * 2005-03-10 2006-12-15 엘지전자 주식회사 Synchronization apparatus and method for video and audio data
KR100802133B1 (en) * 2006-09-20 2008-02-11 삼성전자주식회사 Digital signal processing apparatus for synchronizing between video and audio, and method thereof
KR101382613B1 (en) * 2007-06-20 2014-04-07 한국전자통신연구원 Method of multiplexing transmission frame, apparatus of multiplexing transmission frame and transmission apparatus for digital broadcasting signal

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7898574B2 (en) 2004-10-22 2011-03-01 Lg Electronics Inc. Image processor and operating method thereof
KR100669622B1 (en) * 2004-12-31 2007-01-15 엘지전자 주식회사 Synchronization method for audio and video of mobile picture phone
KR101436629B1 (en) * 2007-11-14 2014-11-04 엘지전자 주식회사 Display apparatus and method for recording image
CN107690073A (en) * 2016-08-05 2018-02-13 阿里巴巴集团控股有限公司 A kind of net cast method and Living streaming server

Also Published As

Publication number Publication date
KR19980027646A (en) 1998-07-15

Similar Documents

Publication Publication Date Title
US8711934B2 (en) Decoding and presentation time stamps for MPEG-4 advanced video coding
KR100526189B1 (en) Transcoding system and method for keeping timing parameters constant after transcoding
KR100574186B1 (en) Encoded stream splicing device and method, and an encoded stream generating device and method
US5617145A (en) Adaptive bit allocation for video and audio coding
RU2117411C1 (en) Device for video signal compression and synchronization device
US5751694A (en) Methods and apparatus for synchronizing temporally related data streams
JP2001513606A (en) Processing coded video
KR100203262B1 (en) Interface device of video decoder for syncronization of picture
JPH11513222A (en) Display Time Stamping Method and Synchronization Method for Multiple Video Objects
US20100142624A1 (en) Decoder and decoding method
JP2012513139A (en) Method for synchronizing transport streams in a multiplexer with an external coprocessor
KR100233937B1 (en) Video and audio synchronization method using timestamp compensation and mpeg-2 encoder
KR100705992B1 (en) Device for demultiplexing coded data
US6754273B1 (en) Method for compressing an audio-visual signal
US7023925B1 (en) Data compression unit control for alignment of output signal
JP2002535934A (en) Method and apparatus for delivering reference signal information at specified time intervals
KR20110129559A (en) Asi switcher for digital advertisement inserter
US8228999B2 (en) Method and apparatus for reproduction of image frame in image receiving system
JPH09247670A (en) Information multiplexer
JPH11205789A (en) Transmission rate converter of mpeg2 transport stream
JPH09252290A (en) Coder, coding method, transmitter, transmission method and recording medium
KR100240331B1 (en) Apparatus for synchronizing a video and an audio signals for a decoder system
JPH09247666A (en) Moving image decoding timing estimate method, moving image coder and moving image decoder
KR0154005B1 (en) Apparatus for generating the presentation time stamp in the system encoder
KR100375830B1 (en) Apparatus and Method for removing PCR jitter by inserting receiving time stamp

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130904

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20140902

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20150908

Year of fee payment: 17

EXPY Expiration of term