KR100222705B1 - Apparatus of synchronous outputting audio and video - Google Patents

Apparatus of synchronous outputting audio and video Download PDF

Info

Publication number
KR100222705B1
KR100222705B1 KR1019970043749A KR19970043749A KR100222705B1 KR 100222705 B1 KR100222705 B1 KR 100222705B1 KR 1019970043749 A KR1019970043749 A KR 1019970043749A KR 19970043749 A KR19970043749 A KR 19970043749A KR 100222705 B1 KR100222705 B1 KR 100222705B1
Authority
KR
South Korea
Prior art keywords
data
address
time stamp
video data
stored
Prior art date
Application number
KR1019970043749A
Other languages
Korean (ko)
Other versions
KR19990020289A (en
Inventor
김성태
Original Assignee
윤종용
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자주식회사 filed Critical 윤종용
Priority to KR1019970043749A priority Critical patent/KR100222705B1/en
Publication of KR19990020289A publication Critical patent/KR19990020289A/en
Application granted granted Critical
Publication of KR100222705B1 publication Critical patent/KR100222705B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/24Systems for the transmission of television signals using pulse code modulation
    • H04N7/52Systems for transmission of a pulse code modulated video signal with one or more other pulse code modulated signals, e.g. an audio signal or a synchronizing signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

가. 청구범위에 기재된 발명이 속한 기술분야end. The technical field to which the invention described in the claims belongs

본 발명은 오디오와 비디오를 동기시켜 출력하는 장치에 관한 것이다.The present invention relates to an apparatus for synchronizing and outputting audio and video.

나. 발명이 해결하려고 하는 기술적 과제I. The technical problem that the invention is trying to solve

디지탈 텔레비젼 방송 수상기에서 오디오와 비디오를 동기시켜 출력한다.The digital television broadcasting receiver outputs the audio and video in synchronization.

다. 발명의 해결방법의 요지All. Summary of Solution of the Invention

오디오 데이타와 비디오 데이타를 저장하는 메모리와, 상기 메모리에 대한 데이타 억세스를 제어하며, 상기 오디오 데이타와 비디오 데이타가 저장되어 있는 어드레스 및 비디오 데이타의 부호화 타입에 대한 정보 및 디코딩되는 오디오 데이타와 비디오 데이타가 저장되어 있는 어드레스를 제공하는 메모리 제어부와, 상기 오디오 데이타가 저장되어 있는 어드레스와 그 오디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 저장하는 제1큐와, 상기 비디오 데이타가 저장되어 있는 어드레스와 그 비디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 저장하는 제2큐와, 상기 오디오 데이타에 대한 디코딩 타임 스탬프에 따라 오디오 데이타를 디코딩하여 다시 메모리에 저장하는 오디오 디코더와, 상기 비디오 데이타에 대한 디코딩 타임 스탬프에 따라 비디오 데이타를 디코딩하여 다시 메모리 저장하는 비디오 디코더와, 상기 디코딩되는 오디오 데이타가 저장되어 있는 어드레스를 제공받아 저장하는 제1레지스터와, 상기 디코딩되는 비디오 데이타가 저장되어 있는 어드레스를 제공받아 저장하는 제2레지스터와, 상기 비디오 데이타의 부호화 타입에 따라 지정된 위치에 비디오 데이타의 프리젠테이션 타임 스탬프를 저장하는 제3레지스터와, 상기 오디오 데이타에 대한 프리젠테이션 타임 스탬프를 제공받아 디코딩된 오디오 데이타를 메모리로부터 리드하여 출력하고, 상기 비디오 데이타에 대한 부호화 타입순서에 따른 프리젠테이션 타임 스탬프를 제공받아 디코딩된 비디오 데이타를 메모리로부터 리드하여 출력하는 출력데이타 처리부와, 상기 오디오 데이타가 저장되어 있는 어드레스를 메모리 제어부로부터 제공받아 그 어드레스와 그 오디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 제1큐에 저장하고, 상기 오디오 데이타의 디코딩이 시작되면 상기 메모리 제어부로부터 디코딩되는 오디오 데이타가 저장되어 있는 어드레스를 제공받아 제1레지스터에 저장하고, 상기 제1레지스터에 저장된 어드레스와 동일한 어드레스를 제1큐로부터 검색하여, 그 어드레스에 대응된 프리젠테이션 타임 스탬프를 리드하여 상기 출력 데이타 처리부에 제공하고, 상기 비디오 데이타가 저장되어 있는 메모리의 어드레스를 메모리 제어부로부터 제공받아 그 어드레스와 그 비디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 제2큐에 저장하고, 상기 비디오 데이타의 디코딩이 시작되면 상기 메모리 제어부로부터 디코딩될 비디오 데이타가 저장되어 있는 어드레스를 제공받아 제2레지스터에 저장하고, 상기 제2레지스터에 저장된 어드레스와 동일한 어드레스를 제2큐로부터 검색하여, 그 어드레스에 대응하는 프리젠테이션 타임 스탬프를 리드하여 상기 제3레지스터에 그 비디오 데이타의 부호화 타입에 따른 위치에 저장하고, 상기 출력데이타 처리부로부터 출력될 비디오 데이타의 부호화 타입에 따른 프리젠테이션 타임 스탬프를 요구할 시에 제3레지스터에서 그 부호화 타입에 따른 위치에 저장된 프리젠테이션 타임 스탬프를 리드하여 상기 출력 데이타 처리부에 제공하는 동기제어부를 구비하는 것을 특징으로 한다.A memory for storing audio data and video data, controlling data access to the memory, information on an encoding type of an address and video data where the audio data and video data are stored, and audio and video data to be decoded. A memory control unit providing an address stored therein, a first queue for storing the audio data stored therein and a presentation time stamp of the audio data, and an address storing the video data and the video data. A second queue for correlating and storing a presentation time stamp of the audio signal; an audio decoder for decoding audio data according to a decoding time stamp of the audio data and storing the same in a memory; and a decoding time stamp of the video data. A video decoder for decoding and storing the video data in memory, a first register for receiving and storing an address in which the decoded audio data is stored, and a first decoder for receiving and storing an address in which the decoded video data is stored. A second register for storing a presentation time stamp of the video data at a designated position according to the encoding type of the video data, and a decoded audio data read from the memory with a presentation time stamp for the audio data; An output data processor for receiving the presentation time stamp according to the encoding type order for the video data, reading the decoded video data from the memory, and outputting the read data; and an address at which the audio data is stored. Receive the address from the memory control unit and store the address and the presentation time stamp of the audio data in the first queue. When decoding of the audio data is started, the memory control unit receives the address where the decoded audio data is stored. Stored in the first register, the same address as the address stored in the first register is retrieved from the first queue, a presentation time stamp corresponding to the address is read and provided to the output data processor, and the video data is stored. Receives the address of the memory from the memory control unit and stores the address and the presentation time stamp of the video data in the second queue. When decoding of the video data starts, video data to be decoded from the memory control unit is stored. The received address is stored in the second register, the same address as the address stored in the second register is retrieved from the second queue, the presentation time stamp corresponding to the address is read, and the address is stored in the third register. The presentation time stamp stored in the position corresponding to the encoding type in the third register when the presentation time stamp is stored in the position corresponding to the encoding type of the video data and the presentation time stamp corresponding to the encoding type of the video data to be output from the output data processor is requested. And a synchronization control unit which reads and provides the output data processing unit to the output data processing unit.

라. 발명의 중요한 용도la. Important uses of the invention

디지탈 텔레비젼 방송 수상기에 사용된다.Used for digital television broadcast receivers.

Description

오디오와 비디오를 동기시켜 출력하는 장치A device for synchronizing audio and video

본 발명은 디지탈 텔레비젼 방송 수상기에 관한 것으로, 특히 디지탈 텔레비젼 방송 수상기의 오디오와 비디오의 동기를 맞추는 장치에 관한 것이다.The present invention relates to a digital television broadcast receiver, and more particularly, to an apparatus for synchronizing audio and video of a digital television broadcast receiver.

기존의 아날로그 텔레비젼 방송은 오디오 신호와 비디오 신호를 동시에 전송한다. 이에따라 기존의 아날로그 텔레비젼 방송 수상기에서는 오디오 신호와 비디오신호의 동기가 맞지 않는 문제가 발생하지 않았다.Conventional analog television broadcasting transmits audio and video signals simultaneously. Accordingly, in the existing analog television broadcast receivers, there is no problem that the audio signal and the video signal are not synchronized.

그런데, 디지탈 텔레비젼 방송은 오디오 데이타와 비디오 데이타를 앰펙(Moving Picture Experts Group; MPEG)-2방식에 따라 부호화한 후에 프로그램 스트림(Stream)으로 변환하여 전송함에 따라 오디오 신호와 비디오 신호가 동기가 맞추어져서 출력하기가 곤란하였다. 즉, 비디오 데이타가 앰펙-2 부호화시에 그 순서가 바뀌어서 오디오 데이타와 그 순서가 대응되지 않았다.However, in digital television broadcasting, the audio and video signals are synchronized as the audio data and the video data are encoded according to the Moving Picture Experts Group (MPEG) -2 method and then converted into a program stream and transmitted. It was difficult to print. In other words, the order of the video data was changed in the MPEG-2 encoding, and the order of the audio data did not correspond.

이에따라 오디오 데이타와 비디오 데이타를 앰펙-2방식으로 부호화하여 전송하더라도 오디오 데이타와 비디오 데이타가 동기되어 출력되도록 하기 위하여 종래에는 타임 스탬프(Time Stamp) 및 시각 기준 참조치(Clock Reference)를 사용하였다. 상기 타임 스탬프는 재생출력의 시각관리정보인 프리젠테이션 타임 스탬프(Presentation Time Stamp) PTS와 복호의 시각관리 정보인 디코딩 타임 스탬프(Decoding Time Stamp) DTS로 구성된다.Accordingly, even when audio data and video data are encoded and transmitted in the Amppe-2 method, a time stamp and a clock reference are used in order to output audio data and video data in synchronization. The time stamp is composed of a presentation time stamp PTS, which is time management information of reproduction output, and a decoding time stamp, DTS, which is time management information of decoding.

상기 오디오 데이타와 비디오 데이타를 수신하여 처리하는 장치는 상기 디코딩 타임 스탬프 DTS에 따라 디코딩을 수행한 후에 상기 프리젠테이션 타임 스탬프 PTS에 따라 그 디코딩한 데이타를 출력하여 오디오 데이타와 비디오 데이타가 동기되어 출력되었다.The apparatus for receiving and processing the audio data and the video data performs decoding according to the decoding time stamp DTS, and then outputs the decoded data according to the presentation time stamp PTS, thereby synchronizing the audio data and the video data. .

그런데, 상기 비디오 데이타는 디코딩시 그 순서가 달라지므로, 상기 비디오데이타는 디코딩 타임 스탬프 DTS와 프리젠테이션 타임 스탬프 PTS가 대응되지 않았다. 이에따라 종래에 비디오 데이타를 오디오 데이타에 동기시켜 출력하기 위해서는 복잡한 프리젠테이션 타임 스탬프 PTS의 재배열이 요구되었다.However, since the video data has a different order in decoding, the video data does not correspond to a decoding time stamp DTS and a presentation time stamp PTS. Accordingly, in order to output video data synchronously to audio data, a complicated rearrangement of the presentation time stamp PTS has been required.

상술한 바와 같이 종래에는 앰펙-2 방식으로 부호화된 오디오 데이타와 비디오 데이타를 디코딩한 후에 동기를 맞추어 출력하기 위해서는 비디오 데이타의 프리젠테이션 타임 스탬프 PTS를 재배열하여야 하는 불편한 점이 있었다.As described above, there is an inconvenience in that the presentation time stamp PTS of the video data needs to be rearranged in order to synchronize and output the audio data and the video data encoded by the Amppe-2 method.

따라서 본 발명의 목적은 앰펙-2 방식으로 부호화된 비디오 데이타와 오디오 데이타를 디코딩한 후에 간단하게 동기시켜 출력하는 오디오와 비디오를 동기시켜 출력하는 장치를 제공함에 있다.Accordingly, an object of the present invention is to provide an apparatus for synchronizing and outputting audio and video which are simply synchronized and output after decoding video data and audio data encoded by the Amppe-2 method.

도 1은 본 발명의 바람직한 실시예에 따른 디지탈 텔레비젼 방송 수상기의 개략구성도,1 is a schematic structural diagram of a digital television broadcasting receiver according to a preferred embodiment of the present invention;

도 2는 데이타 구조도.2 is a data structure diagram.

상술한 목적을 달성하기 위한 본 발명은 오디오 데이타와 비디오 데이타를 저장하는 메모리와, 상기 메모리에 대한 데이타 억세스를 제어하며, 상기 오디오 데이타와 비디오 데이타가 저장되어 있는 어드레스 및 비디오 데이타의 부호화 타입에 대한 정보 및 디코딩되는 오디오 데이타와 비디오 데이타가 저장되어 있는 어드레스를 제공하는 메모리 제어부와, 상기 오디오 데이타가 저장되어 있는 어드레스와 그 오디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 저장하는 제1큐와, 상기 비디오 데이타가 저장되어 있는 어드레스와 그 비디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 저장하는 제2큐와, 상기 오디오 데이타에 대한 디코딩 타임 스탬프에 따라 오디오 데이타를 디코딩하여 다시 메모리에 저장하는 오디오 디코더와, 상기 비디오 데이타에 대한 디코딩 타임 스탬프에 따라 비디오 데이타를 디코딩하여 다시 메모리 저장하는 비디오 디코더와, 상기 디코딩되는 오디오 데이타가 저장되어 있는 어드레스를 제공받아 저장하는 제1레지스터와, 상기 디코딩되는 비디오 데이타가 저장되어 있는 어드레스를 제공받아 저장하는 제2레지스터와, 상기 비디오 데이타의 부호화 타입에 따라 지정된 위치에 비디오 데이타의 프리젠테이션 타임 스탬프를 저장하는 제3레지스터와, 상기 오디오 데이타에 대한 프리젠테이션 타임 스탬프를 제공받아 디코딩된 오디오 데이타를 메모리로부터 리드하여 출력하고, 상기 비디오 데이타에 대한 부호화 타입순서에 따른 프리젠테이션 타임 스탬프를 제공받아 디코딩된 비디오 데이타를 메모리로부터 리드하여 출력하는 출력데이타 처리부와, 상기 오디오 데이타가 저장되어 있는 어드레스를 메모리 제어부로부터 제공받아 그 어드레스와 그 오디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 제1큐에 저장하고, 상기 오디오 데이타의 디코딩이 시작되면 상기 메모리 제어부로부터 디코딩되는 오디오 데이타가 저장되어 있는 어드레스를 제공받아 제1레지스터에 저장하고, 상기 제1레지스터에 저장된 어드레스와 동일한 어드레스를 제1큐로부터 검색하여, 그 어드레스에 대응된 프리젠테이션 타임 스탬프를 리드하여 상기 출력 데이타 처리부에 제공하고, 상기 비디오 데이타가 저장되어 있는 메모리의 어드레스를 메모리 제어부로부터 제공받아 그 어드레스와 그 비디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 제2큐에 저장하고, 상기 비디오 데이타의 디코딩이 시작되면 상기 메모리 제어부로부터 디코딩될 비디오 데이타가 저장되어 있는 어드레스를 제공받아 제2레지스터에 저장하고, 상기 제2레지스터에 저장된 어드레스와 동일한 어드레스를 제2큐로부터 검색하여, 그 어드레스에 대응하는 프리젠테이션 타임 스탬프를 리드하여 상기 제3레지스터에 그 비디오 데이타의 부호화 타입에 따른 위치에 저장하고, 상기 출력데이타 처리부로부터 출력될 비디오 데이타의 부호화 타입에 따른 프리젠테이션 타임 스탬프를 요구할 시에 제3레지스터에서 그 부호화 타입에 따른 위치에 저장된 프리젠테이션 타임 스탬프를 리드하여 상기 출력 데이타 처리부에 제공하는 동기제어부를 구비하는 것을 특징으로 한다.The present invention for achieving the above object is a memory for storing audio data and video data, and controls the data access to the memory, and for the encoding type of the address and video data in which the audio data and video data are stored A memory control unit for providing information and an address in which audio data and video data to be decoded are stored, a first queue for storing the audio data and an presentation time stamp of the audio data in correspondence with each other; A second queue for storing the data stored in correspondence with the presentation time stamp of the video data, an audio decoder for decoding the audio data according to a decoding time stamp of the audio data and storing the data in memory again; BD A video decoder which decodes the video data according to a decoding time stamp of the false data and stores the video data again, a first register which receives and stores an address where the decoded audio data is stored, and the decoded video data is stored. A second register for receiving and storing an address, a third register for storing a presentation time stamp of the video data at a designated position according to the encoding type of the video data, and a presentation time stamp for the audio data. An output data processor for reading and outputting decoded audio data from a memory, receiving a presentation time stamp according to an encoding type sequence for the video data, and reading and decoding the decoded video data from a memory; Receives an address in which wrong data is stored from a memory control unit, stores the address and a presentation time stamp of the audio data in a first queue, and decodes the audio data from the memory control unit when decoding of the audio data starts. Receives the stored address in the first register, retrieves the same address as the address stored in the first register from the first queue, reads a presentation time stamp corresponding to the address, and outputs the result to the output data processor. Receive the address of the memory in which the video data is stored, from the memory controller, and store the address in the second queue in correspondence with the presentation time stamp of the video data. My Receives an address in which video data to be decoded is stored and stores it in a second register, retrieves an address identical to the address stored in the second register from the second queue, and reads a presentation time stamp corresponding to the address. And stores the third register in a position corresponding to the encoding type of the video data, and requests the presentation time stamp according to the encoding type of the video data to be output from the output data processor. And a synchronization control unit for reading the presentation time stamp stored in the position and providing the output time stamp to the output data processing unit.

이하 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명 및 첨부도면에서 많은 특정 상세들이 본 발명의 보다 전반적인 이해를 제공하기 위해 나타나 있다. 이들 특정 상세들 없이 본 발명이 실시될 수 있다는 것은 이 기술분야에서 통상의 지식을 가진자에게 자명할 것이다. 그리고 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the annexed drawings, numerous specific details are set forth in order to provide a more thorough understanding of the present invention. It will be apparent to those skilled in the art that the present invention may be practiced without these specific details. And a detailed description of known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

본 발명의 실시예를 상세히 설명하기에 앞서 디지탈 텔레비젼 방송에서 오디오와 비디오의 동기를 맞추기 위하여 전송하는 정보들과 오디오와 비디오 데이타의 전송형태를 설명한다.Before describing an embodiment of the present invention in detail, a description will be given of information transmitted in order to synchronize audio and video and transmission form of audio and video data in digital television broadcasting.

우선, 디지탈 텔레비젼 방송의 송신측에서는 오디오 데이타와 비디오 데이타를 앰펙-2 방식에 따라 부호화한다. 이때 원 비디오 데이타의 순서가 BO,B1,I2,B3,B4,P5…일 경우에 부호화된 비디오 데이타의 순서는 도 2에 도시한 바와 같이 I2,B0,B1,P5,B3,B4…가 된다. 여기서 상기 I,B,P는 부호화 타입을 나타낸다. 그리고, 부호화된 오디오 데이타는 원 오디오 데이타의 순서 즉, 제1,제2프레임…이 된다.First, the transmitting side of digital television broadcasting encodes audio data and video data according to the Amppe-2 method. The order of the original video data is BO, B1, I2, B3, B4, P5... In this case, the order of the encoded video data is shown in FIG. 2 as follows: I2, B0, B1, P5, B3, B4... Becomes Where I, B, and P represent a coding type. The encoded audio data is arranged in the order of the original audio data, i.e., the first and second frames. Becomes

상기와 같은 오디오 데이타와 비디오 데이타를 적당한 길이의 패킷으로 구성하고, 그 패킷에 헤더(Header)를 덧붙인 것이 도 2의 패킷타이즈드 엘레먼터리 스트림(Packetized Elementary Stream) PES 패킷이다. 상기 패킷타이즈드 엘레먼터리 스트림 PES 패킷의 헤더에는 그 패킷의 디코딩 시점을 나타내는 디코딩 타임 스탬프 DTS와 출력 시점을 나타내는 프리젠테이션 타임 스탬프 PTS가 포함된다.The packetized elementary stream PES packet shown in FIG. 2 is composed of a packet having an appropriate length and the header is added to the audio data and the video data as described above. The header of the packetized elementary stream PES packet includes a decoding time stamp DTS indicating a decoding time of the packet and a presentation time stamp PTS indicating an output time.

상기와 같은 패킷타이즈드 엘레먼트리 스트림 PES 패킷은 다시 188[Bytes] 크기의 트랜스포트 스트림(Transport Stream) TS 패킷으로 구성되어 무선 또는 유선 채널(Channel)을 통하여 송출되며, 상기 트랜스포트 스트림 TS는 도 2에 도시한 바와 같이 트랜스포트 스트림 TS 헤더와 어뎁테이션 필드(Adaptation Field)와 페이로드(Payload)로 구성된다. 상기 트랜스포트 스트림 TS의 어뎁테이션 필드에는 송신측과 수신측의 동기를 맞추기 위한 프로그램 클럭 레퍼런스(Program Clock Reference) PCR이 포함되고, 상기 트랜스포트 스트림 TS의 헤더에는 시스템 클럭 레퍼런스(System Clock Reference) SCR이 포함된다.The packetized elementary stream PES packet is composed of a transport stream TS packet having a size of 188 [Bytes] and is transmitted through a wireless or wired channel, and the transport stream TS is shown in FIG. As shown in FIG. 2, a transport stream TS header, an adaptation field, and a payload are configured. The adaptation field of the transport stream TS includes a Program Clock Reference PCR for synchronizing the transmitting side and the receiving side, and the header of the transport stream TS includes a System Clock Reference SCR. This includes.

상기와 같이 송신측은 수신측에서 오디오 데이타와 비디오 데이타를 동기시켜 출력할 수 있도록 하기 위하여 프리젠테이션 타임 스탬프 PTS, 디코딩 타임 스탬프 DTS, 프로그램 클럭 레퍼런스 PCR, 시스템 클럭 레퍼런스 SCR을 송신한다.As described above, the transmitting side transmits a presentation time stamp PTS, a decoding time stamp DTS, a program clock reference PCR, and a system clock reference SCR in order to enable the receiving side to synchronize and output audio data and video data.

이제, 상기 디지탈 텔레비젼 방송의 수상기의 블럭구성도를 도시한 도 1을 참조하여 본 발명을 상세히 설명한다. 채널 디코더부(10)는 채널을 통하여 수신되는 디지탈 텔레비젼 방송신호를 채널 디코딩하여 트랜스포트 스트림 TS를 출력한다. 상기 트랜스포트 스트림 TS는 TS 및 PES 디코더(12)에 입력된다. 상기 TS 및 PES 디코더(12)는 채널 디코더부(10)로부터의 트랜스포트 스트림 TS를 제공받아 헤더와 어뎁테이션 필드에 포함되어 있는 프로그램 클럭 레퍼런스 PCR, 시스템 클럭 레퍼런스 SCR을 추출하여 마이크로 프로세서(14)에 제공한다. 상기 마이크로 프로세서(14)는 상기 프로그램 클럭 레퍼런스 PCR, 시스템 클럭 레퍼런스 SCR을 제공받아 내부의 리얼 타임 클럭(Real Time Clock)을 업 데이트하여 송신측과의 동기를 맞춘다.The present invention will now be described in detail with reference to FIG. 1, which shows a block diagram of a receiver of the digital television broadcast. The channel decoder 10 decodes the digital television broadcast signal received through the channel and outputs the transport stream TS. The transport stream TS is input to the TS and PES decoder 12. The TS and PES decoder 12 receives the transport stream TS from the channel decoder 10 and extracts a program clock reference PCR and a system clock reference SCR included in a header and an adaptation field, thereby extracting the microprocessor 14. To provide. The microprocessor 14 receives the program clock reference PCR and the system clock reference SCR to update an internal real time clock to synchronize with the transmitter.

그리고, 상기 TS 및 PES 디코더부(12)는 상기 채널 디코더부(10)로부터의 트랜스포트 스트림 TS를 패킷타이즈드 엘레먼트리 스트림 PES 패킷으로 디코딩하고, 상기 패킷타이즈드 엘레먼트리 스트림 PES 패킷을 오디오 데이타와 비디오 데이타로 디코딩한다. 상기 TS 및 PES 디코더부(12)는 상기 오디오 데이타와 비디오 데이타를 외부 메모리 제어부(16)를 통하여 외부 메모리(18)에 저장한다. 여기서, 상기 외부 메모리 제어부(16)는 상기 오디오 데이타와 비디오 데이타가 저장된 외부 메모리(18)의 어드레스를 동기제어부(18)에 제공한다.The TS and PES decoder 12 decodes the transport stream TS from the channel decoder 10 into a packetized elementary stream PES packet and decodes the packetized elementary stream PES packet into audio data. And decode to video data. The TS and PES decoder 12 stores the audio data and the video data in the external memory 18 through the external memory controller 16. Here, the external memory controller 16 provides the synchronization controller 18 with the address of the external memory 18 in which the audio data and the video data are stored.

그리고, 상기 TS 및 PES 디코더부(12)는 패킷타이즈드 엘레먼트리 스트림 PES 패킷의 디코딩시 헤더에 포함되어 있는 디코딩 타임 스탬프 DTS를 마이크로 프로세서(14)에 제공한다. 상기 마이크로 프로세서(14)는 상기 디코딩 타임 스탬프 DTS에 따라 외부 메모리(18)에 저장되어 있는 오디오 데이타와 비디오 데이타를 디코딩하도록 오디오 디코더부(26)와 비디오 디코더부(28)를 제어한다.The TS and PES decoder 12 provides the microprocessor 14 with a decoding time stamp DTS included in a header when decoding the packetized elementary stream PES packet. The microprocessor 14 controls the audio decoder unit 26 and the video decoder unit 28 to decode the audio data and the video data stored in the external memory 18 according to the decoding time stamp DTS.

여기서, 상기 마이크로 프로세서(14)의 제어에 따라 외부 메모리 제어부(16)는 디코딩할 오디오 데이타 또는 비디오 데이타를 외부 메모리(18)로부터 리드하여 각각 오디오 디코더부(26)와 비디오 디코더부(28)에 제공한다. 특히, 상기 외부 메모리 제어부(16)는 상기 비디오 데이타를 리드하여 출력함에 있어서, 그 출력하는 비디오 데이타의 부호화타입을 마이크로 프로세서(14)를 통하여 인지한다. 상기 외부 메모리 제어부(16)는 디코딩될 비디오 데이타가 저장되어 있는 외부 메모리(18)의 어드레스 및 그 비디오 데이타의 부호화타입에 대한 정보를 동기제어부(18)에 제공한다. 그리고 외부 메모리 제어부(16)는 디코딩될 오디오 데이타가 저장되어 있는 외부 메모리(18)의 어드레스도 동기제어부(18)에 제공한다.Here, under the control of the microprocessor 14, the external memory controller 16 reads audio data or video data to be decoded from the external memory 18 to the audio decoder 26 and the video decoder 28, respectively. to provide. In particular, when reading and outputting the video data, the external memory controller 16 recognizes the encoding type of the output video data through the microprocessor 14. The external memory controller 16 provides the synchronization controller 18 with information about an address of the external memory 18 in which video data to be decoded is stored and an encoding type of the video data. The external memory controller 16 also provides the synchronization controller 18 with an address of the external memory 18 in which audio data to be decoded is stored.

상기 오디오 디코더부(26)는 외부 메모리(18)로부터 리드되어 출력되는 오디오 데이타를 디코딩 타임 스탬프 DTS에 따라 디코딩하며, 상기 디코딩된 데이타는 다시 외부 메모리(18)에 저장된다.The audio decoder 26 decodes the audio data read out from the external memory 18 according to the decoding time stamp DTS, and the decoded data is stored in the external memory 18 again.

상기 비디오 디코더부(28)는 외부 메모리(18)로부터 리드되어 출력되는 비디오 데이타를 디코딩 타임 스탬프 DTS에 따라 디코딩하며, 상기 디코딩된 데이타는 다시 외부 메모리(18)에 저장된다.The video decoder unit 28 decodes the video data read out from the external memory 18 according to the decoding time stamp DTS, and the decoded data is stored in the external memory 18 again.

그리고, 상기 TS 및 PES 디코더부(12)는 패킷타이즈드 엘레먼트리 스트림 PES 패킷의 디코딩시 헤더에 포함되어 있는 프리젠테이션 타임 스탬프 PTS를 동기 제어부(18)에 제공한다. 상기 동기 제어부(18)는 상기 프리젠테이션 타임 스탬프 PTS가 오디오 데이타에 대한 것이면, 그 오디오 데이타를 저장한 외부 메모리(18)의 어드레스를 외부 메모리 제어부(16)로부터 제공받아서 그 어드레스와 프리젠테이션 타임 스탬프 PTS를 대응시켜 오디오 PTS 큐(20)에 저장한다.The TS and PES decoder 12 provides the synchronization controller 18 with a presentation time stamp PTS included in the header when decoding the packetized elementary stream PES packet. If the presentation time stamp PTS is for audio data, the synchronization control unit 18 receives the address of the external memory 18 storing the audio data from the external memory control unit 16, and the address and the presentation time stamp. Corresponding PTSs are stored in the audio PTS queue 20.

상기 오디오 PTS 큐(20)의 메모리 맵을 나타낸 것이 표 1이다.Table 1 shows a memory map of the audio PTS queue 20.

제1프리젠테이션 타임 스탬프 PTS 저장영역First Presentation Time Stamp PTS Storage Area 제1오디오 데이타가 저장된 외부 메모리(18)의 어드레스 저장영역Address storage area of the external memory 18 in which the first audio data is stored 제2프리젠테이션 타임 스탬프 PTS 저장영역Second Presentation Time Stamp PTS Storage Area 제2오디오 데이타가 저장된 외부 메모리(18)의 어드레스 저장영역Address storage area of the external memory 18 in which the second audio data is stored 제N프리젠테이션 타임 스탬프 PTS 저장영역Nth Presentation Timestamp PTS Storage Area 제N오디오 데이타가 저장된 외부 메모리(18)의 어드레스 저장영역Address storage area of the external memory 18 in which the Nth audio data is stored

상기와 같이 오디오 PTS 큐(20)에는 프리젠테이션 타임 스탬프 PTS와 그 프리젠테이션 타임 스탬프 PTS에 따른 오디오 데이타가 저장되어 있는 외부 메모리(16)의 어드레스가 저장된다.As described above, the audio PTS queue 20 stores the presentation time stamp PTS and the address of the external memory 16 in which audio data corresponding to the presentation time stamp PTS is stored.

여기서, 오디오 데이타의 디코딩 타임 스탬프 DTS에 따라 오디오 데이타의 디코딩시점이 되면, 상기 오디오 디코더부(26)는 해당 오디오 데이타를 리드하여 디코딩하게 된다. 상기 디코딩이 시작되면 상기 외부 메모리 제어부(16)는 디코딩이 시작된 오디오 데이타가 저장된 외부 메모리(18)의 어드레스를 동기제어부(18)에 제공한다. 상기 동기제어부(18)는 상기 어드레스를 제1레지스터(30)에 저장한다. 상기 동기제어부(18)는 상기 제1레지스터(30)에 저장된 어드레스를 리드하여 오디오 PTS 큐(20)에 저장되어 있는 어드레스와 비교하여 동일한 어드레스가 있는지를 검색한다. 이때 동기 제어부(18)는 동일한 어드레스가 있으면 그 어드레스에 대응되어 저장된 프리젠테이션 타임 스탬프 PTS를 리드하여 출력 데이타 처리부(34)에 제공한다. 상기 출력 데이타 처리부(34)는 상기 프리젠테이션 타임 스탬프 PTS에 따라 디코딩된 오디오 데이타를 외부 메모리(18)로부터 리드하여 출력한다.Here, when the decoding time of the audio data is determined according to the decoding time stamp DTS of the audio data, the audio decoder 26 reads the corresponding audio data and decodes it. When the decoding is started, the external memory controller 16 provides the synchronization controller 18 with an address of the external memory 18 in which the audio data at which decoding is started is stored. The synchronization controller 18 stores the address in the first register 30. The synchronization controller 18 reads the address stored in the first register 30 and searches for the same address in comparison with the address stored in the audio PTS queue 20. At this time, if there is an identical address, the synchronization control unit 18 reads the presentation time stamp PTS stored in correspondence with the address and provides it to the output data processing unit 34. The output data processor 34 reads and outputs the audio data decoded according to the presentation time stamp PTS from the external memory 18.

그리고, 상기 동기 제어부(18)는 TS 및 PES 디코더부(12)로부터 제공받은 프리젠테이션 타임 스탬프 PTS가 비디오 데이타에 대한 것이면, 그 비디오 데이타를 저장한 외부 메모리(18)의 어드레스를 외부 메모리 제어부(16)로부터 제공받아서 그 어드레스와 프리젠테이션 타임 스탬프 PTS를 대응시켜 비디오 PTS 큐(22)에 저장한다.When the presentation time stamp PTS provided from the TS and PES decoder 12 is for video data, the synchronization controller 18 receives an address of the external memory 18 storing the video data. 16, the address and the presentation time stamp PTS are stored in the video PTS queue 22 in association with each other.

상기 비디오 PTS 큐(22)의 메모리 맵을 나타낸 것이 표 2이다.Table 2 shows a memory map of the video PTS queue 22.

제1프리젠테이션 타임 스탬프 PTS 저장영역First Presentation Time Stamp PTS Storage Area 제1비디오 데이타가 저장된 외부 메모리(18)의 어드레스 저장영역Address storage area of the external memory 18 in which the first video data is stored 제2프리젠테이션 타임 스탬프 PTS 저장영역Second Presentation Time Stamp PTS Storage Area 제2비디오 데이타가 저장된 외부 메모리(18)의 어드레스 저장영역Address storage area of the external memory 18 in which the second video data is stored 제N프리젠테이션 타임 스탬프 PTS 저장영역Nth Presentation Timestamp PTS Storage Area 제N비디오 데이타가 저장된 외부 메모리(18)의 어드레스 저장영역Address storage area of external memory 18 storing N-th video data

상기와 같이 비디오 PTS 큐(22)에는 프리젠테이션 타임 스탬프 PTS와 그 프리젠테이션 타임 스탬프 PTS에 따른 비디오 데이타가 저장되어 있는 외부 메모리(16)의 어드레스가 저장된다.As described above, the video PTS queue 22 stores the presentation time stamp PTS and the address of the external memory 16 in which video data corresponding to the presentation time stamp PTS is stored.

여기서, 비디오 데이타의 디코딩 타임 스탬프 DTS에 따라 비디오 데이타의 디코딩시점이 되면, 상기 비디오 디코더부(28)는 해당 비디오 데이타를 리드하여 디코딩하게 된다. 상기 디코딩이 시작되면 상기 외부 메모리 제어부(16)는 디코딩이 시작된 비디오 데이타가 저장된 외부 메모리(18)의 어드레스와 그 비디오 데이타의 부호화타입을 동기제어부(18)에 제공한다. 상기 동기제어부(18)는 상기 어드레스를 제2레지스터(32)에 저장한다. 상기 동기제어부(18)는 상기 제2레지스터(32)에 저장된 어드레스를 리드하여 비디오 PTS 큐(22)에 저장되어 있는 어드레스와 비교하여 동일한 어드레스가 있는지를 검색한다. 이때 동기 제어부(18)는 동일한 어드레스가 있으면 그 어드레스에 대응되어 저장된 프리젠테이션 타임 스탬프 PTS를 리드하여 부호화타입에 따라 PTS 레지스터(24)에 저장한다.Here, when the decoding time of the video data is obtained according to the decoding time stamp DTS of the video data, the video decoder 28 reads and decodes the corresponding video data. When the decoding is started, the external memory controller 16 provides the synchronization controller 18 with the address of the external memory 18 storing the video data from which the decoding is started and the encoding type of the video data. The synchronization controller 18 stores the address in the second register 32. The synchronization controller 18 reads the address stored in the second register 32 and searches for the same address in comparison with the address stored in the video PTS queue 22. At this time, if there is an identical address, the synchronization control unit 18 reads the stored presentation time stamp PTS corresponding to the address and stores it in the PTS register 24 according to the encoding type.

상기 PTS 레지스터(24)의 메모리 맵을 나타낸 것이 표 3이다.Table 3 shows a memory map of the PTS register 24.

I,P 부호화 타입의 비디오 데이타의 프리젠테이션 타임 스탬프 PTS 저장영역PTS storage area for presentation time stamp of video data of I, P encoding type P 부호화 타입의 비디오 데이타의 프리젠테이션 타임 스탬프 PTS 저장영역PTS storage area for presentation time stamp of video data of P encoding type B 부호화 타입의 비디오 데이타의 프리젠테이션 타임 스탬프 PTS 저장영역Presentation time stamp PTS storage area for video data of type B encoding

상기 동기 제어부(18)는 출력 데이타 처리부(34)에 출력될 데이타의 부호화 타입에 대한 정보를 제공받아 그 부호화 타입의 비디오 데이타의 프리젠테이션 타임 스탬프 PTS를 출력 데이타 처리부(34)에 제공한다. 상기 출력 데이타 처리부(34)는 상기 프리젠테이션 타임 스탬프 PTS에 따라 디코딩된 비디오 데이타를 외부 메모리(18)로부터 리드하여 출력한다.The synchronization control unit 18 receives the information on the encoding type of the data to be output to the output data processing unit 34 and provides the output data processing unit 34 with the presentation time stamp PTS of the video data of the encoding type. The output data processor 34 reads and outputs the video data decoded according to the presentation time stamp PTS from the external memory 18.

여기서, 상기 출력 데이타 처리부(34)는 상기 프리젠테이션 타임 스탬프 PTS 에 따라 데이타를 출력함에 있어서, 마이크로 프로세서(14)로부터의 시각정보와 상기 프리젠테이션 타임 스탬프 PTS를 비교하여 해당 데이타를 반복하여 출력할 것인지 아니면 삭제할 것인지를 결정하여 그에 따른 동작을 취한다. 더 상세히 설명하면, 상기 출력 데이타 처리부(34)는 상기 마이크로 프로세서(14)의 시각정보에서 상기 프리젠테이션 타임 스탬프 PTS를 감산한 값이 미리 정해둔 값보다 작으면 해당 데이타를 반복하여 출력하고, 상기 감산한 값이 상기 정해둔 값보다 크면 해당 데이타를 삭제하고, 같을 경우에는 통상 동작(Normal Play)을 수행한다.In this case, the output data processor 34 compares the time information from the microprocessor 14 and the presentation time stamp PTS and outputs the data according to the presentation time stamp PTS. Decide whether to delete or delete and take action accordingly. In more detail, the output data processor 34 repeatedly outputs the data when the value obtained by subtracting the presentation time stamp PTS from the time information of the microprocessor 14 is smaller than a predetermined value, If the subtracted value is larger than the predetermined value, the corresponding data is deleted. If the subtracted value is the same, the normal operation is performed.

상기와 같이 출력된 데이타, 즉 오디오 및 비디오 데이타는 각각 비디오 신호와 오디오 신호로 변환 처리되어 수상관(도시하지 않았음) 및 스피커(도시하지 않았음)를 통하여 출력된다.The data output as described above, i.e., audio and video data, is converted into a video signal and an audio signal, respectively, and output through a water pipe (not shown) and a speaker (not shown).

상술한 바와 같이 본 발명은 현재의 출력 데이타에 대한 프리젠테이션 타임 스탬프 PTS를 재배열할 필요가 없이 얻을 수 있으며, 프리젠테이션 타임 스탬프 PTS와 해당 데이타가 잘못 연결되는 것을 방지할 수 있다.As described above, the present invention can be obtained without having to rearrange the presentation time stamp PTS for the current output data, and can prevent the presentation time stamp PTS and the corresponding data from being erroneously connected.

Claims (2)

오디오와 비디오를 동기시켜 출력하는 장치에 있어서,In a device for synchronizing audio and video output, 오디오 데이타와 비디오 데이타를 저장하는 메모리와,A memory for storing audio data and video data; 상기 메모리에 대한 데이타 억세스를 제어하며, 상기 오디오 데이타와 비디오 데이타가 저장되어 있는 어드레스 및 비디오 데이타의 부호화 타입에 대한 정보 및 디코딩되는 오디오 데이타와 비디오 데이타가 저장되어 있는 어드레스를 제공하는 메모리 제어부와,A memory controller which controls data access to the memory and provides an address in which the audio data and the video data are stored, information about an encoding type of the video data, and an address in which the decoded audio data and the video data are stored; 상기 오디오 데이타가 저장되어 있는 어드레스와 그 오디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 저장하는 제1큐와,A first queue for storing the audio data stored in correspondence with the presentation time stamp of the audio data; 상기 비디오 데이타가 저장되어 있는 어드레스와 그 비디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 저장하는 제2큐와,A second queue for storing the video data in correspondence with the presentation time stamp of the video data; 상기 오디오 데이타에 대한 디코딩 타임 스탬프에 따라 오디오 데이타를 디코딩하여 다시 메모리에 저장하는 오디오 디코더와,An audio decoder which decodes the audio data according to a decoding time stamp of the audio data and stores the data again in a memory; 상기 비디오 데이타에 대한 디코딩 타임 스탬프에 따라 비디오 데이타를 디코딩하여 다시 메모리 저장하는 비디오 디코더와,A video decoder which decodes the video data according to a decoding time stamp of the video data and stores the data again in memory; 상기 디코딩되는 오디오 데이타가 저장되어 있는 어드레스를 제공받아 저장하는 제1레지스터와,A first register receiving and storing an address in which the decoded audio data is stored; 상기 디코딩되는 비디오 데이타가 저장되어 있는 어드레스를 제공받아 저장하는 제2레지스터와,A second register configured to receive and store an address in which the decoded video data is stored; 상기 비디오 데이타의 부호화 타입에 따라 지정된 위치에 비디오 데이타의 프리젠테이션 타임 스탬프를 저장하는 제3레지스터와,A third register for storing a presentation time stamp of the video data at a designated position according to the encoding type of the video data; 상기 오디오 데이타에 대한 프리젠테이션 타임 스탬프를 제공받아 디코딩된 오디오 데이타를 메모리로부터 리드하여 출력하고, 상기 비디오 데이타에 대한 부호화 타입순서에 따른 프리젠테이션 타임 스탬프를 제공받아 디코딩된 비디오 데이타를 메모리로부터 리드하여 출력하는 출력데이타 처리부와,Receives the presentation time stamp for the audio data and reads out the decoded audio data from the memory, and receives the presentation time stamp according to the encoding type order for the video data and reads the decoded video data from the memory. An output data processing unit for outputting 상기 오디오 데이타가 저장되어 있는 어드레스를 메모리 제어부로부터 제공받아 그 어드레스와 그 오디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 제1큐에 저장하고, 상기 오디오 데이타의 디코딩이 시작되면 상기 메모리 제어부로부터 디코딩되는 오디오 데이타가 저장되어 있는 어드레스를 제공받아 제1레지스터에 저장하고, 상기 제1레지스터에 저장된 어드레스와 동일한 어드레스를 제1큐로부터 검색하여, 그 어드레스에 대응된 프리젠테이션 타임 스탬프를 리드하여 상기 출력 데이타 처리부에 제공하고, 상기 비디오 데이타가 저장되어 있는 메모리의 어드레스를 메모리 제어부로부터 제공받아 그 어드레스와 그 비디오 데이타의 프리젠테이션 타임 스탬프를 대응시켜 제2큐에 저장하고, 상기 비디오 데이타의 디코딩이 시작되면 상기 메모리 제어부로부터 디코딩될 비디오 데이타가 저장되어 있는 어드레스를 제공받아 제2레지스터에 저장하고, 상기 제2레지스터에 저장된 어드레스와 동일한 어드레스를 제2큐로부터 검색하여, 그 어드레스에 대응하는 프리젠테이션 타임 스탬프를 리드하여 상기 제3레지스터에 그 비디오 데이타의 부호화 타입에 따른 위치에 저장하고, 상기 출력데이타 처리부로부터 출력될 비디오 데이타의 부호화 타입에 따른 프리젠테이션 타임 스탬프를 요구할 시에 제3레지스터에서 그 부호화 타입에 따른 위치에 저장된 프리젠테이션 타임 스탬프를 리드하여 상기 출력 데이타 처리부에 제공하는 동기제어부를 구비하는 것을 특징으로 하는 오디오와 비디오를 동기시켜 출력하는 장치.Receives an address in which the audio data is stored from the memory control unit and stores the address and the presentation time stamp of the audio data in the first queue. When decoding of the audio data is started, the audio is decoded from the memory control unit. The output data processing unit receives an address in which data is stored, stores it in a first register, retrieves an address identical to the address stored in the first register, from a first queue, reads a presentation time stamp corresponding to the address, and outputs the presentation data stamp. Receive the address of the memory in which the video data is stored from the memory controller, and store the address in the second queue in correspondence with the presentation time stamp of the video data. Me Receive an address storing the video data to be decoded from the memory control unit and store it in the second register, retrieve the same address as the address stored in the second register from the second queue, and obtain a presentation time stamp corresponding to the address. Reads and stores the third register in a position corresponding to the encoding type of the video data, and requests the presentation time stamp according to the encoding type of the video data to be output from the output data processor. And a synchronization control unit for reading the presentation time stamp stored in the position and providing the presentation time stamp to the output data processing unit. 제1항에 있어서, 상기 출력 데이타 처리부가,The method of claim 1, wherein the output data processing unit, 상기 현재시각에서 프리젠테이션 타임 스탬프를 감산한 값이 미리 정해둔 값보다 작으면 해당 디코딩된 데이타를 반복하여 출력하고, 상기 감산한 값이 정해둔 값보다 크면 해당 디코딩된 데이타를 출력하지 않음을 더 수행함을 특징으로 하는 오디오와 비디오를 동기시켜 출력하는 장치.If the value obtained by subtracting the presentation time stamp from the current time is smaller than the predetermined value, the corresponding decoded data is repeatedly outputted. If the value reduced is greater than the predetermined value, the decoded data is not outputted. A device for synchronizing and outputting audio and video, characterized in that performed.
KR1019970043749A 1997-08-30 1997-08-30 Apparatus of synchronous outputting audio and video KR100222705B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970043749A KR100222705B1 (en) 1997-08-30 1997-08-30 Apparatus of synchronous outputting audio and video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970043749A KR100222705B1 (en) 1997-08-30 1997-08-30 Apparatus of synchronous outputting audio and video

Publications (2)

Publication Number Publication Date
KR19990020289A KR19990020289A (en) 1999-03-25
KR100222705B1 true KR100222705B1 (en) 1999-10-01

Family

ID=19519865

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970043749A KR100222705B1 (en) 1997-08-30 1997-08-30 Apparatus of synchronous outputting audio and video

Country Status (1)

Country Link
KR (1) KR100222705B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7898574B2 (en) 2004-10-22 2011-03-01 Lg Electronics Inc. Image processor and operating method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100437674B1 (en) * 2001-05-24 2004-06-26 주식회사 하이닉스반도체 Apparatus for control of Pulse Code Modulation data and method for control thereof
KR100826170B1 (en) * 2002-04-08 2008-04-30 엘지전자 주식회사 Method for managing presentation time stamp in digital broadcasting receiver

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7898574B2 (en) 2004-10-22 2011-03-01 Lg Electronics Inc. Image processor and operating method thereof

Also Published As

Publication number Publication date
KR19990020289A (en) 1999-03-25

Similar Documents

Publication Publication Date Title
US6449352B1 (en) Packet generating method, data multiplexing method using the same, and apparatus for coding and decoding of the transmission data
US6985188B1 (en) Video decoding and channel acquisition system
US5832085A (en) Method and apparatus storing multiple protocol, compressed audio video data
US20050259946A1 (en) Video editing apparatus and video editing method
KR100203262B1 (en) Interface device of video decoder for syncronization of picture
US7024685B1 (en) Transport demultiplexor with bit maskable filter
US20020040481A1 (en) Digital broadcast receiving apparatus
EP1643772B1 (en) System, method and apparatus for clean channel change
KR19990057100A (en) MPEG decoder and decoding control method
US7024100B1 (en) Video storage and retrieval apparatus
US6532242B1 (en) Method for encoding, editing and transmitting digital signals
JP2001204032A (en) Mpeg decoder
KR100222705B1 (en) Apparatus of synchronous outputting audio and video
KR100617221B1 (en) Method for audio/video signal synchronizing of digital broadcasting receiver
JP3469705B2 (en) Decoding circuit for multiplexed video signal
JPH10136300A (en) Insertion device for data used repetitively and digital broadcast transmission system
US7269839B2 (en) Data distribution apparatus and method, and data distribution system
JPH10190617A (en) Video signal decoding device
KR100236014B1 (en) Video decoding system
US6970514B1 (en) Signal processing device, signal processing method, decoding device, decoding method and recording medium
KR960008053B1 (en) Apparatus for synchronization of image signal and sound signal
JP2823806B2 (en) Image decoding device
JPH099215A (en) Data multiplex method, data transmission method, multiplex data decoding method and multiplex data decoder
JPH11177921A (en) Digital data edit method and digital data edit device
JP3671969B2 (en) Data multiplexing method and multiple data decoding method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110629

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee