KR20060060109A - Synchronization apparatus and method for audio and video of portable terminal - Google Patents

Synchronization apparatus and method for audio and video of portable terminal Download PDF

Info

Publication number
KR20060060109A
KR20060060109A KR1020040098989A KR20040098989A KR20060060109A KR 20060060109 A KR20060060109 A KR 20060060109A KR 1020040098989 A KR1020040098989 A KR 1020040098989A KR 20040098989 A KR20040098989 A KR 20040098989A KR 20060060109 A KR20060060109 A KR 20060060109A
Authority
KR
South Korea
Prior art keywords
video
audio
frame
information
synchronization
Prior art date
Application number
KR1020040098989A
Other languages
Korean (ko)
Other versions
KR100657096B1 (en
Inventor
박지호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020040098989A priority Critical patent/KR100657096B1/en
Publication of KR20060060109A publication Critical patent/KR20060060109A/en
Application granted granted Critical
Publication of KR100657096B1 publication Critical patent/KR100657096B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • H04L7/02Speed or phase control by the received code signals, the signals containing no special synchronisation information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/75Media network packet handling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • H04L7/0016Arrangements for synchronising receiver with transmitter correction of synchronization errors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명은 VOD(Video On Demand)를 지원하는 휴대 단말기에 있어서, 특히 실시간으로 수신되는 오디오 및 비디오 동기화를 위해, 수신되는 데이터 프레임에 비트 정보를 강제적으로 세팅함으로써 동기화가 가능하도록 하는 것에 관한 것으로, 본 발명에 따른 휴대 단말기의 오디오 및 비디오 동기화 장치는, 수신되는 멀티미디어 패킷 데이터의 오디오 및 비디오 타임 스탬프에 의한 동기를 체크하고 그 결과 시간차를 임계치 이상일 경우 상기 데이터 프레임에 소정의 정보를 세팅하며, 상기 데이터 프레임에 세팅된 정보에 따라 해당 프레임을 점프하여 다음 프레임부터 디코딩을 수행하는 신호 처리 칩을 포함하는 것을 특징으로 한다.The present invention relates to a mobile terminal that supports VOD (Video On Demand), in particular to enable synchronization by forcibly setting the bit information in the received data frame, for audio and video synchronization received in real time, The apparatus for synchronizing audio and video of a portable terminal according to the present invention checks synchronization of received multimedia packet data by audio and video time stamps and sets predetermined information in the data frame when the time difference is greater than a threshold. And a signal processing chip which performs decoding from the next frame by jumping the corresponding frame according to the information set in the data frame.

휴대 단말기, 오디오, 비디오, 동기화, NAL, FZBHandset, audio, video, sync, NAL, FZB

Description

휴대 단말기의 오디오 및 비디오 동기화 장치 및 방법{Synchronization apparatus and method for audio and video of portable terminal}Synchronization apparatus and method for audio and video of portable terminal

도 1은 종래 휴대 단말기의 구성도.1 is a block diagram of a conventional portable terminal.

도 2는 본 발명 실시 예에 따른 휴대 단말기의 오디오 및 비디오 동기화 장치를 나타낸 구성도.2 is a block diagram showing an audio and video synchronization device of a mobile terminal according to an embodiment of the present invention.

도 3은 본 발명 실시 예에 따른 신호 처리 칩의 상세 구성도.3 is a detailed block diagram of a signal processing chip according to an embodiment of the present invention.

도 4는 본 발명에 따른 NAL 유닛 구문을 나타낸 도면.4 illustrates NAL unit syntax in accordance with the present invention.

도 5는 본 발명에 따른 휴대 단말기의 오디오 및 비디오 동기화 방법을 나타낸 플로우 챠트.5 is a flowchart illustrating an audio and video synchronization method of a mobile terminal according to the present invention;

도 6은 본 발명에 따른 휴대 단말기에서의 신호 처리 칩에 의한 에러 처리 루틴을 나타낸 흐름도.6 is a flowchart showing an error processing routine by the signal processing chip in the mobile terminal according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100...휴대 단말기 110...모뎀 칩100 ... handset 110 ... modem chip

111...프로토콜 처리 모듈 112...인터페이스111 Protocol processing module 112 Interface

117...RTP 처리부 118...패킷 복원 모듈117 ... RTP processing unit 118 ... Packet restoration module

120...신호 처리 칩 121...동기 체크 모듈120 ... Signal Processing Chip 121 ... Synchronous Check Module

121a...프레임 버퍼 122...파일 시스템 저장부121a ... Frame buffer 122 ... File system storage

123...코덱 124...재생부123 ... Codec 124 ... Playback

본 발명은 VOD(Video On Demand)를 지원하는 휴대 단말기에 있어서, 특히 실시간으로 수신되는 오디오 및 비디오 동기화 장치 및 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for audio and video synchronization, in particular, which is received in real time in a portable terminal supporting Video On Demand (VOD).

일반적으로, 비디오 신호 인코딩 기술들은 비디오 신호들의 전송, 저장, 및 재생을 위해 사용된다. 예컨대, ITU-T Recommendation H.263(이하, 'H.263'이라 함), ISO/IEC International Standard 14496-2(MPEG-4 Visual, 이하 'MPEG-4'라 함) 등과 같은 국제 표준 비디오 디코딩 방법들을 포함한다. 그리고, 새로운 인코딩 시스템은 ITU-T와 ISO/IEC. 즉 ITU-T Recommendation H.264와 ISO/IEC International Standard 14496-10(조인트 비디오 설명서의 조인트 최종 위원회 초안(Joint Final Committee Draft, 이하 'H.26L'이라 함)에 의한 조인트 국제 표준화를 위해 계획된 비디오 코딩 방법이다. 이들 비디오 코딩 방법들에 사용되는 일반적인 코딩 기술들을 포함하고 있다. In general, video signal encoding techniques are used for the transmission, storage, and playback of video signals. For example, international standard video decoding such as ITU-T Recommendation H.263 (hereinafter referred to as 'H.263'), ISO / IEC International Standard 14496-2 (MPEG-4 Visual, hereinafter referred to as 'MPEG-4'), etc. Methods. And new encoding systems include ITU-T and ISO / IEC. That is, video designed for joint international standardization by the ITU-T Recommendation H.264 and ISO / IEC International Standard 14496-10 (Joint Final Committee Draft, H.26L). Coding methods, including general coding techniques used in these video coding methods.

이와 같은 비디오 신호의 압축 기술의 발전과 최근 휴대 단말기의 기술 발전으로 인하여 단말기에 주문형 비디오(VOD: Video On Demand) 기능을 제공하고 있다. 주문형 비디오 기능은 인터넷 상의 VOD 서버에 있는 VOD 컨텐츠(contents)를 단말기가 다운로드 후 재생하는 것이 아니라, VOD 서버에서 실시간으로 보내주는 스트리밍(streaming) 데이터를 전송 받아서 처리하는 동시에 사용자에게 컨텐츠를 보여주는 기능이다. 여기서, VOD 컨텐츠는 VOD 서버에 있는 컨텐츠 중에서 VOD 기능으로 단말기에 전송되는 컨텐츠를 지칭한다. Due to the development of the compression technology of the video signal and the recent development of the technology of the portable terminal, a video on demand (VOD) function is provided to the terminal. On-demand video function is not a function of downloading and playing back VOD contents in VOD server on the Internet, but receiving and processing streaming data sent from VOD server in real time and showing contents to user. . Here, the VOD content refers to content transmitted to the terminal through the VOD function among contents in the VOD server.

또한, 주문형 비디오 기능을 이용하여 영화 예고편, 뮤직 비디오, 그리고 뉴스 등을 볼 수 있을 뿐만 아니라 최근에는 TV 방송도 가능하게 되었다. 또한, 단말기의 저장 매체 용량이 증가면서 단말기에서 VOD 컨텐츠를 재생하면서 동시에 녹화까지 가능하게 되었다.In addition, on-demand video capabilities enable movie trailers, music videos, and news, as well as television broadcasts in recent years. In addition, as the storage medium capacity of the terminal increases, the terminal can simultaneously record and record VOD contents.

도 1은 종래 H.26L 기반의 VOD 단말기의 구성도이다.1 is a block diagram of a conventional H.26L-based VOD terminal.

도 1을 참조하면, 휴대 단말기(10)는 크게 모뎀(MSM: Mobile Station Modem) 칩(20) 및 신호 처리 칩(30)을 포함하며, 모뎀 칩(10)은 송신되는 신호를 부호화 및 변조하는 송신기 및 상기 수신되는 신호를 복조 및 복호화하는 수신기와, 프로토콜 처리 모듈(21)을 포함한다. 여기서 프로토콜 처리 모듈(21)은 수신되는 멀티미디어 패킷 데이터를 처리하게 된다. Referring to FIG. 1, the mobile terminal 10 generally includes a mobile station modem (MSM) chip 20 and a signal processing chip 30, and the modem chip 10 encodes and modulates a transmitted signal. A transmitter, a receiver for demodulating and decoding the received signal, and a protocol processing module 21. In this case, the protocol processing module 21 processes the received multimedia packet data.

여기서, 멀티미디어 패킷(RTP 패킷) 데이터는 헤더 정보에 PPP(Point to Point Protocol), IP(Internet Protocol), TCP/UDP(Transport Control Protocol/User Datagram Protocol), RTP(Real Time Protocol)/RTSP(Real Time Streaming Protocol)/HTTP를 삽입하고, RTP 페이로드에 멀티미디어 데이터(H.264)가 실려 전송된다. Here, the multimedia packet (RTP packet) data includes header to point information such as Point to Point Protocol (PPP), Internet Protocol (IP), Transport Control Protocol / User Datagram Protocol (TCP / UDP), Real Time Protocol (RTP) / RTSP (Real). Time Streaming Protocol) / HTTP is inserted, and multimedia data (H.264) is carried in the RTP payload.

이에 따라 RTP 패킷이 수신되면 프토토콜 처리 모듈(21)에 의해 하위 레이어의 PPP, IP, TCP/UDP의 프로토콜에 맞게 처리하며, RTP 패킷에 해당하는 멀티미디 어 데이터를 신호 처리 칩(30)에 전달하게 된다. Accordingly, when the RTP packet is received, the protocol processing module 21 processes the PPP, IP, and TCP / UDP protocols of the lower layer, and transmits multimedia data corresponding to the RTP packet to the signal processing chip 30. Will be delivered.

그리고, 모뎀 칩(10)은 미디(MIDI) 수준의 오디오 및 음성 데이터를 디코딩하는 코덱을 포함하게 된다.In addition, the modem chip 10 may include a codec for decoding MIDI and audio data.

상기 신호 처리 칩(30)은 파일 시스템(31), 코덱(CODEC)(32), 재생기(33)를 포함하며, 파일 시스템(31)은 멀티미디어 패킷 데이터를 저장하게 되며, 코덱(32)은 비디오 재생을 위해 상기 멀티미디어 패킷 데이터를 디코딩하며, 재생기(33)는 실시간 동영상 서비스를 위해 상기 디코딩된 멀티미디어 데이터의 디스플레이를 제어하게 된다.The signal processing chip 30 includes a file system 31, a codec 32, and a player 33. The file system 31 stores multimedia packet data, and the codec 32 is a video. Decode the multimedia packet data for playback, and player 33 controls the display of the decoded multimedia data for real-time video service.

여기서, 상기 모뎀 칩(20)과 신호 처리 칩(30)의 인터페이스 방식은 예를 들면, IPC(Inter Process Communication)(22)로 연결된다.Here, the interface method of the modem chip 20 and the signal processing chip 30 is connected to, for example, an IPC (Inter Process Communication) 22.

상기 신호 처리 칩(30)은 모든 H.264 기반의 비트 스트림을 처리할 수가 있다. 즉, 주문형 비디오 또는 실시간 동영상 서비스는 비디오 코덱(Video codec)(32)으로 H.264를 많이 채택하고 있다. The signal processing chip 30 may process all H.264 based bit streams. That is, on-demand video or real-time video service adopts H.264 as a video codec 32.

이러한 신호 처리 칩(30)은 미디 수준 이외의 오디오 코덱에 해당하는 MP3, AAC(Advanced Audio Coder) 등등과 스피치 코덱(Speech codec)에 해당하는 QCELP, EVRC 등에 대해 모두 디코딩을 수행하게 된다.The signal processing chip 30 decodes all of MP3, AAC (Advanced Audio Coder), etc., and speech codec (QCELP, EVRC) corresponding to an audio codec other than the MIDI level.

이러한, 휴대 단말기는 오디오/비디오가 동시에 재생 될 때 비디오 보다 오디오의 우선 순위가 높아서, 비디오의 재생이 끊어지더라도 소리는 사용자에게 들려주게 된다. 즉, 비디오와 오디오 데이터가 동시에 공존할 경우 오디오를 우선적으로 처리하고, 오디오 데이터가 처리된 후 비디오가 점유할 수가 있게 된다. 만 약, 오디오의 주파수(sampling frequency)가 높은 데이터일 경우 이를 빈번하게 처리해 주어야 하기 때문에 상대적으로 비디오는 CPU 즉, 신호 처리 칩을 점유할 수 있는 기회가 적어진다.Such a mobile terminal has higher priority of audio than video when audio / video is simultaneously played, so that the sound is heard to the user even if the video is interrupted. That is, when video and audio data coexist simultaneously, audio is preferentially processed and video can be occupied after the audio data is processed. If the audio frequency is high, the data has to be processed frequently, so video has less opportunity to occupy the CPU, that is, the signal processing chip.

이에 따라, 종래 휴대 단말기에서는 오디오와 비디오가 동시에 재생될 때, 오디오의 높은 비트 레이트로 인해 오디오 데이터가 신호 처리 칩(30)의 점유율을 상대적으로 많게 되므로, 비디오가 모든 비트 스트림을 디코딩하게 된다면 디코딩에 소요된 시간에 의해서 오디오 및 비디오간의 시간 동기가 맞지 않게 된다.Accordingly, in the conventional portable terminal, when audio and video are played simultaneously, the audio data has a relatively large share of the signal processing chip 30 due to the high bit rate of the audio, so that if the video decodes all the bit streams, the decoding is performed. Depending on the time spent, the time synchronization between the audio and the video does not match.

또한, H.264는 엠펙 4에 비해 상대적으로 복잡도를 가지고 있게 된다. 즉, H.264는 현재 매크로 블록(Macroblock)과 가장 유사한 것을 전 후 합쳐서 32장(forward 16장, backward 16장) 내에서 전부 탐색을 수행하게 되며, 이를 위해 인코더뿐만 아니라 디코더에서도 똑같은 프레임 버퍼를 갖고 있게 된다. 이에 비해 엠펙 4(MPEG 4)는 B-픽쳐를 위해서 전 후 합쳐서 2장을 처리하는 것과 비교하여 볼 때, H.264가 높은 복잡도를 갖고 있다고 볼 수 있다. 이러한 H.264의 복잡도와 오디오의 우선 순위에 의해 신호 처리 칩에 많은 부하로 작용되며, 이러한 부하는 실시간 방송에 있어서는 더 치명적이라고 할 수 있다. H.264 also has more complexity than MPEG 4. In other words, H.264 performs the entire search within 32 (forward 16 and backward 16) by combining before and after the most similar to the current macroblock. I have it. On the other hand, MPEG 4 (MPEG 4) shows that H.264 has high complexity when compared to processing two sheets before and after for B-picture. Due to the complexity of H.264 and the priority of audio, the signal processing chip is heavily loaded, and such a load is more deadly in real time broadcasting.

따라서, 종래에는 오디오 신호와 비디오 신호가 동시에 재생될 때 오디오의 비트 레이트로 인해 비디오 신호 처리 칩을 점유할 수 있는 상대적으로 적을 때 발생하는 오디오 및 비디오 사이에 시간 차이가 발생하게 되는 문제가 있다.Therefore, in the related art, there is a problem that a time difference occurs between audio and video generated when the audio signal and the video signal are reproduced at the same time due to the bit rate of the audio, which is relatively small, which can occupy the video signal processing chip.

본 발명의 제 1목적은 H.264 기반의 실시간 동영상 서비스를 위한 오디오/비디오 동기화 장치 및 방법을 제공함에 있다. A first object of the present invention is to provide an audio / video synchronization apparatus and method for H.264 based real-time video service.

본 발명의 제 2목적은 오디오/비디오 동기화에 따른 추가적인 메모리나 프로세서의 오버헤드(Overhead)가 없이 오디오/비디오 동기를 맞출 수 있도록 함에 있다.A second object of the present invention is to enable audio / video synchronization without additional memory or processor overhead associated with audio / video synchronization.

본 발명의 제 3목적은 동기 체크 모듈에서 오디오 및 비디오의 시간차가 일정 이상일 경우 이들의 동기를 맞출 수 있도록 NAL의 일정 정보에 비트를 강제적으로 세팅할 수 있도록 함에 있다.A third object of the present invention is to enable the synchronization check module to forcibly set bits in the NAL schedule information so as to synchronize the audio and video when the time difference between the audio and the video is fixed.

본 발명의 제 4목적은 코덱에서 상기 세팅된 비트 정보를 이용하여 에러 처리 또는 취소 루틴을 수행함으로써, 상기 비트 정보가 삽입된 프레임 데이터를 디코딩 과정을 수행하지 않고 다음 프레임 데이터로 점프함으로써, 오디오 및 비디오 동기를 맞출 수 있도록 함에 있다.
A fourth object of the present invention is to perform an error processing or cancellation routine using the set bit information in a codec, thereby jumping frame data into which the bit information is inserted into the next frame data without performing a decoding process, thereby performing audio and To keep the video in sync.

상기한 목적 달성을 위한 본 발명에 따른 휴대 단말기의 오디오 및 비디오 동기화 장치는Audio and video synchronization device of a mobile terminal according to the present invention for achieving the above object

멀티미디어 패킷 데이터를 수신하는 수신부와; A receiving unit for receiving multimedia packet data;

상기 수신된 멀티미디어 데이터의 재생에 따른 오디오 및 비디오 타임 스탬프에 의한 시간차를 이용하여 동기를 체크하고, 상기 시간차가 임계치 이상일 경우 상기 데이터 프레임에 소정의 정보를 세팅하는 동기 체크 모듈과;A synchronization check module for checking synchronization by using a time difference by an audio and video time stamp according to reproduction of the received multimedia data, and setting predetermined information in the data frame when the time difference is greater than or equal to a threshold;

상기 데이터 프레임의 재생을 위해 디코딩하며, 디코딩시 상기 데이터 프레임에 세팅된 정보에 따라 현재의 프레임을 점프하여 다음 프레임부터 디코딩을 수행하는 코덱과;A codec for decoding for reproduction of the data frame, and performing decoding from a next frame by jumping a current frame according to information set in the data frame during decoding;

상기 코덱에 의해 디코딩된 데이터를 재생시키는 재생부를 포함하는 것을 특징으로 한다.And a reproduction unit for reproducing the data decoded by the codec.

바람직하게, 상기 동기 체크 모듈은 상기 재생부로부터 전달되는 현재의 오디오 및 비디오 타임 스탬프를 이용하는 특징으로 한다.Preferably, the synchronization check module is characterized by using the current audio and video time stamp transmitted from the playback unit.

구체적으로, 상기 동기 체크 모듈은 오디오 및 비디오의 시간차가 임계치 이상일 경우 NAL(Network Abstraction Layer)의 FZB(Forbidden Zero Bit) 정보에 소정의 비트 정보를 세팅하는 것을 특징으로 한다.In detail, the synchronization check module sets predetermined bit information to FZB (Forbidden Zero Bit) information of a network abstraction layer (NAL) when a time difference between audio and video is greater than or equal to a threshold.

바람직하게, 상기 동기 체크 모듈은 오디오 및 비디오의 시간차가 NAL 프레임의 주기 보다 적은 특정 임계치 이상일 때 그 다음 데이터 프레임에 소정의 정보를 세팅하는 것을 특징으로 한다.Preferably, the synchronization check module is characterized by setting predetermined information in the next data frame when the time difference between audio and video is more than a certain threshold less than the period of the NAL frame.

바람직하게, 상기 코덱은 H.264인 것을 특징으로 한다.Preferably, the codec is characterized in that the H.264.

본 발명의 다른 실시 예에 따른 휴대 단말기의 오디오 및 비디오 동기화 장치는,An audio and video synchronization device of a mobile terminal according to another embodiment of the present invention,

멀티미디어 패킷 데이터를 수신하는 모뎀 칩과; 상기 수신된 패킷 데이터의 재생에 따른 오디오 및 비디오 데이터의 동기를 위해 임의의 데이터 프레임에 동기용 비트 정보를 세팅하는 수단 및, 상기 데이터 프레임의 디코딩시 상기 동기용 비트 정보를 체크한 후 상기 동기용 비트 정보가 세팅된 데이터 프레임을 점프하여 다음 프레임부터 디코딩을 수행하는 수단을 포함하는 신호 처리 칩을 포함하는 것을 특징으로 한다.A modem chip for receiving multimedia packet data; Means for setting synchronization bit information in an arbitrary data frame for synchronization of audio and video data according to reproduction of the received packet data, and after checking the synchronization bit information when decoding the data frame And a signal processing chip including a means for jumping from a data frame set with bit information and performing decoding from the next frame.

본 발명에 따른 휴대 단말기의 오디오 및 비디오 동기화 방법은, The audio and video synchronization method of the mobile terminal according to the present invention,

멀티미디어 패킷 데이터를 수신하는 단계; 상기 수신된 패킷 데이터의 재생에 따른 오디오 및 비디오 타임 스탬프를 검출하는 단계; 상기 오디오 및 비디오의 타임 스탬프의 차이가 임계치 이상인가를 확인한 후, 그 확인결과 임계치 이상이면 NAL 프레임의 FZB 정보에 비트 정보를 세팅하는 단계;Receiving multimedia packet data; Detecting an audio and video time stamp according to reproduction of the received packet data; Confirming whether a difference between the audio and video time stamps is greater than or equal to a threshold, and if the verification result is greater than or equal to a threshold, setting bit information in FZB information of a NAL frame;

상기 패킷 데이터의 디코딩시 NAL 프레임의 FZB 정보를 체크하며, 상기 NAL 프레임의 FZB 정보에 세팅된 비트 정보에 따라 해당 데이터 프레임을 점프하고 다음 데이터 프레임부터 디코딩을 수행하는 단계를 포함하는 것을 특징으로 한다.Checking the FZB information of the NAL frame when decoding the packet data, jumping the corresponding data frame according to the bit information set in the FZB information of the NAL frame, and performing decoding from the next data frame. .

이하 첨부된 도면을 참조하여 설명하면 다음과 같다. Hereinafter, with reference to the accompanying drawings as follows.

도 2는 본 발명 실시 예에 따른 휴대 단말기의 오디오 및 비디오 동기화 장치를 나타낸 구성도이다.2 is a block diagram illustrating an audio and video synchronization device of a mobile terminal according to an exemplary embodiment of the present invention.

도 2를 참조하면, 휴대 단말기(100)는 패킷 데이터를 수신하는 모뎀 칩(110)과, 데이터의 재생에 따른 오디오 및 비디오 동기를 위해 임의의 프레임에 강제적으로 동기용 비트 정보를 세팅하고 상기 비트정보가 삽입된 해당 프레임을 처리(점프 또는 통과)함으로써 오디오 및 비디오의 동기를 맞출 수 있도록 한 신호 처리 칩(120)으로 구성된다.Referring to FIG. 2, the portable terminal 100 forcibly sets synchronization bit information in an arbitrary frame for synchronization of audio and video according to reproduction of data with the modem chip 110 receiving packet data. The signal processing chip 120 is configured to synchronize audio and video by processing (jumping or passing) the corresponding frame into which the information is inserted.

상기 모뎀 칩(110)에는 프로토콜 처리 모듈(111)이 포함되며, 신호 처리 칩(120)에는 동기 체크 모듈(121), 파일 시스템 저장부(122), 코덱(123), 재생부(124)를 포함하게 된다.The modem chip 110 includes a protocol processing module 111. The signal processing chip 120 includes a synchronization check module 121, a file system storage unit 122, a codec 123, and a playback unit 124. It will be included.

상기 동기 체크 모듈(121)은 오디오와 비디오 타임 스탬프(Time stamp)를 체크하면서, 그 차가 임계치(threshold)를 벗어나는 경우 코덱(123)에 이를 통지하며, 코덱(123)은 입력되는 비트 스트림이 높은 복잡도를 가지고 있다고 판단, 현재 프레임을 점프하여 다음 프레임부터 디코딩을 수행하게 된다. The sync check module 121 checks the audio and video time stamps and notifies the codec 123 when the difference is out of the threshold, and the codec 123 has a high bit stream input. Determining the complexity, the current frame is jumped and decoding is performed from the next frame.

여기서, 동기 체크 모듈(121)은 코덱(123)에 통지하는 예로서, NAL 유닛의 FZB 정보에 강제로 이 프레임이 필요 없으므로 "점프"하도록 비트 정보를 세팅해 주게 되며, 코덱(123)은 상기 NAL FZB 정보를 계속 체크하여 세팅된 비트 정보에 따라 현재 프레임을 점프하고 다음 프레임부터 디코딩하게 된다.Here, as an example of notifying the codec 123, the synchronization check module 121 sets bit information to "jump" because the frame is not required in the FZB information of the NAL unit forcibly. The NAL FZB information is continuously checked to jump the current frame according to the set bit information and to decode the next frame.

상기와 같이 구성되는 본 발명 실시 예에 따른 휴대 단말기의 오디오 및 비디오 동기화 장치에 대하여 첨부된 도면을 참조하여 설명하면 다음과 같다.Referring to the accompanying drawings, an audio and video synchronization device of a mobile terminal according to an embodiment of the present invention configured as described above will be described.

도 2에 도시된 바와 같이, 휴대 단말기(100)에 멀티미디어 패킷 즉, RTP(Real Time Protocol) 패킷이 수신되면, 모뎀 칩(120)은 내부의 프로토콜 처리모듈(121)에 의해 각 종 프로토콜을 처리하게 된다. 여기서, RTP 패킷은 헤더 정보에 하위 레이어로서 PPP, IP, TCP/UDP의 프로토콜이 함께 수신되며 실제적인 헤더로서 RTP/RTSP/HTTP를 포함하며, 페이로드에는 멀티미디어 데이터가 실려 전송된다.As shown in FIG. 2, when a multimedia packet, that is, a Real Time Protocol (RTP) packet, is received by the mobile terminal 100, the modem chip 120 processes various protocols by an internal protocol processing module 121. Done. Here, the RTP packet is received with PPP, IP, and TCP / UDP protocols as a lower layer in the header information, and includes RTP / RTSP / HTTP as an actual header, and multimedia data is carried in the payload.

상기 모뎀 칩(110)에 의해 프로토콜 처리된 멀티미디어 데이터는 인터페이스(122)를 통해 신호 처리 칩(120)으로 전달되며, 신호 처리 칩(120)에서는 상기 멀티미디어 데이터를 디코딩 및 저장하며, 이를 재생시켜 주고 오디오 및 비디오 데이터의 동기를 맞춰주게 된다.The multimedia data processed by the modem chip 110 is transmitted to the signal processing chip 120 through the interface 122, and the signal processing chip 120 decodes and stores the multimedia data, and reproduces the multimedia data. Synchronize audio and video data.

이를 위해, 신호 처리 칩(120)에는 동기 체크 모듈(121), 파일 시스템 저장부(122), 코덱(123), 재생부(124)를 포함하며, 동기 체크 모듈(121)은 오디오 및 비디오의 타임 스탬프를 이용하여 오디오와 비디오의 시간차를 검출하며, 상기 오디오 및 비디오의 시간차가 임계치 이상일 경우 NAL(Network Abstraction Layer , 이하 "날"로 약칭함)정보에 강제적으로 비트 정보를 세팅하게 된다. To this end, the signal processing chip 120 includes a synchronization check module 121, a file system storage unit 122, a codec 123, and a playback unit 124, and the synchronization check module 121 includes audio and video. The time stamp is used to detect a time difference between audio and video. When the time difference between the audio and video is greater than or equal to a threshold, bit information is forcibly set in NAL (hereinafter, referred to as "day") information.

또한, 동기 체크 모듈(121)은 계속적으로 동기를 체크하거나, 일정 주기마다 동기를 체크할 수도 있으며, 오디오와 비디오의 타임 스탬프가 임계치를 벗어날 경우 패킷 데이터 프레임을 점프 또는 삭제할 것인지를 해당 데이터 프레임에 세팅시켜 주게 된다. 또는 현재 프레임에 비트 정보가 세팅될 경우 실제적으로 다음 데이트 프레임을 점프하도록 지시할 수도 있다.In addition, the synchronization check module 121 may continuously check synchronization, or check synchronization at regular intervals. If the time stamps of audio and video deviate from the threshold, the synchronization check module 121 may select whether to jump or delete the packet data frame. Will be set. Alternatively, when bit information is set in the current frame, it may be instructed to actually jump to the next data frame.

여기서, H.26L(예를 들면, H.264)의 날 유닛 구문(NAL unit syntax)은 도 4에 도시된 바와 같다. 본 실시 예에서는 H.26L로 인코딩된 데이터를 전송하는 유닛들인 날(NAL)에 대한 정보를 운반하는 날 유닛 구문에서 규정된다. 구체적으로, 이것은 날 유닛 구문에 포함된 날 유닛 유형에 의해 알려지는 유형으로서 규정된다.Here, the NAL unit syntax of H.26L (eg, H.264) is as shown in FIG. 4. In the present embodiment, it is defined in a day unit syntax that carries information on a day (NAL), which is a unit for transmitting H.26L encoded data. Specifically, this is defined as the type known by the raw unit type included in the raw unit syntax.

도 4에 도시된 바와 같이, 날 유닛 구문(140)의 1바이트는 각각의 날의 타입(NAL_unit_type)(143)과 해당하는 날의 기준(NAL_ref_idc)(142)으로 사용되는지를 나타낸다. 여기서, 제일 첫 바이트에 해당하는 FZB(Forbidden_Zero_Bit) 정보(141)는 ISO 14496-10에서는 '0(zero)'로 고정되어 사용되고 있지 않다.As shown in FIG. 4, one byte of the day unit syntax 140 indicates whether each day type (NAL_unit_type) 143 and the corresponding day reference (NAL_ref_idc) 142 are used. Here, the FZB (Forbidden_Zero_Bit) information 141 corresponding to the first byte is fixed to '0 (zero)' in ISO 14496-10 and is not used.

그러나, 패킷 망에서는 비트 에러 프리(bit error free)에 해당하는 FZB 정 보(141)는 아무런 의미가 없는 비트이므로, 본 발명은 수신된 RTP 패킷에서의 상기 NAL 유닛의 FZB 정보(141)를 효과적으로 사용하고자 한다. 즉, 상기 날 유닛의 FZB 정보(141)를 이용하여 채널 단에서의 오류(예를 들어서 패킷의 손실 등)를 효과적으로 코덱(123)에 지시할 수 있다. However, in the packet network, since the FZB information 141 corresponding to bit error free is a bit meaningless, the present invention effectively stores the FZB information 141 of the NAL unit in the received RTP packet. I want to use That is, the FZB information 141 of the raw unit can be used to effectively instruct the codec 123 of an error (for example, packet loss, etc.) at the channel end.

상기 코덱(123)은 H.26L로서, 상기 동기 체크 모듈(121)을 통과하는 멀티미디어 데이터를 디코딩하게 되며, 그 디코딩 데이터는 재생부(124)에 의해 재생된다. 여기서, 상기 재생부(124)에 의해 재생되는 오디오 및 비디오 타임 스탬프를 상기의 동기 체크 모듈(121)에 피드백해 주게 된다.The codec 123 is H.26L, which decodes multimedia data passing through the synchronization check module 121, and the decoded data is reproduced by the reproducing unit 124. In this case, the audio and video time stamps reproduced by the playback unit 124 are fed back to the synchronization check module 121.

이때, 상기 코덱(123)은 상기 동기 체크 모듈(121)을 통과하는 멀티미디어 데이터의 날 유닛의 FZB 정보를 체크하게 된다. 만약 날 유닛의 FZB가 세팅("1")되어서 날(NAL) 유닛이 구성되어 있을 경우 상기 코덱(123)은 이를 현재의 NAL 유닛이 도착하기 이전에 최소한 하나 이상의 패킷 손실이 발생되었다고 인지하고, 해당 IDR NAL 유닛 프레임을 디코딩하지 않고 점프하여 다음 IDR NAL 유닛 프레임부터 디코딩하게 된다. 즉, 프레임의 점프 또는 해당 프레임의 통과를 통해서 오디오 및 비디오 동기를 맞추어 줄 수 있다. At this time, the codec 123 checks the FZB information of the day unit of the multimedia data passing through the synchronization check module 121. If the FZB of the raw unit is set ("1") so that the NAL unit is configured, the codec 123 recognizes that at least one packet loss occurred before the current NAL unit arrives. The IDR NAL unit frame is jumped without decoding, and the next IDR NAL unit frame is decoded. In other words, audio and video synchronization can be achieved by jumping the frame or passing the frame.

즉, 신호 처리 칩(120)은 에러 처리 루틴(error Handling routine)을 구비하게 되며, 에러 처리 루틴에 의해 코덱(123)은 상기 날 유닛의 FZB 정보에 미리 약속된 정보가 세팅되어 있을 경우, 디코딩이 가능한 다음 NAL 즉, IDR NAL이 도착할 때까지 프리징(freezing)을 원칙으로 한다. 예를 들면, H.26L에서는, 디코딩이 가능한 다음 프레임 즉, 순간적인 디코더 리프레시(Instantaneous Decoder Refresh: IDR) 화상이 도착할 때 또는 디코딩될 때까지 날 유닛의 FZB가 세팅된 현재의 IDR 화상 프레임을 디코딩하지 않고 점프하게 된다.That is, the signal processing chip 120 includes an error handling routine, and the codec 123 decodes when information previously promised is set in the FZB information of the raw unit by the error handling routine. In principle, freezing is done until the next possible NAL, i.e., the IDR NAL, arrives. For example, in H.26L, the next frame that can be decoded, i.e., the current IDR picture frame in which the raw unit's FZB is set until the instantaneous decoder refresh (IDR) picture arrives or until it is decoded. I jump without doing it.

그리고, 상기 파일 시스템 저장부(122)는 상기 동기 체크 모듈(122)을 통과한 멀티미디어 데이터가 저장되며, 이를 다시 재생하고자 할 경우 코덱(123)에 의해 디코딩되고 재생부(124)를 통해 재생된다.In addition, the file system storage unit 122 stores the multimedia data passing through the synchronization check module 122, and when it is to be reproduced again, the file system storage unit 122 is decoded by the codec 123 and reproduced by the reproduction unit 124. .

도 3은 본 발명 실시 예에 따른 신호 처리 칩의 상세 구성도이다.3 is a detailed block diagram of a signal processing chip according to an exemplary embodiment of the present invention.

도 3을 참조하면, RTP 패킷이 RTP 처리부(117)에 전달되면, RTP 처리부(117)는 RTP 헤더를 분리하고, 패킷 복원 모듈(unpacket module)(118)은 패킷의 페이로드 및 헤더를 복원하게 된다. 동기 체크 모듈(121)은 오디오 및 비디오 타임 스탬프를 받아서 시간 차이를 계산하게 되며, 상기 계산된 시간 차이가 임계치 미만이면 NAL유닛의 FZB정보를 세팅없이 통과시켜 준다. Referring to FIG. 3, when the RTP packet is delivered to the RTP processing unit 117, the RTP processing unit 117 separates the RTP header, and the packet reconstruction module 118 restores the packet's payload and header. do. The synchronization check module 121 receives the audio and video time stamps and calculates a time difference. When the calculated time difference is less than a threshold, the synchronization check module 121 passes the FZB information of the NAL unit without setting.

그러나 오디오 및 비디오 타임 스탬프의 시간 차이가 임계치 이상이면 NAL유닛의 FZB 정보에 강제적으로 세팅해 주게 된다. 여기서, 임계치는 예를 들면, 1000ms로 정의한다. 이는 VOD 컨텐츠 규격에서는 IDR NAL 프레임을 최소한 2초에 한 번씩 삽입을 하도록 하게 되어 있으므로, 강제적으로 삽입된 FZB정보에 의해 점프하게 된다. 이에 따라, 코덱(213)에서는 상기의 IDR NAL 프레임 삽입 주기 보다 작은 값(예: 1000ms) 이상의 디코딩 시간을 벌 수 있으므로, 다음 프레임부터는 원활하게 재생할 수 있게 된다.However, if the time difference between the audio and video time stamp is more than the threshold value, the FZB information of the NAL unit is forcibly set. Here, the threshold value is defined as, for example, 1000 ms. This is because the VOD content standard inserts an IDR NAL frame at least once every 2 seconds, and thus jumps by the forcibly inserted FZB information. Accordingly, the codec 213 can earn a decoding time equal to or smaller than the IDR NAL frame insertion period (eg, 1000 ms), so that the next frame can be smoothly reproduced.

그리고, 프레임 버퍼(121a)는 패킷 복원 모듈(118)에 의해 재 구성된 NAL 프레임이 저장된다. 여기서, 하나의 NAL 프레임은 하나 이상의 RTP 페이로드로 구성 된다. The frame buffer 121a stores the NAL frame reconfigured by the packet recovery module 118. Here, one NAL frame consists of one or more RTP payloads.

그리고, 코덱(123)은 날 프레임을 디코딩하기 위해, 프레임 버퍼(121a)에 다음 날 프레임을 요청하고, 그 요청한 날 프레임을 디코딩하게 된다. 이때, 날 프레임의 디코딩시 날 유닛의 FZB 정보가 세팅되었는지를 확인하여 디코딩할 것인지, 점프할 것인지를 결정하게 된다. 예를 들면 날 유의 FZB정보가 세팅되었다면 코덱(123)에 입력되어진 비트 스트림이 높은 복잡도를 가지고 있다고 판단하고, 이를 계속적으로 디코딩을 수행하면 오디오/비디오 간의 동기를 맞추는 것이 불가능하게 되므로, 다음 IDR NAL 프레임까지 점프하여, 다음 IDR NAL 프레임을 디코딩하게 된다.In order to decode the raw frame, the codec 123 requests the next day frame to the frame buffer 121a and decodes the requested day frame. At this time, when decoding the raw frame, the FZB information of the raw unit is checked to determine whether to decode or jump. For example, if raw FZB information is set, it is determined that the bit stream input to the codec 123 has a high complexity, and continuous decoding thereof makes it impossible to synchronize audio / video. Jumping to the frame will decode the next IDR NAL frame.

이에 따라, 채널의 오류(packet loss)를 알려주기 위한 메모리의 사용이 없으며 기본적으로 사용되는 에러 처리 루틴을 그대로 사용하기 때문에 별도의 모듈이 필요하지 않게 된다.Accordingly, since there is no use of memory for notifying a channel loss (packet loss) and the error handling routine used basically is used as it is, a separate module is not required.

도 5는 본 발명에 따른 오디오 및 비디오 동기화 방법을 나타낸 흐름도이다.5 is a flowchart illustrating an audio and video synchronization method according to the present invention.

도 5를 참조하면, 단말기에 RTP 패킷이 수신되어 그 수신 프레임이 재생되면(S101), 오디오 및 비디오의 타임 스탬프를 체크하게 된다(S103).Referring to FIG. 5, when the RTP packet is received by the terminal and the received frame is reproduced (S101), time stamps of audio and video are checked (S103).

이때, 오디오 및 비디오의 타임 스탬프 차이(=audio time stamp- video time stamp)가 임계치 이상인가를 확인하고(S105), 그 확인결과 임계치 미만이면 계속적으로 디코딩 및 재생 동작을 수행하게 된다.At this time, it is checked whether or not the audio and video time stamp difference (= audio time stamp-video time stamp) is greater than or equal to the threshold value (S105). If the verification result is less than the threshold value, the decoding and playback operations are continuously performed.

만약, 타임 스탬프의 차이가 임계치 이상이면 NAL 유닛의 FZB 정보에 동기화를 위한 정보를 세팅시키게 된다(S107). 여기서, 동기화를 위한 정보는 단순하게 해당 NAL 프레임을 점프하거나 삭제할 수도 있다.If the time stamp difference is greater than or equal to the threshold value, information for synchronization is set in the FZB information of the NAL unit (S107). Here, the information for synchronization may simply jump or delete the corresponding NAL frame.

그러면, 코덱에서 디코딩을 수행하게 된다(S109). 이때 디코딩시 상기 날 유닛의 FZB 정보가 세팅되었는가를 확인하게 되며(S111), 그 확인결과 날 유닛의 FZB 정보가 세팅되었다면 다음 IDR NAL 프레임까지 점프하여, 그 프레임부터 디코딩을 수행하게 된다(S113).Then, the codec performs decoding (S109). At this time, when decoding, it is checked whether the FZB information of the raw unit is set (S111). If the FZB information of the raw unit is set as a result of the check, it jumps to the next IDR NAL frame and decodes from the frame (S113). .

도 6은 본 발명에 따른 오디오 및 비디오 동기화에 대한 전체적인 흐름도이다.6 is a general flow diagram for audio and video synchronization in accordance with the present invention.

도 6을 참조하면, 초기화 상태(S121)에서 프레임 버퍼의 프레임을 패치(fatch)하고(S123), 날 유닛을 분석하게 된다(S131). 상기 S131에서 날 유닛을 분석하여, 날 유닛의 FZB 정보가 세팅되어 있는지를 확인하고(S131), 그 확인결과 FZB 정보가 세팅되어 있다면 다음 IDR NAL 프레임으로 점프하게 된다(S133). 상기 FZB 정보가 세팅되어 있지 않거나 다음 IDR NAL 프레임으로 점프된 경우에는 헤더를 파싱하고(S135), 데이터(Motion 정보, Residual 정보)를 디코딩시켜 재생하게 된다(S137).Referring to FIG. 6, the frame of the frame buffer is patched in the initialization state S121 (S123), and the raw unit is analyzed (S131). In step S131, the blade unit is analyzed to determine whether the FZB information of the blade unit is set (S131). If the FZB information is set as a result of the check, the next IDR NAL frame is jumped to (S133). If the FZB information is not set or jumped to the next IDR NAL frame, the header is parsed (S135), and the data (Motion information, Residual information) is decoded and reproduced (S137).

이때, 동기 체크 모듈에 의해 프레임 버퍼로부터 시간 정보와 디코드된 프레임의 재생에 따른 오디오 및 비디오 시간의 동기를 체크하여, 오디오 및 비디오간의 지연 시간 차이를 체크하게 된다(S125).At this time, the synchronization check module checks the synchronization of the audio and video time according to the playback of the decoded frame and the time information from the frame buffer, thereby checking the difference in delay time between the audio and the video (S125).

상기 S125의 체크 결과, 비디오 시간이 오디오 시간 보다 지연되는 시간이 임계치 이상인지를 판단하고(S127), 그 판단결과 임계치 이상이면 다음 프레임의 날 유닛의 FZB 정보를 세팅하고 S123 단계로 진입하며, 임계치 미만이면 날 유닛의 FZB 정보에 세팅과정 없이 S123 단계를 수행하게 된다(S129).As a result of the check in S125, it is determined whether the time when the video time is delayed than the audio time is greater than or equal to the threshold (S127). If less, the step S123 is performed without setting the FZB information of the raw unit (S129).

이러한 에러 처리 루틴을 통해서 오디오/비디오의 시간 동기가 일치할 수 있도록, 날 유닛의 FZB 정보를 이용하여 날 프레임의 점프(또는 통과) 여부를 지시하고, 이를 코덱에서 인지하여 해당 프레임을 점프(또는 통과)함으로써, 재생시 오디오 및 비디오 신호가 동기가 맞게 된다. Through this error handling routine, it is indicated whether or not a raw frame is jumped (or passed) using FZB information of the raw unit so that time / synchronization of audio / video can be matched. Pass), the audio and video signals are synchronized during reproduction.

즉, 임의의 데이터 프레임에 동기용 비트 정보를 강제적으로 세팅하고 이를 코덱에서 처리함으로써, 비디오가 오디오를 추종할 수 있도록 할 수 있다. In other words, by forcibly setting sync bit information in an arbitrary data frame and processing the same in a codec, the video can follow the audio.

이제까지 본 발명에 대하여 그 바람직한 실시 예를 중심으로 살펴보았으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 기술 범위 내에서 상기 본 발명의 상세한 설명과 다른 형태의 실시 예들을 구현할 수 있을 것이다. 여기서 본 발명의 본질적 기술범위는 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the preferred embodiments, and those skilled in the art to which the present invention pertains to the detailed description of the present invention and other forms of embodiments within the essential technical scope of the present invention. Could be implemented. Here, the essential technical scope of the present invention is shown in the claims, and all differences within the equivalent range will be construed as being included in the present invention.

상술한 바와 같이 본 발명에 따른 휴대 단말기의 오디오 및 비디오 동기화 장치 및 방법에 의하면, 오디오와 비디오의 시간 차이가 미리 설정된 시간 이상 차이가 나면 날 유닛의 특정 정보 비트에 미리 정해진 명령을 세팅함으로써, 코덱이 상기 정보를 디코딩할 때 해당 명령을 따라 현재 프레임을 점프하여 다음 프레임부터 디코딩할 수 있도록 하여, 오디오 및 비디오 동기를 맞출 수 있도록 하는 효과 가 있다.As described above, according to the audio and video synchronization device and method of the mobile terminal according to the present invention, if the time difference between the audio and video is more than a predetermined time difference, by setting a predetermined command to a specific information bit of the raw unit, the codec When decoding the above information, it is possible to jump from the current frame and decode the next frame according to the corresponding command, so that audio and video synchronization can be achieved.

또한, 오디오 및 비디오의 동기화에 따른 별도의 메모리나 프로세스의 추가 없이, 코덱을 통해 오디오 및 비디오의 원활한 재생이 가능토록 한 효과가 있다.

In addition, there is an effect that enables smooth playback of audio and video through the codec without adding a separate memory or process according to the synchronization of audio and video.

Claims (7)

멀티미디어 패킷 데이터를 수신하는 수신부와;A receiving unit for receiving multimedia packet data; 상기 수신된 패킷 데이터의 재생에 따라 오디오 및 비디오 타임 스탬프에 의한 시간차를 이용하여 동기를 체크하고, 상기 시간차가 임계치 이상일 경우 상기 데이터 프레임에 소정의 정보를 세팅하는 동기 체크 모듈과;A synchronization check module for checking synchronization using a time difference based on an audio and video time stamp according to reproduction of the received packet data, and setting predetermined information in the data frame when the time difference is greater than or equal to a threshold; 상기 데이터 프레임의 재생을 위해 디코딩하며, 디코딩시 상기 데이터 프레임에 세팅된 정보에 따라 현재의 프레임을 점프하여 다음 프레임부터 디코딩을 수행하는 코덱과;A codec for decoding for reproduction of the data frame, and performing decoding from a next frame by jumping a current frame according to information set in the data frame during decoding; 상기 코덱에 의해 디코딩된 데이터를 재생시키는 재생부를 포함하는 것을 특징으로 하는 휴대 단말기의 오디오 및 비디오 동기화 장치.And a reproducing unit for reproducing the data decoded by the codec. 제 1항에 있어서,The method of claim 1, 상기 동기 체크 모듈은 상기 재생부로부터 전달되는 현재의 오디오 및 비디오 타임 스탬프를 이용하는 특징으로 하는 휴대 단말기의 오디오 및 비디오 동기화 장치.And the synchronization check module uses a current audio and video time stamp transmitted from the playback unit. 제 1항에 있어서,The method of claim 1, 상기 동기 체크 모듈은 오디오 및 비디오의 시간차가 임계치 이상일 경우 NAL(Network Abstraction Layer)의 FZB(Forbidden Zero Bit) 정보에 소정의 비트 정보를 세팅하는 것을 특징으로 하는 휴대 단말기의 오디오 및 비디오 동기화 장치.And the synchronization check module sets predetermined bit information to FZB (Forbidden Zero Bit) information of a network abstraction layer (NAL) when a time difference between audio and video is greater than or equal to a threshold. 제 1항에 있어서, The method of claim 1, 상기 동기 체크 모듈은 오디오 및 비디오의 시간차가 NAL 프레임 삽입 주기 보다 적은 특정 임계치 이상일 때, 그 다음 데이터 프레임에 소정의 정보를 세팅하는 것을 특징으로 하는 휴대 단말기의 오디오 및 비디오 동기화 장치.And the synchronization check module sets predetermined information in the next data frame when the time difference between the audio and the video is greater than or equal to a certain threshold less than the NAL frame insertion period. 제 1항에 있어서,The method of claim 1, 상기 코덱은 H.264인 것을 특징으로 하는 휴대 단말기의 오디오 및 비디오 동기화 장치.And the codec is H.264. 멀티미디어 패킷 데이터를 수신하는 모뎀 칩과;A modem chip for receiving multimedia packet data; 상기 수신된 패킷 데이터의 재생에 따른 오디오 및 비디오 데이터의 동기를 맞추기 위해 임의의 데이터 프레임에 동기용 비트 정보를 세팅하는 수단 및, 상기 데이터 프레임의 디코딩시 상기 동기용 비트 정보를 체크한 후 동기용 비트정보가 세팅된 데이터 프레임을 점프하여 다음 프레임부터 디코딩을 수행하는 수단을 포함하는 신호 처리 칩을 포함하는 것을 특징으로 하는 휴대 단말기의 오디오 및 비디오 동기화 장치.Means for setting synchronization bit information in an arbitrary data frame to synchronize audio and video data according to reproduction of the received packet data, and for synchronization after checking the synchronization bit information when decoding the data frame. And a signal processing chip including a means for jumping from a data frame set with bit information to perform decoding from the next frame. 멀티미디어 패킷 데이터를 수신하는 단계;Receiving multimedia packet data; 상기 수신된 패킷 데이터의 재생에 따른 오디오 및 비디오 타임 스탬프를 검출하는 단계;Detecting an audio and video time stamp according to reproduction of the received packet data; 상기 오디오 및 비디오의 타임 스탬프의 차이가 임계치 이상인가를 확인한 후, 그 확인결과 임계치 이상이면 NAL 프레임의 FZB 정보에 정보를 세팅하는 단계;Confirming whether a difference between the time stamps of the audio and video is greater than or equal to a threshold, and if the verification result is greater than or equal to a threshold, setting information in the FZB information of the NAL frame; 상기 패킷 데이터의 디코딩시 NAL 프레임의 FZB 정보를 체크하며, 상기 NAL 프레임의 FZB 정보에 세팅된 정보에 따라 해당 데이터 프레임을 점프하고 다음 데이터 프레임부터 디코딩을 수행하는 단계를 포함하는 것을 특징으로 하는 휴대 단말기의 오디오 및 비디오 동기화 방법.And checking the FZB information of the NAL frame when decoding the packet data, jumping the corresponding data frame according to the information set in the FZB information of the NAL frame, and performing decoding from the next data frame. How to synchronize audio and video on your device.
KR1020040098989A 2004-11-30 2004-11-30 Synchronization apparatus and method for audio and video of portable terminal KR100657096B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040098989A KR100657096B1 (en) 2004-11-30 2004-11-30 Synchronization apparatus and method for audio and video of portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040098989A KR100657096B1 (en) 2004-11-30 2004-11-30 Synchronization apparatus and method for audio and video of portable terminal

Publications (2)

Publication Number Publication Date
KR20060060109A true KR20060060109A (en) 2006-06-05
KR100657096B1 KR100657096B1 (en) 2006-12-12

Family

ID=37157010

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040098989A KR100657096B1 (en) 2004-11-30 2004-11-30 Synchronization apparatus and method for audio and video of portable terminal

Country Status (1)

Country Link
KR (1) KR100657096B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012081888A1 (en) * 2010-12-14 2012-06-21 Samsung Electronics Co., Ltd. Apparatus and method for providing a streaming service in a portable terminal
KR101386465B1 (en) * 2007-01-30 2014-04-29 엘지전자 주식회사 Mobile terminal moving picture synchronous apparatus and method with bluetooth headset
CN105262950A (en) * 2015-10-15 2016-01-20 广州市百果园网络科技有限公司 Method and device for generating video information

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7382796B2 (en) 2000-12-13 2008-06-03 Visible World, Inc. System and method for seamless switching through buffering
JP3921986B2 (en) * 2000-10-30 2007-05-30 ソニー株式会社 Synchronizing apparatus and method, digital broadcast receiving apparatus
KR20050058924A (en) * 2003-12-13 2005-06-17 엘지전자 주식회사 Method of detecting a/v synchronous error in mpeg-2 system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101386465B1 (en) * 2007-01-30 2014-04-29 엘지전자 주식회사 Mobile terminal moving picture synchronous apparatus and method with bluetooth headset
WO2012081888A1 (en) * 2010-12-14 2012-06-21 Samsung Electronics Co., Ltd. Apparatus and method for providing a streaming service in a portable terminal
KR20120066258A (en) * 2010-12-14 2012-06-22 삼성전자주식회사 Apparatus and method for providing streaming service in portable terminal
CN105262950A (en) * 2015-10-15 2016-01-20 广州市百果园网络科技有限公司 Method and device for generating video information
CN105262950B (en) * 2015-10-15 2018-08-17 广州市百果园网络科技有限公司 A kind of method and apparatus generating video information

Also Published As

Publication number Publication date
KR100657096B1 (en) 2006-12-12

Similar Documents

Publication Publication Date Title
JP3931595B2 (en) Data correction apparatus and data correction method
EP2880836B1 (en) Replacing lost media data for network streaming
EP2547062B1 (en) Media streaming with adaptation
US9258333B2 (en) Method for recovering content streamed into chunk
KR101010258B1 (en) Time-shifted presentation of media streams
KR100960282B1 (en) Video coding
KR101691050B1 (en) Method for delivery of digital linear tv programming using scalable video coding
US20110029606A1 (en) Server apparatus, content distribution method, and program
RU2547624C2 (en) Signalling method for broadcasting video content, recording method and device using signalling
US20090177952A1 (en) Transcoder and receiver
US9369508B2 (en) Method for transmitting a scalable HTTP stream for natural reproduction upon the occurrence of expression-switching during HTTP streaming
TWI364988B (en) Error filter to differentiate between reverse link and forward link video data errors
KR101421390B1 (en) Signaling video samples for trick mode video representations
US20120163476A1 (en) Fast Channel Change Companion Stream Solution with Bandwidth Optimization
CN1781295A (en) Redundant transmission of programmes
CN108494792A (en) A kind of flash player plays the converting system and its working method of hls video flowings
US7839925B2 (en) Apparatus for receiving packet stream
US9854019B2 (en) Method and apparatus for modifying a stream of digital content
EP1566966A1 (en) Data transmission device
WO2012077855A1 (en) Method and device for packetizing a video stream
KR100657096B1 (en) Synchronization apparatus and method for audio and video of portable terminal
CN101102485A (en) Audio and video synchronization device and method of mobile terminal
JP4192766B2 (en) Receiving apparatus and method, recording medium, and program
JP2004320394A (en) Transmitting system, receiving apparatus, and regeneration method for digital broadcasting
JP2006238003A (en) Demultiplexing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100929

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee