WO2013162335A1 - Image playback apparatus for 3dtv and method performed by the apparatus - Google Patents

Image playback apparatus for 3dtv and method performed by the apparatus Download PDF

Info

Publication number
WO2013162335A1
WO2013162335A1 PCT/KR2013/003653 KR2013003653W WO2013162335A1 WO 2013162335 A1 WO2013162335 A1 WO 2013162335A1 KR 2013003653 W KR2013003653 W KR 2013003653W WO 2013162335 A1 WO2013162335 A1 WO 2013162335A1
Authority
WO
WIPO (PCT)
Prior art keywords
video stream
buffer
timestamp
stream
image
Prior art date
Application number
PCT/KR2013/003653
Other languages
French (fr)
Korean (ko)
Inventor
이주영
김성훈
추현곤
최진수
김진웅
홍석진
오정근
곽진석
이민석
강동욱
정경훈
Original Assignee
한국전자통신연구원
국민대학교 산학협력단
(주)디티브이인터랙티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 국민대학교 산학협력단, (주)디티브이인터랙티브 filed Critical 한국전자통신연구원
Priority to US14/397,125 priority Critical patent/US20150109411A1/en
Priority claimed from KR1020130046782A external-priority patent/KR20130121058A/en
Publication of WO2013162335A1 publication Critical patent/WO2013162335A1/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel

Abstract

Disclosed are an image playback apparatus for 3DTV and a method performed by the apparatus. The image playback apparatus can determine the output timing of a buffer for storing a left image stream and a right image stream for a 3D image. Furthermore, the image playback apparatus can determine a buffer size or a buffer delay time by a receipt time difference between the left image stream and the right image stream. Furthermore, the image playback apparatus can correct a reference clock or a time stamp by a receipt time difference between the left image stream and the right image stream.

Description

3DTV를 위한 영상 재생 장치 및 상기 장치가 수행하는 방법Image playback device for 3DTV and method performed by the device
본 발명은 3DTV를 위한 영상 재생 장치 및 영상 재생 장치가 수행하는 방법에 관한 것으로, 보다 구체적으로는 서로 다른 전송 경로를 통해 전달되는 기준 영상의 스트림과 부가 영상의 스트림의 동기화를 위해 버퍼를 효율적으로 처리하는 것에 관한 것이다.The present invention relates to an image reproducing apparatus for a 3DTV and a method performed by the image reproducing apparatus, and more particularly, to efficiently buffer a buffer for synchronizing a stream of a reference video and an additional video transmitted through different transmission paths. It's about processing.
종래의 융합형 3DTV에서의 3D 영상을 표현하기 위해서는 기준영상과 부가 영상이 필요하다. 이 때, 일반적으로 기준 영상은 고화질의 2D HD 고정방송을 위한 것으로 MPEG-2 방식으로 부호화되어 고정방송망을 통해 전송되었다. 그리고, 부가영상은 2D 모바일 방송을 위한 것으로 AVC(Advanced Video Coding) 방식으로 부호화되어 IP망을 통해 전송되었다. 즉, 기준 영상과 부가 영상은 서로 다른 종류의 전송 프로토콜을 기반으로 전송되었다. 그러면, 3DTV는 수신된 기준 영상과 부가 영상을 이용하여 3D 영상을 생성한 후 이를 재생하였다. 여기서, 기준 영상은 3D 영상을 생성하기 위한 좌영상으로 설정되고, 부가 영상은 3D 영상을 생성하기 위한 우영상으로 설정되었다.In order to represent a 3D image in a conventional converged 3DTV, a reference image and an additional image are required. In this case, in general, the reference video is for high definition 2D HD fixed broadcasting, and is encoded by MPEG-2 and transmitted through a fixed broadcasting network. The additional video is for 2D mobile broadcasting and is encoded by AVC (Advanced Video Coding) and transmitted through an IP network. That is, the base view video and the additional view video are transmitted based on different types of transmission protocols. Then, the 3DTV generates and reproduces the 3D image by using the received reference image and the additional image. Here, the reference image is set as the left image for generating the 3D image, and the additional image is set as the right image for generating the 3D image.
3D 영상을 위한 기준 영상과 부가 영상은 서로 다른 전송 프로토콜을 통해 전송되기 때문에 서로 다른 타이밍 모델을 가진다. 구체적으로, 좌영상에 대응하는 기준 영상은 MPEG-2 시스템에 기초한 PTS(Presentation) 기반의 타이밍 모델이 사용되었고, 우영상에 대응하는 RTP(Realtime Transport Protocol) 기반의 타이밍 모델이 사용되었다. 즉, 기준 영상과 부가 영상의 타이밍 모델이 서로 다르기 때문에, 3DTV를 표현하기 위한 영상 재생 장치는 임의의 특정 시점에 동시에 출력되어야 하는 기준 영상의 타임스탬프(PTS)와 부가 영상의 타임스탬프(RTP) 간의 오프셋을 동기정보로 설정하고, 동기 정보를 활용하여 기준 영상과 부가 영상의 출력 시점을 결정하였다.Since the base view video and the additional view video for 3D video are transmitted through different transport protocols, they have different timing models. In detail, the PTS (Presentation) based timing model based on the MPEG-2 system is used as the reference image corresponding to the left image, and the RTP (Realtime Transport Protocol) based timing model corresponding to the right image is used. That is, since the timing models of the reference video and the additional video are different from each other, a video reproducing apparatus for expressing 3DTV may require a time stamp (PTS) of the reference video and a time stamp (RTP) of the additional video to be simultaneously output at any particular point in time. The offset between the two is set as the synchronization information, and the output time of the reference video and the additional video is determined by using the synchronization information.
이 때, 영상 재생 장치는 별도의 버퍼 관리 및 버퍼 제어 모델을 제공하지 않았기 때문에 버퍼 사용의 효율성 및 동기지연 시간의 최소화하는데 문제가 있었다. 한편, 영상 재생 장치에 포함된 렌더러 버퍼는 미리 설정된 시간동안 스트림을 저장하기 위해 ES(Elementary Stream)버퍼에 비해 압도적으로 큰 버퍼 용량이 필요한 문제가 있었다.In this case, since the image reproducing apparatus does not provide a separate buffer management and buffer control model, there is a problem in minimizing the efficiency of buffer use and the synchronization delay time. Meanwhile, the renderer buffer included in the image reproducing apparatus has a problem that an overwhelmingly large buffer capacity is required to store the stream for a predetermined time period compared to the ES (Elementary Stream) buffer.
따라서, 좌영상과 우영상이 동시에 수신되지 못하고 서로 간에 수신 지연이 존재하는 경우 영상 재생 장치에 포함된 버퍼를 효율적으로 운용하기 위한 방안이 요구되었다.Accordingly, a method for efficiently operating a buffer included in an image reproducing apparatus when a left image and a right image are not simultaneously received and there is a reception delay between each other is required.
본 발명은 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림을 저장하기 위한 버퍼 사이즈를 결정하는 장치 및 방법을 제공한다.The present invention provides an apparatus and method for determining a buffer size for storing a left video stream and a right video stream by using a reception time difference between a left video stream and a right video stream.
본 발명은 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림을 출력 시간을 위한 버퍼 지연 시간을 결정하는 장치 및 방법을 제공한다.The present invention provides an apparatus and method for determining a buffer delay time for outputting a left video stream and a right video stream by using a difference in reception time between a left video stream and a right video stream.
본 발명은 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 기준 클럭을 보정하거나 또는 타임스탬프를 보정하는 장치 및 방법을 제공한다.The present invention provides an apparatus and method for correcting a reference clock or correcting a time stamp using a difference in reception time between a left video stream and a right video stream.
본 발명은 타임스탬프를 기준 클럭에 따라 변환함으로써 좌영상 스트림과 우영상 스트림을 동기화하는 장치 및 방법을 제공한다.The present invention provides an apparatus and method for synchronizing a left video stream and a right video stream by converting a timestamp according to a reference clock.
본 발명의 일실시예에 따른 영상 재생 장치의 버퍼 제어 방법은 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득하는 단계; 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계; 상기 제1 타임스탬프, 제2 타임스탬프 및 동기 정보를 이용하여 상기 좌영상 스트림과 우영상 스트림 간 수신 시간 차이를 계산하는 단계; 및 상기 수신 시간 차이를 이용하여 버퍼 사이즈를 결정하는 단계를 포함할 수 있다.A buffer control method of an image reproducing apparatus according to an embodiment of the present invention includes: obtaining synchronization information between a left image stream and a right image stream; Extracting a first timestamp of the left video stream and a second timestamp of the right video stream; Calculating a reception time difference between the left video stream and the right video stream using the first timestamp, the second timestamp, and the synchronization information; And determining a buffer size by using the reception time difference.
상기 동기 정보를 획득하는 단계는, 임의의 특정 시점에서 동시에 출력되어야 하는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 포함하는 타임스탬프 페어 정보를 포함하는 동기 정보를 획득할 수 있다.The acquiring of the synchronization information may include obtaining synchronization information including timestamp pair information including a first timestamp of a left video stream and a second timestamp of a right video stream, which should be simultaneously output at any particular time. Can be.
상기 동기 정보를 획득하는 단계는, 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프 간의 오프셋 정보를 포함하는 동기 정보를 획득할 수 있다.The acquiring of the synchronization information may include synchronization information including offset information between a first timestamp of the left video stream and a second timestamp of the right video stream.
상기 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계는, 동일 시점에 수신한 좌영상 스트림의 액세스 유닛 및 우영상 스트림의 액세스 유닛 중 가장 최근에 저장된 액세스 유닛에 기초하여 제1 타임 스탬프 및 제2 타임스탬프를 추출할 수 있다.The extracting of the first timestamp of the left video stream and the second timestamp of the right video stream may include extracting the first timestamp of the left video stream and the access unit of the left video stream and the access unit of the right video stream received at the same time. The first time stamp and the second time stamp may be extracted based on the result.
상기 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계는, 역다중화를 통해 근접한 시점에 추출한 좌영상 스트림의 제1 타임스탬프와 우영상 스트림의 제2 타임스탬프를 추출할 수 있다.The extracting of the first timestamp of the left video stream and the second timestamp of the right video stream may include: extracting a first timestamp of the left video stream and a second timestamp of the right video stream extracted at a close time point through demultiplexing; Can be extracted.
상기 수신 시간 차이를 계산하는 단계는, 만약 좌영상 스트림과 우영상 스트림이 동일한 기준 클럭을 사용하는 경우, 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산하고, 만약, 좌영상 스트림과 우영상 스트림이 다른 기준 클럭을 사용하거나 또는 랜덤 오프셋이 적용되는 경우, 동기 정보를 이용하여 제1 타임스탬프 또는 제2 타임스탬프 중 어느 하나를 변환하고 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산할 수 있다.The calculating of the reception time difference may include calculating a reception time difference by using a timestamp difference between a first timestamp and a second timestamp when the left video stream and the right video stream use the same reference clock. If the left video stream and the right video stream use different reference clocks or random offsets are applied, one of the first time stamp and the second time stamp is converted by using the synchronization information, and the first time stamp and the first time stamp are used. The difference in the reception time may be calculated using the time stamp difference between the two timestamps.
상기 버퍼 사이즈를 결정하는 단계는, 버퍼에 저장된 액세스 유닛의 개수, 수신 시간 차이 및 영상 스트림의 프레임 레이트를 이용하여 좌영상 스트림과 우영상 스트림 간의 지연되는 프레임 개수를 계산하고, 계산된 프레임 개수에 따라 동적으로 설정되는 버퍼 사이즈를 결정할 수 있다.The determining of the buffer size may include calculating the number of delayed frames between the left video stream and the right video stream by using the number of access units stored in the buffer, the difference in reception time, and the frame rate of the video stream. As a result, the buffer size that is dynamically set can be determined.
상기 버퍼 사이즈를 결정하는 단계는, 상기 좌영상 스트림 또는 우영상 스트림의 고정 비트레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다.In the determining of the buffer size, the buffer size may be determined by using a fixed bit rate and a reception time difference of the left video stream or the right video stream.
상기 버퍼 사이즈를 결정하는 단계는, 상기 좌영상 스트림 또는 우영상 스트림의 데이터 레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다.In the determining of the buffer size, the buffer size may be determined by using a data rate and a reception time difference of the left video stream or the right video stream.
본 발명의 다른 실시예에 따른 영상 재생 장치의 버퍼 제어 방법은 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득하는 단계; 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계; 상기 제1 타임스탬프, 제2 타임스탬프 및 동기 정보를 이용하여 상기 좌영상 스트림과 우영상 스트림 간 수신 시간 차이를 계산하는 단계; 및 상기 수신 시간 차이를 이용하여 버퍼 지연 시간을 결정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of controlling a buffer of an image reproducing apparatus, the method including: obtaining synchronization information between a left image stream and a right image stream; Extracting a first timestamp of the left video stream and a second timestamp of the right video stream; Calculating a reception time difference between the left video stream and the right video stream using the first timestamp, the second timestamp, and the synchronization information; And determining a buffer delay time by using the reception time difference.
상기 버퍼 지연 시간을 결정하는 단계는, 우영상 스트림이 좌영상 스트림보다 먼저 수신된 경우, 수신 시간 차이만큼 우영상 스트림의 버퍼 지연 시간을 증가시키고, 좌영상 스트림이 우영상 스트림보다 먼저 수신된 경우, 수신 시간 차이만큼 좌영상 스트림의 버퍼 지연 시간을 증가시킬 수 있다.The determining of the buffer delay time may include: when the right video stream is received before the left video stream, increasing the buffer delay time of the right video stream by a difference in reception time, and when the left video stream is received before the right video stream. In addition, the buffer delay time of the left video stream may be increased by the difference of the reception time.
본 발명의 일실시예에 따른 영상 재생 장치의 클럭 보정 방법은 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산하는 단계; 및 상기 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림 중 먼저 수신된 영상 스트림에 시그널링된 기준 클럭을 보정할 수 있다.A clock correction method of an image reproducing apparatus according to an embodiment of the present invention includes the steps of: calculating a difference in reception time between an access unit of a left image stream and an access unit of a right image stream; And a reference clock signaled to the first received video stream among the left video stream and the right video stream by using the reception time difference.
상기 기준 클럭을 보정하는 단계는, 상기 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 기준 클럭을 보정할 수 있다.In the correcting of the reference clock, the reference clock may be corrected by using a result of applying a reception time difference to the clock rate of the reference clock.
본 발명의 일실시예에 따른 영상 재생 장치의 타임스탬프 보정 방법은 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산하는 단계; 및 상기 수신 시간 차이를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정하는 단계를 포함할 수 있다.According to an aspect of the present invention, there is provided a method of correcting a time stamp of a video reproducing apparatus, the method comprising: calculating a difference in reception time between an access unit of a left video stream and an access unit of a right video stream; And correcting the first timestamp of the left video stream and the second timestamp of the right video stream by using the reception time difference.
상기 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정하는 단계는, 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정할 수 있다.The correcting of the first timestamp of the left video stream and the second timestamp of the right video stream may include performing a first timestamp and a right video of the left video stream by using a result of applying a reception time difference to a clock rate of a reference clock. The second timestamp of the stream may be corrected.
본 발명의 일실시예에 따른 영상 재생 장치의 동기화 방법은 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득하는 단계; 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계; 동기 정보를 이용하여 상기 제1 타임스탬프 및 제2 타임스탬프 중 적어도 하나를 기준 클럭에 대응되도록 변환하는 단계; 및 상기 기준 클럭에 따라 좌영상 스트림과 우영상 스트림을 매칭시켜 동기화하는 단계를 포함할 수 있다.A synchronization method of an image reproducing apparatus according to an embodiment of the present invention includes the steps of obtaining synchronization information between a left image stream and a right image stream; Extracting a first timestamp of the left video stream and a second timestamp of the right video stream; Converting at least one of the first timestamp and the second timestamp to correspond to a reference clock using synchronization information; And matching and synchronizing a left video stream and a right video stream according to the reference clock.
본 발명의 일실시예에 따른 영상 재생 장치는 좌영상 스트림을 수신하여 저장하는 제1 버퍼부; 우영상 스트림을 수신하여 저장하는 제2 버퍼부; 및 상기 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 상기 제1 버퍼부와 제2 버퍼부의 버퍼 사이즈를 결정하는 버퍼 제어부를 포함하고, 상기 수신 시간 차이는, 상기 좌영상 스트림의 제1 타임스탬프, 우영상 스트림의 제2 타임 스탬프 및 좌영상 스트림과 우영상 스트림 간의 동기 정보에 따라 결정될 수 있다.An image reproducing apparatus according to an embodiment of the present invention includes a first buffer unit for receiving and storing a left image stream; A second buffer unit for receiving and storing a right image stream; And a buffer controller configured to determine a buffer size of the first buffer unit and the second buffer unit based on a difference in reception time between the left video stream and the right video stream, wherein the difference in the reception time is determined by the first of the left video stream. The time stamp, the second time stamp of the right video stream, and the synchronization information between the left video stream and the right video stream may be determined.
본 발명의 다른 실시예에 따른 영상 재생 장치는 좌영상 스트림을 수신하여 저장하는 제1 버퍼부; 우영상 스트림을 수신하여 저장하는 제2 버퍼부; 및 상기 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 제1 버퍼부 또는 제2 버퍼부의 버퍼 지연 시간을 결정하는 버퍼 제어부를 포함하고, 상기 수신 시간 차이는, 상기 좌영상 스트림의 제1 타임스탬프, 우영상 스트림의 제2 타임 스탬프 및 좌영상 스트림과 우영상 스트림 간의 동기 정보에 따라 결정될 수 있다.According to another embodiment of the present invention, an image reproducing apparatus includes: a first buffer unit configured to receive and store a left image stream; A second buffer unit for receiving and storing a right image stream; And a buffer controller configured to determine a buffer delay time of a first buffer unit or a second buffer unit by using a difference in reception time between the left video stream and the right video stream, wherein the difference in the reception time is determined by the first of the left video stream. The time stamp, the second time stamp of the right video stream, and the synchronization information between the left video stream and the right video stream may be determined.
본 발명의 또 다른 실시예에 따른 영상 재생 장치는 좌영상 스트림을 수신하여 저장하는 제1 버퍼부; 우영상 스트림을 수신하여 저장하는 제2 버퍼부; 및 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 이용하여 (i) 좌영상 스트림과 우영상 스트림 중 먼저 수신된 영상 스트림에 시그널링된 기준 클럭을 보정하거나 또는 (ii) 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정하는 버퍼 제어부를 포함할 수 있다.According to another embodiment of the present invention, an image reproducing apparatus includes: a first buffer unit configured to receive and store a left image stream; A second buffer unit for receiving and storing a right image stream; And (i) correcting the reference clock signaled to the first received video stream of the left video stream and the right video stream by using the difference in the reception time between the access unit of the left video stream and the access unit of the right video stream, or (ii) And a buffer controller configured to correct the first timestamp of the video stream and the second timestamp of the right video stream.
본 발명의 또 다른 실시예에 따른 영상 재생 장치는 좌영상 스트림을 수신하여 저장하는 제1 버퍼부; 및 우영상 스트림을 수신하여 저장하는 제2 버퍼부; 좌영상 스트림과 우영상 스트림 간의 동기 정보를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프 중 적어도 하나를 기준 클럭에 따라 변환하고, 기준 클럭에 따라 좌영상 스트림과 우영상 스트림을 매칭시켜 동기화하는 영상 동기화부를 포함할 수 있다.According to another embodiment of the present invention, an image reproducing apparatus includes: a first buffer unit configured to receive and store a left image stream; And a second buffer unit for receiving and storing the right image stream. At least one of a first timestamp of the left video stream and a second timestamp of the right video stream is converted according to a reference clock using the synchronization information between the left video stream and the right video stream, and the left video stream and the right video stream are converted according to the reference clock. It may include a video synchronization unit for matching and synchronizing the video stream.
본 발명의 일실시예에 따르면, 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림을 저장하기 위한 버퍼 사이즈를 결정함으로써 버퍼를 효율적으로 관리할 수 있다.According to an embodiment of the present invention, the buffer may be efficiently managed by determining a buffer size for storing the left video stream and the right video stream by using a difference in reception time between the left video stream and the right video stream.
본 발명의 일실시예에 따르면, 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림을 출력 시간을 위한 버퍼 지연 시간을 결정함으로써 동기 지연 시간을 최소화할 수 있다.According to an embodiment of the present invention, the synchronization delay time may be minimized by determining a buffer delay time for outputting the left video stream and the right video stream using the difference in the reception time between the left video stream and the right video stream.
본 발명의 일실시예에 따르면, 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 기준 클럭을 보정하거나 또는 타임스탬프를 보정함으로써 수신 시간 차이가 발생하더라도 영상 스트림의 복호화가 정상적으로 동작할 수 있다.According to an embodiment of the present invention, even if a reception time difference occurs by correcting a reference clock or a timestamp by using a reception time difference between a left video stream and a right video stream, decoding of the video stream may operate normally. .
본 발명의 일실시예에 따르면, 타임스탬프를 기준 클럭에 따라 변환함으로써 좌영상 스트림과 우영상 스트림을 동기화함으로써, 높은 품질의 3D 영상을 제공화할 수 있다.According to an embodiment of the present invention, by converting the time stamp according to the reference clock to synchronize the left video stream and the right video stream, it is possible to provide a high quality 3D video.
도 1은 본 발명의 일실시예에 따른 영상 전송 장치와 영상 재생 장치를 도시한 도면이다.1 is a diagram illustrating an image transmission device and an image reproduction device according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 영상 재생 장치의 구성 요소를 도시한 도면이다.2 is a diagram illustrating components of an image reproducing apparatus according to an embodiment of the present invention.
도 3은 본 발명의 일실시예에 따른 영상 재생 장치의 일례를 도시한 도면이다.3 is a diagram illustrating an example of an image reproducing apparatus according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 따라 동기 정보, 제1 타임스탬프 및 제2 타임스탬프를 추출하는 과정을 설명하는 도면이다.4 is a diagram illustrating a process of extracting synchronization information, a first time stamp, and a second time stamp according to an embodiment of the present invention.
도 5는 본 발명의 일실시예에 따라 버퍼 사이즈를 제어하는 과정을 설명하는 도면이다.5 is a diagram illustrating a process of controlling a buffer size according to an embodiment of the present invention.
도 6은 본 발명의 일실시예에 따라 기준 클럭을 보정하거나 또는 타임스탬프를 보정하는 과정을 설명하는 도면이다.6 is a diagram illustrating a process of correcting a reference clock or correcting a time stamp according to one embodiment of the present invention.
도 7은 본 발명의 일실시예에 따라 버퍼 사이즈를 제어하는 과정을 도시한 플로우차트이다.7 is a flowchart illustrating a process of controlling a buffer size according to an embodiment of the present invention.
도 8은 본 발명의 일실시예에 따라 버퍼 지연 시간을 결정하는 과정을 도시한 플로우차트이다.8 is a flowchart illustrating a process of determining a buffer delay time according to an embodiment of the present invention.
도 9는 본 발명의 일실시예에 따라 기준 클럭을 보정하는 과정을 도시한 플로우차트이다.9 is a flowchart illustrating a process of calibrating a reference clock according to an embodiment of the present invention.
도 10은 본 발명의 일실시예에 따라 타임스탬프를 보정하는 과정을 도시한 도면이다.10 is a diagram illustrating a process of correcting a time stamp according to one embodiment of the present invention.
도 11은 본 발명의 일실시예에 따라 좌영상 스트림과 우영상 스트림을 동기화하는 과정을 도시한 도면이다.11 is a diagram illustrating a process of synchronizing a left video stream and a right video stream according to an embodiment of the present invention.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 영상 전송 장치와 영상 재생 장치를 도시한 도면이다.1 is a diagram illustrating an image transmission device and an image reproduction device according to an embodiment of the present invention.
도 1을 참고하면, 영상 전송 장치(101)는 3D 영상을 위한 기준 영상(main image)과 부가 영상(additional image)를 영상 재생 장치(102)에 전송할 수 있다. 일례로, 기준 영상은 고화질 2D HD(High Definition)을 위한 고정 방송(stationary broadcast)을 위한 것으로, MPEG-2 방식에 따라 영상 재생 장치(102)에 전송될 수 있다. 그리고, 부가 영상은 2D 모바일 방송(mobile broadcast)을 위한 것으로, AVC 방식에 따라 영상 재생 장치(102)에 전송될 수 있다. 영상 재생 장치(102)는 기준 영상과 부가 영상을 스트림 형태로 수신하고, 3D 렌더링을 통해 시청자에게 3D 영상을 제공할 수 있다.Referring to FIG. 1, the image transmitting apparatus 101 may transmit a main image and an additional image for the 3D image to the image reproducing apparatus 102. For example, the reference video is for stationary broadcast for high definition 2D High Definition (HD) and may be transmitted to the image reproducing apparatus 102 according to the MPEG-2 scheme. The additional video is for 2D mobile broadcast, and may be transmitted to the video reproducing apparatus 102 according to the AVC scheme. The image reproducing apparatus 102 may receive the reference image and the additional image in the form of a stream, and provide a 3D image to the viewer through 3D rendering.
이러한 기준 영상과 부가 영상은 6MHz의 1채널을 통해 전송되어 3DTV가 고화질 2DTV, 모바일 2DTV 및 고화질 3DTV를 모두 방송할 수 있으므로, 주파수 효율이 극대화될 수 있다. 여기서, 기준 영상은 3D 영상을 위한 좌영상에 대응하고, 부가 영상은 3D 영상을 위한 좌영상에 대응할 수 있다. 또는, 기준 영상은 우영상에 대응하고, 부가 영상은 좌영상에 대응할 수 있다. 이하에서, 기준 영상은 좌영상 스트림으로 전송되고, 부가 영상은 우영상 스트림으로 전송되는 것을 전제로 설명하기로 한다.Since the reference video and the additional video are transmitted through one channel of 6MHz, the 3DTV can broadcast both high definition 2DTV, mobile 2DTV, and high definition 3DTV, thereby maximizing frequency efficiency. Here, the reference image may correspond to the left image for the 3D image, and the additional image may correspond to the left image for the 3D image. Alternatively, the reference image may correspond to the right image, and the additional image may correspond to the left image. Hereinafter, it will be described on the premise that the reference video is transmitted to the left video stream and the additional video is transmitted to the right video stream.
3D 영상을 위해서, 동시에 촬영된 좌영상인 기준 영상과 우영상인 부가 영상은 시청자에게 동시에 제공될 필요가 있다. 하지만, 3DTV 방송 서비스를 위해서, 기준 영상과 부가 영상이 서로 다른 인코딩, 다중화, 변조, 송출, 복조, 역다중화, 디코딩으로 인해 처리 시간이 달라질 수 있다. 그래서, 영상 전송 장치(101)는 좌영상인 기준 영상과 우영상인 부가 영상 간의 동기화를 위해서, 영상 재생 장치(102)가 동시에 출력해야 하는 좌영상과 우영상을 식별할 수 있는 동기 정보를 방송 스트림을 통해 시그널링할 수 있다.For the 3D image, it is necessary to simultaneously provide the viewer with the reference image which is the left image and the additional image which is the right image. However, for 3DTV broadcasting services, processing time may vary due to different encoding, multiplexing, modulation, transmission, demodulation, demultiplexing, and decoding of the reference video and the additional video. Thus, the image transmitting apparatus 101 broadcasts synchronization information for identifying the left image and the right image that the image reproducing apparatus 102 should simultaneously output for synchronization between the reference image that is the left image and the additional image that is the right image. Signaling can be done through the stream.
이 때, 영상 전송 장치(101)는 영상 재생 장치(102)가 서로 다른 타이밍 모델을 가지는 기준 영상과 부가 영상을 동기화할 수 있도록 영상 재생 장치(102)에 동기 정보를 전송할 수 있다. 여기서, 동기 정보는 3D 영상에서 임의의 특정 시점에 동시에 출력되어야 하는 기준 영상과 부가 영상 각각의 타임스탬프 차이인 오프셋(기준 영상과 부가 영상의 차이의 절대값 및 부호)이다. 또는, 동기 정보는 기준 영상과 부가 영상 각각의 타임스탬프의 페어 정보일 수 있다. 그러면, 영상 재생 장치(102)는 동기 정보에 기초하여 기준 영상과 부가 영상의 출력 시점을 결정할 수 있다.In this case, the image transmitting apparatus 101 may transmit the synchronization information to the image reproducing apparatus 102 so that the image reproducing apparatus 102 may synchronize the reference image and the additional image having different timing models. Here, the synchronization information is an offset (an absolute value and a sign of the difference between the reference video and the additional video) which is a time stamp difference between each of the reference video and the additional video, which should be simultaneously output at a specific time point in the 3D video. Alternatively, the synchronization information may be pair information of time stamps of each of the reference video and the additional video. Then, the image reproducing apparatus 102 may determine an output time point of the base view video and the additional view video based on the synchronization information.
본 발명은 3DTV 영상을 위해 필요한 서로 다른 타이밍 모델을 가지는 기준 영상과 부가 영상이 3DTV 장치에 동시에 수신되지 않는 경우를 가정한다. 즉, 기준 영상과 부가 영상은 서로 다른 방송망을 통해 전송되기 때문에 영상 재생 장치(102)에 동시에 전송되지 않을 수 있다. 그래서, 영상 재생 장치(102)는 기준 영상과 부가 영상을 동기화하기 전에 먼저 수신한 영상 스트림을 버퍼에 저장하고, 아직 수신하지 않은 영상 스트림이 도착할 때까지 기다릴 필요가 있다.In the present invention, it is assumed that a base view video and an additional view video having different timing models required for 3DTV video are not simultaneously received by the 3DTV device. That is, since the reference video and the additional video are transmitted through different broadcasting networks, they may not be simultaneously transmitted to the video reproducing apparatus 102. Therefore, the video reproducing apparatus 102 needs to store the received video stream in a buffer before waiting to synchronize the reference video with the additional video, and wait until a video stream not yet received arrives.
그래서, 본 발명은 기준 영상과 부가 영상을 위한 버퍼를 어떻게 관리할 것인지를 제안한다. 구체적으로, 본 발명은 기준 영상과 부가 영상의 수신 시간의 차이에 기초하여 버퍼의 사이즈를 어떻게 결정할 것인지를 제안한다. 한편, 본 발명은 기준 영상과 부가 영상을 위한 버퍼에서 각각 복호화부에 언제 출력할 것인지를 결정할 수 있다. 뿐만 아니라, 본 발명은 기준 영상과 부가 영상의 매칭 과정에 대해서도 제안한다. 특히, 본 발명은 영상 스트림의 수신 지연에 따른 버퍼 운용의 비효율성을 줄이기 위해, 좌영상의 스트림과 우영상의 스트림을 복호화 이전의 버퍼에 저장하되, 영상 스트림 간의 동기화 지연 시간을 최소화하는 방안을 제공할 수 있다.Thus, the present invention proposes how to manage buffers for the base view video and the additional view video. Specifically, the present invention proposes how to determine the size of the buffer based on the difference in the reception time of the base view video and the additional view video. Meanwhile, the present invention may determine when to output to the decoder in the buffer for the reference video and the additional video, respectively. In addition, the present invention proposes a matching process between the base image and the additional image. In particular, in order to reduce the inefficiency of the buffer operation according to the reception delay of the video stream, while storing the stream of the left video and the stream of the right video in the buffer before decoding, to minimize the synchronization delay time between the video stream Can provide.
일례로, 본 발명에서 기준 영상은 MPEG-2 system을 기반의 타이밍 모델을 가지고, 부가 영상은 RTP 기반의 타이밍 모델을 가질 수 있다. 하지만, 본 발명은 상기 타이밍 모델에 한정되지 않고, 기준 영상과 부가 영상이 서로 다른 타이밍 모델을 가지면 모두 적용될 수 있다.For example, in the present invention, the base view video may have a timing model based on the MPEG-2 system, and the additional view video may have a timing model based on the RTP. However, the present invention is not limited to the timing model, and may be applied to the case where the reference image and the additional image have different timing models.
도 2는 본 발명의 일실시예에 따른 영상 재생 장치의 구성 요소를 도시한 도면이다.2 is a diagram illustrating components of an image reproducing apparatus according to an embodiment of the present invention.
도 2를 참고하면, 영상 재생 장치(102)는 제1 버퍼부(201), 제2 버퍼부(202), 버퍼 제어부(203), 제1 복호화부(204), 제2 복호화부(205), 제3 버퍼부(206) 및 영상 동기화부(207)를 포함할 수 있다.Referring to FIG. 2, the image reproducing apparatus 102 includes a first buffer unit 201, a second buffer unit 202, a buffer controller 203, a first decoder 204, and a second decoder 205. It may include a third buffer unit 206 and the image synchronization unit 207.
제1 버퍼부(201)는 제1 방송망을 통해 전달된 기준 영상인 좌영상 스트림을 저장할 수 있다. 그리고, 제2 버퍼부(202)는 제2 방송망을 통해 전달된 부가영상인 우영상 스트림을 저장할 수 있다. 제1 버퍼부(201)는 좌영상 스트림을 복호화하기 전에 임시로 좌영상 스트림을 저장하고, 제2 버퍼부(202)는 우영상 스트림을 복호화하기 전에 임시로 우영상 스트림을 저장할 수 있다.The first buffer unit 201 may store a left image stream which is a reference image transmitted through the first broadcasting network. The second buffer unit 202 may store a right image stream which is an additional image transmitted through the second broadcasting network. The first buffer unit 201 may temporarily store the left image stream before decoding the left image stream, and the second buffer unit 202 may temporarily store the right image stream before decoding the right image stream.
<버퍼 사이즈 결정><Buffer size decision>
버퍼 제어부(203)는 제1 버퍼부(201)와 제2 버퍼부(202)의 버퍼 사이즈를 결정할 수 있다. 이 때, 버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 제1 버퍼부(201)와 제2 버퍼부(202)의 버퍼 사이즈를 결정할 수 있다. 여기서, 수신 시간 차이는 영상 전송 장치(101)로부터 전송된 좌영상 스트림과 우영상 스트림이 영상 재생 장치(102)에 동시에 수신되지 않아서 발생될 수 있다.The buffer controller 203 may determine the buffer sizes of the first buffer unit 201 and the second buffer unit 202. In this case, the buffer controller 203 may determine the buffer sizes of the first buffer unit 201 and the second buffer unit 202 using the difference in the reception time between the left video stream and the right video stream. In this case, the reception time difference may be generated because the left video stream and the right video stream transmitted from the video transmission device 101 are not simultaneously received by the video playback device 102.
버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득할 수 있다. 이 때, 동기 정보는 비트스트림을 역다중화함으로써 추출될 수 있다. 일례로, 동기 정보는 임의의 특정 시점에서 동시에 출력되어야 하는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 포함하는 타임스탬프 페어 정보를 포함할 수 있다. 또는, 동기 정보는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프 간의 오프셋 정보를 포함할 수 있다.The buffer controller 203 may obtain synchronization information between the left video stream and the right video stream. At this time, the synchronization information may be extracted by demultiplexing the bitstream. For example, the synchronization information may include timestamp pair information including a first timestamp of a left video stream and a second timestamp of a right video stream, which should be simultaneously output at any particular point in time. Alternatively, the synchronization information may include offset information between the first timestamp of the left video stream and the second timestamp of the right video stream.
일례로, 좌영상 스트림이 고정 방송 규격인 ATSC 메인 방송 규격을 통해 전송되고, 우영상 스트림이 이동 방송 규격인 MDTV 방송 규격을 통해 전송되는 경우, 제1 타임스탬프는 PTS(presentation timestamp)이고 제2 타임스탬프는 RTP(realtime protocol) 타임스탬프일 수 있다. 여기서, 오프셋 정보는 제1 타임스탬프와 제2 타임스탬프 간의 차이의 절대값과 부호를 포함할 수 있다. 동기 정보는 좌영상 스트림 또는 우영상 스트림 중 적어도 하나를 통해 시그널링될 수 있다.For example, when the left video stream is transmitted through the ATSC main broadcast standard, which is a fixed broadcast standard, and the right video stream is transmitted through the MDTV broadcast standard, which is a mobile broadcast standard, the first timestamp is a presentation timestamp (PTS) and a second. The time stamp may be a realtime protocol (RTP) time stamp. Here, the offset information may include an absolute value and a sign of a difference between the first timestamp and the second timestamp. The synchronization information may be signaled through at least one of a left video stream and a right video stream.
그리고, 버퍼 제어부(203)는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출할 수 있다. 일례로, 제1 타임스탬프는 좌영상 스트림의 디코딩 타임스탬프(DTS: Decoding Timestamp)이고, 제2 타임스탬프는 우영상 스트림의 디코딩 타임스탬프일 수 있다. 만약, 디코딩 타임스탬프가 존재하지 않는 RTP 스트림인 경우, 출력 타임스탬프(PTS, RTP Timestamp)가 추출될 수 있다. 또한, 타임스탬프가 존재하지 않는 경우, 프레임 식별 번호 또는 SMTPE(Society of Motion Picture and Television Engineers) Timecode가 이용될 수 있다.The buffer controller 203 may extract the first timestamp of the left video stream and the second timestamp of the right video stream. For example, the first timestamp may be a decoding timestamp (DTS) of the left video stream, and the second timestamp may be a decoding timestamp of the right video stream. If the RTP stream does not have a decoding timestamp, an output timestamp (PTS, RTP Timestamp) may be extracted. In addition, when no time stamp exists, a frame identification number or a Society of Motion Picture and Television Engineers (SMTP) Timecode may be used.
타임스탬프가 추출되는 대상은 동일 시점에 수신한 액세스 유닛으로 가장 최근에 제1 버퍼부(201) 및 제2 버퍼부(202)에 저장된 액세스 유닛일 수 있다. 또는, 비트스트림의 역다중화 과정을 통해 근접한 시점에 추출한 좌영상 스트림으로부터 및 우영상 스트림으로부터 각각 제1 타임스탬프와 제2 타임스탬프가 추출될 수 있다.The object from which the time stamp is extracted may be an access unit that is received at the same time and is the access unit most recently stored in the first buffer unit 201 and the second buffer unit 202. Alternatively, the first timestamp and the second timestamp may be extracted from the left video stream and the right video stream, respectively, which are extracted at a close time through the demultiplexing process of the bitstream.
일례로, 버퍼 제어부(203)는 제1 버퍼부(201)에 가장 최근에 저장된 좌영상 프레임의 제1 타임스탬프를 추출할 수 있다. 그리고, 버퍼 제어부(203)는 제2 버퍼부(202)에 가장 최근에 저장된 우영상 프레임의 제2 타임스탬프를 추출할 수 있다.For example, the buffer controller 203 may extract the first timestamp of the left image frame most recently stored in the first buffer unit 201. The buffer controller 203 may extract the second timestamp of the right image frame most recently stored in the second buffer unit 202.
이 때, 버퍼 제어부(203)는 제1 버퍼부(201)에 가장 최근에 저장된 좌영상 스트림의 GOP(Group of picture) 중 첫번째 프레임의 PTS를 추출할 수 있다. 또는 버퍼 제어부(203)는 제1 버퍼부(201)에 가장 최근에 저장된 좌영상 스트림의 GOP(Group of picture) 중 마지막 프레임 또는 기준 프레임의 PTS를 추출할 수 있다.In this case, the buffer controller 203 may extract the PTS of the first frame of the group of picture (GOP) of the left video stream most recently stored in the first buffer unit 201. Alternatively, the buffer controller 203 may extract the PTS of the last frame or the reference frame among the group of pictures (GOPs) of the left image stream most recently stored in the first buffer unit 201.
그리고, 버퍼 제어부(203)는 제2 버퍼부(202)에 가장 최근에 저장된 우영상 스트림의 GOP 중 첫번째 프레임의 RTP 타임스탬프를 추출할 수 있다. 또는 버퍼 제어부(203)는 제2 버퍼부(202)에 가장 최근에 저장된 우영상 스트림의 GOP(Group of picture) 중 마지막 프레임 또는 기준 프레임의 RTP 타임스탬프를 추출할 수 있다. 한편, 버퍼 제어부(203)는 보다 빠르게 버퍼 사이즈를 계산하기 위해 GOP 대신 가장 최근에 저장된 엑세스 유닛의 타임스탬프를 추출할 수도 있다.The buffer controller 203 may extract the RTP timestamp of the first frame of the GOP of the right image stream most recently stored in the second buffer unit 202. Alternatively, the buffer controller 203 may extract the RTP timestamp of the last frame or the reference frame of the group of picture (GOP) of the right image stream most recently stored in the second buffer unit 202. Meanwhile, the buffer controller 203 may extract the time stamp of the most recently stored access unit instead of the GOP in order to calculate the buffer size more quickly.
동기 정보, 제1 타임스탬프 및 제2 타임스탬프를 추출하는 과정에 대해서는 도 5에서 구체적으로 설명하기로 한다.A process of extracting the synchronization information, the first time stamp, and the second time stamp will be described in detail with reference to FIG. 5.
그리고, 버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 계산할 수 있다. 일례로, 버퍼 제어부(203)는 동기 정보, 좌영상 스트림의 타임스탬프 및 우영상 스트림의 타임스탬프를 이용하여 수신 시간 차이를 계산할 수 있다.The buffer controller 203 may calculate a reception time difference between the left video stream and the right video stream. For example, the buffer controller 203 may calculate a reception time difference using the synchronization information, the time stamp of the left video stream, and the time stamp of the right video stream.
만약 좌영상 스트림과 우영상 스트림이 동일한 기준 클럭을 사용하는 경우, 버퍼 제어부(203)는 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산할 수 있다. 그리고, 만약, 좌영상 스트림과 우영상 스트림이 서로 다른 기준 클럭을 사용하는 경우, 버퍼 제어부(203)는 동기 정보를 이용하여 제1 타임스탬프 또는 제2 타임스탬프 중 어느 하나를 변환함으로써 제1 타임스탬프와 제2 타임스탬프 간의 수신 시간 차이를 계산할 수 있다. 한편, 제1 타임스탬프 또는 제2 타임스탬프가 RTP 타임스탬프와 같이 랜덤 오프셋이 적용된 경우, 동기 정보를 이용하여 제1 타임스탬프 또는 제2 타임스탬프 중 어느 하나를 변환함으로써 제1 타임스탬프와 제2 타임스탬프 간의 수신 시간 차이를 계산할 수 있다. 구체적으로, 버퍼 제어부(203)는 동기 정보를 이용하여 제1 타임스탬프를 제2 타임스탬프와 동일한 형태로 변환하거나 또는 제2 타임스탬프를 제1 타임스탬프와 동일한 형태로 변환할 수 있다.If the left video stream and the right video stream use the same reference clock, the buffer controller 203 may calculate the reception time difference using the time stamp difference between the first time stamp and the second time stamp. If the left video stream and the right video stream use different reference clocks, the buffer controller 203 converts any one of the first timestamp and the second timestamp by using the synchronization information. The difference in reception time between the stamp and the second timestamp may be calculated. Meanwhile, when a random offset is applied to the first time stamp or the second time stamp, such as an RTP time stamp, the first time stamp and the second time stamp are converted by using either of the synchronization information and the first time stamp or the second time stamp. The difference in reception time between time stamps can be calculated. In detail, the buffer controller 203 may convert the first timestamp into the same form as the second timestamp or convert the second timestamp into the same form as the first timestamp using the synchronization information.
좀더 확장하면, 버퍼 제어부(203)는 동기 정보를 이용하여 어느 한 쪽의 영상 스트림의 출력 시간 정보(타임스탬프, 프레임 식별번호, SMTPE timecode 등)를 다른 쪽의 영상 스트림의 출력 시간 정보로 변환함으로써 수신 시간 차이를 계산할 수 있다.Further expansion, the buffer control unit 203 converts the output time information (time stamp, frame identification number, SMTPE timecode, etc.) of one video stream into output time information of the other video stream by using the synchronization information. Receive time difference can be calculated.
좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 계산할 때, 디코딩 타임스탬프(DTS)가 아닌 출력 타임스탬프(PTS, RTP Timestamp)를 이용하는 경우 디코딩 순서와 버퍼 출력 순서가 일치하지 않을 수 있다. 이 경우, 버퍼 제어부(203)는 영상 스트림에서 연속된 B 프레임의 개수를 고려하여 버퍼 사이즈 및 출력 시간을 제어할 수 있다. 예를 들어, 영상 스트림에서 연속된 B 프레임의 개수가 3일 경우, 출력 타임스탬프에 따라 계산된 수신 시간 차이와 실제 좌영상 스트림 및 우영상 스트림의 프레임이 제1 버퍼부(201)와 제2 버퍼부(202)에 각각 입력되는 시간 차이는 최대 4까지 달라질 수 있다. 이 경우, 버퍼 제어부(203)는 앞서 계산된 수신 시간 차이에 4 프레임 전송 시간을 추가하여 오차에 대응할 수 있다. 또는 버퍼 제어부(203)는 GOP 사이즈를 고려하여 버퍼 사이즈 및 버퍼 출력 시간을 제어할 수 있다. 예를 들어, 버퍼의 출력 단위가 GOP 단위일 경우, 버퍼 제어부(203)는 앞서 계산된 수신 시간 차이에 GOP를 이루는 프레임 수만큼의 프레임 전송 시간을 추가하여 오차에 대응할 수 있다.When calculating the reception time difference between the left video stream and the right video stream, when the output time stamps (PTS, RTP Timestamp) other than the decoding time stamp (DTS) are used, the decoding order and the buffer output order may not match. In this case, the buffer controller 203 may control the buffer size and the output time in consideration of the number of consecutive B frames in the video stream. For example, when the number of consecutive B frames in the video stream is 3, the first buffer unit 201 and the second video frame may include the received time difference calculated according to the output timestamp and the frames of the actual left and right video streams. A time difference input to each of the buffer units 202 may vary up to four. In this case, the buffer controller 203 may correspond to an error by adding a 4 frame transmission time to the previously calculated reception time difference. Alternatively, the buffer controller 203 may control the buffer size and the buffer output time in consideration of the GOP size. For example, when the output unit of the buffer is a GOP unit, the buffer controller 203 may correspond to an error by adding a frame transmission time equal to the number of frames constituting the GOP to the previously calculated reception time difference.
버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다. 일례로, 버퍼 제어부(203)는 버퍼에 저장된 액세스 유닛의 개수, 수신 시간 차이 및 영상 스트림의 프레임 레이트를 이용하여 좌영상 스트림과 우영상 스트림 간의 지연되는 프레임 개수를 계산하고, 계산된 프레임 개수에 따라 동적으로 설정되는 버퍼 사이즈를 결정할 수 있다.The buffer controller 203 may determine the buffer size by using a reception time difference between the left video stream and the right video stream. For example, the buffer controller 203 calculates the number of delayed frames between the left video stream and the right video stream by using the number of access units stored in the buffer, the difference in reception time, and the frame rate of the video stream. As a result, the buffer size that is dynamically set can be determined.
그리고, 버퍼 제어부(203)는 좌영상 스트림 또는 우영상 스트림의 고정 비트레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다. 또는 버퍼 제어부(203)는 좌영상 스트림 또는 우영상 스트림의 데이터 레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다.The buffer controller 203 may determine the buffer size by using a fixed bit rate and a reception time difference of the left video stream or the right video stream. Alternatively, the buffer controller 203 may determine the buffer size using a difference between the data rate and the reception time of the left video stream or the right video stream.
앞서 설명한 버퍼 사이즈를 제어하는 과정은 도 5에서 보다 구체적으로 설명하기로 한다.The above-described process of controlling the buffer size will be described in more detail with reference to FIG. 5.
<버퍼 지연 시간 결정><Determine Buffer Delay Time>
버퍼 제어부(203)는 좌영상 스트림의 제1 타임스탬프, 우영상 스트림의 제2 타임스탬프 및 동기 정보를 이용하여 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 계산할 수 있다. 수신 시간 차이를 계산하는 과정은 앞서 설명한 바와 동일하다.The buffer controller 203 may calculate a reception time difference between the left video stream and the right video stream by using the first timestamp of the left video stream, the second timestamp of the right video stream, and the synchronization information. The process of calculating the reception time difference is the same as described above.
그리고, 버퍼 제어부(203)는 수신 시간 차이를 이용하여 버퍼 지연 시간을 결정할 수 있다. 이 때, 우영상 스트림이 좌영상 스트림보다 먼저 수신된 경우, 버퍼 제어부(203)는 수신 시간 차이만큼 우영상 스트림의 버퍼 지연 시간을 증가시킬 수 있다. 즉, 우영상 스트림이 좌영상 스트림보다 먼저 수신되었기 때문에 버퍼 제어부(203)는 제2 버퍼부(202)의 출력 시간을 제1 버퍼부(201)의 출력 시간보다 수신 시간 차이만큼 지연시킬 수 있다.The buffer controller 203 may determine the buffer delay time using the difference in the reception time. In this case, when the right video stream is received before the left video stream, the buffer controller 203 may increase the buffer delay time of the right video stream by the difference in the reception time. That is, since the right video stream is received before the left video stream, the buffer controller 203 may delay the output time of the second buffer unit 202 by the difference in the reception time from the output time of the first buffer unit 201. .
반대로, 좌영상 스트림이 우영상 스트림보다 먼저 수신된 경우, 버퍼 제어부(203)는 수신 시간 차이만큼 좌영상 스트림의 버퍼 지연 시간을 증가시킬 수 있다. 즉, 좌영상 스트림이 우영상 스트림보다 먼저 수신되었기 때문에 버퍼 제어부(203)는 제1 버퍼부(201)의 출력 시간을 제2 버퍼부(202)의 출력 시간보다 수신 시간 차이만큼 지연시킬 수 있다.On the contrary, when the left video stream is received before the right video stream, the buffer controller 203 may increase the buffer delay time of the left video stream by the difference in the reception time. That is, since the left video stream is received before the right video stream, the buffer controller 203 may delay the output time of the first buffer unit 201 by the difference in receiving time from the output time of the second buffer unit 202. .
<기준 클럭 보정 및 타임스탬프 보정><Reference Clock Correction and Timestamp Correction>
앞서 설명한 바와 같이, 3DTV 서비스의 경우 영상 재생 장치(102)에서의 좌영상 스트림과 우영상 스트림의 수신 시간은 서로 다를 수 있다. 그러나, 좌영상 스트림과 우영상 스트림을 영상 재생 장치(102)로 송출하는 시점에서 좌영상 스트림과 우영상 스트림 간의 수신 지연 시간을 예측하기 어려울 수 있다. 특히, 좌영상 스트림과 우영상 스트림이 독립적인 형태로 고유의 서비스(예: 지상파 2D 방송 서비스, 모바일 2D 방송 서비스, IPTV 방송 서비스, VOD 방송 서비스 등)를 제공하는 경우, 영상 스트림의 레퍼런스 클럭(예: PCR) 및 액세스 유닛의 타임스탬프(예: PTS, DTS) 등은 기존 2D 서비스와의 호환성 확보를 위해 3D 서비스의 수신 지연 시간을 고려하지 않을 수 있다.As described above, in the case of the 3DTV service, the reception time of the left video stream and the right video stream in the video reproducing apparatus 102 may be different. However, it may be difficult to predict the reception delay time between the left video stream and the right video stream when the left video stream and the right video stream are transmitted to the video reproducing apparatus 102. In particular, when the left video stream and the right video stream provide independent services (eg, terrestrial 2D broadcasting service, mobile 2D broadcasting service, IPTV broadcasting service, and VOD broadcasting service) in an independent form, a reference clock of the video stream ( For example, PCR) and time stamps (eg, PTS and DTS) of the access unit may not consider the reception delay time of the 3D service to ensure compatibility with the existing 2D service.
특히 기준 클럭 및 타임스탬프와 같은 시간 정보가 2D 서비스 뿐만 아니라 3D 서비스에도 활용되는 경우, 3D 서비스가 동작할 때 다른 쪽의 영상 스트림이 동작할 때까지의 수신 지연 시간이 고려되어야 한다.In particular, when time information such as a reference clock and a timestamp is used not only for the 2D service but also for the 3D service, the reception delay time until the other video stream operates when the 3D service is operated should be considered.
본 발명은 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이가 발생하더라도 기준 클럭 또는 타임스탬프를 보정함으로써, 수신 시간 차이가 존재하는 사항에서도 좌영상 스트림을 처리하는 제1 복호화부(204)와 우영상 스트림을 처리하는 제2 복호화부(205)가 정상적으로 동작할 수 있도록 한다.The present invention corrects a reference clock or a timestamp even when there is a difference in reception time between a left video stream and a right video stream, so that the first decoder 204 and the right video process the left video stream even when there is a difference in reception time. The second decoder 205 for processing the stream can operate normally.
기준 클럭을 보정하기 위해, 버퍼 제어부(203)는 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산할 수 있다. 그리고, 버퍼 제어부(203)는 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림 중 먼저 수신된 영상 스트림에 시그널링된 기준 클럭을 보정할 수 있다. 이 때, 버퍼 제어부(203)는 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 기준 클럭을 보정할 수 있다.To correct the reference clock, the buffer controller 203 may calculate a difference in reception time between the access unit of the left video stream and the access unit of the right video stream. In addition, the buffer controller 203 may correct the reference clock signaled to the first received video stream among the left video stream and the right video stream by using the reception time difference. In this case, the buffer controller 203 may correct the reference clock by using the result of applying the reception time difference to the clock rate of the reference clock.
타임스탬프를 보정하기 위해 버퍼 제어부(203)는 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산할 수 있다. 그리고, 버퍼 제어부(203)는 수신 시간 차이를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정할 수 있다. 이 때, 버퍼 제어부(203)는 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정할 수 있다. 기준 클럭과 타임스탬프를 보정하는 과정에 대해서는 도 6에서 보다 구체적으로 설명하기로 한다.To correct the time stamp, the buffer controller 203 may calculate a difference in reception time between the access unit of the left video stream and the access unit of the right video stream. The buffer controller 203 may correct the first timestamp of the left video stream and the second timestamp of the right video stream by using the reception time difference. In this case, the buffer controller 203 may correct the first timestamp of the left video stream and the second timestamp of the right video stream by using the result of applying the reception time difference to the clock rate of the reference clock. A process of correcting the reference clock and time stamp will be described in more detail with reference to FIG. 6.
제1 복호화부(204)는 제1 버퍼부(201)로부터 전달된 좌영상 스트림을 복호화한 후, 제3 버퍼부(206)에 저장할 수 있다. 그리고, 제2 복호화부(205)는 제2 버퍼부(202)로부터 전달된 우영상 스트림을 복호화한 후, 제3 버퍼부(206)에 저장할 수 있다.The first decoder 204 may decode the left video stream transmitted from the first buffer unit 201 and store the decoded video stream in the third buffer unit 206. In addition, the second decoder 205 may decode the right video stream transmitted from the second buffer unit 202 and store the same in the third buffer unit 206.
영상 동기화부(207)는 제3 버퍼부(206)에 저장된 좌영상 스트림과 우영상 스트림을 동기화하여 3D 렌더러에 전달할 수 있다. 일례로, 영상 동기화부(207)는 비트스트림을 역다중화함으로써 도출된 동기 정보를 획득할 수 있다. 영상 동기화부(207)는 제3 버퍼부(206)에 저장된 좌영상 스트림의 제1 타임스탬프와 우영상 스트림의 제2 타임스탬프를 획득할 수 있다. The image synchronizer 207 may synchronize the left image stream and the right image stream stored in the third buffer unit 206 and transfer the same to the 3D renderer. For example, the image synchronizer 207 may obtain synchronization information derived by demultiplexing the bitstream. The image synchronizer 207 may obtain a first timestamp of the left video stream and a second timestamp of the right video stream stored in the third buffer unit 206.
영상 동기화부(207)는 동기 정보를 이용하여 제1 타임스탬프 및 제2 타임스탬프 중 적어도 하나를 기준 클럭에 대응되도록 변환할 수 있다. 일례로, 영상 동기화부(207)는 우영상 스트림의 RTP 타임스탬프를 기준 클럭인 PCR(program clock reference)에 대응되도록 좌영상 스트림의 타임스탬프와 동일한 형태로 변환할 수 있다. 좌영상 스트림은 PCR에 대응하는 타임스탬프인 PTS를 가진다. 영상 동기화부(207)는 PCR에 기초하여 제3 버퍼부(206)로부터 추출된 좌영상 스트림과 우영상 스트림을 타임스탬프를 통해 매칭하여 3D 영상을 생성하는 3D 렌더러에 전달할 수 있다.The image synchronizer 207 may convert at least one of the first time stamp and the second time stamp to correspond to the reference clock by using the synchronization information. For example, the image synchronizer 207 may convert the RTP timestamp of the right video stream into the same form as the timestamp of the left video stream so as to correspond to a PCR (program clock reference) that is a reference clock. The left image stream has a PTS which is a timestamp corresponding to PCR. The image synchronizer 207 may transfer the left image stream and the right image stream extracted from the third buffer unit 206 based on the PCR to the 3D renderer that generates the 3D image by matching the time stamp with the left image stream.
즉, 좌영상 스트림과 우영상 스트림은 서로 다른 타이밍 모델을 가지지만, 영상 동기화부(207)는 우영상 스트림의 제1 타임스탬프 또는 좌영상 스트림의 제2 타임스탬프를 기준 클럭에 따라 변환하여 동일한 형태의 타임스탬프로 변환할 수 있다. 그리고, 영상 동기화부(207)는 제1 타임스탬프와 제2 타임스탬프를 매칭시켜 좌영상 스트림과 우영상 스트림을 매칭할 수 있다.That is, the left video stream and the right video stream have different timing models, but the image synchronizer 207 converts the first timestamp of the right video stream or the second timestamp of the left video stream according to a reference clock to obtain the same timing model. Can be converted to a timestamp of type. The image synchronizer 207 may match the left video stream and the right video stream by matching the first time stamp and the second time stamp.
도 3은 본 발명의 일실시예에 따른 영상 재생 장치의 일례를 도시한 도면이다.3 is a diagram illustrating an example of an image reproducing apparatus according to an embodiment of the present invention.
도 3을 참고하면, 영상 재생 장치는 demultiplexer(301), PES decapsulator(302), RTP decapsulator(303), ES buffer(304), ES buffer(305), ES buffer controller(306), MPEG-2 Decodoer(307), AVC decoder(308), Renderer Buffer(309), L/R Synchronizer(310)을 포함할 수 있다. 여기서, ES buffer(304)는 제1 버퍼부(201)에 대응하고, ES buffer(305)는 제2 버퍼부(202)에 대응하며, ES buffer controller(306)는 버퍼 제어부(203)에 대응한다. 그리고, MPEG-2 Decodoer(307)는 제1 복호화부(204)에 대응하고, AVC decoder(308)는 제2 복호화부(205)에 대응한다. 또한, Renderer Buffer(309)는 제3 버퍼부(206)에 대응하고, L/R Synchronizer(310)는 영상 동기화부(207)에 대응한다.Referring to FIG. 3, the image reproducing apparatus includes a demultiplexer 301, a PES decapsulator 302, an RTP decapsulator 303, an ES buffer 304, an ES buffer 305, an ES buffer controller 306, and an MPEG-2 Decodoer. 307, an AVC decoder 308, a renderer buffer 309, and an L / R synchronizer 310. Here, the ES buffer 304 corresponds to the first buffer unit 201, the ES buffer 305 corresponds to the second buffer unit 202, and the ES buffer controller 306 corresponds to the buffer controller 203. do. The MPEG-2 Decodoer 307 corresponds to the first decoder 204, and the AVC decoder 308 corresponds to the second decoder 205. In addition, the renderer buffer 309 corresponds to the third buffer unit 206, and the L / R synchronizer 310 corresponds to the image synchronizer 207.
demultiplexer(301)는 비트스트림으로부터 역다중화하여 좌영상 스트림, 우영상 스트림 및 동기 정보를 추출할 수 있다. 여기서, 좌영상 스트림은 3D영상의 기준 영상에 대응하여, 고화질 2D HD 고정방송에 사용될 수 있다. 좌영상 스트림은 MPEG-2 방식에 따라 처리되어 ATSC 메인 스트림을 통해 전송될 수 있다. 한편, 우영상 스트림은 3D 영상의 부가영상에 대응하며, 2D 모바일방송에 사용될 수 있다. 우영상 스트림은 AVC(Advanced Video Coding)에 따라 처리되어 ATSC M/H 스트림을 통해 전송될 수 있다. 이 때 추출된 동기 정보는 ES buffer controller(306)에 전송될 수 있다.The demultiplexer 301 may demultiplex from a bitstream to extract a left video stream, a right video stream, and synchronization information. Here, the left video stream may be used for high definition 2D HD fixed broadcasting corresponding to the reference video of the 3D video. The left video stream may be processed according to the MPEG-2 scheme and transmitted through the ATSC main stream. Meanwhile, the right image stream corresponds to the additional image of the 3D image and may be used for 2D mobile broadcasting. The right video stream may be processed according to AVC (Advanced Video Coding) and transmitted through the ATSC M / H stream. In this case, the extracted synchronization information may be transmitted to the ES buffer controller 306.
PES decapsulator(302)는 좌영상 스트림의 PES(packetized elementary stream)을 디캡슐화할 수 있다. 이 과정에서 추출된 좌영상 스트림의 제1 타임스탬프인 PTS(presentation timestamp)는 ES buffer controller(306)와 L/R Synchronizer(310)에 전송될 수 있다. 한편, RTP decapsulator(303)는 캡슐화된 우영상 스트림의 RTP(real-time transportation protocol) 패킷을 디캡슐화할 수 있다. 이 과정에서 추출된 우영상 스트림의 제2 타임스탬프인 RTP 타임스탬프는 ES buffer controller(306)와 L/R Synchronizer(310)에 전송될 수 있다.The PES decapsulator 302 may decapsulate a packetized elementary stream (PES) of a left image stream. The presentation timestamp (PTS), which is the first timestamp of the left video stream extracted in this process, may be transmitted to the ES buffer controller 306 and the L / R Synchronizer 310. Meanwhile, the RTP decapsulator 303 may decapsulate the real-time transportation protocol (RTP) packet of the encapsulated right video stream. The RTP timestamp, which is the second timestamp of the right video stream extracted in this process, may be transmitted to the ES buffer controller 306 and the L / R Synchronizer 310.
PES decapsulator(302)에서 도출된 좌영상 스트림은 ES buffer(304)에 저장되고, RTP decapsulator(303)에서 도출된 우영상 스트림은 ES buffer(305)에 저장될 수 있다. 여기서, ES buffer(304)와 ES buffer(305)는 좌영상 스트림과 우영상 스트림 간에 수신 지연이 발생하는 상황에서 디코딩 전에 좌영상 스트림과 우영상 스트림을 임시로 저장할 수 있다. ES buffer(304)와 ES buffer(305)는 TS buffer(304)와 TS buffer(305)로 설정될 수도 있다.The left image stream derived from the PES decapsulator 302 may be stored in the ES buffer 304, and the right image stream derived from the RTP decapsulator 303 may be stored in the ES buffer 305. Here, the ES buffer 304 and the ES buffer 305 may temporarily store the left video stream and the right video stream before decoding in a situation where a reception delay occurs between the left video stream and the right video stream. The ES buffer 304 and the ES buffer 305 may be set as the TS buffer 304 and the TS buffer 305.
ES buffer controller(306)는 ES buffer(304)와 ES buffer(305)를 제어하고 관리할 수 있다. The ES buffer controller 306 may control and manage the ES buffer 304 and the ES buffer 305.
(1) 일례로, ES buffer controller(306)는 ES buffer(304)와 ES buffer(305)의 버퍼 사이즈를 결정할 수 있다. 이 때, ES buffer controller(306)는 좌영상 스트림과 우영상 스트림의 수신 시간 차이를 이용하여 ES buffer(304)와 ES buffer(305)의 버퍼 사이즈를 결정할 수 있다. 여기서, 수신 시간 차이는 영상 전송 장치(101)로부터 전송된 좌영상 스트림과 우영상 스트림이 영상 재생 장치(102)에 동시에 수신되지 않아서 발생될 수 있다.(1) As an example, the ES buffer controller 306 may determine the buffer sizes of the ES buffer 304 and the ES buffer 305. At this time, the ES buffer controller 306 may determine the buffer sizes of the ES buffer 304 and the ES buffer 305 by using the difference in the reception time of the left video stream and the right video stream. In this case, the reception time difference may be generated because the left video stream and the right video stream transmitted from the video transmission device 101 are not simultaneously received by the video playback device 102.
ES buffer controller(306)는 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득할 수 있다. 그리고, ES buffer controller(306)는 좌영상 스트림의 제1 타임스탬프와 우영상 스트림의 제2 타임스탬프를 추출할 수 있다. ES buffer controller(306)는 제1 타임스탬프, 제2 타임스탬프 및 동기 정보를 이용하여 좌영상 스트림과 우영상 스트림 간 수신 시간 차이를 계산하고, 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다.The ES buffer controller 306 may acquire synchronization information between the left video stream and the right video stream. The ES buffer controller 306 may extract the first timestamp of the left video stream and the second timestamp of the right video stream. The ES buffer controller 306 may calculate a reception time difference between the left video stream and the right video stream using the first time stamp, the second time stamp, and the synchronization information, and determine the buffer size using the reception time difference.
(2) 그리고, ES buffer controller(306)는 수신 시간 차이를 이용하여 버퍼 지연 시간을 결정할 수 있다. 이 때, 우영상 스트림이 좌영상 스트림보다 먼저 수신된 경우, ES buffer controller(306)는 수신 시간 차이만큼 우영상 스트림의 버퍼 지연 시간을 증가시킬 수 있다. 즉, 우영상 스트림이 좌영상 스트림보다 먼저 수신되었기 때문에 ES buffer controller(306)는 ES buffer(305)의 출력 시간을 ES buffer(304)의 출력 시간보다 수신 시간 차이만큼 지연시킬 수 있다.(2) The ES buffer controller 306 may determine the buffer delay time by using the reception time difference. In this case, when the right video stream is received before the left video stream, the ES buffer controller 306 may increase the buffer delay time of the right video stream by a difference in the reception time. That is, since the right video stream is received before the left video stream, the ES buffer controller 306 may delay the output time of the ES buffer 305 by the difference of the reception time from the output time of the ES buffer 304.
반대로, 좌영상 스트림이 우영상 스트림보다 먼저 수신된 경우, ES buffer controller(306)는 수신 시간 차이만큼 좌영상 스트림의 버퍼 지연 시간을 증가시킬 수 있다. 즉, 좌영상 스트림이 우영상 스트림보다 먼저 수신되었기 때문에 ES buffer controller(306)는 ES buffer(304) 의 출력 시간을 ES buffer(305)의 출력 시간보다 수신 시간 차이만큼 지연시킬 수 있다.On the contrary, when the left video stream is received before the right video stream, the ES buffer controller 306 may increase the buffer delay time of the left video stream by a difference in the reception time. That is, since the left video stream is received before the right video stream, the ES buffer controller 306 may delay the output time of the ES buffer 304 by the difference in the reception time from the output time of the ES buffer 305.
결국, ES buffer controller(306)는 ES buffer(304)가 MPEG-2 decoder(307)에 좌영상 스트림을 전달하는 출력 시점과 ES buffer(305)가 AVC decoder(308)에 우영상 스트림을 전달하는 출력 시점을 결정할 수 있다.As a result, the ES buffer controller 306 outputs a time point at which the ES buffer 304 delivers the left video stream to the MPEG-2 decoder 307 and an ES buffer 305 delivers the right video stream to the AVC decoder 308. The output time point can be determined.
(3) ES buffer controller(306)는 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이가 발생하더라도 기준 클럭 또는 타임스탬프를 보정함으로써, 수신 시간 차이가 존재하는 사항에서도 좌영상 스트림을 처리하는 MPEG-2 Decoder(307)와 우영상 스트림을 처리하는 AVC Decoder(308)가 정상적으로 동작할 수 있도록 한다.(3) The ES buffer controller 306 corrects the reference clock or timestamp even when there is a difference in reception time between the left video stream and the right video stream, thereby processing the MPEG-2 video stream even when there is a difference in the reception time. The decoder 307 and the AVC decoder 308 processing the right video stream can operate normally.
기준 클럭을 보정하기 위해, ES buffer controller(306)는 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산할 수 있다. 그리고, ES buffer controller(306)는 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림 중 먼저 수신된 영상 스트림에 시그널링된 기준 클럭을 보정할 수 있다. 이 때, ES buffer controller(306)는 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 기준 클럭을 보정할 수 있다.In order to correct the reference clock, the ES buffer controller 306 may calculate a difference in reception time between the access unit of the left video stream and the access unit of the right video stream. In addition, the ES buffer controller 306 may correct the reference clock signaled to the first received video stream among the left video stream and the right video stream by using the reception time difference. In this case, the ES buffer controller 306 may correct the reference clock by using a result of applying a reception time difference to the clock rate of the reference clock.
타임스탬프를 보정하기 위해 ES buffer controller(306)는 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산할 수 있다. 그리고, ES buffer controller(306)는 수신 시간 차이를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정할 수 있다. 이 때, ES buffer controller(306)는 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정할 수 있다.In order to correct the timestamp, the ES buffer controller 306 may calculate a reception time difference between the access unit of the left video stream and the access unit of the right video stream. The ES buffer controller 306 may correct the first timestamp of the left video stream and the second timestamp of the right video stream by using the reception time difference. In this case, the ES buffer controller 306 may correct the first timestamp of the left video stream and the second timestamp of the right video stream by using the result of applying the reception time difference to the clock rate of the reference clock.
MPEG-2 decoder(307)는 ES buffer(304)로부터 전달된 좌영상 스트림을 복호화한 후, Renderer Buffer(309)에 저장할 수 있다. 그리고, AVC decoder(308)는 ES buffer(305)로부터 전달된 우영상 스트림을 복호화한 후, Renderer Buffer(309)에 저장할 수 있다.The MPEG-2 decoder 307 may decode the left image stream transmitted from the ES buffer 304 and then store the image stream in the renderer buffer 309. The AVC decoder 308 may decode the right image stream transferred from the ES buffer 305 and store the same in the renderer buffer 309.
L/R synchronizer(310)는 Renderer Buffer(309)에 저장된 좌영상 스트림과 우영상 스트림을 동기화할 수 있다. 일례로, L/R synchronizer(310)는 비트스트림으로부터 동기 정보를 획득할 수 있다. L/R synchronizer(310)는 Renderer Buffer(309)에 저장된 좌영상 스트림과 우영상 스트림 각각의 타임스탬프를 획득할 수 있다. L/R synchronizer(310)는 동기 정보를 이용하여 우영상 스트림의 타임스탬프를 좌영상 스트림의 타임스탬프에 기초하여 변환할 수 있다. 일례로, L/R synchronizer(310)는 우영상 스트림의 RTP 타임스탬프를 PCR 기반의 타임스탬프로 변환할 수 있다. 좌영상 스트림은 PCR에 대응하는 PTS를 가진다. L/R synchronizer(310)는 PCR에 기초하여 Renderer Buffer(309)로부터 추출된 좌영상 스트림과 우영상 스트림을 매칭하여 3D 영상을 생성하는 3D 렌더러에 전달할 수 있다.The L / R synchronizer 310 may synchronize the left video stream and the right video stream stored in the renderer buffer 309. In one example, the L / R synchronizer 310 may obtain synchronization information from the bitstream. The L / R synchronizer 310 may obtain timestamps of the left video stream and the right video stream stored in the renderer buffer 309. The L / R synchronizer 310 may convert the time stamp of the right video stream based on the time stamp of the left video stream using the synchronization information. For example, the L / R synchronizer 310 may convert the RTP timestamp of the right image stream into a PCR-based timestamp. The left image stream has a PTS corresponding to the PCR. The L / R synchronizer 310 may match the left image stream and the right image stream extracted from the renderer buffer 309 based on the PCR to the 3D renderer that generates the 3D image.
즉, 좌영상 스트림과 우영상 스트림은 서로 다른 타이밍 모델을 가지지만, L/R synchronizer(310)는 우영상 스트림의 타임스탬프를 좌영상 스트림의 타임스탬프의 기준 클럭에 따라 변환한 후, 기준 클럭에 따라 좌영상 스트림의 타임스탬프와 변환된 우영상 스트림의 타임스탬프를 동기시켜서 좌영상 스트림과 우영상 스트림을 매칭할 수 있다. 앞서 설명한 실시예는 우영상 스트림의 타임스탬프를 좌영상 스트림의 타임스탬프와 관련된 기준 클럭에 따라 변환하는 과정을 설명하고 있지만, 좌영상 스트림의 타임스탬프를 우영상 스트림의 타임스탬프와 관련된 기준 클럭에 따라 변환하는 것도 본 발명의 실시예에 포함될 수 있다.That is, although the left video stream and the right video stream have different timing models, the L / R synchronizer 310 converts the time stamp of the right video stream according to the reference clock of the time stamp of the left video stream, and then the reference clock. Accordingly, the left video stream and the right video stream may be matched by synchronizing the time stamp of the left video stream with the time stamp of the converted right video stream. Although the above-described embodiment describes a process of converting the timestamp of the right video stream according to the reference clock associated with the timestamp of the left video stream, the timestamp of the left video stream is converted to the reference clock associated with the timestamp of the right video stream. The transformation according to the present invention may be included in the embodiment of the present invention.
결국, 본 발명에 의하면, 3D 영상의 좌영상에 대응하는 좌영상 스트림을 ES buffer(304)에서 MPEG-2 Decoder(307)로 전달하는 출력 시간과 3D 영상의 우영상에 대응하는 우영상 스트림을 ES buffer(305)에서 AVC Decoder(308)로 전달하는 출력 시간이 결정될 수 있다.As a result, according to the present invention, the output time of transferring the left video stream corresponding to the left video of the 3D video from the ES buffer 304 to the MPEG-2 Decoder 307 and the right video stream corresponding to the right video of the 3D video The output time from the ES buffer 305 to the AVC Decoder 308 can be determined.
그리고, 본 발명은 좌영상 스트림과 우영상 스트림의 수신 시간 차이를 이용하여 ES buffer(304)와 ES buffer(305)의 버퍼 사이즈를 결정할 수 있다.In addition, the present invention may determine the buffer sizes of the ES buffer 304 and the ES buffer 305 by using the reception time difference between the left video stream and the right video stream.
그리고, 본 발명은 좌영상 스트림과 우영상 스트림의 수신 시간 차이를 이용하여 기준 클럭과 타임스탬프를 보정할 수 있다.In addition, the present invention may correct the reference clock and the time stamp by using the difference in the reception time of the left video stream and the right video stream.
또한, 본 발명은 3D 영상을 생성하는 3D 렌더러에 전달되는 좌영상 스트림과 우영상 스트림을 매칭할 수 있다.In addition, the present invention can match the left image stream and the right image stream delivered to the 3D renderer for generating a 3D image.
도 4는 본 발명의 일실시예에 따라 동기 정보, 제1 타임스탬프 및 제2 타임스탬프를 추출하는 과정을 설명하는 도면이다.4 is a diagram illustrating a process of extracting synchronization information, a first time stamp, and a second time stamp according to an embodiment of the present invention.
도 4를 참고하면, 제1 방송망을 통해 동기 정보가 비트스트림에 시그널링되어 전달될 수 있다. 경우에 따라 동기 정보는 제2 방송망을 통해 전달될 수도 있다. 영상 전송 장치(101)는 좌영상 스트림과 우영상 스트림 간의 동기화를 수행하기 위해, 프로그램 내 임의의 특정 시점에 동시에 출력되어야 하는 좌영상 스트림과 우영상 스트림 각각의 타임스탬프(PTS, RTP timestamp 등) 페어 정보를 동기정보로 생성할 수 있다. 또는, 영상 전송 장치(101)는 좌영상 스트림과 우영상 스트림 각각의 타임스탬프 간의 오프셋 정보(타임스탬프 간 차이의 절대값 및 부호)을 동기 정보로 생성할 수 있다. 그러면, 영상 재생 장치(102)는 방송망을 통해 전달된 비트스트림의 시그널링 채널에서 동기 정보를 추출할 수 있다.Referring to FIG. 4, synchronization information may be signaled and transmitted in a bitstream through a first broadcast network. In some cases, the synchronization information may be transmitted through the second broadcast network. In order to perform synchronization between the left video stream and the right video stream, the video transmitting apparatus 101 may time stamps (PTS, RTP timestamp, etc.) of the left video stream and the right video stream, which should be simultaneously output at any particular time in the program. Pair information can be generated as synchronization information. Alternatively, the image transmission device 101 may generate offset information (absolute value and sign of the difference between time stamps) between the time stamps of the left video stream and the right video stream as synchronization information. Then, the image reproducing apparatus 102 may extract synchronization information from the signaling channel of the bitstream transmitted through the broadcasting network.
버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득할 수 있다. 이 때, 동기 정보는 비트스트림을 역다중화함으로써 추출될 수 있다. 일례로, 동기 정보는 임의의 특정 시점에서 동시에 출력되어야 하는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 포함하는 타임스탬프 페어 정보를 포함할 수 있다. 또는, 동기 정보는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프 간의 오프셋 정보를 포함할 수 있다.The buffer controller 203 may obtain synchronization information between the left video stream and the right video stream. At this time, the synchronization information may be extracted by demultiplexing the bitstream. For example, the synchronization information may include timestamp pair information including a first timestamp of a left video stream and a second timestamp of a right video stream, which should be simultaneously output at any particular point in time. Alternatively, the synchronization information may include offset information between the first timestamp of the left video stream and the second timestamp of the right video stream.
일례로, 좌영상 스트림이 고정 방송 규격인 ATSC 메인 방송 규격을 통해 전송되고, 우영상 스트림이 이동 방송 규격인 MDTV 방송 규격을 통해 전송되는 경우, 제1 타임스탬프는 PTS(presentation timestamp)이고 제2 타임스탬프는 RTP(realtime protocol) 타임스탬프일 수 있다. 여기서, 오프셋 정보는 제1 타임스탬프와 제2 타임스탬프 간의 차이의 절대값과 부호를 포함할 수 있다. 동기 정보는 좌영상 스트림 또는 우영상 스트림 중 적어도 하나를 통해 시그널링될 수 있다.For example, when the left video stream is transmitted through the ATSC main broadcast standard, which is a fixed broadcast standard, and the right video stream is transmitted through the MDTV broadcast standard, which is a mobile broadcast standard, the first timestamp is a presentation timestamp (PTS) and a second. The time stamp may be a realtime protocol (RTP) time stamp. Here, the offset information may include an absolute value and a sign of a difference between the first timestamp and the second timestamp. The synchronization information may be signaled through at least one of a left video stream and a right video stream.
그리고, 버퍼 제어부(203)는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출할 수 있다. 일례로, 제1 타임스탬프는 좌영상 스트림의 디코딩 타임스탬프(DTS: Decoding Timestamp)이고, 제2 타임스탬프는 우영상 스트림의 디코딩 타임스탬프일 수 있다. 만약, 디코딩 타임스탬프가 존재하지 않는 RTP 스트림인 경우, 출력 타임스탬프(PTS, RTP Timestamp)가 추출될 수 있다. 또한, 타임스탬프가 존재하지 않는 경우, 프레임 식별 번호 또는 SMTPE(Society of Motion Picture and Television Engineers) Timecode가 이용될 수 있다.The buffer controller 203 may extract the first timestamp of the left video stream and the second timestamp of the right video stream. For example, the first timestamp may be a decoding timestamp (DTS) of the left video stream, and the second timestamp may be a decoding timestamp of the right video stream. If the RTP stream does not have a decoding timestamp, an output timestamp (PTS, RTP Timestamp) may be extracted. In addition, when no time stamp exists, a frame identification number or a Society of Motion Picture and Television Engineers (SMTP) Timecode may be used.
타임스탬프가 추출되는 대상은 동일 시점에 수신한 액세스 유닛으로 가장 최근에 제1 버퍼부(201) 및 제2 버퍼부(202)에 저장된 액세스 유닛일 수 있다. 또는, 비트스트림의 역다중화 과정을 통해 근접한 시점에 추출한 좌영상 및 우영상 스트림으로부터 각각 제1 타임스탬프와 제2 타임스탬프가 추출될 수 있다.The object from which the time stamp is extracted may be an access unit that is received at the same time and is the access unit most recently stored in the first buffer unit 201 and the second buffer unit 202. Alternatively, the first timestamp and the second timestamp may be extracted from the left image and right image streams extracted at close points through the demultiplexing process of the bitstream.
일례로, 버퍼 제어부(203)는 제1 버퍼부(201)에 가장 최근에 저장된 좌영상 프레임의 제1 타임스탬프를 추출할 수 있다. 그리고, 버퍼 제어부(203)는 제2 버퍼부(202)에 가장 최근에 저장된 우영상 프레임 의 제2 타임스탬프를 추출할 수 있다. 이 때, 버퍼 제어부(203)는 제1 버퍼부(201)에 가장 최근에 저장된 좌영상 스트림의 GOP(Group of picture) 중 첫번째 프레임의 PTS를 추출할 수 있다. 또는 버퍼 제어부(203)는 제1 버퍼부(201)에 가장 최근에 저장된 좌영상 스트림의 GOP(Group of picture) 중 마지막 프레임 또는 기준 프레임의 PTS를 추출할 수 있다.For example, the buffer controller 203 may extract the first timestamp of the left image frame most recently stored in the first buffer unit 201. The buffer controller 203 may extract the second time stamp of the right image frame most recently stored in the second buffer unit 202. In this case, the buffer controller 203 may extract the PTS of the first frame of the group of picture (GOP) of the left video stream most recently stored in the first buffer unit 201. Alternatively, the buffer controller 203 may extract the PTS of the last frame or the reference frame among the group of pictures (GOPs) of the left image stream most recently stored in the first buffer unit 201.
그리고, 버퍼 제어부(203)는 제2 버퍼부(202)에 가장 최근에 저장된 우영상 스트림의 GOP 중 첫번째 프레임의 RTP 타임스탬프를 추출할 수 있다. 또는 버퍼 제어부(203)는 제2 버퍼부(202)에 가장 최근에 저장된 우영상 스트림의 GOP(Group of picture) 중 마지막 프레임 또는 기준 프레임의 RTP 타임스탬프를 추출할 수 있다. 한편, 버퍼 제어부(203)는 보다 빠르게 버퍼 사이즈를 계산하기 위해 GOP 대신 가장 최근에 저장된 엑세스 유닛의 타임스탬프를 추출할 수도 있다.The buffer controller 203 may extract the RTP timestamp of the first frame of the GOP of the right image stream most recently stored in the second buffer unit 202. Alternatively, the buffer controller 203 may extract the RTP timestamp of the last frame or the reference frame of the group of picture (GOP) of the right image stream most recently stored in the second buffer unit 202. Meanwhile, the buffer controller 203 may extract the time stamp of the most recently stored access unit instead of the GOP in order to calculate the buffer size more quickly.
한편, 버퍼 제어부(203)는 디코더 버퍼에 최근에 저장된 좌영상 스트림의 액세스 유닛에서 제1 타임스탬프를 추출할 수 있다. 그리고, 영상 재생 장치(102)는 디코더 버퍼에 최근에 저장된 우영상 스트림의 액세스 유닛에서 제2 타임스탬프를 추출할 수 있다. 도 4에서 액세스 유닛이 왼쪽에 위치할수록 최근에 저장된 것을 의미하고, 액세스 유닛이 오른쪽에 위치할수록 예전에 저장된 것을 의미한다. 이 때, 기준이 되는 제1 타임스탬프를 추출하는 좌영상 스트림의 액세스 유닛과 제2 타임스탬프를 추출하는 우영상 스트림의 액세스 유닛은 동일 시점(same time)에서 수신한 것을 의미한다. 여기서, 디코더 버퍼는 ES buffer 또는 Ts buffer로 표현될 수 있다.Meanwhile, the buffer controller 203 may extract the first time stamp from the access unit of the left video stream recently stored in the decoder buffer. The video reproducing apparatus 102 may extract the second timestamp from the access unit of the right video stream recently stored in the decoder buffer. In FIG. 4, the access unit is located on the left side and recently stored, and the access unit is located on the right side, which means previously stored. In this case, the access unit of the left video stream from which the first timestamp as a reference is extracted and the access unit of the right video stream from which the second timestamp is extracted are received at the same time. Here, the decoder buffer may be expressed as ES buffer or Ts buffer.
여기서, 제1 타임스탬프와 제2 타임스탬프는 DTS(decoding timestamp), PTS(presentation timestamp), RTP Timestamp, SMTPE timecode, 프레임 번호 중 어느 하나일 수 있다. 이 때, 버퍼 제어부(203)가 추출하는 타임스탬프는 디코딩 타임스탬프(DTS)일 수 있다. 하지만, 디코딩 타임스탬프가 존재하지 않는 경우, 출력 타임스탬프인 PTS, RTP Timestamp가 추출될 수 있다. 또한, 타임스탬프가 존재하지 않는 경우, 프레임 식별 번호, SMTPE timecode 등이 추출될 수 있다.The first time stamp and the second time stamp may be any one of a decoding timestamp (DTS), a presentation timestamp (PTS), an RTP timestamp, an SMTPE timecode, and a frame number. In this case, the time stamp extracted by the buffer controller 203 may be a decoding time stamp (DTS). However, if the decoding time stamp does not exist, the output time stamps PTS and RTP Timestamp may be extracted. In addition, when there is no time stamp, a frame identification number, an SMTPE timecode, or the like may be extracted.
도 5는 본 발명의 일실시예에 따라 버퍼 사이즈를 제어하는 과정을 설명하는 도면이다.5 is a diagram illustrating a process of controlling a buffer size according to an embodiment of the present invention.
버퍼 제어부(203)는 동기 정보, 좌영상 스트림의 제1 타임스탬프, 및 우영상 스트림의 제2 타임스탬프를 이용하여 제1 버퍼부(201) 및 제2 버퍼부(202)의 버퍼 사이즈를 제어할 수 있다.The buffer controller 203 controls the buffer sizes of the first buffer unit 201 and the second buffer unit 202 by using the synchronization information, the first timestamp of the left video stream, and the second timestamp of the right video stream. can do.
버퍼 제어부(203)는 제1 버퍼부(201)와 제2 버퍼부(202)의 버퍼 사이즈를 결정할 수 있다. 이 때, 버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 제1 버퍼부(201)와 제2 버퍼부(202)의 버퍼 사이즈를 결정할 수 있다. 여기서, 수신 시간 차이는 영상 전송 장치(101)로부터 전송된 좌영상 스트림과 우영상 스트림이 영상 재생 장치(102)에 동시에 수신되지 않아서 발생될 수 있다.The buffer controller 203 may determine the buffer sizes of the first buffer unit 201 and the second buffer unit 202. In this case, the buffer controller 203 may determine the buffer sizes of the first buffer unit 201 and the second buffer unit 202 using the difference in the reception time between the left video stream and the right video stream. In this case, the reception time difference may be generated because the left video stream and the right video stream transmitted from the video transmission device 101 are not simultaneously received by the video playback device 102.
버퍼 제어부(203)는 동기 정보, 좌영상 스트림의 제1 타임스탬프, 및 우영상 스트림의 제2 타임스탬프를 이용하여 제1 버퍼부(201) 및 제2 버퍼부(202)의 버퍼 지연시간을 결정할 수 있다.The buffer controller 203 uses the synchronization information, the first timestamp of the left video stream, and the second timestamp of the right video stream to determine buffer delay times of the first buffer unit 201 and the second buffer unit 202. You can decide.
버퍼 제어부(203)는 제1 버퍼부(201)와 제2 버퍼부(202)의 버퍼 지연시간을 결정할 수 있다. 이 때, 버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 제1 버퍼부(201)와 제2 버퍼부(202)의 버퍼 지연시간을 결정할 수 있다. 여기서, 수신 시간 차이는 영상 전송 장치(101)로부터 전송된 좌영상 스트림과 우영상 스트림이 영상 재생 장치(102)에 동시에 수신되지 않아서 발생될 수 있다.The buffer controller 203 may determine buffer delay times of the first buffer unit 201 and the second buffer unit 202. In this case, the buffer controller 203 may determine the buffer delay time between the first buffer unit 201 and the second buffer unit 202 using the difference in the reception time between the left video stream and the right video stream. In this case, the reception time difference may be generated because the left video stream and the right video stream transmitted from the video transmission device 101 are not simultaneously received by the video playback device 102.
그리고, 버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 계산할 수 있다. 일례로, 버퍼 제어부(203)는 동기 정보, 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 이용하여 수신 시간 차이를 계산할 수 있다. 동기 정보, 제1 타임스탬프 및 제2 타임스탬프의 추출 과정은 도 4에서 이미 설명한 바 있다.The buffer controller 203 may calculate a reception time difference between the left video stream and the right video stream. For example, the buffer controller 203 may calculate a reception time difference using the synchronization information, the first timestamp of the left video stream, and the second timestamp of the right video stream. Extraction of the synchronization information, the first timestamp, and the second timestamp have been described above with reference to FIG. 4.
만약 좌영상 스트림과 우영상 스트림이 동일한 기준 클럭을 사용하는 경우, 버퍼 제어부(203)는 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산할 수 있다. If the left video stream and the right video stream use the same reference clock, the buffer controller 203 may calculate the reception time difference using the time stamp difference between the first time stamp and the second time stamp.
그리고, 만약, 좌영상 스트림과 우영상 스트림이 서로 다른 기준 클럭을 사용하는 경우, 버퍼 제어부(203)는 동기 정보를 이용하여 제1 타임스탬프 또는 제2 타임스탬프 중 어느 하나를 변환함으로써 제1 타임스탬프와 제2 타임스탬프 간의 수신 시간 차이를 계산할 수 있다. 한편, 제1 타임스탬프 또는 제2 타임스탬프가 RTP 타임스탬프와 같이 랜덤 오프셋이 적용된 경우, 동기 정보를 이용하여 제1 타임스탬프 또는 제2 타임스탬프 중 어느 하나를 변환함으로써 제1 타임스탬프와 제2 타임스탬프 간의 수신 시간 차이를 계산할 수 있다. 구체적으로, 버퍼 제어부(203)는 동기 정보를 이용하여 제1 타임스탬프를 제2 타임스탬프와 동일한 형태로 변환하거나 또는 제2 타임스탬프를 제1 타임스탬프와 동일한 형태로 변환할 수 있다.If the left video stream and the right video stream use different reference clocks, the buffer controller 203 converts any one of the first timestamp and the second timestamp by using the synchronization information. The difference in reception time between the stamp and the second timestamp may be calculated. Meanwhile, when a random offset is applied to the first time stamp or the second time stamp, such as an RTP time stamp, the first time stamp and the second time stamp are converted by using either of the synchronization information and the first time stamp or the second time stamp. The difference in reception time between time stamps can be calculated. In detail, the buffer controller 203 may convert the first timestamp into the same form as the second timestamp or convert the second timestamp into the same form as the first timestamp using the synchronization information.
만약, 동기 정보가 타임스탬프의 페어 정보인 경우, 다음과 같이 변환될 수 있다.If the synchronization information is pair information of a timestamp, it may be converted as follows.
일례로, 버퍼 제어부(203)는 부가 영상의 스트림에 포함됨 액세스 유닛(M-AUn)의 RTP_Timestamp(RTP_Vn)와 동기 정보인 액세스 유닛의 RTP_Timestamp(RTP_Sync_V)간의 타임 스탬프 차이(RTD_V)를 계산한다. 그런 다음, 버퍼 제어부(203)는 계산된 타임 스탬프 차이(RTD_V)를 동기 기준이 되는 액세스 유닛의 PTS(PTS_Sync)와 더하고, 더한 결과에 2^32으로 모듈러(Modulo) 연산을 수행할 수 있다. 이러한 과정을 통해 버퍼 제어부(203)는 부가 영상의 스트림에 포함된 각 액세스 유닛의 RTP 타임 스탬프를 PCR 기준의 출력시점 계산이 가능한 형태의 타임 스탬프(PTS of M-AUn)로 변환할 수 있다.In one example, the buffer control section 203 calculates a time stamp difference (RTD_V) between the additional access is included in the stream of video unit (M-AU n) of RTP_Timestamp (RTP_V n) and synchronization information of the access unit RTP_Timestamp (RTP_Sync_V) of . Then, the buffer controller 203 may add the calculated time stamp difference RTD_V to the PTS (PTS_Sync) of the access unit as the synchronization reference, and perform a modulo operation at 2 ^ 32 as a result of the addition. Through this process, the buffer controller 203 may convert the RTP time stamp of each access unit included in the stream of the additional video into a time stamp (PTS of M-AU n ) capable of calculating an output time point based on PCR. .
만약 RTP_Vn이 RTP_Sync_V보다 작을 경우, 버퍼 제어부(203)는 타임 스탬프의 롤오버(Rollover) 현상을 방지하기 위해 RTD_V를 계산할 때 (RTP_Vn RTP_Sync_V) + 2^32을 이용한다. 만약 RTP_Vn이 RTP_Sync_V보다 크거나 같은 경우, 버퍼 제어부(203)는 RTD_V를 계산할 때 (RTP_Vn RTP_Sync_V) % 2^32를 이용한다.If RTP_V n is smaller than RTP_Sync_V, the buffer controller 203 uses (RTP_V n RTP_Sync_V) + 2 ^ 32 when calculating RTD_V to prevent the rollover of the time stamp. If RTP_Vn is greater than or equal to RTP_Sync_V, the buffer control unit 203 uses (RTP_V n RTP_Sync_V)% 2 ^ 32 when calculating RTD_V.
그리고, 동기 정보가 타임스탬프의 오프셋 정보인 경우, 다음과 같이 변환될 수 있다.If the synchronization information is offset information of a timestamp, it may be converted as follows.
3DTV 방송 서비스를 위한 좌영상 스트림과 우영상 스트림의 프레임 레이트과 타임 스탬프의 클럭 레이트가 서로 동일한 경우, 좌영상 스트림 및 우영상 스트림의 타임 스탬프 오프셋을 동기 정보로 이용할 수 있다. 예를 들어 고정 및 이동 융합형 3DTV 시스템에서 좌영상 스트림과 우영상 스트림의 프레임 레이트가 같고, MPEG-2 시스템 PTS와 MDTV 시스템 RTP 타임 스탬프의 클럭 레이트가 같다. 이에 따라, 타임 스탬프 오프셋 방식을 이용할 수 있으며, 타임 스탬프 오프셋 방식은 3DTV 서비스를 위해 임의의 동일 시점에 출력해야 하는 좌영상 스트림 및 우영상 스트림의 액세스 유닛에 대응하는 타임 스탬프 오프셋을 동기 정보로 이용한다.When the frame rate of the left video stream and the right video stream for the 3DTV broadcasting service and the clock rates of the time stamps are the same, time stamp offsets of the left video stream and the right video stream may be used as synchronization information. For example, in fixed and mobile converged 3DTV systems, the frame rates of the left video stream and the right video stream are the same, and the clock rates of the MPEG-2 system PTS and the MDTV system RTP time stamp are the same. Accordingly, a time stamp offset method may be used, and the time stamp offset method uses, as synchronization information, a time stamp offset corresponding to an access unit of a left video stream and a right video stream that should be output at any same point in time for a 3DTV service. .
오프셋 사인 비트가 0인 경우, 버퍼 제어부(203)는 우영상 스트림의 액세스 유닛(M-AUn)의 RTP_Timestamp(RTP_Vn)와 동기 기준이 되는 액세스 유닛의 타임 스탬프 오프셋을 더한 결과에 2^32으로 모듈러(Modulo) 연산을 수행할 수 있다. 그러면, 버퍼 제어부(203)는 우영상 스트림에 포함된 각 액세스 유닛의 PCR 기준의 출력시점 계산이 가능한 형태의 타임 스탬프(PTS of M-AUn)를 계산할 수 있다. 여기서, 오프셋 사인 비트가 0이라는 것은 타임 스탬프 오프셋이 양수임을 의미하고, 1이라는 것은 타임 스탬프 오프셋이 음수임을 의미한다.When the offset sign bit is 0, the buffer control unit 203 adds 2 ^ 32 to the result of adding the RTP_Timestamp (RTP_V n ) of the access unit (M-AU n ) of the right video stream to the time stamp offset of the access unit to be synchronized. Modulo operation can be performed. Then, the buffer controller 203 may calculate a time stamp (PTS of M-AU n ) in which the output time point of the PCR reference of each access unit included in the right image stream can be calculated. Here, the offset sign bit of 0 means that the time stamp offset is positive, and 1 means that the time stamp offset is negative.
만약 오프셋 사인 비트가 1이고, RTP_Vn이 타임 스탬프 오프셋보다 크거나 같은 경우, 버퍼 제어부(203)는 우영상 스트림에 포함된 액세스 유닛의 PTS를 계산할 때 RTP_Vn timestamp_offset 을 이용한다. 만약 오프셋 사인 비트가 1이고, RTP_Vn이 타임 스탬프 오프셋보다 작은 경우, 버퍼 제어부(203)는 우영상 스트림에 포함된 액세스 유닛의 PTS를 계산할 때 RTP_Vn timestamp_offset + 2^32를 이용한다.If the offset sign bit is 1 and RTP_V n is greater than or equal to the time stamp offset, the buffer control unit 203 uses RTP_V n timestamp_offset when calculating the PTS of the access unit included in the right video stream. If the offset sine bit is 1 and RTP_V n is smaller than the time stamp offset, the buffer controller 203 uses RTP_V n timestamp_offset + 2 ^ 32 when calculating the PTS of the access unit included in the right picture stream.
그리고, 버퍼 제어부(203)는 동기 정보를 이용하여 어느 한 쪽의 영상 스트림의 출력 시간 정보(타임스탬프, 프레임 식별번호, SMTPE timecode 등)를 다른 쪽의 영상 스트림의 출력 시간 정보로 변환함으로써 수신 시간 차이를 계산할 수 있다.Then, the buffer control unit 203 converts the output time information (time stamp, frame identification number, SMTPE timecode, etc.) of one video stream into output time information of the other video stream by using the synchronization information. The difference can be calculated.
아래는 수신 시간 차이를 계산하는 과정을 나타낸다. 방법 1은 동기 정보가 타임스탬프 페어인 경우를 나타내고, 방법 2는 동기 정보가 오프셋 정보인 경우를 나타낸다.The following shows the process of calculating the reception time difference. Method 1 shows the case where the synchronization information is a timestamp pair, and method 2 shows the case where the synchronization information is offset information.
(방법 1)(Method 1)
(i) 동기 정보: 좌영상 스트림의 타임스탬프와 우영상 스트림의 타임스탬프 페어 (좌: 100, 우: 200)(i) Sync information: Timestamp pair of left video stream and timestamp of right video stream (Left: 100, Right: 200)
(ii) 제1 버퍼부(201)와 제2 버퍼부(202)에 최근에 저장된 좌영상 스트림의 액세스 유닛 및 우영상 스트림의 액세스 유닛 각각의 타임스탬프: (좌: 500, 우: 800)(ii) Time stamps of the access unit of the left video stream and the access unit of the right video stream, which are recently stored in the first buffer unit 201 and the second buffer unit 202, respectively (left: 500, right: 800).
(iii) 우영상 스트림의 타임스탬프가 좌영상 스트림의 타임스탬프 형태로 변환된 결과: 800 - (200 - 100) = 700(iii) The result of converting the timestamp of the right video stream into the timestamp of the left video stream: 800-(200-100) = 700
(iv) 좌영상 스트림 타임스탬프와 및 변환된 우영상 스트림 타임스탬프 간의 수신 시간 차이: 500(좌) - 700(우) = -200 (iv) Difference in reception time between left video stream timestamp and converted right video stream timestamp: 500 (left)-700 (right) = -200
(v) 좌영상 스트림의 타임스탬프의 클럭 레이트가 100Hz라고 가정할 경우, -200/100 = -2 이므로, 좌영상 스트림이 우영상 스트림보다 2초 먼저 도착(v) Assuming that the clock rate of the timestamp of the left video stream is 100 Hz, since -200/100 = -2, the left video stream arrives 2 seconds before the right video stream.
(방법 2)(Method 2)
(i) 동기 정보: 좌영상 스트림과 우영상 스트림 간의 타임스탬프 오프셋: -100(i) Sync information: Timestamp offset between left video stream and right video stream: -100
(ii) 제1 버퍼부(201)와 제2 버퍼부(202)에 최근에 저장된 좌영상 스트림의 액세스 유닛 및 우영상 스트림의 액세스 유닛 각각의 타임스탬프: (좌: 500, 우: 800)(ii) Time stamps of the access unit of the left video stream and the access unit of the right video stream, which are recently stored in the first buffer unit 201 and the second buffer unit 202, respectively (left: 500, right: 800).
(iii) 우영상 스트림의 타임스탬프가 좌영상 스트림의 타임스탬프 형태로 변환된 결과: 800 + ( - 100) = 700(iii) The result of converting the timestamp of the right video stream into the timestamp of the left video stream: 800 + (-100) = 700
(iv) 좌영상 스트림 타임스탬프와 및 변환된 우영상 스트림 타임스탬프 간의 수신 시간 차이: 500(좌) - 700(우) = -200(iv) Difference in reception time between left video stream timestamp and converted right video stream timestamp: 500 (left)-700 (right) = -200
(v) 좌영상 스트림의 타임스탬프의 클럭 레이트가 100Hz라고 가정할 경우, -200/100 = -2 이므로, 좌영상 스트림이 우영상 스트림보다 2초 먼저 도착(v) Assuming that the clock rate of the timestamp of the left video stream is 100 Hz, since -200/100 = -2, the left video stream arrives 2 seconds before the right video stream.
좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 계산할 때, 디코딩 타임스탬프(DTS)가 아닌 출력 타임스탬프(PTS, RTP Timestamp)를 이용하는 경우 디코딩 순서와 버퍼 출력 순서가 일치하지 않을 수 있다. 이 경우, 버퍼 제어부(203)는 영상 스트림에서 연속된 B 프레임의 개수를 고려하여 버퍼 사이즈 및 출력 시간을 제어할 수 있다. 예를 들어, 영상 스트림에서 연속된 B 프레임의 개수가 3일 경우, 출력 타임스탬프에 따라 계산된 수신 시간 차이와 실제 좌영상 스트림 및 우영상 스트림의 프레임이 제1 버퍼부(201)와 제2 버퍼부(202)에 각각 입력되는 시간 차이는 최대 4까지 달라질 수 있다. 이 경우, 버퍼 제어부(203)는 앞서 계산된 수신 시간 차이에 4 프레임 전송 시간을 추가하여 오차에 대응할 수 있다.When calculating the reception time difference between the left video stream and the right video stream, when the output time stamps (PTS, RTP Timestamp) other than the decoding time stamp (DTS) are used, the decoding order and the buffer output order may not match. In this case, the buffer controller 203 may control the buffer size and the output time in consideration of the number of consecutive B frames in the video stream. For example, when the number of consecutive B frames in the video stream is 3, the first buffer unit 201 and the second video frame may include the received time difference calculated according to the output timestamp and the frames of the actual left and right video streams. A time difference input to each of the buffer units 202 may vary up to four. In this case, the buffer controller 203 may correspond to an error by adding a 4 frame transmission time to the previously calculated reception time difference.
또는 버퍼제어부(203)은 GOP 사이즈를 고려하여 버퍼 사이즈 및 출력 시간을 제어할 수 있다. 예를 들어, 버퍼의 출력 단위가 GOP 단위일 경우, 버퍼 제어부(203)는 앞서 계산된 수신 시간 차이에 GOP를 이루는 프레임 수만큼의 프레임 전송 시간을 추가하여 오차에 대응할 수 있다.Alternatively, the buffer controller 203 may control the buffer size and the output time in consideration of the GOP size. For example, when the output unit of the buffer is a GOP unit, the buffer controller 203 may correspond to an error by adding a frame transmission time equal to the number of frames constituting the GOP to the previously calculated reception time difference.
버퍼 제어부(203)는 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다. 일례로, 버퍼 제어부(203)는 버퍼에 저장된 액세스 유닛의 개수, 수신 시간 차이 및 영상 스트림의 프레임 레이트를 이용하여 좌영상 스트림과 우영상 스트림 간의 지연되는 프레임 개수를 계산하고, 계산된 프레임 개수에 따라 동적으로 설정되는 버퍼 사이즈를 결정할 수 있다.The buffer controller 203 may determine the buffer size by using a reception time difference between the left video stream and the right video stream. For example, the buffer controller 203 calculates the number of delayed frames between the left video stream and the right video stream by using the number of access units stored in the buffer, the difference in reception time, and the frame rate of the video stream. As a result, the buffer size that is dynamically set can be determined.
그리고, 버퍼 제어부(203)는 좌영상 스트림 또는 우영상 스트림의 고정 비트레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다. 또는 버퍼 제어부(203)는 좌영상 스트림 또는 우영상 스트림의 데이터 레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다.The buffer controller 203 may determine the buffer size by using a fixed bit rate and a reception time difference of the left video stream or the right video stream. Alternatively, the buffer controller 203 may determine the buffer size using a difference between the data rate and the reception time of the left video stream or the right video stream.
이 때, 수신 시간 차이를
Figure PCTKR2013003653-appb-I000001
라고 가정한다. 이하에서, 수신 시간 차이를 이용하여 버퍼 사이즈를 계산하는 과정을 설명한다.
At this time, the reception time difference
Figure PCTKR2013003653-appb-I000001
Assume that Hereinafter, a process of calculating the buffer size using the reception time difference will be described.
(방법 1) 제1 버퍼부(201)에 저장된 좌영상 스트림의 액세스 유닛의 개수와 제2 버퍼부(202)에 저장된 우영상 스트림의 액세스 유닛의 개수를 알 수 있는 경우(Method 1) When the number of access units of the left video stream stored in the first buffer unit 201 and the number of access units of the right video stream stored in the second buffer unit 202 are known
이 때, 영상 스트림의 프레임 레이트가 fr인 경우, 좌영상 스트림과 우영상 스트림 간에 지연되는 프레임의 개수는
Figure PCTKR2013003653-appb-I000002
이다. 즉, 버퍼 제어부(203)는 먼저 수신한 영상 스트림의
Figure PCTKR2013003653-appb-I000003
의 프레임을 버퍼에 저장하여 유지할 수 있다. 다시 말해서, 먼저 수신한 영상 스트림을 저장하는 버퍼의 사이즈는 나중에 수신하는 영상 스트림을 저장하는 버퍼의 사이즈보다
Figure PCTKR2013003653-appb-I000004
만큼 더 클 수 있다. 버퍼 사이즈는 동적으로 변할 수 있다.
In this case, when the frame rate of the video stream is fr, the number of frames delayed between the left video stream and the right video stream is
Figure PCTKR2013003653-appb-I000002
to be. That is, the buffer control unit 203 is the first of the received video stream
Figure PCTKR2013003653-appb-I000003
You can store frames in a buffer and keep them. In other words, the size of the buffer that stores the received video stream is larger than the size of the buffer that stores the received video stream.
Figure PCTKR2013003653-appb-I000004
Can be as large as The buffer size can change dynamically.
(방법 2) 제1 버퍼부(201)와 제2 버퍼부(202)가 ES 버퍼로서 고정 비트레이트를 사용하는 경우 (Method 2) When the first buffer section 201 and the second buffer section 202 use a fixed bit rate as the ES buffer
이 때, 고정 비트레이트가 br이면 버퍼 제어부(203)는 먼저 수신한 영상 스트림의 버퍼의 최대 사이즈를
Figure PCTKR2013003653-appb-I000005
로 유지할 수 있다.
At this time, if the fixed bit rate is br, the buffer controller 203 first determines the maximum size of the buffer of the received video stream.
Figure PCTKR2013003653-appb-I000005
Can be maintained.
(방법 3): 제1 버퍼부(201)와 제2 버퍼부(202)가 TS 버퍼로서 가변 비트레이트를 사용하는 경우(Method 3): When the first buffer section 201 and the second buffer section 202 use the variable bit rate as the TS buffer
이 때, 가변 비트레이트가 tbr이면, 버퍼 제어부(203)는 먼저 수신한 영상 스트림의 버퍼의 최대 사이즈를
Figure PCTKR2013003653-appb-I000006
로 유지할 수 있다.
At this time, if the variable bit rate is tbr, the buffer control unit 203 first determines the maximum size of the buffer of the received video stream.
Figure PCTKR2013003653-appb-I000006
Can be maintained.
일례로, 버퍼 제어부(203)는 제2 타임스탬프인 RTP 타임스탬프를 PCR(Program Clock Reference) 기반의 타임스탬프로 변환할 수 있다. 버퍼 제어부(203)는 PCR에 따라 변환된 RTP 타임스탬프와 PTS%2^32의 차이를 추출하고, 추출된 차이를 이용하여 버퍼 사이즈를 결정할 수 있다. 일례로, 버퍼 제어부(203)는 하기 수학식 1에 따라 버퍼 사이즈를 계산할 수 있다.For example, the buffer controller 203 may convert the RTP timestamp, which is the second timestamp, into a PCR based program timestamp. The buffer controller 203 may extract a difference between the RTP timestamp and PTS% 2 ^ 32 converted according to the PCR, and determine the buffer size using the extracted difference. For example, the buffer controller 203 may calculate a buffer size according to Equation 1 below.
Figure PCTKR2013003653-appb-I000007
Figure PCTKR2013003653-appb-I000007
여기서, timestamp_difference는 좌영상 스트림 또는 우영상 스트림의 타임스탬프 차이에 기초한 수신 시간 차이를 의미한다. 만약, PCR에 따라 변환된 RTP 타임스탬프가 PTS%2^32보다 큰 경우, 제2 버퍼부(202)의 버퍼 사이즈는 상기 수학식 1에 의해 결정되고, 제1 버퍼부(201)의 버퍼 사이즈는 VBV buffer 사이즈가 된다. 예를 들어, PCR에 따라 변환된 RTP 타임스탬프가 PTS%2^32보다 180,000만큼 큰 경우, 제2 버퍼부(202)의 버퍼 사이즈는 Buffer_size = (180,000 / 90,000) * 19.39Mbps + VBV buffer size = 38.78Mb + VBV buffer size로 결정될 수 있다.Here, timestamp_difference means a reception time difference based on a time stamp difference of a left video stream or a right video stream. If the RTP timestamp converted according to PCR is larger than PTS% 2 ^ 32, the buffer size of the second buffer unit 202 is determined by Equation 1, and the buffer size of the first buffer unit 201 is determined. Becomes the VBV buffer size. For example, when the RTP timestamp converted by PCR is 180,000 larger than PTS% 2 ^ 32, the buffer size of the second buffer unit 202 is Buffer_size = (180,000 / 90,000) * 19.39 Mbps + VBV buffer size = 38.78Mb + VBV buffer size can be determined.
유사한 방식으로, 버퍼 제어부(203)는 수신 시간 차이를 이용하여 제1 버퍼부(201)와 제2 버퍼부(202)의 출력 시점을 결정할 수 있다. 여기서, 출력 시점은 버퍼 지연 시간에 대응할 수 있다. 이 때, 출력 시점을 결정하는 방식은 버퍼 사이즈를 동적으로 결정하는 방식과 달리 고정 사이즈의 버퍼를 사용하는 경우에도 활용될 수 있다.In a similar manner, the buffer controller 203 may determine an output time point of the first buffer unit 201 and the second buffer unit 202 by using the reception time difference. Here, the output time point may correspond to the buffer delay time. In this case, the method of determining the output time point may be utilized even when using a fixed size buffer, unlike the method of dynamically determining the buffer size.
이 때, 버퍼 제어부(203)는 제1 버퍼부(201)가 제1 복호화부(204)에 기준 영상을 전달하는 출력 시점과 제2 버퍼부(202)가 제2 복호화부(205)에 부가 영상을 전달하는 출력 시점을 결정할 수 있다. 일례로, 버퍼 제어부(203)는 제1 버퍼부(201)에 가장 최근에 저장된 기준 영상의 프레임의 타임스탬프를 추출할 수 있다. 그리고, 버퍼 제어부(203)는 제2 버퍼부(202)에 가장 최근에 저장된 부가 영상의 프레임의 타임스탬프를 추출할 수 있다. At this time, the buffer control unit 203 outputs a point in time at which the first buffer unit 201 transfers the reference image to the first decoder unit 204 and the second buffer unit 202 is added to the second decoder unit 205. An output time point for delivering an image may be determined. For example, the buffer controller 203 may extract a time stamp of a frame of a reference image most recently stored in the first buffer unit 201. The buffer controller 203 may extract a time stamp of a frame of the additional image most recently stored in the second buffer unit 202.
이 때, 버퍼 제어부(203)는 제1 버퍼부(201)에 가장 최근에 저장된 기준 영상의 ATSC 메인 스트림의 GOP(Group of picture) 중 가장 첫번째 프레임의 PTS를 추출할 수 있다. 그리고, 버퍼 제어부(203)는 제2 버퍼부(202)에 가장 최근에 저장된 부가 영상의 M/H 스트림의 GOP 중 가장 첫번째 프레임의 RTP 타임스탬프를 추출할 수 있다. In this case, the buffer controller 203 may extract the PTS of the first frame of the group of picture (GOP) of the ATSC main stream of the reference video most recently stored in the first buffer unit 201. The buffer controller 203 may extract the RTP timestamp of the first frame of the GOPs of the M / H stream of the additional video most recently stored in the second buffer unit 202.
여기서, PTS(Presentation Timestamp: 프리젠테이션 타임 스탬프)는 ATSC 메인 방송망에서 오디오/비디오 액세스 유닛(AU)의 프리젠테이션(Presentation) 시간에 대한 동기를 수행하기 위해 PES 헤더에 실어 전송하는 33-bit 타임 스탬프를 의미한다. 이 때, PES(Packetized Elementary Stream: 패킷화된 기본 스트림)는 ATSC 메인 방송망에서 오디오/비디오 ES(Elementary Stream)의 전송을 위해 각 ES를 특정 길이로 분할한 패킷을 의미한다. 이때, PES의 헤더는 PTS를 포함한다. 한편, RTP(Realtime Transport Protocol: 실시간 전송 프로토콜)은 IP망을 통해 오디오/비디오 데이터를 전송하기 위한 규격을 의미한다.Here, the PTS (Presentation Timestamp) is a 33-bit time stamp transmitted on a PES header to synchronize the presentation time of the audio / video access unit (AU) in the ATSC main broadcasting network. Means. In this case, PES (Packetized Elementary Stream) refers to a packet obtained by dividing each ES into a specific length for transmission of an audio / video elementary stream (ES) in an ATSC main broadcasting network. At this time, the header of the PES includes the PTS. Meanwhile, RTP (Realtime Transport Protocol) refers to a standard for transmitting audio / video data through an IP network.
버퍼 제어부(203)는 가장 최근에 제1 버퍼부(201) 및 제2 버퍼부(202)에 입력된 액세스 유닛에서 추출한 타임스탬프(RTP Timestamp 및 PTS) 정보를 기반으로, PCR에 따라 변환된 RTP 타임스탬프와 PTS%2^32를 비교하여, 제1 버퍼부(201) 및 제2 버퍼부(202)의 버퍼 지연 시간을 결정할 수 있다. 일례로, PCR에 따라 변환된 RTP 타임스탬프가 PTS%2^32보다 180,000이 작은 경우, RTP 타임스탬프 기반의 우영상 스트림이 PTS 기반의 좌영상 스트림보다 180,000(차이)/90,000(clock rate) 시간만큼 빨리 수신되고 있음을 의미한다. 그래서, 버퍼 제어부(203)는 우영상 스트림을 2초 동안 제2 버퍼부(202)에 저장한 이후에 제2 복호화부(205)로 출력함으로써 좌영상 스트림 및 우영상 스트림의 ES를 동시에 제1 복호화부(204)와 제2 복호화부(205)에 전달할 수 있다. The buffer control unit 203 converts the RTP converted according to PCR based on the timestamp (RTP Timestamp and PTS) information extracted from the access unit most recently input to the first buffer unit 201 and the second buffer unit 202. By comparing the time stamp and PTS% 2 ^ 32, buffer delay times of the first buffer unit 201 and the second buffer unit 202 may be determined. For example, when the RTP timestamp converted by PCR is 180,000 smaller than PTS% 2 ^ 32, the RTP timestamp-based right video stream is 180,000 (difference) / 90,000 (clock rate) time than the PTS-based left video stream. It means that it is being received as soon as possible. Therefore, the buffer control unit 203 stores the right video stream in the second buffer unit 202 for 2 seconds and then outputs the ES to the left video stream and the right video stream simultaneously by outputting it to the second decoder 205. The data may be transmitted to the decoder 204 and the second decoder 205.
도 6은 본 발명의 일실시예에 따라 기준 클럭을 보정하거나 또는 타임스탬프를 보정하는 과정을 설명하는 도면이다.6 is a diagram illustrating a process of correcting a reference clock or correcting a time stamp according to one embodiment of the present invention.
도 6을 참고하면, T1은 좌영상 스트림의 액세스 유닛(AU1)을 수신하는 시간을 나타내고, T2는 우영상 스트림의 액세스 유닛(AU1)을 수신하는 시간을 나타낸다. 그리고,
Figure PCTKR2013003653-appb-I000008
는 T2-T1을 나타낸다. 도 6에서 T2가 T1보다 크며, 이는 좌영상 스트림이 우영상 스트림보다 먼저 영상 재생 장치(102)에 수신되었음을 나타낸다. 한편, 기준 클럭(reference clock)은 좌영상 스트림의 전송망을 통해 시그널링되었다고 가정한다.
Referring to FIG. 6, T1 represents a time for receiving the access unit AU1 of the left video stream, and T2 represents a time for receiving an access unit AU1 of the right video stream. And,
Figure PCTKR2013003653-appb-I000008
Represents T2-T1. In FIG. 6, T2 is larger than T1, which indicates that the left video stream is received by the video reproducing apparatus 102 before the right video stream. On the other hand, it is assumed that the reference clock is signaled through the transmission network of the left video stream.
그러면, 기준 클럭은 하기 수학식 2에 따라 보정될 수 있다.Then, the reference clock may be corrected according to Equation 2 below.
Figure PCTKR2013003653-appb-I000009
Figure PCTKR2013003653-appb-I000009
여기서, 기준 클럭 Y는 보정된 기준 클럭을 의미하고, 기준 클럭 X는 원래 기준 클럭을 의미한다. 수학식 2에 의하면, 3DTV 서비스를 제공하는 영상 재생 장치(102)는 기준 클럭 X에 수신 시간 차이 및 클럭 레이트가 조합된 결과를 뺀 기준 클럭 Y를 이용할 수 있다. 예를 들어, 기준 클럭 X가 127,000,000이고 수신 시간 차이가 1초이며 기준 클럭의 클럭 레이트가 27,000,000Hz 이라고 가정할 경우, 기준 클럭 X인 PCR을 1초 이전으로 보정한 기준 클럭 Y=127,000,000 - 27,000,000 = 100,000,000를 이용할 수 있다.Here, the reference clock Y means the corrected reference clock, and the reference clock X means the original reference clock. According to Equation 2, the image reproducing apparatus 102 that provides the 3DTV service may use the reference clock Y obtained by subtracting the result of combining the reception time difference and the clock rate with the reference clock X. For example, suppose that the reference clock X is 127,000,000, the reception time difference is 1 second, and the clock rate of the reference clock is 27,000,000 Hz. The reference clock Y = 127,000,000-27,000,000 = corrected PCR of the reference clock X before 1 second. 100,000,000 is available.
수학식 2에 따라 T2를 나타내는 기준 클럭을 보정한 기준 클럭은 T1이다. 즉, 기준 클럭을 보정하면, 어느 한쪽의 영상 스트림이 수신된 이후에 나머지 한쪽의 영상 스트림이 수신될때까지의 시간만큼 기준 클럭을 지연시키는 효과가 발생한다.According to Equation 2, the reference clock corrected for the reference clock representing T2 is T1. That is, when the reference clock is corrected, an effect of delaying the reference clock by the time from when one video stream is received until the other video stream is received.
우영상 스트림의 출력 시간을 나타내는 PTS, DTS, RTP timestamp 등은 시그널링된 동기 정보를 이용하여 좌영상 스트림의 기준 클럭을 이용할 수 있는 형태로 변경될 수 있다. 그리고, 변경된 우영상 스트림의 시간 정보와 보정된 기준 클럭은 우영상 스트림의 디코딩과 버퍼 출력에 이용될 수 있다. 예를 들어, 우영상 스트림의 액세스 유닛 1(AU1)의 타임스탬프를 변환한 결과가 T1이므로, 우영상 스트림의 액세스 유닛 1(AU1)은 좌영상 스트림의 액세스 유닛 1(AU1)과 동일한 시점에 출력될 수 있다. 한편, T1이 T2보다 큰 경우, 좌영상 스트림의 수신 시점에 이미 우영상 스트림이 버퍼에 저장되어 있으므로, 기준 클럭의 보정은 불필요할 수 있다.The PTS, DTS, and RTP timestamp indicating the output time of the right video stream may be changed to a form in which a reference clock of the left video stream may be used using the signaled synchronization information. The time information of the changed right video stream and the corrected reference clock may be used for decoding and outputting a buffer of the right video stream. For example, since the result of converting the time stamp of the access unit 1 (AU1) of the right video stream is T1, the access unit 1 (AU1) of the right video stream is the same as the access unit 1 (AU1) of the left video stream. Can be output. On the other hand, when T1 is larger than T2, since the right video stream is already stored in the buffer at the time of receiving the left video stream, correction of the reference clock may be unnecessary.
한편, 기준클럭의 보정 방식 대신 타임스탬프의 보정을 통해 수신 지연에 대응하는 경우, 좌우영상의 타임스탬프는 하기 수학식 3에 따라 보정될 수 있다.On the other hand, when the reception delay is corrected by correcting the time stamp instead of the correction method of the reference clock, the time stamp of the left and right images may be corrected according to Equation 3 below.
Figure PCTKR2013003653-appb-I000010
Figure PCTKR2013003653-appb-I000010
여기서, 프레임 시간 정보 Y는 보정된 타임스탬프를 의미하고, 프레임 시간 정보 X는 원래 타임스탬프를 의미한다. 기준 클럭을 보정하는 대신, 타임스탬프를 보정하면 전송된 기준 클럭을 그대로 활용할 수 있다. 구체적으로, 좌영상 스트림과 우영상 스트림의 액세스 유닛에 관련된 모든 타임스탬프(예: PTS, DTS, RTP Timestamp)등은 수신 시간 차이만큼 추가되어 보정될 필요가 있다. 예를 들어, 수신 시간 차이가 1초이고, 비디오 스트림의 PTS, DTS, RTP 타임스탬프의 클럭 레이트가 모두 90,000 Hz인 경우, 영상 재생 장치(102)는 원래 타임스탬프에 90,000을 더함으로써 도출된 보정된 타임스탬프를 이용할 수 있다. Herein, the frame time information Y means a corrected time stamp, and the frame time information X means an original time stamp. Instead of calibrating the reference clock, you can correct the timestamp to use the transmitted reference clock. Specifically, all time stamps (eg, PTS, DTS, RTP Timestamp) related to the access unit of the left video stream and the right video stream need to be corrected by adding the received time difference. For example, when the reception time difference is 1 second and the clock rates of the PTS, DTS, and RTP time stamps of the video stream are all 90,000 Hz, the video reproducing apparatus 102 corrects the derived result by adding 90,000 to the original time stamp. Time stamps are available.
도 6에서 타임스탬프를 보정하는 경우, T1을 나타내는 프레임 시간 정보를 보정한 결과는 T2를 나타낸다. 즉, 프레임 시간 정보의 보정은 어느 한쪽의 영상 스트림이 수신된 이후에 나머지 한쪽의 영상 스트림이 수신될 때까지의 시간만큼 프레임 시간 정보가 지연되는 효과가 있다. 앞서 설명한 예에서, 우영상 스트림의 프레임 시간 정보인 PTS, DTS, RTP Timestamp 등은 시그널링된 동기 정보를 이용하여 좌영상 스트림의 기준 클럭을 이용할 수 있는 형태로 변경되고, 변경된 타임스탬프와 원본 기준 클럭(좌영상 기준 클럭)은 우영상 스트림의 디코딩과 버퍼 출력시에 활용될 수 있다. 여기서, 원본 기준 클럭은 좌영상 스트림의 기준 클럭을 의미한다. 그리고, T1이 T2보다 큰 경우, 좌영상 스트림의 수신 시점에 우영상 스트림이 이미 버퍼에 저장되어 있으므로, 프레임 시간 정보의 보정은 불필요할 수 있다.In the case of correcting the time stamp in FIG. 6, the result of correcting the frame time information indicating T1 represents T2. That is, the correction of the frame time information has the effect that the frame time information is delayed by the time from when one video stream is received until the other video stream is received. In the above-described example, the frame time information of the right video stream, PTS, DTS, RTP Timestamp, etc., is changed into a form in which the reference clock of the left video stream can be used by using the signaled synchronization information, and the changed time stamp and the original reference clock are used. (Left video reference clock) can be utilized for decoding the right video stream and outputting the buffer. Here, the original reference clock refers to the reference clock of the left video stream. When T1 is larger than T2, since the right video stream is already stored in the buffer at the time of receiving the left video stream, correction of the frame time information may be unnecessary.
도 7은 본 발명의 일실시예에 따라 버퍼 사이즈를 제어하는 과정을 도시한 플로우차트이다.7 is a flowchart illustrating a process of controlling a buffer size according to an embodiment of the present invention.
단계(701)에서, 영상 재생 장치(102)는 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득할 수 있다. 일례로, 영상 재생 장치(102)는 임의의 특정 시점에서 동시에 출력되어야 하는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 포함하는 타임스탬프 페어 정보를 포함하는 동기 정보를 획득할 수 있다. 그리고, 영상 재생 장치(102)는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프 간의 오프셋 정보를 포함하는 동기 정보를 획득할 수 있다.In operation 701, the image reproducing apparatus 102 may acquire synchronization information between the left image stream and the right image stream. For example, the image reproducing apparatus 102 obtains synchronization information including timestamp pair information including a first timestamp of a left video stream and a second timestamp of a right video stream, which should be simultaneously output at any particular point in time. can do. In addition, the image reproducing apparatus 102 may obtain synchronization information including offset information between the first timestamp of the left video stream and the second timestamp of the right video stream.
단계(702)에서, 영상 재생 장치(102)는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출할 수 있다. 일례로, 영상 재생 장치(102)는 동일 시점에 수신한 좌영상 스트림의 액세스 유닛 및 우영상 스트림의 액세스에 기초하여 제1 타임 스탬프 및 제2 타임스탬프를 추출할 수 있다. 또는, 영상 재생 장치(102)는 역다중화를 통해 근접한 시점에 추출한 좌영상 스트림의 제1 타임스탬프와 우영상 스트림의 제2 타임스탬프를 추출할 수 있다.In operation 702, the video reproducing apparatus 102 may extract a first timestamp of the left video stream and a second timestamp of the right video stream. For example, the image reproducing apparatus 102 may extract the first time stamp and the second time stamp based on accesses of the left video stream and the right video stream received at the same time. Alternatively, the image reproducing apparatus 102 may extract the first timestamp of the left video stream and the second timestamp of the right video stream extracted at a close time point through demultiplexing.
단계(703)에서, 영상 재생 장치(102)는 제1 타임스탬프, 제2 타임스탬프 및 동기 정보를 이용하여 상기 좌영상 스트림과 우영상 스트림 간 수신 시간 차이를 계산할 수 있다. 일례로, 만약 좌영상 스트림과 우영상 스트림이 동일한 기준 클럭을 사용하는 경우, 영상 재생 장치(102)는 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산할 수 있다. 그리고, 만약, 좌영상 스트림과 우영상 스트림이 다른 기준 클럭을 사용하거나 또는 랜덤 오프셋이 적용되는 경우, 영상 재생 장치(102)는 동기 정보를 이용하여 제1 타임스탬프 또는 제2 타임스탬프 중 어느 하나를 변환하고 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산할 수 있다.In operation 703, the video reproducing apparatus 102 may calculate a difference in reception time between the left video stream and the right video stream using a first time stamp, a second time stamp, and synchronization information. For example, if the left video stream and the right video stream use the same reference clock, the image reproducing apparatus 102 may calculate the reception time difference using the time stamp difference between the first time stamp and the second time stamp. . If the left video stream and the right video stream use different reference clocks or random offsets are applied, the video reproducing apparatus 102 uses either the first time stamp or the second time stamp using the synchronization information. And convert the received time difference using the time stamp difference between the first time stamp and the second time stamp.
단계(704)에서, 영상 재생 장치(102)는 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다. 일례로, 영상 재생 장치(102)는 버퍼에 저장된 액세스 유닛의 개수, 수신 시간 차이 및 영상 스트림의 프레임 레이트를 이용하여 좌영상 스트림과 우영상 스트림 간의 지연되는 프레임 개수를 계산하고, 계산된 프레임 개수에 따라 동적으로 설정되는 버퍼 사이즈를 결정할 수 있다. 다른 일례로, 영상 재생 장치(102)는 좌영상 스트림 또는 우영상 스트림의 고정 비트레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다. 또 다른 일례로, 영상 재생 장치(102)는 좌영상 스트림 또는 우영상 스트림의 데이터 레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정할 수 있다.In operation 704, the image reproducing apparatus 102 may determine the buffer size by using the reception time difference. For example, the image reproducing apparatus 102 calculates the number of delayed frames between the left image stream and the right image stream by using the number of access units stored in the buffer, the difference in reception time, and the frame rate of the video stream, and the calculated number of frames. You can determine the dynamically set buffer size. As another example, the image reproducing apparatus 102 may determine the buffer size by using a fixed bit rate and a reception time difference of the left image stream or the right image stream. As another example, the image reproducing apparatus 102 may determine the buffer size by using a difference between the data rate and the reception time of the left video stream or the right video stream.
도 8은 본 발명의 일실시예에 따라 버퍼 지연 시간을 결정하는 과정을 도시한 플로우차트이다.8 is a flowchart illustrating a process of determining a buffer delay time according to an embodiment of the present invention.
단계(801)에서, 영상 재생 장치(102)는 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득할 수 있다. 일례로, 영상 재생 장치(102)는 임의의 특정 시점에서 동시에 출력되어야 하는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 포함하는 타임스탬프 페어 정보를 포함하는 동기 정보를 획득할 수 있다. 그리고, 영상 재생 장치(102)는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프 간의 오프셋 정보를 포함하는 동기 정보를 획득할 수 있다.In operation 801, the image reproducing apparatus 102 may acquire synchronization information between the left image stream and the right image stream. For example, the image reproducing apparatus 102 obtains synchronization information including timestamp pair information including a first timestamp of a left video stream and a second timestamp of a right video stream, which should be simultaneously output at any particular point in time. can do. In addition, the image reproducing apparatus 102 may obtain synchronization information including offset information between the first timestamp of the left video stream and the second timestamp of the right video stream.
단계(802)에서, 영상 재생 장치(102)는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출할 수 있다. 일례로, 영상 재생 장치(102)는 동일 시점에 수신한 좌영상 스트림의 액세스 유닛 및 우영상 스트림의 액세스 유닛에 기초하여 제1 타임 스탬프 및 제2 타임스탬프를 추출할 수 있다. 또는, 영상 재생 장치(102)는 역다중화를 통해 근접한 시점에 추출한 좌영상 스트림의 제1 타임스탬프와 우영상 스트림의 제2 타임스탬프를 추출할 수 있다.In operation 802, the image reproducing apparatus 102 may extract a first timestamp of the left video stream and a second timestamp of the right video stream. For example, the image reproducing apparatus 102 may extract the first time stamp and the second time stamp based on the access unit of the left video stream and the access unit of the right video stream received at the same time. Alternatively, the image reproducing apparatus 102 may extract the first timestamp of the left video stream and the second timestamp of the right video stream extracted at a close time point through demultiplexing.
단계(803)에서, 영상 재생 장치(102)는 제1 타임스탬프, 제2 타임스탬프 및 동기 정보를 이용하여 상기 좌영상 스트림과 우영상 스트림 간 수신 시간 차이를 계산할 수 있다. 일례로, 만약 좌영상 스트림과 우영상 스트림이 동일한 기준 클럭을 사용하는 경우, 영상 재생 장치(102)는 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산할 수 있다. 그리고, 만약, 좌영상 스트림과 우영상 스트림이 다른 기준 클럭을 사용하거나 또는 랜덤 오프셋이 적용되는 경우, 영상 재생 장치(102)는 동기 정보를 이용하여 제1 타임스탬프 또는 제2 타임스탬프 중 어느 하나를 변환하고 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산할 수 있다.In operation 803, the image reproducing apparatus 102 may calculate a difference in reception time between the left video stream and the right video stream using a first time stamp, a second time stamp, and synchronization information. For example, if the left video stream and the right video stream use the same reference clock, the image reproducing apparatus 102 may calculate the reception time difference using the time stamp difference between the first time stamp and the second time stamp. . If the left video stream and the right video stream use different reference clocks or random offsets are applied, the video reproducing apparatus 102 uses either the first time stamp or the second time stamp using the synchronization information. And convert the received time difference using the time stamp difference between the first time stamp and the second time stamp.
단계(804)에서, 영상 재생 장치(102)는 수신 시간 차이를 이용하여 버퍼 지연 시간을 결정할 수 있다. 일례로, 영상 재생 장치(102)는 좌영상 스트림이 우영상 스트림보다 먼저 수신된 경우, 수신 시간 차이만큼 우영상 스트림의 버퍼 지연 시간을 증가시킬 수 있다. 그리고, 영상 재생 장치(102)는 우영상 스트림이 좌영상 스트림보다 먼저 수신된 경우, 수신 시간 차이만큼 좌영상 스트림의 버퍼 지연 시간을 증가시킬 수 있다.In operation 804, the image reproducing apparatus 102 may determine the buffer delay time by using the reception time difference. For example, when the left image stream is received before the right image stream, the image reproducing apparatus 102 may increase the buffer delay time of the right image stream by a difference in the reception time. In addition, when the right video stream is received before the left video stream, the video reproducing apparatus 102 may increase the buffer delay time of the left video stream by a difference in the reception time.
도 9는 본 발명의 일실시예에 따라 기준 클럭을 보정하는 과정을 도시한 플로우차트이다.9 is a flowchart illustrating a process of calibrating a reference clock according to an embodiment of the present invention.
단계(901)에서, 영상 재생 장치(102)는 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산할 수 있다.In operation 901, the image reproducing apparatus 102 may calculate a reception time difference between the access unit of the left image stream and the access unit of the right image stream.
단계(902)에서, 영상 재생 장치(102)는 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림 중 먼저 수신된 영상 스트림에 시그널링된 기준 클럭을 보정할 수 있다. 일례로, 영상 재생 장치(102)는 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 기준 클럭을 보정할 수 있다.In operation 902, the image reproducing apparatus 102 may correct the reference clock signaled to the first received image stream among the left image stream and the right image stream by using the reception time difference. For example, the image reproducing apparatus 102 may correct the reference clock by using a result of applying a reception time difference to the clock rate of the reference clock.
도 10은 본 발명의 일실시예에 따라 타임스탬프를 보정하는 과정을 도시한 도면이다.10 is a diagram illustrating a process of correcting a time stamp according to one embodiment of the present invention.
단계(1001)에서, 영상 재생 장치(102)는 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산할 수 있다.In operation 1001, the image reproducing apparatus 102 may calculate a reception time difference between the access unit of the left video stream and the access unit of the right video stream.
단계(1002)에서, 영상 재생 장치(102)는 수신 시간 차이를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정할 수 있다. 일례로, 영상 재생 장치(102)는 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정할 수 있다.In operation 1002, the image reproducing apparatus 102 may correct the first timestamp of the left video stream and the second timestamp of the right video stream by using the reception time difference. For example, the image reproducing apparatus 102 may correct the first timestamp of the left video stream and the second timestamp of the right video stream by using a result of applying a reception time difference to the clock rate of the reference clock.
도 11은 본 발명의 일실시예에 따라 좌영상 스트림과 우영상 스트림을 동기화하는 과정을 도시한 도면이다.11 is a diagram illustrating a process of synchronizing a left video stream and a right video stream according to an embodiment of the present invention.
단계(1101)에서, 영상 재생 장치(102)는 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득할 수 있다.In operation 1101, the image reproducing apparatus 102 may acquire synchronization information between the left image stream and the right image stream.
단계(1102)에서, 영상 재생 장치(102)는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출할 수 있다.In operation 1102, the image reproducing apparatus 102 may extract a first timestamp of the left video stream and a second timestamp of the right video stream.
단계(1103)에서, 영상 재생 장치(102)는 동기 정보를 이용하여 제1 타임스탬프 및 제2 타임스탬프 중 적어도 하나를 기준 클럭에 대응되도록 변환할 수 있다.In operation 1103, the image reproducing apparatus 102 may convert at least one of the first time stamp and the second time stamp to correspond to the reference clock by using the synchronization information.
단계(1104)에서, 영상 재생 장치(102)는 기준 클럭에 따라 좌영상 스트림과 우영상 스트림을 매칭시켜 동기화할 수 있다.In operation 1104, the image reproducing apparatus 102 may match and synchronize the left image stream and the right image stream according to the reference clock.
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. Methods according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

Claims (20)

  1. 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득하는 단계;Obtaining synchronization information between the left video stream and the right video stream;
    좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계;Extracting a first timestamp of the left video stream and a second timestamp of the right video stream;
    상기 제1 타임스탬프, 제2 타임스탬프 및 동기 정보를 이용하여 상기 좌영상 스트림과 우영상 스트림 간 수신 시간 차이를 계산하는 단계; 및Calculating a reception time difference between the left video stream and the right video stream using the first timestamp, the second timestamp, and the synchronization information; And
    상기 수신 시간 차이를 이용하여 버퍼 사이즈를 결정하는 단계Determining a buffer size using the reception time difference
    를 포함하는 영상 재생 장치의 버퍼 제어 방법.A buffer control method of an image reproducing apparatus comprising a.
  2. 제1항에 있어서,The method of claim 1,
    상기 동기 정보를 획득하는 단계는,Acquiring the synchronization information,
    임의의 특정 시점에서 동시에 출력되어야 하는 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 포함하는 타임스탬프 페어 정보를 포함하는 동기 정보를 획득하는 영상 재생 장치의 버퍼 제어 방법.A method of controlling a buffer of a video reproducing apparatus, comprising: synchronizing information including timestamp pair information including a first timestamp of a left video stream and a second timestamp of a right video stream to be output simultaneously at any particular time;
  3. 제1항에 있어서,The method of claim 1,
    상기 동기 정보를 획득하는 단계는,Acquiring the synchronization information,
    좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프 간의 오프셋 정보를 포함하는 동기 정보를 획득하는 영상 재생 장치의 버퍼 제어 방법.A buffer control method of a video reproducing apparatus for obtaining synchronization information including offset information between a first timestamp of a left video stream and a second timestamp of a right video stream.
  4. 제1항에 있어서,The method of claim 1,
    상기 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계는,Extracting the first time stamp of the left video stream and the second time stamp of the right video stream,
    동일 시점에 수신한 좌영상 스트림의 액세스 유닛 및 우영상 스트림의 액세스 유닛 중 가장 최근에 저장된 액세스 유닛에 기초하여 제1 타임 스탬프 및 제2 타임스탬프를 추출하는 영상 재생 장치의 버퍼 제어 방법.A buffer control method of a video reproducing apparatus for extracting a first time stamp and a second time stamp based on a most recently stored access unit of an access unit of a left video stream and an access unit of a right video stream received at the same time.
  5. 제1항에 있어서,The method of claim 1,
    상기 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계는,Extracting the first time stamp of the left video stream and the second time stamp of the right video stream,
    역다중화를 통해 근접한 시점에 추출한 좌영상 스트림의 제1 타임스탬프와 우영상 스트림의 제2 타임스탬프를 추출하는 영상 재생 장치의 버퍼 제어 방법.A buffer control method of a video reproducing apparatus, which extracts a first timestamp of a left video stream and a second timestamp of a right video stream extracted at a close time point through demultiplexing.
  6. 제1항에 있어서,The method of claim 1,
    상기 수신 시간 차이를 계산하는 단계는,The step of calculating the difference in reception time,
    만약 좌영상 스트림과 우영상 스트림이 동일한 기준 클럭을 사용하는 경우, 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산하고,If the left video stream and the right video stream use the same reference clock, the difference in reception time is calculated using the time stamp difference between the first time stamp and the second time stamp.
    만약, 좌영상 스트림과 우영상 스트림이 다른 기준 클럭을 사용하거나 또는 랜덤 오프셋이 적용되는 경우, 동기 정보를 이용하여 제1 타임스탬프 또는 제2 타임스탬프 중 어느 하나를 변환하고 제1 타임스탬프와 제2 타임스탬프 간의 타임스탬프 차이를 이용하여 수신 시간 차이를 계산하는 영상 재생 장치의 버퍼 제어 방법.If the left video stream and the right video stream use different reference clocks or random offsets are applied, one of the first time stamp and the second time stamp is converted by using the synchronization information, and the first time stamp and the first time stamp are used. 2. A buffer control method of a video reproducing apparatus for calculating a difference in reception time using a time stamp difference between two timestamps.
  7. 제1항에 있어서,The method of claim 1,
    상기 버퍼 사이즈를 결정하는 단계는,Determining the buffer size,
    버퍼에 저장된 액세스 유닛의 개수, 수신 시간 차이 및 영상 스트림의 프레임 레이트를 이용하여 좌영상 스트림과 우영상 스트림 간의 지연되는 프레임 개수를 계산하고, 계산된 프레임 개수에 따라 동적으로 설정되는 버퍼 사이즈를 결정하는 영상 재생 장치의 버퍼 제어 방법.The number of delayed frames between the left video stream and the right video stream is calculated using the number of access units stored in the buffer, the difference in reception time, and the frame rate of the video stream, and the buffer size dynamically set according to the calculated number of frames is determined. A method of controlling a buffer of a video reproducing apparatus.
  8. 제1항에 있어서,The method of claim 1,
    상기 버퍼 사이즈를 결정하는 단계는,Determining the buffer size,
    상기 좌영상 스트림 또는 우영상 스트림의 고정 비트레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정하는 영상 재생 장치의 버퍼 제어 방법.The buffer control method of the image reproducing apparatus for determining the buffer size by using the fixed bit rate and the reception time difference of the left or right video stream.
  9. 제1항에 있어서,The method of claim 1,
    상기 버퍼 사이즈를 결정하는 단계는,Determining the buffer size,
    상기 좌영상 스트림 또는 우영상 스트림의 데이터 레이트와 수신 시간 차이를 이용하여 버퍼 사이즈를 결정하는 영상 재생 장치의 버퍼 제어 방법.The buffer control method of the image reproducing apparatus for determining the buffer size by using the difference between the data rate and the reception time of the left video stream or right video stream.
  10. 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득하는 단계;Obtaining synchronization information between the left video stream and the right video stream;
    좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계;Extracting a first timestamp of the left video stream and a second timestamp of the right video stream;
    상기 제1 타임스탬프, 제2 타임스탬프 및 동기 정보를 이용하여 상기 좌영상 스트림과 우영상 스트림 간 수신 시간 차이를 계산하는 단계; 및Calculating a reception time difference between the left video stream and the right video stream using the first timestamp, the second timestamp, and the synchronization information; And
    상기 수신 시간 차이를 이용하여 버퍼 지연 시간을 결정하는 단계Determining a buffer delay time by using the reception time difference
    를 포함하는 영상 재생 장치의 버퍼 제어 방법.A buffer control method of an image reproducing apparatus comprising a.
  11. 제10항에 있어서,The method of claim 10,
    상기 버퍼 지연 시간을 결정하는 단계는,Determining the buffer delay time,
    우영상이 좌영상보다 먼저 수신된 경우, 수신 시간 차이만큼 우영상 스트림의 버퍼 지연 시간을 증가시키고,If the right video is received before the left video, the buffer delay time of the right video stream is increased by the difference in the reception time.
    좌영상 스트림이 우영상 스트림보다 먼저 수신된 경우, 수신 시간 차이만큼 좌영상 스트림의 버퍼 지연 시간을 증가시키는 영상 재생 장치의 버퍼 제어 방법.If the left video stream is received before the right video stream, the buffer control method of the video playback apparatus to increase the buffer delay time of the left video stream by the difference in the reception time.
  12. 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산하는 단계; 및Calculating a reception time difference between the access unit of the left video stream and the access unit of the right video stream; And
    상기 수신 시간 차이를 이용하여 좌영상 스트림과 우영상 스트림 중 먼저 수신된 영상 스트림에 시그널링된 기준 클럭을 보정하는 단계Correcting a reference clock signaled to a first received video stream among a left video stream and a right video stream by using the reception time difference
    를 포함하는 영상 재생 장치의 클럭 보정 방법.Clock correction method of the image reproducing apparatus comprising a.
  13. 제12항에 있어서,The method of claim 12,
    상기 기준 클럭을 보정하는 단계는,Correcting the reference clock,
    상기 기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 기준 클럭을 보정하는 영상 재생 장치의 클럭 보정 방법.And correcting the reference clock by using a result of applying a reception time difference to the clock rate of the reference clock.
  14. 좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 계산하는 단계; 및Calculating a reception time difference between the access unit of the left video stream and the access unit of the right video stream; And
    상기 수신 시간 차이를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정하는 단계Correcting a first timestamp of a left video stream and a second timestamp of a right video stream by using the reception time difference.
    를 포함하는 영상 재생 장치의 타임스탬프 보정 방법.Time stamp correction method of the video playback device comprising a.
  15. 제14항에 있어서,The method of claim 14,
    상기 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정하는 단계는,Correcting the first timestamp of the left video stream and the second timestamp of the right video stream,
    기준 클럭의 클럭 레이트에 수신 시간 차이를 적용한 결과를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정하는 영상 재생 장치의 타임스탬프 보정 방법.A method of correcting a time stamp of a video reproducing apparatus for correcting a first timestamp of a left video stream and a second timestamp of a right video stream using a result of applying a reception time difference to a clock rate of a reference clock.
  16. 좌영상 스트림과 우영상 스트림 간의 동기 정보를 획득하는 단계;Obtaining synchronization information between the left video stream and the right video stream;
    좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프를 추출하는 단계;Extracting a first timestamp of the left video stream and a second timestamp of the right video stream;
    동기 정보를 이용하여 상기 제1 타임스탬프 및 제2 타임스탬프 중 적어도 하나를 기준 클럭에 대응되도록 변환하는 단계; 및Converting at least one of the first timestamp and the second timestamp to correspond to a reference clock using synchronization information; And
    상기 기준 클럭에 따라 좌영상 스트림과 우영상 스트림을 매칭시켜 동기화하는 단계Synchronizing by matching a left video stream and a right video stream according to the reference clock;
    를 포함하는 영상 재생 장치의 동기화 방법.Synchronization method of the image playback device comprising a.
  17. 좌영상 스트림을 수신하여 저장하는 제1 버퍼부;A first buffer unit for receiving and storing a left image stream;
    우영상 스트림을 수신하여 저장하는 제2 버퍼부; 및A second buffer unit for receiving and storing a right image stream; And
    상기 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 상기 제1 버퍼부와 제2 버퍼부의 버퍼 사이즈를 결정하는 버퍼 제어부A buffer controller for determining a buffer size of the first buffer unit and the second buffer unit by using a difference in reception time between the left image stream and the right image stream
    를 포함하고,Including,
    상기 수신 시간 차이는,The reception time difference is,
    상기 좌영상 스트림의 제1 타임스탬프, 우영상 스트림의 제2 타임 스탬프 및 좌영상 스트림과 우영상 스트림 간의 동기 정보에 따라 결정되는 영상 재생 장치.And a first time stamp of the left video stream, a second time stamp of a right video stream, and synchronization information between a left video stream and a right video stream.
  18. 좌영상 스트림을 수신하여 저장하는 제1 버퍼부;A first buffer unit for receiving and storing a left image stream;
    우영상 스트림을 수신하여 저장하는 제2 버퍼부; 및A second buffer unit for receiving and storing a right image stream; And
    상기 좌영상 스트림과 우영상 스트림 간의 수신 시간 차이를 이용하여 제1 버퍼부 또는 제2 버퍼부의 버퍼 지연 시간을 결정하는 버퍼 제어부A buffer controller for determining a buffer delay time of a first buffer unit or a second buffer unit by using a difference in reception time between the left image stream and the right image stream
    를 포함하고,Including,
    상기 수신 시간 차이는,The reception time difference is,
    상기 좌영상 스트림의 제1 타임스탬프, 우영상 스트림의 제2 타임 스탬프 및 좌영상 스트림과 우영상 스트림 간의 동기 정보에 따라 결정되는 영상 재생 장치.And a first time stamp of the left video stream, a second time stamp of a right video stream, and synchronization information between a left video stream and a right video stream.
  19. 좌영상 스트림을 수신하여 저장하는 제1 버퍼부;A first buffer unit for receiving and storing a left image stream;
    우영상 스트림을 수신하여 저장하는 제2 버퍼부; 및A second buffer unit for receiving and storing a right image stream; And
    좌영상 스트림의 액세스 유닛과 우영상 스트림의 액세스 유닛 간의 수신 시간 차이를 이용하여 (i) 좌영상 스트림과 우영상 스트림 중 먼저 수신된 영상 스트림에 시그널링된 기준 클럭을 보정하거나 또는 (ii) 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임스탬프를 보정하는 버퍼 제어부(I) correcting a reference clock signaled to the first received video stream of the left video stream and the right video stream by using the difference in the reception time between the access unit of the left video stream and the access unit of the right video stream, or (ii) the left video A buffer controller for correcting the first timestamp of the stream and the second timestamp of the right video stream
    를 포함하는 영상 재생 장치.Image playback device comprising a.
  20. 좌영상 스트림을 수신하여 저장하는 제1 버퍼부; 및A first buffer unit for receiving and storing a left image stream; And
    우영상 스트림을 수신하여 저장하는 제2 버퍼부;A second buffer unit for receiving and storing a right image stream;
    좌영상 스트림과 우영상 스트림 간의 동기 정보를 이용하여 좌영상 스트림의 제1 타임스탬프 및 우영상 스트림의 제2 타임 스탬프 중 적어도 하나를 기준 클럭에 따라 변환하고, 기준 클럭에 따라 좌영상 스트림과 우영상 스트림을 매칭시켜 동기화하는 영상 동기화부At least one of a first timestamp of the left video stream and a second timestamp of the right video stream is converted according to a reference clock using the synchronization information between the left video stream and the right video stream, and the left video stream and the right video stream according to the reference clock. Image synchronizer for matching and synchronizing video streams
    를 포함하는 영상 재생 장치.Image playback device comprising a.
PCT/KR2013/003653 2012-04-26 2013-04-26 Image playback apparatus for 3dtv and method performed by the apparatus WO2013162335A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/397,125 US20150109411A1 (en) 2012-04-26 2013-04-26 Image playback apparatus for 3dtv and method performed by the apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20120044061 2012-04-26
KR10-2012-0044061 2012-04-26
KR1020130046782A KR20130121058A (en) 2012-04-26 2013-04-26 Video reproduction apparatus for 3dtv and method for processing by video reproduction apparatus
KR10-2013-0046782 2013-04-26

Publications (1)

Publication Number Publication Date
WO2013162335A1 true WO2013162335A1 (en) 2013-10-31

Family

ID=49483539

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/003653 WO2013162335A1 (en) 2012-04-26 2013-04-26 Image playback apparatus for 3dtv and method performed by the apparatus

Country Status (1)

Country Link
WO (1) WO2013162335A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110856028A (en) * 2018-08-20 2020-02-28 上海途擎微电子有限公司 Media data playing method, equipment and storage medium
CN112804579A (en) * 2019-11-14 2021-05-14 上海哔哩哔哩科技有限公司 Video playing method and device, computer equipment and readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090066191A (en) * 2007-12-18 2009-06-23 한국전자통신연구원 Apparatus and method for transmitting/receiving three dimensional broadcasting service using separate transmission of image information
KR20110062574A (en) * 2009-12-03 2011-06-10 한국방송공사 Method and apparatus for synchronizing of multimedia contents
KR20110068821A (en) * 2009-12-15 2011-06-22 한국전자통신연구원 Method and apparatus for receiving and transmitting
KR20110123658A (en) * 2010-05-07 2011-11-15 한국전자통신연구원 Method and system for transmitting/receiving 3-dimensional broadcasting service
KR20120037208A (en) * 2010-10-11 2012-04-19 삼성전자주식회사 Method for providing and processing 3d image and apparatus for providing and processing 3d image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090066191A (en) * 2007-12-18 2009-06-23 한국전자통신연구원 Apparatus and method for transmitting/receiving three dimensional broadcasting service using separate transmission of image information
KR20110062574A (en) * 2009-12-03 2011-06-10 한국방송공사 Method and apparatus for synchronizing of multimedia contents
KR20110068821A (en) * 2009-12-15 2011-06-22 한국전자통신연구원 Method and apparatus for receiving and transmitting
KR20110123658A (en) * 2010-05-07 2011-11-15 한국전자통신연구원 Method and system for transmitting/receiving 3-dimensional broadcasting service
KR20120037208A (en) * 2010-10-11 2012-04-19 삼성전자주식회사 Method for providing and processing 3d image and apparatus for providing and processing 3d image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110856028A (en) * 2018-08-20 2020-02-28 上海途擎微电子有限公司 Media data playing method, equipment and storage medium
CN110856028B (en) * 2018-08-20 2021-12-14 上海途擎微电子有限公司 Media data playing method, equipment and storage medium
CN112804579A (en) * 2019-11-14 2021-05-14 上海哔哩哔哩科技有限公司 Video playing method and device, computer equipment and readable storage medium

Similar Documents

Publication Publication Date Title
WO2013025035A9 (en) Transmitting device, receiving device, and transceiving method thereof
WO2012011724A2 (en) Method for transceiving media files and device for transmitting/receiving using same
WO2011013995A2 (en) Method and apparatus for generating 3-dimensional image datastream including additional information for reproducing 3-dimensional image, and method and apparatus for receiving the 3-dimensional image datastream
WO2010147289A1 (en) Broadcast transmitter, broadcast receiver and 3d video processing method thereof
WO2012099359A2 (en) Reception device for receiving a plurality of real-time transfer streams, transmission device for transmitting same, and method for playing multimedia content
WO2012077982A2 (en) Transmitter and receiver for transmitting and receiving multimedia content, and reproduction method therefor
WO2011071290A2 (en) Streaming method and apparatus operating by inserting other content into main content
WO2012177041A2 (en) Media content transceiving method and transceiving apparatus using same
WO2011093676A2 (en) Method and apparatus for generating data stream for providing 3-dimensional multimedia service, and method and apparatus for receiving the data stream
WO2011059291A2 (en) Method and apparatus for transmitting and receiving data
WO2013154402A1 (en) Receiving apparatus for receiving a plurality of signals through different paths and method for processing signals thereof
WO2015008987A1 (en) Method and apparatus for transmitting and receiving ultra high-definition broadcasting signal for expressing high-quality color in digital broadcasting system
WO2009125961A1 (en) Method of transmitting and receiving broadcasting signal and apparatus for receiving broadcasting signal
WO2013019042A1 (en) Transmitting apparatus and method and receiving apparatus and method for providing a 3d service through a connection with a reference image transmitted in real time and additional image and content transmitted separately
WO2011046338A2 (en) Broadcast receiver and 3d video data processing method thereof
WO2012128563A2 (en) Heterogeneous network-based linked broadcast content transmitting/receiving device and method
WO2013055164A1 (en) Method for displaying contents, method for synchronizing contents, and method and device for displaying broadcast contents
WO2014081146A1 (en) Display apparatus, method for controlling the display appartus, glasses and method for controlling the glasses
WO2011159128A2 (en) Method and apparatus for providing digital broadcasting service with 3-dimensional subtitle
WO2016111560A1 (en) Transmitting apparatus and receiving apparatus and signal processing method thereof
WO2011152633A2 (en) Method and apparatus for processing and receiving digital broadcast signal for 3-dimensional subtitle
WO2012050405A2 (en) Digital receiver and method for processing 3d contents in digital receiver
WO2012121572A2 (en) Transmission device and method for providing program-linked stereoscopic broadcasting service, and reception device and method for same
WO2014025239A1 (en) Method and apparatus for transceiving image component for 3d image
WO2015126117A1 (en) Method and apparatus for transceiving broadcast signal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13782421

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14397125

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13782421

Country of ref document: EP

Kind code of ref document: A1