KR20100060413A - Receiving system and method of processing data - Google Patents

Receiving system and method of processing data Download PDF

Info

Publication number
KR20100060413A
KR20100060413A KR1020080118997A KR20080118997A KR20100060413A KR 20100060413 A KR20100060413 A KR 20100060413A KR 1020080118997 A KR1020080118997 A KR 1020080118997A KR 20080118997 A KR20080118997 A KR 20080118997A KR 20100060413 A KR20100060413 A KR 20100060413A
Authority
KR
South Korea
Prior art keywords
image
information
content
images
output
Prior art date
Application number
KR1020080118997A
Other languages
Korean (ko)
Other versions
KR101556149B1 (en
Inventor
이철수
임진석
최승종
김대중
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020080118997A priority Critical patent/KR101556149B1/en
Publication of KR20100060413A publication Critical patent/KR20100060413A/en
Application granted granted Critical
Publication of KR101556149B1 publication Critical patent/KR101556149B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE: A receiving system for processing data, and a method thereof are provided to interpolate one among images of 3D contents and display the interpolated image, thereby preventing distortion of depth information of an object by time difference of a display. CONSTITUTION: A receiving unit receives broadcasting signal. A decoding unit(110) decodes received three-dimensional contents by codec information. The decoding unit restores the first video and the second video from the 3D contents. An interpolation unit(120) generates the third video based on the restored second image. A display unit(130) successively displays the restored first image and the generated third image.

Description

수신 시스템 및 데이터 처리 방법{Receiving system and method of processing data}Receiving system and method of processing data}

본 발명은 영상 신호를 처리하기 위한 장치 및 방법에 관한 것으로서, 보다 상세하게는 3차원 영상 신호를 수신하여 처리하기 위한 수신 시스템 및 데이터 처리 방법에 관한 것이다. The present invention relates to an apparatus and method for processing an image signal, and more particularly, to a receiving system and a data processing method for receiving and processing a three-dimensional image signal.

일반적으로 3차원(3 dimensions ; 3D) 영상(또는 입체 영상)은 두 눈의 스테레오(stereo) 시각 원리에 의한다. 두 눈의 시차 다시 말해 약 65mm 정도 떨어져 존재하는 두 눈 사이의 간격에 의한 양안시차(binocular parallax)는 입체감을 느끼게 하는 중요한 요인으로 좌우 눈이 각각 연관된 평면 영상을 볼 경우 뇌는 이들 서로 다른 두 영상을 융합하여 3D 영상 본래의 깊이감과 실재감을 재생할 수 있다.In general, three-dimensional (3D) image (or stereoscopic image) is based on the stereo vision principle of two eyes. The parallax of two eyes, that is, the binocular parallax due to the distance between two eyes that are about 65mm apart, is an important factor to make a sense of three-dimensional feeling. By fusing the 3D image, the original depth and reality can be reproduced.

이러한 3D 영상 표시는 크게 스테레오스코픽(stereoscopic) 방식, 부피표현(volumetric) 방식, 홀로그래픽(holographic) 방식으로 구분된다. 예를 들어, 스테레오스코픽 기술을 적용한 3D 영상 디스플레이 장치는 2D 영상에 깊이(depth) 정보를 부가하고, 이 깊이 정보를 이용하여 관찰자가 3D의 생동감과 현실감을 느낄 수 있게 하는 화상 표시 장치이다. Such 3D image display is largely classified into a stereoscopic method, a volumetric method, and a holographic method. For example, a 3D image display apparatus using a stereoscopic technique is an image display apparatus that adds depth information to a 2D image and uses the depth information to allow an observer to feel the liveness and reality of 3D.

그리고 3D 영상을 보여주는 방식에는 크게 안경을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다. In addition, there are two methods of displaying 3D images, a method of wearing glasses and a glasses-free method of not wearing glasses.

안경을 착용하는 방식은 다시 패시브(passive) 방식과 액티브(active) 방식으로 나눈다. 상기 passive 방식은 편광필터를 사용해서 좌영상과 우영상을 구분해서 보여주는 방식이다. 즉, 상기 passive 방식은 양안에 각각 청색과 적색의 색안경을 쓰고 보는 방식이다. 상기 active 방식은 시간적으로 왼쪽 눈과 오른쪽 눈을 순차적으로 가림으로써 좌영상과 우영상을 구분하는 방식이다. 즉, 상기 active 방식은 시간 분할된 화면을 주기적으로 반복시키고 이 주기에 동기시킨 전자셔터가 설치된 안경을 쓰고 보는 방식이며, 시분할 방식(time split type) 또는 셔텨드 글래스(shuttered glass) 방식이라 하기도 한다.The way of wearing glasses is divided into passive and active. The passive method distinguishes between a left image and a right image using a polarization filter. That is, the passive method is a method of wearing blue and red sunglasses, respectively, in both eyes. The active method distinguishes the left image from the right image by sequentially covering the left eye and the right eye in time. In other words, the active method is a method of periodically repeating a time-divided screen and wearing and viewing glasses with an electronic shutter synchronized to the period, and may also be referred to as a time split type or shuttered glass method. .

안경을 착용하지 않는 무안경 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈 어레이를 수직으로 배열한 렌티큘러(lenticular) 렌즈판을 영상 패널 전방에 설치하는 렌티큘러 방식과, 영상 패널 상부에 주기적인 슬릿을 갖는 배리어 층을 구비하는 패러랙스 배리어(parallax barrier) 방식이 있다.Representative examples of glasses-free glasses-free methods include a lenticular method in which a lenticular lens plate in which cylindrical lens arrays are vertically arranged in front of the image panel, and a barrier layer having periodic slits on the image panel. There is a parallax barrier (parallax barrier) method having a.

본 발명의 목적은 좌영상과 우영상을 번갈아 디스플레이하여 3D 영상을 구현할 때, 디스플레이 시차(time difference)로 발생하는 왜곡을 보상하기 위한 수신 시스템 및 데이터 처리 방법을 제공함에 있다.An object of the present invention is to provide a receiving system and a data processing method for compensating for distortion caused by display time difference when a 3D image is displayed by alternately displaying a left image and a right image.

본 발명의 일 실시예에 따른 수신 시스템은 수신부, 복호부, 보상부, 및 디스플레이 장치를 포함할 수 있다. 상기 수신부는 3D 콘텐츠와 상기 3D 콘텐츠에 관련된 시스템 정보를 포함하는 방송 신호를 수신한다. 상기 복호부는 상기 수신된 3D 콘텐츠를 코덱 정보를 기초로 복호하여 상기 3D 콘텐츠로부터 제1 영상과 제2 영상을 복원한다. 상기 보상부는 상기 복호부에서 복원된 제2 영상을 기초로 제3 영상을 생성한다. 상기 디스플레이 장치는 상기 복호부에서 복원된 제1 영상과 상기 보상부에서 생성된 제3 영상을 순차적으로 디스플레이한다. A reception system according to an embodiment of the present invention may include a receiver, a decoder, a compensator, and a display device. The receiver receives a broadcast signal including 3D content and system information related to the 3D content. The decoder decodes the received 3D content based on codec information to reconstruct a first image and a second image from the 3D content. The compensator generates a third image based on the second image reconstructed by the decoder. The display device sequentially displays a first image reconstructed by the decoder and a third image generated by the compensator.

상기 시스템 정보로부터 해당 3D 콘텐츠의 코덱 정보를 추출하여 상기 복호부로 출력하는 시스템 정보 처리부를 더 포함할 수 있다.The apparatus may further include a system information processor configured to extract codec information of the 3D content from the system information and output the codec information to the decoder.

상기 보상부는 상기 복호부에서 출력되는 제1 영상을 저장하는 제1 영상 저장부, 상기 복호부에서 출력되는 제2 영상을 저장한 후 참조 영상으로 출력하는 제2 영상 저장부, 상기 제2 영상 저장부에서 출력되는 적어도 하나의 참조 영상을 기초로 제3 영상을 생성하는 보간기, 상기 보간기에서 출력되는 제3 영상을 저장하는 제3 영상 저장부, 및 상기 제1 영상 저장부에 저장된 제1 영상과 제3 영상 저장부 에 저장된 제3 영상을 순차적으로 출력하는 선택부를 포함할 수 있다.The compensation unit may include a first image storage unit storing a first image output from the decoder, a second image storage unit storing a second image output from the decoder, and outputting the second image as a reference image, and storing the second image. An interpolator for generating a third image based on the at least one reference image output from the unit, a third image storage unit for storing the third image output from the interpolator, and a first image stored in the first image storage unit It may include a selection unit for sequentially outputting the image and the third image stored in the third image storage unit.

본 발명의 일 실시예에 따른 수신 시스템의 데이터 처리 방법은, 3D 콘텐츠와 상기 3D 콘텐츠에 관련된 시스템 정보를 포함하는 방송 신호를 수신하는 단계, 상기 수신된 3D 콘텐츠를 코덱 정보를 기초로 복호하여 상기 3D 콘텐츠로부터 제1 영상과 제2 영상을 복원하는 단계, 상기 복원된 제2 영상을 기초로 제3 영상을 생성하는 단계, 및 상기 복원된 제1 영상과 상기 생성된 제3 영상을 순차적으로 디스플레이하는 단계를 포함할 수 있다.In a data processing method of a reception system according to an embodiment of the present invention, receiving a broadcast signal including 3D content and system information related to the 3D content, and decoding the received 3D content based on codec information. Restoring a first image and a second image from 3D content, generating a third image based on the restored second image, and sequentially displaying the restored first image and the generated third image It may include the step.

본 발명의 다른 목적, 특징 및 잇점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings.

본 발명에 따른 수신 시스템 및 데이터 처리 방법은 좌영상과 우영상의 샘플링 시간이 동일한 3D 콘텐츠를 수신하여 좌영상과 우영상을 복원한 후 순차적으로 디스플레이할 때, 두 영상 중 하나의 영상을 보간하여 디스플레이한다. 이렇게 함으로써, 디스플레이 시차로 인해 오브젝트(물체)의 깊이 정보가 왜곡되는 것을 방지할 수 있다.The receiving system and the data processing method according to the present invention receive 3D contents having the same sampling time of the left image and the right image, reconstruct the left image and the right image, and sequentially display the interpolated images of one of the two images. Display. By doing so, it is possible to prevent the depth information of the object (object) from being distorted due to display parallax.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention that can specifically realize the above object will be described. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다. The terms used in the present invention were selected as widely used general terms as possible in consideration of the functions in the present invention, but may vary according to the intention or custom of the person skilled in the art or the emergence of new technologies. In addition, in certain cases, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the corresponding description of the invention. Therefore, it is intended that the terms used in the present invention should be defined based on the meanings of the terms and the general contents of the present invention rather than the names of the simple terms.

본 발명은 3D 영상을 처리할 수 있는 수신 시스템의 디스플레이 장치가 좌 영상과 우 영상을 순차적으로 보여주는 액티브 방식일 때, 디스플레이 시차에서 발생하는 왜곡을 보상하도록 하는데 있다.The present invention is to compensate for the distortion caused by the display parallax when the display device of the receiving system capable of processing the 3D image is an active method to sequentially show the left image and the right image.

상기 3D 영상으로는 두개의 시점을 고려하는 스테레오(또는 스테레오스코픽) 영상, 세 시점 이상을 고려하는 다시점 영상 등이 있다.The 3D image may include a stereo (or stereoscopic) image considering two views and a multiview image considering three or more views.

상기 스테레오 영상은 일정한 거리로 이격되어 있는 좌측 카메라와 우측 카메라로 동일한 피사체를 촬영하여 획득한 1쌍의 좌우 영상을 말한다. 상기 다시점 영상은 일정한 거리나 각도를 갖는 3개 이상의 카메라로 동일한 피사체를 촬영하여 획득한 3개 이상의 영상을 말한다. The stereo image refers to a pair of left and right images obtained by photographing the same subject with a left camera and a right camera spaced apart from each other by a certain distance. The multi-view image refers to three or more images obtained by photographing the same subject with three or more cameras having a constant distance or angle.

상기 스테레오 영상의 전송 포맷으로는 싱글 비디오 스트림 포맷과 멀티 비디오 스트림 포맷이 있다. 상기 싱글 비디오 스트림 포맷으로는 도 1의 (a)의 사이드 바이 사이드(side by side), 도 1의 (b)의 톱/다운(top/down), 도 1의 (c)의 인터레이스드(interlaced), 도 1의 (d)의 프레임 시퀀셜(frame sequential), 도 1의 (e)의 체커 보드(checker board), 도 1의 (f)의 애너그리프(anaglyph) 등이 있다. 상기 멀티 비디오 스트림 포맷으로는 도 2의 (a)의 풀 좌/우(Full left/right), 도 2의 (b)의 풀 좌/하프 우(Full left/Half right), 도 2의 (c)의 2D 비디오/깊이(2D video/depth) 등이 있다. 예를 들어, 상기 도 1의 (a)의 사이드 바이 사이드 포맷은 좌 영상과 우 영상을 각각 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상을 좌측에, 샘플링한 우 영상을 우측에 위치시켜 하나의 스테레오 영상을 만든 경우이다. 도 1의 (b)의 탑/다운 포맷은 좌 영상과 우 영상을 각각 수직 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상을 상부에, 샘플링한 우 영상을 하부에 위치시켜 하나의 스테레오 영상을 만든 경우이다. 도 1의 (c)의 인터레이스드 포맷은 좌 영상과 우 영상을 각각 수직 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상의 화소와 우 영상의 화소가 라인마다 교대로 위치하도록 하여 스테레오 영상을 만들거나, 좌 영상과 우 영상을 각각 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상의 화소와 우 영상의 화소가 한 화소씩 교대로 위치하도록 하여 스테레오 영상을 만든 경우이다. 도 1의 (e)의 체커 보드 포맷은 좌 영상과 우 영상을 각각 수직과 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상의 화소와 우 영상의 화소가 한 화소씩 교대로 위치하도록 하여 스테레오 영상을 만든 경우이다. The transmission format of the stereo video includes a single video stream format and a multi video stream format. As the single video stream format, the side by side of FIG. 1A, the top / down of FIG. 1B, and the interlaced FIG. ), A frame sequential of FIG. 1D, a checker board of FIG. 1E, an anaglyph of FIG. 1F, and the like. As the multi video stream format, full left / right of FIG. 2A, full left / half right of FIG. 2B, and FIG. 2C ) 2D video / depth. For example, in the side-by-side format of FIG. 1A, the left and right images are each half subsampled in the horizontal direction, and the sampled left image is positioned on the left side and the sampled right image is positioned on the right side. In this case, one stereo image is created. In the top / down format of FIG. 1 (b), one stereo image is placed by sub-sampling the left image and the right image in the vertical direction, and the sampled left image is placed at the top and the sampled right image is placed at the bottom. If it is created. In the interlaced format of FIG. 1C, the left and right images are each half subsampled in the vertical direction, and the pixels of the sampled left image and the pixels of the right image are alternately positioned for each line so that a stereo image can be obtained. In this case, a stereo image is created by sub-sampling the left image and the right image 1/2 in the horizontal direction, and placing the pixels of the sampled left image and the pixels of the right image alternately one pixel. In the checker board format of FIG. 1E, the left image and the right image are 1/2 subsampled in the vertical and horizontal directions, respectively, and the pixels of the sampled left image and the pixel of the right image are alternately positioned by one pixel. This is the case when a stereo image is made.

또한 도 2의 (a)의 풀 좌/우 포맷은 좌 영상과 우 영상을 순차적으로 각각 전송하는 경우이고, 도 2의 (b)의 풀 좌/하프 우 포맷은 좌 영상은 그대로, 우 영상은 수직 또는 수평 방향으로 1/2 서브 샘플링하여 전송하는 경우이다. 도 2의 (c)의 2D 비디오/깊이 포맷은 좌 영상과 우 영상 중 하나의 영상과 다른 하나의 영 상을 만들어내기 위한 깊이 정보를 함께 전송하는 경우이다. In addition, the full left / right format of FIG. 2 (a) is a case in which left and right images are sequentially transmitted, respectively. In the full left / half right format of FIG. This is the case when 1/2 subsampling is transmitted in the vertical or horizontal direction. The 2D video / depth format of FIG. 2C is a case in which one of a left image and a right image is transmitted together with depth information for generating another image.

이때 상기 스테레오 영상 또는 다시점 영상은 MPEG 또는 여러 가지 방법으로 압축 부호화되어 수신 시스템으로 전송된다.In this case, the stereo image or the multi-view image are compressed and encoded by MPEG or various methods and transmitted to the receiving system.

예를 들어, 상기 사이드 바이 사이드 포맷, 톱/다운 포맷, 인터레이스드 포맷, 체커 보드 등과 같은 스테레오 영상은 H.264/AVC 방식으로 압축 부호화하여 전송할 수 있다. 이때 수신 시스템에서 H.264/AVC 코딩 방식의 역으로 상기 스테레오 영상에 대해 복호를 수행하여 3D 영상을 얻을 수 있다. For example, stereo images such as the side-by-side format, the top / down format, the interlaced format, the checker board, and the like may be compressed and transmitted in the H.264 / AVC method. In this case, a 3D image may be obtained by decoding the stereo image in the inverse of the H.264 / AVC coding scheme in the reception system.

또한 상기 풀 좌/하프 우 포맷의 좌 영상 또는 다시점 영상 중 하나의 영상은 기본 계층(based layer) 영상으로, 나머지 영상은 상위 계층(enhanced layer) 영상으로 할당한 후, 기본 계층의 영상은 모노스코픽 영상과 동일한 방식으로 부호화하고, 상위 계층의 영상은 기본 계층과 상위 계층의 영상간의 상관 정보에 대해서만 부호화하여 전송할 수 있다. 상기 기본 계층의 영상에 대한 압축 부호화 방식의 예로는 JPEG, MPEG-1, MPEG-2, MPEG-4, H.264/AVC 방식 등이 사용될 수 있으며, 본 발명은 H.264/AVC 방식을 사용하는 것을 일 실시예로 한다. 그리고 상위 계층의 영상에 대한 압축 부호화 방식은 H.264/MVC (Multi-view Video Coding) 방식을 사용하는 것을 일 실시예로 한다. 이때, 스테레오 영상은 기본 계층의 영상과 하나의 상위 계층 영상으로 할당되나, 다시점 영상은 하나의 기본 계층의 영상과 복수개의 상위 계층 영상으로 할당된다. 상기 다시점 영상을 기본 계층의 영상과 하나 이상의 상위 계층의 영상으로 구분하는 기준은 카메라의 위치에 따라 결정될 수도 있고, 카메라의 배열 형태에 따라 결정될 수도 있다. 또는 특별한 기준을 따르지 않 고 임의로 결정될 수도 있다. In addition, one of the left image or the multiview image of the full left / half right format is assigned as a base layer image, and the remaining images are assigned as an enhanced layer image, and then the base layer image is mono. Encoding is performed in the same manner as the scopic video, and an upper layer video may be encoded and transmitted only for correlation information between a base layer and an upper layer image. Examples of the compression encoding scheme for the image of the base layer may be JPEG, MPEG-1, MPEG-2, MPEG-4, H.264 / AVC method, the present invention uses the H.264 / AVC method In one embodiment. In addition, as an embodiment, the compression coding scheme for the video of the higher layer uses the H.264 / MVC (Multi-view Video Coding) scheme. In this case, the stereo image is allocated to the base layer image and one higher layer image, but the multiview image is allocated to the base layer image and the plurality of higher layer images. A criterion for dividing the multi-view image into an image of a base layer and an image of one or more higher layers may be determined according to the position of the camera or may be determined according to the arrangement of the cameras. Or it may be arbitrarily determined without following any special criteria.

본 발명은 압축 부호화되어 수신되는 스테레오 영상 또는 다시점 영상으로부터 좌영상과 우영상을 복원하고, 복원된 좌영상과 우영상을 순차적으로 보여줄 때 디스플레이 시차로 인해 발생할 수 있는 왜곡을 보상한 후 디스플레이하는 것을 특징으로 한다. 여기서 디스플레이 시차는 샘플링 시간이 동일한 좌영상과 우영상을 시간 차이를 두고 순차적으로 디스플레이할 때 발생한다. 그리고 이 디스플레이 시차로 인해 화면에 표시되는 3D 영상에 왜곡이 발생할 수 있다. The present invention restores a left image and a right image from a stereo image or a multiview image received by compression encoding, and compensates for distortions that may occur due to display parallax when sequentially displaying the reconstructed left image and right image. It is characterized by. The display parallax occurs when the left image and the right image having the same sampling time are sequentially displayed with a time difference. The display parallax may cause distortion in the 3D image displayed on the screen.

예를 들어, 동일한 시간에 복수개의 카메라로 획득한 좌영상과 우영상의 샘플링 시간이 동일하다고 가정하자. 이때 수신 시스템의 디스플레이 장치에서 동일한 샘플링 시간을 가지는 좌영상과 우영상을 시간 차이를 두고 좌측 눈과 우측 눈에 보여줄 경우에는 왜곡이 발생할 수 있다.For example, suppose that sampling times of a left image and a right image acquired by a plurality of cameras at the same time are the same. In this case, when the left and right images having the same sampling time are shown to the left eye and the right eye with a time difference, the display apparatus of the receiving system may cause distortion.

도 3의 (a)는 사다리꼴을 배경으로 해서 왼쪽에서 오른쪽으로 이동하는 물체를 스테레오 카메라로 촬영한 예를 보이고 있다. 이때 각각의 영상들이 같은 시간에 샘플링되었으며, 뒤에 보이는 사다리꼴의 모양과는 다른 심도를 보인다. 도 3의 (a)에서는 사다리꼴 모양의 앞쪽에 보인다고 가정한다.3 (a) shows an example of photographing an object moving from left to right with a trapezoid as a background with a stereo camera. At this time, each image was sampled at the same time and shows a different depth from the trapezoidal shape shown behind. In Figure 3 (a) it is assumed that the front of the trapezoidal shape.

만일 디스플레이 장치가 시간적으로 좌영상과 우영상을 순차적으로 보여주는 액티브 형식이라고 가정하자. 이 경우, 도 3의 (b)는 샘플링 시간과 동일하게 좌영상을 디스플레이하고, 도 3의 (c)는 샘플링 시간의 중간 시간에 우영상을 디스플레이하는 예를 보이고 있다. Suppose that the display device is an active type that sequentially shows left and right images in time. In this case, FIG. 3B shows a left image as in the sampling time, and FIG. 3C shows an example of displaying the right image in the middle of the sampling time.

즉, t0,t2,t4 시간에 좌영상과 우영상을 샘플링한 후, 좌영상은 t0,t2,t4 시 간에 디스플레이하고, 우영상은 t1,t3,t5 시간에 디스플레이하는 예이다. That is, after sampling the left image and the right image at time t0, t2, t4, the left image is displayed at time t0, t2, t4, and the right image is displayed at time t1, t3, t5.

도 3의 (d)는 도 3의 (b),(c)와 같이 좌영상과 우영상을 시간 차이를 두고 디스플레이할 때, 우영상이 보이는 시점에서 두뇌가 받아들이는 좌영상의 예를 보인 것으로서, 좌우 영상의 디스플레이 시차로 인해 왜곡이 발생함을 알 수 있다.FIG. 3 (d) shows an example of a left image accepted by the brain at the time when the right image is displayed when the left image and the right image are displayed with a time difference as shown in FIGS. 3 (b) and 3 (c). It can be seen that distortion occurs due to display parallax of the left and right images.

즉, 물체가 움직이지 않을 경우에는 원래의 심도(深度)로 보이지만, 물체가 움직이기 시작하면 방향에 따라서 원래의 심도보다 얕게 보일 수도 있으며, 원래의 심도보다 깊게 보일 수도 있다. 이를 좌/우 영상의 샘플링 시간과 디스플레이 시간이 다른데서, 즉 디스플레이 시차(時差)에서 발생하는 왜곡이라 한다.That is, when the object does not move, it looks at the original depth, but when the object starts to move, it may appear shallower than the original depth depending on the direction, or may appear deeper than the original depth. This is called a distortion that occurs when the sampling time and the display time of the left and right images are different, that is, in display disparity.

도 4는 이러한 왜곡을 보상하기 위한 본 발명에 따른 수신 시스템의 일 실시예를 보인 구성 블록도로서, 디코딩 장치(110), 보상부(120), 디스플레이 장치(130)를 포함할 수 있다.4 is a block diagram illustrating an embodiment of a receiving system according to the present invention for compensating for such distortion, and may include a decoding device 110, a compensator 120, and a display device 130.

상기 보상부(120)는 디코딩 장치(110)와 디스플레이 장치(130) 중 어느 하나에 포함되어 구성될 수도 있고, 도 4와 같이 별도로 구성될 수도 있다. 또한 디코딩 장치(110), 보상부(120), 및 디스플레이 장치(130)는 일체형으로 구성될 수도 있고, 분리형으로 구성될 수도 있다. The compensation unit 120 may be included in any one of the decoding device 110 and the display device 130, or may be separately configured as shown in FIG. In addition, the decoding apparatus 110, the compensator 120, and the display apparatus 130 may be integrated or may be separated.

상기 디코딩 장치(110)는 콘텐트 소스(도시되지 않음)로부터 스테레오 영상 또는 다시점 영상을 수신 및 복호하여 원래 영상을 복원한다.The decoding device 110 receives and decodes a stereo image or a multiview image from a content source (not shown) to reconstruct the original image.

상기 콘텐트 소스는 3차원 영상을 위한 3D 콘텐츠를 포함하며, 일 예로 디스크, 인터넷 서버, 지상파/위성/케이블 방송국 등이 될 수 있다.The content source includes 3D content for a 3D image. For example, the content source may be a disc, an internet server, a terrestrial / satellite / cable broadcasting station, or the like.

상기 디코딩 장치(110)로는 디스크 플레이어(Disc player), IPTV 셋톱박 스(settop box), 지상파, 위성, 케이블 등을 시청할 수 있는 텔레비전(TV)이 될 수 있다. The decoding device 110 may be a disc player, an IPTV settop box, a terrestrial television, a satellite, a cable, or the like that can watch a cable.

도 5는 도 4의 디코딩 장치의 일 실시예를 보인 상세 구성 블록도이다. 상기 디코딩 장치(110)는 제어부(211), 유저 인터페이스부(212), 수신부(213), 역다중화기(214), 시스템 정보 처리부(215), 오디오 복호기(216), 및 비디오 복호기(217)를 포함할 수 있다. FIG. 5 is a detailed block diagram illustrating an embodiment of the decoding apparatus of FIG. 4. The decoding device 110 controls the controller 211, the user interface 212, the receiver 213, the demultiplexer 214, the system information processor 215, the audio decoder 216, and the video decoder 217. It may include.

즉, 콘텐트 소스로부터 전송되는 2D 영상 또는 3D 영상 콘텐츠 및 상기 2D 영상 또는 3D 영상을 복호하는데 필요한 시스템 정보는 수신부(213)로 수신된다. That is, 2D video or 3D video content transmitted from a content source and system information necessary to decode the 2D video or 3D video are received by the receiver 213.

그리고 유저 인터페이스부(212)를 통해 수신을 원하는 특정 채널이 선택되면 제어부(211)는 해당 채널의 2D 콘텐츠 또는 3D 콘텐츠를 수신하도록 수신부(213)를 제어한다. When a specific channel to be received is selected through the user interface 212, the controller 211 controls the receiver 213 to receive 2D content or 3D content of the corresponding channel.

상기 수신부(211)는 특정 채널의 2D 콘텐츠 또는 3D 콘텐츠에 대해 복조 및 채널 등화를 수행한 후 스트림 형태로 역다중화기(214)로 출력한다. 상기 수신부(211)로 수신된 시스템 정보도 스트림 형태로 역다중화기(214)로 출력된다.The receiver 211 performs demodulation and channel equalization on 2D content or 3D content of a specific channel and then outputs it to the demultiplexer 214 in the form of a stream. System information received by the receiver 211 is also output to the demultiplexer 214 in the form of a stream.

상기 역다중화기(214)는 각 스트림의 패킷 식별자(PID)를 참조하여 오디오 스트림은 오디오 복호기(216)로 출력하고, 비디오 스트림은 비디오 복호기(217)로 출력하며, 시스템 정보는 시스템 정보 처리부(215)로 출력한다. The demultiplexer 214 outputs the audio stream to the audio decoder 216 with reference to the packet identifier (PID) of each stream, and outputs the video stream to the video decoder 217, and the system information is the system information processor 215. )

상기 시스템 정보 처리부(215)는 시스템 정보로부터 역다중화기(214)의 역다중화에 필요한 PID를 추출하여 역다중화기(214)로 제공한다.The system information processor 215 extracts a PID necessary for demultiplexing the demultiplexer 214 from the system information and provides the PID to the demultiplexer 214.

상기 시스템 정보는 경우에 따라서는 서비스 정보라고도 불리운다. 상기 시 스템 정보는 채널 정보, 프로그램 정보, 이벤트 정보 등을 포함할 수 있다. The system information is sometimes called service information in some cases. The system information may include channel information, program information, event information, and the like.

본 발명의 실시예에서는 상기 시스템 정보로서 PSI/PSIP(Program Specific Information/Program and System Information Protocol)을 적용하나 본 발명은 이에 한정하는 것은 아니다. 즉 시스템 정보를 테이블 포맷으로 전송하는 프로토콜이라면 그 명칭에 상관없이 본 발명에 적용 가능할 것이다. In the embodiment of the present invention, PSI / PSIP (Program Specific Information / Program and System Information Protocol) is applied as the system information, but the present invention is not limited thereto. That is, a protocol for transmitting system information in a table format may be applicable to the present invention regardless of its name.

상기 PSI는 채널 및 프로그램을 분류하기 위해 정의된 MPEG-2의 시스템 규격이고, 상기 PSIP는 채널 및 프로그램의 분류가 가능한 ATSC(Advanced Television Systems Committee) 규격이다. The PSI is a system standard of MPEG-2 defined for classifying channels and programs, and the PSIP is an Advanced Television Systems Committee (ATSC) standard for classifying channels and programs.

상기 PSI는 일 실시예로서, PAT(Program Association Table), CAT(Conditional Access Table), PMT(Program Map Table), 및 NIT(Network Information Table)를 포함할 수 있다. The PSI may include, as an embodiment, a Program Association Table (PAT), a Conditional Access Table (CAT), a Program Map Table (PMT), and a Network Information Table (NIT).

상기 PAT는 PID가 '0'인 패킷에 의해 전송되는 특수 정보로서, 각 프로그램마다 해당 PMT의 PID 정보와 NIT의 PID 정보를 전송한다. 상기 CAT는 송신측에서 사용하고 있는 유료 방송 시스템에 대한 정보를 전송한다. 상기 PMT는 프로그램 식별 번호와 프로그램을 구성하는 비디오, 오디오 등의 개별 비트 스트림이 전송되는 트랜스포트 스트림 패킷의 PID 정보, 및 PCR이 전달되는 PID 정보를 전송한다. 상기 NIT는 실제 전송망의 정보를 전송한다. 예를 들어, PID가 0인 PAT 테이블을 파싱하여 프로그램 번호(Program number)와 PMT의 PID를 알아낸다. 그리고 상기 PAT로부터 얻어낸 PMT를 파싱하면 프로그램을 구성하는 구성 요소들간의 상관 관계를 알 수 있다.The PAT is special information transmitted by a packet having a PID of '0', and transmits PID information of a corresponding PMT and PID information of a NIT for each program. The CAT transmits information about the pay broadcasting system used on the transmitting side. The PMT transmits the program identification number, PID information of a transport stream packet to which individual bit streams such as video and audio constituting the program are transmitted, and PID information to which PCR is transmitted. The NIT transmits information of an actual transmission network. For example, a PAT table with a PID of 0 is parsed to find a program number and a PID of a PMT. When the PMT obtained from the PAT is parsed, the correlation between the components constituting the program can be known.

상기 PISP은 일 실시예로서, VCT(Virtual Channel Table), STT(System Time Table), RRT(Rating Region Table), ETT(Extended Text Table), DCCT(Direct Channel Change Table), DCCSCT(Direct Channel Change Selection Code Table), EIT(Event Information Table), 및 MGT(Master Guide Table)를 포함할 수 있다. In one embodiment, the PISP includes a virtual channel table (VCT), a system time table (STT), a rating region table (RTT), an extended text table (ETT), a direct channel change table (DCCT), and a direct channel change selection (DCCSCT). A code table, an event information table (EIT), and a master guide table (MGT) may be included.

상기 VCT는 가상 채널에 대한 정보 예를 들어, 채널 선택을 위한 채널 정보와 오디오 및/또는 비디오의 수신을 위한 패킷 식별자(PID) 등의 정보를 전송한다. 즉, 상기 VCT를 파싱하면 채널 이름, 채널 번호 등과 함께 채널 내에 실려오는 방송 프로그램의 오디오와 비디오의 PID를 알 수 있다. 상기 STT는 현재의 날짜와 시간 정보를 전송하고, 상기 RRT는 프로그램 등급을 위한 지역 및 심의 기관 등에 대한 정보를 전송한다. 상기 ETT는 채널 및 방송 프로그램에 대한 부가 설명을 전송하고, 상기 EIT는 가상 채널의 이벤트에 대한 정보(예를 들어, 제목, 시작 시간 등등)를 전송한다. 상기 DCCT/DCCSCT는 자동 채널 변경과 관련된 정보를 전송하고, 상기 MGT는 상기 PSIP 내 각 테이블들의 버전 및 PID 정보를 전송한다. The VCT transmits information about a virtual channel, for example, channel information for channel selection and packet identifier (PID) for receiving audio and / or video. In other words, when the VCT is parsed, the PID of the audio and video of the broadcast program loaded in the channel can be known along with the channel name and the channel number. The STT transmits current date and time information, and the RRT transmits information about a region and a review institution for a program grade. The ETT transmits an additional description of a channel and a broadcast program, and the EIT transmits information (eg, title, start time, etc.) about an event of a virtual channel. The DCCT / DCCSCT transmits information related to automatic channel change, and the MGT transmits version and PID information of respective tables in the PSIP.

본 발명에서는 상기 수신부(213)로 수신되는 프로그램이 3D 콘텐츠임을 인식할 수 있는 식별 정보가 상기 시스템 정보에 포함될 수 있으며, 이 경우 시스템 정보 처리부(215)는 이를 추출하여 역다중화기(214)로 제공한다.In the present invention, identification information for recognizing that the program received by the receiving unit 213 is 3D content may be included in the system information. In this case, the system information processing unit 215 extracts it and provides it to the demultiplexer 214. do.

본 발명에서는 해당 3D 콘텐츠가 어떤 전송 포맷으로 수신되는지를 식별할 수 있는 전송 포맷 정보가 상기 시스템 정보에 포함되어 수신될 수 있다. 본 발명은 PMT와 VCT 중 적어도 하나의 테이블에 전송 포맷 정보가 포함되어 수신되는 것을 일 실시예로 한다. 즉, 상기 시스템 정보 처리부(215)에서 PMT나 VCT에 포함되 어 수신되는 전송 포맷 정보를 파싱하면, 해당 3D 콘텐츠가 사이드 바이 사이드(side by side), 톱/다운(top/down), 인터레이스드(interlaced), 프레임 시퀄셜(frame sequential), 체커 보드(checker board), 애너그리프(anaglyph), 풀 좌/우(Full left/right), 풀 좌/하프 우(Full left/Half right), 2D 비디오/깊이(2D video/depth) 중 어떤 전송 포맷으로 수신되는지를 알 수 있다. In the present invention, transmission format information for identifying which transmission format the 3D content is received may be included in the system information. According to an embodiment of the present invention, transmission format information is included in at least one table of PMT and VCT and received. That is, when the system information processing unit 215 parses the transmission format information received in the PMT or VCT, the 3D content is side by side, top / down, and interlaced. (interlaced), frame sequential, checker board, anaglyph, full left / right, full left / half right, 2D It is possible to know in which transmission format the video / depth is received.

본 발명에서는 해당 3D 콘텐츠가 다시점 영상인 경우, 다시점 영상을 복호할 수 있는 시점 정보가 상기 시스템 정보에 포함되어 수신될 수 있다. 상기 시점 정보도 PMT와 VCT 중 적어도 하나의 테이블에 시점 정보가 포함되어 수신되는 것을 일 실시예로 한다. 즉, 상기 시스템 정보 처리부(215)에서 PMT나 VCT에 포함되어 수신되는 시점 정보를 파싱하면, 해당 시점에 대한 정보와 해당 시점의 영상을 부호화할 때 참조한 시점에 대한 정보를 얻을 수 있다. In the present invention, when the 3D content is a multiview image, view information for decoding a multiview image may be included in the system information and received. According to an embodiment of the present invention, the viewpoint information is also received by including viewpoint information in at least one table of the PMT and the VCT. That is, when the system information processor 215 parses the view information received in the PMT or the VCT, the information about the view and the view referred to when encoding the image of the view may be obtained.

그리고 상기 시스템 정보 처리부(215)에서 파싱된 전송 포맷 정보와 시점 정보 중 적어도 하나는 비디오 스트림의 복호를 위해 역다중화기(214)나 제어부(211)를 통해 또는 직접 비디오 복호기(217)로 제공된다. 본 발명은 설명의 편의를 위해 전송 포맷 정보와 시점 정보를 코덱 정보라 하기로 한다.At least one of the transmission format information and the view information parsed by the system information processor 215 is provided to the video decoder 217 or directly through the demultiplexer 214 or the control unit 211 for decoding the video stream. In the present invention, the transport format information and the viewpoint information will be referred to as codec information for convenience of description.

상기 비디오 복호기(217)는 역다중화기(214)에서 출력되는 비디오 스트림이 스테레오 영상의 비디오 스트림이라면, 상기 코덱 정보 중 전송 포맷 정보를 기초로 입력되는 비디오 스트림을 H.264/AVC 방식으로 복호하여 좌영상과 우영상을 복원하는 것을 일 실시예로 한다. 예를 들어, 상기 전송 포맷 정보가 해당 3D 콘텐츠가 도 1의 (a)와 같이 사이드 바이 사이드 포맷으로 전송되었음을 표시하면, 상기 비디오 복호기(217)는 비디오 스트림을 H.264/AVC 방식으로 수평 방향에 대해 복호하여 좌영상과 우영상을 복원할 수 있다.If the video stream output from the demultiplexer 214 is a video stream of a stereo image, the video decoder 217 decodes the video stream input based on the transmission format information among the codec information in the H.264 / AVC method and performs the left. In an embodiment, the image and the right image are restored. For example, if the transmission format information indicates that the 3D content is transmitted in the side-by-side format as shown in FIG. 1A, the video decoder 217 horizontally moves the video stream in the H.264 / AVC manner. Decoded with respect to the left and right image can be restored.

상기 비디오 복호기(217)는 복원된 좌영상과 우영상 중 하나의 영상은 보상부(120)의 제1 버퍼(121)로 출력하고, 다른 하나의 영상은 제3 버퍼(123)로 출력한다. 즉, 그대로 디스플레이 장치(130)로 출력할 영상은 제1 버퍼(121)로 출력하고, 보간 과정을 거쳐 디스플레이 장치(130)로 출력할 영상은 제3 버퍼(123)로 출력한다. 본 발명은 좌영상은 제1 버퍼(121)로 출력하고, 우영상은 제3 버퍼(123)로 출력하는 것을 일 실시예로 한다.The video decoder 217 outputs one of the reconstructed left image and the right image to the first buffer 121 of the compensator 120, and outputs the other image to the third buffer 123. That is, the image to be output to the display device 130 is output to the first buffer 121 as it is, and the image to be output to the display device 130 through the interpolation process is output to the third buffer 123. According to an embodiment of the present invention, the left image is output to the first buffer 121 and the right image is output to the third buffer 123.

또한 상기 비디오 복호기(217)는 역다중화기(214)에서 출력되는 비디오 스트림이 다시점 영상의 비디오 스트림이라면, 상기 코덱 정보 중 시점 정보를 기초로 입력되는 비디오 스트림을 복호하여 다시점 영상을 복원한다. 예를 들어, 기본 계층의 영상은 H.264/AVC 방식으로 복호하고, 상위 계층의 영상은 H.264/MVC 방식으로 복호하여 원래의 다시점 영상을 복원하는 것을 일 실시예로 한다. 본 발명은 복원된 다시점 영상 중 좌측 눈에 보여줄 좌영상과 우측 눈에 보여줄 우영상을 선택하고, 선택된 좌영상은 제1 버퍼(121)로 출력하고, 우영상은 제3 버퍼(123)로 출력하는 것을 일 실시예로 한다.In addition, if the video stream output from the demultiplexer 214 is a video stream of a multiview image, the video decoder 217 decodes the input video stream based on the viewpoint information among the codec information to restore the multiview image. For example, the image of the base layer is decoded by the H.264 / AVC scheme, and the image of the higher layer is decoded by the H.264 / MVC scheme to restore the original multi-view image. The present invention selects a left image to be shown in the left eye and a right image to be shown in the right eye among the restored multi-view images, and outputs the selected left image to the first buffer 121 and the right image to the third buffer 123. In one embodiment, outputting is performed.

본 발명은 설명의 편의를 위해 제1 버퍼(121)로 입력되는 좌영상을 제1 영상이라 하기로 하고, 제3 버퍼(123)로 입력되는 우영상을 제2 영상이라 하기로 한다. For convenience of description, the left image input to the first buffer 121 will be referred to as a first image, and the right image input to the third buffer 123 will be referred to as a second image.

즉, 상기 보상부(120)는 디코딩 장치(110)에서 출력되는 제1 영상을 일시 저장하는 제1 버퍼(121), 제1 버퍼(121)에서 일시 저장된 후 출력되는 제1 영상을 일 시 저장하는 제2 버퍼(122), 디코딩 장치(110)에서 출력되는 제2 영상을 일시 저장하는 제3 버퍼(123), 제3 버퍼(123)에서 일시 저장된 후 출력되는 제2 영상을 일시 저장하는 제4 버퍼(124), 상기 제3, 제4 버퍼(123,124)에서 출력되는 제2 영상을 기초로 보간을 수행하여 제3 영상을 생성하는 보간기(interpolator)(125), 상기 보간기(125)에서 생성된 제3 영상을 일시 저장하는 제5 버퍼(126), 및 상기 제2 버퍼(122)의 제1 영상과 제5 버퍼(126)의 제3 영상 중 하나를 선택하여 디스플레이 장치(130)로 출력하는 선택부(127)를 포함할 수 있다.That is, the compensator 120 temporarily stores a first image output from the decoding apparatus 110 and a first image output after being temporarily stored in the first buffer 121. A second buffer 122, a third buffer temporarily storing a second image output from the decoding apparatus 110, and a second buffer temporarily storing the second image output after being temporarily stored in the third buffer 123. An interpolator 125 for generating a third image by performing interpolation based on a fourth buffer 124, a second image output from the third and fourth buffers 123 and 124, and the interpolator 125. The display device 130 selects one of a fifth buffer 126 that temporarily stores the third image generated by the second image, and a third image of the second buffer 122 and a third image of the fifth buffer 126. It may include a selection unit 127 for outputting.

상기 제1 내지 제5 버퍼(121-124,126)는 적어도 한 필드 또는 한 프레임의 크기를 갖도록 설계될 수 있다. 예를 들어, 한 프레임의 크기를 갖도록 설계된다면, 상기 제1 내지 제5 버퍼(121-124,126)는 프레임 지연기의 역할을 수행한다.The first to fifth buffers 121 to 124 and 126 may be designed to have a size of at least one field or one frame. For example, when designed to have a size of one frame, the first to fifth buffers 121 to 124 and 126 serve as frame delays.

이 경우 상기 제1 버퍼(121)는 상기 디코딩 장치(110)에서 복호되어 출력되는 제1 영상을 입력받아 한 프레임 동안 지연한 후 제2 버퍼(122)로 출력된다. 상기 제2 버퍼(122)는 제1 버퍼(121)에서 지연되어 출력되는 제1 영상을 일정 시간 (예를 들어, 한 프레임 동안) 지연한 후 선택부(127)로 출력한다. In this case, the first buffer 121 receives the first image decoded by the decoding device 110 and outputs the first image after being delayed for one frame and then outputted to the second buffer 122. The second buffer 122 delays the first image output by being delayed from the first buffer 121 for a predetermined time (for example, for one frame) and outputs the delayed first image to the selector 127.

상기 제3 버퍼(123)는 상기 디코딩 장치(110)에서 복호되어 출력되는 제2 영상을 입력받아 한 프레임 동안 지연한 후 제4 버퍼(124)와 보간기(125)로 출력한다. 상기 제4 버퍼(124)는 제3 버퍼(123)에서 출력되는 제2 영상을 다시 한 프레임 동안 지연한 후 상기 보간기(125)로 출력한다.The third buffer 123 receives the second image decoded and output from the decoding apparatus 110 and delays it for one frame and then outputs the second image to the fourth buffer 124 and the interpolator 125. The fourth buffer 124 delays the second image output from the third buffer 123 for another frame and then outputs the second image to the interpolator 125.

즉, 상기 제3 버퍼(123)에서 출력되는 제2 영상은 현재 제2 영상이 되고, 제4 버퍼(124)에서 출력되는 제2 영상은 이전 제2 영상이 된다.That is, the second image output from the third buffer 123 becomes the current second image, and the second image output from the fourth buffer 124 becomes the previous second image.

상기 보간기(125)는 제3 버퍼(123)에서 출력되는 현재 제2 영상과 제4 버퍼(124)에서 출력되는 이전 제2 영상을 기초로 보간을 수행하여 제3 영상을 생성한다. 본 발명은 제3 영상을 생성하는데 참조되는 영상을 참조 영상이라 하기로 한다. 본 발명에서는 현재 제2 영상과 이전 제2 영상이 참조 영상이 된다.The interpolator 125 generates a third image by interpolating based on the current second image output from the third buffer 123 and the previous second image output from the fourth buffer 124. In the present invention, an image referred to for generating a third image is referred to as a reference image. In the present invention, the current second image and the previous second image become reference images.

상기 보간 방법은 입력되는 영상의 개수, 동일한 시간에 샘플링된 좌영상과 우영상 중 어느 것을 먼저 디스플레이하는냐에 따라 달라질 수 있다. The interpolation method may vary depending on the number of input images, which of the left and right images sampled at the same time is displayed first.

만일 디스플레이 장치(130)가 제1 영상 즉, 좌영상을 먼저 디스플레이하고, 그 다음에 제2 영상 즉, 우영상을 디스플레이한다고 가정할 경우에, 상기 보간기(125)에서는 이전 우영상과 현재 우영상을 기초로 보간을 수행하여 제3 영상 즉, 새로운 우영상을 생성하는 것을 일 실시예로 한다. If it is assumed that the display device 130 first displays the first image, that is, the left image, and then displays the second image, that is, the right image, the interpolator 125 uses the previous right image and the current right image. According to an embodiment of the present invention, interpolation is performed based on an image to generate a third image, that is, a new right image.

이때, 보간을 통해 새로운 영상을 생성하는 방법은 다양하다. 예를 들어, 두 참조 영상 간에 움직임이 있다면 두 영상으로부터 움직임 벡터를 추출하여 새로운 영상의 생성에 이용할 수도 있다. 상기 움직임 벡터는 영상간의 움직임 정도와 방향을 나타낸다. In this case, there are various methods of generating a new image through interpolation. For example, if there is motion between two reference images, a motion vector may be extracted from the two images and used to generate a new image. The motion vector represents the degree and direction of motion between images.

만일 두 참조 영상 간에 움직임이 없다면 두 영상의 평균을 구하여 새로운 영상을 생성할 수도 있다. 상기 보간기(125)에서 적어도 하나의 영상을 참조하여 새로운 영상을 생성하는 방법은 당업자에 의해 변경이 용이하므로 본 발명은 상기된 실시예로 한정되지 않을 것이다.If there is no motion between the two reference images, a new image may be generated by calculating the average of the two images. Since the method of generating a new image by referring to at least one image in the interpolator 125 is easy to be changed by those skilled in the art, the present invention will not be limited to the above-described embodiment.

도 6은 보간기(125)에서 현재 영상 f(n+1)과 이전 영상 f(n-1)으로부터 움직임 벡터를 추정하여 새로운 영상 f(n)을 만드는 과정을 보여준다. 6 shows a process of creating a new image f (n) by estimating a motion vector from the current image f (n + 1) and the previous image f (n-1) in the interpolator 125.

예를 들어, t(n-1), t(n+1) 시간에 좌/우 영상이 동시에 샘플링되어 수신되었다고 가정하면, 상기 디코딩 장치(110)에서 복호된 좌영상과 우영상은 시간 t(n-1),t(n+1)의 영상이다. 이때 디스플레이 장치(130)에서 좌영상은 시간 t(n-1), t(n+1)에 디스플레이하고, 우영상은 시간 t(n), t(n+2)에 디스플레이한다고 가정하자. For example, assuming that left and right images are simultaneously sampled and received at times t (n-1) and t (n + 1), the left image and the right image decoded by the decoding apparatus 110 have a time t ( n-1), t (n + 1). In this case, it is assumed that the left image is displayed at the time t (n-1) and t (n + 1) and the right image is displayed at the time t (n) and t (n + 2) in the display device 130.

이 경우 상기 보간기(125)는 이전 우영상 f(n-1)에 포함되어 있는 오브젝트가 현재 우영상 f(n+1)의 어디에 위치하는가를 알 수 있는 움직임 벡터를 찾는다. 그리고 그 움직임 벡터와 이전 우영상 f(n-1) 또는 현재 우영상 f(n+1)을 이용해서 시간 t(n)에 필요한 우영상 f(n)을 생성한다. In this case, the interpolator 125 finds a motion vector that knows where the object included in the previous right image f (n-1) is located in the current right image f (n + 1). The right image f (n) necessary for the time t (n) is generated using the motion vector and the previous right image f (n-1) or the current right image f (n + 1).

만일 버퍼의 용량 또는 버퍼의 개수를 늘릴 수 있다면, 상기 보간에 이용된 참조 영상보다 더욱 많은 참조 영상을 이용하여 새로운 우영상을 만들어낼 수도 있다. 이때 참조되는 영상이 많을수록 새로운 영상의 해상도는 높아지지만 버퍼의 증가로 인해 가격이 상승하므로, 시스템에 따라 참조 영상의 수 및 보간 방법을 결정한다. If the capacity of the buffer or the number of buffers can be increased, a new right picture may be generated using more reference pictures than the reference pictures used for interpolation. At this time, the more the reference image is, the higher the resolution of the new image, but the price increases due to the increase in the buffer, the number of reference images and the interpolation method is determined according to the system.

상기 보간기(125)에서 생성된 제3 영상은 제5 버퍼(126)로 출력되어 일정 시간(예를 들어 한 프레임 동안) 지연된 후 선택부(127)로 출력된다.The third image generated by the interpolator 125 is output to the fifth buffer 126, delayed for a predetermined time (for example, for one frame), and then output to the selector 127.

상기 선택부(127)는 스위칭 소자, 먹스 등을 이용하여 구현될 수 있다. 상기 선택부(127)는 제2 버퍼(122)에 저장된 제1 영상(L1,L2,...)과 제5 버퍼(126)에 저장된 제3 영상(R1',R2',...)을 순차적으로 선택하여 디스플레이 장치(130)로 출력한다. 도 7에서, L1,L2,...는 제2 버퍼(122)에서 선택부(127)로 출력되는 제1 영상 즉, 좌영상을 표시하고, R1,R2,...는 보간기(125)로 입력되는 제2 영상 즉, 우영상을 표시한다. 그리고, R1',R2',...는 제5 버퍼(126)에서 선택부(127)로 출력되는 제3 영상 즉, 새로운 우영상을 표시한다. The selector 127 may be implemented using a switching element, a mux, or the like. The selector 127 may include the first images L1, L2, ... stored in the second buffer 122 and the third images R1 ', R2', ..., stored in the fifth buffer 126. Are sequentially selected and output to the display device 130. In FIG. 7, L1, L2, ... denote a first image, that is, a left image, output from the second buffer 122 to the selector 127, and R1, R2, ... denote interpolators 125. In FIG. The second image, i.e., the right image, is inputted as). R1 ', R2', ... display a third image, that is, a new right image, output from the fifth buffer 126 to the selector 127.

상기 디스플레이 장치(130)는 상기 디코딩 장치(110) 또는 보상부(120)에서 출력되는 영상을 2차원 또는 3차원 형태로 디스플레이한다. 상기 디스플레이 장치로는 일반 2D 영상을 디스플레이할 수 있는 장치, 안경을 필요로 하는 3D 영상을 디스플레이할 수 있는 장치, 안경을 필요로 하지 않는 3D 영상을 디스플레이할 수 있는 장치 등이 될 수 있다.The display device 130 displays an image output from the decoding device 110 or the compensator 120 in a two-dimensional or three-dimensional form. The display device may be a device capable of displaying a general 2D image, a device capable of displaying a 3D image requiring glasses, or a device capable of displaying a 3D image not requiring glasses.

상기 디스플레이 장치(130)는 상기 보상부(120)의 선택부(127)에서 출력되는 제1 영상과 제3 영상을 이용하여 다양한 방법으로 3D 영상을 만들어 디스플레이하는 것을 일 실시예로 한다. According to an embodiment of the present disclosure, the display apparatus 130 creates and displays a 3D image using various methods using the first image and the third image output from the selector 127 of the compensator 120.

본 발명의 디스플레이 장치(130)는 안경을 착용하는 방식 중 좌영상과 우영상을 순차적으로 디스플레이하는 셔텨드 글래스(shuttered glass) 방식을 이용하는 것을 일 실시예로 한다.According to an embodiment of the present invention, the display device 130 uses a shuttered glass method that sequentially displays a left image and a right image of a method of wearing glasses.

이를 위해 상기 디스플레이 장치(130)는 셔터 글래스를 포함하는 것을 일 실시예로 한다.To this end, the display device 130 includes a shutter glass according to an embodiment.

상기 셔터 글래스는 디스플레이 장치(130)의 화면에 표시되는 3D 영상을 보기 위해 사용자에게 착용되어야 하는 장치로서, 동기 신호(도시되지 않음)에 따라 좌우 렌즈를 번갈아 개폐함으로써 사용자에게 3D 영상을 제공한다. 즉, 상기 셔터 글래스의 좌우 렌즈가 번갈아 개폐됨에 따라 좌영상과 우영상이 번갈아 차단됨으로 써 좌우 양안에는 서로 다른 상이 맺히게 되고, 이를 통해 사용자는 입체감을 느끼게 된다. 다시 말해, 상기 셔터 글래스의 좌우 렌즈가 번갈아 개폐됨으로써, 사용자의 좌측 눈으로는 좌영상만을 보게되고, 우측 눈으로는 우영상만을 보게 되는데, 이러한 동작이 빠른 속도로 수행되면서 사용자는 좌/우영상을 동시에 보는 것처럼 느끼게 되고, 그 결과 영상이 입체적으로 보이게 된다.The shutter glass is a device that should be worn by a user to view a 3D image displayed on a screen of the display device 130. The shutter glass provides a 3D image to the user by alternately opening and closing the left and right lenses according to a synchronization signal (not shown). That is, the left and right images are alternately blocked as the left and right lenses of the shutter glass are alternately opened and closed, so that different images are formed between the left and right eyes, thereby allowing the user to feel a three-dimensional effect. In other words, the left and right lenses of the shutter glass are alternately opened and closed, so that only the left image is seen by the left eye of the user, and only the right image is seen by the right eye. You will feel as if you are watching them at the same time, and as a result, the image will appear three-dimensional.

도 7을 예로 들면, 상기 디스플레이 장치(130)는 같은 샘플링 시간에 대해 선택부(127)에서 출력되는 제1 영상 즉, 좌영상을 먼저 디스플레이하고, 이어 선택부(127)에서 출력되는 제3 영상 즉, 새로운 우영상을 디스플레이한다. 이러한 과정을 반복하여 3D 영상을 구현하면, 디스플레이 시차로 인한 왜곡이 발생하지 않게 된다. Referring to FIG. 7, the display device 130 first displays a first image, that is, a left image, output from the selector 127 for the same sampling time, and then a third image output from the selector 127. That is, a new right image is displayed. If the 3D image is repeated by repeating this process, distortion due to display parallax does not occur.

만일 콘텐트 소스로부터 2D 콘텐츠가 전송되었다면, 상기 디코딩 장치(110)는 기존 방식에 따라 비디오 스트림과 오디오 스트림을 분리하고, 각각의 복호 알고리즘으로 복호한 후 디스플레이 장치(130)로 바로 출력한다. 상기 디스플레이 장치(130)는 기존의 방식대로 2D 영상을 디스플레이한다.If the 2D content is transmitted from the content source, the decoding device 110 separates the video stream and the audio stream according to the conventional scheme, decodes each of the decoding algorithms, and outputs them directly to the display device 130. The display device 130 displays a 2D image in a conventional manner.

이상에서와 같이 본 발명에 따른 수신 시스템 및 데이터 처리 방법은 좌영상과 우영상의 샘플링 시간이 동일한 3D 콘텐츠를 수신하여 좌영상과 우영상을 복원한 후 순차적으로 디스플레이할 때, 두 영상 중 하나의 영상을 보간하여 디스플레이한다. 이렇게 함으로써, 디스플레이 시차로 인해 오브젝트(물체)의 깊이 정보가 왜곡되는 것을 방지할 수 있다.As described above, the reception system and the data processing method according to the present invention receive 3D content having the same sampling time of the left image and the right image, restore the left image and the right image, and sequentially display one of the two images. Interpolate and display the image. By doing so, it is possible to prevent the depth information of the object (object) from being distorted due to display parallax.

본 발명은 좌영상과 우영상이 각각 눈에 보여지는 시간이 다른 형태의 디스 플레이 장치에 적용하면 효과적이다. The present invention is effective when applied to a display device of a different time that the left image and the right image are respectively visible.

지금까지 설명한 본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가지 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다. The present invention described so far is not limited to the above-described embodiments, and can be modified by those skilled in the art as can be seen from the appended claims, and such modifications are the scope of the present invention. Belongs to.

이상 설명한 내용을 통해 당업자라면 본 발명의 기술 사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention.

따라서 본 발명의 기술적 범위는 실시예에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의하여 정해져야 한다. Therefore, the technical scope of the present invention should not be limited to the contents described in the embodiments, but should be defined by the claims.

도 1은 본 발명에 따른 3D 영상의 전송 포맷들 중 싱글 비디오 스트림 포맷의 예들을 보인 도면1 illustrates examples of a single video stream format among 3D video transmission formats according to the present invention.

도 2는 본 발명에 따른 3D 영상의 전송 포맷들 중 멀티 비디오 스트림 포맷의 예들을 보인 도면2 is a diagram illustrating examples of a multi video stream format among 3D video transmission formats according to the present invention.

도 3의 (a) 내지 (d)는 동일한 시간에 샘플링된 좌영상과 우영상의 디스플레이 과정을 보인 도면3A to 3D are views illustrating a process of displaying a left image and a right image sampled at the same time;

도 4는 본 발명에 따른 수신 시스템의 일 실시예를 보인 구성 블록도4 is a block diagram showing an embodiment of a receiving system according to the present invention;

도 5는 도 4의 디코딩 장치의 일 실시예를 보인 상세 블록도5 is a detailed block diagram illustrating an embodiment of the decoding apparatus of FIG. 4.

도 6은 도 4의 보상부의 보간 과정의 일 실시예를 보인 도면FIG. 6 is a diagram illustrating an embodiment of an interpolation process of the compensator of FIG. 4. FIG.

도 7은 도 4의 디스플레이 장치에서 좌영상과 보간된 우영상을 디스플레이하는 과정의 일 실시예를 보인 도면FIG. 7 illustrates an embodiment of a process of displaying a left image and an interpolated right image in the display device of FIG. 4; FIG.

*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

110 : 디코딩 장치 120 : 보상부110: decoding device 120: compensation unit

130 : 디스플레이 장치130: display device

211 : 제어부 212 : 유저 인터페이스부211: control unit 212: user interface unit

213 : 수신부 214 : 역다중화기213: receiver 214: demultiplexer

215 : 시스템 정보 처리부 216 : 오디오 복호기215: system information processing unit 216: audio decoder

217 : 비디오 복호기217: Video Decoder

Claims (12)

3D 콘텐츠와 상기 3D 콘텐츠에 관련된 시스템 정보를 포함하는 방송 신호를 수신하는 수신부;A receiver configured to receive a broadcast signal including 3D content and system information related to the 3D content; 상기 수신된 3D 콘텐츠를 코덱 정보를 기초로 복호하여 상기 3D 콘텐츠로부터 제1 영상과 제2 영상을 복원하는 복호부;A decoder configured to decode the received 3D content based on codec information to reconstruct a first image and a second image from the 3D content; 상기 복호부에서 복원된 제2 영상을 기초로 제3 영상을 생성하는 보상부; 및A compensator configured to generate a third image based on the second image reconstructed by the decoder; And 상기 복호부에서 복원된 제1 영상과 상기 보상부에서 생성된 제3 영상을 순차적으로 디스플레이하는 디스플레이 장치를 포함하는 것을 특징으로 하는 수신 시스템.And a display device configured to sequentially display the first image reconstructed by the decoder and the third image generated by the compensator. 제 1 항에 있어서, The method of claim 1, 상기 시스템 정보로부터 해당 3D 콘텐츠의 코덱 정보를 추출하여 상기 복호부로 출력하는 시스템 정보 처리부를 더 포함하는 것을 특징으로 하는 수신 시스템.And a system information processing unit for extracting codec information of the 3D content from the system information and outputting the codec information to the decoding unit. 제 2 항에 있어서, The method of claim 2, 상기 코덱 정보는 전송 포맷 정보와 시점 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 수신 시스템.The codec information includes at least one of transmission format information and viewpoint information. 제 1 항에 있어서, 상기 보상부는The method of claim 1, wherein the compensation unit 상기 복호부에서 출력되는 제1 영상을 저장하는 제1 영상 저장부;A first image storage unit for storing a first image output from the decoder; 상기 복호부에서 출력되는 제2 영상을 저장한 후 참조 영상으로 출력하는 제2 영상 저장부;A second image storage unit for storing the second image output from the decoder and outputting the second image as a reference image; 상기 제2 영상 저장부에서 출력되는 적어도 하나의 참조 영상을 기초로 제3 영상을 생성하는 보간기;An interpolator configured to generate a third image based on at least one reference image output from the second image storage unit; 상기 보간기에서 출력되는 제3 영상을 저장하는 제3 영상 저장부; 및 A third image storage unit which stores a third image output from the interpolator; And 상기 제1 영상 저장부에 저장된 제1 영상과 제3 영상 저장부에 저장된 제3 영상을 순차적으로 출력하는 선택부를 포함하는 것을 특징으로 하는 수신 시스템.And a selection unit configured to sequentially output the first image stored in the first image storage unit and the third image stored in the third image storage unit. 제 4 항에 있어서, 상기 보간기는5. The apparatus of claim 4, wherein the interpolator is 상기 제2 영상 저장부에서 이전 제2 영상과 현재 제2 영상을 입력받아 두 영상간의 움직임 벡터를 추출한 후, 추출된 움직임 벡터를 이용하여 제3 영상을 생성하는 것을 특징으로 하는 수신 시스템.And receiving a previous second image and a current second image from the second image storage unit, extracting a motion vector between the two images, and then generating a third image using the extracted motion vector. 제 1 항에 있어서, The method of claim 1, 상기 제1,제2 영상은 동일 시간에 샘플링된 좌영상과 우영상인 것을 특징으로 하는 수신 시스템.And the first and second images are left images and right images sampled at the same time. 3D 콘텐츠와 상기 3D 콘텐츠에 관련된 시스템 정보를 포함하는 방송 신호를 수신하는 단계;Receiving a broadcast signal including 3D content and system information related to the 3D content; 상기 수신된 3D 콘텐츠를 코덱 정보를 기초로 복호하여 상기 3D 콘텐츠로부터 제1 영상과 제2 영상을 복원하는 단계;Restoring a first image and a second image from the 3D content by decoding the received 3D content based on codec information; 상기 복원된 제2 영상을 기초로 제3 영상을 생성하는 단계; 및Generating a third image based on the reconstructed second image; And 상기 복원된 제1 영상과 상기 생성된 제3 영상을 순차적으로 디스플레이하는 단계를 포함하는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.And sequentially displaying the reconstructed first image and the generated third image. 제 7 항에 있어서, The method of claim 7, wherein 상기 시스템 정보로부터 해당 3D 콘텐츠의 코덱 정보를 추출하여 상기 복호 단계로 출력하는 단계를 더 포함하는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.Extracting codec information of the 3D content from the system information and outputting the codec information to the decoding step. 제 8 항에 있어서, The method of claim 8, 상기 코덱 정보는 전송 포맷 정보와 시점 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.The codec information includes at least one of transmission format information and viewpoint information. 제 7 항에 있어서, 상기 보상 단계는8. The method of claim 7, wherein the compensating step is 상기 복원된 제1 영상을 저장하는 단계;Storing the restored first image; 상기 복원된 제2 영상을 저장한 후 적어도 하나의 참조 영상으로 출력하는 단계;Storing the restored second image and outputting the restored second image as at least one reference image; 상기 참조 영상을 기초로 제3 영상을 생성하는 단계;Generating a third image based on the reference image; 상기 생성된 제3 영상을 저장하는 단계; 및 Storing the generated third image; And 상기 복원되어 저장된 제1 영상과 상기 생성되어 저장된 제3 영상을 순차적으로 출력하는 단계를 포함하는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.And sequentially outputting the restored and stored first image and the generated and stored third image. 제 10 항에 있어서, 상기 제3 영상 생성 단계는The method of claim 10, wherein the generating of the third image 상기 참조 영상 중 이전 제2 영상과 현재 제2 영상간의 움직임 벡터를 추출한 후, 추출된 움직임 벡터를 이용하여 제3 영상을 생성하는 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.And extracting a motion vector between a previous second image and a current second image among the reference images, and then generating a third image using the extracted motion vector. 제 7 항에 있어서, The method of claim 7, wherein 상기 제1,제2 영상은 동일 시간에 샘플링된 좌영상과 우영상인 것을 특징으로 하는 수신 시스템의 데이터 처리 방법.And the first and second images are a left image and a right image sampled at the same time.
KR1020080118997A 2008-11-27 2008-11-27 Receiving system and method of processing data KR101556149B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080118997A KR101556149B1 (en) 2008-11-27 2008-11-27 Receiving system and method of processing data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080118997A KR101556149B1 (en) 2008-11-27 2008-11-27 Receiving system and method of processing data

Publications (2)

Publication Number Publication Date
KR20100060413A true KR20100060413A (en) 2010-06-07
KR101556149B1 KR101556149B1 (en) 2015-09-30

Family

ID=42361334

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080118997A KR101556149B1 (en) 2008-11-27 2008-11-27 Receiving system and method of processing data

Country Status (1)

Country Link
KR (1) KR101556149B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101127450B1 (en) * 2010-04-22 2012-03-26 주식회사 디지털존 Video palyback apparatus and method of detecting 3d video data format
EP2469867A3 (en) * 2010-12-22 2013-04-10 Sony Corporation Image processing apparatus and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101127450B1 (en) * 2010-04-22 2012-03-26 주식회사 디지털존 Video palyback apparatus and method of detecting 3d video data format
EP2469867A3 (en) * 2010-12-22 2013-04-10 Sony Corporation Image processing apparatus and image processing method

Also Published As

Publication number Publication date
KR101556149B1 (en) 2015-09-30

Similar Documents

Publication Publication Date Title
US10341636B2 (en) Broadcast receiver and video data processing method thereof
KR100970649B1 (en) Receiving system and method of processing data
Merkle et al. 3D video: acquisition, coding, and display
US9756380B2 (en) Broadcast receiver and 3D video data processing method thereof
KR101664419B1 (en) Reception system and data processing method
CA2760100C (en) Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
KR20120013974A (en) Broadcast transmitter, broadcast receiver and 3d video data processing method thereof
US9485490B2 (en) Broadcast receiver and 3D video data processing method thereof
WO2011089982A1 (en) Reception device, transmission device, communication system, method for controlling reception device, and program
Coll et al. 3D TV at home: Status, challenges and solutions for delivering a high quality experience
CH706886A2 (en) Method for the generation, transmission and reception of stereoscopic images and related devices.
KR20100112940A (en) A method for processing data and a receiving system
KR101556149B1 (en) Receiving system and method of processing data
KR20150079577A (en) Method and apparatus for processing edge violation phenomenon in multi-view 3dtv service
KR101733488B1 (en) Method for displaying 3 dimensional image and 3 dimensional image display device thereof
Sullivan Standards-based approaches to 3D and multiview video coding
GB2470402A (en) Transmitting three-dimensional (3D) video via conventional monoscopic (2D) channels as a multiplexed, interleaved data stream

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180814

Year of fee payment: 4