KR20100060413A - Receiving system and method of processing data - Google Patents
Receiving system and method of processing data Download PDFInfo
- Publication number
- KR20100060413A KR20100060413A KR1020080118997A KR20080118997A KR20100060413A KR 20100060413 A KR20100060413 A KR 20100060413A KR 1020080118997 A KR1020080118997 A KR 1020080118997A KR 20080118997 A KR20080118997 A KR 20080118997A KR 20100060413 A KR20100060413 A KR 20100060413A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- information
- content
- images
- output
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
본 발명은 영상 신호를 처리하기 위한 장치 및 방법에 관한 것으로서, 보다 상세하게는 3차원 영상 신호를 수신하여 처리하기 위한 수신 시스템 및 데이터 처리 방법에 관한 것이다. The present invention relates to an apparatus and method for processing an image signal, and more particularly, to a receiving system and a data processing method for receiving and processing a three-dimensional image signal.
일반적으로 3차원(3 dimensions ; 3D) 영상(또는 입체 영상)은 두 눈의 스테레오(stereo) 시각 원리에 의한다. 두 눈의 시차 다시 말해 약 65mm 정도 떨어져 존재하는 두 눈 사이의 간격에 의한 양안시차(binocular parallax)는 입체감을 느끼게 하는 중요한 요인으로 좌우 눈이 각각 연관된 평면 영상을 볼 경우 뇌는 이들 서로 다른 두 영상을 융합하여 3D 영상 본래의 깊이감과 실재감을 재생할 수 있다.In general, three-dimensional (3D) image (or stereoscopic image) is based on the stereo vision principle of two eyes. The parallax of two eyes, that is, the binocular parallax due to the distance between two eyes that are about 65mm apart, is an important factor to make a sense of three-dimensional feeling. By fusing the 3D image, the original depth and reality can be reproduced.
이러한 3D 영상 표시는 크게 스테레오스코픽(stereoscopic) 방식, 부피표현(volumetric) 방식, 홀로그래픽(holographic) 방식으로 구분된다. 예를 들어, 스테레오스코픽 기술을 적용한 3D 영상 디스플레이 장치는 2D 영상에 깊이(depth) 정보를 부가하고, 이 깊이 정보를 이용하여 관찰자가 3D의 생동감과 현실감을 느낄 수 있게 하는 화상 표시 장치이다. Such 3D image display is largely classified into a stereoscopic method, a volumetric method, and a holographic method. For example, a 3D image display apparatus using a stereoscopic technique is an image display apparatus that adds depth information to a 2D image and uses the depth information to allow an observer to feel the liveness and reality of 3D.
그리고 3D 영상을 보여주는 방식에는 크게 안경을 착용하는 방식과 안경을 착용하지 않는 무안경 방식이 있다. In addition, there are two methods of displaying 3D images, a method of wearing glasses and a glasses-free method of not wearing glasses.
안경을 착용하는 방식은 다시 패시브(passive) 방식과 액티브(active) 방식으로 나눈다. 상기 passive 방식은 편광필터를 사용해서 좌영상과 우영상을 구분해서 보여주는 방식이다. 즉, 상기 passive 방식은 양안에 각각 청색과 적색의 색안경을 쓰고 보는 방식이다. 상기 active 방식은 시간적으로 왼쪽 눈과 오른쪽 눈을 순차적으로 가림으로써 좌영상과 우영상을 구분하는 방식이다. 즉, 상기 active 방식은 시간 분할된 화면을 주기적으로 반복시키고 이 주기에 동기시킨 전자셔터가 설치된 안경을 쓰고 보는 방식이며, 시분할 방식(time split type) 또는 셔텨드 글래스(shuttered glass) 방식이라 하기도 한다.The way of wearing glasses is divided into passive and active. The passive method distinguishes between a left image and a right image using a polarization filter. That is, the passive method is a method of wearing blue and red sunglasses, respectively, in both eyes. The active method distinguishes the left image from the right image by sequentially covering the left eye and the right eye in time. In other words, the active method is a method of periodically repeating a time-divided screen and wearing and viewing glasses with an electronic shutter synchronized to the period, and may also be referred to as a time split type or shuttered glass method. .
안경을 착용하지 않는 무안경 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈 어레이를 수직으로 배열한 렌티큘러(lenticular) 렌즈판을 영상 패널 전방에 설치하는 렌티큘러 방식과, 영상 패널 상부에 주기적인 슬릿을 갖는 배리어 층을 구비하는 패러랙스 배리어(parallax barrier) 방식이 있다.Representative examples of glasses-free glasses-free methods include a lenticular method in which a lenticular lens plate in which cylindrical lens arrays are vertically arranged in front of the image panel, and a barrier layer having periodic slits on the image panel. There is a parallax barrier (parallax barrier) method having a.
본 발명의 목적은 좌영상과 우영상을 번갈아 디스플레이하여 3D 영상을 구현할 때, 디스플레이 시차(time difference)로 발생하는 왜곡을 보상하기 위한 수신 시스템 및 데이터 처리 방법을 제공함에 있다.An object of the present invention is to provide a receiving system and a data processing method for compensating for distortion caused by display time difference when a 3D image is displayed by alternately displaying a left image and a right image.
본 발명의 일 실시예에 따른 수신 시스템은 수신부, 복호부, 보상부, 및 디스플레이 장치를 포함할 수 있다. 상기 수신부는 3D 콘텐츠와 상기 3D 콘텐츠에 관련된 시스템 정보를 포함하는 방송 신호를 수신한다. 상기 복호부는 상기 수신된 3D 콘텐츠를 코덱 정보를 기초로 복호하여 상기 3D 콘텐츠로부터 제1 영상과 제2 영상을 복원한다. 상기 보상부는 상기 복호부에서 복원된 제2 영상을 기초로 제3 영상을 생성한다. 상기 디스플레이 장치는 상기 복호부에서 복원된 제1 영상과 상기 보상부에서 생성된 제3 영상을 순차적으로 디스플레이한다. A reception system according to an embodiment of the present invention may include a receiver, a decoder, a compensator, and a display device. The receiver receives a broadcast signal including 3D content and system information related to the 3D content. The decoder decodes the received 3D content based on codec information to reconstruct a first image and a second image from the 3D content. The compensator generates a third image based on the second image reconstructed by the decoder. The display device sequentially displays a first image reconstructed by the decoder and a third image generated by the compensator.
상기 시스템 정보로부터 해당 3D 콘텐츠의 코덱 정보를 추출하여 상기 복호부로 출력하는 시스템 정보 처리부를 더 포함할 수 있다.The apparatus may further include a system information processor configured to extract codec information of the 3D content from the system information and output the codec information to the decoder.
상기 보상부는 상기 복호부에서 출력되는 제1 영상을 저장하는 제1 영상 저장부, 상기 복호부에서 출력되는 제2 영상을 저장한 후 참조 영상으로 출력하는 제2 영상 저장부, 상기 제2 영상 저장부에서 출력되는 적어도 하나의 참조 영상을 기초로 제3 영상을 생성하는 보간기, 상기 보간기에서 출력되는 제3 영상을 저장하는 제3 영상 저장부, 및 상기 제1 영상 저장부에 저장된 제1 영상과 제3 영상 저장부 에 저장된 제3 영상을 순차적으로 출력하는 선택부를 포함할 수 있다.The compensation unit may include a first image storage unit storing a first image output from the decoder, a second image storage unit storing a second image output from the decoder, and outputting the second image as a reference image, and storing the second image. An interpolator for generating a third image based on the at least one reference image output from the unit, a third image storage unit for storing the third image output from the interpolator, and a first image stored in the first image storage unit It may include a selection unit for sequentially outputting the image and the third image stored in the third image storage unit.
본 발명의 일 실시예에 따른 수신 시스템의 데이터 처리 방법은, 3D 콘텐츠와 상기 3D 콘텐츠에 관련된 시스템 정보를 포함하는 방송 신호를 수신하는 단계, 상기 수신된 3D 콘텐츠를 코덱 정보를 기초로 복호하여 상기 3D 콘텐츠로부터 제1 영상과 제2 영상을 복원하는 단계, 상기 복원된 제2 영상을 기초로 제3 영상을 생성하는 단계, 및 상기 복원된 제1 영상과 상기 생성된 제3 영상을 순차적으로 디스플레이하는 단계를 포함할 수 있다.In a data processing method of a reception system according to an embodiment of the present invention, receiving a broadcast signal including 3D content and system information related to the 3D content, and decoding the received 3D content based on codec information. Restoring a first image and a second image from 3D content, generating a third image based on the restored second image, and sequentially displaying the restored first image and the generated third image It may include the step.
본 발명의 다른 목적, 특징 및 잇점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings.
본 발명에 따른 수신 시스템 및 데이터 처리 방법은 좌영상과 우영상의 샘플링 시간이 동일한 3D 콘텐츠를 수신하여 좌영상과 우영상을 복원한 후 순차적으로 디스플레이할 때, 두 영상 중 하나의 영상을 보간하여 디스플레이한다. 이렇게 함으로써, 디스플레이 시차로 인해 오브젝트(물체)의 깊이 정보가 왜곡되는 것을 방지할 수 있다.The receiving system and the data processing method according to the present invention receive 3D contents having the same sampling time of the left image and the right image, reconstruct the left image and the right image, and sequentially display the interpolated images of one of the two images. Display. By doing so, it is possible to prevent the depth information of the object (object) from being distorted due to display parallax.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention that can specifically realize the above object will be described. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다. The terms used in the present invention were selected as widely used general terms as possible in consideration of the functions in the present invention, but may vary according to the intention or custom of the person skilled in the art or the emergence of new technologies. In addition, in certain cases, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the corresponding description of the invention. Therefore, it is intended that the terms used in the present invention should be defined based on the meanings of the terms and the general contents of the present invention rather than the names of the simple terms.
본 발명은 3D 영상을 처리할 수 있는 수신 시스템의 디스플레이 장치가 좌 영상과 우 영상을 순차적으로 보여주는 액티브 방식일 때, 디스플레이 시차에서 발생하는 왜곡을 보상하도록 하는데 있다.The present invention is to compensate for the distortion caused by the display parallax when the display device of the receiving system capable of processing the 3D image is an active method to sequentially show the left image and the right image.
상기 3D 영상으로는 두개의 시점을 고려하는 스테레오(또는 스테레오스코픽) 영상, 세 시점 이상을 고려하는 다시점 영상 등이 있다.The 3D image may include a stereo (or stereoscopic) image considering two views and a multiview image considering three or more views.
상기 스테레오 영상은 일정한 거리로 이격되어 있는 좌측 카메라와 우측 카메라로 동일한 피사체를 촬영하여 획득한 1쌍의 좌우 영상을 말한다. 상기 다시점 영상은 일정한 거리나 각도를 갖는 3개 이상의 카메라로 동일한 피사체를 촬영하여 획득한 3개 이상의 영상을 말한다. The stereo image refers to a pair of left and right images obtained by photographing the same subject with a left camera and a right camera spaced apart from each other by a certain distance. The multi-view image refers to three or more images obtained by photographing the same subject with three or more cameras having a constant distance or angle.
상기 스테레오 영상의 전송 포맷으로는 싱글 비디오 스트림 포맷과 멀티 비디오 스트림 포맷이 있다. 상기 싱글 비디오 스트림 포맷으로는 도 1의 (a)의 사이드 바이 사이드(side by side), 도 1의 (b)의 톱/다운(top/down), 도 1의 (c)의 인터레이스드(interlaced), 도 1의 (d)의 프레임 시퀀셜(frame sequential), 도 1의 (e)의 체커 보드(checker board), 도 1의 (f)의 애너그리프(anaglyph) 등이 있다. 상기 멀티 비디오 스트림 포맷으로는 도 2의 (a)의 풀 좌/우(Full left/right), 도 2의 (b)의 풀 좌/하프 우(Full left/Half right), 도 2의 (c)의 2D 비디오/깊이(2D video/depth) 등이 있다. 예를 들어, 상기 도 1의 (a)의 사이드 바이 사이드 포맷은 좌 영상과 우 영상을 각각 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상을 좌측에, 샘플링한 우 영상을 우측에 위치시켜 하나의 스테레오 영상을 만든 경우이다. 도 1의 (b)의 탑/다운 포맷은 좌 영상과 우 영상을 각각 수직 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상을 상부에, 샘플링한 우 영상을 하부에 위치시켜 하나의 스테레오 영상을 만든 경우이다. 도 1의 (c)의 인터레이스드 포맷은 좌 영상과 우 영상을 각각 수직 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상의 화소와 우 영상의 화소가 라인마다 교대로 위치하도록 하여 스테레오 영상을 만들거나, 좌 영상과 우 영상을 각각 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상의 화소와 우 영상의 화소가 한 화소씩 교대로 위치하도록 하여 스테레오 영상을 만든 경우이다. 도 1의 (e)의 체커 보드 포맷은 좌 영상과 우 영상을 각각 수직과 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 좌 영상의 화소와 우 영상의 화소가 한 화소씩 교대로 위치하도록 하여 스테레오 영상을 만든 경우이다. The transmission format of the stereo video includes a single video stream format and a multi video stream format. As the single video stream format, the side by side of FIG. 1A, the top / down of FIG. 1B, and the interlaced FIG. ), A frame sequential of FIG. 1D, a checker board of FIG. 1E, an anaglyph of FIG. 1F, and the like. As the multi video stream format, full left / right of FIG. 2A, full left / half right of FIG. 2B, and FIG. 2C ) 2D video / depth. For example, in the side-by-side format of FIG. 1A, the left and right images are each half subsampled in the horizontal direction, and the sampled left image is positioned on the left side and the sampled right image is positioned on the right side. In this case, one stereo image is created. In the top / down format of FIG. 1 (b), one stereo image is placed by sub-sampling the left image and the right image in the vertical direction, and the sampled left image is placed at the top and the sampled right image is placed at the bottom. If it is created. In the interlaced format of FIG. 1C, the left and right images are each half subsampled in the vertical direction, and the pixels of the sampled left image and the pixels of the right image are alternately positioned for each line so that a stereo image can be obtained. In this case, a stereo image is created by sub-sampling the left image and the
또한 도 2의 (a)의 풀 좌/우 포맷은 좌 영상과 우 영상을 순차적으로 각각 전송하는 경우이고, 도 2의 (b)의 풀 좌/하프 우 포맷은 좌 영상은 그대로, 우 영상은 수직 또는 수평 방향으로 1/2 서브 샘플링하여 전송하는 경우이다. 도 2의 (c)의 2D 비디오/깊이 포맷은 좌 영상과 우 영상 중 하나의 영상과 다른 하나의 영 상을 만들어내기 위한 깊이 정보를 함께 전송하는 경우이다. In addition, the full left / right format of FIG. 2 (a) is a case in which left and right images are sequentially transmitted, respectively. In the full left / half right format of FIG. This is the case when 1/2 subsampling is transmitted in the vertical or horizontal direction. The 2D video / depth format of FIG. 2C is a case in which one of a left image and a right image is transmitted together with depth information for generating another image.
이때 상기 스테레오 영상 또는 다시점 영상은 MPEG 또는 여러 가지 방법으로 압축 부호화되어 수신 시스템으로 전송된다.In this case, the stereo image or the multi-view image are compressed and encoded by MPEG or various methods and transmitted to the receiving system.
예를 들어, 상기 사이드 바이 사이드 포맷, 톱/다운 포맷, 인터레이스드 포맷, 체커 보드 등과 같은 스테레오 영상은 H.264/AVC 방식으로 압축 부호화하여 전송할 수 있다. 이때 수신 시스템에서 H.264/AVC 코딩 방식의 역으로 상기 스테레오 영상에 대해 복호를 수행하여 3D 영상을 얻을 수 있다. For example, stereo images such as the side-by-side format, the top / down format, the interlaced format, the checker board, and the like may be compressed and transmitted in the H.264 / AVC method. In this case, a 3D image may be obtained by decoding the stereo image in the inverse of the H.264 / AVC coding scheme in the reception system.
또한 상기 풀 좌/하프 우 포맷의 좌 영상 또는 다시점 영상 중 하나의 영상은 기본 계층(based layer) 영상으로, 나머지 영상은 상위 계층(enhanced layer) 영상으로 할당한 후, 기본 계층의 영상은 모노스코픽 영상과 동일한 방식으로 부호화하고, 상위 계층의 영상은 기본 계층과 상위 계층의 영상간의 상관 정보에 대해서만 부호화하여 전송할 수 있다. 상기 기본 계층의 영상에 대한 압축 부호화 방식의 예로는 JPEG, MPEG-1, MPEG-2, MPEG-4, H.264/AVC 방식 등이 사용될 수 있으며, 본 발명은 H.264/AVC 방식을 사용하는 것을 일 실시예로 한다. 그리고 상위 계층의 영상에 대한 압축 부호화 방식은 H.264/MVC (Multi-view Video Coding) 방식을 사용하는 것을 일 실시예로 한다. 이때, 스테레오 영상은 기본 계층의 영상과 하나의 상위 계층 영상으로 할당되나, 다시점 영상은 하나의 기본 계층의 영상과 복수개의 상위 계층 영상으로 할당된다. 상기 다시점 영상을 기본 계층의 영상과 하나 이상의 상위 계층의 영상으로 구분하는 기준은 카메라의 위치에 따라 결정될 수도 있고, 카메라의 배열 형태에 따라 결정될 수도 있다. 또는 특별한 기준을 따르지 않 고 임의로 결정될 수도 있다. In addition, one of the left image or the multiview image of the full left / half right format is assigned as a base layer image, and the remaining images are assigned as an enhanced layer image, and then the base layer image is mono. Encoding is performed in the same manner as the scopic video, and an upper layer video may be encoded and transmitted only for correlation information between a base layer and an upper layer image. Examples of the compression encoding scheme for the image of the base layer may be JPEG, MPEG-1, MPEG-2, MPEG-4, H.264 / AVC method, the present invention uses the H.264 / AVC method In one embodiment. In addition, as an embodiment, the compression coding scheme for the video of the higher layer uses the H.264 / MVC (Multi-view Video Coding) scheme. In this case, the stereo image is allocated to the base layer image and one higher layer image, but the multiview image is allocated to the base layer image and the plurality of higher layer images. A criterion for dividing the multi-view image into an image of a base layer and an image of one or more higher layers may be determined according to the position of the camera or may be determined according to the arrangement of the cameras. Or it may be arbitrarily determined without following any special criteria.
본 발명은 압축 부호화되어 수신되는 스테레오 영상 또는 다시점 영상으로부터 좌영상과 우영상을 복원하고, 복원된 좌영상과 우영상을 순차적으로 보여줄 때 디스플레이 시차로 인해 발생할 수 있는 왜곡을 보상한 후 디스플레이하는 것을 특징으로 한다. 여기서 디스플레이 시차는 샘플링 시간이 동일한 좌영상과 우영상을 시간 차이를 두고 순차적으로 디스플레이할 때 발생한다. 그리고 이 디스플레이 시차로 인해 화면에 표시되는 3D 영상에 왜곡이 발생할 수 있다. The present invention restores a left image and a right image from a stereo image or a multiview image received by compression encoding, and compensates for distortions that may occur due to display parallax when sequentially displaying the reconstructed left image and right image. It is characterized by. The display parallax occurs when the left image and the right image having the same sampling time are sequentially displayed with a time difference. The display parallax may cause distortion in the 3D image displayed on the screen.
예를 들어, 동일한 시간에 복수개의 카메라로 획득한 좌영상과 우영상의 샘플링 시간이 동일하다고 가정하자. 이때 수신 시스템의 디스플레이 장치에서 동일한 샘플링 시간을 가지는 좌영상과 우영상을 시간 차이를 두고 좌측 눈과 우측 눈에 보여줄 경우에는 왜곡이 발생할 수 있다.For example, suppose that sampling times of a left image and a right image acquired by a plurality of cameras at the same time are the same. In this case, when the left and right images having the same sampling time are shown to the left eye and the right eye with a time difference, the display apparatus of the receiving system may cause distortion.
도 3의 (a)는 사다리꼴을 배경으로 해서 왼쪽에서 오른쪽으로 이동하는 물체를 스테레오 카메라로 촬영한 예를 보이고 있다. 이때 각각의 영상들이 같은 시간에 샘플링되었으며, 뒤에 보이는 사다리꼴의 모양과는 다른 심도를 보인다. 도 3의 (a)에서는 사다리꼴 모양의 앞쪽에 보인다고 가정한다.3 (a) shows an example of photographing an object moving from left to right with a trapezoid as a background with a stereo camera. At this time, each image was sampled at the same time and shows a different depth from the trapezoidal shape shown behind. In Figure 3 (a) it is assumed that the front of the trapezoidal shape.
만일 디스플레이 장치가 시간적으로 좌영상과 우영상을 순차적으로 보여주는 액티브 형식이라고 가정하자. 이 경우, 도 3의 (b)는 샘플링 시간과 동일하게 좌영상을 디스플레이하고, 도 3의 (c)는 샘플링 시간의 중간 시간에 우영상을 디스플레이하는 예를 보이고 있다. Suppose that the display device is an active type that sequentially shows left and right images in time. In this case, FIG. 3B shows a left image as in the sampling time, and FIG. 3C shows an example of displaying the right image in the middle of the sampling time.
즉, t0,t2,t4 시간에 좌영상과 우영상을 샘플링한 후, 좌영상은 t0,t2,t4 시 간에 디스플레이하고, 우영상은 t1,t3,t5 시간에 디스플레이하는 예이다. That is, after sampling the left image and the right image at time t0, t2, t4, the left image is displayed at time t0, t2, t4, and the right image is displayed at time t1, t3, t5.
도 3의 (d)는 도 3의 (b),(c)와 같이 좌영상과 우영상을 시간 차이를 두고 디스플레이할 때, 우영상이 보이는 시점에서 두뇌가 받아들이는 좌영상의 예를 보인 것으로서, 좌우 영상의 디스플레이 시차로 인해 왜곡이 발생함을 알 수 있다.FIG. 3 (d) shows an example of a left image accepted by the brain at the time when the right image is displayed when the left image and the right image are displayed with a time difference as shown in FIGS. 3 (b) and 3 (c). It can be seen that distortion occurs due to display parallax of the left and right images.
즉, 물체가 움직이지 않을 경우에는 원래의 심도(深度)로 보이지만, 물체가 움직이기 시작하면 방향에 따라서 원래의 심도보다 얕게 보일 수도 있으며, 원래의 심도보다 깊게 보일 수도 있다. 이를 좌/우 영상의 샘플링 시간과 디스플레이 시간이 다른데서, 즉 디스플레이 시차(時差)에서 발생하는 왜곡이라 한다.That is, when the object does not move, it looks at the original depth, but when the object starts to move, it may appear shallower than the original depth depending on the direction, or may appear deeper than the original depth. This is called a distortion that occurs when the sampling time and the display time of the left and right images are different, that is, in display disparity.
도 4는 이러한 왜곡을 보상하기 위한 본 발명에 따른 수신 시스템의 일 실시예를 보인 구성 블록도로서, 디코딩 장치(110), 보상부(120), 디스플레이 장치(130)를 포함할 수 있다.4 is a block diagram illustrating an embodiment of a receiving system according to the present invention for compensating for such distortion, and may include a
상기 보상부(120)는 디코딩 장치(110)와 디스플레이 장치(130) 중 어느 하나에 포함되어 구성될 수도 있고, 도 4와 같이 별도로 구성될 수도 있다. 또한 디코딩 장치(110), 보상부(120), 및 디스플레이 장치(130)는 일체형으로 구성될 수도 있고, 분리형으로 구성될 수도 있다. The
상기 디코딩 장치(110)는 콘텐트 소스(도시되지 않음)로부터 스테레오 영상 또는 다시점 영상을 수신 및 복호하여 원래 영상을 복원한다.The
상기 콘텐트 소스는 3차원 영상을 위한 3D 콘텐츠를 포함하며, 일 예로 디스크, 인터넷 서버, 지상파/위성/케이블 방송국 등이 될 수 있다.The content source includes 3D content for a 3D image. For example, the content source may be a disc, an internet server, a terrestrial / satellite / cable broadcasting station, or the like.
상기 디코딩 장치(110)로는 디스크 플레이어(Disc player), IPTV 셋톱박 스(settop box), 지상파, 위성, 케이블 등을 시청할 수 있는 텔레비전(TV)이 될 수 있다. The
도 5는 도 4의 디코딩 장치의 일 실시예를 보인 상세 구성 블록도이다. 상기 디코딩 장치(110)는 제어부(211), 유저 인터페이스부(212), 수신부(213), 역다중화기(214), 시스템 정보 처리부(215), 오디오 복호기(216), 및 비디오 복호기(217)를 포함할 수 있다. FIG. 5 is a detailed block diagram illustrating an embodiment of the decoding apparatus of FIG. 4. The
즉, 콘텐트 소스로부터 전송되는 2D 영상 또는 3D 영상 콘텐츠 및 상기 2D 영상 또는 3D 영상을 복호하는데 필요한 시스템 정보는 수신부(213)로 수신된다. That is, 2D video or 3D video content transmitted from a content source and system information necessary to decode the 2D video or 3D video are received by the
그리고 유저 인터페이스부(212)를 통해 수신을 원하는 특정 채널이 선택되면 제어부(211)는 해당 채널의 2D 콘텐츠 또는 3D 콘텐츠를 수신하도록 수신부(213)를 제어한다. When a specific channel to be received is selected through the
상기 수신부(211)는 특정 채널의 2D 콘텐츠 또는 3D 콘텐츠에 대해 복조 및 채널 등화를 수행한 후 스트림 형태로 역다중화기(214)로 출력한다. 상기 수신부(211)로 수신된 시스템 정보도 스트림 형태로 역다중화기(214)로 출력된다.The
상기 역다중화기(214)는 각 스트림의 패킷 식별자(PID)를 참조하여 오디오 스트림은 오디오 복호기(216)로 출력하고, 비디오 스트림은 비디오 복호기(217)로 출력하며, 시스템 정보는 시스템 정보 처리부(215)로 출력한다. The
상기 시스템 정보 처리부(215)는 시스템 정보로부터 역다중화기(214)의 역다중화에 필요한 PID를 추출하여 역다중화기(214)로 제공한다.The
상기 시스템 정보는 경우에 따라서는 서비스 정보라고도 불리운다. 상기 시 스템 정보는 채널 정보, 프로그램 정보, 이벤트 정보 등을 포함할 수 있다. The system information is sometimes called service information in some cases. The system information may include channel information, program information, event information, and the like.
본 발명의 실시예에서는 상기 시스템 정보로서 PSI/PSIP(Program Specific Information/Program and System Information Protocol)을 적용하나 본 발명은 이에 한정하는 것은 아니다. 즉 시스템 정보를 테이블 포맷으로 전송하는 프로토콜이라면 그 명칭에 상관없이 본 발명에 적용 가능할 것이다. In the embodiment of the present invention, PSI / PSIP (Program Specific Information / Program and System Information Protocol) is applied as the system information, but the present invention is not limited thereto. That is, a protocol for transmitting system information in a table format may be applicable to the present invention regardless of its name.
상기 PSI는 채널 및 프로그램을 분류하기 위해 정의된 MPEG-2의 시스템 규격이고, 상기 PSIP는 채널 및 프로그램의 분류가 가능한 ATSC(Advanced Television Systems Committee) 규격이다. The PSI is a system standard of MPEG-2 defined for classifying channels and programs, and the PSIP is an Advanced Television Systems Committee (ATSC) standard for classifying channels and programs.
상기 PSI는 일 실시예로서, PAT(Program Association Table), CAT(Conditional Access Table), PMT(Program Map Table), 및 NIT(Network Information Table)를 포함할 수 있다. The PSI may include, as an embodiment, a Program Association Table (PAT), a Conditional Access Table (CAT), a Program Map Table (PMT), and a Network Information Table (NIT).
상기 PAT는 PID가 '0'인 패킷에 의해 전송되는 특수 정보로서, 각 프로그램마다 해당 PMT의 PID 정보와 NIT의 PID 정보를 전송한다. 상기 CAT는 송신측에서 사용하고 있는 유료 방송 시스템에 대한 정보를 전송한다. 상기 PMT는 프로그램 식별 번호와 프로그램을 구성하는 비디오, 오디오 등의 개별 비트 스트림이 전송되는 트랜스포트 스트림 패킷의 PID 정보, 및 PCR이 전달되는 PID 정보를 전송한다. 상기 NIT는 실제 전송망의 정보를 전송한다. 예를 들어, PID가 0인 PAT 테이블을 파싱하여 프로그램 번호(Program number)와 PMT의 PID를 알아낸다. 그리고 상기 PAT로부터 얻어낸 PMT를 파싱하면 프로그램을 구성하는 구성 요소들간의 상관 관계를 알 수 있다.The PAT is special information transmitted by a packet having a PID of '0', and transmits PID information of a corresponding PMT and PID information of a NIT for each program. The CAT transmits information about the pay broadcasting system used on the transmitting side. The PMT transmits the program identification number, PID information of a transport stream packet to which individual bit streams such as video and audio constituting the program are transmitted, and PID information to which PCR is transmitted. The NIT transmits information of an actual transmission network. For example, a PAT table with a PID of 0 is parsed to find a program number and a PID of a PMT. When the PMT obtained from the PAT is parsed, the correlation between the components constituting the program can be known.
상기 PISP은 일 실시예로서, VCT(Virtual Channel Table), STT(System Time Table), RRT(Rating Region Table), ETT(Extended Text Table), DCCT(Direct Channel Change Table), DCCSCT(Direct Channel Change Selection Code Table), EIT(Event Information Table), 및 MGT(Master Guide Table)를 포함할 수 있다. In one embodiment, the PISP includes a virtual channel table (VCT), a system time table (STT), a rating region table (RTT), an extended text table (ETT), a direct channel change table (DCCT), and a direct channel change selection (DCCSCT). A code table, an event information table (EIT), and a master guide table (MGT) may be included.
상기 VCT는 가상 채널에 대한 정보 예를 들어, 채널 선택을 위한 채널 정보와 오디오 및/또는 비디오의 수신을 위한 패킷 식별자(PID) 등의 정보를 전송한다. 즉, 상기 VCT를 파싱하면 채널 이름, 채널 번호 등과 함께 채널 내에 실려오는 방송 프로그램의 오디오와 비디오의 PID를 알 수 있다. 상기 STT는 현재의 날짜와 시간 정보를 전송하고, 상기 RRT는 프로그램 등급을 위한 지역 및 심의 기관 등에 대한 정보를 전송한다. 상기 ETT는 채널 및 방송 프로그램에 대한 부가 설명을 전송하고, 상기 EIT는 가상 채널의 이벤트에 대한 정보(예를 들어, 제목, 시작 시간 등등)를 전송한다. 상기 DCCT/DCCSCT는 자동 채널 변경과 관련된 정보를 전송하고, 상기 MGT는 상기 PSIP 내 각 테이블들의 버전 및 PID 정보를 전송한다. The VCT transmits information about a virtual channel, for example, channel information for channel selection and packet identifier (PID) for receiving audio and / or video. In other words, when the VCT is parsed, the PID of the audio and video of the broadcast program loaded in the channel can be known along with the channel name and the channel number. The STT transmits current date and time information, and the RRT transmits information about a region and a review institution for a program grade. The ETT transmits an additional description of a channel and a broadcast program, and the EIT transmits information (eg, title, start time, etc.) about an event of a virtual channel. The DCCT / DCCSCT transmits information related to automatic channel change, and the MGT transmits version and PID information of respective tables in the PSIP.
본 발명에서는 상기 수신부(213)로 수신되는 프로그램이 3D 콘텐츠임을 인식할 수 있는 식별 정보가 상기 시스템 정보에 포함될 수 있으며, 이 경우 시스템 정보 처리부(215)는 이를 추출하여 역다중화기(214)로 제공한다.In the present invention, identification information for recognizing that the program received by the receiving
본 발명에서는 해당 3D 콘텐츠가 어떤 전송 포맷으로 수신되는지를 식별할 수 있는 전송 포맷 정보가 상기 시스템 정보에 포함되어 수신될 수 있다. 본 발명은 PMT와 VCT 중 적어도 하나의 테이블에 전송 포맷 정보가 포함되어 수신되는 것을 일 실시예로 한다. 즉, 상기 시스템 정보 처리부(215)에서 PMT나 VCT에 포함되 어 수신되는 전송 포맷 정보를 파싱하면, 해당 3D 콘텐츠가 사이드 바이 사이드(side by side), 톱/다운(top/down), 인터레이스드(interlaced), 프레임 시퀄셜(frame sequential), 체커 보드(checker board), 애너그리프(anaglyph), 풀 좌/우(Full left/right), 풀 좌/하프 우(Full left/Half right), 2D 비디오/깊이(2D video/depth) 중 어떤 전송 포맷으로 수신되는지를 알 수 있다. In the present invention, transmission format information for identifying which transmission format the 3D content is received may be included in the system information. According to an embodiment of the present invention, transmission format information is included in at least one table of PMT and VCT and received. That is, when the system
본 발명에서는 해당 3D 콘텐츠가 다시점 영상인 경우, 다시점 영상을 복호할 수 있는 시점 정보가 상기 시스템 정보에 포함되어 수신될 수 있다. 상기 시점 정보도 PMT와 VCT 중 적어도 하나의 테이블에 시점 정보가 포함되어 수신되는 것을 일 실시예로 한다. 즉, 상기 시스템 정보 처리부(215)에서 PMT나 VCT에 포함되어 수신되는 시점 정보를 파싱하면, 해당 시점에 대한 정보와 해당 시점의 영상을 부호화할 때 참조한 시점에 대한 정보를 얻을 수 있다. In the present invention, when the 3D content is a multiview image, view information for decoding a multiview image may be included in the system information and received. According to an embodiment of the present invention, the viewpoint information is also received by including viewpoint information in at least one table of the PMT and the VCT. That is, when the
그리고 상기 시스템 정보 처리부(215)에서 파싱된 전송 포맷 정보와 시점 정보 중 적어도 하나는 비디오 스트림의 복호를 위해 역다중화기(214)나 제어부(211)를 통해 또는 직접 비디오 복호기(217)로 제공된다. 본 발명은 설명의 편의를 위해 전송 포맷 정보와 시점 정보를 코덱 정보라 하기로 한다.At least one of the transmission format information and the view information parsed by the
상기 비디오 복호기(217)는 역다중화기(214)에서 출력되는 비디오 스트림이 스테레오 영상의 비디오 스트림이라면, 상기 코덱 정보 중 전송 포맷 정보를 기초로 입력되는 비디오 스트림을 H.264/AVC 방식으로 복호하여 좌영상과 우영상을 복원하는 것을 일 실시예로 한다. 예를 들어, 상기 전송 포맷 정보가 해당 3D 콘텐츠가 도 1의 (a)와 같이 사이드 바이 사이드 포맷으로 전송되었음을 표시하면, 상기 비디오 복호기(217)는 비디오 스트림을 H.264/AVC 방식으로 수평 방향에 대해 복호하여 좌영상과 우영상을 복원할 수 있다.If the video stream output from the
상기 비디오 복호기(217)는 복원된 좌영상과 우영상 중 하나의 영상은 보상부(120)의 제1 버퍼(121)로 출력하고, 다른 하나의 영상은 제3 버퍼(123)로 출력한다. 즉, 그대로 디스플레이 장치(130)로 출력할 영상은 제1 버퍼(121)로 출력하고, 보간 과정을 거쳐 디스플레이 장치(130)로 출력할 영상은 제3 버퍼(123)로 출력한다. 본 발명은 좌영상은 제1 버퍼(121)로 출력하고, 우영상은 제3 버퍼(123)로 출력하는 것을 일 실시예로 한다.The
또한 상기 비디오 복호기(217)는 역다중화기(214)에서 출력되는 비디오 스트림이 다시점 영상의 비디오 스트림이라면, 상기 코덱 정보 중 시점 정보를 기초로 입력되는 비디오 스트림을 복호하여 다시점 영상을 복원한다. 예를 들어, 기본 계층의 영상은 H.264/AVC 방식으로 복호하고, 상위 계층의 영상은 H.264/MVC 방식으로 복호하여 원래의 다시점 영상을 복원하는 것을 일 실시예로 한다. 본 발명은 복원된 다시점 영상 중 좌측 눈에 보여줄 좌영상과 우측 눈에 보여줄 우영상을 선택하고, 선택된 좌영상은 제1 버퍼(121)로 출력하고, 우영상은 제3 버퍼(123)로 출력하는 것을 일 실시예로 한다.In addition, if the video stream output from the
본 발명은 설명의 편의를 위해 제1 버퍼(121)로 입력되는 좌영상을 제1 영상이라 하기로 하고, 제3 버퍼(123)로 입력되는 우영상을 제2 영상이라 하기로 한다. For convenience of description, the left image input to the
즉, 상기 보상부(120)는 디코딩 장치(110)에서 출력되는 제1 영상을 일시 저장하는 제1 버퍼(121), 제1 버퍼(121)에서 일시 저장된 후 출력되는 제1 영상을 일 시 저장하는 제2 버퍼(122), 디코딩 장치(110)에서 출력되는 제2 영상을 일시 저장하는 제3 버퍼(123), 제3 버퍼(123)에서 일시 저장된 후 출력되는 제2 영상을 일시 저장하는 제4 버퍼(124), 상기 제3, 제4 버퍼(123,124)에서 출력되는 제2 영상을 기초로 보간을 수행하여 제3 영상을 생성하는 보간기(interpolator)(125), 상기 보간기(125)에서 생성된 제3 영상을 일시 저장하는 제5 버퍼(126), 및 상기 제2 버퍼(122)의 제1 영상과 제5 버퍼(126)의 제3 영상 중 하나를 선택하여 디스플레이 장치(130)로 출력하는 선택부(127)를 포함할 수 있다.That is, the
상기 제1 내지 제5 버퍼(121-124,126)는 적어도 한 필드 또는 한 프레임의 크기를 갖도록 설계될 수 있다. 예를 들어, 한 프레임의 크기를 갖도록 설계된다면, 상기 제1 내지 제5 버퍼(121-124,126)는 프레임 지연기의 역할을 수행한다.The first to
이 경우 상기 제1 버퍼(121)는 상기 디코딩 장치(110)에서 복호되어 출력되는 제1 영상을 입력받아 한 프레임 동안 지연한 후 제2 버퍼(122)로 출력된다. 상기 제2 버퍼(122)는 제1 버퍼(121)에서 지연되어 출력되는 제1 영상을 일정 시간 (예를 들어, 한 프레임 동안) 지연한 후 선택부(127)로 출력한다. In this case, the
상기 제3 버퍼(123)는 상기 디코딩 장치(110)에서 복호되어 출력되는 제2 영상을 입력받아 한 프레임 동안 지연한 후 제4 버퍼(124)와 보간기(125)로 출력한다. 상기 제4 버퍼(124)는 제3 버퍼(123)에서 출력되는 제2 영상을 다시 한 프레임 동안 지연한 후 상기 보간기(125)로 출력한다.The
즉, 상기 제3 버퍼(123)에서 출력되는 제2 영상은 현재 제2 영상이 되고, 제4 버퍼(124)에서 출력되는 제2 영상은 이전 제2 영상이 된다.That is, the second image output from the
상기 보간기(125)는 제3 버퍼(123)에서 출력되는 현재 제2 영상과 제4 버퍼(124)에서 출력되는 이전 제2 영상을 기초로 보간을 수행하여 제3 영상을 생성한다. 본 발명은 제3 영상을 생성하는데 참조되는 영상을 참조 영상이라 하기로 한다. 본 발명에서는 현재 제2 영상과 이전 제2 영상이 참조 영상이 된다.The
상기 보간 방법은 입력되는 영상의 개수, 동일한 시간에 샘플링된 좌영상과 우영상 중 어느 것을 먼저 디스플레이하는냐에 따라 달라질 수 있다. The interpolation method may vary depending on the number of input images, which of the left and right images sampled at the same time is displayed first.
만일 디스플레이 장치(130)가 제1 영상 즉, 좌영상을 먼저 디스플레이하고, 그 다음에 제2 영상 즉, 우영상을 디스플레이한다고 가정할 경우에, 상기 보간기(125)에서는 이전 우영상과 현재 우영상을 기초로 보간을 수행하여 제3 영상 즉, 새로운 우영상을 생성하는 것을 일 실시예로 한다. If it is assumed that the
이때, 보간을 통해 새로운 영상을 생성하는 방법은 다양하다. 예를 들어, 두 참조 영상 간에 움직임이 있다면 두 영상으로부터 움직임 벡터를 추출하여 새로운 영상의 생성에 이용할 수도 있다. 상기 움직임 벡터는 영상간의 움직임 정도와 방향을 나타낸다. In this case, there are various methods of generating a new image through interpolation. For example, if there is motion between two reference images, a motion vector may be extracted from the two images and used to generate a new image. The motion vector represents the degree and direction of motion between images.
만일 두 참조 영상 간에 움직임이 없다면 두 영상의 평균을 구하여 새로운 영상을 생성할 수도 있다. 상기 보간기(125)에서 적어도 하나의 영상을 참조하여 새로운 영상을 생성하는 방법은 당업자에 의해 변경이 용이하므로 본 발명은 상기된 실시예로 한정되지 않을 것이다.If there is no motion between the two reference images, a new image may be generated by calculating the average of the two images. Since the method of generating a new image by referring to at least one image in the
도 6은 보간기(125)에서 현재 영상 f(n+1)과 이전 영상 f(n-1)으로부터 움직임 벡터를 추정하여 새로운 영상 f(n)을 만드는 과정을 보여준다. 6 shows a process of creating a new image f (n) by estimating a motion vector from the current image f (n + 1) and the previous image f (n-1) in the
예를 들어, t(n-1), t(n+1) 시간에 좌/우 영상이 동시에 샘플링되어 수신되었다고 가정하면, 상기 디코딩 장치(110)에서 복호된 좌영상과 우영상은 시간 t(n-1),t(n+1)의 영상이다. 이때 디스플레이 장치(130)에서 좌영상은 시간 t(n-1), t(n+1)에 디스플레이하고, 우영상은 시간 t(n), t(n+2)에 디스플레이한다고 가정하자. For example, assuming that left and right images are simultaneously sampled and received at times t (n-1) and t (n + 1), the left image and the right image decoded by the
이 경우 상기 보간기(125)는 이전 우영상 f(n-1)에 포함되어 있는 오브젝트가 현재 우영상 f(n+1)의 어디에 위치하는가를 알 수 있는 움직임 벡터를 찾는다. 그리고 그 움직임 벡터와 이전 우영상 f(n-1) 또는 현재 우영상 f(n+1)을 이용해서 시간 t(n)에 필요한 우영상 f(n)을 생성한다. In this case, the
만일 버퍼의 용량 또는 버퍼의 개수를 늘릴 수 있다면, 상기 보간에 이용된 참조 영상보다 더욱 많은 참조 영상을 이용하여 새로운 우영상을 만들어낼 수도 있다. 이때 참조되는 영상이 많을수록 새로운 영상의 해상도는 높아지지만 버퍼의 증가로 인해 가격이 상승하므로, 시스템에 따라 참조 영상의 수 및 보간 방법을 결정한다. If the capacity of the buffer or the number of buffers can be increased, a new right picture may be generated using more reference pictures than the reference pictures used for interpolation. At this time, the more the reference image is, the higher the resolution of the new image, but the price increases due to the increase in the buffer, the number of reference images and the interpolation method is determined according to the system.
상기 보간기(125)에서 생성된 제3 영상은 제5 버퍼(126)로 출력되어 일정 시간(예를 들어 한 프레임 동안) 지연된 후 선택부(127)로 출력된다.The third image generated by the
상기 선택부(127)는 스위칭 소자, 먹스 등을 이용하여 구현될 수 있다. 상기 선택부(127)는 제2 버퍼(122)에 저장된 제1 영상(L1,L2,...)과 제5 버퍼(126)에 저장된 제3 영상(R1',R2',...)을 순차적으로 선택하여 디스플레이 장치(130)로 출력한다. 도 7에서, L1,L2,...는 제2 버퍼(122)에서 선택부(127)로 출력되는 제1 영상 즉, 좌영상을 표시하고, R1,R2,...는 보간기(125)로 입력되는 제2 영상 즉, 우영상을 표시한다. 그리고, R1',R2',...는 제5 버퍼(126)에서 선택부(127)로 출력되는 제3 영상 즉, 새로운 우영상을 표시한다. The
상기 디스플레이 장치(130)는 상기 디코딩 장치(110) 또는 보상부(120)에서 출력되는 영상을 2차원 또는 3차원 형태로 디스플레이한다. 상기 디스플레이 장치로는 일반 2D 영상을 디스플레이할 수 있는 장치, 안경을 필요로 하는 3D 영상을 디스플레이할 수 있는 장치, 안경을 필요로 하지 않는 3D 영상을 디스플레이할 수 있는 장치 등이 될 수 있다.The
상기 디스플레이 장치(130)는 상기 보상부(120)의 선택부(127)에서 출력되는 제1 영상과 제3 영상을 이용하여 다양한 방법으로 3D 영상을 만들어 디스플레이하는 것을 일 실시예로 한다. According to an embodiment of the present disclosure, the
본 발명의 디스플레이 장치(130)는 안경을 착용하는 방식 중 좌영상과 우영상을 순차적으로 디스플레이하는 셔텨드 글래스(shuttered glass) 방식을 이용하는 것을 일 실시예로 한다.According to an embodiment of the present invention, the
이를 위해 상기 디스플레이 장치(130)는 셔터 글래스를 포함하는 것을 일 실시예로 한다.To this end, the
상기 셔터 글래스는 디스플레이 장치(130)의 화면에 표시되는 3D 영상을 보기 위해 사용자에게 착용되어야 하는 장치로서, 동기 신호(도시되지 않음)에 따라 좌우 렌즈를 번갈아 개폐함으로써 사용자에게 3D 영상을 제공한다. 즉, 상기 셔터 글래스의 좌우 렌즈가 번갈아 개폐됨에 따라 좌영상과 우영상이 번갈아 차단됨으로 써 좌우 양안에는 서로 다른 상이 맺히게 되고, 이를 통해 사용자는 입체감을 느끼게 된다. 다시 말해, 상기 셔터 글래스의 좌우 렌즈가 번갈아 개폐됨으로써, 사용자의 좌측 눈으로는 좌영상만을 보게되고, 우측 눈으로는 우영상만을 보게 되는데, 이러한 동작이 빠른 속도로 수행되면서 사용자는 좌/우영상을 동시에 보는 것처럼 느끼게 되고, 그 결과 영상이 입체적으로 보이게 된다.The shutter glass is a device that should be worn by a user to view a 3D image displayed on a screen of the
도 7을 예로 들면, 상기 디스플레이 장치(130)는 같은 샘플링 시간에 대해 선택부(127)에서 출력되는 제1 영상 즉, 좌영상을 먼저 디스플레이하고, 이어 선택부(127)에서 출력되는 제3 영상 즉, 새로운 우영상을 디스플레이한다. 이러한 과정을 반복하여 3D 영상을 구현하면, 디스플레이 시차로 인한 왜곡이 발생하지 않게 된다. Referring to FIG. 7, the
만일 콘텐트 소스로부터 2D 콘텐츠가 전송되었다면, 상기 디코딩 장치(110)는 기존 방식에 따라 비디오 스트림과 오디오 스트림을 분리하고, 각각의 복호 알고리즘으로 복호한 후 디스플레이 장치(130)로 바로 출력한다. 상기 디스플레이 장치(130)는 기존의 방식대로 2D 영상을 디스플레이한다.If the 2D content is transmitted from the content source, the
이상에서와 같이 본 발명에 따른 수신 시스템 및 데이터 처리 방법은 좌영상과 우영상의 샘플링 시간이 동일한 3D 콘텐츠를 수신하여 좌영상과 우영상을 복원한 후 순차적으로 디스플레이할 때, 두 영상 중 하나의 영상을 보간하여 디스플레이한다. 이렇게 함으로써, 디스플레이 시차로 인해 오브젝트(물체)의 깊이 정보가 왜곡되는 것을 방지할 수 있다.As described above, the reception system and the data processing method according to the present invention receive 3D content having the same sampling time of the left image and the right image, restore the left image and the right image, and sequentially display one of the two images. Interpolate and display the image. By doing so, it is possible to prevent the depth information of the object (object) from being distorted due to display parallax.
본 발명은 좌영상과 우영상이 각각 눈에 보여지는 시간이 다른 형태의 디스 플레이 장치에 적용하면 효과적이다. The present invention is effective when applied to a display device of a different time that the left image and the right image are respectively visible.
지금까지 설명한 본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가지 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다. The present invention described so far is not limited to the above-described embodiments, and can be modified by those skilled in the art as can be seen from the appended claims, and such modifications are the scope of the present invention. Belongs to.
이상 설명한 내용을 통해 당업자라면 본 발명의 기술 사상을 일탈하지 아니하는 범위에서 다양한 변경 및 수정이 가능함을 알 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention.
따라서 본 발명의 기술적 범위는 실시예에 기재된 내용으로 한정되는 것이 아니라 특허 청구의 범위에 의하여 정해져야 한다. Therefore, the technical scope of the present invention should not be limited to the contents described in the embodiments, but should be defined by the claims.
도 1은 본 발명에 따른 3D 영상의 전송 포맷들 중 싱글 비디오 스트림 포맷의 예들을 보인 도면1 illustrates examples of a single video stream format among 3D video transmission formats according to the present invention.
도 2는 본 발명에 따른 3D 영상의 전송 포맷들 중 멀티 비디오 스트림 포맷의 예들을 보인 도면2 is a diagram illustrating examples of a multi video stream format among 3D video transmission formats according to the present invention.
도 3의 (a) 내지 (d)는 동일한 시간에 샘플링된 좌영상과 우영상의 디스플레이 과정을 보인 도면3A to 3D are views illustrating a process of displaying a left image and a right image sampled at the same time;
도 4는 본 발명에 따른 수신 시스템의 일 실시예를 보인 구성 블록도4 is a block diagram showing an embodiment of a receiving system according to the present invention;
도 5는 도 4의 디코딩 장치의 일 실시예를 보인 상세 블록도5 is a detailed block diagram illustrating an embodiment of the decoding apparatus of FIG. 4.
도 6은 도 4의 보상부의 보간 과정의 일 실시예를 보인 도면FIG. 6 is a diagram illustrating an embodiment of an interpolation process of the compensator of FIG. 4. FIG.
도 7은 도 4의 디스플레이 장치에서 좌영상과 보간된 우영상을 디스플레이하는 과정의 일 실시예를 보인 도면FIG. 7 illustrates an embodiment of a process of displaying a left image and an interpolated right image in the display device of FIG. 4; FIG.
*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *
110 : 디코딩 장치 120 : 보상부110: decoding device 120: compensation unit
130 : 디스플레이 장치130: display device
211 : 제어부 212 : 유저 인터페이스부211: control unit 212: user interface unit
213 : 수신부 214 : 역다중화기213: receiver 214: demultiplexer
215 : 시스템 정보 처리부 216 : 오디오 복호기215: system information processing unit 216: audio decoder
217 : 비디오 복호기217: Video Decoder
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080118997A KR101556149B1 (en) | 2008-11-27 | 2008-11-27 | Receiving system and method of processing data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080118997A KR101556149B1 (en) | 2008-11-27 | 2008-11-27 | Receiving system and method of processing data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100060413A true KR20100060413A (en) | 2010-06-07 |
KR101556149B1 KR101556149B1 (en) | 2015-09-30 |
Family
ID=42361334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080118997A KR101556149B1 (en) | 2008-11-27 | 2008-11-27 | Receiving system and method of processing data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101556149B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101127450B1 (en) * | 2010-04-22 | 2012-03-26 | 주식회사 디지털존 | Video palyback apparatus and method of detecting 3d video data format |
EP2469867A3 (en) * | 2010-12-22 | 2013-04-10 | Sony Corporation | Image processing apparatus and image processing method |
-
2008
- 2008-11-27 KR KR1020080118997A patent/KR101556149B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101127450B1 (en) * | 2010-04-22 | 2012-03-26 | 주식회사 디지털존 | Video palyback apparatus and method of detecting 3d video data format |
EP2469867A3 (en) * | 2010-12-22 | 2013-04-10 | Sony Corporation | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
KR101556149B1 (en) | 2015-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10341636B2 (en) | Broadcast receiver and video data processing method thereof | |
KR100970649B1 (en) | Receiving system and method of processing data | |
Merkle et al. | 3D video: acquisition, coding, and display | |
US9756380B2 (en) | Broadcast receiver and 3D video data processing method thereof | |
KR101664419B1 (en) | Reception system and data processing method | |
CA2760100C (en) | Broadcast transmitter, broadcast receiver and 3d video data processing method thereof | |
KR20120013974A (en) | Broadcast transmitter, broadcast receiver and 3d video data processing method thereof | |
US9485490B2 (en) | Broadcast receiver and 3D video data processing method thereof | |
WO2011089982A1 (en) | Reception device, transmission device, communication system, method for controlling reception device, and program | |
Coll et al. | 3D TV at home: Status, challenges and solutions for delivering a high quality experience | |
CH706886A2 (en) | Method for the generation, transmission and reception of stereoscopic images and related devices. | |
KR20100112940A (en) | A method for processing data and a receiving system | |
KR101556149B1 (en) | Receiving system and method of processing data | |
KR20150079577A (en) | Method and apparatus for processing edge violation phenomenon in multi-view 3dtv service | |
KR101733488B1 (en) | Method for displaying 3 dimensional image and 3 dimensional image display device thereof | |
Sullivan | Standards-based approaches to 3D and multiview video coding | |
GB2470402A (en) | Transmitting three-dimensional (3D) video via conventional monoscopic (2D) channels as a multiplexed, interleaved data stream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180814 Year of fee payment: 4 |