KR20120140426A - Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image - Google Patents

Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image Download PDF

Info

Publication number
KR20120140426A
KR20120140426A KR1020110060158A KR20110060158A KR20120140426A KR 20120140426 A KR20120140426 A KR 20120140426A KR 1020110060158 A KR1020110060158 A KR 1020110060158A KR 20110060158 A KR20110060158 A KR 20110060158A KR 20120140426 A KR20120140426 A KR 20120140426A
Authority
KR
South Korea
Prior art keywords
image data
data
eye view
view image
pts
Prior art date
Application number
KR1020110060158A
Other languages
Korean (ko)
Inventor
전상훈
정수원
김현철
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110060158A priority Critical patent/KR20120140426A/en
Publication of KR20120140426A publication Critical patent/KR20120140426A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Abstract

PURPOSE: A device for transmitting a 3D image, a method thereof, a device for receiving a 3D image, a method thereof, and a 3D image processing device thereof are provided to combined images in order by performing the synchronization, deinterlace, and sampling of a right eye image and a left eye image with a PTS(Presentation Time Stamp) and accurately combining the images when transmitting the images. CONSTITUTION: A first HDMI(High Definition Multimedia Interface) source inserts decoded left eye image data into a video data section of first transmission data(S130). The first HDMI source inserts first PTS information of the decoded left eye image data into a data sum section of the first transmission data(S140). The first HDMI source transmits the first transmission data through a first cable(S150). A second HDMI source inserts decoded right eye image data into a video data section of second transmission data(S170). The second HDMI source inserts second PTS information of the decoded left eye image data into a data sum section of the second transmission data(S180). The HDMI source transmits the second transmission data through a second cable(S190). [Reference numerals] (AA) Start; (BB) End; (S100) Receiving 3D image data; (S110) Demultiplexing 3D image data into left view image data and right view image data; (S120) Decoding the left view image data; (S130) Inserting the decoded left view image data into a video data section among first TMDS transmission data; (S140) Inserting PTS data into a data sum section among the first TMDS transmission data; (S150) Transmitting the first TMDS transmission data through a first cable; (S160) Decoding the right eye view image; (S170) Inserting the decoded right view image data into the video data section among second TMDS transmission data; (S180) Inserting PTS data into the data sum section among the second TMDS transmission data; (S190) Transmitting the second TMDS transmission data through a second cable

Description

3차원 영상 전송 장치 및 방법, 3차원 영상 수신 장치 및 방법, 그리고 3차원 영상 처리 장치{Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image}Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image}

본 발명은 3차원 영상 전송 장치 및 방법, 3차원 영상 수신 장치 및 방법, 그리고 3차원 영상 처리 장치에 관한 것으로, 보다 상세하게는, 2안식 입체영상 기술 또는 다안식 입체영상에 있어서 입체영상을 처리할 수 있는 3차원 영상 전송 장치 및 방법, 3차원 영상 수신 장치 및 방법, 그리고 3차원 영상 처리 장치에 관한 것이다.The present invention relates to a three-dimensional image transmission device and method, a three-dimensional image receiving device and method, and a three-dimensional image processing device, and more particularly, to process a stereoscopic image in a binocular stereoscopic technique or a multieye stereoscopic image. It relates to a three-dimensional image transmission apparatus and method, a three-dimensional image receiving apparatus and method, and a three-dimensional image processing apparatus.

상용화된 3D 컨텐츠 및 3D 방송의 경우 양안시차(binocular disparity)를 이용한 방식이 주를 이룬다. 양안시차는 사람이 두 눈을 이용하여 하나의 피사체를 볼 때, 왼쪽 눈으로 보는 영상과 오른쪽 눈으로 보는 영상 사이에 두 눈의 간격에 해당하는 만큼 수평으로 존재하는 위치 차이를 말한다. 따라서 사람의 두 눈에 보이는 실제 영상과 동일한 영상을 두 눈에 입력할 수 있다면 영상을 입체적으로 느낄 수 있게 된다. 이에 따라, 실제 피사체를 양안 카메라로 찍어 영상을 얻거나 CG(Computer Graphic) 피사체의 경우 양안 카메라 형태로 사상하여 영상을 생성하고, 생성된 영상을 사용자의 양쪽 눈에 보여줌으로써 입체감을 제공할 수 있다.In the case of commercialized 3D content and 3D broadcasting, a method using binocular disparity is mainly used. The binocular parallax refers to a positional difference that exists horizontally as much as the distance between two eyes when a person looks at a single subject using both eyes and the image seen by the left eye and the image seen by the right eye. Therefore, if the same image can be input to both eyes of the real image visible to the human eye, the image can be three-dimensionally felt. Accordingly, an image may be obtained by photographing a real subject with a binocular camera, or in the case of a computer graphic (CG) subject, the image may be generated by mapping in the form of a binocular camera, and the generated image may be displayed to both eyes of a user to provide a three-dimensional effect. .

또한 근래에는, DVD(Digital Versatile Disc) 레코더나, 셋톱 박스, 그 밖의 AV 소스(Audio Visual Source)로부터, 텔레비전 수상기, 프로젝터, 그 밖의 디스플레이에 대해, 디지털 영상 신호, 즉, 비압축(베이스 밴드)의 영상 신호(이하, 「영상 데이터」라고 한다)와, 해당 영상 신호에 부수되는 디지털 음성 신호(이하, 「음성 데이터」라고 한다)를, 고속으로 전송하는 통신 인터페이스로서, HDMI가 보급되어 있다In recent years, a digital video signal, i.e., uncompressed (baseband), for a television receiver, a projector, and other displays from a DVD (Digital Versatile Disc) recorder, a set-top box, or an AV source (Audio Visual Source) is used. HDMI is widely used as a communication interface for transmitting a video signal (hereinafter referred to as "video data") and a digital audio signal (hereinafter referred to as "audio data") accompanying the video signal at high speed.

HDMI에 관해서는, 화상 데이터와 음성 데이터를, 고속으로, HDMI 소스(HDMI Source)로부터 HDMI 싱크(HDMI Sink)에 일방향으로 전송하는 TMDS(Transition Minimized Differential Signaling) 채널, HDMI 소스와 HDMI 싱크 사이에서 쌍방향의 통신을 행하기 위한 CEC 라인(Consumer Electronics Control Line) 등이 규정되어 있다.As for HDMI, a TMDS (Transition Minimized Differential Signaling) channel that transfers image data and audio data in one direction from an HDMI source to an HDMI sink at high speed, and bidirectionally between an HDMI source and an HDMI sink. CEC line (Consumer Electronics Control Line) and the like for performing communication.

본 발명이 이루고자 하는 기술적 과제는 두 개의 디코더를 이용하여 각각 3차원 영상을 디코딩할 때 좌안 영상과 우안 영상을 정확하게 조합하고 정확한 순서로 디스플레이할 수 있는 3차원 영상 전송 장치 및 방법, 3차원 영상 수신 장치 및 방법, 그리고 3차원 영상 처리 장치를 제공하는데 있다.The technical problem to be achieved by the present invention is a three-dimensional image transmission apparatus and method that can accurately combine the left eye image and the right eye image and display in the correct order when decoding each of the three-dimensional image by using two decoders, three-dimensional image reception An apparatus and method, and a three-dimensional image processing apparatus.

본 발명이 이루고자 하는 다른 기술적 과제는 복원된 좌안 영상 및 우안 영상이 각각 개별적으로 전송될 때 좌안 영상과 우안 영상을 정확하게 조합하고 정확한 순서로 디스플레이할 수 있는 3차원 영상 전송 장치 및 방법, 3차원 영상 수신 장치 및 방법, 그리고 3차원 영상 처리 장치를 제공하는데 있다.Another technical problem to be achieved by the present invention is a 3D image transmission device and method capable of accurately combining the left eye image and the right eye image and displaying the images in the correct order when the restored left eye image and the right eye image are individually transmitted. To provide a receiving apparatus and method, and a three-dimensional image processing apparatus.

상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 3차원 영상 전송 장치는 입체영상 데이터를 수신하는 수신부, 상기 수신된 입체영상 데이터의 좌안 시점 영상 데이터를 디코딩하는 제1 디코더, 제1 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 좌안 시점 영상 데이터를 삽입하고, 상기 제1 전송 데이터의 데이터 섬 구간에 상기 디코딩된 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입하며, 상기 제1 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 제1 HDMI 소스, 상기 수신된 입체영상 데이터의 우안 시점 영상 데이터를 디코딩하는 제2 디코더, 및 제2 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 우안 시점 영상 데이터를 삽입하고, 상기 제2 전송 데이터의 데이터 섬 구간에 상기 디코딩된 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입하며, 상기 제2 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 제2 HDMI 소스를 포함할 수 있다.According to an aspect of the present invention, a three-dimensional image transmission apparatus according to the present invention includes a receiver for receiving stereoscopic image data, a first decoder for decoding left eye view image data of the received stereoscopic image data, and the first transmission data. Inserting the decoded left eye view image data into a video data section, inserting first PTS (Presentation Time Stamp) information of the decoded left eye view image data into a data island section of the first transmission data, and transmitting the first transmission A first HDMI source for transmitting data to a Transition Minimized Differential Signaling (TMDS) channel of a High-Definition Multimedia Interface (HDMI), a second decoder for decoding right eye view image data of the received stereoscopic image data, and second transmission data Inserting the decoded right eye view image data into a video data section of the second data; Inserting second PTS (Presentation Time Stamp) information of the decoded right eye view image data in an island section, and transmitting the second transmission data through a Transition Minimized Differential Signaling (TMDS) channel of a high-definition multimedia interface (HDMI). It may include a second HDMI source.

상기 제1 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함될 수 있다.The first PTS information may be included in an auxiliary video information (AVI) infoframe of the data island section.

상기 제1 HDMI 소스는, 상기 AVI InforFrame을 상기 좌안 시점 영상 데이터의 하나의 프레임당 한번 전송할 수 있다.The first HDMI source may transmit the AVI InforFrame once per frame of the left eye view image data.

상기 제1 HDMI 소스는, 상기 AVI InforFrame을 상기 좌안 시점 영상 데이터의 두 개의 프레임당 한번 전송할 수 있다. 여기서 상기 제1 PTS 정보는 상기 두 개의 프레임 각각에 대한 PTS 정보를 포함할 수 있다.The first HDMI source may transmit the AVI InforFrame once every two frames of the left eye view image data. Here, the first PTS information may include PTS information for each of the two frames.

상기 제1 PTS 정보는 상기 제1 전송 데이터에 포함된 좌안 시점 영상 데이터의 프레임의 PTS를 지시하는 정보일 수 있다.The first PTS information may be information indicating a PTS of a frame of left eye view image data included in the first transmission data.

상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 3차원 영상 전송 방법은 입체영상 데이터를 수신하는 단계, 상기 수신된 입체영상 데이터의 좌안 시점 영상 데이터를 디코딩하는 단계, 제1 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 좌안 시점 영상 데이터를 삽입하는 단계, 상기 제1 전송 데이터의 데이터 섬 구간에 상기 디코딩된 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입하는 단계, 상기 제1 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 단계, 상기 수신된 입체영상 데이터의 우안 시점 영상 데이터를 디코딩하는 단계, 제2 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 우안 시점 영상 데이터를 삽입하는 단계, 상기 제2 전송 데이터의 데이터 섬 구간에 상기 디코딩된 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입하는 단계 및 상기 제2 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 단계를 포함할 수 있다.In accordance with another aspect of the present invention, there is provided a method of transmitting a 3D image according to the present invention, the method comprising: receiving stereoscopic image data, decoding left eye view image data of the received stereoscopic image data, and video of the first transmission data. Inserting the decoded left eye view image data into a data section, inserting first PTS (Presentation Time Stamp) information of the decoded left eye view image data into a data island section of the first transmission data, the first Transmitting transmission data to a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI); decoding right eye view image data of the received stereoscopic image data; Inserting the decoded right eye view image data, and a data island of the second transmission data Inserting second PTS (Presentation Time Stamp) information of the decoded right eye view image data in a section; and transmitting the second transmission data to a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). It may include a step.

상기 제1 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함될 수 있다.The first PTS information may be included in an auxiliary video information (AVI) infoframe of the data island section.

상기 AVI InforFrame은 상기 좌안 시점 영상 데이터의 하나의 프레임당 한번 전송될 수 있다.The AVI InforFrame may be transmitted once per frame of the left eye view image data.

상기 AVI InforFrame은 상기 좌안 시점 영상 데이터의 두 개의 프레임당 한번 전송될 수 있다. 여기서 상기 제1 PTS 정보는 상기 두 개의 프레임 각각에 대한 PTS 정보를 포함할 수 있다.The AVI InforFrame may be transmitted once per two frames of the left eye view image data. Here, the first PTS information may include PTS information for each of the two frames.

상기 제1 PTS 정보는 상기 제1 전송 데이터에 포함된 좌안 시점 영상 데이터의 프레임의 PTS를 지시하는 정보일 수 있다.The first PTS information may be information indicating a PTS of a frame of left eye view image data included in the first transmission data.

상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 3차원 영상 수신 장치는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제1 전송 데이터를 수신하고, 상기 수신된 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출하고, 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출하는 제1 HDMI 싱크, HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제2 전송 데이터를 수신하고, 상기 수신된 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출하고, 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출하는 제2 HDMI 싱크, 및 상기 제1 PTS 정보 및 상기 제2 PTS 정보를 따라 상기 추출된 좌안 시점 영상 데이터 및 상기 추출된 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링하는 3차원 포맷터를 포함할 수 있다.In order to achieve the above technical problem, the 3D image receiving apparatus according to the present invention receives first transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI), A first eye extracts left eye view image data from a video data section of the received first transmission data, and extracts first PTS (Presentation Time Stamp) information of the left eye view image data from a data island section of the first transmission data. Receives second transmission data transmitted through an HDMI sink and a Transition Minimized Differential Signaling (TMDS) channel of an HDMI (High-Definition Multimedia Interface), and extracts right eye view image data from a video data section of the received second transmission data. Second PTS (Presentation Time Stamp) information of the right eye view image data in a data island section of the second transmission data. A second HDMI sink configured to extract a second image; and a 3D formatter configured to sample the extracted left eye view image data and the extracted right eye view image data according to the first PTS information and the second PTS information into a stereoscopic image output format. can do.

상기 3차원 포맷터는, 상기 좌안 시점 영상 데이터의 프레임 및 상기 프레임의 제1 PTS 정보와 동일한 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임을 입체영상 출력 포맷으로 샘플링할 수 있다.The 3D formatter may sample the frame of the left eye view image data and the frame of the right eye view image data having the same second PTS information as the first PTS information of the frame in a 3D image output format.

상기 3차원 영상 수신 장치는, 상기 추출된 좌안 시점 영상 데이터를 디인터레이스하는 제1 디인터레이서, 및 상기 추출된 우안 시점 영상 데이터를 디인터레이스하는 제2 디인터레이서를 더 포함할 수 있다.The 3D image receiving apparatus may further include a first deinterlacer for deinterlacing the extracted left eye view image data, and a second deinterlacer for deinterlacing the extracted right eye view image data.

상기 제1 디인터레이서는 상기 좌안 시점 영상 데이터를 버퍼링하고, 상기 제2 디인터레이서는 상기 우안 시점 영상 데이터를 버퍼링할 수 있다.The first deinterlacer may buffer the left eye view image data, and the second deinterlacer may buffer the right eye view image data.

상기 3차원 영상 수신 장치는, 상기 제1 PTS 정보 및 상기 제2 PTS 정보를 기초로 상기 제1 디인터레이서의 버퍼링 및 상기 제2 디인터레이서의 버퍼링을 제어하는 제어부를 더 포함할 수 있다.The 3D image receiving apparatus may further include a controller configured to control the buffering of the first deinterlacer and the buffering of the second deinterlacer based on the first PTS information and the second PTS information.

상기 제어부는, 상기 제1 디인터레이서에서 상기 3차원 포맷터로 출력되는 좌안 시점 영상 데이터의 프레임의 제1 PTS 정보와 동일한 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임이 상기 제2 디인터레이서에서 상기 3차원 포맷터로 출력되도록 제어할 수 있다.The control unit may include a frame of right eye view image data having second PTS information identical to first PTS information of a frame of left eye view image data output from the first deinterlacer to the three-dimensional formatter. You can control the output to the formatter.

상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 3차원 영상 수신 방법은 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제1 전송 데이터를 수신하는 단계, 상기 수신된 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출하는 단계, 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출하는 단계, HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제2 전송 데이터를 수신하는 단계, 상기 수신된 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출하는 단계, 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출하는 단계 및 상기 추출된 제1 PTS 정보 및 상기 추출된 제2 PTS 정보에 따라 상기 추출된 좌안 시점 영상 데이터 및 상기 추출된 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링하는 단계를 포함할 수 있다.In accordance with another aspect of the present invention, there is provided a method for receiving a 3D image according to the present invention, the method comprising: receiving first transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI); Extracting left eye view image data from a video data section of the received first transmission data; extracting first presentation time stamp (PTS) information of the left eye view image data from a data island section of the first transmission data; Receiving the second transmission data transmitted through the Transition Minimized Differential Signaling (TMDS) channel of the High-Definition Multimedia Interface (HDMI), Extracting the right eye view image data from the video data section of the received second transmission data And a second PTS of the right eye view image data in a data island section of the second transmission data. Extracting time stamp information and sampling the extracted left eye view image data and the extracted right eye view image data according to the extracted first PTS information and the extracted second PTS information into a stereoscopic image output format. It may include.

상기의 3차원 영상 수신 방법은 상기 추출된 좌안 시점 영상 데이터를 디인터레이스하는 단계 및 상기 추출된 우안 시점 영상 데이터를 디인터레이스하는 단계를 더 포함할 수 있다.The 3D image receiving method may further include deinterlacing the extracted left eye view image data and deinterlacing the extracted right eye view image data.

상기의 3차원 영상 수신 방법은 상기 제1 PTS 정보 및 상기 제2 PTS 정보를 기초로 상기 추출된 좌안 시점 영상 데이터를 버퍼링하는 단계, 및 상기 제1 PTS 정보 및 상기 제2 PTS 정보를 기초로 상기 추출된 우안 시점 영상 데이터를 버퍼링하는 단계를 더 포함할 수 있다.The 3D image receiving method may further include buffering the extracted left eye view image data based on the first PTS information and the second PTS information, and based on the first PTS information and the second PTS information. The method may further include buffering the extracted right eye view image data.

상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 3차원 영상 처리 장치는, 입체영상 데이터를 수신하는 수신부, 상기 수신된 입체영상 데이터의 좌안 시점 영상 데이터를 디코딩하는 제1 디코더, 제1 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 좌안 시점 영상 데이터를 삽입하고, 상기 제1 전송 데이터의 데이터 섬 구간에 상기 디코딩된 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입하며, 상기 제1 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 제1 HDMI 소스, 상기 수신된 입체영상 데이터의 우안 시점 영상 데이터를 디코딩하는 제2 디코더, 제2 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 우안 시점 영상 데이터를 삽입하고, 상기 제2 전송 데이터의 데이터 섬 구간에 상기 디코딩된 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입하며, 상기 제2 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 제2 HDMI 소스, HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제1 전송 데이터를 수신하고, 상기 수신된 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출하고, 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출하는 제1 HDMI 싱크, HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제2 전송 데이터를 수신하고, 상기 수신된 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출하고, 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출하는 제2 HDMI 싱크, 및 상기 추출된 제1 PTS 정보 및 상기 추출된 제2 PTS 정보에 따라 상기 추출된 좌안 시점 영상 데이터 및 상기 추출된 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링하는 3차원 포맷터를 포함할 수 있다.According to another aspect of the present invention, there is provided a three-dimensional image processing apparatus according to the present invention, a receiver for receiving stereoscopic image data, a first decoder for decoding left eye view image data of the received stereoscopic image data, the first Inserting the decoded left eye view image data into a video data section of transmission data, inserting first PTS (Presentation Time Stamp) information of the decoded left eye view image data into a data island section of the first transmission data, and A first HDMI source for transmitting first transmission data to a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI); a second decoder for decoding right eye view image data of the received stereoscopic image data; Inserting the decoded right eye view image data into a video data section of the transmission data, and Inserting second PTS (Presentation Time Stamp) information of the decoded right eye view image data in the data island section, and transmitting the second transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). Receives first transmission data transmitted through a second HDMI source, Transition Minimized Differential Signaling (TMDS) channel of High-Definition Multimedia Interface (HDMI), and receives a left eye view image in a video data section of the received first transmission data. TMDS (Transition) of a first HDMI sink and a high-definition multimedia interface (HDMI) for extracting data and extracting first presentation time stamp (PTS) information of the left eye view image data in a data island section of the first transmission data Receives second transmission data transmitted through a Minimized Differential Signaling channel and performs video data interval of the received second transmission data. A second HDMI sink for extracting right eye view image data and extracting second PTS (Presentation Time Stamp) information of the right eye view image data in a data island section of the second transmission data, and the extracted first PTS information; And a three-dimensional formatter configured to sample the extracted left eye view image data and the extracted right eye view image data in a stereoscopic image output format according to the extracted second PTS information.

3차원 영상 전송 장치 및 방법, 3차원 영상 수신 장치 및 방법, 그리고 3차원 영상 처리 장치에 의하면, PTS(Presentation Time Stamp)를 이용하여 좌안 영상 및 우안 영상을 동기하여 디인터레이스하고 샘플링하므로, 두 개의 디코더를 이용하여 각각 3차원 영상을 디코딩할 때 좌안 영상과 우안 영상을 정확하게 조합하고 정확한 순서로 디스플레이할 수 있고, 복원된 좌안 영상 및 우안 영상이 각각 개별적으로 전송될 때 좌안 영상과 우안 영상을 정확하게 조합하고 정확한 순서로 디스플레이할 수 있다.According to a three-dimensional image transmission apparatus and method, a three-dimensional image receiving apparatus and method, and a three-dimensional image processing apparatus, two decoders are used because the left eye image and the right eye image are synchronously deinterlaced and sampled using a PTS (Presentation Time Stamp). When the 3D image is decoded, the left eye image and the right eye image can be accurately combined and displayed in the correct order, and the left eye image and the right eye image are correctly combined when the restored left eye image and the right eye image are transmitted separately. Can be displayed in the correct order.

도 1은 일 실시예에 따른 3차원 영상 전송 장치의 블록도를 도시한다.
도 2는 일 실시예에 따른 3차원 영상 수신 장치의 블록도를 도시한다.
도 3은 다른 실시예에 따른 3차원 영상 수신 장치의 블록도를 도시한다.
도 4는 일 실시예에 따른 3차원 영상 처리 장치의 블록도를 도시한다.
도 5는 일 실시예에 따른 TMDS 전송 데이터의 구조를 도시한다.
도 6은 일 실시예에 따른 AVI(Auxiliary Video Information) 인포프레임(InfoFrame) 패킷 헤더의 구조를 도시한다.
도 7은 일 실시예에 따른 AVI InfoFrame 패킷 컨텐츠의 구조를 도시한다.
도 8은 일 실시예에 따른 AVI InfoFrame 패킷 내의 PTS(Presentation Time Stamp) 데이터를 위한 필드의 구조를 도시한다.
도 9는 편광 방식으로 디스플레이되는 입체영상 출력 포맷을 도시한다.
도 10은 셔터글라스 방식으로 디스플레이되는 입체영상 출력 포맷을 도시한다.
도 11은 일 실시예에 따른 3차원 영상 전송 방법의 흐름도를 도시한다.
도 12는 일 실시예에 따른 3차원 영상 수신 방법의 흐름도를 도시한다.
도 13은 일 실시예에 따른 3차원 영상 처리 방법의 흐름도를 도시한다.
1 is a block diagram of an apparatus for transmitting a 3D image according to an exemplary embodiment.
2 is a block diagram of an apparatus for receiving a 3D image according to an exemplary embodiment.
3 is a block diagram of an apparatus for receiving a 3D image according to another exemplary embodiment.
4 is a block diagram of a 3D image processing apparatus according to an exemplary embodiment.
5 illustrates a structure of TMDS transmission data according to an embodiment.
6 illustrates a structure of an auxiliary video information (AVI) infoframe packet header, according to an embodiment.
7 illustrates a structure of AVI InfoFrame packet contents according to an embodiment.
8 illustrates a structure of a field for PTS (Presentation Time Stamp) data in an AVI InfoFrame packet, according to an embodiment.
9 illustrates a stereoscopic image output format displayed in a polarized manner.
10 illustrates a stereoscopic image output format displayed in a shutter glass manner.
11 is a flowchart illustrating a 3D image transmission method according to an embodiment.
12 is a flowchart of a 3D image receiving method according to an embodiment.
13 is a flowchart of a 3D image processing method, according to an exemplary embodiment.

이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. At this time, the configuration and operation of the present invention shown in the drawings and described by it will be described as at least one embodiment, by which the technical spirit of the present invention and its core configuration and operation is not limited.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.Although the terms used in the present invention have been selected in consideration of the functions of the present invention, it is possible to use general terms that are currently widely used, but this may vary depending on the intention or custom of a person skilled in the art or the emergence of new technology. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, it is to be understood that the term used in the present invention should be defined based on the meaning of the term rather than the name of the term, and on the contents of the present invention throughout.

도 1은 일 실시예에 따른 3차원 영상 전송 장치의 블록도를 도시한다.1 is a block diagram of an apparatus for transmitting a 3D image according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 영상 데이터 전송 장치(100)는 수신부(110), 역다중화부(120), 제1 디코더(130), 제2 디코더(140), 제1 HDMI(High-Definition Multimedia Interface) 소스(150) 및 제2 HDMI 소스(160)를 포함할 수 있다. Referring to FIG. 1, an image data transmission apparatus 100 according to an embodiment may include a receiver 110, a demultiplexer 120, a first decoder 130, a second decoder 140, and a first HDMI (High). Definition Multimedia Interface) may include a source 150 and a second HDMI source 160.

수신부(110)는 입체영상 데이터를 수신한다. 여기서 입체영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 입체영상 데이터는 적어도 하나의 좌안 시점 영상 데이터와 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다. 또한 입체영상 데이터는 싱글 비디오 스트림 포맷 및 멀티 비디오 스트림 포맷을 가질 수 있다. The receiver 110 receives stereoscopic image data. The stereoscopic image data may be a stereo viewpoint image or a multiview image. That is, the stereoscopic image data may include at least one left eye view image data and at least one right eye view image data. In addition, the stereoscopic image data may have a single video stream format and a multi video stream format.

싱글 비디오 스트림 포맷은 사이드 바이 사이드(side by side) 포맷, 탑 앤 바텀(top and bottom) 포맷, 체커 보드(checker board) 포맷, 프레임 시퀀셜(Frame sequential) 포맷 및 인터레이스드(Interlaced) 포맷을 포함할 수 있다.Single video stream formats may include side by side format, top and bottom format, checker board format, frame sequential format, and interlaced format. Can be.

멀티 비디오 스트림 포맷은 풀 좌/우(Full left/right)(410), 풀 좌/하프 우(Full left/Half right)(420) 및 2D 비디오/깊이(2D video/depth)를 포함할 수 있다. 멀티 비디오 스트림 포맷에서, 좌안 시점 영상 및 우안 시점 영상 중 하나가 기준 화면으로 전송될 수 있고, 나머지가 부가화면으로 전송될 수 있다. 여기서 기준 화면은 MPEG2 약 12Mbps로 엔코딩된 것일 수 있고, 부가화면은 H.264 약 6Mbps로 엔코딩된 것일 수 있다. 또한 기준 화면 및 부가화면은 같은 PCR(Program Clock Reference) 및 PTS(Program Time Stamp)로 엔코딩되고 다중화되어 전송될 수 있다.The multi video stream format may include full left / right 410, full left / half right 420, and 2D video / depth. . In the multi-video stream format, one of the left eye view image and the right eye view image may be transmitted to the reference screen, and the rest may be transmitted to the additional screen. Here, the reference picture may be encoded at about 12 Mbps of MPEG2, and the additional picture may be encoded at about 6 Mbps of H.264. In addition, the reference picture and the additional picture may be encoded, multiplexed, and transmitted with the same Program Clock Reference (PCR) and Program Time Stamp (PTS).

수신부(110)는 튜너부, 복조부, 이동통신부, 네트워크 인터페이스부 및 외부 신호 수신부를 포함할 수 있다.The receiver 110 may include a tuner, a demodulator, a mobile communication unit, a network interface unit, and an external signal receiver.

역다중화부(120)는 수신부(110)가 수신한 입체영상 데이터를 좌안 시점 영상 데이터 및 우안 시점 영상 데이터로 역다중화한다.The demultiplexer 120 demultiplexes the stereoscopic image data received by the receiver 110 into left eye view image data and right eye view image data.

제1 디코더(130)는 역다중화부(120)가 역다중화한 좌안 시점 영상 데이터를 디코딩한다. 또한 제1 디코더(130)는 좌안 시점 영상 데이터의 PTS를 추출하고 추출한 PTS를 제1 HDMI 소스(150)로 출력할 수 있다. 여기서 제1 디코더(130)는 디코딩된 좌안 시점 영상 데이터의 프레임마다 상기 프레임의 PTS를 추출할 수 있다. 또한 제1 디코더(130)는 추출한 PTS를 그대로 제1 HDMI 소스(150)로 출력할 수 있고, 제1 디코더(130)는 추출한 PTS를 가공하여 제1 HDMI 소스(150)로 출력할 수 있다. 상기 가공 방법으로, 제1 디코더(130)는 추출한 PTS의 상위 비트의 일부를 제거할 수 있다.The first decoder 130 decodes left eye view image data demultiplexed by the demultiplexer 120. In addition, the first decoder 130 may extract the PTS of the left eye view image data and output the extracted PTS to the first HDMI source 150. Here, the first decoder 130 may extract the PTS of the frame for each frame of the decoded left eye view image data. In addition, the first decoder 130 may output the extracted PTS to the first HDMI source 150 as it is, and the first decoder 130 may process the extracted PTS and output the processed PTS to the first HDMI source 150. By the above processing method, the first decoder 130 may remove a part of the upper bits of the extracted PTS.

제2 디코더(140)는 역다중화부(120)가 역다중화한 우안 시점 영상 데이터를 디코딩한다. 또한 제2 디코더(140)는 우안 시점 영상 데이터의 PTS를 추출하고, 추라한 PTS를 제2 HDMI 소스(160)로 출력할 수 있다. 여기서 제2 디코더(140)는 디코딩된 우안 시점 영상 데이터의 프레임마다 상기 프레임의 PTS를 추출할 수 있다. 또한 제2 디코더(140)는 추출한 PTS를 그대로 제2 HDMI 소스(160)로 출력할 수 있고, 제2 디코더(140)는 추출한 PTS를 가공하여 제2 HDMI 소스(160)로 출력할 수 있다. 상기 가공 방법으로, 제2 디코더(140)는 추출한 PTS의 상위 비트의 일부를 제거할 수 있다.The second decoder 140 decodes the right eye view image data demultiplexed by the demultiplexer 120. In addition, the second decoder 140 may extract the PTS of the right eye view image data and output the estimated PTS to the second HDMI source 160. Here, the second decoder 140 may extract the PTS of the frame for each frame of the decoded right eye view image data. In addition, the second decoder 140 may output the extracted PTS to the second HDMI source 160 as it is, and the second decoder 140 may process the extracted PTS and output the processed PTS to the second HDMI source 160. By the above processing method, the second decoder 140 may remove a part of the upper bits of the extracted PTS.

제1 HDMI 소스(150)는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송 가능한 형식의 데이터 구조를 갖는 제1 전송 데이터를 전송한다. 여기서 제1 전송 데이터는 비디오 데이터 구간(Video Data period), 데이터 섬 구간(Data Island period), 및 컨트롤 구간(Control period)을 포함할 수 있다.The first HDMI source 150 transmits first transmission data having a data structure of a format that can be transmitted through a Transition Minimized Differential Signaling (TMDS) channel of a high-definition multimedia interface (HDMI). The first transmission data may include a video data period, a data island period, and a control period.

제1 HDMI 소스(150)는 제1 전송 데이터의 비디오 데이터 구간에 제1 디코더(130)가 디코딩한 좌안 시점 영상 데이터를 삽입하고, 제1 전송 데이터의 데이터 섬 구간에 디코딩된 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입할 수 있다.The first HDMI source 150 inserts left eye view image data decoded by the first decoder 130 into a video data section of the first transmission data, and decodes the left eye view image data decoded in a data island section of the first transmission data. First PTS (Presentation Time Stamp) information may be inserted.

제2 HDMI 소스(160)는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송 가능한 형식의 데이터 구조를 갖는 제2 전송 데이터를 전송한다. 여기서 제2 전송 데이터는 비디오 데이터 구간(Video Data period), 데이터 섬 구간(Data Island period), 및 컨트롤 구간(Control period)을 포함할 수 있다.The second HDMI source 160 transmits second transmission data having a data structure of a format that can be transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). The second transmission data may include a video data period, a data island period, and a control period.

제2 HDMI 소스(160)는 제2 전송 데이터의 비디오 데이터 구간에 제2 디코더(140)가 디코딩한 우안 시점 영상 데이터를 삽입하고, 제2 전송 데이터의 데이터 섬 구간에 디코딩된 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입할 수 있다.The second HDMI source 160 inserts the right eye view image data decoded by the second decoder 140 in the video data section of the second transmission data, and decodes the right eye view image data decoded in the data island section of the second transmission data. Second PTS (Presentation Time Stamp) information may be inserted.

도 2는 일 실시예에 따른 3차원 영상 수신 장치의 블록도를 도시한다.2 is a block diagram of an apparatus for receiving a 3D image according to an exemplary embodiment.

도 2를 참조하면, 일 실시예에 따른 영상 데이터 수신 장치(200)는 제1 HDMI 싱크(210), 제2 HDMI 싱크(220), 제1 디인터레이서(230), 제2 디인터레이서(240), 3D(tree-Dimensional) 3차원(3D) 포맷터(250), 영상 인터페이스부(260) 및 디스플레이(270)를 포함할 수 있다.2, the image data receiving apparatus 200 according to an embodiment may include a first HDMI sink 210, a second HDMI sink 220, a first deinterlacer 230, a second deinterlacer 240, and 3D. (tree-Dimensional) It may include a three-dimensional (3D) formatter 250, an image interface unit 260 and a display 270.

제1 HDMI 싱크(210)는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제1 전송 데이터를 수신한다. 여기서 제1 전송 데이터는 도 1에 도시된 제1 HDMI 소스(150)가 전송한 것일 수 있다.The first HDMI sink 210 receives first transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). Here, the first transmission data may be transmitted by the first HDMI source 150 illustrated in FIG. 1.

제1 HDMI 싱크(210)는 상기 수신한 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출하고, 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출할 수 있다.The first HDMI sink 210 extracts left eye view image data from a video data section of the received first transmission data, and first PTS of the left eye view image data in a data island section of the first transmission data. Stamp) information can be extracted.

제2 HDMI 싱크(220)는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제2 전송 데이터를 수신할 수 있다. 여기서 제2 전송 데이터는 도 2에 도시된 제2 HDMI 소스(160)가 전송한 것일 수 있다.The second HDMI sink 220 may receive second transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). Here, the second transmission data may be transmitted by the second HDMI source 160 illustrated in FIG. 2.

제2 HDMI 싱크(220)는 상기 수신된 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출하고, 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출할 수 있다.The second HDMI sink 220 extracts right eye view image data from a video data section of the received second transmission data, and second PTS of the right eye view image data in a data island section of the second transmission data. Stamp) information can be extracted.

제1 디인터레이서(230)는 제1 HDMI 싱크(210)가 출력한 좌안 시점 영상 데이터를 디인터레이스할 수 있다. 또한 제1 디인터레이서(230)는 제1 HDMI 싱크(210)가 출력한 좌안 시점 영상 데이터를 버퍼링할 수 있다.The first deinterlacer 230 may deinterlace the left eye view image data output by the first HDMI sink 210. Also, the first deinterlacer 230 may buffer the left eye view image data output by the first HDMI sink 210.

제2 디인터레이서(240)는 제2 HDMI 싱크(220)가 출력한 우안 시점 영상 데이터를 디인터레이스할 수 있다. 또한 제2 디인터레이서(240)는 제2 HDMI 싱크(220)가 출력한 우안 시점 영상 데이터를 버퍼링할 수 있다.The second deinterlacer 240 may deinterlace the right eye view image data output by the second HDMI sink 220. Also, the second deinterlacer 240 may buffer the right eye view image data output by the second HDMI sink 220.

3차원 포맷터(250)는 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링한다. 여기서 좌안 시점 영상 데이터는 제1 HDMI 싱크(210)가 추출한 좌안 시점 영상 데이터일 수 있고, 우안 시점 영상 데이터는 제2 HDMI 싱크(220)가 추출한 우안 시점 영상 데이터일 수 있다. 또한 입체영상 출력 포맷은 디스플레이(270)가 입체영상을 디스플레이하기 위한 포맷이다. The 3D formatter 250 samples the left eye view image data and the right eye view image data into a stereoscopic image output format. The left eye view image data may be left eye view image data extracted by the first HDMI sink 210, and the right eye view image data may be right eye view image data extracted by the second HDMI sink 220. In addition, the stereoscopic image output format is a format for the display 270 to display the stereoscopic image.

3차원 포맷터(250)는 제1 HDMI 싱크(210)가 추출한 제1 PTS 정보 및 제1 HDMI 싱크(220)가 추출한 제2 PTS 정보에 따라 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링할 수 있다. 일예로, 3차원 포맷터(250)는 좌안 시점 영상 데이터의 프레임 및 상기 프레임의 제1 PTS 정보와 동일한 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임을 입체영상 출력 포맷으로 샘플링할 수 있다. 즉 3차원 포맷터(250)는 상기 좌안 시점 영상의 프레임 및 상기 우안 시점 영상의 프레임을 이용하여 상기 입체영상 출력 포맷을 갖는 프레임을 생성할 수 있다.The 3D formatter 250 outputs the stereoscopic image output format of the left eye view image data and the right eye view image data according to the first PTS information extracted by the first HDMI sink 210 and the second PTS information extracted by the first HDMI sink 220. Can be sampled with For example, the 3D formatter 250 may sample a frame of the left eye view image data and a frame of the right eye view image data having the same second PTS information as the first PTS information of the frame in a 3D image output format. That is, the 3D formatter 250 may generate a frame having the stereoscopic image output format by using the frame of the left eye view image and the frame of the right eye view image.

3차원 포맷터(250)는 제1 HDMI 싱크(210)가 추출한 제1 PTS 정보 및 제1 HDMI 싱크(220)가 추출한 제2 PTS 정보를 기초로 제1 디인터레이서 및 제2 디인터레이서의 출력을 제어할 수 있다. 3차원 포맷터(250)는 제1 PTS 정보 및 제2 PTS 정보 중 제1 PTS 정보가 작은 경우에, 제1 PTS 정보와 동일한 제2 PTS를 갖는 우안 시점 영상 데이터의 프레임이 상기 제2 HDMI 싱크(220)로부터 출력될 때까지 대기한다. 그리고 상기 제2 HDMI 싱크(220)로부터 상기 우안 시점 영상 데이터의 프레임이 출력된 경우에, 3차원 포맷터(250)는 상기 제1 PTS 정보를 갖는 좌안 시점 영상 데이터의 프레임 및 상기 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임을 출력시킬 수 있다.The 3D formatter 250 may control the output of the first deinterlacer and the second deinterlacer based on the first PTS information extracted by the first HDMI sink 210 and the second PTS information extracted by the first HDMI sink 220. have. When the first PTS information among the first PTS information and the second PTS information is small, the 3D formatter 250 includes a frame of the right eye view image data having the same second PTS as the first PTS information. Wait until output from the server 220). When the frame of the right eye view image data is output from the second HDMI sink 220, the 3D formatter 250 may display the frame of the left eye view image data having the first PTS information and the second PTS information. A frame of right eye view image data may be output.

또한 3차원 포맷터(250)는 제1 HDMI 싱크(210)가 추출한 제1 PTS 정보 및 제1 HDMI 싱크(220)가 추출한 제2 PTS 정보를 기초로 제1 디인터레이서의 버퍼링 및 제2 디인터레이서의 버퍼링을 제어할 수 있다. 3차원 포맷터(250)는 제1 PTS 정보 및 제2 PTS 정보 중 제1 PTS 정보가 작은 경우에, 제1 PTS 정보와 동일한 제2 PTS를 갖는 우안 시점 영상 데이터의 프레임이 상기 제2 HDMI 싱크(220)로부터 출력될 때까지 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 버퍼링 시킨다. 그리고 상기 제2 HDMI 싱크(220)로부터 상기 우안 시점 영상 데이터의 프레임이 출력된 경우에, 3차원 포맷터(250)는 상기 제1 PTS 정보를 갖는 좌안 시점 영상 데이터의 프레임 및 상기 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임을 제1 디인터레이서(230) 및 제2 디인터레이서(240)로부터 각각 추출할 수 있다.In addition, the 3D formatter 250 performs buffering of the first deinterlacer and buffering of the second deinterlacer based on the first PTS information extracted by the first HDMI sink 210 and the second PTS information extracted by the first HDMI sink 220. Can be controlled. When the first PTS information among the first PTS information and the second PTS information is small, the 3D formatter 250 includes a frame of the right eye view image data having the same second PTS as the first PTS information. The left eye view image data and the right eye view image data are buffered until outputted from the image. When the frame of the right eye view image data is output from the second HDMI sink 220, the 3D formatter 250 may display the frame of the left eye view image data having the first PTS information and the second PTS information. Frames of the right eye view image data having the right eye may be extracted from the first deinterlacer 230 and the second deinterlacer 240, respectively.

영상 인터페이스부(260)는 3차원 포맷터(250)가 출력한 영상 프레임을 디스플레이(270)로 출력할 수 있다. 여기서 영상 인터페이스부(680)는 LVDS 출력부(Low Voltage Differential Signaling Tx)일 수 있다. 또한 3차원 포맷터(250)가 출력한 영상 프레임은 입체영상 출력 포맷을 갖는 프레임일 수 있다.The image interface unit 260 may output the image frame output by the 3D formatter 250 to the display 270. The image interface unit 680 may be an LVDS output unit (Low Voltage Differential Signaling Tx). In addition, the image frame output by the 3D formatter 250 may be a frame having a stereoscopic image output format.

디스플레이(270)는 영상 인터페이스부(260)를 영상 데이터를 수신하고 수신한 영상 데이터를 디스플레이한다. 여기서 영상 데이터는 입체영상 데이터일 수 있다. 디스플레이(270)는 입체영상을 셔터글라스 방식(shuttered glass), 편광 방식(Patterned Retarder type), 패러랙스 배리어(parallax barrier) 방식 및 렌티큘러 방식 중 하나의 방식으로 디스플레이할 수 있다.The display 270 receives the image data by the image interface unit 260 and displays the received image data. The image data may be stereoscopic image data. The display 270 may display a stereoscopic image in one of shuttered glass, patterned retarder type, parallax barrier, and lenticular methods.

도 3은 다른 실시예에 따른 3차원 영상 수신 장치의 블록도를 도시한다.3 is a block diagram of an apparatus for receiving a 3D image according to another exemplary embodiment.

도 3을 참조하면, 다른 실시예에 따른 영상 데이터 수신 장치(300)는 제1 HDMI 싱크(310), 제2 HDMI 싱크(320), 제어부(330), 제1 디인터레이서(340), 제2 디인터레이서(350), 3차원 포맷터(360), 영상 인터페이스부(370) 및 디스플레이(380)를 포함할 수 있다.Referring to FIG. 3, the image data receiving apparatus 300 according to another embodiment may include a first HDMI sink 310, a second HDMI sink 320, a controller 330, a first deinterlacer 340, and a second deinterlacer. And a 350, a 3D formatter 360, an image interface unit 370, and a display 380.

제1 HDMI 싱크(310), 제2 HDMI 싱크(320), 제1 디인터레이서(340), 제2 디인터레이서(350), 3D 포맷터(360), 영상 인터페이스부(370) 및 디스플레이(380)는 각각 도 2에서 전술된 제1 HDMI 싱크(210), 제2 HDMI 싱크(220), 제1 디인터레이서(230), 제2 디인터레이서(240), 3차원 포맷터(250), 영상 인터페이스부(260) 및 디스플레이(270)에 대응한다. 이에 제1 HDMI 싱크(310), 제2 HDMI 싱크(320), 제1 디인터레이서(340), 제2 디인터레이서(350), 3D 포맷터(360), 영상 인터페이스부(370) 및 디스플레이(380)에 대한 상세한 설명은 도 2에 전술된 제1 HDMI 싱크(210), 제2 HDMI 싱크(220), 제1 디인터레이서(230), 제2 디인터레이서(240), 3D(tree-Dimensional) 3차원 포맷터(250), 영상 인터페이스부(260) 및 디스플레이(270)에 대한 설명으로 대체하고, 그 차이점에 대해서 후술한다.The first HDMI sink 310, the second HDMI sink 320, the first deinterlacer 340, the second deinterlacer 350, the 3D formatter 360, the image interface unit 370, and the display 380 are respectively illustrated. 2, the first HDMI sink 210, the second HDMI sink 220, the first deinterlacer 230, the second deinterlacer 240, the 3D formatter 250, the image interface unit 260, and the display ( 270). Accordingly, the first HDMI sink 310, the second HDMI sink 320, the first deinterlacer 340, the second deinterlacer 350, the 3D formatter 360, the image interface unit 370, and the display 380 A detailed description of the first HDMI sink 210, the second HDMI sink 220, the first deinterlacer 230, the second deinterlacer 240, and the tree-dimensional three-dimensional formatter 250 described above with reference to FIG. 2 is provided. The descriptions of the video interface unit 260 and the display 270 will be replaced by the following description.

제어부(330)는 도 2에 전술된 3차원 포맷터(250)의 일부 기능을 대신 수행할 수 있다.The controller 330 may perform some functions of the 3D formatter 250 described above with reference to FIG. 2.

제어부(330)는 제1 HDMI 싱크(310)가 추출한 제1 PTS 정보 및 제1 HDMI 싱크(320)가 추출한 제2 PTS 정보를 기초로 제1 디인터레이서 및 제2 디인터레이서의 출력을 제어할 수 있다. 제어부(330)는 제1 PTS 정보 및 제2 PTS 정보 중 제1 PTS 정보가 작은 경우에, 제1 PTS 정보와 동일한 제2 PTS를 갖는 우안 시점 영상 데이터의 프레임이 상기 제2 HDMI 싱크(320)로부터 출력될 때까지 3차원 포맷터(360)로의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터가 입력되지 않도록 제어한다. 그리고 상기 제2 HDMI 싱크(320)로부터 상기 우안 시점 영상 데이터의 프레임이 출력된 경우에, 제어부(330)는 상기 제1 PTS 정보를 갖는 좌안 시점 영상 데이터의 프레임 및 상기 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임이 3차원 포맷터(360)로 출력되도록 제어한다.The controller 330 may control the output of the first deinterlacer and the second deinterlacer based on the first PTS information extracted by the first HDMI sink 310 and the second PTS information extracted by the first HDMI sink 320. When the first PTS information among the first PTS information and the second PTS information is small, the controller 330 may have the frame of the right eye view image data having the same second PTS as the first PTS information. The left eye view image data and the right eye view image data are not input to the 3D formatter 360 until they are output from the control unit. When the frame of the right eye view image data is output from the second HDMI sink 320, the controller 330 may have a frame of the left eye view image data having the first PTS information and the right eye having the second PTS information. The frame of the viewpoint image data is controlled to be output to the 3D formatter 360.

또한 제어부(330)는 제1 HDMI 싱크(310)가 추출한 제1 PTS 정보 및 제1 HDMI 싱크(320)가 추출한 제2 PTS 정보를 기초로 제1 디인터레이서의 버퍼링 및 제2 디인터레이서의 버퍼링을 제어할 수 있다. 제어부(330)는 제1 PTS 정보 및 제2 PTS 정보 중 제1 PTS 정보가 작은 경우에, 제1 PTS 정보와 동일한 제2 PTS를 갖는 우안 시점 영상 데이터의 프레임이 상기 제2 HDMI 싱크(320)로부터 출력될 때까지 좌안 시점 영상 데이터 및 우안 시점 영상 데이터가 버퍼링되도록 제어한다. 그리고 상기 제2 HDMI 싱크(320)로부터 상기 우안 시점 영상 데이터의 프레임이 출력된 경우에, 제어부(330)는 상기 제1 PTS 정보를 갖는 좌안 시점 영상 데이터의 프레임 및 상기 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임이 3차원 포맷터(360)로 출력되도록 제어한다.The controller 330 may control the buffering of the first deinterlacer and the buffering of the second deinterlacer based on the first PTS information extracted by the first HDMI sink 310 and the second PTS information extracted by the first HDMI sink 320. Can be. When the first PTS information among the first PTS information and the second PTS information is small, the controller 330 may have the frame of the right eye view image data having the same second PTS as the first PTS information. The left eye view image data and the right eye view image data are controlled to be buffered until they are output. When the frame of the right eye view image data is output from the second HDMI sink 320, the controller 330 may have a frame of the left eye view image data having the first PTS information and the right eye having the second PTS information. The frame of the viewpoint image data is controlled to be output to the 3D formatter 360.

도 4는 일 실시예에 따른 3차원 영상 처리 장치의 블록도를 도시한다.4 is a block diagram of a 3D image processing apparatus according to an exemplary embodiment.

도 4를 참조하면, 일 실시예에 따른 3차원 영상 처리 장치(400)는 수신부(410), 역다중화부(420), 제어부(430), 제1 디코더(440), 제2 디코더(445), 제1 HDMI 소스(450), 제2 HDMI 소스(455), 제1 HDMI 싱크(460). 제2 HDMI 싱크(465), 제1 디인터레이서(470), 제2 디인터레이서(475), 3D 3차원 포맷터(480), 영상 인터페이스부(485) 및 디스플레이(490)를 포함할 수 있다.Referring to FIG. 4, the 3D image processing apparatus 400 according to an exemplary embodiment may include a receiver 410, a demultiplexer 420, a controller 430, a first decoder 440, and a second decoder 445. , First HDMI source 450, second HDMI source 455, first HDMI sink 460. It may include a second HDMI sink 465, a first deinterlacer 470, a second deinterlacer 475, a 3D 3D formatter 480, an image interface unit 485, and a display 490.

3차원 영상 처리 장치(400)는 도 1에 도시된 영상 데이터 전송 장치(100) 및 도 3에 도시된 영상 데이터 수신 장치(300)가 하나로 결합된 형태의 장치이다. 또한 3차원 영상 처리 장치(400)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있다. 또한 3차원 영상 처리 장치(400)는 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.The 3D image processing apparatus 400 is a device in which the image data transmitting apparatus 100 illustrated in FIG. 1 and the image data receiving apparatus 300 illustrated in FIG. 3 are combined into one. In addition, the 3D image processing apparatus 400 may be a personal computer system such as a desktop, a laptop, a tablet, or a handheld computer. In addition, the 3D image processing apparatus 400 may be a mobile terminal such as a mobile phone, a smart phone, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, or the like. It may be a home appliance.

수신부(410)는 입체영상 데이터를 수신한다. 여기서 입체영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 입체영상 데이터는 적어도 하나의 좌안 시점 영상 데이터와 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다. 또한 입체영상 데이터는 싱글 비디오 스트림 포맷 및 멀티 비디오 스트림 포맷을 가질 수 있다. The receiver 410 receives stereoscopic image data. The stereoscopic image data may be a stereo viewpoint image or a multiview image. That is, the stereoscopic image data may include at least one left eye view image data and at least one right eye view image data. In addition, the stereoscopic image data may have a single video stream format and a multi video stream format.

싱글 비디오 스트림 포맷은 사이드 바이 사이드(side by side) 포맷, 탑 앤 바텀(top and bottom) 포맷, 체커 보드(checker board) 포맷, 프레임 시퀀셜(Frame sequential) 포맷 및 인터레이스드(Interlaced) 포맷을 포함할 수 있다.Single video stream formats may include side by side format, top and bottom format, checker board format, frame sequential format, and interlaced format. Can be.

멀티 비디오 스트림 포맷은 풀 좌/우(Full left/right)(410), 풀 좌/하프 우(Full left/Half right)(420) 및 2D 비디오/깊이(2D video/depth)를 포함할 수 있다. 멀티 비디오 스트림 포맷에서, 좌안 시점 영상 및 우안 시점 영상 중 하나가 기준 화면으로 전송될 수 있고, 나머지가 부가화면으로 전송될 수 있다. 여기서 기준 화면은 MPEG2 약 12Mbps로 엔코딩된 것일 수 있고, 부가화면은 H.264 약 6Mbps로 엔코딩된 것일 수 있다. 또한 기준 화면 및 부가화면은 같은 PCR(Program Clock Reference) 및 PTS(Program Time Stamp)로 엔코딩되고 다중화되어 전송될 수 있다.The multi video stream format may include full left / right 410, full left / half right 420, and 2D video / depth. . In the multi-video stream format, one of the left eye view image and the right eye view image may be transmitted to the reference screen, and the rest may be transmitted to the additional screen. Here, the reference picture may be encoded at about 12 Mbps of MPEG2, and the additional picture may be encoded at about 6 Mbps of H.264. In addition, the reference picture and the additional picture may be encoded, multiplexed, and transmitted with the same Program Clock Reference (PCR) and Program Time Stamp (PTS).

수신부(410)는 튜너부, 복조부, 이동통신부, 네트워크 인터페이스부 및 외부 신호 수신부를 포함할 수 있다.The receiver 410 may include a tuner unit, a demodulator, a mobile communication unit, a network interface unit, and an external signal receiver.

역다중화부(420)는 수신부(410)가 수신한 입체영상 데이터를 좌안 시점 영상 데이터 및 우안 시점 영상 데이터로 역다중화한다.The demultiplexer 420 demultiplexes the stereoscopic image data received by the receiver 410 into left eye view image data and right eye view image data.

제1 디코더(440)는 역다중화부(420)가 역다중화한 좌안 시점 영상 데이터를 디코딩한다. 또한 제1 디코더(440)는 좌안 시점 영상 데이터의 PTS를 추출하고 추출한 PTS를 제1 HDMI 소스(450)로 출력할 수 있다. 여기서 제1 디코더(440)는 디코딩된 좌안 시점 영상 데이터의 프레임마다 상기 프레임의 PTS를 추출할 수 있다. 또한 제1 디코더(440)는 추출한 PTS를 그대로 제1 HDMI 소스(450)로 출력할 수 있고, 제1 디코더(440)는 추출한 PTS를 가공하여 제1 HDMI 소스(450)로 출력할 수 있다. 상기 가공 방법으로, 제1 디코더(440)는 추출한 PTS의 상위 비트의 일부를 제거할 수 있다.The first decoder 440 decodes left eye view image data demultiplexed by the demultiplexer 420. Also, the first decoder 440 may extract the PTS of the left eye view image data and output the extracted PTS to the first HDMI source 450. Here, the first decoder 440 may extract the PTS of the frame for each frame of the decoded left eye view image data. In addition, the first decoder 440 may output the extracted PTS to the first HDMI source 450 as it is, and the first decoder 440 may process the extracted PTS and output the processed PTS to the first HDMI source 450. By the above processing method, the first decoder 440 may remove a part of the upper bits of the extracted PTS.

제2 디코더(445)는 역다중화부(420)가 역다중화한 우안 시점 영상 데이터를 디코딩한다. 또한 제2 디코더(445)는 우안 시점 영상 데이터의 PTS를 추출하고, 추라한 PTS를 제2 HDMI 소스(445)로 출력할 수 있다. 여기서 제2 디코더(445)는 디코딩된 우안 시점 영상 데이터의 프레임마다 상기 프레임의 PTS를 추출할 수 있다. 또한 제2 디코더(445)는 추출한 PTS를 그대로 제2 HDMI 소스(445)로 출력할 수 있고, 제2 디코더(445)는 추출한 PTS를 가공하여 제2 HDMI 소스(445)로 출력할 수 있다. 상기 가공 방법으로, 제1 디코더(445)는 추출한 PTS의 상위 비트의 일부를 제거할 수 있다.The second decoder 445 decodes the right eye view image data demultiplexed by the demultiplexer 420. In addition, the second decoder 445 may extract the PTS of the right eye view image data and output the estimated PTS to the second HDMI source 445. Here, the second decoder 445 may extract the PTS of the frame for each frame of the decoded right eye view image data. In addition, the second decoder 445 may output the extracted PTS to the second HDMI source 445 as it is, and the second decoder 445 may process the extracted PTS and output the processed PTS to the second HDMI source 445. By the above processing method, the first decoder 445 may remove a part of the upper bits of the extracted PTS.

제1 HDMI 소스(450)는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송 가능한 형식의 데이터 구조를 갖는 제1 전송 데이터를 전송한다. 여기서 제1 전송 데이터는 비디오 데이터 구간(Video Data period), 데이터 섬 구간(Data Island period), 및 컨트롤 구간(Control period)을 포함할 수 있다.The first HDMI source 450 transmits first transmission data having a data structure of a format that can be transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). The first transmission data may include a video data period, a data island period, and a control period.

제1 HDMI 소스(450)는 제1 전송 데이터의 비디오 데이터 구간에 제1 디코더(440)가 디코딩한 좌안 시점 영상 데이터를 삽입하고, 제1 전송 데이터의 데이터 섬 구간에 디코딩된 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입할 수 있다.The first HDMI source 450 inserts left eye view image data decoded by the first decoder 440 into a video data section of the first transmission data, and decodes the left eye view image data decoded in a data island section of the first transmission data. First PTS (Presentation Time Stamp) information may be inserted.

제2 HDMI 소스(445)는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송 가능한 형식의 데이터 구조를 갖는 제2 전송 데이터를 전송한다. 여기서 제2 전송 데이터는 비디오 데이터 구간(Video Data period), 데이터 섬 구간(Data Island period), 및 컨트롤 구간(Control period)을 포함할 수 있다.The second HDMI source 445 transmits second transmission data having a data structure of a format that can be transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). The second transmission data may include a video data period, a data island period, and a control period.

제2 HDMI 소스(450)는 제2 전송 데이터의 비디오 데이터 구간에 제2 디코더(445)가 디코딩한 우안 시점 영상 데이터를 삽입하고, 제2 전송 데이터의 데이터 섬 구간에 디코딩된 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입할 수 있다.The second HDMI source 450 inserts the right eye view image data decoded by the second decoder 445 into the video data section of the second transmission data, and decodes the right eye view image data decoded in the data island section of the second transmission data. Second PTS (Presentation Time Stamp) information may be inserted.

제1 HDMI 싱크(460)는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제1 전송 데이터를 수신한다.The first HDMI sink 460 receives first transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI).

제1 HDMI 싱크(460)는 상기 수신한 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출하고, 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출할 수 있다.The first HDMI sink 460 extracts left eye view image data from a video data section of the received first transmission data, and first PTS of the left eye view image data in a data island section of the first transmission data. Stamp) information can be extracted.

제2 HDMI 싱크(465)는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제2 전송 데이터를 수신할 수 있다.The second HDMI sink 465 may receive second transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI).

제2 HDMI 싱크(465)는 상기 수신된 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출하고, 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출할 수 있다.The second HDMI sink 465 extracts right eye view image data from a video data section of the received second transmission data, and second PTS of the right eye view image data in a data island section of the second transmission data. Stamp) information can be extracted.

제1 디인터레이서(470)는 제1 HDMI 싱크(460)가 출력한 좌안 시점 영상 데이터를 디인터레이스할 수 있다. 또한 제1 디인터레이서(470)는 제1 HDMI 싱크(460)가 출력한 좌안 시점 영상 데이터를 버퍼링할 수 있다.The first deinterlacer 470 may deinterlace the left eye view image data output by the first HDMI sink 460. In addition, the first deinterlacer 470 may buffer left eye view image data output by the first HDMI sink 460.

제2 디인터레이서(475)는 제2 HDMI 싱크(465)가 출력한 우안 시점 영상 데이터를 디인터레이스할 수 있다. 또한 제2 디인터레이서(475)는 제2 HDMI 싱크(465)가 출력한 우안 시점 영상 데이터를 버퍼링할 수 있다.The second deinterlacer 475 may deinterlace the right eye view image data output by the second HDMI sink 465. In addition, the second deinterlacer 475 may buffer the right eye view image data output by the second HDMI sink 465.

3차원 포맷터(480)는 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링한다. 여기서 좌안 시점 영상 데이터는 제1 HDMI 싱크(460)가 추출한 좌안 시점 영상 데이터일 수 있고, 우안 시점 영상 데이터는 제2 HDMI 싱크(465)가 추출한 우안 시점 영상 데이터일 수 있다. 또한 입체영상 출력 포맷은 디스플레이(490)가 입체영상을 디스플레이하기 위한 포맷이다. The 3D formatter 480 samples left eye view image data and right eye view image data into a stereoscopic image output format. The left eye view image data may be left eye view image data extracted by the first HDMI sink 460, and the right eye view image data may be right eye view image data extracted by the second HDMI sink 465. Also, the stereoscopic image output format is a format for the display 490 to display the stereoscopic image.

3차원 포맷터(480)는 제1 HDMI 싱크(460)가 추출한 제1 PTS 정보 및 제1 HDMI 싱크(465)가 추출한 제2 PTS 정보를 따라 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링할 수 있다. 일예로, 3차원 포맷터(480)는 좌안 시점 영상 데이터의 프레임 및 상기 프레임의 제1 PTS 정보와 동일한 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임을 입체영상 출력 포맷으로 샘플링할 수 있다. 즉 3차원 포맷터(480)는 상기 좌안 시점 영상의 프레임 및 상기 우안 시점 영상의 프레임을 이용하여 상기 입체영상 출력 포맷을 갖는 프레임을 생성할 수 있다.The 3D formatter 480 may output a left eye view image data and a right eye view image data according to the first PTS information extracted by the first HDMI sink 460 and the second PTS information extracted by the first HDMI sink 465. Can be sampled with For example, the 3D formatter 480 may sample a frame of the left eye view image data and a frame of the right eye view image data having the same second PTS information as the first PTS information of the frame in a 3D image output format. That is, the 3D formatter 480 may generate a frame having the stereoscopic image output format by using the frame of the left eye view image and the frame of the right eye view image.

제어부(430)는 제1 HDMI 싱크(460)가 추출한 제1 PTS 정보 및 제2 HDMI 싱크(465)가 추출한 제2 PTS 정보를 기초로 제1 디인터레이서 및 제2 디인터레이서의 출력을 제어할 수 있다. 제어부(430)는 제1 PTS 정보 및 제2 PTS 정보 중 제1 PTS 정보가 작은 경우에, 제1 PTS 정보와 동일한 제2 PTS를 갖는 우안 시점 영상 데이터의 프레임이 상기 제2 HDMI 싱크(465)로부터 출력될 때까지 3차원 포맷터(480)로의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터가 입력되지 않도록 제어한다. 그리고 상기 제2 HDMI 싱크(465)로부터 상기 우안 시점 영상 데이터의 프레임이 출력된 경우에, 제어부(430)는 상기 제1 PTS 정보를 갖는 좌안 시점 영상 데이터의 프레임 및 상기 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임이 3차원 포맷터(480)로 출력되도록 제어한다.The controller 430 may control the output of the first deinterlacer and the second deinterlacer based on the first PTS information extracted by the first HDMI sink 460 and the second PTS information extracted by the second HDMI sink 465. When the first PTS information among the first PTS information and the second PTS information is small, the controller 430 may display the frame of the right eye view image data having the same second PTS as the first PTS information. The left eye view image data and the right eye view image data are not input to the 3D formatter 480 until they are output from the control unit. When the frame of the right eye view image data is output from the second HDMI sink 465, the control unit 430 may include a frame of the left eye view image data having the first PTS information and the right eye having the second PTS information. The frame of the viewpoint image data is controlled to be output to the 3D formatter 480.

또한 제어부(430)는 제1 HDMI 싱크(460)가 추출한 제1 PTS 정보 및 제1 HDMI 싱크(465)가 추출한 제2 PTS 정보를 기초로 제1 디인터레이서의 버퍼링 및 제2 디인터레이서의 버퍼링을 제어할 수 있다. 제어부(430)는 제1 PTS 정보 및 제2 PTS 정보 중 제1 PTS 정보가 작은 경우에, 제1 PTS 정보와 동일한 제2 PTS를 갖는 우안 시점 영상 데이터의 프레임이 상기 제2 HDMI 싱크(465)로부터 출력될 때까지 좌안 시점 영상 데이터 및 우안 시점 영상 데이터가 버퍼링되도록 제어한다. 그리고 상기 제2 HDMI 싱크(465)로부터 상기 우안 시점 영상 데이터의 프레임이 출력된 경우에, 제어부(430)는 상기 제1 PTS 정보를 갖는 좌안 시점 영상 데이터의 프레임 및 상기 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임이 3차원 포맷터(480)로 출력되도록 제어한다.The controller 430 may control the buffering of the first deinterlacer and the buffering of the second deinterlacer based on the first PTS information extracted by the first HDMI sink 460 and the second PTS information extracted by the first HDMI sink 465. Can be. When the first PTS information among the first PTS information and the second PTS information is small, the controller 430 may display the frame of the right eye view image data having the same second PTS as the first PTS information. The left eye view image data and the right eye view image data are controlled to be buffered until they are output. When the frame of the right eye view image data is output from the second HDMI sink 465, the control unit 430 may include a frame of the left eye view image data having the first PTS information and the right eye having the second PTS information. The frame of the viewpoint image data is controlled to be output to the 3D formatter 480.

영상 인터페이스부(485)는 3차원 포맷터(480)가 출력한 영상 프레임을 디스플레이(490)로 출력할 수 있다. 여기서 영상 인터페이스부(680)는 LVDS 출력부(Low Voltage Differential Signaling Tx)일 수 있다. 또한 3차원 포맷터(480)가 출력한 영상 프레임은 입체영상 출력 포맷을 갖는 프레임일 수 있다.The image interface unit 485 may output the image frame output by the 3D formatter 480 to the display 490. The image interface unit 680 may be an LVDS output unit (Low Voltage Differential Signaling Tx). In addition, the image frame output by the 3D formatter 480 may be a frame having a stereoscopic image output format.

디스플레이(490)는 영상 인터페이스부(485)를 영상 데이터를 수신하고 수신한 영상 데이터를 디스플레이한다. 여기서 영상 데이터는 입체영상 데이터일 수 있다. 디스플레이(490)는 입체영상을 셔터글라스 방식(shuttered glass), 편광 방식(Patterned Retarder type), 패러랙스 배리어(parallax barrier) 방식 및 렌티큘러 방식 중 어느 하나의 방식으로 디스플레이할 수 있다.The display 490 receives the image data by the image interface unit 485 and displays the received image data. The image data may be stereoscopic image data. The display 490 may display a stereoscopic image by any one of a shuttered glass, a patterned retarder type, a parallax barrier method, and a lenticular method.

도 5는 일 실시예에 따른 TMDS 전송 데이터의 구조를 도시한다.5 illustrates a structure of TMDS transmission data according to an embodiment.

도 5는 HDMI의 TMDS 채널로 각종의 전송 데이터가 전송된 전송 구간(기간)의 예를 나타내고 있다. 도 5는, TMDS 채널에 있어서, 횡×세로가 720×480화소의 영상이 전송된 경우의, 각종의 전송 데이터의 구간을 나타내고 있다.Fig. 5 shows an example of a transmission section (period) in which various transmission data are transmitted on a TMDS channel of HDMI. Fig. 5 shows a section of various types of transmission data in the case where an image of 720x480 pixels having a horizontal x vertical pixel is transmitted in a TMDS channel.

전송 데이터(500)가 전송된 비디오 필드(Video Field)에는, 전송 데이터의 종류에 따라, 비디오 데이터 구간(Video Data period), 데이터 섬 구간(Data Island period), 및 컨트롤 구간(Control period)의 3 종류의 구간이 존재한다.In the video field in which the transmission data 500 is transmitted, three of the video data period, the data island period, and the control period, depending on the type of the transmission data, are included in the video field. There are kinds of sections.

여기에서, 비디오 필드 구간은, 어느 수직 동기 신호(VSYNC) 펄스로부터 다음 수직 동기 신호(VSYNC) 펄스까지의 구간이고, 수평 블랭킹 기간(horizontal blanking)(530), 수직 블랭킹 기간(vertical blanking)(540), 및, 비디오 필드 구간에서, 수평 블랭킹 기간(530) 및 수직 블랭킹 기간(540)을 제외한 구간인 액티브 비디오 구간(Active Video)(550)으로 나눠진다.Here, the video field section is a section from one vertical sync signal (VSYNC) pulse to the next vertical sync signal (VSYNC) pulse, a horizontal blanking period (530), a vertical blanking period (vertical blanking) (540). ) And a video field section, which is divided into an active video section 550 which is a section except for the horizontal blanking period 530 and the vertical blanking period 540.

비디오 데이터 구간(550)은, 액티브 비디오 구간에 할당된다. 이 비디오 데이터 구간에서는, 비 압축의 1 화면분의 화상 데이터를 구성하는 720 화소×480 라인 부분의 유효 화소(Active pixel)의 데이터가 전송된다.The video data section 550 is allocated to the active video section. In this video data section, data of active pixels of 720 pixels x 480 line portions constituting uncompressed one-screen image data are transmitted.

데이터 섬 구간 및 컨트롤 구간은, 수평 블랭킹 기간 및 수직 블랭킹 기간에 할당된다. 이 데이터 섬 구간 및 컨트롤 구간에서는, 보조 데이터(Auxiliary data)가 전송된다.The data island section and the control section are allocated to the horizontal blanking period and the vertical blanking period. Auxiliary data is transmitted in this data island section and the control section.

즉, 데이터 섬 구간은, 수평 블랭킹 기간과 수직 블랭킹 기간의 일부분에 할당되고 있다. 이 데이터 섬 구간에서는, 보조 데이터 중, 제어에 관계되지 않는 데이터이다, 예를 들면, 음성 데이터의 패킷 등이 전송된다. 또한 데이터 섬 구간은 디코딩된 좌안 시점 영상의 PTS(Presentation Time Stamp) 정보 및 디코딩된 우안 시점 영상의 PTS 정보가 전송될 수 있다. 여기서 PTS 정보는 PTS일 수 있고, PTS가 가공된 정보일 수 있다.That is, the data island period is allocated to a part of the horizontal blanking period and the vertical blanking period. In this data island section, it is data which is not related to control among auxiliary data, for example, the packet of audio data, etc. are transmitted. In addition, in the data island period, PTS information of the decoded left eye view image and PTS information of the decoded right eye view image may be transmitted. In this case, the PTS information may be a PTS, and the PTS may be processed information.

3차원 영상 전송 장치(100) 및 3차원 영상 처리 장치(400)는 디코딩된 좌안 시점 영상의 PTS(Presentation Time Stamp) 및 디코딩된 우안 시점 영상의 PTS를 데이터 섬 구간에 삽입할 수 있다.The 3D image transmission apparatus 100 and the 3D image processing apparatus 400 may insert the PTS (Presentation Time Stamp) of the decoded left eye view image and the PTS of the decoded right eye view image into the data island section.

또한, 3차원 영상 수신 장치(200), 3차원 영상 수신 장치(300) 및 3차원 영상 처리 장치(500)는 데이터 섬 구간에서 디코딩된 좌안 시점 영상의 PTS(Presentation Time Stamp) 및 디코딩된 우안 시점 영상의 PTS를 추출할 수 있다.In addition, the 3D image receiving apparatus 200, the 3D image receiving apparatus 300, and the 3D image processing apparatus 500 may include a PTS (Presentation Time Stamp) and a decoded right eye viewpoint of a left eye view image decoded in a data island section. PTS of the image can be extracted.

데이터 섬 구간은 인포프레임(InfoFrame) 패킷을 전송할 수 있고, 인포프레임(InfoFrame) 패킷은 디코딩된 좌안 시점 영상의 PTS(Presentation Time Stamp) 정보 및 디코딩된 우안 시점 영상의 PTS 정보를 포함할 수 있다. 여기서 인포프레임 패킷은, 벤더 특정 인포프레임(VENDOR-SPECIFIC InfoFrame), AVI(Auxiliary Video Information) 인포프레임(InfoFrame), 소스 프로덕트 디스크립터 인포프레임(SOURCE PRODUCT DESCRIPTOR InfoFrame), 오디오 인포프레임(AUDIO InfoFrame'), MPEG 소스 인포프레임(MPEG SOURCE InfoFrame)들로 구성된다.The data island interval may transmit an InfoFrame packet, and the InfoFrame packet may include PTS information of the decoded left eye view image and PTS information of the decoded right eye view image. The infoframe packet may include a vendor-specific infoframe (VENDOR-SPECIFIC InfoFrame), an AVI (Auxiliary Video Information) infoframe (InfoFrame), a source product descriptor infoframe (SOURCE PRODUCT DESCRIPTOR InfoFrame), an audio infoframe (AUDIO InfoFrame '), It consists of MPEG SOURCE InfoFrames.

컨트롤 구간은, 수평 블랭킹 기간과 수직 블랭킹 기간의 다른 부분에 할당되고 있다. 이 컨트롤 구간에서는, 보조 데이터 중의, 제어에 관계된 데이터이다, 예를 들면, 수직 동기 신호 및 수평 동기 신호, 제어 패킷 등이 전송된다.The control section is allocated to different parts of the horizontal blanking period and the vertical blanking period. In this control section, it is data related to control among auxiliary data, for example, a vertical synchronizing signal, a horizontal synchronizing signal, a control packet, etc. are transmitted.

여기에서, 현행의 HDMI로는, TMDS 클록 채널로 전송된 화소 클록의 주파수는, 예를 들면 165MHz이고, 이 경우, 데이터 섬 구간의 전송 레이트는 약 500Mbps정도이다.Here, in the present HDMI, the frequency of the pixel clock transmitted through the TMDS clock channel is, for example, 165 MHz, and in this case, the transmission rate of the data island section is about 500 Mbps.

전송 데이터(500)는 수평 동기 신호(HSYNC) 펄스(510) 및 수직 동기 신호(VSYNC) 펄스(520)에 동기화되어 전송된다. 전송 데이터(500)는 총 525개의 가로 라인으로 구성되며, 각각의 가로 라인은 총 858개의 픽셀들을 포함한다. 전송 데이터(500) 중 비디오 데이터 구간은 액티브 비디오 영역이며, 액티브 비디오 영역은 480개의 액티브 라인들(550)을 포함하며, 각각의 액티브 라인은 720개의 액티브 픽셀들(560)로 구성된다.The transmission data 500 is transmitted in synchronization with the horizontal synchronizing signal (HSYNC) pulse 510 and the vertical synchronizing signal (VSYNC) pulse 520. The transmission data 500 consists of a total of 525 horizontal lines, each of which includes a total of 858 pixels. The video data section of the transmission data 500 is an active video region, and the active video region includes 480 active lines 550, and each active line includes 720 active pixels 560.

전송 데이터(500) 중 액티브 비디오 라인들을 제외한 45개의 가로 라인들(540)은 수직 블랭킹 기간에 해당하며, 가로 라인별로 액티브 픽셀들을 제외한 138개의 픽셀들(530)은 수평 블랭킹 기간에 해당한다.45 horizontal lines 540 excluding active video lines of the transmission data 500 correspond to a vertical blanking period, and 138 pixels 530 except active pixels for each horizontal line correspond to a horizontal blanking period.

도 6은 일 실시예에 따른 AVI(Auxiliary Video Information) 인포프레임(InfoFrame) 패킷 헤더의 구조를 도시한다.6 illustrates a structure of an auxiliary video information (AVI) infoframe packet header, according to an embodiment.

도 6을 참조하면, AVI(Auxiliary Video Information) 인포프레임(InfoFrame) 패킷 헤더(600)는 HB(Header Byte)0에 패킷 타입 정보는 포함한다. 여기서 패킷 타입 정보는 데이터 섬 패킷 타입(Packet Type)을 지시하는 정보이다. AVI InfoFrame의 패킷 타입은 Ox82이고, Ox82가 패킷 타입 정보로 HB0에 포함된다. 또한 HB0, HB1, HB2는 각각 헤더의 첫 번째 바이트, 두 번째 바이트 및 세 번째 바이트를 의미한다.Referring to FIG. 6, the auxiliary video information (AVI) infoframe packet header 600 includes packet type information in a header byte (HB) 0. Here, the packet type information is information indicating a data island packet type. The packet type of the AVI InfoFrame is Ox82, and Ox82 is included in HB0 as packet type information. In addition, HB0, HB1, and HB2 mean the first byte, the second byte, and the third byte of the header, respectively.

AVI InfoFrame(600)는 HB1에 버전 정보를 포함한다. 여기서 버전 정보는 AVI InfoFrame의 버전을 지시한다.The AVI InfoFrame 600 includes version information in HB1. The version information here indicates the version of the AVI InfoFrame.

AVI InfoFrame(600)는 HB3에 AVI InfoFrame(600)의 크기 정보를 포함한다.The AVI InfoFrame 600 includes size information of the AVI InfoFrame 600 in HB3.

도 7은 일 실시예에 따른 AVI InfoFrame 패킷 컨텐츠의 구조를 도시한다.7 illustrates a structure of AVI InfoFrame packet contents according to an embodiment.

도 7을 참조하면, 3차원 영상 전송 장치(100) 및 3차원 영상 처리 장치(400)는 디코딩된 좌안 시점 영상의 PTS(Presentation Time Stamp) 및 디코딩된 우안 시점 영상의 PTS 정보를 AVI InfoFrame 패킷 컨텐츠(700)에 삽입할 수 있다.Referring to FIG. 7, the 3D image transmission apparatus 100 and the 3D image processing apparatus 400 may include PTS (Presentation Time Stamp) of the decoded left eye view image and PTS information of the decoded right eye view image. Can be inserted at 700.

또한, 3차원 영상 수신 장치(200), 3차원 영상 수신 장치(300) 및 3차원 영상 처리 장치(500)는 AVI InfoFrame 패킷 컨텐츠(700)으로부터 디코딩된 좌안 시점 영상의 PTS(Presentation Time Stamp) 및 디코딩된 우안 시점 영상의 PTS 정보를 추출할 수 있다.In addition, the 3D image receiving apparatus 200, the 3D image receiving apparatus 300, and the 3D image processing apparatus 500 may include a PTS (Presentation Time Stamp) of a left eye view image decoded from the AVI InfoFrame packet content 700. PTS information of the decoded right eye view image may be extracted.

AVI InfoFrame 패킷 컨테츠(700)은 PB(Packet Byte)14 내지 PB27에 PTS 정보를 포함할 수 있다.The AVI InfoFrame packet content 700 may include PTS information in Packet Byte (PB) 14 to PB27.

도 8은 일 실시예에 따른 AVI InfoFrame 패킷 내의 PTS(Presentation Time Stamp) 데이터를 위한 필드의 구조를 도시한다.8 illustrates a structure of a field for PTS (Presentation Time Stamp) data in an AVI InfoFrame packet, according to an embodiment.

PTS 필드는 AVI InfoFrame 패킷 컨텐츠(700)의 PB14 내지 PB27에 위치할 수 있다. PTS 필드는 도 8(a)의 PTS 필드(810)와 같이 4byte가 할당될 수 있고, 8(b)의 PTS 필드(820)와 같이 8byte가 할당될 수 있다. PTS 필드는 PTS 정보를 포함할 수 있다. 여기서 PTS 정보는 비디오 데이터 구간에 전송되는 영상 프레임의 PTS 정보이다. 또한 상기 영상 프레임은 좌안 시점 영상 프레임일 수 있고, 우안 시점 영상프레임일 수 있다. PTS 정보는 영상 프레임의 PTS일 수 있고, 영상 프레임의 PTS로부터 가공된 정보일 수 있다.The PTS field may be located in PB14 to PB27 of the AVI InfoFrame packet content 700. The PTS field may be allocated 4 bytes as in the PTS field 810 of FIG. 8 (a), and 8 bytes may be allocated as in the PTS field 820 of 8 (b). The PTS field may include PTS information. Here, the PTS information is PTS information of an image frame transmitted in the video data section. The image frame may be a left eye view image frame or a right eye view image frame. The PTS information may be a PTS of an image frame, and may be information processed from the PTS of an image frame.

PTS 필드(810)는 하나의 영상 프레임의 PTS 정보를 포함하고, PTS 필드(820)는 두 개의 영상 프레임의 PTS 정보를 포함할 수 있다. 즉 영역(821) 및 영역(821)에 각각 영상 프레임의 PTS 정보를 포함할 수 있다. PTS 필드(820)의 영역(821) 및 영역(821)은 AVI InforFrame 패킷이 두 개의 영상 프레임당 한 번 전송되는 경우에, 상기 두 개의 영상 프레임의 PTS 정보를 각각 포함할 수 있다.The PTS field 810 may include PTS information of one image frame, and the PTS field 820 may include PTS information of two image frames. That is, the area 821 and the area 821 may include PTS information of an image frame, respectively. Regions 821 and 821 of the PTS field 820 may include PTS information of the two image frames when the AVI InforFrame packet is transmitted once per two image frames.

도 9는 편광 방식으로 디스플레이되는 입체영상 출력 포맷을 도시한다.9 illustrates a stereoscopic image output format displayed in a polarized manner.

도 9를 참조하면, 3차원 포맷터(250)는 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 영상 프레임(900)으로 샘플링할 수 있다. 영상 프레임(900)은 편광 방식으로 디스플레이되는 입체영상 출력 포맷을 갖는다. 좌안 시점 영상 데이터 및 우안 시점 영상 데이터는 교대로 영상 프레임(900)의 각 라인에 위치할 수 있다. 즉 라인(901)에 좌안 시점 영상 데이터가 위치한 경우에는, 라인(902)에 우안 시점 영상 데이터가 위치하고, 라인(903)에 좌안 시점 영상 데이터가 위치하며, 라인(904)에 우안 시점 영상 데이터가 위치한다.Referring to FIG. 9, the 3D formatter 250 may sample left eye view image data and right eye view image data into an image frame 900. The image frame 900 has a stereoscopic image output format displayed in a polarized manner. Left eye view image data and right eye view image data may be alternately located on each line of the image frame 900. That is, when the left eye view image data is located at the line 901, the right eye view image data is positioned at the line 902, the left eye view image data is positioned at the line 903, and the right eye view image data is positioned at the line 904. Located.

도 10은 셔터글라스 방식으로 디스플레이되는 입체영상 출력 포맷을 도시한다.10 illustrates a stereoscopic image output format displayed in a shutter glass manner.

도 10을 참조하면, 셔터글라스 방식에 있어서, 3차원 포맷터(250)는 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 도 10에 도시된 입체영상 데이터로 샘플링할 수 있다. 즉, 도 10은, 입력되는 각 프레임에서 좌안 시점 영상 데이터(L)와 우안 시점 영상 데이터(R)가 순차적으로 번갈아서 디스플레이되도록 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 배열한다. 도 10에 도시된 입체영상 데이터에는 좌측에서부터 우측으로 첫 번째 프레임 L1, 두 번째 프레임 R1부터 열한 번째 프레임 L6, 및 열두 번째 프레임 R6까지 존재한다. 여기서 L1 및 R1은 각각 PTS가 동일 좌안 시점 영상 프레임 및 우안 시점 영상 프레임이다.Referring to FIG. 10, in the shutter glass method, the 3D formatter 250 may sample left eye view image data and right eye view image data into stereoscopic image data shown in FIG. 10. That is, FIG. 10 arranges the left eye view image data and the right eye view image data such that the left eye view image data L and the right eye view image data R are sequentially displayed alternately in each input frame. In the stereoscopic image data shown in FIG. 10, the first frame L1, the second frame R1, the eleventh frame L6, and the twelfth frame R6 are present from left to right. L1 and R1 are left eye view image frames and right eye view image frames having the same PTS, respectively.

도 11은 일 실시예에 따른 3차원 영상 전송 방법의 흐름도를 도시한다.11 is a flowchart illustrating a 3D image transmission method according to an embodiment.

도 11을 참조하면, 수신부(110)는 입체영상 데이터를 수신한다(S100). 여기서 입체영상 데이터는 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함할 수 있다. 입체영상 데이터는 싱글 비디오 스트림 포맷 및 멀티 비디오 스트림 포맷으로 전송될 수 있다.Referring to FIG. 11, the receiver 110 receives stereoscopic image data (S100). The stereoscopic image data may include left eye view image data and right eye view image data. The stereoscopic image data may be transmitted in a single video stream format and a multi video stream format.

역다중화부(120)는 입체영상 데이터를 좌안 시점 영상 데이터 및 우안 시점 영상 데이터로 역다중화한다(S110).The demultiplexer 120 demultiplexes stereoscopic image data into left eye view image data and right eye view image data (S110).

제1 디코더(130)는 역다중화부(120)가 역다중화한 좌안 시점 영상 데이터를 디코딩한다(S120).The first decoder 130 decodes the left eye view image data demultiplexed by the demultiplexer 120 (S120).

제1 HDMI 소스(150)는 제1 전송 데이터의 비디오 데이터 구간에 제1 디코더(130)가 디코딩한 좌안 시점 영상 데이터를 삽입한다(S130). 여기서 제1 전송 데이터는 도 5에 도시된 전송 데이터(500)의 구조를 가질 수 있다.The first HDMI source 150 inserts left eye view image data decoded by the first decoder 130 into a video data section of the first transmission data (S130). Here, the first transmission data may have a structure of the transmission data 500 shown in FIG. 5.

제1 HDMI 소스(150)는 상기 제1 전송 데이터의 데이터 섬 구간에 제1 디코더(130)가 디코딩한 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입한다(S140). 여기서 상기 제1 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함될 수 있다. 상기 AVI InfoFrame은 도 6에 도시된 헤더(600)의 구조 및 도 7에 도시된 컨텐츠(700)의 구조를 가질 수 있다. 또한 상기 AVI InfoFrame은 도 8(a)에 도시된 PTS 필드 또는 도 8(b)에 도시된 PTS 필드를 포함할 수 있다.The first HDMI source 150 inserts first PTS (Presentation Time Stamp) information of the left eye view image data decoded by the first decoder 130 in the data island section of the first transmission data (S140). The first PTS information may be included in an auxiliary video information (AVI) infoframe of the data island section. The AVI InfoFrame may have a structure of the header 600 shown in FIG. 6 and the content 700 shown in FIG. 7. In addition, the AVI InfoFrame may include a PTS field shown in FIG. 8 (a) or a PTS field shown in FIG. 8 (b).

제1 HDMI 소스(150)는 제1 케이블을 통해 상기 제1 전송 데이터를 전송한다(S150). 여기서 제1 HDMI 소스(150)는 상기 제1 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송할 수 있다.The first HDMI source 150 transmits the first transmission data through a first cable (S150). Here, the first HDMI source 150 may transmit the first transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI).

제2 디코더(140)는 역다중화부(120)가 역다중화한 우안 시점 영상 데이터를 디코딩한다(S160).The second decoder 140 decodes the right eye view image data demultiplexed by the demultiplexer 120 (S160).

제2 HDMI 소스(160)는 제2 전송 데이터의 비디오 데이터 구간에 제2 디코더(140)가 디코딩한 우안 시점 영상 데이터를 삽입한다(S170). 여기서 제2 전송 데이터는 도 5에 도시된 전송 데이터(500)의 구조를 가질 수 있다.The second HDMI source 160 inserts right eye view image data decoded by the second decoder 140 in the video data section of the second transmission data (S170). Here, the second transmission data may have a structure of the transmission data 500 shown in FIG. 5.

제2 HDMI 소스(160)는 상기 제2 전송 데이터의 데이터 섬 구간에 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입한다(S180). 여기서 상기 제2 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함될 수 있다. 상기 AVI InfoFrame은 도 6에 도시된 헤더(600)의 구조 및 도 7에 도시된 컨텐츠(700)의 구조를 가질 수 있다. 또한 상기 AVI InfoFrame은 도 8(a)에 도시된 PTS 필드 또는 도 8(b)에 도시된 PTS 필드를 포함할 수 있다.The second HDMI source 160 inserts second PTS (Presentation Time Stamp) information of the right eye view image data in the data island section of the second transmission data (S180). The second PTS information may be included in an auxiliary video information (AVI) infoframe of the data island section. The AVI InfoFrame may have a structure of the header 600 shown in FIG. 6 and the content 700 shown in FIG. 7. In addition, the AVI InfoFrame may include a PTS field shown in FIG. 8 (a) or a PTS field shown in FIG. 8 (b).

제2 HDMI 소스(160)는 제2 케이블을 통해 제2 전송 데이터를 전송한다(S190). 여기서 제2 HDMI 소스(160)는 상기 제2 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송할 수 있다.The second HDMI source 160 transmits the second transmission data through the second cable (S190). Here, the second HDMI source 160 may transmit the second transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI).

도 12는 일 실시예에 따른 3차원 영상 수신 방법의 흐름도를 도시한다.12 is a flowchart of a 3D image receiving method according to an embodiment.

도 12를 참조하면, 제1 HDMI 싱크(210)는 제1 케이블을 통해 제1 전송 데이터를 수신한다(S200). 여기서 제1 전송 데이터는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송될 수 있다. 또한 제1 전송 데이터는 도 5에 도시된 전송 데이터(500)의 구조를 가질 수 있다.Referring to FIG. 12, the first HDMI sink 210 receives first transmission data through a first cable (S200). Here, the first transmission data may be transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). In addition, the first transmission data may have a structure of the transmission data 500 shown in FIG. 5.

제1 HDMI 싱크(210)는 상기 수신한 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출한다(S205). 여기서 추출된 좌안 시점 영상 데이터는 디코딩된 것일 수 있다.The first HDMI sink 210 extracts left eye view image data from the video data section of the received first transmission data (S205). The extracted left eye view image data may be decoded.

제1 HDMI 싱크(210)는 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출한다(S210). 여기서 상기 제1 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함될 수 있다. 상기 AVI InfoFrame은 도 6에 도시된 헤더(600)의 구조 및 도 7에 도시된 컨텐츠(700)의 구조를 가질 수 있다. 또한 상기 AVI InfoFrame은 도 8(a)에 도시된 PTS 필드 또는 도 8(b)에 도시된 PTS 필드를 포함할 수 있다.The first HDMI sink 210 extracts first PTS (Presentation Time Stamp) information of the left eye view image data in a data island section of the first transmission data (S210). The first PTS information may be included in an auxiliary video information (AVI) infoframe of the data island section. The AVI InfoFrame may have a structure of the header 600 shown in FIG. 6 and the content 700 shown in FIG. 7. In addition, the AVI InfoFrame may include a PTS field shown in FIG. 8 (a) or a PTS field shown in FIG. 8 (b).

제1 디인터레이서(230)는 제1 HDMI 싱크(210)가 출력하는 좌안 시점 영상 데이터를 버퍼링한다(S215). 여기서 제1 PTS 정보 및 제2 PTS 정보를 기초로 좌안 시점 영상 데이터가 버퍼링될 수 있다.The first deinterlacer 230 buffers left eye view image data output by the first HDMI sink 210 (S215). The left eye view image data may be buffered based on the first PTS information and the second PTS information.

제2 HDMI 싱크(220)는 제2 케이블을 통해 제2 전송 데이터를 수신한다(S220). 여기서 제2 전송 데이터는 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송될 수 있다. 또한 제2 전송 데이터는 도 5에 도시된 전송 데이터(500)의 구조를 가질 수 있다.The second HDMI sink 220 receives the second transmission data through the second cable (S220). Here, the second transmission data may be transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI). In addition, the second transmission data may have a structure of the transmission data 500 shown in FIG. 5.

제2 HDMI 싱크(220)는 상기 수신한 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출한다(S225). 여기서 추출된 우안 시점 영상 데이터는 디코딩된 것일 수 있다.The second HDMI sink 220 extracts right eye view image data from the video data section of the received second transmission data (S225). The extracted right eye view image data may be decoded.

제2 HDMI 싱크(220)는 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출한다(S230). 여기서 상기 제2 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함될 수 있다. 상기 AVI InfoFrame은 도 6에 도시된 헤더(600)의 구조 및 도 7에 도시된 컨텐츠(700)의 구조를 가질 수 있다. 또한 상기 AVI InfoFrame은 도 8(a)에 도시된 PTS 필드 또는 도 8(b)에 도시된 PTS 필드를 포함할 수 있다.The second HDMI sink 220 extracts second PTS (Presentation Time Stamp) information of the right eye view image data in the data island section of the second transmission data (S230). The second PTS information may be included in an auxiliary video information (AVI) infoframe of the data island section. The AVI InfoFrame may have a structure of the header 600 shown in FIG. 6 and the content 700 shown in FIG. 7. In addition, the AVI InfoFrame may include a PTS field shown in FIG. 8 (a) or a PTS field shown in FIG. 8 (b).

제2 디인터레이서(240)는 제2 HDMI 싱크(220)가 출력하는 우안 시점 영상 데이터를 버퍼링한다(S235). 여기서 제1 PTS 정보 및 제2 PTS 정보를 기초로 우안 시점 영상 데이터가 버퍼링될 수 있다.The second deinterlacer 240 buffers right eye view image data output from the second HDMI sink 220 (S235). The right eye view image data may be buffered based on the first PTS information and the second PTS information.

제1 디인터레이서(230)는 버퍼링된 좌안 시점 영상 데이터를 디인터레이스한다(S240).The first deinterlacer 230 deinterlaces the buffered left eye view image data (S240).

제2 디인터레이서(240)는 버퍼링된 우안 시점 영상 데이터를 디인터레이스한다(S245). 여기서 제어부(330)는 제1 PTS 정보 및 제2 PTS 정보를 기초로 디인터페이스된 우안 시점 영상 데이터의 프레임이 단계 S240에서 디인터레이스된 좌안 시점 영상 데이터의 프레임의 PTS와 동일한 PTS를 갖도록 제어할 수 있다.The second deinterlacer 240 deinterlaces the buffered right eye view image data (S245). Herein, the controller 330 may control the frame of the deinterlaced right eye view image data based on the first PTS information and the second PTS information to have the same PTS as the PTS of the frame of the left eye view image data deinterlaced in operation S240. .

3차원 포맷터(250)는 디인터페이스된 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링한다(S250). 여기서 제어부(330)는 샘플링된 좌안 시점 영상 데이터의 프레임의 PTS와 샘플링된 우안 시점 영상 데이터의 프레임의 PTS가 동일하도록 제1 디인터레이서(230) 및 제2 디인터레이서(240)의 출력을 제어할 수 있다.The 3D formatter 250 samples the deinterfaced left eye view image data and the right eye view image data into a stereoscopic image output format (S250). The controller 330 may control the output of the first deinterlacer 230 and the second deinterlacer 240 such that the PTS of the frame of the sampled left eye view image data and the PTS of the frame of the sampled right eye view image data are the same. .

디스플레이(270)는 3차원 포맷터(250)가 입체영상을 디스플레이한다(S255).In the display 270, the 3D formatter 250 displays a stereoscopic image (S255).

도 13은 일 실시예에 따른 3차원 영상 처리 방법의 흐름도를 도시한다.13 is a flowchart of a 3D image processing method, according to an exemplary embodiment.

도 13을 참조하면, 수신부(410)는 입체영상 데이터를 수신한다(S301). 여기서 입체영상 데이터는 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함할 수 있다. 입체영상 데이터는 싱글 비디오 스트림 포맷 및 멀티 비디오 스트림 포맷으로 전송될 수 있다.Referring to FIG. 13, the receiver 410 receives stereoscopic image data (S301). The stereoscopic image data may include left eye view image data and right eye view image data. The stereoscopic image data may be transmitted in a single video stream format and a multi video stream format.

역다중화부(420)는 입체영상 데이터를 좌안 시점 영상 데이터 및 우안 시점 영상 데이터로 역다중화한다(S302).The demultiplexer 420 demultiplexes the stereoscopic image data into the left eye view image data and the right eye view image data (S302).

제1 디코더(440)는 역다중화부(120)가 역다중화한 좌안 시점 영상 데이터를 디코딩한다(S303).The first decoder 440 decodes left eye view image data demultiplexed by the demultiplexer 120 (S303).

제1 HDMI 소스(450)는 제1 전송 데이터의 비디오 데이터 구간에 제1 디코더(130)가 디코딩한 좌안 시점 영상 데이터를 삽입한다(S304). 여기서 제1 전송 데이터는 도 5에 도시된 전송 데이터(500)의 구조를 가질 수 있다.The first HDMI source 450 inserts left eye view image data decoded by the first decoder 130 into a video data section of the first transmission data (S304). Here, the first transmission data may have a structure of the transmission data 500 shown in FIG. 5.

제1 HDMI 소스(450)는 상기 제1 전송 데이터의 데이터 섬 구간에 제1 디코더(440)가 디코딩한 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입한다(S305). 여기서 상기 제1 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함될 수 있다. 상기 AVI InfoFrame은 도 6에 도시된 헤더(600)의 구조 및 도 7에 도시된 컨텐츠(700)의 구조를 가질 수 있다. 또한 상기 AVI InfoFrame은 도 8(a)에 도시된 PTS 필드 또는 도 8(b)에 도시된 PTS 필드를 포함할 수 있다.The first HDMI source 450 inserts first PTS (Presentation Time Stamp) information of the left eye view image data decoded by the first decoder 440 into a data island section of the first transmission data (S305). The first PTS information may be included in an auxiliary video information (AVI) infoframe of the data island section. The AVI InfoFrame may have a structure of the header 600 shown in FIG. 6 and the content 700 shown in FIG. 7. In addition, the AVI InfoFrame may include a PTS field shown in FIG. 8 (a) or a PTS field shown in FIG. 8 (b).

제1 HDMI 소스(450)는 제1 케이블을 통해 상기 제1 전송 데이터를 전송한다(S306). 여기서 제1 HDMI 소스(450)는 상기 제1 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송할 수 있다.The first HDMI source 450 transmits the first transmission data through a first cable (S306). Herein, the first HDMI source 450 may transmit the first transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI).

제1 HDMI 싱크(460)는 상기 제1 케이블을 통해 제1 전송 데이터를 수신한다(S307). The first HDMI sink 460 receives first transmission data through the first cable (S307).

제1 HDMI 싱크(460)는 상기 수신한 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출한다(S308).The first HDMI sink 460 extracts left eye view image data from a video data section of the received first transmission data (S308).

제1 HDMI 싱크(460)는 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출한다(S309).The first HDMI sink 460 extracts first PTS (Presentation Time Stamp) information of the left eye view image data in a data island section of the first transmission data (S309).

제1 디인터레이서(470)는 제1 HDMI 싱크(460)가 출력하는 좌안 시점 영상 데이터를 버퍼링한다(S310). 여기서 제1 PTS 정보 및 제2 PTS 정보를 기초로 좌안 시점 영상 데이터가 버퍼링될 수 있다.The first deinterlacer 470 buffers left eye view image data output from the first HDMI sink 460 (S310). The left eye view image data may be buffered based on the first PTS information and the second PTS information.

제2 디코더(445)는 역다중화부(120)가 역다중화한 우안 시점 영상 데이터를 디코딩한다(S311).The second decoder 445 decodes the right eye view image data demultiplexed by the demultiplexer 120 (S311).

제2 HDMI 소스(455)는 제2 전송 데이터의 비디오 데이터 구간에 제2 디코더(445)가 디코딩한 우안 시점 영상 데이터를 삽입한다(S312). 여기서 제2 전송 데이터는 도 5에 도시된 전송 데이터(500)의 구조를 가질 수 있다.The second HDMI source 455 inserts right eye view image data decoded by the second decoder 445 into a video data section of the second transmission data (S312). Here, the second transmission data may have a structure of the transmission data 500 shown in FIG. 5.

제2 HDMI 소스(455)는 상기 제2 전송 데이터의 데이터 섬 구간에 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입한다(S313). 여기서 상기 제2 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함될 수 있다. 상기 AVI InfoFrame은 도 6에 도시된 헤더(600)의 구조 및 도 7에 도시된 컨텐츠(700)의 구조를 가질 수 있다. 또한 상기 AVI InfoFrame은 도 8(a)에 도시된 PTS 필드 또는 도 8(b)에 도시된 PTS 필드를 포함할 수 있다.The second HDMI source 455 inserts second PTS (Presentation Time Stamp) information of the right eye view image data in the data island section of the second transmission data (S313). The second PTS information may be included in an auxiliary video information (AVI) infoframe of the data island section. The AVI InfoFrame may have a structure of the header 600 shown in FIG. 6 and the content 700 shown in FIG. 7. In addition, the AVI InfoFrame may include a PTS field shown in FIG. 8 (a) or a PTS field shown in FIG. 8 (b).

제2 HDMI 소스(455)는 제2 케이블을 통해 제2 전송 데이터를 전송한다(S314). 여기서 제2 HDMI 소스(455)는 상기 제2 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송할 수 있다.The second HDMI source 455 transmits the second transmission data through the second cable (S314). Here, the second HDMI source 455 may transmit the second transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI).

제2 HDMI 싱크(465)는 상기 제2 케이블을 통해 제2 전송 데이터를 수신한다(S315).The second HDMI sink 465 receives second transmission data through the second cable (S315).

제2 HDMI 싱크(465)는 상기 수신한 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출한다(S316). 여기서 추출된 우안 시점 영상 데이터는 디코딩된 것일 수 있다.The second HDMI sink 465 extracts right eye view image data from the video data section of the received second transmission data (S316). The extracted right eye view image data may be decoded.

제2 HDMI 싱크(465)는 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출한다(S317). The second HDMI sink 465 extracts second PTS (Presentation Time Stamp) information of the right eye view image data in the data island section of the second transmission data (S317).

제2 디인터레이서(475)는 제2 HDMI 싱크(465)가 출력하는 우안 시점 영상 데이터를 버퍼링한다(S318). 여기서 상기 제1 PTS 정보 및 상기 제2 PTS 정보를 기초로 우안 시점 영상 데이터가 버퍼링될 수 있다.The second deinterlacer 475 buffers the right eye view image data output by the second HDMI sink 465 (S318). The right eye view image data may be buffered based on the first PTS information and the second PTS information.

제1 디인터레이서(470)는 버퍼링된 좌안 시점 영상 데이터를 디인터레이스한다(S319).The first deinterlacer 470 deinterlaces the buffered left eye view image data (S319).

제2 디인터레이서(475)는 버퍼링된 우안 시점 영상 데이터를 디인터레이스한다(S320). 여기서 제어부(430)는 디인터페이스된 우안 시점 영상 데이터의 프레임이 단계 S319에서 디인터레이스된 좌안 시점 영상 데이터의 프레임의 PTS와 동일한 PTS를 가지도록 제어할 수 있다.The second deinterlacer 475 deinterlaces the buffered right eye view image data (S320). Herein, the controller 430 may control the frame of the deinterlaced right eye view image data to have the same PTS as the PTS of the frame of the deinterlaced left eye view image data in step S319.

3차원 포맷터(480)는 디인터페이스된 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링한다(S321). 여기서 제어부(430)는 샘플링된 좌안 시점 영상 데이터의 프레임의 PTS와 샘플링된 우안 시점 영상 데이터의 프레임의 PTS가 동일하도록 제1 디인터레이서(470) 및 제2 디인터레이서(470)의 출력을 제어할 수 있다.The 3D formatter 480 samples the deinterfaced left eye view image data and the right eye view image data into a stereoscopic image output format (S321). The controller 430 may control the output of the first deinterlacer 470 and the second deinterlacer 470 such that the PTS of the frame of the sampled left eye view image data and the PTS of the frame of the sampled right eye view image data are the same. .

디스플레이(490)는 3차원 포맷터(480)가 입체영상을 디스플레이한다(S322).In the display 490, the 3D formatter 480 displays a stereoscopic image (S322).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer apparatus is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . The computer-readable recording medium may also be distributed to networked computer devices so that computer readable code can be stored and executed in a distributed manner.

이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be taken by way of limitation in the embodiment in which said invention is directed. It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the scope of the appended claims.

Claims (22)

입체영상 데이터를 수신하는 수신부;
상기 수신된 입체영상 데이터의 좌안 시점 영상 데이터를 디코딩하는 제1 디코더;
제1 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 좌안 시점 영상 데이터를 삽입하고, 상기 제1 전송 데이터의 데이터 섬 구간에 상기 디코딩된 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입하며, 상기 제1 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 제1 HDMI 소스;
상기 수신된 입체영상 데이터의 우안 시점 영상 데이터를 디코딩하는 제2 디코더; 및
제2 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 우안 시점 영상 데이터를 삽입하고, 상기 제2 전송 데이터의 데이터 섬 구간에 상기 디코딩된 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입하며, 상기 제2 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 제2 HDMI 소스를 포함하는 것을 특징으로 하는 3차원 영상 전송 장치.
A receiver for receiving stereoscopic image data;
A first decoder for decoding left eye view image data of the received stereoscopic image data;
Inserting the decoded left eye view image data into a video data section of first transmission data, and inserting first PTS (Presentation Time Stamp) information of the decoded left eye view image data into a data island section of the first transmission data; A first HDMI source for transmitting the first transmission data to a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI);
A second decoder for decoding right eye view image data of the received stereoscopic image data; And
Inserting the decoded right eye view image data into a video data section of second transmission data, and inserting second PTS (Presentation Time Stamp) information of the decoded right eye view image data into a data island section of the second transmission data; And a second HDMI source configured to transmit the second transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI).
제 1항에 있어서,
상기 제1 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함되는 것을 특징으로 하는 3차원 영상 전송 장치.
The method of claim 1,
And the first PTS information is included in an auxiliary video information (AVI) infoframe of the data island section.
제 2항에 있어서,
상기 제1 HDMI 소스는,
상기 AVI InforFrame을 상기 좌안 시점 영상 데이터의 하나의 프레임당 한번 전송하는 것을 특징으로 하는 3차원 영상 전송 장치.
The method of claim 2,
The first HDMI source is,
And transmitting the AVI InforFrame once per frame of the left eye view image data.
제 2항에 있어서,
상기 제1 HDMI 소스는,
상기 AVI InforFrame을 상기 좌안 시점 영상 데이터의 두 개의 프레임당 한번 전송하는 것을 특징으로 하는 3차원 영상 전송 장치.
The method of claim 2,
The first HDMI source is,
And transmitting the AVI InforFrame once every two frames of the left eye view image data.
제 4항에 있어서,
상기 제1 PTS 정보는 상기 두 개의 프레임 각각에 대한 PTS 정보를 포함하는 것을 특징으로 하는 3차원 영상 전송 장치.
5. The method of claim 4,
Wherein the first PTS information includes PTS information for each of the two frames.
제 1항에 있어서,
상기 제1 PTS 정보는 상기 제1 전송 데이터에 포함된 좌안 시점 영상 데이터의 프레임의 PTS를 지시하는 정보인 것을 특징으로 하는 3차원 영상 전송 장치.
The method of claim 1,
The first PTS information is information indicating a PTS of a frame of left eye view image data included in the first transmission data.
입체영상 데이터를 수신하는 단계;
상기 수신된 입체영상 데이터의 좌안 시점 영상 데이터를 디코딩하는 단계;
제1 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 좌안 시점 영상 데이터를 삽입하는 단계;
상기 제1 전송 데이터의 데이터 섬 구간에 상기 디코딩된 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입하는 단계;
상기 제1 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 단계;
상기 수신된 입체영상 데이터의 우안 시점 영상 데이터를 디코딩하는 단계;
제2 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 우안 시점 영상 데이터를 삽입하는 단계;
상기 제2 전송 데이터의 데이터 섬 구간에 상기 디코딩된 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입하는 단계; 및
상기 제2 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 단계를 포함하는 것을 특징으로 하는 3차원 영상 전송 방법.
Receiving stereoscopic image data;
Decoding left eye view image data of the received stereoscopic image data;
Inserting the decoded left eye view image data into a video data section of first transmission data;
Inserting first PTS information of the decoded left eye view image data into a data island section of the first transmission data;
Transmitting the first transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI);
Decoding right eye view image data of the received stereoscopic image data;
Inserting the decoded right eye view image data into a video data section of second transmission data;
Inserting second PTS (Presentation Time Stamp) information of the decoded right eye view image data into a data island section of the second transmission data; And
And transmitting the second transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI).
제 7항에 있어서,
상기 제1 PTS 정보는 상기 데이터 섬 구간의 AVI(Auxiliary Video Information) 인포프레임(InfoFrame)에 포함되는 것을 특징으로 하는 3차원 영상 전송 방법.
8. The method of claim 7,
The first PTS information is included in the AVI (Auxiliary Video Information) InfoFrame (InfoFrame) of the data island interval, characterized in that the 3D image transmission method.
제 8항에 있어서,
상기 AVI InforFrame은 상기 좌안 시점 영상 데이터의 하나의 프레임당 한번 전송되는 것을 특징으로 하는 3차원 영상 전송 방법.
The method of claim 8,
And the AVI InforFrame is transmitted once per frame of the left eye view image data.
제 8항에 있어서,
상기 AVI InforFrame은 상기 좌안 시점 영상 데이터의 두 개의 프레임당 한번 전송되는 것을 특징으로 하는 3차원 영상 전송 방법.
The method of claim 8,
And the AVI InforFrame is transmitted once per two frames of the left eye view image data.
제 10항에 있어서,
상기 제1 PTS 정보는 상기 두 개의 프레임 각각에 대한 PTS 정보를 포함하는 것을 특징으로 하는 3차원 영상 전송 방법.
The method of claim 10,
And the first PTS information includes PTS information for each of the two frames.
제 7항에 있어서,
상기 제1 PTS 정보는 상기 제1 전송 데이터에 포함된 좌안 시점 영상 데이터의 프레임의 PTS를 지시하는 정보인 것을 특징으로 하는 3차원 영상 전송 방법.
8. The method of claim 7,
The first PTS information is information indicating a PTS of a frame of left eye view image data included in the first transmission data.
HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제1 전송 데이터를 수신하고, 상기 수신된 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출하고, 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출하는 제1 HDMI 싱크;
HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제2 전송 데이터를 수신하고, 상기 수신된 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출하고, 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출하는 제2 HDMI 싱크; 및
상기 제1 PTS 정보 및 상기 제2 PTS 정보를 따라 상기 추출된 좌안 시점 영상 데이터 및 상기 추출된 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링하는 3차원 포맷터를 포함하는 것을 특징으로 하는 3차원 영상 수신 장치.
Receiving first transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI), extracting left eye view image data from a video data section of the received first transmission data, and A first HDMI sink configured to extract first PTS (Presentation Time Stamp) information of the left eye view image data in a data island section of first transmission data;
Receiving second transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI), extracting right eye view image data from a video data section of the received second transmission data, and A second HDMI sink configured to extract second PTS (Presentation Time Stamp) information of the right eye view image data in a data island section of second transmission data; And
And a three-dimensional formatter configured to sample the extracted left eye view image data and the extracted right eye view image data in a stereoscopic image output format according to the first PTS information and the second PTS information. Device.
제 13항에 있어서,
상기 3차원 포맷터는,
상기 좌안 시점 영상 데이터의 프레임 및 상기 프레임의 제1 PTS 정보와 동일한 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임을 입체영상 출력 포맷으로 샘플링하는 것을 특징으로 하는 3차원 영상 수신 장치.
The method of claim 13,
The three-dimensional formatter,
And a frame of the right eye view image data having the frame of the left eye view image data and the second PTS information identical to the first PTS information of the frame in a stereoscopic image output format.
제 13항에 있어서,
상기 추출된 좌안 시점 영상 데이터를 디인터레이스하는 제1 디인터레이서; 및
상기 추출된 우안 시점 영상 데이터를 디인터레이스하는 제2 디인터레이서를 더 포함하는 것을 특징으로 하는 3차원 영상 수신 장치.
The method of claim 13,
A first deinterlacer for deinterlacing the extracted left eye view image data; And
And a second deinterlacer for deinterlacing the extracted right eye view image data.
제 13항에 있어서,
상기 추출된 좌안 시점 영상 데이터를 버퍼링하는 제1 디인터레이서; 및
상기 추출된 우안 시점 영상 데이터를 버퍼링하는 제2 디인터레이서를 더 포함하는 것을 특징으로 하는 3차원 영상 수신 장치.
The method of claim 13,
A first deinterlacer for buffering the extracted left eye view image data; And
And a second deinterlacer for buffering the extracted right eye view image data.
제 16항에 있어서,
상기 제1 PTS 정보 및 상기 제2 PTS 정보를 기초로 상기 제1 디인터레이서의 버퍼링 및 상기 제2 디인터레이서의 버퍼링을 제어하는 제어부를 더 포함하는 것을 특징으로 하는 3차원 영상 수신 장치.
17. The method of claim 16,
And a controller configured to control the buffering of the first deinterlacer and the buffering of the second deinterlacer based on the first PTS information and the second PTS information.
제 17항에 있어서,
상기 제어부는, 상기 제1 디인터레이서에서 상기 3차원 포맷터로 출력되는 좌안 시점 영상 데이터의 프레임의 제1 PTS 정보와 동일한 제2 PTS 정보를 갖는 우안 시점 영상 데이터의 프레임이 상기 제2 디인터레이서에서 상기 3차원 포맷터로 출력되도록 제어하는 것을 특징으로 하는 3차원 영상 수신 장치.
18. The method of claim 17,
The control unit may include a frame of the right eye view image data having second PTS information that is identical to the first PTS information of the frame of the left eye view image data output from the first deinterlacer to the 3D formatter. 3D image receiving device characterized in that the control to output to the formatter.
HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제1 전송 데이터를 수신하는 단계;
상기 수신된 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출하는 단계;
상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출하는 단계;
HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제2 전송 데이터를 수신하는 단계;
상기 수신된 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출하는 단계;
상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출하는 단계; 및
상기 추출된 제1 PTS 정보 및 상기 추출된 제2 PTS 정보에 따라 상기 추출된 좌안 시점 영상 데이터 및 상기 추출된 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링하는 단계를 포함하는 것을 특징으로 하는 3차원 영상 수신 방법.
Receiving first transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI);
Extracting left eye view image data from a video data section of the received first transmission data;
Extracting first presentation time stamp (PTS) information of the left eye view image data in a data island section of the first transmission data;
Receiving second transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI);
Extracting right eye view image data in a video data section of the received second transmission data;
Extracting second presentation time stamp (PTS) information of the right eye view image data in a data island section of the second transmission data; And
And sampling the extracted left eye view image data and the extracted right eye view image data according to the extracted first PTS information and the extracted second PTS information in a stereoscopic image output format. How to receive video.
제 19항에 있어서,
상기 추출된 좌안 시점 영상 데이터를 디인터레이스하는 단계; 및
상기 추출된 우안 시점 영상 데이터를 디인터레이스하는 단계를 더 포함하는 것을 특징으로 하는 3차원 영상 수신 방법.
20. The method of claim 19,
Deinterlacing the extracted left eye view image data; And
3. The method of claim 3, further comprising deinterlacing the extracted right eye view image data.
제 19항에 있어서,
상기 제1 PTS 정보 및 상기 제2 PTS 정보를 기초로 상기 추출된 좌안 시점 영상 데이터를 버퍼링하는 단계; 및
상기 제1 PTS 정보 및 상기 제2 PTS 정보를 기초로 상기 추출된 우안 시점 영상 데이터를 버퍼링하는 단계를 더 포함하는 것을 특징으로 하는 3차원 영상 수신 방법.
20. The method of claim 19,
Buffering the extracted left eye view image data based on the first PTS information and the second PTS information; And
And buffering the extracted right eye view image data based on the first PTS information and the second PTS information.
입체영상 데이터를 수신하는 수신부;
상기 수신된 입체영상 데이터의 좌안 시점 영상 데이터를 디코딩하는 제1 디코더;
제1 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 좌안 시점 영상 데이터를 삽입하고, 상기 제1 전송 데이터의 데이터 섬 구간에 상기 디코딩된 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 삽입하며, 상기 제1 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 제1 HDMI 소스;
상기 수신된 입체영상 데이터의 우안 시점 영상 데이터를 디코딩하는 제2 디코더;
제2 전송 데이터의 비디오 데이터 구간에 상기 디코딩된 우안 시점 영상 데이터를 삽입하고, 상기 제2 전송 데이터의 데이터 섬 구간에 상기 디코딩된 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 삽입하며, 상기 제2 전송 데이터를 HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널로 전송하는 제2 HDMI 소스;
HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제1 전송 데이터를 수신하고, 상기 수신된 제1 전송 데이터의 비디오 데이터 구간에서 좌안 시점 영상 데이터를 추출하고, 상기 제1 전송 데이터의 데이터 섬 구간에서 상기 좌안 시점 영상 데이터의 제1 PTS(Presentation Time Stamp) 정보를 추출하는 제1 HDMI 싱크;
HDMI(High-Definition Multimedia Interface)의 TMDS(Transition Minimized Differential Signaling) 채널을 통해 전송된 제2 전송 데이터를 수신하고, 상기 수신된 제2 전송 데이터의 비디오 데이터 구간에서 우안 시점 영상 데이터를 추출하고, 상기 제2 전송 데이터의 데이터 섬 구간에서 상기 우안 시점 영상 데이터의 제2 PTS(Presentation Time Stamp) 정보를 추출하는 제2 HDMI 싱크; 및
상기 추출된 제1 PTS 정보 및 상기 추출된 제2 PTS 정보에 따라 상기 추출된 좌안 시점 영상 데이터 및 상기 추출된 우안 시점 영상 데이터를 입체영상 출력 포맷으로 샘플링하는 3차원 포맷터를 포함하는 것을 특징으로 하는 3차원 영상 처리 장치.
A receiver for receiving stereoscopic image data;
A first decoder for decoding left eye view image data of the received stereoscopic image data;
Inserting the decoded left eye view image data into a video data section of first transmission data, and inserting first PTS (Presentation Time Stamp) information of the decoded left eye view image data into a data island section of the first transmission data; A first HDMI source for transmitting the first transmission data to a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI);
A second decoder for decoding right eye view image data of the received stereoscopic image data;
Inserting the decoded right eye view image data into a video data section of second transmission data, and inserting second PTS (Presentation Time Stamp) information of the decoded right eye view image data into a data island section of the second transmission data; A second HDMI source for transmitting the second transmission data through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI);
Receiving first transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI), extracting left eye view image data from a video data section of the received first transmission data, and A first HDMI sink configured to extract first PTS (Presentation Time Stamp) information of the left eye view image data in a data island section of first transmission data;
Receiving second transmission data transmitted through a transition minimized differential signaling (TMDS) channel of a high-definition multimedia interface (HDMI), extracting right eye view image data from a video data section of the received second transmission data, and A second HDMI sink configured to extract second PTS (Presentation Time Stamp) information of the right eye view image data in a data island section of second transmission data; And
And a three-dimensional formatter configured to sample the extracted left eye view image data and the extracted right eye view image data in a stereoscopic image output format according to the extracted first PTS information and the extracted second PTS information. 3D image processing device.
KR1020110060158A 2011-06-21 2011-06-21 Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image KR20120140426A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110060158A KR20120140426A (en) 2011-06-21 2011-06-21 Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110060158A KR20120140426A (en) 2011-06-21 2011-06-21 Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image

Publications (1)

Publication Number Publication Date
KR20120140426A true KR20120140426A (en) 2012-12-31

Family

ID=47906474

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110060158A KR20120140426A (en) 2011-06-21 2011-06-21 Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image

Country Status (1)

Country Link
KR (1) KR20120140426A (en)

Similar Documents

Publication Publication Date Title
US8937648B2 (en) Receiving system and method of providing 3D image
US8810563B2 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, and stereoscopic image data receiving method
JP5407957B2 (en) Stereoscopic image data transmitting apparatus and stereoscopic image data receiving apparatus
JP5446913B2 (en) Stereoscopic image data transmitting apparatus and stereoscopic image data transmitting method
JP5531972B2 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving apparatus, and stereo image data receiving method
US8848036B2 (en) Stereoscopic image data transmission device, stereoscopic image data transmission method, stereoscopic image data reception device and stereoscopic image data reception method
KR101630866B1 (en) Transferring of 3d image data
US9117396B2 (en) Three-dimensional image playback method and three-dimensional image playback apparatus
US20110141238A1 (en) Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving data receiving method
US20100277567A1 (en) Transmitting apparatus, stereoscopic image data transmitting method, receiving apparatus, stereoscopic image data receiving method, relaying apparatus and stereoscopic image data relaying method
US20140078248A1 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
US20140063187A1 (en) Reception device, reception method, and electronic device
US20120262546A1 (en) Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device
JP2011166757A (en) Transmitting apparatus, transmitting method, and receiving apparatus
US20130100247A1 (en) Image data transmission apparatus, control method for image data transmission apparatus, image data transmission method, and image data reception apparatus
US20130002821A1 (en) Video processing device
WO2012063675A1 (en) Stereoscopic image data transmission device, stereoscopic image data transmission method, and stereoscopic image data reception device
KR20120140426A (en) Apparatus and method for transmitting three-dimensional image, apparatus and method for receiving three-dimensional image, and apparatus for processing three-dimensional image
KR101414684B1 (en) An apparatus and method for inserting multimedia data in multimedia system
JP5577476B1 (en) Stereo image data transmitting method and stereo image data transmitting apparatus
JP2014131272A (en) Receiving device and information processing method
JP2014039269A (en) Stereoscopic image data transmission method and stereoscopic image data transmitter
JP2014225901A (en) Method and device for transmitting stereoscopic image data

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid