KR20110096494A - 전자 장치 및 입체영상 재생 방법 - Google Patents

전자 장치 및 입체영상 재생 방법 Download PDF

Info

Publication number
KR20110096494A
KR20110096494A KR1020110014769A KR20110014769A KR20110096494A KR 20110096494 A KR20110096494 A KR 20110096494A KR 1020110014769 A KR1020110014769 A KR 1020110014769A KR 20110014769 A KR20110014769 A KR 20110014769A KR 20110096494 A KR20110096494 A KR 20110096494A
Authority
KR
South Korea
Prior art keywords
image frame
data
eye view
image
line
Prior art date
Application number
KR1020110014769A
Other languages
English (en)
Inventor
양정휴
임진석
임정은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2011/001159 priority Critical patent/WO2011102699A2/ko
Priority to CN201180019654.3A priority patent/CN102844696B/zh
Priority to US13/031,947 priority patent/US9392253B2/en
Priority to EP11744941.3A priority patent/EP2541305A4/en
Publication of KR20110096494A publication Critical patent/KR20110096494A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/39Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume the picture elements emitting light at places where a pair of light beams intersect in a transparent material

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

전자 장치 및 입체영상 재생 방법이 개시한다. 수신부는 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신한다. 포맷터는 홀수 라인에 좌안 시점 영상 프레임 및 우안 시점 영상 프레임 중 하나의 제1 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 제2 화소 데이터를 포함하는 제1 영상 프레임 및 홀수 라인에 상기 하나의 제3 화소 데이터를 포함하고, 짝수 라인에 상기 다른 하나의 제4 화소 데이터를 포함하는 제2 영상 프레임을 생성한다. 디스플레이는 포맷터가 생성한 제1 영상 프레임 및 제2 영상 프레임을 스캔한다.

Description

전자 장치 및 입체영상 재생 방법{Electronic device and method for displaying stereo-view or multiview sequence image}
본 발명은 전자 장치 및 입체영상 재생 방법에 관한 것으로, 보다 상세하게는, 2안식 입체영상 기술 또는 다안식 입체영상 기술에 있어서 입체영상을 처리할 수 있는 전자 장치 및 입체영상 재생 방법에 관한 것이다.
상용화된 3D 컨텐츠 및 3D 방송의 경우 양안시차(binocular disparity)를 이용한 방식이 주를 이룬다. 양안시차는 사람이 두 눈을 이용하여 하나의 피사체를 볼 때, 왼쪽 눈으로 보는 영상과 오른쪽 눈으로 보는 영상 사이에 두 눈의 간격에 해당하는 만큼 수평으로 존재하는 위치 차이를 말한다. 따라서 사람의 두 눈에 보이는 실제 영상과 동일한 영상을 두 눈에 입력할 수 있다면 영상을 입체적으로 느낄 수 있게 된다. 이에 따라, 실제 피사체를 양안 카메라로 찍어 영상을 얻거나 CG(Computer Graphic) 피사체의 경우 양안 카메라 형태로 사상하여 영상을 생성하고, 생성된 영상을 사용자의 양쪽 눈에 보여줌으로써 입체감을 제공할 수 있다.
본 발명이 이루고자 하는 기술적 과제는 풀 해상도를 갖는 입체영상 데이터를 풀 해상도를 유지하며 재생할 수 있는 전자 장치 및 입체영상 재생 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 기술적 과제는 Full-HD 입체영상을 편광 필터 방식으로 하질 저하 없이 재생할 수 있는 전자 장치 및 입체영상 재생 방법을 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 재생 방법은 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함하는 입체영상 데이터를 수신하는 단계, 상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터를 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성하며, 여기서 상기 제1 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 제1 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 제2 화소 데이터를 포함하며, 상기 제 2 영상 프레임은 홀수 라인에 상기 하나의 제3 화소 데이터를 포함하고, 상기 다른 하나의 제4 화소 데이터를 포함하는 단계 및 상기 제1 영상 프레임 및 제2 영상 프레임을 출력하는 단계를 포함할 수 있다. 여기서, 상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것일 수 있다.
상기 제1 화소 데이터는 홀수 라인 데이터이고, 상기 제2 화소 데이터는 홀수 라인 데이터이며, 상기 제3 화소 데이터는 짝수 라인 데이터이고, 상기 제4 화소 데이터는 짝수 라인 데이터일 수 있다.
상기 제1 화소 데이터는 홀수 라인 데이터이고, 상기 제2 화소 데이터는 짝수 라인 데이터이며, 상기 제3 화소 데이터는 짝수 라인 데이터이고, 상기 제4 화소 데이터는 홀수 라인 데이터일 수 있다.
상기 제1 화소 데이터는 짝수 라인 데이터이고, 상기 제2 화소 데이터는 짝수 라인 데이터이며, 상기 제3 화소 데이터는 홀수 라인 데이터이고, 상기 제4 화소 데이터는 홀수 라인 데이터일 수 있다.
상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것일 수 있다. 여기서, 상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 짝수 라인 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 홀수 라인 데이터일 수 있다. 또한 상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 홀수 라인 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 짝수 라인 데이터일 수 있다.
상기 생성하는 단계는, 상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터를 수직 방향 필터링하는 단계를 포함할 수 있다.
상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터의 해상도는 720×480p, 1280×720p, 1920×1080i, 1920×1080p 및 4k×2k중 하나이고, 상기 해상도가 720×480p인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 720×480p이고, 상기 해상도가 1280×720p인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1280×720p이며, 상기 해상도가 1920×1080i 및 1920×1080p 중 하나인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1920×1080p이고, 상기 해상도가 4k×2k인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 4k×2k일 수 있다.
상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 재생 방법은 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함하는 입체영상 데이터를 수신하는 단계, 상기 좌인 시점 영상 데이터 및 상기 우안 시점 영상 데이터 각각의 프레임 레이트를 출력 프레임 레이트의 반으로 조절하는 단계, 상기 조절된 좌안 시점 영상 데이터 및 조절된 상기 우안 시점 영상 데이터를 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성하며, 여기서 상기 제1 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 제1 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 제2 화소 데이터를 포함하며, 상기 제 2 영상 프레임은 홀수 라인에 상기 하나의 제3 화소 데이터를 포함하고, 짝수 라인에 상기 다른 하나의 제4 화소 데이터를 포함하는 단계, 및 상기 제1 영상 프레임 및 제2 영상 프레임을 출력하는 단계를 포함할 수 있다.
상기의 또 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 전자 장치는, 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신하는 수신부, 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 제1 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 제2 화소 데이터를 포함하는 제1 영상 프레임 및 홀수 라인에 상기 하나의 제3 화소 데이터를 포함하고, 짝수 라인에 상기 다른 하나의 제4 화소 데이터를 포함하는 제2 영상 프레임을 생성하는 포맷터 및 상기 생성된 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 디스플레이를 포함할 수 있다.
상기 제1 화소 데이터는 홀수 라인 데이터 및 짝수 라인 데이터 중 하나이고, 상기 제1 화소 데이터가 홀수 라인 데이터인 경우에는, 상기 제2 화소 데이터는 홀수 라인 데이터이며, 상기 제3 화소 데이터는 짝수 라인 데이터이고, 상기 제4 화소 데이터는 짝수 라인 데이터이며, 상기 제1 화소 데이터가 짝수 라인 데이터인 경우에는, 상기 제2 화소 데이터는 짝수 라인 데이터이며, 상기 제3 화소 데이터는 홀수 라인 데이터이고, 상기 제4 화소 데이터는 홀수 라인 데이터일 수 있다.
상기 제1 화소 데이터는 홀수 라인 데이터이고, 상기 제2 화소 데이터는 짝수 라인 데이터이며, 상기 제3 화소 데이터는 짝수 라인 데이터이고, 상기 제4 화소 데이터는 홀수 라인 데이터일 수 있다.
상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것일 수 있다. 여기서 상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 짝수 라인 데이터 및 홀수 라인 데이터 중 하나이고, 상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터가 짝수 라인 데이터인 경우에는, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 홀수 라인 데이터이고, 상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터가 홀수 라인 데이터인 경우에는, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 짝수 라인 데이터일 수 있다. 여기서, 상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것일 수 있다.
상기 포맷터는, 상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터를 수직 방향 필터링할 수 있다.
상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터의 해상도는 720×480p, 1280×720p, 1920×1080i, 1920×1080p 및 4k×2k중 하나이고, 상기 해상도가 720×480p인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 720×480p이고, 상기 해상도가 1280×720p인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1280×720p이며, 상기 해상도가 1920×1080i 및 1920×1080p 중 하나인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1920×1080p이고, 상기 해상도가 4k×2k인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 4k×2k일 수 있다.
상기 전자 장치는 상기 좌인 시점 영상 데이터 및 상기 우안 시점 영상 데이터 각각의 프레임 레이트를 출력 프레임 레이트의 반으로 조절하는 프레임 레이트 변환부를 더 포함할 수 있다.
본 발명에 따른 전자 장치 및 입체영상 재생 방법에 의하면, 편광 필터 방식의 3DTV에 대해서 좌/우 풀 해상도의 3D 영상을 두 프레임을 걸쳐서 보여줌으로써, 시청자는 1/2배 해상도 이상, 최대 풀 해상도로 3D 영상을 시청할 수 있다. 따라서, 본 발명은 편광 필터 방식의 3D 디스플레이 장점인 저렴한 안경 비용 및 여러 사람들의 동시 시청을 가능하게 함과 동시에 액티브 셔터 방식의 3D 디스플레이의 장점인 풀 해상도 시청을 가능하게 한다. 또한, 본 발명은 액티브 셔터 방식보다 더 밝은 3D 영상을 보여줄 수 있다.
도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 양안시차 방식을 도시한 도면,
도 3은 본 발명에 따른 입체영상의 싱글 비디오 스트림 포맷의 예들을 도시한 도면,
도 4는 본 발명에 따른 입체영상의 멀티 비디오 스트림 포맷의 예들을 도시한 도면,
도 5는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 6은 FRC부에서 입력 영상 데이터의 처리 과정을 설명하기 위한 도면,
도 7은 포맷터에 입력된 좌안 시점 영상 데이터 및 우안 시점 영상 데이터의 일실시예를 도시한 도면,
도 8은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제1 실시예가 도시된 도면,
도 9는 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제2 실시예가 도시된 도면,
도 10은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제3 실시예가 도시된 도면,
도 11은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제4 실시예가 도시된 도면,
도 12는 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제5 실시예가 도시된 도면,
도 13은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제6 실시예가 도시된 도면,
도 14는 수직 방향 필터링을 설명하기 위한 도면,
도 15는 60Hz의 Side-by-Side의 포맷의 입체영상 데이터가 입력된 일실시예를 도시한 도면,
도 16은 도 15에 도시된 입체영상 데이터의 프레임 레이트가 조절된 일실시예를 도시한 도면,
도 17은 도 16에 도시된 입체영상 데이터를 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성한 일실시예를 도시한 도면,
도 18은 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 일실시예의 수행과정을 도시한 흐름도이고,
도 19는 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 흐름도이고, 그리고
도 20은 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 또 다른 실시예의 수행과정을 도시한 흐름도이다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명에 따른 전자 장치(100)는 수신부(101), 신호 처리부(140), 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180) 및 제어부(190)를 포함할 수 있다. 전자 장치(100)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있다. 또한 전자 장치(100)는 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.
수신부(101)는 방송 데이터, 영상 데이터, 음성 데이터, 정보 데이터 및 프로그램 코드를 수신할 수 있다. 여기서 영상 데이터는 양안시차 방식의 입체영상 데이터일 수 있다. 입체영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 입체영상 데이터는 적어도 하나의 좌안 시점 영상 데이터와 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다. 또한 입체영상 데이터는 싱글 비디오 스트림 포맷 및 멀티 비디오 스트림 포맷을 가질 수 있다.
도 2는 양안시차 방식을 도시한 도면이다.
도 2를 참조하면, 양안시차 방식은 양안 카메라 등으로 촬상된 좌안 시점 영상(201) 및 우안 시점 영상(202)을 시청자의 양 눈(211, 212)에 각각 보여줌으로써 공간감 또는 입체감을 제공하는 3차원 디스플레이 방식이다. 좌안 시점 영상(201) 및 우안 시점 영상(202)의 양안 시차에 따라 시청자에게 제공되는 공간감 또는 입체감이 달라질 수 있다.
좌안 시점 영상(201) 및 우안 시점 영상(202)의 간격이 좁을수록, 좌안(211) 및 우안(212)로부터 먼 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 작아질 수 있다. 또한 좌안 시점 영상(201) 및 우안 시점 영상(202)의 간격이 넓을수록, 좌안(211) 및 우안(212)으로부터 가까운 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 커질 수 있다.
도 3은 본 발명에 따른 입체영상의 싱글 비디오 스트림 포맷의 예들을 도시한 도면이다.
도 3을 참조하면, 싱글 비디오 스트림 포맷은 사이드 바이 사이드(side by side) 포맷, 탑 앤 바텀(top and bottom) 포맷, 체커 보드(checker board) 포맷, 프레임 시퀀셜(Frame sequential) 포맷 및 인터레이스드(Interlaced) 포맷을 포함할 수 있다.
사이드 바이 사이드(side by side) 포맷(310)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(311)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(312)가 사람의 좌안과 우안에 각각 서로 직교하도록 나란히 입력되는 포맷이다. 사이드 바이 사이드 포맷의 영상 프레임(310)에는 하나의 좌안 시점 영상 프레임(311) 및 하나의 우안 시점 영상 프레임(312)이 나란히 배치된다.
탑 앤 바텀(top and bottom) 포맷(320)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(321)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(322)가 상하로 입력되는 포맷이다. 탑 앤 바텀 포맷의 영상 프레임(320)에는 하나의 좌안 시점 영상 프레임(321) 및 하나의 우안 시점 영상 프레임(322)이 상하로 배치된다.
체커 보드(checker board) 포맷(330)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(331)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(332)가 체스판 모양으로 시간적으로 번갈아 입력되는 포맷이다. 즉 체커 보드 포맷의 영상 프레임(330)에는 좌안 시점 영상(201)의 화소 데이터와 우안 시점 영상(202)의 화소 데이터가 체스판 모양으로 시간적으로 번갈아 배치된다.
프레임 시퀀셜(Frame sequential) 포맷(340)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(341) 및 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(342)가 시간차를 두어 입력되는 방식이다. 프레임 시퀀셜 포맷에서 하나의 좌안 시점 영상 프레임(341) 및 하나의 우안 시점 영상 프레임(342)이 하나의 독립된 영상 프레임으로 수신된다.
인터레이스드(Interlaced) 포맷에는 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(351)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(352)를 각각 수평 방향으로 1/2 서브 샘플링하고, 샘플링한 좌안 시점 영상 데이터(351)와 우안 시점 영상 데이터(352)가 라인마다 교대로 위치하는 포맷(350)이 있다. 또한 인터레이스드(Interlaced) 포맷에는 좌안 시점 영상 (201)을 디스플레이하는 좌안 시점 영상 데이터(356)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(357)를 각각 수직 방향으로 1/2 서브 샘플링하고, 샘플링한 좌안 시점 영상 데이터(356)와 우안 시점 영상 데이터(357)가 라인마다 교대로 위치하는 포맷(355)이 있다.
도 4는 본 발명에 따른 입체영상의 멀티 비디오 스트림 포맷의 예들을 도시한 도면이다.
도 4를 참조하면, 멀티 비디오 스트림 포맷은 풀 좌/우(Full left/right)(410), 풀 좌/하프 우(Full left/Half right)(420) 및 2D 비디오/깊이(2D video/depth)를 포함할 수 있다.
풀 좌/우(410)는 좌안 시점 영상(411) 및 우안 시점 영상(415)을 각각 전송하는 멀티 비디오 스트림 포맷이고, 풀 좌/하프 우(420)는 좌안 시점 영상(421)은 그대로 전송하고, 우안 시점 영상은 수직(422) 또는 수평(423) 방향으로 1/2 서브 샘플링하여 전송하는 멀티 비디오 스트림 포맷이며, 2D 비디오/깊이 포맷(430)은 하나의 시점 영상(431)과 다른 하나의 시점 영상을 만들어내기 위한 깊이 정보(435)를 함께 전송하는 멀티 비디오 스트림 포맷이다.
수신부(101)는 튜너부(110), 복조부(120), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(130)를 포함할 수 있다.
튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 일예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우에는, 복조부(120)는 8-VSB(8-Vestigial Side Band) 복조를 수행한다. 또 다른 예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다.
또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
복조부(120)에서 출력한 스트림 신호는 신호처리부(140)로 입력될 수 있다.
이동통신부(115)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
외부 신호 수신부(135)는 외부 장치와 전자 장치(100)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미할 수 있고, USB 메모리 또는 USB 하드 디스크 등의 저장 장치일 수 있다. 전자 장치(100)는 외부 신호 수신부(135)로부터 수신된 영상 신호 및 음성 신호를 디스플레이할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다.
또한 외부 장치는 촬영 장치(90)일 수 있다. 촬영 장치(90)는 복수의 카메라를 포함할 수 있다. 촬영 장치(90)는 사람을 촬상할 수 있다. 촬영 장치(90)는 사람의 손 영역을 인식하여 손 영역에 초점을 맞추고, 줌인하여 촬상할 수 있다. 여기서 촬상된 손 모양은 공간 제스처로 인식될 수 있다. 즉 제어부(190)는 촬상된 손 모양을 공간 제스처로 인식하고 인식된 공간 제스처와 연관된 동작들을 수행하는 명령어들을 실행할 수 있다. 여기서 공간 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 촬영 장치(90)로부터 수신되는 영상 프레임 또는 영상으로부터 인식되는 제스처로 정의될 수 있다.
일부 실시예로, 전자 장치(100)는 촬영 장치(90)를 포함할 수 있다.
신호처리부(140)는 복조부(210)가 출력한 스트림 신호를 역다중화하고 역다중화된 신호에 신호 처리 등을 수행한 후, 디스플레이(150)로 영상을 출력하고, 음성 출력부(160)로 음향(161)을 출력한다. 또한 신호 처리부(140)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 영상 데이터, 음성 데이터 및 방송 데이터를 수신할 수 있다.
신호 처리부(140)는 수신부(101)로부터 수신된 입체영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 영상 프레임을 생성할 수 있다. 일부 실시예로, 신호 처리부(140)는 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 즉 신호 처리부(140)는 하나의 좌안 시점 영상 프레임 및 하나의 우안 시점 영상 프레임을 이용하여 두개의 영상 프레임을 생성할 수 있다. 또한 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 하나의 입체영상 이미지를 형성할 수 있다.
일부 실시예로, 신호 처리부(140)는 상기 입체영상 데이터의 프레임 레이트를 변경하고, 변경된 프레임 레이트를 갖는 입체영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 즉 신호 처리부(140)는 프레임 레이트가 조절된 입체영상 데이터에 포함된 하나의 입체영상 프레임의 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 이용하여 두개의 영상 프레임을 생성할 수 있다. 또한 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 하나의 입체영상 이미지를 형성할 수 있다.
상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 좌안 시점 영상 프레임 및 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함할 수 있다. 또한 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 상기 좌안 시점 영상 데이터의 해상도와 동일한 해상도를 가질 수 있고 상기 좌안 시점 영상 데이터의 해상도와 대응하는 프로그레시브 해상도를 가질 수 있다.
신호 처리부(140)는 생성한 제1 영상 프레임 및 제2 영상 프레임을 디스플레이(150)로 출력할 수 있다.
디스플레이(150)는 영상(152)을 디스플레이한다. 여기서 영상(152)은 입체영상일 수 있고, 디스플레이(150)는 편광 방식(Patterned Retarder type)으로 입체영상을 디스플레이할 수 있다. 또한 입체영상(152)은 신호 처리부(140)가 생성한 제1 영상 프레임 및 제2 영상 프레임이 디스플레이된 것일 수 있다.
또한, 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 디스플레이(150)는 전자 장치의 사용자와 운영 체제 또는 운영 체제 상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다. GUI(153)는 프로그램, 파일, 및 동작 옵션들을 그래픽 이미지로 표현한다. 그래픽 이미지는 윈도우, 필드, 대화상자, 메뉴, 아이콘, 버튼, 커서 및 스크롤바 등을 포함할 수 있다. 이러한 이미지는 미리 정의된 레이아웃으로 정렬될 수 있거나, 사용자가 취하고 있는 특정의 조치를 돕기 위해 동적으로 생성될 수 있다. 동작 동안에, 사용자는 여러 가지 그래픽 이미지와 연관된 기능 및 작업을 제기하기 위해 그 이미지를 선택 및 활성화할 수 있다. 예로서, 사용자는 윈도우의 열기, 닫기, 최소화, 또는 최대화를 행하는 버튼, 또는 특정 프로그램을 가동시키는 아이콘을 선택할 수 있다.
음성 출력부(160)는 신호 처리부(140) 및 제어부(190)로부터 음성 데이터를 수신하고 수신한 음성 데이터가 재생된 음향(161)을 출력할 수 있다.
입력장치(170)는 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있다. 터치 스크린은 디스플레이(150)와 일체로 되어 있거나 별개의 구성요소일 수 있다. 터치 스크린이 디스플레이(150)의 전방에 배치됨에 따라 사용자는 GUI(153)를 직접 조작할 수 있다. 예를 들어, 사용자는 단지 제어될 객체 상에 그의 손가락을 올려 놓을 수 있다. 터치패드에서는, 이것과 같은 일대일 관계가 없다.
터치패드에 있어서, 터치패드는 디스플레이(150)로부터 떨어져 일반적으로 다른 평면에 놓여 있다. 예를 들어, 디스플레이(150)는 일반적으로 수직 평면에 위치해 있고, 터치패드는 일반적으로 수평 평면에 위치해 있다. 이것은 그의 사용을 덜 직관적이게 하며, 따라서 터치 스크린과 비교할 때 더 어렵다. 터치 스크린인 것에 부가하여, 입력장치(170)는 다중점 입력장치일 수 있다.
저장부(180)는 일반적으로 전자 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 전자 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함할 수 있다.
제어부(190)는 명령어를 실행하고 전자 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 전자 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.
제어부(190)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.
제어부(190)는 사용자 조치(User Action)를 인식하고 인식한 사용자 조치에 기초하여 전자 장치(100)를 제어할 수 있다. 여기서 사용자 조치는 전자 장치 또는 리모컨의 물리적인 버튼의 선택, 터치 스크린 디스플레이면상의 소정의 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치로 촬영된 영상으로부터 인식되는 소정의 제스처의 실시 및 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 외부 신호 수신부(135)는 리모컨의 물리적인 버튼을 선택하는 사용자 조치에 대한 신호를 리모컨을 통해 수신할 수 있다.
제스처는 터치 제스처와 공간 제스처를 포함할 수 있다. 터치 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 입력장치(170)와의 양식화된 상호작용으로서 정의될 수 있다. 터치 제스처는 여러 가지 손을 통해, 보다 상세하게는 손가락 움직임을 통해 행해질 수 있다. 다른 대안으로서 또는 그에 부가하여, 제스처는 스타일러스로 행해질 수 있다.
입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.
제어부(190)는 입체영상 재생 모드를 결정 또는 확인할 수 있다. 일부 실시예로, 제어부(190)는 인식된 사용자 조치를 기초로 입체영상 재생 모드를 결정할 수 있고, 수신된 입체영상 데이터의 해상도 및 포맷 중 적어도 하나를 기초로 입체영상 재생 모드를 결정할 수 있다. 또한 제어부(190)는 수신된 방송 정보를 기초로 입체영상 재생 모드를 결정 또는할 수 있고, 저장된 입체영상 재생 모드 정보를 기초로 입체영상 재생 모드를 확인할 수 있다.
여기서 입체영상 재생 모드는 풀 영상 모드, 해프 영상 모드 중 하나일 수 있다. 풀 영상 모드는 풀 해상도의 입체영상 데이터가 해상도 감소 없이 유지되어 디스플레이되는 모드이고, 해프 영상 모드는 풀 해상도의 입체영상 데이터가 해상도가 반으로 감소되어 디스플레이되는 모드이다. 풀 해상도는 Full-HD 해상도일 수 있고, 디스플레이 장치에서 지원 가능한 최고의 해상도 중의 하나일 수 있으며, 영상 데이터 전송 표준에 정의된 풀 해상도일 수 있다. 일예로 풀 해상도는 표준 문서 HDMI(High-Definition Multimedia Interface) 1.4에서 맨대토리 포맷(Mandatory format)으로 정의된 풀 해상도일 수 있다. HDMI 1.4에서는 풀 해상도의 3D video 포맷은 1920×1080p×2@24Hz, 1280×720p×2@60Hz/50Hz이다. 다른 예로 풀 해상도는 720×480p@60Hz, 1920×1080i×2@60Hz, 1920×1080p×2@60Hz 및 4K×2K×2@24Hz(또는 25Hz, 30Hz) 일 수 있다. 예외적으로, 풀 영상 모드에서 1920×1080i×2의 해상도를 갖는 입체영상 데이터가 입력된 경우에는, 상기 입체영상 데이터는 1920×1080p×2의 해상도로 디스플레이될 수 있다. 1920×1080p×2@60Hz는 입체영상 데이터가 1920×1080p 해상도를 갖고 60Hz의 프레임 레이트를 갖는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 포함한다는 것을 의미한다. 1280×720p×2@60Hz/50Hz는 입체영상 데이터가 1280×720p 해상도를 갖고 60Hz의 프레임 레이트를 갖는 좌안 시점 영상 프레임 및 50Hz의 프레임 레이트를 갖는 우안 시점 영상 프레임을 포함한다는 것을 의미한다.
제어부(190)는 신호 처리부(140)로 하여금 결정한 또는 확인한 입체영상 재생 모드에 따라 입체영상 데이터를 처리하도록 제어할 수 있다. 디폴트로, 신호 처리부(140)는 풀 영상 모드로 입체영상 데이터를 처리할 수 있다.
또한 제어부(190)는 입체영상 재생 모드를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지할 수 있다. 상기 사용자 조치의 감지에 응답하여, 제어부(190)는 상기 그래픽 사용자 인터페이스(GUI: Graphical User Interface) 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면을 디스플레이하기 위한 신호가 생성되도록 제어할 수 있다. 여기서 상기 영역에는 입체영상이 디스플레이될 수 있다.
제어부(190)는 신호 처리부(140)로 하여금 상기 GUI를 통해 설정된 입체영상 재생 모드에 따라 상기 화면에 디스플레이되는 영상을 처리하도록 제어할 수 있다.
또한 제어부(190)는, 상기 GUI를 통해 설정된 입체영상 재생 모드를 나타내는 정보인 입체영상 재생 모드 정보가 저장부(190)에 저장되도록 제어할 수 있다.
도 5는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 5를 참조하면, 신호 처리부(140)는 역다중화부(510), 오디오 디코더(520), 비디오 디코더(530), 스케일러(540), 믹서(550), 프레임 레이트 변환부(FRC : Frame Rate Converter)(560), 포맷터(570) 및 영상 인터페이스부(580)를 포함할 수 있다.
역다중화부(510)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 스트림 신호를 수신할 수 있고, 역다중화부(510)는 수신된 스트림 신호를 영상 데이터, 음성 데이터 및 정보 데이터로 역다중화하여 각각 비디오 디코더(530), 오디오 디코더(520) 및 제어부(190)로 출력할 수 있다.
오디오 디코더(520)는 역다중화부(510)로부터 음성 데이터를 수신하고, 수신된 음성 데이터를 복원하여 복원된 데이터를 스케일러(540) 또는 음성 출력부(160)로 출력할 수 있다.
비디오 디코더(530)는 역다중화부(510)로부터 영상 데이터를 수신하고, 수신된 영상 데이터를 복원하고 복원한 영상 데이터를 스케일러(540)에 출력한다. 여기서 영상 데이터는 입체영상 데이터를 포함할 수 있다.
스케일러(540)는 비디오 디코더(530), 제어부(190) 및 오디오 디코더(520)에서 처리된 영상 데이터 및 음성 데이터를 디스플레이(150) 또는 스피커(미도시)를 통하여 출력하기 위한 적절한 크기의 신호로 크기 조절(스케일링: scaling)한다. 구체적으로, 스케일러(540)는 입체영상을 수신하여 디스플레이(150)의 해상도 또는 소정 화면비(aspect ratio)에 맞도록 스케일링(scaling)한다. 디스플레이(150)는 제품 사양별로 소정 해상도, 예를 들어 720×480 포맷, 1024×768 포맷, 1280×720 포맷, 1280×768 포맷, 1280×800 포맷, 1920×540 포맷, 1920×1080 포맷 및 4K×2K 포맷 등을 갖는 영상 화면을 출력하도록 제작될 수 있다. 그에 따라서, 스케일러(540)는 다양한 값으로 입력될 수 있는 입체영상의 해상도를 해당 디스플레이의 해상도에 맞춰 변환할 수 있다.
또한, 스케일러(540)는 디스플레이되는 컨텐츠의 종류 또는 사용자 설정 등에 따라서, 입체영상의 화면비(aspect ratio)를 조절하여 출력한다. 화면비 값은 16:9, 4:3, 또는 3:2 등의 값이 될 수 있으며, 스케일러(540)는 가로 방향의 화면 길이 비와 세로 방향의 화면 길이 비가 특정 비율이 되도록 조절할 수도 있다.
믹서(550)는 스케일러(540) 및 제어부(190)의 출력을 믹싱하여 출력한다.
FRC(560)는 수신부(101), 스케일러(540) 또는 믹서(550)가 출력한 영상 데이터를 수신하고, 수신한 영상 데이터의 프레임 레이트가 디스플레이(150)의 프레임 레이트에 대응되도록 처리할 수 있다. 예를 들어, 수신한 영상 데이터의 프레임 레이트가 60Hz이고, 디스플레이(150)의 프레임 레이트가 120Hz 또는 240Hz라면, FRC(560)는 상기 영상 데이터의 프레임 레이트가 디스플레이(150)의 프레임 레이트인 120Hz 또는 240Hz에 대응되도록 기 정의된 방식으로 처리한다. 여기서, 상기 기 정의된 방식에는 예를 들어, 입력되는 영상 데이터를 템퍼럴 인터폴레이션(temporal interpolation) 하는 방법과 입력되는 영상 데이터에 포함된 영상 프레임을 단순 반복하는 방법이 있다. 전술한 각 방법은 입력되는 입체영상의 포맷에 따라 적절하게 선택되어 FRC(560)에서 수행될 수 있다.
상기 템퍼럴 인터폴레이션 방법은, 입력되는 60Hz의 영상 신호를 4등분(0, 0.25, 0.5, 0.75) 함으로써 240Hz의 영상 신호가 되도록 처리하는 방법이다. 그리고 상기 프레임을 단순 반복하는 방법은, 입력되는 60Hz의 영상 신호의 각 프레임을 4번 반복함으로써 각 프레임의 주파수가 240Hz가 되도록 처리한다.
또한 FRC(560)는 수신부(101), 스케일러(540) 또는 믹서(550)가 출력한 영상 데이터를 수신하고, 수신한 영상 데이터를 디스플레이(150)의 프레임 레이트의 반에 대응되도록 처리할 수 있다. 예를 들어, 수신한 영상 데이터의 프레임 레이트가 60Hz이고, 디스플레이(150)의 프레임 레이트가 120Hz라면, FRC(560)는 상기 영상 데이터를 포맷터(670)로 바이패스할 수 있다. 수신한 영상 데이터의 프레임 레이트가 60Hz이고, 디스플레이(150)의 프레임 레이트가 240Hz라면, FRC(560)는 상기 영상 데이터의 프레임 레이트를 디스플레이(150)의 프레임 레이트인 120Hz에 대응되도록 기 정의된 방식으로 처리한다. 수신한 영상 데이터의 프레임 레이트가 120Hz이고, 디스플레이(150)의 프레임 레이트가 120Hz라면, FRC(560)는 상기 영상 데이터의 프레임 레이트를 디스플레이(150)의 프레임 레이트의 반인 60Hz로 조절할 수 있다.
여기서 디스플레이(150)의 프레임 레이트라 함은 포맷터(570)에서 구성된 영상 프레임을 디스플레이(150)에서 디스플레이 또는 출력하는 수직 주사주파수이다. 이하 디스플레이(150)의 프레임 레이트를 출력 프레임 레이트 또는 디스플레이 수직 주파수라고 정의한다.
다음의 표 1은 입력된 입체영상 데이터의 종류 및 출력 프레임 레이트별로 FRC(560)가 프레임 레이트를 조절한 실시예들을 도시한 것이다.

3D 포맷

수신된 프레임
영상 사이즈

수신된 영상
프레임 레이트
출력 프레임 레이트가 120Hz일 때,
조절된
프레임 레이트
출력 프레임 레이트가 240일 때,
조절된
프레임 레이트
Side-by-Side 1920×1080
4K×2K
좌안, 우안 시점 영상 프레임 각각 최대 60Hz 좌안, 우안 시점영상 프레임 각각 60Hz 좌안, 우안 시점영상 프레임 각각 120Hz
Frame Sequential 1920×1080
4K×2K
좌안, 우안 시점 영상 프레임 각각 최대 30Hz 좌안, 우안 시점영상 프레임 각각 60Hz 좌안, 우안 시점영상 프레임 각각 120Hz
Frame Packing Dual Fame 1920×1080P
1280×720P
1920×1080i
4K×2K
좌안, 우안 시점 영상 프레임 각각 24Hz,25Hz 30Hz, 60Hz 좌안, 우안 시점영상 프레임 각각 60Hz 좌안, 우안 시점영상 프레임 각각 120Hz
도 6은 FRC에서 입체영상 데이터의 처리 과정을 설명하기 위한 도면이다.
도 6을 참조하면, 도 6(a)는 FRC(560)로 입력되는 특정 주파수(예를 들어, 60Hz)의 영상 데이터이고, 도 7(b)는 FRC(560)를 거쳐 디스플레이 수직 주파수(예를 들어, 240Hz)의 반으로 처리된 영상 데이터이다. 여기서 입체영상 데이터는 설명의 편의를 위해 탑/다운 방식의 영상 데이터를 일 예로 하여 설명하나 이에 한정되는 것은 아니며, 전술한 도 3 내지 4에 기술된 방식 모두에 적용 가능함을 미리 밝혀둔다.
도 7(a)를 참조하면, FRC(560)로 입력되는 60Hz의 탑/다운 방식의 영상 데이터는, 탑/다운으로 L1/R1, L2/R2, L3/R3, 및 L4/R4 4개의 프레임이 존재한다. 그리고 도 7(b)를 참조하면, 상기 탑/다운 방식의 영상 데이터는 FRC(560)에서 디스플레이 수직 주파수의 반으로 처리됨으로써, 120Hz의 탑/다운 방식의 영상 데이터가 된다. 즉, 도 7(b)에서는 각 L1/R1, L2/R2, L3/R3, 및 L4/R4 프레임이 2개씩 존재한다. 여기서, 상기 도 7(b)는 전술한 변환 방법들 중 어느 하나의 방법을 이용하더라도 동일하다.
포맷터(570)는 수신부(101) 또는 FRC(560)가 출력한 입체영상 데이터를 샘플링하여 디스플레이(150)로 출력한다.
도 7은 포맷터에 입력된 좌안 시점 영상 데이터 및 우안 시점 영상 데이터의 일실시예를 도시한 도면이다.
도 7을 참조하면, 포맷터(570)는 수신부(101) 또는 FRC(560)로부터 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)을 수신할 수 있다. 그리고, 포맷터(570)는 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)을 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 여기서 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)의 해상도는 720×480p, 1280×720p, 1920×1080i, 1920×1080p 및 4K×2K중 하나일 수 있다. 또한 입체영상 재생 모드가 풀 영상 모드인 경우에, 포맷터(570)는 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)을 이용하여 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 생성할 수 있다. 그리고 포맷터(570)는 생성한 제1 영상 프레임 및 제2 영상 프레임을 영상 인터페이스부(580)로 출력할 수 있다. 여기서, 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)은 하나의 입체영상의 이미지를 형성한다.
포맷터(570)는 수신부(101) 또는 FRC(560)로부터 좌안 시점 영상 프레임(710)의 다음 좌안 시점 영상 프레임 및 우안 시점 영상 프레임(720)의 다음 우안 시점 영상 프레임을 수신할 수 있고, 수신된 다음 좌안 시점 영상 프레임 및 다음 우안 시점 영상 프레임을 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 여기서, 좌안 시점 영상 프레임 및 우안 시점 영상 프레임은 해당 영상 프레임의 프레임 레이트에 대응하는 시간 간격으로 수신될 수 있다.
도시된 도면에서 L은 좌안 시점 영상 프레임(710)에 포함된 화소 데이터를 의미하고, R은 우안 시점 영상 프레임(720)에 포함된 화소 데이터를 의미한다. 그리고 L 또는 R 다음의 숫자는 영상 프레임의 라인 번호를 의미한다. L1은 좌안 시점 영상 프레임(710)의 첫 라인이고, L2는 좌안 시점 영상 프레임(710)의 두 번째 라인이며, L3은 좌안 시점 영상 프레임(710)의 세 번째 라인이며, R1은 우안 시점 영상 프레임(720)의 첫 라인이고, R2는 우안 시점 영상 프레임(720)의 두 번째 라인이며, R3은 우안 시점 영상 프레임(720)의 세 번째 라인이다.
만일 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)이 인터레이스 해상도를 갖는다면, 상기 라인 번호가 홀수인 경우에는 홀수필드의 라인을 의미하고, 상기 라인 번호가 짝수인 경우에는 짝수필드의 라인을 의미한다. L1은 좌안 시점 영상 프레임(710)의 홀수필드의 첫 라인이고, L3은 상기 홀수필드의 두 번째 라인이며, L5는 상기 홀수필드의 세 번째 라인이다. 마찬가지로, L2는 좌안 시점 영상 프레임(710)의 짝수필드의 첫 라인이고, L4는 상기 짝수필드의 두 번째 라인이면, L6은 상기 짝수필드의 세 번째 라인이다.
도 8은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제1 실시예가 도시된 도면이다.
도 8을 참조하면, 포맷터(570)는 제1 영상 프레임으로 영상 프레임(810)을 생성하고, 제2 영상 프레임으로 영상 프레임(820)을 생성할 수 있다. 영상 프레임(810)의 첫 라인에는 좌안 시점 영상 프레임(710)의 첫 라인의 화소 데이터가 포함되고, 영상 프레임(820)의 첫 라인에는 좌안 시점 영상 프레임(710)의 두번째 라인의 화소 데이터가 포함된다.
영상 프레임(810)의 두 번째 라인은 우안 시점 영상 프레임(720)의 첫 라인의 화소 데이터(R1)를 포함하고, 영상 프레임(810)의 세 번째 라인은 좌안 시점 영상 프레임(710)의 세 번째 라인의 화소 데이터(L3)를 포함하며, 영상 프레임(810)의 네 번째 라인은 우안 시점 영상 프레임(720)의 세 번째 라인의 화소 데이터(R3)를 포함하고, 영상 프레임(810)의 다섯 번째 라인은 좌안 시점 영상 프레임(710)의 다섯 번째 라인의 화소 데이터(L5)를 포함한다. 즉 영상 프레임(810)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 홀수 라인에 포함된 화소 데이터가 포함되고 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 홀수 라인에 포함된 화소 데이터가 포함된다.
영상 프레임(820)의 두 번째 라인은 우안 시점 영상 프레임(720)의 두 번째 라인의 화소 데이터(R2)를 포함하고, 영상 프레임(820)의 세 번째 라인은 좌안 시점 영상 프레임(710)의 네 번째 라인의 화소 데이터(L4)를 포함하며, 영상 프레임(820)의 네 번째 라인은 우안 시점 영상 프레임(720)의 네 번째 라인의 화소 데이터(R4)를 포함하고, 영상 프레임(820)의 다섯 번째 라인은 좌안 시점 영상 프레임(710)의 여섯 번째 라인의 화소 데이터(L6)를 포함한다. 즉 영상 프레임(820)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 짝수 라인에 포함된 화소 데이터가 포함되고 영상 프레임(820)의 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 짝수 라인에 포함된 화소 데이터가 포함된다.
디스플레이(150)의 좌안/우안 영상 라인에 대한 편광 순서에 따라 도 8에 도시된 것처럼 영상 프레임(810) 및 영상 프레임(820)의 홀수 라인은 좌안 시점 영상 데이터로 구성되고 짝수 라인은 우안 시점 영상 데이터로 구성될 수 있고, 반대로 영상 프레임(810) 및 영상 프레임(820)의 홀수 라인은 우안 시점 영상 데이터로 구성되고 짝수 라인은 좌안 시점 영상 데이터로 구성될 수 있다. 이하에서 영상 프레임의 홀수 라인에 포함된 화소 데이터를 홀수 라인 데이터라고 정의하고, 영상 프레임의 짝수 라인에 포함된 화소 데이터를 짝수 라인 데이터라고 정의한다.
도 9는 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제2 실시예가 도시된 도면이다.
도 9를 참조하면, 포맷터(570)는 제1 영상 프레임으로 영상 프레임(910)을 생성하고, 제2 영상 프레임으로 영상 프레임(920)을 생성할 수 있다.
영상 프레임(910)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 홀수 라인 데이터가 포함되고 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 짝수 라인 데이터가 포함된다.
영상 프레임(920)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 짝수 라인 데이터가 포함되고 영상 프레임(920)의 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 홀수 라인 데이터가 포함된다.
디스플레이(150)의 좌안/우안 영상 라인에 대한 편광 순서에 따라 도 9에 도시된 것처럼 영상 프레임(910) 및 영상 프레임(920)의 홀수 라인은 좌안 시점 영상 데이터로 구성되고 짝수 라인은 우안 시점 영상 데이터로 구성될 수 있고, 반대로 영상 프레임(910) 및 영상 프레임(920)의 홀수 라인은 우안 시점 영상 데이터로 구성되고 짝수 라인은 좌안 시점 영상 데이터로 구성될 수 있다.
도 10은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제3 실시예가 도시된 도면이다.
도 10을 참조하면, 포맷터(570)는 제1 영상 프레임으로 영상 프레임(1010)을 생성하고, 제2 영상 프레임으로 영상 프레임(1020)을 생성할 수 있다.
영상 프레임(1010)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 짝수 라인 데이터가 포함되고 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 짝수 라인 데이터가 포함된다.
영상 프레임(1020)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 홀수 라인 데이터가 포함되고 영상 프레임(1020)의 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 홀수 라인 데이터가 포함된다.
디스플레이(150)의 좌안/우안 영상 라인에 대한 편광 순서에 따라 도 10에 도시된 것처럼 영상 프레임(1010) 및 영상 프레임(1020)의 홀수 라인은 좌안 시점 영상 데이터로 구성되고 짝수 라인은 우안 시점 영상 데이터로 구성될 수 있고, 반대로 영상 프레임(1010) 및 영상 프레임(1020)의 홀수 라인은 우안 시점 영상 데이터로 구성되고 짝수 라인은 좌안 시점 영상 데이터로 구성될 수 있다.
도 11은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제4 실시예가 도시된 도면이다.
도 11을 참조하면, 포맷터(570)는 제1 영상 프레임으로 영상 프레임(1110)을 생성하고, 제2 영상 프레임으로 영상 프레임(1120)을 생성할 수 있다.
영상 프레임(1110)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 짝수 라인 데이터가 포함되고 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 홀수 라인 데이터가 포함된다.
영상 프레임(1120)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 홀수 라인 데이터가 포함되고 영상 프레임(1120)의 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 짝수 라인 데이터가 포함된다.
디스플레이(150)의 좌안/우안 영상 라인에 대한 편광 순서에 따라 도 11에 도시된 것처럼 영상 프레임(1110) 및 영상 프레임(1120)의 홀수 라인은 좌안 시점 영상 데이터로 구성되고 짝수 라인은 우안 시점 영상 데이터로 구성될 수 있고, 반대로 영상 프레임(1110) 및 영상 프레임(1120)의 홀수 라인은 우안 시점 영상 데이터로 구성되고 짝수 라인은 좌안 시점 영상 데이터로 구성될 수 있다.
도 12는 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제5 실시예가 도시된 도면이다.
도 12를 참조하면, 포맷터(570)는 제1 영상 프레임으로 영상 프레임(1210)을 생성하고, 제2 영상 프레임으로 영상 프레임(1220)을 생성할 수 있다. 영상 프레임(1210)과 영상 프레임(1220)의 첫 라인에는 좌안 시점 영상 프레임의 첫 라인의 화소 데이터가 포함된다. 즉 영상 프레임(1210)의 첫 라인에 포함된 화소 데이터(L1)는 영상 프레임(1220)의 첫 라인에 포함된 화소 데이터(L1)와 동일하다.
영상 프레임(1210)의 두 번째 라인은 우안 시점 영상 프레임(720)의 첫 라인의 화소 데이터(R1)를 포함하고, 영상 프레임(1210)의 세 번째 라인은 좌안 시점 영상 프레임(710)의 두 번째 라인의 화소 데이터(L2)를 포함하며, 영상 프레임(1210)의 네 번째 라인은 우안 시점 영상 프레임(720)의 세 번째 라인의 화소 데이터(R3)를 포함하고, 영상 프레임(1210)의 다섯 번째 라인은 좌안 시점 영상 프레임(710)의 네 번째 라인의 화소 데이터(L4)를 포함한다. 즉 영상 프레임(1210)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(1210)의 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 홀수 라인 데이터가 포함된다. 그리고 영상 프레임(1210)의 첫 라인을 제외한 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 짝수 라인 데이터가 포함된다.
영상 프레임(1220)의 두 번째 라인은 우안 시점 영상 프레임(720)의 두 번째 라인의 화소 데이터(R2)를 포함하고, 영상 프레임(1220)의 세 번째 라인은 좌안 시점 영상 프레임(710)의 세 번째 라인의 화소 데이터(L3)를 포함하며, 영상 프레임(1220)의 네 번째 라인은 우안 시점 영상 프레임(720)의 네 번째 라인의 화소 데이터(R4)를 포함하고, 영상 프레임(1220)의 다섯 번째 라인은 좌안 시점 영상 프레임(710)의 다선 번째 라인의 화소 데이터(L5)를 포함한다. 즉 영상 프레임(1220)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(1220)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 홀수 라인 데이터가 포함되고 영상 프레임(1220)의 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 짝수 라인 데이터가 포함된다.
디스플레이(150)의 좌안/우안 영상 라인에 대한 편광 순서에 따라 도 12에 도시된 것처럼 영상 프레임(1210) 및 영상 프레임(1220)의 홀수 라인은 좌안 시점 영상 데이터로 구성되고 짝수 라인은 우안 시점 영상 데이터로 구성될 수 있고, 반대로 영상 프레임(1210) 및 영상 프레임(1220)의 홀수 라인은 우안 시점 영상 데이터로 구성되고 짝수 라인은 좌안 시점 영상 데이터로 구성될 수 있다. 반대의 경우에는, 도 12의 도면에서, L과 R이 서로 교체되고 L과 R 다음의 숫자는 유지되는 구성을 갖는다.
도 13은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제6 실시예가 도시된 도면이다.
도 13을 참조하면, 포맷터(570)는 제1 영상 프레임으로 영상 프레임(1310)을 생성하고, 제2 영상 프레임으로 영상 프레임(1320)을 생성할 수 있다. 영상 프레임(1310)과 영상 프레임(1320)의 첫 라인에는 좌안 시점 영상 프레임의 첫 라인의 화소 데이터가 포함된다. 즉 영상 프레임(1310)의 첫 라인에 포함된 화소 데이터(L1)는 영상 프레임(1320)의 첫 라인에 포함된 화소 데이터(L1)와 동일하다.
영상 프레임(1310)의 두 번째 라인은 우안 시점 영상 프레임(720)의 두 번째 라인의 화소 데이터(R2)를 포함하고, 영상 프레임(1310)의 세 번째 라인은 좌안 시점 영상 프레임(710)의 세 번째 라인의 화소 데이터(L3)를 포함하며, 영상 프레임(1310)의 네 번째 라인은 우안 시점 영상 프레임(720)의 네 번째 라인의 화소 데이터(R4)를 포함하고, 영상 프레임(1310)의 다섯 번째 라인은 좌안 시점 영상 프레임(710)의 다섯 번째 라인의 화소 데이터(L5)를 포함한다. 즉 영상 프레임(1310)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(1310)의 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 짝수 라인 데이터가 포함된다. 그리고 영상 프레임(1310)의 각 홀수 라인에는 좌안 시점 영상 프레임(710)의 각 홀수 라인 데이터가 포함된다.
영상 프레임(1320)의 두 번째 라인은 우안 시점 영상 프레임(720)의 첫 번째 라인의 화소 데이터(R1)를 포함하고, 영상 프레임(1320)의 세 번째 라인은 좌안 시점 영상 프레임(710)의 두 번째 라인의 화소 데이터(L2)를 포함하며, 영상 프레임(1320)의 네 번째 라인은 우안 시점 영상 프레임(720)의 세 번째 라인의 화소 데이터(R3)를 포함하고, 영상 프레임(1320)의 다섯 번째 라인은 좌안 시점 영상 프레임(710)의 네 번째 라인의 화소 데이터(L4)를 포함한다. 즉 영상 프레임(1320)의 첫 라인을 제외한 각 홀수 라인에는 좌안 시1점 영상 프레임(710)의 각 짝수 라인 데이터가 포함되고 영상 프레임(1320)의 각 짝수 라인에는 우안 시점 영상 프레임(720)의 각 홀수 라인 데이터가 포함된다.
디스플레이(150)의 좌안/우안 영상 라인에 대한 편광 순서에 따라 도 13에 도시된 것처럼 영상 프레임(1310) 및 영상 프레임(1320)의 홀수 라인은 좌안 시점 영상 데이터로 구성되고 짝수 라인은 우안 시점 영상 데이터로 구성될 수 있고, 반대로 영상 프레임(1310) 및 영상 프레임(1320)의 홀수 라인은 우안 시점 영상 데이터로 구성되고 짝수 라인은 좌안 시점 영상 데이터로 구성될 수 있다. 반대의 경우에는, 도 13의 도면에서, L과 R이 서로 교체되고 L과 R 다음의 숫자는 유지되는 구성을 갖는다.
도 14는 수직 방향 필터링을 설명하기 위한 도면이다.
도 14를 참조하면, 포맷터(570)는 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)의 홀수 라인 데이터 또는 짝수 라인 데이터에 대한 수직 방향 필터링을 수행할 수 있다.
포맷터(570)는 제1 영상 프레임 및 제2 영상 프레임을 생성할 때, 이웃 라인 정보를 이용한 필터링을 수행하지 않고, 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)에서 단순 홀수 라인 데이터 또는 짝수 라인 데이터를 추출하여 제1 영상 프레임 및 제2 영상 프레임을 구성할 수 있다.
또한 포맷터(570)는 제1 영상 프레임 및 제2 영상 프레임을 생성할 때, 이웃 라인 정보를 이용하여 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(720)의 홀수 라인 데이터 또는 짝수 라인 데이터에 대한 수직 방향 필터링을 수행하고, 필터링된 홀수 라인 데이터 또는 짝수 라인 데이터를 이용하여 제1 영상 프레임 및 제2 영상 프레임을 구성할 수 있다.
다음의 수학식 1은 수직 방향 필터링을 나타낸 것이다.
Figure pat00001
여기서,
Figure pat00002
는 현재 중심 라인(1415) Y축 좌표값이고,
Figure pat00003
는 현재 중심 라인(1415)으로부터 K만큼 떨어진 라인에서 각 X축 값에서의 픽셀값을 나타내며,
Figure pat00004
는 K번째 라인에 대한 필터 계수고,
Figure pat00005
는 필터링된 결과 픽셀값이다. N은 필터링에 참여할 상측 이웃 라인 또는 하측 이웃 라인의 수를 의미한다. 여기서 N은 사전에 설정된 값일 수 있고, 사용자에 의해 설정된 값일 수 있고, 해상도 및 라인 위치 중 적어도 하나에 따라 설정된 값일 수 있다.
영상 프레임(1410)은 좌안 영상 프레임(710) 및 우안 영상 프레임(720) 중 하나일 수 있다. 영상 프레임(1410)에서 중심 라인(1415)의 필터 계수는 W0이고 라인(1414), 라인(1413) 및 라인(1411)의 필터 계수는 W-1, W-2 W-n이며, 라인(1416), 라인(1417) 및 라인(1418)의 필터 계수는 W1, W2 Wn이다.
영상 프레임(1420)은 중심 라인(1415)이 필터링된 라인(1425)을 포함하는 제1 영상 프레임 또는 제2 영상 프레임 중 하나일 수 있다. 포맷터(570)는 영상 프레임(1410)의 각 홀수 라인 데이터 또는 짝수 라인 데이터에 대해 수학식 1에 정의된 필터링을 수행하여, 필터링된 결과의 홀수 라인 데이터 및 필터링된 결과의 짝수 라인 데이터를 산출할 수 있다.
모든 K에 대해서
Figure pat00006
이면 중심 라인(1415)을 기준으로 상하 대칭으로 가중치를 주고 필터링하는 것을 의미한다. 동일하지 않을 때는 상하 비대칭으로 가중치를 주고 필터링을 하는 것을 의미한다. 필터링을 수행하지 않은 경우는,
Figure pat00007
일 때, 즉 중심 라인(1415)의 가중치만 1이고, 나머지는 0인 경우와 동일하다.
영상 인터페이스부(580)는 포맷터(570)가 생성한 제1 영상 프레임 및 제2 영상 프레임을 디스플레이(150)로 출력할 수 있다. 여기서 영상 인터페이스부(580)는 LVDS 출력부(Low Voltage Differential Signaling Tx)일 수 있다.
도 15는 60Hz의 Side-by-Side의 포맷의 입체영상 데이터가 입력된 일실시예를 도시한 도면이다. 도 16은 도 15에 도시된 입체영상 데이터의 프레임 레이트가 조절된 일실시예를 도시한 도면이며, 도 17은 도 16에 도시된 입체영상 데이터를 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성한 일실시예를 도시한 도면이다.
도 15 내지 도 17을 참조하면, FRC(560)는 Side-by Side 포맷의 프레임 레이트가 60Hz의 입체영상 데이터(1500)를 수신할 수 있다. 여기서 입체영상 데이터(1500)는 입체영상 프레임(1510), 입체영상 프레임(1520) 및 입체영상 프레임(1550)의 포함한다. 또한 입체영상 프레임(1510)은 좌안 시점 영상 데이터(L1) 및 우안 시점 영상 데이터(R1)을 포함하고, 입체영상 프레임(1520)은 좌안 시점 영상 데이터(L2) 및 우안 시점 영상 데이터(R2)을 포함하며, 입체영상 프레임(1550)은 좌안 시점 영상 데이터(L3) 및 우안 시점 영상 데이터(R3)을 포함한다.
출력 프레임 레이트가 240Hz인 경우에, FRC(560)는 입체영상 데이터(1500)의 프레임 레임트를 120Hz로 변환하면서 입체영상 프레임을 생성하고, 생성한 입체영상 프레임을 입체영상 데이터(1500)의 중간에 삽입할 수 있다. 즉 FRC(560)는 입체영상 프레임(1610), 입체영상 프레임(1620) 및 입체영상 프레임(1650)을 생성한다. 여기서 입체영상 프레임(1610), 입체영상 프레임(1620) 및 입체영상 프레임(1650)은 도 6에서 전술된 방법으로 생성될 수 있다. 그리고 FRC(560)는 입체영상 프레임(1610)을 입체영상 프레임(1510) 및 입체영상 프레임(1520) 사이에 삽입하고, 입체영상 프레임(1620)을 입체영상 프레임(1520) 다음에 삽입하며, 입체영상 프레임(1650)을 입체영상 프레임(1550) 다음에 삽입하여, 입체영상 데이터(1500)를 입체영상 데이터(1600)로 변환한다.
FRC(560)는 프레임 레이트를 120Hz로 변환시킨 입체영상 데이터(1600)를 포맷터(570)로 출력한다. 여기서 FRC(560)는 입체영상 프레임(1620)을 생성하는 것과 동시에 입체영상 프레임(1620) 이전에 위치하는 입체영상 프레임(1510), 입체영상 프레임(1610) 및 입체영상 프레임(1520)을 순차적으로 출력할 수 있다.
포맷터(570)는 FRC(560)가 출력한 입체영상 데이터(1600)에 포함된 입체영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성한다. 여기서 상기 생성된 제1 영상 프레임 및 제2 영상 프레임은 도 8 내지 도 13에 도시된 제1 영상 프레임 및 제2 영상 프레임일 수 있다.
포맷터(570)는 입체영상 프레임(1510)을 이용하여 제1 영상 프레임(1511) 및 제2 영상 프레임(1512)을 생성한다. 다음으로, 포맷터(570)는 입체영상 프레임(1610)을 이용하여 제1 영상 프레임(1611) 및 제2 영상 프레임(1612)을 생성한다. 다음으로, 포맷터(570)는 입체영상 프레임(1520)을 이용하여 제1 영상 프레임(1521) 및 제2 영상 프레임(1522)을 생성한다.
다음으로, 포맷터(570)는 입체영상 프레임(1620)을 이용하여 제1 영상 프레임(1621) 및 제2 영상 프레임(1622)을 생성한다. 그리고, 포맷터(570)는 입체영상 프레임(1550)이 수신되면, 입체영상 프레임(1550)을 이용하여 제1 영상 프레임(1551) 및 제2 영상 프레임(1552)을 생성한다. 다음으로, 포맷터(570)는 입체영상 프레임(1650)을 이용하여 제1 영상 프레임(1651) 및 제2 영상 프레임(1652)을 생성한다.
도 18은 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 일실시예의 수행과정을 도시한 흐름도이다.
도 18을 참조하면, 포맷터(570)는 입체영상 데이터를 수신한다(S100). 상기 입체영상 데이터는 수신부(101), 스케일러(540), 믹서(550) 및 FRC(560)로부터 출력된 것일 수 있고, 도 3 및 도 4에서 전술된 포맷을 가질 수 있다. 여기서 포맷터(570)는 상기 입체영상 데이터에 포함된 입체영상 프레임을 순차적으로 수신할 수 있다. 상기 입체영상 프레임은 도 7에 도시된 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(710)을 포함할 수 있다.
포맷터(570)는 수신된 입체영상 데이터를 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성한다(S110). 여기서 제1 영상 프레임 및 제2 영상 프레임은 도 8 내지 도 13에 도시된 제1 영상 프레임 및 제2 영상 프레임일 수 있다. 도 16 및 도 17에 전술된 방법에 따라 포맷터(570)는 하나의 입체영상 프레임을 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다.
디스플레이(150)는 포맷터(570)가 생성한 제1 영상 프레임 및 제2 영상 프레임을 스캔한다(S120). 여기서 디스플레이(150)는 출력 프레임 레이트에 따라 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔할 수 있다.
도 19는 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 다른 실시예의 수행과정을 도시한 흐름도이다.
도 19를 참조하면, 포맷터(570)는 입체영상 데이터를 수신한다(S200). 상기 입체영상 데이터는 수신부(101), 스케일러(540), 믹서(550) 및 FRC(560)로부터 출력된 것일 수 있고, 도 3 및 도 4에서 전술된 포맷을 가질 수 있다. 여기서 포맷터(570)는 상기 입체영상 데이터에 포함된 입체영상 프레임을 순차적으로 수신할 수 있다. 상기 입체영상 프레임은 도 7에 도시된 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(710)을 포함할 수 있다.
포맷터(570)는 수신된 입체영상 데이터에 대한 수직 방향 필터링을 수행한다(S210). 포맷터(570)는 수신된 입체영상 데이터에 포함된 입체영상 프레임의 홀수 라인 데이터 및 짝수 라인 데이터에 대한 수직 방향 필터링을 수행할 수 있다. 또한 포맷터(570)는 수학식 1의 수직 방향 필터링을 수행할 수 할 수 있다.
포맷터(570)는 수직 방향 필터링된 입체영상 데이터를 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성한다(S220). 여기서 제1 영상 프레임 및 제2 영상 프레임은 도 8 내지 도 13에 도시된 제1 영상 프레임 및 제2 영상 프레임일 수 있다. 도 16 및 도 17에 전술된 방법에 따라 포맷터(570)는 하나의 입체영상 프레임을 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다.
디스플레이(150)는 포맷터(570)가 생성한 제1 영상 프레임 및 제2 영상 프레임을 스캔한다(S230). 여기서 디스플레이(150)는 출력 프레임 레이트에 따라 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔할 수 있다.
도 20은 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 또 다른 일실시예의 수행과정을 도시한 흐름도이다.
도 20을 참조하면, FRC(560)는 입체영상 데이터를 수신한다(S300). 상기 입체영상 데이터는 수신부(101), 스케일러(540) 및 믹서(550)로부터 출력된 것일 수 있고, 도 3 및 도 4에서 전술된 포맷을 가질 수 있다.
FRC(560)는 수신된 입체영상 데이터의 프레임 레이트를 조절한다(S310). 여기서 FRC(560)는 상기 입체영상 데이터의 프레임 레이트를 출력 프레임 레이트의 반으로 조절할 수 있다. 즉 FRC(560)는 표 1에 도시된 예에 따라 상기 입체영상 데이터의 프레임 레이트를 조절할 수 있다. 또한 FRC(560)는 도 6에 도시된 방식으로 프레임 레이트를 조절할 수 있다. 또한 FRC(560)은 도 15 및 도 16에 전술된 방법에 따라 입체영상 프레임을 생성하고 생성한 입체영상 프레임을 상기 입체영상 데이터에 삽입하여 프레임 레이트를 조절할 수 있다.
포맷터(570)는 프레임 레이트가 조절된 입체영상 데이터를 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성한다(S320). 여기서 포맷터(570)는 상기 입체영상 데이터에 포함된 입체영상 프레임을 FRC(560)로부터 순차적으로 수신할 수 있다. 상기 입체영상 프레임은 도 7에 도시된 좌안 시점 영상 프레임(710) 및 우안 시점 영상 프레임(710)을 포함할 수 있다.
또한 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 도 8 내지 도 13에 도시된 제1 영상 프레임 및 제2 영상 프레임일 수 있다. 도 16 및 도 17에 전술된 방법에 따라 포맷터(570)는 하나의 입체영상 프레임을 이용하여 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다.
또한 포맷터(570)는 상기 입체영상 데이터에 대한 수직 방향 필터링을 수행하고, 수직 방향 필터링된 입체영상 데이터를 이용하여 상기 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다.
디스플레이(150)는 포맷터(570)가 생성한 제1 영상 프레임 및 제2 영상 프레임을 스캔한다(S330). 여기서 디스플레이(150)는 출력 프레임 레이트에 따라 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.

Claims (20)

  1. 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함하는 입체영상 데이터를 수신하는 단계;
    상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터를 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성하며, 여기서 상기 제1 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 제1 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 제2 화소 데이터를 포함하며, 상기 제 2 영상 프레임은 홀수 라인에 상기 하나의 제3 화소 데이터를 포함하고, 짝수 라인에 상기 다른 하나의 제4 화소 데이터를 포함하는 단계; 및
    상기 제1 영상 프레임 및 제2 영상 프레임을 출력하는 단계를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  2. 제 1항에 있어서,
    상기 제1 화소 데이터는 홀수 라인 데이터이고, 상기 제2 화소 데이터는 홀수 라인 데이터이며, 상기 제3 화소 데이터는 짝수 라인 데이터이고, 상기 제4 화소 데이터는 짝수 라인 데이터인 것을 특징으로 하는 입체영상 재생 방법.
  3. 제 1항에 있어서,
    상기 제1 화소 데이터는 홀수 라인 데이터이고, 상기 제2 화소 데이터는 짝수 라인 데이터이며, 상기 제3 화소 데이터는 짝수 라인 데이터이고, 상기 제4 화소 데이터는 홀수 라인 데이터인 것을 특징으로 하는 입체영상 재생 방법.
  4. 제 1항에 있어서,
    상기 제1 화소 데이터는 짝수 라인 데이터이고, 상기 제2 화소 데이터는 짝수 라인 데이터이며, 상기 제3 화소 데이터는 홀수 라인 데이터이고, 상기 제4 화소 데이터는 홀수 라인 데이터인 것을 특징으로 하는 입체영상 재생 방법.
  5. 제 1항에 있어서,
    상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것을 특징으로 하는 입체영상 재생 방법.
  6. 제 5항에 있어서,
    상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 짝수 라인 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 홀수 라인 데이터인 것을 특징으로 하는 입체영상 재생 방법.
  7. 제 5항에 있어서,
    상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 홀수 라인 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 짝수 라인 데이터인 것을 특징으로 하는 입체영상 재생 방법.
  8. 제 1항에 있어서,
    상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것을 특징으로 하는 입체영상 재생 방법.
  9. 제 1항에 있어서,
    상기 생성하는 단계는,
    상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터를 수직 방향 필터링하는 단계를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  10. 제 9항에 있어서,
    상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터의 해상도는 720×480p, 1280×720p, 1920×1080i, 1920×1080p 및 4k×2k중 하나이고, 상기 해상도가 720×480p인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 720×480p이고, 상기 해상도가 1280×720p인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1280×720p이며, 상기 해상도가 1920×1080i 및 1920×1080p 중 하나인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1920×1080p이고, 상기 해상도가 4k×2k인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 4k×2k인 것을 특징으로 하는 입체영상 재생 방법.
  11. 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함하는 입체영상 데이터를 수신하는 단계;
    상기 좌인 시점 영상 데이터 및 상기 우안 시점 영상 데이터 각각의 프레임 레이트를 출력 프레임 레이트의 반으로 조절하는 단계;
    상기 조절된 좌안 시점 영상 데이터 및 조절된 상기 우안 시점 영상 데이터를 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성하며, 여기서 상기 제1 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 제1 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 제2 화소 데이터를 포함하며, 상기 제 2 영상 프레임은 홀수 라인에 상기 하나의 제3 화소 데이터를 포함하고, 짝수 라인에 상기 다른 하나의 제4 화소 데이터를 포함하는 단계; 및
    상기 제1 영상 프레임 및 제2 영상 프레임을 출력하는 단계를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  12. 좌안 시점 영상 데이터 및 우안 시점 영상 데이터를 포함하는 영상 데이터를 수신하는 수신부;
    홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 제1 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 제2 화소 데이터를 포함하는 제1 영상 프레임 및 홀수 라인에 상기 하나의 제3 화소 데이터를 포함하고, 짝수 라인에 상기 다른 하나의 제4 화소 데이터를 포함하는 제2 영상 프레임을 생성하는 포맷터; 및
    상기 생성된 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 디스플레이를 포함하는 것을 특징으로 하는 전자 장치.
  13. 제 12항에 있어서,
    상기 제1 화소 데이터는 홀수 라인 데이터 및 짝수 라인 데이터 중 하나이고,
    상기 제1 화소 데이터가 홀수 라인 데이터인 경우에는, 상기 제2 화소 데이터는 홀수 라인 데이터이며, 상기 제3 화소 데이터는 짝수 라인 데이터이고, 상기 제4 화소 데이터는 짝수 라인 데이터이며,
    상기 제1 화소 데이터가 짝수 라인 데이터인 경우에는, 상기 제2 화소 데이터는 짝수 라인 데이터이며, 상기 제3 화소 데이터는 홀수 라인 데이터이고, 상기 제4 화소 데이터는 홀수 라인 데이터인 것을 특징으로 하는 전자 장치.
  14. 제 12항에 있어서,
    상기 제1 화소 데이터는 홀수 라인 데이터이고, 상기 제2 화소 데이터는 짝수 라인 데이터이며, 상기 제3 화소 데이터는 짝수 라인 데이터이고, 상기 제4 화소 데이터는 홀수 라인 데이터인 것을 특징으로 하는 전자 장치.
  15. 제 12항에 있어서,
    상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것을 특징으로 하는 전자 장치.
  16. 제 15항에 있어서,
    상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 짝수 라인 데이터 및 홀수 라인 데이터 중 하나이고,
    상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터가 짝수 라인 데이터인 경우에는, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 홀수 라인 데이터이고,
    상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터가 홀수 라인 데이터인 경우에는, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 짝수 라인 데이터인 것을 특징으로 하는 전자 장치.
  17. 제 12항에 있어서,
    상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것을 특징으로 하는 전자 장치.
  18. 제 12항에 있어서,
    상기 포맷터는,
    상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터를 수직 방향 필터링하는 것을 특징으로 하는 전자 장치.
  19. 제 12항에 있어서,
    상기 좌안 시점 영상 데이터 및 상기 우안 시점 영상 데이터의 해상도는 720×480p, 1280×720p, 1920×1080i, 1920×1080p 및 4k×2k중 하나이고, 상기 해상도가 720×480p인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 720×480p이고, 상기 해상도가 1280×720p인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1280×720p이며, 상기 해상도가 1920×1080i 및 1920×1080p 중 하나인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1920×1080p이고, 상기 해상도가 4k×2k인 경우에는, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 4k×2k인 것을 특징으로 하는 전자 장치.
  20. 제 12항에 있어서,
    상기 좌인 시점 영상 데이터 및 상기 우안 시점 영상 데이터 각각의 프레임 레이트를 출력 프레임 레이트의 반으로 조절하는 프레임 레이트 변환부를 더 포함하는 것을 특징으로 하는 전자 장치.
KR1020110014769A 2010-02-22 2011-02-18 전자 장치 및 입체영상 재생 방법 KR20110096494A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/KR2011/001159 WO2011102699A2 (ko) 2010-02-22 2011-02-22 전자 장치 및 입체영상 재생 방법
CN201180019654.3A CN102844696B (zh) 2010-02-22 2011-02-22 电子装置和再现三维图像的方法
US13/031,947 US9392253B2 (en) 2010-02-22 2011-02-22 Electronic device and method for displaying stereo-view or multiview sequence image
EP11744941.3A EP2541305A4 (en) 2010-02-22 2011-02-22 ELECTRONIC DEVICE AND METHOD FOR PLAYING THREE-DIMENSIONAL IMAGES

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US30690910P 2010-02-22 2010-02-22
US61/306,909 2010-02-22

Publications (1)

Publication Number Publication Date
KR20110096494A true KR20110096494A (ko) 2011-08-30

Family

ID=44931719

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110014769A KR20110096494A (ko) 2010-02-22 2011-02-18 전자 장치 및 입체영상 재생 방법

Country Status (5)

Country Link
US (1) US9392253B2 (ko)
EP (1) EP2541305A4 (ko)
KR (1) KR20110096494A (ko)
CN (1) CN102844696B (ko)
WO (1) WO2011102699A2 (ko)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110134211A1 (en) * 2009-12-08 2011-06-09 Darren Neuman Method and system for handling multiple 3-d video formats
US9049426B2 (en) * 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
KR20120020627A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 3d 영상 포맷을 이용한 영상 처리 장치 및 방법
US8786685B1 (en) * 2010-09-15 2014-07-22 Rockwell Collins, Inc. Full-resolution single-LCD stereoscopic display
KR101814798B1 (ko) * 2011-01-26 2018-01-04 삼성전자주식회사 입체영상 처리 장치 및 방법
US8953016B2 (en) * 2011-09-01 2015-02-10 Mediatek Inc. Apparatus and method for generating polarized video stream according to multi-view video stream and motion information derived from multi-view video stream
CN102540574B (zh) * 2012-02-29 2014-06-25 深圳市华星光电技术有限公司 三维显示面板及三维显示系统
CN102724539B (zh) * 2012-06-11 2016-08-10 京东方科技集团股份有限公司 一种3d显示方法及显示装置
CN102752617B (zh) * 2012-07-09 2015-02-18 京东方科技集团股份有限公司 一种3d显示方法及显示装置
KR102219419B1 (ko) * 2013-03-12 2021-02-24 한국전자통신연구원 비대칭 종횡비 영상을 이용한 3d 방송 서비스 제공 방법 및 장치, 그리고, 3d 방송 서비스 재생 방법 및 장치
JP2014225718A (ja) * 2013-05-15 2014-12-04 ソニー株式会社 画像処理装置および画像処理方法
US9967546B2 (en) 2013-10-29 2018-05-08 Vefxi Corporation Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
US20150116458A1 (en) 2013-10-30 2015-04-30 Barkatech Consulting, LLC Method and apparatus for generating enhanced 3d-effects for real-time and offline appplications
US20150253974A1 (en) 2014-03-07 2015-09-10 Sony Corporation Control of large screen display using wireless portable computer interfacing with display controller
CN104065944B (zh) * 2014-06-12 2016-08-17 京东方科技集团股份有限公司 一种超高清三维转换装置及三维显示系统
US10158847B2 (en) 2014-06-19 2018-12-18 Vefxi Corporation Real—time stereo 3D and autostereoscopic 3D video and image editing
CN106888373A (zh) * 2017-03-29 2017-06-23 京东方科技集团股份有限公司 一种三维图像的处理装置及处理系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0870475A (ja) * 1994-06-23 1996-03-12 Sanyo Electric Co Ltd 立体動画像の符号化・復号化方法及び装置
US5767898A (en) * 1994-06-23 1998-06-16 Sanyo Electric Co., Ltd. Three-dimensional image coding by merger of left and right images
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
DE19652803C1 (de) 1996-12-18 1998-06-18 Siemens Nixdorf Inf Syst Verfahren und Schaltungsanordnung zum Konvertieren des Bildformates von mit Zeilenpolarisation hergestellten dreidimensionalen elektronischen Bildern
US20020009137A1 (en) * 2000-02-01 2002-01-24 Nelson John E. Three-dimensional video broadcasting system
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
JP4341751B2 (ja) 2004-02-17 2009-10-07 誠次郎 富田 立体映像記録・再生方法並びにこれを表示する立体映像表示装置
US7670004B2 (en) 2006-10-18 2010-03-02 Real D Dual ZScreen® projection
TWI319677B (en) * 2006-10-20 2010-01-11 Quanta Comp Inc Method for displaying stereoscopic image and display system thereof
EP2393301A1 (en) * 2007-06-11 2011-12-07 Samsung Electronics Co., Ltd. Method and apparatus for generating header information of stereoscopic image
EP2213093B1 (en) * 2007-10-19 2015-10-14 Samsung Electronics Co., Ltd. Method of recording three-dimensional image data
US8289998B2 (en) * 2009-02-13 2012-10-16 Samsung Electronics Co., Ltd. Method and apparatus for generating three (3)-dimensional image data stream, and method and apparatus for receiving three (3)-dimensional image data stream
KR101372376B1 (ko) * 2009-07-07 2014-03-14 경희대학교 산학협력단 디지털 방송 시스템의 스테레오스코픽 비디오 수신 방법
US8643698B2 (en) * 2009-08-27 2014-02-04 Broadcom Corporation Method and system for transmitting a 1080P60 video in 1080i format to a legacy 1080i capable video receiver without resolution loss

Also Published As

Publication number Publication date
EP2541305A2 (en) 2013-01-02
WO2011102699A2 (ko) 2011-08-25
WO2011102699A3 (ko) 2011-12-29
US9392253B2 (en) 2016-07-12
CN102844696A (zh) 2012-12-26
EP2541305A4 (en) 2015-04-08
CN102844696B (zh) 2015-11-25
US20110254929A1 (en) 2011-10-20

Similar Documents

Publication Publication Date Title
KR20110096494A (ko) 전자 장치 및 입체영상 재생 방법
CN102223555B (zh) 图像显示装置及其控制方法
US20140333739A1 (en) 3d image display device and method
EP2384010B1 (en) Method for controlling operations of image display apparatus and shutter glasses used for the image display apparatus
US20130038611A1 (en) Image conversion device
US20130229409A1 (en) Image processing method and image display device according to the method
EP2424259A2 (en) Stereoscopic video display system with 2D/3D shutter glasses
EP2418568A1 (en) Apparatus and method for reproducing stereoscopic images, providing a user interface appropriate for a 3d image signal
US20120224035A1 (en) Electronic apparatus and image processing method
JP5025768B2 (ja) 電子機器及び画像処理方法
KR101741432B1 (ko) 영상표시장치 및 그 동작방법
US9117387B2 (en) Image display apparatus and method for operating the same
KR20120102947A (ko) 전자 장치 및 입체영상 디스플레이 방법
KR101781850B1 (ko) 전자 장치 및 입체영상 재생 방법
KR101804912B1 (ko) 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법
KR101913252B1 (ko) 입체영상 처리 장치 및 입체영상 디스플레이 방법
KR20110114994A (ko) 2d/3d 변환 가능한 영상표시장치와 그 동작제어방법
KR20140055124A (ko) 영상표시장치, 및 그 동작방법
KR102014149B1 (ko) 영상표시장치, 및 그 동작방법
KR20120140425A (ko) 입체영상 처리 장치 및 입체영상 처리 방법
KR20130011384A (ko) 3차원 영상 처리 장치 및 3차원 영상 처리 장치의 설정값을 조절하기 위한 방법
KR20130010612A (ko) 입체영상 디스플레이 장치 및 방법
KR101878808B1 (ko) 영상표시장치 및 그 동작 방법
KR20140057058A (ko) 영상표시장치, 및 그 동작방법
KR20140079107A (ko) 영상표시장치, 및 그 동작방법

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application