KR20120063388A - 전자 장치 및 입체영상 재생 방법 - Google Patents

전자 장치 및 입체영상 재생 방법 Download PDF

Info

Publication number
KR20120063388A
KR20120063388A KR1020100124522A KR20100124522A KR20120063388A KR 20120063388 A KR20120063388 A KR 20120063388A KR 1020100124522 A KR1020100124522 A KR 1020100124522A KR 20100124522 A KR20100124522 A KR 20100124522A KR 20120063388 A KR20120063388 A KR 20120063388A
Authority
KR
South Korea
Prior art keywords
image frame
eye view
image
line
pixel data
Prior art date
Application number
KR1020100124522A
Other languages
English (en)
Other versions
KR101781850B1 (ko
Inventor
김희재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100124522A priority Critical patent/KR101781850B1/ko
Publication of KR20120063388A publication Critical patent/KR20120063388A/ko
Application granted granted Critical
Publication of KR101781850B1 publication Critical patent/KR101781850B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

전자 장치 및 입체영상 재생 방법이 개시한다. 수신부는 제1 해상도를 갖는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신한다. 포맷터는 홀수 라인에 수신부가 수신한 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 제1 해상도 또는 제1 해상도와 대응하는 프로그레시브 해상도를 갖는 제1 영상 프레임 및 제2 영상 프레임을 생성한다. 디스플레이는 포맷터가 생성한 영상 프레임을 스캔한다.

Description

전자 장치 및 입체영상 재생 방법{Electronic device and method for displying stereo-view or multiview sequence image}
본 발명은 전자 장치 및 입체영상 재생 방법에 관한 것으로, 보다 상세하게는, 2안식 입체영상 기술 또는 다안식 입체영상 기술에 있어서 입체영상을 처리할 수 있는 전자 장치 및 입체영상 재생 방법에 관한 것이다.
상용화된 3D 컨텐츠 및 3D 방송의 경우 양안시차(binocular disparity)를 이용한 방식이 주를 이룬다. 양안시차는 사람이 두 눈을 이용하여 하나의 피사체를 볼 때, 왼쪽 눈으로 보는 영상과 오른쪽 눈으로 보는 영상 사이에 두 눈의 간격에 해당하는 만큼 수평으로 존재하는 위치 차이를 말한다. 따라서 사람의 두 눈에 보이는 실제 영상과 동일한 영상을 두 눈에 입력할 수 있다면 영상을 입체적으로 느낄 수 있게 된다. 이에 따라, 실제 피사체를 양안 카메라로 찍어 영상을 얻거나 CG(Computer Graphic) 피사체의 경우 양안 카메라 형태로 사상하여 영상을 생성하고, 생성된 영상을 사용자의 양쪽 눈에 보여줌으로써 입체감을 제공할 수 있다.
본 발명이 이루고자 하는 기술적 과제는 인터레이스 해상도를 갖는 입체영상 데이터를 디인터레이스하지 않고 재생할 수 있는 전자 장치 및 입체영상 재생 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 기술적 과제는 Full-HD 입체영상을 1920x1080i로 표시할 수 있는 전자 장치 및 입체영상 재생 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 기술적 과제는 입체영상의 종류 및 사용자에 맞추어 적절한 입체영상 재생 방법을 선택할 수 있는 전자 장치 및 입체영상 재생 방법을 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 입체영상 재생 방법은, 제1 해상도를 갖는 좌안 시점 영상 프레임 및 상기 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신하는 단계, 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성하는 단계, 여기서 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 상기 제1 해상도 또는 상기 제1 해상도와 대응하는 프로그레시브 해상도를 갖고, 및 상기 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 단계를 포함할 수 있다.
상기 스캔하는 단계는, 상기 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 상기 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 단계를 포함할 수 있다.
상기 스캔하는 단계는, 상기 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 단계를 포함할 수 있다.
상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성할 수 있다.
상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것일 수 있다.
상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 두 번째 라인의 화소 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 세 번째 라인의 화소 데이터일 수 있다.
상기 제2 영상 프레임의 첫 라인은 상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함할 수 있다.
상기 제1 해상도는 1920×1080i 및 1920×1080p 중 하나이고, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1920×1080p인 것일 수 있다.
상기의 입체영상 재생 방법은 수신된 방송 정보 및 저장된 설정 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인하는 단계, 상기 입체영상 재생 모드가 디인터레이스 모드인 경우에는, 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 디인터레이스하는 단계, 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성하는 단계 및 상기 생성된 제3 영상 프레임을 스캔하는 단계를 더 포함하고, 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 생성하는 단계는 상기 입체영상 재생 모드가 인터레이스 모드인 경우에 수행되는 것일 수 있다.
상기의 입체영상 재생 방법은 상기 설정 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지하는 단계, 및 상기 사용자 조치의 감지에 응답하여, 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면을 디스플레이하는 단계를 더 포함할 수 있다.
상기의 다른 기술적 과제를 달성하기 위한, 본 발명에 따른 전자 장치는, 제1 해상도를 갖는 좌안 시점 영상 프레임 및 상기 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신하는 수신부, 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 상기 제1 해상도 또는 상기 제1 해상도와 대응하는 프로그레시브 해상도를 갖는 제1 영상 프레임 및 제2 영상 프레임을 생성하는 포맷터, 및 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 디스플레이를 포함할 수 있다.
상기 디스플레이는, 상기 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔할 수 있다.
상기 디스플레이는, 상기 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔할 수 있다.
상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것일 수 있다.
상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것일 수 있다.
상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 두 번째 라인의 화소 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 세 번째 라인의 화소 데이터일 수 있다.
상기 제2 영상 프레임의 첫 라인은 상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함할 수 있다.
상기 제1 해상도는 1920×1080i 및 1920×1080p 중 하나이고, 상기 생성된 영상 프레임의 해상도는 1920×1080p일 수 있다.
상기 전자 장치는 수신된 방송 정보 및 저장된 설정 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인하는 제어부 및 상기 확인 결과에 따라 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임에 디인터레이스를 더 수행하는 스케일러를 더 포함하고, 상기 포맷터는, 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성하고, 상기 디스플레이부는, 상기 제3 영상 프레임을 스캔할 수 있다.
상기 제어부는, 상기 설정 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지하는 하고, 상기 사용자 조치의 감지에 응답하여, 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면이 디스플레이되도록 제어할 수 있다.
본 발명에 따른 전자 장치 및 입체영상 재생 방법에 의하면, 디인터레이스를 수행하지 않고 입체영상 데이터를 처리할 수 있어, 디인터레이스로 인한 화질 저하를 방지할 수 있고 보다 신속하게 입체영상 데이터를 재생할 수 있으며, 디인터레이스를 위한 하드웨어 모듈이 요구되지 않아 보다 저렴한 비용으로 전자 장치를 제작할 수 있고, Full-HD 입체영상을 1920x1080i로 표시할 수 있다. 또한 사용자가 설정한 정보에 따라 입체영상 재생 방법을 선택하므로, 사용자는 개개인의 기호에 맞추어 입체영상을 재생할 수 있고, 수신된 방송 정보에 따라 입체영상 재생 방법을 선택하므로, 입체영상의 종류에 따라 적정한 방법으로 입체영상을 재생할 수 있다.
도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 2는 양안시차 방식을 도시한 도면,
도 3은 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함한 영상 데이터의 포맷들을 도시한 도면,
도 4는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도,
도 5는 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제1 실시예가 도시된 도면,
도 6은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제2 실시예가 도시된 도면,
도 7은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제3 실시예가 도시된 도면,
도 8은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제4 실시예가 도시된 도면,
도 9a 및 도 9b는 인터레이스 모드일 때의 입체영상 재생 방법을 설명하기 위한 도면,
도 10은 디인터레이스 모드일 때의 입체영상 재생 방법을 설명하기 위한 도면,
도 11은 입체영상 재생 모드를 설정하기 위한 화면의 일실시예가 도시된 도면, 그리고,
도 12는 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 일실시예의 수행과정을 도시한 흐름도이다.
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당해 기술분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
도 1은 본 발명에 따른 전자 장치에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명에 따른 전자 장치(100)는 수신부(101), 신호 처리부(140), 디스플레이(150), 음성 출력부(160), 입력장치(170), 저장부(180) 및 제어부(190)를 포함할 수 있다. 전자 장치(100)는 데스크톱, 랩톱, 태블릿 또는 핸드헬드 컴퓨터 등의 퍼스널 컴퓨터 시스템일 수 있다. 또한 전자 장치(100)는 휴대폰, 스마트폰(smart phone), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이션 등과 같은 이동 단말기일 수 있고, 디지털 TV 같은 고정형 가전기기일 수 있다.
수신부(101)는 방송 데이터, 영상 데이터, 음성 데이터, 정보 데이터, 프로그램 코드를 수신할 수 있다. 여기서 영상 데이터는 양안시차 방식의 입체영상 데이터일 수 있다. 입체영상 데이터는 스테레오 시점 영상 또는 다시점 영상일 수 있다. 즉 입체영상 데이터는 적어도 하나의 좌안 시점 영상 데이터와 적어도 하나의 우안 시점 영상 데이터를 포함할 수 있다. 또한 입체영상 데이터는 사이드 바이 사이드(side by side) 포맷, 탑 앤 바텀(top and bottom) 포맷, 체커 보드(checker board) 포맷 및 프레임 시퀀셜(Frame sequential) 포맷 중 하나의 포맷을 가질 수 있다.
도 2는 양안시차 방식을 도시한 도면이고, 도 3은 좌안 시점 영상 데이터와 우안 시점 영상 데이터를 포함한 영상 데이터의 포맷들을 도시한 도면이다.
도 2 및 도 3을 참조하면, 양안시차 방식은 양안 카메라 등으로 촬상된 적어도 좌안 시점 영상(201) 및 우안 시점 영상(202)을 시청자의 양 눈(211, 212)에 각각 보여줌으로써 공간감 또는 입체감을 제공하는 3차원 디스플레이 방식이다. 좌안 시점 영상(201) 및 우안 시점 영상(202)의 양안 시차에 따라 시청자에게 제공되는 공간감 또는 입체감이 달라진다.
좌안 시점 영상(201) 및 우안 시점 영상(202)의 간격이 좁을수록, 좌안(211) 및 우안(212)로부터 먼 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 작아질 수 있다. 또한 좌안 시점 영상(201) 및 우안 시점 영상(202)의 간격이 넓을수록, 좌안(211) 및 우안(212)으로부터 가까운 거리에서 상이 맺히는 것으로 인식되어, 시청자에게 제공되는 공간감 또는 입체감이 커질 수 있다.
사이드 바이 사이드(side by side) 포맷(310)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(311)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(312)가 사람의 좌안과 우안에 각각 서로 직교하도록 나란히 입력되는 포맷이다. 사이드 바이 사이드 포맷의 영상 프레임(310)에는 하나의 좌안 시점 영상 프레임(311) 및 하나의 우안 시점 영상 프레임(312)이 나란히 배치된다.
탑 앤 바텀(top and bottom) 포맷(320)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(321)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(322)가 상하로 입력되는 포맷이다. 탑 앤 바텀 포맷의 영상 프레임(320)에는 하나의 좌안 시점 영상 프레임(321) 및 하나의 우안 시점 영상 프레임(322)이 상하로 배치된다.
체커 보드(checker board) 포맷(330)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(331)와 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(332)가 체스판 모양으로 시간적으로 번갈아 입력되는 포맷이다. 체커 보드 포맷의 영상 프레임(330)에는 좌안 시점 영상(201)의 화소 데이터와 우안 시점 영상(202)의 화소 데이터가 체스판 모양으로 시간적으로 번갈아 배치된다.
프레임 시퀀셜(Frame sequential) 포맷(340)은 좌안 시점 영상(201)을 디스플레이하는 좌안 시점 영상 데이터(341) 및 우안 시점 영상(202)을 디스플레이하는 우안 시점 영상 데이터(342)가 시간차를 두어 입력되는 방식이다. 프레임 시퀀셜 포맷에서 하나의 좌안 시점 영상 프레임(341) 및 하나의 우안 시점 영상 프레임(342)이 하나의 독립된 영상 프레임으로 수신된다.
수신부(101)는 튜너부(110), 복조부(120), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(130)를 포함할 수 있다. 또한 수신부(101)는 입체영상 재생 모드 정보를 수신할 수 있다. 즉 튜너부(110), 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)는 입체감 설정 정보를 수신할 수 있다. 또한 입체영상 재생 모드 정보는 방송 정보에 포함되어 전송될 수 있다. 일예로, 입체감 설정 정보는 DVB SI 표준의 EIT(Event Information Table)에 포함되어 전송될 수 있고, BCG 디스커버리 레코드(Broadband Content Guide Discovery Record)에 포함되어 전송될 수 있다.
튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널에 해당하는 RF 방송 신호를 선택하고, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환한다.
복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. 일예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우에는, 복조부(120)는 8-VSB(8-Vestigial Side Band) 복조를 수행한다. 또 다른 예로, 튜너부(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다.
또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.
복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일 수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.
복조부(120)에서 출력한 스트림 신호는 신호처리부(140)로 입력될 수 있다.
이동통신부(115)는 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
외부 신호 수신부(135)는 외부 장치와 전자 장치(100)를 연결할 수 있는 인터페이스를 제공할 수 있다. 여기서 외부 장치는 DVD(Digital Versatile Disk), 블루레이(Bluray), 게임기기, 켐코더, 컴퓨터(노트북) 등 다양한 종류의 영상 또는 음성 출력 장치를 의미할 수 있고, USB 메모리 또는 USB 하드 디스크 등의 저장 장치일 수 있다. 전자 장치(100)는 외부 신호 수신부(135)로부터 수신된 영상 신호 및 음성 신호를 디스플레이할 수 있고, 데이터 신호를 저장하거나 사용할 수 있다.
또한 외부 장치는 촬영 장치(90)일 수 있다. 촬영 장치(90)는 복수의 카메라를 포함할 수 있다. 촬영 장치(90)는 사람을 촬상할 수 있다. 촬영 장치(90)는 사람의 손 영역을 인식하여 손 영역에 초점을 맞추고, 줌인하여 촬상할 수 있다. 여기서 촬상된 손 모양은 공간 제스처로 인식될 수 있다. 즉 제어부(190)는 촬상된 손 모양을 공간 제스처로 인식하고 인식된 공간 제스처와 연관된 동작들을 수행하는 명령어들을 실행할 수 있다. 여기서 공간 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 촬영 장치(90)로부터 수신되는 영상 프레임 또는 영상으로부터 인식되는 제스처로 정의될 수 있다.
일부 실시예로, 전자 장치(100)는 촬영 장치(90)를 포함할 수 있다.
신호처리부(140)는 복조부(210)가 출력한 스트림 신호를 역다중화하고 역다중화된 신호에 신호 처리 등을 수행한 후, 디스플레이(150)로 영상을 출력하고, 음성 출력부(160)로 음향(161)을 출력한다. 또한 신호 처리부(140)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 수신부(135)로부터 영상 데이터, 음성 데이터 및 방송 데이터를 수신할 수 있다.
신호 처리부(140)는 제어부(190)로부터 입체영상 재생 모드를 나타내는 입체영상 재생 모드 신호를 수신할 수 있다. 그리고 신호 처리부(140)는 수신한 입체영상 재생 모드 신호에 따라 입체영상 데이터를 처리할 수 있다. 여기서, 입체영상 재생 모드는 인터레이스 모드 및 디인터레이스 모드 중 하나일 수 있다.
신호 처리부(140)는 수신부(101)로부터 수신된 입체영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 영상 프레임을 생성할 수 있다. 일부 실시예로, 신호 처리부(140)는 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 즉 신호 처리부(140)는 하나의 좌안 시점 영상 프레임 및 하나의 우안 시점 영상 프레임을 이용하여 두개의 영상 프레임을 생성한다. 또한 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 하나의 입체영상 이미지를 형성할 수 있다.
상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 좌안 시점 영상 프레임 및 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함할 수 있다. 또한 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 상기 좌안 시점 영상 데이터의 해상도와 동일한 해상도를 가질 수 있고 상기 좌안 시점 영상 데이터의 해상도와 대응하는 프로그레시브 해상도를 가질 수 있다.
일부 실시예로, 신호 처리부(140)는 수신된 입체영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스할 수 있다. 그리고 신호 처리부(140)는 디인터레이스된 좌안 시점 영상 프레임 및 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성할 수 있다.
신호 처리부(140)는 생성한 영상 프레임을 디스플레이(150)로 출력할 수 있다. 여기서 상기 생성한 영상 프레임은 제1 영상 프레임 및 제2 영상 프레임일 수 있고, 제3 영상 프레임일 수 있다.
디스플레이(150)는 영상(152)을 디스플레이한다. 여기서 영상(152)은 입체영상일 수 있고, 디스플레이(150)는 편광 방식(Patterned Retarder type)으로 입체영상을 디스플레이할 수 있다. 또한 입체영상(152)은 신호 처리부(140)가 생성한 제1 영상 프레임 및 제2 영상 프레임이 디스플레이된 것일 수 있고, 신호 처리부(140)가 생성한 제3 영상 프레임이 디스플레이된 것일 수 있다.
또한, 디스플레이(150)는 제어부(190)와 연결되어 동작할 수 있다. 디스플레이(150)는 전자 장치의 사용자와 운영 체제 또는 운영 체제 상에서 실행 중인 애플리케이션 간의 사용하기 쉬운 인터페이스를 제공하는 그래픽 사용자 인터페이스(GUI)(153)를 디스플레이할 수 있다. GUI(153)는 프로그램, 파일, 및 동작 옵션들을 그래픽 이미지로 표현한다. 그래픽 이미지는 윈도우, 필드, 대화상자, 메뉴, 아이콘, 버튼, 커서 및 스크롤바 등을 포함할 수 있다. 이러한 이미지는 미리 정의된 레이아웃으로 정렬될 수 있거나, 사용자가 취하고 있는 특정의 조치를 돕기 위해 동적으로 생성될 수 있다. 동작 동안에, 사용자는 여러 가지 그래픽 이미지와 연관된 기능 및 작업을 제기하기 위해 그 이미지를 선택 및 활성화할 수 있다. 예로서, 사용자는 윈도우의 열기, 닫기, 최소화, 또는 최대화를 행하는 버튼, 또는 특정 프로그램을 가동시키는 아이콘을 선택할 수 있다.
음성 출력부(160)는 신호 처리부(140) 및 제어부(190)로부터 음성 데이터를 수신하고 수신한 음성 데이터가 재생된 음향(161)을 출력할 수 있다.
입력장치(170)는 디스플레이(150) 상에 또는 그 전방에 배치되어 있는 터치 스크린일 수 있다. 터치 스크린은 디스플레이(150)와 일체로 되어 있거나 별개의 구성요소일 수 있다. 터치 스크린이 디스플레이(150)의 전방에 배치됨에 따라 사용자는 GUI(153)를 직접 조작할 수 있다. 예를 들어, 사용자는 단지 제어될 객체 상에 그의 손가락을 올려 놓을 수 있다. 터치패드에서는, 이것과 같은 일대일 관계가 없다.
터치패드에 있어서, 터치패드는 디스플레이(150)로부터 떨어져 일반적으로 다른 평면에 놓여 있다. 예를 들어, 디스플레이(150)는 일반적으로 수직 평면에 위치해 있고, 터치패드는 일반적으로 수평 평면에 위치해 있다. 이것은 그의 사용을 덜 직관적이게 하며, 따라서 터치 스크린과 비교할 때 더 어렵다. 터치 스크린인 것에 부가하여, 입력장치(170)는 다중점 입력장치일 수 있다.
저장부(180)는 일반적으로 전자 장치(100)에 의해 사용되는 프로그램 코드 및 데이터를 저장하는 장소를 제공한다. 또한 저장부(180)는 입체영상 재생 모드 정보를 저장할 수 있다. 여기서 입체영상 재생 모드 정보는 초기값으로 제공될 수 있고, 인식된 사용자 조치에 따라 설정 및 변경될 수 있다.
저장부(180)는 판독 전용 메모리(ROM), 랜덤 액세스 메모리(RAM), 하드 디스크 드라이브 등으로 구현될 수 있다. 프로그램 코드 및 데이터는 분리형 저장 매체에 존재할 수 있고, 필요할 때, 전자 장치(100) 상으로 로드 또는 설치될 수 있다. 여기서 분리형 저장 매체는 CD-ROM, PC-CARD, 메모리 카드, 플로피 디스크, 자기 테이프, 및 네트워크 컴포넌트를 포함할 수 있다.
제어부(190)는 명령어를 실행하고 전자 장치(100)와 연관된 동작을 수행한다. 예를 들면, 저장부(180)로부터 검색된 명령어를 사용하여, 제어부(190)는 전자 장치(100)의 컴포넌트들 간의 입력 및 출력, 데이터의 수신 및 처리를 제어할 수 있다. 제어부(190)는 단일 칩, 다수의 칩, 또는 다수의 전기 부품 상에 구현될 수 있다. 예를 들어, 전용 또는 임베디드 프로세서, 단일 목적 프로세서, 컨트롤러, ASIC, 기타 등등을 비롯하여 여러 가지 아키텍처가 제어부(190)에 대해 사용될 수 있다.
제어부(190)는 운영 체제와 함께 컴퓨터 코드를 실행하고 데이터를 생성 및 사용하는 동작을 한다. 운영 체제는 일반적으로 공지되어 있으며 이에 대해 보다 상세히 기술하지 않는다. 예로서, 운영 체제는 Window 계열 OS, Unix, Linux, Palm OS, DOS, 안드로이드 및 매킨토시 등일 수 있다. 운영 체제, 다른 컴퓨터 코드 및 데이터는 제어부(190)와 연결되어 동작하는 저장부(180) 내에 존재할 수 있다.
제어부(190)는 사용자 조치(User Action)를 인식하고 인식한 사용자 조치에 기초하여 전자 장치(100)를 제어할 수 있다. 여기서 사용자 조치는 전자 장치 또는 리모컨의 물리적인 버튼의 선택, 터치 스크린 디스플레이면상의 소정의 제스처의 실시 또는 소프트 버튼의 선택 및 촬상 장치로 촬영된 영상으로부터 인식되는 소정의 제스처의 실시 및 음성 인식에 의해 인식되는 소정의 발성의 실시를 포함할 수 있다. 외부 신호 수신부(135)는 리모컨의 물리적인 버튼을 선택하는 사용자 조치에 대한 신호를 리모컨을 통해 수신할 수 있다.
제스처는 터치 제스처와 공간 제스처를 포함할 수 있다. 터치 제스처는 하나 이상의 특정의 컴퓨팅 동작에 매핑되는, 입력장치(170)와의 양식화된 상호작용으로서 정의될 수 있다. 터치 제스처는 여러 가지 손을 통해, 보다 상세하게는 손가락 움직임을 통해 행해질 수 있다. 다른 대안으로서 또는 그에 부가하여, 제스처는 스타일러스로 행해질 수 있다.
입력장치(170)는 제스처(171)를 수신하고, 제어부(190)는 제스처(171)와 연관된 동작들을 수행하는 명령어들을 실행한다. 게다가, 저장부(180)는 운영 체제 또는 별도의 애플리케이션의 일부일 수 있는 제스처 작동 프로그램(181)을 포함할 수 있다. 제스처 작동 프로그램(181)은 일반적으로 제스처(171)의 발생을 인식하고 그 제스처(171) 및/또는 제스처(171)에 응답하여 무슨 조치(들)이 취해져야 하는지를 하나 이상의 소프트웨어 에이전트에게 알려주는 일련의 명령어를 포함한다.
사용자가 하나 이상의 제스처를 행할 때, 입력장치(170)는 제스처 정보를 제어부(190)로 전달한다. 저장부(180)로부터의 명령어, 보다 상세하게는 제스처 작동 프로그램(181)을 사용하여, 제어부(190)는 제스처(171)를 해석하고 저장부(180), 디스플레이(150), 음성 출력부(160), 신호 처리부(140), 네트워크 인터페이스부(130) 및 입력장치(170) 등의 전자 장치(100)의 서로 다른 컴포넌트를 제어한다. 제스처(171)는 저장부(180)에 저장된 애플리케이션에서의 동작을 수행하고, 디스플레이(150) 상에 나타난 GUI 객체를 수정하며, 저장부(180)에 저장된 데이터를 수정하고, 네트워크 인터페이스부(130), 신호 처리부(140)에서의 동작을 수행하는 명령으로서 식별될 수 있다. 예로서, 이들 명령은 줌잉, 패닝, 스크롤링, 페이지 넘김, 회전, 크기조정, 영상 채널 변경, 컨텐츠 수신, 인터넷 접속 등과 연관되어 있을 수 있다. 추가의 예로서, 명령은 또한 특정의 프로그램을 기동시키는 것, 파일 또는 문서를 여는 것, 메뉴를 보는 것, 선택을 하는 것, 명령어를 실행하는 것, 인터넷 사이트 시스템에 로그온하는 것, 인가된 개인에게 컴퓨터 시스템의 제한된 영역에의 액세스를 허용하는 것, 바탕화면의 사용자 선호 배열과 연관된 사용자 프로파일을 로드하는 것, 및/또는 기타 등등과 연관되어 있을 수 있다.
일부 실시예들에서, 손가락과 터치 스크린 디스플레이 간의 파라미터(예를 들어, 커패시턴스)의 크기에 따라, 이 파라미터가 미리 정해진 문턱값을 넘을 때, 다운 이벤트가 일어나고, 이 파라미터가 미리 정해진 문턱값을 넘고 있는 동안에 손가락의 대응하는 커서 위치가 위치 A로부터 위치 B로 이동할 때, 드래깅 이벤트가 일어나며, 이 파라미터가 문턱값 레벨 아래로 떨어질 때 업 이벤트가 일어난다.
제어부(190)는 입체영상 재생 모드를 결정 또는 확인할 수 있다. 일부 실시예로, 제어부(190)는 인식된 사용자 조치를 기초로 입체영상 재생 모드를 결정할 수 있고, 수신된 입체영상 데이터의 해상도 및 포맷 중 적어도 하나를 기초로 입체영상 재생 모드를 결정할 수 있다. 또한 제어부(190)는 수신된 방송 정보를 기초로 입체영상 재생 모드를 결정 또한 확인할 수 있고, 저장된 입체영상 재생 모드 정보를 기초로 입체영상 재생 모드를 확인할 수 있다.
제어부(190)는 신호 처리부(140)로 하여금 결정한 또는 확인한 입체영상 재생 모드에 따라 입체영상 데이터를 처리하도록 제어할 수 있다.
또한 제어부(190)는 입체영상 재생 모드를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지할 수 있다. 상기 사용자 조치의 감지에 응답하여, 제어부(190)는 상기 그래픽 사용자 인터페이스(GUI: Graphical User Interface) 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면을 디스플레이하기 위한 신호가 생성되도록 제어할 수 있다. 여기서 상기 영역에는 입체영상이 디스플레이될 수 있다.
제어부(190)는 신호 처리부(140)로 하여금 상기 GUI를 통해 설정된 입체영상 재생 모드에 따라 상기 화면에 디스플레이되는 영상을 처리하도록 제어할 수 있다.
또한 제어부(190)는, 상기 GUI를 통해 설정된 입체영상 재생 모드를 나타내는 정보인 입체영상 재생 모드 정보가 저장부(190)에 저장되도록 제어할 수 있다.
도 4는 신호 처리부에 대한 바람직한 일실시예의 구성을 도시한 블록도이다.
도 4를 참조하면, 신호 처리부(140)는 역다중화부(410), 오디오 디코더(420), 비디오 디코더(430), 스케일러(440), 믹서(450), 포맷터(460) 및 영상 인터페이스부(470)를 포함할 수 있다.
역다중화부(410)는 이동통신부(115), 네트워크 인터페이스부(130) 및 외부 신호 입력부(135)로부터 스트림 신호를 수신할 수 있고, 역다중화부(410)는 수신된 스트림 신호를 영상 데이터, 음성 데이터 및 정보 데이터로 역다중화하여 각각 비디오 디코더(430), 오디오 디코더(420) 및 제어부(190)로 출력할 수 있다.
오디오 디코더(420)는 역다중화부(410)로부터 음성 데이터를 수신하고, 수신된 음성 데이터를 복원하여 복원된 데이터를 스케일러(440) 또는 음성 출력부(160)로 출력할 수 있다.
비디오 디코더(430)는 역다중화부(410)로부터 영상 데이터를 수신하고, 수신된 영상 데이터를 복원하고 복원한 영상 데이터를 스케일러(440)에 출력한다. 여기서 영상 데이터는 입체영상 데이터를 포함할 수 있다.
스케일러(440)는 비디오 디코더(430), 제어부(190) 및 오디오 디코더(420)에서 처리된 영상 데이터 및 음성 데이터를 디스플레이(150) 또는 스피커(미도시)를 통하여 출력하기 위한 적절한 크기의 신호로 크기 조절(스케일링: scaling)한다. 구체적으로, 스케일러(260)는 입체영상을 수신하여 디스플레이(150)의 해상도 또는 소정 화면비(aspect ratio)에 맞도록 스케일링(scaling)한다. 디스플레이(150)는 제품 사양 별로 소정 해상도, 예를 들어 720x480 포맷, 1024x768 포맷, 1280x720 포맷, 1280x768 포맷, 1280x800 포맷, 1920x540 포맷 및 1920x1080 포맷 등을 갖는 영상 화면을 출력하도록 제작될 수 있다. 그에 따라서, 스케일러(260)는 다양한 값으로 입력될 수 있는 입체영상의 해상도를 해당 디스플레이의 해상도에 맞춰 변환할 수 있다.
입체영상 재생 모드가 디인터레이스 모드인 경우에는, 스케일러(440)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스할 수 있다. 일부 실시예로, 1920x1080p의 해상도를 갖는 좌안 시점 영상 프레임이 수신된 경우에는, 스케일러(440)는 상기 좌안 시점 영상 프레임을 디인터레이스하여 1920x540p로 압축할 수 있다.
디인터레이스를 위해, 스케일러(440)는 영상처리 메모리(미도시), 움직임 검출부(미도시), 디인터레이스부(미도시)를 포함할 수 있다. 영상처리 메모리(미도시)는 디인터레이스될 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 임시로 저장할 수 있다. 움직임 검출부(미도시)는 영상 프레임의 움직임 유무를 판단할 수 있다. 그리고, 상기 판단에 따라 디인터레이스부(미도시)는 주사라인 사이에 보간을 위해 가상의 중간 데이터를 만들 수 있다.
또한, 스케일러(440)는 디스플레이되는 컨텐츠의 종류 또는 사용자 설정 등에 따라서, 입체영상의 화면비(aspect ratio)를 조절하여 출력한다. 화면비 값은 16:9, 4:3, 또는 3:2 등의 값이 될 수 있으며, 스케일러(440)는 가로 방향의 화면 길이 비와 세로 방향의 화면 길이 비가 특정 비율이 되도록 조절할 수도 있다.
믹서(450)는 스케일러(440) 및 제어부(190)의 출력을 믹싱하여 출력한다.
포맷터(460)는 입체영상을 구현하기 위하여 변환된 영상 데이터를 디스플레이(150)로 출력하고, 출력되는 입체영상 신호에 동기 신호(Sync signal)를 생성하여 안경(미도시)으로 전송할 수 있다. 포맷터(460)는 동기 신호의 전송을 위해 적외선 출력부(미도시)를 포함할 수 있다. 여기서, 동기 신호는 입체영상 신호에 따른 좌안 시점 영상 또는 우안 시점 영상의 디스플레이 시점과 셔터 안경(미도시)의 좌안 렌즈 또는 우안 렌즈의 개폐 시점을 동기시키기 위한 신호이다.
입체영상 재생 모드가 인터레이스 모드인 경우에는, 포맷터(460)는 스케일러(440)가 스케일링한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 여기서 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도는 1920×1080i 및 1920×1080p 중 하나일 수 있다.
도 5는 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제1 실시예가 도시된 도면이다.
도 5를 참조하면, 포맷터(460)는 제1 영상 프레임으로 영상 프레임(510)을 생성하고, 제2 영상 프레임으로 영상 프레임(520)을 생성할 수 있다. 영상 프레임(510)과 영상 프레임(520)의 첫 라인에는 좌안 시점 영상 프레임의 첫 라인의 화소 데이터가 포함된다. 즉 영상 프레임(510)의 첫 라인에 포함된 화소 데이터(L1)는 영상 프레임(520)의 첫 라인에 포함된 화소 데이터(L1)와 동일하다.
도시된 도면에서 L은 좌안 시점 영상 데이터를 의미하고, R은 우안 시점 영상 데이터를 의미한다. 그리고 L 또는 R 다음의 숫자는 영상 프레임의 라인 번호를 의미한다. 여기서, 만일 좌안 시점 영상 프레임 및 우안 시점 영상 프레임이 인터레이스 해상도를 갖는다면, 상기 라인 번호가 홀수인 경우에는 홀수필드의 라인을 의미하고, 상기 라인 번호가 짝수인 경우에는 짝수필드의 라인을 의미한다. L1은 좌안 시점 영상 프레임의 홀수필드의 첫 라인이고, L3은 상기 홀수필드의 두 번째 라인이며, L5는 상기 홀수필드의 세 번째 라인이다. 마찬가지로, L2는 상기 좌안 시점 영상 프레임의 짝수필드의 첫 라인이고, L4는 상기 짝수필드의 두 번째 라인이면, L6은 상기 짝수필드의 세 번째 라인이다.
영상 프레임(510)의 두 번째 라인은 우안 시점 영상 프레임의 첫 라인의 화소 데이터(R1)를 포함하고, 영상 프레임(510)의 세 번째 라인은 좌안 시점 영상 프레임의 두 번째 라인의 화소 데이터(L2)를 포함하며, 영상 프레임(510)의 네 번째 라인은 우안 시점 영상 프레임의 세 번째 라인의 화소 데이터(R3)를 포함하고, 영상 프레임(510)의 다섯 번째 라인은 좌안 시점 영상 프레임의 네 번째 라인의 화소 데이터(L4)를 포함한다. 즉 영상 프레임(510)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(510)의 각 짝수 라인에는 우안 시점 영상 프레임의 각 홀수 라인의 화소 데이터가 포함된다. 그리고 영상 프레임(510)의 첫 라인을 제외한 홀수 라인에는 좌안 시점 영상 프레임의 각 짝수 라인의 화소 데이터가 포함된다.
영상 프레임(520)의 두 번째 라인은 우안 시점 영상 프레임의 두 번째 라인의 화소 데이터(R2)를 포함하고, 영상 프레임(520)의 세 번째 라인은 좌안 시점 영상 프레임의 세 번째 라인의 화소 데이터(L3)를 포함하며, 영상 프레임(520)의 네 번째 라인은 우안 시점 영상 프레임의 네 번째 라인의 화소 데이터(R4)를 포함하고, 영상 프레임(520)의 다섯 번째 라인은 좌안 시점 영상 프레임의 다선 번째 라인의 화소 데이터(L5)를 포함한다. 즉 영상 프레임(520)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(520)의 각 홀수 라인에는 좌안 시점 영상 프레임의 각 홀수 라인 화소 데이터가 포함되고 영상 프레임(520)의 각 짝수 라인에는 우안 시점 영상 프레임의 각 짝수 라인의 화소 데이터가 포함된다.
도 6은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제2 실시예가 도시된 도면이다.
도 6을 참조하면, 포맷터(460)는 제1 영상 프레임으로 영상 프레임(610)을 생성하고, 제2 영상 프레임으로 영상 프레임(620)을 생성할 수 있다. 영상 프레임(620)의 첫 라인은 영상 프레임(610)의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함한다. 즉 영상 프레임(620)의 첫 라인에 포함된 화소 데이터(L2)는 영상 프레임(610)의 첫 라인에 포함된 화소 데이터(L1)의 다음 라인의 화소 데이터이다.
도시된 도면에서 L은 좌안 시점 영상 데이터를 의미하고, R은 우안 시점 영상 데이터를 의미한다. 그리고 L 또는 R 다음의 숫자는 영상 프레임의 라인 번호를 의미한다. 여기서, 만일 좌안 시점 영상 프레임 및 우안 시점 영상 프레임이 인터레이스 해상도를 갖는다면, 상기 라인 번호가 홀수인 경우에는 홀수필드의 라인을 의미하고, 상기 라인 번호가 짝수인 경우에는 짝수필드의 라인을 의미한다. L1은 좌안 시점 영상 프레임의 홀수필드의 첫 라인이고, L3은 상기 홀수필드의 두 번째 라인이며, L5는 상기 홀수필드의 세 번째 라인이다. 마찬가지로, L2는 상기 좌안 시점 영상 프레임의 짝수필드의 첫 라인이고, L4는 상기 짝수필드의 두 번째 라인이면, L6은 상기 짝수필드의 세 번째 라인이다.
영상 프레임(610)의 두 번째 라인은 우안 시점 영상 프레임의 첫 라인의 화소 데이터(R1)를 포함하고, 영상 프레임(510)의 세 번째 라인은 좌안 시점 영상 프레임의 세 번째 라인의 화소 데이터(L3)를 포함하며, 영상 프레임(610)의 네 번째 라인은 우안 시점 영상 프레임의 세 번째 라인의 화소 데이터(R3)를 포함하고, 영상 프레임(610)의 다섯 번째 라인은 좌안 시점 영상 프레임의 다섯 번째 라인의 화소 데이터(L5)를 포함한다. 즉 영상 프레임(610)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(610)의 홀수 라인에는 좌안 시점 영상 프레임의 각 홀수 라인의 화소 데이터가 포함되고, 영상 프레임(610)의 각 짝수 라인에는 우안 시점 영상 프레임의 각 홀수 라인의 화소 데이터가 포함된다.
영상 프레임(620)의 두 번째 라인은 우안 시점 영상 프레임의 두 번째 라인의 화소 데이터(R2)를 포함하고, 영상 프레임(620)의 세 번째 라인은 좌안 시점 영상 프레임의 네 번째 라인의 화소 데이터(L4)를 포함하며, 영상 프레임(620)의 네 번째 라인은 우안 시점 영상 프레임의 네 번째 라인의 화소 데이터(R4)를 포함하고, 영상 프레임(620)의 다섯 번째 라인은 좌안 시점 영상 프레임의 여섯 번째 라인의 화소 데이터(L6)를 포함한다. 즉 영상 프레임(620)의 홀수 라인에는 좌안 시점 영상 데이터가 포함되고 짝수 라인에는 우안 시점 영상 데이터가 포함된다. 또한 영상 프레임(620)의 각 홀수 라인에는 좌안 시점 영상 프레임의 각 짝수 라인 화소 데이터가 포함되고 영상 프레임(520)의 각 짝수 라인에는 우안 시점 영상 프레임의 각 짝수 라인의 화소 데이터가 포함된다.
도 7은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제3 실시예가 도시된 도면이다.
도 7을 참조하면, 포맷터(460)는 제1 영상 프레임으로 영상 프레임(710)을 생성하고, 제2 영상 프레임으로 영상 프레임(720)을 생성할 수 있다. 여기서 영상 프레임(710)의 홀수 라인에는 우안 시점 영상 데이터가 포함되고, 영상 프레임(710)의 짝수 라인에는 좌안 시점 영상 데이터가 포함되는 것을 제외하고 영상 프레임(710)은 도 5에 도시된 영상 프레임(510)과 대응하는 구성을 갖는다. 또한 영상 프레임(720)의 홀수 라인에는 우안 시점 영상 데이터가 포함되고, 영상 프레임(720)의 짝수 라인에는 좌안 시점 영상 데이터가 포함되는 것을 제외하고, 영상 프레임(720)은 도 5에 도시된 영상 프레임(520)과 대응하는 구성을 갖는다. 이하 영상 프레임(710) 및 영상 프레임(720)에 대한 설명은 생략한다.
도 8은 본 발명에 따른 전자 장치가 생성한 제1 영상 프레임 및 제2 영상 프레임의 화소 데이터 구성의 제4 실시예가 도시된 도면이다.
도 8을 참조하면, 포맷터(460)는 제1 영상 프레임으로 영상 프레임(810)을 생성하고, 제2 영상 프레임으로 영상 프레임(820)을 생성할 수 있다. 여기서 영상 프레임(810)의 홀수 라인에는 우안 시점 영상 데이터가 포함되고, 영상 프레임(810)의 짝수 라인에는 좌안 시점 영상 데이터가 포함되는 것을 제외하고 영상 프레임(810)은 도 6에 도시된 영상 프레임(610)과 대응하는 구성을 갖는다. 또한 영상 프레임(820)의 홀수 라인에는 우안 시점 영상 데이터가 포함되고, 영상 프레임(820)의 짝수 라인에는 좌안 시점 영상 데이터가 포함되는 것을 제외하고, 영상 프레임(820)는 도 6에 도시된 영상 프레임(620)과 대응하는 구성을 갖는다. 이하 영상 프레임(810) 및 영상 프레임(820)에 대한 설명은 생략한다.
포맷터(460)는 생성한 제1 영상 프레임 및 제2 영상 프레임을 영상 인터페이스부(470)로 출력할 수 있다. 여기서 포맷터(460)는 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 스캔되도록 제1 영상 프레임 및 제2 영상 프레임을 출력할 수 있다. 일예로 포맷터(460)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도가 프로그레시브 해상도인 경우에는, 수신된 영상 데이터의 프레임 레이트의 2배로 제1 영상 프레임 및 제2 영상 프레임이 스캔되도록 출력할 수 있다.
또한 포맷터(460)는 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 제1 영상 프레임 및 제2 영상 프레임을 출력할 수 있다. 일예로 포맷터(460)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도가 인터레이스 해상도인 경우에는, 수신된 영상 데이터의 수직주사주파수로 제1 영상 프레임 및 제2 영상 프레임이 스캔되도록 출력할 수 있다.
포맷터(460)는 스케일러(440) 또는 믹서(450)가 출력한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성할 수 있다. 여기서, 좌안 시점 영상 프레임 및 우안 시점 영상 프레임은 스케일러(440)가 디인터레이스를 수행한 것일 수 있다. 또한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도는 1920x540p일 수 있고, 상기 생성된 제3 영상 프레임의 해상도는 1920x1080p일 수 있다.
영상 인터페이스부(470)는 포맷터(460)가 출력한 제1 영상 프레임 및 제2 영상 프레임을 디스플레이(150)로 출력한다. 여기서 영상 인터페이스부(470)는 LVDS 출력부(Low Voltage Differential Signaling Tx)일 수 있다.
또한 영상 인터페이스부(470)는 포맷터(460)가 출력한 제3 영상 프레임을 출력할 수 있다.
도 9a 및 도 9b는 인터레이스 모드일 때의 입체영상 재생 방법을 설명하기 위한 도면이다.
도 9a 및 도 9b를 참조하면, 입체영상 재생 모드가 인터레이스 모드인 경우에는, 스케일러(440)는 비디오 디코더(430)로부터 수신된 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스를 수행하지 않고, 믹서(450) 또는 포맷터(460)로 출력할 수 있다.
포맷터(460)는 스케일러(440) 또는 믹서(450)로부터 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 수신하고, 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 생성할 수 있다. 여기서 제1 영상 프레임(910) 및 제2 영상 프레임(920)은 각각 도 5에 도시된 영상 프레임(510) 및 영상 프레임(520)일 수 있고, 도 6에 도시된 영상 프레임(610) 및 영상 프레임(620)일 수 있으며, 도 7에 도시된 영상 프레임(710) 및 영상 프레임(720)일 수 있고, 도 8에 도시된 영상 프레임(810) 및 영상 프레임(820)일 수 있다.
LVDS Tx(901)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 디스플레이(930)로 출력할 수 있다.
디스플레이(150)는 LVDS Tx(901)로부터 수신한 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 스캔할 수 있다. 그리고 스캔된 제1 영상 프레임(910) 및 제2 영상 프레임(920)은 시청자에게 하나의 입체영상 이미지로 인식될 수 있다.
디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 원래의 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 스캔할 수 있다. 일예로 디스플레이(150)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도가 프로그레시브 해상도인 경우에는, 원래의 영상 데이터의 프레임 레이트의 2배로 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 스캔할 수 있다. 원래의 영상 데이터의 프레임 레이트가 60HZ이면, 디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 120HZ로 스캔할 수 있다. 또한 원래의 영상 데이터의 프레임 레이트가 120HZ이면, 디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 240HZ로 스캔할 수 있다.
또한 디스플레이(150)는 원래의 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 스캔할 수 있다. 일예로 디스플레이(150)는 좌안 시점 영상 프레임 및 우안 시점 영상 프레임의 해상도가 인터레이스 해상도인 경우에는, 원래의 영상 데이터의 수직주사주파수로 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 스캔할 수 있다. 원래의 영상 데이터의 수직주사주파수가 120HZ이면, 디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 120HZ로 스캔할 수 있다. 또한 원래의 영상 데이터의 수직주사주파수가 240HZ이면, 디스플레이(150)는 제1 영상 프레임(910) 및 제2 영상 프레임(920)을 240HZ로 스캔할 수 있다.
화면(930)은 제1 영상 프레임(910)이 영상 프레임(510)인 경우에, 제1 영상 프레임(910)이 스캔된 화면이다. 제1 영상 프레임(910)의 각 라인(L1, R1, L2, R3 내지 L1078, R1079)은 각각 화면(930)의 해당 스캔라인에 스캔된다. 여기서 디스플레이(150)는 제1 영상 프레임(910)을 순차주사(Progressive Scan) 방식으로 스캔할 수 있다.
화면(940)은 제2 영상 프레임(920)이 영상 프레임(510)인 경우에, 제2 영상 프레임(920)이 스캔된 화면이다. 제2 영상 프레임(920)의 각 라인(L1, R2, L3, R4 내지 L1079, R1080)은 각각 화면(940)의 해당 스캔라인에 스캔된다. 여기서 디스플레이(150)는 제2 영상 프레임(920)을 순차주사(Progressive Scan) 방식으로 스캔할 수 있다.
도 10은 디인터레이스 모드일 때의 입체영상 재생 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 입체영상 재생 모드가 디인터레이스 모드인 경우에는, 스케일러(440)는 수신부(1010로부터 수신한 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스할 수 있다. 그리고, 스케일러(440)는 디인터레이스한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 믹서(450) 또는 포맷터(460)로 출력할 수 있다.
포맷터(460)는 스케일러(440) 또는 믹서(450)로부터 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 수신하고, 수신한 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임(1010)을 생성할 수 있다.
LVDS Tx(1020)는 생성된 제3 영상 프레임(1020)을 디스플레이(150)로 출력할 수 있다.
디스플레이(150)는 LVDS Tx(1020)로부터 제3 영상 프레임(1020)을 수신하고, 수신한 제3 영상 프레임(1020)을 스캔할 수 있다. 일예로 디스플레이(150)는 화면(1030)과 같이 제3 영상 프레임(1020)을 스캔할 수 있다. 화면(1030)은 좌안 시점 영상 프레임(1011)의 라인과 우안 시점 영상 프레임(1012)의 라인이 교대로 스캔라인에 스캔된 화면이다. 여기서 디스플레이(150)는 제3 영상 프레임(1010)을 순차주사(Progressive Scan) 방식으로 스캔할 수 있다.
도 11은 입체영상 재생 모드를 설정하기 위한 화면의 일실시예가 도시된 도면이다.
도 11을 참조하면, 디스플레이(150)는 화면(1100)을 디스플레이할 수 있다.
화면(1100)은 입체영상 재생 모드 정보를 설정하기 위한 GUI(1110), 영상 데이터가 디스플레이되는 영역(1120) 및 영역(1120)에 디스플레이되는 영상의 장르를 지시하는 표시(1130)를 포함한다. 여기서 표시(1130)는 야구를 지시하고 있고, 영역(1120)은 야구 경기의 영상을 디스플레이한다.
GUI(1110)는 인터페이스 모드를 선택하기 위한 옵션 버튼(1111) 및 디인터레이스 모드를 선택하기 위한 옵션 버튼(1112)을 포함할 수 있다. GUI(1110)에서 선택된 모드에 따라 영상(1120)에 대한 입체영상 재생 방법이 변경된다. 화면(1100)에서 인터레이스 모드(1111)가 선택되어 있고, 이에 따라 영상(1120)은 인터레이스 모드 방식으로 재생된다.
사용자는 입체영상 재생 모드 정보를 설정하기 위한 GUI를 요청하는 사용자 조치를 행할 수 있다. 제어부(190)는 사용자 조치의 감지에 응답하여, 화면(1100)이 디스플레이되도록 제어할 수 있다.
제어부(190)는 GUI(1110)를 통해 설정된 입체영상 재생 모드에 따라 영상(1120)에 대한 입체영상 재생 모드이 변경되도록 제어할 수 있다. 이에 따라 사용자는 변경된 입체영상 재생 모드에 따라 재생된 영상을 확인하면, 입체영상 재생 모드를 설정할 수 있다.
도 12는 본 발명에 따른 입체영상 재생 방법에 대한 바람직한 일실시예의 수행과정을 도시한 흐름도이다.
도 12를 참조하면, 수신부(101)는 제1 해상도를 갖는 좌안 시점 영상 프레임 및 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신한다(S100). 여기서 수신부(101)는 입체영상 재생 모드 정보를 더 수신할 수 있다.
제어부(190)는 입체영상 재생 모드를 확인 또는 결정한다(S105). 제어부(190)는 수신된 입체영상 재생 모드 정보 및 저장된 입체영상 재생 모드 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인 또는 결정할 수 있다. 여기서 입체영상 재생 모드는 인터레이스 모드 및 디인터레이스 모드 중 하나일 수 있다.
입체영상 재생 모드가 인터레이스 모드인 경우에는, 신호처리부(140)는 수신부(101)가 수신한 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성한다(S110). 여기서 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 좌안 시점 영상 프레임의 제1 해상도 또는 좌안 시점 영상 프레임의 제1 해상도와 대응하는 프로그레시브 해상도를 가질 수 있다. 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 도 5 내지 도 8에 도시된 영상 프레임일 수 있다.
디스플레이(150)는 제1 영상 프레임 및 제2 영상 프레임을 스캔한다(S115). 여기서 디스플레이(150)는 제1 영상 프레임을 도 9a에 도시된 화면(930)과 같이 스캔할 수 있고, 제2 영상 프레임을 도 9b에 도시된 화면(940)과 같이 스캔할 수 있다.
입체영상 재생 모드가 디인터레이스 모드인 경우에는, 신호처리부(140)는 수신부(101)가 수신한 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스한다(S120).
신호처리부(140)는 디인터레이스한 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성한다(S125).
디스플레이(150)는 생성한 제3 영상 프레임을 스캔한다(S130). 여기서 디스프레이(150)는 제3 영상 프레임을 도 10에 도시된 화면(1030)과 같이 스캔할 수 있다.
제어부(190)는 입체영상 재생 모드 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지한다(S135).
사용자 조치의 감지에 응답하여, 제어부(190)는 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면이 디스플레이되도록 제어한다(S140). 여기서 디스플레이(150)는 도 11에 도시된 화면(1100)을 디스플레이할 수 있다. 또한 상기 영상 데이터는 저장부(180)에 저장된 입체영상 데이터일 수 있다.
제어부(190)는 입체영상 재생 모드 정보를 설정하기 위한 사용자 조치를 감지한다(S145).
사용자 조치의 감지에 응답하여, 제어부(190)는 입체영상 재생 모드 정보를 설정한다(S150).
신호 처리부(140)는 설정된 입체영상 재생 모드 정보가 지시하는 입체영상 재생 모드에 따라 영상 데이터를 처리한다(S155). 여기서, 상기 입체영상 재생 모드 정보가 인터레이스 모드를 지시하는 경우에는, 신호 처리부(140)는 상기 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성할 수 있다. 제1 영상 프레임 및 제2 영상 프레임을 도 5 내지 도 8에 도시된 영상 프레임일 수 있다.
상기 입체영상 재생 모드 정보가 디인터레이스 모드를 지시하는 경우에는, 신호 처리부(140)는 상기 영상 데이터에 포함된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 디인터레이스할 수 있다. 그리고 신호 처리부(140)는 디인터레이스된 좌안 시점 영상 프레임 및 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성할 수 있다.
디스플레이부(150)는 신호 처리부(140)가 처리한 영상 데이터를 설정된 입체영상 재생 모드 정보가 지시하는 입체영상 재생 모드에 따라 스캔한다(S160). 여기서, 상기 입체영상 재생 모드 정보가 인터레이스 모드를 지시하는 경우에는, 디스플레이부(150)는 상기 영상 데이터를 도 9a에 도시된 화면(930) 및 도 9b에 도시된 화면(940)과 같이 스캔할 수 있다. 또한 상기 입체영상 재생 모드 정보가 디인터레이스 모드를 지시하는 경우에는, 디스플레이(150)는 상기 영상 데이터를 도 10에 도시된 화면(1030)과 같이 스캔할 수 있다.
제어부(190)는 입체영상 재생 모드 정보의 설정 완료를 지시하는 사용자 조치를 감지한다(S165).
사용자 조치의 감지에 응답하여, 제어부(190)는 설정된 입체영상 재생 모드 정보를 저장부(180)에 저장한다(S170).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 장치에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.

Claims (20)

  1. 제1 해상도를 갖는 좌안 시점 영상 프레임 및 상기 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신하는 단계;
    상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 기초로 제1 영상 프레임 및 제2 영상 프레임을 생성하는 단계, 여기서 상기 제1 영상 프레임 및 상기 제2 영상 프레임은 홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 상기 제1 해상도 또는 상기 제1 해상도와 대응하는 프로그레시브 해상도를 갖고; 및
    상기 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 단계를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  2. 제 1항에 있어서,
    상기 스캔하는 단계는,
    상기 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 상기 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 단계를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  3. 제 1항에 있어서,
    상기 스캔하는 단계는,
    상기 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 단계를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  4. 제 1항에 있어서,
    상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것을 특징으로 하는 입체영상 재생 방법.
  5. 제 1항에 있어서,
    상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것을 특징으로 하는 입체영상 재생 방법.
  6. 제 5항에 있어서,
    상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 두 번째 라인의 화소 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 세 번째 라인의 화소 데이터인 것을 특징으로 하는 입체영상 재생 방법.
  7. 제 1항에 있어서,
    상기 제2 영상 프레임의 첫 라인은 상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  8. 제 1항에 있어서,
    상기 제1 해상도는 1920×1080i 및 1920×1080p 중 하나이고, 상기 제1 영상 프레임 및 상기 제2 영상 프레임의 해상도는 1920×1080p인 것을 특징으로 하는 입체영상 재생 방법.
  9. 제 1항에 있어서,
    수신된 방송 정보 및 저장된 설정 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인하는 단계;
    상기 입체영상 재생 모드가 디인터레이스 모드인 경우에는, 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임을 디인터레이스하는 단계;
    상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성하는 단계; 및
    상기 생성된 제3 영상 프레임을 스캔하는 단계를 더 포함하고,
    상기 제1 영상 프레임 및 상기 제2 영상 프레임을 생성하는 단계는 상기 입체영상 재생 모드가 인터레이스 모드인 경우에 수행되는 것을 특징으로 하는 입체영상 재생 방법.
  10. 제 9항에 있어서,
    상기 설정 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지하는 단계; 및
    상기 사용자 조치의 감지에 응답하여, 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면을 디스플레이하는 단계;를 포함하는 것을 특징으로 하는 입체영상 재생 방법.
  11. 제1 해상도를 갖는 좌안 시점 영상 프레임 및 상기 제1 해상도를 갖는 우안 시점 영상 프레임을 포함하는 영상 데이터를 수신하는 수신부;
    홀수 라인에 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임 중 하나의 화소 데이터를 포함하고, 짝수 라인에 다른 하나의 화소 데이터를 포함하며, 상기 제1 해상도 또는 상기 제1 해상도와 대응하는 프로그레시브 해상도를 갖는 제1 영상 프레임 및 제2 영상 프레임을 생성하는 포맷터; 및
    상기 생성된 제1 영상 프레임 및 제2 영상 프레임을 스캔하는 디스플레이를 포함하는 것을 특징으로 하는 전자 장치.
  12. 제 11항에 있어서,
    상기 디스플레이는,
    상기 수신된 영상 데이터의 프레임 레이트의 2배와 대응하는 프레임 레이트로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 것을 특징으로 하는 전자 장치.
  13. 제 11항에 있어서,
    상기 디스플레이는,
    상기 수신된 영상 데이터의 수직주사주파수(Vertical scan frequency)와 대응하는 수직주사주파수로 상기 제1 영상 프레임 및 상기 제2 영상 프레임을 스캔하는 것을 특징으로 하는 전자 장치.
  14. 제 11항에 있어서,
    상기 제1 영상 프레임 및 상기 제2 영상 프레임 두개가 하나의 입체영상 이미지를 형성하는 것을 특징으로 하는 전자 장치.
  15. 제 14항에 있어서,
    상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터는 상기 제2 영상 프레임의 첫 라인에 포함된 화소 데이터와 동일한 것을 특징으로 하는 전자 장치.
  16. 제 15항에 있어서,
    상기 제1 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 두 번째 라인의 화소 데이터이고, 상기 제2 영상 프레임의 두 번째 홀수 라인에 포함된 화소 데이터는 세 번째 라인의 화소 데이터인 것을 특징으로 하는 전자 장치.
  17. 제 11항에 있어서,
    상기 제2 영상 프레임의 첫 라인은 상기 제1 영상 프레임의 첫 라인에 포함된 화소 데이터의 다음 라인의 화소 데이터를 포함하는 것을 특징으로 하는 전자 장치.
  18. 제 11항에 있어서,
    상기 제1 해상도는 1920×1080i 및 1920×1080p 중 하나이고, 상기 생성된 영상 프레임의 해상도는 1920×1080p인 것을 특징으로 하는 전자 장치.
  19. 제 11항에 있어서,
    수신된 방송 정보 및 저장된 설정 정보 중 적어도 하나를 기초로 입체영상 재생 모드를 확인하는 제어부; 및
    상기 확인 결과에 따라 상기 좌안 시점 영상 프레임 및 상기 우안 시점 영상 프레임에 디인터레이스를 더 수행하는 스케일러를 더 포함하고,
    상기 포맷터는, 상기 디인터레이스된 좌안 시점 영상 프레임 및 상기 디인터레이스된 우안 시점 영상 프레임을 기초로 제3 영상 프레임을 생성하고,
    상기 디스플레이부는, 상기 제3 영상 프레임을 스캔하는 것을 특징으로 하는 전자 장치.
  20. 제 19항에 있어서,
    상기 제어부는,
    상기 설정 정보를 설정하기 위한 그래픽 사용자 인터페이스(GUI: Graphical User Interface)를 요청하는 사용자 조치(User Action)를 감지하는 하고, 상기 사용자 조치의 감지에 응답하여, 상기 GUI 및 영상 데이터가 디스플레이되는 영역을 포함하는 화면이 디스플레이되도록 제어하는 것을 특징으로 하는 전자 장치.
KR1020100124522A 2010-12-07 2010-12-07 전자 장치 및 입체영상 재생 방법 KR101781850B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100124522A KR101781850B1 (ko) 2010-12-07 2010-12-07 전자 장치 및 입체영상 재생 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100124522A KR101781850B1 (ko) 2010-12-07 2010-12-07 전자 장치 및 입체영상 재생 방법

Publications (2)

Publication Number Publication Date
KR20120063388A true KR20120063388A (ko) 2012-06-15
KR101781850B1 KR101781850B1 (ko) 2017-09-26

Family

ID=46683899

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100124522A KR101781850B1 (ko) 2010-12-07 2010-12-07 전자 장치 및 입체영상 재생 방법

Country Status (1)

Country Link
KR (1) KR101781850B1 (ko)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4341751B2 (ja) * 2004-02-17 2009-10-07 誠次郎 富田 立体映像記録・再生方法並びにこれを表示する立体映像表示装置

Also Published As

Publication number Publication date
KR101781850B1 (ko) 2017-09-26

Similar Documents

Publication Publication Date Title
KR20110096494A (ko) 전자 장치 및 입체영상 재생 방법
CN102223555B (zh) 图像显示装置及其控制方法
US8988498B2 (en) Method for controlling operations of image display apparatus and shutter glasses used for the image display apparatus
CN109792576B (zh) 图像显示设备
US20120224035A1 (en) Electronic apparatus and image processing method
KR20110111136A (ko) 음향 설정에 대응하는 3d 오브젝트를 제공하는 영상표시장치 및 그 동작 제어방법
US9117387B2 (en) Image display apparatus and method for operating the same
KR101781850B1 (ko) 전자 장치 및 입체영상 재생 방법
KR101741432B1 (ko) 영상표시장치 및 그 동작방법
JP2012023635A (ja) 電子機器及び画像処理方法
KR20110083914A (ko) 3d 썸네일을 표시하는 영상표시장치 및 그 동작 제어방법
KR101804912B1 (ko) 입체영상 디스플레이 장치 및 입체영상 자막 디스플레이 방법
KR20120102947A (ko) 전자 장치 및 입체영상 디스플레이 방법
KR101668245B1 (ko) 원격제어장치로 제어할 수 있는 영상표시장치 및 그 동작 제어방법
KR20110114994A (ko) 2d/3d 변환 가능한 영상표시장치와 그 동작제어방법
KR20120140425A (ko) 입체영상 처리 장치 및 입체영상 처리 방법
KR20130011384A (ko) 3차원 영상 처리 장치 및 3차원 영상 처리 장치의 설정값을 조절하기 위한 방법
KR101626304B1 (ko) 영상표시장치 및 그 제어방법
KR101878808B1 (ko) 영상표시장치 및 그 동작 방법
KR102014149B1 (ko) 영상표시장치, 및 그 동작방법
KR20130010612A (ko) 입체영상 디스플레이 장치 및 방법
KR101737367B1 (ko) 영상표시장치 및 그 동작방법
KR101657560B1 (ko) 3d 오브젝트를 포함하는 채널 편집윈도우를 제공하는 영상표시장치 및 그 동작방법
KR20110088952A (ko) 썸네일 영상을 포함하는 3d 오브젝트를 표시할 수 있는 영상표시장치 및 그 동작 제어방법
KR20110076324A (ko) 영상표시장치 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant