KR20130082367A - 영상 표시 장치 및 영상 표시 방법 - Google Patents

영상 표시 장치 및 영상 표시 방법

Info

Publication number
KR20130082367A
KR20130082367A KR1020120003552A KR20120003552A KR20130082367A KR 20130082367 A KR20130082367 A KR 20130082367A KR 1020120003552 A KR1020120003552 A KR 1020120003552A KR 20120003552 A KR20120003552 A KR 20120003552A KR 20130082367 A KR20130082367 A KR 20130082367A
Authority
KR
South Korea
Prior art keywords
stereoscopic image
image data
luminance
depth
image
Prior art date
Application number
KR1020120003552A
Other languages
English (en)
Inventor
안대훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120003552A priority Critical patent/KR20130082367A/ko
Publication of KR20130082367A publication Critical patent/KR20130082367A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은, 입체 영상의 표시 방법에 있어서, 입체 영상 데이터를 획득하는 단계, 상기 획득된 입체 영상 데이터에 포함되어 있는 객체에 대한 뎁스(depth)를 검출하는 단계, 상기 검출된 뎁스(depth)에 근거하여 상기 객체에 대한 휘도 정보를 설정하는 단계, 상기 설정된 휘도 정보에 근거하여, 입체 영상을 표시하는 단계를 포함하는 것을 특징으로 하는 영상 표시 방법에 관한 것이다.

Description

영상 표시 장치 및 영상 표시 방법 {VIDEO DISPLAY APPARATUS AND VIDEO DISPLAY METHOD}
본 발명은 영상 표시 장치 및 영상 표시 방법에 관한 발명으로, 특히 입체 영상의 표시에 관한 방법 및 장치에 관한 것이다.
최근 입체 영상 서비스에 대한 관심이 점점 증대되면서, 입체 영상을 제공하는 장치들이 계속 개발되고 잇다. 이러한 입체 영상을 구현하는 방식 중에 스테레오스코픽(Stereoscopic) 방식이 있다.
상기 스테레오스코픽 방식의 기본 원리는, 사람의 좌안과 우안이 서로 직교하도록 배열된 영상을 분리하여 입력받고, 사람의 두뇌에서 좌안과 우안에 각각 입력된 영상이 결합되어 입체 영상이 생성되는 방식이다. 이때, 영상이 서로 직교하도록 배열된다는 것은 각 영상이 서로 간섭을 일으키지 않는다는 것을 의미한다.
도 1
도 1은 입체 영상 표시 장치를 나타낸 예시도이다.
입체 영상 표시 장치를 구현하는 방법은, 안경 방식과 무안경 방식으로 크게 나뉠수 있다.
상기 안경 방식으로는 편광 방식, 시분할(time-sequential) 방식, 및 스펙트럼(spectral) 방식이 있다.
먼저, 편광 방식은 편광 필터를 이용하여 각 영상을 분리하는 것이다. 즉, 좌안(left eye)를 이용한 영상과 우안(right eye)를 위한 영상에 서로 직교하는 편광 필터를 적용함으로써, 좌우의 시야에 편광 필터에 의해 필터링된 각기 다른 영상이 입력되게 하는 것이다.
다음으로, 시분할 방식은 좌우 영상을 교대로 표시하고, 사용자가 착용하는 능동형 안경(active glasses)이 교대로 표시되는 영상과 동기화되어 각 영상을 분리하는 방법이다. 즉, 영상이 교대로 표시될 때, 이와 동기된 능동형 안경의 셔터가 해당 영상이 입력되어야 하는 시야만 개방하고 다른 시야는 차단함으로써, 좌우 영상을 분리하여 입력한다.
마지막으로, 스펙트럼 방식은 RGB 스펙트럼이 서로 중첩되지 않는 스펙트럼 대역을 갖는 스펙트럼 필터를 통해 좌우 영상을 투사(projection)하는 방법이다. 이렇게 투사된 좌우 영상에 대해, 사용자는 좌우 영상에 대해 설정된 스펙트럼 영역만 통과하는 스펙트럼 필터(spectral filter)를 장착한 수동형 안경(passive glasses)을 착용함으로써, 좌우 영상을 분리하여 입력받는 것이다.
한편, 무안경 방식으로는 다시점 무안경 방식이 있다. 상기 다시점 무안경 방식은 페러렉스 배리어 (Parallax Barrier) 방식과 렌티큘러 렌즈(Lenticular Lens) 방식이 있다.
상기 페러렉스 베리어 방식은 디스플레이에 배리어(막)을 입히는데, 상기 베리어(막)은 수직하는 라인들로 이루어지며, 수직 라인들 사이에 슬릿(slit)이 존재한다. 상기 슬릿에 의하여 좌안과 우안에 시차를 만들어 내는 방식이다.
렌티큘러 방식은 디스플레이에 정제된 작은 렌즈들을 디스플레이에 배열하여, 영상이 작은 렌즈들에 의해 굴절되어, 좌안과 우안에 각기 다른 영상을 보여주는 방식이다.
이와 같은 3D 또는 입체 영상 표시 장치는 3D 컨텐츠 또는 입체감을 갖는 컨텐츠의 보급이 증가하면서 그 사용이 확산되고 있다.
한편, 인간이 입체감을 인식하는 요소 중의 하나로 심리적인 요소가 있다. 즉, 그림자와 명암, 원근감, 물체 간의 순차적 가려짐 등의 심리적인 요소에 따라서 사용자가 입체감을 다르게 인식할 수 있다. 이러한 심리적인 요소 중의 하나로 휘도가 존재한다. 즉, 영상의 휘도를 설정하는 방법에 따라서 사용자가 입체감을 다르게 인식할 수 있다.
따라서, 입체 영상 데이터의 휘도를 조절하여 사용자가 입체 영상의 입체감을 더욱 잘 느끼게 하기 위한 방법이 도입될 필요가 있다.
따라서, 본 명세서는 전술한 문제점들을 해결하는 방안들을 제공하는 것을 목적으로 한다.
구체적으로, 본 명세서는 객체의 뎁스(depth)에 근거하여 입체 영상의 휘도를 조절하는 방안을 제공하는 것을 목적으로 한다.
또한, 본 명세서는 입체 영상의 휘도를 조절하여 사용자가 입체 영상의 입체감을 더욱 잘 느끼도록 할 수 있는 방안을 제공하는 것을 목적으로 한다.
본 발명의 일 양상에 따른 영상 표시 방법은, 입체 영상의 표시 방법에 있어서, 입체 영상 데이터를 획득하는 단계, 상기 획득된 입체 영상 데이터에 포함되어 있는 객체에 대한 뎁스(depth)를 검출하는 단계, 상기 검출된 뎁스(depth)에 근거하여 상기 객체에 대한 휘도 정보를 설정하는 단계, 상기 설정된 휘도 정보에 근거하여, 입체 영상을 표시하는 단계를 포함할 수 있다.
본 발명의 다른 양상에 따른 영상 표시 방법은, 상기 입체 영상 데이터는 YUV 포맷의 입체 영상 데이터이고, 상기 휘도 정보는 상기 YUV 포맷의 입체 영상 데이터 중 휘도 신호에 의하여 결정되는 것을 특징으로 한다.
본 발명의 또 다른 양상에 따른 영상 표시 방법은, 상기 입체 영상 데이터를 획득하는 단계는, RGB 포맷의 입체 영상 데이터를 수신하는 단계, 상기 수신한 RGB 포맷의 입체 영상 데이터를 YUV 포맷의 입체 영상 데이터로 변환하는 단계를 포함할 수 있다.
본 발명의 또 다른 양상에 따른 영상 표시 방법은, 상기 객체에 대한 휘도 정보를 설정하는 단계는, 상기 검출된 뎁스(depth)가 양의 값을 가지는 경우, 상기 객체가 밝게 표시되도록 상기 객체에 대한 휘도 정보를 설정하는 단계를 포함할 수 있다.
본 발명의 또 다른 양상에 따른 영상 표시 방법은, 상기 객체에 대한 휘도 정보를 설정하는 단계는, 상기 검출된 뎁스(depth)가 음의 값을 가지는 경우 상기 객체가 어둡게 표시되도록 상기 객체에 대한 휘도 정보를 설정하는 단계를 포함할 수 있다.
본 발명의 또 다른 양상에 따른 영상 표시 방법은, 상기 객체에 대한 휘도 정보를 설정하는 단계는, 상기 검출된 뎁스(depth)가 음의 값을 가지는 경우, 상기 객체가 밝게 표시되도록 상기 객체에 대한 휘도 정보를 설정하는 단계를 포함할 수 있다.
본 발명의 또 다른 양상에 따른 영상 표시 방법은, 상기 객체는, 상기 입체 영상 데이터에 포함되어 있는 객체 중 적어도 일부 객체인 것을 특징으로 한다.
본 발명의 일 양상에 따른 영상 표시 장치는, 입체 영상을 표시하는 디스플레이부, 입체 영상 데이터를 획득하는 데이터 획득부, 상기 데이터 획득부에 의하여 획득한 입체 영상 데이터에 포함되어 있는 객체에 대한 뎁스(depth)를 검출하고, 상기 검출된 뎁스(depth)에 근거하여 상기 객체에 대한 휘도 정보를 설정하고, 상기 설정된 휘도 정보에 근거하여 입체 영상을 디스플레이부에 표시하도록 제어하는 제어부를 포함할 수 있다.
본 명세서의 개시에 의하여, 전술한 종래 기술의 문제점들이 해결된다.
구체적으로, 본 명세서의 개시에 의해, 객체의 뎁스(depth)에 근거하여 입체 영상의 휘도를 조절하는 방안을 사용자에게 제공할 수 있다.
또한, 본 명세서의 개시에 의하여, 입체 영상의 휘도를 조절하여 사용자가 입체 영상의 입체감을 더욱 잘 느끼도록 할 수 있는 방안을 사용자에게 제공할 수 있다.
도 1은 입체 영상 표시 장치를 나타낸 예시도이다.
도 2는 본 발명의 일실시예에 따른 영상 표시 장치의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일실시예에 따른 영상 표시 방법을 나타낸 흐름도이다.
도 4는 디스패리티 정보를 이용하여 가상 이미지의 뎁스(depth)를 검출하는 방법을 나타낸 예시도이다.
도 5는 디스패리티 정보를 이용하여 가상 이미지의 뎁스(depth)를 검출하는 방법을 나타낸 예시도이다.
도 6은 디스패리티 정보를 이용하여 가상 이미지의 뎁스(depth)를 검출하는 방법을 나타낸 예시도이다.
도 7은 디스패리티 정보를 이용하여 가상 이미지의 뎁스(depth)를 검출하는 방법을 나타낸 예시도이다.
도 8은 입체 영상에 포함된 객체에 관한 뎁스를 검출하는 방법의 다른 예를 나타낸 도면이다.
도 9는 객체에 대한 휘도 정보를 설정하는 방법의 일예를 나타낸 도면이다.
도 10은 객체에 대한 휘도 정보를 설정하는 방법의 다른 예를 나타낸 도면이다.
도 11은 객체에 대한 휘도 정보를 설정하는 방법의 또 다른 예를 나타낸 도면이다.
도 12는 객체에 대한 휘도 정보를 설정하는 방법의 또 다른 예를 나타낸 도면이다.
도 13은 객체에 대한 휘도 정보를 설정하는 방법의 또 다른 예를 나타낸 도면이다.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈", "유닛" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
도 2
도 2는 본 발명의 일실시예에 따른 영상 표시 장치의 구성을 나타낸 블록도이다.
상기 영상 표시 장치(100)는 방송수신부(110), 통신부(120), 사용자 입력부(130), 출력부(140), 메모리(150), 제어부(160), 전원 공급부(170) 등을 포함할 수 있다. 도 3에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 통신 단말기가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
방송 수신부(110)는 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신할 수 있다. 상기 방송 수신 모듈은 하나 이상의 튜너(111,112)를 포함할 수 있다.
상기 방송 채널은 위성 채널, 지상파 채널, 케이블 채널을 포함할 수 있다.
상기 방송 신호는 TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 통신 네트워크를 통하여도 제공될 수 있다. 이러한 경우에는 상기 통신부(120)에 의해 수신될 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신부(110)는, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신부(110)는 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신부(110)를 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(150)에 저장될 수 있다.
상기 방송 수신부(110)에 포함된 튜너(111,112)는 특정 주파수의 방송신호를 수신하여 이를 중간 주파수(Intermediate Frequency;IF) 대역의 신호로 변환할 수 있다.
통신부(120)는 영상 표시 장치(100)와 유무선 통신 시스템 사이 또는 영상 표시 장치(100)와 영상 표시 장치(100)가 위치한 네트워크 사이의 유무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 통신부(120)는 통신 모듈(121), 인터넷 모듈(122) 및 근거리 통신 모듈(123) 등을 포함할 수 있다.
통신 모듈(121)은, 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 유무선 신호를 송수신한다. 상기 유무선 신호는, 영상 데이터 신호, 입체 영상 데이터 신호, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
인터넷 통신 모듈(122)은 인터넷 프로토콜을 이용하여 네트워크와 연결되어 데이터의 송/수신을 하기 위한 모듈을 말한다. 영상표시장치(100)는 네트워크와 유선 또는 무선으로 연결될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), WiFi 등이 이용될 수 있다.
유선 인터넷 기술로는 VDSL(Very high rate Digital Subscriber Lines), ADSL(Asymmetric Digital Subscriber Line), HDSL(High bit-rate DSL), IDSL(ISDN Digital Subscriber Line), CDSL(Consumer Digital Subscriber Line), G.Lite, RADSL(Rate-Adaptive Digital Subscriber Line), SDSL(Symmetric Digital Subscriber Line), UDSL(Unidirectional DSL), FTTH(Fiber-To-The-Home), FTTC(Fiber-To-The-Curb), 광 동축 복합기술(Hybrid Fiber Coax), 이더넷(Ethernet) 등이 이용될 수 있다.
근거리 통신 모듈(123)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.
사용자 입력부(130)는 상기 영상 표시 장치(100)의 동작을 제어하는 신호를 수신한다. 상기 동작 제어 신호는 현재 재생중인 동영상의 제어 동작(Rewind, Fast-Foward, Pause, Record 등을 포함한다)을 의미할 수 있다. 상기 동작 제어 신호는 영상 표시 장치(100)의 동작(전원 On/Off, 예약 녹화, 인터넷 통신 모듈 Enable/Disable, 근거리 무선 통신 모듈 Enable/Disable, 방송 채널 변경 기능, 음량 조절 기능, 음소거 기능 등을 포함한다)을 의미할 수 있다. 또, 상기 동작 제어 신호는 화면의 영상 모드 전환과 관련된 제어 동작, 화면의 입체감 조절과 관련된 제어 동작을 의미할 수 있다.
상기 사용자 입력부(130)에는 상기 영상표시장치(100)를 제어하는 신호 이외에도, 사용자가 직접 카메라 또는 마이크를 통하여 음향 데이터 또는 영상 데이터를 입력할 수도 있다. 또, 사용자는 상기 사용자 입력부(130)를 통하여 영상 데이터, 입체 영상 데이터를 입력할 수 있다.
상기 신호들은 사용자가 직접 입력하거나 유/무선 리모트 컨트롤러(Remote Controller)를 이용하여 간접적으로 입력할 수 있다.
출력부(140)는 시각, 청각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(141), 오디오 출력부(142), 코덱(143) 등이 포함될 수 있다.
코덱(143)은 음성 또는 비디오 데이터를 제어부(110)가 처리할 수 있는 데이터 형식으로 변환하고, 변환된 데이터를 사용자가 알 수 있게 출력부(120)에 본래대로 재생시켜 주기도 하는 소프트웨어 또는 장치를 말한다.
상기 코덱은 다양한 형태의 데이터를 인코딩/디코딩할 수 있다. 예를 들어, AVI(Audio Video Interleaved), MPEG(Motion Picture Expert Group), DivX, XviD, WMV(Windows Media Video codec) 등의 형태의 데이터를 인코딩/디코딩 할 수 있다.
오디오 출력부(142)는 상기 코덱(143)을 이용하여 디코딩된 데이터를 음향 데이터로 변환하여 출력할 수 있다. 상기 오디오 출력부(142)는 상기 코덱(143)을 통하여 디코딩된 데이터 이외에도, 상기 영상 표시 장치(100)의 메모리(150)에 기 저장되어 있는 음향 데이터, 상기 통신부(120)를 이용하여 수신한 음향 데이터, 상기 사용자 입력부(130)를 통하여 수신한 음향 데이터 등을 출력할 수 있다.
상기 오디오 출력부(142)는 다이내믹 스피커(Dynamic speaker), 정전형 스피커(electrostatic speaker), 평판형 스피커(Planar-magnetic speaker) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(141)는 영상 표시 장치(100)에서 처리되는 정보를 표시, 출력할 수 있다. 예를 들어, 영상 표시 장치(100)가 영상 출력 모드인 경우, 영상을 출력할 수 있다. 특히, 상기 영상은 입체 영상일 수 있다. 그리고 상기 입체 영상은 YUV 포맷, RGB 포맷의 입체 영상일 수 있다. 또, 영상 표시 장치(100)가 인터넷 통신 모드인 경우, 인터넷 통신과 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시할 수 있다.
디스플레이부(141)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 플라즈마 표시 패널(plasma display panel, PDP), MDT(Multi Display Tube) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(141)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치스크린'이라 함)에, 디스플레이부(141)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(141)의 특정 부위에 가해진 압력 또는 디스플레이부(141)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(160)로 전송한다. 이로써, 제어부(160)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
메모리(150)는 제어부(160)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 정지영상, 동영상 등)을 임시 저장할 수도 있다.
메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상 표시 장치(100)는 인터넷(internet)상에서 상기 메모리(165)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
제어부(controller, 160)는 통상적으로 영상 표시 장치(100)의 전반적인 동작을 제어한다. 예를 들어 영상 출력, 음성 출력, 영상 모드 전환, 입체감의 차이를 줄이기 위한 가상 이미지 표시, 영상 및 상기 가상 이미지의 단계적인 입체감 변화 등을 위한 관련된 제어 및 처리를 수행한다. 또, 상기 제어부(160)는 입체 영상 데이터에 포함되어 있는 객체에 대한 뎁스(depth)를 검출할 수 있다. 또, 상기 제어부(160)는 상기 검출된 뎁스(depth)에 근거하여 상기 객체에 대한 휘도 정보를 설정할 수 있다. 또, 상기 제어부(160)는 상기 설정된 휘도 정보에 근거하여 상기 객체를 디스플레이부(141)에 표시하도록 제어할 수 있다.
전원 공급부(170)는 제어부(160)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다.
상기 영상 표시 장치(100)는 휴대 가능하지 않은 단말기, 예컨대 IPTV(Internet Protocol Television) 단말기, 텔레비전(Television), 3D 텔레비전, 영상 기기, 텔레매틱스(Telematics) 단말기, 차량 설치용 내비게이션(Navigation) 단말기일 수 있다. 또, 상기 영상 표시 장치(100)가 휴대 가능한 단말기일 수도 있다. 예를 들어, 상기 휴대 가능한 단말기는 이동통신 단말기, 멀티미디어 재생 단말기, 태블릿 단말기 중 하나 일 수 있다. 보다 구체적으로, 상기 휴대 가능한 단말기는 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant : PDA), 스마트 폰(Smart Phone), 휴대용 멀티미디어 플레이어(Portable Multimedia Player : PMP), 노트북 컴퓨터, 태블릿 PC(Tablet PC) 중 어느 하나 일 수 있다.
도 3
도 3은 본 발명의 일실시예에 따른 영상 표시 방법을 나타낸 흐름도이다.
도 3을 참조하면, 본 발명의 일실시예에 따른 영상 표시 장치(100)는 입체 영상 데이터를 획득할 수 있다(S410). 상기 입체 영상 데이터는 입체감 있는 영상을 표현하기 위한 데이터이다.
상기 영상 표시 장치(100)는 상기 방송 수신부(110), 상기 통신부(120), 상기 사용자 입력부(130)를 통하여 입체 영상 데이터를 획득할 수 있다.
상기 입체 영상 데이터는 YUV 포맷의 입체 영상 데이터일 수 있다. 상기 YUV 포맷의 입체 영상 데이터는 휘도 신호(Y), 휘도 신호와 청색 성분의 차(U), 휘도 신호와 적색 성분의 차(V) 성분을 포함할 수 있다. 이 때, 상기 휘도 신호(Y)에 의하여 입체 영상의 휘도가 결정될 수 있다.
또, 상기 입체 영상 데이터는 RGB 포맷의 입체 영상 데이터일 수 있다. 한편, 상기 제어부(160)는 상기 수신한 RGB 포맷의 입체 영상 데이터를 YUV 포맷의 입체 영상 데이터로 변환할 수 있다. 상기 YUV 포맷의 입체 영상 데이터는, 휘도 신호(Y)의 조절이 가능하므로, 입체 영상의 휘도 조절이 용이하기 때문이다.
한편, 상기 RGB 포맷의 데이터의 경우에도 각 객체에 대한 휘도를 조절할 수 있다. 예컨대, RGB 포맷에서의 객체의 휘도를 나타낼 수 있는 RGB값 테이블에 근거하여, RGB 값 중 소정의 값을 변경할 수 있다.
한편, 본 발명의 일실시예에 의하면, 상기 제어부(160)는 상기 획득된 입체 영상 데이터에 포함되어 있는 객체에 대한 뎁스(depth)를 검출할 수 있다(S420). 상기 객체는 입체 영상에 표시되는 개개의 물건, 인물, 동물, 식물 등을 포함할 수 있다. 즉, 상기 객체는 입체 영상 내에서 표시되는 독립된 대상에 해당할 수 있다.
상기 뎁스(depth)란, 스크린에서 물체가 떨어진 정도를 의미한다. 설명의 편의를 위하여, 스크린에서 물체가 떨어진 정도를 0 ~ 10의 수치로 나타내기로 한다(스크린에서 멀어질수록 절대값이 커짐). 또, 스크린에서 물체가 앞으로 떨어져 나와 있는 경우에 양의 값(+)을 부여하고, 스크린에서 물체가 뒤로 떨어져 나와 있는 경우에 음의 값(-)을 부여하기로 한다.
도 4, 5, 6, 7
도 4 내지 7은 디스패리티(disparity) 정보를 이용하여 가상 이미지의 뎁스(depth)를 검출하는 방법을 나타낸 예시도이다.
디스패리티(disparity)라 함은, 하나의 입체 화면을 나타내기 위한 두 개의 평면 이미지(제 1 평면 이미지, 제 2 평면 이미지)가 존재하는 경우, 상기 제 1 평면 이미지 내의 임의 화소가 상기 제 2 평면 이미지 내의 임의 화소에 대응할 때, 그 화소들 간의 차이를 말한다.
도 4(a)를 참조하면, 입체 영상에 관한 객체(300)를 표현하기 위한 두 개의 평면 이미지(우안에 대한 이미지(R), 좌안에 대한 이미지(L))가 표시되어 있다. 이 때, 우안에 대한 이미지(R)에서는 객체(210)가 가로축 좌표 1~4사이에 존재한다. 그리고, 상기 객체(210)의 중심은 가로축 좌표 2.5에 존재한다. 또, 좌안에 대한 이미지(L)에서는 객체(220)가 가로축 좌표 6~9사이에 존재한다. 그리고, 상기 객체(210)의 중심은 가로축 좌표 7.5에 존재한다.
도 4(b)를 참조하면, 상기 두 개의 객체(210, 220) 간의 임의 화소 간의 차이는 +5가된다. 이 때, 디스패리티(disparity) 정보를 +5로 정의하기로 한다. 한편, 우안에 대한 이미지(R)가 좌측에 표시되고 좌안에 대한 이미지(L)가 우측에 표시되는 경우의 디스패리티 정보를 양의 값(+)으로 표시하기로 하고, 우안에 대한 이미지(R)가 우측에 표시되고 좌안에 대한 이미지(L)가 좌측에 표시되는 경우의 디스패리티 정보를 음의 값(-)으로 표시하기로 한다.
도 4(c)를 참조하면, 디스패리티 정보가 +5인 경우, 상기 객체(300)가 스크린에서 떨어져서 표시되는 정도를 확인할 수 있다. 이 경우, 스크린에서 사용자쪽으로 떨어져서 상기 객체(300)가 표시된다. 그리고, 디스패리티 정보에 근거하여 객체(300)가 스크린으로부터 떨어진 정도가 결정될 수 있는데, 본 실시예에서는 4의 크기만큼 떨어진 것을 확인할 수 있다.
도 5(a)를 참조하면, 입체 영상에 관한 객체(300)를 표현하기 위한 두 개의 평면 이미지(우안에 대한 이미지(R), 좌안에 대한 이미지(L))가 표시되어 있다. 이 때, 우안에 대한 이미지(R)에서는 객체(210)가 가로축 좌표 2~5사이에 존재한다. 그리고, 상기 객체(210)의 중심은 가로축 좌표 3.5에 존재한다. 또, 좌안에 대한 이미지(L)에서는 객체(220)가 가로축 좌표 5~8사이에 존재한다. 그리고, 상기 객체(210)의 중심은 가로축 좌표 6.5에 존재한다.
도 5(b)를 참조하면, 상기 두 개의 객체(210, 220) 간의 임의 화소 간의 차이는 +3가된다. 이 때, 디스패리티(disparity) 정보를 +3로 정의하기로 한다.
도 5(c)를 참조하면, 디스패리티 정보가 +3인 경우, 상기 객체(300)가 스크린에서 떨어져서 표시되는 정도를 확인할 수 있다. 이 경우, 스크린에서 사용자쪽으로 떨어져서 상기 객체(300)가 표시된다. 그리고, 디스패리티 정보에 근거하여 객체(300)가 스크린으로부터 떨어진 정도가 결정될 수 있는데, 본 실시예에서는 2의 크기만큼 떨어진 것을 확인할 수 있다.
도 6(a)를 참조하면, 입체 영상에 관한 객체(300)를 표현하기 위한 두 개의 평면 이미지(우안에 대한 이미지(R), 좌안에 대한 이미지(L))가 표시되어 있다. 이 때, 우안에 대한 이미지(R)에서는 객체(210)가 가로축 좌표 5~8사이에 존재한다. 그리고, 상기 객체(210)의 중심은 가로축 좌표 6.5에 존재한다. 또, 좌안에 대한 이미지(L)에서는 객체(220)가 가로축 좌표 2~5사이에 존재한다. 그리고, 상기 객체(210)의 중심은 가로축 좌표 3.5에 존재한다.
도 6(b)를 참조하면, 우안에 대한 이미지가 좌안에 대한 이미지보다 우측에 표시되어 있으므로, 입체 영상으로 나타내었을 때, 상기 객체는 스크린에서 사용자의 반대편으로 떨어져서 표시될 수 있다. 그리고, 상기 두 개의 객체(210, 220) 간의 임의 화소 간의 차이를 음수로 표시할 수 있다. 즉, 이 때의 임의 화소 간의 차이는 -3이된다. 이 때, 디스패리티(disparity) 정보를 -3으로 정의하기로 한다.
도 6(c)를 참조하면, 디스패리티 정보가 -3인 경우, 상기 객체(300)가 스크린에서 떨어져서 표시되는 정도를 확인할 수 있다. 이 경우, 스크린에서 사용자와는 반대쪽으로 떨어져서 상기 객체(300)가 표시된다. 그리고, 디스패리티 정보에 근거하여 객체(300)가 스크린으로부터 떨어진 정도가 결정될 수 있는데, 본 실시예에서는 -2의 크기만큼 떨어진 것을 확인할 수 있다.
도 7(a)를 참조하면, 입체 영상에 관한 객체(300)를 표현하기 위한 두 개의 평면 이미지(우안에 대한 이미지(R), 좌안에 대한 이미지(L))가 표시되어 있다. 이 때, 우안에 대한 이미지(R)에서는 객체(210)가 가로축 좌표 6~9사이에 존재한다. 그리고, 상기 객체(210)의 중심은 가로축 좌표 7.5에 존재한다. 또, 좌안에 대한 이미지(L)에서는 객체(220)가 가로축 좌표 1~4사이에 존재한다. 그리고, 상기 객체(210)의 중심은 가로축 좌표 2.5에 존재한다.
도 7(b)를 참조하면, 상기 두 개의 객체(210, 220) 간의 임의 화소 간의 차이는 -5가된다. 이 때, 디스패리티(disparity) 정보를 -5로 정의하기로 한다.
도 7(c)를 참조하면, 디스패리티 정보가 -5인 경우, 상기 객체(300)가 스크린에서 떨어져서 표시되는 정도를 확인할 수 있다. 이 경우, 스크린에서 사용자와는 반대쪽으로 떨어져서 상기 객체(300)가 표시된다. 그리고, 디스패리티 정보에 근거하여 객체(300)가 스크린으로부터 떨어진 정도가 결정될 수 있는데, 본 실시예에서는 -4의 크기만큼 떨어진 것을 확인할 수 있다.
이와 같은 방식에 의하여, 상기 영상 표시 장치(100)는 디스패리티 정보에 근거하여 객체에 대한 뎁스(depth)를 검출할 수 있다.
도 8
도 8은 입체 영상에 포함된 객체에 관한 뎁스(depth)를 검출하는 방법의 다른 예를 나타낸 도면이다.
도 8(a)는, 상기 객체(300, 도 4(c) 참조)가 스크린에서 떨어진 정도를 나타낸 도면이다. xy 평면은 스크린을 의미하는 것으로 정의하고, z 축은 스크린에서 멀어지는 방향을 의미하는 것으로 정의하기로 한다. 도 8(a)에 도시되어 있는 바와 같이, 상기 객체는 스크린으로부터 사용자 방향으로 4만큼 떨어져서 표시되므로, 상기 객체(300)의 뎁스(depth) 정보는 +4로 표현할 수 있다. 그리고, 입체 영상 데이터는 상기 객체의 뎁스 정보(+4)를 포함할 수 있다. 따라서, 상기 제어부(160)는 상기 객체(300)에 대한 뎁스 정보를 검출할 수 있다.
도 8(b)는, 상기 객체(300, 도 5(c) 참조)가 스크린에서 떨어진 정도를 나타낸 도면이다. 도 8(b)에 도시되어 있는 바와 같이, 상기 객체는 스크린으로부터 사용자 방향으로 2만큼 떨어져서 표시되므로, 상기 객체(300)의 뎁스(depth) 정보는 +2로 표현할 수 있다. 그리고, 입체 영상 데이터는 상기 객체의 뎁스 정보(+2)를 포함할 수 있다. 따라서, 상기 제어부(160)는 상기 객체(300)에 대한 뎁스 정보를 검출할 수 있다.
도 8(c)는, 상기 객체(300, 도 6(c) 참조)가 스크린에서 떨어진 정도를 나타낸 도면이다. 도 8(c)에 도시되어 있는 바와 같이, 상기 객체는 스크린으로부터 사용자 반대 방향으로 2만큼 떨어져서 표시되므로, 상기 객체(300)의 뎁스(depth) 정보는 -2로 표현할 수 있다. 그리고, 입체 영상 데이터는 상기 객체의 뎁스 정보(-2)를 포함할 수 있다. 따라서, 상기 제어부(160)는 상기 객체(300)에 대한 뎁스 정보를 검출할 수 있다.
도 8(d)는, 상기 객체(300, 도 7(c) 참조)가 스크린에서 떨어진 정도를 나타낸 도면이다. 도 8(d)에 도시되어 있는 바와 같이, 상기 객체는 스크린으로부터 사용자 반대 방향으로 4만큼 떨어져서 표시되므로, 상기 객체(300)의 뎁스(depth) 정보는 -4로 표현할 수 있다. 그리고, 입체 영상 데이터는 상기 객체의 뎁스 정보(-4)를 포함할 수 있다. 따라서, 상기 제어부(160)는 상기 객체(300)에 대한 뎁스 정보를 검출할 수 있다.
이와 같이, 입체 영상 데이터가 각 객체에 대한 뎁스 정보를 포함하고 있는 경우, 상기 제어부는 상기 입체 영상 테이터로부터 직접 객체에 대한 뎁스 정보를 검출할 수 있다.
한편, 본 발명의 일실시예에 의하면, 상기 제어부(160)는 상기 검출된 뎁스(depth) 정보에 근거하여 상기 객체에 대한 휘도 정보를 설정할 수 있다 (S430).
도 9
도 9는 객체에 대한 휘도 정보를 설정하는 방법의 일예를 나타낸 도면이다.
도 9는 도 8에 도시된 객체(300)에 대하여 휘도를 설정한 예시를 나타낸 도면이다.
도 8(a), (b)는 양의 뎁스 정보를 가진 객체를 나타내고 있다. 그리고, 도 8(c), (d)는 음의 뎁스 정보를 가진 객체를 나타내고 있다. 이 경우, 입체 영상 데이터는 각 객체에 대한 휘도 정보를 포함하고 있다. 예컨대, 각 객체에 대한 휘도를 0 ~ 10 단계로 표현할 수 있다고 가정할 수 있다(가장 밝은 단계 : 10, 가장 어두운 단계 : 0). 이 때, 도 8에 도시된 객체는 동일하게 5의 휘도값을 가지고 있다고 가정한다.
한편, 뎁스 정보에 근거하여 상기 휘도 정보를 다양하게 설정할 수 있다. 바람직하게는, 뎁스값이 양의 값인 경우, 임의의 객체가 높은 뎁스 정보를 가지고 있는 경우(스크린으로부터 사용자 방향으로 많이 떨어져 나와 있는 경우), 상기 제어부(160)는 상기 객체가 높은 휘도값을 가지도록 제어할 수 있다(상기 객체가 밝게 표현되도록 제어할 수 있다).
또 바람직하게는, 뎁스값이 음의 값인 경우, 임의의 객체가 낮은 뎁스 정보를 가지고 있는 경우(스크린으로부터 사용자 반대 방향으로 많이 떨어져 나와 있는 경우), 상기 제어부(160)는 상기 객체가 낮은 휘도값을 가지도록 제어할 수 있다(상기 객체가 어둡게 표현되도록 제어할 수 있다).
또, 상기 제어부(160)는 임의의 객체에 대한 뎁스값이 양인 경우, 그 절대값이 커질수록 상기 객체가 더 밝은 휘도값을 가지도록 제어할 수 있다.
또, 상기 제어부(160)는 임의의 객체에 대한 뎁스값이 음인 경우, 그 절대값이 커질수록 상기 객체가 더 어두운 휘도값을 가지도록 제어할 수 있다.
그리고, 상기 제어부(160)는 객체에 대한 뎁스값이 일정 비율로 높아질 때마다, 상기 객체에 대한 휘도값이 일정 비율로 높아지도록 설정할 수 있다.
도 9(a)를 참조하면, 상기 객체(310)는 +4의 깊이감을 가지고 있다. 이 때, 상기 제어부(160)는 상기 객체(310)에 대한 휘도값을 이전의 값(5)보다 크게 설정할 수 있다. 예컨대, 상기 제어부(160)는 상기 객체(310)에 대한 휘도값을 7로 설정할 수 있다.
도 9(b)를 참조하면, 상기 객체(310)는 +2의 깊이감을 가지고 있다. 이 때, 상기 제어부(160)는 상기 객체(310)에 대한 휘도값을 이전의 값(5)보다 크게 설정할 수 있다. 예컨대, 상기 제어부(160)는 상기 객체(310)에 대한 휘도값을 6으로 설정할 수 있다.
이 때, 도 9(a),(b)와 같이, 뎁스에 관한 절대값(스크린으로부터 떨어진 정도)이 더 큰 객체(9(b))의 휘도값 변화량을 뎁스에 관한 절대값이 더 작은 객체(9(a))의 휘도값 변화량보다 더 크게 할 수 있다. 즉, 상기 제어부(160)는 사용자 방향으로 더 떨어져나온 객체가 더 밝게 표시되도록 제어할 수 있다.
도 9(c)를 참조하면, 상기 객체(310)는 -2의 깊이감을 가지고 있다. 이 때, 상기 제어부(160)는 상기 객체(310)에 대한 휘도값을 이전의 값(5)보다 작게 설정할 수 있다. 예컨대, 상기 제어부(160)는 상기 객체(310)에 대한 휘도값을 4로 설정할 수 있다.
도 9(d)를 참조하면, 상기 객체(310)는 -4의 깊이감을 가지고 있다. 이 때, 상기 제어부(160)는 상기 객체(310)에 대한 휘도값을 이전의 값(5)보다 작게 설정할 수 있다. 예컨대, 상기 제어부(160)는 상기 객체(310)에 대한 휘도값을 3으로 설정할 수 있다.
이 때, 도 9(c),(d)와 같이, 뎁스에 관한 절대값이 더 큰 객체(9(d))의 휘도값 변화량을 뎁스에 관한 절대값이 더 작은 객체(9(c))의 휘도값 변화량보다 더 크게 할 수 있다. 즉, 상기 제어부(160)는 사용자 반대 방향으로 더 떨어져나온 객체가 더 어둡게 표시되도록 제어할 수 있다.
도 10
도 10은 객체에 대한 휘도 정보를 설정하는 방법의 다른 예를 나타낸 도면이다.
도 10은 도 4, 5, 6, 7에 도시된 양 객체(210, 220)에 대하여 휘도를 설정하는 방법의 예시를 나타낸 도면이다. 이 경우, 입체 영상 데이터는 각 객체(210, 220)에 대한 휘도 정보를 포함하고 있다. 예컨대, 각 객체에 대한 휘도를 0 ~ 10 단계로 표현할 수 있다고 가정할 수 있다(가장 밝은 단계 : 10, 가장 어두운 단계 : 0). 이 때, 도 10에 도시된 객체(210, 220)는 동일하게 5의 휘도값을 가지고 있다고 가정한다.
도 10(a)를 참조하면, 상기 두 객체(210, 220)는 +5의 디스패리티 정보를 포함하고 있다. 이 때, 상기 제어부(160)는 상기 두 객체(210, 220)에 대한 휘도값을 이전의 값(5)보다 크게 설정할 수 있다. 예컨대, 상기 제어부(160)는 상기 두 객체(210, 220)에 대한 휘도값을 7로 설정할 수 있다. 상기 휘도값의 설정에 의하여 상기 두 객체(230, 240)는 7의 휘도값을 가지도록 변경되고, 상기 두 객체(230, 240)에 의한 입체 이미지는 휘도값 설정 전보다 더 밝게 표시될 수 있다.
도 10(b)를 참조하면, 상기 두 객체(210, 220)는 +3의 디스패리티 정보를 포함하고 있다. 이 때, 상기 제어부(160)는 상기 두 객체(210, 220)에 대한 휘도값을 이전의 값(5)보다 크게 설정할 수 있다. 예컨대, 상기 제어부(160)는 상기 두 객체(210, 220)에 대한 휘도값을 6으로 설정할 수 있다. 상기 휘도값의 설정에 의하여 상기 두 객체(230, 240)는 6의 휘도값을 가지도록 변경되고, 상기 두 객체(230, 240)에 의한 입체 이미지는 휘도값 설정 전보다 더 밝게 표시될 수 있다.
이 때, 도 10(a),(b)와 같이, 디스패리티가 더 큰 경우의 객체(10(a))에 대한 휘도값 변화량을 디스패리티가 더 작은 경우의 객체(10(b))에 대한 휘도값 변화량보다 더 크게 할 수 있다. 즉, 상기 제어부(160)는 사용자 방향으로 더 떨어져나온 객체가 더 밝게 표시되도록 제어할 수 있다.
도 10(c)를 참조하면, 상기 두 객체(210, 220)는 -3의 디스패리티 정보를 포함하고 있다. 이 때, 상기 제어부(160)는 상기 두 객체(210, 220)에 대한 휘도값을 이전의 값(5)보다 작게 설정할 수 있다. 예컨대, 상기 제어부(160)는 상기 두 객체(210, 220)에 대한 휘도값을 4로 설정할 수 있다. 상기 휘도값의 설정에 의하여 상기 두 객체(230, 240)는 4의 휘도값을 가지도록 변경되고, 상기 두 객체(230, 240)에 의한 입체 이미지는 휘도값 설정 전보다 더 어둡게 표시될 수 있다.
도 10(d)를 참조하면, 상기 두 객체(210, 220)는 -5의 디스패리티 정보를 포함하고 있다. 이 때, 상기 제어부(160)는 상기 두 객체(210, 220)에 대한 휘도값을 이전의 값(5)보다 작게 설정할 수 있다. 예컨대, 상기 제어부(160)는 상기 두 객체(210, 220)에 대한 휘도값을 3으로 설정할 수 있다. 상기 휘도값의 설정에 의하여 상기 두 객체(230, 240)는 3의 휘도값을 가지도록 변경되고, 상기 두 객체(230, 240)에 의한 입체 이미지는 휘도값 설정 전보다 더 어둡게 표시될 수 있다.
이 때, 도 10(c),(d)와 같이, 디스패리티의 절대 수치가 더 큰 경우의 객체(10(d))에 대한 휘도값 변화량을 디스패리티의 절대 수치가 더 작은 경우의 객체(10(c))에 대한 휘도값 변화량보다 더 크게 할 수 있다. 즉, 상기 제어부(160)는 사용자 반대 방향으로 더 떨어져나온 객체가 더 어둡게 표시되도록 제어할 수 있다.
도 11, 12
도 11, 12는 객체에 대한 휘도 정보를 설정하는 방법의 또 다른 예를 나타낸 도면이다.
상기 제어부(160)는, 입체 영상 데이터가 복수의 객체를 포함하는 경우, 복수의 객체간의 상대적인 뎁스를 고려하여 상기 복수의 객체의 휘도를 조절할 수 있다.
도 11은 입체 영상 데이터에 포함된 객체가 모두 양의 뎁스를 가지고 있는 경우를 나타낸 도면이다.
도 11(a)를 참조하면, 제 1 객체(410), 제 2 객체(420)가 모두 양의 뎁스 값을 가지고 있다. 그리고, 상기 제 1 객체(410)의 뎁스가 상기 제 2 객체(420)의 뎁스보다 그 값이 크다.
도 11(b)를 참조하면, 상기 제어부(160)는 상기 제 1 객체(410)의 휘도가 이전보다 더 밝아지도록 제어할 수 있다. 그리고, 상기 제어부(160)는 상기 제 2 객체(420)의 휘도가 이전보다 더 어두워지도록 제어할 수 있다.
즉, 상대적으로 스크린으로부터 사용자 방향으로 더 떨어져나온 객체의 휘도를 더 밝게 조절하고, 상대적으로 적게 떨어져나온 객체의 휘도를 더 어둡게 조절할 수 있다.
상기 두 객체(410, 420)의 휘도 차이를 더 크게 하는 것에 의하여, 사용자는 3D 인식 효과를 더 크게 느낄 수 있다.
도 12는 입체 영상 데이터에 포함된 객체가 모두 음의 뎁스를 가지고 있는 경우를 나타낸 도면이다.
도 12(a)를 참조하면, 제 1 객체(430), 제 2 객체(440)가 모두 음의 뎁스 값을 가지고 있다. 그리고, 상기 제 1 객체(430)의 뎁스가 상기 제 2 객체(440)의 뎁스보다 그 값이 크다.
도 12(b)를 참조하면, 상기 제어부(160)는 상기 제 1 객체(430)의 휘도가 이전보다 더 밝아지도록 제어할 수 있다. 그리고, 상기 제어부(160)는 상기 제 2 객체(440)의 휘도가 이전보다 더 어두워지도록 제어할 수 있다.
즉, 상대적으로 사용자가 위치한 지점과 가까운 객체의 휘도를 더 밝게 조절하고, 거리가 먼 객체의 휘도를 더 어둡게 조절할 수 있다.
상기 두 객체(430, 440)의 휘도 차이를 더 크게 하는 것에 의하여, 사용자는 3D 인식 효과를 더 크게 느낄 수 있다.
도 13
도 13은 객체에 대한 휘도 정보를 설정하는 방법의 또 다른 예를 나타낸 도면이다.
도 13(a)를 참조하면, 입체 영상 데이터는 복수의 객체(510, 520-1, 520-2)를 포함할 수 있다. 이 때, 상기 객체 중 일부가 주요 객체(Object of Interesting)에 해당할 수 있다. 상기 주요 객체는 영상이 내포하고 있는 색상, 질감, 위치 등의 특징에 근거하여 동질적인 영역을 기준으로 한 집합들로 나누었을 때, 가장 중심이 될 수 있는 집합이다. 즉, 시청자가 주요하게 관심을 갖게 되는 객체에 해당한다.
입체 영상을 표현하는 방식 중에서, 주요 객체(Object of Interesting)일수록 시청자가 위치하는 지점과 반대 방향에 객체를 배치하는 방식이 존재한다. 주요 객체가 시청자가 바라보는 방향에서 가장 먼 지점에 존재할 때 상기 주요 객체의 휘도를 낮춘다면, 시청자가 상기 주요 객체를 잘 인식하지 못할 수 있다.
따라서, 앞서 설명한 방식과는 다르게, 시청자가 위치한 지점으로부터 가장 멀리 떨어진 지점에 디스플레이되는 객체의 휘도를 높이는 방법을 도입할 수 있다. 그리고, 시청자가 위치한 지점과 가까운 지점에 디스플레이되는 객체일수록 그 휘도를 낮출 수 있다.
도 13(a)를 참조하면, 입체 영상 데이터는 주요 객체(510)와 비 주요 객체(520-1, 520-2)를 포함할 수 있다.
도 13(b)를 참조하면, 주요 객체(510)가 사용자가 위치한 지점으로부터 가장 멀리 떨어진 지점에 디스플레이된다.
이 때, 상기 제어부(160)는 상기 주요 객체(510)의 휘도가 높아지도록 조절할 수 있다. 그리고, 상기 제어부(160)는 사용자가 위치한 지점과 가장 가깝게 위치하는 상기 비 주요 객체(520-2)의 휘도가 낮아지도록 조절할 수 있다.
이와 같이, 휘도를 이용하여 사용자가 입체감을 더욱 잘 느끼게 하기 위한 다양한 방법이 존재한다.
따라서, 상기 제어부(160)는 사용자가 입체 효과를 더욱 잘 느끼게 하기 위한 다양한 방식 중 적합한 방식을 필요에 따라 적절하게 사용할 수 있다.
한편, 상기 디스플레이부(141)는 상기 설정된 휘도 정보에 근거하여, 입체 영상을 표시할 수 있다(S440). 이 때, 입체 영상 데이터에 포함된 모든 객체에 대하여 휘도 정보를 설정하여, 입체 영상을 표시할 수 있다. 또, 입체 영상 데이터에 포함된 객체 중 일부의 객체에 대해서만 휘도 정보를 설정하여, 입체 영상을 표시할 수 있다.
이와 같이, 입체 영상에 포함된 객체의 휘도를 조절하는 것에 의하여, 사용자가 입체 영상의 입체감을 더욱 잘 느낄 수 있다.상술한 본 발명의 실시예에 따른 방법은, 서로 개별적으로 또는 조합되어 이용할 수 있다. 또, 각 실시예를 구성하는 단계들은 다른 실시예를 구성하는 단계들과 개별적으로 또는 조합되어 이용될 수 있다.
또, 이상에서 설명한 방법은 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 지금까지 설명한 방법들은 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 적절한 프로그램 언어로 쓰여진 소프트웨어 코드로 구현될 수 있다. 상기 소프트웨어 코드는 저장부에 저장될 수 있고, 프로세서에 의해 실행될 수 있다.
또한, 이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.
100 : 영상 표시 장치 110 : 방송 수신부 120 : 통신부
130 : 사용자 입력부 140 : 출력부 150 : 메모리
160 : 제어부 170 : 전원 공급부

Claims (8)

  1. 입체 영상의 표시 방법에 있어서,
    입체 영상 데이터를 획득하는 단계;
    상기 획득된 입체 영상 데이터에 포함되어 있는 객체에 대한 뎁스(depth)를 검출하는 단계;
    상기 검출된 뎁스(depth)에 근거하여 상기 객체에 대한 휘도 정보를 설정하는 단계; 및
    상기 설정된 휘도 정보에 근거하여, 입체 영상을 표시하는 단계를 포함하는 것을 특징으로 하는 영상 표시 방법.
  2. 제 1 항에 있어서,
    상기 입체 영상 데이터는 YUV 포맷의 입체 영상 데이터이고,
    상기 휘도 정보는 상기 YUV 포맷의 입체 영상 데이터 중 휘도 신호에 의하여 결정되는 것을 특징으로 하는 영상 표시 방법.
  3. 제 1 항에 있어서, 상기 입체 영상 데이터를 획득하는 단계는,
    RGB 포맷의 입체 영상 데이터를 수신하는 단계; 및
    상기 수신한 RGB 포맷의 입체 영상 데이터를 YUV 포맷의 입체 영상 데이터로 변환하는 단계를 포함하는 것을 특징으로 하는 영상 표시 방법.
  4. 제 1 항에 있어서, 상기 객체에 대한 휘도 정보를 설정하는 단계는,
    상기 검출된 뎁스(depth)가 양의 값을 가지는 경우, 상기 객체가 밝게 표시되도록 상기 객체에 대한 휘도 정보를 설정하는 단계를 포함하는 것을 특징으로 하는 영상 표시 방법.
  5. 제 1 항에 있어서, 상기 객체에 대한 휘도 정보를 설정하는 단계는,
    상기 검출된 뎁스(depth)가 음의 값을 가지는 경우, 상기 객체가 어둡게 표시되도록 상기 객체에 대한 휘도 정보를 설정하는 단계를 포함하는 것을 특징으로 하는 영상 표시 방법.
  6. 제 1 항에 있어서, 상기 객체에 대한 휘도 정보를 설정하는 단계는,
    상기 검출된 뎁스(depth)가 음의 값을 가지는 경우, 상기 객체가 밝게 표시되도록 상기 객체에 대한 휘도 정보를 설정하는 단계를 포함하는 것을 특징으로 하는 영상 표시 방법.
  7. 제 1 항에 있어서, 상기 객체는,
    상기 입체 영상 데이터에 포함되어 있는 객체 중 적어도 일부 객체인 것을 특징으로 하는 영상 표시 방법.
  8. 입체 영상을 표시하는 디스플레이부;
    입체 영상 데이터를 획득하는 데이터 획득부; 및
    상기 데이터 획득부에 의하여 획득한 입체 영상 데이터에 포함되어 있는 객체에 대한 뎁스(depth)를 검출하고,
    상기 검출된 뎁스(depth)에 근거하여 상기 객체에 대한 휘도 정보를 설정하고,
    상기 설정된 휘도 정보에 근거하여 입체 영상을 디스플레이부에 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 영상 표시 장치.
KR1020120003552A 2012-01-11 2012-01-11 영상 표시 장치 및 영상 표시 방법 KR20130082367A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120003552A KR20130082367A (ko) 2012-01-11 2012-01-11 영상 표시 장치 및 영상 표시 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120003552A KR20130082367A (ko) 2012-01-11 2012-01-11 영상 표시 장치 및 영상 표시 방법

Publications (1)

Publication Number Publication Date
KR20130082367A true KR20130082367A (ko) 2013-07-19

Family

ID=48993677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120003552A KR20130082367A (ko) 2012-01-11 2012-01-11 영상 표시 장치 및 영상 표시 방법

Country Status (1)

Country Link
KR (1) KR20130082367A (ko)

Similar Documents

Publication Publication Date Title
KR101929814B1 (ko) 영상 표시 장치 및 이의 제어 방법
US10943502B2 (en) Manipulation of media content to overcome user impairments
CN102164297B (zh) 图像显示装置、3d观看装置及其操作方法
US9021399B2 (en) Stereoscopic image reproduction device and method for providing 3D user interface
KR102245366B1 (ko) 디지털 디바이스 및 그 제어 방법
US20120062551A1 (en) Image display apparatus and method for operating image display apparatus
CN102413343A (zh) 图像显示装置和操作图像显示装置的方法
KR20140109168A (ko) 영상 처리 장치 및 그 방법
KR101994322B1 (ko) 디스패리티 설정 방법 및 대응하는 디바이스
US20150022721A1 (en) Multi contents view display apparatus and method for displaying multi contents view
KR20130127301A (ko) 입체영상에 대한 캡쳐 모드 선택이 가능한 입체영상 캡쳐 장치 및 방법
CN203896461U (zh) 一种双通道机顶盒
KR20120027815A (ko) 영상표시장치 및 그 동작 방법
KR20130082367A (ko) 영상 표시 장치 및 영상 표시 방법
KR101851631B1 (ko) 영상 표시 방법 및 그 전자 기기
KR20140130904A (ko) 영상 표시 장치 및 그 방법
KR101360216B1 (ko) 영상표시장치 및 그 동작방법
WO2022160795A1 (zh) 基于光场显示的显示模式的转换方法及转换装置
KR101796044B1 (ko) 영상표시장치
KR20120029783A (ko) 영상표시장치 및 그 동작방법
KR101538208B1 (ko) 다중 디스플레이에 입체 영상을 분배하기 위한 영상 분배 장치
KR101832332B1 (ko) 액정 표시장치 패널
KR20160008892A (ko) 영상 표시 장치 및 그 방법
KR20150021399A (ko) 영상 처리 장치 및 그 방법
KR20130056762A (ko) 영상표시장치 및 그 동작 방법

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination