KR101956532B1 - 무안경 입체 영상 표시 장치 및 방법 - Google Patents

무안경 입체 영상 표시 장치 및 방법 Download PDF

Info

Publication number
KR101956532B1
KR101956532B1 KR1020180059423A KR20180059423A KR101956532B1 KR 101956532 B1 KR101956532 B1 KR 101956532B1 KR 1020180059423 A KR1020180059423 A KR 1020180059423A KR 20180059423 A KR20180059423 A KR 20180059423A KR 101956532 B1 KR101956532 B1 KR 101956532B1
Authority
KR
South Korea
Prior art keywords
user terminal
distance
stereoscopic image
user
display module
Prior art date
Application number
KR1020180059423A
Other languages
English (en)
Other versions
KR20180107021A (ko
Inventor
신창봉
Original Assignee
주식회사 모픽
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모픽 filed Critical 주식회사 모픽
Priority to KR1020180059423A priority Critical patent/KR101956532B1/ko
Publication of KR20180107021A publication Critical patent/KR20180107021A/ko
Application granted granted Critical
Publication of KR101956532B1 publication Critical patent/KR101956532B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • G02B27/2214
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명에 따르는 무안경 입체 영상 표시 장치는, 복수의 렌티큘러 렌즈로 구성된 렌즈시트를 포함하는 커버를 통하여 입체 영상을 표시하는 디스플레이 모듈 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되, 상기 프로세서는, 상기 복수의 렌티큘러 렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하며, 상기 커버는 사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성된다.

Description

무안경 입체 영상 표시 장치 및 방법{DISPLAY DEVICE AND DISPLAYING METHOD FOR GLASS FREE STEREOSCOPIC IMAGE}
본 발명은 무안경 입체 영상 표시 장치 및 방법에 관한 것으로서, 보다 상세하게는, 스마트폰이나 태블릿 PC와 같은 모바일을 통하여 최적화된 무안경 입체 영상을 제공하기 위한 무안경 입체 영상 표시 장치 및 방법에 관한 것이다.
3D 디스플레이(즉, 입체영상표시장치)는 사람이 입체감을 느끼는 여러 요인 중 우리 눈이 가로방향으로 약 65mm 떨어져 있어서 나타나게 되는 양안시차(binocular disparity)를 이용하여 평면적인 디스플레이 하드웨어에서 말 그대로 가상적으로 입체감을 느낄 수 있게 하는 시스템의 총체이다. 다시 말해 우리의 눈 은 양안시차 때문에 똑같은 사물을 바라보더라도 각각 약간은(정확히 말하면 좌우의 공간적 정보를 약간씩 나눠 가지고 있는) 다른 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 정확히 서로 융합시킴으로써 우리가 입체감을 느낄 수 있게 되는데, 그것을 이용하여 2D 디스플레이 장치에서 좌우 화상 2개를 동 시에 표시하여 각각의 눈으로 보내는 설계를 통해 가상적인 입체감을 만들어 내는 것이 바로 입체영상표시장치 인 것이다.
이러한 입체영상표시장치에서 하나의 화면으로 두 채널의 화상을 나타내기 위해서는 대부분의 경우 하나의 화면 에서 가로나 세로의 한쪽 방향으로 줄을 한 줄씩 바꿔가며 한 채널씩 출력하게 된다. 그렇게 동시에 두 채널의 화상이 하나의 디스플레이 장치에서 출력되면 하드웨어적 구조상 무안경 방식의 경우에는 오른쪽 화상은 그대로 오른쪽 눈으로 들어가고, 왼쪽 화상은 왼쪽 눈으로만 들어가게 된다.
안경을 착용하지 않는 방식으로서 알려진 대표적인 것으로는 원통형의 렌즈를 수직으로 배열한 렌티큘러 (lenticular) 렌즈판을 영상패널 전방에 설치하는 렌티큘러 렌즈 방식이 있다. 이러한 무안경식 입체 영상 표시 장치는 주로 TV와 같은 대형 디스플레이 장치 분야에서 개발되어 왔다.
본 발명은 스마트폰이나 태블릿PC와 같은 모바일 상에서도 무안경 입체 영상을 제공할 수 있도록 하는 입체 영상 표시 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명의 제 1 실시예에 따르는, 무안경 입체 영상 표시 장치는, 복수의 렌티큘러 렌즈로 구성된 렌즈시트를 포함하는 커버를 통하여 입체 영상을 표시하는 디스플레이 모듈 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되, 상기 프로세서는, 상기 복수의 렌티큘러 렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하며, 상기 커버는 사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성된다.
본 발명의 제 2 실시예에 따르는, 사용자 단말의 프로세서에 의해 수행되는, 무안경 입체 영상 표시 방법는, 상기 사용자 단말의 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하는 단계;를 포함하며, 상기 입체 영상을 제공하는 단계는, 상기 디스플레이 모듈에서 표시된 영상이 상기 사용자 단말의 전면에 배치되는 복수의 렌티큘러 렌즈를 포함하는 커버를 거치면서 사용자에게 입체 영상으로 변환되어 제공될 경우, 상기 복수의 렌티큘러 렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 상기 디스플레이 모듈을 제어한다.
본 발명의 제 3 실시예에 따르는, 무안경 입체 영상 표시 장치는, 사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성되는 커버;를 포함하되, 상기 커버는, 상기 사용자 단말의 전면을 커버하며 상기 사용자 단말에 고정가능하도록 구성되는 본체 및 상기 본체의 내부 또는 하부에 배치되는 복수의 렌티큘러 렌즈로 구성된 렌즈시트를 포함하며, 상기 커버는 상기 렌즈시트를 통하여 상기 사용자 단말의 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀에서 제공되는 영상을 입체 영상으로 변환한다.
본 발명은 모바일 사용자들이 흔히 사용하는 모바일 커버 상에 렌티큘러 렌즈를 삽입함으로써, 사용자들이 언제어디서나 쉽고 편하게 모바일 상에서 입체 영상 컨텐츠를 즐길 수 있도록 할 수 있다.
또한, 본 발명은 모바일 상에서 제공되는 입체 영상의 해상도를 향상시킬 수 있으며, 디스플레이 모듈의 렌더링 피치 조정 및 아이트래킹 기능을 통해 선명한 품질의 입체 영상을 제공할 수 있으며, 커버 내에 위치한 렌티큘러 렌즈와 디스플레이의 온/오프 위치 간에 발생된 오정렬을 보상할 수 있다.
도 1은 본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 장치의 구조도이다.
도 2는 본 발명의 일 실시예에 따르는 렌티큘러 렌즈를 포함하는 커버의 분해사시도이다.
도 3은 본 발명의 다른 실시예에 따르는 커버의 구조도이다.
도 4는 본 발명의 또 다른 실시예에 따르는 커버의 구조도이다.
도 5는 본 발명의 일 실시예에 따르는 입체 영상 표시를 위한 구현 원리를 설명하기 위한 개념도이다.
도 6 및 도 7은 본 발명의 일 실시예에 따라 미간 거리를 조정하는 방법을 설명하기 위한 개념도이다.
도 8a 및 도 8b은 본 발명의 일 실시예에 있어서 미간 거리 변경(오차)에 따른 렌더링 미스매치를 설명하기 위해 도시한 도면이다.
도 9 내지 도 11은 본 발명의 일 실시예에 따라 최적 시청 범위 설정을 위한 방법을 설명하기 위한 개념도이다.
도 12은 사용자의 얼굴의 좌우 이동에 따른 보상 방법을 설명하기 위한 개념도이다.
도 13은 시청자의 시청 거리 변경에 따른 보상 방법을 설명하기 위해 도시한 도면이다.
도 14a 내지 도 14c는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 순서도이다.
도 15 내지 도 18은 본 발명의 일 실시예에 따라 렌즈 위치와 디스플레이의 온/오프 위치 간의 오정렬을 보정하는 방법을 설명하기 위한 개념도이다.
도 19는 본 발명의 일 실시예에 있어서 최적 시청 범위의 안내를 위한 방법을 설명하기 위해 도시한 도면이다.
도 20 및 도 21은 본 발명의 일 실시예에 있어서 렌즈의 slanted angle에 따른 화면의 rendering angle을 조정하는 방법을 설명하기 위해 도시한 도면이다.
도 22 내지 도 25는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 오정렬 보정 방법을 설명하기 위해 도시한 순서도이다.
도 26은 화면과 필름 사이의 시야각을 맞추기 위한 UI의 일 예이다.
도 27은 화면과 필름 사이의 좌우 값을 맞추기 위한 UI의 일 예이다.
도 28a-28c는 본 발명의 다른 실시예에 따르는 렌즈 위치와 디스플레이 온/오프 위치 간의 오정렬을 보정하는 방법을 설명하기 위한 도면이다.
도 29는 본 발명의 일 실시예에 따라 시청 거리를 일정하게 유지하면서 해상도를 향상시키기 위한 방법을 설명하기 위한 개념도이다.
도 30는 본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 방법을 설명하기 위한 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하에서 언급되는 "사용자 단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), LTE(Long Term Evolution) 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
이하, 도면을 참조하여, 본 발명의 일 실시예에 대하여 구체적으로 설명하도록 한다.
도 1을 참조하면, 본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 장치(100)는 커버(110),프로세서(121), 카메라(122), 디스플레이 모듈(123)을 포함한다.
커버(110)는 사용자 단말(120)의 외부를 보호하기 위하여 사용자 단말(120)의 디스플레이 영역을 커버하는 구성이다. 커버(110)는 사용자 단말(120)과 별도로 제작되어 사용자 단말(120)에 결합되도록 구성될 수 있다.
사용자 단말(120)은프로세서(121), 메모리(미도시), 디스플레이 모듈(123)을 포함할 수 있다. 이때, 메모리는 무안경 입체 영상 표시 방법을 수행하기 위한 프로그램(또는 애플리케이션)이 저장되어 있으며,프로세서(121)에 의해 프로그램이 실행되어, 입체 영상이 디스플레이 모듈(123)을 통해 제공될 수 있다. 이때, 디스플레이 모듈(123)은 영상을 출력하는 모듈이며, 터치 모듈 형태로 구현되는 경우, 사용자 입력을 수신할 수도 있다. 여기서 상기 프로그램(또는 애플리케이션)에 의해 제공되는 입체 영상 컨텐츠는 사용자 단말(120)에 저장된 것일 수도 있으나, 컨텐츠 제공 서버(미도시)로부터 수신된 것일 수도 있다. 즉, 컨텐츠 제공 서버는 다수의 무안경 입체 영상 컨텐츠를 보유하고 있으며, 사용자는 상기 프로그램(또는 애플리케이션)을 통하여 컨텐츠 제공 서버에 접속하여 입체 영상 컨텐츠를 확인하고 재생할 수 있다.
한편, 카메라(122)는 사용자 단말(120)에 내장되는 내장형으로 구성될 수도 있으나, 사용자 단말(120)에 탈착 가능한 별도의 외장형으로 구현될 수도 있다. 예를 들어, 사용자 단말(120)이 스마트폰이거나 태블릿 PC인경우, 카메라(122)는 내장형으로 구현될 수 있다.
본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 장치(100)는 렌티큘러 렌즈(210) 방식의 장치로서, 렌티큘러 렌즈(210)는 커버(110) 내에 위치하는 것을 특징으로 한다.
이하, 도 2 내지 도 4를 참조하여, 커버(110)의 구조에 대하여 구체적으로 설명하도록 한다.
도 2를 참조하면, 커버(110)는 본체(110a)와 렌즈시트(110b)를 포함하여 구성될 수 있다.
본체(110a)는 사용자 단말(120)의 전면에 결합될 수 있는 크기와 형상으로 형성될 수 있다. 예를 들어, 도 2와 같이 꼭지점부분이 하향 돌출되고 걸림 부분을 갖도록 형성되어, 사용자 단말(120)에 온전히 체결될 수 있도록 구성될 수 있다.
렌즈시트(110b)는 본체(110a)의 하부 또는 본체(110a) 내에 위치하도록 구성되며, 렌티큘러 렌즈(210)로 구성된다.
한편, 도 2의 커버(110)는 양면 결합형 커버일 수 있다. 구체적으로, 사용자 단말(120)이 iOS 기반의 스마트 단말인 경우, 후면 카메라(122)의 위치가 후면의 일측의 최상단에 위치하는 특성으로 인하여, 후면 커버(110)는 일측의 최상단 부분에 후면 카메라(122)가 노출되도록 개구 영역을 갖게 된다. 이때, 후면 커버(110)를 전면에 부착하더라도, 개구 영역이 디스플레이 영역보다 상단에 위치하게 되기 때문에, 후면 커버(110)를 그대로 전면 커버(110) 용으로 활용할 수 있게 된다.
반면, 도 3의 커버(110)는 일면 결합형 커버(110)일 수 있다. 구체적으로, 사용자 단말(120)이 안드로이드 기반의 스마트 단말들 중 후면 카메라(122)가 후면의 상단과 중간 사이에 위치하는 스마트 단말인 경우, 후면 커버(110)는 후면의 상단과 중간 사이 영역에 후면 카메라(122)가 노출되도록 개구 영역(131)을 가질 수 있다. 이때, 후면 커버(110)를 전면에 부착할 경우, 개구 영역(131)과 디스플레이 영역이 겹치게 되어, 디스플레이 영역의 일 부분에 렌티큘러 렌즈(210)가 배치되지 못하는 공백 영역이 발생될 수 있다.
따라서, 커버(110)는 전면 결합용 커버로 구성될 수 있으며, 이러한 커버(110)는 곧바로 사용자 단말(120)의 후면에 결합되기 어렵다. 그에 따라, 후면 보조커버(130)를 추가로 구비하여, 후면 보조커버(130)를 사용자 단말(120)의 후면에 결합되도록 하고, 커버(110)는 후면 보조커버(130)에 결합되도록 함으로써, 커버(110)의 양면 결합 기능이 달성되도록 할 수도 있다.
추가적으로, 후면 보조커버(130)에 사용자가 원하는 입체사진을 프린팅하고, 커버(110)가 결합되도록 할 경우, 입체사진과 커버(110)의 렌티큘러 렌즈(210)와의 조합에 의해 사용자로 하여금 입체사진이 감상되도록 하는 추가 기능을 제공할 수도 있다.
한편, 커버(110)는 도 4와 같이 플립형 커버일 수 있다. 플립형 커버(110)란 사용자 단말(120)의 일측에 고정되어, 여닫이 형태로 사용자 단말(120)의 전면을 개방하였다가 다시 덮을 수 있게 구성된 커버(110)이다. 플립형 커버(110)는 덮개부(111)와 케이스부(112)로 나뉘어 구성될 수 있다. 덮개부(111)는 본체(110a) 및 렌즈시트(110b)로 구성되어, 무안경 입체영상을 제공하기 위한 수단으로 활용될 수 있다. 케이스부(112)는 덮개부(111)가 사용자 단말(120)의 일측에 항상 고정될 수 있도록 사용자 단말(120)의 외형을 보호하도록 제작되어 사용자 단말(120)에 결합되는 구성이다.
또한, 플립형 커버(110)는 덮개부(111)의 일 영역에 홀센서(113)를 포함할 수 있다. 홀센서(113)는 덮개부(111)가 사용자 단말(120)의 디스플레이 영역과 접촉한 상태가 되었는지 감지하고, 이를 사용자 단말(120)로 전달하여, 사용자 단말(120)에서 재생되던 2D 영상이 3D 영상으로 변환되도록 하는 역할을 수행한다.
또한, 플립형 커버(110)의 덮개부(111)와 케이스부(112)의 꼭지점 부분에는 덮개부(111)가 사용자 단말(120)의 전면을 덮었을 때 케이스부(112)에 고정되도록 하기 위한 구조를 별도로 포함할 수 도 있다.
한편, 뛰어난 입체영상을 제공하기 위해서는 렌즈시트와 화면 사이의 거리가 일정해야 한다. 이를 위해서는 렌티큘러 렌즈가 사용자 단말의 화면에 최대한 밀착되어야 한다.
기존의 플립형 커버는 화면에 밀착되어 유지될 필요성이 없었다.
그러나, 추가 실시예에 따르면, 플립형 커버 또는 전면 결합형 커버에 있어서, 사용자 단말의 상부에 결합되는 본체(110a)와 사용자 단말의 하부에 결합되는 보조커버(미도시)는 전면이 편평하게 구성되고 전면으로부터 연장된 가장자리 부분은 사용자 단말의 측면의 일부를 감쌀 수 있도록 굴곡되어 형성될 수 있다. 이때, 사용자 단말의 측면과 대응하여 굴곡된 본체(110a)와 보조커버의 가장자리 부분(모서리 부분)은 서로 맞닿도록 구성될 수 있다. 그리고, 본체(110a)와 보조커버의 가장자리 부분에는 서로 극성이 다른 자석이 실장될 수 있다. 예를 들어, 본체(110a)에는 n극 보조커버에는 s극의 자석이 실장될 수 있다. 이를 통해 본체(110a)와 보조커버의 가장자리가 밀착될 수 있으며, 그러한 효과에 의해 본체(110a)의 하부에 설치된 렌즈시트(110b)가 사용자 단말의 화면에 밀착될 수 있다. 한편, 본체(110a)와 보조커버의 가장자리에는 자석 대신 후크가 설치될 수도 있다. 이와 같이, 본 발명의 일 실시예는 렌티큘러 렌즈(210)를 별도로 사용자 단말(120)에 내장시키지 않고, 탈부착 모듈 형태로 사용자 단말(120)의 커버(110) 내에 포함되도록 구성함으로써, 적은 비용으로 무안경 입체 영상 시스템을 구현할 수 있다. 또한, 사용자들이 대중적으로 사용하는 단말 커버(110) 내에 렌티큘러 렌즈(210)를 삽입함으로써, 사용자가 언제 어디서나 쉽고 편하게 모바일에서도 입체 영상을 즐기도록 할 수 있다. 또한, 커버(110)의 자체 디자인을 양면 결합형으로 구성하거나, 후면 보조커버(130)를 통하여 커버(110)가 양면에 결합될 수 있도록 구현함으로써, 사용자가 쉽게 커버(110)를 휴대하고 활용할 수 있도록 할 수 있다.
이하, 도 5 를 참조하여, 본 발명의 일 실시예에 따르는 무안경 입체 영상 장치의 동작 원리에 대하여 구체적으로 설명하도록 한다.
도 5에서 시청 위치는 사용자의 우안과 좌안이 존재하는 위치를 의미하며, 렌티큘러 렌즈(210)(Lenticular Lens)는 커버(110)의 렌즈시트(110b)를 의미하며, 디스플레이(Display)는 사용자 단말(120)의 디스플레이 모듈(123)을 의미한다. 렌즈시트(110b)는 복수의 볼록렌즈(210)들이 나란히 배열된 구조로 구성되며, 디스플레이 모듈(123)은 입체 영상에 대응되는 컬러를 구현하기 위한 픽셀들(220), 즉 복수의 제1 및 제2 맵핑 패턴(222, 224)으로 구성된다. 제 1 및 제 2 맵핑 패턴(222, 224)은 서로 교번하여 배치되며, 각각 사용자의 서로 다른 안구에 제공되도록 구성된다.
입체 영상은 사용자의 우안으로 제공되는 제 1 맵핑 패턴과 사용자의 좌안으로 제공되는 제 2 맵핑 패턴이 별도로 규정되어, 렌즈시트(110b)를 통해 각각 다른 안구로 입사됨으로써 사용자에게 입체 영상이 제공될 수 있다.
이때, 사용자 단말(120)과 사용자 단말(120)의 화면 상에 배치된 렌즈시트(110b)를 통하여 보다 선명한 무안경 입체 영상을 시청하기 위해서는, 렌티큘러 렌즈(210)의 위치와 제1 및 제2 맵핑 패턴(222, 224)의 위치가 상호 조절될 필요가 있다.
예를 들어, 왼쪽 눈(L)에 보여야 할 픽셀(즉 제2 맵핑 패턴(224))이 오른쪽 눈(R)에 보이는 위치에 있을 수 있고, 원하는 위치에서 벗어난 곳에 있을 수도 있다. 왼쪽 눈(L)에 보이는 위치에 제2 맵핑 패턴(224)이 위치하게 하기 위해서는 복수의 렌티큘러 렌즈(210)를 이동시키는 방법을 고려할 수도 있으나, 렌즈시트(110b)는 이미 한 위치에 고정되어 있는 상태이기 때문에 그러한 방법은 구현하기 어렵다. 이는 곧 렌즈시트(110b)에 구비된 렌티큘러 렌즈(210) 간의 거리를 나타내는 렌즈 피치(LP')가 고정된 값을 가진다는 것을 의미한다.
따라서, 본 발명의 일 실시예는 복수의 렌티큘러 렌즈(210)가 고정되어 있는 상태에서도 사용자에게 최적의 입체 영상을 제공해주는 것을 특징으로 한다.
먼저,프로세서(121)는 도 7과 같은 사용자 인터페이스를 제공하여, 사용자로부터 미간 거리를 입력받을 수 있다. 즉, 사람마다 미간 거리는 다르며 사용자가 직접 자신의 미간 거리를 수치적으로 알기는 어려우므로, 얼굴 크기 별로 미간 거리를 미리 설정해두고, 사용자가 얼굴 크기만 선택하면 자동으로 표준 미간 거리가 입력되게 할 수 있다.
예를 들어, 도 7에서 Kid가 선택되는 경우, 미간 거리(b)로서 60mm가 입력되고, S가 선택되는 경우, 미간 거리(b)로서 63mm가 입력될 수 있다. 또한, L가 선택되는 경우, 미간 거리(b)로서 65mm가 입력되고, XL가 선택되는 경우, 미간 거리(b)로서 67mm가 입력될 수 있다.
이와 같이 얼굴 크기를 선택하는 방법은 자신의 미간 거리(b)를 잘 모르는 대다수의 사용자들에게 상당히 쉽게 미간 거리(b)를 입력하도록 하는 방법이며, 일률적으로 정해진 미간 거리(b)를 이용한 시청 환경에 비해서 훨씬 양호한 시청 환경을 제공할 수 있다.
이어서, 프로세서(121)는 미간 거리(b) 및 미리 설정된 렌즈 피치(LP')에 기초하여 디스플레이 모듈(123)의 렌더링 피치(Rendering Pitch)(P2)를 조정한다.
구체적으로, 먼저, 프로세서(121)는 렌즈 피치(LP') 및 미간 거리(b)에 기초하여 복수의 제1 및 제2 맵핑 패턴(222, 224) 중 서로 인접하는 제1 및 제2 맵핑 패턴(222, 224) 간의 거리(P1)와 복수의 제2 맵핑 패턴(224) 간의 거리를 나타내는 렌더링 피치(P2)를 산출할 수 있다. 이때, 프로세서(121)는 도 5에 도시된, 산출된 거리(P1)와 렌더링 피치(P2) 간의 삼각형 비례를 이용하여 산출할 수 있다.
도 2에서 삼각형 비례를 이용하여 렌즈 피치(LP'), 미간 거리(b), 시청 거리(Z), 및 광학 거리(gn) 간의 비례식(수학식1)을 통해 제1 및 제2 맵핑 패턴(222, 224) 간의 거리(P1)와 렌더링 피치(P2)를 도출한다.
Figure 112018051273438-pat00001
렌더링 피치(P2)는 P1의 2배이므로, P1과 마찬가지로 렌즈 피치(LP') 및 미간 거리(b)에 비례하는 함수로 나타낼 수 있으며, 이를 통해 렌더링 피치(P2)를 도출할 수 있다.
프로세서(121)는 렌더링 피치(P2)가 조정된 상태에서, 미간 거리(b), 렌즈 피치(LP') 및 렌티큘러 렌즈(210)에서 사용자 단말(120)의 디스플레이 모듈(123)까지의 거리를 나타내는 광학 거리(gn)에 기초하여, 사용자가 사용자 단말(120)의 입체 영상 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리(최적 시청 거리)(Z)를 계산할 수 있다. 여기서, 광학 거리(gn)는 렌티큘러 렌즈(210)에서 디스플레이 모듈(123)까지의 물리적 거리에 굴절률을 감안하여 계산된 값(고정 값)일 수 있다.
미간 거리(b), 렌즈 피치(LP') 및 광학 거리(gn)는 이미 정해진 값이므로, 수학식 1을 정리하면, 제1 시청 거리(Z)를 하기 수학식 2와 같이 나타낼 수 있다.
Figure 112018051273438-pat00002
프로세서(121)는 수학식 2에 미간 거리(b), 렌즈 피치(LP') 및 광학 거리(gn) 각각에 정해진 값을 대입하여 제1 시청 거리(Z)를 계산할 수 있다. 제1 시청 거리(Z)는 디스플레이 모듈(123)을 통해 사용자 단말(120)의 화면 상에 표시될 수 있으며, 이를 통해 사용자는 표시 정보를 확인하여 최적 시청 거리를 유지함으로써 선명한 화질의 입체 영상을 시청할 수 있게 된다.
이어서, 프로세서(121)는 카메라(122)를 이용하여, 사용자가 사용자 단말(120)에 대하여 입체 영상을 시청하고 있는 실제 거리를 나타내는 제2 시청 거리(Z')를 도 6과 같이 측정하고, 제1 시청 거리(Z)와 비교할 수 있다.
그리고, 프로세서(121)는 제1 시청 거리(Z) 및 제2 시청 거리(Z') 간의 오차 거리에 기초하여 사용자의 제2 시청 거리(Z')의 조정을 안내하기 위한 가이드 신호를 디스플레이 모듈(123)을 통해 제공할 수 있다.
예를 들면, 프로세서(121)는 제1 시청 거리(Z)와 제2 시청 거리(Z')를 비교한 결과, 제1 시청 거리(Z)보다 제2 시청 거리(Z')가 큰 경우, 사용자 단말(120)의 화면 방향으로 가까이 할 것을 요청하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 가이드 신호는 최적 시청 거리에 대한 초점 좌표와 사용자의 얼굴의 이동에 따라 유동하는 유동 좌표로 구성되어, 유동 좌표가 초점 좌표와 일치하는 위치에 도달하게 끔 가이드하는 형태로 제공될 수 있다. 이에 따라, 사용자는 실제 시청 거리를 보다 짧게 조정하여 선명한 화질의 입체 영상을 계속해서 시청할 수 있게 된다.
다른 예로, 프로세서(121)는 제1 시청 거리(Z)와 제2 시청 거리(Z')를 비교한 결과, 제1 시청 거리(Z)보다 제2 시청 거리(Z')가 작은 경우, 사용자 단말(120)에서 멀어지라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 다시 말해, 실제 시청 거리가 최적 시청 거리보다 작으면, 프로세서(121)는 시청자의 눈을 사용자 단말(120)로부터 더 멀리 하라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 이에 따라, 시청자는 실제 시청 거리를 보다 길게 조정하여 선명한 화질의 입체 영상을 계속해서 시청할 수 있게 된다.
또한, 추가 실시예로, 프로세서(121)는 사용자를 최적 시청거리로 유도하지 않고, 사용자의 실제 시청거리에 맞추어 렌더링 피치를 바꾸어줄 수도 있다. 구체적으로, 렌더링 피치를 조정시, 사용자 단말과 연결된 카메라를 통하여 사용자가 사용자 단말에 대한 실제 시청 거리를 측정한다. 이어서, 실제 시청 거리, 미간 거리 및 렌즈 피치, 좌안 영상 픽셀 및 우안 영상 픽셀까지의 거리를 나타내는 광학 거리에 기초하여, 디스플레이 모듈의 렌더링 피치를 조정할 수도 있다.
한편, 사람마다 미간 거리는 다르기 때문에, 동일한 사용자 단말(120)에 대해 시청자가 달라지는 경우가 발생하면 미간 거리의 조정이 필요하다. 특히, 어린아이의 경우에는 미간 거리가 짧고, 성인 남성의 경우에는 미간 거리가 길어 차이가 많이 난다. 따라서, 본 발명의 일 실시예에서는 이러한 미간 거리의 차이를 조정함으로써, 시청자별로 동일한 사용자 단말(120)에서 크로스토크(Crosstalk)가 적은 완전한 입체 영상을 볼 수 있는 환경을 제공할 수 있다. 이를 위해, 본 발명의 일 실시예에서는 후술하는 디스플레이 모듈(123)을 통해 도 7에 도시된 바와 같이 얼굴 크기를 선택할 수 있는 옵션(Kid, S, L, XL)을 사용자 단말(120)의 화면에 표시할 수 있다.
한편, 미간 거리가 조정(변경)되는 경우, 도 6과 같이,프로세서(121)는 조정된 미간 거리(b')에 맞도록 렌더링 피치(P2)를 재조정할 수 있다. 즉, 도 6에 도시된 바와 같이 미간 거리(b)가 b'로 선택 또는 입력되는 경우, 기준 미간 거리를 b'로 계산하여 변경할 수 있다. 미간 거리(b)가 b'로 변경되었을 때 렌즈 피치(LP')와 광학 거리(gn)는 물리적으로 고정된 값이기 때문에 변경 가능한 것은 렌더링 피치(P2)뿐이다. 따라서, 본 발명의 일 실시예에서는 앞의 수학식 1과 2에서 미간 거리 b를 b'로 변경하면, 새로운 제1 시청 거리(Z')와 새로운 렌더링 피치(P2')를 계산할 수 있다.
Figure 112018051273438-pat00003
Figure 112018051273438-pat00004
프로세서(121)는 미간 거리가 b에서 b'로 변경된 경우, 수학식 3과 4를 이용하여 렌더링 피치(P2')를 재조정할 수 있다. 이로써, 본 발명의 일 실시예에 따르면, 서로 다른 미간 거리를 가진 사람들에게도 같은 사용자 단말(120)에서 최적의 시청 환경을 제공할 수 있다.
수학식 4의 Z' 값은 미간 거리의 변경(b -> b')에 따라 시청자가 최적의 시청 환경을 가지는 시청 거리로서, 사용자 단말(120)로부터 Z'보다 멀리 있거나 가까이 있으면 그 상태를 표시해주어(가이드 신호), 시청자가 최적의 시청 거리로 오도록 유도를 해주는 기준이 될 수 있다. 이로써, 본 발명의 일 실시예에 따르면, 서로 다른 미간 거리를 가진 사람들에게도 같은 사용자 단말(120)에서의 최적 시청 환경을 제공할 수 있다.
한편, 디스플레이 모듈(123)에 대한 입력을 통해 입력된 미간 거리(b)와 사용자의 실제 미간 거리 사이에는 오차가 발생할 수 있다. 예컨대, 미간 거리가 b'인 사람이 b 값으로 설정(입력)된 상태로 입체 영상을 시청하는 경우, 사용자는 제1 및 제2 맵핑 패턴(222, 224)의 중앙을 보지 못하고 가장자리 부분을 보게 되는데, 이는 좌우 시역이 섞이기 쉽고 최적 시청 거리(Z)의 폭을 상당히 좁혀 버리게 되는 문제를 초래한다.
미간 거리의 오차와 관련하여, 도 8a에서와 같이 동일한 거리에서가 아니라, 카메라를 이용하여 시청 거리를 측정하는 기술을 적용하는 경우에는 다음과 같다.
도 8b을 참조하면, 미간 거리가 b로 고정되어있고 그때의 시청 거리가 Z라고 한다. 만약, 미간 거리가 b'인(도 8B에서는 b'가 b보다 작다고 가정) 사람이 동일한 시청 거리 Z에서 화면을 바라 보면, 미간 거리는 미간 거리 b인 사람의 미간 거리보다 작게 나온다. 따라서, 디스플레이 모듈(123)에는 최적 시청 거리가 Z보다 더 뒤어서 시청하고 있다고 인식해서 변경된 시청 거리 Z'로 입력된다.
미간 거리가 b'인 사람이 Z만큼 화면에서 떨어진 위치에서 바라보고 있으면, 사용자 단말(120)는 미간 거리가 b인 사람이 시청 거리 Z'만큼 화면에서 떨어진 위치에서 바라보고 있다고 인식할 수 있다.
결국, 미간 거리 b'인 사람이 R', L'인 위치에서 화면을 바라보고 있어도 사용자 단말(120)는 R, L 위치로 인식하고 미간 거리도 b로 인식하여 적절하지 않은 렌더링(Rendering)을 해주게 된다.
이는 사용자 단말(120)의 화면 가장자리로 갈수록, 원하는 위치(제1 및 제2 맵핑 패턴)에서 점점 멀어진 잘못된 위치를 보게 하는 아주 나쁜 결과를 초래한다. 즉, 시청자는 점선과 같이 제1 및 제2 맵핑 패턴(222, 224)을 보아야 하는데, 실선과 같이 바라보는 위치가 어긋나서 가장자리로 갈수록 다른 맵핑 패턴으로 넘어가는 것을 확인할 수 있다. 따라서, 본 발명의 일 실시예에서는 사용자에게 자신의 미간 거리에 따른 최적 시청 거리에서 화면을 계속 바라볼 수 있게 하여, 보다 편한 시청을 할 수 있도록 한다. 이하에서는 최적 시청 범위에 대해 도 9 내지 도 13을 참조하여 자세히 설명하기로 한다.
도 9에서 최적 시청 거리(Z)에서는 오른쪽 눈(R)을 위한 제1 맵핑 패턴(222)의 한 가운데를 볼 수 있거나 왼쪽 눈(L)을 위한 제2 맵핑 패턴(224)의 한 가운데를 볼 수 있다. 그러나, 시청 거리가 최적 시청 거리 Z에서 Z'로 가까워지거나 멀어질 때에는 맵핑 패턴(222, 224)의 한 가운데가 아닌 가장자리를 보게 된다.
시청 거리가 달라질 때 사용자가 바라보는 맵핑 패턴(222, 224)의 위치를 계산을 통해 얻을 수 있는데, 이를 통해 시청 거리에 따라 맵핑 패턴(222, 224)의 한 가운데에서 비껴 난 정도를 함수 값으로 구하면 아래의 수학식 5과 같다.
Figure 112018051273438-pat00005
여기서, ER이 100%가 되면 다른 시역이 보인다. 즉, ER이 100%가 되면, 왼쪽 눈(L)에서 제2 맵핑 패턴(224)이 보이거나 오른쪽 눈(R)에서 제1 맵핑 패턴(222)이 보일 수 있다.
수학식 5의 함수를 이용하여 시청 거리와 ER을 그래프로 나타내면 도 10과 같다. 도 10의 그래프는 최적 시청 거리와 사용자 단말(120)의 디스플레이 특성, 적용 렌즈 등에 따라 달라질 수 있다. 본 발명의 일 실시예에서는 ER의 10% 수준을 최적 시청 범위로, ER의 50% 수준을 최대 시청 범위로 선정할 수 있는데, 이는 적용 모델(사용자 단말(120))에 따라 달라 질 수가 있어 모델별로 실험을 통해 결정한다.
본 실시예에서는 최적 시청 범위(10%) 내에서는 사용자 단말(120)의 화면에 아무런 표시도 하지 않지만, 10%를 넘어서는 시청 거리에서는 현재 거리가 최적 거리 대비 멀거나 가깝다고 표시하도록 설계될 수 있다. 또한, 50% 이상으로 멀어지면 화면에 'out of boundary'라고 표시를 해줄 수 있으며, 사용자가 최대 시청 범위 이내에서, 가능하면 최적 시청 범위 내에 머물도록 가이드를 할 수 있다.
또한, 사용자의 최대(또는 최적) 시청 범위 가이드를 사용자에게 보다 쉽고 편리하게 제공하기 위해, 프로세서(121)는 디스플레이 모듈(123)을 통해 시청 거리에 대한 오차 거리를 확인할 수 있는 바(Bar)를 사용자 단말(120)의 디스플레이부에 표시할 수 있다.
이를 위해, 프로세서(121)는 사용자 단말(120)의 카메라(122)를 이용하여 사용자와 화면 사이의 실제 시청 거리를 측정하고, 실제 시청 거리가 최적 시청 거리보다 큰 경우에는 화면에 가까이 오라는 신호를, 작은 경우에는 화면에서 멀어지라는 신호를 사용자 단말(120)에 제공할 수 있다. 이로써, 본 발명의 일 실시예에 따르면 사용자가 최적의 시청 환경이 어디인지 그 위치를 알 수 있도록 가이드를 해준다.
이때, 사용자 단말(120)은 초기에는 사용자의 최적 시청 거리를 표기해주어 적정 거리가 얼마인지 알려주고 사용자가 충분히 최적 시청 거리를 인지하였다고 판단하면 하단의 확인 버튼을 누르게 하여 거리 상태를 표시하는 BAR를 제거할 수 있도록 한다. 다만, 사용자 단말(120)은 사용자의 실제 시청 거리가 최적 시청 거리로부터 일정 범위 밖으로 벗어나는 경우에만 거리 상태를 표시하는 BAR가 나타나도록 하여 적정 시청 거리를 유지하도록 도와준다.
한편, 앞서 설명한 것처럼 사용자가 시청 시 앞뒤로 이동하는 일이 발생할 수도 있지만, 이와는 달리 사용자가 시청 시 좌우로 이동하는 일이 발생할 수도 있다.
예컨대, 도 12에 도시된 바와 같이, 사용자가 앞뒤로는 동일한 위치에서 우측으로 R-L에서 R'-L'로 X만큼 이동한 경우, 맵핑 패턴(222, 224)은 반대 방향으로 x(offset)만큼 이동을 해주어야 사용자는 동일한 화면을 계속해서 볼 수가 있다. 이는 R-L에서는 점선을 따라 화면을 보던 것에서 R'-L'에서는 실선으로 화면을 보는 것으로, 사용자의 이동 거리 X에 따라 x(offset)의 값이 달라지기 때문이다. 물론, 시청 거리가 앞뒤로도 이동한다면 시청 거리에 따라서도 x(offset)의 값은 달라진다. 본 발명의 일 실시예에서는 사용자의 좌우 이동에 따른 보상(offset)을 위해 사용자의 눈의 이동 방향 및 이동 거리를 활용할 수 있다.
구체적으로, 프로세서(121)는 사용자 단말(120)의 카메라(122)를 이용하여 사용자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하여, 사용자의 눈의 이동 방향 및 이동 거리를 측정할 수 있다. 도 12와 같이, R-L에서 R'-L'로 X만큼 이동한 경우, 이동 방향은 우측 방향이 되고 이동 거리는 X가 된다. 프로세서(121)는 측정된 이동 거리 및 미간 거리에 기초하여 디스플레이 모듈(123)에 적용하기 위한 옵셋(offset)(x)을 계산하고, 옵셋(x)만큼 측정된 이동 방향과 반대 방향으로, 사용자 단말(120)의 디스플레이 모듈(123)에 교대로 배치된 복수의 제1 및 제2 맵핑 패턴(222, 224)을 이동시킬 수 있다.
여기서, 사용자 단말(120)의 카메라를 이용하여 시청자의 눈의 이동 거리를 측정하여 옵셋을 계산하는 방식은 삼각비를 이용하여 계산할 수 있다. 시청자의 눈의 이동거리를 X(mm)는 사용자 단말(120)의 카메라를 이용하여 측정할 수 있고, 이동거리 X에 대응하는 맵핑 패턴의 이동량은 아래 수학식 6을 통해 산출 할 수 있다.
Figure 112018051273438-pat00006
한편, 사용자의 시청 거리가 변경되는 경우 사용자의 우안(R) 및 좌안(L)이 가리키는 제1 및 제2 맵핑 패턴(222, 224)의 위치가 달라져 왜곡된 입체 영상을 시청할 수 있기 때문에 이에 대한 보상이 필요하다. 즉, 사용자가 기준(최적) 시청 거리보다 가깝거나 먼 거리에서 화면을 보는 경우가 발생할 때 이를 보상해주는 방법이 필요하다.
도 13에 도시된 바와 같이, 본 발명의 일 실시예에서는 사용자가 기준 시청 거리 Z보다 가까운 Z'에 있을 때, 렌즈 피치(LP')와 광학 거리(gn)는 물리적으로 고정되어 변경할 수 없기에, 시청 거리 변경 보상을 위해 변경 가능한 값을 가지는 렌더링 피치(P2')가 이용될 수 있다. 따라서, 프로세서(121)는 변경된 시청 거리 Z'를 고정 값인 렌즈 피치(LP') 및 광학 거리(gn)와 함께 하기 수학식 7에 적용하여 사용자 단말(120)의 디스플레이 모듈(123)의 렌더링 피치(P2')를 계산할 수 있다.
Figure 112018051273438-pat00007
프로세서(121)는 렌더링 피치(P2')를 이용하여 렌더링(Rendering)을 수행함으로써 사용자가 시청 거리 변화에도 동일한 시역을 계속 유지하면서 입체 영상을 시청하도록 할 수 있다.
디스플레이 모듈(123)은 프로세서(121)에 의해 산출된 제1 시청 거리(최적 시청 거리)를 사용자 단말(120)에 제공하여 사용자 단말(120)의 화면디스플레이부를을 통해 시청자에게 표시해줄 수 있다. 디스플레이 모듈(123)은 프로세서(121)에 의해 산출된 제1 시청 거리(최적 시청 거리)를 사용자 단말(120)에 제공하여 사용자 단말(120)의 화면을 통해 시청자에게 표시해줄 수 있다.
디스플레이 모듈(123)은 프로세서(121)에서의 비교 결과에 따라 제1 시청 거리(최적 시청 거리)와 제2 시청 거리(실제 시청 거리) 간의 오차 거리가 일정 범위 내에 포함되지 않는 경우, 프로세서(121)로부터 가이드 신호를 전달받아, 제1 시청 거리를 기준으로 오차 거리를 조정할 수 있는 바(Bar)를 사용자 단말(120)의 화면에 표시할 수 있다(도 11 참조).
디스플레이 모듈(123)은 사용자 단말(120)의 화면에 얼굴 크기를 선택할 수 있는 옵션을 표시할 수 있다. 옵션을 통해 어느 하나의 얼굴 크기가 선택되는 경우, 디스플레이 모듈(123)은 선택된 얼굴 크기에 대응되는 값을 미간 거리로서 입력받을 수 있다.
디스플레이 모듈(123)은 사용자 단말(120)의 화면에 수치를 입력할 수 있는 입력 버튼을 표시할 수 있다. 입력 버튼을 통해 시청자의 눈동자 사이의 길이를 직접 측정한 실측 수치가 입력되는 경우, 디스플레이 모듈(123)은 입력된 실측 수치를 미간 거리로서 입력받을 수 있다.
도 14a는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
도 14a를 참조하면, 1310 단계에서 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.
다음으로, 1320 단계에서 입체 영상 표시 장치는 입력된 미간 거리와 사용자 단말(120)의 디스플레이에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치(Lens Pitch)에 기초하여 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.
도 14b은 본 발명의 다른 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
도 14b 을 참조하면, 1410 단계에서 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.
다음으로, 1420 단계에서 입체 영상 표시 장치는 입력된 미간 거리와 렌즈 피치에 기초하여 사용자 단말(120)의 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.
다음으로, 1430 단계에서 입체 영상 표시 장치는 미간 거리, 렌즈 피치 및 볼록 렌즈에서 디스플레이까지의 거리를 나타내는 광학 거리에 기초하여, 시청자가 사용자 단말(120)의 입체 영상을 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산한다.
다음으로, 1440 단계에서 입체 영상 표시 장치는 사용자 단말(120)의 카메라를 이용하여 실제 시청 거리(제2 시청 거리)를 측정한다.
다음으로, 1450 단계에서 입체 영상 표시 장치는 제1 시청 거리 및 제2 시청 거리 간의 오차 거리에 기초하여 시청자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 사용자 단말(120)에 제공한다.
도 14c는 본 발명의 또 다른 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
도 14c를 참조하면, 1510 단계에서 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.
다음으로, 1520 단계에서 입체 영상 표시 장치는 입력된 미간 거리와 사용자 단말(120)의 디스플레이에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치(Lens Pitch)에 기초하여 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.
다음으로, 1530 단계에서 입체 영상 표시 장치는 사용자 단말(120)의 카메라를 이용하여 시청자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행한다.
다음으로, 1540 단계에서 입체 영상 표시 장치는 카메라를 이용한 아이 트래킹의 수행을 통해 측정된, 시청자의 눈의 이동 방향 및 이동 거리를 획득한다.
다음으로, 1540 단계에서 입체 영상 표시 장치는 이동 거리 및 미간 거리에 기초하여 디스플레이에 적용하기 위한 옵셋을 계산한다.
다음으로, 1550 단계에서 입체 영상 표시 장치는 옵셋만큼 측정된 이동 방향과 반대 방향으로, 디스플레이에 교대로 배치된 복수의 제1 및 제2 맵핑 패턴을 이동시킨다.
이하, 도 15 내지 도 21를 참조하여, 본 발명의 일 실시예에 따르는 입체 영상 표시 장치(100)의 오정렬 방법에 대하여 구체적으로 설명한다.
사용자 단말(120)의 디스플레이 모듈(123)의 렌더링 피치(P2)를 조정하더라도 렌즈 시트를 사용자 단말(120)에 부착하는 과정에서 렌즈 시트가 원하는 위치에서 어긋난 곳에 있을 수 있다. 이러한 경우, 렌즈 시트의 렌티큘러 렌즈(210) 위치와 디스플레이 모듈(123)의 픽셀 위치도 어긋나게 되며, 이에 따라 도 15에 도시된 바와 같이 좌안(L)에 보여야 할 픽셀이 우안(R)에 보이는 위치에 있거나 목표 위치에서 벗어난 곳에 있을 수 있다. 따라서, 렌티큘러 렌즈(210)와 픽셀의 위치(온, 오프 위치)를 상호 조정할 필요가 있다. 그런데, 렌티큘러 렌즈(210)의 위치는 렌즈 시트가 사용자 단말(120)에 부착되어 고정되기 때문에 조정하기 어렵다.
이에 따라, 본 발명의 일 실시예에서는 사용자 단말(120)의 디스플레이 모듈(123)의 픽셀, 즉 제1 및 제2 맵핑 패턴(222, 224)의 위치를 조정하여, 렌즈 시트의 부착 시 렌티큘러 렌즈(210)의 위치 및 제1 및 제2 맵핑 패턴의 위치 간에 발생된 오정렬을 보정할 수 있다.
이를 위해, 프로세서(121)는 도 15에 도시된 바와 같이, 렌더링 피치(P2)의 간격만큼 사용자 단말(120)의 디스플레이 모듈(123)의 픽셀을 온(On)시킬 수 있다. 이때, 시청자는 한 쪽 눈으로 사용자 단말(120)의 화면을 주시하여 온 된 픽셀이 보이는지를 확인할 수 있다. 도 16에서와 같이 온 된 픽셀이 목표 위치에서 벗어나 있으면 시청자는 온 된 픽셀을 볼 수 없게 된다. 본 실시예에서는 온 된 픽셀이 시청자의 우안(R)에 대응되는 제1 맵핑 패턴(222)이라고 가정한다. 참고로, 제1 맵핑 패턴(222)은 하나의 픽셀로 구성될 수도 있고 여러 개의 픽셀로 구성될 수도 있으며 0.5개의 픽셀로 구성될 수도 있다. 제2 맵핑 패턴(224)도 제1 맵핑 패턴(222)과 마찬가지로 구성될 수 있다.
이와 같이 시청자가 온 된 픽셀을 인식하지 못하는 경우, 프로세서(121)는 도 17에 도시된 바와 같이 온 된 픽셀의 위치에 관한 매핑(Mapping) 값을 변경하여 필셀 위치를 좌측으로 이동시킴으로써, 렌즈 시트의 부착 시 렌티큘러 렌즈(210)의 위치 및 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치 간에 발생된 오정렬을 보정할 수 있다. 이때, 프로세서(121)는 도 17과는 다르게 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 우측으로 이동시킬 수도 있다.
즉, 프로세서(121)는 온 된 픽셀에 대한 시청자의 인식 여부에 기초하여 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치에 관한 매핑 값을 변경하여 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 좌측 또는 우측으로 이동시킴으로써 렌티큘러 렌즈(210)와 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 상호 조정할 수 있다. 이때, 프로세서(121)는 초기에 온 된 픽셀이 시청자의 한 쪽 눈을 통해 인식되지 않는 경우, 시청자의 한 쪽 눈을 통해 다음에 온 된 픽셀이 인식될 때까지 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치의 이동을 반복할 수 있다.
이하에서는 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 이동시키는 방법에 대해서 도 18 및 도 19를 참조하여 더욱 구체적으로 설명한다.
프로세서(121)는 도 18에 도시된 바와 같이 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치에 관한 매핑 값을 할당하기 위해 렌더링 피치(P2)의 간격 내에 있는 픽셀 각각에 넘버링을 하고, 시청자의 좌안에 대응되는 픽셀의 번호와 시청자의 우안에 대응되는 픽셀의 번호 간의 차이에 기초하여, 렌더링 피치(P2)의 간격 내에 있는 픽셀 중 온 시킬 픽셀의 번호를 설정할 수 있다. 이때, 프로세서(121)는 설정된 픽셀의 번호를 기준으로 일정 범위 내에 위치하는 픽셀을 온 시킬 수 있다.
여기서, 렌더링 피치(P2)가 사용자 단말(120)의 디스플레이 모듈(123)의 픽셀 사이즈와 정수배가 아닌 경우가 발생할 수 있다. 이러한 경우, 프로세서(121)는 렌더링 피치(P2)의 간격을 N( N은 자연수)개로 등분한 다음, N개 중에서 한 개의 픽셀이 차지하는 개수를 이용하여 렌더링 피치(P2)의 간격 내에 있는 픽셀 각각에 넘버링을 할 수 있다. 이때, 프로세서(121)는 필셀 각각에 넘버링된 번호를 N으로 나눈 나머지 값을 산출하고, 산출된 나머지 값으로 필셀 각각에 넘버링된 번호를 변경할 수 있다.
예를 들어, 렌더링 피치(P2)에 픽셀이 5.2개가 들어간다면 어느 픽셀을 온/오프 해야 할지 알기 쉽지 않다. 이러한 경우, 렌더링 피치(P2)를 100등분 한 다음, 한 개의 픽셀이 차지하는 개수를 H라고 하면, H = 100/P2가 된다. P2가 5.2라고 하면 H는 19.23이 되고, 이를 이용하면 모든 픽셀에 다음과 같이 넘버링(numbering)을 할 수 있다.
0 19 39 58 77 96 115 135 154 173 192 212 231 250 ...
여기서 매 100단위마다 반복되므로 100으로 나누어서 나머지만 남기면 다음과 같이 된다.
0 19 39 58 77 96 15 35 54 73 92 12 31 50 ...
왼쪽 눈에 보여야 하는 픽셀의 숫자와 오른쪽 눈에 보여야 하는 픽셀의 숫자가 50의 차이가 나도록 25와 75로 결정하면, 픽셀의 번호 중에서 25와 일치하는 것 또는 75와 일치하는 것으로 한정하여 해당 픽셀을 on시켜 주면 된다. 일치하는 숫자를 범위로 설정할 수도 있는데 H값이 19.25이므로 15~35 또는 65~85로 할 수도 있다. 범위는 pixel의 구조나 H값의 크기에 따라 변동이 가능하다.
이를 적용하면 다음과 같이 65~85사이의 pixel만 on이 된다(x는 off, o는 on).
0(x) 19(x) 39(x) 58(x) 77(o) 96(x) 15(x) 35(x) 54(x) 73(o) 92(x) 12(x) 31(x) 50(x) 69(o) 88(x) 8(x) 27(x) 46(x) 65(o) 85(o) 4(x) 23(x) 42(x) 62(x) 81(o) 0(x) 19(x) 39(x) 58(x) ...
프로세서(121)는 도 19에 도시된 바와 같이 일정 범위 내에 위치하는 픽셀을 온 시켰을 때, 시청자의 한 쪽 눈을 통해 일정 범위 내에 위치하는 픽셀이 인식되지 않는 경우, 렌더링 피치(P2)의 간격 내에 있는 픽셀 각각의 번호를 증가시켜 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 좌측으로 이동시킬 수 있다. 이와 달리, 프로세서(121)는 렌더링 피치(P2)의 간격 내에 있는 픽셀 각각의 번호를 감소시켜 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치를 우측으로 이동시킬 수도 있다.
예를 들어, 도 19와 같이 시작을 0으로 해서 65~85 사이의 숫자에 해당하는 pixel을 on시켰을 때, 58, 54, 50번의 픽셀이 왼쪽 눈에 대응되는 위치에 있기 때문에, 시청자는 65~85 사이의 픽셀을 왼쪽 눈으로 볼 수 없게 된다. 왼쪽 눈에서 잘 보이는 부분에 65~85의 숫자에 해당하는 픽셀이 배치되도록 하는 것이 옵셋(offset) 조정이다.
이를 위해선 시작 픽셀의 숫자를 10씩 늘린다. 그렇게 되면 시청자의 왼쪽 눈에 대응되는 위치에는 68, 64, 60번의 픽셀이 있게 되어, 시청자는 68번에 해당하는 픽셀은 왼쪽 눈으로 볼 수 있다. 하지만, 여전히 시청자는 64, 60번에 해당하는 픽셀을 왼쪽 눈으로 볼 수 없다. 따라서, 다시 시작 픽셀의 숫자를 10씩 늘리면, 시청자의 왼쪽 눈에 대응되는 위치에는 78, 74, 70번의 픽셀이 있게 되어, 시청자는 모든 픽셀을 왼쪽 눈으로 볼 수 있게 된다.
이와 같이, 본 발명의 일 실시예에서는 시작 픽셀의 숫자를 10씩 늘리고, 그렇게 되면 on되는 pixel이 좌측으로 조금씩 이동하는 결과가 되며, 이것을 반복하면 어느 순간 시청자의 왼쪽 눈과 pixel이 일치하게 된다. 본 발명의 일 실시예에 따르면, 시청자는 왼쪽 눈에 화면이 밝게 보이는 순간을 찾기만 하면 렌즈와 pixel의 위치를 맞출 수 있기 때문에 사용이 쉬우면서도 위치 정확도가 높다.
한편, 프로세서(121)는 렌더링 피치(P2)가 조정된 상태에서, 미간 거리(b), 렌즈 피치(LP') 및 렌티큘러 렌즈(210)에서 사용자 단말(120)의 디스플레이 모듈(123)까지의 거리를 나타내는 광학 거리(gn)에 기초하여, 시청자가 사용자 단말(120)의 입체 영상을 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리(최적 시청 거리)(Z)를 계산할 수 있다.
여기서, 광학 거리(gn)는 렌티큘러 렌즈(210)에서 사용자 단말(120)의 디스플레이 모듈(123)까지의 물리적 거리에 굴절률을 감안하여 계산된 값(고정 값)을 나타낼 수 있다.
프로세서(121)는 사용자 단말(120)의 카메라를 이용하여, 시청자가 사용자 단말(120)의 입체 영상을 시청하고 있는 실제 거리를 나타내는 제2 시청 거리를 측정할 수 있다. 프로세서(121)는 측정된 제2 시청 거리를 제1 시청 거리(Z)와 비교할 수 있다.
따라서, 프로세서(121)는 제1 시청 거리(Z) 및 제2 시청 거리 간의 오차 거리에 기초하여 시청자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 사용자 단말(120)에 제공할 수 있다.
예를 들면, 프로세서(121)는 제1 시청 거리(Z)와 제2 시청 거리를 비교한 결과, 제1 시청 거리(Z)보다 제2 시청 거리가 큰 경우, 사용자 단말(120) 쪽으로 가까이 오라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 다시 말해, 도 11에 도시된 바와 같이, 실제 시청 거리가 최적 시청 거리보다 크면, 프로세서(121)는 시청자의 눈을 사용자 단말(120) 쪽으로 더 가까이 하라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 이에 따라, 시청자는 실제 시청 거리를 보다 짧게 조정하여, 렌티큘러 렌즈(210)의 위치와 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치 간에 발생된 오정렬 보정 작업의 정확도를 유지할 수 있게 된다.
다른 예로, 프로세서(121)는 제1 시청 거리(Z)와 제2 시청 거리를 비교한 결과, 제1 시청 거리(Z)보다 제2 시청 거리가 작은 경우, 사용자 단말(120)에서 멀어지라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 다시 말해, 실제 시청 거리가 최적 시청 거리보다 작으면, 프로세서(121)는 시청자의 눈을 사용자 단말(120)로부터 더 멀리 하라고 안내하는 가이드 신호를 사용자 단말(120)에 제공할 수 있다. 이에 따라, 시청자는 실제 시청 거리를 보다 길게 조정하여, 렌티큘러 렌즈(210)의 위치와 사용자 단말(120)의 디스플레이 모듈(123)의 온, 오프 위치 간에 발생된 오정렬 보정 작업의 정확도를 유지할 수 있게 된다.
한편, 렌즈 시트에 구비된 복수의 렌티큘러 렌즈(210)는 렌즈 시트상에 일정 각도의 경사를 가지도록 배열될 수 있다. 다시 말하면, 렌즈 시트는 도 20에 도시된 바와 같이 렌티큘러 렌즈(210)의 슬랜티드 각도(slanted angle) 배열을 통해 그 상면에 경사지게 형성된 결 무늬를 구비하게 된다.
따라서, 프로세서(121)는 도 21에 도시된 바와 같이 사용자 단말(120)의 화면의 렌더링 각도(rendering angle)를 렌티큘러 렌즈(210)의 슬랜티드 각도와 동일하게 맞추어 주는 작업을 실시할 수 있다.
디스플레이 모듈(123)은 사용자 단말(120)의 화면에 옵셋 조정 UI(User Interface)를 표시할 수 있다. 여기서, 옵셋 조정 UI는 필셀 각각의 번호를 일정 시간마다 증가 또는 감소시키기 위한 플레이 버튼, 필셀 각각의 번호 증가 또는 감소를 일시 정지시키기 위한 일시 정지 버튼, 일시 정지 버튼이 선택된 상태에서 필셀 각각의 번호를 미세하게 조정하기 위한 미세 조정 버튼, 및 시청자의 한 쪽 눈을 통해 일정 범위 내에 위치하는 픽셀이 인식되는 경우에 선택하기 위한 확인 버튼을 포함할 수 있다.
예를 들어, 시청자는 사용자 단말(120)의 화면에서 플레이 버튼을 누른다. 그러면, 시작 픽셀의 숫자가 0에서 시작해서 자동으로 10씩 더해진다. 시청자는 한쪽 눈을 통해 화면이 밝아지는 것을 확인하는 순간, 일시 정지 버튼을 누르고 미세 조정 버튼을 이용해서 -1 또는 +1씩 시작 픽셀의 값을 바꾸어 가며 가장 화면이 밝아지는 위치를 찾는다. 시청자는 가장 밝은 위치를 찾으면 확인 버튼을 누른다.
다른 실시예로서, 디스플레이 모듈(123)은 도 26에 도시된 바와 같이, 화면과 필름(즉, 렌즈시트) 사이의 시야각을 맞추기 위한 UI를 제공할 수 있다. UI는 사용자의 좌우 반원을 그리는 제스쳐를 인식하여 화면과 필름 사이의 시야각을 조절할 수 있다. 예를 들어, 오른쪽 제스쳐는 '+' 값을 주어 시야각을 넓게 조절할 수 있고, 왼쪽 제스쳐는 '-' 값을 주어 시야각을 좁게 조절할 수 있다. UI는 보다 수월한 시야각의 조정을 위하여 화면을 세 단계로 나눌 수 있다. 하단부터 1, 2, 3배속으로 변하며, 영역별 가이스 선을 제공할 수 있다.
또 다른 실시예로서, 디스플레이 모듈(123)은 도 27에 도시된 바와 같이, 화면과 필름 사이의 좌우 값을 맞추기 위한 UI를 제공할 수 있다. UI는 사용자의 좌우 수평이동 제스쳐를 인식하여 화면과 필름 사이의 좌우 값을 조절할 수 있다. 예를 들어, 오른쪽 제스쳐는 '+' 값을 주어 오른쪽으로의 화면 이동을 조절할 수 있고, 왼쪽 제스쳐는 '-' 값을 주어 왼쪽으로의 화면 이동을 조절할 수 있다. UI는 보다 수월한 좌우 값의 조정을 위하여 화면을 세 단계로 나눌 수 있다. 하단부터 1, 2, 3배속으로 변하며, 영역별 가이스 선을 제공할 수 있다.
도 22 내지 도 25는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 오정렬 보정 방법을 설명하기 위해 도시한 흐름도이다.
먼저 도 22 내지 도 24를 참조하면, 1210 단계에서 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.
다음으로, 1220 단계에서 입체 영상 표시 장치는 입력된 미간 거리, 및 렌즈 피치에 기초하여 사용자 단말(120)의 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.
다음으로, 1230 단계에서 입체 영상 표시 장치는 디스플레이의 온, 오프 위치를 이동시켜, 렌즈 시트의 부착 시 볼록 렌즈의 위치 및 디스플레이의 온, 오프 위치 간에 발생된 오정렬을 보정한다.
이를 위해, 1310 단계에서 입체 영상 표시 장치는 렌더링 피치의 간격만큼 디스플레이의 픽셀을 온(On)시킨다.
구체적으로, 1410 단계에서 입체 영상 표시 장치는 디스플레이의 온, 오프 위치에 관한 매핑 값을 할당하기 위해 렌더링 피치의 간격 내에 있는 픽셀 각각에 넘버링을 한다. 이어서, 1420 단계에서 입체 영상 표시 장치는 시청자의 좌안에 대응되는 픽셀의 번호와 시청자의 우안에 대응되는 픽셀의 번호 간의 차이에 기초하여, 렌더링 피치의 간격 내에 있는 픽셀 중 온 시킬 픽셀의 번호를 설정한다. 이어서, 1430 단계에서 입체 영상 표시 장치는 설정된 픽셀의 번호를 기준으로 일정 범위 내에 위치하는 픽셀을 온 시킨다.
이후, 1320 단계에서 입체 영상 표시 장치는 온 된 픽셀에 대한 시청자의 인식 여부를 판단한다.
판단 결과 시청자가 인식하지 못한 경우(1320의 "아니오" 방향), 1330 단계에서 입체 영상 표시 장치는 디스플레이의 온, 오프 위치에 관한 매핑 값을 변경하여 디스플레이의 온, 오프 위치를 좌측(또는 우측)으로 이동시킨다. 반면, 판단 결과 시청자가 인식한 경우(1320의 "예" 방향), 입체 영상 표시 장치는 본 실시예를 종료한다.
이하에서는 도 25를 참조하여 렌더링 피치가 디스플레이의 픽셀 사이즈와 정수배가 아닌 경우에 렌더링 피치의 간격 내에 있는 픽셀 각각에 넘버링을 하는 과정에 대해 구체적으로 설명한다.
먼저 1510 단계에서 입체 영상 표시 장치는 렌더링 피치의 간격을 N( N은 자연수)개로 등분한다. 이후, 1520 단계에서 입체 영상 표시 장치는 N개 중에서 한 개의 픽셀이 차지하는 개수(H)를 산출한다. 이후, 1530 단계에서 입체 영상 표시 장치는 산출된 개수(H)를 이용하여 렌더링 피치의 간격 내에 있는 픽셀 각각에 넘버링을 한다. 이후, 1540 단계에서 입체 영상 표시 장치는 필셀 각각에 넘버링된 번호를 N으로 나눈 나머지 값을 산출한다. 이후, 1550 단계에서 입체 영상 표시 장치는 산출된 나머지 값으로 필셀 각각에 넘버링된 번호를 변경한다.한편, 입체영상 표시장치는 상술한 바와 같이 사용자의 한 쪽 눈마다 각각 오정렬 보정을 수행하도록 동작할 수도 있으나, 사용자가 두 개의 눈을 모두 떳을 때 한번에 오정렬 보정이 처리되도록 동작할 수도 있다.
먼저, 동작 원리를 설명하자면 다음과 같다.
도 28a의 경우, 오프된 픽셀 영역이 사용자의 두 눈과 매칭하게 되므로 사용자의 두 눈에는 사용자 단말의 화면이 어둡게 보인다. 그러나, 도 28b의 경우와 같이, 온 되는 픽셀의 위치를 사용자의 눈과 매칭하는 픽셀의 위치로 바꾸어 주게되면, 사용자는 밝은 화면을 시청할 수 있다. 이때의 사용자의 사용자 단말에 대한 상대적인 시청위치와 픽셀정보를 이용해서, 렌티큘러 렌즈의 위치를 역산함으로써, 렌즈와 픽셀 간의 정확한 정렬위치를 파악할 수 있다.
여기서 중요한 것은, 온 된 픽셀의 폭은 오프된 픽셀들의 폭보다 좁아야 하며, 그렇게 해야만 정확한 정렬위치를 찾을 수 있다.
한편, 위의 예와 반대로, 온/오프 픽셀의 위치를 반대로 적용하여 화면이 가장 어둡게되는 위치를 찾도록 하는 것도 오정렬 보정방법이 될 수 있다.
오정렬 보정을 위한 사용자 인터페이스 동작과정은 다음과 같이 구성될 수 있다.
즉, 사용자가 사용자 단말에 대한 특정 위치에서 화면을 바라보고 있을 때, 일정한 규칙에 따라 온/오프되는 픽셀의 위치를 변경시키고, 변경하는 과정 중에서 가장 밝거나 어두운 경우를 사용자가 찾을 수 있도록 함으로써, 간편하게 두 눈으로 한번에 오정렬 보정을 수행할 수 있다.
구체적으로, 먼저, 사용자의 두 눈과 사용자 단말 간의 상대적인 위치부터 파악한다.
사용자 단말의 프로세서는 카메라를 이용해서 사용자의 두 눈과 사용자 단말의 화면 사이의 거리를 측정할 수 있다. 또는, 사용자의 두 눈이 화면의 정중앙을 바라보도록 가이드 정보를 제공함으로써 사용자의 두 눈과 화면 사이의 거리를 추정할 수도 있다. 예를 들어, 화면의 정중앙에 타겟을 표시하고, 사용자의 두 눈의 화면에 대한 초점 위치를 화면상에 표시하여, 타겟이 화면에 맞게끔하는 방식으로 사용자의 두 눈이 화면 정중앙을 바라보도록 유도할 수도 있다.
사용자가 사용자 단말의 화면을 바라보고 있을 때, 사용자 단말 상의 프로세서는 버튼이나 슬라이딩하라는 표시 등을 통해 화면의 좌측이나 우측으로 픽셀의 온/오프 위치를 이동시키라는 정보를 제공할 수 있다.
이에 응하여, 사용자가 좌측 또는 우측에 대한 신호를 사용자 단말에 입력할 경우, 디스플레이 모듈 상에서 온 된 픽셀과 오프된 픽셀의 위치가 신호의 방향에 따라 하나씩 이동하게 된다. 즉, 실제로는 픽셀이 이동하는 것이 아니라 각 위치의 픽셀들의 밝기 값이 바뀜으로써, 온 된 픽셀과 오프된 픽셀의 위치가 변경된다. 사용자의 입장에서 보면 밝은 픽셀이 실제로 좌측이나 우측으로 움직이는 것처럼 보일 수 있다. 또는, 사용자가 재생 버튼을 클릭할 경우, 좌측 또는 우측 중 미리 설정된 방향으로 온 되는 픽셀의 번호가 자동으로 하나씩 더해질 수 있다.
이때, 도 28c와 같은 픽셀 구성으로 된 화면 상에서, 온 되는 픽셀이 0번 픽셀부터 시작하되 자동으로 1번 픽셀, 2번 픽셀로 순차로 이동하게 되면서, 1씩 더해질 수 있다.
이후, 사용자는 화면이 가장 어둡거나 가장 밝은 위치에서 온/오프 픽셀 이동에 대한 정지 신호를 입력할 수 있다. 정지 신호는 일시정지 버튼, 정지 버튼 또는 화면을 터치하고 있던 신체부위를 떼는 행위 등이 될 수 있다.
한편, 온/오프 픽셀의 위치가 변경되는 와중에 사용자가 가장 밝거나 가장 어두운 순간을 정확하게 포착하기는 어렵다. 이를 위해, 사용자가 미세조정을 할 수 있도록 하는 인터페이스를 제공해줄 수도 있다. 예를 들어, 일시정지 버튼이나 정지버튼의 좌측과 우측에, 온/오프 픽셀의 위치값을 1씩 좌측으로 이동시킬 것을 명령하는 좌측 미세조정버튼과 온/오프 픽셀의 위치값을 1씩 우측으로 이동시킬 것을 명령하는 우측 미세조정버튼이 각각 배치될 수 있다. 이에 따라, 사용자는 화면이 밝아지는 것으로 인식하였을 때, 정지 신호를 입력하고, 우측 미세조정버튼이나 좌측 미세조정버튼을 한번씩 눌러가며 가장 화면이 밝아지는 위치를 찾을 수도 있다. 가장 밝은 위치를 찾으면 “확인”버튼을 클릭함으로써, 오정렬 보정 단계를 완료할 수 있다. 이하, 도 29을 참조하여, 미간 거리(b)와 시청 거리(Z) 및 광학 거리(gn)가 동일한 조건에서 입체 영상 표시 장치(100)의 해상도를 향상시키는 방법에 대해서 설명한다.
프로세서(121)는 미간 거리(b), 시청 거리(Z), 및 광학 거리(gn)에 기초하여 렌더링 피치(P2)를 더 좁게 조정할 수 있다. 이때, 프로세서(121)는 인접하는 제1 및 제2 맵핑 패턴(222, 224) 간의 거리(P1)를 홀수 배(예를 들어, 3배) 감소시켜, 미간 거리 및 렌즈 피치에 기초하여 산출된 제1 렌더링 피치를 미간 거리, 시청 거리 및 광학 거리에 기초하여 산출된 제2 렌더링 피치로 조정할 수 있다. 이를 통해, 인접하는 제1 및 제2 맵핑 패턴(222, 224) 간의 조밀도를 증가시킬 수 있게 되고, 해상도를 향상시킬 수 있다.
한편, 프로세서(121)는 동일한 렌티큘러 렌즈(210)를 통해 사용자의 우안(R) 및 좌안(L)이 복수의 제1 및 제2 맵핑 패턴(222, 224) 중 인접하지 않은 제1 및 제2 맵핑 패턴(222, 224) 각각에 대응하도록, 제2 렌더링 피치 및 미간 거리에 기초하여 렌즈 피치(LP')를 산출할 수 있다. 즉, 렌즈 피치는 각 렌티큘러 렌즈(210)를 통해 사용자에게 제공되는 우안 영상 및 좌안 영상은 디스플레이 모듈(123) 내 인접하지 않은 맵핑 패턴(222, 224)들에 기인하도록 설계된다. 그리고, 프로세서(121)는 산출된 렌즈 피치(LP')에 관한 정보를 디스플레이 모듈(123)로 제공할 수 있다. 디스플레이 모듈(123)은 렌즈 피치(LP')에 관한 정보를 사용자 단말(120)의 화면에 표시할 수 있다. 이로써, 사용자는 렌즈 피치(LP')에 관한 정보를 확인하여, 렌즈 피치(LP')에 맞도록 렌즈시트(110b)를 사용자 단말(120)에 부착할 수 있다. 따라서, 사용자는 시청 거리를 유지하면서도 더욱 해상도가 높은 입체 영상을 시청할 수 있다.
이하, 도 30를 참조하여, 본 발명의 일 실시예에 따르는 무안경 입체 영상 표시 방법에 대하여 구체적으로 설명하도록 한다.
이하의 방법은 상술한 무안경 입체 영상 표시 장치(100)에 의해 수행되는 것으로서, 생략된 부분이 있다고 하더라도 상술한 내용으로 갈음하도록 한다.
먼저, 사용자는 입체 영상 표시 장치(100)의 사용자 단말에 설치된 프로그램(또는 애플리케이션)을 실행함으로써, 컨텐츠 제공 서버에 접속할 수 있다. 컨텐츠 제공 서버는 다수의 무안경 입체 영상 컨텐츠를 보유하고 있는 서버로서, 사용자의 선택에 따라 원하는 입체 영상 컨텐츠가 재생될 수 있도록 하는 서비스를 제공하는 서버이다.
사용자가 프로그램을 통하여 어느 한 입체 영상 컨텐츠를 선택하고 재생요청에 대한 입력을 수행할 수 있다.
이 경우, 입체 영상 표시 장치(100)는 사용자로부터 미간 거리에 대한 입력을 수신한다(S110). 미간 거리 입력은 얼굴 크기에 대한 특정 옵션들을 미리 제공해주고, 사용자가 어느 한 옵션을 선택하도록 하는 사용자 인터페이스를 제공함으로써 수행될 수 있다.
이어서, 입체 영상 표시 장치(100)는 미간 거리 및 커버(110) 내의 렌티큘러 렌즈(210)들의 렌즈 피치에 기초하여 디스플레이 모듈(123)의 렌더링 피치를 조절한다(S120).
입체 영상 표시 장치(100)는 렌더링 피치를 기초로 최적 시청 거리를 계산하고, 사용자의 최적 시청 거리로의 유도를 위한 가이드 신호를 제공한다(S130). 이때, 입체 영상 표시 장치(100)는 미간 거리, 렌즈 피치 및 렌티큘러 렌즈(210)에서 디스플레이까지의 거리를 나타내는 광학 거리에 기초하여, 사용자가 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산하고, 사용자 단말(120)의 카메라(122)를 이용하여 실제 시청 거리인 제2 시청 거리를 측정한다. 그리고, 입체 영상 표시 장치(100)는 제1 시청 거리 및 제2 시청 거리 간의 오차 거리에 기초하여 사용자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 사용자 단말(120)에 제공한다.
이어서, 입체 영상 표시 장치(100)는 카메라(122)를 이용하여 사용자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하여 사용자의 눈의 이동방향 및 이동거리를 획득한다(S140). 아이트래킹을 통해 사용자의 눈의 위치가 이동하였는지를 파악할 수 있다.
입체 영상 표시 장치(100)는 이동 거리 및 미간 거리에 기초하여 디스플레이 모듈(123)을 제어함으로써, 사용자가 이동한 경우에도 능동적으로 사용자에게 입체 영상을 제공할 수 있다(S150). 구체적으로, 옵셋을 계산하고, 옵셋만큼 측정된 이동 방향과 반대 방향으로, 디스플레이 모듈(123)의 픽셀(220)의 발광패턴(즉, 복수의 제1 및 제2 맵핑 패턴)을 이동시킴으로써, 사용자가 이동한 경우에 맞춘 능동적인 입체 영상을 제공할 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (13)

  1. 무안경 입체 영상 표시 장치에 있어서,
    디스플레이 모듈 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되,
    상기 프로세서는,
    사용자 단말과 연결된 카메라를 통하여 사용자의 상기 사용자 단말에 대한 시청 위치를 측정하고,
    상기 시청 위치, 및 상기 사용자 단말의 전면에 배치되는 커버의 렌티큘러 렌즈를 구성하는 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여, 상기 디스플레이 모듈의 좌안 영상 픽셀 패턴 사이의 거리 또는 우안 영상 픽셀 패턴 사이의 거리를 조정하며,
    상기 커버를 거치면서 사용자에게 입체 영상으로 제공되도록, 상기 렌즈 피치에 기초하여 상기 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 상기 디스플레이 모듈을 통해 무안경 입체 영상을 표시하고,
    상기 무안경 입체 영상 표시 장치는 상기 사용자 단말에 대응하는 것인, 무안경 입체 영상 표시 장치.
  2. 사용자 단말의 프로세서에 의해 수행되는, 무안경 입체 영상 표시 방법에 있어서,
    상기 사용자 단말의 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하는 단계;를 포함하며,
    상기 입체 영상을 제공하는 단계는,
    상기 사용자 단말과 연결된 카메라를 통하여 상기 사용자의 상기 사용자 단말에 대한 시청 위치를 측정하는 단계;
    상기 시청 위치, 및 상기 사용자 단말의 전면에 배치되는 렌티큘러 렌즈에 포함된 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여, 상기 디스플레이 모듈의 좌안 영상 픽셀 패턴 사이의 거리 또는 우안 영상 픽셀 패턴 사이의 거리를 조정하는 단계; 및
    상기 사용자 단말의 전면에 배치되는 렌티큘러 렌즈를 포함하는 커버를 거치면서 사용자에게 입체 영상으로 제공되도록, 상기 렌즈 피치에 기초하여 상기 디스플레이 모듈의 픽셀을 제어하여 상기 디스플레이 모듈을 통해 무안경 입체 영상을 표시하는 단계를 포함하는 것인, 무안경 입체 영상 표시 방법.
  3. 제 2 항에 있어서,
    상기 입체 영상을 제공하는 단계 전, 상기 사용자 단말에 설치된 애플리케이션의 실행을 통해 컨텐츠 제공 서버로부터 다수의 무안경 입체 영상 컨텐츠 목록을 수신하여 사용자에게 제공하고, 사용자의 선택에 따라 어느 하나의 입체 영상 컨텐츠에 대한 재생요청 입력을 수신하는 단계를 더 포함하는, 무안경 입체 영상 표시 방법.
  4. 제 2 항에 있어서,
    상기 입체 영상을 제공하는 단계는,
    상기 렌즈 피치 및 상기 사용자의 시청 위치에 기초하여, 상기 좌안 영상 픽셀에 대응하는 복수의 제 1 맵핑 패턴과 상기 우안 영상 픽셀에 대응하는 제 2 맵핑 패턴 간의 변위차를 산출하는 단계; 및
    상기 산출된 변위차에 기초하여 상기 복수의 제 1 맵핑 패턴 간의 거리 및 복수의 제 2 맵핑 패턴 간의 거리를 나타내는 렌더링 피치를 산출하는 단계를 포함하는, 무안경 입체 영상 표시 방법.
  5. 제 2 항에 있어서,
    상기 입체 영상을 제공하는 단계는,
    상기 사용자의 시청 위치, 상기 렌즈 피치 및 상기 렌티큘러 렌즈에서 상기 좌안 영상 픽셀 및 우안 영상 픽셀까지의 거리를 나타내는 광학 거리에 기초하여, 상기 사용자가 미리 설정된 수준 이상의 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산하는 단계;
    상기 사용자 단말과 연결된 카메라를 통하여 상기 사용자가 상기 사용자 단말에 대한 실제 시청 거리를 나타내는 제 2 시청거리를 측정하는 단계; 및
    상기 제 1 및 제 2 시청 거리 간의 오차거리에 기초하여 상기 사용자의 제 2 시청 거리의 조정을 안내하기 위한 가이드 신호를 상기 디스플레이 모듈을 통해 제공하는 단계;를 더 포함하는, 무안경 입체 영상 표시 방법.
  6. 제 2 항에 있어서,
    상기 입체 영상을 제공하는 단계는,
    상기 사용자의 시청 위치, 상기 렌즈 피치 및 상기 렌티큘러 렌즈에서 상기 좌안 영상 픽셀 및 우안 영상 픽셀까지의 거리를 나타내는 광학 거리에 기초하여, 상기 사용자가 미리 설정된 수준 이상의 선명한 화질로 시청할 수 있는 최적 거리를 나타내는 제1 시청 거리를 계산하는 단계;
    상기 사용자 단말과 연결된 카메라를 통하여 상기 사용자가 상기 사용자 단말에 대한 실제 시청 거리를 나타내는 제 2 시청거리를 측정하는 단계; 및
    상기 제 1 및 제 2 시청 거리 간의 오차거리에 기초하여, 상기 제 2 시청 거리가 상기 최적 거리로 되도록, 상기 좌안 영상 픽셀에 대응하는 복수의 제 1 맵핑 패턴 간의 거리 및 상기 우안 영상 픽셀에 대응하는 복수의 제 2 맵핑 패턴 간의 거리를 나타내는 렌더링 피치를 산출하는 단계를 포함하는, 무안경 입체 영상 표시 방법.
  7. 제 4 항에 있어서,
    상기 입체 영상을 제공하는 단계는,
    상기 사용자 단말과 연결된 카메라를 이용하여 아이 트래킹(Eye Tracking)을 수행하여 상기 사용자의 시청 위치를 파악하고 , 상기 사용자의 시청 위치의 이동 방향 및 이동 거리를 측정하는 단계;
    상기 측정된 이동 방향 및 이동 거리에 기초하여 상기 디스플레이 모듈에 적용하기 위한 옵셋을 계산하는 단계; 및
    상기 옵셋의 수치만큼, 상기 복수의 제 1 및 제 2 맵핑 패턴이 이동되도록 상기 디스플레이 모듈을 제어하는 단계;를 포함하는, 무안경 입체 영상 표시 방법.
  8. 제 2 항에 있어서,
    상기 시청 위치는 사용자의 두 눈의 위치를 기반으로 계산되는 것인, 무안경 입체 영상 표시 방법.
  9. 무안경 입체 영상 표시 장치에 있어서,
    사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성되는 커버;를 포함하되,
    상기 커버는,
    상기 사용자 단말의 전면을 커버하며 상기 사용자 단말에 고정가능하도록 구성되는 본체 및 상기 본체의 내부 또는 하부에 배치되는 복수의 볼록렌즈로 구성된 렌티큘러 렌즈를 포함하는 렌즈시트를 포함하며,
    상기 커버와 상기 사용자 단말 간 오정렬이 상기 사용자 단말의 픽셀들의 배열패턴 조정을 통하여 보정됨으로 인해, 상기 렌즈시트를 통과한 상기 사용자 단말의 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀이 사용자에게 입체 영상으로 제공되며,
    상기 본체는 가장자리가 걸림 부분을 갖도록 형성되고, 상기 사용자 단말의 전면 또는 후면에 양면 결합형으로 체결되도록 구성되는 것인, 무안경 입체 영상 표시 장치.
  10. 제 9 항에 있어서,
    상기 무안경 입체 영상 표시 장치는,
    상기 사용자 단말의 후면에 결합되는 후면 보조 커버를 더 포함하며,
    상기 렌즈시트를 포함하는 커버는 상기 후면 보조 커버에 결합가능하도록 구성됨으로써, 상기 사용자 단말의 전면 또는 후면에 결합가능한 형태로 구성되는 것인, 무안경 입체 영상 표시 장치.
  11. 제 9 항에 있어서,
    상기 커버는,
    상기 본체 및 렌즈시트를 포함하는 덮개부; 및
    상기 사용자 단말의 외형을 보호하도록 제작되되, 상기 덮개부가 상기 사용자 단말의 일측에 고정되어 상기 사용자 단말의 전면을 개방하거나 덮을 수 있도록 상기 덮개부와 연결된 케이스부를 포함하는 플립형 커버인, 무안경 입체 영상 표시 장치.
  12. 무안경 입체 영상 표시 장치에 있어서,
    사용자 단말; 및 상기 사용자 단말의 전면에 배치되어 상기 사용자 단말과 결합 가능하게 구성되는 커버;를 포함하되,
    상기 커버는,
    상기 사용자 단말의 전면을 커버하며 상기 사용자 단말에 고정가능하도록 구성되는 본체 및 상기 본체의 내부 또는 하부에 배치되는 복수의 볼록렌즈로 구성된 렌티큘러 렌즈를 포함하고,
    상기 사용자 단말은,
    입체 영상을 표시하는 디스플레이 모듈 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하되,
    상기 프로세서는,
    상기 커버와 상기 사용자 단말 간 오정렬이 상기 사용자 단말의 픽셀들의 배열패턴 조정을 통하여 보정됨으로 인해, 상기 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 디스플레이 모듈의 좌안 영상 픽셀과 우안 영상 픽셀을 제어함으로써 입체 영상을 제공하며,
    상기 본체는 가장자리가 걸림 부분을 갖도록 형성되고, 상기 사용자 단말의 전면 또는 후면에 결합형으로 체결되도록 구성되는 것인, 무안경 입체 영상 표시 장치.
  13. 제 2 항에 따르는 무안경 입체 영상 표시 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체.
KR1020180059423A 2018-05-25 2018-05-25 무안경 입체 영상 표시 장치 및 방법 KR101956532B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180059423A KR101956532B1 (ko) 2018-05-25 2018-05-25 무안경 입체 영상 표시 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180059423A KR101956532B1 (ko) 2018-05-25 2018-05-25 무안경 입체 영상 표시 장치 및 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170035186A Division KR101863155B1 (ko) 2016-06-23 2017-03-21 무안경 입체 영상 표시 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20180107021A KR20180107021A (ko) 2018-10-01
KR101956532B1 true KR101956532B1 (ko) 2019-03-11

Family

ID=63877986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180059423A KR101956532B1 (ko) 2018-05-25 2018-05-25 무안경 입체 영상 표시 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101956532B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11778163B2 (en) 2021-07-29 2023-10-03 Samsung Electronics Co., Ltd. Device and method to calibrate parallax optical element

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015063A (ja) * 2006-07-04 2008-01-24 Nikon Corp 立体視光学系

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102208898B1 (ko) * 2014-06-18 2021-01-28 삼성전자주식회사 무안경 3d 디스플레이 모바일 장치, 이의 설정방법 및 사용방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015063A (ja) * 2006-07-04 2008-01-24 Nikon Corp 立体視光学系

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11778163B2 (en) 2021-07-29 2023-10-03 Samsung Electronics Co., Ltd. Device and method to calibrate parallax optical element

Also Published As

Publication number Publication date
KR20180107021A (ko) 2018-10-01

Similar Documents

Publication Publication Date Title
CN107465909B (zh) 用于裸眼立体图像的显示设备和显示方法
US9864191B2 (en) Viewer with varifocal lens and video display system
US8487983B2 (en) Viewing area adjusting device, video processing device, and viewing area adjusting method based on number of viewers
US8203599B2 (en) 3D image display apparatus and method using detected eye information
JP2013098934A (ja) 映像処理装置および映像処理方法
US20110158506A1 (en) Method and apparatus for generating 3d image data
US11428951B2 (en) Glasses-free 3D display mobile device, setting method of the same, and using method of the same
KR20120016408A (ko) 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 출력 방법 및 그 방법을 채용한 디스플레이 기기
EP3132305B1 (en) Glasses-free 3d display mobile device, setting method of the same, and using method of the same
KR20130106001A (ko) 입체영상 처리 장치 및 다시점 영상을 디스플레이하기 위한 스윗 스포트의 위치를 조절하는 방법
CN102970561A (zh) 视频处理装置以及视频处理方法
US20130155055A1 (en) Display device, display method, and recording medium
KR101956532B1 (ko) 무안경 입체 영상 표시 장치 및 방법
KR20130123526A (ko) 입체 영상 디스플레이 장치 및 입체 영상 디스플레이 방법
KR101888082B1 (ko) 영상표시장치 및 그 동작방법
JP2013051615A (ja) 映像処理装置および映像処理方法
KR101863155B1 (ko) 무안경 입체 영상 표시 장치 및 방법
KR101880751B1 (ko) 무안경 입체영상시청을 위해 사용자 단말과 렌티큘러 렌즈 간 정렬 오차를 줄이기 위한 방법 및 이를 수행하는 사용자 단말
KR101808758B1 (ko) 입체 영상 표시 장치 및 그 오정렬 보정 방법
KR101970485B1 (ko) 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법
KR101897229B1 (ko) 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법
JP2013219485A (ja) 立体画像表示装置及び立体画像表示方法
KR101950816B1 (ko) 입체영상 디스플레이장치 및 그 구동 방법
KR101835754B1 (ko) 입체 영상 표시 장치 및 그 해상도 향상 방법
KR101856156B1 (ko) 시차 조정 장치와, 시차 조정 장치를 포함하는 표시장치 및 그 구동방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant