KR101970485B1 - 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법 - Google Patents

입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법 Download PDF

Info

Publication number
KR101970485B1
KR101970485B1 KR1020180103533A KR20180103533A KR101970485B1 KR 101970485 B1 KR101970485 B1 KR 101970485B1 KR 1020180103533 A KR1020180103533 A KR 1020180103533A KR 20180103533 A KR20180103533 A KR 20180103533A KR 101970485 B1 KR101970485 B1 KR 101970485B1
Authority
KR
South Korea
Prior art keywords
eye
distance
stereoscopic image
viewing
user
Prior art date
Application number
KR1020180103533A
Other languages
English (en)
Other versions
KR20180100291A (ko
Inventor
신창봉
신윤철
Original Assignee
주식회사 모픽
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모픽 filed Critical 주식회사 모픽
Priority to KR1020180103533A priority Critical patent/KR101970485B1/ko
Publication of KR20180100291A publication Critical patent/KR20180100291A/ko
Application granted granted Critical
Publication of KR101970485B1 publication Critical patent/KR101970485B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/368Image reproducers using viewer tracking for two or more viewers
    • G02B27/2214
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명의 일 실시예에 따른 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는 입력부; 및 상기 미간 거리 및 모바일 단말기의 디스플레이부에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록 렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 상기 디스플레이의 렌더링 피치(Rendering Pitch)를 조정하는 프로세서를 포함한다.

Description

입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법{STEREOSCOPIC IMAGE DISPLAY DEVICE AND METHOD FOR IMPROVING VIEWING CONDITION}
본 발명의 실시예들은 입체 영상 표시 장치, 및 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법에 관한 것이다.
오늘날 초고속 정보 통신망을 근간으로 구축된 정보의 고속화를 위해 실현될 서비스들은 현재의 전화와 같은 단순히 듣고 말하는 서비스로부터 문자, 음성, 영상을 고속 처리하는 디지털 단말을 중심으로 한 보고 듣는 멀티미디어형 서비스로 발전하고 있으며, 궁극적으로는 시공간을 초월하여 실감 있고 입체적으로 보고 느끼고 즐기는 초공간형 실감 3차원 입체 정보통신 서비스로 발전할 것으로 예상된다.
일반적으로 3차원을 표현하는 입체 영상은 두 눈을 통한 스테레오 시각의 원리에 의하여 이루어지게 되는데, 두 눈의 시차 즉, 두 눈이 약 65mm 정도 떨어져서 존재하기 때문에 나타나게 되는 양안 시차는 입체감의 가장 중요한 요인이라 할 수 있다. 즉, 좌우의 눈은 각각 서로 다른 2차원 화상을 보게 되고, 이 두 화상이 망막을 통해 뇌로 전달되면 뇌는 이를 정확히 서로 융합하여 본래 3차원 영상의 깊이감과 실제감을 재생하는 것이다. 이러한 능력을 통상 스테레오그라피(stereography)라 한다.
입체 영상 표시 장치는 양안 시차를 이용하는 것으로 관찰자의 별도의 안경착용 여부에 따라 안경식(stereoscopic)의 편광 방식과 시분할 방식, 비안경식(autostereoscopic)의 패럴랙스-배리어 방식, 렌티큘러(lenticular) 방식 및 블린킹 라이트(blinking light) 방식 등이 있다.
비안경식 입체 영상 표시 장치는 액정 표시 장치 위에 렌티큘러 렌즈층을 배치하여 형성하는 장치가 많이 사용된다. 비안경식 입체 영상 표시 장치는 관찰자가 직접 스크린을 주시하게 되어 추가적인 안경 없이 입체 영상을 볼 수 있다는 장점이 있지만, 오른쪽 눈으로 전달되는 화상과 왼쪽 눈으로 전달되는 화상이 명확하게 구분되지 않아 입체감이 떨어지는 단점이 있다.
관련 선행기술로는 대한민국 공개특허공보 제10-2016-0024367호(발명의 명칭: 입체 영상 표시 장치, 공개일자: 2016.03.04)가 있다.
본 발명의 일 실시예는 렌즈 피치와 시청자의 미간 거리를 이용하여 디스플레이의 렌더링 피치를 조정함으로써 우안 및 좌안에 각각 전달되는 화상을 개별 시청자별로 명확히 구별하여 인식할 수 있도록 하여 입체 영상의 시청 환경을 향상시킬 수 있는 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법을 제공한다.
본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는 입력부; 및 상기 미간 거리 및 모바일 단말기의 디스플레이에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록 렌즈 간의 거리를 나타내는 렌즈 피치에 기초하여 상기 디스플레이의 렌더링 피치(Rendering Pitch)를 조정하는 프로세서를 포함한다.
상기 디스플레이는 상기 렌즈 피치 및 상기 미간 거리에 비례할 수 있다.
상기 디스플레이는 상기 시청자의 우안 및 좌안에 각각 대응되는 복수의 제1 및 제2 맵핑 패턴이 교대로 배치되는 구조를 가지고, 상기 프로세서는 상기 렌즈 피치 및 상기 미간 거리에 기초하여 상기 복수의 제1 및 제2 맵핑 패턴 중 서로 인접하는 제1 및 제2 맵핑 패턴 간의 거리를 산출하고, 상기 산출된 거리에 기초하여 상기 복수의 제1 맵핑 패턴 간의 거리 및 상기 복수의 제2 맵핑 패턴 간의 거리를 나타내는 상기 렌더링 피치를 조정할 수 있다.
상기 프로세서는 상기 렌더링 피치가 조정된 상태에서, 상기 미간 거리, 상기 렌즈 피치 및 상기 볼록 렌즈에서 상기 디스플레이까지의 거리를 나타내는 광학 거리에 기초하여, 상기 시청자가 상기 모바일 단말기의 입체 영상을 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치는 상기 제1 시청 거리를 상기 모바일 단말기에 제공하여 상기 모바일 단말기를 통해 상기 시청자에게 표시해주는 출력부를 더 포함할 수 있다.
상기 프로세서는 상기 모바일 단말기의 카메라를 이용하여, 상기 사용자가 상기 모바일 단말의 입체 영상을 시청하고 있는 실제 거리를 나타내는 제2 시청 거리를 측정하고, 상기 제1 시청 거리 및 상기 제2 시청 거리 간의 오차 거리에 기초하여 상기 시청자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 상기 모바일 단말기에 제공할 수 있다.
상기 프로세서는 상기 제1 시청 거리와 상기 제2 시청 거리를 비교하여, 상기 제1 시청 거리보다 상기 제2 시청 거리가 큰 경우 상기 모바일 단말기 쪽으로 가까이 오라고 안내하는 상기 가이드 신호를 상기 모바일 단말기에 제공하고, 상기 제1 시청 거리보다 상기 제2 시청 거리가 작은 경우 상기 모바일 단말기에서 멀어지라고 안내하는 상기 가이드 신호를 상기 모바일 단말기에 제공할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치는 상기 제1 및 제2 시청 거리 간의 오차 거리가 일정 범위 내에 포함되지 않는 경우, 상기 가이드 신호에 따라 상기 제1 시청 거리를 기준으로 상기 오차 거리를 확인할 수 있는 바(Bar)를 상기 모바일 단말기에 표시하는 출력부를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치는 상기 모바일 단말기에 얼굴 크기를 선택할 수 있는 옵션을 표시하는 출력부를 더 포함하고, 상기 입력부는 상기 옵션을 통해 어느 하나의 얼굴 크기가 선택되는 경우, 상기 선택된 얼굴 크기에 대응되는 값을 상기 미간 거리로서 입력받을 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치는 상기 모바일 단말기에 수치를 입력할 수 있는 입력 버튼을 표시하는 출력부를 더 포함하고, 상기 입력부는 상기 입력 버튼을 통해 상기 시청자의 눈동자 사이의 거리를 직접 측정한 실측 수치가 입력되는 경우, 상기 입력된 실측 수치를 상기 미간 거리로서 입력받을 수 있다.
상기 프로세서는 상기 모바일 단말기의 카메라를 이용하여 상기 시청자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하여, 상기 시청자의 눈의 이동 방향 및 이동 거리를 측정하고, 상기 측정된 이동 거리 및 상기 미간 거리에 기초하여 상기 디스플레이에 적용하기 위한 옵셋을 계산하며, 상기 옵셋만큼 상기 측정된 이동 방향과 반대 방향으로, 상기 디스플레이에 교대로 배치된 복수의 제1 및 제2 맵핑 패턴을 이동시킬 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법은 시청자의 미간 거리를 입력받는 단계; 및 상기 미간 거리 및 모바일 단말기의 디스플레이에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록 렌즈 간의 거리를 나타내는 렌더링 피치(Rendering Pitch)를 조정하는 단계를 포함한다.
상기 렌더링 피치는 상기 렌즈 피치 및 상기 미간 거리에 비례할 수 있다.
상기 렌더링 피치(Rendering Pitch)를 조정하는 단계는 상기 렌즈 피치 및 상기 미간 거리에 기초하여 상기 디스플레이에 교대로 배치되는 복수의 제1 및 제2 맵핑 패턴 중 서로 인접하는 제1 및 제2 맵핑 패턴 간의 거리를 산출하는 단계; 및 상기 산출된 거리에 기초하여 상기 복수의 제1 맵핑 패턴 간의 거리 및 상기 복수의 제2 맵핑 패턴 간의 거리를 나타내는 상기 렌더링 피치를 조정하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법은 상기 렌더링 피치를 조정하는 단계 이후에, 상기 미간 거리, 상기 렌즈 피치 및 상기 볼록 렌즈에서 상기 디스플레이까지의 거리를 나타내는 광학 거리에 기초하여, 상기 시청자가 상기 모바일 단말기의 입체 영상을 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법은 상기 제1 시청 거리를 상기 모바일 단말기에 제공하여 상기 모바일 단말기를 통해 상기 시청자에게 표시해주는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법은 상기 모바일 단말기의 카메라를 이용하여, 상기 사용자가 상기 모바일 단말의 입체 영상을 시청하고 있는 실제 거리를 나타내는 제2 시청 거리를 측정하는 단계; 및 상기 제1 시청 거리 및 상기 제2 시청 거리 간의 오차 거리에 기초하여 상기 시청자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 상기 모바일 단말기에 제공하는 단계를 더 포함할 수 있다.
상기 가이드 신호를 상기 모바일 단말기에 제공하는 단계는 상기 제1 시청 거리와 상기 제2 시청 거리를 비교하는 단계; 상기 비교 결과, 상기 제1 시청 거리보다 상기 제2 시청 거리가 큰 경우, 상기 모바일 단말기 쪽으로 가까이 오라고 안내하는 상기 가이드 신호를 상기 모바일 단말기에 제공하는 단계; 및 상기 비교 결과, 상기 제1 시청 거리보다 상기 제2 시청 거리가 작은 경우, 상기 모바일 단말기에서 멀어지라고 안내하는 상기 가이드 신호를 상기 모바일 단말기에 제공하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법은 상기 제1 시청 거리와 상기 제2 시청 거리를 비교하여 상기 제1 및 제2 시청 거리 간의 오차 거리를 계산하는 단계; 및 상기 제1 및 제2 시청 거리 간의 오차 거리가 일정 범위 내에 포함되지 않는 경우, 상기 가이드 신호에 따라 상기 제1 시청 거리를 기준으로 상기 오차 거리를 확인할 수 있는 바(Bar)를 상기 모바일 단말기에 표시하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법은 상기 모바일 단말기에 얼굴 크기를 선택할 수 있는 옵션을 표시하는 단계를 더 포함하고, 상기 입력받는 단계는 상기 옵션을 통해 어느 하나의 얼굴 크기가 선택되는 경우, 상기 선택된 얼굴 크기에 대응되는 값을 상기 미간 거리로서 입력받는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법은 상기 모바일 단말기에 수치를 입력할 수 있는 입력 버튼을 표시하는 단계를 더 포함하고, 상기 입력받는 단계는 상기 입력 버튼을 통해 상기 시청자의 눈동자 사이의 거리를 직접 측정한 실측 수치가 입력되는 경우, 상기 입력된 실측 수치를 상기 미간 거리로서 입력받는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법은 상기 렌더링 피치를 조정하는 단계 이후에, 상기 모바일 단말기의 카메라를 이용하여 상기 시청자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하여, 상기 시청자의 눈의 이동 방향 및 이동 거리를 측정하는 단계; 상기 측정된 이동 거리 및 상기 미간 거리에 기초하여 상기 디스플레이에 적용하기 위한 옵셋을 계산하는 단계; 및 상기 옵셋만큼 상기 측정된 이동 방향과 반대 방향으로, 상기 디스플레이에 교대로 배치된 복수의 제1 및 제2 맵핑 패턴을 이동시키는 단계를 포함할 수 있다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 첨부 도면들에 포함되어 있다.
본 발명의 일 실시예에 따르면, 렌즈 피치와 시청자의 미간 거리를 이용하여 디스플레이의 렌더링 피치를 조정함으로써 우안 및 좌안에 각각 전달되는 화상을 개별 시청자별로 명확히 구별하여 인식할 수 있도록 하여 입체 영상의 시청 환경을 향상시킬 수 있다.
본 발명의 일 실시예에 따르면, 얼굴 크기를 선택하는 옵션을 통해 미간 거리를 간단히 입력할 수 있는 기능을 제공함으로써, 동일한 모바일 단말기를 통해 서로 다른 시청자가 자신의 시청 환경에 맞게 선명한 품질의 입체 영상을 시청할 수 있도록 한다.
본 발명의 일 실시예에 따르면, 시청자의 이동(앞뒤, 좌우)에 따른 오차를 보상(Offset)하여 시청자가 최적의 시청 환경을 유지할 수 있도록 한다.
도 1은 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 있어서 입체 영상 표시를 위한 구현 원리를 설명하기 위해 도시한 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 있어서 미간 거리를 조정하는 방법을 설명하기 위해 도시한 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 있어서 미간 거리 변경(오차)에 따른 렌더링 미스매치를 설명하기 위해 도시한 도면이다.
도 7 내지 도 9는 본 발명의 일 실시예에 있어서 최적 시청 범위의 설정 및 안내를 위한 방법을 설명하기 위해 도시한 도면이다.
도 10은 시청자의 좌우 이동에 따른 보상 방법을 설명하기 위해 도시한 도면이다.
도 11은 시청자의 시청 거리 변경에 따른 보상 방법을 설명하기 위해 도시한 도면이다.
도 12는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
도 13은 본 발명의 다른 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
도 14는 본 발명의 또 다른 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.
이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 구성을 도시한 블록도이고, 도 2는 본 발명의 일 실시예에 있어서 입체 영상 표시를 위한 구현 원리를 설명하기 위해 도시한 도면이다.
도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 입체 영상 표시 장치(100)는 입력부(110), 프로세서(120), 및 출력부(130)를 포함할 수 있다.
상기 입력부(110)는 시청자의 미간 거리(b)를 입력받는다. 이때, 상기 입력부(110)는 모바일 단말기의 디스플레이(220)에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록 렌즈(210) 간의 거리를 나타내는 렌즈 피치(Lens Pitch)(LP')를 선택적으로 더 입력받을 수 있다.
여기서, 상기 렌즈 시트에 구비된 복수의 볼록 렌즈(210)는 렌티큘러 렌즈(Lenticular Lens)로 구현될 수 있다. 또한, 상기 렌즈 시트는 상기 모바일 단말기의 화면에 직접 부착되거나 상기 모바일 단말기에 탈부착 가능한 투명 재질의 일체형 케이스(One Body Case)에 부착될 수 있다.
상기 렌즈 시트가 상기 일체형 케이스에 부착되는 경우, 상기 일체형 케이스는 상기 모바일 단말기의 앞면에 체결되어 입체 영상을 표시하기 위한 입체 영상 케이스로서 기능할 수 있으며, 상기 모바일 단말기의 뒷면에 체결되어 상기 모바일 단말기를 보호하기 위한 보호 케이스로서 기능할 수도 있다.
위와 같이, 상기 렌즈 시트가 상기 모바일 단말기의 화면에 직접 부착되거나, 상기 모바일 단말기에 탈부착 되는 일체형 케이스에 부착되는 경우, 보다 선명한 화질의 입체 영상을 시청하기 위해서는 상기 복수의 볼록 렌즈(210)의 위치와 디스플레이(220)의 픽셀들, 즉 복수의 제1 및 제2 맵핑 패턴(222, 224)의 위치를 상호 조정할 필요가 있다.
예를 들어, 왼쪽 눈(L)에 보여야 할 픽셀, 즉 상기 복수의 제2 맵핑 패턴(224)이 오른쪽 눈(R)에 보이는 위치에 있을 수 있고, 원하는 위치에서 벗어난 곳에 있을 수도 있다. 왼쪽 눈(L)에 보이는 위치에 상기 복수의 제2 맵핑 패턴(224)이 위치하게 하기 위해서는 상기 복수의 볼록 렌즈(210)를 이동할 수도 있으나, 앞서 언급한 바와 같이 상기 렌즈 시트가 상기 모바일 단말기의 화면에 부착되거나 상기 일체형 케이스에 부착되어 있어 이동이 어려운 문제가 있다. 이는 곧 상기 입력부(110)를 통해 입력된 렌즈 피치(LP')가 고정된 값을 가진다는 것을 의미한다. 참고로, 상기 미간 거리(b)는 사용자에 의해 입력된 값으로서 고정된 값을 가질 수 있다.
따라서, 본 발명의 일 실시예에서는 상기 복수의 볼록 렌즈(210)가 고정되어 있는 상태에서 입체 영상을 제대로 표시해 시청자에게 최적의 상태로 보여주기 위한 기술을 제공한다. 이에 대해서는 상기 프로세서(120)의 설명 시 자세히 살펴보기로 한다.
참고로, 상기 디스플레이(220)는 입체 영상에 대응되는 컬러를 구현하기 위한 픽셀들, 즉 상기 복수의 제1 및 제2 맵핑 패턴(222, 224)로 구성될 수 있다. 상기 복수의 제1 및 제2 맵핑 패턴(222, 224)은 복수의 픽셀 조합으로 구성될 수 있으며, 상기 시청자의 우안(R) 및 좌안(L)에 각각 대응되는 위치에 배치될 수 있다. 상기 복수의 제1 및 제2 맵핑 패턴(222, 224)은 교대로 배치되는 구조를 가지는 것이 바람직하다. 한편, 상기 디스플레이(220)는 LCD인 경우 컬러 필터로 구현될 수 있다.
상기 프로세서(120)는 상기 입력부(110)를 통해 입력된 상기 미간 거리(b) 및 상기 렌즈 피치(LP')에 기초하여 상기 디스플레이(220)의 렌더링 피치(Rendering Pitch)(P2)를 조정한다.
구체적으로, 상기 프로세서(120)는 상기 렌즈 피치(LP') 및 상기 미간 거리(b)에 기초하여 상기 복수의 제1 및 제2 맵핑 패턴(222, 224) 중 서로 인접하는 제1 및 제2 맵핑 패턴(222, 224) 간의 거리(P1)와 상기 복수의 제2 맵핑 패턴(224) 간의 거리를 나타내는 상기 렌더링 피치(P2)를 산출할 수 있다.
여기서, 상기 산출된 거리(P1)와 상기 렌더링 피치(P2)는 도 2에서 삼각형 비례를 이용하여 수학식으로 표현될 수 있다. 아래에서는 도 2에서 삼각형 비례를 이용하여 상기 렌즈 피치(LP'), 상기 미간 거리(b), 시청 거리(Z), 및 광학 거리(gn) 간의 비례식을 통해 상기 인접하는 제1 및 제2 맵핑 패턴(222, 224) 간의 거리(P1)와 상기 렌더링 피치(P2)를 도출하는 과정을 설명한다.
[수학식 1]
P1 = (LP'*b)/(2b-LP')
상기 렌더링 피치(P2)는 P1의 2배이므로, P1과 마찬가지로 상기 렌즈 피치(LP') 및 상기 미간 거리(b)에 비례하는 함수로 나타낼 수 있다.
상기 프로세서(120)는 상기 렌더링 피치(P2)가 조정된 상태에서, 상기 미간 거리(b), 상기 렌즈 피치(LP') 및 상기 볼록 렌즈(210)에서 상기 디스플레이(220)까지의 거리를 나타내는 광학 거리(gn)에 기초하여, 상기 시청자가 상기 모바일 단말기의 입체 영상을 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리(최적 시청 거리)(Z)를 계산할 수 있다.
여기서, 상기 광학 거리(gn)는 상기 볼록 렌즈(210)에서 상기 디스플레이(220)까지의 물리적 거리에 굴절률을 감안하여 계산된 값(고정 값)을 나타낼 수 있다.
상기 미간 거리(b), 상기 렌즈 피치(LP') 및 상기 광학 거리(gn)는 이미 정해진 값이므로, 본 실시예에서는 상기 수학식 1을 Z에 대해서 정리한 식(Z = (b*gn)/P1)에 상기 수학식 3을 대입하고 정리하면, 상기 제1 시청 거리(Z)를 하기 수학식 2와 같이 나타낼 수 있다.
[수학식 2]
Z = (2b*gn)/LP' - gn
상기 프로세서(120)는 상기 수학식 2에 상기 미간 거리(b), 상기 렌즈 피치(LP') 및 상기 광학 거리(gn) 각각에 정해진 값을 대입하여 상기 제1 시청 거리(Z)를 계산할 수 있다. 상기 계산된 제1 시청 거리(Z)는 후술하는 출력부(130)에 의해 상기 모바일 단말기의 화면에 표시될 수 있으며, 이를 통해 시청자는 표시 정보를 확인하여 최적 시청 거리를 유지함으로써 선명한 화질의 입체 영상을 시청할 수 있게 된다.
상기 프로세서(120)는 상기 모바일 단말기의 카메라를 이용하여, 상기 사용자가 상기 모바일 단말의 입체 영상을 시청하고 있는 실제 거리를 나타내는 제2 시청 거리를 측정할 수 있다. 상기 프로세서(120)는 상기 측정된 제2 시청 거리를 상기 제1 시청 거리(Z)와 비교할 수 있다.
따라서, 상기 프로세서(120)는 상기 제1 시청 거리(Z) 및 상기 제2 시청 거리(Z') 간의 오차 거리에 기초하여 상기 시청자의 제2 시청 거리(Z')의 조정을 안내하기 위한 가이드 신호를 상기 모바일 단말기에 제공할 수 있다.
예를 들면, 상기 프로세서(120)는 상기 제1 시청 거리(Z)와 상기 제2 시청 거리(Z')를 비교한 결과, 상기 제1 시청 거리(Z)보다 상기 제2 시청 거리(Z')가 큰 경우, 상기 모바일 단말기 쪽으로 가까이 오라고 안내하는 가이드 신호를 상기 모바일 단말기에 제공할 수 있다. 다시 말해, 실제 시청 거리가 최적 시청 거리보다 크면, 상기 프로세서(120)는 시청자의 눈을 상기 모바일 단말기 쪽으로 더 가까이 하라고 안내하는 가이드 신호를 상기 모바일 단말기에 제공할 수 있다. 이에 따라, 시청자는 실제 시청 거리를 보다 짧게 조정하여 선명한 화질의 입체 영상을 계속해서 시청할 수 있게 된다.
다른 예로, 상기 프로세서(120)는 상기 제1 시청 거리(Z)와 상기 제2 시청 거리(Z')를 비교한 결과, 상기 제1 시청 거리(Z)보다 상기 제2 시청 거리(Z')가 작은 경우, 상기 모바일 단말기에서 멀어지라고 안내하는 가이드 신호를 상기 모바일 단말기에 제공할 수 있다. 다시 말해, 실제 시청 거리가 최적 시청 거리보다 작으면, 상기 프로세서(120)는 시청자의 눈을 상기 모바일 단말기로부터 더 멀리 하라고 안내하는 가이드 신호를 상기 모바일 단말기에 제공할 수 있다. 이에 따라, 시청자는 실제 시청 거리를 보다 길게 조정하여 선명한 화질의 입체 영상을 계속해서 시청할 수 있게 된다.
한편, 사람마다 미간 거리는 다르기 때문에, 동일한 모바일 단말기에 대해 시청자가 달라지는 경우가 발생하면 미간 거리의 조정이 필요하다. 특히, 어린아이의 경우에는 미간 거리가 짧고, 성인 남성의 경우에는 미간 거리가 길어 차이가 많이 난다. 따라서, 본 발명의 일 실시예에서는 이러한 미간 거리의 차이를 조정함으로써, 시청자별로 동일한 모바일 단말기에서 크로스토크(Crosstalk)가 적은 완전한 입체 영상을 볼 수 있는 환경을 제공할 수 있다.
이를 위해, 본 발명의 일 실시예에서는 후술하는 출력부(130)를 통해 도 4에 도시된 바와 같이 얼굴 크기를 선택할 수 있는 옵션(Kid, S, L, XL)을 상기 모바일 단말기의 화면에 표시할 수 있다. 본 발명의 일 실시예에서는 도 4의 옵션(Kid, S, L, XL)을 통해 어느 하나의 얼굴 크기가 선택되면, 상기 입력부(110)를 통해 상기 선택된 얼굴 크기에 대응되는 값을 상기 미간 거리(b)로서 입력받을 수 있다.
예를 들어, 도 4에서 옵션(Kid)가 선택되는 경우, 상기 입력부(110)에는 상기 미간 거리(b)로서 60mm가 입력되고, 도 4에서 옵션(S)가 선택되는 경우, 상기 입력부(110)에는 미간 거리(b)로서 63mm가 입력될 수 있다. 또한, 도 4에서 옵션(L)가 선택되는 경우, 상기 입력부(110)에는 상기 미간 거리(b)로서 65mm가 입력되고, 도 4에서 옵션(XL)가 선택되는 경우, 상기 입력부(110)에는 미간 거리(b)로서 67mm가 입력될 수 있다.
도 4에서와 같이 얼굴 크기를 선택하는 방법은 자신의 미간 거리(b)를 잘 모르는 대다수의 시청주에게 상당히 쉽게 상기 미간 거리(b)를 입력할 수 있는 방법이며, 일률적으로 정해진 미간 거리(b)를 이용한 시청 환경에 비해서 훨씬 양호한 시청 환경을 제공할 수 있다.
상기와 같은 방법으로, 미간 거리(b)가 63mm에서 67mm로 조정(변경)되는 경우, 상기 프로세서(120)는 조정된 미간 거리(b')에 맞도록 상기 렌더링 피치(P2)를 재조정할 수 있다. 즉, 도 3에 도시된 바와 같이 미간 거리(b)가 b'로 선택 또는 입력되는 경우, 기준 미간 거리를 b'로 계산하여 변경할 수 있다. 상기 미간 거리(b)가 b'로 변경되었을 때 상기 렌즈 피치(LP')와 상기 광학 거리(gn)는 물리적으로 고정된 값이기 때문에 변경 가능한 것은 상기 렌더링 피치(P2)뿐이다. 따라서, 본 발명의 일 실시예에서는 앞의 수학식 1과 2에서 미간 거리 b를 b'로 변경하면, 아래의 수학식 3와 4와 같이 새로운 제1 시청 거리(Z')와 새로운 렌더링 피치(P2')를 계산할 수 있다.
[수학식 3]
P1' = (LP'*b')/(2b-LP')
[수학식 4]
Z' = (2b'*gn)/LP' - gn
상기 프로세서(120)는 상기 미간 거리가 b에서 b'로 변경된 경우, 상기 수학식 3과 4를 이용하여 상기 렌더링 피치(P2')를 재조정할 수 있다. 이로써, 본 발명의 일 실시예에 따르면, 서로 다른 미간 거리를 가진 사람들에게도 같은 모바일 단말기에서 최적의 시청 환경을 제공할 수 있다.
상기 수학식 4의 Z' 값은 상기 미간 거리의 변경(b -> b')에 따라 시청자가 최적의 시청 환경을 가지는 시청 거리로서, 상기 모바일 단말기로부터 Z'보다 멀리 있거나 가까이 있으면 그 상태를 표시해주어(가이드 신호), 상기 시청자가 최적의 시청 거리로 오도록 유도를 해주는 기준이 될 수 있다.
한편, 상기 입력부(110)를 통해 입력된 미간 거리(b)와 시청자의 실제 미간 거리 사이에는 오차가 발생할 수 있다. 예컨대, 도 5에 도시된 바와 같이, 미간 거리가 b'인 사람이 b 값으로 설정(입력)된 상태로 입체 영상을 시청하는 경우, 점선에 따라 디스플레이(220)의 렌더링 피치(P2)가 설정되어 있는 것을 실선으로 바라보는 것과 같다. 결국, 시청자는 상기 제1 및 제2 맵핑 패턴(222, 224)의 중앙을 보지 못하고 가장자리 부분을 보게 되는데, 이는 좌우 시역이 섞이기 쉽고 최적 시청 거리(Z)의 폭을 상당히 좁혀 버리게 된다.
미간 거리의 오차와 관련하여, 도 5에서와 같이 동일한 거리에서가 아니라, 카메라를 이용하여 시청 거리를 측정하는 기술을 적용하는 경우에는 다음과 같다.
도 6을 참조하면, 미간 거리가 b로 고정되어있고 그때의 시청 거리가 Z라고 한다. 만약, 미간 거리가 b'인(도 6에서는 b'가 b보다 작다고 가정) 사람이 동일한 시청 거리 Z에서 화면을 바라 보면, 미간 거리는 미간 거리 b인 사람의 미간 거리보다 작게 나온다. 따라서, 상기 입력부(110)에는 최적 시청 거리가 Z보다 더 뒤어서 시청하고 있다고 인식해서 변경된 시청 거리 Z'로 입력된다.
미간 거리가 b'인 사람이 Z만큼 화면에서 떨어진 위치에서 바라보고 있으면, 상기 모바일 단말기는 미간 거리가 b인 사람이 시청 거리 Z'만큼 화면에서 떨어진 위치에서 바라보고 있다고 인식할 수 있다.
결국, 미간 거리 b'인 사람이 R', L'인 위치에서 화면을 바라보고 있어도 상기 모바일 단말기는 R, L 위치로 인식하고 미간 거리도 b로 인식하여 적절하지 않은 렌더링(Rendering)을 해주게 된다.
이는 상기 모바일 단말기의 화면 가장자리로 갈수록, 원하는 위치(제1 및 제2 맵핑 패턴)에서 점점 멀어진 잘못된 위치를 보게 하는 아주 나쁜 결과를 초래한다. 즉, 시청자는 점선과 같이 제1 및 제2 맵핑 패턴(222, 224)을 보아야 하는데, 실선과 같이 바라보는 위치가 어긋나서 가장자리로 갈수록 다른 맵핑 패턴으로 넘어가는 것을 확인할 수 있다.
따라서, 본 발명의 일 실시예에서는 시청자에게 자신의 미간 거리에 따른 최적 시청 거리에서 화면을 계속 바라볼 수 있게 하여, 보다 편한 시청을 할 수 있도록 한다. 이하에서는 최적 시청 범위에 대해 도 7 내지 도 9를 참조하여 자세히 설명하기로 한다.
최적 시청 거리(Z)에서는 오른쪽 눈(R)을 위한 제1 맵핑 패턴(222)의 한 가운데를 볼 수 있거나 왼쪽 눈(L)을 위한 제2 맵핑 패턴(224)의 한 가운데를 볼 수 있다. 그러나, 시청 거리가 최적 시청 거리 Z에서 Z'로 가까워지거나 멀어질 때에는 맵핑 패턴의 한 가운데가 아닌 가장자리를 보게 된다.
시청 거리가 달라질 때 시청자가 바라보는 맵핑 패턴의 위치를 계산을 통해 얻을 수 있는데, 이를 통해 시청 거리에 따라 맵핑 패턴의 한 가운데에서 비껴 난 정도를 함수 값으로 구하면 아래의 수학식 5와 같다.
[수학식 5]
ER = (EL*2)/(0.5*P2)*100(%)
여기서, ER이 100%가 되면 다른 시역이 보인다. 즉, ER이 100%가 되면, 왼쪽 눈(L)에서 상기 제2 맵핑 패턴(224)가 보이거나 오른쪽 눈(R)에서 상기 제1 맵핑 패턴(222)이 보인다.
상기 수학식 5의 함수를 이용하여 시청 거리와 ER을 그래프로 나타내면 도 8과 같다. 도 8의 그래프는 최적 시청 거리와 모바일 단말기의 디스플레이 특성, 적용 렌즈 등에 따라 달라질 수 있다.
본 발명의 일 실시예에서는 ER의 10% 수준을 최적 시청 범위로, ER의 50% 수준을 최대 시청 범위로 선정할 수 있는데, 이는 적용 모델(모바일 단말기)에 따라 달라 질 수가 있어 모델별로 실험을 통해 결정한다.
본 실시예에서는 최적 시청 범위(10%) 내에서는 상기 모바일 단말기의 화면에 아무런 표시도 하지 않지만, 10%를 넘어서는 시청 거리에서는 현재 거리가 최적 거리 대비 멀거나 가깝다고 표시해준다. 다만, 본 발명의 일 실시예에서는 50% 이상으로 멀어지면 화면에 'out of boundary'라고 표시를 해줄 수 있으며, 시청자가 최대 시청 범위 이내에서, 가능하면 최적 시청 범위 내에 머물도록 가이드를 할 수 있다.
시청자의 최대(또는 최적) 시청 범위 가이드를 시청자에게 보다 쉽고 편리하게 제공하기 위해, 본 발명의 일 실시예에서는 후술하는 출력부(130)를 통해 시청 거리에 대한 오차 거리를 확인할 수 있는 바(Bar)를 모바일 단말기의 디스플레이부에 표시할 수 있다.
이를 위해, 상기 프로세서(120)는 상기 모바일 단말기의 카메라를 이용하여 시청자와 화면 사이의 실제 시청 거리를 측정하고, 상기 실제 시청 거리가 최적 시청 거리보다 큰 경우에는 화면에 가까이 오라는 신호를, 작은 경우에는 화면에서 멀어지라는 신호를 상기 모바일 단말기에 제공할 수 있다. 이로써, 본 발명의 일 실시예에 따르면 시청자가 최적의 시청 환경이 어디인지 그 위치를 알 수 있도록 가이드를 해준다.
이때, 상기 모바일 단말기는 초기에는 시청자의 최적 시청 거리를 표기해주어 적정 거리가 얼마인지 알려주고 시청자가 충분히 최적 시청 거리를 인지하였다고 판단하면 하단의 확인 버튼을 누르게 하여 거리 상태를 표시하는 BAR를 제거할 수 있도록 한다.
다만, 상기 모바일 단말기는 시청자의 실제 시청 거리가 최적 시청 거리로부터 일정 범위 밖으로 벗어나는 경우에만 거리 상태를 표시하는 BAR가 나타나도록 하여 적정 시청 거리를 유지하도록 도와준다.
한편, 앞서 설명한 것처럼 시청자가 시청 시 앞뒤로 이동하는 일이 발생할 수도 있지만, 이와는 달리 시청자가 시청 시 좌우로 이동하는 일이 발생할 수도 있다.
예컨대, 도 10에 도시된 바와 같이, 시청자가 앞뒤로는 동일한 위치에서 우측으로 R-L에서 R'-L'로 X만큼 이동한 경우, 맵핑 패턴은 반대 방향으로 x(offset)만큼 이동을 해주어야 시청자는 동일한 화면을 계속해서 볼 수가 있다. 이는 R-L에서는 점선을 따라 화면을 보던 것에서 R'-L'에서는 실선으로 화면을 보는 것으로, 시청자의 이동 거리 X에 따라 x(offset)의 값이 달라지기 때문이다. 물론, 시청 거리가 앞뒤로도 이동한다면 시청 거리에 따라서도 x(offset)의 값은 달라진다. 본 발명의 일 실시예에서는 시청자의 좌우 이동에 따른 보상(offset)을 위해 시청자의 눈의 이동 방향 및 이동 거리를 활용할 수 있다.
구체적으로, 상기 프로세서(120)는 상기 모바일 단말기의 카메라를 이용하여 상기 시청자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하여, 상기 시청자의 눈의 이동 방향 및 이동 거리를 측정할 수 있다. 도 10에서 R-L에서 R'-L'로 X만큼 이동한 경우, 상기 이동 방향은 우측 방향이 되고 상기 이동 거리는 X가 된다. 상기 프로세서(120)는 상기 측정된 이동 거리 및 상기 미간 거리에 기초하여 상기 디스플레이(220)에 적용하기 위한 옵셋(offset)(x)을 계산하고, 상기 옵셋(x)만큼 상기 측정된 이동 방향과 반대 방향으로, 상기 디스플레이(220)에 교대로 배치된 복수의 제1 및 제2 맵핑 패턴(222, 224)을 이동시킬 수 있다.
여기서, 상기 모바일 단말기의 카메라를 이용하여 상기 시청자의 눈의 이동 거리를 측정하여 옵셋을 계산하는 방식은 삼각비를 이용하여 계산할 수 있다. 시청자의 눈의 이동거리를 X(mm)는 상기 모바일 단말기의 카메라를 이용하여 측정할 수 있고, 상기 이동거리 X에 대응하는 맵핑 패턴의 이동량은 아래 수학식 6을 통해 산출 할 수 있다.
[수학식 6]
gn:Z = -x:X
한편, 시청자의 시청 거리가 변경되는 경우 시청자의 우안(R) 및 좌안(L)이 가리키는 제1 및 제2 맵핑 패턴(222, 224)의 위치가 달라져 왜곡된 입체 영상을 시청할 수 있기 때문에 이에 대한 보상이 필요하다. 즉, 시청자가 기준(최적) 시청 거리보다 가깝거나 먼 거리에서 화면을 보는 경우가 발생할 때 이를 보상해주는 방법이 필요하다.
도 11에 도시된 바와 같이, 본 발명의 일 실시예에서는 시청자가 기준 시청 거리 Z보다 가까운 Z'에 있을 때, 렌즈 피치(LP')와 광학 거리(gn)는 물리적으로 고정되어 변경할 수 없기에, 시청 거리 변경 보상을 위해 변경 가능한 값을 가지는 렌더링 피치(P2')가 이용될 수 있다. 따라서, 상기 프로세서(120)는 변경된 시청 거리 Z'를 고정 값인 렌즈 피치(LP') 및 광학 거리(gn)와 함께 하기 수학식 7에 적용하여 상기 디스플레이(220)의 렌더링 피치(P2')를 계산할 수 있다.
[수학식 7]
105P2' = [LP'*(Z'+gn)]/Z'
상기 프로세서(120)는 상기 계산된 렌더링 피치(P2')를 이용하여 렌더링(Rendering)을 해줌으로써 사용자가 시청 거리 변화에도 동일한 시역을 계속 유지하면서 입체 영상을 시청하도록 할 수 있다.
상기 출력부(130)는 상기 프로세서(120)에 의해 산출된 제1 시청 거리(최적 시청 거리)를 상기 모바일 단말기에 제공하여 상기 모바일 단말기의 화면을 통해 상기 시청자에게 표시해줄 수 있다.
상기 출력부(130)는 상기 프로세서(120)에서의 비교 결과에 따라 상기 제1 시청 거리(최적 시청 거리)와 제2 시청 거리(실제 시청 거리) 간의 오차 거리가 일정 범위 내에 포함되지 않는 경우, 상기 프로세서(120)로부터 상기 가이드 신호를 전달받아, 상기 제1 시청 거리를 기준으로 상기 오차 거리를 조정할 수 있는 바(Bar)를 상기 모바일 단말기의 화면에 표시할 수 있다(도 9 참조).
상기 출력부(130)는 상기 모바일 단말기의 화면에 얼굴 크기를 선택할 수 있는 옵션을 표시할 수 있다. 상기 옵션을 통해 어느 하나의 얼굴 크기가 선택되는 경우, 상기 입력부(11)는 상기 선택된 얼굴 크기에 대응되는 값을 상기 미간 거리로서 입력받을 수 있다.
상기 출력부(130)는 상기 모바일 단말기의 화면에 수치를 입력할 수 있는 입력 버튼을 표시할 수 있다. 상기 입력 버튼을 통해 상기 시청자의 눈동자 사이의 길이를 직접 측정한 실측 수치가 입력되는 경우, 상기 입력부(110)는 상기 입력된 실측 수치를 상기 미간 거리로서 입력받을 수 있다.
도 12는 본 발명의 일 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
도 12를 참조하면, 단계(1310)에서 상기 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.
다음으로, 단계(1320)에서 상기 입체 영상 표시 장치는 입력된 상기 미간 거리와 모바일 단말기의 디스플레이에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치(Lens Pitch)에 기초하여 상기 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.
도 13은 본 발명의 다른 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
도 13을 참조하면, 단계(1410)에서 상기 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.
다음으로, 단계(1420)에서 상기 입체 영상 표시 장치는 입력된 상기 미간 거리와 상기 렌즈 피치에 기초하여 상기 모바일 단말기의 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.
다음으로, 단계(1430)에서 상기 입체 영상 표시 장치는 상기 미간 거리, 상기 렌즈 피치 및 상기 볼록 렌즈에서 상기 디스플레이까지의 거리를 나타내는 광학 거리에 기초하여, 상기 시청자가 상기 모바일 단말기의 입체 영상을 시청 시 가장 선명한 화질로 시청할 수 있는 거리를 나타내는 제1 시청 거리를 계산한다.
다음으로, 단계(1440)에서 상기 입체 영상 표시 장치는 상기 모바일 단말기의 카메라를 이용하여 실제 시청 거리(제2 시청 거리)를 측정한다.
다음으로, 단계(1450)에서 상기 입체 영상 표시 장치는 상기 제1 시청 거리 및 상기 제2 시청 거리 간의 오차 거리에 기초하여 상기 시청자의 제2 시청 거리의 조정을 안내하기 위한 가이드 신호를 상기 모바일 단말기에 제공한다.
도 14는 본 발명의 또 다른 실시예에 따른 입체 영상 표시 장치의 개인별 맞춤식 시청 환경 향상 방법을 설명하기 위해 도시한 흐름도이다.
도 14를 참조하면, 단계(1510)에서 상기 입체 영상 표시 장치는 시청자의 미간 거리를 입력받는다.
다음으로, 단계(1520)에서 상기 입체 영상 표시 장치는 입력된 상기 미간 거리와 모바일 단말기의 디스플레이에 대응되는 위치에 배치되는 렌즈 시트에 구비된 복수의 볼록렌즈 간의 거리를 나타내는 렌즈 피치(Lens Pitch)에 기초하여 상기 디스플레이의 렌더링 피치(Rendering Pitch)를 조정한다.
다음으로, 단계(1530)에서 상기 입체 영상 표시 장치는 상기 모바일 단말기의 카메라를 이용하여 상기 시청자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행한다.
다음으로, 단계(1540)에서 상기 입체 영상 표시 장치는 상기 카메라를 이용한 아이 트래킹의 수행을 통해 측정된, 상기 시청자의 눈의 이동 방향 및 이동 거리를 획득한다.
다음으로, 단계(1540)에서 상기 입체 영상 표시 장치는 상기 이동 거리 및 상기 미간 거리에 기초하여 상기 디스플레이에 적용하기 위한 옵셋을 계산한다.
다음으로, 단계(1550)에서 상기 입체 영상 표시 장치는 상기 옵셋만큼 상기 측정된 이동 방향과 반대 방향으로, 상기 디스플레이에 교대로 배치된 복수의 제1 및 제2 맵핑 패턴을 이동시킨다.
본 발명의 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 로컬 데이터 파일, 로컬 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크와 같은 자기-광 매체, 및 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
지금까지 본 발명에 따른 구체적인 실시예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허 청구의 범위뿐 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.
110: 입력부
120: 프로세서
130: 출력부
210: 볼록 렌즈
220: 디스플레이
222: 제1 맵핑 패턴
224: 제2 맵핑 패턴

Claims (9)

  1. 사용자 단말에 의해 수행되는, 단일 좌안 및 단일 우안 시역 제공 기반의 무안경 입체 영상 제공 방법에 있어서,
    (a) 사용자 단말과 연결된 카메라를 통하여 사용자의 상기 사용자 단말에 대한 시청 위치를 측정하고, 상기 시청 위치 및 상기 사용자 단말의 디스플레이 모듈의 전면에 배치되는 커버의 렌티큘러 렌즈를 고려하여 상기 디스플레이 모듈의 좌안 영상 픽셀 패턴 및 우안 영상 픽셀 패턴을 결정하여, 상기 커버를 거치면서 무안경 입체 영상이 표시되도록 하는 단계;
    (b) 상기 카메라를 이용하여 상기 사용자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하는 단계; 및
    (c) 상기 아이 트래킹의 수행 결과, 상기 사용자의 눈의 위치가 좌 또는 우 방향으로 이동된 것으로 판단된 경우, 상기 눈의 위치의 이동에 대응한 디스플레이의 옵셋(offset)을 산출하고 상기 좌안 영상 픽셀 패턴과 상기 우안 영상 픽셀 패턴의 위치가 이동되도록 상기 디스플레이 모듈의 픽셀들을 제어하는 단계를 포함하며,
    상기 좌안 및 우안 영상 픽셀 패턴의 위치 변경에 따라 이동된 사용자의 눈의 위치에서 무안경 입체 영상이 표시되는 것인, 무안경 입체 영상 제공 방법.

  2. 제 1 항에 있어서,
    상기 좌안 및 우안 영상 픽셀 패턴은,
    서로 교번하며 배치되는 것인, 무안경 입체 영상 제공 방법.
  3. 제 1 항에 있어서,
    상기 (c) 단계는,
    상기 사용자의 눈의 이동 방향과 반대방향으로 상기 좌안 및 우안 픽셀 영상 패턴이 이동하는 효과를 갖도록 상기 좌안 및 우안 픽셀 영상 패턴의 위치 변경을 제어하는 것인, 무안경 입체 영상 제공 방법.
  4. 제 1 항에 있어서,
    상기 렌티큘러 렌즈를 포함한 상기 커버의 위치는 고정되어 있는 것인, 무안경 입체 영상 제공 방법.
  5. 제 1 항에 있어서,
    상기 (c) 단계는,
    상기 사용자의 눈이 상기 좌안 영상 픽셀 패턴 또는 상기 우안 영상 픽셀 패턴의 한 가운데를 볼 수 있도록 상기 디스플레이의 픽셀들을 제어하는 것인, 무안경 입체 영상 제공 방법.

  6. 제1항에 있어서,
    상기 (c) 단계는,
    (c-1) 상기 아이트래킹에 따라 측정된 사용자의 눈의 이동 방향 및 이동 거리에 기초하여 상기 디스플레이 모듈의 픽셀들에 적용하기 위한 옵셋을 계산하는 단계를 포함하는 것인, 무안경 입체 영상 제공 방법.
  7. 제6항에 있어서,
    상기 (c) 단계는,
    (c-2) 상기 옵셋만큼 상기 측정된 이동 방향과 반대 방향으로, 상기 좌안 및 우안 영상 픽셀 패턴이 이동하는 효과가 발생되도록 상기 좌안 및 우안 영상 픽셀 패턴의 위치를 변경시키는 단계를 포함하는 것인, 무안경 입체 영상 제공 방법.
  8. 단일 좌안 및 단일 우안 시역 제공 기반의 무안경 입체 영상을 제공하기 위한 사용자 단말에 있어서,
    디스플레이 모듈 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하며,
    상기 프로세서는,
    사용자 단말과 연결된 카메라를 통하여 사용자의 상기 사용자 단말에 대한 시청 위치를 측정하고, 상기 시청 위치 및 상기 사용자 단말의 디스플레이 모듈의 전면에 배치되는 커버의 렌티큘러 렌즈를 고려하여 상기 디스플레이 모듈의 좌안 영상 픽셀 패턴 및 우안 영상 픽셀 패턴을 결정하여, 상기 커버를 거치면서 무안경 입체 영상이 표시되도록 하고,
    상기 카메라를 이용하여 상기 사용자의 눈에 대한 아이 트래킹(Eye Tracking)을 수행하며,
    상기 아이 트래킹의 수행 결과, 상기 사용자의 눈의 위치가 좌 또는 우 방향으로 이동된 것으로 판단된 경우, 상기 눈의 위치의 이동에 대응한 디스플레이의 옵셋(offset)을 산출하고 상기 좌안 영상 픽셀 패턴과 상기 우안 영상 픽셀 패턴의 위치가 이동되도록 상기 디스플레이 모듈의 픽셀들을 제어하는 것이며,
    상기 좌안 및 우안 영상 픽셀 패턴의 위치 변경에 따라 이동된 사용자의 눈의 위치에서 무안경 입체 영상이 표시되는 것인, 사용자 단말.
  9. 제 1 항에 따르는 무안경 입체 영상 제공방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독가능 기록매체.
KR1020180103533A 2018-08-31 2018-08-31 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법 KR101970485B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180103533A KR101970485B1 (ko) 2018-08-31 2018-08-31 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180103533A KR101970485B1 (ko) 2018-08-31 2018-08-31 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160069372A Division KR101897229B1 (ko) 2016-06-03 2016-06-03 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법

Publications (2)

Publication Number Publication Date
KR20180100291A KR20180100291A (ko) 2018-09-10
KR101970485B1 true KR101970485B1 (ko) 2019-04-19

Family

ID=63593929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180103533A KR101970485B1 (ko) 2018-08-31 2018-08-31 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법

Country Status (1)

Country Link
KR (1) KR101970485B1 (ko)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101629479B1 (ko) * 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법

Also Published As

Publication number Publication date
KR20180100291A (ko) 2018-09-10

Similar Documents

Publication Publication Date Title
KR101958447B1 (ko) 입체 영상 표시 장치 및 그 표시 방법
US10855976B2 (en) Display device and displaying method for glass-free stereoscopic image
TWI554080B (zh) An image processing apparatus, a program, an image processing method, a recording method, and a recording medium
US11550151B2 (en) Method of determining an eye parameter of a user of a display device
US9049435B2 (en) Image providing apparatus and image providing method based on user's location
KR20140067575A (ko) 삼차원 이미지 구동 방법 및 이를 수행하는 입체 영상 표시 장치
JP7335233B2 (ja) 2つのビューポイントのオートステレオスコピックイメージをnビューポイントのオートステレオスコピックディスプレイスクリーンに表示するためのシステム及び方法並びにそのようなディスプレイスクリーン上の表示を制御する方法
CN113534490A (zh) 基于用户眼球追踪的立体显示装置及立体显示方法
JP2013005238A (ja) 3次元画像処理装置及び3次元画像処理方法、表示装置、並びにコンピューター・プログラム
KR20120095066A (ko) 집적 영상 방식의 입체 영상 표시 장치
KR101970485B1 (ko) 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법
KR101897229B1 (ko) 입체 영상 표시 장치 및 그 개인별 맞춤식 시청 환경 향상 방법
KR101808758B1 (ko) 입체 영상 표시 장치 및 그 오정렬 보정 방법
KR101956532B1 (ko) 무안경 입체 영상 표시 장치 및 방법
KR101835754B1 (ko) 입체 영상 표시 장치 및 그 해상도 향상 방법
CN112578558B (zh) 用于头戴式装置的、用于更新眼睛追踪模型的方法和系统
JPH08223609A (ja) 焦点調節の可能な三次元表示方法および表示装置
KR101863155B1 (ko) 무안경 입체 영상 표시 장치 및 방법
JP4549661B2 (ja) 立体映像呈示装置
KR102174465B1 (ko) 초점 각도에 기초하여 가상 현실에 대한 컨텐츠를 렌더링하는 방법 및 장치
KR101836180B1 (ko) 입체영상 표시장치의 광학 특성 평가 시스템 및 그 방법
KR101943479B1 (ko) 액정 렌즈를 포함하는 영상표시장치 및 그 구동방법
JP2022049247A (ja) 頭部装着型画像表示装置
KR101528704B1 (ko) 입체시 측정 장치
WO2021148993A2 (en) Wearable device for the use of augmented reality

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant