KR20160065686A - 3d 디스플레이를 위한 양안 거리 인식 장치 - Google Patents

3d 디스플레이를 위한 양안 거리 인식 장치 Download PDF

Info

Publication number
KR20160065686A
KR20160065686A KR1020140170006A KR20140170006A KR20160065686A KR 20160065686 A KR20160065686 A KR 20160065686A KR 1020140170006 A KR1020140170006 A KR 1020140170006A KR 20140170006 A KR20140170006 A KR 20140170006A KR 20160065686 A KR20160065686 A KR 20160065686A
Authority
KR
South Korea
Prior art keywords
user
binocular distance
image
view cone
distance
Prior art date
Application number
KR1020140170006A
Other languages
English (en)
Other versions
KR102329814B1 (ko
Inventor
허진구
이석
박주용
남동경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140170006A priority Critical patent/KR102329814B1/ko
Priority to US14/741,306 priority patent/US10742968B2/en
Publication of KR20160065686A publication Critical patent/KR20160065686A/ko
Application granted granted Critical
Publication of KR102329814B1 publication Critical patent/KR102329814B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/16Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring distance of clearance between spaced objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/10Energy storage using batteries

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

3D 디스플레이를 위한 양안 거리 인식 장치가 개시된다. 그 장치는, 기준 양안 거리(criteria pupil distance)에 대응하는 3D 이미지를 출력하는 디스플레이부와, 3D 이미지를 구성하는 뷰 콘(view cone)을 제어하는 제어부와, 뷰 콘의 제어에 따라 3D 이미지에 아티팩트(artifact)가 관찰되는지에 관한 사용자 피드백을 수신하는 사용자 입력부를 포함한다. 제어부는, 뷰 콘을 기준 양안 거리에 대응하는 마진(margin) 내에서 이동시킬 수 있으며, 사용자 피드백에 기초하여, 기준 양안 거리를 변경하거나, 기준 양안 거리를 사용자의 양안 거리로 결정할 수 있다.

Description

3D 디스플레이를 위한 양안 거리 인식 장치{PUPILOMETER FOR 3D DISPLAY}
본 명세서에 기재된 다양한 실시예들은 양안 거리 인식 장치에 관한 것이다.
최근 3D 디스플레이 기술이 발달하고 있다. 3D 디스플레이는 안경 방식과 무 안경 방식이 있다. 무 안경 방식은 3D 이미지를 사용자의 왼쪽 눈과 오른쪽 눈에 각각 출력하는 방식이다.
무 안경 방식에서 사용자의 양안 거리(pupil distance)는 중요한 요소 중 하나다. 종래 양안 거리를 측정하는 방식에는, 자와 같은 도구를 이용하여 양안 거리를 물리적으로 측정하는 방식과 사용자의 얼굴을 신용카드 같은 일반적인 물건과 함께 촬영하여 양안 거리를 측정하는 방식이 있다.
이러한 종래의 방식은 오차를 수반하며, 편리한 측정 환경을 제공하지 못한다. 따라서, 양안 거리를 정확하고 편리하게 측정할 수 있는 측정 기술이 요구된다.
일측에 따르면, 양안 거리 인식 방법은, 양안 거리와 관련된 3D 이미지를 생성하는 단계; 및 상기 3D 이미지에 대한 사용자의 피드백에 기초하여 상기 사용자의 양안 거리를 결정하는 단계를 포함한다.
양안 거리와 관련된 3D 이미지를 생성하는 단계는, 기준 양안 거리(criteria pupil distance)에 대응하는 3D 이미지를 생성하는 단계를 포함할 수 있고, 상기 양안 거리를 결정하는 단계는, 상기 3D 이미지에 아티팩트(artifact)가 관찰되는지에 관한 상기 사용자의 피드백 기초하여 상기 사용자의 양안 거리를 결정하는 단계를 포함할 수 있다.
상기 양안 거리 인식 방법은, 상기 3D 이미지에 아티팩트가 관찰되는 것에 대응하여, 기준 양안 거리를 변경하는 단계를 더 포함할 수 있다.
상기 양안 거리 인식 방법은, 기준 양안 거리에 대응되는 최적의 관찰 영역을 결정하는 단계; 및 상기 최적의 관찰 영역을 벗어나지 않는 범위에서 상기 3D 이미지를 구성하는 뷰 콘을 제어하는 단계를 더 포함할 수 있다.
상기 양안 거리 인식 방법은, 상기 사용자의 피드백에 기초하여 최적의 관찰 영역을 결정하는 단계를 더 포함할 수 있고, 상기 사용자의 양안 거리를 결정하는 단계는, 상기 최적의 관찰 영역에 대응되는 양안 거리를 상기 사용자의 양안 거리로 결정하는 단계를 포함할 수 있다.
상기 양안 거리 인식 방법은, 상기 사용자로부터 수신한 제어 명령에 기초하여, 상기 3D 이미지를 구성하는 뷰 콘을 제어하는 단계를 더 포함할 수 있다.
일측에 따르면, 양안 거리 인식 장치는, 양안 거리와 관련된 3D 이미지를 생성하는 3D 이미지 생성부; 및 상기 3D 이미지에 대한 사용자의 피드백에 기초하여 상기 사용자의 양안 거리를 결정하는 양안 거리 결정부를 포함한다.
상기 3D 이미지 생성부는, 기준 양안 거리(criteria pupil distance)에 대응하는 3D 이미지를 생성하고, 상기 양안 거리 결정부는, 상기 3D 이미지에 아티팩트(artifact)가 관찰되는지에 관한 상기 사용자의 피드백 기초하여 상기 사용자의 양안 거리를 결정할 수 있다.
상기 양안 거리 인식 장치는, 상기 3D 이미지를 구성하는 뷰 콘을 제어하는 뷰 콘 제어부를 더 포함할 수 있고, 상기 뷰 콘 제어부는, 기준 양안 거리에 대응되는 최적의 관찰 영역을 벗어나지 않는 범위에서 상기 뷰 콘을 제어할 수 있다.
상기 사용자의 피드백에 기초하여 최적의 관찰 영역을 결정하는 관찰 영역 결정부를 더 포함할 수 있고, 상기 양안 거리 결정부는, 상기 최적의 관찰 영역에 대응되는 양안 거리를 상기 사용자의 양안 거리로 결정할 수 있다.
상기 양안 거리 인식 장치는, 상기 사용자로부터 수신한 제어 명령에 기초하여, 상기 3D 이미지를 구성하는 뷰 콘을 제어하는 뷰 콘 제어부를 더 포함할 수 있다.
일측에 있어서, 3D 디스플레이를 위한 양안 거리 인식 장치는, 기준 양안 거리(criteria pupil distance)에 대응하는 3D 이미지를 출력하는 디스플레이부; 상기 3D 이미지를 구성하는 뷰 콘(view cone)을 제어하는 제어부; 및 상기 뷰 콘의 제어에 따라 상기 3D 이미지에 아티팩트(artifact)가 관찰되는지에 관한 사용자 피드백을 수신하는 사용자 입력부를 포함하고, 상기 제어부는, 상기 사용자 피드백에 기초하여 상기 사용자의 양안 거리를 결정한다.
상기 제어부는, 상기 기준 양안 거리 및 상기 사용자의 눈 위치에 기초하여 최적의 관찰 영역을 결정하고, 상기 사용자의 눈 위치가 상기 최적의 관찰 영역을 벗어나지 않는 범위에서 상기 뷰 콘을 제어할 수 있다.
상기 제어부는, 상기 사용자 피드백에 기초하여 상기 기준 양안 거리를 변경할 수 있다.
상기 제어부는, 상기 사용자의 제어 명령에 기초하여 상기 뷰 콘을 제어하고, 상기 사용자 피드백에 기초하여 최적의 관찰 영역을 결정하고, 상기 최적의 관찰 영역에 대응되는 양안 거리를 상기 사용자의 양안 거리로 결정할 수 있다.
상기 제어 명령은, 상기 뷰 콘의 왼쪽 이미지 또는 상기 뷰 콘의 오른쪽 이미지 중 적어도 하나를 이동시키기 위한 것일 수 있다.
상기 사용자 피드백은, 상기 사용자의 눈이 상기 최적의 관찰 영역을 벗어나면서 상기 사용자에 의해 상기 아티팩트가 관찰되기 시작하는 마진에 관한 것일 수 있고, 상기 제어부는, 상기 사용자 피드백에 기초하여 상기 마진을 결정하고, 상기 마진에 대응되는 관찰 영역을 상기 최적의 관찰 영역으로 결정할 수 있다.
상기 제어부는, 상기 뷰 콘의 가상 눈 위치를 이동시킴으로써 상기 뷰 콘을 제어할 수 있다.
상기 뷰 콘은, 상기 사용자의 왼쪽 눈으로 조사되는 왼쪽 뷰 콘과 상기 사용자의 오른쪽 눈으로 조사되는 오른쪽 뷰 콘을 포함할 수 있고, 상기 제어부는, 상기 왼쪽 뷰 콘 및 상기 오른쪽 뷰 콘을 순차적으로 제어함으로써 상기 뷰 콘을 제어할 수 있다.
도 1은 일실시예에 따른 3D 디스플레이를 위한 양안 거리 인식 장치를 도시한 블록도이다.
도 2는 일실시예에 따른 뷰 콘 및 양안 거리를 설명하기 위한 도면이다.
도 3은 일실시예에 따른 최적의 관찰 영역을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 가상 눈 위치의 이동에 따른 뷰 콘의 제어를 설명하기 위한 도면이다.
도 5는 일실시예에 따른 왼쪽 뷰 콘 및 오른쪽 뷰 콘의 제어를 설명하기 위한 도면이다.
도 6은 일실시예에 따른 양안 거리 인식을 위한 인터페이스 장치를 도시한 블록도이다.
도 7은 일실시예에 따른 제어부의 뷰 콘 제어에 따라 양안 거리를 결정하기 위한 설정 창의 구성을 도시한 도면이다.
도 8은 일실시예에 따른 사용자의 뷰 콘 제어에 따라 양안 거리를 결정하기 위한 설정 창의 구성을 도시한 도면이다.
도 9는 일실시예에 따른 제어부의 뷰 콘 제어에 기초한 양안 거리 인식 방법을 도시한 플로우 차트이다.
도 10은 일실시예에 따른 사용자의 뷰 콘 제어에 기초한 양안 거리 인식 방법을 도시한 플로우 차트이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일실시예에 따른 3D 디스플레이를 위한 양안 거리 인식 장치를 도시한 블록도이다.
도 1을 참조하면, 양안 거리 인식 장치(100)는 제어부(110), 눈 추적부(120), 디스플레이부(130), 사용자 입력부(140) 및 저장부(150)를 포함한다. 양안 거리 인식 장치(100)는 사용자 피드백에 기초하여 사용자의 양안 거리를 측정한다.
눈 추적부(120)는 사용자의 눈을 추적한다. 눈 추적부(120)는 이미지 센서를 포함할 수 있다. 눈 추적부(120)는 이미지 센서를 이용하여 사용자의 이미지를 센싱하고, 사용자의 이미지에서 사용자의 눈을 추적할 수 있다.
눈 추적부(120)는 사용자의 이미지에서 사용자의 얼굴을 검출하고, 검출된 사용자의 얼굴에서 사용자의 눈을 검출할 수 있다. 눈 추적부(120)는 다양한 형태의 얼굴, 다양한 형태의 눈 또는 얼굴과 눈의 상대적인 위치에 대해 트레이닝된 데이터에 기초하여 사용자의 눈을 검출할 수 있다. 눈 추적부(120)는 검출된 사용자의 눈 위치를 좌표 값으로 출력할 수 있다.
눈 추적부(120)는 x-y-z 축의 3차원 공간에서 사용자의 눈을 추적할 수 있다. 눈 추적부(120)는 사용자의 눈을 3차원 좌표 값으로 출력할 수 있다.
디스플레이부(130)는 기준 양안 거리(criteria pupil distance)에 대응하는 3D 이미지를 출력한다.
디스플레이부(130)는 왼쪽 눈에 대응하는 이미지와 오른쪽 눈에 대응하는 이미지를 구분하여 조사하는 방식으로 3D 이미지를 출력할 수 있다. 디스플레이부(130)는 검출된 사용자의 눈 위치에 대응하도록 3D 이미지를 출력할 수 있다. 디스플레이부(130)는 검출된 사용자의 왼쪽 눈으로 왼쪽 눈에 대응하는 이미지를 조사하고 검출된 사용자의 오른쪽 눈으로 오른쪽 눈에 대응하는 이미지를 조사할 수 있다. 디스플레이부(130)는 패럴렉스 베리어(parallax barrier) 또는 렌티큘라 렌즈(Lenticular Lens) 방식의 3D 디스플레이 장치일 수 있다.
3D 이미지는 정지 영상 및 동영상을 포함한다. 사용자의 양안 거리를 측정하는 경우, 3D 이미지는 양안 거리 측정을 위한 특정 3D 패턴일 수 있다. 예를 들어, 3D 이미지는 복수의 세로 선이 좌우로 나열된 패턴일 수 있다. 사용자의 양안 거리가 결정된 경우, 3D 이미지는 사진, TV 쇼 또는 영화와 같은 3D 컨텐츠일 수 있다.
기준 양안 거리는 현재 디스플레이부(130)가 출력하는 3D 이미지의 기준이 되는 양안 거리이다. 디스플레이부(130)는 다양한 기준 양안 거리에 대응하는 3D 이미지를 출력 할 수 있다. 기준 양안 거리의 변경에 따라 최적의 관찰 영역(optimal viewing zone)도 변경될 수 있다. 최적의 관찰 영역은 사용자가 아티팩트(artifact) 없이 3D 이미지를 관찰할 수 있는 영역을 의미한다. 상이한 양안 거리를 갖는 사용자는 상이한 최적의 관찰 영역을 갖는다. 따라서, 최적의 관찰 영역이 결정될 경우, 최적의 관찰 영역에 대응하는 양안 거리가 사용자의 양안 거리로 결정될 수 있다.
최적의 관찰 영역은 다양한 방식으로 결정될 수 있다. 일측에 따르면, 양안 거리 인식 장치가 다양한 최적의 관찰 영역에 대한 3D 이미지를 순차적으로 출력하고, 사용자 피드백에 따라 사용자의 최적의 관찰 영역을 결정할 수 있다. 예컨대, 기준 양안 거리 65mm에 대응하는 최적의 관찰 영역을 제1 최적의 관찰 영역이라 하고, 기준 양안 거리 70mm에 대응하는 최적의 관찰 영역을 제2 최적의 관찰 영역이라 할 경우, 사용자가 제1 최적의 관찰 영역에 대한 3D 이미지에서 아티팩트를 관찰하고, 제2 최적의 관찰 영역에 대한 3D 이미지에서 아티팩트를 관찰하지 못한 경우, 사용자의 양안 거리는 70mm로 결정될 수 있다. 이하, 양안 거리 인식 장치가 다양한 최적의 관찰 영역에 대한 3D 이미지를 순차적으로 출력하는 방식을 시나리오 1로 설명한다.
다른 일측에 따르면, 사용자가 뷰 콘을 제어하면서 아티팩트가 관찰되는 순간에 아티팩트가 관찰된다는 사용자 피드백을 양안 거리 인식 장치에 입력할 수 있다. 양안 거리 인식 장치는 사용자 피드백에 기초하여 아티팩트가 관찰되기 시작하는 뷰 콘의 조사 각도를 결정하고, 상기 조사 각도에 기초하여 최적의 관찰 영역을 결정할 수 있다. 양안 거리 인식 장치는 결정된 최적의 관찰 영역에 대응되는 양안 거리를 사용자의 양안 거리로 결정할 수 있다. 이하, 사용자가 뷰 콘을 제어하면서 사용자 피드백을 입력하는 방식을 시나리오 2로 설명한다.
특정한 동작 또는 파라미터의 의미와 관련하여, 시나리오 1 및 시나리오 2는 서로 상이한 내용으로 설명될 수 있다. 이하에서, 시나리오 1 및 시나리오 2와 관련된 상이한 내용은 서로 구분하여 설명한다.
<기준 양안 거리의 결정: 시나리오 1>
시나리오 1에서, 사용자는 아티팩트가 관찰되는 것에 응답하여 기준 양안 거리를 변경할 수 있고, 사용자에게 최적인 양안 거리를 사용자의 양안 거리로 결정할 수 있다. 다시 말해, 사용자는 다양한 기준 양안 거리 중에 3D 이미지가 가장 잘 관찰(view)되는 기준 양안 거리를 사용자의 양안 거리로 결정할 수 있다. 사용자에 의한 별도의 설정이 없는 경우, 초기의(default) 기준 양안 거리는 65mm일 수 있다.
<기준 양안 거리의 결정: 시나리오 2>
시나리오 2에서, 기준 양안 거리는 초기 양안 거리의 의미를 가질 수 있다. 사용자는 초기 양안 거리에 대응되는 3D 이미지의 뷰 콘을 제어하면서 아티팩트의 관찰 여부에 관한 사용자 피드백을 양안 거리 인식 장치에 입력할 수 있다. 기준 양안 거리에 대해서는 도 2를 참조하여 상세하게 설명한다.
도 2는 일실시예에 따른 뷰 콘 및 양안 거리를 설명하기 위한 도면이다.
도 2를 참조하면, 눈 추적부(120), 디스플레이부(130), 뷰 콘(10), 제1 기준 양안 거리의 최적의 관찰 영역(20) 및 제2 기준 양안 거리의 최적의 관찰 영역(30)이 도시되어 있다.
디스플레이부(130)에 의해 출력되는 3D 이미지는 적어도 하나의 뷰 콘(10)으로 구성될 수 있다. 뷰 콘(10)은 사용자의 왼쪽 눈으로 조사되는 왼쪽 뷰 콘(11)과 사용자의 오른쪽 눈으로 조사되는 오른쪽 뷰 콘(12)을 포함한다.
상이한 양안 거리를 갖는 사용자는 상이한 최적의 관찰 영역을 갖는다. 최적의 관찰 영역은 아티팩트(artifact) 없이 3D 이미지를 관찰할 수 있는 영역을 의미한다. 양안 거리가 제1 기준 양안 거리인 사용자는 최적의 관찰 영역(20)을 갖고, 양안 거리가 제2 기준 양안 거리인 사용자는 최적의 관찰 영역(30)을 갖는다. 예를 들어, 제1 기준 양안 거리는 65mm이고, 제2 기준 양안 거리는 70mm일 수 있다.
도 2에 도시된 눈의 양안 거리는 제1 기준 양안 거리이다. 또한, 도 2에서 디스플레이부(130)는 제1 기준 양안 거리에 대응되는 3D 이미지를 출력한다. 다시 말해, 뷰 콘(10)은 제1 기준 양안 거리에 대응된다. 따라서, 양안 거리가 제1 기준 양안 거리인 사용자는 최적의 관찰 영역(20) 내에서 아티팩트 없이 3D 이미지를 관찰할 수 있다.
디스플레이부(130)가 제2 기준 양안 거리에 대응하는 3D 이미지를 출력하는 경우, 양안 거리가 제1 기준 양안 거리인 사용자는 아티팩트를 관찰할 수 있다. 도 2에 도시된 것처럼 제1 기준 양안 거리를 갖는 눈이 최적의 관찰 영역(20)을 벗어나기 때문이다. 따라서, 사용자는 디스플레이부(130)에 의해 출력되는 3D 이미지를 자신의 양안 거리에 맞도록 설정해야 아티팩트 없는 3D 이미지를 관찰할 수 있다.
디스플레이부(130)는 최적의 관찰 영역(20, 30)에 대응하는 3D 이미지 외에도 다양한 기준 양안 거리에 대응하는 3D 이미지를 출력할 수 있다. 다시 말해, 최적의 관찰 영역(20, 30) 이외에도, 다양한 최적의 관찰 영역이 존재할 수 있다. 또한, 각각의 최적의 관찰 영역은 특정 기준 양안 거리에 대응될 수 있다.
다시 도 1을 참조하면, 사용자 입력부(140)는 사용자로부터 3D 이미지의 관찰 결과에 관한 사용자 피드백을 수신한다. 사용자 입력부(140)는 뷰 콘(10)의 제어에 따라 3D 이미지에 아티팩트가 관찰되는지에 관한 사용자 피드백을 수신할 수 있다. 또한, 사용자 입력부(140)는 사용자로부터 뷰 콘(10)을 제어하기 위한 제어 명령을 수신할 수 있다.
사용자 입력부(140)는 사용자 피드백 및 제어 명령을 포함하는 사용자 입력을 수신하기 위해 다양한 디바이스로 구현될 수 있다. 예를 들어, 사용자 입력부(140)는 리모트 컨트롤러, 터치 입력 장치, 이미지 인식 장치, 음성 인식 장치, 키보드, 또는 마우스 등을 통해 사용자 입력을 수신할 수 있다.
사용자 피드백은 시나리오 1 및 시나리오 2에서 서로 상이할 수 있다. 구체적으로, 각각의 시나리오에서 사용자 피드백은 다음의 의미를 가질 수 있다.
<사용자 피드백: 시나리오 1>
시나리오 1에서, 사용자 피드백은 3D 이미지에 아티팩트가 관찰되는지에 관한 것일 수 있다. 사용자 피드백은, 사용자에 의해 기준 양안 거리에 대응하는 3D 이미지에서 아티팩트가 관찰될 경우, 아티팩트가 관찰됨을 지시하는 피드백일 수 있다. 또한, 사용자 피드백은, 사용자에 의해 기준 양안 거리에 대응하는 3D 이미지에서 아티팩트가 관찰되지 않을 경우, 아티팩트가 관찰됨을 지시하는 피드백일 수 있다.
<사용자 피드백: 시나리오 2>
시나리오 2에서, 사용자 피드백은 3D 이미지에 아티팩트가 관찰되는지에 관한 것일 수 있다. 구체적으로, 사용자 피드백은 최적의 관찰 영역의 결정을 위한 마진에 관한 것일 수 있다. 구체적으로, 사용자 피드백은 사용자의 눈이 상기 최적의 관찰 영역을 벗어나면서 사용자에 의해 상기 아티팩트가 관찰되기 시작하는 마진에 관한 것일 수 있다. 이 때, 제어부(110)는 사용자 피드백에 기초하여 마진을 결정하고, 결정된 마진에 대응되는 관찰 영역을 최적의 관찰 영역으로 결정할 수 있다.
양안 거리의 인식을 위해 유저 인터페이스가 제공될 수 있다. 유저 인터페이스는 추후 도 7 및 도 8을 통해 상세하게 설명될 설정 창을 포함할 수 있다. 유저 인터페이스는 양안 거리 인식 장치(100)에 의해 다음과 같이 제공될 수 있다.
디스플레이부(130)는 기준 양안 거리에 대응하는 3D 이미지 및 3D 이미지의 조정을 위한 설정 창을 출력한다.
사용자 입력부(140)는 사용자로부터 3D 이미지에 아티팩트가 관찰되는지에 관한 사용자 피드백을 수신한다. 사용자 입력부(140)는 사용자로부터 3D 이미지를 조정하기 위한 제어 명령을 수신할 수 있다. 이 때, 제어부(110)는 제어 명령에 기초하여 상기 이미지를 제어할 수 있다. 제어 명령은, 왼쪽 이미지 또는 오른쪽 이미지 중 적어도 하나를 이동시키기 위한 입력일 수 있다. 왼쪽 이미지 또는 오른쪽 이미지의 이동에 따라, 왼쪽 뷰 콘 또는 오른쪽 뷰 콘 중 적어도 하나의 폭이 조절될 수 있다.
제어부(110)는 최적의 관찰 영역에 기초하여 사용자의 양안 거리를 결정한다. 최적의 관찰 영역의 결정 과정은 시나리오 1 및 시나리오 2에 따라 서로 상이할 수 있다.
<최적의 관찰 영역의 결정: 시나리오 1>
시나리오 1에서, 제어부(110)는 기준 양안 거리 및 사용자의 눈 위치에 기초하여 최적의 관찰 영역을 결정할 수 있다. 또한, 제어부(110)는 사용자의 눈 위치가 최적의 관찰 영역을 벗어나지 않는 범위에서 뷰 콘을 제어할 수 있다. 제어부(110)는 사용자 피드백에 기초하여, 기준 양안 거리를 변경하거나, 기준 양안 거리를 사용자의 양안 거리로 결정할 수 있다.
<최적의 관찰 영역의 결정: 시나리오 2>
시나리오 2에서, 제어부(110)는 3D 이미지를 조정하기 위한 제어 명령에 기초하여 3D 이미지를 제어할 수 있다. 또한, 제어부(110)는 사용자 피드백에 기초하여 최적의 관찰 영역을 결정하고, 최적의 관찰 영역에 대응되는 양안 거리를 상기 사용자의 양안 거리로 결정할 수 있다. 여기서, 사용자 피드백은 사용자의 눈이 최적의 관찰 영역을 벗어나면서 사용자에 의해 상기 아티팩트가 관찰되기 시작하는 마진에 관한 것일 수 있고, 제어부(110)는 사용자 피드백에 기초하여 마진을 결정하고, 결정된 마진에 대응되는 관찰 영역을 최적의 관찰 영역으로 결정할 수 있다.
제어부(110)는 디스플레이부(130) 및 사용자 입력부(140)가 앞서 설명한 동작을 수행할 수 있도록 디스플레이부(130) 및 사용자 입력부(140)를 제어할 수 있다. 사용자는 인터페이스 장치(200)를 통해 양안 거리를 편리하고 정확하게 측정할 수 있다.
제어부(110)는 기준 양안 거리 또는 사용자의 눈 위치 중 적어도 하나에 기초하여 최적의 관찰 영역을 결정할 수 있다. 도 3을 참조하여 최적의 관찰 영역에 대해 상세하게 설명한다.
도 3은 일실시예에 따른 최적의 관찰 영역을 설명하기 위한 도면이다.
도 3을 참조하면, 눈 추적부(120), 디스플레이부(130), 왼쪽 이미지에 대응하는 최적의 관찰 영역(21), 오른쪽 이미지에 대응하는 최적의 관찰 영역(22), 사용자의 눈, 및 마진이 도시되어 있다.
눈 추적부(120)는 사용자의 눈을 추적하여, 사용자의 눈에 대한 좌표 값을 출력할 수 있다. 예를 들어, 사용자의 눈에 대한 좌표 값은, 왼쪽 눈에 대해 pL(x, y, z)로 나타낼 수 있고, 오른쪽 눈에 대해 pR(x, y, z)로 나타낼 수 있다.
제어부(110)는 기준 양안 거리 및 사용자의 눈 위치에 기초하여 최적의 관찰 영역 및 최적의 관찰 영역의 마진을 결정할 수 있다. 마진은 3D 이미지의 아티팩트를 관찰하지 않고 이동할 수 있는 범위를 의미한다. 마진은 기준 양안 거리에 대응하는 최적의 관찰 영역 내에서 형성된다.
제어부(110)는 마진의 결정을 위해 사용자의 눈에 대한 좌표 값을 이용할 수 있다. 제어부(110)는 왼쪽 뷰 콘 및 오른쪽 뷰 콘의 조사 각도에 따라 아티팩트 없는 3D 이미지가 관찰되는 최적의 관찰 영역을 결정할 수 있다. 또한, 제어부(110)는 현재 뷰 콘(10)의 조사 각도 및 검출된 사용자의 눈의 위치를 고려하여 뷰 콘(10)을 이동할 수 있는 각도를 결정할 수 있다.
다시 도 1을 참조하면, 제어부(110)는 3D 이미지를 구성하는 뷰 콘(10)을 제어한다. 제어부(110)는 뷰 콘(10)의 움직임을 제어할 수 있다. 뷰 콘의 제어 방식은 앞서 설명된 시나리오 1 및 2에 따라 상이할 수 있다.
<뷰 콘의 제어 방식: 시나리오 1>
시나리오 1에서, 제어부(110)는 뷰 콘(10)을 마진 내에서 이동시킬 수 있다. 다시 말해, 제어부(110)는 뷰 콘(10)을 사용자의 눈 위치가 최적의 관찰 영역을 벗어나지 않는 범위에서 이동시킬 수 있다. 이 때, 사용자가 아티팩트를 관찰할 경우, 사용자의 양안 거리는 기준 양안 거리에 대응되지 않는 것으로 결정된다. 제어부(110)는 아티팩트가 관찰되었다는 사용자 피드백에 응답하여 기준 양안 거리를 변경할 수 있다.
<뷰 콘의 제어 방식: 시나리오 2>
시나리오 2에서, 제어부(110)는 사용자의 제어 명령에 기초하여 뷰 콘(10)을 이동시킬 수 있다. 뷰 콘(10)의 제어에 따라 사용자의 눈 위치가 최적의 관찰 영역을 벗어날 경우, 사용자는 아티팩트를 관찰한다. 이 때, 사용자는 아티팩트가 관찰되기 시작하는 마진에 관한 사용자 피드백을 입력할 수 있다. 제어부(110)는 사용자 피드백에 기초하여 마진을 결정하고, 결정된 마진에 대응되는 관찰 영역을 최적의 관찰 영역을 결정할 수 있다.
뷰 콘(10)은 사용자의 왼쪽 눈으로 조사되는 왼쪽 뷰 콘과 사용자의 오른쪽 눈으로 조사되는 오른쪽 뷰 콘을 포함할 수 있다. 제어부(110)는 왼쪽 뷰 콘 또는 오른쪽 뷰 콘 중 적어도 하나를 제어함으로써 뷰 콘(10)을 제어할 수 있다. 뷰 콘(10)의 제어에 대해서는 도 4 및 도 5를 참조하여 상세하게 설명한다.
도 4는 일실시예에 따른 가상 눈의 이동에 따른 뷰 콘의 제어를 설명하기 위한 도면이다.
도 4를 참조하면, 눈 추적부(120), 디스플레이부(130), 사용자의 눈, 최적의 관찰 영역, 가상의 눈 위치(vp1, vp2, vp3, vp4)가 도시되어 있다.
도 4의 (a)는 가상의 눈 위치 vp1 및 vp2를 왼쪽으로 이동시킴으로써 뷰 콘(10)을 왼쪽으로 이동시킨 것을 도시한 도면이다. 제어부(110)는 실제의 눈 위치인 pL(x, y, z) 및 pR(x, y, z)로 조사되던 뷰 콘(10)을 가상의 눈 위치(vp1, vp2)에 조사되도록 뷰 콘(10)을 이동시킬 수 있다. 뷰 콘의 제어 범위는 시나리오 1 및 시나리오 2에 따라 서로 상이할 수 있다.
<뷰 콘의 제어 범위: 시나리오 1>
시나리오 1에서, 제어부(110)는 뷰 콘(10)을 마진의 좌측 끝까지 이동시킬 수 있다. 좌측 끝까지 이동 시키는 과정에서 사용자에 의해 아티팩트가 관찰되는 경우, 제어부(110)는 현재 설정된 기준 양안 거리가 사용자의 양안 거리가 아닌 것으로 판단될 수 있다. 마진 내의 이동은 아티팩트의 관찰을 가져오지 않기 때문이다. 따라서, 제어부(110)는 아티팩트가 관찰되었음을 지시하는 사용자 피드백에 따라 기준 양안 거리를 변경할 수 있다.
도 4의 (b)는 가상의 눈 위치 vp3 및 vp4를 오른쪽으로 이동시킴으로써 뷰 콘(10)을 오른쪽으로 이동시킨 것을 도시한 도면이다. 제어부(110)는 실제의 눈 위치인 pL(x, y, z) 및 pR(x, y, z)로 조사되던 뷰 콘(10)을 가상의 눈 위치(vp3, vp4)에 조사되도록 뷰 콘(10)을 이동시킬 수 있다.
시나리오 1에서, 제어부(110)는 뷰 콘(10)을 마진의 우측 끝까지 이동시킬 수 있다. 우측 끝까지 이동 시키는 과정에서 사용자에 의해 아티팩트가 관찰되는 경우, 제어부(110)는 현재 설정된 기준 양안 거리가 사용자의 양안 거리가 아닌 것으로 판단될 수 있다. 마진 내의 이동은 아티팩트의 관찰을 가져오지 않기 때문이다. 따라서, 제어부(110)는 아티팩트가 관찰되었음을 지시하는 사용자 피드백에 따라 기준 양안 거리를 변경할 수 있다.
<뷰 콘의 제어 범위: 시나리오 2>
시나리오 2에서, 제어부(110)는 사용자의 제어 명령에 따라 뷰 콘(10)이 조사되는 가상의 눈 위치를 제어함으로써 뷰 콘(10)을 제어할 수 있다. 뷰 콘(10)을 도 4의 (a)에 도시된 왼쪽 방향으로 이동시키는 경우, 제어부(110)는 마진에 관한 사용자 피드백에 기초하여 최적의 관찰 영역의 왼쪽 마진을 결정할 수 있다.
시나리오 2에서, 뷰 콘(10)을 도 4의 (b)에 도시된 오른쪽 방향으로 이동시키는 경우, 제어부(110)는 마진에 관한 사용자 피드백에 기초하여 최적의 관찰 영역의 오른쪽 마진을 결정할 수 있다. 제어부(110)는 최적의 관찰 영역의 왼쪽 마진 및 오른쪽 마진에 기초하여 최적의 관찰 영역을 결정할 수 있다.
도 5는 일실시예에 따른 왼쪽 뷰 콘 및 오른쪽 뷰 콘의 제어를 설명하기 위한 도면이다.
도 5를 참조하면, 눈 추적부(120), 디스플레이부(130), 사용자의 눈, 최적의 관찰 영역, 왼쪽 뷰 콘(40) 및 오른쪽 뷰 콘(50)이 도시되어 있다. 왼쪽 이미지 및 오른쪽 이미지 중 어느 하나를 제어함으로써 왼쪽 뷰 콘(40) 및 오른쪽 뷰 콘(50)을 각각 제어할 수 있다. 이 경우, 뷰 콘(10)은 고정될 수 있으며, 왼쪽 뷰 콘(40) 및 오른쪽 뷰 콘(50)의 폭만 조절될 수 있다. 도 5의 (a)는 오른쪽 뷰 콘(40)의 폭을 넓힌 경우의 도면이고, 도 5의 (b)는 왼쪽 뷰 콘(50)의 폭을 넓힌 경우의 도면이다. 제어부(110)는 왼쪽 뷰 콘(40) 및 오른쪽 뷰 콘(50)을 순차적으로 제어할 수 있다.
제어부(110)는 왼쪽 이미지에 대응하는 최적의 관찰 영역(21)이 왼쪽 뷰 콘(40)에 포함되고, 오른쪽 이미지에 대응하는 최적의 관찰 영역(22)이 오른쪽 뷰 콘(50)에 포함되도록 뷰 콘(10)을 제어할 수 있다. 뷰 콘의 제어 범위는 시나리오 1 및 시나리오 2에 따라 서로 상이할 수 있다.
<뷰 콘의 제어 범위: 시나리오 1>
시나리오 1에서, 뷰 콘(10)을 제어하는 과정에서 사용자에 의해 아티팩트가 관찰되는 경우, 제어부(110)는 현재 설정된 기준 양안 거리가 사용자의 양안 거리가 아닌 것으로 판단될 수 있다. 왼쪽 이미지에 대응하는 최적의 관찰 영역(21)이 왼쪽 뷰 콘(40)에 포함되고, 오른쪽 이미지에 대응하는 최적의 관찰 영역(22)이 오른쪽 뷰 콘(50)에 포함되는 것은, 아티팩트의 관찰을 가져오지 않기 때문이다. 따라서, 제어부(110)는 아티팩트가 관찰되었음을 지시하는 사용자 피드백에 따라 기준 양안 거리를 변경할 수 있다.
<뷰 콘의 제어 범위: 시나리오 2>
시나리오 2에서, 아티팩트가 관찰되었음을 지시하는 사용자 피드백에 따라 최적의 관찰 영역의 안쪽 마진을 결정할 수 있다. 제어부(110)는 최적의 관찰 영역의 안쪽 마진에 기초하여 최적의 관찰 영역을 결정할 수 있다.
제어부(110)는 도 4 또는 도 5에서 설명한 방법 중 적어도 하나를 이용하여 뷰 콘(10)을 제어할 수 있다.
제어부(110)는 사용자 피드백에 기초하여 사용자의 양안 거리를 결정한다. 제어부(110)에 의한 뷰 콘(10)의 제어 과정에서 아티팩트가 관찰된 경우, 사용자는 사용자 입력부(140)를 통해 아티팩트가 관찰됨을 알리는 피드백을 입력할 수 있다. . 사용자 피드백 및 제어 명령을 포함하는 사용자 입력은 시나리오 1 및 시나리오 2에 따라 서로 상이할 수 있다.
<사용자 입력: 시나리오 1>
시나리오 1에서, 사용자는 사용자 입력부(140)를 통해 직접 기준 양안 거리를 변경하는 피드백을 입력할 수 있다. 제어부(110)에 의한 뷰 콘(10)의 제어 과정에서 아티팩트가 관찰되지 않는 경우, 사용자는 사용자 입력부(140)를 통해 아티팩트가 관찰되지 않음을 알리는 피드백을 입력할 수 있다. 일측에 따르면, 사용자는 사용자 입력부(140)를 통해 직접 기준 양안 거리를 자신의 양안 거리로 결정하는 피드백을 입력할 수 있다.
<사용자 입력: 시나리오 2>
시나리오 2에서, 사용자는 뷰 콘(10)을 직접 제어할 수 있다. 예를 들어, 사용자는 제어 명령을 통해 가상 눈 위치를 제어하거나, 왼쪽 뷰 콘 또는 오른쪽 뷰 콘을 제어할 수 있다. 이 때, 사용자 입력부(140)는 사용자가 뷰 콘(10)을 제어할 수 있는 인터페이스 환경을 제공할 수 있다. 시나리오 2에서, 사용자 피드백은 뷰 콘의 제어에 따라 사용자의 눈이 최적의 관찰 영역을 벗어나면서 사용자에 의해 상기 아티팩트가 관찰되기 시작하는 마진에 관한 것일 수 있다.
사용자의 양안 거리가 결정된 경우, 디스플레이부(130)는 사용자의 양안 거리에 대응하는 3D 이미지를 출력한다. 이 때, 3D 이미지는 사진, TV 쇼 또는 영화와 같은 3D 컨텐츠일 수 있다.
결정된 사용자의 양안 거리는 저장부(150)에 저장될 수 있다. 저장부(150)는 결정된 사용자의 양안 거리를 사용자의 식별 정보와 매칭하여 저장한다. 복수의 사용자가 양안 거리 인식 장치(100)를 사용하는 경우, 복수의 사용자 및 그들의 양안 거리는 식별 정보를 통해 구별될 수 있다. 또한, 복수의 사용자가 순차적으로 3D 컨텐츠를 시청할 경우, 각각의 사용자는 양안 거리 인식 장치(100)에 식별 정보를 입력함으로써 자신의 양안 거리에 맞는 3D 컨텐츠를 시청할 수 있다.
제어부(110)는 디스플레이부(110), 사용자 입력부(140) 및 저장부(150)가 앞서 설명한 동작을 수행할 수 있도록 디스플레이부(110), 사용자 입력부(140) 및 저장부(150)를 제어할 수 있다.
도 6은 다른 실시예에 따른 양안 거리 인식 장치를 도시한 블록도이다.
도 6을 참조하면, 양안 거리 인식 장치(200)는 3D 이미지 생성부(210), 양안 거리 결정부(220), 뷰 콘 제어부(230) 및 관찰 영역 결정부(240)를 포함할 수 있다. 3D 이미지 생성부(210), 양안 거리 결정부(220), 뷰 콘 제어부(230) 및 관찰 영역 결정부(240)는 하나 이상의 프로세서로 구현되거나, 소프트웨어 모듈로 구현될 수 있다. 또한, 양안 거리 인식 장치(200)에는 앞서 설명된 내용이 적용될 수 있다.
3D 이미지 생성부(210)는 양안 거리와 관련된 3D 이미지를 생성한다. 또한, 양안 거리 결정부(220)는 3D 이미지에 대한 사용자의 피드백에 기초하여 사용자의 양안 거리를 결정한다. 3D 이미지 생성부(210), 양안 거리 결정부(220), 뷰 콘 제어부(230) 및 관찰 영역 결정부(240)는 앞서 설명된 시나리오에 따라 상이하게 동작할 수 있다. 이하, 3D 이미지 생성부(210), 양안 거리 결정부(220), 뷰 콘 제어부(230) 및 관찰 영역 결정부(240)의 동작을 시나리오 1 및 시나리오 2에 따라 설명한다.
<시나리오 1 >
3D 이미지 생성부(210)는 기준 양안 거리에 대응하는 3D 이미지를 생성할 수 있다. 기준 양안 거리는 사용자의 피드백에 기초하여 변경될 수 있다.
양안 거리 결정부(220)는 3D 이미지에 대한 사용자의 피드백에 기초하여 사용자의 양안 거리를 결정할 수 있다. 이 때, 사용자의 피드백은 사용자 피드백은 3D 이미지에 아티팩트가 관찰되는지에 관한 것일 수 있다.
관찰 영역 결정부(240)는 기준 양안 거리에 대응되는 최적의 관찰 영역을 결정할 수 있다.
뷰 콘 제어부(230)는 3D 이미지를 구성하는 뷰 콘을 제어할 수 있다. 뷰 콘 제어부(230)는 기준 양안 거리에 대응되는 최적의 관찰 영역을 벗어나지 않는 범위에서 뷰 콘을 제어할 수 있다.
<시나리오 2 >
3D 이미지 생성부(210)는 기준 양안 거리에 대응하는 3D 이미지를 생성할 수 있다. 이 때, 기준 양안 거리는 초기 양안 거리를 의미할 수 있다.
사용자는 뷰 콘을 제어하면서 3D 이미지를 관찰하고, 아티팩트가 관찰되는 순간에 사용자 피드백을 입력할 수 있다.
뷰 콘 제어부(230)는 사용자로부터 수신한 제어 명령에 기초하여, 3D 이미지를 구성하는 뷰 콘을 제어할 수 있다. 또한, 관찰 영역 결정부(240)는 사용자의 피드백에 기초하여 최적의 관찰 영역을 결정할 수 있다.
이 때, 양안 거리 결정부(220)는 최적의 관찰 영역에 대응되는 양안 거리를 사용자의 양안 거리로 결정할 수 있다.
양안 거리의 인식을 위해 유저 인터페이스가 제공될 수 있다. 유저 인터페이스에 대해서는 도 7 및 도 8을 참조하여 상세하게 설명한다.
도 7은 일실시예에 따른 제어부의 뷰 콘 제어에 따라 양안 거리를 결정하기 위한 설정 창의 구성을 도시한 도면이다.
도 7을 참조하면, 3D 이미지(310-1), 왼쪽 이미지(311-1), 오른쪽 이미지(312-1), 양안 거리 변경 버튼(321), 양안 거리 결정 버튼(322), 마크(330), 기준 양안 거리 및 마진이 도시되어 있다.
설정 창(300-1)은 사용자의 왼쪽 눈으로 조사되는 3D 이미지의 왼쪽 이미지, 사용자의 오른쪽 눈으로 조사되는 3D 이미지의 오른쪽 이미지 또는 3D 이미지 중 적어도 하나를 포함할 수 있다. 왼쪽 이미지(311-1)와 오른쪽 이미지(312-1)는 설정 창에 표시된 방향을 따라 좌우로 이동할 수 있다. 왼쪽 이미지(311-1)와 오른쪽 이미지(312-1)는 제어부(210)의 제어에 따라 좌우로 이동할 수 있다. 왼쪽 이미지(311-1)와 오른쪽 이미지(312-1)는 동시 또는 순차적으로 이동할 수 있다. 왼쪽 이미지(311-1)와 오른쪽 이미지(312-1)는 마진 내에서 이동할 수 있다. 설정 창에는 마진이 표시될 수 있다.
설정 창은 다양한 기능의 선택 버튼을 포함할 수 있다. 설정 창은 기준 양안 거리를 변경하는 양안 거리 변경 버튼(321)이나 기준 양안 거리를 사용자의 양안 거리로 결정하는 양안 거리 결정 버튼(322)을 포함할 수 있다. 제어부(210)는 양안 거리 변경 버튼(321) 또는 양안 거리 결정 버튼(322)을 통한 사용자 피드백에 기초하여, 기준 양안 거리를 변경하거나, 기준 양안 거리를 상기 사용자의 양안 거리로 결정할 수 있다.
왼쪽 이미지(311-1)와 오른쪽 이미지(312-1)는 3D 이미지(310-1)를 구성한다. 다시 말해, 사용자는 왼쪽 눈으로 왼쪽 이미지(311-1)를 관찰하고, 오른쪽 이미지(312-1)를 오른쪽 눈으로 관찰함으로써, 입체 상태의 3D 이미지(310-1)를 관찰할 수 있다.
3D 이미지(310-1)에는 사용자의 시선을 유도하는 마크(330)가 표시될 수 있다. 사용자는 마크(330)을 바라보며 양안 거리를 측정할 수 있다.
3D 이미지(310-1), 왼쪽 이미지(311-1) 및 오른쪽 이미지(312-1)는 도 7에 도시된 것처럼 복수의 세로 줄로 구성될 수 있다. 3D 이미지(311-1), 왼쪽 이미지(311-1) 및 오른쪽 이미지(312-1)는 양안 거리 측정을 위한 다양한 패턴일 수 있다.
도 8은 일실시예에 따른 사용자의 뷰 콘 제어에 따라 양안 거리를 결정하기 위한 설정 창의 구성을 도시한 도면이다.
도 8을 참조하면, 3D 이미지(310-2), 왼쪽 이미지(311-2), 오른쪽 이미지(312-2) 및 마크(330)가 도시되어 있다.
사용자는 제어 명령을 통해 왼쪽 이미지(311-2) 또는 오른쪽 이미지(312-2) 중 적어도 하나를 제어할 수 있다. 제어 명령은 사용자의 탭 입력, 터치&홀드 입력, 더블 탭 입력, 드래그 입력, 스크롤 입력, 패닝 입력, 플릭 입력, 드래그 앤드 드롭 입력, 스와이프 입력 및 핀치 입력을 포함할 수 있다. 바람직하게는, 제어 명령은 드래그 입력 또는 스크롤 입력일 수 있다. 드래그 입력 또는 스크롤 입력은 키보드, 마우스 또는 리모컨의 휠, 트랙볼 또는 터치 패드를 통해 수행될 수 있다.
설정 창(300-2)은 사용자의 왼쪽 눈으로 조사되는 3D 이미지의 왼쪽 이미지, 사용자의 오른쪽 눈으로 조사되는 3D 이미지의 오른쪽 이미지 또는 3D 이미지 중 적어도 하나를 포함할 수 있다. 왼쪽 이미지(311-2)와 오른쪽 이미지(312-2)는 제어 명령에 의해 설정 창에 표시된 방향을 따라 좌우로 이동할 수 있다. 왼쪽 이미지(311-2)와 오른쪽 이미지(312-2)는 동시 또는 순차적으로 이동할 수 있다.
설정 창은 다양한 기능의 선택 버튼을 포함할 수 있다. 설정 창은 제어 대상 이미지를 왼쪽 이미지(311-2) 또는 오른쪽 이미지(312-2) 중 적어도 하나로 선택하기 위한 버튼을 포함할 수 있다. 설정 창은 왼쪽 이미지(311-2) 및 오른쪽 이미지(312-2)의 위치가 최적의 관찰 영역의 마진에 대응됨을 결정하기 위한 버튼을 포함할 수 있다. 제어부(210)는 사용자의 제어 명령에 기초하여 왼쪽 이미지(311-2) 또는 오른쪽 이미지(312-2)를 제어하고, 마진을 확정하는 사용자 피드백에 기초하여 최적의 관찰 영역을 결정할 수 있다. 또한, 제어부(210)는 결정된 최적의 관찰 영역에 대응되는 양안 거리를 사용자의 양안 거리로 결정할 수 있다.
3D 이미지(310-2)에는 사용자의 시선을 유도하는 마크(330)가 표시될 수 있다. 사용자는 마크(330)을 바라보며 양안 거리를 측정할 수 있다.
3D 이미지(310-2), 왼쪽 이미지(311-2) 및 오른쪽 이미지(312-2)는 도 8에 도시된 것처럼 복수의 세로 줄로 구성될 수 있다. 3D 이미지(311-2), 왼쪽 이미지(311-2) 및 오른쪽 이미지(312-2)는 양안 거리 측정을 위한 다양한 패턴일 수 있다.
사용자는 설정 창(300-1, 300-2)을 통해 양안 거리를 편리하고 정확하게 측정할 수 있다.
이하, 양안 거리 인식 방법을 도 9 및 도 10에 도시된 플로우 차트를 통해 설명한다. 도 9는 시나리오 1에 따른 양안 거리 인식 방법에 관한 플로우 차트이고, 도 10은 시나리오 2에 따른 양안 거리 인식 방법에 관한 플로우 차트이다.
도 9는 일실시예에 따른 제어부의 뷰 콘 제어에 기초한 양안 거리 인식 방법을 도시한 플로우 차트이다. 도 9에 도시된 양안 거리 인식 방법은 앞서 설명된 시나리오 1에 따른 양안 거리 인식 방법이다.
도 9를 참조하면, 단계(400)에서, 양안 거리 인식 장치는 사용자의 눈을 추적한다. 양안 거리 인식 장치는 이미지 센서를 포함하는 눈 추적부를 통해 사용자의 이미지를 센싱할 수 있다. 양안 거리 인식 장치는 사용자의 이미지에서 사용자의 얼굴을 검출하고, 검출된 사용자의 얼굴에서 사용자의 눈을 검출할 수 있다. 양안 거리 인식 장치는 다양한 형태의 얼굴, 다양한 형태의 눈 또는 얼굴과 눈의 상대적인 위치에 대해 트레이닝된 데이터에 기초하여 사용자의 눈을 검출할 수 있다. 양안 거리 인식 장치는 검출된 사용자의 눈 위치를 좌표 값으로 출력할 수 있다.
단계(410)에서, 양안 거리 인식 장치는 기준 양안 거리 및 사용자의 눈 위치에 기초하여 최적의 관찰 영역을 결정한다. 양안 거리 인식 장치는 현재의 기준 양안 거리 및 검출된 사용자의 눈 위치에 기초하여 최적의 관찰 영역을 계산할 수 있다. 또한, 양안 거리 인식 장치는 다양한 기준 양안 거리 및 다양한 눈 위치에 대해 최적의 관찰 영역을 미리 계산하고, 미리 계산된 다양한 관찰 영역 중에 현재의 기준 양안 거리 및 검출된 사용자의 눈 위치에 대응하는 관찰 영역을 최적의 관찰 영역으로 결정할 수 있다.
단계(420)에서, 양안 거리 인식 장치는 최적의 관찰 영역에 대응하는 3D 이미지를 생성한다. 생성된 3D 이미지는 디스플레이부를 통해 출력될 수 있다. 양안 거리 인식 장치는 왼쪽 눈에 대응하는 이미지와 오른쪽 눈에 대응하는 이미지를 구분하여 조사하는 방식으로 3D 이미지를 출력할 수 있다. 예를 들어, 양안 거리 인식 장치는 패럴렉스 베리어(parallax barrier) 또는 렌티큘라 렌즈(Lenticular Lens) 방식으로 3D 이미지를 출력할 수 있다. 3D 이미지는 양안 거리 측정을 위한 특정 3D 패턴일 수 있다. 예를 들어, 3D 이미지는 복수의 세로 선이 좌우로 나열된 패턴일 수 있다.
단계(430)에서, 양안 거리 인식 장치는 3D 이미지를 구성하는 뷰 콘을 제어한다. 기준 양안 거리 및 사용자의 눈 위치에 기초하여 결정된 마진 내에서 상기 뷰 콘을 이동시킴으로써 뷰 콘을 제어할 수 있다. 양안 거리 인식 장치는 왼쪽 뷰 콘 및 오른쪽 뷰 콘을 동시 또는 순차적으로 제어함으로써 뷰 콘을 제어할 수 있다. 또한, 양안 거리 인식 장치는 뷰 콘의 가상 눈 위치를 이동시킴으로써 뷰 콘을 제어할 수 있다.
단계(440)에서, 양안 거리 인식 장치는 사용자로부터 3D 이미지에 아티팩트가 관찰되는지에 관한 사용자 피드백을 수신한다. 양안 거리 인식 장치는 리모트 컨트롤러, 터치 입력 장치, 이미지 인식 장치, 음성 인식 장치, 키보드, 또는 마우스 등을 통해 사용자 피드백을 수신할 수 있다. 사용자 피드백은, 사용자에 의해 기준 양안 거리에 대응하는 3D 이미지에서 아티팩트가 관찰될 경우, 아티팩트가 관찰됨을 지시하는 피드백일 수 있다. 또한, 사용자 피드백은, 사용자에 의해 기준 양안 거리에 대응하는 3D 이미지에서 아티팩트가 관찰되지 않을 경우, 아티팩트가 관찰됨을 지시하는 피드백일 수 있다.
단계(450)에서, 양안 거리 인식 장치는 사용자 피드백에 기초하여 아티팩트가 관찰되는지 결정한다. 양안 거리 인식 장치는 사용자에 의해 아티팩트가 관찰되는 경우 단계(460)을 수행할 수 있다. 또한, 양안 거리 인식 장치는 사용자에 의해 아티팩트가 관찰되지 않는 경우 단계(470)을 수행할 수 있다.
단계(460)에서, 양안 거리 인식 장치는 기준 양안 거리를 변경한다. 양안 거리 인식 장치는 임의로 기준 양안 거리를 증가시키거나 감소시킬 수 있다. 증가 또는 감소의 폭은 사용자에 의해 조절될 수 있다. 양안 거리 인식 장치는 사용자 입력에 기초하여 기준 양안 거리를 증가시키거나 감소시킬 수 있다. 사용자 입력은 증가 또는 감소 폭을 포함할 수 있다.
단계(470)에서, 양안 거리 인식 장치는 기준 양안 거리를 사용자의 양안 거리로 결정한다. 양안 거리가 결정된 경우, 3D 이미지는 결정된 사용자의 양안 거리에 기초하여 출력될 수 있다.
단계(480)에서, 양안 거리 인식 장치는 사용자의 양안 거리를 사용자의 식별 정보와 매칭하여 저장한다. 복수의 사용자가 양안 거리 인식 장치를 사용하는 경우, 복수의 사용자 및 그들의 양안 거리는 식별 정보를 통해 구별될 수 있다. 또한, 복수의 사용자가 순차적으로 3D 컨텐츠를 시청할 경우, 각각의 사용자는 양안 거리 인식 장치에 식별 정보를 입력함으로써 자신의 양안 거리에 맞는 3D 컨텐츠를 시청할 수 있다.
단계(490)에서, 양안 거리 인식 장치는 사용자의 양안 거리에 대응하는 3D 이미지를 출력한다. 단계(490)에서 출력되는 3D 이미지는 사진, TV 쇼 또는 영화와 같은 3D 컨텐츠일 수 있다.
사용자는 앞서 설명한 다양한 실시예들에 따라 양안 거리를 정확하고 편리하게 측정할 수 있다. 또한, 사용자는 자신의 양안 거리에 최적화된 3D 이미지를 시청할 수 있고, 움직임에 대한 제한이 완화될 수 있다.
도 10은 일실시예에 따른 사용자의 뷰 콘 제어에 기초한 양안 거리 인식 방법을 도시한 플로우 차트이다. 도 10에 도시된 양안 거리 인식 방법은 앞서 설명된 시나리오 2에 따른 양안 거리 인식 방법이다.
도 10을 참조하면, 단계(500)에서, 양안 거리 인식 장치는 사용자의 눈 위치를 추적한다. 양안 거리 인식 장치는 이미지 센서를 포함하는 눈 추적부를 통해 사용자의 이미지를 센싱할 수 있다. 양안 거리 인식 장치는 사용자의 이미지에서 사용자의 얼굴을 검출하고, 검출된 사용자의 얼굴에서 사용자의 눈을 검출할 수 있다. 양안 거리 인식 장치는 다양한 형태의 얼굴, 다양한 형태의 눈 또는 얼굴과 눈의 상대적인 위치에 대해 트레이닝된 데이터에 기초하여 사용자의 눈을 검출할 수 있다. 양안 거리 인식 장치는 검출된 사용자의 눈 위치를 좌표 값으로 출력할 수 있다.
단계(520)에서, 양안 거리 인식 장치는 기준 양안 거리에 대응하는 3D 이미지를 생성한다. 생성된 3D 이미지는 디스플레이부를 통해 출력될 수 있다. 여기서, 기준 양안 거리는 초기 양안 거리를 의미할 수 있다. 예컨대, 초기 양안 거리는 65mm일 수 있다.
단계(530)에서, 양안 거리 인식 장치는 사용자로부터 제어 명령을 수신한다. 사용자는 제어 명령을 통해 왼쪽 이미지(311-2) 또는 오른쪽 이미지(312-2) 중 적어도 하나를 제어할 수 있다. 제어 명령은 사용자의 탭 입력, 터치&홀드 입력, 더블 탭 입력, 드래그 입력, 스크롤 입력, 패닝 입력, 플릭 입력, 드래그 앤드 드롭 입력, 스와이프 입력 및 핀치 입력을 포함할 수 있다. 바람직하게는, 제어 명령은 드래그 입력 또는 스크롤 입력일 수 있다. 드래그 입력 또는 스크롤 입력은 키보드, 마우스 또는 리모컨의 휠, 트랙볼 또는 터치 패드를 통해 수행될 수 있다.
단계(540)에서, 양안 거리 인식 장치는 3D 이미지를 구성하는 뷰 콘을 제어한다. 양안 거리 인식 장치는 사용자의 제어 명령에 기초하여 뷰 콘을 제어할 수 있다.
단계(550)에서, 양안 거리 인식 장치는 사용자로부터 3D 이미지에 아티팩트가 관찰되는지에 관한 사용자 피드백을 수신한다. 사용자 피드백은 사용자의 눈이 최적의 관찰 영역을 벗어나면서 사용자에 의해 아티팩트가 관찰되기 시작하는 마진에 관한 것일 수 있다.
단계(560)에서, 양안 거리 인식 장치는 사용자의 피드백 및 사용자의 눈 위치에 기초하여 최적의 관찰 영역을 결정한다. 양안 거리 인식 장치는 사용자 피드백에 기초하여 마진을 결정하고, 결정된 마진에 대응되는 관찰 영역을 최적의 관찰 영역으로 결정할 수 있다.
단계(570)에서, 양안 거리 인식 장치는 사용자의 양안 거리를 사용자의 식별 정보와 매칭하여 저장한다. 복수의 사용자가 양안 거리 인식 장치를 사용하는 경우, 복수의 사용자 및 그들의 양안 거리는 식별 정보를 통해 구별될 수 있다. 또한, 복수의 사용자가 순차적으로 3D 컨텐츠를 시청할 경우, 각각의 사용자는 양안 거리 인식 장치에 식별 정보를 입력함으로써 자신의 양안 거리에 맞는 3D 컨텐츠를 시청할 수 있다.
단계(580)에서, 양안 거리 인식 장치는 상기 사용자의 양안 거리에 대응하는 3D 이미지를 출력한다. 단계(580)에서 출력되는 3D 이미지는 사진, TV 쇼 또는 영화와 같은 3D 컨텐츠일 수 있다.
사용자는 앞서 설명한 다양한 실시예들에 따라 양안 거리를 정확하고 편리하게 측정할 수 있다. 또한, 사용자는 자신의 양안 거리에 최적화된 3D 이미지를 시청할 수 있고, 움직임에 대한 제한이 완화될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 양안 거리와 관련된 3D 이미지를 생성하는 단계; 및
    상기 3D 이미지에 대한 사용자의 피드백에 기초하여 상기 사용자의 양안 거리를 결정하는 단계
    를 포함하는 양안 거리 인식 방법.
  2. 제1항에 있어서,
    양안 거리와 관련된 3D 이미지를 생성하는 단계는,
    기준 양안 거리(criteria pupil distance)에 대응하는 3D 이미지를 생성하는 단계를 포함하고,
    상기 양안 거리를 결정하는 단계는,
    상기 3D 이미지에 아티팩트(artifact)가 관찰되는지에 관한 상기 사용자의 피드백 기초하여 상기 사용자의 양안 거리를 결정하는 단계
    를 포함하는 양안 거리 인식 방법.
  3. 제1항에 있어서,
    상기 3D 이미지에 아티팩트가 관찰되는 것에 대응하여, 기준 양안 거리를 변경하는 단계
    를 더 포함하는 양안 거리 인식 방법.
  4. 제1항에 있어서,
    기준 양안 거리에 대응되는 최적의 관찰 영역을 결정하는 단계; 및
    상기 최적의 관찰 영역을 벗어나지 않는 범위에서 상기 3D 이미지를 구성하는 뷰 콘을 제어하는 단계
    를 더 포함하는 양안 거리 인식 방법.
  5. 제1항에 있어서,
    상기 사용자의 피드백에 기초하여 최적의 관찰 영역을 결정하는 단계
    를 더 포함하고,
    상기 사용자의 양안 거리를 결정하는 단계는,
    상기 최적의 관찰 영역에 대응되는 양안 거리를 상기 사용자의 양안 거리로 결정하는 단계를 포함하는,
    양안 거리 인식 방법.
  6. 제1항에 있어서,
    상기 사용자로부터 수신한 제어 명령에 기초하여, 상기 3D 이미지를 구성하는 뷰 콘을 제어하는 단계
    를 더 포함하는 양안 거리 인식 방법.
  7. 양안 거리와 관련된 3D 이미지를 생성하는 3D 이미지 생성부; 및
    상기 3D 이미지에 대한 사용자의 피드백에 기초하여 상기 사용자의 양안 거리를 결정하는 양안 거리 결정부
    를 포함하는 양안 거리 인식 장치.
  8. 제7항에 있어서,
    상기 3D 이미지 생성부는,
    기준 양안 거리(criteria pupil distance)에 대응하는 3D 이미지를 생성하고,
    상기 양안 거리 결정부는,
    상기 3D 이미지에 아티팩트(artifact)가 관찰되는지에 관한 상기 사용자의 피드백 기초하여 상기 사용자의 양안 거리를 결정하는,
    양안 거리 인식 장치.
  9. 제7항에 있어서,
    상기 3D 이미지를 구성하는 뷰 콘을 제어하는 뷰 콘 제어부
    를 더 포함하고,
    상기 뷰 콘 제어부는,
    기준 양안 거리에 대응되는 최적의 관찰 영역을 벗어나지 않는 범위에서 상기 뷰 콘을 제어하는,
    양안 거리 인식 장치.
  10. 제7항에 있어서,
    상기 사용자의 피드백에 기초하여 최적의 관찰 영역을 결정하는 관찰 영역 결정부
    를 더 포함하고,
    상기 양안 거리 결정부는,
    상기 최적의 관찰 영역에 대응되는 양안 거리를 상기 사용자의 양안 거리로 결정하는,
    양안 거리 인식 장치.
  11. 제7항에 있어서,
    상기 사용자로부터 수신한 제어 명령에 기초하여, 상기 3D 이미지를 구성하는 뷰 콘을 제어하는 뷰 콘 제어부
    를 더 포함하는 양안 거리 인식 장치.
  12. 기준 양안 거리(criteria pupil distance)에 대응하는 3D 이미지를 출력하는 디스플레이부;
    상기 3D 이미지를 구성하는 뷰 콘(view cone)을 제어하는 제어부; 및
    상기 뷰 콘의 제어에 따라 상기 3D 이미지에 아티팩트(artifact)가 관찰되는지에 관한 사용자 피드백을 수신하는 사용자 입력부
    를 포함하고,
    상기 제어부는,
    상기 사용자 피드백에 기초하여 상기 사용자의 양안 거리를 결정하는,
    양안 거리 인식 장치.
  13. 제12항에 있어서,
    상기 제어부는,
    상기 기준 양안 거리 및 상기 사용자의 눈 위치에 기초하여 최적의 관찰 영역을 결정하고, 상기 사용자의 눈 위치가 상기 최적의 관찰 영역을 벗어나지 않는 범위에서 상기 뷰 콘을 제어하는,
    양안 거리 인식 장치.
  14. 제12항에 있어서,
    상기 제어부는,
    상기 사용자 피드백에 기초하여 상기 기준 양안 거리를 변경하는,
    양안 거리 인식 장치.
  15. 제12항에 있어서,
    상기 제어부는,
    상기 사용자의 제어 명령에 기초하여 상기 뷰 콘을 제어하고, 상기 사용자 피드백에 기초하여 최적의 관찰 영역을 결정하고, 상기 최적의 관찰 영역에 대응되는 양안 거리를 상기 사용자의 양안 거리로 결정하는,
    양안 거리 인식 장치.
  16. 제15항에 있어서,
    상기 제어 명령은,
    상기 뷰 콘의 왼쪽 이미지 또는 상기 뷰 콘의 오른쪽 이미지 중 적어도 하나를 이동시키기 위한 것인,
    양안 거리 인식 장치.
  17. 제15항에 있어서,
    상기 사용자 피드백은,
    상기 사용자의 눈이 상기 최적의 관찰 영역을 벗어나면서 상기 사용자에 의해 상기 아티팩트가 관찰되기 시작하는 마진에 관한 것이고,
    상기 제어부는,
    상기 사용자 피드백에 기초하여 상기 마진을 결정하고, 상기 마진에 대응되는 관찰 영역을 상기 최적의 관찰 영역으로 결정하는,
    양안 거리 인식 장치.
  18. 제12항에 있어서,
    상기 제어부는,
    상기 뷰 콘의 가상 눈 위치를 이동시킴으로써 상기 뷰 콘을 제어하는,
    양안 거리 인식 장치.
  19. 제12항에 있어서,
    상기 뷰 콘은,
    상기 사용자의 왼쪽 눈으로 조사되는 왼쪽 뷰 콘과 상기 사용자의 오른쪽 눈으로 조사되는 오른쪽 뷰 콘
    을 포함하고,
    상기 제어부는,
    상기 왼쪽 뷰 콘 및 상기 오른쪽 뷰 콘을 순차적으로 제어함으로써 상기 뷰 콘을 제어하는,
    양안 거리 인식 장치.
  20. 제12항에 있어서,
    상기 결정된 상기 사용자의 양안 거리를 상기 사용자의 식별 정보와 매칭하여 저장하는 저장부
    를 더 포함하는 양안 거리 인식 장치.
KR1020140170006A 2014-12-01 2014-12-01 3d 디스플레이를 위한 양안 거리 인식 장치 KR102329814B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140170006A KR102329814B1 (ko) 2014-12-01 2014-12-01 3d 디스플레이를 위한 양안 거리 인식 장치
US14/741,306 US10742968B2 (en) 2014-12-01 2015-06-16 Apparatus for recognizing pupillary distance for 3D display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140170006A KR102329814B1 (ko) 2014-12-01 2014-12-01 3d 디스플레이를 위한 양안 거리 인식 장치

Publications (2)

Publication Number Publication Date
KR20160065686A true KR20160065686A (ko) 2016-06-09
KR102329814B1 KR102329814B1 (ko) 2021-11-22

Family

ID=56080011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140170006A KR102329814B1 (ko) 2014-12-01 2014-12-01 3d 디스플레이를 위한 양안 거리 인식 장치

Country Status (2)

Country Link
US (1) US10742968B2 (ko)
KR (1) KR102329814B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10506219B2 (en) 2016-11-29 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for determining interpupillary distance (IPD)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102415501B1 (ko) 2015-08-07 2022-07-01 삼성전자주식회사 3차원 디스플레이 장치의 파라미터 추정 방법 및 그 방법을 이용한 3차원 디스플레이 장치
CN109819231A (zh) * 2019-01-28 2019-05-28 北京牡丹电子集团有限责任公司数字电视技术中心 一种视觉自适应裸眼3d图像处理方法及装置
US11333888B2 (en) 2019-08-05 2022-05-17 Facebook Technologies, Llc Automatic position determination of head mounted display optics
US10991343B2 (en) * 2019-08-05 2021-04-27 Facebook Technologies, Llc Automatic image alignment with head mounted display optics
JP7475191B2 (ja) * 2020-04-28 2024-04-26 京セラ株式会社 眼間距離測定方法および較正方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120200495A1 (en) * 2009-10-14 2012-08-09 Nokia Corporation Autostereoscopic Rendering and Display Apparatus

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5061996A (en) * 1989-06-29 1991-10-29 Autovision Associates Ground vehicle head up display for passenger
US6820979B1 (en) 1999-04-23 2004-11-23 Neuroptics, Inc. Pupilometer with pupil irregularity detection, pupil tracking, and pupil response detection capability, glaucoma screening capability, intracranial pressure detection capability, and ocular aberration measurement capability
KR100704634B1 (ko) 2005-12-19 2007-04-09 삼성전자주식회사 사용자의 위치에 따른 입체 영상을 디스플레이하는 장치 및방법
WO2008039252A2 (en) * 2006-05-15 2008-04-03 Retica Systems, Inc. Multimodal ocular biometric system
GB2457692A (en) * 2008-02-21 2009-08-26 Sharp Kk A display device with a plurality of viewing modes
US20110298795A1 (en) * 2009-02-18 2011-12-08 Koninklijke Philips Electronics N.V. Transferring of 3d viewer metadata
GB2467932A (en) * 2009-02-19 2010-08-25 Sony Corp Image processing device and method
KR101719980B1 (ko) * 2010-06-22 2017-03-27 엘지전자 주식회사 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 처리 방법 및 그 방법을 채용한 디스플레이 기기
EP2455796A4 (en) 2009-07-13 2013-04-24 Kenji Yoshida PARALLAX BARRIER FOR AUTOSTEROSCOPIC DISPLAY, AUTOSTEROSCOPIC DISPLAY, AND PARALLAX BARRIER DESIGN METHOD FOR SELF-OSOSCOPIC DISPLAY
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
US8888287B2 (en) * 2010-12-13 2014-11-18 Microsoft Corporation Human-computer interface system having a 3D gaze tracker
KR101726639B1 (ko) 2010-12-31 2017-04-13 엘지디스플레이 주식회사 입체 표시 장치
KR101824005B1 (ko) 2011-04-08 2018-01-31 엘지전자 주식회사 이동 단말기 및 그의 영상 깊이감 조절방법
KR101790096B1 (ko) 2011-06-22 2017-11-20 엘지전자 주식회사 양안의 위치 인식을 통한 3d 영상을 표시하는 모바일 기기
KR101883200B1 (ko) 2011-12-16 2018-08-01 에스케이플래닛 주식회사 입체영상 깊이감 측정 장치 및 방법
KR101385480B1 (ko) 2012-05-29 2014-04-16 엘지디스플레이 주식회사 입체 영상 표시 장치의 시청 피로를 저감하는 방법 및 장치
PT106430B (pt) * 2012-07-03 2018-08-07 Cesar Augusto Dos Santos Silva Sistema para medição da distância interpupilar usando um dispositivo equipado com um ecrã e uma câmara
US20140028662A1 (en) * 2012-07-24 2014-01-30 Sharp Laboratories Of America, Inc. Viewer reactive stereoscopic display for head detection
US9426447B2 (en) 2012-10-09 2016-08-23 Electronics And Telecommunications Research Institute Apparatus and method for eye tracking
EP2920568B1 (en) * 2012-11-14 2018-05-16 Essilor International Method of determining optical parameters of an opthalmic lens
WO2014100020A1 (en) * 2012-12-20 2014-06-26 Dolby Laboratories Licensing Corporation Managing 3d edge effects on autostereoscopic displays
US9600068B2 (en) * 2013-03-13 2017-03-21 Sony Interactive Entertainment Inc. Digital inter-pupillary distance adjustment
CN108537628B (zh) * 2013-08-22 2022-02-01 贝斯普客公司 用于创造定制产品的方法和系统
US10977864B2 (en) * 2014-02-21 2021-04-13 Dropbox, Inc. Techniques for capturing and displaying partial motion in virtual or augmented reality scenes
JP2015228543A (ja) * 2014-05-30 2015-12-17 株式会社東芝 電子機器および表示処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120200495A1 (en) * 2009-10-14 2012-08-09 Nokia Corporation Autostereoscopic Rendering and Display Apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10506219B2 (en) 2016-11-29 2019-12-10 Samsung Electronics Co., Ltd. Method and apparatus for determining interpupillary distance (IPD)
US10979696B2 (en) 2016-11-29 2021-04-13 Samsung Electronics Co., Ltd. Method and apparatus for determining interpupillary distance (IPD)

Also Published As

Publication number Publication date
US10742968B2 (en) 2020-08-11
KR102329814B1 (ko) 2021-11-22
US20160156896A1 (en) 2016-06-02

Similar Documents

Publication Publication Date Title
KR20160065686A (ko) 3d 디스플레이를 위한 양안 거리 인식 장치
CN109564472B (zh) 用于选取与虚拟对象的交互方法的方法、介质和系统
CN109923462B (zh) 感测眼镜
JP2022000640A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US10401953B2 (en) Systems and methods for eye vergence control in real and augmented reality environments
KR101443021B1 (ko) 얼굴 등록 장치, 방법, 포즈 변화 유도 장치 및 얼굴 인식 장치
US20190102956A1 (en) Information processing apparatus, information processing method, and program
US8606043B2 (en) Method and apparatus for generating 3D image data
US20150187115A1 (en) Dynamically adjustable 3d goggles
US20140341473A1 (en) Apparatus and method for enhancing user recognition
US10867164B2 (en) Methods and apparatus for real-time interactive anamorphosis projection via face detection and tracking
KR102695517B1 (ko) 동공 거리 결정 방법 및 장치
KR101769177B1 (ko) 시선 추적 장치 및 방법
US11244145B2 (en) Information processing apparatus, information processing method, and recording medium
TW201427388A (zh) 影像互動系統、手指位置的偵測方法、立體顯示系統以及立體顯示器的控制方法
US11808940B2 (en) Eye tracking system for smart glasses and method therefor
KR101701148B1 (ko) 3d 시각적 콘텐츠의 자동화된 평가를 위한 기술
KR20160109443A (ko) 시선 추적을 이용한 디스플레이 장치 및 방법
US20130176302A1 (en) Virtual space moving apparatus and method
US9594436B2 (en) Three-dimensional image display device, cursor display method therefor, and computer program
US11402646B2 (en) Display apparatus, display control method, and program
US20180292785A9 (en) Apparatus and method for displaying pseudo-hologram image based on pupil tracking
US10334233B2 (en) Portable device that controls photography mode, and control method therefor
KR101374316B1 (ko) 시스루 디스플레이를 이용한 동작인식 장치 및 그 방법
KR102224209B1 (ko) 사시각 측정 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant