KR20230085614A - 가상 디스플레이를 설정하는 가상현실장치 및 장치의 동작 방법 - Google Patents

가상 디스플레이를 설정하는 가상현실장치 및 장치의 동작 방법 Download PDF

Info

Publication number
KR20230085614A
KR20230085614A KR1020210173955A KR20210173955A KR20230085614A KR 20230085614 A KR20230085614 A KR 20230085614A KR 1020210173955 A KR1020210173955 A KR 1020210173955A KR 20210173955 A KR20210173955 A KR 20210173955A KR 20230085614 A KR20230085614 A KR 20230085614A
Authority
KR
South Korea
Prior art keywords
user
virtual reality
distance
reality device
pupil
Prior art date
Application number
KR1020210173955A
Other languages
English (en)
Inventor
김현경
이유련
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020210173955A priority Critical patent/KR20230085614A/ko
Publication of KR20230085614A publication Critical patent/KR20230085614A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Abstract

본 발명의 실시 예들은 가상현실장치의 동작방법에 대한 것으로써, 사용자의 나이에 대한 정보를 수신하는 단계, 나이에 대한 정보에 기초하여 사용자를 제 1 그룹, 제 2 그룹, 및 제 3 그룹 중 하나로 분류하는 단계, 사용자가 제 1 그룹으로 분류된 경우, 가상 현실의 디스플레이와 사용자의 거리를 제 1 거리로 설정하는 단계, 사용자가 제 2 그룹으로 분류된 경우, 가상 현실의 디스플레이와 사용자의 거리를 제 2 거리로 설정하는 단계, 및 사용자가 제 3 그룹으로 분류된 경우, 가상 현실의 디스플레이와 사용자의 거리를 제 3 거리로 설정하는 단계를 포함한다.

Description

가상 디스플레이를 설정하는 가상현실장치 및 장치의 동작 방법{VIRTUAL REALITY APPARATUS FOR SETTING UP VIRTUAL DISPLAY AND OPERATION METHOD THEREOF}
본 발명의 실시 예들은 가상 디스플레이를 설정하는 가상현실장치 및 가상현실장치의 작동 방법에 관한 것이다. 보다 구체적으로 가상현실장치는 사용자로부터 가상 디스플레이의 거리를 설정할 수 있고 또는 사용자의 동공 간의 거리 추정할 수 있다.
가상현실(Virtual Reality; VR)은 현실세계를 기초로 하여 컴퓨터 시스템을 통해 3차원 가상공간을 생성하고, 그 가상공간과 사용자간의 상호작용을 바탕으로 보다 현실감 있는 콘텐츠를 구현하는 기술이다.
이러한 VR 기술은 PC 화면에서도 구현가능하나, 콘텐츠를 사용자에게 보다 생동감있게 전달하기 위해, 사용자가 직접 두부에 착용하는 웨어러블 디바이스(Wearable Device)의 한 형태인 헤드 마운티드 디스플레이(Head Mounted Display; HMD) 또는 헤드 마운티드 디바이스(Head Mounted Device)가 제안되었다.
이러한 헤드 마운티드 디스플레이는 거치형 디스플레이 디바이스에 비하여 사용자가 신체에 직접 착용함에 따라, 이동성 및 접근성이 높다는 장점이 있다.
헤드 마운티드 디스플레이에서 재생되는 영상은 좌측 영상과 우측 영상으로 분리되어 표시되게 된다. 영상은 시청자의 좌안과 우안에 각각 대응되어 망막에 영상이 맺히게 되며, 두 영상이 시청자에 의해 하나로 중첩됨에 따라 입체영상으로 인지되게 된다.
이러한 헤드 마운티드 디스플레이에서 재생되는 영상은 대부분의 사람이 시청하는 데는 문제가 없으나, 일부의 사람에게는 영상이 하나로 완전히 중첩되는 것이 아닌, 어긋남이 발생하여 두 개로 보이는 문제가 발생할 수 있으며, 이로 인한 어지러움증을 유발하기도 한다.
전술한 문제를 개선하기 위해, 헤드 마운티드 디스플레이에서 초점(focus)을 포커스를 맞추는 방법으로는 영상이 표시되는 디스플레이 부분과 렌즈간 거리를 조정하거나, 좌안과 우안 렌즈간 거리를 조정하는 기구적 수단을 적용하는 방법 등이 있다.
등록특허공보 제10-1697286호(공고일자: 2017.01.18.) 공개특허공보 제10-2016-0121798호(공개일자: 2016.10.20.) 등록특허공보 제10-1927904호(공고일자: 2018.12.05)
본 개시의 가상현실장치의 동작 방법은, 사용자의 나이에 대한 정보를 수신하는 단계, 나이에 대한 정보에 기초하여 사용자를 제 1 그룹, 제 2 그룹, 및 제 3 그룹 중 하나로 분류하는 단계, 사용자가 제 1 그룹으로 분류된 경우, 가상 현실의 디스플레이와 사용자의 거리를 제 1 거리로 설정하는 단계, 사용자가 제 2 그룹으로 분류된 경우, 가상 현실의 디스플레이와 사용자의 거리를 제 2 거리로 설정하는 단계, 및 사용자가 제 3 그룹으로 분류된 경우, 가상 현실의 디스플레이와 사용자의 거리를 제 3 거리로 설정하는 단계를 포함하고, 제 1 거리가 제 3 거리보다 크거나 같고, 제 3 거리가 제 2 거리보다 크거나 같다.
본 개시의 가상현실장치의 동작 방법은 가상현실장치에 구비된 카메라를 이용하여 사용자의 눈동자의 영상을 획득하는 단계, 사용자의 눈동자의 영상에 기초하여 사용자의 동공의 크기를 획득하는 단계, 및 사용자의 동공의 크기에 기초하여 가상현실장치의 동공 간 거리(Inter-pupillary distance; IPD)를 결정하는 단계를 포함하고, 동공의 크기와 동공 간 거리는 정비례한다.
본 개시의 가상현실장치의 동작 방법은, 나이에 대한 정보에 기초하여 사용자를 제 4 그룹 및 제 5 그룹 중 하나로 분류하는 단계를 포함하고, 사용자가 제 4 그룹으로 분류된 경우, 가상현실장치의 동공 간 거리의 최소값은 41mm이고, 가상현실장치의 동공 간 거리의 최대값은 55mm이고, 사용자가 제 5 그룹으로 분류된 경우, 가상현실장치의 동공 간 거리의 최소값은 54mm이고, 가상현실장치의 동공 간 거리의 최대값은 68mm이다.
본 개시의 가상현실장치의 동작 방법의 가상현실장치에 구비된 카메라를 이용하여 사용자의 눈동자의 영상을 획득하는 단계는 가상현실장치가 가상 현실의 디스플레이와 사용자의 거리를 제 4 거리에서 제 5 거리로 이동시키면서 주기적으로 사용자의 눈동자의 영상을 획득하는 단계를 포함하고, 사용자의 눈동자의 영상에 기초하여 사용자의 동공의 크기를 획득하는 단계는 주기적으로 획득된 사용자의 눈동자의 영상에 기초하여 사용자의 복수의 동공의 크기를 획득하는 단계 및 복수의 동공의 크기의 평균 또는 중앙값을 동공 크기의 대표값으로 결정하는 단계를 포함하고, 사용자의 동공의 크기에 기초하여 가상현실장치의 동공 간 거리를 결정하는 단계는 동공의 크기의 대표값에 기초하여 가상현실장치의 동공 간 거리를 결정하는 단계를 포함하고, 제 4 거리는 제 5 거리보다 작다.
본 개시의 가상현실장치의 동작 방법은 가상현실장치가 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계, 가상현실장치가 사용자로부터 일측에서 보이는 제 1 오브젝트에 대한 정보를 수신하는 단계, 가상현실장치가 사용자로부터 타측에서 보이는 제 2 오브젝트에 대한 정보를 수신하는 단계, 제 1 오브젝트에 대한 정보 및 제 2 오브젝트에 대한 정보에 기초하여 사용자의 시야각을 획득하는 단계를 포함한다.
본 개시의 가상현실장치의 동작 방법은 가상현실장치가 가상 현실의 디스플레이와 사용자의 거리를 제 4 거리로 결정하는 단계, 가상현실장치가 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계, 가상현실장치가 사용자로부터 일측에서 보이는 제 1 오브젝트에 대한 정보를 수신하는 단계, 가상현실장치가 사용자로부터 타측에서 보이는 제 2 오브젝트에 대한 정보를 수신하는 단계, 제 1 오브젝트에 대한 정보 및 제 2 오브젝트에 대한 정보에 기초하여 제 4 거리에서의 사용자의 시야각을 획득하는 단계, 가상현실장치가 가상 현실의 디스플레이와 사용자의 거리를 제 5 거리로 결정하는 단계, 가상현실장치가 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계, 가상현실장치가 사용자로부터 일측에서 보이는 제 3 오브젝트에 대한 정보를 수신하는 단계, 가상현실장치가 사용자로부터 타측에서 보이는 제 4 오브젝트에 대한 정보를 수신하는 단계, 제 3 오브젝트에 대한 정보 및 제 4 오브젝트에 대한 정보에 기초하여 제 5 거리에서의 사용자의 시야각을 획득하는 단계를 포함한다.
본 개시의 가상현실장치의 동작 방법은 사용자의 시야각이 미리 정해진 임계시야각보다 작은 경우, 멀미 가능성이 높음을 나타내는 신호를 생성하는 단계를 더 포함한다.
본 개시의 가상현실장치의 동작 방법은 빈맥(tachycardia), 눈 깜빡임 속도, 호흡수, 호흡유발 동성부정맥, 심박수 중 적어도 하나를 포함하는 사용자 생체신호를 획득하는 단계 및 사용자 생체신호가 미리 정해진 임계 생체신호보다 큰 경우, 멀미 가능성이 높음을 나타내는 신호를 생성하는 단계를 포함한다.
본 개시의 가상현실장치의 동작 방법은, 멀미 가능성이 높음을 나타내는 신호를 생성한 경우, 가상 현실의 디스플레이의 명암 또는 대비 중 적어도 하나를 낮추는 단계를 포함한다.
또한, 상술한 바와 같은 가상현실장치의 동작 방법을 구현하기 위한 프로그램은 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다.
도 1는 본 개시의 일 실시예에 따른 가상현실장치를 나타낸 도면이다.
도 2는 본 개시의 일 실시예에 따른 가상현실장치의 동작을 나타낸 흐름도이다.
도 3은 본 개시의 일 실시예에 따라 가상 현실에서 디스플레이와 사용자의 거리를 나타낸 도면이다.
도 4는 본 개시의 일 실시예에 따른 가상현실장치의 동작을 나타낸 흐름도이다.
도 5는 본 개시의 일 실시예에 따라 가상현실장치에 포함되어 있는 디스플레이를 나타낸다.
도 6은 본 개시의 일 실시예에 따른 가상현실장치를 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시예에 따른 가상현실장치의 동작을 설명하기 위한 흐름도이다.
도 8은 본 개시의 일 실시예에 따른 가상현실장치의 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시예에 따른 가상현실장치의 동작을 설명하기 위한 도면이다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면 "부"는 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서"는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서"는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA) 등을 지칭할 수도 있다. 용어 "프로세서"는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.
용어 "메모리"는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 용어 메모리는 임의 액세스 메모리 (RAM), 판독-전용 메모리 (ROM), 비-휘발성 임의 액세스 메모리 (NVRAM), 프로그램가능 판독-전용 메모리 (PROM), 소거-프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능 PROM (EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1는 본 개시의 일 실시예에 따른 가상현실장치를 나타낸 도면이다.
가상현실장치(100)는 헤드 마운티드 디스플레이(Head Mounted Display; HMD) 또는 헤드 마운티드 디바이스(Head Mounted Device)일 수 있다. 가상현실장치(100)는 프로세서(110) 및 메모리(120)를 포함할 수 있다. 프로세서(110)는 메모리(120)에 저장되어 있는 명령어에 기초하여 동작을 수행할 수 있다. 하지만 이에 한정되는 것은 아니며, 프로세서(110)는 입력 신호에 기초하여 미리 설정된 신호를 미리 설정된 시간동안 출력 라인으로 출력하도록 설정되어 있을 수 있다.
이하, 가상현실장치(100)의 동작에 대하여 보다 자세히 설명한다.
도 2는 본 개시의 일 실시예에 따른 가상현실장치의 동작을 나타낸 흐름도이다.
가상현실장치(100)는 사용자의 나이에 대한 정보를 수신하는 단계(210)를 수행할 수 있다. 가상현실장치(100)는 입력부를 포함하고, 사용자로부터 직접 나이에 대한 정보를 수신할 수 있다. 또한 가상현실장치(100)는 통신부를 포함하고, 외부의 장치로부터 사용자의 나이에 대한 정보를 수신할 수 있다.
가상현실장치(100)는 나이에 대한 정보에 기초하여 사용자를 제 1 그룹, 제 2 그룹, 및 제 3 그룹 중 하나로 분류하는 단계(215)를 수행할 수 있다. 제 1 그룹, 제 2 그룹, 및 제 3 그룹은 서로 다른 나이의 범위일 수 있다. 제 1 그룹, 제 2 그룹, 및 제 3 그룹은 가상현실장치(100)의 사용과 관련된 유의미한 차이가 있는 나이의 범위대를 의미할 수 있다. 제 1 그룹, 제 2 그룹, 및 제 3 그룹 사이에 가상현실장치(100)의 사용성과 관련된 유의미한 차이가 있음은 실험적으로 밝혀졌다.
가상현실장치(100)는 사용자가 제 1 그룹으로 분류된 경우, 가상 현실에서 디스플레이와 사용자의 거리를 제 1 거리로 설정하는 단계(220)를 수행할 수 있다. 또한 가상현실장치(100)는 사용자가 제 2 그룹으로 분류된 경우, 가상 현실에서 디스플레이와 사용자의 거리를 제 2 거리로 설정하는 단계(225)를 수행할 수 있다. 또한 가상현실장치(100)는 사용자가 제 3 그룹으로 분류된 경우, 가상 현실에서 디스플레이와 사용자의 거리를 제 3 거리로 설정하는 단계(230)를 수행할 수 있다. 가상 현실에서 디스플레이와 사용자의 거리는 도 3에 나타난다.
도 3은 본 개시의 일 실시예에 따라 가상 현실에서 디스플레이와 사용자의 거리를 나타낸 도면이다.
예를 들어, 제 1 그룹은 만0세이상 만29세이하의 그룹일 수 있다. 제 2 그룹은 만30이상 만39세이하의 그룹일 수 있다. 제 3 그룹은 만40세 이상의 그룹일 수 있다. 제 1 거리는 제 1 그룹에 설정된 거리이고, 제 2 거리는 제 2 그룹에 설정된 거리이고, 제 3 거리는 제 3 그룹에 설정된 거리일 수 있다.
실험적으로, 근거리에서 나이에 따라 가상 현실을 더 크게 보는 경향이 있었다. 특히 20 대가 조금 더 가상현실의 물체를 더 크게 보는 경향이 있고, 30 대와 40 대는 가상현실 물체를 더 작게 느끼는 것으로 나타났다. 또한, 다른 연령보다 30 대는 가상현실의 물체를 실제 물체보다 가장 작게 느끼는 것으로 분석되었다. 따라서 가상현실장치(100)는 사용자(312)가 20대인 경우, 가상 현실의 디스플레이(310)를 멀리둘 수 있다. 즉 사용자(312)와 가상 현실의 디스플레이(310)의 거리는 제 1 거리(311)일 수 있다. 또한 가상현실장치(100)는 사용자(322)가 30대인 경우, 가상 현실의 디스플레이(320)를 가까이 둘 수 있다. 즉 사용자(322)와 가상 현실의 디스플레이(320)의 거리는 제 2 거리(321)일 수 있다. 이와 같이 본 개시에 따른 가상현실장치(100)는 모든 연령대에게 동일한 사용자 경험을 제공할 수 있다.
제 1 거리가 제 3 거리보다 크거나 같고, 제 3 거리가 제 2 거리보다 크거나 같을 수 있다. 예를 들어 제 3 거리가 45cm이상 55cm 미만일 수 있다. 또한 제 1 거리가 55cm이상 66cm미만일 수 있다. 또한 제 2 거리는 35cm이상 45cm미만일 수 있다.
가상 현실에서 사용자와 디스플레이 사이의 거리는 사용자가 헤드 마운티드 디바이스를 쓰고 있을 때, 표시되는 디스플레이와 사용자의 거리를 의미할 수 있다. 사용자가 헤드 마운티드 디바이스를 쓰고 있을 때, 사용자는 가상의 공간을 볼 수 있으며, 가상의 공간에는 사용자와 물체 간의 가상의 거리가 있을 수 있다. 사용자가 가상현실장치(100)를 착용하고 있는 경우, 사용자는 가상의 공간의 물체를 실체처럼 볼 수 있고, 사용자와 물체의 가상의 거리도 실제의 거리만큼 떨어진 것으로 느껴질 수 있다. 제 1 거리 내지 제 3 거리는 가상의 공간에서의 거리를 의미할 수 있다.
또한 가상현실장치(100)는 입력부를 포함할 수 있다. 위에서 설명한 바와 같이 가상현실장치(100)는 사용자와 가상 현실의 디스플레이의 거리를 나이에 따라 다른 기본 거리로 설정할 수 있다. 가상현실장치(100)는 사용자로부터 입력부를 통하여 사용자와 가상 현실의 디스플레이의 거리를 조절하기 위한 입력 신호를 수신할 수 있다. 가상현실장치(100)는 사용자로부터의 입력 신호에 기초하여 가상 현실에서의 사용자와 디스플레이의 거리를 조절할 수 있다. 가상현실장치(100)는 사용자의 입력 신호에 기초하여 단위 거리만큼씩 가상 현실에서의 사용자와 디스플레이의 거리를 조절할 수 있다. 즉 가상현실장치(100)는 가상 현실에서의 사용자와 디스플레이의 거리를 사용자의 입력 신호에 기초하여 멀리하거나 가깝게 할 수 있다. 단위 거리는 사용자의 나이에 따라 결정될 수 있다. 예를 들어 단위 거리는 사용자의 나이에 정비례할 수 있다. 왜냐하면 실험적으로 사용자의 나이가 높아질수록 가상 현실에서의 사용자와 디스플레이의 거리의 변화에 둔감해지기 때문이다.
도 4는 본 개시의 일 실시예에 따른 가상현실장치의 동작을 나타낸 흐름도이다.
가상현실장치(100)는 가상현실장치에 구비된 카메라를 이용하여 사용자의 눈동자의 영상을 획득하는 단계(410)를 수행할 수 있다. 가상현실장치(100)에 구비된 카메라는 내측에 형성되어 있을 수 있다. 즉, 사용자가 가상현실장치(100)를 착용한 경우, 카메라는 사용자의 눈동자를 촬영할 수 있다. 카메라는 광각카메라일 수 있다. 가상현실장치(100)는 2개의 카메라를 포함할 수 있다. 2개의 카메라 각각은 사용자의 좌측 눈동자 및 우측 눈동자를 각각 촬영할 수 있다.
가상현실장치(100)는 사용자의 눈동자의 영상을 획득할 때, 가상현실장치(100)에 포함된 디스플레이의 화소 중 적어도 하나를 켤 수 있다. 가상현실장치(100)에 포함된 디스플레이는 물리적인 디스플레이로써, 빛 또는 색을 내는 적어도 하나의 화소를 포함할 수 있다. 사용자가 가상현실장치(100)를 착용하고 있는 경우, 사용자의 눈의 부위는 가상현실장치(100)에 의하여 가려져서 어두우므로 카메라가 사용자의 눈동자를 촬영하기 어려울 수 있다. 따라서 가상현실장치(100)는 가상현실장치(100)에 포함된 디스플레이의 화소 중 적어도 하나를 켜서 사용자의 눈과 가상현실장치(100) 사이의 공간을 밝힐 수 있다. 따라서 카메라는 사용자의 눈동자를 촬영할 수 있다. 가상현실장치(100)는 사용자의 눈동자의 영상을 획득할 때, 사용자의 눈동자와 가상현실장치(100)의 내부가 이루는 공간의 밝기를 1lux이하로 유지할 수 있다.
사용자의 눈동자의 영상을 획득할 때, 가상현실장치(100)는 가상현실장치(100)의 디스플레이 중 하나의 색상의 화소만 켤 수 있다. 가상현실장치(100)의 디스플레이의 하나의 화소는 빨강, 초록 및 파랑 화소를 포함할 수 있다. 가상현실장치(100)의 디스플레이는 빨강, 초록 및 파랑 화소 중 하나만을 밝힐 수 있다. 사용자의 눈동자와 가상현실장치(100)의 내부가 이루는 공간은 하나의 색으로 채워질 수 있다. 또한 카메라는 특정 색에 민감한 카메라일 수 있다. 예를 들어 가상현실장치(100)의 디스플레이는 초록색 화소만을 밝힐 수 있다. 또한 카메라는 초록색에 특화된 카메라일 수 있다. 카메라는 사용자의 눈동자에 대한 영상을 획득할 수 있다. 이를 통하여 저렴한 카메라로도 구현이 가능한 효과가 있으며, 사용자의 눈의 피로도를 줄일 수도 있으며, 가상현실장치(100)의 동공의 크기 측정을 정확하게 할 수 있다.
또한 가상현실장치(100)는 빨강색 화소만을 밝힌 후 촬영하고, 파랑색 화소만을 밝힌 후 촬영하고, 녹색 화소만을 밝힌 후 촬영하여 3개의 사용자의 눈동자의 영상을 획득할 수 있다. 3개의 영상에 기초하여 다음의 과정을 수행하는 경우, 동공의 크기를 보다 정확하게 측정할 수 있다.
가상현실장치(100)는 사용자의 눈동자를 촬영할 때, 사용자가 특정 지점을 볼 것을 나타내는 메시지를 출력할 수 있다. 따라서 사용자의 눈동자가 카메라에 의해 촬영되도록 유도할 수 있다. 예를 들어 가상현실장치(100)의 화소를 밝힐 때, 가상현실장치(100)는 동그라미를 표시할 수 있다. 예를 들어, 가상현실장치(100)는 빨강색, 초록색, 파랑색 중 하나의 색의 동그라미를 표시할 수 있다. 사용자는 자연스럽게 그 동그라미를 볼 수 있다. 가상현실장치(100)의 디스플레이는 두 개의 동그라미를 표시하여 각각의 눈이 하나의 동그라미를 보도록 유도할 수 있다. 이에 따라 카메라는 사용자의 눈동자를 정확하게 촬영할 수 있다.
가상현실장치(100)는 사용자의 눈동자의 영상에 기초하여 사용자의 동공의 크기를 획득하는 단계(415)를 수행할 수 있다. 사용자가 가상현실장치(100)를 착용한 경우, 사용자의 눈동자와 가상현실장치(100)의 카메라의 거리는 거의 일정할 수 있다. 가상현실장치(100)에 포함된 카메라는 가상현실장치(100)에 고정되어 있으며, 사용자의 눈과 특정한 거리를 가지도록 설계되어 있을 수 있다. 가상현실장치(100)에 포함된 카메라는 가상현실장치(100)의 케이스, 또는 보호패드 등에 의하여 사용자의 눈과 특정한 거리를 가지도록 설계되어 있을 수 있다.
가상현실장치(100)는 다양한 알고리즘을 이용하여 눈동자의 영상에 기초하여 사용자의 동공의 크기를 측정할 수 있다. 이미 소개되어 있는 알고리즘은 생략한다.
가상현실장치(100)는 사용자의 눈동자의 영상을 흑백으로 변환할 수 있다. 또는 카메라는 사용자의 눈동자를 흑백으로 촬영할 수 있다. 가상현실장치(100)는 흑백인 사용자의 눈동자 영상에 윤곽선을 추출할 수 있다. 예를 들어 가상현실장치(100)는 Sobel, Prewitt, Roberts, compass, Laplacian, Log, Canny 및 라인 에지 추출 방법 중 하나를 이용할 수 있다.
가상현실장치(100)는 영상처리를 이용하여 상대적으로 어둡고 동그란 눈동자의 윤곽선을 추출할 수 있다. 가상현실장치(100)는 눈동자의 윤곽선 중 가로로 가장 멀리 떨어져 있는 0이 아닌 두 픽셀들의 거리를 획득할 수 있다. 0이 아닌 픽셀은 눈동자의 윤곽선 상에 있는 픽셀이며, 0인 픽셀은 눈동자의 윤곽선 상에 있지 않는 픽셀일 수 있다. 여기서 가로는 사용자를 기준으로 좌우 방향일 수 있다. 가장 멀리 떨어져 있는 0이 아닌 두 픽셀들의 거리는 동공의 크기에 대응될 수 있다.
두 픽셀들의 거리는 픽셀의 수로 표현될 수 있다. 또한 가상현실장치(100)는 픽셀의 수에 기초하여 실제 눈동자의 직경을 획득할 수 있다. 가상현실장치(100)는 픽셀의 수와 직경을 대응시킨 미리 정해진 테이블에 기초하여 픽셀의 수에 대응하는 직경을 획득할 수 있다. 직경의 단위는 mm, 또는 cm일 수 있다. 실제 눈동자의 직경은 동공의 크기에 대응될 수 있다.
가상현실장치(100)는 좌측 눈의 동공의 크기 및 우측 눈의 동공의 크기 중 적어도 하나를 획득할 수 있다. 만약 가상현실장치(100)가 하나의 눈의 동공의 크기만을 측정했다면, 하나의 눈의 동공의 크기를 최종 동공의 크기로 결정하여 아래의 과정을 수행할 수 있다. 만약 가상현실장치(100)가 두 눈의 동공의 크기들을 측정했다면, 가상현실장치(100)는 두 눈의 동공의 크기들을 평균하여 최종 동공의 크기로 결정하고, 동공 간의 거리를 결정하는 단계를 수행할 수 있다.
또한, 만약 가상현실장치(100)가 초록색, 파랑색, 및 빨강색의 화소를 개별적으로 밝힌 후 사용자의 눈동자를 촬영했다면, 3개의 색으로 촬영된 3개의 눈동자의 영상이 획득될 수 있다. 가상현실장치(100)는 3개의 영상에 대하여 각각 사용자의 동공의 크기를 획득할 수 있다. 또한 가상현실장치(100)는 3개의 영상에 기초한 사용자의 동공의 크기를 평균하여 최종 동공의 크기로 결정하고, 동공 간의 거리를 결정하는 단계를 수행할 수 있다.
가상현실장치(100)는 사용자의 동공의 크기에 기초하여 가상현실장치의 동공 간 거리(Inter-pupillary distance; IPD)를 결정하는 단계(420)를 수행할 수 있다. 가상현실장치(100)는 미리 정해진 함수에 기초하여 동공 간 거리를 결정할 수 있다. 동공간 거리는 좌측 눈동자의 중심으로부터 우측 눈동자의 중심까지의 거리일 수 있다. 예를 들어 미리 정해진 함수는 y= a * x + b일 수 있다. y는 동공 간의 거리이고, a는 미리 정해진 양의 실수이며, x는 사용자의 최종 동공의 크기이며, b는 미리 정해진 실수일 수 있다. 동공 간의 거리는 동공의 크기와 정비례할 수 있다.
가상현실장치(100)는 동공 간의 거리에 기초하여 가상현실장치(100)에 포함되어 있는 두 개의 디스플레이의 사이의 거리를 조정할 수 있다. 헤드 마운티드 디스플레이는 다양한 디스플레이 사이의 거리를 변경하기 위한 방법을 이용하며, 이에 대한 일부 실시예를 도 5와 함께 설명한다.
도 5는 본 개시의 일 실시예에 따라 가상현실장치에 포함되어 있는 디스플레이를 나타낸다.
도 5의 (a)를 참조하면 두 개의 디스플레이(511, 512)는 각각 사용자의 좌측 눈 및 우측 눈에 대응될 수 있다. 가상현실장치(100)는 디스플레이 사이의 거리와 사용자의 동공 간의 거리를 대응시킨 미리 정해진 테이블에 기초하여 두 개의 디스플레이의 사이의 거리를 결정할 수 있다. 가상현실장치(100)는 테이블에서 동공 간의 거리에 대응되는 두 개의 디스플레이 사이의 거리를 획득할 수 있다. 두 개의 디스플레이(511, 512)의 사이의 거리(513)는 기계적인 움직임에 의하여 조절될 수 있다. 즉 두 개의 디스플레이(511, 512)는 구동부에 의하여 레일을 따라 이동할 수 있다. 디스플레이 사이의 거리와 사용자의 동공 간의 거리는 정비례할 수 있다.
또는 가상현실장치(100)의 한 개 또는 두 개의 디스플레이의 사이의 거리는 소프트웨어적으로 구현될 수 있다. 예를 들어 도 5의 (b)를 참조하면, 가상현실장치(100)는 두 개의 디스플레이(521, 522)를 포함할 수 있다. 가상현실장치(100)는 영상이 표시될 영역의 위치와 사용자의 동공 간의 거리를 대응시킨 미리 정해진 테이블에 기초하여 영상이 표시될 영역의 위치를 결정할 수 있다. 가상현실장치(100)는 사용자의 동공 간의 거리에 기초하여 두 개의 디스플레이(521, 522) 중 영상이 표시되는 영역(531, 532)의 위치를 다르게 결정할 수 있다. 예를 들어 좌측 디스플레이(521)의 영상이 표시되는 영역(531)의 위치는 좌측 디스플레이(521)의 우측변부터 떨어진 거리(533)로 표현될 수 있다. 또한 우측 디스플레이(522)의 영상이 표시되는 영역(532)의 위치는 우측 디스플레이(522)의 좌측변부터 떨어진 거리(534)로 표현될 수 있다. 영상이 표시되는 영역(531, 532)의 사이의 거리와 사용자의 동공 간의 거리는 정비례할 수 있다.
도 5의 (c)를 참조하면, 가상현실장치(100)는 한 개의 디스플레이(530)를 포함할 수 있다. 가상현실장치(100)는 영상이 표시될 영역의 위치와 사용자의 동공 간의 거리를 대응시킨 미리 정해진 테이블에 기초하여 영상이 표시될 영역의 위치를 결정할 수 있다. 가상현실장치(100)는 사용자의 동공 간의 거리에 기초하여 하나의 디스플레이(530) 중 영상이 표시되는 영역(541, 542)의 위치를 다르게 결정할 수 있다. 디스플레이(530)의 좌측 영상이 표시되는 영역(541)의 위치는 디스플레이(530)의 중심(543)부터 떨어진 거리(544)로 표현될 수 있다. 디스플레이(530)의 우측 영상이 표시되는 영역(542)의 위치는 디스플레이(530)의 중심(543)부터 떨어진 거리(545)로 표현될 수 있다. 영상이 표시되는 영역(541, 542)의 사이의 거리와 사용자의 동공 간의 거리는 정비례할 수 있다.
단계(420)는 다음과 같은 과정을 더 포함할 수 있다. 가상현실장치(100)는 나이에 대한 정보에 기초하여 사용자를 제 4 그룹 및 제 5 그룹 중 하나로 분류하는 단계를 더 수행할 수 있다. 예를 들어 제 4 그룹은 만18세 미만일 수 있다. 또한 제 5 그룹은 만18세 이상일 수 있다.
가상현실장치(100)는 사용자가 제 4 그룹으로 분류된 경우, 가상현실장치의 동공 간 거리의 최소값을 41mm로 결정하고, 가상현실장치의 동공 간 거리의 최대값을 55mm으로 결정할 수 있다. 즉, 가상현실장치(100)는 단계(420)에서 결정된 동공 간 거리를 41mm이상 55mm이하로 클리핑(clipping)할 수 있다. 즉, 가상현실장치(100)는 동공 간의 거리가 41mm 미만으로 결정된 경우, 동공 간의 거리를 41mm로 수정할 수 있다. 또한, 가상현실장치(100)는 동공 간의 거리가 55mm 초과로 결정된 경우, 동공 간의 거리를 55mm로 수정할 수 있다.
또한, 가상현실장치(100)는 사용자가 제 5 그룹으로 분류된 경우, 가상현실장치(100)의 동공 간 거리의 최소값을 54mm으로 결정하고, 가상현실장치의 동공 간 거리의 최대값을 68mm로 결정할 수 있다. 즉, 가상현실장치(100)는 단계(420)에서 결정된 동공 간 거리를 54mm이상 68mm이하로 클리핑(clipping)할 수 있다. 즉, 가상현실장치(100)는 동공 간의 거리가 54mm 미만으로 결정된 경우, 동공 간의 거리를 54mm로 수정할 수 있다. 또한, 가상현실장치(100)는 동공 간의 거리가 68mm 초과로 결정된 경우, 동공 간의 거리를 68mm로 수정할 수 있다. 이미 설명한 바와 같이 동공 간의 거리를 획득하기 위하여 y= a * x + b와 같은 식을 사용할 수 있다. 하지만 이러한 식은 사용자의 동공 간의 거리를 지나치게 작게 예측하거나, 지나치게 크게 예측하는 경우가 있다. 따라서 본 개시에 따른 가상현실장치(100)는 클리핑 방법을 이용하여 동공 간의 거리가 지나치게 작게 예측되거나, 지나치게 크게 예측되는 경우를 방지할 수 있다. 또한 사용자에게 맞는 디스플레이들 사이의 거리 또는 영상 표시 영역 사이의 거리를 제공할 수 있고, 사용자는 가상현실장치(100)를 편리하게 이용할 수 있다.
이하에서는 본 개시의 가상현실장치(100)의 동작을 보다 자세히 설명한다.
도 6은 본 개시의 일 실시예에 따른 가상현실장치를 설명하기 위한 도면이다.
가상현실장치(100)가 가상현실장치에 구비된 카메라를 이용하여 사용자의 눈동자의 영상을 획득하는 단계(410)를 수행할 때, 가상현실장치(100)는 가상 현실의 디스플레이와 사용자의 거리를 제 4 거리에서 제 5 거리로 이동시키면서 주기적으로 사용자의 눈동자의 영상을 획득하는 단계를 포함할 수 있다. 주기는 미리 정해진 주기일 수 있다. 제 4 거리는 제 5 거리보다 작을 수 있다. 예를 들어 제 4 거리는 가상 현실의 디스플레이(611)가 사용자와 가깝게 위치한 경우일 수 있다. 또한 제 5 거리는 가상 현실의 디스플레이(612)가 사용자와 멀게 위치한 경우일 수 있다. 제 4 거리와 제 5 거리의 중간은 도 2의 단계(220) 내지 단계(230)에서 설정된 가상 현실에서 디스플레이와 사용자의 거리와 동일할 수 있다. 즉, 제 4 거리와 제 5 거리의 중간은 디스플레이와 사용자의 거리의 초기값일 수 있다.
가상현실장치(100)는 사용자의 나이에 따라 서로 다른 제 4 거리 및 제 5 거리를 설정할 수 있다. 예를 들어 도 6을 참조하면 사용자(610)의 나이가 제 1 그룹에 속하는 경우, 제 4 거리는 가상 현실에서의 디스플레이(611)와 사용자의 거리이며, 제 5 거리는 가상 현실에서의 디스플레이(612)와 사용자의 거리일 수 있다. 제 4 거리와 제 5 거리의 중간은 도 2의 단계(220)에서 설정된 가상 현실에서 디스플레이와 사용자의 제 1 거리와 동일할 수 있다.
사용자(620)의 나이가 제 2 그룹에 속하는 경우, 제 4 거리는 가상 현실에서의 디스플레이(621)와 사용자의 거리이며, 제 5 거리는 가상 현실에서의 디스플레이(622)와 사용자의 거리일 수 있다. 제 4 거리와 제 5 거리의 중간은 도 2의 단계(225)에서 설정된 가상 현실에서 디스플레이와 사용자의 제 2 거리와 동일할 수 있다.
제 2 그룹에 속한 사용자의 제 4 거리는 제 1 그룹에 속한 사용자의 제 4 거리보다 작을 수 있다. 또한 제 2 그룹에 속한 사용자의 제 5 거리는 제 1 그룹에 속한 사용자의 제 5 거리보다 작을 수 있다.
가상현실장치(100)가 사용자의 눈동자의 영상에 기초하여 사용자의 동공의 크기를 획득하는 단계(415)를 수행할 때, 가상현실장치(100)는 주기적으로 획득된 사용자의 눈동자의 영상에 기초하여 사용자의 복수의 동공의 크기를 획득하는 단계를 더 수행할 수 있다. 일반적으로 가상 현실의 디스플레이(611, 612)가 멀어질수록 동공의 크기는 커질 수 있다. 사용자의 동공의 크기는 가상 현실의 디스플레이(611, 612)와 사용자의 거리에 기초하여 달라질 수 있다. 동공의 크기를 획득하는 과정에 대해서는 위에서 이미 설명하였으므로 중복되는 설명은 생략한다. 또한 가상현실장치(100)는 복수의 동공의 크기의 평균 또는 중앙값을 동공 크기의 대표값으로 결정하는 단계를 수행할 수 있다.
가상현실장치(100)가 사용자의 동공의 크기에 기초하여 가상현실장치의 동공 간 거리를 결정하는 단계(420)를 수행할 때, 가상현실장치(100)는 동공의 크기의 대표값에 기초하여 가상현실장치의 동공 간 거리를 결정하는 단계를 수행할 수 있다. 사용자의 동공의 크기는 변화할 수 있으므로, 하나의 동공의 크기를 획득하는 것보다 복수의 크기의 동공의 크기를 획득하는 경우, 가상현실장치(100)가 최종적으로 획득하는 동공 간 거리의 정확도가 높아질 수 있다. 가상현실장치(100)가 대표값에 기초하여 디스플레이들 사이의 거리를 조절하거나, 디스플레이에 영상이 표시되는 영역을 수정하는 과정은 도 5에서 설명하였으므로 중복되는 설명은 생략한다.
도 7은 본 개시의 일 실시예에 따른 가상현실장치의 동작을 설명하기 위한 흐름도이다. 도 8은 본 개시의 일 실시예에 따른 가상현실장치의 동작을 설명하기 위한 도면이다.
가상현실장치(100)는 사용자의 시야각을 측정할 수 있다. 가상현실장치(100)는 측정된 시야각을 저장하고, 추후 사용자에게 가상 현실의 디스플레이를 제공할 때 이용할 수 있다. 예를 들어 가상현실장치(100)는 사용자의 시야각에 기초하여 가상 현실의 디스플레이의 가로폭을 결정할 수 있다. 따라서 가상현실장치(100)는 필요한 부분에만 영상을 표시하여 사용자의 만족도를 높이면서도, 처리 능력의 소모를 줄일 수 있다. 가상현실장치(100)는 다양한 방법을 이용하여 시야각을 측정할 수 있으며, 이하에서는 그 일 실시예를 설명한다.
도 6 내지 도 8을 참조하면, 가상현실장치(100)는 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계(710)를 수행할 수 있다. 일측은 사용자의 좌측이고 타측은 사용자의 우측일 수 있다. 또한 일측은 사용자의 우측이고 타측은 사용자의 좌측일 수 있다.
가상현실장치(100)는 사용자에게 사용자의 고개를 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력할 수 있다. 가상현실장치(100)는 센서를 이용하여 사용자가 고개를 돌린 각도를 측정할 수 있다. 가상현실장치(100)는 사용자가 고개를 돌린 만큼, 가상현실장치(100)의 디스플레이의 영상을 변화시킬 수 있다.
가상현실장치(100)는 사용자가 눈 또는 고개를 일측으로 돌렸을 때, 보이는 오브젝트를 입력해달라고 요청할 수 있다. 가상현실장치(100)는 사용자로부터 일측에서 보이는 제 1 오브젝트에 대한 정보를 수신하는 단계(715)를 수행할 수 있다. 오브젝트는 가상현실장치(100)가 가상 현실에서 사용자의 주변에 표시하는 문자, 숫자, 도형 등일 수 있다. 가상현실장치(100)는 오브젝트를 사용자를 중심으로 180도 내지 360도 만큼 표시할 수 있다. 도 8을 참조하면, 본 개시의 일 실시예에 따라 A 내지 Q가 사용자의 주변에 오브젝트들로써 표시될 수 있다. 예를 들어, 사용자는 일측에서 보이는 "B"를 입력할 수 있다. 가상현실장치(100)는 사용자로부터 "B"를 수신할 수 있다.
가상현실장치(100)는 사용자가 눈 또는 고개를 타측으로 돌렸을 때, 보이는 오브젝트를 입력해달라고 요청할 수 있다. 가상현실장치(100)는 사용자로부터 타측에서 보이는 제 2 오브젝트에 대한 정보를 수신하는 단계(720)를 수행할 수 있다. 예를 들어, 사용자는 타측에서 보이는 "G"를 입력할 수 있다. 가상현실장치(100)는 사용자로부터 "G"를 수신할 수 있다.
제 1 오브젝트에 대한 정보 및 제 2 오브젝트에 대한 정보에 기초하여 사용자의 시야각(810)을 획득하는 단계(725)를 수행할 수 있다. 오브젝트들 간의 각도는 미리 정해져 있을 수 있다. 예를 들어, 가상현실장치(100)가 사용자로부터 "B"와 "G"를 입력받은 경우, 이에 대응되는 각도를 시야각(810)으로 결정할 수 있다. 가상현실장치(100)는 시야각(810)에 소정의 각도를 더하여 가상 현실의 디스플레이의 폭을 결정할 수 있다. 따라서 사용자는 고개를 지나치게 돌리거나 눈을 지나치게 돌리지 않고도 디스플레이에 표시되는 영상을 관람할 수 있다.
도 9는 본 개시의 일 실시예에 따른 가상현실장치의 동작을 설명하기 위한 도면이다.
가상현실장치(100)는 가상 현실의 디스플레이와 사용자의 거리에 따른 시야각을 측정할 수 있다. 가상 현실의 디스플레이와 사용자의 거리에 따라 사용자의 시야각이 달라지는 경우가 있다. 가상현실장치(100)는 가상 현실의 디스플레이와 사용자의 거리에 따라 시야각을 측정함으로써, 사용자의 만족감을 더욱 높일 수 있다.
가상현실장치(100)는 가상 현실의 디스플레이와 사용자의 거리를 제 4 거리로 결정하는 단계를 수행할 수 있다. 가상현실장치(100)는 가상 현실에서 사용자로부터 제 4 거리만큼 떨어지며 지면에 평행한 원(920)에 오브젝트들을 배치할 수 있다. 오브젝트는 가상현실장치(100)가 가상 현실에서 사용자의 주변에 표시하는 문자, 숫자, 도형 등일 수 있다.
가상현실장치(100)는 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계를 수행할 수 있다. 가상현실장치(100)는 사용자로부터 일측에서 보이는 제 1 오브젝트에 대한 정보를 수신하는 단계를 수행할 수 있다. 예를 들어 가상현실장치(100)가 사용자로부터 수신한 제 1 오브젝트는 "B"일 수 있다. 또한 가상현실장치(100)는 사용자로부터 타측에서 보이는 제 2 오브젝트에 대한 정보를 수신하는 단계를 수행할 수 있다. 예를 들어 가상현실장치(100)가 사용자로부터 수신한 제 2 오브젝트는 "G"일 수 있다. 가상현실장치(100)는 제 1 오브젝트에 대한 정보 및 제 2 오브젝트에 대한 정보에 기초하여 제 4 거리에서의 사용자의 시야각(810)을 획득하는 단계를 수행할 수 있다.
가상현실장치(100)는 가상 현실의 디스플레이와 사용자의 거리를 제 5 거리로 결정하는 단계를 수행할 수 있다. 가상현실장치(100)는 가상 현실에서 사용자로부터 제 5 거리만큼 떨어지며 지면에 평행한 원(930)에 오브젝트들을 배치할 수 있다. 오브젝트는 가상현실장치(100)가 가상 현실에서 사용자의 주변에 표시하는 문자, 숫자, 도형 등일 수 있다. 제 4 거리는 제 5 거리보다 짧을 수 있다.
가상현실장치(100)는 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계를 수행할 수 있다. 가상현실장치(100)는 사용자로부터 일측에서 보이는 제 3 오브젝트에 대한 정보를 수신하는 단계를 수행할 수 있다. 예를 들어 가상현실장치(100)가 사용자로부터 수신한 제 3 오브젝트는 "A1"일 수 있다. 가상현실장치(100)는 사용자로부터 타측에서 보이는 제 4 오브젝트에 대한 정보를 수신하는 단계를 수행할 수 있다. 예를 들어 가상현실장치(100)가 사용자로부터 수신한 제 4 오브젝트는 "H1"일 수 있다. 제 3 오브젝트에 대한 정보 및 제 4 오브젝트에 대한 정보에 기초하여 제 5 거리에서의 사용자의 시야각(910)을 획득하는 단계를 수행할 수 있다.
가상현실장치(100)는 거리에 따른 시야각(810, 910)을 측정하여 저장할 수 있다. 또한 가상현실장치(100)는 가상 현실의 디스플레이의 사용자로부터의 거리에 따라 가상 현실의 디스플레이의 가로폭을 변경할 수 있다. 가상 현실 디스플레이의 가로폭은 시야각(810, 910)에 기초하여 결정될 수 있다. 예를 들어, 가상 현실의 디스플레이가 곡면인 경우, 가로 폭은 다음과 같은 식에 의하여 결정될 수 있다.
W= 시야각 * L + a
여기서 W는 가상 현실의 디스플레이의 가로 폭일 수 있다. 또한 시야각은 위에서 구한 시야각(810, 910)의 라디안 값일 수 있다. L은 가상 현실의 디스플레이와 사용자 간의 거리일 수 있다. a는 미리 정해진 실수로써, 사용자의 측정된 시야각보다 넓거나 좁은 가상 현실의 디스플레이의 가로 폭을 제공하기 위한 값일 수 있다. a는 k1* 시야각 * L와 같이 주어질 수 있다. 여기서 k1는 0.05 이상 1이하의 실수일 수 있다. W는 2 * pi * L 이하로 제한될 수 있다.
또한, 가상 현실의 디스플레이가 평면인 경우, 가로 폭은 다음과 같은 식에 의하여 결정될 수 있다.
W= 2 * tan(시야각/2) * L + a
여기서 W는 가상 현실의 디스플레이의 가로 폭일 수 있다. 또한 시야각은 위에서 구한 시야각(810, 910)의 라디안 값일 수 있다. L은 가상 현실의 디스플레이와 사용자 간의 거리일 수 있다. a는 미리 정해진 실수로써, 사용자의 측정된 시야각보다 넓거나 좁은 가상 현실의 디스플레이의 가로 폭을 제공하기 위한 값일 수 있다. a는 k2* 시야각 * L와 같이 주어질 수 있다. 여기서 k2는 0.1 이상 2이하의 실수일 수 있다.
이와 같이 가상현실장치(100)는 가상 현실의 디스플레이와 사용자 간의 거리에 따라 시야각(810, 910)을 결정하고 시야각에 따라 가상 현실의 디스플레이의 가로 폭을 결정할 수 있다. 따라서 가상현실장치(100)는 필요한 부분에만 디스플레이를 효과적으로 할 수 있으며, 사용자는 눈을 지나치게 움직이지 않아도 되고, 고개를 지나치게 돌릴 필요도 없이 편안하게 가상 현실의 디스플레이의 영상을 시청할 수 있다.
가상현실장치(100)는 사용자의 시야각(810, 910)이 미리 정해진 임계시야각보다 작은지 여부를 결정할 수 있다. 가상현실장치(100)는 사용자의 시야각(810, 910)이 미리 정해진 임계시야각보다 작은 경우, 멀미 가능성이 높음을 나타내는 신호를 생성하는 단계를 수행할 수 있다. 가상현실장치(100)는 사용자에게 멀미의 가능성이 있음을 나타내는 메시지를 표시할 수 있다. 또한, 멀미 가능성이 높음을 나타내는 신호를 생성한 경우, 가상현실장치(100)는 가상 현실의 디스플레이의 명암 또는 대비 중 적어도 하나를 기본값보다 낮추는 단계를 수행할 수 있다. 여기서 기본값은 가상 현실의 디스플레이의 명암 또는 대비의 기본값으로써, 초기값 또는 공장설정값일 수 있다.
또한, 가상현실장치(100)는 빈맥(tachycardia), 눈 깜빡임 속도, 호흡수, 호흡유발 동성부정맥, 및 심박수 중 적어도 하나를 포함하는 사용자 생체신호를 획득하는 단계를 수행할 수 있다. 가상현실장치(100)는 적어도 하나의 센서를 포함하여 사용자의 생체신호를 측정할 수 있다. 또한 가상현실장치(100)는 스마트워치, 스마트폰, 태블릿, 또는 PC로부터 사용자의 생체신호를 수신할 수 있다. 가상현실장치(100)는 빈맥(tachycardia), 눈 깜빡임 속도, 호흡수, 호흡유발 동성부정맥, 및 심박수가 높을 수록 멀미를 할 가능성이 높다고 결정할 수 있다. 사용자 생체신호가 미리 정해진 임계 생체신호보다 큰 경우, 가상현실장치(100)는 멀미 가능성이 높음을 나타내는 신호를 생성하는 단계를 수행할 수 있다. 또한, 멀미 가능성이 높음을 나타내는 신호를 생성한 경우, 가상현실장치(100)는 가상 현실의 디스플레이의 명암 또는 대비 중 적어도 하나를 기본값보다 낮추는 단계를 수행할 수 있다. 여기서 기본값은 가상 현실의 디스플레이의 명암 또는 대비의 초기값 또는 공장설정값일 수 있다.
가상현실장치(100)는 위에서 설명한 사용자의 생체신호 외에도 GSR(Galvanic Skin Response), PPG(PhotoPlethysmoGram), SKT(SKin Temperature), EOG (ElectroOculoGram), ECG(Electro-CardioGram), EMG (ElectroMyogram) 등의 심박수, 안구의 움직임, 근전도 분석, 뇌파, 맥파, 피부전도도, 또는 눈깜빡임 빈도 중 적어도 하나를 포함하는 사용자의 생체신호를 이용하여 사용자가 멀미 가능성이 높음을 나타내는 신호를 생성할 수 있다.
가상현실장치(100)는 기계학습모델을 이용하여 사용자가 멀미 가능성이 높음을 나타내는 신호를 생성할 수 있다. 기계학습모델은 위에서 설명한 사용자의 생체신호와 멀미 상태를 기계학습한 모델일 수 있다. 가상현실장치(100)는 기계학습모델을 생성하기 위하여 다음과 같은 과정을 수행할 수 있다. 가상현실장치(100)는 사용자의 생체신호를 지속적으로 수집할 수 있다. 또한 가상현실장치(100)는 사용자로부터 수신한 멀미 상태임을 나타내는 입력 신호를 수집할 수 있다. 가상현실장치(100)는 사용자로부터 멀미 상태임을 나타내는 입력을 수신한 경우, 그 이전의 1분 간의 생체 신호를 멀미 상태임을 나타내는 입력과 함께 저장할 수 있다. 가상현실장치(100)는 그 이전의 1분 간의 생체 신호 및 멀미 상태임을 나타내는 입력을 학습데이터로 이용할 수 있다. 사용자로부터 수신한 멀미 상태임을 나타내는 입력은 실제(ground truth) 정보일 수 있다. 기계학습모델의 학습에는 ANN(Artificial neural network) 중 하나의 알고리즘을 이용할 수 있다. 가상현실장치(100)는 순전파와 역전파를 이용하여 기계학습모델을 핏팅(fitting)할 수 있다.
가상현실장치(100)는 1분간 새로이 측정된 생체 신호를 획득할 수 있다. 가상현실장치(100)는 1분간 새로이 측정된 생체 신호를 생성된 기계학습모델에 적용하여 사용자가 멀미 가능성이 높음을 나타내는 신호를 생성할 수 있다. 가상현실장치(100)가 생성한 멀미 가능성이 높음을 나타내는 신호는 실제(ground truth) 정보와 다를 수 있다. 하지만 가상현실장치(100)가 기계학습모델에 기초하여 생성한 신호는 높은 정확도를 가질 수 있다. 따라서 가상현실장치(100)는 기계학습모델을 이용하여 사용자가 멀미할 가능성이 높은지 자동으로 결정할 수 있다.
가상현실장치(100)는 카메라를 포함할 수 있다. 가상현실장치(100)의 카메라는 주기적으로 사용자의 얼굴의 영상을 촬영할 수 있다. 카메라는 사용자의 얼굴 중 일부를 촬영할 수 있다. 예를 들어 카메라는 사용자의 눈 부위를 촬영할 수 있다. 카메라는 사용자의 좌측 눈 및 우측 눈의 영상을 개별적으로 촬영할 수 있다. 카메라는 한개 또는 두개일 수 있다. 가상현실장치(100)는 기계학습모델을 이용하여 사용자가 멀미 가능성이 높음을 나타내는 신호를 생성할 수 있다. 기계학습모델은 사용자의 얼굴영상과 멀미 상태를 기계학습한 모델일 수 있다. 가상현실장치(100)는 기계학습모델을 생성하기 위하여 다음과 같은 과정을 수행할 수 있다. 가상현실장치(100)는 사용자의 얼굴영상을 지속적으로 수집할 수 있다. 또한 가상현실장치(100)는 사용자로부터 수신한 멀미 상태임을 나타내는 입력 신호를 수집할 수 있다. 가상현실장치(100)는 사용자로부터 멀미 상태임을 나타내는 입력을 수신한 경우, 그 직전의 사용자의 얼굴영상을 멀미 상태임을 나타내는 입력과 함께 저장할 수 있다. 가상현실장치(100)는 그 직전의 사용자의 얼굴영상과 멀미 상태임을 나타내는 입력을 학습데이터로 이용할 수 있다. 사용자로부터 수신한 멀미 상태임을 나타내는 입력은 실제(ground truth) 정보일 수 있다. 기계학습모델의 학습에는 CNN(convolutional neural network)중 하나의 알고리즘을 이용할 수 있다. 가상현실장치(100)는 순전파와 역전파를 이용하여 기계학습모델을 핏팅(fitting)할 수 있다.
가상현실장치(100)는 새로운 얼굴영상을 획득할 수 있다. 가상현실장치(100)는 새로운 얼굴영상을 위에서 생성한 기계학습모델에 적용하여 사용자가 멀미 가능성이 높음을 나타내는 신호를 생성할 수 있다. 가상현실장치(100)가 생성한 멀미 가능성이 높음을 나타내는 신호는 실제(ground truth) 정보와 다를 수 있다. 하지만 가상현실장치(100)가 기계학습모델에 기초하여 생성한 신호는 높은 정확도를 가질 수 있다. 따라서 가상현실장치(100)는 기계학습모델을 이용하여 사용자가 멀미할 가능성이 높은지 자동으로 결정할 수 있다. 또한, 멀미 가능성이 높음을 나타내는 신호를 생성한 경우, 가상현실장치(100)는 가상 현실의 디스플레이의 명암 또는 대비 중 적어도 하나를 기본값보다 낮추는 단계를 수행할 수 있다. 여기서 기본값은 가상 현실의 디스플레이의 명암 또는 대비의 초기값 또는 공장설정값일 수 있다.
이와 같이 가상현실장치(100)는 사용자의 멀미 가능성을 예측하고, 그에 따른 조치를 취함으로써, 사용자의 멀미를 효과적으로 줄일 수 있다.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.

Claims (9)

  1. 가상현실장치의 동작방법에 있어서,
    사용자의 나이에 대한 정보를 수신하는 단계;
    상기 나이에 대한 정보에 기초하여 상기 사용자를 제 1 그룹, 제 2 그룹, 및 제 3 그룹 중 하나로 분류하는 단계;
    상기 사용자가 상기 제 1 그룹으로 분류된 경우, 가상 현실의 디스플레이와 사용자의 거리를 제 1 거리로 설정하는 단계;
    상기 사용자가 상기 제 2 그룹으로 분류된 경우, 상기 가상 현실의 디스플레이와 사용자의 거리를 제 2 거리로 설정하는 단계; 및
    상기 사용자가 상기 제 3 그룹으로 분류된 경우, 상기 가상 현실의 디스플레이와 사용자의 거리를 제 3 거리로 설정하는 단계를 포함하고,
    상기 제 1 거리가 상기 제 3 거리보다 크거나 같고, 상기 제 3 거리가 상기 제 2 거리보다 크거나 같은 가상현실장치의 동작 방법.
  2. 제 1 항에 있어서,
    상기 가상현실장치에 구비된 카메라를 이용하여 사용자의 눈동자의 영상을 획득하는 단계;
    상기 사용자의 눈동자의 영상에 기초하여 사용자의 동공의 크기를 획득하는 단계; 및
    상기 사용자의 동공의 크기에 기초하여 상기 가상현실장치의 동공 간 거리(Inter-pupillary distance; IPD)를 결정하는 단계를 포함하고,
    상기 동공의 크기와 상기 동공 간 거리는 정비례하는 가상현실장치의 동작 방법.
  3. 제 2 항에 있어서,
    상기 나이에 대한 정보에 기초하여 상기 사용자를 제 4 그룹 및 제 5 그룹 중 하나로 분류하는 단계를 포함하고,
    상기 사용자가 제 4 그룹으로 분류된 경우, 상기 가상현실장치의 동공 간 거리의 최소값은 41mm이고, 상기 가상현실장치의 동공 간 거리의 최대값은 55mm이고,
    상기 사용자가 제 5 그룹으로 분류된 경우, 상기 가상현실장치의 동공 간 거리의 최소값은 54mm이고, 상기 가상현실장치의 동공 간 거리의 최대값은 68mm인 가상현실장치의 동작 방법.
  4. 제 2 항에 있어서,
    상기 가상현실장치에 구비된 카메라를 이용하여 사용자의 눈동자의 영상을 획득하는 단계는,
    상기 가상현실장치가 상기 가상 현실의 디스플레이와 사용자의 거리를 제 4 거리에서 제 5 거리로 이동시키면서 주기적으로 상기 사용자의 눈동자의 영상을 획득하는 단계를 포함하고,
    상기 사용자의 눈동자의 영상에 기초하여 사용자의 동공의 크기를 획득하는 단계는,
    상기 주기적으로 획득된 상기 사용자의 눈동자의 영상에 기초하여 사용자의 복수의 동공의 크기를 획득하는 단계; 및
    상기 복수의 동공의 크기의 평균 또는 중앙값을 동공 크기의 대표값으로 결정하는 단계를 포함하고,
    상기 사용자의 동공의 크기에 기초하여 상기 가상현실장치의 동공 간 거리를 결정하는 단계는,
    상기 동공의 크기의 대표값에 기초하여 상기 가상현실장치의 동공 간 거리를 결정하는 단계를 포함하고,
    상기 제 4 거리는 상기 제 5 거리보다 작은 가상현실장치의 동작 방법.
  5. 제 4 항에 있어서,
    상기 가상현실장치가 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계;
    상기 가상현실장치가 사용자로부터 상기 일측에서 보이는 제 1 오브젝트에 대한 정보를 수신하는 단계;
    상기 가상현실장치가 사용자로부터 상기 타측에서 보이는 제 2 오브젝트에 대한 정보를 수신하는 단계;
    상기 제 1 오브젝트에 대한 정보 및 상기 제 2 오브젝트에 대한 정보에 기초하여 상기 사용자의 시야각을 획득하는 단계를 포함하는 가상현실장치의 동작 방법.
  6. 제 4 항에 있어서,
    상기 가상현실장치가 상기 가상 현실의 디스플레이와 사용자의 거리를 상기 제 4 거리로 결정하는 단계;
    상기 가상현실장치가 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계;
    상기 가상현실장치가 사용자로부터 상기 일측에서 보이는 제 1 오브젝트에 대한 정보를 수신하는 단계;
    상기 가상현실장치가 사용자로부터 상기 타측에서 보이는 제 2 오브젝트에 대한 정보를 수신하는 단계;
    상기 제 1 오브젝트에 대한 정보 및 상기 제 2 오브젝트에 대한 정보에 기초하여 상기 제 4 거리에서의 상기 사용자의 시야각을 획득하는 단계;
    상기 가상현실장치가 상기 가상 현실의 디스플레이와 사용자의 거리를 상기 제 5 거리로 결정하는 단계;
    상기 가상현실장치가 사용자에게 눈을 일측에서 타측으로 돌릴 것을 지시하는 메시지를 출력하는 단계;
    상기 가상현실장치가 사용자로부터 상기 일측에서 보이는 제 3 오브젝트에 대한 정보를 수신하는 단계;
    상기 가상현실장치가 사용자로부터 상기 타측에서 보이는 제 4 오브젝트에 대한 정보를 수신하는 단계;
    상기 제 3 오브젝트에 대한 정보 및 상기 제 4 오브젝트에 대한 정보에 기초하여 상기 제 5 거리에서의 상기 사용자의 시야각을 획득하는 단계를 포함하는 가상현실장치의 동작 방법.
  7. 제 5 항 또는 제 6 항 중 어느 한 항에 있어서,
    상기 사용자의 시야각이 미리 정해진 임계시야각보다 작은 경우, 멀미 가능성이 높음을 나타내는 신호를 생성하는 단계를 더 포함하는 가상현실장치의 동작 방법.
  8. 제 7 항에 있어서,
    빈맥(tachycardia), 눈 깜빡임 속도, 호흡수, 호흡유발 동성부정맥, 심박수 중 적어도 하나를 포함하는 사용자 생체신호를 획득하는 단계; 및
    상기 사용자 생체신호가 미리 정해진 임계 생체신호보다 큰 경우, 멀미 가능성이 높음을 나타내는 신호를 생성하는 단계를 포함하는 가상현실장치의 동작 방법.
  9. 제 8 항에 있어서,
    상기 멀미 가능성이 높음을 나타내는 신호를 생성한 경우, 상기 가상 현실의 디스플레이의 명암 또는 대비 중 적어도 하나를 낮추는 단계를 포함하는 가상현실장치의 동작 방법.
KR1020210173955A 2021-12-07 2021-12-07 가상 디스플레이를 설정하는 가상현실장치 및 장치의 동작 방법 KR20230085614A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210173955A KR20230085614A (ko) 2021-12-07 2021-12-07 가상 디스플레이를 설정하는 가상현실장치 및 장치의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210173955A KR20230085614A (ko) 2021-12-07 2021-12-07 가상 디스플레이를 설정하는 가상현실장치 및 장치의 동작 방법

Publications (1)

Publication Number Publication Date
KR20230085614A true KR20230085614A (ko) 2023-06-14

Family

ID=86745113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210173955A KR20230085614A (ko) 2021-12-07 2021-12-07 가상 디스플레이를 설정하는 가상현실장치 및 장치의 동작 방법

Country Status (1)

Country Link
KR (1) KR20230085614A (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160121798A (ko) 2014-07-10 2016-10-20 세이코 엡슨 가부시키가이샤 직접적인 기하학적 모델링이 행해지는 hmd 보정
KR101697286B1 (ko) 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
KR101927904B1 (ko) 2017-08-23 2018-12-12 길재소프트 주식회사 기록매체, 그 기록매체에 기록된 헤드 마운티드 디스플레이용 양안거리 캘리브레이션 프로그램, 기록매체가 탑재된 모바일 장치 및 헤드 마운티드 디스플레이의 양안거리 캘리브레이션 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160121798A (ko) 2014-07-10 2016-10-20 세이코 엡슨 가부시키가이샤 직접적인 기하학적 모델링이 행해지는 hmd 보정
KR101697286B1 (ko) 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
KR101927904B1 (ko) 2017-08-23 2018-12-12 길재소프트 주식회사 기록매체, 그 기록매체에 기록된 헤드 마운티드 디스플레이용 양안거리 캘리브레이션 프로그램, 기록매체가 탑재된 모바일 장치 및 헤드 마운티드 디스플레이의 양안거리 캘리브레이션 방법

Similar Documents

Publication Publication Date Title
US20190313915A1 (en) Posture-adjusted calculation of physiological signals
US20190235624A1 (en) Systems and methods for predictive visual rendering
Hicks et al. A depth-based head-mounted visual display to aid navigation in partially sighted individuals
US20170092007A1 (en) Methods and Devices for Providing Enhanced Visual Acuity
CN104603673B (zh) 头戴式系统以及使用头戴式系统计算和渲染数字图像流的方法
US11967075B2 (en) Application to determine reading/working distance
CN104090371B (zh) 一种3d眼镜及3d显示系统
John et al. An evaluation of pupillary light response models for 2D screens and VR HMDs
CN110269586B (zh) 用于捕获具有暗点的人的视野的设备和方法
US11281893B2 (en) Method and device for modifying the affective visual information in the field of vision of an user
US20230282080A1 (en) Sound-based attentive state assessment
KR20230085614A (ko) 가상 디스플레이를 설정하는 가상현실장치 및 장치의 동작 방법
CN113080844B (zh) 优选视网膜区的视觉检测与视觉训练设备
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
US20230259203A1 (en) Eye-gaze based biofeedback
US20230418372A1 (en) Gaze behavior detection
US20230288985A1 (en) Adjusting image content to improve user experience
Hornak et al. Point-of-Gaze Estimation on Embedded Platform
CN117373075A (zh) 基于眼部特征点和眼部区域分割结果的情感识别数据集
CN113064278A (zh) 视觉增强方法、系统、计算机存储介质及智能眼镜
WO2022254409A1 (en) System and method for providing customized headwear based on facial images
CN115867238A (zh) 视觉辅助
CN117677345A (zh) 基于生物反馈的增强型冥想体验