KR102399906B1 - 사용자 신원 인증을 위해 안구 생리 특징을 사용하는 가상 현실 디바이스 - Google Patents
사용자 신원 인증을 위해 안구 생리 특징을 사용하는 가상 현실 디바이스 Download PDFInfo
- Publication number
- KR102399906B1 KR102399906B1 KR1020197017171A KR20197017171A KR102399906B1 KR 102399906 B1 KR102399906 B1 KR 102399906B1 KR 1020197017171 A KR1020197017171 A KR 1020197017171A KR 20197017171 A KR20197017171 A KR 20197017171A KR 102399906 B1 KR102399906 B1 KR 102399906B1
- Authority
- KR
- South Korea
- Prior art keywords
- virtual reality
- user
- reality device
- camera
- service
- Prior art date
Links
- 230000004384 eye physiology Effects 0.000 title claims description 8
- 238000000034 method Methods 0.000 claims description 60
- 210000001508 eye Anatomy 0.000 claims description 32
- 230000003993 interaction Effects 0.000 claims description 14
- 230000003287 optical effect Effects 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 7
- 230000035479 physiological effects, processes and functions Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 210000003786 sclera Anatomy 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 19
- 230000015654 memory Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 210000001956 EPC Anatomy 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004166 bioassay Methods 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0008—Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
- A61B3/145—Arrangements specially adapted for eye photography by video means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H04N5/2256—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- H04N9/07—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/12—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Vascular Medicine (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Input (AREA)
- Collating Specific Patterns (AREA)
Abstract
일 구현예에 있어서, 가상 현실(VR) 디바이스가 2개의 개구부를 가진 하우징을 포함한다. 2개의 개구부의 각각은 카메라 렌즈 및 코를 위한 홈부를 수용한다. VR 디바이스는 또한, 각각의 카메라 렌즈 주위에 분포되며, VR 디바이스 사용자의 하나 이상의 안구 생리 특징을 포착하기 위한 하나 이상의 카메라를 포함한다.
Description
<우선권 주장>
본원은 2016년 11월 29일에 출원한 중국 특허 출원 제201621293788.0호와 2017년 11월 21일에 출원한 미국 특허 출원 제15/819,034호에 대해 우선권을 주장하며, 이들 출원은 그 전체가 참조로 포함된다. 본 발명의 요지는 2017년 11월 21에 출원한 미국 특허 출원 제15/819,041호에도 관련되며, 이 출원은 그 전체가 참조로 포함된다.
<기술 분야>
본 개시내용은 사용자 신원 인증에 관한 것이며, 보다 상세하게는 안구 생리 특징(eye physiological characteristic)에 기반한 사용자 신원 인증에 관한 것이다.
가상 현실(VR, virtual reality)은, 헤드셋과 같은 VR 디바이스를 때때로 물리적 공간이나 여러 투영된 환경과 함께 사용해서, 3차원 가상 환경에서 사용자의 물리적 존재를 시뮬레이션하는, 현실적인 이미지, 사운드 및 기타 감각을 생성하여, VR 사용자가 가상 현실과 인터랙션할 수 있게 하는 컴퓨터 기술이다.
VR 하드웨어가 진화함에 따라, VR 기술은 건축, 건강 관리, 교육, 엔터테인먼트, 게이밍, 및 온라인 쇼핑을 비롯한 여러 분야에서 점점 더 많이 사용되고 있다. 게이밍, 컨텐츠 소비, 및 생산성과 같은 수많은 애플리케이션이 사용자에게 VR 기술을 사용하여 몰입형 경험을 제공하도록 개발되고 있다. 다수의 VR 애플리케이션은 애플리케이션 내에서의 구매, 사용자 커스텀마이징, 또는 시청 규제(parental control)를 포함한 동작을 허용한다. 이들 동작에는 보안을 위해 사용자 신원 인증이 필요하다.
본 개시내용은, 가상 현실(VR)에 기반한 사용자 신원 인증 및 서비스 제어를 위한 컴퓨터 구현 방법(computer-implemented method), 컴퓨터 프로그램 제품, 및 컴퓨터 시스템을 포함한, 방법 및 장치를 기술한다.
일 구현예에 있어서, VR 디바이스가 2개의 개구부를 가진 하우징을 포함한다. 2개의 개구부의 각각은 카메라 렌즈 및 코를 위한 홈부(nose groove)를 수용한다. VR 디바이스는 또한, 각각의 카메라 렌즈 주위에 분포되며, VR 디바이스 사용자의 하나 이상의 안구 생리 특징을 포착하기 위한 하나 이상의 카메라를 포함한다.
전술한 구현예는, 컴퓨터 구현 방법을 사용하여; 상기 컴퓨터 구현 방법을 수행하기 위한 컴퓨터 판독 가능한 명령어를 저장한 컴퓨터 판독 가능한 매체를 사용하여; 그리고 상기 컴퓨터 구현 방법/비일시적 컴퓨터 판독 가능한 매체 상에 저장된 명령어를 수행하도록 구성된 하드웨어 프로세서와 상호 동작 가능하게 결합된 컴퓨터 메모리를 포함하는 컴퓨터 구현 시스템을 사용하여 구현 가능하다.
본 명세서에 기술되는 요지는 가상 환경에서 효율적인 사용자 신원 인증을 실현하여 VR 사용자에게 더 빠르고 편리한 동작, 및 보다 몰입감있는 경험을 제공하도록, 특정 구현예에서 구현될 수 있다.
본 명세서의 요지의 하나 이상의 구현예의 상세내용은 이하의 상세한 설명, 청구범위, 및 첨부 도면에서 설명된다. 당업자에게는 해당 요지의 다른 특징, 양상 및 이점도 이하의 상세한 설명, 청구범위 및 첨부 도면으로부터 명백해질 것이다.
도 1a는 본 개시내용의 구현예에 따른, 안구 생리 특징 감지 기능이 있는 가상 현실 디바이스의 예시적인 구조를 나타내는 개략도이다.
도 1b는 본 개시내용의 구현예에 따른, 안구 생리 특징 감지 기능이 있는 가상 현실 디바이스의 예시적인 카메라 구조를 나타내는 개략도이다.
도 2는 본 개시내용의 구현예에 따른 가상 현실 시나리오에 있어서 안구 생리 특징에 기반하여 사용자 신원 인증을 수행하는 방법의 일례를 나타내는 흐름도이다.
도 3은 본 개시내용의 구현예에 따라, 기술하는 알고리즘, 방법, 함수, 프로세스, 플로우, 및 프로시저와 연관된 연산적 기능성을 제공하도록 구성된 컴퓨터 구현 시스템의 일례를 나타내는 블록도이다.
여러 도면에 사용하는 같은 참조 부호는 같은 엘리먼트를 가리킨다.
도 1b는 본 개시내용의 구현예에 따른, 안구 생리 특징 감지 기능이 있는 가상 현실 디바이스의 예시적인 카메라 구조를 나타내는 개략도이다.
도 2는 본 개시내용의 구현예에 따른 가상 현실 시나리오에 있어서 안구 생리 특징에 기반하여 사용자 신원 인증을 수행하는 방법의 일례를 나타내는 흐름도이다.
도 3은 본 개시내용의 구현예에 따라, 기술하는 알고리즘, 방법, 함수, 프로세스, 플로우, 및 프로시저와 연관된 연산적 기능성을 제공하도록 구성된 컴퓨터 구현 시스템의 일례를 나타내는 블록도이다.
여러 도면에 사용하는 같은 참조 부호는 같은 엘리먼트를 가리킨다.
이하의 상세한 설명에서는 사용자의 안구 생리 특징(EPC, eye physiological characteristic)을 포착하는 가상 현실(VR) 하드웨어에 관한 기술을 기술하며, 이 설명은 해당 기술 분야에 종사하는 누구라도 하나 이상의 특정 구현예의 맥락에서 개시하는 요지를 사용 및 수행하는 것을 가능하게 하도록 제시된다. 개시하는 구현예들의 다양한 변형, 변경 및 치환이 이루어질 수 있고, 당업자에게는 용이하게 명백할 것이며, 정의된 일반 원리는 본 개시내용의 범위를 벗어나지 않고서, 다른 구현예 및 애플리케이션에 적용될 수 있다. 일부 예에서, 기술하는 요지에 대한 이해를 얻는데 불필요하고 당업자의 기술 범위 내에 있는 하나 이상의 기술적 세부 사항은 하나 이상의 기술하는 구현예를 모호하게 하지 않도록 생략될 수 있다. 본 개시내용은 설명 또는 예시한 구현예에 한정되는 것이 아니라 기술하는 원리 및 특징과 부합하는 가장 넓은 범위를 갖는 것이다.
VR은, 헤드셋과 같은 VR 디바이스를 때때로 물리적 공간이나 여러 투영된 환경과 함께 사용해서, 3차원 가상 환경에서 사용자의 물리적 존재를 시뮬레이션하는, 현실적인 이미지, 사운드 및 기타 감각을 생성하여, VR 사용자가 가상 현실과 인터랙션할 수 있게 하는 컴퓨터 기술이다.
VR 하드웨어가 진화함에 따라, VR 기술은 건축, 건강 관리, 교육, 엔터테인먼트, 게이밍, 및 온라인 쇼핑을 비롯한 여러 분야에서 점점 더 많이 사용되고 있다. 게이밍, 컨텐츠 소비, 및 생산성과 같은 수많은 애플리케이션이 사용자에게 VR 기술을 사용하여 몰입형 경험을 제공하도록 개발되고 있다. 다수의 VR 애플리케이션은 애플리케이션 내에서의 구매, 사용자 커스텀마이징, 또는 시청 규제(parental control)를 포함한 동작을 허용한다. 이들 동작에는 보안을 위해 사용자 신원 인증이 필요하다.
본 개시내용은 사용자의 EPC에 기반하여 생체 인증을 수행할 수 있는 VR 디바이스 기술을 설명한다. VR 디바이스는 VR 기술에 기반하여 개발된 VR 애플리케이션 또는 소프트웨어를 수행하는데 사용될 수 있다. VR 애플리케이션은 VR 디바이스 사용자에게 3D 몰입형 VR 경험을 제공할 수 있다.
도 1a는 본 개시내용의 구현예에 따른, EPC 감지 기능이 있는 VR 디바이스(100a)의 예시적인 구조를 나타내는 개략도이다. 일부 구현예에서, VR 디바이스는 VR 사용자가 VR 사용자의 머리에 착용할 수 있는 VR 헤드셋일 수 있다. VR 디바이스(100a)는 사용자 신원 인증을 위해 VR 사용자의 EPC를 검출 및 포착할 수 있는 하드웨어 컴포넌트를 포함할 수 있다. 예시적인 EPC는 홍채 특징 및 안문(eye print) 특징을 포함할 수 있다.
도시하는 VR 디바이스(100a)는 하우징(110)을 포함한다. 일부 구현예에서, 하우징(110)은 VR 사용자의 눈의 상대적 위치에 대응하는 2개의 개구부를 가질 수 있다. 2개의 개구부는 각각 렌즈(120)를 수용할 수 있다. 일부 경우에, 렌즈(120)는 개구부를 통과하는 광을 VR 사용자에게 보여지는 시각적 효과로 변환할 수 있는 렌즈 어셈블리를 포함할 수 있다. 하나 이상의 카메라(130)가 2개의 렌즈(120) 각각의 주위에 분포되어 사용자의 EPC를 포착할 수 있다. 일부 경우에는 도시하는 바와 같이, 카메라(130)가 렌즈(120) 주위에 균등하게 분포될 수 있다. 다른 경우에, 렌즈는 특정 위치에(예를 들어, 한쪽 개구부 상에) 그룹화될 수 있다. 일부 경우에, 카메라(130)는 렌즈(120)를 VR 사용자의 눈과 카메라(130) 사이에 확실하게 위치시키도록 배치될 수 있다. 일부 경우에, 카메라(130)는 보다 완벽한 EPC 데이터 세트를 얻기 위해 복수의 방향으로부터 VR 사용자의 안구 이미지를 포착하도록 배치될 수 있다. 일부 구현예에서, 필요한 카메라(130)의 수는 EPC와 연관된 품질 요건에 기초하여 결정될 수 있다.
VR 디바이스(100a)는 또한 VR 사용자의 코를 수용하기 위해 렌즈(120) 사이에 그리고 렌즈 아래에 코를 위한 홈부(nose groove)를 포함한다. 이와 같이, VR 디바이스(100a)는 VR 사용자의 눈에 더욱 근접하도록 피팅될 수 있다.
일부 구현예에서, VR 디바이스(100a)는 또한 범용 직렬 버스(USB) 포트 또는 WIFI 칩과 같은 데이터 인터페이스(160)도 포함할 수 있다. 데이터 인터페이스(160)는 스마트폰, 태블릿, 또는 컴퓨터와 같은 외부 사용자 컴퓨팅 디바이스에 VR 디바이스(100a)를 전기적으로 또는 무선으로 접속하는데 사용될 수 있다.
일부 구현예에서, 외부 사용자 컴퓨팅 디바이스는 USB 또는 다른 케이블을 통해 카메라(130)로부터 이미지를 또는 VR 디바이스(100a)로부터 다른 데이터를 획득할 수 있다. 일부 경우에, 외부 사용자 컴퓨팅 디바이스는 WIFI 또는 BLUETOOTH와 같은 무선 접속을 통해 VR 디바이스(100a)로부터 데이터를 획득할 수 있다. 일부 경우에, 데이터 인터페이스(160)는 VR 디바이스(100a)에 전력을 공급하거나 충전하는 데에도 사용될 수 있다.
도 1b를 참조하면, 도 1b는 본 개시내용의 구현예에 따른, 안구 생리 특징 감지 기능이 있는 가상 현실 디바이스(100a)의 예시적인 카메라 구조(100b)를 나타내는 개략도이다. 도 1b에 도시하는 카메라(130)는 도 1a에 도시한 VR 디바이스(100a)에 사용되는 카메라들(130) 중 임의의 것일 수 있다. 도 1b에 도시하는 바와 같이, 발광 다아오드(LED) 발광체(170)가 카메라(130)에 부착될 수 있다. 경우에 따라, LED 발광체(170)는 카메라(130)와 1 대 1 관계를 가질 수 있다. 일부 경우에는, 각 카메라(130)에 복수의 LED 발광체(170)가 사용될 수 있다. LED 발광체(170)는 하우징(110)의 외장 내부의 불량한 광 조건을 보상하여 카메라(130)에 의해 획득되어 반환된 이미지의 이미지 품질을 향상시키는데 사용될 수 있다.
EPC는 안문(eyeprint) 특징, 홍채 특징, 안문 특징과 홍채 특징의 조합, 또는 기타 안구 생리 특징을 포함할 수 있다. 안문 특징은 안구의 흰 부분인 공막의 조직(texture)일 수 있다. 각 개인의 공막 조직은 고유하다. 홍채는 동공과 공막 사이의 환형 부분으로서, 이 또한 각 개인마다 고유한 조직을 갖고 있다.
일부 경우에는, 안문 특징이 사용자 신원 인증을 위한 EPC로서 사용되고, 사용되는 카메라(130)는 RGB 카메라일 수 있다. LED 발광체(170)는 RGB 카메라(130)의 광에 대해 1 대 1로 보상하는데 사용될 수 있다. 일부 경우에, 홍채 특징이 사용자 신원 인증을 위한 EPC로서 사용된다. 예를 들어, 렌즈(120) 주위에 분포되는 카메라(130)는 적외선 카메라일 수 있고, 방출된 적외선 LED 광원 하에서 사용자의 홍채가 촬상될 수 있다. 적외선 LED 광원은 적외선 카메라에 1 대 1로 광 보상을 제공할 수 있다. 일부 경우에, VR 디바이스(100a)는 홍채 및 안문 특징을 동시에 수집할 수 있다. 이 경우에, 카메라(130)는 RGB 카메라와 적외선 카메라 둘 다를 포함할 수 있다. LED 발광체(170)는 적외선 발광체 및 통상의 LED 발광체 둘 다를 포함할 수 있다.
VR 디바이스(100a)는 또한 VR 디바이스(100a)의 렌즈(120)에 입사하는 주변 광의 밝기(brightness)를 검출하는 광 센서도 포함할 수 있다. 밝기가 미리 정해진 값보다 낮고 EPC의 포착에 부정적인 영향을 줄 수 있다면, VR 디바이스(100a)는 LED 발광체(170) 중 하나 이상을 턴온하여 하나 이상의 카메라(130)에 대해 1 대 1로 광 보상을 수행할 수 있다.
일부 경우에 있어서, VR 디바이스(100a)의 물리적 치수가 카메라(130)와 VR 사용자의 눈 사이에 불충분한 피사계 심도(depth-of-field)를 초래하여, 카메라(130)가 VR 사용자의 눈에 정확히 포커싱될 수 없다. 이 경우에, 하나 이상의 매크로 렌즈 카메라가 사용될 수 있다. 대안적으로, 초점 거리를 적응적으로 조정하기 위해, 하나 이상의 추가적 광학 렌즈가 사용자의 눈과 렌즈(120) 사이의 위치에 설치되어 VR 디바이스(100a)의 내부 형상(예컨대, VR 헤드셋의 캐비티)에 기초하여 사용자의 눈으로부터 도달하는 광선을 반사 또는 굴절시킬 수 있다. 경우에 따라, 내시경에 사용되는 것과 같은 특수 렌즈를 사용하여 사용자의 홍채 또는 안문 특징을 수집할 수도 있다. 일부 경우에, 사용자는 정확한 홍채 또는 안문 이미지를 얻기 위해 카메라(130)의 초점 길이를 수동으로 조정할 수 있다. 경우에 따라, 전용 합산 하드웨어 또는 소프트웨어를 사용하여 카메라의 초점을 자동으로 조정할 수도 있다.
일부 경우에, VR 디바이스(100a)는 사용자 신원 인증을 위해 데이터 인터페이스(160)를 통해 서버와 통신할 수 있다. VR 디바이스(100a)는 수집된 EPC 샘플을 유선 또는 무선 접속을 통해 서버에 전송할 수 있다. 수집된 EPC 샘플은 서버에 미리 저장된 EPC 샘플과 비교될 수 있다. 일부 경우에, 사용자는 서비스 계정 등록 시에 하나 이상의 EPC 샘플을 획득하기 위해 VR 디바이스(100a)를 사용할 수 있다. 하나 이상의 EPC 샘플은 오프라인 생체 인증을 허용하는 애플리케이션의 경우 로컬로 저장될 수도 있고 또는 온라인 인증을 필요로 하는 애플리케이션의 경우 서비스 서버에 전송될 수도 있다. 예를 들어, 서비스가 VR 결제 서비스인 경우, 사용자의 서비스 계정은 결제 계정일 수 있다. VR 디바이스(100a)는 통합된 안구 센서를 사용하여, 결제 계정 등록 시에 사용자의 EPC 샘플을 획득하고 샘플을 로컬로 또는 결제 서버 상에 저장할 수 있다. EPC 샘플은 사용자의 결제 계정과 연관된다.
경우에 따라, 사용자는 VR 디바이스(100a)를 사용하기 위해 사용자 계정에 로그인할 수 있다. VR 디바이스(100a)는 EPC 샘플 및 VR 디바이스(100a)의 사용자 계정 로그인 정보를 등록 메시지로서 서비스 서버에 전송할 수 있다. 서버는 수신된 정보를 이용하여 사용자의 EPC 샘플을 서비스 계정에 연관시키고 안구 생리 특성 샘플을 생체 특징 데이터베이스에 저장할 수 있다. 일부 경우에, 사용자 계정은 서비스 계정과 동일할 수도 있다.
일부 경우에, VR 디바이스(100a)에 의해 EPC 샘플이 수집된 후, VR 디바이스(100a)는 서비스 서버에 대해 생체 인식 요청을 생성할 수 있다. 생체 인식 요청은 사용자의 사용자 계정 정보 또는 서비스 계정 정보 및 안구 센서에 의해 획득된 EPC를 포함할 수 있다. 서비스 서버는 VR 디바이스(100a)에 생체 인식 인터페이스를 제공하여 요청을 수신하고, 서버에 요청을 제출할 수 있다. 일부 경우에는, 서비스 서버가 생체 인식 서버와 협력할 수 있고, 생체 인식 인터페이스는 생체 인식 서버에 의해 제공될 수 있다.
VR 디바이스(100a) 사용자는, 하나 이상의 EPC가 하나 이상의 미리 저장된 EPC 샘플의 적어도 일부와 매칭되면, 인증될 수 있다. 생체 인식 요청을 수신한 후, 서비스 서버는 요청을 파싱(parse)하고, EPC 및 사용자 계정 정보를 취득하며, EPC를 생체 특징 데이터베이스에 저장된 EPC 샘플과 비교할 수 있다. 일부 경우에, EPC가 EPC 샘플의 적어도 일부와 매칭되면, 서비스 서버는 수신된 사용자 계정 정보가, 매칭된 생체 인식 샘플과 연관된 계정과 매칭되는지도 검증할 수 있다. 생체 정보 및 사용자 계정 정보를 생체 특징 데이터베이스에 저장된 대응 정보와 비교한 후, 서비스 서버는 인증 결과를 VR 디바이스(100a)에 반환할 수 있다. 인증 결과는 부울 타입 반환 값(즉, true 또는 false)으로서 반환될 수 있다. 생체 정보 및 사용자 계정 정보 중 하나 또는 둘 다가 생체 특징 데이터베이스에 저장된 대응 정보와 매칭되면, 생체 인증이 성공했음을 나타내는 "true" 값이 반환될 수 있다. 그렇지 않으면, 생체 인증이 실패했음을 나타내는 "false" 값이 반환될 수 있다.
경우에 따라서, VR 디바이스(100a)는 로컬로 생체 인증을 수행할 수도 있다. 사용자의 EPC는 생체 정보 등록(예를 들면, 안문 정보를 VR 디바이스(100a) 상의 사용자 계정에 등록) 시에 VR 디바이스(100a)에 저장될 수 있다. VR 시나리오에 있어서 사용자가 서비스를 개시한 후에, VR 디바이스(100a)는 사용자의 EPC를 수집하고, EPC를 생체 정보 등록 시에 저장된 EPC 샘플과 비교할 수 있다. EPC가 저장된 정보의 적어도 일부와 매칭되면, 그 서비스에 대한 생체 인증이 성공한 것이다. 그렇지 않으면, 생체 인증은 실패한 것이다.
일부 경우에, VR 디바이스(100a)는 보안 강화를 위해 등록 메시지를 서비스 서버에 전송하기 전에 추가 생체 인증을 수행할 수 있다. 예를 들어, VR 디바이스(100a)는 사용자의 등록 메시지를 서비스 서버에 전송하기 전에, 사용자의 신원을 검증하기 위해 사용자에게 패스워드 또는 다른 보안 정보를 입력할 것을 프롬프팅할 수 있다. 이 프로세스는 미인증 사용자가 자신의 생체 정보를 부정 등록하여 인증 사용자의 사용자 계정에 바인딩하는 것을 방지할 수 있다. 서비스 등록 다음에, VR 디바이스(100a)는 사용자가 서비스를 개시한 후에 사용자의 EPC 샘플에 기초하여 생체 인증을 개시할 수 있다.
일부 경우에, VR 디바이스(100a)는 생체 정보를 수집하기 전에, 현재 실제 사람(real person)이 VR 디바이스(100a)를 사용하고 있는 것을 보장하기 위해 생물검정 프로세스(bioassay process)를 수행할 수 있다. 이 프로세스는 미인증 사용자가 생체 인증에 인증 사용자의 안문 또는 홍채 이미지를 사용하여 인증 사용자의 서비스 계정에 불법으로 액세스하는 것을 방지한다. 예시적인 생물검정 프로세스는 눈깜박임 또는 심박 인식을 포함할 수 있다.
생물검정 프로세스를 이용하여 실제 사용자가 검출된 후, VR 디바이스(100a)는 사용자에게 서비스 계정에 액세스하기 위한 생체 인증을 수행할 것을 프롬프팅할 수 있다. 이 경우에도 VR 결제 서비스를 예로 사용하면, VR 시나리오에 있어서 VR 디바이스(100a)는 "결제 인증을 위해 홍채를 스캔하십시오"와 같은 텍스트 프롬프트를 제시할 수 있다.
일부 경우에, 서비스 수행을 위해 서버와 통신한다. 생체 인증이 성공적이면 (예를 들면, 반환 값이 "true"이면), VR 디바이스(100a)는 서비스에 대응하는 서비스 인터페이스를 제시하여 서비스에 관한 데이터를 수집하고, 서비스 요청을 확립하며, 서비스 액세스 인터페이스를 통해 서비스 서버에 서비스 요청을 제출하고, 서비스 수행을 위해, 필요하다면, 서비스 서버와의 추가 인터랙션을 수행할 수 있다.
이 경우에도 VR 결제 서비스를 예로 사용하면, VR 디바이스(100a)는 결제 인터페이스를 제시하여, 사용자 이름, 주문 정보, 가격 등의 결제 관련 데이터를 수집한 다음, 결제 처리 요청을 생성하고, 결제 처리 요청을 서비스 서버에 전송할 수 있다. 서비스 서버는 요청을 처리하고 결제를 완료할 수 있다.
다음 예는 EPC 기반의 생체 인증이 사용자에게 보다 안전하고 빠르며 간단한 서비스 경험을 제공할 수 있는 방법을 보여주기 위해 VR 쇼핑을 사용한다. 사용된 안구 생리 특징이 안문이라고 상정하기로 한다. 일부 구현예에서, VR 쇼핑 서비스는 ALIPAY와 같은 결제 서비스일 수 있고, 가상 엘리먼트는 VR 쇼핑 시나리오에서 제시되는 가상 버튼일 수 있으며, 결제 서비스를 위한 서버는 서버 클러스터에 기반한 ALIPAY 플랫폼과 같은 결제 서버일 수 있다.
사용자는 자신의 사용자 계정 또는 결제 계정을 사용하여 VR 디바이스(100a)에 먼저 로그인하고, VR 디바이스(100a) 상에서 안문 등록을 완료하여 사용자의 안문을 결제 계정과 연관시킬 수 있다. 사용자의 계정 정보 및 대응하는 안문 정보는 결제 서버 상의 생체 특징 데이터베이스에 저장될 수 있다. 안문 등록 후, 사용자는 VR 환경에서 생체 인증을 위해 자신의 손가락(즉, 지문)을 사용할 수 있다.
VR 쇼핑을 위해 VR 디바이스(100a)를 착용할 때, VR 시나리오에서 사용자에게 판매 아이템이 제시될 수 있고, 사용자는 제스처 또는 머리 움직임을 통해 아이템 리스트를 훑거나, 아이템을 선택하거나, 장바구니에 아이템을 추가할 수 있다. 일부 경우에, 아이템이 선택되어 사용자의 장바구니에 추가될 때에, 체크아웃 또는 결제를 위한 가상 버튼(즉, 가상 엘리먼트)가 제공될 수 있다. 사용자는 다시 제스처 또는 머리 움직임을 사용하여 동작 포커스(예컨대, 커서)를 가상 버튼으로 이동시키고 미리 정해진 제스처 또는 머리 움직임을 사용하여 가상 버튼을 선택할 수 있다.
결제 서비스는 사용자의 음성 커맨드에 의해 서비스가 개시된 후에 개시될 수 있다. 일부 경우에, VR 디바이스(100a)는 VR 디바이스(100a)의 실제 사용자가 존재하는지를 결정하기 위해 생물검정 프로세스를 수행할 수 있다. 실제 사용자가 존재한다면, VR 시나리오에서 VR 디바이스(100a)는 "결제 인증을 위해 눈을 계속 뜨고 있으세요"라는 메시지를 프롬프팅할 수 있다.
EPC가 수집된 후에, VR 디바이스(100a)는 수집된 안문 정보와 사용자의 사용자 계정 정보 또는 결제 계정 정보를 포함하는 생체 인증 요청을 결제 서버에 전송할 수 있다. 결제 서버는 안문 정보를, 안문 등록 시에 생체 특징 데이터베이스에 저장된 안문 정보와 비교할 수 있다. 수신된 안문 정보가 데이터베이스에 저장된 사용자 계정과 연관된 안문와 부합하고, 결제 계정 정보가 저장된 사용자 계정 정보와 매칭되면, 결제 서버는 안문 인증이 성공적임을 나타내는 부울 유형 "true" 값을 VR 디바이스(100a)에 반환할 수 있다.
결제가 성공한 것을 확인한 후에, VR 디바이스(100a)는 사용자의 이름, 주문 정보, 결제 서비스에 관한 결제 금액 등의 결제 데이터를 사용자가 입력하기 위한 결제 인터페이스를 제시하고, 결제 서버에 결제 처리 요청을 생성하여 전송할 수 있다. 결제 서버는 결제를 처리하고 구매를 완료할 수 있다.
일부 경우에, "소액의 경우 인증이 필요없는" 결제 프로세스를 사용하여 결제 속도를 더욱 촉진할 수 있다. 예를 들어, 사용자가 음성 커맨드를 사용하여 결제 서비스를 개시하면, VR 디바이스(100a)는 아이템의 가격을 체크하고 결제 금액이 미리 설정된 금액(예를 들어, 20USD) 미만인지를 결정할 수 있다. 결제 금액이 미리 설정된 금액보다 적으면, VR 디바이스(100a)는 생체 인증 없이 바로 결제 서버에 결제 처리 요청을 생성하여 전송할 수 있다. 그렇지 않으면, 사용자는 결제 서비스를 사용하기 전에 생체 인증을 수행해야 한다.
일부 경우에, VR 디바이스(100a)는 사용자의 안구 생리 특징에 기반한 더 빠르고 보다 편리한 사용자 신원 인증에 사용될 수 있다. 사용자가 서비스를 수행하기 위해 VR 디바이스(100a)를 사용할 때, VR 디바이스는 하나 이상의 센서를 사용하여 가상 현실 시나리오에서 렌더링된 가상 엘리먼트와의 인터랙션 동작을 식별할 수 있다. 사용자 인터랙션 동작이 하나 이상의 미리 저장된 동작과 매칭되는 것으로 식별되면, VR 디바이스는 사용자 신원 검증을 위해 사용자의 EPC에 기반한 생체 인증을 호출할 수 있다. 생체 인증이 성공적이면, 사용자는 서비스 인터랙션을 수행하여 서비스를 완료할 수 있다. 이와 같이, VR 디바이스(100a)는 사용자의 EPC를 수집해서 VR 환경에서 생체 인증을 신속하게 수행하여, 사용자 신원 인증 절차를 단순화하고 계정 보안을 보장할 수 있다. 예를 들어, VR 환경에서 결제 서비스를 사용하는 경우. VR 디바이스를 통한 생체 인증은 가상 키보드를 사용한 복잡한 사용자 인터랙션을 통해 패스워스를 입력하는 것과 비교하여 사용자 신원 인증을 더 빠르게 할 수 있다.
도 2는 본 개시내용의 구현예에 따른 가상 현실 시나리오에 있어서 안구 생리 특징에 기반하여 사용자 신원 인증을 수행하는 방법(200)의 일례를 나타내는 흐름도이다. 설명의 명료성을 위해, 이하의 설명은 일반적으로 본 명세서 내의 다른 도면의 맥락에 있어서의 방법(200)을 기술한다. 그러나, 방법(200)은 예를 들어 임의의 시스템, 환경, 소프트웨어 및 하드웨어, 또는 시스템, 환경, 소프트웨어 및 하드웨어의 조합에 의해 적절하게 수행될 수 있음을 이해할 것이다. 경우에 따라, 방법(200)의 다양한 단계들은 병렬로, 조합으로, 루프로, 또는 임의의 순서로 실행될 수 있다.
210에서, VR 애플리케이션의 VR 시나리오에서 서비스를 개시하기 위한 VR 디바이스 사용자로부터의 하나 이상의 사용자 인터랙션이 검출된다. 서비스는 사용자 신원 인증을 필요로 하는, 사용자에 의해 수행되는 VR 애플리케이션에서 제공되는 임의의 서비스 또는 태스크일 수 있다. 일부 경우에, 서비스는 사용자 컴퓨팅 디바이스에 의해 수행되는 로컬 태스크일 수도 또는 서버에 의해 수행되는 온라인 태스크일 수도 있다. 예를 들어, 서비스는 VR 쇼핑, VR 게임, VR 기반의 VOD(video-on-demand), 또는 VR 라이브 캐스트에 대한 기부와 같은 VR 애플리케이션에서 행해지는 결제와 같은 온라인 결제 서비스일 수 있다. 대안으로, 서비스는 사용자 계정 로그인 또는 패스워드로 보호된 잠금해제를 필요로 하는 로컬 서비스일 수도 있다. VR 애플리케이션은 VR를 기반으로 개발된 임의의 소프트웨어 또는 애플리케이션일 수 있다. VR 애플리케이션은 VR 디바이스를 통해 VR 시나리오를 렌더링하여 사용자에게 몰입형 3D 경험을 제공할 수 있다. 210으로부터, 방법(200)은 220으로 진행한다.
220에서, VR 디바이스 사용자의 하나 이상의 EPC가 사용자 신원 인증을 위해 취득된다. 서비스가 개시된 후, VR 디바이스는 사용자 신원 인증을 위해 가상 시나리오에서 UI를 제공할 수 있다. VR 디바이스는 사용자 인식 인증을 용이하게 하는 안구 인식 기능을 포함할 수 있는, 도 1a에서 설명한 VR 디바이스(100a)일 수 있다. 220으로부터, 방법(200)은 230으로 진행한다.
230에서, 획득된 하나 이상의 안구 생리 특징이 하나 이상의 미리 저장된 안구 생리 특징 샘플과 비교된다. 일부 경우에, VR 디바이스 사용자는 도 1a에서 설명한 VR 디바이스(100a)와 같은 VR 디바이스를 사용하여, 서비스 계정 등록 시에 하나 이상의 EPC 샘플을 취득할 수 있다. 하나 이상의 EPC 샘플은 오프라인 생체 인증을 허용하는 애플리케이션의 경우 로컬로 저장될 수도 있고 또는 온라인 인증을 위해 서비스 서버에 전송될 인증 요청에 포함될 수도 있다. 230으로부터, 방법(200)은 240으로 진행한다.
240에서, 하나 이상의 EPC가 하나 이상의 미리 저장된 EPC 샘플의 적어도 일부와 매칭되면, VR 디바이스 사용자는 인증된다. 240으로부터, 방법(200)은 250으로 진행한다.
250에서, 서비스 수행을 위해 서버와 통신한다. 생체 인증이 성공적이면 (예를 들면, 반환 값이 "true"이면), VR 디바이스는 서비스에 대응하는 서비스 인터페이스를 제시하여 서비스에 관한 데이터를 수집하고, 서비스 요청을 확립하며, 서비스 액세스 인터페이스를 통해 서비스 서버에 서비스 요청을 제출하고, 서비스 수행을 위해, 필요하다면, 서비스 서버와의 추가 인터랙션을 수행할 수 있다. 250에서, 방법(200)은 끝난다.
도 3은 본 개시내용의 구현예에 따라 기술하는 알고리즘, 방법, 함수, 프로세스, 플로우, 및 프로시저와 연관된 연산적 기능을 제공하도록 구성된 컴퓨터 구현 시스템(300)의 일례를 나타내는 블록도이다. 도시하는 구현예에서, 시스템(300)은 컴퓨터(302)와 네트워크(330)를 포함한다.
도시하는 컴퓨터(302)는 컴퓨팅 디바이스의 물리적 또는 가상적 인스턴스, 또는 컴퓨팅 디바이스의 물리적 또는 가상적 인스턴스의 조합을 포함하는, 서버, 데스크탑 컴퓨터, 랩탑/노트북 컴퓨터, 무선 데이터 포트, 스마트 폰, PDA(personal data assistant), 태블릿 컴퓨터, 이들 디바이스 내의 하나 이상의 프로세서, 다른 컴퓨팅 디바이스, 또는 컴퓨팅 디바이스들의 조합과 같은 임의의 컴퓨팅 디바이스를 망라하는 것이 의도된다. 또한, 컴퓨터(302)는 키패드, 키보드, 터치 스크린, 다른 입력 디바이스, 또는 사용자 정보를 수용할 수 있는 입력 디바이스들의 조합과 같은 입력 디바이스와, 그래픽 사용자 인터페이스(UI)(GUI) 또는 다른 UI 상에 디지털 데이터, 비주얼, 오디오, 다른 유형의 정보, 또는 다양한 유형의 정보의 조합을 포함하는, 컴퓨터(302)의 동작과 연관된 정보를 전달하는 출력 디바이스를 포함할 수 있다.
컴퓨터(302)는 클라이언트, 네트워크 컴포넌트, 서버, 데이터베이스 또는 다른 지속성, 또 다른 역할, 또는 본 개시내용에서 설명한 요지를 수행하는 역할들의 조합으로서 분산형 컴퓨팅 시스템에서의 역할을 수행할 수 있다. 도시하는 컴퓨터(302)는 네트워크(330)와 통신 가능하게 결합된다. 일부 구현예에서, 컴퓨터(302)의 하나 이상의 컴포넌트는 클라우드 컴퓨팅 기반, 로컬, 글로벌, 또 다른 환경, 또는 환경들의 조합을 포함하는, 소정의 환경 내에서 동작하도록 구성될 수 있다.
상위 레벨에서, 컴퓨터(302)는 설명한 요지와 연관된 데이터 및 정보를 수신, 전송, 프로세싱, 저장 또는 관리하도록 동작하는 전자 컴퓨팅 디바이스이다. 일부 구현예에 따르면, 컴퓨터(302)는 또한 애플리케이션 서버, 이메일 서버, 웹 서버, 캐싱 서버, 스트리밍 데이터 서버, 다른 서버, 또는 서버들의 조합을 포함하는, 서버를 포함하거나 또는 서버와 통신 가능하게 결합될 수 있다.
컴퓨터(302)는 (예를 들어, 다른 컴퓨터(302)에서 실행중인 클라이언트 소프트웨어 애플리케이션으로부터) 네트워크(330)를 통해 요청을 수신하고, 소프트웨어 애플리케이션 또는 소프트웨어 애플리케이션의 조합을 사용하여, 수신된 요청을 프로세싱함으로써 수신된 요청에 응답할 수 있다. 또한, 요청은 내부 사용자로부터(예컨대, 커맨드 콘솔로부터 또는 다른 내부 액세스 방법에 의해), 외부 또는 제3자, 또는 다른 엔티티, 개인, 시스템, 또는 컴퓨터로부터 컴퓨터(302)로 전송될 수 있다.
컴퓨터(302)의 각 컴포넌트는 시스템 버스(303)를 사용하여 통신할 수 있다. 일부 구현예에서, 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합을 포함하는, 컴퓨터(302)의 임의의 또는 모든 컴포넌트는 애플리케이션 프로그래밍 인터페이스(API)(312), 서비스 계층(313), 또는 API(312)와 서비스 계층(313)의 조합을 사용하여 시스템 버스(303)를 통해 인터페이싱할 수 있다. API(312)는 루틴, 데이터 구조 및 객체 클래스에 대한 사양(specification)을 포함할 수 있다. API(312)는 컴퓨터-언어 독립형 또는 의존형일 수 있으며, 완전한 인터페이스, 단일 기능, 또는 심지어 API 세트를 지칭한다. 서비스 계층(313)은 컴퓨터(302)에, 또는 컴퓨터(302)에 통신 가능하게 결합된 다른 컴포넌트(도시 여부와 무관)에 소프트웨어 서비스를 제공한다. 컴퓨터(302)의 기능은 서비스 계층(313)을 사용하여 모든 서비스 소비자에 대해 액세스 가능할 수 있다. 서비스 계층(313)에 의해 제공되는 것과 같은 소프트웨어 서비스는 정의된 인터페이스를 통해 재사용 가능한 정의된 기능을 제공한다. 예를 들어, 인터페이스는 JAVA, C++, 다른 컴퓨팅 언어, 또는 XML(eXtensible Markup Language) 포맷, 다른 포맷, 또는 포맷들의 조합으로 데이터를 제공하는 컴퓨팅 언어의 조합으로 작성된 소프트웨어일 수 있다. 컴퓨터(302)의 통합 컴포넌트로서 도시되어 있지만, 다른 구현예는 API(312) 또는 서비스 계층(313)을, 컴퓨터(302)의 다른 컴포넌트와 관련하여 독립형 컴포넌트로서 또는 컴퓨터(302)에 통신 가능하게 결합되는 다른 컴포넌트(도시 여부와 무관)로서 나타낼 수 있다. 또한, API(312) 또는 서비스 계층(313)의 일부 또는 전부는 본 개시내용의 범위를 벗어나지 않고서, 다른 소프트웨어 모듈, 엔터프라이즈 애플리케이션, 또는 하드웨어 모듈의 차일드 또는 하위 모듈로서 구현될 수 있다.
컴퓨터(302)는 인터페이스(304)를 포함한다. 단일 인터페이스(304)로서 도시되어 있지만, 특정 요구, 바램, 또는 컴퓨터(302)의 특정 구현예에 따라 2개 이상의 인터페이스(304)가 사용될 수 있다. 인터페이스(304)는 컴퓨터(302)가, 분산형 환경의 네트워크(330)에 통신 가능하게 링크되는 다른 컴퓨팅 시스템(도시 여부와 무관)과 통신하는 데에 사용된다. 일반적으로, 인터페이스(304)는 네트워크(330)와 통신하도록 동작 가능하고, 소프트웨어, 하드웨어, 또는 소프트웨어와 하드웨어의 조합으로 인코딩된 로직을 포함한다. 보다 구체적으로, 인터페이스(304)가 통신과 연관된 하나 이상의 통신 프로토콜을 지원하는 소프트웨어를 포함하여 네트워크(330) 또는 인터페이스(304)의 하드웨어는 예시된 컴퓨터(302)의 내부 및 외부에서 물리적 신호를 전달하도록 동작할 수 있다.
컴퓨터(302)는 프로세서(305)를 포함한다. 단일 프로세서(305)로서 도시되어 있지만, 특정 요구, 바램, 또는 컴퓨터(302)의 특정 구현예에 따라 2개 이상의 프로세서(305)가 사용될 수 있다. 일반적으로, 프로세서(305)는 명령어를 실행하고 데이터를 조작하여 컴퓨터(302)의 동작 및 본 개시내용에서 설명한 임의의 알고리즘, 방법, 함수, 프로세스, 플로우 및 절차의 동작을 수행한다.
컴퓨터(302)는 또한 컴퓨터(302), 네트워크(330)(도시 여부와 무관)에 통신 가능하게 링크된 다른 컴포넌트, 또는 컴퓨터(302)와 다른 컴포넌트의 조합에 대한 데이터를 유지할 수 있는 데이터베이스(306)를 포함한다. 예를 들어, 데이터베이스(306)는 인-메모리, 통상의 유형, 또는 개시내용과 부합한 데이터를 저장하는 다른 유형의 데이터베이스일 수 있다. 일부 구현예에서, 데이터베이스(306)는 특정 요구, 바램, 또는 컴퓨터(302)의 특정 구현예 및 설명한 기능성에 따라 2개 이상의 상이한 데이터베이스 유형(예컨대, 하이브리드 메모리 및 통상의 데이터베이스)의 조합일 수 있다. 단일 데이터베이스(306)로서 도시되어 있지만, 특정 요구, 바램, 또는 컴퓨터(302)의 특정 구현예 및 설명한 기능성에 따라 유사하거나 상이한 유형의 2개 이상의 데이터베이스가 사용될 수 있다. 데이터베이스(306)가 컴퓨터(302)의 통합 컴포넌트로서 도시되어 있지만, 다른 구현예에서는, 데이터베이스(306)가 컴퓨터(302)의 외부에 있을 수도 있다.
컴퓨터(302)는 또한 컴퓨터(302), 네트워크(330)(도시 여부와 무관)에 통신 가능하게 링크된 다른 컴포넌트, 또는 컴퓨터(302)와 다른 컴포넌트의 조합에 대한 데이터를 유지할 수 있는 메모리(307)를 포함한다. 메모리(307)는 본 개시내용과 부합한 임의의 데이터를 저장할 수 있다. 일부 구현예에서, 메모리(307)는 특정 요구, 바램, 또는 컴퓨터(302)의 특정 구현예 및 설명한 기능성에 따라 2개 이상의 상이한 유형의 메모리의 조합(예컨대, 반도체 및 마그네틱 스토리지의 조합)일 수 있다. 단일 메모리(307)로서 도시되어 있지만, 특정 요구, 바램, 또는 컴퓨터(302)의 특정 구현예 및 설명한 기능성에 따라 유사하거나 상이한 유형의 2개 이상의 메모리(307)가 사용될 수 있다. 메모리(307)가 컴퓨터(302)의 통합 컴포넌트로서 도시되어 있지만, 다른 구현예에서는, 메모리(307)가 컴퓨터(302)의 외부에 있을 수도 있다.
애플리케이션(308)은 특히 본 개시내용에서 설명한 기능성과 관련하여, 특정 요구, 바램, 또는 컴퓨터(302)의 특정 구현예에 따른 기능성을 제공하는 알고리즘 소프트웨어 엔진이다. 예를 들어, 애플리케이션(308)은 하나 이상의 컴포넌트, 모듈, 또는 애플리케이션으로서 기능할 수 있다. 또한, 단일 애플리케이션(308)으로서 도시되고 있지만, 애플리케이션(308)은 컴퓨터(302) 상에 다중 애플리케이션(308)으로서 구현될 수도 있다. 또한, 컴퓨터(302)에 통합된 것으로서 도시되고 있지만, 다른 구현예에서는, 애플리케이션(308)이 컴퓨터(302) 외부에 있을 수도 있다.
컴퓨터(302)는 전원(314)도 포함할 수 있다. 전원(314)은 사용자 교체 가능형 또는 사용자 교체 불가능형으로 구성될 수 있는 재충전식 또는 비재충전식 배터리를 포함할 수 있다. 일부 구현예에서, 전원(314)은 전력 변환 또는 관리 회로(재충전, 대기, 또는 다른 전력 관리 기능을 포함함)를 포함할 수 있다. 일부 구현예에서, 전원(314)은 예컨대 컴퓨터(302)에 전력을 공급하거나 재충전식 배터리를 재충전하기 위해 컴퓨터(302)가 벽 소켓 또는 다른 전원에 플러그될 수 있게 하는 전원 플러그를 포함할 수 있다.
각각의 컴퓨터(302)가 네트워크(330)를 통해 통신하는, 컴퓨터(302)를 포함한 컴퓨터 시스템과 연관되거나 또는 외부에 있는, 임의의 수의 컴퓨터(302)가 존재할 수도 있다. 또한, 용어 "클라이언트", "사용자", 또는 다른 적절한 용어가 본 개시내용의 범위를 벗어나지 않고서 적절하게 상호 교환 가능하게 사용될 수 있다. 또한, 본 개시내용은 다수의 사용자들이 하나의 컴퓨터(302)를 사용할 수 있거나 한 사용자가 다수의 컴퓨터(302)를 사용할 수 있는 것을 고려한다.
설명한 요지의 구현예는 하나 이상의 특징을 단독으로 또는 조합하여 포함할 수 있다.
예를 들어, 제1 구현예에서, VR 디바이스는, 각각 카메라 렌즈 및 코를 위한 홈부(nose groove)를 수용하는 2개의 개구부를 포함하는 하우징과, 각각의 카메라 렌즈 주위에 분포되며, VR 디바이스 사용자의 하나 이상의 안구 생리 특징을 포착하기 위한 하나 이상의 카메라를 포함한다.
전술한 구현예 및 기타 설명한 구현예는 각각, 옵션으로, 이하의 특징 중 하나 이상을 포함하다.
이하의 특징 중 어느 하나와 조합 가능한 제1 특징으로서, 하나 이상의 안구 생리 특징은 홍채 특징 또는 안문 특징을 포함한다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제2 특징으로서, 하나 이상의 카메라에 광 보상(light compensation)을 제공하기 위한 하나 이상의 LED 광원을 더 포함한다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제2 특징으로서, 하나 이상의 LED 광원과 하나 이상의 카메라는 1 대 1 대응관계를 갖는다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제4 특징으로서, 하나 이상의 카메라는 적외선 카메라이고, 하나 이상의 LED 광원은 적외선 LED 광원이다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제5 특징으로서, 하나 이상의 카메라는 RGB 카메라이고, 하나 이상의 LED 광원은 RGB LED 광원이다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제6 특징으로서, 하나 이상의 카메라는 각각의 카메라 렌즈 주위에 균등하게 분포된다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제7 특징으로서, 카메라 렌즈는 매크로 렌즈이다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제8 특징으로서, 적어도 범용 직렬 버스(USB) 포트 또는 무선 칩을 포함하는 데이터 인터페이스를 더 포함한다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제9 특징으로서, 카메라 렌즈에 입사하는 광의 밝기를 감지하기 위한 광 센서를 더 포함한다.
제2 구현예에서, VR 시스템은, 각각 카메라 렌즈 및 코를 위한 홈부를 수용하는 2개의 개구부를 포함하는, VR 디바이스의 하우징과, 각각의 카메라 렌즈 주위에 분포되며, VR 디바이스 사용자의 하나 이상의 안구 생리 특징을 포착하기 위한 하나 이상의 카메라를 포함한다.
전술한 구현예 및 기타 설명한 구현예는 각각, 옵션으로, 이하의 특징 중 하나 이상을 포함하다.
이하의 특징 중 어느 하나와 조합 가능한 제1 특징으로서, 하나 이상의 안구 생리 특징은 홍채 특징 또는 안문 특징을 포함한다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제2 특징으로서, 하나 이상의 카메라에 광 보상을 제공하기 위한 하나 이상의 LED 광원을 더 포함한다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제2 특징으로서, 하나 이상의 LED 광원과 하나 이상의 카메라는 1 대 1 대응관계를 갖는다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제4 특징으로서, 하나 이상의 카메라는 적외선 카메라이고, 하나 이상의 LED 광원은 적외선 LED 광원이다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제5 특징으로서, 하나 이상의 카메라는 RGB 카메라이고, 하나 이상의 LED 광원은 RGB LED 광원이다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제6 특징으로서, 하나 이상의 카메라는 각각의 카메라 렌즈 주위에 균등하게 분포된다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제7 특징으로서, 카메라 렌즈는 매크로 렌즈이다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제8 특징으로서, 적어도 범용 직렬 버스(USB) 포트 또는 무선 칩을 포함하는 데이터 인터페이스를 더 포함한다.
앞의 또는 이하의 특징 중 어느 하나와 조합 가능한 제9 특징으로서, 카메라 렌즈에 입사하는 광의 밝기를 감지하기 위한 광 센서를 더 포함한다.
본 명세서에서 설명한 요지 및 기능 동작의 구현예는 디지털 전자 회로로, 유형적으로 구현된 컴퓨터 소프트웨어 또는 펌웨어로, 본 명세서에서 개시한 구조 및 이들의 구조적 균등물을 포함한, 컴퓨터 하드웨어로, 또는 이들 중 하나 이상의 조합으로 구현될 수 있다. 기술한 요지의 소프트웨어 구현예는 하나 이상의 컴퓨터 프로그램으로서, 즉 컴퓨터 또는 컴퓨터 구현 시스템에 의한 실행을 위해, 또는 컴퓨터 또는 컴퓨터 구현 시스템의 동작을 제어하기 위해, 유형의 비일시적 컴퓨터 판독 가능한 매체 상에 인코딩된 컴퓨터 프로그램 명령어의 하나 이상의 모듈로서 구현될 수 있다. 선택적으로, 또는 부가적으로, 프로그램 명령어는 인위적으로 생성된 전파된 신호, 예를 들어, 컴퓨터 또는 컴퓨터 구현 시스템에 의한 실행을 위해 수신기 장치에 전송할 정보를 인코딩하도록 생성되는 머신 생성 전기, 광, 또는 전자기 신호로/에 인코딩될 수 있다. 컴퓨터 저장 매체는 머신 판독 가능한 저장 디바이스, 머신 판독 가능한 저장 기판, 랜덤 또는 시리얼 액세스 메모리 디바이스, 또는 컴퓨터 저장 매체들의 조합일 수 있다. 하나 이상의 컴퓨터를 구성하는 것은, 하나 이상의 컴퓨터가 소프트웨어를 실행할 때 특정 컴퓨팅 동작이 수행되도록, 하나 이상의 컴퓨터에 하드웨어, 펌웨어 또는 소프트웨어(또는 하드웨어, 펌웨어 및 소프트웨어의 조합)가 설치되는 것을 의미한다.
"실-시간(real-time)", "실 시간(real time)", "실시간(realtime)", "실 (고속) 시간(RFT, real (fast) time )", "거의 실시간(NRT)", "준 실시간" 또는 유사한 용어(당업자가 이해하는 대로)는 행동과 반응이 시간적으로 근접하여 개인이 행동과 반응을 실질적으로 동시에 일어나는 것으로 인지하는 것을 의미한다. 예를 들어, 데이터에 액세스하기 위한 개인의 행동에 후속하여 데이터의 디스플레이 응답에 걸리는(또는 디스플레이의 개시에 걸리는) 시간차는 1 밀리초(ms) 미만, 1 초(s) 미만, 또는 5 s 미만일 수 있다. 요청된 데이터는 즉각 디스플레이(또는 디스플레이 개시)될 필요는 없지만, 기술한 컴퓨팅 시스템의 프로세싱 한계 및 예컨대 데이터를 수집, 정확하게 측정, 분석, 프로세싱, 저장, 또는 전송하는데 필요한 시간을 고려하여, 임의의 의도적인 지연 없이 디스플레이된다(디스플레이 개시된다).
용어 "데이터 프로세싱 장치", "컴퓨터" 또는 "전자 컴퓨터 디바이스"(또는 당업자가 이해하는 것과 동등한 용어)는 데이터 프로세싱 하드웨어를 지칭하며, 예컨대 프로그래머블 프로세서, 컴퓨터, 또는 다중 프로세서 또는 컴퓨터를 포함한, 데이터 프로세싱을 위한 모든 종류의 장치, 디바이스, 및 머신을 망라한다. 컴퓨터는 또한, 예컨대 중앙 처리 장치(CPU), 필드 프로그래머블 게이트 어레이(FPGA) 또는 주문형 집적 회로(ASIC)와 같은 특수 목적 로직 회로일 수도 또는 이들을 더 포함할 수도 있다. 일부 구현예에서, 컴퓨터 또는 컴퓨터 구현 시스템, 또는 특수 목적 로직 회로(또는 컴퓨터 또는 컴퓨터 구현 시스템 및 특수 목적 로직 회로의 조합)는 하드웨어 기반 또는 소프트웨어 기반(또는 하드웨어 및 소프트웨어 둘 다의 조합 기반)일 수 있다. 컴퓨터는 옵션으로, 예컨대 프로세서 펌웨어, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제, 또는 실행 환경들의 조합을 구성하는 코드와 같은, 컴퓨터 프로그램의 실행 환경을 생성하는 코드를 포함할 수 있다. 본 개시내용은 예컨대 LINUX, UNIX, WINDOWS, MAC OS, ANDROID, IOS, 다른 운영 체제, 또는 운영 체제들의 조합과 같은 어떤 유형의 운영 체제를 갖는 컴퓨터 또는 컴퓨터 구현 시스템의 사용을 고려한다.
프로그램, 소프트웨어, 소프트웨어 애플리케이션, 유닛, 모듈, 소프트웨어 모듈, 스크립트, 코드, 또는 컴포넌트로서 기술되거나 지칭되는 컴퓨터 프로그램은, 컴파일링된 언어나 인터프리팅된 언어, 선언적 또는 절차적 언어를 포함한 임의의 형태의 프로그래밍 언어로 작성될 수 있고, 컴퓨팅 환경에서 사용하기에 적합한, 예컨대 스탠드얼론 프로그램, 모듈, 컴포넌트, 또는 서브루틴을 포함하는 임의의 형태로 디플로이(deploy)될 수 있다. 컴퓨터 프로그램은, 그렇지 않아도 되지만, 파일 시스템 내의 파일에 대응할 수도 있다. 프로그램은 다른 프로그램이나 데이터, 예컨대, 마크업 언어 문서에 저장된 하나 이상의 스크립트를 유지하는 파일의 일부로, 문제의 프로그램에 전용된 단일 파일로, 또는 여러 개의 조정 파일, 예컨대, 하나 이상의 모듈, 서브프로그램, 또는 코드의 일부를 저장한 파일로 저장될 수 있다. 컴퓨터 프로그램은 한 컴퓨터 상에서 또는 한 장소에 배치되거나 여러 장소에 분산되어 통신 네트워크로 상호 접속된 여러 개의 컴퓨터 상에서 실행되도록 디플로이될 수 있다.
다양한 도면에 도시한 프로그램의 부분들은 다양한 객체, 방법, 또는 다른 프로세스를 사용하여 설명된 특징 및 기능성을 구현하는, 유닛 또는 모듈과 같은 개별 컴포넌트로서 예시되었지만, 프로그램은 대신에 다수의 서브유닛 , 하위모듈, 서드파티 서비스, 컴포넌트, 라이브러리, 및 기타 컴포넌트를 적절하게 포함할 수도 있다. 반대로, 다양한 컴포넌트의 특징 및 기능성이 단일 컴포넌트로 적절하게 조합될 수도 있다. 연산적 결정을 행하는데 사용되는 문턱값은 정적으로, 동적으로, 또는 정적 및 동적 양쪽으로 결정될 수 있다.
설명한 방법, 프로세스, 또는 논리 흐름은 본 개시내용과 부합한 기능성의 하나 이상의 예를 나타내며, 개시내용을 설명 또는 예시한 구현예로 제한하는 것이 아니라 설명한 원리 및 특징에 부합하는 가장 넓은 범위를 부여하려는 것이다. 설명한 방법, 프로세스, 또는 논리 흐름은, 입력 데이터를 연산하고 출력 데이터를 생성함으로써 기능을 수행하기 위해 하나 이상의 컴퓨터 프로그램을 실행하는 하나 이상의 프로그래머블 컴퓨터에 의해 수행될 수 있다. 방법, 프로세스 또는 논리 흐름은 또한 CPU, FPGA 또는 ASIC과 같은 특수 목적 로직 회로에 의해 수행될 수 있으며, 컴퓨터는 또한 특수 목적 로직 회로로서 구현될 수 있다.
컴퓨터 프로그램을 실행하기 위한 컴퓨터는 일반 또는 특수 목적 마이크로프로세서, 이들 둘 다, 또는 다른 유형의 CPU를 기반으로 할 수 있다. 일반적으로, CPU는 메모리에 대해 명령어 및 데이터를 수신하고 기록할 것이다. 컴퓨터의 필수 엘리먼트는 명령어를 수행 또는 실행하는 CPU와, 명령어 및 데이터를 저장하는 하나 이상의 메모리 디바이스이다. 일반적으로, 컴퓨터는 데이터를 저장하는, 예컨대 자기, 자기광 디스크, 또는 광 디스크와 같은, 하나 이상의 대용량 저장 디바이스를 포함할 것이고, 또는 이들로부터 데이터를 수신하거나 이들에 데이터를 전송하거나, 또는 이 두 가지를 모두 행하기 위해 이들에 동작 가능하게 결합될 것이다. 그러나, 컴퓨터가 이러한 디바이스를 구비할 필요는 없다. 또한, 컴퓨터는 다른 디바이스, 예를 들어 모바일 전화기, 개인용 디지털 어시스턴트(PDA), 모바일 오디오 또는 비디오 플레이어, 게임 콘솔, GPS(Global Positioning System) 수신기, 또는 휴대용 메모리 저장 디바이스에 내장될 수도 있다.
컴퓨터 프로그램 명령어 및 데이터를 저장하는 비일시적 컴퓨터 판독 가능한 매체는, 모든 형태의 영구적/비영구적 또는 휘발성/비휘발성 메모리, 매체 및 메모리 디바이스를 포함할 수 있으며, 그 예는 반도체 메모리 디바이스, 예컨대 랜덤 액세스 메모리(RAM), 리드 온리 메모리(ROM), 페이즈 체인지 메모리(PRAM), 스태틱 랜덤 액세스 메모리(SRAM), 다이내믹 랜덤 액세스 메모리(DRAM), EPROM(erasable programmable read-only memory), EEPROM(electrically EPROM), 및 플래시 메모리 디바이스; 자기 디바이스, 예컨대 테이프, 카트리지, 카세트, 장착식/착탈식 디스크; 자기광 디스크; 및 광 메모리 디바이스, 예컨대 DVD(digital versatile/video disc), 컴팩트 디스크(CD)-ROM, DVD+/-R, DVD-RAM, DVD-ROM, HD(high-definition/density)-DVD, 및 블루레이/블루레이 디스크(BD), 및 기타 광 메모리 기술을 포함한다. 메모리는 캐시, 클래스, 프레임워크, 애플리케이션, 모듈, 백업 데이터, 잡(job), 웹 페이지, 웹 페이지 템플릿, 데이터 구조, 데이터베이스 테이블, 동적 정보를 저장하는 저장소, 또는 임의의 파라미터, 변수, 알고리즘, 명령어, 규칙, 제약, 또는 참조를 비롯한 기타 적절한 정보를 포함하는, 다양한 객체 또는 데이터를 저장할 수 있다. 또한, 메모리는 로그, 정책, 보안, 또는 액세스 데이터 등의 기타 적절한 데이터, 또는 리포팅 파일을 포함할 수 있다. 프로세서 및 메모리는 특수 목적 로직 회로에 의해 보완될 수도 또는 그 내부에 통합될 수도 있다.
사용자와의 인터랙션을 제공하기 위해, 본 명세서에 설명한 요지의 구현예는 사용자에게 정보를 디스플레이하는, 예컨대 음극선관(CRT) 또는 액정 디스플레이(LCD) 모니터, 발광 다이오드(LED), 또는 플라즈마 모니터와 같은 디스플레이 디바이스와, 사용자가 컴퓨터에 입력을 제공하는데 쓰이는, 키보드와, 예컨대 마우스, 트랙볼, 또는 트랙패드 등의 포인팅 디바이스를 구비한 컴퓨터 상에서 구현될 수 있다. 압력 감지 기능이 있는 태블릿 컴퓨터 표면, 용량성 또는 전기적 감지를 사용하는 멀티터치 스크린, 또는 다른 유형의 터치스크린과 같은 터치스크린을 사용하여 입력을 컴퓨터에 제공할 수도 있다. 다른 유형의 디바이스도 사용자와의 인터랙션에 사용될 수 있다. 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 감각 피드백(시각, 청각, 촉각, 또는 피드백 유형의 조합)일 수 있다. 사용자로부터의 입력은 음향적, 언어적(speech), 또는 촉각적 입력을 포함한 임의의 형태로 수신될 수 있다. 또한, 컴퓨터는 사용자가 사용하는 클라이언트 컴퓨팅 디바이스와 문서를 주고 받음으로써(예를 들면 웹 브라우저로부터 수신된 요청에 응답하여 사용자의 모바일 컴퓨팅 디바이스 상의 웹 브라우저에 웹 페이지를 전송함으로써), 사용자와 인터랙션할 수 있다.
용어 "그래픽 사용자 인터페이스" 또는 "GUI"는 하나 이상의 그래픽 사용자 인터페이스 및 특정 그래픽 사용자 인터페이스의 각각의 디스플레이를 설명하기 위해 단수 또는 복수로 사용될 수 있다. 따라서, GUI는 정보를 처리하고 정보 결과를 사용자에게 효율적으로 제공하는, 웹 브라우저, 터치 스크린 또는 커맨드 라인 인터페이스(CLI)를 포함하나 이에 한정되지 않는 모든 그래픽 사용자 인터페이스를 대표할 수 있다. 일반적으로, GUI는, 일부 또는 전부가 인터랙티브 필드, 풀다운 리스트, 및 버튼과 같은 웹 브라우저와 연관되어 있는 다수의 사용자 인터페이스(UI) 엘리먼트를 포함할 수 있다. 이러한 UI 엘리먼트 및 기타 UI 엘리먼트는 웹 브라우저의 기능과 관련되거나 웹 브라우저의 기능을 나타낼 수 있다.
본 명세서에 설명한 요지의 구현예는, 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 애플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에 기술된 요지의 구현예와 인터랙트할 수 있게 하는 웹 브라우저 또는 그래픽 사용자 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트를 포함하는 컴퓨팅 시스템으로, 또는 하나 이상의 이러한 백엔드, 미들웨어, 또는 프런트엔드 컴포넌트의 임의의 조합으로 구현될 수 있다. 시스템의 컴포넌트는 유선 또는 무선 디지털 데이터 통신(또는 데이터 통신의 조합)의 임의의 형태 또는 매체, 예컨대 통신 네트워크에 의해 상호 접속될 수 있다. 통신 네트워크의 예는, 예를 들어 802.11 a/b/g/n 또는 802.20(또는 802.11x와 802.20의 조합 또는 본 개시내용과 부합하는 다른 프로토콜)을 이용하는, LAN(Local Area Network), RAN(Radio Access Network), MAN(Metropolitan Area Network), WAN(Wide Area Network), WIMAX(Worldwide Interoperability for Microwave Access), 인터넷의 일부 또는 전부, 다른 통신 네트워크, 또는 통신 네트워크들의 조합을 포함한다. 통신 네트워크는 네트워크 노드 사이에서, 예를 들어 인터넷 프로토콜(IP) 패킷, 프레임 릴레이 프레임, 비동기 전송 모드(ATM) 셀, 음성, 비디오, 데이터, 또는 기타 정보를 전달할 수 있다.
컴퓨팅 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 원격 배치되며, 통상 통신 네트워크를 통해 인터랙션한다. 클라이언트와 서버의 관계는, 각각의 컴퓨터에서 실행되고 서로 클라이언트-서버 관계를 갖는 컴퓨터 프로그램의 덕택에 생긴다.
본 명세서는 다수의 특정 구현 세부사항을 포함하지만, 이들은 임의의 발명의 범위 또는 청구범위에 대한 제한으로 해석되어서는 안 되며, 특정 발명의 특정 구현예에 특정될 수 있는 특징의 설명으로 해석되어야 한다. 본 명세서에서 별개 구현예의 문맥에서 설명한 소정의 특징은 또한 단일 구현예에서 조합으로 구현될 수도 있다. 반대로, 단일 구현예의 문맥에서 설명한 다양한 특징도 다중 구현예에서 개별적으로 또는 임의의 하위조합으로 구현될 수 있다. 또한, 전술한 특징들이 특정 조합에 작용한다고 기술될 수 있고, 심지어 이렇게 최초로 청구될 수도 있지만, 청구된 조합으로부터의 하나 이상의 특징은 경우에 따라 그 조합에서 제거될 수도 있고, 청구된 조합은 하위조합 또는 하위조합의 변형에 관한 것일 수도 있다.
요지의 특정 구현예들이 설명되었다. 기술한 구현예의 다른 구현, 변경 및 치환은 당업자에게는 명백한 다음의 청구범위의 범주 내에 있다. 도면 또는 청구범위에는 동작이 특정 순서로 도시되어 있지만, 바람직한 결과를 달성하기 위해서, 이러한 동작이 도시된 특정 순서 또는 순차적 순서로 수행되어야 한다는 것이거나 도시된 모든 동작이 수행되어야 한다는 것(일부 동작은 옵션으로 간주될 수도 있음)을 요구하는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 또는 병렬 프로세싱(또는 멀티태스킹과 병렬 프로세싱의 조합)이 유리하며, 적절하게 수행될 수 있다.
또한, 전술한 구현예들에서의 다양한 시스템 모듈 및 컴포넌트의 분리 또는 통합은, 모든 구현예에서 이러한 분리 또는 통합을 요구하는 것으로 이해되어서는 안 되며, 기술한 프로그램 컴포넌트 및 시스템은 일반적으로 단일 소프트웨어 제품으로 또는 여러 소프트웨어 제품에의 패키지로 함께 통합될 수 있음을 이해하여야 한다.
따라서, 전술한 구현예들은 본 개시내용을 정의하거나 제한하지 않는다. 본 개시내용의 사상 및 범위를 벗어나지 않으면서 다른 변경, 대체 및 변형도 가능하다.
또한, 어떤 청구 구현예는, 적어도 컴퓨터 구현 방법에; 컴퓨터 구현 방법을 수행하기 위한 컴퓨터 판독 가능한 명령어를 저장한 컴퓨터 판독 가능한 매체에; 그리고 컴퓨터 구현 방법/비일시적 컴퓨터 판독 가능한 매체 상에 저장된 명령어를 수행하도록 구성된 하드웨어 프로세서와 상호 동작 가능하게 결합된 컴퓨터 메모리를 포함하는 컴퓨터 구현 시스템에 적용 가능한 것으로 고려된다.
Claims (20)
- 가상 현실 디바이스에 있어서,
ⅰ) 2개의 카메라 렌즈를 대응하여 수용하는 2개의 개구부 및 ⅱ) 코를 위한 홈부(nose groove)를 포함하는 하우징으로서, 상기 2 개의 개구부는 가상 현실 디바이스 사용자의 눈의 상대적 위치에 대응하는 것인, 상기 하우징과,
상기 2개의 카메라 렌즈 각각의 주위에 균등하게 분포되며, 복수의 방향으로부터 상기 가상 현실 디바이스 사용자의 눈의 이미지를 포착함으로써 상기 가상 현실 디바이스 사용자의 하나 이상의 안구 생리 특징(eye physiological characteristic)을 포착하기 위한 카메라
를 포함하고,
상기 2개의 카메라 렌즈는 상기 하나 이상의 안구 생리 특징을 포착할 때에 상기 가상 현실 디바이스 사용자의 눈에 카메라의 초점을 조정하기 위한 매크로 렌즈이고,
상기 가상 현실 디바이스는,
서비스 계정 등록 중에 하나 이상의 안구 생리 특징 샘플을 획득하고,
오프라인 생체 인증을 제공하기 위해 상기 가상 현실 디바이스에 상기 하나 이상의 안구 생리 특징 샘플을 로컬로(locally) 저장하고,
가상 현실 시나리오에서 랜더링되는 하나 이상의 가상 요소들과 연관된 상기 가상 현실 디바이스 사용자의 하나 이상의 사용자 인터랙션(user interaction)을 식별하고,
상기 하나 이상의 사용자 인터랙션이 하나 이상의 미리 결정된 동작에 매칭된다고 결정하고,
상기 결정에 대응하여, 상기 가상 현실 시나리오에서 선택된 하나 이상의 아이템의 결제 금액을 결정하고,
상기 결제 금액이 미리 설정된 금액보다 크다고 결정하고,
상기 결제 금액이 상기 미리 설정된 금액보다 크다고 결정한 것에 대응하여, 상기 가상 현실 디바이스 사용자의 상기 하나 이상의 안구 생리 특징을 획득함으로써 상기 오프라인 생체 인증을 호출하고,
상기 하나 이상의 안구 생리 특징을 상기 가상 현실 디바이스에 저장된 상기 하나 이상의 안구 생리 특징 샘플과 비교하고,
상기 하나 이상의 안구 생리 특징이 상기 가상 현실 디바이스에 저장된 상기 하나 이상의 안구 생리 특징 샘플의 적어도 일부에 매칭된다고 결정하는 것에 대응하여, 상기 가상 현실 디바이스 사용자를 인증하도록 구성되는 것인, 가상 현실 디바이스. - 삭제
- 제1항에 있어서, 상기 2개의 카메라 렌즈는 상기 카메라와 상기 가상 현실 디바이스 사용자의 눈 사이에 위치하는 것인, 가상 현실 디바이스.
- 제1항에 있어서, 상기 하나 이상의 안구 생리 특징은 공막 조직(sclera texture)을 포함하는, 가상 현실 디바이스.
- 제1항에 있어서, 상기 카메라에 광 보상(light compensation)을 제공하기 위한 하나 이상의 발광 다이오드 광원을 더 포함하는, 가상 현실 디바이스.
- 제5항에 있어서, 상기 하나 이상의 발광 다이오드 광원과 상기 카메라는 1 대 1 대응관계를 갖는, 가상 현실 디바이스.
- 제5항에 있어서, 상기 카메라는 적외선 카메라이고, 상기 하나 이상의 발광 다이오드 광원은 적외선 발광 다이오드 광원이며, 상기 안구 생리 특징은 홍채 특징이고, 상기 하나 이상의 발광 다이오드 광원은 상기 적외선 카메라에 대해 1 대 1 광 보상을 제공하도록 구성되는, 가상 현실 디바이스.
- 제5항에 있어서, 상기 카메라는 RGB 카메라이고, 상기 하나 이상의 발광 다이오드 광원은 RGB 발광 다이오드 광원이며, 상기 카메라는 상기 가상 현실 디바이스 사용자의 안문 특징을 수집하도록 구성되고, 상기 발광 다이오드 광원은 상기 RGB 카메라의 광에 대해 1 대 1 광 보상을 하도록 구성되는, 가상 현실 디바이스.
- 제1항에 있어서,
적어도 범용 직렬 버스 포트 또는 무선 칩을 포함하는 데이터 인터페이스를 더 포함하고, 상기 데이터 인터페이스는 외부의 사용자 컴퓨팅 디바이스에 전기적으로 또는 무선으로 접속 가능한, 가상 현실 디바이스. - 제9항에 있어서, 상기 가상 현실 디바이스는 사용자 신원 인증을 위해 상기 데이터 인터페이스를 통해 서버와 통신하도록 구성되며, 상기 가상 현실 디바이스는 수집된 안구 생리 특징 샘플을 유선 또는 무선 접속을 통해 상기 서버에 송신하도록 구성되는, 가상 현실 디바이스.
- 제10항에 있어서, 상기 가상 현실 디바이스는,
온라인 인증을 제공하기 위해 상기 하나 이상의 안구 생리 특징 샘플을 상기 서버에 전송하도록
구성되는, 가상 현실 디바이스. - 제11항에 있어서, 상기 가상 현실 디바이스는 상기 서버에 생체 인식 요청을 생성하도록 구성되며, 상기 생체 인식 요청은 상기 가상 현실 디바이스 사용자의 사용자 정보 또는 서비스 계정 정보 및 상기 하나 이상의 안구 생리 특징을 포함하는, 가상 현실 디바이스.
- 제1항에 있어서, 상기 2개의 카메라 렌즈에 입사하는 광의 밝기(brightness)를 검출하도록 구성된 광 센서를 더 포함하는, 가상 현실 디바이스.
- 가상 현실 시나리오에서 안구 생리 특징에 기초하여 사용자 신원 인증을 수행하는 방법에 있어서, 상기 방법은 제1항 및 제3항 내지 제13항 중 어느 한 항에 따른 가상 현실 디바이스에 적용되고, 상기 방법은,
가상 현실 애플리케이션의 상기 가상 현실 시나리오에서 서비스 서버에 의해 수행되는 서비스를 시작하기 위해 가상 현실 디바이스 사용자로부터 하나 이상의 사용자 인터랙션(user interaction)을 검출하는 단계로서, 상기 서비스는 사용자 신원 인증을 필요로 하는 것인, 상기 하나 이상의 사용자 인터랙션 검출 단계와,
사용자 신원 인증을 위해 상기 가상 현실 디바이스 사용자의 하나 이상의 안구 생리 특징을 획득하는 단계와,
상기 서비스가 시작된 후에, 상기 사용자 신원 인증을 위해 상기 가상 현실 디바이스에 의해 상기 가상 현실 시나리오에 사용자 인터페이스를 제시하는(presenting) 단계와,
상기 하나 이상의 안구 생리 특징을 하나 이상의 미리 저장된 안구 생리 특징 샘플과 비교하는 단계와,
상기 하나 이상의 안구 생리 특징이 상기 하나 이상의 미리 저장된 안구 생리 특징 샘플의 적어도 일부와 매칭될 때에 상기 가상 현실 디바이스 사용자를 인증하는 단계와,
상기 인증이 성공적인 경우, 상기 가상 현실 디바이스에 의해, 상기 서비스 서버와의 추가 인터랙션을 수행하고 상기 서비스를 수행하기 위해 상기 서비스에 대응하는 서비스 인터페이스를 제시하는 단계
를 포함하고,
상기 가상 현실 디바이스는 제1항 및 제3항 내지 제13항 중 어느 한 항에 따른 것인, 사용자 신원 인증을 수행하는 방법. - 제14항에 있어서, 상기 하나 이상의 사용자 인터랙션을 검출하는 단계 이전에, 상기 가상 현실 애플리케이션은 상기 가상 현실 디바이스 사용자에게 3D 경험을 제공하기 위해 상기 가상 현실 디바이스를 통해 상기 가상 현실 시나리오를 렌더링하도록 구성되는, 사용자 신원 인증을 수행하는 방법.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201621293788.0U CN206301289U (zh) | 2016-11-29 | 2016-11-29 | Vr终端设备 |
CN201621293788.0 | 2016-11-29 | ||
US15/819,034 US20180150690A1 (en) | 2016-11-29 | 2017-11-21 | Virtual reality device using eye physiological characteristics for user identity authentication |
US15/819,034 | 2017-11-21 | ||
PCT/US2017/063223 WO2018102245A1 (en) | 2016-11-29 | 2017-11-27 | Virtual reality device using eye physiological characteristics for user identity authentication |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190089912A KR20190089912A (ko) | 2019-07-31 |
KR102399906B1 true KR102399906B1 (ko) | 2022-05-18 |
Family
ID=59212948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197017171A KR102399906B1 (ko) | 2016-11-29 | 2017-11-27 | 사용자 신원 인증을 위해 안구 생리 특징을 사용하는 가상 현실 디바이스 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20180150690A1 (ko) |
EP (1) | EP3549062A4 (ko) |
JP (1) | JP7065867B2 (ko) |
KR (1) | KR102399906B1 (ko) |
CN (1) | CN206301289U (ko) |
PH (1) | PH12019501189A1 (ko) |
TW (1) | TWM556170U (ko) |
WO (1) | WO2018102245A1 (ko) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066079A (zh) | 2016-11-29 | 2017-08-18 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的业务实现方法及装置 |
CN107122642A (zh) | 2017-03-15 | 2017-09-01 | 阿里巴巴集团控股有限公司 | 基于虚拟现实环境的身份认证方法及装置 |
US11595381B2 (en) * | 2017-08-23 | 2023-02-28 | Visa International Service Association | Secure authorization for access to private data in virtual reality |
CN109426713B (zh) * | 2017-08-28 | 2022-05-24 | 关楗股份有限公司 | 用于身份核实系统中的造假生物特征过滤装置 |
CN109725418B (zh) | 2017-10-30 | 2020-10-16 | 华为技术有限公司 | 显示设备、用于调整显示设备的图像呈现的方法及装置 |
CN109815778A (zh) * | 2017-11-20 | 2019-05-28 | 上海真曦通信技术有限公司 | 一种基于眼部特征的身份识别电子系统 |
CN109002796B (zh) * | 2018-07-16 | 2020-08-04 | 阿里巴巴集团控股有限公司 | 一种图像采集方法、装置和系统以及电子设备 |
US11137608B2 (en) | 2019-09-25 | 2021-10-05 | Electronics And Telecommunications Research Institute | Slim immersive display device, slim visualization device, and user eye-tracking device |
US11686927B2 (en) | 2020-08-26 | 2023-06-27 | Electronics And Telecommunications Research Institute | Slim immersive display device and slim visualization device |
US12003273B2 (en) * | 2021-12-20 | 2024-06-04 | Microsoft Technology Licensing, Llc | Secure element authentication using over the air optical communication |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016183020A1 (en) * | 2015-05-11 | 2016-11-17 | Magic Leap, Inc. | Devices, methods and systems for biometric user recognition utilizing neural networks |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2317528B (en) * | 1995-12-04 | 1998-09-02 | Sharp Kk | Image display device |
JP2004337348A (ja) * | 2003-05-15 | 2004-12-02 | New Opto Corp | 眼球運動解析システム |
KR20060038020A (ko) * | 2004-10-29 | 2006-05-03 | 신성복 | 광거리 센서를 이용한 홍채영상 획득장치 |
JP5537008B2 (ja) * | 2007-11-29 | 2014-07-02 | 株式会社東芝 | 外観検査装置 |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US9690099B2 (en) * | 2010-12-17 | 2017-06-27 | Microsoft Technology Licensing, Llc | Optimized focal area for augmented reality displays |
EP2499964B1 (en) * | 2011-03-18 | 2015-04-15 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Optical measuring device and system |
US8756680B2 (en) * | 2011-08-02 | 2014-06-17 | Corning Incorporated | Biometric-enabled smart card |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
KR101471488B1 (ko) * | 2012-03-23 | 2014-12-10 | 경북대학교 산학협력단 | 시선 추적 장치 및 방법 |
WO2015066332A1 (en) * | 2013-10-30 | 2015-05-07 | Technology Against Als | Communication and control system and method |
DK3075150T3 (da) * | 2013-11-25 | 2022-09-12 | Tesseland Llc | Immersive kompakte displayglas |
WO2016018488A2 (en) * | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
EP3234920A4 (en) * | 2014-12-23 | 2017-10-25 | Meta Company | Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest |
US9779512B2 (en) * | 2015-01-29 | 2017-10-03 | Microsoft Technology Licensing, Llc | Automatic generation of virtual materials from real-world materials |
CA2984455C (en) * | 2015-05-14 | 2022-02-08 | Magic Leap, Inc. | Augmented reality systems and methods for tracking biometric data |
WO2016187477A1 (en) * | 2015-05-20 | 2016-11-24 | Daqri, Llc | Virtual personification for augmented reality system |
US10315371B2 (en) * | 2016-07-28 | 2019-06-11 | Microsoft Technology Licensing, Llc | Multiphase optical grating |
-
2016
- 2016-11-29 CN CN201621293788.0U patent/CN206301289U/zh active Active
-
2017
- 2017-08-09 TW TW106211764U patent/TWM556170U/zh unknown
- 2017-11-21 US US15/819,034 patent/US20180150690A1/en not_active Abandoned
- 2017-11-27 WO PCT/US2017/063223 patent/WO2018102245A1/en active Search and Examination
- 2017-11-27 EP EP17877053.3A patent/EP3549062A4/en not_active Ceased
- 2017-11-27 JP JP2019548527A patent/JP7065867B2/ja active Active
- 2017-11-27 KR KR1020197017171A patent/KR102399906B1/ko active IP Right Grant
-
2019
- 2019-05-29 PH PH12019501189A patent/PH12019501189A1/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016183020A1 (en) * | 2015-05-11 | 2016-11-17 | Magic Leap, Inc. | Devices, methods and systems for biometric user recognition utilizing neural networks |
Also Published As
Publication number | Publication date |
---|---|
CN206301289U (zh) | 2017-07-04 |
EP3549062A4 (en) | 2020-01-01 |
TWM556170U (zh) | 2018-03-01 |
JP2020515949A (ja) | 2020-05-28 |
EP3549062A1 (en) | 2019-10-09 |
KR20190089912A (ko) | 2019-07-31 |
WO2018102245A1 (en) | 2018-06-07 |
PH12019501189A1 (en) | 2019-07-29 |
US20180150690A1 (en) | 2018-05-31 |
JP7065867B2 (ja) | 2022-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102399906B1 (ko) | 사용자 신원 인증을 위해 안구 생리 특징을 사용하는 가상 현실 디바이스 | |
KR102179935B1 (ko) | 가상 현실에 기초한 서비스 제어 및 사용자 신원 인증 | |
JP6869365B2 (ja) | 仮想現実に基づいたサービス制御およびユーザ識別認証 | |
KR102220084B1 (ko) | 가상 현실을 사용한 사용자 신원 인증 | |
US10242364B2 (en) | Image analysis for user authentication | |
KR102151897B1 (ko) | 가상 현실 신원 검증 | |
US8462997B2 (en) | User-specific attribute customization | |
US10942369B2 (en) | Smart contact lens control system | |
US9576135B1 (en) | Profiling user behavior through biometric identifiers | |
US10348725B2 (en) | Method of instant sharing invoked from wearable devices | |
US20210141892A1 (en) | System and method for user authentication | |
JP2022547998A (ja) | 対話システムのセマンティックパーサを訓練するための敵対的生成ネットワークの使用 | |
US20220197989A1 (en) | Gamification-based multi-factor authentication |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |