KR20230092834A - Eye tracking using self-mixing interferometry - Google Patents
Eye tracking using self-mixing interferometry Download PDFInfo
- Publication number
- KR20230092834A KR20230092834A KR1020230018663A KR20230018663A KR20230092834A KR 20230092834 A KR20230092834 A KR 20230092834A KR 1020230018663 A KR1020230018663 A KR 1020230018663A KR 20230018663 A KR20230018663 A KR 20230018663A KR 20230092834 A KR20230092834 A KR 20230092834A
- Authority
- KR
- South Korea
- Prior art keywords
- smi
- eye
- sensors
- processor
- beams
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
Abstract
눈 추적 디바이스는 머리-장착가능 프레임, 머리-장착가능 프레임에 장착된 광학 센서 서브시스템, 및 프로세서를 포함한다. 광학 센서 서브시스템은 하나 이상의 SMI 센서들의 세트를 포함한다. 프로세서는 광학 센서 서브시스템을 동작시켜 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고; 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하고; 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 움직임을 추적하도록 구성된다.An eye tracking device includes a head-mountable frame, an optical sensor subsystem mounted to the head-mountable frame, and a processor. The optical sensor subsystem includes a set of one or more SMI sensors. The processor operates an optical sensor subsystem to cause a set of one or more SMI sensors to emit a set of one or more beams of light toward an eye of a user; receive a set of one or more SMI signals from a set of one or more SMI sensors; and track eye movement using a set of one or more SMI signals.
Description
관련 출원에 대한 상호 참조CROSS REFERENCES TO RELATED APPLICATIONS
본 출원은 정규출원이고, 2021년 9월 22일자로 출원된, 미국 가특허 출원 제63/247,188호의 35 U.S.C. §119(e) 하의 이익을 주장하며, 그 내용은 본 명세서에 참고로서 포함된다.[0001] This application is a non-provisional application and claims 35 U.S.C. The benefit under §119(e) is claimed, the contents of which are incorporated herein by reference.
기술분야technology field
설명된 실시예들은 일반적으로 광학 감지에 관한 것으로, 더 구체적으로는, 광학 센서들을 이용하여 눈 움직임을 추적하는 것에 관한 것이다.The described embodiments relate generally to optical sensing, and more specifically to eye movement tracking using optical sensors.
눈 모니터링 기술들은 근안 디스플레이(예컨대, 머리-장착형 디스플레이(HMD)), 증강 현실(AR) 시스템들, 가상 현실(VR) 시스템들 등을 개선하는 데 사용될 수 있다. 예를 들어, 또한 시선 위치 추적으로 알려진 시선 벡터 추적이 디스플레이 중심와(fovea) 렌더링 또는 인간-컴퓨터 상호작용을 위한 입력으로서 사용될 수 있다. 종래의 눈 모니터링 기술들은 카메라-기반 또는 비디오-기반이고, 눈의 능동적인 조명, 눈 이미지 획득, 및 동공 중심 및 각막 반사와 같은 눈 특징부들의 추출에 의존한다. 이러한 눈 모니터링 기술들의 전력 소모, 폼 팩터, 계산 비용, 및 레이턴시는 더 사용자-친화적 차세대 HMD, AR, 및 VR 시스템들(예컨대, 더 가볍고, 배터리-작동방식이고, 더 완벽한 기능을 갖춘 시스템들)에 대해 상당한 부담일 수 있다.Eye monitoring technologies may be used to improve near eye displays ( eg , head-mounted displays (HMDs)), augmented reality (AR) systems, virtual reality (VR) systems, and the like. For example, gaze vector tracking, also known as gaze position tracking, can be used as an input for display fovea rendering or human-computer interaction. Conventional eye monitoring techniques are camera-based or video-based, and rely on active illumination of the eye, eye image acquisition, and extraction of eye features such as pupil center and corneal reflection. The power consumption, form factor, computational cost, and latency of these eye monitoring technologies make them more user-friendly next-generation HMD, AR, and VR systems ( e.g. , lighter, battery-operated, more full-featured systems). can be a significant burden on
본 개시내용에 기재된 시스템, 디바이스, 방법, 및 장치의 실시예들은 하나 이상의 자체-혼합 간섭계(SMI) 센서들을 활용하여 눈 움직임을 추적한다. 일부 실시예들에서, SMI 센서들은 단독, 또는 카메라와 조합하여 사용되어, 또한 시선 벡터 또는 눈 위치를 결정할 수 있다.Embodiments of systems, devices, methods, and apparatus described in this disclosure utilize one or more self-mixing interferometry (SMI) sensors to track eye movement. In some embodiments, SMI sensors are used alone or in combination with a camera to also determine a gaze vector or eye position.
제1 양태에서, 본 개시내용은 눈 추적 디바이스를 기술한다. 눈 추적 디바이스는 머리-장착가능 프레임, 머리-장착가능 프레임에 장착된 광학 센서 서브시스템, 및 프로세서를 포함할 수 있다. 광학 센서 서브시스템은 하나 이상의 SMI 센서들의 세트를 포함할 수 있다. 프로세서는 광학 센서 서브시스템을 동작시켜 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고; 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하고; 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 움직임을 추적하도록 구성될 수 있다.In a first aspect, the present disclosure describes an eye tracking device. An eye tracking device may include a head-mountable frame, an optical sensor subsystem mounted to the head-mountable frame, and a processor. The optical sensor subsystem may include a set of one or more SMI sensors. The processor operates an optical sensor subsystem to cause a set of one or more SMI sensors to emit a set of one or more beams of light toward an eye of a user; receive a set of one or more SMI signals from a set of one or more SMI sensors; It may be configured to track eye movement using a set of one or more SMI signals.
제2 양태에서, 본 개시내용은 다른 눈 추적 디바이스를 기술한다. 눈 추적 디바이스는 하나 이상의 SMI 센서들의 세트, 카메라, 및 프로세서를 포함할 수 있다. 프로세서는 카메라로 하여금, 제1 주파수에서, 사용자의 눈의 이미지들의 세트를 획득하게 하고; 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고; 제1 주파수보다 큰 제2 주파수에서, 하나 이상의 SMI 센서들의 세트에 의해 생성된 하나 이상의 SMI 신호들의 세트를 샘플링하고; 이미지들의 세트 내의 적어도 하나의 이미지를 이용하여 눈의 시선 벡터를 결정하고; 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 움직임을 추적하도록 구성될 수 있다.In a second aspect, the present disclosure describes another eye tracking device. An eye tracking device may include a set of one or more SMI sensors, a camera, and a processor. The processor causes the camera to obtain, at a first frequency, a set of images of the user's eye; cause a set of one or more SMI sensors to emit a set of one or more beams of light toward an eye of a user; sampling a set of one or more SMI signals generated by a set of one or more SMI sensors at a second frequency greater than the first frequency; determining a gaze vector of an eye using at least one image in the set of images; It may be configured to track eye movement using a set of one or more SMI signals.
제3 양태에서, 본 개시내용은 눈의 움직임을 추적하는 방법을 기술한다. 방법은 광학 센서 서브시스템을 동작시켜 광학 센서 서브시스템 내의 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하는 단계; 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하는 단계; 및 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 움직임을 추적하는 단계를 포함할 수 있다.In a third aspect, the present disclosure describes a method of tracking eye movement. The method includes operating an optical sensor subsystem to cause a set of one or more SMI sensors in the optical sensor subsystem to emit one or more sets of beams of light toward an eye of a user; receiving a set of one or more SMI signals from a set of one or more SMI sensors; and tracking eye movement using the set of one or more SMI signals.
전술된 예시적인 측면들 및 실시예들에 더하여, 추가 측면들 및 실시예들이 도면들을 참조함으로써 그리고 하기 설명의 연구에 의해 명백해질 것이다.In addition to the foregoing exemplary aspects and embodiments, further aspects and embodiments will become apparent by reference to the drawings and by a study of the description below.
본 개시내용은 첨부된 도면들과 함께 다음의 상세한 설명에 의해 용이하게 이해될 것이며, 유사한 참조 부호들은 유사한 구조적 요소들을 가리킨다.
도 1은 눈 추적 디바이스의 예시적인 블록도를 도시한다.
도 2a는 눈의 추적된 각속도의 예시적인 그래프를 도시한다.
도 2b는 눈의 추적된 시선의 예시적인 그래프를 도시한다.
도 3a는 광학 감지 서브시스템 및 프로세서가 안경에 장착된 제1 예시적인 눈 추적 디바이스를 도시한다.
도 3b는 광학 감지 서브시스템 및 프로세서가 VR 헤드셋에 장착된 제2 예시적인 눈 추적 디바이스를 도시한다.
도 4a는 머리-장착가능 프레임에 장착되고 눈을 향해 광을 방출하도록 구성될 수 있는 SMI 센서들의 예시적인 세트의 측면도를 도시한다.
도 4b는 도 4a에 도시된 눈 및 SMI 센서들의 세트의 정면도를 도시한다.
도 5는 머리-장착가능 프레임에 장착되고 눈을 향해 광을 방출하도록 구성될 수 있는 SMI 센서들의 제1 대안적인 세트의 예시적인 정면도를 도시한다.
도 6은 머리-장착가능 프레임에 장착되고 눈을 향해 광을 방출하도록 구성될 수 있는 SMI 센서들의 제2 대안적인 세트의 예시적인 정면도를 도시한다.
도 7은 머리-장착가능 프레임에 장착되고 눈을 향해 광을 방출하도록 구성될 수 있는 SMI 센서들의 제3 대안적인 세트의 예시적인 측면도를 도시한다.
도 8a는 빔 스플리터와 조합된 SMI 센서의 예시적인 사용을 도시한다.
도 8b는 빔 조향 컴포넌트와 조합된 SMI 센서의 예시적인 사용을 도시한다.
도 9a는 SMI 센서의 디스플레이 서브시스템과의 제1 예시적인 통합을 도시한다.
도 9b는 SMI 센서의 디스플레이 서브시스템과의 제2 예시적인 통합을 도시한다.
도 10은 눈 추적 디바이스의 광학 센서 서브시스템에 포함될 수 있는 컴포넌트들의 예시적인 세트를 도시한다.
도 11a는 하나 이상의 SMI 센서들의 세트를 이용하여 눈 움직임을 추적하기 위한 제1 예시적인 방법을 도시한다.
도 11b는 하나 이상의 SMI 센서들의 세트를 카메라 또는 기타 센서들과 조합하여 이용하여 눈 움직임을 추적하기 위한 제2 예시적인 방법을 도시한다.
도 12a 및 도 12b는 눈의 하나 이상의 표면들 또는 구조들이 하나 이상의 SMI 센서들의 세트를 이용하여 어떻게 맵핑될 수 있는지 도시한다.
첨부 도면들에서 크로스-해칭(cross-hatching) 또는 음영의 사용은 일반적으로, 인접하는 요소들 사이의 경계들을 명확하게 하고 도면들의 가독성을 용이하게 하기 위해 제공된다. 따라서, 크로스-해칭 또는 음영의 존재 여부는, 특정한 재료, 재료 속성들, 요소 비율, 요소 치수, 유사하게 도시된 요소들의 공통점, 또는 첨부 도면들에 도시된 임의의 요소에 대한 임의의 다른 특성, 성질, 또는 속성에 대한 어떠한 선호도 또는 요건도 암시하거나 나타내지 않는다.
또한, 다양한 특징부들 및 요소들(및 이들의 집합들 및 그룹들) 및 그 사이에 제공된 경계들, 분리들, 및 위치 관계들의 비율들 및 치수들(상대적이거나 절대적)은 첨부된 도면들에서 단지 본 명세서에 기술된 다양한 실시예들의 이해를 용이하게 하기 위해 제공되고, 따라서 반드시 축척에 맞게 나타내어지거나 도시되지 않을 수 있으며, 도시된 실시예에 대해, 그를 참조하여 기술된 실시예들의 제외에 대한 어떠한 선호도 또는 요건도 나타내도록 의도되지 않는다는 것이 이해되어야 한다.BRIEF DESCRIPTION OF THE DRAWINGS The present disclosure will be readily understood by the following detailed description taken in conjunction with the accompanying drawings, in which like reference numbers indicate like structural elements.
1 shows an exemplary block diagram of an eye tracking device.
2A shows an example graph of tracked angular velocity of the eye.
2B shows an example graph of an eye's tracked gaze.
3A shows a first example eye-tracking device with an optical sensing subsystem and processor mounted on eyeglasses.
3B shows a second exemplary eye-tracking device with an optical sensing subsystem and processor mounted in a VR headset.
4A shows a side view of an example set of SMI sensors that can be mounted to a head-mountable frame and configured to emit light toward an eye.
FIG. 4b shows a front view of the set of eye and SMI sensors shown in FIG. 4a.
5 shows an exemplary front view of a first alternative set of SMI sensors that can be mounted to a head-mountable frame and configured to emit light toward the eye.
FIG. 6 shows an exemplary front view of a second alternative set of SMI sensors that can be mounted to a head-mountable frame and configured to emit light toward an eye.
FIG. 7 shows an exemplary side view of a third alternative set of SMI sensors that can be mounted to a head-mountable frame and configured to emit light toward an eye.
8A shows an exemplary use of an SMI sensor in combination with a beam splitter.
8B shows an example use of an SMI sensor in combination with a beam steering component.
9A shows a first exemplary integration of an SMI sensor with a display subsystem.
9B shows a second exemplary integration of the SMI sensor with the display subsystem.
10 shows an example set of components that may be included in an optical sensor subsystem of an eye tracking device.
11A shows a first example method for tracking eye movement using a set of one or more SMI sensors.
11B illustrates a second example method for tracking eye movement using a set of one or more SMI sensors in combination with a camera or other sensors.
12A and 12B show how one or more surfaces or structures of the eye may be mapped using one or more sets of SMI sensors.
The use of cross-hatching or shading in the accompanying drawings is generally provided to clarify boundaries between adjacent elements and to facilitate readability of the drawings. Accordingly, the presence or absence of cross-hatching or shading may not be relevant to a particular material, material properties, element proportions, element dimensions, commonalities of like-illustrated elements, or any other characteristic relative to any element shown in the accompanying drawings; No preference or requirement for properties or attributes is implied or indicated.
Further, the proportions and dimensions (relative or absolute) of the various features and elements (and assemblies and groups thereof) and the boundaries, separations, and positional relationships provided therebetween are only shown in the accompanying drawings. It is provided to facilitate an understanding of the various embodiments described herein, and therefore may not necessarily be drawn or drawn to scale, and make no claims about the illustrated embodiments, excluding the embodiments described with reference thereto. It should be understood that neither preference nor requirement is intended to be indicated.
이제, 첨부 도면들에 예시된 대표적인 실시예들에 대한 참조가 상세하게 이루어질 것이다. 하기의 설명이 실시예들을 하나의 바람직한 실시예로 한정하고자 하는 것이 아니라는 것이 이해되어야 한다. 반대로, 첨부된 청구범위에 의해 정의된 바와 같은 설명된 실시예들의 사상 및 범주 내에 포함될 수 있는 대안예들, 수정예들 및 등가물들을 포함하고자 한다.Reference will now be made in detail to representative embodiments illustrated in the accompanying drawings. It should be understood that the following description is not intended to limit the embodiments to one preferred embodiment. On the contrary, it is intended to cover alternatives, modifications and equivalents as may be included within the spirit and scope of the described embodiments as defined by the appended claims.
대부분의 눈 추적 시스템들은 카메라 또는 이미지 기반이고, 적절한 전력량을 이용하여, 충분히 빠르게, 또는 충분히 높은 정확도로 눈 움직임을 추적할 수 없다. 더 높은 정확도 및 민감도를 가지면서, 더 적은 전력 및 더 적은 비용의 시스템들이 필요하다.Most eye tracking systems are camera or image based and cannot track eye movement fast enough or with high enough accuracy, using an adequate amount of power. Less power and less costly systems are needed, with higher accuracy and sensitivity.
완곡 추종(smooth pursuit), 단속성(saccade), 응시(fixation), 안진(nystagmus), 및 깜빡임(blinking)을 구분하는 것과 같은, 눈 움직임들의 신속하고 정확한 검출 및 분류는 중요한 임무일 수 있지만, 또한 카메라-기반, 비디오-기반, 또는 광검출기-기반 추적 시스템들에게는 - 특히 긴박한 전력 예산 하에서 어려울 수 있다. 예를 들어, 응시는 수십 마이크로초만큼 짧을 수 있고 초당 <0.25도(deg/s) 또는 <0.5 deg/s만큼 감지하기 어려울 수 있다. 이러한 눈 움직임의 검출은 높은 해상도 및 높은 프레임 레이트 이미지 획득 및 프로세싱 시스템이 필요함을 시사한다.Although rapid and accurate detection and classification of eye movements, such as distinguishing between smooth pursuit, saccade, fixation, nystagmus, and blinking, can be an important task, It can also be difficult for camera-based, video-based, or photodetector-based tracking systems - especially under tight power budgets. For example, a gaze can be as short as tens of microseconds and imperceptible as <0.25 degrees per second (deg/s) or <0.5 deg/s. Detection of these eye movements suggests a need for high resolution and high frame rate image acquisition and processing systems.
이전에, (예컨대, 단지 더 높은 프레임 레이트에서 더 높은 해상도 이미지들을 획득하는 시스템들과 비교하여) 전체 전력 절약을 위해 감소된 해상도 및 더 높은 프레임 레이트 이미지 캡처들이 더 높은 해상도 및 더 낮은 프레임 레이트 이미지 캡처들과 융합되는 저전력 이미징-기반 눈 주행거리측정이 제안되었다. 대안으로서, 더 낮은 레이턴시 및 더 낮은 전력 소모를 갖는 포토다이오드 어레이-기반 눈 추적기들이 제안되었지만, 더 높은 해상도 및 더 높은 정확성 애플리케이션에서 유용한 것으로 아직 입증되지 않았다. 따라서 포토다이오드 어레이-기반 눈 추적기들은 임무 중요 비디오-기반 눈 추적기, 또는 조밀하지 않은 시선 구역 검출 또는 시선 움직임 임계에 의존하는 근안 디스플레이(또는 HMD) 시스템들을 깨우는 것과 같은, 이분법적인 감지 애플리케이션들에 더 적합하다.Previously, reduced resolution and higher frame rate image captures were performed using higher resolution and lower frame rate image captures for overall power savings ( e.g. , compared to systems that only acquire higher resolution images at higher frame rates). A low-power imaging-based eye odometry fused with captures has been proposed. Alternatively, photodiode array-based eye trackers with lower latency and lower power consumption have been proposed, but have not yet proven useful in higher resolution and higher accuracy applications. Photodiode array-based eye trackers are therefore more suitable for binary sensing applications, such as mission critical video-based eye trackers, or wake up near eye display (or HMD) systems that rely on sparse gaze zone detection or gaze movement thresholding. Suitable.
하기 설명은 SMI 센서들을 - 단독으로 또는 다른 센서들, 예컨대 카메라 또는 기타 이미지-기반 센서와 조합하여 이용하여 눈 움직임을 추적하는 것에 관한 것이다. 본 설명의 목적을 위해, SMI 센서는 광 방출기(예컨대, 레이저 광원) 및 SMI 신호 검출기(예컨대, 포토다이오드와 같은 광 검출기, 또는, 광 방출기의 접합 전압 또는 구동 전류를 측정하는 회로와 같은 전기 검출기)를 포함하는 것으로 간주된다. 하나 이상의 SMI 센서들의 각각은 사용자의 눈의 하나 이상의 구조들을 향해 (예컨대, 눈의 홍채, 공막, 동공, 렌즈, 각막 윤부, 눈꺼풀 등 중 하나 이상을 향해) 하나 이상의 고정 또는 스캐닝된 광의 빔들을 방출할 수 있다. SMI 센서(들)는 사용자의 눈을 해치지 않도록, 동작 안전 사양을 준수하여 동작될 수 있다.The description below relates to eye movement tracking using SMI sensors - alone or in combination with other sensors, such as a camera or other image-based sensor. For purposes of this description, an SMI sensor includes a light emitter ( e.g. , a laser light source) and an SMI signal detector ( e.g. , a photodetector such as a photodiode, or an electrical detector such as a circuit that measures the junction voltage or drive current of the light emitter). ) is considered to include Each of the one or more SMI sensors emits one or more fixed or scanned beams of light towards one or more structures of the user's eye ( eg, towards one or more of the eye's iris, sclera, pupil, lens, limbus, eyelid, etc.) can do. The SMI sensor(s) may be operated in compliance with operational safety specifications so as not to harm the user's eyes.
광의 빔을 방출한 후에, SMI 센서는 그것의 공진 공동 안으로 다시 방출된 광의 재귀반사된 부분을 수광할 수 있다. 양호한 품질 재귀반사를 위해, 눈의 홍채 또는 공막(또는 다른 확산 구조) 상에 SMI 센서에 의해 방출된 광의 빔을 집속하는 것이 눈의 각막 또는 동공 상에 광의 빔을 집속하는 것에 비해 유용할 수 있다. 방출된 광의 재귀반사된 부분의 위상 변화는 공진 공동 내에서 생성되는 광의 위상과 혼합될 수 있고, 증폭 및 검출될 수 있는 SMI 신호를 생성할 수 있다. 증폭된 SMI 신호, 및 일부 경우들에서 다수의 SMI 신호들이 분석될 수 있다. 눈의 회전 움직임은 사용자의 눈의 다수의 배향들 및 위치들로부터 도플러 주파수들을 위상 추적함으로써 검색 및 재구성될 수 있다.After emitting a beam of light, the SMI sensor can receive the retroreflected portion of the emitted light back into its resonant cavity. For good quality retroreflection, focusing the beam of light emitted by the SMI sensor on the iris or sclera (or other diffusing structure) of the eye may be useful compared to focusing the beam of light on the cornea or pupil of the eye. . The phase change of the retroreflected portion of the emitted light can be mixed with the phase of the light produced within the resonant cavity and can produce an SMI signal that can be amplified and detected. An amplified SMI signal, and in some cases multiple SMI signals, may be analyzed. The rotational movement of the eye can be retrieved and reconstructed by phase tracking the Doppler frequencies from multiple orientations and positions of the user's eye.
완곡 추종, 단속성, 응시, 안진, 및 깜빡임과 같은 사용자 시선 거동의 분류 및 정량화는 SMI 센서들을 이용하여 높은 샘플링 속도에서 식별되어, 근안 디스플레이(또는 HMD) 시스템 상의 숫자, 텍스트, 또는 이미지들의 높은 효율성, 높은 충실도, 디지털 콘텐츠 렌더링을 가능하게 할 수 있다.Classification and quantification of user gaze behaviors such as euphemism, saccade, gaze, nystagmus, and blink are identified at high sampling rates using SMI sensors, resulting in high levels of numbers, text, or images on a near eye display (or HMD) system. It can enable efficient, high-fidelity, digital content rendering.
일부 실시예들에서, SMI 센서 데이터 또는 결정들은 더 낮은 샘플링 속도 시선 이미징 시스템(예컨대, 카메라)로부터 획득된 절대 시선 방향 감지 정보(예컨대, 시선 벡터 감지 또는 시선 위치 감지)와 융합되어, 훨씬 더 높은 속도 및 우수한 정확성으로 절대 시선 추적을 가능하게 할 수 있다. 백만 개 이상의 픽셀들을 포함할 수 있는 이미징 시스템에 대조적으로, SMI 센서 데이터는 하나 또는 적은 수의 (예컨대, 2개 또는 3개) SMI 센서들로부터 획득될 수 있다. 이는 SMI 센서들이 이미징 시스템과 비교하여 훨씬 더 낮은 전력 소모로 SMI 신호들(또는 SMI 센서 데이터)을 생성하게 할 수 있다.In some embodiments, the SMI sensor data or determinations are fused with absolute gaze direction sensing information ( eg, gaze vector detection or gaze position detection) obtained from a lower sampling rate gaze imaging system ( eg , camera) to obtain an even higher It can enable absolute eye tracking with speed and excellent accuracy. In contrast to an imaging system that may include a million or more pixels, SMI sensor data may be obtained from one or a small number ( eg , two or three) SMI sensors. This may allow SMI sensors to generate SMI signals (or SMI sensor data) with much lower power consumption compared to an imaging system.
SMI 센서에 의해 방출된 광의 빔의 파장이 변조될 때, SMI 센서로부터 획득된 SMI 신호는, ~100μm 레벨 해상도의 수준에서, 표면의 절대 범위설정, 인터페이스, 및 사용자의 눈의 볼륨 구조들에 사용될 수 있다. 이러한 절대 거리 측정이 눈 회전 동안 눈 프로파일의 변위를 추적하기 위한 고정위치를 제공할 수 있다.When the wavelength of the beam of light emitted by the SMI sensor is modulated, the SMI signal obtained from the SMI sensor, at a level of ~100 μm level resolution, can be used for absolute ranging of surfaces, interfaces, and volume structures of the user's eye. can This absolute distance measurement can provide a fixation point for tracking the displacement of the eye profile during eye rotation.
하나 이상의 SMI 센서들에 의해 방출된 광의 빔(들)의 파장(들)이 변조될 때, 그리고 적어도 하나의 SMI 센서에 의해 방출된 광의 빔이 스캐닝되고/되거나 다수의 빔들이 방출될 때, 도플러 클라우드로도 알려진 변위 및/또는 속도 맵, 및/또는 심도 클라우드로도 알려진 거리 맵이 획득 또는 구성될 수 있다. 추가적으로 또는 대안적으로, 도플러 클라우드는 하나 이상의 SMI 센서들에 의해 방출된 광의 빔(들)의 파장(들)이 변조되지 않을 때 획득 또는 구성될 수 있다. 도플러 클라우드는 태생적으로 높은 해상도를 가질 수 있는데, 이는, 예를 들어, 단일 프레임 변위에 대해 μm 또는 서브-μm 레벨, 또는 속도에 대해 최소 mm/s 또는 deg/s 레벨의 것일 수 있다. 도플러 클라우드의 단일 또는 다수의 프레임들이 차분 심도 클라우드로 간주될 수 있다. 추가적으로, 또는 대안적으로, 도플러 클라우드의 단일 또는 다수의 프레임들의 측정치들은 사전 정의 및/또는 국소적으로 교정된 차분 맵 또는 라이브러리와 매칭하고 눈 추적 정보 및/또는 (포징 정보로도 알려진) 위치 정보를 추출하기 위해 실시간으로 프로세싱될 수 있다. 국소적으로 교정된 차분 맵 또는 라이브러리가 카메라, 심도 클라우드 등을 포함하지만, 이에 한정되지 않는 수단에 의해 획득될 수 있다. 도플러 클라우드를, 단독으로 또는 심도 클라우드 또는 기타 감지 모달리티(예컨대, 눈 카메라 이미지, 모션 센서 등)와 융합되어 사용함으로써, 눈 움직임 또는 위치 정보를 추적하는 정확하고 효율적인 방법을 제공할 수 있다.When the wavelength(s) of the beam(s) of light emitted by one or more SMI sensors is modulated, and when the beam(s) of light emitted by at least one SMI sensor is scanned and/or multiple beams are emitted, Doppler Displacement and/or velocity maps, also known as clouds, and/or distance maps, also known as depth clouds, may be obtained or constructed. Additionally or alternatively, a Doppler cloud may be obtained or constructed when the wavelength(s) of the beam(s) of light emitted by one or more SMI sensors are not modulated. The Doppler cloud may inherently have a high resolution, which may be, for example, on the μm or sub-μm level for a single frame displacement, or at least on the mm/s or deg/s level for velocity. A single or multiple frames of a Doppler cloud can be considered a differential depth cloud. Additionally or alternatively, measurements of single or multiple frames of the Doppler cloud match a predefined and/or locally calibrated difference map or library and eye tracking information and/or positional information (also known as posing information) It can be processed in real time to extract . A locally calibrated difference map or library may be obtained by means including, but not limited to, cameras, depth clouds, and the like. Using a Doppler cloud, alone or fused with a depth cloud or other sensing modalities ( eg , eye camera images, motion sensors, etc.), can provide an accurate and efficient way to track eye movement or positional information.
이들 및 다른 시스템들, 디바이스들, 방법들 및 장치가 도 1 내지 도 12b를 참조하여 설명된다. 그러나, 당업자들은 이러한 도면들과 관련하여 본 명세서에서 제공되는 상세한 설명이 설명의 목적을 위한 것일 뿐이며, 제한적인 것으로 해석되지 않아야 한다는 것을 쉽게 인식할 것이다.These and other systems, devices, methods and apparatus are described with reference to FIGS. 1-12B. However, those skilled in the art will readily appreciate that the detailed description provided herein with respect to these drawings is for explanatory purposes only and should not be construed as limiting.
"상측", "하측", "상부", "하부", "전방", "후방", "위", "아래", "상방", "하방", "좌측", "우측" 등과 같은 방향 용어는 후술되는 도면들 중 일부에서 컴포넌트들의 일부의 배향에 관하여 사용된다. 다양한 실시예들의 구성요소들이 다수의 상이한 배향으로 위치될 수 있기 때문에, 방향 용어는 설명의 목적으로만 사용되며 결코 제한적인 것은 아니다. 방향 용어는 광범위하게 해석되는 것으로 의도되고, 그에 따라서 구성요소들이 상이한 방식으로 배향되는 것을 배제하는 것으로 해석되지 않아야 한다. 본 명세서에서 사용되는 바와 같이, 아이템들 중 임의의 것을 분리하는 용어 "및" 또는 "또는"과 함께, 일련의 아이템들에 선행하는 어구 "~중 적어도 하나"는, 리스트의 각각의 멤버보다는, 리스트를 전체적으로 수식한다. 어구 "중 적어도 하나"는 열거된 각각의 아이템 중 적어도 하나의 선택을 요구하지 않고; 오히려, 이 어구는 아이템들 중 임의의 것 중 최소한 하나, 및/또는 아이템들의 임의의 조합 중 최소한 하나, 및/또는 아이템들 각각 중 최소한 하나를 포함하는 의미를 허용한다. 예시의 방식으로, 어구 "A, B 및 C 중 적어도 하나" 또는 어구 "A, B 또는 C 중 적어도 하나" 각각은 오직 A, 오직 B 또는 오직 C; A, B, 및 C의 임의의 조합; 및/또는 A, B, 및 C 각각 중 하나 이상을 지칭한다. 유사하게, 본 명세서에 제공된 결합성 또는 분리성 리스트에 대해 제시된 요소들의 순서는 본 개시내용을 오직 제공된 그 순서로 제한하는 것으로 해석되어서는 안 된다는 것이 이해될 수 있다.Directions such as "up", "down", "top", "bottom", "front", "back", "up", "down", "up", "down", "left", "right", etc. The term is used in relation to the orientation of some of the components in some of the figures described below. Since components of various embodiments may be positioned in a number of different orientations, directional terms are used for descriptive purposes only and in no way limiting. Orientation terms are intended to be interpreted broadly and, therefore, should not be construed to exclude that components may be oriented in different ways. As used herein, the phrase "at least one of" preceding a series of items, with the terms "and" or "or" separating any of the items, rather than each member of the list, Fully modifies the list. The phrase "at least one of" does not require selection of at least one of each item listed; Rather, the phrase permits a meaning that includes at least one of any of the items, and/or at least one of any combination of items, and/or at least one of each of the items. By way of example, the phrase “at least one of A, B, and C” or the phrase “at least one of A, B, or C” may each include only A, only B, or only C; any combination of A, B, and C; and/or one or more of each of A, B, and C. Similarly, it can be understood that the order of elements presented for associativity or separability lists provided herein should not be construed as limiting the present disclosure only to the order presented.
도 1은 눈 추적 디바이스(100)의 예시적인 블록도를 도시한다. 눈 추적 디바이스(100)는 머리-장착가능 프레임(102), 머리-장착가능 프레임(102)에 장착된 광학 센서 서브시스템(104), 및 프로세서(106)를 포함할 수 있다. 일부 실시예들에서, 눈 추적 디바이스(100)는 또한 디스플레이 서브시스템(108), 통신 서브시스템(110)(예컨대, 무선 및/또는 유선 통신 서브시스템), 및 전력 분배 서브시스템(112) 중 하나 이상을 포함할 수 있다. 프로세서(106), 디스플레이 서브시스템(108), 통신 서브시스템(110), 및 전력 분배 서브시스템(112)은 머리-장착가능 프레임(102)에 부분적으로 또는 전체적으로 장착되거나, 또는 머리-장착가능 프레임(102)에 장착된 하나 이상의 컴포넌트들과 무선 주파수 또는 전기 통신하거나(예컨대, 머리-장착가능 프레임(102)에 장착된 하나 이상의 컴포넌트들과 무선 주파수(즉, 무선) 또는 전기(예컨대, 코드 연결) 통신하는 박스 또는 전자 디바이스(예컨대, 전화기, 또는 워치와 같은 웨어러블 디바이스) 내에 하우징됨), 또는 머리-장착가능 프레임(102)과 머리-장착가능 프레임(102)에 장착된 하나 이상의 컴포넌트들과 무선 주파수 또는 전기 통신하는 박스 또는 전자 디바이스 사이에 분포될 수 있다. 광학 센서 서브시스템(104), 프로세서(106), 디스플레이 서브시스템(108), 통신 서브시스템(110), 및/또는 전력 분배 서브시스템(112)은 하나 이상의 통신 프로토콜들을 이용하여, 하나 이상의 버스들(116)을 통하거나, 또는 공기를 통해(예컨대, 무선으로) 통신할 수 있다.1 shows an exemplary block diagram of an
머리-장착가능 프레임(102)은 안경, 고글 세트, 증강 현실(AR) 헤드셋, 가상 현실(VR) 헤드셋의 형태를 취하거나, 또는 머리-장착가능 프레임(102)의 다른 형태를 취할 수 있다.The head-
광학 센서 서브시스템(104)은 하나 이상의 SMI 센서들(114)의 세트를 포함할 수 있다. 하나 이상의 SMI 센서들의 세트 내의 각각의 SMI 센서는 광 방출기 및 광 검출기를 포함할 수 있다. 광 방출기는 수직-공동 표면-방출 레이저(VCSEL), 에지-방출 레이저(EEL), 수직 외부-공동 표면-방출 레이저(VECSEL), 양자-점 레이저(QDL), 양자 캐스케이드 레이저(QCL), 또는 발광 다이오드(LED)(예컨대, 유기 LED(OLED), 공진-공동 LED(RC-LED), 마이크로 LED(mLED), 고휘도 LED(SLED), 또는 에지-방출 LED) 등 중 하나 이상을 포함할 수 있다. 광 검출기(또는 광검출기)는 일부 경우들에서 광 방출기에 측방향으로 인접하게 위치(예컨대, 광 검출기가 장착 또는 형성되는 기판 상에 장착 또는 형성)될 수 있다. 다른 경우들에서, 광 검출기는 광 방출기 위에 또는 아래에 적층될 수 있다. 예를 들어, 광 검출기는 일차 방출 및 이차 방출을 갖는 VCSEL, HCSEL, 또는 EEL일 수 있고, 광 검출기는 광 방출기와 동일한 에피택셜 적층으로 에피택셜하게 형성되어, 광 검출기가 이차 방출의 일부 또는 전부를 수광하도록 할 수 있다. 이러한 후자의 실시예들에서, 광 방출기 및 광 검출기는 유사하게 형성될 수 있다(예컨대, 광 방출기 및 광 검출기 둘 모두는 다수의 양자 우물(MQW) 구조들을 포함할 수 있지만, 광 방출기는 순방향 바이어싱될 수 있고 광 검출기(예컨대, 공진 공동 광검출기(RCPD))는 역방향 바이어싱될 수 있음). 대안적으로, 광 검출기는 기판 상에 형성될 수 있고, 광 방출기는 기판에 별도로 형성 및 장착되거나, 또는 광 방출기와 관련하여 형성 및 장착되어, 광 방출기의 이차 광 방출이 광 검출기와 충돌하도록 할 수 있다. 대안적으로, 광 방출기는 기판 상에 형성될 수 있고, 광 검출기는 기판에 별도로 형성 및 장착되거나, 또는 광 방출기와 관련하여 형성 및 장착되어, 광 방출기의 이차 광 방출이 광 검출기와 충돌하도록 할 수 있다.
일부 실시예들에서, 광학 센서 서브시스템(104)은 고정 또는 이동가능 광학 컴포넌트들의 세트(예컨대, 하나 이상의 렌즈들, 광학 격자들, 광학 필터들, 빔 스플리터들, 빔 조향 컴포넌트들 등)를 포함할 수 있다. 광학 센서 서브시스템(104)은 또한 이미지 센서(예컨대, 이미지 센서를 포함하는 카메라)를 포함할 수 있다.In some embodiments,
프로세서(106)는 이러한 데이터 또는 명령어들이 소프트웨어 또는 펌웨어의 형태이든지 또는 달리 인코딩되든지 간에, 데이터 또는 명령어들을 프로세싱, 수신, 또는 전송할 수 있는 임의의 전자 디바이스를 포함할 수 있다. 예를 들어, 프로세서(106)는 마이크로프로세서, 중앙 처리 장치(CPU), 주문형 집적회로(ASIC), 디지털 신호 프로세서(DSP), 제어기, 또는 이러한 디바이스들의 조합을 포함할 수 있다. 본 명세서에 기술된 바와 같이, 용어 "프로세서"는 단일의 프로세서 또는 프로세싱 유닛, 다수의 프로세서들, 다수의 프로세싱 유닛들, 또는 다른 적합하게 구성된 컴퓨팅 요소들을 포괄하도록 의도된다.
일부 실시예들에서 눈 추적 디바이스(100)의 컴포넌트들은 다수의 프로세서들에 의해 제어될 수 있다. 예를 들어, 눈 추적 디바이스(100)의 선택 컴포넌트들(예컨대, 광학 센서 서브시스템(104))은 제1 프로세서에 의해 제어될 수 있고, 눈 추적 디바이스의 다른 컴포넌트들(예컨대, 디스플레이 서브시스템(108) 및/또는 통신 서브시스템(110))은 제2 프로세서에 의해 제어될 수 있고, 제1 및 제2 프로세서들은 서로 통신되거나 또는 통신되지 않을 수 있다.In some embodiments the components of
일부 실시예들에서, 디스플레이 서브시스템(108)은, 예를 들어, LED, OLED, 액정 디스플레이(LCD), EL(electroluminescent) 디스플레이를 포함하는 하나 이상의 발광 요소들, 또는 다른 유형들의 디스플레이 요소들을 갖는 디스플레이를 포함할 수 있다.In some embodiments,
통신 서브시스템(110)은 눈 추적 디바이스(100)가 사용자 또는 다른 전자 디바이스로부터 데이터를 전송 또는 수신하게 할 수 있다. 통신 서브시스템(110)은 터치 감지 입력 표면, 크라운, 하나 이상의 마이크로폰들 또는 스피커들, 또는 전자, RF, 또는 광학 신호들을 전송하도록 구성된 유선 또는 무선(예컨대, 무선 주파수(RF) 또는 광학) 통신 인터페이스를 포함할 수 있다. 무선 및 유선 통신 인터페이스의 예들은, 셀룰러, Wi-Fi, 및 블루투스® 통신 인터페이스를 포함하지만, 이에 한정되지 않는다.Communications subsystem 110 may enable
전력 분배 서브시스템(112)은 눈 추적 디바이스(100) 또는 그것의 컴포넌트들에 에너지를 전달할 수 있는 전원들 및/또는 전도체들의 임의의 집합으로 구현될 수 있다. 일부 경우들에서, 전력 분배 서브시스템(112)은 하나 이상의 배터리들 또는 재충전가능 배터리들을 포함할 수 있다. 추가적으로 또는 대안적으로, 전력 분배 서브시스템(112)은 눈 추적 디바이스(100) 또는 그것의 컴포넌트들을 원격 전원, 예컨대, 벽면 콘센트, 원격 배터리 팩, 또는 눈 추적 디바이스(100)가 테더링되는 전자 디바이스에 연결하는 데 사용될 수 있는 전력 커넥터 또는 전력 코드를 포함할 수 있다.
프로세서(106)는 광학 센서 서브시스템(104)을 동작시키도록 구성될 수 있다. 광학 센서 서브시스템(104)을 동작시키는 것은 전력 분배 서브시스템(112)으로 하여금 광학 센서 서브시스템(104)에 전력공급하게 하고, 제어 신호들을 하나 이상의 SMI 센서들(114)의 세트에 제공하고/하거나 전기적으로, 전기기계적으로, 또는 다른 방식으로 광학 센서 서브시스템(104)의 광학 컴포넌트들을 집중 또는 조정하는 제어 신호들을 제공하는 것을 포함할 수 있다. 광학 센서 서브시스템(104)을 동작시키는 것은 하나 이상의 SMI 센서들(114)의 세트로 하여금 하나 이상의 광(118)의 빔들의 세트를 사용자의 눈(120)을 향해 방출하게 하게 할 수 있다. 프로세서(106)는 또한 하나 이상의 SMI 센서들(114)의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하고 하나 이상의 SMI 신호들의 세트를 이용하여 눈(120)의 회전 움직임을 추적하도록 구성될 수 있다.
일부 경우들에서, 광학 센서 서브시스템(104), 프로세서(106), 디스플레이 서브시스템(108), 통신 서브시스템(110), 및/또는 전력 분배 서브시스템(112)은 하나 이상의 버스들을 통해 통신할 수 있고, 이는 일반적으로 버스(116)로서 기재된다.In some cases,
눈(120)의 회전 움직임을 추적하는 것은 일부 경우들에서 눈(120)의 각속도(또는 시선 움직임)를 추정하는 것을 포함할 수 있다. 일부 경우들에서, 각속도는 3개의 직교 방향의 각각에서 (예컨대, x, y, 및 z 방향에서) 추적될 수 있다. 상이한 방향들에서 각속도들를 추적하는 것은 하나 이상의 SMI 센서들(114)의 세트에 의해 방출된 하나 이상의 광의 빔들을 스캐닝하고, 하나 이상의 SMI 센서들(114)의 세트 내의 하나 이상의 SMI 센서들에 의해 방출된 하나 이상의 광의 빔들을 분할하거나, 또는 상이한 방향들에서 (그리고 바람직하게는 상이한 직교 방향들에서) 둘 이상의 광의 빔들을 방출하도록 하나 이상의 SMI 센서들(114)의 세트를 구성하는 것을 필요로 할 수 있다.Tracking the rotational movement of the
눈(120)의 회전 움직임을 추적하는 것은 또한 눈(120)의 시선(또는 시선 위치)을 추적하는 것을 포함할 수 있다.Tracking the rotational movement of the
일부 실시예들에서, 프로세서(106)는 사용자의 회전 눈 움직임을 분류하도록 구성될 수 있다. 예를 들어, 회전 눈 움직임은 완곡 추종, 단속성, 응시, 안진, 또는 깜빡임 중 적어도 하나로서 분류될 수 있다. 이어서 프로세서(106)는 디스플레이 서브시스템(108)으로 하여금 회전 눈 움직임의 분류에 응답하여 디스플레이 상에 하나 이상의 이미지들의 렌더링을 조정하게 하도록 할 수 있다. 일부 실시예들에서, 프로세서(106)는 분류된 회전 눈 움직임을 정량화하도록(예컨대, 사용자 깜빡임이 얼마나 빠른지 또는 얼마나 많은지, 사용자의 눈 움직임의 각속도가 얼마인지, 또는 사용자의 눈(120)의 각속도 변화가 얼마나 빈번한지 또는 얼마나 빠른지) 추가로 구성될 수 있고, 하나 이상의 이미지들의 렌더링은 정량화된 회전 눈 움직임에 응답하여 추가로 조정될 수 있다.In some embodiments, the
일부 실시예들에서, 프로세서(106)는 디스플레이 서브시스템(108)으로 하여금 눈(120)의 움직임에 응답하여 디스플레이의 상태를 변경하게 하도록 구성될 수 있다. 디스플레이의 상태를 변경하는 것은 디스플레이되는 것을 변경하는 것을 포함할 수 있지만, 또한 또는 대안적으로 디스플레이를 저전력 또는 OFF 상태에서 더 높은 전력 또는 ON 상태로 전환하거나 또는, 대안적으로, 디스플레이를 더 높은 전력 또는 ON 상태에서 저전력 또는 OFF 상태로 전환하는 것을 포함할 수 있다.In some embodiments,
일부 실시예들에서, 디스플레이는 기판 상에 장착된 디스플레이 픽셀들의 어레이를 포함할 수 있고, 하나 이상의 SMI 센서들(114)의 세트는 디스플레이 픽셀들의 어레이에 인접하게 또는 그 안에서 기판 상에 장착된 적어도 하나의 SMI 센서를 포함할 수 있다. 다른 실시예들에서, SMI 센서(들)(114)는 디스플레이로부터 떨어져 제공될 수 있다.In some embodiments, the display may include an array of display pixels mounted on a substrate, and a set of one or
도 2a는 눈의 추적된 각속도(또는 시선 움직임)의 예시적인 그래프(200)를 도시한다. 예로서, 그래프(200)는 단지 2개의 직교 방향에서 각속도의 추적을 도시한다. 눈의 외부 표면 또는 다른 구조가 2차원 객체로서 모델링될 때, 각속도는 단지 2차원에서 추적될 수 있다. 대안적으로, 각속도는 더 정확하게 3차원으로 추적될 수 있다.2A shows an
도 2b는 눈의 추적된 시선(또는 시선 벡터, 또는 시선 위치)의 예시적인 그래프(210)를 도시한다. 예로서, 그래프(210)는 단지 두 직교 방향의 시선의 추적을 도시한다. 눈의 외부 표면 또는 다른 구조가 2차원 객체로서 모델링될 때, 시선은 단지 2차원에서 추적될 수 있다. 대안적으로, 시선은 더 정확하게 3차원으로 추적될 수 있다.2B shows an
SMI-기반 감지는 디바이스 또는 애플리케이션이 완곡 추종, 단속성, 응시, 안진, 및 깜빡임과 같은 미묘한 눈 움직임들을 검출 및/또는 분류할 필요가 있을 때 특히 유용할 수 있는데, 그 이유는 모든 이러한 눈 움직임들은 눈의 각속도를 추적함으로써 검출 및 분류될 수 있고, SMI-기반 감지는 눈의 각속도의 변화를 검출하게 될 때 비디오-기반 또는 광검출기-기반 감지보다 통상적으로 더 빠르고, 더 정확하고, 더 전력 효율적(예컨대, 전력을 덜 소모함)이기 때문이다. 또한, 시선 위치의 초기 및 주기적(저주파수) 보정으로, 고주파수 시선 위치 벡터 추적은, 도 2b에 도시된 바와 같이, 시선 속도 벡터 추적의 통합으로부터 획득될 수 있고, 이는 도 2a에 도시된 바와 같다.SMI-based sensing can be particularly useful when a device or application needs to detect and/or classify subtle eye movements such as euphemism, saccade, gaze, nystagmus, and blink, since all such eye movements They can be detected and classified by tracking the eye's angular velocity, and SMI-based sensing is typically faster, more accurate, and more power-efficient than video-based or photodetector-based sensing when it comes to detecting changes in the eye's angular velocity. Because it is efficient ( eg , consumes less power). Also, with initial and periodic (low frequency) correction of gaze position, high frequency gaze position vector tracking can be obtained from integration of gaze velocity vector tracking, as shown in FIG. 2B , as shown in FIG. 2A .
도 3a는 광학 감지 서브시스템(302) 및 프로세서(304)가 안경(300)에 장착된 제1 예시적인 눈 추적 디바이스를 도시한다. 예로서, 안경(300)(즉, 머리-장착가능 프레임의 유형)은 제1 렌즈 림(308) 및 제2 렌즈 림(310), 제1 렌즈 림(308)을 제2 렌즈 림(310)에 연결하는 브릿지(312), 제1 렌즈 림(308)에 연결된 제1 템플(314), 및 제2 렌즈 림(310)에 연결된 제2 템플(316)을 포함하도록 도시된다. 일부 실시예들에서, 안경(300)은 헤드-업 디스플레이를 포함하거나 또는 AR 안경으로서 기능할 수 있다.FIG. 3A shows a first example eye-tracking device in which an
제1 렌즈 림(308) 및 제2 렌즈 림(310)의 각각은 제1 렌즈(318) 또는 제2 렌즈(320)와 같은 각각의 렌즈를 보유할 수 있다. 렌즈들(318, 320)은 렌즈들(318, 320)을 통과하는 광을 확대, 집속, 또는 달리 변경하거나 변경하지 않을 수 있다. 예를 들어, 렌즈들(318, 320)은 사용자의 시력을 교정하거나, 밝거나 또는 유해한 광을 차단하거나, 또는 단순히 조정이 없거나 최소한으로 조정되는, 광이 통과할 수 있는 물리적 장벽을 제공할 수 있다. 일부 실시예들에서, 제1 및 제2 렌즈들(318, 320)은 유리 또는 플라스틱으로 형성될 수 있다. 일부 실시예들에서, 제1 및/또는 제2 렌즈들(318, 320)은 텍스트, 숫자, 및/또는 이미지들이 디스플레이 서브시스템(322)에 의해 투사되는 디스플레이(예컨대, 패시브 디스플레이 스크린)로서 기능할 수 있고, 이 디스플레이 서브시스템(322)은 또한 안경에 장착될 수 있다. 대안적으로, 제1 및/또는 제2 렌즈 림들(308, 310)은 투명 또는 반투명 디스플레이(예컨대, 발광 다이오드(LED), 유기 LED(OLED), 또는 디스플레이 서브시스템(322)에 의해 텍스트, 숫자, 및/또는 이미지들을 디스플레이하도록 동작될 수 있는 기타 발광 요소들을 보유할 수 있다.Each of the
추가적인 예로서, 광학 감지 서브시스템(302)은 도 1 및 도 5 내지 도 9b 중 하나 이상을 참조하여 기술된 바와 같이 구성될 수 있고/있거나 프로세서(304)는 도 1 및 도 10 내지 도 12b를 참조하여 기재된 바와 같이 동작하도록 구성될 수 있다. 광학 감지 서브시스템(302)의 하나 이상의 컴포넌트들(예컨대, SMI 센서들, 광학 컴포넌트들, 카메라 등)은 제1 렌즈 림(308), 제2 렌즈 림(310), 브릿지(312), 제1 템플(314), 제2 템플(316), 제1 렌즈(318), 또는 제2 렌즈(320)에 부착된 하나 이상의 기판들 상에 장착될 수 있거나, 또는 이러한 컴포넌트들 중 하나 이상에 직접 장착될 수 있다. 유사하게, 프로세서(304), 디스플레이 서브시스템(322), 통신 서브시스템(324), 및/또는 전력 분배 서브시스템(326)은 이러한 컴포넌트들 중 하나 이상에 장착될 수 있다. 일부 실시예들에서, 광학 감지 서브시스템(302), 프로세서(304), 디스플레이 서브시스템(322), 통신 서브시스템(324), 및/또는 전력 분배 서브시스템(326)의 일부 또는 전부는 안경(300)의 하나 이상의 컴포넌트들 내에, 안경(300)에 장착된 하나 이상의 컴포넌트들에 무선으로 또는 전기적으로 연결된 디바이스 내에 (예컨대, 사용자의 전화기 또는 웨어러블 디바이스) 장착되거나, 또는 안경(300)과 안경(300)의 하나 이상의 컴포넌트들에 무선으로 또는 전기적으로 연결된 디바이스 사이에 분포될 수 있다.As a further example,
프로세서(304), 디스플레이 서브시스템(322), 통신 서브시스템(324), 및 전력 분배 서브시스템(326)은 도 1을 참조하여 설명된 바와 같이 추가로 구성 또는 동작될 수 있다.
도 3b는 광학 감지 서브시스템(352) 및 프로세서(354)가 가상 현실(VR) 헤드셋(350)에 장착되는 제2 예시적인 눈 추적 디바이스를 도시한다. 예로서, VR 헤드셋(350)(즉, 머리-장착가능 프레임의 유형)은 스트랩(356)의 사용자의 머리에 부착될 수 있는 VR 모듈(358)을 포함하도록 도시되어 있다.3B shows a second exemplary eye-tracking device in which an
VR 모듈(358)은 디스플레이 서브시스템(360)을 포함할 수 있다. 디스플레이 서브시스템(360)은 텍스트, 숫자, 및/또는 이미지들을 디스플레이하기 위한 디스플레이를 포함할 수 있다.
예로서, 광학 감지 서브시스템(352)은 도 1 및 도 5 내지 도 9b 중 하나 이상을 참조하여 기술된 바와 같이 구성될 수 있고/있거나 프로세서(354)는 도 1 및 도 10 내지 도 12b를 참조하여 기재된 바와 같이 동작하도록 구성될 수 있다. 광학 감지 서브시스템(352)의 하나 이상의 컴포넌트들(예컨대, SMI 센서들, 광학 컴포넌트들, 카메라 등)은 VR 모듈(358)에 부착된 하나 이상의 기판들 상에 장착될 수 있거나, 또는 VR 모듈(358)의 하우징에 직접 장착될 수 있다. 유사하게, 프로세서(354), 디스플레이 서브시스템(360), 통신 서브시스템(362), 및/또는 전력 분배 서브시스템(364)은 VR 모듈(358)에 장착될 수 있다. 일부 실시예들에서, 광학 감지 서브시스템(352), 프로세서(354), 디스플레이 서브시스템(360), 통신 서브시스템(362), 및/또는 전력 분배 서브시스템(364)의 일부 또는 전부는 VR 모듈(358)에 무선으로 또는 전기적으로 연결된 디바이스 내에 (예컨대, 사용자의 전화기 또는 웨어러블 디바이스 내에) 장착되거나, 또는 VR 모듈(358)과 VR 모듈(358)에 무선으로 또는 전기적으로 연결된 디바이스 사이에 분포될 수 있다.As an example,
프로세서(354), 디스플레이 서브시스템(360), 통신 서브시스템(362), 및 전력 분배 서브시스템(364)은 도 1을 참조하여 설명된 바와 같이 추가로 구성 또는 동작될 수 있다.
도 4a 및 도 4b는 도 1 내지 도 3b를 참조하여 기재된 머리-장착가능 프레임들 중 하나와 같은, 머리-장착가능 페임에 장착될 수 있는 SMI 센서들(400, 402)의 예시적인 세트를 도시한다. SMI 센서들(400, 402)의 세트는 도 1 내지 도 3b 또는 본 명세서의 다른 곳을 참조하여 기재된 광학 서브시스템들 중 하나와 같은, 광학 센서 서브시스템의 일부를 형성할 수 있다. SMI 센서들(400, 402)의 세트는 눈(404)을 향해 광을 방출하도록 구성될 수 있다. 도 4a는 눈(404) 및 SMI 센서들(400, 402)의 세트의 측면도를 도시하고, 도 4b는 눈(404) 및 SMI 센서들(400, 402)의 세트의 정면도를 도시한다.4A and 4B show an exemplary set of
예로서, SMI 센서들(400, 402)의 세트는 도 4a 및 도 4b에서 2개의 SMI 센서(예컨대, 제1 SMI 센서(400) 및 제2 SMI 센서(402))를 포함하도록 도시된다. 다른 실시예들에서, SMI 센서들(400, 402)의 세트는 더 많거나 또는 더 적은 SMI 센서들을 포함할 수 있다. 제1 SMI 센서(400) 및 제2 SMI 센서(402)는 눈(404)을 향해 각각의 광의 빔들을 방출할 수 있다. 일부 실시예들에서, 광의 빔들은 상이한 방향들로 배향될 수 있고, 상이한 방향들은 직교 방향들이거나 또는 그렇지 않을 수 있다. 광의 빔들이 상이한 방향들로 배향되면, SMI 센서들(400, 402)에 의해 생성된 SMI 신호들을 수신하는 프로세서는 눈(404)의 움직임을 2차원에서 추적할 수 있다(예컨대, 프로세서는 2차원에서 눈(404)의 각속도들을 추적할 수 있음). 광의 빔들은 동일하거나 또는 상이한 위치들에서 눈(404)에 충돌할 수 있다. 예로서, 광의 빔들은 동일한 위치에서 눈(404)에 충돌하도록 도시된다.As an example, a set of
일부 실시예들에서, SMI 센서들(400, 402)에 의해 방출된 광은 광학장치들(406 또는 408)(예컨대, 하나 이상의 렌즈들 또는 빔 조향 컴포넌트들 또는 기타 광학장치 컴포넌트들)에 의해 지향 또는 필터링될 수 있다.In some embodiments, light emitted by
도 5는 도 1 내지 도 3b를 참조하여 기재된 머리-장착가능 프레임들 중 하나와 같은, 머리-장착가능 프레임에 장착될 수 있는 SMI 센서들(500, 502, 504)의 대안적인 세트의 정면도를 도시한다. SMI 센서들(500, 502, 504)의 세트는 도 1 내지 도 3b 또는 본 명세서의 다른 곳을 참조하여 기재된 광학 서브시스템들 중 하나와 같은, 광학 센서 서브시스템의 일부를 형성할 수 있다. SMI 센서들(500, 502, 504)의 세트는 눈(506)을 향해 광을 방출하도록 구성될 수 있다.5 is a front view of an alternative set of
도 4a 및 도 4b를 참조하여 기재된 SMI 센서들의 세트에 대조적으로, 도 5에 도시된 SMI 센서들(500, 502, 504)의 세트는 3개의 SMI 센서(예컨대, 제1 SMI 센서(500), 제2 SMI 센서(502), 및 제3 SMI 센서(504))를 포함한다. 제1 SMI 센서(500), 제2 SMI 센서(502), 및 제3 SMI 센서(504)는 눈(506)을 향해 각각의 광의 빔들을 방출할 수 있다. 일부 실시예들에서, 광의 빔들은 상이한 방향들로 배향될 수 있고, 상이한 방향들은 직교 방향들이거나 또는 그렇지 않을 수 있다. 광의 빔들이 상이한 방향들로 배향되면, SMI 센서들(500, 502, 504)에 의해 생성된 SMI 신호들을 수신하는 프로세서는 눈(506)의 움직임을 3차원에서 추적할 수 있다(예컨대, 프로세서는 3차원에서 눈(506)의 각속도들을 추적할 수 있음). 광의 빔들은 동일하거나 또는 상이한 위치들에서 눈(506)에 충돌할 수 있다. 예로서, 광의 빔들은 동일한 위치에서 눈(506)에 충돌하도록 도시된다.In contrast to the set of SMI sensors described with reference to FIGS. 4A and 4B , the set of
도 6은 도 1 내지 도 3b를 참조하여 기재된 머리-장착가능 프레임들 중 하나와 같은, 머리-장착가능 프레임에 장착될 수 있는 SMI 센서들(600, 602, 604)의 제2 대안적인 세트의 예시적인 정면도를 도시한다. SMI 센서들(600, 602, 604)의 세트는 도 1 내지 도 3b 또는 본 명세서의 다른 곳을 참조하여 기재된 광학 서브시스템들 중 하나와 같은, 광학 센서 서브시스템의 일부를 형성할 수 있다. SMI 센서들(600, 602, 604)의 세트는 눈을 향해 광을 방출하도록 구성될 수 있다.6 is a second alternative set of
도 6에 도시된 SMI 센서들(600, 602, 604)의 세트는 3개의 SMI 센서(예컨대, 제1 SMI 센서(600), 제2 SMI 센서(602), 및 제3 SMI 센서(604))를 포함한다. 제1 SMI 센서(600), 제2 SMI 센서(602), 및 제3 SMI 센서(604)는 눈(606)을 향해 각각의 광의 빔들을 방출할 수 있다. 일부 실시예들에서, 광의 빔들은 상이한 방향들로 배향될 수 있고, 상이한 방향들은 직교 방향들이거나 또는 그렇지 않을 수 있다. 광의 빔들이 상이한 방향들로 배향되면, SMI 센서들(600, 602, 604)에 의해 생성된 SMI 신호들을 수신하는 프로세서는 눈(606)의 움직임을 3차원에서 추적할 수 있다(예컨대, 프로세서는 3차원에서 눈(606)의 각속도들을 추적할 수 있음). 도 5를 참조하여 기재된 SMI 센서들의 세트에 대조적으로, 광의 빔들 중 2개는 동일한 위치(예컨대, 제1 위치)에서 눈(606)에 충돌하고, 광의 빔들 중 하나는 상이한 위치(예컨대, 제2 위치, 제1 위치와는 상이함)에서 눈(606)에 충돌한다. 대안적으로, 모든 광의 빔들은 동일한 위치에서 눈(606)에 충돌하도록 배향될 수 있거나, 또는 모든 광의 빔들은 상이한 위치들에서 눈(606)에 충돌하도록 배향될 수 있다.The set of
SMI 센서들(600, 602, 604)의 세트를 포함하는 광학 센서 서브시스템은 또한 카메라(608)를 포함할 수 있다. SMI 센서들(600, 602, 604)의 세트와 유사하게, 카메라(608)는 머리-장착가능 프레임에 장착될 수 있다. 카메라(608)는 눈(606)의 이미지들을 획득하도록 위치설정 및/또는 배향될 수 있다. 이미지들은 눈(606)의 일부 또는 전부의 이미지들일 수 있다. 광학 센서 서브시스템을 동작시키도록 구성된 프로세서는 카메라(608)에 의해 획득된 이미지들 및 SMI 센서들(600, 602, 604)의 세트에 의해 생성된 SMI 신호들을 이용하여 눈(606)의 회전 움직임을 추적하도록 구성될 수 있다. 예를 들어, 프로세서는 카메라(608)를 이용하여, 제1 주파수에서 눈의 이미지들의 세트를 획득할 수 있다. 프로세서는 또한 제1 주파수보다 높은 제2 주파수에서, 하나 이상의 SMI 신호들의 세트를 샘플링할 수 있다. 이미지들 및 SMI 신호 샘플들은 시간-중첩 방식으로, 또는 상이한 시간에 병렬로 획득/샘플링될 수 있다. 일부 경우들에서, 프로세서는 하나 이상의 이미지들을 획득하고; 이미지(들)를 분석하여 SMI 센서들(600, 602, 604) 및/또는 SMI 센서들(600, 602, 604)에 의해 방출된 광의 빔들에 대한 눈(606)의 위치를 결정하고; 필요한 경우, 광의 빔들이 눈(606)의 원하는 구조에 충돌하도록 보장하기 위해 광학 센서 서브시스템에 조정을 가할 수 있다. 광학 센서 서브시스템에 대한 조정은, 예를 들어, 빔 조향 컴포넌트를 조정하여 하나 이상의 광의 빔들을 조향하고, SMI 센서들(600, 602, 604)의 특정 서브세트를 어드레싱 및 강제하여 광을 방출하게 하는 것 등 중 하나 이상을 포함할 수 있다(예컨대, 도 7 및 도 8b에 대한 설명 참조). 대안적으로(예컨대, 카메라(608)에 의존하는 것에 대안적으로), SMI 센서들(600, 602, 604)은 사용자가 그들의 눈(606)을 움직임에 따라 범위 측정을 수행하는 데 사용될 수 있고, 범위 측정은 눈 모델에 맵핑되어 SMI 센서들(600, 602, 604)이 원하는 눈 구조에 초점을 맞추는지 결정할 수 있다. 눈 모델은 일반적 눈 모델일 수 있거나, 또는 광학 센서 서브시스템이 트레이닝 및 눈 모델 생성 모드에서 동작할 때 특정 사용자를 위해 생성된 눈 모델일 수 있다.The optical sensor subsystem that includes the set of
SMI 센서들(600, 602, 604)의 세트를 포함하는 광학 센서 서브시스템은 또한 눈(606)의 이미지를 취하는 목적들(또는 다른 목적들)을 위해 눈(606)을 조명할 수 있는 하나 이상의 광 방출기들(610, 612)을 포함할 수 있다. 광 방출기들(610, 612)은 LED, 레이저, 또는 디스플레이의 다른 발광 요소들 등의 형태를 취할 수 있다. 광 방출기들(610, 612)은, 카메라(608)가 감지하도록 구성된 광의 유형(들)에 따라, 가시광 또는 비-가시광(예컨대, IR 광)을 방출할 수 있다. 광 방출기들(610, 612)을 이용하여 플러드(flood), 스캔, 또는 스폿 조명을 제공할 수 있다.The optical sensor subsystem comprising the set of
일부 실시예들에서, 프로세서는 SMI 센서들(600, 602, 604)의 세트에 의해 생성된 SMI 신호들을 이용하여 눈(606)의 시선 벡터를 결정 또는 추적할 수 있다. 일부 실시예들에서, 프로세서는 카메라(608)를 이용하여 획득된 하나 이상의 이미지들을 이용하여 시선 벡터를 결정 또는 추적할 수 있다. 일부 실시예들에서, 프로세서는 카메라(608)를 이용하여 획득된 하나 이상의 이미지들을, SMI 신호들과 조합하여 이용하여, 시선 벡터를 추적할 수 있다. 예를 들어, 하나 이상의 이미지들은 시선 벡터를 결정하는 데 사용될 수 있고, 이어서 SMI 신호들은 눈(606)의 움직임을 추적하고 시선 벡터를 업데이트(또는 다시 말해서, 시선 벡터의 움직임을 결정)하는 데 사용될 수 있다.In some embodiments, the processor may determine or track the gaze vector of
도 7은 도 1 내지 도 3b를 참조하여 기재된 머리-장착가능 프레임들 중 하나와 같은, 머리-장착가능 프레임에 장착될 수 있는 SMI 센서들(700, 702, 704)의 제3 대안적인 세트의 예시적인 측면도를 도시한다. SMI 센서들(700, 702, 704)의 세트는 도 1 내지 도 3b 또는 본 명세서의 다른 곳을 참조하여 기재된 광학 서브시스템들 중 하나와 같은, 광학 센서 서브시스템의 일부를 형성할 수 있다. SMI 센서들(700, 702, 704)의 세트는 눈(706)을 향해 광을 방출하도록 구성될 수 있다.7 is a third alternative set of
도 7에 도시된 SMI 센서들(700, 702, 704)의 세트는 3개의 SMI 센서(예컨대, 제1 SMI 센서(700), 제2 SMI 센서(702), 및 제3 SMI 센서(704))를 포함한다. 제1 SMI 센서(700), 제2 SMI 센서(702), 및 제3 SMI 센서(704)는 광의 빔들이 도 4a 및 도 4b(또는 도 5, 또는 도 6)를 참조하여 기재된 SMI 센서들의 세트에 의해 방출될 수 있는 방법과 유사하게, 눈(706)을 향해 각각의 광의 빔들을 방출할 수 있다. 그러나, 모든 SMI 센서들(700, 702, 704)이 동시에 광의 빔들을 방출할 수 있는 것은 아니다. 예를 들어, 제2 및 제3 SMI 센서들(702, 704)은 어드레스가능한 SMI 센서들의 어레이의 일부일 수 있는데, 이 어레이는 일부 경우들에서 2개 초과의 SMI 센서들을 포함할 수 있다. SMI 센서들의 어레이는 SMI 센서들의 어레이 내의 상이한 SMI 센서들 또는 상이한 SMI 센서들의 서브세트들을 어드레스하는 데 사용될 수 있는 회로부에 커플링될 수 있다.The set of
일부 경우들에서, 제2 및 제3 SMI 센서들(702, 704)에 의해 방출된 광의 빔들(그리고 일부 경우들에서, SMI 센서들의 어레이 내의 다른 SMI 센서들에 의해 방출된 광의 빔들)은 공유 렌즈, 렌즈 트레인, 렌즈 어레이, 또는 하나 이상의 다른 광학 컴포넌트들(708)을 향해 지향될 수 있다.In some cases, the beams of light emitted by the second and
일부 경우들에서, SMI 센서들의 세트를 포함하는 광학 센서 서브시스템은 또한 카메라(710)를 포함할 수 있고, 이 카메라(710)는 도 6를 참조하여 기재된 카메라와 유사하게 사용될 수 있다.In some cases, the optical sensor subsystem that includes the set of SMI sensors may also include a
일부 경우들에서, 프로세서는 상이한 목적들을 위해 SMI 센서들의 어레이 내의 상이한 SMI 센서들(702, 704)(또는 상이한 SMI 센서들의 서브세트들)을 선택적으로 동작(예컨대, 활성화 및 비활성화)시킬 수 있다. 예를 들어, 프로세서는 회로부를 동작시켜(또는 사용하여) 특정 SMI 센서, 또는 SMI 센서들의 특정 서브세트를 활성화하여, 특정 초점 또는 초점들을 가질 수 있다. 일부 경우들에서, 프로세서는 카메라(710)로 하여금 눈(706)의 하나 이상의 이미지들을 획득하게 할 수 있다. 프로세서는 이어서 이미지(들)를 분석하여 눈(706)의 시선 벡터를 결정할 수 있고, 눈(706)의 특정 구조 또는 영역(또는 구조들 또는 영역들) 상에 집중되는 (SMI 센서들의 어레이 내의) 하나 이상의 SMI 센서들(702, 704)을 활성화할 수 있다. 프로세서는 또한 SMI 센서(700)와 같은 다른 SMI 센서들을 활성화할 수 있다.In some cases, the processor can selectively operate ( eg , activate and deactivate)
도 8a는 빔 스플리터(802)와 조합된 SMI 센서(800)의 예시적인 사용을 도시한다. SMI 센서(800)는 도 1 내지 도 7을 참조하여 기재된 SMI 센서들 중 임의의 것, 또는 이하 기재되는 SMI 센서들 중 임의의 것일 수 있다. 빔 스플리터(802)는 SMI 센서에 의해 방출된 광(804)의 빔을 분할하도록 위치될 수 있다. 빔은 다수의 빔들(806, 808, 810)(예컨대, 2개, 3개, 또는 그 이상의 빔들)로 분할될 수 있다. 일부 경우들에서, 빔 스플리터(802)는 다수의 빔들(806, 808, 810)을 재지향 또는 조향하는 하나 이상의 렌즈들 또는 빔 조향 컴포넌트들과 연관될 수 있다. 일부 경우들에서, 다수의 빔들(806, 808, 810)은 눈 상의 (또는 그 안의) 공유 초점을 향해 재지향될 수 있다.8A shows an exemplary use of the
도 8b는 빔 조향 컴포넌트(852)와 조합된 SMI 센서(850)의 예시적인 사용을 도시한다. SMI 센서(850)는 도 1 내지 도 7을 참조하여 기재된 SMI 센서들 중 임의의 것, 또는 이하 기재되는 SMI 센서들 중 임의의 것일 수 있다. 빔 조향 컴포넌트(852)는 SMI 센서(850)에 의해 방출된 광(854)의 빔을 조항하도록 위치될 수 있다. 프로세서는 빔 조향 컴포넌트(852)를 동작시키고 광(854)의 빔을 눈의 상이한 구조들 또는 영역들로 조향하도록 구성될 수 있다. 일부 실시예들에서, 빔 조향 컴포넌트(852)는 빔 포커싱 컴포넌트 또는 렌즈 위치설정 메커니즘을 포함할 수 있고, 이 빔 포커싱 컴포넌트 또는 렌즈 위치설정 메커니즘은 그것의 축을 따라 빔의 초점을 변경하도록 조정될 수 있다. 일부 실시예들에서, 빔 조향 컴포넌트(852)는 빔 포커싱 컴포넌트로 대체될 수 있다.8B shows an example use of the
도 9a는 SMI 센서(900)의 디스플레이 서브시스템과의 제1 예시적인 통합을 도시한다. SMI 센서(900)는 도 1 내지 도 7을 참조하여 기재된 SMI 센서들 중 임의의 것, 또는 이하 기재되는 SMI 센서들 중 임의의 것일 수 있다. 디스플레이 서브시스템은 일부 예들에서 도 1, 도 3a, 또는 도 3b를 참조하여 기재된 디스플레이 서브시스템일 수 있다.9A shows a first exemplary integration of the
디스플레이 서브시스템은 기판(908) 상에 장착 또는 형성되는 디스플레이 픽셀들(902, 904, 906)의 어레이를 포함할 수 있다. 예로서, 디스플레이 서브시스템은 청색 픽셀(902), 녹색 픽셀(904), 및 적색 픽셀(906)을 포함하도록 도시되지만, 디스플레이 서브시스템은 각각의 청색 픽셀, 녹색 픽셀, 및 적색 픽셀의 다수의 인스턴스들을 포함할 수 있다. 일부 경우들에서, 디스플레이 픽셀들(902, 904, 906)은 LED들 또는 다른 유형들의 발광 요소들을 포함할 수 있다.The display subsystem may include an array of
SMI 센서(900)는 기판(908) 상에 장착될 수 있다. 예로서, SMI 센서(900)는 디스플레이 픽셀들(902, 904, 906)의 어레이에 인접하게 기판(908) 상에 장착되도록 도시된다. 대안적으로, SMI 센서(900)는 디스플레이 픽셀들(902, 904, 906)의 어레이 내에서 (즉, 디스플레이 픽셀들 사이에) 기판(908) 상에 장착될 수 있다. 일부 실시예들에서, 하나 초과의 SMI 센서(900)가 기판(908) 상에 장착될 수 있는데, 각각의 SMI 센서(900)는 디스플레이 픽셀들(902, 904, 906)의 어레이에 인접하게 또는 그 안에 위치된다. 일부 실시예들에서, SMI 센서(900)는 IR 광을 방출할 수 있다. 다른 실시예들에서, SMI 센서(900)는 가시광, 자외선광, 또는 다른 유형들의 광을 방출할 수 있다. 일부 실시예들에서, 디스플레이 픽셀들(902, 904, 906) 중 하나 이상은 SMI 센서들로서 동작가능할 수 있다.
공유된 도파관(910)은 디스플레이 픽셀들(902, 904, 906) 및 SMI 센서(900)에 의해 방출된 광의 빔들을 마이크로전자 기계 시스템(MEMS)에 의해 이동될 수 있는 하나 이상의 거울들의 세트와 같은 빔 조향 컴포넌트(912)를 향해 안내하도록 위치될 수 있다. 대안적인 실시예들에서, 도파관들의 세트(예컨대, 광섬유들의 세트)는 디스플레이 픽셀들(902, 904, 906) 및 SMI 센서(900)에 의해 방출된 광을 빔 조향 컴포넌트(912)를 향해 지향시키도록 사용될 수 있다. 프로세서는 디스플레이 픽셀들(902, 904, 906) 및 빔 조향 컴포넌트(912)를 동작시켜 디스플레이 상에 텍스트, 숫자, 또는 이미지들을 렌더링할 수 있다. 일부 경우들에서, 디스플레이는 안경의 하나 이상의 렌즈들, 또는 VR 헤드셋 내에 위치된 디스플레이를 포함할 수 있다.The shared
공유된 도파관(910)(또는 도파관들의 세트)은 눈에서 반사 또는 산란되는 광의 일부분과 같은 SMI 센서(900)에 의해 방출된 광의 복귀되는 부분을 수광하고, 방출된 광의 복귀되는 부분을 SMI 센서(900)의 공진 공동 안을 향해 지향시킬 수 있다.The shared waveguide 910 (or set of waveguides) receives the returned portion of the light emitted by the
도 9b는 SMI 센서(950)의 디스플레이 서브시스템과의 제2 예시적인 통합을 도시한다. SMI 센서(950)는 도 1 내지 도 7을 참조하여 기재된 SMI 센서들 중 임의의 것, 또는 이하 기재되는 SMI 센서들 중 임의의 것일 수 있다. 디스플레이 서브시스템은 일부 예들에서 도 1, 도 3a, 또는 도 3b를 참조하여 기재된 디스플레이 서브시스템일 수 있다.9B shows a second exemplary integration of the
디스플레이 서브시스템은 기판(958) 상에 장착 또는 형성된 디스플레이 픽셀들(952, 954, 956)의 어레이 및 SMI 센서(950)를 포함할 수 있다. 디스플레이 픽셀들(952, 954, 956) 및 SMI 센서(950)는 도 9a를 참조하여 기재된 바와 같이 구성될 수 있다.The display subsystem may include an array of
도파관(960)(또는 도파관들의 세트)이 디스플레이 픽셀들(952, 954, 956) 및 SMI 센서(950)에 의해 방출된 광의 빔들을 추가로 공유된 도파관(962)을 향해 안내하도록 위치될 수 있거나, 또는 공유된 도파관(960)의 원위 부분(또는 도파관들의 세트의 원위 부분들)이 구부러질 수 있고, 광이 추가로 공유된 도파관(962)의 아웃커플링(outcoupling)들로부터, 또는 공유된 도파관(962) 또는 도파관들의 세트의 원위 부분(들)의 아웃커플링들로부터 방출될 수 있다. 프로세서는 디스플레이 픽셀들(952, 954, 956)을 동작시켜 텍스트, 숫자, 또는 이미지들을 디스플레이 상에 투사할 수 있다.A waveguide 960 (or set of waveguides) may be positioned to guide the beams of light emitted by the
눈에서 반사 또는 산란되는 광의 일부분과 같은, SMI 센서(950)에 의해 방출된 광의 복귀되는 부분은 도파관(들)(962, 960)을 통해, 그리고 SMI 센서(950)의 공진 공동 안을 향해 재지향될 수 있다.The returning portion of the light emitted by the
도 10은 눈 추적 디바이스의 광학 센서 서브시스템에 포함될 수 있는 컴포넌트들(1000)의 예시적인 세트를 도시한다. 컴포넌트들(1000)의 세트는 일반적으로 광학 또는 광전자 컴포넌트들(1002)의 서브세트, 아날로그 컴포넌트들(1004)의 서브세트, 디지털 컴포넌트들(1006)의 서브세트, 및 시스템 컴포넌트들(1008)의 서브세트(예컨대, 프로세서, 및 일부 경우들에서 기타 제어 컴포넌트들)로 분할된다.10 shows an example set of
광학 또는 광전자 컴포넌트들(1002)의 서브세트는 공진 공동을 갖는 레이저 다이오드(1010) 또는 다른 광학 방출기를 포함할 수 있다. 컴포넌트들(1002)은 또한 광검출기(1012)(예컨대, 포토다이오드)를 포함할 수 있다. 광검출기(1012)는 레이저 다이오드(1010)와 동일한 에피택셜 적층에 (예컨대, 레이저 다이오드(1010) 위, 아래, 또는 인접하게) 집적될 수 있거나, 또는 레이저 다이오드(1010)와 함께 적층되거나 또는 그것에 인접하게 위치되는 별개의 컴포넌트로서 형성될 수 있다. 대안적으로, 광검출기(1012)는 레이저 다이오드(1010)의 정합 전압 또는 구동 전류를 측정하여 전자적으로 (즉, 광감성 요소 없이) SMI 신호를 생성하는 회로로 대체되거나 보충될 수 있다. 레이저 다이오드(1010)는, 광검출기(1012) 또는 SMI 신호를 생성하기 위한 대안적인 회로부와 조합하여, SMI 센서로 지칭될 수 있다.A subset of optical or
광학 또는 광전자 컴포넌트들(1002)의 서브세트는 또한 레이저 다이오드(1010) 및/또는 광검출기(1012)와 통합된 모듈 레벨 광학장치(1014), 및/또는 시스템 레벨 광학장치(1016)를 포함할 수 있다. 모듈 레벨 광학장치(1014) 및/또는 시스템 레벨 광학장치(1016)는, 예를 들어, 렌즈들, 빔 스플리터들, 빔 조향 컴포넌트들 등을 포함할 수 있다. 모듈 레벨 광학장치(1014) 및/또는 시스템 레벨 광학장치(1016)는 방출된 광 및 복귀되는 광(예컨대, 눈에서 산란되는 광)이 어디로 지향되는지 결정할 수 있다.The subset of optical or
아날로그 컴포넌트들(1004)의 서브세트는 구동 전류를 아날로그 도메인으로 변환하고 그것을 레이저 다이오드(1010)에 제공하기 위한 디지털-아날로그 변환기(DAC)(1018) 및 전류 레귤레이터(1020)를 포함할 수 있다. 컴포넌트들(1004)은 또한 레이저 다이오드(1010)가 동작 안전 사양을 준수하여 동작되도록 보장하기 위한 컴포넌트들(1022)을 포함할 수 있다. 컴포넌트들(1004)은 또한 광검출기(1012)에 의해 생성된 SMI 신호를 증폭하기 위한 트랜스임피던스 증폭기(TIA) 및/또는 다른 증폭기들(1024), 및 증폭된 SMI 신호를 디지털 도메인으로 변환하기 위한 아날로그-디지털 변환기(ADC)를 포함할 수 있다. 컴포넌트들(1004)은 또한 SMI 신호가 증폭 또는 달리 처리될 때 그것을 보정하기 위한 컴포넌트들을 포함할 수 있다.A subset of the
일부 경우들에서, 아날로그 컴포넌트들(1004)의 서브세트는 광학 또는 광전자 컴포넌트들(1002)의 하나 초과의 서브세트와 인터페이싱(예컨대, 다중화)할 수 있다. 예를 들어, 컴포넌트들(1004)은 2개, 3개, 또는 그 이상의 SMI 센서들과 인터페이싱할 수 있다.In some cases, a subset of
디지털 컴포넌트들(1006)의 서브세트는 구동 전류를 레이저 다이오드(1010)에 제공하는 것을 광검출기(1012)로부터 획득된 디지털화된 광전류를 시스템 컴포넌트들(1008)에 제공하는 것과 스케줄링(예컨대, 연관)하기 위한 스케줄러(1026)를 포함할 수 있다. 컴포넌트들(1006)은 또한 디지털 구동 전류를 DAC(1018)에 제공하는 구동 전류 파형 생성기(1028)를 포함할 수 있다. 컴포넌트들(1006)은 광검출기(1012)의 증폭되고 디지털화된 출력을 프로세싱하기 위한 디지털 프로세싱 체인을 추가로 포함할 수 있다. 디지털 프로세싱 체인은, 예를 들어, 시간-도메인 신호 사전-조절 회로(1030), 고속 퓨리에 변환(FFT) 엔진(1032), 주파수-도메인 신호 사전-조절 회로(1034), 및 거리 및/또는 속도 추정기(1036)를 포함할 수 있다. 일부 경우들에서, 컴포넌트들(1006) 중 일부 또는 전부는 하나 이상의 프로세서들의 세트에 의해 인스턴스화될 수 있다.A subset of
시스템 컴포넌트들(1008)의 서브세트는, 예를 들어, 시스템 레벨 스케줄러(1038)를 포함할 수 있고, 이 스케줄러(1038)는 SMI 센서(또는 SMI 센서들) 또는 다른 컴포넌트들이 눈의 위치(예컨대, 시선 벡터) 또는 움직임(예컨대, 각속도)을 추적하는 데 사용되는 시기를 스케줄링할 수 있다. 컴포넌트들(1008)은 또한 카메라(1040) 또는 관성 측정 유닛(IMU)(1042)과 같은 기타 센서들을 포함할 수 있다. 일부 경우들에서, 컴포넌트들(1008)(또는 그것들의 프로세서)는 컴포넌트들(1002)의 하나 이상의 서브세트들로부터 획득된 하나 이상의 SMI 신호들, 카메라(1040)로부터 획득된 하나 이상의 이미지들, 및/또는 기타 측정치들(예컨대, IMU(1042)에 의해 획득된 측정치들)을 이용하여 눈의 위치 또는 움직임을 추적할 수 있다. 컴포넌트들(1008)은 또한 센서 융합 애플리케이션(1044) 및 다양한 기타 애플리케이션들(1046)을 포함할 수 있다.A subset of
레이저 다이오드(1010)는 다양한 유형들의 구동 전류들을 이용하여 구동될 수 있다. 예를 들어, 레이저 다이오드(1010)는 광검출기(1012)에 의해 생성된 SMI 신호에 대해 도플러 분석을 수행하는 목적을 위해 (예컨대, DC 구동 모드에서) DC 전류로 구동될 수 있다. 대안적으로, 레이저 다이오드(1010)는 레인징을 수행할 때 주파수 변조된 연속 파형(FMCW) 모드에서 (예컨대, 삼각파 구동 전류로) 구동될 수 있다. 대안적으로, 레이저 다이오드(1010)는 눈의 상대적 변위를 결정할 때 조화 구동 모드에서 (예컨대, IQ-변조 구동 전류로) 구동될 수 있다.
도 11a는 하나 이상의 SMI 센서들(1104)의 세트를 이용하여 눈 움직임을 추적하기 위한 제1 예시적인 방법(1100)을 도시한다. 방법(1100)은 광학 센서 서브시스템(1102)을 동작시켜 하나 이상의 SMI 센서들(1104)의 세트로 하여금 하나 이상의 광의 빔들의 세트를 사용자의 눈을 향해 방출하게 하는 단계를 포함한다. 광학 센서 서브시스템(1102) 및 SMI 센서(들)(1104)는 본 명세서에 기재된 광학 센서 서브시스템들 및 SMI 센서들 중 임의의 것과 유사하게 구성될 수 있다.11A shows a
1106에서, 방법(1100)은 하나 이상의 SMI 센서들(1104)의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하는 단계를 포함할 수 있다.At 1106 ,
1108에서, 방법(1100)은 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 회전 움직임을 추적하는 단계를 포함할 수 있다. 1108에서의 동작(들)은, 예를 들어, SMI 신호들 및 도플러 간섭계를 이용하여 눈의 시선 및 각속도를 추정하는 단계를 (1110에서) 포함할 수 있다. 1108에서의 동작(들)은 또한 (1112에서) 눈까지 범위(또는 거리)를 추정하는 단계, 또는 (1114에서) 눈의 표면 품질(예컨대, 표면 텍스처)를 추정하는 단계를 포함할 수 있다. 추정된 범위(들) 또는 표면 품질(들)은 눈의 회전 움직임들을 추정하는 데 사용될 뿐만 아니라, 또한 (1116에서) 눈의 위치, 또는 하나 이상의 SMI 센서들(1104)의 세트가 집중되는 눈의 구조(들)를 결정하는 데 사용될 수 있다.At 1108 ,
1118에서, 방법(1100)은 동작(들)의 출력(들)을 이용하여 시선 움직임을 결정하는 단계(1108)를 포함할 수 있다.At 1118 ,
1120에서, 방법(1100)은 동작(들)(1108)의 출력(들)을 이용하여 시선 웨이크업 이벤트(예컨대, 사용자가 그들의 눈을 뜨거나, 또는 사용자가 특정 방향을 보거나, 또는 사용자가 특정 일련의 눈 움직임들을 수행)를 식별하는 단계를 포함할 수 있다. 일부 경우들에서, 1120의 동작(들), 또는 다른 동작들은 시선 슬립 이벤트(예컨대, 사용자가 그들의 눈을 감거나, 사용자가 특정 방향을 보거나, 또는 사용자가 특정 일련의 눈 움직임들을 수행), 깜빡임 이벤트, 또는 기타 이벤트들을 식별하는 단계를 포함할 수 있다.At 1120,
1122에서, 방법(1100)은 특정 유형의 식별된 이벤트에 응답하여 동작(예컨대, 머리 장착형 디스플레이 또는 기타 디바이스의 전력을 켜거나 또는 끄기, 전화 받기, 애플리케이션 활성화, 볼륨 조절 등)을 수행하는 단계를 포함할 수 있다.At 1122,
1124에서, 방법(1100)은 눈 시선 벡터의 위치의 변화를 결정하기 위해 도플러 주행거리측정을 수행하는 단계를 포함할 수 있다. 일부 경우들에서, 도플러 주행거리측정은 확장 칼만 필터(extended Kalman filter, EKF)를 이용하여 수행될 수 있다.At 1124 ,
1126에서, 방법(1100)은 시선-머리 장착형 디스플레이(시선-HMD) 벡터를 업데이트(즉, 눈 시선 벡터가 디스플레이와 어떻게 교차하는지, 또는 눈 시선 벡터가 디스플레이에 대해 어떻게 이동했는지 결정)하는 단계를 포함할 수 있다.At 1126, the
1128에서, 방법(1100)은 HMD(또는 다른 디스플레이)에 대한 디스플레이 서브시스템으로 하여금 디스플레이 상의 텍스트, 숫자, 또는 이미지들의 렌더링을 조정하게 하는 단계를 포함할 수 있다. 일부 경우들에서, 조정은 눈의 움직임을 (예컨대, 완곡 추종, 단속성, 응시, 안진, 또는 깜빡임으로서) 분류하는 것에 응답할 수 있다.At 1128 ,
도 11b는 하나 이상의 SMI 센서들(1104)의 세트 및 도 11a에 기재된 동작들을 이용하여, 카메라(1152) 또는 다른 센서들(예컨대, IMU(1154), 외향 카메라(outward-facing camera, OFC)(1156) 등)과 조합하여 눈의 움직임을 추적하기 위한 제2 예시적인 방법(1150)을 도시한다. 카메라(1152)는 본 명세서에 기재된 다른 카메라들과 유사하게 구성될 수 있다.FIG. 11B shows a set of one or
1158에서, 방법(1150)은 카메라(1152)를 이용하여 눈의 하나 이상의 이미지들의 세트를 획득하는 단계를 포함할 수 있다. 일부 실시예들에서, 카메라(1152)는 제1 주파수에서 이미지들의 세트를 획득할 수 있고, SMI 센서(들)(1104)에 의해 생성된 SMI 신호(들)는 제2 주파수(예컨대, 제1 주파수와 동기화된 제2 주파수)에서 샘플링될 수 있다. 주파수들은 동일하거나 또는 상이할 수 있지만, 일부 실시예들에서, 제2 주파수는 제1 주파수보다 클 수 있다. 이러한 방식으로, 통상적으로 더 많은 전력을 소모하고 더 많은 양의 데이터를 생성하는 카메라(1152)는 더 낮은 주파수에서 눈 위치를 결정하거나 또는 시선 벡터 데이터를 생성하고, SMI 센서(들)이 적절하게 초점을 맞추고 양호한 데이터를 생성하도록 보장하는 데 사용될 수 있고; 통상적으로 더 적은 전력을 소모하는 SMI 센서(들)(1104)는 더 연속적으로 또는 덜 연속적으로, 그리고 더 높은 주파수에서, 카메라(1152)에 의해 이미지 캡처들 사이에서 눈의 움직임(또는 시선 벡터)을 추적하는 데 사용될 수 있다. 일부 실시예들에서, 카메라(1152)에 의해 획득된 이미지들은 눈 모델을 생성, 업데이트, 또는 커스터마이징하는 데 사용될 수 있는데, 이 눈 모델은 SMI 센서(들)에 의해 방출된 광의 빔(들)을 지향 또는 집중시키는 데 사용될 수 있다.At 1158 ,
1160에서, 방법(1150)은 카메라(1152)에 의해 획득된 이미지(들)에 기초하여 눈의 시선 벡터(또는 위치)를 추정하는 단계를 포함할 수 있다.At 1160 ,
1162에서, 방법(1100)은 머리-HMD 벡터(머리-HMD 벡터)를 결정 또는 업데이트하는 단계를 포함할 수 있다. 다시 말해서, 방법(1100)은 사용자의 머리가 디스플레이에 대해 어떻게 위치되는지 결정할 수 있다.At 1162 ,
1164에서, 방법(1100)은 눈 시선 벡터의 위치의 변화를 결정하기 위해 시각적-도플러 주행거리측정을 수행하는 단계를 포함할 수 있다. 일부 경우들에서, 시각적-도플러 주행거리측정은 확장 칼만 필터(EKF)를 이용하여 수행될 수 있다. 방법(1100)에서 수행되는 도플러 주행거리측정에 대조적으로, 1164에서 수행된 시각적-도플러 주행거리측정은 눈의 SMI-기반 움직임(또는 위치) 분석을 눈의 이미지-기반 위치(또는 시선 벡터) 분석과 융합할 수 있다.At 1164 ,
1126에서, 방법(1100)은 시선-머리 장착형 디스플레이(시선-HMD) 벡터를 업데이트(즉, 눈 시선 벡터가 디스플레이와 어떻게 교차하는지, 또는 눈 시선 벡터가 디스플레이에 대해 어떻게 이동했는지 결정)하는 단계를 포함할 수 있다.At 1126, the
1166에서, 방법(1100)은 옵션적으로 IMU(1154) 또는 외향 카메라(1156)(즉, 사용자의 눈에 비해 사용자 주위의 환경에 초점을 맞춘 카메라)의 출력을 이용하여 관성 주행거리측정, 비디오 주행거리측정, 또는 비디오-관성 주행거리측정을 수행할 수 있다. 이어서 비디오-관성 주행거리측정은 1168에서 HMD-세계(HMD-세계) 벡터를 결정 또는 업데이트하는 데 사용될 수 있다.At 1166,
1170에서, 방법(1100)은 시선-세계 벡터를 결정 또는 업데이트하는 단계를 포함할 수 있다. 이러한 벡터는, 예를 들어, 안경을 통한 사용자의 현실을 증강하는 데 유용할 수 있다.At 1170 ,
1128에서, 방법(1100)은 HMD(또는 다른 디스플레이)를 위한 디스플레이 서브시스템으로 하여금 (예컨대, AR 또는 VR 환경에서) 디스플레이 상의 텍스트, 숫자, 또는 이미지들의 렌더링을 조정하게 하는 단계를 포함할 수 있다. 일부 경우들에서, 조정은 눈의 움직임을 (예컨대, 완곡 추종, 단속성, 응시, 안진, 또는 깜빡임으로서) 분류하는 것에 응답할 수 있다.At 1128, the
도 12a 및 도 12b는 눈(1200)의 하나 이상의 표면들 또는 구조들이 하나 이상의 SMI 센서들의 세트를 이용하여 어떻게 맵핑될 수 있는지 도시한다. 예로서, 도 12a 및 도 12b는 단일 SMI 센서(1202)를 도시한다. 일부 예들에서, SMI 센서(1202)는 다수의 SMI 센서들(예컨대, 다수의 개별적인 SMI 센서들 또는 SMI 센서들의 어레이)로 대체될 수 있다. SMI 센서(들)는 도 1 내지 도 11b를 참조하여 기재된 SMI 센서들 중 임의의 것일 수 있다.12A and 12B show how one or more surfaces or structures of
도 12a 및 도 12b 각각은 동일한 눈(1200)의 두 측면도를 도시한다. 각각의 도면에서의 제1 측면도(즉, 측면도들(1204, 1206))는 눈(1200)의 단면을 나타내고, 각각의 도면에서의 제2 측면도(즉, 측면도들(1208, 1210))는 SMI 센서에 의해 생성된 SMI 신호 또는 다수의 상이한 SMI 센서들에 의해 생성된 다수의 SMI 신호들을 분석한 후에 프로세서에 의해 식별된 다양한 눈 구조들의 컴퓨터-생성 모델을 나타낸다. 도 12a는 제1 위치의 눈(1200)을 도시하고, 도 12b는 제2 위치의 눈(1200)을 도시한다.12A and 12B each show two side views of the
단일 SMI 센서(1202)의 경우, SMI 센서(1202)는 SMI 센서(1202)에 의해 방출된 광(1214)의 빔이 눈(1200)에 걸쳐 스캐닝되게 하는 MEMS 또는 기타 구조(1212)에 의해 머리 장착가능 프레임에 장착될 수 있거나, 또는 SMI 센서(1202)에 의해 방출된 광(1214)의 빔은 눈(1200)에 걸쳐 광(1214)의 빔을 스캔하도록 조정될 수 있는 하나 이상의 광학 요소들의 세트에 의해 수광될 수 있다. 대안적으로, 광(1214)의 빔은 빔 스플리터를 이용하여 분할될 수 있고, 다수의 광의 빔들은 동시에, 또는 순차적으로, 눈(1200)에 충돌할 수 있다. 대안적으로, SMI 센서(1202)는 고정된 위치에서 머리 장착가능 프레임에 장착될 수 있고, 사용자는 SMI 센서(1202)가 광의 빔을 방출하는 동안 상이한 위치들로 그들의 눈(1200)을 이동시키도록 요구될 수 있다.In the case of a
본 명세서에 기재된 프로세서들 중 임의의 것과 같은 프로세서는 하나 이상의 SMI 센서들의 세트에 의해 생성된 SMI 신호(들)를 수신하고, SMI 신호(들)를 이용하여, 눈 상의 또는 그 안의 포인트들의 세트에 대한 범위들의 세트를 결정할 수 있다. 범위들은 절대 범위들 또는 상대 범위들을 포함할 수 있다. 이어서 프로세서는 범위들의 세트를 이용하여 눈의 적어도 하나의 구조의 맵을 생성할 수 있다. 맵은 2차원(2D) 맵 또는 3차원(3D) 맵일 수 있다.A processor, such as any of the processors described herein, receives SMI signal(s) generated by a set of one or more SMI sensors, and uses the SMI signal(s) to locate a set of points on or within an eye. A set of ranges can be determined for Ranges can include absolute ranges or relative ranges. The processor may then use the set of ranges to create a map of the at least one structure of the eye. The map may be a two-dimensional (2D) map or a three-dimensional (3D) map.
일부 실시예들에서, 프로세서는, 맵을 이용하여, 눈의 구조, 또는 눈의 제1 구조와 눈의 제2 구조 사이의 경계를 식별하도록 구성될 수 있다. 식별된 구조(들)는, 예를 들어, 홍채(1218), 공막(1220), 동공(1222), 렌즈(1224), 각막 윤부(1226), 눈꺼풀 등 중 하나 이상을 포함할 수 있다.In some embodiments, the processor may be configured to identify, using the map, a structure of the eye or a boundary between a first structure of the eye and a second structure of the eye. The identified structure(s) may include, for example, one or more of
일부 실시예들에서, 프로세서는 광학 센서 서브시스템(예컨대, MEMS, 하나 이상의 광학 요소들, 빔 스플리터 등)을 동작시켜 하나 이상의 광의 빔들을 눈의 식별된 구조를 향해 지향시킬 수 있다. 일부 경우들에서, 구조는 눈의 다른 구조보다 더 확산될 수 있다.In some embodiments, the processor may operate an optical sensor subsystem ( eg , a MEMS, one or more optical elements, a beam splitter, etc.) to direct one or more beams of light toward the identified structure of the eye. In some cases, the structure may be more diffuse than other structures of the eye.
일부 실시예들에서, 프로세서는, 맵을 이용하여, 눈의 시선 벡터(1216)를 결정하도록 구성될 수 있다. 일부 실시예들에서, 프로세서는 또한 또는 대안적으로 하나 이상의 SMI 신호들의 세트를 이용하여 도플러 클라우드를 획득 또는 구성하도록 구성될 수 있다. 하나 이상의 SMI 신호들은 하나 이상의 빔들의 세트 중 다수의 빔들을 동시에 또는 순차적으로 투사 또는 방출, 및/또는 하나 이상의 빔들의 세트 중 적어도 하나의 빔을 스캐닝하는 것과 대응한다. 도플러 클라우드는 VCSEL 파장 변조를 이용하거나 또는 이용하지 않고 획득 또는 구성될 수 있다. 프로세서는 또한 또는 대안적으로, 심도 클라우드를 획득 또는 구성할 수 있다. 심도 클라우드는 VCSEL 파장 변조만을 이용하여 획득 또는 구성될 수 있다.In some embodiments, the processor may be configured to determine the eye's
예를 들어, 하나 이상의 SMI 센서들에 의해 방출된 광의 빔(들)의 파장(들)이 변조될 때, 그리고 적어도 하나의 SMI 센서에 의해 방출된 광의 빔이 스캐닝되고/되거나 다수의 빔들이 방출될 때, 도플러 클라우드, 및/또는 심도 클라우드가 획득 또는 구성될 수 있다. 추가적으로 또는 대안적으로, 도플러 클라우드는 하나 이상의 SMI 센서들에 의해 방출된 광의 빔(들)의 파장(들)이 변조되지 않을 때 획득 또는 구성될 수 있다. 전술된 바와 같이, 도플러 클라우드의 단일 또는 다수의 프레임들은 차분 심도 클라우드로 간주될 수 있다. 실시간으로 프로세싱된 도플러 클라우드의 단일 또는 다수의 프레임들의 측정치들을 이용하여, 사전 정의 및/또는 국소적으로 교정된 차분 맵 또는 라이브러리가 매칭되고/되거나 눈 추적 또는 위치 정보가 추출될 수 있다. 본 명세서에 기재된 바와 같이, 국소적으로 교정된 차분 맵 또는 라이브러리가 카메라, 심도 클라우드 등을 포함하지만, 이에 한정되지 않는 수단에 의해 획득될 수 있다. 또한, 도플러 클라우드는, 단독으로 또는 심도 클라우드 또는 기타 감지 모달리티(예컨대, 눈 카메라 이미지, 모션 센서 등)와 융합되어, 눈 움직임 또는 위치 정보를 추적하는 정확하고 효율적인 방법을 제공하는 데 사용될 수 있다.For example, when the wavelength(s) of the beam(s) of light emitted by one or more SMI sensors is modulated, and the beam(s) of light emitted by at least one SMI sensor is scanned and/or multiple beams are emitted. When done, a Doppler cloud, and/or a depth cloud may be obtained or constructed. Additionally or alternatively, a Doppler cloud may be obtained or constructed when the wavelength(s) of the beam(s) of light emitted by one or more SMI sensors are not modulated. As mentioned above, a single or multiple frames of a Doppler cloud can be considered a differential depth cloud. Using measurements of single or multiple frames of the Doppler cloud processed in real time, a predefined and/or locally calibrated difference map or library may be matched and/or eye tracking or location information may be extracted. As described herein, locally calibrated difference maps or libraries may be obtained by means including, but not limited to, cameras, depth clouds, and the like. In addition, Doppler clouds, alone or fused with depth clouds or other sensing modalities ( eg , eye camera images, motion sensors, etc.), can be used to provide an accurate and efficient way to track eye movement or positional information.
전술한 설명은, 설명의 목적을 위해, 설명된 실시예들의 충분한 이해를 제공하기 위해 특정 명명법을 사용한다. 그러나, 특정 상세사항들은 설명되는 실시예들을 실시하는 데 필수적인 것은 아니라는 것이, 본 설명을 읽은 후에, 통상의 기술자에게 명백할 것이다. 따라서, 본 명세서에 설명된 특정 실시예들의 전술한 설명들은 예시 및 설명의 목적들을 위해 제시된다. 이들은 총망라하고자 하거나 실시예들을 개시된 정확한 형태들로 제한하려고 하는 것은 아니다. 많은 수정예들 및 변형들이 상기 교시 내용들에 비추어 가능하다는 것이, 본 설명을 읽은 후에, 통상의 기술자에게 명백할 것이다.The foregoing description, for purposes of explanation, uses specific nomenclature to provide a thorough understanding of the described embodiments. However, it will be apparent to those skilled in the art after reading this description that the specific details are not essential to practicing the described embodiments. Accordingly, the foregoing descriptions of specific embodiments described herein have been presented for purposes of illustration and description. They are not intended to be exhaustive or to limit the embodiments to the precise forms disclosed. It will be apparent to those skilled in the art after reading this description that many modifications and variations are possible in light of the above teachings.
전술한 바와 같이, 본 기술의 일 태양은, 생체인식 데이터(예컨대, 사용자의 피부 또는 지문의 표면 품질)를 포함하는, 다양한 소스들로부터 이용가능한 데이터의 수집 및 사용일 수 있다. 본 개시내용은, 일부 예시들에서, 이러한 수집된 데이터가 특정 사람을 고유하게 식별하거나 또는 그를 식별, 위치 확인 또는 연락하는 데 사용될 수 있는 개인 정보 데이터를 포함할 수 있음을 고려한다. 그러한 개인 정보 데이터는 예를 들어, 생체 측정 데이터(예컨대, 지문 데이터) 및 이에 연결된 데이터(예컨대, 인구통계 데이터, 위치 기반 데이터, 전화 번호들, 이메일 주소들, 집 주소들, 사용자의 건강 또는 피트니스 레벨에 관한 데이터 또는 기록들(예컨대, 바이탈 사인(vital sign) 측정들, 약물 정보, 운동 정보), 생년월일, 또는 임의의 다른 식별 또는 개인 정보)를 포함할 수 있다.As noted above, one aspect of the present technology may be the collection and use of data available from a variety of sources, including biometric data (eg, the surface quality of a user's skin or fingerprint). This disclosure contemplates that, in some examples, this collected data may include personal information data that uniquely identifies a particular person or that can be used to identify, locate, or contact him. Such personal information data may include, for example, biometric data (eg, fingerprint data) and data associated therewith (eg, demographic data, location-based data, phone numbers, email addresses, home addresses, a user's health or fitness data or records relating to levels (eg, vital sign measurements, medication information, exercise information), date of birth, or any other identifying or personal information).
본 발명은 본 기술에서의 그러한 개인 정보 데이터의 이용이 사용자들에게 이득을 주기 위해 사용될 수 있음을 인식한다. 예를 들어, 개인 정보 데이터는 사용자가 그들의 디바이스에 액세스하도록 인증하거나, 증강 또는 가상 세계와의 사용자의 상호작용에 대한 성능 메트릭을 수집하는 데 사용될 수 있다. 게다가, 사용자에게 이득을 주는 개인 정보 데이터에 대한 다른 사용들이 또한 본 발명에 의해 고려된다. 예를 들어, 건강 및 피트니스 데이터는 사용자의 일반적인 웰니스(wellness)에 대한 통찰력을 제공하는 데 사용될 수 있거나, 또는 웰니스 목표를 추구하기 위한 기술을 사용하는 개인들에게 긍정적인 피드백으로서 사용될 수 있다.The present invention recognizes that the use of such personal information data in the present technology can be used to benefit users. For example, personal information data may be used to authenticate users to access their devices or to collect performance metrics for users' interactions with augmented or virtual worlds. Additionally, other uses for personal information data that benefit the user are also contemplated by the present invention. For example, health and fitness data can be used to provide insight into a user's general wellness, or as positive feedback to individuals using technology to pursue wellness goals.
본 발명은 그러한 개인 정보 데이터의 수집, 분석, 공개, 전송, 저장, 또는 다른 사용을 책임지고 있는 엔티티들이 잘 확립된 프라이버시 정책들 및/또는 프라이버시 관례들을 준수할 것이라는 것을 고려한다. 특히, 그러한 엔티티들은, 대체로 개인 정보 데이터를 사적이고 안전하게 유지시키기 위한 산업적 또는 행정적 요건들을 충족시키거나 넘어서는 것으로 인식되는 프라이버시 정책들 및 관례들을 구현하고 지속적으로 이용해야 한다. 그러한 정책들은 사용자들에 의해 쉽게 액세스가능해야 하고, 데이터의 수집 및/또는 사용이 변화함에 따라 업데이트되어야 한다. 사용자들로부터의 개인 정보는 엔티티의 적법하며 적정한 사용들을 위해 수집되어야 하고, 이들 적법한 사용들을 벗어나서 공유되거나 판매되지 않아야 한다. 또한, 그러한 수집/공유는 사용자들의 통지된 동의를 수신한 후에 발생해야 한다. 부가적으로, 그러한 엔티티들은 그러한 개인 정보 데이터에 대한 액세스를 보호하고 안전하게 하며 개인 정보 데이터에 대한 액세스를 갖는 다른 사람들이 그들의 프라이버시 정책들 및 절차들을 고수한다는 것을 보장하기 위한 임의의 필요한 단계들을 취하는 것을 고려해야 한다. 게다가, 그러한 엔티티들은 널리 인정된 프라이버시 정책들 및 관례들에 대한 그들의 고수를 증명하기 위해 제3자들에 의해 그들 자신들이 평가를 받을 수 있다. 추가로, 정책들 및 관례들은 수집되고/되거나 액세스되는 특정 유형들의 개인 정보 데이터에 대해 조정되고, 관할구역 특정 고려사항들을 비롯한 적용가능한 법률들 및 표준들에 적응되어야 한다. 예를 들어, 미국에서, 소정 건강 데이터의 수집 또는 그에 대한 액세스는 연방법 및/또는 주의 법, 예컨대 미국 건강 보험 양도 및 책임 법령(Health Insurance Portability and Accountability Act, HIPAA)에 의해 통제될 수 있는 반면; 다른 국가들에서의 건강 데이터는 다른 규정들 및 정책들의 적용을 받을 수 있고 그에 따라 취급되어야 한다. 따라서, 상이한 프라이버시 관례들은 각각의 국가의 상이한 개인 데이터 유형들에 대해 유지되어야 한다.The present invention contemplates that entities responsible for the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will adhere to well-established privacy policies and/or privacy practices. In particular, such entities must implement and consistently use privacy policies and practices that are generally recognized to meet or exceed industrial or administrative requirements for keeping personal information data private and secure. Such policies should be easily accessible by users and should be updated as the collection and/or use of data changes. Personal information from users should be collected for legitimate and appropriate uses of the entity, and should not be shared or sold outside of these legitimate uses. Further, such collection/sharing must occur after receiving the notified consent of the users. Additionally, such entities are committed to taking any necessary steps to protect and secure access to such personal information data and to ensure that others having access to such personal information data adhere to their privacy policies and procedures. should be considered Additionally, such entities may themselves be evaluated by third parties to demonstrate their adherence to widely accepted privacy policies and practices. Additionally, policies and practices must be tailored to the specific types of personal information data collected and/or accessed and adapted to applicable laws and standards, including jurisdiction specific considerations. For example, in the United States, the collection of certain health data or access thereto may be governed by federal and/or state laws, such as the US Health Insurance Portability and Accountability Act (HIPAA); Health data from other countries may be subject to different regulations and policies and should be treated accordingly. Accordingly, different privacy practices must be maintained for different types of personal data in each country.
전술한 것에도 불구하고, 본 개시내용은 또한 사용자들이 개인 정보 데이터의 사용, 또는 그에 대한 액세스를 선택적으로 차단하는 실시예들을 고려한다. 즉, 본 발명은 그러한 개인 정보 데이터에 대한 액세스를 방지하거나 차단하기 위해 하드웨어 및/또는 소프트웨어 요소들이 제공될 수 있다는 것을 고려한다. 예를 들어, 광고 전달 서비스들의 경우에, 본 기술은 사용자들이 서비스를 위한 등록 중 또는 이후 임의의 시간에 개인 정보 데이터의 수집 시의 참여의 "동의함" 또는 "동의하지 않음"을 선택하는 것을 허용하도록 구성될 수 있다. 다른 예에서, 사용자들은 타겟 콘텐츠 전달 서비스들에 데이터를 제공하지 않도록 선택할 수 있다. 또 다른 예에서, 사용자들은 데이터가 유지되는 시간의 길이를 제한하거나 또는 사용자에 대한 기본 프로파일의 개발을 전적으로 금지하도록 선택할 수 있다. "동의함" 및 "동의하지 않음" 옵션들을 제공하는 것 이외에, 본 발명은 개인 정보의 액세스 또는 사용에 관한 통지들을 제공하는 것을 고려한다. 예를 들어, 사용자는 그들의 개인 정보 데이터가 액세스될 앱을 다운로드할 시에 통지받고, 이어서 개인 정보 데이터가 앱에 의해 액세스되기 직전에 다시 상기하게 될 수 있다.Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which users selectively block the use of, or access to, personal information data. That is, the present invention contemplates that hardware and/or software components may be provided to prevent or block access to such personal information data. For example, in the case of advertisement delivery services, the present technology allows users to select "agree" or "disagree" of participation in the collection of personal information data during registration for the service or at any time thereafter. It can be configured to allow In another example, users may choose not to provide data to targeted content delivery services. In another example, users may choose to limit the length of time data is maintained or to forbid development of a default profile for the user entirely. In addition to providing "I agree" and "I do not agree" options, the present invention contemplates providing notifications regarding access or use of personal information. For example, a user may be notified upon downloading an app that their personal data will be accessed, and then reminded immediately before the personal data is accessed by the app.
더욱이, 의도하지 않은 또는 인가되지 않은 액세스 또는 사용의 위험요소들을 최소화하는 방식으로 개인 정보 데이터가 관리 및 처리되어야 한다는 것이 본 개시내용의 의도이다. 데이터의 수집을 제한하고 데이터가 더 이상 필요하지 않게 되면 데이터를 삭제함으로써 위험이 최소화될 수 있다. 추가로, 그리고 소정의 건강 관련 애플리케이션들에 적용하는 것을 비롯하여, 적용가능할 때, 사용자의 프라이버시를 보호하기 위해 데이터 식별해제가 사용될 수 있다. 적절한 경우, 특정 식별자들(예컨대, 생년월일 등)을 제거함으로써, 저장된 데이터의 양 또는 특이성을 제어함으로써(예컨대, 주소 수준이라기보다는 오히려 도시 수준에서 위치 데이터를 수집함으로써), 데이터가 저장되는 방식을 제어함으로써(예컨대, 사용자들에 걸쳐 데이터를 집계함으로써), 그리고/또는 다른 방법들에 의해, 식별해제가 용이하게 될 수 있다.Moreover, it is the intent of this disclosure that personal information data should be managed and processed in a manner that minimizes the risks of unintended or unauthorized access or use. Risk can be minimized by limiting the collection of data and deleting data when it is no longer needed. In addition, and when applicable, including as applicable to certain health-related applications, data de-identification may be used to protect user privacy. Control how data is stored, where appropriate, by removing certain identifiers (eg, date of birth, etc.); by controlling the amount or specificity of stored data (eg, collecting location data at the city level rather than at the address level); De-identification may be facilitated by (eg, by aggregating data across users), and/or by other methods.
따라서, 본 개시내용이 하나 이상의 다양한 개시된 실시예들을 구현하기 위해 개인 정보 데이터의 사용을 광범위하게 커버하지만, 본 개시내용은 다양한 실시예들이 또한 그러한 개인 정보 데이터에 액세스할 필요 없이 구현될 수 있다는 것을 또한 고려한다. 즉, 본 기술의 다양한 실시예들은 그러한 개인 정보 데이터의 전부 또는 일부의 결여로 인해 동작불가능해지지 않는다. 예를 들어, 콘텐츠는, 사용자와 연관된 디바이스에 의해 요청되는 콘텐츠, 콘텐츠 전달 서비스들에 대해 이용가능한 다른 비-개인 정보, 또는 공개적으로 입수가능한 정보와 같은 비-개인 정보 데이터 또는 최소량의 개인 정보에 기초하여 선호도를 추론함으로써 선택되고 사용자들에게 전달될 수 있다.Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also indicates that various embodiments may also be implemented without the need to access such personal information data. also consider That is, various embodiments of the present technology are not inoperable due to the lack of all or some of such personal information data. For example, content may include content requested by a device associated with a user, other non-personal information available for content delivery services, or non-personal information data such as publicly available information or minimal amounts of personal information. can be selected and communicated to users by inferring preferences based on
Claims (27)
머리-장착가능 프레임;
상기 머리-장착가능 프레임에 장착되고, 하나 이상의 자체-혼합 간섭계(self-mixing interferometry, SMI) 센서들의 세트를 포함하는 광학 센서 서브시스템; 및
프로세서를 포함하며, 상기 프로세서는,
상기 광학 센서 서브시스템을 동작시켜 상기 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고;
상기 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하고;
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 움직임을 추적하도록 구성된, 눈 추적 디바이스.As an eye tracking device,
a head-mountable frame;
an optical sensor subsystem mounted to the head-mountable frame and including a set of one or more self-mixing interferometry (SMI) sensors; and
It includes a processor, the processor comprising:
operating the optical sensor subsystem to cause the set of one or more SMI sensors to emit a set of one or more beams of light toward an eye of a user;
receive a set of one or more SMI signals from the set of one or more SMI sensors;
An eye tracking device configured to track movement of the eye using the set of one or more SMI signals.
상기 하나 이상의 SMI 센서들의 세트는 적어도 2개의 SMI 센서를 포함하고;
상기 눈의 상기 추적된 움직임은 2차원에서의 상기 눈의 추적된 각속도들을 포함하는, 눈 추적 디바이스.According to claim 1,
the set of one or more SMI sensors includes at least two SMI sensors;
wherein the tracked movement of the eye includes tracked angular velocities of the eye in two dimensions.
상기 하나 이상의 SMI 센서들의 세트는 적어도 3개의 SMI 센서를 포함하고;
상기 눈의 상기 추적된 움직임은 3차원에서의 상기 눈의 추적된 각속도들을 포함하는, 눈 추적 디바이스.According to claim 1,
the set of one or more SMI sensors includes at least three SMI sensors;
wherein the tracked movement of the eye includes tracked angular velocities of the eye in three dimensions.
제1 렌즈 림 및 제2 렌즈 림;
상기 제1 렌즈 림을 상기 제2 렌즈 림에 연결하는 브릿지;
상기 제1 렌즈 림에 연결된 제1 템플; 및
상기 제2 렌즈 림에 연결된 제2 템플을 포함하는, 눈 추적 디바이스.The method of claim 1, wherein the head-mountable frame comprises:
a first lens rim and a second lens rim;
a bridge connecting the first lens rim to the second lens rim;
a first temple connected to the first lens rim; and
and a second temple coupled to the second lens rim.
상기 머리-장착가능 프레임에 장착된 디스플레이를 포함하는 디스플레이 서브시스템을 추가로 포함하는, 눈 추적 디바이스.According to claim 1,
and a display subsystem comprising a display mounted to the head-mountable frame.
상기 프로세서는,
상기 눈의 상기 움직임을 깜빡임(blinking), 완곡 추종(smooth pursuit), 단속성(saccade), 응시(fixation), 또는 안진(nystagmus) 중 적어도 하나로 분류하고;
상기 디스플레이 서브시스템으로 하여금 상기 눈의 상기 분류된 움직임에 응답하여 상기 디스플레이 상에서 하나 이상의 이미지들의 렌더링을 조정하게 하도록 구성된, 눈 추적 디바이스.According to claim 6,
the processor,
classifying the movement of the eye as at least one of blinking, smooth pursuit, saccade, fixation, or nystagmus;
and cause the display subsystem to adjust rendering of one or more images on the display in response to the classified movement of the eye.
상기 프로세서는,
상기 눈의 상기 분류된 움직임을 정량화하도록 구성되고, 여기서,
상기 하나 이상의 이미지들의 상기 렌더링은 상기 눈의 상기 정량화된 움직임에 응답하여 추가로 조정되는, 눈 추적 디바이스.According to claim 7,
the processor,
configured to quantify the classified movement of the eye, wherein:
wherein the rendering of the one or more images is further adjusted in response to the quantified movement of the eye.
상기 프로세서는,
상기 디스플레이 서브시스템으로 하여금 상기 눈의 상기 움직임에 응답하여 상기 디스플레이의 상태를 변경하게 하도록 구성된, 눈 추적 디바이스.According to claim 6,
the processor,
and cause the display subsystem to change a state of the display in response to the movement of the eye.
상기 디스플레이 서브시스템은 기판 상에 장착된 디스플레이 픽셀들의 어레이를 포함하고;
상기 하나 이상의 SMI 센서들의 세트는 상기 디스플레이 픽셀들의 어레이에 인접하거나 또는 그 안에서, 상기 기판 상에 장착된 적어도 하나의 SMI 센서를 포함하는, 눈 추적 디바이스.According to claim 6,
the display subsystem includes an array of display pixels mounted on a substrate;
wherein the set of one or more SMI sensors comprises at least one SMI sensor mounted on the substrate, adjacent to or within the array of display pixels.
상기 광학 센서 서브시스템은,
상기 하나 이상의 SMI 센서들의 세트 내의 SMI 센서에 의해 방출된 광의 빔을 분할하도록 위치된 빔 스플리터를 포함하는, 눈 추적 디바이스.According to claim 1,
The optical sensor subsystem,
and a beam splitter positioned to split a beam of light emitted by an SMI sensor in the set of one or more SMI sensors.
상기 광학 센서 서브시스템은,
상기 하나 이상의 SMI 센서들의 세트 내의 SMI 센서에 의해 방출된 광의 빔을 도파관의 다수의 아웃커플링(outcoupling)들로 안내하도록 위치된 상기 도파관을 포함하는, 눈 추적 디바이스.According to claim 1,
The optical sensor subsystem,
and the waveguide positioned to direct a beam of light emitted by an SMI sensor in the set of one or more SMI sensors to a plurality of outcouplings of the waveguide.
상기 광학 센서 서브시스템은,
상기 하나 이상의 SMI 센서들의 세트 내의 SMI 센서에 의해 방출된 광의 빔을 조향하도록 위치된 빔 조향 컴포넌트를 포함하고,
상기 프로세서는 상기 빔 조향 컴포넌트를 동작시키고 상기 광의 빔을 조향하도록 구성된, 눈 추적 디바이스.According to claim 1,
The optical sensor subsystem,
a beam steering component positioned to steer a beam of light emitted by an SMI sensor in the set of one or more SMI sensors;
wherein the processor is configured to operate the beam steering component and steer the beam of light.
상기 광학 센서 서브시스템은,
상기 하나 이상의 SMI 센서들의 세트 내의 SMI 센서에 의해 방출된 광의 빔을 집속하도록 위치된 렌즈; 및
렌즈 위치설정 메커니즘을 포함하고;
상기 프로세서는 상기 렌즈 위치설정 메커니즘을 동작시키고 상기 눈의 구조 상에 상기 광의 빔을 집속시키도록 구성된, 눈 추적 디바이스.According to claim 1,
The optical sensor subsystem,
a lens positioned to focus a beam of light emitted by an SMI sensor in the set of one or more SMI sensors; and
includes a lens positioning mechanism;
wherein the processor is configured to operate the lens positioning mechanism and focus the beam of light on the structure of the eye.
상기 하나 이상의 SMI 센서들의 세트는,
SMI 센서들의 어레이; 및
상기 SMI 센서들의 어레이 내의 상이한 SMI 센서들 또는 상이한 SMI 센서들의 서브세트들을 처리하도록 구성된 회로부를 포함하고,
상기 프로세서는 상기 회로부를 이용하여 상기 상이한 SMI 센서들 또는 상기 상이한 SMI 센서들의 서브세트들을 선택적으로 동작시키도록 구성된, 눈 추적 디바이스.According to claim 1,
The set of one or more SMI sensors,
an array of SMI sensors; and
circuitry configured to process different SMI sensors or subsets of different SMI sensors in the array of SMI sensors;
wherein the processor is configured to selectively operate the different SMI sensors or subsets of the different SMI sensors using the circuitry.
상기 프로세서는,
상기 눈 상의 또는 그 안의 포인트들의 세트에 대해 범위들의 세트를 결정하도록 구성된, 눈 추적 디바이스.According to claim 1,
the processor,
and determine a set of ranges for a set of points on or within the eye.
상기 프로세서는,
상기 범위들의 세트를 이용하여 상기 눈의 적어도 하나의 구조의 맵을 생성하도록 구성된, 눈 추적 디바이스.According to claim 16,
the processor,
and generate a map of the at least one structure of the eye using the set of ranges.
상기 프로세서는,
상기 맵을 이용하여, 상기 눈의 구조를 식별하고;
상기 광학 센서 서브시스템을 동작시켜 상기 눈의 상기 식별된 구조를 향해 상기 하나 이상의 광의 빔들의 세트 내의 적어도 하나의 광의 빔을 지향시키도록 구성된, 눈 추적 디바이스.According to claim 17,
the processor,
using the map, identify the structure of the eye;
and operate the optical sensor subsystem to direct at least one beam of light in the set of one or more beams of light towards the identified structure of the eye.
하나 이상의 자체-혼합 간섭계(SMI) 센서들의 세트;
카메라; 및
프로세서를 포함하며, 상기 프로세서는,
상기 카메라로 하여금, 제1 주파수에서, 사용자의 눈의 이미지들의 세트를 획득하게 하고;
상기 하나 이상의 SMI 센서들의 세트로 하여금 상기 사용자의 상기 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고;
상기 제1 주파수보다 큰 제2 주파수에서, 상기 하나 이상의 SMI 센서들의 세트에 의해 생성된 하나 이상의 SMI 신호들의 세트를 샘플링하고;
상기 이미지들의 세트 내의 적어도 하나의 이미지를 이용하여 상기 눈의 시선 벡터를 결정하고;
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 움직임을 추적하도록 구성된, 눈 추적 디바이스.As an eye tracking device,
a set of one or more self-mixing interferometry (SMI) sensors;
camera; and
It includes a processor, the processor comprising:
cause the camera to acquire, at a first frequency, a set of images of the user's eye;
cause the set of one or more SMI sensors to emit a set of one or more beams of light toward the eye of the user;
sample a set of one or more SMI signals generated by the set of one or more SMI sensors at a second frequency greater than the first frequency;
determine a gaze vector of the eye using at least one image in the set of images;
An eye tracking device configured to track movement of the eye using the set of one or more SMI signals.
상기 프로세서는,
상기 눈의 상기 추적된 움직임을 이용하여 상기 시선 벡터를 업데이트하도록 구성된, 눈 추적 디바이스.According to claim 21,
the processor,
and update the gaze vector using the tracked movement of the eye.
광학 센서 서브시스템을 동작시켜 상기 광학 센서 서브시스템 내의 하나 이상의 자체-혼합 간섭계(SMI) 센서들의 세트로 하여금 사용자의 상기 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하는 단계;
상기 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하는 단계; 및
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 상기 움직임을 추적하는 단계를 포함하는, 방법.As a method of tracking eye movement,
operating an optical sensor subsystem to cause a set of one or more self-mixing interferometry (SMI) sensors within the optical sensor subsystem to emit one or more sets of beams of light toward the eye of a user;
receiving a set of one or more SMI signals from the set of one or more SMI sensors; and
tracking the movement of the eye using the set of one or more SMI signals.
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 각속도를 추정하는 단계를 포함하는, 방법.24. The method of claim 23, wherein tracking the movement of the eye using the set of one or more SMI signals comprises:
estimating the angular velocity of the eye using the set of one or more SMI signals.
상기 하나 이상의 빔들의 세트 중 다수의 빔들을 동시에 투사하는 단계; 또는
상기 다수의 빔들을 순차적으로 방출하는 단계; 또는
상기 하나 이상의 빔들의 세트 중 적어도 하나의 빔을 스캐닝하는 단계 중 적어도 하나를 추가로 포함하고, 여기서,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 상기 움직임을 추적하는 단계는,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 도플러 클라우드(Doppler cloud)를 구성하는 단계를 포함하는, 방법.According to claim 23,
simultaneously projecting multiple beams of the set of one or more beams; or
sequentially emitting the plurality of beams; or
further comprising at least one of scanning at least one beam of the set of one or more beams, wherein:
Tracking the movement of the eye using the set of one or more SMI signals comprises:
constructing a Doppler cloud using the set of one or more SMI signals.
상기 도플러 클라우드의 하나 이상의 프레임들을 차분 맵(differential map)에 매칭함으로써 눈 위치 정보를 추출하는 단계를 추가로 포함하는, 방법.26. The method of claim 25, wherein tracking the movement of the eye using the set of one or more SMI signals comprises:
and extracting eye position information by matching one or more frames of the Doppler cloud to a differential map.
상기 하나 이상의 빔들의 세트 중 다수의 빔들을 동시에 투사하는 단계; 또는
상기 다수의 빔들을 순차적으로 방출하는 단계; 또는
상기 하나 이상의 빔들의 세트 중 적어도 하나의 빔을 스캐닝하는 단계 동안, 상기 방출된 하나 이상의 빔들의 세트를 변조하는 단계를 추가로 포함하고,
여기서,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 상기 움직임을 추적하는 단계는,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 심도 클라우드(depth cloud)를 구성하는 단계를 포함하는, 방법.
According to claim 23,
simultaneously projecting multiple beams of the set of one or more beams; or
sequentially emitting the plurality of beams; or
modulating the emitted set of one or more beams during the step of scanning at least one beam of the set of one or more beams;
here,
Tracking the movement of the eye using the set of one or more SMI signals comprises:
constructing a depth cloud using the set of one or more SMI signals.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163247188P | 2021-09-22 | 2021-09-22 | |
US63/247,188 | 2021-09-22 | ||
US202217947874A | 2022-09-19 | 2022-09-19 | |
US17/947,874 | 2022-09-19 | ||
KR1020220119902 | 2022-09-22 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220119902 Division | 2021-09-22 | 2022-09-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230092834A true KR20230092834A (en) | 2023-06-26 |
Family
ID=86947871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230018663A KR20230092834A (en) | 2021-09-22 | 2023-02-13 | Eye tracking using self-mixing interferometry |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230092834A (en) |
-
2023
- 2023-02-13 KR KR1020230018663A patent/KR20230092834A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112507799B (en) | Image recognition method based on eye movement fixation point guidance, MR glasses and medium | |
US11686945B2 (en) | Methods of driving light sources in a near-eye display | |
US9285872B1 (en) | Using head gesture and eye position to wake a head mounted device | |
EP2751609B1 (en) | Head mounted display with iris scan profiling | |
US9547365B2 (en) | Managing information display | |
US10606071B1 (en) | Lightfield waveguide integrated eye tracking | |
KR20200108857A (en) | Display systems and methods for determining registration between a display and a user's eyes | |
US9239626B1 (en) | Input system | |
US20130335302A1 (en) | Selective illumination | |
US11719937B2 (en) | Head-mounted electronic device with self-mixing sensors | |
US20140160157A1 (en) | People-triggered holographic reminders | |
CN105009039A (en) | Direct hologram manipulation using IMU | |
US10698483B1 (en) | Eye-tracking systems, head-mounted displays including the same, and related methods | |
KR20150090092A (en) | Wearable food nutrition feedback system | |
Meyer et al. | A novel camera-free eye tracking sensor for augmented reality based on laser scanning | |
US20210314549A1 (en) | Switchable fringe pattern illuminator | |
US10942349B2 (en) | Illumination assembly with in-field micro devices | |
US11435820B1 (en) | Gaze detection pipeline in an artificial reality system | |
US20230333371A1 (en) | Eye Tracking Using Self-Mixing Interferometry | |
KR20230092834A (en) | Eye tracking using self-mixing interferometry | |
CN116482854A (en) | Eye tracking using self-mixing interferometry | |
CN116507267A (en) | Multiple gaze-related illumination sources for retinal eye tracking | |
Meyer et al. | A Highly Integrated Ambient Light Robust Eye-Tracking Sensor for Retinal Projection AR Glasses Based on Laser Feedback Interferometry | |
US11435583B1 (en) | Electronic device with back-to-back displays | |
Wagner et al. | Estimating 3D spatiotemporal point of regard: a device evaluation |