KR20230092834A - Eye tracking using self-mixing interferometry - Google Patents

Eye tracking using self-mixing interferometry Download PDF

Info

Publication number
KR20230092834A
KR20230092834A KR1020230018663A KR20230018663A KR20230092834A KR 20230092834 A KR20230092834 A KR 20230092834A KR 1020230018663 A KR1020230018663 A KR 1020230018663A KR 20230018663 A KR20230018663 A KR 20230018663A KR 20230092834 A KR20230092834 A KR 20230092834A
Authority
KR
South Korea
Prior art keywords
smi
eye
sensors
processor
beams
Prior art date
Application number
KR1020230018663A
Other languages
Korean (ko)
Inventor
통 천
아흐메트 파티 치한
마크 티. 윈클러
월터 니스티코
에드워드 바일
시빈 조우
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20230092834A publication Critical patent/KR20230092834A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Abstract

눈 추적 디바이스는 머리-장착가능 프레임, 머리-장착가능 프레임에 장착된 광학 센서 서브시스템, 및 프로세서를 포함한다. 광학 센서 서브시스템은 하나 이상의 SMI 센서들의 세트를 포함한다. 프로세서는 광학 센서 서브시스템을 동작시켜 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고; 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하고; 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 움직임을 추적하도록 구성된다.An eye tracking device includes a head-mountable frame, an optical sensor subsystem mounted to the head-mountable frame, and a processor. The optical sensor subsystem includes a set of one or more SMI sensors. The processor operates an optical sensor subsystem to cause a set of one or more SMI sensors to emit a set of one or more beams of light toward an eye of a user; receive a set of one or more SMI signals from a set of one or more SMI sensors; and track eye movement using a set of one or more SMI signals.

Description

자체-혼합 간섭계를 이용한 눈 추적{EYE TRACKING USING SELF-MIXING INTERFEROMETRY}Eye tracking using self-mixing interferometry {EYE TRACKING USING SELF-MIXING INTERFEROMETRY}

관련 출원에 대한 상호 참조CROSS REFERENCES TO RELATED APPLICATIONS

본 출원은 정규출원이고, 2021년 9월 22일자로 출원된, 미국 가특허 출원 제63/247,188호의 35 U.S.C. §119(e) 하의 이익을 주장하며, 그 내용은 본 명세서에 참고로서 포함된다.[0001] This application is a non-provisional application and claims 35 U.S.C. The benefit under §119(e) is claimed, the contents of which are incorporated herein by reference.

기술분야technology field

설명된 실시예들은 일반적으로 광학 감지에 관한 것으로, 더 구체적으로는, 광학 센서들을 이용하여 눈 움직임을 추적하는 것에 관한 것이다.The described embodiments relate generally to optical sensing, and more specifically to eye movement tracking using optical sensors.

눈 모니터링 기술들은 근안 디스플레이(예컨대, 머리-장착형 디스플레이(HMD)), 증강 현실(AR) 시스템들, 가상 현실(VR) 시스템들 등을 개선하는 데 사용될 수 있다. 예를 들어, 또한 시선 위치 추적으로 알려진 시선 벡터 추적이 디스플레이 중심와(fovea) 렌더링 또는 인간-컴퓨터 상호작용을 위한 입력으로서 사용될 수 있다. 종래의 눈 모니터링 기술들은 카메라-기반 또는 비디오-기반이고, 눈의 능동적인 조명, 눈 이미지 획득, 및 동공 중심 및 각막 반사와 같은 눈 특징부들의 추출에 의존한다. 이러한 눈 모니터링 기술들의 전력 소모, 폼 팩터, 계산 비용, 및 레이턴시는 더 사용자-친화적 차세대 HMD, AR, 및 VR 시스템들(예컨대, 더 가볍고, 배터리-작동방식이고, 더 완벽한 기능을 갖춘 시스템들)에 대해 상당한 부담일 수 있다.Eye monitoring technologies may be used to improve near eye displays ( eg , head-mounted displays (HMDs)), augmented reality (AR) systems, virtual reality (VR) systems, and the like. For example, gaze vector tracking, also known as gaze position tracking, can be used as an input for display fovea rendering or human-computer interaction. Conventional eye monitoring techniques are camera-based or video-based, and rely on active illumination of the eye, eye image acquisition, and extraction of eye features such as pupil center and corneal reflection. The power consumption, form factor, computational cost, and latency of these eye monitoring technologies make them more user-friendly next-generation HMD, AR, and VR systems ( e.g. , lighter, battery-operated, more full-featured systems). can be a significant burden on

본 개시내용에 기재된 시스템, 디바이스, 방법, 및 장치의 실시예들은 하나 이상의 자체-혼합 간섭계(SMI) 센서들을 활용하여 눈 움직임을 추적한다. 일부 실시예들에서, SMI 센서들은 단독, 또는 카메라와 조합하여 사용되어, 또한 시선 벡터 또는 눈 위치를 결정할 수 있다.Embodiments of systems, devices, methods, and apparatus described in this disclosure utilize one or more self-mixing interferometry (SMI) sensors to track eye movement. In some embodiments, SMI sensors are used alone or in combination with a camera to also determine a gaze vector or eye position.

제1 양태에서, 본 개시내용은 눈 추적 디바이스를 기술한다. 눈 추적 디바이스는 머리-장착가능 프레임, 머리-장착가능 프레임에 장착된 광학 센서 서브시스템, 및 프로세서를 포함할 수 있다. 광학 센서 서브시스템은 하나 이상의 SMI 센서들의 세트를 포함할 수 있다. 프로세서는 광학 센서 서브시스템을 동작시켜 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고; 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하고; 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 움직임을 추적하도록 구성될 수 있다.In a first aspect, the present disclosure describes an eye tracking device. An eye tracking device may include a head-mountable frame, an optical sensor subsystem mounted to the head-mountable frame, and a processor. The optical sensor subsystem may include a set of one or more SMI sensors. The processor operates an optical sensor subsystem to cause a set of one or more SMI sensors to emit a set of one or more beams of light toward an eye of a user; receive a set of one or more SMI signals from a set of one or more SMI sensors; It may be configured to track eye movement using a set of one or more SMI signals.

제2 양태에서, 본 개시내용은 다른 눈 추적 디바이스를 기술한다. 눈 추적 디바이스는 하나 이상의 SMI 센서들의 세트, 카메라, 및 프로세서를 포함할 수 있다. 프로세서는 카메라로 하여금, 제1 주파수에서, 사용자의 눈의 이미지들의 세트를 획득하게 하고; 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고; 제1 주파수보다 큰 제2 주파수에서, 하나 이상의 SMI 센서들의 세트에 의해 생성된 하나 이상의 SMI 신호들의 세트를 샘플링하고; 이미지들의 세트 내의 적어도 하나의 이미지를 이용하여 눈의 시선 벡터를 결정하고; 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 움직임을 추적하도록 구성될 수 있다.In a second aspect, the present disclosure describes another eye tracking device. An eye tracking device may include a set of one or more SMI sensors, a camera, and a processor. The processor causes the camera to obtain, at a first frequency, a set of images of the user's eye; cause a set of one or more SMI sensors to emit a set of one or more beams of light toward an eye of a user; sampling a set of one or more SMI signals generated by a set of one or more SMI sensors at a second frequency greater than the first frequency; determining a gaze vector of an eye using at least one image in the set of images; It may be configured to track eye movement using a set of one or more SMI signals.

제3 양태에서, 본 개시내용은 눈의 움직임을 추적하는 방법을 기술한다. 방법은 광학 센서 서브시스템을 동작시켜 광학 센서 서브시스템 내의 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하는 단계; 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하는 단계; 및 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 움직임을 추적하는 단계를 포함할 수 있다.In a third aspect, the present disclosure describes a method of tracking eye movement. The method includes operating an optical sensor subsystem to cause a set of one or more SMI sensors in the optical sensor subsystem to emit one or more sets of beams of light toward an eye of a user; receiving a set of one or more SMI signals from a set of one or more SMI sensors; and tracking eye movement using the set of one or more SMI signals.

전술된 예시적인 측면들 및 실시예들에 더하여, 추가 측면들 및 실시예들이 도면들을 참조함으로써 그리고 하기 설명의 연구에 의해 명백해질 것이다.In addition to the foregoing exemplary aspects and embodiments, further aspects and embodiments will become apparent by reference to the drawings and by a study of the description below.

본 개시내용은 첨부된 도면들과 함께 다음의 상세한 설명에 의해 용이하게 이해될 것이며, 유사한 참조 부호들은 유사한 구조적 요소들을 가리킨다.
도 1은 눈 추적 디바이스의 예시적인 블록도를 도시한다.
도 2a는 눈의 추적된 각속도의 예시적인 그래프를 도시한다.
도 2b는 눈의 추적된 시선의 예시적인 그래프를 도시한다.
도 3a는 광학 감지 서브시스템 및 프로세서가 안경에 장착된 제1 예시적인 눈 추적 디바이스를 도시한다.
도 3b는 광학 감지 서브시스템 및 프로세서가 VR 헤드셋에 장착된 제2 예시적인 눈 추적 디바이스를 도시한다.
도 4a는 머리-장착가능 프레임에 장착되고 눈을 향해 광을 방출하도록 구성될 수 있는 SMI 센서들의 예시적인 세트의 측면도를 도시한다.
도 4b는 도 4a에 도시된 눈 및 SMI 센서들의 세트의 정면도를 도시한다.
도 5는 머리-장착가능 프레임에 장착되고 눈을 향해 광을 방출하도록 구성될 수 있는 SMI 센서들의 제1 대안적인 세트의 예시적인 정면도를 도시한다.
도 6은 머리-장착가능 프레임에 장착되고 눈을 향해 광을 방출하도록 구성될 수 있는 SMI 센서들의 제2 대안적인 세트의 예시적인 정면도를 도시한다.
도 7은 머리-장착가능 프레임에 장착되고 눈을 향해 광을 방출하도록 구성될 수 있는 SMI 센서들의 제3 대안적인 세트의 예시적인 측면도를 도시한다.
도 8a는 빔 스플리터와 조합된 SMI 센서의 예시적인 사용을 도시한다.
도 8b는 빔 조향 컴포넌트와 조합된 SMI 센서의 예시적인 사용을 도시한다.
도 9a는 SMI 센서의 디스플레이 서브시스템과의 제1 예시적인 통합을 도시한다.
도 9b는 SMI 센서의 디스플레이 서브시스템과의 제2 예시적인 통합을 도시한다.
도 10은 눈 추적 디바이스의 광학 센서 서브시스템에 포함될 수 있는 컴포넌트들의 예시적인 세트를 도시한다.
도 11a는 하나 이상의 SMI 센서들의 세트를 이용하여 눈 움직임을 추적하기 위한 제1 예시적인 방법을 도시한다.
도 11b는 하나 이상의 SMI 센서들의 세트를 카메라 또는 기타 센서들과 조합하여 이용하여 눈 움직임을 추적하기 위한 제2 예시적인 방법을 도시한다.
도 12a 및 도 12b는 눈의 하나 이상의 표면들 또는 구조들이 하나 이상의 SMI 센서들의 세트를 이용하여 어떻게 맵핑될 수 있는지 도시한다.
첨부 도면들에서 크로스-해칭(cross-hatching) 또는 음영의 사용은 일반적으로, 인접하는 요소들 사이의 경계들을 명확하게 하고 도면들의 가독성을 용이하게 하기 위해 제공된다. 따라서, 크로스-해칭 또는 음영의 존재 여부는, 특정한 재료, 재료 속성들, 요소 비율, 요소 치수, 유사하게 도시된 요소들의 공통점, 또는 첨부 도면들에 도시된 임의의 요소에 대한 임의의 다른 특성, 성질, 또는 속성에 대한 어떠한 선호도 또는 요건도 암시하거나 나타내지 않는다.
또한, 다양한 특징부들 및 요소들(및 이들의 집합들 및 그룹들) 및 그 사이에 제공된 경계들, 분리들, 및 위치 관계들의 비율들 및 치수들(상대적이거나 절대적)은 첨부된 도면들에서 단지 본 명세서에 기술된 다양한 실시예들의 이해를 용이하게 하기 위해 제공되고, 따라서 반드시 축척에 맞게 나타내어지거나 도시되지 않을 수 있으며, 도시된 실시예에 대해, 그를 참조하여 기술된 실시예들의 제외에 대한 어떠한 선호도 또는 요건도 나타내도록 의도되지 않는다는 것이 이해되어야 한다.
BRIEF DESCRIPTION OF THE DRAWINGS The present disclosure will be readily understood by the following detailed description taken in conjunction with the accompanying drawings, in which like reference numbers indicate like structural elements.
1 shows an exemplary block diagram of an eye tracking device.
2A shows an example graph of tracked angular velocity of the eye.
2B shows an example graph of an eye's tracked gaze.
3A shows a first example eye-tracking device with an optical sensing subsystem and processor mounted on eyeglasses.
3B shows a second exemplary eye-tracking device with an optical sensing subsystem and processor mounted in a VR headset.
4A shows a side view of an example set of SMI sensors that can be mounted to a head-mountable frame and configured to emit light toward an eye.
FIG. 4b shows a front view of the set of eye and SMI sensors shown in FIG. 4a.
5 shows an exemplary front view of a first alternative set of SMI sensors that can be mounted to a head-mountable frame and configured to emit light toward the eye.
FIG. 6 shows an exemplary front view of a second alternative set of SMI sensors that can be mounted to a head-mountable frame and configured to emit light toward an eye.
FIG. 7 shows an exemplary side view of a third alternative set of SMI sensors that can be mounted to a head-mountable frame and configured to emit light toward an eye.
8A shows an exemplary use of an SMI sensor in combination with a beam splitter.
8B shows an example use of an SMI sensor in combination with a beam steering component.
9A shows a first exemplary integration of an SMI sensor with a display subsystem.
9B shows a second exemplary integration of the SMI sensor with the display subsystem.
10 shows an example set of components that may be included in an optical sensor subsystem of an eye tracking device.
11A shows a first example method for tracking eye movement using a set of one or more SMI sensors.
11B illustrates a second example method for tracking eye movement using a set of one or more SMI sensors in combination with a camera or other sensors.
12A and 12B show how one or more surfaces or structures of the eye may be mapped using one or more sets of SMI sensors.
The use of cross-hatching or shading in the accompanying drawings is generally provided to clarify boundaries between adjacent elements and to facilitate readability of the drawings. Accordingly, the presence or absence of cross-hatching or shading may not be relevant to a particular material, material properties, element proportions, element dimensions, commonalities of like-illustrated elements, or any other characteristic relative to any element shown in the accompanying drawings; No preference or requirement for properties or attributes is implied or indicated.
Further, the proportions and dimensions (relative or absolute) of the various features and elements (and assemblies and groups thereof) and the boundaries, separations, and positional relationships provided therebetween are only shown in the accompanying drawings. It is provided to facilitate an understanding of the various embodiments described herein, and therefore may not necessarily be drawn or drawn to scale, and make no claims about the illustrated embodiments, excluding the embodiments described with reference thereto. It should be understood that neither preference nor requirement is intended to be indicated.

이제, 첨부 도면들에 예시된 대표적인 실시예들에 대한 참조가 상세하게 이루어질 것이다. 하기의 설명이 실시예들을 하나의 바람직한 실시예로 한정하고자 하는 것이 아니라는 것이 이해되어야 한다. 반대로, 첨부된 청구범위에 의해 정의된 바와 같은 설명된 실시예들의 사상 및 범주 내에 포함될 수 있는 대안예들, 수정예들 및 등가물들을 포함하고자 한다.Reference will now be made in detail to representative embodiments illustrated in the accompanying drawings. It should be understood that the following description is not intended to limit the embodiments to one preferred embodiment. On the contrary, it is intended to cover alternatives, modifications and equivalents as may be included within the spirit and scope of the described embodiments as defined by the appended claims.

대부분의 눈 추적 시스템들은 카메라 또는 이미지 기반이고, 적절한 전력량을 이용하여, 충분히 빠르게, 또는 충분히 높은 정확도로 눈 움직임을 추적할 수 없다. 더 높은 정확도 및 민감도를 가지면서, 더 적은 전력 및 더 적은 비용의 시스템들이 필요하다.Most eye tracking systems are camera or image based and cannot track eye movement fast enough or with high enough accuracy, using an adequate amount of power. Less power and less costly systems are needed, with higher accuracy and sensitivity.

완곡 추종(smooth pursuit), 단속성(saccade), 응시(fixation), 안진(nystagmus), 및 깜빡임(blinking)을 구분하는 것과 같은, 눈 움직임들의 신속하고 정확한 검출 및 분류는 중요한 임무일 수 있지만, 또한 카메라-기반, 비디오-기반, 또는 광검출기-기반 추적 시스템들에게는 - 특히 긴박한 전력 예산 하에서 어려울 수 있다. 예를 들어, 응시는 수십 마이크로초만큼 짧을 수 있고 초당 <0.25도(deg/s) 또는 <0.5 deg/s만큼 감지하기 어려울 수 있다. 이러한 눈 움직임의 검출은 높은 해상도 및 높은 프레임 레이트 이미지 획득 및 프로세싱 시스템이 필요함을 시사한다.Although rapid and accurate detection and classification of eye movements, such as distinguishing between smooth pursuit, saccade, fixation, nystagmus, and blinking, can be an important task, It can also be difficult for camera-based, video-based, or photodetector-based tracking systems - especially under tight power budgets. For example, a gaze can be as short as tens of microseconds and imperceptible as <0.25 degrees per second (deg/s) or <0.5 deg/s. Detection of these eye movements suggests a need for high resolution and high frame rate image acquisition and processing systems.

이전에, (예컨대, 단지 더 높은 프레임 레이트에서 더 높은 해상도 이미지들을 획득하는 시스템들과 비교하여) 전체 전력 절약을 위해 감소된 해상도 및 더 높은 프레임 레이트 이미지 캡처들이 더 높은 해상도 및 더 낮은 프레임 레이트 이미지 캡처들과 융합되는 저전력 이미징-기반 눈 주행거리측정이 제안되었다. 대안으로서, 더 낮은 레이턴시 및 더 낮은 전력 소모를 갖는 포토다이오드 어레이-기반 눈 추적기들이 제안되었지만, 더 높은 해상도 및 더 높은 정확성 애플리케이션에서 유용한 것으로 아직 입증되지 않았다. 따라서 포토다이오드 어레이-기반 눈 추적기들은 임무 중요 비디오-기반 눈 추적기, 또는 조밀하지 않은 시선 구역 검출 또는 시선 움직임 임계에 의존하는 근안 디스플레이(또는 HMD) 시스템들을 깨우는 것과 같은, 이분법적인 감지 애플리케이션들에 더 적합하다.Previously, reduced resolution and higher frame rate image captures were performed using higher resolution and lower frame rate image captures for overall power savings ( e.g. , compared to systems that only acquire higher resolution images at higher frame rates). A low-power imaging-based eye odometry fused with captures has been proposed. Alternatively, photodiode array-based eye trackers with lower latency and lower power consumption have been proposed, but have not yet proven useful in higher resolution and higher accuracy applications. Photodiode array-based eye trackers are therefore more suitable for binary sensing applications, such as mission critical video-based eye trackers, or wake up near eye display (or HMD) systems that rely on sparse gaze zone detection or gaze movement thresholding. Suitable.

하기 설명은 SMI 센서들을 - 단독으로 또는 다른 센서들, 예컨대 카메라 또는 기타 이미지-기반 센서와 조합하여 이용하여 눈 움직임을 추적하는 것에 관한 것이다. 본 설명의 목적을 위해, SMI 센서는 광 방출기(예컨대, 레이저 광원) 및 SMI 신호 검출기(예컨대, 포토다이오드와 같은 광 검출기, 또는, 광 방출기의 접합 전압 또는 구동 전류를 측정하는 회로와 같은 전기 검출기)를 포함하는 것으로 간주된다. 하나 이상의 SMI 센서들의 각각은 사용자의 눈의 하나 이상의 구조들을 향해 (예컨대, 눈의 홍채, 공막, 동공, 렌즈, 각막 윤부, 눈꺼풀 등 중 하나 이상을 향해) 하나 이상의 고정 또는 스캐닝된 광의 빔들을 방출할 수 있다. SMI 센서(들)는 사용자의 눈을 해치지 않도록, 동작 안전 사양을 준수하여 동작될 수 있다.The description below relates to eye movement tracking using SMI sensors - alone or in combination with other sensors, such as a camera or other image-based sensor. For purposes of this description, an SMI sensor includes a light emitter ( e.g. , a laser light source) and an SMI signal detector ( e.g. , a photodetector such as a photodiode, or an electrical detector such as a circuit that measures the junction voltage or drive current of the light emitter). ) is considered to include Each of the one or more SMI sensors emits one or more fixed or scanned beams of light towards one or more structures of the user's eye ( eg, towards one or more of the eye's iris, sclera, pupil, lens, limbus, eyelid, etc.) can do. The SMI sensor(s) may be operated in compliance with operational safety specifications so as not to harm the user's eyes.

광의 빔을 방출한 후에, SMI 센서는 그것의 공진 공동 안으로 다시 방출된 광의 재귀반사된 부분을 수광할 수 있다. 양호한 품질 재귀반사를 위해, 눈의 홍채 또는 공막(또는 다른 확산 구조) 상에 SMI 센서에 의해 방출된 광의 빔을 집속하는 것이 눈의 각막 또는 동공 상에 광의 빔을 집속하는 것에 비해 유용할 수 있다. 방출된 광의 재귀반사된 부분의 위상 변화는 공진 공동 내에서 생성되는 광의 위상과 혼합될 수 있고, 증폭 및 검출될 수 있는 SMI 신호를 생성할 수 있다. 증폭된 SMI 신호, 및 일부 경우들에서 다수의 SMI 신호들이 분석될 수 있다. 눈의 회전 움직임은 사용자의 눈의 다수의 배향들 및 위치들로부터 도플러 주파수들을 위상 추적함으로써 검색 및 재구성될 수 있다.After emitting a beam of light, the SMI sensor can receive the retroreflected portion of the emitted light back into its resonant cavity. For good quality retroreflection, focusing the beam of light emitted by the SMI sensor on the iris or sclera (or other diffusing structure) of the eye may be useful compared to focusing the beam of light on the cornea or pupil of the eye. . The phase change of the retroreflected portion of the emitted light can be mixed with the phase of the light produced within the resonant cavity and can produce an SMI signal that can be amplified and detected. An amplified SMI signal, and in some cases multiple SMI signals, may be analyzed. The rotational movement of the eye can be retrieved and reconstructed by phase tracking the Doppler frequencies from multiple orientations and positions of the user's eye.

완곡 추종, 단속성, 응시, 안진, 및 깜빡임과 같은 사용자 시선 거동의 분류 및 정량화는 SMI 센서들을 이용하여 높은 샘플링 속도에서 식별되어, 근안 디스플레이(또는 HMD) 시스템 상의 숫자, 텍스트, 또는 이미지들의 높은 효율성, 높은 충실도, 디지털 콘텐츠 렌더링을 가능하게 할 수 있다.Classification and quantification of user gaze behaviors such as euphemism, saccade, gaze, nystagmus, and blink are identified at high sampling rates using SMI sensors, resulting in high levels of numbers, text, or images on a near eye display (or HMD) system. It can enable efficient, high-fidelity, digital content rendering.

일부 실시예들에서, SMI 센서 데이터 또는 결정들은 더 낮은 샘플링 속도 시선 이미징 시스템(예컨대, 카메라)로부터 획득된 절대 시선 방향 감지 정보(예컨대, 시선 벡터 감지 또는 시선 위치 감지)와 융합되어, 훨씬 더 높은 속도 및 우수한 정확성으로 절대 시선 추적을 가능하게 할 수 있다. 백만 개 이상의 픽셀들을 포함할 수 있는 이미징 시스템에 대조적으로, SMI 센서 데이터는 하나 또는 적은 수의 (예컨대, 2개 또는 3개) SMI 센서들로부터 획득될 수 있다. 이는 SMI 센서들이 이미징 시스템과 비교하여 훨씬 더 낮은 전력 소모로 SMI 신호들(또는 SMI 센서 데이터)을 생성하게 할 수 있다.In some embodiments, the SMI sensor data or determinations are fused with absolute gaze direction sensing information ( eg, gaze vector detection or gaze position detection) obtained from a lower sampling rate gaze imaging system ( eg , camera) to obtain an even higher It can enable absolute eye tracking with speed and excellent accuracy. In contrast to an imaging system that may include a million or more pixels, SMI sensor data may be obtained from one or a small number ( eg , two or three) SMI sensors. This may allow SMI sensors to generate SMI signals (or SMI sensor data) with much lower power consumption compared to an imaging system.

SMI 센서에 의해 방출된 광의 빔의 파장이 변조될 때, SMI 센서로부터 획득된 SMI 신호는, ~100μm 레벨 해상도의 수준에서, 표면의 절대 범위설정, 인터페이스, 및 사용자의 눈의 볼륨 구조들에 사용될 수 있다. 이러한 절대 거리 측정이 눈 회전 동안 눈 프로파일의 변위를 추적하기 위한 고정위치를 제공할 수 있다.When the wavelength of the beam of light emitted by the SMI sensor is modulated, the SMI signal obtained from the SMI sensor, at a level of ~100 μm level resolution, can be used for absolute ranging of surfaces, interfaces, and volume structures of the user's eye. can This absolute distance measurement can provide a fixation point for tracking the displacement of the eye profile during eye rotation.

하나 이상의 SMI 센서들에 의해 방출된 광의 빔(들)의 파장(들)이 변조될 때, 그리고 적어도 하나의 SMI 센서에 의해 방출된 광의 빔이 스캐닝되고/되거나 다수의 빔들이 방출될 때, 도플러 클라우드로도 알려진 변위 및/또는 속도 맵, 및/또는 심도 클라우드로도 알려진 거리 맵이 획득 또는 구성될 수 있다. 추가적으로 또는 대안적으로, 도플러 클라우드는 하나 이상의 SMI 센서들에 의해 방출된 광의 빔(들)의 파장(들)이 변조되지 않을 때 획득 또는 구성될 수 있다. 도플러 클라우드는 태생적으로 높은 해상도를 가질 수 있는데, 이는, 예를 들어, 단일 프레임 변위에 대해 μm 또는 서브-μm 레벨, 또는 속도에 대해 최소 mm/s 또는 deg/s 레벨의 것일 수 있다. 도플러 클라우드의 단일 또는 다수의 프레임들이 차분 심도 클라우드로 간주될 수 있다. 추가적으로, 또는 대안적으로, 도플러 클라우드의 단일 또는 다수의 프레임들의 측정치들은 사전 정의 및/또는 국소적으로 교정된 차분 맵 또는 라이브러리와 매칭하고 눈 추적 정보 및/또는 (포징 정보로도 알려진) 위치 정보를 추출하기 위해 실시간으로 프로세싱될 수 있다. 국소적으로 교정된 차분 맵 또는 라이브러리가 카메라, 심도 클라우드 등을 포함하지만, 이에 한정되지 않는 수단에 의해 획득될 수 있다. 도플러 클라우드를, 단독으로 또는 심도 클라우드 또는 기타 감지 모달리티(예컨대, 눈 카메라 이미지, 모션 센서 등)와 융합되어 사용함으로써, 눈 움직임 또는 위치 정보를 추적하는 정확하고 효율적인 방법을 제공할 수 있다.When the wavelength(s) of the beam(s) of light emitted by one or more SMI sensors is modulated, and when the beam(s) of light emitted by at least one SMI sensor is scanned and/or multiple beams are emitted, Doppler Displacement and/or velocity maps, also known as clouds, and/or distance maps, also known as depth clouds, may be obtained or constructed. Additionally or alternatively, a Doppler cloud may be obtained or constructed when the wavelength(s) of the beam(s) of light emitted by one or more SMI sensors are not modulated. The Doppler cloud may inherently have a high resolution, which may be, for example, on the μm or sub-μm level for a single frame displacement, or at least on the mm/s or deg/s level for velocity. A single or multiple frames of a Doppler cloud can be considered a differential depth cloud. Additionally or alternatively, measurements of single or multiple frames of the Doppler cloud match a predefined and/or locally calibrated difference map or library and eye tracking information and/or positional information (also known as posing information) It can be processed in real time to extract . A locally calibrated difference map or library may be obtained by means including, but not limited to, cameras, depth clouds, and the like. Using a Doppler cloud, alone or fused with a depth cloud or other sensing modalities ( eg , eye camera images, motion sensors, etc.), can provide an accurate and efficient way to track eye movement or positional information.

이들 및 다른 시스템들, 디바이스들, 방법들 및 장치가 도 1 내지 도 12b를 참조하여 설명된다. 그러나, 당업자들은 이러한 도면들과 관련하여 본 명세서에서 제공되는 상세한 설명이 설명의 목적을 위한 것일 뿐이며, 제한적인 것으로 해석되지 않아야 한다는 것을 쉽게 인식할 것이다.These and other systems, devices, methods and apparatus are described with reference to FIGS. 1-12B. However, those skilled in the art will readily appreciate that the detailed description provided herein with respect to these drawings is for explanatory purposes only and should not be construed as limiting.

"상측", "하측", "상부", "하부", "전방", "후방", "위", "아래", "상방", "하방", "좌측", "우측" 등과 같은 방향 용어는 후술되는 도면들 중 일부에서 컴포넌트들의 일부의 배향에 관하여 사용된다. 다양한 실시예들의 구성요소들이 다수의 상이한 배향으로 위치될 수 있기 때문에, 방향 용어는 설명의 목적으로만 사용되며 결코 제한적인 것은 아니다. 방향 용어는 광범위하게 해석되는 것으로 의도되고, 그에 따라서 구성요소들이 상이한 방식으로 배향되는 것을 배제하는 것으로 해석되지 않아야 한다. 본 명세서에서 사용되는 바와 같이, 아이템들 중 임의의 것을 분리하는 용어 "및" 또는 "또는"과 함께, 일련의 아이템들에 선행하는 어구 "~중 적어도 하나"는, 리스트의 각각의 멤버보다는, 리스트를 전체적으로 수식한다. 어구 "중 적어도 하나"는 열거된 각각의 아이템 중 적어도 하나의 선택을 요구하지 않고; 오히려, 이 어구는 아이템들 중 임의의 것 중 최소한 하나, 및/또는 아이템들의 임의의 조합 중 최소한 하나, 및/또는 아이템들 각각 중 최소한 하나를 포함하는 의미를 허용한다. 예시의 방식으로, 어구 "A, B 및 C 중 적어도 하나" 또는 어구 "A, B 또는 C 중 적어도 하나" 각각은 오직 A, 오직 B 또는 오직 C; A, B, 및 C의 임의의 조합; 및/또는 A, B, 및 C 각각 중 하나 이상을 지칭한다. 유사하게, 본 명세서에 제공된 결합성 또는 분리성 리스트에 대해 제시된 요소들의 순서는 본 개시내용을 오직 제공된 그 순서로 제한하는 것으로 해석되어서는 안 된다는 것이 이해될 수 있다.Directions such as "up", "down", "top", "bottom", "front", "back", "up", "down", "up", "down", "left", "right", etc. The term is used in relation to the orientation of some of the components in some of the figures described below. Since components of various embodiments may be positioned in a number of different orientations, directional terms are used for descriptive purposes only and in no way limiting. Orientation terms are intended to be interpreted broadly and, therefore, should not be construed to exclude that components may be oriented in different ways. As used herein, the phrase "at least one of" preceding a series of items, with the terms "and" or "or" separating any of the items, rather than each member of the list, Fully modifies the list. The phrase "at least one of" does not require selection of at least one of each item listed; Rather, the phrase permits a meaning that includes at least one of any of the items, and/or at least one of any combination of items, and/or at least one of each of the items. By way of example, the phrase “at least one of A, B, and C” or the phrase “at least one of A, B, or C” may each include only A, only B, or only C; any combination of A, B, and C; and/or one or more of each of A, B, and C. Similarly, it can be understood that the order of elements presented for associativity or separability lists provided herein should not be construed as limiting the present disclosure only to the order presented.

도 1은 눈 추적 디바이스(100)의 예시적인 블록도를 도시한다. 눈 추적 디바이스(100)는 머리-장착가능 프레임(102), 머리-장착가능 프레임(102)에 장착된 광학 센서 서브시스템(104), 및 프로세서(106)를 포함할 수 있다. 일부 실시예들에서, 눈 추적 디바이스(100)는 또한 디스플레이 서브시스템(108), 통신 서브시스템(110)(예컨대, 무선 및/또는 유선 통신 서브시스템), 및 전력 분배 서브시스템(112) 중 하나 이상을 포함할 수 있다. 프로세서(106), 디스플레이 서브시스템(108), 통신 서브시스템(110), 및 전력 분배 서브시스템(112)은 머리-장착가능 프레임(102)에 부분적으로 또는 전체적으로 장착되거나, 또는 머리-장착가능 프레임(102)에 장착된 하나 이상의 컴포넌트들과 무선 주파수 또는 전기 통신하거나(예컨대, 머리-장착가능 프레임(102)에 장착된 하나 이상의 컴포넌트들과 무선 주파수(, 무선) 또는 전기(예컨대, 코드 연결) 통신하는 박스 또는 전자 디바이스(예컨대, 전화기, 또는 워치와 같은 웨어러블 디바이스) 내에 하우징됨), 또는 머리-장착가능 프레임(102)과 머리-장착가능 프레임(102)에 장착된 하나 이상의 컴포넌트들과 무선 주파수 또는 전기 통신하는 박스 또는 전자 디바이스 사이에 분포될 수 있다. 광학 센서 서브시스템(104), 프로세서(106), 디스플레이 서브시스템(108), 통신 서브시스템(110), 및/또는 전력 분배 서브시스템(112)은 하나 이상의 통신 프로토콜들을 이용하여, 하나 이상의 버스들(116)을 통하거나, 또는 공기를 통해(예컨대, 무선으로) 통신할 수 있다.1 shows an exemplary block diagram of an eye tracking device 100 . The eye tracking device 100 may include a head-mountable frame 102 , an optical sensor subsystem 104 mounted to the head-mountable frame 102 , and a processor 106 . In some embodiments, eye-tracking device 100 also includes one of display subsystem 108, communication subsystem 110 ( eg , wireless and/or wired communication subsystem), and power distribution subsystem 112. may contain more than Processor 106, display subsystem 108, communication subsystem 110, and power distribution subsystem 112 are either partially or wholly mounted on head-mountable frame 102, or head-mountable frame Radio frequency or electrical communication with one or more components mounted on 102 ( e.g. , radio frequency ( i.e. , wireless) or electrical ( e.g. , cord connection) with one or more components mounted on head-mountable frame 102. ) housed within a box or electronic device ( e.g. , a phone, or a wearable device such as a watch) that communicates with the head-mountable frame 102 and one or more components mounted to the head-mountable frame 102. It can be distributed between boxes or electronic devices with radio frequency or electrical communication. Optical sensor subsystem 104, processor 106, display subsystem 108, communication subsystem 110, and/or power distribution subsystem 112 may use one or more communication protocols to communicate with one or more buses. 116, or through the air ( eg , wirelessly).

머리-장착가능 프레임(102)은 안경, 고글 세트, 증강 현실(AR) 헤드셋, 가상 현실(VR) 헤드셋의 형태를 취하거나, 또는 머리-장착가능 프레임(102)의 다른 형태를 취할 수 있다.The head-mountable frame 102 may take the form of glasses, a set of goggles, an augmented reality (AR) headset, a virtual reality (VR) headset, or other forms of the head-mountable frame 102 .

광학 센서 서브시스템(104)은 하나 이상의 SMI 센서들(114)의 세트를 포함할 수 있다. 하나 이상의 SMI 센서들의 세트 내의 각각의 SMI 센서는 광 방출기 및 광 검출기를 포함할 수 있다. 광 방출기는 수직-공동 표면-방출 레이저(VCSEL), 에지-방출 레이저(EEL), 수직 외부-공동 표면-방출 레이저(VECSEL), 양자-점 레이저(QDL), 양자 캐스케이드 레이저(QCL), 또는 발광 다이오드(LED)(예컨대, 유기 LED(OLED), 공진-공동 LED(RC-LED), 마이크로 LED(mLED), 고휘도 LED(SLED), 또는 에지-방출 LED) 등 중 하나 이상을 포함할 수 있다. 광 검출기(또는 광검출기)는 일부 경우들에서 광 방출기에 측방향으로 인접하게 위치(예컨대, 광 검출기가 장착 또는 형성되는 기판 상에 장착 또는 형성)될 수 있다. 다른 경우들에서, 광 검출기는 광 방출기 위에 또는 아래에 적층될 수 있다. 예를 들어, 광 검출기는 일차 방출 및 이차 방출을 갖는 VCSEL, HCSEL, 또는 EEL일 수 있고, 광 검출기는 광 방출기와 동일한 에피택셜 적층으로 에피택셜하게 형성되어, 광 검출기가 이차 방출의 일부 또는 전부를 수광하도록 할 수 있다. 이러한 후자의 실시예들에서, 광 방출기 및 광 검출기는 유사하게 형성될 수 있다(예컨대, 광 방출기 및 광 검출기 둘 모두는 다수의 양자 우물(MQW) 구조들을 포함할 수 있지만, 광 방출기는 순방향 바이어싱될 수 있고 광 검출기(예컨대, 공진 공동 광검출기(RCPD))는 역방향 바이어싱될 수 있음). 대안적으로, 광 검출기는 기판 상에 형성될 수 있고, 광 방출기는 기판에 별도로 형성 및 장착되거나, 또는 광 방출기와 관련하여 형성 및 장착되어, 광 방출기의 이차 광 방출이 광 검출기와 충돌하도록 할 수 있다. 대안적으로, 광 방출기는 기판 상에 형성될 수 있고, 광 검출기는 기판에 별도로 형성 및 장착되거나, 또는 광 방출기와 관련하여 형성 및 장착되어, 광 방출기의 이차 광 방출이 광 검출기와 충돌하도록 할 수 있다.Optical sensor subsystem 104 may include a set of one or more SMI sensors 114 . Each SMI sensor in the set of one or more SMI sensors can include a light emitter and a light detector. The light emitter may be a vertical-cavity surface-emitting laser (VCSEL), an edge-emitting laser (EEL), a vertical external-cavity surface-emitting laser (VECSEL), a quantum-dot laser (QDL), a quantum cascade laser (QCL), or light emitting diodes (LEDs) ( e.g. , organic LEDs (OLEDs), resonant-cavity LEDs (RC-LEDs), micro LEDs (mLEDs), high brightness LEDs (SLEDs), or edge-emitting LEDs), and the like). there is. A photodetector (or photodetector) may in some cases be positioned laterally adjacent to the light emitter ( eg , mounted or formed on a substrate on which the photodetector is mounted or formed). In other cases, the light detector may be stacked above or below the light emitter. For example, the photodetector can be a VCSEL, HCSEL, or EEL with a primary emission and a secondary emission, the photodetector is epitaxially formed of the same epitaxial stack as the photoemitter, so that the photodetector can generate some or all of the secondary emission. can be made to receive light. In these latter embodiments, the light emitter and light detector may be formed similarly ( e.g. , both the light emitter and light detector may include multiple quantum well (MQW) structures, but the light emitter may be forward biased). and the photodetector ( eg , a resonant cavity photodetector (RCPD)) can be reverse biased. Alternatively, the light detector can be formed on the substrate and the light emitter can be separately formed and mounted on the substrate, or formed and mounted in conjunction with the light emitter so that the secondary light emission of the light emitter impinges the light detector. can Alternatively, the light emitter can be formed on the substrate and the light detector can be separately formed and mounted on the substrate, or formed and mounted in conjunction with the light emitter so that the secondary light emission of the light emitter impinges the light detector. can

일부 실시예들에서, 광학 센서 서브시스템(104)은 고정 또는 이동가능 광학 컴포넌트들의 세트(예컨대, 하나 이상의 렌즈들, 광학 격자들, 광학 필터들, 빔 스플리터들, 빔 조향 컴포넌트들 등)를 포함할 수 있다. 광학 센서 서브시스템(104)은 또한 이미지 센서(예컨대, 이미지 센서를 포함하는 카메라)를 포함할 수 있다.In some embodiments, optical sensor subsystem 104 includes a set of fixed or movable optical components ( eg , one or more lenses, optical gratings, optical filters, beam splitters, beam steering components, etc.) can do. Optical sensor subsystem 104 may also include an image sensor ( eg , a camera including an image sensor).

프로세서(106)는 이러한 데이터 또는 명령어들이 소프트웨어 또는 펌웨어의 형태이든지 또는 달리 인코딩되든지 간에, 데이터 또는 명령어들을 프로세싱, 수신, 또는 전송할 수 있는 임의의 전자 디바이스를 포함할 수 있다. 예를 들어, 프로세서(106)는 마이크로프로세서, 중앙 처리 장치(CPU), 주문형 집적회로(ASIC), 디지털 신호 프로세서(DSP), 제어기, 또는 이러한 디바이스들의 조합을 포함할 수 있다. 본 명세서에 기술된 바와 같이, 용어 "프로세서"는 단일의 프로세서 또는 프로세싱 유닛, 다수의 프로세서들, 다수의 프로세싱 유닛들, 또는 다른 적합하게 구성된 컴퓨팅 요소들을 포괄하도록 의도된다.Processor 106 may include any electronic device capable of processing, receiving, or transmitting data or instructions, whether such data or instructions are in the form of software or firmware, or otherwise encoded. For example, processor 106 may include a microprocessor, central processing unit (CPU), application specific integrated circuit (ASIC), digital signal processor (DSP), controller, or a combination of these devices. As used herein, the term “processor” is intended to encompass a single processor or processing unit, multiple processors, multiple processing units, or other suitably configured computing elements.

일부 실시예들에서 눈 추적 디바이스(100)의 컴포넌트들은 다수의 프로세서들에 의해 제어될 수 있다. 예를 들어, 눈 추적 디바이스(100)의 선택 컴포넌트들(예컨대, 광학 센서 서브시스템(104))은 제1 프로세서에 의해 제어될 수 있고, 눈 추적 디바이스의 다른 컴포넌트들(예컨대, 디스플레이 서브시스템(108) 및/또는 통신 서브시스템(110))은 제2 프로세서에 의해 제어될 수 있고, 제1 및 제2 프로세서들은 서로 통신되거나 또는 통신되지 않을 수 있다.In some embodiments the components of eye tracking device 100 may be controlled by multiple processors. For example, select components of the eye-tracking device 100 ( eg , the optical sensor subsystem 104) may be controlled by the first processor, and other components of the eye-tracking device ( eg , the display subsystem ( 108) and/or communication subsystem 110) may be controlled by a second processor, and the first and second processors may or may not be in communication with each other.

일부 실시예들에서, 디스플레이 서브시스템(108)은, 예를 들어, LED, OLED, 액정 디스플레이(LCD), EL(electroluminescent) 디스플레이를 포함하는 하나 이상의 발광 요소들, 또는 다른 유형들의 디스플레이 요소들을 갖는 디스플레이를 포함할 수 있다.In some embodiments, display subsystem 108 has one or more light emitting elements including, for example, an LED, OLED, liquid crystal display (LCD), electroluminescent (EL) display, or other types of display elements. may include a display.

통신 서브시스템(110)은 눈 추적 디바이스(100)가 사용자 또는 다른 전자 디바이스로부터 데이터를 전송 또는 수신하게 할 수 있다. 통신 서브시스템(110)은 터치 감지 입력 표면, 크라운, 하나 이상의 마이크로폰들 또는 스피커들, 또는 전자, RF, 또는 광학 신호들을 전송하도록 구성된 유선 또는 무선(예컨대, 무선 주파수(RF) 또는 광학) 통신 인터페이스를 포함할 수 있다. 무선 및 유선 통신 인터페이스의 예들은, 셀룰러, Wi-Fi, 및 블루투스® 통신 인터페이스를 포함하지만, 이에 한정되지 않는다.Communications subsystem 110 may enable eye tracking device 100 to transmit or receive data from a user or other electronic device. Communications subsystem 110 may include a touch-sensitive input surface, a crown, one or more microphones or speakers, or a wired or wireless ( eg , radio frequency (RF) or optical) communication interface configured to transmit electronic, RF, or optical signals. can include Examples of wireless and wired communication interfaces include, but are not limited to, cellular, Wi-Fi, and Bluetooth® communication interfaces.

전력 분배 서브시스템(112)은 눈 추적 디바이스(100) 또는 그것의 컴포넌트들에 에너지를 전달할 수 있는 전원들 및/또는 전도체들의 임의의 집합으로 구현될 수 있다. 일부 경우들에서, 전력 분배 서브시스템(112)은 하나 이상의 배터리들 또는 재충전가능 배터리들을 포함할 수 있다. 추가적으로 또는 대안적으로, 전력 분배 서브시스템(112)은 눈 추적 디바이스(100) 또는 그것의 컴포넌트들을 원격 전원, 예컨대, 벽면 콘센트, 원격 배터리 팩, 또는 눈 추적 디바이스(100)가 테더링되는 전자 디바이스에 연결하는 데 사용될 수 있는 전력 커넥터 또는 전력 코드를 포함할 수 있다.Power distribution subsystem 112 may be implemented with any collection of power sources and/or conductors capable of delivering energy to eye tracking device 100 or components thereof. In some cases, power distribution subsystem 112 may include one or more batteries or rechargeable batteries. Additionally or alternatively, power distribution subsystem 112 may connect eye tracking device 100 or components thereof to a remote power source, such as a wall outlet, a remote battery pack, or an electronic device to which eye tracking device 100 is tethered. It may include a power connector or power cord that can be used to connect to.

프로세서(106)는 광학 센서 서브시스템(104)을 동작시키도록 구성될 수 있다. 광학 센서 서브시스템(104)을 동작시키는 것은 전력 분배 서브시스템(112)으로 하여금 광학 센서 서브시스템(104)에 전력공급하게 하고, 제어 신호들을 하나 이상의 SMI 센서들(114)의 세트에 제공하고/하거나 전기적으로, 전기기계적으로, 또는 다른 방식으로 광학 센서 서브시스템(104)의 광학 컴포넌트들을 집중 또는 조정하는 제어 신호들을 제공하는 것을 포함할 수 있다. 광학 센서 서브시스템(104)을 동작시키는 것은 하나 이상의 SMI 센서들(114)의 세트로 하여금 하나 이상의 광(118)의 빔들의 세트를 사용자의 눈(120)을 향해 방출하게 하게 할 수 있다. 프로세서(106)는 또한 하나 이상의 SMI 센서들(114)의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하고 하나 이상의 SMI 신호들의 세트를 이용하여 눈(120)의 회전 움직임을 추적하도록 구성될 수 있다.Processor 106 may be configured to operate optical sensor subsystem 104 . Operating the optical sensor subsystem 104 causes the power distribution subsystem 112 to power the optical sensor subsystem 104 and provide control signals to the set of one or more SMI sensors 114 and/or or providing control signals that electrically, electromechanically, or otherwise focus or tune the optical components of the optical sensor subsystem 104 . Operating the optical sensor subsystem 104 may cause the set of one or more SMI sensors 114 to emit sets of one or more beams of light 118 towards the eye 120 of the user. Processor 106 may also be configured to receive a set of one or more SMI signals from a set of one or more SMI sensors 114 and use the set of one or more SMI signals to track rotational movement of eye 120 .

일부 경우들에서, 광학 센서 서브시스템(104), 프로세서(106), 디스플레이 서브시스템(108), 통신 서브시스템(110), 및/또는 전력 분배 서브시스템(112)은 하나 이상의 버스들을 통해 통신할 수 있고, 이는 일반적으로 버스(116)로서 기재된다.In some cases, optical sensor subsystem 104, processor 106, display subsystem 108, communication subsystem 110, and/or power distribution subsystem 112 may communicate over one or more buses. may be, which is generally described as bus 116.

눈(120)의 회전 움직임을 추적하는 것은 일부 경우들에서 눈(120)의 각속도(또는 시선 움직임)를 추정하는 것을 포함할 수 있다. 일부 경우들에서, 각속도는 3개의 직교 방향의 각각에서 (예컨대, x, y, 및 z 방향에서) 추적될 수 있다. 상이한 방향들에서 각속도들를 추적하는 것은 하나 이상의 SMI 센서들(114)의 세트에 의해 방출된 하나 이상의 광의 빔들을 스캐닝하고, 하나 이상의 SMI 센서들(114)의 세트 내의 하나 이상의 SMI 센서들에 의해 방출된 하나 이상의 광의 빔들을 분할하거나, 또는 상이한 방향들에서 (그리고 바람직하게는 상이한 직교 방향들에서) 둘 이상의 광의 빔들을 방출하도록 하나 이상의 SMI 센서들(114)의 세트를 구성하는 것을 필요로 할 수 있다.Tracking the rotational movement of the eye 120 may in some cases include estimating the angular velocity (or gaze movement) of the eye 120 . In some cases, angular velocity can be tracked in each of three orthogonal directions ( eg , in the x, y, and z directions). Tracking the angular velocities in different directions scans one or more beams of light emitted by a set of one or more SMI sensors 114 and emitted by one or more SMI sensors in the set of one or more SMI sensors 114. splitting one or more beams of light, or configuring a set of one or more SMI sensors 114 to emit two or more beams of light in different directions (and preferably in different orthogonal directions). there is.

눈(120)의 회전 움직임을 추적하는 것은 또한 눈(120)의 시선(또는 시선 위치)을 추적하는 것을 포함할 수 있다.Tracking the rotational movement of the eye 120 may also include tracking the gaze (or gaze position) of the eye 120 .

일부 실시예들에서, 프로세서(106)는 사용자의 회전 눈 움직임을 분류하도록 구성될 수 있다. 예를 들어, 회전 눈 움직임은 완곡 추종, 단속성, 응시, 안진, 또는 깜빡임 중 적어도 하나로서 분류될 수 있다. 이어서 프로세서(106)는 디스플레이 서브시스템(108)으로 하여금 회전 눈 움직임의 분류에 응답하여 디스플레이 상에 하나 이상의 이미지들의 렌더링을 조정하게 하도록 할 수 있다. 일부 실시예들에서, 프로세서(106)는 분류된 회전 눈 움직임을 정량화하도록(예컨대, 사용자 깜빡임이 얼마나 빠른지 또는 얼마나 많은지, 사용자의 눈 움직임의 각속도가 얼마인지, 또는 사용자의 눈(120)의 각속도 변화가 얼마나 빈번한지 또는 얼마나 빠른지) 추가로 구성될 수 있고, 하나 이상의 이미지들의 렌더링은 정량화된 회전 눈 움직임에 응답하여 추가로 조정될 수 있다.In some embodiments, the processor 106 may be configured to classify the user's rotational eye movement. For example, rotational eye movements may be classified as at least one of euphemism, saccade, gaze, nystagmus, or blink. Processor 106 may then cause display subsystem 108 to adjust the rendering of one or more images on the display in response to the classification of the rotational eye movement. In some embodiments, the processor 106 is configured to quantify the classified rotational eye movement ( e.g. , how fast or how much the user blinks, what is the angular velocity of the user's eye movement, or the angular velocity of the user's eye 120). how frequent or how fast the change is), and the rendering of one or more images can be further adjusted in response to the quantified rotational eye movement.

일부 실시예들에서, 프로세서(106)는 디스플레이 서브시스템(108)으로 하여금 눈(120)의 움직임에 응답하여 디스플레이의 상태를 변경하게 하도록 구성될 수 있다. 디스플레이의 상태를 변경하는 것은 디스플레이되는 것을 변경하는 것을 포함할 수 있지만, 또한 또는 대안적으로 디스플레이를 저전력 또는 OFF 상태에서 더 높은 전력 또는 ON 상태로 전환하거나 또는, 대안적으로, 디스플레이를 더 높은 전력 또는 ON 상태에서 저전력 또는 OFF 상태로 전환하는 것을 포함할 수 있다.In some embodiments, processor 106 may be configured to cause display subsystem 108 to change the state of the display in response to eye 120 movement. Changing the state of the display may include changing what is displayed, but also or alternatively, transitioning the display from a low power or OFF state to a higher power or ON state, or alternatively, switching the display to a higher power state. Or it may include switching from an ON state to a low power or OFF state.

일부 실시예들에서, 디스플레이는 기판 상에 장착된 디스플레이 픽셀들의 어레이를 포함할 수 있고, 하나 이상의 SMI 센서들(114)의 세트는 디스플레이 픽셀들의 어레이에 인접하게 또는 그 안에서 기판 상에 장착된 적어도 하나의 SMI 센서를 포함할 수 있다. 다른 실시예들에서, SMI 센서(들)(114)는 디스플레이로부터 떨어져 제공될 수 있다.In some embodiments, the display may include an array of display pixels mounted on a substrate, and a set of one or more SMI sensors 114 may be mounted on the substrate adjacent to or within the array of display pixels at least It can include one SMI sensor. In other embodiments, the SMI sensor(s) 114 may be provided remotely from the display.

도 2a는 눈의 추적된 각속도(또는 시선 움직임)의 예시적인 그래프(200)를 도시한다. 예로서, 그래프(200)는 단지 2개의 직교 방향에서 각속도의 추적을 도시한다. 눈의 외부 표면 또는 다른 구조가 2차원 객체로서 모델링될 때, 각속도는 단지 2차원에서 추적될 수 있다. 대안적으로, 각속도는 더 정확하게 3차원으로 추적될 수 있다.2A shows an example graph 200 of tracked angular velocity of the eye (or gaze movement). As an example, graph 200 shows traces of angular velocity in only two orthogonal directions. When the outer surface of the eye or other structure is modeled as a two-dimensional object, the angular velocity can only be tracked in two dimensions. Alternatively, the angular velocity can be tracked more precisely in three dimensions.

도 2b는 눈의 추적된 시선(또는 시선 벡터, 또는 시선 위치)의 예시적인 그래프(210)를 도시한다. 예로서, 그래프(210)는 단지 두 직교 방향의 시선의 추적을 도시한다. 눈의 외부 표면 또는 다른 구조가 2차원 객체로서 모델링될 때, 시선은 단지 2차원에서 추적될 수 있다. 대안적으로, 시선은 더 정확하게 3차원으로 추적될 수 있다.2B shows an example graph 210 of an eye's tracked gaze (or gaze vector, or gaze position). As an example, graph 210 shows gaze tracking in only two orthogonal directions. When the outer surface or other structure of the eye is modeled as a two-dimensional object, the gaze can only be tracked in two dimensions. Alternatively, the line of sight can be tracked more precisely in three dimensions.

SMI-기반 감지는 디바이스 또는 애플리케이션이 완곡 추종, 단속성, 응시, 안진, 및 깜빡임과 같은 미묘한 눈 움직임들을 검출 및/또는 분류할 필요가 있을 때 특히 유용할 수 있는데, 그 이유는 모든 이러한 눈 움직임들은 눈의 각속도를 추적함으로써 검출 및 분류될 수 있고, SMI-기반 감지는 눈의 각속도의 변화를 검출하게 될 때 비디오-기반 또는 광검출기-기반 감지보다 통상적으로 더 빠르고, 더 정확하고, 더 전력 효율적(예컨대, 전력을 덜 소모함)이기 때문이다. 또한, 시선 위치의 초기 및 주기적(저주파수) 보정으로, 고주파수 시선 위치 벡터 추적은, 도 2b에 도시된 바와 같이, 시선 속도 벡터 추적의 통합으로부터 획득될 수 있고, 이는 도 2a에 도시된 바와 같다.SMI-based sensing can be particularly useful when a device or application needs to detect and/or classify subtle eye movements such as euphemism, saccade, gaze, nystagmus, and blink, since all such eye movements They can be detected and classified by tracking the eye's angular velocity, and SMI-based sensing is typically faster, more accurate, and more power-efficient than video-based or photodetector-based sensing when it comes to detecting changes in the eye's angular velocity. Because it is efficient ( eg , consumes less power). Also, with initial and periodic (low frequency) correction of gaze position, high frequency gaze position vector tracking can be obtained from integration of gaze velocity vector tracking, as shown in FIG. 2B , as shown in FIG. 2A .

도 3a는 광학 감지 서브시스템(302) 및 프로세서(304)가 안경(300)에 장착된 제1 예시적인 눈 추적 디바이스를 도시한다. 예로서, 안경(300)(, 머리-장착가능 프레임의 유형)은 제1 렌즈 림(308) 및 제2 렌즈 림(310), 제1 렌즈 림(308)을 제2 렌즈 림(310)에 연결하는 브릿지(312), 제1 렌즈 림(308)에 연결된 제1 템플(314), 및 제2 렌즈 림(310)에 연결된 제2 템플(316)을 포함하도록 도시된다. 일부 실시예들에서, 안경(300)은 헤드-업 디스플레이를 포함하거나 또는 AR 안경으로서 기능할 수 있다.FIG. 3A shows a first example eye-tracking device in which an optical sensing subsystem 302 and a processor 304 are mounted to eyeglasses 300 . As an example, eyeglasses 300 ( i.e. , a type of head-mountable frame) may include a first lens rim 308 and a second lens rim 310, the first lens rim 308 coupled to the second lens rim 310. a bridge 312 connected to the first lens rim 308, a first temple 314 connected to the lens rim 308, and a second temple 316 connected to the second lens rim 310. In some embodiments, glasses 300 may include a heads-up display or function as AR glasses.

제1 렌즈 림(308) 및 제2 렌즈 림(310)의 각각은 제1 렌즈(318) 또는 제2 렌즈(320)와 같은 각각의 렌즈를 보유할 수 있다. 렌즈들(318, 320)은 렌즈들(318, 320)을 통과하는 광을 확대, 집속, 또는 달리 변경하거나 변경하지 않을 수 있다. 예를 들어, 렌즈들(318, 320)은 사용자의 시력을 교정하거나, 밝거나 또는 유해한 광을 차단하거나, 또는 단순히 조정이 없거나 최소한으로 조정되는, 광이 통과할 수 있는 물리적 장벽을 제공할 수 있다. 일부 실시예들에서, 제1 및 제2 렌즈들(318, 320)은 유리 또는 플라스틱으로 형성될 수 있다. 일부 실시예들에서, 제1 및/또는 제2 렌즈들(318, 320)은 텍스트, 숫자, 및/또는 이미지들이 디스플레이 서브시스템(322)에 의해 투사되는 디스플레이(예컨대, 패시브 디스플레이 스크린)로서 기능할 수 있고, 이 디스플레이 서브시스템(322)은 또한 안경에 장착될 수 있다. 대안적으로, 제1 및/또는 제2 렌즈 림들(308, 310)은 투명 또는 반투명 디스플레이(예컨대, 발광 다이오드(LED), 유기 LED(OLED), 또는 디스플레이 서브시스템(322)에 의해 텍스트, 숫자, 및/또는 이미지들을 디스플레이하도록 동작될 수 있는 기타 발광 요소들을 보유할 수 있다.Each of the first lens rim 308 and the second lens rim 310 may hold a respective lens, such as a first lens 318 or a second lens 320 . Lenses 318 and 320 may or may not magnify, focus, or otherwise alter light passing through lenses 318 and 320 . For example, lenses 318 and 320 may correct a user's vision, block bright or harmful light, or simply provide a physical barrier through which light may pass with no or minimal adjustments. there is. In some embodiments, first and second lenses 318 and 320 may be formed of glass or plastic. In some embodiments, first and/or second lenses 318, 320 function as a display ( eg , a passive display screen) onto which text, numbers, and/or images are projected by display subsystem 322. and the display subsystem 322 can also be mounted on eyeglasses. Alternatively, the first and/or second lens rims 308, 310 may display text, digits, or text by a transparent or translucent display ( eg , light emitting diode (LED), organic LED (OLED), or display subsystem 322). , and/or other light emitting elements operable to display images.

추가적인 예로서, 광학 감지 서브시스템(302)은 도 1 및 도 5 내지 도 9b 중 하나 이상을 참조하여 기술된 바와 같이 구성될 수 있고/있거나 프로세서(304)는 도 1 및 도 10 내지 도 12b를 참조하여 기재된 바와 같이 동작하도록 구성될 수 있다. 광학 감지 서브시스템(302)의 하나 이상의 컴포넌트들(예컨대, SMI 센서들, 광학 컴포넌트들, 카메라 등)은 제1 렌즈 림(308), 제2 렌즈 림(310), 브릿지(312), 제1 템플(314), 제2 템플(316), 제1 렌즈(318), 또는 제2 렌즈(320)에 부착된 하나 이상의 기판들 상에 장착될 수 있거나, 또는 이러한 컴포넌트들 중 하나 이상에 직접 장착될 수 있다. 유사하게, 프로세서(304), 디스플레이 서브시스템(322), 통신 서브시스템(324), 및/또는 전력 분배 서브시스템(326)은 이러한 컴포넌트들 중 하나 이상에 장착될 수 있다. 일부 실시예들에서, 광학 감지 서브시스템(302), 프로세서(304), 디스플레이 서브시스템(322), 통신 서브시스템(324), 및/또는 전력 분배 서브시스템(326)의 일부 또는 전부는 안경(300)의 하나 이상의 컴포넌트들 내에, 안경(300)에 장착된 하나 이상의 컴포넌트들에 무선으로 또는 전기적으로 연결된 디바이스 내에 (예컨대, 사용자의 전화기 또는 웨어러블 디바이스) 장착되거나, 또는 안경(300)과 안경(300)의 하나 이상의 컴포넌트들에 무선으로 또는 전기적으로 연결된 디바이스 사이에 분포될 수 있다.As a further example, optical sensing subsystem 302 may be configured as described with reference to one or more of FIGS. 1 and 5-9B and/or processor 304 may be configured with respect to FIGS. It may be configured to operate as described with reference. One or more components ( e.g. , SMI sensors, optical components, camera, etc.) of optical sensing subsystem 302 include a first lens rim 308, a second lens rim 310, a bridge 312, a first Can be mounted on one or more substrates attached to temple 314, second temple 316, first lens 318, or second lens 320, or mounted directly to one or more of these components It can be. Similarly, processor 304, display subsystem 322, communication subsystem 324, and/or power distribution subsystem 326 may be incorporated into one or more of these components. In some embodiments, some or all of the optical sensing subsystem 302, processor 304, display subsystem 322, communication subsystem 324, and/or power distribution subsystem 326 may include glasses ( 300), within a device wirelessly or electrically connected to one or more components mounted on the glasses 300 ( e.g. , a user's phone or wearable device), or between the glasses 300 and the glasses ( 300) may be distributed among devices wirelessly or electrically connected to one or more components.

프로세서(304), 디스플레이 서브시스템(322), 통신 서브시스템(324), 및 전력 분배 서브시스템(326)은 도 1을 참조하여 설명된 바와 같이 추가로 구성 또는 동작될 수 있다.Processor 304 , display subsystem 322 , communication subsystem 324 , and power distribution subsystem 326 may be further configured or operated as described with reference to FIG. 1 .

도 3b는 광학 감지 서브시스템(352) 및 프로세서(354)가 가상 현실(VR) 헤드셋(350)에 장착되는 제2 예시적인 눈 추적 디바이스를 도시한다. 예로서, VR 헤드셋(350)(, 머리-장착가능 프레임의 유형)은 스트랩(356)의 사용자의 머리에 부착될 수 있는 VR 모듈(358)을 포함하도록 도시되어 있다.3B shows a second exemplary eye-tracking device in which an optical sensing subsystem 352 and a processor 354 are mounted to a virtual reality (VR) headset 350 . As an example, a VR headset 350 ( ie , a type of head-mountable frame) is shown to include a VR module 358 that can be attached to the user's head on a strap 356.

VR 모듈(358)은 디스플레이 서브시스템(360)을 포함할 수 있다. 디스플레이 서브시스템(360)은 텍스트, 숫자, 및/또는 이미지들을 디스플레이하기 위한 디스플레이를 포함할 수 있다.VR module 358 may include display subsystem 360 . Display subsystem 360 may include a display for displaying text, numbers, and/or images.

예로서, 광학 감지 서브시스템(352)은 도 1 및 도 5 내지 도 9b 중 하나 이상을 참조하여 기술된 바와 같이 구성될 수 있고/있거나 프로세서(354)는 도 1 및 도 10 내지 도 12b를 참조하여 기재된 바와 같이 동작하도록 구성될 수 있다. 광학 감지 서브시스템(352)의 하나 이상의 컴포넌트들(예컨대, SMI 센서들, 광학 컴포넌트들, 카메라 등)은 VR 모듈(358)에 부착된 하나 이상의 기판들 상에 장착될 수 있거나, 또는 VR 모듈(358)의 하우징에 직접 장착될 수 있다. 유사하게, 프로세서(354), 디스플레이 서브시스템(360), 통신 서브시스템(362), 및/또는 전력 분배 서브시스템(364)은 VR 모듈(358)에 장착될 수 있다. 일부 실시예들에서, 광학 감지 서브시스템(352), 프로세서(354), 디스플레이 서브시스템(360), 통신 서브시스템(362), 및/또는 전력 분배 서브시스템(364)의 일부 또는 전부는 VR 모듈(358)에 무선으로 또는 전기적으로 연결된 디바이스 내에 (예컨대, 사용자의 전화기 또는 웨어러블 디바이스 내에) 장착되거나, 또는 VR 모듈(358)과 VR 모듈(358)에 무선으로 또는 전기적으로 연결된 디바이스 사이에 분포될 수 있다.As an example, optical sensing subsystem 352 may be configured as described with reference to one or more of FIGS. 1 and 5-9B and/or processor 354 may be configured with reference to FIGS. 1 and 10-12B. may be configured to operate as described above. One or more components of the optical sensing subsystem 352 ( eg , SMI sensors, optical components, camera, etc.) can be mounted on one or more substrates attached to the VR module 358, or the VR module ( 358) can be mounted directly on the housing. Similarly, processor 354 , display subsystem 360 , communication subsystem 362 , and/or power distribution subsystem 364 may be incorporated into VR module 358 . In some embodiments, some or all of optical sensing subsystem 352, processor 354, display subsystem 360, communication subsystem 362, and/or power distribution subsystem 364 may be part of a VR module. mounted within a device wirelessly or electrically connected to 358 ( e.g. , within a user's phone or wearable device), or distributed between VR module 358 and a device wirelessly or electrically connected to VR module 358. can

프로세서(354), 디스플레이 서브시스템(360), 통신 서브시스템(362), 및 전력 분배 서브시스템(364)은 도 1을 참조하여 설명된 바와 같이 추가로 구성 또는 동작될 수 있다.Processor 354 , display subsystem 360 , communication subsystem 362 , and power distribution subsystem 364 may be further configured or operated as described with reference to FIG. 1 .

도 4a 및 도 4b는 도 1 내지 도 3b를 참조하여 기재된 머리-장착가능 프레임들 중 하나와 같은, 머리-장착가능 페임에 장착될 수 있는 SMI 센서들(400, 402)의 예시적인 세트를 도시한다. SMI 센서들(400, 402)의 세트는 도 1 내지 도 3b 또는 본 명세서의 다른 곳을 참조하여 기재된 광학 서브시스템들 중 하나와 같은, 광학 센서 서브시스템의 일부를 형성할 수 있다. SMI 센서들(400, 402)의 세트는 눈(404)을 향해 광을 방출하도록 구성될 수 있다. 도 4a는 눈(404) 및 SMI 센서들(400, 402)의 세트의 측면도를 도시하고, 도 4b는 눈(404) 및 SMI 센서들(400, 402)의 세트의 정면도를 도시한다.4A and 4B show an exemplary set of SMI sensors 400, 402 that can be mounted to a head-mountable frame, such as one of the head-mountable frames described with reference to FIGS. 1-3B. do. The set of SMI sensors 400, 402 may form part of an optical sensor subsystem, such as one of the optical subsystems described with reference to FIGS. 1-3B or elsewhere herein. A set of SMI sensors 400 and 402 may be configured to emit light toward eye 404 . 4A shows a side view of an eye 404 and a set of SMI sensors 400, 402, and FIG. 4B shows a front view of an eye 404 and a set of SMI sensors 400, 402.

예로서, SMI 센서들(400, 402)의 세트는 도 4a 및 도 4b에서 2개의 SMI 센서(예컨대, 제1 SMI 센서(400) 및 제2 SMI 센서(402))를 포함하도록 도시된다. 다른 실시예들에서, SMI 센서들(400, 402)의 세트는 더 많거나 또는 더 적은 SMI 센서들을 포함할 수 있다. 제1 SMI 센서(400) 및 제2 SMI 센서(402)는 눈(404)을 향해 각각의 광의 빔들을 방출할 수 있다. 일부 실시예들에서, 광의 빔들은 상이한 방향들로 배향될 수 있고, 상이한 방향들은 직교 방향들이거나 또는 그렇지 않을 수 있다. 광의 빔들이 상이한 방향들로 배향되면, SMI 센서들(400, 402)에 의해 생성된 SMI 신호들을 수신하는 프로세서는 눈(404)의 움직임을 2차원에서 추적할 수 있다(예컨대, 프로세서는 2차원에서 눈(404)의 각속도들을 추적할 수 있음). 광의 빔들은 동일하거나 또는 상이한 위치들에서 눈(404)에 충돌할 수 있다. 예로서, 광의 빔들은 동일한 위치에서 눈(404)에 충돌하도록 도시된다.As an example, a set of SMI sensors 400, 402 is shown in FIGS. 4A and 4B to include two SMI sensors ( eg , first SMI sensor 400 and second SMI sensor 402). In other embodiments, the set of SMI sensors 400, 402 may include more or fewer SMI sensors. The first SMI sensor 400 and the second SMI sensor 402 may emit respective beams of light toward the eye 404 . In some embodiments, the beams of light may be directed in different directions, which may or may not be orthogonal directions. If the beams of light are directed in different directions, a processor receiving the SMI signals generated by the SMI sensors 400 and 402 can track the movement of the eye 404 in two dimensions ( e.g. , the processor can can track the angular velocities of the eye 404 at . The beams of light may impinge on the eye 404 at the same or different locations. As an example, beams of light are shown impinging on the eye 404 at the same location.

일부 실시예들에서, SMI 센서들(400, 402)에 의해 방출된 광은 광학장치들(406 또는 408)(예컨대, 하나 이상의 렌즈들 또는 빔 조향 컴포넌트들 또는 기타 광학장치 컴포넌트들)에 의해 지향 또는 필터링될 수 있다.In some embodiments, light emitted by SMI sensors 400, 402 is directed by optics 406 or 408 ( eg , one or more lenses or beam steering components or other optics components). or filtered.

도 5는 도 1 내지 도 3b를 참조하여 기재된 머리-장착가능 프레임들 중 하나와 같은, 머리-장착가능 프레임에 장착될 수 있는 SMI 센서들(500, 502, 504)의 대안적인 세트의 정면도를 도시한다. SMI 센서들(500, 502, 504)의 세트는 도 1 내지 도 3b 또는 본 명세서의 다른 곳을 참조하여 기재된 광학 서브시스템들 중 하나와 같은, 광학 센서 서브시스템의 일부를 형성할 수 있다. SMI 센서들(500, 502, 504)의 세트는 눈(506)을 향해 광을 방출하도록 구성될 수 있다.5 is a front view of an alternative set of SMI sensors 500, 502, 504 that can be mounted to a head-mountable frame, such as one of the head-mountable frames described with reference to FIGS. 1-3B. show A set of SMI sensors 500, 502, 504 may form part of an optical sensor subsystem, such as one of the optical subsystems described with reference to FIGS. 1-3B or elsewhere herein. A set of SMI sensors 500 , 502 , 504 may be configured to emit light towards eye 506 .

도 4a 및 도 4b를 참조하여 기재된 SMI 센서들의 세트에 대조적으로, 도 5에 도시된 SMI 센서들(500, 502, 504)의 세트는 3개의 SMI 센서(예컨대, 제1 SMI 센서(500), 제2 SMI 센서(502), 및 제3 SMI 센서(504))를 포함한다. 제1 SMI 센서(500), 제2 SMI 센서(502), 및 제3 SMI 센서(504)는 눈(506)을 향해 각각의 광의 빔들을 방출할 수 있다. 일부 실시예들에서, 광의 빔들은 상이한 방향들로 배향될 수 있고, 상이한 방향들은 직교 방향들이거나 또는 그렇지 않을 수 있다. 광의 빔들이 상이한 방향들로 배향되면, SMI 센서들(500, 502, 504)에 의해 생성된 SMI 신호들을 수신하는 프로세서는 눈(506)의 움직임을 3차원에서 추적할 수 있다(예컨대, 프로세서는 3차원에서 눈(506)의 각속도들을 추적할 수 있음). 광의 빔들은 동일하거나 또는 상이한 위치들에서 눈(506)에 충돌할 수 있다. 예로서, 광의 빔들은 동일한 위치에서 눈(506)에 충돌하도록 도시된다.In contrast to the set of SMI sensors described with reference to FIGS. 4A and 4B , the set of SMI sensors 500, 502, and 504 shown in FIG. 5 includes three SMI sensors ( e.g. , the first SMI sensor 500, A second SMI sensor 502 and a third SMI sensor 504). The first SMI sensor 500 , the second SMI sensor 502 , and the third SMI sensor 504 can emit respective beams of light toward the eye 506 . In some embodiments, the beams of light may be directed in different directions, which may or may not be orthogonal directions. When the beams of light are directed in different directions, a processor receiving the SMI signals generated by the SMI sensors 500, 502, and 504 can track the movement of the eye 506 in three dimensions ( e.g. , the processor can track the angular velocities of the eye 506 in three dimensions). The beams of light may impinge on the eye 506 at the same or different locations. As an example, beams of light are shown impinging on the eye 506 at the same location.

도 6은 도 1 내지 도 3b를 참조하여 기재된 머리-장착가능 프레임들 중 하나와 같은, 머리-장착가능 프레임에 장착될 수 있는 SMI 센서들(600, 602, 604)의 제2 대안적인 세트의 예시적인 정면도를 도시한다. SMI 센서들(600, 602, 604)의 세트는 도 1 내지 도 3b 또는 본 명세서의 다른 곳을 참조하여 기재된 광학 서브시스템들 중 하나와 같은, 광학 센서 서브시스템의 일부를 형성할 수 있다. SMI 센서들(600, 602, 604)의 세트는 눈을 향해 광을 방출하도록 구성될 수 있다.6 is a second alternative set of SMI sensors 600, 602, 604 that can be mounted to a head-mountable frame, such as one of the head-mountable frames described with reference to FIGS. 1-3B. An exemplary front view is shown. The set of SMI sensors 600, 602, 604 may form part of an optical sensor subsystem, such as one of the optical subsystems described with reference to FIGS. 1-3B or elsewhere herein. A set of SMI sensors 600, 602, 604 can be configured to emit light toward the eye.

도 6에 도시된 SMI 센서들(600, 602, 604)의 세트는 3개의 SMI 센서(예컨대, 제1 SMI 센서(600), 제2 SMI 센서(602), 및 제3 SMI 센서(604))를 포함한다. 제1 SMI 센서(600), 제2 SMI 센서(602), 및 제3 SMI 센서(604)는 눈(606)을 향해 각각의 광의 빔들을 방출할 수 있다. 일부 실시예들에서, 광의 빔들은 상이한 방향들로 배향될 수 있고, 상이한 방향들은 직교 방향들이거나 또는 그렇지 않을 수 있다. 광의 빔들이 상이한 방향들로 배향되면, SMI 센서들(600, 602, 604)에 의해 생성된 SMI 신호들을 수신하는 프로세서는 눈(606)의 움직임을 3차원에서 추적할 수 있다(예컨대, 프로세서는 3차원에서 눈(606)의 각속도들을 추적할 수 있음). 도 5를 참조하여 기재된 SMI 센서들의 세트에 대조적으로, 광의 빔들 중 2개는 동일한 위치(예컨대, 제1 위치)에서 눈(606)에 충돌하고, 광의 빔들 중 하나는 상이한 위치(예컨대, 제2 위치, 제1 위치와는 상이함)에서 눈(606)에 충돌한다. 대안적으로, 모든 광의 빔들은 동일한 위치에서 눈(606)에 충돌하도록 배향될 수 있거나, 또는 모든 광의 빔들은 상이한 위치들에서 눈(606)에 충돌하도록 배향될 수 있다.The set of SMI sensors 600, 602, and 604 shown in FIG. 6 includes three SMI sensors ( e.g. , first SMI sensor 600, second SMI sensor 602, and third SMI sensor 604). includes The first SMI sensor 600 , the second SMI sensor 602 , and the third SMI sensor 604 can emit respective beams of light toward the eye 606 . In some embodiments, the beams of light may be directed in different directions, which may or may not be orthogonal directions. If the beams of light are directed in different directions, a processor receiving the SMI signals generated by the SMI sensors 600, 602, and 604 can track the movement of the eye 606 in three dimensions ( e.g. , the processor can track the angular velocities of the eye 606 in three dimensions). In contrast to the set of SMI sensors described with reference to FIG. 5 , two of the beams of light impinge on the eye 606 at the same location ( e.g. , the first location) and one of the beams of light strikes the eye 606 at a different location ( e.g. , the second location). It collides with the eye 606 at a location (different from the first location). Alternatively, all beams of light may be oriented to impinge eye 606 at the same location, or all beams of light may be oriented to impinge eye 606 at different locations.

SMI 센서들(600, 602, 604)의 세트를 포함하는 광학 센서 서브시스템은 또한 카메라(608)를 포함할 수 있다. SMI 센서들(600, 602, 604)의 세트와 유사하게, 카메라(608)는 머리-장착가능 프레임에 장착될 수 있다. 카메라(608)는 눈(606)의 이미지들을 획득하도록 위치설정 및/또는 배향될 수 있다. 이미지들은 눈(606)의 일부 또는 전부의 이미지들일 수 있다. 광학 센서 서브시스템을 동작시키도록 구성된 프로세서는 카메라(608)에 의해 획득된 이미지들 및 SMI 센서들(600, 602, 604)의 세트에 의해 생성된 SMI 신호들을 이용하여 눈(606)의 회전 움직임을 추적하도록 구성될 수 있다. 예를 들어, 프로세서는 카메라(608)를 이용하여, 제1 주파수에서 눈의 이미지들의 세트를 획득할 수 있다. 프로세서는 또한 제1 주파수보다 높은 제2 주파수에서, 하나 이상의 SMI 신호들의 세트를 샘플링할 수 있다. 이미지들 및 SMI 신호 샘플들은 시간-중첩 방식으로, 또는 상이한 시간에 병렬로 획득/샘플링될 수 있다. 일부 경우들에서, 프로세서는 하나 이상의 이미지들을 획득하고; 이미지(들)를 분석하여 SMI 센서들(600, 602, 604) 및/또는 SMI 센서들(600, 602, 604)에 의해 방출된 광의 빔들에 대한 눈(606)의 위치를 결정하고; 필요한 경우, 광의 빔들이 눈(606)의 원하는 구조에 충돌하도록 보장하기 위해 광학 센서 서브시스템에 조정을 가할 수 있다. 광학 센서 서브시스템에 대한 조정은, 예를 들어, 빔 조향 컴포넌트를 조정하여 하나 이상의 광의 빔들을 조향하고, SMI 센서들(600, 602, 604)의 특정 서브세트를 어드레싱 및 강제하여 광을 방출하게 하는 것 등 중 하나 이상을 포함할 수 있다(예컨대, 도 7 및 도 8b에 대한 설명 참조). 대안적으로(예컨대, 카메라(608)에 의존하는 것에 대안적으로), SMI 센서들(600, 602, 604)은 사용자가 그들의 눈(606)을 움직임에 따라 범위 측정을 수행하는 데 사용될 수 있고, 범위 측정은 눈 모델에 맵핑되어 SMI 센서들(600, 602, 604)이 원하는 눈 구조에 초점을 맞추는지 결정할 수 있다. 눈 모델은 일반적 눈 모델일 수 있거나, 또는 광학 센서 서브시스템이 트레이닝 및 눈 모델 생성 모드에서 동작할 때 특정 사용자를 위해 생성된 눈 모델일 수 있다.The optical sensor subsystem that includes the set of SMI sensors 600 , 602 , and 604 may also include a camera 608 . Similar to the set of SMI sensors 600, 602, 604, camera 608 may be mounted on a head-mountable frame. Camera 608 may be positioned and/or oriented to acquire images of eye 606 . The images may be images of part or all of the eye 606 . A processor configured to operate the optical sensor subsystem uses images acquired by camera 608 and SMI signals generated by a set of SMI sensors 600, 602, 604 to determine rotational movement of eye 606. can be configured to track For example, the processor may use camera 608 to acquire a set of images of the eye at a first frequency. The processor may also sample the set of one or more SMI signals at a second frequency higher than the first frequency. Images and SMI signal samples may be acquired/sampled in a time-overlapping manner, or in parallel at different times. In some cases, a processor obtains one or more images; analyze the image(s) to determine the position of the eye 606 relative to the SMI sensors 600, 602, 604 and/or the beams of light emitted by the SMI sensors 600, 602, 604; If necessary, adjustments can be made to the optical sensor subsystem to ensure that the beams of light impinge on the desired structure of the eye 606 . Adjustment to the optical sensor subsystem may, for example, adjust a beam steering component to steer one or more beams of light, and address and force a specific subset of SMI sensors 600, 602, 604 to emit light. and the like ( eg , see descriptions of FIGS. 7 and 8B). Alternatively ( e.g. , alternative to relying on camera 608), SMI sensors 600, 602, 604 can be used to perform range measurements as the user moves their eyes 606 and , the range measurement can be mapped to the eye model to determine if the SMI sensors 600, 602, 604 are focused on the desired eye structure. The eye model can be a generic eye model, or an eye model created for a specific user when the optical sensor subsystem operates in training and eye model creation modes.

SMI 센서들(600, 602, 604)의 세트를 포함하는 광학 센서 서브시스템은 또한 눈(606)의 이미지를 취하는 목적들(또는 다른 목적들)을 위해 눈(606)을 조명할 수 있는 하나 이상의 광 방출기들(610, 612)을 포함할 수 있다. 광 방출기들(610, 612)은 LED, 레이저, 또는 디스플레이의 다른 발광 요소들 등의 형태를 취할 수 있다. 광 방출기들(610, 612)은, 카메라(608)가 감지하도록 구성된 광의 유형(들)에 따라, 가시광 또는 비-가시광(예컨대, IR 광)을 방출할 수 있다. 광 방출기들(610, 612)을 이용하여 플러드(flood), 스캔, 또는 스폿 조명을 제공할 수 있다.The optical sensor subsystem comprising the set of SMI sensors 600, 602, 604 may also illuminate the eye 606 for purposes of taking images of the eye 606 (or other purposes). Light emitters 610 and 612 may be included. Light emitters 610 and 612 may take the form of LEDs, lasers, or other light emitting elements of the display. Light emitters 610 and 612 may emit visible or non-visible light ( eg , IR light), depending on the type(s) of light that camera 608 is configured to sense. Light emitters 610 and 612 may be used to provide flood, scan, or spot illumination.

일부 실시예들에서, 프로세서는 SMI 센서들(600, 602, 604)의 세트에 의해 생성된 SMI 신호들을 이용하여 눈(606)의 시선 벡터를 결정 또는 추적할 수 있다. 일부 실시예들에서, 프로세서는 카메라(608)를 이용하여 획득된 하나 이상의 이미지들을 이용하여 시선 벡터를 결정 또는 추적할 수 있다. 일부 실시예들에서, 프로세서는 카메라(608)를 이용하여 획득된 하나 이상의 이미지들을, SMI 신호들과 조합하여 이용하여, 시선 벡터를 추적할 수 있다. 예를 들어, 하나 이상의 이미지들은 시선 벡터를 결정하는 데 사용될 수 있고, 이어서 SMI 신호들은 눈(606)의 움직임을 추적하고 시선 벡터를 업데이트(또는 다시 말해서, 시선 벡터의 움직임을 결정)하는 데 사용될 수 있다.In some embodiments, the processor may determine or track the gaze vector of eye 606 using SMI signals generated by a set of SMI sensors 600 , 602 , 604 . In some embodiments, the processor may determine or track a line of sight vector using one or more images obtained using camera 608 . In some embodiments, the processor may use one or more images obtained using camera 608 in combination with the SMI signals to track the gaze vector. For example, one or more images may be used to determine the gaze vector, and the SMI signals may then be used to track movement of the eye 606 and update the gaze vector (or in other words, determine the movement of the gaze vector). can

도 7은 도 1 내지 도 3b를 참조하여 기재된 머리-장착가능 프레임들 중 하나와 같은, 머리-장착가능 프레임에 장착될 수 있는 SMI 센서들(700, 702, 704)의 제3 대안적인 세트의 예시적인 측면도를 도시한다. SMI 센서들(700, 702, 704)의 세트는 도 1 내지 도 3b 또는 본 명세서의 다른 곳을 참조하여 기재된 광학 서브시스템들 중 하나와 같은, 광학 센서 서브시스템의 일부를 형성할 수 있다. SMI 센서들(700, 702, 704)의 세트는 눈(706)을 향해 광을 방출하도록 구성될 수 있다.7 is a third alternative set of SMI sensors 700, 702, 704 that can be mounted to a head-mountable frame, such as one of the head-mountable frames described with reference to FIGS. 1-3B. An exemplary side view is shown. A set of SMI sensors 700, 702, 704 may form part of an optical sensor subsystem, such as one of the optical subsystems described with reference to FIGS. 1-3B or elsewhere herein. A set of SMI sensors 700 , 702 , 704 may be configured to emit light towards eye 706 .

도 7에 도시된 SMI 센서들(700, 702, 704)의 세트는 3개의 SMI 센서(예컨대, 제1 SMI 센서(700), 제2 SMI 센서(702), 및 제3 SMI 센서(704))를 포함한다. 제1 SMI 센서(700), 제2 SMI 센서(702), 및 제3 SMI 센서(704)는 광의 빔들이 도 4a 및 도 4b(또는 도 5, 또는 도 6)를 참조하여 기재된 SMI 센서들의 세트에 의해 방출될 수 있는 방법과 유사하게, 눈(706)을 향해 각각의 광의 빔들을 방출할 수 있다. 그러나, 모든 SMI 센서들(700, 702, 704)이 동시에 광의 빔들을 방출할 수 있는 것은 아니다. 예를 들어, 제2 및 제3 SMI 센서들(702, 704)은 어드레스가능한 SMI 센서들의 어레이의 일부일 수 있는데, 이 어레이는 일부 경우들에서 2개 초과의 SMI 센서들을 포함할 수 있다. SMI 센서들의 어레이는 SMI 센서들의 어레이 내의 상이한 SMI 센서들 또는 상이한 SMI 센서들의 서브세트들을 어드레스하는 데 사용될 수 있는 회로부에 커플링될 수 있다.The set of SMI sensors 700, 702, and 704 shown in FIG. 7 includes three SMI sensors ( e.g. , first SMI sensor 700, second SMI sensor 702, and third SMI sensor 704). includes The first SMI sensor 700, the second SMI sensor 702, and the third SMI sensor 704 are sets of SMI sensors in which beams of light are described with reference to FIGS. 4A and 4B (or FIG. 5 or 6). may emit respective beams of light toward the eye 706, similar to how it may be emitted by . However, not all SMI sensors 700, 702, 704 can emit beams of light simultaneously. For example, the second and third SMI sensors 702, 704 can be part of an array of addressable SMI sensors, which array can include more than two SMI sensors in some cases. The array of SMI sensors can be coupled to circuitry that can be used to address different SMI sensors or subsets of different SMI sensors within the array of SMI sensors.

일부 경우들에서, 제2 및 제3 SMI 센서들(702, 704)에 의해 방출된 광의 빔들(그리고 일부 경우들에서, SMI 센서들의 어레이 내의 다른 SMI 센서들에 의해 방출된 광의 빔들)은 공유 렌즈, 렌즈 트레인, 렌즈 어레이, 또는 하나 이상의 다른 광학 컴포넌트들(708)을 향해 지향될 수 있다.In some cases, the beams of light emitted by the second and third SMI sensors 702, 704 (and in some cases, the beams of light emitted by other SMI sensors in the array of SMI sensors) are a shared lens , may be directed towards the lens train, lens array, or one or more other optical components 708.

일부 경우들에서, SMI 센서들의 세트를 포함하는 광학 센서 서브시스템은 또한 카메라(710)를 포함할 수 있고, 이 카메라(710)는 도 6를 참조하여 기재된 카메라와 유사하게 사용될 수 있다.In some cases, the optical sensor subsystem that includes the set of SMI sensors may also include a camera 710 , which may be used similarly to the camera described with reference to FIG. 6 .

일부 경우들에서, 프로세서는 상이한 목적들을 위해 SMI 센서들의 어레이 내의 상이한 SMI 센서들(702, 704)(또는 상이한 SMI 센서들의 서브세트들)을 선택적으로 동작(예컨대, 활성화 및 비활성화)시킬 수 있다. 예를 들어, 프로세서는 회로부를 동작시켜(또는 사용하여) 특정 SMI 센서, 또는 SMI 센서들의 특정 서브세트를 활성화하여, 특정 초점 또는 초점들을 가질 수 있다. 일부 경우들에서, 프로세서는 카메라(710)로 하여금 눈(706)의 하나 이상의 이미지들을 획득하게 할 수 있다. 프로세서는 이어서 이미지(들)를 분석하여 눈(706)의 시선 벡터를 결정할 수 있고, 눈(706)의 특정 구조 또는 영역(또는 구조들 또는 영역들) 상에 집중되는 (SMI 센서들의 어레이 내의) 하나 이상의 SMI 센서들(702, 704)을 활성화할 수 있다. 프로세서는 또한 SMI 센서(700)와 같은 다른 SMI 센서들을 활성화할 수 있다.In some cases, the processor can selectively operate ( eg , activate and deactivate) different SMI sensors 702, 704 (or subsets of different SMI sensors) in the array of SMI sensors for different purposes. For example, a processor may operate (or use) circuitry to activate a particular SMI sensor, or a particular subset of SMI sensors, to have a particular focus or focal points. In some cases, the processor may cause camera 710 to acquire one or more images of eye 706 . The processor may then analyze the image(s) to determine the gaze vector of the eye 706, which is centered on a particular structure or region (or structures or regions) of the eye 706 (in the array of SMI sensors). One or more SMI sensors 702, 704 may be activated. The processor may also activate other SMI sensors, such as SMI sensor 700.

도 8a는 빔 스플리터(802)와 조합된 SMI 센서(800)의 예시적인 사용을 도시한다. SMI 센서(800)는 도 1 내지 도 7을 참조하여 기재된 SMI 센서들 중 임의의 것, 또는 이하 기재되는 SMI 센서들 중 임의의 것일 수 있다. 빔 스플리터(802)는 SMI 센서에 의해 방출된 광(804)의 빔을 분할하도록 위치될 수 있다. 빔은 다수의 빔들(806, 808, 810)(예컨대, 2개, 3개, 또는 그 이상의 빔들)로 분할될 수 있다. 일부 경우들에서, 빔 스플리터(802)는 다수의 빔들(806, 808, 810)을 재지향 또는 조향하는 하나 이상의 렌즈들 또는 빔 조향 컴포넌트들과 연관될 수 있다. 일부 경우들에서, 다수의 빔들(806, 808, 810)은 눈 상의 (또는 그 안의) 공유 초점을 향해 재지향될 수 있다.8A shows an exemplary use of the SMI sensor 800 in combination with a beam splitter 802. The SMI sensor 800 can be any of the SMI sensors described with reference to FIGS. 1-7 or any of the SMI sensors described below. A beam splitter 802 may be positioned to split the beam of light 804 emitted by the SMI sensor. The beam may be split into multiple beams 806, 808, 810 ( eg , two, three, or more beams). In some cases, beam splitter 802 can be associated with one or more lenses or beam steering components that redirect or steer multiple beams 806, 808, 810. In some cases, multiple beams 806, 808, 810 can be redirected towards a shared focal point on (or within) the eye.

도 8b는 빔 조향 컴포넌트(852)와 조합된 SMI 센서(850)의 예시적인 사용을 도시한다. SMI 센서(850)는 도 1 내지 도 7을 참조하여 기재된 SMI 센서들 중 임의의 것, 또는 이하 기재되는 SMI 센서들 중 임의의 것일 수 있다. 빔 조향 컴포넌트(852)는 SMI 센서(850)에 의해 방출된 광(854)의 빔을 조항하도록 위치될 수 있다. 프로세서는 빔 조향 컴포넌트(852)를 동작시키고 광(854)의 빔을 눈의 상이한 구조들 또는 영역들로 조향하도록 구성될 수 있다. 일부 실시예들에서, 빔 조향 컴포넌트(852)는 빔 포커싱 컴포넌트 또는 렌즈 위치설정 메커니즘을 포함할 수 있고, 이 빔 포커싱 컴포넌트 또는 렌즈 위치설정 메커니즘은 그것의 축을 따라 빔의 초점을 변경하도록 조정될 수 있다. 일부 실시예들에서, 빔 조향 컴포넌트(852)는 빔 포커싱 컴포넌트로 대체될 수 있다.8B shows an example use of the SMI sensor 850 in combination with a beam steering component 852. The SMI sensor 850 can be any of the SMI sensors described with reference to FIGS. 1-7 or any of the SMI sensors described below. Beam steering component 852 can be positioned to condition the beam of light 854 emitted by SMI sensor 850 . The processor can be configured to operate beam steering component 852 and steer the beam of light 854 to different structures or regions of the eye. In some embodiments, beam steering component 852 can include a beam focusing component or lens positioning mechanism, which can be adjusted to change the focus of a beam along its axis. . In some embodiments, beam steering component 852 may be replaced with a beam focusing component.

도 9a는 SMI 센서(900)의 디스플레이 서브시스템과의 제1 예시적인 통합을 도시한다. SMI 센서(900)는 도 1 내지 도 7을 참조하여 기재된 SMI 센서들 중 임의의 것, 또는 이하 기재되는 SMI 센서들 중 임의의 것일 수 있다. 디스플레이 서브시스템은 일부 예들에서 도 1, 도 3a, 또는 도 3b를 참조하여 기재된 디스플레이 서브시스템일 수 있다.9A shows a first exemplary integration of the SMI sensor 900 with the display subsystem. The SMI sensor 900 may be any of the SMI sensors described with reference to FIGS. 1-7, or any of the SMI sensors described below. The display subsystem may be the display subsystem described with reference to FIGS. 1 , 3A, or 3B in some examples.

디스플레이 서브시스템은 기판(908) 상에 장착 또는 형성되는 디스플레이 픽셀들(902, 904, 906)의 어레이를 포함할 수 있다. 예로서, 디스플레이 서브시스템은 청색 픽셀(902), 녹색 픽셀(904), 및 적색 픽셀(906)을 포함하도록 도시되지만, 디스플레이 서브시스템은 각각의 청색 픽셀, 녹색 픽셀, 및 적색 픽셀의 다수의 인스턴스들을 포함할 수 있다. 일부 경우들에서, 디스플레이 픽셀들(902, 904, 906)은 LED들 또는 다른 유형들의 발광 요소들을 포함할 수 있다.The display subsystem may include an array of display pixels 902 , 904 , 906 mounted or formed on a substrate 908 . As an example, the display subsystem is shown to include a blue pixel 902, a green pixel 904, and a red pixel 906, but the display subsystem is multiple instances of each blue pixel, green pixel, and red pixel. may include In some cases, display pixels 902, 904, 906 may include LEDs or other types of light emitting elements.

SMI 센서(900)는 기판(908) 상에 장착될 수 있다. 예로서, SMI 센서(900)는 디스플레이 픽셀들(902, 904, 906)의 어레이에 인접하게 기판(908) 상에 장착되도록 도시된다. 대안적으로, SMI 센서(900)는 디스플레이 픽셀들(902, 904, 906)의 어레이 내에서 (, 디스플레이 픽셀들 사이에) 기판(908) 상에 장착될 수 있다. 일부 실시예들에서, 하나 초과의 SMI 센서(900)가 기판(908) 상에 장착될 수 있는데, 각각의 SMI 센서(900)는 디스플레이 픽셀들(902, 904, 906)의 어레이에 인접하게 또는 그 안에 위치된다. 일부 실시예들에서, SMI 센서(900)는 IR 광을 방출할 수 있다. 다른 실시예들에서, SMI 센서(900)는 가시광, 자외선광, 또는 다른 유형들의 광을 방출할 수 있다. 일부 실시예들에서, 디스플레이 픽셀들(902, 904, 906) 중 하나 이상은 SMI 센서들로서 동작가능할 수 있다.SMI sensor 900 may be mounted on substrate 908 . As an example, SMI sensor 900 is shown mounted on a substrate 908 adjacent to an array of display pixels 902 , 904 , 906 . Alternatively, SMI sensor 900 may be mounted on substrate 908 within an array of display pixels 902 , 904 , 906 ( ie , between display pixels). In some embodiments, more than one SMI sensor 900 may be mounted on the substrate 908, with each SMI sensor 900 adjacent to or adjacent to an array of display pixels 902, 904, 906. located in it In some embodiments, SMI sensor 900 may emit IR light. In other embodiments, SMI sensor 900 may emit visible light, ultraviolet light, or other types of light. In some embodiments, one or more of display pixels 902, 904, 906 may be operable as SMI sensors.

공유된 도파관(910)은 디스플레이 픽셀들(902, 904, 906) 및 SMI 센서(900)에 의해 방출된 광의 빔들을 마이크로전자 기계 시스템(MEMS)에 의해 이동될 수 있는 하나 이상의 거울들의 세트와 같은 빔 조향 컴포넌트(912)를 향해 안내하도록 위치될 수 있다. 대안적인 실시예들에서, 도파관들의 세트(예컨대, 광섬유들의 세트)는 디스플레이 픽셀들(902, 904, 906) 및 SMI 센서(900)에 의해 방출된 광을 빔 조향 컴포넌트(912)를 향해 지향시키도록 사용될 수 있다. 프로세서는 디스플레이 픽셀들(902, 904, 906) 및 빔 조향 컴포넌트(912)를 동작시켜 디스플레이 상에 텍스트, 숫자, 또는 이미지들을 렌더링할 수 있다. 일부 경우들에서, 디스플레이는 안경의 하나 이상의 렌즈들, 또는 VR 헤드셋 내에 위치된 디스플레이를 포함할 수 있다.The shared waveguide 910 is a set of one or more mirrors that can be moved by a microelectromechanical system (MEMS) through the display pixels 902, 904, 906 and the beams of light emitted by the SMI sensor 900. It may be positioned to guide towards beam steering component 912 . In alternative embodiments, a set of waveguides ( eg , a set of optical fibers) directs light emitted by display pixels 902, 904, 906 and SMI sensor 900 toward beam steering component 912. can be used for A processor may operate display pixels 902, 904, 906 and beam steering component 912 to render text, numbers, or images on the display. In some cases, the display can include one or more lenses of eyeglasses, or a display positioned within a VR headset.

공유된 도파관(910)(또는 도파관들의 세트)은 눈에서 반사 또는 산란되는 광의 일부분과 같은 SMI 센서(900)에 의해 방출된 광의 복귀되는 부분을 수광하고, 방출된 광의 복귀되는 부분을 SMI 센서(900)의 공진 공동 안을 향해 지향시킬 수 있다.The shared waveguide 910 (or set of waveguides) receives the returned portion of the light emitted by the SMI sensor 900, such as the portion of light reflected or scattered by the eye, and sends the returned portion of the emitted light to the SMI sensor ( 900) into the resonant cavity.

도 9b는 SMI 센서(950)의 디스플레이 서브시스템과의 제2 예시적인 통합을 도시한다. SMI 센서(950)는 도 1 내지 도 7을 참조하여 기재된 SMI 센서들 중 임의의 것, 또는 이하 기재되는 SMI 센서들 중 임의의 것일 수 있다. 디스플레이 서브시스템은 일부 예들에서 도 1, 도 3a, 또는 도 3b를 참조하여 기재된 디스플레이 서브시스템일 수 있다.9B shows a second exemplary integration of the SMI sensor 950 with the display subsystem. SMI sensor 950 may be any of the SMI sensors described with reference to FIGS. 1-7 or any of the SMI sensors described below. The display subsystem may be the display subsystem described with reference to FIGS. 1 , 3A, or 3B in some examples.

디스플레이 서브시스템은 기판(958) 상에 장착 또는 형성된 디스플레이 픽셀들(952, 954, 956)의 어레이 및 SMI 센서(950)를 포함할 수 있다. 디스플레이 픽셀들(952, 954, 956) 및 SMI 센서(950)는 도 9a를 참조하여 기재된 바와 같이 구성될 수 있다.The display subsystem may include an array of display pixels 952 , 954 , 956 mounted or formed on a substrate 958 and an SMI sensor 950 . Display pixels 952, 954, 956 and SMI sensor 950 may be configured as described with reference to FIG. 9A.

도파관(960)(또는 도파관들의 세트)이 디스플레이 픽셀들(952, 954, 956) 및 SMI 센서(950)에 의해 방출된 광의 빔들을 추가로 공유된 도파관(962)을 향해 안내하도록 위치될 수 있거나, 또는 공유된 도파관(960)의 원위 부분(또는 도파관들의 세트의 원위 부분들)이 구부러질 수 있고, 광이 추가로 공유된 도파관(962)의 아웃커플링(outcoupling)들로부터, 또는 공유된 도파관(962) 또는 도파관들의 세트의 원위 부분(들)의 아웃커플링들로부터 방출될 수 있다. 프로세서는 디스플레이 픽셀들(952, 954, 956)을 동작시켜 텍스트, 숫자, 또는 이미지들을 디스플레이 상에 투사할 수 있다.A waveguide 960 (or set of waveguides) may be positioned to guide the beams of light emitted by the display pixels 952, 954, 956 and the SMI sensor 950 further toward the shared waveguide 962, or , or the distal portion of the shared waveguide 960 (or the distal portions of the set of waveguides) can be bent, and the light is further displaced from outcouplings of the shared waveguide 962, or from the shared waveguide 962. waveguide 962 or outcouplings of the distal portion(s) of the set of waveguides. A processor may operate display pixels 952, 954, and 956 to project text, numbers, or images onto the display.

눈에서 반사 또는 산란되는 광의 일부분과 같은, SMI 센서(950)에 의해 방출된 광의 복귀되는 부분은 도파관(들)(962, 960)을 통해, 그리고 SMI 센서(950)의 공진 공동 안을 향해 재지향될 수 있다.The returning portion of the light emitted by the SMI sensor 950, such as the portion of light that is reflected or scattered from the eye, will be redirected through the waveguide(s) 962, 960 and into the resonant cavity of the SMI sensor 950. can

도 10은 눈 추적 디바이스의 광학 센서 서브시스템에 포함될 수 있는 컴포넌트들(1000)의 예시적인 세트를 도시한다. 컴포넌트들(1000)의 세트는 일반적으로 광학 또는 광전자 컴포넌트들(1002)의 서브세트, 아날로그 컴포넌트들(1004)의 서브세트, 디지털 컴포넌트들(1006)의 서브세트, 및 시스템 컴포넌트들(1008)의 서브세트(예컨대, 프로세서, 및 일부 경우들에서 기타 제어 컴포넌트들)로 분할된다.10 shows an example set of components 1000 that may be included in an optical sensor subsystem of an eye tracking device. The set of components 1000 is generally a subset of optical or optoelectronic components 1002, a subset of analog components 1004, a subset of digital components 1006, and a subset of system components 1008. It is divided into subsets ( eg , processors, and in some cases other control components).

광학 또는 광전자 컴포넌트들(1002)의 서브세트는 공진 공동을 갖는 레이저 다이오드(1010) 또는 다른 광학 방출기를 포함할 수 있다. 컴포넌트들(1002)은 또한 광검출기(1012)(예컨대, 포토다이오드)를 포함할 수 있다. 광검출기(1012)는 레이저 다이오드(1010)와 동일한 에피택셜 적층에 (예컨대, 레이저 다이오드(1010) 위, 아래, 또는 인접하게) 집적될 수 있거나, 또는 레이저 다이오드(1010)와 함께 적층되거나 또는 그것에 인접하게 위치되는 별개의 컴포넌트로서 형성될 수 있다. 대안적으로, 광검출기(1012)는 레이저 다이오드(1010)의 정합 전압 또는 구동 전류를 측정하여 전자적으로 (, 광감성 요소 없이) SMI 신호를 생성하는 회로로 대체되거나 보충될 수 있다. 레이저 다이오드(1010)는, 광검출기(1012) 또는 SMI 신호를 생성하기 위한 대안적인 회로부와 조합하여, SMI 센서로 지칭될 수 있다.A subset of optical or optoelectronic components 1002 may include a laser diode 1010 or other optical emitter with a resonant cavity. Components 1002 may also include a photodetector 1012 ( eg , a photodiode). Photodetector 1012 can be integrated in the same epitaxial stack as laser diode 1010 ( e.g. , above, below, or adjacent to laser diode 1010), or stacked with or in conjunction with laser diode 1010. It may be formed as a separate component that is positioned adjacently. Alternatively, photodetector 1012 may be replaced or supplemented with circuitry that generates an SMI signal electronically ( ie , without a photosensitive element) by measuring the match voltage or drive current of laser diode 1010. Laser diode 1010, in combination with photodetector 1012 or alternative circuitry for generating an SMI signal, may be referred to as an SMI sensor.

광학 또는 광전자 컴포넌트들(1002)의 서브세트는 또한 레이저 다이오드(1010) 및/또는 광검출기(1012)와 통합된 모듈 레벨 광학장치(1014), 및/또는 시스템 레벨 광학장치(1016)를 포함할 수 있다. 모듈 레벨 광학장치(1014) 및/또는 시스템 레벨 광학장치(1016)는, 예를 들어, 렌즈들, 빔 스플리터들, 빔 조향 컴포넌트들 등을 포함할 수 있다. 모듈 레벨 광학장치(1014) 및/또는 시스템 레벨 광학장치(1016)는 방출된 광 및 복귀되는 광(예컨대, 눈에서 산란되는 광)이 어디로 지향되는지 결정할 수 있다.The subset of optical or optoelectronic components 1002 may also include module level optics 1014, and/or system level optics 1016 integrated with laser diode 1010 and/or photodetector 1012. can Module level optics 1014 and/or system level optics 1016 may include, for example, lenses, beam splitters, beam steering components, and the like. Module level optics 1014 and/or system level optics 1016 can determine where emitted light and returned light ( eg , light scattered from the eye) are directed.

아날로그 컴포넌트들(1004)의 서브세트는 구동 전류를 아날로그 도메인으로 변환하고 그것을 레이저 다이오드(1010)에 제공하기 위한 디지털-아날로그 변환기(DAC)(1018) 및 전류 레귤레이터(1020)를 포함할 수 있다. 컴포넌트들(1004)은 또한 레이저 다이오드(1010)가 동작 안전 사양을 준수하여 동작되도록 보장하기 위한 컴포넌트들(1022)을 포함할 수 있다. 컴포넌트들(1004)은 또한 광검출기(1012)에 의해 생성된 SMI 신호를 증폭하기 위한 트랜스임피던스 증폭기(TIA) 및/또는 다른 증폭기들(1024), 및 증폭된 SMI 신호를 디지털 도메인으로 변환하기 위한 아날로그-디지털 변환기(ADC)를 포함할 수 있다. 컴포넌트들(1004)은 또한 SMI 신호가 증폭 또는 달리 처리될 때 그것을 보정하기 위한 컴포넌트들을 포함할 수 있다.A subset of the analog components 1004 can include a digital to analog converter (DAC) 1018 and a current regulator 1020 to convert the drive current to the analog domain and provide it to the laser diode 1010 . Components 1004 may also include components 1022 to ensure that laser diode 1010 is operated in compliance with operational safety specifications. Components 1004 also include a transimpedance amplifier (TIA) and/or other amplifiers 1024 for amplifying the SMI signal generated by photodetector 1012 and for converting the amplified SMI signal to the digital domain. It may include an analog-to-digital converter (ADC). Components 1004 may also include components for correcting the SMI signal as it is amplified or otherwise processed.

일부 경우들에서, 아날로그 컴포넌트들(1004)의 서브세트는 광학 또는 광전자 컴포넌트들(1002)의 하나 초과의 서브세트와 인터페이싱(예컨대, 다중화)할 수 있다. 예를 들어, 컴포넌트들(1004)은 2개, 3개, 또는 그 이상의 SMI 센서들과 인터페이싱할 수 있다.In some cases, a subset of analog components 1004 may interface ( eg , multiplex) with more than one subset of optical or optoelectronic components 1002 . For example, components 1004 may interface with two, three, or more SMI sensors.

디지털 컴포넌트들(1006)의 서브세트는 구동 전류를 레이저 다이오드(1010)에 제공하는 것을 광검출기(1012)로부터 획득된 디지털화된 광전류를 시스템 컴포넌트들(1008)에 제공하는 것과 스케줄링(예컨대, 연관)하기 위한 스케줄러(1026)를 포함할 수 있다. 컴포넌트들(1006)은 또한 디지털 구동 전류를 DAC(1018)에 제공하는 구동 전류 파형 생성기(1028)를 포함할 수 있다. 컴포넌트들(1006)은 광검출기(1012)의 증폭되고 디지털화된 출력을 프로세싱하기 위한 디지털 프로세싱 체인을 추가로 포함할 수 있다. 디지털 프로세싱 체인은, 예를 들어, 시간-도메인 신호 사전-조절 회로(1030), 고속 퓨리에 변환(FFT) 엔진(1032), 주파수-도메인 신호 사전-조절 회로(1034), 및 거리 및/또는 속도 추정기(1036)를 포함할 수 있다. 일부 경우들에서, 컴포넌트들(1006) 중 일부 또는 전부는 하나 이상의 프로세서들의 세트에 의해 인스턴스화될 수 있다.A subset of digital components 1006 schedules ( e.g. , associates) providing drive current to laser diode 1010 with providing digitized photocurrent obtained from photodetector 1012 to system components 1008. It may include a scheduler 1026 for Components 1006 can also include drive current waveform generator 1028 that provides digital drive current to DAC 1018 . Components 1006 may further include a digital processing chain for processing the amplified and digitized output of photodetector 1012 . The digital processing chain includes, for example, a time-domain signal pre-conditioning circuit 1030, a fast Fourier transform (FFT) engine 1032, a frequency-domain signal pre-conditioning circuit 1034, and distance and/or speed An estimator 1036 may be included. In some cases, some or all of components 1006 may be instantiated by a set of one or more processors.

시스템 컴포넌트들(1008)의 서브세트는, 예를 들어, 시스템 레벨 스케줄러(1038)를 포함할 수 있고, 이 스케줄러(1038)는 SMI 센서(또는 SMI 센서들) 또는 다른 컴포넌트들이 눈의 위치(예컨대, 시선 벡터) 또는 움직임(예컨대, 각속도)을 추적하는 데 사용되는 시기를 스케줄링할 수 있다. 컴포넌트들(1008)은 또한 카메라(1040) 또는 관성 측정 유닛(IMU)(1042)과 같은 기타 센서들을 포함할 수 있다. 일부 경우들에서, 컴포넌트들(1008)(또는 그것들의 프로세서)는 컴포넌트들(1002)의 하나 이상의 서브세트들로부터 획득된 하나 이상의 SMI 신호들, 카메라(1040)로부터 획득된 하나 이상의 이미지들, 및/또는 기타 측정치들(예컨대, IMU(1042)에 의해 획득된 측정치들)을 이용하여 눈의 위치 또는 움직임을 추적할 수 있다. 컴포넌트들(1008)은 또한 센서 융합 애플리케이션(1044) 및 다양한 기타 애플리케이션들(1046)을 포함할 수 있다.A subset of system components 1008 may include, for example, a system-level scheduler 1038, which scheduler 1038 allows an SMI sensor (or SMI sensors) or other components to detect eye position ( eg , gaze vector) or motion ( eg , angular velocity) can be scheduled. Components 1008 may also include other sensors, such as a camera 1040 or an inertial measurement unit (IMU) 1042 . In some cases, components 1008 (or their processor) may include one or more SMI signals obtained from one or more subsets of components 1002, one or more images obtained from camera 1040, and /or other measurements ( eg , measurements obtained by IMU 1042) may be used to track eye position or movement. Components 1008 may also include sensor fusion applications 1044 and various other applications 1046 .

레이저 다이오드(1010)는 다양한 유형들의 구동 전류들을 이용하여 구동될 수 있다. 예를 들어, 레이저 다이오드(1010)는 광검출기(1012)에 의해 생성된 SMI 신호에 대해 도플러 분석을 수행하는 목적을 위해 (예컨대, DC 구동 모드에서) DC 전류로 구동될 수 있다. 대안적으로, 레이저 다이오드(1010)는 레인징을 수행할 때 주파수 변조된 연속 파형(FMCW) 모드에서 (예컨대, 삼각파 구동 전류로) 구동될 수 있다. 대안적으로, 레이저 다이오드(1010)는 눈의 상대적 변위를 결정할 때 조화 구동 모드에서 (예컨대, IQ-변조 구동 전류로) 구동될 수 있다.Laser diode 1010 can be driven using various types of drive currents. For example, laser diode 1010 may be driven with DC current ( eg , in a DC drive mode) for the purpose of performing Doppler analysis on the SMI signal generated by photodetector 1012 . Alternatively, the laser diode 1010 may be driven in a frequency modulated continuous wave (FMCW) mode ( eg , with a triangular wave drive current) when performing ranging. Alternatively, laser diode 1010 can be driven in a harmonic drive mode ( eg , with an IQ-modulated drive current) when determining the relative displacement of the eye.

도 11a는 하나 이상의 SMI 센서들(1104)의 세트를 이용하여 눈 움직임을 추적하기 위한 제1 예시적인 방법(1100)을 도시한다. 방법(1100)은 광학 센서 서브시스템(1102)을 동작시켜 하나 이상의 SMI 센서들(1104)의 세트로 하여금 하나 이상의 광의 빔들의 세트를 사용자의 눈을 향해 방출하게 하는 단계를 포함한다. 광학 센서 서브시스템(1102) 및 SMI 센서(들)(1104)는 본 명세서에 기재된 광학 센서 서브시스템들 및 SMI 센서들 중 임의의 것과 유사하게 구성될 수 있다.11A shows a first example method 1100 for tracking eye movement using a set of one or more SMI sensors 1104 . The method 1100 includes operating an optical sensor subsystem 1102 to cause a set of one or more SMI sensors 1104 to emit a set of one or more beams of light toward an eye of a user. Optical sensor subsystem 1102 and SMI sensor(s) 1104 may be configured similarly to any of the optical sensor subsystems and SMI sensors described herein.

1106에서, 방법(1100)은 하나 이상의 SMI 센서들(1104)의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하는 단계를 포함할 수 있다.At 1106 , method 1100 may include receiving a set of one or more SMI signals from a set of one or more SMI sensors 1104 .

1108에서, 방법(1100)은 하나 이상의 SMI 신호들의 세트를 이용하여 눈의 회전 움직임을 추적하는 단계를 포함할 수 있다. 1108에서의 동작(들)은, 예를 들어, SMI 신호들 및 도플러 간섭계를 이용하여 눈의 시선 및 각속도를 추정하는 단계를 (1110에서) 포함할 수 있다. 1108에서의 동작(들)은 또한 (1112에서) 눈까지 범위(또는 거리)를 추정하는 단계, 또는 (1114에서) 눈의 표면 품질(예컨대, 표면 텍스처)를 추정하는 단계를 포함할 수 있다. 추정된 범위(들) 또는 표면 품질(들)은 눈의 회전 움직임들을 추정하는 데 사용될 뿐만 아니라, 또한 (1116에서) 눈의 위치, 또는 하나 이상의 SMI 센서들(1104)의 세트가 집중되는 눈의 구조(들)를 결정하는 데 사용될 수 있다.At 1108 , method 1100 may include tracking rotational movement of the eye using the set of one or more SMI signals. The action(s) at 1108 may include (at 1110) estimating gaze and angular velocity of the eye using, for example, the SMI signals and Doppler interferometry. The operation(s) at 1108 may also include estimating (at 1112) a range (or distance) to the eye, or (at 1114) estimating a surface quality ( eg , surface texture) of the eye. The estimated range(s) or surface quality(s) are not only used to estimate rotational movements of the eye, but also (at 1116) the position of the eye, or the position of the eye on which the set of one or more SMI sensors 1104 are focused. can be used to determine the structure(s).

1118에서, 방법(1100)은 동작(들)의 출력(들)을 이용하여 시선 움직임을 결정하는 단계(1108)를 포함할 수 있다.At 1118 , method 1100 may include determining 1108 eye movement using the output(s) of the action(s).

1120에서, 방법(1100)은 동작(들)(1108)의 출력(들)을 이용하여 시선 웨이크업 이벤트(예컨대, 사용자가 그들의 눈을 뜨거나, 또는 사용자가 특정 방향을 보거나, 또는 사용자가 특정 일련의 눈 움직임들을 수행)를 식별하는 단계를 포함할 수 있다. 일부 경우들에서, 1120의 동작(들), 또는 다른 동작들은 시선 슬립 이벤트(예컨대, 사용자가 그들의 눈을 감거나, 사용자가 특정 방향을 보거나, 또는 사용자가 특정 일련의 눈 움직임들을 수행), 깜빡임 이벤트, 또는 기타 이벤트들을 식별하는 단계를 포함할 수 있다.At 1120, method 1100 uses the output(s) of action(s) 1108 to perform a gaze wakeup event ( e.g. , the user opens their eyes, or the user looks in a certain direction, or the user performing a series of eye movements). In some cases, the action(s) of 1120, or other actions, may be a gaze slip event ( eg , the user closes their eyes, the user looks in a particular direction, or the user performs a particular series of eye movements), a blink identifying the event, or other events.

1122에서, 방법(1100)은 특정 유형의 식별된 이벤트에 응답하여 동작(예컨대, 머리 장착형 디스플레이 또는 기타 디바이스의 전력을 켜거나 또는 끄기, 전화 받기, 애플리케이션 활성화, 볼륨 조절 등)을 수행하는 단계를 포함할 수 있다.At 1122, method 1100 includes performing an action ( eg , powering on or off a head mounted display or other device, answering a call, activating an application, adjusting volume, etc.) in response to the identified event of a particular type. can include

1124에서, 방법(1100)은 눈 시선 벡터의 위치의 변화를 결정하기 위해 도플러 주행거리측정을 수행하는 단계를 포함할 수 있다. 일부 경우들에서, 도플러 주행거리측정은 확장 칼만 필터(extended Kalman filter, EKF)를 이용하여 수행될 수 있다.At 1124 , method 1100 may include performing Doppler odometry to determine a change in position of the eye gaze vector. In some cases, Doppler odometry may be performed using an extended Kalman filter (EKF).

1126에서, 방법(1100)은 시선-머리 장착형 디스플레이(시선-HMD) 벡터를 업데이트(, 눈 시선 벡터가 디스플레이와 어떻게 교차하는지, 또는 눈 시선 벡터가 디스플레이에 대해 어떻게 이동했는지 결정)하는 단계를 포함할 수 있다.At 1126, the method 1100 includes updating a gaze-to-head mounted display (gaze-HMD) vector ( ie , determining how the eye gaze vector intersects the display, or how the eye gaze vector has moved relative to the display). can include

1128에서, 방법(1100)은 HMD(또는 다른 디스플레이)에 대한 디스플레이 서브시스템으로 하여금 디스플레이 상의 텍스트, 숫자, 또는 이미지들의 렌더링을 조정하게 하는 단계를 포함할 수 있다. 일부 경우들에서, 조정은 눈의 움직임을 (예컨대, 완곡 추종, 단속성, 응시, 안진, 또는 깜빡임으로서) 분류하는 것에 응답할 수 있다.At 1128 , method 1100 may include causing a display subsystem for the HMD (or other display) to adjust rendering of text, numbers, or images on the display. In some cases, accommodation may be responsive to classifying eye movement ( eg , as euphemism, saccade, gaze, nystagmus, or blink).

도 11b는 하나 이상의 SMI 센서들(1104)의 세트 및 도 11a에 기재된 동작들을 이용하여, 카메라(1152) 또는 다른 센서들(예컨대, IMU(1154), 외향 카메라(outward-facing camera, OFC)(1156) 등)과 조합하여 눈의 움직임을 추적하기 위한 제2 예시적인 방법(1150)을 도시한다. 카메라(1152)는 본 명세서에 기재된 다른 카메라들과 유사하게 구성될 수 있다.FIG. 11B shows a set of one or more SMI sensors 1104 and a camera 1152 or other sensors ( e.g. , IMU 1154, outward-facing camera (OFC)) using the operations described in FIG. 1156), etc.) shows a second example method 1150 for tracking eye movement. Camera 1152 may be configured similarly to other cameras described herein.

1158에서, 방법(1150)은 카메라(1152)를 이용하여 눈의 하나 이상의 이미지들의 세트를 획득하는 단계를 포함할 수 있다. 일부 실시예들에서, 카메라(1152)는 제1 주파수에서 이미지들의 세트를 획득할 수 있고, SMI 센서(들)(1104)에 의해 생성된 SMI 신호(들)는 제2 주파수(예컨대, 제1 주파수와 동기화된 제2 주파수)에서 샘플링될 수 있다. 주파수들은 동일하거나 또는 상이할 수 있지만, 일부 실시예들에서, 제2 주파수는 제1 주파수보다 클 수 있다. 이러한 방식으로, 통상적으로 더 많은 전력을 소모하고 더 많은 양의 데이터를 생성하는 카메라(1152)는 더 낮은 주파수에서 눈 위치를 결정하거나 또는 시선 벡터 데이터를 생성하고, SMI 센서(들)이 적절하게 초점을 맞추고 양호한 데이터를 생성하도록 보장하는 데 사용될 수 있고; 통상적으로 더 적은 전력을 소모하는 SMI 센서(들)(1104)는 더 연속적으로 또는 덜 연속적으로, 그리고 더 높은 주파수에서, 카메라(1152)에 의해 이미지 캡처들 사이에서 눈의 움직임(또는 시선 벡터)을 추적하는 데 사용될 수 있다. 일부 실시예들에서, 카메라(1152)에 의해 획득된 이미지들은 눈 모델을 생성, 업데이트, 또는 커스터마이징하는 데 사용될 수 있는데, 이 눈 모델은 SMI 센서(들)에 의해 방출된 광의 빔(들)을 지향 또는 집중시키는 데 사용될 수 있다.At 1158 , method 1150 may include acquiring a set of one or more images of the eye using camera 1152 . In some embodiments, camera 1152 may acquire a set of images at a first frequency, and the SMI signal(s) generated by SMI sensor(s) 1104 may acquire a second frequency ( e.g. , first a second frequency synchronized with the frequency). The frequencies may be the same or different, but in some embodiments the second frequency may be greater than the first frequency. In this way, camera 1152, which typically consumes more power and produces greater amounts of data, determines eye position or produces gaze vector data at a lower frequency, and the SMI sensor(s) properly can be used to ensure focus and produce good data; The SMI sensor(s) 1104, which typically consume less power, provide more or less continuous, and at higher frequencies, eye movement (or gaze vectors) between image captures by the camera 1152. can be used to track In some embodiments, images acquired by camera 1152 can be used to create, update, or customize an eye model, which can detect the beam(s) of light emitted by the SMI sensor(s). It can be used to direct or focus.

1160에서, 방법(1150)은 카메라(1152)에 의해 획득된 이미지(들)에 기초하여 눈의 시선 벡터(또는 위치)를 추정하는 단계를 포함할 수 있다.At 1160 , method 1150 may include estimating a gaze vector (or position) of the eye based on the image(s) acquired by camera 1152 .

1162에서, 방법(1100)은 머리-HMD 벡터(머리-HMD 벡터)를 결정 또는 업데이트하는 단계를 포함할 수 있다. 다시 말해서, 방법(1100)은 사용자의 머리가 디스플레이에 대해 어떻게 위치되는지 결정할 수 있다.At 1162 , method 1100 may include determining or updating a head-HMD vector (head-HMD vector). In other words, the method 1100 can determine how the user's head is positioned relative to the display.

1164에서, 방법(1100)은 눈 시선 벡터의 위치의 변화를 결정하기 위해 시각적-도플러 주행거리측정을 수행하는 단계를 포함할 수 있다. 일부 경우들에서, 시각적-도플러 주행거리측정은 확장 칼만 필터(EKF)를 이용하여 수행될 수 있다. 방법(1100)에서 수행되는 도플러 주행거리측정에 대조적으로, 1164에서 수행된 시각적-도플러 주행거리측정은 눈의 SMI-기반 움직임(또는 위치) 분석을 눈의 이미지-기반 위치(또는 시선 벡터) 분석과 융합할 수 있다.At 1164 , method 1100 may include performing visual-Doppler odometry to determine a change in position of the eye gaze vector. In some cases, visual-Doppler odometry may be performed using an extended Kalman filter (EKF). In contrast to the Doppler odometry performed in method 1100, the visual-Doppler odometry performed in 1164 uses an SMI-based motion (or position) analysis of the eye as an image-based position (or gaze vector) analysis of the eye. can be fused with

1126에서, 방법(1100)은 시선-머리 장착형 디스플레이(시선-HMD) 벡터를 업데이트(, 눈 시선 벡터가 디스플레이와 어떻게 교차하는지, 또는 눈 시선 벡터가 디스플레이에 대해 어떻게 이동했는지 결정)하는 단계를 포함할 수 있다.At 1126, the method 1100 includes updating a gaze-to-head mounted display (gaze-HMD) vector ( ie , determining how the eye gaze vector intersects the display, or how the eye gaze vector has moved relative to the display). can include

1166에서, 방법(1100)은 옵션적으로 IMU(1154) 또는 외향 카메라(1156)(, 사용자의 눈에 비해 사용자 주위의 환경에 초점을 맞춘 카메라)의 출력을 이용하여 관성 주행거리측정, 비디오 주행거리측정, 또는 비디오-관성 주행거리측정을 수행할 수 있다. 이어서 비디오-관성 주행거리측정은 1168에서 HMD-세계(HMD-세계) 벡터를 결정 또는 업데이트하는 데 사용될 수 있다.At 1166, method 1100 optionally uses the output of IMU 1154 or look-ahead camera 1156 ( i.e. , a camera focused on the environment around the user relative to the user's eyes) to perform inertial odometry, video It can perform odometry, or video-inertial odometry. Video-inertial odometry may then be used to determine or update the HMD-World (HMD-World) vector at 1168 .

1170에서, 방법(1100)은 시선-세계 벡터를 결정 또는 업데이트하는 단계를 포함할 수 있다. 이러한 벡터는, 예를 들어, 안경을 통한 사용자의 현실을 증강하는 데 유용할 수 있다.At 1170 , method 1100 may include determining or updating a gaze-world vector. Such vectors may be useful, for example, to augment the user's reality through glasses.

1128에서, 방법(1100)은 HMD(또는 다른 디스플레이)를 위한 디스플레이 서브시스템으로 하여금 (예컨대, AR 또는 VR 환경에서) 디스플레이 상의 텍스트, 숫자, 또는 이미지들의 렌더링을 조정하게 하는 단계를 포함할 수 있다. 일부 경우들에서, 조정은 눈의 움직임을 (예컨대, 완곡 추종, 단속성, 응시, 안진, 또는 깜빡임으로서) 분류하는 것에 응답할 수 있다.At 1128, the method 1100 may include causing a display subsystem for the HMD (or other display) to adjust rendering of text, numbers, or images on the display ( e.g. , in an AR or VR environment). . In some cases, accommodation may be responsive to classifying eye movement ( eg , as euphemism, saccade, gaze, nystagmus, or blink).

도 12a 및 도 12b는 눈(1200)의 하나 이상의 표면들 또는 구조들이 하나 이상의 SMI 센서들의 세트를 이용하여 어떻게 맵핑될 수 있는지 도시한다. 예로서, 도 12a 및 도 12b는 단일 SMI 센서(1202)를 도시한다. 일부 예들에서, SMI 센서(1202)는 다수의 SMI 센서들(예컨대, 다수의 개별적인 SMI 센서들 또는 SMI 센서들의 어레이)로 대체될 수 있다. SMI 센서(들)는 도 1 내지 도 11b를 참조하여 기재된 SMI 센서들 중 임의의 것일 수 있다.12A and 12B show how one or more surfaces or structures of eye 1200 may be mapped using one or more sets of SMI sensors. As an example, FIGS. 12A and 12B show a single SMI sensor 1202 . In some examples, SMI sensor 1202 can be replaced with multiple SMI sensors ( eg , multiple individual SMI sensors or an array of SMI sensors). The SMI sensor(s) may be any of the SMI sensors described with reference to FIGS. 1-11B.

도 12a 및 도 12b 각각은 동일한 눈(1200)의 두 측면도를 도시한다. 각각의 도면에서의 제1 측면도(, 측면도들(1204, 1206))는 눈(1200)의 단면을 나타내고, 각각의 도면에서의 제2 측면도(, 측면도들(1208, 1210))는 SMI 센서에 의해 생성된 SMI 신호 또는 다수의 상이한 SMI 센서들에 의해 생성된 다수의 SMI 신호들을 분석한 후에 프로세서에 의해 식별된 다양한 눈 구조들의 컴퓨터-생성 모델을 나타낸다. 도 12a는 제1 위치의 눈(1200)을 도시하고, 도 12b는 제2 위치의 눈(1200)을 도시한다.12A and 12B each show two side views of the same eye 1200 . The first side view in each figure ( i.e. , side views 1204 and 1206) represents a cross-section of eye 1200, and the second side view in each figure ( i.e. , side views 1208 and 1210) represents the SMI It represents a computer-generated model of various eye structures identified by a processor after analyzing the SMI signal generated by the sensor or multiple SMI signals generated by multiple different SMI sensors. 12A shows the eye 1200 in a first position, and FIG. 12B shows the eye 1200 in a second position.

단일 SMI 센서(1202)의 경우, SMI 센서(1202)는 SMI 센서(1202)에 의해 방출된 광(1214)의 빔이 눈(1200)에 걸쳐 스캐닝되게 하는 MEMS 또는 기타 구조(1212)에 의해 머리 장착가능 프레임에 장착될 수 있거나, 또는 SMI 센서(1202)에 의해 방출된 광(1214)의 빔은 눈(1200)에 걸쳐 광(1214)의 빔을 스캔하도록 조정될 수 있는 하나 이상의 광학 요소들의 세트에 의해 수광될 수 있다. 대안적으로, 광(1214)의 빔은 빔 스플리터를 이용하여 분할될 수 있고, 다수의 광의 빔들은 동시에, 또는 순차적으로, 눈(1200)에 충돌할 수 있다. 대안적으로, SMI 센서(1202)는 고정된 위치에서 머리 장착가능 프레임에 장착될 수 있고, 사용자는 SMI 센서(1202)가 광의 빔을 방출하는 동안 상이한 위치들로 그들의 눈(1200)을 이동시키도록 요구될 수 있다.In the case of a single SMI sensor 1202, the SMI sensor 1202 is head by a MEMS or other structure 1212 that causes the beam of light 1214 emitted by the SMI sensor 1202 to be scanned across the eye 1200. A set of one or more optical elements that can be mounted on a mountable frame or steered such that the beam of light 1214 emitted by the SMI sensor 1202 scans the beam of light 1214 across the eye 1200. can be received by Alternatively, the beam of light 1214 can be split using a beam splitter, and multiple beams of light can impinge on the eye 1200 either simultaneously or sequentially. Alternatively, the SMI sensor 1202 can be mounted to a head-mountable frame in a fixed location and the user can move their eyes 1200 to different positions while the SMI sensor 1202 emits a beam of light. may be requested.

본 명세서에 기재된 프로세서들 중 임의의 것과 같은 프로세서는 하나 이상의 SMI 센서들의 세트에 의해 생성된 SMI 신호(들)를 수신하고, SMI 신호(들)를 이용하여, 눈 상의 또는 그 안의 포인트들의 세트에 대한 범위들의 세트를 결정할 수 있다. 범위들은 절대 범위들 또는 상대 범위들을 포함할 수 있다. 이어서 프로세서는 범위들의 세트를 이용하여 눈의 적어도 하나의 구조의 맵을 생성할 수 있다. 맵은 2차원(2D) 맵 또는 3차원(3D) 맵일 수 있다.A processor, such as any of the processors described herein, receives SMI signal(s) generated by a set of one or more SMI sensors, and uses the SMI signal(s) to locate a set of points on or within an eye. A set of ranges can be determined for Ranges can include absolute ranges or relative ranges. The processor may then use the set of ranges to create a map of the at least one structure of the eye. The map may be a two-dimensional (2D) map or a three-dimensional (3D) map.

일부 실시예들에서, 프로세서는, 맵을 이용하여, 눈의 구조, 또는 눈의 제1 구조와 눈의 제2 구조 사이의 경계를 식별하도록 구성될 수 있다. 식별된 구조(들)는, 예를 들어, 홍채(1218), 공막(1220), 동공(1222), 렌즈(1224), 각막 윤부(1226), 눈꺼풀 등 중 하나 이상을 포함할 수 있다.In some embodiments, the processor may be configured to identify, using the map, a structure of the eye or a boundary between a first structure of the eye and a second structure of the eye. The identified structure(s) may include, for example, one or more of iris 1218, sclera 1220, pupil 1222, lens 1224, limbus 1226, eyelid, and the like.

일부 실시예들에서, 프로세서는 광학 센서 서브시스템(예컨대, MEMS, 하나 이상의 광학 요소들, 빔 스플리터 등)을 동작시켜 하나 이상의 광의 빔들을 눈의 식별된 구조를 향해 지향시킬 수 있다. 일부 경우들에서, 구조는 눈의 다른 구조보다 더 확산될 수 있다.In some embodiments, the processor may operate an optical sensor subsystem ( eg , a MEMS, one or more optical elements, a beam splitter, etc.) to direct one or more beams of light toward the identified structure of the eye. In some cases, the structure may be more diffuse than other structures of the eye.

일부 실시예들에서, 프로세서는, 맵을 이용하여, 눈의 시선 벡터(1216)를 결정하도록 구성될 수 있다. 일부 실시예들에서, 프로세서는 또한 또는 대안적으로 하나 이상의 SMI 신호들의 세트를 이용하여 도플러 클라우드를 획득 또는 구성하도록 구성될 수 있다. 하나 이상의 SMI 신호들은 하나 이상의 빔들의 세트 중 다수의 빔들을 동시에 또는 순차적으로 투사 또는 방출, 및/또는 하나 이상의 빔들의 세트 중 적어도 하나의 빔을 스캐닝하는 것과 대응한다. 도플러 클라우드는 VCSEL 파장 변조를 이용하거나 또는 이용하지 않고 획득 또는 구성될 수 있다. 프로세서는 또한 또는 대안적으로, 심도 클라우드를 획득 또는 구성할 수 있다. 심도 클라우드는 VCSEL 파장 변조만을 이용하여 획득 또는 구성될 수 있다.In some embodiments, the processor may be configured to determine the eye's gaze vector 1216 using the map. In some embodiments, the processor may also or alternatively be configured to obtain or construct a Doppler cloud using a set of one or more SMI signals. The one or more SMI signals correspond to simultaneously or sequentially projecting or emitting multiple beams of the set of one or more beams and/or scanning at least one beam of the set of one or more beams. A Doppler cloud may be obtained or constructed with or without VCSEL wavelength modulation. The processor may also or alternatively obtain or construct a depth cloud. A depth cloud may be obtained or constructed using only VCSEL wavelength modulation.

예를 들어, 하나 이상의 SMI 센서들에 의해 방출된 광의 빔(들)의 파장(들)이 변조될 때, 그리고 적어도 하나의 SMI 센서에 의해 방출된 광의 빔이 스캐닝되고/되거나 다수의 빔들이 방출될 때, 도플러 클라우드, 및/또는 심도 클라우드가 획득 또는 구성될 수 있다. 추가적으로 또는 대안적으로, 도플러 클라우드는 하나 이상의 SMI 센서들에 의해 방출된 광의 빔(들)의 파장(들)이 변조되지 않을 때 획득 또는 구성될 수 있다. 전술된 바와 같이, 도플러 클라우드의 단일 또는 다수의 프레임들은 차분 심도 클라우드로 간주될 수 있다. 실시간으로 프로세싱된 도플러 클라우드의 단일 또는 다수의 프레임들의 측정치들을 이용하여, 사전 정의 및/또는 국소적으로 교정된 차분 맵 또는 라이브러리가 매칭되고/되거나 눈 추적 또는 위치 정보가 추출될 수 있다. 본 명세서에 기재된 바와 같이, 국소적으로 교정된 차분 맵 또는 라이브러리가 카메라, 심도 클라우드 등을 포함하지만, 이에 한정되지 않는 수단에 의해 획득될 수 있다. 또한, 도플러 클라우드는, 단독으로 또는 심도 클라우드 또는 기타 감지 모달리티(예컨대, 눈 카메라 이미지, 모션 센서 등)와 융합되어, 눈 움직임 또는 위치 정보를 추적하는 정확하고 효율적인 방법을 제공하는 데 사용될 수 있다.For example, when the wavelength(s) of the beam(s) of light emitted by one or more SMI sensors is modulated, and the beam(s) of light emitted by at least one SMI sensor is scanned and/or multiple beams are emitted. When done, a Doppler cloud, and/or a depth cloud may be obtained or constructed. Additionally or alternatively, a Doppler cloud may be obtained or constructed when the wavelength(s) of the beam(s) of light emitted by one or more SMI sensors are not modulated. As mentioned above, a single or multiple frames of a Doppler cloud can be considered a differential depth cloud. Using measurements of single or multiple frames of the Doppler cloud processed in real time, a predefined and/or locally calibrated difference map or library may be matched and/or eye tracking or location information may be extracted. As described herein, locally calibrated difference maps or libraries may be obtained by means including, but not limited to, cameras, depth clouds, and the like. In addition, Doppler clouds, alone or fused with depth clouds or other sensing modalities ( eg , eye camera images, motion sensors, etc.), can be used to provide an accurate and efficient way to track eye movement or positional information.

전술한 설명은, 설명의 목적을 위해, 설명된 실시예들의 충분한 이해를 제공하기 위해 특정 명명법을 사용한다. 그러나, 특정 상세사항들은 설명되는 실시예들을 실시하는 데 필수적인 것은 아니라는 것이, 본 설명을 읽은 후에, 통상의 기술자에게 명백할 것이다. 따라서, 본 명세서에 설명된 특정 실시예들의 전술한 설명들은 예시 및 설명의 목적들을 위해 제시된다. 이들은 총망라하고자 하거나 실시예들을 개시된 정확한 형태들로 제한하려고 하는 것은 아니다. 많은 수정예들 및 변형들이 상기 교시 내용들에 비추어 가능하다는 것이, 본 설명을 읽은 후에, 통상의 기술자에게 명백할 것이다.The foregoing description, for purposes of explanation, uses specific nomenclature to provide a thorough understanding of the described embodiments. However, it will be apparent to those skilled in the art after reading this description that the specific details are not essential to practicing the described embodiments. Accordingly, the foregoing descriptions of specific embodiments described herein have been presented for purposes of illustration and description. They are not intended to be exhaustive or to limit the embodiments to the precise forms disclosed. It will be apparent to those skilled in the art after reading this description that many modifications and variations are possible in light of the above teachings.

전술한 바와 같이, 본 기술의 일 태양은, 생체인식 데이터(예컨대, 사용자의 피부 또는 지문의 표면 품질)를 포함하는, 다양한 소스들로부터 이용가능한 데이터의 수집 및 사용일 수 있다. 본 개시내용은, 일부 예시들에서, 이러한 수집된 데이터가 특정 사람을 고유하게 식별하거나 또는 그를 식별, 위치 확인 또는 연락하는 데 사용될 수 있는 개인 정보 데이터를 포함할 수 있음을 고려한다. 그러한 개인 정보 데이터는 예를 들어, 생체 측정 데이터(예컨대, 지문 데이터) 및 이에 연결된 데이터(예컨대, 인구통계 데이터, 위치 기반 데이터, 전화 번호들, 이메일 주소들, 집 주소들, 사용자의 건강 또는 피트니스 레벨에 관한 데이터 또는 기록들(예컨대, 바이탈 사인(vital sign) 측정들, 약물 정보, 운동 정보), 생년월일, 또는 임의의 다른 식별 또는 개인 정보)를 포함할 수 있다.As noted above, one aspect of the present technology may be the collection and use of data available from a variety of sources, including biometric data (eg, the surface quality of a user's skin or fingerprint). This disclosure contemplates that, in some examples, this collected data may include personal information data that uniquely identifies a particular person or that can be used to identify, locate, or contact him. Such personal information data may include, for example, biometric data (eg, fingerprint data) and data associated therewith (eg, demographic data, location-based data, phone numbers, email addresses, home addresses, a user's health or fitness data or records relating to levels (eg, vital sign measurements, medication information, exercise information), date of birth, or any other identifying or personal information).

본 발명은 본 기술에서의 그러한 개인 정보 데이터의 이용이 사용자들에게 이득을 주기 위해 사용될 수 있음을 인식한다. 예를 들어, 개인 정보 데이터는 사용자가 그들의 디바이스에 액세스하도록 인증하거나, 증강 또는 가상 세계와의 사용자의 상호작용에 대한 성능 메트릭을 수집하는 데 사용될 수 있다. 게다가, 사용자에게 이득을 주는 개인 정보 데이터에 대한 다른 사용들이 또한 본 발명에 의해 고려된다. 예를 들어, 건강 및 피트니스 데이터는 사용자의 일반적인 웰니스(wellness)에 대한 통찰력을 제공하는 데 사용될 수 있거나, 또는 웰니스 목표를 추구하기 위한 기술을 사용하는 개인들에게 긍정적인 피드백으로서 사용될 수 있다.The present invention recognizes that the use of such personal information data in the present technology can be used to benefit users. For example, personal information data may be used to authenticate users to access their devices or to collect performance metrics for users' interactions with augmented or virtual worlds. Additionally, other uses for personal information data that benefit the user are also contemplated by the present invention. For example, health and fitness data can be used to provide insight into a user's general wellness, or as positive feedback to individuals using technology to pursue wellness goals.

본 발명은 그러한 개인 정보 데이터의 수집, 분석, 공개, 전송, 저장, 또는 다른 사용을 책임지고 있는 엔티티들이 잘 확립된 프라이버시 정책들 및/또는 프라이버시 관례들을 준수할 것이라는 것을 고려한다. 특히, 그러한 엔티티들은, 대체로 개인 정보 데이터를 사적이고 안전하게 유지시키기 위한 산업적 또는 행정적 요건들을 충족시키거나 넘어서는 것으로 인식되는 프라이버시 정책들 및 관례들을 구현하고 지속적으로 이용해야 한다. 그러한 정책들은 사용자들에 의해 쉽게 액세스가능해야 하고, 데이터의 수집 및/또는 사용이 변화함에 따라 업데이트되어야 한다. 사용자들로부터의 개인 정보는 엔티티의 적법하며 적정한 사용들을 위해 수집되어야 하고, 이들 적법한 사용들을 벗어나서 공유되거나 판매되지 않아야 한다. 또한, 그러한 수집/공유는 사용자들의 통지된 동의를 수신한 후에 발생해야 한다. 부가적으로, 그러한 엔티티들은 그러한 개인 정보 데이터에 대한 액세스를 보호하고 안전하게 하며 개인 정보 데이터에 대한 액세스를 갖는 다른 사람들이 그들의 프라이버시 정책들 및 절차들을 고수한다는 것을 보장하기 위한 임의의 필요한 단계들을 취하는 것을 고려해야 한다. 게다가, 그러한 엔티티들은 널리 인정된 프라이버시 정책들 및 관례들에 대한 그들의 고수를 증명하기 위해 제3자들에 의해 그들 자신들이 평가를 받을 수 있다. 추가로, 정책들 및 관례들은 수집되고/되거나 액세스되는 특정 유형들의 개인 정보 데이터에 대해 조정되고, 관할구역 특정 고려사항들을 비롯한 적용가능한 법률들 및 표준들에 적응되어야 한다. 예를 들어, 미국에서, 소정 건강 데이터의 수집 또는 그에 대한 액세스는 연방법 및/또는 주의 법, 예컨대 미국 건강 보험 양도 및 책임 법령(Health Insurance Portability and Accountability Act, HIPAA)에 의해 통제될 수 있는 반면; 다른 국가들에서의 건강 데이터는 다른 규정들 및 정책들의 적용을 받을 수 있고 그에 따라 취급되어야 한다. 따라서, 상이한 프라이버시 관례들은 각각의 국가의 상이한 개인 데이터 유형들에 대해 유지되어야 한다.The present invention contemplates that entities responsible for the collection, analysis, disclosure, transmission, storage, or other use of such personal information data will adhere to well-established privacy policies and/or privacy practices. In particular, such entities must implement and consistently use privacy policies and practices that are generally recognized to meet or exceed industrial or administrative requirements for keeping personal information data private and secure. Such policies should be easily accessible by users and should be updated as the collection and/or use of data changes. Personal information from users should be collected for legitimate and appropriate uses of the entity, and should not be shared or sold outside of these legitimate uses. Further, such collection/sharing must occur after receiving the notified consent of the users. Additionally, such entities are committed to taking any necessary steps to protect and secure access to such personal information data and to ensure that others having access to such personal information data adhere to their privacy policies and procedures. should be considered Additionally, such entities may themselves be evaluated by third parties to demonstrate their adherence to widely accepted privacy policies and practices. Additionally, policies and practices must be tailored to the specific types of personal information data collected and/or accessed and adapted to applicable laws and standards, including jurisdiction specific considerations. For example, in the United States, the collection of certain health data or access thereto may be governed by federal and/or state laws, such as the US Health Insurance Portability and Accountability Act (HIPAA); Health data from other countries may be subject to different regulations and policies and should be treated accordingly. Accordingly, different privacy practices must be maintained for different types of personal data in each country.

전술한 것에도 불구하고, 본 개시내용은 또한 사용자들이 개인 정보 데이터의 사용, 또는 그에 대한 액세스를 선택적으로 차단하는 실시예들을 고려한다. 즉, 본 발명은 그러한 개인 정보 데이터에 대한 액세스를 방지하거나 차단하기 위해 하드웨어 및/또는 소프트웨어 요소들이 제공될 수 있다는 것을 고려한다. 예를 들어, 광고 전달 서비스들의 경우에, 본 기술은 사용자들이 서비스를 위한 등록 중 또는 이후 임의의 시간에 개인 정보 데이터의 수집 시의 참여의 "동의함" 또는 "동의하지 않음"을 선택하는 것을 허용하도록 구성될 수 있다. 다른 예에서, 사용자들은 타겟 콘텐츠 전달 서비스들에 데이터를 제공하지 않도록 선택할 수 있다. 또 다른 예에서, 사용자들은 데이터가 유지되는 시간의 길이를 제한하거나 또는 사용자에 대한 기본 프로파일의 개발을 전적으로 금지하도록 선택할 수 있다. "동의함" 및 "동의하지 않음" 옵션들을 제공하는 것 이외에, 본 발명은 개인 정보의 액세스 또는 사용에 관한 통지들을 제공하는 것을 고려한다. 예를 들어, 사용자는 그들의 개인 정보 데이터가 액세스될 앱을 다운로드할 시에 통지받고, 이어서 개인 정보 데이터가 앱에 의해 액세스되기 직전에 다시 상기하게 될 수 있다.Notwithstanding the foregoing, the present disclosure also contemplates embodiments in which users selectively block the use of, or access to, personal information data. That is, the present invention contemplates that hardware and/or software components may be provided to prevent or block access to such personal information data. For example, in the case of advertisement delivery services, the present technology allows users to select "agree" or "disagree" of participation in the collection of personal information data during registration for the service or at any time thereafter. It can be configured to allow In another example, users may choose not to provide data to targeted content delivery services. In another example, users may choose to limit the length of time data is maintained or to forbid development of a default profile for the user entirely. In addition to providing "I agree" and "I do not agree" options, the present invention contemplates providing notifications regarding access or use of personal information. For example, a user may be notified upon downloading an app that their personal data will be accessed, and then reminded immediately before the personal data is accessed by the app.

더욱이, 의도하지 않은 또는 인가되지 않은 액세스 또는 사용의 위험요소들을 최소화하는 방식으로 개인 정보 데이터가 관리 및 처리되어야 한다는 것이 본 개시내용의 의도이다. 데이터의 수집을 제한하고 데이터가 더 이상 필요하지 않게 되면 데이터를 삭제함으로써 위험이 최소화될 수 있다. 추가로, 그리고 소정의 건강 관련 애플리케이션들에 적용하는 것을 비롯하여, 적용가능할 때, 사용자의 프라이버시를 보호하기 위해 데이터 식별해제가 사용될 수 있다. 적절한 경우, 특정 식별자들(예컨대, 생년월일 등)을 제거함으로써, 저장된 데이터의 양 또는 특이성을 제어함으로써(예컨대, 주소 수준이라기보다는 오히려 도시 수준에서 위치 데이터를 수집함으로써), 데이터가 저장되는 방식을 제어함으로써(예컨대, 사용자들에 걸쳐 데이터를 집계함으로써), 그리고/또는 다른 방법들에 의해, 식별해제가 용이하게 될 수 있다.Moreover, it is the intent of this disclosure that personal information data should be managed and processed in a manner that minimizes the risks of unintended or unauthorized access or use. Risk can be minimized by limiting the collection of data and deleting data when it is no longer needed. In addition, and when applicable, including as applicable to certain health-related applications, data de-identification may be used to protect user privacy. Control how data is stored, where appropriate, by removing certain identifiers (eg, date of birth, etc.); by controlling the amount or specificity of stored data (eg, collecting location data at the city level rather than at the address level); De-identification may be facilitated by (eg, by aggregating data across users), and/or by other methods.

따라서, 본 개시내용이 하나 이상의 다양한 개시된 실시예들을 구현하기 위해 개인 정보 데이터의 사용을 광범위하게 커버하지만, 본 개시내용은 다양한 실시예들이 또한 그러한 개인 정보 데이터에 액세스할 필요 없이 구현될 수 있다는 것을 또한 고려한다. 즉, 본 기술의 다양한 실시예들은 그러한 개인 정보 데이터의 전부 또는 일부의 결여로 인해 동작불가능해지지 않는다. 예를 들어, 콘텐츠는, 사용자와 연관된 디바이스에 의해 요청되는 콘텐츠, 콘텐츠 전달 서비스들에 대해 이용가능한 다른 비-개인 정보, 또는 공개적으로 입수가능한 정보와 같은 비-개인 정보 데이터 또는 최소량의 개인 정보에 기초하여 선호도를 추론함으로써 선택되고 사용자들에게 전달될 수 있다.Thus, while this disclosure broadly covers the use of personal information data to implement one or more of the various disclosed embodiments, this disclosure also indicates that various embodiments may also be implemented without the need to access such personal information data. also consider That is, various embodiments of the present technology are not inoperable due to the lack of all or some of such personal information data. For example, content may include content requested by a device associated with a user, other non-personal information available for content delivery services, or non-personal information data such as publicly available information or minimal amounts of personal information. can be selected and communicated to users by inferring preferences based on

Claims (27)

눈 추적 디바이스로서,
머리-장착가능 프레임;
상기 머리-장착가능 프레임에 장착되고, 하나 이상의 자체-혼합 간섭계(self-mixing interferometry, SMI) 센서들의 세트를 포함하는 광학 센서 서브시스템; 및
프로세서를 포함하며, 상기 프로세서는,
상기 광학 센서 서브시스템을 동작시켜 상기 하나 이상의 SMI 센서들의 세트로 하여금 사용자의 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고;
상기 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하고;
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 움직임을 추적하도록 구성된, 눈 추적 디바이스.
As an eye tracking device,
a head-mountable frame;
an optical sensor subsystem mounted to the head-mountable frame and including a set of one or more self-mixing interferometry (SMI) sensors; and
It includes a processor, the processor comprising:
operating the optical sensor subsystem to cause the set of one or more SMI sensors to emit a set of one or more beams of light toward an eye of a user;
receive a set of one or more SMI signals from the set of one or more SMI sensors;
An eye tracking device configured to track movement of the eye using the set of one or more SMI signals.
제1항에 있어서, 상기 눈의 상기 움직임을 추적하는 것은 상기 눈의 각속도를 추정하는 것을 포함하는, 눈 추적 디바이스.The eye tracking device of claim 1 , wherein tracking the motion of the eye includes estimating an angular velocity of the eye. 제1항에 있어서,
상기 하나 이상의 SMI 센서들의 세트는 적어도 2개의 SMI 센서를 포함하고;
상기 눈의 상기 추적된 움직임은 2차원에서의 상기 눈의 추적된 각속도들을 포함하는, 눈 추적 디바이스.
According to claim 1,
the set of one or more SMI sensors includes at least two SMI sensors;
wherein the tracked movement of the eye includes tracked angular velocities of the eye in two dimensions.
제1항에 있어서,
상기 하나 이상의 SMI 센서들의 세트는 적어도 3개의 SMI 센서를 포함하고;
상기 눈의 상기 추적된 움직임은 3차원에서의 상기 눈의 추적된 각속도들을 포함하는, 눈 추적 디바이스.
According to claim 1,
the set of one or more SMI sensors includes at least three SMI sensors;
wherein the tracked movement of the eye includes tracked angular velocities of the eye in three dimensions.
제1항에 있어서, 상기 머리-장착가능 프레임은,
제1 렌즈 림 및 제2 렌즈 림;
상기 제1 렌즈 림을 상기 제2 렌즈 림에 연결하는 브릿지;
상기 제1 렌즈 림에 연결된 제1 템플; 및
상기 제2 렌즈 림에 연결된 제2 템플을 포함하는, 눈 추적 디바이스.
The method of claim 1, wherein the head-mountable frame comprises:
a first lens rim and a second lens rim;
a bridge connecting the first lens rim to the second lens rim;
a first temple connected to the first lens rim; and
and a second temple coupled to the second lens rim.
제1항에 있어서,
상기 머리-장착가능 프레임에 장착된 디스플레이를 포함하는 디스플레이 서브시스템을 추가로 포함하는, 눈 추적 디바이스.
According to claim 1,
and a display subsystem comprising a display mounted to the head-mountable frame.
제6항에 있어서,
상기 프로세서는,
상기 눈의 상기 움직임을 깜빡임(blinking), 완곡 추종(smooth pursuit), 단속성(saccade), 응시(fixation), 또는 안진(nystagmus) 중 적어도 하나로 분류하고;
상기 디스플레이 서브시스템으로 하여금 상기 눈의 상기 분류된 움직임에 응답하여 상기 디스플레이 상에서 하나 이상의 이미지들의 렌더링을 조정하게 하도록 구성된, 눈 추적 디바이스.
According to claim 6,
the processor,
classifying the movement of the eye as at least one of blinking, smooth pursuit, saccade, fixation, or nystagmus;
and cause the display subsystem to adjust rendering of one or more images on the display in response to the classified movement of the eye.
제7항에 있어서,
상기 프로세서는,
상기 눈의 상기 분류된 움직임을 정량화하도록 구성되고, 여기서,
상기 하나 이상의 이미지들의 상기 렌더링은 상기 눈의 상기 정량화된 움직임에 응답하여 추가로 조정되는, 눈 추적 디바이스.
According to claim 7,
the processor,
configured to quantify the classified movement of the eye, wherein:
wherein the rendering of the one or more images is further adjusted in response to the quantified movement of the eye.
제6항에 있어서,
상기 프로세서는,
상기 디스플레이 서브시스템으로 하여금 상기 눈의 상기 움직임에 응답하여 상기 디스플레이의 상태를 변경하게 하도록 구성된, 눈 추적 디바이스.
According to claim 6,
the processor,
and cause the display subsystem to change a state of the display in response to the movement of the eye.
제6항에 있어서,
상기 디스플레이 서브시스템은 기판 상에 장착된 디스플레이 픽셀들의 어레이를 포함하고;
상기 하나 이상의 SMI 센서들의 세트는 상기 디스플레이 픽셀들의 어레이에 인접하거나 또는 그 안에서, 상기 기판 상에 장착된 적어도 하나의 SMI 센서를 포함하는, 눈 추적 디바이스.
According to claim 6,
the display subsystem includes an array of display pixels mounted on a substrate;
wherein the set of one or more SMI sensors comprises at least one SMI sensor mounted on the substrate, adjacent to or within the array of display pixels.
제1항에 있어서,
상기 광학 센서 서브시스템은,
상기 하나 이상의 SMI 센서들의 세트 내의 SMI 센서에 의해 방출된 광의 빔을 분할하도록 위치된 빔 스플리터를 포함하는, 눈 추적 디바이스.
According to claim 1,
The optical sensor subsystem,
and a beam splitter positioned to split a beam of light emitted by an SMI sensor in the set of one or more SMI sensors.
제1항에 있어서,
상기 광학 센서 서브시스템은,
상기 하나 이상의 SMI 센서들의 세트 내의 SMI 센서에 의해 방출된 광의 빔을 도파관의 다수의 아웃커플링(outcoupling)들로 안내하도록 위치된 상기 도파관을 포함하는, 눈 추적 디바이스.
According to claim 1,
The optical sensor subsystem,
and the waveguide positioned to direct a beam of light emitted by an SMI sensor in the set of one or more SMI sensors to a plurality of outcouplings of the waveguide.
제1항에 있어서,
상기 광학 센서 서브시스템은,
상기 하나 이상의 SMI 센서들의 세트 내의 SMI 센서에 의해 방출된 광의 빔을 조향하도록 위치된 빔 조향 컴포넌트를 포함하고,
상기 프로세서는 상기 빔 조향 컴포넌트를 동작시키고 상기 광의 빔을 조향하도록 구성된, 눈 추적 디바이스.
According to claim 1,
The optical sensor subsystem,
a beam steering component positioned to steer a beam of light emitted by an SMI sensor in the set of one or more SMI sensors;
wherein the processor is configured to operate the beam steering component and steer the beam of light.
제1항에 있어서,
상기 광학 센서 서브시스템은,
상기 하나 이상의 SMI 센서들의 세트 내의 SMI 센서에 의해 방출된 광의 빔을 집속하도록 위치된 렌즈; 및
렌즈 위치설정 메커니즘을 포함하고;
상기 프로세서는 상기 렌즈 위치설정 메커니즘을 동작시키고 상기 눈의 구조 상에 상기 광의 빔을 집속시키도록 구성된, 눈 추적 디바이스.
According to claim 1,
The optical sensor subsystem,
a lens positioned to focus a beam of light emitted by an SMI sensor in the set of one or more SMI sensors; and
includes a lens positioning mechanism;
wherein the processor is configured to operate the lens positioning mechanism and focus the beam of light on the structure of the eye.
제1항에 있어서,
상기 하나 이상의 SMI 센서들의 세트는,
SMI 센서들의 어레이; 및
상기 SMI 센서들의 어레이 내의 상이한 SMI 센서들 또는 상이한 SMI 센서들의 서브세트들을 처리하도록 구성된 회로부를 포함하고,
상기 프로세서는 상기 회로부를 이용하여 상기 상이한 SMI 센서들 또는 상기 상이한 SMI 센서들의 서브세트들을 선택적으로 동작시키도록 구성된, 눈 추적 디바이스.
According to claim 1,
The set of one or more SMI sensors,
an array of SMI sensors; and
circuitry configured to process different SMI sensors or subsets of different SMI sensors in the array of SMI sensors;
wherein the processor is configured to selectively operate the different SMI sensors or subsets of the different SMI sensors using the circuitry.
제1항에 있어서,
상기 프로세서는,
상기 눈 상의 또는 그 안의 포인트들의 세트에 대해 범위들의 세트를 결정하도록 구성된, 눈 추적 디바이스.
According to claim 1,
the processor,
and determine a set of ranges for a set of points on or within the eye.
제16항에 있어서,
상기 프로세서는,
상기 범위들의 세트를 이용하여 상기 눈의 적어도 하나의 구조의 맵을 생성하도록 구성된, 눈 추적 디바이스.
According to claim 16,
the processor,
and generate a map of the at least one structure of the eye using the set of ranges.
제17항에 있어서,
상기 프로세서는,
상기 맵을 이용하여, 상기 눈의 구조를 식별하고;
상기 광학 센서 서브시스템을 동작시켜 상기 눈의 상기 식별된 구조를 향해 상기 하나 이상의 광의 빔들의 세트 내의 적어도 하나의 광의 빔을 지향시키도록 구성된, 눈 추적 디바이스.
According to claim 17,
the processor,
using the map, identify the structure of the eye;
and operate the optical sensor subsystem to direct at least one beam of light in the set of one or more beams of light towards the identified structure of the eye.
제16항에 있어서, 상기 범위들의 세트는 절대 범위들의 세트를 포함하는, 눈 추적 디바이스.17. The eye tracking device of claim 16, wherein the set of ranges comprises a set of absolute ranges. 제16항에 있어서, 상기 범위들의 세트는 상대 범위들의 세트를 포함하는, 눈 추적 디바이스.17. The eye tracking device of claim 16, wherein the set of ranges comprises a set of relative ranges. 눈 추적 디바이스로서,
하나 이상의 자체-혼합 간섭계(SMI) 센서들의 세트;
카메라; 및
프로세서를 포함하며, 상기 프로세서는,
상기 카메라로 하여금, 제1 주파수에서, 사용자의 눈의 이미지들의 세트를 획득하게 하고;
상기 하나 이상의 SMI 센서들의 세트로 하여금 상기 사용자의 상기 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하고;
상기 제1 주파수보다 큰 제2 주파수에서, 상기 하나 이상의 SMI 센서들의 세트에 의해 생성된 하나 이상의 SMI 신호들의 세트를 샘플링하고;
상기 이미지들의 세트 내의 적어도 하나의 이미지를 이용하여 상기 눈의 시선 벡터를 결정하고;
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 움직임을 추적하도록 구성된, 눈 추적 디바이스.
As an eye tracking device,
a set of one or more self-mixing interferometry (SMI) sensors;
camera; and
It includes a processor, the processor comprising:
cause the camera to acquire, at a first frequency, a set of images of the user's eye;
cause the set of one or more SMI sensors to emit a set of one or more beams of light toward the eye of the user;
sample a set of one or more SMI signals generated by the set of one or more SMI sensors at a second frequency greater than the first frequency;
determine a gaze vector of the eye using at least one image in the set of images;
An eye tracking device configured to track movement of the eye using the set of one or more SMI signals.
제21항에 있어서,
상기 프로세서는,
상기 눈의 상기 추적된 움직임을 이용하여 상기 시선 벡터를 업데이트하도록 구성된, 눈 추적 디바이스.
According to claim 21,
the processor,
and update the gaze vector using the tracked movement of the eye.
눈의 움직임을 추적하는 방법으로서,
광학 센서 서브시스템을 동작시켜 상기 광학 센서 서브시스템 내의 하나 이상의 자체-혼합 간섭계(SMI) 센서들의 세트로 하여금 사용자의 상기 눈을 향해 하나 이상의 광의 빔들의 세트를 방출하게 하는 단계;
상기 하나 이상의 SMI 센서들의 세트로부터 하나 이상의 SMI 신호들의 세트를 수신하는 단계; 및
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 상기 움직임을 추적하는 단계를 포함하는, 방법.
As a method of tracking eye movement,
operating an optical sensor subsystem to cause a set of one or more self-mixing interferometry (SMI) sensors within the optical sensor subsystem to emit one or more sets of beams of light toward the eye of a user;
receiving a set of one or more SMI signals from the set of one or more SMI sensors; and
tracking the movement of the eye using the set of one or more SMI signals.
제23항에 있어서, 상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 상기 움직임을 추적하는 단계는,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 각속도를 추정하는 단계를 포함하는, 방법.
24. The method of claim 23, wherein tracking the movement of the eye using the set of one or more SMI signals comprises:
estimating the angular velocity of the eye using the set of one or more SMI signals.
제23항에 있어서,
상기 하나 이상의 빔들의 세트 중 다수의 빔들을 동시에 투사하는 단계; 또는
상기 다수의 빔들을 순차적으로 방출하는 단계; 또는
상기 하나 이상의 빔들의 세트 중 적어도 하나의 빔을 스캐닝하는 단계 중 적어도 하나를 추가로 포함하고, 여기서,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 상기 움직임을 추적하는 단계는,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 도플러 클라우드(Doppler cloud)를 구성하는 단계를 포함하는, 방법.
According to claim 23,
simultaneously projecting multiple beams of the set of one or more beams; or
sequentially emitting the plurality of beams; or
further comprising at least one of scanning at least one beam of the set of one or more beams, wherein:
Tracking the movement of the eye using the set of one or more SMI signals comprises:
constructing a Doppler cloud using the set of one or more SMI signals.
제25항에 있어서, 상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 상기 움직임을 추적하는 단계는,
상기 도플러 클라우드의 하나 이상의 프레임들을 차분 맵(differential map)에 매칭함으로써 눈 위치 정보를 추출하는 단계를 추가로 포함하는, 방법.
26. The method of claim 25, wherein tracking the movement of the eye using the set of one or more SMI signals comprises:
and extracting eye position information by matching one or more frames of the Doppler cloud to a differential map.
제23항에 있어서,
상기 하나 이상의 빔들의 세트 중 다수의 빔들을 동시에 투사하는 단계; 또는
상기 다수의 빔들을 순차적으로 방출하는 단계; 또는
상기 하나 이상의 빔들의 세트 중 적어도 하나의 빔을 스캐닝하는 단계 동안, 상기 방출된 하나 이상의 빔들의 세트를 변조하는 단계를 추가로 포함하고,
여기서,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 상기 눈의 상기 움직임을 추적하는 단계는,
상기 하나 이상의 SMI 신호들의 세트를 이용하여 심도 클라우드(depth cloud)를 구성하는 단계를 포함하는, 방법.
According to claim 23,
simultaneously projecting multiple beams of the set of one or more beams; or
sequentially emitting the plurality of beams; or
modulating the emitted set of one or more beams during the step of scanning at least one beam of the set of one or more beams;
here,
Tracking the movement of the eye using the set of one or more SMI signals comprises:
constructing a depth cloud using the set of one or more SMI signals.
KR1020230018663A 2021-09-22 2023-02-13 Eye tracking using self-mixing interferometry KR20230092834A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163247188P 2021-09-22 2021-09-22
US63/247,188 2021-09-22
US202217947874A 2022-09-19 2022-09-19
US17/947,874 2022-09-19
KR1020220119902 2022-09-22

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020220119902 Division 2021-09-22 2022-09-22

Publications (1)

Publication Number Publication Date
KR20230092834A true KR20230092834A (en) 2023-06-26

Family

ID=86947871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230018663A KR20230092834A (en) 2021-09-22 2023-02-13 Eye tracking using self-mixing interferometry

Country Status (1)

Country Link
KR (1) KR20230092834A (en)

Similar Documents

Publication Publication Date Title
CN112507799B (en) Image recognition method based on eye movement fixation point guidance, MR glasses and medium
US11686945B2 (en) Methods of driving light sources in a near-eye display
US9285872B1 (en) Using head gesture and eye position to wake a head mounted device
EP2751609B1 (en) Head mounted display with iris scan profiling
US9547365B2 (en) Managing information display
US10606071B1 (en) Lightfield waveguide integrated eye tracking
KR20200108857A (en) Display systems and methods for determining registration between a display and a user&#39;s eyes
US9239626B1 (en) Input system
US20130335302A1 (en) Selective illumination
US11719937B2 (en) Head-mounted electronic device with self-mixing sensors
US20140160157A1 (en) People-triggered holographic reminders
CN105009039A (en) Direct hologram manipulation using IMU
US10698483B1 (en) Eye-tracking systems, head-mounted displays including the same, and related methods
KR20150090092A (en) Wearable food nutrition feedback system
Meyer et al. A novel camera-free eye tracking sensor for augmented reality based on laser scanning
US20210314549A1 (en) Switchable fringe pattern illuminator
US10942349B2 (en) Illumination assembly with in-field micro devices
US11435820B1 (en) Gaze detection pipeline in an artificial reality system
US20230333371A1 (en) Eye Tracking Using Self-Mixing Interferometry
KR20230092834A (en) Eye tracking using self-mixing interferometry
CN116482854A (en) Eye tracking using self-mixing interferometry
CN116507267A (en) Multiple gaze-related illumination sources for retinal eye tracking
Meyer et al. A Highly Integrated Ambient Light Robust Eye-Tracking Sensor for Retinal Projection AR Glasses Based on Laser Feedback Interferometry
US11435583B1 (en) Electronic device with back-to-back displays
Wagner et al. Estimating 3D spatiotemporal point of regard: a device evaluation