KR101950641B1 - Scene analysis for improved eye tracking - Google Patents
Scene analysis for improved eye tracking Download PDFInfo
- Publication number
- KR101950641B1 KR101950641B1 KR1020180041622A KR20180041622A KR101950641B1 KR 101950641 B1 KR101950641 B1 KR 101950641B1 KR 1020180041622 A KR1020180041622 A KR 1020180041622A KR 20180041622 A KR20180041622 A KR 20180041622A KR 101950641 B1 KR101950641 B1 KR 101950641B1
- Authority
- KR
- South Korea
- Prior art keywords
- gaze
- eye
- target
- targets
- potential
- Prior art date
Links
- 238000004458 analytical method Methods 0.000 title abstract description 10
- 238000000034 method Methods 0.000 claims abstract description 55
- 230000033001 locomotion Effects 0.000 claims abstract description 50
- 210000001508 eye Anatomy 0.000 claims description 159
- 230000015654 memory Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 10
- 230000004424 eye movement Effects 0.000 claims description 9
- 210000005252 bulbus oculi Anatomy 0.000 claims description 5
- 230000003190 augmentative effect Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000001133 acceleration Effects 0.000 description 77
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 17
- 239000003623 enhancer Substances 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013501 data transformation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G06K9/00604—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
Abstract
향상된 안구 추적을 위한 장면 분석에 관한 기술들이 일반적으로 설명된다. 일부 예들에서, 검출된 시선 타겟들은 안구-대향 센서로부터의 시선 방향 정보로부터 도출될 수도 있다. 검출된 시선 타겟 포지션들 및/또는 모션은 안구에 의해 보이는 장면으로부터 디지털 장면 정보를 캡처 및 분석함으로써 향상될 수도 있다. 디지털 카메라에 의해 캡처된 디지털 장면 정보는 잠재적인 시선 타겟들, 이를 테면 정지된 시선 타겟들, 이동하는 시선 타겟들, 및/또는 가속하는 시선 타겟들을 식별하기 위해 분석될 수도 있다. 검출된 시선 타겟들은 선택된 시선 타겟들의 포지션들로 변경될 수도 있다.Techniques for scene analysis for improved eye tracking are generally described. In some instances, the detected gaze targets may be derived from gaze direction information from the ocular-facing sensor. The detected gaze target positions and / or motion may be enhanced by capturing and analyzing digital scene information from a scene viewed by the eye. The digital scene information captured by the digital camera may be analyzed to identify potential gaze targets, such as gazed gazed targets, moving gaze targets, and / or gaze targets that accelerate. The detected gaze targets may be changed to the positions of the selected gaze targets.
Description
본 개시물은 일반적으로 향상된 안구 추적을 위한 장면 분석에 관한 디바이스들, 방법들, 및 컴퓨터 판독가능 매체들을 포함하는 기술들을 설명한다. The present disclosure generally describes techniques, including devices, methods, and computer readable media for scene analysis for improved eye tracking.
본 명세서에 달리 표시되지 않는 한, 이 섹션에서 설명된 자료들은 본 출원에서의 청구항들에 대한 선행 기술이 아니며, 이 섹션에의 포함에 의해 선행 기술이 되는 것으로 인정되지 않는다.Unless otherwise indicated herein, the materials described in this section are not prior art to the claims in this application and are not considered to be prior art by inclusion in this section.
안구 추적 시스템들은 눈 (human eye) 의 모션들을 추적할 수 있는 소형 카메라들을 포함할 수도 있다. 안구 추적은 다양한 유용하고 흥미로운 애플리케이션들을 갖는다. 예를 들어, 안구 추적은 증강 현실 (Augmented Reality; AR) 애플리케이션들은 물론 다양한 의학적 및 산업적 애플리케이션들에서 효율적으로 사용될 수 있다. 안구 추적은 또한, 예를 들어, 디바이스 사용자의 시선 (gaze) 이 선택 포인터를 제어하는 것을 허용하는 것과 같은 다양한 잠재적인 사용자 인터페이스 (User Interface; UI) 애플리케이션들을 갖는다. 디바이스 사용자는 파일과 같은 가상 오브젝트를 응시하고, 버튼을 누르고, 그 후 그 오브젝트를 위한 목적지 위치를 응시하고, 오브젝트를 이동시키기 위해 버튼을 해제할 수도 있다. 안구 추적은 또한 사용자 관심 및 사용자 활동 정보를 수집하는, 예를 들어 사용자들이 광고를 보았는지 여부를 이해하는 기회들을 제시한다. 안구 추적을 위한 이들 및 다른 이용들은 많은 흥미로운 가능성들을 제시한다. Eye tracking systems may include miniature cameras capable of tracking human eye motions. Eye tracking has a variety of useful and interesting applications. For example, eye tracking can be used efficiently in a variety of medical and industrial applications, as well as augmented reality (AR) applications. Eye tracking also has a variety of potential User Interface (UI) applications such as, for example, allowing the device user's gaze to control the selection pointer. A device user may gaze at a virtual object such as a file, press a button, then look at the destination location for that object, and release the button to move the object. Eye tracking also presents opportunities to gather user interest and user activity information, for example, whether users have seen the advertisement. These and other uses for eye tracking offer many interesting possibilities.
그러나, 안구 추적 기술들은 비교적 초기 단계의 개발에 머물러 있고, 안구 추적이 발달함에 따라 다룰 많은 도전과제들이 존재한다.However, ocular tracking techniques remain relatively early in development and there are many challenges to deal with as ocular tracking develops.
본 개시물은 일반적으로 향상된 안구 추적을 위한 장면 분석에 관한 디바이스들, 방법들, 및 컴퓨터 판독가능 매체들을 포함하는 기술들을 설명한다. 컴퓨팅 디바이스에 의해 수행되는 일부 예시적인 안구 추적 방법들은, 안구-대향 (eye-facing) 센서로부터 안구 시선 방향 정보를 수신하는 것; 디지털 카메라로부터 디지털 장면 정보를 수신하는 것으로서, 디지털 카메라는 안구에 의해 보이는 장면으로부터 디지털 장면 정보를 캡처하도록 배향될 수도 있는, 상기 디지털 장면 정보를 수신하는 것; 시선 방향 정보에 기초하여, 디지털 장면 정보 내의 검출된 시선 타겟을 결정하는 것; 디지털 장면 정보 내에서, 잠재적인 시선 타겟들을 식별하기 위해 디지털 장면 정보를 분석하는 것으로서, 잠재적인 시선 타겟들은 예를 들어, 정지된 시선 타겟들, 이동하는 시선 타겟들, 및/또는 가속하는 시선 타겟들을 포함할 수도 있는, 상기 디지털 장면 정보를 분석하는 것; 잠재적인 시선 타겟을 선택하는 것; 및/또는 검출된 시선 타겟을 선택된 시선 타겟의 포지션으로 변경하는 것을 포함할 수도 있다.The present disclosure generally describes techniques, including devices, methods, and computer readable media for scene analysis for improved eye tracking. Some exemplary eye-tracking methods performed by a computing device include receiving eye-gaze direction information from an eye-facing sensor; Receiving digital scene information from a digital camera, the digital camera being capable of being oriented to capture digital scene information from a scene viewed by an eye; receiving the digital scene information; Determining a detected visual target in the digital scene information based on the visual direction information; Within the digital scene information, analyzing the digital scene information to identify potential gaze targets, the potential gaze targets may include, for example, stationary gaze targets, moving gaze targets, and / Analyzing the digital scene information; Selecting a potential gaze target; And / or changing the detected line-of-sight target to the position of the selected line-of-sight target.
본 명세서에서 설명된 다양한 기술들을 구현하는 명령들을 갖는 컴퓨팅 디바이스들 및 컴퓨터 판독가능 매체들이 또한 개시된다. 예시적인 컴퓨터 판독가능 매체들은 프로세서에 의해 실행가능한 컴퓨터 실행가능 명령들을 갖는 비일시적인 컴퓨터 판독가능 저장 매체들을 포함할 수도 있으며, 그 명령들은 프로세서에 의해 실행될 때, 프로세서로 하여금, 본 명세서에서 제공된 다양한 방법들의 임의의 조합을 수행하게 한다. 예시적인 컴퓨팅 디바이스들은 예를 들어, 디지털 카메라, 안구-대향 센서, 및 본 명세서에서 제공된 다양한 방법들의 임의의 조합을 수행하도록 구성된 안구 추적 정확도 인핸서 (eye tracking accuracy enhancer) 를 갖춘 컴퓨팅 디바이스를 포함하는 헤드 장착 디바이스들을 포함할 수도 있다.Computing devices and computer readable media having instructions for implementing the various techniques described herein are also disclosed. Exemplary computer-readable media may comprise non-transitory computer-readable storage media having computer-executable instructions executable by a processor, the instructions, when executed by the processor, cause the processor to perform the various methods To perform any combination of the above. Exemplary computing devices include a computing device having a computing device with an eye tracking accuracy enhancer configured to perform, for example, a digital camera, an eye-facing sensor, and any combination of the various methods provided herein. Mounting devices.
전술한 개요는 예시적일 뿐이며 어떤 방식으로든 한정하는 것으로 의도되지 않는다. 상기 설명된 예시적인 양태들, 실시형태들, 및 특징들에 추가하여, 추가 양태들, 실시형태들, 및 특징들이 도면들 및 다음의 상세한 설명을 참조하여 명백해질 것이다.The foregoing summary is exemplary and is not intended to be limiting in any way. In addition to the exemplary aspects, embodiments, and features described above, additional aspects, embodiments, and features will become apparent with reference to the drawings and the following detailed description.
본 개시물의 전술한 및 다른 특징들은 첨부 도면들과 함께 취해진 다음의 설명 및 첨부된 청구항들로부터 보다 완전히 명백해질 것이다. 이들 도면들이 본 개시물에 따라 단지 몇몇 실시형태들만을 묘사하고, 따라서 그 범위를 한정하는 것으로 간주되지 않는다는 이해 하에, 본 개시물은 첨부 도면들의 이용을 통하여 추가적인 구체화 및 상세로 설명될 것이며, 여기서, 모두가 본 개시물의 적어도 일부 실시형태들에 따라 배열되는, :
도 1 은 사용자가 착용하고 있는 예시적인 헤드 장착 디바이스를 예시하는 다이어그램;
도 2 는 잠재적인 시선 타겟들, 검출된 시선 타겟, 및 그의 모션을 포함하는 장면을 예시하는 다이어그램;
도 3 은 헤드 장착 디바이스 내에 통합된 컴퓨터의 하나의 예로서의 컴퓨팅 디바이스의 블록 다이어그램;
도 4 는 예시적인 안구 추적 방법을 예시하는 플로우 다이어그램;
도 5 는 예시적인 안구 추적 정확도 인핸서를 예시하는 블록 다이어그램;
도 6 은 잠재적인 시선 타겟들, 검출된 시선 타겟, 선택된 시선 타겟, 및 선택된 시선 타겟에 대한 AR 정보를 포함하는 장면을 예시하는 다이어그램;
도 7 은 잠재적인 시선 타겟들, 검출된 시선 타겟, 및 선택된 시선 타겟을 포함하는 장면을 예시하는 다이어그램이며, 여기서 선택된 시선 타겟은 적어도 하나의 컴퓨팅 디바이스 기능을 제어하기 위한 사용자 입력으로서 적용될 수도 있다.The foregoing and other features of the disclosure will become more fully apparent from the following description and the appended claims taken in conjunction with the accompanying drawings. With the understanding that these drawings depict only some embodiments in accordance with the present disclosure and are therefore not to be considered limiting of its scope, the present disclosure will be described in further detail and detail through the use of the accompanying drawings, in which , All arranged in accordance with at least some embodiments of the disclosure:
1 is a diagram illustrating an exemplary head-mounted device worn by a user;
2 is a diagram illustrating a scene including potential gaze targets, a detected gaze target, and its motion;
3 is a block diagram of a computing device as an example of a computer integrated within a head mounting device;
4 is a flow diagram illustrating an exemplary eye tracking method;
5 is a block diagram illustrating an exemplary eye tracking accuracy enhancer;
Figure 6 is a diagram illustrating a scene including potential gaze targets, detected gaze targets, selected gaze targets, and AR information for a selected gaze target;
FIG. 7 is a diagram illustrating a scene including potential gaze targets, a detected gaze target, and a selected gaze target, wherein the selected gaze target may be applied as a user input for controlling at least one computing device function.
다음의 상세한 설명에서는, 그 일부를 형성하는 첨부 도면들을 참조하게 된다. 도면들에서, 문맥상 달리 기술하지 않는 한, 유사한 심볼들은 통상 유사한 컴포넌트들을 식별한다. 상세한 설명, 도면들, 및 청구항들에서 설명된 예시적인 실시형태들은 한정하는 것으로 의미되지 않는다. 여기에 제시된 요지의 사상 또는 범위로부터 벗어남 없이 다른 실시형태들이 활용될 수도 있고 다른 변화들이 이루어질 수도 있다. 본 개시물의 양태들은 일반적으로 본 명세서에서 설명되고 도면들에서 예시된 바와 같이, 모두가 명시적으로 고려되고 본 개시물의 일부가 되는 매우 다양한 상이한 구성들로 배열, 대체, 조합, 및 설계될 수도 있다는 것이 쉽게 이해될 것이다.In the following detailed description, reference is made to the accompanying drawings which form a part thereof. In the drawings, similar symbols generally identify similar components, unless the context otherwise requires. The illustrative embodiments set forth in the description, the drawings, and the claims are not meant to be limiting. Other embodiments may be utilized and other changes may be made without departing from the spirit or scope of the disclosure herein. Aspects of the disclosure may be arranged, substituted, combined, and designed in a wide variety of different configurations, all of which are expressly contemplated and are part of the disclosure, as generally described herein and illustrated in the drawings It will be easy to understand.
본 개시물은 일반적으로는, 그 중에서도 향상된 안구 추적을 위한 장면 분석에 관한 본 명세서에서 효율적으로 사용되는 방법들, 디바이스들, 시스템들 및/또는 컴퓨터 판독가능 매체들을 포함하는 기술들에 관심을 갖는다. 일부 예들에서, 시선 타겟들은 안구-대향 (eye-facing) 센서로부터의 시선 방향 정보로부터 도출될 수도 있다. 시선 타겟 포지션들 및/또는 모션은 안구에 의해 보이는 장면으로부터 디지털 장면 정보를 캡처 및 분석함으로써 향상될 수도 있다. 디지털 카메라에 의해 캡처된 디지털 장면 정보가 일 예로, 정지된 시선 타겟들, 이동하는 시선 타겟들, 및/또는 가속하는 시선 타겟들과 같은 잠재적인 시선 타겟들을 식별하기 위해 분석될 수도 있다. 검출된 시선 타겟들은 본 명세서에서 "선택된 시선 타겟들" 로도 지칭되는, 선택된 잠재적인 시선 타겟들의 포지션들을 포함하도록 변경될 수도 있다.This disclosure is generally directed to techniques involving methods, devices, systems and / or computer-readable media that are used effectively in the present description of scene analysis for improved eye tracking, among others . In some instances, the gaze targets may be derived from gaze direction information from an eye-facing sensor. The gaze target positions and / or motion may be improved by capturing and analyzing digital scene information from a scene viewed by the eye. Digital scene information captured by the digital camera may be analyzed, for example, to identify potential gaze targets, such as stationary gaze targets, moving gaze targets, and / or accelerating gaze targets. The detected gaze targets may be modified to include the positions of the selected potential gaze targets, also referred to herein as " selected gaze targets ".
일부 실시형태들에서, 본 명세서에서 설명된 기술들은 일 예로, GOOGLE GLASS® 타입 디바이스들과 같은 헤드 장착 디바이스들에 통합될 수도 있다. 이러한 디바이스들은 예를 들어, 투명 렌즈를 제공할 수도 있으며, 그 투명 렌즈를 통하여 사용자는 물리적 세계 (physical world) 를 뷰잉할 수도 있다. 디바이스들은 더욱이 렌즈 상에 디지털 오브젝트들 및 정보를 디스플레이할 수도 있다. 디바이스들은 사용자들, 이를 테면 헤드 장착 디바이스들의 착용자들이 디스플레이될 디지털 오브젝트들 및 정보를 선택할 뿐만 아니라 그 오브젝트들 및 정보와 상호작용하는 것을 허용할 수도 있다. 디바이스들은 옵션으로는 예를 들어 인터넷에 무선 연결함으로써 컴퓨터 네트워크들에 연결할 수도 있다. 디바이스들은 또한 통합형 디지털 카메라들을 포함할 수도 있고, 디바이스들은 사용자들이 렌즈를 통하여 뷰잉한 바와 같은 장면들의 디지털 사진들 및 비디오를 캡처하는 것을 허용할 수도 있다. 예시적인 디바이스들에 포함될 수도 있는 바와 같은 이들 및 다른 특징들에 추가하여, 디바이스들이 안구-대향 센서들을 통합할 수도 있고 본 명세서에서 설명된 것들과 같은 안구 추적 방법들을 수행하기 위해 준비되어져 있을 수도 있다.In some embodiments, the techniques described herein may be incorporated into head mounted devices, such as, for example, GOOGLE GLASS® type devices. Such devices may, for example, provide a transparent lens through which the user may view the physical world. The devices may further display digital objects and information on the lens. Devices may allow users, such as wearers of head mounted devices, to interact with their objects and information as well as select digital objects and information to be displayed. Devices may optionally be connected to computer networks by, for example, wirelessly connecting to the Internet. The devices may also include integrated digital cameras, which may allow the users to capture digital pictures and videos of the scenes as they have viewed through the lens. In addition to these and other features as may be included in the exemplary devices, the devices may incorporate eye-to-face sensors and may be prepared to perform eye tracking methods such as those described herein .
안구-대향 센서들은 고가의 정확도가 높은 센서들, 또는 저가의 정확도가 낮은 센서들을 포함할 수도 있다. 본 개시물의 실시형태들은 임의의 타입의 안구-대향 센서를 수반할 수도 있다. 고가의 정확도가 높은 센서들은 예를 들어, 안구의 고해상도 가시광선 이미지들을 캡처하는 카메라들을 포함할 수도 있고, 안구 추적 시스템들은 계산된 안구 포지션의 더 큰 정확도를 달성하기 위해 비교적 더 많은 프로세싱을 행할 수도 있다. 저가의 정확도가 낮은 센서들은 예를 들어, 안구의 저해상도 적외 (infrared (IR)) 선 이미지들을 캡처하는 카메라들을 포함할 수도 있고, 안구 추적 시스템들은 계산된 안구 포지션의 비교적 더 작은 정확도를 달성하기 위해 비교적 덜 광범위한 프로세싱을 행할 수도 있다.Eye-to-face sensors may include expensive sensors with high accuracy, or low-cost, low-accuracy sensors. Embodiments of the disclosure may involve any type of eye-facing sensor. Highly accurate sensors may include, for example, cameras that capture high resolution visible light images of the eye, and eye tracking systems may perform relatively more processing to achieve greater accuracy of the calculated eye position have. Low-cost, low-accuracy sensors may include, for example, cameras that capture low-resolution infrared (IR) line images of the eye, and eye tracking systems may be used to achieve comparatively smaller accuracy of the calculated eye position Relatively less extensive processing may be performed.
안구 추적에 있어서는, 평활한 구 (smooth ball), 즉 안구에서의 매우 작고 낮은 콘트라스트 로테이션들을 해결하는데 있어서 어려움들을 발생시키는 근본적인 어려움들이 있다. 일부 안구-대향 센서들 및 대응하는 안구 추적 시스템들이 가진 하나의 문제점은, 중간 정도의 강도 및 콘트라스트의 반사된 IR 선이 부정확한 시선 방향들을 추정하는 것을 초래할 수 있는 급변하는 (jumpy) 및 설명하기 어려운 모션을 초래한다는 것이다. 고해상도 가시광선 안구 추적 시스템들이 훨씬 나을 수도 있지만, 이러한 안구 추적 시스템들은 더 고가의 안구-대향 센서 카메라들 및 더 많은 프로세싱 전력을 이용하고, 저조도 (low light) 컨디션들에서는 역시 기능하지 않는다.In eye tracking, there are fundamental difficulties that cause difficulties in solving smooth balls, very small and low contrast rotations in the eye. One problem with some eye-to-face sensors and corresponding eye tracking systems is that the reflected IR line of moderate intensity and contrast may cause a jumpy estimation of inaccurate eye directions, Which leads to difficult motions. While high resolution visible light eye tracking systems may be much better, these eye tracking systems utilize more expensive eye-to-face sensor cameras and more processing power, and do not function in low light conditions.
안구 추적의 어려움들은 특히 가상 환경들보다는 물리적 환경들의 맥락에서 표명된다. 물리적 환경들에서, 현재의 기술들은 뷰잉한 바와 같은 물리적 장면들 내에서, 눈에 흥미로운 포인트들 또는 그 눈에 흥미로운 다른 잠재적인 시선 타겟들에 관한 어떤 정보도 제공하지 않는다. 따라서, 일부 실시형태들에서, 본 명세서에서 설명된 기술들은 안구에 의해 보이는 물리적 장면들로부터 디지털 장면 정보를 캡처 및 분석하고, 잠재적인 시선 타겟들을 식별하며, 이러한 식별된 잠재적인 시선 타겟들을 이용하여 안구-대향 센서들로부터 도출된 시선 타겟 포지션들 및/또는 시선 타겟 모션을 향상시킬 수도 있다.The difficulties of eye tracking are particularly expressed in the context of physical environments rather than virtual environments. In physical environments, current techniques do not provide any information about eye-interesting points or other potential eye-gaze targets that are of interest in the physical scenes as viewed. Thus, in some embodiments, the techniques described herein may be used to capture and analyze digital scene information from physical views seen by an eye, identify potential gaze targets, and use these identified potential gaze targets Eye target positions and / or eye target motion derived from eye-to-face sensors.
일부 실시형태들에서, 안구 추적 시스템들은 검출된 안구 추적 포지션, 속도, 및/또는 가속도 값들을 물리적 세계의 잠재적인 시선 타겟들에 대응하는 추정된 안구 추적 값들과 비교함으로써, 본 명세서에서 시선 타겟 추정치로도 지칭되는, 향상된 안구 추적 타겟 추정치를 생성할 수도 있다. 잠재적인 시선 타겟들은 예를 들어 물리적 세계 장면의 실시간 비디오에서 식별될 수도 있다.In some embodiments, the eye tracking systems compare the detected eye tracking position, velocity, and / or acceleration values with estimated eye tracking values corresponding to the potential eye targets of the physical world, Lt; / RTI > may also produce an improved eye-tracking target estimate, also referred to as an eye-tracking target estimate. Potential line of sight targets may be identified, for example, in real-time video in a physical world scene.
잠재적인 시선 타겟들은, 예를 들어 오브젝트 인식을 이용하여, 또는 잠재적인 시선 타겟들을 식별하기 위해 다양한 그래픽스 분석 알고리즘들 중 임의의 것을 적용함으로써, 또는 예를 들어 장면 내의 오브젝트 모션을 식별함으로써 식별될 수도 있다. 실시형태들은 후속하여 각각의 식별된 잠재적인 시선 타겟에 대한 포지션, 속도, 및/또는 가속도 값들을 결정할 수도 있고, 이러한 결정된 값들을 검출된 안구 추적 포지션, 속도, 및/또는 가속도 값들과 비교할 수도 있다.The potential gaze targets may be identified, for example, by using object recognition, or by applying any of a variety of graphics analysis algorithms to identify potential gaze targets, or by identifying object motion in, for example, a scene have. Embodiments may subsequently determine position, velocity, and / or acceleration values for each identified potential eye target, and may compare these determined values to detected eye tracking position, velocity, and / or acceleration values .
실시형태들은 검출된 안구 추적 포지션, 속도, 및/또는 가속도 값들에 실질적으로 매칭하는 포지션, 속도, 및/또는 가속도 값들을 포함하는 적절한 잠재적인 시선 타겟을 선택할 수도 있다. 실시형태들은 그 후, 정확한 안구 추적 포지션, 속도, 및/또는 가속도 값들이 선택된 시선 타겟의 것들이라는 것을 추론할 수도 있다. 변경된, 향상된 안구 추적 포지션, 속도, 및/또는 가속도 값들은, 예를 들어 안구 추적 정보를 이용하는 임의의 애플리케이션을 위해 저장되거나 그렇지 않으면 이용될 수도 있다.Embodiments may also select an appropriate potential gaze target that includes position, velocity, and / or acceleration values that substantially match the detected ocular tracking position, velocity, and / or acceleration values. Embodiments may then infer that the precise eye tracking position, velocity, and / or acceleration values are those of the selected gaze target. The modified, improved eye tracking position, velocity, and / or acceleration values may be stored or otherwise used for any application that uses eye tracking information, for example.
실시형태들은 검출된 안구 추적 포지션, 속도, 및/또는 가속도 값들과 잠재적인 시선 타겟 포지션, 속도, 및/또는 가속도 값들 간의 비교들을 가능하게 하기 위해 적절하게 데이터 변환들을 수행할 수도 있다. 예를 들어, 일부 실시형태들에서, 검출된 안구 추적 포지션 값들은 안구 시선 방향에 대응하는 각 좌표 (angular coordinate) 들을 포함할 수도 있다. 한편, 잠재적인 시선 타겟 포지션 값들은 적어도 처음에는, 예를 들어 캡처된 비디오 프레임의 평면 내의 2 차원 x, y 좌표들을 포함할 수도 있다. 검출된 안구 추적 각 좌표들은 예를 들어, 카메라 포지션과 안구 포지션 간의 지오메트릭 관계들을 이용한 비교 동작들을 지원하기 위해 2 차원 x, y 좌표들로 컨버팅될 수도 있으며, 또는 그 역도 마찬가지이다. 실시형태들은 비교 동작들을 지원하기 위해 원할 때 모든 정보를 임의의 중간 좌표 시스템으로 컨버팅할 수도 있다는 것이 또한 인정될 것이다.Embodiments may suitably perform data transformations to enable comparisons between detected eye tracking position, velocity, and / or acceleration values and potential eye target position, velocity, and / or acceleration values. For example, in some embodiments, the detected eye tracking position values may include angular coordinates corresponding to the ocular gaze direction. On the other hand, the potential gaze target position values may include, at least initially, e.g., two-dimensional x, y coordinates in the plane of the captured video frame. The detected eye tracking angular coordinates may be converted to two dimensional x, y coordinates, for example, to support comparison operations using geometric relationships between camera position and eye position, or vice versa. It will also be appreciated that embodiments may convert all information to any intermediate coordinate system when desired to support comparison operations.
일부 실시형태들에서, 안구 추적 시스템들은 검출된 시선 타겟들을 물리적 장면 내의 정지된 잠재적인 시선 타겟들의 포지션들과 비교할 수도 있고, 적절하게, 검출된 시선 타겟들을 정지된 잠재적인 시선 시선 타겟들의 포지션들로 변경함으로써 검출된 시선 타겟들을 그들의 노이즈 경계들 내에서 정정할 수도 있다. 일부 실시형태들에서, 안구 추적 시스템들은 검출된 시선 방향들을 물리적 장면 내의 정지된 잠재적인 시선 타겟들의 포지션들에 대응하는 추정된 시선 방향들과 비교할 수도 있고, 검출된 시선 방향들을 추정된 시선 방향들로 변경함으로써 검출된 시선 방향들을 그들의 노이즈 경계들 내에서 정정할 수도 있다.In some embodiments, the eye tracking systems may compare the detected line-of-sight targets with the positions of the stationary potential line-of-sight targets in the physical scene and may appropriately compare the detected line-of-sight targets to the positions of the stationary potential line- To correct the detected eye targets within their noise boundaries. In some embodiments, the eye tracking systems may compare the detected line-of-sight directions to the estimated line-of-sight directions corresponding to the positions of the stationary potential line-of-sight targets in the physical scene, and compare the detected line-of- To correct the detected line-of-sight directions within their noise boundaries.
일부 실시형태들에서, 안구 추적 시스템들은 검출된 시선 타겟 모션 (이는 시선 타겟 속도 및/또는 시선 타겟 가속도를 포함할 수도 있고, 예를 들어, 물리적 장면 내의 일련의 검출된 시선 타겟들로부터 도출될 수도 있다) 을 물리적 장면 내의 이동하는 잠재적인 시선 타겟들을 뒤따르도록 모델링된 시선 타겟 모션과 비교할 수도 있고, 실시형태들은 검출된 시선 타겟 모션을 물리적 장면 내의 이동하는 잠재적인 시선 타겟들을 뒤따르도록 모델링된 시선 타겟 모션으로 변경함으로써 검출된 시선 타겟 모션을 그 노이즈 경계 내에서 정정할 수도 있다. 일부 실시형태들에서, 안구 추적 시스템들은 검출된 안구 모션 (이는 예를 들어, 일련의 검출된 시선 방향들로부터 도출될 수도 있다) 을 물리적 장면 내의 이동하는 잠재적인 시선 타겟들을 뒤따르는 것과 연관된 모델링된 안구 모션들과 비교할 수도 있고, 실시형태들은 검출된 안구 모션을 물리적 장면 내의 이동하는 잠재적인 시선 타겟들을 뒤따르도록 모델링된 안구 모션으로, 또는 모델링된 안구 모션에 매칭하는 잠재적인 시선 타겟들로 변경함으로써 검출된 안구 모션을 그 노이즈 경계 내에서 정정할 수도 있다.In some embodiments, the eye tracking systems may include detected gaze target motion, which may include gaze target velocity and / or gaze target acceleration, and may be derived, for example, from a series of detected gaze targets within a physical scene ) May be compared to the line of sight target motion modeled to follow the moving potential eye targets in the physical scene, and the embodiments may compare the detected line of sight target motion to the modeled eye gaze motion following the moving potential eye targets in the physical scene The line-of-sight target motion detected by changing to the line-of-sight target motion may be corrected within the noise boundary. In some embodiments, the eye tracking systems can be used to detect detected eye movements (which may be derived, for example, from a series of detected eye orientations) Eye movements and embodiments may change the detected eye motion to eye movement that is modeled to follow moving potential eye targets in the physical scene or to potential eye targets that match the modeled eye motion Thereby correcting the detected eye motion within the noise boundary.
예시적인 실시형태들은 사용자가 뷰잉한 바와 같은 물리적 세계의 이미지들, 또는 그 근사를 캡처할 수도 있다. 예를 들어, 실시형태들은 사용자의 안구에 근접한 디지털 카메라를 이용하여 비디오를 캡처할 수도 있다. 실시형태들은 물리적 세계의 잠재적인 시선 타겟들을 추출하기 위해 캡처된 물리적 세계 이미지들을 분석할 수도 있다. 이러한 분석은 일부 실시형태들에서 오브젝트 인식을 포함할 수도 있다. 일부 실시형태들에서, 다양한 알고리즘들 중 임의의 것은 예를 들어, 컬러, 근접성, 텍스처 등에 의해 관련될 수도 있는 예를 들어 관련 그래픽 특징들의 세트들을 식별하도록 적응될 수도 있다. 예시적인 알고리즘들은 SURF (Speeded Up Robust Features), SIFT (Scale Invariant Feature Transform), 및 KLT (Kanade-Lucas-Tomasi) 타입 알고리즘들을 포함한다. 관련 그래픽 특징들의 각각의 식별된 세트는 잠재적인 시선 타겟으로서 간주될 수도 있으며, 다수의 비디오 프레임들에 걸쳐 관련 그래픽 특징들의 각각의 식별된 세트의 포지션들을 추적함으로써, 실시형태들은 대응하는 잠재적인 시선 타겟들의 속도들 및 가속도들을 확립할 수도 있다.Exemplary embodiments may capture images of the physical world as viewed by the user, or an approximation thereof. For example, embodiments may capture video using a digital camera proximate to the user's eye. Embodiments may analyze captured physical world images to extract potential eye targets of the physical world. This analysis may include object recognition in some embodiments. In some embodiments, any of the various algorithms may be adapted to identify, for example, sets of related graphical features that may be related, for example, by color, proximity, texture, and the like. Exemplary algorithms include Speeded Up Robust Features (SURF), Scale Invariant Feature Transform (SIFT), and Kanade-Lucas-Tomasi (KLT) type algorithms. Each identified set of related graphical features may be considered as a potential gaze target and by tracking the positions of each identified set of related graphical features across multiple video frames, And may establish the velocities and accelerations of the targets.
실시형태들은 다수의 비디오 이미지들에 걸쳐 및 각각의 식별된 잠재적인 시선 타겟에 대해, 포지션 정보의 일계 도함수 (first derivative) 를 계산하여, 이동하는 잠재적인 시선 타겟들에 대한 속도 정보를 계산할 수도 있다. 실시형태들은, 다수의 비디오 이미지들에 걸쳐 및 각각의 식별된 잠재적인 시선 타겟에 대해, 포지션 정보의 이계 도함수 (second derivative) 를 계산하여, 가속하는 잠재적인 시선 타겟들에 대한 가속도 정보를 계산할 수도 있다. 실시형태들은 또한, 잠재적인 시선 타겟 속도들 및 가속도들과의 비교들을 위해 검출된 시선 타겟들 및/또는 시선 방향들에 대한 일계 및 이계 도함수 정보를 계산할 수도 있다. 실시형태들은 비교 동작들에 적합한 포괄적인 모션 플로우들을 생성하기 위해, 인정될 바와 같이, 다양한 수학적 접근법들 중 임의의 것을 이용하여 일계 및 이계 도함수 정보를 계산할 수도 있다.Embodiments may calculate velocity information for moving potential target targets over a plurality of video images and for each identified potential gaze target by computing a first derivative of the position information . Embodiments can also calculate acceleration information for potential gaze targets that accelerate by computing a second derivative of the position information across multiple video images and for each identified potential gaze target have. Embodiments may also calculate linear and temporal derivative information for the detected line of sight targets and / or line of sight directions for comparisons with potential gaze target velocities and accelerations. Embodiments may calculate linear and logarithmic derivative information using any of a variety of mathematical approaches, as will be appreciated, to generate comprehensive motion flows suitable for comparison operations.
실시형태들은 의도된 시선 방향들 또는 시선 타겟들을 추론하는 것에 의한 검출된 안구 추적 데이터를, 검출된 안구 추적 데이터 속성들에 실질적으로 매칭하는 포지션들, 속도들, 및/또는 가속도들을 갖는 물리적 세계 내의 잠재적인 시선 타겟들의 것들인 것으로 변경할 수도 있다. 예를 들어, 실시형태들은 검출된 시선 타겟 포지션들 및/또는 그의 일계 및 이계 도함수에 실질적으로 매칭하는, 실질적으로 매칭하는 예상된 시선 타겟 포지션, 예상된 시선 타겟 속도, 및/또는 예상된 시선 타겟 가속도를 갖는 식별된 잠재적인 시선 타겟을 선택할 수도 있다. 실시형태들은 선택된 시선 타겟들의 포지션들을 포함하는 변경된, 정확도 개선된 시선 타겟 정보를 생성하기 위해 검출된 시선 타겟들을 변경할 수도 있다.Embodiments may further include detecting eye tracking data by inferring intended eye directions or eye targets in a physical world having positions, velocities, and / or accelerations that substantially match the detected eye tracking data attributes And may be changed to those of potential gaze targets. For example, embodiments may include a substantially matching predicted gaze target position, an expected gaze target velocity, and / or an expected gaze target position that substantially match the detected gaze target positions and / And may select an identified potential gaze target having an acceleration. Embodiments may change the detected gaze targets to generate modified, accuracy-enhanced gaze target information that includes the positions of the selected gaze targets.
도 1 은 본 개시물의 적어도 일부 실시형태들에 따라 배열된, 사용자가 착용하고 있는 예시적인 헤드 장착 디바이스를 예시하는 다이어그램이다. 도 1 은 사용자 (150), 사용자 (150) 가 착용하고 있는 헤드 장착 디바이스 (100), 검출된 시선 타겟 (141), 및 선택된 시선 타겟 (142) 을 예시한다. 헤드 장착 디바이스 (100) 는 컴퓨터 (101), 디지털 카메라 (102), 및 안구-대향 (eye-facing) 센서 (103) 를 포함한다. 헤드 장착 디바이스 (100) 는 또한 렌즈 또는 다른 뷰 옵틱스 (110) 를 포함하지만, 뷰 옵틱스 (110) 는 일부 실시형태들에서 생략될 (포함되지 않을) 수도 있다. 도 1 에서, 안구-대향 센서 (103) 는 사용자 (150) 의 안구에 대한 실시간 시선 방향 정보를 검출하도록 적응될 수도 있다. 디지털 카메라 (102) 는 사용자 (150) 의 적어도 하나의 안구에 의해 보이는 장면, 예를 들어, 검출된 시선 타겟 (141) 및 선택된 시선 타겟 (142) 을 포함하는 장면으로부터 실시간 디지털 장면 정보를 캡처하도록 배향될 수도 있다. 예시적인 장면은 도 2 에 예시된다.Figure 1 is a diagram illustrating an exemplary head-mounted device that a user wears, arranged in accordance with at least some embodiments of the present disclosure. Figure 1 illustrates a user 150, a head-mounted device 100 worn by a user 150, a detected gaze target 141, and a selected gaze target 142. The head-mounted device 100 includes a
도 2 는 본 개시물의 적어도 일부 실시형태들에 따라 배열된, 잠재적인 시선 타겟들, 검출된 시선 타겟, 및 그의 모션을 포함하는 장면을 예시하는 다이어그램이다. 도 2 는 예를 들어, 디지털 카메라 (102) 에 의해 실시간 비디오로서 캡처될 수도 있는 장면 (200) 을 예시한다. 장면 (200) 은 잠재적인 시선 타겟 (201), 잠재적인 시선 타겟 (202), 잠재적인 시선 타겟 (203), 및 잠재적인 시선 타겟 (204) 을 포함한다.2 is a diagram illustrating a scene including potential gaze targets, a detected gaze target, and its motion, arranged in accordance with at least some embodiments of the present disclosure. 2 illustrates a scene 200 that may be captured, for example, as real-time video by a digital camera 102. [ The scene 200 includes a potential gaze target 201, a potential gaze target 202, a potential gaze target 203, and a potential gaze target 204.
잠재적인 시선 타겟 (201) 은 잠재적인 시선 타겟 (201) 으로부터 연장되는 모션 벡터에 의해 예시된 모션 M(F1) 을 가질 수도 있다. 잠재적인 시선 타겟 (201) 은 장면 (200) 내의 예시적인 이동하는 시선 타겟이며, 잠재적인 시선 타겟 (201) 은 예를 들어 비교적 일정한 속도 및 가속도 없음을 보일 수도 있다. 잠재적인 시선 타겟 (202) 은 모션 M(F2) 을 가질 수도 있다. 잠재적인 시선 타겟 (202) 은 장면 (200) 내의 예시적인 정지된 시선 타겟이며, 잠재적인 시선 타겟 (202) 은 실질적으로 속도 또는 가속도 없음을 보일 수도 있다. 잠재적인 시선 타겟 (203) 은 모션 M(F3) 을 가질 수도 있으며, 잠재적인 시선 타겟 (204) 은 모션 M(F4) 을 가질 수도 있다. 잠재적인 시선 타겟들 (203 및 204) 은 장면 (200) 내의 예시적인 가속하는 시선 타겟들이며, 잠재적인 시선 타겟들 (203 및 204) 은 속도들의 변화를 보일 수도 있다.The potential gaze target 201 may have the motion M (F1) illustrated by the motion vector extending from the potential gaze target 201. [ The potential gaze target 201 is an exemplary moving gaze target within the scene 200, and the potential gaze target 201 may, for example, show a relatively constant velocity and no acceleration. The potential gaze target 202 may have a motion M (F2). The potential gaze target 202 may be an exemplary static gaze target within the scene 200 and the potential gaze target 202 may show substantially no velocity or no acceleration. The potential gaze target 203 may have a motion M (F3), and the potential gaze target 204 may have a motion M (F4). Potential gaze targets 203 and 204 are exemplary accelerating gaze targets within scene 200 and potential gaze targets 203 and 204 may show changes in velocities.
4 개의 잠재적인 시선 타겟들 (201 내지 204) 은 장면 (200) 내에서, 예시적인 포지션들에서 및 예시적인 모션들을 가지고 예시된다. 그러나, 장면들은 인정될 바와 같이, 임의의 포지션들에서 및 임의의 모션들을 보이는 임의의 수의 잠재적인 시선 타겟들을 포함할 수도 있다. 용어 "모션" 은 본 명세서에서 사용한 바와 같이 속도, 가속도, 또는 양자를 나타낸다.The four potential gaze targets 201-204 are illustrated within scene 200, at exemplary positions, and with exemplary motions. However, scenes may, as will be appreciated, include any number of potential gaze targets in any positions and in any motion. The term " motion " refers to velocity, acceleration, or both, as used herein.
도 2 는 또한, 검출된 시선 타겟 (141) 으로부터 연장되는 모션 벡터들에 의해 예시된, 장면 (200) 내의 예시적인 시선 타겟 포지션에서 및 예시적인 검출된 타겟 모션 M(DT) 을 보이는 검출된 시선 타겟 (141) 을 예시한다. M(DT) 은 예를 들어, 예시된 모션 벡터들에 따른 속도의 변화를 포함하는 장면 (200) 내의 가속도를 보일 수도 있다. 그러나, 시선 타겟 (141) 은 디지털 카메라 (102) 에 의해 캡처된 바와 같은 장면 (200) 의 부분이 아니며, 장면 (200) 내의 시선 타겟 (141) 포지션 및 모션은 안구-대향 센서 (103) 에서 검출된 실시간 시선 방향 정보로부터 도출될 수도 있다. 도 2 는 또한, 장면 (200) 내의 선택된 시선 타겟 (142) 을 예시하며, 여기서 컴퓨터 (101) 는 예를 들어, 잠재적인 시선 타겟 (204) 을 선택된 시선 타겟 (142) 으로서 선택할 수도 있다.FIG. 2 also shows a graphical representation of the detected gaze position at the exemplary eye target position within the scene 200, illustrated by the motion vectors extending from the detected gaze target 141, The target 141 is illustrated. M (DT) may, for example, show an acceleration in the scene 200 that includes a change in velocity in accordance with the illustrated motion vectors. However, the line of sight target 141 is not part of the scene 200 as captured by the digital camera 102, and the line of sight target 141 position and motion in the scene 200 is in the eye-to-
컴퓨터 (101) 는 예를 들어 도 3 과 관련하여 설명한 바와 같이, 메모리에 저장되고 프로세서에 의해 실행가능한 안구 추적 정확도 인핸서 (eye tracking accuracy enhancer) 를 갖추고 있을 수도 있다. 일부 실시형태들에서, 안구 추적 정확도 인핸서는 : 안구-대향 센서 (103) 로부터 실시간 시선 방향 정보를 수신하고; 디지털 카메라 (102) 로부터 (예를 들어, 장면 (200) 으로부터의) 실시간 디지털 장면 정보를 수신하고; 안구-대향 센서 (103) 로부터의 시선 방향 정보에 기초하여, 예를 들어, 장면 (200) 내의 검출된 시선 타겟 (141) 포지션, 속도 및/또는 가속도를 결정함으로써, 장면 (200) 으로부터 실시간 디지털 장면 정보 내의 검출된 시선 타겟 (141) 을 결정하고; 잠재적인 시선 타겟들 (201 내지 204) 을 식별하기 위해 장면 (200) 으로부터 실시간 디지털 장면 정보를 분석하고; 식별된 잠재적인 시선 타겟들 (201 내지 204) 중에서 잠재적인 시선 타겟 (204) 을 선택하며; 그리고 적어도 선택된 시선 타겟 (142) 의 포지션(들)을 포함하도록 시선 타겟 (141) 을 변경하도록 구성될 수도 있다. 일단 선택된 시선 타겟 (142) 이 확립되면, 선택된 시선 타겟 (142) 은 다양한 애플리케이션들, 예를 들어, 디스플레이를 위한 AR 정보를 결정하는 것 및/또는 선택된 시선 타겟 (142) 을 컴퓨팅 디바이스 (101) 의 기능들을 제어하기 위한 사용자 입력으로서 적용하는 것 중 임의의 것을 위해 이용될 수도 있다.The
일부 실시형태들에서, 안구-대향 센서 (103) 로부터의 시선 방향 정보에 기초하여 장면 (200) 으로부터 실시간 디지털 장면 정보 내의 검출된 시선 타겟 (141) 을 결정하는 것은 검출된 시선 방향들을 장면 (200) 에 투영하기 위해 삼각법, 기하학 등의 수학적 원리들을 적용하는 것을 포함할 수도 있다. 예를 들어, 컴퓨터 (101) 는 장면 (200) 의 중앙에 중심점 (x=0, y=0) 을 갖는 좌표 시스템에서, 검출된 시선 타겟 (141) 의 x, y 좌표들을 계산할 수도 있다. 실시형태들은, 예를 들어 탄젠트 또는 코탄젠트 함수들, 또는 그의 수학적 등가물들을 이용할 수도 있으며, 여기서 검출된 시선 방향 정보의 x 및 y 컴포넌트들 θx 및 θy 는 기지의 인접한 삼각형 레그 거리 (triangle leg distance) (D), 예를 들어 사용자 (150) 의 안구로부터 뷰 옵틱스 (110) 까지의 거리와 함께, 각각 x 및 y 각각의 해를 구하는데 이용될 수도 있다. 일부 실시형태들에서, 안구-대향 센서 (103) 로부터의 시선 방향 정보에 기초하여 장면 (200) 으로부터 실시간 디지털 장면 정보 내의 검출된 시선 타겟 (141) 을 결정하는 것은, 일 리스트의 시선 방향들, 예를 들어 안구 각도들, 및 대응하는 시선 타겟 포지션들을 이용하여 달성될 수도 있으며, 여기서 실시형태들은 검출된 시선 방향들에 대응하는 시선 타겟 포지션들을 룩업할 수도 있다. 더욱이, 실시형태들은 예를 들어, 장면 (200) 으로부터 캡처된 다수의 비디오 프레임들을 가로지른 시선 타겟 포지션들로부터 도출된 시선 타겟 벡터 히스토리들에 기초하여 시선 타겟 속도들 및/또는 가속도들을 결정할 수도 있다.In some embodiments, determining the detected gaze target 141 in the real-time digital scene information from the scene 200 based on the gaze direction information from the eye- ) To apply mathematical principles such as trigonometry, geometry, etc. For example, the
일부 실시형태들에서, 시선 타겟 속도들 및/또는 가속도들은 안구 기계 모델 시뮬레이터 (eye mechanical model simulator) 를 이용하여 비교될 수도 있다. 눈의 모션은 대략 지연을 가지고 있는 피드백 루프에 의해 드라이빙된 2 차 스프링-질량 시스템이다. 이것은 타겟들이 속도를 변화시킬 때 가속하는 오브젝트를 래깅하고 오버슈트하는 가시적인 상승 시간들로서 나타낼 수도 있다. 따라서, 예를 들어, 장면 (200) 내의 M(DT) 은 비교를 위해 검출된 시선 방향을 엄격하게 적용하는 "원시 (raw)" M(DT) 함수를 이용하기 보다는, 사용자 (150) 가 주시하는 잠재적인 시선 타겟의 가능성있는 모션을 반영하도록 안구 기계 모델 시뮬레이터의 동작에 의해 조정될 수도 있다.In some embodiments, the gaze target velocities and / or accelerations may be compared using an eye mechanical model simulator. The motion of the eye is a secondary spring-mass system driven by a feedback loop with approximately delay. This may be represented as visible rise times that lag and overshoot the object that accelerates when the targets change speed. Thus, for example, M (DT) in scene 200 may be determined by the user 150 (e.g., a user), rather than using a " raw " M (DT) function that strictly applies the detected viewing direction for comparison And may be adjusted by operation of the ocular machine model simulator to reflect possible motions of the potential gaze target to be imaged.
본 명세서에서 설명한 바와 같이, 일부 실시형태들은 캡처된 장면 좌표 공간보다는, 안구 방향 좌표 공간에서 동작할 수도 있다. 예를 들어, 장면 (200) 내의 검출된 시선 타겟 (141) 을 결정하는 대신에, 실시형태들은 잠재적인 시선 타겟들 (201 내지 204) 과 연관되는 예상된 시선 방향들을 결정할 수도 있다. 이러한 실시형태들은 또한, 예를 들어, 래그, 오버슈트, 및/또는 다른 기계적 아티팩트들을 포함한, 잠재적인 시선 타겟들 (201 내지 204) 각각을 뒤따르도록 예상된 안구 움직임들을 시뮬레이션하기 위해, 안구 기계 모델 시뮬레이터를 이용할 수도 있다. 기술적 접근법에 상관없이, 실시형태들은 안구-대향 센서 (103) 로부터의 안구 추적 정보 및 그의 변화들을 잠재적인 시선 타겟들 (201 내지 204) 의 포지션들, 속도들 및/또는 가속도들과 비교하여 사용자 (150) 가 주시하고 있을 가능성이 가장 클 수도 있는 장면 (200) 내의 잠재적인 시선 타겟을 선택할 수도 있다.As described herein, some embodiments may operate in the ocular coordinate space rather than the captured scene coordinate space. For example, instead of determining the detected gaze target 141 within the scene 200, the embodiments may determine the expected gaze directions associated with the potential gaze targets 201-204. These embodiments may also be used to simulate eyeball movements expected to follow each of the potential eye targets 201-204, including, for example, lag, overshoot, and / or other mechanical artifacts. A model simulator may also be used. Regardless of the technical approach, the embodiments compare the ocular tracking information from ocular-facing
컴퓨터 (101) 는 일 예로, 본 명세서에서 개시한 바와 같은 SURF, SIFT, 및/또는 KLT 타입 알고리즘들과 같이, 장면 (200) 내의 이미지 또는 비디오 데이터에서의 잠재적인 시선 타겟들 (201 내지 204) 을 식별하기 위해 다양한 알고리즘들을 적용할 수도 있다. 일부 실시형태들에서, 컴퓨터 (101) 는 장면 (200) 으로부터 디지털 장면 정보를 분석하고 이로써 잠재적인 시선 타겟들 (201 내지 204) 일 수도 있는 오브젝트들을 식별하기 위해 오브젝트 인식을 적용할 수도 있다. 일부 실시형태들에서, 컴퓨터 (101) 는 적어도 부분적으로 관련 그래픽 특징들의 세트들을 식별함으로써 장면 (200) 으로부터 디지털 장면 정보를 분석할 수도 있으며, 관련 그래픽 특징들의 각각의 세트는 예를 들어 잠재적인 시선 타겟, 이를 테면 잠재적인 시선 타겟들 (201 내지 204) 중 하나를 포함한다.The
컴퓨터 (101) 는 예를 들어, 검출된 시선 타겟 (141) 포지션, 속도, 및/또는 가속도를 잠재적인 시선 타겟들 (201 내지 204) 의 포지션들, 속도들, 및/또는 가속도들과 비교함으로써 잠재적인 시선 타겟들 (201 내지 204) 중에서 선택된 시선 타겟 (142) 을 선택할 수도 있다. 예를 들어, 일부 실시형태들에서, 선택된 시선 타겟 (142) 은 장면 (200) 으로부터의 디지털 장면 정보 내에, 특징 포지션을 가질 수도 있으며, 이는 검출된 시선 타겟 (141) 을 둘러싸는 오차 경계 이내일 수도 있다. 오차 경계들은 안구-대향 센서 (103) 의 정확도, 카메라 이미지와 안구 간의 정렬, 및/또는 검출된 시선 타겟 (141) 을 장면 (200) 에 맵핑하는데 이용된 계산들에 의존할 수도 있다. 오차 경계들은 검출된 시선 타겟 (141) 이 변경될 수도 있는 검출된 시선 타겟 (141) 을 둘러싸는 구역을 정의할 수도 있다. 일부 실시형태들에서, 선택된 시선 타겟 (142) 은 더욱이 검출된 시선 타겟 (141) 속도에 실질적으로 매칭하는 시선 타겟 속도를 갖는 이동하는 시선 타겟을 포함할 수도 있다. 일부 실시형태들에서, 선택된 시선 타겟 (142) 은 더욱이 검출된 시선 타겟 (141) 가속도에 실질적으로 매칭하는 시선 타겟 가속도를 갖는 가속하는 시선 타겟을 포함할 수도 있다.The
일부 잠재적인 실세계 시나리오들에서, 여러 잠재적인 시선 타겟들은 시선 타겟 오차 경계들 이내의 포지션들은 물론, 적어도 검출된 시선 타겟 속도들 및/또는 가속도들과 유사한 속도들 및/또는 가속도들을 보일 수도 있다. 따라서, 실시형태들은 여러 가능한 후보들 중에서 적절한 잠재적인 시선 타겟을 선택하기 위한 기법들을 적용할 수도 있다. 컴퓨터 (101) 는 예를 들어, 다수의 잠재적인 시선 타겟들 (201 내지 204) 에 가중치들을 동적으로 할당할 수도 있다. 컴퓨터 (101) 는 잠재적인 시선 타겟을 선택하기 위해 동적으로 할당된 가중치들을 이용할 수도 있다. 예를 들어, 컴퓨터 (101) 는 잠재적인 시선 타겟들 (201 내지 204) 각각에, 검출된 시선 타겟 (141) 에 대한 그들의 근접성들에 따라 가중치들을 할당할 수도 있으며, 여기서 더 강한 가중치들은 더 밀접하게 근접한 잠재적인 시선 타겟들에 적용된다. 컴퓨터 (101) 는 잠재적인 시선 타겟들 (201 내지 204) 각각에, 잠재적인 시선 타겟 속도들 및/또는 가속도들과 검출된 시선 타겟 (141) 의 속도 및/또는 가속도 간의 매치 정도에 따라 가중치들을 할당할 수도 있으며, 여기서 더 강한 가중치들은 더 밀접하게 매칭하는 속도들 및/또는 가속도들을 갖는 잠재적인 시선 타겟들에 적용된다. 가장 강한 가중된 잠재적인 시선 타겟이 그 후 선택된 시선 타겟 (142) 으로서 선택될 수도 있다.In some potential real world scenarios, the various potential gaze targets may show speeds and / or accelerations that are similar to at least the detected gaze target velocities and / or accelerations, as well as positions within the visual target error boundaries. Accordingly, embodiments may employ techniques for selecting an appropriate potential target of sight among the various possible candidates. The
일부 실시형태들에서, 가속도 매치들은 상대적으로 더 강한 범위의 가중치들과 연관될 수도 있는 한편, 속도 매치들은 중간 범위의 가중치들과 연관될 수도 있고, 포지션 매치들은 상대적으로 더 약한 범위의 가중치들과 연관될 수도 있다. 컴퓨터 (101) 는 이로써 잠재적인 시선 타겟들이 검출된 시선 타겟 (141) 의 모션들에 매칭하는 모션들을 보일 때 잠재적인 시선 타겟 선택의 정확도를 증가시킬 수도 있다.In some embodiments, the acceleration matches may be associated with relatively stronger ranges of weights, while the velocity matches may be associated with intermediate range weights, and the position matches may be associated with a relatively weaker range of weights May be associated. The
일부 실시형태들에서, 컴퓨터 (101) 는, 실시간 시선 방향 정보 및 실시간 디지털 장면 정보가 컴퓨터 (101) 에서 수신될 때 실시간으로 선택된 시선 타겟 (142) 과 같은 선택된 시선 타겟들을 계속 출력하기 위해 실시간으로 안구-대향 센서 (103) 로부터의 실시간 시선 방향 정보 및 디지털 카메라 (102) 로부터의 실시간 디지털 장면 정보를 프로세싱할 수도 있다. 다른 실시형태들에서, 컴퓨터 (101) 는, 그래도 아직은 실시간이 아닌 다른 애플리케이션들에 유용한 것으로 입증할 수도 있는 선택된 시선 타겟들을 결정하기 위해, 즉 실시간으로가 아닌 나중에, 수신된 시선 방향 정보 및 디지털 장면 정보를 저장 및 프로세싱할 수도 있다는 것이 인정될 것이다.In some embodiments, the
일부 실시형태들에서, 디지털 카메라 (102) 는 다수의 상이한 프레임 레이트들 또는 해상도들에서 비디오를 캡처하도록 적응될 수도 있다. 예를 들어, 디지털 카메라 (102) 는 디폴트 프레임 레이트 및/또는 디폴트 해상도를 가질 수도 있지만, 컴퓨터 (101) 는 다른 프레임 레이트들 및/또는 해상도들에서 디지털 카메라 (102) 를 동작시키기 위해 디지털 카메라 (102) 디폴트 설정들을 조정하도록 적응될 수도 있다. 컴퓨터 (101) 는 본 개시물에 따른 디지털 장면 정보를 캡처하는 것과 관련한 이용을 위해 적절하게 디지털 카메라 (102) 프레임 레이트들 및/또는 해상도들을 조정하도록 적응될 수도 있다. 예를 들어, 컴퓨터 (101) 는 감소된 프레임 레이트 및/또는 감소된 해상도, 예를 들어 디폴트 프레임 레이트 또는 해상도보다 더 낮은 프레임 레이트 또는 해상도에서 디지털 카메라 (102) 를 동작시킴으로써 헤드 장착 디바이스 (100) 의 배터리 수명을 보존하도록 적응될 수도 있다. 전력이 제한되고 있지 않고 및/또는 정확도가 다른 무엇보다 중요한 애플리케이션들에서, 컴퓨터 (101) 는 개선된 프레임 레이트 및/또는 개선된 해상도, 예를 들어 디폴트 프레임 레이트 또는 해상도보다 더 높은 프레임 레이트 또는 해상도에서 디지털 카메라 (102) 를 동작시키도록 적응될 수도 있다. 일부 실시형태들에서, 컴퓨터 (101) 는 사용자의 안구의 움직임의 속도 및 빈도 및/또는 환경 또는 그 환경 내의 잠재적인 시선 타겟들의 움직임의 속도 및 빈도에 따라 프레임 레이트 및/또는 해상도를 변화시키도록 적응될 수도 있다.In some embodiments, the digital camera 102 may be adapted to capture video at a plurality of different frame rates or resolutions. For example, the digital camera 102 may have a default frame rate and / or a default resolution, but the
도 3 은 본 개시물의 적어도 일부 실시형태들에 따라 배열된, 헤드 장착 디바이스 내에 통합된 컴퓨터의 하나의 예로서의 컴퓨팅 디바이스의 블록 다이어그램이다. 매우 기본 구성 (301) 에서, 컴퓨팅 디바이스 (300) 는 하나 이상의 프로세서들 (310) 및 시스템 메모리 (320) 를 포함할 수도 있다. 메모리 버스 (330) 는 프로세서 (310) 와 시스템 메모리 (320) 간에 통신하기 위해 이용될 수도 있다.3 is a block diagram of a computing device as an example of a computer integrated within a head mounted device, arranged in accordance with at least some embodiments of the present disclosure. In a very basic configuration 301, computing device 300 may include one or more processors 310 and system memory 320. The memory bus 330 may be used to communicate between the processor 310 and the system memory 320.
원하는 구성에 의존하여, 프로세서 (310) 는 마이크로프로세서 (μP), 마이크로제어기 (μC), 디지털 신호 프로세서 (DSP), 또는 이들의 임의의 조합을 포함하지만 이들에 한정되지 않는 임의의 타입의 것일 수도 있다. 프로세서 (310) 는 레벨 1 캐시 (311) 및 레벨 2 캐시 (312) 와 같은 하나 이상의 레벨들의 캐싱, 프로세서 코어 (313), 및 레지스터들 (314) 을 포함할 수도 있다. 프로세서 코어 (313) 는 산술 논리 유닛 (ALU), 부동 소수점 유닛 (FPU), 디지털 신호 프로세싱 코어 (DSP 코어), 또는 이들의 임의의 조합을 포함할 수도 있다. 메모리 제어기 (315) 는 또한, 프로세서 (310) 와 함께 이용될 수도 있고, 또는 일부 구현들에서, 메모리 제어기 (315) 는 프로세서 (310) 의 내부 부분일 수도 있다.Depending on the desired configuration, the processor 310 may be of any type including, but not limited to, a microprocessor (μP), a microcontroller (μC), a digital signal processor (DSP) have. The processor 310 may include one or more levels of caching, such as a level 1
원하는 구성에 의존하여, 시스템 메모리 (320) 는 휘발성 메모리 (이를 테면 RAM), 비휘발성 메모리 (이를 테면 ROM, 플래시 메모리 등), 또는 이들의 임의의 조합을 포함하지만 이들에 한정되지 않는 임의의 타입의 것일 수도 있다. 시스템 메모리 (320) 는 통상 오퍼레이팅 시스템 (321), 하나 이상의 애플리케이션들 (322), 및 프로그램 데이터 (325) 를 포함한다. 일부 실시형태들에서, 오퍼레이팅 시스템 (321) 은 가상 머신 매니저 (Virtual Machine Manager; VMM) 에 의해 관리되는 가상 머신을 포함할 수도 있다. 애플리케이션들 (322) 은 예를 들어, 본 명세서에서 설명한 바와 같은 안구 추적 정확도 인핸서 모듈(들) (323) 을 포함할 수도 있다. 프로그램 데이터 (325) 는 예를 들어, 안구-대향 센서 (103) 로부터 수신될 수도 있는 바와 같은 실시간 시선 방향 정보 (326), 예를 들어, 디지털 카메라 (102) 로부터 수신될 수도 있는 바와 같은 실시간 디지털 장면 정보 (327), 및 실시간 디지털 장면 정보 (327) 로부터 추출될 수도 있는 잠재적인 시선 타겟들 (328) 을 각각 포함할 수도 있다.Depending on the desired configuration, the system memory 320 may be any type of memory including, but not limited to, volatile memory (such as RAM), non-volatile memory (such as ROM, flash memory, etc.) . The system memory 320 typically includes an operating system 321, one or more applications 322, and program data 325. In some embodiments, the operating system 321 may include a virtual machine managed by a virtual machine manager (VMM). Applications 322 may include, for example, eye tracking accuracy enhancer module (s) 323 as described herein. The program data 325 may include, for example, real-time
컴퓨팅 디바이스 (300) 는 추가적인 특징들 또는 기능성, 및 기본 구성 (301) 과 임의의 요구된 디바이스들 및 인터페이스들 간의 통신들을 용이하게 하기 위한 추가적인 인터페이스들을 가질 수도 있다. 예를 들어, 버스/인터페이스 제어기 (340) 는 저장 인터페이스 버스 (341) 를 통해 기본 구성 (301) 과 하나 이상의 데이터 저장 디바이스들 (350) 간의 통신들을 용이하게 하는데 이용될 수도 있다. 데이터 저장 디바이스들 (350) 은 착탈식 저장 디바이스들 (351), 비착탈식 저장 디바이스들 (352), 또는 이들의 조합일 수도 있다. 착탈식 저장 및 비착탈식 저장 디바이스들의 예들은 몇몇만 예로 들자면, 플렉시블 디스크 드라이브들 및 하드-디스크 드라이브들 (HDD) 과 같은 자기 디스크 디바이스들, 콤팩트 디스크 (CD) 드라이브들 또는 디지털 다기능 디스크 (DVD) 드라이브들과 같은 광 디스크 드라이브들, 솔리드 스테이트 드라이브들 (SSD), 및 테이프 드라이브들을 포함한다. 예시적인 컴퓨터 저장 매체들은 컴퓨터 판독가능 명령들, 데이터 구조들, 프로그램 모듈들, 또는 다른 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 착탈식 및 비착탈식 매체들을 포함할 수도 있다.The computing device 300 may have additional features or functionality and additional interfaces to facilitate communications between the basic configuration 301 and any desired devices and interfaces. For example, the bus /
레벨 1 캐시 (311), 레벨 2 캐시 (312), 시스템 메모리 (320), 착탈식 저장 디바이스 (351), 및 비착탈식 저장 디바이스 (352) 는 모두 컴퓨터 저장 매체들의 예들이다. 컴퓨터 저장 매체들은 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, 디지털 다기능 디스크들 (DVD) 또는 다른 광 저장부, 자기 카세트들, 자기 테이프, 자기 디스크 저장 또는 다른 자기 저장 디바이스들, 또는 원하는 정보를 저장하는데 이용될 수도 있고 컴퓨팅 디바이스 (300) 에 의해 액세스될 수도 있는 임의의 다른 매체를 포함하지만 이들에 한정되지 않는다. 임의의 이러한 컴퓨터 저장 매체들은 디바이스 (300) 의 부분일 수도 있다.Level 1
컴퓨팅 디바이스 (300) 는 또한 버스/인터페이스 제어기 (340) 를 통한 다양한 인터페이스 디바이스들 (예를 들어, 출력 인터페이스들, 주변장치 인터페이스들, 및 통신 인터페이스들) 로부터 기본 구성 (301) 으로의 통신을 용이하게 하기 위한 인터페이스 버스 (342) 를 포함할 수도 있다. 예시적인 출력 디바이스들 (360) 은 그래픽스 프로세싱 유닛 (361) 및 오디오 프로세싱 유닛 (362) 을 포함하며, 이들은 하나 이상의 A/V 포트들 (363) 을 통해 디스플레이 또는 스피커들과 같은 다양한 외부 디바이스들에 통신하도록 구성될 수도 있다. 예시적인 주변장치 인터페이스들 (370) 은 직렬 인터페이스 제어기 (371) 또는 병렬 인터페이스 제어기 (372) 를 포함할 수도 있으며, 이들은 하나 이상의 I/O 포트들 (373) 을 통해 디지털 카메라 (102), 안구-대향 센서 (103), 및/또는 다른 출력 디바이스들 (예를 들어, 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스 등) 또는 다른 주변장치 디바이스들 (예를 들어, 프린터, 스캐너 등) 과 같은 디바이스들과의 유선이나 무선 연결들을 통하여 통신하도록 구성될 수도 있다. 다른 종래의 I/O 디바이스들, 이를 테면 마우스, 키보드 등도 물론 연결될 수도 있다. 예시적인 통신 디바이스 (380) 는 네트워크 제어기 (381) 를 포함하며, 이는 하나 이상의 통신 포트들 (382) 을 통한 네트워크 통신을 통해 하나 이상의 다른 컴퓨팅 디바이스들 (390) 과의 통신들을 용이하게 하도록 배열될 수도 있다.The computing device 300 also facilitates communication from the various interface devices (e.g., output interfaces, peripheral interfaces, and communication interfaces) through the bus /
컴퓨터 저장 매체들은 통신 매체들의 하나의 예일 수도 있다. 통신 매체들은 통상 컴퓨터 판독가능 명령들, 데이터 구조들, 프로그램 모듈들, 또는 변조된 데이터 신호에서의 다른 데이터, 이를 테면 캐리어파 또는 다른 전송 메커니즘에 의해 구현될 수도 있고, 임의의 정보 전달 매체들을 포함할 수도 있다. "변조된 데이터 신호" 는 그 특징들 중 하나 이상이 신호에서의 정보를 인코딩하도록 하는 방식으로 설정 또는 변화된 신호일 수도 있다. 한정 없이 일 예로, 통신 매체들은 유선 매체들, 이를 테면 유선 네트워크 또는 직접 유선 연결, 및 무선 매체들, 이를 테면 음향, 무선 주파수 (RF), 적외선 (IR), 및 다른 무선 매체들을 포함할 수도 있다.Computer storage media may be an example of communication media. Communication media may typically be embodied by computer readable instructions, data structures, program modules, or other data in a modulated data signal, such as a carrier wave or other transport mechanism, including any information delivery media You may. A " modulated data signal " may be a signal that has been set or changed in such a manner as to cause one or more of its characteristics to encode information in the signal. By way of example, and not limitation, communication media may include wired media, such as a wired network or direct-wired connection, and wireless media such as acoustic, radio frequency (RF), infrared (IR) .
컴퓨팅 디바이스 (300) 는 도 1 에 예시한 바와 같은 헤드 장착 디바이스 내에 통합된 컴퓨터로서 구현될 수도 있다. 컴퓨팅 디바이스 (300) 는 도 1 에 예시한 바와 같은 헤드 장착 디바이스의 외부에 있지만, 그래도 아직은 그로부터 실시간 시선 방향 정보 (326) 및 실시간 디지털 장면 정보를 수신하기 위하여 이러한 헤드 장착 디바이스와 유선 또는 무선 통신하고 있는 컴퓨터로서 구현될 수도 있다. 예를 들어, 컴퓨팅 디바이스 (300) 는 랩톱 컴퓨터 및 비-랩톱 컴퓨터 구성들 양자, 또는 데이터 센터 내의 서버를 포함하는 개인용 또는 업무용 컴퓨터로서 구현될 수도 있다. 컴퓨팅 디바이스 (300) 가 실시간으로 존재하지 않는 시선 방향 정보 및 디지털 장면 정보를 이용하여, 실시간 이외의 방식으로 동작하는 실시형태들이 또한 본 개시물에 따라 설계될 수도 있다.The computing device 300 may be embodied as a computer integrated within a head mounted device as illustrated in FIG. The computing device 300 is external to the head-mounted device as illustrated in FIG. 1, but yet is in wired or wireless communication with such a head-mounted device to receive real-time
도 4 는 본 개시물의 적어도 일부 실시형태들에 따라 배열된, 예시적인 안구 추적 방법을 예시하는 플로우 다이어그램이다. 예시적인 플로우 다이어그램은 방법에서 수행될 수도 있는 바와 같은 동작들, 컴퓨팅 디바이스 (300) 내의 기능적 모듈들, 및/또는 컴퓨터 판독가능 매체 (450) 상에 기록될 수도 있는 바와 같은 명령들을 표현하는 블록들 (401 내지 407) 에 의해 예시한 바와 같은 하나 이상의 동작들/모듈들을 포함할 수도 있다.Figure 4 is a flow diagram illustrating an exemplary eye tracking method arranged in accordance with at least some embodiments of the present disclosure. Exemplary flow diagrams illustrate operations such as may be performed in a method, functional modules within computing device 300, and / or blocks that represent instructions, such as may be written on computer readable medium 450 / RTI > may include one or more operations / modules as illustrated by blocks 401-407.
도 4 에서, 블록들 (401 내지 407) 은 예를 들어, 블록 (401) 이 처음이고 블록 (407) 이 마지막인 상태로 순차적으로 수행되는 블록들을 포함하는 것으로 예시된다. 그러나, 이들 블록들은 특정 실시형태들에 적합하도록 편리하게 재배열될 수도 있고 이들 블록들 또는 그 부분들이 일부 실시형태들에서 동시에 수행될 수도 있다는 것이 인정될 것이다. 또한, 일부 예들에서, 다양한 블록들은 제거, 추가적인 블록들로 분할, 및/또는 다른 블록들과 조합될 수도 있다는 것이 인정될 것이다.In FIG. 4, blocks 401 to 407 are illustrated as including blocks that are sequentially executed, for example, with block 401 as the first and block 407 as the last. It will be appreciated, however, that these blocks may conveniently be rearranged to suit particular embodiments and that these blocks or portions thereof may be performed concurrently in some embodiments. It will also be appreciated that, in some instances, the various blocks may be removed, partitioned into additional blocks, and / or combined with other blocks.
도 4 는 컴퓨팅 디바이스 (300) 가 안구 추적을 행할 수도 있는 예시적인 방법을 예시하며, 여기서 안구-대향 센서로부터의 안구 추적 데이터는, 장면 분석을 수행하는 것, 잠재적인 시선 타겟들의 선택, 및 안구 추적 데이터의 변경에 의해, 그 정확도를 증가시키기 위해 향상될 수도 있다.FIG. 4 illustrates an exemplary method by which computing device 300 may perform eye tracking, wherein eye tracking data from an eye-to-face sensor may be used to perform scene analysis, to select potential eye targets, May be improved to increase its accuracy by changing the tracking data.
"안구-대향 센서로부터 시선 방향 정보를 수신" 블록 401 에서, 컴퓨팅 디바이스 (300) 는 안구-대향 센서 (103) 로부터, 적어도 하나의 안구, 예를 들어 사용자 (150) 의 안구에 대한 시선 방향 정보를 수신할 수도 있다. 통합형 안구-대향 센서들을 포함하는 컴퓨팅 디바이스들은 통합형 안구-대향 센서들로부터 시선 방향 정보를 수신할 수도 있다. 외부의 안구-대향 센서들과 통신적으로 커플링된 컴퓨팅 디바이스들은 옵션으로는 임의의 수의 중간 디바이스들 또는 네트워크 인프라스트럭처를 통해 외부의 안구-대향 센서들로부터 시선 방향 정보를 수신할 수도 있다. 블록 401 다음에는 블록 402 가 후속될 수도 있다.At a block 401, the computing device 300 receives information from at least one eye-to-
"디지털 카메라로부터 디지털 장면 정보를 수신" 블록 402 에서, 컴퓨팅 디바이스 (300) 는 디지털 카메라 (102) 로부터 디지털 장면 정보를 수신할 수도 있다. 디지털 카메라 (102) 는 블록 401 에서 추적될 수도 있는 사용자 (150) 의 안구에 의해 보이는 장면으로부터 디지털 장면 정보를 캡처하도록 배향될 수도 있다. 통합형 디지털 카메라들을 포함하는 컴퓨팅 디바이스들은 통합형 디지털 카메라들로부터 디지털 장면 정보를 수신할 수도 있다. 외부의 디지털 카메라들과 통신적으로 커플링된 컴퓨팅 디바이스들은 옵션으로는 임의의 수의 중간 디바이스들 또는 네트워크 인프라스트럭처를 통해, 외부의 디지털 카메라들로부터 디지털 장면 정보를 수신할 수도 있다. 일부 실시형태들에서, 컴퓨팅 디바이스 (300) 는 블록 402 에서 디지털 카메라 (102) 의 프레임 레이트 및/또는 해상도를 조정할 수도 있고, 예를 들어 디지털 카메라 (102) 는 디폴트 프레임 레이트 또는 디폴트 해상도를 가질 수도 있으며, 컴퓨팅 디바이스 (300) 는 상이한 프레임 레이트 및/또는 상이한 해상도에서 디지털 카메라 (102) 를 동작시킬 수도 있다. 블록 402 다음에는 블록 403 이 후속될 수도 있다.At
"디지털 장면에서의 시선 타겟 포지션, 속도, 및/또는 가속도를 결정" 블록 403 에서, 컴퓨팅 디바이스 (300) 는 블록 401 에서 수신된 시선 방향 정보에 기초하여, 블록 402 에서 수신된 디지털 장면 정보 내의 시선 타겟을 결정할 수도 있다. 시선 타겟을 결정하는 것은, 예를 들어 다수의 상이한 비디오 프레임들에서의 시선 타겟들을 결정하는 것 및 시선 타겟 포지션들, 속도들, 및/또는 가속도들을 포함하는 시선 타겟 벡터 히스토리들을 결정하기 위해 대응하는 일계 및/또는 이계 도함수들을 계산하는 것을 포함할 수도 있다. 일부 실시형태들에서, 시선 타겟을 결정하는 것은 검출된 안구 움직임들에 기초하여, 블록 402 에서 수신된 디지털 장면 정보 내의 오브젝트의 움직임을 시뮬레이션하기 위해 안구 기계 모델 시뮬레이터를 적용하는 것을 포함할 수도 있다. 일부 실시형태들은 시선 타겟 결정들을 생략할 수도 있고, 그 대신 예를 들어, 블록 405 에서 행해질 수도 있는 바와 같이, 안구 좌표 공간에서의 비교에 이용하기 위한 예를 들어 안구 각 방향들, 안구 각 속도들 및 안구 각 가속도들을 계산할 수도 있다. 블록 403 다음에는 블록 404 가 후속될 수도 있다.In
"잠재적인 시선 타겟들 및 그들의 포지션들, 속도들, 및/또는 가속도들을 식별하기 위해 디지털 장면을 분석" 블록 404 에서, 컴퓨팅 디바이스 (300) 는 블록 402 에서 수신된 디지털 장면 정보 내의 잠재적인 시선 타겟들을 식별하기 위해 그 디지털 장면 정보를 분석할 수도 있다. 예를 들어, 컴퓨팅 디바이스 (300) 는 본 명세서에서 개시한 바와 같이 블록 402 에서 수신된 디지털 장면 정보에 오브젝트 인식 및/또는 그래픽스 분석 알고리즘들을 적용할 수도 있다. 식별된 잠재적인 시선 타겟들은 예를 들어, 정지된 시선 타겟들, 이동하는 및/또는 가속하는 시선 타겟들을 포함할 수도 있다. 컴퓨팅 디바이스 (300) 는 다수의 상이한 비디오 프레임들을 가로질러 잠재적인 시선 타겟들의 포지션들을 추적할 수도 있고, 잠재적인 시선 타겟 포지션들, 속도들, 및/또는 가속도들을 결정하기 위해 대응하는 일계 및/또는 이계 도함수들을 계산할 수도 있다. 일부 실시형태들에서, 잠재적인 시선 타겟 포지션들, 속도들, 및/또는 가속도들은 블록 401 에서 수신된 시선 방향 정보에서의 시선 방향을 위해 이용되는 예를 들어, 각 좌표 시스템 또는 안구 좌표 공간으로 바뀔 수도 있다. 안구 기계 모델 시뮬레이터가 잠재적인 시선 타겟 포지션들, 속도들, 및/또는 가속도들에 기초하여 안구의 움직임을 시뮬레이션하는데 이용될 수도 있다. 블록 404 다음에는 블록 405 가 후속될 수도 있다.At a block 404, the computing device 300 may analyze the potential gaze targets and their potential gaze targets in the digital scene information received at
"검출된 시선 타겟 포지션, 속도, 및/또는 가속도에 매칭하는 잠재적인 시선 타겟을 선택" 블록 405 에서, 컴퓨팅 디바이스 (300) 는 블록 404 에서 식별된 특징들 중에서 특징을 선택할 수도 있다. 일부 실시형태들에서, 컴퓨팅 디바이스 (300) 는 블록 404 에서 결정한 바와 같이, 포지션을 가질 수도 있는 잠재적인 시선 타겟을 선택할 수도 있으며, 이는 블록 403 에서 결정한 바와 같이, 검출된 시선 타겟을 둘러싸는 오차 경계 이내일 수도 있다. 일부 실시형태들에서, 다수의 검출된 시선 타겟 포지션들은 옵션으로는 블록 402 에서 수신된 다수의 비디오 프레임들을 가로질러, 식별된 잠재적인 시선 타겟과 연관된 다수의 잠재적인 시선 타겟 포지션들과 비교될 수도 있다. 일부 실시형태들에서, 컴퓨팅 디바이스 (300) 는 예를 들어, 실질적으로 매칭하는 속도 및 방향을 포함하는, 검출된 시선 타겟 속도에 실질적으로 매칭하는 속도를 갖는 잠재적인 시선 타겟을 선택할 수도 있다. 일부 실시형태들에서, 컴퓨팅 디바이스 (300) 는 예를 들어, 실질적으로 매칭하는 크기 및 방향의 가속도를 포함하는, 검출된 시선 타겟 가속도에 실질적으로 매칭하는 가속도를 갖는 잠재적인 시선 타겟을 선택할 수도 있다. 일부 실시형태들에서, 컴퓨팅 디바이스 (300) 는 본 명세서에서 설명한 바와 같이, 블록 404 에서 식별된 복수의 잠재적인 시선 타겟들에 가중치들을 동적으로 할당할 수도 있고, 컴퓨팅 디바이스 (300) 는 잠재적인 시선 타겟을 선택하기 위해 동적으로 할당된 가중치들을 이용할 수도 있다. 블록 405 다음에는 블록 406 이 후속될 수도 있다.At block 405, the computing device 300 may select a feature from among the features identified at block 404. ≪ RTI ID = 0.0 > [0040] < / RTI & In some embodiments, the computing device 300 may select a potential gaze target that may have a position, as determined at block 404, which may include an error boundary surrounding the detected gaze target, as determined at
"검출된 시선 타겟을 변경" 블록 406 에서, 컴퓨팅 디바이스 (300) 는 블록 405 에서 선택되는, 선택된 시선 타겟의 포지션들, 속도들, 및/또는 가속도들을 포함하도록, 예를 들어, 블록 403 에서 결정한 바와 같이, 그 포지션들, 속도들, 및/또는 가속도들을 포함하는 검출된 시선 타겟을 변경할 수도 있다. 일부 실시형태들에서, 변경된 시선 타겟 정보는 저장 및/또는 추가 분석을 위해 다른 컴퓨터에 저장 또는 송신될 수도 있다. 일부 실시형태들에서, 블록 405 에서 선택된 잠재적인 시선 타겟을 설명하는 정보가 변경된 시선 타겟 정보와 함께 저장 또는 송신될 수도 있고, 예를 들어, 선택된 시선 타겟의 스냅샷, 또는 오브젝트를 식별하거나 예를 들어 선택된 시선 타겟 내의 광고를 식별하는 텍스트가 변경된 시선 타겟 정보와 함께 저장 또는 송신될 수도 있다. 블록 406 다음에는 블록 407 이 후속될 수도 있다.At block 406, the computing device 300 may determine, at block 405, the position of the selected gaze target, the velocity, and / As such, it may change the detected gaze target, including its positions, velocities, and / or accelerations. In some embodiments, the modified gaze target information may be stored or transmitted to another computer for storage and / or further analysis. In some embodiments, information describing the potential gaze target selected at block 405 may be stored or transmitted with the modified gaze target information, e.g., a snapshot of the selected gaze target, The text identifying the advertisement in the selected line-of-sight target may be stored or transmitted along with the changed line-of-sight target information. Block 406 may be followed by block 407.
"변경된 시선 타겟 정보를 적용" 블록 407 에서, 컴퓨팅 디바이스 (300) 는 안구 추적 정보가 이용될 수도 있는 임의의 애플리케이션과 관련하여 블록 406 으로부터의 변경된 시선 타겟 정보를 적용할 수도 있다. 예를 들어, 컴퓨팅 디바이스 (300) 는 디스플레이를 위한 AR 정보, 이를 테면 일 예로, 변경된 시선 타겟에서의 오브젝트를 식별하거나, 설명하거나, 그렇지 않으면 그 오브젝트와 연관된 정보를 결정하기 위해 블록 406 으로부터의 변경된 시선 타겟 정보를 이용할 수도 있다. 다른 예에서, 컴퓨팅 디바이스 (300) 는 블록 406 으로부터의 변경된 시선 타겟 정보를 적어도 하나의 컴퓨팅 디바이스 기능을 제어하기 위한 사용자 입력으로서 적용할 수도 있다. 인정될 바와 같이 매우 다양한 다른 애플리케이션들도 가능하며, 본 개시물은 임의의 특정 애플리케이션에 한정되지 않는다.In the "Apply Changed Gaze Target Information" block 407, the computing device 300 may apply the modified gaze target information from block 406 with respect to any application where the ocular tracking information may be used. For example, the computing device 300 may determine the AR information for the display, such as, by way of example, identifying the modified object from block 406 to identify, describe, or otherwise determine the object The gaze target information may also be used. In another example, the computing device 300 may apply the modified gaze target information from block 406 as a user input for controlling at least one computing device function. As will be appreciated, a wide variety of other applications are possible, and the disclosure is not limited to any particular application.
일부 실시형태들에서, 블록 401 내지 블록 406, 및 옵션으로는 또한 블록 407 은 실시간으로 컴퓨팅 디바이스 (300) 에 의해 수행될 수도 있으며, 즉, 블록 401 및 블록 402 에서 수신된 시선 방향 정보 및 디지털 장면 정보는 각각 실시간 시선 방향 정보 및 실시간 디지털 장면 정보를 포함할 수도 있다. 컴퓨팅 디바이스 (300) 는 더욱이 실시간 시선 방향 정보 및 실시간 디지털 장면 정보가 수신될 때 실시간으로 블록 403 내지 블록 407 을 수행할 수도 있다.In some embodiments, blocks 401 through 406, and optionally also block 407, may be performed by computing device 300 in real time, i. E., At block 401 and block 402, The information may include real-time visual direction information and real-time digital scene information, respectively. The computing device 300 may further perform
도 5 는 본 개시물의 적어도 일부 실시형태들에 따라 배열된, 예시적인 안구 추적 정확도 인핸서를 예시하는 블록 다이어그램이다. 도 5 는 도 3 및 도 4 와 관련하여 설명한 바와 같은 안구 추적 정확도 인핸서 (323) 에 대한 대안의 어레인지먼트로서 기능할 수도 있는 안구 추적 정확도 인핸서 (500) 를 예시한다. 안구 추적 정확도 인핸서 (500) 는 잠재적인 시선 타겟 검출기 (510), 잠재적인 시선 타겟 선택기 (520), 속도 추출기 (530) 및 속도 추출기 (540), 가속도 추출기 (550), 필터 (560), 가속도 추출기 (570), 및 안구 기계 모델 시뮬레이터 (580) 를 포함한다. 잠재적인 시선 타겟 선택기 (520) 는 가중된 포지션 비교기 (521), 가중된 속도 비교기 (522), 및 가중된 가속도 비교기 (523) 를 포함한다.5 is a block diagram illustrating an exemplary eye tracking accuracy enhancer arranged in accordance with at least some embodiments of the present disclosure. FIG. 5 illustrates an eye tracking accuracy enhancer 500 that may serve as an alternative arrangement for the eye tracking
도 5 에서, 잠재적인 시선 타겟 선택기 (520) 는 입력으로서 시선 좌표 스트림 (501) 을 수신할 수도 있으며, 시선 좌표 스트림 (501) 은 안구-대향 센서 (103) 로부터의 출력을 포함할 수도 있고, 또는 그 출력으로부터 도출될 수도 있다. 잠재적인 시선 타겟 선택기 (520) 는 또한, 입력으로서 잠재적인 시선 타겟 좌표 스트림들 (502) 을 수신할 수도 있으며, 잠재적인 시선 타겟 좌표 스트림들 (502) 은 잠재적인 시선 타겟들을 식별하고 대응하는 잠재적인 시선 타겟 좌표 스트림들 (502) 을 추출하기 위해 디지털 카메라 (102) 로부터의 디지털 장면 정보를 분석하는, 잠재적인 시선 타겟 검출기 (510) 로부터의 출력을 포함할 수도 있고, 또는 그 출력으로부터 도출될 수도 있다. 잠재적인 시선 타겟 선택기 (520) 는 출력으로서, 선택된 시선 타겟 좌표 스트림 (503) 을 생성할 수도 있고, 안구 추적 정확도 인핸서 (500) 는 선택된 시선 타겟 좌표 스트림 (503) 을 변경된 시선 좌표 스트림 (504) 으로서 적용할 수도 있다.5, the potential
일부 실시형태들에서, 잠재적인 시선 타겟 검출기 (510) 는 디지털 카메라 (102) 로부터 수신된 비디오 스트림을 분석하여 그로부터 잠재적인 시선 타겟들을 추출할 수도 있다. 잠재적인 시선 타겟 검출기 (510) 는 각각의 식별된 잠재적인 시선 타겟에 대한 포지션 좌표들의 스트림을 포함하는, 잠재적인 시선 타겟 좌표 스트림들 (502) 을 공급할 수도 있다. 안구 추적 정확도 인핸서 (500) 는 옵션으로는 본 명세서에서 설명한 바와 같이, 잠재적인 시선 타겟 좌표 스트림들 (502) 을 임의의 원하는 좌표 공간으로 바꿀 수도 있다. 한편, 안구 추적 정확도 인핸서 (500) 는 또한, 시선 좌표 스트림 (501) 을 잠재적인 시선 타겟 좌표 스트림들 (502) 의 좌표 공간과 동일한 좌표 공간으로 바꿀 수도 있다. 시선 좌표 스트림 (501) 은 추적되는 안구에 대한 포지션 좌표들의 스트림을 포함할 수도 있다.In some embodiments, the potential
일부 실시형태들에서, 가중된 포지션 비교기 (521) 는 잠재적인 시선 타겟 좌표 스트림들 (502) 각각에서의 포지션 좌표들을 시선 좌표 스트림 (501) 에서의 포지션 좌표들과 비교할 수도 있다. 가중된 포지션 비교기 (521) 는 그 대응하는 잠재적인 시선 타겟 좌표 스트림의 시선 좌표 스트림 (501) 에서의 포지션 좌표들과의 근접성에 기초하여 각각의 식별된 잠재적인 시선 타겟에 가중치를 할당할 수도 있다. 가중된 포지션 비교기 (521) 는 시선 좌표 스트림 (501) 에 더 밀접하게 근접한 좌표 스트림들을 갖는 식별된 잠재적인 시선 타겟들에 더 강한 가중치들을 할당할 수도 있다. 일부 실시형태들에서, 시선 좌표 스트림 (501) 및 잠재적인 시선 타겟 좌표 스트림들 (502) 은 시간 정보를 포함할 수도 있고, 가중된 포지션 비교기 (521) 는 다수의 상이한 시점들에서의 포지션 좌표들을 비교하도록 적응될 수도 있다. 일부 실시형태들에서, 가중된 포지션 비교기 (521) 는 실질적으로 시선 좌표 스트림 (501) 에 대한 오차 경계 밖의 포지션 좌표들을 포함하는 좌표 스트림들을 갖는 식별된 잠재적인 시선 타겟들을 제거하도록 적응될 수도 있다. 제거된 잠재적인 시선 타겟들은 안구 추적 정확도 인핸서 (500) 에 의한 현재의 선택 동작을 위한 후보들로서 일시적으로 없어질 수도 있다.In some embodiments, the
일부 실시형태들에서, 속도 추출기 (530) 는 시선 좌표 스트림 (501) 의 일계 시간 도함수 d/dt 를 계산하여 이로써 시선 속도를 컴퓨팅하도록 적응될 수도 있다. 유사하게, 속도 추출기 (540) 는 잠재적인 시선 타겟 좌표 스트림들 (502) 각각의 일계 시간 도함수들 d/dt 를 계산하여, 가중된 포지션 비교기 (521) 해 현재의 선택 동작으로부터 제거될 수도 있는 그 식별된 잠재적인 시선 타겟들보다는, 각각의 식별된 잠재적인 시선 타겟에 대한 속도를 컴퓨팅하도록 적응될 수도 있다.In some embodiments, the
가중된 속도 비교기 (522) 는 잠재적인 시선 타겟 좌표 스트림들 (502) 각각의 계산된 속도들을 시선 좌표 스트림 (501) 의 계산된 속도와 비교하도록 적응될 수도 있다. 가중된 속도 비교기 (522) 는 각각의 식별된 잠재적인 시선 타겟에, 그 계산된 속도와 시선 좌표 스트림 (501) 의 계산된 속도 간의 매치 정도에 기초하여 가중치를 할당할 수도 있다. 가중된 속도 비교기 (522) 는 시선 좌표 스트림 (501) 의 속도에 더 밀접하게 매칭하는 속도들을 갖는 식별된 잠재적인 시선 타겟들에 더 강한 가중치들을 할당할 수도 있다. 일부 실시형태들에서, 가중된 속도 비교기 (522) 는 시선 좌표 스트림 (501) 의 안구 속도에 실질적으로 매칭하는 속도를 갖는 식별된 잠재적인 시선 타겟들에, 일반적으로 더 강한 가중치들, 예를 들어 가중된 포지션 비교기 (521) 에 의해 적용된 가중치들보다 더 강한 가중치들을 할당할 수도 있는 한편, 가중된 속도 비교기 (522) 는 다르게는 시선 좌표 스트림 (501) 의 속도에 실질적으로 매칭하지 않는 속도를 갖는 식별된 잠재적인 시선 타겟들에 약간의 가중치를 할당하거나 가중치를 할당하지 않을 수도 있다. 가중된 속도 비교기 (522) 는 다수의 상이한 시점들에서의 속도들을 비교하도록 적응될 수도 있다. 일부 실시형태들에서, 가중된 속도 비교기 (522) 는 시선 좌표 스트림 (501) 에 대한 계산된 속도와는 실질적으로 상이한 속도들, 이를 테면, 일 예로 실질적으로 상이한 방향들, 예를 들어 90 도 차이 이상을 갖는 속도들, 또는 실질적으로 상이한 크기들, 이를 테면 일 예로 50% 의 시선 속도 이하, 또는 200% 의 시선 속도 이상을 갖는 속도들을 갖는 식별된 잠재적인 시선 타겟들을 제거하도록 적응될 수도 있다.The
일부 실시형태들에서, 가속도 추출기 (550) 는 시선 좌표 스트림 (501) 의 이계 시간 도함수 d 2 /dt 2 를 계산하여 시선 가속도를 컴퓨팅하도록 적응될 수도 있다. 유사하게, 가속도 추출기 (570) 는 잠재적인 시선 타겟 좌표 스트림들 (502) 각각의 이계 시간 도함수들 d 2 /dt 2 를 계산하여, 가중된 포지션 비교기 (521) 및/또는 가중된 속도 비교기 (522) 에 의해 현재의 선택 동작으로부터 제거될 수도 있는 그 식별된 잠재적인 시선 타겟들보다는, 각각의 식별된 잠재적인 시선 타겟에 대한 가속도를 컴퓨팅하도록 적응될 수도 있다.In some embodiments, the acceleration extractor 550 may be adapted to compute the line-of-sight acceleration by calculating the time-of-day derivative d 2 / dt 2 of the line of sight coordinate
필터 (560) 는 가속도 추출기 (550) 로부터의 계산된 가속도 출력들을 필터링하도록 적응될 수도 있다. 일부 경우들에서, 가속도 출력들은 유용한 비교들을 위해 너무 노이지 (noisy) 한 것으로 입증할 수도 있다. 필터 (560) 는 예를 들어, 소정의 고속 백-앤드-포스 (fast-back-and-forth) 타입 안구 가속도들을 제거하기 위해 및/또는 "급변하는" 소규모 및 짧은 시간 프레임 안구 가속도들을 제거하면서 더 광범위한 안구 가속도 정보를 캡처하기 위해 가속도 출력들을 평활화할 수도 있다.The
안구 기계 모델 시뮬레이터 (580) 는 대응하는 식별된 잠재적인 시선 타겟들을 뒤따르는 가상적인 안구에 대한 안구 가속도들을 시뮬레이션함으로써 잠재적인 시선 타겟 좌표 스트림들 (502) 각각에 대한 계산된 가속도들을 변경하도록 적응될 수도 있다. 일부 실시형태들에서, 안구 기계 모델 시뮬레이터 (580) 는 예를 들어, 래그 및 오버슈트 모션을 잠재적인 시선 타겟 좌표 스트림들 (502) 각각에 대한 계산된 가속도들에 더할 수도 있다. 일부 실시형태들에서, 안구 기계 모델 시뮬레이터는, 가속도 추출기 (570) 와 가중된 가속도 비교기 (523) 사이의 안구 기계 모델 시뮬레이터 (580) 대신에 또는 그것에 추가하여, 속도 추출기 (540) 와 가중된 속도 비교기 (522) 사이 및/또는 잠재적인 시선 타겟 좌표 스트림들 (502) 과 가중된 포지션 비교기 (521) 사이에 배치될 수도 있다.
가중된 가속도 비교기 (523) 는 안구 기계 모델 시뮬레이터 (580) 에 의해 옵션으로 변경한 바와 같이, 잠재적인 시선 타겟 좌표 스트림들 (502) 각각의 계산된 가속도들을, 필터 (560) 에 의해 옵션으로 변경한 바와 같이, 시선 좌표 스트림 (501) 의 계산된 가속도와 비교하도록 적응될 수도 있다. 가중된 가속도 비교기 (523) 는 각각의 식별된 잠재적인 시선 타겟에, 그 계산된 가속도와 시선 좌표 스트림 (501) 의 계산된 가속도 간의 매치 정도에 기초하여 가중치를 할당할 수도 있다. 가중된 가속도 비교기 (523) 는 시선 좌표 스트림 (501) 의 가속도에 더 밀접하게 매칭하는 가속도를 갖는 식별된 잠재적인 시선 타겟들에 더 강한 가중치들을 할당할 수도 있다. 일부 실시형태들에서, 가중된 가속도 비교기 (523) 는, 시선 좌표 스트림 (501) 의 가속도에 실질적으로 매칭하는 가속도를 갖는 식별된 잠재적인 시선 타겟들에, 매우 강한 가중치들, 예를 들어 가중된 포지션 비교기 (521) 및/또는 가중된 속도 비교기 (522) 에 의해 적용된 가중치들보다 더 강한 가중치들을 할당할 수도 있는 한편, 가중된 가속도 비교기 (523) 는 다르게는 시선 좌표 스트림 (501) 의 가속도에 실질적으로 매칭하지 않는 가속도를 갖는 식별된 잠재적인 시선 타겟들에 약간의 가중치를 할당하거나 또는 가중치를 할당하지 않을 수도 있다. 가중된 가속도 비교기 (523) 는 다수의 상이한 시점들에서의 가속도를 비교하도록 적응될 수도 있다.The
일부 실시형태들에서, 잠재적인 시선 타겟 선택기 (520) 는 각각의 식별된 잠재적인 시선 타겟에 대해, 가중된 포지션 비교기 (521), 가중된 속도 비교기 (522), 및/또는 가중된 가속도 비교기 (523) 각각에 의해 적용된 가중치들을 집계하도록 적응될 수도 있다. 잠재적인 시선 타겟 선택기 (520) 는 가장 강한 집계 가중치를 갖는 식별된 잠재적인 시선 타겟을 선택할 수도 있다. 잠재적인 시선 타겟 선택기 (520) 는 예를 들어, 선택된 시선 타겟에 대응하는 잠재적인 시선 타겟 좌표 스트림들 (502) 중에서 좌표 스트림을 포함하는, 선택된 시선 타겟 좌표 스트림 (503) 을 출력할 수도 있다. 일부 실시형태들에서, 선택된 시선 타겟 좌표 스트림 (503) 은, 시선 좌표 스트림 (501) 의 변화들에 기초하여 상이한 식별된 잠재적인 시선 타겟들이 잠재적인 시선 타겟 선택기 (520) 에 의해 동적으로 선택될 때, 실시간으로, 상이한 선택된 시선 타겟 좌표 스트림들 간에 동적으로 스위칭할 수도 있다. 안구 추적 정확도 인핸서 (500) 는, 선택된 시선 타겟 좌표 스트림 (503) 을 변경된 시선 좌표 스트림 (504) 으로서 저장하거나, 송신하거나, 그렇지 않으면 적용할 수도 있다.In some embodiments, the potential
도 6 은 본 개시물의 적어도 일부 실시형태들에 따라 배열된, 잠재적인 시선 타겟들, 검출된 시선 타겟, 선택된 시선 타겟, 및 선택된 시선 타겟에 대한 AR 정보를 포함하는 장면을 예시하는 다이어그램이다. 도 6 은 장면 (600) 을 예시한다. 장면 (600) 은 모션 M(F1) 을 보이는 잠재적인 시선 타겟 (601), 모션 M(F2) 을 보이는 잠재적인 시선 타겟 (602), 및 모션 M(F3) 을 보이는 잠재적인 시선 타겟 (603) 을 포함한다. 검출된 시선 타겟 (141) 은 모션 M(DT) 을 보일 수도 있다. 잠재적인 시선 타겟들 (601 내지 603), 검출된 시선 타겟 (141), 및 그의 모션들은 본 명세서에서 개시한 바와 같이 획득될 수도 있고, 잠재적인 시선 타겟 (603) 은 본 명세서에서 개시된 기법들에 따라, 선택된 시선 타겟 (142) 으로서 선택될 수도 있다.6 is a diagram illustrating a scene including potential gaze targets, detected gaze targets, selected gaze targets, and AR information for a selected gaze target, arranged in accordance with at least some embodiments of the present disclosure. Figure 6 illustrates a scene 600. Scene 600 includes a potential gaze target 601 showing motion M (F1), a potential gaze target 602 showing motion M (F2), and a potential gaze target 603 showing motion M (F3) . The detected sight line target 141 may show motion M (DT). The potential gaze targets 601 through 603, the detected gaze target 141, and their motions may be obtained as disclosed herein, and the potential gaze target 603 may be obtained from techniques described herein And thus may be selected as the selected gaze target 142.
도 6 에서, 컴퓨팅 디바이스, 이를 테면 컴퓨팅 디바이스 (300) 는, 선택된 시선 타겟 (142) 에 대한 AR 정보 (610) 를 결정할 수도 있다. 예를 들어, 컴퓨팅 디바이스 (300) 의 사용자가 자동차 경주를 시청중일 때, 컴퓨팅 디바이스 (300) 는 선택된 시선 타겟 (142) 에서의 자동차를 식별하는 AR 정보를, 옵션으로는 그 자동차에 대한 속도, 운전자, 또는 다른 정보와 함께 디스플레이할 수도 있다. 이러한 AR 정보는 컴퓨팅 디바이스 (300) 에 로컬로 저장된 정보로부터 및/또는 컴퓨터 네트워크로부터, 선택된 시선 타겟 (142) 에서의 자동차를 식별하기 위해 장면 (600) 으로부터 도출된 정보를 이용하여 취출될 수도 있다.In FIG. 6, a computing device, such as computing device 300, may determine
도 7 은 잠재적인 시선 타겟들, 검출된 시선 타겟, 및 선택된 시선 타겟을 포함하는 장면을 예시하는 다이어그램이며, 여기서 선택된 시선 타겟은 본 개시물의 적어도 일부 실시형태들에 따라 배열된, 적어도 하나의 컴퓨팅 디바이스 기능을 제어하기 위한 사용자 입력으로서 적용될 수도 있다. 도 7 은 장면 (700) 을 예시한다. 장면 (700) 은 잠재적인 시선 타겟 (701), 잠재적인 시선 타겟 (702), 잠재적인 시선 타겟 (703), 잠재적인 시선 타겟 (704), 잠재적인 시선 타겟 (705), 잠재적인 시선 타겟 (706), 및 잠재적인 시선 타겟 (707) 을 포함하며, 잠재적인 시선 타겟들 (701 내지 705) 은 컴퓨팅 디바이스 디스플레이에서 디스플레이된 UI 내에 있다. 잠재적인 시선 타겟들 (706 및 707) 은 예를 들어, 장면 (700) 내에서 식별된 다른 잠재적인 시선 타겟들을 포함한다. 잠재적인 시선 타겟들 (701 내지 707) 및 검출된 시선 타겟 (141) 은 본 명세서에서 개시한 바와 같이 획득될 수도 있으며, 잠재적인 시선 타겟 (703) 은 본 명세서에서 개시된 기법들에 따라, 선택된 시선 타겟 (142) 으로서 선택될 수도 있다. 안구 추적 매칭은, 사용자 헤드 모션이 정지된 오브젝트들로 하여금, 안구 좌표 시스템에서의 포지션을 변화하게 할 수도 있기 때문에 안구 모션을 심지어는 정지된 오브젝트들의 시야의 모션에 매칭시키는데 유용할 수도 있다.7 is a diagram illustrating a scene including potential gaze targets, a detected gaze target, and a selected gaze target, wherein the selected gaze target is arranged in accordance with at least some of the embodiments of the disclosure, And may be applied as a user input for controlling the device function. Figure 7 illustrates a scene 700. The scene 700 includes a
도 7 에서, 컴퓨팅 디바이스, 이를 테면 컴퓨팅 디바이스 (300) 는 컴퓨팅 디바이스 기능들, 예를 들어 장면 (700) 에서의 컴퓨팅 디바이스의 기능을 제어하기 위한 사용자 입력으로서 선택된 시선 타겟 (142) 을 적용할 수도 있다. 컴퓨팅 디바이스 (300) 는 예를 들어, 장면 (700) 에서의 컴퓨팅 디바이스에, 잠재적인 시선 타겟 (703) 에서의 UI 엘리먼트를 선택하라는 커맨드를 전송할 수도 있다. 컴퓨팅 디바이스 (300) 는 장면 (700) 에서의 컴퓨팅 디바이스는 물론, UI (710) 및 그의 잠재적인 시선 타겟들을 인식하여, 컴퓨팅 디바이스 (300) 가 장면 (700) 에서의 컴퓨팅 디바이스에 적절한 UI 커맨들를 전송하는 것을 허용하도록 적응될 수도 있다. 대안으로, 컴퓨팅 디바이스 (300) 는 사전에, 예를 들어, 사용자에 의해, UI (710) 및 그의 다양한 제어들을 인식하고, 장면 (700) 에서의 컴퓨팅 디바이스와 통신하도록 구성될 수도 있다. 일부 실시형태들에서, 컴퓨팅 디바이스 (300) 는 컴퓨팅 디바이스 (300) 에서 UI (710) 의 기능들을 복제하여 옵션으로는 컴퓨팅 디바이스 (300) 의 기능들을 제어할 수도 있다.7, a computing device, such as computing device 300, may apply a selected gaze target 142 as a user input for controlling computing device functions, e.g., the functionality of a computing device in scene 700, have. The computing device 300 may send a command to the computing device in the scene 700, for example, to select a UI element at the
시스템들의 양태들의 하드웨어와 소프트웨어 구현들 사이에는 거의 차이가 존재하지 않는다 ; 하드웨어 또는 소프트웨어의 사용은 일반적으로 비용 대 효율 트레이드오프들을 나타내는 설계 선택이다 (그러나, 소정의 맥락들에서는, 하드웨어와 소프트웨어의 간의 선택이 중요해질 수도 있다는 점에서 항상 그런 것은 아니다). 본 명세서에서 설명된 프로세스들 및/또는 시스템들 및/또는 다른 기술들을 유효하게 할 수도 있는 다양한 수단들 (예를 들어, 하드웨어, 소프트웨어, 및/또는 펌웨어) 이 존재하며, 선호 수단은 프로세스들 및/또는 시스템들 및/또는 다른 기술들이 효율적으로 사용되는 맥락에 따라 변할 것이다. 예를 들어, 구현자가 속도 및 정확도가 다른 무엇보다 중요하다고 결정한다면, 그 구현자는 주로 하드웨어 및/또는 펌웨어 수단을 선택할 수도 있으며; 가요성이 다른 무엇보다 중요하다면, 구현자는 주로 소프트웨어 구현을 선택할 수도 있으며; 또는 또 다른 대안으로, 구현자는 하드웨어, 소프트웨어, 및/또는 펌웨어의 일부 조합을 선택할 수도 있다.There is little difference between the hardware and software implementations of the aspects of the systems; The use of hardware or software is typically a design choice that represents cost-to-efficiency tradeoffs (but in some contexts, the choice between hardware and software may not always be important). There are a variety of means (e.g., hardware, software, and / or firmware) that may enable the processes and / or systems and / or other techniques described herein, And / or systems and / or other techniques may vary depending on the context in which they are used effectively. For example, if the implementer determines that speed and accuracy are more important than others, the implementer may chose primarily hardware and / or firmware means; If the flexibility is more important than anything else, the implementer may chose mainly the software implementation; Alternatively, the implementer may select some combination of hardware, software, and / or firmware.
전술한 상세한 설명은 블록 다이어그램들, 플로우차트들, 및/또는 예들의 이용을 통해 디바이스들 및/또는 프로세스들의 다양한 실시형태들을 기재하고 있다. 이러한 블록 다이어그램들, 플로우차트들, 및/또는 예들이 하나 이상의 기능들 및/또는 동작들을 포함하는 한에 있어서는, 이러한 블록 다이어그램들, 플로우차트들, 또는 예들 내의 각각의 기능 및/또는 동작이 개별적으로 및/또는 집합적으로, 다양한 하드웨어, 소프트웨어, 펌웨어, 또는 사실상 이들의 임의의 조합에 의해 구현될 수도 있다는 것이 당업자에 의해 이해될 것이다. 하나의 실시형태에서, 본 명세서에서 설명된 요지의 여러 부분들은 주문형 집적 회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 디지털 신호 프로세서들 (DSP들), 또는 다른 집적 포맷들을 통해 구현될 수도 있다. 그러나, 당업자는, 본 명세서에서 개시된 실시형태들의 일부 양태들이 완전히 또는 부분적으로 집적 회로들에서, 하나 이상의 컴퓨터들 상에서 실행되는 하나 이상의 컴퓨터 프로그램들로서 (예를 들어, 하나 이상의 컴퓨터 시스템들 상에서 실행되는 하나 이상의 프로그램들로서), 하나 이상의 프로세서들 상에서 실행되는 하나 이상의 프로그램들로서 (예를 들어, 하나 이상의 마이크로프로세서들 상에서 실행되는 하나 이상의 프로그램들로서), 펌웨어로서, 또는 사실상 이들의 임의의 조합으로서 등가 구현될 수도 있고, 회로부를 설계하는 것 및/또는 소프트웨어 및 또는 펌웨어에 대한 코드를 기입하는 것이 본 개시물의 견지에서 당업자의 스킬 내에 있을 것이라는 것을 인정할 것이다. 또한, 당업자는 본 명세서에서 설명된 요지의 메커니즘들이 다양한 형태들의 프로그램 제품으로서 배포될 가능성이 있고, 본 명세서에서 설명된 요지의 예시적인 실시형태가 그 배포를 실제로 수행하는데 이용되는 신호 베어링 매체의 특정 타입에 상관없이 적용된다는 것을 인정할 것이다. 신호 베어링 매체의 예들은, 다음 : 기록가능 타입 매체, 이를 테면 플로피 디스크, 하드 디스크 드라이브, 콤팩트 디스크 (CD), 디지털 비디오 디스크 (DVD), 디지털 테이프, 컴퓨터 메모리 등; 및 송신 타입 매체, 이를 테면 디지털 및/또는 아날로그 통신 매체 (예를 들어, 광섬유 케이블, 도파관, 유선 통신 링크, 무선 통신 링크 등) 를 포함하지만 이들에 한정되지 않는다.The foregoing detailed description sets forth various embodiments of devices and / or processes through the use of block diagrams, flowcharts, and / or examples. Insofar as such block diagrams, flowcharts, and / or examples include one or more functions and / or operations, it is contemplated that each function and / or operation within such block diagrams, flowcharts, And / or collectively, by various hardware, software, firmware, or virtually any combination thereof, as will be understood by those skilled in the art. In one embodiment, various portions of the subject matter described herein may be implemented as application specific integrated circuits (ASICs), field programmable gate arrays (FPGAs), digital signal processors (DSPs), or other integrated formats ≪ / RTI > However, those skilled in the art will appreciate that certain aspects of the embodiments disclosed herein may be wholly or partially implemented in integrated circuits, as one or more computer programs (e.g., executed on one or more computer systems) (E. G., As one or more programs running on one or more microprocessors), firmware, or virtually any combination thereof, as well as one or more programs running on one or more processors And that the design of the circuitry and / or the writing of software and / or code for the firmware will be within the skill of those skilled in the art in light of the present disclosure. It will also be appreciated by those skilled in the art that the mechanisms of the subject matter described herein may be distributed as various types of program products and that the exemplary embodiments of the subject matter described herein may be applied to any particular type of signal bearing medium Regardless of the type. Examples of signal bearing media include, but are not limited to, the following: recordable type media such as floppy disks, hard disk drives, compact discs (CD), digital video discs (DVD), digital tapes, And transmission-type media, such as digital and / or analog communication media (e.g., fiber optic cables, waveguides, wired communication links, wireless communication links, etc.).
당업자는 본 명세서에서 기재된 방식으로 디바이스들 및/또는 프로세스들을 설명하고, 후에 이러한 설명된 디바이스들 및/또는 프로세스들을 데이터 프로세싱 시스템들에 통합하기 위해 엔지니어링 실무를 이용하는 것이 당업계에서 공통적이라는 것을 인정할 것이다. 즉, 본 명세서에서 설명된 디바이스들 및/또는 프로세스들의 적어도 일부는 합당한 양의 실험을 통해 데이터 프로세싱 시스템에 통합될 수도 있다. 당업자는, 통상의 데이터 프로세싱 시스템이 일반적으로 시스템 유닛 하우징, 비디오 디스플레이 디바이스, 휘발성 및 비휘발성 메모리와 같은 메모리, 마이크로프로세서들 및 디지털 신호 프로세서들과 같은 프로세서들, 오퍼레이팅 시스템들, 드라이버들, 그래픽 사용자 인터페이스들, 및 애플리케이션 프로그램들과 같은 컴퓨테이션 엔티티들, 하나 이상의 상호작용 디바이스들, 이를 테면 터치 패드 또는 스크린, 및/또는 피드백 루프들 및 제어 모터들을 포함하는 제어 시스템들 (예를 들어, 포지션 및/또는 속도를 감지하기 위한 피드백; 컴포넌트들 및/또는 양들을 이동 및/또는 조정하기 위한 제어 모터들) 중 하나 이상을 포함한다는 것을 인정할 것이다. 통상의 데이터 프로세싱 시스템은 데이터 컴퓨팅/통신 및/또는 네트워크 컴퓨팅/통신 시스템들에서 통상 확인되는 것들과 같은 임의의 적합한 상업적으로 이용가능한 컴포넌트들을 활용하여 구현될 수도 있다. 본 명세서에서 설명된 요지는 때로는 상이한 다른 컴포넌트들 내에 포함되거나 또는 이들과 연결된 상이한 컴포넌트들을 예시한다. 이러한 묘사된 아키텍처들은 단지 예들이며 사실은 동일한 기능성을 달성하는 많은 다른 아키텍처들이 구현될 수도 있다는 것이 이해될 것이다. 개념적 의미로, 동일한 기능성을 달성하기 위한 컴포넌트들의 임의의 어레인지먼트는 원하는 기능성이 달성되도록 효과적으로 "연관된다". 따라서, 특정 기능성을 달성하기 위해 본 명세서에서 조합된 임의의 2 개의 컴포넌트들은, 아키텍처들 또는 중간 컴포넌트들과 관계없이, 원하는 기능성이 달성되도록 서로 "연관되는" 것으로 보일 수도 있다. 마찬가지로, 이렇게 연관된 임의의 2 개의 컴포넌트들은 또한 원하는 기능성을 달성하기 위해 서로 "동작적으로 연결되는" 또는 "동작적으로 커플링되는" 것으로 보일 수도 있으며, 이렇게 연관되는 것이 가능한 임의의 2 개의 컴포넌트들은 또한 원하는 기능성을 달성하기 위해 서로 "동작적으로 커플링가능한" 것으로 보일 수도 있다. 동작적으로 커플링가능한 것의 특정 예들은 물리적으로 연결가능한 및/또는 물리적으로 상호작용하는 컴포넌트들 및/또는 무선으로 상호작용가능한 및/또는 무선으로 상호작용하는 컴포넌트들 및/또는 논리적으로 상호작용하는 및/또는 논리적으로 상호작용가능한 컴포넌트들을 포함하지만 이들에 한정되지 않는다.Those skilled in the art will recognize that it is common in the art to describe devices and / or processes in the manner described herein, and then utilize engineering practice to integrate these described devices and / or processes into data processing systems . That is, at least some of the devices and / or processes described herein may be incorporated into a data processing system through a reasonable amount of experimentation. Those skilled in the art will appreciate that a typical data processing system generally includes a plurality of processors, such as system unit housings, video display devices, memories such as volatile and non-volatile memory, microprocessors and digital signal processors, operating systems, drivers, (E. G., Position and / or position) and / or control systems (e. G., Position and / or orientation) including computation entities such as, for example, / RTI > and / or feedback for sensing velocity; and control motors for moving and / or adjusting components and / or quantities). A typical data processing system may be implemented utilizing any suitable commercially available components such as those commonly found in data computing / communications and / or network computing / communication systems. The principles described herein sometimes illustrate different components that are included in or associated with different other components. It will be appreciated that these depicted architectures are merely examples and in fact many different architectures may be implemented that achieve the same functionality. In the conceptual sense, any arrangement of components to achieve the same functionality is effectively " related " to achieve the desired functionality. Thus, any two components that are combined herein to achieve a particular functionality may appear to be " related " to each other such that the desired functionality is achieved, regardless of the architectures or intermediate components. Likewise, any two components so associated may also appear to be " operably coupled " or " operatively coupled " to one another to achieve the desired functionality, and any two components And may also appear " operably coupled " to one another to achieve the desired functionality. Specific examples of operably coupleable include components that are physically connectable and / or physically interacting and / or components that interact wirelessly and / or wirelessly and / or logically interact ≪ / RTI > and / or logically interactable components.
본 명세서에서의 실질적으로 임의의 복수 및/또는 단수 용어들의 사용과 관련하여, 당업자는 문맥 및/또는 애플리케이션에 적절하게 복수로부터 단수로 및/또는 단수로부터 복수로 번역할 수 있다. 다양한 단수/복수 치환들은 명료함을 위해 본 명세서에서 분명히 기재될 수도 있다.In connection with the use of substantially any plural and / or singular terms herein, those skilled in the art will be able to translate from plural to singular and / or singular plural as appropriate to the context and / or application. The various singular / plural substitutions may be explicitly recited herein for clarity.
일반적으로, 본 명세서에서 그리고 특히 첨부된 청구항들 (예를 들어, 첨부된 청구항들의 본문들) 에서 사용되는 용어들은 일반적으로 "개방형" 용어들 (예를 들어, 용어 "포함하는" 은 "포함하지만 한정되지 않는" 으로서 해석되어야 하고, 용어 "갖는" 은 "적어도 갖는" 으로서 해석되어야 하고, 용어 "포함한다" 는 "포함하지만 한정되지 않는다" 로서 해석되어야 하며 등등이다) 로서 의도된다는 것이 당업자에 의해 이해될 것이다. 또한, 특정 수의 도입된 청구항 기재가 의도된다면, 이러한 의도는 청구항에서 명시적으로 기재될 것이며, 이러한 기재의 부존재 시에는 이러한 의도가 존재하지 않는다는 것이 당업자에 의해 이해될 것이다. 예를 들어, 이해를 돕기 위한 한 수단으로서, 다음의 첨부된 청구항들은 청구항 기재들을 도입하기 위해 도입 어구들 "적어도 하나" 및 "하나 이상" 의 사용을 포함할 수도 있다. 그러나, 이러한 어구들의 사용은 부정관사들 "a" 또는 "an" 에 의한 청구항 기재의 도입이, 이러한 도입된 청구항 기재를 포함하는 임의의 특정 청구항을, 동일한 청구항이 도입 어구들 "하나 이상" 또는 "적어도 하나" 및 "a" 또는 "an" (예를 들어, "a" 및/또는 "an" 은 "적어도 하나" 또는 "하나 이상" 을 의미하도록 해석되어야 한다) 과 같은 부정관사들을 포함하는 경우라도 단지 하나의 이러한 기재를 포함하는 발명들로 한정한다는 것을 의미하는 것으로 해석되지 않아야 하며; 청구항 기재들을 도입하는데 사용된 정관사들의 사용의 경우에도 마찬가지이다. 또한, 특정 수의 도입된 청구항 기재가 명시적으로 기재되는 경우라도, 당업자는 이러한 기재가 적어도 기재된 수를 의미하는 것으로 해석되어야 한다는 것을 인정할 것이다 (예를 들어, 다른 수식어 없이 단지 "2 기재들" 이라는 기재는 적어도 2 기재들, 또는 2 이상의 기재들을 통상 의미한다). 더욱이, "A, B, 및 C 중 적어도 하나 등" 과 유사한 약속이 사용되는 그 경우들에서, 일반적으로 이러한 구조는 당업자가 그 약속을 이해할 것이라는 의미로 의도된다 (예를 들어, "A, B, 및 C 중 적어도 하나를 갖는 시스템" 은 A 단독, B 단독, C 단독, A 및 B 를 함께, A 및 C 를 함께, B 및 C 를 함께, 및/또는 A, B, 및 C 를 함께 등을 갖는 시스템들을 포함할 것이지만 이들에 한정되지 않는다). "A, B, 또는 C 중 적어도 하나 등" 과 유사한 약속이 사용되는 그 경우들에서, 일반적으로 이러한 구조는 당업자가 그 약속을 이해할 것이라는 의미로 의도된다 (예를 들어, "A, B, 또는 C 중 적어도 하나를 갖는 시스템" 은 A 단독, B 단독, C 단독, A 및 B 를 함께, A 및 C 를 함께, B 및 C 를 함께, 및/또는 A, B, 및 C 를 함께 등을 갖는 시스템들을 포함할 것이지만 이들에 한정되지 않는다). 또한, 2 개 이상의 대안의 용어들을 제시하는 사실상 임의의 선언적 단어 및/또는 어구는 상세한 설명, 청구항들, 또는 도면들 중 어디에 있든, 용어들 중 하나, 용어들 중 어느 하나, 또는 양자의 용어들을 포함할 가능성들을 고려하는 것으로 이해되어야 한다는 것이 당업자에 의해 이해될 것이다. 예를 들어, 어구 "A 또는 B" 는 "A" 또는 "B" 또는 "A 및 B" 의 가능성들을 포함하는 것으로 이해될 것이다.In general, terms used herein and in particular in the appended claims (e.g., in the text of the appended claims) generally refer to terms such as "open" terms (e.g., Quot; is to be construed as " including but not limited to, " and the term " having " should be interpreted as having at least, and the term " comprising " It will be understood. It will also be appreciated by those skilled in the art that, if a particular number of the recited claims is intended, such intent will be expressly set forth in the claims, and such intent is not present in the absence of such description. For example, the following appended claims may include the use of " at least one " and " more than one " However, the use of such phrases is not intended to limit the scope of the present invention to any and all claims, including the introduction of claim statements by " a " or " an "Quot; an " and " an " should be construed to mean " at least one " or " Should not be construed to mean that the invention is limited to inventions that include only one such disclosure; The same is true in the case of the use of articles used to introduce claims. In addition, those skilled in the art will recognize that such descriptions should be construed to mean at least the stated number (s), even if a specific number of the introduced claims is explicitly stated (for example, "Quot; base " means at least two bases, or two or more bases). Moreover, in those instances where an analogous provision is used, such as " at least one of A, B, and C ", this structure is generally intended to mean that one of ordinary skill in the art will understand the promise A, B, and C together, A and C together, B and C together, and / or A, B, and C together, etc. But are not limited to, systems with a < / RTI > In those cases where an appointment similar to " at least one of A, B, or C " is used, such structure is generally intended to mean that one of ordinary skill in the art will understand the promise (e.g., " A, B, A and B together, A and C together, B and C together, and / or A, B, and C together and so on But are not limited to, systems). In addition, virtually any declarative word and / or phrase that suggests two or more alternative terms may be used in either the detailed description, the claims, or the drawings, either as terms, either one of the terms, It will be understood by those skilled in the art that the present invention should be understood as taking into account the possibilities to include. For example, the phrase "A or B" will be understood to include the possibilities of "A" or "B" or "A and B".
소정의 예시적인 기법들이 다양한 방법들, 디바이스들 및 시스템들을 이용하여 본 명세서에서 설명 및 도시되었지만, 청구된 요지로부터 벗어남 없이, 다양한 다른 변경들이 이루어질 수도 있고, 등가물들이 대체될 수도 있다는 것이 당업자에 의해 이해되어야 한다. 추가적으로, 본 명세서에서 설명된 중심 개념으로부터 벗어남 없이 다수의 변경들이 특정 상황을 청구된 요지의 교시들에 적응시키기 위해 이루어질 수도 있다. 따라서, 청구된 요지는 개시된 특정 예들에 한정되지 않고 이러한 청구된 요지가 또한 청부된 청구항들의 범위, 및 그 등가물들 내에 놓이는 모든 구현들을 포함할 수도 있는 것으로 의도된다.Although certain exemplary techniques have been described and shown herein using various methods, devices and systems, it will be appreciated by those skilled in the art that various other changes may be made and equivalents may be substituted without departing from the claimed subject matter Should be understood. In addition, many modifications may be made to adapt a particular situation to the teachings of the subject matter claimed without departing from the central concept set forth herein. It is therefore intended that the claimed subject matter is not limited to the specific examples disclosed, but that such claimed subject matter may also include all implementations falling within the scope of the claimed claims, and equivalents thereof.
Claims (23)
컴퓨팅 디바이스에 의해, 안구-대향 (eye-facing) 센서로부터 적어도 하나의 안구에 대한 시선 방향 정보를 수신하는 것;
상기 컴퓨팅 디바이스에 의해, 디지털 카메라로부터 디지털 장면 정보를 수신하는 것으로서, 상기 디지털 카메라는 상기 적어도 하나의 안구에 의해 보이는 장면으로부터 상기 디지털 장면 정보를 캡처하도록 배향되는, 상기 디지털 장면 정보를 수신하는 것;
상기 컴퓨팅 디바이스에 의해, 상기 디지털 장면 정보 내에서 하나 이상의 잠재적인 시선 타겟들을 식별하기 위해 상기 디지털 장면 정보를 분석하는 것;
상기 컴퓨팅 디바이스에 의해, 상기 하나 이상의 잠재적인 시선 타겟들의 포지션들을, 추정된 시선 방향들로 변환하는 것; 및
식별된 상기 하나 이상의 잠재적인 시선 타겟들 중에서 시선 타겟을 선택하기 위해, 상기 컴퓨팅 디바이스에 의해, 상기 안구-대향 센서로부터의 상기 시선 방향 정보를 상기 하나 이상의 잠재적인 시선 타겟들의 포지션들에 대응하는 추정된 시선 방향들과 비교하는 것을 포함하고,
선택된 상기 시선 타겟에 대응하는 추정된 시선 방향은, 상기 안구-대향 센서로부터 수신된 상기 시선 방향 정보를 둘러싸는 오차 경계 이내에 있는, 안구 추적 방법.As an eye tracking method,
Receiving, by the computing device, gaze direction information for at least one eye from an eye-facing sensor;
Receiving, by the computing device, digital scene information from a digital camera, the digital camera being oriented to capture the digital scene information from a scene viewed by the at least one eyeball;
Analyzing the digital scene information by the computing device to identify one or more potential gaze targets within the digital scene information;
Translating, by the computing device, the positions of the one or more potential gaze targets into estimated gaze directions; And
Wherein the viewing direction information from the eye-facing sensor is estimated by the computing device to be an estimated one of the one or more potential gaze targets that corresponds to the positions of the one or more potential gaze targets Lt; RTI ID = 0.0 > direction, < / RTI >
Wherein the estimated eye direction corresponding to the selected eye target is within an error boundary surrounding the eye direction information received from the eye-facing sensor.
상기 시선 방향 정보는 각 좌표 (angular coordinate) 들을 포함하는, 안구 추적 방법.The method according to claim 1,
Wherein the gaze direction information comprises angular coordinates.
상기 컴퓨팅 디바이스에 의해, 상기 디지털 장면 정보 내에서 하나 이상의 잠재적인 시선 타겟들을 식별하기 위해 상기 디지털 장면 정보를 분석하는 것은, 상기 디지털 장면 정보 내에서 오브젝트 인식을 수행하여, 인식된 오브젝트들을 포함하는 잠재적인 시선 타겟들을 결정하는 것을 포함하는, 안구 추적 방법. The method according to claim 1,
Analyzing the digital scene information to identify one or more potential gaze targets within the digital scene information by the computing device comprises performing object recognition within the digital scene information to identify potential And determining in-sight targets.
상기 컴퓨팅 디바이스에 의해, 상기 디지털 장면 정보 내에서 하나 이상의 잠재적인 시선 타겟들을 식별하기 위해 상기 디지털 장면 정보를 분석하는 것은, 상기 디지털 장면 정보 내에서 관련 그래픽 특징들의 하나 이상의 세트들을 식별하여 관련 그래픽 특징들의 세트들을 포함하는 잠재적인 시선 타겟들을 결정하는 것을 포함하는, 안구 추적 방법.The method according to claim 1,
Analyzing the digital scene information to identify one or more potential gaze targets within the digital scene information by the computing device comprises identifying one or more sets of related graphical features within the digital scene information, ≪ / RTI > comprising determining the potential gaze targets including the set of gaze targets.
상기 하나 이상의 잠재적인 시선 타겟들은:
상기 디지털 장면 정보 내의 정지된 시선 타겟;
상기 디지털 장면 정보 내의 이동하는 시선 타겟; 또는
상기 디지털 장면 정보 내의 가속하는 시선 타겟;
중 하나 이상을 포함하는, 안구 추적 방법.The method according to claim 1,
Wherein the one or more potential gaze targets are:
A stationary gaze target in the digital scene information;
A moving gaze target in the digital scene information; or
An accelerating gaze target in the digital scene information;
≪ / RTI >
상기 컴퓨팅 디바이스에 의해, 물리적 장면 내의 상기 이동하는 시선 타겟 또는 상기 가속하는 시선 타겟을 뒤따르는 것과 연관된 안구 모션들을 모델링하는 것; 및
식별된 상기 하나 이상의 잠재적인 시선 타겟들 중에서 상기 시선 타겟을 선택하기 위해, 상기 컴퓨팅 디바이스에 의해, 모델링된 안구 모션들을 상기 안구-대향 센서에서 검출된 안구 모션과 비교하는 것을 더 포함하는, 안구 추적 방법.6. The method of claim 5,
Modeling eye movements associated with following the moving gaze target or the accelerating gaze target in the physical scene by the computing device; And
Further comprising comparing, by the computing device, modeled eye motions with eye motion detected in the eye-facing sensor, to select the eye gaze target from the one or more identified potential eye gaze targets. Way.
상기 물리적 장면 내의 상기 이동하는 시선 타겟 또는 상기 가속하는 시선 타겟을 뒤따르는 것과 연관된 안구 모션들을 모델링하는 것은, 안구 기계 모델 시뮬레이터 (eye mechanical model simulator) 를 적용하는 것을 포함하는, 안구 추적 방법.The method according to claim 6,
Wherein modeling eye movements associated with following the moving eye target or the accelerating eye target in the physical scene comprises applying an eye mechanical model simulator.
상기 컴퓨팅 디바이스에 의해, 식별된 상기 하나 이상의 잠재적인 시선 타겟들 중에서 상기 시선 타겟을 선택하는 것은, 복수의 잠재적인 시선 타겟들에 가중치들을 동적으로 할당하는 것, 및 상기 시선 타겟을 선택하기 위해 동적으로 할당된 상기 가중치들을 이용하는 것을 포함하는, 안구 추적 방법.The method according to claim 1,
Selecting the gaze target from among the one or more potential gaze targets identified by the computing device comprises dynamically assigning weights to the plurality of potential gaze targets, ≪ / RTI > using the weights assigned to the eye.
상기 컴퓨팅 디바이스에 의해, 선택된 상기 시선 타겟에 기초하여 디스플레이를 위한 증강 현실 정보를 결정하는 것을 더 포함하는, 안구 추적 방법.The method according to claim 1,
Further comprising, by the computing device, determining augmented reality information for display based on the selected line of sight target.
상기 컴퓨팅 디바이스에 의해, 선택된 상기 시선 타겟을 적어도 하나의 컴퓨팅 디바이스 기능을 제어하기 위한 사용자 입력으로서 적용하는 것을 더 포함하는, 안구 추적 방법.The method according to claim 1,
Further comprising, by the computing device, applying the selected gaze target as a user input for controlling at least one computing device function.
상기 디지털 카메라는 디폴트 프레임 레이트 또는 디폴트 해상도 중 하나 이상을 가지며,
상기 안구 추적 방법은, 상기 컴퓨팅 디바이스에 의해, 감소된 프레임 레이트, 감소된 해상도, 개선된 프레임 레이트, 또는 개선된 해상도 중 하나 이상에서 상기 디지털 카메라를 동작시켜, 상기 디지털 장면 정보를 캡처하는 것을 더 포함하며,
상기 감소된 프레임 레이트는 상기 디폴트 프레임 레이트보다 더 낮고, 상기 감소된 해상도는 상기 디폴트 해상도보다 더 낮고, 상기 개선된 프레임 레이트는 상기 디폴트 프레임 레이트보다 더 높고, 상기 개선된 해상도는 상기 디폴트 해상도보다 더 높은, 안구 추적 방법.The method according to claim 1,
Wherein the digital camera has at least one of a default frame rate or a default resolution,
The eye tracking method may further comprise, by the computing device, operating the digital camera at one or more of a reduced frame rate, a reduced resolution, an improved frame rate, or an improved resolution to further capture the digital scene information ≪ / RTI &
Wherein the reduced frame rate is lower than the default frame rate, the reduced resolution is lower than the default resolution, the improved frame rate is higher than the default frame rate, and the improved resolution is less than the default resolution High, eye tracking method.
상기 시선 방향 정보 및 상기 디지털 장면 정보는 각각 실시간 시선 방향 정보 및 실시간 디지털 장면 정보를 포함하며,
상기 안구 추적 방법은, 상기 실시간 시선 방향 정보 및 상기 실시간 디지털 장면 정보가 수신될 때 실시간으로, 선택된 시선 타겟들을 변경하는 것을 더 포함하는, 안구 추적 방법.The method according to claim 1,
Wherein the gaze direction information and the digital scene information each include real-time gaze direction information and real-time digital scene information,
Wherein the eye tracking method further comprises changing the selected line-of-sight targets in real-time when the real-time line-of-sight direction information and the real-time digital scene information are received.
프로세서;
메모리; 및
상기 메모리에 저장되고 상기 프로세서에 의해 실행가능한 안구 추적기 (eye tracker) 를 포함하며, 상기 안구 추적기는,
안구-대향 (eye-facing) 센서로부터 적어도 하나의 안구에 대한 시선 방향 정보를 수신하고;
디지털 카메라로부터 디지털 장면 정보를 수신하는 것으로서, 상기 디지털 카메라는 상기 적어도 하나의 안구에 의해 보이는 장면으로부터 상기 디지털 장면 정보를 캡처하도록 배향되는, 상기 디지털 장면 정보를 수신하고;
상기 디지털 장면 정보 내에서 하나 이상의 잠재적인 시선 타겟들을 식별하기 위해 상기 디지털 장면 정보를 분석하고;
상기 하나 이상의 잠재적인 시선 타겟들의 포지션들을, 추정된 시선 방향들로 변환하고; 및
식별된 상기 하나 이상의 잠재적인 시선 타겟들 중에서 시선 타겟을 선택하기 위해, 상기 안구-대향 센서로부터의 상기 시선 방향 정보를 상기 하나 이상의 잠재적인 시선 타겟들의 포지션들에 대응하는 추정된 시선 방향들과 비교하도록 구성되고,
선택된 상기 시선 타겟에 대응하는 추정된 시선 방향은, 상기 안구-대향 센서로부터 수신된 상기 시선 방향 정보를 둘러싸는 오차 경계 이내에 있는, 안구 추적 컴퓨팅 디바이스.As an eye tracking computing device,
A processor;
Memory; And
An eye tracker stored in the memory and executable by the processor, the eye tracker comprising:
Receiving eye-gaze direction information for at least one eye from an eye-facing sensor;
Receiving digital scene information from a digital camera, the digital camera being adapted to capture the digital scene information from a scene viewed by the at least one eyeball;
Analyze the digital scene information to identify one or more potential gaze targets within the digital scene information;
Transforming the positions of the one or more potential gaze targets into estimated gaze directions; And
Comparing the gaze direction information from the eye-facing sensor with the estimated gaze directions corresponding to the positions of the one or more potential gaze targets, to select a gaze target from among the identified one or more potential gaze targets Lt; / RTI >
Wherein the estimated eye direction corresponding to the selected eye target is within an error boundary surrounding the eye direction information received from the eye-facing sensor.
상기 시선 방향 정보는 각 좌표 (angular coordinate) 들을 포함하는, 안구 추적 컴퓨팅 디바이스.14. The method of claim 13,
Wherein the gaze direction information comprises angular coordinates.
상기 하나 이상의 잠재적인 시선 타겟들은:
상기 디지털 장면 정보 내의 정지된 시선 타겟;
상기 디지털 장면 정보 내의 이동하는 시선 타겟; 또는
상기 디지털 장면 정보 내의 가속하는 시선 타겟;
중 하나 이상을 포함하는, 안구 추적 컴퓨팅 디바이스.14. The method of claim 13,
Wherein the one or more potential gaze targets are:
A stationary gaze target in the digital scene information;
A moving gaze target in the digital scene information; or
An accelerating gaze target in the digital scene information;
/ RTI > The device of claim 1,
상기 안구 추적기는,
물리적 장면 내의 상기 이동하는 시선 타겟 또는 상기 가속하는 시선 타겟을 뒤따르는 것과 연관된 안구 모션들을 모델링하고; 그리고
식별된 상기 하나 이상의 잠재적인 시선 타겟들 중에서 상기 시선 타겟을 선택하기 위해, 모델링된 안구 모션들을 상기 안구-대향 센서에서 검출된 안구 모션과 비교하도록 구성되는, 안구 추적 컴퓨팅 디바이스.16. The method of claim 15,
The eye tracker comprises:
Model eye movements associated with following the moving gaze target or the accelerating gaze target in the physical scene; And
And compare the modeled eye motions with the eye motion detected in the eye-facing sensor to select the eye gaze target from among the one or more potential eye gaze targets identified.
상기 안구 추적기는,
안구 기계 모델 시뮬레이터 (eye mechanical model simulator) 를 적용하는 것에 의해, 적어도 부분적으로 상기 물리적 장면 내의 상기 이동하는 시선 타겟 또는 상기 가속하는 시선 타겟을 뒤따르는 것과 연관된 안구 모션들을 모델링하도록 구성되는, 안구 추적 컴퓨팅 디바이스.17. The method of claim 16,
The eye tracker comprises:
Is configured to model eye movements associated with following the moving gaze target or the accelerating gaze target at least partially within the physical scene by applying an eye mechanical model simulator, device.
상기 안구 추적기는,
선택된 상기 시선 타겟에 기초하여 디스플레이를 위한 증강 현실 정보를 결정하도록 구성되는, 안구 추적 컴퓨팅 디바이스.14. The method of claim 13,
The eye tracker comprises:
And determine augmented reality information for display based on the selected line of sight target.
상기 안구 추적기는,
선택된 상기 시선 타겟을 적어도 하나의 컴퓨팅 디바이스 기능을 제어하기 위한 사용자 입력으로서 적용하도록 구성되는, 안구 추적 컴퓨팅 디바이스.14. The method of claim 13,
The eye tracker comprises:
And to apply the selected gaze target as a user input for controlling at least one computing device function.
상기 시선 방향 정보 및 상기 디지털 장면 정보는 각각 실시간 시선 방향 정보 및 실시간 디지털 장면 정보를 포함하며,
상기 안구 추적기는, 상기 실시간 시선 방향 정보 및 상기 실시간 디지털 장면 정보가 수신될 때 실시간으로, 선택된 시선 타겟들을 변경하도록 구성되는, 안구 추적 컴퓨팅 디바이스.14. The method of claim 13,
Wherein the gaze direction information and the digital scene information each include real-time gaze direction information and real-time digital scene information,
Wherein the eye tracker is configured to change selected line-of-sight targets in real-time when the real-time gaze direction information and the real-time digital scene information are received.
상기 명령들은, 상기 프로세서에 의해 실행되는 경우, 상기 프로세서로 하여금:
안구-대향 (eye-facing) 센서로부터 적어도 하나의 안구에 대한 시선 방향 정보를 수신하게 하고;
디지털 카메라로부터 디지털 장면 정보를 수신하는 것으로서, 상기 디지털 카메라는 상기 적어도 하나의 안구에 의해 보이는 장면으로부터 상기 디지털 장면 정보를 캡처하도록 배향되는, 상기 디지털 장면 정보를 수신하게 하고;
상기 디지털 장면 정보 내에서 하나 이상의 잠재적인 시선 타겟들을 식별하기 위해 상기 디지털 장면 정보를 분석하게 하고;
상기 하나 이상의 잠재적인 시선 타겟들의 포지션들을, 추정된 시선 방향들로 변환하게 하고; 및
식별된 상기 하나 이상의 잠재적인 시선 타겟들 중에서 시선 타겟을 선택하기 위해, 상기 안구-대향 센서로부터의 상기 시선 방향 정보를 상기 하나 이상의 잠재적인 시선 타겟들의 포지션들에 대응하는 추정된 시선 방향들과 비교하게 하는, 비일시적인 컴퓨터 판독가능 저장 매체.20. A non-transitory computer readable storage medium having computer-executable instructions executable by a processor,
Wherein the instructions, when executed by the processor, cause the processor to:
Receiving eye-facing information from the eye-facing sensor for at least one eye;
Receiving digital scene information from a digital camera, the digital camera being adapted to capture the digital scene information from a scene viewed by the at least one eyeball;
Analyze the digital scene information to identify one or more potential gaze targets within the digital scene information;
Convert the positions of the one or more potential gaze targets into estimated gaze directions; And
Comparing the gaze direction information from the eye-facing sensor with the estimated gaze directions corresponding to the positions of the one or more potential gaze targets, to select a gaze target from among the identified one or more potential gaze targets Non-volatile computer-readable storage medium.
선택된 상기 시선 타겟에 대응하는 추정된 시선 방향은, 상기 안구-대향 센서로부터 수신된 상기 시선 방향 정보를 둘러싸는 오차 경계 이내에 있는, 비일시적인 컴퓨터 판독가능 저장 매체.22. The method of claim 21,
Wherein the estimated viewing direction corresponding to the selected gaze target is within an error boundary surrounding the gaze direction information received from the eye-facing sensor.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/458,577 | 2014-08-13 | ||
US14/458,577 US9489739B2 (en) | 2014-08-13 | 2014-08-13 | Scene analysis for improved eye tracking |
CN201510483043.4A CN105373218B (en) | 2014-08-13 | 2015-08-07 | Scene analysis for improving eyes tracking |
CN201510483043.4 | 2015-08-07 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150113317A Division KR101850586B1 (en) | 2014-08-13 | 2015-08-11 | Scene analysis for improved eye tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180041642A KR20180041642A (en) | 2018-04-24 |
KR101950641B1 true KR101950641B1 (en) | 2019-02-20 |
Family
ID=55302541
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150113317A KR101850586B1 (en) | 2014-08-13 | 2015-08-11 | Scene analysis for improved eye tracking |
KR1020180041622A KR101950641B1 (en) | 2014-08-13 | 2018-04-10 | Scene analysis for improved eye tracking |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150113317A KR101850586B1 (en) | 2014-08-13 | 2015-08-11 | Scene analysis for improved eye tracking |
Country Status (3)
Country | Link |
---|---|
US (2) | US9489739B2 (en) |
KR (2) | KR101850586B1 (en) |
CN (2) | CN105373218B (en) |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10204658B2 (en) | 2014-07-14 | 2019-02-12 | Sony Interactive Entertainment Inc. | System and method for use in playing back panorama video content |
US9489739B2 (en) | 2014-08-13 | 2016-11-08 | Empire Technology Development Llc | Scene analysis for improved eye tracking |
JP2016082462A (en) * | 2014-10-20 | 2016-05-16 | セイコーエプソン株式会社 | Head-mounted display device, control method therefor, and computer program |
WO2016073986A1 (en) * | 2014-11-07 | 2016-05-12 | Eye Labs, LLC | Visual stabilization system for head-mounted displays |
EP3234737B1 (en) * | 2014-12-16 | 2019-04-10 | Koninklijke Philips N.V. | Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing |
RU2596062C1 (en) | 2015-03-20 | 2016-08-27 | Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" | Method for correction of eye image using machine learning and method of machine learning |
US10186086B2 (en) * | 2015-09-02 | 2019-01-22 | Microsoft Technology Licensing, Llc | Augmented reality control of computing device |
CN112667190A (en) * | 2015-12-18 | 2021-04-16 | 麦克赛尔株式会社 | Head-mounted display device |
WO2017120247A1 (en) | 2016-01-05 | 2017-07-13 | Reald Spark, Llc | Gaze correction of multi-view images |
US10565723B2 (en) | 2016-02-02 | 2020-02-18 | Samsung Electronics Co., Ltd. | Systems and methods for drift correction |
US10579162B2 (en) | 2016-03-24 | 2020-03-03 | Samsung Electronics Co., Ltd. | Systems and methods to correct a vehicle induced change of direction |
US10057511B2 (en) * | 2016-05-11 | 2018-08-21 | International Business Machines Corporation | Framing enhanced reality overlays using invisible light emitters |
US10095937B2 (en) * | 2016-06-21 | 2018-10-09 | GM Global Technology Operations LLC | Apparatus and method for predicting targets of visual attention |
US11089280B2 (en) * | 2016-06-30 | 2021-08-10 | Sony Interactive Entertainment Inc. | Apparatus and method for capturing and displaying segmented content |
US20180068449A1 (en) * | 2016-09-07 | 2018-03-08 | Valve Corporation | Sensor fusion systems and methods for eye-tracking applications |
KR20180061956A (en) * | 2016-11-30 | 2018-06-08 | 삼성전자주식회사 | Method and apparatus for estimating eye location |
KR102544062B1 (en) * | 2017-02-21 | 2023-06-16 | 삼성전자주식회사 | Method for displaying virtual image, storage medium and electronic device therefor |
US11452444B2 (en) * | 2017-04-03 | 2022-09-27 | Hewlett-Packard Development Company, L.P. | Moving image rendering using eye-tracking sensor signal |
IL252056A (en) | 2017-05-01 | 2018-04-30 | Elbit Systems Ltd | Head-mounted display device, system and method |
ES2967691T3 (en) | 2017-08-08 | 2024-05-03 | Reald Spark Llc | Fitting a digital representation of a head region |
WO2019045719A1 (en) * | 2017-08-31 | 2019-03-07 | Tobii Ab | Gaze direction mapping |
DE102017219790A1 (en) * | 2017-11-07 | 2019-05-09 | Volkswagen Aktiengesellschaft | System and method for determining a pose of augmented reality goggles, system and method for gauging augmented reality goggles, method for assisting pose determination of augmented reality goggles, and motor vehicle suitable for the method |
US10761322B2 (en) | 2018-01-25 | 2020-09-01 | International Business Machines Corporation | Targeted content with image capture |
US10551914B2 (en) * | 2018-02-09 | 2020-02-04 | Microsoft Technology Licensing, Llc | Efficient MEMs-based eye tracking system with a silicon photomultiplier sensor |
US11017575B2 (en) | 2018-02-26 | 2021-05-25 | Reald Spark, Llc | Method and system for generating data to provide an animated visual representation |
US11783464B2 (en) * | 2018-05-18 | 2023-10-10 | Lawrence Livermore National Security, Llc | Integrating extended reality with inspection systems |
US11250819B2 (en) | 2018-05-24 | 2022-02-15 | Lockheed Martin Corporation | Foveated imaging system |
US12034015B2 (en) | 2018-05-25 | 2024-07-09 | Meta Platforms Technologies, Llc | Programmable pixel array |
US10863812B2 (en) | 2018-07-18 | 2020-12-15 | L'oreal | Makeup compact with eye tracking for guidance of makeup application |
TWI693533B (en) * | 2018-08-09 | 2020-05-11 | 黃鈞鼎 | Image processing method and head-mounted dispaly system |
CN109271027B (en) * | 2018-09-17 | 2022-10-14 | 北京旷视科技有限公司 | Page control method and device and electronic equipment |
CN109375773A (en) * | 2018-10-24 | 2019-02-22 | 深圳市领点科技有限公司 | A kind of measure of supervision and device based on VR equipment |
US11221671B2 (en) | 2019-01-31 | 2022-01-11 | Toyota Research Institute, Inc. | Opengaze: gaze-tracking in the wild |
US10948986B2 (en) | 2019-04-09 | 2021-03-16 | Fotonation Limited | System for performing eye detection and/or tracking |
US11046327B2 (en) * | 2019-04-09 | 2021-06-29 | Fotonation Limited | System for performing eye detection and/or tracking |
US11151792B2 (en) | 2019-04-26 | 2021-10-19 | Google Llc | System and method for creating persistent mappings in augmented reality |
US11163997B2 (en) | 2019-05-05 | 2021-11-02 | Google Llc | Methods and apparatus for venue based augmented reality |
WO2021006903A1 (en) * | 2019-07-11 | 2021-01-14 | Hewlett-Packard Development Company, L.P. | Eye-tracking for displays |
US12108141B2 (en) | 2019-08-05 | 2024-10-01 | Meta Platforms Technologies, Llc | Dynamically programmable image sensor |
JP7496677B2 (en) * | 2019-09-30 | 2024-06-07 | 株式会社ソニー・インタラクティブエンタテインメント | Image data transfer device, image display system, and image compression method |
KR102696650B1 (en) | 2019-09-30 | 2024-08-22 | 삼성디스플레이 주식회사 | Electric apparatus |
CN112580409B (en) * | 2019-09-30 | 2024-06-07 | Oppo广东移动通信有限公司 | Target object selection method and related product |
US11935291B2 (en) * | 2019-10-30 | 2024-03-19 | Meta Platforms Technologies, Llc | Distributed sensor system |
US11073907B1 (en) * | 2020-01-28 | 2021-07-27 | Dell Products L.P. | System and method of adjusting of an environment associated with a user |
CN111639017B (en) * | 2020-05-29 | 2024-05-07 | 京东方科技集团股份有限公司 | Method and device for measuring delay of eyeball tracking device and eyeball tracking system |
US12075175B1 (en) | 2020-09-08 | 2024-08-27 | Meta Platforms Technologies, Llc | Programmable smart sensor with adaptive readout |
US11687155B2 (en) * | 2021-05-13 | 2023-06-27 | Toyota Research Institute, Inc. | Method for vehicle eye tracking system |
EP4343516A4 (en) * | 2021-08-23 | 2024-04-24 | Samsung Electronics Co., Ltd. | Wearable electronic device on which augmented reality object is displayed, and operating method thereof |
CN113822911B (en) * | 2021-10-08 | 2022-09-16 | 中国人民解放军国防科技大学 | Tracking method and device of columnar inclined target, computer equipment and storage medium |
KR20230065049A (en) * | 2021-11-04 | 2023-05-11 | 삼성전자주식회사 | Wearable electronic apparatus and method for controlling electronic devices using vision information |
CN114997231B (en) * | 2022-06-06 | 2024-07-12 | 中国铁道科学研究院集团有限公司城市轨道交通中心 | Rapid identification method for subway train induced environmental vibration response |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130128364A1 (en) * | 2011-11-22 | 2013-05-23 | Google Inc. | Method of Using Eye-Tracking to Center Image Content in a Display |
US20140184550A1 (en) * | 2011-09-07 | 2014-07-03 | Tandemlaunch Technologies Inc. | System and Method for Using Eye Gaze Information to Enhance Interactions |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2412431B (en) * | 2004-03-25 | 2007-11-07 | Hewlett Packard Development Co | Self-calibration for an eye tracker |
US8406457B2 (en) * | 2006-03-15 | 2013-03-26 | Omron Corporation | Monitoring device, monitoring method, control device, control method, and program |
US20080165195A1 (en) * | 2007-01-06 | 2008-07-10 | Outland Research, Llc | Method, apparatus, and software for animated self-portraits |
US8259117B2 (en) * | 2007-06-18 | 2012-09-04 | Brian Mark Shuster | Avatar eye control in a multi-user animation environment |
PL2242419T3 (en) * | 2008-02-14 | 2016-05-31 | Nokia Technologies Oy | Device and method for determining gaze direction |
US7736000B2 (en) * | 2008-08-27 | 2010-06-15 | Locarna Systems, Inc. | Method and apparatus for tracking eye movement |
US20100321482A1 (en) * | 2009-06-17 | 2010-12-23 | Lc Technologies Inc. | Eye/head controls for camera pointing |
US8510166B2 (en) | 2011-05-11 | 2013-08-13 | Google Inc. | Gaze tracking system |
US8885877B2 (en) * | 2011-05-20 | 2014-11-11 | Eyefluence, Inc. | Systems and methods for identifying gaze tracking scene reference locations |
US8235529B1 (en) | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US20150097772A1 (en) * | 2012-01-06 | 2015-04-09 | Thad Eugene Starner | Gaze Signal Based on Physical Characteristics of the Eye |
US9224096B2 (en) * | 2012-01-08 | 2015-12-29 | Imagistar Llc | System and method for item self-assessment as being extant or displaced |
US20150109191A1 (en) * | 2012-02-16 | 2015-04-23 | Google Inc. | Speech Recognition |
CN108873448B (en) * | 2012-10-10 | 2021-06-29 | 康宁股份有限公司 | Display device with antiglare layer providing reduced sparkle appearance |
US20140313308A1 (en) * | 2013-04-19 | 2014-10-23 | Samsung Electronics Co., Ltd. | Apparatus and method for tracking gaze based on camera array |
US20150088923A1 (en) * | 2013-09-23 | 2015-03-26 | Google Inc. | Using sensor inputs from a computing device to determine search query |
US9672649B2 (en) * | 2013-11-04 | 2017-06-06 | At&T Intellectual Property I, Lp | System and method for enabling mirror video chat using a wearable display device |
CN103955267B (en) * | 2013-11-13 | 2017-03-15 | 上海大学 | Both hands man-machine interaction method in x ray fluoroscopy x augmented reality system |
US9489739B2 (en) | 2014-08-13 | 2016-11-08 | Empire Technology Development Llc | Scene analysis for improved eye tracking |
-
2014
- 2014-08-13 US US14/458,577 patent/US9489739B2/en not_active Expired - Fee Related
-
2015
- 2015-08-07 CN CN201510483043.4A patent/CN105373218B/en not_active Expired - Fee Related
- 2015-08-07 CN CN201810951547.8A patent/CN109062415A/en active Pending
- 2015-08-11 KR KR1020150113317A patent/KR101850586B1/en active IP Right Grant
-
2016
- 2016-10-05 US US15/286,222 patent/US10394318B2/en not_active Expired - Fee Related
-
2018
- 2018-04-10 KR KR1020180041622A patent/KR101950641B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140184550A1 (en) * | 2011-09-07 | 2014-07-03 | Tandemlaunch Technologies Inc. | System and Method for Using Eye Gaze Information to Enhance Interactions |
US20130128364A1 (en) * | 2011-11-22 | 2013-05-23 | Google Inc. | Method of Using Eye-Tracking to Center Image Content in a Display |
Also Published As
Publication number | Publication date |
---|---|
US10394318B2 (en) | 2019-08-27 |
US20170024893A1 (en) | 2017-01-26 |
CN105373218B (en) | 2018-09-18 |
KR20180041642A (en) | 2018-04-24 |
US9489739B2 (en) | 2016-11-08 |
US20160048964A1 (en) | 2016-02-18 |
KR101850586B1 (en) | 2018-04-19 |
CN105373218A (en) | 2016-03-02 |
KR20160020369A (en) | 2016-02-23 |
CN109062415A (en) | 2018-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101950641B1 (en) | Scene analysis for improved eye tracking | |
Memo et al. | Head-mounted gesture controlled interface for human-computer interaction | |
US10739599B2 (en) | Predictive, foveated virtual reality system | |
US10082879B2 (en) | Head mounted display device and control method | |
US10186081B2 (en) | Tracking rigged smooth-surface models of articulated objects | |
KR102433931B1 (en) | Method and device for recognizing motion | |
JP6456347B2 (en) | INSITU generation of plane-specific feature targets | |
US10368784B2 (en) | Sensor data damping | |
US11244506B2 (en) | Tracking rigged polygon-mesh models of articulated objects | |
WO2017092332A1 (en) | Method and device for image rendering processing | |
JP2016035775A (en) | Head pose estimation using RGBD camera | |
WO2018223155A1 (en) | Hand tracking based on articulated distance field | |
EP3540574B1 (en) | Eye tracking method, electronic device, and non-transitory computer readable storage medium | |
CN109685797A (en) | Bone point detecting method, device, processing equipment and storage medium | |
JP7103354B2 (en) | Information processing equipment, information processing methods, and programs | |
CN108475114B (en) | Feedback for object pose tracker | |
JP6221292B2 (en) | Concentration determination program, concentration determination device, and concentration determination method | |
CN110895433A (en) | Method and apparatus for user interaction in augmented reality | |
US10304258B2 (en) | Human feedback in 3D model fitting | |
KR101434072B1 (en) | Stabilisation method and computer system | |
CN116686006A (en) | Three-dimensional scan registration based on deformable model | |
WO2018191058A1 (en) | Image processing system with discriminative control | |
CN112711324B (en) | Gesture interaction method and system based on TOF camera | |
EP3480789B1 (en) | Dynamic graceful degradation of augmented-reality effects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |