KR20170047195A - Systems and methods for discerning eye signals and continuous biometric identification - Google Patents

Systems and methods for discerning eye signals and continuous biometric identification Download PDF

Info

Publication number
KR20170047195A
KR20170047195A KR1020167034652A KR20167034652A KR20170047195A KR 20170047195 A KR20170047195 A KR 20170047195A KR 1020167034652 A KR1020167034652 A KR 1020167034652A KR 20167034652 A KR20167034652 A KR 20167034652A KR 20170047195 A KR20170047195 A KR 20170047195A
Authority
KR
South Korea
Prior art keywords
user
iris
headgear
images
eye
Prior art date
Application number
KR1020167034652A
Other languages
Korean (ko)
Other versions
KR102173699B1 (en
Inventor
넬슨 조지 퍼블리커버
루이스 제임스 마그라프
Original Assignee
아이플루언스, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이플루언스, 인크. filed Critical 아이플루언스, 인크.
Publication of KR20170047195A publication Critical patent/KR20170047195A/en
Application granted granted Critical
Publication of KR102173699B1 publication Critical patent/KR102173699B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/316User authentication by observing the pattern of computer usage, e.g. typical user behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/64Protecting data integrity, e.g. using checksums, certificates or signatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • H04W12/065Continuous authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/30Security of mobile devices; Security of mobile applications
    • H04W12/33Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Abstract

안구 신호를 실시간으로 이용하여 개인에 대한 실질적으로 지속적인 생체 인증(substantially continuous biometric identification: CBID)을 제공하기 위한 장치들, 시스템들 및 방법들이 제공된다. 상기 장치는 착용가능한 컴퓨팅 디바이스 내에 포함되며, 여기서 하나의 눈 또는 2개의 눈들을 향해 지향된 하나 이상의 카메라들을 이용한 홍채 인식에 기초하여 및/또는 다른 생리학적, 해부학적 및/또는 거동적 측정들에 기초하여, 디바이스 착용자의 신원확인이 수행된다. 디바이스 사용자 신원의 검증은 보안 정보의 디스플레이를 가능 혹은 불가능하게 하는데 이용될 수 있다. 또한, 신원 검증은 원격 프로세싱 유닛들에 의한 적절한 보안 측정들을 판별하기 위하여 디바이스로부터 전송되는 정보 내에 포함될 수 있다. 상기 장치는 시야 보정, 헤드-마운트된 디스플레이, 장면 카메라(들)을 이용하여 주변 환경을 보기, 마이크로폰을 통한 오디오 데이터 녹음 및/또는 다른 감지 장비를 포함하는 다른 기능들을 수행하는 착용가능한 컴퓨팅 디바이스에 통합될 수 있다. Devices, systems and methods are provided for providing substantially continuous biometric identification (CBID) to an individual using eye signals in real time. The apparatus is comprised in a wearable computing device, wherein the device is based on iris recognition using one or more cameras directed towards one eye or two eyes and / or other physiological, anatomical and / or dynamic measurements The identification of the wearer of the device is performed. Verification of the device user identity can be used to enable or disable the display of security information. The identity verification may also be included in the information transmitted from the device to determine appropriate security measures by the remote processing units. The apparatus can be used in a wearable computing device that performs other functions, including field of view correction, head-mounted display, view of the environment using the scene camera (s), audio data recording via a microphone, and / Can be integrated.

Description

안구 신호들의 인식 및 지속적인 생체 인증을 위한 시스템과 방법들{SYSTEMS AND METHODS FOR DISCERNING EYE SIGNALS AND CONTINUOUS BIOMETRIC IDENTIFICATION} FIELD OF THE INVENTION [0001] The present invention relates to systems and methods for recognition of eye signals and persistent biometrics, and systems and methods for < RTI ID = 0.0 > continuous < / RTI > biometrics.

일반적으로, 본 발명은 실질적으로 지속적인 생체 인증(continuous biometric identification: CBID), 안구 추적(eye-tracking), 및 개인에 의한 실시간 안구-신호 제어(eye-signal control)를 위한 시스템들 및 방법들에 관한 발명이다. CBID는 생체측정-기반의 인증, 암호화, 및 사이버 보안 분야에 속한 기술들을 이용하며, 그리고 눈에 띄지 않는(unobtrusive) 프로세서(들) 내에서 구현되는데, 눈에 띄지 않는 프로세서(들)은 머리-장착 디스플레이(head-mounted display), 원격 디스플레이, 안구 추적 카메라들, 디바이스 착용자의 주변환경을 보여주는 장면 카메라(scene camera), 및/또는 다른 웨어러블 센서들에 관련될 수 있다. CBID는, 시스템 오브 시스템(SoS) 아키텍처 내에서 홍채 코드 판별 단계, 다른 생체 피처들의 식별 단계, 그리고 네트워크 디바이스들과의 보안 인터페이스들을 이용하여, 디바이스 사용자의 신원을 고의적으로 왜곡하는 시도들 및 부주의한 신원 도난과 관련된 보안 문제점들을 해결할 수 있다. In general, the present invention relates to systems and methods for continuous biometric identification (CBID), eye-tracking, and real-time eye-signal control by an individual . The CBID utilizes technologies belonging to the field of biometric-based authentication, encryption, and cybersecurity, and is implemented within the unobtrusive processor (s), where the inconspicuous processor (s) A head-mounted display, a remote display, eye tracking cameras, a scene camera showing the environment of the wearer of the device, and / or other wearable sensors. The CBID may be used in attempts to deliberately distort the identity of a device user using the iris code identification step within the System of System (SoS) architecture, the identification phase of other biometric features, and security interfaces with network devices, Security problems related to identity theft can be solved.

인터넷 및 컴퓨팅/통신 디바이스들의 광범위한 사용은 정보의 전자적인 보급에 있어서 폭발적인 성장을 가져왔다. 하지만, 보안 정보의 수신인(들)에 대한 검증가능한 제어는, 사이버 보안 분야에서 중대한 문제점을 남기고 있다. 또한, 정보의 수신인들은 민감한 정보의 소스들이 또한 될 수 있는데, 여기서는 이러한 소스의 신원에 대한 실시간 지식이 중요한 보안 이슈가 될 수 있다. 이러한 상황의 일례는, 온라인 구매를 수행하는 프로세스 동안, 신용카드 정보(또는 계좌 정보)를 입력하는 개인의 신원에 대한 지식이다. 보안 정보의 수신인들 혹은 소스들을 원격으로 식별하는데 통상적으로 이용되는 오늘날의 기술들은 속임수(deception)에 매우 취약하다. 미국에서, 신원 도용은 매년 대략 1500만 명의 개인에게 영향을 미치며, 추정되는 금융 충격은 500억불에 달한다. The widespread use of the Internet and computing / communication devices has led to explosive growth in electronic dissemination of information. However, verifiable control over the recipient (s) of the security information presents a significant problem in the cyber security field. Also, recipients of information can also be sources of sensitive information, where real-time knowledge of the identity of such sources can be an important security issue. An example of such a situation is knowledge of the identity of an individual entering credit card information (or account information) during the process of performing an online purchase. Today's technologies that are commonly used to remotely identify recipients or sources of security information are very vulnerable to deception. In the United States, identity theft affects roughly 15 million individuals each year, with an estimated financial impact of $ 50 billion.

인터넷으로부터 정보를 수신하는 컴퓨터 또는 텔레커뮤니케이션 디바이스는 소위 IP(즉, 인터넷 프로토콜) 어드레스 및/또는 중앙 처리 유닛들(CPU) 또는 펌웨어 내에 통상적으로 내장되는 식별 코드들에 의해서 식별되는 것이 일반적이다. 비록, IP 어드레스들 및/또는 내장된 디바이스 신원이, 정보를 수신 혹은 전송하는 장치를 식별하는데 이용될 수 있지만, IP 어드레스는 디바이스의 사용자(들)을 검증가능하게 식별하지 못한다. Computers or telecommunications devices that receive information from the Internet are typically identified by so-called IP (i.e., Internet Protocol) addresses and / or identification codes that are typically embedded within central processing units (CPUs) or firmware. Although the IP addresses and / or the embedded device identity may be used to identify the device that is receiving or transmitting information, the IP address does not identify the user (s) of the device in a verifiable manner.

디바이스를 개인 사용자와 관련시키고자 하는 체계들은 통상적으로, 패스워드들, 보안 질문들, 및/또는 이력 레코드("트랙커" 또는 "쿠키" 등의 용어들에 의해서 참조됨)를 채용한다. 하지만, 이러한 체계들은 예컨, 사용자가 일단 "로그인" 했으면, 용이하게 회피될 수 있다. 이것은, 디바이스가 분실 혹은 도난되는 경우 또는 정보의 의도된 수신인 이외의 다른 사람에 의해서 디바이스에 대한 액세스가 획득되는 경우에는, 매우 중요한 문제가 될 수 있다. 또한, 체계들은 진정한 신원 및/또는 특정한 머신의 IP 및/또는 하드웨어 내장된 어드레스를 마스킹 혹은 숨기도록 존재한다. Systems that attempt to associate a device with an individual user typically employ passwords, security questions, and / or history records (referred to by terms such as "tracker" or "cookie"). However, these schemes can be easily avoided, for example, once the user has "logged in" This can be a very significant issue if the device is lost or stolen, or if access to the device is obtained by someone other than the intended recipient of the information. In addition, the schemes exist to mask or hide the true identity and / or the IP and / or hardware embedded address of a particular machine.

사용자의 신원을 검증하고자 하는 가장 통상적인 사이버 보안 방법들은 패스워드들 및/또는 보안 질문들을 채용한다. 일단, 패스워드가 입력되거나 및/또는 보안 질문들이 답변되면, 사용자들을 바꾸는 것이 가능하며, 이는 보안 체계의 역할을 무력화시킨다. 또한, 패스워드들을 부정하게 획득하거나 및/또는 보안 질문들에 부정하게 답변하는데 채용될 수 있는 매우 많은 수의 방법들이 존재한다. 이들 부정한 방법들은, 패스워드 입력 동안에 키스트로크들을 가로채거나; 가족 이름들, 장소들, 애완동물들, 또는 간단한 문자숫자 배열, 등의 인자들에 기초하여 패스워드를 추측하거나(guess); 패킷들이 인터넷을 통해 전송될 때 패킷들 내에 포함된 정보를 해독하거나(퍼블릭, 무선 전송은 특히나 취약한 액세스 포인트이다); 통상적으로 사용되는 일련의 패스워드들을 이용한 자동화된 시퀀싱(automated sequencing); 내포된 악성코드(malware)를 통한 패스워드의 획득; 패스워드 입력을 요구하는 합법적인 웹 사이트인 척하는 것(posing); 그리고 소위 피싱사기(phishing)의 다른 형태들을 포함할 수 있다. The most common cyber security methods for verifying a user's identity employ passwords and / or security questions. Once a password is entered and / or security questions are answered, it is possible to change users, which disables the role of the security system. There are also numerous ways in which passwords may be employed to obtain fraudulently and / or to answer fraudulently to security questions. These fraudulent methods intercept keystrokes during password entry; Guess passwords based on factors such as family names, places, pets, or simple alphanumeric arrangement; Decode information contained in packets when packets are transmitted over the Internet (public, wireless transmissions are particularly vulnerable access points); Automated sequencing using a set of commonly used passwords; Acquiring passwords via embedded malware; Pretending to be a legitimate website that requires a password; And other forms of so-called phishing phishing.

사용자 인증을 위한 생체측정 체계들(biometric schemes)은, 개인을 고유하게 식별할 수 있는 머신-기반의 방법으로서 점점 더 보편화되고 있다. 생체 인증(biometric identification)은 개인마다 고유한 신체적, 유전적, 생리학적(physiological), 및/또는 행동적(behavioral) 속성들을 감지하는 것을 포함한다. 실질적으로 지속적인(substantially continuous), 실시간 생체 인증은, 고속의, 비-침입적(non-intrusive), 및 비-침투적(non-invasive)인 기법을 요구한다. Biometric schemes for user authentication are becoming increasingly popular as a machine-based method for uniquely identifying individuals. Biometric identification involves sensing physical, genetic, physiological, and / or behavioral attributes that are unique to an individual. Real-time, real-time biometric authentication requires fast, non-intrusive, and non-invasive techniques.

생체 인증 기술의 일례로서, 미국등록특허 US 8,432,252호는, 개인을 식별하기 위하여 손가락을 시각적으로 스캔하고 그리고 지문의 인식에 기초하여 보안 통신을 가능케하거나 중단시키는 디바이스를 기술한다. 손가락 스캔에 기초하는 인증 기술들을 이용하는 많은 특허들이 미국등록특허 US 8,432,252호의 출원인에게 허여되었다. 자동 안면 인식, 음성 인식, 및 서명 인식은 또 다른 생체 인식 방법들의 기초이다. 하지만, 일반적으로 이들 기법들은 눈에 띄지 않는(unobtrusive) 방식으로 실질적으로 지속적인 사용자 인증을 제공하지 않으며 그리고 보안 피처들을 무력화시키는 상대적으로 간단한 방법들에 취약하다. As an example of a biometric authentication technique, U.S. Patent No. 8,432,252 describes a device that visually scans a finger to identify an individual and enables or disables secure communication based on fingerprint recognition. A number of patents utilizing authentication techniques based on finger scans have been granted to the applicants of USP 8,432,252. Automatic facial recognition, speech recognition, and signature recognition are the basis of other biometric methods. However, in general these techniques do not provide substantially continuous user authentication in an unobtrusive manner and are vulnerable to relatively simple methods of disabling security features.

예를 들어, 대부분의 경우에 있어서, 이러한 생체측정 디바이스들은 스캔할 때에 개인을 긍정적으로(positively) 식별할 수 있다. 하지만, 이에 후속하여 별도의 개인이 보안 정보를 수신하거나 또는 보안 정보의 소스가 되는 것이 가능하다. 심지어, 스캔 시에도, 보안 정보를 디스플레이 및/또는 입력하는데 이용되는 디바이스들은 사용자 인증을 위한 사용자들에게 직접 접속되지 않는 것이 일반적이다. 예를 들어, 별개의 개인이 키보드 입력들을 수행하고 있는 동안에, 자동 안면 인식이 행해질 수 있다. 사용자의 진정한 신원을 무력화시키는 이들 상대적으로 간단한 방법들은, 그 또는 그녀의 신원을 고의적으로 숨기거나 혹은 전송하기 위하여 생체측정적으로 인증되었던 개인에게 잠재적인 이득이 있는 경우에 특히 문제가 된다. For example, in most cases, these biometric devices can positively identify an individual when scanning. However, subsequent to this, it is possible for a separate individual to receive the security information or to become the source of the security information. Even at the time of a scan, devices used to display and / or input security information are generally not directly connected to users for user authentication. For example, automatic face recognition may be performed while a separate individual is performing keyboard input. These relatively simple methods of neutralizing a user's true identity are particularly problematic when there is a potential benefit to an individual who has been biometrically authenticated to intentionally hide or transmit his or her identity.

정보의 수신인이 진정한 신원을 고의적으로 위장하기를 원할 수 있는 상황의 일례는, 온라인 학업 시험들(online scholastic examinations)의 원격 관리이다. 이 경우, 시험 성적의 최종적인 수신인이 모든 보안 과제들을 해결하고, 반면에 별도의 개인이 실제 시험 문제들을 풀 수도 있다. 대학원 입학시험(Graduate Record Examination: GRE), 경영대학원 입학시험(Graduate Management Admissions Test: GMAT), 의과대학원 입학시험(Medical College Admissions Test: MCAT), 및 다른 전문적인 승진 시험들의 관리 동안에, 복잡한 신원 스와핑 제도들(sophisticated identity swapping schemes)이 정기적으로 보고된다. 학업 및 다른 형태들의 시험의 원격 관리와 관련된 보안 문제들은, 점점 더 중요해질 것이라 예측되는데, 이는 교육 및 다른 지식-기반 서비스 제공자들이 온라인 공개 수업(Massive Open Online Course: MOOC), 원격 교육(distance-learning), 및 평가 포맷(assessment formats)을 사용하는 쪽으로 점점 더 많이 이동하고 있기 때문이다. One example of a situation where a recipient of information may want to deliberately camouflage a true identity is the remote management of online scholastic examinations. In this case, the final recipient of the test scores solves all security challenges, while a separate individual may solve the actual exam questions. During management of Graduate Record Examination (GRE), Graduate Management Admissions Test (GMAT), Medical College Admissions Test (MCAT), and other professional promotion tests, complex identity swapping Sophisticated identity swapping schemes are regularly reported. Security issues related to remote management of academic and other types of examinations are expected to become increasingly important because educational and other knowledge-based service providers are increasingly looking for MOOC, distance- learning, and assessment formats that are being used in the future.

홍채 인식은 현재 가장 안전한 생체 인증 기술들 중 하나로 간주된다. 홍채는 후생적 형질 피처(epigenetic phenotypic feature)인 미세한 구조를 보여주며, 이는 배아 임신(embryonic gestation) 동안에 랜덤 요소로 성장된다. 따라서, DNA 지문과 달리, 유전적으로 똑같은 쌍둥이(인구의 대략 1% 임)일지라도, 완전하게 고유한 홍채 색소들(iris pigments) 및 구조들을 갖는다. 홍채의 후생적 성질의 또 다른 증거는, 비록 사람의 우측 및 좌측(유전적으로 동일함) 눈들이 유사한 구조 및 색상을 갖고 있는 것처럼 보이지만, 개인의 좌우측 눈의 세부 조직(textural detail)은 명확히 구별된다라는 점이다. Iris recognition is now considered one of the safest biometric technologies. The iris shows a fine structure, which is an epigenetic phenotypic feature, which grows as a random element during embryonic gestation. Thus, unlike DNA fingerprints, they have completely unique iris pigments and structures, even if they are genetically identical twins (approximately 1% of the population). Another evidence of the welfare nature of the iris is that although the right and left (genetically identical) eyes of humans appear to have similar structures and colors, the textural detail of the individual left and right eyes is clearly distinct .

비록, 홍채가 비-침투적(non-invasively)으로 보여질 수 있지만, 이것은 양호하게 보호되는 기관(즉, 안구) 내에 존재하며, 지문과 달리, 일반적으로 손상 및 마모로부터 보호된다. 안구 내의 미세 구조 및 색소를 바꿀 수 있는 몇몇 의료 방법들이 존재하기는 하지만, 홍채 조직은 일반적으로 수 십년의 시간이 지나도 놀랍만큼 안정적으로 남아있는다(예컨대, 얼굴 피처들과는 달리). Although the iris can be seen non-invasively, it is in a well-protected organ (i.e., the eye) and, unlike a fingerprint, is generally protected from damage and abrasion. Although there are several medical methods that can change the microstructure and pigment in the eye, iris tissue generally remains surprisingly stable (e.g., unlike face features) over time, usually over a period of decades.

존 더그먼(John Daugman)은 캠브리지 대학에 있었을 때 홍채 인식 알고리즘을 처음 개발하였다. 오늘날 이용되고 있는 상업적으로 개발된 대부분의 홍채 인식 시스템들은, 더그먼의 알고리즘을 이용한다(예컨대, 미국 등록특허 US 5,291,560)에 개시된 바와 같이). 상업적으로 이용가능한 홍채 인식 시스템들(예컨대, Iris ID Systems Inc., BI2 Technologies, IrisGuard Inc., Eyelock Corp.)은 일반적으로 휴대용 또는 받침대에 장착된 디바이스들을 이용하며 그리고 홍채와 카메라 사이에서 10cm 에서 최대 수 미터까지의 거리에서 작동한다. John Daugman first developed the iris recognition algorithm when he was at Cambridge University. Most commercially-developed iris recognition systems currently in use utilize Dougman's algorithm (e.g., as disclosed in U.S. Pat. No. 5,291,560). Commercially available iris recognition systems (e.g., Iris ID Systems Inc., BI2 Technologies, IrisGuard Inc., Eyelock Corp.) typically utilize portable or pedestal mounted devices and provide a maximum distance of 10 cm It works at distances up to several meters.

더그만은, 실시간 비디오 조건들을 이용하여 수집된 홍채 이미지들에 기초하는 2 차원 가버 웨이블릿(Gabor wavelet)(즉, 짧게 샘플링된 프리에 변환의 특별한 케이스) 계수들을 개발 및 적용하였다. 데카르트 좌표(Cartesian coordinates) 기반의 이미지들을 극 좌표로 변환하고 그리고 2-D 가버 필터들(Gabor filters)을 작은 영역들에 적용함으로써, 복소수 내적(complex dot product)이 계산되는데, 이는 주로 위상 각도를 반영한다. 전체 광 진폭에 대한 민감도 부족(즉, 이미지 휘도, 콘트라스트, 등등)은 비디오 레코딩 조건들을의 변동들을 무시하는데 도움을 준다. Still further developed and applied a two-dimensional Gabor wavelet (i.e., a special case of short sampled Frie transform) coefficients based on iris images collected using real-time video conditions. Complex dot products are computed by transforming images based on Cartesian coordinates to polar coordinates and applying 2-D Gabor filters to small areas, Reflect. Lack of sensitivity to the overall light amplitude (i.e., image brightness, contrast, etc.) helps to ignore variations in video recording conditions.

서로 다른 영역들로부터의 내적들의 최상위 비트들(most significant bits)은 소위 홍채의 코드로 조합되는바, 이하에서는 "홍채코드(irisCode)"로 지칭한다. 대부분의 통상적으로 구현되는 홍채코드는 각각의 영역으로부터 2 비트를 사용하여 2048 비트(즉, 256 바이트) 값을 생성하는데, 이는 수 백만명들 중에서 고유한 개인을 식별할 수 있다. 홍채코드들을 계산하는 알고리즘들은 CPU-기반 디바이스들 내의 소프트웨어 및 하드웨어 내장된 펌웨어 둘다로서 코딩된다. The most significant bits of inner products from different regions are combined into a so-called iris code, hereinafter referred to as "irisCode ". Most commonly implemented iris codes use 2 bits from each region to produce a 2048 bit (i.e., 256 byte) value, which can identify a unique individual from millions of people. The algorithms for calculating iris codes are coded as both software and hardware embedded firmware in CPU-based devices.

오늘날, 홍채 패턴에 기초한 식별을 위해 170개 나라의 6천만명 이상의 개인이 등록되어 있다. 인도 정부는, 10억명 이상인 전체 인구의 홍채 스캔 및 지문을 현재 기록하고 있다. 이러한 기술들을 활용하고 있는 회사들 및 정부 기구들은, IBM, 파나소닉, LG, 사노프(Sarnoff), 런던 히드로 공항(버밍험 공항, 개트윅 공항, 맨체스터 공항도), IrisAccess(대한민국), IrisPass (일본), CanPass (캐나다 넥서스 시스템), 아프간 송환 프로그램(Afghan repatriation program), 및 미국 국방부의 억류자 관리 프로그램(United States Department of Defense detainee population management program)을 포함한다. Today, more than 60 million individuals in 170 countries are registered for identification based on iris patterns. The Government of India is currently recording iris scans and fingerprints of the entire population of more than one billion people. Companies and government organizations that are leveraging these technologies are IBM, Panasonic, LG, Sarnoff, London Heathrow (Birmingham Airport, Gatwick Airport, Manchester Airport), IrisAccess (Korea), IrisPass (Japan) , The CanPass (Canada Nexus System), the Afghan repatriation program, and the United States Department of Defense detainee population management program.

홍채는, 2개의 대향하는 근육들(괄약근 돌기 및 확장근 돌기)의 수축에 의해서만 변경되는 잘-정의된 기하학적 형상을 가지며, 상기 2개의 근육들은 동공의 지름을 제어한다. 따라서, 이러한 균일성 및 안정성은, 통상적인 이미지 품질을 이용하고, 그리고 머리 기울기 및 움직임에 대한 대비를 포함하여, 109.6 분의 1 (즉, 40억 분의 1) 이라는 전례없이 낮은 오류 매치율(false match rate)을 보여준다.The iris has a well-defined geometric shape that changes only by contraction of two opposing muscles (sphincter protrusions and expansive projections), and the two muscles control the diameter of the pupil. Thus, such uniformity and stability can be achieved by using conventional image quality and by providing an unprecedentedly low error match rate of 10 9.6 (i.e., one quarter billion), including contrast to head tilt and motion (false match rate).

비록, 본 발명에 대한 최상의 이해는 본 명세서를 숙독함으로써 얻어질 것이지만, 본 요약은 본 발명에 따른 시스템들 및 방법들의 몇몇 신규하고 유용한 피처들을 독자들이 숙지할 수 있게하기 위한 것이다. 물론, 본 요약은 본 명세서의 시스템들 및 방법들의 모든 피처들의 완벽한 설명이 될 것으로 의도된 것이 아닐 뿐만 아니라, 본 출원의 발명의 상세한 설명 말미에 제시되는 청구범위를 임의의 방식으로 제한하고자 의도된 것도 아니다. Although the best understanding of the present invention will be obtained by reading this specification, this summary is intended to enable the reader to understand some novel and useful features of the systems and methods according to the present invention. Of course, this Summary is not intended to be a complete description of all features of the systems and methods herein, but is in no way intended to limit the scope of the claims set forth at the end of the specification of the present application It is not.

일실시예에 따르면, 적어도 하나의 이미저(imager)에 연결된 적어도 하나의 프로세서를 포함하는 헤드 마운트된 디바이스를 위한 장치들, 시스템들, 및 방법들이 제공되는바, 여기서 하나 이상의 이미저들은 사용자의 눈의 향해 지향되고, 프로세서는 실질적으로, 지속적으로, 동시적으로, 및/또는 주기적으로 눈 시선 평가를 결정하도록 구성되며, 상기 이미저는 눈의 하나 이상의 특징있는 피처들을 검출하고; 사용자의 안면 피처들, 음성 혹은 홍채 데이터를 포함하는 사용자의 생체측정 데이터를 판별하며, 여기서 생체측정 데이터는 적어도 헤드 마운트된 디바이스, 연결된 디바이스, 무선 디바이스 및 원격 서버의 액세스 및 제어를 위하여 사용자의 식별 및 인증을 위해 이용된다. According to one embodiment, devices, systems, and methods are provided for a head mounted device that includes at least one processor coupled to at least one imager, wherein one or more imagers are Wherein the processor is configured to substantially, continuously, simultaneously, and / or periodically determine an eye-gaze evaluation, the imager detecting one or more characteristic features of the eye; Determining biometric data of a user including facial features of the user, voice or iris data, wherein the biometric data includes at least a user identification for access and control of at least a head mounted device, a connected device, a wireless device and a remote server And authentication.

다른 실시예에 따르면, 디바이스 사용자의 실질적으로 지속적인 생체 인증(CBID)을 위한 장치들, 시스템들 및 방법들이 제공된다. 상기 장치는 실질적으로 눈에 띄지않게 헤드기어 상에 마운트될 수 있으며, 상기 장치는 통상적인 안경 프레임들 내에 내장 혹은 부착되거나 또는 소위 구글 글래스(구글의 등록상표)로 알려진 것들과 같은 웨어러블 컴퓨팅 디바이스 내에 배치된다. 보다 상세하게는, 예시적인 실시예는 디바이스 착용자의 하나 이상의 홍채들을 조명할 수 있는(바람직하다면) 하나 이상의 조명 소스들, 디바이스 착용자의 하나 이상의 안구들을 보도록 직접 지향된 하나 이상의 마이크로-카메라들, 광 투과 매커니즘 혹은 반사 시스템, 및 프로세싱 유닛을 포함하며, 프로세싱 유닛은 1) 디바이스 착용자의 신원을 판별하도록 눈의 이미지들을 분석하고; 및/또는 2) 눈의 이미지들을 디바이스 착용자의 신원을 판별하는 다른 프로세싱 유닛으로 전송한다. According to another embodiment, devices, systems and methods are provided for a device user's substantially persistent biometric authentication (CBID). The device may be mounted substantially inconspicuously on the headgear, and the device may be embedded within or attached to conventional eyeglass frames or may be mounted within wearable computing devices such as those known as so-called Google Glass (registered trademark of Google) . More specifically, the illustrative embodiment includes one or more illumination sources (if desired) capable of illuminating one or more irises of the wearer of the device, one or more micro-cameras directed directly to view one or more eyeballs of the wearer of the device, A transmission mechanism or a reflection system, and a processing unit, the processing unit comprising: 1) analyzing images of the eye to determine the identity of the wearer of the device; And / or 2) sends the images of the eye to another processing unit that determines the identity of the wearer of the device.

본 명세서에서, 컴퓨팅 디바이스와 상호작용하도록 의도되는 자발적인 눈의 움직임들은 "안구 신호(eye signals)"라 지칭된다. In this specification, spontaneous eye movements intended to interact with a computing device are referred to as "eye signals ".

또한, 생체 인증 정보(예컨대, 홍채코드) 및 CBID와 관련된 모든 정보는 보안성을 갖도록 전송되어야만 하며, 통신 단계들은 헤드셋 디바이스와의 무선 통신들을 포함할 수 있다. CBID 기반의 통신들은 2015년 5월 9일자로 출원되고 발명의 명칭이 "Systems and Methods for Using Eye Signals with Secure Mobile Communications" 인 미국 출원(출원번호 14/708,229)에 개시된 방식으로 보안성있게 수행된다. In addition, all information related to the biometric authentication information (e.g., iris code) and CBID must be transmitted with security, and the communication steps may include wireless communications with the headset device. CBID-based communications are securely performed in a manner that was filed on May 9, 2015 and is disclosed in a US application (Application No. 14 / 708,229) entitled " Systems and Methods for Using Eye Signals with Secure Mobile Communications & .

제 1 실시예에 따르면, 실질적으로, 지속적으로, 주기적으로, 및/또는 요청에 따라 웨어러블 디바이스를 이용하여 홍채 인식을 수행하는 장치들, 시스템들 및 방법들이 제공된다. According to a first embodiment, devices, systems and methods are provided for performing iris recognition using a wearable device substantially, continuously, periodically, and / or upon request.

다른 실시예에 따르면, 헤드 마운트된 디바이스를 착용한 사용자의 진정한 신원을 확립할 수 있는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that can establish the true identity of a user wearing a head mounted device.

다른 실시예에 따르면, 거동적 생체측정을 통해 사용자의 진정한 신원을 확립할 수 있는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided for establishing a true identity of a user through dynamic biometric measurements.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 토큰이 필요없는 보안을 위한 용이하고, 간단하고, 및/또는 직관적인 방법들 및 시스템들을 사용자에게 제공하는데, 토큰은 적어도 하나의 패스워드 및 물리적 디바이스를 포함하고, 물리적 디바이스는 크레디트 카드, 키 폽(key fob), 혹은 다른 물리적 토큰을 포함한다. According to another embodiment, devices, systems and methods are provided, which provide users with easy, simple, and / or intuitive methods and systems for security that do not require a token, A password, and a physical device, and the physical device includes a credit card, a key fob, or other physical token.

다른 실시예에 따르면, 디바이스 착용자의 검증된 생체 인증이 있는 경우에만 안구 신호들이 수행되는 것을 허용하는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that allow ocular signals to be performed only when there is a verified biometric of the wearer of the device.

다른 실시예에 따르면, 사용자 신원 사기 및 신원 절도를 방지할 수 있는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that are capable of preventing user identity fraud and identity theft.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 단일 사용자, 다수의 사용자들, 및 웨어러블 디바이스의 모든 사용자들에 의한 무제한 액세스 중 적어도 하나를 위해 디바이스 보안의 다중 레벨들을 확립하는 필터들을 이용한다. According to another embodiment, devices, systems and methods are provided that establish multiple levels of device security for at least one of a single user, a plurality of users, and unlimited access by all users of the wearable device Lt; / RTI >

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 교육적 목적, 법적 목적, 라이센싱 목적, 및 서비스들의 배달 목적 중 적어도 하나를 위해 사용자들을 인증하도록 헤드 마운트된 디바이스를 사용한다. According to another embodiment, devices, systems and methods are provided that use a head mounted device to authenticate users for at least one of educational, legal, licensing, and delivery purposes of services.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 보안 룸, 제한 구역, 자동차, 비행기, 및 선박 중 적어도 하나에 대한 액세스를 허용하기 위해 사용자들을 인증하도록 헤드 마운트된 디바이스를 이용한다 According to another embodiment, devices, systems and methods are provided, which include a head mounted device to authenticate users to allow access to at least one of a security room, a restricted area, a car, an airplane, Use

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 여기서는 디바이스 착용자에 의해서 보여지고 인지되는 실제 및 가상 객체 둘다의 이미지들이, 후속 참조를 위해, 퍼스널 증가 메모리(personal augmented memory: PAM) 형태로서 저장 혹은 태그될 수 있다. According to another embodiment, devices, systems and methods are provided, wherein images of both real and virtual objects viewed and recognized by a device wearer are stored in a personal augmented memory (PAM) ) Form. ≪ / RTI >

다른 실시예에 따르면, 문서 혹은 데이터의 소스를 검증될 수 있게 주석첨가하도록(verifiably annotate) 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that use a head mounted device to verifiably annotate the source of the document or data.

다른 실시예에 따르면, 문서들 혹은 데이터가 식별된 개인에 의해서 검사되었음 또는 핸들링되었음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices, systems and methods are provided that use head-mounted devices to annotate documents or data so that they can be verified or handled by an identified individual.

다른 실시예에 따르면, 실제 혹은 가상 객체가 식별된 개인에 의해서 검사되었음 또는 핸들링되었음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices, systems and methods are provided that use a head-mounted device to annotate an actual or virtual object to be verifiably verified or handled by an identified individual.

다른 실시예에 따르면, 쓰기(wiriting), 시그니처, 또는 다른 손으로 쓴 정보가 식별된 개인에 의해서 생성, 수정, 혹은 리뷰되었음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices using head-mounted devices to annotate such that wiriting, signature, or other handwritten information can be verified to be generated, modified, or reviewed by the identified individual, And methods are provided.

다른 실시예에 따르면, 식별된 개인이 말하였음 또는 청각 정보를 청취했음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices, systems and methods are provided that use a head-mounted device to be annotated so that the identified individual has spoken or verified that he / she has listened to the audible information.

다른 실시예에 따르면, 객체에 대한 응시 및 헤드 마운트된 디바이스에 의해서 인지가능한 일부 물리적 액션들을 포함하는 행위를 식별된 개인이 수행하였음을 검증될 수 있게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices that use head-mounted devices to annotate to be verifiable that an identified person has performed an act of including an action on an object and including some physical actions perceptible by the head- Systems, and methods are provided.

다른 실시예에 따르면, 감금된, 가석방된(parole), 보호관찰된(probation), 금지 명령(restraining order)을 받은, 또는 법원에 의해서 거동이 부과된, 식별된 개인의 행위들, 거동, 수행, 혹은 생체측정을 검증될 수 있게 모니터링, 제한, 제어, 혹은 임팩팅하기 위한 목적으로 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, the behaviors, behaviors, and performances of identified individuals who are imprisoned, parole, probation, restraining order, or acted upon by a court , Or devices, systems and methods that use head-mounted devices for monitoring, limiting, controlling, or impacting biometrics to be verifiable.

다른 실시예에 따르면, 그 당시에 혹은 일정 기간 동안 알콜, 마약, 혹은 다른 물질의 영향을 받은 의심받는 개인의 중독 상태를 검증가능하게 평가할 목적으로 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, devices, systems and methods using head-mounted devices for the purpose of verifiably assessing the poisoning status of suspect individuals affected by alcohol, drugs, or other substances at the time or for a period of time Are provided.

다른 실시예에 따르면, 테스팅, 처치, 또는 약 혹은 다른 처방의 연구를 위한 감독되는 의료 행위에 참가한 식별된 개인의 생체측정 반응 혹은 다른 측정들을 검증가능하게 주석첨가하도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다.According to another embodiment, a device using a head mounted device for verifiably annotating a biometric response or other measurements of an identified individual participating in a supervised medical act for testing, treatment, or study of a drug or other prescription Systems, and methods are provided.

다른 실시예에 따르면, 구매의 인증을 위한 목적으로 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공되는바, 여기서 인증된 구매는 온-라인 구매 보안을 위한 것 및 오프-라인 구매 보안을 위한 것이며, 여기서 오프-라인은 소매점(retail establishment) 또는 객체가 구입되기를 원하는 임의의 위치를 포함한다. According to another embodiment, devices, systems and methods are provided for using a head mounted device for authentication of a purchase, wherein the authorized purchase is for on-line purchase security and off- Where the off-line includes a retail establishment or any location where the object is desired to be purchased.

다른 실시예에 따르면, 식별된 개인 이외의 다른 그 어떤 개인에게는 데이터를 보는 것이 허용되지 않도록 헤드 마운트된 디바이스를 사용하는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided that use a head mounted device such that no other person than the identified individual is allowed to view the data.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 외부로 지향된 프로세서에 연결된 제 2 이미저를 포함하는 헤드 마운트된 디바이스를 사용하며, 상기 제 2 이미저는 프로세서에 의해서 디코딩될 수 있는 코드를 검출하고, 상기 코드는 바코드 및 QR 코드 중 하나이며, 프로세서는 제품에 관한 정보를 나타내는 데이터를 디코딩한다. According to another embodiment, devices, systems and methods are provided that use a head mounted device comprising a second imager coupled to an externally directed processor, the second imager being decoded by a processor And the code is one of a bar code and a QR code, and the processor decodes data representing information about the product.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 외부로 지향된 프로세서에 연결된 제 2 이미저를 포함하는 헤드 마운트된 디바이스를 사용하며, 상기 제 2 이미저는 이미지 인식을 이용하여 상기 프로세서에 의해서 식별될 수 있는 객체를 검출하고, 그리고 상기 프로세서는 제품에 대한 정보를 제시한다. According to another embodiment, devices, systems and methods are provided which use a head mounted device comprising a second imager connected to an externally oriented processor, the second imager utilizing image recognition To detect an object that can be identified by the processor, and the processor presents information about the product.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 인증된 사용자가 제품을 보안성있게 구매하는 것을 허용하도록 제품에 관한 정보를 이용한다. According to another embodiment, devices, systems and methods are provided, which use information about the product to allow an authenticated user to securely purchase the product.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 여기서 식별된 디바이스 착용자에 의해서 실제로 보여지는 모니터의 영역 내의 정보는 (실시간으로) 높은 공간적 해상도로 디스플레이되거나 높은 시간적 빈도들(temporal frequencies) 업데이트될 수 있는 반면에, 주변 영역들(즉, 디바이스 착용자에 의해서 보여지지 않는 영역들)은 낮은 공간적 해상도로 디스플레이되고 그리고 낮은 빈도로 업데이트될 수 있다. According to another embodiment, devices, systems and methods are provided, wherein information in the area of the monitor actually seen by the identified device wearer is displayed (in real time) at a high spatial resolution or at high temporal frequencies frequencies) may be updated, while peripheral areas (i.e. areas not visible by the device wearer) may be displayed at a lower spatial resolution and updated at lower frequencies.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 여기서 식별된 디바이스 착용자에 의해서 실제로 보여지는 모니터의 영역 내의 정보가 (실시간으로) 더 높은 공간적 해상도로 디스플레이되고 및/또는 낮은 공간적 해상도에서 디스플레이되고 및/또는 낮은 빈도로 업데이트되는 주변 영역들(즉, 디바이스 착용자에 의해서 보여지지 않는) 보다 더 높은 시간적 빈도들로 업데이트 될 때, 낮은 해상도 영역들 내의 특정 영역 혹은 영역들 또는 특정 객체 혹은 객체들은 낮은 공간적 해상도 영역들 보다 더 높은 공간적 해상도로 디스플레이되거나 및/또는 더 높은 빈도들로 업데이트될 수 있다. 예를 들어, 눈과 같은 안면 피처들은, 고-해상도의 포베이트 렌더링(foveated rendering) 동안에 포빌 영역(foveal area) 외부로 렌더링될 때, 더 높은 해상도로 표시될 수 있다. According to another embodiment, devices, systems and methods are provided, wherein information in the area of the monitor actually seen by the identified device wearer is displayed (in real time) at a higher spatial resolution and / When updated with higher temporal frequencies than the surrounding regions (i.e., not seen by the device wearer) that are displayed at a higher resolution and / or updated at a lower frequency, certain regions or regions within lower resolution regions, Or objects may be displayed with a higher spatial resolution than the lower spatial resolution regions and / or updated with higher frequencies. For example, facial features such as the eye can be displayed at a higher resolution when rendered outside the foveal area during high-resolution foveated rendering.

다른 실시예에 따르면, 상호 응시에 의해서 일 엔티티가 다른 엔티티와 보안 통신 채널을 시작할 수 있게 하는 장치들, 시스템들 및 방법들이 제공되는바, 여기서 통신 채널의 보안성은 통신 이전에 확립될 수 있으며 그리고 통신 동안에 지속적으로 혹은 간헐적으로 재검증될 수 있다. According to another embodiment, devices, systems and methods are provided for enabling one entity to initiate a secure communication channel with another entity by interrogation, wherein the security of the communication channel can be established prior to communication, It can be re-verified continuously or intermittently during communication.

다른 실시예에 따르면, 액션이 일어나게 야기하도록 당사자들 간의 조화를 위한 보안 프로토콜들을 가능케하는 장치들, 시스템들 및 방법들이 제공되는바, 이에 따라 각 당사자는 그들의 신원들이 CBID로 지속적으로 검증되고 있는 시간 동안에 소정 액션을 수행한다. In accordance with another embodiment, devices, systems and methods are provided that enable security protocols for coordination between parties to cause an action to occur, such that each party is able to determine the time at which their identity is being continuously verified with the CBID Lt; / RTI >

다른 실시예에 따르면, 선택된 정보를 상호 응시에 기초하여 교환하고자 하는 하나 이상의 식별된 개인들의 바램에 대하여 개인에게 경보하는 장치들, 시스템들 및 방법들이 제공된다. According to another embodiment, devices, systems and methods are provided for alerting an individual to the desire of one or more identified individuals to exchange selected information based on a cross-examination.

다른 실시예에 따르면, 장치들, 시스템들 및 방법들이 제공되는바, 이는 장면 카메라 데이터 및/또는 오디오 데이터와 일시적으로 결부된 응시 데이터의 프라이버시를 유지하는 보안 수단을 가능케한다. According to another embodiment, devices, systems and methods are provided, which enable security measures to maintain the privacy of the scene data and / or the temporal data associated with the audio data.

본 명세서에 제공된 장치들, 시스템들 및 방법들의 양상들 및 어플리케이션들은 다음의 도면들 및 예시적인 실시예들의 상세한 설명에서 서술된다. Aspects and applications of the devices, systems and methods provided herein are described in the following drawings and detailed description of exemplary embodiments.

본 발명에 대한 보다 완벽한 이해는 다음의 예시적인 도면들과 함께 고려될 때 발명의 상세한 설명을 참조함에 의해서 얻어질 수 있다. 도면들에서, 유사한 참조 번호들은 유사한 구성요소들 혹은 행위들을 나타낸다. 현재 예시적인 실시예들은 도면들을 참조하여 설명된다.
도1은 디바이스의 착용자를 식별하기 위한 시스템의 예시적인 실시예의 기초 요소들에 대한 도면이다.
도2는 디바이스 착용자의 신원을 판별하는데 이용되는 예시적인 단계들을 보여준다.
도3은 디바이스 착용자 식별 상태를 실질적으로 지속적으로 유도하는데 이용되는 예시적인 논리를 보여주는 순서도이다.
도4는 디바이스 착용자 신원에 기초하여 보안 정보를 뷰잉 및 생성을 제어하기 위한 회로의 일실시예에 대한 도면이다.
도5는 단일 홍채에서 다수의 조명 소스들 및 다수의 카메라 포인팅의 위치들의 일례를 예시한 투시도이다.
도6은 멀티-카메라 이미징 시스템의 일실시예를 도시한다.
도7은 네트워크와 헤드웨어(headwear) 통신하는 일례를 도시한다.
도8은 온라인, 보안 구매를 수행하기 위한 예시적인 단계들의 순서도이다.
도9a 및 도9b는 헤드 장착형 디스플레이를 예시하며, 여기서 도9b는 시야 방패(sight shield)를 예시하며, 이는 디바이스 착용자 이외의 누군가가 디스플레이의 내용을 보는 것을 방지한다.
A more complete understanding of the present invention may be obtained by reference to the following detailed description of the invention when considered in conjunction with the following exemplary drawings. In the drawings, like reference numbers indicate like elements or acts. Exemplary embodiments are now described with reference to the drawings.
1 is a diagram of the basic elements of an exemplary embodiment of a system for identifying a wearer of a device.
Figure 2 shows exemplary steps used to determine the identity of the wearer of the device.
Figure 3 is a flow chart illustrating exemplary logic used to substantially continuously derive a device wearer identification status.
4 is a diagram of one embodiment of a circuit for controlling viewing and generating security information based on a device wearer identity.
5 is a perspective view illustrating an example of locations of multiple illumination sources and multiple camera pointing in a single iris.
Figure 6 illustrates one embodiment of a multi-camera imaging system.
Figure 7 shows an example of headwear communication with a network.
8 is a flowchart of exemplary steps for performing an on-line, secure purchase.
Figures 9A and 9B illustrate a head mounted display wherein Figure 9B illustrates a sight shield, which prevents anyone but the wearer of the device from viewing the contents of the display.

다음의 상세한 설명에서는, 설명을 위한 목적으로, 많은 세부 내용들이 서술되는데, 이는 예시적인 실시예들의 다양한 양상들의 대한 철저한 이해를 제공하기 위한 것이다. 하지만, 해당 기술분야의 당업자라면, 상기 장치들, 시스템들, 및 방법들은 이들 특정 세부 내용들이 없이도 실시될 수도 있음을 이해할 것이다. 또한, 다른 실시예들도 이용될 수 있으며 그리고 본 명세서의 장치들, 시스템들, 및 방법들의 범위를 벗어남이 없이도 구조적인 및 기능적인 변경들이 가해질 수도 있다. 다른 일례들에서는, 예시적인 실시예들을 애매하게 만드는 것을 회피하기 위하여, 공지된 구조들 및 디바이스들이 보다 일반적으로 도시 또는 논의된다. 많은 경우들에 있어서, 동작 설명은 당업자가 다양한 형태들을 구현할 수 있을 정도로 충분하며, 특히 동작이 소프트웨어에서 구현되는 경우에 그러하다. 다음을 유의해야 하는 바, 개시된 실시예들이 적용될 수 있는 수 많은 서로 다른 및 대안적인 구성들, 디바이스들 및 기술들이 존재한다. 실시예들의 전체 범위는 다음에 서술되는 일례들만으로 한정되지 않는다. In the following detailed description, for purposes of explanation, numerous specific details are set forth in order to provide a thorough understanding of various aspects of the exemplary embodiments. However, those skilled in the art will appreciate that the devices, systems, and methods may be practiced without these specific details. In addition, other embodiments may be utilized and structural and functional changes may be made without departing from the scope of the devices, systems, and methods herein. In other instances, well-known structures and devices are shown or discussed more generally in order to avoid obscuring the exemplary embodiments. In many instances, the operational description is sufficient to enable those skilled in the art to implement various aspects, particularly when the operation is implemented in software. It should be noted that there are numerous different and alternative configurations, devices, and techniques to which the disclosed embodiments may be applied. The full scope of embodiments is not limited to the examples described below.

예시된 실시예들의 다음의 일례들에서, 명세서의 일부를 구성하는 첨부된 도면들이 참조되며, 본 명세서에서는 다양한 실시예들이 일례로서 예시된다. In the following examples of illustrated embodiments, reference is made to the accompanying drawings, which form a part hereof, and in which is shown by way of example various embodiments.

홍채 인식 시스템(Iris Recognition System)Iris Recognition System

오늘날 대부분의 홍채 인식 시스템은 홍채와 카메라 사이에서 10cm 에서 20cm까지의 거리 범위에서 동작한다(3 내지 10미터까지의 먼 거리를 목표로 연구들이 진행되고 있음). 본 발명의 시스템은 눈에 띄지 않는(unobtrusive) 헤드웨어와 관련된 대략 20 내지 30 밀리미터(20-30 mm)의 상대적으로 짧은 거리에서 홍채 인식을 실질적으로 지속적으로 수행할 수 있다. Today, most iris recognition systems operate at distances from 10 cm to 20 cm between the iris and the camera (studies are under way aiming for distances of up to 3 to 10 meters). The system of the present invention is capable of substantially continuously performing iris recognition at relatively short distances of approximately 20 to 30 millimeters (20-30 mm) associated with unobtrusive headwear.

이러한 짧은 거리들에 대해, 일반적인 이미지 해상도는 적절한 조명이 있다면 현재의 상업적인 홍채 인식 디바이스들에 의해서 이용되는 거리들에서 기록된 이미지 품질과 대등하거나 또는 이들 뛰어넘을 수 있다. 하지만, 실질적인 스큐(skew)를 포함하는 공간 수차(spatial aberrations)가, 마이크로-렌즈 및/또는 홍채-추적 마이크로-카메라들에 부착된 다른 광학기기들에 의해서 생성될 수 있다. 공간 수차는, 홍채 및 안구 영역 내의 다른 구조들의 이미지들을 왜곡할 수 있다.For these short distances, a typical image resolution may equal or exceed the image quality recorded at the distances used by current commercial iris recognition devices if adequate illumination is available. However, spatial aberrations, including substantial skew, can be generated by micro-lenses and / or other optics attached to iris-tracking micro-cameras. Spatial aberration can distort images of other structures within the iris and eye region.

공간 수차는 "타겟"(즉, 의도된 수신인에 속한다라는 확인)과 디바이스-사용자 인증 홍채코드 둘다를 계산하는 짧은 초점거리 플랫폼(short focal distance platform)을 사용함으로써, 홍채 인식 알고리즘 내에서 처리될 수 있다. 이것은, 이들이 비교될 때 홍채코드들 사이에서 일관성을 유지한다. The spatial aberration can be processed within the iris recognition algorithm by using a short focal distance platform that computes both the device-user authenticated iris code and the " target "(i.e., have. This maintains consistency between iris codes when they are compared.

홍채 인식은 또한, 홍채의 축 상의 이미지들(on-axis images of iris)(즉, 안구 표면에 수직하게 보여지며 그리고 홍채 및/또는 동공에 중점을 둔 이미지)을 획득할 수 있는 능력에 의존한다. 여러 각도들(즉, 오프-축:off-axis)에서 보았을 때, 홍채의 피처들은 왜곡될 수 있으며 따라서 정보의 손실을 야기할 수 있다. 이것은 카메라가 눈에 띄지 않게(unobtrusive) 배치되며 그리고 헤드웨어 내에서 안구에 매우 가깝게 배치되는 둘다인 경우, 특히 문제가 될 수 있다. 안구의 정상적인 움직임 동안, 홍채는 눈에 띄지 않는(unobtrusive) 카메라의 시야 각도에 관하여 축을 벗어나(off-axis) 이동할 수 있으며, 이는 홍채코드들을 생성할 수 있는 능력의 손실을 야기할 수 있는데, 홍채코드들은 타겟 홍채코드와 매우 엄격한 기준으로 비교될 수 있다.Iris recognition also depends on the ability to acquire on-axis images of iris (i.e., images that are viewed perpendicular to the eye surface and that focus on iris and / or pupil) . When viewed at various angles (i.e., off-axis), the features of the iris can be distorted and thus cause loss of information. This can be especially problematic if the camera is unobtrusive and both are placed very close to the eyeball in the headwear. During normal movement of the eye, the iris may move off-axis with respect to the viewing angle of the unobtrusive camera, which may result in the loss of the ability to generate iris codes, The codes can be compared with the target iris code on a very strict basis.

이러한 상황을 취급하기 위한 예시적인 실시예들에서, 시스템은 덜 엄격한 홍채 인식과 결합된 온-축 모드(on-axis mode)에서 홍채가 보여질 수 있는 경우 높은 엄격성(high stringency)의 홍채 인식을 사용할 수 있으며 및/또는 카메라에 의해 보여지는 방향에 대하여 홍채가 오프-축으로 포인팅되는 경우 상기 영역 내의 안구의 다른 구조들의 피처 인식을 사용할 수 있다.In exemplary embodiments for handling this situation, the system can be used for high-stringency iris recognition when iris can be seen in on-axis mode combined with less rigorous iris recognition And / or feature recognition of other structures of the eye within the region if the iris is pointed off-axis with respect to the direction viewed by the camera.

오프-축 기간들 동안에 추적되는 피처들은 다음에 보다 상세히 서술되지만, 공막(sclera)의 형상, 공막 내의 혈관들의 패턴들 및 위치들, 눈꺼풀의 형상들 및/또는 속눈썹들의 위치들을 포함할 수 있다. 홍채와 달리, 이들 피처들은 일생 동안에 변할 수 있다. 하지만, 이러한 피처들은 디바이스를 착용하는 하나의 세션의 시간 경과에 대해서는 심각하게 변하지 않는다. The features tracked during off-axis periods are described in more detail below, but may include shapes of sclera, patterns and locations of blood vessels in the sclera, shapes of eyelids, and / or positions of eyelashes. Unlike iris, these features can change over a lifetime. However, these features do not change significantly over the time course of one session of wearing the device.

따라서, 정상 동작 동안, 디바이스를 초기에 착용하고 그리고 그 이후에 적어도 주기적으로 고-엄격성의 홍채코드를 등록하도록 사용자는 카메라쪽으로 곧바로 직시할 수 있다. 원하는 보안 레벨에 따라, 정확도 및 가버(Gabor) 계수들 뿐만 아니라 차이점 혹은 해밍 거리의 측정(즉, 동일한 거리인 2개의 벡터들 0s 및 1s 사이의 차이에 대한 측정)이 넓은 범위의 엄격함들로 조절될 수 있다. 고-엄격성 홍채코드들을 이용한 등록들 사이의 시간들에서, 실질적으로 지속적인 사용자 신원을 보장하기 위하여, 안구 영역 내의 및 주위의 피처들이 추적된다. 이와 유사하게, 디바이스의 착용자의 신원을 알고 있을 때의 이미지들과 비교되는, 안구 주위의 기록된 피처들의 이미지들 내에서의 매치 정도를 위한 임계값이, 원하는 보안 레벨에 따라 조절될 수 있다. Thus, during normal operation, the user can directly face the camera to wear the device initially and then at least periodically register the high-rigidity iris code thereafter. Depending on the desired security level, accuracy and Gabor coefficients as well as differences or measurements of the Hamming distance (i.e., the measurement of the difference between the two vectors 0s and 1s, which are the same distance), can be adjusted to a wide range of severities . At times between registrations with high-strict iris codes, features within and around the eye region are tracked to ensure a substantially continuous user identity. Similarly, the threshold for the degree of match in the images of the recorded features around the eye, compared with the images when the identity of the wearer of the device is known, can be adjusted according to the desired security level.

예를 들어 국가에 입국할 때 개인을 식별(또는 추방)하기 위해 이용되는 상업적으로 이용가능한 시스템들과 비교하여, 본 발명의 시스템은 다음의 의문을 해결할 수 있다: 임의의 소정 시간에서, 헤드웨어를 착용한 개인의 홍채의 특징들이, 하나의(즉, 타겟) 개인의 홍채에 대한 가버 계수-기반의 묘사와 매칭되는가? 기술적으로는, 이것은, 수 백만개의 홍채 패턴들을 보유한 데이터 베이스 내에서 홍채 이미지가 매칭하는지 혹은 매치를 제공하지 않는지를 증명하는 것보다 훨씬 덜 어려울 수 있다. For example, in comparison with commercially available systems used to identify (or expel) individuals when entering the country, the system of the present invention can solve the following questions: At any given time, Of the iris of an individual wearing the same iris is matched with a representation of the iris of one (i.e., target) individual iris? Technically, this can be much less difficult than proving that the iris image matches or does not provide a match in the database with millions of iris patterns.

CBID 시스템은 헤드웨어 내에서 구현될 수 있는데, 헤드웨어는 머리-장착형 디스플레이, 안구-추적, 및/또는 디바이스의 착용자의 환경을 보여주는 하나 이상의 장면 카메라들을 포함한다. 장면(scene) 카메라들은 "장면" 정보를 캡춰하는 센서들을 포함할 수 있으며, 장면 정보는 가령, RF 또는 IR 파장에서의 에너지와 같이, 그렇지 않으면 착용자에 의해서 알아볼 수 없을 것이다. 헤드웨어는 또한 다른 센서들 가령, 마이크로폰, 가속도계, 터치 패드, 주변 빛 검출기, 갈바닉 피부 센서, 써모미터(thermometer), 펄스 산소농도계(pulse oximeter), 뇌파 검사장치(electroencephalograph: EEG), 근전도 검사장치(electromyograph: EMG)), 심전도 검사장치(electrocardiography: EKG), 심박 변화율 감지 로컬 헤드웨어 포지셔닝 시스템(heart rate variability (HRV) sensing local headwear positioning system), 글로벌 포지셔닝 시스템(GPS), 및/또는 구조적인 완전성(structural integrity) 및/또는 헤드웨어 디바이스의 성능을 측정하는 전자 부품들을 포함할 수 있다. 이러한 착용가능한 센서들로부터 실질적으로 지속적으로 획득된 데이터는 사용자 식별 코드들로 태그될 수 있는데, 이는 정보 소스의 긍정적인 식별을 보장하기 위한 것이다. The CBID system may be implemented in headwear, which includes one or more scene cameras that show the wearer's environment of the head-mounted display, eye-tracking, and / or device. Scene cameras may include sensors for capturing "scene" information, such as energy at the RF or IR wavelength, otherwise the scene information would not be recognizable by the wearer. The headwear may also include other sensors such as a microphone, an accelerometer, a touchpad, an ambient light detector, a galvanic skin sensor, a thermometer, a pulse oximeter, an electroencephalograph (EEG) (EMG), electrocardiography (EKG), heart rate variability (HRV) sensing local headwear positioning system, global positioning system (GPS), and / Electronic components that measure structural integrity and / or performance of a headwear device. Data that is substantially continuously acquired from these wearable sensors can be tagged with user identification codes to ensure positive identification of the information source.

지속적인 생체 인증(Continuous Biometric Identification: CBID)Continuous Biometric Identification (CBID)

도1은 CBID 시스템(100)의 요소들의 예시적인 실시예를 보여주며, 이는 홍채 조명 소스들(130, 135, 140), 홍채(115) 및/또는 안구의 다른 피처들을 보도록 지향된 카메라(125), 및 프로세싱 유닛(165)을 포함한다. 해부학적으로, 홍채(115)는 동공(145)을 둘러싸며, 그리고 그 자신은 공막(150)(sclera) 또는 혈관들 및 다른 식별가능한 마커들을 포함하는 안구의 백색 영역에 의해 둘러싸인다. 주기적으로, 눈꺼풀들(105, 110)은 눈 깜박임 동안 또는 자발적인 눈 감음 동안에 홍채(115) 및 공막(150)의 시야를 방해한다. Figure 1 shows an exemplary embodiment of the elements of the CBID system 100 which includes a camera 125 oriented to view iris illumination sources 130,135 and 140, iris 115 and / or other features of the eyeball. ), And a processing unit 165. Anatomically, the iris 115 surrounds the pupil 145 and is itself surrounded by a sclera 150 or a white area of the eye including blood vessels and other identifiable markers. Periodically, the eyelids 105, 110 interfere with the field of view of the iris 115 and the sclera 150 during blinking or during spontaneous blinding.

프로세싱 유닛(165)은 홍채코드들 및/또는 안구의 이미지들을 생성할 수 있으며 그리고 통신 링크(155)를 통해 보안 정보의 소스 및/또는 수신기인(또는 기능적으로 연결된) 원격 프로세싱 유닛(160)으로 전송할 수 있다. 헤드웨어 디바이스(600)(도5) 상에 마운트된 프로세싱 유닛(165)과 원격 프로세싱 유닛(160) 사이의 통신 링크(155)를 통한 전송들은 암호화될 수 있으며 그리고 유선 및 무선 전송 방법들(155) 둘다의 조합을 채용할 수 있다. 실질적으로 지속적인 긍정적인(positive) 식별의 존재 혹은 부존재에 따라, 원격 프로세싱 유닛(160)은 보안 정보의 프로세싱 및/또는 전송을 허용하거나 숨기기 위한 단계들을 수행할 수 있다. The processing unit 165 may generate images of iris codes and / or eyeballs and may be coupled to a remote processing unit 160 that is (and is functionally connected to) a source and / or receiver of security information via a communication link 155 Lt; / RTI > Transmissions over the communication link 155 between the processing unit 165 and the remote processing unit 160 mounted on the headwear device 600 (FIG. 5) may be encrypted and transmitted over the wire and wireless transmission methods 155 ) Can be employed. Depending on the presence or absence of a substantially continuous positive identification, the remote processing unit 160 may perform steps to allow or hide the processing and / or transmission of the security information.

조명 소스들(130, 135, 140)은 적외선 또는 근적외선 LED 또는 유기 LED(OLED)일 수 있다. 조명 소스들(130, 135, 140)의 강도는, US 8,890,946에 개시된 바와 같이, 카메라(125)의 시야 내에서 감지되는 타겟 휘도 레벨들에 기초하여 제어될 있다. The illumination sources 130, 135, 140 may be infrared or near infrared LEDs or organic LEDs (OLEDs). The intensity of the illumination sources 130, 135, 140 may be controlled based on the target brightness levels sensed within the field of view of the camera 125, as described in US 8,890,946.

마이크로-카메라(125)는 전하결합소자(CCD) 또는 상보적 금속 산화물 반도체(CMOS) 기술들에 기초하여 전자기 방사의 감지를 포함할 수 있는바, 이하에서는 이미저(imager)라 지칭한다. 마이크로-렌즈(120)는 안구의 영역으로부터의 전자기 방사를 카메라(125)의 감지 영역 상에 포커싱한다. The micro-camera 125 may include sensing of electromagnetic radiation based on charge coupled devices (CCD) or complementary metal oxide semiconductor (CMOS) techniques, hereinafter referred to as an imager. The micro-lens 120 focuses the electromagnetic radiation from the region of the eyeball onto the sensing area of the camera 125.

프로세싱 유닛(165)은 필드-프로그램어블 게이트 어레이(FPGA), 마이크로컴퓨터, 마이크로콘트롤러, 주문형 반도체(ASIC) 또는 다른 컴퓨팅 디바이스가 될 수 있다. 프로세싱 유닛(165)은 단일 디바이스가 될 수 있으며 또는 프로세싱 기능들은 개별 물리적 디바이스들의 조립체에 의해서 수행될 수도 있다. The processing unit 165 may be a field-programmable gate array (FPGA), a microcomputer, a microcontroller, an application specific integrated circuit (ASIC), or other computing device. The processing unit 165 may be a single device or the processing functions may be performed by an assembly of discrete physical devices.

도2는 디바이스 사용자를 식별하는 단계들의 예시적인 실시예를 도시한다. 홍채(115)의 영역을 포함하는 이미지(200)는, 해당 기술분야에 공지된 소위 "프레임 그래빙(frame grabbing)" 기법들을 이용하여 디지털화된다(프로세스 205). 디지털화된 이미지(200) 내의 가장 큰 검은 영역의 위치에 기초하여 및/또는 동공(145)과 홍채(115) 사이의 경계(250)에 대한 수학적인 표현들의 중심을 식별함으로써, 동공(145)의 중심이 판별된다(프로세스 210). 동공(145)의 검은 영역과 홍채의 덜 검은, 대리석 색깔(marbled) 영역 사이의 천이에 기초하여, 홍채의 내부 에지(250)가 판별될 수 있다(프로세스 215). 홍채(115)는 대략적으로 원형이라는 해부학적 지식과 함께, 홍채(115)의 대리석 색깔 또는 구조화된 영역과 공막(sclera)(150)의 흰색 영역 사이에서의 천이에 기초하여, 홍채의 외부 에지(즉, 각막윤부:limbus)(245)가 판별된다(프로세스 215). 일반적으로, 홍채(115)의 내부 에지(250) 및 외부 에지(245)는, 동공(145)의 중심에서 안구의 표면에 수직이 아닌 각도들로부터 보여질 때, 카메라 이미지들(200)에서 타원형으로 보일 수 있다. 따라서, 홍채(115)의 내부 및 외부 에지(250, 245)에 대해서 추적된 일반적인 형상들은 대략적으로 타원형이다. 홍채코드들의 상세한 구성은, 홍채(115)의 원 모양으로부터의 전형적인 편차들을 해결해야만 한다(특히, 홍채와 공막(245) 사이의 경계).Figure 2 shows an exemplary embodiment of steps for identifying a device user. The image 200 comprising the area of the iris 115 is digitized using so-called "frame grabbing" techniques known in the art (process 205). By identifying the center of the mathematical expressions on the basis of the position of the largest black region in the digitized image 200 and / or the boundary 250 between the pupil 145 and the iris 115, The center is determined (process 210). Based on the transition between the black region of the pupil 145 and the less black, marbled region of the iris, the inner edge 250 of the iris may be determined (process 215). The iris 115 has an anatomical knowledge of roughly circular shape and is based on a transition between the marble color of the iris 115 or between the structured area and the white area of the sclera 150, Limbus limb) 245 is determined (process 215). In general, the inner edge 250 and outer edge 245 of the iris 115, when viewed from angles that are not perpendicular to the surface of the eye at the center of the pupil 145, . ≪ / RTI > Thus, the general shapes traced for the inner and outer edges 250 and 245 of the iris 115 are approximately elliptical. The detailed configuration of the iris codes should resolve typical deviations from the circular shape of the iris 115 (particularly, the boundary between the iris and the sclera 245).

다음으로, 홍채(115)의 내부 에지(250)와 외부 에지(245) 사이에 위치한 상기 이미지(200) 내의 픽셀들에게 가버 변환 계산(Gabor transformation calculation )(프로세스 220)이 적용된다. 다음으로, 가버 변환의 계수들은 소위 "홍채코드"로 조립되는바(프로세스 225), 여기서 가장 통상적으로 이용되는 2048-비트 홍채코드는, 홍채(115)의 각 영역에서의 가버 변환 계산들의 2개의 최상위 비트들로부터 조립된다. 몇몇 경우에 있어서, 홍채(115)의 영역은, 부분적인 눈꺼풀(105, 110) 닫힘, 그림자(240) 또는 속눈썹(235)로 인하여 모호해질 수도 있다. 이러한 누락 또는 불명확한 정보를 해결하고자, 엄격한 기준이 홍채코드에 연관될 수 있다(프로세스 230). Next, a Gabor transformation calculation (process 220) is applied to the pixels in the image 200 located between the inner edge 250 and the outer edge 245 of the iris 115. Next, the coefficients of the Gabor transform are assembled into a so-called "iris code" (process 225), where the most commonly used 2048- Assembled from the most significant bits. The area of the iris 115 may be ambiguous due to partial eyelid closure 105, 110 closure, shadow 240 or eyelashes 235. In some cases, In order to resolve such missing or unclear information, strict criteria may be associated with the iris code (process 230).

홍채코드를 통해 디바이스 착용자의 신원이 판별되면, 홍채(115)를 둘러싼 영역의 이미지가 디바이스 착용자에 속한 것으로서, 저장 및 등록된다. 상기 이미지는 안구가 돌아다님에 따라 홍채코드가 더 이상 계산될 수 없는 조건들 하에서 비교 기준으로서 후속으로 이용될 수 있다. 홍채(115)의 이미지는 그림자들(240), 눈꺼풀(105, 110) 또는 속눈썹(235)으로 인한 차단 때문에, 또는 홍채(115)가 카메라(125)의 중앙 시야에 비하여 충분하게 축을 이탈했기 때문에, 모호해질 수 있다. 이러한 조건들이 발생하면, 기준 이미지 내의 구별되는 피처들이, 디바이스 착용자의 신원을 실질적으로 지속적으로 판별하는데 이용될 수 있다. 이들 피처들은 공막(150), 공막(150) 내의 혈관들의 위치들 및 패턴들, 눈꺼풀(105, 110)의 형상, 속눈썹(235)의 위치 및 형상, 뿐만 아니라 보충적인 생체 측정들(즉, 생리학적인 및 해부학적인 측정들)을 포함할 수 있는바, 이에 대해서는 후술될 것이다.If the identity of the device wearer is determined via the iris code, the image of the area surrounding the iris 115 is stored and registered as belonging to the device wearer. The image may be subsequently used as a comparison criterion under conditions in which the iris code can no longer be calculated according to the eyeball turning. The image of the iris 115 is blocked because of blockage due to shadows 240, eyelids 105, 110 or eyelashes 235 or because the iris 115 has deviated sufficiently off the axis relative to the central field of view of the camera 125 , Can be ambiguous. When these conditions occur, the distinguishing features in the reference image can be used to substantially continuously determine the identity of the wearer of the device. These features may include supplemental biometric measurements (i.e., physiology, physiological, and biochemical) as well as the location and shape of the sclera 150, the locations and patterns of blood vessels in the sclera 150, the shape of the eyelids 105 and 110, And anatomical measurements), which will be described below.

도3은 소정 시간에서 디바이스의 착용자가 긍정적으로 식별되는지의 여부를 판별하기 위한 실질적으로 지속적인 결정 프로세스를 예시한 순서도이다. 이러한 결정 프로세스는 홍채-추적 카메라(125)로부터 이미지를 획득함으로서 개시되고(프로세스 300) 그리고 홍채코드에 대한 계산을 시도한다. 카메라 이미지들을 디지털화하기 위한 방법들 및 홍채코드들의 계산은 도2에 보다 상세히 서술되며, 그리고 예를 들어, US 5,291, 560에 개시된 바와 같이 당업계에 공지되어 있다. 다음 단계(프로세스 305)는 실행가능한(viable) 홍채코드가 결정되었는지의 여부를 판별하는 것이다. 실행불가능한(non-viable) 홍채코드의 이유들은, 부분적으로 감겨진 눈꺼풀, 완전히 감겨진 눈꺼풀(즉, 자발적인 눈 감음 혹은 비자발적인 눈 깜박임), 홍채(115)를 모호하게 하는 그림자(240), 대략 믹대(rod) 형상의 영역들을 모호하게 하는 속눈썹, 및/또는 카메라(125)의 시야의 중앙으로부터 충분히 떨어지도록 회전된 홍채(115)를 포함한다. 3 is a flow chart illustrating a substantially continuous decision process for determining whether a wearer of the device is positively identified at a predetermined time. This determination process is initiated (process 300) by acquiring an image from the iris-tracking camera 125 and attempts to calculate the iris code. Methods for digitizing camera images and calculation of iris codes are described in more detail in FIG. 2 and are known in the art, for example, as disclosed in US 5,291,560. The next step (process 305) is to determine if the viable iris code has been determined. The reasons for the non-viable iris code are partially wrapped eyelids, fully wrapped eyelids (i.e., spontaneous blinding of eyes or involuntary blinking of eyes), shadow (240) obscuring iris 115, An eyelash that obscures areas of rod-like shape, and / or iris 115 that is rotated sufficiently away from the center of the field of view of camera 125.

만일, 실행가능한 홍채코드가 계산될 수 있다면, 이것은 의도된 또는 타겟 디바이스 사용자의 기결정된 홍채코드와 비교된다(프로세스 310). 이러한 비교의 엄격성은, 디바이스 사용자 보안의 원하는 레벨에 따라 조절될 수 있다. 만일, 착용자의 신원과의 긍정적인(positive) 매치가 있다면, 상기 긍정적인 매치의 시간은 프리-러닝 클럭(free-running clock)(335)으로부터 획득되는 현재 시간으로 설정되며(프로세스 315), 눈 주위의 영역 내의 피처들은 타겟 디바이스 사용자의 것으로 저장 및 등록되며(프로세스 320), 긍정적인 식별 상태의 불린(Boolean) 표시자는 "참(true)"으로 설정된다(프로세스 345). If an executable iris code can be computed, it is compared to the predetermined iris code of the intended or target device user (process 310). The severity of this comparison can be adjusted according to the desired level of device user security. If there is a positive match with the wearer's identity, the time of the positive match is set to the current time obtained from the free-running clock 335 (process 315) The features in the surrounding area are stored and registered as the target device user (process 320) and the Boolean indicator of the positive identification status is set to "true" (process 345).

만일, 홍채코드가 계산될 수 없다면(프로세스 305), 홍채코드가 연장된 기간에 대하여 이용불가능했는지를 판별하기 위해 체크가 수행된다(프로세스 325). 만일, 홍채코드가 최근에 판별되었다면, 눈 주위의 영역의 이미지 내의 피처들이 긍정적인 식별(프로세스 345)의 시간들에서 저장된 이미지들과 비교된다. 만일, 이들 피처들의 충분한 매치가 있다면, 긍정적인 식별의 불린(Boolean) 표시자는 "참(true)" 상태를 유지하며 그리고 새로운 이미지가 획득된다. If the iris code can not be calculated (process 305), a check is performed (process 325) to determine if the iris code was unavailable for an extended period of time. If the iris code has been recently determined, the features in the image of the area around the eye are compared with the stored images at times of positive identification (process 345). If there is a sufficient match of these features, the Boolean indicator of positive identification remains "true" and a new image is acquired.

만일, 새롭게 판별된 홍채코드가 의도된 디바이스 착용자의 그것과 매치하지 않는다면(프로세스 325), 또는 홍채코드가 소정 시간 동안 계산되지 않았고(프로세스 330) 그리고 눈 주위의 피처들의 불충분한 매치가 있다면(프로세스 340); 프리-러닝 클럭에 의해서 등록된 현재 시간(프로세스 330)과 긍정적인 식별의 가장 최근 시간 사이의 차이값이 계산된다. 만일, 이러한 차이값이 기결정된 임계 시간보다 크다라고 판별되면, 긍정적인 식별 상태의 불린(Boolean) 표시자는 "거짓(false)"으로 설정된다(프로세스 340). If the newly identified iris code does not match that of the intended wearer of the device (process 325), or if the iris code is not calculated for a predetermined time (process 330) and there are insufficient matches of features around the eye 340); The difference between the current time registered by the pre-running clock (process 330) and the most recent time of positive identification is calculated. If it is determined that this difference value is greater than the predetermined threshold time, the Boolean indicator of the positive identification state is set to "false" (process 340).

기결정된 임계 시간은, 가령, 디바이스 착용자의 "정상적인" 눈깜박임 동안에 사용자를 긍정적으로 식별하도록, 짧은 기간들의 불능(inability)을 허용하는 값으로 조절된다. 따라서, 본 명세서에서 사용되는 바와 같은, "지속적으로" 및 "실질적으로 지속적으로" 라는 판단은, 사용자를 긍정적으로 식별하기 위하여, 이러한 짧은 기간들의 불능을 포함할 수 있다. 일반적으로, 임계 시간은 0.1초(즉, 빠른 눈깜박거림의 지속기간)에서 10초 사이의 값으로 설정되며, 여기서 후자의 값은 최소 보안이며, 이는디바이스 착용자가 헤드웨어로부터 벗어나 곳을 짧은 기간들 동안 볼수 있게 한다. 전형적인 임계값은 0.3초이다, The predetermined threshold time is adjusted to a value that allows the inability of short periods, for example, to positively identify the user during a "normal" eye flicker of the wearer of the device. Thus, the determinations "continuously" and "substantially continuous ", as used herein, may include the inability of these short periods to positively identify the user. In general, the threshold time is set to a value between 0.1 seconds (i.e., the duration of a fast blink) to 10 seconds, where the latter value is minimum security, So that you can see them while you are there. A typical threshold is 0.3 seconds,

신규 이미지가 획득되면(프로세스 300), 전체적인 결정 프로세스가 반복되어, 실질적으로 지속적인 식별을 제공한다. 사용자 식별 상태는 시스템과 관련된 모든 전송들에 첨부될 수 있다(프로세스 345). 대안적으로, 홍채(115)의 이미지들은 외부 프로세싱 유닛으로 전송될 수 있으며 그리고 디바이스 착용자가 긍정적으로 식별되는지의 여부를 판별하기 위한 결정 프로세스는 원격으로 실행될 수 있다. Once the new image is acquired (process 300), the overall decision process is repeated to provide a substantially continuous identification. The user identification state may be attached to all transmissions related to the system (process 345). Alternatively, the images of the iris 115 may be transmitted to the external processing unit and the decision process for determining whether the device wearer is positively identified may be performed remotely.

도4는 디스플레이(710) 및/또는 외부 디바이스를 통한 보안 정보(155)의 전송을 제어하는 어플리케이션들 동안의 예시적인 실시예이다. 홍채 및/또는 안구의 영역 내의 피처들의 이미지들은 카메라(125)에 의해서 실질적으로 지속적으로 획득되며 그리고 이들 이미지들 내에서의 매치의 정도에 기초하여, 실질적으로 지속적인 디바이스 착용자 식별 상태가 프로세싱 유닛(165)에 의해서 판별된다. 디바이스 착용자 식별 상태는 통신 링크(155)를 통해 외부 프로세싱 유닛으로 전송된다. 이후, 임의 개수의 다른 프로세싱 유닛들(400)은 실질적으로 지속적으로 검증된 개인에 의해서 보안 정보가 디스플레이(710) 및 시청되게 할 수 있다. 4 is an exemplary embodiment during applications that control the transmission of security information 155 via display 710 and / or external devices. Images of features in the region of the iris and / or eye region are substantially continuously acquired by the camera 125 and based on the degree of match in these images, a substantially continuous device wearer identification state is detected by the processing unit 165 ). The device wearer identification state is transmitted via the communication link 155 to the external processing unit. Thereafter, any number of other processing units 400 may cause the security information to be viewed and viewed by the substantially continuously verified individual.

생체 인증은 하나 이상의 시간들(즉, 세션들) 동안에 발생할 수 있거나, 또는 사용자 검증을 요구하는 안구-신호 제어 프로세스 이전, 동안, 또는 이후인 시간들의 임의의 조합에서 발생할 수 있다. 예를 들어, 시험을 치르는 개인은 시험 기간 이전 및 이후 둘다에서, 생체 인증을 야기하는 안구 신호 커맨드 시퀀스를 실행할 것을 요구받을 수 있다. 온라인 구매는, 거래를 야기하는 안구-신호 시퀀스와 동시에 뿐만 아니라, 거래가 수행되기 전에(예컨대, 거래의 총 비용에 대한 사전-인증 단계가 발생할 수도 있는 시간 동안에) 인증을 요구할 수 있다. 안구-신호 제어들, 그리고 가능하면 다른 제어들을 이용하여 보안 법적 문서를 판독하는 것은, 반복된 생체 인증을 요구할 수 있는데, 이는 판독 프로세스 동안에 이용되는 모든 안구 신호들에 동기화된다. The biometric authentication may occur during one or more times (i.e., sessions), or may occur in any combination of times before, during, or after the eye-signal control process requiring user verification. For example, an individual who is taking a test may be required to perform an ocular signal command sequence that causes biometric authentication, both before and after the test period. Online purchases may require authentication not only simultaneously with the eye-to-signal sequence causing the transaction, but also before the transaction is performed (e.g., during a pre-authentication phase for the total cost of the transaction). Reading the security document using eye-signal controls, and possibly other controls, may require repeated biometric authentication, which is synchronized to all of the eye signals used during the reading process.

보충적인 생체 측정들(Supplementary Biometric Measures)Supplementary Biometric Measures

또 다른 실시예는 개인의 신원 및 기능적 상태(functional state) 둘다를 실질적으로 지속적으로 더 모니터링하기 위하여 해부학적인 및 생리학적인 피처들의 사용을 포함한다. 안구 신호들의 정확한 추적을 위하여, 눈의 해부학적 피처들의 형상들, 치수들, 및/또는 상대적인 공간적 위치들이 헤드웨어 디바이스에게 알려져야만 한다. 따라서, 정상 동작 동안, 이들 피처들은 일반적으로 디바이스에게 이용가능한바, 왜냐하면 이들은 정확한 안구 추적을 생성하는데 이용되는 조정 계수들 중 많은 것을 위한 설립 기초를 형성하기 때문이다. 이와 함께, 이들은 또한, 디바이스 착용자의 신원을 검증(실질적으로 지속적으로)하는데도 사용될 수 있다. 이것은 가령, 눈 깜박임 동안, 홍채가 속눈썹들 또는 다른 구조물들에 의해서 모호해질 때, 및/또는 하나 또는 2개의 눈들을 바라보는 카메라(들)로부터 떨어진 곳을 홍채가 포인팅할 때 등과 같이 홍채코드들이 지속적으로 이용가능하지 않은 기간들 동안에 특히나 유용하다. 사용자 신원의 구성요소들이 될 수 있는 이러한 해부학적 피처들의 일례들은 다음을 포함한다.Yet another embodiment includes the use of anatomical and physiological features to substantially continuously and continuously monitor both an individual's identity and a functional state. For accurate tracking of ocular signals, the shapes, dimensions, and / or relative spatial positions of the eye's anatomical features must be known to the headwear device. Thus, during normal operation, these features are generally available to devices, since they form the foundations for many of the adjustment factors used to generate accurate eye tracking. In addition, they can also be used to verify (substantially continuously) the identity of the wearer of the device. This can be achieved, for example, during iris flickering, when the iris is ambiguous by eyelashes or other structures, and / or when the iris is pointing away from the camera (s) looking at one or two eyes It is particularly useful during periods of inactivity that are not continuously available. Examples of such anatomical features that may be components of the user identity include:

● 각막 반경(corneal radius)(형상이 타원체가 될 수 있으므로 2차(second-order) 파라미터들을 포함함)Corneal radius (including second-order parameters because the shape may be ellipsoidal)

● 동공 깊이Pupil depth

● 안구 지름Eyeball diameter

● 각막윤부 지름(limbus radius)● limbus radius

● 광 축 및 시각적 축 사이의 오프셋● Offset between optical and visual axes

● 인조 렌즈 파라미터(synthetic lens parameter)(수정체를 인조 렌즈로 대체하기 위한 백내장 수술은 미국에서 1 년에 270만번 수행된다). • Synthetic lens parameters (cataract surgery to replace lenses with artificial lenses is performed 2.7 million times a year in the US).

● 결막황반(pinguecula)(눈의 햐안(공막) 부분의 결막을 두껍게 하는 황반), 익상편(pterygium)(웨지-형상의 성장), 사시(strabismus)(crossed eyes), 약시(amblyopia)(lazy eye) 등의 다양한 질환들● pinguecula (a macular thickening of the conjunctiva of the eye's sclera), pterygium (wedge-shaped growth), strabismus (crossed eyes), amblyopia (lazy eye ) And various diseases

● 일반적인 눈꺼풀 위치● Normal eyelid position

● 속눈썹 두께, 밀도, 색상, 범위, 길이● Eyelash thickness, density, color, range, length

● 안구 열극 형상 및 측정치(eye fissure shape and measurements )● eye fissure shape and measurements

● 카메라의 시야에 따른 눈썹 헤어, 구조, 위치, 색상, ● Eyebrow according to the field of view of the camera hair, structure, position, color,

● 카메라의 시야에 따른 눈꺼풀의 피부 구성(skin composition) 및 주변 조직● Skin composition and surrounding tissues of the eyelids according to the camera's field of view

또 다른 해부학적 팩터들 가령, 코의 사이즈 및 형상(일반적으로 디바이스가 머리 상에 어떻게 놓여있는지에 영향을 받으며 따라서 눈에 대한 카메라들 및 조명 소스들의 위치들에 영향을 미친다)이 존재하는데 이들은, 사용자 식별 목적으로는 덜 유용하다. There are other anatomical factors, such as the size and shape of the nose (which is generally influenced by how the device lies on the head, thus affecting the positions of the cameras and illumination sources relative to the eye) It is less useful for user identification purposes.

하지만, 카메라들과 눈의 피처들 사이의 거리들의 측정치들(다시한번 말하면, 디바이스가 코 위에 어떻게 놓여있는지에 크게 영향을 받음)은, 예를 들어, 디바이스가 머리로부터 제거되었는지의 여부를 판별하는데 이용될 수 있다. 만일, 디바이스가 머리로부터 제거되었다면, 디바이스가 헤드 상에 다시 놓여지고 그리고 고-엄격성(예컨대, 매칭된 홍채코드)의 인증 절차가 실행될 때까지, 고 보안성의 행위들 및 거래들을 디바이스가 행하는 것을 금지하는 표시자가 설정될 수 있다. However, the measurements of the distances between the cameras and the eye features (again, largely influenced by how the device lies on the nose), for example, determines whether the device has been removed from the head Can be used. If the device has been removed from the head, then the device is put back on the head and the device performs high security behaviors and transactions until a high-rigidity (e.g., matched iris code) authentication procedure is performed A prohibiting indicator can be set.

또한, 디바이스에 의해서 측정되는 생리학적인 응답들은, 개인의 신분증명(identification) 또는 "시그너처(signature)" 내의 고유 식별자들의 성분들이 될 수 있다. 디바이스에 의해서 측정되며, 따라서 사용자 신원의 성분들이 될 수 있는 생리학적 피처들의 일례들은 다음을 포함한다. In addition, the physiological responses measured by the device may be components of unique identifiers in an individual's identification or "signature ". Examples of physiological features that are measured by a device and thus can be components of a user identity include:

● 빛의 변화들에 응답하는(이는 디바이스 착용자의 연령에 매우 의존함) 또는 특정한 자극(빛, 감정적 응답, 인지 부하(cognitive load))에 응답하는 동공의 수축 또는 확장의 정도 • The degree of contraction or expansion of the pupil in response to changes in light (which is highly dependent on the age of the wearer of the device) or a specific stimulus (light, emotional response, cognitive load)

● 빛의 변화에 응답하는 동공 수축 혹은 확장의 속도(rate) The pupil contraction or expansion rate in response to changes in light (rate)

● 동공이 수축 또는 확장할 때의 동공의 수평 및 수직 변위들Horizontal and vertical displacements of the pupil as the pupil contracts or expands

● 자발적인 단속성 운동들(voluntary saccadic movements)의 범위 및 속도● Scope and speed of voluntary saccadic movements

● 마이크로 단속운동(micro-saccade)의 범위, 빈도, 및 속도 The range, frequency, and speed of micro-saccades

● 안구 떨림(tremors), 드리프트들, 및 다른 안구 운동들의 정도, 존재, 범위, 빈도, 및 패턴The degree, presence, extent, frequency, and pattern of tremors, drifts, and other eye movements

● 이향운동 안구 움직임들(vergence eye movements) 사이의 상관 정도(2 개의 눈들이 모니터링될 때)The degree of correlation between vergence eye movements (when two eyes are monitored)

● 디바이스 착용자가 새로운 타겟을 식별 및 추적하는 속도● The speed at which device wearers identify and track new targets

● 주파수, 속도, 지속기간, 발생 등의 깜박임 거동● Flicker behavior such as frequency, speed, duration,

● 사용자가 안구 신호들을 수행하는 방식, 이는 안구-제어를 위한 문법 또는 상호작용 모델의 일부일 수 있음● How the user performs eye signals, which may be part of the grammar or interaction model for eye-control

● 시각적 자극, 생체측정 데이터, 및 위치, 시간, 활동성(activity), 신체 또는 인지 상태 및 의지(physical or cognitive state and intent)를 포함하는 다른 데이터 관점에서의 안구 신호들 Eye signals in terms of visual stimulus, biometric data, and other data including location, time, activity, physical or cognitive state and intent,

● 눈꺼풀 및 주변 피부 조직의 움직임, 안면 근육 활동 부호화 체계(Facial Actions Coding System: FACS) 내에 카탈로그화된 보여질수 있는 피부, 근육 및 움직임들에 아마 기초할 수도 있음Maybe based on the movements of the eyelids and surrounding skin tissue, the skin, muscles and movements that are cataloged in the Facial Actions Coding System (FACS).

● 디바이스 착용자의 "경험"에 관련된 다양한 파라미터들(초보 사용자와 비교하여)● Various parameters related to the "experience" of the wearer of the device (compared to novice users)

상기 리스트의 후단 피처들, 디바이스 착용자 경험은, "생리학적" 측정으로 엄격하게 분류되지 않을 수도 있다. 경험은 디바이스에 의해서 유지되는 계수들의 클러스터 내에서 반영되는바, 이는 디바이스와 함께 소모된 시간, 주시 시간들(fixation times), 반응 시간들의 히스토리, 다양한 데이터 타입들의 맥락화(contextualization) 및 디바이스 착용자에 의한 의도하지않은 선택들(즉, 나중에 보정된)의 빈도에 주로 기초하여 사용자의 "경험"을 반영한다. 디바이스에 의해서 이용되는 이러한 데이터들의 하나의 일례는, 안구 신호들의 부드러운 추격 동안에, 소위 "아이무버(eyemovers)"(즉, N개 중 1을 선택하도록(make a 1 of N selection), 사용자에게 그들의 눈(들)을 움직이도록 촉구하는 타겟들)의 속도를 조절하는 것이다. The back end features of the list, the device wearer experience, may not be strictly classified as "physiological" measurements. The experience is reflected in the cluster of coefficients maintained by the device, which includes the time consumed with the device, fixation times, the history of the reaction times, the contextualization of the various data types, Reflects the user ' s ' experience ' mainly based on the frequency of unintended selections (i.e., corrected later). One example of such data used by the device is the so-called "eyemovers" (i.e., make a 1 of N selection) The targets which urge the eye (s) to move).

사용자 경험은, 물체를 측량하거나 또는 문자를 읽는 것 등의 행동들을 수행할 때에 측정될 수 있는 다수의 거동적 특징들의 일례이다. 이들 거동적 생체측정들(behavioral biometrics) 또는 행위들을 수행하는 "스타일"은 과거 경험, 익숙함(familiarity), 흥미(interest), 기타 등등의 팩터들에 기초할 수 있다. 일부 거동적 특징들은 해부학적 및 생리학적 영향들(influences)을 포함할 수 있다. 비유로서, 개인의 걸음걸이(gait)는 이러한 행위의 큰 규모의 일례이다. 안구 신호들의 경우에 있어서, 정확한 부착점들(exact attachment points) 및 각각의 눈을 콘트롤하는 6개의 근육들의 수축력은 안구 운동의 거동적 생체측정(behavioral biometrics)에 영향을 미칠 수 있다. The user experience is an example of a number of dynamic features that can be measured when performing actions such as measuring an object or reading a character. These "behavioral biometrics" or "styles" that perform actions can be based on factors such as past experience, familiarity, interest, and so on. Some hyperactive features may include anatomical and physiological influences. As a parable, the gait of an individual is a large-scale example of such an act. In the case of ocular signals, the exact attachment points and the contraction force of the six muscles controlling each eye can affect behavioral biometrics of eye movements.

실제 및 가상 객체들과 상호작용하기 위한 생체역학-기반의 안구 신호들을 위한 시스템들 및 방법들(Systems and Methods for Biomechanically-Based Eye Signals for Interacting with Real and Virtual Objects)에 서술된 바와 같이, 안구 신호들을 분류하는 방법 중 하나는 개인의 안구 운동 특징들을 알아차리도록 훈련된 신경 네트워크들의 적용이다. 특정한 운동 특징들 뿐만 아니라 사용자 경험도, 개인을 식별하는데 이용될 수 있다(즉, 유추에 의한, 개인의 "눈-걸음걸이(eye-gait)"). As described in Systems and Methods for Biomechanically-Based Eye Signals for Interacting with Real and Virtual Objects for interacting with real and virtual objects, One of the ways to classify neurons is the application of neural networks trained to recognize the characteristics of an individual's eye movement. User experience as well as specific motor characteristics can be used to identify an individual (ie, an "eye-gait" of an individual, by analogy).

가령, 일란성 쌍생아를 구별하는 것과 같은 일부 경우들에서, 일부 해부학적 피처들의 독특한 변이들은 생체 인증에 실제로 이용되기에는 너무 미세할 수도 있지만, 이들 해부학적, 생리학적, 및/또는 거동적 피처들은 개인들에게 고유하다. For example, in some cases, such as identifying identical twins, unique variations of some anatomical features may be too small to be actually used for biometric authentication, but these anatomical, physiological, and / .

이러한 단점들을 감안하면, 이것은 구별력을 제공하는 독립 피처들의 조합이다. Given these shortcomings, this is a combination of independent features that provide differentiation power.

만일, 각막윤부(limbus)의 지름에 대한 측정이 개인들을 10개의 그룹들 중 하나로 일관되게(즉, 반복적으로) 분류할 수 있는 분해능을 가지며 그리고 대규모 단속성 운동들(large saccadic movements) 동안에 획득된 최대 속도(각막 윤부 지름에 종속되는 것은 아니라고 가정하자)가 개인들을 15개의 그룹들 중 하나로 더 분류할 수 있다면, 개인을 식별함에 있어서, 이들 2개의 독립적인 측정들의 조합된 파워는 150(10*15)개 중 하나이다. 독립적인 및 구별되는 피처들의 곱셈 성질(multiplicative nature)은 개인들을 구별하는데 상당한 파워를 제공한다. If the measurement of the diameter of the limbus is a resolution that can consistently (i. E., Iteratively) classify individuals into one of ten groups and that is obtained during large saccadic movements If the maximum velocity (assuming that it is not dependent on the corneal limbus diameter) can further categorize individuals into one of 15 groups, in identifying an individual, the combined power of these two independent measurements is 150 (10 * 15). The multiplicative nature of the independent and distinct features provides considerable power to distinguish individuals.

특히, 홍채 인증이 이용될 수 없는 시간들 동안에(예컨대, 눈꺼풀, 속눈썹에 의해서 홍채가 모호해지거나, 또는 초점을 벗어난 경우), 해부학적인, 생리학적인, 및 거동적 파라미터들이 사용자 인증의 지속성을 유지하는데 이용될 수 있다. 또한, 많은 어플리케이션들에서, 디바이스는 착용자의 특징들이, 한명의, 신원확인된 개인의 특징들과 매칭하는지 또는 적은 숫자의 알려진 개인들의 멤버인지를 판별할 것을 요구받는다. 이것은 예를 들어, 많은 수의 개인들 중 한 사람이 디바이스 착용으로부터 배제될 수 있는지의 여부를 식별하는 것보다, 훨씬 간단한 분류 프로세스이다. 하나 이상의 해부학적, 생리학적, 또는 거동적 측정값들에서의 편차는, 디바이스 사용자가 바뀌었음을 나타낼 수 있다.In particular, anatomical, physiological, and dynamic parameters maintain the persistence of user authentication during periods when iris authentication is not available (e.g., when the iris is obscured by the eyelids, eyelashes, or out of focus) Can be used. In addition, in many applications, the device is required to determine whether the wearer's features match one, identified person's characteristics, or a small number of known individuals. This is a much simpler sorting process than, for example, identifying whether one of a large number of individuals can be excluded from wearing a device. A deviation in one or more anatomical, physiological, or dynamic measurements may indicate that the device user has changed.

이러한 신원확인 특징들은 또한, 다른 보안 토큰들, 가령, 정보 토큰들(패스워드), 물리적 토큰들(키), 생성된 토큰들(스피치, 제스처, 글씨쓰기), 다른 생체측정 토큰들(지문, 음문), 기타 등등과 조합될 수 있다. These identification features may also include other security tokens, such as information tokens (passwords), physical tokens (keys), generated tokens (speech, gestures, ), And the like.

본 명세서의 시스템들 및 방법들의 또 다른 예시적인 실시예는 개인 사용자와 관련된 보정 파라미터(calibration parameter)들을 찾아내고 검색하도록 홍채 인식을 이용하는 것을 포함한다. 모르는 또는 새로운 디바이스 사용자가 디바이스를 그/그녀의 머리에 착용할 때, 보정 파라미터들을 알지 못하는 것이 일반적이다. 눈을 바라보는 카메라의 일반적인 방향으로 응시하도록 사용자에게 지시하거나 또는 정상적인 안구 운동들 동안 하나 이상의 카메라들이 홍채를 바라보게 하는 프로세스를 통해, 초기 홍채코드가 생성될 수 있다. Another exemplary embodiment of the systems and methods herein includes using iris recognition to find and retrieve calibration parameters associated with an individual user. It is common for unknown or new device users to know the calibration parameters when they wear the device on his / her head. An initial iris code may be generated through a process that directs the user to gaze in the general direction of the camera looking at the eye, or through a process in which one or more cameras look at the iris during normal eye movements.

다수 카메라 구성들(Multiple Camera Configurations)Multiple Camera Configurations

안구의 정상 움직임 동안 홍채의 일부분들이 모호해질 수도 있는 경우, 하나의 카메라에 의해서 서로 다른 시간들에서 찍은 홍채 이미지들의 부분들 및/또는 다수의 카메라들을 이용하여 서로 다른 방향들로부터 본 홍채 이미지들을 "함께 스티치(stitch together)" 하는 것이 유용할 수 있다. 눈을 보기 위하여 다수의 카메라들을 이용하는 것이 도5 및 도6에 예시된다. Iris images seen from different directions using portions of iris images taken at different times by one camera and / or multiple cameras when the iris portions may be ambiguous during the normal movement of the eye are referred to as " Stitch together "may be useful. The use of multiple cameras to view the eyes is illustrated in Figures 5 and 6.

대안적으로, 홍채코드들 자신들은(즉, 세그멘테이션 프로세스 다음으로 계산된), 홍채의 서로 다른 이미지들로부터 "함께 스티치"될 수도 있다. 다시 한번 설명하면, 이들 이미지들은 서로 다른 시간들에서 취해질 수도 있으며, 또는 서로 다른 카메라들에 의해서 또는 서로 다른 시간들 및 카메라 각도들의 조합들로 취해질 수 있다. 이러한 접근법의 구성요소로서, 다수의 이미지들 내에서 성공적으로 보여지는 홍채의 일부분들은 평균화될 수 있는바(홍채코드를 계산하기 이전에 또는 이후에), 이는 신뢰성(reliability)을 향상시키고 및/또는 이미지 잡음의 영향들 방지하기 위한 것이다. Alternatively, the iris codes themselves may be "stitched together " from different images of the iris (i.e., computed after the segmentation process). Again, these images may be taken at different times, or taken by different cameras or at different times and combinations of camera angles. As an element of this approach, portions of the iris that are successfully seen in a plurality of images can be averaged (before or after calculating the iris code), which improves reliability and / To prevent the effects of image noise.

눈에 띄지 않는(unobtrusive) CBID에 관련된 문제점들 중 하나는, 눈을 지향하도록 된 카메라(들)이 일반적으로 눈의 시각적 혹은 광학적 축 중 어느 하나와 비교하여 오프-축(off-axis)이라는 사실과 관련이 있다. 이것은 홍채의 "오프-축" 뷰(view)를 야기한다. 또한, 정상적인 안구-신호 기능들 동안에 안구가 움직이기 때문에, 홍채가 "오프-축" 되는 정도가 변한다. 만일, 사용자가 소정 방향을 보고 있는 중일 때 홍채 템플릿(iris template)이 등록된다면, 홍채 템플릿이 등록되었던 방향으로부터 눈이 회전하기 때문에, 동일한 홍채를 식별하는 것이 점점 더 어려워질 것이다. One of the problems associated with unobtrusive CBID is the fact that the camera (s) that are aimed at the eye are generally off-axis relative to either the visual or optical axis of the eye . This causes an "off-axis" view of the iris. Also, since the eye moves during normal eye-to-eye functions, the degree to which the iris is "off-axis" changes. If the iris template is registered while the user is looking in a certain direction, it will become increasingly difficult to identify the same iris because the eyes rotate from the direction in which the iris template was registered.

"오프-축" 에 대한 하나의 해결책은 서로 다른 시야 각도들에서 눈을 관찰하는 다수의 카메라들을 이용하는 것이다. 임의의 소정 시간에서, 온-축(on-axis)에 가장 가까운 카메라로부터 이미지들이 선택될 수 있는데, 온-축은 예를 들어, 가장 원형인(매우 타원형인 것에 비하여) 내부 및 외부 홍채 경계들에 기초하여 파악될 수 있다. 정상 동작들 동안에 안구가 움직이기 때문에 가장 "온-축"인 카메라는 변할 수 있다. One solution to the "off-axis" is to use multiple cameras that observe the eye at different viewing angles. At any given time, images may be selected from the camera closest to the on-axis, such that the on-axis may be selected, for example, at the inner and outer iris boundaries (relative to being very oval) Can be grasped. The camera that is most "on-axis" may change because the eye moves during normal operations.

이러한 문제점에 대한 또 다른 해결책은 서로 다른 시야 각도들(viewing angles)에서 수집된, 개인에 대한 다수의 홍채 템플릿들을 저장하는 것이다. Another solution to this problem is to store multiple iris templates for an individual, collected at different viewing angles.

안구 추적의 결과로서, 사용자의 시야 방향은 알고 있기 때문에, 다음과 같은 것이 가능하다; 1) 다수의, 알고 있는 시야 방향들에서의 홍채코드들을 저장하고 그리고 2) 이에 후속하여, 알려진 시야 방향들에서 임의의 시간에 수집된 홍채코드들을, 동일한 혹은 가장 가까운 시야 방향에서 수집 및 등록된 홍채코드들과 비교한다.As a result of eye tracking, since the user's view direction is known, it is possible to: 1) store iris codes in a plurality of known viewing directions, and 2) thereafter, collect iris codes collected at any time in known viewing directions in the same or nearest viewing directions, Compare with iris codes.

오프-축 뷰잉(off-axis viewing)의 정도는, 다수의 카메라들 및/또는 다수의 홍채코드들을 사용하여 감소될 수 있다. 온-축에 가장 가까운 카메라로부터 이미지들을 선택함으로써, 홍채의 모스트 다이렉트 뷰(most direct view)가 획득될 수 있다. 알려진 개인들로부터 홍채코드들을 등록하고 개인의 신원을 실시간으로 등록하는 것 둘다는, 가장 온-축인 카메라의 이미지들에 기초할 수 있는데, 이는 신원확인 강건성(identification robustness)을 개선하기 위한 것이다. The degree of off-axis viewing can be reduced using multiple cameras and / or multiple iris codes. By selecting images from the camera closest to the on-axis, a most direct view of the iris can be obtained. Both registering iris codes from known individuals and registering the identity of an individual in real time can be based on images of the most on-axis camera, which is to improve identification robustness.

이와 유사하게, 이들 체계들 모두는, 템플릿을 등록하거나 신원확인을 위해 홍채코드를 실시간으로 계산하기 전에, 온-축이 되도록 홍채의 이미지를 수치적으로(numerically) "회전" 시키는 것과 일치한다. 많은 안구-추적 체계들에서, 광 축과 뷰잉 카메라의 방향 사이의 각도는, 시선 방향(gaze direction)을 계산하기 위하여 알려져야만 한다. 이것은 회전 변환을 적용하기 위한 키 계수들(key coefficients)을 제공하며, 이는 동공(혹은 각막윤부)의 중심에 수직인 축을 따라 보여지는 것처럼, 눈의 이미지가 보여지게 한다. Similarly, all of these schemes are consistent with numerically "rotating" the image of the iris to be on-axis before registering the template or calculating the iris code in real time for identification. In many eye-tracking systems, the angle between the optical axis and the direction of the viewing camera must be known in order to calculate the gaze direction. This provides key coefficients for applying a rotational transformation, which allows the image of the eye to be seen as seen along an axis perpendicular to the center of the pupil (or corneal limbus).

이들 홍채코드들은 원하는 뷰들을 수용하는 통상적인 렌즈들 또는 홀로그램(holographic) 렌즈들을 이용하여 수집될 수 있다. 또한, 홍채코드들이 수집될 수 있는데, 눈의 이미지들은 하나 이상의 반사 표면들에서 반사된다. 이러한 표면들은 하나의, 대형 반사 표면 또는 다수의 반사 표면들(즉, 다수의 마이크로-미러들) 주위에 설계될 수 있다. 이들 미러-기반 시스템들은, 통상적인 반사 표면들의 형태이거나 또는 광 시스템의 물리적 특징들(예컨대, 무게, 사이즈)을 최소화하도록 설계된 소위(so-called) 자유-형태 광 경로(free-form optical pathway) 내에 있을 수도 있다. 또한, 이들은 가시 파장들의 빛에서 뷰들을 방해함이 없이 CBID를 가능케하도록, 선택된 파장들의 빛을 반사시킬 수 있다(예컨대, 소위 "핫 미러"). 자유-형태 옵틱스 설계는, 광 축 또는 광 축 부근에서 눈을 볼수 있는 능력을 유지하면서도, 안경류(eyewear)의 에지를 따라 카메라들이 눈에 띄지 않게(unobtrusively) 배치될 수 있게 한다. 눈(들)의 이미지들은 하나 이상의 검출기들(예컨대, 포토다이오드)에 의해서 대안적으로 수집될 수 있는바, 여기서 공간적인 선택 및 해상도는, 스위처블 브래그 그레이팅-기반(switchable Bragg gratings-based: SBG)의 디바이스에서 찾아볼 수 있는 것들과 같은 스위칭가능한 표면들에 의해서 제어된다. These iris codes may be collected using conventional lenses or holographic lenses to accommodate the desired views. Also, iris codes may be collected, wherein the images of the eye are reflected at one or more of the reflective surfaces. These surfaces can be designed around a single, large reflective surface or multiple reflective surfaces (i.e., multiple micro-mirrors). These mirror-based systems may be of the so-called free-form optical pathway, which is in the form of conventional reflective surfaces or designed to minimize the physical characteristics (e.g., weight, size) Lt; / RTI > They can also reflect light of selected wavelengths (e.g., a so-called "hot mirror") to enable CBID without disturbing views in the light of visible wavelengths. The free-form optics design allows cameras to be positioned unobtrusively along the edge of the eyewear, while maintaining the ability to see around the optical axis or optical axis. The images of the eye (s) may alternatively be collected by one or more detectors (e.g., photodiodes), wherein the spatial selection and resolution is based on switchable Bragg gratings-based: SBG Quot;) < / RTI > devices.

도5는 예시적인 시스템(600)을 도시하는바, 이는 다수의 조명 소스들(130, 135, 140) 및 다수의 카메라들(125)을 위한 배치 장소들을 예시한다. 이들 조명 소스들(130, 135, 140) 및 카메라들(125) 둘다는, 홍채(115), 중앙 동공(145) 및 주변의 공막(150)을 포함하는 하나의 눈의 영역을 향해 지향된다. 하나의 광 소스(400)와 비교하여, 다수의 조명 소스들(130, 135, 140)의 사용은, 디바이스 착용자에 의한 더 넓은 범위의 안구 운동들에 대해서 보다 양호하게 조명되는 홍채(115)를 보장하며, 그림자(240)를 만드는 경향들을 감소시킨다. 다수의 카메라들(125)의 사용은, 디바이스 착용자에 의한 더 넓은 범위의 시야 각도들에 대해서 온-축(on-axis) 홍채를 촬영할 능력을 향상시키며, 그리고 보다 예각인 각도들(more acute angles)에서 카메라-기반의 촬영으로부터 야기되는 홍채 이미지들의 왜곡을 감소시킨다. 5 illustrates an exemplary system 600 that illustrates placement locations for a plurality of illumination sources 130, 135, 140 and a plurality of cameras 125. As shown in FIG. Both of these illumination sources 130,135 and 140 and the cameras 125 are directed towards an area of one eye that includes the iris 115, the central pupil 145 and the surrounding sclera 150. The use of a plurality of illumination sources 130,135 and 140 in comparison to a single light source 400 can be achieved by using iris 115 which is better illuminated for a wider range of eye movements by the wearer of the device And reduces the tendency to create shadows 240. The use of multiple cameras 125 improves the ability to capture on-axis iris for a wider range of viewing angles by the wearer of the device, and more acute angles ≪ / RTI > reduces distortion of iris images resulting from camera-based imaging.

카메라들은 또한, 눈들의 뷰들(views of eyes), 안구 피처들, 눈꺼풀, 속눈썹, 눈썹, 주변 피부, 및 안면 근육들을 캡춰하도록 구성될 수 있는바, 따라서 관심있는 영역들은, 장면들의 접경하지 않은(non-contiguous) 모음으로서 또는 함께 스티치된 인접 영역들로서, 개별적으로, 인접하게(adjacently) 보여질 수 있다. 다수의 카메라들은 카메라들에 의해서 보여지는 영역들을 조명하도록 구성된 다수의 LED들 또는 조명 소스들에 의해서 지원될 수 있다. 눈들, 동공들, 피처들, 눈꺼풀들, 눈썹들, 및 피부에 대한 캡춰는, 온-스크린 디스플레이로부터의 자극 또는 사용자의 환경 내에서의 자극에 대한 감정적 응답(emotional response)을 측정하는데 이용될 수 있다. 이것은 예를 들어, 개인간의 통신(interpersonal communication)을 위해, 시선 방향과 관련된 감정적 반응에 대한 연구들을 위해, 그리고 게임들에서의 감정-기반의 상호작용을 위해 이용될 수 있다. 카메라들에 의해 측정되는 플레이어의 시선 방향들 사이의 관련성은, 다른 안면 정보와 결합되어, 사용자의 감정 상태를 정의하도록 해석될 수 있다. 게임 또는 엔터테인먼트 체험(entertainment experience)의 배우들은, 사용자 눈, 안면, 머리, 손, 몸, 및 생체측정 거동과 동기화되어, 행위 및 사용자로부터 멀어지는 또는 사용자로 향하는 시선 방향과 함께 반응할 수 있는바, 이는 렌더링된 안면 피처들, 몸, 및 안구-거동을 통해 감정을 소통하며, 캐릭터/사용자의 감정적 교감들 및 상호작용들의 변동성이 있는, 그리고 동적인 레벨을 자극한다. 이들 배우들은 인공 지능형 캐릭터들일 수 있으며 또는 이들은 원격 인간 캐릭터들에 대한 아바타들일 수도 있으며, 그리고 사용자는 원격 아바타에 의해서 또한 표현될 수도 있다. The cameras may also be configured to capture the views of eyes, eye features, eyelids, eyelashes, eyebrows, surrounding skin, and facial muscles, non-contiguous vowels, or adjoining regions stitched together. The plurality of cameras may be supported by a plurality of LEDs or illumination sources configured to illuminate areas viewed by the cameras. Capture for eyes, pupils, features, eyelids, eyebrows, and skin can be used to measure emotional response to stimulation from the on-screen display or stimulation within the user's environment have. This can be used, for example, for interpersonal communication, for emotional reactions related to the gaze direction, and for emotion-based interactions in games. The association between the gaze directions of the players measured by the cameras can be combined with other facial information to be interpreted to define the emotional state of the user. Actors of a game or entertainment experience may be synchronized with the user's eyes, facial, head, hand, body, and biometric behavior, reacting with behavior and away from the user or with the direction of the gaze towards the user, This communicates emotions through rendered facial features, body, and eye-movement, and stimulates the volatile and dynamic levels of emotional expressions and interactions of the character / user. These actors may be artificial intelligence characters, or they may be avatars for remote human characters, and the user may also be represented by a remote avatar.

도5에 예시된 시스템(600)의 경우, 구성요소들은 한 쌍의 안경(eyeglass) 프레임들 내에 마운트된다. 도5는 좌측 눈을 향해 지향되는 안경의 좌측 반쪽만이 도시되는데, 이는 간략함을 위한 것이다. In the case of the system 600 illustrated in FIG. 5, the components are mounted within a pair of eyeglass frames. Fig. 5 shows only the left half of the glasses which are directed towards the left eye, which is for the sake of simplicity.

안경 프레임들은 노즈 피스(nose piece)(510)와 이어 스템(ear stem)(515)을 활용하여 머리에 착용된다. 본 일례에서, 온-보드 프로세싱 유닛(165)은 좌측 이어 스템(515) 내에 배치된다. 비록, 본 도면에는 도시되어 있지 않지만, 디바이스에 전원을 공급하는 배터리 팩은 예를 들어 우측 이어 스템에 마운트될 수 있다. 비록, 본 도면에는 잘 보이지 않지만, 옵션적으로는, 프레임 상의 장면 카메라가 디바이스 착용자의 환경을 보는데 이용될 수 있다. 비록, 본 도면에는 도시되어 있지 않지만, 선택적으로는, 사용자의 눈(들)에 대한 하나 이상의 디스플레이 제공 모노쿨라 또는 스테레오(monocular or stereo) 이미저리(imagery)가 상기 프레임에 마운트될 수도 있다. 상기 프레임은 사용자의 실제 세계에 대한 뷰를 증강시키는 이미지, 오프 축에서 제공되거나 혹은 사용자의 다이렉트 시선에 있지 않은 이미지, 또는 가상의 실제감을 생성하는 몰입형 이미지(immersive imagery creating virtual reality)를 제공하는 디스플레이(들)을 포함할 수 있다. The eyeglass frames are worn on the head using a nose piece 510 and an ear stem 515. In this example, the on-board processing unit 165 is disposed in the left ear stem 515. Although not shown in this figure, a battery pack that supplies power to the device may be mounted, for example, to the right ear stem. Although not shown in this figure, the scene camera on the frame may optionally be used to view the environment of the wearer of the device. Optionally, one or more display-providing monocular or stereo imagery for the user's eye (s) may be mounted to the frame, although not shown in this figure. The frame provides an image that enhances the view of the user's real world, an image provided on the off-axis or not in the user's direct line of sight, or immersive imagery creating virtual reality Display (s).

다수 카메라들의 예시적인 구성이 도6에 예시된다. 다수의 카메라들(2000a-f)은, 상부 눈꺼풀(105), 하부 눈꺼풀(110), 및 임의의 차단 속눈썹들(236)을 포함하는 방해물들을 눈의 다수의 뷰들을 통해 회피할 수 있다. 서로 다른 각도들에서 보여질 때(즉, 서로 다른 카메라들에 의해서 관찰되면), 특정 방해물(예컨대, 도6의 속눈썹 236)에 의해서 차단되는 영역들이 다르다. 이러한 조건들하에서, 눈의 표면의 전체 표현들(full representations)은, 서로 다른 카메라들로부터의 이미지들을 이용하여 수집된 이미지들로부터 정보를 추출 혹은 함께 스티칭함으로써, 재건설될 수 있다. 눈의 다른 뷰들을 갖는 서로 다른 카메라들은 중첩되는 또는 중첩되지 않는 시야를 가질 수 있다. 또한, 서로 다른 카메라들은 서로 다른 렌즈들, 광학 필터들, 프레임 레이트들, 또는 해상도를 가질 수 있다. 또한 2D 혹은 3D 이미지 카메라들의 믹스가 존재할 수 있다. 카메라 혹은 카메라들(2000a-f)의 임의의 조합은 언제나 가능할 수 있다(예컨대, 파워 온 및 기능 동안). 샘플링 조건들의 범위 하에서 수집된 이미지들에 대한 액세스는, 홍채 인식, 동공 인식, 피처 인식, 및 안구-신호 인식의 강건성(robustness)을 향상시킨다. An exemplary configuration of multiple cameras is illustrated in FIG. The plurality of cameras 2000a-f can avoid obstacles, including the upper eyelid 105, lower eyelid 110, and any occluding eyelashes 236, through multiple views of the eye. When viewed at different angles (i. E., When viewed by different cameras), the areas that are blocked by certain obstructions (e. G., Eyelashes 236 of Fig. 6) are different. Under these conditions, full representations of the surface of the eye can be reconstructed by extracting or stitching together information from the images collected using images from different cameras. Different cameras with different views of the eye may have overlapping or non-overlapping views. In addition, different cameras may have different lenses, optical filters, frame rates, or resolution. There may also be a mix of 2D or 3D image cameras. Any combination of camera or cameras 2000a-f may be available at any time (e.g., during power on and function). Access to the images collected under the range of sampling conditions improves iris recognition, pupil recognition, feature recognition, and robustness of eye-signal recognition.

또한, 다수 카메라들의 사용은, 안구의 3-차원 뷰들을 형성하는데 이용될 수 있다. 안구 내의 3 차원 구조들을 보기위한 대안적인 방법은, 공간 위상 이미징(spatial phased imaging)이다. 안구 내의 구조들의 형상들, 사이즈들, 및 위치들을 판별하는 방법들에 상관없이, 이들의 3 차원 형태학(morphology)에 대한 지식은, 시선 추적의 해상도, 편의성(convenience)(예컨대, 조정을 위한 요건들이 감소함), 및 강건성을 증가시킬 수 있다. In addition, the use of multiple cameras can be used to form three-dimensional views of the eye. An alternative method for viewing three-dimensional structures in the eye is spatial phased imaging. Regardless of the ways in which the shapes, sizes, and positions of structures in the eye are determined, their knowledge of the three-dimensional morphology can be used to determine the resolution, convenience (e.g., , And toughness can be increased.

양 눈을 향해 지향된 다수-카메라들(즉, 각각의 눈은 다수의 카메라들에 의해서 보여짐)은, 양안전도(vergence) 측정의 정확도를 더욱 증가시킨다. 양안전도는 문자그대로 안구-신호 제어에 추가적인 디멘젼을 부가한다. 예를 들어, 양안전도를 사용함으로써, 선택 패널들의 서로 다른 층들에 있는 아이콘들이 디바이스 착용자에 의해서 특정될 수 있다. Many-cameras (i.e., each eye viewed by multiple cameras) directed toward both eyes further increase the accuracy of both vergence measurements. Binocular conduction literally adds an additional dimension to eye-signal control. For example, by using binocular conduction, icons in different layers of select panels can be specified by the wearer of the device.

넓은 각도 범위에서 실질적으로 동시에 눈을 보는 다수의 카메라들은 또한, 눈꺼풀, 피부, 눈썹, 및 심지어 안면 근육들의 일부분을 포함하는 주변 피처들의 움직임을 관찰하는데 이용될 수 있다. 이들 피처들에서의 움직임들은 감정 상태를 포함하는 또 다른 사용자 컨디션들을 추출하는데 이용될 수 있다. 예시적인 실시예에서, 감정 상태들을 나타내는 다른 안구 측정들은 동공 확장, 렌즈 형상 및 심박수를 포함한다. 추가적인 실시예들에서는, 하나 이상의 카메라들을 이용하여, 눈의 혈관구조(vasculature) 특히, 공막 내의 혈관구조의 이미지들에서 작은 팽창들 및 수축들의 비율을 판별함으로써, 사용자의 심박수를 판별하는 것이 가능하다. A number of cameras that simultaneously observe substantially at wide angle ranges can also be used to observe the movement of surrounding features, including eyelids, skin, eyebrows, and even portions of facial muscles. The movements in these features can be used to extract other user conditions including the emotional state. In an exemplary embodiment, other ocular measurements indicative of emotional states include pupil dilation, lens shape, and heart rate. In further embodiments, it is possible to determine the heart rate of a user by using one or more cameras to determine the ratio of small expansions and contractions in images of the vasculature of the eye, in particular of the vasculature within the sclera .

감정 상태를 포함하는 사용자 컨디션의 판별Determination of user conditions including emotional states

디바이스 사용자 컨디션들 및 감정 상태들을 판별하기 위하여 추가적인 센서들을 헤드웨어에 부가할 수 있다. 실질적으로 지속적으로 모니터링된 데이터의 일례들은, 맥박산소측정(pulse oximetry), 전기 피부 저항(galvanic skin resistance), EEG, ECG, 및 온도 센서를 포함한다. Additional sensors may be added to the headware to determine device user conditions and emotional states. Examples of substantially continuously monitored data include pulse oximetry, galvanic skin resistance, EEG, ECG, and temperature sensors.

사용자 감정에 대한 디바이스 지식은, 신원확인을 위해 이용될 수 있을 뿐만 아니라 넓은 범위의 어플리케이션들을 조절(regulate)하는데 이용될 수 있다. 감정은 게이밍에 대한 특히, 파워풀한 부속 입력(powerful adjunctive input)이 될 수 있다. 예를 들어, 사용자에 의한 공포 혹은 스트레스에 대한 게임의 응답은 게이밍 프로세스에 연관된 태스크들을 용이하게 할 수 있다. 다른 한편으로, 다중-사용자 게임 내에서 표현된 스트레스는 패배(defeat)를 트리거하는데 이용될 있다. "실제" 사람의 감정들의 반영들은 아바타에 접속될 수 있으며, 여기서 아바터의 액션들 및 응답들은 감정 상태에 의해서 영향을 받는다. The device knowledge of user emotions can be used for identity verification as well as for regulating a wide range of applications. Emotion can be a powerful adjunctive input, especially for gaming. For example, a game's response to fear or stress by a user may facilitate tasks associated with the gaming process. On the other hand, the stress expressed in a multi-user game may be used to trigger a defeat. Reflections of "real" human emotions can be connected to the avatar, where actions and responses of the avatar are influenced by emotional states.

사용자 감정에 대한 지식이 가치있을 수 있는 다른 영역은, 합성 안면 표현들(synthetic facial expressions)의 생성을 수반하는 회의(conferencing) 분야이다. 텔레콘퍼런싱 동안에 비디오 스트리밍을 전송하는 것에 비하여, 하나 이상의 합성 얼굴을 생성하고 보여주는 것은 회의 장소들 간에서 요구되는 대역폭을 크게 감소시킬 수 있다. 합성 얼굴들을 보는 것과 관련되어 발생되는 문제점은 적절한 안면 표현들의 부재이다. 이것은 시청자들(viewers)의 일부에 "불편한" 감정을 생성하는 경향이 있다. 회의 콘텐트의 소스인 개인의 감정 상태(및 진정한 신원)에 대한 지식은, 보다 적절하고 그리고 동적인 합성 열굴 표현들이 생성될 수 있게 한다. 감정 상태들은(원하는 대로) 임의 개수의 수신인들 혹은 수신인들의 서브세트에 제한되거나 또는 폭넓게 브로드캐스트될 수 있다. Another area where knowledge of user emotion can be valuable is the field of conferencing, which involves the generation of synthetic facial expressions. Compared to transmitting video streaming during teleconferencing, creating and showing one or more composite faces can greatly reduce the bandwidth required between meeting locations. The problem that arises with regard to viewing composite faces is the absence of proper facial expressions. This tends to create "uncomfortable" feelings in some of the viewers. Knowledge of the emotional state (and true identity) of the individual, which is the source of the meeting content, allows for more appropriate and dynamic synthetic pyramid expressions to be generated. Emotional states may be limited or broadly broadcast to any number of recipients (or as desired) or to a subset of recipients.

합성 얼굴들 혹은 아바타들을 통해 재연되는 대인 상호작용들(interpersonal interactions)에서, 상호작용들을 한 쌍의 개인들 혹은 작은 그룹으로 분리하는 것이 또한 가능하다(심지어, 다른 아바타들의 "가상의" 존재 내에서). 이것은 특히 게이밍 및 텔레컨퍼런싱 어플리케이션들 둘다에서 유용하다. 방안에서의 개인들 간의 실제 대화와 유사하게, 동시에 발생하는 다수의 가상 대화들이 일어날 수 있는바, 예를들어, 실제 참가자들의 신원 또는 지리적 위치들에 제한됨이 없이, "가상의 눈 맞춤(virtual eye-to-eye contact)"을 포함하여, 다수의 가상 대화들이 일어날 수 있다. In interpersonal interactions replayed through synthetic faces or avatars, it is also possible to separate interactions into a pair of individuals or small groups (even in the "virtual" presence of other avatars ). This is particularly useful in both gaming and teleconferencing applications. Similar to the actual conversation between individuals in a room, multiple simultaneous virtual conversations can occur, for example, without limitation to the identity or geographical locations of the actual participants, such as "virtual eye quot; -to-eye contact ", < / RTI >

인지 부하(cognitive load)는 많은 감정 상태들에 대한 주요 기여자이다. 소정의 조명 조건들 하에서, 동공 지름은 인지 부하를 매우 반영한다. 따라서, 조명 조건들을 알고 있다면(조명 조건들은 장면 카메라 이미지들에서 관찰되는 전체적인 강도 레벨으로부터 평가될 수 있음), 동공 지름에서의 변화들을 관찰함으로써, 실질적으로 지속적으로 인지 부하를 평가하는 것이 가능하다. 감정 상태에 대한 지식과 유사하게, 입력으로서 인지 부하를 포함시키는 것은, 게임, 콘퍼런싱, 문서 리뷰의 속도(pace), 시험 문제들의 난이도의 비율 및/또는 레벨, 광고 유효성에 대한 평가, 외상후 스트레스 장애(post-traumatic stress disorder)를 포함하는 의학적 평가들, 이미지들을 보았을 때의 심리학적인 평가들(psychological assessments), 기타 등등을 포함하는 넓은 범위의 응용예들을 갖는다. Cognitive load is a major contributor to many emotional states. Under certain lighting conditions, the pupil diameter highly reflects the cognitive load. Thus, if the illumination conditions are known (the illumination conditions can be evaluated from the overall intensity level observed in the scene camera images), it is possible to evaluate the cognitive load substantially continuously by observing changes in the pupil diameter. Similar to the knowledge of the emotional state, including cognitive load as input may include game, conferencing, pace of document review, rate and / or level of difficulty of test questions, evaluation of ad effectiveness, Medical assessments including post-traumatic stress disorder, psychological assessments when viewing images, and so on.

눈을 보기 위한 다수의 카메라들과 결합되어 하나 이상의 장면 카메라들을 사용하는 것(즉, 사용자의 주변환경을 보는 것)은, 몰입형 환경(immersive environment)을 위한 보다 큰 가능성을 제공할 수 있다. 예를 들어, 게임 조작들에 있어서, 디바이스 착용자의 주변환경은, 아바타들의 주변환경(들) 내에 또는 게임 공간 내의 플레이어들의 다른 표현들 내에 투영될 수 있다. "실제 세계"에서의 머리의 움직임들 및/또는 객체들을 보는 것은, 가상 환경 으로 변환(translate)될 수 있다. 실제 및 가상 환경들의 변환은 3차원 "동굴(cave)" 투영 시스템 내의 디바이스 착용자에게 특히 효과적이지만, 대형의 디스플레이 스크린 혹은 다수의 디스플레이 스크린들을 이용하여 유사한 효과들이 획득될 수 있다. Using one or more scene cameras in combination with multiple cameras for viewing the eyes (i.e., viewing the user's environment) can provide greater possibilities for an immersive environment. For example, in game operations, the wearer's surroundings may be projected within the ambient environment (s) of the avatars or within other representations of the players in the game space. Viewing head movements and / or objects in the "real world" can be translated into a virtual environment. The conversion of real and virtual environments is particularly effective for device wearers within a three-dimensional "cave" projection system, but similar effects can be obtained using large display screens or multiple display screens.

다수의 장면 카메라들을 이용한 "주변환경적 콘텍스트(environmental context)"의 생성은 증가된 사용자 만족, 안전, 성능 향상, 기타 등등을 제공할 수 있다. 예를 들면, 관찰 중인 장소들을 하나 이상의 선택된 회의 참가자들에 의해서 실시간으로 보기 위하여, 회의 동안 이미지들의 방향을 조절하는 것이 가능하다. 개인(특히, 회의 참가자)이 무엇에 초점을 맞추고 있느니를 아는 것은, 상기 개인이 뭘 전달하고자 하는지를 해석하는데 큰 도움이 된다. 이와 반대로, 하나 이상의 청중 멤버들이 제공 중인 컨텐츠에 관심이 있는 것처럼 보이지 않음이 명백하다면, 이것은 컨텐츠를 변경할 단서가 된다. The creation of an "environmental context" using multiple scene cameras can provide increased user satisfaction, safety, performance enhancement, and so on. For example, it is possible to adjust the orientation of images during a meeting to view the places being viewed in real time by one or more selected conference participants. Knowing what an individual (especially a conference participant) is focusing on is a great help in interpreting what the person wants to convey. Conversely, if it is clear that one or more audience members do not appear to be interested in the content being served, then this is the clue to change the content.

CBID-기반의 안구-신호 디바이스 설정CBID-based eye-signal device setup

어플리케이션(들)에 따라, CBID-기반의 안구-신호 디바이스의 기능들이 수 많은 설정들에서 구현될 수 있다. 프로세싱 및/또는 인증은 자체-포함될 수 있거나 및/또는 원격으로 수행될 수도 있다. 인증이 아웃고잉 데이터에 적용될 수 있으며 및/또는 인커밍 데이터의 흐름을 제한할 수 있다. 디바이스 동작은 한명의 사람 또는 사람들의 그룹에 제한될 수 있으며 또는 제한이 없을 수도 있다. 디바이스 동작은 소정의 동작 조건들 하에서만 태스크들을 수행하도록 더 제한될 수 있다. 정보의 디스플레이는 디바이스 사용자 이외의 모든 사람들에게 숨겨질 수 있으며 또는 모든 사람들이 볼 수도 있다. 인증은 사용자 요청인 경우에만 적용될 수도 있으며 또는 일부 혹은 모든 데이터에 자동으로 적용될 수 있다. 다른 디바이스들의 안구 신호 제어는 개인에게, 개인들의 그룹에 국한될 수 있는 또는 제한이 없을 수도 있다. Depending on the application (s), the functions of the CBID-based eye-signal device can be implemented in a number of settings. The processing and / or authentication may be self-contained and / or performed remotely. Authentication can be applied to the outgoing data and / or the flow of incoming data can be limited. Device operations may be limited to one person or group of people, or may be unlimited. The device operation may be further limited to perform tasks only under certain operating conditions. The display of information can be hidden by everyone except the user of the device, or it can be viewed by everyone. Authentication may be applied only if it is a user request, or it may be automatically applied to some or all data. The eye signal control of other devices may or may not be limited to an individual, a group of individuals.

다음의 테이블은 설정들의 분류들의 일부 및 각각의 일례들을 열거한다. 안구 신호 디바이스 설정들을 설명하는데 이용되는 정의들 및 약어들은 다음과 같다.The following table lists some of the classifications of the settings and their respective examples. Definitions and abbreviations used to describe eye signal device settings are as follows.

IC - 홍채코드(irisCode): 생체 인증을 위해 홍채 내의 후생적 패턴들을 비교가능한 비트-패턴들로 수량화하도록 패턴 인식 기술들을 눈의 이미지들에 적용한 결과물. IC - iris code (irisCode): The result of applying pattern recognition techniques to images of the eye to quantify the welfare patterns in the iris into comparable bit - patterns for biometric authentication.

EIC - 암호화된(encrypted IC): 홍채의 오리지널 이미지 또는 임의의 다른 홍채-기반의 파생 파라미터로 역설계될 수 없도록 암호화된 홍채코드EIC - encrypted IC: an iris code encrypted so that it can not be back engineered with the original image of the iris or any other iris-based derived parameter

TEIC - 타겟 EIC: 식별된 EIC, 여기서 눈의 이미지로부터 계산된 IC와의 매칭은 관련성을 나타내며 따라서 우호적인 생체 인증을 나타낸다.TEIC - Target EIC: The identified EIC, where the matching with the IC calculated from the image of the eye is relevant and therefore represents a friendly biometric.

CBID - 지속적인 생체 인증: 생체 인증의 반복되는 프로세스, 이는 헤드셋 디바이스 상에서 수행될 수 있거나 또는 EIC들 혹은 하나 또는 양 눈의 이미지들을 원격 프로세서로 전송함으로서 원격으로 수행될 수 있다. CBID는 고정된 속도로(예컨대, 초당 30번) 또는 비동기화 속도(예컨대, 디바이스가 이동되고 그리고 재-마운트될 때만다)로 발생할 수 있다. CBID - Continuous biometric authentication: a biometric authentication iterative process, which can be performed on a headset device or remotely by sending EICs or images of one or both eyes to a remote processor. The CBID may occur at a fixed rate (e.g., 30 times per second) or asynchronous rate (e.g., only when the device is moved and re-mounted).

UUID - 범용 고유 식별자(universally unique identifier): 헤드셋 디바이스들을 포함하는 임의의 프로세싱 디바이스를 위한 펌웨어-인코딩된 고유 식별자(예컨대, 숫자 코드). UUID - universally unique identifier: A firmware-encoded unique identifier (e.g., a numeric code) for any processing device containing headset devices.

GPS - 글로벌 포지셔닝 시스템: 지구의 표면 인근의 임의의 곳에 있는 디바이스의 위치를 판별할 수 있는 위성-기반의 네비게이션 시스템. GPS - Global positioning system: A satellite-based navigation system that can determine the location of a device anywhere near the Earth's surface.

표 1: CBID 디바이스 설정들의 분류들Table 1: Classifications of CBID Device Settings 분류(Class)Class 설명Explanation 사례case 독립형(stand-alone), 1 of 1Stand-alone, 1 of 1 하나의 TEIC가 헤드셋 내에 저장되며 CBID를 위해서 오프-헤드셋 통신이 요구되지 않는다 One TEIC is stored in the headset and off-headset communication is not required for CBID 그렇지 않으면 동작하지 않는 디바이스의 단독 소유자/사용자를 승인하는 것Otherwise approving the sole owner / user of the inoperative device 독립형(stand-alone), 1 of NStand-alone, 1 of N "N" 개의 TEIC들이 헤드셋 내에 저장되며 CBID를 위해서 오프-헤드셋 통신이 요구되지 않는다 "N" TEICs are stored in the headset and no off-headset communication is required for CBID 가족의 개인 구성원을 승인하는 것, 가족 모두는 디바이스 사용이 허용됨(예컨대, 각각의 사용자와 관련된 교정 계수들(calibration factors)이 동적으로 로딩됨Approving individual members of the family, all of the family are allowed to use the device (e.g., the calibration factors associated with each user are dynamically loaded 원격 TEIC, 1 of 1Remote TEIC, 1 of 1 하나의 TEIC가 원격 사이트로부터 디바이스로 전송된다 One TEIC is sent from the remote site to the device 헤드셋의 페이-퍼-뷰 렌탈(pay-per-view rental) Pay-per-view rental of headsets 원격 TEIC들, 1 of 1Remote TEICs, 1 of 1 다수의 "허용가능한" TEIC들이 원격 사이트로부터 디바이스로 전송된다 A number of "acceptable" TEICs are sent from the remote site to the device 범용 헤드셋들의 클러스터가 사업체 내의 일부 또는 모든 종업원들에게 이용가능해지게 함Clusters of universal headsets made available to some or all employees in the business 헤드셋 전송 EICHeadset transmission EIC 지속적으로 또는 주기적으로, 헤드셋은 EIC를 사용자 ID가 판별되는 원격 사이트로 전송한다(종종 대형 데이터베이스로부터)Continuously or periodically, the headset sends the EIC to the remote site where the user ID is determined (often from a large database) 구매에 사용되는 디바이스에 대한 제한없이 사용자가 등록되어 있는 온라인 "스토어"로부터의 온라인 구매Online purchases from online "store" where users are registered without restriction on devices used for purchasing 헤드셋 전송 EIC 및 UUIDHeadset transmission EIC and UUID 지속적으로 또는 주기적으로, 헤드셋은 EIC 및 UUID를 사용자 및 헤드셋 ID가 판별되는 원격 사이트로 전송한다(종종 대형 데이터베이스로부터)Continuously or periodically, the headset sends the EIC and UUID to the remote site where the user and headset ID are identified (often from a large database) 사용자 및 특정 디바이스 둘다가 등록되어 있는 온라인 "스토어"로부터의 온라인 구매Online purchases from online "stores" where both users and specific devices are registered 배제 TEICsExcluded TEICs 사용자가 이용 혹은 다른 액세스로부터 배제되어야하는지를 판별하기 위해 CBID를 이용하는 것, 여기서 비교는 헤드셋 또는 원격으로 가능함Using a CBID to determine if a user should be excluded from use or other access, where comparison is possible with a headset or remotely 사용자가 비행금지 명단(no-fly list)에 있는지를 판별함
Determines if the user is on a no-fly list
데이터를 단일 개인과 연관시키는 것Associating data with a single individual 한 사람의 CBID 하에서 오직 해독될 있는 데이터 파일(들)의 검색 혹은 생성Search or create only the data file (s) to be decrypted under one person's CBID 전통적인 패스워드들의 비밀 리스트Secret list of traditional passwords 단일 개인에 의한
"보기만 할것(eyes-only" viewing)"
By a single individual
"Eyes-only" viewing "
제자리에서 시야 차단기와 함께 HUD와 결헙돤 CBID; 우호적인 CBID가 있는 경우에만 데이터가 전송되며; 그렇지 않으면 더미 데이터가 전송될 수도 있음CBID with HUD in place with field-of-view breaker; Data is transmitted only if there is a friendly CBID; Otherwise, dummy data may be sent. 대규모 온라인 코스에서 시험을 보는 것Take a test at a large online course
그룹 정보 릴리즈Group information release 개인들의 그룹의 멤버 한 명의 CBID 하에서만 해독될 수 있는 데이터 파일(들) The data file (s) that can be decrypted only under the CBID of one member of the group of individuals, 주치의, 전문가 및 환자가 이용할 수 있는 의료 기록들Medical records available to primary care physicians, specialists and patients 구조화된 정보 릴리즈Release structured information 보는 사람의 신원에 대해서 알려진 것에 기초하여 변동될 수 있는 데이터 콘텐트Data content that may vary based on what is known about the identity of the viewer 식별된 뷰어의 인구통계(demographic)에 기초하는 구조화된 광고Structured ads based on the demographics of the identified viewer HUD 상에 디스플레이된 데이터 세트Data set displayed on the HUD 데이터 세트(예컨대, 텍스트 본문)가 특정한 CBID 사용자에게 전송되었는지에 대한 확인, 사용자는 데이터 세트의 아무것도, 전부 또는 일부를 볼수 있다Confirmation that a data set (e.g., text body) has been sent to a particular CBID user, the user can see any or all of the data set 사용자에게 전송된 디바이스 라이센스 동의 Device license agreement sent to user HUD 상에 보여지는 데이터 세트Data set shown on the HUD 전체 데이터 세트(예컨대, 텍스트, 픽처, 그래픽들)를 각각의 데이터 세트 항목을 따라 CBID와 함께 안구 추적을 이용하여 특정 사용자가 실제로 봤는지에 대한 확인(E.g., text, pictures, graphics) along with the CBID along with the respective data set items to see if a specific user has actually watched it using eye tracking 법률 문서의 모든 컴포넌트들이 보여졌는지에 대한 확인Ensure that all components of the legal document are shown 디스플레이 디바이스 상에 제공된 데이터 세트A data set provided on a display device 데이터 세트(예컨대, 텍스트)가 장면 카메라에 의해 확인된 바와 같이 특정한 CBID 사용자의 디스플레이(예컨대, 모니터, 폰, 테블릿)에 전송되었는지에 대한 확인,
사용자는 데이터 세트의 아무것도, 전부 또는 일부를 볼수 있다
Confirmation of whether a data set (e.g., text) has been transmitted to a particular CBID user ' s display (e.g., monitor, phone, tablet)
The user can see any, all or part of the data set
항목들 및 조건들의 변경 통지가 사용자에게 전송되었는지에 대한 확인Confirmation of change notification of items and conditions sent to the user
디스플레이 디바이스 상에서 보여지는 데이터 세트Data set shown on the display device 전체 데이터 세트(예컨대, 텍스트, 픽처, 그래픽들)를 외부 디스플레이 디바이스에 지향된 안구 추적을 이용하여 특정 CBID 사용자가 실제로 봤는지에 대한 확인, 장면 카메라는 콘텐트의 수신을 확인할 수 있다(예컨대, 내장된 QR 코드를 이용하여)A confirmation of whether a particular CBID user has actually watched the entire data set (e.g., text, pictures, graphics) using eye tracking directed at an external display device, the scene camera can confirm receipt of the content Using the QR code) 법적 문서들에 관련된 통지된 동의(consent)에 대한 확인Confirmation of notified consents related to legal documents 체크리스트 검증Checklist Verification 안구 추적 및 CBID와 결합된 장면 카메라를 이용하여, 식별된 개인이 체크리스트에 있는 각 항목을 보았는지를 검증함Using a scene camera combined with eye tracking and CBID, verified whether the identified individual saw each item in the checklist 조종사에 의한 비행 전 검사Pre-flight inspection by pilot "블랙 박스" 레코더"Black box" recorder 소정 기간(몇시간, 몇일, 등) 동안 디바이스의 비휘발성 메모리에 저장된 CBID(및 다른 데이터). 데이터 세트는 안구 추적 및/또는 이미지들을 포함할 수 있다(예컨대, 응급 상황 이전에 무엇이 보였는지를 판별하도록)CBID (and other data) stored in the non-volatile memory of the device for a predetermined period of time (several hours, days, etc.). The data set may include eye tracking and / or images (e.g., to determine what was seen prior to an emergency) 차량 운전자의 식별 및 사고 전에 운전자의 집중을 방해하는 것을 식별할 수도 있음Identify vehicle drivers and identify those that interfere with driver concentration prior to an accident 사용자-의존 어플리케이션들User-Dependent Applications CBID에 기초하여, 개별적으로 선택된 어플리케이션들의 세트 및 데이터 세트들에 대한 액세스를 제공Based on the CBID, it provides access to a set of individually selected applications and data sets 사용자 식별에 기초하여 이메일 검색, 다른 사용자에게도 별도의 이메일 및 어플리케이션 액세스가 제공됨Search email based on user identification, and separate email and application access for other users 사용자-태그 데이터User-tag data 임의의 전송 데이터 세트에 사용자가 자동적으로 그/그녀의 신원을 부가할 수 있게 함Allows the user to automatically add his / her identity to any set of transmitted data 아웃고잉 텍스트 및 이메일은 CBID 사용자가 저자임을 나타내도록 태그될 수 있음Outgoing text and email can be tagged to indicate that the CBID user is an author 전자 서명Electronic signature CBID를 포함하는 일련의 간단한 단계들이 "전자 서명"되게하며 그리고 데이터 세트를 타임 스탬프한다Digitally signed "series of simple steps including the CBID and timestamps the data set 법적 문서들에 전자적으로 "서명" 한다Electronically "sign" legal documents 상호 식별Mutual identification 다수의 CBID-인증된 개인들(2 이상의 개인들에게 적용됨)의 존재하에서만 전송되는 데이터 세트(들)The data set (s) transmitted only in the presence of multiple CBID-certified individuals (applied to two or more individuals) 학생 및 감독자 양자의 존재에서 개최되어야만 하는 시험의 감독Supervision of exams that must be held in the presence of both students and supervisors 명백한 사용자 허가를 이용한 상호 식별Mutual identification with explicit user authorization 모든 개인들에 의한 CBID-인증 및 명시적인 허가의 존재하에서만 전송되는 데이터 세트(들)The data set (s) transmitted only in the presence of CBID-authentication and explicit authorization by all individuals, 방금 만난 사람들 사이에서의 개인 정보의 교환Exchange of personal information between people you just met 장면 이미지들 내의 객체 인지An object in scene images 바코드, QR 코드 또는 CBID-식별된 개인에 의해서 보여지는 임의의 방향으로부터 관찰되는 객체/콘테이너를 인지하는데 이용되는 장면 카메라Bar code, QR code or CBID-scene camera used to recognize objects / containers viewed from any direction seen by the identified individual 금전 등록기 혹은 계산대를 필요로 하지 않는 물리적 가게(Brick and mortar store)에서 수행되는 구매행위Purchasing activity performed in a physical store (Brick and mortar store) that does not require a cash register or cash register 알려진 위치에서의 특정 개체 인지A specific object at a known location 인증을 위해 프로세서로 전송된 EIC 및 GPS 위치EIC and GPS location sent to the processor for authentication 허가된 개인만에 대한 도어 개방의 원격 제어Remote control of door opening for authorized individuals only 위치-민감형 사용자 식별Location-Sensitive User Identification 인증을 위해 프로세서로 전송된 EIC 및 GPS 위치EIC and GPS location sent to the processor for authentication 사용자 식별에 기초하여 빌딩에 대한 액세스를 허용하거나 제한함Allow or limit access to buildings based on user identification 지리적 한정Geographical limitation 개인의 위치를 추적하도록 GPS와 결합된 CBIDCBID combined with GPS to track an individual's location 가택 연금된 개인이 소정 리소스들에 액세스하는 것을 추적 및 허용함Track and allow access to certain resources by individuals under house arrest 상호작용 한정Interaction limited 개인의 주변환경을 식별하도록 장면 카메라 이미지들 내에서의 이미지 식별과 결합되는 CBID CBID < / RTI > combined with image identification within the scene camera images to identify the individual ' 카지노 입장 또는 다른 개인과의 상호작이 금지된 개인에 대한 추적Tracking individuals who are not allowed to interact with the casino or other individuals 시간-민감형 사용자 식별Time-sensitive user identification CBID 및 현재 날짜/시간에 기초하여 정보 및/또는 사용자 제어를 해제함Release information and / or user control based on CBID and current date / time 술 혹은 다른 연령 제한 물품들에 대한 적법한 구매를 개인에게 보장함Guaranteeing legitimate purchases of alcohol or other age-restricted items 다른 생체측정 센서들Other biometric sensors 펄스 산소농도계(예컨대, 불규칙한 맥박), EEG(예컨대, 간질), 및/또는 예민한 상황들의 장기간 모니터링 및/또는 식별을 위해 CBID와 결합된 다른 감지 디바이스들로부터의 데이터Data from other sensing devices associated with the CBID for long term monitoring and / or identification of pulse oximetry (e.g., irregular pulse), EEG (e.g., epilepsy), and / 사용자 신원(병원 이력에 링크될 수 있음), "바이탈(vitals)" 및 지리적 위치에 대한 자동화된 911 전화Automated 911 calls to user identities (which can be linked to hospital histories), "vitals" and geographic locations 다른 디바이스들의 잠금해제/액세스
Unlock / access other devices
우호적인 CBID가 존재하면, 소정 형태의 사용자 검증을 요구하는 다른 프로세서와 상호작용하도록, 액세스 코드의 라이브러리, 토큰들, 패스워드들 기타 등등에 대한 온-디바이스 액세스를 허용한다Allows on-device access to a library of access codes, tokens, passwords, etc. to interact with other processors that require some form of user verification if a friendly CBID is present CBID에 기초하여, 자동화된 텔러 머신과 상호작용함Interacts with an automated teller machine based on CBID
고도로 높은 보안성의 어플리케이션들Highly secure applications 유발된 동공 반응들, 심박수(예컨대, 혈관을 시각화함으로써), 헤드셋 탬퍼링, 등등을 모니터링하는 것을 포함하는 기만방지 수단들(antispoof measures)과 통합된 헤드셋A headset integrated with antispoof measures, including monitoring induced pupillary responses, heart rate (e.g., by visualizing blood vessels), headset tampering, 고도로 보안된 군사 사이트에 대한 액세스를 획득하는 것To gain access to highly secure military sites 이력 레코드(historical record)Historical record 이력 레코드의 유지를 위해 다른 데이터 스트림(비디오, 오디오, 생체측정, GPS, 기타)과 함께 획득된 타임-스탬프를 갖는 CBIDCBIDs with time-stamps acquired with other data streams (video, audio, biometrics, GPS, etc.) for maintenance of history records 조사 중인 개인의 과거 행위들을 입증함Demonstrating past behavior of the individual under investigation 개인 프라이버시Personal Privacy 레코딩이 만들어졌을 당시의 실제 디바이스 착용자에 대한 액세스를 제한하도록 데이터 세트들의 취득을 자동으로 암호화함(레코딩 헤드셋 내에서)Automatically encrypt the acquisition of data sets to limit access to the actual device wearer at the time the recording was made (within the recording headset) 사적인 대화의 오디오/비디오에 대한 액세스를 제한함Limit access to audio / video for private conversations 그룹 프라이버시Group Privacy 레코딩이 만들어졌을 당시에 존재한 임의의 CBID-가능한 디바이스 착용자에 대해서, 이력적으로 레코딩된 데이터 세트들에 대한 액세스를 자동으로 제한함Automatically restrict access to historically recorded data sets for any CBID-capable device wearer present at the time the recording was made 참가자들에 대해서, 회의의 오디오/비디오에 대한 액세스를 제한함Limit access to audio / video for meetings to participants 연장된 개인 메모리(extended personal memory)Extended personal memory 개인적 사용을 위해 다른 데이터 스트림(비디오, 오디오, 생체측정, GPS, 기타)과 함께 획득된 타임-스탬프를 갖는 CBIDCBIDs with time-stamps obtained with other data streams (video, audio, biometrics, GPS, etc.) for personal use 다른 이벤트와 관련된 이벤트에 대한 기록들을 찾음Find records of events related to other events 상호 식별을 구비한
연장된 개인 메모리
With mutual identification
Extended Personal Memory
암호화를 이용하여, 이력적으로 레코딩된 데이터 세트를 보는 것은 상호작용 내의 상호식별된(특히 레코딩 당시에서 보았을 때) 참가자들로 제한될 수 있음 Using encryption, viewing a historically recorded data set can be limited to participants identified in the interaction (especially when viewed at the time of recording). CBID 참가자들에 대하여 사적인 대화의 데이터 세트의 액세스를 제한함 Restrict access to private conversation datasets to CBID participants
인덱스화된 연장된 개인 메모리Indexed extended personal memory 레코드된 데이터 세트 내에서, CBID의 검색가능한 로그 그리고 오디오/비디오 데이터 스트림들 내의 객체들 및/또는 단어들의 인식과 함께인 타임-스탬프들, GPS 위치들, 및 데이터 스트림들 내의 다른 구성요소들을 포함함 Within the recorded data set, include searchable logs of CBID and other components in time-stamps, GPS locations, and data streams along with recognition of objects and / or words in audio / video data streams box 질문에 대한 해답: 내가 자동차 키를 마지막으로 본게 어디인지/언제인지?The answer to the question: Where did I last see my car key / when? 사용자-특정 데이터 회수(retrieval) User-specific data retrieval 데이터 피드들 및 검색들이 CBID 개인의 관심들에 맞게 조정될 수 있음Data feeds and searches can be tailored to CBID individual interests 하키(농구 또는 다른 스포츠보다) 스코어를 먼저 열겨함Hockey (better than basketball or other sports) score first 로컬 디바이스 제어


Local device control


로컬 디바이스의 무선 제어(인터넷이 필요없음)Wireless control of local devices (no internet required) 식별된 성인(즉, 아이가 아니라)에 의해서 가정의 난방기를 제어한다
Controls the home heater by the identified adult (ie, not the child)
원격 디바이스 제어Remote device control 인터넷을 이용한 원격 디바이스 제어Remote device control using the Internet 가정의 현관등을 원격으로 점등한다 Remotely light the entrance of the home

전술한 테이블은 EICs의 전송 및 비교를 언급하고 있지만, 몇몇 경우들에 있어서 눈들의 이미지들을 ICs 로 그리고 후속으로는 EICs 로 변환하는 것이 알고리즘적으로 가능하다. 따라서, CBID는 홍채들의 이미지들, ICs, EICs, 또는 다른 유도된 파라미터들을 포함하는 정보의 비교들 및/또는 교환을 등가적으로 포함할 수 있다. 이와 유사하게, 생체측정 비교들을 위해 이용되는 데이터베이스들은 동등하게(식별을 위해서), ICs, EICs, 눈들의 이미지들, 얼굴(눈 포함)들의 이미지들, 홍채들의 이미지들, 눈의 해부학적 피처들, 소위 "언-폴디드(unfolded)"(즉, 극 좌표계로 표현된) 홍채 이미지들, 공막 내의 혈관들, 각막윤부, 또는 또 다른 캡춰된 혹은 유도된 파라미터들을 포함하는 눈의 다른 피처들의 이미지들을 포함한다. 따라서, EICs를 교환 혹은 비교하는 것은, 생체 인증을 위하여 임의의 다른 유도된 데이터 세트들을 교환 혹은 비교하는 것을 또한 지칭한다. While the above table refers to transmission and comparison of EICs, in some cases it is algorithmically possible to convert the images of the eyes to ICs and subsequently to EICs. Thus, the CBID may equivalently include comparisons and / or exchanges of information including images of iris, ICs, EICs, or other derived parameters. Similarly, the databases used for biometric comparisons are equally (for identification), ICs, EICs, images of eyes, images of faces (including eyes), images of irises, , Images of other features of the eye, including so-called "unfolded" (i.e., represented in polar coordinates), veins in the sclera, corneal limbus, or other captured or derived parameters . Thus, exchanging or comparing EICs also refers to exchanging or comparing any other derived data sets for biometric authentication.

홍채코드가 계산되면, 이것은 공지된 홍채코드들 및/또는 보충적인 생체측정들의 데이터베이스 내에서의 검색에 이용될 수 있다. 홍채코드(및 다른 측정들)의 매칭이 발견되면, 관련된 보정 팩터들(calibration factors) 및 다른 정보(사용자 이름, 나이, 성별, 등등)가 안구 추적 및 다른 동작들 동안에 이용되기 위해 헤드셋 디바이스로 다시 전송될 수 있다. 이러한 검색은 다수의 서로 다른 플랫폼 설정들에서 수행될 수 있다. Once the iris code is calculated, it can be used for searching in the database of known iris codes and / or supplementary biometric measurements. Once a match of the iris code (and other measurements) is found, the associated calibration factors and other information (user name, age, sex, etc.) are returned to the headset device for use during eye tracking and other actions Lt; / RTI > This search can be performed in a number of different platform configurations.

● 예를 들어, 헤드셋은 복수의(일반적으로는 적은 수의) 홍채코드들 및 보정 세트들(calibration sets)을 자체적으로 포함할 수 있는바, 따라서 가족의 임의의 멤버가 헤드셋을 이용할 수 있다. 홍채코드 생성, 검색, 및 매칭은 전적으로 헤드셋 상에서 수행된다. For example, a headset may itself include a plurality of (typically a small number of) iris codes and calibration sets, so that any member of the family can use the headset. The iris code generation, retrieval, and matching are performed entirely on the headset.

● 홍채코드 또는 홍채 이미지는 식별 및 매칭을 위해 특정한 원격 프로세서로 전송될 수 있다. 상기 프로세서는 예를 들어, 가정, 사업체, 학교, 극장 혹은 지리적 위치에서 헤드웨어 디바이스들의 세트를 서비스할 수 있다. An iris code or iris image may be sent to a specific remote processor for identification and matching. The processor may serve a set of headwear devices, for example, at home, business, school, theater or geographical location.

● 홍채코드 또는 홍채 이미지는 식별 및 매칭을 위해 클라우드로 전송될 수 있다. 식별된 사람의 데이터 세트들에 대한 클라우드-기반의 검색은, 개인과 관련된 보정 및 다른 데이터가 어디에서 언제든지 이용되는 임의의 헤드셋 디바이스를 위해 이용될 수 있게 한다. 보정 및 다른 데이터의 도움을 받지않는 검색(unaided retrieval)은, 사용자에게 임의의 웨어러블 디바이스의 "인스턴트 온(instant on)" 피처처럼 보일 것이다. 이러한 설정에 대한 전체적인 데이터 흐름이 도7에 도시된다. • An iris code or iris image can be sent to the cloud for identification and matching. A cloud-based search for the identified person's data sets makes it possible for personalized calibration and other data to be used for any headset device that is used anywhere and at any time. The unaided retrieval of the correction and other data will appear to the user as an "instant on" feature of any wearable device. The overall data flow for this setting is shown in FIG.

사용자 식별이 일단 확립되면, 하나의 디바이스 폼 팩터 상에서 수집된 보정 세트(calibration set)를 다른 디바이스 폼 팩터에 적용하는 것도 또한 가능하다. 예를 들어, 디바이스의 설계가 업그레이드되고 그리고 헤드셋 내의 카메라(들) 및 조명 소스(들)의 위치 및/또는 방위가 상기 업그레이드에 의해 영향을 받는다면, 오래된 및 업그레이드된 디바이스들 간의 알려진 변위들(displacements)이 보정 세트들에 부가될 수 있다. 이것은 동일하거나 또는 다른 폼 팩터들을 가질 수도 있는 다수의 웨어러블 디바이스들 사이에서 사용자가 하나의 보정 세트를 활용할 수 있게 한다. Once user identification is established, it is also possible to apply the calibration set collected on one device form factor to another device form factor. For example, if the design of the device is upgraded and the position and / or orientation of the camera (s) and illumination source (s) in the headset are affected by the upgrade, then known displacements displacements may be added to the calibration sets. This allows the user to utilize a single set of corrections between multiple wearable devices that may have the same or different form factors.

추가적인 실시예들에서, CBID는, Systems and Methods for Biomechanically-based Eye Signals for Interacting with Real and Virtual Objects 에 서술된 "안구 신호들" 또는 안구-신호 제어들을 가능 혹은 불가능하게 하는데 이용될 수 있다. 모든 안구 신호들 또는 안구 신호들의 서브세트의 성능은 CBID의 존재에 따라 만들어질 수 있다. 이러한 안구 신호들은 디바이스 착용자의 하나의 눈 혹은 2개의 눈들만으로 만들어진 안구 신호들 뿐마 아니라 실제 세계 혹은 다른 가상 객체들과의 상호작용이 있는 경우의 안구 신호들을 포함할 수 있다. 예를 들어, 안구 신호들은 디바이스 착용자의 손가락에 의해서 만들어진 제스처를 디바이스 사용자에 의해서 보는 것을(외부로 지향된 장면 카메라들을 이용하여) 포함할 수 있다. 이러한 제스처들은 CBID 조건들 하에서 배타적으로 유효해질 수 있다(즉, 행동을 초래한다).In further embodiments, the CBID can be used to enable or disable "eye signals" or eye-signal controls as described in Systems and Methods for Biomechanically-based Eye Signals for Interacting with Real and Virtual Objects. The performance of a subset of all eye signals or eye signals may be made according to the presence of the CBID. These eye signals may include eye signals made only by one or two eyes of the wearer of the device as well as eye signals in the case of interaction with the real world or other virtual objects. For example, eye signals may include looking at a gesture made by a finger of the wearer of the device (using outwardly directed scene cameras) by the device user. These gestures may be exclusively valid under the CBID conditions (i. E., Result in behavior).

또 다른 실시예에서, CBID-가능(CBID-enabled)) 액션들은, 식별된 개인(들)이 있는 시간들 또는 다른 식별된 객체들이 하나 이상의 장면 카메라들의 시야 내에 존재하는 시간들로 제한될 수 있다. 안면 인식, 객체 인식, 및/또는 다른 식별 형태들이, 디바이스 착용자 및 하나 이상의 다른, 식별된 개인들을 포함하는 이러한 객체들의 코-로케이션(co-location)을 검증하는데 이용될 수 있다. 액션들은 예를 들어, 이들 개인들의 존재에서만 수행되도록 제한될 수 있다. In yet another embodiment, CBID-enabled) actions may be limited to times when the identified individual (s) or other identified objects are within the field of view of one or more scene cameras . Face recognition, object recognition, and / or other identification types can be used to verify the co-location of these objects, including the wearer of the device and one or more other, identified individuals. Actions may be limited to being performed only in the presence of these individuals, for example.

대안적으로는, 하나 이상의 다른 개인들의 존재 및/또는 승인이, 개인(들)이 착용한 또 다른 CBID-기반 디바이스에 의해서 수행될 수 있다. 이 경우, 개인(들)은 다른 디바이스-식별된 개인들과 함께 코-로케이트될 수 있으며, 또는 디바이스들 사이에서 직접적으로 전송된 인증(선택적으로는 데이터 전송 디바이스들을 개재시키는 것을 포함하여) 또는 보다 중앙집중화된(예컨대, 클라우드-기반의) 인증 서비스들을 통해 전송된 인증과 함께 원격으로 위치(remotely located)할 수도 있다. 코-로컬라이즈드(co-localized) 개인들의 경우, 인증 자격들(authentication credentials)의 전송은 바람직하게는, 근접장 통신(near field communication: NFC)으로 더 제한될 수 있다(즉 다른 데이터 전송 디바이스들의 사용은 배제한다). Alternatively, the presence and / or approval of one or more other individuals may be performed by another CBID-based device worn by the individual (s). In this case, the individual (s) may be co-located with other device-identified individuals, or they may be authenticated (including intervening data transmission devices) directly transmitted between the devices Or remotely located with authentication sent via more centralized (e.g., cloud-based) authentication services. In the case of co-localized individuals, the transmission of authentication credentials may preferably be further limited to near field communication (NFC) Use is excluded).

이와 반대로, 디바이스 착용자의 주변환경 내에서의 인증되지 않은 개인의 존재 및/또는 액션의 수행 동안에 존재하지 않도록 특별히 지정된 하나 이상의 식별된 개인들은, 디바이스가 임의의 액션 또는 가능한 액션들의 서브세트를 수행하는 것을 금지할 수 있다. 이러한 금지는 특정 헤드셋 디바이스들(예컨대, 전송 동안에 UUID에 의해서 식별된), 카메라들, 마이크로폰들, 적대적 출현(hostile appearance)(예컨대, 군사적 혹은 치안 유지 상황들에서), 기타 등등을 포함하는 임의의 객체들의 존재를 주변환경에서 배제하도록 확장될 수 있다. In contrast, one or more identified individuals specifically designated to be absent during the performance of an action and / or the presence of an unauthenticated individual within the wearer ' s perimeter environment may be used by the device to perform any action or subset of possible actions Can be prohibited. This prohibition may be applied to any of a variety of wireless devices including certain headset devices (e.g., identified by a UUID during transmission), cameras, microphones, hostile appearance (e.g., in military or policing situations) Can be extended to exclude the presence of objects from the surrounding environment.

이와 유사하게, 액션의 수행 및/또는 디바이스 착용자의 주변환경 내에서 객체(사람을 포함)의 존재는, 능력을 일시적으로 또는 영구적으로 폐지하는 원인이 될 수 있으며, CBID에 기초한 액션들을 향기롭게 하는 권한을 폐지하는 원인이 될 수 있다. 폐지(revocation)는 또한 원격 소스로부터의 명령들에 기초하여 수행될 수 있는데, 원격 소스는 예를 들어, 사기 행위들(fraudulent activities)이 수행되었는지 또는 수행 중인지를 판별할 수 있다. 인증자격들을 철회하는 것은, 개인, 개인들의 그룹, 디바이스, 특정 기능 또는 기능들의 그룹으로 제한될 수 있다. Similarly, the performance of an action and / or the presence of an object (including a person) in the environment of the wearer of the device may cause the capability to be temporarily or permanently abolished, and the ability to fragrant CBID- May be the cause of the abolition. Revocation can also be performed based on commands from a remote source, which can determine, for example, whether fraudulent activities are being performed or are being performed. Revocation of authentication credentials may be limited to individuals, groups of individuals, devices, certain functions or groups of functions.

CBID-가능한, 보안 구매 거래들(CBID-Enabled, Secure Purchasing Transactions)CBID-Enabled, Secure Purchasing Transactions (CBID-Enabled)

보안 쇼핑의 또 다른 일례에서, 디바이스 착용자의 신원에 대한 실시간 지식은, 각각의 물품(item)이 선택 및 구매될 때마다 금융 세부사항들(financial particulars)이 전자적으로 교환될 수 있게 한다. 이것은, 각각의 거래 혹은 거래들의 그룹에 대하여, 패스워드들, 보안 질문들, 혹은 계좌 정보를 반복적으로 입력할 필요를 제거한다. 결과적으로, 이러한 즉각적인 구매 시스템은 소위 온라인 쇼핑 "카트들"에 연관된 프로세스들을 제거하는데, 왜냐하면 계좌 정보를 입력하기 위한 목적으로 물품들을 모을(cluster) 필요가 없기 때문이다(도8 참조). 오직 고객의 편의를 위하여, 온라인 쇼핑 세션 동안에 구매된 물품들의 그룹들이 클러스터로 취급될 수 있으며 또는 구매자에게 요약될 수 있다. In another example of secure shopping, the real-time knowledge of the identity of the wearer of the device allows financial particulars to be electronically exchanged each time an item is selected and purchased. This eliminates the need to repeatedly enter passwords, security questions, or account information for each transaction or group of transactions. As a result, this immediate purchasing system eliminates the processes associated with so-called online shopping "carts " because there is no need to cluster the items for the purpose of entering account information (see FIG. 8). For customer convenience only, groups of items purchased during the online shopping session may be treated as clusters or summarized to the buyer.

도8은 CBID-인가된 온라인 구매를 수행하는 단계들의 시퀀스를 예시한다(온라인 "카트"에 물품들을 모을 필요가 없음). 구매될 물품이 식별되는 때(2900), 구매하고자 하는 소망을 나타내도록 안구 신호(2910)가 실행될 수 있다. 구매될 물품이 확인되면(2910), CBID-기반의 홍채코드(2930)가 인증된 구매자들에 속하는 홍채코드들의 데이터베이스(2940)와 비교된다(2950). 매칭이 판별된다면(2950)(그리고 충분한 자금, 허가들 등이 이용가능하다면), 구매 거래가 수행된다(2960). 이후, 디바이스 착용자는 추가 물품들(2900)에 대한 쇼핑을 계속할 수 있으며, 구매 프로세스는 임의 횟수만큼 반복될 수 있다. FIG. 8 illustrates a sequence of steps for performing a CBID-authorized online purchase (it is not necessary to collect items in an online "cart "). When an item to be purchased is identified 2900, an eye signal 2910 may be executed to indicate the desire to purchase. Once the item to be purchased is identified 2910, the CBID-based iris code 2930 is compared 2950 to the database of iris codes 2940 belonging to authenticated buyers. If a match is determined 2950 (and sufficient funds, permits, etc. are available), a purchase transaction is performed 2960. Thereafter, the device wearer may continue shopping for additional items 2900, and the purchasing process may be repeated a certain number of times.

다른 실시예에 따르면, 보안성을 강화하고 그리고 소위 "브릭 앤 모르타르(brick and mortar)" 소매 아울렛(retail outlets)에서의 간소화된 쇼핑(streamline shopping)을 강화하기 위한 시스템들 및 방법들이 제공된다. 이 경우, 디바이스 착용자의 주변환경을 보도록 헤드웨어 디바이스에 마운트된 카메라가, 구매의 관심 대상이 될 수 있는 객체들을 식별하는데 이용될 수 있다. 이러한 식별은, 구매가능한 물품들에 통상적으로 붙어있는 바코드 또는 quick-response(QR) 코드에 기초할 수 있다. 이러한 객체 식별은 해당 기술분야에 잘 알려진 이미지 프로세싱 방법들을 이용한다. According to another embodiment, systems and methods are provided for enhancing security and for enhancing streamline shopping in so-called "brick and mortar" retail outlets. In this case, a camera mounted on the headwear device may be used to identify objects that may be of interest to purchase, so as to view the environment of the wearer of the device. This identification may be based on a bar code or quick-response (QR) code typically attached to commercially available items. Such object identification uses image processing methods well known in the art.

제안된 구입 가격을 포함하는 물품에 대한 정보는 소매 아울렛에 관련된 프로세싱 유닛에 의해서 생성될 수 있다. 이러한 정보는 인근의 모니터들에 또는 디바이스 착용자와 관련된 헤드-마운트된 디스플레이에 표시될 수 있다. 만일 고객이 소저의 물품을 구매하기를 원한다면, CBID-기반의 거래가 고객에 의해서 개시될 수 있다. 이러한 거래들은 가게 전체에 걸쳐서 반복적으로 일어날 수 있다. 배달된 물품들과 거래 기록 사이에서의 매칭은, 상기 물품들이 고객에 의해서 상점으로부터 검증될 수 있게(verifiably) 제거되게 할 수 있다. CBID-기반의 소매점 구매들은 계산대 혹은 금전출납기가 필요없게 한다. 많은 경우들에 있어서, 구매 프로세스 동안의 자동화된, 실시간 정보의 디스플레이는 또한, 잠재적인 고객들을 도와주기 위한 가게 점원들의 필요성을 감소시킨다. Information about the article containing the proposed purchase price can be generated by the processing unit associated with the retail outlet. This information may be displayed on nearby monitors or on a head-mounted display associated with the device wearer. A CBID-based transaction may be initiated by the customer if the customer wishes to purchase the item's goods. These transactions can happen repeatedly throughout the store. A match between the delivered items and the transaction record may cause the items to be verifiably removed by the customer from the store. CBID-based retail purchases eliminate the need for cash registers or cashiers. In many cases, the display of automated, real-time information during the purchasing process also reduces the need for store clerks to help potential customers.

CBID 접근법의 특정한 예시적인 구현예는 안구-신호 방법들 또는 프로세스들을 이용한 "통로에서 구매(buy at the aisle)" 이며, 이는 "룩 투 바이(look to buy)" 이라고 지칭된다. 이 경우, 구매 프로세스는 물품과 관련된 식별 심볼(예컨대, 바코드, QR 코드) 또는 구매될 물품의 객체 식별자를 응시하고, 그리고 구매 활성화 시퀀스를 실행하는 것으로 구성된다. 식별 심볼들은 물품 또는 그것의 포장에 물리적으로 부착될 수 있으며, 또는 물품과 관련된 사이나지(signage)에 있을 수도 있다(예를 들어, 통 안에 있는 벌크 물품들과 관련하여). 구매 활성화 시퀀스는 다음의 단계들의 임의의 조합을 포함할 수 있다. A particular exemplary implementation of the CBID approach is "buy at the aisle" using eye-signal methods or processes, which is referred to as "look-to-buy ". In this case, the purchasing process consists of looking up an identification symbol (e.g., bar code, QR code) associated with the item or an object identifier of the article to be purchased, and executing a purchase activation sequence. The identification symbols may be physically attached to the article or its packaging, or may be in a signage associated with the article (e.g., in connection with bulk articles in the barrel). The purchase activation sequence may include any combination of the following steps.

● 식별 심볼(들) 또는 객체 인식(object recognition)을 인덱스로 디코딩하며 상기 인덱스는 물품에 대한 정보를 데이터베이스로부터 검색하는데 이용된다. Decode the identification symbol (s) or object recognition with an index, which is used to retrieve information about the item from the database.

● 상기 물품에 대한 가격을 포함하는 정보를 (HMD 또는 원격 디스플레이 디바이스 상에) 디스플레이한다. Display information (on the HMD or remote display device) containing the price for the item.

● 안구 신호들 및/또는 다른 상호작용 수단들을 이용하여, 선택적으로는, 구매자가 원하는 임의의 추가적인 정보(예컨대, 세부사항들, 유사한 물품들의 이용가능성, 품질보증 정보)를 선택 및 공급한다. (E. G., Availability of similar items, quality assurance information) desired by the buyer using eye signals and / or other interacting means.

● 선택적으로는, 가격을 협상한다. Optionally negotiate price.

● 구매가 요청되었음을 안구 신호 시퀀스를 이용하여 표시한다. ● Use the eye signal sequence to indicate that a purchase has been requested.

● 식별된 디바이스 사용자가 인증되었으며 그리고 구매를 하기에 충분한 자금을 갖고 있음을, CBID를 이용하여 보장한다. ● Ensure that the identified device user is authenticated and has sufficient funds to make purchases using CBID.

● 보안 텔레커뮤니케이션을 이용하여 구매 프로세스를 실행한다. ● Execute the purchasing process using secure telecommunications.

● 구매가 완료되었다라는 사용자 피드백을 제공한다. ● Provide user feedback that the purchase is complete.

● 상기 물품을 텔리(tally) 또는 상점으로부터 내보내질 수 있는 물품들의 "가상 카트"에 부가한다. ● Add the article to a "tally" or "virtual cart" of articles that can be exported from the store.

● 유사한 단계들을 이용하여 추가 구매를 수행한다. • Perform additional purchases using similar steps.

● 실제 물품들 또는 이들의 등가물들이 가까운 미래에 내보내지거나 혹은 배달될 수 있도록, 상점으로부터 물품을 물리적으로 내보내거나 또는 구매된 물품에 가상으로 "태그" 한다. • physically "out" or "physically" export the item from the store so that the actual items or their equivalents can be exported or delivered in the near future.

● 임의의 금전 등록기(cash register) 없이, 가게로부터 내보내질 물품들에 대한 허가가 시각적인 검사에 의해서 혹은 자동적으로(예컨대, RFID 방법을 이용하여) 검증될 수 있으며, 이는 모든 물리적인 물품들이 가상 구매 카트에 있는 물품들과 매칭되는 것을 보장한다. ● Permissions for goods to be exported from the store can be verified by visual inspection or automatically (eg, using the RFID method), without any cash register, Ensure that the items in the cart are matched.

이러한 "룩 투 바이(look to buy)" 프로세스는 다음과 같은 장점들을 갖는다. This "look to buy" process has the following advantages.

● 물품을 응시하면 이용가능한 상세한 정보가 디스플레이를 통해 제공되므로, 가게 점원들과 상호작용할 필요성이 크게 감소하며, 이는 가게 점원들에 대한 필요성을 감소하거나 일소할 수 있다. ● The ability to interact with store clerks is greatly reduced since the available detailed information is provided through the display, which can reduce or eliminate the need for store clerks.

● 구매 정보가 중앙 데이터베이스에서 저장 및 액세스되므로, 가격 등과 같은 중요 요소들이 즉각적으로 조정될 수 있으며, 심지어 물품마다(item-by-item basis) 구매자와 협상될 수도 있다. • Purchasing information is stored and accessed in a central database, so that key elements such as pricing can be adjusted immediately and even negotiated with the buyer on an item-by-item basis.

● 구매 프로세스를 실행하기 위한 소매 인프라스트럭처(retail infrastructure)(즉, 하드웨어)가 최소화되거나 또는 존재하지 않을 수도 있다(왜냐하면, 구매자가 주요 하드웨어를 공급하기 때문에). 이와 유사하게, 소매 하드웨어 유지관리 또는 업그레이드가 필요없다. • The retail infrastructure (ie, hardware) to implement the purchasing process may be minimized or non-existent (because the buyer supplies key hardware). Similarly, no retail hardware maintenance or upgrades are required.

● "룩 투 바이(look to buy)" 구매들의 경우, 금전 등록기 또는 계산대(이들을 운영하는 종업원들을 포함하여)가 필요없다. • For "look-to-buy" purchases, there is no need for a cash register or checkout counter (including those who run them).

● 구매자에 의해서 물품이 특별하게 응시(specifically viewed)될 때에 구매가 이루어지므로, 유사하게 바라보거나 또는 기능할 수도 있는 물품들에 관한 애매모호함이 존재하지 않는다. There is no ambiguity about items that may look or function similarly, since purchases are made when the goods are specifically viewed by the purchaser.

● 구매된 모든 물품들이 개별적으로 식별되기 때문에, 인벤토리 제어(inventory control)가 완전 자동화될 수 있다. ● Since all purchased items are individually identified, inventory control can be fully automated.

● "룩 투 바이" 는 또한, 전통적인 소매 구매 방법과 함께 공존할 수 있다. • "Look to Buy" can also co-exist with traditional retail purchasing methods.

"룩 투 바이"의 보다 일반화된 일례는 "세계가 너의 상점(world is your store)" 이다. 이 경우, 객체 인식이 이용되어 구매할 물품들이 식별되며, 이들은 사용자의 주변환경 내에 그냥(simply) 보여진다. 이것은 안구 신호들 및 사용자의 주변환경에서의 시선 추적을 이용하여 특별하게 관찰되는 객체들에 기반될 수 있다. 일례로서, 상점 안의 드레스 또는 다른 사람이 입고 있는 드레스가 관찰된다면, 객체 인식을 이용하여, 상기 드레스를 구매하기 위한 하나 이상의 온라인 소스들이 식별될 수 있으며, 이후 실제 세계에서 이와 같이 보여진 객체, 표지판 상에 묘사된 것, 또는 디스플레이 상에 보여지는 것(예를 들어, 텔레비젼 광고 동안에)에 대한 인식에 주로 기초하여 즉각적인 구매가 이루어질 수 있다. A more generalized example of "Look To Buy" is "world is your store". In this case, object recognition is used to identify the items to purchase and they are simply shown in the user's surroundings. This can be based on eye signals and objects that are specifically observed using eye tracking in the user's environment. As an example, if a dress in a shop or a dress worn by another person is observed, one or more online sources for purchasing the dress can be identified using object recognition, and then the object, An instant purchase can be made mainly based on the perception of what is depicted on the display, or what is shown on the display (e.g., during a television commercial).

"세계가 너의 상점(world is your store)" 구매는, 온라인 구매와 유사한 방식으로 진행될 수 있다. 주요한 차이점은, 구매될 객체의 세부사항(specification)이 객체 인식에 기초하여 만들어지는 점이며, 선택적으로는 객체에 부착된 임의의 식별 태그(예컨대, 바코드, QR 코드)를 응시 및 등록함에 의해서 증강될 수 있다. 또한, 이러한 세부사항은 선택적으로는, 디바이스 사용자와의 상호작용에 의해서 도움을 받을 수 있다. 예를 들어, 객체의 중요 부분이 관찰되지 않았다면, 객체의 신원을 보다 완전하게 그리고 고유하게 알아내기 위하여, 사용자는 객체들을 볼 수 있으며 그리고 객체들과 상호작용할 수 있다. 일례로서, 드레스의 구매는, 원래는 전면이 보여졌던 드레스의 후면을 볼 필요가 있을 수 있다. 사용자는 상호작용형 프로세스(interactive process)를 통하여 후면을 보도록 조언을 받을 수 있다. 텍스트, 그래픽 정보, 지시 정보, 혹은 사용자의 시야 내에서 덧대어진 "증강 현실" 정보를 사용자에게 제공하는 상호작용형 대화(interactive dialogue)는, 사용자의 결정 프로세스를 용이하게 할 수 있는바, 이는 물질들, 능력들, 성능들, 품질, 순위들(ratings), 친구들에 의한 사용후기, 가격, 선적 시기, 기타 등등과 관련된 안구 신호들을 통해 정보를 상호작용적으로 제공한다. 또한, 이러한 대화는 사용자 신원, 특정 정보에 관한 사용자 행위들의 블록 트랙킹(block tracking), 기타 등등을 검증하기 위하여, 실질적으로 지속적인 혹은 간헐적인 사용자 인증을 요구받을 수 있다. 또한, 상기 구매는, 신원, 과거 거동들, 성능, 선호사항들, 및 욕구들, 가령 디바이스 사용자의 드레스 사이즈 기타 등등과 관련되는 개인적인 기초 정보의 데이터베이스에 대한 액세스를 포함할 수 있다. 온라인 구매들 동안에서 처럼, 구매(들)을 위한 인증은 CBID에 기초한다. 물건(들)은 사용자와 관련된 주소로 배송될 수 있다. "World is your store" purchases can be processed in a similar way to online purchases. The main difference is that the specification of the object to be purchased is made on the basis of object recognition and can optionally be enhanced by staring and registering any identification tag (e.g., bar code, QR code) . In addition, these details may optionally be assisted by interaction with the device user. For example, if an important part of an object has not been observed, the user can see and interact with the objects to more completely and uniquely identify the identity of the object. As an example, purchasing a dress may need to look at the back of the dress where the front was originally seen. The user can be advised to look at the rear through an interactive process. An interactive dialogue that provides the user with text, graphical information, directional information, or "augmented reality" information padded within the user's field of view can facilitate the user's decision process, Interactively provide information through ocular signals associated with the capabilities, abilities, performance, quality, ratings, reviews by friends, prices, timing of shipment, and so on. In addition, such conversations may be subject to a substantially continuous or intermittent user authentication in order to verify user identity, block tracking of user actions on specific information, and so on. The purchase may also include access to a database of personal basic information related to identity, past behavior, performance, preferences, and desires, such as a device user's dress size, and so on. As during online purchases, the authentication for the purchase (s) is based on the CBID. The item (s) may be shipped to an address associated with the user.

대안적으로는, 장소들 혹은 개인들에 대한 자동 인식에 기초하여 배송 위치들이 또한 특정될 수도 있다. 예를 들어,디바이스 사용자에 의해서 보여지고 있는 사람과 연관있는 개인 주소로 배송이 이루어질 수 있다. 또한, 디바이스 착용자와 관련된 장소에 대한 인식 혹은 세부사항(예컨대, GPS를 이용한)에 기초하여, 배송이 특정될 수 있다. 장소 인식은 예를 들어, 거리 표지판 혹은 빌딩에 대한 객체 인식에 기초할 수 있다.Alternatively, delivery locations may also be specified based on automatic recognition of locations or individuals. For example, a delivery can be made to a personal address associated with the person being viewed by the device user. Delivery can also be specified based on the perception or details of the location associated with the wearer of the device (e.g., using GPS). Place recognition can be based, for example, on object recognition for street signs or buildings.

다른 CBID-가능한 보안 어플리케이션들(Other CBID-Enabled Secure Applications)Other CBID-Enabled Secure Applications

또 다른 실시예에 따르면, 중요한 정보가 원치않는 수신자들에 가는 것을 방지하면서, 디바이스 착용자와 보안 정보의 소스 사이에서 보안 데이터의 교환을 제어하는 장치,시스템 및 방법들이 제공된다. 전송된 데이터에 대한 액세스를 획득하고자 시도하는 최고 레벨들의 전문성에서, 잠재적인 공격 매커니즘은 CBID 시스템과 보안 서버 사이의 양-방향 통신을 모방하기를 시도하는 것이 될 것이다. 이러한 이유로, CBID 시스템과 임이의 원격 컴퓨터 사의 통신들은 암호화된다. 암호 키는 제조된 각각의 헤드웨어 시스템, 타겟 홍채코드에 할당되는 고유 식별 코드를 포함할 수 있으며, 그리고 시간/사용-감지형이 될 수 있다. 전술한 바와 같이, CBID 시스템 내의 암호 및 암호-해독 프로세스들은 또한 하드웨어 요소들를 포함할 수 있는데, 이들 하드웨어 요소들은 액세스하기 어려우며, 전송된 데이터의 보안성을 더욱 증가시킨다. According to yet another embodiment, apparatus, systems and methods are provided for controlling the exchange of secure data between a device wearer and a source of security information, while preventing sensitive information from going to unwanted recipients. In the highest level of expertise attempting to gain access to the transmitted data, the potential attack mechanism will attempt to mimic the bi-directional communication between the CBID system and the security server. For this reason, the communications of the remote computer with the CBID system are encrypted. The cryptographic key may comprise a respective headware system manufactured, a unique identification code assigned to the target iris code, and may be time / use-sensitive. As described above, the encryption and decryption processes within the CBID system may also include hardware components that are difficult to access and further increase the security of the transmitted data.

안구-신호 제어 시퀀스들이 인증(authentication)을 이용하는 행동들의 일례들은 현금 자동 입출금기(ATM)로부터 현금을 인출하는 것, 온라인 구매들을 하는 것, 신원에 의해서 확인 안구-신호 시퀀스를 이용하여 서명될 수 있는 전자 서명들을 필요로 하는 문서들, 온라인, 개인, 그룹, 혹은 또 다른 테스팅 중 임의 형태의 테스팅 동안에 신원 검증 요건들(identity verification requirements)을 준수하는 것, 가령, 전문 운전, 조종(piloting) 또는 다른 운송수단 등과 같은 여러 형태의 고용을 위하여 신원과 결부된 성능 요건들(performance requirements)을 준수하는 것, 구두로 제공되거나 또는 사용자에 의해서 읽혀진 통보받은 동의(consent)에 대한 수신확인(confirming acknowledgement)(이에 따라 판독 동안의 단속성 행동(saccadic activity) 동안에 실질적으로 지속적인 신원 확인이 발생한다), 임의의 법적 구속력이 있는 합의를 수신확인하는 것, 임상 시험(clinical trial) 또는 다른 의학 연구, 처치 혹은 테스트 프로그램을 위해 데이터를 수집하는 동안에 신원 검증 요건들을 준수하는 것, 독서, 체크-인, 수행을 요구하는 임의의 법원-명령된 행위 동안에 또는 가석방(parole), 보호관찰(probation), 혹은 감옥 또는 다른 형태의 수용시설 내의 죄수들에 의한 거동 동안에 신원 검증 요건들을 준수하는 것, 정부에서 모니터링하는 직원들, 에이전트들, 또는 운수보안국(Transportation Security Administration) 훈련 혹은 활동들, 전투 또는 정보 교육 활동들(intelligence training activities), 인구조사 훈련 혹은 활동들(census training or activities)을 포함하는 업무들의 수행 동안에 모니터링 혹은 테스트되는 군인들에 대한 신원 검증 요건들을 준수하는 것, 사용자가 핸드라이팅 프로세스의 캡춰와 연관되는 안구-신호들을 사용하는 사례들을 포함하는 핸드라이팅(handwriting) 동안에 신원을 확인하는 것, 안구-신호 개시 및 상호작용을 포함하는 경쟁적인 혹은 전문적인 비디오 게임 플레이 동안에 신원을 확인하는 것, 체중 감량, 스포츠 훈련, 공포증 극복, 웅변, 금연, 재활 프로그램을 포함하는 개인적인 자기-개발 프로그램 동안에 신원을 확인하는 것, 정보에 대한 안구-신호 구동 캡춰 혹은 레코딩 동안에 신원을 태그하는 것(상기 정보에 대한 개인 신원 확인된 후속 액세스를 위해), 검증될 수 있게 식별가능한(verifiably identifiable) 당사자들이 정보 공유를 선택하는 상호 응시(mutual gaze)의 사례들과 관련된 정보 공유에 참여하도록 신원을 확인하는 것을 포함할 수 있다. Examples of behaviors in which eye-signal control sequences utilize authentication include withdrawing cash from ATMs, making online purchases, verifying by identity, using eye-signal sequences, Compliance with identity verification requirements during any type of testing of documents requiring electronic signatures, online, personal, group, or other testing, for example, professional driving, piloting or other Compliance with the performance requirements associated with the identity for various forms of employment, such as transportation, etc., confirmation acknowledgment of the consent received orally or read by the user Thereby, a substantially continuous identification occurs during the saccadic activity during the reading. ), Acknowledging any legally binding agreements, observing identity verification requirements while collecting data for clinical trials or other medical research, treatment or testing programs, reading, checking-in , Any court requiring action - to comply with identity verification requirements during an ordered act or during a behavior by a parole, probation, or prisoner in prison or other form of receiving facility; Including, but not limited to, monitoring staff, agents, or Transportation Security Administration training or activities, combat or intelligence training activities, or census training or activities. Compliance with identity verification requirements for soldiers monitored or tested during the performance of the Identification during handwriting, including instances of using eye-signals associated with capture of the process, identification during competing or professional video game play involving eye-signal initiation and interaction, Identifying during a personal self-development program that includes identifying, weight loss, sports training, phobia overcome, speechlessness, smoking cessation, rehabilitation programs, tagging the identity during eye- (For personally identifiable follow-up access to the information), verifiably identifiable Participants in information sharing related to cases of mutual gaze in which the parties choose to share information ≪ / RTI >

또 다른 실시예에 따르면, 컴퓨팅 디바이스들에 대한 통상적인 패스워드-기반의 액세스를 대체하거나 혹은 증강시키는 장치들, 시스템들, 및 방법들이 제공된다. 이러한 시스템은 패스워드 및/또는 보안 질문들에 비하여, 우수한 보안성을 제공할 수 있다. 이것은, 사용자 신원(즉, 개인별로 완전히 고유함)에 대한 생체측정의 본질로 인한 결과일 뿐만 아니라, 자체 완비된 시스템(self-contained system) 내에서 실질적으로 지속적으로 디바이스 착용자를 완벽하게 모니터링할 수 있는 능력으로 인한 결과이다. 상기 시스템은, 대략 매초 마다, 또는 가능하다면, 안구 신호의 형성들 또는 실제 혹은 가상 환경에서 생물 혹은 무생물 엔티티들 및 행위들을 관찰하는 것을 포함하는 다른 안구-활동들 동안의, 단속 운동들(saccades), 마이크로 단속 운동들(micro-saccades) 동안에 충분히 재-검증할 수 있을 정도로 빠른 샘플링 레이트들을 포함하는 임의의 원하는 빈도로, 디바이스 착용자의 신원을 실질적으로 지속적으로 재-검증하도록 설계된다. 패스워드 입력 다음에 사용자가 (공공연하게, 또는 의도치 않게) 대체될 수도 있는 전통적인 패스워드 입력과 달리, CBID 기반의 컴퓨터 액세스 시스템은 우호적인 디바이스-착용자의 신원이 손실되면 그 즉시 보안 동작들을 중단시킬 수 있다. According to yet another embodiment, devices, systems, and methods are provided for replacing or augmenting conventional password-based access to computing devices. Such a system can provide superior security compared to password and / or security questions. This is not only a result of the nature of the biometrics of the user identity (i. E., Completely unique to the individual), but also the ability to seamlessly monitor the device wearer substantially continuously within its self- contained system It is the result of the ability. The system may be adapted to perform saccades during different eye-activations, including observing biological or inanimate entities and behaviors, approximately every second or, if possible, in formations of the ocular signal or in a real or virtual environment. , And is designed to substantially re-verify the identity of the wearer of the device substantially at any desired frequency, including sampling rates that are sufficiently high to be re-verifiable during micro-saccades. Unlike traditional password input, which may be replaced by a user (either openly or unintentionally) after entering a password, the CBID-based computer access system can immediately stop security operations if a friendly device-wearer's identity is lost have.

또 다른 실시예에 따르면, 소위 "디지털" 혹은 "전자" 서명들의 보안성 및 편의성을 향상시키는 장치들, 시스템들 및 방법들이 제공된다. 전자 서명들은 1) 메시지 혹은 문서의 소스는 알고있는 전송자로부터 온 것이다, 2) 전송자는 메시지 전송을 나중에 부인할 수 없다, 및/또는 3) 메시지는 수송 중에 변경되지 않았다라는 것을 나타내기 위해 다양한 암호화 기술들을 사용한다. CBID-기반의 디지털 서명의 생성은, 메시지의 진정한 소스로서 고유한 개인을 검증할 수 있는 추적가능한(traceable) 방법을 제공한다. 디지털 서명의 일례들은 간단한 생체 인증, 아티팩트(artifact)를 형성하기 위한 가령, 타이핑, 글쓰기(writing), 말하기(speaking) 등의 개인에 대한 임의 형태의 생산적인 창작물(productive creation)을 포함하며, 그 결과 사용자의 시선은 실질적으로 지속적인 생체 인증과 동시에, 생산 행위에 포커싱될 수 있다. According to yet another embodiment, devices, systems and methods are provided that enhance the security and convenience of so-called "digital" or "electronic" signatures. The digital signatures are used to indicate that 1) the source of the message or document is from a known sender, 2) the sender can not deny the message transmission at a later time, and / or 3) Lt; / RTI > The generation of a CBID-based digital signature provides a traceable way to verify a unique individual as a true source of the message. One example of a digital signature includes any form of productive creation for an individual, such as simple biometrics, typing, writing, speaking to form an artifact, As a result, the user's gaze can be focused on the production behavior, as well as the substantially continuous biometric authentication.

또한, 디바이스의 착용자의 신원을 실질적으로 지속적인 검증하는 것은, 추적가능한 문서들의 연속적인 시리즈가 생성될 수 있게 한다. 만일, 이러한 전자적으로 서명된 문서들이 법적 구속력이 있는 것으로 받아들여진다면, 법적 문서들을 빠르게 교환할 수 있는 능력은, 많은 전문적인 서비스 제공자들이 그들의 서비스들 중 더 많은 것이 온라인에서 안전하게 수행될 수 있게 한다. 이러한 서비스 제공자들의 일례들은, 금융 자문가들, 보험 회사들, 법률가들, 원격 진료 기반의 의료 진단들 및 처방들과 관련된 의사들 및 부동산 세일즈를 포함한다. In addition, verifying substantially the identity of the wearer of the device allows a continuous series of traceable documents to be generated. If these electronically signed documents are accepted as legally binding, the ability to quickly exchange legal documents allows many professional service providers to ensure that more of their services are performed securely online . Examples of such service providers include financial advisers, insurance companies, lawyers, physicians related to telemedicine-based medical diagnostics and prescriptions, and real estate sales.

통신 링크(155)는 유선 이더넷 또는 가령, IEEE 802.11에 서술된 통신 프로토콜들, 블루투스, 지그비(Zigbee) 등의 무선 기술들 그리고 LTE, GSM, CDMA, 및 GPPRS 등과 같은 모바일 폰 통신 프로토콜들을 포함할 수 있다. 통상적으로는, 다수의 통신 매체들 및 프로토콜들이, 착용자 신원 상태 및 다른 데이터를 원격의 보안 프로세싱 유닛으로 전송하는데 연관될 수 있다. 예를 들어, 헤드웨어 디바이스 및 로컬 라우터 사이에서는 무선 통신(예컨대, IEEE 802.11)이 이용될 수 있으며, 로컬 라우터는 소위 트위스트-페어 유선 시스템(twisted-pair wired system)을 통해 패킷들을 전송하며, 트위스트-페어 유선 시스템은 광 섬유 케이블을 통해 멀리 떨어져 있는 중앙 수신 프로세싱 유닛(예컨대, 서버 시스템)으로 데이터를 전송한다. The communication link 155 may include wired Ethernet or other mobile communication protocols such as those described in IEEE 802.11, wireless technologies such as Bluetooth, Zigbee, and LTE, GSM, CDMA, and GPPRS have. Typically, multiple communication media and protocols may be involved in transmitting the wearer identity state and other data to a remote secure processing unit. For example, wireless communication (e.g., IEEE 802.11) may be used between the headwear device and the local router, where the local router transmits packets through a so-called twisted-pair wired system, - The pair wired system transmits data over a fiber optic cable to a remote central processing unit (e.g., a server system).

일부 어플리케이션들에서는, 외부 프로세싱 유닛으로의 보안(즉, 암호화된) 정보의 단방향 소싱과 결부되어, 디바이스 착용자의 신원에 대한 검증을 요구한다. 온라인 구매를 하기 위하여 신용 카드 혹은 계좌 정보를 입력하는 것은 이러한 모드의 예시적인 어플리케이션이다. 다른 어플리케이션들은 디바이스 착용자의 우호적인 신원확인이 존재하는 때에만 배타적으로 보안 정보를 수신할 것을 요구할 수 있다. 기밀인(classified), 판독-전용 문서들의 디스플레이가 이러한 모드의 예시적인 어플리케이션이다. 다른 어플리케이션들은 디바이스 착용자의 우호적인 신원확인이 존재하는 경우 양 방향에서의 보안 전송을 요구할 수 있다. 질의된 질문들 및 학업 시험에 대한 사용자 응답들 둘다를 보호하고자 하는 것이 이러한 모드의 예시적인 어플리케이션이다. Some applications require verification of the identity of the wearer of the device, coupled with unidirectional sourcing of secure (i.e., encrypted) information to the external processing unit. Entering a credit card or account information to make an online purchase is an exemplary application of this mode. Other applications may require exclusively to receive security information only when there is a friendly identity verification of the wearer of the device. The display of classified, read-only documents is an exemplary application of this mode. Other applications may require secure transmission in both directions if there is a friendly identification of the wearer of the device. It is an exemplary application of this mode to protect both questioned questions and user responses to academic tests.

또 다른 실시예로서, 보안 정보의 수신인들을 한정된 수의 식별된 개인들로 제한하는 시스템들 및 방법들이 제공된다. 예를 들어, 독점적인 사업 문서들이 식별된 개인들의 그룹에 배포되는 것이 바람직할 수 있다(수신인들의 일부에 대해서 상기 문서가 기록 혹은 저장될 가능성들이 없이). 이 경우, 문서들은 암호화된 방식으로 전송되며, 이와 함께 내장 디바이스 및 디바이스 착용자들의 홍채코드들 및/또는 특정한 헤드웨어 시스템들에 링크된 암호-해독 키들이 동봉된다. 우호적인 CBID가 존재하고 그리고 또한 선택적으로는 개별적인 시야 차단기(아래 참조)가 제자리에 있는 경우에, 제한된 개수의 수신 사용자들/시스템들 내에서만 문서 암호-해제가 가능할 것이다. In yet another embodiment, systems and methods are provided for restricting recipients of security information to a limited number of identified individuals. For example, it may be desirable to distribute proprietary business documents to a group of identified individuals (without the possibility of the document being recorded or stored for some of the recipients). In this case, the documents are transmitted in an encrypted manner, along with enclosed iris codes of embedded device and device wearers and / or decryption keys linked to specific headware systems. It will be possible to decrypt documents only within a limited number of receiving users / systems if there is a friendly CBID and also optionally if the individual field of view breaker (see below) is in place.

또 다른 실시예로서, CBID는 식별된 개인(또는 개인들의 그룹)에 의한 행위들의 수행을 검증가능하게 문서화하는데 이용될 수 있다. 이 경우, 특정한 데이터 세트를 읽거나 및/또는 볼 때, 디바이스 착용자의 시야의 일반적인 방향으로 지향된 장면 카메라들에 의해서 캡춰된 비디오 시퀀스들 및/또는 마이크로폰에 의해서 녹음된 오디오 시퀀스들이 기록된다. 이들 데이터에는, 디바이스 착용자에 대한 실질적으로 지속적인 신원확인과 타임-스탬프들이 첨부된다. 이후, 시퀀스들은 행위(예컨대, 읽기, 보기 등등)가 수행되었고 그리고 누가 이를 수행했는가 라는 사실에 대한 문서적 증거로서, 짧은 기간 동안 혹은 연장된 기간 동안(필요에 따라) 원격으로 획득될 수도 또는 헤드웨어 디바이스 내에서 획득될 수도 있다. In yet another embodiment, the CBID may be used to verifiably document the performance of behaviors by the identified individual (or group of individuals). In this case, when reading and / or viewing a particular set of data, the video sequences captured by the scene cameras oriented in the general orientation of the device wearer's field of view and / or the audio sequences recorded by the microphone are recorded. These data are accompanied by substantially continuous identification and time-stamps on the wearer of the device. Thereafter, the sequences may be obtained remotely (as needed) for a short period of time or for an extended period of time as documented evidence of the fact that the action (e.g., reading, viewing, etc.) Lt; / RTI > device.

이러한 실시예들에 대한 어플리케이션들의 일례들은, 고가의 물질들(가령, 다이아몬드)을 취급하는 것, 조립 라인 검사들을 개선하는 것(예컨대, 결함있는 아이템이 제거되었는지), 훈련 프로세스들(예컨대, 운전자 교육), 의료적 절차들(예컨대, 수술 동안에 수행되는 단계들), 재앙적 이벤트들(catastrophic events)(예컨대, 충돌에 연루된 운전자의 신원), 또는 적절한 개인에 의해서 완벽하게 수행될 것이 요구되는 검사들(예컨대, 조종사에 의한 비행 전 검사), 등등의 행위들 동안에 개인들의 신원들을 검증가능하게 문서화하는 것을 포함한다. Examples of applications for these embodiments include, but are not limited to, handling expensive materials (e.g., diamonds), improving assembly line checks (e.g., if a defective item has been removed), training processes (E.g., education), medical procedures (e.g., steps performed during surgery), catastrophic events (e.g., the identity of the driver involved in the collision) (E. G., Pre-flight testing by a pilot), and so forth. ≪ / RTI >

어플리케이션들의 다른 일례들은, 유명인(celebrities), 프로 운동 선수, 프로 비디오 게이머, 획기적인 수술을 집도하는 외과의, 또는 행위를 수행하는 다른 전문가들이 실질적으로 지속적인 또는 간헐적인 인증과 함께, 전문가의 시선이 캡춰됨과 아울러 이와 동시에 장면 카메라 레코딩 혹은 가상 디스플레이 레코딩을 수행하는 것이다. 결과적인 "시선-캐스트(gaze-cast)"(즉, 원형 혹은 관련된 객체들 혹은 영역들에 포커싱되는 형태의 사용자의 시선이 동시에 중첩되는 외부 비디오의 레코딩)는 인증될 수 있으며 그리고 재미, 기술 개발, 혹은 다른 사용을 위해 개인들에게 판매, 라이선스, 혹은 대여될 수 있다. Other examples of applications include capturing the eyes of a professional with virtually continuous or intermittent authentication, such as celebrities, professional athletes, professional video gamers, surgical surgeons performing surgeries, or other professionals performing acts And simultaneously performs scene camera recording or virtual display recording. The resulting "gaze-cast" (i.e., recording of an external video in which the user's gaze in the form of being focused on the original or related objects or areas is simultaneously superimposed) , Or sold, licensed, or rented to individuals for other uses.

보안성의 정도(Degrees of Security)Degrees of Security

다른 실시예들에서, 시스템들 및 방법들은 극도의 보안이 요구되는 상황을 포함하는 넓은 범위의 보안 레벨들로 조절될 수 있다. 극도의 보안 레벨들은 예를 들어, 고 가치 시설물(예컨대, 핵 비축 시설) 또는 비밀 작전들에 대한 액세스를 획득하기 위하여 군사 어플리케이션들 동안에 적용될 수 있다. 이러한 극도의 보안 케이스들에서, 상기 시스템은 홍채의 이미지 혹은 추출된 안구를 홍채 추적 카메라의 시야 내에 배치하는 것 등의 복잡한 속임수 시도들을 방어해야하만 한다. 이러한 시도들에 대항하는 수단들의 일례로서, 눈의 생리학적인 반응들이 모니터링될 수 있다. In other embodiments, the systems and methods may be adjusted to a wide range of security levels, including situations where extreme security is desired. Extreme security levels may be applied during military applications, for example, to obtain access to high value facilities (e.g. nuclear stockpiles) or covert operations. In these extreme security cases, the system must defend complex cheating attempts, such as placing an image of the iris or an extracted eye within the field of view of the iris tracking camera. As an example of the means against these attempts, the physiological responses of the eye can be monitored.

보안 프로토콜들은 잠금해제, 활성화, 또는 이벤트를 인증하기 위하여, 소정 액션 또는 일련의 안구 신호들에 다수의 개인들이 관련될 것을 요구할 수 있다. CBID 및 안구 추적을 구비한 HMDs 를 착용한 개인들은, 이벤트를 개시하기 위해서는, 인증된 병렬, 직렬, 혹은 상호관련된 액션들을 수행하는 것을 포함하는 보안 프로토콜에 따라야 한다. Security protocols may require multiple individuals to be associated with a given action or series of eye signals to unlock, activate, or authenticate an event. Individuals wearing HMDs with CBID and eye tracking must follow a security protocol that involves performing authenticated parallel, serial, or interrelated actions to initiate an event.

이러한 높은 보안 레벨을 갖는 실시예들에서, 보안-기반 측정들(security-based measurements)은 주변환경이 안전하다는 하나의 신뢰 측정(single measure of confidence)으로 합병될 수 있다. In embodiments having such a high security level, security-based measurements may be merged into a single measure of confidence that the surrounding environment is secure.

복합 보안 인덱스(Composite Security Index: CSI) 같은 것이 이용되어, 보안 정보가 디스플레이될 것인지 및/또는 신뢰할만 것으로 간주될 수 있는지를 평가할 수 있다. 예를 들어, CSI의 감소는 추가적인 보안 질문들 또는 "더미" 정보가 디바이스 사용자 반응들을 추가로 테스트하게 할 수 있다. 만일, CSI가 지속적으로 떨어진다면, 다양한 추가 단계들이 취해질 수 있는데, 여기서 예를 들어 CBID 플랫폼은, 원격의 보안 서버에 의해서, 디바이스 착용자의 주변환경에 관한 비디오 및/또는 오디오를 전송할 것을 요구받을 수 있다. 원하는 보안 레벨에 따라, CSI에 기여하는 성분들이 좁게 혹은 넓게 선택될 수 있다. CSI 성분들은 다음 중 하나 이상을 포함할 수 있다. A composite security index (CSI) may be used to assess whether the security information is to be displayed and / or trusted. For example, a reduction in CSI may cause additional security questions or "dummy" information to further test device user responses. If the CSI continuously drops, various additional steps may be taken where, for example, the CBID platform may be requested by a remote security server to transmit video and / or audio about the wearer ' have. Depending on the desired security level, the components contributing to CSI may be selected narrowly or broadly. The CSI components may include one or more of the following.

a. 실시간 홍채 스캔들과 관련된 식별 계수들의 매칭 정도(엄격성 기준을 포함하여), a. The degree of matching (including strictness criteria) of identification coefficients associated with real-time iris scans,

b. 높은 엄격성(즉, on-axis) 홍채 인식 이후에 경과된 시간,b. Highly strict (i.e., on-axis) elapsed time after iris recognition,

c. 오프-축(off-axis) 응시 동안 눈 주위의 영역들과의 패턴 매칭의 신뢰성의 정도, c. The degree of reliability of pattern matching with areas around the eye during an off-axis gaze,

d. 홍채들의 지오미트리, 포지션, 및 움직임을 포함하는 안구 생체측정(ocular biometrics), d. Ocular biometrics including geometry, position, and motion of iris,

e. 디스플레이와 관련된 방향을 바라보면서 디바이스 착용자가 소비한 시간(및 일관성), e. Looking at the direction associated with the display, the time (and consistency) spent by the device wearer,

f. 눈 깜박임(즉, 눈꺼풀이 홍채를 커버하는 짧은 기간)들의 존재, 빈도, 및 속도, f. The presence, frequency, and velocity of eye flicker (i.e., the short duration that the eyelids cover the iris)

g. 헤드웨어 디바이스의 구조적 무결성을 판별하는 센서들의 출력g. Outputs of sensors that determine the structural integrity of the headwear device

h. 헤드-업 디스플레이 또는 인근의 디스플레이 모니터 상의 정보(예컨대, 질문들)의 디스플레이 시간과 비교되는, 디바이스 착용자 피드백 응답들에 관련되어 경과된 시간 측정치,h. An elapsed time measurement associated with device wearer feedback responses, which is compared to the display time of the information (e.g., questions) on the head-up display or nearby display monitor,

i. 주변 광 조건들의 변화들, 동공 반응들이 이러한 변화들에 대해 정상 범위 내인지를 포함함, i. Changes in ambient light conditions, including pupil responses within the normal range for these changes,

j. 랜덤한 간격으로 헤드웨어 시스템에 의해서 유발되는(조명을 조절함으로써) 동공 대광 반사(pupillary light reflexes)의 타이밍, j. The timing of pupillary light reflections (by adjusting the illumination) caused by the headware system at random intervals,

k. 장면 카메라에 의해서 보여지는 이미지들이 예측된 환경과 일반적으로 일치하는지의 여부(예컨대, 디스플레이 모니터를 보는 것 대(versus) 헤드웨어를 변경하기 위한 명백한 시도), k. Whether the images viewed by the scene camera are generally consistent with the predicted environment (e.g., an obvious attempt to change the head monitor versus viewing the display monitor)

l. 마이크로폰에 의해서 모니터링된 사운드들이 예측된 환경과 일반적으로 일치하는지의 여부l. Whether the sounds monitored by the microphone are generally consistent with the predicted environment

m. 장면 카메라에 의해서 후속으로 보여지는 이미지들과 비교하여 보안 정보 소스로부터 기원하고 그리고 인근의 모니터 상에 디스플레이되는 코딩된 비디오 패턴들의 매칭의 정도m. The degree of matching of coded video patterns originating from a security information source and displayed on a nearby monitor, as compared to images subsequently viewed by the scene camera

n. 디바이스 착용자만이 알고있는 식별 코드들의 입력(그리고 이는 시간-민감형일 수 있음).n. Input of identification codes known only to the wearer of the device (and which may be time-sensitive).

전술한 생체측정 항목 f 및 j 를 사용하는 일례는, 눈을 향하고 있는 카메라가, CBID 시스템을 속이려는 시도로서 사기꾼 사진(imposter photograph), 콘택트 렌즈, 또는 심지어 소유자로부터 외과수술적으로 제거된 눈(섬뜩함) 형태인 눈의 복제물 대신에, 인증받고자 하는 사용자의 살아있는 진짜 눈을 정말로 보고 있는 것인지를 보장하기 위한 것이 될 수 있다. An example of using biometric items f and j described above is that a camera that is aimed at the eyes may not be able to detect an imposter photograph, a contact lens, or even an eye that has been surgically removed from the owner Instead of a replica of the eye in the form of an eerie, it can be to ensure that you are really seeing the real eyes of the user you want to be authenticated.

추가적인 실시예에서, 안구 신호 판별 및 인증은, 시스템 아키텍처의 최하위 레벨들 내에서 로직 및 기능이 유지되게 식별 및 인증 방법들을 실리콘 내에 건설함으로써 공격자들을 방해하도록 설계된 커스텀 빌트 실리콘(custom-built silicon)(주문형 반도체 ASIC을 포함함) 내에서 수행된다. 이것은, 디바이스의 프로그램가능한 소프트웨어를 변경하는 것에 기반하는 보안 공격들을 방어하는데 도움을 준다. 또한, 방법들은 이러한 저-레벨 시스템 아키텍처 내에 펌웨어 혹은 하드웨어 인코딩된 명령들을 암호화하는데 이용가능하다. In a further embodiment, ocular signal discrimination and authentication is custom-built silicon (i. E., Designed to interfere with attackers by constructing identification and authentication methods in silicon so that logic and functionality remain within the lowest levels of the system architecture) Custom semiconductor ASIC). This helps defend against security attacks based on changing the device's programmable software. Moreover, methods are available for encrypting firmware or hardware encoded instructions within such low-level system architecture.

식별된 개인에 의한 "눈으로만" 보기("Eyes Only" Viewing by an Identified Individual)"Eyes Only" Viewing by an Identified Individual ("

또 다른 실시예에 따르면, 누구든지 다른 사람에게 보여주기 위하여 보안 콘텐트를 기록 혹은 저장할 가능성이 없이, 보안 정보의 수신을, 한명의 실질적으로 지속적으로 식별되는 개인만으로 한정하기 위한 시스템들 및 방법들이 제공된다. 예를 들어, 온-라인 시험들의 원격 관리 동안, 시험받는 사람이 시험 문제들을 읽어야 할 필요가 있다. 하지만, 만일, 다른 개인 혹은 레코딩 디바이스(예컨대, 도1의 카메라 125)가 시험 문제를 다른 사람들에게 누설할 의도를 가지고 시험 문제들을 저장 혹은 옮겨적기 위하여 시험 문제를 볼 수 있는 방법이 있었던 경우, 동일한(혹은 유사한) 시험에 대한 시험 관리의 무결성은, 다음에 시험 보는 다른 사람들에 대해서는 훼손될 수 있다. According to yet another embodiment, systems and methods are provided for confining the receipt of security information to only one substantially persistent identified individual, without the possibility of anyone recording or storing secure content for presentation to others . For example, during the remote management of on-line tests, the test recipient needs to read the test questions. However, if there was a way for another person or recording device (e.g., camera 125 in FIG. 1) to view test questions to store or transcribe test questions with the intention of revealing the test questions to others, The integrity of the test management for the (or similar) test may be undermined in the future for others to take the test.

이러한 어플리케이션들을 위하여, CBID 시스템은 헤드-마운트된 디스플레이와 함께 구현될 수 있다. 하나 이상의 시야 차단기들이 디스플레이 주위에 배치되는데, 이는 디스플레이가 디바이스 착용자에게만 보이도록 능력을 제한하기 위한 것이다. 이러한 구성의 키 양상은, 실질적으로 지속적인 사용자 식별 및 보안 정보의 디스플레이 둘다가 동일한 디바이스 내에서 수행된다라는 사실이다. 보안 정보는 우호적인 CBID가 확립된 때에만 디스플레이되며, 이는 다른 개인이 보안 콘텐트를 보는 것을 불가능하게 만든다. 헤드 마운트된 디스플레이와 디바이스 착용자의 눈 사이의 광 경로 상에 배치된 임의의 객체는 CBID를 파괴한다. For these applications, the CBID system can be implemented with a head-mounted display. One or more field-of-view breakers are placed around the display, in order to limit the ability of the display to be visible only to the wearer of the device. The key aspect of this configuration is the fact that both substantially continuous user identification and display of security information are performed within the same device. Security information is displayed only when a friendly CBID is established, which makes it impossible for other individuals to view security content. Any object placed on the light path between the head mounted display and the eye of the wearer of the device destroys the CBID.

추가적인 실시예들에서는, 시야 차단기들이 제자리에 있는지를 보장하고 그리고 CBID 시스템의 구성요소들이 조작(temper with)되지 않았음을 보장하는 센서들을 추가함으로써, 추가적인 보안 레벨들이 확립될 수 있다. 이를 구현하는 상대적으로 간단한 방법은, 상기 시스템의 모든 구조적 및 전자적 요소들을 통해 직렬로 연장되는 전도성 경로들을 부가하는 것이다. 조작되거나 또는 임의의 시스템 요소가 제거되면, 전기적 연속성이 깨어지며, 따라서 이는 시스템에 의해서 감지될 수 있다. 이러한 정보누출의 결과, 우호적인 CBID가 디스에이블될 것이며 및/또는 정보누출에 대한 표시가 보안 정보 서버로 전송될 것이다. In additional embodiments, additional security levels can be established by ensuring that the field-of-view breakers are in place and by adding sensors that ensure that the components of the CBID system are not tempered. A relatively simple way to implement this is to add in series conductive paths through all the structural and electronic components of the system. If manipulated or any system element is removed, the electrical continuity is broken and thus can be detected by the system. As a result of this information leak, the friendly CBID will be disabled and / or an indication of an information leak will be sent to the security information server.

또한, 헤드 마운트된 디스플레이를 둘러싸는 시야 차단기의 구조적 무결성은 가령, 콘택트 스위치, 푸시 버튼 스위치, 홀 효과(hall effect) 스위치, 반사형 광전지(reflective photocells), 및/또는 용량성 센서들 등의 넓은 범위의 전자 부품들에 의해서 감지될 수 있다. 시야 차단기는 이중-사용(dual-use)을 위해 제작될 수 있는바, 예컨대 이것은 비-보안 어플리케이션들 동안에는 눈에 띄지 않으며(unobtrusive), 따라서 헤드 마운트 디스플레이가 씨 쓰루 모드(see through mode)(즉, 차단기가 제거된 상태) 또는 높은 보안성을 갖는 "개인 뷰어(individual viewer)" 모드(즉, 시야 차단기가 부착된) 둘다에서 사용될 수 있게 한다. The structural integrity of the field-of-view interrupter surrounding the head-mounted display can also be used for a wide range of applications including, for example, contact switches, push button switches, hall effect switches, reflective photocells, and / Lt; / RTI > range of electronic components. The field-of-view breaker may be made for dual-use, for example, it may be unobtrusive during non-security applications, so that the head-mounted display is in a see through mode , A state in which the breaker is removed) or a high security "individual viewer" mode (i.e., with a visual breaker attached).

극도의 보안성이 요구되는 다른 실시예에서, 헤드 마운트된 디스플레이는 영구적으로 제자리에 배치되는 고도의 조작-방지용 시야 차단기를 구비하도록 제작될 수 있다. 극도의 보안성이 요구되는 또 다른 실시예에서, 헤드 마운트된 디스플레이는 부가된 혹은 통합된 전기변색(electrochromic) 물질층을 포함할 수 있는데, 상기 전기변색 물질층의 투명도는 전자적으로 제어될 수 있다. In another embodiment where extreme security is required, the head mounted display may be fabricated with a highly manipulated-view field-of-view breaker that is permanently disposed in place. In another embodiment where extreme security is required, the head mounted display may include a layer of added or integrated electrochromic material, wherein the transparency of the electrochromic material layer may be electronically controlled .

또한, 도7을 참조하면, 원격 프로세싱 유닛(160)과 정보를 디스플레이하는데 이용되는 디바이스(400)는, 서로 소정 거리만큼 떨어져 있으며 그리고 보안(예컨대, 암호화된) 통신 링크(155)를 필요로 하는 별도의 디바이스들이 될 수 있다. 대안적으로, 상기 원격 프로세싱 유닛(160)과 디스플레이 디바이스(400)는 단일 패키지 내에 통합될 수 있다. 프로세싱 및 디스플레이 능력들이 통합된 이러한 디바이스들의 일례들은, 우호적인 사용자 식별이 있는 경우에만 보안 데이터를 암호해제하도록 소프트웨어가 코딩될 수 있는 랩탑 컴퓨터, 테블릿, 및 모바일 폰이다. 7, the remote processing unit 160 and the device 400 used to display the information are located at a predetermined distance from each other and that require a secure (e.g., encrypted) communication link 155 They can be separate devices. Alternatively, the remote processing unit 160 and the display device 400 may be integrated into a single package. One example of such devices with integrated processing and display capabilities are laptop computers, tablets, and mobile phones where software can be coded to decrypt secure data only when there is a friendly user identification.

도9a 및 도9b는 예시적인 시스템이 아이웨어(eyewear) 디바이스(500) 내에 통합된 것을 도시하며, 아이웨어 디바이스(500)는 헤드-마운트 디스플레이(505)(헤드-업 디스플레이, HUD, 레티날 디스플레이, 가상 현실 안경, 증강 현실 안경, 또는 스마트 안경 등의 다른 다양한 이름들로 지칭되기도 함)를 포함한다. 도9a에 도시된 바와 같이, 상기 시스템은 가시 혹은 근적외선 광 소스(400)를 포함하는데, 이는 홍채(115)의 영역을 조명한다. 홍채(115) 및 눈의 영역 내의 피처들의 이미지들을 수집하기 위해 카메라(125)가 이용된다. 상기 디스플레이는 구조화된 빛(즉, 디스플레이 이미지를 구성하는)이 망막(52) 상에 반사 혹은 투영되도록 구성된다. 상기 아이웨어 디바이스는 노즈 피스(nose piece)(510)와 이어 스템(ear stem)(515)을 포함하는데, 이는 상기 시스템이 통상적인 안경과 유사한 방식으로 착용될 수 있게 한다. CBID 시스템(100)은 아이웨어 디바이스 내에 통합될 수 있으며 또는 웨어러블 컴퓨팅 혹은 아이웨어 디바이스에 대한 액세서리로 제작될 수도 있다. 9A and 9B illustrate an exemplary system integrated into an eyewear device 500 that includes a head-mounted display 505 (head-up display, HUD, Display, virtual reality glasses, augmented reality glasses, or smart glasses). As shown in FIG. 9A, the system includes a visible or near-infrared light source 400, which illuminates the area of the iris 115. A camera 125 is used to acquire images of the iris 115 and features in the area of the eye. The display is configured such that the structured light (i.e., constituting the display image) is reflected or projected onto the retina 52. The eyewear device includes a nose piece 510 and an ear stem 515, which allows the system to be worn in a manner similar to conventional glasses. The CBID system 100 may be integrated into an eyewear device or may be fabricated as an accessory to a wearable computing or eyewear device.

도9a의 경우, 디스플레이(505)는 주변환경들을 보기 위하여 디바이스 착용자가 투영된 이미지를 지나쳐서 볼 수 있도록 구성된다. 도9b에서는, 디바이스 착용자를 제외한 그 어떤 개인(또는 비디오 시스템)도 웨어러블 디스플레이(505)의 콘텐트를 볼수 없도록, 시야 차단기(520)가 전략적으로 배치된다. 그 결과, 디바이스 착용자는 디스플레이(505)를 보는데 사용되는 동일한 눈으로는, 주변환경을 볼 수 없다. 이러한 구성은 디스플레이(505)의 콘텐트가 옮겨적어지거나 또는 기록되는 것을 방지한다. 시야 차단기(520)가 제 자리에 있는지의 여부 및/또는 시야 차단기(520)의 은폐(concealment) 기능을 무력화시키기 위한 시도들이 있었는지의 여부를 검출하기 위하여, 스위치(525) 및/또는 다른 감지 요소들이 이용될 수 있다. In the case of FIG. 9A, the display 505 is configured so that the wearer of the device can look over the projected image to see the surrounding environments. In FIG. 9B, the viewfinder circuit breaker 520 is strategically placed so that no individual (or video system) except the wearer of the device can see the content of the wearable display 505. As a result, the wearer of the device can not see the surrounding environment with the same eyes used to view the display 505. This configuration prevents the content of the display 505 from being moved or recorded. Switch 525 and / or other sensing (not shown) to detect whether there is an attempt to disable the concealment function of the visual field breaker 520 and / or whether the visual field breaker 520 is in place and / Elements can be used.

전술한 바와 같은 "기계적인" 시야 차단기에 대한 대안으로서, 다른 예시적인 실시예는 콘텐트가 디스플레이되는 곳(즉, 눈을 향하는 곳)과 외부 환경 사이의 영역에서 헤드 업 디스플레이(혹은, 눈 인근의 다른 디스플레이 디바이스)의 투명도를 전자적으로 제어하는 것을 이용한다. 이것은 마치 "전자 셔터" 처럼 작용하며, 외부 환경에 있는 임의의 사람 혹은 레코딩 디바이스가 디스플레이의 콘텐트를 볼 수 있는지 없는지를 제어할 수 있다. 광 투명도 혹은 전자변색에 대한 전자적 제어는 수 많은 매커니즘들에 의해서 구현될 수 있는데, 이러한 매커니즘들은 액정(즉, LCD 디바이스들에서 이용되는 동일한 원리들), 부유 입자 디바이스들(suspended particle devices: SPDs), 나노크리스탈(nanocrystals) 및 소위 "스마트 안경"에서 종종 이용되는 다른 매커니즘들을 포함할 수 있다. As an alternative to the "mechanical" field-of-view breaker as described above, other exemplary embodiments may include a head-up display (or a near-eye display) in the area between where the content is displayed Lt; / RTI > and other display devices). It acts like an "electronic shutter" and can control whether any person or recording device in the external environment can see the content of the display or not. Electronic controls for optical transparency or electronic discoloration can be implemented by a number of mechanisms, including liquid crystals (i.e., the same principles used in LCD devices), suspended particle devices (SPDs) , Nanocrystals, and other mechanisms often used in so-called "smart glasses ".

방금 설명된 착탈가능한 기계적인 차단기와 유사하게, HUD 주위의 물질(들)의 불투명도를 조절하는 것은, 디바이스 착용자(도9b 참조) 이외의 그 누구에 의해서도 디스플레이의 콘텐트가 보여지는 것을 방지한다. 이러한 전자 제어의 주요한 장점은, 불투명도를 제어하는 디바이스 자체의 능력인바, 예를 들어, 보안 정보가 디스플레이되는 중임을 상기 디바이스가 알 때에만 광 투과를 차단할 수 있다. 보안 모드에 있지 않은 경우, HUD는 정상 디스플레이 모드에서 동작할 수 있는바, 정상 디스플레이 모드에서 사용자는 디스플레이 "너머로(beyond)" 실제 주변환경을 볼 수 있다. 보안 모드인 경우(즉, 불투명한 경우), 사용자는 디스플레이 너머로 외부 세계를 볼 수 없으며 그리고 보다 중요하게는, 외부 환경에 있는 그 누구도 디스플레이의 콘텐트를 볼 수 없다. 디스플레이 기능을 수행하는 구성요소들과 차단 기능을 수행하는 구성요소들이 결합되어 하나의 구조를 형성하는 경우(상기 하나의 구조는 기능을 파괴함이 없이는 분리시킬 수 없음), 이러한 전략이 특히 유용할 수 있다. Controlling the opacity of the material (s) around the HUD, similar to the detachable mechanical circuit breaker just described, prevents the display's content from being seen by anyone other than the wearer of the device (see Figure 9b). The main advantage of this electronic control is the capability of the device itself to control opacity, for example, it can block light transmission only when the device knows that security information is being displayed. If not in secure mode, the HUD can operate in normal display mode, so that in normal display mode, the user can see the actual environment "beyond" the display. In the secure mode (i.e., opaque), the user can not see the outside world beyond the display, and more importantly, no one in the outside environment can see the content of the display. When the components performing the display function and the components performing the blocking function are combined to form a structure (the structure can not be separated without destroying the function), this strategy is particularly useful .

추가적인 동작 모드로서, 광-차단 혹은 불투명 모드는 또한, 외부 세계로부터의 간섭 광을 최소화하는데 이용될 수 있는데, 이는 HUD 내에서 미세 디테일(fine detail)을 보는 것을 향상시키기 위한 것이다. 예를 들어, 미세한, 검은 혹은 낮은 콘트라스트 구조들을 갖는 사진이 디스플레이될 때, 주변환경으로부터의 간섭 광(즉, 소위 "잡음")이 차단되는 경우, 이들 구조들은 디바이스 착용자에 의해서 보다 잘 보여질 수 있다. 불투명도의 전자적 제어는, 이러한 형태의 제어를 자동으로(즉, 디스플레이 콘텐트에 따라) 혹은 사용자 제어 하에서 수행되게 할 수 있다. As an additional mode of operation, the light-blocking or opaque mode can also be used to minimize interference light from the outside world, which is intended to improve the viewing of fine detail in the HUD. For example, when pictures with fine, black, or low contrast structures are displayed, when interfering light (i.e., so-called "noise") from the surrounding environment is blocked, these structures can be better seen by the device wearer have. Electronic control of opacity can allow this type of control to be performed automatically (i.e., depending on the display content) or under user control.

본 실시예에 대한 추가적인 개선안으로서, HUD의 특정 영역들(전체 디스플레이 영역이 아니라)의 불투명도를 제어하는 것도 또한 가능하다. 이와 같은 공간적으로 접근가능한 불투명도 제어에서, 디바이스는 특정 보안 정보 주위의 하나 이상의 영역들만을 차단할 수 있다. 예를 들어, 계좌 번호 혹은 사용자 패스워드 주위의 영역은 외부 시선으로부터 차단될 수 있는 반면에, 사용자는 상기 보안 영역들 이외의 영역들에서 외부 세계를 계속해서 볼 수 있다. 불투명도에 대한 접근가능한 공간적인 제어는, 유사한 매커니즘들이 LCD 프로젝션 디바이스들에서 이용되고 있는 LCD 기술들(백라이트가 없는)에 특히 적합하다(그리고 전자 업계에서 잘 개발되어 있다), As a further refinement to this embodiment, it is also possible to control the opacity of certain areas of the HUD (not the entire display area). In such spatially accessible opacity control, the device may block only one or more areas around specific security information. For example, an area around the account number or user password may be blocked from the outside line, while the user may continue to view the outside world in areas other than the security areas. Accessible spatial control over opacity is particularly well suited (and well developed in the electronics industry) for LCD technologies (backlit-free) where similar mechanisms are being used in LCD projection devices,

보안 개인 증강 메모리(Secure Personal Augmented Memory: PAM)Secure Personal Augmented Memory (PAM)

식별된 디바이스 착용자의 장기(long-term) 메모리로 매체를 전자적으로 향상시키기 위한 구성요소로서 안구 추적을 활용하는 시스템이다. PAM 저장 및 검색은 완벽하게 호환가능한 정보 양상들(completely interchangeable information modalities)(이미지들, 오디오, 비디오, 텍스트, 아이콘, 기타 등등)을 포함할 수 있다. 다음은 PAM을 위한 3개의 전반적인 단계들이다. Is a system that utilizes eye tracking as a component for electronically enhancing the medium with a long-term memory of the wearer of the identified device. PAM storage and retrieval may include completely interchangeable information modalities (images, audio, video, text, icons, etc.). The following are three overall steps for PAM.

1. 개인에게 중요한, 추적가능한(trackable) 객체들을 식별한다. 1. Identify trackable objects that are important to the individual.

2. 하나 이상의 식별된 추적가능한 객체들 또는 속성들을 포함하는 데이터 세트들과 결부하여, 다중-양상들의 동적인, 히스토리컬 아카이브(archive)를 유지한다. 2. Keeping a dynamic, historical archive of multiple-aspects, in conjunction with data sets containing one or more identified trackable objects or attributes.

3. 추적가능한 객체 사양(들) 또는 속성(들)의 임의의 모드에 기초하여 하나 이상이 데이터 세트들을 식별 및 검색한다. 3. Identify and retrieve one or more data sets based on any mode of traceable object specification (s) or attribute (s).

PAM의 첫번째 단계는, 추적가능한 객체들(식별된 개인에게 "중요한" 것임)의 기록들을 생성하는 것이다. 이들 추적가능한 객체들은, 이미지, 오디오 클립, 비디오 클립, 텍스트, 아이콘, 태그(예컨대, 가격, 제조자), 위치-기반으로 태그된 맵 상의 객체, 기타 등등을 포함하는 다양한 모드들에 있을 수 있다. 추적가능한 각각의 객체와 관련된 서로 다른 저장 모드들 모두를 결합하도록 변환 알고리즘들이 이용될 수 있다. 예를 들어, 이미지 인식은 하나 이상의 이미지들 내에서 객체들을 식별(예컨대, 텍스트로 변환)하는데 이용될 수 있고, 음성 인식은 오디오를 텍스트로 변환하는데 이용될 수 있으며, 텍스트-to-음성 인식은 텍스트를 음성으로 변환하는데 이용될 수 있고, 아이콘은 특정 개체 또는 개체들의 그룹과 연관될 수 있으며, 기타 등등이다. 또한, 시선에 의해서 표상되는 관심영역들은, 장면 프로세싱 요건들을 감소시키고 그리고 관련된 사용자-식별된 객체들만으로 정보를 식별하도록, 관심 영역과 결부되거나, 공존하는 홍채코드-기반의 인증과 결부될 수 있다. The first step in PAM is to create records of traceable objects (which are "important" to the identified individual). These trackable objects can be in various modes including images, audio clips, video clips, text, icons, tags (e.g., price, manufacturer), objects on a location-based tagged map, Transformation algorithms can be used to combine all of the different storage modes associated with each trackable object. For example, image recognition can be used to identify (e.g., convert to text) objects within one or more images, speech recognition can be used to convert audio to text, and text-to- The text may be used to convert the speech to speech, the icon may be associated with a particular entity or group of entities, and so on. In addition, the regions of interest represented by the line of sight can be associated with iris code-based authentication associated with, or coexisting with, the region of interest, to reduce scene processing requirements and identify information with only relevant user-identified objects.

필요한 경우, 정보의 추가적인 변환들이 적용될 수 있다. 예를 들어, 텍스트 또는 오디오는 하나의 언어에서 다른 언어로 변환될 수 있다. 이미지 인식은 특정 객체들을 식별하는 것으로 확장될 수 있다. 예를 들어, 자동차를 식별하는 알고리즘들은, 디바이스 착용자의 특정한 자동차(들)을 더 식별하도록 구성될 수 있다. 객체의 가격 및 물리적인 특징들(물질들, 설계 피처들, 등등)은 보관 알고리즘들(archival algorithms)에서 식별 및 포함될 수 있다. If necessary, further transformations of information can be applied. For example, text or audio can be converted from one language to another. Image recognition can be extended to identifying specific objects. For example, the algorithms for identifying the vehicle may be configured to further identify the specific vehicle (s) of the wearer of the device. The price and physical characteristics (materials, design features, etc.) of an object can be identified and included in archival algorithms.

개별 사용자들은 임의 개수의 개인화된(personalized), 추적가능한 객체들을 생성할 수 있다. 대부분 공통적으로, 시선 추적(gaze tracking)이 이용되어, 한 사람의 환경에서 보여지고 있는 객체들을 식별한다. 또한, 추적가능한 이미지 객체들은, 다운로드된 이미지들 혹은 사진들(예컨대, 도로 표지판, 에펠탑 등등)로부터 식별될 수 있는데, 여기서 관찰 중인 객체들을 식별하는데 다시 한번, 시선 추적이 이용된다. 보여진 객체들은, 예를 들어, 이미지 인식에 기초하여 식별 및 인덱스화될 수 있다. 다른 양상들(예컨대, 음성 구절(voice phrase))도 후속 검색을 위하여 유사하게 분류되고(예컨대, 인식되고) 그리고 인덱스화될 수 있다. Individual users can create any number of personalized, traceable objects. Most commonly, gaze tracking is used to identify objects that are being viewed in a single environment. Traceable image objects may also be identified from downloaded images or photographs (e.g., road signs, Eiffel Tower, etc.), where gaze tracking is once again used to identify the objects being viewed. The objects shown can be identified and indexed, for example, based on image recognition. Other aspects (e.g., voice phrases) may be similarly categorized (e.g., recognized) and indexed for subsequent searches.

PAM의 두번째 단계는, 이미지, 비디오, 텍스트, 오디오, 기타 등등을 포함할 수 있는 이들의 관련된 양상들에 따라, 보여진 객체들에 대한 인덱스화된, 검색가능한 히스토리컬 아카이브(archive)를 동적으로 부가 및 유지하는 것을 포함한다. 추가적인 객체 "속성들(attributes)"을 정의하도록, 기록 생성 당시에 이용가능한 추가적인 정보도 또한 저장될 수 있다. 이것은 예를 들어, 생성 날짜 및 시간, 데이터 세트를 생성한 사용자 및/또는 디바이스, 지리적 위치, 다른 식별된 개인들의 존재, 기타 등등을 포함할 수 있다. The second stage of PAM dynamically adds an indexed, searchable historical archive of the objects shown, according to their associated aspects, which may include images, video, text, audio, ≪ / RTI > Additional information available at the time of creation of the record may also be stored to define additional object "attributes ". This may include, for example, the date and time of creation, the user and / or device that created the data set, the geographic location, the presence of other identified individuals, and so on.

임의 횟수 반복될 수도 있는 마지막 단계로서, 인덱스화된 객체들 및 이들의 관련 데이터에 대한 검색은, 예를 들어, 상기 객체 혹은 유사한 객체를 보는 것(viewing)에 기초할 수 있다. 정보 검색을 위한 기준은 예를 들어, 음성 인식, 텍스트의 한 부분, 특정 객체와 관련된 아이콘, 또는 객체들의 분류, 기타 등등을 포함할 수 있다. 추가적인 실시예들에서, 초기에 정보를 저장하는데 이용되는 정보 모드는, 데이터 아카이브로부터 정보를 검색하는데 이용되는 모드와 매칭될 필요는 없다. As a final step that may be repeated any number of times, a search for indexed objects and their associated data may be based, for example, on viewing the object or similar object. Criteria for information retrieval may include, for example, voice recognition, a portion of text, an icon associated with a particular object, or a classification of objects, etc. In further embodiments, the information mode initially used to store information need not match the mode used to retrieve the information from the data archive.

예를 들어, 지갑의 이미지가 GPS-기반 위치에서 특정 지갑을 식별하는데 이용될 수 있다. 지갑에 대한 데이터 검색은, "내 지갑 어디 있어?" 와 같은 구두 문의(verbal query)에 응답하여 수행될 수 있다. 지갑에 대해서 검색된 후속 정보는, 디바이스 사용자의 현재 위치와 관련하여 지갑의 위치를 보여주는 지향성 맵(directional map)(즉, 다른 데이터 형태임)의 형태를 취할 수 있다. For example, an image of a wallet can be used to identify a particular wallet at a GPS-based location. Data retrieval for wallet, "Where's my wallet?" In response to a verbal query such as < / RTI > Subsequent information retrieved for the purse may take the form of a directional map (i.e., other data type) that shows the location of the purse in relation to the current location of the device user.

특정한, 원하는 데이터 세트에 대한 검색은, 객체들의 속성에 기초하여 더 분리될 수 있다. 전술한 바와 같이, 속성들은, 객체에 대하여 저장된 보충적인 정보를 포함한다. 만일, 속성들이 위치, 날짜/시간, 및 가격을 포함한다면, PAM 시스템은 다음과 같은 질문에 응답할 수 있다: "지난 화요일에 백화점에서 내가 본 가장 싼 셔츠가 뭐지?"The search for a particular, desired data set can be further separated based on the attributes of the objects. As described above, the attributes include supplemental information stored for the object. If the attributes include location, date / time, and price, the PAM system can answer the following questions: "What is the cheapest shirt I saw at the department store last Tuesday?"

만일, 2 이상의 데이터 세트들이 검색 기준과 매칭된다면, 디바이스 사용자는 1) 임의의 모드를 이용한 추가적인 입력에 기초하여 더 분리하던가(예컨대, 객체를 더 가깝게 본다던지, 단어들을 말하던지, 속성들을 특정하던지, 기타 등등) 또는 2) 가능한 원하는 데이터 세트들의 간략한 묘사들(thumbnail sketches)(예를 들면, 역 연대순(reverse chronological order)으로)을 디스플레이할 수 있다. If two or more data sets match the search criteria, then the device user can either: 1) separate further based on additional input using any mode (e.g., see closer to the object, speak the words, , Etc.) or 2) thumbnail sketches of possible desired data sets (e.g., in reverse chronological order).

PAM을 이용하는 또 다른 예시적인 시나리오는, 새롭게 본 객체(가령, 책상 서랍 열쇠들의 세트)에 대한 추적을 지속할 수 있는 능력이다. 디바이스 사용자는 열쇠들을 바라보고 그리고 "내 책상 서랍 열쇠들임" 이라고 말함으로써 시작할 수 있다. 열쇠들이 보여질 때마다, 상기 열쇠들이 보여진 장소 및 시간을 포함하는 데이터 세트가 저장된다. 나중에, "내 책상 열쇠가 어디 있지?" 라고 질문 받는 경우, 상기 디바이스는 열쇠들이 있는 장소 및 열쇠들을 마지막으로 본 시간을 포함하는 이미지와 함께 응답할 수 있다. Another exemplary scenario using PAM is the ability to continue tracking newly viewed objects (e.g., a set of desk drawer keys). Device users can start by looking at the keys and saying "My desk drawer keys". Each time the keys are viewed, a data set is stored that contains the location and time at which the keys were viewed. Later, "Where is my desk key?" The device may respond with an image containing the location where the keys are located and the last time the keys were viewed.

PAM 데이터 저장을 트리거링하는 초기 이벤트가 "가상 객체"인, PAM의 또 다른 일례로서, 사용자는 온라인 이미지 혹은 그 사람의 비디오 형태로서 일 개인을 볼 수 있다. 상기 사람은 온라인 정보를 통하여 또는 볼 때에 이름을 언급함으로써(예컨대, "짐 스미스"), 식별될 수 있다. 다음으로 사용자는 임의의 다른 원하는 속성들(나이, 직업 등등)을 언급할 수 있다. 상기 개인을 직접 볼때마다 혹은 가상으로 볼때마다 후속 데이터 세트들이 첨부될 수 있다. 나중에, 사용자는 다음과 같은 질문을 할 수 있다: "내가 짐 스미스를 마지막으로 본게 언제지?" 또한, 상기 디바이스는 그가 장면 카메라에 보여질 때마다 짐 스미스를 식별할 수 있다. As another example of PAM, where the initial event triggering PAM data storage is a "virtual object ", a user can view an individual as an online image or a person's video form. The person can be identified through online information or by mentioning the name (e.g., "Jim Smith") when viewed. Next, the user may mention any other desired attributes (age, occupation, etc.). Subsequent data sets may be attached whenever the individual is viewed directly or whenever viewed in a virtual manner. Later, the user may ask: "When was the last time I saw Jim Smith?" In addition, the device can identify Jim Smith whenever he is viewed on a scene camera.

PAM 사용의 다른 일례는 개인의 자동차을 바라보고 그리고 "내 차" 라고 말함으로써 개시된다. 자동차가 주차되면, 자동차가 식별되며 그리고 자동차의 최근의 이미지들 및 위치를 포함하는 데이터 세트가 생성되다. 나중에, 상기 디바이스는 스크린 상의 아이콘에 응답할 수 있는데 상기 아이콘은 다음과 같은 질문에 대한 답을 나타낸다: "내 차가 어디 있지?"Another example of using PAM is initiated by looking at an individual's car and saying "my car". When the car is parked, the car is identified and a data set is generated that includes the latest images and location of the car. Later, the device can respond to an icon on the screen, which answers the question: "Where is my car?"

만일, "너무 많은 정보"가 이용가능해지면, 디바이스 사용자는 특정 데이터 세트들 및/또는 타겟 객체들을 "잊어버리도록(forget)" 매커니즘들을 통합할 수도 있다. 예를 들어, 데이터 생성 시간은 가령, 특정 열쇠 꾸러미 혹은 자동차의 과거의 위치들과 같은, 오래된 항목들을 "잊어버리는"데 이용될 수 있다. 서로 다른 기준들이 서로 다른 추적가능한 객체들에 지정될 수 있다. If "too much information" becomes available, the device user may incorporate certain data sets and / or forgetting mechanisms on the target objects. For example, the data generation time can be used to "forget " old items, such as a particular key package or a car's past locations. Different criteria can be assigned to different traceable objects.

정보 저장 및 정보 검색 둘다는 CBID에 기초할 수 있다. 데이터 세트들은 웨어러블 디바이스 상에, 원격 프로세서 내에 존재할 수 있으며, 및/또는 클라우드-기반의 시스템들을 통해 분산될 수도 있다. 보관 위치(archival location)에 관계없이, 이러한 데이터의 저장 및 검색 둘다는, PAM의 CBID 소스로 한정될 수 있거나 또는 PAM의 CBID 소스에 의해서 인증된 개인들의 그룹으로 한정될 수 있다. CBID를 이용하면, 정보를 개인으로 분리하는 것은, 하나의 디바이스가 다수의 개인들에 의해서 착용되는 경우라 하여도, 그 개인만으로 한정될 수 있다. Both information storage and information retrieval can be based on CBID. The data sets may reside on a wearable device, in a remote processor, and / or distributed over cloud-based systems. Regardless of the archival location, both the storage and retrieval of such data may be confined to the CBID source of the PAM, or may be limited to a group of individuals authenticated by the CBID source of the PAM. With CBID, separating information into individuals can be limited to that individual, even if one device is worn by many individuals.

실제 및 가상 객체들과 상호작용하기 위한 생체역학-기반의 안구 신호들을 위한 시스템들 및 방법들(Systems and Methods for Biomechanically-Based Eye Signals for Interacting with Real and Virtual Objects)에 서술된 바와 같이, As described in Systems and Methods for Biomechanically-Based Eye Signals for Real and Virtual Objects for interacting with real and virtual objects,

안구 신호들(특히, 머신 학습 기법들과 연관된 안구 신호들)은 사용자의 의도(intent)를 파악하는데 이용될 수 있다. Eye signals (in particular, eye signals associated with machine learning techniques) can be used to determine a user's intent.

이러한 방법들을 이용하면, PAM-기반의 정보가 검색될 수 있으며 그리도 디바이스 착용자에게 "제안(suggest)"될 수 있다. 이것은 보다 추상적인(abstract) 데이터 검색 방법(특정한 질문들을 해결하는 것에 비하여)이다. 하지만, 디바이스는 주변환경에서 보여지는 객체들, 주어진 질문들, 하루 중 시간, 지리적 위치, 인식된 단어들, 기타 등등에 기초하여 보관된 데이터를 제시할 수 있다. 또한, 미래의 "제안들"은 디바이스 착용자가 "제안들"을 받아들였는지 혹은 거절했는지의 여부에 기초하는 머신 학습 접근법들에 대한 변경들에 기초할 수 있다. Using these methods, PAM-based information can be retrieved and can also be "suggested" to the device wearer. This is a more abstract data retrieval method (as opposed to solving certain questions). However, the device can present the archived data based on objects seen in the environment, given questions, time of day, geographic location, recognized words, and so on. Future "proposals" may also be based on changes to machine learning approaches based on whether the device wearer has accepted or rejected "suggestions ".

보안 인간 대 인간(들) 통신(아이커넥트)(Secure Human-to-Human(s) Communications (EyeConnect)Secure Human-to-Human (s) Communications (EyeConnect)

하나의 종으로서(as a species), 사업적으로 또는 사회적으로든지 간에 사람을 만나는 경우 공통적인 연관성이 있거나 또는 관심 영역을 공유하게 되면, 우리는 소통에 열중한다. 통신을 할지, 언제, 어떻게, 무엇에 대해 통신을 할지를 결정하는 프로세스는 본질적으로 비효율적이며 그리고 종종 사교적이지 못하다(frequently socially awkward). 또한, 인간의 기억은 불완전하며 그리고 우리는 과거의 만남들에서의 세부 사항들(가령, 이름 또는 지난 번 만남의 주제)을 우리가 잊어버린 개인들을 종종 마주치게 된다. 우리 모두는 이러한 만남들로부터 야기되는 사회적 어색함에 민감하며, 그 정도는 사회적 담론(social discourse)을 방해한다. When we meet people, whether as a species, business or social, we have a common connection or share a domain of interest, and we are engaged in communication. The process of determining whether to communicate, when, how, and what to communicate with is inherently inefficient and often socially awkward. Also, human memory is imperfect and we often encounter individuals who have forgotten details of past encounters (eg, names or topics of last encounter). All of us are sensitive to the social awkwardness that arises from these encounters, and that degree hinders social discourse.

"아이커넥트(EyeConnect)"라 지칭되는 프로세스 및 어플리케이션은 웨어러블 컴퓨팅 사용자들을 위한 방법으로서, 명시적으로 선택되고 양호하게 제어되는 보안 및 프라이버시 레벨을 유지하면서도, 서로 다른 레벨들의 인간 관계를 향상시키고 그리고 보다 효율적으로 만들기 위한 방법이다. 아이커넥트는 간단한, 상호간의, 눈 맞춤(eye contact)이 있으면, 서로의 시력(eyesight) 내에 있는 개인들 사이에서 개선된 연결 및 통신을 제공한다. CBID-기반의 아이커넥트는 예를 들어, 보안 및 프라이버시 레벨들이 확립되어 있는 CBID 등록된 개인들 사이에서 연결들을 확립함으로써 개인의 프라이버시를 제공한다. Processes and applications, referred to as "EyeConnect, " are a method for wearable computing users who, while maintaining the explicitly selected and well-controlled security and privacy levels, It is a way to make it efficient. EyeConnect provides improved connectivity and communication among individuals within each other's eyesight, with simple, mutual eye contact. CBID-based iConnect provides privacy for individuals by establishing connections between CBID registered individuals, for example, where security and privacy levels are established.

이러한 어플리케이션을 위한 실시예들의 일례들은 다음을 포함한다. Examples of embodiments for such applications include the following.

1. 서로 알고는 있으나 지난 번 만남들의 세부사항을 잊어버린 사람들의 경우, 아이커넥트는 잊어버린 이름을 첫번째 시선 교환 시에 즉시 제공하며 그리고 직접 만남(in-person encounter)을 지원할 수 있는, 전후관계에 맞는 관련 정보를 매끄럽게 제공한다. 1. For those who know each other but have forgotten the details of their last meeting, EyeConnect will provide the forgotten name immediately upon the first eye change and will be able to provide context for the in-person encounter To provide relevant information smoothly.

2. 사업적, 교육적, 정치적, 사회적 이벤트들에서 또는 다른 장소에서 처음 만난 사람들의 경우; 의미있고, 관련있고, 결실이 있는 연결들은 대부분 운에 맡겨지며 그리고 발전되기에는 시간이 소요된다. 비록, 개인들 사이의 연결들을 자동화하거나 또는 향상시키기 위한 시스템들 및 절차들이 오늘날 존재하고는 있지만, 이들은 비효율적이고, 부정확하고, 애매모호하며, 그리고 때때로는 어색하거나 또는 기존의 소통 흐름 및 사회적 교류에 지장을 줄 수도 있다. 아이커넥트는 이러한 만남들에서 새로운 연결들을 확립함에 있어서 안전한 레벨의 효율성 및 우아함을 가능케한다. 2. For those who first met at business, educational, political, social events or at other places; Meaningful, relevant, and fruitful connections are often left to luck and take time to develop. Although systems and procedures for automating or enhancing connections between individuals exist today, they are ineffective, inaccurate, ambiguous, and sometimes awkward, or in an existing communication flow and social exchange. It can also hinder. IConnect enables secure levels of efficiency and elegance in establishing new connections in these meetings.

3. 개인(즉, CBID에 등록된 제3자)의 소개를 통해 처음 만난 사람들의 경우, 아이커넥트는 전후관계적으로 관련성 있는 정보의 교환을 촉진하며, 아울러 관련된 공통 연결들, 경험들, 관심사항들, 기타 등등의 개인적 교류를 강화시킨다. 3. For those who first met through the introduction of an individual (ie, a third party registered with the CBID), iConnect facilitates the exchange of relevant information in a contextual context, Issues, and so on.

4. 사업 혹은 소셜 교류를 위해 모인 개인들의 그룹의 경우, 아이커넥트는 정보 공유를 목적으로 동적으로 형성된 그룹 내에 개인들을 부가 및 포함시키는 것을 용이하게 한다. 4. For a group of individuals gathered for business or social exchange, iConnect facilitates the inclusion and inclusion of individuals in dynamically formed groups for the purpose of information sharing.

아이커넥트를 따라 교환될 수 있는 정보의 양상의 범위는 또한 아이커넥트의 가치를 확대시킨다. 시각적인 정보가 즉각적으로 및 별개로 디스플레이(예컨대, HUD) 상에 공유될 뿐만 아니라. 멀리에서 시선을 교환한 2명의 개인들 사이에서 확립될 수 있는 즉각적인(instant) "전화통화" 로서 청각적인 정보(aural information)도 교환될 수 있다. 이것은 소정의 보안 어플리케이션들, 소셜 상황들(예컨대, 파티, 바 현장(bar-scene))에서 유용할 수 있으며 그리고 사람들이 서로 자리를 잡으며(spot one another) 그리고 멀리서 대화하기를 원하는 다른 모임들에서 유용할 수 있다. The range of information aspects that can be exchanged along the iConnect also extends the value of iConnect. Not only visual information is shared immediately and separately on the display (e.g., the HUD). Aural information can also be exchanged as an instant "phone call" that can be established between two individuals who have exchanged their gaze in the distance. This may be useful in certain security applications, social situations (eg, party, bar-scene), and may be useful in other groups that want to spot one another and communicate remotely It can be useful.

예시적인 실시예들에서, 아이커넥트는 안면 인식 또는 다른 객체 인식 소프트웨어에 대한 그 어떤 금지도 존중하면서, 이들 기능들을 수행한다. 그렇긴 하지만, 아이커넥트와 관련된 아키텍처는, 웨어러블 카메라들의 시야 내의 있는 사람들에 대한 자동화된 인식의 이러한 최종적인 허용(eventual allowance)을 고려한다. 사실, CBID는, 카메라 이미지들을 획득하는 개인의 신원이 이들 이미지들과 관련이 있음을 보장함으로써 및/또는 이러한 행위들이 발생하는 중임을 촬영당하는 사람에게 통보하는데 상기 신원이 이용됨을 보장함으로써, 프라이버시 문제들을 경감하는데 도움을 줄 수 있다. CBID는, 이미지 취득자의 신원에 기초하여, 개인이 이러한 이미지들을 허용한 경우에만, 카메라 이미지들의 저장 및/또는 전송을 허용 또는 금지할 수 있다. 또한, 취득된 임의의 이미지들과 식별된 디바이스 사용자와의 관련성이, 부적절한 이미지들의 취득을 단념시키는 역할을 해야만 한다. 반복되는 위반자들은, 이미지 및 비디오 파일들에 저장되는 그들의 신원들에 기초하여 식별될 수 있어야 한다. In the exemplary embodiments, EyeConnect performs these functions while respecting any prohibitions on facial recognition or other object recognition software. However, the architecture associated with EyeConnect takes into account this eventual allowance of automated recognition of people in view of wearable cameras. In fact, the CBID ensures that the identity of the person obtaining the camera images is associated with these images and / or by ensuring that the identity is used to notify the person being photographed that these actions are taking place, Can help alleviate them. The CBID may allow or prohibit the storage and / or transmission of camera images only if the individual allows such images, based on the identity of the image acquirer. In addition, the relevance of the acquired arbitrary images to the identified device user must also serve to dissuade acquisition of inappropriate images. Repeated offenders must be identifiable based on their identities stored in image and video files.

또한, 아이커넥트 어플리케이션은 지오-로케이션을 지원하며 그리고 밀접한 관계의 개인들(proximity-relevant individuals)의 단방향 혹은 쌍방향 정보 교환을 제공한다. 다른 예시적인 실시예에서, 2명의 아이커넥트 사용자들은, 이들이 연결되어야 하는지 혹은 이미 연결되어 있는지를 결정하도록, 잠시동안 서로를 응시한다. 활성화를 위한 서로의 눈들에서의 이들 상호간의 응시는 동시에 발생하며 그리고 지오-로케이션은 "스파크(Spark)"를 생성한다. 만일, 2명의 사용자들이 이미 아이커넥트된 것이 아니고 그리고 충분한 공통성(commonality)을 갖는다면, 상기 스파크가 점화되며(Ignite), 그리고 사용자들은 개인적인, 입문 대화(personal, introductory conversation)를 지원하도록 전후관계를 고려한 적절한 정보와 함께 즉각적인 "연결 경보(Connect Alert)"를 수신한다. In addition, the iConnect application supports geo-location and provides unidirectional or bi-directional information exchange of proximity-relevant individuals. In another exemplary embodiment, the two iConnect users stare at each other for a while to determine if they should be connected or already connected. These mutual gazes in each other's eyes for activation occur at the same time, and geo-location generates a "spark. &Quot; If the two users are not already child connected and have sufficient commonality, then the spark will ignite and users will be able to use contextual relationships to support personal, introductory conversation. And receives an immediate "Connect Alert" with the appropriate information considered.

한 사람의 눈들로, 연결 경보 다음에 디스플레이와 즉각적으로 상호작용함으로써, 연결된 한 쌍의 사용자들은 서로에 대한 선택 정보를 부라우징할 수 있다. 이것은 서로 간의 물리적인 대화에 참여하기 전에, 도중에, 또는 이후에 발생할 수 있다. 또한, 아이커넥트는, 연결 경보를 통해 초기에 공유되는 것을 넘어서, 어느 일 측의 사용자가 제공하기로 결정한, 추가적인 정보의 공유 및 전송을 용이하게 한다. By one person's eyes, by instantly interacting with the display after a connection alert, a connected pair of users can bridify selection information for each other. This can occur before, during, or after participating in a physical conversation with each other. In addition, the iConnect facilitates the sharing and transmission of additional information beyond what is initially shared through a connection alert, which one user has decided to provide.

아이커넥트를 지원하는 2개의 중요한(key) 요소들이 존재한다. 1) 사용자의 "페르소나(Persona)"와 2) 사용자의 "이벤트 프로파일들(Event Profiles)" 이 그것이다. 사용자의 페르소나는 수동으로 입력될 수도 있으며, 페이스북(Facebook) 혹은 링크드인(Linkedln)과 같은 링크된 계정들로부터의 정보로 자동을 채워질 수도 있으며, 및/또는 사용자의 온라인 풋프린트(online footprint)로부터의 다른 정보에 기초할 수도 있다. 페르소나 데이터는 이름, 목표, 관심사항, 직업, 고용주, 가족 구성원, 동료, 전화번호, 취미, 거주지, 좋아하는 스포츠 팀, 좋아하는 음악, 기타 등등과 같은 정보를 포함한다. There are two key elements that support iConnect. 1) the user's "Persona" and 2) the user's "Event Profiles". The user's persona may be entered manually, filled in automatically with information from linked accounts, such as Facebook or Linkedln, and / or the user's online footprint, Or other information from the < / RTI > Persona data includes information such as name, goals, interests, jobs, employers, family members, colleagues, phone numbers, hobbies, habits, favorite sports teams, favorite music,

사용자의 이벤트 프로파일들은 매칭 및 공유 둘다를 용이하게 하는 정보를 포함한다. 사용자는 사용자의 페르소나로부터의 데이터로 채워지는 필드들을 구비한, 표준화된 이벤트 템플릿들(standardized Event Templates)의 세트에서 시작하여 이벤트 프로파일들을 확립한다. 이벤트 프로파일들은 자동으로 또는 수동으로 채워질 수 있다. "스파크"(즉, 동시발생한, 로컬, 교환된 시선)에 후속하여, 아이커넥트는, "점화(Ignite)"를 할 것인지 그리고 연결 경보를 생성할 것인지를 결정하기 위해, 2명의 사용자들의 액티브 이벤트 프로파일들로부터의 데이터를 비교한다. 선택된 주제들 내에서의 공통성, 연결 이득들(connection interests)에 기초하는 임계값들 및/또는 다른 팩터들이 이용되어 점화가 언제 일어나야하는지를 결정한다. 매칭을 평가하기 위한 정보를 제공하는 것 이외에도, 각각의 이벤트 프로파일들은 또한, 어떤 정보가 연결 경보에서 공유되어야 할지를 정확하게 특정한다. 이와 같이, 이벤트 프로파일들은 점화가 일어나야할지의 여부를 결정하는데 이용될 뿐만 아니라, 어떤 입문 정보(introductory information)가 자동적으로 공유되어야 할지를 결정하는데 사용된다. The user's event profiles include information that facilitates both matching and sharing. The user establishes event profiles, starting from a set of standardized event templates, with fields filled with data from the user's persona. Event profiles can be populated automatically or manually. Following an "spark" (i.e., a coincident, local, interchanged line of sight), the iConnect will send two active users ' events Compare the data from the profiles. Commonality within the selected topics, thresholds based on connection interests, and / or other factors are used to determine when the ignition should occur. In addition to providing information for evaluating a match, each event profile also accurately specifies what information should be shared in the connection alert. Thus, event profiles are used not only to determine whether or not an ignition should occur, but also to determine which introductory information should be automatically shared.

표준화된 이벤트 프로파일 템플릿들의 세트는 사업 회의, 파티, 바-현장(bar-scene), 수업, 사무실(office place), 휴가, 거리-현장(street-scene), 스포츠 이벤트, 해변-현장(beach-scene), 교회, 판매 회의, 기타 등등과 같은 이벤트들에서 이용될 수 있다. 각각의 템플릿은 사용자 또는 사용자들의 그룹에 의해서 주문 제작될 수도 있으며, 새로운 이벤트 템플릿들이 아이커넥트 사용자 커뮤니티 내에서 생성 및 공유될 수 있다. A set of standardized event profile templates can be used for business meetings, parties, bar-scenes, classes, office places, vacations, street-scenes, sporting events, beach- scenes, churches, sales meetings, and so on. Each template may be customized by a user or group of users, and new event templates may be created and shared within the iConnect user community.

또한, 디바이스 사용자는 넓은 범위의 그날 그날의 조건들(day-to-day conditions)을 충족시키도록, 임의 개수의 커스텀화된 프로파일들을 유지할 수 있다. 예를 들어, 사용자는 다음의 상황들을 커버하기 위한 프로파일들을 유지할 수 있다: 일반적인 사업, 다수의 특정한 사업 회의들 및 다른 이벤트들, 교육적 이벤트들, 취미 모임들, 소셜 상호작용들, 교회, 기타 등등. 서로 다른 상황들에 대해서 서로 다른 프로파일들을 유지함으로써, 정보의 보급이 매우 세밀하게 제어될 수 있으며 그리고 가족, 친구들, 친한 친구들, 사업 동료들, 친한 사업 동료들, 선생님들, 관심사항을 공유하는 개인들, 기타 등등과 같은 그룹에 적합한 방식으로 미리 계획될 수 있다. In addition, a device user can maintain any number of customized profiles to meet a wide range of day-to-day conditions. For example, a user may maintain profiles to cover the following situations: general business, a number of specific business meetings and other events, educational events, hobbies, social interactions, churches, etc. . By maintaining different profiles for different situations, the dissemination of information can be controlled very finely and can be controlled by family, friends, close friends, business associates, close business associates, teachers, And the like, in a manner suitable for the group.

하나의 상황에서 다른 하나의 상황으로 넘어가는 것은, 1) 명시적(사용자가 디바이스에게 상황이 바뀌었음을 통보함) 또는 2) 암시적(디바이스가 서로 다른 상황들을 인식함)이 될 수 있다. 상황적 조건들(situational conditions)에 대한 인식은, 여러 팩터들에 대한 고려에 기초할 수 있는바, 이러한 여러 팩터들은, 안면 인식, (친숙한) 객체 인식(예컨대, 집 안에 있는 객체들), 특징적인 행위들에 대한 인식(예컨대, 스포츠 이벤트에서, 골프를 치는 것), 지오-로케이션(예컨대, 공항, 병원), 사이나지(signage), 사용자의 달력에 스케줄링된 이벤트들, 디바이스에 의해서 최근에 수행된 다른 행위들(예컨대, 회의 참석, 호텔 투숙), 음악의 존재(예컨대, 콘서트), 기타 등등을 포함할 수 있다. 몇몇 상황들에서, Moving from one situation to another can be either 1) explicit (the user notifies the device that the situation has changed) or 2) implicit (the device recognizes different situations). Recognition of situational conditions can be based on consideration of several factors such as facial recognition, (familiar) object recognition (e.g., objects in the house), features (E.g., sports events, golfing), geo-locations (e.g., airports, hospitals), signage, events scheduled on the user's calendar, (E. G., Meeting attendance, hotel stay), presence of music (e. G., Concert), and so on. In some situations,

2 이상의 프로파일들이 동시에 유효할 수도 있다(예컨대, 취미 및 소셜 행위들이 동시에 취해짐). 이 경우, 교환은, 임의의 적용가능한 프로파일 내에서의 허가들에 기초할 수 있다. 또한, 교환은, 관심사항들 및/또는 특정 조건들(예컨대, 특정 시간대 내에서, 같은 도시에 살았음)의 중첩 정도와 같은 다른 팩터들에 기초하여 "조건적(conditional)"이 될 수도 있다. Two or more profiles may be valid at the same time (e.g., hobbies and social actions are taken at the same time). In this case, the exchange may be based on permissions in any applicable profile. In addition, the exchange may be "conditional" based on other factors such as the degree of overlap of interests and / or certain conditions (e.g., within a particular time zone, living in the same city) .

상호작용의 모든 레벨들에서, 정보의 교환은, 참가자들의 확립된 신원 및 정보 교환을 위한 이들의 미리-확립된 프라이버시 레벨에 기초한다. 예를 들어, CBID를 이용하여, 침입자가 일시적으로 셋 다운된 디바이스를 맞바꿈하거나 혹은 집어들고, 그리고 개인적인, 디바이스-소유자의 아이커넥트 정보를 제 3 자에게 전송하는 것은 불가능할 것이다. At all levels of interaction, the exchange of information is based on the participants' established identity and their pre-established privacy level for the exchange of information. For example, using the CBID, it would be impossible for an intruder to swap or pick up a device that was temporarily set down and to transfer personal, device-owner's childconnect information to a third party.

또 다른 실시예로서, 아이커넥트를 통해 과거에 만난 적이 있는 2명의 사용자들 혹은 아이커넥트의 네트워크 내에서 서로 아는 사람들(acquaintances)로서 서로 연결되었던 2명의 사용자들은 이름을 기억하지 못하는 당황스러움에 두번 다시 직면하지 않을 것이다. 아이커넥트는 "보이지 않는 이름-태그" 및 그 이상을 제공한다. 2명의 이전 지인들은, 이름 기억 및 이전 만남들에 대한 완전한 전후맥락 둘다의 도움으로, 즉시 다시 알게된다(re-acquaint). 이것은 과거의 미팅 이벤트들, 장소들, 시간들, 공유된 정보, 및 심지어 과거의 만남 당시에 혹은 그후에 로그인된 보충 정보의 리마인더들을 포함한다.In another embodiment, two users who have previously met through the iConnect or two users who were connected to each other as acquaintances in the network of iConnect have been reassembled twice in an embarrassment of not remembering their names You will not face it. IConnect provides "invisible name-tags" and more. Two older acquaintances re-acquaint immediately with the help of both name memory and complete post-war contexts of previous encounters. This includes past meeting events, places, times, shared information, and even reminders of supplemental information logged in at or after the previous encounter.

또한, 아이커넥트는 전후관계에 맞는 관련 정보(contextually relevant information)의 즉각적인 제시와 함께, 연결된 개인들에 대한 인스턴트 온라인 검색의 결과들을 제공한다. 이러한 만남에서의 사용자들 둘다는, 평지에 있으며(on level ground), 그리고 아이커넥트에서 제공하는 무해하고(innocuous) 풍부한 기억 향상으로 인하여 안심이 된다. The iConnect also provides instant online search results for connected individuals, with immediate presentation of contextually relevant information. Both of these users at the meeting are on level ground and are relieved by the innocuous rich memory improvements offered by iConnect.

또 다른 실시예에서, 2 이상의 아이커넥트된 개인들 사이에서 중첩되는 관심사항들은 식별 및 디스플레이될 수 있다. 이러한 관심사항들은 에 과거 미팅들의 히스토리컬 콘텍스트 및 식별된 주제들에 대한 정보 교환들에 배치될 수 있다. In yet another embodiment, overlapping interests between two or more eye linked individuals can be identified and displayed. These concerns can be placed in the historical context of past meetings and information exchanges on identified topics.

예시된 실시예들을 도와주기 위한 시나리오로서, 디바이스 사용자 1(U1)는 사용자 2(U2)를 회의에서 만난다. 이들은 만난 적이 없지만, 둘다 과거에 동일한 회사에서 근무했으며 많은 사람들을 공통으로 알고 있다. 이들은 회의에 참석하기 전에 아이커넥트를 위해 그들의 사업-회의 이벤트 프로파일들을 로딩하였다. 이러한 이벤트 프로파일은 회의에 참석하기 위한 그들 각각의 개인적 목표, 이들의 직업 이력들, 이전 직장들에서 친했던 동료들의 이름들을 포함할 뿐만 아니라, 그들이아이커넥션들을 스파킹하는데 관련이 있다라고 보는 다른 정보를 포함한다. 이들은 또한 각각, 그들의 선호 취미들, 그들의 부인들 및 자식들의 이름들, 자녀가 다니는 학교, 및 보다 개인적인 레벨에서 연결을 생산할 수 있는 다른 개인적인 데이터를 포함하도록, 그들의 사업-회의 이벤트 프로파일을 구성하였다. U1은 그의 직업적 백그라운드(professional background)에 관해서만 정보 공유를 허용하도록 자신의 사업-회의 이벤트 템플릿을 설정하였다. U2의 설정은 모든 매칭 항목들의 공유를 허용한다. As a scenario for helping the illustrated embodiments, device user 1 (U1) meets user 2 (U2) at the conference. They have never met, but both have worked in the same company in the past and know many people in common. They loaded their business-meeting event profiles for iConnect before attending the meeting. These event profiles not only contain their personal goals for attending the meeting, their career histories, the names of colleagues who were familiar with their previous work, as well as other information that they consider relevant for sparking child connections . They also organized their business-meeting event profiles to include their preferred hobbies, their wives and children's names, their children's school, and other personal data that could produce connections at a more personal level. U1 has set up his business-meeting event template to allow information sharing only on his professional background. The setting of U2 allows sharing of all matching items.

아이커넥트를 활성화시킨 채로, 점심 대기줄에 서 있으면서, 이들이 연결될 것인지를 알아보도록, 이들은 수 초 동안 서로를 응시한다. 그들의 웨어러블 디바이스들 각각은 연결 경보를 디스플레이한다. 이들 둘다는 회사에서 과거에 오버랩됨을 판독하며 그리고 U1은 자신의 자녀와 U2의 자녀가 같은 학교에 다님을 알아낸다. 이들은 또한, 각자가 회의에 무엇때문에 참석했는지를 알게되며 그리고 그들의 프로파일로부터 선택적으로 공유되는 다른 정보를 아이-스크롤(eye-scroll)한다. 이후, 이들은 대화에 참여하고, 공통 관심 영역들을 즉시 공유하며 그리고 회의에 대한 그들의 목적을 열심히 설명한다. 이들은 아이커넥트 어플리케이션을 통해 증명서들(credentials)을 교환하며 그리고 만날 약속을 잡는다. 수 분 동안에 이들은 그들의 초기 연결을 마무리지으며 그리고 다른 참석자들과의 아이커넥트를 위해 자리를 옮긴다. With the EyeConnect active, they stare at each other for a few seconds, standing on the waiting line and seeing if they will be connected. Each of their wearable devices displays a connection alert. Both read that the company has past overlap and U1 finds out that their child and U2's children are in the same school. They also know what each person attended in the meeting and eye-scroll other information that is optionally shared from their profile. Later, they engage in conversations, instantly share common areas of interest, and work hard to explain their purpose for the meeting. They exchange credentials through the iConnect application and make appointments to meet. In a matter of minutes, they finish their initial connection and move to a child connect with other attendees.

다른 실시예들을 설명하기 위하여 상기 시나리오를 확장하면, U2 와의 만남 동안에, U1은 또한 사용자 3(U3)과 간략하게 아이커넥트된다. 나중에, U1은 파티에서 U3을 발견하며 그리고 그/그녀가 낯이 익다고 생각한다. U3과 U1은 서로를 응시하며, 스파크를 발생시키고, 그리고 아이커넥트는 U3과 U1이 이미 아이커넥트되었음을 알려준다. 파티 이벤트 프로파일 보다 지인 프로파일(Acquaintance Profile)이 우선시되며, 그리고 아이노우유(EyeKnowU) 경보가 U3과 U1 각각에 대해 생성된다. U1은 U3의 이름, 이들이 만났던 다른 이벤트에 대한 주석, 및 U3가 그 이벤트에서 공유했었던 정보를 알 수 있다. U1은 현재의 파티 이벤트에 대하여, 새로운 매치와 함께, 점화(Ignition)가 있음을 주목하며(note) 그리고 아이-시그널링(eye-signaling)을 통해 상기 파티에 대한 연결 경보를 볼 것을 선택한다. U1은 파티 콘텍스트에 대하여 U3에 의해서 제공되는 몇몇 추가 정보를 보며 그리고 U3도 또한 조종사임에 주목한다. U3도 동일한 것에 주목한다. 이들은 서로 반갑게 만나며, 이들의 과거의 만남을 확인하며(acknowledge), 그리고 비행에 관한 이들의 열정에 관하여 토론하기 시작한다. Extending the scenario to illustrate other embodiments, during the encounter with U2, U1 is also briefly associated with user 3 (U3). Later, U1 finds U3 at the party and thinks he / she is familiar. U3 and U1 stare at each other, generate a spark, and EyeConnect tells U3 and U1 that they are already in the eye connection. The Acquaintance Profile takes precedence over the Party Event Profile, and EyeKnowU alerts are generated for U3 and U1, respectively. U1 can know the name of U3, the annotations to other events they met, and the information that U3 shared in the event. U1 notices that there is an ignition with a new match for the current party event and chooses to view the connection alert for the party via eye-signaling. U1 looks at some additional information provided by U3 for the party context, and U3 is also a pilot. Note that U3 is the same. They meet with each other, acknowledge their past encounters, and begin to discuss their passion for flight.

아이커넥트 서비스는 안면 인식을 다른 개인들의 이미지들에 선택적으로 적용할 수 있다. 시야 내에 있는 사람들에 대한 정보를 부정하게(surreptitiously) 제공하는 것을 방지하기 위한 단계들이 취해질 수 있는바, 특히, 이러한 기능에 대한 금지가 있는 상황들에서 그러하다. 2명의 사람들이 서로를 동시에 응시할 때, 아이커넥트의 안구 추적 소프트웨어는 웨어러블 장면 카메라와 함께 작동하여, 사용자가 사용을 허용한 정보로부터 얻어진 스파크 이벤트를 정의한다. 예를 들어, 전술한 일례에서, U1의 아이커넥트 어플리케이션 내에 있는 안구 추적 소프트웨어는, U1이 다른 사람의 눈들을 응시하고 있음을 주목한다(note). U2의 아이커넥트 소프트웨어도 U2가 다른 사람의 눈들을 응시하고 있음을 동시에 주목한다. 각각은, 응시되고 있는 사람의 얼굴에 대한 일시적인, 일회용(disposable) 사진을 찍는바, 따라서 U2는 U1의 얼굴을 캡춰하고, U1은 U2의 얼굴을 캡춰한다. 매칭을 위해 각각의 얼굴로부터 안면 피처들이 추출될 수 있으며 그리고 상기 이미지는 사용자 확인을 위해 보관된다. The EyeConnect service can selectively apply face recognition to images of other individuals. Steps can be taken to prevent providing surreptitiously information about people within sight, especially in situations where there is a prohibition on these functions. When two people gaze at each other at the same time, EyeConnect's eye tracking software works in conjunction with a wearable scene camera to define spark events derived from information the user has allowed to use. For example, in the above example, eye tracking software in U1's EyeConnect application notes that U1 is staring at another person's eyes. U2's EyeConnect software also notes that U2 is staring at someone's eyes. Each takes a temporary, disposable picture of the face of the person being examined, so U2 captures the face of U1, and U1 captures the face of U2. Facial features may be extracted from each face for matching and the image is retained for user verification.

각각의 이미지는 시간 및 지리적 위치가 스탬프되며, 그리고 스파크-테스팅을 위해 서버로 전송된다. U2의 이미지가 U1의 시간, 얼굴 및 위치(아이커넥트에 등록할 때에 U1에 의해서 아이커넥트에 제공된 U1 얼굴의 미리-저장된 이미지를 이용하여)와 매칭되고, 그리고 U1의 이미지가 U2의 시간, 얼굴 및 위치에 매칭되는 경우, 서버는 U1 및 U2 사이에서 "스파크"를 선언한다. 연결 경보의 일부로서, 이들에게는 각각 오리지널 이미지가 확인을 위해 제공된다. 선택적으로는, 각 사용자의 페르소나 이미지가 또한 요청 사용자(soliciting user)와 공유될 수 있다. Each image is stamped with time and geographical location, and sent to the server for spark-testing. The image of U2 is matched with the time, face and location of U1 (using a pre-stored image of the U1 face provided to the eyeconnect by U1 when registering with the eyeconnect), and the image of U1 matches the time of U2, The server declares a "spark" between U1 and U2. As part of the connection alert, they are each provided with an original image for verification. Optionally, the persona image of each user may also be shared with a soliciting user.

다음으로 서버는 개인들의 프라이버시를 존중하여, 캡춰된 일시적인 이미지들 및 추출된 안면 피처들을 폐기하며 그리고 이들의 이벤트 프로파일 정보를 이용하여 "공통성의 임계값(threshold of commonality)"을 스크린한다. 연결 임계값을 넘어섰다라고 추정되면, 상기 서버는 이들 사이에서 "커넥션"을 선언하며 그리고 상호 연결 경보가 생성되고, 그들의 이벤트 프로파일들에 명시된 바와 같은 정보가 공유된다. The server then honors the privacy of the individuals, discards the captured temporary images and extracted facial features, and screens their "threshold of commonality " using their event profile information. If it is assumed that the connection threshold has been exceeded, the server declares a "connection" between them and an interconnect alarm is generated and the information as specified in their event profiles is shared.

예외적인 핸들링 및 추가 피처들Exceptional handling and additional features

전력 소모 및 이용가능한 대역폭은 모든 웨어러블 디바이스들에 대한 아주 흔한 이슈들이다. 아이커넥트(EyeConnect)가 가능한 경우, 정의된 사용자 시야(field-of-view: FOV) 내에서 예를 들어, 1초 또는 다른 바람직한 기간들 동안 시선-추적(gaze-tracking)이 수행될 수 있다. 캡춰된 시선들 각각에 대하여, 웨어러블 카메라의 FOV 내의 제한된 관심영역(area-of-interest: AOI) 상에 응시점(gaze point)이 맵핑된다. 아이커넥트 어플리케이션은 이러한 AOI 내에서 얼굴을 찾는다. 만일, 얼굴이 발견되고 그리고 상기 얼굴이 헤드웨어 디바이스를 착용한 것처럼 보인다면, 상기 사용자가 상호 응시(mutual gaze)에 참여하는지의 여부를 판별하기 위해서, 상기 얼굴의 이미지는 아이커넥트 클라우드로 전송될 수 있다. 감소된 전력 소모를 유지하면서도, 수용가능한 디바이스 레이턴시에 대한 많은 최적화 기회들이 존재하는바, 이는 안구-개시 연결 요청들(eye-initiated Connect requests), 다른 액티브 아이커넥트 사용자들의 근접성에 관하여 액티브 아이커넥트 사용자에게 전송되는 푸시 또는 풀 지오-로케이션 데이터(pushed or pulled geo-location data), 헤드웨어 디바이스들을 착용한 얼굴들에 대한 이미지 프로세싱을 최적화하는 방법들을 포함한다. Power consumption and available bandwidth are very common issues for all wearable devices. If EyeConnect is possible, gaze-tracking can be performed within a defined field-of-view (FOV), for example, for one second or other desirable periods. For each captured line of sight, a gaze point is mapped onto a limited area-of-interest (AOI) in the FOV of the wearable camera. The iConnect application looks for faces in these AOIs. If a face is found and the face appears to wear a headwear device, the image of the face is transmitted to the eyeconnect cloud to determine whether the user participates in a mutual gaze . There are many optimization opportunities for acceptable device latency while maintaining reduced power consumption because of eye-initiated Connect requests, the proximity of other active eyeconnect users, Or pushed or pulled geo-location data sent to the headwear device, methods for optimizing image processing for faces wearing headwear devices.

또 다른 예시적인 실시예로서, 아이커넥트는 웨어러블 컴퓨터 상의 큰 FOV 내에서, 감소된 정확도 또는 신원 및/또는 추적의 손실로부터 야기되는 우아한 성능저하(graceful degradation of performance)와 함께, 낮은-정확도의 허용오차(tolerance)로 동작하도록 설계되며, 또는 심지어 일시적으로 안구-추적이 작동불가일 수도 있다. 시선 추적 기술은 이미지 중에서 하나의 얼굴을 선택하는데 도움을 준다. 또한, 한 쌍의 사용자들에 대한 선택은, 시간 및 지오데이터 스탬핑(time- and geo location- stamping)에 의해서 스크린된다. As yet another exemplary embodiment, the iConnect is capable of providing low-accuracy tolerance along with graceful degradation of performance resulting from reduced accuracy or loss of identity and / or tracking within a large FOV on a wearable computer. It may be designed to operate with tolerance, or even temporary eye tracking may be inoperable. Eye tracking technology helps to select one face from among images. In addition, the selection for a pair of users is screened by time and geo location-stamping.

앞서 서술한 바와 같이, 아이커넥트는 사용자의 시선에 기초하여 관심영역(AOI)을 추출한다. AOI의 사이즈는 추정된 시선 정확도에 의해서 결정된다. 예를 들어, ±10도의 응시점 정확도(±10 degree gaze point accuracy)는 이미지 분석을 위해 20+ 도 반경의 AOI (20+ degree radius AOI)를 요구할 수 있다. 만일, 시스템이 시선 추적에 대한 전부 손실(total loss)을 경험한다면, AOI는 장면 카메라의 전체 FOV 가 될 것이다. 이러한 것은, 상호-응시형 디바이스-착용 얼굴(mutually-gazing device-wearing face)을 식별하기 위해 더 많은 프로세싱 파워를 요구할 것이다 As described above, the eyeconnect extracts the area of interest (AOI) based on the user's line of sight. The size of the AOI is determined by the estimated eye line accuracy. For example, a ± 10 degree gaze point accuracy of ± 10 degrees may require a 20+ degree radius AOI for a 20+ degree radius for image analysis. If the system experiences total loss of eye tracking, AOI will be the overall FOV of the scene camera. This would require more processing power to identify a mutually-gazing device-wearing face

상호 응시자들(mutual-gazers)의 스크리닝 및 인식은, 디바이스-착용 개인들을 시작적으로 스크린하는 컴퓨터 비전(CV) 방법들을 이용하여 또한 향상될 수 있다. 디바이스들은 가령, 하나 이상의 외부 지향 적외선(IR) LED(들) 및/또는 디바이스 및/또는 사용자들에 부착된 특정한 인식가능한 패턴들(예컨대, 가시광선 혹은 적외선)과 같은, 콘트롤된 시각적 정보를 통해 이러한 CV 방법들을 도울 수 있다. IR LED는 IR-기반의 안구 추적 또는 다른 디바이스들과의 충돌을 회피하도록 또는 특정 개인을 식별하도록(특정한 변조 패턴들을 인코딩함으로써) 모듈화될 수 있다. 다른 형태들의 변조된/구별가능한(modulated/distinguishing) 정보 교환이 또한 포함될 수 있다. Screening and recognition of mutual-gazers may also be enhanced using computer vision (CV) methods that screen device-wear individuals on an ongoing basis. The devices may be controlled via controlled visual information, such as, for example, one or more external directed infrared (IR) LEDs and / or certain recognizable patterns (e.g., visible light or infrared) attached to the device and / These CV methods can help. IR LEDs can be modularized (by encoding specific modulation patterns) to avoid IR-based eye tracking or collisions with other devices or to identify a particular individual. Other types of modulated / distinguishing information exchange may also be included.

또 다른 예시적인 실시예로서, 비록 드물기는 하지만, 여러 명의 동시성, 함께 위치된(co-located), 아이커넥트 사용자들 사이에서 발생할 수 있는 잠재적인 오류연결들(misconnections)의 문제점들을 고려하자, 디바이스를 착용하고 있으며 아이커넥트가 활성화된 4명의 사용자들을 고려하자. Ul과 U2는 나란히 앉아 있으며 U3와 U4는 서로 옆에 앉아있다(Ul and U2 are sitting side-by-side, and U3 and U4 are sitting next to one another). U1과 U3이 연결을 바라면서 응시에 참여하며, 그리고 U2 및 U4도 또한 서로를 바라본다. 만일, 정확도가 부정확하다면, 시스템은, U1과 U4가 서로 응시한다라고 생각할 수 있으며 그리고 U2와 U3이 서로 응시한다라고 생각할 수 있다. 이 경우, 상기 시스템은 이러한 문제점을 해결하기 위한 여러 매커니즘들을 제공할 수 있다. As another exemplary embodiment, consider the problems of potential concurrent misconnections between the iConnect users, which are rarely co-located with multiple concurrent devices Let's consider four users who are wearing an iConnect and are active. Ul and U2 sit side by side and U3 and U4 sit next to each other (Ul and U2 are sitting side-by-side, and U3 and U4 are sitting next to one another). U1 and U3 join the gaze in hopes of a connection, and U2 and U4 also look at each other. If the accuracy is incorrect, the system may think that U1 and U4 stare at each other and think that U2 and U3 stare at each other. In this case, the system can provide various mechanisms for solving such a problem.

1. 아이커넥트는 에러의 가능성을 주목할 수 있으며 그리고 사용자들에게 경보를 발령할 수 있다. 1. EyeConnect can notice the possibility of errors and alert users.

2. 아이커넥트는 최적의 추측을 만들 수 있으며 그리고 이용가능한 용이한 보정과 함께 확인을 요청할 수 있다. 2. The iConnect can make optimal guesses and request confirmation with easy calibration available.

3. 아이커넥트는 잠재적인 타겟 개인들 사이에서 각각의 사용자가 선택할 것을 요청할 수 있다. 3. The iConnect can ask each potential user to choose between potential target individuals.

다음을 상기해야 하는바, 2명의 사용자들이 서로를 바라보면, 각 사용자의 얼굴을 찍은 스냅샷이 일시적으로 유지되는데, 이는 2명의 사용자들이 실제로 서로를 바라보고 있는지를 검증하기 위한 정보를 제공하기 위한 것이다. 앞서 암시된 바와 같이, 이러한 스냅샷의 이용가능성 및 적절한 시간에서의 제공은 의도된 연결들을 위한 확신을 제공할 수 있다. 상기 스냅샷 혹은 타겟의 페르소나로부터의 기존 이미지가 이러한 목적을 위해 이용될 수 있다. It should be recalled that when two users look at each other, a snapshot of each user's face is temporarily maintained, which provides information for verifying that two users are actually looking at each other will be. As previously indicated, the availability of these snapshots and the provision at the appropriate time can provide confidence for the intended connections. Existing images from the snapshot or the persona of the target may be used for this purpose.

정확성이 하나의 추가적인 디바이스-착용 아이커넥트 사용자로부터 시선을 더 멀리 유도하는 본 일례의 변형예들은 또한, 사용자 인터페이스 내의 적절한 정보와 결부된 대형 AOI의 더 많은 프로세싱의 조합으로 해결될 수 있다. 거짓-양성(false-positives) 또는 거짓-음성(false-negatives) 여부에 관계없이, 잠재적인 오류 발생률은, 안구 추적 정확도가 감소하고 그리고 아이커넥트 사용자들이 많을수록 증가한다. These exemplary variations, where accuracy leads to further eye contact from one additional device-worn eye-connect user, can also be addressed with a combination of more processing of large AOI combined with appropriate information in the user interface. Regardless of false-positives or false-negatives, the potential rate of error increases with decreasing eye-tracking accuracy and with more EyeConnect users.

다음의 것들은 추가적인 예시적 피처들이며, 이들 중 하나 이상이 아이커넥트 시스템들에 포함될 수 있다: The following are additional exemplary features, and one or more of them may be included in the iConnect systems:

1. 아이 토크(EyeTalk)- 아이커넥트는 "음성 연결"을 지원한다. 1. EyeTalk - EyeConnect supports "voice connection".

2. 지리적 위치 메타 데이터- 시각적으로 제공되는 빠른 정보, 상기 정보는 a) 근접한 지인들(부근 사람들에게 알려진), b) 근접한, 연결을 개방한 잠재적인 아이커넥트 사용자들(이들을 어디에서 찾아야하는지, 왜 연결되어야 하는지, 기타 등등에 대한 가이던스를 포함하여), 및 c) 이름 리마인더들 및 픽처들의 리스트을 포함하는 용이한 연결들에 관한 것이다. 2. Geographic location metadata - Quick information that is visually provided, this information includes: a) proximity contacts (known to nearby people), b) potential iConnect users who are close to the connection (where to find them, Why it should be connected, etc.), and c) easy reminders that include a list of name reminders and pictures.

3. 아이노트들(EyeNotes)- 지인들에 대한 메모들로서, 이는 음성으로 옮길 수 있으며(voice-transcribed), 텍스트로서 부가될 수 있고, 또는 페이스북, 링크드인 등에 스크린된 액세스에 기초한다. 3. EyeNotes - notes to acquaintances, which can be voice-transcribed, added as text, or based on screened access to Facebook, LinkedIn, and so on.

4. 프리-이벤트 연결들(Pre-Event Connections)- 사용자가 이벤트 프로파일들을 로딩하고 그리고 이벤트를 위한 시간 및 장소를 특정하자마자 연결경보들이 또한 허용될 수 있다. 4. Pre-Event Connections - Connection alerts can also be allowed as soon as the user loads the event profiles and specifies the time and location for the event.

5. 아이-시그널링이 없는 동작- 지리적 위치를 포함하는 임의의 식별 형태에 기초하는 사람들에 대한 일반적인 정보.5. Eye-No Signaling Actions - General information about people based on any form of identification, including geographic location.

6. 유니스파크(UniSpark)- 그들의 페르소나 또는 이벤트 정보에 매칭 및/또는 액세스를 허용하기로 사전 동의한(opted-in) 다른 디바이스 착용 개인들의 안구-신호 선택. 예를 들어, 사용자 1(U1)은, 아이커넥트를 통해 요청 사용자(soliciting user)와의 매칭(단방향 혹은 양방향 공유)을 허용하기로 사전 동의한 다른 디바이스 착용 개인인 사용자 2(U2)를 응시할 수 있다. 매치가 발생하면, U1은 U2에 대한 정보와 함께 연결경보(ConnectionAlert)를 수신한다. U2도 선택적으로는 연결경보를 수신할 수 있다. 아이커넥트가 U2에 대하여 활성이고 그리고 U2가 비-응시 경보들(non-gaze Alerts)를 인에이블했다면, U2는 시선없는 연결 경보(Gazeless Connection Alert)를 인에이블한다. 만일, U2가 아이커넥트를 구동하고 있지 않다면, U2는 요청, 매칭 사용자들로부터의 로그인된 연결 경보 정보와 함께 확립된 임의의 연결들에 대한 후속 리포트를 수신할 수 있다. 6. UniSpark - Eye-signal selection of other device wearers who opted-in to allow matching and / or access to their persona or event information. For example, user 1 (U1) may take user 2 (U2), another device wearer who has previously agreed to allow matching (one-way or two-way sharing) with a soliciting user via an iConnect . When a match occurs, U1 receives a connection alert (ConnectionAlert) along with information about U2. U2 can also optionally receive a connection alert. If the eyeconnect is active for U2 and U2 has enabled non-gaze alerts, U2 enables a Gazeless Connection Alert. If U2 is not driving the iConnect, U2 may receive a subsequent report on any of the established connections with the request, the logged connection alert information from the matching users.

7. 애니스팟(AnySpot)- 안면 인식이 허용되는 장소들, 시간들, 및/또는 상황들에서, 디바이스 사용자는 사용자가 웨어러블 컴퓨팅/아이커넥트를 사용하고 있는지의 여부에 관계없이, 정보를 획득하기 위해, 임의의 얼굴을 검색할 수 있다. 안면 인식을 이용하여, 디바이스 사용자는 그들이 바라보는 각각의 개인에 관한 그들 자신의 연락처들을 포함하여, 임의의 소스로부터 임의의 이용가능한 정보를 수신한다. 아이커넥트는 정보의 AR 프리젠테이션을 포함하는, 디스플레이-기반의 정보를 제공하는바, 단방향 정보 액세스(리콜, 노트들, 기타 등등을 포함) 및 양방향 정보 교환을 지원한다. 7. AnySpot - In places, times, and / or situations where facial recognition is allowed, the device user will be able to acquire information regardless of whether the user is using wearable computing / For that, you can search for any face. Using facial recognition, device users receive any available information from any source, including their own contacts for each individual they see. IConnect provides display-based information, including AR presentations of information, and supports unidirectional information access (including recalls, notes, etc.) and two-way information exchange.

다음의 내용은 각 설정 내의 특징적인 요소들과 함께, 추가적인 예시적인 연결 설정들의 리스트이다. 모든 구현예들은 CBID-기반이 될 수 있으며 그리고 콘택트 렌즈들, 폰들, 및/또는 외부 카메라들 뿐만 아니라 안구 추적, 및 비-증강 현실/가상 현실, 증강 현실, 및 가상 현실 상황들을 위한 디스플레이를 수용할 수 있다. The following is a list of additional exemplary connection settings, along with the characteristic elements in each setting. All implementations may be CBID-based and may accommodate displays for eye tracking, and non-augmented reality / virtual reality, augmented reality, and virtual reality situations as well as contact lenses, pawns, and / can do.

선택적으로는 대화에 의해 도움을 받는 시선-도움 객체 인식(Gaze-Assisted Object Identification Optionally Assisted by Dialogue)Optionally, the Gaze-Assisted Object Identification Optionally Assisted by Dialogue

정지 화상 또는 빠르게 변하는 일련의 이미지들로부터 객체를 식별하는 컴퓨터 비전(vision) 기술들은 상당한 프로세싱 능력, 논-로컬(non-local) 프로세싱을 위한 고 대역폭의 이미지 데이터 전송, 높은 해상도의 디지털 이미지(imagery), 비-실시간 프로세싱, 및 한정된 프로세싱 능력, 카메라 해상도, 전송 속도, 배터리 파워 및/또는 메모리에 의해서 제약을 받는 웨어러블, 카메라-장비된 컴퓨터 상에서의 유의미한, 범용의, 즉각적인 객체 식별에 도움을 주는 다른 구성요소들의 소정의 조합을 요구하는 것이 일반적이다. 안구 추적 기술 분야에서의 최근의 발전은, 저-전력, 낮은-프로세싱, 자체 완비된(self-contained) 웨어러블 기술의 전개를 가능케하였다. 상기 기술은 효율적이고, 집중되며, 그리고 별개(즉, 프라이빗)이다. 장면 내에서, 빠르게 변하는 일련의 이미지들에 대하여 관심 영역을 특정하기 위하여 인간의 인지 선택(human cognitive selection)을 추가하는 것은, 서로 다른 콘텍스트들에서 객체를 시각적으로 식별하는데 필요한 리소스들을 극적으로 감소시킬 수 있다. 또한, 컴퓨터 비전 검색 동안에 지능형 교환(intelligent interchange)을 가능케하는 시각적 피드백 시스템이 바람직한바, 이는 유동적으로, 직관적으로, 그리고 빠르게 인간의 인지 프로세싱과 머신 프로세싱을 병합하여, 웨어러블 컴퓨터가 한정된 리소스들로 콘텍스트들에 대하여 객체들을 식별할 수 있게 한다. Computer vision techniques for identifying objects from a still image or a series of rapidly changing images can be used for a wide range of applications including significant processing capabilities, high bandwidth image data transmission for non-local processing, ), Non-real-time processing, and wearable, camera-equipped computers that are limited by limited processing capabilities, camera resolution, transmission speed, battery power and / It is common to require some combination of different components. Recent developments in the field of eye tracking technology have enabled the development of low-power, low-processing, self-contained wearable technologies. The technique is efficient, focused, and distinct (i.e., private). Within the scene, adding a human cognitive selection to specify a region of interest for a rapidly changing series of images dramatically reduces the resources needed to visually identify the object in different contexts . It is also desirable to have a visual feedback system that enables intelligent interchange during a computer vision search, which combines human cognitive processing and machine processing fluidly, intuitively, and rapidly so that the wearable computer can access the context To identify the objects.

소프트웨어와 사용자 사이의 "대화(dialogue)"는 객체 식별을 확인하는데 이용될 수 있거나 또는 객체 식별에 기여할 수 있다. 확인이 되면, 객체들은 아이커넥션들 및 정보 공유를 위해 이용될 수 있다. A "dialogue " between the software and the user can be used to confirm object identification or can contribute to object identification. Once confirmed, objects can be used for eye connections and information sharing.

개인 정보의 구조화된 교환(Structured Exchange of Personal Information)Structured Exchange of Personal Information

선택적 정보 공유를 허용 및 용이하게 하기 위한 페르소나-기반의 매칭은 다음을 포함할 수 있다: 디스플레이가 있거나 없는 웨어러블 컴퓨터 시스템의 실시간 이용, 근접성(지리적 위치) 및 특정 공유를 위한 이벤트-기반의 프로파일들. 공유하고자 하는 다른 표시들은 상호 응시, 일방 응시(one way gaze), 악수(hand shake), 및/또는 다른 신호들(예컨대, 보디 랭귀지) 또는 제스처를 포함한다. 시스템들은 로컬 혹은 원격 정보 관리, 스크리닝, 및/또는 사용자-특정 정보의 전송을 포함할 수 있다. 또한, 시스템들은 커뮤니티 공유, 개선(refinement), 및 특정한 스크리닝 기준(screening criteria) 및 공유 기준(sharing criteria)을 포함할 수 있는 이벤트 프로파일 속성들의 평가를 포함할 수 있다. Persona-based matching to allow and facilitate selective information sharing may include: real-time use of wearable computer systems with or without displays, proximity (geographic location), and event-based profiles for specific sharing . Other indications to share include cross gazing, one way gaze, handshake, and / or other signals (e.g., body language) or gestures. The systems may include local or remote information management, screening, and / or transmission of user-specific information. In addition, the systems may include community sharing, refinement, and evaluation of event profile attributes that may include specific screening criteria and sharing criteria.

관련성을 결정하기 위한 이벤트 기반의 정보 선택(Event-Based Selection of Information to Determine Relevance)Event-Based Selection of Information to Determine Relevance (Determine Relevance)

개인적/상호작용 관계(personal/interaction relationships)의 관련성을 판별하기 위해 이벤트 필터들이 이용될 수 있다. 이들은 사용자-로딩가능한(user-loadable), 칼렌다-로딩가능한(calendar-loadable), 알고리즘들에 의해서 생성되는 필터들, 상호적으로 또는 협동적으로 선택되는, 및/또는 동적으로 로딩되는 기준을 포함할 수 있다. 동적인 필터들이 이벤트 전에, 중간에, 후에 로딩될 수 있다. Event filters can be used to determine the relevance of personal / interaction relationships. These include user-loadable, calendar-loadable, filters generated by algorithms, mutually or collaboratively selected, and / or dynamically loaded criteria can do. Dynamic filters can be loaded before, during, and after an event.

동시 응시를 통한 참여된 당사자들의 개인적 판별(Private Determination of Engaged Parties through Simultaneous Gaze)In this paper, we propose a methodology for identifying individual participating parties through simultaneous gazing (Engaged Parties through Simultaneous Gaze)

시스템은 웨어러블 디바이스를 이용하여 서로를 응시하는 개인들의 이미지들을 비교할 수 있다. 시스템은 이벤트 프로파일들, 타임 스탬프들, 및/또는 지리적 위치를 이용할 수 있으며; 그리고 안면 인식 소프트웨어를 회피할 수 있다(일시적인 또는 선험적(priori) 이미지들을 제외하고). 상기 시스템은 다른 스크리닝 방법으로서, "디바이스들을 착용한" 사용자들의 식별(identification)을 포함할 수 있다. 이를 위한 방법들은: 웨어러블 디바이스들을 구분하는 컴퓨터 비전, 상호 응시를 추구/참가하는 사용자, IR, 및/또는 다른 디바이스가 아이커넥트 액티브로 보일 때의 디바이스들 간의 다른 시그널링 프로토콜들을 포함할 수 있다. The system can use wearable devices to compare images of individuals gazing at each other. The system may utilize event profiles, timestamps, and / or geographic location; And facial recognition software can be avoided (except for temporary or priori images). The system may be an alternative screening method, which may include an identification of users who "wear the devices. &Quot; Methods for this may include: computer vision to identify wearable devices, users seeking / participating in a cross-reference, IR, and / or other signaling protocols between devices when another device looks eye active.

이벤트 개시를 위한 상호 응시-기반의 프로토콜(Mutual Gaze-Based Protocol for Event Initiation) Mutual Gaze-Based Protocol for Event Initiation

다수의 서로 다른 기준들 및 경험칙(heuristics)이 이용될 수 있다. 응시-기반 이벤트들을 시작 및 확장(또는 반대로, 프라이버시를 유지함)하는데 이용될 수 있다. 이들 중 중요한 것은, 이벤트를 개시하기 위한 동시 아이 콘택을 검출하는 것이다. 다른 기준은 웨어러블 시스템, 카메라 기반의 회의 시스템, 1:1 응시, 1:n 응시, n:m 응시(정보 공유를 위한 이벤트의 그룹 개시), 큰 그룹 내에서의 1:1 프라이빗 공유, 참가자들의 더 큰 그룹 내에서의 1:n 프라이빗 공유, 및/또는 아이-콘택을 정의하기 위한 임계 시간의 존재를 포함한다. 또한, 기준들은 다른 액션들이 수반되는지의 여부에 의존할 수 있는바, 상기 다른 액션들은 이벤트 자격을 얻기 위한 추가적인 스크리닝, 이벤트가 소정 유형의 콘트롤을 야기할 수 있는지(예컨대, 이벤트 등록, 정보의 변경), 이벤트가 정보의 일 당사자로부터 다른 당사자로의 일 방향 전송 또는 당사자들 간의 양 방향 전송을 야기할 수 있는지, 및/또는 액션이 실시간인지 혹은 지연되는지를 포함한다. A number of different criteria and heuristics can be used. And may be used to initiate and expand (or vice versa, maintain privacy) admission-based events. Of these, it is important to detect simultaneous eye contacts for initiating an event. Other standards include wearable systems, camera-based conferencing systems, 1: 1 staging, 1: n staging, n: m staging (grouping of events for information sharing), 1: 1 private sharing within large groups, 1: n private sharing within a larger group, and / or the presence of a critical time to define an eye-contact. In addition, the criteria may depend on whether other actions are involved, such as additional screening to obtain event qualification, whether the event can cause some type of control (e.g., event registration, change of information ), Whether the event can cause one-way transfer of information from one party to another, or two-way transfer between the parties, and / or whether the action is real-time or delayed.

동시 로케이션 및 맵핑을 위한 데이터의 공통 응시 기여(Common Gaze Contribution of Data for Simultaneous Location and Mapping)Common Gaze Contribution of Data for Simultaneous Location and Mapping (Simultaneous Location and Mapping)

사용자 응시는 안내를 통해 사용자들 사이에서 조화 및 지향될 수 있으며 그리고 웨어러블 디스플레이들로부터 피드백될 수 있다. 디스플레이들은 디바이스에 인-라인(in-line)될 수 있거나 또는 페리페럴(peripheral)될 수 있다. 예를 들어, 다수의 사용자들의 응시는 운동장 스크린을 향할 수 있다. 특정 방향에서 포커싱되는 확인 및/또는 분석은 다수의 지리적 위치에 있는 사용자들로부터 결정될 수 있다. The user's gazing can be coordinated and directed among the users through guidance and can be fed back from the wearable displays. The displays may be in-line or peripheral to the device. For example, the gaze of multiple users may be directed to a playground screen. Confirmation and / or analysis focused in a particular direction may be determined from users at multiple geographic locations.

다수 모드 정보 교환의 공통 시선 개시(Common Gaze Initiation of Multi-Modal Information Exchange)Common Gaze Initiation of Multi-Mode Information Exchange < RTI ID = 0.0 >

아이커넥션들은 정보 교환의 다른 양상들을 포함할 수 있는바, 시각적 정보 교환(예컨대, 비디오 혹은 이미지들) 또는 실시간 음성 정보 교환이 그것이다. Eye connections may include other aspects of information exchange, such as visual information exchange (e.g., video or images) or real-time voice information exchange.

편의를 위해, 동작들은 다양한 상호연결된 기능 블록들 또는 별개의 소프트웨어 모듈들로 설명된다. 하지만, 반드시 이럴 필요는 없으며, 그리고 이들 기능 블록들 혹은 모듈들이 하나의 논리 디바이스, 프로그램 혹은 불분명한 바운더리들을 갖는 동작으로 동등하게 취합되는 경우들이 있을 수 있다. 임의의 경우에 있어서, 기능 블록들 및 소프트웨어 모듈들 혹은 서술된 피처들은 자체적으로, 또는 하드웨어 혹은 소프트웨어적으로 다른 동작들과 조합되어 구현될 수 있다. For convenience, operations are described with various interconnected functional blocks or separate software modules. However, this is not necessarily the case, and there may be instances where these functional blocks or modules are equally combined into one logical device, program, or operation with obscure boundaries. In any case, the functional blocks and software modules or the described features may be implemented on their own or in combination with other operations, either hardware or software.

예시적인 실시예들의 전술한 내용 설명 및 서술을 위한 목적으로 제공되었다. 개시된 바로 그 형태만으로 본 발명을 한정하고자 의도된 것이 아니다. 본 명세서에 서술된 실시예들의 많은 변형예들 및 수정예들이 앞선 내용을 참조하면 해당 기술분야의 당업자에게 자명할 것이다. The foregoing description of the exemplary embodiments has been presented for the purpose of illustration and description. It is not intended to limit the invention to the exact form just described. Many modifications and variations of the embodiments described herein will be apparent to those skilled in the art having referred to the foregoing description.

또한, 대표적인 실시예들을 서술함에 있어서, 본 명세서는 특정한 단계들의 시퀀스로서 방법 및/또는 프로세스를 표현할 수도 있다. 하지만, 상기 방법 혹은 프로세스가 본원에 서술된 단계들의 특정 순서에 의존하지 않는 한, 상기 방법 혹은 프로세스는 서술된 단계들의 특정 시퀀스로 제한되지 않아야 한다. 해당 기술분야의 당업자에게 이해되는 바와 같이, 단계들의 다른 시퀀스들도 또한 가능하다. 따라서, 본 명세서에 서술된 단계들의 특정한 순서는 청구범위에 대한 제한들로서 해석되지 않아야 한다. Further, in describing exemplary embodiments, the present disclosure may represent a method and / or process as a sequence of specific steps. However, the method or process should not be limited to the specific sequence of steps described, so long as the method or process does not depend on the specific sequence of steps described herein. Other sequences of steps are also possible, as will be understood by those skilled in the art. Accordingly, the specific order of steps described herein should not be construed as limitations on the claims.

임의의 실시예에서 개시된 요소들 또는 구성요소들은 특정 실시예에 대한 예시일 뿐이며 다른 실시예들과 조합되어 사용될 수도 있음을 유의해야 한다. It should be noted that the elements or components disclosed in any embodiment are illustrative only of specific embodiments and may be used in combination with other embodiments.

본 발명의 원리들이 예시적인 실시예에서 서술 및 예시되었으며, 이러한 원리들을 벗어남이 없이도 본 발명이 구성 및 세부사항에 있어서 수정될 수 있음은 자명할 것이다. 청구범위는 이들 모든 수정예들 및 변형예들을 포괄하도록 의도된다. It is to be understood that the principles of the invention have been described and illustrated in the exemplary embodiments, and that the invention may be modified in construction and detail without departing from such principles. The claims are intended to cover all such modifications and variations.

Claims (50)

사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 시스템으로서,
사용자의 머리에 착용되도록 구성된 헤드기어(headgear);
상기 헤드기어에 마운트된 복수의 카메라들, 상기 복수의 카메라들은 눈의 움직임을 모니터링하기 위해 상기 헤드기어가 착용될 때 서로 다른 각도들로부터 상기 사용자의 눈을 향해 지향되며;
검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛, 상기 프로세싱 유닛은,
상기 눈의 홍채를 식별하도록 상기 카메라들로부터의 하나 이상의 이미지들을 분석하고;
상기 하나 이상의 이미지들에 기초하여, 상기 홍채의 원하는 뷰(view)를 제공하는 제 1 카메라를 상기 복수의 카메라들로부터 선택하고;
상기 홍채의 피처들을 식별하도록 상기 제 1 카메라로부터의 이미지를 분석하고;
상기 홍채의 피처들에 적어도 일부 기초하여 상기 사용자를 식별하고; 그리고
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
A system for providing a substantially persistent biometric authentication for a user,
A headgear configured to be worn on a user's head;
A plurality of cameras mounted on the headgear, the plurality of cameras being directed from the different angles toward the eyes of the user when the headgear is worn to monitor movement of the eyes;
A processing unit operatively connected to a detector and an electronic display,
Analyze one or more images from the cameras to identify the iris of the eye;
Select a first camera from the plurality of cameras based on the one or more images, the first camera providing a desired view of the iris;
Analyze an image from the first camera to identify features of the iris;
Identify the user based at least in part on features of the iris; And
And when the identity of the user is confirmed, permitting the user to perform one or more actions.
헤드기어를 착용한 사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 방법으로서, 상기 헤드기어는 서로 다른 각도들로부터 상기 사용자의 눈을 향해 지향된 복수의 카메라들을 포함하고,
상기 눈의 홍채를 식별하도록 상기 카메라들로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 하나 이상의 이미지들에 기초하여, 상기 홍채의 원하는 뷰(view)를 제공하는 제 1 카메라를 상기 복수의 카메라들로부터 선택하는 단계;
상기 홍채의 피처들을 식별하도록 상기 제 1 카메라로부터의 이미지를 분석하는 단계;
상기 홍채의 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계; 및
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
A method of providing a substantially continuous biometric authentication for a user wearing a headgear, the headgear comprising a plurality of cameras directed from the different angles towards the user's eye,
Analyzing one or more images from the cameras to identify the iris of the eye;
Selecting a first camera from the plurality of cameras based on the one or more images, the first camera providing a desired view of the iris;
Analyzing an image from the first camera to identify features of the iris;
Identifying the user based at least in part on features of the iris; And
Allowing the user to perform one or more actions when the identity of the user is confirmed
The biometric authentication method comprising the steps of:
제2항에 있어서,
상기 제 1 카메라는, 상기 제 1 카메라로부터의 이미지들에서 식별된 홍채의 형상에 적어도 일부 기초하여 선택되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
3. The method of claim 2,
Wherein the first camera is selected based at least in part on the shape of the iris identified in the images from the first camera.
제3항에 있어서,
상기 제 1 카메라는, 상기 제 1 카메라로부터의 이미지들에서 식별된 홍채의 상기 형상이 다른 카메라들로부터의 이미지들에서 식별된 홍채의 형상 보다 실질적으로 원형에 더 가깝다는 것에 적어도 일부 기초하여 선택되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
The method of claim 3,
The first camera is selected based at least in part on the fact that the shape of the iris identified in the images from the first camera is substantially closer to a circle than the shape of the iris identified in images from other cameras The biometric authentication method comprising:
제2항에 있어서,
상기 제 1 카메라는, 상기 제 1 카메라로부터의 이미지들에서의 조명 콘트라스트(lighting contrast)에 적어도 일부 기초하여 선택되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
3. The method of claim 2,
Wherein the first camera is selected based at least in part on lighting contrast in the images from the first camera.
제1항에 있어서,
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가한 이후에,
상기 홍채의 피처들을 식별하도록 상기 제 1 카메라로부터의 다른 이미지를 분석하고; 그리고
상기 다른 이미지로부터의 상기 홍채의 피처들에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 것
을 더 포함하는 생체 인증을 제공하는 방법.
The method according to claim 1,
After allowing the user to perform one or more actions,
Analyze another image from the first camera to identify features of the iris; And
Identifying the user's identity based at least in part on features of the iris from the other image
The biometric authentication method further comprising:
제6항에 있어서,
상기 단계들은 실질적으로 지속적으로 반복되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
The method according to claim 6,
Wherein the steps are substantially continuously repeated. ≪ Desc / Clms Page number 19 >
제6항에 있어서,
상기 단계들은 주기적으로 반복되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
The method according to claim 6,
Wherein the steps are repeated periodically.
제6항에 있어서,
수행되기 전에 신원 확인을 요구하는 기결정된 행위가 상기 사용자에 의해서 선택되는 때에 상기 단계들이 반복되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
The method according to claim 6,
Characterized in that the steps are repeated when a pre-determined action requiring identification is performed by the user before being performed.
제1항에 있어서,
상기 사용자를 식별하는데 필요한 최소 엄격성 임계값(minimum stringency threshold)을 충족하도록, 상기 홍채의 충분히 큰 부분이 상기 이미지로부터 식별될 수 있기 때문에, 상기 제 1 카메라가 선택되는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
The method according to claim 1,
Characterized in that the first camera is selected because a sufficiently large portion of the iris can be identified from the image so as to meet a minimum stringency threshold required to identify the user Providing system.
사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 시스템으로서,
사용자의 머리에 착용되도록 구성된 헤드기어(headgear);
상기 헤드기어에 마운트된 복수의 카메라들, 상기 복수의 카메라들은 눈의 움직임을 모니터링하기 위해 상기 헤드기어가 착용될 때 서로 다른 각도들로부터 상기 사용자의 눈을 향해 지향되며;
검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛, 상기 프로세싱 유닛은,
상기 눈의 홍채를 식별하도록 상기 카메라들로부터의 하나 이상의 이미지들을 분석하고;
상기 복수의 카메라들 중 상기 홍채의 원하는 뷰(view)들을 제공하는 여러 카메라들로부터의 이미지들을 선택하고;
상기 선택된 이미지들로부터 복합 홍채코드(composite irisCode)를 생성하고;
상기 복합 홍채코드에 적어도 일부 기초하여 상기 사용자를 식별하고; 그리고
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
A system for providing a substantially persistent biometric authentication for a user,
A headgear configured to be worn on a user's head;
A plurality of cameras mounted on the headgear, the plurality of cameras being directed from the different angles toward the eyes of the user when the headgear is worn to monitor movement of the eyes;
A processing unit operatively connected to a detector and an electronic display,
Analyze one or more images from the cameras to identify the iris of the eye;
Select images from various cameras providing desired views of the iris among the plurality of cameras;
Generate a composite iris code from the selected images;
Identify the user based at least in part on the composite iris code; And
And when the identity of the user is confirmed, permitting the user to perform one or more actions.
헤드기어를 착용한 사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 방법으로서, 상기 헤드기어는 서로 다른 각도들로부터 상기 사용자의 눈을 향해 지향된 복수의 카메라들을 포함하고,
상기 눈의 홍채를 식별하도록 상기 카메라들로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 복수의 카메라들 중 상기 홍채의 원하는 뷰(view)들을 제공하는 여러 카메라들로부터의 이미지들을 선택하는 단계;
상기 선택된 이미지들로부터 복합 홍채코드(composite irisCode)를 생성하는 단계;
상기 복합 홍채코드에 적어도 일부 기초하여 상기 사용자를 식별하는 단계; 및
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
A method of providing a substantially continuous biometric authentication for a user wearing a headgear, the headgear comprising a plurality of cameras directed from the different angles towards the user's eye,
Analyzing one or more images from the cameras to identify the iris of the eye;
Selecting images from various cameras providing desired views of the iris among the plurality of cameras;
Generating a composite iris code from the selected images;
Identifying the user based at least in part on the compound iris code; And
Allowing the user to perform one or more actions when the identity of the user is confirmed
The biometric authentication method comprising the steps of:
제12항에 있어서,
상기 선택된 이미지들은 다수의 각도들로부터 상기 홍채의 이미지들을 제공하고, 그리고 상기 복합 홍채코드를 생성하는 단계는, 상기 선택된 이미지들로부터 홍채의 일부분들을 선택하고 그리고 상기 홍채의 일부분들을 상기 홍채에 대한 복합 이미지로 조합하는 단계를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
13. The method of claim 12,
Wherein the selected images provide images of the iris from a plurality of angles, and wherein generating the composite iris code comprises: selecting portions of the iris from the selected images and outputting the portions of the iris to the iris And combining the biometric information with a composite image for the biometric authentication.
제12항에 있어서,
상기 홍채의 일부분들을 조합하기 전에, 상기 선택된 이미지들 내의 홍채의 이미지들을 공통 축(common axis)에 정렬시키도록, 상기 선택된 이미지들 중 하나 이상을 회전시키는 단계를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
13. The method of claim 12,
Further comprising rotating one or more of the selected images to align the images of the iris in the selected images on a common axis before combining the portions of the iris. How to provide authentication.
제12항에 있어서,
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계 이후에,
상기 카메라들로부터 추가 이미지들을 분석하는 단계;
상기 추가 이미지들로부터 새로운 복합 홍채코드(new composite irisCode)를 생성하는 단계;
상기 새로운 복합 홍채코드에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
13. The method of claim 12,
After allowing the user to perform one or more actions,
Analyzing additional images from the cameras;
Generating a new composite iris code from the additional images;
Confirming the identity of the user based at least in part on the new compound iris code
The biometric authentication method further comprising:
사용자의 눈을 향해 지향된 카메라를 포함하는 헤드기어를 착용한 상기 사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 방법으로서,
상기 카메라로부터의 복수의 이미지들을 분석하는 단계;
상기 복수의 이미지들에 기초하여 복합 홍채코드를 생성하는 단계
상기 복합 홍채코드에 적어도 일부 기초하여 상기 사용자를 식별하는 단계; 및
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
CLAIMS What is claimed is: 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear comprising a camera directed towards a user's eye,
Analyzing a plurality of images from the camera;
Generating a composite iris code based on the plurality of images
Identifying the user based at least in part on the compound iris code; And
Allowing the user to perform one or more actions when the identity of the user is confirmed
The biometric authentication method comprising the steps of:
제16항에 있어서,
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계 이후에,
상기 카메라로부터 추가 이미지들을 분석하는 단계;
상기 추가 이미지들로부터 새로운 복합 홍채코드를 생성하는 단계;
상기 새로운 복합 홍채코드에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
17. The method of claim 16,
After allowing the user to perform one or more actions,
Analyzing additional images from the camera;
Generating a new composite iris code from the additional images;
Confirming the identity of the user based at least in part on the new compound iris code
The biometric authentication method further comprising:
사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 시스템으로서,
사용자의 머리에 착용되도록 구성된 헤드기어;
상기 헤드기어에 마운트된 검출기, 상기 검출기는 상기 헤드기어가 착용될 때 상기 사용자의 눈을 향해 지향되며;
상기 헤드기어에 마운트된 디스플레이, 상기 디스플레이는 상기 헤드기어가 착용될 때 상기 사용자에 의해 보여질 수 있으며; 그리고
상기 검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛, 상기 프로세싱 유닛은,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하고;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하고;
상기 사용자의 신원이 확인되면 상기 디스플레이를 통해 상기 사용자가 하나 이상의 행위들을 수행하는 것을 허가하고; 그리고
상기 디스플레이 상에서 상기 사용자에게 제공되는 정보의 보안성을 보존하도록 상기 디스플레이의 불투명도(opacity)를 변경하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
A system for providing a substantially persistent biometric authentication for a user,
A head gear configured to be worn on a user's head;
A detector mounted on the headgear, the detector being oriented towards the user's eye when the headgear is worn;
A display mounted on the headgear, the display being visible to the user when the headgear is worn; And
A processing unit operatively connected to the detector and the electronic display,
Analyze one or more images from the detector to identify features of the iris of the eye;
Identify the user based at least in part on the features of the iris;
Allow the user to perform one or more actions via the display when the identity of the user is confirmed; And
And changes the opacity of the display to preserve the security of information provided to the user on the display.
제18항에 있어서,
상기 프로세싱 유닛은 보안 정보가 제공되는 상기 디스플레이 상의 하나 이상의 영역들을 식별하고 그리고 상기 보안 정보가 제공되는 동안에는 상기 영역들이 실질적으로 불투명해지도록 상기 영역들을 변경(modify)하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
19. The method of claim 18,
Wherein the processing unit identifies one or more areas on the display where security information is provided and modifies the areas so that the areas become substantially opaque while the security information is provided System.
제18항에 있어서,
상기 사용자의 신원이 미리결정된 임계 보안 허가(predetermined threshold security authorization)와 관련되는 경우, 상기 프로세싱 유닛은 상기 디스플레이 상에 후속으로 제공되는 보안 정보를 보호하도록 전체 디스플레이를 실질적으로 불투명하게 만드는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
19. The method of claim 18,
Wherein if the identity of the user is associated with a predetermined threshold security authorization, the processing unit makes the entire display substantially opaque to protect subsequent security information on the display A system that provides biometric authentication.
사용자의 눈을 향해 지향된 카메라를 포함하는 헤드기어를 착용한 상기 사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 방법으로서,
상기 눈의 홍채의 피처들을 식별하도록 상기 카메라로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계;
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계;
그 후에, 상기 사용자가 상기 헤드기어를 여전히 착용하고 있는지를 확인하기 위해 추가 분석을 수행하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
CLAIMS What is claimed is: 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear comprising a camera directed towards a user's eye,
Analyzing one or more images from the camera to identify features of the iris of the eye;
Identifying the user based at least in part on the features of the iris;
Authorizing the user to perform one or more actions when the identity of the user is confirmed;
Thereafter, performing further analysis to ensure that the user is still wearing the headgear
The biometric authentication method comprising the steps of:
제21항에 있어서,
상기 추가 분석은,
상기 사용자의 눈이 상기 하나 이상의 이미지들 내에 남아있는지를 확인하기 위해, 상기 카메라로부터의 하나 이상의 이미지들을 분석하는 것을 포함하는 생체 인증을 제공하는 방법.
22. The method of claim 21,
Said further analysis,
And analyzing one or more images from the camera to verify that the user's eye remains within the one or more images.
제22항에 있어서,
상기 추가 분석은,
상기 사용자의 눈이 상기 하나 이상의 이미지들 내에서 활성인 채로 남아있는지를 확인하기 위해, 상기 카메라로부터의 하나 이상의 이미지들을 분석하는 것을 포함하는 생체 인증을 제공하는 방법.
23. The method of claim 22,
Said further analysis,
And analyzing one or more images from the camera to verify that the user's eye remains active within the one or more images.
제21항에 있어서,
상기 추가 분석은,
초기 인증 보다는 낮은 엄격도에서 상기 눈의 홍채의 피처들을 식별하기 위해, 상기 카메라로부터의 하나 이상의 이미지들을 분석하는 것을 포함하는 생체 인증을 제공하는 방법.
22. The method of claim 21,
Said further analysis,
And analyzing one or more images from the camera to identify features of the iris of the eye at a lower degree of severity than the initial authentication.
제21항에 있어서,
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계 이후에,
상기 홍채의 피처들을 식별하도록 하나 이상의 추가 이미지들을 분석하는 단계; 및
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 단계
를 한 번 이상 수행하는 것을 더 포함하는 생체 인증을 제공하는 방법.
22. The method of claim 21,
After allowing the user to perform one or more actions,
Analyzing one or more additional images to identify features of the iris; And
Confirming the identity of the user based at least in part on the features of the iris
RTI ID = 0.0 > 1, < / RTI >
제25항에 있어서,
a) 실질적으로 지속적으로; b) 주기적으로; 및 c) 수행되기 전에 신원 확인을 요구하는 기결정된 행위가 상기 사용자에 의해서 선택되는 때 중 하나 이상에서 제25항의 단계들이 수행되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
26. The method of claim 25,
a) substantially continuous; b) periodically; And c) a predetermined action is selected by the user requesting identification before being performed. ≪ Desc / Clms Page number 24 >
제21항 내지 제26항 중 어느 한 항에 있어서,
상기 헤드기어로부터의 상기 하나 이상의 이미지들을 통신하는 단계, 상기 분석, 식별 및 허가하는 단계들은 상기 헤드기어로부터 원격 위치에서 수행되고, 상기 원격 위치로부터 상기 헤드기어로 허가가 통신되며; 그리고
상기 헤드기어를 이용하여 하나 이상의 허가된 액션들을 수행하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
27. The method according to any one of claims 21 to 26,
Communicating the one or more images from the headgear, the steps of analyzing, identifying and authorizing are performed at a remote location from the headgear and a permission is communicated from the remote location to the headgear; And
Performing one or more authorized actions using the headgear
The biometric authentication method further comprising:
제21항 내지 제26항 중 어느 한 항에 있어서,
상기 분석, 식별 및 허가하는 단계들 중 하나 이상은 상기 헤드기어 상의 프로세싱 유닛에 의해서 수행되며, 상기 방법은 상기 분석, 식별 및 허가하는 단계들 중 나머지를 수행하도록 원격 위치의 프로세싱 유닛과 통신하는 단계를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
27. The method according to any one of claims 21 to 26,
Wherein at least one of the steps of analyzing, identifying and authorizing is performed by a processing unit on the headgear, the method comprising communicating with a processing unit at a remote location to perform the remainder of the analyzing, identifying and authorizing steps The biometric authentication method further comprising:
제21항 내지 제26항 중 어느 한 항에 있어서,
상기 분석, 식별 및 허가하는 단계들은 상기 헤드기어 상의 프로세싱 유닛에 의해서 수행되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
27. The method according to any one of claims 21 to 26,
Wherein the steps of analyzing, identifying and authorizing are performed by a processing unit on the headgear.
사용자의 눈을 향해 지향된 검출기를 포함하는 헤드기어를 착용한 상기 사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 방법으로서,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계;
상기 사용자의 신원이 확인되면 상기 디스플레이를 통해 상기 사용자가 하나 이상의 행위들을 수행하는 것을 허가하는 단계; 및
상기 디스플레이 상에서 상기 사용자에게 제공되는 정보의 보안성을 보존하도록 상기 디스플레이의 불투명도(opacity)를 변경하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
CLAIMS 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear comprising a detector directed towards a user's eye,
Analyzing one or more images from the detector to identify features of the iris of the eye;
Identifying the user based at least in part on the features of the iris;
Allowing the user to perform one or more actions via the display when the identity of the user is confirmed; And
Changing the opacity of the display to preserve the security of information provided to the user on the display
The biometric authentication method comprising the steps of:
사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 시스템으로서,
사용자의 머리에 착용되도록 구성된 헤드기어;
상기 헤드기어에 마운트된 검출기, 상기 검출기는 상기 헤드기어가 착용될 때 상기 사용자의 눈을 향해 지향되며;
상기 헤드기어에 마운트된 디스플레이, 상기 디스플레이는 상기 헤드기어가 착용될 때 상기 사용자에 의해 보여질 수 있으며;
상기 헤드기어에 마운트가능한 시야 차단기(sight shield), 상기 시야 차단기는 상기 디스플레이 상에 제공된 정보가 상기 디스플레이 너머에서(beyond) 보여질 수 있는 것을 방지하도록, 상기 디스플레이를 적어도 일부 커버하며;
상기 검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛
을 포함하고, 상기 프로세싱 유닛은,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하고;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하고; 그리고
상기 사용자의 신원이 확인되면 및 상기 시야 차단기가 상기 헤드기어에 마운트됨이 확인되면, 상기 디스플레이를 통해 상기 사용자가 정보에 액세스하는 것을 허가하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
A system for providing a substantially persistent biometric authentication for a user,
A head gear configured to be worn on a user's head;
A detector mounted on the headgear, the detector being oriented towards the user's eye when the headgear is worn;
A display mounted on the headgear, the display being visible to the user when the headgear is worn;
A sight shield mountable to the headgear, the field shield covering at least a portion of the display to prevent information provided on the display from being visible beyond the display;
A processor unit operatively connected to the detector and the electronic display,
Wherein the processing unit comprises:
Analyze one or more images from the detector to identify features of the iris of the eye;
Identify the user based at least in part on the features of the iris; And
And when the identity of the user is confirmed and when it is confirmed that the visual field breaker is mounted on the headgear, the user is allowed to access the information via the display.
헤드기어를 착용한 사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 방법으로서, 상기 헤드기어는 상기 사용자의 눈을 향해 지향된 검출기를 포함하며,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계;
상기 디스플레이 상에 제공된 정보가 상기 디스플레이 너머에서(beyond) 보여질 수 있는 것을 방지하도록 상기 디스플레이를 적어도 일부 커버하는 시야 차단기가 상기 헤드기어에 마운트되었는지 여부를 검출하는 단계; 및
상기 사용자의 신원이 확인되면 및 상기 시야 차단기가 상기 헤드기어에 마운트됨이 확인되면, 상기 디스플레이를 통해 상기 사용자가 정보에 액세스하는 것을 허가하는 단계
를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
CLAIMS 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear, the headgear comprising a detector directed towards the user ' s eye,
Analyzing one or more images from the detector to identify features of the iris of the eye;
Identifying the user based at least in part on the features of the iris;
Detecting whether a visual field breaker covering at least a portion of the display is mounted on the headgear to prevent that information provided on the display can be seen beyond the display; And
When the identity of the user is confirmed and when it is confirmed that the visual field breaker is mounted on the headgear, allowing the user to access the information via the display
The biometric authentication method comprising the steps of:
제32항에 있어서,
상기 시야 차단기가 상기 헤드기어로부터 제거되었음을 검출하는 단계; 및
상기 시야 차단기가 상기 헤드기어로부터 제거되는 경우, 보안 정보가 상기 디스플레이 상에 제공됨을 금지시키는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
33. The method of claim 32,
Detecting that the visual field breaker has been removed from the headgear; And
Prohibiting security information from being provided on the display when the visual field breaker is removed from the headgear
The biometric authentication method further comprising:
제32항에 있어서,
상기 시야 차단기가 상기 헤드기어로부터 제거되었음을 검출하는 단계; 및
상기 시야 차단기가 상기 헤드기어로부터 제거되는 경우, 상기 사용자의 권한을 취소하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
33. The method of claim 32,
Detecting that the visual field breaker has been removed from the headgear; And
Canceling the authority of the user when the visual field breaker is removed from the headgear
The biometric authentication method further comprising:
사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 시스템으로서,
사용자의 머리에 착용되도록 구성된 헤드기어;
상기 헤드기어에 마운트된 검출기, 상기 검출기는 상기 헤드기어가 착용될 때 상기 사용자의 눈을 향해 지향되며; 그리고
상기 검출기 및 전자 디스플레이에 동작가능하게 접속되는 프로세싱 유닛
을 포함하고, 상기 프로세싱 유닛은,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하고;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하고; 그리고
상기 사용자의 신원이 확인되면 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
A system for providing a substantially persistent biometric authentication for a user,
A head gear configured to be worn on a user's head;
A detector mounted on the headgear, the detector being oriented towards the user's eye when the headgear is worn; And
A processor unit operatively connected to the detector and the electronic display,
Wherein the processing unit comprises:
Analyze one or more images from the detector to identify features of the iris of the eye;
Identify the user based at least in part on the features of the iris; And
And when the identity of the user is confirmed, permitting the user to perform one or more actions.
제35항에 있어서,
상기 프로세싱 유닛에 동작가능하게 관련되는 디스플레이를 더 포함하고,
상기 프로세싱 유닛은, 상기 사용자가 상기 디스플레이를 통해 하나 이상의 액션들을 수행하는 것을 허가하도록 구성되는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
36. The method of claim 35,
Further comprising a display operatively associated with the processing unit,
Wherein the processing unit is configured to permit the user to perform one or more actions via the display.
제36항에 있어서,
상기 디스플레이는 상기 헤드기어에 마운트되며, 상기 디스플레이는 상기 헤드기어가 착용될 때 상기 사용자에 의해 보여질 수 있는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
37. The method of claim 36,
Wherein the display is mounted on the headgear and the display can be viewed by the user when the headgear is worn.
제36항에 있어서,
상기 디스플레이는 상기 헤드기어로부터 떨어져 있으며, 상기 시스템은 상기 헤드기어에 마운트된 장면 카메라(scene camera)를 더 포함하고, 그리고 상기 디스플레이가 상기 사용자의 전면에 위치할 때 상기 장면 카메라의 시야 내에 상기 디스플레이가 있도록, 상기 장면 카메라가 지향되는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
37. The method of claim 36,
Wherein the display is remote from the headgear and the system further comprises a scene camera mounted on the headgear and wherein when the display is located in front of the user, Wherein the scene camera is oriented so that the scene camera is oriented in such a way that the scene camera is oriented.
제35항에 있어서,
상기 프로세싱 유닛은 상기 헤드기어에 마운트된 프로세서를 포함하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
36. The method of claim 35,
Wherein the processing unit comprises a processor mounted on the headgear.
제35항에 있어서,
상기 헤드기어 상의 무선 송수신기를 더 포함하고, 그리고 상기 프로세싱 유닛은 상기 헤드기어로부터 떨어져 있는 프로세서를 포함하며, 상기 프로세서는 상기 무선 송수신기를 통해 상기 검출기 및 디스플레이에 무선으로 접속되는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
36. The method of claim 35,
Further comprising a wireless transceiver on the headgear, and wherein the processing unit includes a processor remote from the headgear, the processor being wirelessly connected to the detector and the display via the wireless transceiver. / RTI >
제35항에 있어서,
상기 검출기는 상기 헤드기어에 마운트된 하나 이상의 카메라들을 포함하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
36. The method of claim 35,
Wherein the detector comprises one or more cameras mounted on the headgear.
제35항에 있어서,
상기 헤드기어에 마운트된 하나 이상의 조명 소스들을 더 포함하며, 상기 조명 소스들은 상기 헤드기어가 착용될 때 상기 눈을 향해 지향되는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
36. The method of claim 35,
Further comprising one or more illumination sources mounted on the headgear, wherein the illumination sources are directed towards the eye when the headgear is worn.
제35항에 있어서,
상기 프로세싱 유닛은 또한, 상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가한 이후에,
상기 홍채의 피처들을 식별하도록 하나 이상의 추가 이미지들을 분석하고; 그리고
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 것을 한 번 이상 수행하는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
36. The method of claim 35,
The processing unit may also, after allowing the user to perform one or more actions,
Analyze one or more additional images to identify features of the iris; And
Wherein the verification of the identity of the user is performed at least once based on at least a portion of the features of the iris.
제43항에 있어서,
상기 프로세싱 유닛은,
a) 실질적으로 지속적으로; b) 주기적으로; 또는 c) 수행되기 전에 신원 확인을 요구하는 기결정된 행위가 상기 사용자에 의해서 선택되는 때에,
상기 단계들을 반복하도록 구성되는 것을 특징으로 하는 생체 인증을 제공하는 시스템.
44. The method of claim 43,
The processing unit comprising:
a) substantially continuous; b) periodically; Or c) when a predetermined action that requires identification before being performed is selected by the user,
And to repeat the steps.
사용자의 눈을 향해 지향된 검출기를 포함하는 헤드기어를 착용한 상기 사용자에 대한 실질적으로 지속적인 생체 인증을 제공하는 방법으로서,
상기 눈의 홍채의 피처들을 식별하도록 상기 검출기로부터의 하나 이상의 이미지들을 분석하는 단계;
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자를 식별하는 단계; 및
상기 사용자의 신원이 확인되면 상기 디스플레이를 통해 상기 사용자가 하나 이상의 행위들을 수행하는 것을 허가하는 단계
를 포함하는 생체 인증을 제공하는 방법.
CLAIMS 1. A method for providing a substantially continuous biometric authentication for a user wearing a headgear comprising a detector directed towards a user's eye,
Analyzing one or more images from the detector to identify features of the iris of the eye;
Identifying the user based at least in part on the features of the iris; And
Allowing the user to perform one or more actions via the display when the identity of the user is confirmed
The biometric authentication method comprising:
제45항에 있어서,
상기 사용자가 하나 이상의 액션들을 수행하는 것을 허가하는 단계 이후에,
상기 홍채의 피처들을 식별하도록 하나 이상의 추가 이미지들을 분석하는 단계; 및
상기 홍채의 상기 피처들에 적어도 일부 기초하여 상기 사용자의 신원을 확인하는 단계
를 한 번 이상 수행하는 것을 더 포함하는 생체 인증을 제공하는 방법.
46. The method of claim 45,
After allowing the user to perform one or more actions,
Analyzing one or more additional images to identify features of the iris; And
Confirming the identity of the user based at least in part on the features of the iris
RTI ID = 0.0 > 1, < / RTI >
제46항에 있어서,
a) 실질적으로 지속적으로; b) 주기적으로; 및 c) 수행되기 전에 신원 확인을 요구하는 기결정된 행위가 상기 사용자에 의해서 선택되는 때 중 하나 이상에서 제46항의 단계들이 수행되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
47. The method of claim 46,
a) substantially continuous; b) periodically; And c) a predetermined action is selected by the user requesting identification before being performed. ≪ Desc / Clms Page number 24 >
제45항 내지 제47항 중 어느 한 항에 있어서,
상기 헤드기어로부터의 상기 하나 이상의 이미지들을 통신하는 단계, 상기 분석, 식별 및 허가하는 단계들은 상기 헤드기어로부터 원격 위치에서 수행되고, 상기 원격 위치로부터 상기 헤드기어로 허가가 통신되며; 그리고
상기 헤드기어를 이용하여 하나 이상의 허가된 액션들을 수행하는 단계
를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
48. The method according to any one of claims 45 to 47,
Communicating the one or more images from the headgear, the steps of analyzing, identifying and authorizing are performed at a remote location from the headgear and a permission is communicated from the remote location to the headgear; And
Performing one or more authorized actions using the headgear
The biometric authentication method further comprising:
제45항 내지 제47항 중 어느 한 항에 있어서,
상기 분석, 식별 및 허가하는 단계들 중 하나 이상은 상기 헤드기어 상의 프로세싱 유닛에 의해서 수행되며, 상기 방법은 상기 분석, 식별 및 허가하는 단계들 중 나머지를 수행하도록 원격 위치의 프로세싱 유닛과 통신하는 단계를 더 포함하는 것을 특징으로 하는 생체 인증을 제공하는 방법.
48. The method according to any one of claims 45 to 47,
Wherein at least one of the steps of analyzing, identifying and authorizing is performed by a processing unit on the headgear, the method comprising communicating with a processing unit at a remote location to perform the remainder of the analyzing, identifying and authorizing steps The biometric authentication method further comprising:
제45항 내지 제47항 중 어느 한 항에 있어서,
상기 분석, 식별 및 허가하는 단계들은 상기 헤드기어 상의 프로세싱 유닛에 의해서 수행되는 것을 특징으로 하는 생체 인증을 제공하는 방법.
48. The method according to any one of claims 45 to 47,
Wherein the steps of analyzing, identifying and authorizing are performed by a processing unit on the headgear.
KR1020167034652A 2014-05-09 2015-05-09 Systems and methods for discerning eye signals and continuous biometric identification KR102173699B1 (en)

Applications Claiming Priority (19)

Application Number Priority Date Filing Date Title
US201461991435P 2014-05-09 2014-05-09
US61/991,435 2014-05-09
US201462023940P 2014-07-13 2014-07-13
US62/023,940 2014-07-13
US201462027774P 2014-07-22 2014-07-22
US201462027777P 2014-07-22 2014-07-22
US62/027,774 2014-07-22
US62/027,777 2014-07-22
US201462038984P 2014-08-19 2014-08-19
US201462039001P 2014-08-19 2014-08-19
US62/039,001 2014-08-19
US62/038,984 2014-08-19
US201462046072P 2014-09-04 2014-09-04
US62/046,072 2014-09-04
US201462074920P 2014-11-04 2014-11-04
US201462074927P 2014-11-04 2014-11-04
US62/074,920 2014-11-04
US62/074,927 2014-11-04
PCT/US2015/030052 WO2016018488A2 (en) 2014-05-09 2015-05-09 Systems and methods for discerning eye signals and continuous biometric identification

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020207030953A Division KR20200127267A (en) 2014-05-09 2015-05-09 Systems and methods for discerning eye signals and continuous biometric identification

Publications (2)

Publication Number Publication Date
KR20170047195A true KR20170047195A (en) 2017-05-04
KR102173699B1 KR102173699B1 (en) 2020-11-03

Family

ID=54368077

Family Applications (4)

Application Number Title Priority Date Filing Date
KR1020167034652A KR102173699B1 (en) 2014-05-09 2015-05-09 Systems and methods for discerning eye signals and continuous biometric identification
KR1020207030953A KR20200127267A (en) 2014-05-09 2015-05-09 Systems and methods for discerning eye signals and continuous biometric identification
KR1020167034649A KR102230172B1 (en) 2014-05-09 2015-05-09 Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR1020167034651A KR20170046108A (en) 2014-05-09 2015-05-09 Systems and methods for using eye signals with secure mobile communications

Family Applications After (3)

Application Number Title Priority Date Filing Date
KR1020207030953A KR20200127267A (en) 2014-05-09 2015-05-09 Systems and methods for discerning eye signals and continuous biometric identification
KR1020167034649A KR102230172B1 (en) 2014-05-09 2015-05-09 Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR1020167034651A KR20170046108A (en) 2014-05-09 2015-05-09 Systems and methods for using eye signals with secure mobile communications

Country Status (7)

Country Link
US (7) US20150324568A1 (en)
EP (3) EP3140719B1 (en)
JP (3) JP6550460B2 (en)
KR (4) KR102173699B1 (en)
CN (3) CN106537290B (en)
AU (3) AU2015297035B2 (en)
WO (3) WO2015172124A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190015650A (en) * 2017-08-03 2019-02-14 주식회사 에스지엠 Authentication system using bio-information and screen golf system using the same
WO2019164290A1 (en) * 2018-02-23 2019-08-29 Samsung Electronics Co., Ltd. Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof
WO2019221325A1 (en) * 2018-05-14 2019-11-21 한국과학기술원 System for continuous authentication by using pupillary response
KR20200004666A (en) 2018-07-04 2020-01-14 주식회사 링크트리 Biometric information authentication system using machine learning and block chain and its method
US11537701B2 (en) 2020-04-01 2022-12-27 Toyota Motor North America, Inc. Transport related n-factor authentication
US11651404B2 (en) 2021-08-31 2023-05-16 Kyndryl, Inc. Virtual shopping assistant

Families Citing this family (852)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823737B2 (en) * 2008-04-07 2017-11-21 Mohammad A Mazed Augmented reality personal assistant apparatus
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
TWI439960B (en) 2010-04-07 2014-06-01 Apple Inc Avatar editing environment
US10463248B2 (en) * 2011-03-02 2019-11-05 Brien Holden Vision Institute Limited Systems, methods, and devices for measuring eye movement and pupil response
WO2013148557A1 (en) 2012-03-26 2013-10-03 New York University Methods and kits for assessing central nervous system integrity
US10716469B2 (en) 2013-01-25 2020-07-21 Wesley W. O. Krueger Ocular-performance-based head impact measurement applied to rotationally-centered impact mitigation systems and methods
US10231614B2 (en) 2014-07-08 2019-03-19 Wesley W. O. Krueger Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
US11490809B2 (en) 2013-01-25 2022-11-08 Wesley W. O. Krueger Ocular parameter-based head impact measurement using a face shield
US10602927B2 (en) 2013-01-25 2020-03-31 Wesley W. O. Krueger Ocular-performance-based head impact measurement using a faceguard
US11504051B2 (en) 2013-01-25 2022-11-22 Wesley W. O. Krueger Systems and methods for observing eye and head information to measure ocular parameters and determine human health status
US9788714B2 (en) 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
US11389059B2 (en) 2013-01-25 2022-07-19 Wesley W. O. Krueger Ocular-performance-based head impact measurement using a faceguard
KR102516577B1 (en) 2013-02-07 2023-04-03 애플 인크. Voice trigger for a digital assistant
US10895908B2 (en) 2013-03-04 2021-01-19 Tobii Ab Targeting saccade landing prediction using visual history
US9665171B1 (en) 2013-03-04 2017-05-30 Tobii Ab Gaze and saccade based graphical manipulation
US11714487B2 (en) 2013-03-04 2023-08-01 Tobii Ab Gaze and smooth pursuit based continuous foveal adjustment
US9898081B2 (en) 2013-03-04 2018-02-20 Tobii Ab Gaze and saccade based graphical manipulation
US10082870B2 (en) * 2013-03-04 2018-09-25 Tobii Ab Gaze and saccade based graphical manipulation
AU2014281725B2 (en) 2013-06-17 2019-10-10 New York University Methods and kits for assessing neurological and ophthalmic function and localizing neurological lesions
US10884493B2 (en) 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
KR101882594B1 (en) 2013-09-03 2018-07-26 토비 에이비 Portable eye tracking device
US10686972B2 (en) 2013-09-03 2020-06-16 Tobii Ab Gaze assisted field of view control
US10310597B2 (en) * 2013-09-03 2019-06-04 Tobii Ab Portable eye tracking device
US9958939B2 (en) * 2013-10-31 2018-05-01 Sync-Think, Inc. System and method for dynamic content delivery based on gaze analytics
JP2015114865A (en) * 2013-12-12 2015-06-22 ソニー株式会社 Information processor, relay computer, information processing system, and information processing program
EP3090322A4 (en) * 2013-12-31 2017-07-19 Eyefluence, Inc. Systems and methods for gaze-based media selection and editing
US20150228119A1 (en) 2014-02-11 2015-08-13 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160019715A1 (en) * 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9852545B2 (en) 2014-02-11 2017-12-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US10430985B2 (en) 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
US11138793B2 (en) 2014-03-14 2021-10-05 Magic Leap, Inc. Multi-depth plane display system with reduced switching between depth planes
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US10424103B2 (en) * 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR102173699B1 (en) 2014-05-09 2020-11-03 아이플루언스, 인크. Systems and methods for discerning eye signals and continuous biometric identification
US9706910B1 (en) * 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9880401B2 (en) * 2014-06-13 2018-01-30 Verily Life Sciences Llc Method, device and system for accessing an eye-mountable device with a user interface
WO2015194135A1 (en) * 2014-06-19 2015-12-23 日本電気株式会社 Authentication device, authentication system, authentication method, and program storage medium
DE102014211823A1 (en) * 2014-06-20 2015-12-24 Robert Bosch Gmbh Procedure for personal identification
KR102266195B1 (en) * 2014-06-20 2021-06-17 삼성전자주식회사 Apparatus and method for providing information associated with object
US9269328B2 (en) * 2014-06-24 2016-02-23 Google Inc. Efficient frame rendering
US9817959B2 (en) * 2014-06-27 2017-11-14 Intel Corporation Wearable electronic devices
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9961307B1 (en) * 2014-06-30 2018-05-01 Lee S. Weinblatt Eyeglass recorder with multiple scene cameras and saccadic motion detection
ES2964604T3 (en) * 2014-07-07 2024-04-08 Attenti Electronic Monitoring Ltd Tamper-proof self-administered drug screening
KR101645087B1 (en) * 2014-07-10 2016-08-02 아이리텍 잉크 High security set using hand attached-type wearable device for iris recognition with wearing detection sensor and control method of the same set
US10540907B2 (en) * 2014-07-31 2020-01-21 Intelligent Technologies International, Inc. Biometric identification headpiece system for test taking
US11013441B2 (en) 2014-08-04 2021-05-25 New York University Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (ADHD), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption
US9829708B1 (en) * 2014-08-19 2017-11-28 Boston Incubator Center, LLC Method and apparatus of wearable eye pointing system
HK1203120A2 (en) * 2014-08-26 2015-10-16 高平 A gait monitor and a method of monitoring the gait of a person
US10425814B2 (en) 2014-09-24 2019-09-24 Princeton Identity, Inc. Control of wireless communication device capability in a mobile device with a biometric key
WO2016054092A1 (en) 2014-09-29 2016-04-07 Magic Leap, Inc. Architectures and methods for outputting different wavelength light out of waveguides
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
GB2532438B (en) * 2014-11-18 2019-05-08 Eshare Ltd Apparatus, method and system for determining a viewed status of a document
WO2016089592A1 (en) 2014-12-03 2016-06-09 Sri Internaitonal System and method for mobile device biometric add-on
JPWO2016088415A1 (en) * 2014-12-05 2017-09-14 ソニー株式会社 Information processing apparatus, information processing method, and program
KR102139795B1 (en) * 2014-12-15 2020-07-31 삼성전자주식회사 Method for updating biometric feature pattern and the electronic device therefor
US10013620B1 (en) * 2015-01-13 2018-07-03 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for compressing image data that is representative of a series of digital images
US10878775B2 (en) 2015-02-17 2020-12-29 Mentor Acquisition One, Llc See-through computer display systems
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US9652035B2 (en) * 2015-02-23 2017-05-16 International Business Machines Corporation Interfacing via heads-up display using eye contact
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
USD779556S1 (en) * 2015-02-27 2017-02-21 Samsung Electronics Co., Ltd. Display screen or portion thereof with an icon
US9836663B2 (en) * 2015-03-05 2017-12-05 Samsung Electronics Co., Ltd. User authenticating method and head mounted device supporting the same
KR102634148B1 (en) 2015-03-16 2024-02-05 매직 립, 인코포레이티드 Methods and system for diagnosing and treating health ailments
US10921896B2 (en) * 2015-03-16 2021-02-16 Facebook Technologies, Llc Device interaction in augmented reality
IN2015CH01313A (en) * 2015-03-17 2015-04-10 Wipro Ltd
KR101648017B1 (en) * 2015-03-23 2016-08-12 현대자동차주식회사 Display apparatus, vehicle and display method
CN106155288B (en) * 2015-04-10 2019-02-12 北京智谷睿拓技术服务有限公司 Information acquisition method, information acquisition device and user equipment
US10305895B2 (en) * 2015-04-14 2019-05-28 Blubox Security, Inc. Multi-factor and multi-mode biometric physical access control device
WO2016183020A1 (en) 2015-05-11 2016-11-17 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
US10254544B1 (en) * 2015-05-13 2019-04-09 Rockwell Collins, Inc. Head tracking accuracy and reducing latency in dynamic environments
US9860452B2 (en) * 2015-05-13 2018-01-02 Lenovo (Singapore) Pte. Ltd. Usage of first camera to determine parameter for action associated with second camera
US20160358181A1 (en) * 2015-05-14 2016-12-08 Magic Leap, Inc. Augmented reality systems and methods for tracking biometric data
US20200321107A1 (en) * 2015-05-19 2020-10-08 Iryou Jyouhou Gijyutu Kenkyusyo Corporation Integrated multi-facility electronic medical record system
AU2016264503B2 (en) * 2015-05-20 2021-10-28 Magic Leap, Inc. Tilt shift iris imaging
US9716834B2 (en) * 2015-05-20 2017-07-25 Panasonic Intellectual Property Management Co., Ltd. Image display device and image processing device
US10937064B2 (en) * 2015-06-08 2021-03-02 Samsung Electronics Co.. Ltd. Method and apparatus for providing content
IN2015CH02866A (en) * 2015-06-09 2015-07-17 Wipro Ltd
RU2601169C1 (en) * 2015-06-11 2016-10-27 Виталий Витальевич Аверьянов Method and device for interaction with virtual objects
JP6553418B2 (en) * 2015-06-12 2019-07-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Display control method, display control device and control program
US20160366317A1 (en) * 2015-06-12 2016-12-15 Delta ID Inc. Apparatuses and methods for image based biometric recognition
US10076250B2 (en) 2015-06-14 2018-09-18 Facense Ltd. Detecting physiological responses based on multispectral data from head-mounted cameras
US10076270B2 (en) 2015-06-14 2018-09-18 Facense Ltd. Detecting physiological responses while accounting for touching the face
US10085685B2 (en) 2015-06-14 2018-10-02 Facense Ltd. Selecting triggers of an allergic reaction based on nasal temperatures
US10523852B2 (en) 2015-06-14 2019-12-31 Facense Ltd. Wearable inward-facing camera utilizing the Scheimpflug principle
US10080861B2 (en) 2015-06-14 2018-09-25 Facense Ltd. Breathing biofeedback eyeglasses
US10045726B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Selecting a stressor based on thermal measurements of the face
US10136852B2 (en) 2015-06-14 2018-11-27 Facense Ltd. Detecting an allergic reaction from nasal temperatures
US10159411B2 (en) 2015-06-14 2018-12-25 Facense Ltd. Detecting irregular physiological responses during exposure to sensitive data
US10045737B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Clip-on device with inward-facing cameras
US9968264B2 (en) 2015-06-14 2018-05-15 Facense Ltd. Detecting physiological responses based on thermal asymmetry of the face
US10136856B2 (en) 2016-06-27 2018-11-27 Facense Ltd. Wearable respiration measurements system
US10154810B2 (en) 2015-06-14 2018-12-18 Facense Ltd. Security system that detects atypical behavior
US10130308B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Calculating respiratory parameters from thermal measurements
US10045699B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Determining a state of a user based on thermal measurements of the forehead
US10130299B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Neurofeedback eyeglasses
US10216981B2 (en) 2015-06-14 2019-02-26 Facense Ltd. Eyeglasses that measure facial skin color changes
US10064559B2 (en) 2015-06-14 2018-09-04 Facense Ltd. Identification of the dominant nostril using thermal measurements
US10151636B2 (en) 2015-06-14 2018-12-11 Facense Ltd. Eyeglasses having inward-facing and outward-facing thermal cameras
US10092232B2 (en) 2015-06-14 2018-10-09 Facense Ltd. User state selection based on the shape of the exhale stream
US10130261B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Detecting physiological responses while taking into account consumption of confounding substances
US10113913B2 (en) 2015-10-03 2018-10-30 Facense Ltd. Systems for collecting thermal measurements of the face
DE102016110902A1 (en) * 2015-06-14 2016-12-15 Facense Ltd. Head-mounted devices for recording thermal readings
US10299717B2 (en) 2015-06-14 2019-05-28 Facense Ltd. Detecting stress based on thermal measurements of the face
EP4249965A3 (en) 2015-06-15 2023-12-27 Magic Leap, Inc. Display system with optical elements for in-coupling multiplexed light streams
US10554758B2 (en) 2015-06-15 2020-02-04 Blub0X Security, Inc. Web-cloud hosted unified physical security system
US10043487B2 (en) * 2015-06-24 2018-08-07 Samsung Electronics Co., Ltd. Apparatus and method for split screen display on mobile device
US10685488B1 (en) * 2015-07-17 2020-06-16 Naveen Kumar Systems and methods for computer assisted operation
CN104966359B (en) * 2015-07-20 2018-01-30 京东方科技集团股份有限公司 anti-theft alarm system and method
TWI570638B (en) * 2015-07-29 2017-02-11 財團法人資訊工業策進會 Gaze analysis method and apparatus
CN107787472A (en) * 2015-08-04 2018-03-09 谷歌有限责任公司 For staring interactive hovering behavior in virtual reality
US10178150B2 (en) * 2015-08-07 2019-01-08 International Business Machines Corporation Eye contact-based information transfer
CN108140259B (en) 2015-08-18 2022-06-14 奇跃公司 Virtual and augmented reality systems and methods
CA2996039A1 (en) 2015-08-21 2017-03-02 Magic Leap, Inc. Eyelid shape estimation using eye pose measurement
CN105184246B (en) * 2015-08-28 2020-05-19 北京旷视科技有限公司 Living body detection method and living body detection system
US10223160B2 (en) * 2015-08-31 2019-03-05 Ayla Networks, Inc. Compact schedules for resource-constrained devices
AU2015261614A1 (en) * 2015-09-04 2017-03-23 Musigma Business Solutions Pvt. Ltd. Analytics system and method
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US20170200316A1 (en) * 2015-09-10 2017-07-13 Sphere Optics Company, Llc Advertising system for virtual reality environments
US10681489B2 (en) 2015-09-16 2020-06-09 Magic Leap, Inc. Head pose mixing of audio files
IN2015DE02924A (en) * 2015-09-16 2015-10-23 Hcl Technologies Ltd
JP6684559B2 (en) * 2015-09-16 2020-04-22 株式会社バンダイナムコエンターテインメント Program and image generation device
US9858706B2 (en) * 2015-09-22 2018-01-02 Facebook, Inc. Systems and methods for content streaming
US10096130B2 (en) 2015-09-22 2018-10-09 Facebook, Inc. Systems and methods for content streaming
CA2999261C (en) 2015-09-23 2022-10-18 Magic Leap, Inc. Eye imaging with an off-axis imager
CN108762496B (en) * 2015-09-24 2020-12-18 联想(北京)有限公司 Information processing method and electronic equipment
EP3274878A1 (en) 2015-09-28 2018-01-31 Google LLC Sharing images and image albums over a communication network
USD791787S1 (en) * 2015-09-28 2017-07-11 Google Inc. Display screen with a transitional graphical user interface for a photo album
US20170090588A1 (en) * 2015-09-29 2017-03-30 Kabushiki Kaisha Toshiba Electronic device and method
US9635167B2 (en) * 2015-09-29 2017-04-25 Paypal, Inc. Conversation assistance system
EP3349424B1 (en) * 2015-10-08 2021-03-03 Huawei Technologies Co., Ltd. Method for protecting privacy information and terminal device
EP3156880A1 (en) * 2015-10-14 2017-04-19 Ecole Nationale de l'Aviation Civile Zoom effect in gaze tracking interface
CN114140867A (en) 2015-10-16 2022-03-04 奇跃公司 Eye pose recognition using eye features
EP3365724B1 (en) 2015-10-20 2021-05-05 Magic Leap, Inc. Selecting virtual objects in a three-dimensional space
US10466780B1 (en) * 2015-10-26 2019-11-05 Pillantas Systems and methods for eye tracking calibration, eye vergence gestures for interface control, and visual aids therefor
US10338677B2 (en) * 2015-10-28 2019-07-02 Microsoft Technology Licensing, Llc Adjusting image frames based on tracking motion of eyes
US10831922B1 (en) * 2015-10-30 2020-11-10 United Services Automobile Association (Usaa) System and method for access control
JP7210280B2 (en) 2015-11-04 2023-01-23 マジック リープ, インコーポレイテッド Light field display measurement
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US11231544B2 (en) 2015-11-06 2022-01-25 Magic Leap, Inc. Metasurfaces for redirecting light and methods for fabricating
CN113769369A (en) * 2015-11-19 2021-12-10 天使集团股份有限公司 Management system for table game and game chip
US10061552B2 (en) * 2015-11-25 2018-08-28 International Business Machines Corporation Identifying the positioning in a multiple display grid
CN105528577B (en) * 2015-12-04 2019-02-12 深圳大学 Recognition methods based on intelligent glasses
US10097443B2 (en) * 2015-12-16 2018-10-09 Fluke Corporation System and method for secure communications between a computer test tool and a cloud-based server
US9703374B1 (en) * 2015-12-16 2017-07-11 Google, Inc. In-cell gaze tracking for near-eye display
CN108369451B (en) * 2015-12-18 2021-10-29 索尼公司 Information processing apparatus, information processing method, and computer-readable storage medium
US10102358B2 (en) * 2015-12-29 2018-10-16 Sensory, Incorporated Face-controlled liveness verification
CN105892642A (en) * 2015-12-31 2016-08-24 乐视移动智能信息技术(北京)有限公司 Method and device for controlling terminal according to eye movement
WO2017113757A1 (en) * 2015-12-31 2017-07-06 北京小鸟看看科技有限公司 Method of laying out surrounding interface, methods of switching content and switching list in three-dimensional immersive environment
CN106940766A (en) * 2016-01-04 2017-07-11 由田新技股份有限公司 Sight line track authentication system and method
JP6231585B2 (en) * 2016-01-05 2017-11-15 株式会社Qdレーザ Image projection device
KR102466996B1 (en) * 2016-01-06 2022-11-14 삼성전자주식회사 Method and apparatus for predicting eye position
WO2017120372A1 (en) 2016-01-07 2017-07-13 Magic Leap, Inc. Virtual and augmented reality systems and methods having unequal numbers of component color images distributed across depth planes
JP2017123050A (en) * 2016-01-07 2017-07-13 ソニー株式会社 Information processor, information processing method, program, and server
JP2019506694A (en) 2016-01-12 2019-03-07 プリンストン・アイデンティティー・インコーポレーテッド Biometric analysis system and method
CN113156650A (en) 2016-01-19 2021-07-23 奇跃公司 Augmented reality system and method using images
WO2017127366A1 (en) * 2016-01-19 2017-07-27 Magic Leap, Inc. Eye image collection, selection, and combination
CN108885352B (en) 2016-01-29 2021-11-23 奇跃公司 Display of three-dimensional images
US10169560B2 (en) * 2016-02-04 2019-01-01 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Stimuli-based authentication
KR101729434B1 (en) * 2016-02-16 2017-04-24 주식회사 시큐브 Space division segment block and its dynamic movement tracking based manual signature authentication system and method thereof
US10591728B2 (en) 2016-03-02 2020-03-17 Mentor Acquisition One, Llc Optical systems for head-worn computers
US10129510B2 (en) 2016-02-18 2018-11-13 Samsung Electronics Co., Ltd. Initiating human-machine interaction based on visual attention
CN108700275B (en) 2016-02-24 2022-05-31 奇跃公司 Low profile interconnect for light emitter
KR20180114162A (en) 2016-02-24 2018-10-17 매직 립, 인코포레이티드 Polarizing beam splitter with low light leakage
WO2017147534A1 (en) 2016-02-26 2017-08-31 Magic Leap, Inc. Display system having a plurality of light pipes for a plurality of light emitters
EP3420601B1 (en) 2016-02-26 2023-08-02 Magic Leap, Inc. Optical system
US10667981B2 (en) 2016-02-29 2020-06-02 Mentor Acquisition One, Llc Reading assistance system for visually impaired
KR20180117181A (en) 2016-03-01 2018-10-26 매직 립, 인코포레이티드 A reflective switching device for inputting light of different wavelengths into waveguides
AU2017225977C1 (en) 2016-03-04 2023-08-03 Magic Leap, Inc. Current drain reduction in AR/VR display systems
US10089453B2 (en) 2016-03-07 2018-10-02 Magic Leap, Inc. Blue light adjustment for biometric identification
CA3015658A1 (en) 2016-03-11 2017-09-14 Magic Leap, Inc. Structure learning in convolutional neural networks
WO2017156486A1 (en) * 2016-03-11 2017-09-14 Oculus Vr, Llc Corneal sphere tracking for generating an eye model
US10115205B2 (en) 2016-03-11 2018-10-30 Facebook Technologies, Llc Eye tracking system with single point calibration
US10579708B1 (en) * 2016-03-22 2020-03-03 Massachusetts Mutual Life Insurance Company Systems and methods for improving workflow efficiency and for electronic record population utilizing intelligent input systems
EP3779740B1 (en) * 2016-03-22 2021-12-08 Magic Leap, Inc. Head mounted display system configured to exchange biometric information
US10306311B1 (en) 2016-03-24 2019-05-28 Massachusetts Mutual Life Insurance Company Intelligent and context aware reading systems
US10360254B1 (en) 2016-03-24 2019-07-23 Massachusetts Mutual Life Insurance Company Intelligent and context aware reading systems
AU2017238847A1 (en) 2016-03-25 2018-10-04 Magic Leap, Inc. Virtual and augmented reality systems and methods
JP6728863B2 (en) * 2016-03-25 2020-07-22 富士ゼロックス株式会社 Information processing system
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
WO2017172695A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Systems and methods of biometric anaysis with adaptive trigger
US10088898B2 (en) 2016-03-31 2018-10-02 Verizon Patent And Licensing Inc. Methods and systems for determining an effectiveness of content in an immersive virtual reality world
CN114995594A (en) 2016-03-31 2022-09-02 奇跃公司 Interaction with 3D virtual objects using gestures and multi-DOF controllers
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10366296B2 (en) 2016-03-31 2019-07-30 Princeton Identity, Inc. Biometric enrollment systems and methods
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
JP6923552B2 (en) 2016-04-08 2021-08-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. Augmented reality systems and methods with varifocal lens elements
US20170291723A1 (en) * 2016-04-11 2017-10-12 Honeywell International Inc. System and method for validating flight checklist items for maintenance and inspection applications
KR20230098916A (en) 2016-04-21 2023-07-04 매직 립, 인코포레이티드 Visual aura around field of view
KR101904889B1 (en) * 2016-04-21 2018-10-05 주식회사 비주얼캠프 Display apparatus and method and system for input processing therof
AU2017257549B2 (en) 2016-04-26 2021-09-09 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
CN105897428B (en) * 2016-04-28 2019-06-25 武汉大学 A kind of real-time video safety communication system and method based on iris recognition
NZ747834A (en) 2016-05-06 2023-06-30 Magic Leap Inc Metasurfaces with asymmetric gratings for redirecting light and methods for fabricating
JP7021110B2 (en) 2016-05-09 2022-02-16 マジック リープ, インコーポレイテッド Augmented reality systems and methods for user health analysis
EP3455766A4 (en) 2016-05-10 2019-11-27 National ICT Australia Limited Authenticating a user
US9904058B2 (en) 2016-05-12 2018-02-27 Magic Leap, Inc. Distributed light manipulation over imaging waveguide
EP3459071B1 (en) 2016-05-20 2022-05-11 Magic Leap, Inc. Contextual awareness of user interface menus
US10065658B2 (en) * 2016-05-23 2018-09-04 International Business Machines Corporation Bias of physical controllers in a system
US20180249941A1 (en) * 2016-05-24 2018-09-06 neuroFit, Inc. Oculometric Neurological Examination (ONE) Appliance
JP6563596B2 (en) * 2016-05-25 2019-08-21 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, image processing method, and program
US10037080B2 (en) * 2016-05-31 2018-07-31 Paypal, Inc. User physical attribute based device and content management system
USD796551S1 (en) * 2016-06-03 2017-09-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
AU2017273737B2 (en) 2016-06-03 2022-05-05 Magic Leap, Inc. Augmented reality identity verification
US11108708B2 (en) 2016-06-06 2021-08-31 Global Tel*Link Corporation Personalized chatbots for inmates
CN106056092B (en) * 2016-06-08 2019-08-20 华南理工大学 The gaze estimation method for headset equipment based on iris and pupil
WO2017213753A1 (en) 2016-06-10 2017-12-14 Magic Leap, Inc. Integrating point source for texture projecting bulb
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US10339659B2 (en) * 2016-06-13 2019-07-02 International Business Machines Corporation System, method, and recording medium for workforce performance management
EP3751396A1 (en) * 2016-06-16 2020-12-16 Apple Inc. Method and system for providing eye tracking based information about a user behavior, client device, server and computer program product
US10565287B2 (en) * 2016-06-17 2020-02-18 International Business Machines Corporation Web content layout engine instance sharing across mobile devices
EP3472828B1 (en) 2016-06-20 2022-08-10 Magic Leap, Inc. Augmented reality display system for evaluation and modification of neurological conditions, including visual processing and perception conditions
CN106200905B (en) * 2016-06-27 2019-03-29 联想(北京)有限公司 Information processing method and electronic equipment
CN109643373B (en) 2016-06-30 2023-06-27 奇跃公司 Estimating pose in 3D space
US11354863B2 (en) * 2016-06-30 2022-06-07 Honeywell International Inc. Systems and methods for immersive and collaborative video surveillance
US10200262B1 (en) * 2016-07-08 2019-02-05 Splunk Inc. Continuous anomaly detection service
US10146609B1 (en) 2016-07-08 2018-12-04 Splunk Inc. Configuration of continuous anomaly detection service
US10769854B2 (en) 2016-07-12 2020-09-08 Tyco Fire & Security Gmbh Holographic technology implemented security solution
KR102648770B1 (en) * 2016-07-14 2024-03-15 매직 립, 인코포레이티드 Deep neural network for iris identification
EP3484343B1 (en) * 2016-07-14 2024-01-10 Magic Leap, Inc. Iris boundary estimation using cornea curvature
CN117793564A (en) 2016-07-22 2024-03-29 索尼公司 Image processing system, image sensor, and image processing method
KR102412525B1 (en) 2016-07-25 2022-06-23 매직 립, 인코포레이티드 Optical Field Processor System
KR20230133940A (en) 2016-07-25 2023-09-19 매직 립, 인코포레이티드 Imaging modification, display and visualization using augmented and virtual reality eyewear
EP4138339A1 (en) 2016-07-29 2023-02-22 Magic Leap, Inc. Secure exchange of cryptographically signed records
US11642071B2 (en) 2016-08-02 2023-05-09 New York University Methods and kits for assessing neurological function and localizing neurological lesions
US9844321B1 (en) * 2016-08-04 2017-12-19 Novartis Ag Enhanced ophthalmic surgical experience using a virtual reality head-mounted display
US10417495B1 (en) * 2016-08-08 2019-09-17 Google Llc Systems and methods for determining biometric information
JP6795683B2 (en) 2016-08-11 2020-12-02 マジック リープ, インコーポレイテッドMagic Leap,Inc. Automatic placement of virtual objects in 3D space
IL292025B2 (en) 2016-08-12 2023-12-01 Magic Leap Inc Word flow annotation
NZ750551A (en) 2016-08-22 2023-05-26 Magic Leap Inc Multi-layer diffractive eyepiece
EP3500911B1 (en) * 2016-08-22 2023-09-27 Magic Leap, Inc. Augmented reality display device with deep learning sensors
US10835120B2 (en) * 2016-08-23 2020-11-17 Welch Allyn, Inc. Extended medical test system
CN106899567B (en) 2016-08-24 2019-12-13 阿里巴巴集团控股有限公司 User body checking method, device and system
JP6559359B2 (en) * 2016-09-01 2019-08-14 三菱電機株式会社 Gesture determination device, gesture operation device, and gesture determination method
DE102016116770A1 (en) * 2016-09-07 2018-03-08 Bundesdruckerei Gmbh Data glasses for the cryptographic signing of image data
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
KR20210060676A (en) 2016-09-13 2021-05-26 매직 립, 인코포레이티드 Sensory eyewear
US10230719B2 (en) * 2016-09-19 2019-03-12 Intel Corporation Head mounted secure display system
US10210320B2 (en) * 2016-09-21 2019-02-19 Lextron Systems, Inc. System and method for secure 5-D user identification
AU2017332030B2 (en) 2016-09-21 2022-02-03 Magic Leap, Inc. Systems and methods for optical systems with exit pupil expander
IL307292A (en) 2016-09-22 2023-11-01 Magic Leap Inc Augmented reality spectroscopy
EP3504610A1 (en) 2016-09-22 2019-07-03 Apple Inc. Postponing the state change of an information affecting the graphical user interface until during the conditon of inattentiveness
WO2018058063A1 (en) 2016-09-26 2018-03-29 Magic Leap, Inc. Calibration of magnetic and optical sensors in a virtual reality or augmented reality display system
US10750560B2 (en) 2016-09-27 2020-08-18 Extreme Networks, Inc. IoT device management using multi-protocol infrastructure network devices
CA3037047A1 (en) 2016-09-28 2018-04-05 Magic Leap, Inc. Face model capture by a wearable device
RU2016138608A (en) 2016-09-29 2018-03-30 Мэджик Лип, Инк. NEURAL NETWORK FOR SEGMENTING THE EYE IMAGE AND ASSESSING THE QUALITY OF THE IMAGE
US10430042B2 (en) * 2016-09-30 2019-10-01 Sony Interactive Entertainment Inc. Interaction context-based virtual reality
US10863902B2 (en) 2016-10-03 2020-12-15 Oculogica Inc. Method for detecting glaucoma
CA3038967A1 (en) 2016-10-04 2018-04-12 Magic Leap, Inc. Efficient data layouts for convolutional neural networks
JP7090601B2 (en) 2016-10-05 2022-06-24 マジック リープ, インコーポレイテッド Peripheral test for mixed reality calibration
CN107018121B (en) * 2016-10-13 2021-07-20 创新先进技术有限公司 User identity authentication method and device
US10925479B2 (en) * 2016-10-13 2021-02-23 Ronald Michael Kurtz Networked system of mobile communication platforms for nonpharmacologic constriction of a pupil
CN106997239A (en) 2016-10-13 2017-08-01 阿里巴巴集团控股有限公司 Service implementation method and device based on virtual reality scenario
US9769166B1 (en) * 2016-10-19 2017-09-19 International Business Machines Corporation Wearable sensor based system for person identification
US10201274B2 (en) * 2016-10-20 2019-02-12 Oculogica Inc Eye tracking system with biometric identification
JP7128179B2 (en) 2016-10-21 2022-08-30 マジック リープ, インコーポレイテッド Systems and methods for presenting image content on multiple depth planes by providing multiple intra-pupillary suggestive views
US10660517B2 (en) 2016-11-08 2020-05-26 International Business Machines Corporation Age estimation using feature of eye movement
US20180125405A1 (en) * 2016-11-08 2018-05-10 International Business Machines Corporation Mental state estimation using feature of eye movement
US11074325B1 (en) * 2016-11-09 2021-07-27 Wells Fargo Bank, N.A. Systems and methods for dynamic bio-behavioral authentication
EP4202840A1 (en) 2016-11-11 2023-06-28 Magic Leap, Inc. Periocular and audio synthesis of a full face image
US11011140B2 (en) * 2016-11-14 2021-05-18 Huawei Technologies Co., Ltd. Image rendering method and apparatus, and VR device
ES2936390T3 (en) * 2016-11-14 2023-03-16 Mastercard International Inc Biometric-based document signature method
CA3043352A1 (en) 2016-11-15 2018-05-24 Magic Leap, Inc. Deep learning system for cuboid detection
IL266595B (en) 2016-11-16 2022-08-01 Magic Leap Inc Thermal management systems for wearable components
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
CA3042553C (en) * 2016-11-16 2024-01-02 Magic Leap, Inc. Mixed reality system with reduced power rendering
CN115639642A (en) 2016-11-18 2023-01-24 奇跃公司 Waveguide optical multiplexer using crossed gratings
IL303676B1 (en) 2016-11-18 2024-02-01 Magic Leap Inc Spatially variable liquid crystal diffraction gratings
US11067860B2 (en) 2016-11-18 2021-07-20 Magic Leap, Inc. Liquid crystal diffractive devices with nano-scale pattern and methods of manufacturing the same
AU2017363081B2 (en) 2016-11-18 2022-01-13 Magic Leap, Inc. Multilayer liquid crystal diffractive gratings for redirecting light of wide incident angle ranges
US20180144554A1 (en) 2016-11-18 2018-05-24 Eyedaptic, LLC Systems for augmented reality visual aids and tools
WO2018094285A1 (en) * 2016-11-18 2018-05-24 Eyedaptic, LLC Improved systems for augmented reality visual aids and tools
CN206301289U (en) * 2016-11-29 2017-07-04 阿里巴巴集团控股有限公司 VR terminal devices
CN107066079A (en) 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 Service implementation method and device based on virtual reality scenario
KR20180061956A (en) * 2016-11-30 2018-06-08 삼성전자주식회사 Method and apparatus for estimating eye location
US10531220B2 (en) 2016-12-05 2020-01-07 Magic Leap, Inc. Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
KR20230070318A (en) 2016-12-05 2023-05-22 매직 립, 인코포레이티드 Virual user input controls in a mixed reality environment
WO2018106963A1 (en) 2016-12-08 2018-06-14 Magic Leap, Inc. Diffractive devices based on cholesteric liquid crystal
US10796147B1 (en) * 2016-12-12 2020-10-06 Keith Hanna Method and apparatus for improving the match performance and user convenience of biometric systems that use images of the human eye
KR102491442B1 (en) 2016-12-13 2023-01-20 매직 립, 인코포레이티드 Augmented and Virtual Reality Eyewear, Systems, and Methods for Delivering Polarized Light and Determining Glucose Levels
CN110291565B (en) 2016-12-13 2023-06-30 奇跃公司 Augmented reality display system
KR102550742B1 (en) 2016-12-14 2023-06-30 매직 립, 인코포레이티드 Patterning of liquid crystals using soft-imprint replication of surface alignment patterns
IL308598A (en) 2016-12-22 2024-01-01 Magic Leap Inc Systems and methods for manipulating light from ambient light sources
US10885676B2 (en) 2016-12-27 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for modifying display settings in virtual/augmented reality
US10746999B2 (en) 2016-12-28 2020-08-18 Magic Leap, Inc. Dual depth exit pupil expander
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
CN117251053A (en) 2016-12-29 2023-12-19 奇跃公司 Automatic control of wearable display device based on external conditions
US10853775B1 (en) * 2016-12-29 2020-12-01 Wells Fargo Bank, N.A. Computing systems for proximity-based fees
EP4300160A2 (en) 2016-12-30 2024-01-03 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
EP4122897A1 (en) 2017-01-05 2023-01-25 Magic Leap, Inc. Patterning of high refractive index glasses by plasma etching
CA3051239C (en) 2017-01-23 2023-12-19 Magic Leap, Inc. Eyepiece for virtual, augmented, or mixed reality systems
IL268115B2 (en) 2017-01-27 2024-01-01 Magic Leap Inc Antireflection coatings for metasurfaces
CA3051414A1 (en) 2017-01-27 2018-08-02 Magic Leap, Inc. Diffraction gratings formed by metasurfaces having differently oriented nanobeams
US10404804B2 (en) * 2017-01-30 2019-09-03 Global Tel*Link Corporation System and method for personalized virtual reality experience in a controlled environment
US10140773B2 (en) * 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
US10824703B1 (en) * 2017-02-01 2020-11-03 United Services Automobile Association (Usaa) Authentication based on motion and biometric data
US10416769B2 (en) * 2017-02-14 2019-09-17 Microsoft Technology Licensing, Llc Physical haptic feedback system with spatial warping
US11347054B2 (en) 2017-02-16 2022-05-31 Magic Leap, Inc. Systems and methods for augmented reality
US10485420B2 (en) * 2017-02-17 2019-11-26 Analog Devices Global Unlimited Company Eye gaze tracking
US11141095B2 (en) 2017-02-17 2021-10-12 Oculogica Inc. Method and system for detecting concussion
US20180239422A1 (en) * 2017-02-17 2018-08-23 International Business Machines Corporation Tracking eye movements with a smart device
KR102601052B1 (en) 2017-02-23 2023-11-09 매직 립, 인코포레이티드 Display system with variable power reflector
CN106980983A (en) 2017-02-23 2017-07-25 阿里巴巴集团控股有限公司 Service authentication method and device based on virtual reality scenario
CN106873159A (en) 2017-02-27 2017-06-20 阿里巴巴集团控股有限公司 Virtual reality helmet
CN106932905A (en) 2017-02-27 2017-07-07 阿里巴巴集团控股有限公司 Virtual reality helmet
CN106932904A (en) 2017-02-27 2017-07-07 阿里巴巴集团控股有限公司 Virtual reality helmet
CN106873158A (en) * 2017-02-27 2017-06-20 阿里巴巴集团控股有限公司 Virtual reality helmet
US10866633B2 (en) 2017-02-28 2020-12-15 Microsoft Technology Licensing, Llc Signing with your eyes
US10683100B2 (en) 2017-03-06 2020-06-16 Bell Helicopter Textron Inc. Pilot and passenger seat
JP7057893B2 (en) * 2017-03-07 2022-04-21 マツダ株式会社 Visual condition judgment device
US10568573B2 (en) * 2017-03-07 2020-02-25 Sony Interactive Entertainment LLC Mitigation of head-mounted-display impact via biometric sensors and language processing
US10628994B2 (en) * 2017-03-07 2020-04-21 Google Llc Reducing visually induced motion sickness in head mounted display systems
US10169973B2 (en) 2017-03-08 2019-01-01 International Business Machines Corporation Discontinuing display of virtual content and providing alerts based on hazardous physical obstructions
EP3376367A1 (en) * 2017-03-13 2018-09-19 Siemens Aktiengesellschaft Acknowledgement of the transfer of a good
IL268586B2 (en) 2017-03-14 2023-09-01 Magic Leap Inc Waveguides with light absorbing films and processes for forming the same
US10657838B2 (en) 2017-03-15 2020-05-19 International Business Machines Corporation System and method to teach and evaluate image grading performance using prior learned expert knowledge base
CN107122642A (en) * 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 Identity identifying method and device based on reality environment
KR102302725B1 (en) 2017-03-17 2021-09-14 매직 립, 인코포레이티드 Room Layout Estimation Methods and Techniques
CA3056900A1 (en) 2017-03-21 2018-09-27 Magic Leap, Inc. Methods, devices, and systems for illuminating spatial light modulators
KR20230130770A (en) 2017-03-21 2023-09-12 매직 립, 인코포레이티드 Eye-imaging apparatus using diffractive optical elements
KR20190126408A (en) 2017-03-21 2019-11-11 매직 립, 인코포레이티드 Stacked waveguides with different diffraction gratings for the combined field of view
EP3602176A4 (en) 2017-03-21 2020-12-02 Magic Leap, Inc. Low-profile beam splitter
CA3057136A1 (en) 2017-03-21 2018-09-27 Magic Leap, Inc. Display system with spatial light modulator illumination for divided pupils
EP3603055B1 (en) 2017-03-21 2022-03-02 Magic Leap, Inc. Depth sensing techniques for virtual, augmented, and mixed reality systems
AU2018239511A1 (en) 2017-03-22 2019-10-17 Magic Leap, Inc. Depth based foveated rendering for display systems
IL269432B2 (en) * 2017-03-24 2023-10-01 Magic Leap Inc Accumulation and confidence assignment of iris codes
US10410349B2 (en) * 2017-03-27 2019-09-10 Microsoft Technology Licensing, Llc Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power
WO2018183390A1 (en) 2017-03-28 2018-10-04 Magic Leap, Inc. Augmeted reality system with spatialized audio tied to user manipulated virtual object
CN107391983B (en) 2017-03-31 2020-10-16 创新先进技术有限公司 Information processing method and device based on Internet of things
CN106990843B (en) * 2017-04-01 2021-01-08 维沃移动通信有限公司 Parameter calibration method of eye tracking system and electronic equipment
US10607096B2 (en) 2017-04-04 2020-03-31 Princeton Identity, Inc. Z-dimension user feedback biometric system
US10609025B2 (en) * 2017-04-06 2020-03-31 Htc Corporation System and method for providing simulated environment
EP3610359B1 (en) * 2017-04-14 2023-09-20 Magic Leap, Inc. Multimodal eye tracking
US10401954B2 (en) 2017-04-17 2019-09-03 Intel Corporation Sensory enhanced augmented reality and virtual reality device
US10242486B2 (en) * 2017-04-17 2019-03-26 Intel Corporation Augmented reality and virtual reality feedback enhancement system, apparatus and method
CN107097227B (en) * 2017-04-17 2019-12-06 北京航空航天大学 human-computer cooperation robot system
KR102629577B1 (en) 2017-04-18 2024-01-24 매직 립, 인코포레이티드 Waveguides having reflective layers formed by reflective flowable materials
KR102652922B1 (en) 2017-04-19 2024-03-29 매직 립, 인코포레이티드 Multimodal mission execution and text editing for wearable systems
US10564733B2 (en) 2017-04-21 2020-02-18 Htc Corporation Operating method of tracking system, controller, tracking system, and non-transitory computer readable storage medium
US10620779B2 (en) * 2017-04-24 2020-04-14 Microsoft Technology Licensing, Llc Navigating a holographic image
EP3616110A1 (en) * 2017-04-24 2020-03-04 Siemens Aktiengesellschaft Unlocking passwords in augmented reality based on look
WO2018201067A1 (en) 2017-04-27 2018-11-01 Magic Leap, Inc. Light-emitting user input device
US10397594B2 (en) 2017-04-28 2019-08-27 Hewlett Packard Enterprise Development Lp Real-time processing of IoT data
KR20180123354A (en) * 2017-05-08 2018-11-16 엘지전자 주식회사 User interface apparatus for vehicle and Vehicle
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. Low-latency intelligent automated assistant
TWI669657B (en) * 2017-05-17 2019-08-21 宏碁股份有限公司 Host,head-mounted display,portable device,virtual reality system having adaptive controlling function and controlling method thereof
US10432728B2 (en) 2017-05-17 2019-10-01 Google Llc Automatic image sharing with designated users over a communication network
CN110832441B (en) 2017-05-19 2023-12-26 奇跃公司 Keyboard for virtual, augmented and mixed reality display systems
EP3631734B1 (en) 2017-05-22 2021-08-18 Magic Leap, Inc. Pairing with companion device
GB2563004A (en) * 2017-05-23 2018-12-05 Nokia Technologies Oy Methods and apparatuses for handling visual virtual reality content
US10339334B2 (en) * 2017-05-25 2019-07-02 Ca, Inc. Augmented reality captcha
CN107224292B (en) * 2017-05-27 2019-12-31 西南交通大学 Method and system for testing attention span of dispatcher
CN116666814A (en) 2017-05-30 2023-08-29 奇跃公司 Power supply assembly with fan assembly for electronic device
DE102017111933A1 (en) * 2017-05-31 2018-12-06 Krohne Messtechnik Gmbh Method for secure communication with a process measuring field measuring device and corresponding field measuring device
EP4123425A1 (en) 2017-05-31 2023-01-25 Magic Leap, Inc. Eye tracking calibration techniques
US10242476B2 (en) * 2017-05-31 2019-03-26 Verizon Patent and Licensong Inc. Methods and systems for dynamically representing, within a virtual reality data stream being presented to a user, a proxy object that corresponds to an object in the real-world environment of the user
WO2018222897A1 (en) * 2017-06-01 2018-12-06 University Of Washington Smartphone-based digital pupillometer
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10528794B2 (en) * 2017-06-05 2020-01-07 Motorola Solutions, Inc. System and method for tailoring an electronic digital assistant inquiry response as a function of previously detected user ingestion of related video information
US10657401B2 (en) 2017-06-06 2020-05-19 Microsoft Technology Licensing, Llc Biometric object spoof detection based on image intensity variations
EP3413226A1 (en) * 2017-06-07 2018-12-12 Gemalto Sa Method for authenticating a user and corresponding device and system
US10853918B2 (en) * 2017-06-09 2020-12-01 Sony Interactive Entertainment Inc. Foveal adaptation of temporal anti-aliasing
WO2018231784A1 (en) 2017-06-12 2018-12-20 Magic Leap, Inc. Augmented reality display having multi-element adaptive lens for changing depth planes
CN107633196A (en) * 2017-06-14 2018-01-26 电子科技大学 A kind of eyeball moving projection scheme based on convolutional neural networks
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
US10620710B2 (en) * 2017-06-15 2020-04-14 Microsoft Technology Licensing, Llc Displacement oriented interaction in computer-mediated reality
WO2019005622A1 (en) 2017-06-30 2019-01-03 Pcms Holdings, Inc. Method and apparatus for generating and displaying 360-degree video based on eye tracking and physiological measurements
US10482229B2 (en) * 2017-06-30 2019-11-19 Wipro Limited Method of providing content access permission to a user and a device thereof
US20190012552A1 (en) * 2017-07-06 2019-01-10 Yves Lambert Hidden driver monitoring
US10573071B2 (en) 2017-07-07 2020-02-25 Nvidia Corporation Path planning for virtual reality locomotion
US10573061B2 (en) 2017-07-07 2020-02-25 Nvidia Corporation Saccadic redirection for virtual reality locomotion
US10319151B2 (en) * 2017-07-07 2019-06-11 Motorola Solutions, Inc. Device and method for hierarchical object recognition
US20190012835A1 (en) * 2017-07-07 2019-01-10 Microsoft Technology Licensing, Llc Driving an Image Capture System to Serve Plural Image-Consuming Processes
US20190012841A1 (en) 2017-07-09 2019-01-10 Eyedaptic, Inc. Artificial intelligence enhanced system for adaptive control driven ar/vr visual aids
US10908680B1 (en) 2017-07-12 2021-02-02 Magic Leap, Inc. Pose estimation using electromagnetic tracking
US10691945B2 (en) 2017-07-14 2020-06-23 International Business Machines Corporation Altering virtual content based on the presence of hazardous physical obstructions
KR102368661B1 (en) 2017-07-26 2022-02-28 매직 립, 인코포레이티드 Training a neural network using representations of user interface devices
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
WO2019023032A1 (en) 2017-07-26 2019-01-31 Princeton Identity, Inc. Biometric security systems and methods
US11073904B2 (en) * 2017-07-26 2021-07-27 Microsoft Technology Licensing, Llc Intelligent user interface element selection using eye-gaze
US11237691B2 (en) * 2017-07-26 2022-02-01 Microsoft Technology Licensing, Llc Intelligent response using eye gaze
US11355023B2 (en) * 2017-07-27 2022-06-07 Kennesaw State University Research And Service Foundation, Inc. System and method for intervention with attention deficient disorders
CN107360424B (en) * 2017-07-28 2019-10-25 深圳岚锋创视网络科技有限公司 A kind of bit rate control method based on video encoder, device and video server
JP7398962B2 (en) 2017-07-28 2023-12-15 マジック リープ, インコーポレイテッド Fan assembly for displaying images
US10748340B1 (en) * 2017-07-31 2020-08-18 Apple Inc. Electronic device with coordinated camera and display operation
US11587419B2 (en) * 2017-08-04 2023-02-21 Toyota Research Institute, Inc. Methods and systems providing an intelligent camera system
TWI642030B (en) * 2017-08-09 2018-11-21 宏碁股份有限公司 Visual utility analytic method and related eye tracking device and system
EP3443883B1 (en) * 2017-08-14 2020-07-29 Carl Zeiss Vision International GmbH Method and devices for performing eye-related measurements
WO2019036533A1 (en) * 2017-08-16 2019-02-21 Veritaz Inc. Personal display headset for mitigating user access to disallowed resources
US20190057694A1 (en) * 2017-08-17 2019-02-21 Dolby International Ab Speech/Dialog Enhancement Controlled by Pupillometry
CN107610235B (en) * 2017-08-21 2020-11-10 北京精密机电控制设备研究所 Mobile platform navigation method and device based on deep learning
CN109426710A (en) * 2017-08-22 2019-03-05 上海荆虹电子科技有限公司 A kind of electronics iris seal implementation method, system and Electronic Signature equipment
JP2020532031A (en) 2017-08-23 2020-11-05 ニューラブル インコーポレイテッド Brain-computer interface with high-speed optotype tracking
KR102577681B1 (en) * 2017-08-23 2023-09-14 한국전자통신연구원 Apparatus for self-quantification service
US10313315B2 (en) * 2017-08-25 2019-06-04 Bank Of America Corporation Ensuring information security in data transfers by utilizing proximity keys
US11145124B2 (en) 2017-08-30 2021-10-12 Ronald H. Winston System and method for rendering virtual reality interactions
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
CA3071819A1 (en) 2017-09-01 2019-03-07 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
JP6953247B2 (en) * 2017-09-08 2021-10-27 ラピスセミコンダクタ株式会社 Goggles type display device, line-of-sight detection method and line-of-sight detection system
CN114403802A (en) 2017-09-13 2022-04-29 奥库洛吉卡公司 Eye tracking system
WO2019060298A1 (en) 2017-09-19 2019-03-28 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
WO2019060283A1 (en) 2017-09-20 2019-03-28 Magic Leap, Inc. Personalized neural network for eye tracking
EP4296753A2 (en) 2017-09-21 2023-12-27 Magic Leap, Inc. Augmented reality display with waveguide configured to capture images of eye and/or environment
KR102481884B1 (en) 2017-09-22 2022-12-28 삼성전자주식회사 Method and apparatus for displaying a virtual image
EP3688513A1 (en) * 2017-09-25 2020-08-05 Continental Automotive GmbH Head-up display
IL307639A (en) 2017-09-27 2023-12-01 Magic Leap Inc Near eye 3d display with separate phase and amplitude modulators
US10929993B2 (en) * 2017-09-29 2021-02-23 L'oreal Automated imaging system for evaluating the curl of a keratinous substrate
EP3466338A1 (en) * 2017-10-03 2019-04-10 Tata Consultancy Services Limited Cognitive load estimation based on pupil dilation
WO2019069171A1 (en) * 2017-10-06 2019-04-11 Novartis Ag Tracking movement of an eye within a tracking range
AU2018348229A1 (en) 2017-10-11 2020-04-23 Magic Leap, Inc. Augmented reality display comprising eyepiece having a transparent emissive display
US10712899B2 (en) * 2017-10-17 2020-07-14 Microsoft Technology Licensing, Llc Human-machine interface tethered to a user position in a three-dimensional VR or AR environment
CN111373419A (en) 2017-10-26 2020-07-03 奇跃公司 Gradient normalization system and method for adaptive loss balancing in deep multitask networks
JP7260538B2 (en) 2017-10-26 2023-04-18 マジック リープ, インコーポレイテッド Broadband Adaptive Lens Assembly for Augmented Reality Displays
AU2018354330A1 (en) 2017-10-26 2020-05-14 Magic Leap, Inc. Augmented reality display having liquid crystal variable focus element and roll-to-roll method and apparatus for forming the same
JP7116166B2 (en) 2017-10-27 2022-08-09 マジック リープ, インコーポレイテッド Virtual reticles for augmented reality systems
US10492725B2 (en) * 2017-10-29 2019-12-03 Orlando Efrain Abreu Oramas Method and system of facilitating monitoring of an individual based on at least one wearable device
US10984508B2 (en) 2017-10-31 2021-04-20 Eyedaptic, Inc. Demonstration devices and methods for enhancement for low vision users and systems improvements
US20190129174A1 (en) * 2017-10-31 2019-05-02 Google Llc Multi-perspective eye-tracking for vr/ar systems
CN108038884B (en) 2017-11-01 2020-12-11 北京七鑫易维信息技术有限公司 Calibration method, calibration device, storage medium and processor
US11410564B2 (en) 2017-11-07 2022-08-09 The Board Of Trustees Of The University Of Illinois System and method for creating immersive interactive application
US11175736B2 (en) 2017-11-10 2021-11-16 South Dakota Board Of Regents Apparatus, systems and methods for using pupillometry parameters for assisted communication
JP7213241B2 (en) 2017-11-14 2023-01-26 マジック リープ, インコーポレイテッド Meta-learning for Multitask Learning on Neural Networks
CN109799899B (en) * 2017-11-17 2021-10-22 腾讯科技(深圳)有限公司 Interaction control method and device, storage medium and computer equipment
US10395624B2 (en) 2017-11-21 2019-08-27 Nvidia Corporation Adjusting an angular sampling rate during rendering utilizing gaze information
US10586360B2 (en) 2017-11-21 2020-03-10 International Business Machines Corporation Changing view order of augmented reality objects based on user gaze
US20190156447A1 (en) * 2017-11-21 2019-05-23 Lorenzo Curci Flight Logging and Resource Management System
US11282133B2 (en) 2017-11-21 2022-03-22 International Business Machines Corporation Augmented reality product comparison
CN107968937B (en) * 2017-11-30 2018-08-17 泰州腾翔信息科技有限公司 A kind of system for alleviating eyeball fatigue
US10656706B2 (en) * 2017-12-04 2020-05-19 International Business Machines Corporation Modifying a computer-based interaction based on eye gaze
CN109871674A (en) * 2017-12-04 2019-06-11 上海聚虹光电科技有限公司 VR or AR equipment subregion operating right management method
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
CN109870873B (en) * 2017-12-05 2022-04-22 青岛海信激光显示股份有限公司 Wavelength conversion device, light source device and projection system
KR20190067433A (en) * 2017-12-07 2019-06-17 주식회사 비주얼캠프 Method for providing text-reading based reward advertisement service and user terminal for executing the same
CN111448497B (en) 2017-12-10 2023-08-04 奇跃公司 Antireflective coating on optical waveguides
KR102045743B1 (en) * 2017-12-11 2019-11-18 상명대학교산학협력단 Device and method for periocular biometric authentication in wearable display device
AU2018383595A1 (en) 2017-12-11 2020-06-11 Magic Leap, Inc. Waveguide illuminator
US11333902B2 (en) * 2017-12-12 2022-05-17 RaayonNova LLC Smart contact lens with embedded display and image focusing system
CN107992896A (en) * 2017-12-13 2018-05-04 东南大学 A kind of scientific concept evaluating method that tracer technique is moved based on eye
CN111656406A (en) 2017-12-14 2020-09-11 奇跃公司 Context-based rendering of virtual avatars
JP7431157B2 (en) 2017-12-15 2024-02-14 マジック リープ, インコーポレイテッド Improved pose determination for display devices
US10852547B2 (en) 2017-12-15 2020-12-01 Magic Leap, Inc. Eyepieces for augmented reality display system
CN108108019B (en) * 2017-12-15 2021-03-19 歌尔光学科技有限公司 Virtual reality equipment and display method thereof
CN115826240A (en) 2017-12-20 2023-03-21 奇跃公司 Insert for augmented reality viewing apparatus
JP7171727B2 (en) 2017-12-20 2022-11-15 ビュージックス コーポレーション Augmented reality display system
WO2019133997A1 (en) 2017-12-31 2019-07-04 Neuroenhancement Lab, LLC System and method for neuroenhancement to enhance emotional response
US10916060B2 (en) 2018-01-04 2021-02-09 Magic Leap, Inc. Optical elements based on polymeric structures incorporating inorganic materials
CN110022454B (en) * 2018-01-10 2021-02-23 华为技术有限公司 Method for identifying identity in video conference and related equipment
US10360419B1 (en) * 2018-01-15 2019-07-23 Universal City Studios Llc Interactive systems and methods with tracking devices
WO2019143844A1 (en) 2018-01-17 2019-07-25 Magic Leap, Inc. Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
EP4339692A2 (en) 2018-01-17 2024-03-20 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
KR20200108888A (en) * 2018-01-18 2020-09-21 뉴레이블 인크. Brain-computer interface with adaptations for fast, accurate, and intuitive user interactions
US10853674B2 (en) 2018-01-23 2020-12-01 Toyota Research Institute, Inc. Vehicle systems and methods for determining a gaze target based on a virtual eye position
US10817068B2 (en) * 2018-01-23 2020-10-27 Toyota Research Institute, Inc. Vehicle systems and methods for determining target based on selecting a virtual eye position or a pointing direction
US10706300B2 (en) * 2018-01-23 2020-07-07 Toyota Research Institute, Inc. Vehicle systems and methods for determining a target based on a virtual eye position and a pointing direction
US11567627B2 (en) * 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
US10540941B2 (en) 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
CN110120229A (en) * 2018-02-05 2019-08-13 北京三星通信技术研究有限公司 The processing method and relevant device of Virtual Reality audio signal
US11533272B1 (en) * 2018-02-06 2022-12-20 Amesite Inc. Computer based education methods and apparatus
CN108337430A (en) * 2018-02-07 2018-07-27 北京联合大学 360 degree without dead angle intelligent glasses
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
EP3749172B1 (en) 2018-02-09 2022-03-30 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
EP3750028B1 (en) 2018-02-09 2022-10-19 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
CN108764007A (en) * 2018-02-10 2018-11-06 集智学园(北京)科技有限公司 Based on OCR with text analysis technique to the measurement method of attention
US11048785B2 (en) * 2018-02-14 2021-06-29 Samsung Electronics Co., Ltd Method and apparatus of performing authentication
US10726765B2 (en) 2018-02-15 2020-07-28 Valve Corporation Using tracking of display device to control image display
US20190253700A1 (en) 2018-02-15 2019-08-15 Tobii Ab Systems and methods for calibrating image sensors in wearable apparatuses
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
CN108537111A (en) 2018-02-26 2018-09-14 阿里巴巴集团控股有限公司 A kind of method, apparatus and equipment of In vivo detection
CN111771231A (en) 2018-02-27 2020-10-13 奇跃公司 Matching mesh for avatars
WO2019168723A1 (en) 2018-02-28 2019-09-06 Magic Leap, Inc. Head scan alignment using ocular registration
WO2019172503A1 (en) * 2018-03-05 2019-09-12 고려대학교 산학협력단 Device for visual field defect evaluation via eye tracking, method for visual field defect evaluation using same, and computer-readable storage medium
CN108491072B (en) * 2018-03-05 2020-01-21 京东方科技集团股份有限公司 Virtual reality interaction method and device
EP3762765A4 (en) 2018-03-05 2021-12-08 Magic Leap, Inc. Display system with low-latency pupil tracker
US11563885B2 (en) 2018-03-06 2023-01-24 Eyedaptic, Inc. Adaptive system for autonomous machine learning and control in wearable augmented reality and virtual reality visual aids
CA3139648A1 (en) 2018-03-07 2019-09-12 Magic Leap, Inc. Visual tracking of peripheral devices
AU2019232746A1 (en) 2018-03-07 2020-08-20 Magic Leap, Inc. Adaptive lens assemblies including polarization-selective lens stacks for augmented reality display
CN111886533A (en) 2018-03-12 2020-11-03 奇跃公司 Inclined array based display
US10528133B2 (en) * 2018-03-13 2020-01-07 Facebook Technologies, Llc Bracelet in a distributed artificial reality system
US10878620B2 (en) 2018-03-14 2020-12-29 Magic Leap, Inc. Display systems and methods for clipping content to increase viewing comfort
US10747312B2 (en) * 2018-03-14 2020-08-18 Apple Inc. Image enhancement devices with gaze tracking
US10755676B2 (en) 2018-03-15 2020-08-25 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
WO2019177870A1 (en) 2018-03-15 2019-09-19 Magic Leap, Inc. Animating virtual avatar facial movements
WO2019178566A1 (en) 2018-03-16 2019-09-19 Magic Leap, Inc. Depth based foveated rendering for display systems
WO2019177869A1 (en) 2018-03-16 2019-09-19 Magic Leap, Inc. Facial expressions from eye-tracking cameras
US11480467B2 (en) 2018-03-21 2022-10-25 Magic Leap, Inc. Augmented reality system and method for spectroscopic analysis
JP6583460B2 (en) * 2018-03-23 2019-10-02 株式会社セガゲームス Authentication system
CN108416322B (en) * 2018-03-27 2019-05-17 吉林大学 Visual action identification method in a kind of Virtual assemble seat type operation
JP7118697B2 (en) 2018-03-30 2022-08-16 株式会社Preferred Networks Point-of-regard estimation processing device, point-of-regard estimation model generation device, point-of-regard estimation processing system, point-of-regard estimation processing method, program, and point-of-regard estimation model
EP3776027A4 (en) 2018-04-02 2021-12-29 Magic Leap, Inc. Waveguides with integrated optical elements and methods of making the same
WO2019195193A1 (en) 2018-04-02 2019-10-10 Magic Leap, Inc. Waveguides having integrated spacers, waveguides having edge absorbers, and methods for making the same
CN112041716A (en) 2018-04-02 2020-12-04 奇跃公司 Hybrid polymer waveguide and method for manufacturing hybrid polymer waveguide
WO2019204164A1 (en) 2018-04-16 2019-10-24 Magic Leap, Inc. Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
CN108459720B (en) * 2018-04-19 2023-11-21 京东方科技集团股份有限公司 Video control device and method for controlling terminal by using video control device
US11067805B2 (en) 2018-04-19 2021-07-20 Magic Leap, Inc. Systems and methods for operating a display system based on user perceptibility
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
WO2019209431A1 (en) 2018-04-23 2019-10-31 Magic Leap, Inc. Avatar facial expression representation in multidimensional space
US11257268B2 (en) 2018-05-01 2022-02-22 Magic Leap, Inc. Avatar animation using Markov decision process policies
WO2019213220A1 (en) 2018-05-03 2019-11-07 Magic Leap, Inc. Using 3d scans of a physical subject to determine positions and orientations of joints for a virtual character
EP4343499A2 (en) * 2018-05-04 2024-03-27 Google LLC Adapting automated assistant based on detected mouth movement and/or gaze
JP7277569B2 (en) 2018-05-04 2023-05-19 グーグル エルエルシー Invoke automation assistant functions based on detected gestures and gazes
KR102512446B1 (en) 2018-05-04 2023-03-22 구글 엘엘씨 Hot-word free adaptation of automated assistant function(s)
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. Avatar creation user interface
JP7099036B2 (en) * 2018-05-07 2022-07-12 オムロン株式会社 Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
KR102637122B1 (en) * 2018-05-07 2024-02-16 애플 인크. Creative camera
WO2019217903A1 (en) * 2018-05-11 2019-11-14 Visionairy Health, Inc. Automated screening of medical data
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
US10942564B2 (en) * 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
US11282255B2 (en) 2018-05-21 2022-03-22 Magic Leap, Inc. Generating textured polygon strip hair from strand-based hair for a virtual character
CN108763394B (en) * 2018-05-21 2021-11-23 浙江工业大学 Multi-user eye movement tracking data visualization method and system for collaborative interaction
US11210835B2 (en) 2018-05-22 2021-12-28 Magic Leap, Inc. Computer generated hair groom transfer tool
EP3797404A4 (en) 2018-05-22 2022-02-16 Magic Leap, Inc. Skeletal systems for animating virtual avatars
EP3797345A4 (en) 2018-05-22 2022-03-09 Magic Leap, Inc. Transmodal input fusion for a wearable system
WO2019226865A1 (en) 2018-05-25 2019-11-28 Magic Leap, Inc. Compression of dynamic unstructured point clouds
CN108854064B (en) * 2018-05-25 2023-03-28 深圳市腾讯网络信息技术有限公司 Interaction control method and device, computer readable medium and electronic equipment
CN108416341B (en) * 2018-05-25 2023-11-21 重庆青腾致汇科技有限公司 Novel biological recognition system
CN117631307A (en) 2018-05-29 2024-03-01 爱达扩视眼镜公司 Hybrid perspective augmented reality system and method for low vision users
WO2019232282A1 (en) 2018-05-30 2019-12-05 Magic Leap, Inc. Compact variable focus configurations
EP3803450A4 (en) 2018-05-31 2021-08-18 Magic Leap, Inc. Radar head pose localization
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10509467B1 (en) * 2018-06-01 2019-12-17 Facebook Technologies, Llc Determining fixation of a user's eyes from images of portions of the user's face enclosed by a head mounted display
US10360304B1 (en) * 2018-06-04 2019-07-23 Imageous, Inc. Natural language processing interface-enabled building conditions control system
EP3804306B1 (en) 2018-06-05 2023-12-27 Magic Leap, Inc. Homography transformation matrices based temperature calibration of a viewing system
US11238143B2 (en) * 2018-06-05 2022-02-01 Google Llc Method and system for authenticating a user on a wearable heads-up display
US11157159B2 (en) 2018-06-07 2021-10-26 Magic Leap, Inc. Augmented reality scrollbar
JP7421505B2 (en) 2018-06-08 2024-01-24 マジック リープ, インコーポレイテッド Augmented reality viewer with automated surface selection and content orientation placement
WO2019238230A1 (en) * 2018-06-14 2019-12-19 Brainlab Ag Registration of an anatomical body part by detecting a finger pose
WO2019237175A1 (en) * 2018-06-14 2019-12-19 Integrity Advocate Inc. Method and system for assessing participants
WO2019241575A1 (en) 2018-06-15 2019-12-19 Magic Leap, Inc. Wide field-of-view polarization switches with liquid crystal optical elements with pretilt
CN108962182A (en) * 2018-06-15 2018-12-07 广东康云多维视觉智能科技有限公司 3-D image display device and its implementation based on eyeball tracking
WO2019246058A1 (en) 2018-06-18 2019-12-26 Magic Leap, Inc. Systems and methods for temporarily disabling user control interfaces during attachment of an electronic device
JP7378431B2 (en) 2018-06-18 2023-11-13 マジック リープ, インコーポレイテッド Augmented reality display with frame modulation functionality
WO2019246044A1 (en) 2018-06-18 2019-12-26 Magic Leap, Inc. Head-mounted display systems with power saving functionality
EP3806710A4 (en) * 2018-06-18 2022-03-30 New Jersey Institute of Technology Method, system and apparatus for diagnostic assessment and screening of binocular dysfunctions
JP7214986B2 (en) * 2018-06-25 2023-01-31 日本電信電話株式会社 Reflectivity determination device, reflectivity determination method, and program
CN112262373A (en) * 2018-06-26 2021-01-22 苹果公司 View-based breakpoints
US11151793B2 (en) 2018-06-26 2021-10-19 Magic Leap, Inc. Waypoint creation in map detection
US11669726B2 (en) 2018-07-02 2023-06-06 Magic Leap, Inc. Methods and systems for interpolation of disparate inputs
WO2020010097A1 (en) 2018-07-02 2020-01-09 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020009670A1 (en) * 2018-07-04 2020-01-09 Solmaz Gumruk Musavirligi A.S. A method using artificial neural networks to find a unique harmonized system code from given texts and system for implementing the same
JP7407748B2 (en) 2018-07-05 2024-01-04 マジック リープ, インコーポレイテッド Waveguide-based illumination for head-mounted display systems
WO2020014311A1 (en) * 2018-07-10 2020-01-16 Carrier Corporation Applying image analytics and machine learning to lock systems in hotels
WO2020018592A1 (en) 2018-07-17 2020-01-23 Methodical Mind, Llc. Graphical user interface system
US10863812B2 (en) 2018-07-18 2020-12-15 L'oreal Makeup compact with eye tracking for guidance of makeup application
US10795435B2 (en) 2018-07-19 2020-10-06 Samsung Electronics Co., Ltd. System and method for hybrid eye tracker
US10884492B2 (en) 2018-07-20 2021-01-05 Avegant Corp. Relative position based eye-tracking system
US11320899B2 (en) 2018-07-23 2022-05-03 Magic Leap, Inc. Deep predictor recurrent neural network for head pose prediction
US11627587B2 (en) 2018-07-23 2023-04-11 Magic Leap, Inc. Coexistence interference avoidance between two different radios operating in the same band
USD918176S1 (en) 2018-07-24 2021-05-04 Magic Leap, Inc. Totem controller having an illumination region
WO2020023404A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Flicker mitigation when toggling eyepiece display illumination in augmented reality systems
WO2020023672A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Display systems and methods for determining vertical alignment between left and right displays and a user's eyes
JP7426982B2 (en) 2018-07-24 2024-02-02 マジック リープ, インコーポレイテッド Temperature-dependent calibration of movement sensing devices
EP3827294A4 (en) 2018-07-24 2022-04-20 Magic Leap, Inc. Diffractive optical elements with mitigation of rebounce-induced light loss and related systems and methods
USD930614S1 (en) 2018-07-24 2021-09-14 Magic Leap, Inc. Totem controller having an illumination region
US11624929B2 (en) 2018-07-24 2023-04-11 Magic Leap, Inc. Viewing device with dust seal integration
EP3827426A4 (en) 2018-07-24 2022-07-27 Magic Leap, Inc. Display systems and methods for determining registration between a display and eyes of a user
USD924204S1 (en) 2018-07-24 2021-07-06 Magic Leap, Inc. Totem controller having an illumination region
JP7459050B2 (en) 2018-07-27 2024-04-01 マジック リープ, インコーポレイテッド Pose space dimension reduction for pose space deformation of virtual characters
US11112862B2 (en) 2018-08-02 2021-09-07 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
JP7438188B2 (en) 2018-08-03 2024-02-26 マジック リープ, インコーポレイテッド Unfused pose-based drift correction of fused poses of totems in user interaction systems
EP3830674A4 (en) 2018-08-03 2022-04-20 Magic Leap, Inc. Depth plane selection for multi-depth plane display systems by user categorization
US11012659B2 (en) * 2018-08-07 2021-05-18 International Business Machines Corporation Intelligent illumination and sound control in an internet of things (IoT) computing environment
CN109165939A (en) * 2018-08-23 2019-01-08 唐剑虹 Block chain VR hardware wallet based on biological identification technology
US11880441B2 (en) 2018-08-26 2024-01-23 The Research Foundation For The State University Of New York System and method for inter-individual discrimination based on oculomotor kinematics
DE102018214976A1 (en) * 2018-09-04 2020-03-05 Robert Bosch Gmbh Method for controlling a multimedia device and computer program and device therefor
GB2576910B (en) * 2018-09-06 2021-10-20 Sony Interactive Entertainment Inc User profile generating system and method
CN109145566A (en) 2018-09-08 2019-01-04 太若科技(北京)有限公司 Method, apparatus and AR glasses based on blinkpunkt information unlock AR glasses
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. User interfaces for simulated depth effects
EP3849410A4 (en) 2018-09-14 2022-11-02 Neuroenhancement Lab, LLC System and method of improving sleep
CN112639687A (en) * 2018-09-17 2021-04-09 脸谱科技有限责任公司 Eye tracking using reverse biased light emitting diode devices
USD950567S1 (en) 2018-09-18 2022-05-03 Magic Leap, Inc. Mobile computing support system having an illumination region
USD934873S1 (en) 2018-09-18 2021-11-02 Magic Leap, Inc. Mobile computing support system having an illumination region
USD955396S1 (en) 2018-09-18 2022-06-21 Magic Leap, Inc. Mobile computing support system having an illumination region
USD934872S1 (en) 2018-09-18 2021-11-02 Magic Leap, Inc. Mobile computing support system having an illumination region
US20200089855A1 (en) * 2018-09-19 2020-03-19 XRSpace CO., LTD. Method of Password Authentication by Eye Tracking in Virtual Reality System
US10664050B2 (en) 2018-09-21 2020-05-26 Neurable Inc. Human-computer interface using high-speed and accurate tracking of user interactions
WO2020068819A1 (en) 2018-09-24 2020-04-02 Eyedaptic, Inc. Enhanced autonomous hands-free control in electronic visual aids
US11733523B2 (en) 2018-09-26 2023-08-22 Magic Leap, Inc. Diffractive optical elements with optical power
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11119573B2 (en) * 2018-09-28 2021-09-14 Apple Inc. Pupil modulation as a cognitive control signal
US11055388B2 (en) * 2018-10-08 2021-07-06 Advanced New Technologies Co., Ltd. Passive affective and knowledge-based authentication through eye movement tracking
CN111083299A (en) * 2018-10-18 2020-04-28 富士施乐株式会社 Information processing apparatus and storage medium
EP3866690A4 (en) * 2018-10-19 2022-07-27 Emory University Systems and methods for automated passive assessment of visuospatial memory and/or salience
CN109040604B (en) * 2018-10-23 2020-09-15 Oppo广东移动通信有限公司 Shot image processing method and device, storage medium and mobile terminal
WO2020086356A2 (en) 2018-10-26 2020-04-30 Magic Leap, Inc. Ambient electromagnetic distortion correction for electromagnetic tracking
CN111127537A (en) * 2018-10-29 2020-05-08 托比股份公司 Method and apparatus for detecting shadows in a head mounted device
CN109376666B (en) 2018-10-29 2022-01-25 百度在线网络技术(北京)有限公司 Commodity selling method and device, selling machine and storage medium
SE542887C2 (en) * 2018-10-31 2020-08-11 Tobii Ab Gaze tracking using mapping of pupil center position
WO2020089724A1 (en) 2018-11-01 2020-05-07 3M Innovative Properties Company Device, user, or server registration and verification
US10417497B1 (en) 2018-11-09 2019-09-17 Qwake Technologies Cognitive load reducing platform for first responders
US10896492B2 (en) 2018-11-09 2021-01-19 Qwake Technologies, Llc Cognitive load reducing platform having image edge enhancement
US11890494B2 (en) 2018-11-09 2024-02-06 Qwake Technologies, Inc. Retrofittable mask mount system for cognitive load reducing platform
US10833945B2 (en) * 2018-11-13 2020-11-10 International Business Machines Corporation Managing downloading of content
CN113272821A (en) 2018-11-15 2021-08-17 奇跃公司 Deep neural network attitude estimation system
EP3881279A4 (en) 2018-11-16 2022-08-17 Magic Leap, Inc. Image size triggered clarification to maintain image sharpness
EP3884337A4 (en) 2018-11-20 2022-08-17 Magic Leap, Inc. Eyepieces for augmented reality display system
WO2020107022A1 (en) * 2018-11-23 2020-05-28 Slingshot Aerospace, Inc. Signal processing workflow engine incorporating graphical user interface for space situational awareness
CN109683704B (en) * 2018-11-29 2022-01-28 武汉中地地科传媒文化有限责任公司 AR interface interaction method and AR display equipment
WO2020112561A1 (en) 2018-11-30 2020-06-04 Magic Leap, Inc. Multi-modal hand location and orientation for avatar movement
CN111277857B (en) * 2018-12-04 2021-04-13 清华大学 Streaming media scheduling method and device
CN109799838B (en) * 2018-12-21 2022-04-15 金季春 Training method and system
US11443515B2 (en) * 2018-12-21 2022-09-13 Ambient AI, Inc. Systems and methods for machine learning enhanced intelligent building access endpoint security monitoring and management
WO2020132941A1 (en) * 2018-12-26 2020-07-02 中国科学院深圳先进技术研究院 Identification method and related device
JP2022516256A (en) 2018-12-28 2022-02-25 マジック リープ, インコーポレイテッド Extended and virtual reality display system with shared display for left and right eyes
EP3903143A4 (en) 2018-12-28 2022-10-12 Magic Leap, Inc. Variable pixel density display system with mechanically-actuated image projector
US11139071B2 (en) * 2018-12-31 2021-10-05 Cerner Innovation, Inc. Virtual augmentation of clinical care environments
EP3912013A1 (en) 2019-01-16 2021-11-24 Pupil Labs GmbH Methods for generating calibration data for head-wearable devices and eye tracking system
US11036043B2 (en) * 2019-01-17 2021-06-15 Advanced New Technologies Co., Ltd. Identity authentication using lens features
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
US11458040B2 (en) 2019-01-23 2022-10-04 Meta Platforms Technologies, Llc Corneal topography mapping with dense illumination
WO2020154524A1 (en) 2019-01-25 2020-07-30 Magic Leap, Inc. Eye-tracking using images having different exposure times
CN109828734A (en) * 2019-01-29 2019-05-31 深圳市海派通讯科技有限公司 Intelligent terminal shows screen control method, system and storage medium
EP3921720A4 (en) 2019-02-06 2022-06-29 Magic Leap, Inc. Target intent-based clock speed determination and adjustment to limit total heat generated by multiple processors
KR102246408B1 (en) * 2019-02-14 2021-05-18 엔에이치엔 주식회사 Method for providing similar products based on deep-learning
CN109919065A (en) * 2019-02-26 2019-06-21 浪潮金融信息技术有限公司 A method of focus is obtained on the screen using eyeball tracking technology
US11138302B2 (en) * 2019-02-27 2021-10-05 International Business Machines Corporation Access control using multi-authentication factors
KR102190527B1 (en) * 2019-02-28 2020-12-14 현대모비스 주식회사 Apparatus and method for automatic synthesizing images
US11287657B2 (en) 2019-02-28 2022-03-29 Magic Leap, Inc. Display system and method for providing variable accommodation cues using multiple intra-pupil parallax views formed by light emitter arrays
RU2715300C1 (en) * 2019-03-12 2020-02-26 Алексей Федорович Хорошев Method of creating object conformity information and information about it
JP2022523852A (en) 2019-03-12 2022-04-26 マジック リープ, インコーポレイテッド Aligning local content between first and second augmented reality viewers
CN110059232B (en) * 2019-03-15 2021-05-07 杭州电子科技大学 Data visualization method based on user experience measurement
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN110011985A (en) 2019-03-19 2019-07-12 阿里巴巴集团控股有限公司 For operating the method and system of internet of things equipment
CN113841006A (en) 2019-03-20 2021-12-24 奇跃公司 System for providing illumination to an eye
US11099384B2 (en) * 2019-03-27 2021-08-24 Lenovo (Singapore) Pte. Ltd. Adjusting display settings of a head-mounted display
US11644897B2 (en) 2019-04-01 2023-05-09 Evolution Optiks Limited User tracking system using user feature location and method, and digital display device and digital image rendering system and method using same
WO2020201999A2 (en) * 2019-04-01 2020-10-08 Evolution Optiks Limited Pupil tracking system and method, and digital display device and digital image rendering system and method using same
USD916892S1 (en) * 2019-04-09 2021-04-20 Google Llc Display screen or portion thereof with graphical user interface with icon
TWI754806B (en) * 2019-04-09 2022-02-11 栗永徽 System and method for locating iris using deep learning
CN114008514A (en) 2019-04-15 2022-02-01 奇跃公司 Sensor fusion for electromagnetic tracking
CN110060678B (en) * 2019-04-16 2021-09-14 深圳欧博思智能科技有限公司 Virtual role control method based on intelligent device and intelligent device
JP7060544B6 (en) * 2019-04-26 2022-05-23 塁 佐藤 Exercise equipment
JP2022530900A (en) 2019-05-01 2022-07-04 マジック リープ, インコーポレイテッド Content provisioning system and method
CN111897411A (en) * 2019-05-05 2020-11-06 Oppo广东移动通信有限公司 Interaction method and device based on atmospheric optical communication and wearable device
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
SE543144C2 (en) * 2019-05-15 2020-10-13 Tobii Ab Method and system for dwell-less, hands-free interaction with a selectable object
EP3973347A4 (en) 2019-05-20 2023-05-31 Magic Leap, Inc. Systems and techniques for estimating eye pose
WO2020236993A1 (en) 2019-05-21 2020-11-26 Magic Leap, Inc. Hand pose estimation
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
EP3977183A4 (en) 2019-05-24 2022-08-31 Magic Leap, Inc. Variable focus assemblies
JP7357081B2 (en) 2019-05-28 2023-10-05 マジック リープ, インコーポレイテッド Thermal management system for portable electronic devices
USD962981S1 (en) 2019-05-29 2022-09-06 Magic Leap, Inc. Display screen or portion thereof with animated scrollbar graphical user interface
JP6830981B2 (en) * 2019-05-29 2021-02-17 株式会社東芝 Wearable device and display method
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US10885173B2 (en) 2019-06-04 2021-01-05 Nant Holdings Ip, Llc Content authentication and validation via multi-factor digital tokens, systems, and methods
EP3979896A1 (en) 2019-06-05 2022-04-13 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
CN110338748B (en) * 2019-06-13 2022-03-08 宁波明星科技发展有限公司 Method for quickly positioning vision value, storage medium, terminal and vision detector
CN114286962A (en) 2019-06-20 2022-04-05 奇跃公司 Eyepiece for augmented reality display system
CN114270312A (en) 2019-06-21 2022-04-01 奇跃公司 Secure authorization via modal windows
EP3987329A4 (en) 2019-06-24 2023-10-11 Magic Leap, Inc. Waveguides having integral spacers and related systems and methods
US10976816B2 (en) * 2019-06-25 2021-04-13 Microsoft Technology Licensing, Llc Using eye tracking to hide virtual reality scene changes in plain sight
US11307650B1 (en) * 2019-06-25 2022-04-19 Apple Inc. Modifying virtual content to invoke a target user state
US10901502B2 (en) * 2019-06-27 2021-01-26 Facebook, Inc. Reducing head mounted display power consumption and heat generation through predictive rendering of content
US11379610B2 (en) * 2019-07-10 2022-07-05 Blackberry Limited Methods and devices for automatically encrypting files
US11029805B2 (en) 2019-07-10 2021-06-08 Magic Leap, Inc. Real-time preview of connectable objects in a physically-modeled virtual space
TW202103646A (en) * 2019-07-15 2021-02-01 美商外科劇院股份有限公司 Augmented reality system and method for tele-proctoring a surgical procedure
EP3999940A4 (en) 2019-07-16 2023-07-26 Magic Leap, Inc. Eye center of rotation determination with one or more eye tracking cameras
US11460616B2 (en) 2019-07-19 2022-10-04 Magic Leap, Inc. Method of fabricating diffraction gratings
CN114502991A (en) 2019-07-19 2022-05-13 奇跃公司 Display device with diffraction grating having reduced polarization sensitivity
US11907417B2 (en) 2019-07-25 2024-02-20 Tectus Corporation Glance and reveal within a virtual environment
JP2022542363A (en) 2019-07-26 2022-10-03 マジック リープ, インコーポレイテッド Systems and methods for augmented reality
US11354805B2 (en) 2019-07-30 2022-06-07 Apple Inc. Utilization of luminance changes to determine user characteristics
EP4009851A1 (en) * 2019-08-06 2022-06-15 Alcon Inc. Scene camera systems and methods for vitreoretinal surgery
CN110572632A (en) * 2019-08-15 2019-12-13 中国人民解放军军事科学院国防科技创新研究院 Augmented reality display system, helmet and method based on sight tracking
US11263634B2 (en) 2019-08-16 2022-03-01 Advanced New Technologies Co., Ltd. Payment method and device
US11380065B2 (en) * 2019-08-20 2022-07-05 Red Pacs, Llc Advanced head display unit for fire fighters
WO2021041990A1 (en) 2019-08-28 2021-03-04 Qwake Technologies, Llc Wearable assisted perception module for navigation and communication in hazardous environments
US11282297B2 (en) * 2019-09-10 2022-03-22 Blue Planet Training, Inc. System and method for visual analysis of emotional coherence in videos
JP7420926B2 (en) 2019-09-11 2024-01-23 マジック リープ, インコーポレイテッド Display device with a diffraction grating with reduced polarization sensitivity
US11295309B2 (en) * 2019-09-13 2022-04-05 International Business Machines Corporation Eye contact based financial transaction
US11010980B2 (en) 2019-09-25 2021-05-18 International Business Machines Corporation Augmented interface distraction reduction
US11354910B2 (en) * 2019-09-27 2022-06-07 Ncr Corporation Frictionless authentication and monitoring
US11601693B2 (en) 2019-09-30 2023-03-07 Kyndryl, Inc. Automatic adaptation of digital content
CN110751064B (en) * 2019-09-30 2022-06-24 四川大学 Blink frequency analysis method and system based on image processing
US20210097436A1 (en) * 2019-10-01 2021-04-01 Kelley S. Weiland Automated system for generating properly tagged training data for and verifying the efficacy of artificial intelligence algorithms
US11436655B2 (en) * 2019-10-01 2022-09-06 Ebay Inc. Different action user-interface components in a comparison view
US11276246B2 (en) 2019-10-02 2022-03-15 Magic Leap, Inc. Color space mapping for intuitive surface normal visualization
US11176757B2 (en) 2019-10-02 2021-11-16 Magic Leap, Inc. Mission driven virtual character for user interaction
KR102128894B1 (en) * 2019-10-10 2020-07-01 주식회사 메디씽큐 A method and system for eyesight sensing of medical smart goggles
CN110837294B (en) * 2019-10-14 2023-12-12 成都西山居世游科技有限公司 Facial expression control method and system based on eyeball tracking
JP7423248B2 (en) * 2019-10-23 2024-01-29 キヤノン株式会社 Electronic devices, control methods for electronic devices, programs and storage media
US11662807B2 (en) * 2020-01-06 2023-05-30 Tectus Corporation Eye-tracking user interface for virtual tool control
US10901505B1 (en) 2019-10-24 2021-01-26 Tectus Corporation Eye-based activation and tool selection systems and methods
US10607077B1 (en) * 2019-10-28 2020-03-31 EyeVerify Inc. Identity authentication using an inlier neural network
CN110745000B (en) * 2019-10-29 2021-09-28 上海天马有机发光显示技术有限公司 Vehicle instrument and display method thereof, and vehicle speed monitoring display system
CN110727352A (en) * 2019-10-31 2020-01-24 哈雷医用(广州)智能技术有限公司 Electronic product with depression improving effect and control method thereof
US11830318B2 (en) 2019-10-31 2023-11-28 8 Bit Development Inc. Method of authenticating a consumer or user in virtual reality, thereby enabling access to controlled environments
TWI731461B (en) * 2019-11-01 2021-06-21 宏碁股份有限公司 Identification method of real face and identification device using the same
US10795984B1 (en) 2019-11-01 2020-10-06 Capital One Services, Llc Active locking mechanism using machine learning
WO2021092211A1 (en) * 2019-11-05 2021-05-14 The Regents Of The University Of Colorado, A Body Corporate Systems and methods to probe ocular structures
US11493989B2 (en) 2019-11-08 2022-11-08 Magic Leap, Inc. Modes of user interaction
EP4055423A4 (en) 2019-11-08 2024-01-10 Magic Leap Inc Metasurfaces with light-redirecting structures including multiple materials and methods for fabricating
USD982593S1 (en) 2019-11-08 2023-04-04 Magic Leap, Inc. Portion of a display screen with animated ray
WO2021097323A1 (en) 2019-11-15 2021-05-20 Magic Leap, Inc. A viewing system for use in a surgical environment
CN114945947A (en) 2019-11-18 2022-08-26 奇跃公司 Universal world mapping and positioning
EP4062229A4 (en) 2019-11-22 2024-01-03 Magic Leap Inc Method and system for patterning a liquid crystal layer
US11665379B2 (en) * 2019-11-26 2023-05-30 Photo Sensitive Cinema (PSC) Rendering image content as time-spaced frames
CN114761859A (en) 2019-11-26 2022-07-15 奇跃公司 Augmented eye tracking for augmented or virtual reality display systems
US11273341B2 (en) * 2019-11-27 2022-03-15 Ready 2 Perform Technology LLC Interactive visualization system for biomechanical assessment
US10871825B1 (en) * 2019-12-04 2020-12-22 Facebook Technologies, Llc Predictive eye tracking systems and methods for variable focus electronic displays
CN112904997B (en) * 2019-12-04 2023-05-26 Oppo广东移动通信有限公司 Equipment control method and related product
CN114746796A (en) 2019-12-06 2022-07-12 奇跃公司 Dynamic browser stage
WO2021113309A1 (en) 2019-12-06 2021-06-10 Magic Leap, Inc. Encoding stereo splash screen in static image
USD941307S1 (en) 2019-12-09 2022-01-18 Magic Leap, Inc. Portion of a display screen with graphical user interface for guiding graphics
USD952673S1 (en) 2019-12-09 2022-05-24 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD941353S1 (en) 2019-12-09 2022-01-18 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD940748S1 (en) 2019-12-09 2022-01-11 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD940189S1 (en) 2019-12-09 2022-01-04 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
USD940749S1 (en) 2019-12-09 2022-01-11 Magic Leap, Inc. Portion of a display screen with transitional graphical user interface for guiding graphics
US11288876B2 (en) 2019-12-13 2022-03-29 Magic Leap, Inc. Enhanced techniques for volumetric stage mapping based on calibration object
US11928632B2 (en) * 2019-12-19 2024-03-12 Senseye, Inc. Ocular system for deception detection
CN113010066B (en) * 2019-12-20 2022-11-11 华为技术有限公司 Display parameter determination method and device
US20210192853A1 (en) * 2019-12-20 2021-06-24 Abdul Zalil Method and system for wireless transmission of audio/video media content to a display device
CN111091595B (en) * 2019-12-23 2023-06-02 吉林省广播电视研究所(吉林省广播电视局科技信息中心) Strabismus three-dimensional mapping method and system
CN111159678B (en) * 2019-12-26 2023-08-18 联想(北京)有限公司 Identity recognition method, device and storage medium
CN111292850A (en) * 2020-01-22 2020-06-16 福建中医药大学 ADHD children attention intelligent rehabilitation system
US11294461B2 (en) 2020-01-24 2022-04-05 Magic Leap, Inc. Content movement and interaction using a single controller
US11340695B2 (en) 2020-01-24 2022-05-24 Magic Leap, Inc. Converting a 2D positional input into a 3D point in space
USD948562S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with avatar
CN115004128A (en) 2020-01-27 2022-09-02 奇跃公司 Functional enhancement of user input device based on gaze timer
WO2021154558A1 (en) 2020-01-27 2021-08-05 Magic Leap, Inc. Augmented reality map curation
USD948574S1 (en) 2020-01-27 2022-04-12 Magic Leap, Inc. Portion of a display screen with a set of avatars
EP4097684A4 (en) 2020-01-27 2024-02-14 Magic Leap Inc Enhanced state control for anchor-based cross reality applications
USD949200S1 (en) 2020-01-27 2022-04-19 Magic Leap, Inc. Portion of a display screen with a set of avatars
WO2021154646A1 (en) 2020-01-27 2021-08-05 Magic Leap, Inc. Neutral avatars
USD936704S1 (en) 2020-01-27 2021-11-23 Magic Leap, Inc. Portion of a display screen with avatar
US11487356B2 (en) 2020-01-31 2022-11-01 Magic Leap, Inc. Augmented and virtual reality display systems for oculometric assessments
CN111402100A (en) * 2020-02-03 2020-07-10 重庆特斯联智慧科技股份有限公司 Population registration method and system realized through target tracking
CN111880662A (en) * 2020-02-06 2020-11-03 北京师范大学 Eye movement control system applied to interactive map
CN111880663A (en) * 2020-02-06 2020-11-03 北京师范大学 Eye movement control method and device applied to interactive map
US11538199B2 (en) * 2020-02-07 2022-12-27 Lenovo (Singapore) Pte. Ltd. Displaying a window in an augmented reality view
JP7455985B2 (en) 2020-02-10 2024-03-26 マジック リープ, インコーポレイテッド Body-centered content positioning for 3D containers in mixed reality environments
US11709363B1 (en) 2020-02-10 2023-07-25 Avegant Corp. Waveguide illumination of a spatial light modulator
WO2021163354A1 (en) 2020-02-14 2021-08-19 Magic Leap, Inc. Virtual object movement speed curve for virtual and augmented reality display systems
US11016656B1 (en) * 2020-02-14 2021-05-25 International Business Machines Corporation Fault recognition self-learning graphical user interface
US11300784B2 (en) * 2020-02-21 2022-04-12 Fotonation Limited Multi-perspective eye acquisition
WO2021173566A1 (en) 2020-02-26 2021-09-02 Magic Leap, Inc. Procedural electron beam lithography
WO2021174062A1 (en) 2020-02-28 2021-09-02 Magic Leap, Inc. Method of fabricating molds for forming eyepieces with integrated spacers
KR102379350B1 (en) * 2020-03-02 2022-03-28 주식회사 비주얼캠프 Method for page turn and computing device for executing the method
US11262588B2 (en) 2020-03-10 2022-03-01 Magic Leap, Inc. Spectator view of virtual and physical objects
KR102359602B1 (en) * 2020-03-10 2022-02-08 한국과학기술원 Method for inputting the gaze for display and apparatuses performing the same
EP3883235A1 (en) 2020-03-17 2021-09-22 Aptiv Technologies Limited Camera control modules and methods
EP4121813A4 (en) 2020-03-20 2024-01-17 Magic Leap Inc Systems and methods for retinal imaging and tracking
EP4127793A1 (en) 2020-03-25 2023-02-08 Magic Leap, Inc. Optical device with one-way mirror
CN111383313B (en) * 2020-03-31 2023-05-12 歌尔股份有限公司 Virtual model rendering method, device, equipment and readable storage medium
WO2021202783A1 (en) 2020-04-03 2021-10-07 Magic Leap, Inc. Avatar customization for optimal gaze discrimination
US11604354B2 (en) 2020-04-03 2023-03-14 Magic Leap, Inc. Wearable display systems with nanowire LED micro-displays
US11536970B1 (en) * 2020-04-07 2022-12-27 Google Llc Tracking of item of interest using wearable heads up display
US11587388B2 (en) 2020-04-22 2023-02-21 Igt Determining a player's emotional state using player gaze movement at gaming devices
US11950022B1 (en) 2020-04-24 2024-04-02 Apple Inc. Head-mounted devices with forward facing cameras
CN111399659B (en) * 2020-04-24 2022-03-08 Oppo广东移动通信有限公司 Interface display method and related device
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
CN116194821A (en) 2020-05-22 2023-05-30 奇跃公司 Augmented and virtual reality display system with associated in-and out-coupling optical zones
US11615205B2 (en) * 2020-05-28 2023-03-28 Bank Of America Corporation Intelligent dynamic data masking on display screens based on viewer proximity
US11195490B1 (en) * 2020-05-29 2021-12-07 International Business Machines Corporation Smart contact lens with adjustable light transmittance
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
WO2021247435A1 (en) 2020-06-05 2021-12-09 Magic Leap, Inc. Enhanced eye tracking techniques based on neural network analysis of images
JP7218978B2 (en) * 2020-06-15 2023-02-07 株式会社mediVR Rehabilitation support system, rehabilitation support method and rehabilitation support program
US11706656B2 (en) 2020-06-29 2023-07-18 Qualcomm Incorporated Downlink data prioritization for time-sensitive applications
GB202010326D0 (en) * 2020-07-06 2020-08-19 Palakollu Vamsee Krishna A virtual reality headset
US11690435B2 (en) 2020-07-07 2023-07-04 Perfect Mobile Corp. System and method for navigating user interfaces using a hybrid touchless control mechanism
TW202206030A (en) * 2020-07-14 2022-02-16 美商外科劇院股份有限公司 System and method for four-dimensional angiography
CN115885237A (en) * 2020-07-17 2023-03-31 惠普发展公司,有限责任合伙企业 Head mounted display image and foveal luminance calculation
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
WO2022025921A1 (en) * 2020-07-31 2022-02-03 Hewlett-Packard Development Company, L.P. Change blindness detection via bio-analytics
EP4193215A1 (en) 2020-08-07 2023-06-14 Magic Leap, Inc. Tunable cylindrical lenses and head-mounted display including the same
JP7154259B2 (en) 2020-08-11 2022-10-17 株式会社トプコン ophthalmic equipment
JP7154260B2 (en) * 2020-08-11 2022-10-17 株式会社トプコン ophthalmic equipment
JP2023539962A (en) 2020-08-14 2023-09-21 ヒーズ アイピー ホールディングス エルエルシー System and method for superimposing virtual images on real-time images
US11321797B2 (en) * 2020-08-25 2022-05-03 Kyndryl, Inc. Wearable watermarks
US20220061659A1 (en) * 2020-08-27 2022-03-03 Revieve Oy System and method for finding an area of an eye from a facial image
WO2022046120A1 (en) * 2020-08-31 2022-03-03 Hewlett-Packard Development Company, L.P. User authentication using event cameras
EP4073572A1 (en) 2020-09-03 2022-10-19 HES IP Holdings, LLC Systems and methods for improving binocular vision
US11620855B2 (en) 2020-09-03 2023-04-04 International Business Machines Corporation Iterative memory mapping operations in smart lens/augmented glasses
CN112084990A (en) * 2020-09-16 2020-12-15 重庆科技学院 Classroom head-raising rate statistical system based on convolutional neural network and backtracking
KR102230797B1 (en) * 2020-09-23 2021-03-22 국방과학연구소 Deep learning training method and system using infrared image
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
JP2023545653A (en) 2020-09-29 2023-10-31 エイヴギャント コーポレイション Architecture for illuminating display panels
CN116420104A (en) 2020-09-30 2023-07-11 海思智财控股有限公司 Virtual image display system for a virtual reality and augmented reality device
US20230350197A1 (en) * 2020-10-05 2023-11-02 Sony Group Corporation Line-of-sight detection device and display device
GB2599900B (en) * 2020-10-09 2023-01-11 Sony Interactive Entertainment Inc Data processing system and method for image enhancement
US11747896B2 (en) 2020-10-20 2023-09-05 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11392198B2 (en) 2020-10-20 2022-07-19 ROVl GUIDES, INC. Methods and systems of extended reality environment interaction based on eye motions
US11281291B1 (en) 2020-10-20 2022-03-22 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11609629B2 (en) * 2020-10-20 2023-03-21 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11320903B1 (en) 2020-10-20 2022-05-03 Rovi Guides, Inc. Methods and systems of extended reality environment interaction based on eye motions
US11659266B2 (en) 2020-10-21 2023-05-23 Qualcomm Incorporated Power control based at least in part on user eye movement
US11803237B2 (en) 2020-11-14 2023-10-31 Facense Ltd. Controlling an eye tracking camera according to eye movement velocity
US11184294B1 (en) * 2020-12-04 2021-11-23 Capital One Services, Llc Methods and systems for managing multiple content delivery networks
JP7252296B2 (en) * 2020-12-09 2023-04-04 株式会社トプコン Ophthalmic device and ophthalmic measurement method
CN116711302A (en) * 2020-12-16 2023-09-05 三星电子株式会社 Method and device for transmitting multiple application data with low time delay
EP4278366A1 (en) 2021-01-12 2023-11-22 Emed Labs, LLC Health testing and diagnostics platform
CN114765558B (en) 2021-01-15 2024-04-09 台达电子工业股份有限公司 Industrial equipment monitoring method and industrial equipment monitoring system
WO2022159628A1 (en) * 2021-01-22 2022-07-28 Zinn Labs, Inc. Headset integrated into healthcare platform
WO2022159630A1 (en) 2021-01-22 2022-07-28 Zinn Labs, Inc. Gaze sensors and display elements for detection of gaze vectors and user control at headset
JP7119145B2 (en) 2021-01-25 2022-08-16 株式会社東芝 Wearable device and display method
KR20220113633A (en) 2021-02-05 2022-08-16 호서대학교 산학협력단 Apparatus and method for controlling e-book for the disabled
US20220270186A1 (en) * 2021-02-24 2022-08-25 Lifebrand Llc System and Method for Determining the Impact of a Social Media Post across Multiple Social Media Platforms
US20220293241A1 (en) * 2021-03-12 2022-09-15 Facebook Technologies, Llc Systems and methods for signaling cognitive-state transitions
US11929168B2 (en) 2021-05-24 2024-03-12 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11615888B2 (en) 2021-03-23 2023-03-28 Emed Labs, Llc Remote diagnostic testing and treatment
US11273074B1 (en) * 2021-03-24 2022-03-15 Stroma Medical Corporation Systems and methods for for physical and electronic security of medical devices
WO2022203620A1 (en) * 2021-03-25 2022-09-29 Dm Dayanikli Tüketi̇m Mallari Sanayi̇ Ve Ti̇caret Li̇mi̇ted Şi̇rketi̇ Digital cinema system
CN113077795B (en) * 2021-04-06 2022-07-15 重庆邮电大学 Voiceprint recognition method under channel attention spreading and aggregation
US11823148B2 (en) 2021-04-15 2023-11-21 Bank Of America Corporation Augmented reality-enabled ATM for secure augmented reality check realization
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11369454B1 (en) 2021-05-24 2022-06-28 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
CN113297994B (en) * 2021-05-31 2023-08-18 中国航天科工集团第二研究院 Pilot behavior analysis method and system
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US20220398302A1 (en) * 2021-06-10 2022-12-15 Trivver, Inc. Secure wearable lens apparatus
GB2623461A (en) 2021-06-22 2024-04-17 Emed Labs Llc Systems, methods, and devices for non-human readable diagnostic tests
US20230008868A1 (en) * 2021-07-08 2023-01-12 Nippon Telegraph And Telephone Corporation User authentication device, user authentication method, and user authentication computer program
CN113434511B (en) * 2021-07-12 2023-08-29 北京林业大学 Clustering index method based on Hilbert curve
KR102644877B1 (en) * 2021-08-20 2024-03-08 주식회사 경신 Apparatus and method for controlling vehicle
CN113655927A (en) * 2021-08-24 2021-11-16 亮风台(上海)信息科技有限公司 Interface interaction method and device
US20230097716A1 (en) * 2021-09-25 2023-03-30 FiveGen, LLC Authenticating Individuals Based on Game Decisions and Behaviors
US20230102506A1 (en) * 2021-09-25 2023-03-30 FiveGen, LLC Selective Recommendation by Mapping Game Decisions and Behaviors to Predefined Attributes
WO2023047572A1 (en) 2021-09-27 2023-03-30 日本電気株式会社 Authentication system, authentication device, authentication method, and recording medium
CN113923252B (en) * 2021-09-30 2023-11-21 北京蜂巢世纪科技有限公司 Image display device, method and system
US11592899B1 (en) * 2021-10-28 2023-02-28 Tectus Corporation Button activation within an eye-controlled user interface
WO2023075771A1 (en) * 2021-10-28 2023-05-04 Hewlett-Packard Development Company, L.P. Avatar training images for training machine learning model
US20230289535A1 (en) * 2021-11-03 2023-09-14 Virginia Tech Intellectual Properties, Inc. Visual language processing modeling framework via an attention-on-attention mechanism
WO2023091403A2 (en) * 2021-11-17 2023-05-25 Meta Platforms Technologies, Llc Gaze-based user interface with assistant features for smart glasses in immersive reality applications
US11789530B2 (en) 2021-11-17 2023-10-17 Meta Platforms Technologies, Llc Gaze-based user interface with assistant features for smart glasses in immersive reality applications
US11619994B1 (en) 2022-01-14 2023-04-04 Tectus Corporation Control of an electronic contact lens using pitch-based eye gestures
US11852825B1 (en) * 2022-03-08 2023-12-26 Meta Platforms Technologies, Llc Selective notifications from eye measurements
US11874961B2 (en) 2022-05-09 2024-01-16 Tectus Corporation Managing display of an icon in an eye tracking augmented reality device
CN115658933B (en) * 2022-12-28 2023-04-07 四川大学华西医院 Psychological state knowledge base construction method and device, computer equipment and storage medium
CN116436919B (en) * 2023-06-13 2023-10-10 深圳市明源云科技有限公司 Cloud resource consumption optimization method and device, electronic equipment and readable storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120275664A1 (en) * 2011-04-28 2012-11-01 James Russell Bergen Method of pupil segmentation
US20130176533A1 (en) * 2012-01-06 2013-07-11 Hayes Solos Raffle Structured Light for Eye-Tracking

Family Cites Families (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3863243A (en) 1972-01-19 1975-01-28 Max Skolnick Sleep inhibiting alarm
US3798599A (en) 1972-02-24 1974-03-19 H Kafafian Single input controller for a communication system
US4359724A (en) 1980-04-28 1982-11-16 Ronald R. Zimmerman Eyelid movement detector
US4737040A (en) 1985-02-15 1988-04-12 Moon Tag Y Keyboard device and method for entering Japanese language text utilizing Romaji character notation
EP0280124A1 (en) 1987-02-12 1988-08-31 Omron Tateisi Electronics Co. Doze detector
US4850691A (en) 1987-03-18 1989-07-25 University Of Illinois Method and apparatus for determining pupillary response parameters
US4815839A (en) 1987-08-03 1989-03-28 Waldorf Ronald A Infrared/video electronystagmographic apparatus
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5214456A (en) 1991-10-09 1993-05-25 Computed Anatomy Incorporated Mapping of corneal topography with display of pupil perimeter
US5345281A (en) 1992-12-17 1994-09-06 John Taboada Eye tracking system and method
US5517021A (en) 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US5402109A (en) 1993-04-29 1995-03-28 Mannik; Kallis H. Sleep prevention device for automobile drivers
US5481622A (en) 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JPH086708A (en) 1994-04-22 1996-01-12 Canon Inc Display device
CA2126142A1 (en) 1994-06-17 1995-12-18 David Alexander Kahn Visual communications apparatus
US5469143A (en) 1995-01-10 1995-11-21 Cooper; David E. Sleep awakening device for drivers of motor vehicles
US5566067A (en) 1995-03-23 1996-10-15 The President And Fellows Of Harvard College Eyelid vigilance detector system
US5689241A (en) 1995-04-24 1997-11-18 Clarke, Sr.; James Russell Sleep detection and driver alert apparatus
US5570698A (en) 1995-06-02 1996-11-05 Siemens Corporate Research, Inc. System for monitoring eyes for detecting sleep behavior
US5682144A (en) 1995-11-20 1997-10-28 Mannik; Kallis Hans Eye actuated sleep prevention devices and other eye controlled devices
US6003991A (en) 1996-02-17 1999-12-21 Erik Scott Viirre Eye examination apparatus and method for remote examination of a patient by a health professional
US5912721A (en) 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
US5886683A (en) 1996-06-25 1999-03-23 Sun Microsystems, Inc. Method and apparatus for eyetrack-driven information retrieval
US6163281A (en) 1996-08-19 2000-12-19 Torch; William C. System and method for communication using eye movement
US6542081B2 (en) 1996-08-19 2003-04-01 William C. Torch System and method for monitoring eye movement
US6246344B1 (en) 1996-08-19 2001-06-12 William C. Torch Method and apparatus for voluntary communication
US5748113A (en) 1996-08-19 1998-05-05 Torch; William C. Method and apparatus for communication
US5867587A (en) 1997-05-19 1999-02-02 Northrop Grumman Corporation Impaired operator detection and warning system employing eyeblink analysis
AU1091099A (en) 1997-10-16 1999-05-03 Board Of Trustees Of The Leland Stanford Junior University Method for inferring mental states from eye movements
US6007202A (en) 1997-10-23 1999-12-28 Lasersight Technologies, Inc. Eye illumination system and method
DE19803158C1 (en) 1998-01-28 1999-05-06 Daimler Chrysler Ag Arrangement for determining the state of vigilance, esp. for machinery operator or vehicle driver
US6204828B1 (en) 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US6867752B1 (en) 1998-08-31 2005-03-15 Semiconductor Energy Laboratory Co., Ltd. Portable information processing system
US6087941A (en) 1998-09-01 2000-07-11 Ferraz; Mark Warning device for alerting a person falling asleep
US6243076B1 (en) 1998-09-01 2001-06-05 Synthetic Environments, Inc. System and method for controlling host system interface with point-of-interest data
AUPP612998A0 (en) 1998-09-23 1998-10-15 Canon Kabushiki Kaisha Multiview multimedia generation system
US6526159B1 (en) 1998-12-31 2003-02-25 Intel Corporation Eye tracking for resource and power management
US6433760B1 (en) * 1999-01-14 2002-08-13 University Of Central Florida Head mounted display with eyetracking capability
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
GB2348520B (en) 1999-03-31 2003-11-12 Ibm Assisting user selection of graphical user interface elements
US6116736A (en) 1999-04-23 2000-09-12 Neuroptics, Inc. Pupilometer with pupil irregularity detection capability
JP3636927B2 (en) * 1999-05-18 2005-04-06 三菱電機株式会社 Face image processing device
JP2001197400A (en) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc Display device, head installation-type display device, control method of head installation-type display device, picture generation method for the same, computer and program storage medium
US6456262B1 (en) 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
DK1285409T3 (en) 2000-05-16 2005-08-22 Swisscom Mobile Ag Process of biometric identification and authentication
US6608615B1 (en) 2000-09-19 2003-08-19 Intel Corporation Passive gaze-driven browsing
US8113657B2 (en) 2000-10-07 2012-02-14 Metaio Gmbh Device and method for determining the orientation of an eye
DE10103922A1 (en) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interactive data viewing and operating system
JP3586431B2 (en) * 2001-02-28 2004-11-10 松下電器産業株式会社 Personal authentication method and device
US20030038754A1 (en) 2001-08-22 2003-02-27 Mikael Goldstein Method and apparatus for gaze responsive text presentation in RSVP display
AUPR872301A0 (en) 2001-11-08 2001-11-29 Sleep Diagnostics Pty Ltd Alertness monitor
US6712468B1 (en) 2001-12-12 2004-03-30 Gregory T. Edwards Techniques for facilitating use of eye tracking data
US7715595B2 (en) * 2002-01-16 2010-05-11 Iritech, Inc. System and method for iris identification using stereoscopic face recognition
KR100954640B1 (en) * 2002-02-05 2010-04-27 파나소닉 주식회사 Personal authentication method and device
US6873714B2 (en) 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
US6919907B2 (en) 2002-06-20 2005-07-19 International Business Machines Corporation Anticipatory image capture for stereoscopic remote viewing with foveal priority
US20040061680A1 (en) 2002-07-10 2004-04-01 John Taboada Method and apparatus for computer control
US7400782B2 (en) * 2002-08-28 2008-07-15 Arcsoft, Inc. Image warping correction in forming 360 degree panoramic images
JP3574653B2 (en) * 2002-09-13 2004-10-06 松下電器産業株式会社 Iris coding method, personal authentication method, iris code registration device, iris authentication device, and iris authentication program
US7486806B2 (en) * 2002-09-13 2009-02-03 Panasonic Corporation Iris encoding method, individual authentication method, iris code registration device, iris authentication device, and iris authentication program
BR0315384A (en) 2002-10-15 2005-09-06 Volvo Technology Corp Method and disposition to interpret head and eye activity of individuals
US6932090B1 (en) 2003-02-06 2005-08-23 The United States Of America As Represented By The United States National Aeronautics And Space Administration Motion sickness treatment apparatus and method
US7347551B2 (en) 2003-02-13 2008-03-25 Fergason Patent Properties, Llc Optical system for monitoring eye movement
US7881493B1 (en) 2003-04-11 2011-02-01 Eyetools, Inc. Methods and apparatuses for use of eye interpretation information
US7401920B1 (en) * 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US9274598B2 (en) 2003-08-25 2016-03-01 International Business Machines Corporation System and method for selecting and activating a target object using a combination of eye gaze and key presses
US20050047629A1 (en) 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
EP1671258A4 (en) * 2003-09-04 2008-03-19 Sarnoff Corp Method and apparatus for performing iris recognition from an image
US8098901B2 (en) * 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US7365738B2 (en) 2003-12-02 2008-04-29 International Business Machines Corporation Guides and indicators for eye movement monitoring systems
US7561143B1 (en) 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
CN102670163B (en) 2004-04-01 2016-04-13 威廉·C·托奇 The system and method for controlling calculation device
US7195355B2 (en) * 2004-04-28 2007-03-27 Neurocom International, Inc. Isolating and quantifying functional impairments of the gaze stabilization system
ES2535364T3 (en) 2004-06-18 2015-05-08 Tobii Ab Eye control of computer equipment
US7797040B2 (en) * 2004-12-16 2010-09-14 California Institute Of Technology Prosthetic devices and methods and systems related thereto
MX2007010513A (en) 2005-03-04 2008-01-16 Sleep Diagnostics Pty Ltd Measuring alertness.
WO2006132686A2 (en) * 2005-06-03 2006-12-14 Sarnoff Corporation Method and apparatus for designing iris biometric systems for use in minimally
JP2007006393A (en) * 2005-06-27 2007-01-11 Institute Of Physical & Chemical Research Information presentation system
US7438414B2 (en) 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
US7751598B2 (en) * 2005-08-25 2010-07-06 Sarnoff Corporation Methods and systems for biometric identification
CA2627068C (en) * 2005-10-24 2015-02-03 Itesoft S.A. Device and method for interaction with a user
WO2007050029A2 (en) * 2005-10-28 2007-05-03 Tobii Technology Ab Eye tracker with visual feedback
US7429108B2 (en) 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
JP2007159610A (en) * 2005-12-09 2007-06-28 Matsushita Electric Ind Co Ltd Registration device, authentication device, registration authentication device, registration method, authentication method, registration program, and authentication program
US7760910B2 (en) 2005-12-12 2010-07-20 Eyetools, Inc. Evaluation of visual stimuli using existing viewing data
JP4367424B2 (en) * 2006-02-21 2009-11-18 沖電気工業株式会社 Personal identification device and personal identification method
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2007319174A (en) * 2006-05-30 2007-12-13 Matsushita Electric Ind Co Ltd Photographic equipment and authentication apparatus using the same
US20070297653A1 (en) * 2006-06-22 2007-12-27 Rudolf Maarten Bolle Fingerprint representation using localized texture features
US7574021B2 (en) * 2006-09-18 2009-08-11 Sarnoff Corporation Iris recognition for a secure facility
US7970179B2 (en) * 2006-09-25 2011-06-28 Identix Incorporated Iris data extraction
JP2008206143A (en) * 2007-01-23 2008-09-04 Kanazawa Univ Imaging device having image processing function
JP2008198028A (en) * 2007-02-14 2008-08-28 Sony Corp Wearable device, authentication method and program
JP2008288767A (en) 2007-05-16 2008-11-27 Sony Corp Information processor, method, and program
IL184399A0 (en) * 2007-07-03 2007-10-31 Yossi Tsuria Content delivery system
WO2009029757A1 (en) * 2007-09-01 2009-03-05 Global Rainmakers, Inc. System and method for iris data acquisition for biometric identification
US8462949B2 (en) 2007-11-29 2013-06-11 Oculis Labs, Inc. Method and apparatus for secure display of visual content
WO2009093435A1 (en) 2008-01-25 2009-07-30 Panasonic Corporation Brain wave interface system, brain wave interface device, method and computer program
CN101677762B (en) * 2008-02-28 2012-08-22 松下电器产业株式会社 Sight line detector and method for detecting sight line
US20100045596A1 (en) * 2008-08-21 2010-02-25 Sony Ericsson Mobile Communications Ab Discreet feature highlighting
US7850306B2 (en) 2008-08-28 2010-12-14 Nokia Corporation Visual cognition aware display and visual data transmission architecture
WO2010042557A2 (en) 2008-10-06 2010-04-15 Neuro Kinetics, Inc. Method and apparatus for corrective secondary saccades analysis with video oculography system
ATE527934T1 (en) 2009-04-01 2011-10-15 Tobii Technology Ab ADAPTIVE CAMERA AND ILLUMINATOR EYE TRACKER
US20120105486A1 (en) 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
US8472681B2 (en) * 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
CN101943982B (en) * 2009-07-10 2012-12-12 北京大学 Method for manipulating image based on tracked eye movements
WO2011008793A1 (en) * 2009-07-13 2011-01-20 Emsense Corporation Systems and methods for generating bio-sensory metrics
EP3338621B1 (en) 2009-07-16 2019-08-07 Tobii AB Eye detection unit using parallel data flow
US20110047377A1 (en) * 2009-08-19 2011-02-24 Harris Corporation Secure digital communications via biometric key generation
JP5613025B2 (en) * 2009-11-18 2014-10-22 パナソニック株式会社 Gaze detection apparatus, gaze detection method, electrooculogram measurement apparatus, wearable camera, head mounted display, electronic glasses, and ophthalmologic diagnosis apparatus
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US8922342B1 (en) * 2010-02-15 2014-12-30 Noblis, Inc. Systems, apparatus, and methods for continuous authentication
US8467133B2 (en) * 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9759917B2 (en) * 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
EP2539759A1 (en) * 2010-02-28 2013-01-02 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9091851B2 (en) * 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US8890946B2 (en) 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
KR20110125460A (en) * 2010-05-13 2011-11-21 김석수 A product information provider system using eye tracing and a method thereof
US8593375B2 (en) 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
US9916006B2 (en) 2010-07-23 2018-03-13 Telepatheye Inc. Eye-wearable device user interface and method
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
EP2923638B1 (en) * 2011-03-18 2019-02-20 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Optical measuring device and system
US8643680B2 (en) 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
US9256720B2 (en) * 2011-05-18 2016-02-09 Nextgenid, Inc. Enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
WO2012159070A2 (en) * 2011-05-18 2012-11-22 Nextgenid, Inc. Multi-biometric enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems
US8911087B2 (en) * 2011-05-20 2014-12-16 Eyefluence, Inc. Systems and methods for measuring reactions of head, eyes, eyelids and pupils
US8885877B2 (en) 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
EP2726937B1 (en) * 2011-06-30 2019-01-23 Nokia Technologies Oy Method, apparatus and computer program product for generating panorama images
US20130021374A1 (en) * 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
US8965064B2 (en) * 2011-08-22 2015-02-24 Eyelock, Inc. Systems and methods for capturing artifact free images
US9342610B2 (en) * 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
WO2013033195A2 (en) * 2011-08-30 2013-03-07 Microsoft Corporation Head mounted display with iris scan profiling
US8223024B1 (en) * 2011-09-21 2012-07-17 Google Inc. Locking mechanism based on unnatural movement of head-mounted display
ES2620762T3 (en) * 2011-10-27 2017-06-29 Tobii Ab Power management in an eye tracking system
US20130258089A1 (en) * 2011-11-03 2013-10-03 Intel Corporation Eye Gaze Based Image Capture
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
KR101891786B1 (en) 2011-11-29 2018-08-27 삼성전자주식회사 Operation Method For User Function based on a Eye-Tracking and Portable Device supporting the same
US8235529B1 (en) * 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
WO2013111140A2 (en) * 2012-01-26 2013-08-01 Umoove Services Ltd. Eye tracking
US9001030B2 (en) 2012-02-15 2015-04-07 Google Inc. Heads up display
KR101158502B1 (en) * 2012-02-16 2012-06-20 김유정 User recognition device for access control
CN104159497B (en) * 2012-03-09 2018-01-12 奥斯派克特公司 For the method and its device of the function of assessing vision system
CN104246682B (en) 2012-03-26 2017-08-25 苹果公司 Enhanced virtual touchpad and touch-screen
US9082011B2 (en) 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
US8864310B2 (en) 2012-05-01 2014-10-21 RightEye, LLC Systems and methods for evaluating human eye tracking
EP2847648A4 (en) 2012-05-09 2016-03-02 Intel Corp Eye tracking based selective accentuation of portions of a display
DE102012105664A1 (en) 2012-06-28 2014-04-10 Oliver Hein Method and device for coding eye and eye tracking data
JP2014044654A (en) * 2012-08-28 2014-03-13 Nikon Corp Information input and output device
US9189064B2 (en) 2012-09-05 2015-11-17 Apple Inc. Delay of display event based on user gaze
US9176581B2 (en) 2012-09-28 2015-11-03 Intel Corporation System and method for inferring user intent based on eye movement during observation of a display screen
US20140092006A1 (en) 2012-09-28 2014-04-03 Joshua Boelter Device and method for modifying rendering based on viewer focus area from eye tracking
WO2014057618A1 (en) 2012-10-09 2014-04-17 パナソニック株式会社 Three-dimensional display device, three-dimensional image processing device and three-dimensional display method
JP2014092941A (en) * 2012-11-02 2014-05-19 Sony Corp Information processor and information processing method and computer program
JP2014092940A (en) * 2012-11-02 2014-05-19 Sony Corp Image display device and image display method and computer program
US9626072B2 (en) * 2012-11-07 2017-04-18 Honda Motor Co., Ltd. Eye gaze control system
US9674510B2 (en) 2012-11-21 2017-06-06 Elwha Llc Pulsed projection system for 3D video
US9083757B2 (en) 2012-11-21 2015-07-14 Telefonaktiebolaget L M Ericsson LLP Multi-objective server placement determination
JP5652886B2 (en) * 2012-11-28 2015-01-14 Necカシオモバイルコミュニケーションズ株式会社 Face authentication device, authentication method and program, information device
US20140218281A1 (en) 2012-12-06 2014-08-07 Eyefluence, Inc. Systems and methods for eye gaze determination
WO2014093227A1 (en) * 2012-12-10 2014-06-19 Sri International Iris biometric matching system
US20140173407A1 (en) 2012-12-17 2014-06-19 Empire Technology Development Llc Progressively triggered auto-fill
WO2014111924A1 (en) 2013-01-15 2014-07-24 Poow Innovation Ltd. Dynamic icons
US9829971B2 (en) 2013-01-21 2017-11-28 Facebook, Inc. Systems and methods of eye tracking control
US9070015B2 (en) * 2013-02-07 2015-06-30 Ittiam Systems (P) Ltd. System and method for iris detection in digital images
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
KR102093198B1 (en) 2013-02-21 2020-03-25 삼성전자주식회사 Method and apparatus for user interface using gaze interaction
KR102175853B1 (en) 2013-02-22 2020-11-06 삼성전자주식회사 Method for controlling operation and an electronic device thereof
KR20160005013A (en) * 2013-03-01 2016-01-13 토비 에이비 Delay warp gaze interaction
US10268276B2 (en) * 2013-03-15 2019-04-23 Eyecam, LLC Autonomous computing and telecommunications head-up displays glasses
US10706132B2 (en) 2013-03-22 2020-07-07 Nok Nok Labs, Inc. System and method for adaptive user authentication
US10270748B2 (en) * 2013-03-22 2019-04-23 Nok Nok Labs, Inc. Advanced authentication techniques and applications
KR101627290B1 (en) * 2013-04-16 2016-06-21 구태언 Head-mounted display apparatus with enhanced secuirity and method for accessing encrypted information by the apparatus
US9979547B2 (en) * 2013-05-08 2018-05-22 Google Llc Password management
US10025378B2 (en) * 2013-06-25 2018-07-17 Microsoft Technology Licensing, Llc Selecting user interface elements via position signal
KR101882594B1 (en) * 2013-09-03 2018-07-26 토비 에이비 Portable eye tracking device
US9582716B2 (en) * 2013-09-09 2017-02-28 Delta ID Inc. Apparatuses and methods for iris based biometric recognition
EP3090322A4 (en) 2013-12-31 2017-07-19 Eyefluence, Inc. Systems and methods for gaze-based media selection and editing
US9552060B2 (en) * 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
US10564714B2 (en) 2014-05-09 2020-02-18 Google Llc Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects
KR102173699B1 (en) 2014-05-09 2020-11-03 아이플루언스, 인크. Systems and methods for discerning eye signals and continuous biometric identification
US20160364609A1 (en) * 2015-06-12 2016-12-15 Delta ID Inc. Apparatuses and methods for iris based biometric recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120275664A1 (en) * 2011-04-28 2012-11-01 James Russell Bergen Method of pupil segmentation
US20130176533A1 (en) * 2012-01-06 2013-07-11 Hayes Solos Raffle Structured Light for Eye-Tracking

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190015650A (en) * 2017-08-03 2019-02-14 주식회사 에스지엠 Authentication system using bio-information and screen golf system using the same
WO2019164290A1 (en) * 2018-02-23 2019-08-29 Samsung Electronics Co., Ltd. Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof
US10867202B2 (en) 2018-02-23 2020-12-15 Samsung Electronics Co., Ltd. Method of biometric authenticating using plurality of camera with different field of view and electronic apparatus thereof
WO2019221325A1 (en) * 2018-05-14 2019-11-21 한국과학기술원 System for continuous authentication by using pupillary response
KR20200004666A (en) 2018-07-04 2020-01-14 주식회사 링크트리 Biometric information authentication system using machine learning and block chain and its method
US11537701B2 (en) 2020-04-01 2022-12-27 Toyota Motor North America, Inc. Transport related n-factor authentication
US11651404B2 (en) 2021-08-31 2023-05-16 Kyndryl, Inc. Virtual shopping assistant

Also Published As

Publication number Publication date
JP2017526078A (en) 2017-09-07
EP3140779A4 (en) 2017-11-29
US9600069B2 (en) 2017-03-21
EP3140779A1 (en) 2017-03-15
JP6550460B2 (en) 2019-07-24
US20160274660A1 (en) 2016-09-22
JP2017526079A (en) 2017-09-07
WO2016018487A3 (en) 2016-05-19
AU2015297035A1 (en) 2016-11-24
AU2015297036B2 (en) 2017-09-28
US10620700B2 (en) 2020-04-14
EP3140719A2 (en) 2017-03-15
WO2016018488A3 (en) 2016-05-12
CN107087431B (en) 2021-02-05
CN107087431A8 (en) 2017-12-22
WO2015172124A1 (en) 2015-11-12
WO2016018487A9 (en) 2016-03-24
AU2015255652B2 (en) 2018-03-29
US20150338915A1 (en) 2015-11-26
US20150324568A1 (en) 2015-11-12
AU2015297035B2 (en) 2018-06-28
EP3140780A4 (en) 2018-04-11
WO2016018487A8 (en) 2016-12-08
AU2015297036A1 (en) 2016-11-24
CN106537290B (en) 2019-08-27
AU2015255652A1 (en) 2016-11-24
US20160085302A1 (en) 2016-03-24
CN106462743A (en) 2017-02-22
EP3140719B1 (en) 2021-07-07
EP3140780B1 (en) 2020-11-04
KR102173699B1 (en) 2020-11-03
WO2016018488A2 (en) 2016-02-04
JP2017527036A (en) 2017-09-14
CN106537290A (en) 2017-03-22
US20170235931A1 (en) 2017-08-17
US9823744B2 (en) 2017-11-21
EP3140719A4 (en) 2017-12-27
US10156900B2 (en) 2018-12-18
WO2016018488A9 (en) 2016-03-24
WO2016018487A2 (en) 2016-02-04
EP3140780A2 (en) 2017-03-15
KR20170045149A (en) 2017-04-26
US20160062459A1 (en) 2016-03-03
US20150326570A1 (en) 2015-11-12
KR102230172B1 (en) 2021-03-19
KR20170046108A (en) 2017-04-28
KR20200127267A (en) 2020-11-10
CN107087431A (en) 2017-08-22

Similar Documents

Publication Publication Date Title
US10156900B2 (en) Systems and methods for discerning eye signals and continuous biometric identification
EP2851831B1 (en) Mobile Information Gateway for Home Healthcare
US11755706B2 (en) Entity identification and authentication using a combination of independent identification technologies or platforms and applications thereof
EP2851832B1 (en) Mobile information gateway for use by medical personnel
US9763071B2 (en) Mobile information gateway for use in emergency situations or with special equipment
Liebling et al. Privacy considerations for a pervasive eye tracking world
US20220139546A1 (en) Machine learning model to detect and prevent psychological events
US20230106024A1 (en) Personal ownership, management and stewardship of personal identifiable information
US20220130501A1 (en) Clinical drug trial data enriching using activity and behavioral analytics captured with personal devices and apps
John et al. The security-utility trade-off for iris authentication and eye animation for social virtual avatars
US20220391484A1 (en) Entity identification and authentication using a combination of independent identification technologies or platforms and applications thereof
US20240022565A1 (en) Continuous id verification based on multiple dynamic behaviors and analytics
WO2023244602A1 (en) Systems and methods that provide a high level of security for a user
Sluganovic Security of mixed reality systems: authenticating users, devices, and data
US20220354401A1 (en) Distributed discernment detection system with plural user interface devices
EP4325383A1 (en) Techniques to provide user authentication for a near-eye display device
David-John Providing Privacy for Eye-Tracking Data with Applications in XR
CN117592027A (en) Techniques for providing user authentication for near-eye display devices

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant