JP2021121923A - Augmented reality system and method for tracking biometric data - Google Patents

Augmented reality system and method for tracking biometric data Download PDF

Info

Publication number
JP2021121923A
JP2021121923A JP2021063135A JP2021063135A JP2021121923A JP 2021121923 A JP2021121923 A JP 2021121923A JP 2021063135 A JP2021063135 A JP 2021063135A JP 2021063135 A JP2021063135 A JP 2021063135A JP 2021121923 A JP2021121923 A JP 2021121923A
Authority
JP
Japan
Prior art keywords
user
eye
linear
biometric data
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021063135A
Other languages
Japanese (ja)
Other versions
JP7106706B2 (en
Inventor
アール. ブラドスキー ゲイリー
R Bradski Gary
アール. ブラドスキー ゲイリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2021121923A publication Critical patent/JP2021121923A/en
Application granted granted Critical
Publication of JP7106706B2 publication Critical patent/JP7106706B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/16Implementing security features at a particular protocol layer
    • H04L63/168Implementing security features at a particular protocol layer above the transport layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/535Tracking the activity of the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/30Security of mobile devices; Security of mobile applications
    • H04W12/33Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Graphics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Collating Specific Patterns (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Processing Or Creating Images (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To provide an augmented reality (AR) display system and a method for utilizing biometric data to facilitate business transactions conducted through an AR device.SOLUTION: A method of conducting a transaction through an augmented reality display device includes: capturing biometric data from a user; determining, based on at least partially the captured biometric data, an identity of the user; authenticating the user for the transaction based on the determined identity; and transmitting a set of data regarding the transaction to a financial institution. The biometric data is an iris pattern.SELECTED DRAWING: Figure 7

Description

本開示は、バイオメトリックデータを利用して、拡張現実(AR)デバイスを通して実
施される商取引を促進するためのシステムおよび方法に関する。
The present disclosure relates to systems and methods for using biometric data to facilitate commerce conducted through augmented reality (AR) devices.

現代のコンピューティングおよびディスプレイ技術は、デジタル的に再現された画像ま
たはその一部が、現実であるように見える様式において、もしくはそのように知覚され得
る様式においてユーザに提示される、いわゆる「仮想現実」または「拡張現実」体験のた
めのシステムの開発を促進している。仮想現実、すなわち、「VR」シナリオは、典型的
には、他の実際の実世界の視覚的入力に対して透明性を伴わずに、デジタルまたは仮想画
像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの
周囲の実際の世界の視覚化の拡張として、デジタルまたは仮想画像情報の提示を伴う。
Modern computing and display technology presents digitally reproduced images or parts thereof to users in a manner that appears to be real, or in a manner that can be perceived as such, the so-called "virtual reality". Promotes the development of systems for "augmented reality" experiences. Virtual reality, or "VR" scenarios, typically involves the presentation of digital or virtual image information without transparency to other real-world visual inputs. Augmented reality, or "AR" scenarios, typically involve the presentation of digital or virtual image information as an extension of the visualization of the real world around the user.

例えば、図1を参照すると、拡張現実場面が、描写されており、AR技術のユーザは、
人々、木々、建物を背景として、コンクリートのプラットフォーム1120を特徴とする
実世界の公園のような設定を見る。これらのアイテムに加え、AR技術のユーザは、実世
界プラットフォーム1120上に立っているロボット像1110と、飛んでいる漫画のよ
うなアバタキャラクタ2とも知覚するが、これらの要素(2、1110)は、実世界には
存在しない。ヒトの視知覚系は、非常に複雑であり、他の仮想または実世界画像要素間に
おける仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、そのよ
うな拡張現実場面を生成することは、困難である。
For example, referring to FIG. 1, an augmented reality scene is depicted, and users of AR technology can
See a real-world park-like setting featuring a concrete platform 1120 against the backdrop of people, trees and buildings. In addition to these items, users of AR technology also perceive the robot image 1110 standing on the real-world platform 1120 and the flying cartoon-like avatar character 2, but these elements (2, 1110) are , Does not exist in the real world. The human visual perception system is very complex, such augmented reality that promotes the comfortable, natural-feeling, and rich presentation of virtual image elements among other virtual or real-world image elements. Generating a scene is difficult.

そのようなARデバイスは、あらゆるタイプの仮想コンテンツをユーザに提示するため
に使用され得ることが想定される。1つ以上の実施形態では、ARデバイスは、種々のゲ
ームアプリケーションの状況において使用され、ユーザが、実在の状況を模倣する、単独
プレーヤまたは複数プレーヤビデオ/拡張現実ゲームに参加することを可能にし得る。例
えば、パーソナルコンピュータにおいてビデオゲームをプレーするのではなく、ARユー
ザは、現実世界に非常に似た条件におけるより大きなスケールでゲームをプレーし得る(
例えば、「原寸」3Dモンスタが、ARユーザが公園を散歩しているとき、実際の建物の
背後から現れ得る等)。実際、これは、ゲーム体験の信憑性および楽しみを著しく向上さ
せる。
It is envisioned that such an AR device could be used to present any type of virtual content to the user. In one or more embodiments, the AR device may be used in the context of various gaming applications, allowing the user to participate in a single player or multiplayer video / augmented reality game that mimics a real situation. .. For example, rather than playing a video game on a personal computer, an AR user can play the game on a larger scale in conditions that are very similar to the real world (
For example, a "real size" 3D monster can appear from behind an actual building when an AR user is walking in the park). In fact, this significantly improves the credibility and enjoyment of the gaming experience.

図1は、ゲームアプリケーションの状況においてARデバイスの可能性を図示するが、
ARデバイスは、多数の他の用途において使用され得、日常的コンピューティングデバイ
ス(例えば、パーソナルコンピュータ、携帯電話、タブレットデバイス等)に取って代わ
ることが予期され得る。仮想コンテンツをユーザの視野内に戦略的に置くことによって、
ARデバイスは、ユーザが、同時に、ユーザの物理的環境に接続されながら、種々のコン
ピューティングタスク(例えば、電子メールをチェックする、用語をウェブ上で調べる、
他のARユーザと電話会議する、映画を鑑賞する等)を行うことを可能にする、歩くパー
ソナルコンピュータと見なされ得る。例えば、机上の物理的デバイスに制約されるのでは
なく、ARユーザは、「移動中」(例えば、散歩しながら、日々の通勤時、そのオフィス
以外の物理的場所において、そのコンピュータから離れて等)であり得、依然として、仮
想電子メール画面を引き出し、例えば、電子メールをチェックすること、もしくはARデ
バイス上に画面を仮想的に事前設定することによって、友人とビデオ会議を行うことが可
能であり、または別の例では、間に合わせの場所において仮想オフィスを構築することが
可能である。多数の類似仮想現実/拡張現実シナリオが、想定され得る。
FIG. 1 illustrates the potential of AR devices in the context of gaming applications,
AR devices can be used in many other applications and can be expected to replace everyday computing devices (eg, personal computers, mobile phones, tablet devices, etc.). By strategically placing virtual content in the user's field of view
AR devices allow users to simultaneously connect to their physical environment while performing various computing tasks (eg, checking email, looking up terms on the web, etc.).
It can be considered a walking personal computer that allows you to have conference calls with other AR users, watch movies, etc.). For example, rather than being constrained by physical devices on the desk, AR users are "on the move" (eg, while walking, on a daily commute, away from the computer in a physical location other than the office, etc. ), And it is still possible to have a video conference with a friend by pulling out the virtual email screen and, for example, checking the email or virtually presetting the screen on the AR device. , Or in another example, it is possible to build a virtual office in a makeshift location. Many similar virtual reality / augmented reality scenarios can be envisioned.

下層コンピューティング技術の性質におけるこのシフトは、それなりに利点も課題もあ
る。ヒト視覚系の生理学的限界に配慮した、前述のもの等の拡張現実場面を提示するため
に、ARデバイスは、所望の仮想コンテンツをユーザの物理的環境内の1つ以上の実オブ
ジェクトと関連して投影するために、ユーザの物理的周囲を認知しなければならない。こ
の目的を達成するために、ARデバイスは、典型的には、種々の追跡デバイス(例えば、
眼追跡デバイス、GPS等)、カメラ(例えば、視野カメラ、赤外線カメラ、深度カメラ
等)、およびセンサ(例えば、加速度計、ジャイロスコープ等)を装備し、ユーザの周囲
内の種々の実オブジェクトと関連して、ユーザの位置、向き、距離等を査定し、実世界の
オブジェクトおよび他のそのような機能性を検出し、識別する。
This shift in the nature of lower-tier computing technology has its own advantages and challenges. To present augmented reality scenes such as those mentioned above, taking into account the physiological limitations of the human visual system, AR devices associate desired virtual content with one or more real objects within the user's physical environment. You must be aware of the user's physical surroundings in order to project. To this end, AR devices typically include a variety of tracking devices (eg, for example.
Equipped with eye tracking devices, GPS, etc.), cameras (eg, field cameras, infrared cameras, depth cameras, etc.), and sensors (eg, accelerometers, gyroscopes, etc.) and associated with various real objects within the user's surroundings. It assesses the user's position, orientation, distance, etc., and detects and identifies real-world objects and other such functionality.

ARデバイスがARユーザおよびその周囲についての種々のタイプのデータを追跡する
ように構成されている場合、1つ以上の実施形態では、このデータは、有利には、最小限
の入力がユーザから要求されることを確実にし、かつ殆どまたは全く中断をユーザのAR
体験に生じさせずに、ユーザの種々のタイプの取引を補助するために活用され得る。
If the AR device is configured to track various types of data about the AR user and its surroundings, in one or more embodiments, this data advantageously requires minimal input from the user. Ensure that it is done, and with little or no interruption in the user's AR
It can be utilized to assist various types of transactions of the user without causing it to occur in the experience.

詳しく説明すると、従来の取引(金融またはその他)は、商取引に参加するために、典
型的には、ユーザが、ある形態の金銭トークン(例えば、現金、小切手、クレジットカー
ド等)、ある場合には、身分証明書(例えば、運転免許証等)、および認証(例えば、署
名等)を物理的に携行することを要求する。あるユーザが、百貨店の中に入って行くとす
る。任意の種類の購入を行うために、ユーザは、典型的には、商品を取り上げ、商品をカ
ートの中に入れ、レジまで歩いて行き、レジ係の前で列に並び、レジ係がいくつかの商品
を走査するのを待ち、クレジットカードを取り出し、身分証明書を提供し、クレジットカ
ード領収証に署名し、商品の将来的返品のために領収証を保管する。従来の金融取引では
、これらのステップは、必要ではあるが、時間がかかり、非効率的であり、ある場合には
、これらのステップは、ユーザが購入を行うことを抑止または禁止する(例えば、ユーザ
が金銭トークンまたは身分証明書を携行していない等)。しかしながら、ARデバイスの
状況では、これらのステップは、冗長かつ不必要である。1つ以上の実施形態では、AR
デバイスは、ユーザが、ユーザが前述の面倒な手順を行うことを要求せずに、多くのタイ
プの取引をシームレスに行うことを可能にするように構成され得る。
More specifically, traditional transactions (financial or other) typically involve the user in some form of monetary token (eg, cash, check, credit card, etc.), in some cases, in order to participate in a commercial transaction. Require physical carrying of identification (eg, driver's license, etc.), and authentication (eg, signature, etc.). Suppose a user goes inside a department store. To make any kind of purchase, the user typically picks up the item, puts the item in the cart, walks to the cashier, lines up in front of the cashier, and has some cashiers. Wait for the item to be scanned, remove the credit card, provide identification, sign the credit card receipt, and keep the receipt for future returns of the item. In traditional financial transactions, these steps are necessary, but time consuming and inefficient, and in some cases these steps deter or prohibit users from making purchases (eg,). The user does not carry a financial token or ID card, etc.). However, in the context of AR devices, these steps are redundant and unnecessary. In one or more embodiments, AR
The device may be configured to allow the user to seamlessly carry out many types of transactions without requiring the user to perform the tedious steps described above.

したがって、ARユーザが日常的取引に参加することを補助するためのより優れたソリ
ューションの必要性がある。
Therefore, there is a need for better solutions to help AR users participate in routine transactions.

本発明の実施形態は、1人以上のユーザのための仮想現実および/もしくは拡張現実相
互作用を促進するためのデバイス、システム、ならびに方法を対象とする。
Embodiments of the invention cover devices, systems, and methods for facilitating virtual reality and / or augmented reality interactions for one or more users.

一側面では、拡張現実デバイスを通して取引を実施する方法は、バイオメトリックデー
タをユーザから捕捉することと、捕捉されたバイオメトリックデータに少なくとも部分的
に基づいて、ユーザの識別を決定することと、決定された識別に基づいて、取引のために
ユーザを認証することとを含む。
On the one hand, the method of conducting a transaction through an augmented reality device is to capture biometric data from the user and to determine the user's identity based at least in part on the captured biometric data. Includes authenticating the user for a transaction based on the identification made.

1つ以上の実施形態では、方法はさらに、取引に関するデータの組を金融機関に伝送す
ることを含む。1つ以上の実施形態では、バイオメトリックデータは、虹彩パターンであ
る。1つ以上の実施形態では、バイオメトリックデータは、ユーザの音声記録である。1
つ以上の実施形態では、バイオメトリックデータは、網膜署名である。1つ以上の実施形
態では、バイオメトリックデータは、ユーザの皮膚に関連付けられた特性である。
In one or more embodiments, the method further comprises transmitting a set of data about the transaction to a financial institution. In one or more embodiments, the biometric data is an iris pattern. In one or more embodiments, the biometric data is a voice recording of the user. 1
In one or more embodiments, the biometric data is a retinal signature. In one or more embodiments, the biometric data is a property associated with the user's skin.

1つ以上の実施形態では、バイオメトリックデータは、ユーザの眼の移動を捕捉する1
つ以上の眼追跡カメラを通して捕捉される。1つ以上の実施形態では、バイオメトリック
データは、ユーザの眼の移動のパターンである。1つ以上の実施形態では、バイオメトリ
ックデータは、ユーザの眼の瞬きパターンである。
In one or more embodiments, the biometric data captures the movement of the user's eyes.
Captured through one or more eye tracking cameras. In one or more embodiments, the biometric data is a pattern of movement of the user's eyes. In one or more embodiments, the biometric data is a blink pattern of the user's eyes.

1つ以上の実施形態では、拡張現実デバイスは、頭部搭載型であり、拡張現実デバイス
は、ユーザのために個々に較正される。1つ以上の実施形態では、バイオメトリックデー
タは、ユーザに関する所定のデータと比較される。1つ以上の実施形態では、所定のデー
タは、ユーザの眼の既知の署名移動である。
In one or more embodiments, the augmented reality device is head-mounted and the augmented reality device is individually calibrated for the user. In one or more embodiments, the biometric data is compared to predetermined data about the user. In one or more embodiments, the predetermined data is a known signature transfer in the user's eye.

1つ以上の実施形態では、所定のデータは、既知の虹彩パターンである。1つ以上の実
施形態では、所定のデータは、既知の網膜パターンである。1つ以上の実施形態では、方
法はさらに、ユーザが取引を行いたいという願望を検出することと、検出された願望に少
なくとも部分的に基づいて、ユーザからバイオメトリックデータを要求することと、バイ
オメトリックデータを所定のバイオメトリックデータと比較し、結果を生成することであ
って、ユーザは、結果に少なくとも部分的に基づいて認証される、こととを含む。
In one or more embodiments, the predetermined data is a known iris pattern. In one or more embodiments, the predetermined data is a known retinal pattern. In one or more embodiments, the method further detects the user's desire to make a transaction, requests biometric data from the user at least in part based on the detected desire, and biometrically. Comparing metric data with predetermined biometric data to produce a result, including that the user is authenticated based on the result, at least in part.

1つ以上の実施形態では、取引は、商取引である。1つ以上の実施形態では、方法はさ
らに、ユーザの認証をユーザに関連付けられた金融機関に通信することであって、金融機
関は、認証に少なくとも部分的に基づいて、ユーザの代わりに支払を行う、ことを含む。
1つ以上の実施形態では、金融機関は、支払をユーザによって示される1つ以上の販売業
者に伝送する。
In one or more embodiments, the transaction is a commercial transaction. In one or more embodiments, the method is further to communicate the user's authentication to the financial institution associated with the user, who pays on behalf of the user, at least in part, based on the authentication. Including doing.
In one or more embodiments, the financial institution transmits the payment to one or more distributors indicated by the user.

1つ以上の実施形態では、方法はさらに、拡張現実デバイスに関連付けられた中断イベ
ントまたは取引イベントを検出することを含む。1つ以上の実施形態では、方法はさらに
、検出されたイベントに少なくとも部分的に基づいて、ユーザを再認証するために、新し
いバイオメトリックデータをユーザから捕捉することを含む。1つ以上の実施形態では、
アクティビティの中断は、ユーザの頭部からの拡張現実デバイスの除去に少なくとも部分
的に基づいて、検出される。
In one or more embodiments, the method further comprises detecting an interruption event or transaction event associated with an augmented reality device. In one or more embodiments, the method further comprises capturing new biometric data from the user in order to reauthenticate the user, at least in part, based on the detected event. In one or more embodiments,
Activity interruptions are detected, at least in part, based on the removal of the augmented reality device from the user's head.

1つ以上の実施形態では、アクティビティの中断は、拡張現実デバイスのネットワーク
との接続性の喪失に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では
、取引イベントは、ユーザによる取引の明示的承認に少なくとも部分的に基づいて、検出
される。1つ以上の実施形態では、取引イベントは、ユーザの注視に関連付けられたヒー
トマップに少なくとも部分的に基づいて、検出される。
In one or more embodiments, the interruption of activity is detected, at least in part, based on the loss of connectivity of the augmented reality device with the network. In one or more embodiments, the transaction event is detected, at least in part, based on the explicit approval of the transaction by the user. In one or more embodiments, the transaction event is detected, at least in part, based on the heatmap associated with the user's gaze.

1つ以上の実施形態では、取引イベントは、拡張現実デバイスを通して受信されるユー
ザ入力に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、ユーザ入
力は、眼のジェスチャを含む。1つ以上の実施形態では、ユーザ入力は、手のジェスチャ
を含む。
In one or more embodiments, the transaction event is detected, at least in part, based on user input received through the augmented reality device. In one or more embodiments, the user input comprises an eye gesture. In one or more embodiments, the user input comprises a hand gesture.

別の側面では、拡張現実ディスプレイシステムは、バイオメトリックデータをユーザか
ら捕捉するためのバイオメトリックデータ追跡デバイスと、バイオメトリックデータ追跡
デバイスに動作可能に結合され、捕捉されたバイオメトリックデータを処理し、捕捉され
たバイオメトリックデータに少なくとも部分的に基づいて、ユーザの識別を決定するため
のプロセッサと、少なくとも金融機関と通信し、取引のためにユーザを認証するためのサ
ーバとを備えている。
In another aspect, the augmented reality display system is operably coupled to a biometric data tracking device for capturing biometric data from the user and the biometric data tracking device to process the captured biometric data. It includes a processor for determining user identification, at least partially based on captured biometric data, and at least a server for communicating with financial institutions and authenticating users for transactions.

1つ以上の実施形態では、バイオメトリックデータは、眼移動データである。1つ以上
の実施形態では、バイオメトリックデータは、ユーザの虹彩の画像に対応する。1つ以上
の実施形態では、サーバはまた、取引に関するデータの組を金融機関に伝送する。1つ以
上の実施形態では、バイオメトリックデータは、虹彩パターンである。
In one or more embodiments, the biometric data is eye movement data. In one or more embodiments, the biometric data corresponds to an image of the user's iris. In one or more embodiments, the server also transmits a set of data about the transaction to the financial institution. In one or more embodiments, the biometric data is an iris pattern.

1つ以上の実施形態では、バイオメトリックデータは、ユーザの音声記録である。1つ
以上の実施形態では、バイオメトリックデータは、網膜署名である。1つ以上の実施形態
では、バイオメトリックデータは、ユーザの皮膚に関連付けられた特性である。1つ以上
の実施形態では、バイオメトリック追跡デバイスは、1つ以上の眼追跡カメラを備え、ユ
ーザの眼の移動を捕捉する。1つ以上の実施形態では、バイオメトリックデータは、ユー
ザの眼の移動のパターンである。
In one or more embodiments, the biometric data is a voice recording of the user. In one or more embodiments, the biometric data is a retinal signature. In one or more embodiments, the biometric data is a property associated with the user's skin. In one or more embodiments, the biometric tracking device comprises one or more eye tracking cameras to capture the movement of the user's eyes. In one or more embodiments, the biometric data is a pattern of movement of the user's eyes.

1つ以上の実施形態では、バイオメトリックデータは、ユーザの眼の瞬きパターンであ
る。1つ以上の実施形態では、拡張現実ディスプレイシステムは、頭部搭載型であり、拡
張現実ディスプレイシステムは、ユーザのために個々に較正される。1つ以上の実施形態
では、プロセッサはまた、バイオメトリックデータをユーザに関する所定のデータと比較
する。1つ以上の実施形態では、所定のデータは、ユーザの眼の既知の署名移動である。
1つ以上の実施形態では、所定のデータは、既知の虹彩パターンである。1つ以上の実施
形態では、所定のデータは、既知の網膜パターンである。1つ以上の実施形態では、プロ
セッサは、ユーザが取引を行うことを望んでいることを検出し、プロセッサは、検出に少
なくとも部分的に基づいて、バイオメトリックデータをユーザから要求するためのユーザ
インターフェースをさらに備え、プロセッサは、バイオメトリックデータを所定のバイオ
メトリックデータと比較し、比較に少なくとも部分的に基づいて、ユーザを認証する。
In one or more embodiments, the biometric data is a blink pattern of the user's eyes. In one or more embodiments, the augmented reality display system is head-mounted and the augmented reality display system is individually calibrated for the user. In one or more embodiments, the processor also compares biometric data with predetermined data about the user. In one or more embodiments, the predetermined data is a known signature transfer in the user's eye.
In one or more embodiments, the predetermined data is a known iris pattern. In one or more embodiments, the predetermined data is a known retinal pattern. In one or more embodiments, the processor detects that the user wants to make a transaction, and the processor requests biometric data from the user, at least in part, based on the detection. Further, the processor compares the biometric data with the predetermined biometric data and authenticates the user based on the comparison, at least in part.

1つ以上の実施形態では、取引は、商取引である。1つ以上の実施形態では、プロセッ
サは、ユーザの認証をユーザに関連付けられた金融機関に通信し、金融機関は、認証に少
なくとも部分的に基づいて、ユーザの代わりに支払を行う。1つ以上の実施形態では、金
融機関は、支払をユーザによって示される1つ以上の販売業者に伝送する。
In one or more embodiments, the transaction is a commercial transaction. In one or more embodiments, the processor communicates the user's authentication to the financial institution associated with the user, who makes payments on behalf of the user, at least in part based on the authentication. In one or more embodiments, the financial institution transmits the payment to one or more distributors indicated by the user.

1つ以上の実施形態では、プロセッサは、拡張現実デバイスに関連付けられた中断イベ
ントまたは取引イベントを検出し、バイオメトリック追跡デバイスは、検出されたイベン
トに少なくとも部分的に基づいて、ユーザを再認証するために、新しいバイオメトリック
データをユーザから捕捉する。1つ以上の実施形態では、アクティビティの中断は、ユー
ザの頭部からの拡張現実デバイスの除去に少なくとも部分的に基づいて、検出される。
In one or more embodiments, the processor detects interruption or trading events associated with the augmented reality device, and the biometric tracking device reauthenticates the user based at least in part on the detected events. To capture new biometric data from users. In one or more embodiments, the interruption of activity is detected, at least in part, based on the removal of the augmented reality device from the user's head.

1つ以上の実施形態では、アクティビティの中断は、拡張現実デバイスのネットワーク
との接続性の喪失に少なくとも部分的に基づいて、検出される。1つ以上の実施形態では
、取引イベントは、ユーザによる取引の明示的承認に少なくとも部分的に基づいて、検出
される。1つ以上の実施形態では、取引イベントは、ユーザの注視に関連付けられたヒー
トマップに少なくとも部分的に基づいて、検出される。1つ以上の実施形態では、取引イ
ベントは、拡張現実デバイスを通して受信されるユーザ入力に少なくとも部分的に基づい
て、検出される。1つ以上の実施形態では、ユーザ入力は、眼のジェスチャを含む。1つ
以上の実施形態では、ユーザ入力は、手のジェスチャを含む。
In one or more embodiments, the interruption of activity is detected, at least in part, based on the loss of connectivity of the augmented reality device with the network. In one or more embodiments, the transaction event is detected, at least in part, based on the explicit approval of the transaction by the user. In one or more embodiments, the transaction event is detected, at least in part, based on the heatmap associated with the user's gaze. In one or more embodiments, the transaction event is detected, at least in part, based on user input received through the augmented reality device. In one or more embodiments, the user input comprises an eye gesture. In one or more embodiments, the user input comprises a hand gesture.

1つ以上の実施形態では、バイオメトリック追跡デバイスは、眼追跡システムを備えて
いる。1つ以上の実施形態では、バイオメトリック追跡デバイスは、触知デバイスを備え
ている。1つ以上の実施形態では、バイオメトリック追跡デバイスは、ユーザの眼に関す
る生理学的データを測定するセンサを備えている。
本明細書は、例えば、以下の項目も提供する。
(項目1)
拡張現実デバイスを通して取引を実施する方法であって、前記方法は、
バイオメトリックデータをユーザから捕捉することと、
前記捕捉されたバイオメトリックデータに少なくとも部分的に基づいて、前記ユーザの識別を決定することと、
前記決定された識別に基づいて、前記取引のために前記ユーザを認証することと
を含む、方法。
(項目2)
前記取引に関するデータの組を金融機関に伝送することをさらに含む、項目1に記載の方法。
(項目3)
前記バイオメトリックデータは、虹彩パターンである、項目1に記載の方法。
(項目4)
前記バイオメトリックデータは、前記ユーザの音声記録である、項目1に記載の方法。
(項目5)
前記バイオメトリックデータは、網膜署名である、項目1に記載の方法。
(項目6)
前記バイオメトリックデータは、前記ユーザの皮膚に関連付けられた特性である、項目1に記載の方法。
(項目7)
前記バイオメトリックデータは、前記ユーザの眼の移動を捕捉する1つ以上の眼追跡カメラを通して捕捉される、項目1に記載の方法。
(項目8)
前記バイオメトリックデータは、前記ユーザの眼の移動のパターンである、項目1に記載の方法。
(項目9)
前記バイオメトリックデータは、前記ユーザの眼の瞬きパターンである、項目1に記載の方法。
(項目10)
前記拡張現実デバイスは、頭部搭載型であり、前記拡張現実デバイスは、前記ユーザのために個々に較正される、項目1に記載の方法。
(項目11)
前記バイオメトリックデータは、前記ユーザに関する所定のデータと比較される、項目1に記載の方法。
(項目12)
前記所定のデータは、前記ユーザの眼の既知の署名移動である、項目11に記載の方法。
(項目13)
前記所定のデータは、既知の虹彩パターンである、項目11に記載の方法。
(項目14)
前記所定のデータは、既知の網膜パターンである、項目11に記載の方法。
(項目15)
前記ユーザが取引を行いたいという願望を検出することと、
前記検出された願望に少なくとも部分的に基づいて、前記ユーザから前記バイオメトリックデータを要求することと、
前記バイオメトリックデータを所定のバイオメトリックデータと比較し、結果を生成することであって、前記ユーザは、前記結果に少なくとも部分的に基づいて認証される、ことと
をさらに含む、項目1に記載の方法。
(項目16)
前記取引は、商取引である、項目1に記載の方法。
(項目17)
前記ユーザの認証を前記ユーザに関連付けられた金融機関に通信することをさらに含み、前記金融機関は、前記認証に少なくとも部分的に基づいて、前記ユーザの代わりに支払を行う、項目1に記載の方法。
(項目18)
前記金融機関は、前記支払を前記ユーザによって示される1つ以上の販売業者に伝送する、項目17に記載の方法。
(項目19)
前記拡張現実デバイスに関連付けられた中断イベントまたは取引イベントを検出することと、
前記検出されたイベントに少なくとも部分的に基づいて、前記ユーザを再認証するために、新しいバイオメトリックデータを前記ユーザから捕捉することと
をさらに含む、項目1に記載の方法。
(項目20)
前記アクティビティの中断は、前記ユーザの頭部からの前記拡張現実デバイスの除去に少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目21)
前記アクティビティの中断は、前記拡張現実デバイスのネットワークとの接続性の喪失に少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目22)
前記取引イベントは、前記ユーザによる取引の明示的承認に少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目23)
前記取引イベントは、前記ユーザの注視に関連付けられたヒートマップに少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目24)
前記取引イベントは、前記拡張現実デバイスを通して受信されるユーザ入力に少なくとも部分的に基づいて、検出される、項目19に記載の方法。
(項目25)
前記ユーザ入力は、眼のジェスチャを含む、項目24に記載の方法。
(項目26)
前記ユーザ入力は、手のジェスチャを含む、項目24に記載の方法。
(項目27)
前記方法ステップを実装する手段を有するシステムとして実装される項目1−26に記載の方法。
(項目28)
前記方法ステップを実行するための実行可能コードを有するコンピュータ使用可能記憶媒体を備えているコンピュータプログラム製品として実装される項目1−26に記載の方法。
In one or more embodiments, the biometric tracking device comprises an eye tracking system. In one or more embodiments, the biometric tracking device comprises a tactile device. In one or more embodiments, the biometric tracking device comprises a sensor that measures physiological data about the user's eye.
The present specification also provides, for example, the following items.
(Item 1)
A method of conducting a transaction through an augmented reality device, said method.
Capturing biometric data from users and
Determining the identification of the user based at least in part on the captured biometric data.
A method comprising authenticating the user for the transaction based on the determined identification.
(Item 2)
The method of item 1, further comprising transmitting a set of data relating to the transaction to a financial institution.
(Item 3)
The method according to item 1, wherein the biometric data is an iris pattern.
(Item 4)
The method according to item 1, wherein the biometric data is a voice recording of the user.
(Item 5)
The method according to item 1, wherein the biometric data is a retinal signature.
(Item 6)
The method of item 1, wherein the biometric data is a property associated with the user's skin.
(Item 7)
The method of item 1, wherein the biometric data is captured through one or more eye tracking cameras that capture the movement of the user's eyes.
(Item 8)
The method according to item 1, wherein the biometric data is a pattern of eye movement of the user.
(Item 9)
The method according to item 1, wherein the biometric data is a blink pattern of the user's eyes.
(Item 10)
The method of item 1, wherein the augmented reality device is head-mounted and the augmented reality device is individually calibrated for the user.
(Item 11)
The method of item 1, wherein the biometric data is compared with predetermined data about the user.
(Item 12)
The method of item 11, wherein the predetermined data is a known signature movement of the user's eye.
(Item 13)
The method of item 11, wherein the predetermined data is a known iris pattern.
(Item 14)
The method of item 11, wherein the predetermined data is a known retinal pattern.
(Item 15)
Detecting the user's desire to make a transaction
Requesting the biometric data from the user, at least in part, based on the detected desire.
The item 1 further comprises comparing the biometric data with predetermined biometric data and generating a result, wherein the user is authenticated based on the result at least in part. the method of.
(Item 16)
The method according to item 1, wherein the transaction is a commercial transaction.
(Item 17)
The first item, wherein the user's authentication further comprises communicating the user's authentication to a financial institution associated with the user, the financial institution making payments on behalf of the user, at least in part based on the authentication. Method.
(Item 18)
17. The method of item 17, wherein the financial institution transmits the payment to one or more sellers indicated by the user.
(Item 19)
To detect interruption or transaction events associated with the augmented reality device,
The method of item 1, further comprising capturing new biometric data from the user in order to reauthenticate the user, at least in part, based on the detected event.
(Item 20)
19. The method of item 19, wherein the interruption of the activity is detected, at least in part, based on the removal of the augmented reality device from the user's head.
(Item 21)
19. The method of item 19, wherein the interruption in activity is detected, at least in part, based on the loss of connectivity of the augmented reality device with the network.
(Item 22)
19. The method of item 19, wherein the transaction event is detected, at least in part, based on the explicit approval of the transaction by the user.
(Item 23)
19. The method of item 19, wherein the transaction event is detected, at least in part, based on a heatmap associated with the user's gaze.
(Item 24)
19. The method of item 19, wherein the transaction event is detected, at least in part, based on user input received through the augmented reality device.
(Item 25)
24. The method of item 24, wherein the user input comprises an eye gesture.
(Item 26)
24. The method of item 24, wherein the user input comprises a hand gesture.
(Item 27)
The method of item 1-26, which is implemented as a system having means for implementing the method steps.
(Item 28)
The method of item 1-26, which is implemented as a computer program product comprising a computer-enabled storage medium having executable code for performing the method steps.

本発明の追加のならびに他の目的、特徴、および利点は、発明を実施するための形態、
図面、および請求項に説明される。
Additional and other purposes, features, and advantages of the invention are the embodiments for carrying out the invention.
Explained in the drawings and claims.

図面は、本発明の種々の実施形態の設計および可用性を図示する。図は、必ずしも正確
な縮尺で描かれておらず、同様の構造または機能の要素は、図全体を通して同様の参照番
号によって表されることに留意されたい。本発明の種々の実施形態の前述および他の利点
ならびに対象を得る方法をより深く理解するために、簡単に前述された発明を実施するた
めの形態が、付随の図面に図示されるその具体的実施形態を参照することによって与えら
れるであろう。これらの図面は、本発明の典型的実施形態のみを描写し、したがって、そ
の範囲の限定として見なされないことを理解した上で、本発明は、付随の図面の使用を通
して追加の具体性および詳細とともに記載ならびに説明されるであろう。
図1は、ユーザに表示されている例示的拡張現実場面を図示する。 図2A−2Dは、例示的拡張現実デバイスの種々の構成を図示する。 図2A−2Dは、例示的拡張現実デバイスの種々の構成を図示する。 図2A−2Dは、例示的拡張現実デバイスの種々の構成を図示する。 図2A−2Dは、例示的拡張現実デバイスの種々の構成を図示する。 図3は、一実施形態による、クラウド内の1つ以上のサーバと通信する拡張現実デバイスを図示する。 図4A−4Dは、特定のユーザのための拡張現実デバイスを構成するために行われる種々の眼および頭部の測定を図示する。 図5は、一実施形態による、拡張現実デバイスの種々のコンポーネントの平面図を示す。 図6は、一実施形態による、商取引を実施するための拡張現実システムのシステムアーキテクチャを示す。 図7は、拡張現実デバイスを通して商取引を実施する方法を描写する例示的フローチャートである。 図8Aおよび8Bは、一実施形態による、ユーザを識別するための例示的眼の識別方法を図示する。 図8Aおよび8Bは、一実施形態による、ユーザを識別するための例示的眼の識別方法を図示する。 図9は、一実施形態による、眼移動を使用して、ユーザを認証する方法を描写する例示的フローチャートを図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。 図10A−10Iは、拡張現実デバイスを使用して商取引を実施する例示的シナリオを描写する一連のプロセスフロー図を図示する。
The drawings illustrate the design and availability of various embodiments of the invention. Note that figures are not necessarily drawn to exact scale and elements of similar structure or function are represented by similar reference numbers throughout the figure. In order to gain a deeper understanding of the aforementioned and other advantages of the various embodiments of the present invention as well as the method of obtaining the object, embodiments for carrying out the aforementioned invention in a simple manner are illustrated in the accompanying drawings. It will be given by reference to the embodiments. With the understanding that these drawings depict only typical embodiments of the invention and are therefore not considered to be a limitation of its scope, the invention provides additional specificity and detail through the use of accompanying drawings. Will be described and explained with.
FIG. 1 illustrates an exemplary augmented reality scene displayed to the user. FIG. 2A-2D illustrates various configurations of an exemplary augmented reality device. FIG. 2A-2D illustrates various configurations of an exemplary augmented reality device. FIG. 2A-2D illustrates various configurations of an exemplary augmented reality device. FIG. 2A-2D illustrates various configurations of an exemplary augmented reality device. FIG. 3 illustrates an augmented reality device that communicates with one or more servers in the cloud, according to one embodiment. 4A-4D illustrate various eye and head measurements made to configure an augmented reality device for a particular user. FIG. 5 shows a plan view of various components of an augmented reality device according to one embodiment. FIG. 6 shows the system architecture of an augmented reality system for conducting commercial transactions according to one embodiment. FIG. 7 is an exemplary flowchart illustrating how to conduct a commercial transaction through an augmented reality device. 8A and 8B illustrate an exemplary eye identification method for identifying a user according to one embodiment. 8A and 8B illustrate an exemplary eye identification method for identifying a user according to one embodiment. FIG. 9 illustrates an exemplary flow chart illustrating a method of authenticating a user using eye movement according to one embodiment. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device. 10A-10I illustrate a series of process flow diagrams that depict an exemplary scenario of conducting a commercial transaction using an augmented reality device.

本発明の種々の実施形態は、単一実施形態または複数の実施形態における、電子回路設
計のマルチシナリオ物理認知設計を実装する方法、システム、および製造品を対象とする
。本発明の他の目的、特徴、および利点は、発明を実施するための形態、図面、および請
求項に説明される。
Various embodiments of the present invention cover methods, systems, and manufactured products that implement a multi-scenario physical cognitive design of electronic circuit design in a single embodiment or multiple embodiments. Other objects, features, and advantages of the invention are described in embodiments, drawings, and claims for carrying out the invention.

ここで、種々の実施形態が、当業者が本発明を実践することを可能にするように、本発
明の例証的実施例として提供される、図面を参照して詳細に説明されるであろう。留意す
べきこととして、以下の図および実施例は、本発明の範囲を限定することを意味するもの
ではない。本発明のある要素が、既知のコンポーネント(または方法もしくはプロセス)
を使用して部分的または完全に実装され得る場合、本発明の理解のために必要なそのよう
な既知のコンポーネント(または方法もしくはプロセス)のそれらの部分のみ、説明され
、そのような既知のコンポーネント(または方法もしくはプロセス)の他の部分の詳細な
説明は、本発明を曖昧にしないように、省略されるであろう。さらに、種々の実施形態は
、例証として本明細書に参照されるコンポーネントの現在および将来的既知の均等物を包
含する。
Here, various embodiments will be described in detail with reference to the drawings provided as exemplary embodiments of the invention to allow one of ordinary skill in the art to practice the invention. .. It should be noted that the figures and examples below do not imply limiting the scope of the invention. Some elements of the invention are known components (or methods or processes).
Only those parts of such known components (or methods or processes) necessary for the understanding of the present invention are described and such known components if they can be partially or fully implemented using. A detailed description of other parts (or methods or processes) will be omitted so as not to obscure the invention. In addition, various embodiments include current and future known equivalents of the components referenced herein by way of example.

開示されるのは、ARユーザに関連付けられたバイオメトリックデータを追跡し、バイ
オメトリックデータを利用して、商取引を補助する方法およびシステムである。1つ以上
の実施形態では、ARデバイスは、眼の識別技法(例えば、虹彩パターン、両眼離反運動
、眼の運動、錐体細胞および桿体細胞のパターン、眼移動のパターン等)を利用して、購
入のためにユーザを認証し得る。有利には、このタイプのユーザ認証は、商取引を実施す
ることにおける摩擦コストを最小化し、ユーザが、最小限の努力および/または中断を伴
って、シームレスに購入を行うことを可能にする(例えば、実店舗、オンラインストア、
広告等に応答して)。以下の開示は、主に、眼関連バイオメトリックデータに基づく認証
に焦点を当てるが、他のタイプのバイオメトリックデータも、他の実施形態では、認証目
的のために同様に使用され得ることを理解されたい。種々の実施形態は、以下に説明され
るであろうように、拡張現実(AR)システムの状況における売買を実施する新しい概念
図式について議論するが、本明細書に開示される技法は、任意の既存および/または公知
のARシステムから独立して使用され得ることを理解されたい。したがって、以下に議論
される例は、例示目的のためにすぎず、本発明は、ARシステムに限定されるものとして
読まれるべきではない。
Disclosed are methods and systems that track biometric data associated with AR users and utilize the biometric data to assist in commerce. In one or more embodiments, the AR device utilizes eye identification techniques (eg, iris pattern, binocular detachment movement, eye movement, pyramidal and rod cell patterns, eye movement patterns, etc.). Can authenticate the user for purchase. Advantageously, this type of user authentication minimizes the frictional cost of conducting a commercial transaction and allows the user to make a seamless purchase with minimal effort and / or interruption (eg). , Physical store, online store,
In response to advertisements etc.). Although the following disclosure focuses primarily on authentication based on eye-related biometric data, it is understood that other types of biometric data may also be used for authentication purposes in other embodiments. I want to be. Various embodiments discuss new conceptual schemes for conducting buying and selling in the context of augmented reality (AR) systems, as described below, but the techniques disclosed herein are optional. It should be understood that it can be used independently of existing and / or known AR systems. Therefore, the examples discussed below are for illustrative purposes only and the present invention should not be read as limited to AR systems.

図2A−2Dを参照すると、いくつかの一般的コンポーネントオプションが、図示され
る。図2A−2Dの議論が続く発明を実施するための形態の一部では、種々のシステム、
サブシステム、およびコンポーネントは、ヒトVRならびに/またはARのための高品質
かつ快適に知覚されるディスプレイシステムを提供する目的に対処するために提示される
With reference to FIG. 2A-2D, some common component options are illustrated. FIG. 2A-2D is followed by various systems, in some of the embodiments for carrying out the invention.
Subsystems, and components are presented to address the objectives of providing a high quality and comfortably perceived display system for human VR and / or AR.

図2Aに示されるように、ARシステムユーザ60は、ユーザの眼の正面に位置付けら
れるARディスプレイシステム62に結合されるフレーム64構造を装着して描写される
。スピーカ66が、描写される構成においてフレーム64に結合され、ユーザの外耳道に
隣接して位置付けられる(一実施形態では、別のスピーカ(図示せず)が、ユーザの他方
の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する)。ディスプレ
イ62は、有線導線または無線接続性等によって、ローカル処理およびデータモジュール
に動作可能に結合され68、ローカル処理およびデータモジュールは、フレーム64に固
定して取り付けられるか、図2Bの実施形態に示されるようにヘルメットまたは帽子80
に固定して取り付けられるか、ヘッドホン内に埋設されるか、図2Cの実施形態に示され
るようにリュック式構成においてユーザ60の胴体82に除去可能に取り付けられるか、
または図2Dの実施形態に示されるようにベルト結合式構成においてユーザ60の腰84
に除去可能に取り付けられる等、種々の構成において搭載され得る。
As shown in FIG. 2A, the AR system user 60 is depicted wearing a frame 64 structure coupled to an AR display system 62 located in front of the user's eyes. The speaker 66 is coupled to the frame 64 in the configured configuration and is positioned adjacent to the user's ear canal (in one embodiment, another speaker (not shown) is positioned adjacent to the user's other ear canal. And provides stereo / moldable sound control). The display 62 is operably coupled to the local processing and data module by wire or wireless connectivity, etc. 68, and the local processing and data module is fixedly attached to the frame 64 or shown in the embodiment of FIG. 2B. Helmet or hat 80
Whether it is fixedly attached to, embedded in headphones, or removably attached to the fuselage 82 of the user 60 in a backpack configuration as shown in the embodiment of FIG. 2C.
Alternatively, as shown in the embodiment of FIG. 2D, the waist 84 of the user 60 in the belt coupling type configuration.
It can be mounted in various configurations, such as being removably mounted on the.

ローカル処理およびデータモジュール70は、電力効率的プロセッサまたはコントロー
ラと、フラッシュメモリ等のデジタルメモリとを備え得、両方とも、データの処理、キャ
ッシュ、および記憶を補助するために利用され得、データは、a)画像捕捉デバイス(カ
メラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無
線デバイス、および/または、ジャイロスコープ等のフレーム64に動作可能に結合され
得る、センサから捕捉され、および/またはb)おそらく、そのような処理もしくは読み
出し後、ディスプレイ62への通過のために、遠隔処理モジュール72および/または遠
隔データリポジトリ74を使用して、取得ならびに/もしくは処理される。ローカル処理
およびデータモジュール70は、これらの遠隔モジュール(72、74)が、互いに動作
可能に結合され、ローカル処理およびデータモジュール70へのリソースとして利用可能
であるように、有線または無線通信リンク等を介して、遠隔処理モジュール72および遠
隔データリポジトリ74に動作可能に結合(76、78)され得る。
The local processing and data module 70 may include a power efficient processor or controller and a digital memory such as a flash memory, both of which may be utilized to assist in the processing, caching, and storage of the data. a) Captured from a sensor that can be operably coupled to a frame 64 such as an image capture device (camera, etc.), microphone, inertial measurement unit, accelerometer, compass, GPS unit, wireless device, and / or gyroscope. And / or b) Perhaps after such processing or reading, it is acquired and / or processed using the remote processing module 72 and / or the remote data repository 74 for passage to the display 62. The local processing and data module 70 provides a wired or wireless communication link or the like so that these remote modules (72, 74) are operably coupled to each other and available as resources to the local processing and data module 70. Via, it can be operably coupled (76, 78) to the remote processing module 72 and the remote data repository 74.

一実施形態では、遠隔処理モジュール72は、データおよび/または画像情報を分析な
らびに処理するように構成される1つ以上の比較的に高度なプロセッサまたはコントロー
ラを備え得る。一実施形態では、遠隔データリポジトリ74は、インターネットまたは「
クラウド」リソース構成内の他のネットワーキング構成を通して利用可能であり得る比較
的に大規模なデジタルデータ記憶設備を備え得る。一実施形態では、全てのデータが、ロ
ーカル処理およびデータモジュール内に記憶され、全ての計算が、そこで行われ、それは
、任意の遠隔モジュールを伴わない完全自律的使用を可能にする。
In one embodiment, the remote processing module 72 may include one or more relatively sophisticated processors or controllers configured to analyze and process data and / or image information. In one embodiment, the remote data repository 74 is the Internet or "
It may be equipped with relatively large digital data storage equipment that may be available through other networking configurations within the "cloud" resource configuration. In one embodiment, all data is stored locally and in a data module, where all calculations are done, which allows for fully autonomous use without any remote module.

図2A−2Dを参照して説明されるように、ARシステムは、ARユーザおよび周囲環
境についてのデータを収集する種々のデバイスから入力を継続的に受信する。ここで図3
を参照すると、例示的拡張現実ディスプレイデバイスの種々のコンポーネントが、説明さ
れるであろう。他の実施形態が、追加のコンポーネントを有し得ることを理解されたい。
それにもかかわらず、図3は、種々のコンポーネントおよびARデバイスによって収集さ
れ得るデータのタイプの基本概念を提供する。
As described with reference to FIGS. 2A-2D, the AR system continuously receives input from various devices that collect data about AR users and their surroundings. Here in Figure 3
The various components of an exemplary augmented reality display device will be described with reference to. It should be understood that other embodiments may have additional components.
Nevertheless, FIG. 3 provides a basic concept of the types of data that can be collected by various components and AR devices.

ここで図3を参照すると、概略は、クラウドコンピューティングアセット46とローカ
ル処理アセット(308、120)との間の協調を図示する。一実施形態では、クラウド
46アセットは、有線または無線ネットワーキング(40、42)を介して、直接、ユー
ザの頭部搭載型デバイス120またはベルト308に結合されるように構成される構造内
に格納され得るプロセッサおよびメモリ構成等のローカルコンピューティングアセット(
120、308)の一方または両方に動作可能に結合される(無線が、移動性のために好
ましく、有線は、所望され得るある高帯域幅または高データ量転送のために好ましい)。
ユーザにローカルのこれらのコンピューティングアセットは、同様に、有線および/また
は無線接続性構成44を介して、互いにも動作可能に結合され得る。一実施形態では、低
慣性および小型サイズ頭部搭載型サブシステム120を維持するために、ユーザとクラウ
ド46との間の一次転送は、ベルトベースのサブシステム308とクラウドとの間のリン
クを介し得、頭部搭載型サブシステム120は、例えば、パーソナルコンピューティング
周辺接続性用途において現在採用されているように、主に、超広帯域(「UWB」)接続
性等の無線接続性を使用して、ベルトベースのサブシステム308にデータテザリングさ
れる。クラウド46を通して、ARディスプレイシステム120は、クラウド内にホスト
された1つ以上のARサーバ110と相互作用し得る。種々のARサーバ110は、サー
バ110が互いに通信することを可能にする、通信リンク115を有し得る。
Here, with reference to FIG. 3, the schematic illustrates the coordination between the cloud computing asset 46 and the local processing asset (308, 120). In one embodiment, the cloud 46 assets are stored within a structure configured to be coupled directly to the user's head-mounted device 120 or belt 308 via wired or wireless networking (40, 42). Get local computing assets such as processor and memory configuration (
120, 308) operably coupled to one or both (radio is preferred for mobility and wired is preferred for certain high bandwidth or high data volume transfers that may be desired).
These user-local computing assets can also be operably coupled to each other via wired and / or wireless connectivity configurations 44. In one embodiment, in order to maintain a low inertia and small size head-mounted subsystem 120, the primary transfer between the user and the cloud 46 is via a link between the belt-based subsystem 308 and the cloud. Obtained, the head-mounted subsystem 120 primarily uses wireless connectivity such as ultra-wideband (“UWB”) connectivity, as currently employed in personal computing peripheral connectivity applications, for example. , Data tethered to a belt-based subsystem 308. Through the cloud 46, the AR display system 120 can interact with one or more AR servers 110 hosted in the cloud. Various AR servers 110 may have communication links 115 that allow the servers 110 to communicate with each other.

効率的ローカルおよび遠隔処理協調と、ユーザインターフェースまたはユーザ「ディス
プレイデバイス」もしくはその変形例等のユーザのための適切なディスプレイデバイスと
を用いることで、ユーザの現在の実際または仮想場所に関連するある世界の側面が、ユー
ザに転送もしくは「パス」され、効率的方式で更新され得る。言い換えると、世界のマッ
プは、部分的に、ユーザのARシステム上に常駐し、部分的に、クラウドリソース上に常
駐し得る記憶場所で継続的に更新される。マップ(パス可能世界モデルとも称される)は
、ラスタ画像、3Dおよび2Dポイント、パラメータ情報、ならびに実世界についての他
の情報を備えている大型データベースであり得る。ARユーザがその実環境(例えば、カ
メラ、センサ、IMU等を通して)についてのますます多くの情報を継続的に捕捉するに
つれて、マップは、ますます正確になる。
A world related to the user's current real or virtual location by using efficient local and remote processing coordination and the appropriate display device for the user, such as the user interface or the user "display device" or a variant thereof. Aspects can be transferred or "passed" to the user and updated in an efficient manner. In other words, the map of the world is, in part, resident on the user's AR system and, in part, continuously updated in a storage location that can be resident on cloud resources. A map (also referred to as a passable world model) can be a large database containing raster images, 3D and 2D points, parameter information, and other information about the real world. Maps become more and more accurate as AR users continuously capture more and more information about their real environment (eg, through cameras, sensors, IMUs, etc.).

本開示により関連して、図2A−2Dに説明されるものに類似するARシステムは、有
利には、ARシステムを通して追跡されたバイオメトリックデータの組に基づいて、ユー
ザを固有に識別するために使用され得るユーザの眼への固有のアクセスを提供する。ユー
ザの眼へのこの先例のないアクセスは、必然的に、種々のアプリケーションにふさわしい
もにする。ARデバイスが、ユーザが3D仮想コンテンツを知覚することを可能にするた
めに、ユーザの眼と重要な相互作用を果たし、多くの実施形態では、ユーザの眼に関連す
る種々のバイオメトリック(例えば、両眼離反運動、眼の運動、桿体細胞および錐体細胞
のパターン、眼移動のパターン等)を追跡するならば、得られた追跡データは、有利には
、以下にさらに詳細に説明されるであろうように、種々の取引のためのユーザ識別および
認証において使用され得る。
In connection with the present disclosure, an AR system similar to that described in FIGS. 2A-2D is advantageously used to uniquely identify a user based on a set of biometric data tracked through the AR system. It provides unique access to the user's eyes that can be used. This unprecedented access to the user's eyes necessarily makes it suitable for a variety of applications. The AR device plays an important interaction with the user's eye to allow the user to perceive 3D virtual content, and in many embodiments, various biometrics associated with the user's eye (eg, eg). If binocular detachment movements, eye movements, rod and pyramidal patterns, eye movement patterns, etc.) are tracked, the resulting tracking data is advantageously described in more detail below. As such, it can be used in user identification and authentication for various transactions.

ARデバイスは、典型的には、特定のユーザの頭部のために適合され、光学コンポーネ
ントは、ユーザの眼と整列させられる。これらの構成ステップは、ユーザが、頭痛、吐き
気、不快感等の任意の生理学的副作用を生じさせずに、最適拡張現実体験が提供されるこ
とを確実にするために、使用され得る。したがって、1つ以上の実施形態では、ARデバ
イスは、各個々のユーザのために構成され(物理的かつデジタルの両方で)、ユーザのた
めに較正され得る。他のシナリオでは、ARデバイスを緩く適合させることによって、種
々のユーザによって快適に使用され得る。例えば、いくつかの実施形態では、ARデバイ
スは、ユーザの眼間の距離、頭部装着型ディスプレイとユーザの眼との間の距離、ユーザ
の眼間の距離、およびユーザの額の曲率を把握する。これらの測定は全て、所与のユーザ
のための適切な頭部装着型ディスプレイシステムを提供するために使用され得る。他の実
施形態では、そのような測定値は、本願に記載される識別および認証機能を行うために必
要ではなくいこともある。
The AR device is typically adapted for a particular user's head and the optical components are aligned with the user's eyes. These configuration steps can be used to ensure that the user is provided with an optimal augmented reality experience without causing any physiological side effects such as headache, nausea, discomfort and the like. Thus, in one or more embodiments, the AR device can be configured for each individual user (both physical and digital) and calibrated for the user. In other scenarios, loosely adapted AR devices can be comfortably used by a variety of users. For example, in some embodiments, the AR device captures the distance between the user's eyes, the distance between the head-worn display and the user's eyes, the distance between the user's eyes, and the curvature of the user's forehead. do. All of these measurements can be used to provide a suitable head-worn display system for a given user. In other embodiments, such measurements may not be necessary to perform the identification and authentication functions described herein.

例えば、図4A−4Dを参照すると、ARデバイスは、各ユーザのためにカスタマイズ
され得る。ユーザの頭部形状402が、図4Aに示されるように、1つ以上の実施形態で
は、頭部搭載ARシステムを合わせるときに考慮され得る。同様に、眼用コンポーネント
404(例えば、光学、光学のための構造等)が、図4Bに示されるように、水平および
垂直の両方において、ユーザの快適性のために回転もしくは調節され得るか、またはユー
ザの快適性のために回転され得る。1つ以上の実施形態では、図4Cに示されるように、
ユーザの頭部に対して設定された頭部の回転点406が、ユーザの頭部の構造に基づいて
調節され得る。同様に、瞳孔間距離(IPD)408(すなわち、ユーザの眼間の距離)
が、図4Dに示されるように、補償され得る。
For example, referring to FIGS. 4A-4D, the AR device can be customized for each user. The user's head shape 402 may be considered when fitting the head-mounted AR system in one or more embodiments, as shown in FIG. 4A. Similarly, can the eye component 404 (eg, optics, structure for optics, etc.) be rotated or adjusted for user comfort, both horizontally and vertically, as shown in FIG. 4B. Or it can be rotated for user comfort. In one or more embodiments, as shown in FIG. 4C.
The head rotation point 406 set with respect to the user's head can be adjusted based on the structure of the user's head. Similarly, the interpupillary distance (IPD) 408 (ie, the distance between the user's eyes).
Can be compensated, as shown in FIG. 4D.

有利には、ユーザ識別および認証の状況では、頭部装着型ARデバイスのこの側面は、
システムが、ユーザの物理的特徴(例えば、眼サイズ、頭部サイズ、眼間の距離等)につ
いての測定の組と、ユーザを容易に識別し、ユーザが1つ以上の商取引を完了することを
可能するために使用され得る、他のデータとをすでに保有しているので、重要である。加
えて、ARシステムは、ARシステムが、ARシステムを使用することが承認されている
ユーザ以外の異なるARユーザによって装着されているとき、それを容易に検出可能であ
り得る。これは、ARシステムが、ユーザの眼を常に監視し、したがって、必要に応じて
、ユーザの識別を認知することを可能にする。
Advantageously, in user identification and authentication situations, this aspect of head-mounted AR devices is
The system can easily identify a user with a set of measurements for the user's physical characteristics (eg, eye size, head size, eye-to-eye distance, etc.) and allow the user to complete one or more commercial transactions. It is important because it already has other data that can be used to make it possible. In addition, the AR system may be readily detectable when the AR system is worn by a different AR user other than the user authorized to use the AR system. This allows the AR system to constantly monitor the user's eyes and therefore perceive the user's identity as needed.

ユーザ上で行われる種々の測定および較正に加え、ARデバイスは、ユーザについての
バイオメトリックデータの組を追跡するように構成され得る。例えば、システムは、眼の
移動、眼移動パターン、瞬きパターン、両眼離反運動、眼色、虹彩パターン、網膜パター
ン、疲労パラメータ、眼色の変化、焦点距離の変化、および光学拡張現実体験をユーザに
提供することにおいて使用され得る多くの他のパラメータを追跡し得る。
In addition to the various measurements and calibrations made on the user, the AR device can be configured to track a set of biometric data about the user. For example, the system provides users with eye movements, eye movement patterns, blink patterns, binocular detachment movements, eye color, iris patterns, retinal patterns, fatigue parameters, eye color changes, focal length changes, and optical augmented reality experiences. Many other parameters that can be used in doing so can be tracked.

図5を参照すると、好適なユーザディスプレイデバイス62の1つの簡略化された実施
形態が、筐体またはフレーム108によってユーザの頭部もしくは眼に搭載され得る、デ
ィスプレイレンズ106を備えているように示される。ディスプレイレンズ106は、ユ
ーザの眼20の正面において筐体108によって位置付けられ、ローカル環境からの少な
くとも一部の光の透過も可能にしながら、投影された光38を眼20の中に跳ね返し、ビ
ーム成形を促進するように構成される1つ以上の透明ミラーを備え得る。描写される実施
形態では、2つの広角マシンビジョンカメラ16が、筐体108に結合され、ユーザの周
囲の環境を撮像する。一実施形態では、これらのカメラ16は、デュアル捕捉可視光/赤
外線光カメラである。
Referring to FIG. 5, one simplified embodiment of a suitable user display device 62 is shown to include a display lens 106 that can be mounted on the user's head or eyes by a housing or frame 108. Is done. The display lens 106 is positioned by the housing 108 in front of the user's eye 20 and bounces the projected light 38 into the eye 20 to form a beam while also allowing at least a portion of the light to pass from the local environment. May include one or more transparent mirrors configured to facilitate. In the illustrated embodiment, two wide-angle machine vision cameras 16 are coupled to the housing 108 to image the environment around the user. In one embodiment, these cameras 16 are dual capture visible / infrared light cameras.

描写される実施形態はまた、示されるように、光38を眼20の中に投影するように構
成されるディスプレイミラーおよび光学を伴う一対の走査式レーザ成形波面(すなわち、
深度のため)光プロジェクタモジュール18(例えば、DLP、ファイバ走査デバイス(
FSD)、LCD等の空間光変調器)を備えている。描写される実施形態はまた、ユーザ
の眼20を追跡し、レンダリングおよびユーザ入力をサポートすることが可能であるよう
に構成される、発光ダイオード「LED」等の赤外線光源26と対にされた2つの小型赤
外線カメラ24を備えている。ディスプレイシステム62はさらに、X、Y、Z軸加速度
計能力と、磁気コンパスおよびX、Y、Z軸ジャイロスコープ能力とを備え、好ましくは
、200Hz等の比較的に高周波数でデータを提供し得るセンサアセンブリ39を特徴と
する。描写されるシステム62はまた、リアルまたは近リアルタイムユーザ頭部姿勢をカ
メラ16からの広角画像情報出力から計算するように構成され得るASIC(特定用途向
け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、および/またはA
RMプロセッサ(高度縮小命令セットマシン)等の頭部姿勢プロセッサ36を備えている
。頭部姿勢プロセッサ36は、カメラ16およびレンダリングエンジン34に動作可能に
結合される(90、92、94;例えば、有線または無線接続性を介して)。
The embodiments depicted also include a pair of scanning laser-formed corrugated surfaces with display mirrors and optics configured to project light 38 into the eye 20, as shown.
Optical projector module 18 (for depth) (eg, DLP, fiber scanning device (eg, DLP)
FSD), spatial light modulators such as LCD) are provided. The illustrated embodiment is also paired with an infrared light source 26, such as a light emitting diode "LED", configured to be capable of tracking the user's eye 20 and supporting rendering and user input. It is equipped with two small infrared cameras 24. The display system 62 further comprises X, Y, Z axis accelerometer capabilities and a magnetic compass and X, Y, Z axis gyroscope capabilities, preferably capable of providing data at relatively high frequencies such as 200 Hz. It features a sensor assembly 39. The system 62 depicted can also be configured to calculate real or near real-time user head postures from wide-angle image information output from the camera 16 ASICs (application specific integrated circuits), FPGAs (field programmable gate arrays), and the like. And / or A
It is equipped with a head posture processor 36 such as an RM processor (altitude reduction instruction set machine). The head posture processor 36 is operably coupled to the camera 16 and the rendering engine 34 (90, 92, 94; eg, via wired or wireless connectivity).

デジタルおよび/またはアナログ処理を実行し、姿勢をセンサアセンブリ39からのジ
ャイロスコープ、コンパス、ならびに/もしくは加速度計データから導出するように構成
される別のプロセッサ32も、示される。描写される実施形態はまた、姿勢および測位を
補助するためのGPS37サブシステムを特徴とする。
Another processor 32, which is configured to perform digital and / or analog processing and derive the attitude from the gyroscope, compass, and / or accelerometer data from the sensor assembly 39, is also shown. The embodiments depicted also feature a GPS37 subsystem to assist in posture and positioning.

最後に、描写される実施形態は、ユーザの世界のビューのために、ユーザのローカルの
レンダリング情報を提供し、スキャナの動作およびユーザの眼の中への結像を促進するよ
うに構成される、ソフトウェアプログラムを実行するハードウェアを特徴とし得るレンダ
リングエンジン34を備えている。レンダリングエンジン34は、レンダリングされた光
38が、網膜走査ディスプレイに類似する様式において、走査式レーザ配列18を使用し
て投影されるように、センサ姿勢プロセッサ32、画像姿勢プロセッサ36、眼追跡カメ
ラ24、および投影サブシステム18に動作可能に結合される(105、94、100/
102、104、すなわち、有線または無線接続性を介して)。投影された光ビーム38
の波面は、投影された光38の所望の焦点距離と一致するように曲げられ、または集中さ
せられ得る。
Finally, the depicted embodiment is configured to provide the user's local rendering information for a view of the user's world, facilitating scanner operation and imaging into the user's eyes. It includes a rendering engine 34 that can be characterized by hardware that executes software programs. The rendering engine 34 includes a sensor orientation processor 32, an image orientation processor 36, and an eye tracking camera 24 so that the rendered light 38 is projected using the scanning laser array 18 in a manner similar to a retinal scanning display. , And operably coupled to the projection subsystem 18 (105, 94, 100 /
102, 104, i.e. via wired or wireless connectivity). Projected light beam 38
The wave front of the light 38 can be bent or focused to match the desired focal length of the projected light 38.

小型赤外線眼追跡カメラ24は、眼を追跡し、レンダリングおよびユーザ入力をサポー
トするために利用され得る(すなわち、ユーザが見ている場所、焦点を合わせている深度
等、以下に議論されるように、両眼離反運動が、ユーザの焦点深度を推定するために利用
され得る)。GPS37、ジャイロスコープ、コンパス、および加速度計39が、大まか
な、および/または高速の姿勢推定を提供するために利用され得る。カメラ16画像およ
び姿勢データが、関連付けられたクラウドコンピューティングリソースからのデータと共
に、ローカル世界をマップし、ユーザビューを仮想または拡張現実コミュニティと共有す
るために利用され得る。
The small infrared eye tracking camera 24 can be used to track the eye and support rendering and user input (ie, where the user is looking, depth of focus, etc., as discussed below. , Binocular detachment can be used to estimate the depth of focus of the user). A GPS 37, a gyroscope, a compass, and an accelerometer 39 can be used to provide rough and / or fast attitude estimation. Camera 16 images and pose data, along with data from associated cloud computing resources, can be used to map the local world and share user views with virtual or augmented reality communities.

図5に特徴とされるディスプレイシステム62内のハードウェアの多くは、ディスプレ
イ106およびユーザの眼20に隣接する筐体108に直接結合されて描写されるが、描
写されるハードウェアコンポーネントは、例えば、図2Dに示されるように、ベルト搭載
型コンポーネント70等の他のコンポーネントに搭載されるか、またはその中に格納され
得る。
Much of the hardware in the display system 62 featured in FIG. 5 is depicted as being directly coupled to the display 106 and the housing 108 adjacent to the user's eye 20, although the hardware components depicted may be, for example, , As shown in FIG. 2D, may be mounted on or stored in other components such as the belt-mounted component 70.

一実施形態では、図5に特徴とされるシステム62のコンポーネントは全て、画像姿勢
プロセッサ36、センサ姿勢プロセッサ32、およびレンダリングエンジン34を除き、
ディスプレイ筐体108に直接結合され、後者3つとシステムの残りのコンポーネントと
の間の通信は、超広帯域等の無線通信または有線通信によって行われ得る。描写される筐
体108は、好ましくは、頭部搭載型であり、かつユーザによって装着可能である。それ
は、ユーザの耳の中に挿入され、音をユーザに提供するために利用され得るもの等、スピ
ーカも特徴とし得る。
In one embodiment, all components of the system 62 featured in FIG. 5 except the image attitude processor 36, the sensor attitude processor 32, and the rendering engine 34.
Directly coupled to the display housing 108, communication between the latter three and the remaining components of the system may be by wireless or wired communication, such as ultra-wideband. The housing 108 depicted is preferably head-mounted and can be worn by the user. It may also feature a speaker, such as one that is inserted into the user's ear and can be used to provide sound to the user.

標準的ARデバイスの主要コンポーネントが説明されたが、ARデバイスは、データを
ユーザおよびその周囲から収集するように構成される多くのコンポーネントを備え得るこ
とを理解されたい。例えば、前述のように、ARデバイスのいくつかの実施形態は、GP
S情報を収集し、ユーザの場所を決定する。他の実施形態では、ARデバイスは、赤外線
カメラを備え、ユーザの眼を追跡する。さらに他の実施形態では、ARデバイスは、視野
カメラを備え、ユーザの環境の画像を捕捉し得、それは、次に、ユーザの物理的空間のマ
ップ(図3に説明されるように、サーバ110のうちの1つ内に含まれる)を構成するた
めに使用され得、それは、システムが、図3に関して簡単に説明されるように、仮想コン
テンツを適切な実在のオブジェクトに関連してレンダリングすることを可能にする。
Although the main components of a standard AR device have been described, it should be understood that an AR device can have many components that are configured to collect data from the user and its surroundings. For example, as mentioned above, some embodiments of AR devices are GP.
S Collect information and determine the location of the user. In another embodiment, the AR device comprises an infrared camera to track the user's eyes. In yet another embodiment, the AR device comprises a field camera, which may capture an image of the user's environment, which then maps the user's physical space (as described in FIG. 3, server 110). Can be used to configure (contained within one of), which allows the system to render virtual content in relation to the appropriate real object, as briefly described with respect to FIG. To enable.

ユーザの眼20の中への光38の投影に関して、一実施形態では、小型カメラ24が、
ユーザの眼20の中心が幾何学的に近づけられる(verged)場所を測定するために
利用され得、その場所は、一般に、眼20の焦点の位置、すなわち、「焦点深度」と一致
する。眼が近づく全点の3次元表面は、「単視軌跡」と呼ばれる。焦点距離は、有限数の
深度をとることも、無限に変動することもある。両眼離反運動距離(vergence
distance)から投影される光は、対象の眼20に集中させられて現れる一方、両
眼離反運動距離の前または後ろにある光は、ぼやける。
With respect to the projection of the light 38 into the user's eye 20, in one embodiment, the small camera 24.
It can be used to measure the location where the center of the user's eye 20 is geometrically converged, which generally coincides with the position of the focus of the eye 20, i.e. the "depth of focus". The three-dimensional surface of all points that the eye approaches is called a "monoscopic locus". Focal lengths can take a finite number of depths or fluctuate infinitely. Binocular separation movement distance (vergence)
The light projected from the distance) appears concentrated in the target eye 20, while the light in front of or behind the binocular separation movement distance is blurred.

さらに、約0.7ミリメートル未満のビーム直径を伴う空間的にコヒーレントな光は、
眼が焦点を合わせる場所にかかわらず、ヒト眼によって正しく分解されることが発見され
た。この理解を前提として、適切な焦点深度の錯視を生成するために、両眼離反運動が、
小型カメラ24によって追記され得、レンダリングエンジン34および投影サブシステム
18は、単視軌跡上またはそれに近接する全オブジェクトに焦点を合わせて、かつ全他の
オブジェクトをさまざまな程度の焦点ぼけにおいて(すなわち、意図的に生成されたぼけ
を使用して)、レンダリングするために利用され得る。コヒーレント光を眼の中に投影す
るように構成されるシースルー光導波路光学要素が、Lumus,Inc.等の供給業者
によって提供され得る。好ましくは、システム62は、約60フレーム/秒以上のフレー
ムレートにおいてユーザにレンダリングする。前述のように、好ましくは、小型カメラ2
4は、眼追跡のために利用され得、ソフトウェアは、両眼離反運動幾何学形状だけではな
く、ユーザ入力としての役割を果たすための焦点場所の手掛かりも取得するように構成さ
れ得る。好ましくは、そのようなシステムは、昼間または夜間のために好適な輝度および
コントラストで構成される。
In addition, spatially coherent light with a beam diameter of less than about 0.7 mm
It was found to be properly degraded by the human eye, regardless of where the eye is focused. Given this understanding, binocular detachment movements, in order to generate an illusion of appropriate depth of focus,
Can be added by the small camera 24, the rendering engine 34 and the projection subsystem 18 focus on all objects on or near the monoscopic trajectory, and all other objects at varying degrees of defocus (ie,). It can be used to render (using intentionally generated blur). See-through optical waveguide optics configured to project coherent light into the eye are described by Lumus, Inc. Can be provided by suppliers such as. Preferably, the system 62 renders to the user at a frame rate of about 60 frames per second or higher. As mentioned above, preferably the small camera 2
4 can be utilized for eye tracking and the software can be configured to obtain not only binocular ectopic motion geometry, but also focal location clues to serve as user input. Preferably, such a system is configured with brightness and contrast suitable for daytime or nighttime.

一実施形態では、そのようなシステムは、好ましくは、視対象整列のために、約20ミ
リ秒未満の待ち時間、約0.1度未満の角度整列、および約1分の分解能を有し、それは
、ヒト眼のほぼ限界である。ディスプレイシステム62は、GPS要素、光学追跡、コン
パス、加速度計、および/または他のデータ源を伴い、位置ならびに姿勢決定を補助し得
る位置特定システムと統合され得る。位置特定情報は、関連世界のユーザのビュー内にお
ける正確なレンダリングを促進するために利用され得る(すなわち、そのような情報は、
眼鏡がそれらが実世界に対する場所を把握することを促進するであろう)。ARデバイス
の一般的コンポーネントが説明されたが、商取引を実施するためのユーザ識別および認証
に具体的に関する追加の実施形態は、以下に議論されるであろう。
In one embodiment, such a system preferably has a latency of less than about 20 milliseconds, an angular alignment of less than about 0.1 degrees, and a resolution of about 1 minute for visual object alignment. It is almost the limit of the human eye. The display system 62 may be integrated with a positioning system that may assist in positioning and orientation determination, including GPS elements, optical tracking, compasses, accelerometers, and / or other data sources. Positioning information can be used to facilitate accurate rendering within the user's view of the relevant world (ie, such information can be used.
Glasses will help them figure out where they are relative to the real world). Although the general components of an AR device have been described, additional embodiments relating to specific user identification and authentication for conducting commerce will be discussed below.

上である程度詳細に議論されたように、商取引を実施するための従来のモデルは、非効
率的かつ煩わしい傾向にあり、多くの場合、ユーザが取引に従事することを妨げる影響を
有する。例えば、あるユーザが、百貨店に居るとする。従来のモデルでは、ユーザは、百
貨店に物理的に入って行き、商品を選択し、列に並び、レジ係を待ち、支払情報および/
または身分証明書を提供し、支払を承認することが要求される。オンラインショッピング
でさえ、おそらくあまり煩雑ではないが、それなりの短所がある。ユーザは、店舗の場所
に物理的に存在する必要はなく、関心のある商品を容易に選択することができるが、支払
は、依然として、多くの場合、クレジットカード情報および認証を要求する。しかしなが
ら、ARデバイスの出現に伴って、ARデバイスが、ユーザの識別を容易に確認し、商取
引を認証することができるので、支払の従来のモデル(例えば、現金、クレジットカード
、金銭トークン等)は、不必要にされ得。
As discussed in some detail above, traditional models for conducting commerce tend to be inefficient and cumbersome, and often have the effect of preventing users from engaging in transactions. For example, suppose a user is in a department store. In the traditional model, the user physically enters the department store, selects goods, queues, waits for the cashier, payment information and /
Alternatively, you will be required to provide proof of identity and approve the payment. Even online shopping is probably less complicated, but it has its drawbacks. Although users do not have to be physically present at the store location and can easily select products of interest, payments still often require credit card information and authentication. However, with the advent of AR devices, traditional models of payment (eg cash, credit cards, monetary tokens, etc.) have become possible because AR devices can easily verify user identification and authenticate commerce. , Can be unnecessary.

例えば、ARユーザは、小売店の中をのんびりとぶらつき、商品を取り上げ得る。AR
デバイスは、ユーザの識別を確認し、ユーザが購入を欲するかどうかを確認し、単に、店
舗から出て行かせてもよい。1つ以上の実施形態では、ARデバイスは、確認された購入
に基づいて、ユーザの口座から小売店に関連付けられた口座に金額を転送するであろう金
融機関とインターフェースをとり得る。または、別の例では、ARユーザは、特定のブラ
ンドの靴の広告を見ている場合がある。ユーザは、ARデバイスを通して、ユーザが靴の
購入を欲することを示し得る。ARデバイスは、ユーザの識別を確認し、購入を認証し得
る。バックエンドでは、注文が靴のブランドの小売業者に発注され得、小売業者は、単に
、一足の所望の靴をユーザに発送し得る。前述の例によって例証されるように、ARデバ
イスは、ユーザの識別を「把握」しているので(およびARデバイスは、典型的には、全
ての個々のユーザに対して構築およびカスタマイズされる)、金融取引は、容易に認証さ
れ、それによって、売買を実施することと典型的に関連付けられた摩擦コストを大幅に削
減させる。
For example, an AR user can hang out in a retail store and pick up a product. AR
The device may confirm the user's identity, determine if the user wants to make a purchase, and simply leave the store. In one or more embodiments, the AR device may interface with a financial institution that will transfer the amount from the user's account to the account associated with the retail store based on the confirmed purchase. Alternatively, in another example, an AR user may be viewing an advertisement for a particular brand of shoes. The user may indicate through the AR device that the user wants to buy shoes. The AR device can verify the user's identity and authenticate the purchase. At the back end, the order may be placed with a shoe brand retailer, who may simply ship a pair of desired shoes to the user. As illustrated by the example above, the AR device "knows" the identity of the user (and the AR device is typically built and customized for every individual user). Financial transactions are easily authenticated, thereby significantly reducing the frictional costs typically associated with conducting a sale.

より具体的には、1つ以上の実施形態では、ARデバイスは、プライバシーおよびセキ
ュリティ目的のために、ユーザの識別試験を周期的に行い得る。上である程度詳細に議論
されたように、ARデバイスは、典型的には、各ユーザのためにカスタマイズされるが、
ユーザのこの周期的識別および認証は、特に商取引を実施する状況におけるセキュリティ
目的のために、またはARデバイスが、未知のユーザによって使用されておらず、かつク
ラウド上のARユーザの口座にリンクされていることを確実にするためのプライバシー目
的のために、必要である。本願は、ユーザ識別および認証が最重要事項である金融/商取
引のためのセキュリティを確実にするためのシステムおよび方法を説明する。同様に、こ
れらのステップは、ユーザプライバシーを確実にするためにも等しく重要である。実際、
これらの識別ステップは、ARデバイスを通して任意のパーソナル/プライベートユーザ
口座(例えば、電子メール、ソーシャルネットワーク、金融口座等)を開くことに先立っ
て使用され得る。
More specifically, in one or more embodiments, the AR device may periodically perform user identification tests for privacy and security purposes. As discussed in some detail above, AR devices are typically customized for each user,
This periodic identification and authentication of the user is for security purposes, especially in the context of conducting commercial transactions, or the AR device is not being used by an unknown user and is linked to the AR user's account in the cloud. Necessary for privacy purposes to ensure that you are there. This application describes systems and methods for ensuring security for financial / commercial transactions where user identification and authentication are paramount. Similarly, these steps are equally important to ensure user privacy. actual,
These identification steps can be used prior to opening any personal / private user account (eg, email, social networks, financial accounts, etc.) through an AR device.

本願に説明される他の実施形態は、盗難防止管理の状況において使用され得る。例えば
、ARデバイスは、ユーザを識別し、ARデバイスが盗まれていないことを確実にし得る
。ARデバイスが未知のユーザを検出する場合、ARデバイスは、ユーザについての捕捉
された情報およびARデバイスの場所をARサーバに直ちに送信し得る。または、他の実
施形態では、ARデバイスが、識別されていない人物によって使用されていることが検出
されている場合、ARデバイスは、完全にシャットダウンし、機密情報が漏出または悪用
されないように、ARデバイスのメモリ内の全コンテンツを自動的に削除し得る。これら
のセキュリティ対策は、ARデバイスがARデバイスの装着者についての多くのタイプの
情報を捕捉することが可能であるので、ARデバイスの窃盗を防止し得る。
Other embodiments described herein can be used in the context of anti-theft management. For example, an AR device can identify a user and ensure that the AR device has not been stolen. If the AR device detects an unknown user, the AR device may immediately send the captured information about the user and the location of the AR device to the AR server. Or, in other embodiments, if it is detected that the AR device is being used by an unidentified person, the AR device will shut down completely and the AR will not be leaked or misused to prevent sensitive information from being leaked or misused. All content in the device's memory can be deleted automatically. These security measures can prevent the theft of the AR device because the AR device can capture many types of information about the wearer of the AR device.

1つ以上の実施形態では、以下に説明される実施形態は、ARデバイスが、ショッピン
グロボットを遠隔操作することを可能にし得る。例えば、ARデバイスのユーザが識別さ
れると、ARデバイスは、特定の店舗またはフランチャイズ店のネットワークを通して、
ショッピングロボットに接続し、ショッピングロボットと取引を通信し得る。したがって
、ユーザは、店舗内に物理的に居ない場合でも、ARデバイスは、ユーザが認証されると
、プロキシを通して取引を実施し得る。同様に、多くの他のセキュリティおよび/または
プライバシー用途も、想定され得る。
In one or more embodiments, the embodiments described below may allow the AR device to remotely control the shopping robot. For example, once a user of an AR device is identified, the AR device will be launched through a network of specific stores or franchise stores.
It can connect to a shopping robot and communicate transactions with the shopping robot. Therefore, even if the user is not physically present in the store, the AR device can execute the transaction through the proxy once the user is authenticated. Similarly, many other security and / or privacy applications can be envisioned.

追跡されたバイオメトリックデータを通して識別を行う多くの方法がある。一実施形態
では、追跡されたバイオメトリックデータは、眼移動のパターン、虹彩パターン、両眼離
反運動情報等の眼関連バイオメトリックデータであり得る。要するに、ユーザがパスワー
ドを覚えること、またはあるタイプの識別/証明を提示することを要求するのではなく、
ARデバイスは、自動的に、追跡されたバイオメトリックデータの使用を通して識別を検
証する。ARデバイスがユーザの眼への一定アクセスを有することを前提として、追跡さ
れたデータは、ユーザの識別についての非常に正確かつ個人化された情報を提供するであ
ろうことが予期され、その情報は、固有のユーザ署名と見なされ得る。バイオメトリック
データを追跡し、追跡されたバイオメトリックデータを使用して、ユーザを認証する、異
なる方法についての詳細を掘り下げる前に、1つ以上の外部エンティティ(例えば、金融
機関、販売業者等)と相互作用するARデバイスのシステムアーキテクチャが、提供され
るであろう。
There are many ways to make an identification through tracked biometric data. In one embodiment, the tracked biometric data can be eye-related biometric data such as eye movement patterns, iris patterns, binocular detachment movement information, and the like. In short, rather than requiring the user to remember the password or present some type of identification / proof.
The AR device automatically validates the identification through the use of tracked biometric data. Given that the AR device has constant access to the user's eyes, it is expected that the tracked data will provide very accurate and personalized information about the user's identity, and that information. Can be considered a unique user signature. Track biometric data and use the tracked biometric data to authenticate users with one or more external entities (eg, financial institutions, distributors, etc.) before delving into the details of different methods. A system architecture for interacting AR devices will be provided.

ここで図6を参照すると、全体的ARシステムアーキテクチャが、図示される。ARシ
ステムアーキテクチャは、頭部装着型ARデバイス62と、ARデバイス62のローカル
処理モジュール660と、ネットワーク650と、ARサーバ612と、金融機関620
と、1つ以上の販売業者(622A、622B等)を含む。
Here, with reference to FIG. 6, the overall AR system architecture is illustrated. The AR system architecture includes a head-mounted AR device 62, a local processing module 660 of the AR device 62, a network 650, an AR server 612, and a financial institution 620.
And one or more distributors (622A, 622B, etc.).

前述のように(図5参照)、頭部装着型ARデバイス62は、多くのサブコンポーネン
トを備え、そのうちのいくつかは、ユーザおよび/またはユーザの周囲に関連付けられた
情報を捕捉ならびに/もしくは追跡するように構成される。より具体的には、1つ以上の
実施形態では、頭部装着型ARデバイス62は、1つ以上の眼追跡カメラを備え得る。眼
追跡カメラは、ユーザの眼の移動、両眼離反運動等を追跡し得る。別の実施形態では、眼
追跡カメラは、ユーザの虹彩の写真を捕捉するように構成され得る。他の実施形態では、
頭部装着型ARデバイス62は、他のバイオメトリック情報を捕捉するように構成される
、他のカメラを備え得る。例えば、関連付けられたカメラは、ユーザの眼の形状の画像を
捕捉するように構成され得る。または、別の例では、カメラ(もしくは他の追跡デバイス
)は、ユーザの睫毛に関するデータを捕捉し得る。追跡されたバイオメトリック情報(例
えば、眼のデータ、睫毛のデータ、眼形状データ、眼移動データ、頭部データ、センサデ
ータ、音声データ、指紋データ等)は、ローカル処理モジュール660に伝送され得る。
図2Dに示されるように、1つ以上の実施形態では、ローカル処理モジュール660は、
ARデバイス62のベルトパックの一部であり得る。または、他の実施形態では、ローカ
ル処理モジュールは、頭部装着型ARデバイス62の筐体の一部であり得る。
As mentioned above (see Figure 5), the head-worn AR device 62 has many sub-components, some of which capture and / or track information associated with the user and / or the user's surroundings. It is configured to do. More specifically, in one or more embodiments, the head-worn AR device 62 may include one or more eye tracking cameras. The eye tracking camera can track the movement of the user's eyes, binocular detachment movement, and the like. In another embodiment, the eye tracking camera may be configured to capture a picture of the user's iris. In other embodiments,
The head-mounted AR device 62 may include other cameras configured to capture other biometric information. For example, the associated camera may be configured to capture an image of the user's eye shape. Alternatively, in another example, the camera (or other tracking device) may capture data about the user's eyelashes. Tracked biometric information (eg, eye data, eyebrows data, eye shape data, eye movement data, head data, sensor data, voice data, fingerprint data, etc.) can be transmitted to the local processing module 660.
As shown in FIG. 2D, in one or more embodiments, the local processing module 660
It can be part of the belt pack of the AR device 62. Alternatively, in other embodiments, the local processing module may be part of the housing of the head-mounted AR device 62.

図6に示されるように、ユーザ680の頭部装着型ARデバイス62は、捕捉されたデ
ータを提供するために、ローカル処理モジュール660とインターフェースをとる。1つ
以上の実施形態では、ローカル処理モジュール660は、ARシステムが種々のコンピュ
ーティングタスクを行うことを可能にするプロセッサ664および他のコンポーネント6
52(例えば、メモリ、電源、テレメトリ回路等)を備えている。本開示の有意なことと
して、ローカル処理モジュール660はまた、識別モジュール614を備え、頭部装着型
ARデバイス62の1つ以上の追跡デバイスによって追跡された情報に基づいて、ユーザ
を識別し得る。
As shown in FIG. 6, the user 680 head-worn AR device 62 interfaces with the local processing module 660 to provide captured data. In one or more embodiments, the local processing module 660 is a processor 664 and other components 6 that allow the AR system to perform various computing tasks.
52 (for example, memory, power supply, telemetry circuit, etc.) is provided. Significantly in the present disclosure, the local processing module 660 also comprises an identification module 614, which can identify the user based on the information tracked by one or more tracking devices of the head-mounted AR device 62.

1つ以上の実施形態では、識別モジュール614は、データベース652を備え、デー
タの組を記憶し、それを用いて、ユーザを識別および/または認証する。例えば、図示さ
れる実施形態では、データベース652は、所定のデータの組および/または所定の認証
詳細もしくはパターンを記憶し得るマッピングテーブル670を備えている。1つ以上の
実施形態では、捕捉されたデータは、マッピングテーブル670に記憶される所定のデー
タと比較され、ユーザ680の識別を決定し得る。同様に、データベース652は、ユー
ザ680の識別/認証を行うことにおいて使用されることになる他のデータを備え得る。
1つ以上の実施形態では、データベース652は、以下にさらに詳細に説明されるであろ
うように、1つ以上の眼試験を記憶し、ユーザの識別を検証し得る。
In one or more embodiments, the identification module 614 comprises a database 652, stores a set of data, and uses it to identify and / or authenticate the user. For example, in the illustrated embodiment, the database 652 includes a mapping table 670 that can store a given set of data and / or a given authentication detail or pattern. In one or more embodiments, the captured data can be compared to predetermined data stored in the mapping table 670 to determine the identification of the user 680. Similarly, the database 652 may include other data that will be used in identifying / authenticating the user 680.
In one or more embodiments, the database 652 may store one or more eye tests and verify user identification, as will be described in more detail below.

1つ以上の実施形態では、ローカル処理モジュール660は、クラウドネットワーク6
50を通してARサーバ612と通信する。図6に図示されないが、ARサーバ612は
、現実的拡張現実体験をユーザ680に提供するために重要である多くのコンポーネント
/回路を備えている。概略すると、ARサーバ612は、仮想コンテンツを実世界の物理
的オブジェクトと関連してレンダリングするために、ARデバイス62のローカル処理モ
ジュール660によって頻繁に参照される、物理的世界のマップ690を備えている。し
たがって、ARサーバ612は、多数のユーザを通して捕捉された情報に基づいて構築さ
れ、実世界のますます成長するマップ690を構築する。他の実施形態では、ARサーバ
612は、第三者によって構築および維持され得る、マップ690を単にホストし得る。
In one or more embodiments, the local processing module 660 is a cloud network 6
Communicate with the AR server 612 through 50. Although not shown in FIG. 6, the AR server 612 includes many components / circuits that are important for providing a realistic augmented reality experience to the user 680. In summary, the AR server 612 comprises a physical world map 690 that is frequently referenced by the local processing module 660 of the AR device 62 to render virtual content in relation to real world physical objects. There is. Therefore, the AR server 612 is built on the information captured through a large number of users to build the ever-growing map 690 in the real world. In other embodiments, the AR server 612 may simply host the map 690, which can be built and maintained by a third party.

1つ以上の実施形態では、ARサーバ612はまた、個々のユーザの口座をホストし得
、そこに、ユーザのプライベート捕捉データが供給される。この捕捉されたデータは、1
つ以上の実施形態では、データベース654内に記憶され得る。1つ以上の実施形態では
、データベース654は、ユーザ情報610、ユーザ680についての履歴データ615
、ユーザ選好616、および他のエンティティ認証情報618を記憶し得る。実際、AR
システムの他の実施形態は、ユーザに個人的な多くの他のタイプの情報を備え得る。ユー
ザ情報610は、1つ以上の実施形態では、個人の略歴の組(例えば、氏名、年齢、性別
、住所、場所等)を含み得る。
In one or more embodiments, the AR server 612 may also host an individual user's account, to which the user's privately captured data is supplied. This captured data is 1
In one or more embodiments, it may be stored in database 654. In one or more embodiments, the database 654 contains user information 610, historical data 615 for user 680.
, User preference 616, and other entity authentication information 618 may be stored. In fact, AR
Other embodiments of the system may include many other types of information that are personal to the user. User information 610 may include a set of personal biographies (eg, name, age, gender, address, location, etc.) in one or more embodiments.

ユーザ680についての履歴データ615は、ユーザによって行われた以前の購入およ
び/または取引を指し得る。1つ以上の実施形態では、ユーザ選好616は、関心事項の
組(例えば、ショッピング、アクティビティ、旅行等)および/またはユーザについての
購入選好(例えば、アクセサリー、関心のあるブランド、ショッピングカテゴリ等)を含
み得る。1つ以上の実施形態では、ARユーザの挙動データは、システムにユーザの選好
および/または購入パターンを知らせるために使用され得る。他のエンティティ認証情報
618は、ユーザが外部口座へのアクセスが正常に認証されたことを証明するためのユー
ザの認証証明書を指し得る(例えば、銀行認証情報、種々のウェブサイトの口座認証情報
等)
1つ以上の実施形態では、ARデバイス62を通して捕捉されたデータ、過去のアクテ
ィビティを通して追跡されたデータ、ユーザに関連付けられた売買データ等が、ユーザの
挙動パターンを認識し、および/または理解するために分析され得る。これらの機能は、
1つ以上の実施形態では、プライバシーおよびセキュリティに配慮した様式において、第
三者によって行われ得る。
Historical data 615 for user 680 may refer to previous purchases and / or transactions made by the user. In one or more embodiments, the user preference 616 presents a set of interests (eg, shopping, activities, travel, etc.) and / or purchase preferences for the user (eg, accessories, brands of interest, shopping categories, etc.). Can include. In one or more embodiments, AR user behavior data can be used to inform the system of user preferences and / or purchase patterns. Other entity credentials 618 may refer to a user's credentials to prove that the user has successfully authenticated access to an external account (eg, bank credentials, account credentials for various websites). etc)
In one or more embodiments, the data captured through the AR device 62, the data tracked through past activity, the buying and selling data associated with the user, etc., to recognize and / or understand the user's behavioral patterns. Can be analyzed. These features
In one or more embodiments, it may be performed by a third party in a privacy and security-friendly manner.

データベース654はまた、ARサーバ612がユーザに特定の金融機関および/また
は第三者エンティティと通信することを可能にする他のエンティティ認証情報618を記
憶し得る。例えば、他のエンティティ認証情報618は、ユーザの銀行情報(例えば、銀
行名、口座情報等)を指し得る。この情報は、次に、金融情報、第三者エンティティ、販
売業者等と通信するために使用され得る。
Database 654 may also store other entity credentials 618 that allow the AR server 612 to communicate with a particular financial institution and / or third party entity. For example, the other entity authentication information 618 may point to the user's bank information (eg, bank name, account information, etc.). This information can then be used to communicate with financial information, third party entities, distributors, etc.

1つ以上の実施形態では、ARサーバ612は、取引を完了するために、1つ以上の金
融機関620と通信し得る。金融機関は、ユーザの金融情報を有し得る。1つ以上の実施
形態では、金融機関は、セキュリティ目的のために、ユーザの認証情報の第2の検証を行
い得る。ユーザが認証されると、ARサーバ612は、認証され、金融機関620と通信
し得る。ユーザが商品630の特定の購入のために認証される場合、金融機関620は、
ユーザが認証されると、直接、1つ以上の販売業者(622A、622B等)と通信し、
直接、金額を販売業者に伝送し得る。他の実施形態では(図示せず)、ARサーバ612
は、直接、販売業者と通信し、かつ1つ以上の購入に関するデータを通信し得る。
In one or more embodiments, the AR server 612 may communicate with one or more financial institutions 620 to complete the transaction. The financial institution may have the user's financial information. In one or more embodiments, the financial institution may perform a second verification of the user's credentials for security purposes. When the user is authenticated, the AR server 612 is authenticated and can communicate with the financial institution 620. If the user is authenticated for a particular purchase of goods 630, the financial institution 620
Once the user is authenticated, it communicates directly with one or more distributors (622A, 622B, etc.) and
The amount can be transmitted directly to the seller. In other embodiments (not shown), the AR server 612
Can communicate directly with the seller and may communicate data about one or more purchases.

いくつかの実施形態では、ユーザ680は、1つ以上の金融取引を進めるために、AR
サーバ612に接続する必要がない場合があることを理解されたい。例えば、いくつかの
実施形態では、ARデバイス62は、複数の電子商取引サイト等の「オフラインブラウジ
ング」を可能にし得、ユーザ680は、オフラインIDを通して、関心のある1つ以上の
商品を選択することが可能であり得る。金融機関620または販売業者622は、その特
定の取引のために生成される乱数発生器を有し得、それは、ARデバイス62がネットワ
ーク650に接続されると、後に検証され得る。言い換えると、ARデバイス62がAR
サーバに接続していない場合でも、システムは、取引をオフラインで確認し、次いで、追
加の情報(例えば、ランダムに生成された数字)を使用して、後に購入を有効にし得る。
これは、ARデバイス62が、ユーザが現時点でARサーバ612および/または金融機
関もしくは販売業者に接続されていない場合でも、必要な商取引に参加することを可能に
する。
In some embodiments, user 680 AR to proceed with one or more financial transactions.
It should be understood that it may not be necessary to connect to server 612. For example, in some embodiments, the AR device 62 may allow "offline browsing" of multiple e-commerce sites, etc., and the user 680 may select one or more products of interest through an offline ID. Can be possible. The financial institution 620 or distributor 622 may have a random number generator generated for that particular transaction, which can be verified later when the AR device 62 is connected to network 650. In other words, the AR device 62 is AR
Even when not connected to the server, the system may review the transaction offline and then use additional information (eg, randomly generated numbers) to later activate the purchase.
This allows the AR device 62 to participate in the required commerce even if the user is not currently connected to the AR server 612 and / or the financial institution or distributor.

1つ以上の実施形態では、販売業者(622A、622B等)は、ARデバイス62を
通して購入を行うこの新しい概念図式を可能にする、ARサーバ612および/または金
融機関620と事前に確立された関係を有し得る。前述の実施形態は、例証目的のためだ
けに提供され、他の実施形態は、より多いまたはより少ないコンポーネントを備え得るこ
とを理解されたい。
In one or more embodiments, the distributor (622A, 622B, etc.) has a pre-established relationship with the AR server 612 and / or financial institution 620 that allows for this new conceptual scheme of making purchases through the AR device 62. Can have. It should be understood that the aforementioned embodiments are provided for illustrative purposes only, and other embodiments may include more or fewer components.

ここで図7を参照すると、ARデバイス62を通して商取引を実施する例示的フローチ
ャートが、提供される。702では、取引に関する入力が、受信され得る。例えば、ユー
ザは、アイテムの購入に関心があることを明示的に示し得る(例えば、コマンド、ジェス
チャ等を通して)。他の実施形態では、ARシステムは、過去の購入、ユーザの関心等に
基づいて、購入をARユーザに提案し、ユーザからの確認を受信し得る。さらに他の実施
形態では、ARシステムは、種々の商品の「ヒートマップ」に基づいて、関心を査定し得
る。詳しく説明すると、ARデバイス62は、ユーザが見ている場所および見ている時間
を把握しているので、ARデバイス62は、ユーザの商品への関心を決定するために、ユ
ーザが種々の仮想および/または実オブジェクトを見ていた時間を決定することが可能で
あり得る。例えば、ユーザが特定のブランドの仮想広告を見ていた場合、ARデバイス6
2は、ユーザが特定の製品を見ていた時間を決定することによって、ユーザの関心を計測
し得る。1つ以上の実施形態では、ARシステムは、1人以上のユーザが特定の製品を見
ていた時間に基づいて、ヒートマップを生成し得る。ヒートマップが特定の製品への関心
を示す(例えば、特定の商品を見ていた時間量が所定の閾値時間量を超える)場合、AR
デバイス62は、製品の購入についてARユーザから確認を要求し得る。
With reference to FIG. 7, an exemplary flow chart for conducting a commercial transaction through the AR device 62 is provided. At 702, input regarding the transaction may be received. For example, a user may explicitly indicate that he or she is interested in purchasing an item (eg, through commands, gestures, etc.). In another embodiment, the AR system may propose a purchase to the AR user and receive confirmation from the user based on past purchases, user interests, and the like. In yet another embodiment, the AR system may assess interest based on a "heat map" of various products. More specifically, since the AR device 62 knows where and when the user is looking, the AR device 62 allows the user to determine various virtual and virtual interests in the product. / Or it may be possible to determine how long you have been looking at the real object. For example, if the user is looking at a virtual advertisement of a specific brand, the AR device 6
2 can measure the user's interest by determining how long the user has been looking at a particular product. In one or more embodiments, the AR system may generate a heatmap based on the amount of time one or more users have been viewing a particular product. If the heatmap shows interest in a particular product (for example, the amount of time spent looking at a particular product exceeds a given threshold amount of time), AR
The device 62 may request confirmation from the AR user regarding the purchase of the product.

704では、ARデバイス62は、ユーザ識別プロトコルを行い得る。以下にさらに詳
細に説明されるであろうように、多くのタイプのユーザ識別プロトコルがあり得る。1つ
以上の実施形態では、ARデバイス62は、ユーザが検証されるかどうかを決定するため
に、単に、眼移動に基づいて、「パスワード」を要求し得る。別の実施形態では、ARデ
バイス62は、ユーザの虹彩の写真を捕捉し、ユーザがARデバイス62(およびARデ
バイス62にリンクされた口座)の有効ユーザであるかどうかを確認し得る。別の実施形
態では、ARデバイス62は、ユーザの頭部に留まっていたARデバイス62の連続性を
監視し得る(例えば、ユーザがARデバイス62を全く除去していない場合、ユーザが同
一である可能性が高い)。1つ以上の実施形態では、ARデバイス62は、ユーザ識別プ
ロトコルに基づいて、虹彩画像を周期的に捕捉するか、またはユーザがARデバイス62
の検証されたユーザであることを確実にするために試験を周期的に行い得る。本明細書に
議論されるように、バイオメトリックデータを通してユーザを識別するための多くの方法
があり、いくつかの例示的方法は、以下にさらに説明されるであろう。
At 704, the AR device 62 may perform a user identification protocol. There can be many types of user identification protocols, as described in more detail below. In one or more embodiments, the AR device 62 may simply require a "password" based on eye movement to determine if the user is validated. In another embodiment, the AR device 62 may capture a picture of the user's iris to see if the user is a valid user of the AR device 62 (and the account linked to the AR device 62). In another embodiment, the AR device 62 may monitor the continuity of the AR device 62 that remains on the user's head (eg, if the user has not removed the AR device 62 at all, the user is the same. Probability is high). In one or more embodiments, the AR device 62 periodically captures an iris image based on a user identification protocol, or the user uses the AR device 62.
Testing can be done periodically to ensure that you are a verified user of. As discussed herein, there are many ways to identify a user through biometric data, and some exemplary methods will be further described below.

いくつかの実施形態では、識別プロトコルは、ユーザの一定の識別(例えば、眼の移動
パターン、皮膚との接触等)であり得る。他の実施形態では、識別プロトコルは、単に、
1回限りの識別であり得る(任意の識別方法を通して)。したがって、いくつかの実施形
態では、ARシステムがユーザを1回識別すると、同一ユーザは、介入イベントが(例え
ば、ユーザがARデバイス62を除去する、ネットワーク接続性の中断等)生じない限り
、識別される必要がないこともある。705では、ARデバイス62は、識別プロトコル
がバイオメトリックデータの捕捉を要求するかどうかを決定し得る。ユーザプロトコルが
、バイオメトリックデータが捕捉されることを要求する場合、ARデバイスは、バイオメ
トリックデータを捕捉し得る。そうでなければ、ARデバイス62は、非バイオメトリッ
ク捕捉識別方法を通してユーザの識別を進め得る。
In some embodiments, the identification protocol can be a constant identification of the user (eg, eye movement patterns, skin contact, etc.). In other embodiments, the identification protocol is simply
It can be a one-time identification (through any identification method). Thus, in some embodiments, once the AR system identifies a user, the same user will be identified unless an intervention event occurs (eg, the user removes the AR device 62, disrupts network connectivity, etc.). It may not need to be done. At 705, the AR device 62 may determine whether the identification protocol requires the capture of biometric data. If the user protocol requires that the biometric data be captured, the AR device may capture the biometric data. Otherwise, the AR device 62 may proceed with user identification through a non-biometric capture identification method.

706では、ユーザ識別プロトコルに基づいて、バイオメトリックデータが、捕捉され
得る。例えば、ユーザ識別プロトコルが、既知のパターンを検出するための眼の試験であ
る場合、ARデバイス62は、1つ以上の眼追跡カメラを通して、ユーザの眼の移動を追
跡し得る。捕捉された移動は、「パスワード」または署名的眼移動と相関され、ユーザが
検証されるかどうかを決定し得る。または、ユーザ識別プロトコルが虹彩捕捉である場合
、虹彩の画像が、捕捉され、ユーザの既知の画像と相関され得る。または、ARユーザが
ARデバイス62を装着する度に、虹彩捕捉もしくは眼試験が、行われ、ユーザの識別を
検証し得る。バイオメトリックデータは、いくつかの実施形態では、眼関連であり得るか
、または他のタイプのバイオメトリックデータであり得ることを理解されたい。例えば、
バイオメトリックデータは、1つ以上の実施形態では、音声であり得る。1つ以上の実施
形態では、バイオメトリックデータは、睫毛関連データもしくは眼形状データであり得る
。他のユーザからユーザを固有に識別するために使用され得る任意のタイプのバイオメト
リックデータが、使用され得る。
At 706, biometric data can be captured based on the user identification protocol. For example, if the user identification protocol is an eye test for detecting known patterns, the AR device 62 may track the movement of the user's eye through one or more eye tracking cameras. Captured movements can be correlated with "passwords" or signature eye movements to determine if the user is validated. Alternatively, if the user identification protocol is iris capture, the image of the iris can be captured and correlated with a known image of the user. Alternatively, each time the AR user wears the AR device 62, an iris capture or eye test may be performed to verify the user's identification. It should be understood that the biometric data can be eye-related or other types of biometric data in some embodiments. for example,
The biometric data can be audio in one or more embodiments. In one or more embodiments, the biometric data can be eyelash-related data or eye shape data. Any type of biometric data that can be used to uniquely identify a user from other users can be used.

708では、バイオメトリックデータが、所定のユーザ識別データと比較され、ユーザ
を識別し得る。または、ユーザ識別がバイオメトリックデータを要求しない場合、ARデ
バイス62は、例えば、ユーザがARデバイス62を外していないことを決定し、したが
って、ユーザが以前に識別されたユーザと同一であることを示し得る。ユーザが識別され
る場合、ARデバイス62は、710に進み、情報を1つ以上の金融機関に伝送する。
At 708, biometric data can be compared with predetermined user identification data to identify the user. Alternatively, if the user identification does not require biometric data, the AR device 62 determines, for example, that the user has not removed the AR device 62, and thus the user is identical to the previously identified user. Can be shown. If the user is identified, the AR device 62 proceeds to 710 and transmits the information to one or more financial institutions.

ユーザが識別されない場合、ARデバイス62は、別のユーザ識別プロトコルを行い、
またはそうでなければ、ユーザが取引を行うことを妨害し得る。ユーザが識別される場合
、所望の商品に関するデータが、710において、クラウドおよび金融機関に伝送され得
る。例えば、上の例に従って、所望の靴についての情報(例えば、製品番号、所望の数量
、ユーザについての情報、発送先住所、ユーザ口座等)が、販売業者および/または金融
機関に通信され得る。
If the user is not identified, the AR device 62 performs another user identification protocol and
Or otherwise, it can prevent the user from making a transaction. If the user is identified, data about the desired product may be transmitted to the cloud and financial institutions at 710. For example, according to the above example, information about the desired shoe (eg, product number, desired quantity, information about the user, shipping address, user account, etc.) may be communicated to the seller and / or financial institution.

712では、ARシステムは、金融機関から、支払が完了し、および/または承認され
たことの確認を受信し得る。714では、確認メッセージは、購入が完了したことを確認
するために、ユーザに表示され得る。
At 712, the AR system may receive confirmation from the financial institution that the payment has been completed and / or approved. At 714, a confirmation message may be displayed to the user to confirm that the purchase is complete.

前述のように、1つ以上の実施形態では、検証目的のために(金融取引および他の目的
のために)ユーザを識別する1つのアプローチは、ユーザ識別試験を周期的に実施するこ
とであり得る。1つ以上の実施形態では、ユーザ識別方法は、眼関連データを利用して、
ユーザ識別試験を完了し得る。ARデバイス62は、ユーザの眼の移動を継続的に追跡す
る眼追跡カメラを装備しているので、眼移動の既知のパターンが、眼試験として使用され
、ユーザを認識および/または識別し得る。例えば、パスワードは、容易にコピーまたは
窃盗され得るが、他のユーザの眼の移動もしくは他の生理学的特性を複製することは困難
であり、ARデバイス62の非承認ユーザを識別することを容易にし得る。
As mentioned above, in one or more embodiments, one approach to identifying users (for financial transactions and other purposes) for verification purposes is to perform user identification tests periodically. obtain. In one or more embodiments, the user identification method utilizes eye-related data.
The user identification test can be completed. Since the AR device 62 is equipped with an eye tracking camera that continuously tracks the movement of the user's eyes, known patterns of eye movement can be used as eye tests to recognize and / or identify the user. For example, passwords can be easily copied or stolen, but it is difficult to replicate the eye movements or other physiological properties of other users, making it easy to identify unauthorized users of the AR device 62. obtain.

1つ以上の実施形態では、ARデバイス62の設定中、システムは、ユーザの入力を用
いて、ユーザに固有の眼移動の既知のパターン(すなわち、眼パスワードに類似する)を
構成し得る。眼移動のこの既知のパターンは、ユーザ識別プロトコルが行われる度に、記
憶および相関され得る。
In one or more embodiments, during the configuration of the AR device 62, the system may use the user's input to configure a known pattern of eye movement unique to the user (ie, similar to an eye password). This known pattern of eye movement can be memorized and correlated each time a user identification protocol is performed.

ここで図8Aおよび8Bの実施形態800を参照すると、ユーザの眼804の例示的眼
パターン802が、提供される。図8Aに示されるように、ARデバイス806は、眼追
跡カメラ(図示せず)を通して、ユーザの眼の移動を追跡し、パターンと眼移動の既知の
パターン(すなわち、眼パスワード)を相関させ得る。眼移動パターンが既知のパターン
に近い場合(閾値以内)、ARデバイス806は、ユーザが取引を実施することを可能に
し得る。図8Aに示されるように、ユーザは、その眼を示されるパターンで移動させ得る
。例証目的のために、線(802)は、眼パターンを表すために描かれる。当然ながら、
実際は、線はなく、眼追跡デバイスは、単に、そのような移動を追跡し、それを所望のデ
ータフォーマットに変換するであろう。
Here, with reference to embodiment 800 of FIGS. 8A and 8B, an exemplary eye pattern 802 of the user's eye 804 is provided. As shown in FIG. 8A, the AR device 806 may track the user's eye movement through an eye tracking camera (not shown) and correlate the pattern with a known pattern of eye movement (ie, eye password). .. If the eye movement pattern is close to a known pattern (within a threshold), the AR device 806 may allow the user to make a transaction. As shown in FIG. 8A, the user can move his eyes in the pattern shown. For illustration purposes, lines (802) are drawn to represent eye patterns. Of course
In reality, there are no lines and the eye tracking device will simply track such movements and convert it to the desired data format.

1つ以上の実施形態では、追跡された眼パターンが眼移動の所定の既知のパターンと相
関するかどうかを決定するために、図8Bに示されるものに類似するグリッド904が、
利用され得る。他のそのような技法も同様に、使用され得ることを理解されたい。グリッ
ド904の使用を通して、利用可能な空間を離散化されたエリアに分割することによって
、追跡された眼パターン802が所定のパターン902に最も似ているかどうかを決定す
ることを容易にし得る。例えば、図8Bに示されるように、追跡された眼パターン802
は、多少なりとも、所定のパターン902に従う(所定のパターンに関連付けられた各グ
リッド正方形の中心を接続する太線によって示されるように)。図8Bは、グリッド90
4のかなり簡略化されたバージョンを表すが、各グリッドのサイズは、より正確な決定の
ために減少させられ得ることを理解されたい。
In one or more embodiments, a grid 904 similar to that shown in FIG. 8B is used to determine if the tracked eye pattern correlates with a predetermined known pattern of eye movement.
Can be used. It should be understood that other such techniques can be used as well. Through the use of grid 904, by dividing the available space into discretized areas, it can be facilitated to determine if the tracked eye pattern 802 is most similar to a given pattern 902. For example, as shown in FIG. 8B, the tracked eye pattern 802.
Follows a given pattern 902 in any way (as indicated by the thick lines connecting the centers of each grid square associated with a given pattern). FIG. 8B shows the grid 90.
Representing a fairly simplified version of 4, it should be understood that the size of each grid can be reduced for more accurate determination.

図示される実施形態では、追跡された眼移動が所定のグリッド正方形のエリアを対象と
する場合、パターンが、認識され得る。他の実施形態では、グリッド正方形の大部分が、
ユーザがユーザ識別試験を合格したと見なされる前に、ヒットされる必要があり得る。同
様に、他のそのような閾値が、種々の眼移動追跡プロトコルのために考案され得る。1つ
以上の実施形態では、前述と同様に、瞬きパターンも同様に、利用され得る。例えば、眼
移動パターンを利用するのではなく、眼パスワードは、一連の瞬きまたはユーザの署名を
追跡するための移動と組み合わせられた瞬きであり得る。
In the illustrated embodiment, the pattern can be recognized if the tracked eye movement targets an area of a predetermined grid square. In other embodiments, the majority of grid squares,
It may need to be hit before the user is considered to have passed the user identification test. Similarly, other such thresholds can be devised for various eye movement tracking protocols. In one or more embodiments, blink patterns can be utilized as well, as described above. For example, rather than utilizing an eye movement pattern, the eye password can be a series of blinks or blinks combined with a movement to track a user's signature.

ここで図9を参照すると、眼移動署名を検出する例示的プロセスが、説明される。90
2では、眼移動試験が、開始され得る。例えば、ARユーザは、商品を購入することを欲
することを示し得るか、またはARユーザは、ARデバイス62、806を取り外し得、
ARデバイス62、806の装着を再開し得る。別の実施形態では、眼移動試験は、セキ
ュリティ目的のために、周期的に実施され得る。
Here, with reference to FIG. 9, an exemplary process for detecting an eye movement signature is described. 90
In 2, the eye movement test can be initiated. For example, the AR user may indicate that he wants to purchase the goods, or the AR user may remove the AR devices 62,806,
The mounting of the AR devices 62 and 806 can be resumed. In another embodiment, the eye movement test may be performed cyclically for security purposes.

904では、眼移動パターンが、追跡および受信され得る。例えば、仮想ディスプレイ
画面は、「パスワード入力」命令を表示し得、それは、ユーザがその眼による既知のパタ
ーンを形成することをトリガし得る。
At 904, eye movement patterns can be tracked and received. For example, a virtual display screen may display a "password entry" command, which may trigger the user to form a known pattern with his eyes.

906では、追跡された眼移動は、特定のデータフォーマットに変換され得る。例えば
、グリッドアプローチに戻って参照すると、データは、眼移動によってヒットされたグリ
ッドの座標を示し得る。多くの他のアプローチも同様に、使用され得る。
At 906, the tracked eye movements can be transformed into a particular data format. For example, returning to the grid approach and referencing, the data may indicate the coordinates of the grid hit by eye movement. Many other approaches can be used as well.

908では、変換されたデータは、既知の署名的眼移動パターンの所定のデータと比較
され得る。910では、ARシステムは、追跡された眼移動が閾値内で所定のパターンに
一致するかどうかを決定し得る。912では、眼パターンが、閾値内で既知の眼パターン
と一致しないことが決定される場合、ユーザは、試験に不合格となり、購入を行うことを
妨害され得るか、または試験を再び受ける必要があり得る。914では、眼パターンが、
閾値内で既知の眼パターンに一致することが決定される場合、ユーザは、試験に合格し、
購入を行うことが許可され得る。
At 908, the transformed data can be compared with predetermined data of known signature eye movement patterns. At 910, the AR system can determine if the tracked eye movement matches a predetermined pattern within a threshold. In 912, if it is determined that the eye pattern does not match the known eye pattern within the threshold, the user may fail the test and be prevented from making a purchase or need to take the test again. could be. In 914, the eye pattern is
If it is determined to match a known eye pattern within the threshold, the user passes the test and
You may be allowed to make a purchase.

さらに別のアプローチでは、眼試験を実施するのではなく、ARシステムは、ARユー
ザの眼の写真を周期的に捕捉し、ユーザの眼の捕捉された画像を既知の情報と比較するこ
とによって、眼識別を行い得る。1つ以上の実施形態では、ユーザが購入を行おうとする
とき、ARデバイス62、806は、ユーザに、ユーザに提示される特定の仮想オブジェ
クトを凝視することを要求し得る。これは、ユーザの眼が静止することを可能にし、ユー
ザの眼の画像が、捕捉および比較され得る。眼の写真がユーザの眼の既知の写真と相関す
る場合、ARユーザは、購入を行うことを許可され得る。眼識別技法に関するさらなる詳
細は、弁理士整理番号ML30028.00下で「DEVICES,METHODS A
ND SYSTEMS FOR BIOMETRIC USER RECOGNITIO
N UTILIZING NEURAL NETWORKS」と題された同時係属中の出
願第62/159,593号に提供される。
In yet another approach, rather than performing an eye test, the AR system periodically captures pictures of the AR user's eyes and compares the captured images of the user's eyes with known information. Can perform eye identification. In one or more embodiments, the AR devices 62,806 may require the user to stare at a particular virtual object presented to the user when the user intends to make a purchase. This allows the user's eye to rest and images of the user's eye can be captured and compared. If the photo of the eye correlates with a known photo of the user's eye, the AR user may be allowed to make a purchase. For more details on eye identification techniques, see "DEVICES, METHODS A" under patent attorney reference number ML3002.80.
ND SYSTEMS FOR BIOMETRIC USER RECOGNITIO
Provided in a co-pending application No. 62 / 159,593 entitled "N UTILIZING NEURAL NETWORKS".

ARシステムは、概して、ユーザの眼が注視している(または「見ている」)場所およ
びユーザの眼が集中させられている場所を把握する必要があるので、この特徴は、有利に
は、識別目的のために使用され得る。したがって、種々の実施形態では、頭部搭載型ディ
スプレイ(「HMD」)コンポーネントは、ユーザの眼に関する画像情報を捕捉するため
に向けられている1つ以上のカメラを特徴とする。図5に描写されるもの等の一構成では
、ユーザの各眼は、それに集中させられたカメラとともに、閃光を眼の表面上に誘発する
ためのカメラまでの既知のオフセット距離を伴う3つ以上のLEDを(一実施形態では、
示されるように、眼の直下に)有し得る。
This feature is advantageous because the AR system generally needs to know where the user's eyes are looking (or "seeing") and where the user's eyes are focused. Can be used for identification purposes. Thus, in various embodiments, the head-mounted display (“HMD”) component features one or more cameras that are directed to capture image information about the user's eyes. In one configuration, such as those depicted in FIG. 5, each user's eye has a camera focused on it, as well as three or more with a known offset distance to the camera for inducing a flash onto the surface of the eye. LED (in one embodiment,
Can have (just below the eye) as shown.

各カメラまでの既知のオフセットを伴う、3つ以上のLEDの存在は、三角測量によっ
て、3D空間内のカメラから各閃光ポイントまでの距離を決定することを可能にする。少
なくとも3つの閃光ポイントおよび眼の略球状モデルを使用して、システムは、眼の曲率
を推測することができる。既知の3Dオフセットおよび眼に対する向きを用いて、システ
ムは、ユーザを識別するための使用のための虹彩もしくは網膜の正確な(例えば、画像)
または抽象的(例えば、勾配もしくは他の特徴)テンプレートを形成することができる。
他の実施形態では、眼内およびその上の静脈のパターン等の眼の他の特性もまた、ユーザ
を識別するために使用され得る(例えば、虹彩または網膜テンプレートとともに)。
The presence of three or more LEDs with a known offset to each camera makes it possible to determine the distance from the camera to each flash point in 3D space by triangulation. Using at least three flash points and a substantially spherical model of the eye, the system can infer the curvature of the eye. Using known 3D offsets and orientations to the eyes, the system is accurate (eg, images) of the iris or retina for use to identify the user.
Alternatively, an abstract (eg, gradient or other feature) template can be formed.
In other embodiments, other characteristics of the eye, such as patterns of veins in and above the eye, can also be used to identify the user (eg, with an iris or retinal template).

1つのアプローチでは、虹彩画像識別アプローチが、使用され得る。眼の虹彩内の筋線
維のパターンは、斑点、溝、および環を含む、各個人に対して安定した固有のパターンを
形成する。種々の虹彩特徴は、可視光撮像と比較して、赤外線または近赤外線撮像を使用
して容易に捕捉され得る。システムは、多くの異なる方法において、捕捉された虹彩特徴
を識別コードに変換することができる。目標は、眼から十分に豊富な組織構造を抽出する
ことである。収集されたデータ内の十分な自由度を用いて、システムは、固有のユーザを
理論的に識別することができる。
In one approach, the iris image identification approach can be used. The pattern of muscle fibers within the iris of the eye forms a stable and unique pattern for each individual, including spots, grooves, and rings. Various iris features can be easily captured using infrared or near-infrared imaging as compared to visible light imaging. The system can convert captured iris features into identification codes in many different ways. The goal is to extract a sufficiently abundant tissue structure from the eye. With sufficient degrees of freedom in the collected data, the system can theoretically identify a unique user.

別のアプローチでは、網膜画像識別が同様に、使用され得る。一実施形態では、HMD
は、操向可能光ファイバケーブルによって操向されるレーザスキャナによって駆動される
回折ディスプレイを備えている。この光ファイバケーブルはまた、眼の内部を視覚化し、
視覚受容体(桿体細胞および錐体細胞)ならびに血管の固有のパターンを有する網膜を撮
像するためにも利用されることができる。これらの桿体細胞および錐体細胞はまた、各個
人に固有のパターンを形成し得、各個人を固有に識別するために使用されることができる
In another approach, retinal image identification can be used as well. In one embodiment, the HMD
Features a diffractive display driven by a laser scanner steered by steerable fiber optic cables. This fiber optic cable also visualizes the inside of the eye and
It can also be used to image visual receptors (rod and pyramidal cells) as well as the retina, which has a unique pattern of blood vessels. These rod and pyramidal cells can also form patterns that are unique to each individual and can be used to uniquely identify each individual.

例えば、各人の暗および明血管のパターンは、固有であり、勾配演算子を網膜画像に適
用し、網膜の中心に中心を置かれた標準化されたグリッド内の高低遷移を計数する等の標
準的技法によって、「暗−明」コードに変換されることができる。
For example, each person's dark and clear blood vessel patterns are unique, such as applying a gradient operator to a retinal image and counting elevation transitions within a standardized grid centered on the retina. It can be converted to a "dark-bright" code by a technique.

したがって、本主題のシステムは、システムによって捕捉または検出されたユーザ特性
をシステムの承認されたユーザのための既知のベースラインユーザ特性を比較することに
よって、高度な正確度および精度を伴って、ユーザを識別するために利用され得る。
Therefore, the system of this subject, with a high degree of accuracy and accuracy, by comparing the user characteristics captured or detected by the system with the known baseline user characteristics for the approved users of the system. Can be used to identify.

さらに他の実施形態では、眼の曲率/サイズも同様に、使用され得る。例えば、この情
報は、異なるユーザの眼が、類似であるが、正確に同一ではないので、ユーザの識別を補
助し得る。他の実施形態では、一時的バイオメトリック情報が、ユーザがストレスにさら
されているときに収集され、既知のデータと相関され得る。例えば、ユーザの心拍数が、
監視され得、ユーザの眼が水の膜を産生しているかどうか、眼が近づき、一緒に焦点に集
中しているかどうか、呼吸パターン、瞬き率、脈拍数等も同様に、ユーザの識別を確認お
よび/または無効にするために使用され得る。
In yet other embodiments, the curvature / size of the eye can be used as well. For example, this information may aid in the identification of users because the eyes of different users are similar but not exactly the same. In other embodiments, transient biometric information can be collected when the user is under stress and correlated with known data. For example, the user's heart rate
Can be monitored, whether the user's eyes are producing a film of water, whether the eyes are approaching and focusing together, breathing patterns, blink rates, pulse rate, etc. also confirm the user's identification And / or can be used to disable.

さらに他の実施形態では、ユーザの識別を確認するために(例えば、誤識別が疑われる
場合)、ARシステムは、ARデバイスを通して捕捉された情報(例えば、ARデバイス
62、806の視野カメラを通して捕捉された周囲環境の画像)を相関させ、ユーザが、
GPSおよび環境のマップから導出されるような場所に相関する同じ場面を見ているかど
うかを決定し得る。例えば、ユーザが自宅に居ると考えられる場合、ARシステムは、ユ
ーザの自宅の既知のオブジェクトをユーザの視野カメラを通して見ているものと相関させ
ることによって検証し得る。
In yet another embodiment, to confirm the user's identity (eg, if misidentification is suspected), the AR system captures information through the AR device (eg, through the field camera of the AR devices 62,806). Correlate the image of the surrounding environment), and the user
It can be determined whether you are looking at the same scene that correlates to a location as derived from GPS and environmental maps. For example, if the user is considered to be at home, the AR system can verify by correlating known objects at the user's home with what they are seeing through the user's field camera.

前述のAR/ユーザ識別システムは、非常にセキュアな形態のユーザ識別を提供する。
言い換えると、システムは、比較的に高度な正確度および精度を伴って、ユーザを決定す
るために利用され得る。システムは、非常に高度な確実性を伴って、かつ継続的ベースで
(例えば、周期的監視を使用して)、ユーザを把握するために利用されることができるの
で、別個のログインを必要とせずに、種々の金融取引を可能にするために利用されること
ができる。ユーザ識別システムが非常に正確であることを確実にするための1つのアプロ
ーチは、神経ネットワークの使用を通したものであり、弁理士整理番号ML30028.
00下の同時係属中の出願第62/159,593号にさらに詳細に説明されている。
The AR / user identification system described above provides a very secure form of user identification.
In other words, the system can be utilized to determine the user with a relatively high degree of accuracy and accuracy. The system can be used to identify users with a very high degree of certainty and on a continuous basis (eg, using periodic monitoring), requiring a separate login. It can be used to enable various financial transactions without. One approach to ensuring that the user identification system is very accurate is through the use of neural networks, patent attorney reference number ML30028.
It is explained in more detail in the co-pending application No. 62 / 159,593 under 00.

ここで図10A−10Iを参照すると、取引を実施するためのバイオメトリックデータ
を使用する例示的プロセスフロー1000が、図示される。図10Aに示されるように、
ARデバイス1004を装着しているユーザ1002が、店舗の中に歩いて行く。店舗に
居る間、ユーザ1002は、購入に関心があり得る一足の靴1006が目に入り得る。
Here, with reference to FIGS. 10A-10I, an exemplary process flow 1000 using biometric data to carry out a transaction is illustrated. As shown in FIG. 10A
User 1002 wearing the AR device 1004 walks into the store. While in the store, user 1002 may see a pair of shoes 1006 that may be of interest to purchase.

ここで図10Bを参照すると、ARデバイス1004を通してユーザ1002に見える
靴の例示的ビューが、示される。ユーザの注視が一足の靴1006に集中させられている
ことを検出すると、ARデバイス1004は、一足の靴1006についての詳細(例えば
、ARデバイス1004に同期された製品カタログを通して等)をルックアップし、詳細
を仮想コンテンツ1008として表示し得る。ここで図10Cを参照すると、ARデバイ
ス1004は、仮想コンテンツ1010を表示することによって、ユーザが消費を購入す
ることを欲するかどうかを決定し得る。ユーザ1002は、任意の形態のユーザ入力(例
えば、ジェスチャ、音声、眼制御等)を通して、確認または拒否し得る。
Here, with reference to FIG. 10B, an exemplary view of the shoe visible to user 1002 through the AR device 1004 is shown. Upon detecting that the user's gaze is focused on the pair of shoes 1006, the AR device 1004 looks up details about the pair of shoes 1006 (eg, through a product catalog synchronized with the pair of shoes 1004). , Details can be displayed as virtual content 1008. With reference to FIG. 10C here, the AR device 1004 may determine whether the user wants to purchase consumption by displaying the virtual content 1010. User 1002 may confirm or reject through any form of user input (eg, gesture, voice, eye control, etc.).

ここで図10Dを参照すると、ユーザが購入を決定したと仮定すると、ARデバイス1
004は、仮想コンテンツ1012を通してパスワードを要求し得る。この時点で、図1
0Eに示されるように、ユーザ1002は、眼署名1016を生成することを始めてもよ
い。1つ以上の実施形態では、仮想グリッド1014が、ユーザに提示され、特定の様式
で眼を移動させることを補助し得る。
Referring here to FIG. 10D, assuming that the user decides to purchase, AR device 1
004 may request a password through the virtual content 1012. At this point, FIG.
As shown in 0E, user 1002 may begin to generate eye signature 1016. In one or more embodiments, the virtual grid 1014 may be presented to the user to assist in moving the eyes in a particular manner.

図10Fに示されるように、入力された署名1016は、ARシステム1004によっ
て受信され、所定の署名と比較され、ユーザが認証されたユーザであるかどうかを決定し
得る。ユーザが認証される場合、ARデバイス1004は、図10Gに示されるように、
所望の製品に関するデータをネットワーク1018を通してARサーバ1020に、販売
業者1024および金融機関1022に伝送し得る。ARサーバ1020から受信された
確認に基づいて、金融機関1022は、適切な金額を販売業者1024に伝送し得る。
As shown in FIG. 10F, the input signature 1016 may be received by the AR system 1004 and compared with a predetermined signature to determine if the user is an authenticated user. If the user is authenticated, the AR device 1004 will have the AR device 1004 as shown in FIG. 10G.
Data about the desired product can be transmitted through the network 1018 to the AR server 1020 to the distributor 1024 and the financial institution 1022. Based on the confirmation received from the AR server 1020, the financial institution 1022 may transmit the appropriate amount to the distributor 1024.

図10Hに示されるように、取引が確認されると、ARデバイス1004は、靴100
6の購入を確認する仮想コンテンツ1026を表示し得る。確認が受信されると、ユーザ
1002は、図10Iに示されるように、所望の靴1006とともに店舗から出て行き得
る。
As shown in FIG. 10H, when the transaction is confirmed, the AR device 1004 is set to the shoe 100.
Virtual content 1026 confirming the purchase of 6 may be displayed. Upon receipt of the confirmation, the user 1002 may leave the store with the desired shoe 1006, as shown in FIG. 10I.

図10A−10Iのプロセスフローは、例証目的のためだけに本明細書に提示され、限
定として読まれるべきではない、単なる例示的実施形態を表すにすぎないことを理解され
たい。多数の他の実施形態も同様に、想定され得る。例えば、1つ以上の実施形態では、
「パスワード」(例えば、図10D)を要求するのではなく、ARシステムは、ユーザに
、画面上の仮想ドットを凝視することを要求し、ユーザの眼(例えば、網膜、虹彩、眼形
状等)の画像を捕捉し得る。この画像は、次いで、ユーザの眼の既知の画像と相関され得
、ユーザの識別が、確認され得る。ユーザの識別が確認されると、ARシステムは、図1
0Gに示されるように、情報を販売業者1024および金融機関1022に伝送し得る。
同様に、多くの他の類似実施形態も、想定され得る。
It should be understood that the process flow of FIGS. 10A-10I is presented herein for illustrative purposes only and should not be read as a limitation, but merely represents an exemplary embodiment. Many other embodiments can be envisioned as well. For example, in one or more embodiments
Rather than requiring a "password" (eg, FIG. 10D), the AR system requires the user to stare at the virtual dots on the screen and the user's eyes (eg, retina, iris, eye shape, etc.). Image can be captured. This image can then be correlated with a known image of the user's eye, confirming the user's identification. Once the user's identity is confirmed, the AR system will see Figure 1.
Information can be transmitted to distributor 1024 and financial institution 1022 as shown in 0G.
Similarly, many other similar embodiments can be envisioned.

前述のように、そのような認証および支払システムは、取引を行うことを従来の支払モ
デルよりはるかに容易にすることを理解されたい。長時間かつ骨の折れる百貨店までの往
復ではなく、ショッピングは、「遊び場」的体験となり、ユーザは、単に、店舗の中に歩
いて行き、任意の数の製品を取り上げ、単に、店舗から出て行き得る。ARシステムは、
容易に追跡されるバイオメトリックデータに基づいて、単純であって、かつ邪魔にならな
い識別チェックのみを要求する一方、支払詳細の大部分を引き受ける。前述のように、識
別チェックは、いくつかの実施形態によると、購入時点で、任意のユーザアクションを要
求しない。
As mentioned above, it should be understood that such authentication and payment systems make transactions much easier than traditional payment models. Rather than a long and painstaking round trip to a department store, shopping becomes a "playground" experience, where users simply walk into the store, pick up any number of products, and simply leave the store. I can go. AR system
It undertakes most of the payment details, while requiring only simple and unobtrusive identification checks based on easily tracked biometric data. As mentioned above, the identification check does not require any user action at the time of purchase, according to some embodiments.

上で詳細に議論されたように、従来のパスワードまたはサインアップ/ログインコード
は、前述のAR/ユーザ識別システムおよび方法を使用して、個々のセキュアな取引から
排除され得る。本主題のシステムは、非常に高度な確実性を伴って、ユーザを事前に識別
/事前に認証することができる。さらに、システムは、周期的監視を使用して、ユーザの
識別を経時的に維持することができる。したがって、識別されたユーザは、そのサイトの
条項についての通知(オーバーレイされたユーザインターフェースアイテムとしてユーザ
に表示されることができる)後、任意のサイトへの瞬間アクセスを有することができる。
一実施形態では、システムは、ユーザがそのサイト上の条件を瞬時に把握するように、ユ
ーザによって事前に決定された標準的条項の組を作成し得る。サイトが本条件(例えば、
標準的条項)の組に準拠しない場合、本主題のシステムは、アクセスまたはそこでの取引
を自動的に許さないこともある。
As discussed in detail above, traditional passwords or sign-up / login codes can be excluded from individual secure transactions using the AR / user identification systems and methods described above. The system of the subject can pre-identify / pre-authenticate the user with a very high degree of certainty. In addition, the system can use periodic monitoring to maintain user identification over time. Thus, the identified user can have instant access to any site after being notified about the terms of that site (which can be displayed to the user as an overlaid user interface item).
In one embodiment, the system may create a set of standard provisions pre-determined by the user so that the user instantly understands the conditions on the site. The site is this condition (eg
If you do not comply with a set of standard provisions), the system in this subject may not automatically allow access or transactions there.

加えて、前述のAR/ユーザ識別システムは、「少額取引」を促進するために使用され
ることができる。非常に少額のデビットおよびクレジットのみをユーザの金融口座に生成
する少額取引は、典型的には、約数セントまたは1セント未満である。所与のサイト上に
おいて、本主題のシステムは、ユーザが視聴または使用したコンテンツだけではなく、そ
の時間(短いブラウジングは無料であり得るが、ある量を超えると、有料となるであろう
)も確認するように構成され得る。種々の実施形態では、ニュース記事は、1/3セント
であり得、書籍は、1ページあたり1ペニー課金され得、音楽は、1回の視聴あたり10
セントである等。別の実施形態では、広告主が、バナー広告を選択すること、またはアン
ケートを行うことに対してユーザに0.5セントを支払い得る。システムは、取引料金の
わずかなパーセンテージをサービスプロバイダに配分するように構成され得る。
In addition, the AR / user identification system described above can be used to facilitate "small transaction". Small transactions that generate only very small debits and credits in a user's financial account are typically about a few cents or less than a cent. On a given site, the system of the subject is not only the content viewed or used by the user, but also the time (short browsing can be free, but beyond a certain amount will be charged). Can be configured to confirm. In various embodiments, news articles can be 1/3 cents, books can be charged 1 penny per page, and music can be 10 per viewing.
Cent etc. In another embodiment, the advertiser may pay the user 0.5 cents for selecting a banner ad or conducting a survey. The system may be configured to allocate a small percentage of the transaction fee to the service provider.

一実施形態では、システムは、ユーザによって制御可能な専用小額取引口座を作成する
ために利用され得、小額取引に関連した資金は、集約され、所定の有意義な金額としてユ
ーザのより従来の金融口座(例えば、オンライン銀行口座)へ/から分配される。小額取
引口座は、定期的間隔(例えば、四半期毎)において、またはあるトリガに応答して(例
えば、ユーザが特定のウェブサイトにおいて数ドルを超えて費やすと)、清算または預金
され得る。
In one embodiment, the system can be used to create a dedicated small transaction account that can be controlled by the user, and the funds associated with the small transaction are aggregated and the user's more traditional financial account as a predetermined meaningful amount. Distributed to / from (eg, online bank accounts). Small trading accounts can be cleared or deposited at regular intervals (eg, quarterly) or in response to certain triggers (eg, when a user spends more than a few dollars on a particular website).

小額取引は、従来の支払概念図式では、典型的には、非実践的かつ煩雑であるが、本明
細書に説明される支払技法に説明されるように、取引がほぼ瞬時のユーザ識別および認証
を通して生じる容易性は、小額取引と典型的に関連付けられた障害の多くを除去する。こ
れは、将来的事業のための収益化の新しい手段を開拓し得る。例えば、音楽、書籍、広告
等を収益化することをより容易にし得る。ユーザは、ニュース記事に1ドルを支払うこと
を躊躇し得るが、数分の1セントのコストの記事についてはあまり躊躇しないこともある
。同様に、これらの取引(小額および高額)を実施することが有意に容易であることを前
提として、広告主および出版社等は、異なるタイプの支払スキームのためのコンテンツを
開拓する可能性がより高まり得る。したがって、ARシステムは、支払およびコンテンツ
の配信の両方を促進し、それによって、フロントエンドおよびバックエンドプロセスの両
方を比較的に簡単なものにする。
Small-value transactions are typically impractical and cumbersome in traditional payment conceptual schemes, but as described in the payment techniques described herein, transactions are near-instantaneous user identification and authentication. The ease that arises through eliminates many of the obstacles typically associated with small-value transactions. This can open up new means of monetization for future businesses. For example, it may be easier to monetize music, books, advertisements and the like. Users can hesitate to pay $ 1 for news articles, but they may not hesitate too much for articles that cost a fraction of a cent. Similarly, given that it is significantly easier to carry out these transactions (small and high), advertisers, publishers, etc. are more likely to develop content for different types of payment schemes. Can increase. Therefore, the AR system facilitates both payment and content delivery, thereby making both the front-end and back-end processes relatively simple.

本主題のシステムおよび機能性は、拡張現実に焦点を当てた企業によって提供され得る
ので、かつユーザのIDは、非常に確実かつセキュアに把握されるので、ユーザは、その
口座への瞬時のアクセス、金額、支出、支出率、ならびにその支出のグラフィカルおよび
/または地理的マップの3Dビューを提供され得る。そのようなユーザは、支出(例えば
、小額取引)をオフおよびオンにすること等、支出アクセスを瞬時に調節することを可能
にされ得る。
The system and functionality of the subject can be provided by companies focused on augmented reality, and the user's identity is so reliably and securely known that the user has instant access to that account. , Amounts, spending, spending rates, and 3D views of graphical and / or geographical maps of that spending may be provided. Such users may be able to instantly adjust spending access, such as turning spending (eg, small transactions) off and on.

高額支出(すなわち、数ペニーまたはペニーの割合ではなく、数ドルの金額)のために
、種々の実施形態が、本主題のシステム構成を用いて促進され得る。
Due to high expenditures (ie, a few penny or a few dollars, not a percentage of penny), various embodiments may be facilitated using the system configuration of the subject.

ユーザは、システムを使用して、その追跡された場所またはユーザ選択されたマップ場
所への配達のために、生鮮食料品を注文し得る。システムはまた、配達が到着する時間を
ユーザに通知することができる(例えば、ARシステム内に行われている配達のビデオを
表示することによって)。ARテレプレゼンスを用いて、ユーザは、その自宅から離れた
オフィスに物理的に位置するが、配達員がその自宅に入らせ、アバタテレプレゼンスによ
って配達員に対して出現し、配達員が製品を配達したことを見届け、次いで、配達員が退
出したことを確認し、アバタテレプレゼンスによってその自宅のドアを施錠することがで
きる。
The user may use the system to order perishables for delivery to its tracked location or user-selected map location. The system can also notify the user when a delivery will arrive (eg, by displaying a video of the delivery taking place within the AR system). With AR telepresence, a user is physically located in an office away from their home, but a courier enters the home, appears to the courier by avatar telepresence, and the courier delivers the product. You can see the delivery, then confirm that the courier has left, and lock the door of your home with avatar telepresence.

随意に、システムは、ユーザ製品選好を記憶し、ユーザに、ユーザの好ましい製品に関
連するセールまたは他のプロモーションをアラートし得る。これらの高額支出実施形態に
関して、ユーザは、その口座概要、その口座の全統計、および購買パターンを確認し、そ
れによって、その注文を行う前に、買物の比較を促進することができる。
Optionally, the system may memorize the user's product preferences and alert the user to a sale or other promotion related to the user's preferred product. For these high spending embodiments, the user can review the account overview, all statistics for the account, and purchasing patterns, thereby facilitating a shopping comparison before placing the order.

システムは、眼を追跡するために利用され得るので、「一瞥」による買物を可能にする
こともできる。例えば、ユーザが、オブジェクト(例えば、ホテル内のローブ)を見て、
「口座の金額が$3,000を超えたらこれが欲しい」と言ったとする。システムは、特
定の条件(例えば、口座残高が$3,000を上回る)が満たされると、購入を実行する
であろう。
Since the system can be used to track the eyes, it can also allow "at a glance" shopping. For example, a user looks at an object (eg, a robe in a hotel) and
Suppose you say, "I want this if the amount in my account exceeds $ 3,000." The system will make a purchase when certain conditions (eg, the account balance exceeds $ 3,000) are met.

前述のように、1つ以上の実施形態では、虹彩および/もしくは網膜署名データは、通
信をセキュアにするために使用され得る。そのような実施形態では、本主題のシステムは
、テキスト、画像、およびコンテンツが、ユーザが1つ以上の動的に測定された虹彩なら
びに/もしくは網膜署名に基づいて認証されることができるときのみアクセスを可能にす
る信頼されたセキュアなハードウェアデバイスに選択的に伝送可能であり、かつその上で
表示可能であることを可能にするように構成され得る。ARシステムディスプレイデバイ
スは、直接ユーザの網膜上に投影するので、意図される受信者(虹彩および/または網膜
署名によって識別される)のみが、保護されたコンテンツを視聴可能となり得、さらに、
視聴デバイスがユーザ眼を能動的に監視するので、動的に読み取られた虹彩および/また
は網膜署名が、コンテンツがユーザの眼に実際に提示されたことの証明として記録され得
る(例えば、おそらく、眼移動の要求されるシーケンスを実行する等、検証アクションに
よって遂行される、デジタル受信の形態として)。
As mentioned above, in one or more embodiments, the iris and / or retinal signature data can be used to secure communication. In such embodiments, the system of the subject only allows the user to authenticate based on one or more dynamically measured iris and / or retinal signatures. It may be configured to allow it to be selectively transmittable and viewable on a trusted secure hardware device that allows access. Since the AR system display device projects directly onto the user's retina, only the intended recipient (identified by the iris and / or retina signature) may be able to view the protected content, and in addition.
As the viewing device actively monitors the user's eye, the dynamically read iris and / or retinal signature can be recorded as proof that the content was actually presented to the user's eye (eg, perhaps). As a form of digital reception performed by verification actions, such as performing a sequence that requires eye movement).

スプーフィング検出は、予期される自然変動のモデルに基づいて、網膜画像の以前の記
録、静的または2D網膜画像、生成された画像等を使用した試みを排除し得る。固有の基
準/ウォーターマークが、網膜上に生成および投影され、監査のための固有の網膜署名を
生成し得る。
Spoofing detection can rule out attempts using previous recordings of retinal images, static or 2D retinal images, generated images, etc., based on a model of expected natural variation. Unique criteria / watermarks can be generated and projected onto the retina to generate unique retinal signatures for auditing.

前述の金融および通信システムは、より正確かつ精密なユーザ識別から利益を享受し得
る、種々の一般的システムの例として提供される。故に、本明細書に説明されるAR/ユ
ーザ識別システムの使用は、開示される金融および通信システムに限定されず、むしろ、
ユーザ識別を要求する任意のシステムに適用可能である。
The financial and communication systems described above are provided as examples of various general systems that can benefit from more accurate and precise user identification. Therefore, the use of AR / user identification systems as described herein is not limited to the disclosed financial and communication systems, but rather rather.
Applicable to any system that requires user identification.

本発明の種々の例示的実施形態が、本明細書で説明される。非限定的な意味で、これら
の例が参照される。それらは、本発明のより広くて適用可能な側面を例証するように提供
される。種々の変更が、説明される本発明に行われ得、本発明の真の精神および範囲から
逸脱することなく、同等物が置換され得る。加えて、特定の状況、材料、物質組成、プロ
セス、プロセス行為、またはステップを本発明の目的、精神、もしくは範囲に適合させる
ように、多くの修正が行われ得る。さらに、当業者によって理解されるように、本明細書
で説明および例証される個々の変形例のそれぞれは、本発明の範囲または精神から逸脱す
ることなく、他のいくつかの実施形態のうちのいずれかの特徴から容易に分離され、また
はそれらと組み合わせられ得る、個別的なコンポーネントおよび特徴を有する。全てのそ
のような修正は、本開示に関連付けられる請求項の範囲内にあることを目的としている。
Various exemplary embodiments of the invention are described herein. In a non-limiting sense, these examples are referred to. They are provided to illustrate the broader and applicable aspects of the invention. Various modifications can be made to the invention described and equivalents can be replaced without departing from the true spirit and scope of the invention. In addition, many modifications can be made to adapt a particular situation, material, material composition, process, process action, or step to the object, spirit, or scope of the invention. Moreover, as will be appreciated by those skilled in the art, each of the individual variants described and illustrated herein will be of some other embodiment without departing from the scope or spirit of the invention. It has individual components and features that can be easily separated from or combined with any of the features. All such amendments are intended to be within the claims associated with this disclosure.

本発明は、主題デバイスを使用して行われ得る方法を含む。方法は、そのような好適な
デバイスを提供するという行為を含み得る。そのような提供は、エンドユーザによって行
われ得る。換言すれば、「提供する」行為は、単に、エンドユーザが、主題方法において
必須デバイスを提供するように、取得し、アクセスし、接近し、位置付けし、設定し、起
動し、電源を入れ、または別様に作用することを要求する。本明細書で記載される方法は
、論理的に可能である記載された事象の任意の順序で、ならびに事象の記載された順序で
実行され得る。
The present invention includes methods that can be performed using the subject device. The method may include the act of providing such a suitable device. Such provision may be made by the end user. In other words, the act of "providing" simply acquires, accesses, approaches, positions, configures, launches, powers on, and provides the end user with the essential device in the subject method. Or require it to act differently. The methods described herein can be performed in any order in which the events are described, which is logically possible, and in the order in which the events are described.

本発明の例示的側面が、材料選択および製造に関する詳細とともに、上で記載されてい
る。本発明の他の詳細に関しては、これらは、上で参照された特許および出版物と関連し
て理解されるとともに、概して、当業者によって公知である、または理解され得る。一般
的または論理的に採用されるような追加の行為の観点から、本発明の方法ベースの側面に
関して、同じことが当てはまり得る。
Illustrative aspects of the invention are described above, along with details regarding material selection and manufacture. With respect to other details of the invention, they are understood in connection with the patents and publications referenced above, and are generally known or can be understood by those skilled in the art. The same may be true with respect to the method-based aspects of the invention in terms of additional actions that are generally or logically adopted.

加えて、本発明は、種々の特徴を随意的に組み込むいくつかの例を参照して説明されて
いるが、本発明は、本発明の各変形例に関して考慮されるような説明および指示されるも
のに限定されるものではない。種々の変更が、説明される本発明に行われてもよく、本発
明の真の精神および範囲から逸脱することなく、同等物(本明細書に記載されようと、い
くらか簡単にするために含まれていなかろうと)が置換され得る。加えて、値の範囲が提
供される場合、その範囲の上限と下限との間の全ての介在値、およびその規定範囲内の任
意の他の規定または介在値が、本発明内に包含されることを理解されたい。
In addition, while the invention is described with reference to some examples that optionally incorporate various features, the invention is described and directed as considered for each variant of the invention. It is not limited to things. Various modifications may be made to the invention described and are included for some simplification, as described herein, without departing from the true spirit and scope of the invention. (Whether or not) can be replaced. In addition, if a range of values is provided, all intervening values between the upper and lower bounds of the range, and any other provisions or intervening values within that defined range, are included within the invention. Please understand that.

また、説明される本発明の変形例の任意の随意的な特徴が、独立して、または本明細書
で説明される特徴のうちのいずれか1つ以上のものと組み合わせて、記載および請求され
得ることが考慮される。単数形のアイテムへの参照は、複数形の同一のアイテムが存在す
るという可能性を含む。より具体的には、本明細書で、および本明細書に関連付けられる
請求項で使用されるように、「1つの(「a」、「an」)」、「該(said)」、お
よび「the(the)」という単数形は、特に規定がない限り、複数形の指示参照を含
む。換言すれば、冠詞の使用は、上記の説明ならびに本開示に関連付けられる請求項にお
いて、主題アイテムの「少なくとも1つ」を可能にする。さらに、そのような請求項は、
任意の随意的な要素を除外するように起草され得ることに留意されたい。したがって、こ
の記述は、請求項の要素の記載と関連して、「単に」、「のみ」、および同等物等の排他
的用語の使用、または「否定的」制限の使用のために、先行詞としての機能を果たすこと
を目的としている。
Also, any optional features of the embodiments of the invention described are described and claimed independently or in combination with any one or more of the features described herein. To get is considered. References to singular items include the possibility that the same plural item exists. More specifically, as used herein and in the claims associated with this specification, "one (" a "," an ")", "said", and " The singular form "the (the)" includes plural directive references unless otherwise specified. In other words, the use of articles allows for "at least one" subject item in the above description as well as in the claims associated with the present disclosure. Moreover, such claims are
Note that it can be drafted to exclude any voluntary elements. Therefore, this statement is antecedent for the use of exclusive terms such as "simply", "only", and equivalents, or the use of "negative" restrictions in connection with the description of the elements of the claim. The purpose is to fulfill the function as.

そのような排他的用語を使用することなく、本開示に関連付けられる請求項での「備え
ている」という用語は、所与の数の要素がそのような請求項で列挙されるか、または特徴
の追加をそのような請求項に記載される要素の性質の変換として見なすことができるかに
かかわらず、任意の追加の要素を含むことを可能にするものとする。本明細書で具体的に
定義される場合を除いて、本明細書で使用される全ての技術および科学用語は、請求項の
有効性を維持しながら、可能な限り広い一般的に理解されている意味を与えられるもので
ある。
Without using such exclusive terms, the term "equipped" in the claims associated with this disclosure is such that a given number of elements are listed or featured in such claims. It shall be possible to include any additional elements, regardless of whether the addition of may be considered as a transformation of the nature of the elements described in such claims. Except as specifically defined herein, all technical and scientific terms used herein are generally understood as broadly as possible while maintaining the validity of the claims. It is given the meaning of being.

本発明の範疇は、提供される実施例および/または主題の明細書に限定されるものでは
なく、むしろ、本開示に関連付けられる請求項の言葉の範囲のみによって限定されるもの
である。
The scope of the present invention is not limited to the specification of the examples and / or the subject matter provided, but rather to the scope of the claims associated with the present disclosure.

Claims (48)

拡張現実(AR)デバイスとローカル処理モジュールとを含むARシステムを通して取引を開始する方法であって、前記方法は、A method of initiating a transaction through an AR system that includes an augmented reality (AR) device and a local processing module.
前記ARデバイスを装着しているユーザの眼関連バイオメトリックデータを捕捉することであって、前記眼関連バイオメトリックデータは、前記ARデバイスのコンポーネントであり、かつ前記眼関連バイオメトリックデータを追跡するために協働的に動作可能である、少なくとも1つの光源および少なくとも1つのカメラを使用して捕捉される、ことと、To capture eye-related biometric data of a user wearing the AR device, the eye-related biometric data is a component of the AR device and to track the eye-related biometric data. Captured using at least one light source and at least one camera that can work cooperatively with
前記ユーザの注視の方向にある実世界オブジェクトを識別することに応答して、前記ローカル処理モジュールによって、前記ローカル処理モジュールが眼移動ベースのユーザ識別プロトコルを実行することによる眼関連バイオメトリックデータの分析に少なくとも部分的に基づいて、前記ユーザの識別を決定することであって、前記注視は、前記少なくとも1つのカメラによって収集され、かつ前記ローカル処理モジュールによって分析されるデータに基づいて決定され、前記眼移動ベースのユーザ識別プロトコルは、Analysis of eye-related biometric data by the local processing module by the local processing module executing an eye movement-based user identification protocol in response to identifying a real-world object in the direction of the user's gaze. The gaze is determined based on data collected by the at least one camera and analyzed by the local processing module, at least in part, to determine the identification of the user. Eye movement-based user identification protocols
所定の眼署名移動パターンに従って前記ユーザの注視を移動させることによって眼移動ベースのパスワードを仮想的に描くように前記ユーザに促す命令を表示することであって、前記所定の眼署名移動パターンは、前記ユーザに固有であり、前記ユーザの注視の方向にある実世界オブジェクトと、命令を表示することとを識別する前に決定され、命令を表示することの一部として前記ユーザに表示されない、ことと、The predetermined eye signature movement pattern is to display an instruction prompting the user to virtually draw an eye movement-based password by moving the user's gaze according to a predetermined eye signature movement pattern. A real-world object that is unique to the user and in the direction of the user's gaze, determined before identifying the display of the instruction, and not displayed to the user as part of displaying the instruction. When,
前記表示された命令に応答して前記ユーザが前記ユーザの注視を移動させることによって、前記ユーザの非線形かつ多方向の眼移動を追跡することであって、非線形かつ多方向の仮想線は、前記表示された命令に応答して前記ユーザが前記ユーザの注視を移動させることによって仮想的に描かれる前記ユーザの眼移動パターンを表し、前記追跡された非線形かつ多方向の眼移動は、前記ARデバイスが前記ユーザの頭部に装着されている間に前記ARデバイスの少なくとも1つのカメラを通して捕捉される、こととThe user tracks the user's non-linear and multi-directional eye movements by moving the user's gaze in response to the displayed command, wherein the non-linear and multi-directional virtual line is the said. The user represents the user's eye movement pattern that is virtually drawn by the user moving the user's gaze in response to the displayed command, and the tracked non-linear and multidirectional eye movement is the AR device. Is captured through at least one camera of the AR device while being worn on the user's head.
を含む、ことと、Including, and
前記追跡された非線形かつ多方向の眼移動に基づいて前記ユーザによって仮想的に描かれる前記ユーザの眼移動パターンを表す前記非線形かつ多方向の仮想線を前記所定の眼署名移動パターンと比較することと、Comparing the non-linear and multi-directional virtual line representing the user's eye movement pattern virtually drawn by the user based on the tracked non-linear and multi-directional eye movement with the predetermined eye signature movement pattern. When,
前記所定の眼署名移動パターンの所定の閾値内にある前記非線形かつ多方向の仮想線に基づいて、前記非線形かつ多方向の仮想線が前記所定の眼署名移動パターンに対応することを決定することと、Determining that the non-linear and multi-directional virtual line corresponds to the predetermined eye signature movement pattern based on the non-linear and multi-directional virtual line within a predetermined threshold of the predetermined eye signature movement pattern. When,
前記非線形かつ多方向の仮想線が前記所定の眼署名移動パターンに対応することを決定することに応答して、前記ローカル処理モジュールによって、前記オブジェクトを購入するための取引を開始するために通信を伝送することであって、前記通信は、少なくとも1つのネットワークを通して、前記決定された識別に基づいて前記取引のために前記ユーザを認証する遠隔サーバに伝送される、こととIn response to determining that the non-linear and multi-directional virtual line corresponds to the predetermined eye signature movement pattern, the local processing module communicates to initiate a transaction to purchase the object. To transmit, the communication is transmitted through at least one network to a remote server that authenticates the user for the transaction based on the determined identification.
を含む、方法。Including methods.
前記遠隔サーバが、第2のネットワークを通して前記取引に関するデータの組を金融機関のコンピュータに伝送することをさらに含む、請求項1に記載の方法。The method of claim 1, wherein the remote server further comprises transmitting a set of data relating to the transaction through a second network to a computer of a financial institution. 前記眼関連バイオメトリックデータは、前記ARデバイスの前記ユーザの眼の虹彩パターンをさらに含む、請求項1に記載の方法。The method of claim 1, wherein the eye-related biometric data further comprises an iris pattern of the user's eye on the AR device. 前記ARデバイスのスピーカによって、前記ユーザの音声記録を含むバイオメトリックデータを捕捉することをさらに含む、請求項1に記載の方法。The method of claim 1, further comprising capturing biometric data, including voice recordings of the user, by the speaker of the AR device. 前記眼関連バイオメトリックデータは、前記ARデバイスの前記ユーザの眼の網膜署名をさらに含む、請求項1に記載の方法。The method of claim 1, wherein the eye-related biometric data further comprises a retinal signature of the user's eye on the AR device. 前記ARデバイスによって、前記ユーザの皮膚に関連付けられた特性を含むバイオメトリックデータを捕捉することをさらに含む、請求項1に記載の方法。The method of claim 1, further comprising capturing biometric data, including properties associated with the user's skin, with the AR device. 前記眼関連バイオメトリックデータは、前記ユーザの眼の瞬きパターンをさらに含む、請求項1に記載の方法。The method of claim 1, wherein the eye-related biometric data further comprises a blink pattern of the user's eyes. 前記ARデバイスは、前記ユーザの頭部および眼に対して個々に較正される、請求項1に記載の方法。The method of claim 1, wherein the AR device is individually calibrated to the user's head and eyes. 前記ユーザの前記識別を決定することは、さらに、既知の虹彩パターンに少なくとも部分的に基づいている、請求項1に記載の方法。The method of claim 1, wherein determining the identification of the user is at least partially based on a known iris pattern. 前記ユーザの前記識別を決定することは、さらに、既知の網膜パターンに少なくとも部分的に基づいている、請求項1に記載の方法。The method of claim 1, wherein determining the identification of the user is at least partially based on a known retinal pattern. 開始される前記取引は、商取引である、請求項1に記載の方法。The method according to claim 1, wherein the transaction to be started is a commercial transaction. 前記遠隔サーバが、前記ユーザの認証を前記ユーザに関連付けられた金融機関のコンピュータに通信することをさらに含み、前記金融機関の前記コンピュータは、前記遠隔サーバから受信された前記認証に少なくとも部分的に基づいて、前記ユーザの代わりに支払を行う、請求項1に記載の方法。The remote server further comprises communicating the user's authentication to the computer of the financial institution associated with the user, the computer of the financial institution at least partially to the authentication received from the remote server. The method of claim 1, wherein payment is made on behalf of the user based on. 前記金融機関の前記コンピュータは、前記支払を前記ユーザによって示される1つ以上の販売業者のコンピュータに伝送する、請求項12に記載の方法。12. The method of claim 12, wherein the computer of the financial institution transmits the payment to the computer of one or more sellers indicated by the user. 前記ローカル処理モジュールが、前記ARデバイスに関連付けられた中断イベントを検出することと、When the local processing module detects an interruption event associated with the AR device,
前記ARデバイスが、新しいバイオメトリックデータを、前記検出された中断イベントおよび前記新しいバイオメトリックデータに少なくとも部分的に基づいて前記ユーザを再認証するために、前記ユーザから捕捉することとThe AR device captures new biometric data from the user in order to reauthenticate the user based on the detected interruption event and the new biometric data at least in part.
をさらに含む、請求項1に記載の方法。The method according to claim 1, further comprising.
前記中断イベントは、前記ローカル処理モジュールによって、前記ユーザの頭部からの前記ARデバイスの除去に少なくとも部分的に基づいて、検出される、請求項14に記載の方法。14. The method of claim 14, wherein the interruption event is detected by the local processing module, at least partially based on the removal of the AR device from the user's head. 前記中断イベントは、前記ローカル処理モジュールによって、前記ARデバイスのネットワークとの接続性の喪失に少なくとも部分的に基づいて、検出される、請求項14に記載の方法。14. The method of claim 14, wherein the interruption event is detected by the local processing module, at least in part, based on the loss of connectivity of the AR device to the network. 前記ユーザの前記注視は、前記ローカル処理モジュールによって、前記ARデバイスを通して提示された前記実世界オブジェクトにおける前記ユーザの注視に関連付けられたヒートマップに少なくとも部分的に基づいて、検出される、請求項1に記載の方法。The user's gaze is detected by the local processing module, at least in part, based on a heatmap associated with the user's gaze in the real-world object presented through the AR device. The method described in. 前記ユーザが前記ユーザの注視を移動させることによって仮想的に描かれる前記ユーザパターンから生じる前記ユーザの眼移動パターンを表す前記非線形かつ多方向の仮想線は、複数の線形区分を備える、請求項1記載の方法。1. The non-linear and multi-directional virtual line representing the user's eye movement pattern resulting from the user pattern virtually drawn by the user moving the user's gaze comprises a plurality of linear sections. The method described. 前記非線形かつ多方向の仮想線は、前記所定の眼署名移動パターンの対応する線形区分の所定の閾値内にある前記非線形かつ多方向の仮想線の非線形区分に基づいて前記所定の眼署名移動パターンに対応するように決定される、請求項18に記載の方法。The non-linear and multi-directional virtual line is based on the non-linear division of the non-linear and multi-directional virtual line within a predetermined threshold of the corresponding linear division of the predetermined eye signature movement pattern. 18. The method of claim 18, which is determined to correspond to. 前記ユーザの前記注視の方向にある前記実世界オブジェクトの表示の間に、前記命令は、表示され、前記ユーザの非線形かつ多方向の眼移動は、追跡される、請求項1に記載の方法。The method of claim 1, wherein during the display of the real-world object in the direction of the user's gaze, the instructions are displayed and the non-linear and multi-directional eye movement of the user is tracked. 前記所定の眼署名移動パターンは、前記ユーザが前記表示された命令に応答して前記ユーザの注視を移動させることによって前記ユーザの前記非線形かつ多方向の眼移動を追跡する間に、前記ユーザに表示されない、請求項1に記載の方法。The predetermined eye signature movement pattern informs the user while the user tracks the non-linear and multidirectional eye movement of the user by moving the user's gaze in response to the displayed command. The method of claim 1, which is not displayed. 前記非線形かつ多方向の仮想線のデータのフォーマットを変換することをさらに含み、前記変換されたデータは、仮想グリッドの複数の離散のエリアが、前記ユーザによって描かれる前記非線形かつ多方向の仮想線をもたらす前記非線形かつ多方向の眼移動によって横断されていたことを示す、請求項1に記載の方法。Further comprising transforming the format of the non-linear and multi-directional virtual line data, the transformed data is the non-linear and multi-directional virtual line in which a plurality of discrete areas of the virtual grid are drawn by the user. The method of claim 1, wherein the method was crossed by the non-linear and multi-directional eye movement resulting in. コンピュータ化された拡張現実(AR)表示システムであって、A computerized augmented reality (AR) display system
ARデバイスであって、前記ARデバイスは、前記ARデバイスのユーザの頭部に装着されるように構造化され、前記ARデバイスは、眼関連バイオメトリックデータを捕捉するために協働的に動作可能である、少なくとも1つの光源および少なくとも1つのカメラを備える、ARデバイスと、An AR device, wherein the AR device is structured to be worn on the user's head of the AR device, and the AR device can operate cooperatively to capture eye-related biometric data. An AR device with at least one light source and at least one camera,
前記ARデバイスと通信するローカル処理モジュールとWith a local processing module that communicates with the AR device
を備え、With
前記ARデバイスは、前記ユーザによって装着されている間に、前記少なくとも1つの光源および前記少なくとも1つのカメラによって、前記ユーザの眼関連バイオメトリックデータを追跡するように動作可能であり、The AR device can be operated by the at least one light source and the at least one camera to track the user's eye-related biometric data while worn by the user.
前記ローカル処理モジュールは、The local processing module
前記眼関連バイオメトリックデータを分析することと、Analyzing the eye-related biometric data and
前記ユーザの注視の方向にある実世界オブジェクトを識別することであって、前記注視は、前記少なくとも1つのカメラによって収集され、かつ前記ローカル処理モジュールによって分析されるデータに基づいて決定される、ことと、Identifying a real-world object in the direction of the user's gaze, which gaze is determined based on data collected by the at least one camera and analyzed by the local processing module. When,
前記ユーザの前記注視の方向における前記実世界オブジェクトを識別することに応答して、眼移動ベースのユーザ識別プロトコルの実行による眼関連バイオメトリックデータの分析に少なくとも部分的に基づいて、前記ユーザの識別を決定することであって、前記眼移動ベースのユーザ識別プロトコルは、Identification of the user based at least in part on the analysis of eye-related biometric data by execution of an eye movement-based user identification protocol in response to identifying the real-world object in the direction of the user's gaze. The eye movement-based user identification protocol is to determine.
所定の眼署名移動パターンに従って前記ユーザの注視を移動させることによって眼移動ベースのパスワードを仮想的に描くように前記ユーザに促す命令を表示することであって、前記所定の眼署名移動パターンは、前記ユーザに固有であり、前記ユーザの注視の方向にある実世界オブジェクトと、命令を表示することとを識別する前に決定され、命令を表示することの一部として前記ユーザに表示されない、ことと、The predetermined eye signature movement pattern is to display an instruction prompting the user to virtually draw an eye movement-based password by moving the user's gaze according to a predetermined eye signature movement pattern. A real-world object that is unique to the user and in the direction of the user's gaze, determined before identifying the display of the instruction, and not displayed to the user as part of displaying the instruction. When,
前記表示された命令に応答して前記ユーザが前記ユーザの注視を移動させることによって、前記ユーザの非線形かつ多方向の眼移動を追跡することであって、非線形かつ多方向の仮想線は、前記表示された命令に応答して前記ユーザが前記ユーザの注視を移動させることによって仮想的に描かれる前記ユーザの眼移動パターンを表し、前記追跡された非線形かつ多方向の眼移動は、前記ARデバイスが前記ユーザの前記頭部に装着されている間に前記ARデバイスの少なくとも1つのカメラを通して捕捉される、こととThe user tracks the user's non-linear and multi-directional eye movements by moving the user's gaze in response to the displayed command, wherein the non-linear and multi-directional virtual line is the said. The user represents the user's eye movement pattern that is virtually drawn by the user moving the user's gaze in response to the displayed command, and the tracked non-linear and multidirectional eye movement is the AR device. Is captured through at least one camera of the AR device while being worn on the user's head.
を含む、ことと、Including, and
前記追跡された非線形かつ多方向の眼移動に基づいて前記ユーザによって仮想的に描かれる前記ユーザの眼移動パターンを表す前記非線形かつ多方向の仮想線を前記所定の眼署名移動パターンと比較することと、Comparing the non-linear and multi-directional virtual line representing the user's eye movement pattern virtually drawn by the user based on the tracked non-linear and multi-directional eye movement with the predetermined eye signature movement pattern. When,
前記所定の眼署名移動パターンの所定の閾値内にある前記非線形かつ多方向の仮想線に基づいて、前記非線形かつ多方向の仮想線が前記所定の眼署名移動パターンに対応することを決定することと、Determining that the non-linear and multi-directional virtual line corresponds to the predetermined eye signature movement pattern based on the non-linear and multi-directional virtual line within a predetermined threshold of the predetermined eye signature movement pattern. When,
前記非線形かつ多方向の仮想線が前記所定の眼署名移動パターンに対応することを決定することに応答して、前記オブジェクトを購入するための取引を開始するために通信を伝送することであって、前記通信は、前記ユーザの前記識別を含み、前記ローカル処理モジュールは、少なくとも1つのネットワークを通して、前記決定された識別に基づいて前記取引のために前記ユーザを認証する遠隔サーバに前記通信を伝送するように動作可能である、こととThe transmission of communications to initiate a transaction to purchase the object in response to determining that the non-linear and multi-directional virtual line corresponds to the predetermined eye signature movement pattern. The communication includes said identification of the user, the local processing module transmits the communication through at least one network to a remote server that authenticates the user for the transaction based on the determined identification. And that it can work to
を行うように動作可能である、AR表示システム。An AR display system that can operate to do.
前記遠隔サーバをさらに備え、前記遠隔サーバは、前記取引に関するデータの組を金融機関のコンピュータに伝送するように動作可能である、請求項23に記載のAR表示システム。23. The AR display system of claim 23, further comprising the remote server, wherein the remote server can operate to transmit a set of data relating to the transaction to a computer of a financial institution. 前記遠隔サーバをさらに備え、前記遠隔サーバは、ネットワークを通して、前記ユーザの認証のための前記通信のデータを前記ユーザに関連付けられた金融機関のコンピュータに伝送するように構成され、前記金融機関のコンピュータは、前記認証に少なくとも部分的に基づいて、前記ユーザの代わりに支払を行うように構成されている、請求項23に記載のAR表示システム。The remote server is further provided, and the remote server is configured to transmit the communication data for authenticating the user to the computer of the financial institution associated with the user through the network, and the computer of the financial institution. 23. The AR display system of claim 23, which is configured to make payments on behalf of the user, at least in part based on the authentication. 前記金融機関のコンピュータは、前記支払を前記ユーザによって示される1つ以上の販売業者の1つ以上のコンピュータに伝送するように動作可能である、請求項24に記載のAR表示システム。24. The AR display system of claim 24, wherein the computer of the financial institution is capable of transmitting the payment to one or more computers of one or more sellers indicated by the user. 前記眼関連バイオメトリックデータは、前記ARデバイスの前記ユーザの眼の虹彩パターンをさらに含む、請求項23に記載のAR表示システム。23. The AR display system of claim 23, wherein the eye-related biometric data further comprises an iris pattern of the user's eye on the AR device. 前記ARデバイスは、マイクロホンをさらに備え、前記ARデバイスは、前記ユーザの音声記録を含むバイオメトリックデータを受信するようにさらに構成されている、請求項23に記載のAR表示システム。23. The AR display system of claim 23, wherein the AR device further comprises a microphone, which is further configured to receive biometric data including a voice recording of the user. 前記眼関連バイオメトリックデータは、前記ARデバイスの前記ユーザの眼の網膜署名をさらに含む、請求項23に記載のAR表示システム。23. The AR display system of claim 23, wherein the eye-related biometric data further comprises a retinal signature of the user's eye on the AR device. 前記ARデバイスは、前記ユーザの皮膚に関連付けられた特性を含むバイオメトリックデータを受信するようにさらに構成されている、請求項23に記載のAR表示システム。23. The AR display system of claim 23, wherein the AR device is further configured to receive biometric data including properties associated with the user's skin. 前記眼関連バイオメトリックデータは、前記ユーザの眼の瞬きパターンをさらに含む、請求項23に記載のAR表示システム。The AR display system according to claim 23, wherein the eye-related biometric data further includes a blink pattern of the user's eyes. 前記AR表示システムは、前記ユーザのために個々に較正される、請求項23に記載のAR表示システム。23. The AR display system of claim 23, wherein the AR display system is individually calibrated for the user. 前記ARデバイスは、前記ユーザの頭部に装着され、前記ユーザの眼サイズ、前記ユーザの頭部サイズ、ならびに前記ユーザの眼間の距離、前記ARデバイスおよび前記ユーザの眼からの距離、および前記ユーザの額の曲率を含む物理特徴に対して較正される、請求項32に記載のAR表示システム。The AR device is worn on the user's head and is the user's eye size, the user's head size, and the distance between the user's eyes, the distance from the AR device and the user's eyes, and the said. The AR display system according to claim 32, which is calibrated for physical features including the curvature of the user's forehead. 前記ユーザの前記識別は、既知の虹彩パターンに少なくとも部分的に基づいて決定される、請求項23に記載のAR表示システム。23. The AR display system of claim 23, wherein the identification of the user is determined at least in part based on a known iris pattern. 前記ユーザの前記識別は、既知の網膜パターンに少なくとも部分的に基づいて決定される、請求項23に記載のAR表示システム。23. The AR display system of claim 23, wherein the identification of the user is determined at least in part based on a known retinal pattern. 前記取引は、商取引である、請求項23に記載のAR表示システム。The AR display system according to claim 23, wherein the transaction is a commercial transaction. 前記ローカル処理モジュールは、前記ARデバイスに関連付けられた中断イベントを検出するように構成され、前記デバイスは、新しいバイオメトリックデータを、前記検出された中断イベントおよび前記新しいバイオメトリックデータに少なくとも部分的に基づいて前記ユーザを再認証するために、前記少なくとも1つの光源および前記少なくとも1つのカメラを通して前記ユーザから捕捉するようにさらに構成されている、請求項23に記載のAR表示システム。The local processing module is configured to detect interruption events associated with the AR device, which devices at least partially translate new biometric data into the detected interruption events and the new biometric data. 23. The AR display system of claim 23, further configured to capture from the user through the at least one light source and the at least one camera to reauthenticate the user based on. 前記中断イベントは、前記ユーザの頭部からの前記ARデバイスの除去を含む、請求項35に記載のAR表示システム。35. The AR display system of claim 35, wherein the interruption event comprises removing the AR device from the user's head. 前記中断イベントは、前記ARデバイスのネットワークとの接続性の喪失を含む、請求項35に記載のAR表示システム。The AR display system according to claim 35, wherein the interruption event comprises a loss of connectivity of the AR device to the network. 前記ARデバイスは、眼追跡システムを備える、請求項23に記載のARシステム。23. The AR system of claim 23, wherein the AR device comprises an eye tracking system. 前記ARデバイスは、触知デバイスを備える、請求項23に記載のARシステム。The AR system according to claim 23, wherein the AR device includes a tactile device. 前記ARデバイスは、ユーザの眼に関する生理学的データを測定するセンサを備える、請求項23に記載のARシステム。23. The AR system of claim 23, wherein the AR device comprises a sensor that measures physiological data about the user's eye. 前記ローカル処理モジュールは、前記ユーザのウエストに装着されたベルトパックの一部である、請求項23に記載のARシステム。23. The AR system of claim 23, wherein the local processing module is part of a belt pack worn on the waist of the user. 前記ローカル処理モジュールは、前記ユーザの前記頭部に装着された前記ARデバイスの筐体の一部である、請求項23に記載のARシステム。The AR system according to claim 23, wherein the local processing module is a part of a housing of the AR device mounted on the head of the user. 前記ユーザが前記ユーザの注視を移動させることから生じる前記ユーザの眼移動パターンを表す前記非線形かつ多方向の仮想線は、複数の線形区分を備える、請求項23に記載のAR表示システム。23. The AR display system of claim 23, wherein the non-linear and multi-directional virtual line representing the user's eye movement pattern resulting from the user moving the user's gaze comprises a plurality of linear sections. 前記非線形かつ多方向の仮想線は、前記所定の眼署名移動パターンの対応する線形区分の所定の閾値内にある前記非線形かつ多方向の仮想線の非線形区分に基づいて前記所定の眼署名移動パターンに対応するように決定される、請求項45に記載のAR表示システム。The non-linear and multi-directional virtual line is based on the non-linear division of the non-linear and multi-directional virtual line within a predetermined threshold of the corresponding linear division of the predetermined eye signature movement pattern. The AR display system according to claim 45, which is determined to correspond to the above. 前記眼移動ベースのユーザ識別プロトコルは、前記非線形かつ多方向の仮想線のデータのフォーマットを変換することをさらに含み、前記変換されたデータは、仮想グリッドの複数の離散のエリアが、前記ユーザによって描かれる前記非線形かつ多方向の仮想線をもたらす前記非線形かつ多方向の眼移動によって横断されていたことを示す、請求項23に記載のAR表示システム。The eye movement-based user identification protocol further comprises transforming the format of the non-linear and multi-directional virtual line data, wherein the transformed data is a plurality of discrete areas of the virtual grid by the user. 23. The AR display system of claim 23, showing that the non-linear and multi-directional imaginary lines were crossed by the non-linear and multi-directional eye movements to be drawn. 前記ユーザの前記注視の方向にある前記実世界オブジェクトの表示の間に、前記命令は、表示され、前記ユーザの非線形かつ多方向の眼移動は、追跡される、請求項23に記載のAR表示システム。23. The AR display of claim 23, wherein during the display of the real-world object in the direction of the user's gaze, the instructions are displayed and the non-linear and multi-directional eye movement of the user is tracked. system.
JP2021063135A 2015-05-14 2021-04-01 Augmented reality system and method for tracking biometric data Active JP7106706B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562161588P 2015-05-14 2015-05-14
US62/161,588 2015-05-14
JP2017558979A JP6863902B2 (en) 2015-05-14 2016-05-14 Augmented reality systems and methods for tracking biometric data

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017558979A Division JP6863902B2 (en) 2015-05-14 2016-05-14 Augmented reality systems and methods for tracking biometric data

Publications (2)

Publication Number Publication Date
JP2021121923A true JP2021121923A (en) 2021-08-26
JP7106706B2 JP7106706B2 (en) 2022-07-26

Family

ID=57249401

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017558979A Active JP6863902B2 (en) 2015-05-14 2016-05-14 Augmented reality systems and methods for tracking biometric data
JP2021063135A Active JP7106706B2 (en) 2015-05-14 2021-04-01 Augmented reality system and method for tracking biometric data

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017558979A Active JP6863902B2 (en) 2015-05-14 2016-05-14 Augmented reality systems and methods for tracking biometric data

Country Status (8)

Country Link
EP (1) EP3295347A4 (en)
JP (2) JP6863902B2 (en)
KR (1) KR102393271B1 (en)
CN (1) CN107533600A (en)
AU (1) AU2016262579B2 (en)
CA (1) CA2984455C (en)
IL (1) IL255325B (en)
WO (1) WO2016183541A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066079A (en) 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 Service implementation method and device based on virtual reality scenario
CN206301289U (en) * 2016-11-29 2017-07-04 阿里巴巴集团控股有限公司 VR terminal devices
CN108334185A (en) * 2017-01-20 2018-07-27 深圳纬目信息技术有限公司 A kind of eye movement data reponse system for wearing display equipment
CN106980983A (en) * 2017-02-23 2017-07-25 阿里巴巴集团控股有限公司 Service authentication method and device based on virtual reality scenario
CN107122642A (en) 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 Identity identifying method and device based on reality environment
JP6954355B2 (en) * 2017-08-10 2021-10-27 日本電気株式会社 Information acquisition system, information acquisition method and storage medium
US11050752B2 (en) 2018-06-07 2021-06-29 Ebay Inc. Virtual reality authentication
EP3772699A1 (en) * 2019-08-09 2021-02-10 Siemens Aktiengesellschaft Method for user verification, communication device and computer program
KR102628102B1 (en) * 2019-08-16 2024-01-23 엘지전자 주식회사 Xr device and method for controlling the same
CN111104927B (en) * 2019-12-31 2024-03-22 维沃移动通信有限公司 Information acquisition method of target person and electronic equipment
JP6839324B1 (en) * 2020-08-06 2021-03-03 株式会社キューブシステム Input system, input program and input method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533801A (en) * 2000-05-16 2003-11-11 スイスコム・モバイル・アクチエンゲゼルシヤフト Biometric identification and authentication methods
JP2007141002A (en) * 2005-11-18 2007-06-07 Fujitsu Ltd Personal authentication method, personal authentication program, and personal authentication device
JP2011069849A (en) * 2009-09-24 2011-04-07 Brother Industries Ltd Head-mounted display
JP2012008746A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp User terminal device and shopping system
US20130275309A1 (en) * 2012-04-13 2013-10-17 Francis King Hei KWONG Electronic-payment authentication process with an eye-positioning method for unlocking a pattern lock
JP2014092940A (en) * 2012-11-02 2014-05-19 Sony Corp Image display device and image display method and computer program

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9031880B2 (en) 2001-07-10 2015-05-12 Iii Holdings 1, Llc Systems and methods for non-traditional payment using biometric data
US8482859B2 (en) * 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
AU2011220382A1 (en) * 2010-02-28 2012-10-18 Microsoft Corporation Local advertising content on an interactive head-mounted eyepiece
US8438110B2 (en) * 2011-03-08 2013-05-07 Bank Of America Corporation Conducting financial transactions based on identification of individuals in an augmented reality environment
US20130030917A1 (en) * 2011-07-28 2013-01-31 American Express Travel Related Services Company, Inc. Systems and methods for generating and using a digital pass
US8988350B2 (en) * 2011-08-20 2015-03-24 Buckyball Mobile, Inc Method and system of user authentication with bioresponse data
US20150012426A1 (en) * 2013-01-04 2015-01-08 Visa International Service Association Multi disparate gesture actions and transactions apparatuses, methods and systems
US10223710B2 (en) * 2013-01-04 2019-03-05 Visa International Service Association Wearable intelligent vision device apparatuses, methods and systems
US9100825B2 (en) * 2012-02-28 2015-08-04 Verizon Patent And Licensing Inc. Method and system for multi-factor biometric authentication based on different device capture modalities
US8953850B2 (en) * 2012-08-15 2015-02-10 International Business Machines Corporation Ocular biometric authentication with system verification
US9164580B2 (en) * 2012-08-24 2015-10-20 Microsoft Technology Licensing, Llc Calibration of eye tracking system
US9979547B2 (en) * 2013-05-08 2018-05-22 Google Llc Password management
US9336781B2 (en) * 2013-10-17 2016-05-10 Sri International Content-aware speaker recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003533801A (en) * 2000-05-16 2003-11-11 スイスコム・モバイル・アクチエンゲゼルシヤフト Biometric identification and authentication methods
JP2007141002A (en) * 2005-11-18 2007-06-07 Fujitsu Ltd Personal authentication method, personal authentication program, and personal authentication device
JP2011069849A (en) * 2009-09-24 2011-04-07 Brother Industries Ltd Head-mounted display
JP2012008746A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp User terminal device and shopping system
US20130275309A1 (en) * 2012-04-13 2013-10-17 Francis King Hei KWONG Electronic-payment authentication process with an eye-positioning method for unlocking a pattern lock
JP2014092940A (en) * 2012-11-02 2014-05-19 Sony Corp Image display device and image display method and computer program

Also Published As

Publication number Publication date
JP7106706B2 (en) 2022-07-26
KR20180008632A (en) 2018-01-24
JP6863902B2 (en) 2021-04-21
CN107533600A (en) 2018-01-02
IL255325A0 (en) 2017-12-31
EP3295347A4 (en) 2018-05-02
EP3295347A1 (en) 2018-03-21
NZ736861A (en) 2021-06-25
WO2016183541A1 (en) 2016-11-17
AU2016262579A1 (en) 2017-11-23
AU2016262579B2 (en) 2021-06-03
CA2984455C (en) 2022-02-08
IL255325B (en) 2021-04-29
KR102393271B1 (en) 2022-04-29
JP2018526701A (en) 2018-09-13
CA2984455A1 (en) 2016-11-17

Similar Documents

Publication Publication Date Title
JP7106706B2 (en) Augmented reality system and method for tracking biometric data
US20160358181A1 (en) Augmented reality systems and methods for tracking biometric data
JP6879938B2 (en) Devices, methods, and systems for biometric user recognition utilizing neural networks
JP7416552B2 (en) a head-mounted display system configured to exchange biometric information;
US9767524B2 (en) Interaction with virtual objects causing change of legal status
US20170103582A1 (en) Touch and social cues as inputs into a computer
US20180357670A1 (en) Dynamically capturing, transmitting and displaying images based on real-time visual identification of object
NZ736861B2 (en) Augmented reality systems and methods for tracking biometric data
CN117425889A (en) Bend estimation as a biometric signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220713

R150 Certificate of patent or registration of utility model

Ref document number: 7106706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150