JP7065867B2 - ユーザ識別認証のために目の生理的特性を使用する仮想現実デバイス - Google Patents

ユーザ識別認証のために目の生理的特性を使用する仮想現実デバイス Download PDF

Info

Publication number
JP7065867B2
JP7065867B2 JP2019548527A JP2019548527A JP7065867B2 JP 7065867 B2 JP7065867 B2 JP 7065867B2 JP 2019548527 A JP2019548527 A JP 2019548527A JP 2019548527 A JP2019548527 A JP 2019548527A JP 7065867 B2 JP7065867 B2 JP 7065867B2
Authority
JP
Japan
Prior art keywords
user
virtual reality
camera
service
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019548527A
Other languages
English (en)
Other versions
JP2020515949A (ja
Inventor
ファンミ・イン
Original Assignee
アドバンスド ニュー テクノロジーズ カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アドバンスド ニュー テクノロジーズ カンパニー リミテッド filed Critical アドバンスド ニュー テクノロジーズ カンパニー リミテッド
Publication of JP2020515949A publication Critical patent/JP2020515949A/ja
Application granted granted Critical
Publication of JP7065867B2 publication Critical patent/JP7065867B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)

Description

優先権の主張
本出願は、参照によりその全体が組み込まれている、2016年11月29日に出願した中国特許出願第201621293788.0号、および2017年11月21日に出願した米国特許出願第15/819,034号の優先権を主張するものである。本発明の主題はまた、参照によりその全体が組み込まれている、2017年11月21日に出願した米国特許出願第15/819,041号に関係する。
本開示は、ユーザ識別認証に関し、より詳細には、目の生理的特性に基づくユーザ識別認証に関する。
仮想現実(VR)は、ユーザの物理的存在を3次元(3D)仮想環境でシミュレートし、VRユーザが仮想環境と対話することを可能にする、現実的な画像、サウンド、および他の感覚を生成するために、時として物理空間またはマルチ投影環境と組み合わせて、ヘッドセットなどのVRデバイスを使用するコンピュータ技術である。
VRハードウェアの発展に伴い、VR技術は、建築、ヘルスケア、教育、娯楽、ゲーム、およびオンラインショッピングを含む分野で益々使用されている。VR技術を使用してユーザに没入型体験を提供するための、ゲーム、コンテンツ消費、および生産性のためのアプリケーションなど、多くのアプリケーションが開発されている。多くのVRアプリケーションは、アプリケーション内購入、ユーザカスタマイズ化、またはペアレンタルコントロールを含む動作を可能にする。これらの動作は、セキュリティのためにユーザ識別認証を必要とするべきである。
本開示は、仮想現実(VR)に基づくサービス制御およびユーザ識別認証のための、コンピュータ実装方法、コンピュータプログラム製品、およびコンピュータシステムを含む、方法および装置について説明する。
一実装形態では、VRデバイスは、2つの開口を有するハウジングを含む。2つの開口は各々、カメラレンズおよび鼻溝をホストする。VRデバイスはまた、VRデバイスユーザの1つまたは複数の目の生理的特性を捕捉するためにカメラレンズの各々の周囲に分散された1つまたは複数のカメラを含む。
すでに説明した実装形態は、コンピュータ実装方法;コンピュータ実装方法を実行するためのコンピュータ可読命令を記憶した、非一時的なコンピュータ可読媒体;およびコンピュータ実装方法/非一時的なコンピュータ可読媒体上に記憶された命令を実行するように構成されたハードウェアプロセッサに相互運用可能に結合されたコンピュータメモリを備えたコンピュータ実装システムを使用して実装可能である。
本明細書で説明する主題は、仮想環境において効率的なユーザ識別認証を実現して、より高速な、かつより利便性の高い動作、より没入的な体験をVRユーザに提供するために、特定の実装形態で実装され得る。
本明細書の主題の1つまたは複数の実装形態の詳細は、発明を実施するための形態、特許請求の範囲、および添付の図面に記載される。この主題の他の特徴、態様、および利点は、発明を実施するための形態、特許請求の範囲、および添付の図面から当業者に明らかになるであろう。
本開示の一実装形態による、目の生理的特性感知能力を備えた仮想現実デバイスの1つの例示的な構造を示す概略図である。 本開示の一実装形態による、目の生理的特性感知能力を備えた仮想現実デバイスの1つの例示的なカメラ構造を示す概略図である。 本開示の一実装形態による、仮想現実シナリオにおいて目の生理的特性に基づいてユーザ識別認証を実行するための方法の一例を示すフローチャートである。 本開示の一実装形態による、説明するようなアルゴリズム、方法、機能、プロセス、フロー、および手順に関連する計算機能性を提供するために使用されるコンピュータ実装システムの一例を示すブロック図である。
様々な図面において同様の参照番号および表示は同様の要素を示す。
以下の詳細な説明は、ユーザの目の生理的特性(EPC)を捕捉するための仮想現実(VR)ハードウェアに関する技術について説明し、任意の当業者が1つまたは複数の特定の実装形態の文脈で開示する主題を作成し使用することを可能にするために提示される。開示する実装形態の様々な修正、改変、および置換が行われてよく、それらは当業者に容易に明らかになり、本開示の範囲から逸脱せずに、定義される一般原理を他の実装形態および応用例に適用することができる。場合によっては、1つまたは複数の説明する実装形態を不要な詳細で曖昧にしないように、かつそのような詳細が当業者の技能範囲内にある限り、説明する主題の理解を得るために不要な詳細は省かれることがある。本開示は、説明するまたは示す実装形態に限定されることが意図されず、説明する原理および特徴に整合する最大範囲が与えられるべきである。
VRは、ユーザの物理的存在を3次元(3D)仮想環境でシミュレートする、現実的な画像、サウンド、および他の感覚を生成するために、時として物理空間またはマルチ投影環境と組み合わせて、ヘッドセットなどのVRデバイスを使用するコンピュータ技術であり、VRユーザが仮想環境と対話することを可能にする。
VRハードウェアの発展に伴い、VR技術は、建築、ヘルスケア、教育、娯楽、ゲーム、およびオンラインショッピングを含む領域で益々使用されている。VR技術を使用してユーザに没入型体験を提供するための、ゲーム、コンテンツ消費、および生産性のためのアプリケーションなど、多くのアプリケーションが開発されている。多くのVRアプリケーションは、アプリケーション内購入、ユーザカスタマイズ化、またはペアレンタルコントロールを含む動作を可能にする。これらの動作は、セキュリティのためにユーザ識別認証を必要とするべきである。
本開示は、ユーザのEPCに基づいて生体認証を実行することができるVRデバイス技術について説明する。VRデバイスを使用して、VR技術に基づいて開発されたVRアプリケーションまたはVRソフトウェアを実行することができる。VRアプリケーションは、VRデバイスユーザに3D没入型VR体験を提供することができる。
図1Aは、本開示の一実装形態による、EPC感知能力を備えたVRデバイス100aの1つの例示的な構造を示す概略図である。いくつかの実装形態では、VRデバイスは、VRユーザがVRユーザの頭部に装着することができるVRヘッドセットであってよい。VRデバイス100aは、ユーザ識別認証のためにVRユーザのEPCを検出して捕捉することができるハードウェア構成要素を含み得る。例示的なEPCは、虹彩特性およびアイプリント(eye print)特性を含み得る。
例示するVRデバイス100aは、ハウジング110を含む。いくつかの実装形態では、ハウジング110は、VRユーザの目の相対的位置に対応する2つの開口を有し得る。2つの開口は各々、レンズ120をホストし得る。場合によっては、レンズ120は、これらの開口を通過する光をVRユーザに示される視覚効果に変換することができるレンズアセンブリを含み得る。1つまたは複数のカメラ130は、ユーザのEPCを捕捉するために2つのレンズ120の各々の周囲に分散され得る。場合によっては、示すように、カメラ130は、レンズ120の周囲に均等に分散され得る。他の場合には、レンズは、特定の位置に(たとえば、開口の片側上に)グループ化され得る。場合によっては、カメラ130は、レンズ120がVRユーザの目とカメラ130との間に位置することを確実にするように配置され得る。場合によっては、カメラ130は、より完全なEPCデータセットを取得するために、2つ以上の方向からVRユーザの目の画像を捕捉するように配置され得る。いくつかの実装形態では、カメラ130に必要とされる品質は、EPCに関連する品質要件に基づいて判定され得る。
デバイス100aはまた、VRユーザの鼻に対応するように、レンズ120同士の間にかつレンズ120の下に鼻溝を含む。したがって、VRデバイス100aは、VRユーザの目により密に接近するようにフィットし得る。
いくつかの実装形態では、VRデバイス100aはまた、ユニバーサルシリアルバス(USB)ポートまたはWIFIチップなどのデータインターフェース160を含み得る。データインターフェース160を使用して、スマートフォン、タブレット、またはコンピュータなど、外部のユーザコンピューティングデバイスにVRデバイス100aを電気的にまたはワイヤレスに接続することができる。
いくつかの実装形態では、外部のユーザコンピューティングデバイスは、USBまたは他のケーブルを通して、カメラ130から画像を獲得すること、またはVRデバイス100aから他のデータを獲得することができる。場合によっては、外部のユーザコンピューティングデバイスは、WIFIまたはBLUETOOTH(登録商標)などのワイヤレス接続を通してVRデバイス100aからデータを獲得することができる。場合によっては、データインターフェース160は、VRデバイス100aに充電するためにまたは電力供給するために使用されてもよい。
図1Bを参照すると、図1Bは、本開示の一実装形態による、目の生理的特性感知能力を備えた仮想現実デバイス100aの1つの例示的なカメラ構造100bを示す概略図である。図1Bに示すカメラ130は、図1Aに示したVRデバイス100aにおいて使用されるカメラ130のうちのいずれかであってよい。図1Bに示すように、発光ダイオード(LED)ライト170をカメラ130に取り付けることができる。場合によっては、LEDライト170は、カメラ130と一対一の関係を有し得る。場合によっては、各カメラ130に対して、2つ以上のLEDライト170が使用されてよい。LEDライト170を使用して、ハウジング110のエンクロージャ内部の不十分な光状態を補正して、カメラ130が獲得して戻す画像の画像品質を改善することができる。
EPCは、アイプリント特性、虹彩特性、アイプリント特性と虹彩特性の組合せ、または他の目の生理的特性を含み得る。アイプリント特性は、目の白い部分である強膜のテクスチャであり得る。個人の強膜テクスチャはそれぞれ一意である。虹彩は、瞳と強膜との間の環状部分であり、個人に対してそれぞれ一意のテクスチャをやはり有する。
場合によっては、アイプリント特性は、ユーザ識別認証のためのEPCとして使用され、使用されるカメラ130はRGBカメラであってよい。LEDライト170を使用して、RGBカメラ130の光に対して一対一の補正を行うことができる。場合によっては、虹彩特性はユーザ識別認証のためのEPCとして使用される。たとえば、レンズ120の周囲に分散されたカメラ130は、赤外線カメラであってよく、ユーザの虹彩は放射赤外線LED光源の下で撮像され得る。赤外線LED光源は、一対一の光補正を赤外線カメラに提供することができる。場合によっては、VRデバイス100aは、虹彩特性およびアイプリント特性を同時に収集することができる。そのような場合、カメラ130は、RGBカメラと赤外線カメラの両方を含み得る。LEDライト170は、赤外光と通常LED光の両方を含み得る。
VRデバイス100aはまた、VRデバイス100aのレンズ120の周辺光入射の輝度を検出するための光センサーを含み得る。輝度が所定の値より低く、EPCの捕捉に悪影響を与える可能性がある場合、VRデバイス100aは、LEDライト170のうちの1つまたは複数をオンにして、1つまたは複数のカメラ130に対して一対一の光補正を実行することができる。
場合によっては、VRデバイス100aの物理的寸法は、カメラ130とVRユーザの目との間に不十分な被写界深度をもたらす場合があり、その結果、カメラ130はVRユーザの目に正確に焦点を合わせることができない。そのような場合、1つまたは複数のマクロレンズカメラを使用することができる。代替として、焦点距離を適応的に調整するために、VRデバイス100aの内部形状(たとえば、VRヘッドセットの空洞)に基づいて、ユーザの目から入る光線を反映または屈折させるための1つまたは複数の追加の光レンズをユーザの目とレンズ120との間の位置にインストールすることができる。場合によっては、内視鏡に使用されるような特殊レンズを使用して、ユーザの虹彩特性またはアイプリント特性を収集することができる。場合によっては、ユーザは、カメラ130の焦点距離を手動で調整して、正確な虹彩画像またはアイプリント画像を取得することができる。場合によっては、専用の加算ハードウェアまたは加算ソフトウェアを使用して、カメラの焦点を自動的に調整することができる。
場合によっては、VRデバイス100aは、ユーザ識別認証のためにデータインターフェース160を通してサーバに通信することができる。VRデバイス100aは、ワイヤード接続またはワイヤレス接続を通して、収集されたEPCサンプルをサーバに送信することができる。収集されたEPCサンプルは、サーバ上に事前に記憶されたEPCサンプルと比較され得る。場合によっては、ユーザは、サービスアカウント登録の間に、VRデバイス100aを使用して1つまたは複数のEPCサンプルを取得することができる。1つまたは複数のEPCサンプルは、オフライン生体認証を可能にするアプリケーションのために局所的に保存されてよいか、またはオンライン認証を必要とするアプリケーションのためにサービスサーバに送られてよい。たとえば、サービスがVR支払いサービスであるとき、ユーザのサービスアカウントは、支払いアカウントであり得る。VRデバイス100aは、支払いアカウント登録の間に、集積アイセンサー(integrated eye sensor)を使用してユーザのEPCサンプルを取得し、サンプルを局所的にまたは支払いサーバ上に保存することができる。EPCサンプルは、ユーザの支払いアカウントに関連付けられる。
場合によっては、ユーザは、ユーザアカウントにログインして、VRデバイス100aを使用することができる。VRデバイス100aはEPCサンプルおよびVRデバイス100aユーザアカウントログイン情報を登録メッセージとしてサービスサーバに送ることができる。サーバは、受信した情報を使用して、ユーザのEPCサンプルをそのサービスアカウントに関連付け、目の生理的特性サンプルを生体特性データベースに保存することができる。場合によっては、ユーザアカウントはサービスアカウントと同じであり得る。
場合によっては、EPCサンプルがVRデバイス100aによって収集された後、VRデバイス100aは、サービスサーバに対して生体認識要求を生成することができる。生体認識要求は、ユーザのユーザアカウント情報またはサービスアカウント情報、およびアイセンサーが取得したEPCを含み得る。サービスサーバは、要求を受信し、要求をサーバに提出するための生体認識インターフェースをVRデバイス100aに提供することができる。場合によっては、サービスサーバは、生体認識サーバと協働することができ、生体認識インターフェースは生体認識サーバによって提供され得る。
1つまたは複数のEPCが1つまたは複数の事前に記憶されたEPCサンプルの少なくとも一部分に整合する場合、VRデバイス100aユーザを認証することができる。生体認識要求を受信した後、サービスサーバは、その要求をパースし、EPCおよびユーザアカウント情報を獲得し、EPCを生体特性データベース内に記憶されたEPCサンプルと比較することができる。場合によっては、EPCがEPCサンプルの少なくとも一部分に整合する場合、サービスサーバは、受信されたユーザアカウント情報が整合する生体サンプルに関連するアカウントに整合するかどうかをさらに検証することができる。生体情報およびユーザアカウント情報を生体特定データベース内に記憶された対応する情報と比較した後で、サービスサーバは、認証結果をVRデバイス100aに戻すことができる。ブール型の戻り値(すなわち、真または偽)として認証結果を戻すことができる。生体情報およびユーザアカウント情報のうちの1つまたは両方が生体特定データベース内に記憶された対応する情報と一致する場合、生体認識が成功したことを示すために「真」値を戻すことができる。そうでない場合、生体認証が失敗したことを示すために「偽」値を戻すことができる。
場合によっては、VRデバイス100aは生体認証を局所的に実行することができる。ユーザのEPCは、生体情報登録(たとえば、VRデバイス100a上のユーザアカウントへのアイプリント情報の登録)の間にVRデバイス100a内に保存され得る。ユーザがVRシナリオにおいてサービスを開始した後、VRデバイス100aは、ユーザのEPCを収集し、EPCを生体情報登録の間に保存されたEPCサンプルと比較することができる。EPCが保存された情報の少なくとも一部分に整合する場合、サービスに対する生体認証は成功である。さもなければ、生体認証は失敗である。
場合によっては、VRデバイス100aは、拡張されたセキュリティのために登録メッセージをサービスサーバに送る前に、追加の生体認証を実行することができる。たとえば、VRデバイス100aは、ユーザの登録メッセージをサービスサーバに送る前に、ユーザの識別を検証するために、パスワードまたは他のセキュリティ情報を入力するようにユーザに指示し得る。このプロセスは、無許可のユーザが自らの生体情報を不正に登録して、許可されたユーザのユーザアカウントに結び付くのを防ぐことができる。サービス登録の後、VRデバイス100aは、ユーザがサービスを開始した後、ユーザのEPCサンプルに基づいて生体認証を開始することができる。
場合によっては、VRデバイス100aは、生体情報を収集する前にバイオアッセイプロセスを実行して、VRデバイス100aが実際の人物によって現在使用されていることを確実にすることができる。このプロセスは、無許可のユーザが生体認証のために許可を受けたユーザのアイプリント画像または虹彩画像を使用し、許可を受けたユーザのサービスアカウントに不法にアクセスするのを防ぐことができる。例示的なバイオアッセイプロセスは、瞬き認識または心拍認識を含み得る。
バイオアッセイプロセスを使用して実際のユーザが検出された後、VRデバイス100aは、サービスアカウントにアクセスするための生体認証を実行するようにユーザに指示し得る。たとえば、VR支払いを再度使用すると、VRデバイス100aは、「支払い認証のためにあなたの虹彩を走査してください」などのテキスト指示をVRシナリオにおいて提示することができる。
場合によっては、サービスを実行するためにサーバに通信する。生体認証が成功した(たとえば、戻り値が「真」である)場合、VRデバイス100aは、そのサービスに関するデータを集めるためにそのサービスに対応するサービスインターフェースを提示し、サービス要求を確立し、サービスアクセスインターフェースを介してサービス要求をサービスサーバに提出し、必要な場合、サービスサーバとさらなる対話を実行して、そのサービスを実行することができる。
この場合も、たとえば、VR支払いサービスを使用すると、VRデバイス100aは、ユーザ名、注文情報、および価格などの支払い関連情報を集め、次いで、支払い処理要求を生成し、支払い処理要求をサービスサーバに送るための支払いインターフェースを提示することができる。サービスサーバは、要求を処理し、支払いを完了することができる。
以下の例は、VRショッピングを使用して、EPCに基づく生体認証が、より安全で、より高速、かつより簡単なサービス体験をユーザにどのように提供することができるかを示す。使用される目の生理的特性はアイプリントであると仮定する。いくつかの実装形態では、VRショッピングのためのサービスは、ALIPAYなどの支払いサービスであってよく、仮想要素は、VRショッピングシナリオにおいて提示される仮想ボタンであってよく、支払いサービス用のサーバは、サーバクラスタに基づくALIPAYプラットフォームなど、支払いサーバであってよい。
ユーザは、まず、自らのユーザアカウントまたは支払いアカウントを使用してVRデバイス100aにログインし、ユーザのアイプリントを支払いアカウントに関連付けるためにVRデバイス100a上でアイプリント登録を完了することができる。ユーザのアカウント情報および対応するアイプリント情報は、支払いサーバ上の生体特性データベース内に記憶され得る。アイプリント登録の後、ユーザは、VR環境における生体認証のために自らの指(すなわち、指紋)を使用することができる。
VRショッピングのためにVRデバイス100aを装着するとき、販売品目がVRシナリオにおいてユーザに提示され得、ユーザは、品目リストをめくるか、またはジェスチャまたは頭の動きを使用して、品目をショッピングカートに追加することができる。場合によっては、品目が選択されるかまたはユーザのショッピングカートに追加されるとき、チェックアウトまたは支払いのための仮想ボタン(すなわち、仮想要素)が提供され得る。ユーザは、ジェスチャまたは頭の動きを再度使用して、操作の焦点(たとえば、カーソル)を仮想ボタンに移動させ、事前決定されたジェスチャまたは頭の動きを使用して仮想ボタンを選択することができる。
ユーザの音声コマンドによってサービスが開始された後、支払いサービスを開始することができる。場合によっては、VRデバイス100aは、バイオアッセイプロセスを実行して、VRデバイス100aの実際のユーザが存在するかどうかを判定することができる。そうである場合、VRデバイス100aはVRシナリオにおいて「支払い認証のための目を開けた状態を保ってください」というメッセージを指示し得る。
EPCが収集された後、VRデバイス100aは、収集されたアイプリント情報およびユーザのユーザアカウント情報または支払いアカウント情報を含む生体認証要求を支払いサーバに送ることができる。支払いサーバは、アイプリント情報をアイプリント登録の間に生体特性データベース内に記憶されたアイプリント情報と比較することができる。受信されたアイプリント情報がデータベース内に記憶されたユーザアカウントに関連するアイプリントと整合し、支払いアカウント情報が記憶されたユーザアカウント情報に一致する場合、支払いサーバは、ブール型「真」値をVRデバイス100aに戻して、アイプリント認証が成功したことを示すことができる。
支払いが成功したことを確認した後で、VRデバイス100aは、ユーザが、ユーザ名、注文情報、および支払いサービスに関する支払い金額など、支払いデータを入力するための支払いインターフェースを提示し、支払い処理要求を生成して、支払いサーバに送ることができる。支払いサーバは、支払いを処理し、購入を完了することができる。
場合によっては、支払い速度をさらに促進するために、「少額の場合は認証なし」の支払いプロセスを使用することができる。たとえば、ユーザが音声コマンドを使用して支払いサービスを開始するとき、VRデバイス100aは、品目の価格を確認し、支払い金額が事前設定された金額(たとえば、20米ドル)未満であるかどうかを判定することができる。支払い金額が事前設定された金額未満である場合、VRデバイス100aは、生体認証なしに、支払い処理要求を直接に生成して、支払いサーバに送ることができる。そうでない場合、ユーザは、支払いサービスが使用され得る前に、生体認証を実行する必要がある場合がある。
場合によっては、ユーザの目の生理的特性に基づくより高速かつより便利なユーザ識別認証のためにVRデバイス100aを使用することができる。ユーザがVRデバイス100aを使用してサービスを実行するとき、VRデバイスは、1つまたは複数のセンサーを使用して、仮想現実シナリオにおいてレンダリングされる仮想要素を用いてユーザ対話動作を識別することができる。ユーザ対話動作が1つまたは複数の事前に記憶された動作に整合することが識別されるとき、VRデバイスは、ユーザ識別検証のためのユーザのEPCに基づいて生体認証を起動させることができる。生体認証が成功した場合、ユーザは、サービス対話を実行して、サービスを完了することができる。したがって、VRデバイス100aは、ユーザのEPCを収集して、VR環境で生体認証を迅速に実行し、ユーザ識別認証手順を簡素化し、アカウントセキュリティを確実にし得る。たとえば、VR環境で支払いサービスを使用するとき、VRデバイスを通した生体認証は、仮想キーボードを使用して複雑なユーザ対話によってパスワードを入力するのと比較して、より高速なユーザ識別認証を可能にし得る。
図2は、本開示の一実装形態による、仮想現実シナリオにおける目の生理的特性に基づいてユーザ識別認証を実行するための方法200の一例を示すフローチャートである。提示を簡単にするために、続く説明は、概して、この説明において他の図面の文脈で方法200について説明する。しかしながら、方法200は、適宜に、たとえば、任意のシステム、環境、ソフトウェア、およびハードウェア、またはシステム、環境、ソフトウェア、およびハードウェアの組合せによって実行され得ることを理解されよう。場合によっては、方法200の様々なステップは、平行して、組み合わせて、ループで、または任意の順序で実行されてよい。
210において、VRアプリケーションのVRシナリオにおいてサービスを開始するためにVRデバイスユーザからの1つまたは複数のユーザ対話を検出する。サービスは、ユーザ識別認証を必要とするユーザによって実行されるVRアプリケーション内で提供される任意のサービスまたはタスクであってよい。場合によっては、サービスは、ユーザコンピューティングデバイスが実行するローカルタスクまたはサーバが実行するオンラインタスクであってよい。たとえば、サービスは、VRショッピング、VRゲーム、VRベースのビデオオンデマンド、またはVRライブキャストに対する寄付など、VRアプリケーション内で行われる支払いなどのオンライン支払いサービスであってよい。代替として、サービスは、ユーザアカウントログインまたはパスワードで保護されたロック解除を必要とするローカルサービスであってよい。VRアプリケーションは、VRに基づいて開発された任意のソフトウェアまたはアプリケーションであってよい。VRアプリケーションは、VRデバイスを通してVRシナリオをレンダリングして、ユーザに没入型3D体験を提供することができる。210から、方法200は220に進む。
220において、ユーザ識別認証のために、VRデバイスユーザの1つまたは複数のEPCを取得する。サービスを開始した後、VRデバイスは、ユーザ識別認証のためにUIを仮想シナリオにおいて提示することができる。VRデバイスは、ユーザ識別認証を円滑にするための目認識機能を含み得る、図1Aの説明で論じたVRデバイス100aであり得る。220から、方法200は230に進む。
230において、取得した1つまたは複数の目の生理的特性を1つまたは複数の事前に記憶された目の生理的特性サンプルと比較する。場合によっては、VRデバイスユーザは、図1Aの説明で説明したVRデバイス100aなどのVRデバイスを使用して、サービスアカウント登録の間に1つまたは複数のEPCサンプルを取得することができる。1つまたは複数のEPCサンプルは、オフライン生体認証を可能にするアプリケーションのために局所的に保存され得るか、またはオンライン認証のためにサービスサーバに送られるべき認証要求内に含まれ得る。230から、方法200は240に進む。
240において、1つまたは複数のEPCが1つまたは複数の事前に記憶されたEPCサンプルの少なくとも一部分に整合する場合、VRデバイスユーザを認証する。240から、方法200は250に進む。
250において、サービスを実行するためにサービスサーバと通信する。生体認証が成功した(たとえば、戻された値が「真」である)場合、VRデバイスは、サービスに対応するサービスインターフェースを提示して、サービスに関するデータを集め、サービス要求を確立し、サービスアクセスインターフェースを通してサービス要求をサービスサーバに提出し、サービスを実行するために、必要な場合、サービスサーバとのさらなる対話を実行することができる。250の後、方法200は停止する。
図3は、本開示の一実装形態による、説明するアルゴリズム、方法、機能、プロセス、フロー、および手順に関連する計算機能性を提供するために使用されるコンピュータ実装システム300の一例を示すブロック図である。示す実装形態では、システム300は、コンピュータ302とネットワーク330とを含む。
示すコンピュータ302は、サーバ、デスクトップコンピュータ、ラップトップ/ノートブックコンピュータ、ワイヤレスデータポート、スマートフォン、携帯情報端末(PDA)、タブレットコンピュータ、これらのデバイス内の1つまたは複数のプロセッサ、別のコンピューティングデバイス、またはコンピューティングデバイスの物理インスタンスまたは仮想インスタンス、またはコンピューティングデバイスの物理インスタンスまたは仮想インスタンスの組合せを含めて、コンピューティングデバイスの組合せなど、任意のコンピューティングデバイスを包含することが意図される。加えて、コンピュータ302は、キーパッド、キーボード、タッチスクリーン、別の入力デバイス、またはユーザ情報を受け取ることができる入力デバイスと、デジタルデータ、視覚情報、オーディオ情報、別のタイプの情報、または情報タイプの組合せを含めて、コンピュータ302の動作に関連する情報をグラフィカルタイプのユーザインターフェース(UI)(もしくは、GUI)または他のUI上に伝える出力デバイスとを含み得る。
コンピュータ302は、クライアント、ネットワーク構成要素、サーバ、データベースもしくは別の持続性、別の役割、または本開示で説明する主題を実行するための役割の組合せとして、分散コンピューティングシステム内の役割を果たすことができる。示すコンピュータ302は、ネットワーク330と通信可能に結合される。いくつかの実施形態では、コンピュータ302の1つまたは複数の構成要素は、クラウドコンピューティングベース環境、ローカル環境、グローバル環境、別の環境、または環境の組合せを含めて、環境内で動作するように構成され得る。
ハイレベルにおいて、コンピュータ302は、説明する主題に関連するデータおよび情報を受信、送信、処理、記憶、または管理するように動作可能な電子コンピューティングデバイスである。同じ実装形態によれば、コンピュータ302は、アプリケーションサーバ、電子メールサーバ、ウェブサーバ、キャッシングサーバ、ストリーミングデータサーバ、別のサーバ、またはサーバの組合せを含めて、サーバを含んでもよいか、またはサーバに通信可能に結合されてもよい。
コンピュータ302は、ネットワーク330を介して(たとえば、別のコンピュータ302上で実行しているクライアントソフトウェアアプリケーションから)要求を受信し、ソフトウェアアプリケーションまたはソフトウェアアプリケーションの組合せを使用して、受信された要求を処理することによって、受信された要求に応じることができる。加えて、要求は、内部ユーザから(たとえば、コマンドコンソールから、または別の内部アクセス方法によって)、外部当事者もしくは第三者、または他のエンティティ、個人、システム、もしくはコンピュータからコンピュータ302に送られてもよい。
コンピュータ302の構成要素の各々は、システムバス303を使用して通信することができる。いくつかの実施形態では、ハードウェア、ソフトウェア、またはハードウェアおよびソフトウェアの組合せを含めて、コンピュータ302の構成要素のうちのいずれかまたはすべては、アプリケーションプログラミングインターフェース(API)312、サービスレイヤ313、またはAPI312およびサービスレイヤ313の組合せを使用して、システムバス303を介してインターフェースをとることができる。API312は、ルーチン、データ構造、およびオブジェクトクラスに関する仕様を含み得る。API312は、コンピュータ言語依存型であっても非依存型であってもよく、コンピュータインターフェース、単一機能、またはAPIのセットをすら指すことがある。サービスレイヤ313は、ソフトウェアサービスをコンピュータ302、またはコンピュータ302に通信可能に結合された他の構成要素(示されているか否かにかかわらず)に提供することができる。コンピュータ302の機能性は、サービスレイヤ313を使用してすべてのサービス消費者に対してアクセス可能であり得る。サービスレイヤ313によって提供されるソフトウェアサービスなどのソフトウェアサービスは、定義されたインターフェースを通して再使用可能な、定義された機能性を提供することができる。たとえば、インターフェースは、JAVA(登録商標)、C++、別のコンピューティング言語、もしくは拡張可能マークアップ言語(XML)フォーマット、別のフォーマット、またはフォーマットの組合せでデータを提供するコンピューティング言語の組合せで書き込まれたソフトウェアであり得る。コンピュータ302の統合構成要素として示されているが、代替実装形態は、コンピュータ302の他の構成要素またはコンピュータ302に通信可能に結合された他の構成要素(示されているか否かにかかわらず)に関して独立型構成要素としてAPI312またはサービスレイヤ313を示す場合がある。その上、API312またはサービスレイヤ313のうちのいずれかの部分またはすべての部分は、本開示の範囲から逸脱せずに、別のソフトウェアモジュール、エンタープライズアプリケーション、またはハードウェアモジュールの子またはサブモジュールとして実装されてもよい。
コンピュータ302はインターフェース304を含む。単一のインターフェース304として示されているが、コンピュータ302の特定のニーズ、要望、または特定の実装形態に従って、2つ以上のインターフェース304が使用されてもよい。インターフェース304は、分散環境においてネットワーク330に通信可能にリンクされた別のコンピューティングシステム(示されているか否かにかかわらず)と通信するためにコンピュータ302によって使用される。概して、インターフェース304は、ネットワーク330と通信するように動作可能であり、ソフトウェア、ハードウェア、またはソフトウェアおよびハードウェアの組合せの形で符号化された論理を含む。より具体的には、インターフェース304は、ネットワーク330またはインターフェース304のハードウェアが示すコンピュータ302の内部および外部の物理信号を通信するように動作可能であるように、通信に関連する1つまたは複数の通信プロトコルをサポートするソフトウェアを含み得る。
コンピュータ302はプロセッサ305を含む。単一のプロセッサ305として示されているが、コンピュータ302の特定のニーズ、要望、または特定の実装形態に従って、2つ以上のプロセッサ305が使用されてもよい。概して、プロセッサ305は、命令を実行し、データを操作して、コンピュータ302の動作、および本開示で説明するような、任意のアルゴリズム、方法、機能、プロセス、フロー、および手順を実行することができる。
コンピュータ302は、コンピュータ302、ネットワーク330に通信可能にリンクされた別の構成要素(示されているか否かにかかわらず)、またはコンピュータ302および別の構成要素の組合せに対するデータを維持し得るデータベース306を含み得る。たとえば、データベース306は、インメモリデータベース、従来型データベース、または本開示と整合するデータを記憶する別のタイプのデータベースであってよい。いくつかの実施形態では、データベース306はコンピュータ302の特定のニーズ、要望、または特定の実装形態、および説明する機能性に従って、2つ以上の異なるデータベースタイプ(たとえば、ハイブリッドのインメモリおよび従来型データベース)の組合せであってよい。単一のデータベース306として示されているが、コンピュータ302の特定のニーズ、要望、または特定の実装形態、および説明する機能に従って、同様のまたは異なるタイプの2つ以上のデータベースが使用されてよい。データベース306はコンピュータ302の一体化構成要素として示されているが、代替実装形態では、データベース306はコンピュータ302の外部にあってよい。
コンピュータ302は、コンピュータ302、ネットワーク330に通信可能にリンクされた1つまたは複数の別の構成要素(示されているか否かにかかわらず)、またはコンピュータ302および別の構成要素の組合せに対するデータを維持し得るメモリ307を含み得る。メモリ307は、本開示に整合する任意のデータを記憶することができる。いくつかの実施形態では、メモリ307は、コンピュータ302の特定のニーズ、要望、または特定の実装形態、および説明する機能性に従って、2つ以上の異なるタイプのメモリの組合せ(たとえば、半導体および磁気記憶装置の組合せ)であってよい。単一のメモリ307として示されているが、コンピュータ302の特定のニーズ、要望、または特定の実装形態、および説明する機能性に従って、2つ以上のメモリ307または同様のもしくは異なるタイプが使用されてよい。メモリ307はコンピュータ302の統合構成要素として示されているが、代替実装形態では、メモリ307はコンピュータ302の外部にあってよい。
アプリケーション308は、特に本開示で説明する機能性に関して、コンピュータ302の特定のニーズ、要望、または特定の実装形態に従って機能性を提供するアルゴリズムソフトウェアエンジンである。たとえば、アプリケーション308は、1つまたは複数の構成要素、モジュール、またはアプリケーションとして役立ち得る。さらに、単一のアプリケーション308として示されているが、アプリケーション308は、コンピュータ302上で複数のアプリケーション308として実装され得る。加えて、コンピュータ302と一体化されるとして示されているが、代替実装形態では、アプリケーション308はコンピュータ302の外部にあってよい。
コンピュータ302はまた電源314を含み得る。電源314は、ユーザが交換可能または交換不可能であるように構成され得る充電式または非充電式バッテリーを含み得る。いくつかの実施形態では、電源314は、(充電式、独立型、または別の電力管理機能性を含めて)電力変換回路または電力管理回路を含み得る。いくつかの実施形態では、電源314は、たとえば、コンピュータ302に電源投入するか、または充電式バッテリーを充電するために、コンピュータ302が壁コンセントまたは別の電源にプラグインされることを可能にする電源プラグを含み得る。
コンピュータ302を含むコンピュータシステムに関連する、またはその外部に任意の数のコンピュータ302が存在し得、各コンピュータ302はネットワーク330を介して通信する。さらに、「クライアント」、「ユーザ」という用語、または他の適切な用語は、本開示の範囲から逸脱せずに、適宜に交換可能に使用され得る。その上、本開示は、多くのユーザが1つのコンピュータ302を使用することができること、または1人のユーザが複数のコンピュータ302を使用することができることを企図する。
主題の説明した実装形態は、1つまたは複数の特徴を単独でまたは組み合わせて含むことが可能である。
たとえば、第1の実装形態では、VRデバイスは、各々がカメラレンズおよび鼻溝をホストする、2つの開口を含むハウジングと、VRデバイスユーザの1つまたは複数の目の生理的特性を捕捉するためにカメラレンズの各々の周囲に分散された1つまたは複数のカメラとを含む。
前述のおよび他の説明した実装形態は、各々、オプションで、以下の特徴のうちの1つまたは複数を含み得る。
1つまたは複数の目の生理的特性が虹彩特性またはアイプリント特性を含む、以下の特徴のうちのいずれかと組み合わせ可能な、第1の特徴。
1つまたは複数のカメラに光補正を提供するための1つまたは複数のLED光源をさらに含む、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第2の特徴。
1つまたは複数のLED光源および1つまたは複数のカメラが一対一の対応を有する、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第3の特徴。
1つまたは複数のカメラが赤外線カメラであり、1つまたは複数のLED光源が赤外線LED光源である、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第4の特徴。
1つまたは複数のカメラがRGBカメラであり、1つまたは複数のLED光源がRGB LED光源である、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第5の特徴。
1つまたは複数のカメラがカメラレンズの各々の周囲に均等に分散される、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第6の特徴。
カメラレンズがマクロレンズである、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第7の特徴。
少なくともユニバーサルシリアルバス(USB)ポートまたはワイヤレスチップを含むデータインターフェースをさらに含む、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第8の特徴。
カメラレンズ上の光入射の輝度を感知するための光センサーをさらに含む、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第9の特徴。
第2の実装形態では、VRシステムは、各々がカメラレンズおよび鼻溝をホストする、2つの開口を含む、VRデバイスのハウジングと、VRデバイスユーザの1つまたは複数の目の生理的特性を捕捉するためにカメラレンズの各々の周囲に分散された1つまたは複数のカメラとを含む。
前述のおよび他の説明した実装形態は、各々、オプションで、以下の特徴のうちの1つまたは複数を含み得る。
1つまたは複数の目の生理的特性が虹彩特性またはアイプリント特性を含む、以下の特徴のうちのいずれかと組み合わせ可能な、第1の特徴。
1つまたは複数のカメラに光補正を提供するための1つまたは複数のLED光源をさらに含む、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第2の特徴。
1つまたは複数のLED光源および1つまたは複数のカメラが一対一の対応を有する、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第3の特徴。
1つまたは複数のカメラが赤外線カメラであり、1つまたは複数のLED光源が赤外線LED光源である、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第4の特徴。
1つまたは複数のカメラがRGBカメラであり、1つまたは複数のLED光源がRGB LED光源である、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第5の特徴。
1つまたは複数のカメラがカメラレンズの各々の周囲に均等に分散される、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第6の特徴。
カメラレンズがマクロレンズである、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第7の特徴。
少なくともユニバーサルシリアルバス(USB)ポートまたはワイヤレスチップを含むデータインターフェースをさらに含む、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第8の特徴。
カメラレンズ上の光入射の輝度を感知するための光センサーをさらに含む、前の特徴または以下の特徴のうちのいずれかと組み合わせ可能な、第9の特徴。
本明細書で説明した主題および機能的動作の実装形態は、デジタル電子回路の形で、有形に実施されたコンピュータソフトウェアもしくはファームウェアの形で、本明細書内で開示した構造およびそれらの構造的均等物を含めて、コンピュータハードウェアの形で、またはそれらのうちの1つまたは複数の組合せで実装され得る。説明した主題のソフトウェア実装形態は、1つまたは複数のコンピュータプログラム、すなわち、コンピュータもしくはコンピュータ実装システムによって実行するために、またはコンピュータもしくはコンピュータ実装システムの動作を制御するために、有形の非一時的なコンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つまたは複数のモジュールとして実装され得る。代替または追加として、プログラム命令は、人工的に生成された伝搬信号、たとえば、コンピュータまたはコンピュータ実装システムによる実行のために受信機装置に送信するための情報を符号化するために生成される機械生成された電気信号、光信号、または電磁信号内/上に符号化され得る。コンピュータ記憶媒体は、機械可読記憶デバイス、機械可読記憶基盤、ランダムアクセスメモリデバイスもしくはシリアルアクセスメモリデバイス、またはコンピュータ記憶媒体の組合せであり得る。1つまたは複数のコンピュータを構成することは、ソフトウェアが1つまたは複数のコンピュータによって実行されると、特定のコンピューティング動作が実行されるように、1つまたは複数のコンピュータが、ハードウェア、ファームウェア、またはソフトウェア(または、ハードウェア、ファームウェア、およびソフトウェアの組合せ)をインストールすることを意味する。
「リアルタイム(real-time)」、「リアルタイム(real time)」、「リアルタイム(realtime)」、「リアル(高速)タイム(RFT:real (fast) time)」、「ニア(ほぼ)リアルタイム(NRT:near(ly) real-time)」、「準リアルタイム」という用語、または(当業者が理解する)同様の用語は、個人がその行為および応答が実質的に同時に生じていることを理解するように、行為および応答が時間的に近接していることを意味する。たとえば、データにアクセスするための個人の行為に続くデータの表示に対する(または、表示の開始に対する)時間差は、1ミリ秒(ms)未満、1秒(s)未満、または5s未満であり得る。要求されたデータは瞬時に表示されなくてよいが(または、表示のために開始されなくてよいが)、そのデータは、説明するコンピューティングシステムの処理限界、および、たとえば、そのデータを集める、正確に測定する、分析する、処理する、記憶する、または送信するために必要とされる時間を考慮に入れて、何らの意図的な遅延もなしに表示される(または表示を開始する)。
「データ処理装置」、「コンピュータ」、または「電子コンピュータデバイス」(または、当業者が理解するような均等の用語)は、データ処理ハードウェアを指し、例として、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含めて、データを処理するためのあらゆる種類の装置、デバイス、および機械を包含する。コンピュータは、専用論理回路、たとえば、中央処理装置(CPU)、FPGA(フィールドプログラマブルゲートアレイ)、またはASIC(特定用途向け集積回路)であってもよく、またはそれらをさらに含んでもよい。いくつかの実施形態では、コンピュータもしくはコンピュータ実装システムまたは専用論理回路(または、コンピュータもしくはコンピュータ実装システムと専用論理回路の組合せ)は、ハードウェアベースもしくはソフトウェアベース(または、ハードウェアベースとソフトウェアベースの両方)であってよい。コンピュータは、オプションで、コンピュータプログラム用の実行環境を生み出すコード、たとえば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、または実行環境の組合せを構成するコードを含み得る。本開示は、何らかのタイプのコンピューティングシステム、たとえば、LINUX、UNIX(登録商標)、WINDOWS(登録商標)、MAC OS、ANDROID(登録商標)、IOS、別のオペレーティングシステム、またはオペレーティングシステムの組合せを備えたコンピュータまたはコンピュータ実装システムの使用を企図する。
プログラム、ソフトウェア、ソフトウェアアプリケーション、ユニット、モジュール、ソフトウェアモジュール、スクリプト、コード、または他の構成要素と呼ばれることもあり、またはそれらとして説明されることもあるコンピュータプログラムは、コンパイラ型言語もしくはインタープリタ型言語、または宣言型言語もしくは手続き型言語を含めて、任意の形態のプログラミング言語で書き込まれてよく、コンピューティング環境で使用するために、たとえば、独立型プログラム、モジュール、構成要素、またはサブルーチンとして、を含めて、任意の形態で展開されてよい。コンピュータプログラムは、ファイルまたはファイルシステムに対応し得るが、そうでなくてもよい。プログラムは、他のプログラムまたはデータ、たとえば、マークアップ言語文書内に、当該プログラム専用の単一ファイル内に、または複数の協調ファイル、たとえば、1つまたは複数のモジュール、サブプログラム、またはコードの部分を記憶するファイル内に記憶された1つまたは複数のスクリプトを保持するファイルの一部分の中に記憶されてよい。コンピュータプログラムは、1つのコンピュータ、または1つのサイトに配置された、または複数のサイトにわたって分散され、通信ネットワークによって相互接続された、複数のコンピュータ上で実行されるように展開されてよい。
様々な図において示したプログラムの部分は、様々なオブジェクト、方法、または他のプロセスを使用して、説明する特徴および機能性を実装するユニットまたはモジュールなど、個々の構成要素として示される場合があるが、プログラムは、代わりに、いくつかのサブユニット、サブモジュール、第三者サービス、ライブラリ、および他の構成要素を適宜に含んでよい。逆に、様々な構成要素の特徴および機能性は、適宜に単一の構成要素内に組み込まれてよい。計算上の判定を行うために使用されるしきい値は、静的に、動的に、または静的と動的の両方で判定されてよい。
説明した方法、プロセス、または論理のフローは、本開示に整合する機能性の1つまたは複数の例を表し、本開示を説明したまたは示した実施形態に限定することを意図せず、説明した原理および特徴に整合する最大範囲が与えられるべきである。説明した方法、プロセス、または論理のフローは、入力データに関して動作し、出力データを生成することによって機能を実行するために、1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラマブルコンピュータによって実行され得る。方法、プロセス、または論理のフローは、専用論理回路、たとえば、CPU、FPGA、またはASICによって実行されてもよく、コンピュータは、専用論理回路、たとえば、CPU、FPGA、またはASICとして実装されてもよい。
コンピュータプログラムの実行のためのコンピュータは、汎用マイクロプロセッサまたは専用マイクロプロセッサ、両方、または別のタイプのCPUに基づいてよい。概して、CPUは、命令およびデータをメモリから受信し、命令およびデータをメモリに書き込むことになる。コンピュータの本質的な要素は、命令を実施または実行するためのCPU、および、命令およびデータを記憶するための1つまたは複数のメモリデバイスである。概して、コンピュータはまた、データを記憶するための1つまたは複数の大容量記憶デバイス、たとえば、磁気ディスク、光磁気ディスク、または光ディスクを含むことになるか、またはそれらからデータを受信するか、またはそれらにデータを送信するか、または両方のために動作可能に結合されることになる。しかしながら、コンピュータはそのようなデバイスを有さなくてもよい。その上、コンピュータは、別のデバイス、たとえば、モバイル電話、携帯情報端末(PDA)、モバイルオーディオプレーヤーもしくはモバイルビデオプレーヤー、ゲームコンソール、全地球測位システム(GPS)受信機、またはポータブルメモリ記憶デバイス内に埋め込まれてよい。
コンピュータプログラム命令およびデータを記憶するための非一時的コンピュータ可読媒体は、例として、半導体メモリデバイス、たとえば、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、相変化メモリ(PRAM)、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)、消去可能プログラマブル読取り専用メモリ(EPROM)、電気的消去可能プログラマブル読取り専用メモリ(EEPROM)、およびフラッシュメモリデバイス;磁気デバイス、たとえば、テープ、カートリッジ、カセット、内部/リムーバブルディスク;光磁気ディスク;および、光メモリデバイス、たとえば、デジタル多用途/ビデオディスク(DVD)、コンパクトディスク(CD)-ROM、DVD+/-R、DVD-RAM、DVD-ROM、高精細/高密度(HD)-DVD、およびBLU-RAY/BLU-RAY DISC(BD)、ならびに他の光メモリ技術を含めて、任意の形態の永久/非永久または揮発性/不揮発性のメモリ、媒体、およびメモリデバイスを含み得る。メモリは、動的情報、または、任意のパラメータ、変数、アルゴリズム、命令、規則、制約、または参照文献を含む他の適切な情報を記憶する、キャッシュ、クラス、フレームワーク、アプリケーション、モジュール、バックアップデータ、ジョブ、ウェブページ、ウェブページテンプレート、データ構造、データベーステーブル、リポジトリを含めて、様々なオブジェクトまたはデータを記憶することができる。加えて、メモリは、ログ、ポリシー、セキュリティもしくはアクセスデータ、または報告ファイルなど、他の適切なデータを含み得る。プロセッサおよびメモリは、専用論理回路によって補完されてよいか、または専用論理回路内に組み込まれてよい。
ユーザとの対話を提供するために、本明細書で説明した主題の実装形態は、情報をユーザに表示するための、ディスプレイデバイス、たとえば、CRT(陰極線管)、LCD(液晶ディスプレイ)、LED(発光ダイオード)、またはプラズマモニタ、それによってユーザが入力をコンピュータに提供することができるキーボードおよびポインティングデバイス、たとえば、マウス、トラックボール、またはトラックパッドを有するコンピュータ上で実装され得る。入力は、感圧性を備えたタブレットコンピュータ表面などのタッチスクリーン、容量感知または電気感知を使用するマルチタッチスクリーン、または別のタイプのタッチスクリーンなど、タッチスクリーンを使用してコンピュータに提供されてもよい。他のタイプのデバイスを使用してユーザと対話することもできる。たとえば、ユーザに提供されるフィードバックは、任意の形態の知覚フィードバック(視覚、聴覚、触覚、またはフィードバックタイプの組合せなど)であり得る。ユーザからのフィードバックは、音響入力、音声入力、または触覚入力を含めて、任意の形態で受信され得る。加えて、コンピュータは、ユーザが使用するクライアントコンピューティングデバイスに文書を送り、そのクライアントコンピューティングデバイスから文書を受信することによって(たとえば、ウェブブラウザから受信された要求に応じて、ウェブページをユーザのモバイルコンピューティングデバイス上でウェブブラウザに送ることによって)、ユーザと対話することができる。
「グラフィカルユーザインターフェース」または「GUI」という用語は、1つまたは複数のグラフィカルユーザインターフェース、および特定のグラフィカルユーザインターフェースのディスプレイの各々を説明するために、単数または複数で使用されてよい。したがって、GUIは、情報を処理して、その情報結果をユーザに効率的に提示する、限定はしないが、ウェブブラウザ、タッチスクリーン、またはコマンドラインインターフェース(CLI)を含む、任意のグラフィカルユーザインターフェースを表し得る。概して、GUIは、そのいくつかまたはすべてが対話フィールド、プルダウンリスト、およびボタンなど、ウェブブラウザに関連付けられる、いくつかのユーザインターフェース(UI)要素を含み得る。これらのおよび他のUI要素は、ウェブブラウザの機能に関する場合があり、またはそれらの機能を表す場合がある。
本明細書で説明した主題の実装形態は、たとえば、データサーバなど、バックエンド構成要素を含む、または、ミドルウェア構成要素、たとえば、アプリケーションサーバを含む、またはフロントエンド構成要素、たとえば、それを通してユーザが本明細書で説明した主題の実装と対話し得るグラフィカルユーザインターフェースまたはウェブブラウザを有するクライアントコンピュータを含む、または1つまたは複数のそのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の何らかの組合せを含むコンピューティングシステム内で実装され得る。システムの構成要素は、任意の形態または媒体のワイヤラインまたはワイヤレスのデジタルデータ通信(または、データ通信の組合せ)、たとえば、通信ネットワークによって相互接続され得る。通信ネットワークの例には、ローカルエリアネットワーク(LAN)、無線アクセスネットワーク(RAN)、メトロポリタンエリアネットワーク(MAN)、ワイドエリアネットワーク(WAN)、ワールドワイドインターオペラビリティフォーマイクロウェーブアクセス(WIMAX)、たとえば、802.11a/b/g/nもしくは802.20(または、802.11xおよび802.20の組合せ、もしくは本開示に整合する他のプロトコル)を使用するワイヤレスローカルエリアネットワーク(WLAN)、インターネットのすべてまたは一部分、別の通信ネットワーク、または通信ネットワークの組合せがある。通信ネットワークは、ネットワークノード同士の間で、たとえば、インターネットプロトコル(IP)パケット、フレームリレーフレーム、非同期転送モード(ATM)セル、音声、ビデオ、データ、または他の情報を通信することができる。
コンピューティングシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは、概して、互いと離れており、一般的に、通信ネットワークを通して対話する。クライアントおよびサーバの関係は、それぞれのコンピュータ上で実行し、互いにクライアント/サーバ関係を有するコンピュータプログラムによって生じる。
本明細書は多くの特定の実装詳細を含むが、これらは、いずれかの発明の範囲に、または特許請求され得る範囲に対する限定と解釈されるべきではなく、特定の発明の特定の実装に固有であり得る特徴の説明と解釈されるべきである。別個の実装形態の文脈で本明細書において説明したいくつかの特徴は、組み合わされて実装されても、単一の実装形態の形で実装されてもよい。逆に、単一の実装形態の文脈で説明した様々な特徴は、複数の実装形態の形で別個に、または何らかの部分的な組合せとして実装されてもよい。その上、前に説明した特徴は、いくつかの組合せで働くとして説明される場合があり、当初、そのように特許請求される場合すらあるが、特許請求される組合せからの1つまたは複数の特徴は、場合によっては、その組合せから削除される場合があり、特許請求される組合せは、部分的な組合せを対象とする場合があるか、または部分的な組合せの変種を対象とする場合もある。
主題の特定の実装形態が説明されてきた。当業者が理解するように、説明した実装形態の他の実装形態、改変、および置換は、続く特許請求の範囲内である。動作は図面または特許請求の範囲において特定の順序で示されているが、これは、そのような動作が示された特定の順序でまたは順番で実行されるべきであること、または望ましい結果を達成するために、すべての示された動作が実行されるべきであることを必要とするものと理解すべきではない(いくつかの動作はオプションと見なされてよい)。いくつかの状況では、マルチタスキングもしくは並列処理(または、マルチタスキングと並列処理の組合せ)が有利な場合があり、適切であると見なされる場合、実行される場合がある。
その上、すでに説明した実装形態における様々なシステムモジュールおよび構成要素の分離または統合は、すべての実装形態においてそのような分離または統合を必要とするものと理解されるべきではなく、説明したプログラム構成要素およびシステムは、概して、単一のソフトウェア製品内に一緒に統合されてよく、または複数のソフトウェア製品にパッケージングされてよいことを理解されたい。
したがって、すでに説明した例示的な実装形態は、本開示を定義または制約しない。本開示の範囲から逸脱せずに、他の変更、置換、および改変も可能である。
さらに、いずれかの特許請求される実装形態は、少なくともコンピュータ実装方法; コンピュータ実装方法を実行するためのコンピュータ可読命令を記憶した、非一時的なコンピュータ可読媒体;およびコンピュータ実装方法、または非一時的なコンピュータ可読媒体上に記憶された命令を実行するように構成されたハードウェアプロセッサに相互運用可能に結合されたコンピュータメモリを備えたコンピュータシステムに適用可能であると見なされる。
100a VRデバイス
110 ハウジング
120 レンズ
130 カメラ
160 データインターフェース
170 発光ダイオード(LED)ライト
200 方法
300 コンピュータシステム
302 コンピュータ
303 システムバス
304 インターフェース
305 プロセッサ
306 データベース
307 メモリ
308 アプリケーション
312 アプリケーションプログラミングインターフェース(API)
313 サービスレイヤ
314 電源
330 ネットワーク

Claims (13)

  1. ユーザ識別認証を必要とするVRアプリケーションを実行するための仮想現実デバイスであって、前記ユーザ識別認証に目の生理的特性が使用され、
    前記デバイスは、
    i)それぞれがカメラレンズをホストする2つの開口と、ii)鼻溝とを含むハウジングであって、前記2つの開口が、仮想現実デバイスのユーザの目の相対的位置に対応する、ハウジングと、
    前記仮想現実デバイスのユーザの1つまたは複数の目の生理的特性を捕捉するために、前記2つのカメラレンズの各々の周囲に等間隔に配置されたカメラであって、前記2つのカメラレンズが、前記1つまたは複数の目の生理的特性を捕捉するときに前記仮想現実デバイスのユーザの前記目に前記カメラの焦点を合わせるためのマクロレンズである、カメラと、
    前記2つのカメラレンズ上の光入射の輝度を検出するように構成された光センサと、
    前記カメラに取り付けられ、検出された輝度に基づき一対一の光補正を前記カメラに提供するための1つまたは複数の発光ダイオード光源と、を備える、
    デバイス。
  2. 前記2つのカメラレンズが、前記仮想現実デバイスのユーザに与える視覚効果へと光を変換するように構成されたレンズアセンブリを備える、
    請求項1に記載のデバイス。
  3. 前記2つのカメラレンズが、2つ以上の方向から目の画像を取得しかつ前記仮想現実デバイスのユーザの前記1つまたは複数の目の生理的特性の完全なデータセットを取得するために、前記カメラと、前記仮想現実デバイスのユーザの目との間に位置する、
    請求項1または2に記載のデバイス。
  4. 前記1つまたは複数の目の生理的特性が、強膜のテキスチャを含むアイプリント特性、および虹彩のテキスチャを含む虹彩の特性のうちの少なくとも1つを含む、
    請求項1に記載のデバイス。
  5. 前記1つまたは複数の発光ダイオード光源および前記カメラは、一対一の対応を有する、
    請求項1に記載のデバイス。
  6. 前記カメラが、赤外線カメラであり、
    前記1つまたは複数の発光ダイオード光源が、赤外線発光ダイオード光源であり、
    前記1つまたは複数の目の生理的特性が、虹彩の特性であり、
    前記1つまたは複数の発光ダイオード光源が、一対一の光補正を前記赤外線カメラに提供するように構成される、
    請求項1に記載のデバイス。
  7. 前記カメラが、RGBカメラであり、
    前記1つまたは複数の発光ダイオード光源が、RGB発光ダイオード光源であり、
    前記カメラが前記仮想現実デバイスのユーザのアイプリント特性を収集するように構成され、
    前記発光ダイオード光源が、前記RGBカメラの光に対して一対一の光補正を行うように構成される、
    請求項1に記載のデバイス。
  8. 前記デバイスは、
    少なくともユニバーサルシリアルバスポートまたはワイヤレスチップを含むデータインターフェースをさらに含み、前記データインターフェースが、外部のユーザコンピューティングデバイスに電気的にまたは無線で接続可能である、
    請求項1に記載のデバイス。
  9. 前記仮想現実デバイスは、ユーザ識別認証のために、前記データインターフェースを通じてサーバと通信するように構成され、
    前記仮想現実デバイスは、収集した目の生理的特性サンプルを有線接続または無線接続を通じて前記サーバに送信するように構成される、
    請求項8に記載のデバイス。
  10. 前記仮想現実デバイスは、
    サービスアカウント登録の間に、1つまたは複数の目の生理的特性サンプルを取得する、または、
    オフライン生体認証を提供するために、前記1つまたは複数の目の生理的特性サンプルを前記仮想現実デバイスによって局所的に保存する、または、
    オンライン認証を提供するために、前記1つまたは複数の目の生理的特性サンプルを前記サーバに送信するように構成される、
    請求項9に記載のデバイス。
  11. 前記仮想現実デバイスは、前記サーバに対する生体認証要求を生成するように構成され、
    前記生体認証要求が、前記仮想現実デバイスのユーザまたはサービスアカウント情報、
    および前記1つまたは複数の目の生理的特性を含む、
    請求項10に記載のデバイス。
  12. 仮想現実シナリオにおいて目の生理的特性に基づいたユーザ識別認証を実行する方法であって、前記方法は、請求項1~11のいずれか一項に記載のデバイスに対して適用され、前記方法は、
    仮想現実アプリケーションの前記仮想現実シナリオにおいてサービスサーバによって実行されるサービスを開始するために、仮想現実デバイスのユーザからの1つまたは複数の対話動作を検出するステップであって、前記サービスが、ユーザ識別認証を要求する、ステップと、
    ユーザ識別認証のために、前記仮想現実デバイスのユーザの1つまたは複数の目の生理的特性を取得するステップと、
    前記サービスが開始された後に、前記ユーザ識別認証のために、前記仮想現実シナリオにおけるユーザインターフェースを前記仮想現実デバイスによって提示するステップと、
    前記1つまたは複数の目の生理的特性と、事前に格納された1つまたは複数の目の生理的特性サンプルとを比較するステップと、
    前記1つまたは複数の目の生理的特性が、事前に格納された前記1つまたは複数の目の生理的特性サンプルの少なくとも一部と一致する場合に、前記仮想現実デバイスのユーザを認証するステップと、
    前記認証が成功した場合に、前記サービスサーバとのさらなる対話を実行して、前記サービスを実行するために、前記サービスに対応するサービスインターフェースを前記仮想現実デバイスによって提示するステップと、
    前記仮想現実デバイスが、請求項1~11のいずれか一項に記載のデバイスである、
    方法。
  13. 前記仮想現実アプリケーションが、前記仮想現実デバイスのユーザに3D体験を提供するように、前記仮想現実デバイスを通じて前記仮想現実シナリオをレンダリングする、
    請求項12に記載の方法。
JP2019548527A 2016-11-29 2017-11-27 ユーザ識別認証のために目の生理的特性を使用する仮想現実デバイス Active JP7065867B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CN201621293788.0U CN206301289U (zh) 2016-11-29 2016-11-29 Vr终端设备
CN201621293788.0 2016-11-29
US15/819,034 US20180150690A1 (en) 2016-11-29 2017-11-21 Virtual reality device using eye physiological characteristics for user identity authentication
US15/819,034 2017-11-21
PCT/US2017/063223 WO2018102245A1 (en) 2016-11-29 2017-11-27 Virtual reality device using eye physiological characteristics for user identity authentication

Publications (2)

Publication Number Publication Date
JP2020515949A JP2020515949A (ja) 2020-05-28
JP7065867B2 true JP7065867B2 (ja) 2022-05-12

Family

ID=59212948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019548527A Active JP7065867B2 (ja) 2016-11-29 2017-11-27 ユーザ識別認証のために目の生理的特性を使用する仮想現実デバイス

Country Status (8)

Country Link
US (1) US20180150690A1 (ja)
EP (1) EP3549062A4 (ja)
JP (1) JP7065867B2 (ja)
KR (1) KR102399906B1 (ja)
CN (1) CN206301289U (ja)
PH (1) PH12019501189A1 (ja)
TW (1) TWM556170U (ja)
WO (1) WO2018102245A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066079A (zh) 2016-11-29 2017-08-18 阿里巴巴集团控股有限公司 基于虚拟现实场景的业务实现方法及装置
CN107122642A (zh) 2017-03-15 2017-09-01 阿里巴巴集团控股有限公司 基于虚拟现实环境的身份认证方法及装置
US11595381B2 (en) * 2017-08-23 2023-02-28 Visa International Service Association Secure authorization for access to private data in virtual reality
CN109426713B (zh) * 2017-08-28 2022-05-24 关楗股份有限公司 用于身份核实系统中的造假生物特征过滤装置
CN109725418B (zh) 2017-10-30 2020-10-16 华为技术有限公司 显示设备、用于调整显示设备的图像呈现的方法及装置
CN109815778A (zh) * 2017-11-20 2019-05-28 上海真曦通信技术有限公司 一种基于眼部特征的身份识别电子系统
CN109002796B (zh) * 2018-07-16 2020-08-04 阿里巴巴集团控股有限公司 一种图像采集方法、装置和系统以及电子设备
US11137608B2 (en) 2019-09-25 2021-10-05 Electronics And Telecommunications Research Institute Slim immersive display device, slim visualization device, and user eye-tracking device
US11686927B2 (en) 2020-08-26 2023-06-27 Electronics And Telecommunications Research Institute Slim immersive display device and slim visualization device
US12003273B2 (en) * 2021-12-20 2024-06-04 Microsoft Technology Licensing, Llc Secure element authentication using over the air optical communication

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20130114850A1 (en) 2011-11-07 2013-05-09 Eye-Com Corporation Systems and methods for high-resolution gaze tracking
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
US20160225164A1 (en) 2015-01-29 2016-08-04 Arthur C. Tomlin Automatic generation of virtual materials from real-world materials
WO2016183020A1 (en) 2015-05-11 2016-11-17 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
WO2016183541A1 (en) 2015-05-14 2016-11-17 Magic Leap, Inc. Augmented reality systems and methods for tracking biometric data

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2317528B (en) * 1995-12-04 1998-09-02 Sharp Kk Image display device
JP2004337348A (ja) * 2003-05-15 2004-12-02 New Opto Corp 眼球運動解析システム
KR20060038020A (ko) * 2004-10-29 2006-05-03 신성복 광거리 센서를 이용한 홍채영상 획득장치
JP5537008B2 (ja) * 2007-11-29 2014-07-02 株式会社東芝 外観検査装置
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
EP2499964B1 (en) * 2011-03-18 2015-04-15 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Optical measuring device and system
US8756680B2 (en) * 2011-08-02 2014-06-17 Corning Incorporated Biometric-enabled smart card
KR101471488B1 (ko) * 2012-03-23 2014-12-10 경북대학교 산학협력단 시선 추적 장치 및 방법
WO2015066332A1 (en) * 2013-10-30 2015-05-07 Technology Against Als Communication and control system and method
DK3075150T3 (da) * 2013-11-25 2022-09-12 Tesseland Llc Immersive kompakte displayglas
EP3234920A4 (en) * 2014-12-23 2017-10-25 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest
WO2016187477A1 (en) * 2015-05-20 2016-11-24 Daqri, Llc Virtual personification for augmented reality system
US10315371B2 (en) * 2016-07-28 2019-06-11 Microsoft Technology Licensing, Llc Multiphase optical grating

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20130114850A1 (en) 2011-11-07 2013-05-09 Eye-Com Corporation Systems and methods for high-resolution gaze tracking
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
US20160225164A1 (en) 2015-01-29 2016-08-04 Arthur C. Tomlin Automatic generation of virtual materials from real-world materials
WO2016183020A1 (en) 2015-05-11 2016-11-17 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
WO2016183541A1 (en) 2015-05-14 2016-11-17 Magic Leap, Inc. Augmented reality systems and methods for tracking biometric data

Also Published As

Publication number Publication date
KR102399906B1 (ko) 2022-05-18
CN206301289U (zh) 2017-07-04
EP3549062A4 (en) 2020-01-01
TWM556170U (zh) 2018-03-01
JP2020515949A (ja) 2020-05-28
EP3549062A1 (en) 2019-10-09
KR20190089912A (ko) 2019-07-31
WO2018102245A1 (en) 2018-06-07
PH12019501189A1 (en) 2019-07-29
US20180150690A1 (en) 2018-05-31

Similar Documents

Publication Publication Date Title
JP7065867B2 (ja) ユーザ識別認証のために目の生理的特性を使用する仮想現実デバイス
JP6869365B2 (ja) 仮想現実に基づいたサービス制御およびユーザ識別認証
KR102220084B1 (ko) 가상 현실을 사용한 사용자 신원 인증
JP6773901B2 (ja) 仮想現実に基づくサービス制御およびユーザ識別認証
KR102151897B1 (ko) 가상 현실 신원 검증
US9934504B2 (en) Image analysis for user authentication
US9646131B2 (en) Intelligent image processing for enterprise applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200117

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220210

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220210

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220224

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220426

R150 Certificate of patent or registration of utility model

Ref document number: 7065867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150