JP2015118577A - 表示デバイスでのユーザー認証 - Google Patents

表示デバイスでのユーザー認証 Download PDF

Info

Publication number
JP2015118577A
JP2015118577A JP2013261870A JP2013261870A JP2015118577A JP 2015118577 A JP2015118577 A JP 2015118577A JP 2013261870 A JP2013261870 A JP 2013261870A JP 2013261870 A JP2013261870 A JP 2013261870A JP 2015118577 A JP2015118577 A JP 2015118577A
Authority
JP
Japan
Prior art keywords
user
augmented reality
display device
authentication
functions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013261870A
Other languages
English (en)
Other versions
JP2015118577A5 (ja
JP6272688B2 (ja
Inventor
マイク・スカヴェッゼ
Scavezze Mike
ジェイソン・スコット
Scott Jason
ジョナサン・スティード
Stead Jonathan
イアン・マッキンタイア
Mclntyre Ian
アーロン・クラウス
Krauss Aaron
ダニエル・マカロック
Mcculloch Daniel
スティーヴン・ラッタ
Latta Stephen
ケヴィン・ゲイスナー
Geithner Kevin
ブライアン・マウント
Mount Brian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Priority to JP2013261870A priority Critical patent/JP6272688B2/ja
Publication of JP2015118577A publication Critical patent/JP2015118577A/ja
Publication of JP2015118577A5 publication Critical patent/JP2015118577A5/ja
Application granted granted Critical
Publication of JP6272688B2 publication Critical patent/JP6272688B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】表示デバイスのユーザーの認証を提供すること。
【解決手段】たとえば、1つの開示される実施形態は、拡張現実機能のセットを含む1つまたは複数の仮想画像を表示デバイスで表示するステップを含む。本方法は、さらに、表示デバイスのセンサから受信されるデータを介してユーザーの1つまたは複数の動きを識別するステップと、ユーザーの識別された動きを、ユーザー認証を所定の順番の拡張現実機能にリンクするユーザーの所定のセットの認証情報と比較するステップとを含む。識別された動きが、ユーザーが所定の順番で拡張現実機能を選択したことを指示する場合、ユーザーは認証され、識別された動きが、ユーザーが所定の順番で拡張現実機能を選択しなかったことを指示する場合、ユーザーは認証されない。
【選択図】図1

Description

[0001]デバイス、特定のプログラム、アプリケーション、データ、ウェブサイトなどの限定された機能にアクセスするために、コンピューティングデバイスのユーザーは、ユーザーがその限定された機能にアクセスするための許可を有することを認証するためのパスワードを入力するように促されることがある。
そのようなパスワードは、しばしば、ユーザーがキーパッド上で入力することができる一連の文字および/または数字を含む。さらに、認証は、指紋スキャン、網膜スキャンなどのバイオメトリックデータを介して行うこともできる。
[0002]表示デバイスのユーザーを認証するための実施形態が、開示される。たとえば、1つの開示される実施形態は、拡張現実機能のセットを備える1つまたは複数の仮想画像を表示デバイス上で表示するステップを含む方法を提供する。本方法はさらに、表示デバイスのセンサから受信されるデータを介してユーザーの1つまたは複数の動きを識別するステップと、ユーザーの識別された動きを、ユーザー認証を所定の順番の拡張現実機能にリンクするユーザーの認証情報の所定のセットと比較するステップとを含む。識別された動きが、ユーザーが所定の順番で拡張現実機能を選択したことを指示する場合、ユーザーは認証され、次いで、識別された動きが、ユーザーは所定の順番で拡張現実機能を選択しなかったことを指示する場合、ユーザーは認証されない。
[0003]この「発明の概要」は、「発明を実施するための形態」で以下にさらに説明される概念の選択を簡易化した形で紹介するために、提供される。この「発明の概要」は、特許請求されている主題の重要な特徴または本質的特徴を識別するものではなく、特許請求されている主題の範囲を限定するために使用されるものでもない。さらに、特許請求されている主題は、本開示のいずれかの部分に記載されたいずれかのまたはすべての不利点を解決する実装形態に限定されない。
[0004]本開示による表示デバイスの一実施形態の例示的使用環境の概略図である。 [0005]拡張現実機能のセットの2つの例示的実施形態を概略的に示す図である。 [0006]表示デバイスの例示的一実施形態を概略的に示す図である。 [0007]図3の表示デバイスのブロック図である。 [0008]本開示の一実施形態によるユーザーを認証するための方法の流れ図である。 [0009]本開示の別の実施形態によるユーザーを認証するための方法の流れ図である。 [0010]例示的コンピューティングシステムを概略的に示す図である。
[0011]頭部搭載型ディスプレイ(HMD)デバイスは、ユーザーに背景シーンの拡張現実ビューを提示するために使用することができる。さらに、HMDデバイスは、ユーザーが様々なプログラム、データ、および他のそのようなリソースにアクセスすることを可能にし得る。ユーザーが限定されたリソースにアクセスすることを認可するために、またはユーザーがHMDデバイスを使用する許可を有することを確保するために、ユーザーは、HMDデバイスによって表示される拡張現実画像に応答してHMDデバイスの1つまたは複数の入力機構を介して受信される入力によって、認証され得る。
[0012]これらの実施形態を詳細に論じる前に、非限定的使用のシナリオが、図1を参照して説明される。より詳細には、図1は、頭部搭載型表示デバイス104の一実施形態の使用環境の例示的一実施形態を示し、環境100は居間の形をとる。ユーザー106は、頭部搭載型表示デバイス104を介して居間を見ている。図1はまた、表示デバイス104を介して見える環境の一部と、ひいては表示デバイス104を介して表示される画像で拡張され得る環境の部分とを備える、ユーザー視界102を示す。いくつかの実施形態で、ユーザー視界102は、ユーザーの実際の視界とほぼ同一の広がりをもつことができ、一方、他の実施形態で、ユーザー視界102は、ユーザーの実際の視界のより少ない部分を占め得る。
[0013]以下にさらに詳しく説明するように、表示デバイス104は、ユーザーが環境をナビゲートときにユーザー認証環境100を表す画像データ(たとえば、色/グレースケール画像、深度画像/点群データなど)を取得するように構成された1つまたは複数の外側を向いた画像センサ(たとえば、2次元のカメラおよび/または深度カメラ)を備え得る。この画像データは、環境(たとえば、3次元の表面地図など)のレイアウトと、その中に含まれる、本棚108、扉110、窓112、およびソファ114などのオブジェクトとに関する情報を取得するために使用され得る。
[0014]表示デバイス104は、ユーザー視界102内の実際のオブジェクトの上に1つまたは複数の仮想画像をオーバーレイすることができる。図1に示される例示的仮想オブジェクトは、ボウル116、月118、および犬120を含む。仮想オブジェクトは、それらのオブジェクトがユーザー視界102内にユーザー106に対して様々な深度で見えるような3次元で表示され得る。表示デバイス104によって表示される仮想オブジェクトは、ユーザー106にのみ可視でもよく、ユーザー106が移動するときに移動し得る、またはユーザー106の動きにかかわらず設定された場所にとどまることが可能である。
[0015]本明細書で開示される実施形態によれば、表示デバイス104を介して表示される拡張現実画像は、場合によっては使用環境100に関する情報との組合せで、表示デバイス104でユーザー106を認証するために使用され得る。たとえば、前述の仮想オブジェクトは、ユーザー106に対して表示されて、ユーザー106が所定の順番で選択することができる拡張現実機能のセットを提供することができる。ユーザー106が所定の順番で拡張機能を選択する場合、ユーザーは、認証され、それによって、ユーザーが限定されたリソースにアクセスすることを可能にすることができる。拡張現実機能は、仮想オブジェクト機能、3次元のホログラム、2次元のホログラム、音、仮想の動き、振動を含むがこれらに限定されない任意の適切な機能を含むことができ、ユーザーの視界内の実際のオブジェクト機能も含み得る。たとえば、図1の例でユーザー106に対して表示される拡張現実機能は、本棚108の実際の棚にあるものとして表示された仮想のボウル116と、仮想の月118と、ユーザーに可視の頭122および尾124を有する仮想の犬120とを含む。
[0016]ユーザー106は、表示デバイス104によって検出可能な任意の適切な方式で拡張現実機能を選択することができる。たとえば、ユーザー106は、選択される拡張現実機能を注視することによって拡張現実機能を選択することができ、注視の方向は、1つまたは複数のアイトラッキングセンサによって検出され得る。別の例で、ユーザー106は、慣性運動センサおよび/または画像センサによって検知されるものとして、拡張現実機能にまたはそれに向けてユーザー自身の頭、手、全身などを動かすことによって、拡張現実機能を選択することができる。ユーザーはまた、1つまたは複数のマイクロフォンによって検知される音声コマンドを出すことができる。表示デバイス104のセンサを介するユーザー入力コマンドの検知に関するさらなる詳細は、図3〜図4に関して以下に論じられる。
[0017]拡張現実機能の選択は、拡張現実機能と関連付けられた動きまたはコマンドを実行するユーザー106に基づき検出および判定され得る。その動きは、拡張現実機能を単純に見るまたはそれに向かって動くユーザーを含み得る。さらに、いくつかの実施形態で、動きはまた、ユーザーが所定の時間にわたって拡張現実機能を見ること、ユーザーが特定の動きを実行しながらもしくは特性の音声コマンドを出しながら拡張現実機能を見ること、および/または拡張現実機能の選択を指示する他の適切な機能を含み得る。加えて、いくつかの実施形態で、特定の入力は、特定の地理的な位置、指定された位置でのHMDデバイスの特定の向きなどにリンクされ得る。
[0018]拡張現実機能がユーザーによって選択される所定の順番は、任意の適切な方式で判定され得る。たとえば、最初の認証パスワードセットアップセッションで、ユーザーは、機能の識別と、機能が認証プロセスで選択されるべき順番もまた、決定することができる。別の例で、表示デバイス104は、識別と拡張現実機能が選択されるべき順番とを判定することができ、ユーザーにどの順番でそれらの拡張現実機能を選択するべきかを通知することができる。
[0019]図1に示す例で、ユーザー106は、先ず、仮想のボウル116を、次いで仮想の月118を、次いで、犬120の頭122を選択する。ユーザーが所定の順番で正しい拡張現実機能を選択したかを判定するために、ユーザーの動き(目および体の動きを含む)と、場合によっては他の情報(たとえば、ユーザーの音声コマンド、位置、および/または向き)とが、表示デバイスのセンサを介して検知され、拡張現実機能が選択されるべき特定の順番にユーザー認証をリンクするユーザー認証情報と比較され得る。
[0020]いくつかの実施形態で、拡張現実機能は、各認証セッションで同じまたは同様の方式でユーザーに表示することができる。他の実施形態で、拡張現実機能は、ユーザー認証セッション間で異なってユーザーに表示され得る。たとえば、いくつかの実施形態で、選択された機能を含む拡張現実機能の異なるセット全体が、様々なユーザー認証セッションで表示され得る。別の例で、拡張現実機能の同じセットが、ただし異なる位置で、異なる認証セッション中に、表示され得る。どちらの場合にも、様々な認証セッション中の様々な方式での拡張現実機能の表示は、外部のオブザーバがユーザーによって実行される認証運動のパターンを検知することを防ぐのを助けることができ、それによって、選択された拡張現実機能の順番列の秘密保持を保つのを助けることができる。
[0021]さらに、ユーザーに対して表示される拡張現実機能の数および/または外観は、ユーザーの位置または他のパラメータに応じて変化し得る。たとえば、ユーザーが自身の自宅または他の個人的な場所で(たとえば、GPSデータ、画像データ、および/または他の表示デバイスセンサデータを介して)認証されると判定された場合、ユーザーがより公的な場所にいるときよりも、より単純なパスワード画像(たとえば、総数がより少ない拡張現実機能)が表示可能であり、かつ/またはユーザー入力が認証データに一致したかどうかに関して信頼度がより低くても、認証され得る。
[0022]図2は、2つの別個の認証セッション中に表示され得る2つのセットの拡張現実機能の例示的一実施形態を示す。これらの拡張現実機能は、前述のように、表示デバイスを介してユーザー(図2に示さず)に表示される。タイムライン202もまた、別個の認証セッションの相対的タイミングを説明するために示される。
[0023]時間t1で、第1のセットの拡張現実機能210が、ユーザーに表示される。第1のセットの拡張現実機能210は、ユーザー視界200内の様々な場所でゆっくりと画面の下方へ落ちて表示される文字のセットを備える。図2に示すように、ユーザーは、所定の順番で文字のセットを選択して、単語FIRKINを綴る。認証情報が、ユーザーのパスワードがFIRKINであると指示する場合、ユーザーは認証される。
[0024]次に、時間t2で、第2のセットの拡張現実機能220がユーザー視界200を介してユーザーに表示される第2の認証セッションが、開始される。第2のセットの拡張現実機能220で、文字および/または文字の位置は、第1のセットの拡張現実機能210とは異なり得るが、第1のセットの機能210のとは異なるセットの運動を介して単語FIRKINの選択をやはり可能にし得る。ユーザーは両方の認証セッションで同じ組合せの文字を選択するが、ユーザーの動きは、外部のオブザーバには異なって見えることになる。
[0025]前述のように、ユーザー認証プロセスは、表示デバイスを含むがそれに限定されない任意の適切なコンピューティングデバイスによって実行され得る。本開示による表示デバイスは、図1の頭部搭載型表示デバイス104などのHMDデバイスを含むがそれに限定されない、任意の適切な形をとることができる。図3は、表示システム300の例示的一実施形態を示し、図4は、表示システム300のブロック図である。
[0026]表示システム300は、画像がレンズ302に投影され得るような、またはレンズ302に組み込まれた画像作成要素(たとえば、透過的OLEDディスプレイ)によって作成され得るような、表示サブシステム304の一部を形成する1つまたは複数のレンズ302を備える。表示システム300は、ユーザーによって見られている背景シーンおよび/または物理的空間の画像を取得するように構成された1つまたは複数の外側を向いた画像センサ306をさらに備え、ユーザーからの音声コマンドなどの音を検出するように構成された1つまたは複数のマイクロフォン308を含み得る。外側を向いた画像センサ306は、1つまたは複数の深度センサ、および/あるいは1つまたは複数の2次元の画像センサを含み得る。
[0027]表示システム300は、前述のように、ユーザーの各目の注視の方向を検出するように構成された注視検出サブシステム310をさらに備え得る。注視検出サブシステム310は、任意の適切な方式でユーザーの各々の目の注視の方向を判定するように構成され得る。たとえば、図示された実施形態で、注視検出サブシステム310は、閃光をユーザーの各眼球から反射させるように構成された、赤外光源など、1つまたは複数の閃光源312と、ユーザーの各眼球の画像をとらえるように構成された、内側を向いたセンサなど、1つまたは複数の画像センサ314とを備える。画像センサ(複数可)314を介して集められる画像データから判定されるものとしてのユーザーの眼球からの閃光の変化は、注視の方向を判定するために使用され得る。さらに、ユーザーの目から投影された注視線が外部ディスプレイと交差する位置は、ユーザーが注視しているオブジェクト(たとえば、表示された仮想オブジェクトおよび/または実際の背景オブジェクト)を判定するために使用され得る。注視検出サブシステム310は、任意の適切な数および配列の光源および画像センサを有し得る。
[0028]表示システム300は、追加のセンサをさらに備え得る。たとえば、表示システム300は、表示システム300の位置が判定されることを可能にするために、グローバルポジショニング(GPS)サブシステム316を備え得る。これは、表示システム300のユーザーが異なる位置で異なるパスワードを使用できるようにすることができ、デバイス位置に応じてセキュリティの所望のレベルが変化できるようにすることができる。
[0029]表示システム300は、ユーザーが表示システム300を身に付けているときに、ユーザーの頭の動きを検出するための1つまたは複数の運動センサ318をさらに含み得る。運動データは、場合によってはアイトラッキング閃光データおよび外向きの画像データとともに、注視検出のために、ならびに外側を向いた画像センサ(複数可)306からの画像のぼやけの修正を助けるための画像安定化のために、使用され得る。運動データの使用は、外側を向いた画像センサ(複数可)306からの画像データが解像され得ない場合にも注視位置の変化を追跡可能にすることができる。同様に、運動センサ318、ならびにマイクロフォン(複数可)308および注視検出サブシステム310はまた、ユーザーが目、首および/または頭のジェスチャを介して、ならびに言葉によるコマンドを介して、表示システム300と対話することができるような、ユーザー入力デバイスとして使用され得る。任意の他の適切なセンサおよび/またはセンサの組合せが使用可能であるので、図3および図4に示されるセンサは、例示を目的として示され、任意の方式に限定されるものではないことが、理解されよう。
[0030]表示システム300は、センサ、注視検出サブシステム310、および表示サブシステム304と通信する論理サブシステム322およびデータ保持サブシステム324(別法で、記憶システムと称される)を有するコントローラ320をさらに備える。データ保持サブシステム324は、いくつかあるタスクの中でも、たとえば、センサからの入力を受信および解釈する、ユーザーの動きを識別する、識別された動きを認証情報と比較してユーザーが所定の順番でそれらの拡張現実機能を選択したかを判定する、かつユーザーを認証するように、論理サブシステム322によって実行可能なデータ保持サブシステム324に記憶された命令を備える。
[0031]図示された表示デバイス104、300は、例示を目的として示され、したがって、限定を意味するものではないことが理解されよう。本表示デバイスは、本開示の範囲を逸脱することなしに、示されたものよりも追加のおよび/または代替のセンサ、カメラ、マイクロフォン、入力デバイス、出力デバイスなどを含み得ることを理解されたい。さらに、表示デバイスの物理的構成と様々なセンサおよびサブコンポーネントとは、本開示の範囲を逸脱することなしに様々な異なる形をとり得る。
[0032]図5は、前述の頭部搭載型表示デバイス104などの表示デバイスのユーザーを認証するための方法500の一実施形態を示す流れ図である。簡潔には、方法500は、ユーザーを認証するために、認証セッション中にユーザーに1つまたは複数の仮想画像もしくは他の拡張現実機能を提示する。認証された後は、ユーザーは、1つまたは複数の限定されたデバイス、プログラム、アプリケーションなどにアクセスすることを認可され得る。認証セッションは、ユーザーが表示デバイスの電源を入れること、プログラムもしくはアプリケーションを始動するための許可を要求すること、ウェブサイトを見るための許可を要求することなど、任意の適切な入力を介して開始され得る。
[0033]502で、方法500は、拡張現実機能のセットを備える1つまたは複数の仮想画像を表示するステップを含む。拡張現実機能のセットは、仮想画像および/または実物のオブジェクトの任意の適切な機能を含み得る。たとえば、拡張現実機能は、ユーザーによって選択された特定の3Dの実物のもしくは仮想のオブジェクト、特定のオブジェクトもしくは人を示す画像(特定の画像に対立するものとして)、および/または特定の属性を有する3Dの実物のまたは仮想のオブジェクトを含み得る。さらに、この機能はまた、音または他の拡張現実環境態様を含み得る。拡張現実機能は、任意の適切な方式で提示され得る。たとえば、拡張現実機能は、既定義の順番、ランダムな順番、異なる認証セッション間でアルゴリズムで変更される順番などで表示され得る。
[0034]504で、方法500は、センサから受信されたデータを介してユーザーの1つまたは複数の動きを識別するステップを含む。センサデータは、慣性運動センサ506および/またはアイトラッキングセンサシステム508を含むがこれらに限定されない、任意の適切なセンサから受信され得る。さらに、表示デバイスの外部のセンサはまた、ユーザーの動きを識別するために使用され得る。たとえば、ユーザーは、外部デバイス(タブレットなど)の画面に絵を描いてもよく、タブレットは、ユーザーの手の動きを検出し、その動きをシースルー表示デバイスに通信することができる。別の例で、たとえばウェブサーバを介してアクセス可能な、遠隔サービスが入力デバイスとして使用され得る。たとえば、表示デバイスは、ウェブサービスの状態を照会し、ウェブサービスが到達不可能であるか、または「承認しない」メッセージを返す場合、ユーザーは認証され得ない。識別された動きは、ユーザーによって選択された拡張現実機能の識別および順番を判定するために使用され得る。さらに、ユーザーが動きを入力して拡張現実機能を選択するとき、識別された動きが1つの拡張現実機能と関連付けられた動きに一致する場合、方法509は、ユーザーが拡張現実機能を選択したという指示を出力するステップをさらに含み得る。
[0035]510で、方法500は、識別された動きを、拡張現実機能の所定の順番とユーザー認証をリンクする認証情報と比較するステップを含む。認証情報は、表示デバイスで局所的に記憶することができ、または遠隔で記憶され、遠隔サービスを介してアクセス可能でもよい。
[0036]512で、方法500は、ユーザーが所定の順番で拡張現実機能を選択したかを判定するステップを含む。既に説明したように、ユーザーの識別された動きは、ユーザーによって選択された拡張現実機能の順番の識別を判定するために使用され得る。いくつかの実施形態では、514に示すように、信頼性スコアが、ユーザーが実際に所定の順番で拡張現実機能を選択した信頼度に基づき、識別された動きに割り当てられ得る。信頼性スコアは、識別された動きが期待される動きと一致する確実性を反映することができ、その動きを検出するためのセンサの能力を含むがこれに限定されない様々な他の要因の関数でもよい。
[0037]信頼性スコアは、ユーザーを認証するかどうかを判定するために、信頼性スコア閾値と比較され得る。信頼性スコアが閾値より大きい場合、および拡張現実機能が、516で指示するように、正しい順番で選択された場合、表示デバイスは、518で指示するように、ユーザーを認証することができる。閾値は変化しない固定値でもよく、あるいは閾値は、ユーザー位置および/またはバイオメトリック署名などの認証セッションの条件に応じて変化してもよい。他方で、拡張現実機能が所定の順番で選択されなかった場合(または信頼性スコアが、閾値に一致せず、所定の順番で機能を選択しなかったとして考えられ得る場合)、方法500は、520で、ユーザーを認証しないステップを含む。
[0038]図5に関して前述した例で、認証は、単一の入力機構に基づく。複数の入力機構の組合せが使用されてユーザーを認証することができる実施形態で、ユーザーを認証するために使用される信頼性スコア閾値は、いくつの入力機構が使用されたかに応じて変わり得る。たとえば、単一の入力機構が使用される場合、複数の入力機構が使用される場合よりも高い信頼性スコア閾値が適用され得る。
[0039]図6は、ユーザー可変の数の認証入力に基づきユーザーを認証するための方法600の一実施形態を説明する流れ図である。本明細書では、「認証入力」という用語は、ユーザーを認証するために拡張現実機能にユーザーの動きをリンクする認証情報と比較され得る表示デバイスの任意のセンサによって検出される任意のユーザー入力を指し得る。認証入力の例は、目の動きを介する仮想オブジェクトの選択、体の動きを介する仮想オブジェクトの選択、音声コマンド、および特定の向きまたは位置をとることを含むがこれらに限定されない。
[0040]602で、方法600は、認証入力のセットを受信するステップを含む。認証入力のセットは、604で指示されるように、ユーザーの複数の認識される認証入力から選択可能であり、複数の認識される入力は、異なるセンサを介して行われた入力に相当する。さらに具体的な一例として、複数の認識される入力は、アイトラッキング入力、ヘッドトラッキング入力、腕ジェスチャ入力、および/またはユーザーバイオメトリック情報(たとえば、ユーザーの瞳孔間の距離(IPD)、歩き方、身長など)を含むことができ、受信されるセットは、頭部運動入力データがその後に続くアイトラッキング入力データを含み得る。
[0041]いくつかの実施形態で、1つまたは複数の認証入力は、認証入力が、ある物理的位置(たとえば、GPSおよび/または画像データを介して検出されるものとしての)、および/またはある特定の向き(たとえば、表示デバイスを介して可視な背景内の所定の位置にある、知られている物理的オブジェクト(たとえば、ポスタ)の存在によって検出されるものとしての)と関連付けることができ、それにより、ユーザーは、その物理的位置におよび/またはその向きでいるときにのみ首尾よく実行され得る。さらに他の例は、ユーザーが、表示された拡張現実画像に応答してではなく入力を行うステップを含み得る。たとえば、ユーザーは、アイトラッキングおよび/または慣性運動および外側を向いた画像センサによって検出されるユーザー自身の目または手を使用して特定のパターンを描くことができ、および/または音声コマンドを入力することができる。別の例として、他のユーザーの存在が検出可能であり、ユーザー認証は検出される他のユーザーの数、識別、および/または他の特性に基づき得る。これらの入力モードは、例示を目的として提示され、いかなる形でも限定するものではないことが、理解されよう。
[0042]続いて、608で、方法600は、各認証入力が対応する所定の認証入力に一致するかを判定するステップを含む。さらに、610で指示するように、信頼性スコアが、各受信された認証入力に割当て可能であり、信頼性スコアは、受信された認証入力が所定の認証入力に一致する信頼度を反映する。
[0043]612で、信頼性スコアが、閾値と比較される。たとえば、いくつかの実施形態で、各認証入力の信頼性スコアは、閾値に結合され、総計で閾値と比較され得る。他の実施形態で、各信頼性スコアは、対応する閾値と個々に比較され得る。どちらの場合にも、ユーザーは、信頼性スコアが閾値に関連する所定の条件(たとえば、同等またはより大きい)を満たす場合に、認証され得る。
[0044]比較的より多数の認証入力を使用することによって、いくつかの実施形態で、ユーザーは、すべての入力の信頼性スコアがより少数の入力のスコア閾値に関連する所定の条件を満たさない場合にも、認証され得る。1つの非限定的例として、3つの認証入力がユーザーによって入力される場合、ユーザーは、少なくとも2つの信頼性スコアが個々の信頼性スコア、閾値、を超える場合に、認証され得る。対照的に、ユーザーは、より少数の認証入力を介して認証される場合、すべての閾値を超える必要があり得る。同様に、結合された信頼性スコア閾値は、同様の効果を達成するために使用されるいくつかの入力モードに応じて変わり得る。これらの例の各々は、本開示による信頼性スコア閾値の変更の考えられる非限定的な例であり得る。
[0045]したがって、614で指示されるように、方法600は、表示デバイスによって受信される認証入力の数が増えるとき、信頼性スコア閾値を減らすステップを含み得る。同様に、方法600はまた、認証入力の数が減るときに、閾値を増やすステップを含み得る。信頼性スコア閾値(複数可)は、前述のものを含むがこれらに限定されない任意の適切な方式で変えられ得ることが、理解されよう。
[0046]図5に関して前述したように、いくつかの実施形態で、ユーザーを認証するための閾値は、616で指示するように、ユーザー位置または他のパラメータに基づき変化し得る。たとえば、第1の、より多数の認証入力は、第1の、より安全性の低い位置で使用することができ、一方、第2の、より少数の認証入力は、第2の、より安全な位置で使用され得る。別の例で、認証入力の数は、両方の位置で同じでもよいが、閾値はより安全な位置についてよりもより安全性の低い位置についてより高くなり得る。さらに、閾値に影響を及ぼし得る位置以外のパラメータは、アクセスされる情報のタイプなど、ユーザー指定のセキュリティを含む。
[0047]618で、信頼性スコアが閾値よりも大きいかが判定される。信頼性スコアが閾値よりも大きい場合、ユーザーは、620で認証される。他方で、信頼性スコアが閾値よりも大きくない場合、ユーザーは622で認証されない。
[0048]したがって、本明細書に記載の実施形態は、様々な入力を介するユーザー認証が、開示される表示デバイスの特定の機能を使用することを提供する。開示される入力は非限定的例であり、他の入力が可能であることが、理解されよう。たとえば、ユーザー認証入力はまた、まばたきの検出、オブジェクト認識(たとえば、ポスタ、ビルディング、芸術作品などの特定のオブジェクトの認識)、網膜スキャン、指紋検出、および/または他の適切な入力機構を使用して入力され得る。
[0049]さらに、そのような入力の組合せもまた、認証に使用され得る。たとえば、ユーザーは、表示デバイスを自身の指で叩いて特定のリズムを刻みながら特定のオブジェクト(実物のまたは仮想の)を見ることができ、画像は外側を向いた画像センサによって検出され、叩いた音は慣性運動センサを介して検出される。別の例として、ユーザーの瞳孔間の距離(IPD)は、バイオメトリックデータとして表示デバイスによって測定され得る。これは、網膜スキャン、所定のジェスチャのセット、および/または他の入力と結合されて、ユーザーを認証することができる。
[0050]別の例で、認証のために使用される1つまたは複数の入力は、特定のカテゴリに関連したままで、ユーザーが認証されるたびに変わってもよい。そのような入力を含む例示的ユーザーパスワードは、非限定的例として、「漫画的」、「羽の生えた」、「赤ちゃんに関する」、「跳ねているもの」、および「癒しの音楽の方向」などのカテゴリの定義を備え得る。認証されるために、ユーザーは、オブジェクトを選択する、または他の方法で、認証されるために、選択されたカテゴリの定義(たとえば、漫画的である、羽を有する、赤ちゃんに関連する、上下に動いている、音楽が聞こえる方向へユーザー自身の頭を動かすこと)に合う入力を実行する。入力の特定の性質(選択されたオブジェクト、ユーザーが向いている方向など)は各入力で変化し得るが、カテゴリは、ユーザーによって変更されるまで、同じままである。
[0051]いくつかの実施形態で、認証入力は、個々のユーザーに特有である。他の実施形態で、認証入力の同じセットが、複数のユーザーによって使用され得る。たとえば、ユーザーの家族のメンバは、ユーザーの認証入力を入力する権限を与えられることがあり、表示デバイスは、家族の各メンバからの入力を認識するように構成され得る。さらに、異なる許可が、画像データ、音声データなどから判定されるものとしての家族メンバ識別に基づき、家族の各メンバに適用され得る。別の例で、ユーザーは、複数の人々によって行われる入力を介して認証され得る。たとえば、認証が、機密情報へのアクセスを認可するために使用される場合、情報を監督する別の信頼された人からの検証が、ユーザーを認証するためのユーザーの認証入力(複数可)とともに使用され得る。
[0052]いくつかの実施形態で、前述の方法およびプロセスは、1つまたは複数のコンピューティングデバイスのコンピューティングシステムに関係し得る。具体的には、そのような方法およびプロセスは、コンピュータアプリケーションプログラムまたはサービス、アプリケーションプログラミングインターフェース(API)、ライブラリ、および/または他のコンピュータプログラム製品として実装され得る。
[0053]図7は、前述の方法およびプロセスのうちの1つまたは複数を成立させることができるコンピューティングシステム700の非限定的一実施形態を概略的に示す。表示デバイス104は、コンピューティングシステム700の1つの非限定的例でもよい。コンピューティングシステム700は、簡易化された形で示される。実質的にいかなるコンピュータアーキテクチャも、本開示の範囲を逸脱することなしに使用され得ることが、理解されよう。異なる実施形態で、コンピューティングシステム700は、表示デバイス、ウェアラブルコンピューティングデバイス、メインフレームコンピュータ、サーバコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、家庭用娯楽コンピュータ、ネットワークコンピューティングデバイス、ゲームデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス(たとえば、スマートフォン)などの形をとることができる。
[0054]コンピューティングシステム700は、論理サブシステム702および記憶サブシステム704を含む。コンピューティングシステム700は、任意選択で、表示サブシステム706、入力サブシステム708、通信サブシステム710、および/または図7に示さない他のコンポーネントを含み得る。
[0055]論理サブシステム702は、命令を実行するように構成された1つまたは複数の物理的デバイスを含む。たとえば、論理サブシステムは、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造体、または他の論理的構成体の部分である命令を実行するように構成され得る。そのような命令は、タスクを実行する、データタイプを実装する、1つまたは複数のコンポーネントの状態を変換する、または所望の結果に他の方法で到達するために実装され得る。
[0056]論理サブシステムは、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含み得る。加えてまたは代替で、論理サブシステムは、ハードウェアまたはファームウェア命令を実行するように構成された1つまたは複数のハードウェアまたはファームウェア論理マシンを含み得る。論理サブシステムのプロセッサは、シングルコアもしくはマルチコアでもよく、そこで実行されるプログラムは、順次、並列または分散処理のために構成され得る。論理サブシステムは、任意選択で、遠隔に置かれたおよび/または調整された処理のために構成され得る2つ以上のデバイスの間に分散された個々のコンポーネントを含み得る。論理サブシステムの態様は、クラウドコンピューティング構成で構成された、遠隔でアクセス可能な、ネットワークコンピューティングデバイスによって、仮想化および実行することができる。
[0057]記憶サブシステム704は、本明細書に記載の方法およびプロセスを実装するために、データおよび/または論理サブシステムによって実行可能な命令を保持するように構成された1つまたは複数の物理的、非一時的、デバイスを含む。そのような方法およびプロセスが実装されるとき、記憶サブシステム704の状態は、たとえば異なるデータを保持するために、変換され得る。
[0058]記憶サブシステム704は、取外し可能な媒体および/または組込みデバイスを含み得る。記憶サブシステム704は、とりわけ、光メモリ素子(たとえば、CD、DVD、HD−DVD、Elm−Rayディスクなど)、半導体メモリ素子(たとえば、RAM、EPROM、EEPROMなど)、および/または磁気メモリ素子(たとえば、ハードディスクドライブ、フロッピディスクドライブ、テープドライブ、MRAMなど)を含み得る。記憶サブシステム704は、揮発性、非揮発性、動的、静的、読取り/書込み、読取り専用、ランダムアクセス、順次アクセス、位置アドレス可能、ファイルアドレス可能、および/または内容アドレス可能なデバイスを含み得る。
[0059]記憶サブシステム704は、1つまたは複数の物理的、非一時的デバイスを含むことが、理解されよう。しかし、いくつかの実施形態で、本明細書に記載の命令の態様は、有限持続期間にわたり物理的デバイスによって保持されないきれいな信号(たとえば、電磁気信号、光信号など)によって一時的な方法で伝搬され得る。さらに、本開示に関するデータおよび/または他の形の情報は、きれいな信号によって伝搬され得る。
[0060]いくつかの実施形態で、論理サブシステム702のおよび記憶サブシステム704の態様は、それを介して本明細書に記載の機能が成立することができる1つまたは複数のハードウェア論理コンポーネントにともに統合され得る。そのようなハードウェア論理コンポーネントは、たとえば、フィールドプログラマブルゲートアレイ(FPGA)、特定プログラムおよび特定用途向け集積回路(PASIC/ASIC)、特定プログラムおよび特定用途向け規格品(PSSP/ASSP)、システムオンチップ(SOC)システム、および複合プログラマブル論理デバイス(CPLD)を含み得る。
[0061]「プログラム」という用語は、特定の機能を実行するために実装されたコンピューティングシステム700の一態様を説明するために使用され得る。ある場合には、プログラムは、記憶サブシステム704によって保持された命令を実行する論理サブシステム702を介してインスタンス化され得る。様々なプログラムが同じアプリケーション、サービス、符号ブロック、オブジェクト、ライブラリ、ルーチン、API、関数などからインスタンス化され得ることが、理解されよう。同様に、同プログラムが、異なるアプリケーション、サービス、符号ブロック、オブジェクト、ルーチン、API、関数などによってインスタンス化され得る。「プログラム」という用語は、個々の実行可能ファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベース記録など、またはそれらのグループを包含し得る。
[0062]本明細書で「サービス」という用語は、複数のユーザーセッションにわたり実行可能なアプリケーションプログラムであることが、理解されよう。サービスは、1つまたは複数のシステムコンポーネント、プログラム、および/または他のサービスに使用可能であり得る。いくつかの実装形態で、サービスは、1つまたは複数のサーバ−コンピューティングデバイスで稼働し得る。
[0063]含まれるとき、表示サブシステム706は、記憶サブシステム704によって保持されるデータの視覚的表現を提示するために使用され得る。この視覚的表現は、グラフィカルユーザーインターフェース(GUI)の形をとることができる。本明細書に記載の方法およびプロセスが、記憶サブシステムによって保持されたデータを変更し、それによって、記憶サブシステムの状態を変換するとき、表示サブシステム706の状態は、同様に、基礎となるデータでの変更を視覚的に表すように変換され得る。表示サブシステム706は、実質的にいかなるタイプの技術も使用する1つまたは複数の表示デバイスを含み得る。そのような表示デバイスは、共用格納装置内の論理サブシステム702および/または記憶サブシステム704と結合させることができ、またはそのような表示デバイスは、周辺表示デバイスでもよい。
[0064] 入力サブシステム708は、含まれるとき、キーボード、マウス、タッチ画面、またはゲームコントローラなどの1つまたは複数のユーザー入力デバイスを有し得る、あるいはそれとインターフェースすることができる。いくつかの実施形態で、入力サブシステムは、選択された自然なユーザー入力(NUI)構成部品を備え得る、またはそれとインターフェースすることができる。そのような構成部品は、統合されるもしくは周辺装置でもよく、入力アクションの変換および/または処理は、ボード上でまたはボード外で処理され得る。例示的NUI構成部品は、発話および/または音声認識のためのマイクロフォン、マシンビジョンおよび/またはジェスチャ認識のための赤外線、色、立体、および/または深度カメラ、運動検出および/または意図認識のための頭部トラッカ、目トラッカ、加速度計、および/またはジャイロスコープ、ならびに脳活動を評価するための電場感知構成部品を含み得る。
[0065]含まれるとき、通信サブシステム710は、コンピューティングシステム700を1つまたは複数の他のコンピューティングデバイスと通信でつなぐように構成され得る。通信サブシステム710は、1つまたは複数の異なる通信プロトコルと互換性のあるワイヤードおよび/またはワイヤレス通信デバイスを含み得る。非限定的例として、通信サブシステムは、ワイヤレス電話ネットワーク、またはワイヤードもしくはワイヤレスローカルもしくはワイドエリアネットワークを介する通信のために構成され得る。いくつかの実施形態で、通信サブシステムは、コンピューティングシステム700がインターネットなどのネットワークを介して、他のデバイスに、および/または他のデバイスから、メッセージを送信および/または受信できるようにすることができる。
[0066]本明細書に記載の構成および/または手法は、実際は例示であり、多数の変形形態が可能であるので、これらの特定の実施形態または例は限定的な意味で考えられるべきではないことが、理解されよう。本明細書に記載の特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つまたは複数を表し得る。そのようなものとして、図示および/または記載された様々な動作は、図示および/または記載された順番列で、他の順番列で、並行して、または省略して、実行され得る。同様に、前述のプロセスの順番は、変更することができる。
[0067]本開示の対象は、様々なプロセス、システムおよび構成のすべての新しいおよび非自明の組合せおよび部分的組合せと、本明細書で開示される他の特徴、機能、動作、および/または特性、ならびに、それらの任意のおよびすべての均等物を含む。
100 環境
102 ユーザー視界
104 表示デバイス
106 ユーザー
108 本棚
110 扉
112 窓
114 ソファ
116 ボウル
118 月
120 犬
122 頭
124 尾
200 ユーザー視界
202 タイムライン
210 第1のセットの拡張現実機能
220 第2のセットの拡張現実機能
300 表示システム
302 レンズ
304 表示サブシステム
306 画像センサ
308 マイクロフォン
310 注視検出サブシステム
312 閃光源
314 画像センサ
316 グローバルポジショニング(GPS)サブシステム
318 運動センサ
320 コントローラ
322 論理サブシステム
324 データ保持サブシステム
506 慣性運動センサ
508 アイトラッキングセンサシステム
700 コンピューティングシステム
702 論理サブシステム
704 記憶サブシステム
706 表示サブシステム
708 入力サブシステム
710 通信サブシステム

Claims (10)

  1. 表示デバイスを備えるコンピューティングシステムのユーザーを認証するための方法であって、
    拡張現実機能のセットを備える1つまたは複数の仮想画像を前記表示デバイスで表示するステップと、
    前記コンピューティングシステムのセンサから受信されたデータを介して前記ユーザーの1つまたは複数の動きを識別するステップと、
    前記ユーザーの識別された前記動きを、ユーザー認証を前記拡張現実機能の所定の順番にリンクする前記ユーザーの認証情報の所定のセットと比較するステップと、
    識別された前記動きが、前記ユーザーが前記所定の順番で前記拡張現実機能を選択したことを示す場合、前記ユーザーを認証するステップと、
    識別された前記動きが、前記ユーザーが前記所定の順番で前記拡張現実機能を選択しなかったことを示す場合、前記ユーザーを認証しないステップと
    を含む方法。
  2. 請求項1に記載の方法であって、前記センサが慣性運動センサを含み、前記データが慣性運動データを含む、方法。
  3. 請求項1に記載の方法であって、前記センサがアイトラッキングセンサシステムを含み、前記データが目の動きのデータを含む、方法。
  4. 請求項1に記載の方法であって、前記1つまたは複数の仮想画像が、前記ユーザーが認証されるたびに同様の位置で表示される、方法。
  5. 請求項1に記載の方法であって、前記1つまたは複数の仮想画像が、様々な認証セッションで様々な位置に表示される、方法。
  6. 請求項1に記載の方法であって、前記ユーザーの識別された動きが、ある拡張現実機能と関連付けられた動きに一致する場合に、前記ユーザーが該拡張現実機能を選択したという指示を出力するステップをさらに含む方法。
  7. 請求項1に記載の方法であって、
    前記ユーザーが前記所定の順番で拡張現実機能を選択した信頼度を反映する信頼性スコアを求めるステップと、
    前記信頼性スコアが閾値よりも大きい場合、前記ユーザーを認証するステップと、
    前記信頼性スコアが前記閾値に満たない場合、前記ユーザーを認証しないステップと
    をさらに含む方法。
  8. 請求項7に記載の方法であって、前記閾値が、前記ユーザーの位置に基づく、方法。
  9. 請求項7に記載の方法であって、前記閾値が、拡張現実機能の数に基づき変化する、方法。
  10. 請求項1に記載の方法であって、拡張現実機能の前記セットが、前記ユーザーの視界内の仮想機能および実物のオブジェクトを含む、方法。
JP2013261870A 2013-12-18 2013-12-18 表示デバイスでのユーザー認証 Active JP6272688B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013261870A JP6272688B2 (ja) 2013-12-18 2013-12-18 表示デバイスでのユーザー認証

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013261870A JP6272688B2 (ja) 2013-12-18 2013-12-18 表示デバイスでのユーザー認証

Publications (3)

Publication Number Publication Date
JP2015118577A true JP2015118577A (ja) 2015-06-25
JP2015118577A5 JP2015118577A5 (ja) 2017-02-02
JP6272688B2 JP6272688B2 (ja) 2018-01-31

Family

ID=53531226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013261870A Active JP6272688B2 (ja) 2013-12-18 2013-12-18 表示デバイスでのユーザー認証

Country Status (1)

Country Link
JP (1) JP6272688B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018181256A (ja) * 2017-04-21 2018-11-15 株式会社ミクシィ 頭部装着ディスプレイ装置、認証方法、及び認証プログラム
JP2020501256A (ja) * 2016-11-25 2020-01-16 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited アイデンティティ検証方法および装置
JP2020504348A (ja) * 2016-10-13 2020-02-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 仮想現実に基づくサービス制御およびユーザ識別認証
JP2020529073A (ja) * 2017-07-26 2020-10-01 プリンストン・アイデンティティー・インコーポレーテッド 生体セキュリティシステムおよび方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030076300A1 (en) * 2000-05-16 2003-04-24 Eric Lauper Method and terminal for entering instructions
JP2007141002A (ja) * 2005-11-18 2007-06-07 Fujitsu Ltd 個人認証方法、個人認証プログラムおよび個人認証装置
JP2009129021A (ja) * 2007-11-20 2009-06-11 Ntt Docomo Inc 情報入力システムおよび情報入力方法
JP2010139711A (ja) * 2008-12-11 2010-06-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2012073963A (ja) * 2010-09-29 2012-04-12 Toshiba Corp 電子入力システム、および電子入力方法
JP2013515318A (ja) * 2009-12-29 2013-05-02 ビズモードライン カンパニー リミテッド パスワード処理方法および機器
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030076300A1 (en) * 2000-05-16 2003-04-24 Eric Lauper Method and terminal for entering instructions
JP2007141002A (ja) * 2005-11-18 2007-06-07 Fujitsu Ltd 個人認証方法、個人認証プログラムおよび個人認証装置
JP2009129021A (ja) * 2007-11-20 2009-06-11 Ntt Docomo Inc 情報入力システムおよび情報入力方法
JP2010139711A (ja) * 2008-12-11 2010-06-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2013515318A (ja) * 2009-12-29 2013-05-02 ビズモードライン カンパニー リミテッド パスワード処理方法および機器
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
JP2012073963A (ja) * 2010-09-29 2012-04-12 Toshiba Corp 電子入力システム、および電子入力方法
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020504348A (ja) * 2016-10-13 2020-02-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 仮想現実に基づくサービス制御およびユーザ識別認証
JP2020501256A (ja) * 2016-11-25 2020-01-16 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited アイデンティティ検証方法および装置
US10831876B2 (en) 2016-11-25 2020-11-10 Advanced New Technologies Co., Ltd. Methods and apparatuses for identity authentication in virtual reality
JP2018181256A (ja) * 2017-04-21 2018-11-15 株式会社ミクシィ 頭部装着ディスプレイ装置、認証方法、及び認証プログラム
JP2020529073A (ja) * 2017-07-26 2020-10-01 プリンストン・アイデンティティー・インコーポレーテッド 生体セキュリティシステムおよび方法

Also Published As

Publication number Publication date
JP6272688B2 (ja) 2018-01-31

Similar Documents

Publication Publication Date Title
US9977882B2 (en) Multi-input user authentication on display device
EP2887253A1 (en) User authentication via graphical augmented reality password
US10510190B2 (en) Mixed reality interactions
US9836889B2 (en) Executable virtual objects associated with real objects
JP6317765B2 (ja) 複合現実感表示調整
US9030495B2 (en) Augmented reality help
JP5965404B2 (ja) ユーザー固有属性のカスタマイズ
CN103761460B (zh) 显示设备上的用户认证
JP2016528604A (ja) 適応イベント認識
WO2022125239A1 (en) Determining user intent based on attention values
TW202206978A (zh) 用於擴展現實的隱私控制介面
US9715266B2 (en) Attention-based rendering and fidelity
JP2017502387A (ja) アクセスの追跡および制限
JP6272688B2 (ja) 表示デバイスでのユーザー認証
KR20220116491A (ko) 눈 추적을 이용한 스푸핑 차단 방법, 시스템 및 매체
KR102312900B1 (ko) 디스플레이 장치 상의 사용자 인증
CN115362440A (zh) 经由凝视跟踪的认证和校准
US20230273985A1 (en) Devices, methods, and graphical user interfaces for authorizing a secure operation
US20230095816A1 (en) Adaptive user enrollment for electronic devices
KR102193636B1 (ko) 디스플레이 장치 상의 사용자 인증
US20240045942A1 (en) Systems and methods for using occluded 3d objects for mixed reality captcha
US20240103705A1 (en) Convergence During 3D Gesture-Based User Interface Element Movement

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180104

R150 Certificate of patent or registration of utility model

Ref document number: 6272688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250