JP2024504243A - 認証におけるクラウドアンカーの活用 - Google Patents

認証におけるクラウドアンカーの活用 Download PDF

Info

Publication number
JP2024504243A
JP2024504243A JP2023535026A JP2023535026A JP2024504243A JP 2024504243 A JP2024504243 A JP 2024504243A JP 2023535026 A JP2023535026 A JP 2023535026A JP 2023535026 A JP2023535026 A JP 2023535026A JP 2024504243 A JP2024504243 A JP 2024504243A
Authority
JP
Japan
Prior art keywords
wearable device
controllable
identifier
network
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023535026A
Other languages
English (en)
Inventor
ファーボーグ,アレクサンダー・ジェイムズ
バロス,ブレット
ショーンバーグ,マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2024504243A publication Critical patent/JP2024504243A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/50Secure pairing of devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/30Security of mobile devices; Security of mobile applications
    • H04W12/33Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/107Network architectures or network communication protocols for network security for controlling access to devices or network resources wherein the security policies are location-dependent, e.g. entities privileges depend on current location or allowing specific operations only from locally connected terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/03Protecting confidentiality, e.g. by encryption
    • H04W12/033Protecting confidentiality, e.g. by encryption of the user plane, e.g. user's traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • H04W12/068Authentication using credential vaults, e.g. password manager applications or one time password [OTP] applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/63Location-dependent; Proximity-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/65Environment-dependent, e.g. using captured environmental data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/10Small scale networks; Flat hierarchical networks
    • H04W84/12WLAN [Wireless Local Area Networks]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks

Abstract

デバイスを認証するためのシステムおよび方法について説明する。システムおよび方法は、ウェアラブルデバイス上のセンサが、ネットワークに関連付けられた識別子を含み、かつ物理的環境用に構成された少なくとも1つのクラウドアンカーを検出することを含み得る。少なくとも1つのクラウドアンカーに関連付けられた位置がウェアラブルデバイスの閾値距離内にあると検出することと、ウェアラブルデバイスが少なくとも1つのクラウドアンカーにアクセスできると検出することとに応答して、少なくとも1つのクラウドアンカーから識別子の抽出をトリガすることを含み得る。システムおよび方法はさらに、抽出された識別子に対応する受信済みの認証に基づいて、ウェアラブルデバイスをネットワークに参加させることを含み得る。

Description

本明細書は、一般に認証デバイスに関する。
背景
モバイルデバイスが、家およびオフィスなどの建物内の1つ以上の電子デバイスを制御するために使用される場合がある。このような建物には、多くの場合、リモートでアクセスおよび/または制御できるデバイスが含まれている。たとえば、電球が、さまざまな種類の無線通信を使用して、モバイルデバイスによって切り替えられる、または調整されることがある。いくつかの例では、そのようなモバイルデバイスは、モバイルデバイスに搭載されたカメラの視野内にあり得る建物内のデバイスを検出するために、画像データを取り込むためのカメラと、画像データを処理するための画像認識ソフトウェアとを含み得る。
概要
1つ以上のコンピュータのシステムは、ソフトウェア、ファームウェア、ハードウェア、またはそれらの組み合わせがシステムにインストールされていることによって、動作時にシステムにアクションを実行させる特定の動作またはアクションを実行するように構成することができる。1つ以上のコンピュータプログラムは、データ処理装置によって実行されると、装置にアクションを実行させる命令を含むことによって、特定の動作またはアクションを実行するように構成することができる。
第1の一般的な態様において、ウェアラブルデバイス上のセンサが、ネットワークに関連付けられた識別子を含み、かつ物理的環境用に構成された少なくとも1つのクラウドアンカーを検出するためのシステムおよび方法が説明される。システムおよび方法は、少なくとも1つのクラウドアンカーに関連付けられた位置がウェアラブルデバイスの閾値距離内にあると検出することと、ウェアラブルデバイスが少なくとも1つのクラウドアンカーにアクセスできると検出することとに応答して、少なくとも1つのクラウドアンカーからの識別子の抽出をトリガすることと、抽出された識別子に対応する受信済みの認証に基づいて、ウェアラブルデバイスをネットワークに参加させることとを含み得る。
これらおよび他の態様は、単独でまたは組み合わせて、以下の1つ以上を含むことができる。たとえば、システムおよび方法はさらに、識別子はSSIDとログイン認証情報とを含み、ネットワークはWi-Fi(登録商標)ネットワークであり、識別子はネットワークにアクセスを提供するデバイスである少なくとも1つの制御可能デバイスに関連付けられ、認証は少なくとも1つの制御可能デバイスから受信される、という態様を含み得る。
いくつかの実現例では、識別子は、拡張現実(Augmented Reality:AR)環境の3Dマップに関連付けられ、3Dマップは、物理的環境内の少なくとも1つの制御可能デバイスによって格納されている、物理的環境にマッピングされた視覚データを含み、ウェアラブルデバイスが少なくとも1つのクラウドアンカーにアクセスできると検出することは、ウェアラブルデバイスが、物理的環境にマッピングされた視覚データの少なくとも一部と一致するデータを、センサから提供するかどうかを判定することを含む。いくつかの実現例では、少なくとも1つの制御可能デバイスは、ウェアラブルデバイスの位置がもはや閾値距離内でないと検出することに応答して、ネットワークからウェアラブルデバイスの認証を解除するように構成されている。いくつかの実現例では、位置は、少なくとも1つのクラウドアンカーがウェアラブルデバイスの視野内にあると検出することに基づいて判定される。さらに、上述の請求項1に記載の方法は、以下に記載する請求項6~10の以下の特徴(またはそれらの任意の組合せ)のうちの1つ以上(たとえば、すべて)を含み得る。
第2の一般的な態様では、物理的環境において制御可能デバイスに通信可能に結合されたウェアラブルデバイスにおいて、制御可能デバイスにアクセスする要求を受信するためのシステムおよび方法が説明され、要求は、未認証のユーザまたはデバイスから受信されたと判定される。システムおよび方法はさらに、物理的環境内のウェアラブルデバイスの姿勢を判定することと、ウェアラブルデバイスにおいて、未認証のユーザまたはデバイスによる制御可能デバイスに対するアクセスの許可または拒否を選択するためのプロンプトをレンダリングすることとを含み得る。システムおよび方法は、制御可能デバイスにアクセスする許可を受信することに応答して、ウェアラブルデバイスの判定された姿勢に基づいて画定される物理的環境の領域から制御可能デバイスにアクセスするために、未認証のユーザまたはデバイスを認証することと、要求を実行することとを含み得る。
これらおよび他の態様は、単独でまたは組み合わせて、以下の1つ以上を含むことができる。たとえば、領域は、物理的環境の球形画像内に画定されてもよく、球形画像は、物理的環境に関連付けられた少なくとも1つのクラウドアンカーの3Dマップに基づく。いくつかの実現例では、システムおよび方法は、ウェアラブルデバイスにおいて、ウェアラブルデバイスのユーザを領域に対応する方向を見るようにトリガするための別のプロンプトをレンダリングすることと、認証を要求するユーザまたはデバイスの一部を取り込む領域の画像を取り込むことと、ウェアラブルデバイスが、認証されたデバイスまたはユーザのデータベースに、画像を格納することとを含み得る。
いくつかの実現例では、システムおよび方法は、制御可能デバイスにアクセスするための第2の要求を受信することと、ウェアラブルデバイスにおいて、ウェアラブルデバイスのユーザを第2の要求に関連付けられた画像を取り込むようにトリガするためのプロンプトをレンダリングすることと、第2の要求に関連付けられた画像を取り込むコマンドを受信することと、取り込まれた第2の画像を、データベース内の画像と比較することとを含む。システムおよび方法はさらに、取り込まれた第2の画像のデータベース内の画像の少なくとも1つとの一致の少なくとも一部を判定することに応答して、第2の要求の実行をトリガすることを含み得る。
いくつかの実現例では、要求は、物理的環境においてユーザが話す聴覚的な要求であり、ウェアラブルデバイスは、聴覚的な要求が受信される方向を判定し、物理的環境の領域は、聴覚的な要求が受信される判定された方向に基づいて判定される。さらに、上述の請求項6に記載の方法は、上述した請求項1~5の以下の特徴(またはそれらの任意の組合せ)のうちの1つ以上(たとえば、すべて)を含み得る。
記載される技法の実現例は、ハードウェア、方法もしくはプロセス、またはコンピュータがアクセス可能な媒体上のコンピュータソフトウェアを含み得る。1つ以上の実現例の詳細は、添付の図面および以下の説明に記載されている。他の特徴は、説明および図面、ならびに特許請求の範囲から明らかになるであろう。
本開示を通して説明する実現例に係る、ウェアラブルデバイスを認証するための拡張現実(AR)システムを示す図である。 本開示を通して説明する実現例に係る、物理的環境および/またはAR環境においてデバイスを認証するための例示的なシステムを示すブロック図である。 本開示を通して説明する実現例に係る、電子ウェアラブルデバイスの一例を示す図である。 本開示を通して説明する実現例に係る、電子ウェアラブルデバイスの一例を示す図である。 本開示を通して説明する実現例に係る、ネットワークに参加するためのプロセスの一例を示すフローチャートである。 本開示を通して説明する実現例に係る、制御可能デバイスを認証するためのプロセスの一例を示すフローチャートである。 本明細書に記載された技法と共に使用され得る、コンピュータデバイスおよびモバイルコンピュータデバイスの一例を示す図である。
さまざまな図面における同様の参照符号は、同様の要素を示す。
詳細な説明
本明細書は、拡張現実(AR)ウェアラブル電子デバイス(すなわち、ウェアラブルデバイス)の一般的な認証に関連する例について説明する。認証プロセスは、ウェアラブルデバイスを取り巻く環境の画像ベースの評価を含み得る。画像ベースの評価は、ウェアラブルデバイスの位置的側面および/またはウェアラブルデバイスが制御もしくは認証しようとする電子デバイスの位置的側面を考慮し得る。いくつかの実現例では、画像ベースの評価は、環境に関連するクラウドアンカーの位置を考慮してもよい。
認証を求めるデバイス(たとえば、ウェアラブルデバイス)は、環境の位置的側面を取り込み、そのような側面(および/または他のデータ)を環境内の他の電子デバイスに送信し得る。環境内の他の電子デバイスは、位置的側面(および/またはウェアラブルデバイスから受信した他のデータ)を評価して、ウェアラブルデバイスを認証するかどうかを判定し、かつ/または他の電子デバイス(複数可)を介してウェアラブルデバイスに特定のデータおよび/もしくはサービスを提供するかどうかを判定し得る。
いくつかの実現例では、本明細書に記載のウェアラブルデバイスは、物理的環境、仮想環境、またはAR環境において、一般に1つ以上の他のデバイスによって認証されてもよい。たとえば、電子アシスタントタイプのデバイス(たとえば、ホームアシスタント、自動車アシスタント)は、共有空間内の他のデバイスを認証するだけでなく、電子アシスタントに関連する特定の設定およびリソースを共有するために使用することができる。いくつかの実現例では、電子サーモスタット、電子ドアベルデバイス、テレビ、セキュリティデバイス、家電製品、またはウェアラブルデバイスによって視認可能な他の電子デバイスなどの他の制御可能デバイスが、ウェアラブルデバイスおよび/または共有空間内の他のデバイスを認証するために使用され得る。
従来のシステムは、典型的には、アシスタントデバイスを介したデバイスまたはユーザからの要求を認証する機構を有していない。特に、従来のシステムは、共有設定(たとえば、寮の部屋、ホテル、オフィスビルなど)において日常的な要求(たとえば、照明の制御、音楽の制御など)を受信して実行し、デバイス所有者の許可なしにそのような要求を実行し得る。
本明細書に記載のシステムおよび方法は、たとえば、ゲストが所有するデバイスによるそのような許可を認証するための技法を提供し得る。そのような技法は、デバイス所有者が、特定のユーザが要求を実行することを許可する一方で、他のユーザがデバイス所有者の許可なく要求を実行されることを禁止またはブロックするように、そのような日常的な要求の制御を割り当てることを可能にすることによって、デバイス所有者に利点をもたらし得る。これらの技法は、日常的な要求デバイス(すなわち、キーワード(たとえば、「OK、コンピュータ・・・」という聴覚的な要求、デバイス制御要求など)を受信するように構成されたデバイス)に対して許可を設定する方法を提供し得る。許可は、デバイス所有者によって有効化されてもよく、特定のデバイスおよび/またはユーザからの日常的な要求を許可するためのデバイス所有者からの指示(たとえば、ジェスチャ、選択、音声応答など)を受信すると、バイパスされ得る。たとえば、デバイス所有者は、要求に関連するデバイス位置またはユーザ位置に向かってジェスチャし得る。いくつかの実現例では、ユーザインターフェイスコンテンツは、要求するユーザの認証および/または制御可能デバイス使用承認を要求するために、ウェアラブルデバイスディスプレイにおいてデバイス所有者に表示されてもよい。
いくつかの実現例では、本明細書に記載のウェアラブルデバイスは、ネットワーク提供サービスおよび/またはデバイス機能へのアクセス(たとえば、Wi-Fiネットワークへのアクセス、ARセッションへのアクセス、環境内のデバイスへのアクセスなど)を取得するように認証されるために、ARコンテンツ(たとえば、クラウドアンカー)を活用し得る。たとえば、本明細書に記載のシステムおよび技術は、環境内のサービスにアクセスするためにゲストデバイスを認証するための技法を提供し得る。たとえば、Wi-Fiネットワーク/サービスに対する従来の認証は、別のユーザからパスワードを要求し、ネットワークを手動で選択し、パスワードを手動で入力しなければならない可能性があるユーザを伴う。本明細書に記載のシステムおよび技法は、仮想クラウドアンカー(すなわち、クラウドアンカー)を活用して、環境(たとえば、ホテル、家、不動産、オフィスビルなど)に関連付けられたWi-Fiネットワーク(またはこのようなネットワークから離れた他のサービス)に対してゲストデバイスを一般に認証し得る。このような認証は、サービスおよび/またはネットワークの所有者が設定した許可に従って提供され得る。
一般に、本開示は、視覚データによって少なくとも部分的に表現される物理的空間内の制御可能デバイスの位置を決定し、かつ/または制御可能デバイスへのアクセスを取得するために、視覚データに基づいて、特定の物理的環境に関する3次元(3D)マップ情報(たとえば、3Dメッシュ、3D特徴マップ、クラウドアンカー等)もしくは2次元(たとえば、2D)を識別するために視覚データを取り込み得るウェアラブルデバイスの使用に関する。そのような情報は、ウェアラブルデバイスによって見ることまたは検出することが可能な別の制御可能デバイスに関する任意の量の視覚的位置決めデータを含み得る。情報は、ローカルに格納されてもよいし、サーバコンピュータにリモートで格納されてもよい。いくつかの実現例では、情報は、2D情報を回復するために使用されてもよい。いくつかの実現例では、情報は、制御可能デバイスの3自由度(degree of freedom:DoF)位置を検出するために使用されてもよい。いくつかの実現例では、情報は、制御可能デバイスの6DoF位置を検出するために使用されてもよい。いくつかの実現例では、情報は、制御可能デバイスの5DoF位置を検出するために使用されてもよい。いくつかの実現例では、情報は、2Dおよび/または5DoFマップデータを回復するために使用されてもよい。
位置の判定および/または他のユーザ入力の認証分析により、ウェアラブルデバイスは、制御可能デバイスに対する認証が可能になり、制御可能デバイスの制御を開始できる。ユーザインターフェイス(user interface:UI)コンテンツおよび/または音声信号は、ウェアラブルデバイスのユーザに対する制御および/またはフィードバックを可能にするために、ウェアラブルデバイスに提供され得る。いくつかの実現例では、UIコンテンツは、ウェアラブルデバイスのユーザに、制御可能デバイスを制御するための1つ以上のコントロール、および/または制御可能デバイスに関する追加情報を提供し得る。
本明細書に記載の技法は、クラウドアンカーを使用してウェアラブルデバイスをWi-Fiネットワークに対して認証することにより、ウェアラブルデバイスのバッテリ電力を確保する利点をもたらす。このような技法により、ウェアラブルデバイスは、Wi-Fiサービスの利用よりも電子デバイスのバッテリを急速に消耗する可能性のあるセルラーサービスを利用する必要がなくなることが確実になる。代わりに、本明細書に記載の技法は、クラウドアンカー情報を利用して、デバイスを認証し、Wi-Fiまたは他のネットワークへのアクセスを提供し、物理的環境および/またはAR環境に関連付けられた制御可能デバイスの制御を可能にし得る。
図1は、本開示を通して説明する実現例に係る、ウェアラブルデバイスを他の電子デバイスに対して認証するための拡張現実(AR)システム100を示す。ユーザは、環境102などの物理的空間に入り、1つ以上のコンピューティングシステムを携帯し得る。たとえば、第1のユーザ104は座っていると示されており、コンピューティングシステム106-1に関連付けられてもよく(たとえば、または近くに位置してもよく)、装着ウェアラブルデバイス104-1を装着し得る。コンピューティングシステム106-1は、モバイルデバイスである。ウェアラブルデバイス104-1は、AR眼鏡である。同様に、第2のユーザ106は、環境102に入り得る。また、第2のユーザは、任意の数の電子デバイスを有し得る。この例では、ユーザ106は、モバイルデバイス106-2を保持し、ウェアラブルデバイス104-2を装着している。任意の数のコンピューティングシステムが、環境102に含まれ得る。同様に、任意の数のウェアラブルデバイスが、環境102に含まれ得る。たとえば、追加のウェアラブルデバイス104-3が、環境102内の他のデバイスと対話し得るリングコントローラを表す。同様に、追加のウェアラブルデバイス104-4が、環境102内の他のデバイスと対話し得るスマートウォッチを表す。
いくつかの実現例では、コンピューティングシステム106-1は、ウェアラブルデバイス104-1に通信可能に結合され得る。いくつかの実現例では、ウェアラブルデバイス104-1は、ユーザ104に関連付けられた別のデバイスと構成されていない、接続されていない、または通信していないスタンドアロンデバイスであってよい。いくつかの実現例では、コンピューティングシステム106-2は、ウェアラブルデバイス104-2に通信可能に結合され得る。いくつかの実現例では、ウェアラブルデバイス104-2は、ユーザ106に関連付けられた別のデバイスと構成されていない、接続されていない、または通信していないスタンドアロンデバイスであってよい。
いくつかの実現例では、コンピューティングシステム106-1および106-2は、補助的なもの(すなわち、オプション)であり、環境102内の対話のために使用されない。たとえば、ウェアラブルデバイス104-1は、環境102内のネットワーク、サービス、または他の制御可能デバイスを体験するためにスタンドアロンで機能し得る。同様に、ウェアラブルデバイス104-2は、コンピューティングシステム106-2なしで動作し得る。したがって、ウェアラブルデバイス104-1および104-2は、スタンドアロンで動作し得る。いくつかの実現例では、ウェアラブルデバイス104-2は、ウェアラブルデバイス104-1を介して、サービス、ネットワーク等へのアクセスを要求してもよい。
コンピューティングシステム106-1,106-2および/またはウェアラブルデバイス104-1,104-2のうちの1つ以上に関連付けられたユーザ104,106は、環境102内の1つ以上の制御可能デバイスの制御を望む場合がある。環境102に示されるように、第1の制御可能デバイス108-1はデジタルアシスタントデバイスであり、第2の制御可能デバイス108-2はWi-Fiルータである。任意の数の制御可能デバイス108が、環境102に含まれてもよい。そのような制御可能デバイス108を制御することは、特定の制御可能デバイス108の所有者からの認証を評価し、取得することを含み得る。コンピューティングシステム106-1,106-2および/またはウェアラブルデバイス104-1,104-2は、本明細書に記載のシステムおよび技法によって認証され得る。認証は、そのようなシステムおよびデバイスに、サービス、ネットワーク、制御可能デバイスへのアクセス、ならびに/またはそのような制御可能デバイスに関連する許可を提供し得る。たとえば、システム100および環境102は、特定のサービス、ネットワーク、および/または制御可能デバイスへのアクセスを取得するために、ウェアラブルデバイス104-1,104-2を認証するように使用され得る情報を取得するために検出およびアクセスされ得るクラウドアンカー110で構成され得る。いくつかの実現例では、1つのウェアラブルデバイス(たとえば、ホストAR眼鏡104-1)は、他のウェアラブルデバイス(たとえば、ゲストAR眼鏡104-2)について認証を提供し得る。
本明細書で使用される場合、クラウドアンカー(たとえば、仮想クラウドアンカー)は、3Dマップに含まれる視覚的特徴点の1つ以上のセットを指す場合がある。クラウドアンカーは、物理的世界における物理的オブジェクトを表す永続的な視覚的特徴のセットに関連付けられ得る。本明細書に記載のARシステムにおいて、ウェアラブルデバイスは、ホストユーザの環境に関するデジタル情報を受信することができ、デジタル情報に基づいてクラウドアンカー(複数可)110などの1つ以上のクラウドアンカーを作成することができ、各クラウドアンカー110は、建物内の部屋(またはその一部)などの物理的空間の一部を表し得る。ホストユーザは、部屋に関連する仮想シーンに仮想オブジェクトを追加してもよく、その後、仮想オブジェクトを、クラウドアンカー110における位置にリンク(または固定)することができる。
クラウドアンカー110は、他のユーザと共有されてもよく、他のユーザは、空間に参加し、ホストユーザ(または別のユーザ)が所有するコンテンツまたはデバイスを閲覧し、それと対話することができる。いくつかの例では、他のユーザがホストの環境に参加することを許可するために、ホストユーザは、特定のクラウドアンカーの識別子を突き止め、その識別子を他のユーザに提供してもよく、当該ユーザがARシーンに参加するために識別子を手動で入力してもよい。いくつかの実現例では、クラウドアンカーは、クラウドアンカーに関連付けられた(またはアクセスするように通信可能に結合された)オブジェクト、デバイス、サービス、および/またはシステムにアクセスするために特定のデバイスを自動的に認証するように、ホストによって構成されてもよい。環境102に関連付けられた各デバイス(たとえば、コンピューティングシステム106-1,106-2およびウェアラブルデバイス104-1,104-2)は、このようなデバイスに関連付けられた画像センサを介して、クラウドアンカー110にアクセス可能である。
いくつかの実現例では、ゲストのウェアラブルデバイスが、任意の数のクラウドアンカー110の特徴点に関連するデータを収集する物理的環境中を移動してもよい。ある時点で、特徴点の組み合わせは、ネットワークまたはデバイスへのアクセスを取得するための特定の識別子として提供され得る。識別子は、1つ以上のクラウドアンカー110に関連付けられた1つ以上の特徴点を含み得る。たとえば、ウェアラブルデバイス104-2が、制御可能デバイスに対応する、または制御可能デバイスと共に構成された、特定のクラウドアンカーに関連付けられた識別子を生成できる場合、ウェアラブルデバイス104-2はその後、ネットワークまたはデバイスへのアクセスを取得するために認証され得る。
動作中、ウェアラブルデバイス104-1は、ホスト(すなわち、制御可能デバイス108の所有者)を表し得る。ユーザ104(すなわち、ホスト/所有者)は、ゲストユーザがクラウドアンカー110にアクセスできることを検証するとゲストユーザに一般的なクラウドアンカーベースの認証を提供し、このような検証をウェアラブルデバイス104-2、ウェアラブルデバイス104-3、ウェアラブルデバイス104-4、コンピューティングシステム106-1、制御可能デバイス108-1(デジタルアシスタント)、または制御可能デバイス108-2(たとえばWi-Fiルータ)にそれぞれ与えるように構成された制御可能デバイス108-1および/または制御可能デバイス108-2を有し得る。
いくつかの実現例では、クラウドアンカー110は、任意の数の識別子と関連付けられていてもよい。たとえば、クラウドアンカー110は、特定の環境の3Dマップに関連付けられた物理的または仮想的なオブジェクトの位置を示す位置識別子を含み得る。クラウドアンカー110は、代替的または追加的に、サービス、ネットワーク、機能、特徴などにアクセスするためのサービス、パスワード、および/または他の指標を示す識別子を含み得る。
ある非限定的な例では、システム100は、ウェアラブルデバイスにネットワークへのアクセスを提供し得る。たとえば、ユーザ106は、ウェアラブルデバイス104-2(たとえば、AR眼鏡)を装着して歩いてロビー環境102に入り得る。ウェアラブルデバイス104-2は、少なくとも1つのクラウドアンカー(たとえば、クラウドアンカー110)を検出し得る少なくとも1つの画像センサを含み得る。クラウドアンカー110は、少なくとも1つの制御可能デバイス(たとえば、Wi-Fiネットワークルータを表す制御可能デバイス108-2)に関連付けられた識別子を含み得る。制御可能デバイス108-2は、物理的環境102が、たとえば、クラウドアンカー110を検出する任意のウェアラブルデバイスにWi-Fiサービスを提供するように構成され得る。たとえば、少なくとも1つの制御可能デバイス(たとえば、Wi-Fiルータ108-2)の位置がウェアラブルデバイス104-2の閾値距離内にあると検出することに応答して、ウェアラブルデバイス104-2は、少なくとも1つのクラウドアンカー110からの識別子の抽出をトリガし得る。たとえば、ウェアラブルデバイスは、デバイス108-2の予め定義された閾値距離内に移動するとき、および/またはデバイス108-2の視聴距離内に移動する場合、デバイス108-2にログイン認証情報(たとえば、SSID、ユーザ名およびパスワード)を自動的に要求し得る(すなわち、ウェアラブルデバイス104-2は、デバイス108-2の視野、検出可能距離、および/または別の視覚的に検出可能な範囲内にクラウドアンカー110を有し得る)。いくつかの実現例では、閾値距離は、特定のウェアラブルデバイス104-2が特定のクラウドアンカー110にもはやアクセスできないと検出することに基づいて、時間が経過してデバイス104-2が特定のクラウドアンカーをもはや見ることができないと判断される閾値時間に対応してもよい。そのような時間に、ウェアラブルデバイス104-2においてWi-Fiの認証が解除され得る。
いくつかの実現例では、閾値距離は、特定のデバイスの完全なまたは部分的な視線に関係してもよい。たとえば、閾値距離は、制御可能デバイス108-2に対する視線を有するウェアラブルデバイス(たとえば、ウェアラブルデバイス104-2)が確保することに関係してもよい。閾値距離の別の例は、たとえば、ウェアラブルデバイス104-2が、環境102内の特定の制御可能デバイスの少なくとも部分的な視界(すなわち、部分的な視線)を有すると保証することに関係し得る。
識別子情報を要求すると、ウェアラブルデバイス104-2は、認証が起こり得るようなデバイス104-2によって認識されるシーケンスで、少なくとも1つの制御可能デバイスに当該情報を提供し得る。たとえば、識別子の情報を提供すると、ウェアラブルデバイス104-2は、提供された識別子の受信済みの認証に基づいて、ネットワークに参加し得る。環境102および/または制御可能デバイス108-2に関連付けられた別のデバイスまたはウェアラブルデバイスを介して、デバイス108-2が認証してもよいし、ユーザ104が認証してもよい。たとえば、少なくとも1つの制御可能デバイスは、ネットワークを提供している制御可能デバイス108-2(すなわち、ネットワークWi-Fiルータ)と構成される電子アシスタント(たとえば、制御可能デバイス108-1)であってよい。
別の非限定的な例では、システム100は、環境102に関連付けられた特定の制御可能デバイスを使用、制御、または他の態様ではこれにアクセスするために、別のユーザまたはデバイスを認証し得る。たとえば、ユーザ106は、ゲストを代表してもよく、環境102のロビー(すなわち、物理的環境)に入ってもよい。ユーザ106は、(デバイス104-2および106-2で示されるような)1つ以上の電子デバイスと関連付けられ得る。しかしながら、ユーザは、いかなるデバイスも所持しておらず、環境102のいかなるデバイスとも関連付けられていない可能性がある。したがって、本明細書に記載のシステムは、デバイスに対する認証を行い得る、かつ/または、そのようなユーザから受信した音声(または視覚)要求に基づいて、特定のユーザを認証し得る。
この例では、ユーザ104は、環境102および環境102内の制御可能デバイス(たとえば、制御可能デバイス108-1および制御可能デバイス108-2)のホストを表し得る。ユーザ104は、環境102内のデバイスに対して他のユーザを認証するために使用され得るウェアラブルデバイス104-1(たとえば、AR眼鏡)を装着し得る。たとえば、ユーザ106は、環境102に入り、たとえば、制御可能デバイス1081にアクセスする要求を提供し得る。要求は、デバイス104-2、デバイス106-2、またはユーザ106に関連付けられた別のデバイスを介して行われ得る。いくつかの実現例では、要求は、代わりに、ユーザ106によって実行される音声発話または視覚的標識を含み得る。
ユーザ106は、電子アシスタント(制御可能デバイス108-1など)を使用、制御、または他の態様ではこれにアクセスするための要求を実行し得る。動作中、システム100は、ウェアラブルデバイス104-1(またはデバイス104-3またはデバイス104-4)において要求を受信し得る。1つまたはすべてのウェアラブルデバイス104-1,104-3,104-4は、デバイス104-1,104-3,104-4のいずれかが制御可能デバイス108-1へのアクセスを認証できるように、制御可能デバイス108-1に通信可能に結合され得る。この例では、要求は、たとえば、ウェアラブルデバイス104-1によって、未認証のユーザまたはデバイスから受信された(たとえば、ユーザ106から発せられた、または未認証のコンピューティングデバイス106-2もしくはウェアラブルデバイス104-2から受信された)ものと判断される。
不正なユーザまたはデバイスからの要求を受信すると、ウェアラブルデバイス104-1は、それ自体の姿勢を判定し得る。姿勢は、ホストによって所有され、かつ物理的環境内にあるウェアラブルデバイス104-1のものであってもよい。次に、ウェアラブルデバイス104-1は、未認証のユーザ106またはデバイス(デバイス106-2もしくはデバイス104-2)による制御可能デバイス108-1へのアクセスの許可または拒否を選択するためのプロンプト113の(それ自体に関連付けられたディスプレイ上での)レンダリングをトリガし得る。プロンプト113は、質問と選択可能なコントロールとを描いているが、他のプロンプトももちろん可能である。たとえば、追加のプロンプト115は、認証要求を受信するために、環境102内のドアを見るようにユーザ104に指示する。ユーザ104は、そのような認証要求を受信する(すなわち、そのような要求が提供される)ように、部屋のドアを見るジェスチャを実行し得る。
いくつかの実現例では、ウェアラブルデバイス104-1のユーザ104は、たとえば、デバイス104-1(すなわち、AR眼鏡)に対する承認を示すために、ウェアラブルデバイス104-1に関連付けられたカメラのビュー内でジェスチャ112を実行し得る。そのような承認は、次に、ユーザ106またはデバイス104-2もしくは106-2の認証を可能にし、これにより、制御可能デバイス108-1で要求が実行されることを可能にし得る。たとえば、要求が、選択されたプレイリストから音楽を再生するためのデバイス106-2からのものであった場合、または要求が音楽を再生するための可聴要求114であった場合、認証によって、ウェアラブルデバイス104-1に関連する承認に少なくとも部分的に基づいて、要求116を表す指標によって示されるように、デバイス108-1が音楽を再生することが可能になる。
制御可能デバイス108-1にアクセスする許可を受信することに応答して、またはデバイス104-1によって見ることが可能なジェスチャがユーザ104によって実行されることに応答して、ウェアラブルデバイス104-1は、未認証のユーザまたはデバイスが物理的環境の領域から制御可能デバイス108-1にアクセスすることを認証し、その後要求を実行し得る。物理的環境の領域は、ウェアラブルデバイスの判定された姿勢に基づいて画定され得る。たとえば、領域は、ウェアラブルデバイス104-1の搭載カメラまたはデバイス104-1に関連付けられた音声センサを使用して、判定され得る。この例では、領域Aは、ユーザ106(またはユーザ106が所有するデバイス)の位置に基づいて画定された領域の一例である。当然のことながら、環境102内の他の画定された領域およびサブ領域が可能である。
図2は、本開示を通して説明する実現例に係る、物理的環境および/またはAR環境においてデバイスを認証するための例示的なシステム200を示すブロック図である。システム200は、図1で説明したように、少なくとも第1のウェアラブルデバイス104-1を含む。デバイス104-1は、制御可能デバイス108にアクセスする要求を受信し得る。いくつかの実現例では、クラウドアンカーにアクセスし、これを生成し、閲覧し、使用するために、サーバコンピュータ202が利用されてもよい。いくつかの実現例では、ウェアラブルコンピューティングデバイス104-1は、サーバコンピュータ202に関して説明された動作を実行および格納して、本明細書で説明される技法でサーバコンピュータ202の使用を省き得る。
いくつかの例では、ウェアラブルデバイス104-1は1つ以上のコンピューティングデバイスを含み、デバイスの少なくとも1つは、人の皮膚上にまたは皮膚に近接して装着することができる表示デバイスである。いくつかの例では、ウェアラブルデバイス104-1は、ウェアラブルデバイスであるか、またはこれを含む。ウェアラブルデバイスは、光学ヘッドマウントディスプレイ(optical head-mounted display:OHMD)デバイス、透明ヘッドアップディスプレイ(heads-up display:HUD)デバイス、拡張現実(AR)デバイスなどのヘッドマウントディスプレイ(head-mounted display:HMD)デバイス、またはセンサ、ディスプレイ、およびコンピューティング能力を有するゴーグルもしくはヘッドセットなどの他のデバイスを含み得る。いくつかの例では、ウェアラブルデバイスは、AR眼鏡(たとえば、スマートグラス)を含む。AR眼鏡は、眼鏡の形状に設計された光学式ヘッドマウント表示デバイスである。
いくつかの例では、ウェアラブルデバイス104-1は、ウェアラブルデバイス(たとえば、AR眼鏡)とコンピューティングデバイス(たとえば、スマートフォン、タブレット、ラップトップなどのモバイルコンピューティングデバイス、またはスマートウォッチなどの別のウェアラブルデバイス)とを含む。ウェアラブルデバイス104-1は、短距離接続(たとえば、Bluetooth(登録商標)接続もしくは近距離通信(near-field communication:NFC)接続)またはインターネット接続(たとえば、Wi-Fiもしくはモバイルネットワーク)などの無線接続を介して、コンピューティングデバイスに接続され得る。いくつかの例では、ウェアラブルデバイス104-1のコンポーネントの一部がウェアラブルデバイスに含まれ、ウェアラブルデバイス104-1のコンポーネントの一部がコンピューティングデバイスに含まれる。
ウェアラブルデバイス104-1は、1つ以上のプロセッサ204を含み、これらは、1つ以上の機械実行可能命令またはソフトウェア、ファームウェア、またはそれらの組み合わせを実行するように構成された基板に形成され得る。プロセッサ204は半導体ベースであり得る、すなわち、プロセッサは、デジタル論理を実行することができる半導体材料を含み得る。そのようなプロセッサ204は、CPU、GPU、および/またはDSPを含み得るが、これらはほんの数例である。
また、ウェアラブルデバイス104-1は、1つ以上のメモリデバイス206を含むことができる。メモリデバイス206は、プロセッサ(複数可)204によって読み取りおよび/または実行できるフォーマットで情報を格納する任意のタイプのストレージデバイスを含み得る。メモリデバイス206は、プロセッサ(複数可)204によって実行されると特定の動作を実行するアプリケーションおよびモジュールを格納し得る。いくつかの例では、アプリケーションおよびモジュールは、外部ストレージデバイスに格納され、メモリデバイス206にロードされ得る。ウェアラブルデバイス104-1は、他のコンピューティングデバイスと通信するように構成された1つ以上のアンテナ(図示せず)を含む。
ウェアラブルデバイス104-1は、ディスプレイ208を含む。ディスプレイ208は、液晶ディスプレイ(liquid crystal display:LCD)、発光ダイオード(light-emitting diode:LED)ディスプレイ、有機発光ディスプレイ(organic light-emitting display:OLED)、電気泳動ディスプレイ(electro-phoretic display:EPD)、またはLED光源を採用するマイクロ投影ディスプレイを含み得る。いくつかの例では、ディスプレイ208は、ユーザの視野に投影される。いくつかの例では、AR眼鏡の場合、ディスプレイ208は、眼鏡を装着するユーザが、ディスプレイ208によって提供される画像を見ることも、投影画像の背後にあるAR眼鏡の視野に位置する情報も見ることもできるように、透明または半透明のディスプレイを提供してもよい。
ウェアラブルデバイス104-1は、センサシステム210を含む。センサシステム210は、画像データを取得するように構成された画像センサ212を含む。いくつかの例では、センサシステム210は、複数のイメージセンサ212を含む。画像センサ212は、写真の撮影およびビデオの記録が可能である。センサシステム210は、慣性測定ユニット(inertial measurement unit:IMU)214を含み得る。IMU214は、ウェアラブルデバイス104-1の動き、移動、および/または加速を検出し得る。IMU214は、たとえば、加速度計、ジャイロスコープ、磁力計、および他のそのようなセンサなどのさまざまな異なるタイプのセンサを含み得る。センサシステム210は、ウェアラブルデバイス104-1によって受信された音声を検出するように構成された音声センサ216を含む。センサシステム210は、光センサ、距離および/または近接センサ、静電容量センサなどの接触センサ、タイマー、他のセンサ、および/またはセンサの異なる組み合わせ(複数可)などの他の種類のセンサを含み得る。センサシステム210は、クラウドアンカーアプリケーション220を使用してクラウドアンカーデータ218に関連する情報、およびそのようなクラウドアンカーに関連する3Dマップ230に関連付けられた識別子222を取得するために使用され得る。
識別子222は、1つ以上のクラウドアンカー110に関連する情報を含み得る。情報は、コンピューティングデバイス、ウェアラブルデバイス、仮想オブジェクト、および/または物理的環境に関連する物理的オブジェクトに対応する位置データを含み得る。いくつかの実現例では、情報は、ネットワーク、ARセッションへの参加、デバイスコントロールの取得などのための構成データを含み得る。いくつかの実現例では、識別子222に含まれる情報は、画像認証データベース242に格納され得るような、認証目的のために格納されている画像などの画像データを含み得る。
システム200は、デバイスおよびそのようなデバイスによって取り込まれる画像に関連する特定の位置ならびに特徴を認証する目的でクラウドアンカーと対話するために使用され得るクラウドアンカーアプリケーション220を含む。たとえば、ウェアラブルコンピューティングデバイス104-1が特定のユーザまたはデバイスを認証する要求を受信した場合、システム200は、環境102内の1つ以上の制御可能デバイス108の位置を判定するためにアクセスされ得る。ウェアラブルコンピューティングデバイス104-1を操作するユーザは、センサシステム210の画像センサ212を特定の他のユーザまたはデバイスに(たとえば、制御可能デバイス108-1に)向け、ウェアラブルデバイス104-1を動かして異なる視野角および位置から環境をマップし得る。そのようなマップは、サーバのマップデータベース234またはデバイスに、クラウドアンカーデータ218として格納され得る。
動作中、クラウドアンカーアプリケーション220は、センサシステム210からデータを受信し、視覚データ224、デバイス姿勢(複数可)226、およびアンカー姿勢(複数可)228を含むクラウドアンカーデータ218を生成する。ウェアラブルデバイス104-1は、クラウドアンカーデータ218に基づいて、3Dマップ230を生成するか、これにアクセスし得る。いくつかの実現例では、ウェアラブルデバイス104-1は、代わりに、サーバコンピュータ202でクラウドアンカーデータ218にアクセスし得る。サーバコンピュータ202は、クラウドアンカーデータ218を生成し、マップデータベース234のためのマップ230を生成するための視覚的位置決めデータサービス232を含み得る。マップ230は、この例では、特定の物理的環境および/または仮想環境に関連付けられた3Dマップ生成器236によって生成され得る。
ウェアラブルデバイス104-1は、搭載カメラ238または画像センサ212に基づいて、姿勢および/または位置240を判定し得る。位置240は、制御可能デバイス108-1の3D位置であってもよく、3D位置240は、ユーザ(および/またはウェアラブルデバイス104-1)が動作している3D物理的環境における制御可能デバイス108-1の位置(およびオプションで、向き)である。いくつかの例では、位置は、制御可能デバイスまたはウェアラブルデバイスの3DoF位置240aを含む。いくつかの例では、位置240は、制御可能デバイスまたはウェアラブルデバイスの6DoF位置240bを含む。いくつかの実現例では、位置240は、制御可能デバイスまたはウェアラブルデバイスの5DoF位置240cを含む。
また、ウェアラブルデバイス104-1は、ジェスチャ検出器244を含む。ジェスチャ検出器244は、センサシステム210にアクセスして、デバイス104-1のカメラ238および/または画像センサ212によって取り込まれた受信ジェスチャを検出および変換し得る。いくつかの実現例では、ジェスチャ検出器244は、ジェスチャを認識し、ジェスチャを、特定の制御可能デバイスに対するアクセスおよび/または制御を行うための入力に変換し得る。いくつかの実現例では、ジェスチャ検出器244は、ユーザが提供したジェスチャを受信し、ジェスチャのパターンを解釈して、そのパターンを、たとえば、環境102内の制御可能デバイスのための入力に変換する。いくつかの実現例では、カメラ238は、カメラがスマートウォッチの縁に埋め込まれるウェアラブルデバイス104-4の低解像度カメラを表してもよく、認証目的でクラウドアンカー110から取り込まれた画像データの追跡、閲覧、および変換が可能である。
また、ウェアラブルデバイス104-1は、ウェアラブルデバイス104-1の動作を容易にするためのさまざまな制御システムデバイスを含む制御システム246を含む。制御システム246は、ウェアラブルデバイス104-1のコンポーネントに動作可能に結合されたプロセッサ314を含み得る。
また、ウェアラブルデバイス104-1は、通信モジュール248を含む。通信モジュール248は、ウェアラブルデバイス104-1が、別のコンピューティングデバイスと情報を交換するために通信し、デバイス104-1または環境内の他の識別可能な要素の範囲内の他のデバイスを認証することを可能にし得る。たとえば、ウェアラブルデバイス104-1は、たとえば有線接続、たとえばWi-FiもしくはBluetoothを介した無線接続、または他のタイプの接続を介して通信を容易にするために、別のコンピューティングデバイスに動作可能に結合され得る。
いくつかの実現例では、ウェアラブルデバイス104-1は、ネットワーク250を介してサーバコンピュータ202と通信するように構成されている。サーバコンピュータ202は、たとえば標準サーバ、そのようなサーバのグループ、またはラックサーバシステムのような、多数の異なるデバイスの形態をとる1つ以上のコンピューティングデバイスを表し得る。いくつかの実現例では、サーバコンピュータ202は、プロセッサおよびメモリなどのコンポーネントを共有する単一のシステムである。ネットワーク250は、インターネットおよび/またはローカルエリアネットワーク(local area network:LAN)、ワイドエリアネットワーク(wide area network:WAN)、セルラーネットワーク、衛星ネットワーク、または他のタイプのデータネットワークを含み得る。また、ネットワーク250は、ネットワーク250内でデータを受信および/または送信するように構成された任意の数のコンピューティングデバイス(たとえば、コンピュータ、サーバ、ルータ、ネットワークスイッチなど)を含み得る。
サーバコンピュータ202は、1つ以上の機械実行可能命令またはソフトウェア、ファームウェア、またはそれらの組み合わせを実行するように構成された基板に形成され得る1つ以上のプロセッサ(図示せず)を含む。プロセッサ(複数可)は、半導体ベースであり得る、すなわち、プロセッサは、デジタル論理を実行することができる半導体材料を含むことができる。サーバコンピュータ202は、1つ以上のメモリデバイス(図示せず)を含む。メモリデバイスは、プロセッサによって読み取りおよび/または実行できるフォーマットで情報を格納する主メモリを含み得る。
いくつかの例では、サーバコンピュータ202は、視覚位置決めデータサービス232を実行するように構成されている。視覚位置決めデータサービス232は、ユーザが共有できるマルチプレイヤーまたは連携AR体験を作成するためのクラウドアンカー(たとえば、3Dマップ230)をユーザが作成できるようにする拡張現実(AR)連携サービスであり得る。たとえば、ユーザは、他のユーザが共有された物理的環境内の異なる位置から閲覧、認証、および/もしくは他の態様では対話することができる仮想コンテンツならびに/または制御可能デバイス108を構成することができる。
たとえば、ユーザは、自分の環境においてローカルクラウドアンカー(たとえば、3Dマップ230)を作成し得る。ホスティング中、ウェアラブルデバイス104-1は、視覚的位置決めデータサービス232で3Dマップ230を生成するためにデータをアップロードすることができ、視覚的位置決めデータサービス232は、特定の制御可能デバイスにアクセスするための一意の識別子222を返す。一意の識別子222は、同じAR環境に参加するために、またはいくつかの実現例では、クラウドアンカーデータ218に関連付けられた識別子222を使用して認証した後に制御可能デバイスにアクセスするために、他のユーザに配布することができる。
図2は、単一のウェアラブルデバイス104-1および2つの制御可能デバイス108を示すが、本明細書で説明する実現例は、任意の数のそのようなシステム(たとえば、3つ以上)を包含し得る。図1は、図2に示されたシステムよりも少ないデバイス要素を示すが、図1に示されたデバイスは、図2のシステムの要素のいずれかまたはすべてを含み得る(または要素のいずれかまたはすべてにアクセスし得る)。
図3A~図3Bは、本開示を通して説明する実現例に係る、ARウェアラブルデバイスの一例を示すさまざまな図である。図3Aは、本開示を通して説明する実現例に係る、ウェアラブルデバイスの一例を示す正面図である。この例では、ウェアラブルデバイスは、AR眼鏡300A(たとえば、図1のウェアラブル電子デバイス104-1)である。一般に、AR眼鏡300Aは、システム200のいずれかまたはすべてのコンポーネントを含み得る。AR眼鏡300Aは、眼鏡の形状に設計された光学ヘッドマウント表示デバイスを表すスマートグラスとして示されてもよい。たとえば、スマートグラスは、装着者が眼鏡を通して見るものの横に情報を追加する(たとえば、ディスプレイを投影する)眼鏡である。
本明細書で説明するウェアラブル電子デバイスとしてAR眼鏡300Aが示されているが、他のタイプのウェアラブルデバイスが可能である。たとえば、ウェアラブルデバイスは、光学ヘッドマウントディスプレイ(OHMD)デバイス、透明ヘッドアップディスプレイ(HUD)デバイス、拡張現実(AR)デバイスなどのヘッドマウントディスプレイ(HMD)デバイス、またはセンサ、ディスプレイ、およびコンピューティング能力を有するゴーグルもしくはヘッドセットなどの他のデバイスを含み得る。いくつかの例では、ウェアラブルデバイスは、腕時計、モバイルデバイス、宝石、リングコントローラ、または他のウェアラブルコントローラであってもよい。
図3Aに示すように、AR眼鏡300Aはフレーム302を含み、フレーム302内(またはフレーム302のガラス部分内)に表示デバイス304が結合されている。また、AR眼鏡300Aは、音声出力デバイス306、照明デバイス308、感知システム310、制御システム312、少なくとも一つのプロセッサ314、およびカメラ316を含む。
表示デバイス304は、バードバス光学系または導波路光学系を使用するものなどのシースルーニアアイディスプレイを含み得る。たとえば、このような光学設計は、ディスプレイソースからの光を、45度の角度で設置されたビームスプリッタとして機能するテレプロンプタガラスの一部に投影し得る。ビームスプリッタは、ディスプレイソースからの光を部分的に反射させる一方で残りの光を透過させるような反射値および透過値を可能にし得る。このような光学設計により、ユーザは、ディスプレイによって生成されたデジタル画像(たとえば、UI要素、仮想コンテンツなど)の隣にある世界の物理的アイテムの両方を見ることが可能になり得る。いくつかの実現例では、導波路光学系は、AR眼鏡300Aの表示デバイス304上にコンテンツを表すために使用され得る。
音声出力デバイス306(たとえば、1つ以上のスピーカ)は、フレーム302に結合され得る。感知システム310は、さまざまな感知デバイスと、AR眼鏡300Aの動作を容易にするためのさまざまな制御システムデバイスを含む制御システム312とを含み得る。制御システム312は、制御システム312のコンポーネントに動作可能に結合されたプロセッサ314を含み得る。
カメラ316は、静止画および/または動画の取り込みが可能であり得る。いくつかの実現例では、カメラ316は、カメラ316からの外部オブジェクトの距離に関連するデータを収集することができる深度カメラであってもよい。いくつかの実現例では、カメラ316は、たとえば、入力デバイス上の光学マーカまたはスクリーン上の指等の、外部デバイス上の1つ以上の光学マーカを検出および追跡することができる点追跡カメラであってよい。いくつかの実現例では、AR眼鏡300Aは、カメラ316の視野内の(たとえば、仮想および物理的)オブジェクトの検出のために、たとえば、カメラ316と選択的に動作可能な照明デバイス308を含み得る。照明デバイス308は、カメラ316の視野内のオブジェクトの検出のために、たとえば、カメラ316と共に選択的に動作し得る。
AR眼鏡300Aは、プロセッサ314および制御システム312と通信する通信モジュール(たとえば、通信モジュール248)を含み得る。通信モジュールは、AR眼鏡300A内に収容されたデバイス間の通信だけでなく、たとえばコントローラ、モバイルデバイス、および/または他のコンピューティングデバイスなどの外部デバイスとの通信を可能にし得る。通信モジュールは、AR眼鏡300Aが、別のコンピューティングデバイスと情報を交換するために通信し、AR眼鏡300Aまたは環境内の他の識別可能な要素の範囲内にある他のデバイスを認証することを可能にし得る。たとえば、AR眼鏡300Aは、たとえば有線接続、たとえばWi-FiもしくはBluetoothを介した無線接続、または他のタイプの接続を介して通信を容易にするために、別のコンピューティングデバイスに動作可能に結合され得る。
図3Bは、本開示を通して説明する実現例に係る、AR眼鏡300Aを示す背面図300Bである。AR眼鏡300Bは、図1のウェアラブルデバイス104-1または104-2 100の一例であってよい。AR眼鏡300Bは、眼鏡を通して装着者が見るものの横に情報を追加する(たとえば、ディスプレイ320を投影する)眼鏡である。いくつかの例では、情報を投影する代わりに、ディスプレイ320は、レンズ内マイクロディスプレイである。いくつかの例では、AR眼鏡300B(たとえば、眼鏡(eyeglasses または spectacles))は、人の目の前に眼鏡を保持するフレーム302に取り付けられたレンズ322(たとえば、ガラスまたは硬質プラスチックレンズ)を含む視覚補助具であり、典型的には、鼻上のブリッジ324、および耳の上に載っているつる326(たとえば、テンプルまたはテンプル片)を利用している。
図4は、本開示を通して説明する実現例に係る、ネットワークに結合するためのコンピュータによって実現されるプロセス400の一例を示すフローチャートである。一般に、プロセス400は、本明細書に記載のシステムおよびアルゴリズムを利用して、ユーザデバイス(たとえば、ウェアラブルデバイス)が物理的環境をスキャンして環境内の多数のクラウドアンカーを識別し、クラウドアンカーを使用して関連ARコンテンツを取得し、識別されたネットワーク資格情報の使用に基づいてユーザデバイスがあらかじめ用意された環境のネットワークに参加することを可能にし得るクラウドアンカーを使用して、ネットワーク資格情報を識別および/または取得できるようにする。
プロセス400は、少なくとも1つの処理デバイスと、実行されると処理デバイスに特許請求の範囲に記載の複数の動作およびコンピュータによって実現されるステップを実行させる命令を格納するメモリとを備えるコンピューティングシステムを利用し得る。一般に、システム100,200および/またはシステム600は、プロセス400の説明および実行において使用され得る。
ブロック402において、プロセス400は、ウェアラブルデバイス上のセンサが、ネットワークに関連付けられた識別子を含み、かつ物理的環境用に構成された少なくとも1つのクラウドアンカーを検出することを含む。たとえば、環境102に入るユーザ106のウェアラブルデバイス104-2の画像センサ212または音声センサ216は、物理的環境202でネットワーク(たとえば、ネットワーク250)に関連付けられた識別子222を有するクラウドアンカー110を検出し得る。クラウドアンカー110は、本開示を通して説明されるように、物理的環境用に構成され得る。
いくつかの実現例では、識別子は、たとえば、ネットワークがルータデバイス(たとえば、制御可能デバイス108-2)用のWi-Fiネットワークである場合、SSIDおよびログイン認証情報を含み得る。いくつかの実現例では、識別子は、ネットワークにアクセスを提供するデバイスである少なくとも1つの制御可能デバイスに関連付けられている。たとえば、制御可能デバイスは、デバイス108-2(すなわち、ネットワークルータ)であってもよい。いくつかの実現例では、制御可能デバイスは、代わりに、電子アシスタントデバイス108-1であってもよく、これは、ネットワークを提供する(すなわち、ルータを介した)第2の制御可能デバイス108-2を制御するように構成することができる。
ブロック404において、プロセス400は、少なくとも1つのクラウドアンカーに関連付けられた位置がウェアラブルデバイスの閾値距離内にあると検出することと、ウェアラブルデバイスが少なくとも1つのクラウドアンカーにアクセスできると検出することとに応答して、少なくとも1つのクラウドアンカーからの識別子の抽出をトリガすることを含む。たとえば、クラウドアンカー110の位置がウェアラブルデバイス104-2の閾値距離内にあると検出することと、ウェアラブルデバイス104-2が少なくとも1つのクラウドアンカー110にアクセスできると検出することとに応答して、識別子222がクラウドアンカー110から抽出され、たとえばネットワークに関連付けられた1つ以上のデバイスに、または物理的環境102もしくは物理的環境102に通信可能に結合された別の環境に関連付けられた1つ以上のデバイス(たとえば制御可能デバイス108-2)に、提供され得る。いくつかの実現例では、特定の場所への近接は、クラウドアンカー110がウェアラブルデバイス104-2または環境102内の別のデバイスの視野内にあると検出することに基づいて、判定される。
いくつかの実現例では、ネットワークへのアクセスを提供するクラウドアンカーは、ネットワークを提供する不可欠なコンポーネントである。たとえば、1つ以上のクラウドアンカー(たとえば、クラウドアンカー110)は、特定のネットワークアクセスを許可および不許可にするように構成され得る。いくつかの実現例では、クラウドアンカー110は、たとえば、制御可能デバイス108-1および/もしくは108-2、ならびに/または環境102内で利用可能な他の制御可能デバイスおよび/もしくはウェアラブルデバイス104-2がアクセス可能な他の制御可能デバイスが提供するネットワークに接続するためのゲートウェイとして使用可能な情報を含み得る。情報は、ユーザ名、パスワード、クラウドアンカーを介してデバイスを確認するための位置データ、またはウェアラブルデバイス104-2によって取り込まれた視覚データと一致する可能性のある環境102のクラウドアンカーに格納されている他のデータを含み得る。
いくつかの実現例では、クラウドアンカーは、制御可能デバイスに直接関連付けられない場合があるが、代わりに、たとえば、環境102内の特定のネットワークまたはデバイスへの認証要求に対する応答を生成する前に、ユーザもしくはデバイスID、ユーザもしくはデバイスの位置、または他の環境102の詳細などを検証するためのリソースとして構成され得る。
いくつかの実現例では、識別子222は、拡張現実(AR)環境102の3Dマップ230と関連付けられている。3Dマップ230は、物理的環境102にマッピングされ、かつ物理的環境102内の少なくとも1つの制御可能デバイス108-2に格納されている視覚データ224を含み得る。いくつかの実現例では、ウェアラブルデバイス104-2が少なくとも1つのクラウドアンカー110にアクセスできると検出することは、ウェアラブルデバイス104-2が、物理的環境102にマッピングされた視覚データ224の少なくとも一部に一致するデータをセンサ212から提供するかどうかを判定することを含む。
ブロック406において、プロセス400は、提供された識別子の受信済み認証に基づいて、ウェアラブルデバイス104-2をネットワークに結合することを含む。たとえば、認証は、クラウドアンカーによって生成され、ウェアラブルデバイス104-2に送信され得る。いくつかの実現例では、認証は、制御可能デバイス108-2によって生成され、ウェアラブルデバイス104-2に送信され得る。たとえば、正しい識別子222を受信すると、ウェアラブルデバイス104-2は、制御可能デバイス108-2に対して認証されて、制御可能デバイス108-2によって提供されるネットワークへのウェアラブルデバイス104-2の自動参加をトリガし得る。
いくつかの実現例では、少なくとも1つの制御可能デバイス108-2は、ウェアラブルデバイスの位置がもはや閾値距離内でないと検出することに応答して、ネットワークからウェアラブルデバイス104-2の認証を解除するように構成されている。いくつかの実現例では、閾値距離は、特定のウェアラブルデバイス104-2が特定のクラウドアンカー110にもはやアクセスできないと検出することに基づいて、時間が経過してデバイス104-2が特定のクラウドアンカーをもはや見ることができないと判定される閾値時間に対応し得る。そのような時間に、ウェアラブルデバイス104-2上でWi-Fiの認証が解除され得る。いくつかの実現例では、クラウドアンカーは、そのようなデバイスが閾値距離外にあると検出することに基づいて、特定のデバイスの認証解除をトリガするように構成され得る。
いくつかの実現例では、プロセス400は、ウェアラブルデバイス上のセンサが、物理的環境用に構成された少なくとも1つの制御可能デバイスに関連付けられた識別子を含む少なくとも1つのクラウドアンカーを検出することを含む。たとえば、環境102に入るユーザ106のウェアラブルデバイス104-2の画像センサ212または音声センサ216は、物理的環境102で制御可能デバイス108-2(たとえば、ネットワークルータ)に関連付けられた識別子222を有するクラウドアンカー110を検出し得る。
いくつかの実現例では、プロセス400は、少なくとも1つの制御可能デバイスの位置がウェアラブルデバイスの閾値距離内にあると検出することと、ウェアラブルデバイスが少なくとも1つのクラウドアンカーにアクセスできると検出することとに応答して、少なくとも1つのクラウドアンカーからの識別子の抽出をトリガすることと、識別子を少なくとも1つの制御可能デバイスに提供することとを含む。たとえば、少なくとも1つの制御可能デバイス108-2の位置がウェアラブルデバイス104-2の閾値距離内にあると検出することと、ウェアラブルデバイス104-2が少なくとも1つのクラウドアンカー110にアクセスできると検出することとに応答して、識別子222がクラウドアンカー110から抽出され、制御可能デバイス108-2に提供され得る。
いくつかの実現例では、識別子は、たとえば、ネットワークがルータ(たとえば、制御可能デバイス108-2)用のWi-Fiネットワークである場合、SSIDおよびログイン認証情報を含み得る。少なくとも1つの制御可能デバイスは、ネットワークへのアクセスを提供するデバイスであり得る。たとえば、制御可能デバイスは、デバイス108-2(すなわち、ネットワークルータ)であってもよい。いくつかの実現例では、制御可能デバイスは、代わりに、ネットワーク(すなわち、ルータ)を提供する第2の制御可能デバイス108-2を制御するように構成され得る電子アシスタントデバイス108-1であってよい。いくつかの実現例では、位置は、クラウドアンカー110がウェアラブルデバイス104-2の視野内にあると検出することに基づいて判定される。
いくつかの実現例では、ネットワークにアクセスを提供する制御可能デバイスは、ネットワークを提供する不可欠なコンポーネントである。たとえば、制御可能デバイスがルータ制御可能デバイス108-2である場合、デバイス108-2は、ネットワークへのアクセスを制御し、かつ/またはルータ制御可能デバイス108-2を介してネットワークにアクセスし得る他のデバイス(たとえば、104-1,104-2,104-3,106-1,106-2,108-1)に対するアクセスを制御し得る。
いくつかの実現例では、クラウドアンカー110は、たとえば、制御可能デバイス108-1および/もしくは108-2、ならびに/または環境102内で利用可能な他の制御可能デバイスおよび/もしくはウェアラブルデバイス104-2がアクセスできるデバイスが提供するネットワークに接続するためのゲートウェイとして使用することができる情報を含み得る。情報は、ユーザ名、パスワード、クラウドアンカーを介してデバイスを確認するための位置データ、またはウェアラブルデバイス104-2によって取り込まれた視覚データと一致し得る環境102のクラウドアンカーに格納されている他のデータを含み得る。
いくつかの実現例では、クラウドアンカーは、制御可能デバイスに直接関連付けられないかもしれないが、代わりに、たとえば、環境102内の特定のネットワークまたはデバイスに対する認証要求に対する応答を生成する前に、ユーザまたはデバイスのID、ユーザまたはデバイスの位置などを検証するリソースとして構成され得る。
いくつかの実現例では、識別子222は、拡張現実(AR)環境102の3Dマップ230と関連付けられている。3Dマップ230は、物理的環境102にマッピングされ、かつ物理的環境102内の少なくとも1つの制御可能デバイス108-2に格納されている視覚データ224を含み得る。いくつかの実現例では、ウェアラブルデバイス104-2が少なくとも1つのクラウドアンカー110にアクセスできると検出することは、ウェアラブルデバイス104-2が、物理的環境102にマッピングされた視覚データ224の少なくとも一部に一致するデータをセンサ212から提供するかどうかを判定することを含む。
いくつかの実現例では、プロセス400は、制御可能デバイス108-2において提供された識別子の受信済み認証に基づいて、ウェアラブルデバイス104-2をネットワークに結合することを含む。たとえば、正しい識別子222を受信すると、ウェアラブルデバイス104-2は制御可能デバイス108-2に対して認証されて、制御可能デバイス108-2によって提供されるネットワークへのウェアラブルデバイス104-2の自動参加をトリガし得る。
いくつかの実現例では、少なくとも1つの制御可能デバイス108-2は、ウェアラブルデバイスの位置がもはや閾値距離内でないと検出することに応答して、ネットワークからウェアラブルデバイス104-2の認証を解除するように構成されている。いくつかの実現例では、閾値距離は、特定のウェアラブルデバイス104-2が特定のクラウドアンカー110にもはやアクセスできないと検出することに基づいて、時間が経過してデバイス104-2が特定のクラウドアンカーをもはや見ることができないと判定される閾値時間に対応し得る。そのような時間に、ウェアラブルデバイス104-2においてWi-Fiの認証が解除され得る。
図5は、本開示を通して説明する実現例に係る、制御可能デバイスに対して認証するためのコンピュータによって実現されるプロセス500の一例を示すフローチャートである。この例では、ウェアラブルデバイス104-1は、認証されたユーザによってアクセス可能なリソース(たとえば、音楽)を制御する制御可能デバイス108-1(たとえば、電子アシスタントデバイス)に通信可能に結合され得る。一般に、プロセス500は、本明細書に記載のシステムおよびアルゴリズムを利用して、認証されたデバイスおよび/またはユーザによって操作されるように構成され得る制御可能デバイス108-1の要求を、未知のスピーカが提供したと検出する。ウェアラブルデバイス104-1は、物理的環境102に関してローカライズする(たとえば、位置、姿勢などを判定する)ことによって、認証プロセスを開始し得る。ウェアラブルデバイス104-1に関連付けられたマイクロフォンが、聴覚的な要求を提供するスピーカの方向を判定するために使用され得る。ウェアラブルデバイス104-1を装着しているデバイス所有者104は、要求を許可または拒否するように促される。いくつかの実現例では、デバイス所有者104は、要求を提供するスピーカを見る(またはその方向を見る)ように促される。デバイス所有者104が要求を許可する場合、部屋の領域(たとえば、球体の領域によって記述される)は、認証されたものとしてマークされる。
いくつかの実現例では、プロセス500は、埋め込み(たとえば、高次元特徴ベクトル)を生成し格納するために、話者の顔の画像を取り込み得る。埋め込みは、現実世界のIDを表すのではなく、特定の物理的環境と関連付けることができる話者の外見(または部分的な外見)を表す。いくつかの実現例では、埋め込みは、ユーザによってデバイス108-1を効率的に制御するために、制御可能デバイス108-1に関連付けられたIDと結びつけられる。たとえば、IDは、スピーカのプレイリストに結び付けられてもよく、それゆえ、音楽を再生すること(たとえば、要求116を表すインジケータ)は、そのようなプレイリストの再生をトリガし得る。
いくつかの実現例では、話者(たとえば、要求者)の顔の特徴は、ウェアラブルデバイスに格納されている、またはウェアラブルデバイスがアクセス可能なサーバコンピューティングシステムに格納されている、以前に許可された顔と比較されてもよい。デバイス所有者104が受信した要求を許可した場合、同じ話者によるその後の要求は、(上述したものと同じ位置特定/姿勢を使用するか、または格納されている顔の特徴を使用して)要求が来た部屋の領域によって認証されてもよい。
プロセス500は、少なくとも1つの処理デバイスと、実行されると処理デバイスに特許請求の範囲に記載の複数の動作およびコンピュータによって実現されるステップを実行させる命令を格納するメモリとを備えるコンピューティングシステムを利用し得る。一般に、システム100,200および/またはシステム600は、プロセス500の説明および実行において使用され得る。
ブロック502において、プロセス500は、物理的環境において制御可能デバイスに通信可能に結合されたウェアラブルデバイスにおいて、制御可能デバイスにアクセスする要求を受信することを含む。たとえば、ウェアラブルデバイス104-1は、物理的環境102において可聴要求114によって示されるように、ユーザ106から要求を受信し得る。いくつかの実現例では、要求は、代わりに、ウェアラブルデバイス104-2またはデバイス106-2から受信されてもよい。ウェアラブルデバイス104-1は、センサシステム210および/またはクラウドアンカーアプリケーション220を用いて、未認証のユーザまたはデバイス(すなわち、ユーザ106またはデバイス104-2,106-2)から要求が受信されると判定し得る。要求が未認証または未認可のユーザから受信されたと判断された場合、プロセス500は、認証チェックプロセスを開始し得る。
ブロック504において、プロセス500は、物理的環境内のウェアラブルデバイスの姿勢を判定することを含む。たとえば、ウェアラブルデバイス104-1は、環境102内でそれ自体の位置240(たとえば、3DoF姿勢240aまたは6DoF姿勢240bまたは5DoF姿勢240c)を判定することができる。この姿勢は、認証が発生した場合に使用され得る。
ブロック506において、プロセス500は、ウェアラブルデバイスにおいて、未認証のユーザもしくはデバイスによる制御可能デバイスに対するアクセスの許可または拒否を選択するためのプロンプトをレンダリングすることを含む。たとえば、プロンプトは、ユーザ104に情報を提示するためにウェアラブルデバイス104-1によって生成され得る。情報(たとえば、プロンプト113,115)は、クラウドアンカーデータ、ユーザおよび/もしくはデバイスを承認するためのUIプロンプト、またはユーザ104が1つ以上の制御可能デバイスに対するアクセスを承認および/もしくは他の態様では認証するのを支援するための他のデータを含み得る。画像取り込みデータ、クラウドアンカーに関連付けられた特徴点、またはシーンからの他の識別可能な情報を含むが、これらに限定されない他のデータも考慮され得る。このような情報は、ユーザに対する特定のプロンプトを生成するために使用され得る。
ブロック508において、プロセス500は、未認証のユーザ(たとえば、ユーザ106)またはデバイス(たとえば、デバイス104-2もしくはデバイス106-2)を認証して、物理的環境102の領域(たとえば、図1の領域A)から制御可能デバイス(たとえば、デバイス108-1、デバイス108-2)にアクセスすることと、要求116(すなわち、音楽の再生)を実行することとを含む。たとえば、プロセス500は、制御可能デバイスにアクセスする許可(たとえば、ジェスチャ112および/またはプロンプト113での入力など)を受信することに応答して、未認証のユーザまたはデバイスを認証して物理的環境の領域から制御可能デバイスにアクセスすることを含み得る。プロセス500は、制御可能デバイスにアクセスする許可を受信することに応答して、受信した要求を実行することも含み得る。領域(たとえば、領域A)は、ウェアラブルデバイス104-1の判定された姿勢に基づいて画定され得る。たとえば、領域は、物理的環境102の球形画像内で画定されてもよく、球形画像は、物理的環境102に関連付けられた少なくとも1つのクラウドアンカー110の3Dマップ230に基づく。
いくつかの実現例では、プロセス500は、ウェアラブルデバイス104-1において、たとえば、ウェアラブルデバイスのユーザが領域(たとえば、領域A)に対応する方向を見るようにトリガするための別のプロンプト(たとえば、プロンプト115)をレンダリングすることも含み得る。ユーザ104が領域Aの方向を見ることに応答して、ウェアラブルデバイス104-1は、認証を要求するユーザ106(またはデバイス106-2もしくは104-2)のすべてまたは一部を取り込み得る領域の画像を取り込むことができる。画像は、ウェアラブルデバイス104-2によって、認証されたデバイスまたはユーザのデータベースに格納され得る。いくつかの実現例では、画像は、代わりに、たとえばサーバコンピュータ202に格納され得る。そのような画像は、将来の認証要求のために使用され得る。
たとえば、制御可能デバイス108-1にアクセスするための第2の要求が、ウェアラブルデバイス104-1によって受信され得る。次に、ウェアラブルデバイス104-1は、ウェアラブルデバイス104-1のユーザ104が第2の要求に関連付けられた画像を取り込むようにトリガするプロンプトをレンダリングし得る。ウェアラブルデバイス104-1は、第2の要求に関連付けられた画像を取り込むための(ユーザ104からの)コマンドを受信してもよく、それを実行し得る。ウェアラブルデバイス104-1は、たとえば、第2の取り込まれた画像をデータベース242内の画像と比較し得る。データベース242内の画像の少なくとも1つに対する第2の取り込まれた画像の一致の少なくとも一部を判定することに応答して、ウェアラブルデバイス104-1は、第2の要求を実行するように制御可能デバイス108-1をトリガし得る。
いくつかの実現例では、要求は、物理的環境102においてユーザ106が話す聴覚的な要求である。ウェアラブルデバイス104-1は、聴覚的な要求が受信される方向を判定してもよく、聴覚的な要求が受信される、判定された方向に基づいて、物理的環境の領域を判定し得る。
図6は、本明細書に記載の技法と共に使用され得る、コンピュータデバイス600およびモバイルコンピュータデバイス650の一例を示す。コンピューティングデバイス600は、ラップトップ、デスクトップ、タブレット、ワークステーション、パーソナルデジタルアシスタント、スマートデバイス、アプライアンス、電子センサベースのデバイス、テレビ、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピューティングデバイスなどのさまざまな形式のデジタルコンピュータを表すことを意図している。コンピューティングデバイス650は、パーソナルデジタルアシスタント、携帯電話、スマートフォン、および他の同様のコンピューティングデバイスなどの、さまざまな形態のモバイルデバイスを表すことを意図している。本明細書に示されるコンポーネント、それらの接続および関係、ならびにそれらの機能は、例示に過ぎないことを意図しており、本明細書で説明および/または請求される発明の実現例を制限することを意図していない。
コンピューティングデバイス600は、プロセッサ602と、メモリ604と、ストレージデバイス606と、メモリ604および高速拡張ポート610に接続する高速インターフェイス608と、低速バス614およびストレージデバイス606に接続する低速インターフェイス612とを含む。プロセッサ602は、半導体ベースのプロセッサであり得る。メモリ604は、半導体ベースのメモリであり得る。コンポーネント602,604,606,608,610および612の各々は、さまざまなバスを用いて相互接続され、共通のマザーボードに搭載されるか、または適宜他の方式で搭載され得る。プロセッサ602は、高速インターフェイス608に結合されたディスプレイ616などの外部入出力デバイスにGUI用のグラフィック情報を表示するために、メモリ604またはストレージデバイス606に格納された命令を含む、コンピューティングデバイス600内で実行するための命令を処理可能である。他の実現例では、複数のプロセッサおよび/または複数のバスが、複数のメモリおよび複数の種類のメモリと共に、適宜使用されてもよい。また、複数のコンピューティングデバイス600が接続されてもよく、各デバイスが必要な動作の一部を(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)提供する。
メモリ604は、コンピューティングデバイス600内の情報を格納する。一実現例では、メモリ604は、1つまたは複数の揮発性メモリユニットである。別の実現例では、メモリ604は、1つまたは複数の不揮発性メモリユニットである。また、メモリ604は、磁気ディスクまたは光ディスクなどの別の形態のコンピュータ読取可能媒体であってもよい。一般に、コンピュータ読み取り可能媒体は、非一時的なコンピュータ読取可能媒体であってよい。
ストレージデバイス606は、コンピューティングデバイス600のためのマスストレージを提供することが可能である。一実現例では、ストレージデバイス606は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、もしくはテープデバイスなど、または、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、またはストレージエリアネットワークもしくは他の構成におけるデバイスを含むデバイスのアレイなどであってもよい。コンピュータプログラム製品は、情報担体に有形に具現化される。コンピュータプログラム製品は、実行されると、上述したような1つ以上の方法および/またはコンピュータによって実現される方法を実行する命令も含み得る。情報担体は、メモリ604、ストレージデバイス606、またはプロセッサ602上のメモリなどの、コンピュータ読取可能媒体または機械読取可能媒体である。
高速コントローラ608は、コンピューティングデバイス600の帯域幅集約型の動作を管理し、低速コントローラ612は、より低い帯域幅集約型の動作を管理する。このような機能の割り当ては例示的に過ぎない。一実現例では、高速コントローラ608は、メモリ604、(たとえば、グラフィックプロセッサまたはアクセラレータを介した)ディスプレイ616、およびさまざまな拡張カード(図示せず)を受け入れることができる高速拡張ポート610に結合される。この実現例において、低速コントローラ612は、ストレージデバイス606および低速拡張ポート614に結合される。さまざまな通信ポート(たとえば、USB、Bluetooth(登録商標)、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポートは、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入出力デバイス、またはスイッチもしくはルータなどのネットワークデバイスに、たとえば、ネットワークアダプタを介して結合され得る。
コンピューティングデバイス600は、図示のように、多数の異なる形態で実装され得る。たとえば、標準的なサーバ620として、またはこのようなサーバのグループにおいて複数回、実装されてもよい。また、ラックサーバシステム624の一部として実装されてもよい。さらに、ラップトップコンピュータ622のようなコンピュータに実装されてもよい。または、コンピューティングデバイス600からのコンポーネントは、デバイス650などのモバイルデバイス(図示せず)において、他のコンポーネントと組み合わされてもよい。このようなデバイスの各々は、コンピューティングデバイス600,650の1つ以上を含むことができ、システム全体は、互いに通信する複数のコンピューティングデバイス600,650で構成され得る。
コンピューティングデバイス650は、プロセッサ652、メモリ664、ディスプレイ654などの入出力デバイス、通信インターフェイス666、およびトランシーバ668などのコンポーネントを含む。また、デバイス650は、追加のストレージを提供するために、マイクロドライブまたは他のデバイスなどのストレージデバイスを備えてもよい。コンポーネント650,652,664,654,666および668の各々は、さまざまなバスを使用して相互接続され、コンポーネントの一部は、共通のマザーボード上に、または適宜他の方式で実装され得る。
プロセッサ652は、メモリ664に格納された命令を含む、コンピューティングデバイス650内の命令を実行することができる。プロセッサは、別個の複数のアナログプロセッサおよびデジタルプロセッサを含むチップのチップセットとして実装されてもよい。プロセッサは、たとえば、ユーザインターフェイスの制御、デバイス650によって実行されるアプリケーション、およびデバイス650による無線通信など、デバイス650の他のコンポーネントの調整のために提供されてもよい。
プロセッサ652は、ディスプレイ654に結合された制御インターフェイス658および表示インターフェイス656を介して、ユーザと通信し得る。ディスプレイ654は、たとえば、薄膜-トランジスタ液晶ディスプレイ(Thin-Film-Transistor Liquid Crystal Display:TFT LCD)または有機発光ダイオード(OLED)ディスプレイ、または他の適切なディスプレイ技術であってもよい。表示インターフェイス656は、グラフィカルな情報および他の情報をユーザに提示するようにディスプレイ654を駆動するための適切な回路を含み得る。制御インターフェイス658は、ユーザからコマンドを受信し、プロセッサ652に提出するためにコマンドを変換し得る。さらに、デバイス650の他のデバイスとの近距離通信を可能にするように、外部インターフェイス662がプロセッサ652と通信して提供され得る。外部インターフェイス662は、たとえば、いくつかの実現例では有線通信を、または他の実現例では無線通信を可能にしてもよく、複数のインターフェイスが使用されてもよい。
メモリ664は、コンピューティングデバイス650内の情報を格納する。メモリ664は、1つもしくは複数のコンピュータ読取可能媒体、1つもしくは複数の揮発性メモリユニット、または1つもしくは複数の不揮発性メモリユニットのうちの1つ以上として実装することができる。拡張メモリ674はまた、たとえばSIMM(Single In Line Memory Module)カードインターフェイスを含み得る拡張インターフェイス672を通じてデバイス650に提供および接続され得る。このような拡張メモリ674は、デバイス650のための余分な記憶空間を提供してもよいし、デバイス650のためのアプリケーションまたは他の情報を格納してもよい。具体的には、拡張メモリ674は、上述した処理を実行または補足するための命令を含むことができ、セキュアな情報を含むことができる。したがって、たとえば、拡張メモリ674は、デバイス650のセキュリティモジュールとして提供されてもよく、デバイス650の安全な使用を可能にする命令でプログラムされてもよい。さらに、セキュアアプリケーションは、識別情報をハッキング不可能な方法でSIMMカードに配置するなどの追加情報と共に、SIMMカードを経由して提供されてもよい。
メモリは、たとえば、後述するように、フラッシュメモリおよび/またはNVRAMメモリを含み得る。ある実現例では、コンピュータプログラム製品は、情報担体に有形に具現化される。コンピュータプログラム製品は、実行されると、上述したような1つ以上の方法を実行する命令を含む。情報担体は、メモリ664、拡張メモリ674、またはプロセッサ652上のメモリなどのコンピュータ読取可能媒体または機械読取可能媒体であり、たとえば、トランシーバ668または外部インターフェイス662を介して受信され得る。
デバイス650は、必要に応じてデジタル信号処理回路を含み得る通信インターフェイス666を介して、無線通信し得る。通信インターフェイス666は、GSM(登録商標)音声通話、SMS、EMS、もしくはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSなど、さまざまなモードまたはプロトコルでの通信を可能にし得る。このような通信は、たとえば、無線周波数トランシーバ668を介して生じ得る。さらに、Bluetooth、Wi-Fi、または他のこのようなトランシーバ(図示せず)を使用するなどして、短距離通信が生じてもよい。さらに、GPS(Global Positioning System)受信機モジュール670は、デバイス650に、デバイス650上で実行されるアプリケーションによって適宜使用され得る追加のナビゲーションおよび位置関連の無線データを提供し得る。
また、デバイス650は、オーディオコーデック660を使用して可聴的に通信することができ、オーディオコーデックは、ユーザから音声情報を受信し、それを使用可能なデジタル情報に変換し得る。オーディオコーデック660は、同様に、たとえば、デバイス650のハンドセット内でスピーカを通してなど、ユーザに対して可聴音を生成し得る。このような音は、音声電話からの音を含んでもよく、記録された音(たとえば、音声メッセージ、音楽ファイルなど)を含んでもよく、デバイス650上で動作するアプリケーションによって生成された音を含んでもよい。
コンピューティングデバイス650は、図示したような複数の異なる形態で実装され得る。たとえば、携帯電話680として実装されてもよい。また、スマートフォン682、パーソナルデジタルアシスタント、または他の類似のモバイルデバイスの一部として実装されてもよい。
本明細書に記載のシステムおよび技法のさまざまな実現例は、デジタル電子回路、集積回路、特別に設計された特定用途向け集積回路(application specific integrated circuit:ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せで実現することができる。これらのさまざまな実現例は、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスとの間でデータおよび命令の送受信を行なうように結合された、専用または汎用であり得る少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能なおよび/または解釈可能な1つ以上のコンピュータプログラムにおける実現例を含み得る。
これらのコンピュータプログラム(モジュール、プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても知られている)は、プログラマブルプロセッサのための機械命令を含み、高水準手続き型および/もしくはオブジェクト指向型のプログラミング言語で、ならびに/またはアセンブリ/機械言語で実装可能である。本明細書で使用する場合、「機械読取可能媒体」および「コンピュータ読取可能媒体」という用語は、機械読取可能信号として機械命令を受信する機械読取可能媒体を含む、機械命令および/またはデータをプログラマブルプロセッサに提供するために使用される、任意のコンピュータプログラム製品、装置および/またはデバイス(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブル論理デバイス(Programmable Logic Device:PLD))を指す。「機械読取可能信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するために用いられる任意の信号を指す。
ユーザとの対話を可能にするために、本明細書に記載のシステムおよび技法は、情報をユーザに表示するための表示デバイス(たとえば陰極線管(cathode ray tube:CRT)または液晶ディスプレイ(LCD)モニタまたは発光ダイオード(LED))と、ユーザによるコンピュータへの入力を可能にするキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを有するコンピュータ上で実現可能である。他の種類のデバイスも同様に、ユーザとの対話を提供するために使用可能である。たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(たとえば、視覚フィードバック、聴覚フィードバックまたは触覚フィードバック)であり得る。また、ユーザからの入力は、音響入力、音声入力または触覚入力を含む任意の形態で受信可能である。
本明細書に記載のシステムおよび技法は、バックエンドコンポーネント(たとえば、データサーバとして)を含む、またはミドルウェアコンポーネント(たとえば、アプリケーションサーバ)を含む、またはフロントエンドコンポーネント(たとえば、ユーザが本明細書に記載のシステムおよび技法の実現例と対話できるようなグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータ)を含む、またはこのようなバックエンドコンポーネント、ミドルウェアコンポーネントもしくはフロントエンドコンポーネントの任意の組み合わせにおいて実現することができる。システムのコンポーネントは、デジタルデータ通信の任意の形態または媒体(たとえば、通信ネットワーク)によって相互接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、およびインターネットが挙げられる。
コンピューティングシステムは、クライアントとサーバとを含み得る。クライアントとサーバとは、一般に互いに離れており、典型的には、通信ネットワークを通じて対話する。クライアント-サーバ関係は、それぞれのコンピュータ上で実行されて互いにクライアント-サーバ関係を有するコンピュータプログラムによって生じる。
いくつかの実施形態では、図6に示されるコンピューティングデバイスは、仮想現実またはヘッドセット(VRヘッドセット/ARヘッドセット/HMDデバイス690)とインターフェイスするセンサを含み得る。たとえば、コンピューティングデバイス650または図6に示される他のコンピューティングデバイスに含まれる1つ以上のセンサは、AR/VRヘッドセット690に入力を提供し、または一般に、AR/VR空間に入力を提供することができる。センサは、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、生体センサ、温度センサ、湿度センサ、および周囲光センサを含むことができるが、これらに限定されるものではない。コンピューティングデバイス650は、センサを使用して、次にAR/VR空間への入力として使用することができる、AR/VR空間におけるコンピューティングデバイスの絶対位置および/または検出された回転を判定することができる。たとえば、コンピューティングデバイス650は、コントローラ、レーザポインタ、キーボード、武器などの仮想オブジェクトとしてAR/VR空間に組み込まれ得る。AR/VR空間に組み込まれたときのユーザによるコンピューティングデバイス/仮想オブジェクトの位置決めによって、ユーザは、AR/VR空間において特定の方式で仮想オブジェクトを見るためにコンピューティングデバイスを位置決めすることが可能になる。
いくつかの実施形態では、コンピューティングデバイス650に含まれる、またはコンピューティングデバイス650に接続される1つ以上の入力デバイスを、AR/VR空間への入力として使用することができる。入力デバイスは、タッチスクリーン、キーボード、1つ以上のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイク、入力機能付きイヤホンもしくはイヤホン、ゲームコントローラ、または他の接続可能な入力デバイスを含むことができるが、それらに限定されない。コンピューティングデバイスがAR/VR空間に組み込まれたときに、コンピューティングデバイス650に含まれる入力デバイスと対話するユーザは、AR/VR空間において特定のアクションを発生させることができる。
いくつかの実施形態では、コンピューティングデバイス650に含まれる1つ以上の出力デバイスは、AR/VR空間においてAR/VRヘッドセット690のユーザに出力および/またはフィードバックを提供できる。出力およびフィードバックは、視覚的、聴覚的、または音声的であり得る。出力および/またはフィードバックは、AR/VR空間または仮想環境のレンダリング、振動、1つ以上のライトもしくはストロボのオン・オフまたは点滅および/またはフラッシング、アラームの鳴動、チャイムの再生、曲の再生、およびオーディオファイルの再生を含み得るが、これらに限定されない。出力デバイスは、振動モータ、振動コイル、圧電デバイス、静電デバイス、発光ダイオード(LED)、ストロボ、およびスピーカを含むことができるが、これらに限定されない。
いくつかの実施形態では、コンピューティングデバイス650は、AR/VRヘッドセット690内に配置されて、AR/VRシステムを作成することができる。AR/VRヘッドセット690は、スマートフォン682などのコンピューティングデバイス650をAR/VRヘッドセット690内の適切な位置に配置することを可能にする1つ以上の位置決め要素を含むことができる。そのような実施形態では、スマートフォン682のディスプレイは、AR/VR空間または仮想環境を表す立体画像をレンダリングすることができる。
いくつかの実施形態では、コンピューティングデバイス650は、コンピュータで生成された3D環境における別のオブジェクトとして現れ得る。ユーザによるコンピューティングデバイス650との対話(たとえば、回転、シェイク、タッチスクリーンのタッチ、タッチスクリーンを横切る指のスワイプ)は、AR/VR空間におけるオブジェクトとの対話として解釈され得る。ほんの一例として、コンピューティングデバイスは、レーザーポインタであり得る。そのような例では、コンピューティングデバイス650は、コンピュータで生成された3D環境において仮想レーザーポインタとして現れる。ユーザがコンピューティングデバイス650を操作すると、AR/VR空間内のユーザは、レーザーポインタの動きを見る。ユーザは、コンピューティングデバイス650上またはAR/VRヘッドセット690上のAR/VR環境におけるコンピューティングデバイス650との対話から、フィードバックを受ける。
いくつかの実施形態では、コンピューティングデバイス650は、タッチスクリーンを含み得る。たとえば、ユーザは、タッチスクリーン上で起こることをAR/VR空間内で起こることと模倣することができる特定の方式で、タッチスクリーンと対話することができる。たとえば、ユーザは、タッチスクリーン上に表示されるコンテンツをズームするためにピンチタイプの動作を使用することができる。タッチスクリーン上のこのピンチタイプの動作は、AR/VR空間で提供される情報をズームさせることができる。別の例では、コンピューティングデバイスは、コンピュータ生成された3D環境における仮想ブックとしてレンダリングされ得る。AR/VR空間では、仮想ブックのページを表示することができ、タッチスクリーンを横切るユーザの指のスワイプは、仮想ブックのページをめくること/フリッピングすることであると解釈することができる。各ページがめくられると/フリッピングされると、ページのコンテンツの変化を見ることに加えて、ユーザには、本のページをめくる音などの音声フィードバックが提供され得る。
いくつかの実施形態では、コンピューティングデバイスに加えて1つ以上の入力デバイス(たとえば、マウス、キーボード)を、コンピュータで生成された3D環境においてレンダリングすることができる。レンダリングされた入力デバイス(たとえば、レンダリングされたマウス、レンダリングされたキーボード)は、AR/VR空間内のオブジェクトを制御するためにAR/VR空間でレンダリングされたまま使用することができる。
多数の実施形態が説明されてきたが、本発明の精神および範囲から逸脱することなく、さまざまな修正を行うことができることが理解されよう。
また、図に示された論理フローは、望ましい結果を取得するために、示された特定の順序、または連続した順序を必要としない。さらに、記載されたフローに対して他のステップが提供または除去されてもよく、記載されたシステムに対して他のコンポーネントが追加または除去されてもよい。したがって、他の実施形態は、以下の特許請求の範囲内にある。
上記の説明に加えて、本明細書に記載のシステム、プログラム、デバイス、ネットワーク、または機能が、ユーザ情報(たとえば、ユーザのソーシャルネットワーク、ソーシャルアクション、またはアクティビティ、職業、ユーザの好み、またはユーザの現在の場所に関する情報)の収集を可能にするか、およびユーザにサーバからコンテンツまたは通信が送信されるかどうかの両方について、ユーザが選択できるコントロールが提供される。さらに、特定のデータは、格納または使用される前に、1つ以上の方法で処理されて、ユーザ情報が削除され得る。たとえば、ユーザのアイデンティティは、そのユーザについてユーザ情報を判定できないように処理することができるか、ユーザの地理的位置は、位置情報が取得される場所(都市、郵便番号、または州レベルなど)で一般化されて、ユーザの特定の位置を判定できないようにすることができる。このように、ユーザは、ユーザについてどのような情報が収集され、その情報がどのように使用され、どのような情報がユーザに提供されるかを制御することができる。
コンピュータシステム(たとえば、コンピューティングデバイス)は、ネットワークを介した通信に適合した無線周波数(radio frequency:RF)、マイクロ波周波数(microwave frequency:MWF)、および/または赤外線周波数(infrared frequency:IRF)無線通信技術およびプロトコルを含む任意の既知の無線通信技術ならびにプロトコルを使用してネットワークサーバと確立した通信リンクを介して、ネットワークサーバと無線通信するように構成され得る。
本開示の態様に従って、本明細書に記載されるさまざまな技法は、デジタル電子回路において、またはコンピュータハードウェア、ファームウェア、ソフトウェアにおいて、またはそれらの組み合わせにおいて実現され得る。実現例は、データ処理装置(たとえば、プログラマブルプロセッサ、コンピュータ、または複数のコンピュータ)による処理のため、またはその動作を制御するための、コンピュータプログラム製品(たとえば、情報担体、機械読取可能ストレージデバイス、コンピュータ読取可能媒体、有形コンピュータ読取可能媒体に有形に具体化されたコンピュータプログラム)として実施されてもよい。いくつかの実現例では、有形のコンピュータ読取可能記憶媒体は、実行されるとプロセッサにプロセスを実行させる命令を格納するように構成され得る。上述のコンピュータプログラムなどのコンピュータプログラムは、コンパイル言語またはインタプリタ言語を含む任意の形式のプログラミング言語で記述することができ、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、またはコンピューティング環境での使用に適した他のユニットとしてなど、任意の形式で展開することができる。
本明細書に開示された特定の構造的および機能的な詳細は、例示的な実施形態を説明することを目的とする単に代表的なものである。しかしながら、例示的な実施形態は、多くの代替形態で具現化可能であり、本明細書に記載された実施形態のみに限定されるものとして解釈されるべきではない。
本明細書で使用される専門用語は、特定の実施形態を説明することのみを目的とし、実施形態を限定することを意図するものではない。本明細書で使用される場合、単数形の不定冠詞および定冠詞は、文脈が明らかに他の意味を示さない限り、複数形も含むことを意図している。本明細書で使用される場合、文言「備える」および/または「含む」は、記載された特徴、ステップ、動作、要素、および/または構成要素の存在を特定するが、1つ以上の他の特徴、ステップ、動作、要素、構成要素、および/またはそれらのグループの存在または追加を排除しないことが、さらに理解されるであろう。
ある要素が別の要素に「結合」、「接続」、または「応答」している、またはその「上に」あると言及される場合、それは別の要素に直接結合、接続、または応答することができ、または介在する要素も存在し得ることが理解されるであろう。対照的に、ある要素が別の要素に「直接結合」、「直接接続」、または「直接応答」している、またはその「直接上に」あると言及される場合、介在する要素は存在しない。本明細書で使用される場合、「および/または」という文言は、関連する列挙された項目のうちの1つ以上のいずれかおよびすべての組み合わせを含む。
「~の真下に」、「~より下に」、「~より下の」、「~より上に」、「~より上の」などの空間的に相対的な文言は、本明細書では、説明を容易にするために、図示するように、1つの要素または特徴を他の要素または特徴に関連して説明するために用いられる場合がある。空間的に相対的な文言は、図面に示された向きに加えて、使用中または動作中の装置の異なる向きを包含することが意図されていることが理解されるであろう。たとえば、図中の装置がひっくり返された場合、他の要素もしくは特徴の「下」または「真下」と記載される要素は、他の要素または特徴の「上に」向けられる。したがって、「~より下」という文言は、上および下の両方の向きを包含し得る。装置は、他の方向に向けられてもよく(70度または他の向きに回転させられてもよく)、本明細書で用いられる空間的に相対的な記述子は、それに応じて解釈されてもよい。
本概念の例示的な実施形態は、本明細書では、例示的な実施形態の理想的な実施形態(および中間構造)の概略図である断面図を参照して記載されている。したがって、たとえば製造技法および/または公差の結果として図の形状からの相違が予想される。そのため、説明される概念の例示的な実施形態は、本明細書に示される領域の特定の形状に限定されると解釈されるべきではなく、たとえば、製造に起因する形状の偏差を含むと解釈されるべきである。したがって、図に示される領域は、本質的に概略的であり、それらの形状は、装置の領域の実際の形状を示すことを意図してはおらず、例示的な実施形態の範囲を限定することを意図していない。
「第1の」、「第2の」などの文言は、本明細書ではさまざまな要素を説明するために用いられ得るが、これらの要素はこれらの文言によって限定されるべきではないことが理解されよう。これらの文言は、ある要素を他の要素と区別するためにのみ用いられる。したがって、「第1の」要素は、本実施形態の教示から逸脱することなく、「第2の」要素と呼ぶことができる。
特に定義されない限り、本明細書で用いられる文言(技術用語および科学用語を含む)は、これらの概念が属する技術分野の当業者によって通常理解されるものと同じ意味を有する。さらに、一般に用いられる辞書で定義されるものなどのような用語は、関連技術および/または本明細書の文脈においてそれらの意味と一貫する意味を有するものとして解釈されるべきであり、本明細書でそうであると明示的に定義されない限り、理想的な意味または過度に形式的な意味で解釈されないことが理解されるであろう。
記載された実現例のある特徴を本明細書で記載されるように示したが、当業者は、多くの修正、置換、変更、および均等物を思い浮かべるであろう。したがって、特許請求の範囲は、実現例の範囲内に入るような修正および変更を包含するように意図されていることを理解されたい。これらは、限定ではなく例としてのみ提示されており、形態および詳細がさまざまに変更され得ることを理解されたい。本明細書に記載の装置および/または方法のいずれかの部分を、相互排他的組み合わせを除く任意の組み合わせで組み合わせてもよい。本明細書で説明する実現例は、説明される異なる実現例の機能、構成要素、および/もしくは特徴のさまざまな組合せならびに/または部分的組合せを含むことができる。

Claims (20)

  1. ウェアラブルデバイス上のセンサが、ネットワークに関連付けられた識別子を含み、かつ物理的環境用に構成された少なくとも1つのクラウドアンカーを検出することと、
    前記少なくとも1つのクラウドアンカーに関連付けられた位置が前記ウェアラブルデバイスの閾値距離内にあると検出することと、前記ウェアラブルデバイスが前記少なくとも1つのクラウドアンカーにアクセスできると検出することとに応答して、前記少なくとも1つのクラウドアンカーからの前記識別子の抽出をトリガすることと、
    抽出された前記識別子に対応する受信済みの認証に基づいて、前記ウェアラブルデバイスを前記ネットワークに参加させることとを含む、コンピュータによって実現される方法。
  2. 前記識別子は、SSIDとログイン認証情報とを含み、
    前記ネットワークは、Wi-Fiネットワークであり、
    前記識別子は、前記ネットワークにアクセスを提供するデバイスである少なくとも1つの制御可能デバイスに関連付けられ、
    前記認証は、前記少なくとも1つの制御可能デバイスから受信される、請求項1に記載のコンピュータによって実現される方法。
  3. 前記識別子は、拡張現実(AR)環境の3Dマップに関連付けられ、前記3Dマップは、前記物理的環境内の少なくとも1つの制御可能デバイスによって格納されている、前記物理的環境にマッピングされた視覚データを含み、
    前記ウェアラブルデバイスが前記少なくとも1つのクラウドアンカーにアクセスできると検出することは、前記ウェアラブルデバイスが、前記物理的環境にマッピングされた前記視覚データの少なくとも一部と一致するデータを、前記センサから提供するかどうかを判定することを含む、請求項1または2に記載のコンピュータによって実現される方法。
  4. 前記少なくとも1つの制御可能デバイスは、前記ウェアラブルデバイスの前記位置がもはや前記閾値距離内でないと検出することに応答して、前記ネットワークから前記ウェアラブルデバイスの認証を解除するように構成されている、請求項2に記載のコンピュータによって実現される方法。
  5. 前記位置は、前記少なくとも1つのクラウドアンカーが前記ウェアラブルデバイスの視野内にあると検出することに基づいて判定される、請求項1~4のいずれか1項に記載のコンピュータによって実現される方法。
  6. コンピュータによって実現される方法であって、
    物理的環境において制御可能デバイスに通信可能に結合されたウェアラブルデバイスにおいて、前記制御可能デバイスにアクセスする要求を受信することを含み、前記要求は、未認証のユーザまたはデバイスから受信されたと判定され、前記方法はさらに、
    前記物理的環境内の前記ウェアラブルデバイスの姿勢を判定することと、
    前記ウェアラブルデバイスにおいて、前記未認証のユーザまたはデバイスによる前記制御可能デバイスに対するアクセスの許可または拒否を選択するためのプロンプトをレンダリングすることと、
    前記制御可能デバイスにアクセスする許可を受信することに応答して、
    前記ウェアラブルデバイスの判定された前記姿勢に基づいて画定される前記物理的環境の領域から前記制御可能デバイスにアクセスするために、前記未認証のユーザまたはデバイスを認証することと、
    前記要求を実行することとを含む、コンピュータによって実現される方法。
  7. 前記領域は、前記物理的環境の球形画像内に画定され、前記球形画像は、前記物理的環境に関連付けられた少なくとも1つのクラウドアンカーの3Dマップに基づく、請求項6に記載のコンピュータによって実現される方法。
  8. 前記ウェアラブルデバイスにおいて、前記ウェアラブルデバイスのユーザを前記領域に対応する方向を見るようにトリガするための別のプロンプトをレンダリングすることと、
    認証を要求する前記ユーザまたはデバイスの一部を取り込む前記領域の画像を取り込むことと、
    前記ウェアラブルデバイスが、認証されたデバイスまたはユーザのデータベースに、前記画像を格納することとをさらに含む、請求項6または7に記載のコンピュータによって実現される方法。
  9. 前記制御可能デバイスにアクセスするための第2の要求を受信することと、
    前記ウェアラブルデバイスにおいて、前記ウェアラブルデバイスの前記ユーザを前記第2の要求に関連付けられた画像を取り込むようにトリガするためのプロンプトをレンダリングすることと、
    前記第2の要求に関連付けられた前記画像を取り込むコマンドを受信することと、
    取り込まれた前記第2の画像を、前記データベース内の前記画像と比較することと、
    取り込まれた前記第2の画像の前記データベース内の前記画像の少なくとも1つとの一致の少なくとも一部を判定することに応答して、前記第2の要求の実行をトリガすることとをさらに含む、請求項8に記載のコンピュータによって実現される方法。
  10. 前記要求は、前記物理的環境においてユーザが話す聴覚的な要求であり、
    前記ウェアラブルデバイスは、前記聴覚的な要求が受信される方向を判定し、
    前記物理的環境の前記領域は、前記聴覚的な要求が受信される判定された前記方向に基づいて判定される、請求項6~9のいずれか1項に記載のコンピュータによって実現される方法。
  11. コンピューティングシステムであって、
    センサを含むウェアラブルデバイスと、
    少なくとも1つの処理デバイスと、
    前記システムに動作を実行させる命令を格納したメモリとを備え、前記動作は、
    前記ウェアラブルデバイスの前記センサが、ネットワークに関連付けられた識別子を含み、かつ物理的環境用に構成された少なくとも1つのクラウドアンカーを検出することと、
    前記少なくとも1つのクラウドアンカーに関連付けられた位置が前記ウェアラブルデバイスの閾値距離内にあると検出することと、前記ウェアラブルデバイスが前記少なくとも1つのクラウドアンカーにアクセスできると検出することとに応答して、前記少なくとも1つのクラウドアンカーからの前記識別子の抽出をトリガすることと、
    抽出された前記識別子に対応する受信済みの認証に基づいて、前記ウェアラブルデバイスを前記ネットワークに参加させることとを含む、コンピューティングシステム。
  12. 前記識別子は、SSIDとログイン認証情報とを含み、
    前記識別子は、前記ネットワークにアクセスを提供するデバイスである少なくとも1つの制御可能デバイスに関連付けられ、
    前記認証は、前記少なくとも1つの制御可能デバイスから受信される、請求項11に記載のコンピューティングシステム。
  13. 前記少なくとも1つの制御可能デバイスは、前記ウェアラブルデバイスの前記位置がもはや前記閾値距離内でないと検出することに応答して、前記ネットワークから前記ウェアラブルデバイスの認証を解除するように構成されている、請求項12に記載のコンピューティングシステム。
  14. 前記識別子は、拡張現実(AR)環境の3Dマップに関連付けられ、前記3Dマップは、前記物理的環境内の少なくとも1つの制御可能デバイスによって格納されている、前記物理的環境にマッピングされた視覚データを含み、
    前記ウェアラブルデバイスが前記少なくとも1つのクラウドアンカーにアクセスできると検出することは、前記ウェアラブルデバイスが、前記物理的環境にマッピングされた前記視覚データの少なくとも一部と一致するデータを、前記センサから提供するかどうかを判定することを含む、請求項11~13のいずれか1項に記載のコンピューティングシステム。
  15. 前記位置は、前記少なくとも1つのクラウドアンカーが前記ウェアラブルデバイスの視野内にあると検出することに基づいて判定される、請求項11~14のいずれか1項に記載のコンピューティングシステム。
  16. 命令を格納した非一時的な機械読取可能媒体であって、前記命令は、プロセッサによって実行されると、コンピューティングデバイスに、
    ウェアラブルデバイス上のセンサによって、ネットワークに関連付けられた識別子を含み、かつ物理的環境用に構成された少なくとも1つのクラウドアンカーを検出させ、
    前記少なくとも1つのクラウドアンカーに関連付けられた位置が前記ウェアラブルデバイスの閾値距離内にあると検出することと、前記ウェアラブルデバイスが前記少なくとも1つのクラウドアンカーにアクセスできると検出することとに応答して、前記少なくとも1つのクラウドアンカーからの前記識別子の抽出をトリガさせ、
    抽出された前記識別子に対応する受信済みの認証に基づいて、前記ウェアラブルデバイスを前記ネットワークに参加させる、機械読取可能媒体。
  17. 前記識別子は、SSIDとログイン認証情報とを含み、
    前記識別子は、前記ネットワークにアクセスを提供するデバイスである少なくとも1つの制御可能デバイスに関連付けられ、
    前記認証は、前記少なくとも1つの制御可能デバイスから受信される、請求項16に記載の機械読取可能媒体。
  18. 前記少なくとも1つの制御可能デバイスは、前記ウェアラブルデバイスの前記位置がもはや前記閾値距離内でないと検出することに応答して、前記ネットワークから前記ウェアラブルデバイスの認証を解除するように構成されている、請求項17に記載の機械読取可能媒体。
  19. 前記識別子は、拡張現実(AR)環境の3Dマップに関連付けられ、前記3Dマップは、前記物理的環境内の少なくとも1つの制御可能デバイスによって格納されている、前記物理的環境にマッピングされた視覚データを含み、
    前記ウェアラブルデバイスが前記少なくとも1つのクラウドアンカーにアクセスできると検出することは、前記ウェアラブルデバイスが、前記物理的環境にマッピングされた前記視覚データの少なくとも一部と一致するデータを、前記センサから提供するかどうかを判定することを含む、請求項16~18のいずれか1項に記載の機械読取可能媒体。
  20. 前記位置は、前記少なくとも1つのクラウドアンカーが前記ウェアラブルデバイスの視野内にあると検出することに基づいて判定される、請求項16~19のいずれか1項に記載の機械読取可能媒体。
JP2023535026A 2020-12-09 2020-12-09 認証におけるクラウドアンカーの活用 Pending JP2024504243A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2020/070886 WO2022125125A1 (en) 2020-12-09 2020-12-09 Leveraging cloud anchors in authentication

Publications (1)

Publication Number Publication Date
JP2024504243A true JP2024504243A (ja) 2024-01-31

Family

ID=73856398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023535026A Pending JP2024504243A (ja) 2020-12-09 2020-12-09 認証におけるクラウドアンカーの活用

Country Status (6)

Country Link
US (1) US20220182836A1 (ja)
EP (1) EP4260591A1 (ja)
JP (1) JP2024504243A (ja)
KR (1) KR20230116876A (ja)
CN (1) CN116458186A (ja)
WO (1) WO2022125125A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6776334B1 (en) * 2001-02-22 2004-08-17 Advanced Micro Devices, Inc. System and method for determining the location of a mobile device within a wireless network
KR101836876B1 (ko) * 2011-03-02 2018-03-09 삼성전자주식회사 휴대용 단말기에서 네트워크 연결을 수행하기 위한 장치 및 방법
TWI495381B (zh) * 2012-03-27 2015-08-01 Flyfish Holdings Ltd Two - dimensional bar code connection method
US11714890B2 (en) * 2020-04-16 2023-08-01 Capital One Services, Llc Systems and methods for authenticating users

Also Published As

Publication number Publication date
KR20230116876A (ko) 2023-08-04
US20220182836A1 (en) 2022-06-09
EP4260591A1 (en) 2023-10-18
CN116458186A (zh) 2023-07-18
WO2022125125A1 (en) 2022-06-16

Similar Documents

Publication Publication Date Title
US10223832B2 (en) Providing location occupancy analysis via a mixed reality device
US10007349B2 (en) Multiple sensor gesture recognition
US9767524B2 (en) Interaction with virtual objects causing change of legal status
WO2013028586A1 (en) Location based skins for mixed reality displays
US20230350628A1 (en) Intuitive augmented reality collaboration on visual data
US10893412B2 (en) Authenticated device assisted user authentication
US20230252739A1 (en) Triggering a collaborative augmented reality environment using an ultrasound signal
CN115362440A (zh) 经由凝视跟踪的认证和校准
US20220182836A1 (en) Leveraging cloud anchors in authentication
CN116802632A (zh) 用于用户认证设备的系统和方法
US20230360264A1 (en) Identifying a position of a controllable device using a wearable device
US20240045943A1 (en) Apparatus and method for authenticating user in augmented reality
US20220374505A1 (en) Bending estimation as a biometric signal
WO2022246382A1 (en) Bending estimation as a biometric signal

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231114