JP2016506549A - 拡張現実感を伴う存在の粒度に関連する方法 - Google Patents

拡張現実感を伴う存在の粒度に関連する方法 Download PDF

Info

Publication number
JP2016506549A
JP2016506549A JP2015537821A JP2015537821A JP2016506549A JP 2016506549 A JP2016506549 A JP 2016506549A JP 2015537821 A JP2015537821 A JP 2015537821A JP 2015537821 A JP2015537821 A JP 2015537821A JP 2016506549 A JP2016506549 A JP 2016506549A
Authority
JP
Japan
Prior art keywords
user
information
users
social networking
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015537821A
Other languages
English (en)
Other versions
JP6397416B2 (ja
Inventor
ニコラス パパキポス、マシュー
ニコラス パパキポス、マシュー
ジョン マッケンジー トクスビグ、マイケル
ジョン マッケンジー トクスビグ、マイケル
ツェン、エリック
キーン ウォン、ユン
キーン ウォン、ユン
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2016506549A publication Critical patent/JP2016506549A/ja
Application granted granted Critical
Publication of JP6397416B2 publication Critical patent/JP6397416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)

Abstract

一実施形態では、方法は、覆われた空間内に位置する複数のユーザの近傍に関する情報を受信する工程であって、情報は、近傍の少なくとも一部分についての1以上の画像または1以上の音を含み、情報は、ユーザの複数のクライアントコンピューティングデバイスによって手動によるユーザ入力なしに自動的に、各クライアントコンピューティングデバイスの1以上のセンサにより近傍から取得される、工程と、サーバコンピューティングデバイスが、情報に少なくとも部分的に基づいて、近傍内の各ユーザを識別する工程と、サーバコンピューティングデバイスが、情報に少なくとも部分的に基づいて、覆われた空間内の各ユーザの位置を決定する工程とを含む。

Description

本開示は、一般に拡張現実感に関する。詳細には、本発明は、方法、非一時的コンピュータ可読記憶媒体、およびシステムに関する。
拡張現実感(AR)は、バーチャルリアリティ(VR)の延長と考えられ、実世界環境を仮想情報で増大し、人の感覚および技能を改善することである。ARは、その要素が、コンピュータによって生成される感覚入力によって増大される物理的な実世界環境の、ライブの直接的または間接的なビューである。
ソーシャルネットワーキングシステムに関連付けられている例示的なネットワーク環境を示す図。 例示的なソーシャルグラフの図。 第1のユーザが第2のユーザの近くに存在するとき、ソーシャルネットワーキングシステムから取り出される第1のユーザについての情報を、第2のユーザに提供するための例示的な方法を示す図。 第1のユーザが第2のユーザの近くに存在するとき、ソーシャルネットワーキングシステムから取り出される第1のユーザのグループについての情報を、第2のユーザに提供するための例示的な方法を示す図。 第2のユーザにとって特に関心を持たれる人である第1のユーザを第2のユーザの挙動に基づいて自動的に識別するための例示的な方法を示す図。 囲まれた空間内に存在する個々のユーザの特定の位置を決定するための例示的な方法を示す図。 ユーザの周りの聴覚/視覚情報を連続的に取り込むための例示的な方法を示す図。 例示的なコンピュータシステムを示す図。
本発明による実施形態は、方法、非一時的コンピュータ可読記憶媒体、およびシステムを対象とする添付の特許請求の範囲に開示されており、1つの請求項のカテゴリ、たとえば方法に述べられているどの特徴も、別の請求項のカテゴリ、たとえばシステムまたは媒体において特許を請求される。
特定の実施形態は、ユーザの周りに存在する個人を識別し、次いでその識別された個人についての情報をそのユーザに提供する。音声認識または顔認識など様々な技法を使用して、人を識別する。人の声または顔は、ユーザの身体上の、またはユーザとその人が位置する部屋に取り付けられた聴覚/視覚デバイスによって取り込まれてもよい。識別された個人についての情報は、その個人のソーシャルプロフィールから取り出されてもよい。その情報は、(たとえば、モバイルデバイス上で)ユーザに対して表示されても、ユーザに語られ(たとえば、ユーザの耳にささやかれ)てもよい。
特定の実施形態は、ユーザの周りに存在する個人を識別し、次いでソーシャル情報に基づいてその識別された個人をフィルタリングする。音声認識または顔認識など様々な技法を使用して、人を識別する。人の声または顔は、ユーザの身体に装着された、またはユーザとその人が位置する部屋に取り付けられた聴覚/視覚デバイスによって取り込まれてもよい。識別された個人についての情報は、その個人のソーシャルプロフィールから取り出
されてもよい。識別された個人は、特定のカテゴリ(たとえば、独身の女性、特定の職業に就いている人、共通の関心を共有する人など)にグループ化されてもよい。特定のカテゴリに属するこれらの人は、ユーザに対して示され(たとえば、ユーザに対して表示または語られ)てもよい。
特定の実施形態は、ユーザの周りに存在する個人を識別し、次いでそのユーザに関心を持たれる人を、そのユーザがその関心を持たれる人を手動により選択することを必要とせずに自動的に識別する。音声認識または顔認識など様々な技法を使用して、人を識別する。人の声または顔は、ユーザの身体に装着された、またはユーザとその人が位置する部屋に取り付けられた聴覚/視覚デバイスによって取り込まれてもよい。関心を持たれる人は、ユーザの挙動に基づいて識別されてもよい。たとえば、ユーザは、人を見つめても、しばらくの間、人の隣に立っても、人と会話をしてもよい。これにより、その人は、ユーザが特に関心を持つ人として識別される。関心を持たれる人についての情報(たとえば、ソーシャル情報)は、ユーザに示されてもよい。関心を持たれる人についてのソーシャル情報は、その人のソーシャルプロフィールから取り出されてもよい。その情報は、(たとえば、モバイルデバイス上で)表示されても、ユーザに語られ(たとえば、ユーザの耳にささやかれ)てもよい。
特定の実施形態は、人の存在をより高い粒度で決定する。全世界測位システム(GPS)およびチェックイン情報は、ある一般的な領域(たとえば、建物内部)において人の存在をシステムが決定することを可能にするが、より特定のロケーション(たとえば、その建物内の特定の部屋内)では決定することができない。ユーザのグループがある領域内(たとえば、室内)に位置するとき、各ユーザのモバイルデバイスは、ユーザの周りに存在する人についての情報(たとえば、音声記録または顔画像)をサーバに送る。サーバは、人を(たとえば、音声認識または顔認識を通じて)識別し、次いで部屋内の各ユーザの特定の位置、ならびに複数のユーザの相対位置を決定する。サーバは、ガイダンス情報を送り、あるユーザを別のユーザに導き、またはあるユーザに別のユーザが室内のどこにいるか告げる。
特定の実施形態は、ユーザの周りで聴覚/視覚情報を連続的に取り込む。ユーザは、聴覚/視覚情報を連続的に(たとえば、2秒ごとに1フレーム)取り込む聴覚/視覚記録デバイスを装着してもよい。取り込まれた聴覚/視覚情報は、サーバにアップロードされて処理される。たとえば、興味深い聴覚/視覚セグメントがユーザのタイムラインに投稿されても、ユーザが後で閲覧するために保存されてもよい。特定の実施形態では、ユーザは、特定の時刻に、または特定のイベント中に何が起こったかについて聴覚/視覚情報を照会する。特定の実施形態では、聴覚/視覚情報は、ソーシャルネットワーキングシステムに関連付けられているオープングラフまたはソーシャルグラフに投稿されてもよい。
拡張現実感(AR)は、実世界環境を仮想情報で増大し、人の感覚および技能を改善することである。特定の実施形態では、この情報は、ソーシャルネットワーキングシステムから取り出されてもよい。
図1は、ソーシャルネットワーキングシステムに関連付けられている例示的なネットワーク環境100を示す。ネットワーク環境100は、ユーザ101、クライアントシステム130、ソーシャルネットワーキングシステム160、およびサードパーティシステム170を含み、これらはネットワーク110によって互いに接続される。図1は、ユーザ101、クライアントシステム130、ソーシャルネットワーキングシステム160、サードパーティシステム170、およびネットワーク110の特定の構成を示すが、本開示は、ユーザ101、クライアントシステム130、ソーシャルネットワーキングシステム160、サードパーティシステム170、およびネットワーク110の任意の好適な構成
を企図する。限定するものとしてではなく一例として、クライアントシステム130、ソーシャルネットワーキングシステム160、およびサードパーティシステム170の2以上が互いに直接的に、またはネットワーク110をバイパスして接続される。別の例として、クライアントシステム130、ソーシャルネットワーキングシステム160、およびサードパーティシステム170のうち2以上が、全体として、または部分的に物理的に、または論理的に互いに同じ場所にあってもよい。さらに、図1は、特定の数のユーザ101、クライアントシステム130、ソーシャルネットワーキングシステム160、サードパーティシステム170、およびネットワーク110を示すが、本開示は、任意の好適な数のユーザ101、クライアントシステム130、ソーシャルネットワーキングシステム160、サードパーティシステム170、およびネットワーク110を企図する。限定するものとしてではなく一例として、ネットワーク環境100は、複数のユーザ101、クライアントシステム130、ソーシャルネットワーキングシステム160、サードパーティシステム170、およびネットワーク110を含んでもよい。
特定の実施形態では、ユーザ101は、ソーシャルネットワーキングシステム160と、またはソーシャルネットワーキングシステム160を通じて対話または通信する個人(人間のユーザ)、エンティティ(たとえば、企業、事業者、またはサードパーティアプリケーション)、または(たとえば、個人またはエンティティの)グループであってよい。特定の実施形態では、ソーシャルネットワーキングシステム160は、オンラインソーシャルネットワークをホストするネットワークアドレス可能なコンピューティングシステムであってよい。ソーシャルネットワーキングシステム160は、たとえばユーザプロフィールデータ、コンセプトプロフィールデータ、ソーシャルグラフ情報、またはオンラインソーシャルネットワークに関連する他の好適なデータなど、ソーシャルネットワーキングデータを生成、記憶、受信、および送信する。ソーシャルネットワーキングシステム160は、ネットワーク環境100の他の構成要素によって、直接的に、またはネットワーク110を通じてアクセスされてもよい。特定の実施形態では、ソーシャルネットワーキングシステム160は、ユーザ101がたとえば適切なプライバシ設定を設定することによって、ユーザ自身のアクションをソーシャルネットワーキングシステム160によってログさせる、または他のシステム(たとえば、サードパーティシステム170)と共有させることにオプトインする、またはオプトアウトすることを可能にする認可サーバを含んでもよい。特定の実施形態では、サードパーティシステム170は、様々なソフトウェアアプリケーションをホストするネットワークアドレス可能なコンピューティングシステムであってよい。サードパーティシステム170は、たとえばサードパーティアプリケーションに関連付けられているデータなど、様々なタイプのデータを生成、記憶、受信、および送信する。サードパーティシステム170は、ネットワーク環境100の他の構成要素によって、直接的に、またはネットワーク110を通じてアクセスされてもよい。特定の実施形態では、1または複数のユーザ101が1または複数のクライアントシステム130を使用し、ソーシャルネットワーキングシステム160またはサードパーティシステム170にアクセスし、データを送り、それらからデータを受信してもよい。クライアントシステム130は、ソーシャルネットワーキングシステム160またはサードパーティシステム170に直接的に、ネットワーク110を通じて、またはサードパーティシステムを通じてアクセスしてもよい。限定するものとしてではなく一例として、クライアントシステム130は、サードパーティシステム170にソーシャルネットワーキングシステム160を通じてアクセスしてもよい。クライアントシステム130は、たとえばパーソナルコンピュータ、ラップトップコンピュータ、携帯電話、スマートフォン、またはタブレットコンピュータなど、任意の好適なコンピューティングデバイスであってよい。
特定の実施形態では、クライアントシステム130は、GPS受信機、コンパス、またはジャイロスコープなどそのロケーション、方向、または向きを決定するための機能を含む、スマートフォン、タブレットコンピュータ、またはラップトップコンピュータなどコ
ンピューティングモバイルデバイスであってよい。そのようなデバイスは、ブルートゥース通信、近距離通信(NFC)、もしくは赤外線(IR)通信、または無線ローカルエリアネットワーク(WLAN)もしくは携帯電話ネットワークでの通信など、無線通信のための機能を含んでもよい。そのようなデバイスは、1または複数のカメラ、スキャナ、タッチスクリーン、マイクロフォン、またはスピーカを含んでもよい。また、コンピューティンモバイルグデバイスは、ゲーム、ウェブブラウザ、またはソーシャルネットワーキングアプリケーションなど、ソフトウェアアプリケーションを実行する。ソーシャルネットワーキングアプリケーションを用いて、ユーザは、ユーザ自身のソーシャルネットワーク内で他のユーザとつながり、通信し、情報を共有してもよい。
本開示は、任意の好適なネットワーク110を企図する。限定するものとしてではなく一例として、ネットワーク110の1または複数の部分は、アドホックネットワーク、イントラネット、エクストラネット、仮想プライベートネットワーク(VPN)、ローカルエリアネットワーク(LAN)、無線LAN(WLAN)、ワイドエリアネットワーク(WAN)、無線WAN(WWAN)、メトロポリタンエリアネットワーク(MAN)、インターネットの一部分、公衆交換電話網(PSTN)の一部分、携帯電話ネットワーク、またはこれらの2以上の組合せを含んでもよい。ネットワーク110は、1または複数のネットワーク110を含んでもよい。
リンク150は、クライアントシステム130、ソーシャルネットワーキングシステム160、およびサードパーティシステム170を通信ネットワーク110に、または互いに接続する。本開示は、任意の好適なリンク150を企図する。特定の実施形態では、1または複数のリンク150は、1または複数の有線(たとえば、デジタル加入者線(DSL)またはDOCSIS(Data Over Cable Service Interface Specification)など)、無線(たとえば、Wi−FiまたはWorldwide interoperability for Microwave
Access(WiMAX)など)、または光(たとえば、同期光ネットワーク(SONET)または同期デジタルハイアラーキ(SDH)など)リンクを含む。特定の実施形態では、1または複数のリンク150は、それぞれ、アドホックネットワーク、イントラネット、エクストラネット、VPN、LAN、WLAN、WAN、WWAN、MAN、インターネットの一部分、PSTNの一部分、セルラ技術ベースのネットワーク、衛星通信技術ベースのネットワーク、別のリンク150、または2以上のそのようなリンク150の組合せを含む。リンク150は、必ずしもネットワーク環境100全体を通じて同じであることを必要としない。1または複数の第1のリンク150は、1または複数の点で1または複数の第2のリンク150と異なってもよい。
特定の実施形態では、様々なタイプのデータまたは情報が、ソーシャルネットワーキングシステム160内に記憶される。たとえば、ソーシャルネットワーキングシステム160のそれぞれは、ユーザについての情報(たとえば、人口統計情報、教育、職業、趣味など)を記憶するユーザプロフィールを有する。さらに、ユーザ間のソーシャルつながり、ユーザアクティビティ、ユーザ投稿およびアップロード(たとえば、画像)、ならびに他のタイプの情報がソーシャルネットワーキングシステム160内に記憶されてもよい。特定の実施形態の場合、ソーシャルネットワーキングシステム160の情報は、任意の数のノードおよびエッジを有するグラフ構造で記憶されてもよい。このグラフは、一部にはとりわけソーシャル情報を記憶するために使用されるので、ソーシャルグラフまたはオープングラフと呼ばれる。
図2は、例示的なソーシャルグラフ200を示す。特定の実施形態では、ソーシャルネットワーキングシステム160は、1または複数のソーシャルグラフ200を1または複数のデータストア内に記憶する。特定の実施形態では、ソーシャルグラフ200は、複数
のノード(複数のユーザノード202または複数のコンセプトノード204を含んでもよい)と、それらのノードを接続する複数のエッジ206とを含んでもよい。図2に示されている例示的なソーシャルグラフ200は、説明のために、2次元の視覚マップ表現で示されている。特定の実施形態では、ソーシャルネットワーキングシステム160、クライアントシステム130、またはサードパーティシステム170は、適切な用途のためにソーシャルグラフ200および関連するソーシャルグラフ情報にアクセスする。ソーシャルグラフ200のノードおよびエッジは、データオブジェクトとして、たとえばデータストア(ソーシャルグラフデータベースなど)内に記憶されてもよい。そのようなデータストアは、ソーシャルグラフ200のノードまたはエッジの、1または複数の検索可能または照会可能なインデックスを含んでもよい。
特定の実施形態では、ユーザノード202は、ソーシャルネットワーキングシステム160のユーザに対応する。限定するものとしてではなく一例として、ユーザは、ソーシャルネットワーキングシステム160と、またはソーシャルネットワーキングシステム160を通じて対話または通信する個人(人間のユーザ)、エンティティ(たとえば、企業、事業者、またはサードパーティアプリケーション)、または(たとえば、個人またはエンティティの)グループであってよい。特定の実施形態では、ユーザがアカウントをソーシャルネットワーキングシステム160に登録するとき、ソーシャルネットワーキングシステム160は、そのユーザに対応するユーザノード202を作成し、そのユーザノード202を1または複数のデータストア内に記憶する。本明細書に記載のユーザおよびユーザノード202は、適切な場合、登録されたユーザ、および登録されたユーザに関連付けられているユーザノード202に及ぶ。それに加えて、または代替として、本明細書に記載のユーザおよびユーザノード202は、適切な場合、ソーシャルネットワーキングシステム160に登録しなかったユーザに及ぶ。特定の実施形態では、ユーザノード202は、ユーザによって提供された情報、またはソーシャルネットワーキングシステム160を含む様々なシステムによって収集された情報に関連付けられてもよい。限定するものとしてではなく一例として、ユーザは、自分の名前、プロフィール写真、連絡先情報、誕生日、性別、婚姻状態、家族状態、雇用、学歴、好み、関心、または他の人口統計情報を提供してもよい。特定の実施形態では、ユーザノード202は、ユーザに関連付けられている情報に対応する1または複数のデータオブジェクトに関連付けられてもよい。特定の実施形態では、ユーザノード202は、1または複数のウェブページに対応してもよい。
特定の実施形態では、コンセプトノード204は、コンセプトに対応する。限定するものとしてではなく一例として、コンセプトは、場所(たとえば、映画館、レストラン、目印、または都市など)、ウェブサイト(たとえば、ソーシャルネットワーキングシステム160に関連付けられているウェブサイト、またはウェブアプリケーションサーバに関連付けられているサードパーティウェブサイトなど)、エンティティ(たとえば、人、事業者、グループ、スポーツチーム、または有名人など)、ソーシャルネットワーキングシステム160内、またはウェブアプリケーションサーバなど外部サーバ上に位置するリソース(たとえば、オーディオファイル、映像ファイル、デジタル写真、テキストファイル、構造化文書、またはアプリケーションなど)、実際の財産または知的財産(たとえば、彫刻、絵画、映画、ゲーム、楽曲、着想、写真、または書物など)、ゲーム、アクティビティ、着想もしくは理論、別の好適なコンセプト、または2以上のそのようなコンセプトに対応してもよい。コンセプトノード204は、ユーザによって提供されたコンセプトの情報、またはソーシャルネットワーキングシステム160を含む様々なシステムによって収集された情報に関連付けられてもよい。限定するものとしてではなく一例として、コンセプトの情報は、名前もしくはタイトル、1または複数の画像(たとえば、本の表紙の画像)、ロケーション(たとえば、住所または地理的ロケーション)、(URLに関連付けられる)ウェブサイト、連絡先情報(たとえば、電話番号または電子メールアドレス)、他の好適なコンセプト情報、またはそのような情報の任意の好適な組合せを含んでもよい。
特定の実施形態では、コンセプトノード204は、コンセプトノード204に関連付けられている情報に対応する1または複数のデータオブジェクトに関連付けられてもよい。特定の実施形態では、コンセプトノード204は、1または複数のウェブページに対応してもよい。
特定の実施形態では、ソーシャルグラフ200内のノードは、ウェブページを表しても、ウェブページによって表されてもよい(「プロフィールページ」と呼ばれる)。プロフィールページは、ソーシャルネットワーキングシステム160によってホストされ、またはそこからアクセス可能であってもよい。また、プロフィールページは、サードパーティシステム170に関連付けられているサードパーティウェブサイト上でホストされてもよい。限定するものとしてではなく一例として、特定の外部ウェブページに対応するプロフィールページは、その特定の外部ウェブページであってもよく、プロフィールページが、特定のコンセプトノード204に対応してもよい。プロフィールページは、他のユーザのすべてまたは選択されたサブセットによって閲覧可能であってもよい。限定するものとしてではなく一例として、ユーザノード202は、対応するユーザがコンテンツを追加し、宣言をし、または他の方法で自分を表現する、対応するユーザプロフィールページを有してもよい。限定するものとしてではなく別の例として、コンセプトノード204は、1または複数のユーザがコンセプトノード204に対応するコンセプトに特に関連してコンテンツを追加し、宣言をし、またはユーザ自身を表現する、対応するコンセプトプロフィールページを有してもよい。
特定の実施形態では、コンセプトノード204は、サードパーティシステム170によってホストされるサードパーティウェブページまたはリソースを表す。サードパーティウェブページまたはリソースは、要素の中でもとりわけ、コンテンツ、選択可能なアイコンもしくは他のアイコン、またはアクションもしくはアクティビティを表す(たとえば、JavaScript(登録商標)、AJAX、またはPHPコードで実装される)他の対話可能なオブジェクトを含んでもよい。限定するものとしてではなく一例として、サードパーティウェブページは、「いいね」、「チェックイン」、「食べる」、「推奨する」、または別の好適なアクションまたはアクティビティなど、選択可能なアイコンを含んでもよい。サードパーティウェブページを閲覧するユーザは、アイコンの1つ(たとえば、「食べる」)を選択することによって、アクションを行う。これによって、クライアントシステム130は、ユーザのアクションを示すメッセージをソーシャルネットワーキングシステム160へ送信する。ソーシャルネットワーキングシステム160は、メッセージに応答して、ユーザに対応するユーザノード202とサードパーティウェブページまたはリソースに対応するコンセプトノード204との間にエッジ(たとえば、「食べる」エッジ)を作成し、エッジ206を1または複数のデータストア内に記憶する。
特定の実施形態では、ソーシャルグラフ200内の1対のノードが、1または複数のエッジ206によって互いに接続されてもよい。1対のノードを接続するエッジ206は、その対のノード間の関係を表す。特定の実施形態では、エッジ206は、1対のノード間の関係に対応する1または複数のデータオブジェクトまたは属性を含み、または表してもよい。限定するものとしてではなく一例として、第1のユーザは、第2のユーザが第1のユーザの「友達」であることを示してもよい。この示したことに応答して、ソーシャルネットワーキングシステム160は、「友達要求」を第2のユーザに送信してもよい。第2のユーザが「友達要求」を確認した場合、ソーシャルネットワーキングシステム160は、ソーシャルグラフ200内で第1のユーザのユーザノード202を第2のユーザのユーザノード202に接続するエッジ206を作成し、エッジ206をソーシャルグラフ情報としてデータストア24の1または複数に記憶してもよい。図2の例では、ソーシャルグラフ200は、ユーザ「A」とユーザ「B」とのユーザノード202間の友達関係を示すエッジ206と、ユーザ「C」とユーザ「B」とのユーザノード202間の友達関係を示
すエッジとを含む。本開示は特定のユーザノード202を接続する特定の属性を有する特定のエッジ206について記載し示しているが、本開示は、ユーザノード202を接続する任意の好適な属性を有する任意の好適なエッジ206を企図する。限定するものとしてではなく一例として、エッジ206は、友達関係、家族関係、仕事関係もしくは雇用関係、ファン関係、フォロワ関係、ビジタ関係、加入者関係、主従関係、相互的関係、非相互的関係、別の好適なタイプの関係、または2以上のそのような関係を表してもよい。さらに、本開示は一般にノードを接続されているものとして記載しているが、本開示は、ユーザまたはコンセプトも接続されているものとして記載している。本明細書では、接続されているユーザまたはコンセプトへの言及は、適切な場合、ソーシャルグラフ200内で1または複数のエッジ206によって接続されているユーザまたはコンセプトに対応するノードに及ぶ。
特定の実施形態では、ユーザノード202とコンセプトノード204との間のエッジ206は、コンセプトノード204に関連付けられているコンセプトに向かってユーザノード202に関連付けられているユーザによって行われる特定のアクションまたはアクティビティを表してもよい。限定するものとしてではなく一例として、図2に示されているように、ユーザは、コンセプトに対して「いいね」と表明することができ、コンセプトに「通った」、コンセプトを「プレイした」、「聴いた」、「調理した」、コンセプトに「勤務した」、またはコンセプトを「見た」のであり、コンセプトのそれぞれは、エッジタイプまたはサブタイプに対応する。コンセプトノード204に対応するコンセプトプロフィールページは、たとえば、選択可能な「チェックイン」アイコン(たとえば、クリッカ可能な「チェックイン」アイコン)または選択可能な「お気に入りに追加」アイコンを含んでもよい。同様に、ユーザがこれらのアイコンをクリックした後、ソーシャルネットワーキングシステム160は、それぞれのアクションに対応するユーザのアクションに応答して「お気に入り」エッジ、または「チェックイン」エッジを作成する。限定するものとしてではなく別の例として、ユーザ(ユーザ「C」)は、特定のアプリケーション(オンラインミュージックアプリケーションであるSPOTIFY)を使用して特定の楽曲(ランブル・オン)を聴く。この場合には、ソーシャルネットワーキングシステム160は、ユーザに対応するユーザノード202と楽曲およびアプリケーションに対応するコンセプトノード204との間に「聴いた」エッジ206および「使用した」エッジ(図2に図示)を作成し、ユーザがその楽曲を聞き、そのアプリケーションを使用したことを示す。さらに、ソーシャルネットワーキングシステム160は、楽曲およびアプリケーションに対応するコンセプトノード204間に「プレイした」エッジ206(図2に図示)を作成し、特定の楽曲が特定のアプリケーションによってプレイされたことを示す。この場合には、「プレイした」エッジ206は、外部アプリケーション(SPOTIFY)によって外部オーディオファイル(楽曲「イマジン」)に対して行われたアクションに対応する。本開示は、ユーザノード202とコンセプトノード204とを接続する特定の属性を有する特定のエッジ206について記載しているが、本開示は、ユーザノード202とコンセプトノード204とを接続する任意の好適な属性を有する任意の好適なエッジ206を企図する。さらに、本開示は、ユーザノード202とコンセプトノード204の間の単一の関係を表すエッジについて記載しているが、本開示は、ユーザノード202とコンセプトノード204との間の1または複数の関係を表すエッジを企図する。限定するものとしてではなく一例として、エッジ206は、ユーザが「いいね」と表明したこと、および特定のコンセプトを使用したことの両方を表してもよい。あるいは、別のエッジ206が、ユーザノード202とコンセプトノード204(図2に示されているように、ユーザ「E」に関するユーザノード202と「SPOTIFY」に関するコンセプトノード204)との間の関係の各タイプ(または単一の関係の複数)を表してもよい。
特定の実施形態では、ソーシャルネットワーキングシステム160は、ソーシャルグラフ200内でユーザノード202とコンセプトノード204との間にエッジ206を作成
する。限定するものとしてではなく一例として、(たとえば、ウェブブラウザまたはユーザのクライアントシステム130によってホストされる専用アプリケーションを使用することによってなど)コンセプトプロフィールページを閲覧するユーザは、「いいね」アイコンをクリックまたは選択することによって、ユーザがコンセプトノード204によって表されたコンセプトに対して「いいね」と表明することを示す。これによって、ユーザのクライアントシステム130は、コンセプトプロフィールページに関連付けられているコンセプトに対してユーザが「いいね」と表明することを示すメッセージをソーシャルネットワーキングシステム160へ送信する。ソーシャルネットワーキングシステム160は、そのメッセージに応答して、ユーザとコンセプトノード204との間の「いいね」エッジ206によって示されているように、ユーザに関連付けられているユーザノード202とコンセプトノード204との間にエッジ206を作成してもよい。特定の実施形態では、ソーシャルネットワーキングシステム160は、エッジ206を1または複数のデータストア内に記憶してもよい。特定の実施形態では、エッジ206は、特定のユーザアクションに応答してソーシャルネットワーキングシステム160によって自動的に形成されてもよい。限定するものとしてではなく一例として、第1のユーザが写真をアップロードし、映画を見たか、または楽曲を聴いた場合、エッジ206は、第1のユーザに対応するユーザノード202とそれらのコンセプトに対応するコンセプトノード204との間に形成されてもよい。本開示は、特定のエッジ206を特定の方法で形成することについて記載しているが、本開示は、任意の好適なエッジ206を任意の好適な方法で形成することを企図する。
ソーシャルネットワーキングシステム160から利用可能な情報を使用し、特定の個人のために現実感を増大する。たとえば、人のグループがある場所に集まっていると仮定する。それは会議、行事(たとえば、誕生日パーティ、結婚式)もしくは集まり、またはイベント(たとえば、コンサート、スポーツイベント)であってもよい。そこにいる各個人についての情報を互いに提供するのに便利である。場合によっては、ある人がソーシャルネットワーキングシステム160のユーザである場合、その人についての情報をソーシャルネットワーキングシステム160から(たとえば、ソーシャルネットワーキングシステム160またはソーシャルグラフ200でその人のユーザプロフィールから)取り出すことができる。
図3は、第1のユーザが第2のユーザの近くに存在するとき第1のユーザについての情報を第2のユーザに提供するための例示的な方法300を示す。図3に示されているステップは、異なる第1のユーザについての情報を第2のユーザに提供するために繰り返されてもよいことに留意されたい。少なくとも第1のユーザおよび第2のユーザを含むユーザのグループがある場所に集まっていると仮定する。その場所は、建物または家屋内の部屋、店舗(たとえば、クラブ、レストラン、店)、公共の場(たとえば、街角、公園)などであってよい。本開示は、人間が集まるための任意の好適な場所を企図する。さらに、第1のユーザが第2のユーザの近くに存在すると仮定する。「近く」という用語は、第1のユーザと第2のユーザが必ずしも互いに隣にいることを意味していないことに留意されたい。その代わりに、第2のユーザが第1のユーザの空間的近傍に存在している、または第2のユーザが第1のユーザの存在に気付いている(たとえば、第2のユーザが、離れたある距離からでさえ第1のユーザを見ることができ、または声を聞くことができる)ことで足りる。
ステップ310では、特定の実施形態は、第1のユーザのプライバシ設定に従って第1のユーザを識別する。たとえば、第1のユーザは、第1のユーザが識別されることに同意することを第1のユーザのプライバシ設定が示すときだけ識別される。ユーザを識別するための異なる方法があり、本開示は、人を識別するための任意の好適な技法を企図する。
一実施形態では、第1のユーザは、顔認識を通じて識別される。この場合もまた、第1のユーザのプライバシ設定に従って第1のユーザの顔が視覚記録デバイス(たとえば、カメラまたはビデオレコーダ)で撮られる(すなわち、第1のユーザの画像は、第1のユーザが自分の画像が撮られることに同意することを第1のユーザのプライバシ設定が示すときだけ撮られる)。第1のユーザの顔の画像が処理され、既知のアイデンティティを有する人の画像に対して比較され、第1のユーザのアイデンティティが決定される。たとえば、第1のユーザがソーシャルネットワーキングシステム160のメンバである場合、第1のユーザの顔の画像がソーシャルネットワーキングシステム160に送られ、プロフィールまたはソーシャルネットワーキングシステム160のユーザの他の画像(たとえば、ユーザアルバムからの画像)に対して比較されてもよい。一致が見いだされた場合、プロフィール画像が第1のユーザの顔の画像と一致するユーザの名前もまた、第1のユーザの名前であるはずである。
一実施形態では、第1のユーザは、音声認識を通じて識別される。この場合、第1のユーザのプライバシ設定に従って第1のユーザの声が聴覚記録デバイス(たとえば、ボイスレコーダまたはビデオレコーダ、マイクロフォン)により録られる(すなわち、第1のユーザの声は、第1のユーザが自分の声が録られることに同意することを第1のユーザのプライバシ設定が示すときだけ記録される)。第1のユーザの声の記録が処理され、既知のアイデンティティを有する人の音声記録に対して比較され、第1のユーザのアイデンティティが決定される。たとえば、第1のユーザがソーシャルネットワーキングシステム160のメンバである場合、第1のユーザの声の記録がソーシャルネットワーキングシステム160に送られ、ソーシャルネットワーキングシステム160のユーザの音声記録に対して比較される。一致が見いだされた場合、音声記録が第1のユーザの声の記録と一致するユーザの名前もまた、第1のユーザの名前であるはずである。
顔認識または音声認識の結果をさらに改善するために、一実施形態では、ソーシャルグラフ200に記憶されている情報、特にソーシャルネットワーキングシステム160のユーザ間のソーシャルつながりおよびチェックイン情報が使用されてもよい。第2のユーザがソーシャルネットワーキングシステム160のメンバであると仮定する。第1のユーザの顔の画像が、既知のアイデンティティを有する人の画像に対して比較される、または第1のユーザの声の記録が、既知のアイデンティティを有する人の音声記録に対して比較されるとき、検索プール(すなわち、第1のユーザのアイデンティティを求めて検索される、既知のアイデンティティを有する人)は、たとえば限定しないが、(1)第2のユーザの友達(すなわち、ソーシャルグラフ200に従って第2のユーザに直接的に接続されるソーシャルネットワーキングシステム160のユーザ)、(2)第2のユーザの友達の友達(すなわち、ソーシャルグラフ200に従って他の1人を通じて第2のユーザに間接的に接続されるソーシャルネットワーキングシステム160のユーザ)、(3)第2のユーザと同じロケーションでチェックインしたソーシャルネットワーキングシステム160のユーザ、(4)第2のユーザが存在しているロケーションとは異なるどこか他のロケーションでチェックインしておらず、第2のユーザが存在しているロケーションから離れたどこかで最近チェックインしていない第2のユーザの友達(たとえば、過去2〜3時間内に第2のユーザが存在するロケーションから96.56km(60マイル)を越える離れたどこかでチェックインしていない第2のユーザの友達)、(5)既知のアイデンティティを有し、音声認識もしくは顔認識アルゴリズムがより正確な結果を提供する良好なテンプレート情報(たとえば、良好なオーディオ記録または顔画像)を有する人、または(6)上記の任意の組合せに限定される。他の適用可能な基準もまた、検索プールを限定するために使用されてもよい。さらに、ユーザプライバシを保護するため、検索プールは、そのような状況でユーザ自身が自動的に認識されるのを防止する(すなわち、ユーザ自身をアイデンティティ認識結果から除去する)ようにユーザ自身のプライバシ規則を設定した人を除外してもよい。
ユーザを識別するためにユーザの顔の画像またはユーザの声の記録を得るための異なる方法があり、本開示は、ユーザの顔の画像または音声記録を得るための任意の好適な技法を企図する。一例として、第2のユーザは、聴覚または視覚記録デバイスを有し、そのようなデバイスを使用し、第1のユーザの顔の画像を(たとえば、第1のユーザが第2のユーザに向いている間に)撮り、または第1のユーザの声を(たとえば、第1のユーザが話している間に)記録してもよい。聴覚/視覚記録デバイス(たとえば、カメラ、マイクロフォン)は任意の形態をとることができ、本開示は、任意の好適な聴覚または視覚記録デバイスを企図する。たとえば、記録デバイスは、目立ちすぎないように第2のユーザによって携行または装着されるスマートフォン、宝飾品の1つ(たとえば、ペンダント、ブローチ)、腕時計、または眼鏡内に組み込まれてもよい。別の例として、第1のユーザと第2のユーザとが家屋または建物内の部屋など囲まれた空間内に存在する場合、聴覚/視覚記録デバイスが部屋の中に(たとえば、部屋の壁に、または天井内に)設置されてもよい。各記録デバイスは、そのデバイスの近傍に存在するユーザの聴覚/視覚記録をとってもよい。いずれの場合にも、視覚記録デバイスは、広角画像を撮るために魚眼レンズを組み込む。
一実施形態では、第1のユーザは、第1のユーザのプライバシ設定に従って第1のユーザによって携行されているモバイルデバイスを通じて識別される。一例として、第1のユーザがスマートフォンを携行するとき、そのスマートフォンのロケーションは、(たとえば、三角測量を通じた)無線信号または全世界測位システム(GPS)センサデータによって決定されてもよい。第1のユーザのロケーションは、第1のユーザのスマートフォンのロケーションから導出されてもよい。場合によっては、第1のユーザがソーシャルネットワーキングシステム160のメンバである場合、第1のユーザによって携行されているスマートフォンの電話番号がソーシャルネットワーキングシステム160に送られ、ソーシャルネットワーキングシステム160の(たとえば、ユーザプロフィール内に見いだされる)ユーザの携帯電話番号に対して比較されてもよい。一致が見いだされた場合、携帯電話番号が第1のユーザのスマートフォンの電話番号と一致するユーザの名前もまた、大抵の状況で第1のユーザの名前であるはずである。他の場合には、第1のユーザによって携行されているスマートフォンの電話番号が適切な電話会社記録に対してチェックされ、その電話番号の所有者の名前を決定してもよく、それは大抵の状況で第1のユーザの名前であるはずである。別の例として、第1のユーザが、一意の識別子を有するブルートゥースデバイス(たとえば、ヘッドホン)を携行するとき、そのブルートゥースデバイスを使用し、第1のユーザを識別してもよい。大抵の状況では、そのブルートゥースデバイスの既知の所有者の名前は、第1のユーザの名前であるはずである。
一実施形態では、第1のユーザは、第1のユーザのプライバシ設定に従って第1のユーザが集まりにいる間にソーシャルネットワーキングシステム160に関連して行うアクションを通じて識別される。たとえば、第1のユーザが集まりに到着したときソーシャルネットワーキングシステム160で「チェックイン」アクションを行った場合、それは第1のユーザがその集まりに出席していることを示す。この情報は、第1のユーザを識別するために他の利用可能な情報(たとえば、同じ集まりで他のユーザによって行われた「チェックイン」アクション、第1のユーザのソーシャルつながり)と相互参照されてもよい。
第1のユーザが正確に識別されることを確実にするために、特定の実施形態は、好適な識別方法の組合せを使用してもよい。たとえば、第1のユーザは、顔認識と音声記録の両方を通じて識別されても、音声認識と第1のユーザによって携行されているモバイルデバイスとの両方を通じて識別されてもよい、などである。
いくつかの実施形態では、第1のユーザの識別は、ソーシャルネットワーキングシステ
ム160のコンピューティングデバイス(たとえば、サーバ)によって行われてもよい。この場合、情報(たとえば、第1のユーザの顔画像または音声記録、第1のユーザによって携行されているモバイルデバイスの識別子)がソーシャルネットワーキングシステム160のコンピューティングデバイスに送られて、ソーシャルネットワーキングシステム160が第1のユーザを識別する。他の実施形態では、第1のユーザの識別は、第2のユーザのモバイルデバイスによって行われてもよい。たとえば、第2のユーザのスマートフォンが第1のユーザの顔の画像を取り込み、顔認識を行ってもよく、第1のユーザの声の記録を録り、音声認識を行ってもよい。必要な場合、第2のユーザのスマートフォンは、識別努力を補助するために、ソーシャルネットワーキングシステム160から適切な情報を得てもよい。
第1のユーザのアイデンティティ(たとえば、名前、ソーシャルネットワーキングシステム160でのユーザ識別子(ID))が決定された後、ステップ320で、特定の実施形態は、第1のユーザについての情報をソーシャルネットワーキングシステム160から取り出す。一実施形態では、第1のユーザについての情報は、第1のユーザの履歴、職業、役職、趣味、関心、婚姻状態など、ソーシャルネットワーキングシステム160で第1のユーザのプロフィールから取り出されてもよい。一実施形態では、第1のユーザについての情報は、ソーシャルネットワーキングシステム160のソーシャルグラフまたはオープングラフ(たとえば、ソーシャルグラフ200)から取り出されてもよい。たとえば、第1のユーザのソーシャルつながり(たとえば、友達、家族)、(たとえば、第1のユーザとソーシャルネットワーキングシステム160の他のユーザとの間の)ソーシャル対話、オンラインアクティビティ(たとえば、通信、投稿、ファイルアップロード、訪問したウェブサイトなど)、またはモバイルアクティビティ(たとえば、チェックイン、電話呼、テキストなど)がソーシャルグラフ200から取り出されてもよい。
第1のユーザのプライバシを保護するために、一実施形態では、ソーシャルネットワーキングシステム160から取り出された第1のユーザについての情報は、一般公衆にとってアクセス可能な、または(たとえば、友達のつながりに基づいて)第2のユーザがアクセスすることを許可されている特定の情報だけである。第2のユーザがアクセスすることを許可されていない情報(たとえば、プライベート情報)は取り出されない。第1のユーザについてのどの特定の情報が第2のユーザにとってアクセス可能であるかは、ソーシャルネットワーキングシステム160にて第1のユーザのアカウント内に指定されたプライバシ設定に基づいて決定されてもよい。
ステップ330では、特定の実施形態では、(たとえば、第1のユーザと第2のユーザとが共に集まりにいる間に)第1のユーザについての情報を第2のユーザに提供する。情報をユーザに提供するための異なる方法があり、本開示は、情報をユーザに提供するための任意の好適な技法を企図する。
一実施形態では、第1のユーザについての情報は、第2のユーザによって携行されているモバイルデバイス(たとえば、スマートフォン)の画面上に表示されてもよい。たとえば、その情報は、第1のユーザの顔画像と共に提示されてもよい。一実施形態では、第1のユーザについての情報は、第2のユーザに(たとえば、第2のユーザによって装着されているイヤフォンまたは第2のユーザによって携行されているモバイルデバイスのスピーカを通じて)ささやかれてもよい。音量は、第2のユーザだけが第1のユーザについての情報を聞くように十分に小さくてもよい。
複数のユーザが(たとえば、ソーシャルな場または仕事上の場で)集まっているとき、それらのユーザは、識別され、次いで(たとえば、ユーザ間の類似性に基づいて)分類されてもよい。図4は、第1のユーザが第2のユーザの近くに存在するとき第2のユーザに
第1のユーザのグループについての情報を提供するための例示的な方法400を示す。1または複数の第1のユーザおよび第2のユーザを含むユーザのグループが、ある場所に集まっていると仮定する。この場合も、その場所は、建物または家屋内の部屋、店舗(たとえば、クラブ、レストラン、店)、公共の場(たとえば、街角、公園)などであってよい。本開示は、人間が集まるための任意の好適な場所を企図する。さらに、第1のユーザが第2のユーザの近くに存在すると仮定する(たとえば、第2のユーザは第1のユーザを見ることができ、または声を聞くことができるので、第2のユーザは第1のユーザの存在に気付いている)。
ステップ410では、特定の実施形態は、各第1のユーザのプライバシ設定に従って第2のユーザの近くに存在する各第1のユーザを識別する。特定の実施形態では、各第1のユーザは、図3のステップ310に関連して上述されている同様の技法を使用して識別される。
各第1のユーザのアイデンティティ(たとえば、名前、ソーシャルネットワーキングシステム160でのユーザID)が決定された後、ステップ420で、特定の実施形態は、各第1のユーザについての情報をソーシャルネットワーキングシステム160から取り出す。特定の実施形態では、各第1のユーザについての情報は、図3のステップ320に関連して上述されている同様の技法を使用して識別される。
ステップ430では、特定の実施形態は、各第1のユーザのプライバシ設定に従って第1のユーザについての情報に基づいて第1のユーザを1または複数のグループに分類する(すなわち、各第1のユーザの公開情報など、情報を使用することを各第1のユーザのプライバシ設定が示すときだけ、各第1のユーザについての特定の情報が第1のユーザを分類するために使用される)。ユーザのグループを分類するための異なる方法が存在しており、本開示は、ユーザ分類のための任意の好適な技法を企図する。
一実施形態では、第1のユーザは、第1のユーザ間の類似性、または第1のユーザと第2のユーザとの間の類似性に基づいて分類されてもよい。一例として、第1のユーザは、各第1のユーザのプライバシ設定に従って各自の職業(たとえば、エンジニア、医者、法律家、教師など)、各自の趣味(たとえば、切手収集、写真、料理、セーリングなど)、各自の性別(たとえば、女性、男性)、各自の交際状態(たとえば、独身、既婚、離婚など)、各自の年齢層などに基づいて分類されてもよい。別の例として、第1のユーザは、各第1のユーザのプライバシ設定に従って第2のユーザと共通の関心を共有するか否か(たとえば、第2のユーザが釣りを好む場合、釣りを好む第1のユーザのすべてが共にグループ化されてもよい)、または第2のユーザと同じ会社に勤務しているか否か、または第2のユーザと同じ大学に通ったか否か、または第2のユーザと同じ年齢層に属するか否かなどに基づいて分類されてもよい。第3の例として、第1のユーザは、第1のユーザおよび第2のユーザに関連付けられている親和性または係数値に基づいて分類されてもよい。一実施形態では、親和性の値は、各第1のユーザと第2のユーザとの間で計算されてもよく、これは、各第1のユーザと第2のユーザの間の関係を測定する。一実施形態では、親和性の値は、各第1のユーザとある対象の間、ならびに第2のユーザとその同じ対象の間で計算されてもよい。親和性は、米国特許出願第11/503,093号に詳細に記載されており、援用によりその全体が本明細書に組み込まれる。
一実施形態では、第1のユーザは、第2のユーザによって指定された基準に基づいて分類されてもよい。一例として、第2のユーザが適切なデートの相手を集まりで見つけたいと望んでいる場合、第2のユーザは、女性、25歳と35歳の間、独身または離婚、および恋愛関係を追い求めることに関心があるなど、基準を指定する。次いで、これらの基準を満たす第1のユーザのすべてが同じグループに分類される。別の例として、第2のユー
ザ(たとえば、ビジネスウーマン)が集まりで仕事上のネットワークを構築したいと望む場合、第2のユーザは、会社の執行役員、または事業もしくは財務で修士および博士号を有するなど、基準を指定する。次いで、これらの基準を満たす第1のユーザのすべてが同じグループに分類される。第3の例として、第2のユーザが一緒にテニスをするパートナを見つけることに関心がある場合、第2のユーザは、テニスに関心がある、少なくとも週1回テニスをする、および上級テニスプレーヤなど、基準を指定する。この場合も、これらの基準を満たす第1のユーザのすべてが同じグループに分類される。
ステップ440では、特定の実施形態は、特定のグループに属する特定の第1のユーザを第2のユーザに通知する。ステップ440は、異なるグループから特定の第1のユーザについて第2のユーザに通知するために繰り返されてもよいことに留意されたい。特定の実施形態では、第2のユーザは、図3のステップ330に関連して上述されている同様の技法を使用して通知を受けてもよい。一例として、そのグループにおける各第1のユーザの名前および画像が第2のユーザのモバイルデバイス(たとえば、スマートフォン)の画面上で表示されてもよく、その結果、第2のユーザは、それらの画像を使用し、近くに存在する現実の人を識別し、各名前と顔とのマッチングを行う。別の例として、そのグループにおける各第1のユーザの名前および簡単な説明が第2のユーザに(たとえば、第2のユーザによって装着されているイヤフォンを通じて)ささやかれてもよい。
一実施形態では、そのグループにおける各第1のユーザについての、または選択された第1のユーザについての情報(たとえば、ソーシャルネットワーキングシステム160から取り出された情報)が第2のユーザに提供されてもよい。一例として、ナイトクラブで集まりが催され、第2のユーザはデートの相手を見つけることに関心があると仮定する。第2のユーザによって指定されたデートの基準を満たす第1のユーザの名前および画像が第2のユーザに提示されてもよい。これらの画像を精査した後、第2のユーザは3人の特定の第1のユーザに特に関心をもった可能性がある。次いで、これらの3人の第1のユーザのそれぞれについての情報(たとえば、職業、関心、趣味、学歴など)が第2のユーザに提示されてもよく、その結果、第2のユーザは、その中から選択する。別の例として、第2のユーザは影響力の大きい地位に就いている人に会うことに関心があると仮定する。第2のユーザによって指定された仕事上のネットワーキング基準(たとえば、会社の執行役員)を満たす第1のユーザの名前および画像が第2のユーザに提示されてもよい。さらに、これらの第1のユーザのそれぞれについて、第1のユーザが現在勤務している会社、会社で第1のユーザが就いている地位、第1のユーザの学歴または職歴など、第1のユーザについての情報が第2のユーザに提示されてもよく、その結果、第2のユーザは、どの特定の第1のユーザに連絡するかを決定する。
複数のユーザが(たとえば、ソーシャルな場または仕事上の場で)集まっているとき、1人のユーザが別のユーザに特に関心をもつ可能性があり、他のユーザについてより多くの情報を見つけたいと望む。図5は、第2のユーザにとって特に関心を持たれる人である第1のユーザを第2のユーザの挙動に基づいて自動的に識別するための例示的な方法500を示す。図5に示されているステップは、第2のユーザにとって特に関心のある異なる第1のユーザを識別するために繰り返されてもよいことに留意されたい。1または複数の第1のユーザおよび第2のユーザを含むユーザのグループがある場所に集まっていると仮定する。たとえば、その場所は、建物または家屋内の部屋、店舗(たとえば、クラブ、レストラン、店)、公共の場(たとえば、街角、公園)などであってよい。本開示は、人間が集まるための任意の好適な場所を企図する。さらに、第1のユーザが第2のユーザの近くに存在すると仮定する(たとえば、第2のユーザは第1のユーザを見ることができ、または声を聞くことができるので、第2のユーザは第1のユーザの存在に気付いている)。
ステップ510では、特定の実施形態は、各第1のユーザのプライバシ設定に従って第
2のユーザの近くに存在する各第1のユーザを識別する。特定の実施形態では、各第1のユーザは、図3のステップ310に関連して上述されている同様の技法を使用して識別される。
ステップ520では、特定の実施形態は、第2のユーザにとって特に関心を持たれる人である特定の第1のユーザを第2のユーザの挙動に基づいて識別する。換言すれば、どの第1のユーザが第2のユーザにとって関心を持たれる人であるか(たとえば、コンピューティングシステムに対して)指摘するという特定の目的のために第2のユーザが明示的なアクションを行う必要はない。その代わりに、第2のユーザにとって特に関心を持たれる人である第1のユーザは、第2のユーザの挙動を通じて黙示的に識別される。あるユーザにとって関心を持たれる人を識別するために使用される異なるユーザ挙動があり、本開示は、任意の適用可能なユーザ挙動を企図する。
一実施形態では、集まりにおける個々のユーザの位置が決定されてもよい(図6に関連して下記により詳細に記載されている)。第2のユーザが閾値期間(たとえば、1分)の間、特定の第1のユーザの近傍に(たとえば、隣に)いるままである(たとえば、立っている、座っている)とき、その第1のユーザは、第2のユーザにとって特に関心を持たれる人として識別されてもよい。たとえば、第2のユーザによって携行されるモバイルデバイスが加速度計を含んでいてもよく、加速度計は、モバイルデバイスの、したがって第2のユーザの適正な加速度を測定するために使用される。これは、第2のユーザが動いているか、それとも任意の所与の瞬間に静止したままであるかを決定するために使用されてもよい。したがって、第2のユーザが特定の第1のユーザの隣に位置し、閾値期間の間そこで静止したままである場合、その第1のユーザは、第2のユーザにとって特に関心を持たれる人として自動的に識別されてもよい。
一実施形態では、第2のユーザの目の動きを(たとえば、網膜追跡を通じて)追跡する。視標追跡は、注視点、または人の頭部に対するその人の目の運動を測定するプロセスである。目の位置および目の動きを測定する様々な視標追跡デバイスがあり、本開示は、任意の適用可能な視標追跡デバイスを企図する。一例として、第2のユーザは、埋込み型のミラーまたは磁界センサを有する特別なコンタクトレンズを装着してもよい。目の動きは、それらのコンタクトレンズの動きに基づいて測定されてもよい。別の例として、第2のユーザは、ビデオカメラまたは光センサを有する眼鏡を装着してもよい。目から反射される光(たとえば、赤外)がビデオカメラまたは光センサによって検知され、目の回転がそれらの反射の変化に基づいて抽出される。第2のユーザが閾値期間(たとえば、30秒)の間、特定の第1のユーザを見ているとき、その第1のユーザは、第2のユーザにとって特に関心を持たれる人として識別されてもよい。あるいは、第2のユーザが、特定の第1のユーザを見ていながら、閾値回数(たとえば、連続して3回)にわたって目をまばたきしたとき、その第1のユーザは、第2のユーザにとって特に関心を持たれる人として識別されてもよい。
一実施形態では、第2のユーザは、オーディオ記録デバイスを含むモバイルデバイスを携行してもよい。オーディオ記録デバイスは、第2のユーザの周りの声を連続的に取り込む。第2のユーザが閾値期間(たとえば、30秒)の間、特定の第1のユーザと会話している、またはその第2のユーザに話しかけているとき、その第1のユーザは、第2のユーザにとって特に関心を持たれる人として識別されてもよい。あるいは、第2のユーザは、特定の第1のユーザの隣に立って、または座っていながら予め定義された用語(たとえば、情報)を話したとき、その第1のユーザは、第2のユーザにとって特に関心を持たれる人として識別されてもよい。
第2のユーザにとって特に関心を持たれる人である特定の第1のユーザを識別する確度
を改善するために、特定の実施形態は、好適な識別方法の組合せを使用してもよい。たとえば、第1のユーザは、第2のユーザが閾値期間の間、第1のユーザを見つめ、かつ予め定義された用語を話したとき、または第2のユーザが閾値期間の間、第1のユーザの隣に立ち、閾値回数にわたって瞬きしたときに識別されてもよい。
第2のユーザにとって特に関心を持たれる人である特定の第1のユーザが自動的に識別された後、ステップ530で、特定の実施形態は、特定の第1のユーザについての情報をソーシャルネットワーキングシステム160から取り出してもよい。特定の実施形態では、特定の第1のユーザについての情報は、図3のステップ320に関連して上述されている同様の技法を使用して取り出される。
ステップ540では、特定の実施形態は、第2のユーザにとって特に関心を持たれる人である特定の第1のユーザについての情報を第2のユーザに提供する。特定の実施形態では、特定の第1のユーザについての情報は、図3のステップ330に関連して上述されている同様の技法を使用して提供される。たとえば、特定の第1のユーザについての情報は、第2のユーザのモバイルデバイス(たとえば、スマートフォン)の画面上に表示されても、第2のユーザに(たとえば、第2のユーザによって装着されているイヤフォンを通じて)聞こえるように伝えられてもよい。
特定の第1のユーザについての情報は、たとえば第2のユーザが特定の第1のユーザと社交的に付き合うのに便利である。第2のユーザが現在の集まり以前に特定の第1のユーザに会ったことがなく、特定の第1のユーザに自己紹介したいと望んでいると仮定する。特定の第1のユーザがスポーツ、特にゴルフに関心があると第2のユーザが知っている場合、第2のユーザは特定の第1のユーザと雑談しているとき「ゴルフ」を会話の話題として選択する。
図3、図4、および図5に示されている方法について、特定の実施形態は、1または複数の特定の第1のユーザ(たとえば、第2のユーザにとって特に関心のある特定の第1のユーザ、または特定のグループにおける第1のユーザ)と第2のユーザとの間に関連付けまたはつながりが存在するとする。そのような関連付けまたはつながりに基づいて、推奨または広告が第2のユーザに提供されてもよい。たとえば、第1のユーザのすべてが第2のユーザと共通の関心(たとえば、テニス)を共有している場合、第1のユーザによって好まれるテニス用具(たとえば、衣類、ボール、ラケット)のブランドが第2のユーザに推奨されてもよい。
特定の実施形態では、図4〜図6に示されているプロセスは、複数のユーザに対称的に適用されてもよい。たとえば、ユーザXとユーザYとが共にイベントに出席している間、ユーザXおよびユーザYのいずれも(たとえば、図3のステップ310に関連して上述されている同様の技法を使用して)識別され、ユーザXおよびユーザYのいずれについての情報も(たとえば、ソーシャルネットワーキングシステム160から)取り出される。その後、ユーザXについての情報がユーザYに提供されてもよく、一方、ユーザYについての情報がユーザXに提供されてもよい。
特定の実施形態では、図4〜図6に示されているプロセスは、複数のユーザに非対称的に適用されてもよい。たとえば、ユーザXとユーザとYが共にイベントに出席している間、ユーザXおよびユーザYのいずれも(たとえば、図3のステップ310に関連して上述されている同様の技法を使用して)識別され、ユーザXおよびユーザYのいずれについての情報も(たとえば、ソーシャルネットワーキングシステム160から)取り出される。その後、ユーザXおよびユーザYのいずれについての情報もユーザZに提供され、しかしユーザZについての情報は、ユーザXにもユーザYにも提供されない。たとえば、ユーザ
Zは、イベントの主催者である。次いで、ユーザZは、ユーザXとユーザYとを(たとえば、そのそれぞれの情報に基づいて)互いに紹介するか否かを判断する。これは、ユーザXのプライバシおよびユーザYのプライバシを(たとえば、それらの情報をまったくの見知らぬ人に提供しないことによって)保護するのに便利である。
現在、ユーザのモバイルデバイスのGPS座標またはユーザのチェックインなど、様々なタイプの情報を使用し、所与の時間におけるユーザの一般的なロケーションを決定する。たとえば、ユーザのチェックインは、そのユーザが建物(たとえば、レストラン、オフィスビル、ショッピングモールなど)内に存在することを示すが、所与の時間にどの特定の部屋、またはある部屋のどの特定の位置にユーザが位置するかを告げない。図6は、囲まれた空間内の個々のユーザの特定の位置を決定するための例示的な方法600を示す。ユーザのグループが囲まれた空間内に集まっていると仮定する。本開示は、人間が集まるための任意の好適な囲まれた空間を企図する。特定の実施形態では、囲まれた空間は、構造物内の単一の部屋など、覆われた空間である。
ステップ610では、特定の実施形態は、各ユーザのプライバシ設定に従って囲まれた空間内に位置するユーザについての情報を受信する。囲まれた空間内のユーザについての情報を収集するための様々な方法があり、本開示は、囲まれた空間内のユーザについての情報を収集するための任意の適用可能な技法を企図する。
一実施形態では、ユーザの一部またはすべてが、視覚記録デバイスを含むモバイルデバイスを携行してもよい。たとえば、視覚記録デバイスは、目立ちすぎないようにユーザによって携行または装着されるスマートフォン、宝飾品の1つ(たとえば、ペンダント、ブローチ)、腕時計、または眼鏡内に組み込まれてもよい。場合によっては、視覚記録デバイスは、広角画像(たとえば、パノラマ画像または半球画像)を撮ることが可能な広角レンズ(たとえば、魚眼レンズ)を有してもよい。ユーザは、そのような視覚記録デバイスによって、囲まれた空間内の他のユーザの様々な写真を撮り、その写真を、たとえばソーシャルネットワーキングシステム160に送ってもよい。さらに、囲まれた空間中の複数の写真を複数のユーザが撮り、それらの写真をソーシャルネットワーキングシステム160に送ってもよい。
一実施形態では、視覚記録デバイスが囲まれた空間中に(たとえば、壁に、天井内に)設置されてもよい。これらの視覚記録デバイスは、囲まれた空間のそのそれぞれの領域の写真を撮り、これらの写真をソーシャルネットワーキングシステム160に送ってもよい。
一実施形態では、ソーシャルネットワーキングシステム160は、個々のユーザによって携行されている視覚記録デバイスと同様に、囲まれた空間中に設置された視覚記録デバイスによって撮られた写真を受信してもよい。
異なる写真が、囲まれた空間内の異なるユーザを取り込んでもよい。たとえば、数人のユーザ(たとえば、1人、2人、または3人のユーザ)だけを取り込む写真もあれば、多数のユーザを同時に取り込む写真もある。同じユーザが複数の写真に取り込まれてもよい。一部の写真は、囲まれた空間中の背景を取り込んでもよい。
ステップ620では、特定の実施形態は、様々な写真内に取り込まれた個々のユーザを識別する。特定の実施形態では、個々のユーザの各々は、図3のステップ310に関連して上述されている同様の技法を使用して識別される。より具体的には、一実施形態では、ユーザは、顔認識を通じて識別される。この場合、写真内に取り込まれた各特定のユーザの顔画像は、好適なコンピュータソフトウェア(たとえば、画像処理ソフトウェア)を使
用して処理される。たとえば、ユーザがソーシャルネットワーキングシステム160のメンバである場合、ユーザの顔の画像が、プロフィールまたはソーシャルネットワーキングシステム160のユーザの他の画像(たとえば、ユーザアルバムからの画像)に対して比較される。一実施形態では、検索プールは、顔認識結果を改善する、またはユーザプライバシを保護するために、図3のステップ310に関連して上述されているように、ソーシャルネットワーキングシステム160の特定のユーザに限定されてもよい。一致が見いだされた場合、プロフィール画像がユーザの顔の画像と一致するユーザの名前もまた、第1のユーザの名前であるはずである。
ステップ630では、特定の実施形態は、囲まれた空間内の各ユーザの特定の位置を決定する。一実施形態では、個々のユーザの位置は、写真に含まれるか、または写真に関連付けられている情報から外挿されてもよい。一例として、第1のユーザが、並んで立っている第2のユーザと第3のユーザの写真を撮ったと仮定する。この写真は、第2のユーザが第3のユーザの右に位置し、一方、第3のユーザは、第2のユーザの左に位置することを示す。さらに、写真のアングルに基づいて、第1のユーザは、第2のユーザと第3のユーザの約1.22m(4フィート)前に位置すると決定される。別の例として、第4のユーザが、第2のユーザ、第5のユーザ、および第6のユーザの写真を撮ったと仮定する。この写真では、第5のユーザと第6のユーザは共に第2のユーザの右に位置する。第2のユーザは第3のユーザの右に位置するので、これは、第5のユーザと第6のユーザもまた第3のユーザの右に位置することを暗示する。さらに、写真のアングルを使用し、第2、第5、および第6のユーザに対する第4のユーザの位置を決定する。したがって、複数の写真から抽出された情報を組み合わせ、補間し、囲まれた空間内の個々のユーザの特定の位置を決定してもよい。
特定の実施形態は、囲まれた空間のマップを構築し、次いで囲まれた空間内の各ユーザの位置をマップ上で示す。ユーザは囲まれた空間中を動くので、ユーザの位置は、必要に応じて更新されてもよい。一実施形態では、写真は(たとえば、ユーザに携行されている、または囲まれた空間中に設置された視覚記録デバイスによって)囲まれた空間内で連続的に撮られ、ソーシャルネットワーキングシステム160に送られてもよい。ユーザの位置は、最新の写真から繰り返し外挿されてもよい。
マップは、個々のユーザの位置と共に、囲まれた空間内のユーザに支援を提供する。たとえば、第1のユーザが囲まれた空間内で第2のユーザの位置を突き止めようと試みていると仮定する。しかし、囲まれた空間は明かりが乏しく、または囲まれた空間内が混雑しているので、第1のユーザは、第2のユーザを容易に見ることができない可能性がある。この場合には、第2のユーザの現在位置に印が付けられた状態で囲まれた空間のマップが第1のユーザに提供され(たとえば、第1のユーザのモバイルデバイスに送られ表示され)てもよく、その結果、第1のユーザは、その情報を使用し、第2のユーザを見つける。あるいは、第1のユーザを第2のユーザに導く方向が第1のユーザに与えられ(たとえば、イヤフォンを通じて第1のユーザに話しかけられ)てもよい。
ユーザは、聴覚/視覚記録デバイスを携行してもよく、ユーザが毎日の人生を送るとき、聴覚/視覚記録デバイスは、ユーザの周りの聴覚/視覚情報を連続的に取り込んでもよい。記録デバイスは、ユーザによって携行されるモバイルデバイス、またはユーザによって装着される衣服またはアクセサリ(たとえば、宝飾品、眼鏡、腕時計)の1つに組み込まれてもよい。図7は、ユーザの周りで聴覚/視覚情報を連続的に取り込むための例示的な方法700を示す。図7に示されているステップは、異なるユーザのために同様に繰り返されてもよいことに留意されたい。
ステップ710では、聴覚/視覚記録デバイスは、ユーザの日々の生活を通じてユーザ
の周りの聴覚/視覚情報を連続的に取り込む。一例として、記録デバイスは、画像フレームを定期的に(たとえば、1分当たり1画像、または5分当たり1画像)取り込んでもよい。別の例として、記録デバイスは、映像を取り込んでもよい。一実施形態では、記録のレート(たとえば、1分当たり取り込まれるフレームの数など、何らかの特定の期間当たり取り込まれる画像フレームの数)は、必要に応じて変わってもよい。たとえば、ユーザの周りで僅かなアクティビティが存在し、その結果、時間の経過につれて僅かな変化が生じた場合、画像は、より低いレート(たとえば、10分当たり1画像)で記録されてもよい。ユーザの周りでほとんどアクティビティが存在しない場合、画像は記録される必要がない。しかし、ユーザの周りでより多くのアクティビティ(たとえば、加速度計またはカメラによって示される所与の突然の動き)が存在する場合、画像は、より高いレート(たとえば、2秒当たり1画像)で記録されてもよい。したがって、記録のレートは、ユーザの周りの、またはユーザによるアクティビティまたは運動または動きの量に基づいて自動的に調整されてもよい。より多くの動きは、記録のレートをより高くし、一方、より少ない動きは記録のレートをより低くする。
一実施形態では、取り込まれた聴覚/視覚情報は、さらなる解析のためにサーバ(たとえば、ソーシャルネットワーキングシステム160のサーバ)に送られてもよい。あるいは、一実施形態では、取り込まれた聴覚/視覚情報は、ユーザの自分自身のデバイスによって処理されてもよい。一実施形態では、取り込まれた聴覚/視覚情報にタイムスタンプが関連付けられており、その情報がいつ取り込まれたかを示してもよい。
ステップ720では、特定の実施形態は、聴覚/視覚記録デバイスによって取り込まれた聴覚/視覚情報から聴覚/視覚セグメントを抽出する。実際には、人の日常生活は、必ずしも興味深い、または有意なアクティビティに満ちていない。たとえば、通常の勤務時間中、ユーザは、自分の事務所で何時間も働いて過ごすことがあり、その場合、あまり有意な情報が記録デバイスによって取り込まれない可能性がある(たとえば、大部分の画像では、ユーザがコンピュータの前で働いている可能性がある)。一方、夜間や週末には、ユーザは、友達または親族と社交的に付き合う、コンサートやスポーツイベントに出席する、映画を見るなどの可能性があり、その場合、記録デバイスによって取り込まれた情報は、これらのアクティビティに関連し、したがってユーザにとってより興味深いものである。聴覚/視覚情報を処理することにより、特定の期間を含めた、またはユーザの人生における特定のイベントに関連する聴覚/視覚セグメントを抽出する。一例として、ユーザがコンサートに出席した場合、演奏家の許可または著作権に従ってそのコンサートを含めたセグメントを抽出する。別の例として、ユーザが休暇をとった場合、その休暇を含めた1または複数のセグメントが抽出されてもよい。第3の例として、ユーザが数日間、来訪中の親族を接待した場合、ユーザが来訪中の親族と過ごした期間を含めた1または複数のセグメントが抽出されてもよい。
ステップ730では、特定の実施形態は、聴覚/視覚セグメントをソーシャルネットワーキングシステム160でユーザのタイムラインに投稿する。一実施形態では、タイムラインは、ユーザの人生を仮想的に表したものであり、ユーザが初めて誕生した年月日から始まり、先へ続く。タイムラインに沿って、ユーザの人生における特定の日または期間に対応する特定の点があってもよい。ユーザの人生で起こる有意なイベントは、タイムライン上で適切な対応する点で表されてもよい。たとえば、タイムライン上の点は、ユーザが高校を卒業した日の印となり、一方、タイムライン上の別の点は、ユーザが大学を卒業した日の印となる。タイムライン上に、ユーザがいつ休暇をとったかに対応する点があってもよい。同様に、聴覚/視覚セグメントが、聴覚/視覚セグメントにそれぞれ含められた期間に対応する、タイムラインに沿った適切な点で表示されてもよい。
特定の実施形態では、聴覚/視覚セグメントは、ソーシャルネットワーキングシステム
160のソーシャルグラフ200に投稿されてもよい。各聴覚/視覚セグメントは、ソーシャルグラフ200内のノードによって表されてもよく、これはユーザを表すノードに接続される。ユーザと聴覚/視覚セグメントとの間の関係は、それぞれユーザと聴覚/視覚セグメントを表す2つのノードを接続するエッジに沿って示される。
特定の実施形態では、聴覚/視覚セグメントは、(たとえば、ソーシャルネットワーキングシステム160によって)記憶されてもよい。その後、ユーザは、特定のセグメントを取り出し、見直す。一実施形態では、ユーザは、特定の期間またはユーザの人生におけるイベントを含めた聴覚/視覚セグメントを要求するクエリを送ってもよい。次いで、ソーシャルネットワーキングシステム160は、適切な1または複数のセグメントを突き止め、ユーザに送ってもよい。一実施形態では、ユーザは、セグメントそれ自体ではなく、聴覚/視覚セグメント内に見いだす特定の情報について尋ねるクエリを送ってもよい。一例として、ユーザが数年前、友達とスポーツイベントに出席したが、その友達が誰であったか思い出すことができない場合、ユーザは、スポーツイベントでのその友達のアイデンティティについて尋ねてもよい。ソーシャルネットワーキングシステム160は、スポーツイベントを含めた適切な聴覚/視覚セグメントを突き止め、(たとえば、個々の画像を処理し、顔認識または音声認識を実施することによって)友達を識別し、友達の名前をユーザに送ってもよい。別の例として、ユーザは、ある期間を指定するクエリを送り、その期間中に発生したイベントについて尋ねてもよい。ソーシャルネットワーキングシステム160は、その期間を含めた適切な1または複数の聴覚/視覚セグメントを突き止め、イベントのタイトルをユーザに送ってもよい。
特定の実施形態は、適切な場合、図3〜図7の方法の1または複数のステップを繰り返してもよい。本開示は、図3〜図7の方法の特定のステップを、特定の順番で発生するものとして記載し示しているが、本開示は、任意の好適な順番で発生する図3〜図7の方法の任意の好適なステップを企図する。さらに、本開示は、図3〜図7の方法の特定のステップを実施する特定の構成要素、デバイス、またはシステムについて記載し示しているが、本開示は、図3〜図7の方法の任意の好適なステップを実施する任意の好適な構成要素、デバイス、またはシステムの任意の好適な組合せを企図する。
図8は、例示的なコンピュータシステム800を示す。特定の実施形態では、1または複数のコンピュータシステム800は、本明細書に記載され、または示されている1または複数の方法の1または複数のステップを実施する。特定の実施形態では、1または複数のコンピュータシステム800は、本明細書に記載され、または示されている機能を提供する。特定の実施形態では、1または複数のコンピュータシステム800上で動作するソフトウェアは、本明細書に記載され、または示されている1または複数の方法の1または複数のステップを実施し、または本明細書に記載され、または示されている機能を提供する。特定の実施形態は、1または複数のコンピュータシステム800の1または複数の部分を含む。本明細書では、コンピュータシステムに言及することは、適切な場合、コンピューティングデバイスを包含してもよく、逆も同様である。さらに、コンピュータシステムに言及することは、適切な場合、1または複数のコンピュータシステムを包含してもよい。
本開示は、任意の好適な数のコンピュータシステム800を企図する。本開示は、任意の好適な物理的形態をとるコンピュータシステム800を企図する。限定するものとしてではなく一例として、コンピュータシステム800は、組込コンピュータシステム、システムオンチップ(SOC)、シングルボードコンピュータシステム(SBC)(たとえば、コンピュータオンモジュール(COM)またはシステムオンモジュール(SOM)など)、デスクトップコンピュータシステム、ラップトップもしくはノートブックコンピュータシステム、インタラクティブキオスク、メインフレーム、コンピュータシステムのメッ
シュ、モバイルフォン、携帯情報端末(PDA)、サーバ、タブレットコンピュータシステム、またはこれらの2以上の組合せであってよい。適切な場合、コンピュータシステム800は、1または複数のコンピュータシステム800を含んでもよく、一元的なものであっても分散型であってもよく、複数のロケーションに跨ってもよく、複数のマシンに跨ってもよく、複数のデータセンタに跨ってもよく、クラウド内にあってもよく、クラウドは、1または複数のネットワーク内で1または複数のクラウドコンポーネントを含んでもよい。適切な場合、1または複数のコンピュータシステム800は、実質的な空間的または時間的制限なしに、本明細書に記載され、または示されている1または複数の方法の1または複数のステップを実施してもよい。限定するものとしてではなく一例として、1または複数のコンピュータシステム800は、リアルタイムで、またはバッチモードで、本明細書に記載され、または示されている1または複数の方法の1または複数のステップを実施してもよい。1または複数のコンピュータシステム800は、適切な場合、異なるときに、または異なるロケーションで、本明細書に記載され、または示されている1または複数の方法の1または複数のステップを実施してもよい。
特定の実施形態では、コンピュータシステム800は、プロセッサ802、メモリ804、ストレージ806、入力/出力(I/O)インタフェース808、通信インタフェース810、およびバス812を含む。本開示は、特定の数の特定の構成要素を特定の構成で有する特定のコンピュータシステムについて記載し示しているが、本開示は、任意の好適な数の任意の好適な構成要素を任意の好適な構成で有する任意の好適なコンピュータシステムを企図する。
特定の実施形態では、プロセッサ802は、コンピュータプログラムを構成するものなど命令を実行するためのハードウェアを含む。限定するものとしてではなく一例として、命令を実行するために、プロセッサ802は、内部レジスタ、内部キャッシュ、メモリ804、またはストレージ806から命令を取り出し(またはフェッチし)、それらを復号および実行し、次いで、1または複数の結果を内部レジスタ、内部キャッシュ、メモリ804、またはストレージ806に書き込む。特定の実施形態では、プロセッサ802は、データ、命令、またはアドレス用に1または複数の内部キャッシュを含んでもよい。本開示は、適切な場合、任意の好適な数の任意の好適な内部キャッシュを含むプロセッサ802を企図する。限定するものとしてではなく一例として、プロセッサ802は、1または複数の命令キャッシュ、1または複数のデータキャッシュ、および1または複数の変換索引バッファ(TLB)を含んでもよい。データキャッシュ内の命令は、メモリ804またはストレージ806内の命令のコピーであってもよく、命令キャッシュは、プロセッサ802によるこれらの命令の取り出しを高速化する。データキャッシュ内のデータは、プロセッサ802にて実行される命令が操作するための、メモリ804またはストレージ806内のデータのコピー、プロセッサ802で実行される後続の命令によるアクセスための、またはメモリ804もしくはストレージ806に書き込むための、プロセッサ802で実行された以前の命令の結果、あるいは他の好適なデータであってもよい。データキャッシュは、プロセッサ802による読出しまたは書込み動作を高速化する。TLBは、プロセッサ802のために仮想アドレス変換を高速化する。特定の実施形態では、プロセッサ802は、データ、命令、またはアドレス用に1または複数の内部レジスタを含む。本開示は、適切な場合、任意の好適な数の任意の好適な内部レジスタを含むプロセッサ802を企図する。適切な場合、プロセッサ802は、1または複数の算術論理演算ユニット(ALU)を含むことができ、マルチコアプロセッサであってもよく、1または複数のプロセッサ802を含んでもよい。本開示は、特定のプロセッサについて記載し示しているが、本開示は、任意の好適なプロセッサを企図する。
特定の実施形態では、メモリ804は、プロセッサ802が実行するための命令、またはプロセッサ802が操作するためのデータを記憶するためのメインメモリを含む。限定
するものとしてではなく一例として、コンピュータシステム800は、ストレージ806または別のソース(たとえば、別のコンピュータシステム800など)からメモリ804に命令をロードする。次いで、プロセッサ802は、メモリ804から内部レジスタまたは内部キャッシュに命令をロードする。命令を実行するために、プロセッサ802は、内部レジスタまたは内部キャッシュから命令を取り出し、それらを復号する。命令の実行中、または実行後、プロセッサ802は、1または複数の結果(中間結果であることも最終結果であることもある)を内部レジスタまたは内部キャッシュに書き込む。次いで、プロセッサ802は、それらの結果の1または複数をメモリ804に書き込む。特定の実施形態では、プロセッサ802は、1もしくは複数の内部レジスタもしくは内部キャッシュ内、または(ストレージ806もしくは他の場所とは対照的に)メモリ804内の命令だけを実行し、1もしくは複数の内部レジスタもしくは内部キャッシュ内、または(ストレージ806もしくは他の場所とは対照的に)メモリ804内のデータだけを操作する。1または複数のメモリバス(それぞれがアドレスバスとデータバスを含む)がプロセッサ802をメモリ804に結合してもよい。バス812は、下記に記載されているように、1または複数のメモリバスを含んでもよい。特定の実施形態では、1または複数のメモリ管理ユニット(MMU)が、プロセッサ802とメモリ804との間に存在し、プロセッサ802によって要求されるメモリ804へのアクセスを容易にする。特定の実施形態では、メモリ804は、ランダムアクセスメモリ(RAM)を含む。このRAMは、適切な場合、揮発性メモリである。適切な場合、このRAMは、ダイナミックRAM(DRAM)またはスタティックRAM(SRAM)であってよい。さらに、適切な場合、このRAMは、シングルポート型またはマルチポート型RAMであってよい。本開示は、任意の好適なRAMを企図する。メモリ804は、適切な場合、1または複数のメモリ804を含んでもよい。本開示は、特定のメモリについて記載し示しているが、本開示は、任意の好適なメモリを企図する。
特定の実施形態では、ストレージ806は、データまたは命令用のマスストレージを含む。限定するものとしてではなく一例として、ストレージ806は、ハードディスクドライブ(HDD)、フロッピー(登録商標)ディスクドライブ、フラッシュメモリ、光ディスク、光磁気ディスク、磁気テープ、もしくはユニバーサルシリアルバス(USB)ドライブ、またはこれらの2以上の組合せを含んでもよい。ストレージ806は、適切な場合、取外し式または非取外し式(または固定)媒体を含んでもよい。ストレージ806は、適切な場合、コンピュータシステム800に対して内部にあっても外部にあってもよい。特定の実施形態では、ストレージ806は、不揮発性のソリッドステートメモリである。特定の実施形態では、ストレージ806は、読出し専用メモリ(ROM)を含む。適切な場合、このROMは、マスクプログラムROM、プログラマブルROM(PROM)、消去可能PROM(EPROM)、電気的消去可能PROM(EEPROM)、電気的書き換え可能ROM(EAROM)、もしくはフラッシュメモリ、またはこれらの2以上の組合せであってよい。本開示は、任意の好適な物理的形態をとるマスストレージ806を企図する。ストレージ806は、適切な場合、プロセッサ802とストレージ806との間の通信を容易にする1または複数のストレージ制御ユニットを含んでもよい。適切な場合、ストレージ806は、1または複数のストレージ806を含んでもよい。本開示は、特定のストレージについて記載し示しているが、本開示は、任意の好適なストレージを企図する。
特定の実施形態では、I/Oインタフェース808は、コンピュータシステム800と1または複数のI/Oデバイスとの間の通信のために1または複数のインタフェースを提供するハードウェア、ソフトウェア、またはその両方を含む。コンピュータシステム800は、適切な場合、これらのI/Oデバイスの1または複数を含んでもよい。これらのI/Oデバイスの1または複数は、人とコンピュータシステム800との間の通信を可能にする。限定するものとしてではなく一例として、I/Oデバイスは、キーボード、キーパ
ッド、マイクロフォン、モニタ、マウス、プリンタ、スキャナ、スピーカ、スチルカメラ、スタイラス、タブレット、タッチスクリーン、トラックボール、ビデオカメラ、別の好適なI/Oデバイス、またはこれらの2以上の組合せを含んでもよい。I/Oデバイスは、1または複数のセンサを含んでもよい。本開示は、任意の好適なI/Oデバイス、およびそれらのための任意の好適なI/Oインタフェース808を企図する。適切な場合、I/Oインタフェース808は、プロセッサ802がこれらのI/Oデバイスの1または複数を駆動することを可能にする1または複数のデバイスまたはソフトウェアドライバを含む。I/Oインタフェース808は、適切な場合、1または複数のI/Oインタフェース808を含んでもよい。本開示は、特定のI/Oインタフェースについて記載し示しているが、本開示は、任意の好適なI/Oインタフェースを企図する。
特定の実施形態では、通信インタフェース810は、コンピュータシステム800と1もしくは複数の他のコンピュータシステム800または1もしくは複数のネットワークとの間の通信(たとえば、パケットベースの通信など)のために1または複数のインタフェースを提供するハードウェア、ソフトウェア、またはその両方を含む。限定するものとしてではなく一例として、通信インタフェース810は、イーサネット(登録商標)もしくは他の有線ベースのネットワークとの通信のためのインタフェースコントローラ(NIC)もしくはネットワークアダプタ、またはWI−FIネットワークなど無線ネットワークとの通信のための無線NIC(WNIC)もしくは無線アダプタを含んでもよい。本開示は、任意の好適なネットワーク、およびそのための任意の好適な通信インタフェース810を企図する。限定するものとしてではなく一例として、コンピュータシステム800は、アドホックネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、またはインターネットの1もしくは複数の部分、あるいはこれらの2以上の組合せと通信する。これらのネットワークの1または複数のうちの1または複数の部分は、有線であっても無線であってもよい。一例として、コンピュータシステム800は、無線PAN(WPAN)(たとえば、BLUETOOTH(登録商標) WPANなど)、WI−FIネットワーク、WI−MAXネットワーク、携帯電話ネットワーク(たとえば、グローバル移動体通信システム(GSM(登録商標))ネットワークなど)、もしくは他の好適な無線ネットワーク、またはこれらの2以上の組合せと通信する。コンピュータシステム800は、適切な場合、これらのネットワークのいずれかのための任意の好適な通信インタフェース810を含んでもよい。通信インタフェース810は、適切な場合、1または複数の通信インタフェース810を含んでもよい。本開示は、特定の通信インタフェースについて記載し示しているが、本開示は、任意の好適な通信インタフェースを企図する。
特定の実施形態では、バス812は、コンピュータシステム800の構成要素を互いに結合するハードウェア、ソフトウェア、またはその両方を含む。限定するものとしてではなく一例として、バス812は、AGP(アクセラレィティッドグラフィックスポート)もしくは他のグラフィックスバス、EISA(エンハンストインダストリスタンダードアーキテクチャ)バス、フロントサイドバス(FSB)、HT(ハイパートランスポート)相互接続、ISA(インダストリ スタンダード アーキテクチャ)バス、インフィニバンド相互接続、LPC(ローピンカウント)バス、メモリバス、MCA(マイクロチャネルアーキテクチャ)バス、PCI(ペリフェラル コンポーネント インターコネクト)バス、PCIエクスプレス(PCIe)バス、SATA(シリアルアドバンストテクノロジーアタッチメント)バス、VLB(ビデオエレクトロニクススタンダードアソシエイションローカル)バス、もしくは別の好適なバス、またはこれらの2以上の組合せを含んでもよい。バス812は、適切な場合、1または複数のバス812を含んでもよい。本開示は、特定のバスについて記載し示しているが、本開示は、任意の好適なバスまたは相互接続を企図する。
本明細書では、1または複数の非一時的コンピュータ可読記憶媒体は、適切な場合、1または複数の半導体ベースの、もしくは他の集積回路(IC)(たとえば、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向け集積回路(ASIC))、ハードディスクドライブ(HDD)、ハイブリッドハードドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ディスクドライブ、フロッピーディスク、フロッピーディスクドライブ(FDD)、磁気テープ、ソリッドステートドライブ(SSD)、RAMドライブ、セキュアデジタルカードもしくはドライブ、任意の他の好適な非一時的コンピュータ可読記憶媒体、またはこれらの2以上の組合せを含んでもよい。非一時的コンピュータ可読記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性の組合せであってよい。
本明細書では、「または(もしくは)」は、別段明確に示されていない限り、または別段文脈によって示されない限り、包括的(inclusive)であり、排他的なものではない。したがって、本明細書では、「AまたはB」は、別段明確に示されていない限り、または別段文脈によって示されない限り、「A、B、またはその両方」を意味する。さらに、「および」は、別段明確に示されていない限り、または別段文脈によって示されない限り、共同であり、個別的でもある。したがって、本明細書では、「AおよびB」は、別段明確に示されていない限り、または別段文脈によって示されない限り、「AおよびBを共同で、または個別的に」意味する。
本開示の範囲は、当業者であれば理解されるであろう、本明細書に記載され、または示されている例示的な実施形態に対する変更、置換、変形、代替、および修正すべてを包含する。本開示の範囲は、本明細書に記載され、または示されている例示的な実施形態に限定されない。さらに、本開示は、それぞれの実施形態について、本明細書では、特定の構成要素、要素、機能、動作、またはステップを含むものとして記載し示しているが、これらの実施形態のいずれも、当業者であれば理解されるであろう、本明細書に記載され、または示されている構成要素、要素、機能、動作、またはステップのいずれかの任意の組合せまたは並べ替えを含んでもよい。さらに、添付の特許請求の範囲において、特定の機能を実施するように適合され、配置され、可能な、構成され、可能である、動作可能である、または動作する装置もしくはシステム、または装置もしくはシステムの構成要素に及ぶことは、その装置、システム、または構成要素がそのように適合され、配置され、動作可能であり、構成され、可能であり、動作可能であり、動作する限り、それ、またはその特定の機能が作動される、有効にされる、またはロック解除されるか否かにかかわらず、その装置、システム、構成要素を包含する。

Claims (14)

  1. サーバコンピューティングデバイスが、覆われた空間内に位置する複数のユーザの近傍に関する情報を受信する工程であって、前記情報は、前記近傍の少なくとも一部分についての1以上の画像または1以上の音を含み、前記情報は、前記ユーザの複数のクライアントコンピューティングデバイスによって手動によるユーザ入力なしに自動的に、各クライアントコンピューティングデバイスの1以上のセンサにより前記近傍から取得される、工程と、
    前記サーバコンピューティングデバイスが、前記情報に少なくとも部分的に基づいて、前記近傍内の各ユーザまたは前記ユーザの少なくとも一部を識別する、ユーザ識別工程と、
    前記サーバコンピューティングデバイスが、好ましくは前記情報に少なくとも部分的に基づいて、前記覆われた空間内の各ユーザまたは前記ユーザの少なくとも一部の位置を決定する、位置決定工程と、を含む方法。
  2. 前記情報は、前記近傍の少なくとも一部分についての映像および前記近傍の少なくとも一部分についての静止画像のうちの少なくとも一方を含み、前記映像および前記静止画像は、好ましくはたとえばカメラまたは映像記録デバイスなどの視覚デバイスをセンサとして前記視覚デバイスによって取り込まれ、前記視覚デバイスは、特にユーザの身体に装着される、もしくはクライアントコンピューティングモバイルデバイス内にある、または前記覆われた空間に取り付けられ、もしくは覆われた空間内に配置される、請求項1に記載の方法。
  3. 前記情報は、ユーザの顔を含む画像を含み、前記画像は、特に映像および静止画像のうちの少なくとも一方であり、前記ユーザ識別工程は、特にソーシャルネットワーキングシステムのデータベース内の人およびその人の顔についての記憶されたデータとの比較を含む顔認識技法を含む、請求項1または2に記載の方法。
  4. 前記情報は、ユーザの声を含む音を含み、前記音は、聴覚デバイスをセンサとして前記聴覚デバイスによって特に取り込まれ、前記聴覚デバイスは、特にユーザの身体に装着される、もしくはクライアントコンピューティングモバイルデバイス内にある、または前記覆われた空間に取り付けられ、もしくは覆われた空間内に配置され、前記ユーザ識別工程は、特にソーシャルネットワーキングシステムのデータベース内の人およびその人の声についての記憶されたデータとの比較を含む音声認識技法を含む、請求項1〜3のいずれか一項に記載の方法。
  5. 前記覆われた空間内の第2のユーザの前記位置およびアイデンティティのうちの少なくとも一方を第1のユーザに通知する工程と、
    前記第1のユーザを前記第2のユーザへと案内するように、前記第1のユーザの前記クライアントコンピューティングデバイスに案内情報を送る工程とのうちの少なくとも一方の工程をさらに含む、請求項1〜4のいずれか一項に記載の方法。
  6. 前記位置決定工程は、特に前記ユーザのモバイルデバイスによるGPSおよび無線信号のうちの少なくとも一方、ソーシャルネットワーキングシステムもしくは無線ネットワーク内の前記ユーザのチェックイン情報、またはその両方を含み、前記GPSおよび前記無線信号は、たとえば三角測量、評価であり、前記モバイルデバイスは、たとえばクライアントコンピューティングモバイルデバイスである、請求項1〜5のいずれか一項に記載の方法。
  7. 前記位置決定工程は、前記ユーザのモバイルデバイスによる情報を収集する工程であっ
    て、前記情報は、前記ユーザの周りまたは前記ユーザの周囲内に存在する他のユーザについての情報であり、特に、第1のユーザの前記モバイルデバイスを使用して顔認識または音声認識によって識別されたユーザは、前記第1のユーザの周囲内に存在すると仮定され、それによって、そのようなユーザまたはユーザのグループの少なくとも相対位置が決定される、情報収集工程を含む、請求項1〜6のいずれか一項に記載の方法。
  8. 前記位置決定工程は、情報を外挿する工程であって、前記情報は、少なくとも1つの画像に含まれるか、または関連付けられており、前記少なくとも1つの画像は、特に写真などの静止画像または映像であり、1のユーザによって少なくとも他の1のユーザ、好ましくは少なくとも他の2のユーザについて特に前記ユーザのモバイルデバイスにより取り込まれる、情報外挿工程を含む、請求項1〜7のいずれか一項に記載の方法。
  9. 前記画像は、前記画像内の数人のユーザの相対位置に関して評価または解析され、前記相対位置は、たとえば並んで立っている2以上のユーザの右および左の位置である、請求項8に記載の方法。
  10. 前記画像は、前記画像内に取り込まれた前記ユーザに対する前記画像を取り込んでいる前記ユーザの相対位置に関して、それらのユーザの距離を前記画像のアングルに基づき計算することによって評価または解析される、請求項8または9に記載の方法。
  11. 前記画像の各々に示されている数人のユーザの相対位置を導出するために、いくつかの画像が評価または解析され、特に、複数の写真から抽出された情報が組み合わされ、補間され、前記覆われた空間内の個々のユーザの特定の位置が決定される、請求項8〜10のいずれか一項に記載の方法。
  12. ソフトウェアを具現する1以上の非一時的コンピュータ可読記憶媒体であって、実行されたとき請求項1〜11のいずれか一項に記載の方法を実行するように構成される、記憶媒体。
  13. 覆われた空間内に位置する複数のユーザの近傍に関する情報を受信するサーバコンピューティングデバイスであって、前記情報は、前記近傍の少なくとも一部分についての1以上の画像または1以上の音を含む、サーバコンピューティングデバイスと、
    前記ユーザの複数のクライアントコンピューティングデバイスであって、それにより前記近傍からの前記情報が手動によるユーザ入力なしに自動的に取得される、または取得されたものである、クライアントコンピューティングデバイスと、
    各クライアントコンピューティングデバイスの1以上のセンサと、
    特に前記サーバコンピューティングデバイス内の1以上のプロセッサと、
    前記プロセッサに結合されたメモリであって、前記メモリは、前記プロセッサによって実行可能な命令を含む、前記メモリとを備え、
    前記プロセッサは、前記命令を実行したとき、
    請求項1〜10のいずれか一項に記載の方法を実行する工程、および/または、
    前記情報に少なくとも部分的に基づいて、前記近傍内の各ユーザを識別する工程と、
    好ましくは前記情報に少なくとも部分的に基づいて、前記覆われた空間内の各ユーザの位置を決定する工程とが行われるように構成される、システム。
  14. 前記センサは、聴覚デバイスおよび/または視覚デバイスを含み、前記聴覚デバイスおよび/または視覚デバイスは、モバイルデバイス内および/または前記クライアントコンピューティングデバイス内、および/または前記覆われた空間内にある、請求項13に記載のシステム。
JP2015537821A 2012-10-17 2013-10-17 拡張現実感を伴う存在の粒度に関連する方法 Active JP6397416B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US13/654,186 US20140108501A1 (en) 2012-10-17 2012-10-17 Presence Granularity with Augmented Reality
US13/654,186 2012-10-17
EP13188926.3 2013-10-16
EP13188926.3A EP2722811A1 (en) 2012-10-17 2013-10-16 Method relating to presence granularity with augmented reality
PCT/US2013/065437 WO2014062918A1 (en) 2012-10-17 2013-10-17 Method relating to presence granularity with augmented reality

Publications (2)

Publication Number Publication Date
JP2016506549A true JP2016506549A (ja) 2016-03-03
JP6397416B2 JP6397416B2 (ja) 2018-09-26

Family

ID=49382304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015537821A Active JP6397416B2 (ja) 2012-10-17 2013-10-17 拡張現実感を伴う存在の粒度に関連する方法

Country Status (11)

Country Link
US (2) US20140108501A1 (ja)
EP (2) EP2722811A1 (ja)
JP (1) JP6397416B2 (ja)
KR (1) KR20150070358A (ja)
CN (1) CN104718765A (ja)
AU (2) AU2013331185B2 (ja)
BR (1) BR112015008326A2 (ja)
CA (1) CA2886948A1 (ja)
IL (2) IL238150B (ja)
MX (1) MX352442B (ja)
WO (1) WO2014062918A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10430896B2 (en) 2016-08-08 2019-10-01 Sony Corporation Information processing apparatus and method that receives identification and interaction information via near-field communication link
JP2019212311A (ja) * 2018-06-07 2019-12-12 Line株式会社 ネットワークメッセージサービスを利用して費用振り分ける方法、コンピュータプログラム、およびコンピューティングデバイス

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10032233B2 (en) * 2012-10-17 2018-07-24 Facebook, Inc. Social context in augmented reality
EP3295696A1 (en) * 2015-05-11 2018-03-21 Deutsche Telekom AG In-device privacy control mechanism for wearable smart devices
US9635167B2 (en) 2015-09-29 2017-04-25 Paypal, Inc. Conversation assistance system
CN107154890B (zh) * 2016-03-02 2020-09-18 腾讯科技(深圳)有限公司 社交网络中添加联系人的方法、装置及系统
US10089071B2 (en) 2016-06-02 2018-10-02 Microsoft Technology Licensing, Llc Automatic audio attenuation on immersive display devices
US10506109B2 (en) * 2016-06-21 2019-12-10 Canon Kabushiki Kaisha Information processing apparatus, method of controlling the same, and non-transitory computer-readable storage medium
CN106981000B (zh) 2016-10-13 2020-06-09 阿里巴巴集团控股有限公司 基于增强现实的多人线下交互、点餐方法及系统
CN106600334A (zh) * 2016-12-20 2017-04-26 惠州Tcl移动通信有限公司 基于ar的信息交互控制方法、应用程序及ar智能设备
CN107302492A (zh) * 2017-06-28 2017-10-27 歌尔科技有限公司 社交软件的交友请求方法、服务器、客户端装置和系统
US10497368B2 (en) * 2017-08-15 2019-12-03 Lenovo (Singapore) Pte. Ltd. Transmitting audio to an identified recipient
US10841651B1 (en) 2017-10-10 2020-11-17 Facebook, Inc. Systems and methods for determining television consumption behavior
CN107748879A (zh) * 2017-11-16 2018-03-02 百度在线网络技术(北京)有限公司 用于获取人脸信息的方法及装置
CN108038143A (zh) * 2017-11-28 2018-05-15 上海与德科技有限公司 一种房屋信息获取方法、装置、设备及存储介质
US10782986B2 (en) * 2018-04-20 2020-09-22 Facebook, Inc. Assisting users with personalized and contextual communication content
US11307880B2 (en) 2018-04-20 2022-04-19 Meta Platforms, Inc. Assisting users with personalized and contextual communication content
US10755487B1 (en) * 2018-05-22 2020-08-25 Facebook, Inc. Techniques for using perception profiles with augmented reality systems
CN110061904B (zh) * 2019-04-10 2022-03-01 北京小米智能科技有限公司 获取社交信息的方法、装置、系统、电子设备及存储介质
US11089439B2 (en) * 2019-07-02 2021-08-10 Charles Hohman Systems and methods for real-world networking using augmented reality interface
US20220279317A1 (en) * 2019-07-02 2022-09-01 Charles Hohman Systems and Methods for Real-World Networking Using Augmented Reality Interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090003662A1 (en) * 2007-06-27 2009-01-01 University Of Hawaii Virtual reality overlay
JP2009230565A (ja) * 2008-03-24 2009-10-08 Laurel Bank Mach Co Ltd 行動管理装置
JP2011176599A (ja) * 2010-02-24 2011-09-08 Oki Networks Co Ltd 空間情報可視化システム及び関連情報提供装置
JP2012058838A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法
US20120250950A1 (en) * 2011-03-29 2012-10-04 Phaedra Papakipos Face Recognition Based on Spatial and Temporal Proximity

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7739231B2 (en) * 2006-08-28 2010-06-15 Manyworlds, Inc. Mutual commit people matching process
US20080086431A1 (en) * 2006-09-15 2008-04-10 Icebreaker, Inc. Social interaction messaging and notification
US7917154B2 (en) * 2006-11-01 2011-03-29 Yahoo! Inc. Determining mobile content for a social network based on location and time
US10217085B2 (en) * 2009-06-22 2019-02-26 Nokia Technologies Oy Method and apparatus for determining social networking relationships
WO2011011616A1 (en) * 2009-07-23 2011-01-27 Fmr Llc Location-based information retrieval and analysis
US8670597B2 (en) * 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
JP5434569B2 (ja) * 2009-12-22 2014-03-05 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8416997B2 (en) * 2010-01-27 2013-04-09 Apple Inc. Method of person identification using social connections
US20110238755A1 (en) * 2010-03-24 2011-09-29 Hameed Khan Proximity-based social networking
KR101141223B1 (ko) * 2010-06-29 2012-05-04 한국과학기술원 상황 기반 소셜 네트워크를 이용한 사용자 상황 인지 모바일 마이크로블로깅 서비스 시스템 및 제공방법
US20130018659A1 (en) * 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US20130156274A1 (en) * 2011-12-19 2013-06-20 Microsoft Corporation Using photograph to initiate and perform action
US20130294594A1 (en) * 2012-05-04 2013-11-07 Steven Chervets Automating the identification of meeting attendees

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090003662A1 (en) * 2007-06-27 2009-01-01 University Of Hawaii Virtual reality overlay
JP2009230565A (ja) * 2008-03-24 2009-10-08 Laurel Bank Mach Co Ltd 行動管理装置
JP2011176599A (ja) * 2010-02-24 2011-09-08 Oki Networks Co Ltd 空間情報可視化システム及び関連情報提供装置
JP2012058838A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法
US20120250950A1 (en) * 2011-03-29 2012-10-04 Phaedra Papakipos Face Recognition Based on Spatial and Temporal Proximity

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10430896B2 (en) 2016-08-08 2019-10-01 Sony Corporation Information processing apparatus and method that receives identification and interaction information via near-field communication link
JP2019212311A (ja) * 2018-06-07 2019-12-12 Line株式会社 ネットワークメッセージサービスを利用して費用振り分ける方法、コンピュータプログラム、およびコンピューティングデバイス
JP7351643B2 (ja) 2018-06-07 2023-09-27 Line株式会社 ネットワークメッセージサービスを利用して費用を振り分けるためのプログラム

Also Published As

Publication number Publication date
JP6397416B2 (ja) 2018-09-26
EP3418967A1 (en) 2018-12-26
US20140108501A1 (en) 2014-04-17
CN104718765A (zh) 2015-06-17
AU2013331185B2 (en) 2017-08-03
MX352442B (es) 2017-11-24
CA2886948A1 (en) 2014-04-24
WO2014062918A1 (en) 2014-04-24
AU2017254967A1 (en) 2017-11-23
BR112015008326A2 (pt) 2017-07-04
MX2015004848A (es) 2015-12-09
KR20150070358A (ko) 2015-06-24
IL238150B (en) 2018-02-28
AU2013331185A1 (en) 2015-05-28
US20190220933A1 (en) 2019-07-18
EP2722811A1 (en) 2014-04-23
IL257408A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6397416B2 (ja) 拡張現実感を伴う存在の粒度に関連する方法
US20180300822A1 (en) Social Context in Augmented Reality
US20180316900A1 (en) Continuous Capture with Augmented Reality
US20140108530A1 (en) Person of Interest in Augmented Reality
JP7091504B2 (ja) 顔認識アプリケーションにおけるフォールスポジティブの最小化のための方法および装置
CN112292866B (zh) 一种涉及视频会议的方法、系统及存储介质
US10242502B2 (en) Providing an augmented reality overlay for display over a view of a user
CN106605418B (zh) 使用基于位置的服务的移动客户端的电力管理
US11568660B1 (en) System and method for improving localization and object tracking
US8774452B2 (en) Preferred images from captured video sequence
US20200210137A1 (en) Virtual spaces, mixed reality spaces, and combined mixed reality spaces for improved interaction and collaboration
US20140108529A1 (en) Person Filtering in Augmented Reality
US10425579B2 (en) Social camera for auto group selfies
US10567844B2 (en) Camera with reaction integration
US10157307B2 (en) Accessibility system
US11647147B2 (en) User-specific customization of video conferences using multimodal biometric characterization
US20190208115A1 (en) Identifying User Intent for Auto Selfies
KR20210096695A (ko) 개선된 상호작용 및 컬래버레이션을 위한 가상 공간, 혼합 현실 공간 및 결합된 혼합 현실 공간
US20240135701A1 (en) High accuracy people identification over time by leveraging re-identification
CN118777980A (zh) 基于用户的协同定位的音频调整

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180831

R150 Certificate of patent or registration of utility model

Ref document number: 6397416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250