JP2023027017A - ジェスチャベーススキル検索 - Google Patents
ジェスチャベーススキル検索 Download PDFInfo
- Publication number
- JP2023027017A JP2023027017A JP2022126255A JP2022126255A JP2023027017A JP 2023027017 A JP2023027017 A JP 2023027017A JP 2022126255 A JP2022126255 A JP 2022126255A JP 2022126255 A JP2022126255 A JP 2022126255A JP 2023027017 A JP2023027017 A JP 2023027017A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- user
- game
- actions
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009471 action Effects 0.000 claims abstract description 115
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000000875 corresponding effect Effects 0.000 claims abstract description 23
- 230000000694 effects Effects 0.000 claims description 40
- 230000006854 communication Effects 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 2
- 230000033001 locomotion Effects 0.000 description 41
- 238000005516 engineering process Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 210000003811 finger Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013499 data model Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
- A63F13/5375—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for graphically or textually suggesting an action, e.g. by displaying an arrow indicating a turn in a driving game
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】ジェスチャベーススキル検索のための方法を提供する。【解決手段】1つ以上の仮想アクションに関するマップがメモリに格納され得る。仮想アクションは、実世界環境で対応するアクションを実行することに関連付けられたデータ集合に関連付けられ得る。実世界環境でのユーザによるアクションに関するデータが取り込まれ得る。仮想環境内のユーザの現在の進捗レベルが特定される。現在の特定された進捗レベルは、1つ以上の使用可能な仮想アクションに関連付けられる。取り込まれたデータは、使用可能な仮想アクションのうちの特定された仮想アクションに対応し得、これは、マップにより示される、取り込まれたデータと、特定された仮想アクションに関連付けられたデータ集合とのマッチングに基づく。特定された仮想アクションに対応する命令の検索が、1つ以上のデータベースにおいて開始される。【選択図】なし
Description
本発明は、概して、ネットワークデバイスの検索に関する。より具体的には、本発明は、ゲーム内スキルのジェスチャベース検索に関する。
関連技術の説明
現在利用可能なデジタルゲームタイトルは、プレーヤが(それぞれのアバタまたはキャラクタを介して)様々な異なる種類のアクティビティに従事して、様々なゲーム内スキルを行使できる、様々な異なるゲーム内シナリオに対応する。例えば、レーシングゲームのタイトルでは、プレーヤの運転スキルが試され得、一方、一人称シューティングゲームのタイトルでは、プレーヤの照準精度が試され得、他の戦闘ゲームのタイトルでは、剣、ナイフ、斧、ハンマー、ショベル、魔法効果などの武器を伴うプレーヤのスキルが試され得る。同様に、様々な仮想地形では、プレーヤは、ゲーム環境内で水泳、登山、ジャンプ、及び他のアクションを介して自身のアバタを制御及びナビゲートすることが求められ得る。
現在利用可能なデジタルゲームタイトルは、プレーヤが(それぞれのアバタまたはキャラクタを介して)様々な異なる種類のアクティビティに従事して、様々なゲーム内スキルを行使できる、様々な異なるゲーム内シナリオに対応する。例えば、レーシングゲームのタイトルでは、プレーヤの運転スキルが試され得、一方、一人称シューティングゲームのタイトルでは、プレーヤの照準精度が試され得、他の戦闘ゲームのタイトルでは、剣、ナイフ、斧、ハンマー、ショベル、魔法効果などの武器を伴うプレーヤのスキルが試され得る。同様に、様々な仮想地形では、プレーヤは、ゲーム環境内で水泳、登山、ジャンプ、及び他のアクションを介して自身のアバタを制御及びナビゲートすることが求められ得る。
プレーヤは通常、1つ以上の種類のゲームコントローラを使用して、自身のアバタを制御し得る。現在、様々なボタン、タッチパッド、センサ、マイクなどを様々な構成及びレイアウトで備えた様々な異なるコントローラ(及びコントローラ変更形態)が存在する。様々な種類のゲーム内の動き、操作、または他のゲーム内アクションの行使を実行するために、様々な組み合わせのユーザ入力(例えば一連または同時のボタン押下、タッチパッドジェスチャもしくは他のジェスチャ、口頭コマンド、または他の入力)が求められ得る。異なるゲームタイトルは異なるアクティビティを含み得るため、特定の入力の組み合わせが、異なるゲーム内の動きを生じる場合がある。さらに、入力の組み合わせを誤って入力すると、プレーヤが意図したものとは異なるゲーム内アクションを生じる場合がある。
ゲーム内アクション及びコントローラのこのような多様性及び複雑さは、プレーヤが新たな、またはなじみのないゲームタイトル、コントローラ、またはゲームコンソールシステムを紹介された時に、参入障壁となる。よって、初心者または経験の浅いプレーヤは、ヘルプまたは他の種類のガイダンスなしでは、ゲームプレイが難しく、苛立ちを感じ得る。しかし、このようなヘルプまたはガイダンスの検索は、プレーヤがゲーム内環境における仮想要素の語彙または名称に精通していない場合に生じ得る言語の壁により、複雑になり得る。プレーヤは、どのようにこのような検索を行うかも知らない場合がある。例えば、他のプレーヤがアクションを実行するのを(例えばゲーム内オブジェクトを使用するか否かを)見るだけでは、アクションもしくはオブジェクトの名称、またはこのようなアクションを自分で実行する方法は、プレーヤに必ずしも伝わらない。
従って、当技術分野では、ゲーム内スキルのジェスチャベース検索のための改善されたシステム及び方法が必要とされている。
本発明の実施形態は、ジェスチャベーススキル検索のためのシステム及び方法を含む。メモリは、1つ以上の仮想アクションに関するマップを格納し、各仮想アクションは、実世界環境で対応するアクションを実行することに関連付けられたデータ集合に関連付けられる。ジェスチャベース検索サーバは、実世界環境でのユーザによるアクションに関するデータを取り込む。ジェスチャベース検索サーバは、仮想環境内でのユーザの現在の進捗レベルを特定し、これは、1つ以上の使用可能な仮想アクションに関連付けられる。ジェスチャベース検索サーバは、取り込まれたデータが、使用可能な仮想アクションのうちの特定された仮想アクションに対応することを、マップにより示される、取り込まれたデータと、特定された仮想アクションに関連付けられたデータ集合とのマッチングに基づいて、判別する。ジェスチャベース検索サーバは、1つ以上のデータベースで、特定された仮想アクションに対応する命令を検索し始める。
本発明の実施形態は、ジェスチャベーススキル検索のためのシステム及び方法を含む。メモリは、1つ以上の仮想アクションに関するマップを格納し、各仮想アクションは、実世界環境で対応するアクションを実行することに関連付けられたデータ集合に関連付けられる。ジェスチャベース検索サーバは、実世界環境でのユーザによるアクションに関するデータを取り込む。ジェスチャベース検索サーバは、仮想環境内でのユーザの現在の進捗レベルを特定し、これは、1つ以上の使用可能な仮想アクションに関連付けられる。ジェスチャベース検索サーバは、取り込まれたデータが、使用可能な仮想アクションのうちの特定された仮想アクションに対応することを、マップにより示される、取り込まれたデータと、特定された仮想アクションに関連付けられたデータ集合とのマッチングに基づいて、判別する。ジェスチャベース検索サーバは、1つ以上のデータベースで、特定された仮想アクションに対応する命令を検索し始める。
図1は、ジェスチャベーススキル検索のためのシステムが実装され得る例示的なネットワーク環境を示す。ネットワーク環境100は、配信用のデジタルコンテンツ(例えばゲーム、他のアプリケーション及びサービス)を提供する1つ以上のコンテンツソースサーバ110と、1つ以上のコンテンツプロバイダサーバアプリケーションプログラムインターフェース(API)120と、コンテンツ配信ネットワークサーバ130と、ジェスチャベース検索サーバ140と、1つ以上のユーザデバイス150A~150Nとを含み得る。本明細書で説明されるサーバには、ネットワークインターフェース及びメディアインターフェース、非一時的コンピュータ可読ストレージ(メモリ)、並びにメモリに格納され得る命令を実行するため、またはメモリに格納され得る情報にアクセスするためのプロセッサなど、標準のハードウェアコンピューティングコンポーネントを含む当技術分野で周知の任意の種類のサーバが含まれ得る。複数のサーバの機能は、単一のサーバに統合され得る。前述のサーバ(または統合されたサーバ)のいずれも、特定のクライアント側の特性、キャッシュの特性、またはプロキシサーバの特性を呈し得る。これらの特性は、サーバの特定のネットワーク配置またはサーバの特定の構成に依存し得る。
コンテンツソースサーバ110は、配信可能な様々なデジタルコンテンツを維持し、提供し得る。コンテンツソースサーバ110は、任意のコンテンツプロバイダに関連付けられ得、コンテンツプロバイダは、自身のコンテンツを、通信ネットワークを介してアクセス可能にする。このようなコンテンツには、デジタルビデオ及びゲームだけでなく、他の種類のデジタルアプリケーション及びサービスも含まれ得る。このようなアプリケーション及びサービスには、ユーザデバイス150に提供され得る任意の様々な異なるデジタルコンテンツ及び機能が含まれ得る。コンテンツソースサーバ110の例として、ダウンロード可能なコンテンツ及び/またはストリーミングコンテンツを提供するインターネットウェブサイトが挙げられ得る。コンテンツソースサーバ110により提供されるコンテンツには、映画、ゲーム、静的/動的コンテンツ、写真、ソーシャルメディアコンテンツ、ソーシャルメディアウェブサイトなど、任意の種類のマルチメディアコンテンツが含まれ得る。ユーザデバイス150には、複数の異なる種類のコンピューティングデバイスが含まれ得る。いくつかの実施形態では、コンテンツデータは、コンテンツソースサーバ110からコンピューティングデバイスに送信され、次に、コンテンツデータは、コンピューティングデバイスにより、ユーザデバイス150の使用に適したフォーマットにレンダリングされる。
コンテンツソースサーバ110からのコンテンツは、コンテンツプロバイダサーバAPI120を介して提供され得、これにより、様々な種類のコンテンツソースサーバ110が、ネットワーク環境100内の他のサーバ(例えばユーザデバイス150)と通信することが可能となる。コンテンツプロバイダサーバAPI120は、コンテンツを提供するコンテンツソースサーバ110、並びにユーザデバイス150の特定の言語、オペレーティングシステム、プロトコルなどに特化し得る。複数の異なる種類のコンテンツソースサーバ110を含むネットワーク環境100では、同様に対応する数のコンテンツプロバイダサーバAPI120が存在し得、これにより、異なるユーザデバイス150にコンテンツ及び他のサービスを提供するための様々なフォーマット化、変換、並びに他のクロスデバイス及びクロスプラットフォームの通信プロセスが可能となり、異なるユーザデバイス150は、異なるオペレーティングシステム、プロトコルなどを使用して、このようなコンテンツを処理し得る。よって、様々な異なるユーザデバイス150と互換性があるように、異なるフォーマットのアプリケーション及びサービスが使用可能な状態にされ得る。
コンテンツソースサーバ110はまた、ソーシャルメディアアプリケーションに関連付けられたオンラインサーバを含み得、ソーシャルメディアアプリケーションは、ユーザのソーシャルコンタクトを特定するために、ユーザに1つ以上のソーシャルメディアグラフを提供するようにプログラムされ得る。これらのユーザは、ソーシャルコンタクトではない、またはユーザと社会的に関連付けられていない場合があるが、ユーザと1つ以上のビデオゲームをプレイした可能性がある。友達リストは、各友達が所有するゲームの描写、友達のオンラインステータスの特定(例えばオンライン、オフライン、非アクティブなど)、友達の最新ログイン及びその期間、友達が最後にプレイしたゲームなど、ユーザの友達に関する追加情報を含み得る。ソーシャルネットワークは、ユーザデータを含み、これには、ユーザのソーシャルグラフ、投稿、写真、ビデオ、経歴情報などのデータが含まれる。
コンテンツプロバイダサーバAPI120はさらに、コンテンツソースサーバ110がホストするコンテンツまたは提供するサービスに、ユーザデバイス150のそれぞれが、直接またはコンテンツ配信ネットワークサーバ130を介して、アクセスすることを促進し得る。メタデータなど、アクセスされたコンテンツまたはサービスに関する追加情報も、コンテンツプロバイダサーバAPI120により、ユーザデバイス150に提供され得る。後述されるように、追加情報(すなわちメタデータ)は、ユーザデバイス150に提供されるコンテンツまたはサービスに関する詳細を提供するために使用可能であり得る。いくつかの実施形態では、コンテンツソースサーバ110からコンテンツプロバイダサーバAPI120を介してユーザデバイス150に提供されるサービスは、特定のゲーム、チーム、コミュニティなどに関連付けられたチャットサービス、評定、及びプロファイルなど、他のコンテンツまたはサービスに関連付けられたサービスに対応することを含み得る。このような事例では、コンテンツソースサーバ110はまた、コンテンツプロバイダサーバAPI120を介して、互いに通信し得る。
コンテンツ配信ネットワークサーバ130には、様々なコンテンツ構成及びサービス構成を含む、コンテンツソースサーバ110からのコンテンツに関連したリソース、ファイルなどを、ユーザデバイス150に提供するサーバが含まれ得る。コンテンツ配信ネットワークサーバ130は、特定のコンテンツまたはサービスへのアクセスを要求するユーザデバイス150によっても、呼び出され得る。コンテンツ配信ネットワークサーバ130には、汎用管理サーバ、ゲームサーバ、ストリーミングメディアサーバ、ダウンロード可能コンテンツをホストするサーバ、及び当技術分野で既知の他のコンテンツ配信サーバが含まれ得る。
ジェスチャベース検索サーバ140には、ユーザデバイス150からデータを受信することができる当技術分野で既知の任意のデータサーバが含まれ得る。ジェスチャベース検索サーバ140によりレンダリングされるコンテンツは、本質的に任意の種類のコンピュータアプリケーション用であり得、数ある中でもゲーム、映画、オーディオ、画像、マルチメディアなどの1つ以上の種類のコンテンツを含み得る。いくつかの実施形態では、コンテンツまたはコンテンツの部分は、ジェスチャベース検索サーバ140により生成される。いくつかの実施形態では、コンテンツまたはコンテンツの部分は、コンテンツソースサーバ110からネットワーク100を介してコンピューティングデバイスにストリーミングされる。いくつかの実施形態では、コンテンツまたはコンテンツの部分は、クラウドゲームインフラストラクチャからネットワーク100を介してコンピューティングデバイスにストリーミングされる。インフラストラクチャは、コンテンツソースサーバ110からネットワーク100を介してコンピューティングデバイスに様々な種類のコンテンツを送信するように、命令し得る。
例示的な実施形態では、ジェスチャベース検索サーバ140は、1つ以上のゲームタイトルの検索マップを含むストアを格納し得る、またはストアにアクセスし得る。各ゲームタイトルは、異なる検索マップに関連付けられ得、検索マップは、それぞれのゲームタイトルで使用可能なゲーム内アクション(例えばゲーム環境内で剣を振る)に関する情報、ゲーム内アクションがどのように実世界同等アクションに対応するかに関する情報(例えば実世界環境内でオブジェクトを振る)、及び1つ以上の種類のコントローラを使用してゲーム環境内でアクションを開始することに関連付けられた関連入力の組み合わせ(複数可)を含み得る。いくつかのゲームタイトルはさらに、関連するゲーム内環境の様々なレベル、アクティビティ、またはその他の部分で使用可能なアクションの種類を制限し得る。このような制限は、UDSシステムにより生成されるアクティビティファイル(図2に関連してさらに詳しく説明される)に保存され得、さらに、ゲーム環境またはゲームプレイセッションの特定の部分で、特定のゲームタイトルのゲームプレイに活発に関与する検索ユーザによる検索を、フィルタリングするために使用され得る。
ユーザに合わせてカスタマイズできる様々なトリガーを使用して、ジェスチャベーススキル検索が開始され得る。例えば、口頭コマンド、キーベースコマンド、またはジェスチャコマンドは、ユーザがこのようなジェスチャベーススキル検索を開始したいことを示し得る。このようなコマンドは、(例えばユーザデバイス(複数可)150の)カメラ及び/または他のセンサをトリガーして、ユーザがいる実世界環境に関する画像及び/または他のセンサデータを取り込み得る。例えば、カメラは、実世界で腕を振るユーザの画像を取り込み得、デジタル環境で剣を振るアバタが再現される。カメラ(図4に関連してさらに詳しく論じられる)は、カメラの立体視対、赤外線カメラ、深度カメラ、またはこれらの組み合わせなどの複数の画像取り込みデバイスを含むように構成され得る。いくつかの実施形態では、1つ以上のマイクロホン(図4に関連してさらに詳しく説明される)も使用して、ユーザの実世界環境から音声を取り込むことができる。一方、ユーザに(例えばコントローラ、モバイルデバイス、ウェアラブルデバイス、ハンドヘルドデバイスなどを経由して)関連付けられた他のセンサ(例えば加速度計、ジャイロスコープ)も、実世界アクションに関するデータを取り込み得る。
このような画像、音声、及び他のセンサデータは、分析のためにジェスチャベース検索サーバ140に提供され得る。ジェスチャベース検索サーバ140は、格納されたマップを使用して、実世界アクションに関する受信センサデータを、関連するゲームタイトル内で使用可能なゲーム内アクションとマッチングさせることが可能であり得る。いくつかの実施態様では、受信センサデータが、複数の使用可能なゲーム内アクションを示し得、このような場合、異なるパラメータを使用して、使用可能なゲーム内アクションがフィルタリングされ得る。上記のように、いくつかのゲームタイトルでは、ゲーム環境またはゲームセッションの様々な部分で、様々なゲーム内アクションが可能である。このようなデータは、アクティビティファイルで提供され、使用可能なゲーム内アクションをフィルタリングし、検索ユーザに現在関連付けられているゲーム環境またはゲームセッションの特定された部分で使用可能であり得るゲーム内アクションを特定するために使用され得る。代替的または付加的に、複数の使用可能なゲーム内アクションに関するメニューが、検索ユーザによる選択のために、グラフィカルユーザインターフェースに表示され得る。
ゲーム内アクションが特定または選択されると、ユーザに関連付けられたコントローラの表示、並びに特定されたゲーム内アクションを実行するためのコントローラの使用方法に関する指示を含むように、グラフィックユーザインターフェースがジェスチャベース検索サーバ140により更新され得る。このような指示には、視覚的指示、音声的指示、及び/またはテキストによる指示が含まれ得る。いくつかの実施形態では、指示は、ポップアップウィンドウ内にオーバーレイとして提供され得る。あるいは、ユーザがまだゲーム環境内でゲームプレイに関与している間は、ゲームプレイセッション中にユーザデバイス150に提供され得る。
よって、ジェスチャベース検索サーバ140は、実世界アクションに関するデータを1つ以上のゲーム内アクションにマッピングし、その後さらに、ゲーム内アクションのうちの特定された1つを、入力組み合わせ及び関連する命令にマッピングし得る。従って、ゲームを活発にプレイしているユーザは、(例えば従来のオンライン検索を実行するために)ゲーム内環境を離れることなく、現在のゲームプレイセッションを一時停止もしくは終了することなく、または別のデバイスもしくはプラットフォームに切り替えることなく、ジェスチャベース検索サーバ140により実行される検索を開始し得る。
ユーザデバイス150は、ネットワーク環境100内で(例えば他のサーバに)内部サービスを提供するサーバであり得る。このような場合、ユーザデバイス150は、本明細書で説明されるコンテンツソースサーバ110のうちの1つに対応し得る。あるいは、ユーザデバイス150は、任意の数の異なるゲームコンソール、モバイルデバイス、ラップトップ、及びデスクトップを含み得るクライアントデバイスであってもよい。このようなユーザデバイス150はまた、非限定的に例えば、ダウンロードされたサービスの場合に好適であり得るメモリカードまたはディスクドライブなどの他の記憶媒体のデータに、アクセスするように構成され得る。このようなユーザデバイス150は、非限定的に例えばネットワークインターフェース、メディアインターフェース、非一時的コンピュータ可読ストレージ(メモリ)、及びメモリに格納され得る命令を実行するプロセッサなど、標準的ハードウェアコンピューティングコンポーネントを含み得る。これらのユーザデバイス150はまた、様々な異なるオペレーティングシステム(例えばiOS、Android(登録商標))、アプリケーション、またはコンピューティング言語(例えばC++、JavaScript(登録商標))を用いて、実行され得る。例示的なクライアントデバイス150は、図5に関して本明細書で詳しく説明される。各ユーザデバイス150は、デジタルコンテンツストリームのコレクションの参加者または他の種類の観客に関連付けられ得る。
いくつかの実施形態では、ユーザデバイス150は、コンピューティングデバイスまたはゲームコンソールの処理ハードウェア上のローカルでゲームを実行するように構成される。ゲームまたはコンテンツは、物理メディア形態など(例えばデジタルディスク、テープ、カード、サムドライブ、ソリッドステートチップ、またはソリッドステートカードなど)の任意の形態で、または通信ネットワークを介してインターネットからダウンロードすることにより、取得され得る。いくつかの実施形態では、コンピューティングデバイスは、通信ネットワークを介したクラウドゲームインフラストラクチャとの通信において、クライアントとして機能する。クラウドゲームインフラストラクチャは、ユーザデバイス150によりプレイされているビデオゲームを維持及び実行し得る。ユーザデバイス150、コントローラ、及びカメラ(及び他のセンサ)から受信された入力は、クラウドゲームインフラストラクチャに送信され得、クラウドゲームインフラストラクチャは、入力を処理して、実行中のビデオゲームのゲーム状態に反映させる。
ビデオデータ、オーディオデータ、及び触覚フィードバックデータなどのビデオゲームからのゲームデータは、コンテンツソースサーバ110からユーザデバイス150へ送信され得る。コンピュータシステムはさらに、好適なデバイスに送信する前にゲームデータを処理してもよく、または好適なデバイスにゲームデータを直接送信してもよい。例えば、ビデオ及びオーディオストリームは、ユーザデバイス150に送信され得る。
ユーザデバイス150はまた、ユーザデバイス150内の慣性センサから慣性センサデータを受信するように構成されたコントローラを含み得る、またはコントローラに関連付けられ得る。慣性センサデータは、ユーザデバイス150が関連付けられたユーザの動きに従ったコントローラ及び/またはユーザデバイス150の動きを示す。ユーザの動きは、ユーザデバイス150内に表示される仮想現実シーンに基づく。慣性センサデータから、ユーザデバイス150の動きの経路または軌跡及び動きの速度が特定され得る。いくつかの実施形態では、ヘッドマウントディスプレイの動きの経路または軌跡は、前傾、後傾、左傾、右傾、頭部左回転、頭部右回転、頭部上向き傾斜、頭部下向き傾斜、スクワット、及びジャンプを含むユーザの動きの集合内の1つ以上のユーザの動きに対応する。しかし、他の実施形態では、ヘッドマウントディスプレイの動きの経路または軌跡は、本質的に、人体の運動能力内の任意のユーザの動きに対応し得る。
いくつかの実施形態では、ユーザデバイス150または別のコンピューティングデバイス、例えばテレビ、コンピュータなどに表示される仮想現実(VR)または拡張現実(AR)シーン内で、ユーザデバイス150を使用して、仮想オブジェクトを、例えばつかむ、動かす、押す、引くなど操作することができる。ユーザがユーザデバイス150を装着している状態で自身の手を動かすと、ゲーム内の仮想手が動く。さらに、ユーザがユーザデバイス150を装着している状態で自身の指を動かすと、ゲーム内の仮想手の指が動く。指の位置及び/または配向は、上記及び図5に記載されるカメラを使用して取り込まれた画像データから特定され、仮想手の指の動きが生成される。仮想オブジェクトの1つ以上の例として、仮想車両、ユーザの仮想手、仮想ユーザ、仮想剣、ユーザのアバタ、仮想指、仮想指関節、仮想木、仮想花などが挙げられる。
ユーザデバイス150のディスプレイは、仮想インタラクティブオブジェクトを有する仮想空間または仮想環境に、アバタを組み込んだ3次元シーンを生成し得る。ジェスチャベース検索サーバ140は、ユーザデバイス150により取り込まれたユーザに関する視覚的情報及び/または距離情報を受信する。ジェスチャベース検索サーバ140は、ユーザの動きを記述する動き情報を抽出する。動き情報は、ユーザの身体内の主要点から構成されたユーザの「骨格」の動きを記述するように、符号化され得る。ジェスチャベース検索サーバ140は、ユーザのユーザデバイス150A~150Nに提示されるVR空間に、ユーザのアバタ、識別子、代表的な画像などのユーザ関連情報を導入することを可能にすることにより、コンテンツの増強を可能にし得る。
ユーザのアバタは、単一のデジタル画像からアニメーション化された3Dアバタに自動的に変換され得る。具体的には、ユーザは、デジタル画像または他の画像をユーザデバイス150にアップロードし、引き換えに、様々な顔の表情及び/またはアニメーションを特徴とする1つ以上のアバタを受け取り得る。アバタは、任意の静止画像またはアニメーション画像(例えばGIF形式)としてユーザに表示され、使用される。例えば、アバタは、SMS、MMS、電子メールメッセージ、チャット(Facebook(登録商標)チャットなど)、インスタントメッセンジャー(SkypeまたはWindows(登録商標)メッセンジャーなど)、Twitter(登録商標)、ブログ、フォーラム、またはユーザの感情を表示する目的の他の電子通信手段を介して、他のユーザに送信され得る。
いくつかの実施形態では、アバタは、ユーザに現実的に基づき得、例えば同じ顔の特徴、衣服、及び体型を有する。他の実施形態では、アバタは、例えばユーザの動きを、有名人、映画スター、政治家、ビデオゲームのキャラクタ、または別のユーザの顔の特徴にマッピングすることにより、意図的に非現実的にされ得る。アバタは、現実的な要素と意図的に非現実的な要素との融合であり得、例えばユーザの顔がアバタに使用され得るが、異なる衣服または異なる体型がアバタに与えられ得る。あるいは、ユーザの体がアバタに使用され得るが、有名人、映画スター、政治家、ビデオゲームのキャラクタ、または別のユーザの顔がアバタに与えられ得る。
実施形態では、Sony(登録商標)Playstation 3(登録商標)エンターテインメントデバイス(PS3)などのユーザデバイス150Aのユーザは、オンラインサーバから使用可能な多数の仮想3D環境のうちの1つのインスタンス内をナビゲートし、各仮想3D環境には、現在オンラインである他のユーザの総数のうちの比較的少ない割合が存在する。この環境内では、これらのユーザはアバタで表され、これにより、他のユーザデバイス150B~150N上の他のユーザとのソーシャルインタラクション、及び仮想環境自体とのソーシャルインタラクションが可能となり、仮想環境は、ビリヤード台、ボウリング場、アーケードゲーム、及びテレビ画面のストリーミングオンラインコンテンツなどの設備を提供し得る。
ユーザデバイス150Aは、ユーザの動き及び/または対応するアバタの動きを記述する情報を、他のユーザデバイス150B~150Nに、またはジェスチャベース検索サーバ140に送信し、ジェスチャベース検索サーバ140は次に、この情報を他のユーザデバイス150B~150Nに送り、これにより、他のユーザデバイス150B~150Nは、アバタによる正確な動きを特徴とするシーンを生成することができる。ユーザデバイス150Aは、他のユーザの動き及び/または対応するアバタの動きを記述する情報を、他のユーザデバイス150B~150Nから、またはジェスチャベース検索サーバ140などの仲介デバイスから受信し、ジェスチャベース検索サーバ140は次に、この情報を他のユーザデバイス150B~150Nから受信すると、この情報を第1のユーザデバイス150Aに送り、これにより、第1のユーザデバイス150Aは、第2のアバタによる正確な動きを特徴とするシーンを生成することができる。
ユーザデバイス150Aに関連付けられたユーザは、各ユーザの物理的環境の特性に基づいて、仮想現実環境内で他のユーザデバイス150B~150Nとマッチングされ得る。一実施例では、各ユーザが位置する物理空間の特性に関する情報は、ジェスチャベース検索サーバ140により受信され得る。各ユーザの物理空間の特性に関する情報を使用して、類似した特性を有する異なる物理空間に位置するユーザがマッチングされ得る。ユーザは、仮想マルチプレーヤエンターテインメント体験に参加するためにマッチングされる。このマッチングは、各ユーザが位置する物理空間の特性に基づき得る。例えば、マッチングは、各ユーザが位置する物理空間の特性の類似度に基づいて実行され得る。
ユーザデバイス150またはコンピューティングデバイスは、取り込まれたユーザの動きの表現を生成し、ユーザの動きの生成された表現をアバタに実行させる。ユーザデバイス150はまた、受信された第2のユーザの動きの表現を生成し、第2のユーザの動きの生成された表現を第2のアバタに実行させる。ユーザデバイス150はまた、必要に応じて、仮想空間または仮想環境、並びに任意の仮想インタラクティブオブジェクトを更新する。
仮想環境内のイベントが物理基準位置に関して参照されるように、仮想環境内の任意の関連イベントは、共通の座標系を使用してユーザデバイス150間で通信され得る。共通の座標系を確立するために、位置データの単一インスタンスのみがユーザデバイス150間で交換される必要があり、確かにこれは実のところ、データの一方向転送であり得る(1つのユーザデバイス150Aは別のユーザデバイス150Bに、第1のユーザデバイス150Aの第2のユーザデバイス150Bに対する位置及び配向を伝える)。しかし、ユーザデバイス150が位置データを複数回交換する、例えば共有された座標系での仮想インタラクションのセッション中に頻繁に交換する場合、より信頼性が高くなる可能性がある。実環境におけるユーザデバイス150の後続の関連する動きは、仮想環境において再現され得る。従って、ユーザデバイスの実際位置と仮想位置は、実質的に一致することが理解されよう。
共通基準位置から離れる後続の動きは、ユーザデバイス150の加速度計及びジャイロスコープ(動きセンサ)を使用して、ジェスチャベース検索サーバ140(動き追跡構造として機能する)により追跡され、共通基準位置に関する変位及び配向の累積的な変化が維持され得る。加速度、速度、変位(側方及び回転の両方)の関係はよく知られており、ここでは詳しく説明しない。加速度計及びジャイロスコープは別個に言及されてもよく、または動きセンサとしてまとめて言及されてもよいが、加速度計及びジャイロスコープはまとめて加速度計と見なすこともでき、主な違いは検出された加速度の側方性質または回転性質であることが理解されよう。
図2は、ジェスチャベーススキル検索のためのシステムにデータを提供するのに使用され得る例示的なユニフォームデータシステム(UDS)200を示す。UDSにより提供されるデータに基づいて、ジェスチャベース検索サーバ140は、ユーザが関与したゲーム内オブジェクト、エンティティ、アクティビティ、及びイベントを認識し、よって、ゲーム内アクティビティの分析、及びゲーム内アクティビティに関連するフィルタリングに対応することができる。各ユーザインタラクションは、ゲーム内インタラクションの種類、ゲーム内環境における位置、ゲーム内タイムラインにおける時点、並びに関与する他のプレーヤ、オブジェクト、エンティティなどのメタデータに関連付けられ得る。よって、関連するアクティビティ、エンティティ、設定、結果、アクション、効果、位置、及びキャラクタ統計を含む、ゲームセッション中に発生し得る様々なユーザインタラクションのいずれに関しても、メタデータを追跡することができる。このようなデータはさらに、集約され、データモデルに適用され、分析対象となり得る。このようなUDSデータモデルを使用して、ゲームにわたり統一した方法で、コンテキスト情報が情報の各部分に割り当てられ得る。
図2に示されるように、例示的なコンソール228(例えばユーザデバイス150)と、例示的なサーバ218(例えばストリーミングサーバ220、アクティビティフィードサーバ224、ユーザ生成コンテンツ(UGC)サーバ232、及びオブジェクトサーバ226)とが示される。一実施例では、コンソール228は、コンテンツソースサーバ110、コンテンツ配信ネットワークサーバ130、クラウドサーバで実施され得、またはこれらと関連して実施され得、あるいはサーバ218と図1のサーバとの任意の組み合わせで実施され得る。例示的な実施例では、コンテンツレコーダ202は、インタラクティブコンテンツタイトル230からのコンテンツ(例えばメディア)を受信して、コンテンツリングバッファ208に記録し得る。このようなリングバッファ208は、複数のコンテンツセグメント(例えばv1、v2及びv3)と、各セグメントの開始時刻(例えばV1_START_TS、V2_START_TS、V3_START_TS)と、各セグメントの終了時刻(例えばV1_END_TS、V2_END_TS、V3_END_TS)とを格納し得る。このようなセグメントは、コンソール228によりメディアファイル212(例えばMP4、WebMなど)として格納され得る。このようなメディアファイル212は、格納及びその後のストリーミングまたは使用のためにストリーミングサーバ220にアップロードされ得るが、メディアファイル212は、任意のサーバ、クラウドサーバ、任意のコンソール228、または任意のユーザデバイス150に格納されてもよい。各セグメントのこのような開始時刻及び終了時刻は、コンテンツタイムスタンプファイル214としてコンソール228により格納され得る。このようなコンテンツタイムスタンプファイル214は、ストリーミングIDも含み得、これはメディアファイル212のストリーミングIDと一致し、これにより、コンテンツタイムスタンプファイル214は、メディアファイル212に関連付けられる。このようなコンテンツタイムスタンプファイル214は、アクティビティフィードサーバ224及び/またはUGCサーバ232にアップロードされ格納され得るが、コンテンツタイムスタンプファイル214は、任意のサーバ、クラウドサーバ、任意のコンソール228、または任意のユーザデバイス150に格納されてもよい。
コンテンツレコーダ202がインタラクティブコンテンツタイトル230からコンテンツを受信して記録すると同時に、オブジェクトライブラリ204は、インタラクティブコンテンツタイトル230からデータを受信し、オブジェクトレコーダ206は、データを追跡して、オブジェクトの開始時及び終了時を特定する。オブジェクトライブラリ204及びオブジェクトレコーダ206は、プラットフォームサーバ120、クラウドサーバ、またはサーバ218のうちのいずれかに実装され得る。オブジェクトレコーダ206がオブジェクトの開始を検出すると、オブジェクトレコーダ206は、オブジェクトライブラリ204からオブジェクトデータ(例えばオブジェクトがアクティビティである場合は、アクティビティとのユーザインタラクション、アクティビティID、アクティビティ開始時刻、アクティビティ終了時刻、アクティビティ結果、アクティビティ種類など)を受信し、アクティビティデータ(例えばActivityID1,START_TS、ActivityID2,START_TS、ActivityID3,START_TS)をオブジェクトリングバッファ210に記録する。オブジェクトリングバッファ210に記録されるこのようなアクティビティデータは、オブジェクトファイル216に格納され得る。このようなオブジェクトファイル216はまた、アクティビティ開始時刻、アクティビティ終了時刻、アクティビティID、アクティビティ結果、アクティビティ種類(例えば対抗試合、クエスト、タスクなど)、アクティビティに関連するユーザデータまたはピアデータを含み得る。例えば、オブジェクトファイル216は、アクティビティ中に使用されるアイテムに関するデータを格納し得る。このようなオブジェクトファイル216は、オブジェクトサーバ226に格納され得るが、オブジェクトファイル216は、任意のサーバ、クラウドサーバ、任意のコンソール228、または任意のユーザデバイス150に格納されてもよい。
このようなオブジェクトデータ(例えばオブジェクトファイル216)は、コンテンツデータ(例えばメディアファイル212及び/またはコンテンツタイムスタンプファイル214)に関連付けられ得る。一実施例では、UGCサーバ232は、コンテンツタイムスタンプファイル214を格納し、コンテンツタイムスタンプファイル214のストリーミングIDと、オブジェクトファイル216の対応するアクティビティIDとのマッチングに基づいて、コンテンツタイムスタンプファイル214をオブジェクトファイル216に関連付ける。別の実施例では、オブジェクトサーバ226は、オブジェクトファイル216を格納し得、オブジェクトファイル216に関するクエリをUGCサーバ232から受信し得る。このようなクエリは、クエリと共に送信されるコンテンツタイムスタンプファイル214のストリーミングIDにマッチングするオブジェクトファイル216のアクティビティIDを検索することにより、実行され得る。さらに別の実施例では、格納されたコンテンツタイムスタンプファイル214のクエリは、コンテンツタイムスタンプファイル214の開始時刻及び終了時刻を、クエリと共に送信される対応するオブジェクトファイル216の開始時刻及び終了時刻とマッチングさせることにより、実行され得る。このようなオブジェクトファイル216も、UGCサーバ232により、マッチングしたコンテンツタイムスタンプファイル214に関連付けられ得るが、関連付けは、任意のサーバ、クラウドサーバ、任意のコンソール228、または任意のユーザデバイス150によって実行されてもよい。別の実施例では、オブジェクトファイル216及びコンテンツタイムスタンプファイル214は、各ファイル216、214の作成中に、コンソール228により関連付けられ得る。
UDS200により生成されたアクティビティファイルは、ジェスチャベース検索サーバ140により提供またはアクセスされ得、実世界アクションに関するデータを分析、フィルタリングし、1つ以上のマップでゲーム内アクションとマッチングするのに使用される。例えば、アクティビティファイルは、検索ユーザが検索を開始した時に、1つ以上のゲーム内アクションを実行する特定のピアプレーヤによる特定のゲームタイトルの特定のゲームプレイセッションに関するゲームプレイデータを含み得る。ジェスチャベース検索サーバ140は、アクティビティファイルからのデータを使用して、ゲームタイトル、プレーヤ、実行されているゲーム内アクション、及びゲーム内アクションと検索トリガーとの時間的近接性(例えばリアルタイムまたはほぼリアルタイムで検索するため)を特定し得る。検索を行う際の特定されたパラメータまたは条件は、関連性の検索結果をフィルタリングするために、ジェスチャベース検索サーバ140により使用され得る。
図3は、ジェスチャベーススキル検索のための例示的な方法を示すフローチャートである。図3の方法300は、CD、DVD、またはハードドライブなどの不揮発性メモリを含むがこれらに限定されない非一時的コンピュータ可読記憶媒体内に、実行可能な命令として具現化され得る。記憶媒体の命令は、プロセッサ(複数可)により実行されて、記憶媒体をホストする、あるいは記憶媒体にアクセスするコンピューティングデバイスの様々なハードウェアコンポーネントに、方法を実施させ得る。図3に特定されたステップ(及びステップの順序)は、例示的なものであり、ステップの様々な代替物、均等物、または派生物を含み得、これにはステップの実行順序が含まれるが、これに限定されない。
ステップ310にて、1つ以上の仮想アクションに関するマップがメモリに格納される。各仮想アクション(例えば仮想環境内で実行されるアクション)は、実世界環境での対応するアクションの実行に関連付けられたデータ集合に、及び仮想アクションのパフォーマンスを生じる入力組み合わせに関する命令データに、関連付けられる。マップの様々なバリエーションは、特定のゲームタイトル、ゲームタイトルの集合、ゲームジャンル、ゲーム開発者、ゲームコンソール、ゲームコントローラ、コントローラ変更形態の集合、ゲーム環境、ゲーム内アクティビティなどに関連付けられ得る。
ステップ320にて、実世界環境内のユーザによる動きに関するデータが取り込まれる。実世界環境内のユーザによる動きは、ユーザデバイス150(及び関連センサ)により取り込まれた実世界環境データにより示され得る。データは、ユーザデバイス150のカメラにより取り込まれた画像データであり得る。別の実施形態では、データは、ユーザデバイス150上の慣性センサにより取り込まれ得る。1つ以上の画像と、ユーザデバイス150により取り込まれた実世界環境とインタラクトするユーザの画像データと共に、実世界環境データは、ジェスチャベース検索サーバ140に転送され得る。
ステップ330にて、仮想環境内のユーザの現在の進捗レベルは、ユーザによる現在のゲームプレイに関連付けられた1つ以上のアクティビティファイルに基づいて、特定され得る。現在の特定された進捗レベルは、1つ以上の使用可能な仮想動作に関連付けられる。ユーザは、ユーザの特定された進捗レベル及び他のユーザの進捗レベルに基づいて、他のユーザのうちの1人以上とマッチングされ得る。他のユーザに関連付けられたアクティビティファイルも取得され、ステップ320で取り込まれた実世界動作データを分析するのに使用され得る。
ステップ340にて、取り込まれたデータが、使用可能な仮想動作のうちの特定された仮想動作に対応することが、マップにより示される、取り込まれたデータと、特定された仮想動作に関連付けられたデータ集合とのマッチングに基づいて、判別される。実施形態では、取り込まれたデータと、特定された仮想動作に関連付けられたデータ集合との差は、マップにより示される。差が所定の閾値内である場合、取り込まれたデータは、特定された使用可能な仮想動作に対応することが判定され得る。実施形態では、使用可能な仮想動作は、仮想動作を正しく実行する他のユーザに基づいてフィルタリングされ、1つ以上の使用可能な仮想動作は、フィルタリングされたユーザに基づく。
ステップ350にて、1つ以上のデータベースで、特定された仮想動作に対応する命令の検索が開始される。いくつかの実施形態では、命令は、マップ自体に格納され得る。マップはまた、命令が保持される他のデータベースへのリンクを有してもよく、あるいは他のデータベースを指してもよい。よって、特定されたゲーム内アクションの命令は取得され、ユーザデバイス150に提供され得る。
図4は、ジェスチャベーススキル検索を実行するのに使用され得る例示的なユーザデバイスのブロックレベル図である。有効な構成及び機能に応じて、図4に示されるコンポーネントより多いまたは少ないコンポーネントが、ユーザデバイス400に含まれてもよく、ユーザデバイスから除外されてもよいことを、理解されたい。ユーザデバイス400は、プログラム命令を実行するためのプロセッサ402を含み得る。メモリ406がデータ格納目的で設けられ、メモリ406には、揮発性メモリ及び不揮発性メモリの両方が含まれ得る。ユーザが視認することができる視覚的インターフェースを提供するディスプレイ416が含まれる。ディスプレイ416は、1つの単一ディスプレイで、または目ごとの別個のディスプレイ画面の形態で、定義され得る。2つのディスプレイ画面が提供される場合、左目のビデオコンテンツと右目のビデオコンテンツを別々に提供することが可能である。例えば、各目に対しビデオコンテンツを別個に表示することにより、仮想現実シーンの三次元コンテンツの臨場感制御が向上し得る。
動き検出モジュール418は、磁力計420、加速度計424、及びジャイロスコープ426などの様々な種類の動き検知ハードウェアのうちのいずれかを含み得る。ユーザデバイス400には、慣性センサ422が備えられ得、慣性センサ422は、ユーザデバイス400が関連付けられたユーザの動きに従って、ユーザデバイス400の動きを示す慣性センサデータを生成するように構成される。磁力計420は、ユーザデバイス400付近の磁場の強度及び方向を測定する。いくつかの実施形態では、ユーザデバイス400内で3つの磁力計420を使用して、世界空間ヨー角度の絶対基準が確保される。いくつかの実施形態では、磁力計420は、地球の磁場である±80マイクロステラの範囲で測定するように設計される。磁力計は、金属の影響を受け、実際のヨーによる単調なヨー測定を提供する。磁場は環境内の金属により歪む場合があり、これによりヨー測定に歪みが生じる。必要に応じて、この歪みは、ジャイロスコープまたはカメラなどの他のセンサからの情報を用いて、較正することができる。いくつかの実施形態では、ユーザデバイス400の傾斜角及び方位角を得るために、加速度計424が磁力計420と共に使用される。
いくつかの実施形態では、本発明はまた、ユーザの身体上に配置された1つ以上の外部慣性センサも含み得る。本発明は、ユーザにより行われた具体的な動きを特定するために、外部慣性センサデータを、ユーザデバイス400内の慣性センサ422から受信された慣性センサデータと比較する動作を含み得る。
加速度計424は、加速度及び重力誘起反力を測定するデバイスである。単軸モデル及び多軸(例えば6軸)モデルが、様々な方向の加速の大きさ及び方向を検出することができる。加速度計424を使用して、傾き、振動、及び衝撃が感知される。一実施形態では、3つの加速度計424を使用して重力方向が提供され、これにより、2つの角度(世界空間ピッチ及び世界空間ロール)の絶対基準が与えられる。
ジャイロスコープ426は、角運動量の原理に基づいて、配向を測定または維持するためのデバイスである。一実施形態では、3つのジャイロスコープ426は、慣性感知に基づいて、それぞれの軸(x、y、及びz)にわたる動きに関する情報を提供する。ジャイロスコープ426は、高速回転の検出に役立つ。しかし、ジャイロスコープ426は、絶対基準の存在なしでは、時間の経過と共にドリフトし得る。このため、定期的にジャイロスコープ426を再設定する必要があり、再設定は、オブジェクトの視覚追跡、加速度計、磁力計などに基づく位置/配向特定といった、他の使用可能な情報を用いて行われ得る。
ユーザデバイス400が露出する実世界環境の画像及び画像ストリームを取り込むために、カメラ404が設けられる。後面カメラ404(ユーザがユーザデバイス400のディスプレイを見ている時にユーザから離れる方向を向くカメラ)と、前面カメラ404(ユーザがユーザデバイス400のディスプレイを見ている時にユーザ側を向くカメラ)とを含む複数のカメラ404が(任意で)、ユーザデバイス400に含まれ得る。いくつかの実施形態では、ユーザデバイス400が露出する実世界環境内の物体の深度情報を感知するためのカメラ404が、ユーザデバイス400に含まれ得る。
ユーザデバイス400には、オーディオ出力を提供するためのスピーカ412が含まれる。また、周囲環境からの音、ユーザによる発言などを含む実世界環境からの音声を取り込むために、マイクロホン414も含まれ得る。
無線ネットワーク技術を介してユーザデバイス400のインターネットへの接続を可能にするために、WiFi(登録商標)モジュール410が含まれ得る。また、ユーザデバイス400は、他のデバイスへの無線接続を可能にするために、ブルートゥース(登録商標)モジュール408も含み得る。
図4に示されるユーザデバイス400のコンポーネントは、ユーザデバイス400に含まれ得るコンポーネントの例であり、ユーザデバイス400に含むことができる全ての可能なコンポーネントを表すものではないことを、理解されたい。例えば、様々な実施形態では、ユーザデバイス400は、図4に示されるコンポーネントのうちのいくつかを含んでもよく、または含まなくてもよい。いくつかの実施形態では、ユーザデバイス400は、図4に示されていない追加のコンポーネントを含み得る。
例示的な実施形態では、検索ユーザは、仮想環境内でアバタ(例えばピアプレーヤに関連付けられたアバタ)により実行されているゲーム内動作430を見ることができる。図4に示されるゲーム内動作430は、ジャンプまたは飛躍であり得る。ユーザは、ジェスチャベース検索をトリガーした後、実世界環境で対応するジェスチャ440を実行し得る。ユーザは、ユーザデバイス400の1つ以上のセンサを、保持している、装着している、あるいはユーザデバイス400の1つ以上のセンサの検知範囲内に存在している状態であり得る。ユーザデバイス400は、ユーザジェスチャ440に関するセンサデータを、分析のために、ジェスチャベース検索サーバ140に提供し得る。
ジェスチャベース検索サーバ140は、センサデータにより特徴付けられるユーザジェスチャ440が、1つ以上の使用可能なゲーム内動作に関連付けられていることを特定し得る。検索をトリガーした条件に関連付けられた1つ以上のアクティビティファイルに基づいて、使用可能なゲーム内動作は、さらにフィルタリングされ得る。例えば、検索は、特定のゲームプレイセッション中に、または特定のゲームプレイセッションに時間的に近接して、トリガーされた可能性がある。よって、フィルタリングされたゲーム内動作の部分集合が特定され得る。ジェスチャベース検索サーバ140はさらに、特定または選択されたゲーム内動作が、特定または選択されたゲーム内動作を生じる入力組み合わせに対応する命令集合にマッピングされることを、特定し得る。その後、ジェスチャベース検索サーバ140は、マッピングされた命令集合に基づいてコンボディスプレイ440を生成し、生成したコンボディスプレイ440を、提示及び表示するように、ユーザデバイス150に提供し得る。
図5は、本発明の実施形態で使用され得る例示的な電子エンターテインメントシステムのブロック図である。エンターテインメントシステム500は、電子ゲームコンソールであり得る。あるいは、エンターテインメントシステム500は、汎用コンピュータ、セットトップボックス、ハンドヘルドゲームデバイス、タブレットコンピューティングデバイス、モバイルコンピューティングデバイス、または携帯電話として実装され得る。エンターテインメントシステムは、特定のフォームファクタ、目的、または設計に応じてより多くのまたはより少ない動作コンポーネントを含み得る。
図5のCPU510、ベクトルユニット515、グラフィック処理装置520、及びI/Oプロセッサ525は、システムバス585を介して通信する。さらに、図5のCPU510は、専用バス580を介してメインメモリ505と通信し、一方、ベクトルユニット515とグラフィック処理装置520は、専用バス590を介して通信し得る。図5のCPU510は、OS ROM555及びメインメモリ505に格納されたプログラムを実行する。図5のメインメモリ505は、事前に格納されたプログラムと、光ディスク制御ユニット570を使用してCD-ROM、DVD-ROM、または他の光ディスク(図示せず)からI/Oプロセッサ525を介して転送されたプログラムとを含み得る。図5のI/Oプロセッサ525はまた、無線または他の通信ネットワーク(例えば4G、LTE、及び3Gなど)を介して転送されるコンテンツの導入を可能にし得る。図5のI/Oプロセッサ525は主に、CPU510、ベクトルユニット515、グラフィック処理装置520、及びコントローラインターフェース535を含むエンターテインメントシステム500の様々なデバイス間のデータ交換を制御する。
図5のグラフィック処理装置520は、CPU510及びベクトルユニット515から受信したグラフィック命令を実行して、ディスプレイデバイス(図示せず)に表示する画像を生成する。例えば、図5のベクトルユニット515は、オブジェクトを三次元座標から二次元座標に変換し、二次元座標をグラフィック処理装置520に送信し得る。さらに、音声処理装置560は、命令を実行して音声信号を生成し、音声信号は、スピーカ(図示せず)などのオーディオデバイスに出力される。他のデバイスは、USBインターフェース545、及び無線トランシーバなどのIEEE1394インターフェース550を介して、エンターテインメントシステム500に接続され得、これらは、システム500の中に、またはプロセッサなどの何らかの他のコンポーネントの一部として、埋め込まれ得る。
図5のエンターテインメントシステム500のユーザは、コントローラインターフェース535を介して、CPU510に命令を提供する。例えば、ユーザは、特定のゲーム情報をメモリカード540または他の非一時的コンピュータ可読記憶媒体に格納するようにCPU510に命令し得る、または何らかの具体的なアクションを実行するようにゲーム内のキャラクタに命令し得る。
本発明は、様々なエンドユーザデバイスにより動作可能であり得るアプリケーションに実装され得る。例えば、エンドユーザデバイスは、パーソナルコンピュータ、ホームエンターテインメントシステム(例えばSony PlayStation2(登録商標)またはSony PlayStation3(登録商標)またはSony PlayStation4(登録商標))、ポータブルゲームデバイス(例えばSony PSP(登録商標)またはSony Vita(登録商標))、または下位ではあるが異なる製造業者のホームエンターテインメントシステムであり得る。本明細書で説明される本発明の方法は、様々なデバイスで動作可能であることが十分に意図される。本発明はまた、クロスタイトル中立性により実施され得、本システムの実施形態は、様々な発行者からの様々なタイトルにわたり利用することができる。
本発明は、様々なデバイスを使用して動作可能であり得るアプリケーションに実装され得る。非一時的コンピュータ可読記憶媒体は、実行のために命令を中央処理装置(CPU)に提供することに関与する任意の媒体(複数可)を指す。このような媒体は、光ディスクもしくは磁気ディスク及びダイナミックメモリなどの不揮発性媒体及び揮発性媒体をそれぞれ含むがこれらに限定されない多くの形態をとり得る。非一時的コンピュータ可読媒体の一般的な形態には、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、任意の他の磁気媒体、CD-ROMディスク、デジタルビデオディスク(DVD)、任意の他の光学媒体、RAM、PROM、EPROM、FLASHEPROM、及び任意の他のメモリチップまたはカートリッジが含まれる。
実行のために1つ以上の命令の1つ以上のシーケンスをCPUに伝えることに、様々な形態の伝送媒体が関与し得る。バスは、データをシステムRAMに伝え、CPUは、システムRAMから命令を取得して実行する。任意で、システムRAMにより受信された命令は、CPUによる実行前または実行後のいずれかに、固定ディスクに格納され得る。様々な形態のストレージが、ストレージを実施するのに必要なネットワークインターフェース及びネットワークトポロジと同様に、実装され得る。
本技術の上記の詳細な説明は、例示及び説明の目的で提示されている。これは、包括的であること、または開示された詳細な形態に本技術を限定することを、意図するものではない。上記の教示に照らして、多くの変更形態及び変形形態が可能である。説明される実施形態は、本技術の原理及びその実際の適用を最も良く説明するために、かつ、他の当業者が、様々な実施形態において、及び企図する特定の使用に適した様々な変更形態により、本技術を利用することを可能にするために、選択された。本技術の範囲は、特許請求の範囲により定義されることが意図される。
Claims (19)
- ジェスチャベーススキル検索の方法であって、
メモリに1つ以上の仮想アクションに関するマップを格納することであって、各仮想アクションは、実世界環境で対応するアクションを実行することに関連付けられたデータ集合に関連付けられる、前記格納することと、
前記実世界環境でのユーザによるアクションに関するデータを取り込むことと、
前記仮想環境内の前記ユーザの現在の進捗レベルを特定することであって、前記特定された現在の進捗レベルは、1つ以上の使用可能な仮想アクションに関連付けられる、前記特定することと、
前記取り込まれたデータが、前記使用可能な仮想アクションのうちの特定された仮想アクションに対応することを、前記マップにより示される、前記取り込まれたデータと、前記特定された仮想アクションに関連付けられた前記データ集合とのマッチングに基づいて、判別することと、
前記特定された仮想アクションに対応する命令の表示を生成することと、
を含む、方法。 - 前記格納されたマップは、さらに、前記特定された仮想アクションに対応する前記命令に関するデータを格納する、請求項1に記載の方法。
- 前記命令の前記表示を生成することは、前記格納されたマップに基づく、請求項1に記載の方法。
- 前記実世界環境での前記ユーザによる前記アクションに関する前記データは、カメラ、加速度計、ジャイロスコープ、及び慣性センサのうちの少なくとも1つにより取り込まれる、請求項1に記載の方法。
- 前記取り込まれたデータが前記特定された仮想アクションに対応することを判別することは、さらに、前記取り込まれたデータと、前記特定された仮想アクションに関連付けられた前記データ集合との差が、所定の閾値内にあることに基づく、請求項1に記載の方法。
- 前記取り込まれたデータが前記使用可能な仮想アクションのうちの特定された仮想アクションに対応することを判別することは、検索トリガーまたは前記現在の進捗レベルに関連付けられた1つ以上の条件に基づいて、前記使用可能な仮想アクションをフィルタリングすることを含む、請求項1に記載の方法。
- 前記検索トリガーまたは前記現在の進捗レベルに関連付けられた1つ以上のアクティビティファイルに基づいて、前記条件を特定することを、さらに含む、請求項6に記載の方法。
- 前記格納されたマップは、ゲームタイトル、ゲームタイトルの集合、ゲームジャンル、ゲーム開発者、ゲームコンソール、ゲームコントローラ、コントローラ変更形態の集合、ゲーム環境、及びゲーム内アクティビティのうちの少なくとも1つに特有である、請求項1に記載の方法。
- 前記マップは、複数の異なるマップと共に格納され、前記方法は、さらに、前記ユーザの前記仮想環境に基づいて前記マップを特定することを含む、請求項1に記載の方法。
- ジェスチャベーススキル検索のためのシステムであって、
1つ以上の仮想アクションに関するマップを格納するメモリであって、各仮想アクションは、実世界環境で対応するアクションを実行することに関連付けられたデータ集合に関連付けられる、前記メモリと、
前記メモリに格納された命令を実行するプロセッサと、
を備え、前記プロセッサは、
前記実世界環境でのユーザによるアクションに関するデータの取り込みを開始する命令と、
前記仮想環境内の前記ユーザの現在の進捗レベルを特定する命令であって、前記特定された現在の進捗レベルは、1つ以上の使用可能な仮想アクションに関連付けられる、前記特定する命令と、
前記取り込まれたデータが、前記使用可能な仮想アクションのうちの特定された仮想アクションに対応することを、前記マップにより示される、前記取り込まれたデータと、前記特定された仮想アクションに関連付けられた前記データ集合とのマッチングに基づいて、判別する命令と、
前記特定された仮想アクションに対応する命令の表示を生成する命令と、
を実行する、システム。 - 前記格納されたマップは、さらに、前記特定された仮想アクションに対応する前記命令に関するデータを格納する、請求項10に記載のシステム。
- 前記プロセッサは、前記格納されたマップに基づいて、前記命令の前記表示を生成する、請求項10に記載のシステム。
- 通信インターフェースをさらに備え、前記実世界環境での前記ユーザによる前記アクションに関する前記データは、前記通信インターフェースを介して前記プロセッサと通信を行うカメラ、加速度計、ジャイロスコープ、及び慣性センサのうちの少なくとも1つにより取り込まれる、請求項10に記載のシステム。
- 前記プロセッサは、前記取り込まれたデータが前記特定された仮想アクションに対応することを、前記取り込まれたデータと、前記特定された仮想アクションに関連付けられた前記データ集合との差が、所定の閾値内にあることにさらに基づいて判別する、請求項10に記載のシステム。
- 前記プロセッサは、検索トリガーまたは前記現在の進捗レベルに関連付けられた1つ以上の条件に基づいて、前記使用可能な仮想アクションをフィルタリングすることにより、前記取り込まれたデータが前記使用可能な仮想アクションのうちの特定された仮想アクションに対応することを判別する、請求項10に記載のシステム。
- 前記プロセッサは、前記検索トリガーまたは前記現在の進捗レベルに関連付けられた1つ以上のアクティビティファイルに基づいて、前記条件を特定する命令をさらに実行する、請求項15に記載のシステム。
- 前記格納されたマップは、ゲームタイトル、ゲームタイトルの集合、ゲームジャンル、ゲーム開発者、ゲームコンソール、ゲームコントローラ、コントローラ変更形態、ゲーム環境、及びゲーム内アクティビティのうちの少なくとも1つに特有である、請求項10に記載のシステム。
- 前記マップは、複数の異なるマップと共に格納され、前記システムは、さらに、前記ユーザの前記仮想環境に基づいて前記マップを特定することを含む、請求項10に記載のシステム。
- ジェスチャベーススキル検索の方法を実行するためにプロセッサにより実行可能なプログラムが具現化された非一時的コンピュータ可読記憶媒体であって、前記方法は、
メモリに1つ以上の仮想アクションに関するマップを格納することであって、各仮想アクションは、実世界環境で対応するアクションを実行することに関連付けられたデータ集合に関連付けられる、前記格納することと、
前記実世界環境でのユーザによるアクションに関するデータを取り込むことと、
前記仮想環境内の前記ユーザの現在の進捗レベルを特定することであって、前記特定された現在の進捗レベルは、1つ以上の使用可能な仮想アクションに関連付けられる、前記特定することと、
前記取り込まれたデータが、前記使用可能な仮想アクションのうちの特定された仮想アクションに対応することを、前記マップにより示される、前記取り込まれたデータと、前記特定された仮想アクションに関連付けられた前記データ集合とのマッチングに基づいて、判別することと、
前記特定された仮想アクションに対応する命令の表示を生成することと、
を含む、非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/403,242 US20230051703A1 (en) | 2021-08-16 | 2021-08-16 | Gesture-Based Skill Search |
US17/403,242 | 2021-08-16 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023027017A true JP2023027017A (ja) | 2023-03-01 |
Family
ID=82595088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022126255A Pending JP2023027017A (ja) | 2021-08-16 | 2022-08-08 | ジェスチャベーススキル検索 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230051703A1 (ja) |
EP (1) | EP4137916A1 (ja) |
JP (1) | JP2023027017A (ja) |
CN (1) | CN115904060A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11726553B2 (en) | 2021-07-20 | 2023-08-15 | Sony Interactive Entertainment LLC | Movement-based navigation |
US11786816B2 (en) | 2021-07-30 | 2023-10-17 | Sony Interactive Entertainment LLC | Sharing movement data |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102612512B1 (ko) * | 2023-07-07 | 2023-12-11 | 주식회사 위시 | 모션 캡쳐 시스템에서의 모션 스킬 발현 장치 및 방법 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3430530A (en) * | 1967-12-05 | 1969-03-04 | Warwick Electronics Inc | Music system |
US6950534B2 (en) * | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
US6663491B2 (en) * | 2000-02-18 | 2003-12-16 | Namco Ltd. | Game apparatus, storage medium and computer program that adjust tempo of sound |
US7071914B1 (en) * | 2000-09-01 | 2006-07-04 | Sony Computer Entertainment Inc. | User input device and method for interaction with graphic images |
JP2006068315A (ja) * | 2004-09-02 | 2006-03-16 | Sega Corp | ポーズ検出プログラム、ビデオゲーム装置、ポーズ検出方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US8972902B2 (en) * | 2008-08-22 | 2015-03-03 | Northrop Grumman Systems Corporation | Compound gesture recognition |
US20080096657A1 (en) * | 2006-10-20 | 2008-04-24 | Sony Computer Entertainment America Inc. | Method for aiming and shooting using motion sensing controller |
US20080234023A1 (en) * | 2007-03-23 | 2008-09-25 | Ajmal Mullahkhel | Light game |
WO2009082632A1 (en) * | 2007-12-21 | 2009-07-02 | Sony Computer Entertainment America Inc. | Scheme for inserting a mimicked performance into a scene and providing an evaluation of same |
US10729973B2 (en) * | 2008-06-30 | 2020-08-04 | Microsoft Technology Licensing, Llc | Dynamic selection of sensor sensitivity in a game input system |
US8418085B2 (en) * | 2009-05-29 | 2013-04-09 | Microsoft Corporation | Gesture coach |
US8412662B2 (en) * | 2009-06-04 | 2013-04-02 | Motorola Mobility Llc | Method and system of interaction within both real and virtual worlds |
US9358456B1 (en) * | 2010-06-11 | 2016-06-07 | Harmonix Music Systems, Inc. | Dance competition game |
CN103974752B (zh) * | 2011-12-19 | 2016-05-18 | 英派尔科技开发有限公司 | 用于基于姿势的游戏的暂停和重新开始方案 |
US8977961B2 (en) * | 2012-10-16 | 2015-03-10 | Cellco Partnership | Gesture based context-sensitive functionality |
US11226686B2 (en) * | 2014-01-20 | 2022-01-18 | Lenovo (Singapore) Pte. Ltd. | Interactive user gesture inputs |
EP3117290B1 (en) * | 2014-03-10 | 2022-03-09 | BAE Systems PLC | Interactive information display |
US20180088671A1 (en) * | 2016-09-27 | 2018-03-29 | National Kaohsiung University Of Applied Sciences | 3D Hand Gesture Image Recognition Method and System Thereof |
US11669743B2 (en) * | 2019-05-15 | 2023-06-06 | Huawei Technologies Co., Ltd. | Adaptive action recognizer for video |
US20200393908A1 (en) * | 2019-06-12 | 2020-12-17 | Citrix Systems, Inc. | Computing devices, program products, and methods for performing actions in applications based on facial images of users |
CN112154402A (zh) * | 2019-08-29 | 2020-12-29 | 深圳市大疆创新科技有限公司 | 可穿戴设备及其控制方法、识别手势的方法和控制系统 |
US10701316B1 (en) * | 2019-10-10 | 2020-06-30 | Facebook Technologies, Llc | Gesture-triggered overlay elements for video conferencing |
US11789542B2 (en) * | 2020-10-21 | 2023-10-17 | International Business Machines Corporation | Sensor agnostic gesture detection |
-
2021
- 2021-08-16 US US17/403,242 patent/US20230051703A1/en not_active Abandoned
-
2022
- 2022-07-13 EP EP22184797.3A patent/EP4137916A1/en active Pending
- 2022-08-03 CN CN202210926110.5A patent/CN115904060A/zh active Pending
- 2022-08-08 JP JP2022126255A patent/JP2023027017A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11726553B2 (en) | 2021-07-20 | 2023-08-15 | Sony Interactive Entertainment LLC | Movement-based navigation |
US11786816B2 (en) | 2021-07-30 | 2023-10-17 | Sony Interactive Entertainment LLC | Sharing movement data |
Also Published As
Publication number | Publication date |
---|---|
CN115904060A (zh) | 2023-04-04 |
US20230051703A1 (en) | 2023-02-16 |
EP4137916A1 (en) | 2023-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7229201B2 (ja) | ゲームクラウドシステムで実行されるビデオ記録を介して以前に記憶されたゲームプレイにアクセスするための方法およびシステム | |
US11857883B2 (en) | Connecting a player to a recorded help session in real-time during game play of a video game | |
JP7483813B2 (ja) | ゲームプレイコンパニオンアプリケーション | |
US20210252398A1 (en) | Method and system for directing user attention to a location based game play companion application | |
US10864433B2 (en) | Using a portable device to interact with a virtual space | |
CN107096221B (zh) | 用于提供时移智能同步游戏视频的系统和方法 | |
EP4137916A1 (en) | Gesture-based skill search | |
JP7503122B2 (ja) | 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム | |
EP4124365A1 (en) | Sharing movement data | |
EP4122566A1 (en) | Movement-based navigation | |
JP6959267B2 (ja) | 場所ベースゲームプレイコンパニオンアプリケーションを使用するチャレンジの生成 |