JP2024515645A - 拡張現実ハット - Google Patents
拡張現実ハット Download PDFInfo
- Publication number
- JP2024515645A JP2024515645A JP2023563168A JP2023563168A JP2024515645A JP 2024515645 A JP2024515645 A JP 2024515645A JP 2023563168 A JP2023563168 A JP 2023563168A JP 2023563168 A JP2023563168 A JP 2023563168A JP 2024515645 A JP2024515645 A JP 2024515645A
- Authority
- JP
- Japan
- Prior art keywords
- augmented reality
- game
- wearable augmented
- reality device
- player
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 61
- 230000003287 optical effect Effects 0.000 claims abstract description 37
- 230000007613 environmental effect Effects 0.000 claims abstract description 11
- 239000004744 fabric Substances 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 6
- 210000003128 head Anatomy 0.000 abstract description 14
- 238000000034 method Methods 0.000 description 20
- 238000013480 data collection Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000017525 heat dissipation Effects 0.000 description 5
- 239000004020 conductor Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 239000000956 alloy Substances 0.000 description 1
- 229910045601 alloy Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
ウェアラブル拡張現実デバイスが記載されている。デバイスは、ヘッドバンド、つば、光学ディスプレイ、及び環境センサを備える。ヘッドバンドは、ユーザの頭部の周りに少なくとも部分的に巻き付けられ、デバイスを支持するユーザの頭部にわたってデバイスのコンポーネントの重量を分配する。つばは、つばがヘッドバンドから離れてユーザの目の上に延びるように、ヘッドバンドに結合される。つばには、デバイスの電子機器から環境に熱を放出するヒートシンクが含まれている。光学ディスプレイは、つばの下側に結合される。光学ディスプレイは、画像光を提示し、環境光が通過することを可能にする。環境センサは、つばの前縁に結合され、環境に関するデータをキャプチャする。
Description
本出願は、2021年4月15日に出願された米国仮出願第63/175,502号及び2021年8月9日に出願された米国仮出願第63/231,042号に対する優先権を主張する。上記の両方は、参照によりそれらの全体が本明細書に組み込まれる。
本開示は、概して、拡張現実(AR)に関し、特に、ウェアラブルARデバイスに関する。
消費者のユースケースのための様々なARデバイスは、過去10~15年間に開発されてきた。ウェアラブルARデバイスの広範な採用は、有用性と市場に受け入れられる社会的に許容されるフォームファクタのバランスを提供するという課題によって妨げられてきた。技術的な制限は、広範囲のユーザに受け入れられるフォームファクタと併せて、望ましいレベルの機能性を達成するための障壁となってきた。メガネまたはヘッドセットのフォームファクタに有用なシステムのコンポーネントを取り付けると、ウェアラブルデバイスは重くて大きくなり、多くのユーザにとって不便で不快であり、社会的に受け入れられない可能性がある。対照的に、より便利であり、より社会的に許容されると考えられ得るより小さいフォームファクタデバイスは、より少ない機能を有し、適用値が低すぎる。
上記および他の課題は、着用者にARコンテンツを提供するための電子部品を統合したウェアラブルARデバイスによって対処され得る。ウェアラブルARデバイスの様々な特徴、態様、および利点は、以下の説明および添付の特許請求の範囲を参照してよりよく理解され得る。添付の図面は、特定の実施形態を例示し、説明と共に、様々な原理を説明することに役立つ。しかしながら、図面は限定的であると見なされるべきではない。むしろ、保護の範囲は、特許請求の範囲から決定されるべきである。以下の説明は、特定のユースケース(屋外ゲーム用のAR機能を備えた野球帽)に焦点を当てているが、開示された原則は、他のユースケースおよびフォームファクタに適用され得る。つば部やクラウンの広い領域等の固有の特性を有するキャップフォームファクタは、ARシステムのさまざまな側面に使用できる。
様々な実施形態様々な実施形態では、ウェアラブルARデバイスは、ヘッドバンド、調整領域、つば、1つ以上の光学ディスプレイ、1つ以上のセンサ、及び1つ以上のスピーカを含む。デバイスは、クラウン部分がヘッドバンドに取り付けられているかどうかに応じて、野球帽またはバイザーのフォームファクタを有する。ヘッドバンドは、ユーザの頭部の周りに少なくとも部分的に巻き付けられ、デバイスを支持し、快適さのためにユーザの頭部にわたってデバイスの構成要素の重量を分配するように作用する。調整領域は、着用時にユーザの頭部の後部にあることが意図されたヘッドバンドの一部に配置される。調整領域は、デバイスのバッテリを格納し、ユーザの頭部に適合するようにヘッドバンドのサイズ(例えば、長さまたは直径)の調整を可能にし得る。つばは、ユーザの頭部の前部に配置され、意図されたように着用されたときにほぼ額の高さでユーザの前部に延びるように、ヘッドバンドに結合される。
一実施形態では、つばは、ユーザへの過熱または不快感を防ぐために、デバイスの構成要素から環境に熱を放出するヒートシンクを含む。つばの下側には、画像光を提示し、環境光が通過することを可能にする1つまたは複数の光学ディスプレイが取り付けられ、画像光と環境光の両方がユーザの眼によって受け取られる。1つ以上のスピーカがヘッドバンドに取り付けられ、ユーザに音声を提供する。いくつかの実施形態では、スピーカは、ユーザの耳に最も近いヘッドバンドの領域に取り付けられ得る。
ここで、様々な実施形態を詳細に参照し、その1つまたは複数の例が図面に示される。各実施例は、特許請求の範囲の限定ではなく、説明された実施形態の説明として提供される。実際、記載された原理から逸脱することなく、様々な修正及び変形を行うことができることは、当業者には明らかであろう。例えば、一実施形態の一部として例示または説明される特徴を他の実施形態と共に使用して、さらにさらなる実施形態をもたらすことができる。従って、本開示は、添付の特許請求の範囲およびその等価物の範囲内である修正および変形を含むことが意図される。
例示的な位置ベースの並行現実ゲームシステム
並行現実ゲームでは、現実世界の地理の少なくとも一部を平行移動させた仮想世界の地理が、現実世界でのプレイヤの移動や行動が仮想世界での行動に影響を与えたり、逆に仮想世界でのプレイヤの移動や行動が現実世界での行動に影響を与えたりする。仮想世界は、対応する現実世界の場所に移動することによって、プレイヤが現実世界の画像上にオーバーレイして見ることができる拡張現実(AR)コンテンツを含み得る。当業者であれば、本明細書で提供される開示は、記載された主題がAR画像が表示される他の状況に適用可能であることを理解するであろう。さらに、本明細書に提供される開示を使用して、当業者は、本開示に照らして、多数のゲームインターフェース構成及び基礎となる機能性が明らかであることを理解するであろう。本開示は、任意の1つの特定の構成に限定されることを意図するものではない。
並行現実ゲームでは、現実世界の地理の少なくとも一部を平行移動させた仮想世界の地理が、現実世界でのプレイヤの移動や行動が仮想世界での行動に影響を与えたり、逆に仮想世界でのプレイヤの移動や行動が現実世界での行動に影響を与えたりする。仮想世界は、対応する現実世界の場所に移動することによって、プレイヤが現実世界の画像上にオーバーレイして見ることができる拡張現実(AR)コンテンツを含み得る。当業者であれば、本明細書で提供される開示は、記載された主題がAR画像が表示される他の状況に適用可能であることを理解するであろう。さらに、本明細書に提供される開示を使用して、当業者は、本開示に照らして、多数のゲームインターフェース構成及び基礎となる機能性が明らかであることを理解するであろう。本開示は、任意の1つの特定の構成に限定されることを意図するものではない。
図1は、1つまたは複数の実施形態による、ネットワーク化されたコンピュータ環境100を示す。ネットワーク化されたコンピュータ環境100は、現実世界と並行する地理を有する仮想世界におけるプレイヤとの相互作用を提供する。特に、現実世界の地理的領域は、仮想世界の対応する領域に直接リンクまたはマッピングされてもよい。プレイヤは、現実世界の様々な地理的位置を移動することにより、仮想世界を移動することができる。例えば、現実世界におけるプレイヤの位置は、仮想世界におけるプレイヤの位置を追跡し、更新するために使用することができる。典型的には、現実世界におけるプレイヤの位置は、プレイヤが仮想世界と相互作用しているクライアント装置110の位置を見つけ、プレイヤが同じ(またはほぼ同じ)位置にあると仮定することによって決定される。例えば、様々な実施形態では、現実世界におけるプレイヤの位置が、仮想世界における仮想要素の仮想位置に対応する現実世界の位置の閾値距離(例えば、10メートル、20メートル等)内にある場合、プレイヤは仮想要素と相互作用してもよい。便宜上、このように仮想要素と対話するのに十分に近いプレイヤは、仮想要素に対応する現実世界の場所にいると呼ばれる。加えて、様々な実施形態が「プレイヤの位置」を参照して説明されるが、当業者は、そのような参照がプレイヤのクライアント装置110の位置を参照し得ることを理解するであろう。
ここで、一実施形態による、並行現実ゲームのプレイヤのためのゲームボードとして機能することができる現実世界200と並列する仮想世界210の概念図を示す図2を参照する。図示されるように、仮想世界210は、現実世界200の地理に平行する地理を含み得る。特に、現実世界200内の地理的領域または空間を画定する座標の範囲は、仮想世界210内の仮想空間を画定する座標に対応する範囲にマッピングされる。現実世界200における座標の範囲は、町、近隣、都市、キャンパス、近辺、国、大陸、地球全体、または他の地理的領域に関連付け得る。地理座標の範囲内の各地理座標は、仮想世界110内の仮想空間内の対応する座標にマッピングされる。
仮想世界210におけるプレイヤの位置は、現実世界200におけるプレイヤの位置に対応する。例えば、現実世界200内の位置212に位置するプレイヤAは、仮想世界210内の対応する位置222を有する。同様に、現実世界内の位置214に位置するプレイヤBは、仮想世界内の位置224に対応する。プレイヤが現実世界内の地理的座標の範囲内で移動するとき、プレイヤはまた、仮想世界210内の仮想空間を画定する座標の範囲内で移動する。特に、プレイヤによって運ばれるモバイルコンピュータデバイスに関連付けられた測位システム(例えば、GPSシステム)は、プレイヤが現実世界100内の地理的座標の範囲をナビゲートするときにプレイヤの位置を追跡するために使用されてもよい。現実世界200におけるプレイヤの位置に関連付けられたデータは、仮想世界210における仮想空間を画定する対応する範囲の座標におけるプレイヤの位置を更新するために使用される。このようにして、プレイヤは、現実世界200内の特定の個他の位置でチェックインまたは定期的に位置情報を更新することなく、現実世界200内の対応する地理的座標の範囲の中を単に移動することによって、仮想世界210内の仮想空間を定義する座標の範囲内の連続したトラックに沿ってナビゲートし得る。
ロケーションベースゲームは、プレイヤが仮想世界内の様々な仮想位置に散在する様々な仮想要素または仮想オブジェクトに移動するか、またはそれらと対話することを必要とするゲーム目標を含み得る。仮想オブジェクトの一部またはすべては、クライアント装置110によって表示されるARオブジェクトであり得る。ARオブジェクトは、アニメーションオブジェクト及び非アニメーションオブジェクトを含み得る。アニメーションオブジェクトは、仮想キャラクタと呼ばれ得る。仮想キャラクタは、非プレイヤキャラクタ(NPC)等、ゲームのキャラクタを表すことができる。プレイヤは、現実世界内の仮想要素またはオブジェクトの対応する位置に移動することによって、これらの仮想位置に移動し得る。例えば、位置決めシステムは、プレイヤが現実世界をナビゲートするにつれて、プレイヤが並列仮想世界もナビゲートするように、プレイヤの位置を追跡し得る。次いで、プレイヤは、特定の場所で様々な仮想要素及びオブジェクトと対話して、1つ以上のゲーム目標を達成または実行し得る。
これらの仮想要素230は、現実世界200内のランドマーク、地理的位置、またはオブジェクト240にリンクされ得る。現実世界のランドマークまたはオブジェクト240は、芸術作品、記念碑、建物、ビジネス、図書館、博物館、または他の適切な現実世界のランドマークまたはオブジェクトであってもよい。相互作用は、キャプチャ、所有権の主張、いくつかの仮想アイテムの使用、いくつかの仮想通貨の使用等を含む。これらの仮想要素230をキャプチャするために、プレイヤは、現実世界で仮想要素230にリンクされたランドマークまたは地理的位置240に移動し、仮想世界210内の仮想要素230と相互作用する。例えば、図2のプレイヤAは、その特定のランドマーク240とリンクされた仮想要素230と相互作用するか、またはその特定のランドマーク240とリンクされた仮想要素230をキャプチャするために、現実世界200内のランドマーク240に移動しなければならない場合がある。仮想要素230との相互作用は、カメラによってキャプチャされた画像(例えば、ビデオ)のセット内の現実世界の位置のビュー上にオーバーレイされた仮想要素のAR表現を表示し、現実世界内で仮想要素の「写真」を撮る等、現実世界でのアクションを必要とし得る。画像及び写真のセットは、ウェアラブルARデバイス(例えば、ARハット)に取り付けられたカメラによってキャプチャされてもよい。
ゲーム目標は、プレイヤがロケーションベースゲームでプレイヤによって収集される1つまたは複数の仮想アイテムを使用することを要求してもよい。例えば、プレイヤは、ゲーム目標を達成するのに有用であり得る仮想アイテム(例えば、武器、クリーチャー、パワーアップ、または他のアイテム)を探して仮想世界210を移動し得る。これらの仮想アイテムは、現実世界200の異なる場所に移動することによって、または仮想世界210または現実世界200のいずれかで様々なアクションを完了することによって、発見または収集し得る。図2に示される例では、プレイヤは仮想アイテム232を使用して1つまたは複数の仮想要素230をキャプチャする。特に、プレイヤは、仮想要素230に近接する、または仮想要素230内の仮想世界210内の位置に仮想アイテム232を展開し得る。このようにして1つ以上の仮想アイテム232を展開することは、特定のプレイヤまたは特定のプレイヤのチーム/派閥のための仮想要素230のキャプチャをもたらし得る。
1つの特定の実施では、プレイヤは、並行現実ゲームの一部として仮想エネルギーを収集しなければならない場合がある。図2に示されるように、仮想エネルギー250は、仮想世界210内の異なる位置に散乱され得る。プレイヤは、現実世界200内の対応する場所に移動することによって、仮想エネルギー250及び他のアイテムを収集し得る。仮想エネルギー250は、仮想アイテムに電力を供給するために、またはゲーム内の様々なゲーム目標を実行するために使用され得る。他のアイテムは、ゲームに応じて、任意の他の適切な機能を実行し得る。
本開示の態様によれば、並行現実ゲームは、ゲームのすべての参加者が同じ仮想世界を共有する大規模なマルチプレイヤロケーションベースのゲームであってもよい。プレイヤは、別々のチームまたは派閥に分けられてもよく、仮想要素のキャプチャまたは所有権を主張する等、1つまたは複数のゲーム目標を達成するために協力し得る。このようにして、並行現実ゲームは、本質的に、ゲーム内のプレイヤ間の協力を奨励するソーシャルゲームであってもよい。対戦チームのプレイヤは、並行現実ゲーム中に互いに対戦し得る(または時には相互の目標を達成するために協力し得る)。プレイヤは、相手チームのプレイヤの進行を攻撃または妨害することにバーチャルアイテムを使用してもよい。場合によっては、プレイヤは並行現実ゲームの協力的または相互に作用するイベントのために現実世界の場所に集まることが奨励されている。これらの場合、ゲームサーバは、プレイヤが実際に物理的に存在し、自分の場所を偽装していないことを確認しようとする。
並行現実ゲームは、並行現実ゲーム内のゲームプレイを強化及び奨励するための様々な特徴を有し得る。例えば、プレイヤは、ゲームを通して(例えば、ゲーム内アイテムを購入するため、他のアイテムを引き換えるため、アイテムを作成するため等)使用し得る仮想通貨または他の仮想報酬(例えば、仮想トークン、仮想ポイント、仮想マテ現実リソース等)を蓄積し得る。プレイヤは、ゲーム中にプレイヤが達成した一つまたはゲーム目標の様々なレベルを通じて前進し得る。いくつかの実施形態では、プレイヤは、1つまたは複数のゲーム内に提供される通信インターフェースを介して互いに通信し得る。プレイヤはまた、ゲーム内のゲーム目標を完了するために使用できる強化された「パワー」または仮想アイテムを得ることができる。本明細書に提供される開示を使用して、当業者は、本開示の範囲から逸脱することなく、様々な他のゲーム機能を並行現実ゲームに含めることができることを理解すべきである。
図1の参照に戻り、ネットワーク化されたコンピュータ環境100は、クライアントサーバアーキテクチャを使用し、ゲームサーバ120は、ネットワーク105を介してクライアント装置110と通信して、クライアント装置110のプレイヤに並行現実ゲームを提供する。1つのクライアント装置110のみが図1に示されているが、任意の数のクライアント装置110または他の外部システムは、ネットワーク105を介してゲームサーバ120に接続されてもよい。さらに、ネットワーク化されたコンピュータ環境100は、異なるまたは追加の要素を含み得、機能性は、以下に説明するのとは異なる方法でクライアント装置110とサーバ120との間に分散され得る。
クライアント装置110は、ゲームサーバ120と通信するためにプレイヤが使用し得る任意のポータブルコンピュータデバイスであり得る。例えば、クライアント装置110は、無線デバイス、パーソナルデジタルアシスタント(PDA)、ポータブルゲーミングデバイス、携帯電話、スマートフォン、タブレット、ナビゲーションシステム、ハンドヘルドGPSシステム、ウェアラブルコンピュータデバイス、1つ以上のプロセッサを有するディスプレイ、または他のそのようなデバイスであり得る。
一実施形態では、クライアント装置110によって実行される以下に説明される機能は、タブレットまたはスマートフォン等のモバイルコンピュータデバイスと、ARハット等のウェアラブルデバイスとの間に分散される。たとえば、ARハット上の1台以上のカメラがプレイヤによって着用されると、プレイヤの周りの環境の画像をキャプチャすることができ、プレイヤのスマートフォンは、1つまたは複数のAR要素を表示する現実世界の位置を決定することができ、ARハットに取り付けられた1つまたは複数のディスプレイは、決定された位置にAR要素を表示してもよい。他の実施形態では、ARハットは、クライアント装置110によって実行されるように、以下に説明される機能のすべてを提供する。
一実施形態では、クライアント装置110は、ゲームサーバ120に物理環境の感覚データを提供するゲームサーバ120と通信する。クライアント装置110は、クライアント装置110が存在する物理環境内のシーンの2次元の画像データをキャプチャするカメラアセンブリ125を含む。図1に示される実施形態では、クライアント装置110は、ゲームモジュール135及び位置決めモジュール140、ならびに照明アセンブリ143等の追加のソフトウェアコンポーネントを含む。クライアント装置110は、プレイヤから情報を受信する、またはプレイヤに情報を提供するための様々な他の入力/出力デバイスを含んでもよい。例示的な入出力デバイスは、ディスプレイ画面、タッチスクリーン、タッチパッド、データ入力キー、スピーカ、及び音声認識に適したマイクロフォンを含む。クライアント装置110はまた、限定されないが、動きセンサ、加速度計、ジャイロスコープ、他の慣性測定ユニット(IMU)、気圧計、位置決めシステム、温度計、光センサ等を含む、クライアント装置110からのデータを記録するための他の様々なセンサを含んでもよい。クライアント装置110は、ネットワーク105を介して通信を提供するためのネットワークインターフェースをさらに含み得る。ネットワークインターフェースは、例えば、送信機、受信機、ポート、コントローラ、アンテナ、または他の適切なコンポーネントを含む、1つ以上のネットワークとインターフェースするための任意の適切なコンポーネントを含み得る。
カメラアセンブリ125は、クライアント装置110が配置されている環境のシーンの画像データをキャプチャする。カメラアセンブリ125は、様々なカラー撮影範囲及び様々な撮像レートを有する様々なフォトセンサを使用してもよい。カメラアセンブリ125は、広角レンズまたは望遠レンズを含んでもよい。カメラアセンブリ125は、単一の画像またはビデオを画像データとしてキャプチャするように構成されてもよい。カメラアセンブリ125は、画像データをキャプチャし、クライアント装置110上のコンピュータデバイスと画像データを共有する。画像データは、感覚データ(例えば、温度、環境の明るさ)またはキャプチャデータ(例えば、露出、暖かさ、シャッター速度、焦点距離、キャプチャ時間等)を含む画像データの他の詳細を記述するメタデータを追加し得る。カメラアセンブリ125は、画像データを取り込み得る1つ以上のカメラを含み得る。一例では、カメラアセンブリ125は、着用者の目の位置に近い位置からステレオ画像データをキャプチャするように構成されたARハットの左側および右側に取り付けられた一対のカメラを含む。他の例のカメラアセンブリ125は、ARハットの前面のおおよそ中心に取り付けられた単一のカメラを含む。様々な他の実施態様では、カメラアセンブリ125は、それぞれが画像データをキャプチャするように構成された複数のカメラを含む。
ゲームモジュール135は、プレイヤに並行現実ゲームに参加するためのインターフェースを提供する。ゲームサーバ120は、ネットワーク105を介してクライアント装置110にゲームデータを送信し、クライアント装置110でゲームモジュール135によって使用され、ゲームサーバ120から離れた場所のプレイヤにゲームのローカルバージョンを提供する。ゲームサーバ120は、ネットワークを介して通信を提供するためのネットワークインターフェース105を含み得る。ネットワークインターフェースは、例えば、送信機、受信機、ポート、コントローラ、アンテナ、または他の適切なコンポーネントを含む、1つ以上のネットワークとインターフェースするための任意の適切なコンポーネントを含み得る。
クライアント装置110によって実行されるゲームモジュール135は、プレイヤと並行現実ゲームとの間のインターフェースを提供する。クライアント装置110によって実行されるゲームモジュール135は、プレイヤと並行現実ゲームとの間のインターフェースを提供する。ゲームモジュール135は、ARハットのつばに取り付けられ、着用者の目の前に配置された光学ディスプレイ等のディスプレイデバイス上にユーザインターフェースを提示し得る。ユーザインターフェースは、ゲームに関連付けられた仮想要素を含み得て、プレイヤが仮想要素と対話して様々なゲーム目標を実行することを可能にしてもよい。ゲームモジュール135は、クライアント装置の他のコンポーネントから受信した他の情報に従って、仮想コンテンツを生成してもよく、または仮想コンテンツを調整してもよい。例えば、ゲームモジュール135は、画像データにキャプチャされたシーンの深度マップに従って、ユーザインターフェース上に表示される仮想オブジェクトを調整してもよい。
ゲームモジュール135は、また、様々な他の出力を制御して、プレイヤがゲームと対話することを可能にし得る。例えば、ゲームモジュール135は、様々な音声、振動、または他の通知を制御し得る。ゲームモジュール135は、ゲームサーバ120から受信されたゲームデータにアクセスして、ゲームの正確な表現をプレイヤに提供し得る。ゲームモジュール135は、プレイヤ入力を受信及び処理し、ネットワーク105を介してゲームサーバ120に更新を提供し得る。ゲームモジュール135はまた、クライアント装置110によって表示されるゲームコンテンツを生成または調整し得る。例えば、ゲームモジュール135は、シーンの横断可能な空間を説明する情報に基づいて(例えば、横断可能な空間推定モデル130によって決定されるように)仮想要素を生成し得る。例えば、ゲームモジュール135は、横断可能な空間上のシーン内の仮想要素の経路を決定し得る。
位置決めモジュール140は、クライアント装置110の位置を監視するためのどのような装置または回路であってもよい。例えば、位置決めモジュール140は、衛星ナビゲーション位置決めシステム(例えば、GPSシステム、ガリレオ位置決めシステム、グローバルナビゲーションサテライトシステム(GLONASS)、北斗サテライトナビゲーション及び位置決めシステム)、慣性航法システム、デッドレコニングシステム、IPアドレス分析、三角測量および/またはセルラータワーまたはWi-Fiホットスポットへの近接性、または他の適切な技術を使用することによって、実際の、または相対的な位置を決定し得る。位置決めモジュール140は、クライアント装置110の位置を正確に位置決めするのに役立ち得る様々な他のセンサをさらに含んでもよい。例えば、クライアント装置110は、クライアント装置の1つまたは複数のカメラによってキャプチャされた画像を3Dマップと比較することによってローカリゼーションを実行してもよい。
プレイヤが現実世界でクライアント装置110と共に移動すると、位置決めモジュール140は、プレイヤの位置を追跡し、プレイヤ位置情報をゲームモジュール135に提供する。ゲームモジュール135は、現実世界におけるプレイヤの実際の位置に基づいて、ゲームに関連付けられた仮想世界におけるプレイヤの位置を更新する。したがって、プレイヤは、単にクライアント装置110を現実世界で運搬または輸送することによって、仮想世界と対話し得る。特に、仮想世界におけるプレイヤの位置は、現実世界におけるプレイヤの位置に対応し得る。ゲームモジュール135は、ネットワーク105を介してゲームサーバ120にプレイヤ位置情報を提供し得る。それに応答して、ゲームサーバ120は、チータがクライアント装置110の位置を偽装するのを防ぐために、クライアント装置110の位置を検証するためのさまざまな技術を実施してよい。プレイヤに関連付けられた位置情報は、プレイヤの位置情報にアクセスされること、及び位置情報がゲームのコンテキストにおいてどのように利用されるか(例えば、仮想世界におけるプレイヤの位置を更新するために)をプレイヤが通知された後、許可が付与された場合にのみ利用されることを理解されたい。さらに、プレイヤに関連付けられたどんな位置情報も、プレイヤのプライバシーを保護する方法で保存および維持される。
照明アセンブリ143は、クライアント装置の周りの環境を照らし得る1つ以上の照明を含む。一実施形態では、照明アセンブリ143は、カメラアセンブリ125に関連付けられたフラッシュを含む。フラッシュは、単一の写真のキャプチャを補助するために一時的に点灯してもよく、または懐中電灯として機能するために長期間点灯してもよい。他の実施形態では、照明アセンブリ143は、物体を照射し、可視光でシーンを照射することなく、赤外線カメラによってシーンの画像をキャプチャすることを可能にするための赤外線光等の異なるタイプの光を含んでもよい。
ゲームサーバ120は、任意のコンピュータデバイスであり得て、1つ以上のプロセッサ及び1つ以上のコンピュータ可読記憶媒体を含み得る。コンピュータ可読記憶媒体は、プロセッサに動作を実行させる命令を記憶し得る。ゲームサーバ120は、ゲームデータベース115を含むか、または通信し得る。ゲームデータベース115は、ネットワーク105を介してクライアント(複数可)110に提供される、または提供される並行現実ゲームで使用されるゲームデータを格納する。
ゲームデータベース115に格納されたゲームデータは、(1)並行現実ゲーム内の仮想世界に関連付けられたデータ(例えば、ディスプレイ装置上で仮想世界をレンダリングするために使用される画像データ、仮想世界内の位置の地理的座標等)、(2)並行現実ゲームのプレイヤに関連付けられたデータ(例えば、プレイヤ情報、プレイヤエクスペリエンスレベル、プレイヤ通貨、仮想世界/現実世界内の現在のプレイヤ位置、プレイヤエネルギーレベル、プレイヤ嗜好、チーム情報、派閥情報を含むがこれらに限定されないプレイヤプロファイル)、(3)ゲーム目標に関連付けられたデータ(例えば、現在のゲーム目標、ゲーム目標の状態、過去のゲーム目標、将来のゲーム目標、所望のゲーム目標等に関連付けられたデータ)、(4)仮想世界における仮想要素に関連付けられたデータ(例えば、仮想要素の位置、仮想要素のタイプ、仮想要素に関連付けられたゲーム目標、仮想要素の対応する実際の世界の位置情報、仮想要素の挙動、仮想要素の関連性等)、(5)仮想世界にリンクされた現実世界のオブジェクト、ランドマーク、位置に関連付けられたデータ要素(例:現実世界のオブジェクト/ランドマークの位置、現実世界のオブジェクト/ランドマークの説明、現実世界のオブジェクトにリンクされた仮想要素の関連性等)、(6)ゲームステータス(例えば、現在のプレイヤ数、ゲーム目標の現在のステータス、プレイヤリーダーボード等)、(7)プレイヤアクション/入力(例えば、現在のプレイヤポジション、過去のプレイヤポジション、プレイヤの動き、プレイヤ入力、プレイヤクエリ、プレイヤ通信等)に関連付けられたデータ、及び(8)並行現実ゲームの実装中に使用される、関連する、または取得される任意の他のデータ。ゲームデータベース115に格納されたゲームデータは、システム管理者によって、またはネットワーク105を介してクライアント装置110から等、システム100のユーザ/プレイヤから受信したデータによって、オフラインまたはリアルタイムのいずれかで登録され得る。
ゲームサーバ120は、クライアント装置110から(例えば、リモートプロシージャコール(RPC)を介して)ゲームデータの要求を受信し、ネットワーク105を介してそれらの要求に応答するように構成され得る。ゲームサーバ120は、1つまたは複数のデータファイル内のゲームデータを符号化し、データファイルをクライアント装置110に提供し得る。さらに、ゲームサーバ120は、ネットワーク105を介してクライアント装置110からゲームデータ(例えば、プレイヤ位置、プレイヤアクション、プレイヤ入力等)を受信するように構成され得る。例えば、クライアント装置110は、定期的にプレイヤ入力及び他の更新をゲームサーバ120に送信するように構成され得て、ゲームサーバ120は、ゲームデータベース115内のゲームデータを更新し、ゲームの任意の及びすべての変更された条件を反映するために使用する。
示される実施形態では、サーバ120は、ユニバーサルゲームモジュール145、商用ゲームモジュール150、データ収集モジュール155、イベントモジュール160、及び横断可能空間推定訓練システム170を含む。上述したように、ゲームサーバ120は、ゲームサーバの一部であってもよく、またはリモートでアクセスされるゲームデータベース115と対話する(例えば、ゲームデータベース115は、ネットワーク105を介してアクセスされるデータベースに分散されてもよい。)他の実施形態において、ゲームサーバ120は、異なるまたは追加の要素を含む。さらに、機能は、説明した方法とは異なる方法で、要素間に分散されてもよい。例えば、ゲームデータベース115はゲームサーバ120に統合し得る。
ユニバーサルゲームモジュール145は、すべてのプレイヤのための並行現実ゲームをホストし、すべてのプレイヤのための並行現実ゲームの現在のステータスの権威あるソースとして機能する。ホストとして、ユニバーサルゲームモジュール145は、例えば、それぞれのクライアント装置110を経由して、プレイヤに提示するためのゲームコンテンツを生成する。ユニバーサルゲームモジュール145は、並行現実ゲームをホストするときにゲームデータベース115にアクセスし、ゲームデータを取得または格納してもよい。ユニバーサルゲームモジュール145はまた、クライアント装置110からゲームデータ(例えば、深度情報、プレイヤ入力、プレイヤ位置、プレイヤアクション、ランドマーク情報等)を受信してもよく、受信したゲームデータを並行現実ゲームの全プレイヤのための並行現実ゲームの全体的に組み込む。ユニバーサルゲームモジュール145はまた、ネットワーク105を介してクライアント装置110へのゲームデータの配信を管理し得る。ユニバーサルゲームモジュール145は、また、クライアント装置110とゲームサーバ120との間の接続を確保すること、様々なクライアント装置110との間の接続を確立すること、及び様々なクライアント装置110の位置を検証することを含むが、これらに限定されない、クライアント装置110のセキュリティ態様を管理してもよい。
商用ゲームモジュール150は、1つが含まれる実施形態では、ユニバーサルゲームモジュール145から分離されてもよく、一部であってもよい。商用ゲームモジュール150は、現実世界における商用活動にリンクされた並行現実ゲーム内の様々なゲームの特徴の包含を管理し得る。例えば、商用ゲームモジュール150は、(ネットワークインターフェースを介して)ネットワーク105を介して、スポンサー/広告主、企業、または他のエンティティ等の外部システムから、並行現実ゲームの商用活動にリンクされたゲーム機能を含む要求を受信し得る。次いで、商用ゲームモジュール150は、並行現実ゲームにこれらのゲーム特徴を含めるように手配し得る。
ゲームサーバ120は、データ収集モジュール155をさらに含み得る。データ収集モジュール155は、1つが含まれる実施形態では、ユニバーサルゲームモジュール145から分離されてもよく、一部であってもよい。データ収集モジュール155は、現実世界のデータ収集活動にリンクされた並行現実ゲーム内の様々なゲーム機能の包含を管理し得る。例えば、データ収集モジュール155は、ゲームデータベース115に格納されたゲームデータを修正し得て、並行現実ゲーム内のデータ収集活動とリンクされたゲーム特徴を含む。データ収集モジュール155はまた、データ収集活動に従ってプレイヤによって収集されたデータを分析し、様々なプラットフォームによるアクセスのためのデータを提供し得る。
イベントモジュール160は、並行現実ゲーム内のイベントへのプレイヤアクセスを管理する。用語「イベント」は便宜上使用されるが、この用語は、特定の場所または時間における特定のイベントを指す必要はないことを理解されたい。むしろ、プレイヤがそのコンテンツにアクセスしてもよいどうかを決定するために1つ以上のアクセス基準が使用される、アクセス制御されたゲームコンテンツのあらゆる提供を指す場合がある。そのようなコンテンツは、アクセス制御が少ない、またはまったくないゲームコンテンツを含むより大きな並行現実ゲームの一部であってもよく、またはスタンドアローンのアクセス制御された並行現実ゲームであってもよい。
ネットワーク105は、ローカルエリアネットワーク(例えば、イントラネット)、ワイドエリアネットワーク(例えば、インターネット)、またはそれらのいくつかの組み合わせ等のどのようなタイプの通信ネットワークであり得る。ネットワークはまた、クライアント装置110とゲームサーバ120との間の直接接続を含み得る。一般に、ゲームサーバ120とクライアント装置110との間の通信は、様々な通信プロトコル(例えば、TCP/IP、HTTP、SMTP、FTP)、エンコーディングまたはフォーマット(例えば、HTML、XML、JSON)、または保護スキーム(例えば、VPN、セキュアHTTP、SSL)を使用して、任意のタイプの有線または無線接続を使用してネットワークインターフェースを介して伝送され得る。
本明細書で論じる技術は、サーバ、データベース、ソフトウェアアプリケーション、および他のコンピュータベースのシステム、ならびにそのようなシステムとの間で行われたアクションおよび送信された情報を参照している。当業者は、コンピュータベースのシステムの固有の柔軟性が、コンポーネント間及びコンポーネント間のタスク及び機能の多種多様な可能な構成、組み合わせ、及び分割を許容することを認識するであろう。例えば、本明細書で論じられるサーバプロセスは、組み合わせて動作する単一のサーバまたは複数のサーバを使用して実装されてもよい。データベース及びアプリケーションは、単一のシステム上に実装されてもよく、または複数のシステムにわたって分散されてもよい。分散コンポーネントは、順次または並列で動作してもよい。
さらに、本明細書で論じるシステム及び方法は、ユーザ(例えばプレイヤ)に関する個人情報にアクセスして分析する、または位置情報等の個人情報を利用する状況において、ユーザは、プログラムまたは機能が情報を収集するかどうかを制御し、システムまたは他のアプリケーションからコンテンツを受信するかどうか、またはどのように受信するかを制御する機会を提供されてもよい。そのような情報やデータは、ユーザにどのような情報がどのように収集され、どのように使用されるかの意味のある通知が提供されるまで、収集または使用されない。ユーザが同意しない限り、情報は収集または使用されず、ユーザはいつでも同意を取り消したり変更したりできる。したがって、ユーザは、ユーザに関する情報がどのように収集され、アプリケーションまたはシステムによって使用されるかを制御し得る。さらに、特定の情報またはデータは、個人を特定できる情報が削除されるように、格納、または使用される前に1つまたは複数の方法で取り扱い得る。例えば、ユーザの識別は、ユーザのために個人識別可能な情報を決定することができないように取り扱ってもよい。
例示的な拡張現実システム
様々な実施形態では、拡張現実コンテンツは、クライアント装置110の拡張現実エンジンによって提供され得る。例えば、拡張現実エンジンは、スマートフォン、タブレット、またはウェアラブルデバイス(例えば、ARハット)上で実行されてもよく、またはそのような要素の組み合わせの間に分散されてもよい。拡張現実エンジンは、クライアント装置110のカメラアセンブリ125によって生成されたデジタル画像のストリームを受信してもよい。デジタル画像は、クライアント装置110の周りの環境のほぼリアルタイムのビューを表す。
様々な実施形態では、拡張現実コンテンツは、クライアント装置110の拡張現実エンジンによって提供され得る。例えば、拡張現実エンジンは、スマートフォン、タブレット、またはウェアラブルデバイス(例えば、ARハット)上で実行されてもよく、またはそのような要素の組み合わせの間に分散されてもよい。拡張現実エンジンは、クライアント装置110のカメラアセンブリ125によって生成されたデジタル画像のストリームを受信してもよい。デジタル画像は、クライアント装置110の周りの環境のほぼリアルタイムのビューを表す。
拡張現実エンジンはまた、地理的位置決めシステム(例えば、位置決めモジュール140)から位置決め上の地理を受信してもよい。拡張現実エンジンは、地理的位置を使用して、クライアント装置110の周りの環境の3Dマップデータ(例えば、ポイントクラウド)を識別し、(例えば、サーバ120からダウンロードすることによって)取得してもよい。拡張現実エンジンは、クライアント装置110のカメラアセンブリ125によってキャプチャされた画像を3Dマップデータと比較することによって、ローカリゼーションを実行し、クライアント装置110のより正確な位置を決定してもよい。クライアント装置110の決定された位置を使用して、拡張現実エンジンは、カメラアセンブリ125の1つまたは複数のカメラの視野内の現実世界の位置に対応する仮想世界内の位置を有する1つまたは複数の拡張現実要素を識別してもよい。拡張現実エンジンは、拡張現実要素をカメラアセンブリ125によって捕捉された画像に重ねて表示させてもよい。
例示的なウェアラブル拡張現実デバイス
上述したように、クライアント装置110の機能の一部またはすべては、ウェアラブルデバイスによって提供されてもよい。一実施形態では、ウェアラブルデバイスは、ARハットである。ARハットは、野球帽フォームファクタを有してもよい。あるいは、ARハットは、バイザー、フェドーラ、またはソンブレロ等の他のフォームファクタを有してもよい。
上述したように、クライアント装置110の機能の一部またはすべては、ウェアラブルデバイスによって提供されてもよい。一実施形態では、ウェアラブルデバイスは、ARハットである。ARハットは、野球帽フォームファクタを有してもよい。あるいは、ARハットは、バイザー、フェドーラ、またはソンブレロ等の他のフォームファクタを有してもよい。
野球帽構造は、つば、ヘッドバンド、およびクラウンを含む。一実施形態では、これらの部品は、着用者に拡張現実コンテンツを提供するためのシステム構成要素の一部または全部を含み得る体積形状に修正される。キャップのクラウンは、システムコンポーネントの取り付けをサポートするためにリブ構造で硬化させ得る。他の実施形態では、クラウンは取り外し可能であり、布で作られているため、つばおよびヘッドバンドは、システムコンポーネントを収容するように構成される。
図3は、野球帽フォームファクタを備えたARハットの一実施形態を示している。図3は、野球帽フォームファクタを備えたARハットの一実施形態を示している。示される実施形態では、野球帽は、帽子のつば340の内側に取り付けられた電子機器300を含む。電子機器300は、カメラ320及びセンサ310等の環境センサならびに通信コンポーネント(BT、Wi-Fi、セルラー、5G等)、コンピュータユニット(CPU、GPU)、メモリ、及び配線等(図示せず)を含んでもよい。いくつかの実施形態では、環境センサは、つば340の最も前方の端にあり、カメラ、深度センサ、およびマイクロフォンを含む。図3に示される実施形態では、ヘッドバンドは、クラウン330の表面の後ろにあるために見えない。いくつかの実施形態では、クラウン330およびヘッドバンドは、単一の分離不可能な構成要素であってもよく、一方、他の実施形態では、2つは分離されている。
図4Aは、一実施形態による、熱放散領域を示すウェアラブル拡張現実デバイスの左前斜視図である。示されるように、つば340の上面は、熱放散のために使用され得て、内蔵されたヒートシンク400は、熱をつば全体にわたって環境に広げる。ヒートシンクは、銅、アルミニウム、合金、または他の熱伝導材料を含む材料で作製されてもよく、ヒートシンク400の表面積を増加させる表面特徴(例えば、隆起またはベーン)を有する。他の実施形態では、ヒートシンク400は、つば340全体であり、つば340は、熱伝導材料の一部である。他の実施形態では、ヒートシンク400は、上面または底面のみ等のつば340のサブ領域であり、つば340の残りは、ヒートシンク400の熱伝導材料で作られていない。
他の実施形態では、ヒートシンク400は、つば340の材料内の熱伝導性プレートである。この実施形態では、熱の放散を促進するために、つば340は、ヒートシンク400の周りおよびつば340から空気を循環させるファンを含む。つば340は、空気がつば340に出入りすることを可能にするための通気口を追加的に含んでもよい。
図4Bは、一実施形態による、放熱フィン410を有するヒートシンクを示すウェアラブルARデバイスの正面左側斜視図である。フィン410は、熱伝導性材料で作られ、つば340に表面積を追加するように成形される。増加した表面積は、より多くの熱がつば340から、内部構成要素及びユーザの頭部から離れることを可能にする。同様の実施形態では、つば340の表面積は、エッチングによって増加されてもよく、または放熱フィン410を追加するのではなく、他のテクスチャを含む。例えば、つば340の表面は、同じ効果を達成するために刻み目またはくぼみを付けられてもよい。
図5は、シースルー光学素子500がつばの底面(例えば、下側)に取り付けられていることを示す一実施形態を示す。光学ディスプレイ500は、着用者の目の前にあるように配置される。光学ディスプレイ500は、拡張現実ゲームのためのビジュアル等の画像光をユーザの目に放射する。光学ディスプレイ500はまた、ユーザが画像光と環境を同時に見ることができるように、デバイスの環境からの光が光学ディスプレイ500を通過することを可能にするために透明である。したがって、着用者は、拡張現実オブジェクトがそれらの周囲の環境にオーバーレイされていると知覚し得る。図5は、一対の光学ディスプレイ500を有するハットを示すが、いくつかの実施形態では、ハットは、着用者の目の両方の前にあるのに十分な大きさの単一の光学ディスプレイ500を有してもよい。
いくつかの実施形態では、光学ディスプレイ500は、使用していないときに、折り畳まれた位置に上向きに折り畳まれてもよく、折り畳まれた位置に上向きにヒンジしてもよく、つばの下側に寄りかかってもよい(またはつば内の空洞内に収容されてもよい)。図6は、折り畳まれていない位置にある光学ディスプレイ500を示す。光学ディスプレイ500が展開位置にあるとき、それらは、つばの底面に対して垂直またはほぼ垂直(例えば、20度以内)である。いくつかの実施形態では、光学ディスプレイ500は、着用者の目に対するそれらの角度の調整を可能にするために、つばの下側に接続されたヒンジに取り付けられる。
図7はまた、光学ディスプレイ500が、ユーザが保管のために帽子のつばに平行になるようにヒンジ上に折り畳まれた光学ディスプレイ500を回転させることを可能にし得ることを示す。したがって、AR機能が使用されていないとき、着用者の視界は、不活性な光学ディスプレイ500によって妨げられることはない。つばの下の光学ディスプレイ500と着用者の目の間には空間があるため、このハットは視力矯正メガネやサングラスと一緒に着用してもよい。いくつかの実施形態では、視力補正メガネまたはサングラスは、1つまたは複数のコネクタを使用して(例えば、つばの下側またはクラウンの底つばに)ハットに一時的または恒久的に接続されることによってハットに組み込んでもよい。
図8は、ハットが無線および有線通信機能を含む実施形態を示している。一組のアンテナ800は、キャップのクラウンの周りに取り付けられる。アンテナ800は、セルタワーアンテナとのより良い通信を可能にする。3つのアンテナ800が図8に示されているが、任意の数のアンテナが、アンテナのサイズ及びハット上の(及びハットの内側の)利用可能な空間によってのみ制限されて、ハット上に取り付けられ得ることを理解されたい。
加えて、ハットは、ハットを別個のデバイスに接続するためのソケット810を含む。補助デバイス810へのコネクタは、別個のデバイスをARハットに接続するためのケーブルアタッチメントまたは恒久的に取り付けられたケーブルのためのポートであってもよい。一実施形態では、この別個のデバイスは、ARハットを制御するアプリケーションを実行する携帯電話である。例えば、着用者は、ハットによってキャプチャされた画像及びセンサデータが処理のためにスマートフォンに渡されることを可能にするために、またはスマートフォンがハットの光学ディスプレイ500上にARコンテンツを表示するためのARデータを提供するために、ハットをスマートフォンに接続してもよい。他の実施形態では、別個のデバイスは、ARハットに電力を供給するための外部バッテリパックである。この実施形態では、外部電池は、ハットのクラウン内の電池を交換することによってARハットの重量を減少させてもよく、または余分な電源を供給することによってARハットの電池寿命を増してもよい。任意の実施形態では、ARハットを一度に複数のデバイスに接続できるように、補助デバイスへの1つまたは複数のコネクタ810が存在してもよい。
ハットはまた、他の構成要素に電力を供給するための1つまたは複数のバッテリ820を含んでもよい。追加的または代替的に、電力は、補助デバイスからコネクタ810を介して提供されてもよい。電池820は、ハットのクラウンの丸みを帯びた形状に適合するようにカスタム形状であってもよい。
図9は、野球帽フォームファクタを有するARハットの一実施形態の背面左斜視図を示す。示される実施形態では、野球帽の背面は、ダイヤル910を備えたヘッドバンド900を有する。システムをユーザの頭部にしっかりと保持するために、ハットの通常のスウェットバンドは、着用者の頭部寸法に適合するようにダイヤル910を回すことによって締め付け、解放し得るラップアラウンドヘッドバンド900と交換されてもよい。
図10は、スピーカ1000がクラウンの内側に取り付けられている実施形態を示している。スピーカ1000は、着用者の耳の真上にあるように配置される。スピーカは、クラウンではなくヘッドバンドに取り付けられてもよい。
ARハットの布は、様々な形状および色を可能にするために交換し得る。たとえば、PokemonGo(登録商標)プレイヤは、Ash Ketchum(登録商標)スタイルの帽子を持つことができ、Disneyland(登録商標)パークはネズミ耳付きの帽子を借り得る。クラウンの外側は、(a)プレイヤの識他のために固有のパターン(例えば、QRコード(登録商標))をオーバーレイするために使用されてもよい。他のプレイヤのシステムに搭載されたカメラによるマルチプレイヤゲーム、または(b)アウトサイドイントラッキングシステムによる6DOF位置計算。これらの異なる視覚的表現は、実質的に同じ電子機器/機械構造を維持するが、ハットの視覚的外観を変更する。
図11は、コンポーネントがバイザーフォームファクタに適合するように配置されているARハットの代替の実施形態を示している。示される実施形態では、クラウンのコンポーネントはヘッドバンドの周りに配置されている。したがって、クラウン布は、バイザー形状のデバイスを作るために省略し得る。追加的または代替的に、バイザープロファイルは、異なるデザインおよび色のクラウンを所望に応じて取り付けおよび取り外すことを可能にするように構成された取り付け部分(例えば、Velcro(登録商標)タブ)を含んでもよい。
図12は、一実施形態による、取り外し可能なクラウンを有するウェアラブル拡張現実デバイスの背面-右斜視図である。示される実施形態では、ARハットのクラウン1202部分は、ユーザがクラウン1202のために異なる色またはデザインを選択し得るように、取り外し可能であり、交換可能である。この実施形態では、構成要素は、バイザーフォーム因子に適合するように配置される。バイザーは、ARデバイスの構成要素(例えば、光学ディスプレイ、バッテリ、スピーカ等)を支持するように構成された部分的に剛性のバンド1214を有してもよい。いくつかの実施形態では、部分的に剛性のあるバンドは、ユーザの頭部の周りを完全に巻くわけではなく、様々な頭部サイズに対応するために屈曲し得る。例えば、バンドは、ユーザの右耳の上の領域を覆うのではなく、ユーザの額、左耳の上、および頭の後ろの周りを巻いてもよい。他の実施形態では、バンドは、ユーザの頭部の周りに完全なループを形成してもよく、調整可能である。
部分的に剛性のバンド1214は、布カバー(例えば、布カバー1302)に結合されてもよい。布カバーは、カスタマイズのために他の布カバーと交換可能であってもよい。布カバーは、洗浄のためにバンド1214から取り外してもよい。布カバーは、バンド1214を布カバーのポケットに通すことによってバンド1214に結合してもよい。布カバーは、ARデバイスがバイザーまたはハットであるように構成されるときに使用されてもよい。ダイヤルやベルクロ(登録商標)ストラップのような調節手段を布製カバーに含めることで、ユーザに合わせたフィット感を提供し得る。
ARデバイスの構成要素は、部分的に剛性のバンド1214の周りだけでなく、バイザーのつば1204部分に配置される。コンポーネントの重量は、ユーザの快適さとデバイスの安定性のためにバイザー全体でバランスをとってもよい。例えば、光学ディスプレイ500及び音声を制御する構成要素は、バッテリ1206がほぼ均一な重量分散のためにバイザーバンド1214の背面として配置されている間、つば1204部分に配置されてもよい。
取り外し可能なクラウン1202部分をバイザー部分に結合するために、ユーザは、バイザーとクラウン1202の一連のスナップオンアタッチメント1212を位置合わせする。バイザーは、スナップオンアタッチメント1212の雌の半分を有してもよく、クラウンは、スナップオンアタッチメント1212の雄の半分を有してもよい。他の実施形態では、オスおよびメスのスナップオン1212の構成は、スナップオンアタッチメント1212のオスおよびメスの半分がバイザーおよびクラウン1202の両方にあるように切り替えられてもよく、または混合されてもよい。スナップオンアタッチメント1212は、それらが外側から見えないように、バイザーバンド1214の内部に位置する。クラウン1202のスナップオン1212は、バイザーバンドのスナップオンにシームレスに適合し得るように、凹んだ領域内のクラウンの外面上にある。クラウン1202がバイザーに取り付けられると、スナップオンアタッチメント1212は見えない。あるいは、スナップオン1212の一部またはすべては、可視であり、帽子の美的デザインに寄与するように配置されてもよい。バイザーは、さらに、クラウンのストラップ1208がねじ込まれてクラウンをバイザーにさらに固定できるスロット1210を有してもよい。クラウンのストラップ1208は、ユーザが快適さのためにARハットのサイズを調整するためのマジックテープまたは他のアタッチメントとして機能してもよい。ストラップ1208、スロット1210、およびバッテリ1206は、調整領域と呼ばれ得て、調整領域は、バンド1214のサイズ(例えば、長さまたは直径)のカスタマイズをしてもよい。調整領域は、また、バッテリを収容してもよい。
図13は、2つの構成を示す取り外し可能なクラウンを備えたウェアラブル拡張現実デバイスの右側面図である。図の左側は、クラウン1202が取り付けられたハットとして拡張現実デバイスを着用しているユーザを示し、図の右側は、クラウン1202が取り外されたバイザーとして拡張現実デバイスを着用しているユーザを示している。バイザーの実施形態は、部分的に剛性のバンド1214がねじ込まれる布カバー1302を含む。ハット構成では、クラウン1202は、図12に示されるスナップオンアタッチメント1212でバイザーに固定される(ここでは見えない)。クラウン1202は、バッテリ1206内のスロット1210を通ってねじ込まれたストラップ1208によってさらに固定される。
ウェアラブル拡張現実デバイスのクラウン部分は、QRコード(登録商標)または他のビジュアルエンコーダ等の識別子を有してもよい。識別子は、同じ環境内のデバイスを識別するために使用されてもよい。例えば、他のウェアラブルARデバイスまたはクライアント装置は、識別子の画像をキャプチャし、画像を処理して、画像内のデバイスを装着しているユーザの識別を作成してもよい。このようにして、デバイスは、近くのゲームの他のプレイヤを識別し、それらとの接触を確立することによって、マルチプレイヤゲーム設定で相互作用する。デバイス間の接続は、さらに、メッセージストリームを介して、またはデバイス間の位置を共有することによって確立されてもよい。
例示的なコンピュータデバイスアーキテクチャ
図14は、機械可読媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)において実行することが可能である例示的な機械の構成を図示するブロック図である。具体的には、図14は、コンピュータシステム1400の例示的な形態における機械の図表示を示している。コンピュータシステム1400は、ゲームサーバ110またはクライアント140の構成要素(またはモジュール)に関連付けられ、説明されるものを含む、本明細書に記載される方法論(または処理)のいずれか1つ以上をマシンに実行させるための命令1424(例えば、プログラムコードまたはソフトウェア)を実行するために使用し得る。
図14は、機械可読媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)において実行することが可能である例示的な機械の構成を図示するブロック図である。具体的には、図14は、コンピュータシステム1400の例示的な形態における機械の図表示を示している。コンピュータシステム1400は、ゲームサーバ110またはクライアント140の構成要素(またはモジュール)に関連付けられ、説明されるものを含む、本明細書に記載される方法論(または処理)のいずれか1つ以上をマシンに実行させるための命令1424(例えば、プログラムコードまたはソフトウェア)を実行するために使用し得る。
マシンは、サーバコンピュータ、クライアントコンピュータ、パーソナルコンピュータ(PC)、タブレットPC、セットトップボックス(STB)、スマートフォン、ネットワークルータ、スイッチまたはブリッジ、携帯電話タワー、またはそのマシンによって実行されるアクションを指定する命令1424(シーケンシャルまたはその他)を実行するこのような機械であってもよい。さらに、単一のマシンだけが示されているが、「機械」という用語は、命令1424を個別にまたは共同して実行して、本明細書で説明される方法論のうちのいずれか1つまたは複数を実行する機械の任意の集合を含むものと解釈されるものとする。
例示的なコンピュータシステム1400は、1つ以上の処理ユニット(一般に、1つ以上のプロセッサ1402)を含む。プロセッサ1402は、例えば、中央処理デバイス(CPU)、グラフィック処理デバイス(GPU)、デジタルシグナルプロセッサ(DSP)、コントローラ、状態マシン、1つまたは複数の特定用途向け集積回路(ASICs)、1つまたは複数の無線周波数集積回路(RFICs)、またはこれらの任意の組み合わせである。本明細書におけるプロセッサ1402への任意の言及は、単一のプロセッサまたは複数のプロセッサを指してもよい。コンピュータシステム1400は、また、メインメモリ1404を含む。コンピュータシステムは、ストレージユニット1416を含んでもよい。プロセッサ1402、メモリ1404、及びストレージユニット1416は、バス1408を介して通信する。
さらに、コンピュータシステム1400は、静的メモリ1406、(例えば、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、またはプロジェクターを駆動するために)ディスプレイドライバ1410を含み得る。コンピュータシステム1400は、また、英数字入力装置1414(例えば、キーボード)、カーソル制御装置1414(例えば、マウス、トラックボール、ジョイスティック、モーションセンサー、または他のポインティング機器)、信号生成装置1418(例えば、スピーカ)、およびネットワークインターフェース装置1420を含み得て、これらは、また、バス1408を介して通信するように構成される。
ストレージユニット1416は、本明細書で説明される方法論または機能のうちの任意の1つまたは複数を具現化する命令1424(例えば、ソフトウェア)が格納される機械可読媒体1422を含む。命令1424はまた、コンピュータシステム1400によるその実行中に、完全にまたは少なくとも部分的に、メインメモリ1404内またはプロセッサ1402内(例えば、プロセッサのキャッシュメモリ内)に存在する可能性があり、メインメモリ1404およびプロセッサ1402も機械可読媒体を構成する。命令1424は、ネットワークインターフェース装置1420を介してネットワーク1470(例えば、ネットワーク105)を介して送信または受信されてもよい。
機械可読媒体1422は、例示的な実施形態では単一の媒体であると示されているが、「機械可読媒体」という用語は、命令1424を格納することができる単一の媒体または複数の媒体(例えば、集中型または分散型データベース、または関連するキャッシュおよびサーバ)を含むと解釈されるべきである。「機械可読媒体」という用語は、また、マシンによる実行のための命令1424を格納することが可能であり、マシンに本明細書に開示される1つまたは複数の方法論のうちの任意のものを実行させる任意の媒体を含むものと解釈される。「機械可読媒体」という用語は、ソリッドステートメモリ、光学媒体、および磁気媒体の形態でのデータリポジトリを含むが、限定されるものではない。
追加的な考慮事項
上述のいくつかの部分は、アルゴリズムプロセスまたは動作の観点から実施形態を説明する。これらのアルゴリズムの説明および表現は、データ処理技術の当業者が、その作業の内容を他の当業者に効果的に伝えるために一般的に使用されている。これらの動作は、機能的、計算的、または論理的に説明されている一方で、プロセッサまたは等価電気回路、マイクロコード等による実行のための命令を含むコンピュータプログラムによって実装されると理解される。さらに、また、普遍性を失うことなく、ときにはこれらの機能操作の配置をモジュールと呼ぶことが便利な場合もある。
上述のいくつかの部分は、アルゴリズムプロセスまたは動作の観点から実施形態を説明する。これらのアルゴリズムの説明および表現は、データ処理技術の当業者が、その作業の内容を他の当業者に効果的に伝えるために一般的に使用されている。これらの動作は、機能的、計算的、または論理的に説明されている一方で、プロセッサまたは等価電気回路、マイクロコード等による実行のための命令を含むコンピュータプログラムによって実装されると理解される。さらに、また、普遍性を失うことなく、ときにはこれらの機能操作の配置をモジュールと呼ぶことが便利な場合もある。
本明細書で使用される場合、「一つの実施形態」または「一実施形態」への言及は、その実施形態に関連して説明される特定の要素、特徴、構造、または特性が少なくとも一実施形態に含まれることを意味する。本明細書の様々な箇所に現れる「一実施形態において」という語句は、必ずしもすべてが同じ実施形態を指しているとは限らない。同様に、要素または構成要素の前にある「a」または「an」の使用は、単に便宜上のために行われる。この説明は、それ以外の意味であることが明らかでない限り、要素または構成要素のうちの1つまたは複数が存在することを意味すると理解されるべきである。
値が「約」または「実質的に」(またはそれらの派生物)として説明される場合、文脈から他の意味が明らかでない限り、そのような値は正確な+/-10%と解釈されるべきである。例から、「約10」は、「9から11の間」を意味する。
本明細書で使用される場合、用語「備える」、「備えること」、「含む」、「含むこと」、「有する」、「有すること」、またはそれらの他の変形は、非排他的な包含をカバーすることを意図している。例えば、要素のリストから構成されるプロセス、方法、成形品、又は装置は、必ずしもそれらの要素のみに限定されるものではなく、明示的に列挙されていない、又はそのようなプロセス、方法、成形品、又は装置に固有の他の要素を含んでもよい。さらに、反対のことが明確に述べられていない限り、「または」は排他的またはではなく、包括的なまたはを指す。例えば、条件AまたはBは、以下のいずれかによって満たされる:Aが真(または存在する)でBが偽(または存在しない)、Aが偽(または存在しない)でBが真(または存在する)、AとBの両方が真(または存在する)。
本発明の主題は、特定の例示的な実施形態及びその方法に関して詳細に説明されているが、当業者は、前述の理解を得ると、そのような実施形態に対する変更、変形、及び等価物を容易に生成し得ることを理解するであろう。したがって、本開示の範囲は、限定ではなく例であり、主題の開示は、当業者に容易に明らかになるであろう本主題へのそのような修正、変形、または追加の包含を排除しない。
例示的な位置ベースの並行現実ゲームシステム
並行現実ゲームでは、現実世界の地理が現実世界の地理の少なくとも一部と並行しており、現実世界でのプレイヤの移動や行動が仮想世界での行動に影響を与えたり、逆に仮想世界でのプレイヤの移動や行動が現実世界での行動に影響を与えたりする。仮想世界は、対応する現実世界の場所に移動することによって、プレイヤが現実世界の画像上にオーバーレイして見ることができる拡張現実(AR)コンテンツを含み得る。当業者であれば、本明細書で提供される開示は、記載された主題がAR画像が表示される他の状況に適用可能であることを理解するであろう。さらに、本明細書に提供される開示を使用して、当業者は、本開示に照らして、多数のゲームインターフェース構成及び基礎となる機能性が明らかであることを理解するであろう。本開示は、任意の1つの特定の構成に限定されることを意図するものではない。
並行現実ゲームでは、現実世界の地理が現実世界の地理の少なくとも一部と並行しており、現実世界でのプレイヤの移動や行動が仮想世界での行動に影響を与えたり、逆に仮想世界でのプレイヤの移動や行動が現実世界での行動に影響を与えたりする。仮想世界は、対応する現実世界の場所に移動することによって、プレイヤが現実世界の画像上にオーバーレイして見ることができる拡張現実(AR)コンテンツを含み得る。当業者であれば、本明細書で提供される開示は、記載された主題がAR画像が表示される他の状況に適用可能であることを理解するであろう。さらに、本明細書に提供される開示を使用して、当業者は、本開示に照らして、多数のゲームインターフェース構成及び基礎となる機能性が明らかであることを理解するであろう。本開示は、任意の1つの特定の構成に限定されることを意図するものではない。
図1は、1つまたは複数の実施形態による、ネットワーク化されたコンピュータ環境を示す。ネットワーク化されたコンピュータ環境は、現実世界と並行する地理を有する仮想世界におけるプレイヤとの相互作用を提供する。特に、現実世界の地理的領域は、仮想世界の対応する領域に直接リンクまたはマッピングされてもよい。プレイヤは、現実世界の様々な地理的位置を移動することにより、仮想世界を移動することができる。例えば、現実世界におけるプレイヤの位置は、仮想世界におけるプレイヤの位置を追跡し、更新するために使用することができる。典型的には、現実世界におけるプレイヤの位置は、プレイヤが仮想世界と相互作用しているクライアント装置110の位置を見つけ、プレイヤが同じ(またはほぼ同じ)位置にあると仮定することによって決定される。例えば、様々な実施形態では、現実世界におけるプレイヤの位置が、仮想世界における仮想要素の仮想位置に対応する現実世界の位置の閾値距離(例えば、10メートル、20メートル等)内にある場合、プレイヤは仮想要素と相互作用してもよい。便宜上、このように仮想要素と対話するのに十分に近いプレイヤは、仮想要素に対応する現実世界の場所にいると呼ばれる。加えて、様々な実施形態が「プレイヤの位置」を参照して説明されるが、当業者は、そのような参照がプレイヤのクライアント装置110の位置を参照し得ることを理解するであろう。
ここで、一実施形態による、並行現実ゲームのプレイヤのためのゲームボードとして機能することができる現実世界200と並列する仮想世界210の概念図を示す図2を参照する。図示されるように、仮想世界210は、現実世界200の地理に平行する地理を含み得る。特に、現実世界200内の地理的領域または空間を画定する座標の範囲は、仮想世界210内の仮想空間を画定する座標に対応する範囲にマッピングされる。現実世界200における座標の範囲は、町、近隣、都市、キャンパス、近辺、国、大陸、地球全体、または他の地理的領域に関連付け得る。地理座標の範囲内の各地理座標は、仮想世界内の仮想空間内の対応する座標にマッピングされる。
これらの仮想要素230は、現実世界200内のランドマーク、地理的位置、またはオブジェクト240にリンクされ得る。現実世界のランドマークまたはオブジェクト240は、芸術作品、記念碑、建物、ビジネス、図書館、博物館、または他の適切な現実世界のランドマークまたはオブジェクトであってもよい。相互作用は、キャプチャ、所有権の主張、いくつかの仮想アイテムの使用、いくつかの仮想通貨の使用等を含む。これらの仮想要素230をキャプチャするために、プレイヤは、現実世界で仮想要素230にリンクされたランドマークまたはオブジェクト240に移動し、仮想世界210内の仮想要素230と相互作用する。例えば、図2のプレイヤAは、その特定のランドマーク240とリンクされた仮想要素230と相互作用するか、またはその特定のランドマーク240とリンクされた仮想要素230をキャプチャするために、現実世界200内のランドマーク240に移動しなければならない場合がある。仮想要素230との相互作用は、カメラによってキャプチャされた画像(例えば、ビデオ)のセット内の現実世界の位置のビュー上にオーバーレイされた仮想要素のAR表現を表示し、現実世界内で仮想要素の「写真」を撮る等、現実世界でのアクションを必要とし得る。画像及び写真のセットは、ウェアラブルARデバイス(例えば、ARハット)に取り付けられたカメラによってキャプチャされてもよい。
図1の参照に戻り、ネットワーク化されたコンピュータ環境は、クライアントサーバアーキテクチャを使用し、ゲームサーバ120は、ネットワーク105を介してクライアント装置110と通信して、クライアント装置110のプレイヤに並行現実ゲームを提供する。ネットワーク化されたコンピュータ環境はまた、スポンサー/広告主システムまたは企業システムなどの他の外部システムを含み得る。1つのクライアント装置110のみが図1に示されているが、任意の数のクライアント装置110または他の外部システムは、ネットワーク105を介してゲームサーバ120に接続されてもよい。さらに、ネットワーク化されたコンピュータ環境は、異なるまたは追加の要素を含み得、機能性は、以下に説明するのとは異なる方法でクライアント装置110とサーバ120との間に分散され得る。
クライアント装置110によって実行されるゲームモジュール135は、プレイヤと並行現実ゲームとの間のインターフェースを提供する。ゲームモジュール135は、ARハットのつばに取り付けられ、着用者の目の前に配置された光学ディスプレイ等のディスプレイデバイス上にユーザインターフェースを提示し得る。ユーザインターフェースは、ゲームに関連付けられた仮想要素を含み得て、プレイヤが仮想要素と対話して様々なゲーム目標を実行することを可能にしてもよい。ゲームモジュール135は、クライアント装置の他のコンポーネントから受信した他の情報に従って、仮想コンテンツを生成してもよく、または仮想コンテンツを調整してもよい。例えば、ゲームモジュール135は、画像データにキャプチャされたシーンの深度マップに従って、ユーザインターフェース上に表示される仮想オブジェクトを調整してもよい。
ゲームデータベース115に格納されたゲームデータは、(1)並行現実ゲーム内の仮想世界に関連付けられたデータ(例えば、ディスプレイ装置上で仮想世界をレンダリングするために使用される画像データ、仮想世界内の位置の地理的座標等)、(2)並行現実ゲームのプレイヤに関連付けられたデータ(例えば、プレイヤ情報、プレイヤエクスペリエンスレベル、プレイヤ通貨、仮想世界/現実世界内の現在のプレイヤ位置、プレイヤエネルギーレベル、プレイヤ嗜好、チーム情報、派閥情報を含むがこれらに限定されないプレイヤプロファイル)、(3)ゲーム目標に関連付けられたデータ(例えば、現在のゲーム目標、ゲーム目標の状態、過去のゲーム目標、将来のゲーム目標、所望のゲーム目標等に関連付けられたデータ)、(4)仮想世界における仮想要素に関連付けられたデータ(例えば、仮想要素の位置、仮想要素のタイプ、仮想要素に関連付けられたゲーム目標、仮想要素の対応する実際の世界の位置情報、仮想要素の挙動、仮想要素の関連性等)、(5)仮想世界にリンクされた現実世界のオブジェクト、ランドマーク、位置に関連付けられたデータ要素(例:現実世界のオブジェクト/ランドマークの位置、現実世界のオブジェクト/ランドマークの説明、現実世界のオブジェクトにリンクされた仮想要素の関連性等)、(6)ゲームステータス(例えば、現在のプレイヤ数、ゲーム目標の現在のステータス、プレイヤリーダーボード等)、(7)プレイヤアクション/入力(例えば、現在のプレイヤポジション、過去のプレイヤポジション、プレイヤの動き、プレイヤ入力、プレイヤクエリ、プレイヤ通信等)に関連付けられたデータ、及び(8)並行現実ゲームの実装中に使用される、関連する、または取得される任意の他のデータ。ゲームデータベース115に格納されたゲームデータは、システム管理者によって、またはネットワーク105を介してクライアント装置110から等、システムのユーザ/プレイヤから受信したデータによって、オフラインまたはリアルタイムのいずれかで登録され得る。
ゲームサーバ120は、データ収集モジュール155をさらに含み得る。データ収集モジュール155は、1つが含まれる実施形態では、ユニバーサルゲームモジュール145から分離されてもよく、一部であってもよい。データ収集モジュール155は、現実世界のデータ収集活動にリンクされた並行現実ゲーム内の様々なゲーム機能の包含を管理し得る。例えば、データ収集モジュール155は、ゲームデータベース115に格納されたゲームデータを修正し得て、並行現実ゲーム内のデータ収集活動とリンクされたゲーム特徴を含む。データ収集モジュール155はまた、データ収集活動に従ってプレイヤによって収集されたデータを分析して様々なプラットフォームによるアクセスのためのデータを提供し得る。
図3は、野球帽フォームファクタを備えたARハットの一実施形態を示している。示される実施形態では、野球帽は、帽子のつば340の内側に取り付けられた電子機器300を含む。電子機器300は、カメラ320及びセンサ310等の環境センサならびに通信コンポーネント(BT、Wi-Fi、セルラー、5G等)、コンピュータユニット(CPU、GPU)、メモリ、及び配線等(図示せず)を含んでもよい。いくつかの実施形態では、環境センサは、つば340の最も前方の端にあり、カメラ、深度センサ、およびマイクロフォンを含む。図3に示される実施形態では、ヘッドバンドは、クラウン330の表面の後ろにあるために見えない。いくつかの実施形態では、クラウン330およびヘッドバンドは、単一の分離不可能な構成要素であってもよく、一方、他の実施形態では、2つは分離されている。
加えて、ハットは、ハットを別個のデバイスに接続するためのコネクタ810を含む。補助デバイスへのコネクタ810は、別個のデバイスをARハットに接続するためのケーブルアタッチメントまたは恒久的に取り付けられたケーブルのためのポートであってもよい。一実施形態では、この別個のデバイスは、ARハットを制御するアプリケーションを実行する携帯電話である。例えば、着用者は、ハットによってキャプチャされた画像及びセンサデータが処理のためにスマートフォンに渡されることを可能にするために、またはスマートフォンがハットの光学ディスプレイ500上にARコンテンツを表示するためのARデータを提供するために、ハットをスマートフォンに接続してもよい。他の実施形態では、別個のデバイスは、ARハットに電力を供給するための外部バッテリパックである。この実施形態では、外部電池は、ハットのクラウン内の電池を交換することによってARハットの重量を減少させてもよく、または余分な電源を供給することによってARハットの電池寿命を増してもよい。任意の実施形態では、ARハットを一度に複数のデバイスに接続できるように、補助デバイスへの1つまたは複数のコネクタ810が存在してもよい。
例示的なコンピュータデバイスアーキテクチャ
図14は、機械可読媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)において実行することが可能である例示的な機械の構成を図示するブロック図である。具体的には、図14は、コンピュータシステム1400の例示的な形態における機械の図表示を示している。コンピュータシステム1400は、ゲームサーバ120またはクライアントデバイス110の構成要素(またはモジュール)に関連付けられ、説明されるものを含む、本明細書に記載される方法論(または処理)のいずれか1つ以上をマシンに実行させるための命令1424(例えば、プログラムコードまたはソフトウェア)を実行するために使用し得る。
図14は、機械可読媒体から命令を読み取り、それらをプロセッサ(またはコントローラ)において実行することが可能である例示的な機械の構成を図示するブロック図である。具体的には、図14は、コンピュータシステム1400の例示的な形態における機械の図表示を示している。コンピュータシステム1400は、ゲームサーバ120またはクライアントデバイス110の構成要素(またはモジュール)に関連付けられ、説明されるものを含む、本明細書に記載される方法論(または処理)のいずれか1つ以上をマシンに実行させるための命令1424(例えば、プログラムコードまたはソフトウェア)を実行するために使用し得る。
さらに、コンピュータシステム1400は、静的メモリ1406、(例えば、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、またはプロジェクターを駆動するために)ディスプレイドライバ1410を含み得る。コンピュータシステム1400は、また、英数字入力装置1412(例えば、キーボード)、カーソル制御装置1414(例えば、マウス、トラックボール、ジョイスティック、モーションセンサー、または他のポインティング機器)、信号生成装置1418(例えば、スピーカ)、およびネットワークインターフェース装置1420を含み得て、これらは、また、バス1408を介して通信するように構成される。
Claims (20)
- ウェアラブル拡張現実デバイスであって、
ユーザの頭部の周りを少なくとも部分的に巻き付け、前記ユーザの頭部にわたって前記デバイスの構成要素の重量を分配するように構成されたヘッドバンドと、
前記ヘッドバンドに結合され、前記ヘッドバンドから離れて延びるつば部であって、前記デバイスの電子機器から前記デバイスの環境に熱を放出するように構成されたヒートシンクを含む、前記つば部と、
前記つば部の下側に結合された光学ディスプレイであって、画像光を放出し、前記環境からの光が前記光学ディスプレイを通過することを可能にするように構成された前記光学ディスプレイと、
前記つば部の前縁部に結合された環境センサであって、前記デバイスの前記環境に関するデータをキャプチャするように構成された前記環境センサと、を含む、ウェアラブル拡張現実デバイス。 - 前記ヘッドバンドに取り付けるように構成された布クラウンをさらに備える、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記布クラウンは、前記ヘッドバンドがねじ込まれるポケットを含む布カバーを介して前記ヘッドバンドに結合する、請求項2に記載のウェアラブル拡張現実デバイス。
- 前記布クラウンは、前記布クラウン及び前記ヘッドバンド上の対応する位置にある複数のスナップを介して前記ヘッドバンドに結合する、請求項2に記載のウェアラブル拡張現実デバイス。
- 前記クラウンは、前記ウェアラブル拡張現実デバイスを識別するために他のデバイスのカメラによって検出されるように構成された視覚識別子を含む、請求項2に記載のウェアラブル拡張現実デバイス。
- 前記視覚識別子がQRコードである、請求項5に記載のウェアラブル拡張現実デバイス。
- 前記光学ディスプレイは、前記剛性つば部にヒンジに結合され、前記ヒンジは、前記光学ディスプレイが、前記剛性つば部の前記下側に対して折り畳まれた位置、または前記光学ディスプレイが前記つば部の底面に実質的に垂直である、折り畳まれていない位置にあることを可能にするように構成される、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記環境センサは、前記デバイスの前記環境の画像をキャプチャするように構成されたカメラを備える、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記カメラは、異なる視点から前記環境の画像をキャプチャするように構成された複数のカメラのうちの1つである、請求項8に記載のウェアラブル拡張現実デバイス。
- 前記環境センサは、前記デバイスの前記環境の深度データをキャプチャするように構成された深度センサを備える、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記つば部の前記ヒートシンクは、熱伝導フィンを備える受動ヒートシンクである、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記つば部の前記ヒートシンクは、ファン及び熱交換器を備えるアクティブヒートシンクである、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記ヘッドバンドのサイズを調整するように構成された調整領域をさらに備える、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記調整領域は、回転時に前記ヘッドバンドの前記サイズを調整するように構成されたダイヤルを備える、請求項13に記載のウェアラブル拡張現実デバイス。
- 前記調整領域が、バッテリを収容するようにさらに構成される、請求項14に記載のウェアラブル拡張現実デバイス。
- 前記調整領域は、クラウンまたは前記ヘッドバンドのストラップがねじ込まれるスロットを備える、請求項13に記載のウェアラブル拡張現実デバイス。
- 前記ヘッドバンドに結合されたスピーカをさらに備える、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記ウェアラブル拡張現実デバイスを補助デバイスに接続するように構成されたソケットをさらに備える、請求項1に記載のウェアラブル拡張現実デバイス。
- 前記補助デバイスは、前記光学ディスプレイを制御するように構成されたスマートフォンである、請求項18に記載のウェアラブル拡張現実デバイス。
- 前記補助デバイスが外部バッテリである、請求項18に記載のウェアラブル拡張現実デバイス。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163175502P | 2021-04-15 | 2021-04-15 | |
US63/175,502 | 2021-04-15 | ||
US202163231042P | 2021-08-09 | 2021-08-09 | |
US63/231,042 | 2021-08-09 | ||
PCT/IB2022/053573 WO2022219603A1 (en) | 2021-04-15 | 2022-04-15 | Augmented reality hat |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024515645A true JP2024515645A (ja) | 2024-04-10 |
Family
ID=83602109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023563168A Pending JP2024515645A (ja) | 2021-04-15 | 2022-04-15 | 拡張現実ハット |
Country Status (5)
Country | Link |
---|---|
US (1) | US11865440B2 (ja) |
EP (1) | EP4323827A1 (ja) |
JP (1) | JP2024515645A (ja) |
TW (1) | TW202307514A (ja) |
WO (1) | WO2022219603A1 (ja) |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4023212A (en) | 1974-08-19 | 1977-05-17 | Huffman Erline L | Adjustable visored cap with interchangeable crown |
US8757831B2 (en) * | 2007-12-18 | 2014-06-24 | Michael Waters | Headgear having an electrical device and power source mounted thereto |
WO2011137400A1 (en) * | 2010-04-30 | 2011-11-03 | Michael Waters | Lighted headgear and accessories therefor |
US20120050144A1 (en) * | 2010-08-26 | 2012-03-01 | Clayton Richard Morlock | Wearable augmented reality computing apparatus |
US20190258061A1 (en) * | 2011-11-10 | 2019-08-22 | Dennis Solomon | Integrated Augmented Virtual Reality System |
US9615617B2 (en) | 2011-11-18 | 2017-04-11 | Derrelle P Davidson | Baseball style cap with interchangeable bill or crown portion |
US9609902B2 (en) * | 2011-12-23 | 2017-04-04 | Michael Waters | Headgear having a camera device |
US10722403B2 (en) * | 2012-06-25 | 2020-07-28 | Good.B, Llc | Headwear with storable accessory |
US10136856B2 (en) * | 2016-06-27 | 2018-11-27 | Facense Ltd. | Wearable respiration measurements system |
US20170006949A1 (en) * | 2015-07-09 | 2017-01-12 | Sunday Afternoons, Inc. | Sizing mechanism for headwear |
KR20170055908A (ko) * | 2015-11-12 | 2017-05-22 | 최해용 | 모자형 가상현실 디스플레이 영상시스템 |
US20180017796A1 (en) * | 2016-07-14 | 2018-01-18 | Nicolas A. Toso | Virtual reality hat apparatus |
US10569165B2 (en) * | 2016-08-18 | 2020-02-25 | Activision Publishing, Inc. | Tactile feedback systems and methods for augmented reality and virtual reality systems |
US10579135B2 (en) * | 2017-01-27 | 2020-03-03 | Otoy, Inc. | Headphone based modular VR/AR platform with rotating display |
US20180255285A1 (en) * | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US10869517B1 (en) * | 2017-05-28 | 2020-12-22 | Nexus House LLC | Folding hat with integrated display system |
US10838216B2 (en) * | 2018-01-19 | 2020-11-17 | Universal City Studios Llc | Virtual reality/augmented reality rapid deployment system |
KR102027959B1 (ko) * | 2018-08-03 | 2019-11-04 | 군산대학교산학협력단 | 부착형 헤드 마운트 디스플레이 장치를 이용한 증강현실 제공 시스템 |
JP2020080496A (ja) * | 2018-11-13 | 2020-05-28 | 本田技研工業株式会社 | 画像管理装置、プログラム、画像管理方法、及び、物品 |
TWI679523B (zh) * | 2018-12-27 | 2019-12-11 | 廣達電腦股份有限公司 | 頭戴式顯示裝置 |
US11196851B2 (en) * | 2019-04-16 | 2021-12-07 | Daniel Garcia-Sanchez | Headwear for use with personal communication devices including a camera |
EP3976726A4 (en) * | 2019-05-28 | 2023-06-28 | Magic Leap, Inc. | Thermal management system for portable electronic devices |
US11039651B1 (en) * | 2019-06-19 | 2021-06-22 | Facebook Technologies, Llc | Artificial reality hat |
US20220273062A1 (en) * | 2019-07-30 | 2022-09-01 | Vuzix Corporation | Augmented reality display hat mount |
WO2021041990A1 (en) * | 2019-08-28 | 2021-03-04 | Qwake Technologies, Llc | Wearable assisted perception module for navigation and communication in hazardous environments |
US11815693B2 (en) * | 2020-04-20 | 2023-11-14 | Apple Inc. | Head-mounted electronic device |
-
2022
- 2022-04-15 US US17/721,756 patent/US11865440B2/en active Active
- 2022-04-15 JP JP2023563168A patent/JP2024515645A/ja active Pending
- 2022-04-15 EP EP22787751.1A patent/EP4323827A1/en active Pending
- 2022-04-15 TW TW111114549A patent/TW202307514A/zh unknown
- 2022-04-15 WO PCT/IB2022/053573 patent/WO2022219603A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022219603A1 (en) | 2022-10-20 |
US20220331689A1 (en) | 2022-10-20 |
EP4323827A1 (en) | 2024-02-21 |
TW202307514A (zh) | 2023-02-16 |
US11865440B2 (en) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6813501B2 (ja) | 拡張現実システムに結合されるプライバシーセンシティブ消費者カメラ | |
US10410562B2 (en) | Image generating device and image generating method | |
TWI594174B (zh) | 頭戴顯示器之追蹤系統、方法及裝置 | |
JP7143007B2 (ja) | 仮想アイテム転送方法、装置、電子デバイスおよびコンピュータプログラム | |
US8963956B2 (en) | Location based skins for mixed reality displays | |
JP2022502800A (ja) | 拡張現実のためのシステムおよび方法 | |
US9662583B2 (en) | Portable type game device and method for controlling portable type game device | |
CN107111370A (zh) | 现实世界对象的虚拟表示 | |
JP2021517836A (ja) | 仮想アイテムの調整方法並びにその装置、端末及びコンピュータープログラム | |
JP6615732B2 (ja) | 情報処理装置および画像生成方法 | |
JP2019124849A (ja) | 頭部装着型表示装置、表示システム、及び、頭部装着型表示装置の制御方法 | |
CN111589141B (zh) | 虚拟环境画面的显示方法、装置、设备及介质 | |
JP2016140078A (ja) | 画像生成装置および画像生成方法 | |
US11865440B2 (en) | Augmented reality hat | |
JP6487512B2 (ja) | ヘッドマウントディスプレイおよび画像生成方法 | |
US20230415033A1 (en) | Compact Head-Mounted Augmented Reality System | |
TW202416012A (zh) | 緊湊型頭戴式擴增實境系統 | |
KR20230175207A (ko) | 상호작용가능한 증강 및 가상 현실 경험 | |
JP2024031113A (ja) | 情報処理装置および画像生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240117 |