JP2010257461A - ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム - Google Patents

ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム Download PDF

Info

Publication number
JP2010257461A
JP2010257461A JP2010098546A JP2010098546A JP2010257461A JP 2010257461 A JP2010257461 A JP 2010257461A JP 2010098546 A JP2010098546 A JP 2010098546A JP 2010098546 A JP2010098546 A JP 2010098546A JP 2010257461 A JP2010257461 A JP 2010257461A
Authority
JP
Japan
Prior art keywords
player
game
space
real world
game space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010098546A
Other languages
English (en)
Inventor
Yen Wei
エン ウェイ
Ian Wright
ライト イアン
Dana Wilkinson
ウィルキンソン ダナ
Xiaoyuan Tu
ト シャオイエン
Stuart Reynolds
レイノルズ スチュアート
Iii William Robert Powers
ロバート パワーズ,Iii ウィリアム
Charles Musick Jr
ムジック,ジュニア チャールズ
John Funge
ファンジ ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AILive Inc
Original Assignee
AILive Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AILive Inc filed Critical AILive Inc
Publication of JP2010257461A publication Critical patent/JP2010257461A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5526Game data structure
    • A63F2300/5533Game data structure using program state or machine event data, e.g. server keeps track of the state of multiple players on in a multiple player game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6009Methods for processing data by generating or executing the game program for importing or creating game content, e.g. authoring tools during game development, adapting content to different platforms, use of a scripting language to create content
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】1つまたは複数の現実の世界空間に基づいて共有仮想空間を創出する技術を提供する。
【解決手段】1つの現実の世界領域には、ユーザならびにユーザの環境を捉えたビデオデータを生成するために1つまたは複数のビデオカメラが設けられている。それぞれの現実の世界空間を参照して共有仮想空間が創出される(340)。特定の用途に応じて、共有仮想空間に様々な仮想オブジェクトおよび表示オブジェクトが組み込まれている。ゲーム空間で複数のプレイヤによってプレイされ得るビデオゲームでは様々なルールおよび採点機構と共に、そのような共有仮想空間が使用されてもよく、その空間では、プレイヤの動きは、ネットワーク上の他のプレイヤとの物理的近さおよび物理的対話についての共感を生じさせるように解釈される。
【選択図】図3D

Description

本発明は一般に、コンピュータビデオゲームの分野に関し、より詳細には、ネットワークによって共有される三次元(3D)ゲーム空間を創出しかつその空間と対話するための技術に関する。3Dゲーム空間は、プレイヤの形態および場合によりプレイヤの現実の世界環境に関する情報から創出および維持される。この空間では、現実の世界におけるプレイヤの動きは、ネットワーク上の他のプレイヤとの物理的近さおよび物理的対話についての共感を生じさせるように解釈される。プレイヤは、3Dゲーム空間の仮想のエンティティおよびオブジェクトと一緒に対話することができる。
任天堂のWiiリモコン(登録商標)無線コントローラは、コンピュータディスプレイゲームシステム用のユーザ対話型コントローラの最先端技術における進歩の一例である。当該コントローラは、ユーザが手に持つことができる移動可能な無線リモートコントローラである。このコントローラは動きを検知する内蔵式の加速度計を使用しており、赤外線検出と組み合わせると、センサバーが到達する範囲内でLEDをポイントした際に3D空間における位置情報が得られる。この設計によって、ユーザは身体のジェスチャ、ポインティングおよび従来のボタンの押下によってゲームを制御することができる。当該コントローラは、ブルートゥースによってコンソールに接続し、コントローラを振動させることができる「振動パック(rumble pack)」ならびに内蔵スピーカを特徴とする。ユーザがディスプレイに反応してコントローラを移動させると、コントローラは、従来の短距離無線RF通信を介してセンサデータをコンソールに送信してユーザと、表示されているゲームとの対話をシミュレートする。
任天堂Wiiビデオゲームシステムの人気によって、プレイヤをプレイ中のゲームに深く引き込むために、より高度なビデオゲームシステムが求められている。本明細書に提示されている開示内容は、ネットワークによって共有される三次元(3D)仮想ゲーム空間を創出しかつその空間と対話する方法およびシステムに関するものである。3D仮想ゲーム空間は、カメラおよび慣性センサの機能および構成を含む情報および/またはプレイヤおよびプレイヤの現実の世界環境に関するカメラおよび慣性センサから得られる情報から創出、組み合わせ、あるいは統合される。現実の世界におけるプレイヤの動きは、カメラおよび/または慣性センサによって検知され、これらの動きは、ネットワーク上の他のプレイヤの物理的近さおよび物理的対話についての共感を生じさせるように解釈される。そのような動きは通常見ることができ、それにより3D仮想プレイエリア内の仮想のエンティティおよびオブジェクトとの共同および独りでの対話が可能となる。
当該箇所は、本発明のいくつかの態様を要約し、いくつかの好ましい実施形態を簡単に説明するためのものである。当該箇所ならびに要約書での簡略化または省略は、当該箇所および要約書の目的を曖昧にすることを回避するためになされている。そのような簡略化または省略は、本発明の範囲を限定することを意図するものではない。
本発明は一般に、離れているプレイヤの1つまたは複数の現実の世界空間に基づいてゲーム空間を創出することに関し、ここでは、現実の世界空間が異なる方法で組み合わせられてゲーム空間が創出され、このゲーム空間では、現実の世界におけるプレイヤの動きは、ネットワーク上の他のプレイヤとの物理的近さおよび物理的対話についての共感を生じさせるように解釈される。
本発明の一態様によれば、1人または複数のプレイヤが存在し得る1つのプレイエリアには少なくとも1つのビデオカメラがある。ビデオカメラの機能および構成(例えば、その光学特性および照明感度)は、許容可能な持続期間にわたって所定のレベルの許容可能な信頼性およびいくらかの許容可能な忠実度でプレイヤの動きを追跡することができる有効なプレイエリアを画定する。有効なプレイエリアは、プレイヤおよびプレイヤの動きの追跡および特定を支援するためのINSセンサを用いて場合により強化および/または拡張することができる。現実の世界空間における有効なプレイエリアから得られるデータに適用されるマッピングは、有効なプレイエリアの仮想化された3D表示を創出する。3D表示は、ゲーム空間に組み込まれる。ネットワーク上でビデオゲームをプレイしているプレイヤの数が増えるにつれ、それぞれの現実の世界空間の3D表示も増える。従って、共有ゲーム空間は、様々な方法で組み合わされ得る現実の世界空間のそれぞれの3D表示に基づいて創出される。カメラは、プレイヤならびにプレイヤの環境を捉えたビデオデータを生成する。このデータは、現実の世界空間におけるプレイヤおよび/または他のオブジェクトの仮想化された3D表示オブジェクトを生成するために使用されてもよい。特定のビデオゲームに応じて、ゲーム空間には様々な仮想オブジェクトおよび表示オブジェクトが組み込まれている。様々なルールおよび採点機構と共に、そのようなビデオゲームは、各プレイヤの動きがネットワーク上の他のプレイヤとの物理的近さおよび物理的対話についての共感を生じさせるように解釈されるゲーム空間では、複数のプレイヤによってプレイすることができる。
本発明の別の態様によれば、現実の世界空間の3D表示は、異なる方法で組み合わされ得、現実の世界空間を画定するマッピングも変更され得るため、3D表示は、ゲームのための新しい興味深い場面を創出するために、ビデオゲームの間に修正またはモーフィングすることができる。典型的なグループビデオゲームでは、複数のゲームコンソールがあり、それぞれがビデオデータおよびセンサデータを提供する。ホスト装置(ゲームコンソールのうちの1つまたは専用の計算装置のうちのいずれか)は、データを受け取りかつビデオゲーム用のゲーム空間を創出するように構成されており、ここでは、表示およびプレイヤによる対話のために、ゲーム空間が参加中のゲームコンソールに送り戻される。あるいは、ゲーム空間は、いくつかの分散形態で、例えば、ピアツーピアネットワークによって複数の計算装置上に格納され得る。
そのため、ゲーム空間は、仮想オブジェクトと、現実の世界空間における1人または複数のプレイヤおよび/またはレイアウトおよび家具を表す表示オブジェクトとを含み得、オブジェクト間の対話を可能にする。表示オブジェクトのいくつかは、現実の世界空間におけるプレイヤの動きに従って移動する。例えば、プレイヤは、ゲーム空間ではアバターによって表わされ得、ゲーム空間でのアバターの動きは、プレイヤ自身の現実の世界空間におけるプレイヤの動きの解釈である。その解釈は、欠落しているデータを補うか、ゲームに適合しない動きを修正するか、動きをスムーズにするか、動きをより見た目に美しいものとするか、あるいは、いくつかの動きをより印象的なものとするように設計された様々な変換、強調、追加および拡張を含み得る。
また、単一のプレイエリアは、非視覚的な方法でレンダリングされ得る。例えば、ゲーム空間に仮想の音源がある場合、プレイヤが耳にする音は、プレイヤに対応するアバターが音源に近付くにつれて大きくなり、遠ざかるにつれて小さくならなければならない。プレイヤが耳にする音は、(例えば、ディスプレイスクリーンに一体化されているか取り付けられている)スピーカから、あるいは、プレイヤが使用しているコントローラから届くものである。その音は、コントローラの位置および向きによっても調節することができる。例えば、コントローラは、ゲーム空間の仮想のマイクロホンの位置および方向を決める役割を担うことができる。
また、本発明は、現実の世界環境において音の位置を特定するために使用することもできる。本発明は、ゲームに、プレイヤの少なくともおおよその場所に関する情報を与え得る。例えば、2人のプレイヤが1つのカメラの前にいる場合、カメラからのデータとゲームコントローラからのデータとを相関させることによって、プレイヤの場所をおおよそ決定することができる。次に、マイクロホン配列を使用して環境からの音を捉えることができ、場所情報を使用して、2人のプレイヤの別々の話し声および音を、互いにそして他の背景ノイズから分離させることができる。この機能は、音声認識のためのものとするか、遠く離れているプレイヤに、2人のプレイヤがいる場所においてプレイヤのうちの一方のみの声を聞くように選択させることができる。
コントローラは多くの場合、コントローラを振動させる「振動パック」を含む。その振動は、プレイヤによって使用されているコントローラの位置および向きによって調節することができる。また、その振動は、プレイヤを表わすオブジェクトの位置および向きによって修正することもできる。例えば、剣戦闘ゲームでは、2つの仮想の刃が交差した場合のみコントローラを振動させることができ、その際、振動の程度は仮想の刃に伝わったように計算された仮想の力の関数である。
実装に応じて、本発明は、方法、装置またはシステムの一部として実装され得る。一実施形態によれば、本発明は、ネットワークビデオゲーム用の共有ゲーム空間を創出する方法であり、この方法は、必ずしも同一の場所に位置していない1つまたは複数の現実の世界空間に関する1つまたは複数のデータストリームを受け取るステップであって、データストリームはそれぞれ少なくとも1人のプレイヤがネットワークビデオゲームをプレイする現実の世界空間のうちの1つに関するビデオデータを含み、このビデオデータはプレイヤの様々な動きを得るために使用されるステップと、現実の世界空間の三次元表示を参照して共有ゲーム空間を創出するステップであって、ビデオゲームにおける少なくともいくつかのオブジェクトの動きがそれぞれ現実の世界空間におけるプレイヤのそれぞれの動きに反応するステップとを含む。
別の実施形態によれば、本発明は、ネットワークビデオゲーム用の共有ゲーム空間を創出するシステムであり、このシステムは、必ずしも同一の場所に配置されておらず、それぞれのデータストリームを提供する複数のプレイエリアであって、プレイエリアにはそれぞれ、少なくとも1つのカメラおよびコンソールが備えられており、カメラは、共有ゲームをプレイするためのコントローラを握持する少なくとも1人のプレイヤがいるプレイエリアを監視するように設置されており、コンソールは、プレイヤの様々な動きを捉えたビデオデータおよびセンサデータの両方を含むデータストリームのうちの1つを提供するプレイエリアと、プレイエリアからデータストリームを受け取り、プレイエリアの現実の世界空間の三次元表示を参照して共有ゲーム空間を創出するように構成されたホスティングマシンであって、ビデオゲームにおける少なくともいくつかのオブジェクトの動きがそれぞれ現実の世界空間におけるプレイヤのそれぞれの動きにそれぞれ反応するホスティングマシンとを含む。
さらに別の実施形態によれば、本発明は、互いに離れている少なくとも2人のプレイヤによってプレイされているネットワークビデオゲーム用の共有ゲーム空間において2つ以上のオブジェクトの動きを制御する方法であって、この方法は、第1の場所にいる少なくとも第1のプレイヤの動きを捉える第1の場所に関連付けられた少なくとも第1のカメラから少なくとも第1のビデオストリームを受け取り、かつ第2の場所にいる少なくとも第2のプレイヤの動きを捉える第2の場所に関連付けられた少なくとも第2のカメラから第2のビデオストリームを受け取るステップと、第1および第2のビデオデータストリームからそれぞれ第1および第2のプレイヤの動きを得るステップと、共有ゲーム空間における少なくとも第1のオブジェクトを第1のプレイヤの得られた動きに反応させ、共有ゲーム空間における少なくとも第2のオブジェクトを第2のプレイヤの得られた動きに反応させるステップであって、第1および第2の場所は必ずしも同一の場所に位置していないステップと、第1および第2の場所それぞれの少なくとも1つのディスプレイ上に共有空間の描写を表示するステップとを含む。
さらに別の実施形態によれば、本発明は、ビデオゲームにおいてオブジェクトの動きを制御する方法であり、この方法は、ビデオゲームのプレイヤの様々な動きを捉えるビデオカメラから少なくとも1つのビデオストリームを受け取るステップと、ビデオデータからプレイヤの動きを得るステップと、オブジェクトをプレイヤの動きに反応させるステップとを含む。当該方法は、プレイヤの動きをビデオゲームにおける所定のルールに従ってオブジェクトの動作にマッピングすることをさらに含む。
上記と共に、他の目的、特徴、利益および利点が、以下に記載される本発明の実施において達成され、添付の図面に図示されている実施形態に至る。
本発明のこれらおよび他の特徴、態様、および利点は、以下の記載、特許請求の範囲および添付の図面を参照してさらに理解されるであろう。
本発明の一実施形態の典型的な構成を示す。 2人のプレイヤが1つの場所で一緒にビデオゲームをプレイしている様子を示す。 場合により、拡張された現実をサポートするディスプレイを有するバーチャルリアリティ(VR)ゴーグル/眼鏡を着用しているプレイヤを示す。 単一のプレイヤがいる現実の世界空間に似せて構成された典型的なゲーム空間を示す。 1人または複数のプレイヤを含みかつそのプレイヤを囲む現実の世界空間に類似するゲーム空間を生成するフローチャートすなわちプロセス210である。 本発明の一実施形態に係る構成を示す。 少なくとも2つのゲームコンソールから送信される複数のデータストリームからのデータに基づいてゲーム空間を創出するために使用され得るシステム構成を示す。 物理的に遠く離れているか、同じ建物内の別々の部屋にいる2人の参加プレイヤの2つの現実の世界空間が組み込まれた典型的なゲーム空間を示す。 参加プレイヤをそれぞれ囲む1つまたは複数の現実の世界空間を組み合わせてゲーム空間を生成するフローチャートすなわちプロセスである。 2つの別々のプレイエリアの2つの現実の世界空間に基づいてゲーム空間を創出する説明図である。 表示オブジェクトが対応するプレイヤの動きに従って移動するネットワークゲームにおいて表示オブジェクトを制御するフローチャートすなわちプロセスである。 ゲーム空間の人工的に追加された要素が2人のプレイヤまたはプレイヤの対応する表示画面のうちの一方をプレイヤの現実の世界空間の後方に移動させる事例を示す。 2つの現実の世界空間に類似するか、あるいは、向かい合わせに組み合わせられたプレイヤの対応する表示画面によって表わされたゲーム空間を示す。 本発明の一実施形態に係るシステム構成500を示す。
発明を実施するための形態は、主として、ネットワークに接続されたデータ処理装置の動作に直接または間接的に類似する手順、ステップ、論理ブロック、処理、および他の記号表示の観点から示されている。これらのプロセスの記載および表示は通常、彼らの仕事内容を他の当業者に最も有効に伝えるために当業者によって使用されている。本明細書における「一実施形態(one embodiment)」または「一実施形態(an embodiment)」という言及は、実施形態に関連させて記載される特定の特徴、構造、または特性が本発明の少なくとも1つの実施形態に含まれ得ることを意味する。本明細書中の様々な場所で「一実施形態では」という言葉が出現するが、これらは必ずしも全てが同じ実施形態を指すものではなく他の実施形態と相互排他的な関連のない実施形態または他の実施形態を指すものでもない。さらに、本発明の1つまたは複数の実施形態を示すプロセスフローチャートまたは図におけるブロックの順番は、本質的に任意の特定の順番を示すものではなく、本発明におけるいかなる限定を示唆するものでもない。
ここで図面を参照するが、図面では、複数の図にわたって同様の符号は同様の部分を指している。図1Aは、本発明の一実施形態の典型的な構成100を示す。構成100は、居間に似ており、ここではプレイヤ105がゲームコンソール102およびディスプレイ103を介してビデオゲームをプレイしている。カメラ101は、プレイヤ105を監視している。カメラ101は、能動的または受動的な赤外線カメラ、あるいは可視光にのみ反応するカメラであってもよい(あるいは、カメラ101は異なるモードで動作可能であってもよい)。また、カメラ101は、当該場面を照らすのを支援する通常光または赤外線光を含んでいてもよく、あるいは、カメラ101によって監視されている場面を照らすために別個の光が設けられていてもよい。カメラ101は、立体情報を決定するための飛行時間情報を測定する機能を含んでいてもよい。カメラ101は、立体映像技術を適用することができるように1つまたは複数のカメラで構成されていてもよい。カメラ101は、所定の範囲内でプレイヤを追跡してプレイヤの動きを捉えることができるように(場合により、オートフオーカス機能を有する)モーターを備えていてもよい。
実装に応じて、ゲームコンソール102は、専用のコンピュータ装置(例えば、Wiiシステムなどのビデオゲームシステム)であってもよく、または、ビデオゲームシステムとして動作するように構成された通常のコンピュータであってもよい。ゲームコンソール102は、PCの他の場所で実行されている仮想マシンであってもよい。一実施形態では、コントローラとして使用される動作検知装置104には、ゲームを実行するのに必要な機能が組み込まれていてもよい。当該プレイヤは、片手に1つずつ、2つの別々の動作検知コントローラを有していてもよい。別の実施形態では、携帯電話/PDAが、動作検知装置として機能するように構成されていてもよい。さらに別の実施形態では、動作検知装置は、プレイヤが着用している衣服の中に組み込まれていてもよく、それは帽子の中であってもよく、あるいは、身体にストラップで固定されていてもよく、様々な手段で身体に取り付けられていてもよい。あるいは、複数の動作検知装置が身体の異なる部分に取り付けられていてもよい。
特に記載がない限り、本明細書では、本開示内容において使用されるゲームコンソールは、ビデオゲーム専用の親機、ゲームソフトモジュールを実行する一般的なコンピュータ、またはビデオゲームの親機として機能するように構成された携帯機器のうちのいずれか1つを意味し得る。実際には、ゲームコンソール102は、ディスプレイ103の近くに存在している必要はなく、有線または無線ネットワークを介してディスプレイ103と通信してもよい。例えば、ゲームコンソール102は、無線HDMIなどのプロトコルを使用して無線でディスプレイ103と通信する計算装置上で実行される仮想のコンソールであってもよい。一実施形態によれば、ゲームコンソールは、各種データ(例えば、画像およびセンサデータ)を受け取り、サーバにデータを送るネットワーク接続可能なボックスである。他方、当該ゲームコンソールは、データを統合し、複数の他の参加中のゲームコンソールによってプレイされているネットワークゲーム用のゲーム空間を創出/更新するように構成されたサーバから、常時更新されたディスプレイデータを受け取る。
本発明は、ビデオゲームについて記載されていることに留意されたい。当業者であれば、本発明の実施形態は、実際には遠く離れている1人または複数の人々の間でネットワークによって物理的近さおよび物理的対話についての共感を生じさせる他のゲーム以外の用途にも適用可能であり得ることが分かるであろう。例えば、様々な活動のためのソーシャルネットワーキング用ウェブサイトに登録されている幾人かのユーザ間での会合が創出される。その場にいない人物が本発明の一実施形態によって創出された仮想の3D空間に存在しているかのような感情を与えることによって、ビデオ会議が促進されたり、友人および家族間での電話が促進される可能性がある。同様に、3Dの仮想世界の構築および工学的設計などの仮想のプロジェクトに関する様々なコラボレーションを本発明の一実施形態によって創出された仮想の3D空間に実現させることができる。いくつかの用途では、動作検知コントローラが不要な場合もあり、カメラによる動作追跡のみで十分である可能性もある。
図1Bは、2人のプレイヤ122および124がビデオゲームを一緒にプレイしている様子を示す。カメラ126は、プレイヤ122および124の両方を監視している。一実施形態によれば、プレイヤ122および124はそれぞれ、片手に1つずつ、2つのコントローラを握持している。互いに区別し易いように、コントローラにはそれぞれ1つまたは複数の(赤外線)LEDが上に設けられている。また、カメラ126は、赤外線(または、他の非可視光)カメラであってもよい。別の実施形態では、より多くのカメラが使用される。カメラの例としては、赤外線(または、他の非可視光)カメラおよび可視光カメラが挙げられる。あるいは、異なるモード、すなわち、可視光モードおよび/または赤外線モード(または、他の非可視光)で動作可能な単一のカメラも使用され得る。さらに別の実施形態では、問題となる光の変化を改善するために当該場面を照らすのを支援する光128が存在する。光128は赤外線(または、他の非可視光)であってもよい。光128は、同じ場面において異なる照明を創出するためのストロボであってもよい。コントローラの動きは、ビデオゲームにおいて対応するオブジェクトの動きを制御するように使用され、かつ/または、プレイヤの動きは、プレイヤにそれぞれ対応するオブジェクトの動きを制御するために使用される。
図1Cは、プレイヤ105が(例えば、www.vuzix.comウェブサイトから入手可能な)ディスプレイ/拡張された現実を有するバーチャルリアリティ(VR)ゴーグル/眼鏡を着用している一実施形態を示す。プレイヤ105は、ディスプレイ103を見る代わりに、ゴーグル/眼鏡の中に表示されるビデオゲームと対話し得る。また、プレイヤ105は、外部ディスプレイを見るために3D眼鏡を使用してもよい。あるいは、ディスプレイ105は、裸眼立体(autostereoscopic)ディスプレイまたは3Dホログラフィックディスプレイであってもよい。一実施形態によれば、ゲームコンソール、ディスプレイおよびコントローラは全て、同じ装置またはシステムの一部である。
図1Aを再度参照すると、動作検知装置104、すなわち簡単に言えばコントローラは、一方が三軸加速度計であり、他方が三軸ジャイロスコープである少なくとも2つの慣性センサを含んでいてもよい。加速度計は、移動しているオブジェクト上の一点における1つまたは複数の軸に沿った加速度を測定する装置である。ジャイロスコープは、回転しているオブジェクト上の一点における1つまたは複数の軸の周りの角速度を測定する装置である。加速度計およびジャイロスコープに加えて、コントローラ104内に使用され得る他の慣性センサも存在する。そのような慣性センサの例としては、コンパスおよび磁力計が挙げられる。一般に、慣性センサからの信号(すなわち、センサデータ)は、電子的に捉えられ、親機(例えば、ゲームコンソール102)に送信されて、コントローラ104の一種の相対運動が得られる。
実装に応じて、慣性センサからのセンサ信号は、動作検知装置104の6つの相対的な並進および角運動の全てを得るのに十分な場合もあれば、十分でない場合もある。一実施形態では、動作検知装置104は、6つの相対的な並進および角運動の全てを得るのに必要な数の慣性センサよりも少ない慣性センサを含み、この場合、動作検知装置104は、6つの並進および角運動のうちの一部のみを検出および追跡し、全てを検出および追跡しないこともある(例えば、この中には3つの慣性センサのみが存在する)。別の実施形態では、動作検知装置104は、6つの相対的な並進および角運動の全てを得るのに必要とされる慣性センサの要求数と少なくとも同じか、またはそれよりも多い慣性センサを含み、この場合、動作検知装置104は、6つの並進および角運動の全てを検出および追跡し得る(例えば、この中には少なくとも6つの慣性センサが存在する)。
いずれの場合も、プレイヤ105およびプレイヤの周囲環境を撮像するためにカメラ101が設けられている。画像データは、有効なプレイエリアを実験的に得るために使用されてもよい。例えば、プレイヤが有効なプレイエリア外にいる場合には、最大限の有効なプレイエリアを決定することができる。有効なプレイエリアを使用して、プレイヤがビデオゲームをプレイする現実の世界空間の3D表示を決定することができる。
有効なプレイエリア、例えば、視野を決定する際には、カメラについて以前から知られている他の要因を使用してもよい。あるいは、有効なプレイエリアを画定するために実験的データに基づいて別々に位相較正を行なってもよい。
当業者であれば、画像データから3D空間の3D表示を得るための様々な方法が存在することを知っており、そのうちの1つを使用して、そのような3D表示を得てもよい。さらに、画像データは、慣性センサからのセンサデータと共に、コントローラの絶対運動を容易に決定するために使用してもよい。一実施形態によれば、プレイヤに、複数の特別な色のタグ、またはドットあるいは光を身に付けさせるか取り付けて、画像データからプレイヤの動きを容易に決定してもよい。
図2Aは、プレイヤがいる現実の世界空間に似せて構成された典型的なゲーム空間200を示す。図1Aの現実の世界に類似するゲーム空間200は、複数のオブジェクト203〜207を含み、それらのうちのいくつか(例えば、203および205を参照)は、現実の世界空間に実在するオブジェクトに対応するが、それ以外(例えば、204および207を参照)は、ゲーム目的のためにゲーム空間200に人工的に配置されている。また、ゲーム空間200は、コントローラを握持しているプレイヤに対応し得る、物201を握持するオブジェクト202を含む。3D仮想世界とも呼ばれるゲーム空間200での動きは、プレイヤがいる現実の世界での動きに類似しているが、ビデオゲーム用のゲーム空間を構成する様々なオブジェクトを含む。
図2Bは、1人または複数のプレイヤを含み、それらのプレイヤを囲む現実の世界空間に類似するゲーム空間を生成するフローチャートすなわちプロセス210を示す。プロセス210は、ソフトウェア、ハードウェアまたはソフトウェアとハードウェアとの組み合わせに実装され得る。一実施形態によれば、プロセス210は、212においてプレイヤがビデオゲームの開始を決定すると開始される。図1Aに示す設定によれば、214では、カメラは、プレイヤを囲む環境を撮像するように動作する。カメラは、216においてプレイヤの現実の世界の3D画像または表示を再構築するために使用することができるデータを生成する3Dカメラまたはステレオカメラシステムであってもよい。当業者であれば、3Dの現実の世界または3Dの現実の世界空間におけるプレイヤの動きの3D表示を生成するための異なる方法があることを知っているが、その詳細については、本発明の態様を曖昧にすることを回避するためにここでは省略する。
218では、現実の世界の3D表示によって、仮想オブジェクトと表示オブジェクトとを含むようにゲーム空間が創出される。仮想オブジェクトとは、現実の世界にあるいずれの物にも対応しないオブジェクトであり、仮想オブジェクトの例としては、採点のために取得され得るアイコンあるいは他のオブジェクトまたは形状と対戦するために取得され得る様々な武器が挙げられる。表示オブジェクトとは、現実の世界にあるいずれかの物に対応するオブジェクトであり、表示オブジェクトの例としては、プレイヤ(複数可)(例えば、アバター(複数可))またはプレイヤの現実の世界にある主要な物(例えば、テーブル)に対応するオブジェクトが挙げられる。表示オブジェクトは、事前に定義されていてもよい。例えば、ゲームには、プレイヤのアバターとなるように指定されているゲームキャラクターが標準装備されている。アバターは、プレイヤの現実の世界の動きに反応して動くが、それ以外には、他の対応は全く存在しない。あるいは、事前に定義されているアバターは、ビデオデータによって修正され得る。例えば、プレイヤの顔をテクスチャとしてアバターに適用してもよく、あるいは、アバターは、プレイヤ自身の体の寸法に応じて縮尺されたものであってもよい。220では、特定のゲームに応じて、様々なルールまたは採点機構が、目標を設定するためのゲーム空間、異なるオブジェクト間で生じ得る様々な対話、およびスコアをカウントするため、あるいは結果を示すための方法を用いてビデオゲームに組み込まれる。222では、プレイヤの現実の世界に何とか類似するように創出されたゲーム空間を用いるビデオゲームは、プレイの準備を整えている。プロセス210は、ビデオゲームを実行するゲームコンソールまたは任意の他の計算装置、例えば携帯電話、PCまたはリモートサーバで実行され得ることに留意されたい。
本発明の特徴、目的および利点のうちの1つは、例えば、1つまたは複数のアクション、動き、場所および向きの点で、ゲームオブジェクトとプレイヤ自身の現実の世界空間における対応するプレイヤとの少なくとも近い対応が存在するゲーム空間を創出することが可能なことである。ゲーム空間には、プレイヤの動きに伴って、あるいは他の人々の動きに伴って移動するアバターが追加されている可能性がある。図3Aは、本発明の一実施形態に係る構成300を示す。カメラ301は、1人のプレイヤを囲むプレイエリアに配置されており、プレイエリアは、居間または寝室あるいは任意の好適なエリア内であってもよい。一構成では、プレイヤは、プレイヤの家に複数のカメラ、例えば、居間に1つのカメラ、寝室にもう1つのカメラを有していてもよい。プレイヤが家中を動き回り、異なるカメラで観察可能なものとして認識されると、ゲーム空間は、現実の世界空間の変化に従って更新され、プレイヤの現在の場所をある程度反映することができる。
カメラ301は視野302を有する。カメラのパラメータ、カメラの配置、カメラ較正、および照明条件を含む要因に応じて、許容可能な持続期間にわたって所定のレベルの信頼性および忠実度によりプレイヤの動きを追跡することができる有効なプレイエリア303がある。有効なプレイエリア303は、プレイヤおよびプレイヤの動きを追跡および特定するのを支援するINSセンサを用いて、場合により強化および/または拡張304することができる。有効なプレイエリア303は、プレイヤが移動できる空間を本質的に画定し、その動きは、ビデオゲームと対話するために撮像および取得される。有効なプレイエリア303は通常、単一のプレイヤを含むが、ゲームおよび追跡能力に応じて、1人または複数のプレイヤを含み得ることに留意されたい。
有効なプレイエリア303は経時的に変化し得る。例えば、照明条件が変化する場合や、カメラが移動されて再較正される場合である。有効なプレイエリア303は、カメラの単純な光学的特性(例えば、視野または焦点)などの多くの要因から決定され得る。また、可能性のある有効なプレイエリアを事前に決定するために実験が必要な場合もある。あるいは、有効なプレイエリアは、ゲーム中に暗黙的に決定され得るか、位相較正中に明示的に決定され得、位相較正では、有効なプレイエリアを緻密にマップするためにプレイヤは様々な点で様々な作業を行なうように求められる。
マッピング305は、有効なプレイエリア303を有効なプレイエリア303の仮想化された3D表示307へのいくつかの変換、ワーピングまたはモーフィングを指定する。3D表示307は、いくらか理想的な規則的形状にスナップまたはクリッピングされ得るか、あるいは、存在すれば、元の現実の世界のプレイエリアの不規則形状の一部を維持してもよい。また、2つ以上の3D表示が存在することもある。例えば、異なるプレイヤ、異なる追跡精度を有する異なるプレイエリア部分、あるいは、異なるゲームまたはゲームの異なる部分に対して異なる表示があってもよい。また、単一のプレイヤの2つ以上の表示があってもよい。例えば、プレイヤは、ゲームの一部ではヒーローの役を演じ、ゲームの異なる部分ではヒーローの敵の役を演じることがあり、あるいは、プレイヤは、ゲームがプレイされている間、キャラクター群の中の異なるメンバー間を自由に行き来しながら、それらを制御するように選択する場合もある。
3D表示は、共有ゲーム空間306に組み込まれている。他の現実の世界空間の別の3D表示308もゲーム空間306に組み込まれている。これらの他の3D表示(3D表示308のみが示されている)は通常、遠く離れている、すなわち、物理的に互いに遠く離れているか、同じ建物内で物理的に離れている現実の世界空間のものである。
当業者であれば、3D表示および/または組み込みは、画像および/またはセンサデータストリームに適用されるいくつかの機能では暗黙的に行われ得ることに気付くであろう。その機能は、ゲーム空間との関連で、データストリームを有効に再解釈する。例えば、プレイヤに対応するアバターは、a×b×cの寸法を有する部屋の中にいて、次に、これが単位寸法を有するプレイヤの周りの四角い枠に対応するように作製可能であることが想定される。従って、プレイヤがx次元内の有効なプレイエリアを半分だけ横切るように移動すると、アバターはゲーム空間を1/2単位だけ移動する。
図3Bは、少なくとも2つのゲームコンソールから送信される複数のデータからのデータに基づいてゲーム空間を創出するために使用され得るシステム構成310を示す。図3Bには、3つの典型的なゲームコンソール312、314および316がある。ゲームコンソール312、314および316はそれぞれ、少なくとも1つのカメラおよび場合により動作検知コントローラに接続されており、それにより画像データおよびセンサデータが提供される。一実施形態によれば、ゲームコンソール312、314および316はそれぞれ、データネットワークに接続されている。一実施形態では、ゲームコンソール312、314および316にはそれぞれ、インターネットへの無線接続を可能にするWiFiインタフェースが備えられている。別の実施形態では、ゲームコンソール312、314および316にはそれぞれ、インターネットへの有線接続を可能にするイーサネット(登録商標)インタフェースが備えられている。動作中、ゲームコンソール312、314および316のうちの1つは、本発明の一実施形態を実装するソフトウェアモジュールを実行するホスティングマシンとして構成されている。
プレイエリアの3D表示を創出するために必要とされる有効なプレイエリアからのマッピングは、1つまたは複数の参加中のコンソールまたは専用の計算装置に適用され得る。一実施形態では、関連のあるパラメータ(例えば、カメラのパラメータ、カメラ較正、照明)は、マッピングが行なわれるホスティングマシンに通信される。ホスティングマシンは、各3D表示をゲーム空間に組み込む方法を決定するように構成されている。
ホスティングマシンは、全ての参加中のゲームコンソールから(画像および/またはセンサ)データストリームを受け取り、受け取ったデータに基づいてゲーム空間を更新する。マッピングが行なわれる場所に応じて、データストリームは、コンソール上ですでに変換されているか、あるいは、ホスティングマシン上で変換されなければならない。本発明に関しては、ゲーム空間は、現実の世界空間の少なくとも仮想化された3D表示を含み、そこでは、現実の世界におけるプレイヤの動きが、プレイヤのゲームコンソールが参加しているネットワークゲーム上で、プレイヤの動きに類似するゲーム世界のオブジェクトの動きとして解釈される。どのゲームがプレイされているかに応じて、あるいは、同じゲーム中の異なる時点のためにでさえ、現実の世界空間の3D表示は、異なるルールを有する異なる方法、例えば、現実の世界空間の利用可能な3D表示をスティッチング、マージまたはワーピングして組み合わせられる。また、創出されたゲーム空間にはゲームのテーマに従って予め定められ得る様々なルールおよび採点機構が組み込まれている。ホストゲームコンソールは、プレイヤがビデオゲームをプレイするために参加中のゲームコンソールのそれぞれに、創出されたゲーム空間を送る。当業者であれば、本発明における利点、利益および利点のうちの1つは、プレイヤの現実の世界空間における全てのプレイヤの動きが、物理的近さおよび物理的対話についての共感を生じさせるようにゲーム空間に自然に解釈されることであることが分かるであろう。
図3Cは、物理的に遠く離れているか、あるいは同じ建物内の同じ建物内の別々の部屋に存在し得る2人の参加プレイヤの2つの現実の世界空間が組み込まれた典型的なゲーム空間320を示す。2人の参加プレイヤの2つの現実の世界空間の組み合わせに基づいて創出されたゲーム空間320は、様々なオブジェクトを含み、それらのオブジェクトには現実の世界空間に実在するオブジェクトに対応するものもあれば、様々なアクションまたは対話のためにゲーム空間320を拡張するように人工的に追加されたものもある。一例では、ゲーム空間320は2つの異なる階を含み、1階の設定は、1つの現実の世界空間からのものであってもよく、2階の設定は、別の現実の世界空間からのものであってもよく、2つの階を繋ぐために階段が人工的に創出されている。ゲーム空間320は、2つのオブジェクトすなわちアバター322および324をさらに含み、それぞれがプレイヤのうちの一人に対応している。アバター322および324はそれぞれ、プレイヤの動きに従って移動する。一実施形態では、アバター322および324のうちの1つは、ウィジェット(例えば、武器または剣)を握持し得、対応するプレイヤによるコントローラの動きに従ってウィジェットを振り回し得る。ゲーム空間230であれば、アバター322および324をそれぞれ2つの各階に進入または移動させて、互いに、そして2つの階のいずれかにある他のオブジェクトと対話するように操作し得る。
再び図3Bを参照すると、別の実施形態によれば、ホスティングマシンとして機能するゲームコンソール312、314および316のうちの1つを有する代わりに、全ての(画像およびセンサ)データストリームを参加中のゲームコンソール312、314および316から受け取るためのホスティングマシンとして、サーバコンピュータ318が設けられている。サーバコンピュータ318は、ソフトウェアモジュールを実行して受け取ったデータストリームに基づいてゲーム空間を創出および更新する。また、参加中のコンソール312、314および316は、いくつかの他のリモートサーバ上または他の場所に位置するいくつかの計算装置上で実行されていてもよい。本発明に関しては、ゲーム空間における動きは、プレイヤのゲームコンソールが参加している、各プレイヤの現実の世界空間のいくつかまたは全てを組み合わせた現実の世界空間におけるプレイヤの動きに類似している。特定のゲームまたはさらにゲームにおける特定の段階に応じて、現実の世界空間の3D表示が、ゲームのための異なるルールを有する異なる方法で、例えば、現実の世界空間の2つ以上の3D表示をスティッチング、マージまたはワーピングすることで組み合わせられる。サーバコンピュータ318は、一緒にビデオゲームをプレイするために、参加中のゲームコンソールまたは他の関係者のそれぞれに、創出されたゲーム空間を送る。そのため、これらの参加プレイヤだけが物理的近さおよび物理的対話についての共感を持ってビデオゲームをプレイするだけでなく、他のゲームプレイヤもビデオゲームを鑑賞またはプレイするように勧誘され得る。
図3Dは、参加プレイヤをそれぞれ囲む1つまたは複数の現実の世界空間が組み込まれたゲーム空間を生成するフローチャートすなわちプロセス330を示す。プロセス330は、ソフトウェア、ハードウェアまたはソフトウェアとハードウェアとの組み合わせに実装され得る。一実施形態によれば、プロセス330は、332において1つまたは複数のプレイヤがビデオゲームの開始を決定すると開始される。
上述のように、各プレイヤは、プレイヤおよびプレイヤの周囲空間(現実の世界空間)を撮像するために設置されている少なくとも1つのカメラの前でビデオゲームをプレイする準備を整えている。各プレイヤが動作検知コントローラを握持しているか、少なくとも1組の慣性センサを身に付けているか、あるいはそれらがプレイヤの体に取り付けられていることが想定される。いくつかの実施形態では、動作検知装置すなわちセンサが不要な場合も想定される。2人以上のプレイヤが1つの場所にいる事例もあり得、その場合、プレイヤの識別を容易にするために特別な設定を使用してもよく、例えば、各プレイヤが1つまたは複数の特別に色付けされたタグを身に付けていたり、それらが体に取り付けられていてもよく、あるいは、プレイヤのコントローラが外観的に異なるように標識されていてもよく、コントローラが異なる色で輝く光を含んでいてもよい。
334では、ゲームプレイヤの数が決定される。ゲームプレイヤの数は、プレイヤ自身の現実の世界空間に参加しているプレイヤの数とは異なる場合もあることに留意されたい。例えば、3人のゲームプレイヤがいて、2人は、参加している1つの現実の世界空間で一緒に撮像されているが、3人目は一人である場合もある。そのため、ビデオゲーム用のゲーム空間を創出するために2つの現実の世界空間が使用される。従って、336では、そのような複数の現実の世界空間が決定される。
338では、現実の世界空間を表示するデータストリームが受け取られなければならない。一実施形態では、2つのゲームコンソールが使用され、それぞれが1つの場所にあり、プレイヤ(複数可)を囲む1つの現実の世界空間を撮像するカメラに接続されている。ゲームコンソールのうちの1つは、一方がリモートサイトからのデータストリームであり、他方がそのゲームコンソール自体からのデータストリームである2つのデータストリームを受け取るためのホストゲームコンソールとして設定されていることが想定される。あるいは、各コンソールは、適度に近い対応を維持するために可能な限り頻繁に他のコンソールからの情報によって更新されるゲーム空間の別々のコピーを維持するように構成されている。2つのデータストリームのうちの一方が受け取られない場合には、プロセス330は待機するか、あるいは1つのデータストリームのみで進行され得る。1つのデータストリームのみしか届かない場合には、ゲーム空間は1つの現実の世界空間に基づいて仮に構築される。データが欠落している場合、例えば、プレイヤが剣を振り回し、胴体の動きのためのデータが欠落しているか不完全な場合には、ゲームは、好適であるとみなされたいくつかの状況依存的な動作の動きによって補われ、剣の一撃をより迫力あるものにするように動作を強化してもよく、あるいは、その一撃が標的を逃した場合には敵のキャラクターと接触させるように一撃を僅かに修正してもよい。
340では、3D表示のスティッチング、スーパインポーズまたはモーフィングすること、あるいは任意の他の数学的変換を行なうことのうちの1つまたはそれらの任意の組み合わせを含み得る様々な可能な方法で、現実の世界空間のそれぞれの3D表示を組み込むことによってゲーム空間が創出される。変換(例えば、モーフィング)は、3D表示が組み込まれる前に適用され得、場合により、その後にゲーム空間をスムーズにかつよりリアルに見せるための画像処理が施される。典型的な変換としては、平行移動、射影、任意の軸周りの回転、拡大縮小、ずらし変換、反転または任意の他の数学的変換が挙げられる。組み合わせられた3D表示は、3次元のうちの2つの次元に射影されていてもよい。2次元の射影は、組み合わせ前の3D表示にも適用し得る。ゲーム空間には、様々な他の構造物または場面、仮想または表示オブジェクト、およびオブジェクト間での対話のためのルールも組み込まれている。この時点で、ゲーム空間がゲームコンソールに送り戻されかつビデオゲームを一緒にプレイするように登録されると、ビデオゲームがプレイされる準備が整う。
ビデオゲームがプレイされている間、画像およびセンサデータが、それぞれのゲームコンソールから、342においてデータを参照してゲーム空間を更新するホストゲームコンソールに送られ続け、表示されているゲーム空間がタイミングよく更新される。344においてそれぞれのゲームコンソールからデータが受け取られている間、342ではゲーム空間が常時更新される。図3Eは、2つの離れたプレイエリアの2つの現実の世界空間に基づいてゲーム空間を創出するステップを説明するものであり、これは、複数の現実の世界空間を統合するように容易に修正され得る。
図3Fは、ネットワークゲームにおいて表示オブジェクトを制御するフローチャートすなわちプロセス350を示し、ここでは、少なくともいくつかの表示オブジェクトが、対応するプレイヤの動きに従って移動する。プロセス350は、ソフトウェア、ハードウェアまたはソフトウェアとハードウェアとの組み合わせに実装され得る。一実施形態によれば、352において1つまたは複数のプレイヤがビデオゲームの開始を決定すると、プロセス350が開始される。
上述のように、各プレイヤは、プレイヤおよびプレイヤの周囲空間(現実の世界空間)を撮像するために設置されている少なくとも1つのカメラの前でビデオゲームをプレイする準備を整えている。各プレイヤは、動作検知コントローラを握持しているか、少なくとも1組の慣性センサを身に付けているか、あるいはそれらがプレイヤの体に取り付けられていることが想定される。いくつかの実施形態では、動作検知装置すなわちセンサが不要な場合も想定される。2人以上のプレイヤが1つの場所にいる事例もあり得、その場合、プレイヤの識別を容易にするために特別な設定を使用してもよく、例えば、各プレイヤが1つまたは複数の特別に色付けされたタグを身に付けたり、それらが体に取り付けられてもよく、あるいは、プレイヤのコントローラが外観的に異なるように標識されていてもよく、コントローラが異なる色で輝く光を含んでいてもよい。
354では、ゲームプレイヤの数が決定され、それにより、制御できるゲーム中の表示オブジェクトの数が決定される。どこでゲームがレンダリングされているかに関わらず、複数のビデオデータストリームがプレイヤから届く。但し、ゲームプレイヤの数は、そのゲームに参加しているビデオデータストリームの数とは異なる場合もあることに留意されたい。例えば、3人のゲームプレイヤがいて、2人は1つのビデオカメラで一緒に撮像されており、1人でいる3人目は、別のビデオカメラで撮像されている。そのため、3人のプレイヤからの2つのビデオデータストリームが存在する。一実施形態では、プレイヤは自身のプレイエリアを撮像するために2つ以上のカメラを使用するため、当該ビデオゲームのためにプレイヤから複数のビデオストリームが得られる。従って、ゲームプレイヤの数ならびにビデオデータストリームの数は354で決定される。
356では、全ての参加プレイヤの動きを表示する上記数のビデオデータストリームが受け取られなければならない。例えば、互いに遠く離れている2人のプレイヤがいる。2つのゲームコンソールが使用され、それぞれが1つの場所にあり、プレイヤを撮像するカメラに接続されている。ゲームコンソールのうちの1つは、一方がリモートサイトからのデータストリームであり、他方がそのゲームコンソール自体からのデータストリームである2つのデータストリームを受け取るためのホストゲームコンソールとして設定されていることが想定される(あるいは、別個の専用の計算機が存在していてもよい)。あるいは、各コンソールは、適度に近い対応を維持するために可能な限り頻繁に他のコンソールからの情報によって更新されるゲーム空間の別々のコピーを維持するように構成されている。2つのデータストリームのうちの一方が受け取られない場合には、プロセス356は待機するか、あるいは1つのデータストリームのみで進行され得る。1つのデータストリームのみしか届かない場合には、対応する表示オブジェクトの動きは、表示オブジェクトをプレイヤにとって最も利益になるように移動させるように構成されたホストゲームコンソールによって一時的に支配される。データが欠落している場合、例えば、プレイヤが剣を振り回し、胴体の動きのためのデータが欠落しているか不完全な場合には、ゲームは、公知のデータと可能な限り一貫しているとみなされたいくつかの状況依存的な動作の動きによって補われる。例えば、人間の身体の生体力学的に近そうなモデルおよびその可能な動かし方は、知られていない要素の可能な動作を制限するために使用され得る。その後に近そうな一組の動作から特定の動作を選択するための多くの公知の技術があり、例えば、エネルギー消費を最小にする動作または雑音のある筋肉アクチュエータよって忠実に実行される可能性が最も高い動作などを選択する技術がある。
357では、共有ゲーム空間をマッピングすることが決定される。プレイヤの動きをゲーム空間に何らかの方法で組み込まれなければならず、その組み込みが決定される。例えば、2人のプレイヤ、プレイヤAおよびプレイヤBがいると想定される。プレイヤAはプレイヤAの居間でプレイしているが、プレイヤBは遠く離れており、プレイヤB自身の居間でプレイしている。プレイヤAが、(例えば、上部にカメラを有する)ディスプレイに向かって移動すると、ゲームは、その動作を共有ゲーム空間に解釈させる方法を先に決定しなければならない。剣戦闘ゲームでは、ゲームは、現実の世界空間におけるプレイヤAの前進運動を共有ゲーム空間における右方向運動に、後方運動を左方向運動などにマップすることを決定し得る。同様に、ゲームは、プレイヤBの前進運動を左方向運動に、後方運動を右方向運動などにマップすることを決定し得る。さらに、ゲームは、プレイヤAの代わりであるオブジェクト(例えば、プレイヤAのアバター)を共有ゲーム空間の左側に、プレイヤBのアバターをその空間の右側に配置することも決定し得る。その結果、プレイヤAがプレイヤAのカメラに向かって移動すると、対応するアバターがディスプレイ上で右側に移動し、プレイヤBにより近づく。プレイヤBがそれに応じてカメラから離れる方向に移動すると、プレイヤAからは、プレイヤBのアバターがディスプレイ上で右側に移動し、プレイヤAの前進するアバターから遠ざかるように見える。
ゲーム世界における前進運動を共有ゲーム空間における右方向運動または左方向運動にマップすることは多くの可能性のうちの1つにすぎない。ゲームにおける任意の方向の動作が当該共有ゲーム空間において一方向にマップされ得る。また、動作は多種多様な他の方法で修正することができる。例えば、動作は、現実の世界の僅かな移動がゲーム世界における大きな移動に対応するように、あるいはその逆になるように拡大縮小することができる。その拡大縮小は、小さな動作はほぼ忠実にマップされるが、大きな動作は減衰させるように非線形なものとすることもできる。
現実の世界の動作のあらゆる他の態様もマップすることができる。プレイヤは、肘関節の周りでプレイヤの前腕を肩に向かって回転させる場合があり、対応するアバターもその前腕を肩に向かって回転させることができる。あるいは、アバターは魔法の呪文による「反対の動作」作用を受ける場合もあるため、プレイヤがプレイヤの前腕を肩に向かって回転させると、アバターはその前腕を肩から離れる方向に回転させる。
プレイヤの現実の世界の動作は、他のオブジェクトにマップすることもできる。例えば、プレイヤが肩から横方向に腕を回すと、それにより、巨大なカエルがその舌を突き出すように制御される可能性がある。プレイヤの巨視的レベルの重心の並進運動は、カエルの巨視的レベルの重心の並進運動を直接的に制御し得る。
当業者に知られている1つの空間から別の空間への他の標準的な数学的変換を使用することができ、これらの例としては、任意の種類の反射、拡大縮小、平行移動、回転、ずらし変換、射影またはワーピングが挙げられるが、それらに限定されない。
また、現実の世界の動作に適用される変換は、ゲーム内容およびプレイヤによって決定することができる。例えば、ゲームの1つのレベルでは、プレイヤのアバターが、磁気ブーツで天井を歩かなければならない場合もあるため、プレイヤの実際の動作が反転される。しかし、そのレベルが一旦終了すると、その反転マッピングは、プレイヤの現実の世界の動作にはもはや適用されない。また、プレイヤは、自身の動作がマップされる方法に対する好みを表現できる場合もある。例えば、プレイヤは前進運動が右方向運動にマップされることを好み、別のプレイヤは、動作が左方向運動にマップされることを好む場合もある。あるいは、プレイヤは、自身のアバターがゲーム空間の左側にいることを決定し、このようにして、暗黙的に前進運動が右方向運動に対応することを決定する場合がある。2人のプレイヤ用のゲームにいる両プレイヤが同じ好みを有する場合、例えば、どちらのプレイヤも共有ゲーム空間の左側にいることを望む場合には、プレイヤのそれぞれのディスプレイ上では、プレイヤのアバターの位置および動きが所望通りに表示されるように、2つの別々のマッピングによってプレイヤの望みに応じることが可能な場合もある。
あるいは、当該ゲームは、プレイヤの身長、スキルまたは過去の好みの決定に基づいて、これらの決定の一部または全てを自動的に行なってもよい。あるいは、当該ゲームの状況によってマッピングを暗黙的に決定してもよい。例えば、2人以上のプレイヤが、共通の敵のモンスターと戦う同じチームにいる場合には、現実の世界におけるプレイヤの全ての前進運動を、各プレイヤの対応するアバターのモンスターに向かう動作にマップすることができる。モンスターに向かう方向は、アバターごとに異なっていてもよい。この例では、左または右への動きは、ゲームの状況によって必ずしも決定し得ないため、態様はプレイヤの選択によって決まるか、いくつかの基準に基づいてゲームによって割り当てられ得る。但し、全ての動作を一貫させなければならない。例えば、現実の世界空間における左への動きによってプレイヤのアバターがその瞬間にさらに遠くに移動するように見せる場合には、理由もなく、別の瞬間に、現実の世界における同じプレイヤの左方向運動によって、対応するアバターが近くに移動するように見せるといったことが起こってはならない。
当該ゲームは、各プレイヤおよび当該ゲームの異なる部分に対して別々のマッピングを維持することができる。また、このマッピングは、照明条件などの現実の世界の特性の関数であってもよいため、薄暗い所での動作は、不正確な追跡によって引き起こされる任意の激しい変動を緩和するように、高い減衰係数でマップされる。
当業者であれば、現実の世界における動作とゲーム空間における動作とのマッピングのために多種多様な可能な表現があることが分かるであろう。選択される特定の表現は、本発明の中核をなすものではない。いくつかの可能性としては、現実の世界の追跡からの位置および向きの情報と共に積算される行列として変換を表すことが挙げられる。回転は、行列、四元数、オイラー角、または角度および軸として表すことができる。平行移動、反射、拡大縮小およびずらし変換は全て行列として表すことができる。ワーピングおよび他の変換は、陽の方程式または陰の方程式として表すことができる。別の態様では、プレイヤの周りの空間を3D空間(例えば、四角い枠)として明示的に表すことができ、マッピングは、この3D空間がゲーム世界に組み込まれると対応する3D空間に導かれる変換として表現される。現実の世界の3D空間の形状は、推測的であってもよく、あるいは、カメラの特性、いくつかの較正ステップまたは動的にデータストリームから推定される明示的に決定された有効なプレイエリアであってもよい。
当業者であれば、現実の世界の動作からゲーム世界の動作へのマッピングは、潜在的に様々な時点に適用されるか、さらに広がって2つ以上の時点に部分的に適用される可能性があることが分かるであろう。例えば、カメラおよび動作センサからの生データは、任意の他の処理の前に変換することができる。好ましい実施形態では、人間のプレイヤの動作は、最初に生データから抽出され、次に、典型的な人間の動作に関する知識を用いて仕上げられる。現実の世界の動作が十分に決定された後にのみ、同等のゲーム空間にそれがマップされる。その後、さらなるゲーム依存性マッピングを適用してもよい。例えば、プレイヤが蜘蛛を制御している場合、現実の世界の代わりに、その空間に組み込まれた場合にプレイヤが移動したと思われる方法についてゲーム空間における動作が最初に決定される。その際にのみ、任意のゲーム特異的マッピング、例えば、二足歩行運動が8つの脚にマップされる方法、または特定の手の動作が特別な攻撃にマップされ得る方法等が適用される。
358では、データストリームが送られてくると、ホストゲームコンソールは、ビデオデータを分析してプレイヤのそれぞれの動きを推測し、かつ同時に、プレイヤを表わす対応するオブジェクトを適宜移動させるように構成されている。特定のゲームおよび/またはそのルールに応じて、表示オブジェクトの動きは、ゲームをより刺激的に見せるか、あるいは、プレイヤに深いめり込みを感じさせるように強化または修正され得る。例えば、当該ゲームは、剣の一撃をより迫力あるものに見せるように動作を強化させるか、あるいは、その一撃が標的を逃した場合には、敵のキャラクターと接触させるように一撃を僅かに修正することができる。
ビデオゲームがプレイされている間、ビデオデータは、それぞれのゲームコンソールから、360および362において対応するオブジェクトを更新/修正/制御するホストゲームコンソールに供給され続ける。
ここで図4Aを参照すると、事例400が示されており、この事例では、ゲーム空間に人工的に追加された要素408によって2人のプレイヤのうちの一人411を有効なプレイエリア内の後方の新しい場所412に物理的に移動させている。ゲーム空間は、図示のように最初は統合されている現実の世界のプレイエリアの2つの3D表示402および403を含むと想定される。要素408(例えば、モンスター)がプレイヤに対応するアバター413に接近するにつれて、プレイヤは(ディスプレイから)モンスターの接近を目にすると、モンスターを避けるように後退し、それによりアバターを3D表示内の再位置414に移動させる。3D表示402で表わされる空間にいるプレイヤは、(ディスプレイから)他のプレイヤのアバターが後退するのを目にし、実際に一緒に同じ仮想の空間に存在しているかのような感情を抱くであろう。プレイヤの動きにより、対応する3D表示を変化させることもでき、例えば、その変化を、そのプレイヤの現実の世界の動きの作用を減衰させるように長引かせることもできる。
図4Bは、向かい合わせに組み合わせられた2つのそれぞれの現実の世界のプレイエリア412および414の2つの3D表示が組み込まれたゲーム空間410を示す。412内のアバターを制御するプレイヤがカメラに向かって移動すると、アバターが(ディスプレイ内で)右に移動する様子が見られ、その逆も見られる。414内のアバターを制御するプレイヤがカメラから離れる方向に移動すると、対応するアバターは右に移動する様子が見られ、その逆も見られる。別のビデオゲーム、あるいは、恐らく同じビデオゲームの後半で、3D表示412および414を異なる方法で組み合わせることができ、そこでは一方が回転され、他方が鏡映しに反転される。鏡映しに反転される場合には、プレイヤが自身のカメラに向かって移動すると、プレイヤのアバターは予期せずに、プレイヤの期待とは反対の方向に移動する場合もある。回転される場合には、その回転は、任意の軸の周りであってもよく、空間を上下ならびに左右に回転することも含まれる。正確に3D表示をゲーム空間に組み込む方法、および、存在すれば、ゲーム空間およびデータストリームを修正するためにどの機能が適用されるかについてはゲームおよびゲーム内の特定の時点によって決まる。
図5は、本発明の一実施形態に係るシステム構成500を示す。システム500は、記憶装置501、1つまたは複数のコントローラ502、データ処理装置503、1組の慣性センサ504、1つまたは複数のカメラ505、およびディスプレイドライバ506を含む。2種類のデータ、すなわち、慣性センサ504からのデータとカメラ505からのデータがあり、両データがデータ処理装置503に入力される。上述のように、慣性センサ504は、データ処理装置503にセンサデータを提供して、カメラ505からのセンサデータの有無に関わらず最大6°の自由度の角運動および並進運動が得られる。
データ処理装置503は、ディスプレイドライバ506を介してビデオシーケンスを表示するように構成されている。動作中、データ処理装置503は記憶装置501に格納されているコードを実行し、記憶装置501には、本明細書に記載されている発明の一実施形態に従ってコードが実装されている。コントローラ上のプレイヤのアクションおよびまたはプレイヤによって操作されているコントローラの所望の動きを解釈する制御装置502からの信号と共に、データ処理装置503はビデオ信号を更新してそのアクションまたは動きを反映させる。一実施形態では、ビデオ信号またはデータがホストゲームコンソールまたは別の計算装置に送られ、ゲーム空間を創出または更新し、次に、そのゲーム空間がディスプレイドライバ506を介してディスプレイスクリーンに表示される。[必須:この箇所は熟読されたい]
一実施形態によれば、1つまたは複数のゲームコンソールからデータストリームが受け取られ、プレイヤを囲む環境のそれぞれの3D表示が得られる。デジタル処理され、かつCG画像を追加することによって「拡張された」ライブビデオ画像の使用に関係している拡張された現実を用いて、様々なオブジェクトが、現実の世界の人々またはオブジェクト(表示オブジェクトと呼ぶ)または他の仮想オブジェクトと対話可能なように、場面すなわちゲーム空間が創出される。プレイヤは、仮想オブジェクトの前にオブジェクトを配置し得、当該ゲームは、当該オブジェクトが何であるのかを解釈してそれに反応する。例えば、プレイヤがコントローラを介して仮想オブジェクト(例えば、仮想のペット)に向かってボールを転がす場合、そのオブジェクトは怪我を避けるように道の外に飛び出すであろう。また、そのオブジェクトは、プレイヤのアクションに対して反応し、プレイヤに、例えば、そのペットをくすぐったり、驚かせるように手を叩いたりさせることができる。
一実施形態によれば、センサデータをカメラからの画像データと相関させ、現実の世界空間におけるプレイヤの手などの要素をより容易に特定することができる。当業者には公知であるように、カメラから純粋に生成されたデータからは、ある程度の精度でコントローラの向きを追跡することは難しい。コントローラの相対的な向きの追跡は、慣性センサのいくつかを用いて行なわれ得、カメラからの立体情報によって場所の変化を得た後に、角運動が変化している可能性があるため、その場所を慣性センサからの計測値から除外して、コントローラの絶対的な向きを得ることができる。
当業者であれば、本発明の要素をソフトウェアに実装し得るが、ハードウェアまたはハードウェアとソフトウェアとの組み合わせにも実装可能であることが分かるであろう。本発明は、コンピュータ読み取り可能な媒体上のコンピュータ読み取り可能なコードとして具現化することもできる。コンピュータ読み取り可能な媒体は、後からコンピュータシステムによって読み出し可能なデータを格納することができる任意のデータ記憶装置であってもよい。コンピュータ読み取り可能な媒体の例としては、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、DVD、磁気テープ、ハードディスク、光データ記憶装置または搬送波が挙げられるがそれらに限定されない。コンピュータ読み取り可能な媒体はコンピュータ読み取り可能なコードが分散式に格納および実行されるように、ネットワーク結合型コンピュータシステム上に分散させることができる。
本発明を、ある程度の特殊性と共に十分詳細に説明してきた。当業者であれば、この実施形態の開示が単に一例としてなされており、特許請求の範囲に記載の本発明の精神および範囲を逸脱せずに、その構成の多くの変形および部分の組み合わせが可能であることが分かる。本明細書で論じられている実施形態は、形式および構成の点で情報単位の提示についていくらかの制限を含むように見えるが、本発明は、そのような実施形態よりもはるかに優れた適用性を有し、それは当業者であれば理解することができる。従って、本発明の範囲は、上記実施形態の記載内容によってではなく、添付の特許請求の範囲によって定義されるものである。

Claims (15)

  1. 複数のプレイヤによってプレイされるネットワークビデオゲーム用の共有ゲーム空間を創出する方法であって、
    必ずしも同一の場所に位置していない1つまたは複数の現実の世界空間に関する1つまたは複数のデータストリームを受け取るステップであって、前記データストリームがそれぞれ、前記プレイヤのうちの少なくとも1人が前記ネットワークビデオゲームをプレイする前記現実の世界空間のうちの1つに関するビデオデータを含み、前記データストリームが前記現実の世界空間および前記プレイヤの様々な動きの三次元表示を得るために使用されるステップと、
    前記現実の世界空間の前記三次元表示を参照して前記共有ゲーム空間を創出するステップであって、前記共有ゲーム空間におけるいくつかのオブジェクトが前記現実の世界空間における前記プレイヤのそれぞれの動きに対応して反応するステップと、
    を含む方法。
  2. 前記現実の世界空間のそれぞれが、そこでのプレイヤの動きが少なくとも1つのカメラによって捉えられかつ前記共有ゲーム空間における対応するオブジェクトを制御するように使用される有効なプレイエリアを含む、請求項1に記載の方法。
  3. 前記有効なプレイエリアが前記カメラの視野を超え、前記カメラの前記視野を超える前記有効なプレイエリアの一部に含まれる前記プレイヤの前記動きが前記プレイヤによって握持されているコントローラ内の慣性センサによって追跡される、請求項1または2に記載の方法。
  4. 前記現実の世界空間の前記三次元表示を参照して前記共有ゲーム空間を創出する前記ステップが、
    所定の基準に従って、前記現実の世界空間の前記三次元表示の少なくとも一部を前記共有ゲーム空間に組み込むステップと、
    前記ビデオゲームに係る前記共有ゲーム空間に1つまたは複数の仮想オブジェクトを創出するステップと、
    1つまたは複数の表示オブジェクトを組み込むステップであって、前記表示オブジェクトのいくつかはそれぞれ、前記プレイヤのうちの一人に対応しかつ前記プレイヤに従って移動し、前記表示オブジェクトの他のいくつかはそれぞれ、前記現実の世界空間のうちの1つにおける静止オブジェクトに対応しているステップと、
    を含む、請求項1または2に記載の方法。
  5. 前記共有ゲーム空間に、前記仮想および表示オブジェクト間での様々な対話を可能にするゲームルールを組み込むステップをさらに含み、
    前記データストリームの前記それぞれが、前記ビデオデータと共に前記プレイヤの前記様々な動きを得るためのセンサデータをさらに含む、請求項4に記載の方法。
  6. 前記ビデオデータが、前記現実の世界空間のうちの1つにおいて、前記コントローラの最大6つの絶対角運動および並進運動を得るために前記センサデータと共に使用される、請求項5に記載の方法。
  7. 前記現実の世界空間の前記三次元表示を参照して前記共有ゲーム空間を創出する前記ステップが、
    前記現実の世界空間の前記三次元表示をそれぞれ得るステップと、
    1つまたは複数のスティッチング、マージ、モーフィング、スーパインポーズまたは組み込み技術によって前記三次元表示を組み合わせるステップと、
    所定の要求に従って前記共有ゲーム空間を処理するステップと、
    前記オブジェクト間の対話のために前記ゲーム空間に様々なルールおよび採点機構を組み込むステップと、
    を含む、請求項1に記載の方法。
  8. 前記共有ゲーム空間に仮想の音源があり、前記プレイヤに対応するオブジェクトが前記仮想の音源に近づくと、前記プレイヤに聞こえる音が大きくなる、請求項7に記載の方法。
  9. 1つまたは複数の現実の世界空間に関する1つまたは複数のデータストリームを受け取る前記ステップが、前記ネットワークビデオゲームに参加しているゲームコンソールのうちの1つである専用の装置または前記インターネット上の専用の計算装置において行なわれ、
    前記更新された共有ゲーム空間を前記専用の装置から前記参加中のゲームコンソールに供給するステップと、
    前記参加中のゲームコンソールのそれぞれに前記更新された共有ゲーム空間のコピーをキャッシングするステップと、
    適度に近い対応を維持するように可能な限り頻繁に他の参加中のゲームコンソールからの情報によって前記ゲーム空間の前記コピーを更新するステップと、
    をさらに含む、請求項1に記載の方法。
  10. ネットワークビデオゲーム用の共有ゲーム空間を創出するシステムであって、
    必ずしも同一の場所に位置しておらずかつそれぞれのデータストリームを提供する複数のプレイエリアであって、前記プレイエリアのそれぞれには少なくとも1つのカメラおよびコンソールが備えられ、前記カメラが、前記共有ゲームをプレイするためにコントローラを握持している少なくとも1人のプレイヤがいる前記プレイエリアのうちの1つを監視するために設置されており、前記コンソールが、前記プレイヤの様々な動きを捉えたビデオデータおよびセンサデータの両方を含む前記データストリームのうちの1つを提供するプレイエリアと、
    前記プレイエリアから前記データストリームをそれぞれ受け取りかつ前記プレイエリアの三次元表示を参照して前記共有ゲーム空間を創出するように構成されたホスティングマシンであって、前記共有ゲーム空間におけるオブジェクトの少なくともいつくかの動きが前記プレイエリアにおけるプレイヤのそれぞれの動きに反応するホスティングマシンと、
    を含むシステム。
  11. 前記現実の世界空間がそれぞれ、前記プレイヤの動きが前記カメラによって捉えられかつ前記共有ゲーム空間において対応するオブジェクトを制御するために使用される有効なプレイエリアを含み、前記有効なプレイエリアが、前記カメラの1つまたは複数の視野、前記カメラの光学パラメータおよび周囲照明条件によって画定される、請求項10に記載のシステム。
  12. 前記ホスティングマシンが、
    所定の基準に従って前記共有ゲーム空間に前記現実の世界空間の前記三次元表示の少なくとも一部を組み込む操作と、
    前記ビデオゲームに係る前記共有ゲーム空間において1つまたは複数の仮想オブジェクトを創出する操作と、
    1つまたは複数の表示オブジェクトを組み込む操作であって、前記表示オブジェクトのいくつかがそれぞれ前記プレイヤのうちの一人と対応しかつ前記プレイヤに従って移動し、前記表示オブジェクトの他のいくつかがそれぞれ前記現実の世界空間の1つにおける静止オブジェクトに対応している操作と、
    を行なうように構成されている、請求項10または11に記載のシステム。
  13. 前記ホスティングマシンが、前記共有ゲーム空間に前記仮想および表示オブジェクト間での様々な対話を可能するためのゲームルールを組み込む操作を行なうように構成されている、請求項12に記載のシステム。
  14. 前記ホスティングマシンが、前記ネットワークビデオゲームに参加しているゲームコンソールのうちの1つである専用の装置またはネットワーク上の専用の計算装置である、請求項13に記載のシステム。
  15. 前記ビデオデータおよびセンサデータが前記プレイヤの前記動きを推測するように処理される、請求項10〜14のいずれか1項に記載のシステム。
JP2010098546A 2009-04-26 2010-04-22 ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム Pending JP2010257461A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/430,095 US20090221368A1 (en) 2007-11-28 2009-04-26 Method and system for creating a shared game space for a networked game

Publications (1)

Publication Number Publication Date
JP2010257461A true JP2010257461A (ja) 2010-11-11

Family

ID=42557319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010098546A Pending JP2010257461A (ja) 2009-04-26 2010-04-22 ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム

Country Status (4)

Country Link
US (1) US20090221368A1 (ja)
EP (1) EP2243525A3 (ja)
JP (1) JP2010257461A (ja)
CN (1) CN101872241B (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061937A (ja) * 2011-09-12 2013-04-04 Palo Alto Research Center Inc ステレオカメラ及びステレオディスプレイを組み合わせたやり取り
JP2015502796A (ja) * 2011-12-02 2015-01-29 エンパイア テクノロジー ディベロップメント エルエルシー ジェスチャーベースのゲームシステムの安全方式
US9266019B2 (en) 2011-07-01 2016-02-23 Empire Technology Development Llc Safety scheme for gesture-based game
US9390318B2 (en) 2011-08-31 2016-07-12 Empire Technology Development Llc Position-setup for gesture-based game system
JP2017152010A (ja) * 2013-06-09 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイ
JP2018013901A (ja) * 2016-07-20 2018-01-25 株式会社Abal 仮想空間体感システム
JP2019192263A (ja) * 2019-06-05 2019-10-31 株式会社Abal 仮想空間体感システム
US10603588B2 (en) 2017-02-16 2020-03-31 Fuji Xerox Co., Ltd. Information processing device

Families Citing this family (344)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6658091B1 (en) 2002-02-01 2003-12-02 @Security Broadband Corp. LIfestyle multimedia security system
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US8019121B2 (en) * 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7782297B2 (en) * 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US8287373B2 (en) * 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US9149705B2 (en) * 2003-10-09 2015-10-06 William B. Priester Multi-rotor apparatus and method for motion sculpting
US7663689B2 (en) * 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US10382452B1 (en) 2007-06-12 2019-08-13 Icontrol Networks, Inc. Communication protocols in integrated systems
US10522026B2 (en) 2008-08-11 2019-12-31 Icontrol Networks, Inc. Automation system user interface with three-dimensional display
US10339791B2 (en) 2007-06-12 2019-07-02 Icontrol Networks, Inc. Security network integrated with premise security system
US10313303B2 (en) 2007-06-12 2019-06-04 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US9531593B2 (en) 2007-06-12 2016-12-27 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US10380871B2 (en) 2005-03-16 2019-08-13 Icontrol Networks, Inc. Control system user interface
US11489812B2 (en) 2004-03-16 2022-11-01 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10444964B2 (en) 2007-06-12 2019-10-15 Icontrol Networks, Inc. Control system user interface
US9141276B2 (en) 2005-03-16 2015-09-22 Icontrol Networks, Inc. Integrated interface for mobile device
US20170118037A1 (en) 2008-08-11 2017-04-27 Icontrol Networks, Inc. Integrated cloud system for premises automation
US11677577B2 (en) 2004-03-16 2023-06-13 Icontrol Networks, Inc. Premises system management using status signal
US20160065414A1 (en) 2013-06-27 2016-03-03 Ken Sundermeyer Control system user interface
US8963713B2 (en) 2005-03-16 2015-02-24 Icontrol Networks, Inc. Integrated security network with security alarm signaling system
US10200504B2 (en) 2007-06-12 2019-02-05 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20090077623A1 (en) 2005-03-16 2009-03-19 Marc Baum Security Network Integrating Security System and Network Devices
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US10142392B2 (en) 2007-01-24 2018-11-27 Icontrol Networks, Inc. Methods and systems for improved system performance
US11277465B2 (en) 2004-03-16 2022-03-15 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US11201755B2 (en) 2004-03-16 2021-12-14 Icontrol Networks, Inc. Premises system management using status signal
US10375253B2 (en) 2008-08-25 2019-08-06 Icontrol Networks, Inc. Security system with networked touchscreen and gateway
US11316958B2 (en) 2008-08-11 2022-04-26 Icontrol Networks, Inc. Virtual device systems and methods
US9609003B1 (en) 2007-06-12 2017-03-28 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US11159484B2 (en) 2004-03-16 2021-10-26 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
US11343380B2 (en) 2004-03-16 2022-05-24 Icontrol Networks, Inc. Premises system automation
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US7711796B2 (en) 2006-06-12 2010-05-04 Icontrol Networks, Inc. Gateway registry methods and systems
US11582065B2 (en) 2007-06-12 2023-02-14 Icontrol Networks, Inc. Systems and methods for device communication
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US9729342B2 (en) 2010-12-20 2017-08-08 Icontrol Networks, Inc. Defining and implementing sensor triggered response rules
US9191228B2 (en) 2005-03-16 2015-11-17 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US10127802B2 (en) 2010-09-28 2018-11-13 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US8988221B2 (en) 2005-03-16 2015-03-24 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US11368429B2 (en) 2004-03-16 2022-06-21 Icontrol Networks, Inc. Premises management configuration and control
US10156959B2 (en) 2005-03-16 2018-12-18 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
WO2005091218A2 (en) 2004-03-16 2005-09-29 Icontrol Networks, Inc Premises management system
US11113950B2 (en) 2005-03-16 2021-09-07 Icontrol Networks, Inc. Gateway integrated with premises security system
US8635350B2 (en) 2006-06-12 2014-01-21 Icontrol Networks, Inc. IP device discovery systems and methods
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US10999254B2 (en) 2005-03-16 2021-05-04 Icontrol Networks, Inc. System for data routing in networks
US11615697B2 (en) 2005-03-16 2023-03-28 Icontrol Networks, Inc. Premise management systems and methods
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US9306809B2 (en) 2007-06-12 2016-04-05 Icontrol Networks, Inc. Security system with networked touchscreen
US20170180198A1 (en) 2008-08-11 2017-06-22 Marc Baum Forming a security network including integrated security system components
US11700142B2 (en) 2005-03-16 2023-07-11 Icontrol Networks, Inc. Security network integrating security system and network devices
US11496568B2 (en) 2005-03-16 2022-11-08 Icontrol Networks, Inc. Security system with networked touchscreen
US9450776B2 (en) 2005-03-16 2016-09-20 Icontrol Networks, Inc. Forming a security network including integrated security system components
US20110128378A1 (en) 2005-03-16 2011-06-02 Reza Raji Modular Electronic Display Platform
EP1967942A1 (en) * 2005-10-26 2008-09-10 Sony Computer Entertainment America, Inc. System and method for interfacing and computer program
US10079839B1 (en) 2007-06-12 2018-09-18 Icontrol Networks, Inc. Activation of gateway device
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US20080096657A1 (en) * 2006-10-20 2008-04-24 Sony Computer Entertainment America Inc. Method for aiming and shooting using motion sensing controller
US11706279B2 (en) 2007-01-24 2023-07-18 Icontrol Networks, Inc. Methods and systems for data communication
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
US20080215975A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Virtual world user opinion & response monitoring
US8451986B2 (en) 2007-04-23 2013-05-28 Icontrol Networks, Inc. Method and system for automatically providing alternate network access for telecommunications
US8996409B2 (en) 2007-06-06 2015-03-31 Sony Computer Entertainment Inc. Management of online trading services using mediated communications
US11218878B2 (en) 2007-06-12 2022-01-04 Icontrol Networks, Inc. Communication protocols in integrated systems
US11601810B2 (en) 2007-06-12 2023-03-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US10666523B2 (en) 2007-06-12 2020-05-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US10616075B2 (en) 2007-06-12 2020-04-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US10051078B2 (en) 2007-06-12 2018-08-14 Icontrol Networks, Inc. WiFi-to-serial encapsulation in systems
US11237714B2 (en) 2007-06-12 2022-02-01 Control Networks, Inc. Control system user interface
US11089122B2 (en) 2007-06-12 2021-08-10 Icontrol Networks, Inc. Controlling data routing among networks
US11316753B2 (en) 2007-06-12 2022-04-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US10523689B2 (en) 2007-06-12 2019-12-31 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US12003387B2 (en) 2012-06-27 2024-06-04 Comcast Cable Communications, Llc Control system user interface
US10498830B2 (en) 2007-06-12 2019-12-03 Icontrol Networks, Inc. Wi-Fi-to-serial encapsulation in systems
US10423309B2 (en) 2007-06-12 2019-09-24 Icontrol Networks, Inc. Device integration framework
US11423756B2 (en) 2007-06-12 2022-08-23 Icontrol Networks, Inc. Communication protocols in integrated systems
US11646907B2 (en) 2007-06-12 2023-05-09 Icontrol Networks, Inc. Communication protocols in integrated systems
US10389736B2 (en) 2007-06-12 2019-08-20 Icontrol Networks, Inc. Communication protocols in integrated systems
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
US8902227B2 (en) 2007-09-10 2014-12-02 Sony Computer Entertainment America Llc Selective interactive mapping of real-world objects to create interactive virtual-world objects
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
EP2257911B1 (en) 2008-02-27 2018-10-10 Sony Computer Entertainment America LLC Methods for capturing depth data of a scene and applying computer actions
US8368753B2 (en) * 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
US8405727B2 (en) * 2008-05-01 2013-03-26 Apple Inc. Apparatus and method for calibrating image capture devices
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US11792036B2 (en) 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
US11729255B2 (en) 2008-08-11 2023-08-15 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11258625B2 (en) 2008-08-11 2022-02-22 Icontrol Networks, Inc. Mobile premises automation platform
US10530839B2 (en) 2008-08-11 2020-01-07 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11758026B2 (en) 2008-08-11 2023-09-12 Icontrol Networks, Inc. Virtual device systems and methods
US8290604B2 (en) * 2008-08-19 2012-10-16 Sony Computer Entertainment America Llc Audience-condition based media selection
US8447421B2 (en) 2008-08-19 2013-05-21 Sony Computer Entertainment Inc. Traffic-based media selection
US8508671B2 (en) 2008-09-08 2013-08-13 Apple Inc. Projection systems and methods
US8538084B2 (en) * 2008-09-08 2013-09-17 Apple Inc. Method and apparatus for depth sensing keystoning
US20100079426A1 (en) * 2008-09-26 2010-04-01 Apple Inc. Spatial ambient light profiling
US8527908B2 (en) * 2008-09-26 2013-09-03 Apple Inc. Computer user interface system and methods
US8610726B2 (en) * 2008-09-26 2013-12-17 Apple Inc. Computer systems and methods with projected display
US7881603B2 (en) * 2008-09-26 2011-02-01 Apple Inc. Dichroic aperture for electronic imaging device
US8221229B2 (en) * 2008-10-27 2012-07-17 Sony Computer Entertainment Inc. Spherical ended controller with configurable modes
US9628440B2 (en) 2008-11-12 2017-04-18 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US20100138775A1 (en) * 2008-11-28 2010-06-03 Sharon Kohen Method, device and system, for extracting dynamic content from a running computer application
US9591118B2 (en) * 2009-01-01 2017-03-07 Intel Corporation Pose to device mapping
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US20100199231A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US20100199228A1 (en) * 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8565477B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8267781B2 (en) * 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US7996793B2 (en) * 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8294767B2 (en) * 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8565476B2 (en) * 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US9377857B2 (en) * 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8181123B2 (en) * 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8942428B2 (en) * 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8142288B2 (en) * 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) * 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8303387B2 (en) * 2009-05-27 2012-11-06 Zambala Lllp System and method of simulated objects and applications thereof
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
US8379101B2 (en) * 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US9129644B2 (en) * 2009-06-23 2015-09-08 Disney Enterprises, Inc. System and method for rendering in accordance with location of virtual objects in real-time
US8907941B2 (en) * 2009-06-23 2014-12-09 Disney Enterprises, Inc. System and method for integrating multiple virtual rendering systems to provide an augmented reality
US8390680B2 (en) * 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US9186548B2 (en) * 2009-07-20 2015-11-17 Disney Enterprises, Inc. Play sequence visualization and analysis
JP5263049B2 (ja) * 2009-07-21 2013-08-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8502926B2 (en) * 2009-09-30 2013-08-06 Apple Inc. Display system having coherent and incoherent light sources
US8619128B2 (en) 2009-09-30 2013-12-31 Apple Inc. Systems and methods for an imaging system using multiple image sensors
US20110083108A1 (en) * 2009-10-05 2011-04-07 Microsoft Corporation Providing user interface feedback regarding cursor position on a display screen
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US7961910B2 (en) * 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
US8988432B2 (en) * 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
KR101373285B1 (ko) * 2009-12-08 2014-03-11 한국전자통신연구원 제스쳐 인식 기능을 갖는 휴대 단말기 및 이를 이용한 인터페이스 시스템
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8687070B2 (en) 2009-12-22 2014-04-01 Apple Inc. Image capture device having tilt and/or perspective correction
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8284157B2 (en) 2010-01-15 2012-10-09 Microsoft Corporation Directed performance in motion capture system
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US9400695B2 (en) * 2010-02-26 2016-07-26 Microsoft Technology Licensing, Llc Low latency rendering of objects
JP5614527B2 (ja) 2010-03-05 2014-10-29 セイコーエプソン株式会社 姿勢情報算出装置、姿勢情報算出システム、姿勢情報算出方法及び姿勢情報算出プログラム
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
KR101835413B1 (ko) 2010-04-13 2018-03-09 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101677718B1 (ko) * 2010-04-14 2016-12-06 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR20110116525A (ko) * 2010-04-19 2011-10-26 엘지전자 주식회사 3d 오브젝트를 제공하는 영상표시장치, 그 시스템 및 그 동작 제어방법
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US9274594B2 (en) * 2010-05-28 2016-03-01 Microsoft Technology Licensing, Llc Cloud-based personal trait profile data
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
US8803888B2 (en) * 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9030536B2 (en) 2010-06-04 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for presenting media content
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US9086727B2 (en) 2010-06-22 2015-07-21 Microsoft Technology Licensing, Llc Free space directional force feedback apparatus
US8878656B2 (en) 2010-06-22 2014-11-04 Microsoft Corporation Providing directional force feedback in free space
US9787974B2 (en) 2010-06-30 2017-10-10 At&T Intellectual Property I, L.P. Method and apparatus for delivering media content
US8918831B2 (en) 2010-07-06 2014-12-23 At&T Intellectual Property I, Lp Method and apparatus for managing a presentation of media content
US9049426B2 (en) 2010-07-07 2015-06-02 At&T Intellectual Property I, Lp Apparatus and method for distributing three dimensional media content
US9032470B2 (en) 2010-07-20 2015-05-12 At&T Intellectual Property I, Lp Apparatus for adapting a presentation of media content according to a position of a viewing apparatus
US9232274B2 (en) 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US8497897B2 (en) 2010-08-17 2013-07-30 Apple Inc. Image capture using luminance and chrominance sensors
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8438502B2 (en) 2010-08-25 2013-05-07 At&T Intellectual Property I, L.P. Apparatus for controlling three-dimensional images
US8613666B2 (en) * 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8417058B2 (en) 2010-09-15 2013-04-09 Microsoft Corporation Array of scanning sensors
US8484219B2 (en) 2010-09-21 2013-07-09 Sony Computer Entertainment America Llc Developing a knowledge base associated with a user that facilitates evolution of an intelligent user interface
US8504487B2 (en) 2010-09-21 2013-08-06 Sony Computer Entertainment America Llc Evolution of a user interface based on learned idiosyncrasies and collected data of a user
JP5627973B2 (ja) * 2010-09-24 2014-11-19 任天堂株式会社 ゲーム処理をするためのプログラム、装置、システムおよび方法
US8538132B2 (en) 2010-09-24 2013-09-17 Apple Inc. Component concentricity
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US8884984B2 (en) 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
US9294722B2 (en) * 2010-10-19 2016-03-22 Microsoft Technology Licensing, Llc Optimized telepresence using mobile device gestures
US20140372912A9 (en) * 2010-10-30 2014-12-18 Aaron D. Cohen Multi-Dimensional Enhanced World View Experiences, Related Systems and Software, Methods of Use and Production Thereof
US11750414B2 (en) 2010-12-16 2023-09-05 Icontrol Networks, Inc. Bidirectional security sensor communication for a premises security system
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US9147337B2 (en) 2010-12-17 2015-09-29 Icontrol Networks, Inc. Method and system for logging security event data
CN106943742B (zh) * 2011-02-11 2024-04-26 漳州市阿思星谷电子科技有限公司 一种动作放大系统
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
DE102011104524A1 (de) * 2011-06-15 2012-12-20 Ifakt Gmbh Verfahren und Vorrichtung zum Ermitteln und Wiedergeben virtueller ortsbezogener Informationen für einen Raumbereich
US8947497B2 (en) * 2011-06-24 2015-02-03 At&T Intellectual Property I, Lp Apparatus and method for managing telepresence sessions
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US9030522B2 (en) 2011-06-24 2015-05-12 At&T Intellectual Property I, Lp Apparatus and method for providing media content
US9602766B2 (en) 2011-06-24 2017-03-21 At&T Intellectual Property I, L.P. Apparatus and method for presenting three dimensional objects with telepresence
US9207767B2 (en) * 2011-06-29 2015-12-08 International Business Machines Corporation Guide mode for gesture spaces
US8587635B2 (en) 2011-07-15 2013-11-19 At&T Intellectual Property I, L.P. Apparatus and method for providing media services with telepresence
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
US9323325B2 (en) 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
CN104067317A (zh) 2011-09-08 2014-09-24 宝福特控股私人有限公司 用于在真实世界视频剪辑内对合成对象进行可视化的系统和方法
US9155964B2 (en) 2011-09-14 2015-10-13 Steelseries Aps Apparatus for adapting virtual gaming with real world information
US9939888B2 (en) * 2011-09-15 2018-04-10 Microsoft Technology Licensing Llc Correlating movement information received from different sources
CN102411426A (zh) * 2011-10-24 2012-04-11 由田信息技术(上海)有限公司 电子装置的操作方法
US9454849B2 (en) 2011-11-03 2016-09-27 Microsoft Technology Licensing, Llc Augmented reality playspaces with adaptive game rules
US9314694B2 (en) * 2011-11-04 2016-04-19 8 Leaf Digital Productions Inc. Integrated digital play system
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
CN102521865A (zh) * 2011-12-23 2012-06-27 广东威创视讯科技股份有限公司 视频场景仿真方法、装置及系统
US9077846B2 (en) * 2012-02-06 2015-07-07 Microsoft Technology Licensing, Llc Integrated interactive space
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CN102614665B (zh) * 2012-04-16 2016-11-16 苏州市职业大学 一种在网络游戏图像中添加现实物体的方法
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9798457B2 (en) 2012-06-01 2017-10-24 Microsoft Technology Licensing, Llc Synchronization of media interactions using context
US9381427B2 (en) 2012-06-01 2016-07-05 Microsoft Technology Licensing, Llc Generic companion-messaging between media platforms
US9724597B2 (en) 2012-06-04 2017-08-08 Sony Interactive Entertainment Inc. Multi-image interactive gaming device
US9041622B2 (en) 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
US9292085B2 (en) 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
SK500492012A3 (sk) * 2012-10-31 2014-05-06 Andrej Grék Spôsob interakcie pomocou rozšírenej reality
US9105178B2 (en) 2012-12-03 2015-08-11 Sony Computer Entertainment Inc. Remote dynamic configuration of telemetry reporting through regular expressions
US20140179435A1 (en) * 2012-12-20 2014-06-26 Cadillac Jack Electronic gaming system with 3d depth image sensing
EP2749332A3 (en) * 2012-12-26 2014-12-31 Disney Enterprises, Inc. Providing a common virtual item repository in a virtual space; unlocking virtual items in a virtual space responsive to physical token detection; and facilitating customization of a virtual space based on accessible virtual items
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9052746B2 (en) * 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9325943B2 (en) * 2013-02-20 2016-04-26 Microsoft Technology Licensing, Llc Providing a tele-immersive experience using a mirror metaphor
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
IL298018B2 (en) 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
US9159140B2 (en) * 2013-03-14 2015-10-13 Microsoft Technology Licensing, Llc Signal analysis for repetition detection and analysis
US9928975B1 (en) 2013-03-14 2018-03-27 Icontrol Networks, Inc. Three-way switch
US9867143B1 (en) 2013-03-15 2018-01-09 Icontrol Networks, Inc. Adaptive Power Modulation
KR102271726B1 (ko) 2013-03-15 2021-06-30 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US9287727B1 (en) 2013-03-15 2016-03-15 Icontrol Networks, Inc. Temporal voltage adaptive lithium battery charger
US9356061B2 (en) 2013-08-05 2016-05-31 Apple Inc. Image sensor with buried light shield and vertical gate
WO2015021469A2 (en) 2013-08-09 2015-02-12 Icontrol Networks Canada Ulc System, method and apparatus for remote monitoring
CN103743921B (zh) * 2013-12-31 2016-01-13 杭州士兰微电子股份有限公司 基于惯性传感器的自适应转速测量系统及方法
US9883138B2 (en) 2014-02-26 2018-01-30 Microsoft Technology Licensing, Llc Telepresence experience
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
US11146637B2 (en) 2014-03-03 2021-10-12 Icontrol Networks, Inc. Media content management
US9251676B2 (en) * 2014-03-26 2016-02-02 Ncr Corporation Haptic self-service terminal (SST) feedback
CN104954349B (zh) * 2014-03-31 2018-07-20 北京畅游天下网络技术有限公司 一种2d游戏中客户端的同步方法、装置和系统
US20160012640A1 (en) * 2014-07-14 2016-01-14 Microsoft Corporation User-generated dynamic virtual worlds
CN104258566B (zh) * 2014-10-16 2015-04-08 山东大学 一种基于多画显示的虚拟射击影院系统与方法
KR101648928B1 (ko) * 2014-11-24 2016-08-18 김재경 위치기반 모바일게임 운영시스템
US9407865B1 (en) * 2015-01-21 2016-08-02 Microsoft Technology Licensing, Llc Shared scene mesh data synchronization
US9704298B2 (en) 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US10169917B2 (en) 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
US10235808B2 (en) 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
US20170092000A1 (en) * 2015-09-25 2017-03-30 Moshe Schwimmer Method and system for positioning a virtual object in a virtual simulation environment
US20170091999A1 (en) * 2015-09-25 2017-03-30 Rafael Blumenfeld Method and system for determining a configuration of a virtual robot in a virtual environment
CN105204374B (zh) * 2015-11-03 2017-12-15 深圳市精准世纪信息科技有限公司 一种基于手机平台的现场游戏模拟方法
CN105446623A (zh) * 2015-11-20 2016-03-30 广景视睿科技(深圳)有限公司 一种多互动投影的方法及系统
CN105892651B (zh) * 2016-03-28 2019-03-29 联想(北京)有限公司 一种虚拟对象的显示方法和电子设备
CN105879390A (zh) * 2016-04-26 2016-08-24 乐视控股(北京)有限公司 虚拟现实游戏处理方法及设备
CN107583276B (zh) * 2016-07-07 2020-01-24 苏州狗尾草智能科技有限公司 游戏参数控制方法、装置及游戏控制方法、装置
CN106200831A (zh) * 2016-08-31 2016-12-07 广州数娱信息科技有限公司 一种ar、全息智能装置
CN106598217B (zh) * 2016-11-08 2020-06-19 北京小米移动软件有限公司 显示方法、显示装置和电子设备
CN108712359A (zh) * 2017-04-11 2018-10-26 邻客(深圳)虚拟现实技术有限公司 一种虚拟现实社交方法及系统
US11094001B2 (en) 2017-06-21 2021-08-17 At&T Intellectual Property I, L.P. Immersive virtual entertainment system
US20190026935A1 (en) * 2017-07-24 2019-01-24 Medivrse Bv Method and system for providing virtual reality experience based on ultrasound data
JP7142853B2 (ja) * 2018-01-12 2022-09-28 株式会社バンダイナムコ研究所 シミュレーションシステム及びプログラム
US20190361847A1 (en) * 2018-05-23 2019-11-28 Stephen C. Thomson Spatial Linking Visual Navigation System and Method of Using the Same
WO2021030328A1 (en) 2019-08-12 2021-02-18 Magic Leap, Inc. Systems and methods for virtual and augmented reality
JP2021087580A (ja) * 2019-12-03 2021-06-10 株式会社スクウェア・エニックス ゲーム装置、ゲーム処理方法及びプログラム
US11395967B2 (en) * 2020-09-11 2022-07-26 Riot Games, Inc. Selective indication of off-screen object presence
EP4321972A1 (en) * 2022-08-12 2024-02-14 Siec Innowacyjna HO'X Translocational augmented reality system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194876A (ja) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab 仮想空間共有装置
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP2002516121A (ja) * 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2005107248A (ja) * 2003-09-30 2005-04-21 Canon Inc データ変換方法及び装置並びに姿勢計測装置
JP2007296367A (ja) * 2006-05-04 2007-11-15 Sony Computer Entertainment America Inc ゲームプログラムの実行を制御するための入力を取得する方法
JP2008077275A (ja) * 2006-09-20 2008-04-03 Konami Digital Entertainment:Kk パラメータ処理装置、パラメータ処理方法、ならびに、プログラム
JP2008272123A (ja) * 2007-04-26 2008-11-13 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430997B1 (en) * 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
ES2231856T3 (es) * 1996-03-05 2005-05-16 Sega Enterprises, Ltd. Controlador y unidad de ampliacion para el controlador.
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
US20030007648A1 (en) * 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
US20040030531A1 (en) * 2002-03-28 2004-02-12 Honeywell International Inc. System and method for automated monitoring, recognizing, supporting, and responding to the behavior of an actor
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
JP2005534368A (ja) * 2002-07-31 2005-11-17 ブルーストリーク テクノロジー インコーポレイテッド ビデオオンデマンドに基づくゲームのためのシステムおよび方法
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
KR100465241B1 (ko) * 2003-03-17 2005-01-13 삼성전자주식회사 가상 필기 평면을 이용한 모션 인식 시스템 및 그 인식방법
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
AU2004282819B2 (en) * 2003-09-12 2009-11-12 Aristocrat Technologies Australia Pty Ltd Communications interface for a gaming machine
JP3904562B2 (ja) * 2004-02-18 2007-04-11 株式会社ソニー・コンピュータエンタテインメント 画像表示システム、記録媒体及びプログラム
KR100580647B1 (ko) * 2004-04-01 2006-05-16 삼성전자주식회사 입력모드 분류가능한 동작기반 입력장치 및 방법
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7292151B2 (en) * 2004-07-29 2007-11-06 Kevin Ferguson Human movement measurement system
US20060071904A1 (en) * 2004-10-05 2006-04-06 Samsung Electronics Co., Ltd. Method of and apparatus for executing function using combination of user's key input and motion
US20090066641A1 (en) * 2005-03-10 2009-03-12 Motus Corporation Methods and Systems for Interpretation and Processing of Data Streams
US20060223635A1 (en) * 2005-04-04 2006-10-05 Outland Research method and apparatus for an on-screen/off-screen first person gaming experience
US7508384B2 (en) * 2005-06-08 2009-03-24 Daka Research Inc. Writing system
JP5028751B2 (ja) * 2005-06-09 2012-09-19 ソニー株式会社 行動認識装置
JP4151982B2 (ja) * 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
CN100487636C (zh) * 2006-06-09 2009-05-13 中国科学院自动化研究所 基于立体视觉的游戏控制系统及方法
US7702608B1 (en) * 2006-07-14 2010-04-20 Ailive, Inc. Generating motion recognizers for arbitrary motions for video games and tuning the motion recognizers to the end user
GB0615433D0 (en) * 2006-08-04 2006-09-13 Univ York Display systems
CA2668946A1 (en) * 2006-11-10 2008-05-22 Mtv Networks Electronic game that detects and incorporates a user's foot movement
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
US20090017910A1 (en) * 2007-06-22 2009-01-15 Broadcom Corporation Position and motion tracking of an object
WO2009000028A1 (en) * 2007-06-22 2008-12-31 Global Coordinate Software Limited Virtual 3d environments
US8696458B2 (en) * 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
US20090258703A1 (en) * 2008-04-09 2009-10-15 Aaron Philip Brunstetter Motion Assessment Using a Game Controller
US20090291759A1 (en) * 2008-05-22 2009-11-26 International Business Machines Corporation Simulation of writing on game consoles through the use of motion-sensing technology
US8319771B2 (en) * 2008-09-30 2012-11-27 Disney Enterprises, Inc. Computer modelled environment
US8682606B2 (en) * 2008-10-07 2014-03-25 Qualcomm Incorporated Generating virtual buttons using motion sensors
US20100117959A1 (en) * 2008-11-10 2010-05-13 Samsung Electronics Co., Ltd. Motion sensor-based user motion recognition method and portable terminal using the same
US20100171696A1 (en) * 2009-01-06 2010-07-08 Chi Kong Wu Motion actuation system and related motion database
KR20100091434A (ko) * 2009-02-10 2010-08-19 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002516121A (ja) * 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
JP2000194876A (ja) * 1998-12-25 2000-07-14 Atr Media Integration & Communications Res Lab 仮想空間共有装置
JP2000350865A (ja) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP2005107248A (ja) * 2003-09-30 2005-04-21 Canon Inc データ変換方法及び装置並びに姿勢計測装置
JP2007296367A (ja) * 2006-05-04 2007-11-15 Sony Computer Entertainment America Inc ゲームプログラムの実行を制御するための入力を取得する方法
JP2008077275A (ja) * 2006-09-20 2008-04-03 Konami Digital Entertainment:Kk パラメータ処理装置、パラメータ処理方法、ならびに、プログラム
JP2008272123A (ja) * 2007-04-26 2008-11-13 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200401381010; 磯 和之 Kazuyuki ISO: '生活融合通信の実現に向けた空間情報整合化機能"ComAdapter"の検討と実験システムの構築 A pr' 電子情報通信学会技術研究報告 Vol.102 No.662 IEICE Technical Report 第102巻 第662号, 20030221, 55〜60頁, 社団法人電子情報通信学会 The Institute of Electro *
JPN6012023546; 磯 和之 Kazuyuki ISO: '生活融合通信の実現に向けた空間情報整合化機能"ComAdapter"の検討と実験システムの構築 A pr' 電子情報通信学会技術研究報告 Vol.102 No.662 IEICE Technical Report 第102巻 第662号, 20030221, 55〜60頁, 社団法人電子情報通信学会 The Institute of Electro *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823740B2 (en) 2011-07-01 2017-11-21 Empire Technology Development Llc Safety scheme for gesture-based game
US9266019B2 (en) 2011-07-01 2016-02-23 Empire Technology Development Llc Safety scheme for gesture-based game
US9390318B2 (en) 2011-08-31 2016-07-12 Empire Technology Development Llc Position-setup for gesture-based game system
JP2013061937A (ja) * 2011-09-12 2013-04-04 Palo Alto Research Center Inc ステレオカメラ及びステレオディスプレイを組み合わせたやり取り
US9126115B2 (en) 2011-12-02 2015-09-08 Empire Technology Development Llc Safety scheme for gesture-based game system
JP2015502796A (ja) * 2011-12-02 2015-01-29 エンパイア テクノロジー ディベロップメント エルエルシー ジェスチャーベースのゲームシステムの安全方式
JP2017152010A (ja) * 2013-06-09 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイ
US10525335B2 (en) 2013-06-09 2020-01-07 Sony Interactive Entertainment Inc. Head mounted display
US10173129B2 (en) 2013-06-09 2019-01-08 Sony Interactive Entertainment Inc. Methods for rendering interactive content to a head mounted display
US10987574B2 (en) 2013-06-09 2021-04-27 Sony Interactive Entertainment Inc. Head mounted display
JP2018013901A (ja) * 2016-07-20 2018-01-25 株式会社Abal 仮想空間体感システム
US10603588B2 (en) 2017-02-16 2020-03-31 Fuji Xerox Co., Ltd. Information processing device
US11325035B2 (en) 2017-02-16 2022-05-10 Fujifilm Business Innovation Corp. Location-based game switching to input interface movement map
JP2019192263A (ja) * 2019-06-05 2019-10-31 株式会社Abal 仮想空間体感システム

Also Published As

Publication number Publication date
CN101872241B (zh) 2014-07-16
US20090221368A1 (en) 2009-09-03
EP2243525A3 (en) 2011-01-26
CN101872241A (zh) 2010-10-27
EP2243525A2 (en) 2010-10-27

Similar Documents

Publication Publication Date Title
US8419545B2 (en) Method and system for controlling movements of objects in a videogame
JP2010257461A (ja) ネットワークゲーム用の共有ゲーム空間を創出する方法およびシステム
JP6982215B2 (ja) 検出された手入力に基づく仮想手ポーズのレンダリング
JP7366196B2 (ja) 広範囲同時遠隔ディジタル提示世界
US11504609B2 (en) Head mounted display
GB2556347B (en) Virtual Reality
JP6754678B2 (ja) シミュレーションシステム及びプログラム
JP6761340B2 (ja) シミュレーションシステム及びプログラム
JP2022549853A (ja) 共有空間内の個々の視認
US10223064B2 (en) Method for providing virtual space, program and apparatus therefor
US20180357817A1 (en) Information processing method, program, and computer
JP2008068060A (ja) ポインティング入力を利用した、3d視点およびオブジェクト指定の制御方法および装置
US20180299948A1 (en) Method for communicating via virtual space and system for executing the method
JP2019526103A (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
US20180253902A1 (en) Method executed on computer for providing object in virtual space, program for executing the method on the computer, and computer apparatus
JP6826626B2 (ja) 視聴プログラム、視聴方法、および視聴端末
JP2020201980A (ja) シミュレーションシステム及びプログラム
JP7412613B1 (ja) 情報処理システムおよびプログラム
JP7412617B1 (ja) 情報処理システムおよびプログラム
JP7354466B1 (ja) 情報処理システムおよびプログラム
JP2021051762A (ja) 視聴プログラム、視聴方法、および視聴端末
JP2020146558A (ja) 配信プログラム、配信方法、コンピュータ、および視聴端末

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111019

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120116

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120217

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120314

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120820

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120823

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120919

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131015