JP5756198B2 - インタラクティブにユーザ制御されたアバターアニメーション - Google Patents

インタラクティブにユーザ制御されたアバターアニメーション Download PDF

Info

Publication number
JP5756198B2
JP5756198B2 JP2014039137A JP2014039137A JP5756198B2 JP 5756198 B2 JP5756198 B2 JP 5756198B2 JP 2014039137 A JP2014039137 A JP 2014039137A JP 2014039137 A JP2014039137 A JP 2014039137A JP 5756198 B2 JP5756198 B2 JP 5756198B2
Authority
JP
Japan
Prior art keywords
controller
avatar
console
user
console controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014039137A
Other languages
English (en)
Other versions
JP2014149836A (ja
Inventor
ハリソン フィル
ハリソン フィル
ワーグマン スコット
ワーグマン スコット
エム. ザルースキ ゲイリー
エム. ザルースキ ゲイリー
Original Assignee
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド
ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB0703974.6A external-priority patent/GB0703974D0/en
Priority claimed from GB0704227A external-priority patent/GB2447020A/en
Priority claimed from GB0704225A external-priority patent/GB2447094B/en
Priority claimed from GB0704235A external-priority patent/GB2447095B/en
Priority claimed from GB0704246A external-priority patent/GB2447096B/en
Priority claimed from US11/789,202 external-priority patent/US20080215974A1/en
Application filed by ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド, ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド filed Critical ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Publication of JP2014149836A publication Critical patent/JP2014149836A/ja
Application granted granted Critical
Publication of JP5756198B2 publication Critical patent/JP5756198B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/406Transmission via wireless network, e.g. pager or GSM
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5506Details of game data or player data management using advertisements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Storage Device Security (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、一般にインタラクティブなマルチメディアエンタテインメントに関し、より詳細には、仮想空間におけるインタラクティブなユーザ制御およびユーザの操作表現に関する。
ビデオゲーム産業は、長年にわたって多くの変化を経験してきた。演算能力が拡大するにつれ、ビデオゲームの開発者も同様に、この演算能力の増大を利用するゲームソフトウェアを作成してきた。このために、ビデオゲーム開発者は、極めてリアルなゲーム体験を生み出すべく、高度な演算と数学を採用したゲームをコーディングしてきた。
ゲームプラットホームの例に、ソニープレイステーションまたはソニープレイステーション2(PS2)があり、これらはそれぞれ、ゲームコンソールの形で販売されている。周知のように、ゲームコンソールはモニタ(通常はテレビ)と接続されて、手持ち式のコントローラによってユーザとのインタラクションを可能にするように設計されている。ゲームコンソールは、CPU、処理量の多いグラフィック操作のためのグラフィックシンセサイザ、ジオメトリ変換を実行するためのベクトル装置などの特化した処理ハードウェアと、その他の繋ぎとなるハードウェア即ちグルーハードウェア、ファームウェアおよびソフトウェアなどを備えて設計される。また、ゲームコンソールは、ゲームコンソールによるローカルプレイを行うためにゲームのコンパクトディスクを受け容れるための光ディスクトレイを備えて設計される。また、ユーザが、インターネット上で他のユーザと対戦して、または、他のユーザと一緒に対話的にプレイすることができるオンラインゲームも可能である。
ゲームが複雑であることがプレーヤの興味を引きつけていることから、ゲームおよびハードウェアのメーカは更なるインタラクティブ機能(インタラクティビティ)およびコンピュータプログラムを実現するために革新を続けてきている。コンピュータプログラムの中には、仮想世界を定義するものもある。仮想世界とは、ユーザが1つ以上のコンピュータプロセッサを介してやり取りしうるシミュレートされた環境である。ユーザは、アバターと呼ばれる表現の形でビデオ画面に表示されうる。アバターとシミュレートされた環境間のインタラクションの程度は、シミュレートされた物理現象、ユーザの間での情報の交換などのインタラクションを支配する1つ以上のコンピュータアプリケーションによって実装される。仮想世界のユーザ間のインタラクションの性質は、多くの場合、仮想世界を実装しているシステムの制約によって制限される。
本発明の実施形態は、この状況においてなされたものである。
本明細書に定義される実施形態は、コンピュータ制御されたシステムおよびプログラムが、インタフェース入力を、画面に表示される仮想世界のアニメーションキャラクタの特定の特徴にマップ可能にする。一実施形態では、コントローラ(例えば、ゲームコントローラ)の特定のボタンが、仮想世界のアニメーションキャラクタを定義するアバターの特定の身体部位にマッピングされる。一部の実施形態では、ボタンがアバターの特徴にマッピングされるだけでなく、位置、動き、トリガ、配置およびこれらの組み合わせもマッピングされ、この結果、現実世界のユーザが、画面に表現されるアバターを正確に制御できるようになる。
下で更に詳しく説明するように、現実世界のユーザは、多くの場所および空間の仮想世界にわたってアバターを制御し、他のアバター(現実世界の他のユーザまたはコンピュータ制御されたボットによって制御されうる)と交流させたり、または、物、物体、環境とインタフェースさせたり、通信動作を起こさせることが可能である。通信動作は、視覚、音声またはこれらの組み合わせの形でアバターに転送される変換マッピングによって、コントローラによって制御されうる。したがって、以下の実施形態は、特定のコントローラ(例えば、ゲームコントローラまたは汎用コンピュータの制御用周辺機器)のボタン、動き(および組み合わせ)を、アバターの特定の身体部位または選択した身体部位、アバターの全身の動き、アバターの体の反応、アバターの顔の反応、アバターの感情などにマップすることによって可能な制御の例として、幅広く考察されるべきである。
一実施形態では、コンソールを使用してコンピュータネットワークを介してアクセスされる仮想空間においてアバターを制御するための方法が開示される。前記方法は、コンソールコントローラのアクティビティ(例えば活動)をキャプチャするステップと、入力パラメータを特定するために前記コンソールコントローラの前記キャプチャされたアクティビティを処理するステップから始まる。前記方法の次のオペレーションは、前記入力パラメータのうちの選択されたパラメータを、ユーザの仮想空間表現である前記アバターの部分にマップするステップである。前記コンソールコントローラのアクティビティと前記ユーザの前記仮想空間表現である前記アバターとの間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される。
別の実施形態では、コンソールを使用してコンピュータネットワークを介してアバターをインタラクティブに制御するための方法が開示される。前記方法は、コンソールコントローラを提供するステップと、前記コンソールコントローラの第1の位置を決定するステップから始まる。前記方法は、前記コンソールコントローラの第2の位置への移動の検出を含む、前記コンソールコントローラへの入力をキャプチャするステップが続く。別のステップは、前記コンソールコントローラへの入力と、前記コンソールコントローラの前記第1の位置と前記第2の位置間の相対運動とを処理するステップである。前記方法の次のステップは、前記コンソールコントローラの前記第1の位置と前記第2の位置間の前記相対運動を、前記アバターのアニメーション表示される体の部分にマップするステップである。前記コンソールコントローラの相対運動と前記アバター間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される。
更に別の実施形態では、仮想環境内でアバターをインタラクティブに制御するためのコンピュータにより実装された方法が開示される。この実施形態では、コンピュータネットワーク内の少なくとも1つのコンピュータで実行されるコンピュータプログラムが前記アバターおよび前記仮想環境を生成する。前記方法は、前記コンピュータプログラムとインタフェースされているコントローラを提供するステップと、ユーザが前記アバターの選択された部分を制御できるように、コントローラ入力をマップするステップから始まる。前記方法は、コントローラ入力と、第1の位置と第2の位置間のコントローラの移動とをキャプチャするステップが続く。前記方法の次のステップは、前記キャプチャされたコントローラ入力およびコントローラの移動を処理し、前記仮想環境内で前記アバターの前記選択された部分をインタラクティブにアニメーション表示するために前記キャプチャされた移動を適用するステップである。コントローラの移動とアバターアニメーション間の相関を定義するために、前記コントローラ入力およびコントローラの移動のキャプチャおよび前記処理が連続的に実行される。
本発明の他の態様および利点は、例示のために本発明の原理を示す添付の図面と併せて、以下の詳細な説明を読めば明らかとなるであろう。
本発明とその更なる利点とは、添付の図面を参照して以下の記載を読めば、よりよく理解できるであろう。
本発明の一実施形態によるアバター制御システム100を示す概略図である。 本発明の一実施形態による、制御装置108とコンソール110間で動きおよび位置の検出を送信するさまざまな方法を示す概略図である。 本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの概略図である。 本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの概略図である。 本発明の一実施形態による、アバターを変化させるコントローラの相対運動のモーションキャプチャの例示的な図である。 本発明の一実施形態による、アバター制御システムを規定し、これを補うためにコントローラのボタンの選択を使用することができる方法を示すフローチャートである。 本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの例示的な図である。 本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの別の例示的な図である。 本発明の一実施形態による、アバターの特定の身体部位を制御するためのコントローラボタンのマッピングを示す概略図である。 本発明の一実施形態による、アバターアニメーションの表示中のアバターのさまざまな形態での制御を示す概略図である。 本発明の一実施形態による、アバターの頭部のさまざまな動きの制御を示す概略図である。 本発明の一実施形態による、アバター制御システムを実装するためのコントローラを有するコンソールであるソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスのシステムアーキテクチャ全体を模式的に示す概略図である。 本発明の一実施形態によるCellプロセッサ928の概略図である。
実世界のユーザが、仮想世界内でアバターの動きおよびアクションを制御できるようにするための発明が開示される。本発明の一実施形態によれば、ユーザは、仮想世界とインタラクトしうる。本明細書で使用する「仮想世界」との用語は、実際のユーザが、1つ以上の表示装置を介して感知しうる、および/または1つ以上のユーザインタフェースを介してインタラクトしうる、1つ以上のプロセッサによってシミュレートされるインタラクションのルールを有する現実または架空の環境の表現を指す。本明細書で使用する「ユーザインタフェース」との用語は、ユーザが仮想世界との間で、入力を送信するか出力を受信することができる実際のデバイスを指す。仮想世界は、1つ以上のプロセッサモジュールによってシミュレートされうる。複数のプロセッサモジュールが、ネットワークを介して相互接続されうる。ユーザは、ネットワークを介して、プロセッサモジュールおよび他のユーザインタフェースデバイスと通信することができるユーザインタフェースデバイスを介して、仮想世界とインタラクトしうる。仮想世界の特定の特徴は、コンピュータモニタ、テレビジョンモニタまたは同様のディスプレイなどのグラフィックディスプレイに、グラフィカルな形式でユーザに提示されうる。仮想世界の他の特定の態様は、グラフィックディスプレイに関連しうるスピーカで可聴形式でユーザに提示されうる。
仮想世界内では、ユーザはアバターによって表現されうる。仮想世界内の各アバターは、異なるユーザに一意に関連付けられうる。ユーザが互いを容易に特定できるように、ユーザの名前または仮名がアバターの隣に表示されうる。特定のユーザの仮想世界とのインタラクションは、アバターの1つ以上の対応するアクションによって表現されうる。異なるユーザ同士が、自身のアバターを通じて交流しうる。ユーザを表すアバターは、人物、動物または物体と同様の外観をとることができる。人物の形のアバターは、ユーザと性別が同じでも異なっていてもよい。アバターは、ユーザが、仮想世界のほかの物体と共にアバターを見ることができるように、ディスプレイに表示されうる。
別の実施形態では、ディスプレイが、アバターを表示せずに、アバターの視点から世界を表示してもよい。仮想世界上のユーザの(またはアバターの)視点は、仮想カメラの視界とみなすことができる。本明細書で使用する「仮想カメラ」とは、仮想世界内の視点を指し、仮想世界内で三次元シーンの二次元画像を描画するために使用されうる。ユーザ同士が、各ロビーに関連するチャットチャネルによって、自身のアバターを通じて交流しうる。ユーザは、ユーザインタフェースを介して、ほかのユーザとのチャットのためのテキストを入力しうる。このテキストは、例えば、漫画形式の吹き出し(時に「チャット吹き出し」とも呼ばれる)の形式で、ユーザアバターの上またはその隣に表示されうる。このようなチャットは、時に「クイックチャット」と呼ばれる定型表現のチャットシステムを使用して、容易に行うことができる。クイックチャットでは、ユーザは、メニューから1つ以上のチャット表現を選択しうる。ほかの例については、(1)2007年3月1日出願の英国特許出願第0703974.6号「エンターテイメントデバイス(ENTERTAINMENT DEVICE)」;(2)2007年3月5日出願の英国特許出願第0704225.2号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;(3)2007年3月5日出願の英国特許出願第0704235.1号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;(4)2007年3月5日出願の英国特許出願第0704227.8号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;ならびに(5)2007年3月5日出願の英国特許出願第0704246.8号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」も参照され、これらはそれぞれ参照によりここに援用される。
以下の説明では、本発明を完全に理解できるように、具体的な詳細を数多く記載する。しかし、これらの詳細な内容の一部または全てを用いなくとも本発明を実施しうることは当業者にとって自明である。場合によっては、本発明を不必要にわかりにくくしないように、公知のプロセス操作については詳しく記載しない。
図1Aは、本発明の一実施形態によるアバター制御システム100を示す概略図である。ユーザ102aが、コンソール110と通信することができるコントローラ108を操作する。一部の実施形態では、コンソール110は、データを保存および取得することができる記憶媒体を備えうる。記憶媒体の種類の例には、磁気記憶装置、光記憶装置、フラッシュメモリ、ランダムアクセスメモリおよびリードオンリーメモリなどがあるが、これらに限定されない。
また、コンソール110は、イーサネットポートなどのネットワークインタフェースと、IEEE802.11に属する多数の無線ネットワーク規格を含むワイヤレスネットワーク機能も備えうる。コンソール110のネットワークインタフェースにより、ユーザ102aはリモートサーバに接続でき、リモートサーバは、コンソール110の他のユーザとのリアルタイムかつインタラクティブなゲームのプレイ、ソフトウェアアップデート、メディアサービス、およびソーシャルネットワーキングサービスへのアクセスを提供することができる。
また、コンソール110は、中央処理装置およびグラフィック処理装置も備えうる。中央処理装置は、記憶媒体から取得された命令を処理するために使用され、グラフィック処理装置は、画面106に表示されるグラフィクスを処理し描画しうる。
コンソール110に画面106が接続されている場合、コンソール106は、アバター102bを含む仮想空間104を表示することができる。一実施形態では、仮想空間104は、コンソール110のネットワークインタフェースを使用してアクセスされるリモートサーバに保持されうる。別の実施形態では、仮想空間104の一部がコンソール110に記憶され、ほかの一部がリモートサーバに記憶されてもよい。一部の実施形態では、仮想空間104は、画面106に表示される仮想三次元世界である。仮想空間104は、地形、天候、植物相、動物相、通貨および政治が存在する実世界の仮想表現であってもよい。実世界と同様に、仮想空間104には、都市、郊外および地方の地域が含まれうる。しかし、実世界とは異なり、仮想空間104では、物理学の法則が変わってもよい。上に挙げた仮想空間104の特徴は例示を意図したものであり、制限または限定することを意図したものではない。仮想空間として、シミュレーションおよびモデリングできる範囲は、実世界のあらゆるものを含んでもよく、人の想像力の限界のみによって制限される。
ユーザは、アバター102bを使用して仮想空間114とインタラクトすることができる。アバター102bは、三次元で描画され、仮想空間104内でユーザ102aをリアルにまたは空想により表現したものとなるように、ユーザ102aによって構成されうる。ユーザ102aは、アバターの複数の形態を完全に制御することができ、これには、髪型、頭の形、目の形、目の色、鼻の形、鼻の大きさ、耳の大きさ、唇の形、唇の色、衣服、履物およびアクセサリなどがあるが、これらに限定されない。別の実施形態では、ユーザ102aは、自分の実際の顔写真を入力することができ、その写真が、三次元のワイヤフレームの頭部と体にマッピングされてもよい。
図1Bは、本発明の一実施形態による、制御装置108とコンソール110間で動きおよび位置の検出を送信するさまざまな方法を示す。ユーザ102aは、コントローラ108を使用して仮想空間104内でアバター102bを制御することができる。一実施形態では、コントローラ108は、コンソール110に信号を無線で送信することができる。1台のコンソール110に複数のコントローラを使用することができるため、特定の周波数で無線信号を送信するか、またはブルートゥースなどの無線および通信プロトコルを使用することによって、個々のコントローラ間で干渉を行うことができる。コントローラ108は複数のボタンおよびジョイスティックを備え、これらは、画面メニューから項目を移動したり、選択するなどのさまざまな効果を実現するために、ユーザが操作することができる。同様に、コントローラ108のボタンおよびジョイスティックは、コンソール110によって実行されるコンピュータプログラムの制御形態においてマッピングされ得る。
また、コントローラ108は、x軸、y軸およびz軸での並進および回転を検出することができるモーションセンサも備えうる。一実施形態では、モーションセンサは、コントローラ108の動き、加速および減速を検出することができる慣性センサである。別の実施形態では、ジャイロを使用して、コントローラ108の動きが全ての軸で検出されてもよい。コントローラ108は、処理のためにモーションセンサからコンソール110にデータを無線で送信することができ、この結果、画面にアクションが表示される。
また、コントローラ108の視覚的検出を提供するのを支援するために、カメラ112も、コンソール110に接続されうる。一実施形態では、コントローラ108に配置されているカメラ112とLEDが、コンソール110に、コントローラ108の視覚的検出を提供する。LEDは、可視スペクトル内または可視スペクトル外の光を発することができ、アレイとしてコントローラに一体化されていてもよく、コントローラが、カメラ112から軸を外れているかどうかを判定するのを支援する。別の実施形態では、LEDが、コントローラ108にモジュールとして取り付けられてもよい。
カメラ112は、LEDが発した光を受光するように構成され、コンソール110は、カメラ112に対するLEDの変化に基づいてコントローラ108の移動を計算することができる。更に、複数のコントローラが1台のコンソール110に関連している実施形態では、個々の点滅パターンまたは光の周波数を使用して、異なるコントローラのLED同士を区別することができる。
別の実施形態では、カメラ112は、カメラ112とコントローラ108間の距離を決定するのを支援することができる深度カメラである。一部の実施形態では、深度カメラは、最大スキャン深度を有しうる。この状況では、深度値は、最大スキャン深度内の物体に対してのみ計算される。図1Bに示すように、カメラ112はZの最大スキャン深度を有する。コントローラ108は最大スキャン深度内に入っているため、カメラ112とコントローラ108間の距離を計算することができる。更に別の実施形態では、動きおよび位置の検出の精度を上げるために、慣性センサ、LEDの検出および深度カメラの組み合わせが使用されてもよい。一実施形態では、カメラ112が、コンソール110と一体化されてもよい。別の実施形態では、カメラ112が、コンソール110とは独立して配置されてもよい。
図2は、本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの図を示す。ユーザ102aは、コントローラ108を持ち、腰を曲げて図示されている。ユーザ102aが腰を曲げると、コントローラ108は、最初の実質的に水平な位置から、図2に示す位置まで下にピッチ運動される。オペレーション120において、コントローラ108の下方ピッチ運動がモーションキャプチャシステムによってキャプチャされうる。オペレーション122において、コンソールによってコンピュータ解析が実行され、コントローラ108のモーションキャプチャが、アバター102bの特定の身体部位にマッピングされる。オペレーション124は、アバター102bのアニメーションを描画し、これがコンソールから画面106に出力されうる。
図2に示すように、コントローラ108のモーションキャプチャはアバター102bの腰にマッピングされ得る。別の実施形態では、コントローラ108の動きのモーションキャプチャが、脚、腕、手および頭部などの、アバター102bの異なる身体部位にマッピングされてもよい。更に別の実施形態では、コントローラ108からのモーションキャプチャが、ほかの形式のユーザ入力と組み合わされて、アバター102bが変化されてもよい。例えば、ユーザ102aが発話すると、マイクロフォンとカメラシステムがモニタに使用され、この結果、アバター102bの口のアニメーションが表示されてもよい。また、ユーザ102aは、コントローラ108にあるボタンを使用して、アバター102bのリアクションおよび動きを変更およびカスタマイズすることもできる。
図3は、本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの図を示す。この実施形態では、ユーザ102が、コントローラ108を、最初の実質的に水平な位置から、図3に示す位置まで下にピッチ運動して図示されている。図2と同様に、オペレーション120において、コントローラの下方ピッチ運動がモーションキャプチャシステムによってキャプチャされうる。オペレーション122は、モーションキャプチャのコンピュータ解析を実行し、オペレーション124は、モーションキャプチャをアバター102bにレンダリングしうる。
図2と図3を比較すると、コントローラの相対運動のモーションキャプチャにより、アバター102bを変化させることができることが示される。図2では、ユーザ102が腰を曲げると、モーションキャプチャシステムがコントローラ108の位置の変化を検出しうる。図3では、ユーザ102aの手首の動きにより、コントローラ108が下にピッチ運動されうる。ユーザ102aが行う身体の動きは異なるが、コントローラ108の下方ピッチ運動が、コントローラによってキャプチャされ分析される相対動きである。このため、コントローラ108に同じ相対運動を生じさせるユーザ102aの異なる身体の動きが、同じアバター身体部位にマッピングされると、アバター102bに同様のアニメーションを生じさせる。
図4Aは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動のモーションキャプチャの例示的な図である。この実施形態では、アバター102bはモーションキャプチャ前の表示を表し、アバター102b’は、モーションキャプチャビュー後の表示を表す。初期状態では、コントローラ108を持っているユーザ102aが、アバター102bによって表現されている。ユーザ102aが、コントローラ108を、ユーザ102aの右に90°ヨー運動させると、コントローラ108の相対運動のモーションキャプチャが分析され、アバター102bに適用される。この実施形態では、コントローラ108の動きがアバター102bの全身にマッピングされ、コントローラ108の90°のヨー運動によりアバター102b’が表示される。
図4Bは、本発明の一実施形態による、アバター制御システムを規定し、これを補うためにコントローラのボタンの選択を使用することができる方法を示すフローチャートである。上で説明したように、コントローラのさまざまな相対運動によって、アバターの異なる特徴を制御することができる。アバターのインタラクティビティおよび現実性を向上させるためには、ユーザが、自身のアバターの表情、手のジェスチャ、ならびに他の特徴、表現、および感情を制御できるようにすることが有利でありうる。このレベルのアバター制御を実現するために、コントローラの相対運動のモーションキャプチャ以外の補助的な入力が使用されてもよい。枚挙にいとまがないアバターの表現および感情のバリエーションを、選択、制御および操作するために、コントローラのボタンをマップすることができる。図5のフローチャートは、アバター制御システムを規定し、これを補うためにコントローラのボタンの選択を使用することができる方法を示す。オペレーション500において、モーション検出システムが、コントローラの最初の位置を検出する。次に、コントローラの最初の位置に対するコントローラの動きを検出するオペレーション502が続く。オペレーション504において、コントローラのいずれかのボタンが選択されたかどうかが判定される。オペレーション506において、コントローラのボタンの選択とコントローラの相対運動のコンピュータ解析が行われる。次に、コントローラの動きおよびボタンの選択がアバターにマップされるオペレーション508が続く。
図5Aは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの例示的な図である。ユーザ102aは、コントローラ108に下方ピッチ運動を行うことによって、動きAを行う。動きAのモーションキャプチャは、アバター102bの腰にマッピングされており、この結果、アバター102bが腰を曲げる。ユーザ102aは、動きBを行って、コントローラを実質的に水平な位置まで上にピッチ運動させ、コントローラをユーザの右にロール運動させながら、コントローラをユーザの右にヨー運動させる。この実施形態では、コントローラのヨー運動は、アバターが向いている方向にマッピングされている。このため、ユーザの右に対するヨー運動により、アバター102bが、正面を向くように回り、アバター102b'で表示される。上で説明したように、この実施形態では、コントローラ108のピッチ運動はアバターの腰の動きにマッピングされている。このため、動きBが行われると、コントローラ108の実質的に水平な位置への上方ピッチ運動により、アバターが、アバター102bの屈曲位置からアバター102b’の直立位置に動く。この実施形態では、コントローラ108のロール運動は、アバターが腰から体を傾ける動きにマッピングされており、コントローラのユーザの右へのロール運動により、アバターの右に体を傾けたアバター102b’が表示される。
図5Bは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの別の例示的な図である。ユーザは、コントローラ108に下方ピッチ運動を行うことによって、動きAを行う。動きAのモーションキャプチャは、アバター102bの腰にマッピングされており、この結果、アバター102bが腰を曲げる。ユーザ102a’は、コントローラ108を実質的に水平位置に戻さずに、動きBを行う。ユーザ102a’は、動きBを行って、コントローラをユーザの左にロール運動させる。この実施形態では、コントローラをロール運動させると、アバター102bがアバターの左に傾く。このため、動きAと動きBの組み合わせにより、アバター102bは、前に腰を曲げ、アバターの左に傾く。コントローラ108は加減速を測定することができるセンサを備えているため、アバター102bのアニメーションは、ユーザ102a/a’によるコントローラ108の実際の動きと相関しうる。
図6は、本発明の一実施形態による、アバターの特定の身体部位を制御するためのコントローラボタンのマッピングを示す。コントローラ108は、DU、DR、DDおよびDLで示す、デジタルコントロールパッドを含む各種ボタンを備えうる。また、コントローラは、LS1およびLS2を含む左肩ボタン108aも備えうる。同様に、右肩ボタン108bには、RS1およびRS2が含まれる。コントローラ108はアナログスティックALおよびARも備え、アナログスティックも押下時にボタンとして機能することができる。また、コントローラは、図6に□、△、○およびXで示す選択ボタンも備えうる。コントローラ108の説明に特定の名称と記号を使用したが、名称は例示であり、限定を意図したものではない。
一実施形態では、コントローラ108の各種ボタンが、アバターの特定の身体部位の制御を有効にするためにマッピングされ得る。アバターのマッピング600に示すように、ARの押下により、ユーザがアバターの頭部を制御できるようになる。ユーザは、RS1またはRS2の押下により、アバターの右腕または右脚をそれぞれ制御することができる。同様に、LS1とLS2は、アバターの左腕と左脚を制御するためにそれぞれマッピングされる。ユーザは、アバターのさまざまな部位を制御することが可能であるほか、事前にレンダリングされているアバターアニメーションを開始および変更することができる。ユーザは、1つのボタンまたは複数のボタンを押すか、コントローラを1回または複数回移動させるか、またはボタン押下のシーケンスとコントローラの移動を組み合わせることにより、アバターアニメーションを開始することができる。
ダンスアニメーション601に示すように、アバターアニメーションは、各種状態のシーケンスであると考えることができる。一実施形態では、状態1 602は、ユーザアバターが、休止位置またはダンスアニメーションの開始前の位置にいる。状態2 604は、ダンスアニメーションの開始直後のアバターの状態であると考えることができる。この実施形態では、アバターは左に傾いている。ダンスアニメーション601の最終状態の状態3 606では、ユーザのアバターが、右に傾き、右腕を挙げている。ダンスアニメーション601はアバターのさまざまな状態を示すことを意図したものであるため、各種状態間の遷移フレームは図示されていない。各種状態間でアバターのアニメーションをスムーズに表示するためにフレームが更に必要となりうることは、当業者にとって明らかであろう。ダンスアニメーション601は例示であり、限定を意図したものではないため、アバターアニメーションの別の実施形態では状態の数が増減してもよい。
上で説明したように、コントローラ108は並進および回転の運動の加速および減速を3軸で検出することができる。これによりユーザは、コントローラの並進および回転の運動の実際の加速および減速などのユーザ入力に基づいて、アニメーションの方向を伴った動きおよびアバターのレートアニメーションをインタラクティブに制御できるようになる。更に、アバターの特定の身体部位の制御を有効にするコントローラボタンのマッピングにより、ユーザは、インタラクティブにアニメーション表示させるアバターの1つ以上の身体部位を指定できるようになる。このように、ユーザがアバターの特定の身体部位のアニメーションを直接制御するため、ユニークなアバターアニメーションが得られる。ユーザからの直接制御に反応するアバターアニメーションは、ほかのアバターアニメーション形式にあるような、事前にマッピング、事前に定義、および事前にレンダリングされているアバターアニメーションとは異なる。
例えば、一部のシステムでは、ゲーム中でアニメーションキャラクタの制御が可能なものがあるが、一実施形態では、ここに開示の、コントローラの動き、コントローラ入力およびコントローラの位置をアバターの特定の部位にマッピングすることにより、制御するアバターの特徴、制御の程度、およびこのような制御のアニメーション表示するアバターへの適用を詳細に指定できるようになる。更に、アバターキャラクタは、特定の予め定められたゲーム、ゲームシーン、あるいは環境またはゲームレベルの経験に拘束されることがない。例えば、現実世界のユーザによって制御されるアバターは、訪れる場所、インタラクトする物、見る物および享受する体験を定めることが可能である。現実世界のユーザによって定義される、コントローラのアクティビティによって指示される入力の要求に応じて、仮想環境でのアバターの体験、動き、リアクションおよび体の移動が作り出される。
図7は、本発明の一実施形態による、アバターアニメーションの表示中のアバターのさまざまな形態や特徴の制御を示す。状態700において、画面106でアバターのダンスのアニメーションの状態1 602を開始するために、コントローラ108によるボタン押下の組み合わせが使用されうる。状態700に示すように、コントローラ108は実質的に水平な位置にある。状態702において、ユーザは、アバターの左腕を制御するために、LS1を押したままにする。このため、ユーザがコントローラ108を上にピッチ運動させると、画面106でアバターの左腕が状態604aに示す位置に上がる。状態704に移り、ユーザはLS1を押し続けたまま、コントローラ108を実質的に水平の位置に下にピッチ運動させる。コントローラが下にピッチ運動されると、画面106で、アバターの左腕は状態606aに示す位置に降ろされる。
別の実施形態では、ユーザが、アバターの選択された部位に対応するボタンを押してから離せば、ボタンを次に押すまで、アバターのその部位の制御を続けることができる。ユーザがアバターのどの部位を制御しているかを特定しやすいように、画面106でアバターの制御されている部分をハイライト表示することが可能である。このハイライト表示は、アバターを制御しているユーザに対してのみ表示され、仮想空間の他のユーザからは見えなくてもよい。
図8は、本発明の一実施形態による、アバターの頭部のさまざまな動きの制御を示す。状態800は、右のアナログスティックボタン(AR)を押したまま、コントローラ108をヨー運動させると、アバターの頭部が回る様子を示す。このため、状態800でアバター制御を実施しているユーザは、言葉を使わずに「いいえ」を伝えるために、アバターの頭を横に振ることが可能である。逆に、状態802では、ユーザがARを押したままコントローラ108を上下にピッチ運動させると、言葉を使わずに「はい」を伝えるために、アバターの頭を上下に振ってうなずくことができる。状態804において、ARを押したままコントローラ108を左右にロール運動させると、アバターの頭が左右に傾く。ヨー、ピッチおよびロールから選択されるユーザ入力コントローラの組み合わせに基づいて、アバターの頭部が複合的な動きをできることが、当業者にとって明らかであろう。同様に、ヨー、ピッチおよびロールに基づく複合的な動きは、アバターアニメーションの他の特徴にもマップすることができる。
図9は、本発明の一実施形態による、アバター制御システムを実装するためのコントローラを有するコンソールであるソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスのシステムアーキテクチャ全体を模式的に示す。システムユニット900は、システムユニット900に接続可能なさまざまな周辺機器を備える。システムユニット900は、Cellプロセッサ928、Rambus(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット926、専用のビデオランダムアクセスメモリ(VRAM)ユニット932を有するReality Synthesizerグラフィックユニット930、およびI/Oブリッジ934を備える。また、システムユニット900は、I/Oブリッジ934を介してアクセス可能な、ディスク940aおよび着脱可能なスロットインハードディスクドライブ(HDD)936から読み出すためのブルーレイ(登録商標)ディスクBD−ROM(登録商標)光ディスクリーダ940も備える。任意選択で、システムユニット900は、同様にI/Oブリッジ934を介してアクセス可能な、コンパクトフラッシュメモリカード、メモリースティック(登録商標)メモリカードなどを読み出すためのメモリカードリーダ938も備える。
また、I/Oブリッジ934は、6つのユニバーサルシリアルバス(USB)2.0ポート924、ギガビットイーサネットポート922、IEEE 802.11b/g無線ネットワーク(Wi−Fi)ポート920、および最大7つのブルートゥース接続に対応可能なブルートゥース(登録商標)無線リンクポート918にも接続している。
動作時に、I/Oブリッジ934は、1つ以上のゲームコントローラ902からのデータを含む、全ての無線、USB、およびイーサネットのデータを処理する。例えば、ユーザがゲームをプレイ中に、I/Oブリッジ934はブルートゥースリンクを介してゲームコントローラ902からデータを受信して、これをCellプロセッサ928に転送し、Cellプロセッサ928が適宜ゲームの現在の状態を更新する。
また、無線、USB、およびイーサネットの各ポートを介して、ゲームコントローラ902のほかに、他の周辺機器も接続することが可能となる。このような周辺機器には、例えば、リモコン904、キーボード906、マウス908、ソニープレイステーションポータブル(登録商標)エンターテイメントデバイスなどのポータブルエンターテイメントデバイス910、EyeToy(登録商標)ビデオカメラ912などのビデオカメラ、マイクロフォンヘッドセット914などがある。このため、これらの周辺機器は、原則としてシステムユニット900に無線で接続されうる。例えば、ポータブルエンターテイメントデバイス910はWi−Fiアドホック接続を介して通信し、マイクロフォンヘッドセット914はブルートゥースリンクを介して通信しうる。
これらのインタフェースを提供することにより、プレイステーション3デバイスは、デジタルビデオレコーダ(DVR)、セットトップボックス、デジタルカメラ、ポータブルメディアプレーヤ、VoIP電話、携帯電話、プリンタ、およびスキャナなどの他の周辺機器と場合によっては互換となりうる。
更に、USBポート924を介して旧式メモリカードリーダ916をシステムユニットに接続することができ、プレイステーション(登録商標)デバイスまたはプレイステーション2(登録商標)で用いられていたタイプのメモリカード948の読み出しが可能となる。
本実施形態では、ゲームコントローラ902は、ブルートゥースリンクを介してシステムユニット900と無線通信するように動作可能である。しかし、その代わりに、ゲームコントローラ902が、USBポートに接続されてもよく、これにより、ゲームコントローラ902のバッテリに充電するための電力も供給する。ゲームコントローラは、1つ以上のアナログジョイスティックおよび従来の制御ボタンを有するほか、各軸の並進運動および回転に対応する6自由度の移動を感知する。したがって、従来のボタンまたはジョイスティックコマンドのほかに、またはこれらの代わりに、ゲームコントローラのユーザが行ったジェスチャおよび移動が、ゲームへの入力として変換されうる。任意選択で、プレイステーションポータブルデバイスなどの他の無線対応の周辺機器をコントローラとして使用することができる。プレイステーションポータブルデバイスの場合、追加のゲーム情報または制御情報(例えば制御命令またはライブの数)が、当該デバイスの画面に提示されうる。ほかの代替的または補助的な制御装置が使用されてもよく、これには、ダンスマット(図示せず)、ライトガン(図示せず)、ハンドルおよびペダル(図示せず)、あるいは、即答クイズゲームのための1つまたは複数の大型のボタン(これも図示なし)などの特注品のコントローラなどがある。
また、リモコン904も、ブルートゥースリンクを介してシステムユニット900と無線通信するように動作可能である。リモコン904は、ブルーレイディスクBD−ROMリーダ940の操作、およびディスクの内容の閲覧のために適した制御を備える。
ブルーレイディスクBD−ROMリーダ940は、従来の記録済みCD、記録可能CD、およびいわゆるスーパーオーディオCDのほか、プレイステーションデバイスおよびプレイステーション2デバイスと互換のCD−ROMを読み出すように動作可能である。また、リーダ940は、従来の記録済みDVDおよび記録可能DVDのほか、プレイステーション2デバイスおよびプレイステーション3デバイスと互換のDVD−ROMを読み出すように動作可能である。更に、リーダ940は、従来の記録済みブルーレイディスクおよび記録可能ブルーレイディスクのほか、プレイステーション3デバイスと互換のBD−ROMを読み出すように動作可能である。
システムユニット900は、Reality Synthesizerグラフィックユニット930を介して、プレイステーション3デバイスによって生成またはデコードされた音声およびビデオを、音声コネクタおよびビデオコネクタ経由で、ディスプレイ944および1つ以上のスピーカ946を備えた表示および音声出力装置942(モニタまたはテレビ受像機など)に提供するように動作可能である。音声コネクタ950は、従来のアナログ出力およびデジタル出力を備える一方、ビデオコネクタ952は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、および1つ以上の高品位マルチメディアインタフェース(HDMI)の出力などを種々備えうる。したがって、ビデオ出力は、PALまたはNTSC、あるいは720p、1080iまたは1080pの高解像度などのフォーマットであってもよい。
音声処理(生成、デコードなど)はCellプロセッサ928によって実行される。プレイステーション3デバイスのオペレーティングシステムは、ドルビー(登録商標)5.1サラウンドサウンド、ドルビー(登録商標)シアターサラウンド(DTS)、およびブルーレイ(登録商標)ディスクからの7.1サラウンドサウンドのデコードに対応している。
本実施形態では、ビデオカメラ912は、1つの電荷結合素子(CCD)、LEDインジケータ、およびハードウェアベースのリアルタイムデータ圧縮およびエンコード装置を備え、圧縮ビデオデータが、システムユニット900によるデコードのために、イントラ画像ベースのMPEG(Motion Picture Expert Group)標準などの適切なフォーマットで送信されるようになる。カメラのLEDインジケータは、例えば不利な照明条件を示す適切な制御データをシステムユニット900から受け取ると、発光するように配置されている。ビデオカメラ912の実施形態は、USB、ブルートゥースまたはWi−Fiの通信ポートを介して、システムユニット900にさまざまな方法で接続しうる。ビデオカメラの実施形態は、1つ以上の関連するマイクロフォンを備えており、音声データを送信することができる。ビデオカメラの実施形態では、CCDは、高解像度のビデオキャプチャに適した分解能を備えうる。使用時に、ビデオカメラによってキャプチャされた画像が、例えば、ゲーム内に取り込まれるか、またはゲームの制御入力として解釈されうる。
一般に、システムユニット900の通信ポートの1つを介して、ビデオカメラまたはリモコン等などの周辺機器とのデータ通信がうまく行われるように、デバイスドライバ等の適切なソフトウェアを提供する必要がある。デバイスドライバ技術は公知であり、ここで詳細に説明しないが、デバイスドライバまたは同様のソフトウェアインタフェースが、記載する本実施形態で必要とされうることを当業者は理解するであろう。
図10は、本発明の一実施形態によるCellプロセッサ928の概略図である。Cellプロセッサ928は、メモリコントローラ1060およびデュアルバスインタフェースコントローラ1070A,Bを含む外部入出力構造、パワープロセッシングエレメント1050と呼ばれるメインプロセッサ、シナジスティックプロセッシングエレメント(SPE)1010A〜Hと呼ばれる8基のコプロセッサ、エレメント相互接続バス1080と呼ばれる上記のコンポーネントに接続している環状データバス、の4つの基本コンポーネントを備えたアーキテクチャを有する。プレイステーション2デバイスのエモーションエンジンは6.2ギガフロップスであるのに対し、Cellプロセッサの総浮動小数点演算性能は、218ギガフロップスである。
パワープロセッシングエレメント(PPE)1050は、3.2GHzの内部クロックで動作し、双方向同時マルチスレッディングPower970準拠のPowerPCコア(PPU)1055をベースにしている。PPE1050は、512kBのレベル2(L2)キャッシュと、32kBのレベル1(L1)キャッシュとを備える。PPE1050は、クロックサイクルごとに8つの単一位置(single position:SP)操作ができ、これは、3.2GHzで25.6ギガフロップスに相当する。PPE1050の主な役割は、演算作業負荷の大部分を処理するシナジスティックプロセッシングエレメント1010A〜Hのコントローラとして機能することにある。動作時に、PPE1050はジョブキューを保持し、シナジスティックプロセッシングエレメント1010A〜Hのジョブをスケジュールしており、その進捗を監視する。したがって、各シナジスティックプロセッシングエレメント1010A〜Hはカーネルを実行し、その役割は、ジョブを取り出して、これを実行し、PPE1050と同期することにある。
各シナジスティックプロセッシングエレメント(SPE)1010A〜Hは、シナジスティックプロセッシングユニット(SPU)1020A〜Hおよびメモリフローコントローラ(MFC)1040A〜Hをそれぞれ備え、MFC1040A〜Hは、ダイナミックメモリアクセスコントローラ(DMAC)1042A〜H、メモリ管理ユニット(MMU)1044A〜H、およびバスインタフェース(図示せず)をそれぞれ備える。各SPU1020A〜Hは3.2GHzでクロック供給され、原則として4GBまで拡張可能な256kBのローカルRAM1030A〜Hを備えたRISCプロセッサである。各SPEは、理論的には単精度処理性能で25.6ギガフロップスを示す。1つのSPUは、1クロックサイクルに、4つの単精度浮動小数点部、4つの32ビット数、8つの16ビット整数または16の8ビット整数を処理することができる。同じクロックサイクルで、メモリ操作も実行することができる。SPU1020A〜HはシステムメモリXDRAM926に直接アクセスしない。SPU1020A〜Hが作成した64ビットアドレスがMFC1040A〜Hに渡され、MFC1040A〜Hが、自身のDMAコントローラ1042A〜Hに対して、エレメント相互接続バス1080およびメモリコントローラ1060を介してメモリにアクセスするように指示する。
エレメント相互接続バス(EIB)1080は、Cellプロセッサ928内部の論理的には環状の通信バスであり、上記のプロセッサエレメント(すなわち、PPE1050、メモリコントローラ1060、デュアルバスインタフェース1070A,B、および8基のSPE1010A〜H、合計12個のパーティシパント)を接続している。パーティシパントは、1クロックサイクルにつき8バイトの速度で、バスに同時に読み出しおよび書き込みを行うことができる。上で説明したように、各SPE1010A〜Hは、長い読み出しまたは書み込みのシーケンスをスケジュールするためのDMAC1042A〜Hを備える。EIBは、4つのチャネルを備え、そのうち2つは時計回り方向であり、残り2つは反時計回り方向である。したがって、12のパーティシパントについて、2つのパーティシパント間のステップ方式の最長のデータフローは、適切な方向で6ステップとなる。このため、パーティシパント間でアービトレーションが行われて完全な利用度が実現されると、12のスロットの理論上のピーク瞬間EIB帯域幅は、1クロックにつき96Bとなる。これは、3.2GHzのクロック速度で307.2GB/s(ギガバイト/秒)の理論上のピーク帯域幅に相当する。
メモリコントローラ1060は、ラムバス社(Rambus Incorporated)によって開発されたXDRAMインタフェース1062を備える。メモリコントローラは、25.6GB/sの理論上のピーク帯域幅で、Rambus XDRAM926とインタフェースする。
デュアルバスインタフェース1070A,Bは、Rambus FlexIO(登録商標)システムインタフェース1072A,Bを備える。インタフェースは、それぞれ8ビット幅の12のチャネルに編成されており、このうち、5の経路が受信用、7つの経路が送信用である。これにより、Cellプロセッサと、コントローラ170Aを介してI/Oブリッジ700間、およびコントローラ170Bを介してReality Simulatorグラフィックユニット200間で、理論上のピーク帯域幅が62.4GB/s(送信36.4GB/s、受信26GB/s)が得られる。
Cellプロセッサ928によってReality Simulatorグラフィックユニット930に送信されるデータには、通常、表示リストが含まれ、これは、頂点を描画したり、ポリゴンにテクスチャを貼り付けたり、照明条件を指定するなどための一連のコマンドである。
実施形態において、現実世界のユーザをより正確に特定し、アバターまたはシーンのアクティビティを案内するための深度データがキャプチャされてもよい。オブジェクトは、人物が保持している物体であっても、人物の手であってもよい。本明細書では、「深度カメラ」および「三次元カメラ」との用語は、二次元のピクセル情報のほか、距離情報すなわち深度情報を取得することができる任意のカメラを指す。例えば、深度カメラは、制御された赤外線照明を利用して、距離情報を取得することができる。他の例示的な深度カメラに、立体カメラ対があり、これは2台の基準カメラを使用して距離情報を三角測量によって求める。同様に、「深度検知装置」との用語は、二次元のピクセル情報のほかに、距離情報を取得することができる任意のタイプの装置を指す。
三次元像の最近の進歩により、リアルタイムのインタラクティブなコンピュータアニメーションの可能性が広がっている。より詳細には、新しい「深度カメラ」は、通常の二次元のビデオ像に加えて、3番目の次元をキャプチャおよびマップする能力を提供することができる。新しい深度データによって、本発明の各種実施形態は、ほかのオブジェクトの背後など、ビデオシーン内のさまざまな位置にコンピュータが生成したオブジェクトを、リアルタイムで配置することが可能となる。
更に、本発明の各種実施形態は、リアルタイムのインタラクティブなゲーム体験をユーザに提供する。例えば、ユーザは、コンピュータが生成したさまざまなオブジェクトと、リアルタイムでインタラクトすることができる。更に、ユーザのゲーム体験をよりリアルにするために、ビデオシーンをリアルタイムで変更することができる。例えば、コンピュータが生成したコスチュームを、ユーザの服の上にはめ込んだり、コンピュータが生成した光源を利用して、ビデオシーン内に仮想の影を表示させることができる。このため、本発明の各種実施形態と深度カメラを使用して、ユーザは、自分のリビングルームでインタラクティブなゲーム環境を体験することができる。通常のカメラと同様に、深度カメラは、ビデオ画像を構成している複数のピクセルの二次元のデータをキャプチャする。これらの値は、ピクセルの色の値であり、通常は、各ピクセルの赤、緑、青(RGB)の値である。このようにして、カメラによってキャプチャされたオブジェクトが、モニタに二次元オブジェクトとして表示される。
また、本発明の各種実施形態は、分散型の画像処理構成についても考察している。例えば、本発明は、1つの場所(CPUなど)や2つの場所(CPUと他の1つの素子など)で行われるキャプチャ画像および表示画像の処理に限定されない。例えば、入力画像処理は、処理を実行することができる関連のCPU、プロセッサまたは装置において容易に行うことができ、基本的には、画像処理の全てを、相互接続システム全体に分散させることができる。このため、本発明は、特定の画像処理ハードウェア回路および/またはソフトウェアに限定されない。また、本明細書に記載した実施形態は、一般的なハードウェア回路および/またはソフトウェアの特定の組合せに限定されず、処理コンポーネントによって実行される命令の特定のソースにも限定されない。
上記の実施形態を考慮に入れて、本発明が、コンピュータシステムに記憶されたデータを使用する、各種のコンピュータ実装操作を使用してもよい点を理解すべきである。これらの操作には、物理量の物理的な操作を必要とする操作が含まれる。この物理量は通常、記憶、転送、結合、比較などの操作が可能な電気信号または磁気信号の形を取るが、必ずしもこれらに限定されない。更に、実行される操作は、生成、特定、決定または比較などと呼ばれることが多い。
上記した発明は、携帯式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステム構成によって実施されてもよい。また、本発明は、分散コンピューティング環境で実施されてもよく、このような環境では、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される。
本発明は、また、計算機可読メディア上の計算機可読コードとして実施されてもよい。計算機可読媒体は、電磁搬送波を含め、コンピュータシステムによって後から読取ることができるデータを記憶できるデータ記憶装置であれば、どのようなものに存在してもよい。計算機可読メディアの例には、ハードディスク、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープおよび他の光学式データ記憶装置および非光学式データ記憶装置などがある。また、計算機可読媒体は、計算機可読コードが分散式に記憶されて、実行されるように、ネットワークに結合されたコンピュータシステムを介して分散されてもよい。
上記に、本発明を明確に理解できるようにある程度具体的に記載したが、添付の特許請求の範囲内で変更例または変形例を実施できることは明らかである。したがって、本実施形態は例示的なものであり、制限するものではなく、本発明は本明細書に記載されている詳細な事項に限定されず、添付の特許請求の範囲およびその均等物の範囲内で変更されてもよい。
100 アバター制御システム
102 ユーザ
104 仮想空間
106 画面
108 コントローラ
110 コンソール
112 カメラ
114 仮想空間
200 グラフィックユニット
900 システムユニット
902 ゲームコントローラ
904 リモコン
906 キーボード
908 マウス
910 ポータブルエンターテイメントデバイス
912 ビデオカメラ
914 マイクロフォンヘッドセット

Claims (17)

  1. コンピュータプログラムを実行しているコンソールを使用してコンピュータネットワークを介してアクセスされる仮想空間において、前記仮想空間におけるユーザの身体を表すと共に複数の特定部位を有するアバターを制御するための方法であって、
    前記コンソールコントローラのボタン入力を前記特定部位にマッピングするステップと、
    前記コンソールコントローラのボタンの選択をキャプチャするステップと、
    前記コンソールコントローラの相対運動をキャプチャするステップと、
    入力パラメータを特定するために前記コンソールコントローラの前記キャプチャされた相対運動を処理するステップと、
    前記入力パラメータのうちの選択されたパラメータを、ユーザの仮想空間表現である前記アバターの前記ボタン入力にマッピングされた前記特定部位にマッピングして、前記特定部位を前記選択されたパラメータで制御するステップであって、前記マッピングでは、アバターのどの部位を制御しているかを特定しやすくするために前記アバターのマッピングされた部位がハイライト表示されるステップと、を有し、
    前記コンソールコントローラの相対運動と前記アバターのボタン入力に対応する前記特定部位との間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される方法。
  2. 前記コンソールコントローラのアクティビティには、三次元空間での前記コンソールコントローラの回転および並進の検出が含まれる請求項1に記載の方法。
  3. 入力パラメータには、前記コンソールコントローラの前記回転および並進の速度の変化率が含まれる請求項2に記載の方法。
  4. 前記アバターの部分はアニメーション表示される特定の身体部位を含む請求項1に記載の方法。
  5. 前記入力パラメータのうちの選択されたパラメータの、前記アバターの部分へのマッピングは、前記コンソールコントローラの前記回転および並進の速度の加速および減速に比例して行われる請求項3に記載の方法。
  6. 前記入力パラメータは、コントローラボタンの選択を含み、前記コントローラボタンは、選択時に、前記アバターアニメーションの異なる部分のユーザ制御を開始するようにマッピングされる請求項1に記載の方法。
  7. 前記アバターアニメーションは、前記コントローラの3軸の並進および回転の運動、ユーザによって制御される加速および減速に応答し、かつこれに比例する請求項6に記載の方法。
  8. コンソールを使用してコンピュータネットワークを介して、前記仮想空間におけるユーザの身体を表すと共に複数の特定部位を有するアバターをインタラクティブに制御するための方法であって、
    コンソールコントローラを提供するステップと、
    前記コンソールコントローラのボタン入力を前記特定部位にマッピングするステップと、
    前記コンソールコントローラのボタンの選択を検出するステップと、
    前記コンソールコントローラの第1の位置を決定するステップと、
    前記コンソールコントローラの第2の位置への移動の検出を含む、前記コンソールコントローラへの入力をキャプチャするステップと、
    前記コンソールコントローラへの入力と、前記コンソールコントローラの前記第1の位置と前記第2の位置間の相対運動とを処理するステップと、
    前記コンソールコントローラの前記第1の位置と前記第2の位置間の前記相対運動を、前記アバターの、コンソールコントローラの検出されたボタン入力に対応するアニメーション表示される体の部分にマッピングして前記アニメーション表示される体の部分を前記相対運動によって制御するステップであって、前記マッピングでは、アバターのどの部位を制御しているかを特定しやすくするために前記アバターのマッピングされた部位がハイライト表示されるステップと、を有し、
    前記コンソールコントローラの相対運動と前記アバターの前記検出されたボタン入力に対応する前記体の部分との間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される方法。
  9. 前記コンソールへの入力により、前記コンソールコントローラの相対運動の前記マッピングが、前記アバターの異なる部分に変更される請求項8に記載の方法。
  10. 前記コンソールコントローラの移動は、3軸の並進および回転の運動を含む前記3軸で検出可能である請求項8に記載の方法。
  11. 前記コンソールコントローラの加速が、前記コンソールコントローラの前記入力のキャプチャおよび前記移動の検出の一部として含まれる請求項8に記載の方法。
  12. 前記アバターは、前記アバターのための前記仮想環境は、前記コンピュータネットワークを介してアクセスされ、前記コンソールによってレンダリングされる請求項8に記載の方法。
  13. コンピュータネットワーク内の少なくとも1つのコンピュータで実行されるコンピュータプログラムによって生成される、前記仮想空間におけるユーザの身体を表すと共に複数の特定部位を有するアバターおよび仮想環境について、前記仮想環境内で前記アバターをインタラクティブに制御するためのコンピュータにより実装された方法であって、
    前記コンピュータプログラムとインタフェースされているコントローラを提供するステップと、
    ユーザが前記アバターの選択された特定部分を制御できるように、コンソールコントローラのボタン入力をマッピングするステップであって、前記マッピングでは、アバターのどの部位を制御しているかを特定しやすくするために前記アバターのマッピングされた部位がハイライト表示されるステップと、
    コンソールコントローラのボタン入力と、第1の位置と第2の位置間のコンソールコントローラの移動とをキャプチャするステップと、
    前記キャプチャされたコントローラのボタン入力およびコンソールコントローラの移動を処理し、前記仮想環境内で前記アバターのコンソールコントローラの検出されたボタン入力にマッピングされた前記選択された部分をインタラクティブにアニメーション表示するために前記キャプチャされた移動を適用して前記選択された部分を前記コントローラの移動により制御するステップと、を有し、
    コントローラの移動と前記キャプチャされたボタン入力に対応する前記選択された部分のアバターアニメーション間の相関を定義するために、前記コントローラ入力およびコントローラの移動のキャプチャおよび前記処理が連続的に実行される方法。
  14. 前記コントローラの移動は、3軸の並進および回転の運動を含む3軸全てで検出可能である請求項13に記載の方法。
  15. コントローラの移動のキャプチャは、前記コントローラの回転および並進運動の前記コントローラの加速および減速の6軸のキャプチャを含む請求項13に記載の方法。
  16. 前記コントローラ入力は、コントローラボタンの選択を含み、前記コントローラボタンは、選択時に、前記アバターアニメーションの異なる部分のユーザ制御を開始するためにマッピングされる請求項13に記載の方法。
  17. 前記アバターの前記選択された部分のアニメーションは、前記コントローラの3軸の並進および回転の運動の、ユーザによって制御される加速および減速に応答し、かつこれに比例する請求項16に記載の方法。
JP2014039137A 2007-03-01 2014-02-28 インタラクティブにユーザ制御されたアバターアニメーション Active JP5756198B2 (ja)

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
US89239707P 2007-03-01 2007-03-01
US60/892,397 2007-03-01
GB0703974.6 2007-03-01
GBGB0703974.6A GB0703974D0 (en) 2007-03-01 2007-03-01 Entertainment device
GB0704227.8 2007-03-05
GB0704227A GB2447020A (en) 2007-03-01 2007-03-05 Transmitting game data from an entertainment device and rendering that data in a virtual environment of a second entertainment device
GB0704235.1 2007-03-05
GB0704225A GB2447094B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704235A GB2447095B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704246A GB2447096B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704225.2 2007-03-05
GB0704246.8 2007-03-05
US11/789,202 2007-04-23
US11/789,202 US20080215974A1 (en) 2007-03-01 2007-04-23 Interactive user controlled avatar animations

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009551727A Division JP2010535364A (ja) 2007-03-01 2008-02-27 インタラクティブにユーザ制御されたアバターアニメーション

Publications (2)

Publication Number Publication Date
JP2014149836A JP2014149836A (ja) 2014-08-21
JP5756198B2 true JP5756198B2 (ja) 2015-07-29

Family

ID=39738577

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2009551806A Pending JP2010533006A (ja) 2007-03-01 2008-02-26 仮想世界とコミュニケーションを取るためのシステムおよび方法
JP2009551727A Pending JP2010535364A (ja) 2007-03-01 2008-02-27 インタラクティブにユーザ制御されたアバターアニメーション
JP2009551722A Pending JP2010535362A (ja) 2007-03-01 2008-02-27 仮想世界のユーザの意見および反応のモニタリング
JP2009551726A Pending JP2010535363A (ja) 2007-03-01 2008-02-27 仮想世界のアバター制御、インタラクティビティおよび通信インタラクティブメッセージング
JP2014039137A Active JP5756198B2 (ja) 2007-03-01 2014-02-28 インタラクティブにユーザ制御されたアバターアニメーション

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2009551806A Pending JP2010533006A (ja) 2007-03-01 2008-02-26 仮想世界とコミュニケーションを取るためのシステムおよび方法
JP2009551727A Pending JP2010535364A (ja) 2007-03-01 2008-02-27 インタラクティブにユーザ制御されたアバターアニメーション
JP2009551722A Pending JP2010535362A (ja) 2007-03-01 2008-02-27 仮想世界のユーザの意見および反応のモニタリング
JP2009551726A Pending JP2010535363A (ja) 2007-03-01 2008-02-27 仮想世界のアバター制御、インタラクティビティおよび通信インタラクティブメッセージング

Country Status (3)

Country Link
EP (4) EP2132650A4 (ja)
JP (5) JP2010533006A (ja)
WO (1) WO2008108965A1 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489795B2 (en) 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
US8407605B2 (en) 2009-04-03 2013-03-26 Social Communications Company Application sharing
US7769806B2 (en) 2007-10-24 2010-08-03 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
US8397168B2 (en) * 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
WO2009146130A2 (en) 2008-04-05 2009-12-03 Social Communications Company Shared virtual area communication environment based apparatus and methods
US20100093439A1 (en) * 2008-10-15 2010-04-15 Nc Interactive, Inc. Interactive network game and methods thereof
US20100099495A1 (en) * 2008-10-16 2010-04-22 Nc Interactive, Inc. Interactive network game and methods thereof
US9853922B2 (en) 2012-02-24 2017-12-26 Sococo, Inc. Virtual area communications
JP5229484B2 (ja) 2009-01-28 2013-07-03 任天堂株式会社 情報処理システム、プログラムおよび情報処理装置
JP5527721B2 (ja) 2009-01-28 2014-06-25 任天堂株式会社 プログラムおよび情報処理装置
JP5813912B2 (ja) 2009-01-28 2015-11-17 任天堂株式会社 プログラム、情報処理装置、および情報処理システム
JP5690473B2 (ja) 2009-01-28 2015-03-25 任天堂株式会社 プログラムおよび情報処理装置
US9542010B2 (en) * 2009-09-15 2017-01-10 Palo Alto Research Center Incorporated System for interacting with objects in a virtual environment
BR112012007302A2 (pt) * 2009-09-30 2016-04-19 Rakuten Inc método de deslocamento de objeto para uma página da web
US20120192088A1 (en) * 2011-01-20 2012-07-26 Avaya Inc. Method and system for physical mapping in a virtual world
CN102631781B (zh) * 2011-02-11 2017-04-05 漳州市爵晟电子科技有限公司 一种游戏方法
US20120277001A1 (en) * 2011-04-28 2012-11-01 Microsoft Corporation Manual and Camera-based Game Control
JP2013003778A (ja) * 2011-06-15 2013-01-07 Forum8 Co Ltd 3次元空間情報処理システム、3次元空間情報処理端末、3次元空間情報処理サーバ、3次元空間情報処理端末プログラム、3次元空間情報処理サーバプログラム、及び3次元空間情報処理方法
WO2013181026A1 (en) 2012-06-02 2013-12-05 Social Communications Company Interfacing with a spatial virtual communications environment
CN104516618B (zh) * 2013-09-27 2020-01-14 中兴通讯股份有限公司 界面功能解析显示方法及装置
JP6091407B2 (ja) * 2013-12-18 2017-03-08 三菱電機株式会社 ジェスチャ登録装置
CN106464707A (zh) * 2014-04-25 2017-02-22 诺基亚技术有限公司 虚拟现实实体与真实实体之间的交互
EP2996017B1 (en) 2014-09-11 2022-05-11 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display
WO2016068581A1 (en) 2014-10-31 2016-05-06 Samsung Electronics Co., Ltd. Device and method of managing user information based on image
US10861056B2 (en) 2015-06-17 2020-12-08 Facebook, Inc. Placing locations in a virtual world
US9786125B2 (en) * 2015-06-17 2017-10-10 Facebook, Inc. Determining appearances of objects in a virtual world based on sponsorship of object appearances
US10339592B2 (en) 2015-06-17 2019-07-02 Facebook, Inc. Configuring a virtual store based on information associated with a user by an online system
JP6860010B2 (ja) 2016-05-06 2021-04-14 ソニー株式会社 情報処理システム、情報処理方法、および情報処理プログラム
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
WO2018142228A2 (en) 2017-01-19 2018-08-09 Mindmaze Holding Sa Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
JP7070435B2 (ja) 2017-01-26 2022-05-18 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018146558A2 (en) 2017-02-07 2018-08-16 Mindmaze Holding Sa Systems, methods and apparatuses for stereo vision and tracking
JP6821461B2 (ja) * 2017-02-08 2021-01-27 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
CN110313019B (zh) 2017-02-24 2023-07-04 索尼公司 信息处理设备、信息处理方法和计算机可读介质
JP6651479B2 (ja) * 2017-03-16 2020-02-19 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
JP7308573B2 (ja) * 2018-05-24 2023-07-14 株式会社ユピテル システム及びプログラム等
JP7302956B2 (ja) * 2018-09-19 2023-07-04 株式会社バンダイナムコエンターテインメント コンピュータシステム、ゲームシステム及びプログラム
JP2019130295A (ja) * 2018-12-28 2019-08-08 ノキア テクノロジーズ オサケユイチア 仮想現実エンティティと現実エンティティの間のインタラクション
JP7323315B2 (ja) 2019-03-27 2023-08-08 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
WO2021033254A1 (ja) * 2019-08-20 2021-02-25 日本たばこ産業株式会社 コミュニケーション支援方法、プログラムおよびコミュニケーションサーバ
JP7192136B2 (ja) * 2019-08-20 2022-12-19 日本たばこ産業株式会社 コミュニケーション支援方法、プログラムおよびコミュニケーションサーバ
KR102212511B1 (ko) * 2019-10-23 2021-02-04 (주)스코넥엔터테인먼트 가상 현실 제어 시스템
EP3846008A1 (en) 2019-12-30 2021-07-07 TMRW Foundation IP SARL Method and system for enabling enhanced user-to-user communication in digital realities
JP2020146469A (ja) * 2020-04-20 2020-09-17 株式会社トプコン 眼科検査システム及び眼科検査装置
JP6932224B1 (ja) * 2020-06-01 2021-09-08 株式会社電通 広告表示システム
JP7254112B2 (ja) * 2021-03-19 2023-04-07 本田技研工業株式会社 仮想体験提供装置、仮想体験提供方法、及びプログラム
WO2023281755A1 (ja) * 2021-07-09 2023-01-12 シャープNecディスプレイソリューションズ株式会社 表示制御装置、表示制御方法、及びプログラム
WO2023068067A1 (ja) * 2021-10-18 2023-04-27 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
JPWO2023149255A1 (ja) * 2022-02-02 2023-08-10
KR20230173481A (ko) * 2022-06-17 2023-12-27 주식회사 메타캠프 다채널 구조 및 채널 동기화를 위한 메타버스 서비스장치 및 그 장치의 구동방법
WO2024004609A1 (ja) * 2022-06-28 2024-01-04 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体
JP2024135824A (ja) 2023-03-23 2024-10-04 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP7527430B1 (ja) 2023-03-29 2024-08-02 株式会社バンダイ プログラム及び情報処理装置

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
CA2141144A1 (en) * 1994-03-31 1995-10-01 Joseph Desimone Electronic game utilizing bio-signals
GB9505916D0 (en) * 1995-03-23 1995-05-10 Norton John M Controller
JP3091135B2 (ja) * 1995-05-26 2000-09-25 株式会社バンダイ ゲーム装置
US5823879A (en) * 1996-01-19 1998-10-20 Sheldon F. Goldberg Network gaming system
JP3274603B2 (ja) * 1996-04-18 2002-04-15 エヌイーシーソフト株式会社 音声集計システムおよび音声集計方法
JP3975511B2 (ja) * 1997-07-25 2007-09-12 富士通株式会社 パーソナル通信分散制御方式
JP3757584B2 (ja) * 1997-11-20 2006-03-22 株式会社富士通ゼネラル 広告効果確認システム
JP3276068B2 (ja) * 1997-11-28 2002-04-22 インターナショナル・ビジネス・マシーンズ・コーポレーション オブジェクトの選択方法およびそのシステム
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2000187435A (ja) * 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
JP2000311251A (ja) * 1999-02-26 2000-11-07 Toshiba Corp アニメーション作成装置および方法、記憶媒体
WO2000063874A1 (en) * 1999-04-20 2000-10-26 John Warren Stringer Human gestural input device with motion and pressure
JP4034002B2 (ja) * 1999-04-22 2008-01-16 三菱電機株式会社 分散仮想空間情報管理伝送方法
AU5012600A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for a multi-owner, three-dimensional virtual world
AU5012300A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for registering lots in a shared virtual world
JP2000325653A (ja) * 1999-05-19 2000-11-28 Enix Corp 携帯型ビデオゲーム装置およびプログラムを格納した記録媒体
JP2001153663A (ja) * 1999-11-29 2001-06-08 Canon Inc 物体の移動方向判別装置及びそれを備える撮影装置、ナビゲーションシステム、サスペンションシステム、ゲームシステム並びにリモートコントローラシステム
JP2001154966A (ja) * 1999-11-29 2001-06-08 Sony Corp コンピュータ・ネットワーク上で構築・提供される共有仮想空間上で複数ユーザが参加可能な仮想会話を支援する会話支援システム及び会話支援方法、並びに、プログラム記憶媒体
JP3623415B2 (ja) * 1999-12-02 2005-02-23 日本電信電話株式会社 仮想空間通信システムにおけるアバタ表示装置、アバタ表示方法および記憶媒体
JP2001236290A (ja) * 2000-02-22 2001-08-31 Toshinao Komuro アバタを利用したコミュニケーション・システム
KR100366384B1 (ko) * 2000-02-26 2002-12-31 (주) 고미드 사용자간의 커뮤니케이션을 기반으로 하는 정보 검색 방법및 시스템
JP2001325501A (ja) * 2000-03-10 2001-11-22 Heart Gift:Kk オンラインギフト方法
JP3458090B2 (ja) * 2000-03-15 2003-10-20 コナミ株式会社 メッセージ交換機能を備えたゲームシステム、そのゲームシステムで使用するゲーム装置、メッセージ交換システム、およびコンピュータ読取可能な記憶媒体
JP2001321568A (ja) * 2000-05-18 2001-11-20 Casio Comput Co Ltd ゲーム装置、ゲーム方法及び情報記録媒体
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2002136762A (ja) * 2000-11-02 2002-05-14 Taito Corp 潜在映像を用いたアドベンチャーゲーム
JP3641423B2 (ja) * 2000-11-17 2005-04-20 Necインフロンティア株式会社 広告情報提供システム
WO2002042921A1 (en) * 2000-11-27 2002-05-30 Butterfly.Net, Inc. System and method for synthesizing environments to facilitate distributed, context-sensitive, multi-user interactive applications
US7377852B2 (en) * 2000-12-20 2008-05-27 Aruze Co., Ltd. Server providing competitive game service, program storage medium for use in the server, and method of providing competitive game service using the server
JP2002197376A (ja) * 2000-12-27 2002-07-12 Fujitsu Ltd ユーザに応じてカストマイズされた仮想世界を提供する方法および装置
JP4613295B2 (ja) * 2001-02-16 2011-01-12 株式会社アートディンク 仮想現実再生装置
US6895305B2 (en) * 2001-02-27 2005-05-17 Anthrotronix, Inc. Robotic apparatus and wireless communication system
US7667705B2 (en) * 2001-05-15 2010-02-23 Nintendo Of America Inc. System and method for controlling animation by tagging objects within a game environment
JP4068542B2 (ja) * 2001-05-18 2008-03-26 株式会社ソニー・コンピュータエンタテインメント エンタテインメントシステム、通信プログラム、通信プログラムを格納したコンピュータ読み取り可能な記録媒体、及び通信方法
JP3425562B2 (ja) * 2001-07-12 2003-07-14 コナミ株式会社 キャラクタ操作プログラム、キャラクタ操作方法及びビデオゲーム装置
JP3732168B2 (ja) * 2001-12-18 2006-01-05 株式会社ソニー・コンピュータエンタテインメント 仮想世界におけるオブジェクトの表示装置、表示システム及び表示方法、ならびにそれらを利用可能な仮想世界における地価及び広告料の設定方法
JP2003210834A (ja) * 2002-01-17 2003-07-29 Namco Ltd 制御情報、情報記憶媒体、およびゲーム装置
JP2003259331A (ja) * 2002-03-06 2003-09-12 Nippon Telegraph & Telephone West Corp 3次元コンテンツ配信装置、3次元コンテンツ配信プログラム、プログラム記録媒体、及び3次元コンテンツ配信方法
JP2003324522A (ja) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> Ip/pstn統合制御装置、通信方法、プログラムおよび記録媒体
JP2004021606A (ja) * 2002-06-17 2004-01-22 Nec Corp 仮想空間提供サーバを用いたインターネットサービス提供システム
JP2004046311A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 3次元仮想空間におけるジェスチャ入力方法およびその装置
US20040029625A1 (en) * 2002-08-07 2004-02-12 Ed Annunziata Group behavioral modification using external stimuli
EP1576457A1 (en) * 2002-11-07 2005-09-21 Personics A/S Adaptive motion detection interface and motion detector
JP3952396B2 (ja) * 2002-11-20 2007-08-01 任天堂株式会社 ゲーム装置および情報処理装置
JP2004237022A (ja) * 2002-12-11 2004-08-26 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP3961419B2 (ja) * 2002-12-27 2007-08-22 株式会社バンダイナムコゲームス ゲーム装置、ゲーム制御プログラムおよびそのプログラムが記録された記録媒体
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4442117B2 (ja) * 2003-05-27 2010-03-31 ソニー株式会社 情報登録方法、情報登録装置、および情報登録プログラム
US7725419B2 (en) * 2003-09-05 2010-05-25 Samsung Electronics Co., Ltd Proactive user interface including emotional agent
JP2005100053A (ja) * 2003-09-24 2005-04-14 Nomura Research Institute Ltd アバター情報送受信方法、プログラム及び装置
JP2005216004A (ja) * 2004-01-29 2005-08-11 Tama Tlo Kk プログラムおよび通信方法
JP4559092B2 (ja) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ 携帯通信端末及びプログラム
US20060013254A1 (en) * 2004-06-07 2006-01-19 Oded Shmueli System and method for routing communication through various communication channel types
JP2006034436A (ja) * 2004-07-23 2006-02-09 Smk Corp エキササイズ器具を用いたバーチャルゲームシステム
WO2006042139A2 (en) * 2004-10-08 2006-04-20 Sonus Networks, Inc. Common telephony services to multiple devices associated with multiple networks
US20090005167A1 (en) * 2004-11-29 2009-01-01 Juha Arrasvuori Mobile Gaming with External Devices in Single and Multiplayer Games
JP2006185252A (ja) * 2004-12-28 2006-07-13 Univ Of Electro-Communications インタフェース装置
JP2006186893A (ja) * 2004-12-28 2006-07-13 Matsushita Electric Ind Co Ltd 音声対話制御装置
JP2006211005A (ja) * 2005-01-25 2006-08-10 Takashi Uchiyama テレビ電話広告システム
JPWO2006080080A1 (ja) * 2005-01-28 2008-06-19 富士通株式会社 電話管理システム、電話管理方法、および電話管理プログラム
JP4322833B2 (ja) * 2005-03-16 2009-09-02 株式会社東芝 無線通信システム
US20060252538A1 (en) * 2005-05-05 2006-11-09 Electronic Arts Inc. Analog stick input replacement for lengthy button push sequences and intuitive input for effecting character actions
JP4886770B2 (ja) * 2005-05-05 2012-02-29 株式会社ソニー・コンピュータエンタテインメント コンピュータ対話型処理と共に使用する選択的音源聴音
JP2006004421A (ja) * 2005-06-03 2006-01-05 Sony Corp データ処理装置
US20070002835A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Edge-based communication

Also Published As

Publication number Publication date
WO2008108965A1 (en) 2008-09-12
JP2010535364A (ja) 2010-11-18
JP2014149836A (ja) 2014-08-21
EP2118840A1 (en) 2009-11-18
EP2126708A4 (en) 2010-11-17
JP2010535363A (ja) 2010-11-18
EP2118757A1 (en) 2009-11-18
EP2132650A4 (en) 2010-10-27
EP2132650A2 (en) 2009-12-16
EP2118840A4 (en) 2010-11-10
EP2126708A1 (en) 2009-12-02
JP2010533006A (ja) 2010-10-21
EP2118757A4 (en) 2010-11-03
JP2010535362A (ja) 2010-11-18

Similar Documents

Publication Publication Date Title
JP5756198B2 (ja) インタラクティブにユーザ制御されたアバターアニメーション
US20080215974A1 (en) Interactive user controlled avatar animations
US11317076B2 (en) Peripheral device having sensors for capturing changes in spatial position
US8601379B2 (en) Methods for interactive communications with real time effects and avatar environment interaction
WO2008106197A1 (en) Interactive user controlled avatar animations
US8961313B2 (en) Multi-positional three-dimensional controller
JP5575228B2 (ja) ベースステーションの移動検出および補償
US8705845B2 (en) Entertainment device and method of interaction
JP5439367B2 (ja) ゲームギアリングを変更するための方法
KR101308642B1 (ko) 영상 분석 및 초음파 통신을 사용하여 컨트롤러의 3 차원 위치 판단
US8393964B2 (en) Base station for position location
US20100060662A1 (en) Visual identifiers for virtual world avatars
JP5665752B2 (ja) コンフィグレーション可能モードを備えて球形端部を有するコントローラ
JP2012510856A (ja) マルチポジショナルコントローラによる三次元制御

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150528

R150 Certificate of patent or registration of utility model

Ref document number: 5756198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250