JP2014149836A - Interactive user controlled avatar animations - Google Patents
Interactive user controlled avatar animations Download PDFInfo
- Publication number
- JP2014149836A JP2014149836A JP2014039137A JP2014039137A JP2014149836A JP 2014149836 A JP2014149836 A JP 2014149836A JP 2014039137 A JP2014039137 A JP 2014039137A JP 2014039137 A JP2014039137 A JP 2014039137A JP 2014149836 A JP2014149836 A JP 2014149836A
- Authority
- JP
- Japan
- Prior art keywords
- controller
- avatar
- console
- user
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- A63F13/12—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/23—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/61—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
- A63F13/795—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/105—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1081—Input via voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/308—Details of the user interface
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/40—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
- A63F2300/406—Transmission via wireless network, e.g. pager or GSM
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/40—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
- A63F2300/407—Data transfer via internet
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5506—Details of game data or player data management using advertisements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6063—Methods for processing data by generating or executing the game program for sound processing
- A63F2300/6072—Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
Abstract
Description
本発明は、一般にインタラクティブなマルチメディアエンタテインメントに関し、より詳細には、仮想空間におけるインタラクティブなユーザ制御およびユーザの操作表現に関する。 The present invention relates generally to interactive multimedia entertainment, and more particularly to interactive user control and user manipulation representation in virtual space.
ビデオゲーム産業は、長年にわたって多くの変化を経験してきた。演算能力が拡大するにつれ、ビデオゲームの開発者も同様に、この演算能力の増大を利用するゲームソフトウェアを作成してきた。このために、ビデオゲーム開発者は、極めてリアルなゲーム体験を生み出すべく、高度な演算と数学を採用したゲームをコーディングしてきた。 The video game industry has experienced many changes over the years. As computing power has expanded, video game developers have similarly created game software that takes advantage of this increased computing power. To this end, video game developers have been coding games that employ advanced arithmetic and mathematics to create extremely realistic gaming experiences.
ゲームプラットホームの例に、ソニープレイステーションまたはソニープレイステーション2(PS2)があり、これらはそれぞれ、ゲームコンソールの形で販売されている。周知のように、ゲームコンソールはモニタ(通常はテレビ)と接続されて、手持ち式のコントローラによってユーザとのインタラクションを可能にするように設計されている。ゲームコンソールは、CPU、処理量の多いグラフィック操作のためのグラフィックシンセサイザ、ジオメトリ変換を実行するためのベクトル装置などの特化した処理ハードウェアと、その他の繋ぎとなるハードウェア即ちグルーハードウェア、ファームウェアおよびソフトウェアなどを備えて設計される。また、ゲームコンソールは、ゲームコンソールによるローカルプレイを行うためにゲームのコンパクトディスクを受け容れるための光ディスクトレイを備えて設計される。また、ユーザが、インターネット上で他のユーザと対戦して、または、他のユーザと一緒に対話的にプレイすることができるオンラインゲームも可能である。 An example of a game platform is Sony PlayStation or Sony PlayStation 2 (PS2), each sold in the form of a game console. As is well known, game consoles are designed to be connected to a monitor (usually a television) and allow user interaction with a handheld controller. The game console is a specialized processing hardware such as a CPU, a graphic synthesizer for graphic operations with a large amount of processing, a vector device for performing geometry conversion, and other connecting hardware, that is, glue hardware, firmware And designed with software etc. In addition, the game console is designed with an optical disc tray for receiving a game compact disc for local play by the game console. Also possible are online games where the user can play against other users on the Internet or interactively play with other users.
ゲームが複雑であることがプレーヤの興味を引きつけていることから、ゲームおよびハードウェアのメーカは更なるインタラクティブ機能(インタラクティビティ)およびコンピュータプログラムを実現するために革新を続けてきている。コンピュータプログラムの中には、仮想世界を定義するものもある。仮想世界とは、ユーザが1つ以上のコンピュータプロセッサを介してやり取りしうるシミュレートされた環境である。ユーザは、アバターと呼ばれる表現の形でビデオ画面に表示されうる。アバターとシミュレートされた環境間のインタラクションの程度は、シミュレートされた物理現象、ユーザの間での情報の交換などのインタラクションを支配する1つ以上のコンピュータアプリケーションによって実装される。仮想世界のユーザ間のインタラクションの性質は、多くの場合、仮想世界を実装しているシステムの制約によって制限される。 Given the complexity of the game that attracts players' interest, game and hardware manufacturers have continued to innovate to realize additional interactive features and computer programs. Some computer programs define a virtual world. A virtual world is a simulated environment in which users can interact via one or more computer processors. The user can be displayed on the video screen in the form of an expression called an avatar. The degree of interaction between the avatar and the simulated environment is implemented by one or more computer applications that govern the interaction, such as simulated physical phenomena, the exchange of information between users. The nature of interaction between users in the virtual world is often limited by the constraints of the system implementing the virtual world.
本発明の実施形態は、この状況においてなされたものである。 The embodiments of the present invention have been made in this situation.
本明細書に定義される実施形態は、コンピュータ制御されたシステムおよびプログラムが、インタフェース入力を、画面に表示される仮想世界のアニメーションキャラクタの特定の特徴にマップ可能にする。一実施形態では、コントローラ(例えば、ゲームコントローラ)の特定のボタンが、仮想世界のアニメーションキャラクタを定義するアバターの特定の身体部位にマッピングされる。一部の実施形態では、ボタンがアバターの特徴にマッピングされるだけでなく、位置、動き、トリガ、配置およびこれらの組み合わせもマッピングされ、この結果、現実世界のユーザが、画面に表現されるアバターを正確に制御できるようになる。 The embodiments defined herein allow computer-controlled systems and programs to map interface inputs to specific features of virtual world animated characters displayed on the screen. In one embodiment, a particular button on a controller (eg, a game controller) is mapped to a particular body part of the avatar that defines the animated character of the virtual world. In some embodiments, not only buttons are mapped to avatar features, but positions, movements, triggers, placements, and combinations thereof are also mapped, resulting in real-world users being presented on the screen Can be controlled accurately.
下で更に詳しく説明するように、現実世界のユーザは、多くの場所および空間の仮想世界にわたってアバターを制御し、他のアバター(現実世界の他のユーザまたはコンピュータ制御されたボットによって制御されうる)と交流させたり、または、物、物体、環境とインタフェースさせたり、通信動作を起こさせることが可能である。通信動作は、視覚、音声またはこれらの組み合わせの形でアバターに転送される変換マッピングによって、コントローラによって制御されうる。したがって、以下の実施形態は、特定のコントローラ(例えば、ゲームコントローラまたは汎用コンピュータの制御用周辺機器)のボタン、動き(および組み合わせ)を、アバターの特定の身体部位または選択した身体部位、アバターの全身の動き、アバターの体の反応、アバターの顔の反応、アバターの感情などにマップすることによって可能な制御の例として、幅広く考察されるべきである。 As described in more detail below, real-world users control avatars across a virtual world of many places and spaces, and other avatars (which can be controlled by other real-world users or computer-controlled bots) Can be exchanged with each other, or can be interfaced with an object, an object, or the environment, or can perform a communication operation. The communication operation can be controlled by the controller by a transformation mapping that is transferred to the avatar in the form of visual, audio or a combination thereof. Thus, the following embodiments show the buttons, movements (and combinations) of a specific controller (eg, a game controller or general purpose computer control peripheral) to a specific or selected body part of the avatar, the entire body of the avatar. Examples of possible controls by mapping to movement, avatar body reactions, avatar face reactions, avatar emotions, etc. should be considered broadly.
一実施形態では、コンソールを使用してコンピュータネットワークを介してアクセスされる仮想空間においてアバターを制御するための方法が開示される。前記方法は、コンソールコントローラのアクティビティ(例えば活動)をキャプチャするステップと、入力パラメータを特定するために前記コンソールコントローラの前記キャプチャされたアクティビティを処理するステップから始まる。前記方法の次のオペレーションは、前記入力パラメータのうちの選択されたパラメータを、ユーザの仮想空間表現である前記アバターの部分にマップするステップである。前記コンソールコントローラのアクティビティと前記ユーザの前記仮想空間表現である前記アバターとの間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される。 In one embodiment, a method for controlling an avatar in a virtual space accessed via a computer network using a console is disclosed. The method begins with capturing console controller activity (eg, activity) and processing the captured activity of the console controller to identify input parameters. The next operation of the method is the step of mapping selected parameters of the input parameters to the portion of the avatar that is a virtual space representation of the user. To capture the correlation between the console controller activity and the avatar, which is the virtual space representation of the user, the capture, the processing and the mapping are performed sequentially.
別の実施形態では、コンソールを使用してコンピュータネットワークを介してアバターをインタラクティブに制御するための方法が開示される。前記方法は、コンソールコントローラを提供するステップと、前記コンソールコントローラの第1の位置を決定するステップから始まる。前記方法は、前記コンソールコントローラの第2の位置への移動の検出を含む、前記コンソールコントローラへの入力をキャプチャするステップが続く。別のステップは、前記コンソールコントローラへの入力と、前記コンソールコントローラの前記第1の位置と前記第2の位置間の相対運動とを処理するステップである。前記方法の次のステップは、前記コンソールコントローラの前記第1の位置と前記第2の位置間の前記相対運動を、前記アバターのアニメーション表示される体の部分にマップするステップである。前記コンソールコントローラの相対運動と前記アバター間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される。 In another embodiment, a method for interactively controlling an avatar over a computer network using a console is disclosed. The method begins with providing a console controller and determining a first position of the console controller. The method is followed by capturing input to the console controller including detecting movement of the console controller to a second position. Another step is processing the input to the console controller and the relative movement of the console controller between the first position and the second position. The next step in the method is to map the relative movement between the first position and the second position of the console controller to the animated body part of the avatar. In order to define the correlation between the relative movement of the console controller and the avatar, the capture, the processing and the mapping are performed continuously.
更に別の実施形態では、仮想環境内でアバターをインタラクティブに制御するためのコンピュータにより実装された方法が開示される。この実施形態では、コンピュータネットワーク内の少なくとも1つのコンピュータで実行されるコンピュータプログラムが前記アバターおよび前記仮想環境を生成する。前記方法は、前記コンピュータプログラムとインタフェースされているコントローラを提供するステップと、ユーザが前記アバターの選択された部分を制御できるように、コントローラ入力をマップするステップから始まる。前記方法は、コントローラ入力と、第1の位置と第2の位置間のコントローラの移動とをキャプチャするステップが続く。前記方法の次のステップは、前記キャプチャされたコントローラ入力およびコントローラの移動を処理し、前記仮想環境内で前記アバターの前記選択された部分をインタラクティブにアニメーション表示するために前記キャプチャされた移動を適用するステップである。コントローラの移動とアバターアニメーション間の相関を定義するために、前記コントローラ入力およびコントローラの移動のキャプチャおよび前記処理が連続的に実行される。 In yet another embodiment, a computer-implemented method for interactively controlling an avatar in a virtual environment is disclosed. In this embodiment, a computer program executed on at least one computer in a computer network generates the avatar and the virtual environment. The method begins with providing a controller that is interfaced with the computer program and mapping controller inputs so that a user can control selected portions of the avatar. The method is followed by capturing controller input and controller movement between a first position and a second position. The next step of the method is to process the captured controller input and controller movement and apply the captured movement to interactively animate the selected portion of the avatar within the virtual environment. It is a step to do. In order to define the correlation between controller movement and avatar animation, the capture of the controller input and controller movement and the process are performed continuously.
本発明の他の態様および利点は、例示のために本発明の原理を示す添付の図面と併せて、以下の詳細な説明を読めば明らかとなるであろう。 Other aspects and advantages of the present invention will become apparent from the following detailed description, taken in conjunction with the accompanying drawings, illustrating by way of example the principles of the invention.
本発明とその更なる利点とは、添付の図面を参照して以下の記載を読めば、よりよく理解できるであろう。 The invention and further advantages will be better understood when the following description is read with reference to the accompanying drawings.
実世界のユーザが、仮想世界内でアバターの動きおよびアクションを制御できるようにするための発明が開示される。本発明の一実施形態によれば、ユーザは、仮想世界とインタラクトしうる。本明細書で使用する「仮想世界」との用語は、実際のユーザが、1つ以上の表示装置を介して感知しうる、および/または1つ以上のユーザインタフェースを介してインタラクトしうる、1つ以上のプロセッサによってシミュレートされるインタラクションのルールを有する現実または架空の環境の表現を指す。本明細書で使用する「ユーザインタフェース」との用語は、ユーザが仮想世界との間で、入力を送信するか出力を受信することができる実際のデバイスを指す。仮想世界は、1つ以上のプロセッサモジュールによってシミュレートされうる。複数のプロセッサモジュールが、ネットワークを介して相互接続されうる。ユーザは、ネットワークを介して、プロセッサモジュールおよび他のユーザインタフェースデバイスと通信することができるユーザインタフェースデバイスを介して、仮想世界とインタラクトしうる。仮想世界の特定の特徴は、コンピュータモニタ、テレビジョンモニタまたは同様のディスプレイなどのグラフィックディスプレイに、グラフィカルな形式でユーザに提示されうる。仮想世界の他の特定の態様は、グラフィックディスプレイに関連しうるスピーカで可聴形式でユーザに提示されうる。 An invention is disclosed for allowing real-world users to control avatar movements and actions in a virtual world. According to one embodiment of the present invention, the user can interact with the virtual world. As used herein, the term “virtual world” refers to an actual user that can be sensed via one or more display devices and / or interacted via one or more user interfaces. Refers to a representation of a real or fictional environment with rules of interaction that are simulated by one or more processors. As used herein, the term “user interface” refers to an actual device that allows a user to send input to or receive output from the virtual world. The virtual world can be simulated by one or more processor modules. A plurality of processor modules can be interconnected via a network. A user may interact with the virtual world via a user interface device that can communicate with the processor module and other user interface devices via a network. Certain features of the virtual world can be presented to the user in a graphical form on a graphic display such as a computer monitor, television monitor or similar display. Other particular aspects of the virtual world may be presented to the user in an audible form with speakers that may be associated with the graphic display.
仮想世界内では、ユーザはアバターによって表現されうる。仮想世界内の各アバターは、異なるユーザに一意に関連付けられうる。ユーザが互いを容易に特定できるように、ユーザの名前または仮名がアバターの隣に表示されうる。特定のユーザの仮想世界とのインタラクションは、アバターの1つ以上の対応するアクションによって表現されうる。異なるユーザ同士が、自身のアバターを通じて交流しうる。ユーザを表すアバターは、人物、動物または物体と同様の外観をとることができる。人物の形のアバターは、ユーザと性別が同じでも異なっていてもよい。アバターは、ユーザが、仮想世界のほかの物体と共にアバターを見ることができるように、ディスプレイに表示されうる。 Within the virtual world, the user can be represented by an avatar. Each avatar in the virtual world can be uniquely associated with a different user. The user's name or pseudonym can be displayed next to the avatar so that the users can easily identify each other. A particular user's interaction with the virtual world may be represented by one or more corresponding actions of the avatar. Different users can interact through their avatars. An avatar representing a user can have the same appearance as a person, animal or object. The avatar in the form of a person may have the same or different gender as the user. The avatar can be displayed on the display so that the user can see the avatar along with other objects in the virtual world.
別の実施形態では、ディスプレイが、アバターを表示せずに、アバターの視点から世界を表示してもよい。仮想世界上のユーザの(またはアバターの)視点は、仮想カメラの視界とみなすことができる。本明細書で使用する「仮想カメラ」とは、仮想世界内の視点を指し、仮想世界内で三次元シーンの二次元画像を描画するために使用されうる。ユーザ同士が、各ロビーに関連するチャットチャネルによって、自身のアバターを通じて交流しうる。ユーザは、ユーザインタフェースを介して、ほかのユーザとのチャットのためのテキストを入力しうる。このテキストは、例えば、漫画形式の吹き出し(時に「チャット吹き出し」とも呼ばれる)の形式で、ユーザアバターの上またはその隣に表示されうる。このようなチャットは、時に「クイックチャット」と呼ばれる定型表現のチャットシステムを使用して、容易に行うことができる。クイックチャットでは、ユーザは、メニューから1つ以上のチャット表現を選択しうる。ほかの例については、(1)2007年3月1日出願の英国特許出願第0703974.6号「エンターテイメントデバイス(ENTERTAINMENT DEVICE)」;(2)2007年3月5日出願の英国特許出願第0704225.2号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;(3)2007年3月5日出願の英国特許出願第0704235.1号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;(4)2007年3月5日出願の英国特許出願第0704227.8号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;ならびに(5)2007年3月5日出願の英国特許出願第0704246.8号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」も参照され、これらはそれぞれ参照によりここに援用される。 In another embodiment, the display may display the world from the avatar's viewpoint without displaying the avatar. The user's (or avatar's) viewpoint in the virtual world can be regarded as the field of view of the virtual camera. As used herein, a “virtual camera” refers to a viewpoint in a virtual world and can be used to draw a two-dimensional image of a three-dimensional scene in the virtual world. Users can interact through their avatars via chat channels associated with each lobby. The user can enter text for chatting with other users via the user interface. This text can be displayed on or next to the user avatar, for example, in the form of a comic balloon (sometimes also called a “chat balloon”). Such a chat can be easily performed using a chat system of a fixed expression sometimes called “quick chat”. In quick chat, the user may select one or more chat expressions from a menu. Other examples include: (1) British Patent Application No. 0703964.6 filed on March 1, 2007, “ENTERTAINMENT DEVICE”; (2) British Patent Application No. 0704225 filed on March 5, 2007; No. 2 “ENTERTAINMENT DEVICE AND METHOD”; (3) UK Patent Application No. 070425.1 filed March 5, 2007 “ENTERTAINMENT DEVICE AND METHOD”; ) British Patent Application No. 070427.8 filed March 5, 2007, “ENTERTAINMENT DEVICE AND METHOD”; and (5) British Patent Application No. 0704246.8, filed March 5, 2007. See also “ENTERTAINMENT DEVICE AND METHOD” Each of which is incorporated herein by reference.
以下の説明では、本発明を完全に理解できるように、具体的な詳細を数多く記載する。しかし、これらの詳細な内容の一部または全てを用いなくとも本発明を実施しうることは当業者にとって自明である。場合によっては、本発明を不必要にわかりにくくしないように、公知のプロセス操作については詳しく記載しない。 In the following description, numerous specific details are set forth in order to provide a thorough understanding of the present invention. However, it will be apparent to those skilled in the art that the present invention may be practiced without some or all of these details. In some instances, well known process operations have not been described in detail in order not to unnecessarily obscure the present invention.
図1Aは、本発明の一実施形態によるアバター制御システム100を示す概略図である。ユーザ102aが、コンソール110と通信することができるコントローラ108を操作する。一部の実施形態では、コンソール110は、データを保存および取得することができる記憶媒体を備えうる。記憶媒体の種類の例には、磁気記憶装置、光記憶装置、フラッシュメモリ、ランダムアクセスメモリおよびリードオンリーメモリなどがあるが、これらに限定されない。
FIG. 1A is a schematic diagram illustrating an
また、コンソール110は、イーサネットポートなどのネットワークインタフェースと、IEEE802.11に属する多数の無線ネットワーク規格を含むワイヤレスネットワーク機能も備えうる。コンソール110のネットワークインタフェースにより、ユーザ102aはリモートサーバに接続でき、リモートサーバは、コンソール110の他のユーザとのリアルタイムかつインタラクティブなゲームのプレイ、ソフトウェアアップデート、メディアサービス、およびソーシャルネットワーキングサービスへのアクセスを提供することができる。
The
また、コンソール110は、中央処理装置およびグラフィック処理装置も備えうる。中央処理装置は、記憶媒体から取得された命令を処理するために使用され、グラフィック処理装置は、画面106に表示されるグラフィクスを処理し描画しうる。
The
コンソール110に画面106が接続されている場合、コンソール106は、アバター102bを含む仮想空間104を表示することができる。一実施形態では、仮想空間104は、コンソール110のネットワークインタフェースを使用してアクセスされるリモートサーバに保持されうる。別の実施形態では、仮想空間104の一部がコンソール110に記憶され、ほかの一部がリモートサーバに記憶されてもよい。一部の実施形態では、仮想空間104は、画面106に表示される仮想三次元世界である。仮想空間104は、地形、天候、植物相、動物相、通貨および政治が存在する実世界の仮想表現であってもよい。実世界と同様に、仮想空間104には、都市、郊外および地方の地域が含まれうる。しかし、実世界とは異なり、仮想空間104では、物理学の法則が変わってもよい。上に挙げた仮想空間104の特徴は例示を意図したものであり、制限または限定することを意図したものではない。仮想空間として、シミュレーションおよびモデリングできる範囲は、実世界のあらゆるものを含んでもよく、人の想像力の限界のみによって制限される。
When the
ユーザは、アバター102bを使用して仮想空間114とインタラクトすることができる。アバター102bは、三次元で描画され、仮想空間104内でユーザ102aをリアルにまたは空想により表現したものとなるように、ユーザ102aによって構成されうる。ユーザ102aは、アバターの複数の形態を完全に制御することができ、これには、髪型、頭の形、目の形、目の色、鼻の形、鼻の大きさ、耳の大きさ、唇の形、唇の色、衣服、履物およびアクセサリなどがあるが、これらに限定されない。別の実施形態では、ユーザ102aは、自分の実際の顔写真を入力することができ、その写真が、三次元のワイヤフレームの頭部と体にマッピングされてもよい。
The user can interact with the virtual space 114 using the
図1Bは、本発明の一実施形態による、制御装置108とコンソール110間で動きおよび位置の検出を送信するさまざまな方法を示す。ユーザ102aは、コントローラ108を使用して仮想空間104内でアバター102bを制御することができる。一実施形態では、コントローラ108は、コンソール110に信号を無線で送信することができる。1台のコンソール110に複数のコントローラを使用することができるため、特定の周波数で無線信号を送信するか、またはブルートゥースなどの無線および通信プロトコルを使用することによって、個々のコントローラ間で干渉を行うことができる。コントローラ108は複数のボタンおよびジョイスティックを備え、これらは、画面メニューから項目を移動したり、選択するなどのさまざまな効果を実現するために、ユーザが操作することができる。同様に、コントローラ108のボタンおよびジョイスティックは、コンソール110によって実行されるコンピュータプログラムの制御形態においてマッピングされ得る。
FIG. 1B illustrates various methods of transmitting motion and position detection between the
また、コントローラ108は、x軸、y軸およびz軸での並進および回転を検出することができるモーションセンサも備えうる。一実施形態では、モーションセンサは、コントローラ108の動き、加速および減速を検出することができる慣性センサである。別の実施形態では、ジャイロを使用して、コントローラ108の動きが全ての軸で検出されてもよい。コントローラ108は、処理のためにモーションセンサからコンソール110にデータを無線で送信することができ、この結果、画面にアクションが表示される。
The
また、コントローラ108の視覚的検出を提供するのを支援するために、カメラ112も、コンソール110に接続されうる。一実施形態では、コントローラ108に配置されているカメラ112とLEDが、コンソール110に、コントローラ108の視覚的検出を提供する。LEDは、可視スペクトル内または可視スペクトル外の光を発することができ、アレイとしてコントローラに一体化されていてもよく、コントローラが、カメラ112から軸を外れているかどうかを判定するのを支援する。別の実施形態では、LEDが、コントローラ108にモジュールとして取り付けられてもよい。
A
カメラ112は、LEDが発した光を受光するように構成され、コンソール110は、カメラ112に対するLEDの変化に基づいてコントローラ108の移動を計算することができる。更に、複数のコントローラが1台のコンソール110に関連している実施形態では、個々の点滅パターンまたは光の周波数を使用して、異なるコントローラのLED同士を区別することができる。
The
別の実施形態では、カメラ112は、カメラ112とコントローラ108間の距離を決定するのを支援することができる深度カメラである。一部の実施形態では、深度カメラは、最大スキャン深度を有しうる。この状況では、深度値は、最大スキャン深度内の物体に対してのみ計算される。図1Bに示すように、カメラ112はZの最大スキャン深度を有する。コントローラ108は最大スキャン深度内に入っているため、カメラ112とコントローラ108間の距離を計算することができる。更に別の実施形態では、動きおよび位置の検出の精度を上げるために、慣性センサ、LEDの検出および深度カメラの組み合わせが使用されてもよい。一実施形態では、カメラ112が、コンソール110と一体化されてもよい。別の実施形態では、カメラ112が、コンソール110とは独立して配置されてもよい。
In another embodiment,
図2は、本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの図を示す。ユーザ102aは、コントローラ108を持ち、腰を曲げて図示されている。ユーザ102aが腰を曲げると、コントローラ108は、最初の実質的に水平な位置から、図2に示す位置まで下にピッチ運動される。オペレーション120において、コントローラ108の下方ピッチ運動がモーションキャプチャシステムによってキャプチャされうる。オペレーション122において、コンソールによってコンピュータ解析が実行され、コントローラ108のモーションキャプチャが、アバター102bの特定の身体部位にマッピングされる。オペレーション124は、アバター102bのアニメーションを描画し、これがコンソールから画面106に出力されうる。
FIG. 2 shows a diagram of a
図2に示すように、コントローラ108のモーションキャプチャはアバター102bの腰にマッピングされ得る。別の実施形態では、コントローラ108の動きのモーションキャプチャが、脚、腕、手および頭部などの、アバター102bの異なる身体部位にマッピングされてもよい。更に別の実施形態では、コントローラ108からのモーションキャプチャが、ほかの形式のユーザ入力と組み合わされて、アバター102bが変化されてもよい。例えば、ユーザ102aが発話すると、マイクロフォンとカメラシステムがモニタに使用され、この結果、アバター102bの口のアニメーションが表示されてもよい。また、ユーザ102aは、コントローラ108にあるボタンを使用して、アバター102bのリアクションおよび動きを変更およびカスタマイズすることもできる。
As shown in FIG. 2, the motion capture of the
図3は、本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの図を示す。この実施形態では、ユーザ102が、コントローラ108を、最初の実質的に水平な位置から、図3に示す位置まで下にピッチ運動して図示されている。図2と同様に、オペレーション120において、コントローラの下方ピッチ運動がモーションキャプチャシステムによってキャプチャされうる。オペレーション122は、モーションキャプチャのコンピュータ解析を実行し、オペレーション124は、モーションキャプチャをアバター102bにレンダリングしうる。
FIG. 3 shows a diagram of a
図2と図3を比較すると、コントローラの相対運動のモーションキャプチャにより、アバター102bを変化させることができることが示される。図2では、ユーザ102が腰を曲げると、モーションキャプチャシステムがコントローラ108の位置の変化を検出しうる。図3では、ユーザ102aの手首の動きにより、コントローラ108が下にピッチ運動されうる。ユーザ102aが行う身体の動きは異なるが、コントローラ108の下方ピッチ運動が、コントローラによってキャプチャされ分析される相対動きである。このため、コントローラ108に同じ相対運動を生じさせるユーザ102aの異なる身体の動きが、同じアバター身体部位にマッピングされると、アバター102bに同様のアニメーションを生じさせる。
Comparison of FIG. 2 and FIG. 3 shows that motion capture of the relative motion of the controller can change the
図4Aは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動のモーションキャプチャの例示的な図である。この実施形態では、アバター102bはモーションキャプチャ前の表示を表し、アバター102b’は、モーションキャプチャビュー後の表示を表す。初期状態では、コントローラ108を持っているユーザ102aが、アバター102bによって表現されている。ユーザ102aが、コントローラ108を、ユーザ102aの右に90°ヨー運動させると、コントローラ108の相対運動のモーションキャプチャが分析され、アバター102bに適用される。この実施形態では、コントローラ108の動きがアバター102bの全身にマッピングされ、コントローラ108の90°のヨー運動によりアバター102b’が表示される。
FIG. 4A is an exemplary diagram of motion capture of relative motion of a controller that changes avatars, in accordance with one embodiment of the present invention. In this embodiment,
図4Bは、本発明の一実施形態による、アバター制御システムを規定し、これを補うためにコントローラのボタンの選択を使用することができる方法を示すフローチャートである。上で説明したように、コントローラのさまざまな相対運動によって、アバターの異なる特徴を制御することができる。アバターのインタラクティビティおよび現実性を向上させるためには、ユーザが、自身のアバターの表情、手のジェスチャ、ならびに他の特徴、表現、および感情を制御できるようにすることが有利でありうる。このレベルのアバター制御を実現するために、コントローラの相対運動のモーションキャプチャ以外の補助的な入力が使用されてもよい。枚挙にいとまがないアバターの表現および感情のバリエーションを、選択、制御および操作するために、コントローラのボタンをマップすることができる。図5のフローチャートは、アバター制御システムを規定し、これを補うためにコントローラのボタンの選択を使用することができる方法を示す。オペレーション500において、モーション検出システムが、コントローラの最初の位置を検出する。次に、コントローラの最初の位置に対するコントローラの動きを検出するオペレーション502が続く。オペレーション504において、コントローラのいずれかのボタンが選択されたかどうかが判定される。オペレーション506において、コントローラのボタンの選択とコントローラの相対運動のコンピュータ解析が行われる。次に、コントローラの動きおよびボタンの選択がアバターにマップされるオペレーション508が続く。
FIG. 4B is a flowchart illustrating a method by which the selection of buttons on the controller can be used to define and supplement an avatar control system according to one embodiment of the present invention. As explained above, different features of the avatar can be controlled by various relative movements of the controller. In order to improve the avatar's interactivity and reality, it may be advantageous to allow the user to control their avatar's facial expressions, hand gestures, and other features, expressions, and emotions. In order to achieve this level of avatar control, auxiliary inputs other than motion capture of the controller's relative motion may be used. Controller buttons can be mapped to select, control and manipulate avatar expressions and emotional variations that are endless. The flowchart of FIG. 5 illustrates how an avatar control system can be defined and the selection of buttons on the controller can be used to supplement this. In operation 500, the motion detection system detects the initial position of the controller. This is followed by
図5Aは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの例示的な図である。ユーザ102aは、コントローラ108に下方ピッチ運動を行うことによって、動きAを行う。動きAのモーションキャプチャは、アバター102bの腰にマッピングされており、この結果、アバター102bが腰を曲げる。ユーザ102aは、動きBを行って、コントローラを実質的に水平な位置まで上にピッチ運動させ、コントローラをユーザの右にロール運動させながら、コントローラをユーザの右にヨー運動させる。この実施形態では、コントローラのヨー運動は、アバターが向いている方向にマッピングされている。このため、ユーザの右に対するヨー運動により、アバター102bが、正面を向くように回り、アバター102b'で表示される。上で説明したように、この実施形態では、コントローラ108のピッチ運動はアバターの腰の動きにマッピングされている。このため、動きBが行われると、コントローラ108の実質的に水平な位置への上方ピッチ運動により、アバターが、アバター102bの屈曲位置からアバター102b’の直立位置に動く。この実施形態では、コントローラ108のロール運動は、アバターが腰から体を傾ける動きにマッピングされており、コントローラのユーザの右へのロール運動により、アバターの右に体を傾けたアバター102b’が表示される。
FIG. 5A is an exemplary illustration of multiple motion captures of relative motion of a controller that changes avatars, in accordance with one embodiment of the present invention. The
図5Bは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの別の例示的な図である。ユーザは、コントローラ108に下方ピッチ運動を行うことによって、動きAを行う。動きAのモーションキャプチャは、アバター102bの腰にマッピングされており、この結果、アバター102bが腰を曲げる。ユーザ102a’は、コントローラ108を実質的に水平位置に戻さずに、動きBを行う。ユーザ102a’は、動きBを行って、コントローラをユーザの左にロール運動させる。この実施形態では、コントローラをロール運動させると、アバター102bがアバターの左に傾く。このため、動きAと動きBの組み合わせにより、アバター102bは、前に腰を曲げ、アバターの左に傾く。コントローラ108は加減速を測定することができるセンサを備えているため、アバター102bのアニメーションは、ユーザ102a/a’によるコントローラ108の実際の動きと相関しうる。
FIG. 5B is another exemplary diagram of multiple motion captures of relative motion of a controller that changes avatars, in accordance with one embodiment of the present invention. The user performs motion A by performing a downward pitch motion on the
図6は、本発明の一実施形態による、アバターの特定の身体部位を制御するためのコントローラボタンのマッピングを示す。コントローラ108は、DU、DR、DDおよびDLで示す、デジタルコントロールパッドを含む各種ボタンを備えうる。また、コントローラは、LS1およびLS2を含む左肩ボタン108aも備えうる。同様に、右肩ボタン108bには、RS1およびRS2が含まれる。コントローラ108はアナログスティックALおよびARも備え、アナログスティックも押下時にボタンとして機能することができる。また、コントローラは、図6に□、△、○およびXで示す選択ボタンも備えうる。コントローラ108の説明に特定の名称と記号を使用したが、名称は例示であり、限定を意図したものではない。
FIG. 6 illustrates a mapping of controller buttons for controlling a specific body part of an avatar according to one embodiment of the present invention. The
一実施形態では、コントローラ108の各種ボタンが、アバターの特定の身体部位の制御を有効にするためにマッピングされ得る。アバターのマッピング600に示すように、ARの押下により、ユーザがアバターの頭部を制御できるようになる。ユーザは、RS1またはRS2の押下により、アバターの右腕または右脚をそれぞれ制御することができる。同様に、LS1とLS2は、アバターの左腕と左脚を制御するためにそれぞれマッピングされる。ユーザは、アバターのさまざまな部位を制御することが可能であるほか、事前にレンダリングされているアバターアニメーションを開始および変更することができる。ユーザは、1つのボタンまたは複数のボタンを押すか、コントローラを1回または複数回移動させるか、またはボタン押下のシーケンスとコントローラの移動を組み合わせることにより、アバターアニメーションを開始することができる。
In one embodiment, the various buttons of the
ダンスアニメーション601に示すように、アバターアニメーションは、各種状態のシーケンスであると考えることができる。一実施形態では、状態1 602は、ユーザアバターが、休止位置またはダンスアニメーションの開始前の位置にいる。状態2 604は、ダンスアニメーションの開始直後のアバターの状態であると考えることができる。この実施形態では、アバターは左に傾いている。ダンスアニメーション601の最終状態の状態3 606では、ユーザのアバターが、右に傾き、右腕を挙げている。ダンスアニメーション601はアバターのさまざまな状態を示すことを意図したものであるため、各種状態間の遷移フレームは図示されていない。各種状態間でアバターのアニメーションをスムーズに表示するためにフレームが更に必要となりうることは、当業者にとって明らかであろう。ダンスアニメーション601は例示であり、限定を意図したものではないため、アバターアニメーションの別の実施形態では状態の数が増減してもよい。
As shown in the dance animation 601, the avatar animation can be considered as a sequence of various states. In one embodiment,
上で説明したように、コントローラ108は並進および回転の運動の加速および減速を3軸で検出することができる。これによりユーザは、コントローラの並進および回転の運動の実際の加速および減速などのユーザ入力に基づいて、アニメーションの方向を伴った動きおよびアバターのレートアニメーションをインタラクティブに制御できるようになる。更に、アバターの特定の身体部位の制御を有効にするコントローラボタンのマッピングにより、ユーザは、インタラクティブにアニメーション表示させるアバターの1つ以上の身体部位を指定できるようになる。このように、ユーザがアバターの特定の身体部位のアニメーションを直接制御するため、ユニークなアバターアニメーションが得られる。ユーザからの直接制御に反応するアバターアニメーションは、ほかのアバターアニメーション形式にあるような、事前にマッピング、事前に定義、および事前にレンダリングされているアバターアニメーションとは異なる。
As explained above, the
例えば、一部のシステムでは、ゲーム中でアニメーションキャラクタの制御が可能なものがあるが、一実施形態では、ここに開示の、コントローラの動き、コントローラ入力およびコントローラの位置をアバターの特定の部位にマッピングすることにより、制御するアバターの特徴、制御の程度、およびこのような制御のアニメーション表示するアバターへの適用を詳細に指定できるようになる。更に、アバターキャラクタは、特定の予め定められたゲーム、ゲームシーン、あるいは環境またはゲームレベルの経験に拘束されることがない。例えば、現実世界のユーザによって制御されるアバターは、訪れる場所、インタラクトする物、見る物および享受する体験を定めることが可能である。現実世界のユーザによって定義される、コントローラのアクティビティによって指示される入力の要求に応じて、仮想環境でのアバターの体験、動き、リアクションおよび体の移動が作り出される。 For example, some systems allow control of animated characters in the game, but in one embodiment, the controller movement, controller input, and controller position disclosed herein can be assigned to specific parts of the avatar. By mapping, it becomes possible to specify in detail the characteristics of the avatar to be controlled, the degree of control, and the application of such control to the avatar to be animated. Furthermore, the avatar character is not bound by a specific predetermined game, game scene, or environment or game level experience. For example, avatars controlled by real-world users can define places to visit, things to interact with, things to see and experiences to enjoy. In response to requests for input dictated by controller activity, defined by real-world users, avatar experiences, movements, reactions and body movements in a virtual environment are created.
図7は、本発明の一実施形態による、アバターアニメーションの表示中のアバターのさまざまな形態や特徴の制御を示す。状態700において、画面106でアバターのダンスのアニメーションの状態1 602を開始するために、コントローラ108によるボタン押下の組み合わせが使用されうる。状態700に示すように、コントローラ108は実質的に水平な位置にある。状態702において、ユーザは、アバターの左腕を制御するために、LS1を押したままにする。このため、ユーザがコントローラ108を上にピッチ運動させると、画面106でアバターの左腕が状態604aに示す位置に上がる。状態704に移り、ユーザはLS1を押し続けたまま、コントローラ108を実質的に水平の位置に下にピッチ運動させる。コントローラが下にピッチ運動されると、画面106で、アバターの左腕は状態606aに示す位置に降ろされる。
FIG. 7 illustrates control of various forms and features of an avatar during display of an avatar animation according to an embodiment of the present invention. In
別の実施形態では、ユーザが、アバターの選択された部位に対応するボタンを押してから離せば、ボタンを次に押すまで、アバターのその部位の制御を続けることができる。ユーザがアバターのどの部位を制御しているかを特定しやすいように、画面106でアバターの制御されている部分をハイライト表示することが可能である。このハイライト表示は、アバターを制御しているユーザに対してのみ表示され、仮想空間の他のユーザからは見えなくてもよい。
In another embodiment, if the user presses and releases the button corresponding to the selected portion of the avatar, control of that portion of the avatar can continue until the button is pressed next time. In order to easily identify which part of the avatar the user is controlling, it is possible to highlight the part where the avatar is controlled on the
図8は、本発明の一実施形態による、アバターの頭部のさまざまな動きの制御を示す。状態800は、右のアナログスティックボタン(AR)を押したまま、コントローラ108をヨー運動させると、アバターの頭部が回る様子を示す。このため、状態800でアバター制御を実施しているユーザは、言葉を使わずに「いいえ」を伝えるために、アバターの頭を横に振ることが可能である。逆に、状態802では、ユーザがARを押したままコントローラ108を上下にピッチ運動させると、言葉を使わずに「はい」を伝えるために、アバターの頭を上下に振ってうなずくことができる。状態804において、ARを押したままコントローラ108を左右にロール運動させると、アバターの頭が左右に傾く。ヨー、ピッチおよびロールから選択されるユーザ入力コントローラの組み合わせに基づいて、アバターの頭部が複合的な動きをできることが、当業者にとって明らかであろう。同様に、ヨー、ピッチおよびロールに基づく複合的な動きは、アバターアニメーションの他の特徴にもマップすることができる。
FIG. 8 illustrates the control of various movements of the avatar's head, according to one embodiment of the present invention.
図9は、本発明の一実施形態による、アバター制御システムを実装するためのコントローラを有するコンソールであるソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスのシステムアーキテクチャ全体を模式的に示す。システムユニット900は、システムユニット900に接続可能なさまざまな周辺機器を備える。システムユニット900は、Cellプロセッサ928、Rambus(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット926、専用のビデオランダムアクセスメモリ(VRAM)ユニット932を有するReality Synthesizerグラフィックユニット930、およびI/Oブリッジ934を備える。また、システムユニット900は、I/Oブリッジ934を介してアクセス可能な、ディスク940aおよび着脱可能なスロットインハードディスクドライブ(HDD)936から読み出すためのブルーレイ(登録商標)ディスクBD−ROM(登録商標)光ディスクリーダ940も備える。任意選択で、システムユニット900は、同様にI/Oブリッジ934を介してアクセス可能な、コンパクトフラッシュメモリカード、メモリースティック(登録商標)メモリカードなどを読み出すためのメモリカードリーダ938も備える。
FIG. 9 schematically illustrates the overall system architecture of a Sony® PlayStation 3® entertainment device, which is a console having a controller for implementing an avatar control system, according to one embodiment of the present invention. The
また、I/Oブリッジ934は、6つのユニバーサルシリアルバス(USB)2.0ポート924、ギガビットイーサネットポート922、IEEE 802.11b/g無線ネットワーク(Wi−Fi)ポート920、および最大7つのブルートゥース接続に対応可能なブルートゥース(登録商標)無線リンクポート918にも接続している。
The I /
動作時に、I/Oブリッジ934は、1つ以上のゲームコントローラ902からのデータを含む、全ての無線、USB、およびイーサネットのデータを処理する。例えば、ユーザがゲームをプレイ中に、I/Oブリッジ934はブルートゥースリンクを介してゲームコントローラ902からデータを受信して、これをCellプロセッサ928に転送し、Cellプロセッサ928が適宜ゲームの現在の状態を更新する。
In operation, the I /
また、無線、USB、およびイーサネットの各ポートを介して、ゲームコントローラ902のほかに、他の周辺機器も接続することが可能となる。このような周辺機器には、例えば、リモコン904、キーボード906、マウス908、ソニープレイステーションポータブル(登録商標)エンターテイメントデバイスなどのポータブルエンターテイメントデバイス910、EyeToy(登録商標)ビデオカメラ912などのビデオカメラ、マイクロフォンヘッドセット914などがある。このため、これらの周辺機器は、原則としてシステムユニット900に無線で接続されうる。例えば、ポータブルエンターテイメントデバイス910はWi−Fiアドホック接続を介して通信し、マイクロフォンヘッドセット914はブルートゥースリンクを介して通信しうる。
In addition to the
これらのインタフェースを提供することにより、プレイステーション3デバイスは、デジタルビデオレコーダ(DVR)、セットトップボックス、デジタルカメラ、ポータブルメディアプレーヤ、VoIP電話、携帯電話、プリンタ、およびスキャナなどの他の周辺機器と場合によっては互換となりうる。 By providing these interfaces, the PlayStation 3 device can be used with other peripherals such as digital video recorders (DVR), set-top boxes, digital cameras, portable media players, VoIP phones, cell phones, printers, and scanners. Some can be compatible.
更に、USBポート924を介して旧式メモリカードリーダ916をシステムユニットに接続することができ、プレイステーション(登録商標)デバイスまたはプレイステーション2(登録商標)で用いられていたタイプのメモリカード948の読み出しが可能となる。
In addition, an old-style
本実施形態では、ゲームコントローラ902は、ブルートゥースリンクを介してシステムユニット900と無線通信するように動作可能である。しかし、その代わりに、ゲームコントローラ902が、USBポートに接続されてもよく、これにより、ゲームコントローラ902のバッテリに充電するための電力も供給する。ゲームコントローラは、1つ以上のアナログジョイスティックおよび従来の制御ボタンを有するほか、各軸の並進運動および回転に対応する6自由度の移動を感知する。したがって、従来のボタンまたはジョイスティックコマンドのほかに、またはこれらの代わりに、ゲームコントローラのユーザが行ったジェスチャおよび移動が、ゲームへの入力として変換されうる。任意選択で、プレイステーションポータブルデバイスなどの他の無線対応の周辺機器をコントローラとして使用することができる。プレイステーションポータブルデバイスの場合、追加のゲーム情報または制御情報(例えば制御命令またはライブの数)が、当該デバイスの画面に提示されうる。ほかの代替的または補助的な制御装置が使用されてもよく、これには、ダンスマット(図示せず)、ライトガン(図示せず)、ハンドルおよびペダル(図示せず)、あるいは、即答クイズゲームのための1つまたは複数の大型のボタン(これも図示なし)などの特注品のコントローラなどがある。
In this embodiment, the
また、リモコン904も、ブルートゥースリンクを介してシステムユニット900と無線通信するように動作可能である。リモコン904は、ブルーレイディスクBD−ROMリーダ940の操作、およびディスクの内容の閲覧のために適した制御を備える。
The
ブルーレイディスクBD−ROMリーダ940は、従来の記録済みCD、記録可能CD、およびいわゆるスーパーオーディオCDのほか、プレイステーションデバイスおよびプレイステーション2デバイスと互換のCD−ROMを読み出すように動作可能である。また、リーダ940は、従来の記録済みDVDおよび記録可能DVDのほか、プレイステーション2デバイスおよびプレイステーション3デバイスと互換のDVD−ROMを読み出すように動作可能である。更に、リーダ940は、従来の記録済みブルーレイディスクおよび記録可能ブルーレイディスクのほか、プレイステーション3デバイスと互換のBD−ROMを読み出すように動作可能である。
Blu-ray Disc BD-
システムユニット900は、Reality Synthesizerグラフィックユニット930を介して、プレイステーション3デバイスによって生成またはデコードされた音声およびビデオを、音声コネクタおよびビデオコネクタ経由で、ディスプレイ944および1つ以上のスピーカ946を備えた表示および音声出力装置942(モニタまたはテレビ受像機など)に提供するように動作可能である。音声コネクタ950は、従来のアナログ出力およびデジタル出力を備える一方、ビデオコネクタ952は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、および1つ以上の高品位マルチメディアインタフェース(HDMI)の出力などを種々備えうる。したがって、ビデオ出力は、PALまたはNTSC、あるいは720p、1080iまたは1080pの高解像度などのフォーマットであってもよい。
The
音声処理(生成、デコードなど)はCellプロセッサ928によって実行される。プレイステーション3デバイスのオペレーティングシステムは、ドルビー(登録商標)5.1サラウンドサウンド、ドルビー(登録商標)シアターサラウンド(DTS)、およびブルーレイ(登録商標)ディスクからの7.1サラウンドサウンドのデコードに対応している。
Audio processing (generation, decoding, etc.) is performed by the
本実施形態では、ビデオカメラ912は、1つの電荷結合素子(CCD)、LEDインジケータ、およびハードウェアベースのリアルタイムデータ圧縮およびエンコード装置を備え、圧縮ビデオデータが、システムユニット900によるデコードのために、イントラ画像ベースのMPEG(Motion Picture Expert Group)標準などの適切なフォーマットで送信されるようになる。カメラのLEDインジケータは、例えば不利な照明条件を示す適切な制御データをシステムユニット900から受け取ると、発光するように配置されている。ビデオカメラ912の実施形態は、USB、ブルートゥースまたはWi−Fiの通信ポートを介して、システムユニット900にさまざまな方法で接続しうる。ビデオカメラの実施形態は、1つ以上の関連するマイクロフォンを備えており、音声データを送信することができる。ビデオカメラの実施形態では、CCDは、高解像度のビデオキャプチャに適した分解能を備えうる。使用時に、ビデオカメラによってキャプチャされた画像が、例えば、ゲーム内に取り込まれるか、またはゲームの制御入力として解釈されうる。
In this embodiment, the
一般に、システムユニット900の通信ポートの1つを介して、ビデオカメラまたはリモコン等などの周辺機器とのデータ通信がうまく行われるように、デバイスドライバ等の適切なソフトウェアを提供する必要がある。デバイスドライバ技術は公知であり、ここで詳細に説明しないが、デバイスドライバまたは同様のソフトウェアインタフェースが、記載する本実施形態で必要とされうることを当業者は理解するであろう。
In general, it is necessary to provide appropriate software such as a device driver so that data communication with a peripheral device such as a video camera or a remote controller can be successfully performed via one of the communication ports of the
図10は、本発明の一実施形態によるCellプロセッサ928の概略図である。Cellプロセッサ928は、メモリコントローラ1060およびデュアルバスインタフェースコントローラ1070A,Bを含む外部入出力構造、パワープロセッシングエレメント1050と呼ばれるメインプロセッサ、シナジスティックプロセッシングエレメント(SPE)1010A〜Hと呼ばれる8基のコプロセッサ、エレメント相互接続バス1080と呼ばれる上記のコンポーネントに接続している環状データバス、の4つの基本コンポーネントを備えたアーキテクチャを有する。プレイステーション2デバイスのエモーションエンジンは6.2ギガフロップスであるのに対し、Cellプロセッサの総浮動小数点演算性能は、218ギガフロップスである。
FIG. 10 is a schematic diagram of a
パワープロセッシングエレメント(PPE)1050は、3.2GHzの内部クロックで動作し、双方向同時マルチスレッディングPower970準拠のPowerPCコア(PPU)1055をベースにしている。PPE1050は、512kBのレベル2(L2)キャッシュと、32kBのレベル1(L1)キャッシュとを備える。PPE1050は、クロックサイクルごとに8つの単一位置(single position:SP)操作ができ、これは、3.2GHzで25.6ギガフロップスに相当する。PPE1050の主な役割は、演算作業負荷の大部分を処理するシナジスティックプロセッシングエレメント1010A〜Hのコントローラとして機能することにある。動作時に、PPE1050はジョブキューを保持し、シナジスティックプロセッシングエレメント1010A〜Hのジョブをスケジュールしており、その進捗を監視する。したがって、各シナジスティックプロセッシングエレメント1010A〜Hはカーネルを実行し、その役割は、ジョブを取り出して、これを実行し、PPE1050と同期することにある。
The power processing element (PPE) 1050 operates on an internal clock of 3.2 GHz and is based on a PowerPC core (PPU) 1055 compliant with bidirectional simultaneous multithreading Power970. The
各シナジスティックプロセッシングエレメント(SPE)1010A〜Hは、シナジスティックプロセッシングユニット(SPU)1020A〜Hおよびメモリフローコントローラ(MFC)1040A〜Hをそれぞれ備え、MFC1040A〜Hは、ダイナミックメモリアクセスコントローラ(DMAC)1042A〜H、メモリ管理ユニット(MMU)1044A〜H、およびバスインタフェース(図示せず)をそれぞれ備える。各SPU1020A〜Hは3.2GHzでクロック供給され、原則として4GBまで拡張可能な256kBのローカルRAM1030A〜Hを備えたRISCプロセッサである。各SPEは、理論的には単精度処理性能で25.6ギガフロップスを示す。1つのSPUは、1クロックサイクルに、4つの単精度浮動小数点部、4つの32ビット数、8つの16ビット整数または16の8ビット整数を処理することができる。同じクロックサイクルで、メモリ操作も実行することができる。SPU1020A〜HはシステムメモリXDRAM926に直接アクセスしない。SPU1020A〜Hが作成した64ビットアドレスがMFC1040A〜Hに渡され、MFC1040A〜Hが、自身のDMAコントローラ1042A〜Hに対して、エレメント相互接続バス1080およびメモリコントローラ1060を介してメモリにアクセスするように指示する。
Each synergistic processing element (SPE) 1010A-H includes a synergistic processing unit (SPU) 1020A-H and a memory flow controller (MFC) 1040A-H, respectively, and the
エレメント相互接続バス(EIB)1080は、Cellプロセッサ928内部の論理的には環状の通信バスであり、上記のプロセッサエレメント(すなわち、PPE1050、メモリコントローラ1060、デュアルバスインタフェース1070A,B、および8基のSPE1010A〜H、合計12個のパーティシパント)を接続している。パーティシパントは、1クロックサイクルにつき8バイトの速度で、バスに同時に読み出しおよび書き込みを行うことができる。上で説明したように、各SPE1010A〜Hは、長い読み出しまたは書み込みのシーケンスをスケジュールするためのDMAC1042A〜Hを備える。EIBは、4つのチャネルを備え、そのうち2つは時計回り方向であり、残り2つは反時計回り方向である。したがって、12のパーティシパントについて、2つのパーティシパント間のステップ方式の最長のデータフローは、適切な方向で6ステップとなる。このため、パーティシパント間でアービトレーションが行われて完全な利用度が実現されると、12のスロットの理論上のピーク瞬間EIB帯域幅は、1クロックにつき96Bとなる。これは、3.2GHzのクロック速度で307.2GB/s(ギガバイト/秒)の理論上のピーク帯域幅に相当する。
Element Interconnect Bus (EIB) 1080 is a logically circular communication bus within
メモリコントローラ1060は、ラムバス社(Rambus Incorporated)によって開発されたXDRAMインタフェース1062を備える。メモリコントローラは、25.6GB/sの理論上のピーク帯域幅で、Rambus XDRAM926とインタフェースする。
The
デュアルバスインタフェース1070A,Bは、Rambus FlexIO(登録商標)システムインタフェース1072A,Bを備える。インタフェースは、それぞれ8ビット幅の12のチャネルに編成されており、このうち、5の経路が受信用、7つの経路が送信用である。これにより、Cellプロセッサと、コントローラ170Aを介してI/Oブリッジ700間、およびコントローラ170Bを介してReality Simulatorグラフィックユニット200間で、理論上のピーク帯域幅が62.4GB/s(送信36.4GB/s、受信26GB/s)が得られる。
The
Cellプロセッサ928によってReality Simulatorグラフィックユニット930に送信されるデータには、通常、表示リストが含まれ、これは、頂点を描画したり、ポリゴンにテクスチャを貼り付けたり、照明条件を指定するなどための一連のコマンドである。
The data sent to the Reality Simulator
実施形態において、現実世界のユーザをより正確に特定し、アバターまたはシーンのアクティビティを案内するための深度データがキャプチャされてもよい。オブジェクトは、人物が保持している物体であっても、人物の手であってもよい。本明細書では、「深度カメラ」および「三次元カメラ」との用語は、二次元のピクセル情報のほか、距離情報すなわち深度情報を取得することができる任意のカメラを指す。例えば、深度カメラは、制御された赤外線照明を利用して、距離情報を取得することができる。他の例示的な深度カメラに、立体カメラ対があり、これは2台の基準カメラを使用して距離情報を三角測量によって求める。同様に、「深度検知装置」との用語は、二次元のピクセル情報のほかに、距離情報を取得することができる任意のタイプの装置を指す。 In embodiments, depth data may be captured to more accurately identify real-world users and guide avatar or scene activity. The object may be an object held by a person or a person's hand. As used herein, the terms “depth camera” and “three-dimensional camera” refer to any camera capable of obtaining distance information, ie depth information, as well as two-dimensional pixel information. For example, the depth camera can acquire distance information using controlled infrared illumination. Another exemplary depth camera is a stereo camera pair, which uses two reference cameras to determine distance information by triangulation. Similarly, the term “depth sensing device” refers to any type of device capable of obtaining distance information in addition to two-dimensional pixel information.
三次元像の最近の進歩により、リアルタイムのインタラクティブなコンピュータアニメーションの可能性が広がっている。より詳細には、新しい「深度カメラ」は、通常の二次元のビデオ像に加えて、3番目の次元をキャプチャおよびマップする能力を提供することができる。新しい深度データによって、本発明の各種実施形態は、ほかのオブジェクトの背後など、ビデオシーン内のさまざまな位置にコンピュータが生成したオブジェクトを、リアルタイムで配置することが可能となる。 Recent advances in 3D images have opened up the possibility of real-time interactive computer animation. More specifically, the new “depth camera” can provide the ability to capture and map the third dimension in addition to the normal two-dimensional video image. New depth data allows various embodiments of the invention to place computer-generated objects in various locations in the video scene, such as behind other objects, in real time.
更に、本発明の各種実施形態は、リアルタイムのインタラクティブなゲーム体験をユーザに提供する。例えば、ユーザは、コンピュータが生成したさまざまなオブジェクトと、リアルタイムでインタラクトすることができる。更に、ユーザのゲーム体験をよりリアルにするために、ビデオシーンをリアルタイムで変更することができる。例えば、コンピュータが生成したコスチュームを、ユーザの服の上にはめ込んだり、コンピュータが生成した光源を利用して、ビデオシーン内に仮想の影を表示させることができる。このため、本発明の各種実施形態と深度カメラを使用して、ユーザは、自分のリビングルームでインタラクティブなゲーム環境を体験することができる。通常のカメラと同様に、深度カメラは、ビデオ画像を構成している複数のピクセルの二次元のデータをキャプチャする。これらの値は、ピクセルの色の値であり、通常は、各ピクセルの赤、緑、青(RGB)の値である。このようにして、カメラによってキャプチャされたオブジェクトが、モニタに二次元オブジェクトとして表示される。 Furthermore, various embodiments of the present invention provide users with a real-time interactive gaming experience. For example, the user can interact with various computer-generated objects in real time. Furthermore, the video scene can be changed in real time to make the user's gaming experience more realistic. For example, a computer-generated costume can be placed on top of a user's clothes or a virtual shadow can be displayed in a video scene using a computer-generated light source. Thus, using various embodiments of the present invention and a depth camera, a user can experience an interactive game environment in his / her living room. Similar to a normal camera, a depth camera captures two-dimensional data of a plurality of pixels that make up a video image. These values are pixel color values and are typically the red, green, and blue (RGB) values of each pixel. In this way, the object captured by the camera is displayed on the monitor as a two-dimensional object.
また、本発明の各種実施形態は、分散型の画像処理構成についても考察している。例えば、本発明は、1つの場所(CPUなど)や2つの場所(CPUと他の1つの素子など)で行われるキャプチャ画像および表示画像の処理に限定されない。例えば、入力画像処理は、処理を実行することができる関連のCPU、プロセッサまたは装置において容易に行うことができ、基本的には、画像処理の全てを、相互接続システム全体に分散させることができる。このため、本発明は、特定の画像処理ハードウェア回路および/またはソフトウェアに限定されない。また、本明細書に記載した実施形態は、一般的なハードウェア回路および/またはソフトウェアの特定の組合せに限定されず、処理コンポーネントによって実行される命令の特定のソースにも限定されない。 Various embodiments of the present invention also consider distributed image processing configurations. For example, the present invention is not limited to the processing of a captured image and a display image performed at one place (CPU or the like) or two places (CPU and another one element or the like). For example, input image processing can be easily performed in an associated CPU, processor or device capable of performing the processing, and basically all of the image processing can be distributed throughout the interconnect system. . Thus, the present invention is not limited to a specific image processing hardware circuit and / or software. Also, the embodiments described herein are not limited to specific combinations of general hardware circuitry and / or software, and are not limited to specific sources of instructions executed by processing components.
上記の実施形態を考慮に入れて、本発明が、コンピュータシステムに記憶されたデータを使用する、各種のコンピュータ実装操作を使用してもよい点を理解すべきである。これらの操作には、物理量の物理的な操作を必要とする操作が含まれる。この物理量は通常、記憶、転送、結合、比較などの操作が可能な電気信号または磁気信号の形を取るが、必ずしもこれらに限定されない。更に、実行される操作は、生成、特定、決定または比較などと呼ばれることが多い。 In view of the above embodiments, it should be understood that the present invention may use various computer-implemented operations that use data stored in a computer system. These operations include operations that require physical manipulation of physical quantities. This physical quantity typically takes the form of an electrical or magnetic signal that can be manipulated, stored, transferred, combined, compared, etc., but is not necessarily limited thereto. Furthermore, the operations performed are often referred to as generation, identification, determination or comparison.
上記した発明は、携帯式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステム構成によって実施されてもよい。また、本発明は、分散コンピューティング環境で実施されてもよく、このような環境では、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される。 The above described invention may be practiced with other computer system configurations such as portable devices, microprocessor systems, microprocessor-based or programmable consumer electronics, minicomputers, mainframe computers and the like. The invention may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network.
本発明は、また、計算機可読メディア上の計算機可読コードとして実施されてもよい。計算機可読媒体は、電磁搬送波を含め、コンピュータシステムによって後から読取ることができるデータを記憶できるデータ記憶装置であれば、どのようなものに存在してもよい。計算機可読メディアの例には、ハードディスク、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープおよび他の光学式データ記憶装置および非光学式データ記憶装置などがある。また、計算機可読媒体は、計算機可読コードが分散式に記憶されて、実行されるように、ネットワークに結合されたコンピュータシステムを介して分散されてもよい。 The present invention may also be implemented as computer readable code on a computer readable medium. The computer readable medium may be any data storage device that can store data which can be read later by a computer system, including an electromagnetic carrier wave. Examples of computer readable media include hard disks, network attached storage (NAS), read only memory, random access memory, CD-ROM, CD-R, CD-RW, magnetic tape and other optical data storage and non- There are optical data storage devices and the like. The computer readable medium may also be distributed via a computer system coupled to a network so that the computer readable code is stored and executed in a distributed fashion.
上記に、本発明を明確に理解できるようにある程度具体的に記載したが、添付の特許請求の範囲内で変更例または変形例を実施できることは明らかである。したがって、本実施形態は例示的なものであり、制限するものではなく、本発明は本明細書に記載されている詳細な事項に限定されず、添付の特許請求の範囲およびその均等物の範囲内で変更されてもよい。 Although the invention has been described in some detail for purposes of clarity of understanding, it will be apparent that certain changes and modifications may be practiced within the scope of the appended claims. Accordingly, the embodiments are illustrative and not limiting and the invention is not limited to the details described herein, but the appended claims and their equivalents. May be changed within.
100 アバター制御システム
102 ユーザ
104 仮想空間
106 画面
108 コントローラ
110 コンソール
112 カメラ
114 仮想空間
200 グラフィックユニット
900 システムユニット
902 ゲームコントローラ
904 リモコン
906 キーボード
908 マウス
910 ポータブルエンターテイメントデバイス
912 ビデオカメラ
914 マイクロフォンヘッドセット
100 avatar control system 102
Claims (20)
コンソールコントローラのアクティビティをキャプチャするステップと、
入力パラメータを特定するために前記コンソールコントローラの前記キャプチャされたアクティビティを処理するステップと、
前記入力パラメータのうちの選択されたパラメータを、ユーザの仮想空間表現である前記アバターの部分にマップするステップと、を有し、
前記コンソールコントローラのアクティビティと前記ユーザの前記仮想空間表現である前記アバターとの間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される方法。 A method for controlling an avatar in a virtual space accessed via a computer network using a console executing a computer program comprising:
Capturing console controller activity;
Processing the captured activity of the console controller to identify input parameters;
Mapping a selected parameter of the input parameters to a portion of the avatar that is a virtual space representation of a user;
The method wherein the capture, the processing and the mapping are performed sequentially to define a correlation between the console controller activity and the avatar that is the virtual space representation of the user.
コンソールコントローラを提供するステップと、
前記コンソールコントローラの第1の位置を決定するステップと、
前記コンソールコントローラの第2の位置への移動の検出を含む、前記コンソールコントローラへの入力をキャプチャするステップと、
前記コンソールコントローラへの入力と、前記コンソールコントローラの前記第1の位置と前記第2の位置間の相対運動とを処理するステップと、
前記コンソールコントローラの前記第1の位置と前記第2の位置間の前記相対運動を、前記アバターのアニメーション表示される体の部分にマップするステップと、を有し、
前記コンソールコントローラの相対運動と前記アバター間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される方法。 A method for interactively controlling an avatar over a computer network using a console, comprising:
Providing a console controller;
Determining a first position of the console controller;
Capturing input to the console controller comprising detecting movement of the console controller to a second position;
Processing the input to the console controller and the relative movement between the first position and the second position of the console controller;
Mapping the relative movement between the first position and the second position of the console controller to an animated body part of the avatar;
The method wherein the capture, the processing and the mapping are performed sequentially to define a correlation between the relative motion of the console controller and the avatar.
前記コンピュータプログラムとインタフェースされているコントローラを提供するステップと、
ユーザが前記アバターの選択された部分を制御できるように、コントローラ入力をマップするステップと、
コントローラ入力と、第1の位置と第2の位置間のコントローラの移動とをキャプチャするステップと、
前記キャプチャされたコントローラ入力およびコントローラの移動を処理し、前記仮想環境内で前記アバターの前記選択された部分をインタラクティブにアニメーション表示するために前記キャプチャされた移動を適用するステップと、を有し、
コントローラの移動とアバターアニメーション間の相関を定義するために、前記コントローラ入力およびコントローラの移動のキャプチャおよび前記処理が連続的に実行される方法。 A computer implemented method for interactively controlling an avatar in a virtual environment for an avatar and virtual environment generated by a computer program executed on at least one computer in a computer network, comprising:
Providing a controller interfaced with the computer program;
Mapping controller inputs so that a user can control selected portions of the avatar;
Capturing controller input and movement of the controller between a first position and a second position;
Processing the captured controller input and controller movement and applying the captured movement to interactively animate the selected portion of the avatar within the virtual environment; and
A method wherein the capture of the controller input and controller movement and the processing are performed sequentially to define a correlation between controller movement and avatar animation.
Applications Claiming Priority (14)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US89239707P | 2007-03-01 | 2007-03-01 | |
US60/892,397 | 2007-03-01 | ||
GBGB0703974.6A GB0703974D0 (en) | 2007-03-01 | 2007-03-01 | Entertainment device |
GB0703974.6 | 2007-03-01 | ||
GB0704227.8 | 2007-03-05 | ||
GB0704225.2 | 2007-03-05 | ||
GB0704227A GB2447020A (en) | 2007-03-01 | 2007-03-05 | Transmitting game data from an entertainment device and rendering that data in a virtual environment of a second entertainment device |
GB0704225A GB2447094B (en) | 2007-03-01 | 2007-03-05 | Entertainment device and method |
GB0704246.8 | 2007-03-05 | ||
GB0704235A GB2447095B (en) | 2007-03-01 | 2007-03-05 | Entertainment device and method |
GB0704235.1 | 2007-03-05 | ||
GB0704246A GB2447096B (en) | 2007-03-01 | 2007-03-05 | Entertainment device and method |
US11/789,202 US20080215974A1 (en) | 2007-03-01 | 2007-04-23 | Interactive user controlled avatar animations |
US11/789,202 | 2007-04-23 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009551727A Division JP2010535364A (en) | 2007-03-01 | 2008-02-27 | Interactive user-controlled avatar animation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014149836A true JP2014149836A (en) | 2014-08-21 |
JP5756198B2 JP5756198B2 (en) | 2015-07-29 |
Family
ID=39738577
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009551806A Pending JP2010533006A (en) | 2007-03-01 | 2008-02-26 | System and method for communicating with a virtual world |
JP2009551727A Pending JP2010535364A (en) | 2007-03-01 | 2008-02-27 | Interactive user-controlled avatar animation |
JP2009551722A Pending JP2010535362A (en) | 2007-03-01 | 2008-02-27 | Monitoring the opinions and reactions of users in the virtual world |
JP2009551726A Pending JP2010535363A (en) | 2007-03-01 | 2008-02-27 | Virtual world avatar control, interactivity and communication interactive messaging |
JP2014039137A Active JP5756198B2 (en) | 2007-03-01 | 2014-02-28 | Interactive user-controlled avatar animation |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009551806A Pending JP2010533006A (en) | 2007-03-01 | 2008-02-26 | System and method for communicating with a virtual world |
JP2009551727A Pending JP2010535364A (en) | 2007-03-01 | 2008-02-27 | Interactive user-controlled avatar animation |
JP2009551722A Pending JP2010535362A (en) | 2007-03-01 | 2008-02-27 | Monitoring the opinions and reactions of users in the virtual world |
JP2009551726A Pending JP2010535363A (en) | 2007-03-01 | 2008-02-27 | Virtual world avatar control, interactivity and communication interactive messaging |
Country Status (3)
Country | Link |
---|---|
EP (4) | EP2132650A4 (en) |
JP (5) | JP2010533006A (en) |
WO (1) | WO2008108965A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018155303A1 (en) | 2017-02-24 | 2018-08-30 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US10943383B2 (en) | 2017-01-26 | 2021-03-09 | Sony Corporation | Information processing apparatus and information processing method |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10489795B2 (en) | 2007-04-23 | 2019-11-26 | The Nielsen Company (Us), Llc | Determining relative effectiveness of media content items |
US8407605B2 (en) | 2009-04-03 | 2013-03-26 | Social Communications Company | Application sharing |
US8191001B2 (en) | 2008-04-05 | 2012-05-29 | Social Communications Company | Shared virtual area communication environment based apparatus and methods |
US8397168B2 (en) * | 2008-04-05 | 2013-03-12 | Social Communications Company | Interfacing with a spatial virtual communication environment |
US7769806B2 (en) | 2007-10-24 | 2010-08-03 | Social Communications Company | Automated real-time data stream switching in a shared virtual area communication environment |
US20100093439A1 (en) * | 2008-10-15 | 2010-04-15 | Nc Interactive, Inc. | Interactive network game and methods thereof |
US20100099495A1 (en) * | 2008-10-16 | 2010-04-22 | Nc Interactive, Inc. | Interactive network game and methods thereof |
US9853922B2 (en) | 2012-02-24 | 2017-12-26 | Sococo, Inc. | Virtual area communications |
JP5813912B2 (en) | 2009-01-28 | 2015-11-17 | 任天堂株式会社 | Program, information processing apparatus, and information processing system |
JP5229484B2 (en) | 2009-01-28 | 2013-07-03 | 任天堂株式会社 | Information processing system, program, and information processing apparatus |
JP5690473B2 (en) | 2009-01-28 | 2015-03-25 | 任天堂株式会社 | Program and information processing apparatus |
JP5527721B2 (en) | 2009-01-28 | 2014-06-25 | 任天堂株式会社 | Program and information processing apparatus |
US9542010B2 (en) * | 2009-09-15 | 2017-01-10 | Palo Alto Research Center Incorporated | System for interacting with objects in a virtual environment |
US8862977B2 (en) * | 2009-09-30 | 2014-10-14 | Rakuten, Inc. | Object displacement method for web page |
US20120192088A1 (en) * | 2011-01-20 | 2012-07-26 | Avaya Inc. | Method and system for physical mapping in a virtual world |
CN106943743B (en) * | 2011-02-11 | 2024-04-26 | 漳州市阿思星谷电子科技有限公司 | Man-machine interaction control method |
US20120277001A1 (en) * | 2011-04-28 | 2012-11-01 | Microsoft Corporation | Manual and Camera-based Game Control |
JP2013003778A (en) * | 2011-06-15 | 2013-01-07 | Forum8 Co Ltd | Three-dimensional space information processing system, three-dimensional space information processing terminal, three-dimensional space information processing server, three-dimensional space information processing terminal program, three-dimensional space information processing server program, and three-dimensional space information processing method |
WO2013181026A1 (en) | 2012-06-02 | 2013-12-05 | Social Communications Company | Interfacing with a spatial virtual communications environment |
CN104516618B (en) * | 2013-09-27 | 2020-01-14 | 中兴通讯股份有限公司 | Interface function analysis display method and device |
JP6091407B2 (en) * | 2013-12-18 | 2017-03-08 | 三菱電機株式会社 | Gesture registration device |
US20170043255A1 (en) * | 2014-04-25 | 2017-02-16 | Nokia Technologies Oy | Interaction between Virtual Reality Entities and Real Entities |
EP2996017B1 (en) | 2014-09-11 | 2022-05-11 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display |
WO2016068581A1 (en) | 2014-10-31 | 2016-05-06 | Samsung Electronics Co., Ltd. | Device and method of managing user information based on image |
US9786125B2 (en) | 2015-06-17 | 2017-10-10 | Facebook, Inc. | Determining appearances of objects in a virtual world based on sponsorship of object appearances |
US10861056B2 (en) | 2015-06-17 | 2020-12-08 | Facebook, Inc. | Placing locations in a virtual world |
US10339592B2 (en) | 2015-06-17 | 2019-07-02 | Facebook, Inc. | Configuring a virtual store based on information associated with a user by an online system |
JP6860010B2 (en) | 2016-05-06 | 2021-04-14 | ソニー株式会社 | Information processing systems, information processing methods, and information processing programs |
JP6263252B1 (en) * | 2016-12-06 | 2018-01-17 | 株式会社コロプラ | Information processing method, apparatus, and program for causing computer to execute information processing method |
WO2018142228A2 (en) | 2017-01-19 | 2018-08-09 | Mindmaze Holding Sa | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system |
US10943100B2 (en) | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
US10515474B2 (en) | 2017-01-19 | 2019-12-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
JP6821461B2 (en) * | 2017-02-08 | 2021-01-27 | 株式会社コロプラ | A method executed by a computer to communicate via virtual space, a program that causes the computer to execute the method, and an information control device. |
JP6651479B2 (en) * | 2017-03-16 | 2020-02-19 | 株式会社コロプラ | Information processing method and apparatus, and program for causing computer to execute the information processing method |
US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
JP7308573B2 (en) * | 2018-05-24 | 2023-07-14 | 株式会社ユピテル | System and program etc. |
JP7302956B2 (en) * | 2018-09-19 | 2023-07-04 | 株式会社バンダイナムコエンターテインメント | computer system, game system and program |
JP2019130295A (en) * | 2018-12-28 | 2019-08-08 | ノキア テクノロジーズ オサケユイチア | Interaction between virtual reality entities and real entities |
JP7323315B2 (en) | 2019-03-27 | 2023-08-08 | 株式会社コーエーテクモゲームス | Information processing device, information processing method and program |
JP7190051B2 (en) * | 2019-08-20 | 2022-12-14 | 日本たばこ産業株式会社 | COMMUNICATION SUPPORT METHOD, PROGRAM AND COMMUNICATION SERVER |
JP7192136B2 (en) * | 2019-08-20 | 2022-12-19 | 日本たばこ産業株式会社 | COMMUNICATION SUPPORT METHOD, PROGRAM AND COMMUNICATION SERVER |
US11080930B2 (en) * | 2019-10-23 | 2021-08-03 | Skonec Entertainment Co., Ltd. | Virtual reality control system |
EP3846008A1 (en) | 2019-12-30 | 2021-07-07 | TMRW Foundation IP SARL | Method and system for enabling enhanced user-to-user communication in digital realities |
JP2020146469A (en) * | 2020-04-20 | 2020-09-17 | 株式会社トプコン | Ophthalmologic examination system and ophthalmologic examination device |
JP6932224B1 (en) * | 2020-06-01 | 2021-09-08 | 株式会社電通 | Advertising display system |
JP7254112B2 (en) * | 2021-03-19 | 2023-04-07 | 本田技研工業株式会社 | Virtual experience providing device, virtual experience providing method, and program |
WO2023281755A1 (en) * | 2021-07-09 | 2023-01-12 | シャープNecディスプレイソリューションズ株式会社 | Display control device, display control method, and program |
WO2023068067A1 (en) * | 2021-10-18 | 2023-04-27 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023149255A1 (en) * | 2022-02-02 | 2023-08-10 | 株式会社Nttドコモ | Display control device |
KR20230173481A (en) * | 2022-06-17 | 2023-12-27 | 주식회사 메타캠프 | Apparatus for Metaverse Service by Using Multi-Channel Structure and Channel Syncronizaton and Driving Method Thereof |
WO2024004609A1 (en) * | 2022-06-28 | 2024-01-04 | ソニーグループ株式会社 | Information processing device, information processing method, and recording medium |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11185058A (en) * | 1997-11-28 | 1999-07-09 | Internatl Business Mach Corp <Ibm> | Method and system for selecting object |
JP2000311251A (en) * | 1999-02-26 | 2000-11-07 | Toshiba Corp | Device and method for generating animation and storage medium |
JP2000325653A (en) * | 1999-05-19 | 2000-11-28 | Enix Corp | Portable videogame device and storage medium with program stored therein |
JP2001160154A (en) * | 1999-12-02 | 2001-06-12 | Nippon Telegr & Teleph Corp <Ntt> | Avatar display device in virtual space communication system, avatar displaying method and storage medium |
JP2003024628A (en) * | 2001-07-12 | 2003-01-28 | Konami Co Ltd | Character operating program, character operating method and video game device |
JP2004166995A (en) * | 2002-11-20 | 2004-06-17 | Nintendo Co Ltd | Game device and information processor |
JP2004208894A (en) * | 2002-12-27 | 2004-07-29 | Namco Ltd | Game device, game control program and recording medium recording the program |
JP2005216149A (en) * | 2004-01-30 | 2005-08-11 | Ntt Docomo Inc | Mobile communication terminal and program |
JP2006312059A (en) * | 2005-05-05 | 2006-11-16 | Electronic Arts Inc | Analog stick input change against long time button pressing sequence and intuitive input for effecting character action |
Family Cites Families (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5734373A (en) * | 1993-07-16 | 1998-03-31 | Immersion Human Interface Corporation | Method and apparatus for controlling force feedback interface systems utilizing a host computer |
CA2141144A1 (en) * | 1994-03-31 | 1995-10-01 | Joseph Desimone | Electronic game utilizing bio-signals |
GB9505916D0 (en) * | 1995-03-23 | 1995-05-10 | Norton John M | Controller |
JP3091135B2 (en) * | 1995-05-26 | 2000-09-25 | 株式会社バンダイ | Game equipment |
US5823879A (en) * | 1996-01-19 | 1998-10-20 | Sheldon F. Goldberg | Network gaming system |
JP3274603B2 (en) * | 1996-04-18 | 2002-04-15 | エヌイーシーソフト株式会社 | Voice aggregation system and voice aggregation method |
JP3975511B2 (en) * | 1997-07-25 | 2007-09-12 | 富士通株式会社 | Personal communication distributed control system |
JP3757584B2 (en) * | 1997-11-20 | 2006-03-22 | 株式会社富士通ゼネラル | Advertising effect confirmation system |
US6195104B1 (en) * | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
JP2000187435A (en) * | 1998-12-24 | 2000-07-04 | Sony Corp | Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method |
EP1250698A2 (en) * | 1999-04-20 | 2002-10-23 | John Warren Stringer | Human gestural input device with motion and pressure |
JP4034002B2 (en) * | 1999-04-22 | 2008-01-16 | 三菱電機株式会社 | Distributed virtual space information management transmission method |
AU5012600A (en) * | 1999-05-14 | 2000-12-05 | Graphic Gems | Method and apparatus for a multi-owner, three-dimensional virtual world |
AU5012300A (en) * | 1999-05-14 | 2000-12-05 | Graphic Gems | Method and apparatus for registering lots in a shared virtual world |
JP2001154966A (en) * | 1999-11-29 | 2001-06-08 | Sony Corp | System and method for supporting virtual conversation being participation possible by users in shared virtual space constructed and provided on computer network and medium storing program |
JP2001153663A (en) * | 1999-11-29 | 2001-06-08 | Canon Inc | Discrimination device for moving direction of object, and photographic device, navigation system, suspension system, game system and remote controller system provide with the device |
JP2001236290A (en) * | 2000-02-22 | 2001-08-31 | Toshinao Komuro | Communication system using avatar |
KR100366384B1 (en) * | 2000-02-26 | 2002-12-31 | (주) 고미드 | Information search system based on communication of users |
JP2001325501A (en) * | 2000-03-10 | 2001-11-22 | Heart Gift:Kk | On-line gift method |
JP3458090B2 (en) * | 2000-03-15 | 2003-10-20 | コナミ株式会社 | GAME SYSTEM HAVING MESSAGE EXCHANGE FUNCTION, GAME DEVICE USED FOR THE GAME SYSTEM, MESSAGE EXCHANGE SYSTEM, AND COMPUTER-READABLE STORAGE MEDIUM |
JP2001321568A (en) * | 2000-05-18 | 2001-11-20 | Casio Comput Co Ltd | Device and method of game and recording medium |
TWI221574B (en) * | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
JP2002136762A (en) * | 2000-11-02 | 2002-05-14 | Taito Corp | Adventure game using latent video |
JP3641423B2 (en) * | 2000-11-17 | 2005-04-20 | Necインフロンティア株式会社 | Advertisement information system |
AU2002219857A1 (en) * | 2000-11-27 | 2002-06-03 | Butterfly.Net, Inc. | System and method for synthesizing environments to facilitate distributed, context-sensitive, multi-user interactive applications |
EP1216733A3 (en) * | 2000-12-20 | 2004-09-08 | Aruze Co., Ltd. | Server providing competitive game service, program storage medium for use in the server, and method of providing competitive game service using the server |
JP2002197376A (en) * | 2000-12-27 | 2002-07-12 | Fujitsu Ltd | Method and device for providing virtual world customerized according to user |
JP4613295B2 (en) * | 2001-02-16 | 2011-01-12 | 株式会社アートディンク | Virtual reality playback device |
JP2005500912A (en) * | 2001-02-27 | 2005-01-13 | アンソロトロニックス インコーポレイテッド | Robot apparatus and wireless communication system |
US7667705B2 (en) * | 2001-05-15 | 2010-02-23 | Nintendo Of America Inc. | System and method for controlling animation by tagging objects within a game environment |
JP4068542B2 (en) * | 2001-05-18 | 2008-03-26 | 株式会社ソニー・コンピュータエンタテインメント | Entertainment system, communication program, computer-readable recording medium storing communication program, and communication method |
JP3732168B2 (en) * | 2001-12-18 | 2006-01-05 | 株式会社ソニー・コンピュータエンタテインメント | Display device, display system and display method for objects in virtual world, and method for setting land price and advertising fee in virtual world where they can be used |
JP2003210834A (en) * | 2002-01-17 | 2003-07-29 | Namco Ltd | Control information, information storing medium, and game device |
JP2003259331A (en) * | 2002-03-06 | 2003-09-12 | Nippon Telegraph & Telephone West Corp | Three-dimensional contents distribution apparatus, three-dimensional contents distribution program, program recording medium, and three-dimensional contents distribution method |
JP2003324522A (en) * | 2002-05-02 | 2003-11-14 | Nippon Telegr & Teleph Corp <Ntt> | Ip/pstn integrated control apparatus, communication method, program, and recording medium |
JP2004021606A (en) * | 2002-06-17 | 2004-01-22 | Nec Corp | Internet service providing system using virtual space providing server |
JP2004046311A (en) * | 2002-07-09 | 2004-02-12 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for gesture input in three-dimensional virtual space |
US20040029625A1 (en) * | 2002-08-07 | 2004-02-12 | Ed Annunziata | Group behavioral modification using external stimuli |
EP1576457A1 (en) * | 2002-11-07 | 2005-09-21 | Personics A/S | Adaptive motion detection interface and motion detector |
JP2004237022A (en) * | 2002-12-11 | 2004-08-26 | Sony Corp | Information processing device and method, program and recording medium |
GB0306875D0 (en) * | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
JP4442117B2 (en) * | 2003-05-27 | 2010-03-31 | ソニー株式会社 | Information registration method, information registration apparatus, and information registration program |
US7725419B2 (en) * | 2003-09-05 | 2010-05-25 | Samsung Electronics Co., Ltd | Proactive user interface including emotional agent |
JP2005100053A (en) * | 2003-09-24 | 2005-04-14 | Nomura Research Institute Ltd | Method, program and device for sending and receiving avatar information |
JP2005216004A (en) * | 2004-01-29 | 2005-08-11 | Tama Tlo Kk | Program and communication method |
US20060013254A1 (en) * | 2004-06-07 | 2006-01-19 | Oded Shmueli | System and method for routing communication through various communication channel types |
JP2006034436A (en) * | 2004-07-23 | 2006-02-09 | Smk Corp | Virtual game system using exercise apparatus |
EP1814292A1 (en) * | 2004-10-08 | 2007-08-01 | Sonus Networks, Inc. | Call handoff between subscriber's multiple devices associated with multiple networks |
WO2006056231A1 (en) * | 2004-11-29 | 2006-06-01 | Nokia Corporation | Mobile gaming with external devices in single and multiplayer games |
JP2006185252A (en) * | 2004-12-28 | 2006-07-13 | Univ Of Electro-Communications | Interface device |
JP2006186893A (en) * | 2004-12-28 | 2006-07-13 | Matsushita Electric Ind Co Ltd | Voice conversation control apparatus |
JP2006211005A (en) * | 2005-01-25 | 2006-08-10 | Takashi Uchiyama | Television telephone advertising system |
JPWO2006080080A1 (en) * | 2005-01-28 | 2008-06-19 | 富士通株式会社 | Telephone management system, telephone management method, and telephone management program |
JP4322833B2 (en) * | 2005-03-16 | 2009-09-02 | 株式会社東芝 | Wireless communication system |
ATE491503T1 (en) * | 2005-05-05 | 2011-01-15 | Sony Computer Entertainment Inc | VIDEO GAME CONTROL USING JOYSTICK |
JP2006004421A (en) * | 2005-06-03 | 2006-01-05 | Sony Corp | Data processor |
US20070002835A1 (en) * | 2005-07-01 | 2007-01-04 | Microsoft Corporation | Edge-based communication |
-
2008
- 2008-02-26 JP JP2009551806A patent/JP2010533006A/en active Pending
- 2008-02-26 EP EP08730776A patent/EP2132650A4/en not_active Ceased
- 2008-02-27 EP EP08726220A patent/EP2118840A4/en not_active Withdrawn
- 2008-02-27 WO PCT/US2008/002630 patent/WO2008108965A1/en active Application Filing
- 2008-02-27 EP EP08726219A patent/EP2118757A4/en not_active Withdrawn
- 2008-02-27 JP JP2009551727A patent/JP2010535364A/en active Pending
- 2008-02-27 JP JP2009551722A patent/JP2010535362A/en active Pending
- 2008-02-27 EP EP08726207A patent/EP2126708A4/en not_active Ceased
- 2008-02-27 JP JP2009551726A patent/JP2010535363A/en active Pending
-
2014
- 2014-02-28 JP JP2014039137A patent/JP5756198B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11185058A (en) * | 1997-11-28 | 1999-07-09 | Internatl Business Mach Corp <Ibm> | Method and system for selecting object |
JP2000311251A (en) * | 1999-02-26 | 2000-11-07 | Toshiba Corp | Device and method for generating animation and storage medium |
JP2000325653A (en) * | 1999-05-19 | 2000-11-28 | Enix Corp | Portable videogame device and storage medium with program stored therein |
JP2001160154A (en) * | 1999-12-02 | 2001-06-12 | Nippon Telegr & Teleph Corp <Ntt> | Avatar display device in virtual space communication system, avatar displaying method and storage medium |
JP2003024628A (en) * | 2001-07-12 | 2003-01-28 | Konami Co Ltd | Character operating program, character operating method and video game device |
JP2004166995A (en) * | 2002-11-20 | 2004-06-17 | Nintendo Co Ltd | Game device and information processor |
JP2004208894A (en) * | 2002-12-27 | 2004-07-29 | Namco Ltd | Game device, game control program and recording medium recording the program |
JP2005216149A (en) * | 2004-01-30 | 2005-08-11 | Ntt Docomo Inc | Mobile communication terminal and program |
JP2006312059A (en) * | 2005-05-05 | 2006-11-16 | Electronic Arts Inc | Analog stick input change against long time button pressing sequence and intuitive input for effecting character action |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10943383B2 (en) | 2017-01-26 | 2021-03-09 | Sony Corporation | Information processing apparatus and information processing method |
US11288854B2 (en) | 2017-01-26 | 2022-03-29 | Sony Corporation | Information processing apparatus and information processing method |
WO2018155303A1 (en) | 2017-02-24 | 2018-08-30 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
US11231591B2 (en) | 2017-02-24 | 2022-01-25 | Sony Corporation | Information processing apparatus, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
EP2126708A1 (en) | 2009-12-02 |
EP2118840A4 (en) | 2010-11-10 |
EP2118757A4 (en) | 2010-11-03 |
JP5756198B2 (en) | 2015-07-29 |
EP2118757A1 (en) | 2009-11-18 |
EP2118840A1 (en) | 2009-11-18 |
EP2132650A2 (en) | 2009-12-16 |
JP2010535363A (en) | 2010-11-18 |
JP2010535362A (en) | 2010-11-18 |
EP2126708A4 (en) | 2010-11-17 |
EP2132650A4 (en) | 2010-10-27 |
JP2010533006A (en) | 2010-10-21 |
WO2008108965A1 (en) | 2008-09-12 |
JP2010535364A (en) | 2010-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5756198B2 (en) | Interactive user-controlled avatar animation | |
US20080215974A1 (en) | Interactive user controlled avatar animations | |
US11317076B2 (en) | Peripheral device having sensors for capturing changes in spatial position | |
US8601379B2 (en) | Methods for interactive communications with real time effects and avatar environment interaction | |
US8961313B2 (en) | Multi-positional three-dimensional controller | |
US8705845B2 (en) | Entertainment device and method of interaction | |
WO2008106197A1 (en) | Interactive user controlled avatar animations | |
KR101308642B1 (en) | Determination of controller three-dimensional location using image analysis and ultrasonic communication | |
US8142288B2 (en) | Base station movement detection and compensation | |
US8393964B2 (en) | Base station for position location | |
CN104010706B (en) | The direction input of video-game | |
US20100060662A1 (en) | Visual identifiers for virtual world avatars | |
JP5665752B2 (en) | Controller with spherical end with configurable mode | |
JP2010531491A (en) | How to change game gearing | |
JP2012510856A (en) | 3D control by multi-positional controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150528 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5756198 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |