JP2014149836A - Interactive user controlled avatar animations - Google Patents

Interactive user controlled avatar animations Download PDF

Info

Publication number
JP2014149836A
JP2014149836A JP2014039137A JP2014039137A JP2014149836A JP 2014149836 A JP2014149836 A JP 2014149836A JP 2014039137 A JP2014039137 A JP 2014039137A JP 2014039137 A JP2014039137 A JP 2014039137A JP 2014149836 A JP2014149836 A JP 2014149836A
Authority
JP
Japan
Prior art keywords
controller
avatar
console
user
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014039137A
Other languages
Japanese (ja)
Other versions
JP5756198B2 (en
Inventor
Harrison Phil
ハリソン フィル
Waugaman Scott
ワーグマン スコット
Gary M Zalewski
エム. ザルースキ ゲイリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Europe Ltd
Sony Interactive Entertainment America LLC
Original Assignee
Sony Computer Entertainment Europe Ltd
Sony Computer Entertainment America LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB0703974.6A external-priority patent/GB0703974D0/en
Priority claimed from GB0704227A external-priority patent/GB2447020A/en
Priority claimed from GB0704225A external-priority patent/GB2447094B/en
Priority claimed from GB0704235A external-priority patent/GB2447095B/en
Priority claimed from GB0704246A external-priority patent/GB2447096B/en
Priority claimed from US11/789,202 external-priority patent/US20080215974A1/en
Application filed by Sony Computer Entertainment Europe Ltd, Sony Computer Entertainment America LLC filed Critical Sony Computer Entertainment Europe Ltd
Publication of JP2014149836A publication Critical patent/JP2014149836A/en
Application granted granted Critical
Publication of JP5756198B2 publication Critical patent/JP5756198B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/406Transmission via wireless network, e.g. pager or GSM
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5506Details of game data or player data management using advertisements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Abstract

PROBLEM TO BE SOLVED: To provide a technique that controls avatars in a virtual space accessed through a computer network.SOLUTION: There is provided a method including a step to capture the activity of a console controller, and a step to process the captured activity of the console controller for identifying an input parameter. Capturing and mapping are continuously executed for the definition of a correlation between the activity of the console controller and an avatar as a virtual space expression of a user.

Description

本発明は、一般にインタラクティブなマルチメディアエンタテインメントに関し、より詳細には、仮想空間におけるインタラクティブなユーザ制御およびユーザの操作表現に関する。   The present invention relates generally to interactive multimedia entertainment, and more particularly to interactive user control and user manipulation representation in virtual space.

ビデオゲーム産業は、長年にわたって多くの変化を経験してきた。演算能力が拡大するにつれ、ビデオゲームの開発者も同様に、この演算能力の増大を利用するゲームソフトウェアを作成してきた。このために、ビデオゲーム開発者は、極めてリアルなゲーム体験を生み出すべく、高度な演算と数学を採用したゲームをコーディングしてきた。   The video game industry has experienced many changes over the years. As computing power has expanded, video game developers have similarly created game software that takes advantage of this increased computing power. To this end, video game developers have been coding games that employ advanced arithmetic and mathematics to create extremely realistic gaming experiences.

ゲームプラットホームの例に、ソニープレイステーションまたはソニープレイステーション2(PS2)があり、これらはそれぞれ、ゲームコンソールの形で販売されている。周知のように、ゲームコンソールはモニタ(通常はテレビ)と接続されて、手持ち式のコントローラによってユーザとのインタラクションを可能にするように設計されている。ゲームコンソールは、CPU、処理量の多いグラフィック操作のためのグラフィックシンセサイザ、ジオメトリ変換を実行するためのベクトル装置などの特化した処理ハードウェアと、その他の繋ぎとなるハードウェア即ちグルーハードウェア、ファームウェアおよびソフトウェアなどを備えて設計される。また、ゲームコンソールは、ゲームコンソールによるローカルプレイを行うためにゲームのコンパクトディスクを受け容れるための光ディスクトレイを備えて設計される。また、ユーザが、インターネット上で他のユーザと対戦して、または、他のユーザと一緒に対話的にプレイすることができるオンラインゲームも可能である。   An example of a game platform is Sony PlayStation or Sony PlayStation 2 (PS2), each sold in the form of a game console. As is well known, game consoles are designed to be connected to a monitor (usually a television) and allow user interaction with a handheld controller. The game console is a specialized processing hardware such as a CPU, a graphic synthesizer for graphic operations with a large amount of processing, a vector device for performing geometry conversion, and other connecting hardware, that is, glue hardware, firmware And designed with software etc. In addition, the game console is designed with an optical disc tray for receiving a game compact disc for local play by the game console. Also possible are online games where the user can play against other users on the Internet or interactively play with other users.

ゲームが複雑であることがプレーヤの興味を引きつけていることから、ゲームおよびハードウェアのメーカは更なるインタラクティブ機能(インタラクティビティ)およびコンピュータプログラムを実現するために革新を続けてきている。コンピュータプログラムの中には、仮想世界を定義するものもある。仮想世界とは、ユーザが1つ以上のコンピュータプロセッサを介してやり取りしうるシミュレートされた環境である。ユーザは、アバターと呼ばれる表現の形でビデオ画面に表示されうる。アバターとシミュレートされた環境間のインタラクションの程度は、シミュレートされた物理現象、ユーザの間での情報の交換などのインタラクションを支配する1つ以上のコンピュータアプリケーションによって実装される。仮想世界のユーザ間のインタラクションの性質は、多くの場合、仮想世界を実装しているシステムの制約によって制限される。   Given the complexity of the game that attracts players' interest, game and hardware manufacturers have continued to innovate to realize additional interactive features and computer programs. Some computer programs define a virtual world. A virtual world is a simulated environment in which users can interact via one or more computer processors. The user can be displayed on the video screen in the form of an expression called an avatar. The degree of interaction between the avatar and the simulated environment is implemented by one or more computer applications that govern the interaction, such as simulated physical phenomena, the exchange of information between users. The nature of interaction between users in the virtual world is often limited by the constraints of the system implementing the virtual world.

本発明の実施形態は、この状況においてなされたものである。   The embodiments of the present invention have been made in this situation.

本明細書に定義される実施形態は、コンピュータ制御されたシステムおよびプログラムが、インタフェース入力を、画面に表示される仮想世界のアニメーションキャラクタの特定の特徴にマップ可能にする。一実施形態では、コントローラ(例えば、ゲームコントローラ)の特定のボタンが、仮想世界のアニメーションキャラクタを定義するアバターの特定の身体部位にマッピングされる。一部の実施形態では、ボタンがアバターの特徴にマッピングされるだけでなく、位置、動き、トリガ、配置およびこれらの組み合わせもマッピングされ、この結果、現実世界のユーザが、画面に表現されるアバターを正確に制御できるようになる。   The embodiments defined herein allow computer-controlled systems and programs to map interface inputs to specific features of virtual world animated characters displayed on the screen. In one embodiment, a particular button on a controller (eg, a game controller) is mapped to a particular body part of the avatar that defines the animated character of the virtual world. In some embodiments, not only buttons are mapped to avatar features, but positions, movements, triggers, placements, and combinations thereof are also mapped, resulting in real-world users being presented on the screen Can be controlled accurately.

下で更に詳しく説明するように、現実世界のユーザは、多くの場所および空間の仮想世界にわたってアバターを制御し、他のアバター(現実世界の他のユーザまたはコンピュータ制御されたボットによって制御されうる)と交流させたり、または、物、物体、環境とインタフェースさせたり、通信動作を起こさせることが可能である。通信動作は、視覚、音声またはこれらの組み合わせの形でアバターに転送される変換マッピングによって、コントローラによって制御されうる。したがって、以下の実施形態は、特定のコントローラ(例えば、ゲームコントローラまたは汎用コンピュータの制御用周辺機器)のボタン、動き(および組み合わせ)を、アバターの特定の身体部位または選択した身体部位、アバターの全身の動き、アバターの体の反応、アバターの顔の反応、アバターの感情などにマップすることによって可能な制御の例として、幅広く考察されるべきである。   As described in more detail below, real-world users control avatars across a virtual world of many places and spaces, and other avatars (which can be controlled by other real-world users or computer-controlled bots) Can be exchanged with each other, or can be interfaced with an object, an object, or the environment, or can perform a communication operation. The communication operation can be controlled by the controller by a transformation mapping that is transferred to the avatar in the form of visual, audio or a combination thereof. Thus, the following embodiments show the buttons, movements (and combinations) of a specific controller (eg, a game controller or general purpose computer control peripheral) to a specific or selected body part of the avatar, the entire body of the avatar. Examples of possible controls by mapping to movement, avatar body reactions, avatar face reactions, avatar emotions, etc. should be considered broadly.

一実施形態では、コンソールを使用してコンピュータネットワークを介してアクセスされる仮想空間においてアバターを制御するための方法が開示される。前記方法は、コンソールコントローラのアクティビティ(例えば活動)をキャプチャするステップと、入力パラメータを特定するために前記コンソールコントローラの前記キャプチャされたアクティビティを処理するステップから始まる。前記方法の次のオペレーションは、前記入力パラメータのうちの選択されたパラメータを、ユーザの仮想空間表現である前記アバターの部分にマップするステップである。前記コンソールコントローラのアクティビティと前記ユーザの前記仮想空間表現である前記アバターとの間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される。   In one embodiment, a method for controlling an avatar in a virtual space accessed via a computer network using a console is disclosed. The method begins with capturing console controller activity (eg, activity) and processing the captured activity of the console controller to identify input parameters. The next operation of the method is the step of mapping selected parameters of the input parameters to the portion of the avatar that is a virtual space representation of the user. To capture the correlation between the console controller activity and the avatar, which is the virtual space representation of the user, the capture, the processing and the mapping are performed sequentially.

別の実施形態では、コンソールを使用してコンピュータネットワークを介してアバターをインタラクティブに制御するための方法が開示される。前記方法は、コンソールコントローラを提供するステップと、前記コンソールコントローラの第1の位置を決定するステップから始まる。前記方法は、前記コンソールコントローラの第2の位置への移動の検出を含む、前記コンソールコントローラへの入力をキャプチャするステップが続く。別のステップは、前記コンソールコントローラへの入力と、前記コンソールコントローラの前記第1の位置と前記第2の位置間の相対運動とを処理するステップである。前記方法の次のステップは、前記コンソールコントローラの前記第1の位置と前記第2の位置間の前記相対運動を、前記アバターのアニメーション表示される体の部分にマップするステップである。前記コンソールコントローラの相対運動と前記アバター間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される。   In another embodiment, a method for interactively controlling an avatar over a computer network using a console is disclosed. The method begins with providing a console controller and determining a first position of the console controller. The method is followed by capturing input to the console controller including detecting movement of the console controller to a second position. Another step is processing the input to the console controller and the relative movement of the console controller between the first position and the second position. The next step in the method is to map the relative movement between the first position and the second position of the console controller to the animated body part of the avatar. In order to define the correlation between the relative movement of the console controller and the avatar, the capture, the processing and the mapping are performed continuously.

更に別の実施形態では、仮想環境内でアバターをインタラクティブに制御するためのコンピュータにより実装された方法が開示される。この実施形態では、コンピュータネットワーク内の少なくとも1つのコンピュータで実行されるコンピュータプログラムが前記アバターおよび前記仮想環境を生成する。前記方法は、前記コンピュータプログラムとインタフェースされているコントローラを提供するステップと、ユーザが前記アバターの選択された部分を制御できるように、コントローラ入力をマップするステップから始まる。前記方法は、コントローラ入力と、第1の位置と第2の位置間のコントローラの移動とをキャプチャするステップが続く。前記方法の次のステップは、前記キャプチャされたコントローラ入力およびコントローラの移動を処理し、前記仮想環境内で前記アバターの前記選択された部分をインタラクティブにアニメーション表示するために前記キャプチャされた移動を適用するステップである。コントローラの移動とアバターアニメーション間の相関を定義するために、前記コントローラ入力およびコントローラの移動のキャプチャおよび前記処理が連続的に実行される。   In yet another embodiment, a computer-implemented method for interactively controlling an avatar in a virtual environment is disclosed. In this embodiment, a computer program executed on at least one computer in a computer network generates the avatar and the virtual environment. The method begins with providing a controller that is interfaced with the computer program and mapping controller inputs so that a user can control selected portions of the avatar. The method is followed by capturing controller input and controller movement between a first position and a second position. The next step of the method is to process the captured controller input and controller movement and apply the captured movement to interactively animate the selected portion of the avatar within the virtual environment. It is a step to do. In order to define the correlation between controller movement and avatar animation, the capture of the controller input and controller movement and the process are performed continuously.

本発明の他の態様および利点は、例示のために本発明の原理を示す添付の図面と併せて、以下の詳細な説明を読めば明らかとなるであろう。   Other aspects and advantages of the present invention will become apparent from the following detailed description, taken in conjunction with the accompanying drawings, illustrating by way of example the principles of the invention.

本発明とその更なる利点とは、添付の図面を参照して以下の記載を読めば、よりよく理解できるであろう。   The invention and further advantages will be better understood when the following description is read with reference to the accompanying drawings.

本発明の一実施形態によるアバター制御システム100を示す概略図である。1 is a schematic diagram illustrating an avatar control system 100 according to an embodiment of the present invention. 本発明の一実施形態による、制御装置108とコンソール110間で動きおよび位置の検出を送信するさまざまな方法を示す概略図である。FIG. 6 is a schematic diagram illustrating various methods of transmitting motion and position detection between the controller 108 and the console 110, according to one embodiment of the present invention. 本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの概略図である。FIG. 3 is a schematic diagram of a user 102a interacting with an avatar control system, according to one embodiment of the present invention. 本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの概略図である。FIG. 3 is a schematic diagram of a user 102a interacting with an avatar control system, according to one embodiment of the present invention. 本発明の一実施形態による、アバターを変化させるコントローラの相対運動のモーションキャプチャの例示的な図である。FIG. 6 is an exemplary diagram of motion capture of relative motion of a controller that changes avatars, according to one embodiment of the invention. 本発明の一実施形態による、アバター制御システムを規定し、これを補うためにコントローラのボタンの選択を使用することができる方法を示すフローチャートである。6 is a flowchart illustrating a method in which controller button selection can be used to define and supplement an avatar control system, in accordance with one embodiment of the present invention. 本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの例示的な図である。FIG. 7 is an exemplary diagram of multiple motion captures of relative motion of a controller that changes avatars, according to one embodiment of the invention. 本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの別の例示的な図である。FIG. 6 is another exemplary diagram of multiple motion captures of relative motion of a controller that changes avatars, in accordance with an embodiment of the present invention. 本発明の一実施形態による、アバターの特定の身体部位を制御するためのコントローラボタンのマッピングを示す概略図である。FIG. 5 is a schematic diagram illustrating mapping of controller buttons for controlling a specific body part of an avatar according to an embodiment of the present invention. 本発明の一実施形態による、アバターアニメーションの表示中のアバターのさまざまな形態での制御を示す概略図である。FIG. 4 is a schematic diagram illustrating control of various forms of an avatar during display of an avatar animation, according to an embodiment of the present invention. 本発明の一実施形態による、アバターの頭部のさまざまな動きの制御を示す概略図である。FIG. 6 is a schematic diagram illustrating control of various movements of the avatar's head, in accordance with an embodiment of the present invention. 本発明の一実施形態による、アバター制御システムを実装するためのコントローラを有するコンソールであるソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスのシステムアーキテクチャ全体を模式的に示す概略図である。1 is a schematic diagram that schematically illustrates the overall system architecture of a Sony® PlayStation 3® entertainment device, which is a console having a controller for implementing an avatar control system, in accordance with an embodiment of the present invention. 本発明の一実施形態によるCellプロセッサ928の概略図である。FIG. 9 is a schematic diagram of a Cell processor 928 according to an embodiment of the present invention.

実世界のユーザが、仮想世界内でアバターの動きおよびアクションを制御できるようにするための発明が開示される。本発明の一実施形態によれば、ユーザは、仮想世界とインタラクトしうる。本明細書で使用する「仮想世界」との用語は、実際のユーザが、1つ以上の表示装置を介して感知しうる、および/または1つ以上のユーザインタフェースを介してインタラクトしうる、1つ以上のプロセッサによってシミュレートされるインタラクションのルールを有する現実または架空の環境の表現を指す。本明細書で使用する「ユーザインタフェース」との用語は、ユーザが仮想世界との間で、入力を送信するか出力を受信することができる実際のデバイスを指す。仮想世界は、1つ以上のプロセッサモジュールによってシミュレートされうる。複数のプロセッサモジュールが、ネットワークを介して相互接続されうる。ユーザは、ネットワークを介して、プロセッサモジュールおよび他のユーザインタフェースデバイスと通信することができるユーザインタフェースデバイスを介して、仮想世界とインタラクトしうる。仮想世界の特定の特徴は、コンピュータモニタ、テレビジョンモニタまたは同様のディスプレイなどのグラフィックディスプレイに、グラフィカルな形式でユーザに提示されうる。仮想世界の他の特定の態様は、グラフィックディスプレイに関連しうるスピーカで可聴形式でユーザに提示されうる。   An invention is disclosed for allowing real-world users to control avatar movements and actions in a virtual world. According to one embodiment of the present invention, the user can interact with the virtual world. As used herein, the term “virtual world” refers to an actual user that can be sensed via one or more display devices and / or interacted via one or more user interfaces. Refers to a representation of a real or fictional environment with rules of interaction that are simulated by one or more processors. As used herein, the term “user interface” refers to an actual device that allows a user to send input to or receive output from the virtual world. The virtual world can be simulated by one or more processor modules. A plurality of processor modules can be interconnected via a network. A user may interact with the virtual world via a user interface device that can communicate with the processor module and other user interface devices via a network. Certain features of the virtual world can be presented to the user in a graphical form on a graphic display such as a computer monitor, television monitor or similar display. Other particular aspects of the virtual world may be presented to the user in an audible form with speakers that may be associated with the graphic display.

仮想世界内では、ユーザはアバターによって表現されうる。仮想世界内の各アバターは、異なるユーザに一意に関連付けられうる。ユーザが互いを容易に特定できるように、ユーザの名前または仮名がアバターの隣に表示されうる。特定のユーザの仮想世界とのインタラクションは、アバターの1つ以上の対応するアクションによって表現されうる。異なるユーザ同士が、自身のアバターを通じて交流しうる。ユーザを表すアバターは、人物、動物または物体と同様の外観をとることができる。人物の形のアバターは、ユーザと性別が同じでも異なっていてもよい。アバターは、ユーザが、仮想世界のほかの物体と共にアバターを見ることができるように、ディスプレイに表示されうる。   Within the virtual world, the user can be represented by an avatar. Each avatar in the virtual world can be uniquely associated with a different user. The user's name or pseudonym can be displayed next to the avatar so that the users can easily identify each other. A particular user's interaction with the virtual world may be represented by one or more corresponding actions of the avatar. Different users can interact through their avatars. An avatar representing a user can have the same appearance as a person, animal or object. The avatar in the form of a person may have the same or different gender as the user. The avatar can be displayed on the display so that the user can see the avatar along with other objects in the virtual world.

別の実施形態では、ディスプレイが、アバターを表示せずに、アバターの視点から世界を表示してもよい。仮想世界上のユーザの(またはアバターの)視点は、仮想カメラの視界とみなすことができる。本明細書で使用する「仮想カメラ」とは、仮想世界内の視点を指し、仮想世界内で三次元シーンの二次元画像を描画するために使用されうる。ユーザ同士が、各ロビーに関連するチャットチャネルによって、自身のアバターを通じて交流しうる。ユーザは、ユーザインタフェースを介して、ほかのユーザとのチャットのためのテキストを入力しうる。このテキストは、例えば、漫画形式の吹き出し(時に「チャット吹き出し」とも呼ばれる)の形式で、ユーザアバターの上またはその隣に表示されうる。このようなチャットは、時に「クイックチャット」と呼ばれる定型表現のチャットシステムを使用して、容易に行うことができる。クイックチャットでは、ユーザは、メニューから1つ以上のチャット表現を選択しうる。ほかの例については、(1)2007年3月1日出願の英国特許出願第0703974.6号「エンターテイメントデバイス(ENTERTAINMENT DEVICE)」;(2)2007年3月5日出願の英国特許出願第0704225.2号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;(3)2007年3月5日出願の英国特許出願第0704235.1号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;(4)2007年3月5日出願の英国特許出願第0704227.8号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;ならびに(5)2007年3月5日出願の英国特許出願第0704246.8号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」も参照され、これらはそれぞれ参照によりここに援用される。   In another embodiment, the display may display the world from the avatar's viewpoint without displaying the avatar. The user's (or avatar's) viewpoint in the virtual world can be regarded as the field of view of the virtual camera. As used herein, a “virtual camera” refers to a viewpoint in a virtual world and can be used to draw a two-dimensional image of a three-dimensional scene in the virtual world. Users can interact through their avatars via chat channels associated with each lobby. The user can enter text for chatting with other users via the user interface. This text can be displayed on or next to the user avatar, for example, in the form of a comic balloon (sometimes also called a “chat balloon”). Such a chat can be easily performed using a chat system of a fixed expression sometimes called “quick chat”. In quick chat, the user may select one or more chat expressions from a menu. Other examples include: (1) British Patent Application No. 0703964.6 filed on March 1, 2007, “ENTERTAINMENT DEVICE”; (2) British Patent Application No. 0704225 filed on March 5, 2007; No. 2 “ENTERTAINMENT DEVICE AND METHOD”; (3) UK Patent Application No. 070425.1 filed March 5, 2007 “ENTERTAINMENT DEVICE AND METHOD”; ) British Patent Application No. 070427.8 filed March 5, 2007, “ENTERTAINMENT DEVICE AND METHOD”; and (5) British Patent Application No. 0704246.8, filed March 5, 2007. See also “ENTERTAINMENT DEVICE AND METHOD” Each of which is incorporated herein by reference.

以下の説明では、本発明を完全に理解できるように、具体的な詳細を数多く記載する。しかし、これらの詳細な内容の一部または全てを用いなくとも本発明を実施しうることは当業者にとって自明である。場合によっては、本発明を不必要にわかりにくくしないように、公知のプロセス操作については詳しく記載しない。   In the following description, numerous specific details are set forth in order to provide a thorough understanding of the present invention. However, it will be apparent to those skilled in the art that the present invention may be practiced without some or all of these details. In some instances, well known process operations have not been described in detail in order not to unnecessarily obscure the present invention.

図1Aは、本発明の一実施形態によるアバター制御システム100を示す概略図である。ユーザ102aが、コンソール110と通信することができるコントローラ108を操作する。一部の実施形態では、コンソール110は、データを保存および取得することができる記憶媒体を備えうる。記憶媒体の種類の例には、磁気記憶装置、光記憶装置、フラッシュメモリ、ランダムアクセスメモリおよびリードオンリーメモリなどがあるが、これらに限定されない。   FIG. 1A is a schematic diagram illustrating an avatar control system 100 according to an embodiment of the present invention. A user 102 a operates a controller 108 that can communicate with the console 110. In some embodiments, the console 110 may comprise a storage medium that can store and retrieve data. Examples of types of storage media include, but are not limited to, magnetic storage devices, optical storage devices, flash memories, random access memories, and read only memories.

また、コンソール110は、イーサネットポートなどのネットワークインタフェースと、IEEE802.11に属する多数の無線ネットワーク規格を含むワイヤレスネットワーク機能も備えうる。コンソール110のネットワークインタフェースにより、ユーザ102aはリモートサーバに接続でき、リモートサーバは、コンソール110の他のユーザとのリアルタイムかつインタラクティブなゲームのプレイ、ソフトウェアアップデート、メディアサービス、およびソーシャルネットワーキングサービスへのアクセスを提供することができる。   The console 110 may also have a network interface such as an Ethernet port and a wireless network function including a number of wireless network standards belonging to IEEE 802.11. The console 110 network interface allows the user 102a to connect to a remote server, which provides real-time and interactive game play, software updates, media services, and social networking services with other users of the console 110. Can be provided.

また、コンソール110は、中央処理装置およびグラフィック処理装置も備えうる。中央処理装置は、記憶媒体から取得された命令を処理するために使用され、グラフィック処理装置は、画面106に表示されるグラフィクスを処理し描画しうる。   The console 110 can also include a central processing unit and a graphics processing unit. The central processing unit is used to process instructions obtained from the storage medium, and the graphic processing unit can process and render graphics displayed on the screen 106.

コンソール110に画面106が接続されている場合、コンソール106は、アバター102bを含む仮想空間104を表示することができる。一実施形態では、仮想空間104は、コンソール110のネットワークインタフェースを使用してアクセスされるリモートサーバに保持されうる。別の実施形態では、仮想空間104の一部がコンソール110に記憶され、ほかの一部がリモートサーバに記憶されてもよい。一部の実施形態では、仮想空間104は、画面106に表示される仮想三次元世界である。仮想空間104は、地形、天候、植物相、動物相、通貨および政治が存在する実世界の仮想表現であってもよい。実世界と同様に、仮想空間104には、都市、郊外および地方の地域が含まれうる。しかし、実世界とは異なり、仮想空間104では、物理学の法則が変わってもよい。上に挙げた仮想空間104の特徴は例示を意図したものであり、制限または限定することを意図したものではない。仮想空間として、シミュレーションおよびモデリングできる範囲は、実世界のあらゆるものを含んでもよく、人の想像力の限界のみによって制限される。   When the screen 106 is connected to the console 110, the console 106 can display the virtual space 104 including the avatar 102b. In one embodiment, the virtual space 104 may be maintained on a remote server that is accessed using the network interface of the console 110. In another embodiment, a portion of virtual space 104 may be stored on console 110 and another portion stored on a remote server. In some embodiments, the virtual space 104 is a virtual three-dimensional world displayed on the screen 106. Virtual space 104 may be a virtual representation of the real world where terrain, weather, flora, fauna, currency and politics exist. Similar to the real world, the virtual space 104 may include urban, suburban and rural areas. However, unlike the real world, the laws of physics may change in the virtual space 104. The features of the virtual space 104 listed above are intended to be illustrative and are not intended to be limiting or limiting. As a virtual space, the range that can be simulated and modeled may include anything in the real world and is limited only by the limits of human imagination.

ユーザは、アバター102bを使用して仮想空間114とインタラクトすることができる。アバター102bは、三次元で描画され、仮想空間104内でユーザ102aをリアルにまたは空想により表現したものとなるように、ユーザ102aによって構成されうる。ユーザ102aは、アバターの複数の形態を完全に制御することができ、これには、髪型、頭の形、目の形、目の色、鼻の形、鼻の大きさ、耳の大きさ、唇の形、唇の色、衣服、履物およびアクセサリなどがあるが、これらに限定されない。別の実施形態では、ユーザ102aは、自分の実際の顔写真を入力することができ、その写真が、三次元のワイヤフレームの頭部と体にマッピングされてもよい。   The user can interact with the virtual space 114 using the avatar 102b. The avatar 102b is drawn in three dimensions, and can be configured by the user 102a so that the user 102a is represented in the virtual space 104 realistically or by fantasy. User 102a has full control over multiple forms of the avatar, including hairstyle, head shape, eye shape, eye color, nose shape, nose size, ear size, Examples include, but are not limited to, lip shape, lip color, clothing, footwear and accessories. In another embodiment, the user 102a can input his / her actual facial photo, which may be mapped to the head and body of a three-dimensional wireframe.

図1Bは、本発明の一実施形態による、制御装置108とコンソール110間で動きおよび位置の検出を送信するさまざまな方法を示す。ユーザ102aは、コントローラ108を使用して仮想空間104内でアバター102bを制御することができる。一実施形態では、コントローラ108は、コンソール110に信号を無線で送信することができる。1台のコンソール110に複数のコントローラを使用することができるため、特定の周波数で無線信号を送信するか、またはブルートゥースなどの無線および通信プロトコルを使用することによって、個々のコントローラ間で干渉を行うことができる。コントローラ108は複数のボタンおよびジョイスティックを備え、これらは、画面メニューから項目を移動したり、選択するなどのさまざまな効果を実現するために、ユーザが操作することができる。同様に、コントローラ108のボタンおよびジョイスティックは、コンソール110によって実行されるコンピュータプログラムの制御形態においてマッピングされ得る。   FIG. 1B illustrates various methods of transmitting motion and position detection between the controller 108 and the console 110 according to one embodiment of the invention. User 102 a can control avatar 102 b in virtual space 104 using controller 108. In one embodiment, the controller 108 can wirelessly send a signal to the console 110. Because multiple controllers can be used in a single console 110, interference occurs between individual controllers by transmitting radio signals at specific frequencies or using radio and communication protocols such as Bluetooth. be able to. The controller 108 includes a plurality of buttons and joysticks that can be manipulated by the user to achieve various effects such as moving and selecting items from the screen menu. Similarly, the buttons and joysticks of the controller 108 can be mapped in the control form of a computer program executed by the console 110.

また、コントローラ108は、x軸、y軸およびz軸での並進および回転を検出することができるモーションセンサも備えうる。一実施形態では、モーションセンサは、コントローラ108の動き、加速および減速を検出することができる慣性センサである。別の実施形態では、ジャイロを使用して、コントローラ108の動きが全ての軸で検出されてもよい。コントローラ108は、処理のためにモーションセンサからコンソール110にデータを無線で送信することができ、この結果、画面にアクションが表示される。   The controller 108 can also include a motion sensor that can detect translation and rotation in the x, y, and z axes. In one embodiment, the motion sensor is an inertial sensor that can detect the movement, acceleration and deceleration of the controller 108. In another embodiment, a gyro may be used to detect controller 108 movement in all axes. The controller 108 can wirelessly transmit data from the motion sensor to the console 110 for processing, which results in the action being displayed on the screen.

また、コントローラ108の視覚的検出を提供するのを支援するために、カメラ112も、コンソール110に接続されうる。一実施形態では、コントローラ108に配置されているカメラ112とLEDが、コンソール110に、コントローラ108の視覚的検出を提供する。LEDは、可視スペクトル内または可視スペクトル外の光を発することができ、アレイとしてコントローラに一体化されていてもよく、コントローラが、カメラ112から軸を外れているかどうかを判定するのを支援する。別の実施形態では、LEDが、コントローラ108にモジュールとして取り付けられてもよい。   A camera 112 may also be connected to the console 110 to assist in providing visual detection of the controller 108. In one embodiment, a camera 112 and LEDs located on the controller 108 provide the console 110 with visual detection of the controller 108. The LEDs can emit light in or out of the visible spectrum and may be integrated into the controller as an array to help the controller determine if it is off axis from the camera 112. In another embodiment, the LEDs may be attached to the controller 108 as a module.

カメラ112は、LEDが発した光を受光するように構成され、コンソール110は、カメラ112に対するLEDの変化に基づいてコントローラ108の移動を計算することができる。更に、複数のコントローラが1台のコンソール110に関連している実施形態では、個々の点滅パターンまたは光の周波数を使用して、異なるコントローラのLED同士を区別することができる。   The camera 112 is configured to receive light emitted by the LEDs, and the console 110 can calculate the movement of the controller 108 based on the changes in the LEDs relative to the camera 112. Further, in embodiments where multiple controllers are associated with a single console 110, individual blink patterns or light frequencies can be used to distinguish between LEDs of different controllers.

別の実施形態では、カメラ112は、カメラ112とコントローラ108間の距離を決定するのを支援することができる深度カメラである。一部の実施形態では、深度カメラは、最大スキャン深度を有しうる。この状況では、深度値は、最大スキャン深度内の物体に対してのみ計算される。図1Bに示すように、カメラ112はZの最大スキャン深度を有する。コントローラ108は最大スキャン深度内に入っているため、カメラ112とコントローラ108間の距離を計算することができる。更に別の実施形態では、動きおよび位置の検出の精度を上げるために、慣性センサ、LEDの検出および深度カメラの組み合わせが使用されてもよい。一実施形態では、カメラ112が、コンソール110と一体化されてもよい。別の実施形態では、カメラ112が、コンソール110とは独立して配置されてもよい。   In another embodiment, camera 112 is a depth camera that can assist in determining the distance between camera 112 and controller 108. In some embodiments, the depth camera may have a maximum scan depth. In this situation, depth values are calculated only for objects within the maximum scan depth. As shown in FIG. 1B, the camera 112 has a maximum scan depth of Z. Since the controller 108 is within the maximum scan depth, the distance between the camera 112 and the controller 108 can be calculated. In yet another embodiment, a combination of inertial sensor, LED detection and depth camera may be used to increase the accuracy of motion and position detection. In one embodiment, the camera 112 may be integrated with the console 110. In another embodiment, the camera 112 may be placed independently of the console 110.

図2は、本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの図を示す。ユーザ102aは、コントローラ108を持ち、腰を曲げて図示されている。ユーザ102aが腰を曲げると、コントローラ108は、最初の実質的に水平な位置から、図2に示す位置まで下にピッチ運動される。オペレーション120において、コントローラ108の下方ピッチ運動がモーションキャプチャシステムによってキャプチャされうる。オペレーション122において、コンソールによってコンピュータ解析が実行され、コントローラ108のモーションキャプチャが、アバター102bの特定の身体部位にマッピングされる。オペレーション124は、アバター102bのアニメーションを描画し、これがコンソールから画面106に出力されうる。   FIG. 2 shows a diagram of a user 102a interacting with an avatar control system, according to one embodiment of the present invention. The user 102a has the controller 108 and is shown with his waist bent. As the user 102a bends, the controller 108 is pitched down from the initial substantially horizontal position to the position shown in FIG. In operation 120, the downward pitch motion of the controller 108 may be captured by the motion capture system. In operation 122, computer analysis is performed by the console and the motion capture of the controller 108 is mapped to a specific body part of the avatar 102b. Operation 124 draws an animation of avatar 102b, which may be output from console to screen 106.

図2に示すように、コントローラ108のモーションキャプチャはアバター102bの腰にマッピングされ得る。別の実施形態では、コントローラ108の動きのモーションキャプチャが、脚、腕、手および頭部などの、アバター102bの異なる身体部位にマッピングされてもよい。更に別の実施形態では、コントローラ108からのモーションキャプチャが、ほかの形式のユーザ入力と組み合わされて、アバター102bが変化されてもよい。例えば、ユーザ102aが発話すると、マイクロフォンとカメラシステムがモニタに使用され、この結果、アバター102bの口のアニメーションが表示されてもよい。また、ユーザ102aは、コントローラ108にあるボタンを使用して、アバター102bのリアクションおよび動きを変更およびカスタマイズすることもできる。   As shown in FIG. 2, the motion capture of the controller 108 may be mapped to the waist of the avatar 102b. In another embodiment, motion capture of the movement of the controller 108 may be mapped to different body parts of the avatar 102b, such as legs, arms, hands and head. In yet another embodiment, motion capture from the controller 108 may be combined with other forms of user input to change the avatar 102b. For example, when the user 102a speaks, the microphone and camera system may be used for the monitor, and as a result, the animation of the mouth of the avatar 102b may be displayed. The user 102a can also use buttons on the controller 108 to change and customize the reaction and movement of the avatar 102b.

図3は、本発明の一実施形態による、アバター制御システムとインタラクトしているユーザ102aの図を示す。この実施形態では、ユーザ102が、コントローラ108を、最初の実質的に水平な位置から、図3に示す位置まで下にピッチ運動して図示されている。図2と同様に、オペレーション120において、コントローラの下方ピッチ運動がモーションキャプチャシステムによってキャプチャされうる。オペレーション122は、モーションキャプチャのコンピュータ解析を実行し、オペレーション124は、モーションキャプチャをアバター102bにレンダリングしうる。   FIG. 3 shows a diagram of a user 102a interacting with an avatar control system, according to one embodiment of the present invention. In this embodiment, the user 102 is shown pitching the controller 108 down from the initial substantially horizontal position to the position shown in FIG. Similar to FIG. 2, in operation 120, the controller's downward pitch motion may be captured by the motion capture system. Operation 122 performs a computer analysis of the motion capture, and operation 124 may render the motion capture to the avatar 102b.

図2と図3を比較すると、コントローラの相対運動のモーションキャプチャにより、アバター102bを変化させることができることが示される。図2では、ユーザ102が腰を曲げると、モーションキャプチャシステムがコントローラ108の位置の変化を検出しうる。図3では、ユーザ102aの手首の動きにより、コントローラ108が下にピッチ運動されうる。ユーザ102aが行う身体の動きは異なるが、コントローラ108の下方ピッチ運動が、コントローラによってキャプチャされ分析される相対動きである。このため、コントローラ108に同じ相対運動を生じさせるユーザ102aの異なる身体の動きが、同じアバター身体部位にマッピングされると、アバター102bに同様のアニメーションを生じさせる。   Comparison of FIG. 2 and FIG. 3 shows that motion capture of the relative motion of the controller can change the avatar 102b. In FIG. 2, when the user 102 bends, the motion capture system may detect a change in the position of the controller 108. In FIG. 3, the controller 108 can be pitched downward by the wrist movement of the user 102a. Although the body movement performed by the user 102a is different, the downward pitch movement of the controller 108 is a relative movement that is captured and analyzed by the controller. Thus, when different body movements of the user 102a causing the controller 108 to cause the same relative motion are mapped to the same avatar body part, the avatar 102b is caused to have a similar animation.

図4Aは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動のモーションキャプチャの例示的な図である。この実施形態では、アバター102bはモーションキャプチャ前の表示を表し、アバター102b’は、モーションキャプチャビュー後の表示を表す。初期状態では、コントローラ108を持っているユーザ102aが、アバター102bによって表現されている。ユーザ102aが、コントローラ108を、ユーザ102aの右に90°ヨー運動させると、コントローラ108の相対運動のモーションキャプチャが分析され、アバター102bに適用される。この実施形態では、コントローラ108の動きがアバター102bの全身にマッピングされ、コントローラ108の90°のヨー運動によりアバター102b’が表示される。   FIG. 4A is an exemplary diagram of motion capture of relative motion of a controller that changes avatars, in accordance with one embodiment of the present invention. In this embodiment, avatar 102b represents the display before motion capture, and avatar 102b 'represents the display after motion capture view. In the initial state, the user 102a having the controller 108 is represented by an avatar 102b. When the user 102a causes the controller 108 to yaw 90 ° to the right of the user 102a, the motion capture of the relative motion of the controller 108 is analyzed and applied to the avatar 102b. In this embodiment, the movement of the controller 108 is mapped to the whole body of the avatar 102b, and the avatar 102b 'is displayed by the 90 ° yaw movement of the controller 108.

図4Bは、本発明の一実施形態による、アバター制御システムを規定し、これを補うためにコントローラのボタンの選択を使用することができる方法を示すフローチャートである。上で説明したように、コントローラのさまざまな相対運動によって、アバターの異なる特徴を制御することができる。アバターのインタラクティビティおよび現実性を向上させるためには、ユーザが、自身のアバターの表情、手のジェスチャ、ならびに他の特徴、表現、および感情を制御できるようにすることが有利でありうる。このレベルのアバター制御を実現するために、コントローラの相対運動のモーションキャプチャ以外の補助的な入力が使用されてもよい。枚挙にいとまがないアバターの表現および感情のバリエーションを、選択、制御および操作するために、コントローラのボタンをマップすることができる。図5のフローチャートは、アバター制御システムを規定し、これを補うためにコントローラのボタンの選択を使用することができる方法を示す。オペレーション500において、モーション検出システムが、コントローラの最初の位置を検出する。次に、コントローラの最初の位置に対するコントローラの動きを検出するオペレーション502が続く。オペレーション504において、コントローラのいずれかのボタンが選択されたかどうかが判定される。オペレーション506において、コントローラのボタンの選択とコントローラの相対運動のコンピュータ解析が行われる。次に、コントローラの動きおよびボタンの選択がアバターにマップされるオペレーション508が続く。   FIG. 4B is a flowchart illustrating a method by which the selection of buttons on the controller can be used to define and supplement an avatar control system according to one embodiment of the present invention. As explained above, different features of the avatar can be controlled by various relative movements of the controller. In order to improve the avatar's interactivity and reality, it may be advantageous to allow the user to control their avatar's facial expressions, hand gestures, and other features, expressions, and emotions. In order to achieve this level of avatar control, auxiliary inputs other than motion capture of the controller's relative motion may be used. Controller buttons can be mapped to select, control and manipulate avatar expressions and emotional variations that are endless. The flowchart of FIG. 5 illustrates how an avatar control system can be defined and the selection of buttons on the controller can be used to supplement this. In operation 500, the motion detection system detects the initial position of the controller. This is followed by operation 502 which detects controller movement relative to the initial position of the controller. In operation 504, it is determined whether any button on the controller has been selected. In operation 506, computer button selection and relative motion of the controller are performed. This is followed by operation 508 in which controller movements and button selections are mapped to avatars.

図5Aは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの例示的な図である。ユーザ102aは、コントローラ108に下方ピッチ運動を行うことによって、動きAを行う。動きAのモーションキャプチャは、アバター102bの腰にマッピングされており、この結果、アバター102bが腰を曲げる。ユーザ102aは、動きBを行って、コントローラを実質的に水平な位置まで上にピッチ運動させ、コントローラをユーザの右にロール運動させながら、コントローラをユーザの右にヨー運動させる。この実施形態では、コントローラのヨー運動は、アバターが向いている方向にマッピングされている。このため、ユーザの右に対するヨー運動により、アバター102bが、正面を向くように回り、アバター102b'で表示される。上で説明したように、この実施形態では、コントローラ108のピッチ運動はアバターの腰の動きにマッピングされている。このため、動きBが行われると、コントローラ108の実質的に水平な位置への上方ピッチ運動により、アバターが、アバター102bの屈曲位置からアバター102b’の直立位置に動く。この実施形態では、コントローラ108のロール運動は、アバターが腰から体を傾ける動きにマッピングされており、コントローラのユーザの右へのロール運動により、アバターの右に体を傾けたアバター102b’が表示される。   FIG. 5A is an exemplary illustration of multiple motion captures of relative motion of a controller that changes avatars, in accordance with one embodiment of the present invention. The user 102a performs the motion A by performing a downward pitch motion on the controller 108. The motion capture of the motion A is mapped to the waist of the avatar 102b. As a result, the avatar 102b bends the waist. User 102a performs motion B to pitch the controller up to a substantially horizontal position and roll the controller to the user's right while yawing the controller to the user's right. In this embodiment, the yaw movement of the controller is mapped in the direction the avatar is facing. For this reason, the avatar 102b turns to face the front by the yaw movement of the user to the right, and is displayed as the avatar 102b ′. As explained above, in this embodiment, the pitch movement of the controller 108 is mapped to the avatar's hip movement. Therefore, when the movement B is performed, the avatar moves from the bent position of the avatar 102b to the upright position of the avatar 102b 'by the upward pitch movement of the controller 108 to the substantially horizontal position. In this embodiment, the roll motion of the controller 108 is mapped to the motion of the avatar tilting from the waist, and the avatar 102b ′ tilted to the right of the avatar is displayed by the roll motion of the controller user to the right. Is done.

図5Bは、本発明の一実施形態による、アバターを変化させるコントローラの相対運動の複数のモーションキャプチャの別の例示的な図である。ユーザは、コントローラ108に下方ピッチ運動を行うことによって、動きAを行う。動きAのモーションキャプチャは、アバター102bの腰にマッピングされており、この結果、アバター102bが腰を曲げる。ユーザ102a’は、コントローラ108を実質的に水平位置に戻さずに、動きBを行う。ユーザ102a’は、動きBを行って、コントローラをユーザの左にロール運動させる。この実施形態では、コントローラをロール運動させると、アバター102bがアバターの左に傾く。このため、動きAと動きBの組み合わせにより、アバター102bは、前に腰を曲げ、アバターの左に傾く。コントローラ108は加減速を測定することができるセンサを備えているため、アバター102bのアニメーションは、ユーザ102a/a’によるコントローラ108の実際の動きと相関しうる。   FIG. 5B is another exemplary diagram of multiple motion captures of relative motion of a controller that changes avatars, in accordance with one embodiment of the present invention. The user performs motion A by performing a downward pitch motion on the controller 108. The motion capture of the motion A is mapped to the waist of the avatar 102b. As a result, the avatar 102b bends the waist. User 102a 'performs motion B without returning controller 108 to a substantially horizontal position. User 102a 'performs motion B to roll the controller to the left of the user. In this embodiment, when the controller is rolled, the avatar 102b tilts to the left of the avatar. For this reason, the combination of the movement A and the movement B causes the avatar 102b to bend forward and tilt to the left of the avatar. Since the controller 108 includes a sensor capable of measuring acceleration / deceleration, the animation of the avatar 102b can be correlated with the actual movement of the controller 108 by the user 102a / a '.

図6は、本発明の一実施形態による、アバターの特定の身体部位を制御するためのコントローラボタンのマッピングを示す。コントローラ108は、DU、DR、DDおよびDLで示す、デジタルコントロールパッドを含む各種ボタンを備えうる。また、コントローラは、LS1およびLS2を含む左肩ボタン108aも備えうる。同様に、右肩ボタン108bには、RS1およびRS2が含まれる。コントローラ108はアナログスティックALおよびARも備え、アナログスティックも押下時にボタンとして機能することができる。また、コントローラは、図6に□、△、○およびXで示す選択ボタンも備えうる。コントローラ108の説明に特定の名称と記号を使用したが、名称は例示であり、限定を意図したものではない。   FIG. 6 illustrates a mapping of controller buttons for controlling a specific body part of an avatar according to one embodiment of the present invention. The controller 108 may include various buttons including a digital control pad, indicated by DU, DR, DD and DL. The controller may also include a left shoulder button 108a that includes LS1 and LS2. Similarly, the right shoulder button 108b includes RS1 and RS2. The controller 108 also includes analog sticks AL and AR, and the analog stick can also function as a button when pressed. The controller may also include selection buttons indicated by □, Δ, ○, and X in FIG. Although specific names and symbols have been used to describe the controller 108, the names are exemplary and are not intended to be limiting.

一実施形態では、コントローラ108の各種ボタンが、アバターの特定の身体部位の制御を有効にするためにマッピングされ得る。アバターのマッピング600に示すように、ARの押下により、ユーザがアバターの頭部を制御できるようになる。ユーザは、RS1またはRS2の押下により、アバターの右腕または右脚をそれぞれ制御することができる。同様に、LS1とLS2は、アバターの左腕と左脚を制御するためにそれぞれマッピングされる。ユーザは、アバターのさまざまな部位を制御することが可能であるほか、事前にレンダリングされているアバターアニメーションを開始および変更することができる。ユーザは、1つのボタンまたは複数のボタンを押すか、コントローラを1回または複数回移動させるか、またはボタン押下のシーケンスとコントローラの移動を組み合わせることにより、アバターアニメーションを開始することができる。   In one embodiment, the various buttons of the controller 108 may be mapped to enable control of specific body parts of the avatar. As shown in the avatar mapping 600, pressing the AR allows the user to control the head of the avatar. The user can control the right arm or the right leg of the avatar by pressing RS1 or RS2. Similarly, LS1 and LS2 are mapped to control the left arm and left leg of the avatar, respectively. The user can control various parts of the avatar and can start and modify pre-rendered avatar animations. The user can initiate an avatar animation by pressing a button or buttons, moving the controller one or more times, or combining the button press sequence and controller movement.

ダンスアニメーション601に示すように、アバターアニメーションは、各種状態のシーケンスであると考えることができる。一実施形態では、状態1 602は、ユーザアバターが、休止位置またはダンスアニメーションの開始前の位置にいる。状態2 604は、ダンスアニメーションの開始直後のアバターの状態であると考えることができる。この実施形態では、アバターは左に傾いている。ダンスアニメーション601の最終状態の状態3 606では、ユーザのアバターが、右に傾き、右腕を挙げている。ダンスアニメーション601はアバターのさまざまな状態を示すことを意図したものであるため、各種状態間の遷移フレームは図示されていない。各種状態間でアバターのアニメーションをスムーズに表示するためにフレームが更に必要となりうることは、当業者にとって明らかであろう。ダンスアニメーション601は例示であり、限定を意図したものではないため、アバターアニメーションの別の実施形態では状態の数が増減してもよい。   As shown in the dance animation 601, the avatar animation can be considered as a sequence of various states. In one embodiment, state 1 602 indicates that the user avatar is in a rest position or a position before the start of the dance animation. State 2 604 can be considered to be the state of the avatar immediately after the start of the dance animation. In this embodiment, the avatar is tilted to the left. In state 3 606 of the final state of the dance animation 601, the user's avatar tilts to the right and raises his right arm. Since the dance animation 601 is intended to show various states of the avatar, transition frames between various states are not shown. It will be apparent to those skilled in the art that additional frames may be needed to smoothly display the avatar's animation between the various states. Since the dance animation 601 is an example and is not intended to be limiting, the number of states may increase or decrease in other embodiments of avatar animation.

上で説明したように、コントローラ108は並進および回転の運動の加速および減速を3軸で検出することができる。これによりユーザは、コントローラの並進および回転の運動の実際の加速および減速などのユーザ入力に基づいて、アニメーションの方向を伴った動きおよびアバターのレートアニメーションをインタラクティブに制御できるようになる。更に、アバターの特定の身体部位の制御を有効にするコントローラボタンのマッピングにより、ユーザは、インタラクティブにアニメーション表示させるアバターの1つ以上の身体部位を指定できるようになる。このように、ユーザがアバターの特定の身体部位のアニメーションを直接制御するため、ユニークなアバターアニメーションが得られる。ユーザからの直接制御に反応するアバターアニメーションは、ほかのアバターアニメーション形式にあるような、事前にマッピング、事前に定義、および事前にレンダリングされているアバターアニメーションとは異なる。   As explained above, the controller 108 can detect translation and rotational motion acceleration and deceleration in three axes. This allows the user to interactively control the movement with the direction of the animation and the rate animation of the avatar based on user input such as the actual acceleration and deceleration of the translation and rotation motion of the controller. In addition, the mapping of controller buttons that enable control of a particular body part of the avatar allows the user to specify one or more body parts of the avatar to be interactively animated. Thus, since the user directly controls the animation of a specific body part of the avatar, a unique avatar animation is obtained. Avatar animations that respond to direct control from the user are different from avatar animations that are pre-mapped, pre-defined, and pre-rendered, as in other forms of avatar animation.

例えば、一部のシステムでは、ゲーム中でアニメーションキャラクタの制御が可能なものがあるが、一実施形態では、ここに開示の、コントローラの動き、コントローラ入力およびコントローラの位置をアバターの特定の部位にマッピングすることにより、制御するアバターの特徴、制御の程度、およびこのような制御のアニメーション表示するアバターへの適用を詳細に指定できるようになる。更に、アバターキャラクタは、特定の予め定められたゲーム、ゲームシーン、あるいは環境またはゲームレベルの経験に拘束されることがない。例えば、現実世界のユーザによって制御されるアバターは、訪れる場所、インタラクトする物、見る物および享受する体験を定めることが可能である。現実世界のユーザによって定義される、コントローラのアクティビティによって指示される入力の要求に応じて、仮想環境でのアバターの体験、動き、リアクションおよび体の移動が作り出される。   For example, some systems allow control of animated characters in the game, but in one embodiment, the controller movement, controller input, and controller position disclosed herein can be assigned to specific parts of the avatar. By mapping, it becomes possible to specify in detail the characteristics of the avatar to be controlled, the degree of control, and the application of such control to the avatar to be animated. Furthermore, the avatar character is not bound by a specific predetermined game, game scene, or environment or game level experience. For example, avatars controlled by real-world users can define places to visit, things to interact with, things to see and experiences to enjoy. In response to requests for input dictated by controller activity, defined by real-world users, avatar experiences, movements, reactions and body movements in a virtual environment are created.

図7は、本発明の一実施形態による、アバターアニメーションの表示中のアバターのさまざまな形態や特徴の制御を示す。状態700において、画面106でアバターのダンスのアニメーションの状態1 602を開始するために、コントローラ108によるボタン押下の組み合わせが使用されうる。状態700に示すように、コントローラ108は実質的に水平な位置にある。状態702において、ユーザは、アバターの左腕を制御するために、LS1を押したままにする。このため、ユーザがコントローラ108を上にピッチ運動させると、画面106でアバターの左腕が状態604aに示す位置に上がる。状態704に移り、ユーザはLS1を押し続けたまま、コントローラ108を実質的に水平の位置に下にピッチ運動させる。コントローラが下にピッチ運動されると、画面106で、アバターの左腕は状態606aに示す位置に降ろされる。   FIG. 7 illustrates control of various forms and features of an avatar during display of an avatar animation according to an embodiment of the present invention. In state 700, a combination of button presses by controller 108 may be used to initiate state 1 602 of an avatar dance animation on screen 106. As shown in state 700, controller 108 is in a substantially horizontal position. In state 702, the user holds down LS1 to control the avatar's left arm. For this reason, when the user pitches the controller 108 upward, the left arm of the avatar goes up to the position shown in the state 604a on the screen 106. Moving to state 704, the user pitches controller 108 down to a substantially horizontal position while holding LS1. When the controller is pitched down, on screen 106, the avatar's left arm is lowered to the position shown in state 606a.

別の実施形態では、ユーザが、アバターの選択された部位に対応するボタンを押してから離せば、ボタンを次に押すまで、アバターのその部位の制御を続けることができる。ユーザがアバターのどの部位を制御しているかを特定しやすいように、画面106でアバターの制御されている部分をハイライト表示することが可能である。このハイライト表示は、アバターを制御しているユーザに対してのみ表示され、仮想空間の他のユーザからは見えなくてもよい。   In another embodiment, if the user presses and releases the button corresponding to the selected portion of the avatar, control of that portion of the avatar can continue until the button is pressed next time. In order to easily identify which part of the avatar the user is controlling, it is possible to highlight the part where the avatar is controlled on the screen 106. This highlight display is displayed only for the user who is controlling the avatar and may not be visible to other users of the virtual space.

図8は、本発明の一実施形態による、アバターの頭部のさまざまな動きの制御を示す。状態800は、右のアナログスティックボタン(AR)を押したまま、コントローラ108をヨー運動させると、アバターの頭部が回る様子を示す。このため、状態800でアバター制御を実施しているユーザは、言葉を使わずに「いいえ」を伝えるために、アバターの頭を横に振ることが可能である。逆に、状態802では、ユーザがARを押したままコントローラ108を上下にピッチ運動させると、言葉を使わずに「はい」を伝えるために、アバターの頭を上下に振ってうなずくことができる。状態804において、ARを押したままコントローラ108を左右にロール運動させると、アバターの頭が左右に傾く。ヨー、ピッチおよびロールから選択されるユーザ入力コントローラの組み合わせに基づいて、アバターの頭部が複合的な動きをできることが、当業者にとって明らかであろう。同様に、ヨー、ピッチおよびロールに基づく複合的な動きは、アバターアニメーションの他の特徴にもマップすることができる。   FIG. 8 illustrates the control of various movements of the avatar's head, according to one embodiment of the present invention. State 800 shows the avatar's head turning when the controller 108 is yawed while the right analog stick button (AR) is pressed. For this reason, the user who is performing the avatar control in the state 800 can shake the avatar's head sideways in order to convey “no” without using words. Conversely, in state 802, if the user pitches the controller 108 up and down while holding down AR, the avatar's head can be swung up and down to convey “yes” without using words. In state 804, if the controller 108 is rolled to the left or right while pressing AR, the head of the avatar tilts to the left or right. It will be apparent to those skilled in the art that the avatar's head can be compounded based on a combination of user input controllers selected from yaw, pitch and roll. Similarly, complex movements based on yaw, pitch and roll can also be mapped to other features of avatar animation.

図9は、本発明の一実施形態による、アバター制御システムを実装するためのコントローラを有するコンソールであるソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスのシステムアーキテクチャ全体を模式的に示す。システムユニット900は、システムユニット900に接続可能なさまざまな周辺機器を備える。システムユニット900は、Cellプロセッサ928、Rambus(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット926、専用のビデオランダムアクセスメモリ(VRAM)ユニット932を有するReality Synthesizerグラフィックユニット930、およびI/Oブリッジ934を備える。また、システムユニット900は、I/Oブリッジ934を介してアクセス可能な、ディスク940aおよび着脱可能なスロットインハードディスクドライブ(HDD)936から読み出すためのブルーレイ(登録商標)ディスクBD−ROM(登録商標)光ディスクリーダ940も備える。任意選択で、システムユニット900は、同様にI/Oブリッジ934を介してアクセス可能な、コンパクトフラッシュメモリカード、メモリースティック(登録商標)メモリカードなどを読み出すためのメモリカードリーダ938も備える。   FIG. 9 schematically illustrates the overall system architecture of a Sony® PlayStation 3® entertainment device, which is a console having a controller for implementing an avatar control system, according to one embodiment of the present invention. The system unit 900 includes various peripheral devices that can be connected to the system unit 900. The system unit 900 includes a Cell processor 928, a Rambus® dynamic random access memory (XDRAM) unit 926, a Reality Synthesizer graphic unit 930 having a dedicated video random access memory (VRAM) unit 932, and an I / O bridge 934. Prepare. The system unit 900 also has a Blu-ray (registered trademark) disk BD-ROM (registered trademark) for reading from the disk 940 a and a removable slot-in hard disk drive (HDD) 936 accessible via the I / O bridge 934. An optical disk reader 940 is also provided. Optionally, the system unit 900 also includes a memory card reader 938 for reading a compact flash memory card, memory stick® memory card, etc., which is also accessible via the I / O bridge 934.

また、I/Oブリッジ934は、6つのユニバーサルシリアルバス(USB)2.0ポート924、ギガビットイーサネットポート922、IEEE 802.11b/g無線ネットワーク(Wi−Fi)ポート920、および最大7つのブルートゥース接続に対応可能なブルートゥース(登録商標)無線リンクポート918にも接続している。   The I / O bridge 934 also includes six universal serial bus (USB) 2.0 ports 924, a Gigabit Ethernet port 922, an IEEE 802.11b / g wireless network (Wi-Fi) port 920, and up to seven Bluetooth connections. Is also connected to a Bluetooth (registered trademark) wireless link port 918 capable of supporting the above.

動作時に、I/Oブリッジ934は、1つ以上のゲームコントローラ902からのデータを含む、全ての無線、USB、およびイーサネットのデータを処理する。例えば、ユーザがゲームをプレイ中に、I/Oブリッジ934はブルートゥースリンクを介してゲームコントローラ902からデータを受信して、これをCellプロセッサ928に転送し、Cellプロセッサ928が適宜ゲームの現在の状態を更新する。   In operation, the I / O bridge 934 processes all wireless, USB, and Ethernet data, including data from one or more game controllers 902. For example, while the user is playing a game, the I / O bridge 934 receives data from the game controller 902 via the Bluetooth link and forwards it to the Cell processor 928, which in turn, may Update.

また、無線、USB、およびイーサネットの各ポートを介して、ゲームコントローラ902のほかに、他の周辺機器も接続することが可能となる。このような周辺機器には、例えば、リモコン904、キーボード906、マウス908、ソニープレイステーションポータブル(登録商標)エンターテイメントデバイスなどのポータブルエンターテイメントデバイス910、EyeToy(登録商標)ビデオカメラ912などのビデオカメラ、マイクロフォンヘッドセット914などがある。このため、これらの周辺機器は、原則としてシステムユニット900に無線で接続されうる。例えば、ポータブルエンターテイメントデバイス910はWi−Fiアドホック接続を介して通信し、マイクロフォンヘッドセット914はブルートゥースリンクを介して通信しうる。   In addition to the game controller 902, other peripheral devices can be connected via the wireless, USB, and Ethernet ports. Examples of such peripheral devices include a remote control 904, a keyboard 906, a mouse 908, a portable entertainment device 910 such as a Sony PlayStation Portable (registered trademark) entertainment device, a video camera such as an EyeToy (registered trademark) video camera 912, and a microphone head. There is a set 914 and the like. Therefore, these peripheral devices can be wirelessly connected to the system unit 900 in principle. For example, portable entertainment device 910 may communicate over a Wi-Fi ad hoc connection and microphone headset 914 may communicate over a Bluetooth link.

これらのインタフェースを提供することにより、プレイステーション3デバイスは、デジタルビデオレコーダ(DVR)、セットトップボックス、デジタルカメラ、ポータブルメディアプレーヤ、VoIP電話、携帯電話、プリンタ、およびスキャナなどの他の周辺機器と場合によっては互換となりうる。   By providing these interfaces, the PlayStation 3 device can be used with other peripherals such as digital video recorders (DVR), set-top boxes, digital cameras, portable media players, VoIP phones, cell phones, printers, and scanners. Some can be compatible.

更に、USBポート924を介して旧式メモリカードリーダ916をシステムユニットに接続することができ、プレイステーション(登録商標)デバイスまたはプレイステーション2(登録商標)で用いられていたタイプのメモリカード948の読み出しが可能となる。   In addition, an old-style memory card reader 916 can be connected to the system unit via the USB port 924, and the type of memory card 948 used in the PlayStation® device or PlayStation 2® can be read. It becomes.

本実施形態では、ゲームコントローラ902は、ブルートゥースリンクを介してシステムユニット900と無線通信するように動作可能である。しかし、その代わりに、ゲームコントローラ902が、USBポートに接続されてもよく、これにより、ゲームコントローラ902のバッテリに充電するための電力も供給する。ゲームコントローラは、1つ以上のアナログジョイスティックおよび従来の制御ボタンを有するほか、各軸の並進運動および回転に対応する6自由度の移動を感知する。したがって、従来のボタンまたはジョイスティックコマンドのほかに、またはこれらの代わりに、ゲームコントローラのユーザが行ったジェスチャおよび移動が、ゲームへの入力として変換されうる。任意選択で、プレイステーションポータブルデバイスなどの他の無線対応の周辺機器をコントローラとして使用することができる。プレイステーションポータブルデバイスの場合、追加のゲーム情報または制御情報(例えば制御命令またはライブの数)が、当該デバイスの画面に提示されうる。ほかの代替的または補助的な制御装置が使用されてもよく、これには、ダンスマット(図示せず)、ライトガン(図示せず)、ハンドルおよびペダル(図示せず)、あるいは、即答クイズゲームのための1つまたは複数の大型のボタン(これも図示なし)などの特注品のコントローラなどがある。   In this embodiment, the game controller 902 is operable to communicate wirelessly with the system unit 900 via a Bluetooth link. However, instead, the game controller 902 may be connected to a USB port, which also provides power to charge the battery of the game controller 902. The game controller has one or more analog joysticks and conventional control buttons, as well as sensing six degrees of freedom movement corresponding to the translation and rotation of each axis. Thus, in addition to or instead of conventional buttons or joystick commands, gestures and movements made by the user of the game controller can be converted as input to the game. Optionally, other wireless-enabled peripherals such as PlayStation portable devices can be used as the controller. In the case of a PlayStation portable device, additional game information or control information (eg, number of control instructions or live) can be presented on the screen of the device. Other alternative or auxiliary controls may be used, such as a dance mat (not shown), a light gun (not shown), a handle and pedal (not shown), or an immediate answer quiz There are custom controllers such as one or more large buttons (also not shown) for the game.

また、リモコン904も、ブルートゥースリンクを介してシステムユニット900と無線通信するように動作可能である。リモコン904は、ブルーレイディスクBD−ROMリーダ940の操作、およびディスクの内容の閲覧のために適した制御を備える。   The remote controller 904 is also operable to communicate wirelessly with the system unit 900 via a Bluetooth link. The remote control 904 includes controls suitable for operating the Blu-ray Disc BD-ROM reader 940 and viewing the contents of the disc.

ブルーレイディスクBD−ROMリーダ940は、従来の記録済みCD、記録可能CD、およびいわゆるスーパーオーディオCDのほか、プレイステーションデバイスおよびプレイステーション2デバイスと互換のCD−ROMを読み出すように動作可能である。また、リーダ940は、従来の記録済みDVDおよび記録可能DVDのほか、プレイステーション2デバイスおよびプレイステーション3デバイスと互換のDVD−ROMを読み出すように動作可能である。更に、リーダ940は、従来の記録済みブルーレイディスクおよび記録可能ブルーレイディスクのほか、プレイステーション3デバイスと互換のBD−ROMを読み出すように動作可能である。   Blu-ray Disc BD-ROM reader 940 is operable to read conventional recorded CDs, recordable CDs, and so-called super audio CDs as well as CD-ROMs compatible with PlayStation devices and PlayStation 2 devices. The reader 940 is operable to read DVD-ROMs compatible with the PlayStation 2 device and the PlayStation 3 device in addition to the conventional recorded DVD and recordable DVD. In addition, the reader 940 is operable to read BD-ROMs compatible with PlayStation 3 devices, as well as conventional recorded Blu-ray discs and recordable Blu-ray discs.

システムユニット900は、Reality Synthesizerグラフィックユニット930を介して、プレイステーション3デバイスによって生成またはデコードされた音声およびビデオを、音声コネクタおよびビデオコネクタ経由で、ディスプレイ944および1つ以上のスピーカ946を備えた表示および音声出力装置942(モニタまたはテレビ受像機など)に提供するように動作可能である。音声コネクタ950は、従来のアナログ出力およびデジタル出力を備える一方、ビデオコネクタ952は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、および1つ以上の高品位マルチメディアインタフェース(HDMI)の出力などを種々備えうる。したがって、ビデオ出力は、PALまたはNTSC、あるいは720p、1080iまたは1080pの高解像度などのフォーマットであってもよい。   The system unit 900 displays audio and video generated or decoded by the PlayStation 3 device via the Reality Synthesizer graphics unit 930 via the audio connector and the video connector, with a display 944 and one or more speakers 946. It is operable to provide audio output device 942 (such as a monitor or television receiver). The audio connector 950 includes conventional analog and digital outputs, while the video connector 952 includes a variety of component video, S-video, composite video, and one or more high definition multimedia interface (HDMI) outputs. sell. Thus, the video output may be in a format such as PAL or NTSC, or a high resolution of 720p, 1080i or 1080p.

音声処理(生成、デコードなど)はCellプロセッサ928によって実行される。プレイステーション3デバイスのオペレーティングシステムは、ドルビー(登録商標)5.1サラウンドサウンド、ドルビー(登録商標)シアターサラウンド(DTS)、およびブルーレイ(登録商標)ディスクからの7.1サラウンドサウンドのデコードに対応している。   Audio processing (generation, decoding, etc.) is performed by the Cell processor 928. The PlayStation 3 device operating system supports Dolby® 5.1 surround sound, Dolby® Theater Surround (DTS), and 7.1 surround sound decoding from Blu-ray® discs. Yes.

本実施形態では、ビデオカメラ912は、1つの電荷結合素子(CCD)、LEDインジケータ、およびハードウェアベースのリアルタイムデータ圧縮およびエンコード装置を備え、圧縮ビデオデータが、システムユニット900によるデコードのために、イントラ画像ベースのMPEG(Motion Picture Expert Group)標準などの適切なフォーマットで送信されるようになる。カメラのLEDインジケータは、例えば不利な照明条件を示す適切な制御データをシステムユニット900から受け取ると、発光するように配置されている。ビデオカメラ912の実施形態は、USB、ブルートゥースまたはWi−Fiの通信ポートを介して、システムユニット900にさまざまな方法で接続しうる。ビデオカメラの実施形態は、1つ以上の関連するマイクロフォンを備えており、音声データを送信することができる。ビデオカメラの実施形態では、CCDは、高解像度のビデオキャプチャに適した分解能を備えうる。使用時に、ビデオカメラによってキャプチャされた画像が、例えば、ゲーム内に取り込まれるか、またはゲームの制御入力として解釈されうる。   In this embodiment, the video camera 912 comprises one charge-coupled device (CCD), LED indicator, and hardware-based real-time data compression and encoding device so that the compressed video data can be decoded by the system unit 900. Intra-image based MPEG (Motion Picture Expert Group) standards are transmitted in an appropriate format. The LED indicator of the camera is arranged to emit light upon receiving appropriate control data from the system unit 900, for example, indicating adverse lighting conditions. Embodiments of the video camera 912 may connect to the system unit 900 in various ways via USB, Bluetooth or Wi-Fi communication ports. Video camera embodiments include one or more associated microphones and can transmit audio data. In video camera embodiments, the CCD may have a resolution suitable for high resolution video capture. In use, an image captured by a video camera can be captured, for example, in a game or interpreted as a game control input.

一般に、システムユニット900の通信ポートの1つを介して、ビデオカメラまたはリモコン等などの周辺機器とのデータ通信がうまく行われるように、デバイスドライバ等の適切なソフトウェアを提供する必要がある。デバイスドライバ技術は公知であり、ここで詳細に説明しないが、デバイスドライバまたは同様のソフトウェアインタフェースが、記載する本実施形態で必要とされうることを当業者は理解するであろう。   In general, it is necessary to provide appropriate software such as a device driver so that data communication with a peripheral device such as a video camera or a remote controller can be successfully performed via one of the communication ports of the system unit 900. Device driver technology is well known and will not be described in detail here, but those skilled in the art will appreciate that a device driver or similar software interface may be required in the described embodiment.

図10は、本発明の一実施形態によるCellプロセッサ928の概略図である。Cellプロセッサ928は、メモリコントローラ1060およびデュアルバスインタフェースコントローラ1070A,Bを含む外部入出力構造、パワープロセッシングエレメント1050と呼ばれるメインプロセッサ、シナジスティックプロセッシングエレメント(SPE)1010A〜Hと呼ばれる8基のコプロセッサ、エレメント相互接続バス1080と呼ばれる上記のコンポーネントに接続している環状データバス、の4つの基本コンポーネントを備えたアーキテクチャを有する。プレイステーション2デバイスのエモーションエンジンは6.2ギガフロップスであるのに対し、Cellプロセッサの総浮動小数点演算性能は、218ギガフロップスである。   FIG. 10 is a schematic diagram of a Cell processor 928 according to one embodiment of the invention. The Cell processor 928 includes an external input / output structure including a memory controller 1060 and dual bus interface controllers 1070A, 10B, a main processor called a power processing element 1050, eight coprocessors called synergistic processing elements (SPE) 1010A to H, It has an architecture with four basic components, an annular data bus connected to the above components, called the element interconnect bus 1080. The Emotion Engine of the PlayStation 2 device is 6.2 gigaflops, whereas the total floating point performance of the Cell processor is 218 gigaflops.

パワープロセッシングエレメント(PPE)1050は、3.2GHzの内部クロックで動作し、双方向同時マルチスレッディングPower970準拠のPowerPCコア(PPU)1055をベースにしている。PPE1050は、512kBのレベル2(L2)キャッシュと、32kBのレベル1(L1)キャッシュとを備える。PPE1050は、クロックサイクルごとに8つの単一位置(single position:SP)操作ができ、これは、3.2GHzで25.6ギガフロップスに相当する。PPE1050の主な役割は、演算作業負荷の大部分を処理するシナジスティックプロセッシングエレメント1010A〜Hのコントローラとして機能することにある。動作時に、PPE1050はジョブキューを保持し、シナジスティックプロセッシングエレメント1010A〜Hのジョブをスケジュールしており、その進捗を監視する。したがって、各シナジスティックプロセッシングエレメント1010A〜Hはカーネルを実行し、その役割は、ジョブを取り出して、これを実行し、PPE1050と同期することにある。   The power processing element (PPE) 1050 operates on an internal clock of 3.2 GHz and is based on a PowerPC core (PPU) 1055 compliant with bidirectional simultaneous multithreading Power970. The PPE 1050 includes a 512 kB level 2 (L2) cache and a 32 kB level 1 (L1) cache. The PPE 1050 is capable of eight single position (SP) operations per clock cycle, which corresponds to 25.6 gigaflops at 3.2 GHz. The primary role of the PPE 1050 is to function as a controller for the synergistic processing elements 1010A-H that process most of the computational workload. In operation, the PPE 1050 maintains a job queue, schedules jobs for the synergistic processing elements 1010A-H and monitors their progress. Thus, each synergistic processing element 1010A-H executes a kernel, whose role is to retrieve the job, execute it, and synchronize with the PPE 1050.

各シナジスティックプロセッシングエレメント(SPE)1010A〜Hは、シナジスティックプロセッシングユニット(SPU)1020A〜Hおよびメモリフローコントローラ(MFC)1040A〜Hをそれぞれ備え、MFC1040A〜Hは、ダイナミックメモリアクセスコントローラ(DMAC)1042A〜H、メモリ管理ユニット(MMU)1044A〜H、およびバスインタフェース(図示せず)をそれぞれ備える。各SPU1020A〜Hは3.2GHzでクロック供給され、原則として4GBまで拡張可能な256kBのローカルRAM1030A〜Hを備えたRISCプロセッサである。各SPEは、理論的には単精度処理性能で25.6ギガフロップスを示す。1つのSPUは、1クロックサイクルに、4つの単精度浮動小数点部、4つの32ビット数、8つの16ビット整数または16の8ビット整数を処理することができる。同じクロックサイクルで、メモリ操作も実行することができる。SPU1020A〜HはシステムメモリXDRAM926に直接アクセスしない。SPU1020A〜Hが作成した64ビットアドレスがMFC1040A〜Hに渡され、MFC1040A〜Hが、自身のDMAコントローラ1042A〜Hに対して、エレメント相互接続バス1080およびメモリコントローラ1060を介してメモリにアクセスするように指示する。   Each synergistic processing element (SPE) 1010A-H includes a synergistic processing unit (SPU) 1020A-H and a memory flow controller (MFC) 1040A-H, respectively, and the MFC 1040A-H is a dynamic memory access controller (DMAC) 1042A. To H, memory management units (MMU) 1044A to H, and a bus interface (not shown). Each SPU 1020A-H is a RISC processor with a 256kB local RAM 1030A-H that is clocked at 3.2GHz and can in principle scale up to 4GB. Each SPE theoretically exhibits 25.6 gigaflops in single precision processing performance. One SPU can process four single precision floating point units, four 32-bit numbers, eight 16-bit integers, or sixteen 8-bit integers in one clock cycle. Memory operations can also be performed in the same clock cycle. SPUs 1020A-H do not access system memory XDRAM 926 directly. 64-bit addresses created by the SPUs 1020A-H are passed to the MFCs 1040A-H so that the MFCs 1040A-H can access their DMA controllers 1042A-H via the element interconnect bus 1080 and the memory controller 1060. To instruct.

エレメント相互接続バス(EIB)1080は、Cellプロセッサ928内部の論理的には環状の通信バスであり、上記のプロセッサエレメント(すなわち、PPE1050、メモリコントローラ1060、デュアルバスインタフェース1070A,B、および8基のSPE1010A〜H、合計12個のパーティシパント)を接続している。パーティシパントは、1クロックサイクルにつき8バイトの速度で、バスに同時に読み出しおよび書き込みを行うことができる。上で説明したように、各SPE1010A〜Hは、長い読み出しまたは書み込みのシーケンスをスケジュールするためのDMAC1042A〜Hを備える。EIBは、4つのチャネルを備え、そのうち2つは時計回り方向であり、残り2つは反時計回り方向である。したがって、12のパーティシパントについて、2つのパーティシパント間のステップ方式の最長のデータフローは、適切な方向で6ステップとなる。このため、パーティシパント間でアービトレーションが行われて完全な利用度が実現されると、12のスロットの理論上のピーク瞬間EIB帯域幅は、1クロックにつき96Bとなる。これは、3.2GHzのクロック速度で307.2GB/s(ギガバイト/秒)の理論上のピーク帯域幅に相当する。   Element Interconnect Bus (EIB) 1080 is a logically circular communication bus within Cell processor 928 that includes the processor elements described above (ie, PPE 1050, memory controller 1060, dual bus interfaces 1070A, B, and 8 SPE1010A-H, a total of 12 participants). Participants can simultaneously read and write to the bus at a rate of 8 bytes per clock cycle. As explained above, each SPE 1010A-H comprises a DMAC 1042A-H for scheduling a long read or write sequence. The EIB comprises four channels, two of which are clockwise and the other two are counterclockwise. Therefore, for 12 participants, the longest data flow in a stepped manner between two participants is 6 steps in the appropriate direction. Thus, when arbitration is performed between participants and full utilization is achieved, the theoretical peak instantaneous EIB bandwidth of 12 slots is 96B per clock. This corresponds to a theoretical peak bandwidth of 307.2 GB / s (gigabytes / second) at a clock rate of 3.2 GHz.

メモリコントローラ1060は、ラムバス社(Rambus Incorporated)によって開発されたXDRAMインタフェース1062を備える。メモリコントローラは、25.6GB/sの理論上のピーク帯域幅で、Rambus XDRAM926とインタフェースする。   The memory controller 1060 includes an XDRAM interface 1062 developed by Rambus Incorporated. The memory controller interfaces with the Rambus XDRAM 926 with a theoretical peak bandwidth of 25.6 GB / s.

デュアルバスインタフェース1070A,Bは、Rambus FlexIO(登録商標)システムインタフェース1072A,Bを備える。インタフェースは、それぞれ8ビット幅の12のチャネルに編成されており、このうち、5の経路が受信用、7つの経路が送信用である。これにより、Cellプロセッサと、コントローラ170Aを介してI/Oブリッジ700間、およびコントローラ170Bを介してReality Simulatorグラフィックユニット200間で、理論上のピーク帯域幅が62.4GB/s(送信36.4GB/s、受信26GB/s)が得られる。   The dual bus interface 1070A, B includes a Rambus FlexIO (registered trademark) system interface 1072A, B. Each interface is organized into 12 channels of 8 bit width, of which 5 paths are for reception and 7 paths are for transmission. As a result, the theoretical peak bandwidth between the Cell processor and the I / O bridge 700 via the controller 170A and between the Reality Simulator graphic unit 200 via the controller 170B is 62.4 GB / s (transmission 36.4 GB). / S, reception 26 GB / s).

Cellプロセッサ928によってReality Simulatorグラフィックユニット930に送信されるデータには、通常、表示リストが含まれ、これは、頂点を描画したり、ポリゴンにテクスチャを貼り付けたり、照明条件を指定するなどための一連のコマンドである。   The data sent to the Reality Simulator graphic unit 930 by the Cell processor 928 typically includes a display list, which is used for drawing vertices, pasting textures on polygons, specifying lighting conditions, etc. A series of commands.

実施形態において、現実世界のユーザをより正確に特定し、アバターまたはシーンのアクティビティを案内するための深度データがキャプチャされてもよい。オブジェクトは、人物が保持している物体であっても、人物の手であってもよい。本明細書では、「深度カメラ」および「三次元カメラ」との用語は、二次元のピクセル情報のほか、距離情報すなわち深度情報を取得することができる任意のカメラを指す。例えば、深度カメラは、制御された赤外線照明を利用して、距離情報を取得することができる。他の例示的な深度カメラに、立体カメラ対があり、これは2台の基準カメラを使用して距離情報を三角測量によって求める。同様に、「深度検知装置」との用語は、二次元のピクセル情報のほかに、距離情報を取得することができる任意のタイプの装置を指す。   In embodiments, depth data may be captured to more accurately identify real-world users and guide avatar or scene activity. The object may be an object held by a person or a person's hand. As used herein, the terms “depth camera” and “three-dimensional camera” refer to any camera capable of obtaining distance information, ie depth information, as well as two-dimensional pixel information. For example, the depth camera can acquire distance information using controlled infrared illumination. Another exemplary depth camera is a stereo camera pair, which uses two reference cameras to determine distance information by triangulation. Similarly, the term “depth sensing device” refers to any type of device capable of obtaining distance information in addition to two-dimensional pixel information.

三次元像の最近の進歩により、リアルタイムのインタラクティブなコンピュータアニメーションの可能性が広がっている。より詳細には、新しい「深度カメラ」は、通常の二次元のビデオ像に加えて、3番目の次元をキャプチャおよびマップする能力を提供することができる。新しい深度データによって、本発明の各種実施形態は、ほかのオブジェクトの背後など、ビデオシーン内のさまざまな位置にコンピュータが生成したオブジェクトを、リアルタイムで配置することが可能となる。   Recent advances in 3D images have opened up the possibility of real-time interactive computer animation. More specifically, the new “depth camera” can provide the ability to capture and map the third dimension in addition to the normal two-dimensional video image. New depth data allows various embodiments of the invention to place computer-generated objects in various locations in the video scene, such as behind other objects, in real time.

更に、本発明の各種実施形態は、リアルタイムのインタラクティブなゲーム体験をユーザに提供する。例えば、ユーザは、コンピュータが生成したさまざまなオブジェクトと、リアルタイムでインタラクトすることができる。更に、ユーザのゲーム体験をよりリアルにするために、ビデオシーンをリアルタイムで変更することができる。例えば、コンピュータが生成したコスチュームを、ユーザの服の上にはめ込んだり、コンピュータが生成した光源を利用して、ビデオシーン内に仮想の影を表示させることができる。このため、本発明の各種実施形態と深度カメラを使用して、ユーザは、自分のリビングルームでインタラクティブなゲーム環境を体験することができる。通常のカメラと同様に、深度カメラは、ビデオ画像を構成している複数のピクセルの二次元のデータをキャプチャする。これらの値は、ピクセルの色の値であり、通常は、各ピクセルの赤、緑、青(RGB)の値である。このようにして、カメラによってキャプチャされたオブジェクトが、モニタに二次元オブジェクトとして表示される。   Furthermore, various embodiments of the present invention provide users with a real-time interactive gaming experience. For example, the user can interact with various computer-generated objects in real time. Furthermore, the video scene can be changed in real time to make the user's gaming experience more realistic. For example, a computer-generated costume can be placed on top of a user's clothes or a virtual shadow can be displayed in a video scene using a computer-generated light source. Thus, using various embodiments of the present invention and a depth camera, a user can experience an interactive game environment in his / her living room. Similar to a normal camera, a depth camera captures two-dimensional data of a plurality of pixels that make up a video image. These values are pixel color values and are typically the red, green, and blue (RGB) values of each pixel. In this way, the object captured by the camera is displayed on the monitor as a two-dimensional object.

また、本発明の各種実施形態は、分散型の画像処理構成についても考察している。例えば、本発明は、1つの場所(CPUなど)や2つの場所(CPUと他の1つの素子など)で行われるキャプチャ画像および表示画像の処理に限定されない。例えば、入力画像処理は、処理を実行することができる関連のCPU、プロセッサまたは装置において容易に行うことができ、基本的には、画像処理の全てを、相互接続システム全体に分散させることができる。このため、本発明は、特定の画像処理ハードウェア回路および/またはソフトウェアに限定されない。また、本明細書に記載した実施形態は、一般的なハードウェア回路および/またはソフトウェアの特定の組合せに限定されず、処理コンポーネントによって実行される命令の特定のソースにも限定されない。   Various embodiments of the present invention also consider distributed image processing configurations. For example, the present invention is not limited to the processing of a captured image and a display image performed at one place (CPU or the like) or two places (CPU and another one element or the like). For example, input image processing can be easily performed in an associated CPU, processor or device capable of performing the processing, and basically all of the image processing can be distributed throughout the interconnect system. . Thus, the present invention is not limited to a specific image processing hardware circuit and / or software. Also, the embodiments described herein are not limited to specific combinations of general hardware circuitry and / or software, and are not limited to specific sources of instructions executed by processing components.

上記の実施形態を考慮に入れて、本発明が、コンピュータシステムに記憶されたデータを使用する、各種のコンピュータ実装操作を使用してもよい点を理解すべきである。これらの操作には、物理量の物理的な操作を必要とする操作が含まれる。この物理量は通常、記憶、転送、結合、比較などの操作が可能な電気信号または磁気信号の形を取るが、必ずしもこれらに限定されない。更に、実行される操作は、生成、特定、決定または比較などと呼ばれることが多い。   In view of the above embodiments, it should be understood that the present invention may use various computer-implemented operations that use data stored in a computer system. These operations include operations that require physical manipulation of physical quantities. This physical quantity typically takes the form of an electrical or magnetic signal that can be manipulated, stored, transferred, combined, compared, etc., but is not necessarily limited thereto. Furthermore, the operations performed are often referred to as generation, identification, determination or comparison.

上記した発明は、携帯式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステム構成によって実施されてもよい。また、本発明は、分散コンピューティング環境で実施されてもよく、このような環境では、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される。   The above described invention may be practiced with other computer system configurations such as portable devices, microprocessor systems, microprocessor-based or programmable consumer electronics, minicomputers, mainframe computers and the like. The invention may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network.

本発明は、また、計算機可読メディア上の計算機可読コードとして実施されてもよい。計算機可読媒体は、電磁搬送波を含め、コンピュータシステムによって後から読取ることができるデータを記憶できるデータ記憶装置であれば、どのようなものに存在してもよい。計算機可読メディアの例には、ハードディスク、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープおよび他の光学式データ記憶装置および非光学式データ記憶装置などがある。また、計算機可読媒体は、計算機可読コードが分散式に記憶されて、実行されるように、ネットワークに結合されたコンピュータシステムを介して分散されてもよい。   The present invention may also be implemented as computer readable code on a computer readable medium. The computer readable medium may be any data storage device that can store data which can be read later by a computer system, including an electromagnetic carrier wave. Examples of computer readable media include hard disks, network attached storage (NAS), read only memory, random access memory, CD-ROM, CD-R, CD-RW, magnetic tape and other optical data storage and non- There are optical data storage devices and the like. The computer readable medium may also be distributed via a computer system coupled to a network so that the computer readable code is stored and executed in a distributed fashion.

上記に、本発明を明確に理解できるようにある程度具体的に記載したが、添付の特許請求の範囲内で変更例または変形例を実施できることは明らかである。したがって、本実施形態は例示的なものであり、制限するものではなく、本発明は本明細書に記載されている詳細な事項に限定されず、添付の特許請求の範囲およびその均等物の範囲内で変更されてもよい。   Although the invention has been described in some detail for purposes of clarity of understanding, it will be apparent that certain changes and modifications may be practiced within the scope of the appended claims. Accordingly, the embodiments are illustrative and not limiting and the invention is not limited to the details described herein, but the appended claims and their equivalents. May be changed within.

100 アバター制御システム
102 ユーザ
104 仮想空間
106 画面
108 コントローラ
110 コンソール
112 カメラ
114 仮想空間
200 グラフィックユニット
900 システムユニット
902 ゲームコントローラ
904 リモコン
906 キーボード
908 マウス
910 ポータブルエンターテイメントデバイス
912 ビデオカメラ
914 マイクロフォンヘッドセット
100 avatar control system 102 user 104 virtual space 106 screen 108 controller 110 console 112 camera 114 virtual space 200 graphic unit 900 system unit 902 game controller 904 remote control 906 keyboard 908 mouse 910 portable entertainment device 912 video camera 914 microphone headset

Claims (20)

コンピュータプログラムを実行しているコンソールを使用してコンピュータネットワークを介してアクセスされる仮想空間においてアバターを制御するための方法であって、
コンソールコントローラのアクティビティをキャプチャするステップと、
入力パラメータを特定するために前記コンソールコントローラの前記キャプチャされたアクティビティを処理するステップと、
前記入力パラメータのうちの選択されたパラメータを、ユーザの仮想空間表現である前記アバターの部分にマップするステップと、を有し、
前記コンソールコントローラのアクティビティと前記ユーザの前記仮想空間表現である前記アバターとの間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される方法。
A method for controlling an avatar in a virtual space accessed via a computer network using a console executing a computer program comprising:
Capturing console controller activity;
Processing the captured activity of the console controller to identify input parameters;
Mapping a selected parameter of the input parameters to a portion of the avatar that is a virtual space representation of a user;
The method wherein the capture, the processing and the mapping are performed sequentially to define a correlation between the console controller activity and the avatar that is the virtual space representation of the user.
前記コンソールコントローラのアクティビティにはコントローラボタンの選択が含まれる請求項1に記載の方法。   The method of claim 1, wherein the console controller activity includes selecting a controller button. 前記コンソールコントローラのアクティビティには、三次元空間での前記コンソールコントローラの回転および並進の検出が含まれる請求項1に記載の方法。   The method of claim 1, wherein the console controller activity includes detecting rotation and translation of the console controller in a three-dimensional space. 入力パラメータには、前記コンソールコントローラの前記回転および並進の速度の変化率が含まれる請求項3に記載の方法。   The method of claim 3, wherein the input parameters include a rate of change of the rotation and translation speed of the console controller. 前記アバターの部分はアニメーション表示される特定の身体部位を含む請求項1に記載の方法。   The method of claim 1, wherein the avatar portion includes a specific body part that is animated. 前記入力パラメータのうちの選択されたパラメータの、前記アバターの部分へのマップは、前記コンソールコントローラの前記回転および並進の速度の加速および減速に比例して行われる請求項4に記載の方法。   5. The method of claim 4, wherein the mapping of selected parameters of the input parameters to the avatar portion is performed in proportion to acceleration and deceleration of the rotation and translation speed of the console controller. 前記入力パラメータは、コントローラボタンの選択を含み、前記コントローラボタンは、選択時に、前記アバターアニメーションの異なる部分のユーザ制御を開始するようにマップされる請求項1に記載の方法。   The method of claim 1, wherein the input parameter includes a selection of a controller button, and the controller button is mapped to initiate user control of a different portion of the avatar animation upon selection. 前記アバターアニメーションは、前記コントローラの3軸の並進および回転の運動、ユーザによって制御される加速および減速に応答し、かつこれに比例する請求項7に記載の方法。   The method of claim 7, wherein the avatar animation is responsive to and proportional to the three-axis translation and rotation movements of the controller, acceleration and deceleration controlled by a user. コンソールを使用してコンピュータネットワークを介してアバターをインタラクティブに制御するための方法であって、
コンソールコントローラを提供するステップと、
前記コンソールコントローラの第1の位置を決定するステップと、
前記コンソールコントローラの第2の位置への移動の検出を含む、前記コンソールコントローラへの入力をキャプチャするステップと、
前記コンソールコントローラへの入力と、前記コンソールコントローラの前記第1の位置と前記第2の位置間の相対運動とを処理するステップと、
前記コンソールコントローラの前記第1の位置と前記第2の位置間の前記相対運動を、前記アバターのアニメーション表示される体の部分にマップするステップと、を有し、
前記コンソールコントローラの相対運動と前記アバター間の相関を定義するために、前記キャプチャ、前記処理および前記マッピングが連続的に実行される方法。
A method for interactively controlling an avatar over a computer network using a console, comprising:
Providing a console controller;
Determining a first position of the console controller;
Capturing input to the console controller comprising detecting movement of the console controller to a second position;
Processing the input to the console controller and the relative movement between the first position and the second position of the console controller;
Mapping the relative movement between the first position and the second position of the console controller to an animated body part of the avatar;
The method wherein the capture, the processing and the mapping are performed sequentially to define a correlation between the relative motion of the console controller and the avatar.
前記コントローラへの入力にはコンソールボタンの選択が含まれる請求項9に記載の方法。   The method of claim 9, wherein the input to the controller includes selection of a console button. 前記コンソールへの入力により、前記コンソールコントローラの相対運動の前記マッピングが、前記アバターの異なる部分に変更される請求項10に記載の方法。   The method of claim 10, wherein input to the console changes the mapping of relative motion of the console controller to a different part of the avatar. 前記コンソールコントローラの移動は、3軸の並進および回転の運動を含む前記3軸で検出可能である請求項9に記載の方法。   The method of claim 9, wherein the movement of the console controller is detectable on the three axes including three axis translational and rotational movements. 前記コンソールコントローラの加速が、前記コンソールコントローラの前記入力のキャプチャおよび前記移動の検出の一部として含まれる請求項9に記載の方法。   The method of claim 9, wherein acceleration of the console controller is included as part of capturing the input and detecting the movement of the console controller. 前記アバターの部分はアニメーション表示される特定の身体部位を含む請求項9に記載の方法。   The method of claim 9, wherein the avatar portion includes a specific body part that is animated. 前記アバターは、仮想環境内でのユーザの仮想表現であり、前記アバターのための前記仮想環境は、前記コンピュータネットワークを介してアクセスされ、前記コンソールによってレンダリングされる請求項9に記載の方法。   The method of claim 9, wherein the avatar is a virtual representation of a user in a virtual environment, and the virtual environment for the avatar is accessed via the computer network and rendered by the console. コンピュータネットワーク内の少なくとも1つのコンピュータで実行されるコンピュータプログラムによって生成されるアバターおよび仮想環境について、前記仮想環境内で前記アバターをインタラクティブに制御するためのコンピュータにより実装された方法であって、
前記コンピュータプログラムとインタフェースされているコントローラを提供するステップと、
ユーザが前記アバターの選択された部分を制御できるように、コントローラ入力をマップするステップと、
コントローラ入力と、第1の位置と第2の位置間のコントローラの移動とをキャプチャするステップと、
前記キャプチャされたコントローラ入力およびコントローラの移動を処理し、前記仮想環境内で前記アバターの前記選択された部分をインタラクティブにアニメーション表示するために前記キャプチャされた移動を適用するステップと、を有し、
コントローラの移動とアバターアニメーション間の相関を定義するために、前記コントローラ入力およびコントローラの移動のキャプチャおよび前記処理が連続的に実行される方法。
A computer implemented method for interactively controlling an avatar in a virtual environment for an avatar and virtual environment generated by a computer program executed on at least one computer in a computer network, comprising:
Providing a controller interfaced with the computer program;
Mapping controller inputs so that a user can control selected portions of the avatar;
Capturing controller input and movement of the controller between a first position and a second position;
Processing the captured controller input and controller movement and applying the captured movement to interactively animate the selected portion of the avatar within the virtual environment; and
A method wherein the capture of the controller input and controller movement and the processing are performed sequentially to define a correlation between controller movement and avatar animation.
前記コントローラの移動は、3軸の並進および回転の運動を含む3軸全てで検出可能である請求項16に記載の方法。   17. The method of claim 16, wherein the movement of the controller is detectable on all three axes, including three axis translational and rotational movements. コントローラの移動のキャプチャは、前記コントローラの回転および並進運動の前記コントローラの加速および減速の6軸のキャプチャを含む請求項16に記載の方法。   The method of claim 16, wherein capture of controller movement includes six-axis capture of acceleration and deceleration of the controller in rotation and translation of the controller. 前記コントローラ入力は、コントローラボタンの選択を含み、前記コントローラボタンは、選択時に、前記アバターアニメーションの異なる部分のユーザ制御を開始するためにマップされる請求項16に記載の方法。   The method of claim 16, wherein the controller input includes a selection of a controller button, and the controller button is mapped to initiate user control of a different portion of the avatar animation upon selection. 前記アバターの前記選択された部分のアニメーションは、前記コントローラの3軸の並進および回転の運動の、ユーザによって制御される加速および減速に応答し、かつこれに比例する請求項19に記載の方法。   20. The method of claim 19, wherein the animation of the selected portion of the avatar is responsive to and proportional to user-controlled acceleration and deceleration of the three-axis translation and rotation motion of the controller.
JP2014039137A 2007-03-01 2014-02-28 Interactive user-controlled avatar animation Active JP5756198B2 (en)

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
US89239707P 2007-03-01 2007-03-01
US60/892,397 2007-03-01
GBGB0703974.6A GB0703974D0 (en) 2007-03-01 2007-03-01 Entertainment device
GB0703974.6 2007-03-01
GB0704227.8 2007-03-05
GB0704225.2 2007-03-05
GB0704227A GB2447020A (en) 2007-03-01 2007-03-05 Transmitting game data from an entertainment device and rendering that data in a virtual environment of a second entertainment device
GB0704225A GB2447094B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704246.8 2007-03-05
GB0704235A GB2447095B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704235.1 2007-03-05
GB0704246A GB2447096B (en) 2007-03-01 2007-03-05 Entertainment device and method
US11/789,202 US20080215974A1 (en) 2007-03-01 2007-04-23 Interactive user controlled avatar animations
US11/789,202 2007-04-23

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009551727A Division JP2010535364A (en) 2007-03-01 2008-02-27 Interactive user-controlled avatar animation

Publications (2)

Publication Number Publication Date
JP2014149836A true JP2014149836A (en) 2014-08-21
JP5756198B2 JP5756198B2 (en) 2015-07-29

Family

ID=39738577

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2009551806A Pending JP2010533006A (en) 2007-03-01 2008-02-26 System and method for communicating with a virtual world
JP2009551727A Pending JP2010535364A (en) 2007-03-01 2008-02-27 Interactive user-controlled avatar animation
JP2009551722A Pending JP2010535362A (en) 2007-03-01 2008-02-27 Monitoring the opinions and reactions of users in the virtual world
JP2009551726A Pending JP2010535363A (en) 2007-03-01 2008-02-27 Virtual world avatar control, interactivity and communication interactive messaging
JP2014039137A Active JP5756198B2 (en) 2007-03-01 2014-02-28 Interactive user-controlled avatar animation

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2009551806A Pending JP2010533006A (en) 2007-03-01 2008-02-26 System and method for communicating with a virtual world
JP2009551727A Pending JP2010535364A (en) 2007-03-01 2008-02-27 Interactive user-controlled avatar animation
JP2009551722A Pending JP2010535362A (en) 2007-03-01 2008-02-27 Monitoring the opinions and reactions of users in the virtual world
JP2009551726A Pending JP2010535363A (en) 2007-03-01 2008-02-27 Virtual world avatar control, interactivity and communication interactive messaging

Country Status (3)

Country Link
EP (4) EP2132650A4 (en)
JP (5) JP2010533006A (en)
WO (1) WO2008108965A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018155303A1 (en) 2017-02-24 2018-08-30 ソニー株式会社 Information processing apparatus, information processing method, and program
US10943383B2 (en) 2017-01-26 2021-03-09 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489795B2 (en) 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
US8407605B2 (en) 2009-04-03 2013-03-26 Social Communications Company Application sharing
US8191001B2 (en) 2008-04-05 2012-05-29 Social Communications Company Shared virtual area communication environment based apparatus and methods
US8397168B2 (en) * 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
US7769806B2 (en) 2007-10-24 2010-08-03 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
US20100093439A1 (en) * 2008-10-15 2010-04-15 Nc Interactive, Inc. Interactive network game and methods thereof
US20100099495A1 (en) * 2008-10-16 2010-04-22 Nc Interactive, Inc. Interactive network game and methods thereof
US9853922B2 (en) 2012-02-24 2017-12-26 Sococo, Inc. Virtual area communications
JP5813912B2 (en) 2009-01-28 2015-11-17 任天堂株式会社 Program, information processing apparatus, and information processing system
JP5229484B2 (en) 2009-01-28 2013-07-03 任天堂株式会社 Information processing system, program, and information processing apparatus
JP5690473B2 (en) 2009-01-28 2015-03-25 任天堂株式会社 Program and information processing apparatus
JP5527721B2 (en) 2009-01-28 2014-06-25 任天堂株式会社 Program and information processing apparatus
US9542010B2 (en) * 2009-09-15 2017-01-10 Palo Alto Research Center Incorporated System for interacting with objects in a virtual environment
US8862977B2 (en) * 2009-09-30 2014-10-14 Rakuten, Inc. Object displacement method for web page
US20120192088A1 (en) * 2011-01-20 2012-07-26 Avaya Inc. Method and system for physical mapping in a virtual world
CN106943743B (en) * 2011-02-11 2024-04-26 漳州市阿思星谷电子科技有限公司 Man-machine interaction control method
US20120277001A1 (en) * 2011-04-28 2012-11-01 Microsoft Corporation Manual and Camera-based Game Control
JP2013003778A (en) * 2011-06-15 2013-01-07 Forum8 Co Ltd Three-dimensional space information processing system, three-dimensional space information processing terminal, three-dimensional space information processing server, three-dimensional space information processing terminal program, three-dimensional space information processing server program, and three-dimensional space information processing method
WO2013181026A1 (en) 2012-06-02 2013-12-05 Social Communications Company Interfacing with a spatial virtual communications environment
CN104516618B (en) * 2013-09-27 2020-01-14 中兴通讯股份有限公司 Interface function analysis display method and device
JP6091407B2 (en) * 2013-12-18 2017-03-08 三菱電機株式会社 Gesture registration device
US20170043255A1 (en) * 2014-04-25 2017-02-16 Nokia Technologies Oy Interaction between Virtual Reality Entities and Real Entities
EP2996017B1 (en) 2014-09-11 2022-05-11 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display
WO2016068581A1 (en) 2014-10-31 2016-05-06 Samsung Electronics Co., Ltd. Device and method of managing user information based on image
US9786125B2 (en) 2015-06-17 2017-10-10 Facebook, Inc. Determining appearances of objects in a virtual world based on sponsorship of object appearances
US10861056B2 (en) 2015-06-17 2020-12-08 Facebook, Inc. Placing locations in a virtual world
US10339592B2 (en) 2015-06-17 2019-07-02 Facebook, Inc. Configuring a virtual store based on information associated with a user by an online system
JP6860010B2 (en) 2016-05-06 2021-04-14 ソニー株式会社 Information processing systems, information processing methods, and information processing programs
JP6263252B1 (en) * 2016-12-06 2018-01-17 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
WO2018142228A2 (en) 2017-01-19 2018-08-09 Mindmaze Holding Sa Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
JP6821461B2 (en) * 2017-02-08 2021-01-27 株式会社コロプラ A method executed by a computer to communicate via virtual space, a program that causes the computer to execute the method, and an information control device.
JP6651479B2 (en) * 2017-03-16 2020-02-19 株式会社コロプラ Information processing method and apparatus, and program for causing computer to execute the information processing method
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
JP7308573B2 (en) * 2018-05-24 2023-07-14 株式会社ユピテル System and program etc.
JP7302956B2 (en) * 2018-09-19 2023-07-04 株式会社バンダイナムコエンターテインメント computer system, game system and program
JP2019130295A (en) * 2018-12-28 2019-08-08 ノキア テクノロジーズ オサケユイチア Interaction between virtual reality entities and real entities
JP7323315B2 (en) 2019-03-27 2023-08-08 株式会社コーエーテクモゲームス Information processing device, information processing method and program
JP7190051B2 (en) * 2019-08-20 2022-12-14 日本たばこ産業株式会社 COMMUNICATION SUPPORT METHOD, PROGRAM AND COMMUNICATION SERVER
JP7192136B2 (en) * 2019-08-20 2022-12-19 日本たばこ産業株式会社 COMMUNICATION SUPPORT METHOD, PROGRAM AND COMMUNICATION SERVER
US11080930B2 (en) * 2019-10-23 2021-08-03 Skonec Entertainment Co., Ltd. Virtual reality control system
EP3846008A1 (en) 2019-12-30 2021-07-07 TMRW Foundation IP SARL Method and system for enabling enhanced user-to-user communication in digital realities
JP2020146469A (en) * 2020-04-20 2020-09-17 株式会社トプコン Ophthalmologic examination system and ophthalmologic examination device
JP6932224B1 (en) * 2020-06-01 2021-09-08 株式会社電通 Advertising display system
JP7254112B2 (en) * 2021-03-19 2023-04-07 本田技研工業株式会社 Virtual experience providing device, virtual experience providing method, and program
WO2023281755A1 (en) * 2021-07-09 2023-01-12 シャープNecディスプレイソリューションズ株式会社 Display control device, display control method, and program
WO2023068067A1 (en) * 2021-10-18 2023-04-27 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023149255A1 (en) * 2022-02-02 2023-08-10 株式会社Nttドコモ Display control device
KR20230173481A (en) * 2022-06-17 2023-12-27 주식회사 메타캠프 Apparatus for Metaverse Service by Using Multi-Channel Structure and Channel Syncronizaton and Driving Method Thereof
WO2024004609A1 (en) * 2022-06-28 2024-01-04 ソニーグループ株式会社 Information processing device, information processing method, and recording medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11185058A (en) * 1997-11-28 1999-07-09 Internatl Business Mach Corp <Ibm> Method and system for selecting object
JP2000311251A (en) * 1999-02-26 2000-11-07 Toshiba Corp Device and method for generating animation and storage medium
JP2000325653A (en) * 1999-05-19 2000-11-28 Enix Corp Portable videogame device and storage medium with program stored therein
JP2001160154A (en) * 1999-12-02 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> Avatar display device in virtual space communication system, avatar displaying method and storage medium
JP2003024628A (en) * 2001-07-12 2003-01-28 Konami Co Ltd Character operating program, character operating method and video game device
JP2004166995A (en) * 2002-11-20 2004-06-17 Nintendo Co Ltd Game device and information processor
JP2004208894A (en) * 2002-12-27 2004-07-29 Namco Ltd Game device, game control program and recording medium recording the program
JP2005216149A (en) * 2004-01-30 2005-08-11 Ntt Docomo Inc Mobile communication terminal and program
JP2006312059A (en) * 2005-05-05 2006-11-16 Electronic Arts Inc Analog stick input change against long time button pressing sequence and intuitive input for effecting character action

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
CA2141144A1 (en) * 1994-03-31 1995-10-01 Joseph Desimone Electronic game utilizing bio-signals
GB9505916D0 (en) * 1995-03-23 1995-05-10 Norton John M Controller
JP3091135B2 (en) * 1995-05-26 2000-09-25 株式会社バンダイ Game equipment
US5823879A (en) * 1996-01-19 1998-10-20 Sheldon F. Goldberg Network gaming system
JP3274603B2 (en) * 1996-04-18 2002-04-15 エヌイーシーソフト株式会社 Voice aggregation system and voice aggregation method
JP3975511B2 (en) * 1997-07-25 2007-09-12 富士通株式会社 Personal communication distributed control system
JP3757584B2 (en) * 1997-11-20 2006-03-22 株式会社富士通ゼネラル Advertising effect confirmation system
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
EP1250698A2 (en) * 1999-04-20 2002-10-23 John Warren Stringer Human gestural input device with motion and pressure
JP4034002B2 (en) * 1999-04-22 2008-01-16 三菱電機株式会社 Distributed virtual space information management transmission method
AU5012600A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for a multi-owner, three-dimensional virtual world
AU5012300A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for registering lots in a shared virtual world
JP2001154966A (en) * 1999-11-29 2001-06-08 Sony Corp System and method for supporting virtual conversation being participation possible by users in shared virtual space constructed and provided on computer network and medium storing program
JP2001153663A (en) * 1999-11-29 2001-06-08 Canon Inc Discrimination device for moving direction of object, and photographic device, navigation system, suspension system, game system and remote controller system provide with the device
JP2001236290A (en) * 2000-02-22 2001-08-31 Toshinao Komuro Communication system using avatar
KR100366384B1 (en) * 2000-02-26 2002-12-31 (주) 고미드 Information search system based on communication of users
JP2001325501A (en) * 2000-03-10 2001-11-22 Heart Gift:Kk On-line gift method
JP3458090B2 (en) * 2000-03-15 2003-10-20 コナミ株式会社 GAME SYSTEM HAVING MESSAGE EXCHANGE FUNCTION, GAME DEVICE USED FOR THE GAME SYSTEM, MESSAGE EXCHANGE SYSTEM, AND COMPUTER-READABLE STORAGE MEDIUM
JP2001321568A (en) * 2000-05-18 2001-11-20 Casio Comput Co Ltd Device and method of game and recording medium
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2002136762A (en) * 2000-11-02 2002-05-14 Taito Corp Adventure game using latent video
JP3641423B2 (en) * 2000-11-17 2005-04-20 Necインフロンティア株式会社 Advertisement information system
AU2002219857A1 (en) * 2000-11-27 2002-06-03 Butterfly.Net, Inc. System and method for synthesizing environments to facilitate distributed, context-sensitive, multi-user interactive applications
EP1216733A3 (en) * 2000-12-20 2004-09-08 Aruze Co., Ltd. Server providing competitive game service, program storage medium for use in the server, and method of providing competitive game service using the server
JP2002197376A (en) * 2000-12-27 2002-07-12 Fujitsu Ltd Method and device for providing virtual world customerized according to user
JP4613295B2 (en) * 2001-02-16 2011-01-12 株式会社アートディンク Virtual reality playback device
JP2005500912A (en) * 2001-02-27 2005-01-13 アンソロトロニックス インコーポレイテッド Robot apparatus and wireless communication system
US7667705B2 (en) * 2001-05-15 2010-02-23 Nintendo Of America Inc. System and method for controlling animation by tagging objects within a game environment
JP4068542B2 (en) * 2001-05-18 2008-03-26 株式会社ソニー・コンピュータエンタテインメント Entertainment system, communication program, computer-readable recording medium storing communication program, and communication method
JP3732168B2 (en) * 2001-12-18 2006-01-05 株式会社ソニー・コンピュータエンタテインメント Display device, display system and display method for objects in virtual world, and method for setting land price and advertising fee in virtual world where they can be used
JP2003210834A (en) * 2002-01-17 2003-07-29 Namco Ltd Control information, information storing medium, and game device
JP2003259331A (en) * 2002-03-06 2003-09-12 Nippon Telegraph & Telephone West Corp Three-dimensional contents distribution apparatus, three-dimensional contents distribution program, program recording medium, and three-dimensional contents distribution method
JP2003324522A (en) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> Ip/pstn integrated control apparatus, communication method, program, and recording medium
JP2004021606A (en) * 2002-06-17 2004-01-22 Nec Corp Internet service providing system using virtual space providing server
JP2004046311A (en) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> Method and system for gesture input in three-dimensional virtual space
US20040029625A1 (en) * 2002-08-07 2004-02-12 Ed Annunziata Group behavioral modification using external stimuli
EP1576457A1 (en) * 2002-11-07 2005-09-21 Personics A/S Adaptive motion detection interface and motion detector
JP2004237022A (en) * 2002-12-11 2004-08-26 Sony Corp Information processing device and method, program and recording medium
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4442117B2 (en) * 2003-05-27 2010-03-31 ソニー株式会社 Information registration method, information registration apparatus, and information registration program
US7725419B2 (en) * 2003-09-05 2010-05-25 Samsung Electronics Co., Ltd Proactive user interface including emotional agent
JP2005100053A (en) * 2003-09-24 2005-04-14 Nomura Research Institute Ltd Method, program and device for sending and receiving avatar information
JP2005216004A (en) * 2004-01-29 2005-08-11 Tama Tlo Kk Program and communication method
US20060013254A1 (en) * 2004-06-07 2006-01-19 Oded Shmueli System and method for routing communication through various communication channel types
JP2006034436A (en) * 2004-07-23 2006-02-09 Smk Corp Virtual game system using exercise apparatus
EP1814292A1 (en) * 2004-10-08 2007-08-01 Sonus Networks, Inc. Call handoff between subscriber's multiple devices associated with multiple networks
WO2006056231A1 (en) * 2004-11-29 2006-06-01 Nokia Corporation Mobile gaming with external devices in single and multiplayer games
JP2006185252A (en) * 2004-12-28 2006-07-13 Univ Of Electro-Communications Interface device
JP2006186893A (en) * 2004-12-28 2006-07-13 Matsushita Electric Ind Co Ltd Voice conversation control apparatus
JP2006211005A (en) * 2005-01-25 2006-08-10 Takashi Uchiyama Television telephone advertising system
JPWO2006080080A1 (en) * 2005-01-28 2008-06-19 富士通株式会社 Telephone management system, telephone management method, and telephone management program
JP4322833B2 (en) * 2005-03-16 2009-09-02 株式会社東芝 Wireless communication system
ATE491503T1 (en) * 2005-05-05 2011-01-15 Sony Computer Entertainment Inc VIDEO GAME CONTROL USING JOYSTICK
JP2006004421A (en) * 2005-06-03 2006-01-05 Sony Corp Data processor
US20070002835A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Edge-based communication

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11185058A (en) * 1997-11-28 1999-07-09 Internatl Business Mach Corp <Ibm> Method and system for selecting object
JP2000311251A (en) * 1999-02-26 2000-11-07 Toshiba Corp Device and method for generating animation and storage medium
JP2000325653A (en) * 1999-05-19 2000-11-28 Enix Corp Portable videogame device and storage medium with program stored therein
JP2001160154A (en) * 1999-12-02 2001-06-12 Nippon Telegr & Teleph Corp <Ntt> Avatar display device in virtual space communication system, avatar displaying method and storage medium
JP2003024628A (en) * 2001-07-12 2003-01-28 Konami Co Ltd Character operating program, character operating method and video game device
JP2004166995A (en) * 2002-11-20 2004-06-17 Nintendo Co Ltd Game device and information processor
JP2004208894A (en) * 2002-12-27 2004-07-29 Namco Ltd Game device, game control program and recording medium recording the program
JP2005216149A (en) * 2004-01-30 2005-08-11 Ntt Docomo Inc Mobile communication terminal and program
JP2006312059A (en) * 2005-05-05 2006-11-16 Electronic Arts Inc Analog stick input change against long time button pressing sequence and intuitive input for effecting character action

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10943383B2 (en) 2017-01-26 2021-03-09 Sony Corporation Information processing apparatus and information processing method
US11288854B2 (en) 2017-01-26 2022-03-29 Sony Corporation Information processing apparatus and information processing method
WO2018155303A1 (en) 2017-02-24 2018-08-30 ソニー株式会社 Information processing apparatus, information processing method, and program
US11231591B2 (en) 2017-02-24 2022-01-25 Sony Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
EP2126708A1 (en) 2009-12-02
EP2118840A4 (en) 2010-11-10
EP2118757A4 (en) 2010-11-03
JP5756198B2 (en) 2015-07-29
EP2118757A1 (en) 2009-11-18
EP2118840A1 (en) 2009-11-18
EP2132650A2 (en) 2009-12-16
JP2010535363A (en) 2010-11-18
JP2010535362A (en) 2010-11-18
EP2126708A4 (en) 2010-11-17
EP2132650A4 (en) 2010-10-27
JP2010533006A (en) 2010-10-21
WO2008108965A1 (en) 2008-09-12
JP2010535364A (en) 2010-11-18

Similar Documents

Publication Publication Date Title
JP5756198B2 (en) Interactive user-controlled avatar animation
US20080215974A1 (en) Interactive user controlled avatar animations
US11317076B2 (en) Peripheral device having sensors for capturing changes in spatial position
US8601379B2 (en) Methods for interactive communications with real time effects and avatar environment interaction
US8961313B2 (en) Multi-positional three-dimensional controller
US8705845B2 (en) Entertainment device and method of interaction
WO2008106197A1 (en) Interactive user controlled avatar animations
KR101308642B1 (en) Determination of controller three-dimensional location using image analysis and ultrasonic communication
US8142288B2 (en) Base station movement detection and compensation
US8393964B2 (en) Base station for position location
CN104010706B (en) The direction input of video-game
US20100060662A1 (en) Visual identifiers for virtual world avatars
JP5665752B2 (en) Controller with spherical end with configurable mode
JP2010531491A (en) How to change game gearing
JP2012510856A (en) 3D control by multi-positional controller

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150528

R150 Certificate of patent or registration of utility model

Ref document number: 5756198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250