JP2010533006A - System and method for communicating with a virtual world - Google Patents
System and method for communicating with a virtual world Download PDFInfo
- Publication number
- JP2010533006A JP2010533006A JP2009551806A JP2009551806A JP2010533006A JP 2010533006 A JP2010533006 A JP 2010533006A JP 2009551806 A JP2009551806 A JP 2009551806A JP 2009551806 A JP2009551806 A JP 2009551806A JP 2010533006 A JP2010533006 A JP 2010533006A
- Authority
- JP
- Japan
- Prior art keywords
- user
- communication device
- real
- communication
- virtual world
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
-
- A63F13/12—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/23—Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/61—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
- A63F13/795—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/105—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1081—Input via voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/30—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
- A63F2300/308—Details of the user interface
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/40—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
- A63F2300/406—Transmission via wireless network, e.g. pager or GSM
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/40—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
- A63F2300/407—Data transfer via internet
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5506—Details of game data or player data management using advertisements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6063—Methods for processing data by generating or executing the game program for sound processing
- A63F2300/6072—Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Finance (AREA)
- Marketing (AREA)
- Accounting & Taxation (AREA)
- Physics & Mathematics (AREA)
- Development Economics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Storage Device Security (AREA)
- Telephonic Communication Services (AREA)
Abstract
仮想世界と通信するためのシステムおよび方法が開示されている。仮想世界はシミュレートされた公共空間と、シミュレートされたひとつ以上の私的空間と、を含んでもよい。各私的空間は、ある特定のユーザに関連付けられてもよい。ユーザの仮想世界とのやりとりは、アバターのひとつ以上の動作によって表されてもよい。仮想世界のなかに通信装置がシミュレートされてもよい。シミュレートされた通信装置と現実の通信装置との間で通信が行われてもよい。仮想世界はひとつ以上のプロセッサによって生成されてもよい。そのプロセッサは仮想世界のなかに通信装置をシミュレートし、そのシミュレートされた通信装置と現実の通信装置との間で通信を行わせる。アバターを使用した仮想世界通信のためのシステムおよび方法、カスタムアバタージェスチャのためのシステムおよび方法、ユーザの感情の状態をアバターにマッピングするためのシステムおよび方法、および仮想および現実の通信装置間で通信をルーティングするためのシステムおよび方法もまた開示される。
【選択図】図2ESystems and methods for communicating with a virtual world are disclosed. The virtual world may include a simulated public space and one or more simulated private spaces. Each private space may be associated with a particular user. The user's interaction with the virtual world may be represented by one or more actions of the avatar. A communication device may be simulated in the virtual world. Communication may be performed between the simulated communication device and the actual communication device. The virtual world may be generated by one or more processors. The processor simulates a communication device in the virtual world and allows communication between the simulated communication device and a real communication device. Systems and methods for virtual world communication using avatars, systems and methods for custom avatar gestures, systems and methods for mapping user emotional states to avatars, and communication between virtual and real communication devices Systems and methods for routing are also disclosed.
[Selection] Figure 2E
Description
(関連出願の参照)
本願は、譲受人を同じくする同時係属中の英国特許出願番号0703974.6、名称「ENTERTAINMENT DEVICE」、2007年3月1日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。
(Refer to related applications)
This application enjoys the benefit of the priority of co-pending UK patent application No. 0703974.6 with the same assignee, the name “ENTERTAINMENT DEVICE”, filed on March 1, 2007. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の英国特許出願番号0704225.2、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。 This application enjoys the benefit of the priority of co-pending UK patent application No. 070425.2, named “ENTERTAINMENT DEVICE AND METHOD”, filed Mar. 5, 2007, with the same assignee. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の英国特許出願番号0704235.1、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。 This application enjoys the benefit of the priority of co-pending UK patent application No. 070425.1 with the same assignee, name “ENTERTAINMENT DEVICE AND METHOD”, filed Mar. 5, 2007. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の英国特許出願番号0704227.8、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。 This application enjoys the benefit of the priority of co-pending UK patent application number 070427.8 with the same assignee, name “ENTERTAINMENT DEVICE AND METHOD”, filed Mar. 5, 2007. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の英国特許出願番号0704246.8、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。 This application enjoys the benefit of the priority of co-pending UK patent application No. 070426.8 with the same assignee, entitled “ENTERTAINMENT DEVICE AND METHOD”, filed Mar. 5, 2007. This application is disclosed herein by reference.
本願は、同時係属中の米国仮特許出願番号60/892,397、名称「VIRTUAL WORLD COMMUNICATION SYSTEMS AND METHODS」、2007年3月1日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。 This application benefits from the priority of co-pending US Provisional Patent Application No. 60 / 889,397, entitled “VIRTUAL WORLD COMMUNICATION SYSTEMS AND METHODS”, filed Mar. 1, 2007. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,281、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR COMMUNICATING WITH AVIRTUAL WORLD」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。 This application is related to co-pending U.S. Patent Application No. 11 / 682,281 with the same assignee, inventor Thomas Gillo et al., “SYSTEM AND METHOD FOR COMMUNICATION WITH AVIRTUAL WORD”, filed March 5, 2007, and related. To do. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,284、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR ROUTING COMMUNICATIONS AMONG REAL AND VIRTUAL COMMUNICATION DEVICES」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。 This application is co-pending U.S. patent application Ser. No. 11 / 682,284 with the same assignee, inventor Thomas Gillo et al., “SYSTEM AND METHOD FOR ROUTING COMMUNICATIONS AMONG REAL AND VIRTUAL COMMUNICATION DEVICES, 7th of March, 200”. Related to the application. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,287、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR COMMUNICATING WITH AN AVATAR」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。 This application is related to co-pending U.S. Patent Application No. 11 / 682,287 with the same assignee, inventor Thomas Gillo et al., The name “SYSTEM AND METHOD FOR COMMUNICING WITH AN AVATAR”, filed March 5, 2007, To do. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,292、発明者Tomas Gillo他、名称「MAPPING USER EMOTIONAL STATE TO AVATAR IN A VIRTUAL WORLD」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。 This application is co-pending U.S. Patent Application No. 11 / 682,292, with the same assignee, inventor Thomas Gillo et al. Related to. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,298、発明者Tomas Gillo他、名称「AVATAR CUSTOMIZATION」、代理人事件番号SCEA0701JDI05、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。 This application is related to co-pending US Patent Application No. 11 / 682,298 with the same assignee, inventor Thomas Gillo et al., Name “AVATAR CUSTOMIZATION”, agent case number SCEA0701JDI05, filed March 5, 2007, To do. This application is disclosed herein by reference.
本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,299、名称「AVATAR EMAIL AND METHODS FOR COMMUNICATING BETWEEN REAL AND VIRTUAL WORLDS」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。 This application is related to co-pending U.S. patent application Ser. No. 11 / 682,299, entitled “AVATAR EMAIL AND METHODS FOR COMMUNICATING BETWEEN REAL AND VIRTUAL WORLDS”, filed Mar. 5, 2007. This application is disclosed herein by reference.
(技術分野)
本発明は、双方向的なコンピュータエンタテイメントに関し、特に仮想世界のユーザ間のコミュニケーションに関する。
(Technical field)
The present invention relates to interactive computer entertainment, and more particularly to communication between users in a virtual world.
仮想世界とは、ユーザがひとつ以上のコンピュータプロセッサを介して互いにやりとりできるシミュレートされた環境である。ユーザはいわゆるアバターとしてビデオスクリーンに表れる。シミュレートされた環境とアバターとの間の相互作用の度合いは、例えば物理的シミュレーションやユーザ間の情報交換などの相互作用を支配するひとつ以上のコンピュータアプリケーションによって実現される。 A virtual world is a simulated environment in which users can interact with each other via one or more computer processors. The user appears on the video screen as a so-called avatar. The degree of interaction between the simulated environment and the avatar is realized by one or more computer applications that govern the interaction, such as physical simulation or information exchange between users.
仮想世界のユーザ間のやりとりの性質はその仮想世界を実現しているシステムの制約によってしばしば制限される。
本発明の実施の形態はこのような点に鑑み創作されたものである。
The nature of interactions between users in a virtual world is often limited by the constraints of the system that implements the virtual world.
The embodiment of the present invention has been created in view of these points.
本発明の教示するところは、添付図面とあわせて以下の詳細な説明を考慮することにより容易に理解されるであろう。 The teachings of the present invention can be readily understood by considering the following detailed description in conjunction with the accompanying drawings, in which:
以下の記述においては、例示のために多くの特定的な詳細を含むが、本発明の範囲内において、以下の詳細について多くの変形や変更が可能であることは、当業者には理解されるところである。したがって、下記に示す本発明の実施例は、請求項に記載の発明の一般性を失わせるものでも制約を設けるものでもない。 While the following description includes many specific details for purposes of illustration, those skilled in the art will appreciate that many variations and modifications may be made to the following details within the scope of the present invention. By the way. Accordingly, the embodiments of the present invention described below are not intended to detract from the generality of the claimed invention or impose limitations.
本発明の実施の形態によると、ユーザは仮想世界とやりとりしてもよい。ここで仮想世界という用語は、現実のもしくは架空の環境を表すものを意味する。この環境はひとつ以上のプロセッサによってシミュレートされた相互作用則を有する。現実のユーザはひとつ以上の表示装置を介してこの環境を認識し、および/または、現実のユーザはひとつ以上のユーザインタフェースを介してこの環境とやりとりする。ここでユーザインタフェースという用語は、ユーザが仮想世界へ入力を送るために、もしくは仮想世界からの出力を受けるために使用される現実の装置を指す。仮想世界は、ひとつ以上のプロセッサモジュールによってシミュレートされてもよい。複数のプロセッサモジュールは、ネットワークを介して互いにリンクされてもよい。ユーザは、ユーザインタフェース装置を介して仮想世界とやりとりしてもよい。このユーザインタフェース装置は、ネットワークを介して複数のプロセッサモジュールおよび他のユーザインタフェース装置と通信できる。仮想世界のある側面は、コンピュータモニタ、テレビモニタ、もしくは同様のディスプレイなどのグラフィックス用のディスプレイにグラフィックスの形でユーザに示されてもよい。仮想世界の他の側面は、スピーカからの音声の形でユーザに示されてもよく、この場合スピーカは、グラフィックス用のディスプレイと共に設けられてもよい。 According to an embodiment of the present invention, the user may interact with the virtual world. Here, the term virtual world means something that represents a real or fictional environment. This environment has an interaction law that is simulated by one or more processors. Real users recognize this environment via one or more display devices and / or real users interact with this environment via one or more user interfaces. As used herein, the term user interface refers to a real device used by a user to send input to the virtual world or to receive output from the virtual world. The virtual world may be simulated by one or more processor modules. The plurality of processor modules may be linked to each other via a network. A user may interact with the virtual world via a user interface device. The user interface device can communicate with a plurality of processor modules and other user interface devices via a network. Certain aspects of the virtual world may be presented to the user in the form of graphics on a graphics display such as a computer monitor, television monitor, or similar display. Other aspects of the virtual world may be shown to the user in the form of audio from a speaker, where the speaker may be provided with a graphics display.
例として、仮想世界はシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを備えてもよい。ある実施の形態では、そのような公共空間および私的空間は、仮想世界の模式的な表現もしくは地図を示すグラフィックス用のディスプレイを介してユーザに示されてもよい。例として、図1Aに示されるように、世界地図10は「ホーム」位置11を示してもよい。ホーム位置11は、ある特定のユーザに限られた仮想世界中の私的空間であってもよい。他のユーザは、そのホーム位置11に関連付けられたユーザからの招待がある場合にのみそのホーム位置11を「訪れる」ことができる。世界地図10は、種々の他の位置12をも示してもよい。ユーザは、例えばカーソルで選ぶことによってもしくは同様のグラフィカルユーザインタフェースによってそれらの位置12を訪れることができる。ベンダがこれらの位置のスポンサーとなってもよく、これらの位置は地図上で、対応する会社のロゴや他のよく知られたシンボルによって表されてもよい。そのような位置は仮想世界のユーザによって訪問されてもよい。仮想世界は固定量の仮想「不動産」を有してもよいし、有さなくてもよい。好適な実施の形態では、仮想不動産の量は固定されていない。
As an example, the virtual world may comprise a simulated public space and one or more simulated private spaces. In some embodiments, such public and private spaces may be shown to the user via a graphic display showing a schematic representation or map of the virtual world. By way of example, as shown in FIG. 1A, the
本発明のある実施の形態では、仮想世界はここで「ロビー」と称される複数の公共空間を有してもよい。各ロビーはそれに付随した別個のチャットチャネルを有してもよい。これによりそのロビーにいるユーザは互いにやりとりできる。各ロビーは、ホテルやオフィスビルや共同住宅や映画館や他の公共の建物などの公共の建物におけるロビーの外観を有してもよい。図1Bは、そのようなロビーのスクリーンショットを示す。ロビーはユーザがそれを用いてやりとりできる物を含んでもよい。そのような物は例えばゲームである。図1Bに見られる通り、仮想世界の部分部分は3次元(3D)グラフィックスの形でユーザに示される。ここで3次元(3D)の形という用語は、長さ、幅、および深さ(もしくは少なくとも深さの錯覚)を有する表現を指す。ロビーは「スクリーン」13を含んでもよい。このスクリーン13は、写真や記録されたビデオやストリーミングビデオを見せるために使用されうる空間中の領域である。
In one embodiment of the invention, the virtual world may have multiple public spaces, referred to herein as “lobby”. Each lobby may have a separate chat channel associated with it. This allows users in the lobby to interact with each other. Each lobby may have the appearance of a lobby in a public building, such as a hotel, office building, apartment house, movie theater, or other public building. FIG. 1B shows a screenshot of such a lobby. The lobby may include things that the user can interact with. Such a thing is a game, for example. As seen in FIG. 1B, a portion of the virtual world is shown to the user in the form of three-dimensional (3D) graphics. Here, the term three-dimensional (3D) shape refers to a representation having length, width, and depth (or at least an illusion of depth). The lobby may include a “screen” 13. This
仮想世界のなかではユーザはアバターによって表示されてもよい。仮想世界のなかの各アバターは、個々のユーザに独自のものとして関連付けられてもよい。ユーザの名前もしくは仮名がアバターの隣に表示されてもよく、それによってユーザは容易に互いを認識しうる。あるユーザの仮想世界とのやりとりは、ひとつ以上の対応するアバター動作によって表されてもよい。異なる複数のユーザが公共空間のなかでアバターを通じて互いにやりとりしてもよい。ユーザを表すアバターは、人間、動物もしくは物体と似た外観を有しうる。人間の形をしたアバターは、ユーザと同じ性もしくは異なる性を有してもよい。ユーザがアバターを仮想世界の他の物体と共に見ることができるように、アバターがディスプレイに表示されてもよい。あるいはまた、ディスプレイは世界をアバターの視点から表示し、そのアバターそのものは表示しなくてもよい。ユーザからの(もしくはアバターからの)仮想世界の見え方は、仮想カメラの視野であると考えてもよい。ここで仮想カメラは、仮想世界のなかの3次元シーンを2次元画像に描画するのに使用されうる仮想世界のなかの視点を指す。ユーザは、自己のアバターを介し、個々のロビーに関連付けられたチャットチャネルを用いて互いにやりとりしてもよい。ユーザは、他のユーザとチャットするために自己のユーザインタフェースを介してテキストを入力してもよい。すると、そのテキストがユーザのアバターの上もしくは隣に表れてもよい。その表れ方は、例えば漫画様のふきだしの形であり、しばしばチャットバブルと呼ばれる。そのようなチャットは、しばしばクイックチャットと呼ばれる、予め用意されたフレーズを用いるチャットシステムを使用することで簡単化されてもよい。クイックチャットでは、ユーザはメニューからひとつ以上のチャットフレーズを選択してもよい。 In the virtual world, the user may be displayed by an avatar. Each avatar in the virtual world may be uniquely associated with an individual user. The user's name or pseudonym may be displayed next to the avatar so that the users can easily recognize each other. A user's interaction with the virtual world may be represented by one or more corresponding avatar actions. A plurality of different users may interact with each other through an avatar in a public space. An avatar representing a user may have an appearance similar to a human, animal or object. A human-shaped avatar may have the same or different gender as the user. The avatar may be displayed on the display so that the user can see the avatar along with other objects in the virtual world. Alternatively, the display may display the world from the viewpoint of the avatar, and the avatar itself may not be displayed. The view of the virtual world from the user (or from the avatar) may be considered as the field of view of the virtual camera. Here, the virtual camera refers to a viewpoint in the virtual world that can be used to draw a three-dimensional scene in the virtual world into a two-dimensional image. Users may interact with each other through their own avatar using chat channels associated with individual lobbies. Users may enter text via their user interface to chat with other users. The text may then appear on or next to the user's avatar. The appearance is, for example, in the form of a comic balloon, often called a chat bubble. Such chats may be simplified by using a chat system that uses pre-prepared phrases, often referred to as quick chat. In quick chat, the user may select one or more chat phrases from a menu.
本発明の実施の形態では、特定のユーザもしくはユーザグループに関連付けられていないという意味、かつどのユーザもしくはユーザグループも他のユーザをその公共空間から排除できないという意味で公共空間は公共である。これと比較して各私的空間は複数のユーザのなかのある特定のユーザに関連付けられる。私的空間に関連付けられた特定のユーザが他のユーザによるその私的空間へのアクセスを制限できるという意味で、私的空間は私的である。私的空間は、よく見られる私的な不動産の外観を有してもよい。例えば、図1Cに見られるように、私的空間は共同住宅もしくは個人宅に似せて設けられてもよい。私的空間には、仮想のものが含まれてもよい。仮想のものの例には、家具15、装飾16、および仮想ラジオや仮想ビデオスクリーンなどの仮想通信装置17が含まれるが、それに限定されない。
In the embodiment of the present invention, the public space is public in the sense that it is not associated with a particular user or user group and that no user or user group can exclude other users from the public space. In comparison, each private space is associated with a particular user among multiple users. A private space is private in the sense that a particular user associated with the private space can restrict access to that private space by other users. A private space may have the appearance of a private property that is often seen. For example, as seen in FIG. 1C, the private space may be provided to resemble an apartment house or a private house. Private space may include virtual objects. Examples of virtual things include, but are not limited to,
本発明のある実施の形態では、仮想世界のユーザは、仮想通信装置を用いて通信してもよい。ここで仮想通信装置という用語は一般的に、仮想世界を構成するシステムの資産を使用して生成される、現実世界の装置の仮想世界におけるシミュレーションを指す。例として、図1Dに示される通り、仮想通信装置18は、ユーザによる装置の操作が簡単になるような形でディスプレイに表示される。図1Dに示される例では、仮想通信装置はソニープレイステーションポータブル(PSP)などの携帯型のゲームコンソールの外観を有する。仮想世界とやりとりするためにユーザが使用する現実のコントローラのボタンは、仮想通信装置の対応するボタン19もしくは他の制御にマッピングされてもよく、この場合ユーザと仮想通信装置との間のやりとりが容易となる。
In some embodiments of the invention, users in the virtual world may communicate using a virtual communication device. Here, the term virtual communication device generally refers to a simulation in the virtual world of a real-world device that is generated using the assets of the systems that make up the virtual world. As an example, as shown in FIG. 1D, the
仮想通信装置は、それに付随した仮想世界のなかでの位置を有してもよく、その位置は固定されていても可動とされていてもよい。仮想世界のなかでシミュレートされた通信装置のインタフェースをシミュレートし、そのシミュレートされたインタフェースをそれを介してやりとりするためにユーザに提示することによって通信装置がシミュレートされてもよい。例として、その仮想の装置は仮想世界において、ユーザに認知されうる形もしくは外観を有してもよい。この形もしくは外観は、ユーザのやりとりを容易にするように、対応する現実世界の装置のそれを模倣するものであってもよい。例えば、仮想の電話機は、ユーザがコントローラを使用して操作するボタンを有するものとして表示されてもよい。その仮想の電話機はさらに、スピーカ、送話口、およびおそらくはグラフィックスディスプレイスクリーンを有するものとして表示されてもよい。シミュレートされた通信装置は、シミュレートされたハンドヘルド通信装置であってもよく、そのようなシミュレートされたハンドヘルド通信装置は例えば、シミュレートされた電話機、シミュレートされた移動電話機(例えば、セルラー電話機もしくはコードレス電話機)、シミュレートされたボイスオーバーインターネットプロトコル(VoIP)電話機、シミュレートされた携帯型テキストメッセージ装置、シミュレートされた携帯型電子メール装置、シミュレートされた携帯型ゲーム装置、シミュレートされたツーウェイラジオ、もしくは他のシミュレートされたハンドヘルド装置である。 The virtual communication device may have a position in a virtual world associated therewith, and the position may be fixed or movable. The communication device may be simulated by simulating the interface of the simulated communication device in the virtual world and presenting the simulated interface to the user for interaction therethrough. By way of example, the virtual device may have a shape or appearance that can be perceived by a user in a virtual world. This shape or appearance may mimic that of a corresponding real-world device so as to facilitate user interaction. For example, a virtual telephone may be displayed as having a button that a user operates using a controller. The virtual phone may further be displayed as having a speaker, mouthpiece, and possibly a graphics display screen. The simulated communication device may be a simulated handheld communication device, such as a simulated telephone, a simulated mobile phone (eg, a cellular phone) Phone or cordless phone), simulated voice over internet protocol (VoIP) phone, simulated portable text messaging device, simulated portable email device, simulated portable gaming device, simulated Two-way radio, or other simulated handheld device.
本発明の実施の形態によると、仮想通信装置が仮想世界のなかでシミュレートされ、そのシミュレートされた通信装置と現実の通信装置との間で通信が行われてもよい。その現実の通信装置は、現実のハンドヘルド通信装置であってもよく、そのような現実のハンドヘルド通信装置は例えば、電話機、移動電話機(例えば、セルラー電話機もしくはコードレス電話機)、ボイスオーバーインターネットプロトコル(VoIP)電話機、携帯型テキストメッセージ装置、携帯型電子メール装置、携帯型ゲーム装置、ツーウェイラジオ、もしくは他のハンドヘルド装置である。現実の通信装置は、他の現実の通信装置と仮想世界とは独立したひとつ以上の通信チャネルを通じて通信することが好ましい。ここで「仮想世界とは独立した通信チャネル」という用語は、そのチャネルを通じて通信が行われるために仮想世界の存在が必要とされない通信チャネルを意味する。例えば、仮想世界によって提供される通信資産を介して現実のセルラー電話機に電話をかける(もしくはその反対)のために仮想電話機が使用されうる。しかしながら、その現実のセルラー電話機は、たとえ仮想世界が存在しなくとも、他の現実のセルラー電話機もしくは電話機に電話をかけることができる。ある実施の形態では、現実の電話機は、シミュレートされた電話機から電話を受けた際には特有の呼び出し音を生成してもよい。また代替的な実施の形態では、シミュレートされた通信装置および現実の通信装置は、互いにテキストメッセージかつ/またはビデオ画像を用いて通信してもよい。 According to the embodiment of the present invention, a virtual communication device may be simulated in a virtual world, and communication may be performed between the simulated communication device and an actual communication device. The actual communication device may be a real handheld communication device, such as a telephone, a mobile phone (eg, a cellular phone or a cordless phone), a voice over internet protocol (VoIP), etc. A telephone, a portable text message device, a portable electronic mail device, a portable game device, a two-way radio, or other handheld device. The actual communication device preferably communicates with one another through one or more communication channels independent of the virtual world. Here, the term “communication channel independent of the virtual world” means a communication channel in which the existence of the virtual world is not required because communication is performed through the channel. For example, a virtual phone can be used to call a real cellular phone (or vice versa) via communication assets provided by the virtual world. However, that real cellular telephone can make calls to other real cellular telephones or telephones even in the absence of a virtual world. In some embodiments, a real phone may generate a unique ringing tone when receiving a call from a simulated phone. In alternative embodiments, the simulated communication device and the actual communication device may communicate with each other using text messages and / or video images.
図1Eは、仮想世界をシミュレートするために使用されうるシステム20の例を示すブロック図である。システム20は、シミュレーションサーバ22とビューサーバ24とを含む。各シミュレーションサーバ22は、仮想世界のある部分をシミュレートするコード化されたインストラクションを実行するひとつ以上のプロセッサモジュールを含んでもよい。例として、各シミュレーションサーバは、デュアルコア、クアッドコアもしくはセルプロセッサなどの複数コアプロセッサをひとつ以上含んでもよい。限られた数のシミュレーションサーバ22とひとつのビューサーバ24とが図1Eに示されているが、この設定は任意の数のサーバの場合に自由に拡張されうる。シミュレーションサーバ22の数とビューサーバ24の数とは両方とも増減されてもよい。例えば、ひとつのシミュレーションサーバ22が多くのビューサーバ24を受け入れてもよいし、多くのシミュレーションサーバ22がひとつのビューサーバ24を受け入れてもよい。シミュレーションサーバ24をより多く加えることにより、仮想世界をより大きくかつ/またはより良くシミュレーションすることができる。ビューサーバ24をより多く加えることにより、システム20はより多くのユーザを取り扱うことができる。無論システム20は、シミュレーションサーバ22およびビューサーバ24の両方をより多く加えることによって、より大きくてより良いシミュレーションとより多くのユーザの受け入れの両方を実現できる。理論的にはシミュレーションサーバ22の数は無限大まで増やすことができる。しかしながらネットワークの帯域幅が限られていることに鑑みると、計算とネットワークの帯域幅による制限のために、ビューサーバ14の数はあるユーザ数を越えると有限の上限値に達すると考えるのが妥当であろう。
FIG. 1E is a block diagram illustrating an example of a
本発明の実施の形態に限定を行うものではなく例示を目的として、以下にセルプロセッサに関する例が説明される。セルプロセッサについては、例えばセルブロードバンドエンジンアーキテクチャ(Cell Broadband Engine Architecture)、著作権者インターナショナルビジネスマシーンコーポレーション(International Business Machines Corporation)、株式会社ソニー・コンピュータエンタテインメント(Sony Computer Entertainment Incorporated)、株式会社東芝(Toshiba Corporation)、2005年8月8日発行、に詳細が記載されている。この書物の複写物はhttp://cell.scei.co.JP/からダウンロード可能である。この書物は本明細書において参照により開示される。典型的なセルプロセッサは、パワープロセッサユニット(PPU)と、シナジスティックプロセシングユニット(SPU)と称される8つまでの付加的なプロセッサとを有する。各SPUは、典型的には主プロセッサと補助プロセッサとを含むひとつのチップ、もしくはそのチップの一部である。全てのSPUおよびPPUは、例えばメモリフローコントローラ(MFC)を通じて主メモリにアクセス可能である。SPUは主プロセッサで走っているプログラムと共同して並列的な操作処理を行うことができる。SPUは小さなローカルメモリ(典型的にはおよそ256キロバイト)を有し、このローカルメモリはソフトウエアによって管理されなければならない。つまり、コードおよびデータはローカルSPUメモリへ手動で移送されなければならず、またローカルSPUメモリから手動で移送されなければならない。高い性能を得るためには、このコードおよびデータはSPUソフトウエアによって管理されなければならない(PPUソフトウエアの関与は最小化されなければならない)。SPUからのコードおよびデータを管理する技術は多くある。そのような技術の例が、米国特許出願番号11/238,077、発明者John P. Bates、Payton White、Attila Vass、名称「CELL PROCESSOR APPARATUS AND METHODS」、2005年9月27日出願、および、米国特許出願番号11/238,095、発明者Richard B. StensonおよびJohn P. Bates、名称「CELL PROCESSOR TASK AND DATA MANAGEMENT」、2005年9月27日出願、および、米国特許出願11/238,086、発明者Tatsuya Iwamoto、名称「CELL PROCESSOR TASK AND DATA MANAGEMENT」、2005年9月27日出願、および、米国特許出願番号11/238,087、発明者John P. Bates、Payton R. White、Richard B. Stenson、Howard Berkey、Attila Vass、Mark Cerny、John Morgan、名称「SPU TASK MANAGER FOR CELL PROCESSOR」、2005年9月27日出願、および、米国特許出願番号11/257,761、発明者Tatsuya Iwamoto、名称「SECURE OPERATION OF CELL PROCESSORS」、2005年10月24日出願、および、米国特許出願番号11/461,390、発明者John P. Bates、Keisuke Inoue、Mark Cerny、名称「CELL PROCESSOR METHODS AND APPARATUS」、2006年7月31日出願、に記載されている。これら全ての出願は本明細書において参照により開示される。
For purposes of illustration and not limitation to the embodiments of the present invention, examples relating to cell processors are described below. Cell processors include, for example, Cell Broadband Engine Architecture, Copyright Business International Business Machines Corporation, Sony Computer Entertainment Corporation, Sony Computer Entertainment Corporation, and Sony Computer Entertainment Corporation. ), Issued August 8, 2005, for details. A copy of this book can be found at http: // cell. scei. co. It can be downloaded from JP /. This book is disclosed herein by reference. A typical cell processor has a power processor unit (PPU) and up to eight additional processors called synergistic processing units (SPUs). Each SPU is typically a chip or a part of a chip that includes a main processor and an auxiliary processor. All SPUs and PPUs can access the main memory through, for example, a memory flow controller (MFC). The SPU can perform parallel operation processing in cooperation with a program running on the main processor. The SPU has a small local memory (typically around 256 kilobytes), which must be managed by software. That is, code and data must be manually transferred to and from the local SPU memory. In order to obtain high performance, this code and data must be managed by the SPU software (PPU software involvement must be minimized). There are many techniques for managing code and data from SPUs. Examples of such techniques are described in US patent application Ser. No. 11 / 238,077, inventor John P. et al. Bates, Payton White, Attila Vass, name “CELL PROCESSOR APPARATUS AND METHODS”, filed Sep. 27, 2005, and US Patent Application No. 11 / 238,095, inventor Richard B. Stenson and John P. Bates, name “CELL PROCESSOR TASK AND DATA MANAGEMENT”, filed on September 27, 2005, and
シミュレーションサーバ22は高速データ移送リンク26を介して互いにおよびビューサーバ24と通信してもよい。例としては、そのデータ移送リンクは、毎秒10ギガビットのイーサネット(登録商標)接続であってもよい。シミュレーションサーバ22は互いに離れて設置されているかもしくは互いに近接して設置されてもよい。データ移送を最適化するためには、シミュレーションサーバ22を、例えば同じ部屋もしくは同じサーバラックに収納するなど互いに物理的にとても近くに設置することが望ましい。ビューサーバ24は、シミュレーションサーバ22からシミュレーションデータを受け取り、広域ネットワーク(wide area network)30を通じて離れて散らばっているクライアント装置28にビューデータを送る。この広域ネットワークは例えばインターネットや他の広域ネットワークである。クライアント装置28は、ネットワーク30を通じて通信できる任意の適切な装置であってもよい。ネットワーク30を通じた通信は、高速データリンク26を通じた通信よりも遅くてもよい。
The simulation servers 22 may communicate with each other and the
例として、クライアント装置28は、ソニープレイステーション3などのビデオゲームコンソール装置であってもよい。あるいはまた、クライアント装置28はハンドヘルドからワークステーションなどまでのあらゆるコンピュータ装置であってもよい。日本国の東京都にあるソニー・コンピュータエンタテインメント製のプレイステーションポータブルなどのハンドヘルドビデオゲーム装置は、他のハンドヘルド装置のなかでも本発明の実施の形態においてクライアント装置28として特に用いられうる例である。クライアント装置28はビューサーバ24に、他のクライアントのアバターやシミュレートされた環境との所望のやりとりに関するインストラクションを送ってもよい。例えば、クライアントユーザが彼もしくは彼女のアバターをシミュレートされた環境の別の位置に動かしたいと思うかもしれない。各クライアント装置28はインストラクションをビューサーバ24のひとつに送る。このインストラクションはそのビューサーバによって中継され、やりとりをシミュレートするために必要な計算を行うシミュレーションサーバに届けられる。
As an example, the
他の装置29もまたネットワーク30を通じて互いに通信してもよい。そのような他の装置の例は、電話機、セルラー電話機、ボイスオーバーインターネットプロトコル(VoIP)電話機、パーソナルコンピュータ、携帯型ウェブブラウザ、携帯型電子メール装置、テキストメッセージ装置、携帯型ゲーム装置などを含む。そのような他の装置29間の通信は、仮想世界を生成するシミュレーションサーバ22およびビューサーバ26とは独立したものであってもよい。他の装置29はシステム20の一部とは考えられてはいないものの、それらの装置はネットワーク30を介してシステム20とやりとりを行ってもよい。
クライアント装置28のユーザはたいていその周辺の物に興味がある。ビューサーバ24は、各クライアント28がその周辺物についての関連データを適切な順序で確実に受け取れるようにする。ビューサーバ24は、クライアントが何を必要としているかを、クライアントのアバターの位置や向きや動きなどに基づいて決定する。例として、各ビューサーバは、公共空間や私的空間を表示するためにクライアント装置が使用するコードかつ/またはデータを生成してもよい。
The user of the
複雑なシミュレートされた世界を実現するために、クライアントとサーバの間で、もしくはクライアント装置と他のクライアント装置との間で、ピアツーピア通信が行われることが望ましい。たとえば、同じ公共空間内のユーザ間の音声/ビデオ(A/V)チャットは、それらのユーザ間の直接のピアツーピア通信によって実現されてもよい。そのようなピアツーピア通信によると、サーバの負荷を低減できる。本発明の実施の形態では、ピアリブ(Peerlib)を使用してネットワークアドレストランスレータ(NATs)を横断し、同じ公共空間内のユーザ間のピアツーピア接続を確立する。NATを横断することは、たとえば米国特許出願番号11/245,853、発明者Yutaka Takeda、名称「METHOD FOR PEER− TO−PEER COMMUNICATION TRAVERSING NETWORK ADDRESS TRANSLATORS OF TYPE SYMMETRIC」、2005年10月4日出願、に記載されている。この出願は本明細書において参照により開示される。
In order to achieve a complex simulated world, it is desirable for peer-to-peer communication to occur between a client and a server or between a client device and another client device. For example, voice / video (A / V) chat between users in the same public space may be achieved by direct peer-to-peer communication between those users. Such peer-to-peer communication can reduce the load on the server. In an embodiment of the present invention, peer ribs are used to traverse network address translators (NATs) to establish peer-to-peer connections between users in the same public space. Crossing NAT, for example, U.S. Patent Application No. 11 / 245,853, Inventor Yutaka Takeda, Name "METHOD FOR PEER- TO-PEER COMMUNICATION TRAVERSING NETWORK ADDRESS TRANSLATORS OF
図1Fは、クライアント装置28として使用されうるマルチメディア処理システム100およびシステム20によって生成される仮想世界とのユーザインタフェースのひとつの実施態様を示す。処理システム100は、静止画や動画や音楽や放送やゲームなどの複数のメディアにまたがる複数のコンテンツを処理することができる複合装置を含んでもよい。複数のコンテンツの処理とは、プレゼンテーション、記録、およびマルチメディア処理システム100によって行われる他の関連タスクを含む。例として、マルチメディア処理システム100は、マルチメディア処理装置102と、ディスプレイ104(例えば、モニタもしくはテレビ)と、コントローラ114と、を備える。コントローラ114のボタンは、図1Dおよび上で説明された仮想コントローラ18の対応するボタン19にマッピングされてもよい。
FIG. 1F shows one embodiment of a
マルチメディア処理装置102は、放送メディアやインターネット(もしくは他のネットワーク)のメディアや光学ディスク110やメモリカード112などの種々のメディア源からマルチメディアコンテンツを受け取ってもよい。放送メディアからのコンテンツは、放送データチャネル106を通じて受信されてもよい。一方、インターネットのメディアからのコンテンツはネットワークデータチャネル108を通じて受信されうる。放送およびネットワークデータチャネル106、108は、無線チャネル、有線チャネルのいずれであってもよい。放送メディアおよびインターネットのメディアからのコンテンツは、マルチメディア処理装置102によって記録、保存されてもよい。受信されたコンテンツは、仮想世界とのやりとりに使用されるだけでなく、マルチメディア処理装置102の種々の機能(例えば、ゲーム)によって使用されてもよい。
The
受信されたマルチメディアコンテンツは、ディスプレイ104に表示されてもよい。ディスプレイは、静止画像や動画像を表示するための陰極線管(CRT)やフラットスクリーンなどのビデオモニタを含んでもよい。ディスプレイ104は、ユーザに音声を提供するために、ひとつ以上の音声スピーカをさらに含んでもよい。コントローラ114は、ユーザにマルチメディア処理に関する種々のインストラクションを入力せしめ、かつ、ユーザにマルチメディア処理装置102の機能を制御せしめる。
The received multimedia content may be displayed on the
システム100は、ディスプレイ104によって提供される可視画像かつ/または可聴音声をもってユーザのやりとりを容易にするために、音声入力およびビデオ入力を含んでもよい。そのような入力は、カメラなどのビデオ撮像装置116およびマイクロホンなどの音声信号取得装置118を含んでもよい。ビデオ撮像装置116は、ディスプレイ104の上に載置されてもよく、またはディスプレイ104と一体化されてもよい。また、ビデオ撮像装置116は、マルチメディア処理装置102と、ケーブルによって、もしくは光学データリンク(例えば、赤外線)や無線周波数データリンク(例えば、ブルートゥース)などの空中接続(over−the−air connections)によって接続されてもよい。撮像装置116は、ディスプレイ104の前付近の画像を取得できるような他のいかなる近隣位置に置かれてもよいことは理解されるべきである。これらの動きややりとりを捉える技術は種々あるが、そのような技術の例が、英国特許出願GB0304024.3(PCT/GB2004/000693)およびGB 0304022.7 (PCT/GB2004/000703)に記載されている。このそれぞれは2003年2月21日に出願されており、本明細書において参照により開示される。撮像装置116は、例えばUSB2.0型のカメラなどのデジタルカメラであってもよい。そのようなカメラは、約75度の視野と、1.5程度のF値と、を有してもよく、また、毎秒約120フレームまでのフレームレートで画像を取得しうる。例として、ビデオ撮像装置は、カリフォルニア州フリーモントにあるロジテック(Logitech)社から購入可能なアイトイカメラ(EyeToy Camera)であってもよい。メディア処理装置102は、ゲームコンソール、テレビ、デジタルビデオレコーダ(DVR)、ケーブルセットトップボックス(cable set−top−box)、ホームメディアサーバ、もしくはユーザからの制御にしたがって自身を描画しうる装置を含む家庭用電気機器であってもよい。代替的な実施の形態では、撮像装置は3次元(3D)カメラであってもよい。ここで3Dカメラ(もしくはゼッドカメラ(zed camera))とは、画像中の物体の深さを決定することを容易にする撮像装置を指す。この文脈において用語「深さ」とは、画像平面と垂直な方向における物体の位置を指す。
図2Aは、マルチメディア処理装置102の実施態様を示す機能ブロック図である。示される実施態様においては、マルチメディア処理装置102は、コントローラ114と、ビデオ撮像装置116と、音声信号取得装置118と、データ入力/出力(I/O)部200と、ディスプレイ出力部202と、ディスプレイ制御部204と、保持部208と、ゲーム/仮想世界プロセッサ206と、を含む。例として、ゲーム/仮想世界プロセッサ206は、セルプロセッサなどの並列プロセッサであってもよく、またそれを含んでもよい。この並列プロセッサは、ひとつ以上のシナジスティックプロセシングユニット(SPU)と結合されたパワープロセシングユニット(PPU)を有する。セルプロセッサについては、例えば米国特許出願番号11/238,077に記載されており、この出願は本明細書において参照により開示される。マルチメディア処理装置102はさらに、データ入力機能、データ維持機能、画像処理機能、描画機能、および他の関係する機能などの種々の機能を実現するためのプログラムおよびインストラクションを含む。
FIG. 2A is a functional block diagram illustrating an embodiment of the
コントローラ114は、ユーザの入力から4つの向き(つまり、上向き、下向き、左向き、および右向き)のひとつもしくは組み合わせを決定する向き決定部222と、ユーザの入力からインストラクションを決定するインストラクション決定部224と、を含んでもよい。インストラクションは、マルチメディアコンテンツを示すためのコマンド、その提示を終了させるためのコマンド、メニュー画面を呼び出すためのコマンド、および他の関係するコマンドかつ/またはインストラクションを発行するためのコマンドを含んでもよい。コントローラ114、ビデオ撮像装置116および音声信号取得装置118からの出力は、ディスプレイ出力部202と、ディスプレイ制御部204と、ゲーム/仮想世界プロセッサ206と、に振り向けられる。
The
図1Bおよび図2Aに示される実施態様では、向き決定部222およびインストラクション決定部224は、方向およびインストラクションを起動、感知、および決定するためのボタン、回路、およびプログラムの組み合わせで構成されてもよい。ボタンは十字キーもしくはジョイスティックを含みうる。メニュー画面を呼び出すためのインストラクションに関連したボタンはトグル式に設定されてもよく、この場合、そのボタンが押される度にメニュー画面が表示モードと非表示モードとの間で切り替えられる。
In the embodiment shown in FIGS. 1B and 2A,
ある実施態様では、向き決定部222はボタンの斜めの動きを、動きの向きを2つの向きのうちの一方と定めるバイナリコマンドとして決定してもよい。ここでは、上向きと右向きとの間の斜めの動きは、上向きかもしくは右向きのいずれか一方と定められうる。別の実施態様では、向き決定部222はボタンの斜めの動きを、動きの向きを測定精度の範囲内におけるある特定の向きに定めるアナログコマンドとして決定してもよい。ここでは、上向きと右向きとの間の斜めの動きは、北西向きと定められうる。後述される通り、方向性の動きは、ユーザとビデオ撮像装置116とディスプレイ制御204との間のやりとりを通じて決定されてもよい。
In one embodiment, the
データI/O部200は、放送チャネル106を介して放送コンテンツを入力する放送入力部212と、ネットワークチャネル108を介してウェブコンテンツなどのデータを入出力するネットワーク通信部214と、ディスク110に保持されるデータを入力するディスク読み取り部216と、メモリカード112にデータを入力しかつ/またはメモリカード112からデータを出力するメモリカード読み取り部218と、を含んでもよい。データI/O部200の出力は、ディスプレイ出力部202と、ディスプレイ制御部204と、ゲームプロセッサ206と、保持部208と、に振り向けられてもよい。
The data I /
ディスプレイ出力部202は、復号部232と、合成部234と、出力バッファ236と、オンスクリーンバッファ238と、を含んでもよい。復号部232は、データI/O部200もしくは保持部208から受け取る入力データを復号する。ここで、入力データは、放送コンテンツ、映画、および音楽を含んでもよい。合成部234は、コントローラ114から受け取るユーザの方針/インストラクションに基づいて復号された入力データを処理する。合成部234の出力は出力バッファ236に保持される。オンスクリーンバッファ238は、ディスプレイ制御部204によって生成されるメニュー画面の画像データを保持してもよい。ディスプレイ出力部202の出力は、ディスプレイ104に伝送される。
The
ディスプレイ制御部204は、メニューマネジャ242と、エフェクトプロセッサ244と、コンテンツ制御部246と、画像生成部248と、を含んでもよい。メニューマネジャ242は、保持部208およびデータI/O部200から受け取り、メニュー画面に示されるメディア体およびマルチメディアコンテンツを管理する。エフェクトプロセッサ244は、メニュー画面のアイコンおよびアイコンアレイの操作を処理する。エフェクトプロセッサ244は、メニュー画面に表示されるべき種々の動作およびエフェクトを管理する。コンテンツ制御部246は、メディア体およびマルチメディアコンテンツの処理、およびデータI/O部、保持部208、およびゲーム/仮想世界プロセッサ206からのデータの取り扱いを制御する。画像生成部248は、メディアアイコンアレイおよびコンテンツアイコンアレイを含むメニュー画面を生成する。
The
ゲーム/仮想世界プロセッサ206は、データI/O部200もしくは保持部208から読み出されたデータを使用して、ゲームかつ/または仮想世界プログラムを実行する。ゲーム/仮想世界プロセッサ206は、ゲームプログラムを実行し、もしくはコントローラ114から受け取るユーザインストラクションに基づき、ユーザの仮想世界とのやりとりを容易にする。実行されたゲームプログラムまたは仮想世界とのやりとりのディスプレイデータは、ディスプレイ出力部202へ伝送される。
The game / virtual world processor 206 uses the data read from the data I /
本発明の実施の形態では、ビデオ撮像装置116および音声信号取得装置118からの信号は、ユーザがディスプレイ104に表される画像とやりとりし、それを操作することを可能とする。特に、本発明の実施の形態は、ユーザがオブジェクトをディスプレイ104上のある位置から別の位置へ「グラブ(grab)」して「ドラッグ(drag)」することを可能としてもよい。図2Bに示される通り、ビデオ撮像装置116は、ユーザUの像IUに向けられそれを撮像する。そして像IUは、アルファブレンディング(alpha blending)として知られている技術を用いて、ディスプレイ104上で他の像からなる背景の上に表示されてもよい。
In an embodiment of the present invention, signals from
「アルファブレンディング」という用語は一般に、2つの色の凸結合を指し、コンピュータグラフィックスの分野における透過性効果のためのものである。カラーコードにおける値アルファ(alpha)は0.0から1.0の範囲にあってもよく、0.0は十分に透明な色を示し、1.0は十分に不透明な色を示す。例として、色Value1が色Value0の背景の上に描かれた場合、その結果として得られる色の値(Value)は以下の式で与えられてもよい。
Value = Value0 (1.0 - alpha) + Value1 (alpha)
The term “alpha blending” generally refers to the convex combination of two colors and is for transparency effects in the field of computer graphics. The value alpha in the color code may be in the range of 0.0 to 1.0, with 0.0 indicating a sufficiently transparent color and 1.0 indicating a sufficiently opaque color. As an example, when the color Value1 is drawn on the background of the color Value0, the resulting color value (Value) may be given by the following equation.
Value = Value0 (1.0-alpha) + Value1 (alpha)
32ビットRGBAに見られるように、アルファ成分は、赤緑青の3成分を均等に混合するために使用される。あるいはまた、スペクトルカラーフィルタリング(spectral color filtering)における原色のそれぞれに対応して3つのアルファ値が指定される。 As seen in 32-bit RGBA, the alpha component is used to evenly mix the three components red, green and blue. Alternatively, three alpha values are designated corresponding to each of the primary colors in spectral color filtering.
ユーザの手hが認識されると、エフェクトプロセッサは、ユーザの手の変位の向きを、通常はコントローラ114から受け取るような向きの入力と関連付けてもよい。変位の大きさで速さの入力を制御できるようにされてもよい。
When the user's hand h is recognized, the effects processor may correlate the orientation of the user's hand displacement with an orientation input that would normally be received from the
ある実施の形態では、像IUは、ユーザの頭Hと手hとを含んでもよい。像IUとのユーザのやりとりを容易にするために、ユーザの像IUはユーザUの鏡像として画面に表示されてもよいことを注意しておく。ここでは、ユーザUが手hをユーザの左側に動かした場合、手の像Ihもまたユーザの左側に動く。エフェクトプロセッサ244は、ユーザの手hを認識し、また手の像Ihの縦横比(高さと幅の比)の変化を認識するよう構成されてもよい。縦横比のこの変化は、コントローラ114にユーザがディスプレイ上のオブジェクト140を「グラブした(grabbed)」もしくは「クリックした(clicked)」ことを知らせるために使用されてもよい。そしてエフェクトプロセッサ244は、選択されたオブジェクトをユーザの手hの像Ihの動きに合わせて動かしうる。ある実施の形態では、ユーザは変形可能な「C」字形状のオブジェクト142を握ってもよい。この変形可能な「C」字形状のオブジェクト142には、ビデオ撮像装置116からの像を解釈する際に、エフェクトプロセッサ244がより容易に認識可能な色がつけられる。ここで「クラム(clam)」と呼ぶこととするオブジェクト142の変形は、ディスプレイ104上のオブジェクトを「グラブ(grab)」もしくは「クリック(click)」するためのコマンドとして認識される縦横比の変化を提供しうる。
In some embodiments, the image I U may include the user's head H and hand h. To facilitate user interaction with the image I U, the image I U of users it is to be noted that the may be displayed on the screen as a mirror image of the user U. Here, when the user U moves the hand h to the left side of the user, the hand image I h also moves to the left side of the user. The effects processor 244 may be configured to recognize the user's hand h and to recognize changes in the aspect ratio (height to width ratio) of the hand image Ih. This change in aspect ratio may be used to inform the
ユーザUがディスプレイ104上のオブジェクト140を操作するのに左手を使用しているか右手を使用しているかをエフェクトプロセッサ244が認識できることが、しばしば望まれる。例えば、ディスプレイ104上のオブジェクトを左手で操作している場合、オブジェクトがユーザの頭Hの左側に表れることが多くの場合望ましい。このような場合、コントローラはユーザの手h、頭H、腕A、および腰Cをそのそれぞれに対応する像Ih、IH、IA、およびICによって認識するソフトウエアを含んでもよい。この情報をもとにコントローラ114は、ユーザUが左手を使用しているか右手を使用しているかを決めることができる。例えば、ユーザの手hが頭Hの左側にあり、腕Aは腰と交差していない場合、ユーザUは左手を使用していると決めることができる。同様に、ユーザの手hが頭の左側にあり、腕は腰と交差している場合、ユーザUは右手を使用していると決めることができる。
It is often desirable for the effects processor 244 to be able to recognize whether the user U is using the left or right hand to manipulate the
本発明のある実施の形態では、撮像装置116および音声信号取得装置118はひとつの機器として統合されてもよい。例えば、図2Cおよび図2Dは、マルチメディア処理システム100で使用されてもよい撮像装置120を示す。装置120は、例えばデジタルカメラ(もしくは3Dカメラ)である光学撮像装置122と、ひとつ以上のマイクロホン124とを含む。マイクロホン124はアレイ状に配置され、かつ互いに既知の距離だけ離されて配置されてもよい。例示であり一般性を失わない範囲において、マイクロホン124は直線アレイ状に間隔を置いて配置され、隣接するマイクロホンは中心間の距離にして約2センチメートルだけ離されてもよい。個々のマイクロホンは、約16キロヘルツの共振周波数を有してもよい。このようなマイクロホンアレイは、装置102の動作および仮想世界とのやりとりと共同して、ひとつ以上の音源の位置を探して追跡するために使用されてもよい。このようなマイクロホンアレイの音源位置発見および追跡のための使用については、例えば米国特許出願11/381,724、11/381,725、および11/381,729、2006年5月4日出願、に記載されている。これらは本明細書において参照により開示される。
In an embodiment of the present invention, the
本発明のある実施の形態では、マイクロホン124が撮像装置122と共に動くことが望ましい。例えば、マイクロホン124はフレーム126に取り付けられてもよい。このフレーム126は、マイクロホンと撮像装置、例えばレンズ128、との位置関係を固定されたものとする。複数のマイクロホンが水平な直線状に配列されているように示されているが、それらは代替的には垂直に向けられてもよく、また斜めに向けられてもよく、また2次元的に配列されてもよい。
In certain embodiments of the invention, it is desirable for the
ある実施の形態では、装置120は可視LED130および赤外線LED132を含んでもよい。これらは撮像装置122の視野にある物体を照らすために使用されうる。赤外線像の取得を容易とするため、レンズ128は、可視光および選択された赤外領域の周波数(例えば、940nm程度の周波数)を通過させるいわゆる「デイ−ナイト(day−night)」コーティングを含んでもよい。
In certain embodiments, the
例として、彼もしくは彼女のアバターに仮想携帯電話をとらせて番号をダイアルさせ、現実のもしくは仮想の電話へ現実に電話をかけさせるように、システム20の要素および装置102は設定されてもよい。その電話を受ける側が仮想世界の他のユーザである場合、システム20および装置102は、そのユーザの仮想電話に接続するよう適切にプログラムされていてもよい。ここでこの接続は、例えばその電話がなされる時点でそのユーザがオンラインであり仮想世界とやりとりを行っている場合にはVoIPを介して行われる。システム20の要素および装置102は、デフォルトでは受け側の仮想電話(もしあれば)にその電話をルーティングするよう設定されていてもよい。受け側がオンラインでない場合、その電話は受け側の現実の通信装置へ再ルーティングされてもよい。現実の通信装置の例は、電話(例えば、固定電話回線、携帯電話、もしくはVoIP電話)、もしくはボイスメール(これは現実のもしくは仮想の電話に伴われうる)、もしくは携帯型ゲーム装置およびそのようなものを含むVoIP対応の任意のネットワーク装置を含んでもよいが、それに限定されない。あるいはまた、電話はデフォルトでユーザの現実の通信装置にルーティングされてもよい。そのような実施の形態では、システム20の要素および装置102は、仮想世界と現実の通信装置との間の賢い双方向ルーティングを可能とするように使用されてもよい。
By way of example, elements of
例示を目的とし一般性を失わない範囲で、現実の装置と仮想の装置との間の通信は、図2Eおよび図2Fを参照して理解されうる。図2Eに示されるように、2人以上のユーザ251、252は、図1Eに関して上述した通り、例えばシステム20を介しネットワーク30を通じて仮想世界とやりとりしてもよい。個々のユーザは、クライアント装置253、254を介してネットワーク30を通じてシステム20と結びついてもよい。これらのクライアント装置253、254は、例えば図1Fおよび2Aに関して上述した通りに適切に設定されてもよい。個々のクライアント装置253、254は、仮想通信装置255、256を生成するのに適切なハードウエアかつ/またはソフトウエアを含んでもよい。装置アバターは仮想世界のなかでは仮想通信装置を表してもよい。装置アバターは、例えば上述の通りに現実の装置の外観を有してもよい。あるいはまた、ユーザは全く任意のかつ/または架空の外観を有するように装置アバターをカスタマイズしてもよい。個々のユーザ251、252は、固定電話257、258および携帯電話259、260などの現実の通信装置を使用することができてもよい。本発明の実施の形態は、任意の数のユーザおよび任意の数の現実のかつ/または仮想の通信装置で実現されうることは、当業者であれば分かる。
For purposes of illustration and without loss of generality, communication between a real device and a virtual device can be understood with reference to FIGS. 2E and 2F. As shown in FIG. 2E, two or
個々のクライアント装置253、254は、現実の装置と仮想の装置との間の電話のルーティングを容易とするための設定可能なルータ261、262を備えてもよい。ルータ261、262は、サーバ、ピアツーピアネットワーク、それらの組み合わせ等のなかにソフトウエアもしくはハードウエアの形で存在してもよい。図2Eに示される例ではルータ261、262はクライアント装置253、254上に設けられているが、これは唯一の可能な配置構成ではない。代替的にはルータ261、262は、シミュレーションサーバ22上、ビューサーバ24上、もしくはネットワーク30に接続された他の装置上など、いかなる場所に設けられてもよい。ルータ261、262は種々の装置からおよび複数の手段でアクセスされうる。これは、仮想電話もしくは通信装置、現実の通信装置、ネットワークウェブページ、および同様のものを含むがそれらに限定されない。個々のルータ261、262は、ルーティング機能を制御するためにひとつ以上のルーティングの優先度を有してもよい。ルータ261、262は、通信ソース(source)または通信ターゲット(target)においてルーティング優先処理を実行してもよい。本実施の形態で使用されている意味において通信「ソース」とは一般的に、通信を発する側(例えば、電話の「発信者(caller)」もしくはテキストメッセージまたは電子メールの「送信者(sender)」)を指す。本実施の形態で使用されている意味において通信「ターゲット」とは一般的に、通信の受け側を指す。ソースおよびターゲットは仮想世界のユーザでなくてもよいことが示される。
例として、第1のユーザ251が第2のユーザ252と例えば仮想通信装置255を使用して通信することを所望する場合を考える。この場合、第1のユーザ251は電話のソースであり、第2のユーザ252は電話のターゲットである。第1のユーザのルータ261は、第2のユーザ252の仮想通信装置256へ優先的に接続を試みるよう設定されていてもよい。そのユーザがオンラインでなく仮想世界を使用していない場合、第1のユーザのルータ261は、第2のユーザの固定電話258へ接続を試みてもよい。そしてそれが失敗した場合は、ルータ261は、第2のユーザ252の携帯電話260に接続を試みてもよい。代替的な例では、第2のユーザのルータ260は第1のユーザ251から通信を受けた場合に、自身のルーティング優先処理を実行してもよいことが示される。例えば、第2のユーザのルータ262は、第1のユーザ251からの電話を優先的に第2のユーザの携帯電話260にルーティングし、次いで第2のユーザの固定電話258にルーティングし、次いで第2のユーザの仮想装置256にルーティングしてもよい。
As an example, consider the case where the
好適な実施の形態では、個々のユーザ251、252はそのユーザの現実のおよび仮想の通信装置のそれぞれに対応するひとつの電話番号を有してもよい。ルータ261、262は、ユーザが有する異なる装置のなかのあるひとつのユーザの番号に電話を自動的にルーティングしてもよい。そのようなルーティングは、ユーザの優先度、ユーザの行動、もしくはそれらのある組み合わせに基づいてもよい。ルータ261、262は通信ソースの正体かつ/または通信ターゲットの正体に依存して異なる優先度を有するようにプログラムされてもよいことが示される。
In a preferred embodiment, each
例えば、あるモードでは、第1のユーザのルータ261は、第1のユーザの番号に電話をかけるソースからの電話を受けうる。そのモードでは、第1のユーザ251は、第1のユーザ251がオンラインであることを示す情報をルータ261に提供してもよい。そのような情報は、例えばコントローラ114を使用してマルチメディア処理装置102のなかにプログラムされてもよい。あるいはまた、ルータ261は、第1のユーザ251がオンラインであるかどうかをチェックしてもよい。もしそうであれば、ルータ261はその「電話」を第1のユーザの仮想通信装置255へルーティングしてもよい。この仮想通信装置255は、たとえ第1のユーザ251が第2のユーザのクライアント装置254を介してオンラインであったとしても「鳴る」ように設定されていてもよい。
For example, in one mode, the first user's
他のモードでは、ルータ261は、第1のユーザ251がオンラインであるかどうか、およびターゲット(例えば、第2のユーザ252)がオフラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めるためにチェックを行ってもよい。この場合、第1のユーザのルータ261は、固定電話258や携帯電話260などの第2のユーザの現実の通信装置へ「電話」をルーティングしてもよい。
In other modes, the
他のモードでは、第1のユーザのルータ261は、第1のユーザ251がオンラインであるかどうか、および第2のユーザ252がオンラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めてもよい。この場合、「テキストメッセージ」が仮想世界のなかで、例えば第2のユーザのアバターやターゲットの第2のユーザの仮想装置256へ、ルーティングされてもよい。
In other modes, the first user's
他のモードでは、ルータ261は、第2のユーザ252がオンラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めるためにチェックを行ってもよい。第2のユーザ252がオフラインである場合、「テキストメッセージ」が、固定電話258や携帯電話260などの第2のユーザに関連付けられた現実世界の装置にルーティングされてもよい。
In other modes, the
上記の例に関して多くの他の置換もまた可能である。例えば、上記の例で、ソースは仮想世界のなかから電話をかけてもよいし、アバター仮想装置を通じて仮想世界のなかで電話をかけてもよいし、任意のVoIP装置またはサービスを通じてもしくは任意の現実の電話線および電話ソースを通じて電話をかけてもよい。 Many other permutations are also possible with respect to the above example. For example, in the above example, the source may make a call from within the virtual world, may make a call in the virtual world through an avatar virtual device, through any VoIP device or service, or any reality. You may make a call through any telephone line and source.
他の設定では、ユーザがオンライン時にアバター電話ではなく現実の携帯電話が鳴って欲しいなどのユーザの優先度に基づき、上述の賢いルーティングが行われてもよい。他の設定では、ステートコントロール(STATE CONTROLS)に基づき、上述の賢いルーティングが行われてもよい。このステートコントロールでは、ある状況の下でのみアプリケーションの設定に依存して電話がアバター電話もしくは現実の電話にルーティングされる。例えば、ターゲットがオンラインゲームに参加しており邪魔されたくない場合、電話はターゲットの現実のもしくは仮想のボイスメールへルーティングされてもよい。さらに別の設定では、電話は仮想装置へルーティングされ、そこでもしその装置が鳴らなかった場合は、仮想ボイスメールへ行く代わりに電話は現実の電話などの現実の装置へ再ルーティングされてもよい。 In other settings, the smart routing described above may be performed based on the user's priority, such as when the user wants a real mobile phone to ring instead of an avatar phone when online. In other settings, the above-described clever routing may be performed based on state control (STATE CONTROLS). With this state control, the phone is routed to an avatar phone or a real phone only under certain circumstances, depending on the application settings. For example, if the target is participating in an online game and does not want to be disturbed, the call may be routed to the target's real or virtual voicemail. In yet another setting, the phone is routed to a virtual device, and if that device does not ring, the phone may be rerouted to a real device, such as a real phone, instead of going to virtual voicemail.
図2Fに示されるように、本発明の実施の形態は、第1のユーザ251が第2のユーザ252へ固定電話257などの現実の電話を使用して電話をかける状況を許す。第1のユーザ251はその電話に向けて話をし、第1のユーザのアバター263が第2のユーザの仮想通信装置256に表れる。このアバター263は、第2のユーザ252が所有するマルチメディア処理装置102に接続されたディスプレイ104に表示される。ディスプレイ104上には、第1のユーザの名前266もまた第1のユーザのアバター263の近くに表示されてもよい。第1のユーザの発言265は、装置102、シミュレーションサーバ22、ビューサーバ24、もしくは他の装置に実装されていてもよい音声認識ソフトウエアかつ/またはハードウエアを使用してテキストに変換されてもよい。その結果得られるテキストはディスプレイ104上で第1のユーザのアバター263の近くのふきだし(text bubbles)264として表示されてもよい。オーディオスピーカ267は、第1のユーザと第2のユーザとの間の通信の間、第1のユーザの発言265の可聴音声を再生してもよい。
As shown in FIG. 2F, the embodiment of the present invention allows a situation where the
同じルーティング処理が、テキストメッセージングや電子メールなどの他のタイプのメッセージングに対して使用されうることが示される。このシステムのひとつの利点は、現実の電話かつ/またはテキストメッセージが、あるユーザから別のユーザへ、現実の通信装置で発生する長距離電話料金や他の電話料金を避けうる形でルーティングされうるということである。受け手側の(ユーザの)現実の電話機もしくはテキストメッセージ装置は、システム20によって維持されている仮想世界とのやりとりを容易とするためのミドルウエアを備えてもよい。
It is shown that the same routing process can be used for other types of messaging such as text messaging and email. One advantage of this system is that a real phone and / or text message can be routed from one user to another in a way that avoids long distance charges and other phone charges generated by real communication devices. That's what it means. The recipient's (user's) real phone or text message device may include middleware to facilitate interaction with the virtual world maintained by the
ある実施の形態では、ユーザは現実の通信装置を使用して仮想世界のコンテンツにアクセスできてもよい。例えば、携帯電話や携帯型インターネット装置などがユーザのアバター、公共空間、もしくは私的空間に変更を加えるために使用されてもよい。あるいはまた、現実の通信装置は仮想通信装置のコンテンツに離れた場所からアクセスするために使用されてもよい。特に、現実の通信装置は、シミュレートされた通信装置とユーザとの間のインタフェースとして使用されてもよい。例えば、仮想通信装置がユーザの私的空間内に配された仮想デジタルビデオレコーダ(DVR)であったとする。ユーザは現実の携帯電話および電子プログラミングガイドを使用して現実のもしくは仮想の出来事を記録するために仮想DVRにアクセスしてもよい。 In some embodiments, a user may be able to access virtual world content using real-world communication devices. For example, a mobile phone or a portable internet device may be used to make changes to the user's avatar, public space, or private space. Alternatively, a real communication device may be used to access the content of the virtual communication device from a remote location. In particular, a real communication device may be used as an interface between a simulated communication device and a user. For example, suppose that the virtual communication device is a virtual digital video recorder (DVR) placed in the user's private space. A user may access a virtual DVR to record real or virtual events using a real mobile phone and an electronic programming guide.
上述した通り、現実の通信装置と仮想通信装置との間で通信を行うことは、ビデオ通信を含んでもよい。ある実施の形態によると、ビデオ通信の間現実の通信装置にアバターの像が表示されてもよい。仮想世界を生成するシステムは、アバター像を、そのアバターに関連付けられたユーザによって生成された現実のもしくは合成された音声にリップシンクさせてもよい。例えば、ユーザは現実の装置へ送るべき音声メッセージをビデオメッセージの一部として記録してもよい。システムはビデオメッセージを音声メッセージをしゃべるアバターと共に生成してもよい。この場合、そのアバターの唇の動きはメッセージ中のユーザの発言と同期している。あるいはまた、ユーザは仮想の装置にメッセージのテキストを入力してもよい。システムはそのテキストからアバターに対して音声を合成し、アバターのビデオ画像を生成してもよい。この場合、アバターの唇の動きは合成された音声と同期している。他の実施の形態では、ユーザは例えばビデオ撮像装置116および音声信号取得装置118を使用して、音声およびビデオメッセージを記録してもよい。
As described above, performing communication between a real communication device and a virtual communication device may include video communication. According to an embodiment, an avatar image may be displayed on a real communication device during video communication. A system that generates a virtual world may lip-sync the avatar image to real or synthesized speech generated by a user associated with the avatar. For example, a user may record an audio message to be sent to a real device as part of a video message. The system may generate a video message with an avatar speaking a voice message. In this case, the movement of the lips of the avatar is synchronized with the user's statement in the message. Alternatively, the user may enter the text of the message on the virtual device. The system may synthesize speech for the avatar from the text and generate a video image of the avatar. In this case, the movement of the lips of the avatar is synchronized with the synthesized voice. In other embodiments, the user may record audio and video messages using, for example,
ある実施の形態では、アバター14は、ある感情を伝えるためのアニメーション、顔色の変化、音、パーティクル(particle)もしくはチャットバブルの変化を通じて感情を表現してもよい。このようなアバターによる感情の表現(しばしば「エモーツ(emotes)」と呼ばれる)は、予めプログラムされ、ユーザコマンドによってトリガされてもよい。本発明のある実施の形態では、仮想世界とのやりとりのなかでユーザが示した感情は、ユーザのアバターによって表される感情にマッピングされてもよい。ある実施の形態では、ユーザはアバターに反映されうる感情状態を選択してもよい。例として、アバターエモーツは装置102によってユーザに提供されるメニューから選択されてもよい。例えば、ユーザが「嬉しい(happy)」を選択した場合、ユーザのアバターは笑みを浮かべた形で表されてもよい。ユーザが「悲しい(sad)」を選択した場合、アバターはしかめづらを表してもよい。このようなメニュー駆動の感情は、ユーザが素早く使用したい場合にはややぎこちないかもしれない。そこで、ある実施の形態では、装置102はリアルタイムでユーザの感情の状態を検出し、その状態を反映するように適切にユーザのアバターの特徴に変化を加えてもよい。このようなリアルタイムでのユーザの感情の状態の追跡は、例えばユーザのアバターの像が現実の装置に表示されるビデオ通信の間、アバターにユーザの感情の状態をマッピングする際に特に有用である。
In some embodiments, the
限定しない例として、装置102は、撮像装置116を使用してユーザUのひとつ以上の画像を取得し、ユーザのひとつ以上の顔色を解析することによって、ユーザの感情の状態をリアルタイムで追跡してもよい。ゲーム/仮想世界プロセッサ206は、ユーザの唇、目、まぶた、まゆげ、ほほ、歯、もしくは小鼻などの顔色、もしくは姿勢や腕や手の置き方などのボディーランゲージを使用してこれらの画像を解析しユーザの感情の状態を決めるようプログラムされてもよい。このような顔色かつ/またはボディーランゲージ解析は、3Dカメラを使用して画像を生成することによって強化されうる。
By way of non-limiting example, the
あるいはまた、ユーザの発話もしくは音声信号取得装置118によって検出される他の発声のなかに示されるユーザの声の抑揚を解析することによって、ユーザの感情状態はリアルタイムで追跡されてもよい。ユーザがテキストを介して通信する場合は、感情状態を示すある言葉、フレーズ、もしくは言語パターンについてテキストを解析することによって感情が追跡されてもよい。加えて、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータなどの他の生物測定学的データを使用してユーザの感情の状態が追跡されてもよい。このようなデータは、コントローラ114に設けられた適切なセンサを通じて取得され、プロセッサ206に導入されている適切に設定されたソフトウエア、ハードウエア、もしくはファームウエアによって解析されてもよい。サーモグラフィデータは、撮像装置116が赤外線画像を取得可能な場合にも得られる。
Alternatively, the user's emotional state may be tracked in real time by analyzing the user's voice inflection shown in the user's utterance or other utterance detected by the audio
ユーザの感情の状態がいったん決定されてしまうと、その感情の状態を示すボディーランゲージと顔色の種々の組み合わせがアバターのアニメーションによって表されるエモーツに反映されてもよい(例えば、歯をむき出して拳を振り上げた様子は怒りを示す)。 Once the emotional state of the user is determined, various combinations of body language and complexion indicating the emotional state may be reflected in the emoticons represented by the animation of the avatar (e.g. Angry shows anger).
ある実施の形態では、ユーザは自己のアバターに対してカスタマイズされたジェスチャもしくは「エモーツ」を使用したいと思うかもしれない。これを容易とするため、アバターに対してひとつ以上のカスタムジェスチャが生成されてもよい。これらのカスタムジェスチャは、ユーザのアバターがコマンドに基づきジェスチャを行うことができるように、ひとつ以上のユーザインタフェース信号と関連付けられてもよい。例として、カスタムジェスチャは、ユーザがジェスチャを行う際にユーザの身体の動きもしくはユーザの表情のマッピングを記録しデジタル化するためのモーションキャプチャもしくはパフォーマンスキャプチャ技術を使用して生成されてもよい。ある実施の形態では、撮像装置116がこの目的のために使用されうる。あるいはまた、商業的なモーションキャプチャスタジオもしくはパフォーマンスキャプチャスタジオがこの目的のために使用されてもよい。
In some embodiments, a user may wish to use a customized gesture or “emotes” for his avatar. To facilitate this, one or more custom gestures may be generated for the avatar. These custom gestures may be associated with one or more user interface signals so that the user's avatar can make a gesture based on the command. As an example, custom gestures may be generated using motion capture or performance capture techniques to record and digitize the user's body movements or user facial expression mappings as the user makes gestures. In certain embodiments, the
モーションキャプチャでは、ユーザもしくは他のパフォーマは各関節にマーカを付け、そのマーカの位置もしくはマーカ間の角度によって動きを認識させてもよい。音声マーカ、慣性マーカ、LEDマーカ、磁気マーカ、もしくは反射性マーカ、あるいはそれらの任意の組み合わせが、最適には所望の動きの速さの少なくとも2倍の速さで、ミリメートル以下の位置精度で、追跡される。モーションキャプチャコンピュータソフトウエアは、位置、角度、速さ、加速度、および力積を記録し、動きの正確なデジタル表現を提供する。例として、光学的なモーションキャプチャシステムは、重なり合う映像を提供するよう較正されたひとつ以上のカメラの間でマーカの3D位置を三角測量してもよい。受動的な光学システムは、カメラのレンズの近くで生成される光を反射する再帰反射性材料で覆われたマーカを使用してもよい。明るいマーカだけがサンプルされ肌や生地を無視できるように、カメラの感度は大抵のカメラが有する狭い範囲の光感度を利用して調整されうる。あるいはまた、マーカそのものが電源を有し自身から光を放つ能動的な光学システムが使用されてもよい。電源は個々のマーカに順番に提供されてもよく、その場合キャプチャシステムと同期してもよい。これによりフレームレートを犠牲にして、所与のキャプチャフレームに対して個々のマーカを独立して認識できる。 In motion capture, a user or other performer may attach a marker to each joint and recognize the movement by the position of the marker or the angle between the markers. A voice marker, inertia marker, LED marker, magnetic marker, or reflective marker, or any combination thereof, is optimally at least twice as fast as the desired speed of motion, with sub-millimeter position accuracy, Be tracked. Motion capture computer software records position, angle, speed, acceleration, and impulse, and provides an accurate digital representation of movement. As an example, an optical motion capture system may triangulate the 3D position of a marker between one or more cameras calibrated to provide overlapping images. Passive optical systems may use markers covered with a retroreflective material that reflects light generated near the camera lens. Camera sensitivity can be adjusted using the narrow range of light sensitivity that most cameras have so that only bright markers are sampled and skin and fabric can be ignored. Alternatively, an active optical system where the marker itself has a power source and emits light from itself may be used. Power may be provided to individual markers in turn, in which case it may be synchronized with the capture system. This allows individual markers to be recognized independently for a given capture frame at the expense of frame rate.
パフォーマンスキャプチャは、パフォーマンスの双方向的な性質により、通常のモーションキャプチャとは異なる。パフォーマンスキャプチャでは、参照する動きのデータを取得し後に動きを一緒に編集するのではなく、体や手や表情を全て一度に取得する。 Performance capture differs from normal motion capture due to the interactive nature of performance. Performance capture captures all of your body, hands, and facial expressions at once, rather than acquiring the motion data you want to reference and later editing the motion together.
ジェスチャのためのユーザの体の動きかつ/または表情がデジタル化されると、そのデジタル化されたジェスチャは、そのジェスチャをアバターが行うようにアバターのアニメーションに関するコード化されたインストラクションもしくは他のユーザインタフェース信号を生成するために使用されてもよい。そのコードや他のユーザインタフェース信号は、一人以上の他のユーザに配布されてもよい。一人以上の他のユーザは、カスタムジェスチャを行うように自己のアバターをカスタマイズできる。カスタマイズされたアバタージェスチャは、カスタマイズされたアバターの服、履き物、ヘアスタイル、民族的な特徴、および他のカスタムアバター特徴と組み合わされて、社会のなかである特定のグループに属していることを示す手段とされてもよい。ある実施の形態では、例えば不必要に他のユーザを刺激したり法を犯したりすることを避けるために、カスタムジェスチャの使用を加減することが望ましい。ここで加減するもしくは加減(moderating or moderation)は、仮想世界のなかで受け入れられうる行動に対してある程度の規制を課すことを指す。このような加減はビューサーバ24によって実装されうる。このビューサーバ24は、カスタムジェスチャが無礼でないかもしくは他の不適切さはないかについて解析してもよい。
When the user's body movements and / or facial expressions for a gesture are digitized, the digitized gesture is a coded instruction or other user interface regarding the animation of the avatar so that the avatar performs the gesture. It may be used to generate a signal. The code and other user interface signals may be distributed to one or more other users. One or more other users can customize their avatars to make custom gestures. Customized avatar gestures, combined with customized avatar clothes, footwear, hairstyles, ethnic characteristics, and other custom avatar characteristics, indicate that they belong to a particular group in society It may be a means. In certain embodiments, it may be desirable to moderate the use of custom gestures, for example, to avoid unnecessarily stimulating other users or committing law. “Adjusting” or “modifying or moderating” here means imposing a certain degree of regulation on actions that can be accepted in the virtual world. Such adjustment can be implemented by the
カスタムジェスチャの表示を加減することは、所定の基準にしたがって、ある特定のユーザについてアバターにカスタムジェスチャを行わせることを制限すること、またはある特定のユーザがカスタムジェスチャを行うアバターを知覚できなくすることを含んでもよい。この所定の基準は、ユーザの年齢や、ジェスチャの視聴者や、宗教的な、民族的な、もしくは視聴者の他の帰属先に基づいて視聴者が侮辱と感じる感受性を含んでもよい。 Adjusting the display of custom gestures restricts avatars from making custom gestures for certain users according to predetermined criteria, or makes certain users unable to perceive avatars that perform custom gestures You may include that. This predetermined criteria may include the sensitivity of the viewer to feel insult based on the age of the user, the viewer of the gesture, religious, ethnic or other attribution of the viewer.
本発明の代替的な実施の形態によると、上述のシステムおよび方法は、仮想世界を使用する通信を実現するように変更されてもよい。特にアバターと電子メールの発信元とが関連付けられてもよい。ユーザは仮想世界のなかで電子メールを生成し、自己のアバターのひとつ以上の画像をその電子メールに関連付けてもよい。その電子メールは仮想世界から現実の装置へ送られてもよい。アバターの画像は電子メールの届け先において、例えば電子メールの添付を自己解凍することによって提示されてもよい。電子メールは、例えば仮想世界のなかの仮想通信装置を使用して生成されてもよい。限定を加えるものではない例として、電子メールの届け先は、例えば電子メールメッセージを受信するように構成された任意の現実の装置である現実の通信装置であってもよい。現実の通信装置は、他の現実の通信装置と仮想世界とは独立したひとつ以上の通信チャネルを通じて通信してもよい。 According to alternative embodiments of the present invention, the systems and methods described above may be modified to implement communication using a virtual world. In particular, an avatar and an email sender may be associated with each other. The user may generate an email in the virtual world and associate one or more images of his / her avatar with the email. The email may be sent from the virtual world to a real device. The avatar image may be presented at the e-mail delivery destination, for example, by self-decompression of the attachment of the e-mail. The email may be generated using a virtual communication device in a virtual world, for example. By way of example without limitation, the e-mail recipient may be a real communication device, for example, any real device configured to receive e-mail messages. Real communication devices may communicate with one another through one or more communication channels independent of the virtual world.
例示であり一般性を失わない範囲において、仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含んでもよい。私的空間の各々は、複数のユーザのなかの個々のユーザに例えば上述のように関連付けられる。 To the extent that it is exemplary and does not lose generality, the virtual world may include a simulated public space and one or more simulated private spaces that facilitate interaction between multiple users. Each private space is associated with an individual user of the plurality of users, for example as described above.
記録されたもしくは合成された音声と電子メールとが関連付けられ、その音声が届け先でひとつ以上の画像と共に提供されてもよい。アバター画像は、特に電子メールのために生成されるアバターのアニメーションを含んでもよい。そのアニメーションは届け先で、例えば電子メールの添付を自己解凍することによって提示されてもよい。加えて、ひとつ以上のジェスチャがアバターのアニメーションに例えば上述のようにマッピングされてもよい。電子メールメッセージの発信元の音声かつ/またはビデオを記録しその音声かつ/またはビデオのひとつ以上の特徴要素をアニメーション中のアバターのひとつ以上の特徴要素にマッピングすることによって、ジェスチャはマッピングされてもよい。 The recorded or synthesized voice and email may be associated and the voice may be provided with one or more images at the destination. The avatar image may include an animation of an avatar generated specifically for email. The animation may be presented at the destination, for example by self-extracting an email attachment. In addition, one or more gestures may be mapped to the animation of the avatar, for example as described above. Gestures can be mapped by recording the voice and / or video from which the email message originated and mapping one or more features of the voice and / or video to one or more features of the animated avatar. Good.
ある実施の形態では、テーマとアニメーションのなかでの仮想カメラの動きとが関連付けられてもよい。限定を加えるものではない例として、テーマは、仮想カメラのアングルの選択やトラッキングやパンや傾斜やズームやクローズアップや擬似光などを含んでもよい。仮想カメラの位置は固定されてもよいし動いてもよい。加えて、テーマはアバターに対して背景描写を選択することを含んでもよい。 In some embodiments, the theme and the movement of the virtual camera in the animation may be associated. By way of example without limitation, the theme may include virtual camera angle selection, tracking, panning, tilting, zooming, close-up, simulated light, and the like. The position of the virtual camera may be fixed or moved. In addition, the theme may include selecting a background depiction for the avatar.
ある実施の形態では、電子メールを作成することは、例えば上述のように発信元の感情の状態を追跡し、その感情の状態をテーマにマッピングすることを含んでもよい。例えば、穏やかなもしくは静かな感情の状態は、固定されたカメラ位置もしくは仮想カメラの比較的遅い移動によって特徴付けられるテーマにマッピングされてもよい。動揺もしくは興奮の感情の状態は、がたがたしたカメラの動きや極度のクローズアップや厳しいカメラのアングルなどによって特徴付けられるテーマにマッピングされてもよい。 In some embodiments, creating the email may include tracking the emotional state of the sender, eg, as described above, and mapping that emotional state to the theme. For example, a calm or quiet emotional state may be mapped to a theme characterized by a fixed camera position or a relatively slow movement of the virtual camera. The emotional state of upset or excitement may be mapped to a theme characterized by rattling camera movements, extreme close-ups, harsh camera angles, and the like.
上述のタイプのアバター電子メール通信は、例えば図1Eのシステム20かつ/または図1Fおよび図2Aのマルチメディア装置102を適切に設定することによって、実現されうる。
Avatar email communication of the type described above may be implemented, for example, by appropriately configuring the
本発明の実施形態によれば、上述のタイプの仮想世界システムおよび方法は、クライアント装置28および例えばシステム20の要素によって生成される仮想世界とやりとりするためのユーザインタフェースとしてコンソールビデオゲーム装置を使用することで実装されうる。図3に示される通り、コンソールビデオゲーム装置300は、プロセッサ301とメモリ302(例えば、RAM、DRAM、ROMなど)を備える。加えて、ビデオゲーム装置300は、並列処理が実装されるのであれば、複数のプロセッサ301を備えてもよい。メモリ302はデータとゲームプログラムコード304を備え、上述のように仮想世界とのユーザのやりとりを容易とする部分を備える。具体的には、メモリ302は上述したような保存コントローラ経路情報を含む慣性信号データ306を備えてもよい。メモリ302は、保存ジェスチャデータ308、例えば、ゲームプログラム304に関連した一つ以上のジェスチャを表すデータなどを含んでもよい。プロセッサ302上で実行されるコード化されたインストラクションは、上述のように構成され機能する複数入力型ミキサ305を使用してもよい。
According to embodiments of the present invention, a virtual world system and method of the type described above uses a console video game device as a user interface for interacting with the
システム300はまた、入出力(I/O)要素311、電源(P/S)312、クロック(CLK)313およびキャッシュ314などの公知のサポート機能310を備えてもよい。装置300は任意に、プログラムおよび/またはデータ保存のためのディスクドライブ、CD−ROMドライブ、テープドライブなどの大容量記憶装置315を備えてもよい。コントローラは任意に、装置300とユーザとのやりとりを容易にするために、ディスプレイ部316と入力部318を備えてもよい。ディスプレイ部316は、テキスト、数値、グラフ記号や画像を表示する陰極線管(CRT)、またはフラットパネルスクリーンの形であってもよい。ユーザインタフェース318は、キーボード、マウス、ジョイスティック、ライトペンや他の装置を備えてもよい。また、ユーザ入力318は分析対象の信号を直接取り込むために、マイクロホン、ビデオカメラ、またはその他の信号変換装置を備えてもよい。装置300は、仮想世界のサーバや他の同様に設定された装置とインターネットなどのネットワークを介して通信できるようにネットワークインタフェース319を含んでもよい。装置300のプロセッサ301、メモリ302、ユーザ入力318、ネットワークインタフェース319および他の部品は図3に示すように、システムバス320を介して、互いに信号(例えばコード化されたインストラクションおよびデータ)を交換してもよい。
The
マイクロホン配列322は、入出力装置311を介してシステム300に接続されてもよい。マイクロホン配列は、約2〜約8個のマイクロホン、好ましくは約4個を、隣接するマイクロホンとは約4cm未満、好ましくは約1〜2cmの距離離間して備えてもよい。好適には、配列322のマイクロホンは無指向性マイクロホンである。オプションである撮像装置323(例えばデジタルカメラ)は、入出力装置311を介して装置300に接続されてもよい。撮像装置の位置決めを制御するために、一つ以上の位置決めアクチュエータ325がカメラに機械的に接続されてもよい。これらのアクチュエータ325は、入出力装置311を介してプロセッサ301との間で信号を交換してもよい。
The
本明細書では、「入出力装置」という用語は、概して装置300との間および周辺装置との間でデータを送受信するプログラム、操作または装置のいずれかを指す。すべてのデータ送受信は、ある装置からの出力と別の装置への入力と考えてよい。周辺装置には、キーボードやマウスなどの入力専用装置、プリンタなどの出力専用装置に加えて、入力装置および出力装置の両方として作動できる書き込み可能CD-ROMなどの装置が含まれてもよい。「周辺装置」という用語には、マウス、キーボード、プリンタ、モニタ、マイクロホン、ゲームコントローラ、カメラ、外部Zipドライバまたはスキャナなどの外部装置に加えて、CD−ROMドライブ、CD−Rドライブまたは内部モデムなどの内部装置、または、フラッシュメモリリーダ/ライタやハードドライブなどの他の周辺装置が含まれる。
As used herein, the term “input / output device” generally refers to any program, operation or device that sends and receives data to and from
本発明のある実施形態では、装置300は、有線(例えばUSBケーブル)または無線、例えば赤外線もしくはラジオ周波数(ブルートゥースなど)接続の使用、を通じて入出力装置311を介してプロセッサに接続されたコントローラ330を具備してもよい。コントローラ330は、ビデオゲームプレイ中に通常使用されるコントロール信号を提供するアナログジョイスティックコントロール331と既知のボタン333を具備してもよい。そのようなビデオゲームは、メモリ302、または大容量記憶装置315に関連する他のプロセッサ読み取り可能媒体に保存されるプログラム304からの、プロセッサ読み取り可能データおよび/またはインストラクションとして実装されてもよい。
In some embodiments of the present invention, the
ジョイスティックコントロール331は、通常、コントロールスティックを左右に動かすとX軸沿いの動きの信号を発信し、前後(上下)に動かすとY軸沿いの信号を発信するように構成されていてもよい。3次元の動き用に構成されたジョイスティックでは、スティックを左(反時計回り)または右(時計回り)に捻るとZ軸沿いの動きの信号を発信してもよい。これらX,Y,Zの3軸は、特に航空機に関する場合に、それぞれロール、ピッチ、ヨーと呼ばれることがある。
The
従来の特徴に加えて、コントローラ330は、一つ以上の慣性センサ332を備えてもよい。慣性センサ332は、慣性信号を介して位置情報および/または方向情報をプロセッサ301に提供できる。方向情報には、コントローラ330の傾き、ロールまたはヨーなどの角度情報が含まれていてもよい。例示として、慣性センサ332には、任意の数の加速度計、ジャイロスコープまたは傾斜センサ、またはこれらの任意の組み合わせが含まれていてもよい。好適な実施形態では、慣性センサ332には、傾斜およびロール軸に対するジョイスティックコントローラの方向を検知するように適応された傾斜センサ、ヨー軸沿いの加速度を検知するように適応された第1の加速度計、およびヨー軸に対する角加速度を検知するように適応された第2の加速度計を備える。加速度計は、例えば、一つ以上のばねで取り付けられた質量と一つ以上の方向に対する質量の変位を検知するセンサとを備えるMEMS装置として実装されてもよい。質量の変位に依存するセンサからの信号は、ジョイスティックコントローラ330の加速度決定に用いられてもよい。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるゲームプログラム304からのインストラクションによって実現される。
In addition to conventional features, the
例示として、慣性センサ332として適した加速度計は、例えば、ばねなどで、フレームに3〜4点で伸縮自在に接続された単一の質量であってもよい。ピッチ軸とロール軸は、ジョイスティックコントローラ330に設けられたフレームと交差する面に存在する。フレーム(およびジョイスティックコントローラ330)がピッチ軸、ロール軸の回りを回転するにつれて、質量が重力の影響下で変位し、ばねがピッチ角および/またはロール角に依存する態様で伸縮する。質量の変位が検知され、ピッチ量および/またはロール量に依存した信号に変換される。ヨー軸回りの角加速度またはヨー軸沿いの線形加速度は、ばねの伸縮または質量の動きの特徴的なパターンを生成し、それらのパターンは検知されて角加速度量または線形加速度量に応じた信号に変換される。そのような加速度計装置は、質量の動きおよびばねの伸縮力を追跡することによって、傾斜、ヨー軸回りのロール角加速度およびヨー軸沿いの線形加速度を計測できる。質量の位置および/またはそれに働く力を追跡する方法には多くの違った方法があり、それらの方法には、抵抗歪みゲージ、音響センサ、磁気センサ、ホール効果素子、圧電素子、容量センサなどが含まれる。
By way of example, an accelerometer suitable as
また、ジョイスティックコントローラ330は、発光ダイオード(LED)などの光源334を一つ以上含んでもよい。光源334は、コントローラを他のコントローラと識別するために用いられる。例えば、一つ以上のLEDがあれば、LEDのパターンコードをぱっと光らせたり保持することで識別できる。例示として、ジョイスティックコントローラ330上に5個のLEDが直線または2次元模様で設けることができる。LEDを直線状に配列することが好ましいが、他の方法として、四角形またはアーチ状に配置して、撮像装置323で得られたLEDパターン画像の分析時に、LED配列の画面の決定を容易にするようになされてもよい。さらに、LEDパターンコードは、ゲームプレイ中のジョイスティックコントローラ330の位置決定にも使用できる。例えば、LEDは、コントローラの傾斜、ヨーおよびロールの特定を助けることができる。この検出パターンによって、例えば飛行機ゲームなどのゲームで、ユーザによりよい感情を提供できる。撮像装置323は、ジョイスティックコントローラ330と光源334を含む像を撮影してもよい。そのような画像を分析すると、ジョイスティックコントローラの位置および/または方向が決定できる。そのような分析は、メモリ302に保存されプロセッサ301で実行されるプログラムコードインストラクション304によって実現されてもよい。撮像装置323による光源334の撮像を容易にするために、光源334は、ジョイスティックコントローラ330の複数の異なる端部、例えば、前方と後方に配置してもよい(影として示す)。そのような配置することによって、撮像装置323は、ユーザのジョイスティックコントローラ330の保持の仕方に応じたジョイスティックコントローラ330の種々の方向に対して、光源334の像を得ることができる。
The
さらに、光源334は、例えば、パルスコード、振幅変調または周波数変調フォーマットでテレメトリ信号をプロセッサ301に提供してもよい。そのようなテレメトリ信号は、いずれのジョイスティックボタンが押されているか、および/またはどれ位強くボタンが押されているかを表してもよい。テレメトリ信号は、例えばパルス符号化、パルス幅変調、周波数変調または光強度(振幅)変調などによって、光信号に符号化されてもよい。プロセッサ301は、光信号からテレメトリ信号を復号化し、復号化されたテレメトリ信号に応じてゲームコマンドを実行してもよい。テレメトリ信号は、撮像装置323で得られたジョイスティックコントローラ330の画像の分析から復号化されてもよい。または、装置301は、光源334からのテレメトリ信号受信専用の独立した光学センサを具備してもよい。コンピュータプログラムとのインタフェースにおける強度決定に併せてのLEDの使用は、例えば、2006年5月4日出願の米国特許出願番号11/429,414、名称「USE OF COMPUTER IMAGE AND AUDIO PROCESSING IN DETERMINING AN INTENSITY AMOUNT WHEN INTERFACING WITH A COMPUTER PROGRAM」(代理人事件番号SONYP052)、発明者Richard L. Marks他に開示されており、その開示内容は全体として、参照により本明細書に援用される。また、光源334を含む画像の分析は、テレメトリおよびジョイスティックコントローラ330の位置および/または方向の決定にも用いることができる。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラム304のインストラクションによって実現されてもよい。
Further, the
プロセッサ301は、撮像装置323で検出された光源334からの光信号、および/またはマイクロホン配列322によって検出された音響信号からの音源場所と音源特性情報と共に、慣性センサ332からの慣性信号を用いて、コントローラ330および/またはユーザの場所および/または方向に関する情報を推測してもよい。例えば、「音響レーダ」の音源場所およびその特性は、マイクロホン配列322と共に用いられて、ジョイスティックコントローラの動きが(慣性センサ332および/または光源334を通して)独立に追跡されている間、移動音源を追跡する。音響レーダにおいて、較正済み聴取領域が実行時間中に選択されてもよい。較正済み聴取領域以外の音源から発生した音はフィルタされて除かれてもよい。較正済み聴取領域は、撮像装置323の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。音響レーダの例は、米国特許出願番号11/381,724、発明者Xiadong Mao、名称「METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION」、2006年5月4日出願、に開示されており、その開示内容は参照により本明細書に援用される。
The processor 301 uses the inertial signal from the
コントロール信号をプロセッサ301に供給するための種々の形態を種々組み合わせたものも、本発明の実施形態と併せて用いられてもよい。そのような技術は、メモリ302に保存されプロセッサ301で実行されるプログラムコードインストラクション304によって実現されてもよく、また、任意に、実行時間中は較正済み聴取領域を選択し、較正済み聴取領域以外の音源から発生した音はフィルタをかけて除くための一つ以上のプロセッサを指揮する一以上の指令を含んでもよい。較正済み聴取領域は、撮像装置323の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。
Various combinations of various forms for supplying control signals to the processor 301 may also be used in conjunction with embodiments of the present invention. Such techniques may be implemented by
プログラム304は任意に、マイクロホン配列322のマイクロホンM0…MMから離散時間領域入力信号Xm(t)を生成し、聴取セクタを決定し、有限インパルス応答フィルタ係数を選択するセミブラインド(semi−blind)音源分離において聴取セクタを用いて、入力信号Xm(t)から異なる音源を分離する一つ以上のプロセッサを指揮する一以上のインストラクションを含んでもよい。プログラム304は、基準マイクロホンM0からの入力信号X0(t)以外の選択入力信号Xm(t)に、一つ以上の非整数遅延(fractional delay)を適用するインストラクションをさらに備えてもよい。マイクロホン配列からの離散時間領域出力信号y(t)の信号対雑音比を最適化するために、各非整数遅延が選択されてもよい。非整数遅延は、基準マイクロホンM0からの信号が、配列の他のマイクロホンからの信号に対して最初であるように選択されてもよい。プログラム304は、非整数遅延Δを、y(t+Δ)=X(t+Δ)*b0+X(t−1+Δ)*b1+X(t−2+δ)*b2+…+X(t−N+Δ)bNとなるようにマイクロホン配列の出力信号y(t)に導入するインストラクションを含んでもよい。ここで、Δは0〜±1である。そのような技術の例は、2006年5月4日出願の米国特許出願番号11/381,729、名称「ULTRA SMALL MICROPHONE ARRAY」、発明者Xiadong Mao、に詳細に開示されており、その開示内容は参照により本明細書に援用される。
The
プログラム304は、実行されると、システム300に、音源を含んだ事前較正済み聴取領域を選択させる一つ以上のインストラクションを含んでもよい。そのようなインストラクションによって、音源が最初の領域内にあるか、またはその領域の特定の側にあるか否かを装置が判断するようになされていてもよい。音源が初期設定領域内に存在しない場合、インストラクションは、実行時に、初期設定領域の特定の側にある別の領域を選択してもよい。別の領域は、最適値に最も近い入力信号の減衰によって特徴付けられてもよい。これらのインストラクションは、実行されると、マイクロホン配列322からの入力信号の減衰と最適値への減衰を計算してもよい。インストラクションは、実行されると、装置300が、一つ以上の領域に対する入力信号の減衰値を決定し、減衰が最適値に最も近い領域を選択するようになされてもよい。そのような技術の例は、2006年5月4日出願の米国特許出願番号11/381,725、名称「METHOD AND APPARATUS FOR TARGETED SOUND DETECTION」、発明者Xiadong Maoに開示されており、その開示内容は参照により本明細書に援用される。
The
慣性センサ332からの信号は追跡情報入力の一部を提供し、撮像装置323による一つ以上の光源334の追跡から生成された信号は追跡情報入力の別の部分を提供する。例示として、またいかなる限定を行うことなく、そのような「混合モード」の信号は、フットボールタイプのビデオゲームで用いられ、ここでは、クォータバックが頭を左に動かすフェイントをかけた後ボールを右に投げる。具体的には、コントローラ330を保持したゲームプレイヤは、頭を左に向け、フットボールでするように、コントローラを右に振って投げる動作をしながら声を出す。「音響レーダ」プログラムコードと併せて、マイクロホン配列320はユーザの声を追跡できる。撮像装置323は、ユーザの頭の動きや、または、音やコントローラを必要としない他のコマンドを追跡できる。センサ332はジョイスティックコントローラ(フットボールを表す)の動きを追跡してもよい。撮像装置323はまた、コントローラ330の光源334を追跡してもよい。ユーザは、ジョイスティックコントローラ330の加速度がある量、および/またはある方向に達したとき、またはコントローラ330のボタンを押してトリガされるキーコマンドに基づいて、「ボール」を投げることができる。
The signal from
本発明のある実施形態では、加速度計またはジャイロスコープなどからの慣性信号は、コントローラ330の位置決めに用いられてもよい。具体的には、加速度計からの加速度信号は、速度変化を決定するために一旦時間積分されてもよく、速度は位置変化を決定するために時間積分されてもよい。ある時刻における初期位置と速度が既知であれば、これらの値と速度および位置変化とを用いて絶対位置を決定できる。慣性センサを用いた位置決定は、撮像装置323や光源334を用いる方法よりも早く行えるが、慣性センサ332は「ドリフト」として知られるタイプの誤差が起こりやすい。これは、時間と共に累積される誤差によって、慣性信号から計算されるジョイスティック330の位置(透視図で示す)とジョイスティックコントローラの実際の位置との間で不一致Dが生じうる現象である。本発明の実施形態では、様々な方法でそのような誤差を処理できる。
In some embodiments of the present invention, inertial signals such as from accelerometers or gyroscopes may be used to position
例えば、コントローラ330の初期位置を現在の計算位置と等しくなるように設定することにより、ドリフトを手動でキャンセルすることができる。ユーザは、コントローラ330の一つ以上のボタンを使って、初期位置を再設定するコマンドをトリガできる。あるいはまた、画像ベースのドリフトであれば、撮像装置323から得られた基準となる画像から決定される位置に現在位置を再設定することによりキャンセルすることができる。そのような画像ベースのドリフトに対する補償は、例えば、ユーザがジョイスティックコントローラ330の一つ以上のボタンをトリガするときに、手動で行うことができる。または、画像ベースのドリフトに対する補償は、例えば、一定の間隔で、またはゲームプレイに応じて自動的に行える。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラムコードインストラクション304によって実現される。
For example, the drift can be manually canceled by setting the initial position of the
ある実施形態では、慣性センサ信号の誤りデータを補正することが望ましい。例えば、慣性センサ332からの信号をオーバーサンプリングし、オーバーサンプリングされた信号から移動平均(sliding average)を計算して、慣性センサ信号から誤りデータを取り除くことができる。ある状況では、信号をオーバーサンプリングし、高い値および/または低い値をデータポイントの一部のサブセットから除き、残りのデータポイントから移動平均を計算することが望ましい。また、慣性センサからの信号を調節して誤りデータから優位性を除去または軽減する他のデータサンプリング技術やデータ処理技術も使用できる。いずれの技術を選択するかは、信号の性質、信号に対しての計算、ゲームプレイの性質、またはこれらの複数の組み合わせに依存する。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラム304のインストラクションによって実現される。
In some embodiments, it may be desirable to correct error data in the inertial sensor signal. For example, the signal from the
プロセッサ301は、上述のように、データ306と、メモリ302に保存、検索されプロセッサモジュール301によって実行されるプログラム304のプログラムコードインストラクションとに応じて、慣性信号データ306の分析を実行する。加えて、プロセッサは、プログラム304の一部として、上述の仮想世界シミュレーション機能を実装してもよい。特に、プログラム304は、種々の上述の仮想世界と通信するための方法かつ/または上述の3次元仮想世界とやりとりするための方法かつ/または上述のアバター電子メール通信の全てまたは一部を実装してもよい。プログラム304のコード部分は、アセンブリ、C++、JAVA(登録商標)またはその他の多くの言語などの多くの異なるプログラム言語のいずれにも準拠してよい。プロセッサモジュール301は、プログラムコード304などのプログラムを実行するときに専用コンピュータとなる汎用コンピュータを形成する。ここでは、プログラムコード304はソフトウェアに組み込まれ、汎用コンピュータで実行されるように説明したが、当業者には、タスク管理方法は、別の方法として、特定用途向け集積回路(ASIC)やその他のハードウェア回路などのハードウェアを用いて実現されることは理解されるであろう。このように、本発明の実施形態は、全体であれ一部分であれ、ソフトウェア、ハードウェアおよびその両方の組み合わせで実現されることは理解されるべきである。
As described above, the processor 301 performs the analysis of the
ある実施形態では、とりわけ、プログラムコード304は、ひとつ以上のプロセッサに慣性センサ332からの信号を解析させて位置かつ/または方向情報を生成させ、その情報をビデオゲームのプレイ中や仮想世界との通信中、3次元仮想世界とやりとりの間に使用せしめる、プロセッサ読み取り可能なインストラクションセットを備えてもよい。プログラムコード304は、実行されると、撮像装置323に、前方の視野を監視し、視野内の一つ以上の光源334を特定し、光源334からの光の変化を検出させ、変化の検出に応じてプロセッサ301に対する入力コマンドをトリガさせる、一つ以上のインストラクションを含んだプロセッサ実行可能インストラクションを任意に備えてもよい。ゲームコントローラのアクションをトリガするために撮像装置と共にLEDを使用することは、2004年1月16日出願の米国特許出願番号10/759,782の「METHOD AND APPARATUS FOR LIGHT INPUT DEVICE」、発明者Richard L. Marksに開示されており、その開示内容は参照により本明細書に援用される。
In some embodiments, among other things, the
プログラムコード304は、実行されると上述のように、ゲームシステムへの入力として、慣性センサからの信号と一つ以上の光源を追跡する撮像装置からの信号とを用いる一つ以上のインストラクションを含むプロセッサ実行可能なインストラクションを、任意に含んでもよい。プログラムコード304は、実行されると、慣性センサ332のドリフトを補償する一つ以上のインストラクションを含むプロセッサ実行可能なインストラクションを、任意に備えてもよい。
When executed,
本発明の実施形態をビデオゲームコントローラ330に関連する例として記述したが、システム300を含む本発明の実施形態は、慣性センシング能力を有し、かつ無線であれそれ以外の方法であれ慣性センサ信号送信能力を有するユーザにより操作される本体、成型品、ノブ、または構造物などのいずれにも使用することができる。
Although embodiments of the present invention have been described as examples relating to
例示として、本発明の実施形態は、並列処理システムに実装することができる。このような並列処理システムは、通常、別々のプロセッサを用いて並列にプログラムの一部を実行するように構成される複数のプロセッサを備える。例示として、また限定を行うことなく、図4は本発明の実施形態によるあるタイプのセルプロセッサ400を示す。セルプロセッサ400は、図3のプロセッサ301として、または図1Eのシミュレーションサーバ22やビューサーバ24のなかに使用することができる。図4の例では、セルプロセッサ400は、メインメモリ402、パワープロセッサ要素(power processor element:PPE)404、および多数のシナジスティックプロセッサ要素(synergistic processor element:SPE)406を備える。図4の例では、セルプロセッサ400は、1個のPPE404と8個のSPE406とを備える。このような構成では、7個のSPE406が並列処理に用いられ、1個は他の7個の一つが故障したときのバックアップとして確保されている。あるいはまた、セルプロセッサは、複数のPPEからなる複数のグループ(PPEグループ)と、複数のSPEからなる複数のグループ(SPEグループ)とを備えてもよい。そのような場合、1グループ内の各ユニットでハードウェアリソースが共有される。しかしながら、SPEとPPEは、ソフトウェアにとって独立要素であるように見える必要がある。このように、本発明の実施形態は、図4に示される構成での使用に限定されるものではない。
By way of illustration, embodiments of the invention can be implemented in a parallel processing system. Such parallel processing systems typically include multiple processors configured to execute portions of a program in parallel using separate processors. By way of example and without limitation, FIG. 4 illustrates one type of
メインメモリ402は、通常、汎用の不揮発性記憶装置に加えて、システム構成、データ同期転送、メモリーマップドI/O、およびI/Oサブシステムなどの機能に用いられる専用のハードウェアレジスタまたはアレイも備える。本発明の実施形態では、ビデオゲームプログラム403がメインメモリ402内に常駐してもよい。ビデオプログラム403は、図4、図5A、図5Bおよび図5Cについて上述したような、またはこれらの組み合わせで構成される慣性、画像および音響分析部を含んでもよい。プログラム403はPPE上で走ってもよい。プログラム403は、SPEおよび/またはPPEで実行される複数の信号処理タスクに分割されてもよい。
例示として、PPE404は、関連するキャッシュL1およびL2を持った64ビットのパワーPCプロセッサユニット(PPU)であってもよい。PPE404は、システム管理リソース(例えば、メモリ保護テーブルなど)にアクセス可能な汎用処理装置である。ハードウェアリソースは、PPEに見られるように実アドレス空間に明示的にマップされてもよい。したがって、PPEは適当な実効アドレス値を用いて、直接これらのリソースのいずれにでもアドレス指定できる。PPE404の主な機能は、セルプロセッサ400のSPE406に対するタスク管理とタスク割り当てである。
By way of example,
図4では1個のPPEだけが示されているが、セルブロードバンドエンジンアーキテクチャ(CBEA)などのセルプロセッサ実装では、セルプロセッサ400は、複数のPPEが存在するPPEグループに系統だてられた複数のPPEを有してもよい。これらのPPEグループはメインメモリ402へのアクセスを共有してもよい。さらに、セルプロセッサ400は二つ以上のSPEを備えてもよい。SPEグループもメインメモリ402へのアクセスを共有してもよい。このような構成も本発明の範囲内である。
Although only one PPE is shown in FIG. 4, in a cell processor implementation such as the Cell Broadband Engine Architecture (CBEA), the
SPE406のそれぞれは、SPUと独自のローカル記憶領域LSとを含む。ローカル記憶領域LSは、メモリ記憶内の一つ以上の分離領域を備えており、それぞれの領域は専用のSPUと関連付けられている。各SPUは、独自の関連付けられた記憶領域内からのインストラクション(データロードとデータ保存操作とを含む)だけを実行するように構成されてもよい。そのような構成では、ローカル記憶領域LSとシステム400のそれ以外の間とのデータ転送は、メモリフローコントローラ(MFC)からダイレクトメモリアクセス(DMA)コマンドを出すことによって行われ、(個々のSPEの)ローカル記憶領域との間でデータ転送される。なんらシステム管理機能を果たさないSPUは、PPE404よりは簡単な構造のコンピュータ装置である。SPUは、一般にSIMD(single instruction, multiple data)機能を有し、通常はデータ処理を行い、割り当てられたタスクを行うために(PPEにより設定されたアクセス特性にしたがって)要求されたデータ転送を開始する。SPUの目的は、より高いコンピュータ装置密度を要求するアプリケーションを可能として、提供された命令セットを有効に利用できるようにすることである。PPE404で管理されるシステムにおけるかなり多くのSPEは、広範囲のアプリケーションにおいて費用効果の高い処理を可能にする。
Each
各SPE406は、メモリ保護情報とアクセス許可情報を保持し処理できる関連メモリ管理ユニットを備えた専用のメモリフローコントローラ(MFC)を備えている。MFCは、セルプロセッサのメイン記憶とSPEのローカル記憶間でのデータ転送、保護および同期化のための主要な方法を提供する。MFCコマンドは実行される転送を記述する。データ転送コマンドは、MFCダイレクトメモリアクセス(DMA)コマンド(またはMFCDMA命令)と呼ばれることがある。
Each
各MFCは、同時に複数のDMA転送をサポートし、複数のMFCコマンドを維持、処理してもよい。各MFCDMAデータ転送コマンド要求は、ローカルストレージアドレス(LSA)と有効アドレス(EA)の両方を伴ってもよい。ローカルストレージアドレスは、関連するSPEのローカルストレージアドレスだけに直接アドレス指定できる。実効アドレスは、例えば、実アドレス空間に名前を変えられれば、すべてのSPEローカルストレージ領域を含むメイン記憶を参照できるなどの、もっと一般的なアプリケーションを備えてもよい。 Each MFC may support multiple DMA transfers simultaneously and maintain and process multiple MFC commands. Each MFCDMA data transfer command request may be accompanied by both a local storage address (LSA) and an effective address (EA). A local storage address can be addressed directly only to the local storage address of the associated SPE. The effective address may comprise a more general application, for example, if it can be renamed to the real address space, it can refer to the main memory including all SPE local storage areas.
SPE406同士の間、および/またはSPE406とPPE404との間の通信を容易にするために、SPE406とPPE404は、シグナリングイベントに関する信号通知レジスタを備えてもよい。PPE404とSPE406は、PPE404がSPE406にメッセージを送信するルータのように働くスター構成(topology)によって接続されてもよい。代替的に、各SPE406とPPE404は、メールボックスと呼ばれる一方向信号通知レジスタを有してもよい。メールボックスは、SPE406によって使用されOSの同期操作を主催する。
To facilitate communication between
セルプロセッサ400は、マイクロホン配列412、任意の撮像装置413およびゲーム/仮想世界コントローラ730などの周辺装置とインタフェースできる入出力(I/O)機能を備えてもよい。コントローラユニット730は慣性センサ732と光源734を備えてもよい。さらに、要素相互接続バス410は、上記に挙げた種々の部品を接続できる。各SPEおよびPPEは、バスインタフェースユニット(BIU)を介してバス410にアクセスできる。セルプロセッサ400は、通常プロセッサに見られる二つのコントローラと、バス410とメインメモリ402の間のデータ流れを制御するメモリインタフェースコントローラ(MIC)と、I/O408とバス410の間のデータ流れを制御するバスインタフェースコントローラ(BIC)とを備えてもよい。MIC、BIC,BIUおよびバス410に対する要件は、実装が異なると大きく変わるが、当業者はそれらの機能および実装回路については精通しているだろう。
セルプロセッサ400は、内部割り込みコントローラ(IIC)を備えてもよい。IIC装置は、PPEに提示される割り込みの優先権を管理する。IICによって、セルプロセッサ400の他の要素からの割り込みを、メインシステムの割り込みコントローラを用いずに処理できる。IICは第2レベルのコントローラと考えることもできる。メインシステムの割り込みコントローラは、セルプロセッサの外部で発生した割り込みを処理してもよい。
The
本発明の実施形態では、仮想世界とのやりとりを容易とするための計算は、PPE404および/または一つ以上のSPE406を用いて並列に実行されてもよい。各計算は、異なるSPE406がそれらが使用可能となるにつれて請け負う一つ以上の別々のタスクとして実行されてもよい。
In embodiments of the present invention, calculations to facilitate interaction with the virtual world may be performed in parallel using the
上記は、本発明の好適な実施形態に関する完全な記述であるが、種々の変形、変更および等価物を用いることが可能である。したがって、本発明の技術範囲は、上記の内容を参照して決定されるべきではなく、その代わりに、添付の特許請求の範囲およびそれらの等価物の全範囲と併せて決定されるべきである。本明細書で説明した好適なまたはそれ以外のすべての特徴は、本明細書に記載された他の好適なまたはそれ以外のいかなる特徴とも組み合わせることができる。特許請求の範囲においては、不定冠詞“A”または“An”は、特にそうでないと明確に述べられた場合を除いて、冠詞に続く品目の一つ以上の数量を指す。添付の特許請求の範囲は、”means for”の句を使って明確にそのような限定が行われない限り、ミーンズプラスファンクションの限定が含まれると解釈されるべきではない。 While the above is a complete description of the preferred embodiment of the present invention, it is possible to use various modifications, changes and equivalents. Accordingly, the scope of the invention should not be determined with reference to the above content, but instead should be determined in conjunction with the appended claims and their full scope of equivalents. . All suitable or otherwise described features herein may be combined with any other suitable or otherwise described features herein. In the claims, the indefinite article "A" or "An" refers to one or more quantities of items that follow the article, unless expressly stated otherwise. The appended claims should not be construed to include means plus function limitations, unless such limitations are expressly made using the phrase “means for”.
Claims (169)
前記仮想世界のなかで通信装置をシミュレートすることと、
前記シミュレートされた通信装置と現実の通信装置との間で通信を行うこと、を含む方法。 A method for communicating with a virtual world, the virtual world including a simulated public space and one or more simulated private spaces that facilitate communication between multiple users, Each of the spaces is associated with an individual user of the plurality of users, the method comprising:
Simulating a communication device in the virtual world;
Communicating between the simulated communication device and a real communication device.
前記シミュレートされた通信装置のインタフェースを前記仮想世界のなかでシミュレートすることと、
そこでやりとりを行わせるために、前記シミュレートされたインタフェースをユーザに提示することと、を含む、請求項1に記載の方法。 Simulating the communication device
Simulating the interface of the simulated communication device in the virtual world;
The method of claim 1, comprising presenting the simulated interface to a user for interaction therewith.
その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現すること、とをさらに含む請求項1に記載の方法。 Associating an avatar with an individual user of the virtual world;
The method of claim 1, further comprising: expressing each individual user's interaction with the virtual world by one or more corresponding avatar actions.
通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っている場合に、前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置を介して前記受け側に連絡することと、を含む、請求項1に記載の方法。 Communicating between the simulated communication device and a real communication device is
Determining whether the recipient of the communication is a user of the virtual world;
Determining whether the recipient is interacting with the virtual world during communication;
When the receiver is communicating with the virtual world during communication, the receiver via a simulated communication device on a real device used by the receiver to interact with the virtual world The method of claim 1, comprising: contacting.
通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、現実の通信装置もしくは前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置に前記受け側へのメッセージを残すことと、を含む、請求項1に記載の方法。 Communicating between the simulated communication device and a real communication device is
Determining whether the recipient of the communication is a user of the virtual world;
Determining whether the recipient is interacting with the virtual world during communication;
When the receiver does not communicate with the virtual world during communication, a real communication device or a communication device simulated on the real device used by the receiver to interact with the virtual world. Leaving a message to the recipient.
通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、前記受け側に現実の通信装置を介して連絡することと、を含み、
前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項1に記載の方法。 Communicating between the simulated communication device and a real communication device is
Determining whether the recipient of the communication is a user of the virtual world;
Determining whether the recipient is interacting with the virtual world during communication;
Contacting the receiver via an actual communication device when the receiver is not communicating with the virtual world at the time of communication,
The method of claim 1, wherein the real communication device communicates with other real communication devices through one or more communication channels independent of the virtual world.
前記仮想世界の個々のユーザにアバターを関連付けることと、
その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現することと、
前記仮想世界と現実の通信装置との間で通信を行うことと、を含み、
前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、方法。 A method for communicating with a virtual world, the virtual world including a simulated public space and one or more simulated private spaces that facilitate communication between multiple users, Each of the spaces is associated with an individual user of the plurality of users, the method comprising:
Associating an avatar with an individual user of the virtual world;
Expressing each user's interaction with the virtual world by one or more corresponding avatar actions;
Communicating between the virtual world and a real communication device,
A method in which the real communication device communicates with another real communication device through one or more communication channels independent of the virtual world.
前記特有の呼び出し音は、他から電話を受けた際に前記現実の電話機が生成する通常の呼び出し音とは異なる、請求項24に記載の方法。 The real phone generates a unique ring when receiving a call from the simulated communication device,
25. The method of claim 24, wherein the distinctive ringing tone is different from a normal ringing tone generated by the real telephone when receiving a call from another.
前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、
前記ひとつ以上のプロセッサはさらに、
前記仮想世界のなかで通信装置をシミュレートし、
前記シミュレートされた通信装置と現実の通信装置との間で通信を行う、システム。 A system for communicating with a virtual world, the system comprising one or more processors that generate the virtual world,
The virtual world includes a simulated public space and one or more simulated private spaces that facilitate interaction between multiple users, each of the private spaces being an individual of the multiple users. Associated with the user,
The one or more processors further includes
Simulate a communication device in the virtual world,
A system for communicating between the simulated communication device and a real communication device.
通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っている場合に、前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置を介して前記受け側に連絡する、請求項40に記載のシステム。 The simulated communication device is:
Determine whether the recipient of the communication is a user of the virtual world,
Determine whether the recipient is communicating with the virtual world during communication;
When the receiver is communicating with the virtual world during communication, the receiver via a simulated communication device on a real device used by the receiver to interact with the virtual world 41. The system of claim 40, wherein the system contacts.
通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、現実の通信装置もしくは前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置に前記受け側へのメッセージを残す、請求項40に記載のシステム。 The simulated communication device is:
Determine whether the recipient of the communication is a user of the virtual world,
Determine whether the recipient is communicating with the virtual world during communication;
When the receiver does not communicate with the virtual world during communication, a real communication device or a communication device simulated on the real device used by the receiver to interact with the virtual world. 41. The system of claim 40, leaving a message to the recipient.
通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、前記受け側に現実の通信装置を介して連絡し、
前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項40に記載のシステム。 The simulated communication device is:
Determine whether the recipient of the communication is a user of the virtual world,
Determine whether the recipient is communicating with the virtual world during communication;
If the receiver does not communicate with the virtual world during communication, contact the receiver via an actual communication device,
41. The system of claim 40, wherein the real communication device communicates with another real communication device through one or more communication channels independent of the virtual world.
前記仮想世界の個々のユーザにアバターを関連付け、
その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現する、請求項40に記載のシステム。 The one or more processors further includes
Associate avatars with individual users in the virtual world,
41. The system of claim 40, wherein each individual user's interaction with the virtual world is represented by one or more corresponding avatar actions.
前記ユーザインタフェースは、前記ユーザと前記仮想世界との間のやりとりを容易にする、請求項40に記載のシステム。 A user interface connected to the one or more processors;
41. The system of claim 40, wherein the user interface facilitates interaction between the user and the virtual world.
前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、
前記ひとつ以上のプロセッサはさらに、
前記仮想世界の個々のユーザにアバターを関連付け、
その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現し、
前記仮想世界と現実の通信装置との間で通信を行い、
前記現実の通信装置は、他の現実の通信装置と仮想世界を生成する前記ひとつ以上のプロセッサとは独立したひとつ以上の通信チャネルを通じて通信する、システム。 A system for communicating with a virtual world, the system comprising one or more processors that generate the virtual world,
The virtual world includes a simulated public space and one or more simulated private spaces that facilitate interaction between multiple users, each of the private spaces being an individual of the multiple users. Associated with the user,
The one or more processors further includes
Associate avatars with individual users in the virtual world,
Expressing each user's interaction with the virtual world by one or more corresponding avatar actions,
Perform communication between the virtual world and the actual communication device,
The real communication device communicates with other real communication devices through one or more communication channels independent of the one or more processors generating a virtual world.
前記特有の呼び出し音は、他から電話を受けた際に前記現実の電話機が生成する通常の呼び出し音とは異なる、請求項65に記載のシステム。 The real phone generates a unique ring when receiving a call from the simulated communication device,
66. The system of claim 65, wherein the unique ringing tone is different from a normal ringing tone generated by the real telephone when receiving a call from another.
前記ユーザインタフェースは、前記ユーザと前記仮想世界との間のやりとりを容易にする、請求項60に記載のシステム。 A user interface connected to the one or more processors;
61. The system of claim 60, wherein the user interface facilitates interaction between the user and the virtual world.
a)前記インタフェースを介して前記ユーザの感情の状態を検出することと、
b)前記ユーザの感情の状態を前記アバターの他のユーザによって知覚されうるひとつ以上の特徴にマッピングすることと、を含み、
前記他のユーザが前記ユーザの感情の状態を前記アバターを知覚することで知覚することができる、方法。 A method of interaction between a three-dimensional virtual world and a user, wherein the virtual world comprises one or more public spaces and one or more private spaces, wherein the user is represented by an avatar in the virtual world, and the user Can operate the avatar via a user interface, and the method includes:
a) detecting the state of emotion of the user via the interface;
b) mapping the emotional state of the user to one or more features that can be perceived by other users of the avatar;
The method in which the other user can perceive the emotional state of the user by perceiving the avatar.
前記アバターに対するカスタムジェスチャを生成することと、
前記ジェスチャにひとつ以上のユーザインタフェース信号を関連付けることと、を含む方法。 A method of interaction between a three-dimensional virtual world and a user, wherein the virtual world comprises one or more public spaces and one or more private spaces, wherein the user is represented by an avatar in the virtual world, and the user Can operate the avatar via a user interface, and the method includes:
Generating a custom gesture for the avatar;
Associating one or more user interface signals with the gesture.
前記他のユーザは自己のアバターを前記カスタムジェスチャを行うようにカスタマイズできる、請求項98に記載の方法。 Further distributing the user interface signal to one or more other users;
99. The method of claim 98, wherein the other user can customize his avatar to perform the custom gesture.
前記仮想世界のユーザを仮想通信装置およびひとつ以上の現実の通信装置に関連付けることと、
前記ユーザ宛の通信を受けた場合に前記仮想通信装置および前記ひとつ以上の現実の通信装置の間でルーティング優先処理を実行することと、を含む方法。 A method for routing communications between a real communication device and a virtual communication device, comprising:
Associating the virtual world user with a virtual communication device and one or more real communication devices;
Performing routing priority processing between the virtual communication device and the one or more real communication devices upon receiving communication addressed to the user.
。 108. The method of claim 107, wherein a source of the communication performs the routing priority process.
前記ステートコントロールは、所定の状況においてのみ前記通信を前記現実のもしくは仮想通信装置へルーティングする、請求項107に記載の方法。 The routing priority process is based on one or more state controls,
108. The method of claim 107, wherein the state control routes the communication to the real or virtual communication device only in predetermined situations.
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
前記ユーザがオンラインである場合に、前記通信を前記仮想通信装置へルーティングすることと、を含む、請求項115に記載の方法。 Routing the communication is
Determining whether the user is “online” in the virtual world;
116. The method of claim 115, comprising routing the communication to the virtual communication device when the user is online.
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
前記ユーザがオンラインでない場合に、前記通信をひとつ以上の前記現実の通信装置へルーティングすることと、を含む、請求項115に記載の方法。 Routing the communication is
Determining whether the user is “online” in the virtual world;
116. The method of claim 115, comprising routing the communication to one or more real communication devices when the user is not online.
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
前記ユーザがオンラインである場合に、テキストメッセージを前記仮想通信装置または前記ユーザに関連付けられたアバターのいずれか一方へルーティングすることと、を含む、請求項115に記載の方法。 Routing the communication is
Determining whether the user is “online” in the virtual world;
116. The method of claim 115, comprising routing a text message to either the virtual communication device or an avatar associated with the user when the user is online.
アバターは前記ソースと関連付けられ、
当該方法はさらに、前記通信の間、前記仮想世界において前記アバターを前記ターゲットに表示することを含む、請求項107に記載の方法。 Communicating between the simulated communication device and a real communication device includes communicating communication from a source to a target;
An avatar is associated with the source,
108. The method of claim 107, further comprising displaying the avatar on the target in the virtual world during the communication.
仮想世界を生成するひとつ以上のプロセッサを備え、
前記ひとつ以上のプロセッサは、仮想通信装置を生成し、設定可能なルータを実現し、
前記設定可能なルータは、ひとつ以上の現実の通信装置と前記仮想通信装置との間の通信におけるルーティングを容易とする、システム。 A system for routing communication between a real communication device and a virtual communication device,
With one or more processors to create a virtual world,
The one or more processors generate virtual communication devices and implement configurable routers;
The configurable router facilitates routing in communication between one or more real communication devices and the virtual communication device.
項126に記載のシステム。 127. The system of claim 126, wherein the router routes communications based on the identity of the communications target.
前記ステートコントロールは、所定の状況においてのみ前記通信を前記現実のもしくは仮想通信装置へルーティングする、請求項126に記載のシステム。 The router routes communications based on one or more state controls,
127. The system of claim 126, wherein the state control routes the communication to the real or virtual communication device only in predetermined situations.
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
前記ユーザがオンラインである場合に、前記通信を前記仮想通信装置へルーティングする、請求項126に記載のシステム。 The router
Determine if the user is "online" in the virtual world;
127. The system of claim 126, wherein the communication is routed to the virtual communication device when the user is online.
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
前記ユーザがオンラインでない場合に、前記通信をひとつ以上の前記現実の通信装置へルーティングする、請求項126に記載のシステム。 The router
Determine if the user is "online" in the virtual world;
129. The system of claim 126, wherein the communication is routed to one or more real communication devices when the user is not online.
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
前記ユーザがオンラインである場合に、テキストメッセージを前記仮想通信装置または前記ユーザに関連付けられたアバターのいずれか一方へルーティングする、請求項126に記載のシステム。 The router
Determine if the user is "online" in the virtual world;
127. The system of claim 126, wherein text messages are routed to either the virtual communication device or an avatar associated with the user when the user is online.
前記アバターは前記ソースと関連付けられる、請求項126に記載のシステム。 The router communicates communication from a source to a target, and displays the avatar on the target in the virtual world during the communication;
127. The system of claim 126, wherein the avatar is associated with the source.
アバターを電子メールの発信元に関連付けることと、
前記仮想世界のなかで電子メールを生成することと、
アバターのひとつ以上の画像を前記電子メールに関連付けることと、
前記電子メールを現実の装置に送ることと、
前記ひとつ以上の画像を前記電子メールの届け先で提示することと、を含む方法。 A method for communicating using a virtual world,
Associating an avatar with the email source,
Generating an email in the virtual world;
Associating one or more images of the avatar with the email;
Sending the email to a real device;
Presenting the one or more images at a destination of the e-mail.
前記届け先で前記音声を前記ひとつ以上の画像と共に提示することと、をさらに含む請求項144に記載の方法。 Associating recorded or synthesized speech with the email;
145. The method of claim 144, further comprising presenting the audio with the one or more images at the destination.
前記電子メールメッセージの発信元の音声かつ/またはビデオを記録することと、
前記音声かつ/またはビデオのひとつ以上の特徴を前記アニメーション中の前記アバターのひとつ以上の特徴にマッピングすることと、を含む、請求項148に記載の方法。 Mapping one or more gestures
Recording the voice and / or video of the originator of the email message;
148. The method of claim 148, comprising mapping one or more features of the audio and / or video to one or more features of the avatar in the animation.
私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられる、請求項144に記載の方法。 The virtual world includes a simulated public space and one or more simulated private spaces that facilitate communication between multiple users;
145. The method of claim 144, wherein each private space is associated with an individual user of the plurality of users.
仮想世界を生成し、
アバターを電子メールの発信元に関連付け、
前記仮想世界のなかで電子メールを生成し、
アバターのひとつ以上の画像を前記電子メールに関連付け、
前記電子メールを現実の装置に送り、
前記ひとつ以上の画像を前記電子メールの届け先で提示する、システム。 A system for communicating using a virtual world, comprising one or more processors, wherein the one or more processors are:
Create a virtual world,
Associate your avatar with the email source,
Create an email in the virtual world,
Associate one or more images of the avatar with the email,
Send the email to a real device,
A system that presents the one or more images at a destination of the e-mail.
私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられる、請求項158に記載のシステム。 The virtual world includes a simulated public space and one or more simulated private spaces that facilitate communication between multiple users;
159. The system of claim 158, wherein each private space is associated with an individual user of the plurality of users.
記録されたかつ/または合成された音声を前記電子メールに関連付け、
前記届け先で前記音声を前記ひとつ以上の画像と共に提示する、請求項158に記載のシステム。 The one or more processors are:
Associating recorded and / or synthesized speech with the email;
159. The system of claim 158, wherein the audio is presented with the one or more images at the destination.
前記電子メールメッセージの発信元の音声かつ/またはビデオを記録し、
前記音声かつ/またはビデオのひとつ以上の特徴を前記アニメーション中の前記アバターのひとつ以上の特徴にマッピングする、請求項163に記載のシステム。 The one or more processors are:
Record the voice and / or video of the originator of the email message;
166. The system of claim 163, mapping one or more features of the audio and / or video to one or more features of the avatar in the animation.
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US89239707P | 2007-03-01 | 2007-03-01 | |
GBGB0703974.6A GB0703974D0 (en) | 2007-03-01 | 2007-03-01 | Entertainment device |
GB0704235A GB2447095B (en) | 2007-03-01 | 2007-03-05 | Entertainment device and method |
US11/682,287 US20080215971A1 (en) | 2007-03-01 | 2007-03-05 | System and method for communicating with an avatar |
US11/682,298 US8788951B2 (en) | 2007-03-01 | 2007-03-05 | Avatar customization |
GB0704225A GB2447094B (en) | 2007-03-01 | 2007-03-05 | Entertainment device and method |
US11/682,284 US7979574B2 (en) | 2007-03-01 | 2007-03-05 | System and method for routing communications among real and virtual communication devices |
US11/682,299 US8502825B2 (en) | 2007-03-01 | 2007-03-05 | Avatar email and methods for communicating between real and virtual worlds |
GB0704227A GB2447020A (en) | 2007-03-01 | 2007-03-05 | Transmitting game data from an entertainment device and rendering that data in a virtual environment of a second entertainment device |
US11/682,281 US8425322B2 (en) | 2007-03-01 | 2007-03-05 | System and method for communicating with a virtual world |
US11/682,292 US20080215972A1 (en) | 2007-03-01 | 2007-03-05 | Mapping user emotional state to avatar in a virtual world |
GB0704246A GB2447096B (en) | 2007-03-01 | 2007-03-05 | Entertainment device and method |
PCT/US2008/055037 WO2008109299A2 (en) | 2007-03-01 | 2008-02-26 | System and method for communicating with a virtual world |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010533006A true JP2010533006A (en) | 2010-10-21 |
JP2010533006A5 JP2010533006A5 (en) | 2012-02-16 |
Family
ID=39738577
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009551806A Pending JP2010533006A (en) | 2007-03-01 | 2008-02-26 | System and method for communicating with a virtual world |
JP2009551726A Pending JP2010535363A (en) | 2007-03-01 | 2008-02-27 | Virtual world avatar control, interactivity and communication interactive messaging |
JP2009551727A Pending JP2010535364A (en) | 2007-03-01 | 2008-02-27 | Interactive user-controlled avatar animation |
JP2009551722A Pending JP2010535362A (en) | 2007-03-01 | 2008-02-27 | Monitoring the opinions and reactions of users in the virtual world |
JP2014039137A Active JP5756198B2 (en) | 2007-03-01 | 2014-02-28 | Interactive user-controlled avatar animation |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009551726A Pending JP2010535363A (en) | 2007-03-01 | 2008-02-27 | Virtual world avatar control, interactivity and communication interactive messaging |
JP2009551727A Pending JP2010535364A (en) | 2007-03-01 | 2008-02-27 | Interactive user-controlled avatar animation |
JP2009551722A Pending JP2010535362A (en) | 2007-03-01 | 2008-02-27 | Monitoring the opinions and reactions of users in the virtual world |
JP2014039137A Active JP5756198B2 (en) | 2007-03-01 | 2014-02-28 | Interactive user-controlled avatar animation |
Country Status (3)
Country | Link |
---|---|
EP (4) | EP2132650A4 (en) |
JP (5) | JP2010533006A (en) |
WO (1) | WO2008108965A1 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015116308A (en) * | 2013-12-18 | 2015-06-25 | 三菱電機株式会社 | Gesture registration device |
CN106464707A (en) * | 2014-04-25 | 2017-02-22 | 诺基亚技术有限公司 | Interaction between virtual reality entities and real entities |
JP2017528834A (en) * | 2014-09-11 | 2017-09-28 | ノキア テクノロジーズ オサケユイチア | Method, apparatus and computer program for displaying images |
JP6263252B1 (en) * | 2016-12-06 | 2018-01-17 | 株式会社コロプラ | Information processing method, apparatus, and program for causing computer to execute information processing method |
JP2019130295A (en) * | 2018-12-28 | 2019-08-08 | ノキア テクノロジーズ オサケユイチア | Interaction between virtual reality entities and real entities |
US10559305B2 (en) | 2016-05-06 | 2020-02-11 | Sony Corporation | Information processing system, and information processing method |
JP2020146469A (en) * | 2020-04-20 | 2020-09-17 | 株式会社トプコン | Ophthalmologic examination system and ophthalmologic examination device |
JP2023039987A (en) * | 2018-05-24 | 2023-03-22 | 株式会社ユピテル | System, program, and the like |
WO2023068067A1 (en) * | 2021-10-18 | 2023-04-27 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7323315B2 (en) | 2019-03-27 | 2023-08-08 | 株式会社コーエーテクモゲームス | Information processing device, information processing method and program |
WO2023244073A1 (en) * | 2022-06-17 | 2023-12-21 | 주식회사 메타캠프 | Metaverse service device for multi-channel structure and channel synchronization, and driving method for device |
WO2024004609A1 (en) * | 2022-06-28 | 2024-01-04 | ソニーグループ株式会社 | Information processing device, information processing method, and recording medium |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10489795B2 (en) | 2007-04-23 | 2019-11-26 | The Nielsen Company (Us), Llc | Determining relative effectiveness of media content items |
US8397168B2 (en) | 2008-04-05 | 2013-03-12 | Social Communications Company | Interfacing with a spatial virtual communication environment |
US8407605B2 (en) | 2009-04-03 | 2013-03-26 | Social Communications Company | Application sharing |
US7769806B2 (en) | 2007-10-24 | 2010-08-03 | Social Communications Company | Automated real-time data stream switching in a shared virtual area communication environment |
JP5368547B2 (en) | 2008-04-05 | 2013-12-18 | ソーシャル・コミュニケーションズ・カンパニー | Shared virtual area communication environment based apparatus and method |
US20100093439A1 (en) * | 2008-10-15 | 2010-04-15 | Nc Interactive, Inc. | Interactive network game and methods thereof |
US20100099495A1 (en) * | 2008-10-16 | 2010-04-22 | Nc Interactive, Inc. | Interactive network game and methods thereof |
US9853922B2 (en) | 2012-02-24 | 2017-12-26 | Sococo, Inc. | Virtual area communications |
JP5229484B2 (en) | 2009-01-28 | 2013-07-03 | 任天堂株式会社 | Information processing system, program, and information processing apparatus |
JP5527721B2 (en) | 2009-01-28 | 2014-06-25 | 任天堂株式会社 | Program and information processing apparatus |
JP5690473B2 (en) | 2009-01-28 | 2015-03-25 | 任天堂株式会社 | Program and information processing apparatus |
JP5813912B2 (en) * | 2009-01-28 | 2015-11-17 | 任天堂株式会社 | Program, information processing apparatus, and information processing system |
US9542010B2 (en) * | 2009-09-15 | 2017-01-10 | Palo Alto Research Center Incorporated | System for interacting with objects in a virtual environment |
US8862977B2 (en) * | 2009-09-30 | 2014-10-14 | Rakuten, Inc. | Object displacement method for web page |
US20120192088A1 (en) * | 2011-01-20 | 2012-07-26 | Avaya Inc. | Method and system for physical mapping in a virtual world |
CN106964150B (en) * | 2011-02-11 | 2021-03-02 | 漳州市爵晟电子科技有限公司 | Action positioning point control system and sleeve type positioning point control equipment thereof |
US20120277001A1 (en) * | 2011-04-28 | 2012-11-01 | Microsoft Corporation | Manual and Camera-based Game Control |
JP2013003778A (en) * | 2011-06-15 | 2013-01-07 | Forum8 Co Ltd | Three-dimensional space information processing system, three-dimensional space information processing terminal, three-dimensional space information processing server, three-dimensional space information processing terminal program, three-dimensional space information processing server program, and three-dimensional space information processing method |
WO2013181026A1 (en) | 2012-06-02 | 2013-12-05 | Social Communications Company | Interfacing with a spatial virtual communications environment |
CN104516618B (en) * | 2013-09-27 | 2020-01-14 | 中兴通讯股份有限公司 | Interface function analysis display method and device |
WO2016068581A1 (en) * | 2014-10-31 | 2016-05-06 | Samsung Electronics Co., Ltd. | Device and method of managing user information based on image |
US10861056B2 (en) | 2015-06-17 | 2020-12-08 | Facebook, Inc. | Placing locations in a virtual world |
US9786125B2 (en) * | 2015-06-17 | 2017-10-10 | Facebook, Inc. | Determining appearances of objects in a virtual world based on sponsorship of object appearances |
US10339592B2 (en) | 2015-06-17 | 2019-07-02 | Facebook, Inc. | Configuring a virtual store based on information associated with a user by an online system |
US10515474B2 (en) | 2017-01-19 | 2019-12-24 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression in a virtual reality system |
US10943100B2 (en) | 2017-01-19 | 2021-03-09 | Mindmaze Holding Sa | Systems, methods, devices and apparatuses for detecting facial expression |
WO2018142228A2 (en) | 2017-01-19 | 2018-08-09 | Mindmaze Holding Sa | Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system |
WO2018139203A1 (en) | 2017-01-26 | 2018-08-02 | ソニー株式会社 | Information processing device, information processing method, and program |
JP6821461B2 (en) * | 2017-02-08 | 2021-01-27 | 株式会社コロプラ | A method executed by a computer to communicate via virtual space, a program that causes the computer to execute the method, and an information control device. |
EP3588444A4 (en) | 2017-02-24 | 2020-02-12 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP6651479B2 (en) * | 2017-03-16 | 2020-02-19 | 株式会社コロプラ | Information processing method and apparatus, and program for causing computer to execute the information processing method |
US11328533B1 (en) | 2018-01-09 | 2022-05-10 | Mindmaze Holding Sa | System, method and apparatus for detecting facial expression for motion capture |
JP7302956B2 (en) * | 2018-09-19 | 2023-07-04 | 株式会社バンダイナムコエンターテインメント | computer system, game system and program |
EP3968165A4 (en) * | 2019-08-20 | 2022-12-21 | Japan Tobacco Inc. | Communication assistance method, program, and communication server |
WO2021033254A1 (en) * | 2019-08-20 | 2021-02-25 | 日本たばこ産業株式会社 | Communication assistance method, program, and communication server |
US11080930B2 (en) * | 2019-10-23 | 2021-08-03 | Skonec Entertainment Co., Ltd. | Virtual reality control system |
EP3846008A1 (en) * | 2019-12-30 | 2021-07-07 | TMRW Foundation IP SARL | Method and system for enabling enhanced user-to-user communication in digital realities |
JP6932224B1 (en) * | 2020-06-01 | 2021-09-08 | 株式会社電通 | Advertising display system |
JP7254112B2 (en) * | 2021-03-19 | 2023-04-07 | 本田技研工業株式会社 | Virtual experience providing device, virtual experience providing method, and program |
WO2023281755A1 (en) * | 2021-07-09 | 2023-01-12 | シャープNecディスプレイソリューションズ株式会社 | Display control device, display control method, and program |
WO2023149255A1 (en) * | 2022-02-02 | 2023-08-10 | 株式会社Nttドコモ | Display control device |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1146248A (en) * | 1997-07-25 | 1999-02-16 | Fujitsu Ltd | Personal communication distributed control system |
JP2001154966A (en) * | 1999-11-29 | 2001-06-08 | Sony Corp | System and method for supporting virtual conversation being participation possible by users in shared virtual space constructed and provided on computer network and medium storing program |
JP2003324522A (en) * | 2002-05-02 | 2003-11-14 | Nippon Telegr & Teleph Corp <Ntt> | Ip/pstn integrated control apparatus, communication method, program, and recording medium |
JP2004021606A (en) * | 2002-06-17 | 2004-01-22 | Nec Corp | Internet service providing system using virtual space providing server |
JP2004130139A (en) * | 2001-05-18 | 2004-04-30 | Sony Computer Entertainment Inc | Entertainment system, communication system, communication program, computer readable recording medium with communication program stored thereon, and communication method |
WO2006042139A2 (en) * | 2004-10-08 | 2006-04-20 | Sonus Networks, Inc. | Common telephony services to multiple devices associated with multiple networks |
JP2006186893A (en) * | 2004-12-28 | 2006-07-13 | Matsushita Electric Ind Co Ltd | Voice conversation control apparatus |
WO2006080080A1 (en) * | 2005-01-28 | 2006-08-03 | Fujitsu Limited | Telephone management system and telephone management method |
US20070002835A1 (en) * | 2005-07-01 | 2007-01-04 | Microsoft Corporation | Edge-based communication |
Family Cites Families (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5734373A (en) * | 1993-07-16 | 1998-03-31 | Immersion Human Interface Corporation | Method and apparatus for controlling force feedback interface systems utilizing a host computer |
CA2141144A1 (en) * | 1994-03-31 | 1995-10-01 | Joseph Desimone | Electronic game utilizing bio-signals |
GB9505916D0 (en) * | 1995-03-23 | 1995-05-10 | Norton John M | Controller |
JP3091135B2 (en) * | 1995-05-26 | 2000-09-25 | 株式会社バンダイ | Game equipment |
US5823879A (en) * | 1996-01-19 | 1998-10-20 | Sheldon F. Goldberg | Network gaming system |
JP3274603B2 (en) * | 1996-04-18 | 2002-04-15 | エヌイーシーソフト株式会社 | Voice aggregation system and voice aggregation method |
JP3757584B2 (en) * | 1997-11-20 | 2006-03-22 | 株式会社富士通ゼネラル | Advertising effect confirmation system |
JP3276068B2 (en) * | 1997-11-28 | 2002-04-22 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Object selection method and system |
US6195104B1 (en) * | 1997-12-23 | 2001-02-27 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
JP2000187435A (en) * | 1998-12-24 | 2000-07-04 | Sony Corp | Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method |
JP2000311251A (en) * | 1999-02-26 | 2000-11-07 | Toshiba Corp | Device and method for generating animation and storage medium |
EP1250698A2 (en) * | 1999-04-20 | 2002-10-23 | John Warren Stringer | Human gestural input device with motion and pressure |
JP4034002B2 (en) * | 1999-04-22 | 2008-01-16 | 三菱電機株式会社 | Distributed virtual space information management transmission method |
AU5012600A (en) * | 1999-05-14 | 2000-12-05 | Graphic Gems | Method and apparatus for a multi-owner, three-dimensional virtual world |
AU5012300A (en) * | 1999-05-14 | 2000-12-05 | Graphic Gems | Method and apparatus for registering lots in a shared virtual world |
JP2000325653A (en) * | 1999-05-19 | 2000-11-28 | Enix Corp | Portable videogame device and storage medium with program stored therein |
JP2001153663A (en) * | 1999-11-29 | 2001-06-08 | Canon Inc | Discrimination device for moving direction of object, and photographic device, navigation system, suspension system, game system and remote controller system provide with the device |
JP3623415B2 (en) * | 1999-12-02 | 2005-02-23 | 日本電信電話株式会社 | Avatar display device, avatar display method and storage medium in virtual space communication system |
JP2001236290A (en) * | 2000-02-22 | 2001-08-31 | Toshinao Komuro | Communication system using avatar |
KR100366384B1 (en) * | 2000-02-26 | 2002-12-31 | (주) 고미드 | Information search system based on communication of users |
JP2001325501A (en) * | 2000-03-10 | 2001-11-22 | Heart Gift:Kk | On-line gift method |
JP3458090B2 (en) * | 2000-03-15 | 2003-10-20 | コナミ株式会社 | GAME SYSTEM HAVING MESSAGE EXCHANGE FUNCTION, GAME DEVICE USED FOR THE GAME SYSTEM, MESSAGE EXCHANGE SYSTEM, AND COMPUTER-READABLE STORAGE MEDIUM |
JP2001321568A (en) * | 2000-05-18 | 2001-11-20 | Casio Comput Co Ltd | Device and method of game and recording medium |
TWI221574B (en) * | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
JP2002136762A (en) * | 2000-11-02 | 2002-05-14 | Taito Corp | Adventure game using latent video |
JP3641423B2 (en) * | 2000-11-17 | 2005-04-20 | Necインフロンティア株式会社 | Advertisement information system |
WO2002042921A1 (en) * | 2000-11-27 | 2002-05-30 | Butterfly.Net, Inc. | System and method for synthesizing environments to facilitate distributed, context-sensitive, multi-user interactive applications |
EP1216733A3 (en) * | 2000-12-20 | 2004-09-08 | Aruze Co., Ltd. | Server providing competitive game service, program storage medium for use in the server, and method of providing competitive game service using the server |
JP2002197376A (en) * | 2000-12-27 | 2002-07-12 | Fujitsu Ltd | Method and device for providing virtual world customerized according to user |
JP4613295B2 (en) * | 2001-02-16 | 2011-01-12 | 株式会社アートディンク | Virtual reality playback device |
EP1386472A4 (en) * | 2001-02-27 | 2009-05-27 | Anthrotronix Inc | Robotic apparatus and wireless communication system |
US7667705B2 (en) * | 2001-05-15 | 2010-02-23 | Nintendo Of America Inc. | System and method for controlling animation by tagging objects within a game environment |
JP3425562B2 (en) * | 2001-07-12 | 2003-07-14 | コナミ株式会社 | Character operation program, character operation method, and video game apparatus |
JP3732168B2 (en) * | 2001-12-18 | 2006-01-05 | 株式会社ソニー・コンピュータエンタテインメント | Display device, display system and display method for objects in virtual world, and method for setting land price and advertising fee in virtual world where they can be used |
JP2003210834A (en) * | 2002-01-17 | 2003-07-29 | Namco Ltd | Control information, information storing medium, and game device |
JP2003259331A (en) * | 2002-03-06 | 2003-09-12 | Nippon Telegraph & Telephone West Corp | Three-dimensional contents distribution apparatus, three-dimensional contents distribution program, program recording medium, and three-dimensional contents distribution method |
JP2004046311A (en) * | 2002-07-09 | 2004-02-12 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for gesture input in three-dimensional virtual space |
US20040029625A1 (en) * | 2002-08-07 | 2004-02-12 | Ed Annunziata | Group behavioral modification using external stimuli |
AU2002350422A1 (en) * | 2002-11-07 | 2004-06-07 | Personics A/S | Adaptive motion detection interface and motion detector |
JP3952396B2 (en) * | 2002-11-20 | 2007-08-01 | 任天堂株式会社 | GAME DEVICE AND INFORMATION PROCESSING DEVICE |
JP2004237022A (en) * | 2002-12-11 | 2004-08-26 | Sony Corp | Information processing device and method, program and recording medium |
JP3961419B2 (en) * | 2002-12-27 | 2007-08-22 | 株式会社バンダイナムコゲームス | GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM |
GB0306875D0 (en) * | 2003-03-25 | 2003-04-30 | British Telecomm | Apparatus and method for generating behavior in an object |
JP4442117B2 (en) * | 2003-05-27 | 2010-03-31 | ソニー株式会社 | Information registration method, information registration apparatus, and information registration program |
US7725419B2 (en) * | 2003-09-05 | 2010-05-25 | Samsung Electronics Co., Ltd | Proactive user interface including emotional agent |
JP2005100053A (en) * | 2003-09-24 | 2005-04-14 | Nomura Research Institute Ltd | Method, program and device for sending and receiving avatar information |
JP2005216004A (en) * | 2004-01-29 | 2005-08-11 | Tama Tlo Kk | Program and communication method |
JP4559092B2 (en) * | 2004-01-30 | 2010-10-06 | 株式会社エヌ・ティ・ティ・ドコモ | Mobile communication terminal and program |
US20060013254A1 (en) * | 2004-06-07 | 2006-01-19 | Oded Shmueli | System and method for routing communication through various communication channel types |
JP2006034436A (en) * | 2004-07-23 | 2006-02-09 | Smk Corp | Virtual game system using exercise apparatus |
US20090005167A1 (en) * | 2004-11-29 | 2009-01-01 | Juha Arrasvuori | Mobile Gaming with External Devices in Single and Multiplayer Games |
JP2006185252A (en) * | 2004-12-28 | 2006-07-13 | Univ Of Electro-Communications | Interface device |
JP2006211005A (en) * | 2005-01-25 | 2006-08-10 | Takashi Uchiyama | Television telephone advertising system |
JP4322833B2 (en) * | 2005-03-16 | 2009-09-02 | 株式会社東芝 | Wireless communication system |
US20060252538A1 (en) * | 2005-05-05 | 2006-11-09 | Electronic Arts Inc. | Analog stick input replacement for lengthy button push sequences and intuitive input for effecting character actions |
EP1878013B1 (en) * | 2005-05-05 | 2010-12-15 | Sony Computer Entertainment Inc. | Video game control with joystick |
JP2006004421A (en) * | 2005-06-03 | 2006-01-05 | Sony Corp | Data processor |
-
2008
- 2008-02-26 JP JP2009551806A patent/JP2010533006A/en active Pending
- 2008-02-26 EP EP08730776A patent/EP2132650A4/en not_active Ceased
- 2008-02-27 EP EP08726207A patent/EP2126708A4/en not_active Ceased
- 2008-02-27 JP JP2009551726A patent/JP2010535363A/en active Pending
- 2008-02-27 EP EP08726219A patent/EP2118757A4/en not_active Withdrawn
- 2008-02-27 JP JP2009551727A patent/JP2010535364A/en active Pending
- 2008-02-27 EP EP08726220A patent/EP2118840A4/en not_active Withdrawn
- 2008-02-27 WO PCT/US2008/002630 patent/WO2008108965A1/en active Application Filing
- 2008-02-27 JP JP2009551722A patent/JP2010535362A/en active Pending
-
2014
- 2014-02-28 JP JP2014039137A patent/JP5756198B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1146248A (en) * | 1997-07-25 | 1999-02-16 | Fujitsu Ltd | Personal communication distributed control system |
JP2001154966A (en) * | 1999-11-29 | 2001-06-08 | Sony Corp | System and method for supporting virtual conversation being participation possible by users in shared virtual space constructed and provided on computer network and medium storing program |
JP2004130139A (en) * | 2001-05-18 | 2004-04-30 | Sony Computer Entertainment Inc | Entertainment system, communication system, communication program, computer readable recording medium with communication program stored thereon, and communication method |
JP2003324522A (en) * | 2002-05-02 | 2003-11-14 | Nippon Telegr & Teleph Corp <Ntt> | Ip/pstn integrated control apparatus, communication method, program, and recording medium |
JP2004021606A (en) * | 2002-06-17 | 2004-01-22 | Nec Corp | Internet service providing system using virtual space providing server |
WO2006042139A2 (en) * | 2004-10-08 | 2006-04-20 | Sonus Networks, Inc. | Common telephony services to multiple devices associated with multiple networks |
JP2006186893A (en) * | 2004-12-28 | 2006-07-13 | Matsushita Electric Ind Co Ltd | Voice conversation control apparatus |
WO2006080080A1 (en) * | 2005-01-28 | 2006-08-03 | Fujitsu Limited | Telephone management system and telephone management method |
US20070002835A1 (en) * | 2005-07-01 | 2007-01-04 | Microsoft Corporation | Edge-based communication |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015116308A (en) * | 2013-12-18 | 2015-06-25 | 三菱電機株式会社 | Gesture registration device |
CN106464707A (en) * | 2014-04-25 | 2017-02-22 | 诺基亚技术有限公司 | Interaction between virtual reality entities and real entities |
JP2017523816A (en) * | 2014-04-25 | 2017-08-24 | ノキア テクノロジーズ オサケユイチア | Interaction between virtual reality entity and reality entity |
US10916057B2 (en) | 2014-09-11 | 2021-02-09 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a real world object in a virtual reality enviroment |
JP2017528834A (en) * | 2014-09-11 | 2017-09-28 | ノキア テクノロジーズ オサケユイチア | Method, apparatus and computer program for displaying images |
US11646026B2 (en) | 2016-05-06 | 2023-05-09 | Sony Group Corporation | Information processing system, and information processing method |
US11074916B2 (en) | 2016-05-06 | 2021-07-27 | Sony Corporation | Information processing system, and information processing method |
US10559305B2 (en) | 2016-05-06 | 2020-02-11 | Sony Corporation | Information processing system, and information processing method |
US10777199B2 (en) | 2016-05-06 | 2020-09-15 | Sony Corporation | Information processing system, and information processing method |
JP6263252B1 (en) * | 2016-12-06 | 2018-01-17 | 株式会社コロプラ | Information processing method, apparatus, and program for causing computer to execute information processing method |
JP2018089227A (en) * | 2016-12-06 | 2018-06-14 | 株式会社コロプラ | Information processing method, device, and program for implementing that information processing method on computer |
JP2023039987A (en) * | 2018-05-24 | 2023-03-22 | 株式会社ユピテル | System, program, and the like |
JP7308573B2 (en) | 2018-05-24 | 2023-07-14 | 株式会社ユピテル | System and program etc. |
JP2019130295A (en) * | 2018-12-28 | 2019-08-08 | ノキア テクノロジーズ オサケユイチア | Interaction between virtual reality entities and real entities |
JP7323315B2 (en) | 2019-03-27 | 2023-08-08 | 株式会社コーエーテクモゲームス | Information processing device, information processing method and program |
JP2020146469A (en) * | 2020-04-20 | 2020-09-17 | 株式会社トプコン | Ophthalmologic examination system and ophthalmologic examination device |
WO2023068067A1 (en) * | 2021-10-18 | 2023-04-27 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
WO2023244073A1 (en) * | 2022-06-17 | 2023-12-21 | 주식회사 메타캠프 | Metaverse service device for multi-channel structure and channel synchronization, and driving method for device |
WO2024004609A1 (en) * | 2022-06-28 | 2024-01-04 | ソニーグループ株式会社 | Information processing device, information processing method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
EP2118757A1 (en) | 2009-11-18 |
JP5756198B2 (en) | 2015-07-29 |
JP2010535363A (en) | 2010-11-18 |
EP2118757A4 (en) | 2010-11-03 |
JP2010535362A (en) | 2010-11-18 |
EP2126708A4 (en) | 2010-11-17 |
EP2118840A4 (en) | 2010-11-10 |
EP2126708A1 (en) | 2009-12-02 |
JP2010535364A (en) | 2010-11-18 |
EP2118840A1 (en) | 2009-11-18 |
EP2132650A2 (en) | 2009-12-16 |
WO2008108965A1 (en) | 2008-09-12 |
JP2014149836A (en) | 2014-08-21 |
EP2132650A4 (en) | 2010-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010533006A (en) | System and method for communicating with a virtual world | |
US8425322B2 (en) | System and method for communicating with a virtual world | |
WO2008109299A2 (en) | System and method for communicating with a virtual world | |
US10203838B2 (en) | Avatar personalization in a virtual environment | |
US20170236330A1 (en) | Novel dual hmd and vr device with novel control methods and software | |
JP4696184B1 (en) | Image display system, image display apparatus, and image display method | |
EP3646149A1 (en) | Providing living avatars within virtual meetings | |
JP2019510321A (en) | Virtual reality pass-through camera user interface elements | |
JP6514397B1 (en) | SYSTEM, PROGRAM, METHOD, AND INFORMATION PROCESSING APPARATUS | |
US20190005732A1 (en) | Program for providing virtual space with head mount display, and method and information processing apparatus for executing the program | |
CN113518264A (en) | Interaction method, device, terminal and storage medium | |
JP2021099825A (en) | Program, method, and information processing device | |
JP2001160154A (en) | Avatar display device in virtual space communication system, avatar displaying method and storage medium | |
WO2021257868A1 (en) | Video chat with spatial interaction and eye contact recognition | |
JP2024023399A (en) | Programs and information processing equipment | |
US20230308495A1 (en) | Asymmetric Presentation of an Environment | |
JP6951394B2 (en) | Video distribution system that distributes videos including messages from viewers | |
CN113508354A (en) | Representation of a display environment | |
CN112115398A (en) | Virtual space providing system, virtual space providing method, and program | |
CN112717409B (en) | Virtual vehicle control method, device, computer equipment and storage medium | |
JP7329209B1 (en) | Information processing system, information processing method and computer program | |
JP7016438B1 (en) | Information processing systems, information processing methods and computer programs | |
JP7379427B2 (en) | Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users | |
JP2023134045A (en) | Communication apparatus, communication system, display method, and program | |
CN116954412A (en) | Virtual character display method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111209 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20111209 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20120110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120731 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130122 |