JP2010533006A - System and method for communicating with a virtual world - Google Patents

System and method for communicating with a virtual world Download PDF

Info

Publication number
JP2010533006A
JP2010533006A JP2009551806A JP2009551806A JP2010533006A JP 2010533006 A JP2010533006 A JP 2010533006A JP 2009551806 A JP2009551806 A JP 2009551806A JP 2009551806 A JP2009551806 A JP 2009551806A JP 2010533006 A JP2010533006 A JP 2010533006A
Authority
JP
Japan
Prior art keywords
user
communication device
real
communication
virtual world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009551806A
Other languages
Japanese (ja)
Other versions
JP2010533006A5 (en
Inventor
ギロ、トマス
グッドウィン、ミッチェル
ワウガマン、スコット
ザレウスキー、ゲイリー
バス、アティラ
Original Assignee
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB0703974.6A external-priority patent/GB0703974D0/en
Priority claimed from GB0704235A external-priority patent/GB2447095B/en
Priority claimed from GB0704225A external-priority patent/GB2447094B/en
Priority claimed from GB0704227A external-priority patent/GB2447020A/en
Priority claimed from GB0704246A external-priority patent/GB2447096B/en
Application filed by ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド filed Critical ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Priority claimed from PCT/US2008/055037 external-priority patent/WO2008109299A2/en
Publication of JP2010533006A publication Critical patent/JP2010533006A/en
Publication of JP2010533006A5 publication Critical patent/JP2010533006A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/406Transmission via wireless network, e.g. pager or GSM
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5506Details of game data or player data management using advertisements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Storage Device Security (AREA)
  • Telephonic Communication Services (AREA)

Abstract

仮想世界と通信するためのシステムおよび方法が開示されている。仮想世界はシミュレートされた公共空間と、シミュレートされたひとつ以上の私的空間と、を含んでもよい。各私的空間は、ある特定のユーザに関連付けられてもよい。ユーザの仮想世界とのやりとりは、アバターのひとつ以上の動作によって表されてもよい。仮想世界のなかに通信装置がシミュレートされてもよい。シミュレートされた通信装置と現実の通信装置との間で通信が行われてもよい。仮想世界はひとつ以上のプロセッサによって生成されてもよい。そのプロセッサは仮想世界のなかに通信装置をシミュレートし、そのシミュレートされた通信装置と現実の通信装置との間で通信を行わせる。アバターを使用した仮想世界通信のためのシステムおよび方法、カスタムアバタージェスチャのためのシステムおよび方法、ユーザの感情の状態をアバターにマッピングするためのシステムおよび方法、および仮想および現実の通信装置間で通信をルーティングするためのシステムおよび方法もまた開示される。
【選択図】図2E
Systems and methods for communicating with a virtual world are disclosed. The virtual world may include a simulated public space and one or more simulated private spaces. Each private space may be associated with a particular user. The user's interaction with the virtual world may be represented by one or more actions of the avatar. A communication device may be simulated in the virtual world. Communication may be performed between the simulated communication device and the actual communication device. The virtual world may be generated by one or more processors. The processor simulates a communication device in the virtual world and allows communication between the simulated communication device and a real communication device. Systems and methods for virtual world communication using avatars, systems and methods for custom avatar gestures, systems and methods for mapping user emotional states to avatars, and communication between virtual and real communication devices Systems and methods for routing are also disclosed.
[Selection] Figure 2E

Description

(関連出願の参照)
本願は、譲受人を同じくする同時係属中の英国特許出願番号0703974.6、名称「ENTERTAINMENT DEVICE」、2007年3月1日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。
(Refer to related applications)
This application enjoys the benefit of the priority of co-pending UK patent application No. 0703974.6 with the same assignee, the name “ENTERTAINMENT DEVICE”, filed on March 1, 2007. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の英国特許出願番号0704225.2、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。   This application enjoys the benefit of the priority of co-pending UK patent application No. 070425.2, named “ENTERTAINMENT DEVICE AND METHOD”, filed Mar. 5, 2007, with the same assignee. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の英国特許出願番号0704235.1、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。   This application enjoys the benefit of the priority of co-pending UK patent application No. 070425.1 with the same assignee, name “ENTERTAINMENT DEVICE AND METHOD”, filed Mar. 5, 2007. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の英国特許出願番号0704227.8、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。   This application enjoys the benefit of the priority of co-pending UK patent application number 070427.8 with the same assignee, name “ENTERTAINMENT DEVICE AND METHOD”, filed Mar. 5, 2007. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の英国特許出願番号0704246.8、名称「ENTERTAINMENT DEVICE AND METHOD」、2007年3月5日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。   This application enjoys the benefit of the priority of co-pending UK patent application No. 070426.8 with the same assignee, entitled “ENTERTAINMENT DEVICE AND METHOD”, filed Mar. 5, 2007. This application is disclosed herein by reference.

本願は、同時係属中の米国仮特許出願番号60/892,397、名称「VIRTUAL WORLD COMMUNICATION SYSTEMS AND METHODS」、2007年3月1日出願、の優先権の利益を享受する。この出願は本明細書において参照により開示される。   This application benefits from the priority of co-pending US Provisional Patent Application No. 60 / 889,397, entitled “VIRTUAL WORLD COMMUNICATION SYSTEMS AND METHODS”, filed Mar. 1, 2007. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,281、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR COMMUNICATING WITH AVIRTUAL WORLD」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。   This application is related to co-pending U.S. Patent Application No. 11 / 682,281 with the same assignee, inventor Thomas Gillo et al., “SYSTEM AND METHOD FOR COMMUNICATION WITH AVIRTUAL WORD”, filed March 5, 2007, and related. To do. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,284、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR ROUTING COMMUNICATIONS AMONG REAL AND VIRTUAL COMMUNICATION DEVICES」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。   This application is co-pending U.S. patent application Ser. No. 11 / 682,284 with the same assignee, inventor Thomas Gillo et al., “SYSTEM AND METHOD FOR ROUTING COMMUNICATIONS AMONG REAL AND VIRTUAL COMMUNICATION DEVICES, 7th of March, 200”. Related to the application. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,287、発明者Tomas Gillo他、名称「SYSTEM AND METHOD FOR COMMUNICATING WITH AN AVATAR」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。   This application is related to co-pending U.S. Patent Application No. 11 / 682,287 with the same assignee, inventor Thomas Gillo et al., The name “SYSTEM AND METHOD FOR COMMUNICING WITH AN AVATAR”, filed March 5, 2007, To do. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,292、発明者Tomas Gillo他、名称「MAPPING USER EMOTIONAL STATE TO AVATAR IN A VIRTUAL WORLD」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。   This application is co-pending U.S. Patent Application No. 11 / 682,292, with the same assignee, inventor Thomas Gillo et al. Related to. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,298、発明者Tomas Gillo他、名称「AVATAR CUSTOMIZATION」、代理人事件番号SCEA0701JDI05、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。   This application is related to co-pending US Patent Application No. 11 / 682,298 with the same assignee, inventor Thomas Gillo et al., Name “AVATAR CUSTOMIZATION”, agent case number SCEA0701JDI05, filed March 5, 2007, To do. This application is disclosed herein by reference.

本願は、譲受人を同じくする同時係属中の米国特許出願番号11/682,299、名称「AVATAR EMAIL AND METHODS FOR COMMUNICATING BETWEEN REAL AND VIRTUAL WORLDS」、2007年3月5日出願、と関連する。この出願は本明細書において参照により開示される。   This application is related to co-pending U.S. patent application Ser. No. 11 / 682,299, entitled “AVATAR EMAIL AND METHODS FOR COMMUNICATING BETWEEN REAL AND VIRTUAL WORLDS”, filed Mar. 5, 2007. This application is disclosed herein by reference.

(技術分野)
本発明は、双方向的なコンピュータエンタテイメントに関し、特に仮想世界のユーザ間のコミュニケーションに関する。
(Technical field)
The present invention relates to interactive computer entertainment, and more particularly to communication between users in a virtual world.

仮想世界とは、ユーザがひとつ以上のコンピュータプロセッサを介して互いにやりとりできるシミュレートされた環境である。ユーザはいわゆるアバターとしてビデオスクリーンに表れる。シミュレートされた環境とアバターとの間の相互作用の度合いは、例えば物理的シミュレーションやユーザ間の情報交換などの相互作用を支配するひとつ以上のコンピュータアプリケーションによって実現される。   A virtual world is a simulated environment in which users can interact with each other via one or more computer processors. The user appears on the video screen as a so-called avatar. The degree of interaction between the simulated environment and the avatar is realized by one or more computer applications that govern the interaction, such as physical simulation or information exchange between users.

仮想世界のユーザ間のやりとりの性質はその仮想世界を実現しているシステムの制約によってしばしば制限される。
本発明の実施の形態はこのような点に鑑み創作されたものである。
The nature of interactions between users in a virtual world is often limited by the constraints of the system that implements the virtual world.
The embodiment of the present invention has been created in view of these points.

本発明の教示するところは、添付図面とあわせて以下の詳細な説明を考慮することにより容易に理解されるであろう。   The teachings of the present invention can be readily understood by considering the following detailed description in conjunction with the accompanying drawings, in which:

本発明の実施の形態と共同して使用されてもよい、仮想世界を表す世界地図の例を示すスクリーンショットである。FIG. 6 is a screenshot showing an example of a world map representing a virtual world that may be used in conjunction with an embodiment of the present invention. 本発明の実施の形態と共同して使用されてもよい、仮想世界のなかの公共空間の例を示すスクリーンショットである。FIG. 6 is a screenshot showing an example of a public space in a virtual world that may be used in conjunction with an embodiment of the present invention. 本発明の実施の形態と共同して使用されてもよい、仮想世界のなかの私的空間の例を示すスクリーンショットである。FIG. 6 is a screenshot showing an example of a private space in a virtual world that may be used in conjunction with an embodiment of the present invention. 本発明の実施の形態に係る仮想通信装置の例を示すスクリーンショットである。It is a screenshot which shows the example of the virtual communication apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る仮想世界システムを模式的に示す図である。It is a figure which shows typically the virtual world system which concerns on embodiment of this invention. 本発明の実施の形態に係るマルチメディア処理装置の実施態様を示す機能ブロック図である。このマルチメディア処理装置によって、ユーザは仮想世界を認知し、それとやりとりを行いうる。It is a functional block diagram which shows the embodiment of the multimedia processing apparatus which concerns on embodiment of this invention. This multimedia processing device allows the user to recognize and interact with the virtual world. 本発明の実施の形態と共同して使用されてもよいマルチメディア処理装置の実施態様を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating an implementation of a multimedia processing apparatus that may be used in conjunction with an embodiment of the present invention. 本発明の実施の形態と共同して使用されてもよいマルチメディア処理システムの実施態様を示す。1 illustrates an implementation of a multimedia processing system that may be used in conjunction with an embodiment of the present invention. 図2C−2Dは、本発明の実施の形態と共に使用される、マイクロホンのアレイを含む撮像装置を示す。2C-2D illustrate an imaging device that includes an array of microphones used in conjunction with embodiments of the present invention. 本発明の実施の形態に係る、現実の通信装置と仮想通信装置との間のコールルーティングの例を示すブロック図である。It is a block diagram which shows the example of the call routing between the actual communication apparatus and virtual communication apparatus based on embodiment of this invention. 本発明の実施の形態にしたがった現実の通信装置と仮想通信装置との間の通信の例を図で示す。FIG. 2 illustrates an example of communication between a real communication device and a virtual communication device according to an embodiment of the present invention. 本発明の実施の形態に係る、仮想世界とやりとりするために使用されうるビデオゲーム装置を示すブロック図である。1 is a block diagram illustrating a video game device that can be used to interact with a virtual world, in accordance with an embodiment of the present invention. FIG. 本発明の実施の形態に係るビデオゲーム装置のセルプロセッサによる実施態様を示すブロック図である。It is a block diagram which shows the embodiment by the cell processor of the video game device which concerns on embodiment of this invention.

以下の記述においては、例示のために多くの特定的な詳細を含むが、本発明の範囲内において、以下の詳細について多くの変形や変更が可能であることは、当業者には理解されるところである。したがって、下記に示す本発明の実施例は、請求項に記載の発明の一般性を失わせるものでも制約を設けるものでもない。   While the following description includes many specific details for purposes of illustration, those skilled in the art will appreciate that many variations and modifications may be made to the following details within the scope of the present invention. By the way. Accordingly, the embodiments of the present invention described below are not intended to detract from the generality of the claimed invention or impose limitations.

本発明の実施の形態によると、ユーザは仮想世界とやりとりしてもよい。ここで仮想世界という用語は、現実のもしくは架空の環境を表すものを意味する。この環境はひとつ以上のプロセッサによってシミュレートされた相互作用則を有する。現実のユーザはひとつ以上の表示装置を介してこの環境を認識し、および/または、現実のユーザはひとつ以上のユーザインタフェースを介してこの環境とやりとりする。ここでユーザインタフェースという用語は、ユーザが仮想世界へ入力を送るために、もしくは仮想世界からの出力を受けるために使用される現実の装置を指す。仮想世界は、ひとつ以上のプロセッサモジュールによってシミュレートされてもよい。複数のプロセッサモジュールは、ネットワークを介して互いにリンクされてもよい。ユーザは、ユーザインタフェース装置を介して仮想世界とやりとりしてもよい。このユーザインタフェース装置は、ネットワークを介して複数のプロセッサモジュールおよび他のユーザインタフェース装置と通信できる。仮想世界のある側面は、コンピュータモニタ、テレビモニタ、もしくは同様のディスプレイなどのグラフィックス用のディスプレイにグラフィックスの形でユーザに示されてもよい。仮想世界の他の側面は、スピーカからの音声の形でユーザに示されてもよく、この場合スピーカは、グラフィックス用のディスプレイと共に設けられてもよい。   According to an embodiment of the present invention, the user may interact with the virtual world. Here, the term virtual world means something that represents a real or fictional environment. This environment has an interaction law that is simulated by one or more processors. Real users recognize this environment via one or more display devices and / or real users interact with this environment via one or more user interfaces. As used herein, the term user interface refers to a real device used by a user to send input to the virtual world or to receive output from the virtual world. The virtual world may be simulated by one or more processor modules. The plurality of processor modules may be linked to each other via a network. A user may interact with the virtual world via a user interface device. The user interface device can communicate with a plurality of processor modules and other user interface devices via a network. Certain aspects of the virtual world may be presented to the user in the form of graphics on a graphics display such as a computer monitor, television monitor, or similar display. Other aspects of the virtual world may be shown to the user in the form of audio from a speaker, where the speaker may be provided with a graphics display.

例として、仮想世界はシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを備えてもよい。ある実施の形態では、そのような公共空間および私的空間は、仮想世界の模式的な表現もしくは地図を示すグラフィックス用のディスプレイを介してユーザに示されてもよい。例として、図1Aに示されるように、世界地図10は「ホーム」位置11を示してもよい。ホーム位置11は、ある特定のユーザに限られた仮想世界中の私的空間であってもよい。他のユーザは、そのホーム位置11に関連付けられたユーザからの招待がある場合にのみそのホーム位置11を「訪れる」ことができる。世界地図10は、種々の他の位置12をも示してもよい。ユーザは、例えばカーソルで選ぶことによってもしくは同様のグラフィカルユーザインタフェースによってそれらの位置12を訪れることができる。ベンダがこれらの位置のスポンサーとなってもよく、これらの位置は地図上で、対応する会社のロゴや他のよく知られたシンボルによって表されてもよい。そのような位置は仮想世界のユーザによって訪問されてもよい。仮想世界は固定量の仮想「不動産」を有してもよいし、有さなくてもよい。好適な実施の形態では、仮想不動産の量は固定されていない。   As an example, the virtual world may comprise a simulated public space and one or more simulated private spaces. In some embodiments, such public and private spaces may be shown to the user via a graphic display showing a schematic representation or map of the virtual world. By way of example, as shown in FIG. 1A, the world map 10 may show a “home” position 11. The home location 11 may be a private space in a virtual world limited to a specific user. Other users can only “visit” the home location 11 if there is an invitation from a user associated with that home location 11. The world map 10 may also show various other locations 12. The user can visit those locations 12 by, for example, selecting with a cursor or by a similar graphical user interface. Vendors may sponsor these locations, and these locations may be represented on the map by corresponding company logos or other well-known symbols. Such a location may be visited by a virtual world user. The virtual world may or may not have a fixed amount of virtual “real estate”. In the preferred embodiment, the amount of virtual real estate is not fixed.

本発明のある実施の形態では、仮想世界はここで「ロビー」と称される複数の公共空間を有してもよい。各ロビーはそれに付随した別個のチャットチャネルを有してもよい。これによりそのロビーにいるユーザは互いにやりとりできる。各ロビーは、ホテルやオフィスビルや共同住宅や映画館や他の公共の建物などの公共の建物におけるロビーの外観を有してもよい。図1Bは、そのようなロビーのスクリーンショットを示す。ロビーはユーザがそれを用いてやりとりできる物を含んでもよい。そのような物は例えばゲームである。図1Bに見られる通り、仮想世界の部分部分は3次元(3D)グラフィックスの形でユーザに示される。ここで3次元(3D)の形という用語は、長さ、幅、および深さ(もしくは少なくとも深さの錯覚)を有する表現を指す。ロビーは「スクリーン」13を含んでもよい。このスクリーン13は、写真や記録されたビデオやストリーミングビデオを見せるために使用されうる空間中の領域である。   In one embodiment of the invention, the virtual world may have multiple public spaces, referred to herein as “lobby”. Each lobby may have a separate chat channel associated with it. This allows users in the lobby to interact with each other. Each lobby may have the appearance of a lobby in a public building, such as a hotel, office building, apartment house, movie theater, or other public building. FIG. 1B shows a screenshot of such a lobby. The lobby may include things that the user can interact with. Such a thing is a game, for example. As seen in FIG. 1B, a portion of the virtual world is shown to the user in the form of three-dimensional (3D) graphics. Here, the term three-dimensional (3D) shape refers to a representation having length, width, and depth (or at least an illusion of depth). The lobby may include a “screen” 13. This screen 13 is an area in the space that can be used to show photos, recorded video and streaming video.

仮想世界のなかではユーザはアバターによって表示されてもよい。仮想世界のなかの各アバターは、個々のユーザに独自のものとして関連付けられてもよい。ユーザの名前もしくは仮名がアバターの隣に表示されてもよく、それによってユーザは容易に互いを認識しうる。あるユーザの仮想世界とのやりとりは、ひとつ以上の対応するアバター動作によって表されてもよい。異なる複数のユーザが公共空間のなかでアバターを通じて互いにやりとりしてもよい。ユーザを表すアバターは、人間、動物もしくは物体と似た外観を有しうる。人間の形をしたアバターは、ユーザと同じ性もしくは異なる性を有してもよい。ユーザがアバターを仮想世界の他の物体と共に見ることができるように、アバターがディスプレイに表示されてもよい。あるいはまた、ディスプレイは世界をアバターの視点から表示し、そのアバターそのものは表示しなくてもよい。ユーザからの(もしくはアバターからの)仮想世界の見え方は、仮想カメラの視野であると考えてもよい。ここで仮想カメラは、仮想世界のなかの3次元シーンを2次元画像に描画するのに使用されうる仮想世界のなかの視点を指す。ユーザは、自己のアバターを介し、個々のロビーに関連付けられたチャットチャネルを用いて互いにやりとりしてもよい。ユーザは、他のユーザとチャットするために自己のユーザインタフェースを介してテキストを入力してもよい。すると、そのテキストがユーザのアバターの上もしくは隣に表れてもよい。その表れ方は、例えば漫画様のふきだしの形であり、しばしばチャットバブルと呼ばれる。そのようなチャットは、しばしばクイックチャットと呼ばれる、予め用意されたフレーズを用いるチャットシステムを使用することで簡単化されてもよい。クイックチャットでは、ユーザはメニューからひとつ以上のチャットフレーズを選択してもよい。   In the virtual world, the user may be displayed by an avatar. Each avatar in the virtual world may be uniquely associated with an individual user. The user's name or pseudonym may be displayed next to the avatar so that the users can easily recognize each other. A user's interaction with the virtual world may be represented by one or more corresponding avatar actions. A plurality of different users may interact with each other through an avatar in a public space. An avatar representing a user may have an appearance similar to a human, animal or object. A human-shaped avatar may have the same or different gender as the user. The avatar may be displayed on the display so that the user can see the avatar along with other objects in the virtual world. Alternatively, the display may display the world from the viewpoint of the avatar, and the avatar itself may not be displayed. The view of the virtual world from the user (or from the avatar) may be considered as the field of view of the virtual camera. Here, the virtual camera refers to a viewpoint in the virtual world that can be used to draw a three-dimensional scene in the virtual world into a two-dimensional image. Users may interact with each other through their own avatar using chat channels associated with individual lobbies. Users may enter text via their user interface to chat with other users. The text may then appear on or next to the user's avatar. The appearance is, for example, in the form of a comic balloon, often called a chat bubble. Such chats may be simplified by using a chat system that uses pre-prepared phrases, often referred to as quick chat. In quick chat, the user may select one or more chat phrases from a menu.

本発明の実施の形態では、特定のユーザもしくはユーザグループに関連付けられていないという意味、かつどのユーザもしくはユーザグループも他のユーザをその公共空間から排除できないという意味で公共空間は公共である。これと比較して各私的空間は複数のユーザのなかのある特定のユーザに関連付けられる。私的空間に関連付けられた特定のユーザが他のユーザによるその私的空間へのアクセスを制限できるという意味で、私的空間は私的である。私的空間は、よく見られる私的な不動産の外観を有してもよい。例えば、図1Cに見られるように、私的空間は共同住宅もしくは個人宅に似せて設けられてもよい。私的空間には、仮想のものが含まれてもよい。仮想のものの例には、家具15、装飾16、および仮想ラジオや仮想ビデオスクリーンなどの仮想通信装置17が含まれるが、それに限定されない。   In the embodiment of the present invention, the public space is public in the sense that it is not associated with a particular user or user group and that no user or user group can exclude other users from the public space. In comparison, each private space is associated with a particular user among multiple users. A private space is private in the sense that a particular user associated with the private space can restrict access to that private space by other users. A private space may have the appearance of a private property that is often seen. For example, as seen in FIG. 1C, the private space may be provided to resemble an apartment house or a private house. Private space may include virtual objects. Examples of virtual things include, but are not limited to, furniture 15, decorations 16 and virtual communication devices 17 such as virtual radios and virtual video screens.

本発明のある実施の形態では、仮想世界のユーザは、仮想通信装置を用いて通信してもよい。ここで仮想通信装置という用語は一般的に、仮想世界を構成するシステムの資産を使用して生成される、現実世界の装置の仮想世界におけるシミュレーションを指す。例として、図1Dに示される通り、仮想通信装置18は、ユーザによる装置の操作が簡単になるような形でディスプレイに表示される。図1Dに示される例では、仮想通信装置はソニープレイステーションポータブル(PSP)などの携帯型のゲームコンソールの外観を有する。仮想世界とやりとりするためにユーザが使用する現実のコントローラのボタンは、仮想通信装置の対応するボタン19もしくは他の制御にマッピングされてもよく、この場合ユーザと仮想通信装置との間のやりとりが容易となる。   In some embodiments of the invention, users in the virtual world may communicate using a virtual communication device. Here, the term virtual communication device generally refers to a simulation in the virtual world of a real-world device that is generated using the assets of the systems that make up the virtual world. As an example, as shown in FIG. 1D, the virtual communication device 18 is displayed on the display in a manner that makes it easier for the user to operate the device. In the example shown in FIG. 1D, the virtual communication device has the appearance of a portable game console, such as a Sony PlayStation Portable (PSP). The actual controller button used by the user to interact with the virtual world may be mapped to the corresponding button 19 or other control of the virtual communication device, in which case the interaction between the user and the virtual communication device is It becomes easy.

仮想通信装置は、それに付随した仮想世界のなかでの位置を有してもよく、その位置は固定されていても可動とされていてもよい。仮想世界のなかでシミュレートされた通信装置のインタフェースをシミュレートし、そのシミュレートされたインタフェースをそれを介してやりとりするためにユーザに提示することによって通信装置がシミュレートされてもよい。例として、その仮想の装置は仮想世界において、ユーザに認知されうる形もしくは外観を有してもよい。この形もしくは外観は、ユーザのやりとりを容易にするように、対応する現実世界の装置のそれを模倣するものであってもよい。例えば、仮想の電話機は、ユーザがコントローラを使用して操作するボタンを有するものとして表示されてもよい。その仮想の電話機はさらに、スピーカ、送話口、およびおそらくはグラフィックスディスプレイスクリーンを有するものとして表示されてもよい。シミュレートされた通信装置は、シミュレートされたハンドヘルド通信装置であってもよく、そのようなシミュレートされたハンドヘルド通信装置は例えば、シミュレートされた電話機、シミュレートされた移動電話機(例えば、セルラー電話機もしくはコードレス電話機)、シミュレートされたボイスオーバーインターネットプロトコル(VoIP)電話機、シミュレートされた携帯型テキストメッセージ装置、シミュレートされた携帯型電子メール装置、シミュレートされた携帯型ゲーム装置、シミュレートされたツーウェイラジオ、もしくは他のシミュレートされたハンドヘルド装置である。   The virtual communication device may have a position in a virtual world associated therewith, and the position may be fixed or movable. The communication device may be simulated by simulating the interface of the simulated communication device in the virtual world and presenting the simulated interface to the user for interaction therethrough. By way of example, the virtual device may have a shape or appearance that can be perceived by a user in a virtual world. This shape or appearance may mimic that of a corresponding real-world device so as to facilitate user interaction. For example, a virtual telephone may be displayed as having a button that a user operates using a controller. The virtual phone may further be displayed as having a speaker, mouthpiece, and possibly a graphics display screen. The simulated communication device may be a simulated handheld communication device, such as a simulated telephone, a simulated mobile phone (eg, a cellular phone) Phone or cordless phone), simulated voice over internet protocol (VoIP) phone, simulated portable text messaging device, simulated portable email device, simulated portable gaming device, simulated Two-way radio, or other simulated handheld device.

本発明の実施の形態によると、仮想通信装置が仮想世界のなかでシミュレートされ、そのシミュレートされた通信装置と現実の通信装置との間で通信が行われてもよい。その現実の通信装置は、現実のハンドヘルド通信装置であってもよく、そのような現実のハンドヘルド通信装置は例えば、電話機、移動電話機(例えば、セルラー電話機もしくはコードレス電話機)、ボイスオーバーインターネットプロトコル(VoIP)電話機、携帯型テキストメッセージ装置、携帯型電子メール装置、携帯型ゲーム装置、ツーウェイラジオ、もしくは他のハンドヘルド装置である。現実の通信装置は、他の現実の通信装置と仮想世界とは独立したひとつ以上の通信チャネルを通じて通信することが好ましい。ここで「仮想世界とは独立した通信チャネル」という用語は、そのチャネルを通じて通信が行われるために仮想世界の存在が必要とされない通信チャネルを意味する。例えば、仮想世界によって提供される通信資産を介して現実のセルラー電話機に電話をかける(もしくはその反対)のために仮想電話機が使用されうる。しかしながら、その現実のセルラー電話機は、たとえ仮想世界が存在しなくとも、他の現実のセルラー電話機もしくは電話機に電話をかけることができる。ある実施の形態では、現実の電話機は、シミュレートされた電話機から電話を受けた際には特有の呼び出し音を生成してもよい。また代替的な実施の形態では、シミュレートされた通信装置および現実の通信装置は、互いにテキストメッセージかつ/またはビデオ画像を用いて通信してもよい。   According to the embodiment of the present invention, a virtual communication device may be simulated in a virtual world, and communication may be performed between the simulated communication device and an actual communication device. The actual communication device may be a real handheld communication device, such as a telephone, a mobile phone (eg, a cellular phone or a cordless phone), a voice over internet protocol (VoIP), etc. A telephone, a portable text message device, a portable electronic mail device, a portable game device, a two-way radio, or other handheld device. The actual communication device preferably communicates with one another through one or more communication channels independent of the virtual world. Here, the term “communication channel independent of the virtual world” means a communication channel in which the existence of the virtual world is not required because communication is performed through the channel. For example, a virtual phone can be used to call a real cellular phone (or vice versa) via communication assets provided by the virtual world. However, that real cellular telephone can make calls to other real cellular telephones or telephones even in the absence of a virtual world. In some embodiments, a real phone may generate a unique ringing tone when receiving a call from a simulated phone. In alternative embodiments, the simulated communication device and the actual communication device may communicate with each other using text messages and / or video images.

図1Eは、仮想世界をシミュレートするために使用されうるシステム20の例を示すブロック図である。システム20は、シミュレーションサーバ22とビューサーバ24とを含む。各シミュレーションサーバ22は、仮想世界のある部分をシミュレートするコード化されたインストラクションを実行するひとつ以上のプロセッサモジュールを含んでもよい。例として、各シミュレーションサーバは、デュアルコア、クアッドコアもしくはセルプロセッサなどの複数コアプロセッサをひとつ以上含んでもよい。限られた数のシミュレーションサーバ22とひとつのビューサーバ24とが図1Eに示されているが、この設定は任意の数のサーバの場合に自由に拡張されうる。シミュレーションサーバ22の数とビューサーバ24の数とは両方とも増減されてもよい。例えば、ひとつのシミュレーションサーバ22が多くのビューサーバ24を受け入れてもよいし、多くのシミュレーションサーバ22がひとつのビューサーバ24を受け入れてもよい。シミュレーションサーバ24をより多く加えることにより、仮想世界をより大きくかつ/またはより良くシミュレーションすることができる。ビューサーバ24をより多く加えることにより、システム20はより多くのユーザを取り扱うことができる。無論システム20は、シミュレーションサーバ22およびビューサーバ24の両方をより多く加えることによって、より大きくてより良いシミュレーションとより多くのユーザの受け入れの両方を実現できる。理論的にはシミュレーションサーバ22の数は無限大まで増やすことができる。しかしながらネットワークの帯域幅が限られていることに鑑みると、計算とネットワークの帯域幅による制限のために、ビューサーバ14の数はあるユーザ数を越えると有限の上限値に達すると考えるのが妥当であろう。   FIG. 1E is a block diagram illustrating an example of a system 20 that can be used to simulate a virtual world. The system 20 includes a simulation server 22 and a view server 24. Each simulation server 22 may include one or more processor modules that execute coded instructions that simulate a portion of the virtual world. As an example, each simulation server may include one or more multi-core processors such as dual core, quad core, or cell processors. Although a limited number of simulation servers 22 and one view server 24 are shown in FIG. 1E, this setting can be freely expanded for any number of servers. Both the number of simulation servers 22 and the number of view servers 24 may be increased or decreased. For example, one simulation server 22 may accept many view servers 24, and many simulation servers 22 may accept one view server 24. By adding more simulation servers 24, the virtual world can be simulated larger and / or better. By adding more view servers 24, the system 20 can handle more users. Of course, the system 20 can achieve both larger and better simulation and more user acceptance by adding more of both the simulation server 22 and the view server 24. Theoretically, the number of simulation servers 22 can be increased to infinity. However, considering that the network bandwidth is limited, it is reasonable to assume that the number of view servers 14 will reach a finite upper limit if the number of view servers exceeds a certain number of users due to limitations due to computation and network bandwidth. Will.

本発明の実施の形態に限定を行うものではなく例示を目的として、以下にセルプロセッサに関する例が説明される。セルプロセッサについては、例えばセルブロードバンドエンジンアーキテクチャ(Cell Broadband Engine Architecture)、著作権者インターナショナルビジネスマシーンコーポレーション(International Business Machines Corporation)、株式会社ソニー・コンピュータエンタテインメント(Sony Computer Entertainment Incorporated)、株式会社東芝(Toshiba Corporation)、2005年8月8日発行、に詳細が記載されている。この書物の複写物はhttp://cell.scei.co.JP/からダウンロード可能である。この書物は本明細書において参照により開示される。典型的なセルプロセッサは、パワープロセッサユニット(PPU)と、シナジスティックプロセシングユニット(SPU)と称される8つまでの付加的なプロセッサとを有する。各SPUは、典型的には主プロセッサと補助プロセッサとを含むひとつのチップ、もしくはそのチップの一部である。全てのSPUおよびPPUは、例えばメモリフローコントローラ(MFC)を通じて主メモリにアクセス可能である。SPUは主プロセッサで走っているプログラムと共同して並列的な操作処理を行うことができる。SPUは小さなローカルメモリ(典型的にはおよそ256キロバイト)を有し、このローカルメモリはソフトウエアによって管理されなければならない。つまり、コードおよびデータはローカルSPUメモリへ手動で移送されなければならず、またローカルSPUメモリから手動で移送されなければならない。高い性能を得るためには、このコードおよびデータはSPUソフトウエアによって管理されなければならない(PPUソフトウエアの関与は最小化されなければならない)。SPUからのコードおよびデータを管理する技術は多くある。そのような技術の例が、米国特許出願番号11/238,077、発明者John P. Bates、Payton White、Attila Vass、名称「CELL PROCESSOR APPARATUS AND METHODS」、2005年9月27日出願、および、米国特許出願番号11/238,095、発明者Richard B. StensonおよびJohn P. Bates、名称「CELL PROCESSOR TASK AND DATA MANAGEMENT」、2005年9月27日出願、および、米国特許出願11/238,086、発明者Tatsuya Iwamoto、名称「CELL PROCESSOR TASK AND DATA MANAGEMENT」、2005年9月27日出願、および、米国特許出願番号11/238,087、発明者John P. Bates、Payton R. White、Richard B. Stenson、Howard Berkey、Attila Vass、Mark Cerny、John Morgan、名称「SPU TASK MANAGER FOR CELL PROCESSOR」、2005年9月27日出願、および、米国特許出願番号11/257,761、発明者Tatsuya Iwamoto、名称「SECURE OPERATION OF CELL PROCESSORS」、2005年10月24日出願、および、米国特許出願番号11/461,390、発明者John P. Bates、Keisuke Inoue、Mark Cerny、名称「CELL PROCESSOR METHODS AND APPARATUS」、2006年7月31日出願、に記載されている。これら全ての出願は本明細書において参照により開示される。   For purposes of illustration and not limitation to the embodiments of the present invention, examples relating to cell processors are described below. Cell processors include, for example, Cell Broadband Engine Architecture, Copyright Business International Business Machines Corporation, Sony Computer Entertainment Corporation, Sony Computer Entertainment Corporation, and Sony Computer Entertainment Corporation. ), Issued August 8, 2005, for details. A copy of this book can be found at http: // cell. scei. co. It can be downloaded from JP /. This book is disclosed herein by reference. A typical cell processor has a power processor unit (PPU) and up to eight additional processors called synergistic processing units (SPUs). Each SPU is typically a chip or a part of a chip that includes a main processor and an auxiliary processor. All SPUs and PPUs can access the main memory through, for example, a memory flow controller (MFC). The SPU can perform parallel operation processing in cooperation with a program running on the main processor. The SPU has a small local memory (typically around 256 kilobytes), which must be managed by software. That is, code and data must be manually transferred to and from the local SPU memory. In order to obtain high performance, this code and data must be managed by the SPU software (PPU software involvement must be minimized). There are many techniques for managing code and data from SPUs. Examples of such techniques are described in US patent application Ser. No. 11 / 238,077, inventor John P. et al. Bates, Payton White, Attila Vass, name “CELL PROCESSOR APPARATUS AND METHODS”, filed Sep. 27, 2005, and US Patent Application No. 11 / 238,095, inventor Richard B. Stenson and John P. Bates, name “CELL PROCESSOR TASK AND DATA MANAGEMENT”, filed on September 27, 2005, and US patent application 11 / 238,086, inventor Tatsuya Iwamoto, name “CELL PROCESSOR TASK AND DATA MANAGEN 9” Filed on the 27th, and US patent application no. Bates, Payton R.D. White, Richard B. Stenson, Howard Berkey, Attila Vass, Mark Cerny, John Morgan, name "SPU TASK MANAGER FOR CELL PROCESSOR", US Patent Application No. 11 / 257,761, m “SECURE OPERATION OF CELL PROCESSORS”, filed October 24, 2005, and US patent application Ser. No. 11 / 461,390, inventor John P. Bates, Keisuke Inoue, Mark Cerny, name “CELL PROCESSOR METHODS AND APPARATUS”, filed July 31, 2006. All these applications are disclosed herein by reference.

シミュレーションサーバ22は高速データ移送リンク26を介して互いにおよびビューサーバ24と通信してもよい。例としては、そのデータ移送リンクは、毎秒10ギガビットのイーサネット(登録商標)接続であってもよい。シミュレーションサーバ22は互いに離れて設置されているかもしくは互いに近接して設置されてもよい。データ移送を最適化するためには、シミュレーションサーバ22を、例えば同じ部屋もしくは同じサーバラックに収納するなど互いに物理的にとても近くに設置することが望ましい。ビューサーバ24は、シミュレーションサーバ22からシミュレーションデータを受け取り、広域ネットワーク(wide area network)30を通じて離れて散らばっているクライアント装置28にビューデータを送る。この広域ネットワークは例えばインターネットや他の広域ネットワークである。クライアント装置28は、ネットワーク30を通じて通信できる任意の適切な装置であってもよい。ネットワーク30を通じた通信は、高速データリンク26を通じた通信よりも遅くてもよい。   The simulation servers 22 may communicate with each other and the view server 24 via a high speed data transport link 26. As an example, the data transport link may be a 10 gigabit per second Ethernet connection. The simulation servers 22 may be installed apart from each other or may be installed close to each other. In order to optimize data transfer, it is desirable to place the simulation servers 22 physically close to each other, for example in the same room or in the same server rack. The view server 24 receives the simulation data from the simulation server 22 and sends the view data to the client devices 28 that are scattered apart through the wide area network 30. This wide area network is, for example, the Internet or another wide area network. Client device 28 may be any suitable device that can communicate over network 30. Communication over network 30 may be slower than communication over high speed data link 26.

例として、クライアント装置28は、ソニープレイステーション3などのビデオゲームコンソール装置であってもよい。あるいはまた、クライアント装置28はハンドヘルドからワークステーションなどまでのあらゆるコンピュータ装置であってもよい。日本国の東京都にあるソニー・コンピュータエンタテインメント製のプレイステーションポータブルなどのハンドヘルドビデオゲーム装置は、他のハンドヘルド装置のなかでも本発明の実施の形態においてクライアント装置28として特に用いられうる例である。クライアント装置28はビューサーバ24に、他のクライアントのアバターやシミュレートされた環境との所望のやりとりに関するインストラクションを送ってもよい。例えば、クライアントユーザが彼もしくは彼女のアバターをシミュレートされた環境の別の位置に動かしたいと思うかもしれない。各クライアント装置28はインストラクションをビューサーバ24のひとつに送る。このインストラクションはそのビューサーバによって中継され、やりとりをシミュレートするために必要な計算を行うシミュレーションサーバに届けられる。   As an example, the client device 28 may be a video game console device such as Sony PlayStation 3. Alternatively, the client device 28 may be any computer device from a handheld to a workstation or the like. A handheld video game device such as a PlayStation Portable manufactured by Sony Computer Entertainment Inc. in Tokyo, Japan is an example that can be used particularly as the client device 28 in the embodiment of the present invention among other handheld devices. Client device 28 may send instructions to view server 24 regarding the desired interaction with other clients' avatars and simulated environments. For example, a client user may wish to move his or her avatar to another location in the simulated environment. Each client device 28 sends instructions to one of the view servers 24. This instruction is relayed by the view server and delivered to a simulation server that performs the calculations necessary to simulate the exchange.

他の装置29もまたネットワーク30を通じて互いに通信してもよい。そのような他の装置の例は、電話機、セルラー電話機、ボイスオーバーインターネットプロトコル(VoIP)電話機、パーソナルコンピュータ、携帯型ウェブブラウザ、携帯型電子メール装置、テキストメッセージ装置、携帯型ゲーム装置などを含む。そのような他の装置29間の通信は、仮想世界を生成するシミュレーションサーバ22およびビューサーバ26とは独立したものであってもよい。他の装置29はシステム20の一部とは考えられてはいないものの、それらの装置はネットワーク30を介してシステム20とやりとりを行ってもよい。   Other devices 29 may also communicate with each other over the network 30. Examples of such other devices include telephones, cellular telephones, voice over internet protocol (VoIP) telephones, personal computers, portable web browsers, portable electronic mail devices, text message devices, portable game devices, and the like. Such communication between the other devices 29 may be independent of the simulation server 22 and the view server 26 that generate the virtual world. Although other devices 29 are not considered part of the system 20, they may interact with the system 20 via the network 30.

クライアント装置28のユーザはたいていその周辺の物に興味がある。ビューサーバ24は、各クライアント28がその周辺物についての関連データを適切な順序で確実に受け取れるようにする。ビューサーバ24は、クライアントが何を必要としているかを、クライアントのアバターの位置や向きや動きなどに基づいて決定する。例として、各ビューサーバは、公共空間や私的空間を表示するためにクライアント装置が使用するコードかつ/またはデータを生成してもよい。   The user of the client device 28 is usually interested in things around it. View server 24 ensures that each client 28 receives relevant data about its surroundings in the proper order. The view server 24 determines what the client needs based on the position, orientation, movement, etc. of the client's avatar. As an example, each view server may generate code and / or data used by a client device to display public or private space.

複雑なシミュレートされた世界を実現するために、クライアントとサーバの間で、もしくはクライアント装置と他のクライアント装置との間で、ピアツーピア通信が行われることが望ましい。たとえば、同じ公共空間内のユーザ間の音声/ビデオ(A/V)チャットは、それらのユーザ間の直接のピアツーピア通信によって実現されてもよい。そのようなピアツーピア通信によると、サーバの負荷を低減できる。本発明の実施の形態では、ピアリブ(Peerlib)を使用してネットワークアドレストランスレータ(NATs)を横断し、同じ公共空間内のユーザ間のピアツーピア接続を確立する。NATを横断することは、たとえば米国特許出願番号11/245,853、発明者Yutaka Takeda、名称「METHOD FOR PEER− TO−PEER COMMUNICATION TRAVERSING NETWORK ADDRESS TRANSLATORS OF TYPE SYMMETRIC」、2005年10月4日出願、に記載されている。この出願は本明細書において参照により開示される。   In order to achieve a complex simulated world, it is desirable for peer-to-peer communication to occur between a client and a server or between a client device and another client device. For example, voice / video (A / V) chat between users in the same public space may be achieved by direct peer-to-peer communication between those users. Such peer-to-peer communication can reduce the load on the server. In an embodiment of the present invention, peer ribs are used to traverse network address translators (NATs) to establish peer-to-peer connections between users in the same public space. Crossing NAT, for example, U.S. Patent Application No. 11 / 245,853, Inventor Yutaka Takeda, Name "METHOD FOR PEER- TO-PEER COMMUNICATION TRAVERSING NETWORK ADDRESS TRANSLATORS OF TYPE 5 CY It is described in. This application is disclosed herein by reference.

図1Fは、クライアント装置28として使用されうるマルチメディア処理システム100およびシステム20によって生成される仮想世界とのユーザインタフェースのひとつの実施態様を示す。処理システム100は、静止画や動画や音楽や放送やゲームなどの複数のメディアにまたがる複数のコンテンツを処理することができる複合装置を含んでもよい。複数のコンテンツの処理とは、プレゼンテーション、記録、およびマルチメディア処理システム100によって行われる他の関連タスクを含む。例として、マルチメディア処理システム100は、マルチメディア処理装置102と、ディスプレイ104(例えば、モニタもしくはテレビ)と、コントローラ114と、を備える。コントローラ114のボタンは、図1Dおよび上で説明された仮想コントローラ18の対応するボタン19にマッピングされてもよい。   FIG. 1F shows one embodiment of a multimedia processing system 100 that can be used as the client device 28 and a user interface with the virtual world generated by the system 20. The processing system 100 may include a composite device that can process a plurality of contents across a plurality of media such as still images, moving images, music, broadcasts, and games. Processing multiple content includes presentation, recording, and other related tasks performed by the multimedia processing system 100. By way of example, the multimedia processing system 100 includes a multimedia processing device 102, a display 104 (eg, a monitor or television), and a controller 114. The buttons of the controller 114 may be mapped to the corresponding buttons 19 of the virtual controller 18 described above in FIG. 1D and above.

マルチメディア処理装置102は、放送メディアやインターネット(もしくは他のネットワーク)のメディアや光学ディスク110やメモリカード112などの種々のメディア源からマルチメディアコンテンツを受け取ってもよい。放送メディアからのコンテンツは、放送データチャネル106を通じて受信されてもよい。一方、インターネットのメディアからのコンテンツはネットワークデータチャネル108を通じて受信されうる。放送およびネットワークデータチャネル106、108は、無線チャネル、有線チャネルのいずれであってもよい。放送メディアおよびインターネットのメディアからのコンテンツは、マルチメディア処理装置102によって記録、保存されてもよい。受信されたコンテンツは、仮想世界とのやりとりに使用されるだけでなく、マルチメディア処理装置102の種々の機能(例えば、ゲーム)によって使用されてもよい。   The multimedia processing device 102 may receive multimedia content from various media sources, such as broadcast media, Internet (or other network) media, optical disc 110, memory card 112, and the like. Content from broadcast media may be received through the broadcast data channel 106. On the other hand, content from media on the Internet can be received through the network data channel 108. Broadcast and network data channels 106, 108 may be either wireless channels or wired channels. Content from broadcast media and Internet media may be recorded and stored by the multimedia processing device 102. The received content may be used not only for interaction with the virtual world, but also for various functions (eg, games) of the multimedia processing device 102.

受信されたマルチメディアコンテンツは、ディスプレイ104に表示されてもよい。ディスプレイは、静止画像や動画像を表示するための陰極線管(CRT)やフラットスクリーンなどのビデオモニタを含んでもよい。ディスプレイ104は、ユーザに音声を提供するために、ひとつ以上の音声スピーカをさらに含んでもよい。コントローラ114は、ユーザにマルチメディア処理に関する種々のインストラクションを入力せしめ、かつ、ユーザにマルチメディア処理装置102の機能を制御せしめる。   The received multimedia content may be displayed on the display 104. The display may include a video monitor such as a cathode ray tube (CRT) or a flat screen for displaying still images and moving images. Display 104 may further include one or more audio speakers to provide audio to the user. The controller 114 allows the user to input various instructions relating to multimedia processing, and allows the user to control the functions of the multimedia processing apparatus 102.

システム100は、ディスプレイ104によって提供される可視画像かつ/または可聴音声をもってユーザのやりとりを容易にするために、音声入力およびビデオ入力を含んでもよい。そのような入力は、カメラなどのビデオ撮像装置116およびマイクロホンなどの音声信号取得装置118を含んでもよい。ビデオ撮像装置116は、ディスプレイ104の上に載置されてもよく、またはディスプレイ104と一体化されてもよい。また、ビデオ撮像装置116は、マルチメディア処理装置102と、ケーブルによって、もしくは光学データリンク(例えば、赤外線)や無線周波数データリンク(例えば、ブルートゥース)などの空中接続(over−the−air connections)によって接続されてもよい。撮像装置116は、ディスプレイ104の前付近の画像を取得できるような他のいかなる近隣位置に置かれてもよいことは理解されるべきである。これらの動きややりとりを捉える技術は種々あるが、そのような技術の例が、英国特許出願GB0304024.3(PCT/GB2004/000693)およびGB 0304022.7 (PCT/GB2004/000703)に記載されている。このそれぞれは2003年2月21日に出願されており、本明細書において参照により開示される。撮像装置116は、例えばUSB2.0型のカメラなどのデジタルカメラであってもよい。そのようなカメラは、約75度の視野と、1.5程度のF値と、を有してもよく、また、毎秒約120フレームまでのフレームレートで画像を取得しうる。例として、ビデオ撮像装置は、カリフォルニア州フリーモントにあるロジテック(Logitech)社から購入可能なアイトイカメラ(EyeToy Camera)であってもよい。メディア処理装置102は、ゲームコンソール、テレビ、デジタルビデオレコーダ(DVR)、ケーブルセットトップボックス(cable set−top−box)、ホームメディアサーバ、もしくはユーザからの制御にしたがって自身を描画しうる装置を含む家庭用電気機器であってもよい。代替的な実施の形態では、撮像装置は3次元(3D)カメラであってもよい。ここで3Dカメラ(もしくはゼッドカメラ(zed camera))とは、画像中の物体の深さを決定することを容易にする撮像装置を指す。この文脈において用語「深さ」とは、画像平面と垂直な方向における物体の位置を指す。   System 100 may include audio and video inputs to facilitate user interaction with visible images and / or audible audio provided by display 104. Such inputs may include a video imaging device 116 such as a camera and an audio signal acquisition device 118 such as a microphone. Video imaging device 116 may be mounted on display 104 or may be integrated with display 104. Also, the video imaging device 116 is connected to the multimedia processing device 102 by a cable, or by an over-the-air connection such as an optical data link (for example, infrared) or a radio frequency data link (for example, Bluetooth). It may be connected. It should be understood that the imaging device 116 may be placed in any other nearby location where an image near the front of the display 104 can be acquired. There are various techniques for capturing these movements and exchanges, and examples of such techniques are described in British patent applications GB0304024.3 (PCT / GB2004 / 000693) and GB 03024022.7 (PCT / GB2004 / 000703). Yes. Each of which was filed on February 21, 2003 and is disclosed herein by reference. The imaging device 116 may be a digital camera such as a USB 2.0 type camera, for example. Such a camera may have a field of view of about 75 degrees, an F-number on the order of 1.5, and can acquire images at a frame rate of up to about 120 frames per second. As an example, the video imaging device may be an EyeToy Camera that can be purchased from Logitech, Inc., located in Fremont, California. Media processing device 102 includes a game console, a television, a digital video recorder (DVR), a cable set-top-box, a home media server, or a device that can render itself according to control from the user. It may be a household electrical device. In an alternative embodiment, the imaging device may be a three-dimensional (3D) camera. Here, a 3D camera (or a zed camera) refers to an imaging device that facilitates determining the depth of an object in an image. The term “depth” in this context refers to the position of the object in a direction perpendicular to the image plane.

図2Aは、マルチメディア処理装置102の実施態様を示す機能ブロック図である。示される実施態様においては、マルチメディア処理装置102は、コントローラ114と、ビデオ撮像装置116と、音声信号取得装置118と、データ入力/出力(I/O)部200と、ディスプレイ出力部202と、ディスプレイ制御部204と、保持部208と、ゲーム/仮想世界プロセッサ206と、を含む。例として、ゲーム/仮想世界プロセッサ206は、セルプロセッサなどの並列プロセッサであってもよく、またそれを含んでもよい。この並列プロセッサは、ひとつ以上のシナジスティックプロセシングユニット(SPU)と結合されたパワープロセシングユニット(PPU)を有する。セルプロセッサについては、例えば米国特許出願番号11/238,077に記載されており、この出願は本明細書において参照により開示される。マルチメディア処理装置102はさらに、データ入力機能、データ維持機能、画像処理機能、描画機能、および他の関係する機能などの種々の機能を実現するためのプログラムおよびインストラクションを含む。   FIG. 2A is a functional block diagram illustrating an embodiment of the multimedia processing apparatus 102. In the embodiment shown, the multimedia processing device 102 includes a controller 114, a video imaging device 116, an audio signal acquisition device 118, a data input / output (I / O) unit 200, a display output unit 202, A display control unit 204, a holding unit 208, and a game / virtual world processor 206 are included. By way of example, the game / virtual world processor 206 may be and include a parallel processor such as a cell processor. The parallel processor has a power processing unit (PPU) coupled with one or more synergistic processing units (SPU). Cell processors are described, for example, in US patent application Ser. No. 11 / 238,077, which is hereby incorporated by reference. The multimedia processing device 102 further includes programs and instructions for implementing various functions such as a data input function, a data maintenance function, an image processing function, a drawing function, and other related functions.

コントローラ114は、ユーザの入力から4つの向き(つまり、上向き、下向き、左向き、および右向き)のひとつもしくは組み合わせを決定する向き決定部222と、ユーザの入力からインストラクションを決定するインストラクション決定部224と、を含んでもよい。インストラクションは、マルチメディアコンテンツを示すためのコマンド、その提示を終了させるためのコマンド、メニュー画面を呼び出すためのコマンド、および他の関係するコマンドかつ/またはインストラクションを発行するためのコマンドを含んでもよい。コントローラ114、ビデオ撮像装置116および音声信号取得装置118からの出力は、ディスプレイ出力部202と、ディスプレイ制御部204と、ゲーム/仮想世界プロセッサ206と、に振り向けられる。   The controller 114 includes an orientation determination unit 222 that determines one or a combination of four directions (that is, upward, downward, leftward, and rightward) from a user input, an instruction determination unit 224 that determines an instruction from the user input, May be included. The instructions may include a command for indicating multimedia content, a command for terminating its presentation, a command for invoking a menu screen, and a command for issuing other related commands and / or instructions. Outputs from the controller 114, the video imaging device 116, and the audio signal acquisition device 118 are directed to the display output unit 202, the display control unit 204, and the game / virtual world processor 206.

図1Bおよび図2Aに示される実施態様では、向き決定部222およびインストラクション決定部224は、方向およびインストラクションを起動、感知、および決定するためのボタン、回路、およびプログラムの組み合わせで構成されてもよい。ボタンは十字キーもしくはジョイスティックを含みうる。メニュー画面を呼び出すためのインストラクションに関連したボタンはトグル式に設定されてもよく、この場合、そのボタンが押される度にメニュー画面が表示モードと非表示モードとの間で切り替えられる。   In the embodiment shown in FIGS. 1B and 2A, orientation determiner 222 and instruction determiner 224 may be comprised of a combination of buttons, circuits, and programs for activating, sensing, and determining direction and instructions. . The button can include a cross key or a joystick. The button related to the instruction for calling the menu screen may be toggled, and in this case, each time the button is pressed, the menu screen is switched between the display mode and the non-display mode.

ある実施態様では、向き決定部222はボタンの斜めの動きを、動きの向きを2つの向きのうちの一方と定めるバイナリコマンドとして決定してもよい。ここでは、上向きと右向きとの間の斜めの動きは、上向きかもしくは右向きのいずれか一方と定められうる。別の実施態様では、向き決定部222はボタンの斜めの動きを、動きの向きを測定精度の範囲内におけるある特定の向きに定めるアナログコマンドとして決定してもよい。ここでは、上向きと右向きとの間の斜めの動きは、北西向きと定められうる。後述される通り、方向性の動きは、ユーザとビデオ撮像装置116とディスプレイ制御204との間のやりとりを通じて決定されてもよい。   In one embodiment, the orientation determining unit 222 may determine the diagonal movement of the button as a binary command that defines the direction of movement as one of the two orientations. Here, the diagonal movement between upward and rightward can be defined as either upward or rightward. In another embodiment, the orientation determination unit 222 may determine the diagonal movement of the button as an analog command that determines the direction of movement to a certain direction within the measurement accuracy. Here, the diagonal movement between upward and rightward can be defined as northwest. As described below, directional movement may be determined through interactions between the user, the video imaging device 116 and the display control 204.

データI/O部200は、放送チャネル106を介して放送コンテンツを入力する放送入力部212と、ネットワークチャネル108を介してウェブコンテンツなどのデータを入出力するネットワーク通信部214と、ディスク110に保持されるデータを入力するディスク読み取り部216と、メモリカード112にデータを入力しかつ/またはメモリカード112からデータを出力するメモリカード読み取り部218と、を含んでもよい。データI/O部200の出力は、ディスプレイ出力部202と、ディスプレイ制御部204と、ゲームプロセッサ206と、保持部208と、に振り向けられてもよい。   The data I / O unit 200 is stored in the disk 110, a broadcast input unit 212 that inputs broadcast content via the broadcast channel 106, a network communication unit 214 that inputs and outputs data such as web content via the network channel 108, and the disk 110. A disk reading unit 216 that inputs data to be read and a memory card reading unit 218 that inputs data to the memory card 112 and / or outputs data from the memory card 112 may be included. The output of the data I / O unit 200 may be directed to the display output unit 202, the display control unit 204, the game processor 206, and the holding unit 208.

ディスプレイ出力部202は、復号部232と、合成部234と、出力バッファ236と、オンスクリーンバッファ238と、を含んでもよい。復号部232は、データI/O部200もしくは保持部208から受け取る入力データを復号する。ここで、入力データは、放送コンテンツ、映画、および音楽を含んでもよい。合成部234は、コントローラ114から受け取るユーザの方針/インストラクションに基づいて復号された入力データを処理する。合成部234の出力は出力バッファ236に保持される。オンスクリーンバッファ238は、ディスプレイ制御部204によって生成されるメニュー画面の画像データを保持してもよい。ディスプレイ出力部202の出力は、ディスプレイ104に伝送される。   The display output unit 202 may include a decoding unit 232, a synthesis unit 234, an output buffer 236, and an on-screen buffer 238. The decoding unit 232 decodes input data received from the data I / O unit 200 or the holding unit 208. Here, the input data may include broadcast content, movies, and music. The synthesizer 234 processes the input data decoded based on the user policy / instruction received from the controller 114. The output of the combining unit 234 is held in the output buffer 236. The on-screen buffer 238 may hold menu screen image data generated by the display control unit 204. The output of the display output unit 202 is transmitted to the display 104.

ディスプレイ制御部204は、メニューマネジャ242と、エフェクトプロセッサ244と、コンテンツ制御部246と、画像生成部248と、を含んでもよい。メニューマネジャ242は、保持部208およびデータI/O部200から受け取り、メニュー画面に示されるメディア体およびマルチメディアコンテンツを管理する。エフェクトプロセッサ244は、メニュー画面のアイコンおよびアイコンアレイの操作を処理する。エフェクトプロセッサ244は、メニュー画面に表示されるべき種々の動作およびエフェクトを管理する。コンテンツ制御部246は、メディア体およびマルチメディアコンテンツの処理、およびデータI/O部、保持部208、およびゲーム/仮想世界プロセッサ206からのデータの取り扱いを制御する。画像生成部248は、メディアアイコンアレイおよびコンテンツアイコンアレイを含むメニュー画面を生成する。   The display control unit 204 may include a menu manager 242, an effect processor 244, a content control unit 246, and an image generation unit 248. The menu manager 242 receives media from the holding unit 208 and the data I / O unit 200, and manages the media body and multimedia content shown on the menu screen. The effect processor 244 processes the operation of icons and icon arrays on the menu screen. The effect processor 244 manages various operations and effects to be displayed on the menu screen. The content control unit 246 controls the processing of media bodies and multimedia content, and the handling of data from the data I / O unit, the holding unit 208, and the game / virtual world processor 206. The image generation unit 248 generates a menu screen including a media icon array and a content icon array.

ゲーム/仮想世界プロセッサ206は、データI/O部200もしくは保持部208から読み出されたデータを使用して、ゲームかつ/または仮想世界プログラムを実行する。ゲーム/仮想世界プロセッサ206は、ゲームプログラムを実行し、もしくはコントローラ114から受け取るユーザインストラクションに基づき、ユーザの仮想世界とのやりとりを容易にする。実行されたゲームプログラムまたは仮想世界とのやりとりのディスプレイデータは、ディスプレイ出力部202へ伝送される。   The game / virtual world processor 206 uses the data read from the data I / O unit 200 or the holding unit 208 to execute a game and / or a virtual world program. The game / virtual world processor 206 executes a game program or facilitates user interaction with the virtual world based on user instructions received from the controller 114. Display data exchanged with the executed game program or virtual world is transmitted to the display output unit 202.

本発明の実施の形態では、ビデオ撮像装置116および音声信号取得装置118からの信号は、ユーザがディスプレイ104に表される画像とやりとりし、それを操作することを可能とする。特に、本発明の実施の形態は、ユーザがオブジェクトをディスプレイ104上のある位置から別の位置へ「グラブ(grab)」して「ドラッグ(drag)」することを可能としてもよい。図2Bに示される通り、ビデオ撮像装置116は、ユーザUの像Iに向けられそれを撮像する。そして像Iは、アルファブレンディング(alpha blending)として知られている技術を用いて、ディスプレイ104上で他の像からなる背景の上に表示されてもよい。 In an embodiment of the present invention, signals from video imaging device 116 and audio signal acquisition device 118 allow a user to interact with and manipulate the image shown on display 104. In particular, embodiments of the present invention may allow a user to “grab” and “drag” an object from one location on display 104 to another. As shown in FIG. 2B, the video imaging device 116 is directed to the user I image I U and images it. The image I U may then be displayed on a background of other images on the display 104 using a technique known as alpha blending.

「アルファブレンディング」という用語は一般に、2つの色の凸結合を指し、コンピュータグラフィックスの分野における透過性効果のためのものである。カラーコードにおける値アルファ(alpha)は0.0から1.0の範囲にあってもよく、0.0は十分に透明な色を示し、1.0は十分に不透明な色を示す。例として、色Value1が色Value0の背景の上に描かれた場合、その結果として得られる色の値(Value)は以下の式で与えられてもよい。
Value = Value0 (1.0 - alpha) + Value1 (alpha)
The term “alpha blending” generally refers to the convex combination of two colors and is for transparency effects in the field of computer graphics. The value alpha in the color code may be in the range of 0.0 to 1.0, with 0.0 indicating a sufficiently transparent color and 1.0 indicating a sufficiently opaque color. As an example, when the color Value1 is drawn on the background of the color Value0, the resulting color value (Value) may be given by the following equation.
Value = Value0 (1.0-alpha) + Value1 (alpha)

32ビットRGBAに見られるように、アルファ成分は、赤緑青の3成分を均等に混合するために使用される。あるいはまた、スペクトルカラーフィルタリング(spectral color filtering)における原色のそれぞれに対応して3つのアルファ値が指定される。   As seen in 32-bit RGBA, the alpha component is used to evenly mix the three components red, green and blue. Alternatively, three alpha values are designated corresponding to each of the primary colors in spectral color filtering.

ユーザの手hが認識されると、エフェクトプロセッサは、ユーザの手の変位の向きを、通常はコントローラ114から受け取るような向きの入力と関連付けてもよい。変位の大きさで速さの入力を制御できるようにされてもよい。   When the user's hand h is recognized, the effects processor may correlate the orientation of the user's hand displacement with an orientation input that would normally be received from the controller 114. The speed input may be controlled by the magnitude of the displacement.

ある実施の形態では、像Iは、ユーザの頭Hと手hとを含んでもよい。像Iとのユーザのやりとりを容易にするために、ユーザの像IはユーザUの鏡像として画面に表示されてもよいことを注意しておく。ここでは、ユーザUが手hをユーザの左側に動かした場合、手の像Iもまたユーザの左側に動く。エフェクトプロセッサ244は、ユーザの手hを認識し、また手の像Ihの縦横比(高さと幅の比)の変化を認識するよう構成されてもよい。縦横比のこの変化は、コントローラ114にユーザがディスプレイ上のオブジェクト140を「グラブした(grabbed)」もしくは「クリックした(clicked)」ことを知らせるために使用されてもよい。そしてエフェクトプロセッサ244は、選択されたオブジェクトをユーザの手hの像Iの動きに合わせて動かしうる。ある実施の形態では、ユーザは変形可能な「C」字形状のオブジェクト142を握ってもよい。この変形可能な「C」字形状のオブジェクト142には、ビデオ撮像装置116からの像を解釈する際に、エフェクトプロセッサ244がより容易に認識可能な色がつけられる。ここで「クラム(clam)」と呼ぶこととするオブジェクト142の変形は、ディスプレイ104上のオブジェクトを「グラブ(grab)」もしくは「クリック(click)」するためのコマンドとして認識される縦横比の変化を提供しうる。 In some embodiments, the image I U may include the user's head H and hand h. To facilitate user interaction with the image I U, the image I U of users it is to be noted that the may be displayed on the screen as a mirror image of the user U. Here, when the user U moves the hand h to the left side of the user, the hand image I h also moves to the left side of the user. The effects processor 244 may be configured to recognize the user's hand h and to recognize changes in the aspect ratio (height to width ratio) of the hand image Ih. This change in aspect ratio may be used to inform the controller 114 that the user has “grabbed” or “clicked” on the object 140 on the display. Then, the effects processor 244 can move the selected object in accordance with the movement of the image I h of the user's hand h. In some embodiments, the user may grip a deformable “C” shaped object 142. The deformable “C” -shaped object 142 is given a color that can be more easily recognized by the effects processor 244 when interpreting the image from the video imaging device 116. The deformation of the object 142, referred to herein as “clam”, is a change in aspect ratio that is recognized as a command to “grab” or “click” the object on the display 104. Can be provided.

ユーザUがディスプレイ104上のオブジェクト140を操作するのに左手を使用しているか右手を使用しているかをエフェクトプロセッサ244が認識できることが、しばしば望まれる。例えば、ディスプレイ104上のオブジェクトを左手で操作している場合、オブジェクトがユーザの頭Hの左側に表れることが多くの場合望ましい。このような場合、コントローラはユーザの手h、頭H、腕A、および腰Cをそのそれぞれに対応する像I、I、I、およびIによって認識するソフトウエアを含んでもよい。この情報をもとにコントローラ114は、ユーザUが左手を使用しているか右手を使用しているかを決めることができる。例えば、ユーザの手hが頭Hの左側にあり、腕Aは腰と交差していない場合、ユーザUは左手を使用していると決めることができる。同様に、ユーザの手hが頭の左側にあり、腕は腰と交差している場合、ユーザUは右手を使用していると決めることができる。 It is often desirable for the effects processor 244 to be able to recognize whether the user U is using the left or right hand to manipulate the object 140 on the display 104. For example, when an object on the display 104 is operated with the left hand, it is often desirable that the object appears on the left side of the user's head H. In such a case, the controller may include software that recognizes the user's hand h, head H, arm A, and waist C by corresponding images I h , I H , I A , and I C , respectively. Based on this information, the controller 114 can determine whether the user U is using the left hand or the right hand. For example, if the user's hand h is on the left side of the head H and the arm A does not cross the waist, the user U can determine that he is using the left hand. Similarly, if the user's hand h is on the left side of the head and the arm crosses the waist, it can be determined that the user U is using the right hand.

本発明のある実施の形態では、撮像装置116および音声信号取得装置118はひとつの機器として統合されてもよい。例えば、図2Cおよび図2Dは、マルチメディア処理システム100で使用されてもよい撮像装置120を示す。装置120は、例えばデジタルカメラ(もしくは3Dカメラ)である光学撮像装置122と、ひとつ以上のマイクロホン124とを含む。マイクロホン124はアレイ状に配置され、かつ互いに既知の距離だけ離されて配置されてもよい。例示であり一般性を失わない範囲において、マイクロホン124は直線アレイ状に間隔を置いて配置され、隣接するマイクロホンは中心間の距離にして約2センチメートルだけ離されてもよい。個々のマイクロホンは、約16キロヘルツの共振周波数を有してもよい。このようなマイクロホンアレイは、装置102の動作および仮想世界とのやりとりと共同して、ひとつ以上の音源の位置を探して追跡するために使用されてもよい。このようなマイクロホンアレイの音源位置発見および追跡のための使用については、例えば米国特許出願11/381,724、11/381,725、および11/381,729、2006年5月4日出願、に記載されている。これらは本明細書において参照により開示される。   In an embodiment of the present invention, the imaging device 116 and the audio signal acquisition device 118 may be integrated as one device. For example, FIGS. 2C and 2D illustrate an imaging device 120 that may be used in the multimedia processing system 100. The device 120 includes an optical imaging device 122 which is a digital camera (or 3D camera), for example, and one or more microphones 124. The microphones 124 may be arranged in an array and spaced apart by a known distance. To the extent that they are exemplary and do not lose generality, the microphones 124 may be spaced apart in a linear array and adjacent microphones may be separated by a distance of about 2 centimeters between centers. Individual microphones may have a resonant frequency of about 16 kilohertz. Such a microphone array may be used to locate and track the location of one or more sound sources in conjunction with the operation of the device 102 and interaction with the virtual world. The use of such microphone arrays for sound source location and tracking is described, for example, in US patent applications 11 / 381,724, 11 / 381,725, and 11 / 381,729, filed May 4, 2006. Are listed. These are disclosed herein by reference.

本発明のある実施の形態では、マイクロホン124が撮像装置122と共に動くことが望ましい。例えば、マイクロホン124はフレーム126に取り付けられてもよい。このフレーム126は、マイクロホンと撮像装置、例えばレンズ128、との位置関係を固定されたものとする。複数のマイクロホンが水平な直線状に配列されているように示されているが、それらは代替的には垂直に向けられてもよく、また斜めに向けられてもよく、また2次元的に配列されてもよい。   In certain embodiments of the invention, it is desirable for the microphone 124 to move with the imaging device 122. For example, the microphone 124 may be attached to the frame 126. The frame 126 is assumed to have a fixed positional relationship between the microphone and the imaging device, for example, the lens 128. Although multiple microphones are shown arranged in a horizontal straight line, they may alternatively be oriented vertically, may be oriented diagonally, and are arranged in two dimensions. May be.

ある実施の形態では、装置120は可視LED130および赤外線LED132を含んでもよい。これらは撮像装置122の視野にある物体を照らすために使用されうる。赤外線像の取得を容易とするため、レンズ128は、可視光および選択された赤外領域の周波数(例えば、940nm程度の周波数)を通過させるいわゆる「デイ−ナイト(day−night)」コーティングを含んでもよい。   In certain embodiments, the device 120 may include a visible LED 130 and an infrared LED 132. These can be used to illuminate objects in the field of view of the imaging device 122. To facilitate acquisition of infrared images, the lens 128 includes a so-called “day-night” coating that allows visible light and selected infrared frequencies to pass (eg, frequencies around 940 nm). But you can.

例として、彼もしくは彼女のアバターに仮想携帯電話をとらせて番号をダイアルさせ、現実のもしくは仮想の電話へ現実に電話をかけさせるように、システム20の要素および装置102は設定されてもよい。その電話を受ける側が仮想世界の他のユーザである場合、システム20および装置102は、そのユーザの仮想電話に接続するよう適切にプログラムされていてもよい。ここでこの接続は、例えばその電話がなされる時点でそのユーザがオンラインであり仮想世界とやりとりを行っている場合にはVoIPを介して行われる。システム20の要素および装置102は、デフォルトでは受け側の仮想電話(もしあれば)にその電話をルーティングするよう設定されていてもよい。受け側がオンラインでない場合、その電話は受け側の現実の通信装置へ再ルーティングされてもよい。現実の通信装置の例は、電話(例えば、固定電話回線、携帯電話、もしくはVoIP電話)、もしくはボイスメール(これは現実のもしくは仮想の電話に伴われうる)、もしくは携帯型ゲーム装置およびそのようなものを含むVoIP対応の任意のネットワーク装置を含んでもよいが、それに限定されない。あるいはまた、電話はデフォルトでユーザの現実の通信装置にルーティングされてもよい。そのような実施の形態では、システム20の要素および装置102は、仮想世界と現実の通信装置との間の賢い双方向ルーティングを可能とするように使用されてもよい。   By way of example, elements of system 20 and device 102 may be configured to cause his or her avatar to pick up a virtual mobile phone, dial a number, and make a real or virtual phone call. . If the call recipient is another user in the virtual world, the system 20 and device 102 may be suitably programmed to connect to the user's virtual phone. Here, this connection is made via VoIP when the user is online and interacting with the virtual world, for example, at the time the call is made. Elements of system 20 and device 102 may be configured by default to route the telephone to the receiving virtual telephone (if any). If the recipient is not online, the phone may be re-routed to the recipient's actual communication device. Examples of real-world communication devices are telephones (eg, fixed telephone lines, cell phones, or VoIP phones), or voicemail (which can accompany real or virtual phones), or portable game devices and the like Any network device that supports VoIP, including, but not limited to, may be included. Alternatively, the phone may be routed by default to the user's real communication device. In such an embodiment, elements of system 20 and device 102 may be used to allow for intelligent bi-directional routing between the virtual world and real communication devices.

例示を目的とし一般性を失わない範囲で、現実の装置と仮想の装置との間の通信は、図2Eおよび図2Fを参照して理解されうる。図2Eに示されるように、2人以上のユーザ251、252は、図1Eに関して上述した通り、例えばシステム20を介しネットワーク30を通じて仮想世界とやりとりしてもよい。個々のユーザは、クライアント装置253、254を介してネットワーク30を通じてシステム20と結びついてもよい。これらのクライアント装置253、254は、例えば図1Fおよび2Aに関して上述した通りに適切に設定されてもよい。個々のクライアント装置253、254は、仮想通信装置255、256を生成するのに適切なハードウエアかつ/またはソフトウエアを含んでもよい。装置アバターは仮想世界のなかでは仮想通信装置を表してもよい。装置アバターは、例えば上述の通りに現実の装置の外観を有してもよい。あるいはまた、ユーザは全く任意のかつ/または架空の外観を有するように装置アバターをカスタマイズしてもよい。個々のユーザ251、252は、固定電話257、258および携帯電話259、260などの現実の通信装置を使用することができてもよい。本発明の実施の形態は、任意の数のユーザおよび任意の数の現実のかつ/または仮想の通信装置で実現されうることは、当業者であれば分かる。   For purposes of illustration and without loss of generality, communication between a real device and a virtual device can be understood with reference to FIGS. 2E and 2F. As shown in FIG. 2E, two or more users 251, 252 may interact with the virtual world, eg, via network 30 via system 20 as described above with respect to FIG. 1E. Individual users may be associated with the system 20 through the network 30 via client devices 253, 254. These client devices 253, 254 may be appropriately configured, for example, as described above with respect to FIGS. 1F and 2A. Individual client devices 253, 254 may include hardware and / or software suitable for creating virtual communication devices 255, 256. The device avatar may represent a virtual communication device in the virtual world. The device avatar may have the appearance of a real device as described above, for example. Alternatively, the user may customize the device avatar to have a totally arbitrary and / or fictitious appearance. Individual users 251, 252 may be able to use real-world communication devices such as landlines 257, 258 and mobile phones 259, 260. Those skilled in the art will appreciate that embodiments of the present invention may be implemented with any number of users and any number of real and / or virtual communication devices.

個々のクライアント装置253、254は、現実の装置と仮想の装置との間の電話のルーティングを容易とするための設定可能なルータ261、262を備えてもよい。ルータ261、262は、サーバ、ピアツーピアネットワーク、それらの組み合わせ等のなかにソフトウエアもしくはハードウエアの形で存在してもよい。図2Eに示される例ではルータ261、262はクライアント装置253、254上に設けられているが、これは唯一の可能な配置構成ではない。代替的にはルータ261、262は、シミュレーションサーバ22上、ビューサーバ24上、もしくはネットワーク30に接続された他の装置上など、いかなる場所に設けられてもよい。ルータ261、262は種々の装置からおよび複数の手段でアクセスされうる。これは、仮想電話もしくは通信装置、現実の通信装置、ネットワークウェブページ、および同様のものを含むがそれらに限定されない。個々のルータ261、262は、ルーティング機能を制御するためにひとつ以上のルーティングの優先度を有してもよい。ルータ261、262は、通信ソース(source)または通信ターゲット(target)においてルーティング優先処理を実行してもよい。本実施の形態で使用されている意味において通信「ソース」とは一般的に、通信を発する側(例えば、電話の「発信者(caller)」もしくはテキストメッセージまたは電子メールの「送信者(sender)」)を指す。本実施の形態で使用されている意味において通信「ターゲット」とは一般的に、通信の受け側を指す。ソースおよびターゲットは仮想世界のユーザでなくてもよいことが示される。   Individual client devices 253, 254 may include configurable routers 261, 262 to facilitate the routing of telephone calls between real and virtual devices. The routers 261 and 262 may exist in the form of software or hardware in servers, peer-to-peer networks, combinations thereof, and the like. In the example shown in FIG. 2E, routers 261 and 262 are provided on client devices 253 and 254, but this is not the only possible arrangement. Alternatively, the routers 261 and 262 may be provided at any location on the simulation server 22, the view server 24, or other devices connected to the network 30. Routers 261 and 262 may be accessed from various devices and by multiple means. This includes, but is not limited to, virtual phones or communication devices, real communication devices, network web pages, and the like. Each router 261, 262 may have one or more routing priorities to control the routing function. The routers 261 and 262 may execute the routing priority process in the communication source (source) or the communication target (target). In the sense used in this embodiment, a communication “source” generally refers to the party that originates the communication (eg, a “caller” of a telephone or a “sender” of a text message or email). ]). In the sense used in the present embodiment, a communication “target” generally refers to a communication receiving side. It is shown that the source and target need not be virtual world users.

例として、第1のユーザ251が第2のユーザ252と例えば仮想通信装置255を使用して通信することを所望する場合を考える。この場合、第1のユーザ251は電話のソースであり、第2のユーザ252は電話のターゲットである。第1のユーザのルータ261は、第2のユーザ252の仮想通信装置256へ優先的に接続を試みるよう設定されていてもよい。そのユーザがオンラインでなく仮想世界を使用していない場合、第1のユーザのルータ261は、第2のユーザの固定電話258へ接続を試みてもよい。そしてそれが失敗した場合は、ルータ261は、第2のユーザ252の携帯電話260に接続を試みてもよい。代替的な例では、第2のユーザのルータ260は第1のユーザ251から通信を受けた場合に、自身のルーティング優先処理を実行してもよいことが示される。例えば、第2のユーザのルータ262は、第1のユーザ251からの電話を優先的に第2のユーザの携帯電話260にルーティングし、次いで第2のユーザの固定電話258にルーティングし、次いで第2のユーザの仮想装置256にルーティングしてもよい。   As an example, consider the case where the first user 251 desires to communicate with the second user 252 using, for example, the virtual communication device 255. In this case, the first user 251 is the telephone source and the second user 252 is the telephone target. The first user router 261 may be set to preferentially attempt to connect to the virtual communication device 256 of the second user 252. If the user is not online and not using the virtual world, the first user's router 261 may attempt to connect to the second user's landline 258. If that fails, the router 261 may attempt to connect to the mobile phone 260 of the second user 252. In an alternative example, it is shown that the second user's router 260 may perform its own routing priority process when it receives communication from the first user 251. For example, the second user's router 262 preferentially routes calls from the first user 251 to the second user's mobile phone 260, then routes to the second user's landline phone 258, and then You may route to the virtual user 256 of the second user.

好適な実施の形態では、個々のユーザ251、252はそのユーザの現実のおよび仮想の通信装置のそれぞれに対応するひとつの電話番号を有してもよい。ルータ261、262は、ユーザが有する異なる装置のなかのあるひとつのユーザの番号に電話を自動的にルーティングしてもよい。そのようなルーティングは、ユーザの優先度、ユーザの行動、もしくはそれらのある組み合わせに基づいてもよい。ルータ261、262は通信ソースの正体かつ/または通信ターゲットの正体に依存して異なる優先度を有するようにプログラムされてもよいことが示される。   In a preferred embodiment, each individual user 251, 252 may have one telephone number corresponding to each of the user's real and virtual communication devices. The routers 261, 262 may automatically route the phone to one user number among the different devices that the user has. Such routing may be based on user priority, user behavior, or some combination thereof. It is shown that the routers 261, 262 may be programmed to have different priorities depending on the identity of the communication source and / or the identity of the communication target.

例えば、あるモードでは、第1のユーザのルータ261は、第1のユーザの番号に電話をかけるソースからの電話を受けうる。そのモードでは、第1のユーザ251は、第1のユーザ251がオンラインであることを示す情報をルータ261に提供してもよい。そのような情報は、例えばコントローラ114を使用してマルチメディア処理装置102のなかにプログラムされてもよい。あるいはまた、ルータ261は、第1のユーザ251がオンラインであるかどうかをチェックしてもよい。もしそうであれば、ルータ261はその「電話」を第1のユーザの仮想通信装置255へルーティングしてもよい。この仮想通信装置255は、たとえ第1のユーザ251が第2のユーザのクライアント装置254を介してオンラインであったとしても「鳴る」ように設定されていてもよい。   For example, in one mode, the first user's router 261 may receive a call from a source calling the first user's number. In that mode, the first user 251 may provide the router 261 with information indicating that the first user 251 is online. Such information may be programmed into the multimedia processing device 102 using, for example, the controller 114. Alternatively, the router 261 may check whether the first user 251 is online. If so, the router 261 may route the “phone” to the first user's virtual communication device 255. This virtual communication device 255 may be set to “ring” even if the first user 251 is online via the second user's client device 254.

他のモードでは、ルータ261は、第1のユーザ251がオンラインであるかどうか、およびターゲット(例えば、第2のユーザ252)がオフラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めるためにチェックを行ってもよい。この場合、第1のユーザのルータ261は、固定電話258や携帯電話260などの第2のユーザの現実の通信装置へ「電話」をルーティングしてもよい。   In other modes, the router 261 may obtain information about whether the first user 251 is online and whether the target (eg, the second user 252) is offline, and so on. A check may be made to determine if there is. In this case, the first user's router 261 may route the “telephone” to a second user's real communication device, such as a landline phone 258 or a mobile phone 260.

他のモードでは、第1のユーザのルータ261は、第1のユーザ251がオンラインであるかどうか、および第2のユーザ252がオンラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めてもよい。この場合、「テキストメッセージ」が仮想世界のなかで、例えば第2のユーザのアバターやターゲットの第2のユーザの仮想装置256へ、ルーティングされてもよい。   In other modes, the first user's router 261 may or may not obtain information about whether the first user 251 is online and whether the second user 252 is online. You may decide whether there is. In this case, the “text message” may be routed in the virtual world to, for example, the second user's avatar or the target second user's virtual device 256.

他のモードでは、ルータ261は、第2のユーザ252がオンラインであるかどうかについての情報を得てもよいし、そうであるかどうかを決めるためにチェックを行ってもよい。第2のユーザ252がオフラインである場合、「テキストメッセージ」が、固定電話258や携帯電話260などの第2のユーザに関連付けられた現実世界の装置にルーティングされてもよい。   In other modes, the router 261 may obtain information about whether the second user 252 is online or may check to determine if it is. If the second user 252 is offline, a “text message” may be routed to a real-world device associated with the second user, such as a landline phone 258 or a mobile phone 260.

上記の例に関して多くの他の置換もまた可能である。例えば、上記の例で、ソースは仮想世界のなかから電話をかけてもよいし、アバター仮想装置を通じて仮想世界のなかで電話をかけてもよいし、任意のVoIP装置またはサービスを通じてもしくは任意の現実の電話線および電話ソースを通じて電話をかけてもよい。   Many other permutations are also possible with respect to the above example. For example, in the above example, the source may make a call from within the virtual world, may make a call in the virtual world through an avatar virtual device, through any VoIP device or service, or any reality. You may make a call through any telephone line and source.

他の設定では、ユーザがオンライン時にアバター電話ではなく現実の携帯電話が鳴って欲しいなどのユーザの優先度に基づき、上述の賢いルーティングが行われてもよい。他の設定では、ステートコントロール(STATE CONTROLS)に基づき、上述の賢いルーティングが行われてもよい。このステートコントロールでは、ある状況の下でのみアプリケーションの設定に依存して電話がアバター電話もしくは現実の電話にルーティングされる。例えば、ターゲットがオンラインゲームに参加しており邪魔されたくない場合、電話はターゲットの現実のもしくは仮想のボイスメールへルーティングされてもよい。さらに別の設定では、電話は仮想装置へルーティングされ、そこでもしその装置が鳴らなかった場合は、仮想ボイスメールへ行く代わりに電話は現実の電話などの現実の装置へ再ルーティングされてもよい。   In other settings, the smart routing described above may be performed based on the user's priority, such as when the user wants a real mobile phone to ring instead of an avatar phone when online. In other settings, the above-described clever routing may be performed based on state control (STATE CONTROLS). With this state control, the phone is routed to an avatar phone or a real phone only under certain circumstances, depending on the application settings. For example, if the target is participating in an online game and does not want to be disturbed, the call may be routed to the target's real or virtual voicemail. In yet another setting, the phone is routed to a virtual device, and if that device does not ring, the phone may be rerouted to a real device, such as a real phone, instead of going to virtual voicemail.

図2Fに示されるように、本発明の実施の形態は、第1のユーザ251が第2のユーザ252へ固定電話257などの現実の電話を使用して電話をかける状況を許す。第1のユーザ251はその電話に向けて話をし、第1のユーザのアバター263が第2のユーザの仮想通信装置256に表れる。このアバター263は、第2のユーザ252が所有するマルチメディア処理装置102に接続されたディスプレイ104に表示される。ディスプレイ104上には、第1のユーザの名前266もまた第1のユーザのアバター263の近くに表示されてもよい。第1のユーザの発言265は、装置102、シミュレーションサーバ22、ビューサーバ24、もしくは他の装置に実装されていてもよい音声認識ソフトウエアかつ/またはハードウエアを使用してテキストに変換されてもよい。その結果得られるテキストはディスプレイ104上で第1のユーザのアバター263の近くのふきだし(text bubbles)264として表示されてもよい。オーディオスピーカ267は、第1のユーザと第2のユーザとの間の通信の間、第1のユーザの発言265の可聴音声を再生してもよい。   As shown in FIG. 2F, the embodiment of the present invention allows a situation where the first user 251 makes a call to the second user 252 using a real phone such as a landline phone 257. The first user 251 talks to the phone and the first user's avatar 263 appears in the second user's virtual communication device 256. The avatar 263 is displayed on the display 104 connected to the multimedia processing apparatus 102 owned by the second user 252. On the display 104, the first user's name 266 may also be displayed near the first user's avatar 263. The first user's utterance 265 may be converted to text using speech recognition software and / or hardware that may be implemented on device 102, simulation server 22, view server 24, or other device. Good. The resulting text may be displayed on the display 104 as text bubbles 264 near the first user's avatar 263. The audio speaker 267 may play an audible sound of the first user's speech 265 during communication between the first user and the second user.

同じルーティング処理が、テキストメッセージングや電子メールなどの他のタイプのメッセージングに対して使用されうることが示される。このシステムのひとつの利点は、現実の電話かつ/またはテキストメッセージが、あるユーザから別のユーザへ、現実の通信装置で発生する長距離電話料金や他の電話料金を避けうる形でルーティングされうるということである。受け手側の(ユーザの)現実の電話機もしくはテキストメッセージ装置は、システム20によって維持されている仮想世界とのやりとりを容易とするためのミドルウエアを備えてもよい。   It is shown that the same routing process can be used for other types of messaging such as text messaging and email. One advantage of this system is that a real phone and / or text message can be routed from one user to another in a way that avoids long distance charges and other phone charges generated by real communication devices. That's what it means. The recipient's (user's) real phone or text message device may include middleware to facilitate interaction with the virtual world maintained by the system 20.

ある実施の形態では、ユーザは現実の通信装置を使用して仮想世界のコンテンツにアクセスできてもよい。例えば、携帯電話や携帯型インターネット装置などがユーザのアバター、公共空間、もしくは私的空間に変更を加えるために使用されてもよい。あるいはまた、現実の通信装置は仮想通信装置のコンテンツに離れた場所からアクセスするために使用されてもよい。特に、現実の通信装置は、シミュレートされた通信装置とユーザとの間のインタフェースとして使用されてもよい。例えば、仮想通信装置がユーザの私的空間内に配された仮想デジタルビデオレコーダ(DVR)であったとする。ユーザは現実の携帯電話および電子プログラミングガイドを使用して現実のもしくは仮想の出来事を記録するために仮想DVRにアクセスしてもよい。   In some embodiments, a user may be able to access virtual world content using real-world communication devices. For example, a mobile phone or a portable internet device may be used to make changes to the user's avatar, public space, or private space. Alternatively, a real communication device may be used to access the content of the virtual communication device from a remote location. In particular, a real communication device may be used as an interface between a simulated communication device and a user. For example, suppose that the virtual communication device is a virtual digital video recorder (DVR) placed in the user's private space. A user may access a virtual DVR to record real or virtual events using a real mobile phone and an electronic programming guide.

上述した通り、現実の通信装置と仮想通信装置との間で通信を行うことは、ビデオ通信を含んでもよい。ある実施の形態によると、ビデオ通信の間現実の通信装置にアバターの像が表示されてもよい。仮想世界を生成するシステムは、アバター像を、そのアバターに関連付けられたユーザによって生成された現実のもしくは合成された音声にリップシンクさせてもよい。例えば、ユーザは現実の装置へ送るべき音声メッセージをビデオメッセージの一部として記録してもよい。システムはビデオメッセージを音声メッセージをしゃべるアバターと共に生成してもよい。この場合、そのアバターの唇の動きはメッセージ中のユーザの発言と同期している。あるいはまた、ユーザは仮想の装置にメッセージのテキストを入力してもよい。システムはそのテキストからアバターに対して音声を合成し、アバターのビデオ画像を生成してもよい。この場合、アバターの唇の動きは合成された音声と同期している。他の実施の形態では、ユーザは例えばビデオ撮像装置116および音声信号取得装置118を使用して、音声およびビデオメッセージを記録してもよい。   As described above, performing communication between a real communication device and a virtual communication device may include video communication. According to an embodiment, an avatar image may be displayed on a real communication device during video communication. A system that generates a virtual world may lip-sync the avatar image to real or synthesized speech generated by a user associated with the avatar. For example, a user may record an audio message to be sent to a real device as part of a video message. The system may generate a video message with an avatar speaking a voice message. In this case, the movement of the lips of the avatar is synchronized with the user's statement in the message. Alternatively, the user may enter the text of the message on the virtual device. The system may synthesize speech for the avatar from the text and generate a video image of the avatar. In this case, the movement of the lips of the avatar is synchronized with the synthesized voice. In other embodiments, the user may record audio and video messages using, for example, video imaging device 116 and audio signal acquisition device 118.

ある実施の形態では、アバター14は、ある感情を伝えるためのアニメーション、顔色の変化、音、パーティクル(particle)もしくはチャットバブルの変化を通じて感情を表現してもよい。このようなアバターによる感情の表現(しばしば「エモーツ(emotes)」と呼ばれる)は、予めプログラムされ、ユーザコマンドによってトリガされてもよい。本発明のある実施の形態では、仮想世界とのやりとりのなかでユーザが示した感情は、ユーザのアバターによって表される感情にマッピングされてもよい。ある実施の形態では、ユーザはアバターに反映されうる感情状態を選択してもよい。例として、アバターエモーツは装置102によってユーザに提供されるメニューから選択されてもよい。例えば、ユーザが「嬉しい(happy)」を選択した場合、ユーザのアバターは笑みを浮かべた形で表されてもよい。ユーザが「悲しい(sad)」を選択した場合、アバターはしかめづらを表してもよい。このようなメニュー駆動の感情は、ユーザが素早く使用したい場合にはややぎこちないかもしれない。そこで、ある実施の形態では、装置102はリアルタイムでユーザの感情の状態を検出し、その状態を反映するように適切にユーザのアバターの特徴に変化を加えてもよい。このようなリアルタイムでのユーザの感情の状態の追跡は、例えばユーザのアバターの像が現実の装置に表示されるビデオ通信の間、アバターにユーザの感情の状態をマッピングする際に特に有用である。   In some embodiments, the avatar 14 may express emotions through animations, facial color changes, sounds, particles, or chat bubble changes to convey certain emotions. Such an avatar expression of emotion (often referred to as “emotes”) may be pre-programmed and triggered by a user command. In some embodiments of the present invention, emotions shown by the user in the interaction with the virtual world may be mapped to emotions represented by the user's avatar. In some embodiments, the user may select an emotional state that can be reflected in the avatar. As an example, Avatar Emotes may be selected from a menu provided to the user by device 102. For example, if the user selects “happy”, the user's avatar may be represented with a smile. If the user selects “sad”, the avatar may represent frowning. This menu driven feeling may be awkward if the user wants to use it quickly. Thus, in one embodiment, the device 102 may detect the state of the user's emotion in real time and appropriately change the characteristics of the user's avatar to reflect that state. Such tracking of the user's emotional state in real time is particularly useful when mapping the user's emotional state to the avatar, for example during video communication in which an image of the user's avatar is displayed on a real device. .

限定しない例として、装置102は、撮像装置116を使用してユーザUのひとつ以上の画像を取得し、ユーザのひとつ以上の顔色を解析することによって、ユーザの感情の状態をリアルタイムで追跡してもよい。ゲーム/仮想世界プロセッサ206は、ユーザの唇、目、まぶた、まゆげ、ほほ、歯、もしくは小鼻などの顔色、もしくは姿勢や腕や手の置き方などのボディーランゲージを使用してこれらの画像を解析しユーザの感情の状態を決めるようプログラムされてもよい。このような顔色かつ/またはボディーランゲージ解析は、3Dカメラを使用して画像を生成することによって強化されうる。   By way of non-limiting example, the device 102 can track one or more images of the user U using the imaging device 116 and analyze one or more facial colors of the user in real time to track the emotional state of the user. Also good. The game / virtual world processor 206 analyzes these images using the user's lips, eyes, eyelids, eyebrows, cheeks, cheeks, teeth, or nose and other body language such as posture, arm and hand placement. And may be programmed to determine the state of emotion of the user. Such complexion and / or body language analysis can be enhanced by generating an image using a 3D camera.

あるいはまた、ユーザの発話もしくは音声信号取得装置118によって検出される他の発声のなかに示されるユーザの声の抑揚を解析することによって、ユーザの感情状態はリアルタイムで追跡されてもよい。ユーザがテキストを介して通信する場合は、感情状態を示すある言葉、フレーズ、もしくは言語パターンについてテキストを解析することによって感情が追跡されてもよい。加えて、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータなどの他の生物測定学的データを使用してユーザの感情の状態が追跡されてもよい。このようなデータは、コントローラ114に設けられた適切なセンサを通じて取得され、プロセッサ206に導入されている適切に設定されたソフトウエア、ハードウエア、もしくはファームウエアによって解析されてもよい。サーモグラフィデータは、撮像装置116が赤外線画像を取得可能な場合にも得られる。   Alternatively, the user's emotional state may be tracked in real time by analyzing the user's voice inflection shown in the user's utterance or other utterance detected by the audio signal acquisition device 118. If the user communicates via text, the emotion may be tracked by analyzing the text for a word, phrase, or language pattern that indicates the emotional state. In addition, other biometric data such as electrocardiograph (EKG) data, electroencephalogram (EEG) data, electrodermal reflex data, or thermographic data may be used to track the user's emotional state. Such data may be acquired through appropriate sensors provided in the controller 114 and analyzed by appropriately configured software, hardware, or firmware installed in the processor 206. The thermographic data is also obtained when the imaging device 116 can acquire an infrared image.

ユーザの感情の状態がいったん決定されてしまうと、その感情の状態を示すボディーランゲージと顔色の種々の組み合わせがアバターのアニメーションによって表されるエモーツに反映されてもよい(例えば、歯をむき出して拳を振り上げた様子は怒りを示す)。   Once the emotional state of the user is determined, various combinations of body language and complexion indicating the emotional state may be reflected in the emoticons represented by the animation of the avatar (e.g. Angry shows anger).

ある実施の形態では、ユーザは自己のアバターに対してカスタマイズされたジェスチャもしくは「エモーツ」を使用したいと思うかもしれない。これを容易とするため、アバターに対してひとつ以上のカスタムジェスチャが生成されてもよい。これらのカスタムジェスチャは、ユーザのアバターがコマンドに基づきジェスチャを行うことができるように、ひとつ以上のユーザインタフェース信号と関連付けられてもよい。例として、カスタムジェスチャは、ユーザがジェスチャを行う際にユーザの身体の動きもしくはユーザの表情のマッピングを記録しデジタル化するためのモーションキャプチャもしくはパフォーマンスキャプチャ技術を使用して生成されてもよい。ある実施の形態では、撮像装置116がこの目的のために使用されうる。あるいはまた、商業的なモーションキャプチャスタジオもしくはパフォーマンスキャプチャスタジオがこの目的のために使用されてもよい。   In some embodiments, a user may wish to use a customized gesture or “emotes” for his avatar. To facilitate this, one or more custom gestures may be generated for the avatar. These custom gestures may be associated with one or more user interface signals so that the user's avatar can make a gesture based on the command. As an example, custom gestures may be generated using motion capture or performance capture techniques to record and digitize the user's body movements or user facial expression mappings as the user makes gestures. In certain embodiments, the imaging device 116 may be used for this purpose. Alternatively, a commercial motion capture studio or performance capture studio may be used for this purpose.

モーションキャプチャでは、ユーザもしくは他のパフォーマは各関節にマーカを付け、そのマーカの位置もしくはマーカ間の角度によって動きを認識させてもよい。音声マーカ、慣性マーカ、LEDマーカ、磁気マーカ、もしくは反射性マーカ、あるいはそれらの任意の組み合わせが、最適には所望の動きの速さの少なくとも2倍の速さで、ミリメートル以下の位置精度で、追跡される。モーションキャプチャコンピュータソフトウエアは、位置、角度、速さ、加速度、および力積を記録し、動きの正確なデジタル表現を提供する。例として、光学的なモーションキャプチャシステムは、重なり合う映像を提供するよう較正されたひとつ以上のカメラの間でマーカの3D位置を三角測量してもよい。受動的な光学システムは、カメラのレンズの近くで生成される光を反射する再帰反射性材料で覆われたマーカを使用してもよい。明るいマーカだけがサンプルされ肌や生地を無視できるように、カメラの感度は大抵のカメラが有する狭い範囲の光感度を利用して調整されうる。あるいはまた、マーカそのものが電源を有し自身から光を放つ能動的な光学システムが使用されてもよい。電源は個々のマーカに順番に提供されてもよく、その場合キャプチャシステムと同期してもよい。これによりフレームレートを犠牲にして、所与のキャプチャフレームに対して個々のマーカを独立して認識できる。   In motion capture, a user or other performer may attach a marker to each joint and recognize the movement by the position of the marker or the angle between the markers. A voice marker, inertia marker, LED marker, magnetic marker, or reflective marker, or any combination thereof, is optimally at least twice as fast as the desired speed of motion, with sub-millimeter position accuracy, Be tracked. Motion capture computer software records position, angle, speed, acceleration, and impulse, and provides an accurate digital representation of movement. As an example, an optical motion capture system may triangulate the 3D position of a marker between one or more cameras calibrated to provide overlapping images. Passive optical systems may use markers covered with a retroreflective material that reflects light generated near the camera lens. Camera sensitivity can be adjusted using the narrow range of light sensitivity that most cameras have so that only bright markers are sampled and skin and fabric can be ignored. Alternatively, an active optical system where the marker itself has a power source and emits light from itself may be used. Power may be provided to individual markers in turn, in which case it may be synchronized with the capture system. This allows individual markers to be recognized independently for a given capture frame at the expense of frame rate.

パフォーマンスキャプチャは、パフォーマンスの双方向的な性質により、通常のモーションキャプチャとは異なる。パフォーマンスキャプチャでは、参照する動きのデータを取得し後に動きを一緒に編集するのではなく、体や手や表情を全て一度に取得する。   Performance capture differs from normal motion capture due to the interactive nature of performance. Performance capture captures all of your body, hands, and facial expressions at once, rather than acquiring the motion data you want to reference and later editing the motion together.

ジェスチャのためのユーザの体の動きかつ/または表情がデジタル化されると、そのデジタル化されたジェスチャは、そのジェスチャをアバターが行うようにアバターのアニメーションに関するコード化されたインストラクションもしくは他のユーザインタフェース信号を生成するために使用されてもよい。そのコードや他のユーザインタフェース信号は、一人以上の他のユーザに配布されてもよい。一人以上の他のユーザは、カスタムジェスチャを行うように自己のアバターをカスタマイズできる。カスタマイズされたアバタージェスチャは、カスタマイズされたアバターの服、履き物、ヘアスタイル、民族的な特徴、および他のカスタムアバター特徴と組み合わされて、社会のなかである特定のグループに属していることを示す手段とされてもよい。ある実施の形態では、例えば不必要に他のユーザを刺激したり法を犯したりすることを避けるために、カスタムジェスチャの使用を加減することが望ましい。ここで加減するもしくは加減(moderating or moderation)は、仮想世界のなかで受け入れられうる行動に対してある程度の規制を課すことを指す。このような加減はビューサーバ24によって実装されうる。このビューサーバ24は、カスタムジェスチャが無礼でないかもしくは他の不適切さはないかについて解析してもよい。   When the user's body movements and / or facial expressions for a gesture are digitized, the digitized gesture is a coded instruction or other user interface regarding the animation of the avatar so that the avatar performs the gesture. It may be used to generate a signal. The code and other user interface signals may be distributed to one or more other users. One or more other users can customize their avatars to make custom gestures. Customized avatar gestures, combined with customized avatar clothes, footwear, hairstyles, ethnic characteristics, and other custom avatar characteristics, indicate that they belong to a particular group in society It may be a means. In certain embodiments, it may be desirable to moderate the use of custom gestures, for example, to avoid unnecessarily stimulating other users or committing law. “Adjusting” or “modifying or moderating” here means imposing a certain degree of regulation on actions that can be accepted in the virtual world. Such adjustment can be implemented by the view server 24. This view server 24 may analyze whether the custom gesture is not rude or otherwise inadequate.

カスタムジェスチャの表示を加減することは、所定の基準にしたがって、ある特定のユーザについてアバターにカスタムジェスチャを行わせることを制限すること、またはある特定のユーザがカスタムジェスチャを行うアバターを知覚できなくすることを含んでもよい。この所定の基準は、ユーザの年齢や、ジェスチャの視聴者や、宗教的な、民族的な、もしくは視聴者の他の帰属先に基づいて視聴者が侮辱と感じる感受性を含んでもよい。   Adjusting the display of custom gestures restricts avatars from making custom gestures for certain users according to predetermined criteria, or makes certain users unable to perceive avatars that perform custom gestures You may include that. This predetermined criteria may include the sensitivity of the viewer to feel insult based on the age of the user, the viewer of the gesture, religious, ethnic or other attribution of the viewer.

本発明の代替的な実施の形態によると、上述のシステムおよび方法は、仮想世界を使用する通信を実現するように変更されてもよい。特にアバターと電子メールの発信元とが関連付けられてもよい。ユーザは仮想世界のなかで電子メールを生成し、自己のアバターのひとつ以上の画像をその電子メールに関連付けてもよい。その電子メールは仮想世界から現実の装置へ送られてもよい。アバターの画像は電子メールの届け先において、例えば電子メールの添付を自己解凍することによって提示されてもよい。電子メールは、例えば仮想世界のなかの仮想通信装置を使用して生成されてもよい。限定を加えるものではない例として、電子メールの届け先は、例えば電子メールメッセージを受信するように構成された任意の現実の装置である現実の通信装置であってもよい。現実の通信装置は、他の現実の通信装置と仮想世界とは独立したひとつ以上の通信チャネルを通じて通信してもよい。   According to alternative embodiments of the present invention, the systems and methods described above may be modified to implement communication using a virtual world. In particular, an avatar and an email sender may be associated with each other. The user may generate an email in the virtual world and associate one or more images of his / her avatar with the email. The email may be sent from the virtual world to a real device. The avatar image may be presented at the e-mail delivery destination, for example, by self-decompression of the attachment of the e-mail. The email may be generated using a virtual communication device in a virtual world, for example. By way of example without limitation, the e-mail recipient may be a real communication device, for example, any real device configured to receive e-mail messages. Real communication devices may communicate with one another through one or more communication channels independent of the virtual world.

例示であり一般性を失わない範囲において、仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含んでもよい。私的空間の各々は、複数のユーザのなかの個々のユーザに例えば上述のように関連付けられる。   To the extent that it is exemplary and does not lose generality, the virtual world may include a simulated public space and one or more simulated private spaces that facilitate interaction between multiple users. Each private space is associated with an individual user of the plurality of users, for example as described above.

記録されたもしくは合成された音声と電子メールとが関連付けられ、その音声が届け先でひとつ以上の画像と共に提供されてもよい。アバター画像は、特に電子メールのために生成されるアバターのアニメーションを含んでもよい。そのアニメーションは届け先で、例えば電子メールの添付を自己解凍することによって提示されてもよい。加えて、ひとつ以上のジェスチャがアバターのアニメーションに例えば上述のようにマッピングされてもよい。電子メールメッセージの発信元の音声かつ/またはビデオを記録しその音声かつ/またはビデオのひとつ以上の特徴要素をアニメーション中のアバターのひとつ以上の特徴要素にマッピングすることによって、ジェスチャはマッピングされてもよい。   The recorded or synthesized voice and email may be associated and the voice may be provided with one or more images at the destination. The avatar image may include an animation of an avatar generated specifically for email. The animation may be presented at the destination, for example by self-extracting an email attachment. In addition, one or more gestures may be mapped to the animation of the avatar, for example as described above. Gestures can be mapped by recording the voice and / or video from which the email message originated and mapping one or more features of the voice and / or video to one or more features of the animated avatar. Good.

ある実施の形態では、テーマとアニメーションのなかでの仮想カメラの動きとが関連付けられてもよい。限定を加えるものではない例として、テーマは、仮想カメラのアングルの選択やトラッキングやパンや傾斜やズームやクローズアップや擬似光などを含んでもよい。仮想カメラの位置は固定されてもよいし動いてもよい。加えて、テーマはアバターに対して背景描写を選択することを含んでもよい。   In some embodiments, the theme and the movement of the virtual camera in the animation may be associated. By way of example without limitation, the theme may include virtual camera angle selection, tracking, panning, tilting, zooming, close-up, simulated light, and the like. The position of the virtual camera may be fixed or moved. In addition, the theme may include selecting a background depiction for the avatar.

ある実施の形態では、電子メールを作成することは、例えば上述のように発信元の感情の状態を追跡し、その感情の状態をテーマにマッピングすることを含んでもよい。例えば、穏やかなもしくは静かな感情の状態は、固定されたカメラ位置もしくは仮想カメラの比較的遅い移動によって特徴付けられるテーマにマッピングされてもよい。動揺もしくは興奮の感情の状態は、がたがたしたカメラの動きや極度のクローズアップや厳しいカメラのアングルなどによって特徴付けられるテーマにマッピングされてもよい。   In some embodiments, creating the email may include tracking the emotional state of the sender, eg, as described above, and mapping that emotional state to the theme. For example, a calm or quiet emotional state may be mapped to a theme characterized by a fixed camera position or a relatively slow movement of the virtual camera. The emotional state of upset or excitement may be mapped to a theme characterized by rattling camera movements, extreme close-ups, harsh camera angles, and the like.

上述のタイプのアバター電子メール通信は、例えば図1Eのシステム20かつ/または図1Fおよび図2Aのマルチメディア装置102を適切に設定することによって、実現されうる。   Avatar email communication of the type described above may be implemented, for example, by appropriately configuring the system 20 of FIG. 1E and / or the multimedia device 102 of FIGS. 1F and 2A.

本発明の実施形態によれば、上述のタイプの仮想世界システムおよび方法は、クライアント装置28および例えばシステム20の要素によって生成される仮想世界とやりとりするためのユーザインタフェースとしてコンソールビデオゲーム装置を使用することで実装されうる。図3に示される通り、コンソールビデオゲーム装置300は、プロセッサ301とメモリ302(例えば、RAM、DRAM、ROMなど)を備える。加えて、ビデオゲーム装置300は、並列処理が実装されるのであれば、複数のプロセッサ301を備えてもよい。メモリ302はデータとゲームプログラムコード304を備え、上述のように仮想世界とのユーザのやりとりを容易とする部分を備える。具体的には、メモリ302は上述したような保存コントローラ経路情報を含む慣性信号データ306を備えてもよい。メモリ302は、保存ジェスチャデータ308、例えば、ゲームプログラム304に関連した一つ以上のジェスチャを表すデータなどを含んでもよい。プロセッサ302上で実行されるコード化されたインストラクションは、上述のように構成され機能する複数入力型ミキサ305を使用してもよい。   According to embodiments of the present invention, a virtual world system and method of the type described above uses a console video game device as a user interface for interacting with the client device 28 and the virtual world generated by, for example, elements of the system 20. Can be implemented. As shown in FIG. 3, the console video game apparatus 300 includes a processor 301 and a memory 302 (for example, RAM, DRAM, ROM, etc.). In addition, the video game apparatus 300 may include a plurality of processors 301 as long as parallel processing is implemented. The memory 302 includes data and game program code 304, and includes a portion that facilitates user interaction with the virtual world as described above. Specifically, the memory 302 may include inertial signal data 306 including stored controller path information as described above. The memory 302 may include stored gesture data 308, such as data representing one or more gestures associated with the game program 304, for example. Coded instructions executed on processor 302 may use multi-input mixer 305 configured and functioning as described above.

システム300はまた、入出力(I/O)要素311、電源(P/S)312、クロック(CLK)313およびキャッシュ314などの公知のサポート機能310を備えてもよい。装置300は任意に、プログラムおよび/またはデータ保存のためのディスクドライブ、CD−ROMドライブ、テープドライブなどの大容量記憶装置315を備えてもよい。コントローラは任意に、装置300とユーザとのやりとりを容易にするために、ディスプレイ部316と入力部318を備えてもよい。ディスプレイ部316は、テキスト、数値、グラフ記号や画像を表示する陰極線管(CRT)、またはフラットパネルスクリーンの形であってもよい。ユーザインタフェース318は、キーボード、マウス、ジョイスティック、ライトペンや他の装置を備えてもよい。また、ユーザ入力318は分析対象の信号を直接取り込むために、マイクロホン、ビデオカメラ、またはその他の信号変換装置を備えてもよい。装置300は、仮想世界のサーバや他の同様に設定された装置とインターネットなどのネットワークを介して通信できるようにネットワークインタフェース319を含んでもよい。装置300のプロセッサ301、メモリ302、ユーザ入力318、ネットワークインタフェース319および他の部品は図3に示すように、システムバス320を介して、互いに信号(例えばコード化されたインストラクションおよびデータ)を交換してもよい。   The system 300 may also include known support functions 310 such as input / output (I / O) elements 311, a power supply (P / S) 312, a clock (CLK) 313, and a cache 314. The device 300 may optionally include a mass storage device 315 such as a disk drive, CD-ROM drive, tape drive, etc. for storing programs and / or data. The controller may optionally include a display unit 316 and an input unit 318 to facilitate communication between the device 300 and the user. The display unit 316 may be in the form of a cathode ray tube (CRT) that displays text, numerical values, graph symbols and images, or a flat panel screen. User interface 318 may include a keyboard, mouse, joystick, light pen, and other devices. User input 318 may also include a microphone, video camera, or other signal converter to directly capture the signal to be analyzed. The device 300 may include a network interface 319 so that it can communicate with a virtual world server and other similarly configured devices via a network such as the Internet. The processor 301, the memory 302, the user input 318, the network interface 319 and other components of the device 300 exchange signals (eg, coded instructions and data) with each other via the system bus 320 as shown in FIG. May be.

マイクロホン配列322は、入出力装置311を介してシステム300に接続されてもよい。マイクロホン配列は、約2〜約8個のマイクロホン、好ましくは約4個を、隣接するマイクロホンとは約4cm未満、好ましくは約1〜2cmの距離離間して備えてもよい。好適には、配列322のマイクロホンは無指向性マイクロホンである。オプションである撮像装置323(例えばデジタルカメラ)は、入出力装置311を介して装置300に接続されてもよい。撮像装置の位置決めを制御するために、一つ以上の位置決めアクチュエータ325がカメラに機械的に接続されてもよい。これらのアクチュエータ325は、入出力装置311を介してプロセッサ301との間で信号を交換してもよい。   The microphone array 322 may be connected to the system 300 via the input / output device 311. The microphone array may comprise about 2 to about 8 microphones, preferably about 4, spaced from adjacent microphones by a distance of less than about 4 cm, preferably about 1-2 cm. Preferably, the microphones in array 322 are omnidirectional microphones. An optional imaging device 323 (for example, a digital camera) may be connected to the device 300 via the input / output device 311. One or more positioning actuators 325 may be mechanically connected to the camera to control the positioning of the imaging device. These actuators 325 may exchange signals with the processor 301 via the input / output device 311.

本明細書では、「入出力装置」という用語は、概して装置300との間および周辺装置との間でデータを送受信するプログラム、操作または装置のいずれかを指す。すべてのデータ送受信は、ある装置からの出力と別の装置への入力と考えてよい。周辺装置には、キーボードやマウスなどの入力専用装置、プリンタなどの出力専用装置に加えて、入力装置および出力装置の両方として作動できる書き込み可能CD-ROMなどの装置が含まれてもよい。「周辺装置」という用語には、マウス、キーボード、プリンタ、モニタ、マイクロホン、ゲームコントローラ、カメラ、外部Zipドライバまたはスキャナなどの外部装置に加えて、CD−ROMドライブ、CD−Rドライブまたは内部モデムなどの内部装置、または、フラッシュメモリリーダ/ライタやハードドライブなどの他の周辺装置が含まれる。   As used herein, the term “input / output device” generally refers to any program, operation or device that sends and receives data to and from device 300 and peripheral devices. All data transmission and reception may be considered as output from one device and input to another device. Peripheral devices may include devices such as a writable CD-ROM that can operate as both an input device and an output device, in addition to an input-only device such as a keyboard and mouse, and an output-only device such as a printer. The term “peripheral device” includes an external device such as a mouse, keyboard, printer, monitor, microphone, game controller, camera, external Zip driver or scanner, CD-ROM drive, CD-R drive or internal modem, etc. Internal devices, or other peripheral devices such as flash memory reader / writers and hard drives.

本発明のある実施形態では、装置300は、有線(例えばUSBケーブル)または無線、例えば赤外線もしくはラジオ周波数(ブルートゥースなど)接続の使用、を通じて入出力装置311を介してプロセッサに接続されたコントローラ330を具備してもよい。コントローラ330は、ビデオゲームプレイ中に通常使用されるコントロール信号を提供するアナログジョイスティックコントロール331と既知のボタン333を具備してもよい。そのようなビデオゲームは、メモリ302、または大容量記憶装置315に関連する他のプロセッサ読み取り可能媒体に保存されるプログラム304からの、プロセッサ読み取り可能データおよび/またはインストラクションとして実装されてもよい。   In some embodiments of the present invention, the device 300 includes a controller 330 connected to the processor via the input / output device 311 through the use of a wired (eg USB cable) or wireless, eg infrared or radio frequency (such as Bluetooth) connection. You may have. The controller 330 may include an analog joystick control 331 and a known button 333 that provide control signals normally used during video game play. Such a video game may be implemented as processor readable data and / or instructions from a program 304 stored in the memory 302 or other processor readable media associated with the mass storage device 315.

ジョイスティックコントロール331は、通常、コントロールスティックを左右に動かすとX軸沿いの動きの信号を発信し、前後(上下)に動かすとY軸沿いの信号を発信するように構成されていてもよい。3次元の動き用に構成されたジョイスティックでは、スティックを左(反時計回り)または右(時計回り)に捻るとZ軸沿いの動きの信号を発信してもよい。これらX,Y,Zの3軸は、特に航空機に関する場合に、それぞれロール、ピッチ、ヨーと呼ばれることがある。   The joystick control 331 may normally be configured to transmit a signal along the X axis when the control stick is moved to the left and right, and to transmit a signal along the Y axis when moved back and forth (up and down). In a joystick configured for three-dimensional movement, a signal of movement along the Z axis may be transmitted when the stick is twisted to the left (counterclockwise) or right (clockwise). These three axes of X, Y, and Z may be referred to as roll, pitch, and yaw, respectively, particularly when related to aircraft.

従来の特徴に加えて、コントローラ330は、一つ以上の慣性センサ332を備えてもよい。慣性センサ332は、慣性信号を介して位置情報および/または方向情報をプロセッサ301に提供できる。方向情報には、コントローラ330の傾き、ロールまたはヨーなどの角度情報が含まれていてもよい。例示として、慣性センサ332には、任意の数の加速度計、ジャイロスコープまたは傾斜センサ、またはこれらの任意の組み合わせが含まれていてもよい。好適な実施形態では、慣性センサ332には、傾斜およびロール軸に対するジョイスティックコントローラの方向を検知するように適応された傾斜センサ、ヨー軸沿いの加速度を検知するように適応された第1の加速度計、およびヨー軸に対する角加速度を検知するように適応された第2の加速度計を備える。加速度計は、例えば、一つ以上のばねで取り付けられた質量と一つ以上の方向に対する質量の変位を検知するセンサとを備えるMEMS装置として実装されてもよい。質量の変位に依存するセンサからの信号は、ジョイスティックコントローラ330の加速度決定に用いられてもよい。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるゲームプログラム304からのインストラクションによって実現される。   In addition to conventional features, the controller 330 may include one or more inertial sensors 332. Inertial sensor 332 can provide position information and / or direction information to processor 301 via an inertial signal. The direction information may include angle information such as tilt, roll or yaw of the controller 330. By way of illustration, the inertial sensor 332 may include any number of accelerometers, gyroscopes or tilt sensors, or any combination thereof. In a preferred embodiment, the inertial sensor 332 includes a tilt sensor adapted to sense the direction of the joystick controller relative to the tilt and roll axis, a first accelerometer adapted to sense acceleration along the yaw axis. And a second accelerometer adapted to sense angular acceleration relative to the yaw axis. The accelerometer may be implemented, for example, as a MEMS device that includes a mass attached with one or more springs and a sensor that detects displacement of the mass in one or more directions. A signal from a sensor that depends on the displacement of the mass may be used to determine the acceleration of the joystick controller 330. Such a technique is realized by instructions from the game program 304 stored in the memory 302 and executed by the processor 301.

例示として、慣性センサ332として適した加速度計は、例えば、ばねなどで、フレームに3〜4点で伸縮自在に接続された単一の質量であってもよい。ピッチ軸とロール軸は、ジョイスティックコントローラ330に設けられたフレームと交差する面に存在する。フレーム(およびジョイスティックコントローラ330)がピッチ軸、ロール軸の回りを回転するにつれて、質量が重力の影響下で変位し、ばねがピッチ角および/またはロール角に依存する態様で伸縮する。質量の変位が検知され、ピッチ量および/またはロール量に依存した信号に変換される。ヨー軸回りの角加速度またはヨー軸沿いの線形加速度は、ばねの伸縮または質量の動きの特徴的なパターンを生成し、それらのパターンは検知されて角加速度量または線形加速度量に応じた信号に変換される。そのような加速度計装置は、質量の動きおよびばねの伸縮力を追跡することによって、傾斜、ヨー軸回りのロール角加速度およびヨー軸沿いの線形加速度を計測できる。質量の位置および/またはそれに働く力を追跡する方法には多くの違った方法があり、それらの方法には、抵抗歪みゲージ、音響センサ、磁気センサ、ホール効果素子、圧電素子、容量センサなどが含まれる。   By way of example, an accelerometer suitable as inertial sensor 332 may be a single mass that is telescopically connected to the frame at 3-4 points, for example, with a spring or the like. The pitch axis and the roll axis are present on a plane that intersects the frame provided in the joystick controller 330. As the frame (and joystick controller 330) rotates about the pitch and roll axes, the mass is displaced under the influence of gravity and the springs expand and contract in a manner that depends on the pitch and / or roll angle. The displacement of the mass is detected and converted into a signal depending on the pitch amount and / or the roll amount. Angular acceleration around the yaw axis or linear acceleration along the yaw axis generates characteristic patterns of spring expansion and contraction or mass movement, which are detected and signaled according to the amount of angular acceleration or linear acceleration. Converted. Such an accelerometer device can measure tilt, roll angular acceleration about the yaw axis, and linear acceleration along the yaw axis by tracking mass movement and spring stretching force. There are many different ways to track the position of the mass and / or the forces acting on it, including resistive strain gauges, acoustic sensors, magnetic sensors, Hall effect elements, piezoelectric elements, capacitive sensors, etc. included.

また、ジョイスティックコントローラ330は、発光ダイオード(LED)などの光源334を一つ以上含んでもよい。光源334は、コントローラを他のコントローラと識別するために用いられる。例えば、一つ以上のLEDがあれば、LEDのパターンコードをぱっと光らせたり保持することで識別できる。例示として、ジョイスティックコントローラ330上に5個のLEDが直線または2次元模様で設けることができる。LEDを直線状に配列することが好ましいが、他の方法として、四角形またはアーチ状に配置して、撮像装置323で得られたLEDパターン画像の分析時に、LED配列の画面の決定を容易にするようになされてもよい。さらに、LEDパターンコードは、ゲームプレイ中のジョイスティックコントローラ330の位置決定にも使用できる。例えば、LEDは、コントローラの傾斜、ヨーおよびロールの特定を助けることができる。この検出パターンによって、例えば飛行機ゲームなどのゲームで、ユーザによりよい感情を提供できる。撮像装置323は、ジョイスティックコントローラ330と光源334を含む像を撮影してもよい。そのような画像を分析すると、ジョイスティックコントローラの位置および/または方向が決定できる。そのような分析は、メモリ302に保存されプロセッサ301で実行されるプログラムコードインストラクション304によって実現されてもよい。撮像装置323による光源334の撮像を容易にするために、光源334は、ジョイスティックコントローラ330の複数の異なる端部、例えば、前方と後方に配置してもよい(影として示す)。そのような配置することによって、撮像装置323は、ユーザのジョイスティックコントローラ330の保持の仕方に応じたジョイスティックコントローラ330の種々の方向に対して、光源334の像を得ることができる。   The joystick controller 330 may include one or more light sources 334 such as light emitting diodes (LEDs). The light source 334 is used to distinguish the controller from other controllers. For example, if there are one or more LEDs, they can be identified by flashing or holding the LED pattern code. For example, five LEDs may be provided on the joystick controller 330 in a straight line or a two-dimensional pattern. Although it is preferable to arrange the LEDs in a straight line, as another method, the LEDs are arranged in a square shape or an arch shape to facilitate determination of the LED arrangement screen when analyzing the LED pattern image obtained by the imaging device 323. It may be made like this. Furthermore, the LED pattern code can also be used to determine the position of the joystick controller 330 during game play. For example, LEDs can help identify controller tilt, yaw and roll. With this detection pattern, it is possible to provide better emotions to the user in games such as airplane games. The imaging device 323 may capture an image including the joystick controller 330 and the light source 334. When such an image is analyzed, the position and / or orientation of the joystick controller can be determined. Such analysis may be implemented by program code instructions 304 stored in memory 302 and executed by processor 301. In order to facilitate imaging of the light source 334 by the imaging device 323, the light source 334 may be disposed at a plurality of different ends of the joystick controller 330, for example, forward and backward (shown as shadows). With such an arrangement, the imaging device 323 can obtain images of the light source 334 in various directions of the joystick controller 330 depending on how the user holds the joystick controller 330.

さらに、光源334は、例えば、パルスコード、振幅変調または周波数変調フォーマットでテレメトリ信号をプロセッサ301に提供してもよい。そのようなテレメトリ信号は、いずれのジョイスティックボタンが押されているか、および/またはどれ位強くボタンが押されているかを表してもよい。テレメトリ信号は、例えばパルス符号化、パルス幅変調、周波数変調または光強度(振幅)変調などによって、光信号に符号化されてもよい。プロセッサ301は、光信号からテレメトリ信号を復号化し、復号化されたテレメトリ信号に応じてゲームコマンドを実行してもよい。テレメトリ信号は、撮像装置323で得られたジョイスティックコントローラ330の画像の分析から復号化されてもよい。または、装置301は、光源334からのテレメトリ信号受信専用の独立した光学センサを具備してもよい。コンピュータプログラムとのインタフェースにおける強度決定に併せてのLEDの使用は、例えば、2006年5月4日出願の米国特許出願番号11/429,414、名称「USE OF COMPUTER IMAGE AND AUDIO PROCESSING IN DETERMINING AN INTENSITY AMOUNT WHEN INTERFACING WITH A COMPUTER PROGRAM」(代理人事件番号SONYP052)、発明者Richard L. Marks他に開示されており、その開示内容は全体として、参照により本明細書に援用される。また、光源334を含む画像の分析は、テレメトリおよびジョイスティックコントローラ330の位置および/または方向の決定にも用いることができる。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラム304のインストラクションによって実現されてもよい。   Further, the light source 334 may provide a telemetry signal to the processor 301 in, for example, a pulse code, amplitude modulation, or frequency modulation format. Such a telemetry signal may represent which joystick button is pressed and / or how hard the button is pressed. The telemetry signal may be encoded into an optical signal by, for example, pulse encoding, pulse width modulation, frequency modulation, or light intensity (amplitude) modulation. The processor 301 may decode the telemetry signal from the optical signal and execute the game command according to the decoded telemetry signal. The telemetry signal may be decoded from the analysis of the image of the joystick controller 330 obtained by the imaging device 323. Alternatively, the device 301 may comprise an independent optical sensor dedicated to receiving telemetry signals from the light source 334. The use of LEDs in conjunction with intensity determinations in an interface with a computer program is described, for example, in US patent application Ser. "AMOUNT WHEN INTERFACING WITH A COMPUTER PROGRAM" (agent case number SONYP052), inventor Richard L. Marks et al., The disclosure of which is incorporated herein by reference in its entirety. The analysis of the image including the light source 334 can also be used to determine the position and / or orientation of the telemetry and joystick controller 330. Such a technique may be realized by instructions of a program 304 stored in the memory 302 and executed by the processor 301.

プロセッサ301は、撮像装置323で検出された光源334からの光信号、および/またはマイクロホン配列322によって検出された音響信号からの音源場所と音源特性情報と共に、慣性センサ332からの慣性信号を用いて、コントローラ330および/またはユーザの場所および/または方向に関する情報を推測してもよい。例えば、「音響レーダ」の音源場所およびその特性は、マイクロホン配列322と共に用いられて、ジョイスティックコントローラの動きが(慣性センサ332および/または光源334を通して)独立に追跡されている間、移動音源を追跡する。音響レーダにおいて、較正済み聴取領域が実行時間中に選択されてもよい。較正済み聴取領域以外の音源から発生した音はフィルタされて除かれてもよい。較正済み聴取領域は、撮像装置323の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。音響レーダの例は、米国特許出願番号11/381,724、発明者Xiadong Mao、名称「METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION」、2006年5月4日出願、に開示されており、その開示内容は参照により本明細書に援用される。   The processor 301 uses the inertial signal from the inertial sensor 332 together with the optical signal from the light source 334 detected by the imaging device 323 and / or the sound source location and sound source characteristic information from the acoustic signal detected by the microphone array 322. Information regarding the location and / or orientation of the controller 330 and / or the user may be inferred. For example, the source location of an “acoustic radar” and its characteristics can be used with a microphone array 322 to track a moving source while the movement of the joystick controller is tracked independently (through inertial sensor 332 and / or light source 334). To do. In an acoustic radar, a calibrated listening area may be selected during run time. Sounds generated from sound sources outside the calibrated listening area may be filtered out. The calibrated listening area may include a listening area corresponding to the volume at the focus or field of view of the imaging device 323. An example of an acoustic radar is disclosed in US patent application Ser. No. 11 / 381,724, inventor Xiadong Mao, name “METHODS AND APPARATUS FOR TARGETED SOUND DETECTION AND CHARACTERIZATION”, filed May 4, 2006, and disclosed therein. The contents are incorporated herein by reference.

コントロール信号をプロセッサ301に供給するための種々の形態を種々組み合わせたものも、本発明の実施形態と併せて用いられてもよい。そのような技術は、メモリ302に保存されプロセッサ301で実行されるプログラムコードインストラクション304によって実現されてもよく、また、任意に、実行時間中は較正済み聴取領域を選択し、較正済み聴取領域以外の音源から発生した音はフィルタをかけて除くための一つ以上のプロセッサを指揮する一以上の指令を含んでもよい。較正済み聴取領域は、撮像装置323の焦点または視野にある音量に対応した聴取領域を含んでいてもよい。   Various combinations of various forms for supplying control signals to the processor 301 may also be used in conjunction with embodiments of the present invention. Such techniques may be implemented by program code instructions 304 stored in memory 302 and executed by processor 301, and optionally select a calibrated listening area during execution time, other than the calibrated listening area. The sound generated from the sound source may include one or more instructions that direct one or more processors to be filtered out. The calibrated listening area may include a listening area corresponding to the volume at the focus or field of view of the imaging device 323.

プログラム304は任意に、マイクロホン配列322のマイクロホンM…Mから離散時間領域入力信号Xm(t)を生成し、聴取セクタを決定し、有限インパルス応答フィルタ係数を選択するセミブラインド(semi−blind)音源分離において聴取セクタを用いて、入力信号Xm(t)から異なる音源を分離する一つ以上のプロセッサを指揮する一以上のインストラクションを含んでもよい。プログラム304は、基準マイクロホンMからの入力信号X(t)以外の選択入力信号Xm(t)に、一つ以上の非整数遅延(fractional delay)を適用するインストラクションをさらに備えてもよい。マイクロホン配列からの離散時間領域出力信号y(t)の信号対雑音比を最適化するために、各非整数遅延が選択されてもよい。非整数遅延は、基準マイクロホンMからの信号が、配列の他のマイクロホンからの信号に対して最初であるように選択されてもよい。プログラム304は、非整数遅延Δを、y(t+Δ)=X(t+Δ)*b+X(t−1+Δ)*b+X(t−2+δ)*b+…+X(t−N+Δ)bとなるようにマイクロホン配列の出力信号y(t)に導入するインストラクションを含んでもよい。ここで、Δは0〜±1である。そのような技術の例は、2006年5月4日出願の米国特許出願番号11/381,729、名称「ULTRA SMALL MICROPHONE ARRAY」、発明者Xiadong Mao、に詳細に開示されており、その開示内容は参照により本明細書に援用される。 The program 304 optionally generates a discrete time domain input signal Xm (t) from the microphones M 0 ... M M in the microphone array 322, determines the listening sector, and selects semi-blind to select finite impulse response filter coefficients. ) One or more instructions may be included that direct one or more processors to separate different sound sources from the input signal Xm (t) using a listening sector in sound source separation. The program 304 may further include instructions for applying one or more fractional delays to a selected input signal Xm (t) other than the input signal X 0 (t) from the reference microphone M 0 . Each non-integer delay may be selected to optimize the signal to noise ratio of the discrete time domain output signal y (t) from the microphone array. Fractional delays the signal from the reference microphone M 0 may be chosen to be the first to signals from other microphones of the array. The program 304 sets the non-integer delay Δ to y (t + Δ) = X (t + Δ) * b 0 + X (t−1 + Δ) * b 1 + X (t−2 + δ) * b 2 +... + X (t−N + Δ) b N Instructions to be introduced into the output signal y (t) of the microphone array may be included. Here, Δ is 0 to ± 1. Examples of such techniques are disclosed in detail in US patent application Ser. No. 11 / 381,729, entitled “ULTRA SMALL MICROPHONE ARRAY”, inventor Xiadong Mao, filed May 4, 2006. Is incorporated herein by reference.

プログラム304は、実行されると、システム300に、音源を含んだ事前較正済み聴取領域を選択させる一つ以上のインストラクションを含んでもよい。そのようなインストラクションによって、音源が最初の領域内にあるか、またはその領域の特定の側にあるか否かを装置が判断するようになされていてもよい。音源が初期設定領域内に存在しない場合、インストラクションは、実行時に、初期設定領域の特定の側にある別の領域を選択してもよい。別の領域は、最適値に最も近い入力信号の減衰によって特徴付けられてもよい。これらのインストラクションは、実行されると、マイクロホン配列322からの入力信号の減衰と最適値への減衰を計算してもよい。インストラクションは、実行されると、装置300が、一つ以上の領域に対する入力信号の減衰値を決定し、減衰が最適値に最も近い領域を選択するようになされてもよい。そのような技術の例は、2006年5月4日出願の米国特許出願番号11/381,725、名称「METHOD AND APPARATUS FOR TARGETED SOUND DETECTION」、発明者Xiadong Maoに開示されており、その開示内容は参照により本明細書に援用される。   The program 304, when executed, may include one or more instructions that cause the system 300 to select a pre-calibrated listening area that includes a sound source. Such instructions may cause the device to determine whether the sound source is in the initial region or on a particular side of the region. If the sound source is not in the default area, the instruction may select another area on a particular side of the default area at runtime. Another region may be characterized by the attenuation of the input signal closest to the optimal value. These instructions, when executed, may calculate the attenuation of the input signal from the microphone array 322 and the attenuation to the optimum value. The instructions, when executed, may be such that the apparatus 300 determines the attenuation value of the input signal for one or more regions and selects the region where the attenuation is closest to the optimal value. Examples of such techniques are disclosed in US patent application Ser. No. 11 / 381,725, filed May 4, 2006, entitled “METHOD AND APPARATUS FOR TARGETED SOUND DETECTION”, inventor Xiadong Mao. Is incorporated herein by reference.

慣性センサ332からの信号は追跡情報入力の一部を提供し、撮像装置323による一つ以上の光源334の追跡から生成された信号は追跡情報入力の別の部分を提供する。例示として、またいかなる限定を行うことなく、そのような「混合モード」の信号は、フットボールタイプのビデオゲームで用いられ、ここでは、クォータバックが頭を左に動かすフェイントをかけた後ボールを右に投げる。具体的には、コントローラ330を保持したゲームプレイヤは、頭を左に向け、フットボールでするように、コントローラを右に振って投げる動作をしながら声を出す。「音響レーダ」プログラムコードと併せて、マイクロホン配列320はユーザの声を追跡できる。撮像装置323は、ユーザの頭の動きや、または、音やコントローラを必要としない他のコマンドを追跡できる。センサ332はジョイスティックコントローラ(フットボールを表す)の動きを追跡してもよい。撮像装置323はまた、コントローラ330の光源334を追跡してもよい。ユーザは、ジョイスティックコントローラ330の加速度がある量、および/またはある方向に達したとき、またはコントローラ330のボタンを押してトリガされるキーコマンドに基づいて、「ボール」を投げることができる。   The signal from inertial sensor 332 provides part of the tracking information input, and the signal generated from tracking one or more light sources 334 by imaging device 323 provides another part of the tracking information input. By way of example and without limitation, such a “mixed mode” signal is used in a football-type video game where the quarterback is applied to the right after the feint moving the head to the left. Throw into. Specifically, the game player holding the controller 330 makes a voice while turning his head to the right and throwing it like a football with his head turned to the left. Along with the “acoustic radar” program code, the microphone array 320 can track the user's voice. The imaging device 323 can track the movement of the user's head or other commands that do not require sound or a controller. Sensor 332 may track the movement of a joystick controller (representing football). The imaging device 323 may also track the light source 334 of the controller 330. The user can throw a “ball” when the acceleration of the joystick controller 330 reaches a certain amount and / or in a certain direction, or based on a key command triggered by pressing a button on the controller 330.

本発明のある実施形態では、加速度計またはジャイロスコープなどからの慣性信号は、コントローラ330の位置決めに用いられてもよい。具体的には、加速度計からの加速度信号は、速度変化を決定するために一旦時間積分されてもよく、速度は位置変化を決定するために時間積分されてもよい。ある時刻における初期位置と速度が既知であれば、これらの値と速度および位置変化とを用いて絶対位置を決定できる。慣性センサを用いた位置決定は、撮像装置323や光源334を用いる方法よりも早く行えるが、慣性センサ332は「ドリフト」として知られるタイプの誤差が起こりやすい。これは、時間と共に累積される誤差によって、慣性信号から計算されるジョイスティック330の位置(透視図で示す)とジョイスティックコントローラの実際の位置との間で不一致Dが生じうる現象である。本発明の実施形態では、様々な方法でそのような誤差を処理できる。   In some embodiments of the present invention, inertial signals such as from accelerometers or gyroscopes may be used to position controller 330. Specifically, the acceleration signal from the accelerometer may be temporally integrated once to determine the speed change, and the speed may be time integrated to determine the position change. If the initial position and speed at a certain time are known, the absolute position can be determined using these values, speed and position change. Although the position determination using the inertial sensor can be performed faster than the method using the imaging device 323 or the light source 334, the inertial sensor 332 is likely to cause a type of error known as “drift”. This is a phenomenon in which a discrepancy D may occur between the position of the joystick 330 (shown in a perspective view) calculated from the inertia signal and the actual position of the joystick controller due to errors accumulated over time. Embodiments of the present invention can handle such errors in various ways.

例えば、コントローラ330の初期位置を現在の計算位置と等しくなるように設定することにより、ドリフトを手動でキャンセルすることができる。ユーザは、コントローラ330の一つ以上のボタンを使って、初期位置を再設定するコマンドをトリガできる。あるいはまた、画像ベースのドリフトであれば、撮像装置323から得られた基準となる画像から決定される位置に現在位置を再設定することによりキャンセルすることができる。そのような画像ベースのドリフトに対する補償は、例えば、ユーザがジョイスティックコントローラ330の一つ以上のボタンをトリガするときに、手動で行うことができる。または、画像ベースのドリフトに対する補償は、例えば、一定の間隔で、またはゲームプレイに応じて自動的に行える。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラムコードインストラクション304によって実現される。   For example, the drift can be manually canceled by setting the initial position of the controller 330 to be equal to the current calculated position. The user can trigger a command to reset the initial position using one or more buttons on the controller 330. Alternatively, an image-based drift can be canceled by resetting the current position to a position determined from a reference image obtained from the imaging device 323. Compensation for such image-based drift can be done manually, for example, when the user triggers one or more buttons on the joystick controller 330. Alternatively, compensation for image-based drift can be performed automatically, for example, at regular intervals or in response to game play. Such a technique is implemented by program code instructions 304 stored in the memory 302 and executed by the processor 301.

ある実施形態では、慣性センサ信号の誤りデータを補正することが望ましい。例えば、慣性センサ332からの信号をオーバーサンプリングし、オーバーサンプリングされた信号から移動平均(sliding average)を計算して、慣性センサ信号から誤りデータを取り除くことができる。ある状況では、信号をオーバーサンプリングし、高い値および/または低い値をデータポイントの一部のサブセットから除き、残りのデータポイントから移動平均を計算することが望ましい。また、慣性センサからの信号を調節して誤りデータから優位性を除去または軽減する他のデータサンプリング技術やデータ処理技術も使用できる。いずれの技術を選択するかは、信号の性質、信号に対しての計算、ゲームプレイの性質、またはこれらの複数の組み合わせに依存する。そのような技術は、メモリ302に保存されプロセッサ301によって実行されるプログラム304のインストラクションによって実現される。   In some embodiments, it may be desirable to correct error data in the inertial sensor signal. For example, the signal from the inertial sensor 332 can be oversampled, and a moving average can be calculated from the oversampled signal to remove error data from the inertial sensor signal. In certain situations, it may be desirable to oversample the signal, remove high and / or low values from some subset of data points, and calculate a moving average from the remaining data points. Also, other data sampling techniques and data processing techniques that adjust the signal from the inertial sensor to remove or reduce the superiority from the error data can be used. Which technique is selected depends on the nature of the signal, the computation on the signal, the nature of the game play, or a combination of these. Such a technique is realized by instructions of a program 304 stored in the memory 302 and executed by the processor 301.

プロセッサ301は、上述のように、データ306と、メモリ302に保存、検索されプロセッサモジュール301によって実行されるプログラム304のプログラムコードインストラクションとに応じて、慣性信号データ306の分析を実行する。加えて、プロセッサは、プログラム304の一部として、上述の仮想世界シミュレーション機能を実装してもよい。特に、プログラム304は、種々の上述の仮想世界と通信するための方法かつ/または上述の3次元仮想世界とやりとりするための方法かつ/または上述のアバター電子メール通信の全てまたは一部を実装してもよい。プログラム304のコード部分は、アセンブリ、C++、JAVA(登録商標)またはその他の多くの言語などの多くの異なるプログラム言語のいずれにも準拠してよい。プロセッサモジュール301は、プログラムコード304などのプログラムを実行するときに専用コンピュータとなる汎用コンピュータを形成する。ここでは、プログラムコード304はソフトウェアに組み込まれ、汎用コンピュータで実行されるように説明したが、当業者には、タスク管理方法は、別の方法として、特定用途向け集積回路(ASIC)やその他のハードウェア回路などのハードウェアを用いて実現されることは理解されるであろう。このように、本発明の実施形態は、全体であれ一部分であれ、ソフトウェア、ハードウェアおよびその両方の組み合わせで実現されることは理解されるべきである。   As described above, the processor 301 performs the analysis of the inertia signal data 306 according to the data 306 and the program code instructions of the program 304 stored and retrieved in the memory 302 and executed by the processor module 301. In addition, the processor may implement the virtual world simulation function described above as part of the program 304. In particular, the program 304 implements all or part of the various methods for communicating with the virtual world described above and / or the methods for interacting with the three-dimensional virtual world described above and / or the avatar email communication described above. May be. The code portion of program 304 may be compliant with any of a number of different programming languages such as assembly, C ++, JAVA, or many other languages. The processor module 301 forms a general-purpose computer that becomes a dedicated computer when executing a program such as the program code 304. Here, the program code 304 has been described as being embedded in software and executed by a general-purpose computer. However, for those skilled in the art, a task management method is another method, such as an application specific integrated circuit (ASIC) or other. It will be understood that it is implemented using hardware such as a hardware circuit. Thus, it should be understood that embodiments of the present invention, whether in whole or in part, are implemented in software, hardware, and a combination of both.

ある実施形態では、とりわけ、プログラムコード304は、ひとつ以上のプロセッサに慣性センサ332からの信号を解析させて位置かつ/または方向情報を生成させ、その情報をビデオゲームのプレイ中や仮想世界との通信中、3次元仮想世界とやりとりの間に使用せしめる、プロセッサ読み取り可能なインストラクションセットを備えてもよい。プログラムコード304は、実行されると、撮像装置323に、前方の視野を監視し、視野内の一つ以上の光源334を特定し、光源334からの光の変化を検出させ、変化の検出に応じてプロセッサ301に対する入力コマンドをトリガさせる、一つ以上のインストラクションを含んだプロセッサ実行可能インストラクションを任意に備えてもよい。ゲームコントローラのアクションをトリガするために撮像装置と共にLEDを使用することは、2004年1月16日出願の米国特許出願番号10/759,782の「METHOD AND APPARATUS FOR LIGHT INPUT DEVICE」、発明者Richard L. Marksに開示されており、その開示内容は参照により本明細書に援用される。   In some embodiments, among other things, the program code 304 causes one or more processors to analyze signals from the inertial sensor 332 to generate position and / or direction information that can be used during video game play or with a virtual world. A processor-readable instruction set may be provided for use during communication with the 3D virtual world during communication. When executed, the program code 304 causes the imaging device 323 to monitor the front visual field, identify one or more light sources 334 within the visual field, detect changes in light from the light sources 334, and detect changes. A processor-executable instruction including one or more instructions that trigger an input command to the processor 301 may be optionally provided. Using an LED with an imaging device to trigger the action of a game controller is described in US Patent Application No. 10 / 759,782, filed January 16, 2004, “METHOD AND APPARATUS FOR LIGHT INPUT DEVICE”, inventor Richard. L. Marks, the disclosure of which is hereby incorporated by reference.

プログラムコード304は、実行されると上述のように、ゲームシステムへの入力として、慣性センサからの信号と一つ以上の光源を追跡する撮像装置からの信号とを用いる一つ以上のインストラクションを含むプロセッサ実行可能なインストラクションを、任意に含んでもよい。プログラムコード304は、実行されると、慣性センサ332のドリフトを補償する一つ以上のインストラクションを含むプロセッサ実行可能なインストラクションを、任意に備えてもよい。   When executed, program code 304 includes one or more instructions that, as described above, use signals from inertial sensors and signals from an imaging device that tracks one or more light sources as inputs to the game system. Processor-executable instructions may optionally be included. Program code 304 may optionally comprise processor-executable instructions that, when executed, include one or more instructions that compensate for drift of inertial sensor 332.

本発明の実施形態をビデオゲームコントローラ330に関連する例として記述したが、システム300を含む本発明の実施形態は、慣性センシング能力を有し、かつ無線であれそれ以外の方法であれ慣性センサ信号送信能力を有するユーザにより操作される本体、成型品、ノブ、または構造物などのいずれにも使用することができる。   Although embodiments of the present invention have been described as examples relating to video game controller 330, embodiments of the present invention including system 300 have inertial sensing capabilities and may be inertial sensor signals, whether wireless or otherwise. It can be used for any of a main body, a molded product, a knob, or a structure operated by a user having transmission capability.

例示として、本発明の実施形態は、並列処理システムに実装することができる。このような並列処理システムは、通常、別々のプロセッサを用いて並列にプログラムの一部を実行するように構成される複数のプロセッサを備える。例示として、また限定を行うことなく、図4は本発明の実施形態によるあるタイプのセルプロセッサ400を示す。セルプロセッサ400は、図3のプロセッサ301として、または図1Eのシミュレーションサーバ22やビューサーバ24のなかに使用することができる。図4の例では、セルプロセッサ400は、メインメモリ402、パワープロセッサ要素(power processor element:PPE)404、および多数のシナジスティックプロセッサ要素(synergistic processor element:SPE)406を備える。図4の例では、セルプロセッサ400は、1個のPPE404と8個のSPE406とを備える。このような構成では、7個のSPE406が並列処理に用いられ、1個は他の7個の一つが故障したときのバックアップとして確保されている。あるいはまた、セルプロセッサは、複数のPPEからなる複数のグループ(PPEグループ)と、複数のSPEからなる複数のグループ(SPEグループ)とを備えてもよい。そのような場合、1グループ内の各ユニットでハードウェアリソースが共有される。しかしながら、SPEとPPEは、ソフトウェアにとって独立要素であるように見える必要がある。このように、本発明の実施形態は、図4に示される構成での使用に限定されるものではない。   By way of illustration, embodiments of the invention can be implemented in a parallel processing system. Such parallel processing systems typically include multiple processors configured to execute portions of a program in parallel using separate processors. By way of example and without limitation, FIG. 4 illustrates one type of cell processor 400 according to an embodiment of the present invention. The cell processor 400 can be used as the processor 301 in FIG. 3 or in the simulation server 22 or the view server 24 in FIG. 1E. In the example of FIG. 4, the cell processor 400 includes a main memory 402, a power processor element (PPE) 404, and a number of synergistic processor elements (SPE) 406. In the example of FIG. 4, the cell processor 400 includes one PPE 404 and eight SPEs 406. In such a configuration, seven SPEs 406 are used for parallel processing, and one is reserved as a backup when one of the other seven fails. Alternatively, the cell processor may include a plurality of groups (PPE groups) composed of a plurality of PPEs and a plurality of groups (SPE groups) composed of a plurality of SPEs. In such a case, hardware resources are shared by each unit in one group. However, SPE and PPE need to appear to be independent elements to the software. Thus, the embodiment of the present invention is not limited to use in the configuration shown in FIG.

メインメモリ402は、通常、汎用の不揮発性記憶装置に加えて、システム構成、データ同期転送、メモリーマップドI/O、およびI/Oサブシステムなどの機能に用いられる専用のハードウェアレジスタまたはアレイも備える。本発明の実施形態では、ビデオゲームプログラム403がメインメモリ402内に常駐してもよい。ビデオプログラム403は、図4、図5A、図5Bおよび図5Cについて上述したような、またはこれらの組み合わせで構成される慣性、画像および音響分析部を含んでもよい。プログラム403はPPE上で走ってもよい。プログラム403は、SPEおよび/またはPPEで実行される複数の信号処理タスクに分割されてもよい。   Main memory 402 is typically a dedicated hardware register or array used for functions such as system configuration, data synchronous transfer, memory mapped I / O, and I / O subsystems in addition to general purpose non-volatile storage. Also equipped. In an embodiment of the present invention, video game program 403 may reside in main memory 402. The video program 403 may include an inertial, image and acoustic analyzer as described above for FIGS. 4, 5A, 5B and 5C, or a combination thereof. Program 403 may run on the PPE. The program 403 may be divided into a plurality of signal processing tasks executed at the SPE and / or PPE.

例示として、PPE404は、関連するキャッシュL1およびL2を持った64ビットのパワーPCプロセッサユニット(PPU)であってもよい。PPE404は、システム管理リソース(例えば、メモリ保護テーブルなど)にアクセス可能な汎用処理装置である。ハードウェアリソースは、PPEに見られるように実アドレス空間に明示的にマップされてもよい。したがって、PPEは適当な実効アドレス値を用いて、直接これらのリソースのいずれにでもアドレス指定できる。PPE404の主な機能は、セルプロセッサ400のSPE406に対するタスク管理とタスク割り当てである。   By way of example, PPE 404 may be a 64-bit power PC processor unit (PPU) with associated caches L1 and L2. The PPE 404 is a general-purpose processing device that can access system management resources (for example, a memory protection table). Hardware resources may be explicitly mapped to the real address space as seen by the PPE. Therefore, the PPE can address any of these resources directly using the appropriate effective address value. The main functions of the PPE 404 are task management and task assignment for the SPE 406 of the cell processor 400.

図4では1個のPPEだけが示されているが、セルブロードバンドエンジンアーキテクチャ(CBEA)などのセルプロセッサ実装では、セルプロセッサ400は、複数のPPEが存在するPPEグループに系統だてられた複数のPPEを有してもよい。これらのPPEグループはメインメモリ402へのアクセスを共有してもよい。さらに、セルプロセッサ400は二つ以上のSPEを備えてもよい。SPEグループもメインメモリ402へのアクセスを共有してもよい。このような構成も本発明の範囲内である。   Although only one PPE is shown in FIG. 4, in a cell processor implementation such as the Cell Broadband Engine Architecture (CBEA), the cell processor 400 is divided into a plurality of PPE groups organized into a plurality of PPE groups. You may have PPE. These PPE groups may share access to the main memory 402. Further, the cell processor 400 may include two or more SPEs. SPE groups may also share access to main memory 402. Such a configuration is also within the scope of the present invention.

SPE406のそれぞれは、SPUと独自のローカル記憶領域LSとを含む。ローカル記憶領域LSは、メモリ記憶内の一つ以上の分離領域を備えており、それぞれの領域は専用のSPUと関連付けられている。各SPUは、独自の関連付けられた記憶領域内からのインストラクション(データロードとデータ保存操作とを含む)だけを実行するように構成されてもよい。そのような構成では、ローカル記憶領域LSとシステム400のそれ以外の間とのデータ転送は、メモリフローコントローラ(MFC)からダイレクトメモリアクセス(DMA)コマンドを出すことによって行われ、(個々のSPEの)ローカル記憶領域との間でデータ転送される。なんらシステム管理機能を果たさないSPUは、PPE404よりは簡単な構造のコンピュータ装置である。SPUは、一般にSIMD(single instruction, multiple data)機能を有し、通常はデータ処理を行い、割り当てられたタスクを行うために(PPEにより設定されたアクセス特性にしたがって)要求されたデータ転送を開始する。SPUの目的は、より高いコンピュータ装置密度を要求するアプリケーションを可能として、提供された命令セットを有効に利用できるようにすることである。PPE404で管理されるシステムにおけるかなり多くのSPEは、広範囲のアプリケーションにおいて費用効果の高い処理を可能にする。   Each SPE 406 includes an SPU and a unique local storage area LS. The local storage area LS includes one or more separation areas in the memory storage, and each area is associated with a dedicated SPU. Each SPU may be configured to only execute instructions (including data loading and data saving operations) from within its own associated storage area. In such a configuration, data transfer between the local storage area LS and the rest of the system 400 is performed by issuing a direct memory access (DMA) command from the memory flow controller (MFC) (for each individual SPE). ) Data is transferred to and from the local storage area. An SPU that does not perform any system management function is a computer device having a simpler structure than the PPE 404. SPUs generally have SIMD (single instruction, multiple data) functions, usually perform data processing and initiate requested data transfer to perform assigned tasks (according to access characteristics set by the PPE) To do. The purpose of the SPU is to enable applications that require higher computer device densities so that the provided instruction set can be used effectively. A significant number of SPEs in systems managed by PPE 404 allow for cost-effective processing in a wide range of applications.

各SPE406は、メモリ保護情報とアクセス許可情報を保持し処理できる関連メモリ管理ユニットを備えた専用のメモリフローコントローラ(MFC)を備えている。MFCは、セルプロセッサのメイン記憶とSPEのローカル記憶間でのデータ転送、保護および同期化のための主要な方法を提供する。MFCコマンドは実行される転送を記述する。データ転送コマンドは、MFCダイレクトメモリアクセス(DMA)コマンド(またはMFCDMA命令)と呼ばれることがある。   Each SPE 406 includes a dedicated memory flow controller (MFC) with an associated memory management unit that can hold and process memory protection information and access permission information. The MFC provides the main method for data transfer, protection and synchronization between the main storage of the cell processor and the local storage of the SPE. The MFC command describes the transfer to be performed. The data transfer command may be referred to as an MFC direct memory access (DMA) command (or MFCDMA instruction).

各MFCは、同時に複数のDMA転送をサポートし、複数のMFCコマンドを維持、処理してもよい。各MFCDMAデータ転送コマンド要求は、ローカルストレージアドレス(LSA)と有効アドレス(EA)の両方を伴ってもよい。ローカルストレージアドレスは、関連するSPEのローカルストレージアドレスだけに直接アドレス指定できる。実効アドレスは、例えば、実アドレス空間に名前を変えられれば、すべてのSPEローカルストレージ領域を含むメイン記憶を参照できるなどの、もっと一般的なアプリケーションを備えてもよい。   Each MFC may support multiple DMA transfers simultaneously and maintain and process multiple MFC commands. Each MFCDMA data transfer command request may be accompanied by both a local storage address (LSA) and an effective address (EA). A local storage address can be addressed directly only to the local storage address of the associated SPE. The effective address may comprise a more general application, for example, if it can be renamed to the real address space, it can refer to the main memory including all SPE local storage areas.

SPE406同士の間、および/またはSPE406とPPE404との間の通信を容易にするために、SPE406とPPE404は、シグナリングイベントに関する信号通知レジスタを備えてもよい。PPE404とSPE406は、PPE404がSPE406にメッセージを送信するルータのように働くスター構成(topology)によって接続されてもよい。代替的に、各SPE406とPPE404は、メールボックスと呼ばれる一方向信号通知レジスタを有してもよい。メールボックスは、SPE406によって使用されOSの同期操作を主催する。   To facilitate communication between SPEs 406 and / or between SPE 406 and PPE 404, SPE 406 and PPE 404 may include a signal notification register for signaling events. PPE 404 and SPE 406 may be connected by a star topology that acts like a router where PPE 404 sends messages to SPE 406. Alternatively, each SPE 406 and PPE 404 may have a one-way signal notification register called a mailbox. The mailbox is used by the SPE 406 to host OS synchronization operations.

セルプロセッサ400は、マイクロホン配列412、任意の撮像装置413およびゲーム/仮想世界コントローラ730などの周辺装置とインタフェースできる入出力(I/O)機能を備えてもよい。コントローラユニット730は慣性センサ732と光源734を備えてもよい。さらに、要素相互接続バス410は、上記に挙げた種々の部品を接続できる。各SPEおよびPPEは、バスインタフェースユニット(BIU)を介してバス410にアクセスできる。セルプロセッサ400は、通常プロセッサに見られる二つのコントローラと、バス410とメインメモリ402の間のデータ流れを制御するメモリインタフェースコントローラ(MIC)と、I/O408とバス410の間のデータ流れを制御するバスインタフェースコントローラ(BIC)とを備えてもよい。MIC、BIC,BIUおよびバス410に対する要件は、実装が異なると大きく変わるが、当業者はそれらの機能および実装回路については精通しているだろう。   Cell processor 400 may include input / output (I / O) functions that can interface with peripheral devices such as microphone array 412, optional imaging device 413, and game / virtual world controller 730. The controller unit 730 may include an inertial sensor 732 and a light source 734. Furthermore, the element interconnection bus 410 can connect the various parts listed above. Each SPE and PPE can access the bus 410 via a bus interface unit (BIU). The cell processor 400 controls the data flow between the I / O 408 and the bus 410, the two controllers normally found in the processor, the memory interface controller (MIC) that controls the data flow between the bus 410 and the main memory 402. A bus interface controller (BIC). Although the requirements for MIC, BIC, BIU and bus 410 vary greatly from implementation to implementation, those skilled in the art will be familiar with their functionality and implementation circuitry.

セルプロセッサ400は、内部割り込みコントローラ(IIC)を備えてもよい。IIC装置は、PPEに提示される割り込みの優先権を管理する。IICによって、セルプロセッサ400の他の要素からの割り込みを、メインシステムの割り込みコントローラを用いずに処理できる。IICは第2レベルのコントローラと考えることもできる。メインシステムの割り込みコントローラは、セルプロセッサの外部で発生した割り込みを処理してもよい。   The cell processor 400 may include an internal interrupt controller (IIC). The IIC device manages the priority of interrupts presented to the PPE. The IIC can handle interrupts from other elements of the cell processor 400 without using the main system interrupt controller. The IIC can also be thought of as a second level controller. The interrupt controller of the main system may process an interrupt generated outside the cell processor.

本発明の実施形態では、仮想世界とのやりとりを容易とするための計算は、PPE404および/または一つ以上のSPE406を用いて並列に実行されてもよい。各計算は、異なるSPE406がそれらが使用可能となるにつれて請け負う一つ以上の別々のタスクとして実行されてもよい。   In embodiments of the present invention, calculations to facilitate interaction with the virtual world may be performed in parallel using the PPE 404 and / or one or more SPEs 406. Each calculation may be performed as one or more separate tasks undertaken by different SPEs 406 as they become available.

上記は、本発明の好適な実施形態に関する完全な記述であるが、種々の変形、変更および等価物を用いることが可能である。したがって、本発明の技術範囲は、上記の内容を参照して決定されるべきではなく、その代わりに、添付の特許請求の範囲およびそれらの等価物の全範囲と併せて決定されるべきである。本明細書で説明した好適なまたはそれ以外のすべての特徴は、本明細書に記載された他の好適なまたはそれ以外のいかなる特徴とも組み合わせることができる。特許請求の範囲においては、不定冠詞“A”または“An”は、特にそうでないと明確に述べられた場合を除いて、冠詞に続く品目の一つ以上の数量を指す。添付の特許請求の範囲は、”means for”の句を使って明確にそのような限定が行われない限り、ミーンズプラスファンクションの限定が含まれると解釈されるべきではない。   While the above is a complete description of the preferred embodiment of the present invention, it is possible to use various modifications, changes and equivalents. Accordingly, the scope of the invention should not be determined with reference to the above content, but instead should be determined in conjunction with the appended claims and their full scope of equivalents. . All suitable or otherwise described features herein may be combined with any other suitable or otherwise described features herein. In the claims, the indefinite article "A" or "An" refers to one or more quantities of items that follow the article, unless expressly stated otherwise. The appended claims should not be construed to include means plus function limitations, unless such limitations are expressly made using the phrase “means for”.

Claims (169)

仮想世界とコミュニケーションを取るための方法であって、前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、前記方法は、
前記仮想世界のなかで通信装置をシミュレートすることと、
前記シミュレートされた通信装置と現実の通信装置との間で通信を行うこと、を含む方法。
A method for communicating with a virtual world, the virtual world including a simulated public space and one or more simulated private spaces that facilitate communication between multiple users, Each of the spaces is associated with an individual user of the plurality of users, the method comprising:
Simulating a communication device in the virtual world;
Communicating between the simulated communication device and a real communication device.
前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項1に記載の方法。   The method of claim 1, wherein the real communication device communicates with another real communication device through one or more communication channels independent of the virtual world. 前記通信装置をシミュレートすることは、
前記シミュレートされた通信装置のインタフェースを前記仮想世界のなかでシミュレートすることと、
そこでやりとりを行わせるために、前記シミュレートされたインタフェースをユーザに提示することと、を含む、請求項1に記載の方法。
Simulating the communication device
Simulating the interface of the simulated communication device in the virtual world;
The method of claim 1, comprising presenting the simulated interface to a user for interaction therewith.
前記公共空間は、ロビーに似せて設けられる、請求項1に記載の方法。   The method of claim 1, wherein the public space is provided to resemble a lobby. 前記ひとつ以上の私的空間は、部屋に似せて設けられたひとつ以上の私的空間を含む、請求項1に記載の方法。   The method of claim 1, wherein the one or more private spaces include one or more private spaces provided to resemble a room. 前記シミュレートされた通信装置は、シミュレートされたハンドヘルド通信装置である、請求項1に記載の方法。   The method of claim 1, wherein the simulated communication device is a simulated handheld communication device. 前記シミュレートされたハンドヘルド通信装置は、シミュレートされた電話機、シミュレートされた移動電話機、シミュレートされたテキストメッセージ装置、シミュレートされた電子メール装置、もしくはシミュレートされたツーウェイラジオである、請求項6に記載の方法。   The simulated handheld communication device is a simulated phone, a simulated mobile phone, a simulated text message device, a simulated email device, or a simulated two-way radio. Item 7. The method according to Item 6. 前記現実の通信装置は、現実のハンドヘルド通信装置である、請求項1に記載の方法。   The method of claim 1, wherein the real communication device is a real handheld communication device. 前記現実のハンドヘルド通信装置は、現実の電話機、現実の移動電話機、現実のテキストメッセージ装置、現実の電子メール装置、もしくは現実のツーウェイラジオである、請求項8に記載の方法。   9. The method of claim 8, wherein the real handheld communication device is a real phone, a real mobile phone, a real text message device, a real email device, or a real two-way radio. 前記シミュレートされた通信装置と前記現実の通信装置との間で通信を行うことは、現実の電話機とシミュレートされた電話機との間で電話をかけ合うことを含む、請求項1に記載の方法。   The method of claim 1, wherein communicating between the simulated communication device and the real communication device includes placing a call between the real phone and the simulated phone. . 前記シミュレートされた通信装置と前記現実の通信装置との間で通信を行うことは、前記シミュレートされた通信装置と前記現実の通信装置との間でひとつ以上のテキストメッセージを送り合うことを含む、請求項1に記載の方法。   Communicating between the simulated communication device and the real communication device means sending one or more text messages between the simulated communication device and the real communication device. The method of claim 1 comprising. 前記仮想世界の個々のユーザにアバターを関連付けることと、
その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現すること、とをさらに含む請求項1に記載の方法。
Associating an avatar with an individual user of the virtual world;
The method of claim 1, further comprising: expressing each individual user's interaction with the virtual world by one or more corresponding avatar actions.
前記シミュレートされた通信装置と前記現実の通信装置との間で通信を行うことは、仮想通信装置コンテンツに前記現実の通信装置を用いてアクセスすることを含む、請求項1に記載の方法。   The method of claim 1, wherein communicating between the simulated communication device and the real communication device includes accessing virtual communication device content using the real communication device. 前記仮想世界は、3次元の仮想世界である、請求項1に記載の方法。   The method of claim 1, wherein the virtual world is a three-dimensional virtual world. 前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、前記現実の通信装置を前記シミュレートされた通信装置とユーザとの間のインタフェースとして使用することを含む、請求項1に記載の方法。   Communicating between the simulated communication device and a real communication device includes using the real communication device as an interface between the simulated communication device and a user. Item 2. The method according to Item 1. 前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、
通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っている場合に、前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置を介して前記受け側に連絡することと、を含む、請求項1に記載の方法。
Communicating between the simulated communication device and a real communication device is
Determining whether the recipient of the communication is a user of the virtual world;
Determining whether the recipient is interacting with the virtual world during communication;
When the receiver is communicating with the virtual world during communication, the receiver via a simulated communication device on a real device used by the receiver to interact with the virtual world The method of claim 1, comprising: contacting.
前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、
通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、現実の通信装置もしくは前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置に前記受け側へのメッセージを残すことと、を含む、請求項1に記載の方法。
Communicating between the simulated communication device and a real communication device is
Determining whether the recipient of the communication is a user of the virtual world;
Determining whether the recipient is interacting with the virtual world during communication;
When the receiver does not communicate with the virtual world during communication, a real communication device or a communication device simulated on the real device used by the receiver to interact with the virtual world. Leaving a message to the recipient.
前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、
通信の受け側が前記仮想世界のユーザであるかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定することと、
前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、前記受け側に現実の通信装置を介して連絡することと、を含み、
前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項1に記載の方法。
Communicating between the simulated communication device and a real communication device is
Determining whether the recipient of the communication is a user of the virtual world;
Determining whether the recipient is interacting with the virtual world during communication;
Contacting the receiver via an actual communication device when the receiver is not communicating with the virtual world at the time of communication,
The method of claim 1, wherein the real communication device communicates with other real communication devices through one or more communication channels independent of the virtual world.
仮想世界とコミュニケーションを取るための方法であって、前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、前記方法は、
前記仮想世界の個々のユーザにアバターを関連付けることと、
その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現することと、
前記仮想世界と現実の通信装置との間で通信を行うことと、を含み、
前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、方法。
A method for communicating with a virtual world, the virtual world including a simulated public space and one or more simulated private spaces that facilitate communication between multiple users, Each of the spaces is associated with an individual user of the plurality of users, the method comprising:
Associating an avatar with an individual user of the virtual world;
Expressing each user's interaction with the virtual world by one or more corresponding avatar actions;
Communicating between the virtual world and a real communication device,
A method in which the real communication device communicates with another real communication device through one or more communication channels independent of the virtual world.
前記現実世界と前記仮想世界との間で通信を行うことは、前記現実の装置を介して前記アバター、前記公共空間もしくは前記私的空間に関連したひとつ以上の特性を変化させることを含む、請求項19に記載の方法。   Communicating between the real world and the virtual world includes changing one or more characteristics associated with the avatar, the public space, or the private space via the real device. Item 20. The method according to Item 19. 前記仮想世界と現実の通信装置との間で通信を行うことは、前記現実の通信装置と前記仮想世界のなかでシミュレートされた通信装置との間で通信を行うことを含む、請求項19に記載の方法。   The communication between the virtual world and a real communication device includes performing communication between the real communication device and a communication device simulated in the virtual world. The method described in 1. 前記シミュレートされた通信装置と前記現実の通信装置との間で通信を行うことは、前記シミュレートされた通信装置と前記現実の通信装置との間でひとつ以上のテキストメッセージを送り合うことを含む、請求項21に記載の方法。   Communicating between the simulated communication device and the real communication device means sending one or more text messages between the simulated communication device and the real communication device. The method of claim 21 comprising. 前記仮想世界と前記現実の通信装置との間で通信を行うことは、前記シミュレートされた通信装置と前記現実の通信装置との間に音声通信を確立することを含む、請求項21に記載の方法。   The communication between the virtual world and the real communication device includes establishing voice communication between the simulated communication device and the real communication device. the method of. 前記シミュレートされた通信装置と前記現実の通信装置との間に音声通信を確立することは、シミュレートされた電話機と現実の電話機との間で電話をかけ合うことを含む、請求項23に記載の方法。   24. Establishing voice communication between the simulated communication device and the real communication device includes placing a call between the simulated phone and the real phone. the method of. 前記現実の電話機は、前記シミュレートされた通信装置から電話を受けた際には特有の呼び出し音を生成し、
前記特有の呼び出し音は、他から電話を受けた際に前記現実の電話機が生成する通常の呼び出し音とは異なる、請求項24に記載の方法。
The real phone generates a unique ring when receiving a call from the simulated communication device,
25. The method of claim 24, wherein the distinctive ringing tone is different from a normal ringing tone generated by the real telephone when receiving a call from another.
前記シミュレートされた通信装置は、シミュレートされたビデオレコーダである、請求項21に記載の方法。   The method of claim 21, wherein the simulated communication device is a simulated video recorder. 前記現実の通信装置と前記シミュレートされた通信装置との間で通信を行うことは、前記現実の通信装置を前記シミュレートされたビデオレコーダとユーザとの間のインタフェースとして使用することを含む、請求項26に記載の方法。   Communicating between the real communication device and the simulated communication device includes using the real communication device as an interface between the simulated video recorder and a user, 27. The method of claim 26. 前記現実の通信装置をインタフェースとして使用することは、前記シミュレートされたビデオレコーダを現実のもしくはシミュレートされたビデオイベントを前記現実の通信装置を使用して記録するよう設定することを含む、請求項26に記載の方法。   Using the real communication device as an interface includes configuring the simulated video recorder to record real or simulated video events using the real communication device. Item 27. The method according to Item 26. 前記現実の通信装置は、電話機、携帯電話機、携帯型ゲーム機、携帯情報端末、もしくは携帯型電子メール装置である、請求項28に記載の方法。   The method according to claim 28, wherein the actual communication device is a telephone, a mobile phone, a portable game machine, a portable information terminal, or a portable electronic mail device. 前記現実の通信装置と前記仮想通信装置との間で通信を行うことは、ビデオ通信を含む、請求項21に記載の方法。   The method of claim 21, wherein communicating between the real communication device and the virtual communication device includes video communication. ビデオ通信は、そのビデオ通信の間、前記現実の通信装置に前記アバターの画像を表示することを含む、請求項30に記載の方法。   32. The method of claim 30, wherein video communication includes displaying the avatar image on the real communication device during the video communication. 前記アバターを、そのアバターに関連付けられたユーザによって生成された現実のもしくは合成された音声にリップシンクさせることをさらに含む請求項31に記載の方法。   32. The method of claim 31, further comprising lip-syncing the avatar to real or synthesized speech generated by a user associated with the avatar. 前記ユーザが示す感情を前記アバターが表す感情にマッピングすることをさらに含む請求項32に記載の方法。   The method of claim 32, further comprising mapping emotions represented by the user to emotions represented by the avatar. 前記ユーザが示す感情をマッピングすることは、前記ユーザのひとつ以上の画像を取得し、前記ユーザのひとつ以上の顔色を解析することを含む、請求項33に記載の方法。   34. The method of claim 33, wherein mapping emotions represented by the user comprises obtaining one or more images of the user and analyzing one or more facial colors of the user. 前記ビデオ通信中に前記ユーザのひとつ以上の画像を取得し前記ユーザのひとつ以上の顔色を解析することは、3次元カメラを使用することを含む、請求項34に記載の方法。   35. The method of claim 34, wherein acquiring one or more images of the user and analyzing one or more facial colors of the user during the video communication includes using a three-dimensional camera. 前記ユーザが示す感情をマッピングすることは、前記ユーザの声の抑揚を解析することを含む、請求項33に記載の方法。   35. The method of claim 33, wherein mapping emotions represented by the user comprises analyzing voice inflections of the user. 前記ユーザが示す感情をマッピングすることは、前記ビデオ通信のユーザ部分の間、前記ユーザの感情の状態を示す生物測定学的データを解析することを含む請求項33に記載の方法。   34. The method of claim 33, wherein mapping emotions represented by the user comprises analyzing biometric data indicative of the state of emotions of the user during a user portion of the video communication. 前記生物測定学的データは、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータを含む、請求項37に記載の方法。   38. The method of claim 37, wherein the biometric data comprises electrocardiograph (EKG) data, electroencephalogram (EEG) data, skin electrical reflex data, or thermographic data. 前記ユーザが示す感情をマッピングすることは、前記ビデオ通信のユーザ部分の間、リアルタイムで前記ユーザの感情の状態を追跡することを含む、請求項33に記載の方法。   35. The method of claim 33, wherein mapping emotions represented by the user comprises tracking the emotional state of the user in real time during a user portion of the video communication. 仮想世界とコミュニケーションを取るためのシステムであって、当該システムは仮想世界を生成するひとつ以上のプロセッサを備え、
前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、
前記ひとつ以上のプロセッサはさらに、
前記仮想世界のなかで通信装置をシミュレートし、
前記シミュレートされた通信装置と現実の通信装置との間で通信を行う、システム。
A system for communicating with a virtual world, the system comprising one or more processors that generate the virtual world,
The virtual world includes a simulated public space and one or more simulated private spaces that facilitate interaction between multiple users, each of the private spaces being an individual of the multiple users. Associated with the user,
The one or more processors further includes
Simulate a communication device in the virtual world,
A system for communicating between the simulated communication device and a real communication device.
前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項40に記載のシステム。   41. The system of claim 40, wherein the real communication device communicates with another real communication device through one or more communication channels independent of the virtual world. 前記公共空間は、ロビーに似せて設けられる、請求項40に記載のシステム。   41. The system of claim 40, wherein the public space is provided to resemble a lobby. 前記ひとつ以上の私的空間は、部屋に似せて設けられたひとつ以上の私的空間を含む、請求項40に記載のシステム。   41. The system of claim 40, wherein the one or more private spaces include one or more private spaces provided to resemble a room. 前記シミュレートされた通信装置は、シミュレートされたハンドヘルド通信装置である、請求項40に記載のシステム。   41. The system of claim 40, wherein the simulated communication device is a simulated handheld communication device. 前記シミュレートされたハンドヘルド通信装置は、シミュレートされた電話機、シミュレートされた移動電話機、シミュレートされたテキストメッセージ装置、シミュレートされた電子メール装置、もしくはシミュレートされたツーウェイラジオである、請求項44に記載のシステム。   The simulated handheld communication device is a simulated phone, a simulated mobile phone, a simulated text message device, a simulated email device, or a simulated two-way radio. Item 45. The system according to Item 44. 前記現実の通信装置は、現実のハンドヘルド通信装置である、請求項40に記載のシステム。   41. The system of claim 40, wherein the real communication device is a real handheld communication device. 前記現実のハンドヘルド通信装置は、現実の電話機、現実の移動電話機、現実のテキストメッセージ装置、現実の電子メール装置、もしくは現実のツーウェイラジオである、請求項46に記載のシステム。   47. The system of claim 46, wherein the real handheld communication device is a real phone, a real mobile phone, a real text message device, a real email device, or a real two-way radio. 前記シミュレートされた通信装置は、現実の電話機と通信するシミュレートされた電話機である、請求項40に記載のシステム。   41. The system of claim 40, wherein the simulated communication device is a simulated telephone that communicates with a real telephone. 前記シミュレートされた通信装置は、ひとつ以上のテキストメッセージによって現実のテキストメッセージ装置と通信するシミュレートされたテキストメッセージ装置である、請求項40に記載のシステム。   41. The system of claim 40, wherein the simulated communication device is a simulated text message device that communicates with a real text message device via one or more text messages. 前記シミュレートされた通信装置は、
通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っている場合に、前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置を介して前記受け側に連絡する、請求項40に記載のシステム。
The simulated communication device is:
Determine whether the recipient of the communication is a user of the virtual world,
Determine whether the recipient is communicating with the virtual world during communication;
When the receiver is communicating with the virtual world during communication, the receiver via a simulated communication device on a real device used by the receiver to interact with the virtual world 41. The system of claim 40, wherein the system contacts.
前記シミュレートされた通信装置は、
通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、現実の通信装置もしくは前記受け側が前記仮想世界とやりとりを行うために使用している現実の装置上でシミュレートされた通信装置に前記受け側へのメッセージを残す、請求項40に記載のシステム。
The simulated communication device is:
Determine whether the recipient of the communication is a user of the virtual world,
Determine whether the recipient is communicating with the virtual world during communication;
When the receiver does not communicate with the virtual world during communication, a real communication device or a communication device simulated on the real device used by the receiver to interact with the virtual world. 41. The system of claim 40, leaving a message to the recipient.
前記シミュレートされた通信装置は、
通信の受け側が前記仮想世界のユーザであるかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っているかどうかを決定し、
前記受け側が通信時に前記仮想世界とやりとりを行っていない場合に、前記受け側に現実の通信装置を介して連絡し、
前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項40に記載のシステム。
The simulated communication device is:
Determine whether the recipient of the communication is a user of the virtual world,
Determine whether the recipient is communicating with the virtual world during communication;
If the receiver does not communicate with the virtual world during communication, contact the receiver via an actual communication device,
41. The system of claim 40, wherein the real communication device communicates with another real communication device through one or more communication channels independent of the virtual world.
前記ひとつ以上のプロセッサはさらに、
前記仮想世界の個々のユーザにアバターを関連付け、
その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現する、請求項40に記載のシステム。
The one or more processors further includes
Associate avatars with individual users in the virtual world,
41. The system of claim 40, wherein each individual user's interaction with the virtual world is represented by one or more corresponding avatar actions.
前記ひとつ以上のプロセッサは、前記現実の通信が仮想通信装置コンテンツにアクセスできるように構成される、請求項40に記載のシステム。   41. The system of claim 40, wherein the one or more processors are configured to allow the real communication to access virtual communication device content. 前記仮想世界は、3次元の仮想世界である、請求項40に記載のシステム。   41. The system of claim 40, wherein the virtual world is a three-dimensional virtual world. 前記ひとつ以上のプロセッサは、前記現実の通信装置が前記シミュレートされた通信装置とユーザとの間のインタフェースとして使用されうるように構成される、請求項40に記載のシステム。   41. The system of claim 40, wherein the one or more processors are configured such that the real communication device can be used as an interface between the simulated communication device and a user. 前記ひとつ以上のプロセッサはセルプロセッサを含む、請求項40に記載のシステム。   41. The system of claim 40, wherein the one or more processors include a cell processor. 前記現実の通信装置は、電話機、携帯電話機、携帯情報端末、カメラ、ボイスレコーダ、携帯型電子メール装置、携帯型インターネットアクセス装置、携帯型ゲーム機、もしくはパーソナルコンピュータである、請求項40に記載のシステム。   41. The real communication device according to claim 40, wherein the actual communication device is a telephone, a cellular phone, a portable information terminal, a camera, a voice recorder, a portable electronic mail device, a portable Internet access device, a portable game machine, or a personal computer. system. 前記ひとつ以上のプロセッサと接続されたユーザインタフェースをさらに備え、
前記ユーザインタフェースは、前記ユーザと前記仮想世界との間のやりとりを容易にする、請求項40に記載のシステム。
A user interface connected to the one or more processors;
41. The system of claim 40, wherein the user interface facilitates interaction between the user and the virtual world.
仮想世界とコミュニケーションを取るためのシステムであって、当該システムは仮想世界を生成するひとつ以上のプロセッサを備え、
前記仮想世界は複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられ、
前記ひとつ以上のプロセッサはさらに、
前記仮想世界の個々のユーザにアバターを関連付け、
その個々のユーザの前記仮想世界とのやりとりを、ひとつ以上の対応するアバター動作によって表現し、
前記仮想世界と現実の通信装置との間で通信を行い、
前記現実の通信装置は、他の現実の通信装置と仮想世界を生成する前記ひとつ以上のプロセッサとは独立したひとつ以上の通信チャネルを通じて通信する、システム。
A system for communicating with a virtual world, the system comprising one or more processors that generate the virtual world,
The virtual world includes a simulated public space and one or more simulated private spaces that facilitate interaction between multiple users, each of the private spaces being an individual of the multiple users. Associated with the user,
The one or more processors further includes
Associate avatars with individual users in the virtual world,
Expressing each user's interaction with the virtual world by one or more corresponding avatar actions,
Perform communication between the virtual world and the actual communication device,
The real communication device communicates with other real communication devices through one or more communication channels independent of the one or more processors generating a virtual world.
前記ひとつ以上のプロセッサは、前記現実の装置によって生成される信号に応答して前記アバター、前記公共空間もしくは前記私的空間に関連したひとつ以上の特性を変化させる、請求項60に記載のシステム。   61. The system of claim 60, wherein the one or more processors change one or more characteristics associated with the avatar, the public space or the private space in response to a signal generated by the real device. 前記ひとつ以上のプロセッサは、前記現実の通信装置と前記仮想世界のなかでシミュレートされた通信装置との間の通信を容易にする、請求項60に記載のシステム。   64. The system of claim 60, wherein the one or more processors facilitate communication between the real communication device and a communication device simulated in the virtual world. 前記ひとつ以上のプロセッサは、前記現実の通信装置と前記シミュレートされた通信との間の通信をひとつ以上のテキストメッセージによって容易にする、請求項62に記載のシステム。   64. The system of claim 62, wherein the one or more processors facilitate communication between the real communication device and the simulated communication with one or more text messages. 前記ひとつ以上のプロセッサは、前記現実の通信装置と前記シミュレートされた通信との間の通信を、前記シミュレートされた通信装置と前記現実の通信装置との間の音声通信によって容易にする、請求項62に記載のシステム。   The one or more processors facilitate communication between the real communication device and the simulated communication by voice communication between the simulated communication device and the real communication device; 64. The system of claim 62. 前記シミュレートされた通信装置と前記現実の通信装置との間の音声通信は、シミュレートされた電話機と現実の電話機との間の電話を含む、請求項64に記載のシステム。   68. The system of claim 64, wherein voice communication between the simulated communication device and the real communication device includes a phone call between a simulated telephone and a real telephone. 前記現実の電話機は、前記シミュレートされた通信装置から電話を受けた際には特有の呼び出し音を生成し、
前記特有の呼び出し音は、他から電話を受けた際に前記現実の電話機が生成する通常の呼び出し音とは異なる、請求項65に記載のシステム。
The real phone generates a unique ring when receiving a call from the simulated communication device,
66. The system of claim 65, wherein the unique ringing tone is different from a normal ringing tone generated by the real telephone when receiving a call from another.
前記シミュレートされた通信装置は、シミュレートされたビデオレコーダである、請求項62に記載のシステム。   64. The system of claim 62, wherein the simulated communication device is a simulated video recorder. 前記ひとつ以上のプロセッサは、前記現実の通信装置が前記シミュレートされたビデオレコーダとユーザとの間のインタフェースとして使用されうるように構成される、請求項67に記載のシステム。   68. The system of claim 67, wherein the one or more processors are configured such that the real communication device can be used as an interface between the simulated video recorder and a user. 前記ひとつ以上のプロセッサは、前記現実の通信装置が前記シミュレートされたビデオレコーダを現実のもしくはシミュレートされたビデオイベントを記録するよう設定するのに使用されうるように構成される、請求項67に記載のシステム。   68. The one or more processors are configured such that the real communication device can be used to configure the simulated video recorder to record real or simulated video events. The system described in. 前記現実の通信装置は、電話機、携帯電話機、携帯情報端末、カメラ、ボイスレコーダ、携帯型電子メール装置、携帯型インターネットアクセス装置、携帯型ゲーム機、もしくはパーソナルコンピュータである、請求項69に記載のシステム。   70. The real communication device according to claim 69, wherein the actual communication device is a telephone, a cellular phone, a portable information terminal, a camera, a voice recorder, a portable electronic mail device, a portable Internet access device, a portable game machine, or a personal computer. system. 前記現実の通信装置と前記仮想通信装置との間で通信を行うことは、ビデオ通信を含む、請求項70に記載のシステム。   The system of claim 70, wherein communicating between the real communication device and the virtual communication device includes video communication. ビデオ通信は、そのビデオ通信の間、前記現実の装置に前記アバターの画像を表示することを含む、請求項71に記載のシステム。   72. The system of claim 71, wherein video communication includes displaying the avatar image on the real device during the video communication. 前記ひとつ以上のプロセッサは、前記アバターを、そのユーザによって生成された現実のもしくは合成された音声にリップシンクさせる、請求項72に記載のシステム。   73. The system of claim 72, wherein the one or more processors cause the avatar to lip sync to real or synthesized speech generated by the user. 前記ユーザが示す感情を前記アバターが表す感情にマッピングする手段をさらに備える請求項73に記載のシステム。   The system according to claim 73, further comprising means for mapping an emotion represented by the user to an emotion represented by the avatar. 前記ユーザが示す感情をマッピングする手段は、前記ユーザのひとつ以上の画像を取得する手段と、前記ユーザのひとつ以上の顔色を解析する手段と、を含む、請求項74に記載のシステム。   75. The system of claim 74, wherein the means for mapping emotions indicated by the user includes means for obtaining one or more images of the user and means for analyzing one or more facial colors of the user. 前記ビデオ通信中に前記ユーザのひとつ以上の画像を取得する手段は、3次元カメラを含む、請求項75に記載のシステム。   The system of claim 75, wherein the means for acquiring one or more images of the user during the video communication includes a three-dimensional camera. 前記ユーザが示す感情をマッピングすることは、前記ユーザの声の抑揚を解析することを含む、請求項76に記載のシステム。   77. The system of claim 76, wherein mapping emotions represented by the user comprises analyzing voice inflections of the user. 前記ユーザが示す感情をマッピングする手段は、前記ビデオ通信のユーザ部分の間、前記ユーザの感情の状態を示す生物測定学的データを解析する手段を含む、請求項76に記載のシステム。   77. The system of claim 76, wherein the means for mapping emotions represented by the user comprises means for analyzing biometric data indicative of the state of emotion of the user during a user portion of the video communication. 前記生物測定学的データは、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータを含む、請求項78に記載のシステム。   79. The system of claim 78, wherein the biometric data comprises electrocardiograph (EKG) data, electroencephalogram (EEG) data, skin electrical reflex data, or thermographic data. 前記ユーザが示す感情をマッピングする手段は、前記ビデオ通信のユーザ部分の間、リアルタイムで前記ユーザの感情の状態を追跡する手段を含む、請求項74に記載のシステム。   75. The system of claim 74, wherein means for mapping emotions represented by the user comprises means for tracking the state of emotions of the user in real time during a user portion of the video communication. 前記ひとつ以上のプロセッサは、前記現実の通信が仮想通信装置コンテンツにアクセスできるように構成される、請求項60に記載のシステム。   61. The system of claim 60, wherein the one or more processors are configured to allow the real communication to access virtual communication device content. 前記仮想世界は3次元の仮想世界である、請求項60に記載のシステム。   61. The system of claim 60, wherein the virtual world is a three dimensional virtual world. 前記ひとつ以上のプロセッサは、前記現実の通信装置が前記シミュレートされた通信装置とユーザとの間のインタフェースとして使用されうるように構成される、請求項60に記載のシステム。   61. The system of claim 60, wherein the one or more processors are configured such that the real communication device can be used as an interface between the simulated communication device and a user. 前記ひとつ以上のプロセッサは、セルプロセッサを含む、請求項60に記載のシステム。   61. The system of claim 60, wherein the one or more processors include a cell processor. 前記現実の通信装置は、電話機、携帯電話機、携帯情報端末、カメラ、ボイスレコーダ、携帯型電子メール装置、携帯型インターネットアクセス装置、携帯型ゲーム機、もしくはパーソナルコンピュータである、請求項60に記載のシステム。   61. The real communication device according to claim 60, wherein the actual communication device is a telephone, a mobile phone, a portable information terminal, a camera, a voice recorder, a portable electronic mail device, a portable Internet access device, a portable game machine, or a personal computer. system. 前記ひとつ以上のプロセッサと接続されたユーザインタフェースをさらに備え、
前記ユーザインタフェースは、前記ユーザと前記仮想世界との間のやりとりを容易にする、請求項60に記載のシステム。
A user interface connected to the one or more processors;
61. The system of claim 60, wherein the user interface facilitates interaction between the user and the virtual world.
3次元の仮想世界とユーザとのやりとりの方法であって、前記仮想世界はひとつ以上の公共空間とひとつ以上の私的空間とを備え、前記ユーザは前記仮想世界ではアバターによって表現され、前記ユーザは前記アバターをユーザインタフェースを介して操作することができ、前記方法は、
a)前記インタフェースを介して前記ユーザの感情の状態を検出することと、
b)前記ユーザの感情の状態を前記アバターの他のユーザによって知覚されうるひとつ以上の特徴にマッピングすることと、を含み、
前記他のユーザが前記ユーザの感情の状態を前記アバターを知覚することで知覚することができる、方法。
A method of interaction between a three-dimensional virtual world and a user, wherein the virtual world comprises one or more public spaces and one or more private spaces, wherein the user is represented by an avatar in the virtual world, and the user Can operate the avatar via a user interface, and the method includes:
a) detecting the state of emotion of the user via the interface;
b) mapping the emotional state of the user to one or more features that can be perceived by other users of the avatar;
The method in which the other user can perceive the emotional state of the user by perceiving the avatar.
前記ひとつ以上の特徴は、前記アバターのひとつ以上の顔色を含む、請求項87に記載の方法。   90. The method of claim 87, wherein the one or more features include one or more complexions of the avatar. 前記ひとつ以上の特徴は、前記アバターのひとつ以上のボディーランゲージを含む、請求項87に記載の方法。   90. The method of claim 87, wherein the one or more features include one or more body languages of the avatar. 前記ひとつ以上の特徴は、前記アバターのひとつ以上の顔色およびボディーランゲージを含む、請求項87に記載の方法。   90. The method of claim 87, wherein the one or more features include one or more complexions and body language of the avatar. 前記ユーザの感情の状態を検出することは、前記ユーザのひとつ以上の顔色を追跡することを含む、請求項87に記載の方法。   88. The method of claim 87, wherein detecting the state of emotion of the user comprises tracking one or more complexions of the user. ひとつ以上の顔色を追跡することは、3次元カメラを使用して前記ひとつ以上の顔色を追跡することを含む、請求項91に記載の方法。   92. The method of claim 91, wherein tracking one or more facial colors includes tracking the one or more facial colors using a three-dimensional camera. 前記ユーザの感情の状態を検出することは、前記ユーザのひとつ以上のボディーランゲージを追跡することを含む、請求項87に記載の方法。   90. The method of claim 87, wherein detecting the user's emotional state comprises tracking one or more body languages of the user. 前記ユーザの感情の状態を検出することは、前記ユーザの声の抑揚を解析することを含む、請求項87に記載の方法。   88. The method of claim 87, wherein detecting the user's emotional state comprises analyzing the user's voice inflection. 前記ユーザの感情の状態を検出することは、前記ユーザによって生成されたテキストを解析することを含む、請求項87に記載の方法。   88. The method of claim 87, wherein detecting the user's emotional state comprises analyzing text generated by the user. 前記ユーザの感情の状態を検出することは、前記ユーザの生物測定を解析することを含む、請求項87に記載の方法。   88. The method of claim 87, wherein detecting the user's emotional state comprises analyzing the user's biometrics. 前記生物測定は、心電計(EKG)データ、脳波(EEG)データ、皮膚電気反射データ、もしくはサーモグラフィデータを含む、請求項96に記載の方法。   99. The method of claim 96, wherein the biometric comprises electrocardiograph (EKG) data, electroencephalogram (EEG) data, electrodermal reflex data, or thermographic data. 3次元の仮想世界とユーザとのやりとりの方法であって、前記仮想世界はひとつ以上の公共空間とひとつ以上の私的空間とを備え、前記ユーザは前記仮想世界ではアバターによって表現され、前記ユーザは前記アバターをユーザインタフェースを介して操作することができ、前記方法は、
前記アバターに対するカスタムジェスチャを生成することと、
前記ジェスチャにひとつ以上のユーザインタフェース信号を関連付けることと、を含む方法。
A method of interaction between a three-dimensional virtual world and a user, wherein the virtual world comprises one or more public spaces and one or more private spaces, wherein the user is represented by an avatar in the virtual world, and the user Can operate the avatar via a user interface, and the method includes:
Generating a custom gesture for the avatar;
Associating one or more user interface signals with the gesture.
前記ユーザインタフェース信号をひとつ以上の他のユーザに配ることをさらに備え、
前記他のユーザは自己のアバターを前記カスタムジェスチャを行うようにカスタマイズできる、請求項98に記載の方法。
Further distributing the user interface signal to one or more other users;
99. The method of claim 98, wherein the other user can customize his avatar to perform the custom gesture.
前記カスタムジェスチャを生成することは、そのジェスチャを行う行為者をモーションキャプチャすることもしくはパフォーマンスキャプチャすることを含む、請求項98に記載の方法。   99. The method of claim 98, wherein generating the custom gesture includes motion capture or performance capture of an actor performing the gesture. 前記行為者は前記ユーザである、請求項100に記載の方法。   101. The method of claim 100, wherein the actor is the user. 前記仮想空間のなかでの前記アバターによる前記カスタムジェスチャの表現を穏当なものとすることをさらに含む請求項98に記載の方法。   99. The method of claim 98, further comprising making the expression of the custom gesture by the avatar moderate in the virtual space. 前記カスタムジェスチャの表現を穏当なものとすることは、所定の基準に基づいて、特定のユーザがアバターに前記カスタムジェスチャを行わせることのできる範囲を制限すること、もしくは所定の基準に基づいて、前記特定のユーザが前記カスタムジェスチャを行うアバターを知覚できる範囲を制限することを含む、請求項102に記載の方法。   Making the expression of the custom gesture moderate means limiting a range in which a specific user can make an avatar perform the custom gesture based on a predetermined criterion, or based on a predetermined criterion. 105. The method of claim 102, comprising limiting a range in which the particular user can perceive an avatar performing the custom gesture. 前記所定の基準は、前記ユーザの年齢、前記ジェスチャを見る人の年齢、もしくは宗教、民族もしくは見る人の他の帰属先に基づき見る人が侮辱と感じうる感受性を含む、請求項103に記載の方法。   104. The predetermined criteria, wherein the predetermined criteria include a sensitivity that a viewer may feel insulting based on the age of the user, the age of the viewer of the gesture, or religion, ethnicity or other attribution of the viewer. Method. 前記アバターのひとつ以上の他の特徴をカスタマイズし、前記ユーザかつ/またはアバターをあるソーシャルグループに結び付けることをさらに含む請求項98に記載の方法。   99. The method of claim 98, further comprising customizing one or more other characteristics of the avatar to associate the user and / or avatar with a social group. 前記アバターのひとつ以上の他の特徴をカスタマイズすることは、前記アバターの衣服、履き物、髪型もしくは民族的特徴をカスタマイズすることを含む、請求項105に記載の方法。   106. The method of claim 105, wherein customizing one or more other characteristics of the avatar comprises customizing clothing, footwear, hairstyle or ethnic characteristics of the avatar. 現実の通信装置および仮想通信装置の間で通信をルーティングするための方法であって、
前記仮想世界のユーザを仮想通信装置およびひとつ以上の現実の通信装置に関連付けることと、
前記ユーザ宛の通信を受けた場合に前記仮想通信装置および前記ひとつ以上の現実の通信装置の間でルーティング優先処理を実行することと、を含む方法。
A method for routing communications between a real communication device and a virtual communication device, comprising:
Associating the virtual world user with a virtual communication device and one or more real communication devices;
Performing routing priority processing between the virtual communication device and the one or more real communication devices upon receiving communication addressed to the user.
前記ユーザが前記ルーティング優先処理を実行する、請求項107に記載の方法。   108. The method of claim 107, wherein the user performs the routing priority process. 前記通信の発信元が前記ルーティング優先処理を実行する、請求項107に記載の方法
108. The method of claim 107, wherein a source of the communication performs the routing priority process.
前記ルーティング優先処理は前記ユーザの好みに基づく、請求項107に記載の方法。   108. The method of claim 107, wherein the routing priority process is based on the user preference. 前記ルーティング優先処理は前記ユーザの行動に基づく、請求項107に記載の方法。   108. The method of claim 107, wherein the routing priority process is based on the user behavior. 前記ルーティング優先処理は前記通信ソースの正体に依存する、請求項107に記載の方法。   108. The method of claim 107, wherein the routing priority process depends on the identity of the communication source. 前記ルーティング優先処理は前記通信ターゲットの正体に依存する、請求項107に記載の方法。   108. The method of claim 107, wherein the routing priority process depends on the identity of the communication target. 前記ルーティング優先処理は、ひとつ以上のステートコントロールに基づき、
前記ステートコントロールは、所定の状況においてのみ前記通信を前記現実のもしくは仮想通信装置へルーティングする、請求項107に記載の方法。
The routing priority process is based on one or more state controls,
108. The method of claim 107, wherein the state control routes the communication to the real or virtual communication device only in predetermined situations.
前記ルーティング優先処理にしたがって前記ユーザ宛の通信をルーティングすることをさらに含む請求項107に記載の方法。   108. The method of claim 107, further comprising routing communications addressed to the user according to the routing priority process. 前記通信をルーティングすることは、
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
前記ユーザがオンラインである場合に、前記通信を前記仮想通信装置へルーティングすることと、を含む、請求項115に記載の方法。
Routing the communication is
Determining whether the user is “online” in the virtual world;
116. The method of claim 115, comprising routing the communication to the virtual communication device when the user is online.
前記通信をルーティングすることは、
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
前記ユーザがオンラインでない場合に、前記通信をひとつ以上の前記現実の通信装置へルーティングすることと、を含む、請求項115に記載の方法。
Routing the communication is
Determining whether the user is “online” in the virtual world;
116. The method of claim 115, comprising routing the communication to one or more real communication devices when the user is not online.
前記通信をルーティングすることは、
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定することと、
前記ユーザがオンラインである場合に、テキストメッセージを前記仮想通信装置または前記ユーザに関連付けられたアバターのいずれか一方へルーティングすることと、を含む、請求項115に記載の方法。
Routing the communication is
Determining whether the user is “online” in the virtual world;
116. The method of claim 115, comprising routing a text message to either the virtual communication device or an avatar associated with the user when the user is online.
前記ユーザ宛の前記通信は前記仮想世界のなかから発信される、請求項115に記載の方法。   116. The method of claim 115, wherein the communication destined for the user originates from within the virtual world. 前記シミュレートされた通信装置と現実の通信装置との間で通信を行うことは、ソースからターゲットへ通信を伝達することを含み、
アバターは前記ソースと関連付けられ、
当該方法はさらに、前記通信の間、前記仮想世界において前記アバターを前記ターゲットに表示することを含む、請求項107に記載の方法。
Communicating between the simulated communication device and a real communication device includes communicating communication from a source to a target;
An avatar is associated with the source,
108. The method of claim 107, further comprising displaying the avatar on the target in the virtual world during the communication.
前記通信は現実の通信装置から発信される、請求項120に記載の方法。   121. The method of claim 120, wherein the communication originates from a real communication device. 前記通信の間、前記ソースからの音声を前記ターゲットに提示することをさらに含む請求項120に記載の方法。   121. The method of claim 120, further comprising presenting audio from the source to the target during the communication. 前記通信の間、前記ソースからのテキストを前記ターゲットに提示することをさらに含む請求項120に記載の方法   121. The method of claim 120, further comprising presenting text from the source to the target during the communication. 前記ソースからのテキストを提示することは、前記ソースからの発話音声をテキストに翻訳することと、前記ターゲットにその結果得られるテキストを提示することとを含む、請求項123に記載の方法。   124. The method of claim 123, wherein presenting text from the source includes translating speech spoken from the source into text and presenting the resulting text to the target. 前記結果として得られるテキストアバターを提示することは、前記結果として得られるテキストを前記アバターの近くのひとつ以上のふきだしに表示することを含む、請求項124に記載の方法。   129. The method of claim 124, wherein presenting the resulting text avatar includes displaying the resulting text in one or more speech bubbles near the avatar. 現実の通信装置および仮想通信装置の間で通信をルーティングするためのシステムであって、
仮想世界を生成するひとつ以上のプロセッサを備え、
前記ひとつ以上のプロセッサは、仮想通信装置を生成し、設定可能なルータを実現し、
前記設定可能なルータは、ひとつ以上の現実の通信装置と前記仮想通信装置との間の通信におけるルーティングを容易とする、システム。
A system for routing communication between a real communication device and a virtual communication device,
With one or more processors to create a virtual world,
The one or more processors generate virtual communication devices and implement configurable routers;
The configurable router facilitates routing in communication between one or more real communication devices and the virtual communication device.
前記ルータは、前記仮想通信装置もしくは前記ひとつ以上の現実の通信装置からアクセス可能である、請求項126に記載のシステム。   127. The system of claim 126, wherein the router is accessible from the virtual communication device or the one or more real communication devices. 前記ひとつ以上の現実の通信装置は、ひとつ以上のネットワークウェブページを含む、請求項127に記載のシステム。   128. The system of claim 127, wherein the one or more real communication devices include one or more network web pages. 前記ルータは、前記仮想通信装置に関連付けられたユーザに基づいて通信をルーティングする、請求項126に記載のシステム。   127. The system of claim 126, wherein the router routes communications based on a user associated with the virtual communication device. 前記ルータは、前記通信の発信元に基づいて通信をルーティングする、請求項126に記載のシステム。   127. The system of claim 126, wherein the router routes communications based on a source of the communications. 前記ルータは、前記仮想通信装置に関連付けられたユーザのひとつ以上の好みに基づいて通信をルーティングする、請求項126に記載のシステム。   129. The system of claim 126, wherein the router routes communications based on one or more preferences of users associated with the virtual communication device. 前記ルータは、前記仮想通信装置に関連付けられたユーザのひとつ以上の行動に基づいて通信をルーティングする、請求項126に記載のシステム。   127. The system of claim 126, wherein the router routes communications based on one or more user actions associated with the virtual communication device. 前記ルータは、前記通信のソースの正体に基づいて通信をルーティングする、請求項126に記載のシステム。   127. The system of claim 126, wherein the router routes communications based on the identity of the communication source. 前記ルータは、前記通信のターゲットの正体に基づいて通信をルーティングする、請求
項126に記載のシステム。
127. The system of claim 126, wherein the router routes communications based on the identity of the communications target.
前記ルータは、ひとつ以上のステートコントロールに基づいて通信をルーティングし、
前記ステートコントロールは、所定の状況においてのみ前記通信を前記現実のもしくは仮想通信装置へルーティングする、請求項126に記載のシステム。
The router routes communications based on one or more state controls,
127. The system of claim 126, wherein the state control routes the communication to the real or virtual communication device only in predetermined situations.
前記ルータは、
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
前記ユーザがオンラインである場合に、前記通信を前記仮想通信装置へルーティングする、請求項126に記載のシステム。
The router
Determine if the user is "online" in the virtual world;
127. The system of claim 126, wherein the communication is routed to the virtual communication device when the user is online.
前記ルータは、
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
前記ユーザがオンラインでない場合に、前記通信をひとつ以上の前記現実の通信装置へルーティングする、請求項126に記載のシステム。
The router
Determine if the user is "online" in the virtual world;
129. The system of claim 126, wherein the communication is routed to one or more real communication devices when the user is not online.
前記ルータは、
前記ユーザが前記仮想世界において「オンライン」であるかどうかを決定し、
前記ユーザがオンラインである場合に、テキストメッセージを前記仮想通信装置または前記ユーザに関連付けられたアバターのいずれか一方へルーティングする、請求項126に記載のシステム。
The router
Determine if the user is "online" in the virtual world;
127. The system of claim 126, wherein text messages are routed to either the virtual communication device or an avatar associated with the user when the user is online.
前記ルータはソースからターゲットへ通信を伝達し、前記通信の間、前記仮想世界において前記アバターを前記ターゲットに表示し、
前記アバターは前記ソースと関連付けられる、請求項126に記載のシステム。
The router communicates communication from a source to a target, and displays the avatar on the target in the virtual world during the communication;
127. The system of claim 126, wherein the avatar is associated with the source.
前記ひとつ以上のプロセッサは、前記通信の間、前記ソースからの音声を前記ターゲットに提示する、請求項139に記載のシステム。   140. The system of claim 139, wherein the one or more processors present audio from the source to the target during the communication. 前記ひとつ以上のプロセッサは、前記通信の間、前記ソースからのテキストを前記ターゲットに提示する、請求項139に記載のシステム。   140. The system of claim 139, wherein the one or more processors present text from the source to the target during the communication. 前記ひとつ以上のプロセッサは、前記ソースからの発話音声をテキストに翻訳し、前記ターゲットにその結果得られるテキストを提示する、請求項141に記載のシステム。   142. The system of claim 141, wherein the one or more processors translate speech spoken from the source into text and present the resulting text to the target. 前記結果として得られるテキストアバターを提示することは、前記結果として得られるテキストを前記アバターの近くのひとつ以上のふきだしに表示することを含む、請求項142に記載の方法。   143. The method of claim 142, wherein presenting the resulting text avatar includes displaying the resulting text in one or more speech bubbles near the avatar. 仮想世界を用いて通信するための方法であって、
アバターを電子メールの発信元に関連付けることと、
前記仮想世界のなかで電子メールを生成することと、
アバターのひとつ以上の画像を前記電子メールに関連付けることと、
前記電子メールを現実の装置に送ることと、
前記ひとつ以上の画像を前記電子メールの届け先で提示することと、を含む方法。
A method for communicating using a virtual world,
Associating an avatar with the email source,
Generating an email in the virtual world;
Associating one or more images of the avatar with the email;
Sending the email to a real device;
Presenting the one or more images at a destination of the e-mail.
記録されたもしくは合成された音声を前記電子メールに関連付けることと、
前記届け先で前記音声を前記ひとつ以上の画像と共に提示することと、をさらに含む請求項144に記載の方法。
Associating recorded or synthesized speech with the email;
145. The method of claim 144, further comprising presenting the audio with the one or more images at the destination.
ひとつ以上の画像を関連付けることは、前記アバターのアニメーションを生成することを含む、請求項144に記載の方法。   145. The method of claim 144, wherein associating one or more images includes generating an animation of the avatar. 前記ひとつ以上の画像を提示することは、前記届け先で前記アニメーションを提示することを含む、請求項146に記載の方法。   147. The method of claim 146, wherein presenting the one or more images includes presenting the animation at the destination. ひとつ以上の画像を関連付けることは、前記アバターの前記アニメーションにひとつ以上のジェスチャをマッピングすることをさらに含む、請求項146に記載の方法。   147. The method of claim 146, wherein associating one or more images further comprises mapping one or more gestures to the animation of the avatar. ひとつ以上のジェスチャをマッピングすることは、
前記電子メールメッセージの発信元の音声かつ/またはビデオを記録することと、
前記音声かつ/またはビデオのひとつ以上の特徴を前記アニメーション中の前記アバターのひとつ以上の特徴にマッピングすることと、を含む、請求項148に記載の方法。
Mapping one or more gestures
Recording the voice and / or video of the originator of the email message;
148. The method of claim 148, comprising mapping one or more features of the audio and / or video to one or more features of the avatar in the animation.
テーマを前記アニメーション中の仮想カメラの動きに関連付けることをさらに含む、請求項146に記載の方法。   147. The method of claim 146, further comprising associating a theme with the movement of the virtual camera during the animation. 前記テーマは仮想カメラの固定位置を含む、請求項150に記載の方法。   The method of claim 150, wherein the theme includes a fixed position of a virtual camera. 前記テーマは仮想カメラの動きを含む、請求項150に記載の方法。   161. The method of claim 150, wherein the theme includes virtual camera movement. 前記電子メールを生成することは、前記発信元の感情の状態を追跡することと、前記テーマを感情の状態にマッピングすることと、を含む、請求項150に記載の方法。   161. The method of claim 150, wherein generating the email comprises tracking the source emotional state and mapping the theme to an emotional state. 電子メールを生成することは、前記仮想世界のなかで仮想通信装置を使用することを含む、請求項144に記載の方法。   145. The method of claim 144, wherein generating the email includes using a virtual communication device in the virtual world. 前記仮想世界は、複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、
私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられる、請求項144に記載の方法。
The virtual world includes a simulated public space and one or more simulated private spaces that facilitate communication between multiple users;
145. The method of claim 144, wherein each private space is associated with an individual user of the plurality of users.
前記届け先は、現実の通信装置である、請求項144に記載の方法。   145. The method of claim 144, wherein the destination is an actual communication device. 前記現実の通信装置は、他の現実の通信装置と前記仮想世界とは独立したひとつ以上の通信チャネルを通じて通信する、請求項156に記載の方法。   157. The method of claim 156, wherein the real communication device communicates with other real communication devices through one or more communication channels independent of the virtual world. 仮想世界を用いて通信するためのシステムであって、ひとつ以上のプロセッサを備え、前記ひとつ以上のプロセッサは、
仮想世界を生成し、
アバターを電子メールの発信元に関連付け、
前記仮想世界のなかで電子メールを生成し、
アバターのひとつ以上の画像を前記電子メールに関連付け、
前記電子メールを現実の装置に送り、
前記ひとつ以上の画像を前記電子メールの届け先で提示する、システム。
A system for communicating using a virtual world, comprising one or more processors, wherein the one or more processors are:
Create a virtual world,
Associate your avatar with the email source,
Create an email in the virtual world,
Associate one or more images of the avatar with the email,
Send the email to a real device,
A system that presents the one or more images at a destination of the e-mail.
前記仮想世界は、複数のユーザ間のやりとりを容易にするシミュレートされた公共空間とひとつ以上のシミュレートされた私的空間とを含み、
私的空間の各々は前記複数のユーザのなかの個々のユーザに関連付けられる、請求項158に記載のシステム。
The virtual world includes a simulated public space and one or more simulated private spaces that facilitate communication between multiple users;
159. The system of claim 158, wherein each private space is associated with an individual user of the plurality of users.
前記ひとつ以上のプロセッサは、
記録されたかつ/または合成された音声を前記電子メールに関連付け、
前記届け先で前記音声を前記ひとつ以上の画像と共に提示する、請求項158に記載のシステム。
The one or more processors are:
Associating recorded and / or synthesized speech with the email;
159. The system of claim 158, wherein the audio is presented with the one or more images at the destination.
前記ひとつ以上のプロセッサは、前記アバターのアニメーションを生成する、請求項158に記載のシステム。   159. The system of claim 158, wherein the one or more processors generate an animation of the avatar. 前記ひとつ以上のプロセッサは、前記届け先で前記アニメーションを提示する、請求項161に記載のシステム。   164. The system of claim 161, wherein the one or more processors present the animation at the destination. 前記ひとつ以上のプロセッサは、前記アバターの前記アニメーションにひとつ以上のジェスチャをマッピングする、請求項162に記載のシステム。   163. The system of claim 162, wherein the one or more processors map one or more gestures to the animation of the avatar. 前記ひとつ以上のプロセッサは、
前記電子メールメッセージの発信元の音声かつ/またはビデオを記録し、
前記音声かつ/またはビデオのひとつ以上の特徴を前記アニメーション中の前記アバターのひとつ以上の特徴にマッピングする、請求項163に記載のシステム。
The one or more processors are:
Record the voice and / or video of the originator of the email message;
166. The system of claim 163, mapping one or more features of the audio and / or video to one or more features of the avatar in the animation.
前記ひとつ以上のプロセッサは、テーマを前記アニメーション中の仮想カメラの動きに関連付ける、請求項161に記載のシステム。   164. The system of claim 161, wherein the one or more processors associate a theme with a virtual camera movement during the animation. 前記テーマは仮想カメラの固定位置を含む、請求項165に記載のシステム。   166. The system of claim 165, wherein the theme includes a fixed location of a virtual camera. 前記テーマは仮想カメラの動きを含む、請求項165に記載のシステム。   166. The system of claim 165, wherein the theme includes virtual camera movement. 前記ひとつ以上のプロセッサは、前記発信元の感情の状態を追跡し、前記テーマを感情の状態にマッピングする、請求項165に記載のシステム。   166. The system of claim 165, wherein the one or more processors track the source emotional state and map the theme to an emotional state. 前記ひとつ以上のプロセッサは、前記仮想世界のなかに仮想通信装置を生成し、ユーザに前記仮想通信装置を用いて前記電子メールを生成させる、請求項158に記載のシステム。   159. The system of claim 158, wherein the one or more processors generate a virtual communication device in the virtual world and allow a user to generate the email using the virtual communication device.
JP2009551806A 2007-03-01 2008-02-26 System and method for communicating with a virtual world Pending JP2010533006A (en)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US89239707P 2007-03-01 2007-03-01
GBGB0703974.6A GB0703974D0 (en) 2007-03-01 2007-03-01 Entertainment device
GB0704235A GB2447095B (en) 2007-03-01 2007-03-05 Entertainment device and method
US11/682,287 US20080215971A1 (en) 2007-03-01 2007-03-05 System and method for communicating with an avatar
US11/682,298 US8788951B2 (en) 2007-03-01 2007-03-05 Avatar customization
GB0704225A GB2447094B (en) 2007-03-01 2007-03-05 Entertainment device and method
US11/682,284 US7979574B2 (en) 2007-03-01 2007-03-05 System and method for routing communications among real and virtual communication devices
US11/682,299 US8502825B2 (en) 2007-03-01 2007-03-05 Avatar email and methods for communicating between real and virtual worlds
GB0704227A GB2447020A (en) 2007-03-01 2007-03-05 Transmitting game data from an entertainment device and rendering that data in a virtual environment of a second entertainment device
US11/682,281 US8425322B2 (en) 2007-03-01 2007-03-05 System and method for communicating with a virtual world
US11/682,292 US20080215972A1 (en) 2007-03-01 2007-03-05 Mapping user emotional state to avatar in a virtual world
GB0704246A GB2447096B (en) 2007-03-01 2007-03-05 Entertainment device and method
PCT/US2008/055037 WO2008109299A2 (en) 2007-03-01 2008-02-26 System and method for communicating with a virtual world

Publications (2)

Publication Number Publication Date
JP2010533006A true JP2010533006A (en) 2010-10-21
JP2010533006A5 JP2010533006A5 (en) 2012-02-16

Family

ID=39738577

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2009551806A Pending JP2010533006A (en) 2007-03-01 2008-02-26 System and method for communicating with a virtual world
JP2009551726A Pending JP2010535363A (en) 2007-03-01 2008-02-27 Virtual world avatar control, interactivity and communication interactive messaging
JP2009551727A Pending JP2010535364A (en) 2007-03-01 2008-02-27 Interactive user-controlled avatar animation
JP2009551722A Pending JP2010535362A (en) 2007-03-01 2008-02-27 Monitoring the opinions and reactions of users in the virtual world
JP2014039137A Active JP5756198B2 (en) 2007-03-01 2014-02-28 Interactive user-controlled avatar animation

Family Applications After (4)

Application Number Title Priority Date Filing Date
JP2009551726A Pending JP2010535363A (en) 2007-03-01 2008-02-27 Virtual world avatar control, interactivity and communication interactive messaging
JP2009551727A Pending JP2010535364A (en) 2007-03-01 2008-02-27 Interactive user-controlled avatar animation
JP2009551722A Pending JP2010535362A (en) 2007-03-01 2008-02-27 Monitoring the opinions and reactions of users in the virtual world
JP2014039137A Active JP5756198B2 (en) 2007-03-01 2014-02-28 Interactive user-controlled avatar animation

Country Status (3)

Country Link
EP (4) EP2132650A4 (en)
JP (5) JP2010533006A (en)
WO (1) WO2008108965A1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116308A (en) * 2013-12-18 2015-06-25 三菱電機株式会社 Gesture registration device
CN106464707A (en) * 2014-04-25 2017-02-22 诺基亚技术有限公司 Interaction between virtual reality entities and real entities
JP2017528834A (en) * 2014-09-11 2017-09-28 ノキア テクノロジーズ オサケユイチア Method, apparatus and computer program for displaying images
JP6263252B1 (en) * 2016-12-06 2018-01-17 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019130295A (en) * 2018-12-28 2019-08-08 ノキア テクノロジーズ オサケユイチア Interaction between virtual reality entities and real entities
US10559305B2 (en) 2016-05-06 2020-02-11 Sony Corporation Information processing system, and information processing method
JP2020146469A (en) * 2020-04-20 2020-09-17 株式会社トプコン Ophthalmologic examination system and ophthalmologic examination device
JP2023039987A (en) * 2018-05-24 2023-03-22 株式会社ユピテル System, program, and the like
WO2023068067A1 (en) * 2021-10-18 2023-04-27 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7323315B2 (en) 2019-03-27 2023-08-08 株式会社コーエーテクモゲームス Information processing device, information processing method and program
WO2023244073A1 (en) * 2022-06-17 2023-12-21 주식회사 메타캠프 Metaverse service device for multi-channel structure and channel synchronization, and driving method for device
WO2024004609A1 (en) * 2022-06-28 2024-01-04 ソニーグループ株式会社 Information processing device, information processing method, and recording medium

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489795B2 (en) 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
US8397168B2 (en) 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
US8407605B2 (en) 2009-04-03 2013-03-26 Social Communications Company Application sharing
US7769806B2 (en) 2007-10-24 2010-08-03 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
JP5368547B2 (en) 2008-04-05 2013-12-18 ソーシャル・コミュニケーションズ・カンパニー Shared virtual area communication environment based apparatus and method
US20100093439A1 (en) * 2008-10-15 2010-04-15 Nc Interactive, Inc. Interactive network game and methods thereof
US20100099495A1 (en) * 2008-10-16 2010-04-22 Nc Interactive, Inc. Interactive network game and methods thereof
US9853922B2 (en) 2012-02-24 2017-12-26 Sococo, Inc. Virtual area communications
JP5229484B2 (en) 2009-01-28 2013-07-03 任天堂株式会社 Information processing system, program, and information processing apparatus
JP5527721B2 (en) 2009-01-28 2014-06-25 任天堂株式会社 Program and information processing apparatus
JP5690473B2 (en) 2009-01-28 2015-03-25 任天堂株式会社 Program and information processing apparatus
JP5813912B2 (en) * 2009-01-28 2015-11-17 任天堂株式会社 Program, information processing apparatus, and information processing system
US9542010B2 (en) * 2009-09-15 2017-01-10 Palo Alto Research Center Incorporated System for interacting with objects in a virtual environment
US8862977B2 (en) * 2009-09-30 2014-10-14 Rakuten, Inc. Object displacement method for web page
US20120192088A1 (en) * 2011-01-20 2012-07-26 Avaya Inc. Method and system for physical mapping in a virtual world
CN106964150B (en) * 2011-02-11 2021-03-02 漳州市爵晟电子科技有限公司 Action positioning point control system and sleeve type positioning point control equipment thereof
US20120277001A1 (en) * 2011-04-28 2012-11-01 Microsoft Corporation Manual and Camera-based Game Control
JP2013003778A (en) * 2011-06-15 2013-01-07 Forum8 Co Ltd Three-dimensional space information processing system, three-dimensional space information processing terminal, three-dimensional space information processing server, three-dimensional space information processing terminal program, three-dimensional space information processing server program, and three-dimensional space information processing method
WO2013181026A1 (en) 2012-06-02 2013-12-05 Social Communications Company Interfacing with a spatial virtual communications environment
CN104516618B (en) * 2013-09-27 2020-01-14 中兴通讯股份有限公司 Interface function analysis display method and device
WO2016068581A1 (en) * 2014-10-31 2016-05-06 Samsung Electronics Co., Ltd. Device and method of managing user information based on image
US10861056B2 (en) 2015-06-17 2020-12-08 Facebook, Inc. Placing locations in a virtual world
US9786125B2 (en) * 2015-06-17 2017-10-10 Facebook, Inc. Determining appearances of objects in a virtual world based on sponsorship of object appearances
US10339592B2 (en) 2015-06-17 2019-07-02 Facebook, Inc. Configuring a virtual store based on information associated with a user by an online system
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
WO2018142228A2 (en) 2017-01-19 2018-08-09 Mindmaze Holding Sa Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
WO2018139203A1 (en) 2017-01-26 2018-08-02 ソニー株式会社 Information processing device, information processing method, and program
JP6821461B2 (en) * 2017-02-08 2021-01-27 株式会社コロプラ A method executed by a computer to communicate via virtual space, a program that causes the computer to execute the method, and an information control device.
EP3588444A4 (en) 2017-02-24 2020-02-12 Sony Corporation Information processing apparatus, information processing method, and program
JP6651479B2 (en) * 2017-03-16 2020-02-19 株式会社コロプラ Information processing method and apparatus, and program for causing computer to execute the information processing method
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
JP7302956B2 (en) * 2018-09-19 2023-07-04 株式会社バンダイナムコエンターテインメント computer system, game system and program
EP3968165A4 (en) * 2019-08-20 2022-12-21 Japan Tobacco Inc. Communication assistance method, program, and communication server
WO2021033254A1 (en) * 2019-08-20 2021-02-25 日本たばこ産業株式会社 Communication assistance method, program, and communication server
US11080930B2 (en) * 2019-10-23 2021-08-03 Skonec Entertainment Co., Ltd. Virtual reality control system
EP3846008A1 (en) * 2019-12-30 2021-07-07 TMRW Foundation IP SARL Method and system for enabling enhanced user-to-user communication in digital realities
JP6932224B1 (en) * 2020-06-01 2021-09-08 株式会社電通 Advertising display system
JP7254112B2 (en) * 2021-03-19 2023-04-07 本田技研工業株式会社 Virtual experience providing device, virtual experience providing method, and program
WO2023281755A1 (en) * 2021-07-09 2023-01-12 シャープNecディスプレイソリューションズ株式会社 Display control device, display control method, and program
WO2023149255A1 (en) * 2022-02-02 2023-08-10 株式会社Nttドコモ Display control device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1146248A (en) * 1997-07-25 1999-02-16 Fujitsu Ltd Personal communication distributed control system
JP2001154966A (en) * 1999-11-29 2001-06-08 Sony Corp System and method for supporting virtual conversation being participation possible by users in shared virtual space constructed and provided on computer network and medium storing program
JP2003324522A (en) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> Ip/pstn integrated control apparatus, communication method, program, and recording medium
JP2004021606A (en) * 2002-06-17 2004-01-22 Nec Corp Internet service providing system using virtual space providing server
JP2004130139A (en) * 2001-05-18 2004-04-30 Sony Computer Entertainment Inc Entertainment system, communication system, communication program, computer readable recording medium with communication program stored thereon, and communication method
WO2006042139A2 (en) * 2004-10-08 2006-04-20 Sonus Networks, Inc. Common telephony services to multiple devices associated with multiple networks
JP2006186893A (en) * 2004-12-28 2006-07-13 Matsushita Electric Ind Co Ltd Voice conversation control apparatus
WO2006080080A1 (en) * 2005-01-28 2006-08-03 Fujitsu Limited Telephone management system and telephone management method
US20070002835A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Edge-based communication

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
CA2141144A1 (en) * 1994-03-31 1995-10-01 Joseph Desimone Electronic game utilizing bio-signals
GB9505916D0 (en) * 1995-03-23 1995-05-10 Norton John M Controller
JP3091135B2 (en) * 1995-05-26 2000-09-25 株式会社バンダイ Game equipment
US5823879A (en) * 1996-01-19 1998-10-20 Sheldon F. Goldberg Network gaming system
JP3274603B2 (en) * 1996-04-18 2002-04-15 エヌイーシーソフト株式会社 Voice aggregation system and voice aggregation method
JP3757584B2 (en) * 1997-11-20 2006-03-22 株式会社富士通ゼネラル Advertising effect confirmation system
JP3276068B2 (en) * 1997-11-28 2002-04-22 インターナショナル・ビジネス・マシーンズ・コーポレーション Object selection method and system
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2000311251A (en) * 1999-02-26 2000-11-07 Toshiba Corp Device and method for generating animation and storage medium
EP1250698A2 (en) * 1999-04-20 2002-10-23 John Warren Stringer Human gestural input device with motion and pressure
JP4034002B2 (en) * 1999-04-22 2008-01-16 三菱電機株式会社 Distributed virtual space information management transmission method
AU5012600A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for a multi-owner, three-dimensional virtual world
AU5012300A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for registering lots in a shared virtual world
JP2000325653A (en) * 1999-05-19 2000-11-28 Enix Corp Portable videogame device and storage medium with program stored therein
JP2001153663A (en) * 1999-11-29 2001-06-08 Canon Inc Discrimination device for moving direction of object, and photographic device, navigation system, suspension system, game system and remote controller system provide with the device
JP3623415B2 (en) * 1999-12-02 2005-02-23 日本電信電話株式会社 Avatar display device, avatar display method and storage medium in virtual space communication system
JP2001236290A (en) * 2000-02-22 2001-08-31 Toshinao Komuro Communication system using avatar
KR100366384B1 (en) * 2000-02-26 2002-12-31 (주) 고미드 Information search system based on communication of users
JP2001325501A (en) * 2000-03-10 2001-11-22 Heart Gift:Kk On-line gift method
JP3458090B2 (en) * 2000-03-15 2003-10-20 コナミ株式会社 GAME SYSTEM HAVING MESSAGE EXCHANGE FUNCTION, GAME DEVICE USED FOR THE GAME SYSTEM, MESSAGE EXCHANGE SYSTEM, AND COMPUTER-READABLE STORAGE MEDIUM
JP2001321568A (en) * 2000-05-18 2001-11-20 Casio Comput Co Ltd Device and method of game and recording medium
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2002136762A (en) * 2000-11-02 2002-05-14 Taito Corp Adventure game using latent video
JP3641423B2 (en) * 2000-11-17 2005-04-20 Necインフロンティア株式会社 Advertisement information system
WO2002042921A1 (en) * 2000-11-27 2002-05-30 Butterfly.Net, Inc. System and method for synthesizing environments to facilitate distributed, context-sensitive, multi-user interactive applications
EP1216733A3 (en) * 2000-12-20 2004-09-08 Aruze Co., Ltd. Server providing competitive game service, program storage medium for use in the server, and method of providing competitive game service using the server
JP2002197376A (en) * 2000-12-27 2002-07-12 Fujitsu Ltd Method and device for providing virtual world customerized according to user
JP4613295B2 (en) * 2001-02-16 2011-01-12 株式会社アートディンク Virtual reality playback device
EP1386472A4 (en) * 2001-02-27 2009-05-27 Anthrotronix Inc Robotic apparatus and wireless communication system
US7667705B2 (en) * 2001-05-15 2010-02-23 Nintendo Of America Inc. System and method for controlling animation by tagging objects within a game environment
JP3425562B2 (en) * 2001-07-12 2003-07-14 コナミ株式会社 Character operation program, character operation method, and video game apparatus
JP3732168B2 (en) * 2001-12-18 2006-01-05 株式会社ソニー・コンピュータエンタテインメント Display device, display system and display method for objects in virtual world, and method for setting land price and advertising fee in virtual world where they can be used
JP2003210834A (en) * 2002-01-17 2003-07-29 Namco Ltd Control information, information storing medium, and game device
JP2003259331A (en) * 2002-03-06 2003-09-12 Nippon Telegraph & Telephone West Corp Three-dimensional contents distribution apparatus, three-dimensional contents distribution program, program recording medium, and three-dimensional contents distribution method
JP2004046311A (en) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> Method and system for gesture input in three-dimensional virtual space
US20040029625A1 (en) * 2002-08-07 2004-02-12 Ed Annunziata Group behavioral modification using external stimuli
AU2002350422A1 (en) * 2002-11-07 2004-06-07 Personics A/S Adaptive motion detection interface and motion detector
JP3952396B2 (en) * 2002-11-20 2007-08-01 任天堂株式会社 GAME DEVICE AND INFORMATION PROCESSING DEVICE
JP2004237022A (en) * 2002-12-11 2004-08-26 Sony Corp Information processing device and method, program and recording medium
JP3961419B2 (en) * 2002-12-27 2007-08-22 株式会社バンダイナムコゲームス GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4442117B2 (en) * 2003-05-27 2010-03-31 ソニー株式会社 Information registration method, information registration apparatus, and information registration program
US7725419B2 (en) * 2003-09-05 2010-05-25 Samsung Electronics Co., Ltd Proactive user interface including emotional agent
JP2005100053A (en) * 2003-09-24 2005-04-14 Nomura Research Institute Ltd Method, program and device for sending and receiving avatar information
JP2005216004A (en) * 2004-01-29 2005-08-11 Tama Tlo Kk Program and communication method
JP4559092B2 (en) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ Mobile communication terminal and program
US20060013254A1 (en) * 2004-06-07 2006-01-19 Oded Shmueli System and method for routing communication through various communication channel types
JP2006034436A (en) * 2004-07-23 2006-02-09 Smk Corp Virtual game system using exercise apparatus
US20090005167A1 (en) * 2004-11-29 2009-01-01 Juha Arrasvuori Mobile Gaming with External Devices in Single and Multiplayer Games
JP2006185252A (en) * 2004-12-28 2006-07-13 Univ Of Electro-Communications Interface device
JP2006211005A (en) * 2005-01-25 2006-08-10 Takashi Uchiyama Television telephone advertising system
JP4322833B2 (en) * 2005-03-16 2009-09-02 株式会社東芝 Wireless communication system
US20060252538A1 (en) * 2005-05-05 2006-11-09 Electronic Arts Inc. Analog stick input replacement for lengthy button push sequences and intuitive input for effecting character actions
EP1878013B1 (en) * 2005-05-05 2010-12-15 Sony Computer Entertainment Inc. Video game control with joystick
JP2006004421A (en) * 2005-06-03 2006-01-05 Sony Corp Data processor

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1146248A (en) * 1997-07-25 1999-02-16 Fujitsu Ltd Personal communication distributed control system
JP2001154966A (en) * 1999-11-29 2001-06-08 Sony Corp System and method for supporting virtual conversation being participation possible by users in shared virtual space constructed and provided on computer network and medium storing program
JP2004130139A (en) * 2001-05-18 2004-04-30 Sony Computer Entertainment Inc Entertainment system, communication system, communication program, computer readable recording medium with communication program stored thereon, and communication method
JP2003324522A (en) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> Ip/pstn integrated control apparatus, communication method, program, and recording medium
JP2004021606A (en) * 2002-06-17 2004-01-22 Nec Corp Internet service providing system using virtual space providing server
WO2006042139A2 (en) * 2004-10-08 2006-04-20 Sonus Networks, Inc. Common telephony services to multiple devices associated with multiple networks
JP2006186893A (en) * 2004-12-28 2006-07-13 Matsushita Electric Ind Co Ltd Voice conversation control apparatus
WO2006080080A1 (en) * 2005-01-28 2006-08-03 Fujitsu Limited Telephone management system and telephone management method
US20070002835A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Edge-based communication

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015116308A (en) * 2013-12-18 2015-06-25 三菱電機株式会社 Gesture registration device
CN106464707A (en) * 2014-04-25 2017-02-22 诺基亚技术有限公司 Interaction between virtual reality entities and real entities
JP2017523816A (en) * 2014-04-25 2017-08-24 ノキア テクノロジーズ オサケユイチア Interaction between virtual reality entity and reality entity
US10916057B2 (en) 2014-09-11 2021-02-09 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a real world object in a virtual reality enviroment
JP2017528834A (en) * 2014-09-11 2017-09-28 ノキア テクノロジーズ オサケユイチア Method, apparatus and computer program for displaying images
US11646026B2 (en) 2016-05-06 2023-05-09 Sony Group Corporation Information processing system, and information processing method
US11074916B2 (en) 2016-05-06 2021-07-27 Sony Corporation Information processing system, and information processing method
US10559305B2 (en) 2016-05-06 2020-02-11 Sony Corporation Information processing system, and information processing method
US10777199B2 (en) 2016-05-06 2020-09-15 Sony Corporation Information processing system, and information processing method
JP6263252B1 (en) * 2016-12-06 2018-01-17 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
JP2018089227A (en) * 2016-12-06 2018-06-14 株式会社コロプラ Information processing method, device, and program for implementing that information processing method on computer
JP2023039987A (en) * 2018-05-24 2023-03-22 株式会社ユピテル System, program, and the like
JP7308573B2 (en) 2018-05-24 2023-07-14 株式会社ユピテル System and program etc.
JP2019130295A (en) * 2018-12-28 2019-08-08 ノキア テクノロジーズ オサケユイチア Interaction between virtual reality entities and real entities
JP7323315B2 (en) 2019-03-27 2023-08-08 株式会社コーエーテクモゲームス Information processing device, information processing method and program
JP2020146469A (en) * 2020-04-20 2020-09-17 株式会社トプコン Ophthalmologic examination system and ophthalmologic examination device
WO2023068067A1 (en) * 2021-10-18 2023-04-27 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023244073A1 (en) * 2022-06-17 2023-12-21 주식회사 메타캠프 Metaverse service device for multi-channel structure and channel synchronization, and driving method for device
WO2024004609A1 (en) * 2022-06-28 2024-01-04 ソニーグループ株式会社 Information processing device, information processing method, and recording medium

Also Published As

Publication number Publication date
EP2118757A1 (en) 2009-11-18
JP5756198B2 (en) 2015-07-29
JP2010535363A (en) 2010-11-18
EP2118757A4 (en) 2010-11-03
JP2010535362A (en) 2010-11-18
EP2126708A4 (en) 2010-11-17
EP2118840A4 (en) 2010-11-10
EP2126708A1 (en) 2009-12-02
JP2010535364A (en) 2010-11-18
EP2118840A1 (en) 2009-11-18
EP2132650A2 (en) 2009-12-16
WO2008108965A1 (en) 2008-09-12
JP2014149836A (en) 2014-08-21
EP2132650A4 (en) 2010-10-27

Similar Documents

Publication Publication Date Title
JP2010533006A (en) System and method for communicating with a virtual world
US8425322B2 (en) System and method for communicating with a virtual world
WO2008109299A2 (en) System and method for communicating with a virtual world
US10203838B2 (en) Avatar personalization in a virtual environment
US20170236330A1 (en) Novel dual hmd and vr device with novel control methods and software
JP4696184B1 (en) Image display system, image display apparatus, and image display method
EP3646149A1 (en) Providing living avatars within virtual meetings
JP2019510321A (en) Virtual reality pass-through camera user interface elements
JP6514397B1 (en) SYSTEM, PROGRAM, METHOD, AND INFORMATION PROCESSING APPARATUS
US20190005732A1 (en) Program for providing virtual space with head mount display, and method and information processing apparatus for executing the program
CN113518264A (en) Interaction method, device, terminal and storage medium
JP2021099825A (en) Program, method, and information processing device
JP2001160154A (en) Avatar display device in virtual space communication system, avatar displaying method and storage medium
WO2021257868A1 (en) Video chat with spatial interaction and eye contact recognition
JP2024023399A (en) Programs and information processing equipment
US20230308495A1 (en) Asymmetric Presentation of an Environment
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
CN113508354A (en) Representation of a display environment
CN112115398A (en) Virtual space providing system, virtual space providing method, and program
CN112717409B (en) Virtual vehicle control method, device, computer equipment and storage medium
JP7329209B1 (en) Information processing system, information processing method and computer program
JP7016438B1 (en) Information processing systems, information processing methods and computer programs
JP7379427B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
JP2023134045A (en) Communication apparatus, communication system, display method, and program
CN116954412A (en) Virtual character display method, device, equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111209

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20111209

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20120110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130122