JP2010535362A - 仮想世界のユーザの意見および反応のモニタリング - Google Patents

仮想世界のユーザの意見および反応のモニタリング Download PDF

Info

Publication number
JP2010535362A
JP2010535362A JP2009551722A JP2009551722A JP2010535362A JP 2010535362 A JP2010535362 A JP 2010535362A JP 2009551722 A JP2009551722 A JP 2009551722A JP 2009551722 A JP2009551722 A JP 2009551722A JP 2010535362 A JP2010535362 A JP 2010535362A
Authority
JP
Japan
Prior art keywords
user
computer
avatar
animated
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009551722A
Other languages
English (en)
Inventor
ハリソン フィル
エム. ザルースキ ゲイリー
Original Assignee
ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB0703974.6A external-priority patent/GB0703974D0/en
Priority claimed from GB0704235A external-priority patent/GB2447095B/en
Priority claimed from GB0704225A external-priority patent/GB2447094B/en
Priority claimed from GB0704246A external-priority patent/GB2447096B/en
Priority claimed from GB0704227A external-priority patent/GB2447020A/en
Priority claimed from US11/789,326 external-priority patent/US20080215975A1/en
Application filed by ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー, ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド filed Critical ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー
Publication of JP2010535362A publication Critical patent/JP2010535362A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/406Transmission via wireless network, e.g. pager or GSM
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5506Details of game data or player data management using advertisements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6072Methods for processing data by generating or executing the game program for sound processing of an input signal, e.g. pitch and rhythm extraction, voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/807Role playing or strategy games

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Position Input By Displaying (AREA)
  • Storage Device Security (AREA)

Abstract

ネットワークアプリケーションを実行するための方法およびシステムが提供される。前記ネットワークアプリケーションは、仮想環境をレンダリングするために定義され、前記仮想環境はコンピュータグラフィックによって表示される。前記方法は、アニメーション化されたユーザを生成するステップと、前記仮想環境内で前記アニメーション化されたユーザを制御するステップと、を有する。前記方法は、前記仮想環境内で広告オブジェクトを提示し、前記アニメーション化されたユーザが前記仮想環境での前記広告オブジェクトの1つを見ているかどうかを判定するために、前記アニメーション化されたユーザによるアクションを検出する。前記アニメーション化されたユーザが前記広告オブジェクトを見ている場合に、前記アニメーション化されたユーザによるリアクションがキャプチャされる。前記仮想環境内の前記アニメーション化されたユーザによる前記リアクションは、前記広告オブジェクトに関連するリアクションであり、前記仮想環境での前記広告オブジェクトの効果を決定するために第三者に提示される。更に、現実世界のユーザの実際のリアクション(例えば、身体のリアクション、聴取可能なリアクション、またはこの組み合わせ)が、キャプチャおよび分析されるか、前記アバターの反応の分析のためにキャプチャされ、前記アバターにマップされる。

Description

ビデオゲーム産業は、長年にわたって多くの変化を経験してきた。演算能力が拡大するにつれ、ビデオゲームの開発者も同様に、この演算能力の増大を利用するゲームソフトウェアを作成してきた。このために、ビデオゲームの開発者は、極めてリアルなゲーム体験を生み出すべく、高度な演算と数学を採用したゲームをコーディングしてきた。
ゲームプラットホームの例に、ソニープレイステーションまたはソニープレイステーション2(PS2)があり、これらはそれぞれ、ゲームコンソールの形で販売されている。周知のように、ゲームコンソールはモニタ(通常はテレビ)と接続されて、手持ち式のコントローラによってユーザとのインタラクションを可能にするように設計されている。
ゲームコンソールは、CPU、処理量の多いグラフィック操作のためのグラフィックシンセサイザ、ジオメトリ変換を実行するためのベクトル装置などの特化した処理ハードウェアと、その他の繋ぎとなるハードウェア即ちグルーハードウェア、ファームウェアおよびソフトウェアなどを備えて設計される。また、ゲームコンソールは、ゲームコンソールによるローカルプレイを行うためにゲームのコンパクトディスクを受け容れるための光ディスクトレイを備えて設計される。また、ユーザが、インターネット上で他のユーザと対戦して、または、他のユーザと一緒に対話的にプレイすることができるオンラインゲームも可能である。
ゲームの複雑さがプレーヤの興味を引き続けていることから、ゲームおよびハードウェアのメーカは更なるインタラクティブ機能(インタラクティビティ)およびコンピュータプログラムを実現するために革新を続けてきている。コンピュータプログラムの中には、仮想世界を定義するものもある。仮想世界とは、ユーザが1つ以上のコンピュータプロセッサを介してやり取りしうるシミュレートされた環境である。ユーザは、アバターと呼ばれる表現の形でビデオ画面に表示されうる。アバターとシミュレートされた環境間のインタラクションの程度は、シミュレートされた物理現象、ユーザの間での情報の交換などのインタラクションを支配する1つ以上のコンピュータアプリケーションによって実装される。仮想世界のユーザ間のインタラクションの性質は、多くの場合、仮想世界を実装しているシステムの制約によって制限される。
本発明の実施形態は、この状況においてなされたものである。
概して、本発明は、仮想世界を表現する、コンピュータによって生成されたグラフィックを提供することにより、これらのニーズを満たす。仮想世界は、現実世界のコンピュータのユーザのコントローラまたは制御入力を使用して、移動、訪問したり、これとインタラクトすることができる。本当のところ、現実世界のユーザがビデオゲームをプレイし、このゲームの中で、そのユーザが、仮想環境のアバター(例えば、仮想人物)を制御している。この環境では、現実世界のユーザは、アバターを動かしたり、ほかのアバターとの会話を始めたり、宣伝などのコンテンツの閲覧、コンテンツまたは宣伝に関するコメントまたはジェスチャを行うことができる。
一実施形態では、コンピュータによって生成された仮想世界環境においてアバターのインタラクティブな制御およびモニタリングを可能にするための方法が提供される。前記方法は、グラフィカルなアニメーション化された環境を生成するステップと、前記グラフィカルなアニメーション化された環境内に可視オブジェクトを提示するステップと、を有する。前記グラフィカルなアニメーション化された環境内でアバターを動かすステップを更に有し、前記動きは、前記アバターの視野を前記可視オブジェクトのほうに向けることを含む。前記アバターの前記視野が前記可視オブジェクトに向けられたときに前記アバターの反応が検出される。前記反応を記憶するステップを更に有し、前記反応が肯定的か否定的かを判定するために、前記反応が分析される。一例では、前記可視オブジェクトは広告である。
別の実施形態では、ネットワークアプリケーションを実行するための、コンピュータによって実装される方法が提供される。前記ネットワークアプリケーションは、仮想環境を描画するために定義され、前記仮想環境はコンピュータグラフィックによって表示される。前記方法は、アニメーション化されたユーザを生成するステップと、前記仮想環境内で前記アニメーション化されたユーザを制御するステップと、を有する。前記方法は、前記仮想環境内で広告オブジェクトを提示し、前記アニメーション化されたユーザが前記仮想環境での前記広告オブジェクトの1つを見ているかどうかを判定するために、前記アニメーション化されたユーザによるアクションを検出する。前記アニメーション化されたユーザが前記広告オブジェクトを見ている場合に、前記アニメーション化されたユーザによるリアクションがキャプチャされる。前記仮想環境内の前記アニメーション化されたユーザによる前記リアクションは、前記広告オブジェクトに関連するリアクションであり、前記仮想環境での前記広告オブジェクトの効果を決定するために第三者に提示される。
一実施形態では、ネットワークアプリケーションを実行するための、コンピュータによって実装される方法が提供される。前記ネットワークアプリケーションは、仮想環境を描画するために定義され、前記仮想環境はコンピュータグラフィックによって表示される。前記方法は、アニメーション化されたユーザを生成するステップと、前記仮想環境内で前記アニメーション化されたユーザを制御するステップと、を有する。前記方法は、前記仮想環境内で広告オブジェクトを提示し、前記アニメーション化されたユーザが前記仮想環境での前記広告オブジェクトの1つを見ているかどうかを判定するために、前記アニメーション化されたユーザによるアクションを検出する。前記アニメーション化されたユーザが前記広告オブジェクトを見ている場合に、前記アニメーション化されたユーザによるリアクションがキャプチャされる。前記仮想環境内の前記アニメーション化されたユーザによる前記リアクションは、前記広告オブジェクトに関連するリアクションであり、前記リアクションが肯定的か否定的かを判定するために第三者に提示される。
本発明の他の態様および利点は、例示のために本発明の原理を示す添付の図面と併せて、以下の詳細な説明を読めば明らかとなるであろう。
本発明とその更なる利点とは、添付の図面を参照して以下の記載を読めば、よりよく理解できるであろう。
本発明の一実施形態による仮想空間を示す概略説明図。 本発明の一実施形態による、椅子に座り、コントローラを持ち、ゲームコンソールと通信しているユーザを示す概略説明図。 本発明の一実施形態による、仮想空間のインタラクティビティが提供されているゲームのユーザに関連するアバターのロケーションプロファイルを示す概略説明図。 本発明の一実施形態による、仮想空間のインタラクティビティが提供されているゲームのユーザに関連するアバターのロケーションプロファイルを示す概略説明図。 本発明の一実施形態による、図1Aに関して説明した、フィードバックを生成するための現実世界のユーザのモニタリングを表す、より詳細な図を示す概略説明図。 本発明の一実施形態による、広告に対する現実世界のユーザの支持または不支持に応じて、アバターの反応を変えるために、現実世界のユーザがコントローラおよびコントローラのボタンを選択しうる例を示す概略説明図。 仮想空間内で特定の広告または物体または物を見たときに、アバターをボタンに反応させるために、ユーザによるコントローラの操作に応答してプログラムによって実行されうるオペレーションを示す概略説明図。 本発明の一実施形態による、アバターからの異なるフィードバックを表す、異なる選択を行わせるために、左肩ボタンおよび右肩ボタンから選択されうる他のコントローラボタンを示す概略説明図。 本発明の一実施形態による、アバターからの異なるフィードバックを表す異なる選択を行わせるために、左肩ボタンおよび右肩ボタンから選択されうる他のコントローラボタンを示す概略説明図。 本発明の一実施形態による、アバターからの異なるフィードバックを表す異なる選択を行わせるために、左肩ボタンおよび右肩ボタンから選択されうる他のコントローラボタンを示す概略説明図。 本発明の一実施形態による、仮想空間に複数の仮想世界のアバターが存在しうる実施形態を示す概略説明図。 本発明の一実施形態による、ユーザフィードバックをモニタする時点を決定するために使用されるフローチャート図を示す概略説明図。 本発明の一実施形態による、ユーザAが仮想空間を歩いており、アクティブ領域に入る例を示す概略説明図。 本発明の一実施形態による、アクティブ領域に入っているが、視野が画面上にないユーザAを示す概略説明図。 本発明の一実施形態による、ユーザAが、現在は、画面の一部に注目している例を示す概略説明図。 本発明の一実施形態による、ユーザが画面を完全に見ており、かつアクティブ領域内にいる例を示す概略説明図。 本発明の一実施形態による、仮想部屋内のユーザが、特定の広告に関して、好き嫌いの投票を求められうる実施形態を示す概略説明図。 本発明の一実施形態による、支持、不支持、好き嫌いなどを伝えるために、部屋の異なる部分に移動しているユーザを示す概略説明図。 本発明の一実施形態による、左手または右手を挙げることにより、YESまたはNOに投票しているユーザの例を示す概略説明図。 本発明の一実施形態による、アバター制御システムを実装するためのコントローラを有するコンソールであるソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスのシステムアーキテクチャ全体を模式的に示す概略説明図。 本発明の一実施形態によるセルプロセッサの概略図である。
仮想世界を表現する、コンピュータによって生成されたグラフィックの実施形態が提供される。仮想世界は、現実世界のコンピュータのユーザのコントローラまたは制御入力を使用して、移動、訪問したり、これとインタラクトすることができる。本当のところ、現実世界のユーザがビデオゲームをプレイし、このゲームの中で、そのユーザが、仮想環境のアバター(例えば、仮想人物)を制御している。この環境では、現実世界のユーザは、アバターの移動、ほかのアバターとの会話、宣伝などのコンテンツの閲覧、コンテンツまたは宣伝に関するコメントまたはジェスチャを行うことができる。
一実施形態では、仮想世界の物体に関するコメント、ジェスチャ、またはこれとのインタラクションを監視するために、プログラム命令および処理が実行される。別の実施形態では、ユーザから許可を得たときにモニタが行われ、この結果、ユーザは自身のアクションがトラッキングされるかどうかを管理できる。更に別の実施形態では、ユーザのアクションがトラッキングされる場合、ユーザへのデータの表示および表現が、ユーザの好き嫌いに合わせて更に調整されるため、仮想世界内でのユーザの体感が改善されうる。更に別の実施形態では、広告主は特定のユーザの好みを学習し、その広告主の広告が、特定のユーザまたはユーザタイプ(例えば、ティーンエイジャー、ヤングアダルト、子供(子供指定(kid-rated)環境を使用)、成人、および他の人口統計層、タイプまたは階級)のために調整されうる。
また、特定の広告に対するユーザの反応の情報が、広告主、ゲームの開発者、ロジックエンジンおよびサジェスチョンエンジンに直接提供されうる。このようにして、広告主は、顧客の好き嫌いにより適切に対応して、特定のユーザに提供する広告のタイプをより適切に設定でき、ゲーム/環境の開発者および所有者は、ユーザによる利用、ユーザによる選択、ユーザによる活動、ユーザによるリアクション、ユーザによる鑑賞(viewing)などに基づいて、広告主に正しい料金を請求することができる。
以下の説明では、本発明を完全に理解できるように、具体的な詳細を数多く記載する。しかし、これらの詳細な内容の一部または全てを用いなくとも本発明を実施しうることは当業者にとって自明である。場合によっては、本発明を不必要にわかりにくくしないように、公知のプロセス操作については詳しく記載しない。
本発明の一実施形態によれば、ユーザは、仮想世界とインタラクトしうる。本明細書で使用する「仮想世界」との用語は、実際のユーザが、1つ以上の表示装置を介して感知しうる、および/または1つ以上のユーザインタフェースを介してインタラクトしうる、1つ以上のプロセッサによってシミュレートされるインタラクションのルールを有する現実または架空の環境の表現を指す。本明細書で使用する「ユーザインタフェース」との用語は、ユーザが仮想世界との間で、入力を送信するか出力を受信することができる実際のデバイスを指す。仮想世界は、1つ以上のプロセッサモジュールによってシミュレートされうる。複数のプロセッサモジュールが、ネットワークを介して相互接続されうる。ユーザは、ネットワークを介して、プロセッサモジュールおよび他のユーザインタフェースデバイスと通信することができるユーザインタフェースデバイスを介して、仮想世界とインタラクトしうる。仮想世界の特定の特徴は、コンピュータモニタ、テレビジョンモニタまたは同様のディスプレイなどのグラフィックディスプレイに、グラフィカルな形式でユーザに提示されうる。仮想世界の他の特定の態様は、グラフィックディスプレイに関連しうるスピーカで可聴形式でユーザに提示されうる。
仮想世界内では、ユーザはアバターによって表現されうる。仮想世界内の各アバターは、異なるユーザに一意に関連付けられうる。任意選択で、ユーザが互いを容易に特定できるように、ユーザの名前または仮名がアバターの隣に表示されうる。特定のユーザの仮想世界とのインタラクションは、アバターの1つ以上の対応するアクションによって表現されうる。異なるユーザ同士が、パブリック空間において、自身のアバターを通じてインタラクトしうる。ユーザを表すアバターは、人物、動物または物体と同様の外観をとることができる。人物の形のアバターは、ユーザと性別が同じでも異なっていてもよい。アバターは、ユーザが、仮想世界のほかの物体と共にアバターを見ることができるように、ディスプレイに表示されうる。
別の実施形態では、ディスプレイが、アバターを表示せずに、アバターの視点から世界を表示してもよい。仮想世界上のユーザの(またはアバターの)視点は、仮想カメラの視界とみなすことができる。本明細書で使用する「仮想カメラ」とは、仮想世界内の視点を指し、仮想世界内で三次元シーンの二次元画像をレンダリングするために使用されうる。ユーザ同士が、各ロビーに関連するチャットチャネルによって、自身のアバターを通じてインタラクトしうる。ユーザは、ユーザインタフェースを介して、ほかのユーザとのチャットのためのテキストを入力しうる。このテキストは、例えば、漫画形式の吹き出し(時に「チャット吹き出し」とも呼ばれる)の形式で、ユーザアバターの上またはその隣に表示されうる。このようなチャットは、時に「クイックチャット」と呼ばれる定型表現のチャットシステムを使用して、容易に行うことができる。クイックチャットでは、ユーザは、メニューから1つ以上のチャット表現を選択しうる。
本発明の実施形態では、パブリック空間は、どのユーザまたはユーザのグループにも一意に関連しておらず、ユーザまたはユーザのグループが、ほかのユーザをパブリック空間から排除することができないという点でパブリックである。これに対し、各プライベート空間は、複数のユーザのうちの特定のユーザに関連している。プライベート空間は、プライベート空間に関連する特定のユーザが、ほかのユーザによるプライベート空間へのアクセスを制限してもよいという点で、プライベートである。プライベート空間は、なじみのある現実のプライベートな不動産の外観をとっていてもよい。
概念上の仮想空間でのユーザA102bのアバター表現の動きは、概念上の仮想空間のさまざまな空間に仮想的に入るために、ユーザが、ゲームコンソールのコントローラを動かし、アバターの移動をさまざまな方向に指示することによって指示されうる。詳細については、(1)2007年3月1日出願の英国特許出願第0703974.6号「エンターテイメントデバイス(ENTERTAINMENT DEVICE)」;(2)2007年3月5日出願の英国特許出願第0704225.2号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;(3)2007年3月5日出願の英国特許出願第0704235.1号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;(4)2007年3月5日出願の英国特許出願第0704227.8号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」;ならびに(5)2007年3月5日出願の英国特許出願第0704246.8号「エンターテイメントデバイスおよび方法(ENTERTAINMENT DEVICE AND METHOD)」が参照され、これらはそれぞれ参照によりここに援用される。
図1Aは、本発明の一実施形態による仮想空間100を示す。仮想空間100とは、アバターが歩き回ったり、集まったり、仮想空間のほかのアバターおよび/または物体とインタラクトすることが可能な場所である。アバターは、仮想世界のアニメーションキャラクタであり、インタラクティブゲームをプレイしうる現実世界のユーザを表すか、そのユーザと関連している。仮想空間100の中の選択された空間に存在しうる他のアバター(現実世界の他のユーザによって制御されているか、コンピュータによって生成されたアバターである)とのインタラクトできるように、インタラクティブゲームは、現実世界のユーザに、仮想空間100でそのユーザのアバターを移動させることを要求しうる。
図1Aに示す仮想空間100は、アバターのユーザA102bとユーザB104bを示す。ユーザA102bは、ユーザの視野102b’を有して示され、ユーザB104bは、ユーザBの視野104b’を有して示される。ここに示した例では、ユーザAとユーザBは、仮想空間100内にいて、広告に101に注目している。広告101は、特定の宣伝アイテム(例えば、製品、アイテム、物体または製品またはサービスのその他の画像)を見せているモデル人物を含み、アニメーションビデオ、静止画またはその組み合わせで宣伝している物を表示している。この例では、広告101は、仮想空間100を歩き回るかまたは移動しているユーザを引きつけるように、モデル101aのセクシーなモデルを描画しうる。また、アバターユーザを引きつけるための、広告で一般に行われているほかのテクニックも、この実施形態の一部として含まれてもよい。
更に、モデル101aはアニメーション表示され、仮想空間100内の画面を動き回ったり、仮想画面から跳び出して、アバターに合流してもよい。モデル101aが広告を動き回ると、ユーザAとユーザBは、この特定の広告101を目で追っているように表示される。仮想空間100内のユーザが見ている場所、広告101を見ている時間の長さ、その間のジェスチャなどを決定するように、ユーザ(アバター)のそれぞれの視野が、コンピューティングシステムによって実行されているプログラムによってトラッキングされうる。オペレーション106が示されており、このオペレーションで、ユーザ(例えば、アバター)が、ユーザA102bとユーザB104bを定義するアバターを介して、広告を見ているかどうかを判定するための処理が実行される。オペレーション108は、現実世界のユーザのフィードバック108aを検出および監視し、ユーザによって制御されているアバターのフィードバック108bを監視するために実行される処理を示す。
更に、現実世界のユーザは、ユーザによるサムアップまたはユーザによるサムダウン108cを使用して、グラフィカルな形式でユーザの支持または不支持をグラフィカルに示すために、コントローラの特定のキーを選択しうる。ゲームをプレイしている現実世界のユーザ102aの現実世界の反応は、多くの方法で監視することができる。現実世界のユーザは、ディスプレイ画面を見ながら、コントローラを持っている。ディスプレイ画面は、2つの表示を提供することができる。
一方の表示は、ユーザアバターおよびアバターの視野の観点からの表示であり、もう一方の表示は、アバターの遠景、いわゆるパースペクティブからの表示であり、現実世界のユーザがアバターの背後に浮かんでいるような(例えばアバターの背後からアバターを眺めたような)表示である。
一実施形態では、現実世界のユーザは、顔をしかめたり、興奮したり、表情を作ると、そのユーザのジェスチャ、コメントおよび/または表情が、現実世界のシステムの一部であるカメラによってトラッキングされうる。現実世界のシステムは、コンピューティングデバイス(例えば、ゲームコンソールまたは汎用コンピュータなど)と、ゲームコンソールとインタフェースされているカメラとに接続されうる。現実世界の環境のカメラは、ゲームに対するユーザのリアクション、あるいは現実世界のユーザによって制御されているアバターが見ているコンテンツに基づいて、体験中の現実世界のユーザの102aの表情、音声、しかめ面または一般的な興奮または落ち着きをトラッキングする。この体験は、仮想空間100を動き回っており、現実世界のユーザが見ているアバターの体験である。
この実施形態では、現実世界とアバターの反応を収集するためのプロセスが実行されうる。現実世界のユーザ102aがジェスチャを行い、これがカメラによって認識されると、そのジェスチャがアバターの顔にマップされる。したがって、現実世界のユーザの表情、動きおよびアクション(トラッキングされる場合)が解釈されて、アバターの特定の特徴に割り当てられうる。現実世界のユーザが笑うとアバターが笑い、現実世界のユーザがジャンプするとアバターがジャンプし、現実世界のユーザが怒るとアバターが怒り、現実世界のユーザが体の一部を動かすと、アバターが体の一部を動かす。この実施形態では、ユーザがコントローラとインタフェースしている必要はなく、現実世界のユーザは、動いたり反応したりなどするだけで、アバターが仮想空間を動き回るときに、アバターに同じことをさせることができる。
別の実施形態では、モニタリングが、ユーザによって制御されたアバターフィードバック108bで行われてもよい。この実施形態では、仮想空間100を動き回ったり移動しているときに、現実世界のユーザが、特定の広告、物体または知覚反応を楽しんでいるかいないかに応じて、現実世界のユーザが、コントローラの特定のボタンを選択して、アバターに反応を表示させようと決めることができる。108bに示すように、現実世界のユーザは、ボタンを選択して、アバターを笑わせたり、顔をしかめさせたり、うんざりさせたり、あるいは、顔の反応および/または体の反応を一般的に起こさせうる。オペレーション110において、アバターが作り出す顔の反応および/または体の反応、あるいは現実世界のユーザのキャプチャされた現実世界の反応に応じて、この情報が、分析のためにフィードバックされうる。一実施形態では、ユーザは、ユーザの反応のモニタに同意するように求められ、モニタが行われる場合は、プログラムおよびコンピューティングシステムが、特定のユーザまたはユーザのタイプの好き嫌いなどに合わせた環境を提供することができるため、ユーザの体感が改善されうる。
一実施形態では、この分析は、コンピューティングシステム(例えば、ネットワークに接続されているか、ローカルまたはインターネットを介している)によって実行され、ユーザが選択したボタン、およびアバターの視覚的な反応、あるいは現実世界のカメラまたはマイクロフォンによってキャプチャされたユーザの反応を決定することができるソフトウェアによって制御される。したがって、アバターが、仮想空間100で特定の広告の前でかなりの時間を過ごした場合、アバター(現実世界のユーザによって制御される)が費やした時間と、仮想空間内でアバターによってキャプチャされた視野がトラッキングされる。このトラッキングにより、仮想空間100内で提供されうる特定の広告、物体、動画または静止画に対するユーザの反応に関する情報を得ることができる。このトラッキング中の情報が記憶されて編成され、後からデータ解析のためにこのデータベースにアクセスすることができるようになる。オペレーション112は、任意選択のオペレーションであり、オペレーション110においてフィードバックから取得される分析に加えて、コンピューティングシステムによって利用されるプロファイル分析を可能にする。
プロファイル分析112は、コンピューティングシステムが、仮想空間100を訪れうる特定のユーザの、予め定義された好き嫌い、地理的位置、言語、およびその他の属性を決定できるようにするオペレーションである。このようにして、アバターが見ている内容、アバターのリアクションおよびフィードバックのモニタに加えて、データマイニングを行なうことができるように、この追加情報が、プロファイルされデータベースに記憶され、コンテンツを見ている特定のアバターに関連付けられうる。
例えば、仮想空間内の特定の広告を、15〜29歳のユーザしか見ていない場合には、この情報は、特定の広告の年齢の人口統計として有用であり、このため、広告主は、特定の空間を訪れる特定の年齢層に広告を強化するために、広告を作り直すことができる。ほかの人口統計およびプロファイルの情報も、当該タイプの空間を訪れているユーザに応じて、仮想空間で広告を適切に調整するうえで有用でありうる。このため、分析されたフィードバック110と、およびオペレーション112のプロファイル分析(任意選択)に基づき、114において、収集された情報が仮想空間の広告主および事業者に提供されうる。
図1Bは、本発明の一実施形態による、椅子に座り、コントローラを持ち、ゲームコンソールと通信しているユーザ102aを示す。現実世界のユーザであるユーザ102aは、モニタと、モニタに表示される画像との表示を、2つのモードから選択することができる。一方のモードは現実世界のユーザの視点からのモードであり、アバターであるユーザA102bの背後後ろを表示する。ユーザA102bのアバターは視野102b’を有し、ユーザBは視野104b’を有する。
現実世界のユーザであるユーザ102aが、仮想ユーザ(すなわちアバター)の視点から表示させたいと望む場合、表示が、アバター102bの視野102b’内にあるものを示すクローズアップ表示となる。このため、画面101は、モデル101aが拡大され、現実世界のユーザによって制御されているアバターの目からの眺めをよりはっきりと示す。現実世界のユーザは、モードA(アバターの背後から)とモードB(仮想ユーザアバターの目から)を切り替えることができる。いずれの実施形態においても、現実世界のユーザによって制御されているアバターのジェスチャのほか、仮想空間100の内のアバターの視野および目/頭の位置がトラッキングされる。
図1Cは、仮想空間のインタラクティビティが提供されるゲームのユーザに関連するアバターのロケーションプロファイルを示す。ユーザがインタラクトを望む場所を絞るために、選択メニューが提示され、これにより、ユーザは、ユーザの興味ならびにユーザが利用できる場所および空間のタイプをより適切に定義するプロファイルを選択することができる。例えば、ロケーションメニュー116がユーザに提示されうる。ロケーションメニュー116には、アルファベット順に分類された国の一覧が提示されうる。
次に、ユーザが、日本などの特定の国を選択すると、ロケーションサブメニュー118がユーザに提示される。ロケーションサブメニュー118は、選択したロケーションに応じて、州118a、省118b、区118cまたは県118dを定義するようにユーザに求めうる。選択された国が日本の場合、日本は県118dに分割されており、日本国内の行政区画(state)のタイプである。次に、ユーザに対して、市120の選択が提示される。
ユーザが、県から特定の市(例えば日本、東京)を選択すると、ユーザに対し、ユーザに該当しうる場所と仮想空間を絞り込むための更に別のメニューが提示される。図1Dは、ユーザと、仮想空間内のユーザを表現するアバターのパーソナルプロファイルを示す。この例では、パーソナルプロファイルメニュー122が提示される。パーソナルプロファイルメニュー122は、ユーザによって定義されるパーソナルプロファイルに関連する社会的定義のタイプに基づいて、ユーザが選択する複数の選択肢の一覧を示す。例えば、社会的プロファイルには、スポーツチーム、プレイするスポーツ、娯楽、および社会的選択基準に含まれる他のサブカテゴリなどが含まれうる。更に、ユーザがプロの男子のスポーツチームを選択したときに選択されるサブメニュー124が図示され、モータースポーツの更に別の側面を定義しうる更に別のサブメニュー126が表示されうる。
更に、ユーザが、宗教、性的嗜好または政治的嗜好を選択できる例も図示されている。パーソナルプロファイルメニュー122に示されている例は例示に過ぎず、プロファイル選択メニューの内容の細かさと種類の多さは、図1Cのロケーションメニュー116、サブメニュー118および市セレクタ120を使用してユーザに選択された国に応じて変わりうることを理解すべきである。一実施形態では、ユーザによって定義されたロケーションプロファイルに基づいて、特定のカテゴリが一部しか埋まらないこともあれば、完全に埋まることもある。例えば、ロケーションに日本が選択された場合、米国のメジャーリーグ(MLB(登録商標))チームではなく、スポーツのセクションに、日本のリーグに属するチーム(例えば、日本野球連盟)を含む複数の野球チームが読み込まれうる。
同様に、地方の宗教、政治、政治家などの他のカテゴリも、図1Cでユーザが前に行った位置選択に基づいて、パーソナルプロファイル選択メニュー122に部分的に作成されうる。したがって、パーソナルプロファイルメニュー122は、ユーザが地球上でいる場所に関するユーザの選択を具体的に引用して生成され、ユーザに表示される動的なメニューである。アバターの選択が、図1Cのロケーションプロファイルおよび図1Dのパーソナルプロファイルで行われると、自身のアバターを制御しているユーザは、仮想世界を歩き回ったり、訪問したり、侵入したり、物体および人とインタラクトすることができる。仮想世界でも、現実世界の場所に相当する場所を訪問するほか、空想の世界のカテゴリも訪問することも可能である。このため、プロファイルと選択は、どのような形式、タイプ、世界または好みに対するものであってもよく、プロファイルセレクタの例は、プロファイルまたは選択の可能性を制限するものではない。
図2は、図1Aの108aに関して説明した、フィードバックを生成するための現実世界のユーザのモニタリングを示すより詳細な図を示す。現実世界のユーザ102aは、コントローラ208を持ち、椅子に座っている。コントローラ208は、コンピューティングデバイスに無線または有線で接続されうる。コンピューティングデバイスは、ゲームコンソール200でも汎用コンピュータでもよい。コンソール200は、ネットワークに接続することができる。ネットワークは、処理の一部または全てを、ネットワーク上で動作されているプログラムによって実行可能にするワイドエリアネットワーク(またはインターネット)であってもよい。
一実施形態では、1台以上のサーバが、ネットワーク接続されたコンピュータで実行される処理に基づいて、物体、ユーザ、アニメーション、音声、シェーディング、テクスチャおよびユーザから送られたその他のリアクションまたはキャプチャ内容をレンダリングするゲームプログラムを実行する。この例では、ユーザ102aが、コントローラ208を持っており、オペレーション214においてコントローラボタンの動きがキャプチャされる。コントローラ208の動き、コントローラ208のボタン、およびコントローラ208の6軸次元の回転をキャプチャするために、腕と手の動きおよびボタンの動きがキャプチャされる。6軸の位置のモニタリングの例は、慣性モニタを使用して行われうる。更に、コントローラ208は、マイクロフォン202によって音声に関し、あるいはカメラ204によって位置、照明または他の入力フィードバックによりキャプチャされうる。ディスプレイ206は、仮想世界と仮想世界のシーンを動いている仮想ユーザアバターを示す表示を、ユーザ102aによって制御されるようにレンダリングする。オペレーション212は、ユーザ102aによる特定の単語に対して処理された音声をキャプチャするように構成されている。
例えば、制御されているアバターが仮想空間100を動いている間に、ユーザ102aが、興奮するか、悲しくなるか、または特定のジェスチャを発した場合に、マイクロフォン202はこの情報をキャプチャするように構成されており、特定の単語または情報を特定するために音声が処理される。特定の空間での発言内容を決定するために、(ユーザがキャプチャすることを許可した場合は)音声認識も実行されうる。説明したように、カメラ204は、ユーザ102aによるジェスチャ、コントローラ208による動き、ユーザ102aによる表情、および一般的なフィードバックの興奮または落ち着きをキャプチャする。
次に、オペレーション210において、カメラ204は、表情、ボディーランゲージおよび他の情報のキャプチャを行う。図1Aを参照して説明したように、オペレーション210、212および214においてキャプチャされたこの情報は全て、分析110のためのフィードバックとして提供されうる。オペレーション218において、集約ユーザ意見が処理され、このオペレーションは、仮想空間を移動し、入る仮想空間内で各種広告を見る全ユーザについて集約した反応をまとめ、区分する。次に、この情報が解析され、オペレーション220において、仮想空間の広告主および事業者に提供されうる。
この情報は、誰が広告を見たか、広告を見た時間の長さ、広告の前で行なったジェスチャ、広告について行なったジェスチャに関し、広告主に指針を提供すると共に、仮想空間の事業者にも、特定のユーザが見た広告の人気などに応じて、仮想空間内で広告に対して請求可能な料金に関する指標を提供する。
図3Aは、現実世界のユーザの広告100に対する支持または不支持に応じて、アバターの反応300を変えるために、現実世界のユーザがコントローラ208およびコントローラのボタン208を選択しうる例を示す。このため、アバターが広告100を見ているかどうかと、アバターが広告100に注目したときにコントローラ208で選択された特定のボタンとに応じて、ユーザによって制御されたアバターフィードバックがモニタされる。この例では、コントローラ208を使用している現実世界のユーザ(図示なし)がR1を選択し、この結果、ユーザのアバターのアバター反応300が笑い(あはは!)となる。
図に示すように、左肩ボタン208aおよび右肩ボタン208bなどの他のコントローラボタンも、同様のアバターの制御に使用することができる。例えば、ユーザは、微笑ませるのにL2、しかめ面をさせるのにL1、呆れ顔をさせるのにR2を選択する、ほかのアバター反応300を行わせるために、他のボタンを選択することができる。図3Bは、仮想空間内で特定の広告100または物体または物を見たときに、アバターをボタンに反応させるために、ユーザによるコントローラ208の操作に応答してプログラムによって実行されうるオペレーションを示す。オペレーション302は、プレーヤがアバターの表情を変更できるように、アバターの顔の反応にマップされるボタンを定義する。
コントローラにある各種ボタンを、異なる反応にマップでき、ユーザのボタンの好みによって、あるいはユーザの好みに応じて、特定のボタンとアバターによる特定の反応を変更することができる。オペレーション304は、プレーヤ(またはユーザ)が特定の広告を見て、ユーザがその特定の広告を見ているとコンピューティングデバイスが認識する時点の検出を定義する。上で説明したように、アバターは視野を有しており、その視野が、アバターが仮想空間内で見ている場所に応じてモニタされうる。
コンピューティングシステム(およびコンピュータシステムを制御しているコンピュータプログラム)は、仮想空間内でアバターの視野を常にモニタしているため、アバターが特定の広告を見ている時点を決定することが可能である。顔の反応をモニタされる特定の広告をユーザが見ている場合、オペレーション306はアバターの表情の変化に対して、アバターのモニタリングを定義する。ユーザが、アバターを特定の広告で笑わせるように選択した場合、この情報がコンピューティングシステムによって取得され、特定のアバターが特定の広告にどう反応したかを定義するために記憶される。
このため、オペレーション307および308は、あらゆる変化および表情を決定するために常に分析され、この情報が分析のためにフィードバックされる。この表情全てに実行される分析は、オフラインで実行されてもリアルタイムに実行されてもよい。次に、この情報が、システムに送り返され、特定の広告主に生成され、データマイニングを行ったり、仮想空間での成果に応じて特定の広告の作り直しをできるようになる。
図4Aは、アバターからの異なるフィードバックを表す、異なる選択を行わせるために、左肩ボタン208aおよび右肩ボタン208bから選択されうる他のコントローラ208ボタンを示す。例えば、ユーザは、さまざまなせりふをスクロールさせ、次にR1ボタンを押して、希望のせりふを選択することができる。ユーザは、特定の顔文字を選択するためにさまざまな顔文字を移動し、次にボタンR2を選択することもできる。
また、ユーザは、さまざまなジェスチャを選択して、次にL1を使用して特定のジェスチャを選択したり、異なるアニメーションを選択して、次にボタンL2を選択することもできる。図4Bは、現実世界のユーザによって制御されているアバターを示し、現実世界のユーザは、「カッコイイ」というせりふを選択し、次にR1ボタンを選択する。また、現実世界のユーザは、せりふと一緒に顔文字を提示するために、R1ボタンのほかにボタンR2も選択することもできる。この結果、アバターが微笑んで「カッコイイ」と言う。アバターの「カッコイイ」のせりふが、吹き出しを使用して表示されるか、またはコンピュータによって音声出力で出力されうる。図4Cは、現実世界のユーザが、「別に」を選択するためにR1ボタンを選択すると共に、手のジェスチャを示すためにL1ボタンを選択したときのアバター400aを示す。この結果、アバターが吹き出しで「別に」というせりふを言い、手を動かして「別に」の表現を伝えるアバター400bおよび400cが表示される。「別に(MEH)」という表現は、無関心または興味のないことを示す表現である。
このため、アバターが、仮想空間の中で特定の広告を見ており、コンテンツを支持しないか、基本的にこれに無関心の場合、アバターは、「別に」と言い、手のジェスチャを伝えうる。ユーザが特定の広告を見ている場合、これらの表現のそれぞれが、せりふ、顔文字、ジェスチャ、アニメーションなどを問わずにトラッキングされ、広告主または仮想世界のクリエータまたは事業者にデータを提供できるように、このような情報がキャプチャされる。
図5は、仮想空間500に複数の仮想世界のアバターが存在しうる実施形態を示す。仮想世界のアバターのそれぞれは、自身の特定の視野を有しており、アバターが見ている内容がシステムによってトラッキングされる。アバター同士でディスカッションをしているように示される場合、その情報がトラッキングされ、アバターが、仮想空間内に提示されうる特定の広告、物体、絵、予告またはデジタルデータを見ていないことが示される。
一実施形態では、複数のアバターが、シアター内で動画を見て示されている。一部のアバターは動画を見ておらず、このため、表情を決定するためのトラッキングが行われない。アバターを制御しているユーザは、次にこの空間を動き、場所に入って、そこで、特定の広告を見ることもあれば、見ないこともある。したがって、見ている人の動き、移動、視野およびインタラクションがモニタされ、ユーザが自発的に広告、物体を見ているか、互いに交流しているかが決定される。
図6は、ユーザフィードバックをモニタする時点を決定するために使用されるフローチャート図を示す。仮想空間では、アクティブ領域を定義する必要がある。アクティブ領域は、アバターのフィードバックがモニタされる領域であると定義することができる。アクティブ領域は、広告のサイズ、広告の配置に基づいてサイズが設定され、アクティブ領域は重ねるなどが可能である。アバターの視野に対してアクティブ領域がモニタされると、アバターが広告を見た時間の長さ、広告の前の特定の領域で過ごした時間、および広告を見ているときにアバターが行ったジェスチャに関して、アバターの鑑賞が記録されうる。
オペレーション600は、アバターユーザがアクティブ領域の内と外のいずれにいるかが判定される判定を示す。ユーザがアクティブ領域にいない場合、オペレーション602が実行され、アバターのトラッキングが行われない。ユーザがアクティブ領域内にいる場合、オペレーション604において、ユーザの視野が、空間内の広告に注目しているかどうかを判定するために、そのアバターユーザがトラッキングされる。オペレーション604において、ユーザが、トラッキング対象のどの広告または物体にも注目していない場合、方法はオペレーション608に移る。
オペレーション608において、システムはユーザの視野をモニタし続ける。方法は、オペレーション610に常に移動し、ユーザの視野が広告の上にあるかどうかが判定される。ユーザの視野が広告の上にない場合、方法はオペレーション608に戻る。このループは、オペレーション610において、ユーザが広告を見ており、ユーザがアクティブ領域内にいると判定されるまで続く。この時点で、アバターがアクティブ領域内にいて、アバターの視野が広告にある場合、オペレーション606はアバターのフィードバックキャプチャをモニタする。
図7Aは、ユーザA704が仮想空間を歩いており、アクティブ領域700に入る例を示す。アクティブ領域700は、特定の部屋、部屋の中の場所または仮想空間内の特定の空間などである。図に示すように、ユーザA704は、3人のアバターユーザが画面または広告702を見ているアクティブ領域700のほうに歩いている。既に3人のユーザが画面702を見ている状態は、この3人のユーザが既にアクティブ領域700にいて、その視野が、サービスまたは製品の興味をそそる広告を流している画面に注目しているため、他のユーザを引きつける。
図7Bは、アクティブ領域700に入っているが、視野706が画面702上にないユーザA704を示す。このため、アバター704が、広告が流され、ユーザの表現のユーザフィードバックが求められる画面702に注目していないため、システムは、アバター704による表情または身体表現または言語表現をモニタしない。
図7Cは、ユーザA704が、現在は、画面710の一部に注目している例を示す。視野706から、ユーザA704の視野が、画面702の半分のみにあることがわかる。広告のコンテンツが領域710に存在する場合、ユーザA704が行う表情およびフィードバックがキャプチャされる。しかし、広告コンテンツが、ユーザの視野がない画面の領域702にある場合、ユーザの表情およびフィードバックはモニタされない。
図7Dは、ユーザ704が画面702を完全に見ており、かつアクティブ領域700内にいる例を示す。このため、システムはユーザAからのフィードバックをモニタし続け、ユーザAがアクティブ領域から出た場合にのみ、ユーザAのフィードバックのモニタを中止する。別の実施形態では、特定の広告の画面702での表示が終了するか、そのセッションが終了すると、フィードバックをモニタするためのユーザAのフィードバックが中止される。
図8Aは、仮想部屋内のユーザが、特定の広告101に関して、好き嫌いの投票を求められうる実施形態を示す。この例では、ユーザ102bおよび104bが、YES領域またはNO領域の上に移動しうる。現在、ユーザ102b’はYESの上に、ユーザ104b’はNOの上に立っている。支持、不支持、好き嫌いなどを示すために、ユーザは、シーン内の異なる位置に移動するだけでよいため、このフィードバックがモニタされ、および容易にキャプチャされる。同様に、図8Bは、支持、不支持、好き嫌いなどを伝えるために、部屋の異なる部分に移動しているユーザを示す。図に示すように、既にユーザ800および802が部屋のYESサイドに、ユーザ804および806が部屋のNOサイドにいる。ユーザ808は気が変わったか、あるいは、単に部屋のYESサイドに移動しているように示されている。図8Cは、左手または右手を挙げることにより、YESまたはNOに投票しているユーザ800〜808の例を示す。適切なコントローラボタン(例えば、L1、R1など)を選択するだけで、ユーザアバターの体の右手または左手を動かすことができる。
一実施形態では、仮想世界プログラムは、インターネットに接続されたサーバで一部実行され、ローカルコンピュータ(ゲームコンソール、デスクトップコンピュータ、ラップトップコンピュータまたは無線携帯装置など)で一部実行されてもよい。更に、実行が、リモートサーバまたは処理装置で完全に行われ、この処理装置が、ローカルのディスプレイ画面に実行結果を提供してもよい。この場合、ローカルのディスプレイまたはシステムは、ネットワーク(インターネットなど)を介してデータを受け取り、グラフィックデータを画面に表現するための最小限の処理機能を備える必要がある。
図9は、本発明の一実施形態による、アバター制御システムを実装するためのコントローラを有するコンソールであるソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスのシステムアーキテクチャ全体を模式的に示す。システムユニット900は、システムユニット900に接続可能なさまざまな周辺機器を備える。システムユニット900は、Cellプロセッサ928、Rambus(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット926、専用のビデオランダムアクセスメモリ(VRAM)ユニット932を有するReality Synthesizerグラフィックユニット930、およびI/Oブリッジ934を備える。また、システムユニット900は、I/Oブリッジ934を介してアクセス可能な、ディスク940aおよび着脱可能なスロットインハードディスクドライブ(HDD)936から読み出すためのブルーレイ(登録商標)ディスクBD−ROM(登録商標)光ディスクリーダ940も備える。任意選択で、システムユニット900は、同様にI/Oブリッジ934を介してアクセス可能な、コンパクトフラッシュメモリカード、メモリースティック(登録商標)メモリカードなどを読み出すためのメモリカードリーダ938も備える。
また、I/Oブリッジ934は、6つのユニバーサルシリアルバス(USB)2.0ポート924、ギガビットイーサネットポート922、IEEE 802.11b/g無線ネットワーク(Wi−Fi)ポート920、および最大7つのブルートゥース接続に対応可能なブルートゥース(登録商標)無線リンクポート918にも接続している。
動作時に、I/Oブリッジ934は、1つ以上のゲームコントローラ902からのデータを含む、全ての無線、USB、およびイーサネットのデータを処理する。例えば、ユーザがゲームをプレイ中に、I/Oブリッジ934はブルートゥースリンクを介してゲームコントローラ902からデータを受信して、これをCellプロセッサ928に転送し、Cellプロセッサ928が適宜ゲームの現在の状態を更新する。
また、無線、USB、およびイーサネットの各ポートを介して、ゲームコントローラ902のほかに、他の周辺機器も接続することが可能となる。このような周辺機器には、例えば、リモコン904、キーボード906、マウス908、ソニープレイステーションポータブル(登録商標)エンターテイメントデバイスなどのポータブルエンターテイメントデバイス910、EyeToy(登録商標)ビデオカメラ912などのビデオカメラ、マイクロフォンヘッドセット914などがある。このため、これらの周辺機器は、原則としてシステムユニット900に無線で接続されうる。例えば、ポータブルエンターテイメントデバイス910はWi−Fiアドホック接続を介して通信し、マイクロフォンヘッドセット914はブルートゥースリンクを介して通信しうる。
これらのインタフェースを提供することにより、プレイステーション3デバイスは、デジタルビデオレコーダ(DVR)、セットトップボックス、デジタルカメラ、ポータブルメディアプレーヤ、VoIP電話、携帯電話、プリンタ、およびスキャナなどの他の周辺機器と場合によっては互換となりうる。
更に、USBポート924を介して旧式メモリカードリーダ916をシステムユニットに接続することができ、プレイステーション(登録商標)デバイスまたはプレイステーション2(登録商標)で用いられていたタイプのメモリカード948の読み出しが可能となる。
本実施形態では、ゲームコントローラ902は、ブルートゥースリンクを介してシステムユニット900と無線通信するように動作可能である。しかし、その代わりに、ゲームコントローラ902が、USBポートに接続されてもよく、これにより、ゲームコントローラ902のバッテリに充電するための電力も供給する。ゲームコントローラは、1つ以上のアナログジョイスティックおよび従来の制御ボタンを有するほか、各軸の並進運動および回転に対応する6自由度の移動を感知する。したがって、従来のボタンまたはジョイスティックコマンドのほかに、またはこれらの代わりに、ゲームコントローラのユーザが行ったジェスチャおよび移動が、ゲームへの入力として変換されうる。任意選択で、プレイステーションポータブルデバイスなどの他の無線対応の周辺機器をコントローラとして使用することができる。プレイステーションポータブルデバイスの場合、追加のゲーム情報または制御情報(例えば制御命令またはライブの数)が、当該デバイスの画面に提示されうる。ほかの代替的または補助的な制御装置が使用されてもよく、これには、ダンスマット(図示せず)、ライトガン(図示せず)、ハンドルおよびペダル(図示せず)、あるいは、即答クイズゲームのための1つまたは複数の大型のボタン(これも図示なし)などの特注品のコントローラなどがある。
また、リモコン904も、ブルートゥースリンクを介してシステムユニット900と無線通信するように動作可能である。リモコン904は、ブルーレイディスクBD−ROMリーダ940の操作、およびディスクの内容の閲覧のために適した制御を備える。
ブルーレイディスクBD−ROMリーダ940は、従来の記録済みCD、記録可能CD、およびいわゆるスーパーオーディオCDのほか、プレイステーションデバイスおよびプレイステーション2デバイスと互換のCD−ROMを読み出すように動作可能である。また、リーダ940は、従来の記録済みDVDおよび記録可能DVDのほか、プレイステーション2デバイスおよびプレイステーション3デバイスと互換のDVD−ROMを読み出すように動作可能である。更に、リーダ940は、従来の記録済みブルーレイディスクおよび記録可能ブルーレイディスクのほか、プレイステーション3デバイスと互換のBD−ROMを読み出すように動作可能である。
システムユニット900は、Reality Synthesizerグラフィックユニット930を介して、プレイステーション3デバイスによって生成またはデコードされた音声およびビデオを、音声コネクタおよびビデオコネクタ経由で、ディスプレイ944および1つ以上のスピーカ946を備えた表示および音声出力装置942(モニタまたはテレビ受像機など)に提供するように動作可能である。音声コネクタ950は、従来のアナログ出力およびデジタル出力を備える一方、ビデオコネクタ952は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、および1つ以上の高品位マルチメディアインタフェース(HDMI)の出力などを種々備えうる。したがって、ビデオ出力は、PALまたはNTSC、あるいは720p、1080iまたは1080pの高解像度などのフォーマットであってもよい。
音声処理(生成、デコードなど)はCellプロセッサ928によって実行される。プレイステーション3デバイスのオペレーティングシステムは、ドルビー(登録商標)5.1サラウンドサウンド、ドルビー(登録商標)シアターサラウンド(DTS)、およびブルーレイ(登録商標)ディスクからの7.1サラウンドサウンドのデコードに対応している。
本実施形態では、ビデオカメラ912は、1つの電荷結合素子(CCD)、LEDインジケータ、およびハードウェアベースのリアルタイムデータ圧縮およびエンコード装置を備え、圧縮ビデオデータが、システムユニット900によるデコードのために、イントラ画像ベースのMPEG(motion picture expert group)標準などの適切なフォーマットで送信されるようになる。カメラのLEDインジケータは、例えば不利な照明条件を示す適切な制御データをシステムユニット900から受け取ると、発光するように配置されている。ビデオカメラ912の実施形態は、USB、ブルートゥースまたはWi−Fiの通信ポートを介して、システムユニット900にさまざまな方法で接続しうる。ビデオカメラの実施形態は、1つ以上の関連するマイクロフォンを備えており、音声データを送信することができる。ビデオカメラの実施形態では、CCDは、高解像度のビデオキャプチャに適した分解能を備えうる。使用時に、ビデオカメラによってキャプチャされた画像が、例えば、ゲーム内に取り込まれるか、またはゲームの制御入力として解釈されうる。
一般に、システムユニット900の通信ポートの1つを介して、ビデオカメラまたはリモコン等などの周辺機器とのデータ通信がうまく行われるように、デバイスドライバ等の適切なソフトウェアを提供する必要がある。デバイスドライバ技術は公知であり、ここで詳細に説明しないが、デバイスドライバまたは同様のソフトウェアインタフェースが、記載する本実施形態で必要とされうることを当業者は理解するであろう。
図10は、本発明の一実施形態によるCellプロセッサ928の概略図である。Cellプロセッサ928は、メモリコントローラ1060およびデュアルバスインタフェースコントローラ1070A,Bを含む外部入出力構造、パワープロセッシングエレメント1050と呼ばれるメインプロセッサ、シナジスティックプロセッシングエレメント(SPE)1010A〜Hと呼ばれる8基のコプロセッサ、エレメント相互接続バス1080と呼ばれる上記のコンポーネントに接続している環状データバス、の4つの基本コンポーネントを備えたアーキテクチャを有する。プレイステーション2デバイスのエモーションエンジンは6.2ギガフロップスであるのに対し、Cellプロセッサの総浮動小数点演算性能は、218ギガフロップスである。
パワープロセッシングエレメント(PPE)1050は、3.2GHzの内部クロックで動作し、双方向同時マルチスレッディングPower970準拠のPowerPCコア(PPU)1055をベースにしている。PPE1050は、512kBのレベル2(L2)キャッシュと、32kBのレベル1(L1)キャッシュとを備える。PPE1050は、クロックサイクルごとに8つの単一位置(single position)操作ができ、これは、3.2GHzで25.6ギガフロップスに相当する。PPE1050の主な役割は、演算作業負荷の大部分を処理するシナジスティックプロセッシングエレメント1010A〜Hのコントローラとして機能することにある。動作時に、PPE1050はジョブキューを保持し、シナジスティックプロセッシングエレメント1010A〜Hのジョブをスケジュールしており、その進捗を監視する。したがって、各シナジスティックプロセッシングエレメント1010A〜Hはカーネルを実行し、その役割は、ジョブを取り出して、これを実行し、PPE1050と同期することにある。
各シナジスティックプロセッシングエレメント(SPE)1010A〜Hは、シナジスティックプロセッシングユニット(SPU)1020A〜Hおよびメモリフローコントローラ(MFC)1040A〜Hをそれぞれ備え、MFC1040A〜Hは、ダイナミックメモリアクセスコントローラ(DMAC)1042A〜H、メモリ管理ユニット(MMU)1044A〜H、およびバスインタフェース(図示せず)をそれぞれ備える。各SPU1020A〜Hは3.2GHzでクロック供給され、原則として4GBまで拡張可能な256kBのローカルRAM1030A〜Hを備えたRISCプロセッサである。各SPEは、理論的には単精度処理性能で25.6ギガフロップスを示す。1つのSPUは、1クロックサイクルに、4つの単精度浮動小数点数部、4つの32ビット数、8つの16ビット整数または16の8ビット整数を処理することができる。同じクロックサイクルで、メモリ操作も実行することができる。SPU1020A〜HはシステムメモリXDRAM926に直接アクセスしない。SPU1020A〜Hが作成した64ビットアドレスがMFC1040A〜Hに渡され、MFC1040A〜Hが、自身のDMAコントローラ1042A〜Hに対して、エレメント相互接続バス1080およびメモリコントローラ1060を介してメモリにアクセスするように指示する。
エレメント相互接続バス(EIB)1080は、Cellプロセッサ928内部の論理的には環状の通信バスであり、上記のプロセッサエレメント(すなわち、PPE1050、メモリコントローラ1060、デュアルバスインタフェース1070A,B、および8基のSPE1010A〜H、合計12個のパーティシパント)を接続している。パーティシパントは、1クロックサイクルにつき8バイトの速度で、バスに同時に読み出しおよび書き込みを行うことができる。上で説明したように、各SPE1010A〜Hは、長い読み出しまたは書み込みのシーケンスをスケジュールするためのDMAC1042A〜Hを備える。EIBは、4つのチャネルを備え、そのうち2つは時計回り方向であり、残り2つは反時計回り方向である。したがって、12のパーティシパントについて、2つのパーティシパント間のステップ方式の最長のデータフローは、適切な方向で6ステップとなる。このため、パーティシパント間でアービトレーションが行われて完全な利用度が実現されると、12のスロットの理論上のピーク瞬間EIB帯域幅は、1クロックにつき96Bとなる。これは、3.2GHzのクロック速度で307.2GB/s(ギガバイト/秒)の理論上のピーク帯域幅に相当する。
メモリコントローラ1060は、ラムバス社(Rambus Incorporated)によって開発されたXDRAMインタフェース1062を備える。メモリコントローラは、25.6GB/sの理論上のピーク帯域幅で、Rambus XDRAM926とインタフェースする。
デュアルバスインタフェース1070A,Bは、Rambus FlexIO(登録商標)システムインタフェース1072A,Bを備える。インタフェースは、それぞれ8ビット幅の12のチャネルに編成されており、このうち、5の経路が受信用、7つの経路が送信用である。これにより、Cellプロセッサと、コントローラ170Aを介してI/Oブリッジ700間、およびコントローラ170Bを介してReality Simulatorグラフィックユニット200間で、理論上のピーク帯域幅が62.4GB/s(送信36.4GB/s、受信26GB/s)が得られる。
Cellプロセッサ928によってReality Simulatorグラフィックユニット930に送信されるデータには、通常、表示リストが含まれ、これは、頂点を描画したり、ポリゴンにテクスチャを貼り付けたり、照明条件を指定するなどための一連のコマンドである。
実施形態において、現実世界のユーザをより正確に特定し、アバターまたはシーンの活動を案内するための深度データがキャプチャされてもよい。オブジェクトは、人物が保持している物体であっても、人物の手であってもよい。本明細書では、「深度カメラ」および「三次元カメラ」との用語は、二次元のピクセル情報のほか、距離情報すなわち深度情報を取得することができる任意のカメラを指す。例えば、深度カメラは、制御された赤外線照明を利用して、距離情報を取得することができる。
他の例示的な深度カメラに、立体カメラ対があり、これは2台の基準カメラを使用して距離情報を三角測量によって求める。同様に、「深度検知装置」との用語は、二次元のピクセル情報のほかに、距離情報を取得することができる任意のタイプの装置を指す。
三次元像の最近の進歩により、リアルタイムのインタラクティブなコンピュータアニメーションの可能性が広がっている。より詳細には、新しい「深度カメラ」は、通常の二次元のビデオ像に加えて、3番目の次元をキャプチャおよびマップする能力を提供することができる。新しい深度データによって、本発明の各種実施形態は、ほかのオブジェクトの背後など、ビデオシーン内のさまざまな位置にコンピュータが生成したオブジェクトを、リアルタイムで配置することが可能となる。
更に、本発明の各種実施形態は、リアルタイムのインタラクティブなゲーム体験をユーザに提供する。例えば、ユーザは、コンピュータが生成したさまざまなオブジェクトと、リアルタイムでインタラクトすることができる。更に、ユーザのゲーム体験をよりリアルにするために、ビデオシーンをリアルタイムで変更することができる。例えば、コンピュータが生成したコスチュームを、ユーザの服の上にはめ込んだり、コンピュータが生成した光源を利用して、ビデオシーン内に仮想の影を表示させることができる。このため、本発明の各種実施形態と深度カメラを使用して、ユーザは、自分のリビングルームでインタラクティブなゲーム環境を体験することができる。通常のカメラと同様に、深度カメラは、ビデオ画像を構成している複数のピクセルの二次元のデータをキャプチャする。これらの値は、ピクセルの色の値であり、通常は、各ピクセルの赤、緑、青(RGB)の値である。このようにして、カメラによってキャプチャされたオブジェクトが、モニタに二次元オブジェクトとして表示される。
また、本発明の各種実施形態は、分散型の画像処理構成についても考察している。例えば、本発明は、1つの場所(CPUなど)や2つの場所(CPUと他の1つの素子など)で行われるキャプチャ画像および表示画像の処理に限定されない。例えば、入力画像処理は、処理を実行することができる関連のCPU、プロセッサまたは装置において容易に行うことができ、基本的には、画像処理の全てを、相互接続システム全体に分散させることができる。このため、本発明は、特定の画像処理ハードウェア回路および/またはソフトウェアに限定されない。また、本明細書に記載した実施形態は、一般的なハードウェア回路および/またはソフトウェアの特定の組合せに限定されず、処理コンポーネントによって実行される命令の特定のソースにも限定されない。
上記の実施形態を考慮に入れて、本発明が、コンピュータシステムに記憶されたデータを使用する、各種のコンピュータ実装操作を使用してもよい点を理解すべきである。これらの操作には、物理量の物理的な操作を必要とする操作が含まれる。この物理量は通常、記憶、転送、結合、比較などの操作が可能な電気信号または磁気信号の形を取るが、必ずしもこれらに限定されない。更に、実行される操作は、生成、特定、決定または比較などと呼ばれることが多い。
上記した発明は、携帯式デバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な家庭用電気製品、ミニコンピュータ、メインフレームコンピュータなど、他のコンピュータシステム構成によって実施されてもよい。また、本発明は、分散コンピューティング環境で実施されてもよく、このような環境では、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される。
本発明は、また、計算機可読メディア上の計算機可読コードとして実施されてもよい。計算機可読媒体は、電磁搬送波を含め、コンピュータシステムによって後から読取ることができるデータを記憶できるデータ記憶装置であれば、どのようなものに存在してもよい。計算機可読メディアの例には、ハードディスク、ネットワーク接続記憶装置(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープおよび他の光学式データ記憶装置および非光学式データ記憶装置などがある。また、計算機可読媒体は、計算機可読コードが分散式に記憶されて、実行されるように、ネットワークに結合されたコンピュータシステムを介して分散されてもよい。
上記に、本発明を明確に理解できるように多少詳細に記載したが、添付の特許請求の範囲内で変更例または変形例を実施できることは明らかである。したがって、本実施形態は例示的なものであり、制限するものではなく、本発明は本明細書に記載されている詳細な事項に限定されず、添付の特許請求の範囲およびその均等物の範囲内で変更されてもよい。

Claims (26)

  1. コンピュータによって生成された仮想世界環境においてアバターのインタラクティブな制御およびモニタリングを可能にするための方法であって、
    グラフィカルなアニメーション化された環境を生成するステップと、
    前記グラフィカルなアニメーション化された環境内に可視オブジェクトを提示するステップと、
    前記グラフィカルなアニメーション化された環境内でアバターを動かすステップであって、前記動きは、前記アバターの視野を前記可視オブジェクトのほうに向けることを含むステップと、
    前記アバターの前記視野が前記可視オブジェクトに向けられたときに前記アバターの反応を検出するステップと、
    前記反応を記憶するステップと、を有し、
    前記反応が肯定的か否定的かを判定するために、前記反応が分析される方法。
  2. 前記可視オブジェクトは広告である請求項1に記載のコンピュータによって生成された仮想世界環境においてアバターのインタラクティブな制御およびモニタリングを可能にするための方法。
  3. 前記広告は、前記グラフィカルなアニメーション化された環境の仮想空間においてアニメーション表示されている請求項1に記載のコンピュータによって生成された仮想世界環境においてアバターのインタラクティブな制御およびモニタリングを可能にするための方法。
  4. 現実世界のユーザが、前記グラフィカルなアニメーション化された環境内で前記アバターを動かしており、
    前記現実世界のユーザからの可聴音声を検出するステップと、
    前記可聴音声が感情、笑い、発言、またはこれらの組み合わせの1つに関連しているかどうかを判定するために、前記可聴音声を分析するステップと、
    前記反応が肯定的か否定的かを示すように、前記分析された可聴音声を定義するステップと、を更に有する請求項1に記載のコンピュータによって生成された仮想世界環境においてアバターのインタラクティブな制御およびモニタリングを可能にするための方法。
  5. 前記反応は、コントローラのボタンによってトリガされる請求項1に記載のコンピュータによって生成された仮想世界環境においてアバターのインタラクティブな制御およびモニタリングを可能にするための方法。
  6. 前記コントローラの選択されたボタンが、表情、身体表現、言語表現、体の動き、コメント、またはこれらの2つ以上の組み合わせの1つ以上をトリガする請求項4に記載のコンピュータによって生成された仮想世界環境においてアバターのインタラクティブな制御およびモニタリングを可能にするための方法。
  7. 前記反応は、分析され、前記広告の所有者および前記グラフィカルなアニメーション化された環境の事業者に提示される請求項6に記載のコンピュータによって生成された仮想世界環境においてアバターのインタラクティブな制御およびモニタリングを可能にするための方法。
  8. コンピュータグラフィックによって表示されている仮想環境をレンダリングするために定義されたネットワークアプリケーションを実行するための、コンピュータによって実装される方法であって、
    アニメーション化されたユーザを生成するステップと、
    前記仮想環境内で前記アニメーション化されたユーザを制御するステップと、
    前記仮想環境内で広告オブジェクトを提示するステップと、
    前記アニメーション化されたユーザが前記仮想環境での前記広告オブジェクトの1つを見ているかどうかを判定するために、前記アニメーション化されたユーザによるアクションを検出するステップと、
    前記アニメーション化されたユーザが前記広告オブジェクトを見ている場合に、前記アニメーション化されたユーザによるリアクションをキャプチャするステップと、を有し、
    前記仮想環境内の前記アニメーション化されたユーザによる前記リアクションは、前記広告オブジェクトに関連するリアクションであり、前記仮想環境での前記広告オブジェクトの効果を決定するために第三者に提示される方法。
  9. 前記第三者は製品またはサービスの広告主である請求項8に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  10. 前記第三者は前記仮想環境の事業者である請求項8に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  11. 前記仮想環境の前記事業者は、前記広告オブジェクトに対する広告コスト計算式を規定する請求項10に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  12. 前記コスト計算式は、特定の広告オブジェクトに関連するユーザのリアクションに基づいて広告主に請求される料金を規定する請求項11に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  13. 前記キャプチャされるリアクションは、アニメーション化されたユーザの表情、アニメーション化されたユーザの音声表現、アニメーション化されたユーザの体の動き、またはこれらの組み合わせを含む請求項8に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  14. 前記広告オブジェクトは、前記仮想環境の仮想空間でアニメーション化されている請求項8に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  15. 前記リアクションは、コントローラのボタンによってトリガされる請求項8に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  16. 前記コントローラの選択されたボタンが、前記アニメーション化されたユーザに、表情、身体表現、言語表現、体の動き、コメント、またはこれらの2つ以上の組み合わせの1つ以上をトリガする請求項15に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  17. 前記リアクションは、分析され、前記広告の所有者および前記仮想環境の事業者に提示される請求項16に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  18. 前記反応が肯定的か否定的かを判定するために、前記リアクションが分析される請求項8に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  19. コンピュータグラフィックによって表示されている仮想環境をレンダリングするために定義されたネットワークアプリケーションを実行するための、コンピュータによって実装される方法であって、
    アニメーション化されたユーザを生成するステップと、
    前記仮想環境内で前記アニメーション化されたユーザを制御するステップと、
    前記仮想環境内で広告オブジェクトを提示するステップと、
    前記アニメーション化されたユーザが前記仮想環境での前記広告オブジェクトの1つを見ているかどうかを判定するために、前記アニメーション化されたユーザによるアクションを検出するステップと、
    前記アニメーション化されたユーザが前記広告オブジェクトを見ている場合に、前記アニメーション化されたユーザによるリアクションをキャプチャするステップと、を有し、
    前記仮想環境内の前記アニメーション化されたユーザによる前記リアクションは、前記広告オブジェクトに関連するリアクションであり、前記リアクションが肯定的か否定的かを判定するために第三者に提示される方法。
  20. 前記アニメーション化されたユーザによる投票を決定するステップを更に有し、前記投票は、前記広告オブジェクトの特定の1つの支持または不支持を示す請求項19に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  21. 前記第三者は前記仮想環境の事業者であり、前記仮想環境の前記事業者は、前記広告オブジェクトに対する広告コスト計算式を規定する請求項19に記載のネットワークアプリケーションを実行するための、コンピュータによって実装される方法。
  22. ネットワークを介して少なくとも一部を実行するように構成され、仮想場所のグラフィカル環境を定義し、現実世界のユーザが、仮想場所の前記グラフィカル環境でアニメーション化されたアバターを制御できるようにするコンピュータプログラムとインタフェースするための、コンピュータによって実装される方法であって、
    前記アニメーション化されたアバターを制御するために前記現実世界のユーザを割り当てるステップと、
    前記グラフィカル環境で前記アニメーション化されたアバターを動かすステップと、
    前記グラフィカル環境での前記アニメーション化されたアバターの動きに応答して、前記現実世界のユーザによる現実世界のリアクションを検出するステップと、
    前記現実世界のリアクションを特定するステップと、
    前記特定された現実世界のリアクションを前記アニメーション化されたアバターにマップするステップと、を有し、
    前記アニメーション化されたアバターは、前記コンピュータプログラムを実行しているディスプレイ画面に前記現実世界のリアクションをグラフィカルに表示する方法。
  23. 前記特定された現実世界のリアクションは、前記アニメーション化されたアバターが見ている前記仮想空間内のコンテンツに基づいて分析される請求項22に記載のコンピュータプログラムとインタフェースするための、コンピュータによって実装される方法。
  24. 前記コンテンツは、仮想場所の前記グラフィカル環境内で宣伝される製品またはサービスである請求項22に記載のコンピュータプログラムとインタフェースするための、コンピュータによって実装される方法。
  25. 前記コンピュータプログラムの事業者は、広告に対する広告コスト計算式を規定する請求項22に記載のコンピュータプログラムとインタフェースするための、コンピュータによって実装される方法。
  26. 前記コスト計算式は、特定の広告に関連する鑑賞またはリアクションに基づいて広告主に請求される料金を規定する請求項25に記載のコンピュータプログラムとインタフェースするための、コンピュータによって実装される方法。
JP2009551722A 2007-03-01 2008-02-27 仮想世界のユーザの意見および反応のモニタリング Pending JP2010535362A (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US89239707P 2007-03-01 2007-03-01
GBGB0703974.6A GB0703974D0 (en) 2007-03-01 2007-03-01 Entertainment device
GB0704235A GB2447095B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704225A GB2447094B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704246A GB2447096B (en) 2007-03-01 2007-03-05 Entertainment device and method
GB0704227A GB2447020A (en) 2007-03-01 2007-03-05 Transmitting game data from an entertainment device and rendering that data in a virtual environment of a second entertainment device
US11/789,326 US20080215975A1 (en) 2007-03-01 2007-04-23 Virtual world user opinion & response monitoring
PCT/US2008/002630 WO2008108965A1 (en) 2007-03-01 2008-02-27 Virtual world user opinion & response monitoring

Publications (1)

Publication Number Publication Date
JP2010535362A true JP2010535362A (ja) 2010-11-18

Family

ID=39738577

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2009551806A Pending JP2010533006A (ja) 2007-03-01 2008-02-26 仮想世界とコミュニケーションを取るためのシステムおよび方法
JP2009551722A Pending JP2010535362A (ja) 2007-03-01 2008-02-27 仮想世界のユーザの意見および反応のモニタリング
JP2009551727A Pending JP2010535364A (ja) 2007-03-01 2008-02-27 インタラクティブにユーザ制御されたアバターアニメーション
JP2009551726A Pending JP2010535363A (ja) 2007-03-01 2008-02-27 仮想世界のアバター制御、インタラクティビティおよび通信インタラクティブメッセージング
JP2014039137A Active JP5756198B2 (ja) 2007-03-01 2014-02-28 インタラクティブにユーザ制御されたアバターアニメーション

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009551806A Pending JP2010533006A (ja) 2007-03-01 2008-02-26 仮想世界とコミュニケーションを取るためのシステムおよび方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2009551727A Pending JP2010535364A (ja) 2007-03-01 2008-02-27 インタラクティブにユーザ制御されたアバターアニメーション
JP2009551726A Pending JP2010535363A (ja) 2007-03-01 2008-02-27 仮想世界のアバター制御、インタラクティビティおよび通信インタラクティブメッセージング
JP2014039137A Active JP5756198B2 (ja) 2007-03-01 2014-02-28 インタラクティブにユーザ制御されたアバターアニメーション

Country Status (3)

Country Link
EP (4) EP2132650A4 (ja)
JP (5) JP2010533006A (ja)
WO (1) WO2008108965A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9199171B2 (en) 2009-01-28 2015-12-01 Nintendo Co., Ltd. Information processing system relating to content distribution, storage medium for storing program directed thereto, and information processing device
US9492754B2 (en) 2009-01-28 2016-11-15 Nintendo Co., Ltd. Method, system, and storage medium for displaying distributed media content in a calendar screen
JP2021189819A (ja) * 2020-06-01 2021-12-13 株式会社電通 広告表示システム
JP2022144468A (ja) * 2021-03-19 2022-10-03 本田技研工業株式会社 仮想体験提供装置、仮想体験提供方法、及びプログラム
WO2023282289A1 (ja) * 2021-07-09 2023-01-12 シャープNecディスプレイソリューションズ株式会社 表示制御装置、表示制御方法、及びプログラム

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489795B2 (en) 2007-04-23 2019-11-26 The Nielsen Company (Us), Llc Determining relative effectiveness of media content items
US8407605B2 (en) 2009-04-03 2013-03-26 Social Communications Company Application sharing
US8397168B2 (en) 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
US7769806B2 (en) 2007-10-24 2010-08-03 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
KR101527993B1 (ko) 2008-04-05 2015-06-10 소우셜 커뮤니케이션즈 컴퍼니 가상 환경과의 인터페이스 방법
US20100093439A1 (en) * 2008-10-15 2010-04-15 Nc Interactive, Inc. Interactive network game and methods thereof
US20100099495A1 (en) * 2008-10-16 2010-04-22 Nc Interactive, Inc. Interactive network game and methods thereof
US9853922B2 (en) 2012-02-24 2017-12-26 Sococo, Inc. Virtual area communications
JP5813912B2 (ja) 2009-01-28 2015-11-17 任天堂株式会社 プログラム、情報処理装置、および情報処理システム
JP5527721B2 (ja) 2009-01-28 2014-06-25 任天堂株式会社 プログラムおよび情報処理装置
US9542010B2 (en) * 2009-09-15 2017-01-10 Palo Alto Research Center Incorporated System for interacting with objects in a virtual environment
US8862977B2 (en) * 2009-09-30 2014-10-14 Rakuten, Inc. Object displacement method for web page
US20120192088A1 (en) * 2011-01-20 2012-07-26 Avaya Inc. Method and system for physical mapping in a virtual world
CN106943742B (zh) * 2011-02-11 2024-04-26 漳州市阿思星谷电子科技有限公司 一种动作放大系统
US20120277001A1 (en) * 2011-04-28 2012-11-01 Microsoft Corporation Manual and Camera-based Game Control
JP2013003778A (ja) * 2011-06-15 2013-01-07 Forum8 Co Ltd 3次元空間情報処理システム、3次元空間情報処理端末、3次元空間情報処理サーバ、3次元空間情報処理端末プログラム、3次元空間情報処理サーバプログラム、及び3次元空間情報処理方法
WO2013181026A1 (en) 2012-06-02 2013-12-05 Social Communications Company Interfacing with a spatial virtual communications environment
CN104516618B (zh) * 2013-09-27 2020-01-14 中兴通讯股份有限公司 界面功能解析显示方法及装置
JP6091407B2 (ja) * 2013-12-18 2017-03-08 三菱電機株式会社 ジェスチャ登録装置
US20170043255A1 (en) * 2014-04-25 2017-02-16 Nokia Technologies Oy Interaction between Virtual Reality Entities and Real Entities
EP2996017B1 (en) * 2014-09-11 2022-05-11 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display
WO2016068581A1 (en) * 2014-10-31 2016-05-06 Samsung Electronics Co., Ltd. Device and method of managing user information based on image
US9786125B2 (en) * 2015-06-17 2017-10-10 Facebook, Inc. Determining appearances of objects in a virtual world based on sponsorship of object appearances
US10339592B2 (en) 2015-06-17 2019-07-02 Facebook, Inc. Configuring a virtual store based on information associated with a user by an online system
US10861056B2 (en) 2015-06-17 2020-12-08 Facebook, Inc. Placing locations in a virtual world
CN114756648A (zh) 2016-05-06 2022-07-15 索尼公司 信息处理系统和信息处理方法
JP6263252B1 (ja) * 2016-12-06 2018-01-17 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
WO2018142228A2 (en) 2017-01-19 2018-08-09 Mindmaze Holding Sa Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
JP7070435B2 (ja) 2017-01-26 2022-05-18 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
CN110892408A (zh) 2017-02-07 2020-03-17 迈恩德玛泽控股股份有限公司 用于立体视觉和跟踪的系统、方法和装置
JP6821461B2 (ja) * 2017-02-08 2021-01-27 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
EP3588444A4 (en) 2017-02-24 2020-02-12 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP6651479B2 (ja) * 2017-03-16 2020-02-19 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
JP7308573B2 (ja) * 2018-05-24 2023-07-14 株式会社ユピテル システム及びプログラム等
JP7302956B2 (ja) * 2018-09-19 2023-07-04 株式会社バンダイナムコエンターテインメント コンピュータシステム、ゲームシステム及びプログラム
JP2019130295A (ja) * 2018-12-28 2019-08-08 ノキア テクノロジーズ オサケユイチア 仮想現実エンティティと現実エンティティの間のインタラクション
JP7323315B2 (ja) 2019-03-27 2023-08-08 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法及びプログラム
WO2021033254A1 (ja) * 2019-08-20 2021-02-25 日本たばこ産業株式会社 コミュニケーション支援方法、プログラムおよびコミュニケーションサーバ
EP3968165A4 (en) * 2019-08-20 2022-12-21 Japan Tobacco Inc. COMMUNICATION ASSISTANCE METHOD, PROGRAM AND COMMUNICATION SERVER
US11080930B2 (en) * 2019-10-23 2021-08-03 Skonec Entertainment Co., Ltd. Virtual reality control system
EP3846008A1 (en) 2019-12-30 2021-07-07 TMRW Foundation IP SARL Method and system for enabling enhanced user-to-user communication in digital realities
JP2020146469A (ja) * 2020-04-20 2020-09-17 株式会社トプコン 眼科検査システム及び眼科検査装置
CN118103872A (zh) * 2021-10-18 2024-05-28 索尼集团公司 信息处理设备、信息处理方法及程序
WO2023149255A1 (ja) * 2022-02-02 2023-08-10 株式会社Nttドコモ 表示制御装置
KR20230173481A (ko) * 2022-06-17 2023-12-27 주식회사 메타캠프 다채널 구조 및 채널 동기화를 위한 메타버스 서비스장치 및 그 장치의 구동방법
WO2024004609A1 (ja) * 2022-06-28 2024-01-04 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281991A (ja) * 1996-04-18 1997-10-31 Nec Software Ltd 音声集計システムおよび音声集計方法
JPH11153977A (ja) * 1997-11-20 1999-06-08 Fujitsu General Ltd 広告効果確認システム
JP2001325501A (ja) * 2000-03-10 2001-11-22 Heart Gift:Kk オンラインギフト方法
JP2002157505A (ja) * 2000-11-17 2002-05-31 Nec Infrontia Corp 広告情報提供システム
JP2003248844A (ja) * 2001-12-18 2003-09-05 Sony Computer Entertainment Inc 仮想世界におけるオブジェクトの表示装置、表示システム及び表示方法、ならびにそれらを利用可能な仮想世界における地価及び広告料の設定方法
JP2003259331A (ja) * 2002-03-06 2003-09-12 Nippon Telegraph & Telephone West Corp 3次元コンテンツ配信装置、3次元コンテンツ配信プログラム、プログラム記録媒体、及び3次元コンテンツ配信方法
JP2005100053A (ja) * 2003-09-24 2005-04-14 Nomura Research Institute Ltd アバター情報送受信方法、プログラム及び装置
JP2006211005A (ja) * 2005-01-25 2006-08-10 Takashi Uchiyama テレビ電話広告システム

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
CA2141144A1 (en) * 1994-03-31 1995-10-01 Joseph Desimone Electronic game utilizing bio-signals
GB9505916D0 (en) * 1995-03-23 1995-05-10 Norton John M Controller
JP3091135B2 (ja) * 1995-05-26 2000-09-25 株式会社バンダイ ゲーム装置
US5823879A (en) * 1996-01-19 1998-10-20 Sheldon F. Goldberg Network gaming system
JP3975511B2 (ja) * 1997-07-25 2007-09-12 富士通株式会社 パーソナル通信分散制御方式
JP3276068B2 (ja) * 1997-11-28 2002-04-22 インターナショナル・ビジネス・マシーンズ・コーポレーション オブジェクトの選択方法およびそのシステム
US6195104B1 (en) * 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
JP2000187435A (ja) * 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法
JP2000311251A (ja) * 1999-02-26 2000-11-07 Toshiba Corp アニメーション作成装置および方法、記憶媒体
AU4473000A (en) * 1999-04-20 2000-11-02 John Warren Stringer Human gestural input device with motion and pressure
JP4034002B2 (ja) * 1999-04-22 2008-01-16 三菱電機株式会社 分散仮想空間情報管理伝送方法
AU5012600A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for a multi-owner, three-dimensional virtual world
AU5012300A (en) * 1999-05-14 2000-12-05 Graphic Gems Method and apparatus for registering lots in a shared virtual world
JP2000325653A (ja) * 1999-05-19 2000-11-28 Enix Corp 携帯型ビデオゲーム装置およびプログラムを格納した記録媒体
JP2001154966A (ja) * 1999-11-29 2001-06-08 Sony Corp コンピュータ・ネットワーク上で構築・提供される共有仮想空間上で複数ユーザが参加可能な仮想会話を支援する会話支援システム及び会話支援方法、並びに、プログラム記憶媒体
JP2001153663A (ja) * 1999-11-29 2001-06-08 Canon Inc 物体の移動方向判別装置及びそれを備える撮影装置、ナビゲーションシステム、サスペンションシステム、ゲームシステム並びにリモートコントローラシステム
JP3623415B2 (ja) * 1999-12-02 2005-02-23 日本電信電話株式会社 仮想空間通信システムにおけるアバタ表示装置、アバタ表示方法および記憶媒体
JP2001236290A (ja) * 2000-02-22 2001-08-31 Toshinao Komuro アバタを利用したコミュニケーション・システム
KR100366384B1 (ko) * 2000-02-26 2002-12-31 (주) 고미드 사용자간의 커뮤니케이션을 기반으로 하는 정보 검색 방법및 시스템
JP3458090B2 (ja) * 2000-03-15 2003-10-20 コナミ株式会社 メッセージ交換機能を備えたゲームシステム、そのゲームシステムで使用するゲーム装置、メッセージ交換システム、およびコンピュータ読取可能な記憶媒体
JP2001321568A (ja) * 2000-05-18 2001-11-20 Casio Comput Co Ltd ゲーム装置、ゲーム方法及び情報記録媒体
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2002136762A (ja) * 2000-11-02 2002-05-14 Taito Corp 潜在映像を用いたアドベンチャーゲーム
WO2002042921A1 (en) * 2000-11-27 2002-05-30 Butterfly.Net, Inc. System and method for synthesizing environments to facilitate distributed, context-sensitive, multi-user interactive applications
EP1216733A3 (en) * 2000-12-20 2004-09-08 Aruze Co., Ltd. Server providing competitive game service, program storage medium for use in the server, and method of providing competitive game service using the server
JP2002197376A (ja) * 2000-12-27 2002-07-12 Fujitsu Ltd ユーザに応じてカストマイズされた仮想世界を提供する方法および装置
JP4613295B2 (ja) * 2001-02-16 2011-01-12 株式会社アートディンク 仮想現実再生装置
WO2002069609A2 (en) * 2001-02-27 2002-09-06 Anthrotronix, Inc. Robotic apparatus and wireless communication system
US7667705B2 (en) * 2001-05-15 2010-02-23 Nintendo Of America Inc. System and method for controlling animation by tagging objects within a game environment
JP4068542B2 (ja) * 2001-05-18 2008-03-26 株式会社ソニー・コンピュータエンタテインメント エンタテインメントシステム、通信プログラム、通信プログラムを格納したコンピュータ読み取り可能な記録媒体、及び通信方法
JP3425562B2 (ja) * 2001-07-12 2003-07-14 コナミ株式会社 キャラクタ操作プログラム、キャラクタ操作方法及びビデオゲーム装置
JP2003210834A (ja) * 2002-01-17 2003-07-29 Namco Ltd 制御情報、情報記憶媒体、およびゲーム装置
JP2003324522A (ja) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> Ip/pstn統合制御装置、通信方法、プログラムおよび記録媒体
JP2004021606A (ja) * 2002-06-17 2004-01-22 Nec Corp 仮想空間提供サーバを用いたインターネットサービス提供システム
JP2004046311A (ja) * 2002-07-09 2004-02-12 Nippon Telegr & Teleph Corp <Ntt> 3次元仮想空間におけるジェスチャ入力方法およびその装置
US20040029625A1 (en) * 2002-08-07 2004-02-12 Ed Annunziata Group behavioral modification using external stimuli
WO2004042545A1 (en) * 2002-11-07 2004-05-21 Personics A/S Adaptive motion detection interface and motion detector
JP3952396B2 (ja) * 2002-11-20 2007-08-01 任天堂株式会社 ゲーム装置および情報処理装置
JP2004237022A (ja) * 2002-12-11 2004-08-26 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP3961419B2 (ja) * 2002-12-27 2007-08-22 株式会社バンダイナムコゲームス ゲーム装置、ゲーム制御プログラムおよびそのプログラムが記録された記録媒体
GB0306875D0 (en) * 2003-03-25 2003-04-30 British Telecomm Apparatus and method for generating behavior in an object
JP4442117B2 (ja) * 2003-05-27 2010-03-31 ソニー株式会社 情報登録方法、情報登録装置、および情報登録プログラム
US7725419B2 (en) * 2003-09-05 2010-05-25 Samsung Electronics Co., Ltd Proactive user interface including emotional agent
JP2005216004A (ja) * 2004-01-29 2005-08-11 Tama Tlo Kk プログラムおよび通信方法
JP4559092B2 (ja) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ 携帯通信端末及びプログラム
US20060013254A1 (en) * 2004-06-07 2006-01-19 Oded Shmueli System and method for routing communication through various communication channel types
JP2006034436A (ja) * 2004-07-23 2006-02-09 Smk Corp エキササイズ器具を用いたバーチャルゲームシステム
EP1797703A2 (en) * 2004-10-08 2007-06-20 Sonus Networks, Inc. Common telephony services to multiple devices associated with multiple networks
WO2006056231A1 (en) * 2004-11-29 2006-06-01 Nokia Corporation Mobile gaming with external devices in single and multiplayer games
JP2006186893A (ja) * 2004-12-28 2006-07-13 Matsushita Electric Ind Co Ltd 音声対話制御装置
JP2006185252A (ja) * 2004-12-28 2006-07-13 Univ Of Electro-Communications インタフェース装置
WO2006080080A1 (ja) * 2005-01-28 2006-08-03 Fujitsu Limited 電話管理システムおよび電話管理方法
JP4322833B2 (ja) * 2005-03-16 2009-09-02 株式会社東芝 無線通信システム
US20060252538A1 (en) * 2005-05-05 2006-11-09 Electronic Arts Inc. Analog stick input replacement for lengthy button push sequences and intuitive input for effecting character actions
EP1878013B1 (en) * 2005-05-05 2010-12-15 Sony Computer Entertainment Inc. Video game control with joystick
JP2006004421A (ja) * 2005-06-03 2006-01-05 Sony Corp データ処理装置
US20070002835A1 (en) * 2005-07-01 2007-01-04 Microsoft Corporation Edge-based communication

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281991A (ja) * 1996-04-18 1997-10-31 Nec Software Ltd 音声集計システムおよび音声集計方法
JPH11153977A (ja) * 1997-11-20 1999-06-08 Fujitsu General Ltd 広告効果確認システム
JP2001325501A (ja) * 2000-03-10 2001-11-22 Heart Gift:Kk オンラインギフト方法
JP2002157505A (ja) * 2000-11-17 2002-05-31 Nec Infrontia Corp 広告情報提供システム
JP2003248844A (ja) * 2001-12-18 2003-09-05 Sony Computer Entertainment Inc 仮想世界におけるオブジェクトの表示装置、表示システム及び表示方法、ならびにそれらを利用可能な仮想世界における地価及び広告料の設定方法
JP2003259331A (ja) * 2002-03-06 2003-09-12 Nippon Telegraph & Telephone West Corp 3次元コンテンツ配信装置、3次元コンテンツ配信プログラム、プログラム記録媒体、及び3次元コンテンツ配信方法
JP2005100053A (ja) * 2003-09-24 2005-04-14 Nomura Research Institute Ltd アバター情報送受信方法、プログラム及び装置
JP2006211005A (ja) * 2005-01-25 2006-08-10 Takashi Uchiyama テレビ電話広告システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNH200100100005; 河野 隆志 外3名: '仮想空間におけるショッピング環境' NTT R&D 第48巻,第9号, 19990910, p.705-711, 社団法人電気通信協会 *
JPN6012018174; 河野 隆志 外3名: '仮想空間におけるショッピング環境' NTT R&D 第48巻,第9号, 19990910, p.705-711, 社団法人電気通信協会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9199171B2 (en) 2009-01-28 2015-12-01 Nintendo Co., Ltd. Information processing system relating to content distribution, storage medium for storing program directed thereto, and information processing device
US9492754B2 (en) 2009-01-28 2016-11-15 Nintendo Co., Ltd. Method, system, and storage medium for displaying distributed media content in a calendar screen
US9827497B2 (en) 2009-01-28 2017-11-28 Nintendo Co., Ltd. Information processing system relating to content distribution, storage medium for storing program directed thereto, and information processing device
JP2021189819A (ja) * 2020-06-01 2021-12-13 株式会社電通 広告表示システム
JP2022144468A (ja) * 2021-03-19 2022-10-03 本田技研工業株式会社 仮想体験提供装置、仮想体験提供方法、及びプログラム
JP7254112B2 (ja) 2021-03-19 2023-04-07 本田技研工業株式会社 仮想体験提供装置、仮想体験提供方法、及びプログラム
WO2023282289A1 (ja) * 2021-07-09 2023-01-12 シャープNecディスプレイソリューションズ株式会社 表示制御装置、表示制御方法、及びプログラム
WO2023281755A1 (ja) * 2021-07-09 2023-01-12 シャープNecディスプレイソリューションズ株式会社 表示制御装置、表示制御方法、及びプログラム

Also Published As

Publication number Publication date
JP5756198B2 (ja) 2015-07-29
JP2010533006A (ja) 2010-10-21
EP2126708A1 (en) 2009-12-02
JP2010535364A (ja) 2010-11-18
EP2126708A4 (en) 2010-11-17
EP2118757A4 (en) 2010-11-03
EP2118840A1 (en) 2009-11-18
EP2132650A4 (en) 2010-10-27
EP2132650A2 (en) 2009-12-16
EP2118840A4 (en) 2010-11-10
JP2014149836A (ja) 2014-08-21
JP2010535363A (ja) 2010-11-18
EP2118757A1 (en) 2009-11-18
WO2008108965A1 (en) 2008-09-12

Similar Documents

Publication Publication Date Title
JP2010535362A (ja) 仮想世界のユーザの意見および反応のモニタリング
US20080215975A1 (en) Virtual world user opinion &amp; response monitoring
JP6792044B2 (ja) ヘッドマウントディスプレイによって提示されるパーソナル空間コンテンツの制御
US10636217B2 (en) Integration of tracked facial features for VR users in virtual reality environments
JP6708689B2 (ja) 三次元ゲームプレイの共有
US10430018B2 (en) Systems and methods for providing user tagging of content within a virtual scene
US9364743B2 (en) Generation of a multi-part mini-game for cloud-gaming based on recorded gameplay
US8766983B2 (en) Methods and systems for processing an interchange of real time effects during video communication
US20100060662A1 (en) Visual identifiers for virtual world avatars
WO2008106196A1 (en) Virtual world avatar control, interactivity and communication interactive messaging
CN110523079A (zh) 基于所记录的游戏玩法自动产生为云游戏建议的小游戏
US20230021433A1 (en) Augmented reality placement for user feedback
WO2008106197A1 (en) Interactive user controlled avatar animations
US20220395756A1 (en) Building a dynamic social community based on similar interaction regions of game plays of a gaming application
EP4113413A1 (en) Automatic purchase of digital wish lists content based on user set thresholds
Chen Augmenting immersive cinematic experience/scene with user body visualization.
Penton A video game enabled collaborative virtual shopping environment
WO2018005199A1 (en) Systems and methods for providing user tagging of content within a virtual scene

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120710

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120718

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120808

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120910

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130108