JP2010530286A - ビデオ・ゲームにおける応答カットシーン - Google Patents

ビデオ・ゲームにおける応答カットシーン Download PDF

Info

Publication number
JP2010530286A
JP2010530286A JP2010513338A JP2010513338A JP2010530286A JP 2010530286 A JP2010530286 A JP 2010530286A JP 2010513338 A JP2010513338 A JP 2010513338A JP 2010513338 A JP2010513338 A JP 2010513338A JP 2010530286 A JP2010530286 A JP 2010530286A
Authority
JP
Japan
Prior art keywords
player
response
player character
audio signal
impression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010513338A
Other languages
English (en)
Other versions
JP2010530286A5 (ja
Inventor
ハム,リチャード・アレン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2010530286A publication Critical patent/JP2010530286A/ja
Publication of JP2010530286A5 publication Critical patent/JP2010530286A5/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/47Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/632Methods for processing data by generating or executing the game program for controlling the execution of the game in time by branching, e.g. choosing one of several possible story developments at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Abstract

非プレーヤー・キャラクタの物語を表すオーディオ信号が生成している間に、プレーヤーのアバターがある行為を実行したと判定する。この行為を印象にマッピングし、この印象を応答にマッピングする。オーディオ信号が完了する前にこれを停止し、非プレーヤー・キャラクタについてのオーディオを供給する、および/または非プレーヤー・キャラクタを動かすことによって、応答を再生する。応答を再生した後、物語における重要情報がプレーヤーに提供されたことを確実にするステップを実行する。
【選択図】 図4

Description

ビデオ・ゲームは、通例、プレーヤーによって制御されるゲームにおけるキャラクタまたはオブジェクトであるアバターと、ゲームによって制御される非プレーヤー・キャラクタとを含む。多くのゲームでは、プレーヤーのアバターが起こす行為に非プレーヤー・キャラクタが応答するように、プレーヤーのアバターが非プレーヤー・キャラクタと相互作用することができる。例えば、プレーヤーのアバターが非プレーヤー・キャラクタを攻撃すると、この非キャラクタ・プレーヤーは反撃または逃走することができる。
ビデオ・ゲームの中に、カットシーンとして知られるオーディオおよびビデオ・セグメントを含ませることは、開発者にとってはありふれたことである。カットシーンは、ゲームについてのストーリー・ラインのような叙述的情報、ゲームをプレーするためのコンテキスト情報、またはゲームにおいて先に進むための命令を規定する。従前では、このようなカット・シーンはゲームを中断し、プレーヤーのアバターの制御を無効にした。このようなカット・シーンは、ムービー状体験を提供し、プレーヤーは単にカット・シーンにおける行為を見つめるだけである。一部のビデオ・ゲームでは、カット・シーンの間にプレーヤーが彼らのアバターを制御し続けることを許すこともあった。しかしながら、このようなカット・シーンの間にアバターによって起こされる行為は、カット・シーンにおける非プレーヤー・キャラクタによって無視される。つまり、非プレーヤー・キャラクタは、カット・シーンの間プレーヤーのアバターとは相互作用せず、ロボットになったように感じられる。
以上の論述は、一般的な背景情報について提示したに過ぎず、特許請求する主題の範囲を判定する際に補助として用いることを意図するのではない。
非プレーヤー・キャラクタの物語(narrative)を表すオーディオ信号を生成している間に、プレーヤーのアバターがある行為を実行したと判定する。この行為を印象(impression)にマッピングし、この印象を応答にマッピングする。前述のオーディオ信号は、それが完了する前に停止させられ、非プレーヤー・キャラクタについてのオーディオを供給すること、および/または非プレーヤー・キャラクタを動かすことによって、応答を再生する。応答を再生した後、物語における重要情報がプレーヤーに提供されたことを確実にするステップを実行する。
この摘要は、詳細な説明において以下で更に説明する概念から選択したものを、簡略化した形態で導入するために設けられたものである。この摘要は、特許請求する主題の鍵となる特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を判定する際の補助として用いられることを意図するのでもない。特許請求する主題は、背景において印した欠点の内任意のものまたは全てを解決する実現例に限定されるのではない。
図1は、ゲーム用コンソールの斜視図である。 図2は、ゲーム用コンソールのコンポーネントのブロック図である。 図3は、応答カットシーンに用いられるゲーム用コンソールにおけるエレメントのブロック図である。 図4は、応答カット・シーンを設ける方法の流れ図である。 図5は、ゲーム世界の上透視図である。 図6は、ゲーム世界の第2実施形態の上透視図である。 図7は、カットシーンにおいて物語を与える非プレーヤー・キャラクタのスクリーン・ショットである。 図8は、プレーヤーのアバターが行うことができる表現のメニューを示すスクリーン・ショットである。 図9は、カットシーンに対する微小反応(microreaction)応答およびアニメーションの組み合わせを示すスクリーン・ショットである。 図10は、立腹応答を示す非プレーヤー・キャラクタのスクリーン・ショットである。 図11は、幸福応答を示す非プレーヤー・キャラクタのスクリーン・ショットである。 図12は、恐怖応答を示す非プレーヤー・キャラクタのスクリーン・ショットである。
図1は、ゲームおよびメディア・システム100の一例を示す。この図についての以下の論述は、ある種の方法を実施することができる、適した環境についての端的な総合的説明を提示することを意図している。
図1に示すように、ゲームおよびメディア・システム100は、ゲームおよびメディア・コンソール(以下「コンソール」)102を含む。コンソール102は、コントローラー104(1)および104(2)で表されるような、1つ以上のワイヤレス・コントローラーを収容するように構成されている。コンソール102上にあるコマンド・ボタン135は、これらのコントローラーの1つとコンソール102との間に、新たなワイヤレス接続を作成するために用いられる。コンソール102には、内部ハード・ディスク・ドライブ(図示せず)とメディア・ドライブ106とが装備されている。メディア・ドライブ106は、光記憶ディスク108で表されるような、携帯用記憶媒体の種々の形態をサポートする。適した携帯用記憶媒体の例には、DVD、CD−ROM、ゲーム・ディスク等が含まれる。また、コンソール102は、リムーバブル・フラッシュ型メモリー・ユニット140を受容するための、2つのメモリー・ユニット・カード・レセプタクル125(1)および125(2)も含む。
また、コンソール102は、追加のコントローラーまたはその他の周辺機器に対する有線接続をサポートするために、1つ以上のデバイスおよび2つのUSB(ユニバーサル・シリアル・バス)ポート110(1)および110(2)とワイヤレスで通信するための光ポート130も含む。実現例によっては、追加ポートの数および配置を変更できる場合もある。電力ボタン112および排出ボタン114も、ゲーム・コンソール102の前面上に位置付けられている。電力ボタン112は、ゲーム・コンソールに電力を供給する際に選択され、その他の機構および制御部にもアクセスすることもできる。排出ボタン114は、記憶ディスク108の挿入および取り出しを確実に行うために、携帯用メディア・ドライブ106のトレイを交互に開閉する。
コンソール102は、A/Vインターフェース・ケーブル120を通じて、テレビジョンまたはその他のディスプレイ(図示せず)に接続する。一実現例では、コンソール102には、A/Vケーブル120を用いたコンテンツ保証ディジタル通信に合わせて構成された専用A/Vポート(図示せず)が装備されている(例えば、高品位モニター150またはその他のディスプレイ・デバイス上における高品位マルチメディア・インターフェース「HDMI」ポートに結合するのに適したA/Vケーブル)。電力ケーブル122は、電力をゲーム・コンソールに供給する。更に、コンソール102には、インターネットのようなネットワークへのアクセスを容易にするために、ケーブルまたはモデム・コネクタ124によって表されるような、ブロードバンド能力を備えるように構成してもよい。
各コントローラー104は、有線またはワイヤレス・インターフェースを通じて、コンソール102に結合されている。図示の実現例では、コントローラーはUSB互換性があり、ワイヤレスまたはUSBポート110を通じてコンソール102に結合されている。コンソール102には、多種多様なユーザ相互作用メカニズムの内任意のものを装備することができる。図1に示す例では、各コントローラー104には、2つのサムスティック132(1)および132(2)、D−パッド134、ボタン136、ユーザ・ガイド・ボタン137、ならびに2つのトリガ138が装備されている。ユーザ・ガイド・ボタン137を押したままにしておくことにより、ユーザはコンソール102の給電を開始および終了することができる。ユーザ・ガイド・ボタン137を押下し解放することにより、ユーザは、ユーザ・ガイド・ヘッド・アップ・ディスプレイ(HUD)ユーザ・インターフェースを、モニター150上に表示されている現在のグラフィックの上に出現させることができる。前述のコントローラーは単なる見本に過ぎず、他の既知のゲーム・コントローラーを、図1に示すものに代用すること、またはこれらに追加することもできる。
コントローラー104は、各々、ヘッドセット160のプラグに合ったソケットを備えている。オーディオ・データーが、コントローラーを通じて、ヘッドセット160の中にあるスピーカ162に送られ、特定のプレーヤー装着ヘッドセット160に合わせてサウンドを再生できるようになっている。また、ヘッドセット162は、マイクロフォン164も含む。マイクロフォン164は、プレーヤーからの音声を検出し、この音声を表す電気信号をコントローラーに伝達する。次いで、コントローラー104は、この音声を表すディジタル信号をコンソール102に送信する。また、オーディオ・信号は、モニター150の中にあるスピーカ、またはコンソール102に接続されている別個のスピーカにも供給することができる。
一実現例(図示せず)では、メモリー・ユニット(MU)140をコントローラー104(1)および104(2)の内の1つに挿入し、追加の携帯用ストレージを設けることもできる。携帯用MUは、ユーザがゲーム・パラメーターおよびゲーム全体を、他のコンソール上でプレーするときに用いるために、格納することを可能にする。この実現例では、各コンソールは、2つのMU140を収容するように構成されているが、2つよりも多いまたは少ないMUを用いてもよい。
ゲームおよびメディア・システム100は、一般に、メモリー媒体上に格納されているゲームをプレーするために、そしてゲームをダウンロードしてプレーし、予め記録されている音楽およびビデオを電子およびハード・メディア・ソース双方から再生するために構成されている。異なるストレージの提供により、ハード・ディスク・ドライブから、光ディスク媒体(例えば、108)から、オンライン・ソースから、USB接続110に接続されている周辺記憶デバイスから、またはMU140から、タイトルをプレーすることができる。
図2は、ゲームおよびメディア・システム100の機能ブロック図であり、ゲームおよびメディア・システム100の機能的コンポーネントを更に詳細に示す。コンソール102は、中央演算装置(CPU)200と、種々のタイプのメモリーへのプロセッサのアクセスを容易にするメモリー・コントローラー202とを含む。メモリーには、フラッシュ・リード・オンリ・メモリー(ROM)204、ランダム・アクセス・メモリー(RAM)206、ハード・ディスク・ドライブ208、およびメディア・ドライブ106が含まれる。一実現例では、CPU200はレベル1キャッシュ210およびレベル2キャッシュ212を含み、データーを一時的に記憶することによって、ハード・ドライブに対して行われるメモリー・アクセス・サイクルの回数を減少させ、これによって処理速度およびスループットを向上させる。
CPU200、メモリー・コントローラー202、および種々のメモリー・デバイスは、1系統以上のバス(図示せず)によって相互接続されている。この実現例において用いられるバスの詳細は、本明細書において論ずる、対象の主題を理解する上では特別に関連がある訳ではない。しかしながら、このようなバスは、種々のバス・アーキテクチャの内任意のものを用いている、シリアルおよびパラレル・バス、メモリー・バス、周辺バス、およびプロセッサまたはローカル・バスの内1つ以上を含むことは言うまでもない。一例として、このようなアーキテクチャは、業界標準アーキテクチャ(ISA)バス、マイクロ・チャネル・アーキテクチャ(MCA)バス、改良ISA(EISA)バス、ビデオ電子機器標準連合(VESA)ローカル・バス、およびメザニン・バス(Mezzanine bus)としても知られている周辺素子相互接続(PCI)バスを含むことができる。
一実現例では、CPU200、メモリー・コントローラー202、ROM204、およびRAM206は、共通モジュール214上に統合されている。この実現例では、ROM204は、フラッシュROMとして構成され、周辺素子相互接続(PCI)バスおよびROMバス(いずれも図示せず)を通じてメモリー・コントローラー202に接続されている。RAM206は、複数の二倍データー・レート同期ダイナミックRAM(DDR SDRAM)モジュールとして構成されており、別個のバス(図示せず)を通じてメモリー・コントローラー202によって独立して制御されている。ハード・ディスク・ドライブ208およびメディア・ドライブ106は、PCIバスおよびAT取付(ATA)バス216を通じてメモリー・コントローラーに接続されているように示されている。しかしながら、別の実現例では、異なるタイプの専用データー・バス構造も、代わりに適用することができる。
実施形態によっては、ROM204がオペレーティング・システム・カーネルを収容する場合もある。オペレーティング・システム・カーネルは、コンソールの基本的動作を制御し、アプリケーション・プログラミング・インターフェースの集合体を露出させる。アプリケーション・プログラミング・インターフェースは、ある種の機能を実行するためおよびある種のデーターを入手するために、ゲームまたはその他のアプリケーションによってコールすることができる。
三次元グラフィック処理ユニット220およびビデオ・エンコーダー222は、高速および高解像度(例えば、高品位)グラフィック処理用ビデオ処理パイプラインを形成する。データーは、グラフィック処理ユニット220からビデオ・エンコーダー222にディジタル・ビデオ・バス(図示せず)を通じて搬送される。オーディオ処理ユニット224およびオーディオ・コデック(コーダ/デコーダ)226は、種々のディジタル・オーディオ・フォーマットのマルチ・チャネル・オーディオ処理のための対応するオーディオ処理パイプラインを形成する。オーディオ・データーは、オーディオ処理ユニット224とオーディオ・コデック226との間で、通信リンク(図示せず)を通じて搬送される。ビデオおよびオーディオ処理パイプラインは、1つ以上のスピーカを内蔵するテレビジョンまたはその他のディスプレイへの送信のために、データーをA/V(オーディオ/ビデオ)ポート228に出力する。オーディオ処理ユニット224およびオーディオ・コデック226によって形成されるオーディオ・データーの一部は、コントローラー104を通じて1つ以上のヘッドセットにも導かれる。図示の実現例では、ビデオおよびオーディオ処理コンポーネント220〜228は、モジュール214上に実装されている。
図2は、USBホスト・コントローラー230およびネットワーク・インターフェース232を含むモジュール214を示す。USBホスト・コントローラー230は、CPU200およびメモリー・コントローラー202とバス(例えば、PCIバス)を通じて連通しているように示されており、周辺コントローラー104(1)〜104(4)のホストとしての役割を果たす。ネットワーク・インターフェース232は、ネットワーク(例えば、インターネット、ホーム・ネットワーク等)へのアクセスを与え、多種多様の有線またはワイヤレス・インターフェース・コンポーネントの内任意のものとすればよい。これらのインターフェース・コンポーネントには、イーサネット(登録商標)・カード、モデム、Bluetoothモジュール、ケーブル・モデム等が含まれる。
図2に示す実現例では、コンソール102は、4つまでのコントローラー104(1)〜104(4)をサポートする、コントローラー・サポート・サブアセンブリー240を含む。コントローラー・サポート・サブアセンブリー240は、例えば、メディアおよびゲーム・コントローラーのような、外部制御デバイスとの有線およびワイヤレス動作をサポートするために必要なハードウェアおよびソフトウェア・コンポーネントの内任意のものを含む。前面I/Oサブアセンブリー242は、電力ボタン112、排出ボタン114、およびコンソール102の外面上に露出している任意のLED(発光ダイオード)またはその他のインディケーターの複数の機能性をサポートする。サブアセンブリー240および242は、1つ以上のケーブル・アセンブリー244を通じてモジュール214と連通する。他の実現例では、コンソール102は追加のコントローラー・サブアセンブリーを含むことができる。また、図示の実現例は、光I/Oインターフェース235も示す。光I/Oインターフェース235は、モジュール214に伝達することができる信号を送出および受信するように構成されている。
MU140(1)および140(2)は、それぞれ、MUポート「A」130(1)および「B」130(2)に接続可能であるものとして示されている。追加のMU(例えば、MU140(3)〜140(4))は、コントローラー104(1)、即ち、コントローラー毎に2つのMUに接続可能であるものとして示されている。各MU140は、追加のストレージを提供し、その上にゲーム、ゲーム・パラメーター、およびその他のデーターを格納することができる。実現例によっては、前述の他のデーターが、ディジタル・ゲーム・コンポーネント、実行可能ゲーム・アプリケーション、ゲーム・アプリケーションを拡張するための命令集合、およびメディア・ファイルの内任意のものを含むことができる場合もある。コンソール102またはコントローラーに挿入すると、MU140にはメモリー・コントローラー202によってアクセスすることができる。
ヘッドセット160は、コントローラー104(3)に接続されているように示されている。各コントローラー104は、別個のヘッドセット160に接続することができる。
システム電力供給モジュール250は、ゲーム・システム100のコンポーネントに電力を供給する。ファン252は、コンソール102内部にある回路を冷却する。
一部の実施形態の下では、機械命令を備えているアプリケーション260が、ハード・ディスク・ドライブ208上に格納されている。アプリケーション260は、個々のゲームの代わりに、コンソール102と関連付けられているユーザ・インターフェースの集合体を設ける。これらのユーザ・インターフェースは、ユーザがコンソール102に対するシステム設定値を選択し、コンソール102に取り付けられている媒体にアクセスし、ゲームに関する情報を目視し、ネットワーク接続を通じてコンソール102に接続されているサーバーが提供するサービスを利用することを可能にする。コンソール102に電力を投入すると、アプリケーション260の種々の部分が、CPU200による実行のために、RAM206および/またはキャッシュ210および212にロードされる。アプリケーション260は、ハード・ディスク・ドライブ208上に格納されているものとして示されているが、代替実施形態では、アプリケーション260は、オペレーティング・システム・カーネルと共にROM204に格納されている。
ゲーム・システム100は、本システムをモニター、テレビジョン150(図1)、ビデオ・プロジェクター、またはその他のディスプレイ・デバイスに単に接続することによって、単体システムとして動作させることができる。この単体モードでは、ゲーム・システム100は、一人以上のプレーヤーがゲームをプレーすること、またはムービーを見る、または音楽を聞くことによってディジタル・メディアを楽しむことを可能にする。しかしながら、ネットワーク・インターフェース232を通じて利用可能となるブロードバンド接続性の統合によって、ゲーム・システム100は、更に、更に大きなネットワーク・ゲーム・コミュニティにおける参加者として動作させることができるようになり、とりわけ、マルチ・プレーヤー・ゲームが可能となる。
図1および図2に示すコンソールは、本明細書に記載する種々の実施形態と共に用いることができるゲーム機械の単なる一例に過ぎない。パーソナル・コンピューターのようなその他のゲーム機械も、図1および図2のゲーム・コンソールの代わりに用いることもできる。
図3は、図4に示す、物語の重要情報を伝達しつつ、プレーヤーのアバターによる行為に応答する応答カットシーンを生成する方法において用いられるエレメントのブロック図を提示する。
図4のステップ400において、プレーヤーはカットシーンをトリガーする。図5におけるゲーム環境の上透視図に示すように、実施形態の中には、プレーヤーは、彼らのアバターを非プレーヤー・キャラクタ504の円周502内に置くことによって、カットシーンをトリガすることができる場合もある。別の実施形態では、プレーヤーは、図6におけるゲーム環境の上透視図に示すような非プレーヤー・キャラクタ604と同じ部屋602の中にプレーヤーのアバター600を置くことによって、カットシーンをトリガすることができる。カットシーンをトリガするその他の技法には、プレーヤーが1つ以上のタスクを完了すること、または1つ以上の制御ボタンを用いてカットシーンを開始することを選択することが含まれる。
プレーヤーがカットシーンをトリガした後、図3のカットシーン制御部300を起動し、図4のステップ402において、カットシーンの第1クリップを読み出す。
一実施形態の下では、各カットシーンは、複数のクリップに分割されている。各クリップは、非プレーヤー・キャラクタからの音声を表すオーディオ信号と、そのクリップの再生中非プレーヤー・キャラクタをどのように動かすべきかを記述するアニメーション記述子とを含む。一実施形態の下では、各クリップは、非プレーヤー・キャラクタのアニメーションを記述するヘッダを有するWAVファイルである。
図3において、カットシーン302およびカットシーン304を含む複数のカットシーンが示されている。これらのカットシーンの各々は、複数のクリップを含む。例えば、カットシーン302はクリップ306、308、および310を含み、カットシーン304はクリップ312、314、および316を含む。加えて、各カットシーンは、カットシーン302のサマリー・クリップ318およびカットシーン304のサマリー・クリップ320のような、サマリー・クリップを含む。これらのサマリー・クリップについては、以下で更に説明する。
以下に記すように、各カットシーンをクリップに分割することによって、当該カットシーンを自然な区切り点に分割することができ、プレーヤーのアバターによる行為によってあるカットシーン・クリップが中断させられた場合、その区切り点においてカットシーンを再開することができる。中断させられたクリップの始めからカットシーンを再開することによって、そのカットシーンの一層自然な再開が可能となり、非プレーヤー・キャラクタを一層現実的に出現させ易くなる。
図4のステップ404において、オーディオ信号および非プレーヤー・キャラクタ・アニメーションを、選択したカットシーン・クリップに基づいて生成する。一実施形態の下では、アニメーションを生成するには、カット・シーン制御部300が非プレーヤー・キャラクタについてのアニメーション情報を頂点データー発生ユニット323に供給する。頂点データー発生ユニット323は、非プレーヤー・キャラクタのアニメーション情報およびグラフィカル・モデル322を用いて、多角形を記述する1組の頂点を発生する。これらの頂点は、3Dグラフィック処理ユニット220に供給され、3Dグラフィック処理ユニット220は、これらの頂点を用いて、グラフィカル三次元ゲーム環境において、非プレーヤー・キャラクタを表す多角形をレンダリングする。レンダリングされた多角形は、図2のビデオ・エンコーダー222およびA/Vポート228を通じて送信され、取り付けられている表示画面上に表示される。非プレーヤー・キャラクタのオーディオ信号は、オーディオ処理ユニット224に供給され、次いでオーディオ処理ユニット224は、図2のオーディオ・コード226およびA/Vポート228を通じて、オーディオ信号を発生する。
図7は、ステップ404の間カット・シーン物語を供給している非プレーヤー・キャラクタ700を示すスクリーン・ショットを提示する。
ステップ406において、カットシーン制御部300は、プレーヤー状態データー324を試験して、プレーヤーのアバターが行為を実行したか否か判定する。行為の例には、非プレーヤー・キャラクタを攻撃すること、しきい値距離を非プレーヤー・キャラクタから遠ざけるように動かすこと、またはゲームがサポートするその他の行為を実行することが含まれる。一実施形態の下では、これらその他の行為には、おくび(belching)、馬鹿げたダンスを踊ること、腕を曲げること、粗野な手振りを行うこと、非プレーヤー・キャラクタ上で攻撃を装うことというようなことが含まれる。このような行為を、ここでは、表現(expression)と呼ぶ。
一実施形態の下では、プレーヤーはメニューの中に羅列した行為のリストから1つの行為を選択することができる。図8は、プレーヤーのアバターが実行することができる行為のメニュー800として可能なものを示すスクリーン・ショットの一例を提示する。プレーヤーは、ディスプレイ上のアイコンを選択すること、またはコントローラー上の1つ以上の制御部を用いることのいずれかによって、メニューを表示させる。一旦メニューが表示されたなら、プレーヤーは、コントローラーを用いて、そのメニューから行為の1つを選択することができる。他の実施形態では、行為をコントローラー上の1つ以上の制御部にマッピングし、プレーヤーがメニューにアクセスしなくてもよいようにすることもできる。
一部の実施形態の下では、前述の行為は、プレーヤーのアバターが非プレーヤー・キャラクタからしきい値距離よりも多く動くことを含むこともできる。例えば、図5において、プレーヤーのアバターは、円周506の外側に動くことができ、図6では、プレーヤーのアバターは部屋602の外側に動くことができる。双方の状況において、このような動きは、カット・シーン制御部300による行為として解釈される。
ステップ406において、カット・シーン制御部が、プレーヤーのアバターが何の行為も実行していないと判定した場合、ステップ408において、現カットシーン・クリップの終りに達したか否か判定する。現カットシーン・クリップの終りに達していない場合、カットシーン制御部300は、ステップ404に戻ることによって、オーディオ信号および非プレーヤー・キャラクタのアニメーションを生成し続ける。ステップ404、406、および408は、ステップ406においてアバターの行為が受け取られるまで、またはステップ408においてカットシーン・クリップの終りが受け取られるまで、ループ状で継続する。カット・シーン・クリップの終りがステップ408において受け取られた場合、プロセスはステップ410に進み、ここでカットシーン制御部300は、前述のカットシーンに別のクリップがあるか否か判定する。そのカットシーンに別のクリップがある場合、ステップ412において次のクリップを取り出し、そのクリップにおいて見出したオーディオ信号および非プレーヤー・キャラクタ・アニメーションを用いて、非プレーヤー・キャラクタを動かし、その非プレーヤー・キャラクタにオーディオ信号を生成する。
カット・シーン制御部300が、ステップ406において、プレーヤーのアバターがある行為を実行したと判定した場合、ステップ414において、行為対応答データーベース328の中にある行為対印象マッピング326を用いて、その行為を印象にマッピングする。印象とは、非プレーヤー・キャラクタが行為を解釈する方法である。例えば、非プレーヤー・キャラクタは、行為を、恐怖、侮辱、無礼、滑稽、友愛的、攻撃的、怠慢、またはせっかちであると解釈する場合もあり、その各々が可能な印象となる。ステップ416において、カットシーン制御部300は、行為対応答データーベース328の印象対応答マッピング330を用いて、その印象を応答にマッピングする。2つのマッピング機能、1つは行為から印象へのマッピング機能、もう1つは印象から応答へのマッピング機能を実行することによって、本明細書において記載する実施形態は、実行される可能性がある可能な行為全てを知る必要なく、カットシーンの応答を設計することを可能にする。代わりに、限定した数の印象だけを指定すればよく、カットシーン応答をこれらの印象に対して生成することができる。また、これによって、現在生成されている応答には影響を及ぼさずに、後に行為を追加することも可能となる。行為対印象マッピング326においては、複数の行為を1つの印象にマッピングすることもでき、そして印象対応答マッピング330では、複数の印象を1つの応答にマッピングすることもできる。
ステップ418において、カットシーン制御部300は、ステップ416において印象対応答マッピングによって、応答が特定されたか否か判定する。一部の実施形態の下では、非プレーヤー・キャラクタが、プレーヤーのアバターによってなされた行為を無視するように、印象が応答にマッピングしない場合もある。ステップ418において応答が得られない場合、プロセスはステップ404に戻り、ここで前述のカットシーン・クリップのオーディオ信号および非プレーヤー・キャラクタ・アニメーションが継続する。尚、ステップ406、414、416、および418は、図4の流れ図においてステップ404の後に来るように見えるが、ステップ406、414、416、および418の間、現カットシーン・クリップのオーディオ信号およびアニメーションは、カットシーン制御部300によって出力され続いている。つまり、これらのステップが実行されている間、カットシーンには中断がない。
ステップ416のマッピングによって応答を特定したなら、その応答を格納されている1組の応答332から読み出す。例えば、1組の応答332は、カット・シーン応答334、336、および338を含む。カット・シーン応答は、非プレーヤー・キャラクタの動きについてのアニメーション情報、および/またはプレーヤーのアバターの行為に対する非プレーヤー・キャラクタの応答を表すダイアログを収容するオーディオ信号を含む。実施形態の中には、カット・シーン応答が、非プレーヤー・キャラクタが特定の位置に動くことの指令、カメラの動き、照明効果、背景音楽および音響等のような、指導型の情報を示す「スクリプティング・フック」(scripting hook)を含む場合もある。
ステップ420において、応答を試験して、その応答が微小反応であるか否か判定する。このような情報は、応答のヘッダに格納することができ、あるいは行為対応答データーベース328に格納することができる。微小反応とは、カットシーン・クリップのオーディオ信号や非プレーヤー・キャラクタ・アニメーションを解釈しないが、代わりにそれが継続するに連れて少しずつ変化する、小さなアニメーション、またはオーディオ信号のトーンの小さな変化である。ステップ420において、応答が微小反応であった場合、ステップ422においてその微小応答をカット・シーン・クリップに組み合わせる、即ち、これと統合する。これには、ピッチを上げるまたは下げるのいずれかによって、あるいは追加のアニメーション機構をカットシーン・アニメーションに追加することによって、カット・シーンのオーディオ信号のトーンを変化させることを伴うこともあり得る。アニメーションを追加する場合、微小反応アニメーションがカット・シーン・アニメーションと統合されるので、カット・シーンのオーディオ信号は、中断なく継続する。
例えば、図9において、カットシーン・クリップはアニメーションを含み、このアニメーションの中で、非プレーヤー・キャラクタは彼の左腕900を用いて彼の左を指し示す。通常、このアニメーションの間、非プレーヤー・キャラクタの眉は不変のままである。しかしながら、アバターの行為に対する微小反応応答に基づいて、非プレーヤー・キャラクタの右眉が、左眉に対して上がり、非プレーヤー・キャラクタが、アバターによって行われた行為を検出したこと、そして非プレーヤー・キャラクタには、アバターが多少侮辱的なことを行っているという印象が残ったことを伝える。
マッピング・ステップ416の間に発見した応答が、ステップ420における微小反応よりも多い場合、カットシーン制御部300は、カット・シーン・クリップを中断し、そのカット・シーン応答を再生する。一実施形態の下では、カット・シーン応答を再生するには、アニメーション情報を頂点データー発生ユニット323に供給し、頂点データー発生ユニット323がこのアニメーション情報およびNPCグラフィック・モデル322を用いて、非プレーヤー・キャラクタの動きを表す1組の頂点を発生する。各組の頂点を3Dグラフィック処理ユニット220に供給し、3Dグラフィック処理ユニット220はその頂点を用いて、非プレーヤー・キャラクタの動画画像をレンダリングする。この応答と関連のあるオーディオ・データーをオーディオ処理ユニット224に供給する。
図10は、非プレーヤー・キャラクタを動かして、アバターの行為の印象が非プレーヤー・キャラクタにとって非常に侮辱であり、非プレーヤー・キャラクタを激怒させたことを示す、カットシーン応答の一例を提示する。図11は、非プレーヤー・キャラクタが微笑んで、アバターの行為の印象が、非プレーヤー・キャラクタにとって面白かったことを示す、カットシーン応答を示し、図12は、非プレーヤー・キャラクタの印象が、アバターの行為が恐ろしかったことを、カットシーン応答が示す。全ての応答がオーディオおよびアニメーションの双方を必要とする訳ではない。実施形態の中には、非プレーヤー・キャラクタがカットシーン応答の間黙っていて、アバターの行為の印象を反映するように動かされるだけの場合もある。別の実施形態では、非プレーヤー・キャラクタの口をオーディオ応答に同期させるため以外、応答の間非プレーヤー・キャラクタの視覚的外観は変化しない。
一部の実施形態の下では、プレーヤーは、せっかちの印象を伝える行為を行うことによって、カット・シーンのサマリー・クリップを活性化することができる。例えば、プレーヤーは、彼らのアバターが「事実だけ」を要求する行為を選択することができ、この行為をせっかちという印象にマッピングする。一方、印象対応答マッピング330は、せっかちという印象をサマリー応答にマッピングする。一実施形態では、このようなサマリー・クリップは、カット・シーンのその他のクリップと一緒に格納されている。別の実施形態では、サマリー・クリップは、カット・シーン応答332と共に格納することもできる。サマリー・クリップは、オーディオ・データーおよびアニメーション情報を収容しており、カットシーンによって伝えられるべきであった重要情報を、非プレーヤー・キャラクタに要約させる。一般に、カットシーンは、重要情報および様式情報の双方を収容し、重要情報は、プレーヤーがゲームを先に進めるために必要とされ、様式情報は感情的属性または様式的属性をゲームに伝えるために供給される。一実施形態の下では、サマリー・クリップは様式情報の殆どを剥奪し、重要情報だけを提供する。
サマリー・クリップを再生することによって、カット・シーン物語の重要情報の全てをプレーヤーに与えたことが確実となるので、一旦サマリー・クリップを再生したなら、カット・シーンを継続する必要なない。したがって、ステップ426において、カット・シーン制御部300は、応答がサマリー応答であるか否か判定し、応答がサマリー応答であった場合、ステップ432においてカットシーン手順を終了する。
応答がサマリー応答でなかった場合、カット・シーン制御部300は、ステップ428において、プレーヤー状態324を試験して、プレーヤーがカット・シーン・クリップを継続する準備ができているか否か判定する。例えば、プレーヤーのアバターが、非プレーヤー・キャラクタから離れる方向に動いた後、非プレーヤー・キャラクタに戻っていない場合、カット・シーン制御部300は、プレーヤーがカット・シーン・クリップを継続する準備ができていないと判定する。一実施形態の下では、カット・シーン制御部300は、プレーヤーがカット・シーンを継続する準備ができていない場合、タイマーをセットする。次いで、プレーヤーがカット・シーンを継続する準備ができるまで、またはタイマが切れるまで、カット・シーン制御部はステップ428においてループする。タイマが切れた場合、カット・シーン制御部は現カット・シーンをアンロードして、プレーヤーが再度最初からカット・シーンをトリガしなければならないようにする。
例えば、非プレー・キャラクタに帰ってくることによって、アバターがカット・シーン・クリップを継続する準備ができた場合、カット・シーン制御部300は、ステップ430において、オーディオ・スティッチ(audio stitch)の集合体340から1つのオーディオ・スティッチを取り出して再生する。オーディオ・スティッチ340は、オーディオ・スティッチ・ファイル342、344、および346のような、オーディオ・スティッチ・ファイルの集合体を含む。各オーディオ・スティッチ・ファイルは、応答と、ステップ424において中断したカット・シーン・クリップの再開との間において聴覚および視覚セグエ(segue)を与える非プレーヤー・キャラクタのためのオーディオおよびアニメーション・データーを含む。オーディオ・スティッチの例には、「私が言っていたように」(as I was saying)、「貴方が終わったなら」(if you are finished)、そして「今ここで」(now then)が含まれる。このようなオーディオ・スティッチは、応答とカット・シーン・クリップの再開との間に、円滑な遷移をもたらす。
ステップ434において、ステップ424で中断したカット・シーン・クリップを、当該カット・シーン・クリップの最初から再開する。カット・シーン・クリップを再開することによって、カット・シーン制御部300は、カット・シーン物語の重要情報がプレーヤーに提供されたことを確実にする。殆どの場合、カット・シーン・クリップを再開するには、カット・シーンクリップを最初に起動したときに再生したオーディオ信号およびアニメーションを再現することを伴う。次いで、プロセスはステップ404に戻り、カットシーン・クリップの再生を継続し、更に別のアバターの行為を待つ。
別の実施形態では、オーディオ・スティッチ・ファイルを再生し、中断したカット・シーン・クリップを再開する代わりに、カット・シーン制御部300は、中断したカット・シーン・クリップの代わりに再生する、代替カット・シーン・クリップを選択する。代替カット・シーン・クリップを再生した後に、プロセスはステップ412に進み、再生すべきカット・シーンの次のカット・シーン・クリップを選択する。このような実施形態では、代替カット・シーン・クリップおよび次のカット・シーン・クリップを選択して、カット・シーンの重要情報がなおもプレーヤーに提供されていることを保証する。
図4のプロセスは、サマリー応答を再生するまで、ステップ410において他のカットシーン・クリップがなくなるまで、またはステップ428の間に時間切れが生じるまで継続する。
以上の論述において、アバター行為の検出は、ステップ406だけで行われるものとして示した。しかしながら、別の実施形態では、カットシーン制御部300をイベント・ドリブン型とし、図4の流れ図における任意の地点において、カット・シーン制御部300がプレーヤー状態324から、アバターが行為をなしたことの指示を受け取ることができるようにする。その行為に基づいて、カットシーン制御部300は、ステップ414および416に示したように、その行為を印象にマッピングし、この印象をカットシーン応答にマッピングすることができ、この新たな応答に基づいて、アニメーションおよびオーディオ信号を生成することができる。このように、1つの応答を再生するプロセスにおいて、カットシーン制御部300はその応答を中断し、新たなアバターの行為に基づいて、異なる応答を再生することができる。
以上、構造的機構および/または方法論的行動(act)に特定的なことばで、主題について説明したが、添付する特許請求の範囲において定義する主題は、必ずしも前述した特定的な機構や行動には限定されないことは言うまでもない。むしろ、前述した特定的な機構や行動は、特許請求の範囲を実現する形態の例として開示したに過ぎない。

Claims (20)

  1. ゲームにおける非プレーヤー・キャラクタについてのダイアローグを含むファイルを取り出すステップ(402)であって、前記ダイアログは、プレーヤーに伝えるべき重要情報および様式情報を含む完全な物語の少なくとも一部をなす、ステップと、
    前記取り出したファイルにおけるダイアログに基づいて、前記非プレーヤー・キャラクタからの音声を表すオーディオ信号を生成するステップ(404)と、
    前記オーディオ信号が生成されている間に、前記プレーヤーのアバターがある行為を実行したと判定するステップ(406)と、
    前記行為を、前記非プレーヤー・キャラクタが有する当該行為の印象にマッピングするステップ(414)と、
    前記印象を応答にマッピングするステップ(416)であって、前記応答が、ダイアログおよび動きを含む1群の内少なくとも1つを含む、ステップと、
    前記取り出したファイルにおけるダイアログの全てをオーディオ信号として生成し終える前に、前記取り出したファイルに対するオーディオ信号を停止するステップ(424)と、
    前記非プレーヤー・キャラクタからの音声を表すオーディオ信号と、前記応答に基づく前記非プレーヤー・キャラクタの動きを示すディスプレイ上のアニメーションを含む1群の内少なくとも1つを生成するステップ(424)と、
    前記物語の重要情報が前記プレーヤーに提供されたことを確実にするステップ(424、426、434)と、
    を含む、方法。
  2. 請求項1記載の方法において、複数の行為を1つの印象にマッピングする、方法。
  3. 請求項1記載の方法において、前記物語の重要情報が前記プレーヤーに提供されたことを確実にするステップは、前記取り出したファイルにおけるダイアログに基づいて、前記非プレーヤー・キャラクタからの音声を表すオーディオ信号を再開させるステップ(434)を含む、方法。
  4. 請求項3記載の方法において、前記オーディオ信号を再開させるステップは、前記オーディオ信号を停止する前に生成された前記オーディオ信号の少なくとも一部を再現するステップを含む、方法。
  5. 請求項4記載の方法において、前記オーディオ信号を再開させるステップは、前記取り出したファイルにおけるダイアログの最初において前記オーディオ信号を再開させるステップを含む、方法。
  6. 請求項4記載の方法であって、更に、前記応答のオーディオ信号と、前記取り出したファイルにおけるダイアログについての前記オーディオ信号の再現との間における遷移として、オーディオ信号を生成するステップ(430)を含む、方法。
  7. 請求項1記載の方法において、前記取り出したファイルは、前記完全な物語を一緒に形成する複数のファイル(302)の内1つを含む、方法。
  8. 請求項7記載の方法において、前記行為は、前記物語を要約する命令を含み、前記応答は、前記重要情報を含む前記完全な物語(302)の要約バージョン(318)を含み、前記重要情報がユーザに伝達されたことを確実にするステップは、前記完全な物語の要約バーションに基づいて、オーディオ信号を生成するステップ(424)を含む、方法。
  9. 請求項1記載の方法において、前記取り出したファイルは、更に、前記非プレーヤー・キャラクタについての動きを含み、前記方法は、更に、前記取り出したファイルにおける動きに基づいて、前記表示されている非プレーヤー・キャラクタの動画化した動きを生成するステップ(404)を含み、前記応答に基づいて前記非プレーヤー・キャラクタの動きを示すアニメーションをディスプレイ上に生成するステップは、前記応答のアニメーションを前記取り出したファイルのアニメーションと統合するステップ(422)を含む、方法。
  10. コンピューター読み取り可能媒体であって、
    ゲームにおける非プレーヤー・キャラクタについてのオーディオ信号および動画化した動きを表すデーターを収容するファイルにアクセスするステップ(402)と、
    前記非プレーヤー・キャラクタからの音声を表すオーディオ信号を発生し(404)、前記ファイルにおけるデーターに基づいて、前記非プレーヤー・キャラクタの動きを示すアニメーションをディスプレイ上に発生するステップと、
    前記ゲームにおけるプレーヤーのアバターがある行為を実行したと判定するステップ(406)と、
    前記行為を印象にマッピングするステップ(414)と、
    前記印象を、当該印象を伝えるために設計された、前記非プレーヤー・キャラクタについての動画化した動きを含む応答にマッピングするステップ(416)と、
    前記ファイルにおける動画化した動きを、前記応答の動画化した動きと組み合わせ、修正アニメーションを形成するステップと(422)、
    前記修正アニメーションを表示している間、中断することなく、前記ファイルの前記オーディオ信号を継続するステップ(422、404)と、
    を含むステップを実行するコンピューター実行可能命令を有する、コンピューター読み取り可能媒体。
  11. 請求項10記載のコンピューター読み取り可能媒体において、行為を印象にマッピングするステップは、前記行為を、1つの行為のみによってマッピングされることには限定されない1つの印象にマッピングするステップを含む、コンピューター読み取り可能媒体。
  12. 請求項10記載のコンピューター読み取り可能媒体において、前記行為は、前記アバターの動きを含む、コンピューター読み取り可能媒体。
  13. 請求項12記載のコンピューター読み取り可能媒体において、前記動きは、前記非キャラクタ・プレーヤーを攻撃することを含む、コンピューター読み取り可能媒体。
  14. 請求項10記載のコンピューター読み取り可能媒体において、前記印象は、前記行為が無礼であったことを示す、コンピューター読み取り可能媒体。
  15. プレーヤーのアバターがある行為を実行したと判定するステップ(406)と、
    前記プレーヤーに物語を提供している非プレーヤー・キャラクタが、前記行為に応答すべきであると判定するステップ(418)と、
    前記非プレーヤー・キャラクタに前記物語を停止させるステップ(424)と、
    前記非プレーヤー・キャラクタに前記行為に応答させるステップ(424)と、
    前記非プレーヤー・キャラクタに、前記応答と前記物語の継続との間で口頭セグエ(verbal segue)を与えさせるステップ(430)と、
    前記非プレーヤー・キャラクタに前記物語を継続させるステップ(434、404)と、
    を含む、方法。
  16. 請求項15記載の方法において、非プレーヤー・キャラクタが行為に応答すべきであると判定するステップは、前記行為を印象にマッピングするステップ(414)と、前記印象を応答にマッピングするステップ(416)とを含む、方法。
  17. 請求項16記載の方法において、前記応答は、前記非プレーヤー・キャラクタからの音声を表すオーディオ信号を含む、方法。
  18. 請求項17記載の方法において、前記応答は、更に、前記行為の印象を伝えるアニメーションを含む、方法。
  19. 請求項15記載の方法において、前記非プレーヤー・キャラクタによって与えられる物語は、複数のファイルに格納されており、前記物語を継続させるステップは、前記非プレーヤー・キャラクタが前記物語を停止したときに中断されたファイルの最初から開始するステップ(434)を含む、方法。
  20. 請求項15記載の方法において、前記行為は、前記プレーヤーのアバターが、前記非プレーヤー・キャラクタから遠ざかるように、しきい値距離を超えて動くことを含む、方法。
JP2010513338A 2007-06-21 2008-06-12 ビデオ・ゲームにおける応答カットシーン Withdrawn JP2010530286A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/766,483 US8622831B2 (en) 2007-06-21 2007-06-21 Responsive cutscenes in video games
PCT/US2008/066649 WO2009002713A2 (en) 2007-06-21 2008-06-12 Responsive cutscenes in video games

Publications (2)

Publication Number Publication Date
JP2010530286A true JP2010530286A (ja) 2010-09-09
JP2010530286A5 JP2010530286A5 (ja) 2011-07-28

Family

ID=40137051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010513338A Withdrawn JP2010530286A (ja) 2007-06-21 2008-06-12 ビデオ・ゲームにおける応答カットシーン

Country Status (8)

Country Link
US (2) US8622831B2 (ja)
EP (1) EP2158571A2 (ja)
JP (1) JP2010530286A (ja)
KR (1) KR20100020006A (ja)
CN (1) CN101689278A (ja)
CA (1) CA2685834A1 (ja)
IL (1) IL201706A0 (ja)
WO (1) WO2009002713A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020523871A (ja) * 2017-06-12 2020-08-06 グレースノート インコーポレイテッド 双方向性ビデオコンテンツの表示の検出および表示に対する応答

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI356722B (en) * 2008-05-12 2012-01-21 Princeton Technology Corp Game controller with speaker
US9579576B2 (en) 2008-07-22 2017-02-28 Daybreak Game Company Llc System and method for providing persistent character personalities in a simulation
US8893022B2 (en) * 2010-04-01 2014-11-18 Microsoft Corporation Interactive and shared viewing experience
CN102479387A (zh) * 2010-11-30 2012-05-30 中兴通讯股份有限公司 生成多媒体动画与播放该多媒体动画的方法和装置
US8963927B2 (en) * 2010-12-15 2015-02-24 Microsoft Technology Licensing, Llc Vertex-baked three-dimensional animation augmentation
US10592596B2 (en) 2011-12-28 2020-03-17 Cbs Interactive Inc. Techniques for providing a narrative summary for fantasy games
US10540430B2 (en) 2011-12-28 2020-01-21 Cbs Interactive Inc. Techniques for providing a natural language narrative
CN103893971B (zh) 2012-12-25 2015-05-27 腾讯科技(深圳)有限公司 一种游戏音效的制作方法和客户端
AU2014223988A1 (en) * 2013-02-28 2015-10-08 Gamblit Gaming, Llc Parallel ai hybrid gaming system
US20160054563A9 (en) * 2013-03-14 2016-02-25 Honda Motor Co., Ltd. 3-dimensional (3-d) navigation
US9164281B2 (en) 2013-03-15 2015-10-20 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US9251715B2 (en) 2013-03-15 2016-02-02 Honda Motor Co., Ltd. Driver training system using heads-up display augmented reality graphics elements
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
CN105959725A (zh) * 2016-05-30 2016-09-21 徐文波 视频中媒体特效的加载方法和装置
US10279260B2 (en) 2017-03-06 2019-05-07 Sony Interactive Entertainment LLC Cut-scene gameplay
CN109420338A (zh) 2017-08-31 2019-03-05 腾讯科技(深圳)有限公司 模拟镜头移动的虚拟场景显示方法及装置、电子设备
CN109794064B (zh) * 2018-12-29 2020-07-03 腾讯科技(深圳)有限公司 互动剧情实现方法、装置、终端和存储介质
JP6752349B1 (ja) * 2019-12-26 2020-09-09 株式会社ドワンゴ コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
CN111437600A (zh) * 2020-03-24 2020-07-24 腾讯科技(深圳)有限公司 剧情展示方法、装置、设备及存储介质
CN113936079B (zh) * 2021-09-17 2022-08-26 完美世界(北京)软件科技发展有限公司 动画生成方法、设备及存储介质
US11838453B2 (en) * 2022-04-15 2023-12-05 Rovi Guides, Inc. Systems and methods for efficient management of resources for streaming interactive multimedia content

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4305131A (en) 1979-02-05 1981-12-08 Best Robert M Dialog between TV movies and human viewers
US5679075A (en) 1995-11-06 1997-10-21 Beanstalk Entertainment Enterprises Interactive multi-media game system and method
US5927988A (en) 1997-12-17 1999-07-27 Jenkins; William M. Method and apparatus for training of sensory and perceptual systems in LLI subjects
US20010039203A1 (en) 2000-02-23 2001-11-08 Brown Geoffrey Parker Behavior modeling in a gaming environment with contextual accuracy
US6544040B1 (en) 2000-06-27 2003-04-08 Cynthia P. Brelis Method, apparatus and article for presenting a narrative, including user selectable levels of detail
US6364668B1 (en) * 2001-01-22 2002-04-02 Molex Incorporated Electrical connection system and method for flat circuits
US20030091970A1 (en) 2001-11-09 2003-05-15 Altsim, Inc. And University Of Southern California Method and apparatus for advanced leadership training simulation
JP3927821B2 (ja) * 2002-01-25 2007-06-13 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP4069119B2 (ja) 2002-08-20 2008-04-02 ヴィヴェンディ ユニバーサル ゲームズ, インコーポレイテッド 感情ベースのキャラクタ・インタラクションを有するコンピュータ・ゲーム
US20050278642A1 (en) 2004-06-10 2005-12-15 Chang Nelson L A Method and system for controlling a collaborative computing environment
KR100990891B1 (ko) 2004-06-18 2010-11-03 윤재민 클라이언트 단말기와 캐릭터 사이에 다중 대화를 제공하기 위한 시스템 및 방법
US20060040718A1 (en) 2004-07-15 2006-02-23 Mad Doc Software, Llc Audio-visual games and game computer programs embodying interactive speech recognition and methods related thereto
US20060119598A1 (en) 2004-12-08 2006-06-08 Evil Twin Studios, Inc. System and method for communicating travel progress within a virtual environment
US7637806B2 (en) 2004-12-20 2009-12-29 Rampart Studios, Llc Method for dynamic content generation in a role-playing game
US7951000B2 (en) 2005-05-06 2011-05-31 Microsoft Corporation Dynamic frame system
KR20070024918A (ko) 2005-08-31 2007-03-08 김유신 가상 공간에서 화상 커뮤니케이션 서비스 제공 장치 및방법
US7572187B2 (en) * 2005-10-14 2009-08-11 Leviathan Entertainment Video game environment that tracks help and advice provided to other player characters

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020523871A (ja) * 2017-06-12 2020-08-06 グレースノート インコーポレイテッド 双方向性ビデオコンテンツの表示の検出および表示に対する応答

Also Published As

Publication number Publication date
US20080318676A1 (en) 2008-12-25
WO2009002713A2 (en) 2008-12-31
US20140087875A1 (en) 2014-03-27
CA2685834A1 (en) 2008-12-31
IL201706A0 (en) 2010-05-31
CN101689278A (zh) 2010-03-31
WO2009002713A3 (en) 2009-02-26
KR20100020006A (ko) 2010-02-19
US8622831B2 (en) 2014-01-07
EP2158571A2 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
US8622831B2 (en) Responsive cutscenes in video games
US8601379B2 (en) Methods for interactive communications with real time effects and avatar environment interaction
JP5492076B2 (ja) ライブ・ゲーム・ロビー
US7448950B2 (en) Game machine, method and program
US8393967B2 (en) Construction of gaming messages with contextual information
JP3949701B1 (ja) 音声処理装置、音声処理方法、ならびに、プログラム
JP3306397B2 (ja) エンタテインメント装置、画像生成方法および記憶媒体
US20080215974A1 (en) Interactive user controlled avatar animations
EP2118840A1 (en) Interactive user controlled avatar animations
KR20010049659A (ko) 비디오게임의 제어방법, 비디오게임장치 및 비디오게임의프로그램을 기록한 컴퓨터판독가능한 매체
US10441876B2 (en) Video game integrating recorded video
WO2008106197A1 (en) Interactive user controlled avatar animations
JP5574276B2 (ja) ゲーム装置及びこれの制御方法並びにゲーム装置に適合するゲームプログラム
JP3914636B2 (ja) 音声入力式ヒューマンインタフェースに特徴を有するビデオゲーム機およびプログラム記録媒体
JP2012050791A (ja) キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
JP2014205058A (ja) ゲーム装置及びこれの制御方法並びにゲーム装置に適合するゲームプログラム
US20220379216A1 (en) Interactions between characters in video games
JP2006042844A (ja) ゲームソフトウエア及びゲーム装置
JP2002210233A (ja) エンタテインメント装置、記録媒体及びプログラム
JP2001252471A (ja) ゲーム装置、画像表示の制御方法及び記録媒体
GB2621873A (en) Content display system and method
JP2022107658A (ja) プログラム、方法、および情報処理装置
JP2023012965A (ja) 音声ユーザインターフェースプログラム、記録媒体、音声ユーザインターフェース処理方法
JP2021183042A (ja) コンテンツ再生プログラム及びコンテンツ再生装置
JP2020014533A (ja) ゲームプログラムならびにゲーム装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110610

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20121113