JP6086601B2 - 没入型ストーリーテリング環境 - Google Patents

没入型ストーリーテリング環境 Download PDF

Info

Publication number
JP6086601B2
JP6086601B2 JP2013191934A JP2013191934A JP6086601B2 JP 6086601 B2 JP6086601 B2 JP 6086601B2 JP 2013191934 A JP2013191934 A JP 2013191934A JP 2013191934 A JP2013191934 A JP 2013191934A JP 6086601 B2 JP6086601 B2 JP 6086601B2
Authority
JP
Japan
Prior art keywords
storytelling
user
story
devices
storytelling devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013191934A
Other languages
English (en)
Other versions
JP2014061373A (ja
Inventor
ハセルタイン エリック
ハセルタイン エリック
ガーリントン ジョセフ
ガーリントン ジョセフ
ウェイ−ユン レ セオドア
ウェイ−ユン レ セオドア
ムールハイム エリック
ムールハイム エリック
セバスティアン シュルンベルジェ ガブリエル
セバスティアン シュルンベルジェ ガブリエル
Original Assignee
ディズニー エンタープライゼス インコーポレイテッド
ディズニー エンタープライゼス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ディズニー エンタープライゼス インコーポレイテッド, ディズニー エンタープライゼス インコーポレイテッド filed Critical ディズニー エンタープライゼス インコーポレイテッド
Publication of JP2014061373A publication Critical patent/JP2014061373A/ja
Application granted granted Critical
Publication of JP6086601B2 publication Critical patent/JP6086601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/47Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/404Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network characterized by a local network connection
    • A63F2300/405Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network characterized by a local network connection being a wireless ad hoc network, e.g. Bluetooth, Wi-Fi, Pico net
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/632Methods for processing data by generating or executing the game program for controlling the execution of the game in time by branching, e.g. choosing one of several possible story developments at a given point in time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Toys (AREA)
  • User Interface Of Digital Computer (AREA)

Description

[0002]本発明は、一般にホームエンターテインメントに関し、さらに詳細には、ストーリーテリング装置を用いて没入型ストーリーテリング環境を提供する技術に関する。
[関連出願の相互参照]
[0001]本願は、参照によりその全てを本明細書に組み込む、2012年9月19日出願の米国特許仮出願第61/703228号の利益を主張するものである。
[関連技術の説明]
[0003]ビデオゲームが最初に開発されて以来、コンピュータグラフィックス技術は長足の進歩を遂げた。現在では、比較的安価な3Dグラフィックスエンジンでも、わずか数百ドルで買える携帯型ビデオゲーム、家庭用ビデオゲーム及びパーソナルコンピュータといったハードウェアプラットフォームで写真とほとんど変わらない画質の相互作用型ゲームを遊べるようになっている。これらのビデオゲームシステムは、通常は、携帯型コントローラ又はゲームコントローラを含む、或いは携帯型ビデオゲームプラットフォームの場合であれば一体化コントローラを含む。ユーザ又はプレーヤは、このコントローラを使用して、コマンドなどの命令をビデオゲームシステムに送信し、再生しているビデオゲームなどのシミュレーションを制御する。例えば、コントローラは、ユーザによって操作されるマニピュレータ(例えばジョイスティックなど)及びボタンを備えることができる。
[0004]ビデオゲームは、ユーザがビデオゲームシステムと直接相互作用することができるようになっていることもあるが、このような相互作用が主に影響を及ぼすのはビデオゲーム装置(又は接続されたディスプレイ)に示されるグラフィック描写であり、仮想世界の外側のその他の任意のオブジェクトに影響を及ぼすことはまれである。すなわち、ユーザは、ビデオゲームシステムへの入力を指定して、ユーザのアバタがジャンプするアクションを実行することを示すことができ、これに応答して、ビデオゲームシステムは、ユーザのアバタがジャンプしている様子を表示することができる。ただし、このような相互作用は、通常は仮想世界に限定され、仮想世界の外側の任意の相互作用は制限されている(例えば、手持ち型ゲーム装置は、特定のアクションが起こったときに振動することができる)。
[0005]さらに、多くの手持ち型ゲーム装置は、物理的な現実世界の光景の画像又は一連の画像を取得するために使用することができる、何らかの形態のカメラ装置を含む。取得した画像は、その後、例えば手持ち型ゲーム装置のディスプレイ上に表示することができる。ある種の装置は、取得した画像を表示する前に、それらの画像に仮想オブジェクトを挿入するように構成することができる。さらに、その他の装置又はアプリケーションにより、ユーザが、特に物理的光景の取得画像内に絵を描く、又は色を塗ることができることもある。しかし、このような変更は物理的光景の1つの画像にしか適用されないので、異なる角度からの物理的光景のその後の取得画像は、そのユーザの変更を含まないこともある。
[0006]1実施形態は、複数のストーリーテリング装置を含むシステムを提供する。各ストーリーテリング装置は、刺激事象に応答してストーリーの現在のコンテキストに基づく効果を発生させるようにそれぞれ構成される。ここで、この効果は、聴覚的効果及び視覚的効果のうちの少なくとも一方である。さらに、上記複数のストーリーテリング装置のうちの少なくとも1つのための刺激事象は、上記複数のストーリーテリング装置が位置している物理的環境内でのユーザアクションを含む。また、このシステムは、ストーリーの現在のコンテキストに基づいて、刺激事象及び上記複数のストーリーテリング装置それぞれの効果を調整することによって、ストーリーの再生を管理するように構成された制御装置も含む。
[0007]さらに別の実施形態では、刺激事象に応答してストーリーの現在のコンテキストに基づく効果を発生させるようにそれぞれ構成された複数のストーリーテリング装置を用意するステップであって、この効果が、聴覚的効果及び視覚的効果のうちの少なくとも一方であり、上記複数のストーリーテリング装置のうちの少なくとも1つのための刺激事象が、上記複数のストーリーテリング装置が位置している物理的環境内でのユーザアクションを含むステップを含む、方法及びコンピュータ可読媒体を提供する。また、この方法及びコンピュータ可読媒体は、ストーリーの現在のコンテキストに基づいて、刺激事象及び上記複数のストーリーテリング装置それぞれの効果を調整することによって、ストーリーの再生を管理するステップも含む。
[0008]上述の態様を実現する方法を詳細に理解することができるように、上記で短く概要を述べた本発明の実施形態について、添付の図面を参照しながらさらに具体的に説明する。
[0009]なお、添付の図面は、本発明の代表的な実施形態しか示しておらず、したがって、本発明には同様に効果的なその他の実施形態が存在する余地があるため、添付の図面は、本発明の範囲を限定するものとは考えられないことに留意されたい。
本明細書に記載する1実施形態による、複数のストーリーテリング装置を含むストーリーテリング環境を示すブロック図である。 本明細書に記載する1実施形態による、複数のストーリーテリング装置が互いに相互作用してストーリーを再生している様子を示すユースケースを示す図である。 本明細書に記載する1実施形態による、ストーリーテリング装置と制御装置の間の相互作用を説明する流れ図である。 本明細書に記載する1実施形態による、複数のストーリーテリング装置の決定を説明する流れ図である。 本明細書に記載する1実施形態による、複数のストーリーテリング装置へのストーリーのマッピングを説明する流れ図である。 本明細書に記載する1実施形態によるストーリーテリング装置を示すブロック図である。 本明細書に記載する1実施形態による制御装置を示すブロック図である。 本明細書に記載する1実施形態による拡張現実装置を示すブロック図である。
[0018]大まかに言えば、実施形態は、1つ又は複数のストーリーテリング装置を用いて没入型ストーリーテリング環境を創出する技術を提供するものである。さらに詳細には、実施形態では、何らかの聴覚的効果及び/又は視覚的効果をそれぞれ生成することができる様々なストーリーテリング装置を使用して、ユーザに対して没入型かつ相互作用型のストーリーテリング体験を創出することができる。その一例を、図1に示す。図1は、複数のストーリーテリング装置を含むストーリーテリング環境を示すブロック図である。システム100は、ネットワーク130を介して相互接続された、複数のストーリーテリング装置1101−Nと制御器120とを含む。ここで、各ストーリーテリング装置1101−Nは、一般に、何らかの形態の刺激及びストーリーの現在のコンテキストに応じたストーリーテリング体験に寄与することができるものであれば、どのような装置であってもよい。例えば、制御装置120は、ストーリーの現在のコンテキストに基づいて、刺激及び応答情報を有するように各ストーリーテリング装置1101−Nを構成することもできる。例えば、制御装置120は、特定のストーリーテリング装置を、特定の刺激事象(例えばユーザが特定のアクションを実行するなど)に応答して特定の視聴覚アクションを行い、別の刺激事象(例えばユーザが既定の時間枠内に上記特定のアクションを実行しないなど)に応答して別の視聴覚アクションを実行するように構成することもできる。
[0019]ユーザが、特定のストーリーの没入型ストーリーテリング体験を開始したいという希望を示すと、制御装置120は、このユーザの物理的環境(例えばそのユーザの家の中でそのユーザが現在立っている部屋など)内で利用可能な全てのストーリーテリング装置1101−Nを検出することができる。さらに、制御装置120は、利用可能な全てのストーリーテリング装置1101−Nのうちのどのストーリーテリング装置がその特定のストーリーに適合しているかを決定することができる。適合しているストーリーテリング装置1101−Nを特定したら、制御装置120は、その特定したストーリーテリング装置1101−Nを用いて、ユーザの没入型ストーリーテリング体験を開始することができる。
[0020]上述のように、制御装置120は、各ストーリーテリング装置1101−Nを、検出した刺激事象及び現在語られているストーリーの現在のコンテキストに応答して特定のアクションを実行するように構成することができる。ここで、ストーリーは、いくつかの異なるコンテキストを時間的に順序付けて含むことができ、このストーリーの再生は、最後のコンテキストに達してストーリーテリング体験が完了するまで、1つのコンテキストから次のコンテキストに進めることができる。ただし、ストーリーは直線的に進行させることもできるが、必ずしもそうなる必要があるわけではない。例えば、1実施形態では、1つ又は複数の分岐を有するストーリーが提供され、このストーリーは、複数の異なるアークのうちの1つに沿って進行することができる。例えば、これらのアークのうちの1つを、選択アルゴリズム(例えばアークのうちの1つを無作為に選択するなど)、ユーザの要求(例えばどのアークを選択するかをユーザが指定するなど)、ユーザのアクション(例えばユーザがストーリー中の架空のキャラクタのうちの1人を「救い出す」ことに成功したなど)、及びユーザのアクション履歴(例えばスターウォーズ(Star Wars)(登録商標)のストーリーラインでユーザが「ダークサイド」に落ちる傾向があるかどうかなど)などに基づいて、選択することができる。さらに、ストーリーは、例えばストーリーテリング装置のうちの1つが利用不可能になる(例えば電源を喪失したり、その物理的環境から離れたりするなど)、又は新たなストーリーテリング装置がその環境に導入される(例えばユーザの友人が1つ又は複数の新たなストーリーテリング装置を持って遊びに来るなど)など、様々なアクションに基づいて、再生中に動的に修正することもできる。
[0021]例えば、ストーリーテリング装置は、魔法のランプの形状であってもよく、刺激事象は、そのストーリーテリング装置が位置する物理的環境内のユーザのアクション(例えばユーザが魔法のランプの装置の表面を擦るなど)であってもよい。別の例では、刺激事象は、ストーリーテリング装置のうちの別の1つによって実行されるアクションであってもよい。検出された刺激事象に応答してこの(これらの)アクションを実行するために、魔法のランプの装置は、ランプの上方に魔神の描写を投影する(すなわちランプ内部などその物理的環境内に1つ又は複数の投影機を設ける)ように構成することもできる。例えば、この描写は、物理的世界内に存在してその物理的世界と相互作用する現実の画像又はホログラフィの画像の出現(又は幻想)を生み出す仮想又は現実の画像投影とすることができる。さらに、この魔法のランプの装置は、音声を再生することができる1つ又は複数のオーディオ装置(例えばスピーカや空洞共振器など)を含んでいてもよい。例えば、魔法のランプの装置は、1つ又は複数のオーディオ装置を使用して魔神の投影と同期した音声を再生して、魔神の声を表現することもできる。
[0022]ストーリーテリング体験の一部として、ストーリーテリング装置1101−Nは、様々な入出力構成要素を用いて、互いに、またユーザと相互作用しているように見えることがある。引き続き上記の魔法のランプの装置を例にとると、この装置を、振動機構(例えば偏心重りに歯車を結合したもの)を備えるものとして構成して、魔神が魔法のランプの中に「閉じ込め」られているときに魔法のランプが揺れているように見えるようにすることができる。また、ランプがタッチセンシティブな表面を備えるようにし、この表面を用いて、ユーザがランプを擦ったときにそれを検出することもできる。例えば、このランプが、テーブルの上でがたがた揺れているように見えるようにして、魔神がユーザに向かって「ここから出してくれ!」と頼んでいることを示す音声効果を再生することもできる。この場合、ランプは、ユーザがランプの側面を手で擦った(すなわち刺激事象が発生した)ときにそれを検出し、これに応答して、ランプの上方に魔神のホログラフィ描写を投影することができる。その後、ホログラフィ投影された魔神が、自分をランプから解放してくれたことに対してユーザに礼を言い(すなわち刺激事象の発生に応答したアクションが実行され)、ストーリーを続けることができる。
[0023]ストーリーテリング体験の中で、そのストーリーの部分によっては、ストーリーを進める前にユーザによる何らかのアクションが必要になることがある。例えば、ストーリーテリング装置が、ユーザが特定のオブジェクト(例えば魔法のお守り)を発見することを必要とすることもある。このようなオブジェクトは、例えば、物理的環境内に(例えばユーザの親又は保護者によって)予め隠された物理的オブジェクトであってもよいし、或いは拡張現実装置を用いると見える仮想オブジェクトであってもよい。ストーリーテリング装置(又は制御装置)は、例えば、隠されたオブジェクトに対応し全地球測位システム(GPS)を受信し(例えば、隠されたオブジェクト自体により決定される、隠されたオブジェクト自体から直接受信される、制御装置から受信されるなど)、そのストーリーテリング装置と関連付けられたGPS座標を決定することにより、物理的環境内の隠されたオブジェクトの現実世界の位置を決定することができる。その後、ストーリーテリング装置(又は制御装置)は、この2組のGPS座標を使用して、そのストーリーテリング装置に対する隠されたオブジェクトの位置を決定する。ストーリーテリング装置(又は制御装置)は、さらに、(例えばそのストーリーテリング装置の1つ又は複数のカメラなどを用いて取得した画像に基づくユーザと関連付けられたGPS座標を用いて)そのストーリーテリング装置に対するユーザの位置も決定し、この2つの相対位置から、ユーザに対する隠されたオブジェクトの位置を決定することができる。ユーザがオブジェクトに近づくにつれて、ストーリーテリング装置(又は制御装置)は、ユーザの位置をモニタリングし、ユーザがオブジェクトを発見する助けとなる案内を提供することができる。例えば、ストーリーテリング装置は、ユーザがオブジェクトに近づいていれば、ユーザが「ホット」になっていることをユーザに通知し、ユーザがオブジェクトから遠ざかっていれば、ユーザが「コールド」になっていることをユーザに通知するようにしてもよい。
[0024]1実施形態では、ユーザに複数の異なるアクションの間の選択権が与えられ、ユーザが選んだアクションがストーリーの結果に影響を及ぼすことがある。すなわち、ユーザがどのアクションを選ぶかによって、制御装置120が、そのストーリーの対応するストーリーラインアークに基づいて、ストーリーテリング装置1101−Nの構成を変えることができる。このような例では、ストーリーのあるコンテキストから次のコンテキストに進むときに、制御装置120は、検出した刺激事象に基づいて、次に進む複数のコンテキストのうちの1つを選択することができる。例えば、一旦ユーザが魔法のお守りを発見すると、魔神は、そのお守りの力を使えばそのストーリー中の敵対者の邪悪な計画を阻止することができること、或いはそのお守りを破壊すれば敵対者の企みを阻止することができることをユーザに知らせることができる。その後、ユーザが自分の選択結果を魔神に伝える(例えば口頭で伝えたのを1つ又は複数のマイクロフォンで検出する)と、制御装置120は、そのユーザの選択に対応する次のコンテキストにストーリーを進め、それに応じてストーリーテリング装置1101−Nを構成して、ユーザが選んだ経路に応じて異なる残りのストーリーを最後まで再生することができるようにする。
[0025]一般に、ストーリーテリング装置1101−Nは、ストーリーテリング体験の一部としてユーザと視覚的に相互作用することができる。例えば、上記の魔法のランプのストーリーテリング装置の例を用いると、ストーリーテリング装置は、(例えば装置内の1つ又は複数の照準付きカメラ、すなわち投影機の投影対象領域を写すように構成されたカメラを用いて)ユーザの位置をトラッキングして、(例えば現実世界内に現実又はホログラフィの画像が見えるようにする画像投影技術を用いて)魔法のお守りを探して部屋の中を移動しているユーザの後に魔神がついて行くように見えるように魔神の描写を投影することができる。また、ストーリーテリング装置は、ユーザの位置を使用して、投影した魔神がユーザに話しかけるときにはユーザと向かい合うようにして、ストーリーテリング体験の現実感を高める一助とすることもできる。魔神は、ユーザが隠されたお守りから離れると、怒っているように、又は苛々しているように表現し、ユーザがお守りに近づくと、ユーザを励ましているように、又は応援しているように表現することもできる。
[0026]1実施形態では、ストーリーテリング装置1101−Nのうちの1つが、定位される音声(すなわちストーリーテリング装置から発せられたように聞こえる音声)又は定位されない音声(すなわち入力方向が分かりにくい音声)或いはその両方を生成することができる1つ又は複数のオーディオ装置を備える構成とされる。一般的には、定位される音声は、中間周波数及び高周波数を発生させるスピーカから発生させることができ、定位されない音声は、低周波数を発生させるスピーカから発生させることができる。さらに一般的には、定位される音声及び/又は定位されない音声を発生させる技術は、既知の技術であれ未知の技術であれ、どのような技術でも、本開示と調和して使用することができるものと広く企図している。
[0027]実施形態では、定位される音声と定位されない音声(例えば周波数の異なる複数の音声)を使用して、没入型ストーリーテリング環境内で特定の効果を送出することができる。例えば、魔神がランプに「閉じ込め」られているときには、ランプの装置が定位される音声を用いて魔神の声を表す音声を出して、魔神の声がランプから出ているように聞こえるようにすることができる。一方、ユーザが魔法のお守りの力を呼び起こしているときには、ランプが定位されない音声を用いてお守り用の音響効果を出して、音響効果がユーザの周囲全体から聞こえるようにすることができる。実施形態では、知覚される音源の位置を変化させることによって、さらに没入度の高い、強化されたストーリーテリング体験を創出することができるので有利である。
[0028]その後、ストーリーテリング装置は、画像認識機能及び声/音声認識機能を使用して、個別化したコンテキスト認識ストーリーテリングを実現することができる。さらに、これらの認識機能により、ユーザによるストーリーテリングシステムの設定及び保守の作業を大幅に簡略化することができる。このような設定の自動化を利用して、効果的に、複雑な複数要素からなるストーリーテリング環境を、ユーザにとって楽しく簡単なものにすることができる。例えば、画像認識技術をジオロケーションシステムと関連付けて使用して、ストーリーの内容を(居間ではなく)子供の寝室に合わせたものにするようにストーリーテリング装置に自動的に伝えるようにして、それが現在どこに位置しているか、また他のストーリーテリング装置のうちのどれが現下の環境中にあるかを、ユーザが手作業でストーリーテリング装置に入力する必要がないようにすることもできる。
[0029]さらに、上述のように、ストーリーテリング装置1101−Nは、没入型ストーリーテリング体験を創出する際に互いに相互作用することができる。例えば、ストーリーテリング装置110を、特定の刺激に応答して身振りなどの動作(並びに音声表現)を実行することができる機械仕掛けの動物のぬいぐるみ(例えば猿)とすることもできる。例えば、この機械仕掛けの猿のぬいぐるみ110は、その脚を使って(場合によっては腕も使って)歩き回ることができ、またその腕、足、頭及び胴を様々に動かして、様々な身振り及び表情に見えるようにすることができるようにすることもできる。この例では、機械仕掛けの猿の装置110は、(例えば1つ又は複数のカメラを用いて)物理的環境内でのユーザの動きをトラッキングして、ユーザが魔法のお守りを探しているときにユーザの後について室内を動き回ることもできる。その際に、装置110及び/又は制御装置120は、装置110の位置並びに魔法のお守りの装置の位置をトラッキングすることができる。また、猿のぬいぐるみ110は、(例えば隠されたオブジェクトをユーザが探している時間がしきい値より長くなったことを検出したときに)ユーザにヒントを与えるために、刺激事象の発生を検出したのに応答してアクションを実行するように構成することもできる。例えば、20秒経ってもユーザが隠されたお守りを発見できない場合に、猿のぬいぐるみ110が上下に飛び跳ね始めて、隠されたお守りの方向を指し、ユーザの注意を引くノイズを出すようにすることもできる。
[0030]一般に、ストーリーテリング装置は、ストーリーの現在のコンテキストに基づいて、ある所与の刺激事象に対して異なる反応を示すことができ、制御装置120は、ストーリーテリング装置1101−Nを、ストーリーの再生中に様々な刺激事象を認識し、それらに応じて異なるアクションを実行するように構成することができるものと広く企図している。例えば、上記の例では、猿のぬいぐるみの装置は、魔神が初めて出現したとき(すなわちストーリー内の第1のコンテキストにおける第1の刺激事象)には魔神を恐れている反応を示すように構成することができる。しかし、そのストーリー内のそれより後の時点で魔神がユーザを助けに来たとき(すなわちストーリー内の第2のコンテキストにおける第2の刺激事象)には、感謝の反応を示すように猿の装置を構成することができる。別の例では、魔法のランプのストーリーテリング装置(例えばストーリーテリング装置110)は、ユーザが最初にランプを擦ったときに特定の形で(例えばランプの上方に出現する魔神のホログラフィ画像を表示することによって)反応するように構成することもできるが、ストーリーの別の部分ではそれとは違う形で反応するように(又は全く反応しないように)することもできる。このようにすることにより、ストーリーテリング装置は、ストーリーの現在のコンテキストに応じて、現実感のある予想される形で反応することができるので、有利である。
[0031]制御装置120は、一般に、ストーリーテリング体験を管理する論理を含む。これは、例えば、様々なストーリーテリング装置1101−Nのアクションを管理すること、及びそれらのストーリーテリング装置1101−Nが互いに、またユーザとどのように相互作用するかを、ストーリーの現在のコンテキストに基づいて調整することを含むことがある。例えば、制御装置120は、各ストーリーテリング装置1101−Nに、それぞれの装置がストーリーテリング体験の一部として用いるべきアクションとそれに対応する刺激とを定義するデータを伝送することができる。例えば、このようなデータは、投影する1つ又は複数のフレーム、これらのフレームを投影する場所、再生する音声、これらの音声を再生する周波数(例えば定位される音声か定位されない音声か)、及び動きのアクション(例えば歩行、身振り、振動など)を指定することができる(ただしこれらに限定されるわけではない)。このような実施形態では、各ストーリーテリング装置1101−Nは、ストーリー全体並びにそのストーリーに含まれる全てのアクション及び刺激ではなく、それ自体の個々のアクションに関係するデータしか含むことができない。装置1101−Nは、この場合、対応する刺激を検出したのに応答して指定されたアクションを実行することにより、没入型ストーリーテリング環境を創出することができる。
[0032]一般に、本明細書に開示の実施形態によれば、様々な異なる刺激(本明細書では刺激事象とも呼ぶ)を使用することができる。例えば、1つの刺激は、ストーリーテリング装置110内の1つ又は複数のカメラを用いて検出される視覚的刺激とすることができる。例えば、ストーリーテリング装置110は、異なる角度で位置決めされたいくつかの異なるカメラを用いて部屋の異なる画像を取得することにより、ユーザが部屋の中を歩き回っているときにユーザの位置をモニタリングすることができる。その後、ストーリーテリング装置110は、決定されたユーザの位置に基づいて、コンテキストに適したコメントをユーザに対して発することができる。例えば、ストーリーテリング装置110が(例えば隠されたオブジェクトから受信したGPS座標とストーリーテリング装置110の決定されたGPS座標の比較に基づいて)その位置を知っている隠されたオブジェクトからユーザが離れるときに、ストーリーテリング装置110は、(例えば1つ又は複数のスピーカから音声を発することによって)その隠されたオブジェクトを探しているユーザが「コールド」になっているとコメントすることができる。
[0033]刺激の別の例は、ストーリーテリング装置110のうちの別の1つによって行われるアクションである。例えば、ユーザが魔法のランプの装置を擦り、魔神の投影が出現したときに、猿のぬいぐるみの装置がおびえたノイズ(例えば「きゃーっ!」など)を発して、両手で両眼を覆うようにしてもよい。上記の別のストーリーテリング装置110によるアクションの発生は、いくつかの方法でもたらすことができる。例えば、猿の装置は、1つ又は複数のカメラを用いて取得した複数の画像を解析することによって、魔神の投影が出現したことを検出してもよい。
[0034]別の例では、魔法のランプの装置が猿の装置に信号を伝送して、魔神投影アクションが実行されたことを示すようにしてもよい。すると、猿の装置は、受信した信号に基づいて、魔神の出現に反応することができる。上述のように、検出した刺激事象に応答して実行されるアクションは、現在語られているストーリーの現在のコンテキストによって決まるようにすることができる。すなわち、魔神が最初に出現したとき(すなわちストーリー内の第1のコンテキスト)には猿の装置がおびえた反応を示すようにするが、同じストーリーのそれより後の時点でストーリーの敵対者に対抗してユーザを助けに来たとき(すなわちストーリー内の第2のコンテキスト)には安心した反応を示すようにすることができる。
[0035]特定の実施形態では、その他のストーリーテリング装置に直接信号を伝送するのではなく、魔法のランプの装置が制御装置120に信号を伝送し、制御装置120が、事象の発生を認識させる必要があるその他のストーリーテリング装置110があればそれがどのストーリーテリング装置110であるかを決定することができる。すなわち、各ストーリーテリング装置がそれ以外のストーリーテリング装置と直接通信するピアツーピアモデルではなく、各ストーリーテリング装置が制御装置120と通信する集中モデルを利用することもできる。例えば、制御装置は、(所与のストーリーのコンテキストの中で)特定の刺激事象に対してどのストーリーテリング装置110が反応することができるかを指定するデータを保持することができる。特定のアクションが実行されたことを示す信号を受信すると、制御装置120は、このデータを使用して、どの1つ又は複数の装置がこの事象に反応すべきかを決定し、その1つ又は複数の装置に対してこの事象の発生を通知することができる。1実施形態では、制御装置120は、この事象に反応することができる装置のサブセットを選択し、それらの選択した装置のみに事象の発生を通知することもできる。例えば、制御装置120は、物理的環境(例えばユーザの部屋など)内に存在する6個の異なるストーリーテリング装置110が魔神の出現に反応することができると決定した場合には、これらの装置のサブセットが魔神の出現に反応するものとして決定することができる。このサブセットは、例えば、各装置110の刺激に対する応答アクションに関連付けられた優先順位値に基づいて選択することができる。1実施形態では、刺激に反応する装置110は、ランダムに(又は疑似ランダムに)選択される。
[0036]また、制御装置120は、事象に反応することができる利用可能な装置110ごとに、その装置110が事象に反応する際に、その応答アクションの全てを実行すべきかどうかを決定することもできる。すなわち、制御装置120は、特定の利用可能な装置110は、検出した刺激に応答して、その応答アクションの一部のみを実行するように指定することもできる。例えば、魔神の出現に反応することができるストーリーテリング装置110が物理的環境内に6個存在していて、その6個の装置110全てが魔神の出現に対する聴覚的反応と物理的反応の両方を有していると制御装置120が決定したと仮定する。この場合、制御装置120は、それらの装置110のうちの一部(例えば猿の装置のみ)を聴覚的に反応するものとして選択する一方で、6個全ての装置110が魔神の出現に対して物理的反応を実行するものと決定してもよい。このようにすることにより、その動作を行うことができる利用可能なストーリーテリング装置110の全てが刺激に対して何らかの形で確実に反応するようにする一方で、ストーリーテリング装置110が「一斉に音を出し」て、個々の装置の聴覚的寄与を分かりにくくすることがなくなるので、有利である。
[0037]一般に、制御装置120は、いくつかの異なる方法で実装することができる。1実施形態では、制御装置120は、ストーリーテリング装置1101−Nのうちの1つの内部に存在する。このような実施形態の利点の1つは、ストーリーテリング体験を開始する前にユーザ側で追加的な設定を行う必要をなくすことができることである。すなわち、ユーザは、制御装置120を内蔵したストーリーテリング装置を購入することができ、ユーザがストーリーテリング装置を(例えば電源投入することによって)起動したときに、制御装置120が、そのユーザの家の中にその他にどんなストーリーテリング装置1101−Nが存在しているかを(例えば無線通信を介して)検出して、それに応じて自動的にストーリーテリング体験を適応させることができる。それでも、ユーザが経験するのは、単に制御装置120を内蔵した装置の電源を入れたらストーリーが始まったということである。
[0038]特定の実施形態では、制御装置120は、コンピュータ装置上で実行されるソフトウェアを含む。例えば、ユーザは、実行時に制御装置120として機能するソフトウェアアプリケーションを、パーソナルコンピュータ装置又はタブレットコンピュータ装置にダウンロードすることができる。このような実施形態では、ユーザは、ストーリーテリング体験を開始する前にソフトウェアアプリケーションをダウンロード又はインストールする必要があることがある。ただし、パーソナルコンピュータ上のソフトウェアを制御装置120として使用することの利点の1つは、そのソフトウェアアプリケーションがユーザのパーソナルコンピュータの処理能力を利用することができるので、ストーリーテリング装置1101−Nのうちの1つの別個の制御装置論理を追加する追加コストの発生を回避することができることである。
[0039]一般に、制御装置120は、多数の異なるストーリーに関係するデータを保持することができる。ストーリーごとに、制御装置120は、そのストーリーに適合するストーリーテリング装置110のリストを指定するデータを保持することができ、適合する装置ごとに、アクション及びそれに対応する刺激事象のセットを保持することができる。さらに、一部のストーリーは、ユーザが行う選択及び/又はユーザが行うアクションに応じて異なる道筋でストーリーを再生することができる異なる分岐を含むこともできる。
[0040]例えば、ストーリーは、リリースされたときに制御装置120に提供される(例えば、制御装置120は、新たにリリースされたストーリーを遠隔のウェブサイトから自動的にダウンロードすることもできる)。特定の実施形態では、ユーザが特定のストーリーテリング装置を購入してコンテンツサーバに登録したときに、そのストーリーテリング装置に関連付けられたストーリーを自動的にロック解除することができる。1実施形態では、制御装置120は、ユーザが購入したストーリーのみをダウンロードするように構成される。例えば、ユーザは、遠隔のストーリーサーバ(例えばウェブサイトなど)のアカウントを保持することができる。ユーザが所与のストーリーを再生するために選択すると、制御装置120は、遠隔のウェブサイトに問合せを行い、そのウェブサイトにおけるそのユーザのアカウントに基づいて、そのユーザがその選択されたストーリーを既に購入しているかどうかを決定することができる。ユーザがそのストーリーを既に購入している場合には、制御装置120は、利用可能なストーリーテリング装置を用いてそのストーリーを相互作用式に語り始めることができる。そのユーザがそのストーリーをまだ購入していない場合には、制御装置120は、そのストーリーを購入したいかどうかプロンプトで確認することができる。
[0041]1実施形態では、制御装置120は、ユーザがまだ購入していないストーリーを選択したときにユーザの代わりにそのストーリーを自動的に購入するように構成される。特定の実施形態では、ストーリーは、定期購読モデルを用いてユーザに提供される。すなわち、ユーザは、定期購読料金を定期的に(例えば毎月)支払い、新たなストーリーが遠隔のウェブサイト上で定期的にリリースされるようにすることができる。ユーザが定期購読料金を支払っている限り、制御装置120は、遠隔のウェブサイトから新たなストーリーを自動的にダウンロードして、ユーザが次にその1つ又は複数のストーリーテリング装置を使用しようとしたときに、それらの新たなストーリーの再生の準備ができているようにすることができる。
[0042]1実施形態では、ユーザは、自分のストーリーテリング装置のアクション、行動及び/又は対話の代替選択肢を購入することができる。一般に、ストーリーテリング体験に関連付けられた任意のコンテンツは、本明細書の機能と矛盾することなく、様々な方法で、また様々な理由で、ロックしたりロック解除したりすることができるものと企図している。例えば、コンテンツ(例えばストーリー、行動、対話など)は、そのストーリーテリング環境におけるそのユーザの以前のアクションに基づいてロック解除することができる。例えば、スターウォーズ(登録商標)をテーマにしたストーリーテリング環境では、制御装置120は、以前に再生されたストーリーにおけるそのユーザの過去のアクションに基づいて、ユーザが「ダークサイド」に落ちる傾向がある場合には、シスをテーマにした様々なストーリーをロック解除することができる。
[0043]さらに一般的には、ストーリーの配信には、既知のものも未知のものも含めて、任意の収益モデルを利用することができるものと企図している。例示的な収益も出るモデルとしては、ペイパーユースモデル(例えばユーザがストーリーを通しで再生するたびに課金されるなど)、マイクロペイメントモデル(例えば1つのストーリー内の各章を個別に購入することができたり、1つのストーリー内の特別なキャラクタをデジタル通貨を用いてロック解除することができたりするなど)、仮想アイテム購入(例えばストーリーの再生に影響を及ぼす特別なアイテムを、現実の通貨とリンクした純粋に仮想上の通貨及び/又はデジタル通貨を用いてロック解除することができるなど)、広告モデル(例えば所与のストーリーのコンテキスト内に対象製品を配置する、1つ又は複数のストーリーテリング装置による視覚的再生及び/又は聴覚的再生を用いて広告を表現するなど)、バイラルマーケティングモデル(例えば広告機会及び/又は購入機会を互いに伝達し合っているユーザに対して、あるストーリーをロック解除するなど)などが挙げられるが、これらに限定されるわけではない。
[0044]1実施形態では、物理的なものを使用して、デジタル・コンテンツ(及び/又は仮想コンテンツ)をロック解除することができる。例えば、ストーリーテリング装置のうちの1つの特定のスロットに差し込まれるように構成されたプラスチックチップを(例えば小売店で販売されるように)用いることもできる。例えば、電子又は電気機械チップ(例えば特別な構成のスロットを有する鍵など)を、ストーリーテリング装置のうちの1つに差し込んで、コンテンツをロック解除することができる。制御装置120は、チップがストーリーテリング装置のうちの1つに差し込まれたときにそのことを検出することができ、さらに、(そのチップ内のメモリに指定されているデータや、そのチップの構造及び/又は形状などに基づいて)そのチップのタイプも検出することもできる。その後、制御装置120は、検出されたタイプに対応するコンテンツをロック解除して、ユーザが使用できるようにすることができる。例えば、このようなコンテンツとしては、そのチップを有するストーリーテリング装置が再生することができる新しいストーリーラインなどが挙げられ、制御装置120は、チップがストーリーテリング装置に挿入されたのに応答して、このストーリーラインを(例えば遠隔のサーバから)ダウンロードすることができる。別の例では、ロック解除されるコンテンツとしては、そのストーリーテリング装置の新たな行動及び/又は対話などが挙げられる。さらに一般的には、本明細書の機能と矛盾することなく、どのようなコンテンツでも物理的装置によってロック解除することができるものと広く企図している。
[0045]さらに、物理的オブジェクト又は物理的装置は、ストーリーテリング装置に差し込んだりして物理的に接続しなくても、コンテンツをロック解除することができる。例えば、ストーリーテリング装置は、特定のコンテンツをロック解除せよという信号(例えばRF信号又はRFID信号)を受信することもできる。例えば、テーマパークにある特定のスターウォーズ(登録商標)をテーマとするアトラクションで信号を同報通信するようにしておき、この信号を受信したスターウォーズ(登録商標)をテーマとする任意のストーリーテリング装置を、それに応答して特定のコンテンツをロック解除するように構成しておくこともできる。例えば、この信号の受信時に、新たなストーリーラインをロック解除するようにすることもできる。別の例では、ストーリーテリング装置が、この信号を受信したのに応答して特定のアクション(例えば身振り、対話など)を実行するようにすることもできる。
[0046]さらに、ストーリーは、任意数の当事者によって提供することができるものと広く企図している。例えば、1実施形態では、1つのストーリー開発業者が、ストーリーテリングシステム用のストーリーの創出、制作及び市場へのリリースを管理する。別の実施形態では、開発業者、小売業者、ユーザ及び愛好家が、カスタムメイドのストーリーを共同で作成して、その他の様々なユーザに配布することができる市場を形成することができる。このようなカスタムメイドのストーリーは、無料で配布してもよいし、既知のものも未知のものも含めて任意の価格設定モデルを用いて配布してもよく、いずれの場合も本開示と矛盾しない。さらに、この市場を調停して、配布されるストーリーが確実にコンテンツに適したものになるようにすることができる。例えば、調停者は、個々のストーリーに評価(例えばアメリカ映画協会のフィルム評価のような評価)を割り当て、ユーザが特定のストーリーを見る前にこれらの評価をユーザに通知することができる。このような実施形態では、特定のユーザ(例えば子供など)が特定の評価を有するストーリーを見ることを制限することができる。1実施形態では、調停者は、「承認済み」のストーリーのみが市場に出るようにすることもできる。例えば、調停者は、若者に適したストーリーしか配信を承認しないことによって、市場に出回る全てのコンテンツがあらゆる年齢のユーザに適したものであるようにすることもできる。
[0047]一般的に、ストーリーテリング装置110及び制御装置120は、ステートフルな装置とすることができる。すなわち、これらの装置1101−N及び120は、所与のストーリー内の現在の再生位置に関する状態データを保持することができ、この状態データは、ユーザがストーリーの再生を一時停止したときに保持することができる。したがって、ユーザは、特定のストーリーの相互作用式の再生をある再生位置(例えばストーリーが始まってから20分後など)で一時停止することができ、ユーザがこの特定のストーリーの再生を次に再開するときに、その再生を、ほぼその前までの再生位置から(例えば、ちょうどその前までの再生位置から、その前までの再生位置の少し前から、或いはその前までの再生位置の少し後から)再開することができる。
[0048]さらに、このような状態データは、発生している特定の事象(例えばユーザとの相互作用など)を指定することができ、このデータを使用して、ユーザのストーリーテリング体験を向上させることもできる。例えば、仮想キャラクタ(例えば物理的世界の中で投影されたものや、拡張現実装置上に示されたものなど)を、所与の刺激事象に反応する際に使用することができる様々な異なるフレーズを備えるように構成することができる。このような実施形態では、この仮想キャラクタに関連付けられたストーリーテリング装置110は、それらのフレーズのうちのどれをその仮想キャラクタが最近使用したかを指定する状態データを保持することができ、その後の刺激事象の発生に応答する際に、これらの最近使用されたフレーズを使用することを避けることができる。このようにすることで、仮想キャラクタとユーザの間の対話が繰返しになり、マンネリ又は繰返しにならないようになるので、有利である。その他の状態データは、例えば、ユーザの名前を記憶する、部屋の状態を記憶する、1つ又は複数のストーリーテリング装置と1人又は複数のユーザとの間で発生した過去の活動及び相互作用、及び1人又は複数のユーザに将来生じる可能性がある、又は将来生じると予測される必要及び要望を記憶するなど、顧客関係管理(CRM)サービス及びその他の個別化機能に関係したものとすることができる。
[0049]1実施形態では、拡張現実装置を、ストーリーテリング装置110のうちの1つとして使用する。本明細書で使用する「拡張現実装置」という用語は、物理的な現実世界の環境又は物理的な現実世界の環境の要素の実時間表示を行いながら、その表示された環境の中の要素を改変することができる任意の装置を指す。したがって、仮想世界の表示を行う仮想現実装置とは異なり、拡張現実装置は、現実世界の表示を行うが、コンピュータグラフィックス技術を用いて要素を増補する。ただし、さらに一般的には、拡張現実装置とストーリーテリング装置110は、協働してハイレベルな形態の拡張現実を創出することができる。例えば、実施形態では、物理的世界の中に仮想キャラクタの画像を投影して3次元ホログラフィ画像が見えるようにすることによって、ユーザが知覚する物理的世界自体の姿を増補し、それにより、新たな形態の拡張現実をユーザに対して創出することができる。
[0050]例えば、ユーザが自分の部屋の中に隠された魔法のお守りを探す上述の例で言えば、ユーザは、拡張現実装置を用いてお守りを探すことができる。例えば、ユーザは、部屋の中を歩き回りながら拡張現実装置で部屋を見ることができ、この拡張現実装置上のソフトウェアは、ユーザの部屋の中の特定の位置を見たときに、表示される光景がその拡張現実装置を含むように構成することができる。さらに、拡張現実装置のディスプレイ上の魔法のお守りの描写は、ユーザによる操作に応答して出現するようにすることもできる。例えば、拡張現実装置は、捉えた視覚的光景(例えば拡張現実装置の1つ又は複数のカメラを用いて取得したフレームなど)の中にユーザの手が出現したことを検出することができ、その表示の中の魔法のお守りの見た目を操作して、ユーザがその仮想お守りに触れ、物理的に動かしているように見えるようにすることができる。例えば、ユーザは、仮想お守りの描写上の位置に手を伸ばしてそれを掴もうとすることができ、拡張現実装置は、その装置のディスプレイ上にユーザの手の描写を増補して、ユーザが自分の手の中にお守りを掴んでいるように見えるようにすることができる。すると、ユーザは、そのお守りを持って部屋の中を歩き回ることができる(拡張現実装置にはそのように示される)。
[0051]このような拡張現実装置の1つの例を、図2に示す。図2は、複数のストーリーテリング装置を使用してストーリーを再生する、スターウォーズ(登録商標)をテーマとするユースケースを示す図である。図示のように、スクリーンショット200は、化粧ダンス225の上にあるヨーダ型のストーリーテリング装置230及びトレーナのストーリーテリング装置245と、ライトセーバ型のストーリーテリング装置220を保持しているユーザ210とを含む。さらに、ユーザ210は、1つの拡張現実眼鏡215を装着しているものとして示してある。他の実施形態では、その他の形態の拡張現実装置(例えば拡張現実構成要素を備えた構成の携帯電話又はタブレットコンピュータ装置など)を、拡張現実眼鏡215と同様に使用することができる。
[0052]一般に、ライトセーバ型装置220は、刺激事象を検出し、同じように応答をする際に使用される加速度計、1つ又は複数のスピーカ、GPS装置、及び/或いは振動機構を含むことができる。例えば、加速度計は、ユーザがライトセーバ型装置220で特定の事象を実行するなど、刺激事象を誘発するために、ライトセーバ型装置220の動きをトラッキングすることができる。同様に、GPS装置は、ライトセーバ型装置220が(例えばユーザの両親によって)隠され、ユーザがヨーダ型装置230によってライトセーバ220を発見する使命を受けて派遣されるというストーリーなど、刺激事象を誘発するために、ライトセーバ220の位置を決定できるようにすることができる。例えば、このようなストーリーでは、制御装置は、ライトセーバ内部のGPS装置を介してライトセーバ220の位置を決定することができ、さらに、ヨーダの人形230の内部のGPS装置に基づいてヨーダ型装置230の位置も決定することができる。これで、ヨーダ型装置230は、位置的に正確なコメントを発して、隠されたライトセーバ220を見つけるときにユーザが自分の位置を知るのを助ける(例えばユーザがライトセーバ型装置に近づいているときにはそのことをユーザに通知する)ことができる。振動機構は、特定の刺激事象が起こったときに、触覚的なフィードバックをユーザに提供することができる。この刺激事象としては、ライトセーバ220の動き、或いは物理オブジェクト又は仮想オブジェクトからライトセーバ220への接触などが挙げられる。
[0053]同様に、ヨーダ型装置230は、聴覚的効果(例えば音声合成モジュールからの音声など)及び視覚的効果(例えば身振り及び物理的環境内の動きなど)の両方を生成することができる可能性がある。この聴覚的効果は、定位されても定位されなくともよく、一般に、この聴覚的効果は、他のストーリーテリング装置と同時に起こり、協調してストーリーを語ることになる。例えば、ヨーダ型装置230は、定位される聴覚的効果を発話に使用して、その玩具が喋っているように見えるようにすることができる。また、ヨーダ型装置230は、ユーザの動き及びライトセーバ型装置220の動きをトラッキングする際に使用されるカメラを含むこともできる。
[0054]例えば、ヨーダ型装置230は、ライトセーバ型装置220を用いて特定の運動を行うようにユーザ210に命令することができ、制御装置は、ライトセーバ型装置220の動きを(例えばライトセーバ型装置内部の加速度計によって、トレーナ245又はヨーダ型装置230の内部のカメラによって)トラッキングすることができる。このような運動の1つの例としては、トレーニング装置245から射出される仮想レーザをライトセーバ型装置220で偏向させることなどが挙げられる。例えば、仮想レーザは、拡張現実眼鏡215によってユーザの視野内に挿入することができ、ユーザは、その仮想レーザを偏向させるために特定の形でライトセーバ型装置220を動かす必要があるようにすることができる。このような例では、ヨーダ型装置230は、ユーザがこの運動を正しく実行した(すなわち仮想レーザをライトセーバ型装置220で偏向させた)のに応答して、ユーザのアクションを賞賛したり、ストーリーのコンテキストを先に進めたりするなど、特定のアクションを実行するように構成することができる。ここで、ヨーダ型装置230は、カメラを用いて、ユーザによるライトセーバ型装置220の動きをモニタリングすることができ、いつユーザが拡張現実眼鏡215内に示される仮想レーザに対してライトセーバ型装置220を用いて適当な物理的運動を行ったかを決定することができる。すなわち、仮想レーザがユーザの左側に示されている場合には、制御装置は、カメラを用いて、既定の時間枠内でいつユーザがライトセーバ型装置220をユーザの左側に動かしたかを決定することができる。ヨーダ型装置230は、ユーザが時間内にライトセーバ型装置220を動かしたと決定した場合には、それに対応するアクション(例えばユーザがレーザを偏向させたことを賞賛するなど)を実行することができる。
[0055]引き続きこの例で、制御装置は、ユーザが仮想レーザを偏向させることに成功したときにそのことを他の拡張現実装置に通知することができる。例えば、制御装置は、トレーニング装置245にユーザのアクションを通知することができ、それに対してトレーニング装置245が応答することができる。例えば、トレーニング装置245は、投影255を更新して、ユーザが仮想レーザを偏向させることに成功した回数と失敗した回数を反映させることもできる。同様に、トレーニング装置245は、聴覚的効果250を出力して、ユーザが仮想レーザを偏向させることに成功したことを示すこともできる。さらに、拡張現実眼鏡215は、ライトセーバ型装置220によって跳ね返される仮想レーザを示すように構成することもできる。
[0056]これらの装置は、ユーザが誤ってアクションを実行したこと(例えばユーザが所定の時間枠内にライトセーバ型装置220を適当な位置に動かすことができなかったこと)に応答してその他のアクションを実行するように構成することもできる。例えば、ヨーダ型装置230は、ユーザに激励を与えることができ、トレーニング装置245は、投影255の失敗カウンタを増分することができる。同様に、ユーザが偏向に失敗したときには、拡張現実眼鏡215は、遠くに飛んで行く仮想レーザを示すことができる。
[0057]さらに、拡張現実眼鏡215は、ストーリーを向上させるためにユーザの物理的環境に対するいくつかの増補物を示すように構成することもできる。このようにすることで、ユーザ210と相互作用型ストーリーとの間でより現実感のある相互作用が行われるようにすることができる。例えば、拡張現実眼鏡215は、部屋の景色を変化させて、ユーザ210がどこか他の場所にいるように見えるようにすることもできる。例えば、化粧ダンス225を巨大な丸太に変換し、床を沼に見えるようにして、ユーザ210が湿地にいるように見えるようにすることもできる。同様に、拡張現実眼鏡215は、ヨーダ230のカメラとの組合せで、「フォース」を使って仮想レーザを偏向させ、部屋の中のオブジェクトと相互作用するようにユーザ210を刺激するアクションを実行することができる。
[0058]図3は、本明細書に記載する1実施形態による、ストーリーテリング装置と制御装置の間の相互作用を示す流れ図である。図示のように、方法300は、ブロック310から開始され、このブロック310で、制御装置120は、ストーリーテリング装置1及びストーリーテリング装置2がこの物理的環境内で利用可能であり、特定のストーリーに適合していると決定する。ここで、装置は、例えばその装置が使用可能な状態である(例えばその装置に電源が投入されている)とき、その装置が遊休状態である(例えばその装置が現在別のストーリーテリング体験で使用されていない)とき、その装置がそのストーリーテリング体験の継続時間の間使用可能である(例えばその装置がそのストーリーを完了するのに十分な電力レベルを有している)時などに、「利用可能」であるとみなすことができる。同様に、装置は、ストーリーがその装置に関連付けられた刺激事象及びそれに対応するアクションを含むときに、そのストーリーに「適合している」とみなすことができる。例えば、特定のストーリーが、図2に示す上述したヨーダ型装置230と特に関係していることがある。別の例では、ストーリーが、ヨーダ型装置230だけでなくその他の様々なスターウォーズ(登録商標)のキャラクタを含む、任意のスターウォーズ(登録商標)のヒーローの装置と関係していることもある。
[0059]利用可能でかつ適合している装置を決定したら、制御装置120は、この特定のストーリーを、ストーリーテリング装置1及び2にマッピングする(ブロック315)。一般に、ストーリーは、時間的順序を有するいくつかの異なるコンテキストを含むことができ、各コンテキストは、複数の刺激事象及びそれらに対応するアクションを含むことができる。ここで、ストーリーの再生は、制御装置120が、対応する刺激事象が起こったのを検出したのに応答してアクションを実行するようにストーリーテリング装置を構成しながら、1つのコンテキストから次のコンテキストに進むことを含む。一般に、制御装置は、特定の1つ又は複数の刺激事象の満足度に基づいて、1つのコンテキストから次のコンテキストにストーリーの再生を進めることができる。
[0060]ストーリーを利用可能でかつ適合しているストーリーテリング装置にマッピングする際に、制御装置120は、各ストーリーテリング装置のタイプを決定することができ、決定したタイプに基づいて、特定の刺激事象及びそれに対応するアクションを各ストーリーテリング装置に割り当てることができる。例えば、ストーリーテリング装置がヨーダ型装置230を表していると仮定すると、制御装置120は、そのストーリー内の任意のヨーダに固有の刺激事象及びアクションを、ヨーダ型装置230に割り当てることができる。同様に、ストーリーが、スターウォーズ(登録商標)のあるヒーローの装置用として指定された任意の刺激事象及びアクションを含む場合に、制御装置120は、これらの刺激事象及びそれらに対応するアクションを、ヨーダ型装置230にも割り当てることができる。刺激事象/アクションの組合せの基準を満たす複数のストーリーテリング装置が利用可能である(例えばスターウォーズ(登録商標)の複数のヒーローの装置が物理的環境内に存在して利用可能である)場合には、制御装置120は、それらの刺激事象/アクションの組合せのそれぞれを実行するために、それらのストーリーテリング装置のうちの1つを選択することができる。利用可能でかつ適合している装置にストーリーを動的にマッピングすることにより、そのストーリーを、様々な異なるストーリーテリング装置とともに、また様々な異なる組合せのストーリーテリング装置とともに使用することができるので、有利である。
[0061]1実施形態では、ストーリーは、所与の刺激事象で様々なタイプのストーリーテリング装置について実行する、コンテキストに適した明確なアクションを指定することができる。すなわち、制御装置120は、特定のストーリーがスターウォーズ(登録商標)のあるヒーローのキャラクタに指定された刺激事象を含むと決定し、ヨーダ型装置230に指定された対応するアクション及びそれとは別個の、オビワン型装置に指定された明確なアクションを指定することができる。この実施形態では、刺激事象に応答するものとして装置のうちの1つを選択すると、制御装置120は、その装置のタイプに基づいて、それに対応するアクションをその装置に割り当てることができる。このようにすることで、ストーリーテリング装置をその表現された架空のキャラクタに適した形で刺激事象に反応するように構成することができるので、さらに没入度の高い現実感のあるユーザのストーリーテリング体験を創出する助けとなる。
[0062]制御装置120は、ストーリーを装置にマッピングしたら、各ストーリーテリング装置を、そのストーリーの第1のコンテキストに関係するいくつかの刺激事象及びそれらに対応する効果を有するように構成する(ブロック320)。この例では、ストーリーテリング装置1がヨーダ型装置230であるものと仮定し、また、制御装置120が、この装置230を、ユーザが適切に仮想レーザを偏向させたときにそのことを検出するように構成するものと仮定する。この方法300では、次いで、ストーリーテリング装置1は、第1の刺激事象が起こったことを検出し(ブロック325)、対応する効果を実行する(ブロック330)。例えば、ヨーダ型装置230は、ユーザが仮想レーザを偏向させることに成功した(すなわち刺激事象の発生)ときにそのことを検出することができ、それに応答してユーザを祝福する(すなわち対応する効果を実行する)ことができる。
[0063]次いで、制御装置120は、第1の刺激事象の発生に応答して、ストーリーのコンテキストを進め(ブロック335)、それに応じて、ストーリーの次のコンテキストに基づいてストーリーテリング装置を再構成する(ブロック340)。すなわち、制御装置120は、ストーリーの次のコンテキストに基づいて、刺激事象とそれに対応する効果の対でストーリーテリング装置を構成することができる。ここで、このストーリーでは、ユーザがライトセーバ型装置220の使い方を習得することを含み、その後ユーザが「フォース」の力の使い方を習得する段階に進むことができる。したがって、制御装置120は、トレーナ装置245を、ユーザが特定の刺激事象を実行した(例えばユーザがあたかもトレーナ装置245に対して「フォース」を使っているかのように装置245に向かって手を伸ばす)ときにそのことを検出し、それに応じて反応するように構成することができる。
[0064]しかし、さらに一般的には、ストーリーのコンテキストは、単に1つの刺激事象の実行のみに基づいて先に進むのではなく、いくつかの要因に基づいて先に進むこともある。例えば、ストーリーのコンテキストは、ユーザからの入力に基づいて先に進むこともある(例えば、どのアークに沿ってストーリーを進めるかをユーザに選択させることもできる)。さらに、コンテキストは、現在のストーリーの状態及び現在のストーリー中でそれ以前に実行されたアクション、並びに以前の状態及び以前に再生したストーリーで実行されたアクションを含むことができる、ゲームプレイ体験の全体の状態に基づいて、先に進むこともできる。例えば、制御装置120は、(例えばそのストーリーに関連する各ストーリーテリング装置から状態情報を収集することによって)現在のストーリーの集合的な状態を決定することができ、その集合的な状態情報に基づいて、そのストーリーの複数の異なるアークのうちの1つを選択することができる。例えば、制御装置120は、特定のユーザが現在のストーリーテリング体験中(及び/又は以前のストーリーテリング体験中)に「ジェダイ」のアクションを実行しておらず、その代わりに「ダークサイド」に落ちようとする傾向があると決定することができる。これに応じて、制御装置120は、現在のストーリー及び場合によっては以前のストーリーにおけるそのユーザの以前のアクションに基づいて、現在のストーリーのコンテキストを、シスに関連するアークに進めることができる。このような異なるストーリーラインアークは、例えば、ユーザが行う様々なアクション、及びストーリーテリング装置からの様々な対話などを含むことができる。また、制御装置120は、ストーリーラインアークを選択する際に、ユーザの個人情報(例えば誕生日、年齢など)及びユーザのプロフィール情報(例えばユーザの好みを明記した情報)を考慮することもできる。
[0065]方法300に戻ると、この方法300では、引き続き、ストーリーテリング装置2が第2の刺激事象が発生したことを検出し(ブロック345)、対応する効果を実行する(ブロック350)。例えば、トレーナ装置245は、(例えばトレーナ装置245内又は別のストーリーテリング装置内の1つ又は複数のカメラ装置を用いて)ユーザがトレーナ装置245に向かって手を伸ばしたときにそのことを検出することができ、トレーナ装置245内の振動機構(例えば歯車と重りを組み合わせた装置)を起動して、トレーナ装置245を振動させることができる。このようにすることにより、語られているストーリーに従って、ユーザがトレーナ装置245に対して「フォース」を使用したという感覚を生み出す。その後、制御装置120は、ストーリーのコンテキストを次のコンテキストに進め(ブロック355)、それに従ってストーリーテリング装置を再構成して(ブロック360)、方法300は終了する。
[0066]図4は、本明細書に記載する1実施形態による、複数のストーリーテリング装置の決定を説明する流れ図である。図示のように、方法400は、ブロック410から開始する。このブロック410では、制御装置120は、物理的環境内に物理的に存在する複数のストーリーテリング装置を検出する。一般に、制御装置120は、ストーリーテリング装置を検出するための通信技術を何種類使用しても良いものと広く企図している。このような技術の例としては、Bluetooth(登録商標)技術、802.1無線ネットワーク技術、RFID技術などがある。さらに一般的には、本明細書に記載の機能によれば、制御装置120に物理的に近い装置を検出する任意の技術を使用することができる。
[0067]次いで、制御装置120は、存在するストーリーテリング装置のうちのどれが特定のストーリーの再生に利用可能であるかを決定する(ブロック415)。上述のように、ストーリーテリング装置は、その装置が現在別のストーリーの再生に関わっている場合、その装置がストーリーテリング体験を完了するには充電不足である(例えば装置が低バッテリ状態である)場合、及びさらに一般的には、その装置がストーリーテリング体験を開始又は完了することができない(或いは開始又は完了することができない可能性が高い)場合に、利用不能とみなすことができる。
[0068]さらに、制御装置120は、利用可能なストーリーテリング装置のうちのどれがこの特定のストーリーに適合しているかを決定する(ブロック420)。すなわち、魔法のランプのストーリーテリング装置は、この物理的環境内では利用可能であるかもしれないが、スターウォーズ(登録商標)をテーマとするストーリーとはテーマが合わない可能性がある。したがって、制御装置120は、魔法のランプが存在していて、なおかつストーリーの再生に利用可能であるが、その魔法のランプの装置は、この特定のストーリーには適合していないと決定することもある。上述のように、ストーリーは、ストーリーテリング装置が実行する複数対の刺激事象とそれに対応するアクションの対を指定することができ、それらの各対を実行する装置又は装置のタイプを指定することができる。したがって、例えば、ストーリーは、特定のアクションはヨーダ型のストーリーテリング装置が特に実行するものとして指定する一方で、別のアクションについては任意のスターウォーズ(登録商標)のヒーローの装置に指定することができる。制御装置120は、ある特定の装置が刺激事象/アクションの対のいずれにもマッピングされないと決定した場合には、その特定の装置がそのストーリーに適合していないと決定することができる。
[0069]制御装置120は、どの装置がストーリーに適合しているかを決定したら、上記の刺激事象とそれに対応するアクションの対を、適合している装置にマッピングし(ブロック425)、方法400は終了する。したがって、引き続き上記の例で述べると、制御装置120は、ヨーダに固有のアクションは、ヨーダ型のストーリーテリング装置にマッピングし、スターウォーズ(登録商標)のヒーローに固有のアクションは、ヨーダ型のストーリーテリング装置、又は基準を満たす別の利用可能なストーリーテリング装置(例えばオビワン型のストーリーテリング装置など)にマッピングすることができる。
[0070]図5は、本明細書に記載する1実施形態による、複数のストーリーテリング装置へのストーリーのマッピングを説明する流れ図である。図示のように、方法500は、ブロック510から開始される。このブロック510では、制御装置120は、複数の要素及びそれらの要素をストーリーテリング装置にマッピングする際に使用される選択基準を含むストーリーを受信する。ここで、これら複数の要素はそれぞれ、1つ又は複数の刺激事象、及びその1つ又は複数の刺激事象の発生に応答して行われる、それらに対応する1つ又は複数のアクションを含むことができる。
[0071]次いで、制御装置120は、ストーリーの各要素用の装置のタイプを決定する(ブロック515)。上述のように、ストーリーは、刺激事象/アクションの対に対して特定のタイプの装置(例えば魔法のランプの装置など)を指定することができる、又はその刺激事象/アクションの対をマッピングすることができる装置のタイプ(例えばスターウォーズ(登録商標)の悪役のタイプの装置など)を指定することができる。また、制御装置120は、物理的環境内でどのストーリーテリング装置が利用可能であり適合しているかを決定する(ブロック520)。次いで、制御装置120は、ストーリーの各要素についての選択基準に基づいて、決定したストーリーテリング装置にストーリーの要素をマッピングする(ブロック525)。
[0072]さらに、制御装置120は、各ストーリーテリング装置がストーリーの各要素について実行する特定の効果を決定し(ブロック530)、方法500は終了する。例えば、ある刺激事象の発生を含む特定の要素は、任意の利用可能なスターウォーズ(登録商標)の悪役型のストーリーテリング装置にマッピングすることができ、制御装置120は、その刺激事象が実行されたのに応答してその装置がどのアクションを行うべきかを決定することができる。特定の要素について、実行されるアクションは、その要素がマッピングされたストーリーテリング装置に関わりなく、同じアクションのままにすることができる。例えば、上述のレーザを偏向させるストーリーラインでは、点数記録タスクは、トレーニング装置245にマッピングしてもよいし(この場合は、例えば投影255を生成する)、或いは拡張現実眼鏡215にマッピングしても良い(この場合は、例えば拡張現実のスコアボードを生成する)。ここで、これら2つの装置の間でスコアボードを生成する技術は異なっているが、成功カウンタ又は失敗カウンタを更新するアクションは、使用する装置に関わらず同じままである。ただし、他の要素では、その要素がマッピングされる装置のタイプに応じて、実行されるアクションが異なっていても良い。例えば、対話アクションは、その特定の要素がスターウォーズ(登録商標)のどの悪役にマッピングされるかに応じて変化して、ストーリーのテーマに合った対話をもたらすようにすることもできる。したがって、このような例では、制御装置120は、ストーリーテリング装置のタイプに基づいて、そのストーリーテリング装置が所与の要素に対して実行すべき効果を決定することができる。
[0073]ストーリーテリング装置の一例を、図6に示す。図6は、本明細書に記載する1実施形態による、ストーリーテリング構成要素を備える構成のストーリーテリング装置を示すブロック図である。この例では、ストーリーテリング装置110は、プロセッサ610、記憶装置615、メモリ620、入出力装置635、ネットワークインタフェース640、カメラ装置645、表示装置650及び加速度計装置655を含む(ただしこれらに限定されるわけではない)。一般に、プロセッサ610は、メモリ620に記憶されたプログラム命令を取り出して実行する。プロセッサ610は、単一のCPU、複数のCPU、複数の処理コアを有する単一のCPU、複数の実行パスを有するGPUなどを代表するものとして示してある。メモリ620は、一般に、ランダムアクセスメモリを代表するものとして示してある。ネットワークインタフェース640は、ストーリーテリング装置110がデータ通信ネットワーク(例えば有線イーサネット(登録商標)接続又は802.11無線ネットワーク)に接続することを可能にする。さらに、図示の実施形態ではある特定のストーリーテリング装置の構成要素を示しているが、ストーリーテリング装置によって様々に異なるハードウェアアーキテクチャを用いることができることは、当業者なら理解するであろう。さらに、実施形態は、本明細書に記載する機能を実行することができるものであればどのような装置又はコンピュータシステムを用いても実施することができるものと明示的に企図している。
[0074]メモリ620は、必要なプログラム及びデータ構造を保持するのに十分な大きさの任意のメモリを代表するものである。メモリ620は、ランダムアクセスメモリ、不揮発性メモリ又はバックアップメモリ(例えばプログラマブル又はフラッシュメモリ、読取り専用メモリなど)など、1つのメモリ装置であっても複数のメモリ装置の組合せであってもよい。さらに、メモリ620及び記憶装置615は、例えばストーリーテリング装置110に通信可能に結合された別のコンピュータ上など、物理的に他の場所に位置するメモリも含むものと考えることができる。例えば、メモリ620は、ストーリーテリング構成要素625及びオペレーティングシステム630を含む。オペレーティングシステム630は、一般に、ストーリーテリング装置100上でのアプリケーションプログラムの実行を制御する。オペレーティングシステム630の例としては、ユニックス(UNIX(登録商標))、マイクロソフトウィンドウズ(Microsoft Windows(登録商標))オペレーティングシステムのあるバージョン、リナックス(Linux(登録商標))オペレーティングシステムのあるディストリビューションなどが挙げられる。オペレーティングシステム630の他の例としては、ニンテンドーDS(Nintendo DS(登録商標))及びソニーPSP(Sony PSP(登録商標))などのシステム用のカスタムオペレーティングシステムなど、ゲームコンソール用のカスタムオペレーティングシステムが挙げられる。
[0075]入出力装置635は、ディスプレイ、キーボード、タッチ・スクリーンなど、幅広い範囲の様々な入出力装置を代表するものである。例えば、入出力装置635は、ユーザインタフェースを与えるために使用される表示装置を含むことができる。例えば、ディスプレイは、ユーザが様々なアプリケーションを選択し、またアプリケーション内のオプションを選択する(例えばこれから見るデジタルメディアコンテンツのインスタンスを選択する)ことができるようにする、タッチセンシティブな表面を備えることができる。さらに、入出力装置635は、1組のボタン、スイッチ又はその他のストーリーテリング装置110を制御するための物理的装置機構を含むことができる。さらに、入出力装置635は、ストーリーテリング装置110が物理的アクション(例えば振動する、部屋の中を歩き回る、身振りをする、顔の表情をつくるなど)を行うことができるようにする機械化構成要素又はその他の構成要素を含むこともできる。
[0076]ストーリーテリング構成要素625は、様々な刺激事象を認識し、1つ又は複数のアクションのそれぞれをそれらの様々な刺激事象のそれぞれと関連付けるように構成することができる。刺激事象のうちの1つが発生したことを検出すると、ストーリーテリング構成要素625は、それに対応する1つ又は複数のアクションを実行することができる。例えば、ストーリーテリング装置110は、猿のぬいぐるみとすることができ、魔神のホログラフィ投影が出現したことを検出すると、この機械仕掛けの猿の玩具が恐怖にすくみ、魔神を恐れて悲しそうな鳴き声を出すようにすることができるストーリーテリング構成要素625を備えた構成にすることができる。さらに、ストーリーテリング構成要素625は、多数のストーリーテリング装置110を用いて現在語られているストーリーの現在のコンテキストに基づいて、どのアクションを実行するかを決定することができる。すなわち、機械仕掛けの猿の玩具は、ストーリー内で魔神が最初に出現したときに様々に振る舞う(例えば魔神を恐れているように見えるように振る舞う)ように構成することができ、ストーリー内のそれより後の時点で魔神がユーザを助けに来たときにはそれとは異なる振る舞いをする(例えば魔神を見て喜んでいるように見えるように振る舞う)ことができる。このように、ストーリーテリング構成要素625は、ストーリー内の現在のコンテキストに応じて、ある所与の刺激事象に対して異なる反応を示すように構成することができる。
[0077]上述のように、ストーリーテリング構成要素625は、様々に異なる方法で刺激事象の発生を検出することができる。例えば、ストーリーテリング構成要素625は、ストーリーテリング装置110内のカメラ装置645を使用して、投影画像が出現したときにそのことを検出する、又はユーザの動きをトラッキングすることができる。別の例では、ストーリーテリング構成要素625は、加速度計655を使用して、ユーザがストーリーテリング装置110を手で擦ったときにそのことを検出することができる(例えば装置110が魔法のランプの場合)。さらに、ストーリーテリング構成要素625は、ユーザが装置110にいつどのように触れたかを検出することができるタッチセンシティブな装置(例えば容量性センシング又は導電性センシングな触覚表面など)など、他の入出力装置635を使用して上記のような決定を下すこともできる。さらに、制御装置120は、(例えばWi−Fi又はBluetooth(登録商標)通信を用いて)装置110にメッセージを伝送して、特定の刺激事象が発生したことを示すこともできる。さらに一般的には、本明細書に記載の機能によれば、何らかの既定の事象の発生を検出することができる任意の技術を使用することができる。
[0078]さらに、ストーリーテリング装置110は、物理的世界内におけるその地理的、物理的な位置を決定する論理及び/又はハードウェアを備える構成にすることもできる。このような論理及び/又はハードウェアの例としては、GPS論理及び全地球測位システム(GPS)の送信機、並びに(携帯電話基地局、テレビジョン放送塔、又は無線ネットワーク装置など、複数の無線源からの)飛行時間又は飛行角度或いはその両方を用いるジオロケーションソフトウェアが挙げられる。さらに一般的には、本明細書に記載する機能と矛盾することなく、現実世界における装置の物理的位置を決定するどのような技術(既知のものでも未知のものでも良い)でも使用することができる。
[0079]さらに、実施形態は、TV、ウェブ装置、スマートフォン、電子書籍などの既存のメディア装置と同期して、没入型ストーリーテリング体験を提供することができる。例えば、ストーリーテリング幻灯機(例えばストーリーテリング装置110)は、ユーザが現在見ているTV番組又はユーザが現在プレイしているビデオゲーム上の事象を(例えば1つ又は複数のカメラやマイクロフォンなどを用いてTV及び/又はビデオゲームシステムと通信することによって)感知することができる。このような刺激事象を検出したのに応答して、幻灯機は、コンテキストに適した形で、かつ正確に適切な時間に反応することができる。例えば、ユーザが現在見ているTVのESPN(登録商標)のニュースキャスタがGiants(登録商標)とPanthers(登録商標)の間で行われる予定のフットボールの試合について言及していることを検出し、両者の前回の対戦ではGiants(登録商標)が勝利していることが分かったときに、幻灯機が(例えばテキスト音声合成器並びに1つ又は複数のスピーカ装置を用いて)「やあ、今週末はまたGiants(登録商標)に勝って欲しいな」と言うようにすることもできる。
[0080]別の例では、ストーリーテリング装置110は、ユーザが制御する電子書籍リーダと通信して、ユーザが現在どの本を読んでいるか、またその電子書籍リーダが特定の書籍のどのページを現在表示しているかを決定することができる。その後、ストーリーテリング装置110は、正確に適切な時点で(例えばユーザがページをめくった一瞬後で)解説及び/又はアクションを差し挟み、その旧式のメディアプラットフォーム(すなわちユーザが読んでいる本)で語られているストーリーを機能強化することができる。
[0081]図7は、本明細書に記載する1実施形態による、制御装置の一例を示す図である。図示のように、制御装置120は、プロセッサ710、記憶装置715、メモリ720、及びネットワークインタフェース740を含む。一般に、プロセッサ710は、メモリ720に記憶されたプログラム命令を取り出して実行する。プロセッサ710は、単一のCPU、複数のCPU、複数の処理コアを有する単一のCPU、複数の実行パスを有するGPUなどを代表するものとして示してある。メモリ720は、一般に、ランダムアクセスメモリを代表するものとして示してある。ネットワークインタフェース740は、制御装置120がデータ通信ネットワーク(例えば有線イーサネット(登録商標)接続又は802.11無線ネットワーク)に接続することを可能にする。さらに、図示の実施形態ではある特定の制御装置120の構成要素を示しているが、ストーリーテリング装置によって様々に異なるハードウェアアーキテクチャを用いることができることは、当業者なら理解するであろう。さらに、実施形態は、本明細書に記載する機能を実行することができるものであればどのような装置又はコンピュータシステムを用いても実施することができるものと明示的に企図している。
[0082]メモリ720は、必要なプログラム及びデータ構造を保持するのに十分な大きさの任意のメモリを代表するものである。メモリ720は、ランダムアクセスメモリ、不揮発性メモリ又はバックアップメモリ(例えばプログラマブル又はフラッシュメモリ、読取り専用メモリなど)など、1つのメモリ装置であっても複数のメモリ装置の組合せであってもよい。さらに、メモリ720及び記憶装置715は、例えば制御装置120に通信可能に結合された別のコンピュータ上など、物理的に他の場所に位置するメモリも含むものと考えることができる。例えば、メモリ720は、ストーリーテリング制御装置構成要素725、ストーリーデータ730及びオペレーティングシステム735を含む。オペレーティングシステム735は、一般に、制御装置120上でのアプリケーションプログラムの実行を制御する。オペレーティングシステム735の例としては、ユニックス、マイクロソフトウィンドウズ(登録商標)オペレーティングシステムのあるバージョン、リナックス(登録商標)オペレーティングシステムのあるディストリビューションなどが挙げられる。オペレーティングシステム735の他の例としては、ニンテンドーDS(登録商標)及びソニーPSP(登録商標)などのシステム用のカスタムオペレーティングシステムなど、ゲームコンソール用のカスタムオペレーティングシステムが挙げられる。
[0083]一般に、ストーリーテリング制御装置構成要素725は、検出した刺激及び現在語られているストーリーの現在のコンテキストに応じた特定のアクションを実行するようにストーリーテリング装置110を構成する。例えば、1実施形態では、ストーリーテリング制御装置構成要素725は、特定のストーリーを語り始める前に、特定の事象を認識してそれに対応する1つ又は複数のアクションを実行する論理(又は一連のコマンド)を各ストーリーテリング装置110に伝送する。このような実施形態では、ストーリーテリング装置110は、ストーリーテリング装置110上の入出力装置(例えばカメラ、マイクロフォン、無線トランシーバ、赤外線センサなど)を使用して、特定の事象が発生したときにそのことを検出することができる。例えば、装置110は、カメラを使用して、特定の投影が出現したときにそのことを検出し、その後、語られているストーリーの現在のコンテキストに基づいて、それに応じて対応するアクションを実行することができる。別の例では、装置110は、(例えばBluetooth(登録商標)通信を用いて)別の装置110から特定のアクションが行われたことを示す無線信号を受信することができる。その後、装置110は、その信号の受信に応答して対応するアクションを実行することができる。このような実施形態の利点の1つは、ストーリーテリング装置110に反応論理が既に存在しているので、装置110が所与の刺激に対して比較的素早く反応することができることである。
[0084]特定の実施形態では、ストーリーテリング制御装置構成要素725は、ストーリーテリング装置110のアクションを直接制御するように構成される。例えば、ストーリーテリング制御装置構成要素725は、装置110のうちの第1の装置にメッセージを伝送して、ストーリーを開始する特定のアクションを実行するようにその装置110に命令することができる。次いで、装置110は、指定されたアクションを実行することができる。1実施形態では、装置110は、アクションがうまく実行された後で、ストーリーテリング制御装置構成要素725に確認メッセージを伝送することができる。特定の実施形態では、ストーリーテリング制御装置構成要素725は、ストーリーテリング制御装置構成要素725がメッセージを伝送してから何らかの所定の期間が経過した後に、装置110がそのアクションを実行したものと自動的に仮定することもできる。
[0085]いずれにしても、ストーリーテリング制御装置構成要素725は、アクションが実行されたと決定(又は仮定)したら、特定のストーリーに従ってその実行されたアクションに反応することができる1つ又は複数の他のストーリーテリング装置110を識別することができる。上述のように、状況によっては、ストーリーテリング制御装置構成要素725は、その実行されたアクションに反応することができるストーリーテリング装置110の中の、その実行されたアクションに対して反応すべき一部の装置を決定することができる。例えば、ストーリーテリング制御装置構成要素725は、6個の異なる装置110が実行されたアクションに対して物理的かつ聴覚的に反応することができると決定することがある。その場合、ストーリーテリング制御装置構成要素725は、その6個のストーリーテリング装置110のうち、その特定の刺激事象(すなわち実行されたアクション)に対して反応すべき一部の装置を選択することができる。また、ストーリーテリング制御装置構成要素725は、各装置110がどのように反応するかも決定することができる。例えば、ストーリーテリング制御装置構成要素725は、6個全ての装置110が刺激事象に対して物理的に反応するが、刺激事象に対して聴覚的に反応するのは6個の装置110のうちの2つだけであると決定することができる。このようにすることにより、装置が「互いに一斉に音を出」すのを防止する助けとなり、ユーザが装置110の聴覚的反応を確実に明確に聞き取って理解できるようになる。
[0086]一般に、ストーリーテリング装置110及び制御装置120は、本開示と矛盾することなく、任意の数の異なる方法で実装することができる。ハードウェアに関しては、実施形態は、異なるストーリーテリング装置間のハードウェアの再利用性を最大限に高めるモジュール設計を利用することができる。このような設計では、例えば、共通のプロセッサ、メモリ及びバスが複数のセンサ、ディスプレイ、エフェクタ及びその他の通信手段を介してデータを送受信できるようにするハードウェアアダプタを含むことができる。さらに、システム非依存性及び/又はオペレーティングシステム非依存性のサイト(例えばポータル)を使用して、全てのユーザの互換性が最大になるようにすることもできる。
[0087]制御装置120は、クラウドコンピューティング環境内に存在することもできるものと明示的に企図している。クラウドコンピューティングとは、一般に、ネットワークを介してスケーラブルなコンピューティング資源をサービスとして提供することを指す。さらに正式な言い方をすれば、クラウドコンピューティングは、コンピューティング資源とその基礎をなす技術的アーキテクチャ(例えばサーバ、記憶装置、ネットワークなど)の間の抽象化を行って、最小限の管理努力又はサービスプロバイダの干渉で迅速に提供し、放出することができる構成可能なコンピューティング資源の共有プールへの便利なオンデマンドネットワークアクセスを可能にするコンピューティング能力と定義することができる。したがって、クラウドコンピューティングにより、ユーザは、コンピューティング資源を提供するために使用される基礎となる物理的システム(又はそれらのシステムの位置)に関わりなく、「クラウド」内の仮想コンピューティング資源(例えば記憶装置、データ、アプリケーション及び完全な仮想コンピューティングシステム)にアクセスすることができるようになる。
[0088]通常は、クラウドコンピューティング資源は、実際に使用したコンピューティング資源(例えばユーザが消費する記憶容量又はユーザがインスタンス化する仮想システムの数など)についてのみ課金される、ペイパーユースでユーザに提供される。ユーザは、クラウド内に存在するどの資源にいつアクセスしても良く、またインターネットを介してどこからアクセスしても良い。本発明の状況では、制御装置120は、クラウド内で実行されるソフトウェアアプリケーションとして存在していても良い。例えば、制御装置120は、ユーザの家の中のストーリーテリング装置110と(例えばインターネットを介して)通信することができ、ストーリーデータを各ストーリーテリング装置110に伝送することができる。一般に、各装置110に送信されるストーリーデータは、一連のアクション及びそれらに対応する刺激を含むことができる。その後、ストーリーテリング装置110は、受信したストーリーデータを使用して、没入型ストーリーテリング環境を創出することができる。このようにすることにより、ストーリーテリング装置110は、クラウドに接続された任意のネットワーク(例えばインターネット)を用いて制御装置120にアクセスすることができるようになる。
[0089]さらに、ソフトウェアに関しては、実施形態は、アプリケーション及びメディアを多数のハードウェアプラットフォーム及び装置上で再生できるようにする、抽象化レイヤ及び仮想マシンなどの機能を含むことができる。例えば、実施形態では、最低でもアプリケーション層、ミドルウェア層及びカーネル層を有する、プロセッサ及び入出力装置の実行時に実装されるソフトウェアアーキテクチャを利用することができる。さらに、これらの異なる層の間のデータインタフェース及びAPIは、特定のハードウェア及び入出力装置に依存しない抽象化を利用して、「ライトワンスポートメニー(write once port many)」環境を可能にすることができる。
[0090]同様に、実施形態は、フレームワーク、ライブラリ、及びスクリプティング及びプログラミングの技術のある者であれば誰でも効率的な符号化及び実行時動作のために提供されたプレハブ式「ビルディングブロック」を用いて短時間でストーリーテリングスクリプト及びストーリーテリング体験を創出できるようにするその他のユーティリティなど、ミドルウェアを含むことができる。一般に、このような抽象化及び仮想マシンは、ストーリーテリング環境が、テレビジョン、電子書籍及びウェブサイトなど、旧来のメディア装置及びプラットフォームと容易に相互作用できるようにすることができる。
[0091]1実施形態では、ストーリーテリングシステムアーキテクチャは、制御装置120に関してはモジュール式であり、ストーリーテリング制御装置120が集中型制御装置であるか、リモートコントローラであるか、クラウド制御装置であるか、或いは個々の装置がピアツーピア方式で通信し、協働して複数要素のストーリーテリング体験を提供するメッシュネットワーク内に実装される分散型制御装置であるかに関わらず、システムが同じように機能することができるようになっている。さらに、個別のストーリーテリング要素(例えば魔法のランプなどのストーリーテリング装置110など)はいずれも、異なる時点においては、独立型装置、旧来のメディア装置(例えばTV、ビデオゲームプラットフォーム、電子書籍リーダなど)と同期する装置、ピアツーピア通信によって別の装置(例えば別のストーリーテリング装置110など)と協働する装置、集中型ストーリー制御装置によって制御される装置、及び/又は遠隔のクラウド制御装置によって制御される装置として動作することができる。このようにして、1つのストーリーテリング装置が、ピアツーピアメッシュネットワークトポロジ、ハブアンドスポークトポロジ、リングトポロジ、仮想クラウドトポロジ、又はさらに一般的には本明細書に記載する機能と矛盾しない任意のトポロジ(既知のものも未知のものも含む)においてシンクライアントモード(すなわち処理の大部分がローカルで実行される)又はファットクライアントモード(すなわち処理の大部分がローカルで実行される)で機能することができる。
[0092]上述のように、1実施形態では、ストーリーテリング装置のうちの少なくとも1つは、拡張現実装置である。本明細書に記載する1実施形態による拡張現実装置の一例を、図8に示す。ここで、拡張現実装置800は、プロセッサ810、記憶装置815、メモリ820、入出力装置835、ネットワークインタフェース840、カメラ装置845、表示装置850及び加速度計装置855を含む(ただしこれらに限定されるわけではない)。一般に、プロセッサ810は、メモリ820に記憶されたプログラム命令を取り出して実行する。プロセッサ810は、単一のCPU、複数のCPU、複数の処理コアを有する単一のCPU、複数の実行パスを有するGPUなどを代表するものとして示してある。メモリ820は、一般に、ランダムアクセスメモリを代表するものとして示してある。ネットワークインタフェース840は、拡張現実装置800がデータ通信ネットワーク(例えば有線イーサネット(登録商標)接続又は802.11無線ネットワーク)に接続することを可能にする。さらに、図示の実施形態ではある特定の拡張現実装置の構成要素を示しているが、ストーリーテリング装置によって様々に異なるハードウェアアーキテクチャを用いることができることは、当業者なら理解するであろう。さらに、実施形態は、本明細書に記載する機能を実行することができるものであればどのような装置又はコンピュータシステムを用いても実施することができるものと明示的に企図している。
[0093]メモリ820は、必要なプログラム及びデータ構造を保持するのに十分な大きさの任意のメモリを代表するものである。メモリ820は、ランダムアクセスメモリ、不揮発性メモリ又はバックアップメモリ(例えばプログラマブル又はフラッシュメモリ、読取り専用メモリなど)など、1つのメモリ装置であっても複数のメモリ装置の組合せであってもよい。さらに、メモリ820及び記憶装置815は、例えば拡張現実装置800に通信可能に結合された別のコンピュータ上など、物理的に他の場所に位置するメモリも含むものと考えることができる。例えば、メモリ820は、拡張現実構成要素825及びオペレーティングシステム830を含む。オペレーティングシステム830は、一般に、拡張現実装置800上でのアプリケーションプログラムの実行を制御する。オペレーティングシステム830の例としては、ユニックス、マイクロソフトウィンドウズ(登録商標)オペレーティングシステムのあるバージョン、リナックス(登録商標)オペレーティングシステムのあるディストリビューションなどが挙げられる。オペレーティングシステム830の他の例としては、ニンテンドーDS(登録商標)及びソニーPSP(登録商標)などのシステム用のカスタムオペレーティングシステムなど、ゲームコンソール用のカスタムオペレーティングシステムが挙げられる。
[0094]入出力装置835は、ディスプレイ、キーボード、タッチ・スクリーンなど、幅広い範囲の様々な入出力装置を代表するものである。例えば、入出力装置835は、ユーザインタフェースを与えるために使用される表示装置を含むことができる。例えば、ディスプレイは、ユーザが様々なアプリケーションを選択し、またアプリケーション内のオプションを選択する(例えばこれから見るデジタルメディアコンテンツのインスタンスを選択する)ことができるようにする、タッチセンシティブな表面を備えることができる。さらに、入出力装置835は、1組のボタン、スイッチ又はその他の拡張現実装置800を制御するための物理的装置機構を含むことができる。さらに、入出力装置835は、拡張現実装置800が物理的アクション(例えば振動する、部屋の中を歩き回る、身振りをする、顔の表情をつくるなど)を行うことができるようにする機械化構成要素又はその他の構成要素を含むこともできる。
[0095]一般に、拡張現実構成要素825は、カメラ845を用いて物理的環境の1つ又は複数のフレームを取得し、これらのフレームの拡張描写をディスプレイ850上に表示するように構成される。例えば、ユーザが1つ又は複数のカメラ845をテーブルに向けて、テーブルの表面が装置800のディスプレイ850に描写されるようにするものと仮定する。物理的環境を描写するだけでなく、拡張現実構成要素825は、表示される光景を増補して、1つ又は複数の仮想オブジェクトを含むように構成することができる。例えば、拡張現実構成要素825は、テーブルの表面上で動き回るアニメーションの仮想のキャラクタを描写する一連のフレームを表示することができる。また、拡張現実構成要素825は、描写される現実世界の光景から1つ又は複数のオブジェクトを取り除くことによって、その光景を増補するように構成することもできる。
[0096]例えば、拡張現実装置は、テーブルの上に置いてあるコーヒーカップの一連の画像を取得し、コーヒーカップがアニメーション漫画のキャラクタのように見えるようにこの一連の画像を修正し、修正した一連の画像を実時間でユーザに対して表示することもできる。したがって、ユーザが拡張現実装置を見ると、ユーザには、自分のいる物理的な現実世界の環境を増補したものが見える。
[0097]拡張装置上のソフトウェアは、このような1つ又は複数のカメラ装置を使用して、(例えば拡張現実装置の1つ又は複数のカメラを用いて)物理的環境の視覚的光景を取得することができる。例えば、このソフトウェアは、第1のユーザを含む視覚的光景を取得することができる。さらに、このソフトウェアは、第2の拡張現実装置から第2のユーザについての視覚的光景データを受信することもできる。ここで、この視覚的光景データは、第2の拡張現実装置の、又は第2の拡張現実装置に接続された1つ又は複数のカメラを用いて取得することができる。第2のユーザについての視覚的光景データは、例えば、これら2つの拡張現実装置間の物理的接続、これら2つの拡張現実装置間の無線接続(例えばBluetooth(登録商標)接続)又はネットワーク(インターネット)を介して伝送することができる。
[0098]次いで、このソフトウェアは、拡張現実世界の中に第1のユーザ及び第2のユーザを描写する表示用の一連のフレームをレンダリングすることができる。例えば、このソフトウェアは、この拡張現実装置上で取得した視覚的光景に基づいて第1のユーザの描写をレンダリングすることができ、第2の拡張現実装置から受信した視覚的光景データに基づいて第2のユーザの描写をレンダリングすることができる。次いで、レンダリングされた一連のフレームを、拡張現実装置に接続された1つ又は複数の表示装置に表示することができる。このようにすることにより、複数のユーザが存在して互いに相互作用することができる拡張現実世界を提供されるので、有利である。
[0099]以上、本発明の実施形態について述べた。ただし、本発明は、これらの具体的に述べた実施形態に限定されない。むしろ、様々な実施形態に関係しているか否かに関わらず、以下の特徴及び要素の任意の組合せによって本発明が実装及び実施されるものとする。さらに、本発明の実施形態は、その他の可能な解決策及び/又は従来技術に勝る利点を実現することができるが、特定の利点が所与の実施形態によって実現されるか否かによって本発明が限定されることはない。したがって、上記の態様、特徴、実施形態及び利点は、単なる例示であり、1つ又は複数の請求項において明示的に述べられている場合を除いて、添付の特許請求の範囲の要素又は制限とはみなされない。同様に、「本発明」と述べていても、本明細書に開示する任意の発明性のある主題を一般化したものとして解釈すべきではなく、1つ又は複数の請求項において明示的に述べられている場合を除いて、添付の特許請求の範囲の要素又は制限とはみなされないものとする。
[00100]本発明の態様は、システム、方法又はコンピュータプログラム製品として実施することができる。したがって、本発明の態様は、本明細書では全て一般的な言葉で「回路」、「モジュール」又はシステムと呼ぶことができる、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、又はソフトウェアの態様とハードウェアの態様を結合した実施形態の形態をとることができる。さらに、本発明の態様は、コンピュータ可読プログラムコードが実装された1つ又は複数のコンピュータ可読媒体に実装されたコンピュータプログラム製品の形態をとることができる。
[00101]1つ又は複数のコンピュータ可読媒体は、任意の組合せで利用することができる。コンピュータ可読媒体は、コンピュータ可読信号媒体であっても、コンピュータ可読記憶媒体であってもよい。コンピュータ可読記憶媒体は、例えば、電子システム、装置又はデバイス、磁気システム、装置又はデバイス、光学システム、装置又はデバイス、電磁気システム、装置又はデバイス、赤外線システム、装置又はデバイス又は半導体システム、装置又はデバイス、或いはそれらの任意の適当な組合せとすることができるが、これらに限定されるわけではない。コンピュータ可読記憶媒体のさらに具体的例を挙げると、1本又は複数本の配線を有する電気接続、携帯可能なコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、消去及びプログラム可能読取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、携帯可能なコンパクトディスク読取り専用メモリ(CD−ROM)、光学記憶装置、磁気記憶装置、又はそれらの任意の適当な組合せなどがある(ただし全てを網羅するリストではない)。本明細書の状況では、コンピュータ可読記憶媒体は、命令実行システム、装置又はデバイスによって使用される、又は命令実行システム、装置又はデバイスに接続した状態で使用されるプログラムを含む又は記憶することができる任意のタンジブル媒体とすることができる。
[00102]コンピュータ可読信号媒体としては、例えばベースバンドに含まれる、又は搬送波の一部である、コンピュータ可読プログラムコードが実装された伝搬データ信号が挙げられる。このような伝搬信号は、電磁気学的形態、光学的形態又はそれらの任意の適当な組合せなど(ただしこれらに限定されない)、様々な形態のうちのいずれをとることもできる。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではない、命令実行システム、装置又はデバイスによって使用される、又は命令実行システム、装置又はデバイスに接続した状態で使用されるプログラムを通信、伝搬又は移送することができる任意のコンピュータ可読媒体とすることができる。
[00103]コンピュータ可読媒体に実装されるプログラムコードは、無線、有線、光ファイバケーブル、RFなど、又はそれらの任意の適当な組合せなど(ただしこれらに限定されない)、任意の適当な媒体を用いて伝送することができる。
[00104]本発明の態様の動作を実行するためのコンピュータプログラムコードは、Java(登録商標)、Smalltalk、C++などのオブジェクト指向プログラミング言語、及び「C」プログラミング言語又はそれと類似のプログラミング言語などの従来の手続き型プログラミング言語など、1つ又は複数のプログラミング言語を任意に組み合わせて書き込むことができる。プログラムコードは、全体をユーザのコンピュータで実行しても良いし、一部をユーザのコンピュータで実行しても良いし、独立型ソフトウェアパッケージとして実行しても良いし、一部をユーザのコンピュータで実行して一部を遠隔のコンピュータで実行しても良いし、或いは全体を遠隔のコンピュータ又はサーバで実行しても良い。後者のシナリオでは、遠隔のコンピュータは、ローカル・エリア・ネットワーク(LAN)又は広域ネットワーク(WAN)など任意のタイプのネットワークを介してユーザのコンピュータに接続することができる。或いは、この接続は、(例えばインターネットサービスプロバイダによってインターネットを介して)外部のコンピュータに対して行うこともできる。
[00105]上記では、本発明の実施形態による方法、装置(システム)及びコンピュータプログラム製品の流れ図及び/又はブロック図を参照して、本発明の態様について述べた。これらの流れ図及び/又はブロック図の各ブロック、並びにこれらの流れ図及び/又はブロック図のブロックの組合せは、コンピュータプログラム命令によって実施することができることを理解されたい。これらのコンピュータプログラム命令を、汎用コンピュータ、特殊目的コンピュータ、又はその他のプログラマブルデータ処理装置のプロセッサに導入してマシンを構築し、これらの命令がそのコンピュータ又はその他のプログラマブルデータ処理装置のプロセッサによって実行されることで、流れ図及び/又はブロック図の1つ又は複数のブロックで指定された機能/動作を実施する手段を構成することができる。
[00106]また、コンピュータ、その他のプログラマブルデータ処理装置又はその他の装置を特定の方法で機能させることができるこれらのコンピュータプログラム命令は、コンピュータ可読媒体に記憶して、コンピュータ可読媒体に記憶された命令が、流れ図及び/又はブロック図の1つ又は複数のブロックで指定された機能/動作を実施する命令を含む製品となるようにすることもできる。
[00107]また、コンピュータプログラム命令を、コンピュータ、その他のプログラマブルデータ処理装置又はその他の装置にロードして、そのコンピュータ、その他のプログラマブルデータ処理装置又はその他の装置上で一連の動作ステップを実行させてコンピュータ実施プロセスを構築して、そのコンピュータ又はその他のプログラマブル装置で実行されたそれらの命令が、流れ図及び/又はブロック図の1つ又は複数のブロックで指定された機能/動作を実施するプロセスを構築するようにすることもできる。
[00108]図面の流れ図及びブロック図は、本発明の様々な実施形態によるシステム、方法及びコンピュータプログラム製品の可能な実施態様のアーキテクチャ、機能及び動作を示している。この点で、流れ図又はブロック図の各ブロックは、そこに指定された1つ又は複数の論理機能を実施するための1つ又は複数の実行可能命令を含むコードのモジュール、セグメント又は一部分を表すことができる。いくつかの代替実施態様では、ブロックに記される機能が、図面に記される順序とは異なる順序で起こることもある。例えば、連続して示してある2つのブロックが、実際には、ほぼ同時に実行されたり、或いはそれに関連する機能に応じて、時には逆の順序で実行されたりすることもある。ブロック図及び/又は流れ図の各ブロック、並びにブロック図及び/又は流れ図の複数のブロックの組合せは、そこに指定された機能又は動作、或いは特殊目的ハードウェア及びコンピュータの命令の組合せを実行する特殊目的ハードウェア型システムによって実施することができる。
[00109]上記の説明は本発明の実施形態を対象としているが、本発明のその他のさらなる実施形態も、本発明の基本範囲を逸脱することなく考案することができ、本発明の範囲は、以下の特許請求の範囲によって決定される。

Claims (16)

  1. 刺激事象に応答してストーリーの現在のコンテキストに基づく効果を発生させるように構成された電子デバイスをそれぞれ含む、複数のストーリーテリング装置であって、前記効果が、聴覚的効果及び視覚的効果のうちの少なくとも一方であり、前記複数のストーリーテリング装置のそれぞれのためのそれぞれの前記刺激事象のうちの少なくとも1つが、前記複数のストーリーテリング装置及び第1のユーザが位置している物理的環境内での前記第1のユーザによる前記ストーリーテリング装置に対するユーザアクションの実行を検出することを含み、前記ストーリーが、複数の分岐をさらに含み、前記複数の分岐がそれぞれ、2つ以上のストーリーラインアークを含み、前記ストーリーラインアークがそれぞれ、前記複数の刺激事象と効果との対を含む、ストーリーテリング装置と、
    前記複数のストーリーテリング装置が、前記物理的環境内に存在し前記ストーリーに利用可能且つ適合していることを、前記複数のストーリーテリング装置の各々との無線通信を介して決定し、前記ストーリーの前記現在のコンテキスト及びそれぞれのストーリーテリング装置の装置タイプに基づいて、前記複数のストーリーテリング装置の各々に1または複数の命令を送信して、前記複数の分岐のそれぞれについて、それぞれのストーリーラインアークのうちの一つを選択することと、前記刺激事象と効果との対を、前記複数のストーリーテリング装置のうちの一つにそれぞれ割り当てることとによって、前記物理的環境内での前記ストーリーの再生を管理するように構成された制御装置と
    を備える、システム。
  2. 前記ストーリーラインアークの前記選択が、前記ストーリーの集合的状態、以前に再生されたストーリーに基づく履歴的状態、ユーザのユーザプロフィール、及び前記ユーザに関する情報のうちの少なくとも1つに基づいて行われる、請求項に記載のシステム。
  3. 前記制御装置が、
    前記物理的環境内に存在するストーリーテリング装置を検出し、
    前記存在しているストーリーテリング装置のうちのどれが前記ストーリーの前記再生のために利用可能であるかを決定し、
    前記利用可能なストーリーテリング装置のうちのどれが前記ストーリーに適合しているかを決定することによって前記複数のストーリーテリング装置を決定することによって、前記複数のストーリーテリング装置を決定するようにさらに構成される、請求項1に記載のシステム。
  4. 前記視覚的効果が、ストーリーテリング装置による現実の投影、仮想表示、及び物理的アクションのうちの少なくとも1つを含む、請求項1に記載のシステム。
  5. 前記聴覚的効果が、前記聴覚的効果を発生させるストーリーテリング装置を基準として定位される、又は定位されない、請求項1に記載のシステム。
  6. 前記複数のストーリーテリング装置のうちの少なくとも1つのための別の刺激事象が、
    第1のストーリーテリング装置が第2のストーリーテリング装置からの既定距離内に入ることのうちの少なくとも1つを含む、請求項1に記載のシステム。
  7. 前記効果のうちの1つが、第1のストーリーテリング装置の位置にさらに基づく、請求項1に記載のシステム。
  8. 前記刺激事象が、第1のストーリーテリング装置のカメラによって決定される前記ユーザの位置に基づく、請求項1に記載のシステム。
  9. 前記刺激事象が、第1のストーリーテリング装置のカメラによって決定される前記環境内におけるオブジェクトの位置に基づく、請求項1に記載のシステム。
  10. 前記複数のストーリーテリング装置のうちの少なくとも1つのための別の刺激事象が、前記物理的環境内でのユーザの口頭による発言を含む、請求項1に記載のシステム。
  11. 前記複数のストーリーテリング装置のうちの少なくとも1つのための別の刺激事象が、前記複数のストーリーテリング装置のうちの前記少なくとも1つの動きを含み、前記動きが、前記少なくとも1つのストーリーテリング装置の加速、横揺れ、偏揺れ、及び縦揺れのうちの少なくとも1つを含む、請求項1に記載のシステム。
  12. 前記制御装置が、
    前記ストーリー内の現在の再生位置、
    前記環境内で発生済みの事象のリスト、
    前記複数のストーリーテリング装置のうちの少なくとも1つについての状態情報、及び
    前記現在のストーリーの前記コンテキストにおける前記ユーザについての状態情報のうちの少なくとも1つを含む状態データを保持するようにさらに構成される、請求項1に記載のシステム。
  13. 前記複数のストーリーテリング装置のうちの少なくとも1つのための別の刺激事象が、既存のメディア装置に対応するアクションを含む、請求項1に記載のシステム。
  14. 前記複数のストーリーテリング装置のうちの少なくとも1つのための別の刺激事象が、ユーザによる前記ストーリーテリング装置との物理的な相互作用を含む、請求項1に記載のシステム。
  15. 刺激事象に応答してストーリーの現在のコンテキストに基づく効果を発生させるように構成された電子デバイスをそれぞれ含む、複数のストーリーテリング装置を用意するステップであって、前記効果が、聴覚的効果及び視覚的効果のうちの少なくとも一方であり、前記複数のストーリーテリング装置のそれぞれのためのそれぞれの前記刺激事象のうちの少なくとも1つが、前記複数のストーリーテリング装置及び第1のユーザが位置している物理的環境内での前記第1のユーザによる前記ストーリーテリング装置に対するユーザアクションの実行を検出することを含み、前記ストーリーが、複数の分岐をさらに含み、前記複数の分岐がそれぞれ、2つ以上のストーリーラインアークを含み、前記ストーリーラインアークがそれぞれ、前記複数の刺激事象と効果との対を含む、ステップと、
    前記複数のストーリーテリング装置が、前記物理的環境内に存在し前記ストーリーに利用可能且つ適合していることを、前記複数のストーリーテリング装置の各々との無線通信を介して決定し、前記ストーリーの前記現在のコンテキスト及びそれぞれのストーリーテリング装置の装置タイプに基づいて、前記複数のストーリーテリング装置の各々に1または複数の命令を送信して、前記複数の分岐のそれぞれについて、それぞれのストーリーラインアークのうちの一つを選択することと、前記刺激事象と効果との対を、前記複数のストーリーテリング装置のうちの一つにそれぞれ割り当てることとによって、前記物理的環境内での前記ストーリーの再生を管理するステップとを含む、方法。
  16. 実行されたときに
    刺激事象に応答してストーリーの現在のコンテキストに基づく効果を発生させるように構成された電子デバイスをそれぞれ含む、複数のストーリーテリング装置を用意するステップであって、前記効果が、聴覚的効果及び視覚的効果のうちの少なくとも一方であり、前記複数のストーリーテリング装置のそれぞれのためのそれぞれの前記刺激事象のうちの少なくとも1つが、前記複数のストーリーテリング装置及び第1のユーザが位置している物理的環境内での前記第1のユーザによる前記ストーリーテリング装置に対するユーザアクションの実行を検出することを含み、前記ストーリーが、複数の分岐をさらに含み、前記複数の分岐がそれぞれ、2つ以上のストーリーラインアークを含み、前記ストーリーラインアークがそれぞれ、前記複数の刺激事象と効果との対を含む、ステップと、
    1つ又は複数のコンピュータプロセッサの動作によって、前記複数のストーリーテリング装置が、前記物理的環境内に存在し前記ストーリーに利用可能且つ適合していることを、前記複数のストーリーテリング装置の各々との無線通信を介して決定し、前記ストーリーの前記現在のコンテキスト及びそれぞれのストーリーテリング装置の、装置タイプに基づいて、前記複数のストーリーテリング装置の各々に1または複数の命令を送信して、前記複数の分岐のそれぞれについて、それぞれのストーリーラインアークのうちの一つを選択することと、前記刺激事象と効果との対を、前記複数のストーリーテリング装置のうちの一つにそれぞれ割り当てることとによって、前記物理的環境内での前記ストーリーの再生を管理するステップと、を含む動作を実行するコンピュータプログラムコードを格納した、非一時的なコンピュータ可読媒体。
JP2013191934A 2012-09-19 2013-09-17 没入型ストーリーテリング環境 Active JP6086601B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261703228P 2012-09-19 2012-09-19
US61/703,228 2012-09-19
US14/026,488 US9833698B2 (en) 2012-09-19 2013-09-13 Immersive storytelling environment
US14/026,488 2013-09-13

Publications (2)

Publication Number Publication Date
JP2014061373A JP2014061373A (ja) 2014-04-10
JP6086601B2 true JP6086601B2 (ja) 2017-03-01

Family

ID=49223626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013191934A Active JP6086601B2 (ja) 2012-09-19 2013-09-17 没入型ストーリーテリング環境

Country Status (4)

Country Link
US (2) US9833698B2 (ja)
EP (1) EP2713369B1 (ja)
JP (1) JP6086601B2 (ja)
CN (1) CN103657087B (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8874477B2 (en) 2005-10-04 2014-10-28 Steven Mark Hoffberg Multifactorial optimization system and method
JP5089079B2 (ja) * 2006-05-08 2012-12-05 任天堂株式会社 プログラム、情報記憶媒体及び画像生成システム
WO2011149558A2 (en) * 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate
US20140195285A1 (en) * 2012-07-20 2014-07-10 Abbas Aghakhani System and method for creating cultural heritage tour program and historical environment for tourists
US10394877B2 (en) * 2012-12-19 2019-08-27 Oath Inc. Method and system for storytelling on a computing device via social media
US9474068B2 (en) 2013-09-16 2016-10-18 Disney Enterprises, Inc. Storytelling simulator and device communication
US20160310862A1 (en) * 2014-01-30 2016-10-27 Zheng Shi Object for the construction of a spatial structure
US11250630B2 (en) 2014-11-18 2022-02-15 Hallmark Cards, Incorporated Immersive story creation
US10042506B2 (en) 2015-03-19 2018-08-07 Disney Enterprises, Inc. Interactive story development system and method for creating a narrative of a storyline
US10802577B2 (en) 2015-06-04 2020-10-13 Microsoft Technology Licensing, Llc Establishing voice communication channel
US10600296B2 (en) * 2015-08-19 2020-03-24 Google Llc Physical knowledge action triggers
US10515482B2 (en) 2015-08-24 2019-12-24 Pcms Holdings, Inc. Systems and methods for enhancing augmented reality experience with dynamic output mapping
US10545717B2 (en) 2015-10-08 2020-01-28 Pcms Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
US10249091B2 (en) * 2015-10-09 2019-04-02 Warner Bros. Entertainment Inc. Production and packaging of entertainment data for virtual reality
US20170200390A1 (en) * 2016-01-07 2017-07-13 Arthur E. Seymour Educational system utilizing a contest and a method of conducting the same
US11351472B2 (en) * 2016-01-19 2022-06-07 Disney Enterprises, Inc. Systems and methods for using a gyroscope to change the resistance of moving a virtual weapon
US11663783B2 (en) 2016-02-10 2023-05-30 Disney Enterprises, Inc. Systems and methods for using augmented reality with the internet of things
US10928915B2 (en) * 2016-02-10 2021-02-23 Disney Enterprises, Inc. Distributed storytelling environment
US10369487B2 (en) * 2016-02-11 2019-08-06 Disney Enterprises. Inc. Storytelling environment: mapping virtual settings to physical locations
US10587834B2 (en) 2016-03-07 2020-03-10 Disney Enterprises, Inc. Systems and methods for tracking objects for augmented reality
CN106371603A (zh) * 2016-09-18 2017-02-01 成都动鱼数码科技有限公司 基于位置服务和增强现实技术的角色定位捕捉方法
US10135950B2 (en) * 2016-10-10 2018-11-20 Google Llc Creating a cinematic storytelling experience using network-addressable devices
US11638869B2 (en) * 2017-04-04 2023-05-02 Sony Corporation Information processing device and information processing method
US10565158B2 (en) * 2017-07-31 2020-02-18 Amazon Technologies, Inc. Multi-device synchronization for immersive experiences
EP3688997A4 (en) * 2017-09-29 2021-09-08 Warner Bros. Entertainment Inc. PRODUCTION AND CONTROL OF CINEMATIC CONTENT IN RESPONSE TO A USER'S EMOTIONAL STATE
EP3697511A1 (en) 2017-10-16 2020-08-26 Lego A/S Interactive play apparatus
CN108153201A (zh) * 2017-12-29 2018-06-12 安徽创视纪科技有限公司 一种触发式激光感应系统
US10481680B2 (en) 2018-02-02 2019-11-19 Disney Enterprises, Inc. Systems and methods to provide a shared augmented reality experience
US10546431B2 (en) 2018-03-29 2020-01-28 Disney Enterprises, Inc. Systems and methods to augment an appearance of physical object for an augmented reality experience
US10946278B2 (en) 2018-05-22 2021-03-16 Sony Corporation Generating alternate reality games (ARG) incorporating augmented reality (AR)
US11406896B1 (en) * 2018-06-08 2022-08-09 Meta Platforms, Inc. Augmented reality storytelling: audience-side
US10540797B1 (en) 2018-08-02 2020-01-21 Disney Enterprises, Inc. Image customization using a persona
US10915164B2 (en) * 2018-09-05 2021-02-09 Magic Leap, Inc. Directed emitter/sensor for electromagnetic tracking in augmented reality systems
US10974132B2 (en) 2018-10-02 2021-04-13 Disney Enterprises, Inc. Systems and methods to provide a shared interactive experience across multiple presentation devices based on detection of one or more extraterrestrial bodies
US11145306B1 (en) 2018-10-31 2021-10-12 Ossum Technology Inc. Interactive media system using audio inputs
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
US11062678B2 (en) 2018-12-27 2021-07-13 At&T Intellectual Property I, L.P. Synchronization of environments during extended reality experiences
US10949624B2 (en) * 2019-01-04 2021-03-16 Taylor Cole System and method for defining and presenting a narrative
US11014008B2 (en) 2019-03-27 2021-05-25 Disney Enterprises, Inc. Systems and methods for game profile development based on virtual and/or real activities
US10916061B2 (en) 2019-04-24 2021-02-09 Disney Enterprises, Inc. Systems and methods to synchronize real-world motion of physical objects with presentation of virtual content
US10918949B2 (en) 2019-07-01 2021-02-16 Disney Enterprises, Inc. Systems and methods to provide a sports-based interactive experience
US20210056272A1 (en) * 2019-08-23 2021-02-25 KEFI Holdings, Inc Object detection-based control of projected content
US11689766B2 (en) * 2020-08-28 2023-06-27 Disney Enterprises, Inc. Techniques for personalizing the playback of a media title based on user interactions with an internet of things device
EP3979245A1 (en) * 2020-09-30 2022-04-06 Al Sports Coach GmbH System and method for providing interactive storytelling
CN113254740B (zh) * 2021-05-25 2023-10-17 南京大学 一种儿童故事创作的可视化系统
CN114115524B (zh) * 2021-10-22 2023-08-18 青岛海尔科技有限公司 智能水杯的交互方法、存储介质及电子装置
US20240077984A1 (en) * 2022-09-01 2024-03-07 Lei Zhang Recording following behaviors between virtual objects and user avatars in ar experiences
CN116099202A (zh) * 2023-04-11 2023-05-12 清华大学深圳国际研究生院 互动数字叙事创作工具系统及互动数字叙事作品创作方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08332284A (ja) * 1995-06-06 1996-12-17 Namco Ltd 演出装置
GB9517789D0 (en) 1995-08-31 1995-11-01 Philips Electronics Uk Ltd Interactive entertainment content control
JP4236301B2 (ja) 1998-05-25 2009-03-11 株式会社ナムコ 遊戯施設
JP2000350874A (ja) 1999-06-11 2000-12-19 Namco Ltd アトラクションシステム
JP3212578B2 (ja) 1999-06-30 2001-09-25 インタロボット株式会社 身体的音声反応玩具
JP2001216527A (ja) * 2000-02-04 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報空間入出力装置およびその方法、ならびにそのプログラムを記録した記録媒体
JP2001269484A (ja) * 2000-03-24 2001-10-02 Namco Ltd 遊戯装置
US7246315B1 (en) * 2000-05-10 2007-07-17 Realtime Drama, Inc. Interactive personal narrative agent system and method
JP3566646B2 (ja) * 2000-10-31 2004-09-15 株式会社国際電気通信基礎技術研究所 音楽コミュニケーション装置
US7499860B2 (en) * 2002-12-17 2009-03-03 Microsoft Corporation Computer system and method for enhancing experience using networked devices
JP4220856B2 (ja) 2003-08-18 2009-02-04 本田技研工業株式会社 携帯端末機器を用いた移動ロボットの画像撮影装置及びその方法
JP2005250233A (ja) * 2004-03-05 2005-09-15 Sanyo Electric Co Ltd ロボット装置
JP2008264459A (ja) 2007-04-21 2008-11-06 Sankyo Riken Kk 発光遊戯具
US8381108B2 (en) * 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8668592B2 (en) * 2010-12-17 2014-03-11 2343127 Ontario Inc. Systems and methods of changing storyline based on player location
US8613646B2 (en) * 2011-01-21 2013-12-24 Henk B. Rogers Systems and methods for controlling player characters in an interactive multiplayer story

Also Published As

Publication number Publication date
EP2713369B1 (en) 2019-06-19
US9914057B2 (en) 2018-03-13
US9833698B2 (en) 2017-12-05
EP2713369A1 (en) 2014-04-02
US20140080109A1 (en) 2014-03-20
JP2014061373A (ja) 2014-04-10
CN103657087A (zh) 2014-03-26
US20170296922A1 (en) 2017-10-19
CN103657087B (zh) 2017-06-20

Similar Documents

Publication Publication Date Title
JP6086601B2 (ja) 没入型ストーリーテリング環境
JP6367440B2 (ja) 没入型環境用のインタラクティブ型オブジェクト
US9474068B2 (en) Storytelling simulator and device communication
JP7379360B2 (ja) 人工知能を使用した音声ヘルプシステム
US10092827B2 (en) Active trigger poses
US10086265B2 (en) Video teleconference object enable system
CN102129343B (zh) 运动捕捉系统中的受指导的表演
US10105594B2 (en) Wearable garments recognition and integration with an interactive gaming system
CA2912243C (en) Immersive story creation
JP7254772B2 (ja) ロボットインタラクションのための方法及びデバイス
JP5498938B2 (ja) 対話型玩具及びエンタテインメント装置
US20180093181A1 (en) Virtual blaster
US20170216675A1 (en) Fitness-based game mechanics
JP7339318B2 (ja) ゲーム内位置ベースのゲームプレイコンパニオンアプリケーション
EP3169416A1 (en) User-generated dynamic virtual worlds
Schouten et al. Human behavior analysis in ambient gaming and playful interaction
JP6959267B2 (ja) 場所ベースゲームプレイコンパニオンアプリケーションを使用するチャレンジの生成
WO2022227288A1 (zh) 增强现实的环境体验方法、装置、电子设备及存储介质
Mazouzi Exploring the use of smart glasses, gesture control, and environmental data in augmented reality games
Ni et al. Enhancing mobile VR immersion: a multimodal system of neural networks approach to an IMU gesture controller
LAMBERTI et al. Non-verbal communication in Social VR: Exploring new ways to handshake
KR101604971B1 (ko) 유저 참여형 공연 시스템 및 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141202

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160926

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170130

R150 Certificate of patent or registration of utility model

Ref document number: 6086601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250