JP2013538593A - インタラクティブ・ストーリーを駆動するための自然ユーザー入力 - Google Patents

インタラクティブ・ストーリーを駆動するための自然ユーザー入力 Download PDF

Info

Publication number
JP2013538593A
JP2013538593A JP2013516598A JP2013516598A JP2013538593A JP 2013538593 A JP2013538593 A JP 2013538593A JP 2013516598 A JP2013516598 A JP 2013516598A JP 2013516598 A JP2013516598 A JP 2013516598A JP 2013538593 A JP2013538593 A JP 2013538593A
Authority
JP
Japan
Prior art keywords
user
story
linear
image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013516598A
Other languages
English (en)
Other versions
JP5944384B2 (ja
Inventor
フラー,アンドリュー
ポート,ルディ
キップマン,アレックス・アーベン−エイサー
ペレス,キャスリン・ストーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2013538593A publication Critical patent/JP2013538593A/ja
Application granted granted Critical
Publication of JP5944384B2 publication Critical patent/JP5944384B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • A63F13/10
    • A63F13/12
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/47Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/63Methods for processing data by generating or executing the game program for controlling the execution of the game in time
    • A63F2300/632Methods for processing data by generating or executing the game program for controlling the execution of the game in time by branching, e.g. choosing one of several possible story developments at a given point in time
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

インタラクティブ・ゲームの様相をリニア・ストーリーに組み合わせるシステムおよび方法。ユーザーは、NUIシステムによってリニア・ストーリーと対話処理して、ユーザーに提示されているストーリーおよび画像を変更することができる。一例では、ユーザーは、既定の診査ジェスチャーを行うことによってストーリーを変更することができる。このジェスチャーは、表示されている画像の3−D世界にユーザーを連れて行く。具体的には、画面上に表示されている画像が変化して、ユーザーが3−D仮想世界に足を踏み入れて、ユーザーが仮想物体を異なる視点から調べること、または仮想物体の回りを覗うことができるという印象を醸し出す。
【選択図】図1A

Description

[0001] これまで、コンピューター・ゲームおよびマルチメディア・アプリケーションのような計算アプリケーションは、コントローラー、リモコン、キーボード、マウス等を用いて、ユーザーがゲーム・キャラクターやアプリケーションの他の様相(aspect)を操作することを可能にしていた。更に最近になって、コンピューター・ゲームおよびマルチメディア・アプリケーションは、カメラやソフトウェア・ジェスチャー認識エンジンを採用して、自然ユーザー・インターフェース(「NUI」:natural user interface)を提供し始めている。NUIを用いて、ユーザーのジェスチャーや発声を検出し、解釈し、ゲームのキャラクターやアプリケーションのその他の様相を制御するために用いる。
[0002] 現在では、NUIシステムは、ゲーミング・アプリケーションに広く用いられている。しかしながら、NUIシステムは、今日まで、リニア・ストーリー・テリング(linear story telling)用の媒体としては用いられてこなかった。リニア・ストーリーは、例えば、従前からのテレビジョン番組、映画、および本によって与えられるような、従前からの受動的な非インタラクティブ体験である。リニア・ストーリーは、何十年もの間、一般大衆に広く受け入れられている。ゲーミングは、特にNUIシステムを用いる場合、比較的新しく、これまでは受入が非常に限られていた。
[0003] 本明細書に開示するのは、インタラクティブ・ゲーミングの様相をリニア・ストーリーに組み合わせるインタラクティブ・ストーリー体験を提供するシステムおよび方法である。リニア・ストーリーは、ユーザーによって、開始から終了まで、望ましければユーザーの対話処理なくても、見ることができる。あるいは、ユーザーは、リニア・ストーリーと対話処理して、インタラクティブ体験を得ることもできる。ユーザーは、NUIシステムを通じて、リニア・ストーリーと対話処理することができる。NUIシステムは、計算環境と、ユーザー移動データーを取り込みそれを計算機に供給するキャプチャー・デバイスと、ストーリーを提示するオーディオビジュアル・デバイスとを含む。
[0004] 一実施形態では、ユーザーは、既定の診査ジェスチャー(exploration gesture)を行うことによって、リニア・ストーリーを変更することができる。このジェスチャーは、キャプチャー・デバイスによって検出され計算環境によって認識されると、表示されている画像の3−D世界にユーザーを引き込む。具体的には、画面上に表示されている画像が変化して、ユーザーが3−D仮想世界に足を踏み入れて、ユーザーが場面の中で動き回り、この場面の異なる観点から仮想物体を診査および検査すること、またはこの場面における仮想物体の周りを窺うことができるという印象を醸し出す。
[0005] 一実施形態では、本システムは、インタラクティブ・ゲーミングの様相をリニア・ストーリーに組み合わせる方法に関する。この方法は、a)少なくとも1つの画像および音声挿話を用いて、オーディオビジュアル・デバイスによってリニア・ストーリーを提示するステップであって、リニア・ストーリーが、ユーザーがストーリーと対話処理していないときに、ユーザーに提示される1組のデフォルトの画像および/または挿話を有する、ステップと、b)キャプチャー・デバイスによって、ユーザーによる動きおよび音声コマンドの内少なくとも1つを検出するステップと、c)前記ステップb)において検出した動きおよび/または音声コマンドが、1組のデフォルトの画像および/または挿話には含まれていない追加の画像および追加の挿話の内少なくとも一方を有するストーリー分岐を含むように、リニア・ストーリーを変更する、リニア・ストーリーとの対話処理であるか否か識別するステップと、d)追加の画像の内少なくとも1つにおいて、追加の挿話をユーザーに、オーディオビジュアル・デバイスによって提示することによって、リニア・ストーリーを変更するステップとを含む。
[0006] 他の実施形態では、本システムは、インタラクティブ・ゲーミングの様相をリニア・ストーリーに組み合わせる方法を実行するようにプロセッサーをプログラミングするプロセッサー読み取り可能記憶媒体に関する。この方法は、a)ユーザーによる対話処理が、ユーザーの動きを監視しているキャプチャー・デバイスによって認知されないときに、画像および音声挿話の内少なくとも1つを用いて、オーディオビジュアル・デバイスによってリニア・ストーリーを提示するステップであって、リニア・ストーリーが、開始から終了まで、完全なストーリーとして提示され、1組のデフォルトの画像を含む、ステップと、b)オーディオビジュアル・デバイスと関連付けられているキャプチャー・デバイスによって、ユーザーによる動きを検出するステップと、c)前記ステップb)において検出した動きが、1組のデフォルトの画像および/または挿話には含まれていない追加の画像を有するストーリー分岐を含むように、リニア・ストーリーからの変更を要求する、リニア・ストーリーとの対話処理であるか否か識別するステップと、d)追加の画像を、格納されている処理データーに基づいてレンダリングできるか否か判断するステップと、e)前記ステップd)において、追加の画像をレンダリングできると判断した場合、オーディオビジュアル・デバイスによって追加のデーターをユーザーに提示することによって、リニア・ストーリーを変更するステップと、f)ユーザーの対話処理に基づいて、対話処理が所定のポイント数を加点するまたは減点することに対応する場合、対話処理を採点するステップとを含む。
[0007] 更に他の実施形態では、本システムは、インタラクティブ・ゲーミングの様相をリニア・ストーリーに組み合わせるシステムに関する。このシステムは、画像および音声挿話の内少なくとも1つを提示するオーディオビジュアル・デバイスと、画像およびオーディオ・データーの内少なくとも1つをユーザーから取り込む画像キャプチャ・デバイスと、オーディオビジュアル・デバイスおよび画像キャプチャ・デバイスに結合されている計算環境とを含む。この計算環境は、a)ユーザーによる対話処理が、ユーザーの動きを監視しているキャプチャー・デバイスによって認知されないときに、画像および音声挿話の内少なくとも1つを用いて、オーディオビジュアル・デバイスによってリニア・ストーリーを提示し、リニア・ストーリーが、開始から終了まで、完全なストーリーとして提示され、1組のデフォルトの画像を含み、b)キャプチャー・デバイスによってユーザーによる動きを検出し、c)検出した動きが診査ジェスチャーであるか否か識別し、d)動きを診査ジェスチャーであると識別したときに、リニア・ストーリーからストーリー分岐に分岐するように動作する。この分岐は、d1)ユーザーによって示されたオーディオビジュアル・デバイス上における点を検知する動作と、d2)ユーザーの一部から、ユーザーによって示されたオーディオビジュアル・デバイス上における点までの3−D実世界ベクトルを計算する動作と、d3)3−D実世界ベクトルを、現在の視点において開始点を有し、3−Dマシン空間における仮想物体において終点を有する3−Dマシン空間ベクトルに変換する動作と、d4)3−Dマシン空間ベクトルの終点にある視点から仮想物体を表示する動作を含む。
[0008] この摘要は、詳細な説明において以下で更に説明する概念から選択したものを簡略化した形態で紹介するために、設けられている。この摘要は、特許請求する主題の主要な特徴や必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を判断する際に補助として使用されることを意図するのでもない。更に、特許請求する主題は、本開示のいずれかの部分に記されているいずれかの欠点を解決する実施態様にも、全ての欠点を解決する実施態様にも限定されるのではない。
図1Aは、インタラクティブ・ストーリー体験を提供するターゲット認識、分析、および追跡システムの実施形態例を示す。 図1Bは、インタラクティブ・ストーリー体験を提供するターゲット認識、分析、および追跡システムの別の実施形態例を示す。 図2は、ターゲット認識、分析、および追跡システムにおいて用いることができるキャプチャー・デバイスの実施形態例を示す。 図3Aは、ターゲット認識、分析、および追跡システムにおいて1つ以上のジェスチャーを解釈するために用いることができる計算環境の実施形態例を示す。 図3Bは、ターゲット認識、分析、および追跡システムにおいて1つ以上のジェスチャーを解釈するために用いることができる計算環境の別の実施形態例を示す。 図4は、図1Aから図2のターゲット認識、分析、および追跡システムから生成されたユーザーのスケルトン・マッピングを示す。 図5は、インタラクティブ・ストーリー体験を提供する本技術の一実施形態の動作の上位フローチャートである。 図6は、キャプチャー・デバイスによって検出された音声をインタラクティブ・ストーリー体験と相関付ける本技術の一実施形態の動作のフローチャートである。 図7は、仮想場面の3−D診査のための本技術の一実施形態の動作のフローチャートである。 図8は、ユーザーが画面上のキャラクターの行為を制御するための、本技術の一実施形態の動作のフローチャートである。 図9は、ユーザーが場面と対話処理してインタラクティブ・ストーリー体験のプロットを変更するための本技術の一実施形態の動作のフローチャートである。 図9Aは、予め記録されているビデオに場面が提示されている場合に、ユーザーが場面と対話処理してインタラクティブ・ストーリー体験のプロットを変更するための本技術の一実施形態の動作のフローチャートである。 図10は、ユーザーが、表示されている場面内において仮想物体を診査および調査するために診査ジェスチャーを行う一例である。 図11は、1つのストーリー成果に再度収束する分岐サブプロットを示す。 図12は、複数のストーリー成果の内1つが得られる分岐プロットを示す。 図13は、ジェスチャーを認識するジェスチャー認識エンジンを示すブロック図である。 図14は、図13のジェスチャー認識エンジンの動作のフローチャートである。
[0026] 本技術の実施形態について、これより図1Aから図14を参照しながら説明する。実施形態は、一般的には、インタラクティブ・ゲーミングの様相をリニア・ストーリーに組み合わせる、インタラクティブ・ストーリー体験を提供するシステムおよび方法に関する。インタラクティブ・ストーリー・アプリケーションを実行するために、NUIシステムを設ける。ユーザーの対話処理を用いずに実行する場合、ストーリー・アプリケーションは、リニア・ストーリーをユーザーに開始から終了まで提供する。あるいは、ユーザーがNUIシステムを通じてストーリー・アプリケーションと対話処理し、種々の行為を実行することもできる。
[0027] 一実施形態では、ユーザーは、既定の診査ジェスチャーを行うことによって、リニア・ストーリーを変更することができる。このジェスチャーは、ユーザーに表示されている三次元(3−D)仮想世界に、ユーザーが足を踏み入れて診査することを望んでいることを、システムに知らせる。行われる診査ジェスチャーに応じて、表示されている画像が変化して、ユーザーが3−D仮想世界に入って行く印象を創造し、ユーザーが場面の中で動き回ること、ならびにこの場面における異なる観点から仮想物体を診査および検査することを可能にする。また、ユーザーは、この場面における仮想物体の後ろを覗って、これら仮想物体の裏側を見ること、または前面にある物体によって遮られている他の物体にもっと近づいて検査することができる。
[0028] 3−D仮想世界内において診査するが、代わりに、他のジェスチャーまたは動きを行うことによって、ユーザーはリニア・ストーリーのプロットを変更することもできる。このような実施形態では、ストーリー・アプリケーションは他のサブプロットに分岐することができ、恐らくは他のストーリー成果(story outcomes)に分岐することができる。
[0029] 最初に図1Aから図2を参照すると、本技術を実現するハードウェアは、ターゲット認識、分析、および追跡システム10を含む。このターゲット認識、分析、および追跡システム10は、ユーザー18のような人間のターゲットを認識、分析、および/または追跡するために用いることができる。ターゲット認識、分析、および追跡システム10の実施形態は、以下で説明するようなインタラクティブ・ストーリー・アプリケーションのような、ゲーミング・アプリケーションまたは他のアプリケーションを実行する計算環境12を含む。計算環境12は、ゲーミング・アプリケーションおよびゲーミング以外のアプリケーションを実行するために計算環境12を用いることができるように、ハードウェア・コンポーネントおよび/またはソフトウェア・コンポーネントを含むことができる。一実施形態では、計算環境12は、本明細書において記載するプロセスを実行するためにプロセッサー読み取り可能記憶デバイスに格納されている命令を実行することができる、標準プロセッサー、特殊プロセッサー、マイクロプロセッサー等というような、プロセッサーを含むことができる。
[0030] 更に、システム10はキャプチャー・デバイス20も含む。キャプチャー・デバイス20は、このキャプチャー・デバイスによって検知された1つ以上のユーザーおよび/または物体に関する画像およびオーディオ・データーを取り込む。実施形態では、キャプチャー・デバイス20は、1人以上のユーザーの動き、ジェスチャー、および発声(speech)に関する情報を取り込むために用いることができる。この情報は、計算環境によって受け取られ、ゲーミング・アプリケーションまたは他のアプリケーションの様相をレンダリングするため、対話処理するため、および/または制御するために用いることができる。計算環境12およびキャプチャー・デバイス20の例について、以下で更に詳しく説明する。
[0031] ターゲット認識、分析、および追跡システム10の実施形態は、ディスプレイ14を有するオーディオ/ビジュアル・デバイス16に接続することができる。デバイス16は、例えば、テレビジョン、モニター、高品位テレビジョン(HDTV)等とすればよく、ゲームまたはアプリケーションの映像(visuals)および/または音響(audio)をユーザーに供給することができる。例えば、計算環境12は、グラフィクス・カードのようなビデオ・アダプター、および/またはサウンド・カードのようなオーディオ・アダプターを含むことができる。これらのアダプターは、ゲームまたは他のアプリケーションに付随するオーディオ/ビデオ信号を供給することができる。オーディオ/ビジュアル・デバイス16は、オーディオ/ビジュアル信号を計算環境12から受け取り、次いでこのオーディオ/ビジュアル信号と関連のあるゲームまたはアプリケーションの映像をユーザー18に出力することができる。一実施形態によれば、オーディオ/ビジュアル・デバイス16は、例えば、S-Videoケーブル、同軸ケーブル、HDMIケーブル、DVIケーブル、VGAケーブル、コンポーネント・ビデオ・ケーブル等によって、計算環境12に接続することができる。
[0032] 図1Aおよび図1Bに示すように、一実施形態例では、計算環境12上において実行するストーリー・アプリケーションは、種々のストーリー設定のいずれでも提示することができる。図1Aは、家21、怪物23、および雲25を含む場面19を示す。以下で説明するが、ユーザーは、種々の方法で場面19と対話処理することができる。一例では、ユーザーは図示のように、雲25を一緒に動かすことができ、これによって、ストーリーによって提示されているリニア・ストーリーを変更することができる。例えば、雲を一緒に動かすと、雨を降らせることができる。
[0033] 実施形態では、計算環境12、A/Vデバイス16、およびキャプチャー・デバイス20が協同して、ディスプレイ14上に画面上のキャラクター23をレンダリングすることができる。このキャラクター23は、少なくとも部分的にユーザー18によって制御される。図1Bに示すように、画面上のキャラクター23は、実世界空間におけるユーザー18の動きを、その通りに真似する。つまり、ユーザー18は、ディスプレイ14上におけるキャラクター23の動きおよび行為を制御する動きを行うことができる。更に、ユーザーは、計算環境が既定のジェスチャーとして認識する、ある種の動きを行うこともできる。これらの既定のジェスチャーは、被制御キャラクター23に、メモリーにおいて当該既定のジェスチャーと関連付けられている一定の行為を実行させることができる。既定のジェスチャーは、以下で説明するような種々の他の行為(action)を開始するために用いることもできる。
[0034] 図1Aおよび図1Bの場面19は、計算環境12上で実行しているストーリー・アプリケーションによって生成することができる多くの異なる場面の1つである。更に、システム10は、計算環境12上で実行するストーリー・アプリケーションの範囲の外部であるオペレーティング・システムおよび/またはアプリケーションの制御として、ユーザー18の動きを解釈するためにも用いることができる。
[0035] システム10およびそのコンポーネントに相応しい例が、以下の同時係属中の特許出願において見いだせる。これらの特許出願の全ては、ここで引用したことによって、具体的に本願にも含まれるものとする。2009年5月29日に出願され"Environment And/Or Target Segmentation"(環境および/またはターゲット区分)と題する米国特許出願第12/475,094号、2009年7月29日に出願され"Auto Generating a Visual Representation"(視覚表現の自動生成)と題する米国特許出願第12/511,850号、2009年5月29日に出願され"Gesture Tool"(ジェスチャー・ツール)と題する米国特許出願第12/474,655号、2009年10月21日に出願され"Pose Tracking Pipeline"(姿勢追跡パイプライン)と題する米国特許出願第12/603,437号、2009年5月29日に出願され"Device for Identifying and Tracking Multiple Humans Over Time"(ときの経過と共に複数の人間を識別および追跡するデバイス)と題する米国特許出願第12/475,308号、 2009年10月7日に出願され"Human Tracking System"(人間追跡システム)と題する米国特許出願第12/575,388号、 2009年4月13日に出願され"Gesture Recognizer System Architecture"(ジェスチャー認識システムのアーキテクチャー)と題する米国特許出願第12/422,661号、2009年2月23日に出願され"Standard Gestures"(標準的なジェスチャー)と題する米国特許第12/391,150号、 2009年5月29日に出願され"Gesture Tool"(ジェスチャー・ツール)と題する米国特許出願第12/474,655号。
[0036] 図2は、ターゲット認識、分析、および追跡システム10において用いることができるキャプチャー・デバイス20の実施形態例を示す。一実施形態例では、キャプチャー・デバイス20は、深度値を含むことができる深度画像を有するビデオを、例えば、飛行時間(time-of-flight)、構造化光、立体画像等を含むいずれかの適した技法によって取り込むように構成することができる。一実施形態によれば、キャプチャー・デバイス20は、計算された深度情報を「Zレイヤー」、即ち、深度カメラからその見通し線に沿って延びるZ軸に対して垂直であることができるレイヤーに編成することができる。
[0037] 図2に示すように、キャプチャー・デバイス20は撮像カメラ・コンポーネント22を含むことができる。一実施形態例によれば、撮像カメラ・コンポーネント22は、場面の深度画像を取り込むことができる深度カメラとすることができる。深度画像は、取り込まれた場面の二次元(2−D)画素エリアを含むことができ、この2−D画素エリアにおける各画素は、カメラから取り込まれた場面における物体の、例えば、センチメートル、ミリメートル等の単位とした、長さまたは距離のような深度値を表すことができる。
[0038] 図2に示すように、一実施形態例によれば、撮像カメラ・コンポーネント22は、キャプチャー・エリアの深度画像を取り込むために用いることができるIR発光コンポーネント24、三次元(3D)カメラ26、およびRGBカメラ28を含むことができる。例えば、飛行時間分析では、キャプチャー・デバイス20のIR発光コンポーネント24は、場面に向けて赤外線光を放出することができ、次いでセンサ(図示せず)を用いて、その場面の中にある1つ以上のターゲットおよび物体の表面からの後方散乱光を、例えば、3Dカメラ26および/またはRGBカメラ28を用いて検出することができる。
[0039] 一部の実施形態では、パルス状赤外線光を用いて、発信光パルスと対応する入射光パルスとの間の時間を測定し、キャプチャー・デバイス20からキャプチャ・エリア内にあるターゲットまたは物体上における特定の場所までの物理的距離を判定するために、この時間を用いることができるようにする。加えて、他の実施形態例では、発信光波の位相を着信光波の位相と比較して、位相ずれを判定することもできる。次いで、位相ずれを用いて、キャプチャー・デバイス20からターゲットまたは物体上の特定の場所までの物理的距離を判定することができる。
[0040] 他の実施形態例によれば、例えば、散乱光パルス撮像(shuttered light pulse imaging)を含む種々の技法によって、経時的な光の反射ビームの強度を分析することによって、キャプチャー・デバイス20からターゲットまたは物体上の特定の場所までの物理的距離を間接的に判定するために、飛行時間分析を用いることもできる。
[0041] 他の一実施形態例では、キャプチャー・デバイス20は、構造化光を用いて深度情報を取り込むことができる。このような分析では、パターン光(即ち、格子パターン、縞パターンのような既知のパターンとして表示される光)を、例えば、IR発光コンポーネント24によって、場面に向けて投射する。場面における1つ以上のターゲットまたは物体の表面に衝突したときに、パターンが、それに応答して、変形することができる。このようなパターンの変形を、例えば、3Dカメラ26および/またはRGBカメラ28によって取り込むことができ、次いで分析して、キャプチャー・デバイス20からターゲットまたは物体上における特定の場所までの物理的距離を判定することができる。
[0042] 他の実施形態によれば、キャプチャー・デバイス20は、2つ以上の物理的に分離されたカメラを含むことができ、これらが異なる角度からの場面を捕らえて、視覚的な立体像を得て、これを解明することによって深度情報を生成することができる。他の実施形態例では、キャプチャー・デバイス20は、ポイント・クラウド・データー(point cloud data)およびターゲット・ディジタル化技法を使用して、ユーザーの特徴を検出することもできる。
[0043] 更に、キャプチャー・デバイス20は、マイクロフォン30を含むこともできる。マイクロフォン30は、音響を受けて電気信号に変換する変換器またはセンサー(図示せず)を含むことができる。一実施形態によれば、マイクロフォン30は、ターゲット認識、分析、および追跡システム10においてキャプチャー・デバイス20と計算環境12との間におけるフィードバックを減らすために用いることができる。加えて、マイクロフォン30は、計算環境12によって実行することができる、ゲーム・アプリケーション、ゲーム以外のアプリケーション等のようなアプリケーションを制御するために、ユーザーが供給することもできるオーディオ信号を受け取るために用いることもできる。
[0044] 一実施形態例では、キャプチャー・デバイス20は、更に、撮像カメラ・コンポーネント22と動作的に通信することができるプロセッサー32も含むことができる。プロセッサー32は、命令を実行することができる標準的なプロセッサー、特殊プロセッサー、マイクロプロセッサー等を含むことができる。これらの命令には、深度画像を受け取り、この深度画像に適したターゲットが含まれ得るか否か判定を行い、適したターゲットをそのターゲットのスケルトン表現またはモデルに変換する命令、またはあらゆる他の適した命令を含むことができる。
[0045] キャプチャー・デバイス20は、更に、メモリー・コンポーネント34も含むことができる。メモリー・コンポーネント34は、プロセッサー32によって実行することができる命令、3Dカメラ26またはRGBカメラ28によって取り込まれた画像または画像のフレーム、あるいはあらゆる他の適した情報、画像等を格納することができる。一実施形態例によれば、メモリー・コンポーネント34は、ランダム・アクセス・メモリー(RAM)、リード・オンリ・メモリー(ROM)、キャッシュ、フラッシュ・メモリー、ハード・ディスク、または他の適した記憶コンポーネントであればいずれでも含むことができる。図2に示すように、一実施形態では、メモリー・コンポーネント34は、画像キャプチャー・コンポーネント22およびプロセッサー32と通信することができる別個のコンポーネントであってもよい。他の実施形態によれば、メモリー・コンポーネント34は、プロセッサー32および/または画像キャプチャー・コンポーネント22に統合されてもよい。
[0046] 図2に示すように、キャプチャー・デバイス20は、通信リンク36を介して、計算環境12と通信することができる。通信リンク36は、例えば、USB接続、Firewire接続、イーサネット・ケーブル接続等を含む有線接続、および/またはワイヤレス802.11b、g、a、またはn接続のようなワイヤレス接続とすることができる。一実施形態によれば、計算環境212は、クロックをキャプチャー・デバイス202に供給することができる。このクロックは、例えば、通信リンク36を介して場面をいつ取り込むべきか判定するために用いることができる。
[0047] 加えて、キャプチャー・デバイス20は、例えば、3Dカメラ26および/またはRGBカメラ28によって取り込まれた深度情報および画像、ならびにキャプチャー・デバイス202によって生成することができるスケルトン・モデルを、計算環境12に、通信リンク36を通じて供給することができる。キャプチャー・デバイス20によって検出されたターゲットまたは物体が人間のターゲットに対応するか否か判断するためには、種々の既知の技法が存在する。次いで、スケルトン・マッピング技法を用いて、そのユーザーの骨格上における種々のスポット、手の関節、手首、肘、膝、鼻、踝、肩、および骨盤が脊椎と交わるところを判定することができる。他の技法には、画像をその人の身体モデル表現に変換すること、およびこの画像をその人のメッシュ・モデル表現に変換することが含まれる。
[0048] 次いで、計算環境12が種々の行為を実行できるように、スケルトン・モデルを計算環境12に供給することができる。更に、計算環境は、例えば、スケルトン・モデルから既に認識されたユーザーのジェスチャーに基づいて、計算環境上で実行しているアプリケーションにおいて実行すべき制御は何か判断することができる。例えば、図示のように、図2では、計算環境12が、いつユーザーが既定のジェスチャーを行ったか判断するために、ジェスチャー認識エンジン190を含むことができる。
[0049] 図3Aは、ターゲット認識、分析、および追跡システムにおいてユーザーの1つ以上の位置および運動(motion)を解釈するために用いることができる計算環境の一実施形態例を示す。図1Aから図2に関して先に説明した計算環境12のような計算環境は、ゲーミング・コンソールのようなマルチメディア・コンソール100とすることができる。図3Aに示すように、マルチメディア・コンソール100は、レベル1キャッシュ102、レベル2キャッシュ104、およびフラッシュROM(リード・オンリー・メモリー)106を有する中央演算装置(CPU)101を有する。レベル1キャッシュ102およびレベル2キャッシュ104は、一時的にデーターを格納し、こうしてメモリー・アクセス・サイクルの回数を減らすことによって、処理速度およびスループットを向上させる。CPU101は、1つよりも多いコアを設けることができ、したがって追加のレベル1およびレベル2キャッシュ102および104を有することもできる。フラッシュROM106は、実行可能コードを格納することができる。実行可能コードは、マルチメディア・コンソール100の電源をオンにしたときに、ブート・プロセスの初期段階中にロードされる。
[0050] グラフィクス処理ユニット(GPU)108およびビデオ・エンコーダー/ビデオ・コデック(コーダー/デコーダー)114は、高速および高分解能グラフィクス処理のためにビデオ処理パイプラインを形成する。データーは、バスを介して、GPU108からビデオ・エンコーダー/ビデオ・コデック114に伝達される。ビデオ処理パイプラインは、テレビジョンまたは他のディスプレイに送信するために、データーをA/V(オーディオ/ビデオ)ポート140に出力する。メモリー・コントローラー110がGPU108に接続されており、限定ではなく、RAMのような種々のタイプのメモリー112にプロセッサーがアクセスし易くなっている。
[0051] マルチメディア・コンソール100は、I/Oコントローラー120、システム管理コントローラー122、オーディオ処理ユニット123、ネットワーク・インターフェース・コントローラー124、第1USBホスト・コントローラー126、第2USBコントローラー128、およびフロント・パネルI/Oサブアセンブリ130を含む。これらは、好ましくは、モジュール118上に実装されている。USBコントローラー126および128は、周辺コントローラー142(1)〜142(2)、ワイヤレス・アダプター148、および外部メモリー・デバイス146(例えば、フラッシュ・メモリー、外部CD/DVD ROMドライブ、リムーバブル媒体等)のためのホストとしての役割を果たす。ネットワーク・インターフェース124および/またはワイヤレス・アダプター148は、ネットワーク(例えば、インターネット、ホーム・ネットワーク等)へのアクセスを与え、イーサネット・カード、モデム、Bluetoothモジュール、ケーブル・モデム等を含む広範囲にわたる種々の有線またはワイヤレス・インターフェース・コンポーネントの内いずれでもよい。
[0052] システム・メモリー143は、ブート・プロセスの間にロードされるアプリケーション・データーを格納するために設けられている。メディア・ドライブ144が設けられており、DVD/CDドライブ、ハード・ドライブ、またはその他のリムーバブル・メディア・ドライブを備えることができる。メディア・ドライブ144は、マルチメディア・コンソール100の内部にあっても外部にあってもよい。アプリケーション・データーには、実行、再生等のために、マルチメディア・コンソール100がアクセスすることができる。メディア・ドライブ144は、シリアルATAバスまたはその他の高速接続(例えば、IEEE1394)のようなバスを介して、I/Oコントローラー120に接続されている。
[0053] システム管理コントローラー122は、メディア・コンソール100の利用可能を確保することに関する種々のサービス機能を提供する。オーディオ処理ユニット123およびオーディオ・コデック132は、高忠実度およびステレオ処理を行う、対応のオーディオ処理パイプラインを形成する。オーディオ・データーは、通信リンクを介して、オーディオ処理ユニット123とオーディオ・コデック132との間で搬送される。オーディオ処理パイプラインは、外部オーディオ・プレーヤまたはオーディオ処理能力を有するデバイスによる再生のために、データーをA/Vポート140に出力する。
[0054] フロント・パネルI/Oサブアセンブリ130は、電力ボタン150およびイジェクト・ボタン152の機能をサポートするだけでなく、あらゆるLED(発光ダイオード)またはマルチメディア・コンソール100の外面上に露出されるその他のインディケータもサポートする。システム電源モジュール136は、マルチメディア・コンソール100のコンポーネントに電力を供給する。ファン138は、マルチメディア・コンソール100内部にある回路を冷却する。
[0055] CPU101、GPU108、メモリー・コントローラー110、およびマルチメディア・コンソール100内部にある種々のその他のコンポーネントは、1系統以上のバスを介して相互接続されている。これらのバスには、シリアルおよびパラレル・バス、メモリー・バス、周辺バス、ならびに種々のバス・アーキテクチャの内いずれかを用いるプロセッサー・バスまたはローカル・バスが含まれる。一例として、このようなアーキテクチャは、ペリフェラル・コンポーネント相互接続(PCI)バス、PCI-Expressバス等を含むことができる。
[0056] マルチメディア・コンソール100の電源をオンにすると、システム・メモリー143からメモリー112および/またはキャッシュ102、104にアプリケーション・データーがロードされ、CPU101において実行することができる。アプリケーションは、グラフィカル・ユーザー・インターフェースを提示することができる。このグラフィカル・ユーザー・インターフェースは、マルチメディア・コンソール100において利用可能な異なるタイプのメディアにナビゲートするときに、一貫性のあるユーザー体験を提供する。動作において、アプリケーションおよび/またはメディア・ドライブ144内に収容されている他のメディアをメディア・ドライブ144から起動または再生して、マルチメディア・コンソール100に追加の機能を設けることもできる。
[0057] マルチメディア・コンソール100は、単にシステムをテレビジョンまたはその他のディスプレイに接続することによって、単体システムとして動作させることができる。この単体モードでは、マルチメディア・コンソール100は、1人以上のユーザーがシステムと対話処理を行い、ムービーを見ること、または音楽を聞くことを可能にする。しかしながら、ネットワーク・インターフェース124またはワイヤレス・アダプター148によって利用可能となるブロードバンド接続機能を統合することにより、マルチメディア・コンソール100を更に大きなネットワーク・コミュニティにおける関与個体(participant)として動作させることもできる。
[0058] マルチメディア・コンソール100の電源をオンにすると、マルチメディア・コンソールのオペレーティング・システムによって、設定されている量のハードウェア・リソースがシステムの使用のために確保される。これらのリソースは、メモリー(例えば、16MB)、CPUおよびGPUサイクル(例えば、5%)、ネットワーク接続帯域幅(例えば、8kbs)等の確保を含むことができる。これらのリソースは、システムのブート時に確保されるので、確保されたリソースは、アプリケーションの視点からは存在しない。
[0059] 特に、メモリーの確保は、起動カーネル、コンカレント・システム・アプリケーション、およびドライバーを収容できる程に十分大きいことが好ましい。確保されたCPU使用枠(usage)がシステム・アプリケーションによって用いられない場合、アイドルのスレッドがいずれかの未使用サイクルを消費するように、CPUの確保は一定であることが好ましい。
[0060] GPUの確保に関して、GPU割り込みを用いてポップアップをオーバーレイにレンダリングするコードをスケジューリングすることによって、システム・アプリケーション(例えば、ポップアップ)が生成する軽量メッセージ(lightweight message)を表示する。オーバーレイに用いられるメモリー量は、オーバーレイのエリア・サイズによって異なり、オーバーレイは画面の解像度に合わせて拡縮小する(scale)ことが好ましい。コンカレント・システム・アプリケーションによってフル・ユーザー・インターフェースが用いられる場合、アプリケーションの解像度とは独立した解像度を用いることが好ましい。周波数を変更しTVの同期を取り直す必要性をなくすように、この解像度を設定するためにスケーラー(scaler)を用いるとよい。
[0061] マルチメディア・コンソール100がブートして、システム・リソースが確保された後、コンカレント・システム・アプリケーションが実行してシステム機能を提供する。システム機能は、前述の確保したシステム・リソースの内部で実行する1組のシステム・アプリケーションの中にカプセル化されている。オペレーティング・システム・カーネルは、システム・アプリケーション・スレッドと、ゲーミング・アプリケーション・スレッドとの間でスレッドを識別する。一貫したシステム・リソース・ビューをアプリケーションに提供するために、システム・アプリケーションは、所定の時点および間隔でCPU101において実行するようにスケジューリングされていることが好ましい。このスケジューリングは、コンソール上で実行しているゲーミング・アプリケーションに対するキャッシュ破壊(disruption)を最少に抑えるためにある。
[0062] コンカレント・システム・アプリケーションがオーディオを必要とする場合、時間に敏感であるため、ゲーミング・アプリケーションには非同期にオーディオ処理をスケジューリングする。マルチメディア・コンソール・アプリケーション・マネージャー(以下で説明する)は、システム・アプリケーションがアクティブのとき、マルチメディア・アプリケーションのオーディオ・レベル(例えば、無音化、減衰)を制御する。
[0063] 入力デバイス(例えば、コントローラー142(1)および142(2))は、ゲーミング・アプリケーションおよびシステム・アプリケーションによって共有される。入力デバイスは、確保されるリソースではないが、各々がデバイスのフォーカス(focus)を有するように、システム・アプリケーションとゲーミング・アプリケーションとの間で切り換えられる。アプリケーション・マネージャーは、ゲーミング・アプリケーションの知識を用いずに入力ストリームの切換を制御し、ドライバーはフォーカス・スイッチ(focus switches)に関する状態情報を維持する。カメラ26、28およびキャプチャー・システム20は、コンソール100の追加の入力デバイスを定めることができる。
[0064] 図3Bは、ターゲット認識、分析、および追跡システムにおいて1つ以上の位置および動き(motion)を解釈するために用いられる、計算環境220の他の実施形態例を示す。計算環境220は、図1Aから図2に示した計算環境12であってもよい。計算システム環境220は、適した計算環境の一例に過ぎず、本明細書において開示される主題の使用範囲または機能に関して、いかなる限定を示唆する意図もない。また、計算環境220が、本明細書において例示されるいずれの1つのコンポーネントまたはコンポーネントの組み合わせに関して何らかの依存性または要件を有するように解釈してはならない。実施形態によっては、図示する種々の計算エレメントが、本開示の特定の態様をインスタンス化するように構成されている回路を含むこともあり得る。例えば、本開示において用いられる回路という用語は、ファームウェアまたはスイッチによって機能(1つまたは複数)を実行するように構成されている特殊ハードウェア・コンポーネントを含むことができる。別の実施形態例では、回路という用語は、機能(1つまたは複数)を実行するために動作可能なロジックを具体化するソフトウェア命令によって構成される汎用演算装置、メモリー等を含むことができる。回路がハードウェアおよびソフトウェアの組み合わせを含む実施形態例では、実装者(implementer)は、ロジックを具体化するソース・コードを書くことができ、ソース・コードを機械読み取り可能コードにコンパイルすることができ、この機械読み取り可能コードを汎用演算装置によって処理することができる。技術的現状では、ハードウェア、ソフトウェア、またはハードウェア/ソフトウェアの組み合わせの間には殆ど差がないというところまで発展していることを当業者は認めることができるので、特定の機能を実行するためにハードウェアまたはソフトウェアのどちらを選択するかということは、実装者に委ねられた設計選択事項である。更に具体的には、ソフトウェア・プロセスを等価のハードウェア構造に変換することができ、更にハードウェア構造自体を等価のソフトウェア・プロセスに変換することができることを、当業者は認めることができる。つまり、ハードウェアの実施態様およびソフトウェアの実施態様のどちらを選択するかということは、実装者に委ねられた設計選択事項の1つである。
[0065] 図3Bにおいて、計算環境220はコンピューター241を備えている。コンピューター241は、通例、種々のコンピューター読み取り可能媒体を含む。コンピューター読み取り可能媒体は、コンピューター241がアクセス可能な入手可能な媒体であればいずれでも可能であり、揮発性および不揮発性の双方、リムーバブル、および非リムーバブル媒体を含む。システム・メモリー222は、ROM223およびRAM260のような揮発性および/または不揮発性メモリーの形態となっている、コンピューター記憶媒体を含む。基本入出力システム224(BIOS)は、起動中のように、コンピューター241内のエレメント間におけるデーター転送を補助する基本的なルーチンを収容し、通例ROM223内に格納されている。RAM260は、通例、演算装置259が直ちにアクセス可能であるデーターおよび/またはプログラム・モジュール、あるいは現在これによって処理されているデーターおよび/またはプログラム・モジュールを収容する。一例として、そして限定ではなく、図3Bは、オペレーティング・システム225、アプリケーション・プログラム226、その他のプログラム・モジュール227、およびプログラム・データー228を示す。アプリケーション・プログラム226の一例に、本明細書において説明するような、インタラクティブ・ストーリー体験をユーザーに提示するために用いられるストーリー・アプリケーション226がある。更に、図3Bは、グラフィクス・プロセッサー・ユニット(GPU)229も含む。グラフィクス・プロセッサー・ユニット229は、高速および高解像度グラフィクス処理および格納のために、付随するビデオ・メモリー230を有する。GPU229は、グラフィクス・インターフェース231を介して、システム・バス221に接続することができる。
[0066] また、コンピューター241は、その他のリムーバブル/非リムーバブル揮発性/不揮発性コンピューター記憶媒体も含むことができる。一例にすぎないが、図3Bは、非リムーバブル不揮発性磁気媒体からの読み取りおよびこれへの書き込みを行なうハード・ディスク・ドライブ238、リムーバブル不揮発性磁気ディスク254からの読み取りおよびこれへの書き込みを行なう磁気ディスク・ドライブ239、ならびにCD ROMまたはその他の光媒体のようなリムーバブル不揮発性光ディスク253からの読み取りおよびこれへの書き込みを行なう光ディスク・ドライブ240を示す。動作環境の一例において使用可能なその他のリムーバブル/非リムーバブル、揮発性/不揮発性コンピューター記憶媒体には、磁気テープ・カセット、フラッシュ・メモリー・カード、ディジタル・バーサタイル・ディスク、ディジタル・ビデオ・テープ、ソリッド・ステートRAM、ソリッド・ステートROM等が含まれるが、これらに限定されるのではない。ハード・ディスク・ドライブ238は、通例、インターフェース234のような非リムーバブル・メモリー・インターフェースを介してシステム・バス221に接続されており、磁気ディスク・ドライブ239および光ディスク・ドライブ240は、通例、インターフェース235のようなリムーバブル・メモリー・インターフェースによって、システム・バス221に接続されている。
[0067] 先に論じ図3Bに示すドライブおよびそれらと関連のあるコンピューター記憶媒体は、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、およびコンピューター241のその他のデーターのストレージを提供する。図3Bでは、例えば、ハード・ディスク・ドライブ238は、オペレーティング・システム258、アプリケーション・プログラム257、他のプログラム・モジュール256、およびプログラム・データー255を格納するように示されている。尚、これらの構成要素は、オペレーティング・システム225、アプリケーション・プログラム226、他のプログラム・モジュール227、およびプログラム・データー228と同じでも異なっていても可能であることを注記しておく。オペレーティング・システム258、アプリケーション・プログラム257、他のプログラム・モジュール256、およびプログラム・データー255は、ここで、少なくともこれらが異なるコピーであることを示すために、異なる番号が与えられている。ユーザーは、キーボード251、および一般にマウス、トラックボールまたはタッチ・パッドと呼ばれているポインティング・デバイス252のような入力デバイスによって、コマンドおよび情報をコンピューター241に入力することができる。他の入力デバイス(図示せず)には、マイクロフォン、ジョイスティック、ゲーム・パッド、衛星ディッシュ、スキャナー等を含むことができる。これらおよびその他の入力デバイスは、多くの場合、ユーザー入力インターフェース236を介して、演算装置259に接続されている。ユーザー入力インターフェース236は、システム・バスに結合されているが、パラレル・ポート、ゲーム・ポート、またはユニバーサル・シリアル・バス(USB)によって接続されるのでもよい。カメラ26、28およびキャプチャー・デバイス20は、コンソール100の追加入力デバイスを定めることができる。モニター242またはその他のタイプの表示装置も、ビデオ・インターフェース232のようなインターフェースを介して、システム・バス221に接続されている。モニターに加えて、コンピューターは、スピーカー244およびプリンター243のような、その他の周辺出力装置も含むことができ、これらは出力周辺インターフェース233を通じて接続することができる。
[0068] コンピューター241は、リモート・コンピューター246のような1つ以上のリモート・コンピューターへの論理接続を用いて、ネットワーク接続環境において動作することも可能である。リモート・コンピューター246は、パーソナル・コンピューター、サーバー、ルータ、ネットワークPC、ピア・デバイス、またはその他の共通ネットワーク・ノードとすることができ、通例、コンピューター241に関して先に説明したエレメントの多くまたは全てを含むが、図3Bにはメモリー記憶装置247のみを示す。図3Bに示す論理接続は、ローカル・エリア・ネットワーク(LAN)245およびワイド・エリア・ネットワーク(WAN)249を含むが、他のネットワークも含むことができる。このようなネットワーク環境は、事務所、企業規模のコンピューター・ネットワーク、イントラネットおよびインターネットにおいては極一般的である。
[0069] LANネットワーク環境で用いる場合、コンピューター241は、ネットワーク・インターフェースまたはアダプター237を介してLAN245に接続する。WANネットワーク環境で用いる場合、コンピューター241は、通例、モデム250、またはインターネットのようなWAN249を通じて通信を設定するその他の手段を含む。モデム250は、内蔵でも外付けでもよく、ユーザー入力インターフェース236またはその他の適切なメカニズムを介してシステム・バス221に接続することができる。ネットワーク環境では、コンピューター241に関係付けて図示したプログラム・モジュール、またはその一部は、離れたメモリー記憶装置に格納することもできる。一例として、そして限定ではなく、図3Bは、リモート・アプリケーション・プログラム248がメモリー・デバイス247に存在するものとして示している。尚、図示のネットワーク接続は一例であり、コンピューター間で通信リンクを確立する他の手段も使用可能であることは認められよう。
[0070] 図4は、キャプチャー・システム20から生成することができる、ユーザーのスケルトン・マッピングの一例を示す。この実施形態では、種々の関節および骨が識別されている。各手302、各前腕304、各肘306、各二頭筋308、各肩310、各臀部312、各腿314、各膝316、各前肢318、各足320、頭部322、胴体324、脊椎の上端326および下端328、およびウェスト330である。追跡するポイントが多くなるに連れて、指またはつま先の骨および関節というような追加の構造、あるいは鼻および目というような、顔の個々の表情(feature)も識別するとよい。
[0071] 図5は、ユーザー・インターフェースを通じてインタラクティブ・ストーリー体験を提示するための本技術の一実施形態の動作の上位フローチャートである。ステップ400において、ユーザーはシステム10を起動し、計算環境12およびキャプチャー・デバイス20を始動させる(activate)ことができる。ステップ404において、システム10はストーリー・アプリケーション226を実行する。ステップ406において、ストーリー・アプリケーションは、ディスプレイ14上において、ストーリーの次のフレームをユーザーに提示する。
[0072] このストーリーは、ディスプレイ14上において図式的に提示することができ、音声による挿話が伴うこともできる。ストーリーは、離散的な静止画像パネル、即ち、ディスプレイ14上に静止フレームとして連続的に提示される一連の静止画像で表示することもできる。あるいは、ストーリーは、動的なコンピューター・グラフィクス(CG)アニメーションにして提示することや、またはビデオ・カメラを用いて撮影した生の俳優との場面として提示することもできる。以下で説明するように、音声による挿話は、ストーリー・アプリケーション、ユーザー、および/またはストーリーが提示されている間には立ち会わない第三者によって提示される音声とすることができる。また、音声による挿話は、提示されるストーリーのキャラクター間における対話を含むこともできる。このキャラクター間における対話は、この場合も、ストーリー・アプリケーション、1人以上のユーザー、および/またはストーリーが提示されている間は立ち会わない1人以上の第三者によって提示することができる。
[0073] CGアニメーションを用いる実施形態では、ストーリー・アプリケーション226は、計算環境12のGPUによって生成されるアニメーションの第1フレームを提示することができる。このフレームは、キャプチャー・デバイスのリフレッシュ・レート(例えば、30Hz)でリフレッシュすればよい。リフレッシュ・レートは、他の実施形態では、これよりも高くてもまたは低くてもよい。静止画像パネルを用いる実施形態では、静止画像は、書籍または漫画のページに類似する。静止画像は、例えば、数秒間ディスプレイ上に提示することができる。ビデオを用いる実施形態では、フレームは、ビデオのフレーム・レートでリフレッシュすることができ、この場合も、例えば、30Hzとすればよい。
[0074] 実施形態では、ストーリー・アプリケーションを実行するときに、ユーザー18は提示されたストーリーと対話処理する必要はない。即ち、ユーザーは、ストーリーが開始から終了まで再生されるのを、単に見ていれば、および/または聴いていればよい。あるいは、以下で説明する更に他の実施形態では、ユーザーはストーリー・アプリケーション226によって提示されたストーリーと対話処理することもできる。
[0075] キャプチャー・デバイス20は、ユーザーがストーリー・アプリケーションを見ているときおよび/またはこれと対話処理しているときに、ユーザーを監視している。ステップ408において、キャプチャー・デバイス20が、ユーザーが視野から離れるのを検知した場合、ストーリー・アプリケーションは、ユーザーが視野に再び入るまで、ステップ412において一時停止することができる。ステップ408および412は、他の実施形態では、省略してもよい。先に示したように、ユーザーは単に座って、ストーリー・アプリケーションによって提示されるストーリーを見ていれば、および/または聴いていればよい。ステップ416において、ユーザーの対話処理が検知されない場合、ストーリーは、その終了まで、単に継続する。しかしながら、ステップ416においてユーザーの対話処理が検知された場合、本システムは、通常その対話処理を判定し、以下で説明するように、その対話処理に応じて異なる動作を実行する。
[0076] ステップ418において、ストーリー・アプリケーションは、キャプチャー・デバイス20のマイクロフォン・アレイ30が音声を検出したか否かチェックすることができる。マイクロフォン・アレイ30によって拾い上げた音響を識別して、その音響の内1つ以上が人間の音声であるか否か判断するための技法は、周知である。マイクロフォン・アレイ30は、マイクロフォン・アレイ30によって検出することができる低周波ノイズを減衰するための、例えば、ハイ・パス・フィルターのような種々の既知のフィルターを含んでもよい。
[0077] ステップ418において音声が検出された場合、本システムは、これから説明するように、図6に明示したステップを実行する。実施形態では、特定のユーザーが話者であるか否か、または音声が他の何らかの発生源から来ているのか否か識別することが望ましい場合がある。例えば、前述の音声特性の特定のユーザーへの相関付け、および音源位置検出(acoustic source localization)技法というような、視野内にいるユーザーと音声を関連付ける種々の技術が存在する。これらおよびその他の技法は、ステップ450において話者を特定するために用いることができる。他の実施形態では、ステップ450を省略することもできる。
[0078] ストーリー・アプリケーションは、ストーリーを解説するために、挿話を伴うこともでき、オーディオ/ビジュアル・デバイス16に付随するスピーカーを通じてブロードキャストすることができる。しかしながら、挿話は、代わりに、ストーリーを聴いているユーザーがその文字を読むことができるように、画面上に文字で表示することもできる。一例では、子供が読み方を学習しているのであってもよく、または子供がディスプレイ14上に広がるストーリーを見ている間、親が子供にストーリーを読み聞かせているのでもよい。画面上に現れる文字の代わりとして、ユーザーが、計算環境12と対をなす計算機を有し、ストーリー・アプリケーション226の同じインスタンス(instance)に参加することもできる。このような実施形態では、挿話の文字は、ディスプレイ14の代わりに、ユーザーの対をなす計算機上に表示することができる。
[0079] 更に他の実施形態では、ストーリー・アプリケーション226がシステム10上においてストーリーを示しているときには立ち会わない第三者が挿話を読むことも考えられる。第三者は誰でも可能であるが、実施形態では、第三者は、例えば、ストーリー・アプリケーションを実行しているときにはその場にいない親または祖父母であってもよいが、システム10上においてストーリーを視聴している子供に、挿話の音声を提示することが望ましい。
[0080] このような実施形態では、第三者は、ストーリー・アプリケーションのための挿話を予め記録しておくことができ、ストーリー・アプリケーションを実行してストーリーに対する挿話を流すときに、この記録を再生すればよい。この実施形態では、記録は、システム10に付属するまたは付属しないオーディオ再生デバイスにおいて再生すればよい。更に他の実施形態では、ストーリー・アプリケーションをシステム10上で実行しながら、第三者がストーリー・アプリケーション226に対する挿話をリアル・タイムで読んでいくのであってもよいが、第三者は、計算環境12に、電話またはVOIP接続によって接続されることになる。
[0081] ステップ454において、ストーリー・アプリケーションは、ステップ418において認知された音声が、ストーリーの挿話と相関があるか否か判断する。この目的のために、既知の音声分析技法を用いることができ、挿話から分かった単語を解析して音素に分け、マイクロフォン・アレイ30によって認知された音声に対しても同じことを行い、これら2つの音素ストリームを比較して一致を見いだすことが含まれる。
[0082] ステップ454において、発声された音声が、ストーリー・アプリケーションの挿話と相関付けられた場合、この発声された音声は、ストーリー・アプリケーションがストーリーを進めるペースを設定することができる。例えば、ストーリーが静止画像パネルで提示される場合、ストーリー・アプリケーションは、ステップ464において、特定のパネルに伴う挿話の最後の単語が発声されたか否か判断することができる。発声されていない場合、未だ次のパネルに進む時刻になっておらず、フローは元に戻って、図5に関して以下で説明するように、次の対話処理を探すことができる。一方、ストーリー・アプリケーションが、特定のパネルに伴う挿話の最後の単語が発声されたと判断した場合、ストーリー・アプリケーションはステップ466において次のパネルに進むことができる。フローは、図5に関して以下で説明するように、元に戻って次の対話処理を探すことができる。
[0083] 画像がビデオまたは動的なアニメーションである場合、ストーリー・アプリケーションは挿話を、発声された音声と相関付けて、表示されている画像の速度を上げるまたは下げることにより、ユーザーまたは第三者によって発声される挿話のペースと同期させる。ストーリー・アプリケーションは、図5のフローチャート全体を繰り返し実行して、周期的に音声の有無をチェックし、その音声が、提示されているストーリーの挿話と相関があるか否かチェックし、提示されている画像を、発声されている挿話のページと同期させることができる。
[0084] ステップ454において、ストーリー・アプリケーションが音声を挿話と相関付けることができない場合、アプリケーションは、次にステップ456において、その音響が、ストーリー・アプリケーションまたはシステム10の動作に対する可聴命令(audible instruction)として認識されたか否かチェックすることができる。認識されない場合、計算環境12は図5に戻って、以下で説明するように、ステップ422においてユーザーのストーリー・アプリケーションとの他の可能な対話処理を探すことができる。一方、ステップ456において音声が命令として認識された場合、ステップ460においてこの命令と関連のある動作(act)を実行することができ、本システムは図5のフローチャートに戻って、次の対話処理の有無をチェックすることができる。
[0085] ここで図5に戻って、ステップ422において、本システムは特定のタイプのジェスチャーを探すことができる。このジェスチャーを本明細書では「診査ジェスチャー」(exploration gesture)と呼ぶ。具体的には、1つのタイプの対話処理を許可し、ユーザーが実際にディスプレイ14上に表示されている仮想世界に足を踏み入れて、ディスプレイ上における仮想物体を診査(explore)および/または調査(investigate)することが、本技術の特徴である。多種多様な例の1つとして、ストーリーは部屋をユーザーに表示することができる。ユーザーによる対話処理がない場合、ある時間期間ユーザーにはその部屋を示すことができ、次いでストーリーは先に進んで他の場所を示すことができる。しかしながら、単に始まることの代わりに、ユーザーが診査ジェスチャーを行って、部屋の中にある仮想物体を診査および調査して、もっと接近した光景を得ることおよび/または異なる視点から物体を見ることをユーザーが望んでいることを示す実施形態では、ユーザーがジェスチャーまたは運動(motion)を行い、計算環境12がこれを解釈して、ユーザーが場面の中にある仮想物体を拾い上げて操作することを可能にすることも考えられる。
[0086] 図5のステップ422において、計算環境12は、既定の診査ジェスチャーを探す。本技術の実施形態では、ユーザーによる多種多様の動きおよびジェスチャーを、既定の診査ジェスチャーとして設定することができる。図10に関してこれより説明するこのような実施形態の1つでは、キャプチャー・デバイス20がユーザーの頭部および/または身体の動きを取り込む。例えば、図10では、実世界においてある物体の回りまたは背後を覗おうとするときに行うように、ユーザーは屈んで首を伸ばしている。ジェスチャー認識エンジン190の動作については以下で説明するが、認識エンジン190は、このような身体の動きを探すために既定の規則を有することができ、その動きを見つけたときに、これらを診査ジェスチャーとして解釈する。首を伸ばすこと、および/または腰を屈めることに加えて、診査ジェスチャーは、加えてまたは代わりに、例えば、図10に示すような指し示すジェスチャーというような、他のジェスチャーを含むこともできる。
[0087] 尚、更に他の実施形態では、多種多様の他の身体の動きを診査ジェスチャーとして定義してもよいことは認められよう。このような実施形態の中には、ユーザーの動きが、仮想世界においてユーザーが行うことを望む行為に対する、実世界における相関を有することができる。先に明示した一例では、ユーザーは、ある物体の回りまたは背後を覗いたいことを知らせるために、前に屈んで首を伸ばしている。他の実施形態では、ユーザーは、加えてまたは代わりに、ディスプレイの方向に歩行して、仮想場面に足を踏み入れたいことを示すことができる。更に他の実施形態では、実世界では意味のない、任意の1組のジェスチャーを定義することができる。あるいは、任意の身体および/または音声のジェスチャーを考え出して、ジェスチャー認識エンジン190によって記録してもよく、このジェスチャーが行われたときに、ジェスチャー認識エンジンがこれらを認識し、ある物体の背後を見るために仮想場面に足を踏み入れるというような、関連付けられている行為を実行する。
[0088] ステップ422において一旦診査ジェスチャーを認識すると、計算環境12は、ステップ490から538までを実行する。これらについて、図7のフローチャートに関してこれより説明する。ステップ490において、計算環境12は、他の位置から表示された場面を見るための表示を示す三次元仮想世界に、ユーザーが足を踏み入れたいか否か判断する。この場合も、この要望およびユーザーが仮想場面に入ろうとする方向は、ユーザーによって、既定の頭部、手、または他のジェスチャーを通じて制御される。この実施形態は、場面がCGアニメーションで提示されるときに動作することができる。場面が静止パネルまたは記録ビデオのいずれかで提示される場合、以下で説明するように、CGアニメーションをこれらの表示モデルに切断して、仮想場面の診査を行うことができる。更に他の実施形態では、ビデオを360°で撮影することもでき、ユーザーのビデオ場面への進入およびこのビデオ場面の診査があるレベルまで可能になる。
[0089] 一例として、一旦診査ジェスチャーが行われると、キャプチャー・デバイス20および計算機12は、例えば、図10における点610のような、ユーザーが注目しているディスプレイ上の点を判定することができる。この点は、ユーザーが目を向けている方向を取り込むことによって判定することができ、および/またはこの点は、ユーザーが手を向けている方向を取り込むことによって判定することができる。更に他の実施形態では、ユーザーは、加えてまたは代わりに、その方向に歩行することができる。ステップ490において、ユーザーが異なる位置からその場面を見ることを望むと判断した場合、コンピューター環境は、ステップ494において、ユーザーが仮想世界において沿って動くことを望むベクトルを定義することができる。
[0090] ステップ494におけるベクトルは、ユーザー上の基準点から、ディスプレイ上における関心点610までの1つ以上の実世界の三次元ベクトル612に基づいて、決定することができる。図10において、ベクトル612は、ユーザーの目から関心点610まで、そしてユーザーが指し示す手から関心点610まで達している。基準点(目、手等)は、既知のx、y、およびz座標位置を有する。
[0091] ディスプレイ14上に示される仮想場面は、3−Dデーターで表される。即ち、仮想場面における点、および場面内にある仮想物体上の点には、x、y、およびz値が指定され、3−D仮想空間を形成する。本明細書では、これを3−Dマシン空間と呼ぶ。キャプチャー・デバイス20の既知の位置からユーザーが動いている実世界までを考えると、3−D実世界空間と3−Dマシン空間との間に既知の関係が得られる。したがって、既知の変換マトリクスを用いて、ベクトル612を3−D実世界空間から3−Dマシン空間に変換する(translate)ことができる。実世界ベクトル612の3−Dマシン空間への変換によって、ステップ494において、ベクトルが得られ、このベクトルに沿って、ユーザーが3−D仮想場面に入って行くことになる。以下で説明するが、ユーザーが仮想場面に入って行き仮想物体を調べる効果を作成するために、ディスプレイの視点は、1つの場面の異なるエリアおよび物体の映像(view)を、異なる拡大(zoom in)または縮小(zoom out)位置から得られるように変化する。この場合も、これが可能なのは、仮想物体が、ディスプレイ上の二次元の点として定義されるだけでなく、マシン空間における3−D定義も有するからである。
[0092] ステップ498において、ユーザーを直ちに所望の場所に位置付け直すのではなく、仮想マシンに向かうときにユーザーが見る光景(view)を徐々に変化させることもできる。ユーザーが見る光景が変化する刻み幅は、任意に設定することができるが、実施形態では、ユーザーが通常の歩行ペースで場面に歩いて入っていくという印象を醸し出すように、光景が変化する。ステップ502において、ディスプレイ14上に表示されている場面の光景(view)が更新されて、ステップ498の光景を徐々に変化させることができる。この場合も、表示されている場面の光景を3−Dのいずれかの眺望(perspective)に変換するための変換マトリクスが知られている。ステップ506において、ステップ502において決定された新たな位置の視点から、場面をレンダリングすることができる。
[0093] 次いで、本ルーチンはステップ490に戻り、ユーザーが物体を検査したい仮想場面内における位置に達したか、またはユーザーが仮想場面内を移動し続けたいのか判断することができる。これは、ユーザーの身体の位置、およびディスプレイ上でユーザーに焦点が合っていることによって示すことができ、あるいは他の何らかの任意の身体の動きまたは音声のジェスチャーによって示すことができる。ユーザーが仮想場面内で移動し続けたい場合、ユーザーが仮想場面内における彼らの所望の位置に達するまで、ステップ490から506までを繰り返す。
[0094] ステップ490において、ユーザーが仮想場面における所望の位置にいると判断した場合(即ち、所望の視点からの場面がディスプレイ上に提示されている)、フローはステップ510に分岐して、ユーザーが場面内におけるその位置において更に厳密に物体に注目することを望むか否か判断する。この場合も、この望みは、ユーザーが実世界において物体を移動させるおよび/または物体に注目するときに行う実世界の動きを真似た1つ以上の既定のジェスチャー、あるいは仮想世界において自由に移動して物体に注目する目的で定義された任意のジェスチャーのいずれかによって示すことができる。
[0095] ステップ510において、ユーザーが場面において物体に更に厳密に注目することを望んでいると判断した場合、計算環境12はステップ514において現在の位置(即ち、場面の現在の光景)を基準点として格納する。以下で説明するが、この基準位置は、ユーザーが特定の仮想物体に注目し終えたときに本システムが戻ってくる光景として用いられる。ステップ518において、計算環境12は基準位置から仮想物体までのベクトル方向を判定する。これは、先に説明したように、実世界においてユーザーの頭部の位置をx、y、z空間において検出し、ユーザーがディスプレイを見ている位置を検出することによって行うことができ、その後、このベクトルを仮想マシン空間におけるベクトルに変換する。
[0096] ステップ522において、前述のようにして、このベクトルに沿った中間漸進位置(intermediate incremental position)を決定することができる。ステップ524において、この場面の視点を、ステップ524において決定した位置に平行移動することができ、ステップ528において、ステップ524において決定した視野(view)から、場面をレンダリングすることができる。ステップ532において、本システムは、ユーザーが仮想場面内にある特定の物体を注目し終えたか否か判断することができる。これは、種々の既定のジェスチャーの内いずれによってでも示すことができる。本システムが、ユーザーが注目観察(focus view)を終えたと判断しない場合、フローはステップ510に戻り、ステップ510から528を繰り返して、場面内にある他の仮想物体に注目することができる。一方、ユーザーが彼らの注目した観察(focused view)を完了したことを示す既定のジェスチャーをステップ532において行った場合、ステップ536において、この光景を平行移動して、基準点(ステップ514において格納した)からの光景に戻すことができる。
[0097] 計算環境12がステップ490および510において追加の診査ジェスチャーを判別できない場合、フローはステップ538に分岐して、ユーザーが、場面を診査し終えたことを示す既定のジェスチャーを行ったか否か確かめることができる。行っていない場合、フローはステップ490に戻って、ユーザーが異なる位置から場面を見ることを望んでいるか否か確かめることができ、望んでいない場合、フローはステップ510に進んで、ユーザーが場面の中におけるその現在の位置にある物体に注目することを望んでいるか否か判断する。一方、ステップ538において、ユーザーが3−D場面における診査を終了したことを示す何らかの既定のジェスチャーを行った場合、フローは図5に戻り、次のタイプのユーザー対話処理の有無を調べることができる。
[0098] 尚、ステップ490から538の間では、ストーリー・アプリケーションによってディスプレイ14上に提供される三次元仮想世界に、ユーザーがどのように入っていきその中で動き回ることができるかということの一例に過ぎないことは認められよう。
[0099] 本システムの実施形態では、ストーリーを見て3−D仮想世界内において診査することに加えて、ユーザーはストーリー内部における1つ以上のキャラクターを制御する選択肢も有することができる。この実施形態は、場面がCGグラフィクスで提示されるときに動作することができる。場面が静止パネルまたは記録ビデオのいずれかで提示される場合、CGアニメーションを切り離してこれらの表示モデルを得て、以下で説明するように、キャラクターの制御に備えることが考えられる。
[00100] 実施形態では、ユーザー18は、画面上のキャラクター23の動きおよび/または行為をユーザーが制御したいことを示す何らかの既定のジェスチャーを行うことができる。この既定のジェスチャーは、例えば、画面上の所与のキャラクターを指し示すユーザーの動き(motion)と合体させた、例えば、任意のジェスチャーとすることができる。このようなキャラクター制御がストーリー・アプリケーション226によって許可される場合、ユーザーをそのキャラクターとしてステップ426において登録することができ、その後、ユーザーは、そのキャラクターを制御することができる。これについては、図8のステップ540から558に関して以下で説明する。
[00101] ユーザーがキャラクターを制御することを登録した後、ユーザーは、制御される画面上のキャラクターの行動を動画化しこれに作用するために用いられるある種の動き(motion)およびジェスチャーを行うことができる。ステップ540において、計算環境は、ユーザーが、既定され、認識されているジェスチャーを行ったか否か判断する。行った場合、計算環境はステップ544において、認識されたジェスチャーに対応する行為を行うことが、画面上のキャラクターに許されているか否かチェックする。具体的には、実施形態では、ユーザーは、画面上のキャラクターの行為または行動に対して完全に制御することはできず、代わりに画面上のキャラクターの制御をストーリー・アプリケーション226と共有する。実施形態では、ユーザーはキャラクターの動きをある程度制御することができるが、アプリケーションはこのような動きに境界を定義することができ、例えば、キャラクターの行動および性格に関する様相というような、画面上のキャラクターの他の様相の制御を制限することができる。ユーザーが画面上のキャラクターを自由奔放に(unfetter)制御すると、例えば、ユーザーが画面上のキャラクターに行わせたある種の行為が、あり得るストーリーの展開(branch)として予想されていなかった場合、ストーリー・アプリケーションが前に進むのを妨げることもあり得る(以下で説明する)。しかしながら、他の実施形態では、ユーザーには、画面上のキャラクターの自由奔放な制御を与えてもよいことは言うまでもない。
[00102] ステップ542において、キャラクター23がジェスチャーの行為を行うことがストーリー・アプリケーションによって許された場合、このキャラクターは、ステップ544において、そのジェスチャーと関連付けられた行為を実行する。図1Bは、画面上のキャラクター23の上半身を制御する能力がユーザーに与えられた例を示す。この特定的なストーリー・アプリケーションは、ユーザーが彼らの腕を上げるジェスチャーを認識することができ、これを、例えば、脅すように腕を上げる怪物のような、画面上のキャラクターに対応させる。図8のステップ540においてこのようなユーザーのジェスチャーを認識すると、このキャラクターは、ステップ544において、対応する行為を行う。
[00103] ステップ540において、認識されていないジェスチャが行われた場合、次に、計算環境はステップ546において、キャプチャー・デバイス20によってユーザーの動きが検出されたか否かチェックする。検出された場合、システムは550において、先に明示したように、画面上のキャラクターが、ユーザーが行ったように動くことを許可されているか否かチェックする。許可されている場合、ステップ552において、ユーザーの動きに合わせて、その通りに画面上のキャラクターを動画化する。計算環境がステップ540において既定のジェスチャーを検出しない場合、またはステップ546においてユーザーの動きを検出しない場合、計算環境は図5のステップ428に戻り、以下で説明するようにユーザーの画面との他の対話処理を検出することができる。
[00104] ステップ554において、本システムは、次に、ユーザーがキャラクターの制御を終了したいことを示す何らかの種類の既定ジェスチャーを、ユーザーが与えたか否かチェックする。ステップ554においてこのようなジェスチャーが検出された場合、ユーザーのキャラクター制御は終了し、ステップ556において、このキャラクターはストーリー・アプリケーション226によって完全に制御される。ステップ546において本システムがユーザーの動きを検出したが、ステップ550においてキャラクターがそのように動くことが許されていない場合、またはユーザーがステップ554においてキャラクター制御を終了する場合、本システムは図5のステップ428に戻り、表示されている場面とユーザーとの他の対話処理を探すことができる。
[00105] これより図5に戻ると、ステップ428において、計算環境12は、表示されている場面とユーザーとの何らかの対話処理を探す。具体的には、ストーリーのサブプロットの成果に作用するユーザーの対話処理、またはストーリーの全体的な成果に作用するユーザーの対話処理を探す。このような対話処理が検出された場合、本システムは図9のステップ560から588までを実行する。これは、418に関して先に説明した音声コマンド、ステップ422に関して先に説明した診査ジェスチャー、ステップ426に関して先に説明した画面上のキャラクターを制御するユーザー、またはストーリーとの他の何らかの対話処理の結果として、行われる可能性がある。
[00106] ストーリーの中に表示される画像のタイプによって、対話処理性(interacativity)の度合いを部分的に判定することができる。CGアニメーションは、高度な対話処理性を提供することができるが、一方静止パネルおよび記録ビデオは提供できる対話処理性の度合いがそれよりも低いと考えられる。尚、CGアニメーションを切り離して静止パネルおよび/または記録ビデオにして、より高度な対話処理性を提供できることは言うまでもない。実施形態では、ユーザーには、ストーリーにおける別個の時点において画面上のストーリーと対話処理する機会を与えることができる。これらの時点は、ストーリーにおけるポーズまたは何らかのプロンプトによって、ユーザーに示すことができる。他の実施形態では、ユーザーは、アプリケーション226がストーリーを提示している間であれば、いずれの時点においてもストーリーと対話処理する選択肢を有することもできる。
[00107] ステップ428において表示されている場面と対話処理が行われると、本システムは最初にステップ560を実行して、ユーザーが動き(motion)または認識されたジェスチャーを行ったか否か判断する。行った場合、計算環境12は次にステップ564において、その動き(motion)またはジェスチャーと関連付けられている行為が、異なるストーリー・ラインへの分岐を必要とするか否かチェックする。ユーザーの行為が異なるストーリー分岐への分岐を必要とするか否か判断し、次いでそのストーリー分岐からどのように処理を進めるか判断する種々の方法が知られている。一例では、ストーリー・アプリケーションがストーリー内にある全ての物体およびキャラクターについて状態データー値を維持することができる。場面またはキャラクターに関する何かが変化したとき、その場面またはキャラクターについての状態データーもそれに応じて変化する可能性がある。これらの状態データー値は、ストーリーの対象物(object)またはキャラクターをレンダリングするとき、そしてこれらの物体またはキャラクターに起こることを制御するときに用いることができる。
[00108] 実施形態では、ストーリー・アプリケーションは、物体およびキャラクターについての状態データー値に応じて、種々の異なるストーリー・ラインに分岐することができるとよく、これらの物体および/またはキャラクターとのユーザー対話処理の結果、この状態データーを変化させることができる。更に他の実施形態では、ユーザーが、画面上の物体やキャラクターと対話処理せずこれらに作用もしないある種のジェスチャーを行う場合もあるが、そうであってもストーリー・ラインに変化が生ずることもある。一例として、ユーザーが、画面上に表示されている部屋に関して示されるまたは説明されるストーリーの重要な様相が明らかになる前に、ユーザーがその部屋から離れることを選択することがあり得る。
[00109] ステップ564において、計算環境12は、ユーザーが行ったジェスチャーと関連付けられた行為が、異なるストーリー・ラインに分岐することを必要とするか否か判断する。注記したように、これは、ストーリーの物体またはキャラクターについての状態データー値をユーザーが変更したことによって生じる可能性がある。具体的には、状態値が変化したので、ステップ560におけるユーザーのジェスチャー以前に存在していたのと同様にストーリーが継続すると、物体、キャラクター、またはストーリー全体と関連のある現在の状態データー値と矛盾することになる。ユーザーのジェスチャーが異なるストーリー・ラインに分岐することを必要とする場合、計算環境12はステップ568において、ユーザーの対話処理と結び付くストーリーの既知の分岐があるか否かチェックする。
[00110] ステップ560において、ユーザーが動き(motion)も認識されたジェスチャーも行わない場合、またはユーザーの動き(motion)/認識されたジェスチャーがステップ564において異なるストーリー・ラインへの分岐を必要としない場合、本システムは図5に戻って、以下で説明するように、ステップ432において他のいずれかのタイプの動きまたはジェスチャーを探すことができる。更に、ユーザーが、異なるストーリー・ラインへの分岐を必要とする行為を実行したが、ストーリー・アプリケーション226が、ユーザーの対話処理と結び付く分岐を知らないまたは識別できない場合、ステップ568において、ユーザーのジェスチャーのストーリー・ラインに対する効果を無視することができ、フローは、以下に説明するような、図5のステップ432に戻ることができる。
[00111] ユーザーのジェスチャーが新たな分岐ストーリー・ラインに分岐することを必要とし、このストーリー・ラインをストーリー・アプリケーションによって実行することができると仮定すると、ストーリー・アプリケーションは、ユーザーがどの動き(motion)またはジェスチャーを行ったかに応じて、物体、キャラクター、およびアプリケーション全体と関連のある状態データーを変更することができる。図11および図12を参照すると、一部のユーザー対話処理はストーリー分岐に作用するが、ストーリーのサブプロットを変化させるだけで、全体的な成果には作用しない。図11において見られるように、ユーザーは何らかの対話処理620を実行して、ストーリー・アプリケーションを分岐1、分岐2、...、分岐Nに分岐させることができ、その後全ての分岐は再度収束して、元のストーリー・ラインを継続する。多種多様なこのようなサブプロット・ストーリー分岐が考えられる。例えば、図1Aでは、ユーザーはジェスチャーを行って、家21に雨が降っている地点まで、雲25全体を動かすことができる。雨は、全体的なプロットには影響を及ぼさなくてもよい。短い間だけ雨が降ってもよく、雨が止んでもよく、ストーリー・ラインは、雨が降らなかった場合と同じように継続するのでもよい。更に他の実施形態では、アプリケーション・ストーリーがユーザーに質問に答えるようにまたはパズルを解くように促し、ストーリー・ラインが、催促に対するユーザーの回答に応じて、異なるサブプロットに分岐することもできる。一旦ユーザーが首尾良く質問に答えるかパズルを解いたなら、ストーリーは再度収束し、元のストーリー・ラインを継続することができる。
[00112] 一方、他のタイプのユーザー対話処理では、ストーリー分岐に作用して、ストーリーの全体的成果を変化させることもある。言い換えると、ストーリーは、ユーザーのストーリーとの対話処理に応じて、異なる終わり方をする。例えば、図11では、ユーザーは対話処理624を実行し、これが、再度収束しないN通りの分岐の内1つへのストーリー分岐を生じさせる。更に、これらの分岐はいずれもが、次のユーザー対話処理のときに、それ自体分岐することができる。例えば、ユーザーの対話処理624がストーリーを分岐番号1に分岐させた場合、ユーザーは他の対話処理628を実行して、ストーリーを更に可能な成果に分岐させることができる。ストーリーは、ストーリー・アプリケーションが多くのサブプロットおよび全体的なプロット分岐を扱うように書かれているか否かに応じて、いずれの数のサブプロット分岐でも、または全体的なプロット分岐でも有することができる。
[00113] 実施形態では、1人のユーザーが対話処理を行って、ストーリー・アプリケーションにサブプロット分岐または全体的プロット分岐を実行させるのでもよい。更に他の実施形態では、多数のユーザーが1つのストーリーを見ている場合もある。これら多数のユーザーは、同じ場所にいることも、異なるシステム10を用いて、異なる場所にいることもあり得る。システム10は、種々のユーザーがアプリケーション226の同じインスタンスおよび同じストーリー体験を共有できるように、互いにネットワークで接続されている。このような実施形態では、ストーリー・アプリケーション226は、ストーリー・ラインが新たなサブプロットまたは新たな全体的なプロットに分岐する前に、数人のユーザーが協調して行動する行為を必要とするのであってもよい。
[00114] これより図9に戻ると、計算環境12は、ステップ564において、ストーリー・ラインの分岐を必要とするユーザーの動きまたはジェスチャーを特定し、ストーリー・アプリケーションがその新たなストーリー・ラインを扱うように装備されている場合、ストーリー・アプリケーション226は、ステップ570において、新たなストーリー・ラインに分岐する。ステップ572において、ストーリー・アプリケーションは、いずれかの物体、キャラクター、またはアプリケーション全体に対して状態データーを修正する。ストーリー・アプリケーション226は、ステップ574において、新たなストーリー・ラインおよび状態データーにしたがって、場面のグラフィクスをレンダリングすることができ、このストーリー・アプリケーションは、ステップ578において、この特定された分岐に進むことができる。
[00115] 本システムの一態様は、ゲームの仕組み(mechanics)を、ユーザーに示すストーリーに追加することである。したがって、ストーリーを示すことに加えて、ストーリー・アプリケーション226は、更に、ユーザーのスコアを記録することができ、ユーザーがどのようにストーリーと対話処理するかに応じて、スコアを加点または減点することができる。具体的には、ユーザーによるある種のジェスチャーまたは行為は、所定のストーリー値および関連するポイント数を有することができ、関連付けられたジェスチャーが行われたときに、ユーザーの総合スコアに加算されるか、またはユーザーの総合スコアから減算される。したがって、ステップ582において、ストーリー・アプリケーションは、ステップ560において実行されたユーザーの対話処理に伴うスコアがあったか否かチェックする。ない場合、フローは図5のステップ432に戻る。ユーザーの対話処理にスコアが伴う場合、ステップ588において、それに応じてユーザーのスコアを調節し、次いでフローは、以下で説明するように、図5のステップ432に戻ることができる。
[00116] 図9の実施形態は、静止画像パネルまたは動的なCG画像アニメーションを用いるストーリーにおいて用いることができる。図9Aは、記録ビデオと共に用いるための別の実施形態を示す。ステップ560から572までは、図9について先に説明した通りであればよい。実施形態では、記録ビデオとの対話処理が、ビデオとの対話処理の既定の時点において行われる。記録ビデオ・ストーリーでは、ストーリー・アプリケーションはストーリーの可能な分岐毎に、異なるビデオ・クリップを有することができる。ステップ590において、ストーリー・アプリケーションは、決定されたストーリーの分岐に適したメディア・クリップを引き出すことができる。ステップ594において、計算環境12はそのクリップをレンダリングすることができる。異なる分岐毎に予め記録されているビデオの代わりにまたはそれに加えて、計算環境によってCGアニメーションを製作し挿入することもできる。
[00117] ユーザーにストーリー分岐からの画像を示した後、次に、ストーリーが新しいラインに分岐しなかった場合、ステップ596において、ストーリー・アプリケーション226は戻って、ストーリーに対するメディア・クリップを示すことができる。例えば、ストーリーは犯罪ドラマに関し、探偵が容疑者に尋問しようとしているところであるとする。ユーザーは、彼らがストーリー・アプリケーションと対話処理して容疑者に尋問したいことを示す既定のジェスチャーを行うことができる。ユーザーは、質問することができ、異なる方法でそして異なる態度で尋問を行うことができる。これらの行為は、ユーザーが質問を選択することができるスクリプトによって、範囲を限定することができる。あるいは、ユーザーが訊きたい質問であればいずれでもよい。
[00118] また、ユーザーは異なった態度で、幾分か尋問されている容疑者キャラクターを操作しているような態度で、質問することもできる。ユーザーは、容疑者に対して威張り散らそうとすることもでき、またはユーザーは、気持ちの良い態度で接する(proceed with)ことによって、情報を聞き出そうとすることもできる。キャプチャー・デバイス20は、これらの異なる癖を検出することができ、ある種の行為(act)が、定義され格納されている癖データーと一致する場合、計算環境12によってこれらの異なる癖を特定することができる。一旦ユーザーが尋問を完了したなら、尋問を行う探偵のビデオ・クリップを再生することができる。ユーザーは、探偵のキャラクターが再生された場面において得たものと比較して、彼または彼女が容疑者から得ることができた情報量に関して、探偵のキャラクターよりも上手にまたは下手にできたことを確かめることができる。
[00119] ステップ600において、ストーリー・ラインは、特定された分岐に進む。これは元のストーリー・ラインを再開することもでき、または全体的なプロットに対して新たな成果が得られてもよい。ステップ604において、ユーザーの対話処理を採点することができる。例えば、前述の例では、ユーザーが探偵のキャラクターよりも多くの情報を拾い集めることができた場合、ユーザーには既定数のポイントを授けることができる。あるいは、ユーザーが拾い集めた情報の方が少ない場合、所定数のポイントを失うのでもよい。このようにして、ユーザーのスコアを調節することができ、フローは、以下で説明するような、図5のステップ432に戻ることができる。
[00120] 図5に戻って、ユーザーのジェスチャーが、ステップ422において診査ジェスチャーではなく、ステップ426においてキャラクターを制御する目的のものではなく、ステップ428においてストーリー・ラインを変化させるように表示されている場面と対話処理するのでもないということが起こる場合もある。これに応じて、計算環境12は、ステップ432において、他のこのようなジェスチャーの有無をチェックする。ステップ432において他にこのようなジェスチャーが認識されない場合、ストーリー・アプリケーションはステップ406に戻って、ストーリーの次のフレームを提示し、以上で説明したステップを繰り返す。一方、ステップ432において何らかの他のジェスチャーが認識された場合、本システムは、ステップ434において、そのジェスチャーがストーリーを終了させるためのものであるか否かチェックする。そうである場合、ステップ436において、ストーリーが終了する。そうでない場合、ステップ438において、本システムは、ステップ432において認識されたジェスチャーと関連付けられているいずれかの行為を実行し、次いで、フローはステップ406に戻り、ストーリーの次のフレームを提示する。
[00121] 先に注記したように、ストーリーを受け取ったときにユーザーが何の行為も起こさない場合、ストーリーは、デフォルトの1組の画像および/または挿話または対話にしたがって線形に進むことができる。他の実施形態では、ユーザーが何の行為も起こさなくても、リニア・ストーリーにおけるエレメントが、種々の予め設定されている係数に基づいて、ストーリーのインスタンスに関して動的に変化することができる。これらの係数には、ストーリーが視聴された回数(例えば、4回目に何か新しいことが起こる)、聴衆の中にいる人数、および天候および時刻(time of day)(例えば、ストーリーにおける天候が季節と共に変化するか、または実世界の天気に繋がれている)が含まれる。天候または時刻は、システム10には分かっているか、またはシステム10がネットワーク接続されているサービスの中に格納されていてもよい。また、他のストーリーにおけるイベントも、影響を及ぼす可能性があり、ストーリーBにおけるキャラクターに導入されると、これらをストーリーAに出現させる。これらの特徴は、先に説明した本システムの他の特徴と共に、ストーリーを一層動的にし、繰り返し視聴および体験(experimentation)をする気にさせる。
[00122] 以上で説明した対話処理の多くは、既定のジェスチャーによって誘起される。図13は、ジェスチャー認識エンジン190のブロック図を示し、図14は、図13のジェスチャー認識エンジンの動作のブロック図を示す。ジェスチャー認識エンジン190は、ステップ660において、姿勢情報650を受け取る。この姿勢情報は、画像データーにおいて検出されたユーザーの身体部分や関節の位置および/または動き(motion)に関する種々のパラメータを含むことができる。
[00123] ステップ664において、ジェスチャー認識エンジン190は、受け取った姿勢情報650を分析して、この姿勢情報が、ジェスチャー・ライブラリー654内に格納されている既定の規則658のいずれかと一致するか否か確認する。格納されている規則658は、姿勢情報650によって示される特定の位置および/または力学的運動(kinetic motions)を、既定のジェスチャーとして解釈すべきときを記述する。実施形態では、各ジェスチャーは、異なる一意の規則、または1組の規則658を有することができる。各規則は、図4に示した身体部分の1つ以上について、多数のパラメータ(関節位置ベクトル、最上位/最下位位置、位置変化等)を有することができる。格納されている規則は、パラメータ毎に、そして図3に示した身体部分302から330毎に、1つの値、値の範囲、最大値、最小値を定義することができ、またはその身体部分に対するパラメータが、規則によって扱われる(cover)ジェスチャーの判定に関連がないことの指示を定義することができる。規則は、ゲーム著者、ゲーミング・プラットフォームのホスト、またはユーザー自身によって作成することができる。
[00124] ジェスチャー認識エンジン190は、特定したジェスチャーおよび信頼性レベルの双方を出力することができる。信頼性レベルは、ユーザーの位置/動きがそのジェスチャーに対応する尤度に対応する。具体的には、ジェスチャーに必要なパラメータを定義することに加えて、規則は、更に、姿勢情報650がジェスチャーとして解釈される前に要求される閾値信頼性レベルも含むことができる。ジェスチャーの中には、システム・コマンドまたはゲーミング命令として一層強い影響力を持つものもあり、したがって、姿勢がそのジェスチャーであると解釈される前に、一層高い信頼性レベルを要求することもある。姿勢情報を、規則に対して格納されているパラメータと比較することによって、その姿勢情報がジェスチャーを示すか否かに関する累計信頼性レベル(cumulative confidence level)が得られる。
[00125] 一旦所与の姿勢または動き(motion)が所与のジェスチャー規則を満たすか否かについて信頼性レベルが決定されたなら、ジェスチャー認識エンジン190は次にステップ668において、信頼性レベルが、考慮対象の規則に対する所定の閾値よりも高いか否か判定を行う。この閾値信頼性レベルは、考慮対象の規則と関連付けて格納することができる。信頼性レベルが閾値よりも低い場合、ジェスチャーは検出されず(ステップ670)、何の行為も行われない。一方、信頼性レベルが閾値よりも高い場合、ユーザーの動き(motion)は、考慮対象のジェスチャーを満たすと判断され、ジェスチャー認識エンジン190は、ステップ674において、特定したジェスチャーを戻す。他の実施形態では、ジェスチャー認識エンジン190は、他の方法で動作することもできる。
[00126] 以上の本発明のシステムについての詳細な説明は、例示および説明の目的で提示した。これは、網羅的であることも、開示された技術を開示された形態そのものに限定することを意図するのではない。多くの変更や変形が、以上の教示に照らして、可能である。記載した実施形態は、本技術の原理およびその実用的な用途を最良に説明し、それによって当業者が本技術を種々の実施形態において、そして個々の考えられる使用に適するような種々の変更と共に、最良に利用することを可能にするために選択されたのである。本発明のシステムの範囲は、本明細書に添付されている特許請求の範囲によって定義されることを意図している。

Claims (15)

  1. ユーザーの動き(motion)を取り込むキャプチャー・デバイス、ならびに画像を表示するおよび/またはオーディオを供給するオーディオビジュアル・デバイスに結合されている計算環境を備えているシステムにおいて、インタラクティブ・ゲーミングの様相をリニア・ストーリーに組み合わせる方法であって、
    a)少なくとも1つの画像および音声挿話を用いて、前記オーディオビジュアル・デバイスによって前記リニア・ストーリーを提示するステップであって、前記リニア・ストーリーが、ユーザーが前記ストーリーと対話処理していないときに、ユーザーに提示される1組のデフォルトの画像および/または挿話を有する、ステップと、
    b)前記キャプチャー・デバイスによって、ユーザーによる動きおよび音声コマンドの内少なくとも1つを検出するステップと、
    c)前記ステップb)において検出した前記動きおよび/または音声コマンドが、前記1組のデフォルトの画像および/または挿話には含まれていない追加の画像および追加の挿話の内少なくとも一方を有するストーリー分岐を含むように前記リニア・ストーリーを変更する、前記リニア・ストーリーとの対話処理であるか否か識別するステップと、
    d)前記追加の画像の内少なくとも1つにおいて、追加の挿話をユーザーに、前記オーディオビジュアル・デバイスによって提示することによって、前記リニア・ストーリーを変更するステップと、
    を備えている、方法。
  2. 請求項1記載の方法において、前記リニア・ストーリーが、仮想マシン空間における場面の三次元記述によって定義されたストーリー場面を有する画像を含み、前記リニア・ストーリーを変更する前記ステップd)が、e)前記1組のデフォルトの画像からの場面を、前記仮想マシン空間内における異なる三次元視点(viewing perspective)から示す追加の画像を提示するステップを含む、方法。
  3. 請求項2記載の方法において、前記ステップe)において提示する追加の画像が、ユーザーが前記場面の中に入って行く印象を醸し出す、方法。
  4. 請求項2記載の方法において、前記ステップe)において提示する追加の画像が、ユーザーが前記場面からの物体を異なる観点から調べている印象を醸し出す、方法。
  5. 請求項2記載の方法において、前記ステップe)において提示する追加の画像が、ユーザーが前記場面内において物体の後ろを窺っている印象を醸し出す、方法。
  6. 請求項1記載の方法において、前記リニア・ストーリーが、音声挿話および画像を含み、前記リニア・ストーリーを提示する前記ステップa)が、
    a1)ユーザーが前記挿話を発声するステップと、
    a2)前記ユーザーが発声する挿話を、前記リニア・ストーリーの対応する画像に一致させるステップと、
    a3)前記ユーザーが発声する挿話のペースによって決定されるペースで、前記画像を提示するステップと、
    を含む、方法。
  7. 請求項1記載の方法において、前記リニア・ストーリーが、ユーザーに提示する音声挿話および画像を含み、前記リニア・ストーリーを提示する前記ステップa)が、
    a1)第三者が前記挿話を発声するステップであって、前記第三者が前記ユーザーと共に存在せず、前記ユーザーの近傍においてスピーカーを通じて、前記第三者の音声を前記挿話として供給する、ステップと、
    a2)前記第三者が発声した挿話を、前記リニア・ストーリーの対応する画像に一致させるステップと、
    a3)前記第三者が発声した挿話のペースによって決定されるペースで、前記画像を提示するステップと、
    を含む、方法。
  8. インタラクティブ・ゲーミングの様相をリニア・ストーリーに組み合わせる方法を実行するようにプロセッサーをプログラミングするプロセッサー読み取り可能記憶媒体であって、前記方法が、
    a)ユーザーによる対話処理が、ユーザーの動きを監視しているキャプチャー・デバイスによって認知されないときに、画像および音声挿話の内少なくとも1つを用いて、オーディオビジュアル・デバイスによって前記リニア・ストーリーを提示するステップであって、前記リニア・ストーリーが、開始から終了まで、完全なストーリーとして提示され、1組のデフォルトの画像を含む、ステップと、
    b)前記オーディオビジュアル・デバイスと関連付けられているキャプチャー・デバイスによって、ユーザーによる動きを検出するステップと、
    c)前記ステップb)において検出した前記動きが、前記1組のデフォルトの画像および/または挿話には含まれていない追加の画像を有するストーリー分岐を含むように前記リニア・ストーリーからの変更を要求する、前記リニア・ストーリーとの対話処理であるか否か識別するステップと、
    d)前記追加の画像を、格納されている処理済みデーターに基づいてレンダリングできるか否か判断するステップと、
    e)前記ステップd)において、前記追加の画像をレンダリングできると判断した場合、前記オーディオビジュアル・デバイスによって前記追加のデーターをユーザーに提示することによって、前記リニア・ストーリーを変更するステップと、
    f)ユーザーの対話処理に基づいて、前記対話処理が所定のポイント数を加点するまたは減点することに対応する場合、前記対話処理を採点するステップと、
    を備えている、プロセッサー読み取り可能記憶媒体。
  9. 請求項8記載のプロセッサー読み取り可能記憶媒体において、前記リニア・ストーリーが、仮想マシン空間における場面の三次元記述によって定義されるストーリー場面を有し、前記リニア・ストーリーを変更する前記ステップe)が、g)前記1組のデフォルト画像からの場面を、前記仮想マシン空間内における異なる三次元視点から示す追加の画像を提示するステップを含む、プロセッサー読み取り可能記憶媒体。
  10. 請求項8記載のプロセッサー読み取り可能記憶媒体において、前記ステップb)が、h)前記リニア・ストーリーの一部として表示されるキャラクターの少なくとも部分的な制御をユーザーが引き受けるステップを含む、プロセッサー読み取り可能記憶媒体。
  11. 請求項8記載のプロセッサー読み取り可能記憶媒体において、前記ステップa)およびe)が、静止画像パネル、動的コンピューター・グラフィクス・アニメーション、およびリニア・ビデオの内少なくとも1つにおいて、前記リニア・ストーリーおよび/またはストーリー分岐を表示するステップを含む、プロセッサー読み取り可能記憶媒体。
  12. インタラクティブ・ゲーミングの様相をリニア・ストーリーに組み合わせるシステムであって、
    画像および音声挿話の内少なくとも1つを提示するオーディオビジュアル・デバイスと、
    画像およびオーディオ・データーの内少なくとも1つをユーザーから取り込む画像キャプチャ・デバイスと、
    前記オーディオビジュアル・デバイスおよび画像キャプチャ・デバイスに結合されている計算環境であって、
    a)ユーザーによる対話処理が、ユーザーの動きを監視しているキャプチャー・デバイスによって認知されないときに、画像および音声挿話の内少なくとも1つを用いて、前記オーディオビジュアル・デバイスによって前記リニア・ストーリーを提示し、前記リニア・ストーリーが、開始から終了まで、完全なストーリーとして提示され、1組のデフォルトの画像を含み、
    b)前記キャプチャー・デバイスによってユーザーによる動きを検出し、
    c)前記検出した動きが診査ジェスチャーであるか否か識別し、
    d)前記動きを診査ジェスチャーであると識別したときに、前記リニア・ストーリーからストーリー分岐に分岐し、前記分岐が、
    d1)前記ユーザーによって示された前記オーディオビジュアル・デバイス上における点を検知し、
    d2)前記ユーザーの一部から、前記ユーザーによって示された前記オーディオビジュアル・デバイス上における前記点までの3−D実世界ベクトルを計算し、
    d3)前記3−D実世界ベクトルを、現在の視点(view perspective)において開始点を有し、3−Dマシン空間における前記仮想物体において終点を有する3−Dマシン空間ベクトルに変換し、
    d4)前記3−Dマシン空間ベクトルの終点にある視点(viewing perspective)から前記仮想物体を表示することを含む、システム。
  13. 請求項12記載のシステムにおいて、前記計算環境が、前記ユーザーの頭部の位置を検知する前記キャプチャー・デバイスによって、前記ユーザーが示した前記オーディオビジュアル・デバイス上における前記点を検知する、システム。
  14. 請求項12記載のシステムにおいて、前記計算環境が、前記ユーザーの手の位置を検知する前記キャプチャー・デバイスによって、前記ユーザーが示した前記オーディオビジュアル・デバイス上における前記点を検知する、システム。
  15. 請求項12記載のシステムにおいて、前記ユーザーが、前記リニア・ストーリーおよび分岐ストーリーと対話処理するユーザーの体験に伴うスコアを増大させることができる、システム。
JP2013516598A 2010-06-21 2011-06-09 インタラクティブ・ストーリーを駆動するための自然ユーザー入力 Active JP5944384B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/819,983 US8381108B2 (en) 2010-06-21 2010-06-21 Natural user input for driving interactive stories
US12/819,983 2010-06-21
PCT/US2011/039881 WO2011162974A2 (en) 2010-06-21 2011-06-09 Natural user input for driving interactive stories

Publications (2)

Publication Number Publication Date
JP2013538593A true JP2013538593A (ja) 2013-10-17
JP5944384B2 JP5944384B2 (ja) 2016-07-05

Family

ID=45329786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013516598A Active JP5944384B2 (ja) 2010-06-21 2011-06-09 インタラクティブ・ストーリーを駆動するための自然ユーザー入力

Country Status (8)

Country Link
US (2) US8381108B2 (ja)
EP (1) EP2583155A4 (ja)
JP (1) JP5944384B2 (ja)
KR (1) KR101838312B1 (ja)
CN (1) CN102947774B (ja)
CA (1) CA2800533C (ja)
TW (1) TWI531396B (ja)
WO (1) WO2011162974A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6190497B1 (ja) * 2016-07-13 2017-08-30 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2017535140A (ja) * 2014-09-29 2017-11-24 アマゾン・テクノロジーズ・インコーポレーテッド ユーザ・インタラクション分析モジュール

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645140B2 (en) * 2009-02-25 2014-02-04 Blackberry Limited Electronic device and method of associating a voice font with a contact for text-to-speech conversion at the electronic device
US8355903B1 (en) 2010-05-13 2013-01-15 Northwestern University System and method for using data and angles to automatically generate a narrative story
US9208147B1 (en) 2011-01-07 2015-12-08 Narrative Science Inc. Method and apparatus for triggering the automatic generation of narratives
US11989659B2 (en) 2010-05-13 2024-05-21 Salesforce, Inc. Method and apparatus for triggering the automatic generation of narratives
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US20120042282A1 (en) * 2010-08-12 2012-02-16 Microsoft Corporation Presenting Suggested Items for Use in Navigating within a Virtual Space
US9720899B1 (en) 2011-01-07 2017-08-01 Narrative Science, Inc. Automatic generation of narratives from data using communication goals and narrative analytics
US10185477B1 (en) 2013-03-15 2019-01-22 Narrative Science Inc. Method and system for configuring automatic generation of narratives from data
US10657201B1 (en) 2011-01-07 2020-05-19 Narrative Science Inc. Configurable and portable system for generating narratives
US9250798B2 (en) * 2011-01-24 2016-02-02 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US20120242793A1 (en) * 2011-03-21 2012-09-27 Soungmin Im Display device and method of controlling the same
KR20120119756A (ko) * 2011-04-22 2012-10-31 삼성전자주식회사 타 기기와 연동하여 상호 동작이 가능한 에듀테인먼트 시스템을 위한 방법 및 장치
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US8881010B2 (en) * 2011-09-29 2014-11-04 Microsoft Corporation Adapting trick commands to prior usage
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8898687B2 (en) * 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
TWI557685B (zh) * 2012-05-23 2016-11-11 雲南恆達睿創三維數字科技有限公司 網格動畫製作方法
TWI470511B (zh) * 2012-06-06 2015-01-21 Wistron Corp 雙模輸入裝置
WO2014008185A1 (en) * 2012-07-02 2014-01-09 Sony Computer Entertainment Inc. Methods and systems for interaction with an expanded information space
US9833698B2 (en) * 2012-09-19 2017-12-05 Disney Enterprises, Inc. Immersive storytelling environment
KR20140039757A (ko) * 2012-09-25 2014-04-02 삼성전자주식회사 디스플레이장치 및 그 제어방법
US9141281B2 (en) * 2012-09-28 2015-09-22 Fabrizio Ferri Photography System and method for controlling the progression of multmedia assets on a computing device
CN102945672B (zh) * 2012-09-29 2013-10-16 深圳市国华识别科技开发有限公司 一种多媒体设备语音控制系统及方法
CN104756513A (zh) * 2012-11-05 2015-07-01 索尼电脑娱乐公司 信息处理设备
US20140192140A1 (en) * 2013-01-07 2014-07-10 Microsoft Corporation Visual Content Modification for Distributed Story Reading
US9448634B1 (en) * 2013-03-12 2016-09-20 Kabam, Inc. System and method for providing rewards to a user in a virtual space based on user performance of gestures
US10268660B1 (en) 2013-03-15 2019-04-23 Matan Arazi Real-time event transcription system and method
US9747898B2 (en) * 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
CN103164995A (zh) * 2013-04-03 2013-06-19 湖南第一师范学院 儿童体感交互式学习系统及方法
TW201510771A (zh) * 2013-09-05 2015-03-16 Utechzone Co Ltd 指向位置偵測裝置及其方法、程式及電腦可讀取紀錄媒體
US9474068B2 (en) 2013-09-16 2016-10-18 Disney Enterprises, Inc. Storytelling simulator and device communication
US9836984B2 (en) * 2013-09-16 2017-12-05 Disney Enterprises, Inc. Storytelling environment: story and playgroup creation
KR101428014B1 (ko) * 2013-10-31 2014-08-07 동국대학교 산학협력단 가상화 환경에서 nui 및 nux를 시뮬레이션하는 방법 및 장치
US20150165310A1 (en) * 2013-12-17 2015-06-18 Microsoft Corporation Dynamic story driven gameworld creation
TWI530909B (zh) 2013-12-31 2016-04-21 財團法人工業技術研究院 影像合成系統及方法
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
KR101582651B1 (ko) * 2014-04-29 2016-01-06 주식회사 두드림 체험형 콘텐츠 제공 시스템 및 방법
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9602191B2 (en) * 2014-06-27 2017-03-21 X Development Llc Streaming display data from a mobile device using backscatter communications
CN106232010B (zh) * 2014-07-02 2020-03-31 柯惠有限合伙公司 用于检测气管的系统和方法
US20160103655A1 (en) * 2014-10-08 2016-04-14 Microsoft Corporation Co-Verbal Interactions With Speech Reference Point
US11238090B1 (en) 2015-11-02 2022-02-01 Narrative Science Inc. Applied artificial intelligence technology for using narrative analytics to automatically generate narratives from visualization data
US11922344B2 (en) 2014-10-22 2024-03-05 Narrative Science Llc Automatic generation of narratives from data using communication goals and narrative analytics
US11288328B2 (en) 2014-10-22 2022-03-29 Narrative Science Inc. Interactive and conversational data exploration
US10747823B1 (en) 2014-10-22 2020-08-18 Narrative Science Inc. Interactive and conversational data exploration
US11250630B2 (en) * 2014-11-18 2022-02-15 Hallmark Cards, Incorporated Immersive story creation
KR101630153B1 (ko) * 2014-12-10 2016-06-24 현대자동차주식회사 제스처 인식 장치, 그를 가지는 차량 및 차량의 제어 방법
CN109388142B (zh) * 2015-04-30 2021-12-21 广东虚拟现实科技有限公司 一种基于惯性传感器进行虚拟现实行走控制的方法及系统
CN104932549B (zh) * 2015-06-01 2018-12-21 广东小天才科技有限公司 一种智能控制终端旋转的方法
WO2016209039A1 (ko) * 2015-06-24 2016-12-29 주식회사 브이터치 의사소통을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
WO2017034627A1 (en) 2015-08-25 2017-03-02 Davis George Bernard Presenting interactive content
US10249091B2 (en) * 2015-10-09 2019-04-02 Warner Bros. Entertainment Inc. Production and packaging of entertainment data for virtual reality
US11188588B1 (en) 2015-11-02 2021-11-30 Narrative Science Inc. Applied artificial intelligence technology for using narrative analytics to interactively generate narratives from visualization data
US11222184B1 (en) 2015-11-02 2022-01-11 Narrative Science Inc. Applied artificial intelligence technology for using narrative analytics to automatically generate narratives from bar charts
US11232268B1 (en) 2015-11-02 2022-01-25 Narrative Science Inc. Applied artificial intelligence technology for using narrative analytics to automatically generate narratives from line charts
US10928915B2 (en) * 2016-02-10 2021-02-23 Disney Enterprises, Inc. Distributed storytelling environment
US10311622B2 (en) * 2016-03-29 2019-06-04 Htc Corporation Virtual reality device and method for virtual reality
US10092827B2 (en) * 2016-06-16 2018-10-09 Disney Enterprises, Inc. Active trigger poses
TWI605862B (zh) * 2016-07-28 2017-11-21 南臺科技大學 可偵測認知功能的個人化遊戲系統
US10272329B2 (en) * 2016-08-10 2019-04-30 Google Llc Cooperative immersive live action 360-degree video and virtual reality
US10853583B1 (en) 2016-08-31 2020-12-01 Narrative Science Inc. Applied artificial intelligence technology for selective control over narrative generation from visualizations of data
US10135950B2 (en) * 2016-10-10 2018-11-20 Google Llc Creating a cinematic storytelling experience using network-addressable devices
US10525355B2 (en) * 2016-11-01 2020-01-07 Htc Corporation Method, device, and non-transitory computer readable storage medium for interaction to event in virtual space
US10990753B2 (en) * 2016-11-16 2021-04-27 Disney Enterprises, Inc. Systems and methods for a procedural system for emergent narrative construction
US10467808B2 (en) 2017-02-09 2019-11-05 Disney Enterprises, Inc. Systems and methods to provide narrative experiences for users of a virtual space
US11954445B2 (en) 2017-02-17 2024-04-09 Narrative Science Llc Applied artificial intelligence technology for narrative generation based on explanation communication goals
US11568148B1 (en) 2017-02-17 2023-01-31 Narrative Science Inc. Applied artificial intelligence technology for narrative generation based on explanation communication goals
US10943069B1 (en) 2017-02-17 2021-03-09 Narrative Science Inc. Applied artificial intelligence technology for narrative generation based on a conditional outcome framework
US10713442B1 (en) 2017-02-17 2020-07-14 Narrative Science Inc. Applied artificial intelligence technology for interactive story editing to support natural language generation (NLG)
US11068661B1 (en) 2017-02-17 2021-07-20 Narrative Science Inc. Applied artificial intelligence technology for narrative generation based on smart attributes
US10699079B1 (en) 2017-02-17 2020-06-30 Narrative Science Inc. Applied artificial intelligence technology for narrative generation based on analysis communication goals
KR101924852B1 (ko) * 2017-04-14 2018-12-04 네이버 주식회사 네트워크에 연결된 음향기기와의 멀티모달 인터렉션 방법 및 시스템
CN111417442B (zh) * 2017-10-16 2023-08-08 乐高公司 交互式游戏设备
US10535345B2 (en) * 2017-10-20 2020-01-14 Yingjia LIU Interactive method and system for generating fictional story
US11351005B2 (en) * 2017-10-23 2022-06-07 Intuitive Surgical Operations, Inc. Systems and methods for presenting augmented reality in a display of a teleoperational system
TWI635418B (zh) * 2017-11-14 2018-09-11 國立政治大學 Wearable virtual interactive display system
KR102074680B1 (ko) * 2017-12-15 2020-04-08 (주)브이알에이포인트 제스처 인식 모듈을 이용한 부동산 모델하우스 가상공간에 대한 이동 및 제어 방법 및 장치
US11042708B1 (en) 2018-01-02 2021-06-22 Narrative Science Inc. Context saliency-based deictic parser for natural language generation
US10963649B1 (en) 2018-01-17 2021-03-30 Narrative Science Inc. Applied artificial intelligence technology for narrative generation using an invocable analysis service and configuration-driven analytics
US10755046B1 (en) 2018-02-19 2020-08-25 Narrative Science Inc. Applied artificial intelligence technology for conversational inferencing
WO2019169344A1 (en) * 2018-03-01 2019-09-06 Podop, Inc. User interface elements for content selection in media narrative presentation
CN110519575B (zh) * 2018-05-21 2021-08-24 仁宝电脑工业股份有限公司 互动式投影系统和互动式投影方法
US11042713B1 (en) 2018-06-28 2021-06-22 Narrative Scienc Inc. Applied artificial intelligence technology for using natural language processing to train a natural language generation system
US11012760B2 (en) * 2018-10-03 2021-05-18 Wanjeru Kingori System and method for branching-plot video content and editing thereof
CN109284056A (zh) * 2018-10-24 2019-01-29 深圳市领点科技有限公司 一种高效的虚拟场景共享方法和装置
US11145306B1 (en) 2018-10-31 2021-10-12 Ossum Technology Inc. Interactive media system using audio inputs
US11341330B1 (en) 2019-01-28 2022-05-24 Narrative Science Inc. Applied artificial intelligence technology for adaptive natural language understanding with term discovery
US11228810B1 (en) 2019-04-22 2022-01-18 Matan Arazi System, method, and program product for interactively prompting user decisions
US11551803B1 (en) 2019-04-22 2023-01-10 Aimcast Ip, Llc System, method, and program product for generating and providing simulated user absorption information
US11017688B1 (en) 2019-04-22 2021-05-25 Matan Arazi System, method, and program product for interactively prompting user decisions
US11328009B2 (en) 2019-08-28 2022-05-10 Rovi Guides, Inc. Automated content generation and delivery
US11520677B1 (en) 2019-09-25 2022-12-06 Aimcast Ip, Llc Real-time Iot device reliability and maintenance system and method
CN111212311A (zh) * 2020-01-13 2020-05-29 四川长虹电器股份有限公司 一种语音交互视频的生成及播放方法
CN113409778A (zh) * 2020-03-16 2021-09-17 阿里巴巴集团控股有限公司 语音交互方法、系统和终端
US11394799B2 (en) * 2020-05-07 2022-07-19 Freeman Augustus Jackson Methods, systems, apparatuses, and devices for facilitating for generation of an interactive story based on non-interactive data
US11285388B2 (en) * 2020-08-31 2022-03-29 Nawaf Al Dohan Systems and methods for determining story path based on audience interest
EP3979245A1 (en) * 2020-09-30 2022-04-06 Al Sports Coach GmbH System and method for providing interactive storytelling
US20240077984A1 (en) * 2022-09-01 2024-03-07 Lei Zhang Recording following behaviors between virtual objects and user avatars in ar experiences
CN116009748B (zh) * 2023-03-28 2023-06-06 深圳市人马互动科技有限公司 儿童互动故事中图片信息交互方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04307585A (ja) * 1991-04-05 1992-10-29 Matsushita Electric Ind Co Ltd 語学学習装置
JP2004537777A (ja) * 2001-05-14 2004-12-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ リアルタイムのコンテンツのストリームと対話するための装置
WO2006098299A1 (ja) * 2005-03-14 2006-09-21 Ssd Company Limited 情報処理システム及びそのための情報入力装置
WO2009131846A2 (en) * 2008-04-24 2009-10-29 Sony Computer Entertainment America Inc. Method and apparatus for real-time viewer interaction with a media presentation
WO2010006362A1 (en) * 2008-07-15 2010-01-21 Diversionary Therapy Technologies Pty Ltd Method for preparing a patient for a medical treatment

Family Cites Families (236)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5274758A (en) * 1989-06-16 1993-12-28 International Business Machines Computer-based, audio/visual creation and presentation system and method
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
US5181162A (en) * 1989-12-06 1993-01-19 Eastman Kodak Company Document management and production system
JPH03103822U (ja) 1990-02-13 1991-10-29
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
CA2101633A1 (en) 1991-12-03 1993-06-04 Barry J. French Interactive video testing and training system
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5953485A (en) * 1992-02-07 1999-09-14 Abecassis; Max Method and system for maintaining audio during video control
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US6062863A (en) * 1994-09-22 2000-05-16 Kirksey; William E. Method of associating oral utterances meaningfully with word symbols seriatim in an audio-visual work and apparatus for linear and interactive application
US5938447A (en) * 1993-09-24 1999-08-17 Readspeak, Inc. Method and system for making an audio-visual work with a series of visual word symbols coordinated with oral word utterances and such audio-visual work
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5692212A (en) 1994-06-22 1997-11-25 Roach; Richard Gregory Interactive multimedia movies and techniques
US5999172A (en) * 1994-06-22 1999-12-07 Roach; Richard Gregory Multimedia techniques
US5948040A (en) * 1994-06-24 1999-09-07 Delorme Publishing Co. Travel reservation information and planning system
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
JPH0926970A (ja) * 1994-12-20 1997-01-28 Sun Microsyst Inc 情報を検索するコンピュータによる実行方法及び装置
US5799304A (en) * 1995-01-03 1998-08-25 Intel Corporation Information evaluation
US5636995A (en) * 1995-01-17 1997-06-10 Stephen A. Schwartz Interactive story book and graphics tablet apparatus and methods for operating the same
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
WO1996031829A1 (en) * 1995-04-06 1996-10-10 Avid Technology, Inc. Graphical multimedia authoring system
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
WO1996041304A1 (en) 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
GB9517808D0 (en) 1995-08-31 1995-11-01 Philips Electronics Uk Ltd Interactive entertainment personalisation
GB9517806D0 (en) * 1995-08-31 1995-11-01 Philips Electronics Uk Ltd Information handling for interactive apparatus
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US6028593A (en) 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US6278418B1 (en) 1995-12-29 2001-08-21 Kabushiki Kaisha Sega Enterprises Three-dimensional imaging system, game device, method for same and recording medium
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
GB9602431D0 (en) 1996-02-07 1996-04-03 Philips Electronics Nv Interactive audio entertainment apparatus
WO1997030397A1 (en) * 1996-02-16 1997-08-21 Cyber Marketing, Inc. Remote interactive multimedia preview and data collection kiosk system
WO1997041925A1 (en) 1996-05-08 1997-11-13 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
CN1168057C (zh) 1996-08-14 2004-09-22 挪拉赫梅特·挪利斯拉莫维奇·拉都包夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6705868B1 (en) 1998-03-18 2004-03-16 Purdue Research Foundation Apparatus and methods for a shape memory spring actuator and display
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6384819B1 (en) 1997-10-15 2002-05-07 Electric Planet, Inc. System and method for generating an animatable character
WO1999019828A1 (en) 1997-10-15 1999-04-22 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6243740B1 (en) * 1998-02-13 2001-06-05 Xerox Corporation Public interactive document
EP1059970A2 (en) 1998-03-03 2000-12-20 Arena, Inc, System and method for tracking and assessing movement skills in multidimensional space
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6088020A (en) 1998-08-12 2000-07-11 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Haptic device
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
EP2026035A2 (en) 1998-12-16 2009-02-18 3DV Systems Ltd. 3D camera for distance measurements
US6342901B1 (en) * 1998-12-22 2002-01-29 Xerox Corporation Interactive device for displaying information from multiple sources
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6190174B1 (en) 1999-06-03 2001-02-20 Kader Industrial Company Limited Electronic story board
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6408257B1 (en) * 1999-08-31 2002-06-18 Xerox Corporation Augmented-reality display method and system
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7333967B1 (en) 1999-12-23 2008-02-19 International Business Machines Corporation Method and system for automatic computation creativity and specifically for story generation
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US7878905B2 (en) * 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7445550B2 (en) * 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US7246315B1 (en) 2000-05-10 2007-07-17 Realtime Drama, Inc. Interactive personal narrative agent system and method
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6544040B1 (en) 2000-06-27 2003-04-08 Cynthia P. Brelis Method, apparatus and article for presenting a narrative, including user selectable levels of detail
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
US20020108009A1 (en) * 2000-12-29 2002-08-08 Michele Borgatti Electronic system having modular expansion function facilities
MXPA03007075A (es) * 2001-02-07 2004-01-29 Infosphere Inc Metodo y aparato para proporcionar una presentacion de los medios interactivos.
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
US6705686B2 (en) 2002-03-26 2004-03-16 Ford Motor Company Method and apparatus for braking a hybrid electric vehicle
US7062712B2 (en) * 2002-04-09 2006-06-13 Fuji Xerox Co., Ltd. Binding interactive multichannel digital document system
ATE321689T1 (de) 2002-04-19 2006-04-15 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US7962430B1 (en) * 2002-11-11 2011-06-14 James Ralph Heidenreich Systems and methods for facilitating user thinking about an arbitrary problem with additional search capabilities
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
EP1477924B1 (en) 2003-03-31 2007-05-02 HONDA MOTOR CO., Ltd. Gesture recognition apparatus, method and program
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
JP4546956B2 (ja) 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US20080068389A1 (en) * 2003-11-19 2008-03-20 Reuven Bakalash Multi-mode parallel graphics rendering system (MMPGRS) embodied within a host computing system and employing the profiling of scenes in graphics-based applications
WO2005104010A2 (en) 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7295220B2 (en) * 2004-05-28 2007-11-13 National University Of Singapore Interactive system and method
KR100458287B1 (ko) * 2004-06-07 2004-11-26 엔에이치엔(주) 건물 발전 방식의 온라인 롤-플레잉 게임 서비스 시스템 및 그 방법
US20060003824A1 (en) * 2004-07-01 2006-01-05 Aruze Corporation Game system
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
KR100754385B1 (ko) 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
US20060190285A1 (en) * 2004-11-04 2006-08-24 Harris Trevor M Method and apparatus for storage and distribution of real estate related data
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
PE20060777A1 (es) * 2004-12-24 2006-10-06 Boehringer Ingelheim Int Derivados de indolinona para el tratamiento o la prevencion de enfermedades fibroticas
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
US7379566B2 (en) 2005-01-07 2008-05-27 Gesturetek, Inc. Optical flow based tilt sensor
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
US7492367B2 (en) 2005-03-10 2009-02-17 Motus Corporation Apparatus, system and method for interpreting and reproducing physical motion
WO2006099597A2 (en) 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
JP5038296B2 (ja) 2005-05-17 2012-10-03 クアルコム,インコーポレイテッド 方位感受性信号出力
TW200707257A (en) 2005-08-10 2007-02-16 Hong-Yi Lin Image interactive story house
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
DE602005010696D1 (de) 2005-08-12 2008-12-11 Mesa Imaging Ag Hochempfindliches, schnelles Pixel für Anwendung in einem Bildsensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
US20070087798A1 (en) * 2005-10-13 2007-04-19 Elliot Mcgucken Morality system and method for video game: system and method for creating story, deeper meaning and emotions, enhanced characters and AI, and dramatic art in video games
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
WO2007108776A2 (en) * 2005-12-31 2007-09-27 Bracco Imaging S.P.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ('dextronet')
US7627536B2 (en) 2006-06-13 2009-12-01 Microsoft Corporation Dynamic interaction menus from natural language representations
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
EP1912193A1 (en) * 2006-10-02 2008-04-16 Koninklijke Philips Electronics N.V. Interactive storyteller system
TW200839666A (en) 2006-11-14 2008-10-01 Patent Category Corp Interactive system
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
JP5639764B2 (ja) * 2007-03-08 2014-12-10 シンク−アールエックス,リミティド 運動する器官と共に使用するイメージング及びツール
US20080252596A1 (en) 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
US8230367B2 (en) 2007-09-14 2012-07-24 Intellectual Ventures Holding 67 Llc Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
EP2203893A4 (en) 2007-10-30 2014-05-07 Hewlett Packard Development Co INTERACTIVE DISPLAY SYSTEM WITH GROUP GESTURE DETECTION
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
KR100930370B1 (ko) * 2007-11-30 2009-12-08 광주과학기술원 증강현실 저작 방법 및 시스템과 그 프로그램을 기록한컴퓨터로 읽을 수 있는 기록 매체
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
EP2263190A2 (en) * 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
CN102016877B (zh) 2008-02-27 2014-12-10 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
CN101254344B (zh) 2008-04-18 2010-06-16 李刚 场地方位与显示屏点阵按比例相对应的游戏装置和方法
US20100041476A1 (en) * 2008-08-11 2010-02-18 Haven Holdings, LLC Interactive Entertainment and Competition System with Caused-Based Reward System
US9399167B2 (en) 2008-10-14 2016-07-26 Microsoft Technology Licensing, Llc Virtual space mapping of a variable activity region
CN101739120A (zh) * 2008-11-12 2010-06-16 华硕电脑股份有限公司 交互式显示方法及其相关显示装置
US8219513B2 (en) * 2008-12-19 2012-07-10 Eastman Kodak Company System and method for generating a context enhanced work of communication
EP2430833A4 (en) * 2009-05-13 2014-01-22 Coincident Tv Inc REPRODUCTION AND PROCESSING OF LINKED AND COMMENTED AUDIOVISUAL WORKS
US7967731B2 (en) * 2009-05-29 2011-06-28 Sk Telecom Americas, Inc. System and method for motivating users to improve their wellness
US8510656B2 (en) * 2009-10-29 2013-08-13 Margery Kravitz Schwarz Interactive storybook system and method
US9299223B2 (en) * 2010-05-19 2016-03-29 Bally Gaming, Inc. Controlling bingo game interactivity
WO2011149558A2 (en) * 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate
CN107093201B (zh) * 2010-09-13 2021-02-12 巴里·林恩·詹金斯 传输和控制包括渲染的几何、纹理和光照数据的流交互媒体
US8613646B2 (en) * 2011-01-21 2013-12-24 Henk B. Rogers Systems and methods for controlling player characters in an interactive multiplayer story
US10127563B2 (en) * 2011-09-15 2018-11-13 Stephan HEATH System and method for providing sports and sporting events related social/geo/promo link promotional data sets for end user display of interactive ad links, promotions and sale of products, goods, gambling and/or services integrated with 3D spatial geomapping, company and local information for selected worldwide locations and social networking
US9031382B1 (en) * 2011-10-20 2015-05-12 Coincident.Tv, Inc. Code execution in complex audiovisual experiences

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04307585A (ja) * 1991-04-05 1992-10-29 Matsushita Electric Ind Co Ltd 語学学習装置
JP2004537777A (ja) * 2001-05-14 2004-12-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ リアルタイムのコンテンツのストリームと対話するための装置
WO2006098299A1 (ja) * 2005-03-14 2006-09-21 Ssd Company Limited 情報処理システム及びそのための情報入力装置
WO2009131846A2 (en) * 2008-04-24 2009-10-29 Sony Computer Entertainment America Inc. Method and apparatus for real-time viewer interaction with a media presentation
WO2010006362A1 (en) * 2008-07-15 2010-01-21 Diversionary Therapy Technologies Pty Ltd Method for preparing a patient for a medical treatment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015030046; 中津良平 他: 'インタラクティブ映画第2次システムの構成' 情報処理学会 インタラクション '98 論文集 , 199803, Pages 93 - 100 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017535140A (ja) * 2014-09-29 2017-11-24 アマゾン・テクノロジーズ・インコーポレーテッド ユーザ・インタラクション分析モジュール
JP2019165495A (ja) * 2014-09-29 2019-09-26 アマゾン・テクノロジーズ・インコーポレーテッド ユーザ・インタラクション分析モジュール
JP6190497B1 (ja) * 2016-07-13 2017-08-30 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018010480A (ja) * 2016-07-13 2018-01-18 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム

Also Published As

Publication number Publication date
CA2800533A1 (en) 2011-12-29
TW201210663A (en) 2012-03-16
US20130165225A1 (en) 2013-06-27
US8381108B2 (en) 2013-02-19
EP2583155A4 (en) 2013-10-16
KR20130111234A (ko) 2013-10-10
WO2011162974A3 (en) 2012-03-29
US20110314381A1 (en) 2011-12-22
WO2011162974A2 (en) 2011-12-29
CN102947774B (zh) 2016-05-04
JP5944384B2 (ja) 2016-07-05
CN102947774A (zh) 2013-02-27
US9274747B2 (en) 2016-03-01
KR101838312B1 (ko) 2018-03-13
CA2800533C (en) 2018-03-06
TWI531396B (zh) 2016-05-01
EP2583155A2 (en) 2013-04-24

Similar Documents

Publication Publication Date Title
JP5944384B2 (ja) インタラクティブ・ストーリーを駆動するための自然ユーザー入力
US8542252B2 (en) Target digitization, extraction, and tracking
US8866898B2 (en) Living room movie creation
US8660847B2 (en) Integrated local and cloud based speech recognition
US8334842B2 (en) Recognizing user intent in motion capture system
US20110311144A1 (en) Rgb/depth camera for improving speech recognition
US8654152B2 (en) Compartmentalizing focus area within field of view
JP5632474B2 (ja) ユーザーから学習した入力を介し視覚表示を実写のようにする方法及びシステム
JP5859456B2 (ja) プレゼンテーション用カメラ・ナビゲーション
US9400695B2 (en) Low latency rendering of objects
US20170228036A1 (en) Compound gesture-speech commands
US9069381B2 (en) Interacting with a computer based application
US20110221755A1 (en) Bionic motion
JP2015508516A (ja) デバイス・アクティブ化のためのオーディオ・パターン照合
CN102449576A (zh) 姿势快捷方式
US20120311503A1 (en) Gesture to trigger application-pertinent information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140609

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160525

R150 Certificate of patent or registration of utility model

Ref document number: 5944384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250