JP2008510566A - 仮想環境を視聴および操作する装置、方法、およびシステム - Google Patents

仮想環境を視聴および操作する装置、方法、およびシステム Download PDF

Info

Publication number
JP2008510566A
JP2008510566A JP2007529855A JP2007529855A JP2008510566A JP 2008510566 A JP2008510566 A JP 2008510566A JP 2007529855 A JP2007529855 A JP 2007529855A JP 2007529855 A JP2007529855 A JP 2007529855A JP 2008510566 A JP2008510566 A JP 2008510566A
Authority
JP
Japan
Prior art keywords
camera
command
signal
application
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007529855A
Other languages
English (en)
Inventor
マッキントッシュ、デイビッド
グランド、ジョセフ
モアロック、デイビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gamecaster Inc
Original Assignee
Gamecaster Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=35967840&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2008510566(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Gamecaster Inc filed Critical Gamecaster Inc
Publication of JP2008510566A publication Critical patent/JP2008510566A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • A63F13/245Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/98Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1062Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted to a type of game, e.g. steering wheel
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/301Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device using an additional display connected to the game console, e.g. on the controller
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/57Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player
    • A63F2300/577Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of game services offered to the player for watching a game played by other players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6669Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera using a plurality of virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character change rooms
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8023Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game the game being played by multiple players at a common site, e.g. in an arena, theatre, shopping mall using a large public display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

仮想環境への情報入力または仮想環境からの情報出力を生成、視聴、処理、記憶、検索、分析、および最適化するための部品。その部品は、カメラマンが、実行されるビデオゲームなどの仮想環境内で1つまたは複数の視像から選択し、仮想環境の範囲内で代替の視像を提供することを可能にする、ビデオカメラ部品、スタンドアロン、または三脚に搭載可能な装置のいずれであってもよい。その部品は、複数の視像からの選択と、左回転または右回転、斜め上または斜め下、ズームインまたはズームアウト、左右前後への移動(たとえば、追跡運動)、回転移動、および上方または下方のカメラ位置調整(たとえば、クレーン運動)などの複数の視像の操作とを可能にする。

Description

本発明は、概して仮想システム、特に仮想ビデオゲームのプロデューサ、ディレクタ、カメラマン、またはその他の個人が仮想ゲーム空間内の仮想インタフェース装置を操作するシステムに関する。
生産性の高いビデオゲーム業界を含め、仮想システムの国際成長を過小評価するのは経済的に賢明ではない。2003年および2004年、携帯型および床上型ハードウェア、ソフトウェア、付属品などを含むビデオゲームの米国での年間小売額は、約100億ドルに達した。これは同年に封切られた映画の興行収入と同額である。控えめに見積もっても、世界のビデオゲーム産業の収益は、2008年までには2004年の推定収入の倍以上の245億ドルに達するだろう。
この市場部門の全体規模と成長予測を前提とすると、仮想システム全般、特にビデオゲームの放送と視聴に関してはほとんど進歩が見られていない。たとえば、各種ビデオゲームを動かすための様々な仮想ビデオゲームコントローラが市販されており、このコントローラによりプレーヤはいろいろなボタン、ビデオゲームコントローラ、トリガ、および類似の命令手段を用いて、ゲームの仮想環境内を移動することができる。しかし、より有効でユーザの使いやすいビデオゲームコントローラを製造しようとする傾向がある一方で、第三者の視聴者にとっての、コントローラの動かしやすさと有効性をさらに向上させることが強く望まれている。
特に、上記ビデオコントローラを使用してプレーヤはビデオゲームの仮想環境内で移動することができるが、ゲームの第三者をプレイアクションの観察者としてビデオゲームの仮想環境内で移動させることは非効率であり使いづらい。さらに、専門的に操作され編集される視聴環境は、仮想システムのファンにほとんど利用可能となっていない。必要とされるのは、ビデオゲームなどの仮想システムのファンが、アクション満載の、リアルタイムまたはディレイドタイムの、専門的に編集され視聴可能なビデオ画像を視聴できる装置、方法、およびシステムである。より一般的に、必要とされるのは、人や機械が仮想環境への情報入力または仮想環境からの情報出力をより性格に、そしてより専門的に生成、視聴、処理、記憶、検索、分析、および最適化することのできる装置、方法、およびシステムである。
従来技術の1つまたは複数の欠点に対処するため、開示される実施形態は、仮想環境を視聴し、それ以外の方法で操作する装置、方法、およびシステムを提供する。1つまたは複数の実施形態では、仮想環境への情報入力または仮想環境からの情報出力を生成、視聴、処理、記憶、検索、分析、および最適化するための部品が提供される。
1つまたは複数の実施形態では、部品は、たとえば、ビデオカメラ部品を含むことができる。ビデオカメラ部品は、スタンドアロン機器であってもよいし、三脚に搭載可能な装置またはその他のカメラ搭載装置であってもよい。そのビデオカメラ部品によって、カメラマンなどのユーザは、実行されているビデオゲームなどの仮想環境内で1つまたは複数の視像を選択し、仮想環境の範囲内で代替の視像を提供することができる。
各ビデオカメラ部品によって、たとえばカメラマンとしてその部品を操作する人は、複数の視像から選択し、予め定義された、あるいはユーザの定義する方法でビデオカメラ部品を操作することができる。例となる運動には、左回転または右回転、斜め上または斜め下、左右前後への移動(たとえば、追跡運動)、左右回転移動、ズームインまたはズームアウト、および上方または下方のカメラ位置調整(たとえば、クレーン運動)などがある。
一実施形態では、ビデオカメラ部品は、現実世界の事象からのビデオキャプチャを非常に厳密に真似た仮想環境内からビデオキャプチャを提供するように設計されている。したがって、ビデオカメラ部品によって、プロの映画カメラマンは視像を抽出し、映画技術において認められている装置を採用することで、結果的に実社会の事象のビデオキャプチャの特性を有する仮想環境のビデオ画像を得ることができる。
開示された実施形態では、相関する装置、方法、およびシステムによって、1人または複数のディレクタが、上記ビデオカメラ部品によって提供される複数の視像、およびディレクタやビデオゲームプレーヤなどの仮想環境に主に関与する個人によって操作される1つまたは複数のコントローラによって決定される視像を含む追加の視像間で選択することができる。選択はリアルタイムでもディレイドタイムでも実行することができ、その結果、現実世界の事象に関するプロのビデオキャプチャの特性を持った、仮想環境のプロ級のデジタルビデオ画面が得られる。1例として、ビデオゲームの直接対戦中、スポーツテレビのディレクタはビデオゲーム内に複数のスポーツカメラマンを配置し、複数のカメラライブスイッチを指示して、エキサイティングな観客の体験を提供する。
開示されている実施形態は上記の例に限定されず、たとえば、仮想現実感システム、拡張現実感システム、ビデオゲームシステム、および仮想映画など、現実世界の入力/出力および人工知能またはその派生物で拡大される、あるいはそれらに基づくシステムを含め、いかなる仮想タイプの環境にも適用可能である。
たとえば、開示されている実施形態は、診断テストのための様々な観点から仮想ビデオを抽出し、手術用のレーザ手術具への出力を提供するために、個人の人体内から撮ったビデオフィルムへのまたはビデオフィルムからの、ディレイドタイムまたはリアルタイムでの入力および出力を抽出、処理、および記憶するために使用することができる。別の実施形態としては、(i)デジタル映画制作、(ii)戦争ゲーム中の軍装備品と人員の準備のシミュレーション、(iii)パイロット用の飛行シミュレーション訓練、(iv)生物学的、化学的、および分子的分析用のモデル化シミュレーション、(v)建築家、建設業者、政府の登記当局の図表描画に関連するシミュレーション、および(vi)企図することのできる他のシミュレーション、などがある。
他に定義されていない限り、本明細書で使用されるすべての技術的および科学的用語は、開示される実施形態が属する業界の当業者によって一般的に理解されるのと同じ意味を有する。用語が単数形で提示される場合、発明者はその用語の複数形も意図している。
すべての見出しは読者の都合のために付されており、明記されない限り、見出しに続く本文の意味を限定してはならない。開示される実施形態の精神および範囲を逸脱せずに、開示される実施形態に様々な変更や発展を加えることができる。したがって、開示される実施形態は、明細書に、または例に示されるような、具体的に説明される実施形態に限定されるとは意図されず、請求項に示されるようにのみ意図される。
開示される実施形態の別の目的および利点は、添付の図面と協働して解釈される際、自明になるであろう。開示される実施形態の範囲を完全に理解するために、開示される実施形態の各種側面が組み合わされて、本発明の所望の実施形態を成すものと認識される。
本発明の上記およびその他の特徴および利点は、添付図面に示されるように、以下の説明、特に本発明の好適な実施形態の説明から自明であろう。添付図面では、同じ参照符号は通常、同一の、機能的に類似の、および/または構造上類似の構成要素を示す。対応する参照符号内の最も左の桁は、構成要素が最初に出現する図面を示す。
目次
I.実施形態
II.ノード−ノード環境
III.マシン命令環境
IV.コンピュータハードウェア環境
V.クライアント−サーバ環境;インターネット
VI.実施形態
VII.結論
I.実施形態
以下、具体的な例、環境、および実施形態について説明するが、これは単に説明目的のためであると理解されたい。当業者であれば、本発明の精神と範囲を逸脱せずに、他の部品や構成を使用できることを認識しているだろう。実際、以下の説明に目を通せば、別の例、環境、および実施形態で本発明を実施する方法は、当業者にとって自明であろう。
II.ノード−ノード環境
一または複数の実施形態では、本発明はコンピュータネットワーク環境下で実現される。ネットワークは、民間ネットワーク、公共ネットワーク(たとえば、後述するようにインターネット)、または両者の組み合わせを含むことができる。ネットワークはハードウェア、ソフトウェア、または両者の組み合わせを含む。
当業者が認識するように、高レベルな遠距離通信重視の見解からすると、ネットワークは各ノードで1つまたは複数のプロセス(ハードウェア、ソフトウェア、ファームウェア、またはその組み合わせ)が機能する通信設備によって相互接続される1組のハードウェアノードと説明することができる。プロセスは、プロセス間通信路と呼ばれる通信路を介して互いに情報を相互通信しやり取りすることができる。
これらの通信路上では、適切な通信プロトコルが使用される。当業者であれば、ハードウェア、ソフトウェア、およびファームウェア間の違いは容易には定義できず、いずれかを使用して前もって形成可能な同じまたは同様の機能を有することを認識しているであろう。このことは、プロセス間の通信に関連付けられる機能性については特に当てはまる。
図1は、典型的なコンピュータおよび遠距離通信ネットワーク環境100を示す。環境100は、ハードウェア、ソフトウェア、ファームウェア、またはハードウェアとソフトウェアの組み合わせを含む、ノード102、104、106、108を有する。ノード102〜108は、通信ネットワーク120を介して相互接続される。通信ネットワーク120は、1つまたは複数の無線ネットワーク122、および通信路を通じてともに相互接続される1つまたは複数の電話網124を含む。
各ノード102〜108は、ノードに組み込まれるプロセッサ110によって実行可能な1つまたは複数のプロセス112、114を含む。プロセス112、114は、ノード102〜108上にある、あるいはノード102〜108から離れた1つまたは複数のプロセッサ112、114によって操作可能かどうかに関わらず、アプレット、アプリケーション、モジュール、プロセス、および上記の下位要素の形式で、ソースコード、バイナリコード、機械コードを含む、ハードウェア、ファームウェア、またはソフトウェアの組み合わせを含む実行可能な命令を有する。
単一プロセス112を多重プロセッサ110によって行う、あるいは多重プロセス112、114を単一プロセッサ110によって行うことが可能である。プロセッサ110は、特定用途向け集積回路(「ASIC」)、チップセット、プロセッサ、マイクロプロセッサ、論理回路、およびその他のデータ処理装置を含み、読出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、EPROM、EEPROM、フラッシュメモリセル、および、ノード102上にあるか、ノード102から離れている磁気媒体、光学媒体、テープ、またはソフトあるいはハードディスクなどの補助または三次記憶装置を含む関連メモリと結び付いて機能するプロセッサの組み合わせを備えることができる。
さらに、ノード102〜108はそれぞれ、ネットワーク100と外界間のインタフェースポイントを提供することができる。また、ノード102〜108はそれぞれ、通信ネットワーク120の1つまたは複数の部分を有するサブネットワークの集合を組み込むことができる。その特徴および機能を以下に詳述する。1例として、プロセス112、114は、タスク、スレッド、および知的エージェントなどの作業を時間をかけて遂行するソフトウェアおよび/またはハードウェア構成要素を含む「ソフトウェア」プロセス112、114である。また、各プロセス112は、連続してまたは並行して、連続的にまたは断続的に命令を実行する多重プロセスを指すこともある。
一実施形態では、プロセス112、114は、任意の通信プロトコルによって通信をサポートするプロセス間通信路を介して互いに通信する。通信路は、連続してまたは並行して、連続的にまたは断続的に機能することができる。通信路は、多くのコンピュータによって使用される標準並列命令セットに加えて、通信ネットワーク120に関して後述するような通信基準、プロトコル、または技術のいずれも使用することができる。
ノード102〜108は、各処理機能を遂行することのできる構成要素を含む。記載される実施形態で使用可能なノード102〜108の例は、コンピュータ(パーソナルコンピュータ、ラップトップ、ワークステーション、サーバ、小型コンピュータ、大型コンピュータ、またはそれらの組み合わせなど)、携帯型の無線および/または有線装置(携帯電話、携帯用情報端末(PDA)、処理性能を有する最新の携帯電話、無線eメールおよび/またはBlackBerry(TM)などの双方向ポケベル)、文書処理装置(スキャナ、プリンタ、ファックス機、または多機能文書機械など)、上述されるようにプロセッサの集合が接続される複合構成要素(構内通信網または広域通信網)、および付属機器(有線および無線通信ポータル、モデム、PCMCIAカード、およびアクセス端末など)である。1例として、開示される実施形態の状況では、ノード自体は、広域通信網(WAN)、構内通信網(LAN)、私設網(仮想私設網(VPN)など)、または相互に接続され、上記環境下で動作する1つまたは複数の上記装置を有するネットワークの集合であってよい。
ノード102〜108間の通信は、通信ネットワーク120により行うことができる。ノード102〜108は、通信ネットワーク120で連続的にも断続的にも接続できる。1例として、開示される実施形態の状況では、通信ネットワーク108は、十分な帯域と情報セキュリティを提供するデジタル通信インフラであってもよい。
通信ネットワーク120は、任意の種類の基準、プロトコル、または技術を用いて、任意の周波数で、電話網124を介する有線通信性能、無線ネットワーク122を介する無線通信性能、または両者の組み合わせを含むことができる。さらに、本発明では、通信ネットワーク120は、私設網(たとえば、VPN)であってもまたは公的ネットワーク(たとえば、インターネット)であってもよい。
無線ネットワーク122を全部または組み合わせて備えるネットワークの包括リストは、携帯電話網;Bluetooth (R)テクノロジーネットワーク;広帯域網;マイクロ波ネットワーク;衛星ネットワーク;短距離無線ネットワーク;家庭用無線周波数(HomeRF)ネットワーク;赤外線データ通信標準化団体(IrDA)などの赤外線ネットワーク;共通無線アクセスプロトコル(SWAP)ネットワーク;および陸上移動無線ネットワークを含む。
通信ネットワーク120によって使用される典型的な無線プロトコルの非包括リストは、BlueTooth (TM);民間通信サービス(PCS);公衆または民間インターネット;公衆または民間イントラネット;無線フィダリティアライアンス(Wi−Fiアライアンス);無線イーサネット(登録商標)コンパティビリティアライアンス(WECA);802.11;短距離無線、マイクロ波、または赤外線(赤外線データ通信標準化団体(IrDA)など)、衛星ネットワーク;家庭用無線周波数(HomeRF);共通無線アクセスプロトコル(SWAP);陸上移動無線;地球規模のモバイル通信システム(GSM);汎用パケット無線サービス(GPRS)、携帯デジタルパケットデータ(CDPD)、モバイルソリューションプラットフォーム(MSP)、マルチメディアメッセージ(MMS)、無線アプリケーションプロトコル(WAP)、符号分割多元接続(CDMA)、広帯域符号分割多元接続(WCDMA)、ショートメッセージサービス(SMS)、無線用マーク付け言語(WML)、ハンドヘルド装置マーク付け言語(HDML)、無線用バイナリ実行時環境(BREW)、無線アクセスネットワーク(RAN)、およびパケット交換コアネットワーク(PS−CN)である。
様々な世代の無線技術も含まれる。これらの世代の無線技術には、1G、2G、2.5G、3G、および4Gなどがある。IGは、1970年代および1980年代の第1世代広域無線(WWAN)通信システムを指す。これらの装置はアナログで、音声転送と回路切換用に設計されており、AMPS、NMT、およびTACSを含む。2Gは、1990年代の第2世代WWAN通信を指し、デジタルで、音声およびデータ転送可能であることを特徴とし、HSCSD、GSM、CDMA IS−95−A、およびD−AMPS(TDMA/IS−136)を含む。2.5Gは、2Gと3G間の世代のWWANを指す。3Gは、最近登場した第3世代のWWAN通信システムを指し、144Kbps〜2Mbps超(高速)のデータ転送速度を特徴とし、パケット切換型で、マルチメディアコンテンツを可能とし、GPRS、1xRTT、EDGE、HDR、W−CDMAを含む。4Gは、2006〜2010年に登場すると予測される第4世代のWWAN通信システムで、超高速(20Mbps超)を特徴とし、ビデオの高解像度を可能にする。
通信ネットワーク120によって使用される主に有線のプロトコルおよび技術の典型的な非包括リストは、非同期転送モード(ATM)、高度内部ゲートウェイルーティングプロトコル(EIGRP)、フレームリレー(FR)、高レベルデータリンク制御(HDLC)、インターネット制御メッセージプロトコル(ICMP)、内部ゲートウェイルーティングプロトコル(IGRP)、インターネットワークパケット交換(IPX)、ISDN、ポイントツーポイントプロトコル(PPP)、伝送制御プロトコル/インターネットプロトコル(TCP/IP)、ルーティング情報プロトコル(RIP)、およびユーザデータグラムプロトコル(UDP)を含む。当業者が認識するように、その他の既知の、または予想される無線または有線のプロトコルおよび技術を使用することができる。
さらに、プロセス112、114、およびプロセッサ110は、同一の物理的位置に配置する必要はない。すなわち、各プロセッサ112、114はそれぞれたとえば、LANまたはWAN接続で、1つまたは複数の地理的に離れたプロセッサ110において実行することができる。当業者であれば、様々なネットワーキングハードウェアおよびソフトウェア構成を用いて本発明を実行する広範な可能性を理解するであろう。
図2Aは、電話網124の典型的な実施形態を示すブロック図である。図2Aは、通信ネットワーク120の電話網124内の構内通信網(LAN)202を示す。具体的には、LAN202は管理サーバ204、パーソナルデスクトップコンピュータ206、データモジュール208、およびデータバス212で接続される大型コンピュータ210を含む。LAN202は、他のネットワーク部品および/または通信ネットワーク120内の無線ネットワーク122のノード102〜108に接続される。LAN202は、電話網124内の1つまたは複数のノード102〜108、あるいは電話網124の1つまたは複数のネットワーク部品を含むことができる。
管理サーバ204またはコンピュータ206は、1つまたは複数のノード102〜108から収集されるデータを含む収集データを記憶するための別個のデータバンク208を有するLAN212で通信を行うことができる。大型コンピュータ210はデータサーバであってもよい。たとえば、データサーバ210は管理サーバ204またはコンピュータ206と通信して、データフロー制御および後処理性能を提供することができる。管理サーバ204、データバンク208、およびデータサーバ210は、セルラー遠距離通信サービスを提供するのに必要な他のネットワーク部品とともに、図示されるネットワーク上に配置することができる。一実施形態では、管理サーバ204、コンピュータ 206および/またはデータサーバ210は、安定したLAN、WAN、またはその他の類似ネットワーク上でインターネットなどのデータリンクを通じて無線ネットワーク122と通信する。
図2Bは、通信ネットワーク120の無線ネットワーク122の典型的な実施形態を示すブロック図である。無線ネットワーク122は、1つまたは複数の無線装置222、224、226、および228に無線で接続される1つまたは複数の基地局サブシステム(BSS)214、216、218に無線で接続される1つまたは複数の移動交換センター(MSC)220を含む。無線ネットワーク122は、通信ネットワーク120内の1つまたは複数のノード102〜108あるいは通信ネットワーク120の1つまたは複数のネットワーク通信要素(無線ネットワーク122)を備えることができる。
MSC220は、各コールがコールのルーティングを制御するために接続される中央交換局である。MSC220によって、無線装置222〜228は、連続して配置されたセルで、コールからセルへ自由に移動することができる。BSS214〜218は、基地局コントローラ(BSC)と呼ばれる1つまたは複数の移動制御処理装置によって制御される無線装置移動局への無線インタフェースを処理するためのトランシーバおよびアンテナを含む、無線ネットワーク内の陸上局である1つまたは複数の基地トランシーバ局(BTS)から成る。無線ネットワーク122はデータ、交換音声通信、または両者の組み合わせを保持することができる。たとえば、無線ネットワーク122は、データ転送用のインターネット部と、音声情報転送用の交換音声サービス部とを含むことができる。
一または複数の実施形態では、無線装置222〜228は、高度な計算能力に対応するように製造された最新の携帯電話を含み、個々のパーソナルコンピュータやハンドヘルドPDAを備えることができる。無線装置222〜228は、無線ネットワーク122で、音声およびデータパケットを通信できる。一実施形態では、無線装置222〜228は局所または遠隔でアクセス可能な処理プラットフォーム上のアプリケーションプログラミングインタフェース(API)を含み、無線装置222〜228上で動作し、装置の機能を制御するソフトウェアアプリケーションを可能にする。
III.マシン命令環境
一または複数の実施形態では、開示される実施形態に関連するステップがマシン実行可能な命令で具体化される。命令は開示される実施形態のステップを遂行するため、命令でプログラムされる処理装置、たとえば汎用または専用プロセッサに遂行させるために使用することができる。
もしくは、開示される実施形態のステップは、ステップを遂行するためのハードワイヤード論理を含む特定のハードウェア部品によって、またはプログラムされたコンピュータ部品とカスタムハードウェア部品との組み合わせによって実行することができる。
たとえば、開示される実施形態は、コンピュータプログラムプロダクトとして提供可能である。この環境では、開示される実施形態は、命令を記憶するマシン読出し可能な媒体を含むことができる。命令は、開示される実施形態に従いプロセスを遂行するプロセッサ(またはその他の電子機器)をプログラムするのに使用することができる。
マシン読出し可能な媒体は、たとえば、フロッピー(登録商標)ディスク、光ディスク、DVD、CD−ROM、および磁気光ディスク、ROM、RAM、EPROM、EEPROM、磁気または光カード、または電子命令を記憶するのに適したその他の種類の媒体/マシン読出し可能媒体であるが、これらに限定されない
また、開示される実施形態は、コンピュータプログラムプロダクトとしてダウンロードすることもできる。ここで、プログラムは通信リンク(たとえば、モデムまたはネットワーク接続)を介して搬送波またはその他の伝搬媒体で具体化されるデータ信により、遠隔コンピュータ(たとえば、サーバ)から要求するコンピュータ(たとえば、クライアント)に転送することができる。
IV.コンピュータハードウェア環境
一実施形態では、図3Aのシステム300に示されるように、各ノード102〜108はバス302と、バス302と通信する1つまたは複数の部品とを備える。具体的には、図示されるように、部品はプロセッサコンポーネント304、メモリコンポーネント306、通信コンポーネント308、入力/出力コンポーネント310、およびグラフィックス/音声コンポーネント312を備えることができる。図3B〜8を参照して、上記部品の特徴および機能を以下さらに詳細に説明する。
図3Bはシステム300の一実施形態を示し、システム300における典型的なノード102は、付属および関連コンポーネント、特徴、および機能を有する一般的なコンピュータシステム301である。コンピュータシステム301のプロセッサコンポーネント304はプロセッサ314を含み、コンピュータシステム301のグラフィックス/音声コンポーネント312はインタフェース316、表示装置318を含む。グラフィックス/音声312はグラフィカルユーザインタフェース334と周辺装置336も含み、追加でグラフィックスサブシステムを含んでもよい。
コンピュータシステム301のメモリコンポーネント306および入力/出力コンポーネント310は、主メモリ320、二次メモリ322(ハードディスクドライブ324、可換型記憶ドライブ326、およびインタフェース328)、および可換型記憶部330、332を含むように組み合わされる。
コンピュータシステム301の通信コンポーネント308は、通信インタフェース338と通信路340を含む。コンピュータシステム301は、通信路340を介して外部ネットワークに接続される。この例のコンピュータシステムに関して、各種実施形態について説明する。この説明に目を通せば、当業者にとっては、他のコンピュータシステムおよび/またはコンピュータアーキテクチャを用いて本発明を実行する方法は自明であろう。
多重プロセッサを表すことのできるプロセッサ314は、通信バス302に接続される。表示インタフェース316は、表示部318に表示するため、バス302からグラフィックデータを転送する。このグラフィックデータは、本明細書に記載されるスクリーン表示装置用のグラフィックデータを含む。
主メモリ320はランダムアクセスメモリ(RAM)であってもよく、二次メモリ322を含むことができる。開示される実施形態では、二次メモリ322はたとえば、ハードディスクドライブ324および/または、フロッピーディスクドライブ、磁気テープドライブ、光ディスクドライブなどの可換型記憶ドライブ326を含むことができる。可換型記憶ドライブ326は十分既知な方法で、可換型記憶部330から読み出し、および/または可換型記憶部330に書き込む。可換型記憶部330の代表的なものはフロッピーディスク、磁気テープ、光ディスクなどで、可換型記憶ドライブ326によって読み出され、書き込まれる。認識されるように、可換型記憶部330はコンピュータソフトウェアおよび/またはデータを記憶するコンピュータ利用可能な記憶媒体を含む。
別の実施形態では、二次メモリ322は、コンピュータプログラムまたはその他の命令をコンピュータシステム301にロードさせる他の類似手段を含むことができる。この手段は、たとえば可換型記憶部332とインタフェース328を含んでよい。開示される実施形態では、実施例は(ビデオゲーム機器に見られるような)プログラムカートリッジおよびカートリッジインタフェース、可換型メモリチップ(EPROMやPROMなど)および関連ソケット、その他の可換型記憶部332、および可換型記憶部332からコンピュータシステム301にソフトウェアとデータを転送させるインタフェース328を有することができる。
グラフィックユーザインタフェースモジュール334は、周辺装置336からバス318へユーザ入力を転送する。これらの周辺装置336は、マウス、キーボード、タッチスクリーン、マイクロフォン、ビデオゲームコントローラ、ペン、ライトペン、またはその他の種類の周辺ユニットであり得る。周辺装置336は、グラフィックスサブシステムまたはエンジンを含むことができる。ここで、グラフィックスサブシステムは1つまたは複数のプロセッサチップとして実装することができる。実際に、グラフィックスサブシステムは、図3に示されるようにプロセッサ314の一部として含めることも可能である。グラフィックデータはグラフィックスサブシステムからバス302に出力される。
コンピュータシステム301は、通信インタフェース338も含むことができる。通信インタフェース338によって、通信路340を介してソフトウェアとデータを、コンピュータシステム301と外部機器間を転送することができる。開示される実施形態で利用可能な通信インタフェース338の例には、標準またはケーブルモデム、DSL接続、ネットワークインタフェース(イーサネットカードなど)、通信ポート、LAN接続、WAN接続などがある。通信インタフェース338を介して転送されるコンピュータプログラムおよびデータは、電気信号、電磁信号、光信号、または通信路340を介して通信インタフェース338により受け入れられるその他の信号の形式をとる。通信インタフェース338が、コンピュータシステム301がインタフェースをインターネットなどのネットワークに結び付けて接続する手段を提供することに注意されたい。
開示される実施形態は、プロセッサ314上で動作するコンピュータプログラム(すなわち、「ソフトウェア」または「コンピュータ制御論理」)を用いて実行することができる。ソフトウェアは最初、可換型記憶装置330またはハードディスクドライブ324上の「コンピュータプログラムプロダクト」として記憶することができる。したがって、コンピュータプログラムプロダクトは、ソフトウェアをコンピュータシステム301に提供する手段を指す。
コンピュータプログラムは、主メモリ320および/または二次メモリ322に記憶することができる。コンピュータプログラムは、通信インタフェース338を介して受け入れられることもできる。このようなコンピュータプログラムが実行されることで、コンピュータシステム301は本明細書に記載されるような開示される実施形態の特徴を実行することができる。特に、コンピュータプログラムが実行されることで、プロセッサ314は開示される実施形態の特徴を遂行できる。
別の実施形態では、開示される実施形態は、たとえば、アプリケーション特定集積回路(ASIC)などのハードウェア部品を用いて、主にファームウェアおよび/またはハードウェア内に実装される。本明細書に記載の機能を遂行するハードウェア状態機械の実装は、当業者にとっては自明であろう。
図示される実施例の環境では、通信インタフェース338は、通信路340を介して地域通信網348に接続される双方向データ通信を提供する。たとえば、通信インタフェース338が総合サービスデジタル通信網(ISDN)カードまたはモデムである場合、通信インタフェース338は、通信路340の一部を成す、対応する種類の電話線へのデータ通信接続を提供する。通信インタフェース338が構内通信網(LAN)カードである、あるいはLAN348に接続する場合、通信路340を介してコンパチブルLANへのデータ通信接続を提供することができる。無線リンクも可能である。このような実施の場合、通信インタフェース338は様々な種類の情報を示すデジタルデータストリームを担持する電気、電磁、または光信号を送受信する。
通信路340は、1つまたは複数のネットワークを通じて他のデータサービスへのデータ通信を提供する。たとえば、開示される実施形態では、通信路340は、地域通信網348を通じてホストコンピュータ350へ、またはインターネットサービスプロバイダ(ISP)346により動作するデータ機器への接続を提供することができる。次に、ISP346は、「インターネット」344と通常呼ばれる全世界的なパケットデータ通信ネットワークを介したデータ通信サービスを提供する。
地域通信網348とインターネット344はどちらも、デジタルデータストリームを担持する電気、電磁、または光信号を使用する。様々なネットワークを通る信号と通信路340上および通信インタフェース338を通過する信号は、コンピュータ301とやり取りされるデジタルデータを担持する、典型的な形式の搬送波移送情報である。
コンピュータシステム301は、ネットワーク、通信路340、および通信インタフェース338を通じてメッセージを送信し、データとコンピュータプログラムを受信することができる。使用されるネットワークがインターネットの場合、サーバ342は、インターネット344、ISP346、地域通信網348、および通信路340を通じてアプリケーションプログラムに関して要求されるコードを送信することができる。このようなアプリケーションの例は、以下詳述するように、アプリケーションサーバとデータベースサーバによって実行されるアプリケーションプログラムである。
図4〜8はシステム300の別の組の実施形態を示す。それらの図中においてシステム300は付属および関連のコンポーネント、特徴、および機能を含め、強力なグラフィックス描画性能を有するビデオゲームコンソールまたはその他のコンソールを備えるノードである。特に、ここでは、典型的なノード102は、(i)図4のメモリコンポーネント、(ii)図5の通信コンポーネント、(iii)図6の入力/出力コンポーネント310、(iv)図7のプロセッサコンポーネント304、および(v)図8のグラフィックス/音声コンポーネント312を含むビデオゲームコンソールである。
図4〜8および以下の説明は、開示される実施形態を実行する適切な計算環境の概略的かつ一般的な説明を提供することを目的とすることに注意されたい。その環境とは、開示される実施形態が、たとえば、ハードウェア装置や、プログラムモジュール内に構成されるコンピュータ実行可能な命令であり、モジュールはルーチン、プログラム、オブジェクト、コンポーネント、タスクを遂行し必要なデータ種類を実行するデータ構造を含む。
システム300は強力なグラフィックス描画性能を有するビデオゲームコンソールまたはその他のコンソールを備えるノードとして説明したが、開示される実施形態は、たとえば、ハンドヘルド装置、マルチプロセッサシステム、マイクロプロセッサベースの、またはプログラム可能な家電製品、小型コンピュータ、大型コンピュータなどを含むその他のコンピュータシステム構造で実施されてもよい。
開示される実施形態は、通信ネットワークを通じてリンクされる遠隔処理装置によってタスクが遂行される分散計算環境でも使用することができ、プログラムモジュールは局所および遠隔メモリ記憶装置の両方に配置することができる。
したがって、1つまたは複数の実施形態では、システム300は、ビデオゲームコンソールを備えるノード102〜108である。1例として、システム300は、パーソナルコンピュータ(PC)ベースのビデオゲーム、または特に適したビデオコンソールを備えることができる。特に適したビデオコンソールの1例が、Sony Computer Entertainment Inc .製のPlaystation2(TM)である。特に適したビデオコンソールの別の例は、Microsoft Corporation 製のXbox(TM)である。当業者であれば、上記ビデオゲームコンソールは例示のために提示されたもので、現実施形態は上記ビデオゲームコンソールに限定されず、いかなる種類のビデオゲームコンソールも含むことができると認識しているだろう。
最初に図4を参照すると、システム300のメモリコンポーネント306は、バス302に接続される主メモリ402と二次メモリ404とを含み、主メモリ402は一次メモリ404と読出し専用メモリ406とを有し、一次メモリ404は動作システム408、アプリケーション/モジュールコンポーネント410、およびデータコンポーネント412を含むように図示される。二次メモリ404はハードドライブ414と、ハードドライブ414からシステムバス302につながるインタフェース416とを含む。
バス302は、いかなる種類のコンピュータバス構造も含むことができる。たとえば、メモリバスまたはメモリコントローラ、周辺バス、およびPCI、VESA、MicroChannel(MCA)、ISA、およびEISAなどのバスアーキテクチャを用いるローカルバスである。メモリコンポーネント306は、読出し専用メモリ(ROM)406と主メモリ(たとえば、ランダムアクセスメモリ(RAM))402を含む。ROM406は、たとえばシステム300の起動中に、システム300内のコンポーネント間での情報交換を助ける基本ルーチンを含む基本入出力システム(BIOS)を記憶する。主メモリ402は、動作システム408、1つまたは複数のアプリケーションプログラムおよびモジュール410、およびプログラムデータ412を含むことができる。
一または複数の実施形態では、二次メモリ404のハードドライブ414は、動作システム408、アプリケーションプログラムおよびモジュール410、およびプログラムデータ412(図示せず)も記憶することができる。ハードドライブ414は、ハードドライブインタフェース416を介してバス302に接続される。
図5は、システム300の通信コンポーネント308を示す。通信コンポーネント308は、シリアルインタフェース502、モデム504、およびネットワークインタフェースまたはアダプタ506を含む。広域ネットワーク(WAN)508、構内通信網(LAN)510、および遠隔プロセッサ512も示されている。図示されるネットワーク接続は単に例示目的であって、多数の様々な種類の通信接続をシステム300については選択的に提供することができる。
システム300は、遠隔プロセッサ512などの1つまたは複数の遠隔プロセッサへの論理接続を用いるネットワーク環境で動作することができる。遠隔プロセッサ512は、サーバ、ルータ、同位装置またはその他の共通ネットワークノードであってよく、システム300に関して記載されるコンポーネントの多くまたはすべてを含むことができる。論理接続は、図示されるLAN510やWAN508接続などである。
LANネットワーク環境で使用されるとき、システム300はネットワークインタフェースまたはアダプタ506を介してLAN510に接続される。WANネットワーク環境で使用されるとき、システム300は、インターネットなどのWAN508上での通信を確立するためのモデム504またはその他の装置を含むことができる。モデム504は、システム300の内部にあっても外部にあってもよい。モデム504は、シリアルインタフェース502を介してバス302に接続される。ネットワーク環境では、遠隔プロセッサ512に対応付けられる1つまたは複数のメモリが、システム300(またはその一部)に関するプログラムモジュールを記憶することができる。
図6にシステム300の入力/出力コンポーネント310を示す。入力/出力コンポーネント310は、フロッピーディスクドライブ604、CD−ROMディスクドライブ608、キーボード612、マウス614、ゲームコントローラ618、ビデオカメラ部品1044、1046、1048、1050、1052、1054(図10を参照)、モニタ620、および上記要素のための各インタフェース602、606、610、および616を含む。ハードドライブ414と、そのバス302へのインタフェース416(図4)はここに図示しないが入力/出力コンポーネント310に任意に含めることができることに注意されたい。
図示されるように、システム300は、可換的ディスクに対して読出および書込するフロッピーまたはその他の磁気ディスクドライブ604、およびその他の光学媒体に対して読出および書込するCD−ROMまたはその他の光ディスクドライブ608を含む。フロッピードライブ604およびCD−ROMドライブ608はそれぞれ、典型的な磁気ディスクドライブインタフェース602および光ディスクドライブインタフェース606によってシステムバス302に接続される。一実施形態では、各ドライブに配置されるコンピュータ読出し可能媒体は、実行可能なファイルおよびリンクライブラリを備えるプログラムコードを含む、データとコンピュータ実行可能な命令の不揮発性記憶を提供する。フラッシュメモリカード、デジタルビデオディスク、および磁気カセットなど、システム300により読み出し可能な他の媒体も含めることができる。
システム300のユーザは、キーボード612およびマウス614のようなポインティングデバイスによってシステムに指令と情報を入力する。他の入力装置は、たとえば、ゲームコントローラ618、およびビデオゲームコントローラ、ゲームパッド、および1つまたは複数のビデオカメラ部品1044〜1052などのその部品である。図10を参照しつつ、その特徴と機能を以下詳細に説明する。追加の入力装置(図示せず)は、マイクロフォン、衛星アンテナ、およびスキャナを含むことができる。上記の入力装置およびその他の入力装置は、システムバス302に連結されるインタフェース610、616を通じてプロセッサコンポーネント304に接続することができる。典型的なインタフェースは、シリアルポートインタフェース、パラレルポートインタフェース、ゲームポートインタフェース、および汎用シリアルバス(USB)インタフェースなどである。
モニタ620またはその他の種類の装置は典型的なインタフェース616を介してシステムバス302に接続され、この場合、ディスプレイコントローラまたはビデオアダプタである。図示されていないその他の種類の周辺出力装置には、スピーカ、プリンタ、およびファックス機などが含まれる。
図7に、システム300のプロセッサコンポーネント304を示す。プロセッサコンポーネント304は、主プロセッサ702、画像プロセッサ704、および数値計算プロセッサ706を含む。主プロセッサ702はシステムバス302上でメモリコンポーネント306と相互作用し、システム全体の動作を制御する。画像プロセッサ704は、主プロセッサ702からの制御に基づきデータを生成し、システムバス302およびインタフェース616を介して入力/出力コンポーネント310のモニタ620にビデオ信号を出力する。数値計算プロセッサ706は、グラフィカルオブジェクトに対応する地理的形状およびその他のデータを処理するために、浮動点算出などを遂行する。
図8に、システム300のグラフィックス/音声コンポーネント312を示す。グラフィックス/音声コンポーネント312は、音声処理部802、音声バッファ804、グラフィックスインタフェース808、および画像プロセッサ810を含む。画像プロセッサ810は、レンダリングエンジン812、メモリインタフェース816、ディスプレイコントローラ814、および画像メモリ818を含む。
図8は、音声プロセッサ802およびディスプレイコントローラ814に接続されるモニタ620を示す。記載されるように、入力/出力コンポーネント310の下位要素であるモニタ620への実際の接続は、システムバス302、および、たとえば、音声データに関しては音声プロセッサ802用の音声インタフェース(図示せず)、画像データに関しては画像プロセッサ810用のグラフィックスインタフェース808を介して行われる。
音声プロセッサ802は、システムバス302上で主プロセッサ702からの命令に基づき音楽およびその他の音声効果を生成する。音声バッファ804は、波形データを記録するために音声プロセッサ802によって使用される。音声プロセッサ802の出力は、システムバス302を介して、入力/出力コンポーネント310内のスピーカ(図示せず)またはモニタ620などの出力装置に送られる。
グラフィックインタフェース808は、主プロセッサ702と画像プロセッサ810間のシステムバス302上での変換、または、数値計算プロセッサ706と画像プロセッサ810間のシステムバス302上での変換のためのインタフェースである。
画像プロセッサ810は、レンダリングエンジン812、メモリインタフェース816、ディスプレイコントローラ814、および画像メモリ816を含む。ディスプレイコントローラ814は、たとえば、プログラム可能CRTコントローラであってもよい。画像メモリ818は、たとえば、テクスチャレンダリングリージョンおよび表示レンダリングリージョンが同一の領域に設定され、レンダリングエンジン812がメモリインタフェース816を介して画像メモリ818内の所定のグラフィック画像データを描画する動作を実行。これらの動作は、システムバス302上でプロセッサコンポーネント304の主プロセッサ702から供給されるレンダリング指令に関連して、および該レンダリング指令に対応して実行される。
一実施形態では、メモリインタフェース816およびレンダリングエンジン812は第1のバスで接続され、メモリインタフェース816および画像メモリ818は第2のバスで接続される。上記バスのビット幅はグラフィックレンダリング技術の進歩と共に増加し、1例として、レンダリングエンジン812による高速レンダリングの場合128ビット幅である。一実施形態では、たとえば、レンダリングエンジン170は、たとえば、NTSCまたはPAL基準に準拠する、320×240画素または640×480画素の画像データをリアルタイムで描画することができる。たとえば、レンダリング速度は、1/60秒間隔(または1/30秒間隔)当たり数十倍になるかもしれない。
V.クライアント−サーバ環境;インターネット
一実施形態では、上記ノード102〜108、プロセッサ110、およびプロセッサ上で動作するプロセス112、114が、ネットワーク内での情報検索に関する機能のために説明される。
具体的には、情報を要求するノードは「クライアント」、要求された情報を送信するノードは「サーバ」と称される。1つのノードは、クライアントとサーバの両方の目的を果たす2重の役割を有する。
クライアント上で動作するプロセスはクライアントアプリケーション、サーバ上で動作するプロセスはサーバアプリケーションと称される。情報のやり取りは、情報またはサービスを提供するサーバアプリケーションと提供された情報またはサービスを受け取るクライアントアプリケーション間で行われる。
図9に典型的なクライアント−サーバ環境900を示す。クライアント−サーバ環境900は、国内外のいずれのネットワークでもよい上記通信ネットワーク120を含む。クライアント−サーバ環境900は、複数のクライアント904、906、908、および複数のサーバ910、912、914も含む。クライアント904〜908およびサーバ910〜914は、ネットワーク120に接続され、それぞれの情報検索機能により定義されるノードである。
クライアント904は、クライアント904に関連付けられるアプリケーションを要求する、あるいは受け取る情報であるクライアントアプリケーション916を含む。クライアントアプリケーション916は、クライアント904上で直接動作するか、あるいはクライアント904から離れてアクセス可能である。
サーバ910は、サーバ910に関連付けられる情報検索アプリケーションであるサーバアプリケーション918を含む。サーバアプリケーション918はサーバ910上で直接動作するか、あるいはサーバ910から離れてアクセス可能である。
典型的動作では、クライアントアプリケーション916は、クライアント904で実行される。それに応じて、クライアント904はネットワーク120上で送信される情報に関する要求を出す。要求は、サーバアプリケーション918を実行するサーバ910によって受け取られる。その後、要求された情報および/またはサービスは、ネットワーク120上でクライアント904に送り戻される。
言及したように、ネットワーク120は、民間あるいは公的のいずれでも、任意の種類のネットワークであってもよい。一または複数の実施形態では、環境300(ネットワーク120を含む)は、インターネットとワールドワイドウェブ(ウェブ)を指す。これらの実施形態では、クライアントおよびサーバは、インターネットおよびウェブにアクセス可能なフォーマットおよび媒体の情報を送信する。
インターネットは、プロトコルの伝送制御プロトコル/インターネットプロトコル(TCP/IP)セットを使用する相互接続された世界的システムのコンピュータネットワークを指す。また、TCP/IPは通常、(i)IP、つまり、一意のIPアドレスが各ネットワークとその各ホストを識別するネットワーク層プロトコル、(ii)TCP、すなわち、データ転送前に接続がハンドシェイクを介して確立される接続重視プロトコル、および(iii)テルネットおよびファイル転送プロトコル(FTP)を含む特定のアプリケーション層プロトコル、を備える1束のネットワークプロトコルを指す。
最も広く使用されるインターネットの部分は、電子メール(eメール)と上記ウェブである。ウェブは、世界中に配置されるコンピュータのネットワークである。これらの国際的なコンピュータネットワークは、ユーザがリソースを突き止めるためにアクセスするクライアントおよびサーバから構成することができる。
一実施形態では、すべてのクライアント304〜308とウェブのサーバ310〜314が相互通信することができ、通常はハイパーテキスト転送プロトコル(HTTP)と呼ばれる通信基準を使用する。HTTPはアプリケーションプロトコル、すなわちTCP/IPの上位で動作するウェブ上でファイルを交換するための1組の規則である。
ウェブ上の情報は、ウェブを有するサーバ310〜314に記憶されるファイルである、ウェブページと呼ばれる文書に記憶される。クライアント304〜308は。サーバ310〜314(具体的には、サーバ310〜314上で動作するサーバアプリケーション318)からウェブページを要求する。より具体的には、クライアント304〜308上で動作するクライアントアプリケーション316は、サーバ310〜314上で動作するサーバアプリケーション318からウェブページを要求する。
現実施形態では、クライアントアプリケーション316は通常ウェブブラウザと呼ばれる。開示される実施形態で使用可能な十分既知なブラウザ316はたとえば、Spry社のMosaic,Microsoft 社のInternet Explorer , Netscape 社のNavigator などである。ブラウザ316は、ウェブページおよびウェブページの送信に使用されるプロトコルを設計するために使用される様々なプログラム言語を理解することができる。
ウェブブラウザ316は、様々なレベルの精巧さと機能性を有する。情報の各画面は、強調表示された単語、グラフィックス、クライアント304〜308自体(ローカルファイルの場合)またはウェブ上に配置されるサーバ310〜314からさらなる情報を検索するためにユーザがハイパーリンク(すなわち「リンク」)することのできるメニュー選択などの項目を含む。表2は、当業者にとって既知な一般的なインターネット用語を含む。
ウェブブラウザ316内の検索された情報コンテンツを表示する方法は、主にフォーマットおよび表示言語に従う。開示される実施形態で使用可能なフォーマットおよび表示言語はたとえば、ハイパーテキストマークアップ言語(HTML)、拡張可能マークアップ言語(XML)、拡張可能ハイパーテキストマークアップ言語(XHTML)、および連鎖スタイルシート(CSS)などである。
HTMLは、ページを表示する方法をブラウザに伝えるマークアップタグを含むテキストファイルを作成するために使用される。HTMLファイルは「htm」または「html」ファイル拡張子を含んでいなければならず、簡易なテキストエディタを使用して作成することができる。XMLはマークアップ言語で、ユーザが独自のマークアップタグを定義するのを可能にする。XML内のマークアップタグは、HTMLの場合のように予め定義されない。XMLは、データを記載するのに文書種別定義(DTD)またはXMLスキームを使用する。HTMLがデータがどのように現れ、見えるかに焦点を当ててデータを表示するように設計されているのに対して、XMLはデータそのものに焦点をあて、情報を構成、記憶、および送信する能力を与えてデータを記載するように設計されている。XMLはウェブ文書用に特別に設計された、標準汎用マークアップ言語(SGML)の機能削減版である。SGMLは文書要素の構成とタグ付けのための包括的なシステムである。SGML特定のフォーマット化を指定するのではなく、タグ要素の規則を指定する。XHTMLは、HTML4.01として言及されるHTMLのバージョンと同じである。XHTMLはXMLアプリケーションとして定義されるHTMLで、厳密に定義されたHTMLバージョンに該当する。CSSは、文書をどのようにブラウザに対し表示または印刷すべきかを定義するスタイルシートページを設計するために使用される。CSSシートは、HTML文書自体に添付することができる。CSSによってサポートされるカスケードの特徴によって、単独の文書が、指定された優先順位に従い適用される2つ以上のスタイルシートを使用することができる。
サーバ310〜314からの検索情報をフォーマット化し、ネットワーク120上で検索情報を送信する方法は、プロトコルによって決定される。インターネット上で開示される実施形態を実行するため、上記HTTP、FTP、テルネットや、たとえば、インターネットリレイチャット(IRC)を含め、様々なプロトコルを使用することができる。
ウェブ上で使用されるメインプロトコル(すなわち、クライアントとサーバ間のファイルの移動と交換のための規則のセット)は、TCP/IPの上位で動作するファイルを交換するために設計されたHTTPである。HTTPはメッセージをどのようにフォーマット化し送信するかだけでなく、各種指令に応じてウェブサーバアプリケーション318とブラウザ316がどのような行動を取るべきかを定義する。
サーバアプリケーション318に配置されるウェブページをダウンロードするためにクライアントブラウザ316を使用する動作は、ウェブをナビゲートする、ウェブをブラウズする、またはウェブ上のウェブサイトにリンクすると呼ぶこともできる。各ウェブページは、ユニフォーム資源ロケータ(URL)と呼ばれるウェブアドレスを有する。したがって、ウェブページは、ウェブページのURLにリンクすること、およびブラウザ316にURLを表示することによって突き止められる。ユーザはURLと関連付けられたメニュー選択、強調表示された単語、またはグラフィックスを選択することにより、ウェブページにリンクすることができる。ユーザがユーザのブラウザ内でURLを入力する、あるいはそれ以外の方法でウェブサイトにリンクしようとすると、HTTP指令が適切なウェブサーバに送信させられて、要求されるウェブページを取り出し、送信するようにウェブサーバに命ずる。
VI.実施形態
明細書の以降の説明部分では、上記の項で説明した技術を具体的な種類の環境に適用する。仮想環境に対する情報の入出力の生成、視聴、処理、記憶、検索、分析、および最適化について実施形態を説明する。特に、仮想環境内の画像スナップショットおよびビデオ形式での情報の生成、視聴、処理、記憶、検索、分析、および最適化について実施形態を説明するが、実施形態は単に画像スナップショットおよびビデオの抽出には限定されず、仮想環境に対するいかなる情報の入出力にも使用することができる。
特定な種類の仮想環境は、上記に限定されないが、あらゆる仮想環境に適応しうる実施形態、(i)仮想現実感システム、(ii)拡張現実感システム、(iii)ビデオゲームシステム、(iv)仮想映画、および(v)現実世界の入力/出力および人工知能(AI)またはその派生物で拡大される、あるいはそれらに基づくシステムを含む。たとえば、開示されている実施形態は、診断テストのための様々な観点から仮想ビデオを抽出し、手術用のレーザ手術具への出力を提供するために、個人の人体内から撮った、ディレイドタイムまたはリアルタイムでのビデオフィルムへの入力およびビデオフィルムからの出力を抽出、処理、および記憶するために使用することができる。
追加の実施形態は、(i)デジタル映画制作、(ii)戦争ゲーム中の軍装備品と人員の準備のシミュレーション、(iii)パイロット用の飛行シミュレーション訓練、(iv)生物学的、化学的、および分子的分析用のモデル化シミュレーション、(v)建築家、建設業者、政府の登記当局の建造物の図表描画に関連するシミュレーション、および(vi)企図することのできる他のシミュレーション、を含む。
図10は、カリフォルニア州サンディエゴのGamecaster(TM)によって採用されるビデオゲーム大会の専門的な撮影に関する実施形態を示す。図10の環境1000は、2つの主要コンポーネント、すなわち、Gamecaster(TM)のGamecaster Cybercam (TM)設備1002とビデオゲームアリーナ1004とを含む。
アリーナ1004から始めると、2人のビデオゲームプレーヤ1010、1012が、ビデオゲーム入力指令を出し、ビデオゲーム内の背景から自身の行動を監視するためのコンソール1006、1008をそれぞれ用いて、一緒にリアルタイムまたはディレイドタイムでビデオゲームを行う。本明細書で使用されるように、コンソール1006、1008は、適用可能なテクノロジーやあらゆる種類のコンピュータ生成仮想環境などで使用されるように、物理装置1006、1008から遠く離れて処理および/または保管することもできる。アリーナ1004は円形のプレイフィールド1028を含み、そこでビデオゲームファンは座席区間1030、1032に着席して、プレーヤ1006、1008両者がプレイしているのを現実に見たり、頭の上の大スクリーン表示装置(図示せず)に表示される試合の様子を見たりする。
コンソール1006、1008によって(i)ビデオゲームプレーヤ1010、1012はたとえば、ビデオゲームコントローラ、光学装置などを介して指令を入力する既知の、または思いついた方法を採用することができる、および(ii)ビデオゲームプレーヤ1010、1012はビデオゲーム内からの1つまたは複数の視点で、2次元または3次元のフラットスクリーン表示装置、3次元のホログラフィック画像など既知の、または思いついた方法を採用するゲーム内からゲームの活動を視聴することができる。コンソール1006、1008に関連付けられる機能は、遠隔処理ハードウェア、ソフトウェア、ファームウェアなどによって遠隔から実行できることに注意されたい。
一実施形態では、ビデオゲームは、ビデオコンソール1006、1008プロセッサのうち1つまたは複数により実行される。ここで、たとえば、ビデオゲームプレーヤによって選択されるように、ビデオゲーム内からのビデオゲームプレーヤ1010、1012の視像は、ビデオ接続1039、1040でビデオコンソール1006、1008のプロセッサからビデオコンソール1006、1008のモニタに送信される。別の実施形態では、ビデオゲームが、ビデオゲームコンソール1006、1008から離れて配置される1つまたは複数のプロセッサによって実行される。ここで、たとえば、ビデオゲームプレーヤによって選択されるように、ビデオゲーム内からのビデオゲームプレーヤ1010、1012の視像は、ビデオ接続1039、1040で上記遠隔プロセッサからビデオコンソール1006、1008のモニタに送信される。1つまたは複数の上記実施形態では、ここに記載される接続は、有線、無線、または有線接続と無線接続の組み合わせによるデータ接続を指す。
ビデオゲームプレーヤ1010、1012によって選択される上記視像は、データ線1042上での配信のためにコンソールビデオゲーム表示装置からイーサネットデータハブ1041へ、データ線1035、1036でも送信される。一実施形態では、ハブ1041は、ビデオゲームを実行する1つまたは複数のプロセッサに1つまたは複数のデータ接続を設けることによって、ビデオゲームへのデータアクセスを提供する。したがって、データ線1042は、ハブ1041を介して実行されているビデオゲームへの、および該ビデオゲームからのアクセスを提供する。
一または複数の実施形態では、各ビデオコンソール1006、1008は、プロセス112、114を有し、ノードに常駐して、あるいはノードによって遠隔からアクセス可能に配置され、ノードに常駐して、あるいはノードによって遠隔からアクセス可能に配置され1つまたは複数のプロセッサ110で実行され、ビデオゲームの実行などの機能のために、ビデオゲームプレーヤ1010、1012からの入力を受け取り、実行されているビデオゲーム内から出力ビデオ画像を送信するノード102〜108(図1)を備える。ビデオゲームがビデオコンソール1006、1008から離れて実行される実施形態では、ビデオゲームは別のノード102〜108上で動作し、プロセス112、114の形で、ノードに常駐して、あるいはノードによって遠隔からアクセス可能に配置され、ノードに常駐して、あるいはノードによって遠隔からアクセス可能に配置される1つまたは複数のプロセッサ110上で実行される。したがって、前述の入力、出力及び処理関連部品はプロセッサ110を含むノード102から108と112、114それぞれのプロセスを参照して説明される別の構成や機能を有することができる。
さらに、1つまたは複数の実施形態では、データ接続1035、1036、1037、1038、1042、およびハブ1041、遠距離通信処理システム(ビデオコンソール1006、1008上で、またはそこから離れて動作する指示ハードウェア、ソフトウェア、および/またはファームウェアなど)などの関連処理ユニットは、通信ネットワーク120を含む。したがって、上記通信関連部品は、通信ネットワーク120を参照して説明される別の構成や機能を有することができる。1例として、ビデオゲームプレーヤ1010、1012、およびそれぞれのビデオコンソール1006、1008は、互いに離して、かつ、ビデオゲームが実行されている第3のノードから離して配置することができ、入力および出力は通信ネットワーク120を備えるデータネットワーク(たとえば、インターネット)上のデータ接続で送受信される。
たとえば、(i)ビデオゲームはビデオコンソール1006、1008上で実行する、あるいはインターネットやその他のデータ接続、通信ネットワーク120を介して該ビデオコンソールから離れて実行することができる、(ii)ビデオゲームプレーヤ1010、1012によってコンソール1006、1008上でモニタされるビデオゲーム内からの視像は、ビデオコンソール1006、1008上で実行されているローカルビデオゲームから、あるいは遠隔で実行されているビデオゲームから出力することができる、および(iii)ビデオゲームプレーヤ1010、1012によるコンソール1006、1008へのビデオゲーム指令は、ビデオコンソール1006、1008上で実行されているローカルビデオゲーム、あるいは上記遠隔で実行されているビデオゲームに入力することができる。
言及されるように、環境1000の第2の主要コンポーネントはGamecaster Cybercam 設備1002である。図示されるように、Gamecaster Cybercam (TM)設備1002はトラック設備だが、Gamecaster Cybercam (TM)設備1002はどのようなタイプの既知の設備であってもよい。
Gamecaster Cybercam (TM)設備1002は、1つまたは複数のカメラマン1016、1018、1020、1022、1024、1026を含み、それぞれがビデオカメラ部品1044、1046、1048、1050、1052、1054にアクセスできる。
ビデオカメラ部品1044〜1054によって、カメラマン1016〜1026は、カメラマン1016〜1026のそれぞれの希望とビデオカメラ部品1044〜1054の動作パラメータとに従い、プレイ中のビデオゲームを視聴することができる。その特徴と機能を以下詳細に説明する。
各カメラマン1016〜1026は、ビデオゲームないからの1つまたは複数の視像を表示するために、自身のビデオカメラ部品1044〜1054を予め設定する、あるいはリアルタイムで設定することができる。視像は、ビデオゲーム処理システムの作業機能に従い設定する、たとえば、インタフェース616を介してビデオカメラ部品1044〜1054からビデオゲームに送信される指令に従い(図6に示す)、おそらくは(図8に示されるグラフィックス/音声コンポーネント312の)画像プロセッサ810と組み合わせて、(図7に示されるプロセッサコンポーネント304の)主プロセッサ702内で実行するビデオゲームの観覧者モードを通じて設定することができる。
もしくは、別の実施形態では、ビデオカメラ部品1044〜1054の視像は、プログラムおよび/または(図7に示されるプロセッサコンポーネント304の)ビデオゲームプロセッサ702に送られる実行可能なコードに従い、おそらくは(図8に示されるグラフィックス/音声コンポーネント312の)画像プロセッサ810と組み合わせて、たとえばアプレットにより設定されて、カメラマン1016〜1026により希望されるパラメータに従い、およびビデオカメラ部品1044〜1054の動作パラメータに従い視像を起こさせることができる。
典型的なビデオカメラ部品1044に関して示されるように、データと指令はデータ線1042に接続されるデータ線1058によって、ビデオゲームを実行するプロセッサに対して送受信することができる。したがって、
(i)ビデオカメラ部品1044〜1054は、ビデオゲームを実行するプロセッサに指令を送り、ビデオカメラ部品1044〜1054上でカメラマン1016〜1026によってモニタされる視像を変更するように、カメラマン1016〜1026によって操作される、および(ii)データ線1042、1058上でビデオゲームを実行するプロセッサから送り戻される指令に基づき、所望に変更された視像が、ビデオカメラ部品1044〜1054のモニタ部品によりカメラマン1016〜1026に示される。
再びGamecaster Cybercam (TM)設備1002を参照すると、1つまたは複数の実施形態では、ビデオカメラ部品のどのような視像も、データ線1056でビデオコンソール1060、1062、1064、1066に送信することができる。1人または複数のディレクタ1014はそれぞれ、ビデオコンソール1060〜1066にアクセスし、その動作を制御することができる。
ビデオコンソール1060〜1066はそれぞれ、たとえばビデオコンソール1060のプロセッサ1070に関連付けられる表示装置1068として、各処理ユニットに関連付けられる表示装置を含む。しかしながら、ビデオコンソール1060〜1066の処理機能は、ビデオコンソール1060〜1066から離れて配置することも、該コンソールから離れてアクセス可能とすることもできる。
ビデオコンソール1060〜1066によって、ディレクタ1014はビデオコンソール1044〜1054から受信される、ビデオゲーム内からの視像をモニタすることができる。上述のように、カメラマン1016〜1026により操作されるビデオコンソール1044〜1054からのデータは、データ線1056を介してディレクタのビデオコンソール1060〜1066に送信される。
一または複数の実施形態では、また、典型的なビデオコンソール1060によって、ディレクタ1014はビデオゲーム内からの1つまたは複数の固有の視像を遠隔でモニタすることができる。上記の内容は、受動的に行うことができる。たとえば、ビデオコンソール1060は、ディレイドタイムかリアルタイムのいずれかで、ビデオゲーム内から1つまたは複数の視像に設定される。たとえば、実行されているビデオゲームからのデータと関連指令は、ビデオコンソール1060に接続されるデータ線1074によってデータ線1042から受信される。
ビデオゲームの受動的な視聴の代わりに、ディレクタ1014は(i)自身のビデオカメラ部品(図示せず)を採用する、あるいは(ii)ビデオカメラ部品1044〜1054によって提供される様々な視像間を切り替えるライブ放送スイッチを操作することができる。ここで、ディレクタの装置は、ビデオゲーム内からの1つまたは複数の視像を表示するように予め設定される、あるいはリアルタイムで設定される。視像はビデオゲームの作業機能に従い設定する、たとえば、ビデオカメラ部品からビデオゲームに送られる指令に従いビデオゲームの観覧者を通じて設定することができる。もしくは、ビデオカメラ部品の視像は、プログラムおよび/またはビデオゲームに送られる実行可能なコードに従い、たとえばアプレットにより設定されて、ビデオカメラ部品を操作するディレクタにより希望されるパラメータに従い起こさせることができる。ここで、データおよび関連指令は、ビデオコンソール1060に接続されるデータ線1072、1074によって、データ線1042に送信され、およびデータ線1042から受信される。上記の内容は、たとえば、ビデオコンソールがビデオカメラ部品である場合に適用される。現実世界のスポーツイベントと異なり、実行されているビデオゲーム内のビデオゲームプレーヤ1010、1012の行為は、再生のために記録することができる。このため、ディレクタ1014は予め記録されたビデオゲームを実行し、ビデオゲーム部品1044〜1052のカメラショット間を切り替えることができる。したがって、現実世界のスポーツイベントでは不可能だが、開示される実施形態では、ディレクタ1014が予め記録されたビデオゲームを何度も再生し、再生毎に固有のカメラショットを確定することができる。
一または複数の実施形態では、ディレクタ1014によって採用される1つまたは複数のビデオコンソール1060は、常駐する(あるいは遠隔でアクセス可能な)ビデオ画像を遠隔表示装置に送信するために使用することができる。遠隔表示装置は、たとえば、座席1030、1032に着席しているファンによる表示のために、アリーナ1004の中央上部に配置される巨大ビデオ表示装置であってもよい。ここで、ビデオコンソール1060のモニタ1068に表示される画像は、データ線1072、1042上でハブ1041に送信され、そこでデータ信号はビデオ表示装置に送信される。別の例として、画像データは、ビデオ放送フィードとして送信され、たとえば、ネットワークテレビ、ケーブルテレビ、またはインターネットウェブキャストに表示される。
一または複数の実施形態では、ディレクタ1014に採用される1つまたは複数のビデオコンソール1060は、ビデオコンソール1060に常駐される、あるいはビデオコンソール1060によって離れてアクセス可能に配置されるプロセッサを有し、それによってディレクタ1014はビデオゲームコンソール1060のモニタ1068に示されるように、ビデオゲーム内からの視像間を切り替えることができる。具体的には、ビデオゲームコンソール1060は、ビデオコンソール1044〜1054から受信するビデオ、ディレクタ自身のビデオコンソール1060〜1066によって視聴されるビデオ、ビデオゲームプレーヤ1010、1012によって視聴されるビデオ間の切換に使用することができる。
一または複数の実施形態では、各ビデオカメラ部品1044〜1054、およびビデオコンソール1060〜1066は、プロセス112、114を有し、ノードに常駐して、あるいはノードによって遠隔からアクセス可能に配置され、ビデオゲーム内からの視像に関連する指令を送受信する機能のために、ノードに常駐して、あるいはノードによって遠隔からアクセス可能に配置される1つまたは複数のプロセッサ110で実行されるノード102〜108を備える。したがって、上記ビデオカメラ部品1044〜1054、およびビデオコンソール1060〜1066は、ノード102〜108、そのプロセッサ110、およびそのプロセス112、114を参照して、本明細書に記載される別の構造および機能を有することができる。
さらに、1つまたは複数の実施形態では、データ接続1056、1058、1072、1074、および遠距離通信処理システム(ビデオカメラ部品1044〜1054およびビデオコンソール1060〜1066上で、あるいはそれらから離れて動作する指示ハードウェア、ソフトウェア、および/またはファームウェアなど)を含む関連処理ユニットは、通信ネットワーク120を備える。したがって、上記通信関連部品は、通信ネットワーク120を参照して本明細書で記載される別の構造および機能を有することができる。1例として、(i)ビデオゲームプレーヤ1010、1012およびそれぞれのコンソール1006、1008、(ii)ゲームが実行されている追加ノード(もしあれば)、(iii)カメラマン1016〜1026のうち一人の場所、および/またはビデオカメラ部品1044〜1055のうちのいずれかの位置、および(iv)ディレクタ1014および/またはビデオコンソール1060〜1066のうちのいずれかの位置、のどの要素も、互いに離して配置することができ、通信ネットワーク120を有するデータネットワーク(たとえば、インターネット)上のデータ接続で相互にデータを交換することができる。
図11A、11Bはそれぞれ、開示される実施形態に記載される典型的なビデオカメラ部品1044〜1054のモデルの斜視図である。一または複数の実施形態では、モデル1100は通信ネットワーク120で機能するノード102〜108を表す。
まず図11Aから始めると、典型的なビデオカメラ部品1044〜1054用の典型的なモデル1100の正面斜視図が示されている。図11Aには、ベースコンポーネント1108、コネクタ部品1112、回転アセンブリ1110、光学ロッキング装置1106、表示コンポーネント1102、ビデオスクリーン1103、およびバイザ1104が示される。
図11Bは、モデル1100の後面斜視図で、上記ベースコンポーネント1108、回転アセンブリ1110、表示コンポーネント1102、およびバイザ1104を示す。図11Bは、緑表示灯1114、赤表示灯1116、および取付アーム1118を示す。
一または複数の実施形態では、バイザ1104はモデル1100の上方向からのスクリーン1103上での光反射を、その他の種類のグレア保護も含めて防止する。また、1つまたは複数の実施形態では、モデル1100は、1つまたは複数の三脚に搭載されるように設計される。ここで、ベース1108は、既知の種類の、または特別に設計された三脚上に搭載される。
一実施形態では、回転アセンブリ1110は、ベースコンポーネント1108から表示コンポーネント1102(スクリーン1103およびバイザ1104を含む)の上方および下方の回転傾斜のみを可能とし、ビデオカメラ部品1044〜1054の情報および下方傾斜に基づく視像を視聴させる。ここで、モデル1100は三脚に固着され、各三脚アーム(図12B、12Cを参照)の移動によって、モデル1100は地面に水平な方向で左右に回転し、地面と垂直な方向に左右に回転することによって、ビデオカメラ部品1044〜1054の回転に基づく視像の視聴を可能にする。
別の実施形態では、回転アセンブリ1110は、(i)ビデオカメラ部品1044〜1054の上方および下方傾斜に基づく視像の視聴を可能にする、ベースコンポーネント1108からの表示コンポーネント1102(スクリーン1103およびバイザ1104を含む)の上方および下方回転傾斜、および(ii)ビデオカメラ部品1044〜1054の左右回転に基づく視像の視聴を可能にする、ベースコンポーネント1108からの表示コンポーネント1102(スクリーン1103およびバイザ1104を含む)の左右水平回転、のうちいずれかを可能にする。
開示される実施形態では、コネクタ部品1112は、通信システム120内のノードの場合ように、別のノードに接続するモデル1100の任意の種類のコネクタを含む。一または複数の実施形態では、第1のノードのコネクタ部品、たとえば(ビデオカメラ部品1044〜1054の)のモデル1100は、たとえば、インタフェース616(図6に示される)への接続を介して、システム300の入力/出力コンポーネント310への接続を可能にする。コネクタ部品1112は、たとえば、Playstation2(TM)ビデオゲーム用の独自仕様9−ピンシリアルインタフェースコネクタ、Xbox(TM)ビデオゲームでの使用にあわせて修正されたUSBコネクタ、パーソナルコンピュータビデオゲームに接続するようにプログラムされたUSBコネクタ、およびその他の種類のコネクタを含むことができる別の例として、コネクタ1112は、LAN510およびWAN508などの通信ネットワーク120上での通信用に、通信インタフェース用コネクタであってもよい。
図12Aおよび12Bは、開示される実施形態に記載される典型的なビデオカメラ部品1044〜1054の別のモデル1200の斜視図である。一または複数の実施形態では、モデル1100は、通信ネットワーク120内で機能するノード102〜108を表す。典型的なビデオカメラ部品1044〜1054の同モデルの正面斜視図では、ベースコンポーネント1108、回転アセンブリ1110、表示コンポーネント1102、ビデオスクリーン1103、バイザ1104、光学ロッキング装置1106、取付アーム1118、および表示灯1114、1116が含まれる。
図12Cは、典型的なビデオカメラ部品1044〜1054のパン−チルトヘッド(図13A、13Bを参照)に搭載される典型的な三脚の斜視図である。図示されるように、モデル1300のベースコンポーネント1108は、典型的な三脚のパン−チルトヘッドに搭載される。典型的な三脚は、複数の脚1210、左アーム1206、右アーム1208、左親指アクチュエータ1204、および右親指アクチュエータ1202を含む。典型的な実施形態では、パンチルトヘッド内の流体によって、移動に関する信号を含めカメラコンポーネントの移動のギクシャクさが減り、真に迫った動きに近づく。
拡張可能な各左右アーム1206、1208は、カメラの視像を上方または下方に傾斜させるように上/下方向に傾けることができる。拡張可能な各左右アーム1206、1208は、カメラの視像を左または右方向に回転させるように平行に回転させることもできる。図14Aを参照すると、パーソナルコンピュータ用に改造された典型的なビデオゲームシステム300では、マウスの上下移動(1408)は上/下に傾く視像の動きを、マウスの左右移動(1406)は左/右に回転する視像をシミュレートしている。したがって、これらの開示される実施形態では、上記のビデオカメラ部品1044〜1054を上下方向に傾ける、および左右方向に回転させる動きは、ビデオゲームシステムに基づくパーソナルコンピュータ用マウスの動きをシミュレートするように対応するマウス指令にマップされる。入力信号に応答した左右方向への装置の回転によって、水平方向のローリング(「ローリング」または「ダッチング」という)も可能となることに注意されたい。
図12Cは、装置に対するユーザ入力の位置的特徴を示す。図示されるように、カメラマンの右手1214は右アーム1208を掴み、カメラマンの左手1216は左アーム1206を掴む。右アーム1208と左アーム1206の移動でビデオカメラは傾斜および回転することができ、ビデオカメラ部品の上下傾斜に基づく視像とビデオカメラ部品の左右回転に基づく視像が可能になる。
カメラマンの左親指は、左親指アクチュエータ1204を始動するように置かれる。図14Bを参照すると、ある実施形態では、左親指アクチュエータ1204は(i)カメラの左平行移動1414または右平行移動1416をシミュレートあるいは真似る視像を可能にする;および(ii)カメラの前方平行移動1410または後方平行移動1412をシミュレートあるいは真似る視像を可能にする。これらの動きは、業界用語ではカメラのトラック(track )やトラック(truck )、ドリーモーション、またはフライングカメラと呼ばれる。図14Bに示されるように、パーソナルコンピュータ用に適合された典型的なビデオゲームシステム300では、キーボードは、左方トラックをもたらす「A」1414、右方トラックをもたらす「D」1416、前方トラックをもたらす「W」1410、後方トラックをもたらす「S」1412などを含むが、それらに限定されない動きを反映するように使用することができる。ビデオゲームコントローラは、ビデオゲームコントローラハンドルの左方、右方、前方、後方の変位に基づき、ビデオゲームコンソールまたはパーソナルコンピュータに対して同じ出力を生起させることができる。したがって、これらの開示される実施形態では、上記左親指アクチュエータ1204の始動は上記トラック制御を実行するために、典型的なビデオゲームコントローラ(またはその他の種類のコントローラ)の左方、右方、前方、後方運動にそれぞれマップさせることができる。
典型的な実施形態では、カメラマンの右親指は右親指アクチュエータ1202を作動させるために設置されている。図14Cを参照すると、ある実施形態では、右親指アクチュエータ1202は(i)カメラの上方クレーン移動1424または下方クレーン移動1422をシミュレートあるいは真似る視像を可能にする;および(ii)カメラのズームイン1418またはズームアウト1420をシミュレートあるいは真似る視像を可能にする。図14Cに示されるように、パーソナルコンピュータ用に適合されたビデオゲームシステム300では、キーボードは、左方クレーン動作をもたらす「C」1422、右方クレーン動作をもたらす「 」(スペース)1424、ズームイン動作をもたらす「E」1418、ズームアウト動作をもたらす「R」1420などの動きを反映するように使用することができる。ビデオゲームコントローラは、ビデオゲームコントローラハンドルの左方、右方、前方、後方の変位に基づき、パーソナルコンピュータに対して同じ出力を生起させることができる。したがって、これらの開示される実施形態では、上記右親指アクチュエータ1202の始動は上記クレーンおよびズーム制御を実行するために、典型的なビデオゲームコントローラ(またはその他の種類のコントローラ)の前記左方、右方、前方、後方運動にそれぞれマップさせることができる。
図13A、13Bは、開示される実施形態に記載される典型的なビデオカメラ部品1044〜1054の上記第3のモデル1300の斜視図である。これは、図12Cを参照して図示されるように、典型的な三脚のパン−チルトヘッドに搭載することもできる。モデル1300は薄型の設計で、ラップトップコンピュータのように折畳み可能である。図示されるように、モデル1300は、ベースコンポーネント1108、コネクタ部品1112、回転アセンブリ1110、表示コンポーネント1102、およびビデオスクリーン1103を含む。
図15は、開示される実施形態で提供される典型的なビデオカメラ部品1044〜1054の典型的な制御装置の一般的機能ブロック図である。図15は、移動センサ1502、制御信号発生装置1504、カメラ制御装置1518を含むユーザ入力装置1506、および制御信号発生装置1504によって生成される制御信号1508を示す。移動センサ1502は、垂直角速度センサ1510および水平角速度センサ1512を含む。制御信号発生装置1504は、プロセッサ(たとえば、マイクロコントローラ)およびインタフェース1516を含む。ユーザ入力装置1506のカメラ制御装置1518は、左親指コントローラ1520および右親指コントローラ1522を含む。
垂直角速度センサ1510は、上方および下方傾斜回転におけるビデオカメラ部品の移動速度を測定することにより上記上下傾斜回転を感知する。水平角速度センサ1512は、左右回転におけるビデオカメラ部品の移動速度を測定することにより、接地面と平行な上記左右回転を感知する。典型的な実施形態では、垂直および水平ジャイロスコープがそれぞれ上記垂直角速度センサ1510および水平角速度センサ1512として使用される。上記上下傾斜および左右回転運動のそれぞれの角速度ではなくそれぞれの加速度を測定する加速度計など、同じ目的に見合う任意の他の種類の移動センサも使用することができる。ビデオカメラ部品の垂直角速度および水平角速度に対応する各信号はプロセッサ1514に送信される。
左親指コントローラ1520は、左親指アクチュエータ1204の上記移動に基づく制御信号を生成する。同様に、右親指コントローラ1522は、右親指アクチュエータ1202の上記移動に基づく制御信号を生成する。各左右親指制御信号はプロセッサ1514に送信される。
プロセッサ1514は、適切なインタフェース1516を介した、たとえば、独自仕様のビデオゲームコンソールまたはパーソナルコンピュータである典型的なシステム300への送信のために、1つまたは複数の制御信号1508を生成する。
図16は、図15に示される典型的な制御装置の詳細機能ブロック図である。図16には、プロセッサ(マイクロコントローラなど)1602、水平ジャイロスコープ1604、垂直ジャイロスコープ1606、加速度計1608、外部左親指制御モジュール1610、外部右親指制御モジュール1612、インタフェース1614(図6に示されるインタフェース616の種類)、2色発光ダイオード(LED)表示装置1616、較正ボタン1618、電源回路1620、LCD表示モジュール1622、LCD信号調整モジュール1624が示される。図16は、典型的な外部親指制御モジュール1626用の典型的なUSB小型コネクタ1630に接続されるビデオゲームコントローラモジュール1628も含む。外部親指制御モジュールは外部左親指制御モジュール1610または外部右親指制御モジュール1612のいずれであってもよい。
制御装置は、必須のパラメータを測定するために使用される1つまたは複数のセンサを有する。たとえば、図示されるように、加速度計1608およびジャイロスコープ1606は上下傾斜方向の動き、具体的にはビデオカメラ部品の加速度と変位速度測定するために採用され、本実施形態では、単独のジャイロスコープ1604が左右回転方向の動き、具体的にはビデオカメラ部品の変位速度を測定するために採用される。しかしながら、当業者にとっては既知であるように、任意の方向の相対的変位を測定するために、どのセンサの組み合わせを使用してもよい。これらのセンサの出力はボルト、たとえば、0〜5ボルトのように測定される。プロセッサ1602は電圧を読み取り、インタフェース1614(またはその他の適切なインタフェース616)によるシステム300への入力/出力コンポーネント310への送信のために、アナログ信号をデジタル信号に変換するようにプログラムされる。
一実施形態では、ビデオゲームコントローラモジュール1628は、可変レジスタである2つのポテンショメータを備え、1つは前/後方向の移動を測定し、1つは左/右方向の移動を測定するものである。抵抗はそれぞれの場合、ビデオゲームコントローラハンドルの相対的変位に基づき変動する。各ポテンショメータの出力は、たとえば、0〜5ボルトのように測定される。プロセッサ1602は、電圧を読み取り、インタフェース1614(またはその他の適切なインタフェース616)によるシステム300への入力/出力コンポーネント310への送信のために、アナログ信号をデジタル信号に変換するようにプログラムされる。
上述されるように、インタフェース1614の種類は、システム300に依存する。たとえば、システム300がPlaystation2(TM)ビデオゲームの場合、インタフェース1614は恐らく独自仕様の9−ピンシリアルインタフェースコネクタである。システム300がXbox(TM)ビデオゲームの場合、インタフェース1614はXbox(TM)ビデオゲームで使用されるように改造されたUSBコネクタであるかもしれない。システム300がパーソナルコンピュータビデオゲームを実行するパーソナルコンピュータの場合、インタフェース1614はプロセッサ1602をパーソナルコンピュータビデオゲーム装置に接続するようにプログラムされたUSBコネクタであるかもしれない。当業者であれば、上記インタフェースは例示のために提示されたもので、本実施形態は上記のインタフェースに限定されず、任意の種類のインタフェースを含むことができると了解しているだろう。
ジャイロスコープとその他の部品は雰囲気温度やその他の外部要因に基づく感度を有するため、プロセッサ1602のような装置により送出されたり測定されたりする値は不正確になる場合がある。したがって、ユーザにより始動されるとき、較正ボタン1618はプロセッサ1602への入力を空値またはゼロに設定する。この特徴により、広域な使用を通じて図16の制御装置の正確度が向上する。
プロセッサ1602は、部品1604、1606、1608、1610、および1612によって生成された制御信号をシステム300により予測される入力にマップし、効率的にそれを行うようにプログラムされる。たとえば、ある実施形態では、アナログ入力ポートは16回連続して読み出され、読出毎に次の読み出しまで10ミリ秒のインターバルが置かれる。16回の読出結果の各平均が取られて、プロセッサ1602からさらに正確な出力が生成される。
マッピングは、システム300によって予測されるパラメータに基づき行われる。たとえば、プロセッサ1602の一実施形態では、装置1604〜1608の入力アナログ信号から生じる出力デジタル信号は、装置1610〜1612の入力アナログ信号から生じる出力デジタル信号と、所定の時間間隔を置いて別々にシステム300に送信される。しかし、別の実施形態では、すべての装置1604〜1612の入力アナログ信号から生じる出力デジタル信号は、同一またはほぼ同一の時間間隔でシステム300に送信される。
さらに、プロセッサ1602からインタフェース1614への出力送信間、あるいはインタフェース1614からシステム300への出力送信間の時間遅延は、システム300の要件に従い設定することができる。たとえば、(i)システム300がXbox(TM)ビデオゲームである実施形態では、遅延は10ミリ秒に設定することができ、(ii)システム300がパーソナルコンピュータ用に改造されたビデオゲームを実行するパーソナルコンピュータである実施形態では、遅延は4ミリ秒に設定することができる。
2色LED1616は、1つまたは複数の単色また多色表示をユーザに提供する。たとえば、赤色LEDは、電池残量(もしあれば)が減りつつあるか、あるいは装置の電源が入っているのにシステム300に接続されていないことを示すことができる。別の例として、緑色LEDは、電池残量(もしあれば)が十分あるか、あるいは装置の電源が入っており、システム300に接続されていることを示すことができる。
典型的な実施形態では、プロセッサ1602はファームウェアを実行させる。たとえば、開発者は、Cプログラム言語でプロセッサ1602の機能に関するコードを開発する。コンパイラは、ソースコードをバイナリオブジェクトコードに変換し、オブジェクトコードモジュールを一緒にリンクし、マシン言語アセンブリ命令を生成するのに使用される。アセンブリ命令はBP Microsystems 社製のモデルBP1200や回路デバッガなどの装置を用いて、パラレルポート、プリンタポート、またはUSBポートなどの該当ポートを通じてプロセッサ1602にロードされる。
例示した様々な環境では、各種製造装置部品を上記機能を遂行するのに使用することができる。たとえば、ある典型的な実施形態では、(i)マイクロコントローラ(プロセッサ)1602は、Microchip Technology社製モデルMicrochip PIC16F877Aである、(ii)加速度計1608はParallax, Inc.製のモデルMemsic 2125EB である、(iii)ジャイロスコープ1604、1608は、Analog Device Inc.製のモデルADXRS 150EB である、(iv)ビデオゲームコントローラモジュール1628はCTS Corporation 製のモデルCTS253B103B60NA で、USB小型コネクタ1630はDelphi Connection Systems, Inc. 製のモデル15430384~100である、(v)LCD表示モジュール1622はAND Electronics,Inc.製のモデルAND-TFT-64PAおよびPC-TFT-64PA を含む、(vi)2色LED1616はDiodes Inc. 製のモデルZMM5231B-7である、および(vii)較正ボタン1618はE-Switch,Inc. 製のモデルMTH2UOANAGX である。
図17は、開示される実施形態で提供される典型的なビデオカメラ部品の典型的な制御装置に関連する一実施形態の方法のフローチャートである。
最初に、ハードウェアが初期化される(ステップ1702)、ここでは、プロセッサ1602上で実行されるファームウェアの適切な構造を設定し、アナログからデジタルへと設定し、LED1616の色を赤に初期設定し、入力および出力ポートを構成し、不要なモジュールを切断して必要なモジュールを接続することによりプロセッサモジュールを構成することが含まれる。
次にUSB1614などのインタフェース装置が初期化され、外部システム300とインタフェースが構成され(ステップ1704)、ここでは、必要なUSBパケットと関連プロトコルを設定し準備することが含まれる。
入力電圧は最初にプロセッサ1602を較正するため、まず自動的に空値またはゼロに設定される。これは較正ボタン1618により提供される較正と同じ効果を有する(ステップ1706)。
一つまたは複数の実施形態では、ビデオカメラ部品は、内部充電式電池または外部アウトレットへの接続を通じて交流(AC)によって電力が供給される。装置が電池式である場合、電池は所定の閾値、たとえば10V未満であるかどうかを判断するために確認することができ(ステップ1710)、LED1616は電池残量が少量であることを示すように赤に設定される可能性がある(ステップ1712)。
プロセッサ1602は、ジャイロスコープおよび加速度計部品1604〜1608からの制御信号入力を任意で読み出し(ステップ1714)、対応する出力信号をインタフェース1614に出力する。しかしながら、較正ボタン1618が押される場合(ステップ1716)、インタフェース1614への出力データはクリアされなければならない。
プロセッサ1602は、図示されないマウスコントローラまたはその他のコントローラからの制御信号入力を任意で読み出し(ステップ1720)、対応する出力信号をインタフェース1614に出力する。しかしながら、較正ボタン1618が押される場合、インタフェース1614への出力データはクリアされなければならない(図示せず)。
プロセッサ1602は、親指制御モジュール1610、1612からの制御信号入力を任意で読み出し(ステップ1724)、対応する出力信号をインタフェース1614に出力する。しかしながら、較正ボタン1618が押される場合(1726)インタフェース1614への出力データはクリアされなければならない(1728)。
プロセッサ1602は、図示しないキーボードまたはその他のコントローラからの制御信号入力を任意で読み出し(ステップ1730)、対応する出力信号をインタフェース1614に出力する。しかしながら、較正ボタン1618が押される場合、インタフェース1614への出力データはクリアされなければならない(図示せず)。
システム300に必要とされる入力パラメータに応じて、各出力をそれぞれ分離するため、たとえば2ミリ秒の時間遅延を要求することができる(ステップ1722、1732)。入力プロセスは、ステップ1708に逆戻りすることにより繰り返される。
図18は、開示される実施形態に記載される典型的なビデオカメラ部品の典型的な制御装置の第1の部分の詳細概略図である。図19は、開示される実施形態に記載される典型的なビデオカメラ部品の典型的な制御装置の第2の部分の詳細概略図である。ここでは各部品は先に定義されるように分類される。
VII.結論
本発明の各種実施形態を上述したが、それらは例示のためにのみ提示され、限定されないと了解されるべきである。したがって、本発明の範囲は上記の典型的な実施形態に限定されず、以下の請求項およびその等価物に従ってのみ定義されるものとする。
通信ネットワーク環境で動作するノードの代表図。 通信ネットワーク内で動作する構内通信網のブロック図。 通信ネットワーク内で動作するワイヤレスネットワークのブロック図。 コンピュータ処理システムを備える各部品のブロック図。 図3Aのシステムを備える一般的な処理システムのブロック図。 図3Aのシステムを備える典型的な仮想処理システムの典型的なメモリコンポーネントのブロック図。 図3Aのシステムを備える典型的な仮想処理システムの典型的な通信コンポーネントのブロック図。 図3Aのシステムを備える典型的な仮想処理システムの典型的な入力/出力コンポーネントのブロック図。 図3Aのシステムを備える典型的な仮想処理システムの典型的なプロセッサコンポーネントのブロック図。 図3Aのシステムを備える典型的な仮想処理システムの典型的なグラフィックス/音声コンポーネントのブロック図。 図1〜9のシステム用の典型的なクライアント−サーバ環境。 Gamecaster Cybercam (TM)設備および仮想システム領域を含む開示される実施形態のための典型的な環境を示す図。 開示される実施形態に記載される典型的なビデオカメラ部品のモデルの透視図。 開示される実施形態に記載される典型的なビデオカメラ部品のモデルの透視図。 開示される実施形態に記載される典型的なビデオカメラ部品の別のモデルの透視図。 開示される実施形態に記載される典型的なビデオカメラ部品の別のモデルの透視図。 典型的な三脚のパン−チルトヘッドに搭載される典型的なビデオカメラ部品のモデル、さらには装置へのユーザ入力のための位置的特徴を示す透視図。 開示される実施形態に記載される典型的なビデオカメラ部品の別のモデルの透視図。 開示される実施形態に記載される典型的なビデオカメラ部品の別のモデルの透視図。 開示される実施形態の典型的なビデオカメラ部品の回転および傾斜が、コンピュータマウス入力装置による入力をどのようにまねるかを示す代表図。 開示される実施形態の典型的なビデオカメラ部品の親指制御が、ビデオゲームコントローラ装置による入力をどのようにまねるかを示す代表図。 開示される実施形態の典型的なビデオカメラ部品の親指制御が、ビデオゲームコントローラ装置による入力をどのようにまねるかを示す代表図。 開示される実施形態で提供される典型的なビデオカメラ部品の典型的な制御装置の包括的機能ブロック図。 開示される実施形態で提供される典型的なビデオカメラ部品の典型的な制御装置の詳細機能ブロック図。 開示される実施形態で提供される典型的なビデオカメラ部品の典型的な制御装置に関する一実施形態による方法のフローチャート。 開示される実施形態で提供される典型的なビデオカメラ部品の典型的な制御装置の第1の部分の詳細図。 開示される実施形態で提供される典型的なビデオカメラ部品の典型的な制御装置の第2の部分の詳細図。

Claims (77)

  1. 装置であって、
    ユーザの行為に応じてカメラ制御入力装置信号を提供するように構成されるカメラ制御入力装置と、
    装置の移動に応じて移動センサ信号を提供するように構成される移動センサと、
    カメラ制御入力装置信号および移動センサ信号に基づきカメラ制御信号を生成するように構成される制御信号発生装置と、
    を備える装置。
  2. 請求項1に記載の装置において、カメラ制御信号が、
    クレーン指令と、
    トラック指令と、
    ズーム指令と、
    ロール指令と、
    パン指令と、
    傾斜指令と、
    を有する複数のカメラ指令のうちの少なくとも1つを含む、装置。
  3. 請求項1に記載の装置において、移動センサが、角速度センサおよび加速度センサのうちのいずれか1つを含む、装置。
  4. 請求項3に記載の装置において、移動センサが、
    装置の水平移動速度に応じた水平移動信号を提供するように構成される水平角速度センサと、
    装置の垂直移動速度に応じた垂直移動信号を提供するように構成される垂直角速度センサと、
    装置の水平加速度に応じた水平移動信号を提供するように構成される水平角加速度センサと、
    装置の垂直加速度に応じた垂直移動信号を提供するように構成される垂直角加速度センサと、
    のうちのいずれか1つを含む、装置。
  5. 請求項1に記載の装置において、カメラ制御信号が、ソフトウェアアプリケーションによって生成される仮想環境内の仮想カメラを制御するための仮想カメラ制御信号である、装置。
  6. 請求項5に記載の装置において、仮想環境が、
    ビデオゲームソフトウェアアプリケーションと、
    デジタル映画制作アプリケーションと、
    三次元アニメーションアプリケーションと、
    コンピュータ援用設計(CAD)またはコンピュータ援用製造(CAM)アプリケーションと、
    ホログラフィアプリケーションと、
    医療用分析または手術用分析アプリケーションと、
    軍装備品や人員の準備を行う戦争ゲームアプリケーションシミュレーションと、
    飛行シミュレーション訓練アプリケーションと、
    生物学的分析用モデリングシミュレーションアプリケーションと、
    化学的分析用モデリングシミュレーションアプリケーションと、
    分子学的分析用モデリングシミュレーションアプリケーションと、
    構造設備グラフィックレンダリング関連シミュレーションアプリケーションと、
    のうちのいずれか1つを含む、装置。
  7. 請求項5に記載の装置において、仮想カメラ制御信号のフォーマットが、コンピュータマウス出力、コンピュータキーボード出力、およびビデオゲームコントローラ出力のうちのいずれか1つに従う、装置。
  8. 請求項5に記載の装置において、コントローラが、
    カメラ制御入力装置信号および移動センサ信号を仮想カメラ制御信号に変換するようにプログラムされるプロセッサと、
    仮想カメラ制御信号に基づき、ビデオゲームコントローラ出力信号、コンピュータキーボード出力信号、およびコンピュータマウス出力信号のいずれか1つをエミュレートするコンピュータ入力信号を生成するように構成されるインタフェースと、
    を含む、装置。
  9. 請求項1に記載の装置において、カメラ制御入力装置が、少なくとも1つのスイッチを含む、装置。
  10. 請求項1に記載の装置において、カメラ制御入力装置が少なくとも1つの指作動制御装置を含む、装置。
  11. 請求項10に記載の装置において、少なくとも1つの指作動装置が、複数の親指コントローラを含む、装置。
  12. 装置であって、
    ユーザの行為に応じてカメラ制御入力装置信号を提供するように構成されるカメラ制御入力装置と、
    装置の水平移動に応じて水平移動信号を提供するように構成される水平移動センサと、
    装置の垂直移動に応じて垂直移動信号を提供するように構成される垂直移動センサと、
    水平移動信号、垂直移動信号、およびカメラ制御入力装置信号を含む複数の信号の少なくとも1つに基づき、ソフトウェアアプリケーションにより生成される仮想環境内の視像を変更する命令としてソフトウェアアプリケーションによって解釈可能な仮想カメラ制御信号を生成するように構成される制御信号発生装置と、
    を備える装置。
  13. 請求項12に記載の装置において、仮想カメラ制御信号が、装置の移動をエミュレートする仮想環境内の仮想カメラの移動を引き起こす、装置。
  14. 請求項13に記載の装置において、制御信号発生装置が、接地面に垂直な軸を中心とした装置の回転に応じて、パン指令を含む仮想カメラ制御信号を生成するように構成されている、装置。
  15. 請求項13に記載の装置において、制御信号発生装置は、接地面と平行な軸を中心にした装置の回転に応じて、傾斜指令およびロール指令のうちのいずれか1つを含む仮想カメラ制御信号を生成するように構成されている、装置。
  16. 請求項12に記載の装置において、仮想カメラ制御信号がソフトウェアプリケーションにより生成される仮想環境内の仮想カメラを制御するための複数のカメラ指令のうちの少なくとも1つを含み、複数のカメラ指令が
    上クレーン指令と、
    下クレーン指令と、
    左トラック指令と、
    右トラック指令と、
    前(グローバル)トラック指令と、
    後(グローバル)トラック指令と、
    右パン指令と、
    左パン指令と、
    上傾斜指令と、
    下傾斜指令と、
    左ロール指令と、
    右ロール指令と、
    ズームイン指令と、
    ズームアウト指令と、
    を含む、装置。
  17. 請求項12に記載の装置において、ソフトウェアアプリケーションが、
    ビデオゲームソフトウェアアプリケーションと、
    デジタル映画制作アプリケーションと、
    三次元アニメーションアプリケーションと、
    コンピュータ援用設計(CAD)またはコンピュータ援用製造(CAM)アプリケーションと、
    ホログラフィアプリケーションと、
    医療用分析または手術用分析アプリケーションと、
    軍装備品や人員の準備を行う戦争ゲームアプリケーションシミュレーションと、
    飛行シミュレーション訓練アプリケーションと、
    生物学的分析用モデリングシミュレーションアプリケーションと、
    化学的分析用モデリングシミュレーションアプリケーションと、
    分子学的分析用モデリングシミュレーションアプリケーションと、
    構造設備グラフィックレンダリング関連シミュレーションアプリケーションと、
    のうちのいずれか1つである、装置。
  18. 請求項12に記載の装置であって、さらに、仮想環境の少なくとも1部を提示するように構成される視覚出力装置を備える装置。
  19. 請求項18に記載の装置において、仮想環境の少なくとも1部が、仮想カメラにより補足される仮想環境の視像である、装置。
  20. ビデオソフトウェアプリケーションにより生成される仮想環境内の視像を捕捉する仮想カメラを制御するカメラシミュレーション装置であって、
    カメラシミュレーション装置の水平移動に応じて水平移動信号を提供するように構成される水平移動センサと、
    カメラシミュレーション装置の垂直移動に応じて垂直移動信号を提供するように構成される垂直移動センサと、
    ユーザの行為に応じてカメラ制御入力装置信号を提供するように構成されるカメラ制御入力装置と、
    水平移動信号、垂直移動信号、およびカメラ制御入力装置信号を含む複数の信号のうちの少なくとも1つに基づき、仮想環境の仮想カメラによって捕捉される視像を変更する複数の指令のうちの少なくとも1つとしてビデオソフトウェアアプリケーションによって解釈可能な仮想カメラ制御信号を生成するように構成される制御信号発生装置と、
    を備えるカメラシミュレーション装置。
  21. 請求項20に記載のカメラシミュレーション装置において、仮想カメラ制御信号が、カメラシミュレーション装置の移動をエミュレートする仮想環境内の仮想カメラの移動を引き起こす、カメラシミュレーション装置。
  22. 請求項21に記載のカメラシミュレーション装置において、制御信号発生装置が、さらに、接地面に垂直な軸を中心としたカメラシミュレーション装置の回転に応じて、パン指令を備える仮想カメラ制御信号を生成するように構成されている、カメラシミュレーション装置。
  23. 請求項21に記載のカメラシミュレーション装置において、制御信号発生装置が、さらに、接地面に平行な軸を中心にしたカメラシミュレーション装置の回転に応じて、傾斜指令およびロール指令のうちのいずれか1つを含む仮想カメラ制御信号を生成するように構成されている、カメラシミュレーション装置。
  24. 請求項20に記載のカメラシミュレーション装置において、仮想カメラ制御信号がビデオソフトウェアプリケーションにより生成される仮想環境内の仮想カメラを制御するための複数のカメラ指令のうちの少なくとも1つを含み、複数のカメラ指令が
    上クレーン指令と、
    下クレーン指令と、
    左トラック指令と、
    右トラック指令と、
    トラックイン指令と、
    トラックアウト指令と、
    右パン指令と、
    左パン指令と、
    上傾斜指令と、
    下傾斜指令と、
    左ロール指令と、
    右ロール指令と、
    ズームイン指令と、
    ズームアウト指令と
    を含む、カメラシミュレーション装置。
  25. 請求項20に記載のカメラシミュレーション装置であって、さらに、仮想カメラにより捕捉される仮想環境の視像を提示するように構成される視覚出力装置を備え、
    仮想環境が、
    ビデオゲームソフトウェアアプリケーションと、
    デジタル映画制作アプリケーションと、
    三次元アニメーションアプリケーションと、
    コンピュータ援用設計(CAD)またはコンピュータ援用製造(CAM)アプリケーションと、
    ホログラフィアプリケーションと、
    医療用分析または手術用分析アプリケーションと、
    軍装備品や人員の準備を行う戦争ゲームアプリケーションシミュレーションと、
    飛行シミュレーション訓練アプリケーションと、
    生物学的分析用モデリングシミュレーションアプリケーションと、
    化学的分析用モデリングシミュレーションアプリケーションと、
    分子学的分析用モデリングシミュレーションアプリケーションと、
    構造設備グラフィックレンダリング関連シミュレーションアプリケーションと、
    のうちのいずれか1つである、カメラシミュレーション装置。
  26. 請求項25に記載のカメラシミュレーション装置において、仮想環境の視像が、ビデオゲームソフトウェアアプリケーションにより生成される観覧者の視像である、カメラシミュレーション装置。
  27. 方法であって、
    カメラ制御入力装置からカメラ制御入力装置信号を受信するステップと、
    ユーザ入力装置の移動に基づき移動センサ信号を受信するステップと、
    カメラ制御入力装置信号および移動センサ信号に基づきカメラ制御信号を生成するステップと、
    を備える方法。
  28. 請求項27に記載の方法において、カメラ制御信号が、
    クレーン指令と、
    トラック指令と、
    ロール指令と、
    ズーム指令と、
    パン指令と、
    傾斜指令と
    を有する複数のカメラ指令のうちの少なくとも1つを含む、方法。
  29. 請求項27に記載の方法において、移動センサ信号が、角速度センサおよび加速度センサのうちのいずれか1つにより生成される、方法。
  30. 請求項29に記載の方法において、移動センサ信号が、
    ユーザ入力装置の水平移動に応じた水平移動信号と、
    ユーザ入力装置の垂直移動に応じた垂直移動信号と、
    を含む、方法。
  31. 請求項27に記載の方法において、カメラ制御信号を生成するステップが、
    ソフトウェアアプリケーションによって生成される仮想環境内の視像を捕捉する仮想カメラを制御するための仮想カメラ制御信号を生成するステップ、
    を含む、方法。
  32. 請求項31に記載の方法において、仮想環境が、
    ビデオゲームソフトウェアアプリケーションと、
    デジタル映画制作アプリケーションと、
    三次元アニメーションアプリケーションと、
    コンピュータ援用設計(CAD)またはコンピュータ援用製造(CAM)アプリケーションと、
    ホログラフィアプリケーションと、
    医療用分析または手術用分析アプリケーションと、
    軍装備品や人員の準備を行う戦争ゲームアプリケーションシミュレーションと、
    飛行シミュレーション訓練アプリケーションと、
    生物学的分析用モデリングシミュレーションアプリケーションと、
    化学的分析用モデリングシミュレーションアプリケーションと、
    分子学的分析用モデリングシミュレーションアプリケーションと、
    構造設備グラフィックレンダリング関連シミュレーションアプリケーションと、
    のうちのいずれか1つを含む、方法。
  33. 請求項31に記載の方法において、仮想カメラ制御信号のフォーマットが、コンピュータマウス出力、コンピュータキーボード出力、およびビデオゲームコントローラ出力のうちのいずれか1つに従う、方法。
  34. 請求項30に記載の方法において、カメラ制御信号を生成するステップが、
    カメラ制御入力装置信号および移動センサ信号を仮想カメラ制御信号に変換するステップと、
    カメラ入力制御装置信号に基づき、ビデオゲームコントローラ信号、コンピュータキーボード信号、およびコンピュータマウス信号のうちのいずれか1つをエミュレートするコンピュータ入力信号を生成するステップと
    をさらに含む、方法。
  35. 請求項27に記載の方法において、カメラ制御入力装置が、少なくとも1つのスイッチを含む、方法。
  36. 請求項27に記載の方法において、カメラ制御入力装置が少なくとも1つの指作動制御装置を含む、方法。
  37. 請求項36に記載の方法において、少なくとも1つの指作動制御装置が1つまたは複数の親指制御装置を含む、方法。
  38. 方法であって、
    制御装置の水平移動に応じた水平移動信号を受信するステップと、
    制御装置の垂直移動に応じた垂直移動信号を受信するステップと、
    カメラ制御信号を受信するステップと、
    水平移動信号、垂直移動信号、およびカメラ制御入力装置信号を含む複数の信号のうちの少なくとも1つに基づき、ソフトウェアアプリケーションによって生成される仮想環境内の視像を変更するための命令としてソフトアプリケーションによって解釈可能な仮想カメラ制御信号を生成するステップと、
    を備える方法。
  39. 請求項38に記載の方法において、仮想カメラ制御信号が、制御装置の移動をエミュレートする仮想環境内の仮想カメラの移動を引き起こす、方法。
  40. 請求項39に記載の方法において、生成ステップが、接地面に垂直な軸を中心とした制御装置の回転に応じて、パン指令を含む仮想カメラ制御信号を生成するステップを含む、方法。
  41. 請求項39に記載の方法において、生成するステップが、接地面に平行な軸を中心にした制御装置の回転に応じて、傾斜指令またはロール指令を含む仮想カメラ制御信号を生成するステップを含む、方法。
  42. 請求項38に記載の方法において、仮想カメラ制御信号がソフトウェアプリケーションにより生成される仮想環境内の仮想カメラを制御するための複数のカメラ指令のうちの少なくとも1つを含み、複数のカメラ指令が
    上クレーン指令と、
    下クレーン指令と、
    左トラック指令と、
    右トラック指令と、
    トラックイン指令と、
    トラックアウト指令と、
    右パン指令と、
    左パン指令と、
    上傾斜指令と、
    下傾斜指令と、
    左ロール指令と、
    右ロール指令と、
    ズームイン指令と、
    ズームアウト指令と、
    を含む、方法。
  43. 請求項38に記載の方法において、ソフトウェアアプリケーションが、
    ビデオゲームソフトウェアアプリケーションと、
    デジタル映画制作アプリケーションと、
    三次元アニメーションアプリケーションと、
    コンピュータ援用設計(CAD)またはコンピュータ援用製造(CAM)アプリケーションと、
    ホログラフィアプリケーションと、
    医療用分析または手術用分析アプリケーションと、
    軍装備品や人員の準備を行う戦争ゲームアプリケーションシミュレーションと、
    飛行シミュレーション訓練アプリケーションと、
    生物学的分析用モデリングシミュレーションアプリケーションと、
    化学的分析用モデリングシミュレーションアプリケーションと、
    分子学的分析用モデリングシミュレーションアプリケーションと、
    構造設備グラフィックレンダリング関連シミュレーションアプリケーションと、
    のうちのいずれか1つである、方法。
  44. 請求項38に記載の方法であって、視覚出力装置によって、仮想環境の少なくとも1部を提示するステップをさらに備える方法。
  45. 請求項44に記載の方法において、仮想環境の少なくとも一部が、仮想カメラにより捕捉される仮想環境の視像である、方法。
  46. ビデオソフトウェアアプリケーションにより生成される仮想環境内の視像を捕捉する仮想カメラを制御するための仮想カメラ制御信号を生成するカメラシミュレーション装置で実行される方法であって、
    カメラシミュレーション装置の水平移動を受信するステップと、
    カメラシミュレーション装置の垂直移動に応じた垂直移動信号を受信するステップと、
    ユーザの行為に応じてカメラ制御入力によって生成されるカメラ制御信号を受信するステップと、
    垂直移動信号、水平移動信号、およびカメラ制御信号を含む複数の信号のうちの少なくとも1つに基づき、仮想環境内で仮想カメラによって捕捉される視像を変更する複数のカメラ指令のうちの少なくとも一つとしてビデオソフトウェアアプリケーションにより認識される仮想カメラ制御信号を生成するステップと、
    を備える方法。
  47. 請求項46に記載の方法において、仮想カメラ制御信号が、カメラシミュレーション装置の移動をエミュレートする仮想環境内の仮想カメラの移動を引き起こす、方法。
  48. 請求項47に記載の方法において、生成するステップが、接地面に垂直な軸を中心としたカメラシミュレーション装置の回転に応じて、パン指令を生成するステップを含む、方法。
  49. 請求項47に記載の方法において、生成するステップが、接地面に平行な軸を中心としたカメラシミュレーション装置の回転に応じて、傾斜指令およびロール指令のうちのいずれか1つを生成するステップを含む、方法。
  50. 請求項46に記載の方法において、仮想カメラ制御信号が、ソフトウェアプリケーションにより生成される仮想環境内の仮想カメラを制御するための複数のカメラ指令のうちの少なくとも1つを含み、複数のカメラ指令が
    上クレーン指令と、
    下クレーン指令と、
    左トラック指令と、
    右トラック指令と、
    トラックイン指令と、
    トラックアウト指令と、
    右パン指令と、
    左パン指令と、
    上傾斜指令と、
    下傾斜指令と、
    左ロール指令と、
    右ロール指令と、
    ズームイン指令と、
    ズームアウト指令と、
    を含む、方法。
  51. システムであって、
    仮想ビデオアプリケーションを実行し、仮想ビデオ環境を生成する少なくとも1人のユーザ参加者から受信される入力に応答する少なくとも1つのプロセッサと、
    仮想ビデオ環境内からの複数の視像を捕捉するために応答する複数の仮想カメラ部品と、
    を備えるシステム。
  52. 請求項51に記載のシステムにおいて、仮想カメラコンポーネントが、
    カメラ制御入力装置信号を提供するように構成されるカメラ制御入力装置と、
    カメラ制御入力装置の移動に基づき移動信号を提供するように構成される移動センサと、
    カメラ制御入力装置信号および移動信号に基づき制御信号を生成するように構成されるコントローラと、
    を含む、システム。
  53. 請求項52に記載のシステムにおいて、ソフトウェアアプリケーションが、視像を表し、制御信号に少なくとも一部に基づく仮想カメラ出力信号を生成するように構成されている、システム。
  54. 請求項53に記載のシステムにおいて、移動センサが、
    移動センサの水平移動に応じた水平移動信号を提供するように構成される水平センサと、
    移動センサの垂直移動に応じた垂直移動信号を提供するように構成される垂直センサと、
    のうちのいずれか1つを含む、システム。
  55. 請求項54に記載のシステムにおいて、仮想ビデオアプリケーションが、
    ビデオゲームソフトウェアアプリケーションと、
    デジタル映画制作アプリケーションと、
    三次元アニメーションアプリケーションと、
    コンピュータ援用設計(CAD)またはコンピュータ援用製造(CAM)アプリケーションと、
    ホログラフィアプリケーションと、
    医療用分析または手術用分析アプリケーションと、
    軍装備品や人員の準備を行う戦争ゲームアプリケーションシミュレーションと、
    飛行シミュレーション訓練アプリケーションと、
    生物学的分析用モデリングシミュレーションアプリケーションと、
    化学的分析用モデリングシミュレーションアプリケーションと、
    分子学的分析用モデリングシミュレーションアプリケーションと、
    構造設備グラフィックレンダリング関連シミュレーションアプリケーションと、
    のうちのいずれか1つである、システム。
  56. 請求項53に記載のシステムにおいて、仮想カメラ制御信号のフォーマットが、コンピュータキーボード出力、コンピュータマウス出力、およびビデオゲームコントローラ出力のうちのいずれか1つに従う、システム。
  57. 請求項53に記載のシステムにおいて、
    コントローラが、
    カメラ制御入力装置信号および移動信号をカメラ制御信号に変換するようにプログラムされるプロセッサと、
    コンピュータキーボード信号、コンピュータマウス信号、およびビデオゲームコントローラ信号のうちのいずれか1つにより生成される信号をエミュレートすることによって制御信号から仮想カメラ出力信号を生成するように構成されるインタフェースと、
    を含む、システム。
  58. 請求項51に記載のシステムにおいて、ユーザ入力装置が少なくとも1つのスイッチを含む、システム。
  59. 請求項51に記載のシステムにおいて、カメラ制御入力装置が少なくとも1つの指作動制御装置を含む、システム。
  60. 請求項59に記載のシステムにおいて、少なくとも1つの指作動装置が複数の親指コントローラを含む、システム。
  61. 請求項51に記載のシステムにおいて、カメラ制御信号が、
    クレーン指令と、
    トラック指令と、
    ズーム指令と、
    ロール指令と、
    パン指令と、
    傾斜指令と、
    を有する複数のカメラ指令のうちの少なくとも1つを含む、システム。
  62. 請求項61に記載のシステムにおいて、ソフトウェアと仮想環境アプリケーションが、
    ビデオゲームソフトウェアアプリケーションと、
    デジタル映画制作アプリケーションと、
    三次元アニメーションアプリケーションと、
    コンピュータ援用設計(CAD)またはコンピュータ援用製造(CAM)アプリケーションと、
    ホログラフィアプリケーションと、
    医療用分析または手術用分析アプリケーションと、
    軍装備品や人員の準備を行う戦争ゲームアプリケーションシミュレーションと、
    飛行シミュレーション訓練アプリケーションと、
    生物学的分析用モデリングシミュレーションアプリケーションと、
    化学的分析用モデリングシミュレーションアプリケーションと、
    分子学的分析用モデリングシミュレーションアプリケーションと、
    構造設備グラフィックレンダリング関連シミュレーションアプリケーションと、
    のうちのいずれか1つである、システム。
  63. 請求項61に記載のシステムにおいて、仮想カメラの視像が、3次元プレイフィールド内の仮想カメラの位置と配向に基づく、システム。
  64. 請求項63に記載のシステムにおいて、視像がさらに、仮想カメラの仮想レンズの仮想焦点距離に基づく、システム。
  65. 仮想環境のビデオ表示を作成する方法であって、
    仮想環境内のイベントの視像間を変更するために仮想ビデオカメラ部品を移動するステップと、
    仮想環境内の視像のビデオコンテンツを捕捉するステップと、
    を備える方法。
  66. 請求項65に記載の方法であって、さらに、ビデオコンテンツと他のビデオ情報を組み合わせて、ライブカットビデオ信号を生成するステップを備える方法。
  67. 請求項66に記載の方法において、他のビデオ情報が、別の仮想ビデオカメラ部品により捕捉されるビデオコンテンツを含む、方法。
  68. 請求項66に記載の方法において、他のビデオ情報が、少なくとも1人のビデオゲームプレーヤのビデオ画像を含む、方法。
  69. 請求項66に記載の方法であって、さらに、ラインカットビデオ信号を放送するステップを備える方法。
  70. 請求項66に記載の方法であって、さらに、ラインカットビデオ信号を記録するステップを備える方法。
  71. 請求項66に記載の方法であって、さらに、視覚表示装置にラインカットビデオ信号を表示するステップを備える方法。
  72. 請求項66に記載の方法において、組み合わせるステップが、ビデオミキサ内の複数のビデオソースを組み合わせるステップを含む、方法。
  73. 請求項66に記載の方法において、ビデオコンテンツおよび他のビデオ情報が、イベントが起こっている間にリアルタイムで捕捉される、方法。
  74. 請求項66に記載の方法において、ビデオコンテンツおよび他のビデオ情報が、イベントが予め記録されている再生動作中に捕捉され、ビデオの再補足のために再生される、方法。
  75. 請求項65に記載の方法において、仮想ビデオカメラ部品が、
    カメラ制御入力装置信号を提供するように構成されるカメラ制御入力装置と、
    仮想ビデオカメラ部品の移動に応じて移動センサ信号を提供するように構成される移動センサと、
    カメラ制御入力装置信号および移動センサ信号に基づき仮想カメラ制御信号を生成するように構成される制御信号発生装置と、
    を含む、方法。
  76. 請求項73に記載の方法において、仮想カメラ制御信号が、
    クレーン指令と、
    トラック指令と、
    ズーム指令と、
    ロール指令と、
    パン指令と、
    傾斜指令と、
    を有する複数のカメラ指令のうちの少なくとも1つを含む、方法。
  77. 請求項74に記載の方法であって、さらに、視像間を切り替えて、そこからラインカットビデオ信号において結果を捕捉するステップ備える方法。
JP2007529855A 2004-08-23 2005-07-09 仮想環境を視聴および操作する装置、方法、およびシステム Pending JP2008510566A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US60370804P 2004-08-23 2004-08-23
PCT/US2005/024439 WO2006023153A1 (en) 2004-08-23 2005-07-09 Apparatus, methods and systems for viewing and manipulating a virtual environment

Publications (1)

Publication Number Publication Date
JP2008510566A true JP2008510566A (ja) 2008-04-10

Family

ID=35967840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007529855A Pending JP2008510566A (ja) 2004-08-23 2005-07-09 仮想環境を視聴および操作する装置、方法、およびシステム

Country Status (10)

Country Link
US (2) US7403220B2 (ja)
EP (1) EP1784787A4 (ja)
JP (1) JP2008510566A (ja)
KR (1) KR20060092854A (ja)
CN (2) CN101564596A (ja)
CA (1) CA2577487A1 (ja)
IL (1) IL181350A (ja)
MX (1) MX2007002011A (ja)
TW (1) TWI280786B (ja)
WO (1) WO2006023153A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004992A (ja) * 2009-06-25 2011-01-13 Konami Digital Entertainment Co Ltd ビデオゲーム装置

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090118019A1 (en) * 2002-12-10 2009-05-07 Onlive, Inc. System for streaming databases serving real-time applications used through streaming interactive video
US8457314B2 (en) 2004-09-23 2013-06-04 Smartvue Corporation Wireless video surveillance system and method for self-configuring network
US7508418B2 (en) * 2004-09-24 2009-03-24 Smartvue Corporation Wireless video surveillance system and method with DVR-based querying
US8750509B2 (en) * 2004-09-23 2014-06-10 Smartvue Corporation Wireless surveillance system releasably mountable to track lighting
US8752106B2 (en) * 2004-09-23 2014-06-10 Smartvue Corporation Mesh networked video and sensor surveillance system and method for wireless mesh networked sensors
US20060095539A1 (en) 2004-10-29 2006-05-04 Martin Renkis Wireless video surveillance system and method for mesh networking
US7728871B2 (en) 2004-09-30 2010-06-01 Smartvue Corporation Wireless video surveillance system & method with input capture and data transmission prioritization and adjustment
US8842179B2 (en) 2004-09-24 2014-09-23 Smartvue Corporation Video surveillance sharing system and method
JP4262726B2 (ja) * 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US20080153594A1 (en) * 2005-10-21 2008-06-26 Zheng Yu Brian Interactive Toy System and Methods
JP5204381B2 (ja) * 2006-05-01 2013-06-05 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP2007304666A (ja) * 2006-05-08 2007-11-22 Sony Computer Entertainment Inc 情報出力システム及び情報出力方法
WO2008004236A2 (en) 2006-07-06 2008-01-10 Sundaysky Ltd. Automatic generation of video from structured content
US7986917B2 (en) * 2006-07-10 2011-07-26 Sony Ericsson Mobile Communications Ab Method and system for data transfer from a hand held device
US8339402B2 (en) * 2006-07-16 2012-12-25 The Jim Henson Company System and method of producing an animated performance utilizing multiple cameras
US8125448B2 (en) * 2006-10-06 2012-02-28 Microsoft Corporation Wearable computer pointing device
US20080144901A1 (en) * 2006-10-25 2008-06-19 General Electric Company Cartoon-like exaggeration of medical images to emphasize abnormalities
ES2300204B1 (es) * 2006-11-16 2009-05-01 The Movie Virtual, S.L. Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada.
GB0624033D0 (en) 2006-12-01 2007-01-10 Iti Scotland Ltd Dynamic intervention with software applications
US20080158242A1 (en) * 2007-01-03 2008-07-03 St Jacques Kimberly Virtual image preservation
US8874661B2 (en) * 2008-08-07 2014-10-28 Microsoft Corporation Method and system providing spectator information for a multimedia application
US20100091015A1 (en) * 2008-10-15 2010-04-15 Robert Eric Heidel Product, service, and market integration of three dimensional modeling/rendering software for the construction, remodeling, manufacturing, designing, buying, and/or selling of homes, businesses, structures, vehicles, and/or buildings
US20110216004A1 (en) * 2010-03-08 2011-09-08 David Stephenson Tilt and position command system for input peripherals
US20160259433A1 (en) 2008-11-14 2016-09-08 David Stephenson Tilt and position command system for input peripherals
WO2010060211A1 (en) * 2008-11-28 2010-06-03 Nortel Networks Limited Method and apparatus for controling a camera view into a three dimensional computer-generated virtual environment
US8698898B2 (en) 2008-12-11 2014-04-15 Lucasfilm Entertainment Company Ltd. Controlling robotic motion of camera
US8441441B2 (en) * 2009-01-06 2013-05-14 Qualcomm Incorporated User interface for mobile devices
US9299184B2 (en) * 2009-04-07 2016-03-29 Sony Computer Entertainment America Llc Simulating performance of virtual camera
US8817078B2 (en) * 2009-11-30 2014-08-26 Disney Enterprises, Inc. Augmented reality videogame broadcast programming
US20110150434A1 (en) * 2009-12-23 2011-06-23 Empire Technology Development Llc A Pan camera controlling method
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
WO2011096203A1 (ja) 2010-02-03 2011-08-11 任天堂株式会社 ゲームシステム、操作装置、およびゲーム処理方法
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
WO2012007735A2 (en) * 2010-07-14 2012-01-19 University Court Of The University Of Abertay Dundee Improvements relating to viewing of real-time, computer-generated environments
US8964052B1 (en) 2010-07-19 2015-02-24 Lucasfilm Entertainment Company, Ltd. Controlling a virtual camera
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
WO2012032996A1 (ja) * 2010-09-09 2012-03-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR101364826B1 (ko) 2010-11-01 2014-02-20 닌텐도가부시키가이샤 조작 장치 및 조작 시스템
CN106984041B (zh) * 2011-02-11 2021-07-06 漳州市舟锋电子科技有限公司 一种人机互动控制系统
US8825187B1 (en) * 2011-03-15 2014-09-02 Motion Reality, Inc. Surround sound in a sensory immersive motion capture simulation environment
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
CN102819621B (zh) * 2011-06-10 2015-04-01 上海市电力公司 一种通过bim进行施工模拟的装置
CN102819624A (zh) * 2011-06-10 2012-12-12 上海市电力公司 一种检测bim模型的碰撞位置的装置
US10525347B2 (en) * 2012-03-13 2020-01-07 Sony Interactive Entertainment America Llc System and method for capturing and sharing console gaming data
US10486064B2 (en) 2011-11-23 2019-11-26 Sony Interactive Entertainment America Llc Sharing buffered gameplay in response to an input request
US9116555B2 (en) 2011-11-23 2015-08-25 Sony Computer Entertainment America Llc Gaming controller
US10960300B2 (en) 2011-11-23 2021-03-30 Sony Interactive Entertainment LLC Sharing user-initiated recorded gameplay with buffered gameplay
US20130293547A1 (en) * 2011-12-07 2013-11-07 Yangzhou Du Graphics rendering technique for autostereoscopic three dimensional display
CN103167439B (zh) * 2011-12-14 2018-05-11 富泰华工业(深圳)有限公司 基于环境回复短信的电子装置及方法
WO2013093837A1 (en) * 2011-12-23 2013-06-27 Koninklijke Philips Electronics N.V. Method and apparatus for interactive display of three dimensional ultrasound images
US20130191787A1 (en) * 2012-01-06 2013-07-25 Tourwrist, Inc. Systems and Methods for Acceleration-Based Motion Control of Virtual Tour Applications
US11406906B2 (en) 2012-03-13 2022-08-09 Sony Interactive Entertainment LLC Network connected controller for direct to cloud gaming
US10913003B2 (en) * 2012-03-13 2021-02-09 Sony Interactive Entertainment LLC Mini-games accessed through a sharing interface
US9345966B2 (en) 2012-03-13 2016-05-24 Sony Interactive Entertainment America Llc Sharing recorded gameplay to a social graph
US9595166B2 (en) * 2012-04-25 2017-03-14 Fresh Ideal Global Limited Electronic gaming device
US8532675B1 (en) 2012-06-27 2013-09-10 Blackberry Limited Mobile communication device user interface for manipulation of data items in a physical space
US9352226B2 (en) 2012-12-21 2016-05-31 Sony Interactive Entertainment America Llc Automatic generation of suggested mini-games for cloud-gaming based on recorded gameplay
US9364743B2 (en) 2012-12-21 2016-06-14 Sony Interactive Entertainment America Llc Generation of a multi-part mini-game for cloud-gaming based on recorded gameplay
CN103961883B (zh) * 2013-01-29 2016-05-25 智高实业股份有限公司 玩具系统及其显像单元
GB2512621A (en) * 2013-04-04 2014-10-08 Sony Corp A method and apparatus
US10114537B2 (en) 2013-06-10 2018-10-30 Honeywell International Inc. Frameworks, devices and methods configured for enabling touch/gesture controlled display for facility information and content with resolution dependent display and persistent content positioning
US9619124B2 (en) 2013-06-10 2017-04-11 Honeywell International Inc. Frameworks, devices and methods configured for enabling gesture-based controlled display for facility information and content in respect of a multi-level facility
US9804735B2 (en) 2013-06-10 2017-10-31 Honeywell International Inc. Frameworks, devices and methods configured for enabling transition of content in a user interface between a map-bound layer and a map-unbound layer
US10474240B2 (en) 2013-06-10 2019-11-12 Honeywell International Inc. Frameworks, devices and methods configured for enabling gesture-based interaction between a touch/gesture controlled display and other networked devices
US9672006B2 (en) 2013-06-10 2017-06-06 Honeywell International Inc. Frameworks, devices and methods configured for enabling a multi-modal user interface configured to display facility information
US9530326B1 (en) 2013-06-30 2016-12-27 Rameshsharma Ramloll Systems and methods for in-situ generation, control and monitoring of content for an immersive 3D-avatar-based virtual learning environment
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
EP3014578B1 (en) 2014-04-30 2018-08-01 Intel Corporation System for and method of generating user-selectable novel views on a viewing device
TW201601529A (zh) * 2014-06-20 2016-01-01 Insyde Software Corp 互動式多媒體資料即時分享方法及系統、電腦程式產品
TWI577227B (zh) * 2014-08-26 2017-04-01 宏碁股份有限公司 在使用者裝置內設定細胞廣播服務功能之方法
CA2983046A1 (en) 2015-04-23 2016-10-27 Hasbro, Inc. Context-aware digital play
CN105718403A (zh) * 2016-01-18 2016-06-29 沈阳东软医疗系统有限公司 一种通过扩展接口进行数据通信的方法及扩展接口
US11163358B2 (en) * 2016-03-17 2021-11-02 Sony Interactive Entertainment Inc. Spectating virtual (VR) environments associated with VR user interactivity
KR20230113663A (ko) * 2016-05-20 2023-07-31 매직 립, 인코포레이티드 사용자 인터페이스 메뉴의 콘텍추얼 인식
KR101918853B1 (ko) * 2017-06-28 2018-11-15 민코넷주식회사 게임 리플레이 영상 생성 시스템
EP3561795B1 (en) * 2018-04-23 2023-04-05 Yu-Hsuan Huang Augmented reality training system
GB2580625B (en) * 2019-01-17 2023-04-19 Mo Sys Engineering Ltd Camera control
TWI767155B (zh) * 2019-04-09 2022-06-11 仁寶電腦工業股份有限公司 遊戲裝置與遊戲控制器
TWI708976B (zh) * 2019-08-13 2020-11-01 華碩電腦股份有限公司 顯示裝置及其控制方法
US11086491B1 (en) 2020-01-21 2021-08-10 Honeywell International Inc. Systems and methods for displaying video streams on a display
EP3883235A1 (en) 2020-03-17 2021-09-22 Aptiv Technologies Limited Camera control modules and methods
EP4301482A1 (en) * 2021-05-06 2024-01-10 Google LLC Directing in-game mode for first client device using second client device
CN114579565B (zh) * 2022-02-22 2024-02-13 中国人民解放军国防科技大学 一种基于触发器的仿真数据远程存储方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0724141A (ja) * 1993-07-12 1995-01-27 Namco Ltd 頭部装着体を用いたゲーム装置
JP2001224865A (ja) * 1999-12-08 2001-08-21 Sega Corp 通信ゲームシステムおよび通信ゲーム処理方法
JP2002525769A (ja) * 1998-09-22 2002-08-13 ヴェガ ヴィスタ インコーポレイテッド 携帯型データディスプレイの直接的コントロール方法
JP2002298160A (ja) * 2001-03-29 2002-10-11 Namco Ltd 携帯型画像生成装置、プログラム及び情報記憶媒体
JP2003325974A (ja) * 2002-05-17 2003-11-18 Nintendo Co Ltd ゲームシステムおよびゲームプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5440326A (en) 1990-03-21 1995-08-08 Gyration, Inc. Gyroscopic pointer
FR2675977B1 (fr) * 1991-04-26 1997-09-12 Inst Nat Audiovisuel Procede de modelisation d'un systeme de prise de vues et procede et systeme de realisation de combinaisons d'images reelles et d'images de synthese.
US5645077A (en) * 1994-06-16 1997-07-08 Massachusetts Institute Of Technology Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body
US5594169A (en) 1994-11-04 1997-01-14 Gyration,Inc. Optically sensed wire gyroscope apparatus and system, and methods for manufacture and cursor control
US6195122B1 (en) * 1995-01-31 2001-02-27 Robert Vincent Spatial referenced photography
US6369952B1 (en) * 1995-07-14 2002-04-09 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
US6127990A (en) * 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US6193610B1 (en) 1996-01-05 2001-02-27 William Junkin Trust Interactive television system and methodology
US5825350A (en) 1996-03-13 1998-10-20 Gyration, Inc. Electronic pointing apparatus and method
DE19629484A1 (de) 1996-07-12 1998-01-15 Arnold & Richter Kg Vorrichtung zur Steuerung, Regelung und Kontrolle einer Laufbildkamera
JPH1094676A (ja) 1996-09-20 1998-04-14 Konami Co Ltd 対戦型ゲームシステムにおける画像表示方法及びゲームシステム
US5783460A (en) * 1996-10-25 1998-07-21 Headway Technologies, Inc. Method of making self-aligned dual stripe magnetoresistive (DRMR) head for high density recording
GB9706839D0 (en) * 1997-04-04 1997-05-21 Orad Hi Tec Systems Ltd Graphical video systems
DE19716958A1 (de) * 1997-04-17 1998-10-22 Zbigniew Rybczynski Optisches Abbildungssystem
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6409596B1 (en) * 1997-09-12 2002-06-25 Kabushiki Kaisha Sega Enterprises Game device and image displaying method which displays a game proceeding in virtual space, and computer-readable recording medium
US6176837B1 (en) * 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
US6314055B1 (en) * 1998-10-16 2001-11-06 Intersense, Inc. Range measuring system
US6972734B1 (en) * 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
US6545661B1 (en) * 1999-06-21 2003-04-08 Midway Amusement Games, Llc Video game system having a control unit with an accelerometer for controlling a video game
US6409599B1 (en) 1999-07-19 2002-06-25 Ham On Rye Technologies, Inc. Interactive virtual reality performance theater entertainment system
CN1281209A (zh) * 1999-07-20 2001-01-24 浙江大学 基于大屏幕显示的“光电虚拟黑板”系统
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6757068B2 (en) * 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
US7000469B2 (en) * 2000-04-21 2006-02-21 Intersense, Inc. Motion-tracking
US6474159B1 (en) * 2000-04-21 2002-11-05 Intersense, Inc. Motion-tracking
US6447396B1 (en) 2000-10-17 2002-09-10 Nearlife, Inc. Method and apparatus for coordinating an interactive computer game with a broadcast television program
US6999083B2 (en) * 2001-08-22 2006-02-14 Microsoft Corporation System and method to provide a spectator experience for networked gaming
US7474296B2 (en) 2002-04-12 2009-01-06 Obermeyer Henry K Multi-axis joystick and transducer means therefore
US7231063B2 (en) * 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US7038660B2 (en) * 2003-03-13 2006-05-02 Sony Corporation Wheel motion control input device for animation system
US7233316B2 (en) 2003-05-01 2007-06-19 Thomson Licensing Multimedia user interface
US7173604B2 (en) * 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
EP1946243A2 (en) * 2005-10-04 2008-07-23 Intersense, Inc. Tracking objects with markers

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0724141A (ja) * 1993-07-12 1995-01-27 Namco Ltd 頭部装着体を用いたゲーム装置
JP2002525769A (ja) * 1998-09-22 2002-08-13 ヴェガ ヴィスタ インコーポレイテッド 携帯型データディスプレイの直接的コントロール方法
JP2001224865A (ja) * 1999-12-08 2001-08-21 Sega Corp 通信ゲームシステムおよび通信ゲーム処理方法
JP2002298160A (ja) * 2001-03-29 2002-10-11 Namco Ltd 携帯型画像生成装置、プログラム及び情報記憶媒体
JP2003325974A (ja) * 2002-05-17 2003-11-18 Nintendo Co Ltd ゲームシステムおよびゲームプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004992A (ja) * 2009-06-25 2011-01-13 Konami Digital Entertainment Co Ltd ビデオゲーム装置

Also Published As

Publication number Publication date
IL181350A (en) 2011-01-31
WO2006023153A9 (en) 2006-07-27
US20060038890A1 (en) 2006-02-23
CN101564596A (zh) 2009-10-28
WO2006023153A1 (en) 2006-03-02
US7403220B2 (en) 2008-07-22
CN101010700A (zh) 2007-08-01
EP1784787A1 (en) 2007-05-16
MX2007002011A (es) 2007-08-07
TW200621009A (en) 2006-06-16
US20070101383A1 (en) 2007-05-03
CN101010700B (zh) 2010-05-26
EP1784787A4 (en) 2007-10-17
KR20060092854A (ko) 2006-08-23
IL181350A0 (en) 2007-07-04
TWI280786B (en) 2007-05-01
CA2577487A1 (en) 2006-03-02

Similar Documents

Publication Publication Date Title
JP2008510566A (ja) 仮想環境を視聴および操作する装置、方法、およびシステム
US11663785B2 (en) Augmented and virtual reality
US10657693B2 (en) Method for scripting inter-scene transitions
JP3928229B2 (ja) 表示制御装置および表示制御方法、並びに記録媒体
US20180321742A1 (en) Methods and Systems for Gaze-Based Control of Virtual Reality Media Content
KR101329619B1 (ko) 컴퓨터 네트워크 기반 3차원 렌더링 시스템
US11250617B1 (en) Virtual camera controlled by a camera control device
EP2600316A1 (en) Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
EP3631602A1 (en) Methods and systems for customizing virtual reality data
JP7167134B2 (ja) 自由視点画像生成方法、自由視点画像表示方法、自由視点画像生成装置及び表示装置
US20040032410A1 (en) System and method for generating a structured two-dimensional virtual presentation from less than all of a three-dimensional virtual reality model
JP2022537861A (ja) Arシーンコンテンツの生成方法、表示方法、装置及び記憶媒体
CN113253842A (zh) 场景编辑方法和相关装置、设备
JP2002140731A (ja) 画像処理装置および方法、画像処理システム、記録媒体
JP4447896B2 (ja) 画像処理装置および方法
CN111897437A (zh) 跨终端的交互方法、装置、电子设备以及存储介质
AU2005203637A1 (en) Apparatus, methods, and systems for viewing and manipulating a virtual environment
Romão et al. ANTS—augmented environments
JP2004199159A (ja) 情報処理方法、情報処理装置、プログラムおよび記憶媒体
CN109716395A (zh) 在虚拟现实中保持对象稳定性
JP6931375B2 (ja) 送信装置および送信方法、プログラム
JP2004054828A (ja) 画像処理装置
Broll et al. The Mixed Reality Stage-an interactive collaborative pre-production environment
CN116962660A (zh) 图像处理系统、图像处理方法和存储介质
JP2003187268A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111025