JP6158406B2 - 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム - Google Patents

携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム Download PDF

Info

Publication number
JP6158406B2
JP6158406B2 JP2016170894A JP2016170894A JP6158406B2 JP 6158406 B2 JP6158406 B2 JP 6158406B2 JP 2016170894 A JP2016170894 A JP 2016170894A JP 2016170894 A JP2016170894 A JP 2016170894A JP 6158406 B2 JP6158406 B2 JP 6158406B2
Authority
JP
Japan
Prior art keywords
user
spectator
video stream
interactive
portable device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016170894A
Other languages
English (en)
Other versions
JP2016219056A (ja
Inventor
オスマン スティーブン
オスマン スティーブン
ズ ヤンペン
ズ ヤンペン
ロジャー スタッフォード ジェフリー
ロジャー スタッフォード ジェフリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2016219056A publication Critical patent/JP2016219056A/ja
Application granted granted Critical
Publication of JP6158406B2 publication Critical patent/JP6158406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/323Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections between game devices with different hardware characteristics, e.g. hand-held game devices connectable to game consoles or arcade machines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/403Connection between platform and handheld device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player

Description

本発明はインタラクティブアプリケーションとのインタラクションを可能とするための方法およびシステムに関する。
テレビゲーム産業において成長している分野では、手持ち式の携帯デバイスが使用されるようになっている。そのような携帯デバイスの例として、ソニーコンピュータエンターテインメント社製の専用のゲーム装置や、スマートフォン、携帯情報端末(PDA)、デジタルマルチメディアプレーヤなどのその他の種類の携帯デバイスがある。
このようなポータブルデバイスの演算能力の向上に伴い、手持ち式のデバイスはますます複雑なプログラム及びタスクを扱う能力を有するようになっている。
例えば、今日の手持ち式のデバイスは、単一のデバイスに集積されたいくつかの異なるタイプのハードウェアを含みうる。そのようなデバイスの多くは、カラー画面、カメラ、スピーカ、およびボタン、タッチスクリーン又はスタイラスなどの入力メカニズムを含みうる。
本発明の実施形態はこのような状況に鑑みて生まれたものである。
本発明の各実施形態は、主画面に表示されるインタラクティブアプリケーションのインタラクティブセッションの画像を携帯デバイスがキャプチャすることを可能とするための方法およびシステムを提供する。本発明はコンピュータプロセス、装置、システム、デバイス、コンピュータ読み取り可能な記録媒体上の方法など、多様な方法で実現することが可能であることを理解されたい。本発明のいくつかの進歩性を有する発明の実施形態が以下に説明される。
一実施形態では、主画面に表示されるインタラクティブアプリケーションのインタラクティブセッションの画像を携帯デバイスがキャプチャすることを可能とするための方法が提供される。この方法によれば、インタラクティブアプリケーションのインタラクティブセッションが開始する。このインタラクティブセッションは、ユーザとインタラクティブアプリケーションとの間のインタラクションを定義したものである。次に、スペクテータ、いわゆる観客、により操作される携帯デバイスの最初の位置と方向とが決定される。ユーザとインタラクティブアプリケーションとの間のインタラクションに基づいてインタラクティブアプリケーションの現在の状態が決定され、携帯デバイスの位置と方向とがインタラクティブセッションの間にトラッキングされる。このインタラクティブアプリケーションの現在の状態と、トラッキングされた携帯デバイスの位置と方向とに基づいて、インタラクティブセッションのスペクテータビデオストリームが生成される。スペクテータビデオストリームは携帯デバイスの携帯画面に表示される。
一実施形態では、インタラクティブセッションはユーザにより操作されるコントローラデバイスからインタラクティブな入力を受けるためのオペレーションを含む。このインタラクティブな入力はインタラクティブアプリケーションの現在の状態を決定するために利用される。
一実施形態では、アプリケーションビデオストリームはインタラクティブアプリケーションの現在の状態に基づいて生成され、主画面に表示される。インタラクティブセッションはユーザと、表示されたアプリケーションビデオストリームとの間のインタラクションを定義する。
一実施形態では、携帯デバイスの位置と方向とはインタラクティブアプリケーションにより定義される仮想空間内の仮想視点の位置と方向とを定義する。また、スペクテータビデオストリームは仮想視点の視点からキャプチャした仮想空間の画像を含む。
一実施形態では、スペクテータビデオストリームを携帯デバイスの携帯画面に表示することができるように、スペクテータビデオストリームは、インタラクティブアプリケーションから携帯デバイスに送信される。
一実施形態では、インタラクティブアプリケーションの現在の状態に基づいて決定され、携帯デバイスに送信される。スペクテータビデオストリームはアプリケーション状態データと、携帯デバイスのトラッキングされた位置と方向とに基づいて携帯デバイスにおいて生成される。
一実施形態では、ユーザとインタラクティブアプリケーションとの間のインタラクションが生じるインタラクティブ環境で、環境ビデオストリームがキャプチャされる。スペクテータビデオストリームはこの環境ビデオストリームに基づいて生成される。
一実施形態では、スペクテータビデオストリームは環境ビデオストリームを仮想要素で拡張することにより生成される。
一実施形態では、スペクテータビデオストリームの生成には、環境ビデオストリーム内でユーザを検出し、環境ビデオストリームにおいて検出したユーザの少なくとも一部を仮想要素に置き換える方法オペレーションを含む。一実施形態では、この置き換えには、環境ビデオストリームにおいて検出したユーザを、ユーザにより制御されるインタラクティブアプリケーションのキャラクタに置き換えることを含む。
一実施形態では、ユーザの最初の位置が決定され、このユーザの位置はインタラクティブセッションの間トラッキングされる。スペクテータビデオストリームはユーザの位置に対する携帯デバイスの位置と方向とに基づいて生成される。
一実施形態では、インタラクティブアプリケーションの仮想環境内のオブジェクトがユーザの位置に対してマッピングされる。ユーザの位置に対する携帯デバイスの位置と方向とはインタラクティブアプリケーションにより定義される仮想空間内の仮想視点の位置と方向とを定義する。またスペクテータビデオストリームは仮想視点の視点からキャプチャした仮想空間の画像を含む。オブジェクトは携帯デバイスがユーザに向けられる場合にスペクテータビデオストリームの画像に含まれる。一実施形態では、オブジェクトはユーザにより制御される。一実施形態では、オブジェクトはインタラクティブアプリケーションのキャラクタである。別の実施形態では、ユーザの位置はユーザにより操作されるコントローラデバイスの位置に基づいて決定される。
一実施形態では、ユーザとインタラクティブアプリケーションとの間のインタラクションが生じるインタラクティブ環境で、環境ビデオストリームがキャプチャされる。ユーザの位置と、ユーザの位置に対する携帯デバイスの位置と方向とは環境ビデオストリームに少なくとも一部基づいて決定される。一実施形態では、スペクテータビデオストリームはメモリに記憶される。
本発明の別の実施形態では、主画面に表示されるインタラクティブアプリケーションのインタラクティブセッションの映像をキャプチャするためのシステムが提供される。このシステムには、インタラクティブアプリケーションを表示するためのコンソールデバイスが含まれる。
コンソールデバイスは、(i)インタラクティブアプリケーションのインタラクティブセッションを開始するためのセッションモジュールを含む。このインタラクティブセッションは、ユーザとインタラクティブアプリケーションとの間のインタラクションを定義するものである。
更にコンソールデバイスは、(ii)インタラクティブセッションの間スペクテータにより操作される携帯デバイスの位置と方向とを決定しトラッキングするための携帯デバイスモジュールと、(iii)インタラクティブアプリケーションの現在の状態と、トラッキングされた携帯デバイスの位置と方向とに基づいてインタラクティブセッションのスペクテータビデオストリームを生成するためのスペクテータビデオストリームモジュールと、を含む。
システムは更にスペクテータビデオストリームを表示するための携帯画面を含む携帯デバイスを含む。一実施形態では、前記ユーザにより操作される、インタラクティブな入力を行うコントローラデバイスを更に含み、前記インタラクティブな入力は前記インタラクティブアプリケーションの前記現在の状態を決定するために利用される。
一実施形態では、コンソールデバイスは、インタラクティブアプリケーションの現在の状態に基づいてアプリケーションビデオストリームを生成し、このアプリケーションビデオストリームを主画面に表示するためのアプリケーションビデオストリームモジュールを更に含む。インタラクティブセッションはユーザと表示されたアプリケーションビデオストリームとの間のインタラクションを定義する。
一実施形態では、携帯デバイスの位置と方向とはインタラクティブアプリケーションにより定義される仮想空間内の仮想視点の位置と方向とを定義する。更に、スペクテータビデオストリームは仮想視点の視点からキャプチャした仮想空間の画像を含む。
一実施形態では、スペクテータビデオストリームを携帯デバイスの携帯画面に表示することができるように、スペクテータビデオストリームモジュールはスペクテータビデオストリームをインタラクティブアプリケーションから携帯デバイスに送信する。
一実施形態では、携帯デバイスは、ユーザとインタラクティブアプリケーションとの間にインタラクションが生じるインタラクティブ環境の環境ビデオストリームをキャプチャするための画像キャプチャデバイス更に含む。スペクテータビデオストリームモジュールは環境ビデオストリームに基づいてスペクテータビデオストリームを生成する。
一実施形態では、スペクテータビデオストリームモジュールは環境ビデオストリームを仮想要素で拡張することによりスペクテータビデオストリームを生成する。
一実施形態では、スペクテータビデオストリームモジュールは環境ビデオストリーム内でユーザを検出し、環境ビデオストリームにおいて検出したユーザの少なくとも一部を仮想要素で置き換えることによりスペクテータビデオストリームを生成する。一実施形態では、この置き換えにおいて、環境ビデオストリームで検出したユーザを、ユーザが制御するインタラクティブアプリケーションのキャラクタに置き換える。
一実施形態では、ユーザの最初の位置を決定し、インタラクティブセッションの間、ユーザの位置をトラッキングするユーザトラッキングモジュールを更に含む。スペクテータビデオストリームモジュールはユーザの位置に対する携帯デバイスの位置と方向とに基づいてスペクテータビデオストリームを生成する。
本発明の別の態様は、例として本発明の原理を示している添付の図面と併せて、以下の詳細な説明からより明白になるであろう。本発明は、添付の図面と併せて以下の説明を参照することによって、最も良く理解することができる。
本発明の一実施形態に係る、インタラクティブアプリケーションのインタラクティブセッションの映像を携帯デバイスがキャプチャすることを可能とするシステムの説明図。 本発明の一実施形態に係る、インタラクティブアプリケーションとインタラクションを行うユーザとスペクテータを含むインタラクティブ環境の説明図。 本発明の一実施形態に係る、インタラクティブアプリケーションとインタラクションを行うユーザとスペクテータを含むインタラクティブ環境の説明図。 本発明の一実施形態に係る、インタラクティブアプリケーションとインタラクションを行うユーザとスペクテータを含むインタラクティブ環境の上面図。 本発明の一実施形態に係る、スペクテータの視点からの図4Aのインタラクティブ環境の説明図。 本発明の一実施形態に係る、携帯デバイスを操作中のスペクテータの視点から示す、インタラクティブアプリケーションとインタラクションを行っているユーザを含むインタラクティブ環境の説明図。 本発明の一実施形態に係る、スペクテータの視点から示すインタラクティブ環境の説明図。 本発明の一実施形態に係る、主画面に表示されるインタラクティブアプリケーションを実行するコンソールデバイスを含むインタラクティブ環境の説明図。 本発明の一実施形態に係る、現実世界のインタラクティブ環境の座標空間を示す説明図。 図8Aの現実世界のインタラクティブ環境の座標空間に対応する仮想空間の座標空間を示す説明図。 本発明の一実施形態に係る、インタラクティブ環境における位置が球面座標系または円柱座標系の原点を定義するユーザを示す説明図。 図9Aのインタラクティブ環境がマッピングされている仮想空間を示す説明図。 本発明の一実施形態に係る、インタラクティブ環境の俯瞰図。 スペクテータが図10Aに示した場所に位置決めされる場合に携帯デバイスに表示される映像を示すシーンを描画した図。 本発明の一実施形態に係る、スペクテータにより操作される携帯デバイスが、インタラクティブゲームの映像を表示することを可能とする方法を示す図。 本発明の一実施形態に係る、スペクテータがインタラクティブアプリケーションの状態に影響を与えるように携帯デバイスを利用することを可能とするシステムを示す図。 本発明の一実施形態に係る、スペクテータが手持ち式のデバイスを利用してゲームに影響を与えることを可能とする方法を示す図。 本発明の一実施形態に係る、手持ち式デバイスの構成要素を示す図。 本発明の一実施形態に係る、基本となるコンピューティングデバイスにおいて実行されるコンピュータプログラムを有する制御デバイスと携帯デバイスとのインタフェースのために親和性の高いコンソールである、ソニー(登録商標)プレイステーション3(登録商標)エンタテインメントデバイスの全体のシステム構成を概略的に示す図。
以下の各実施形態は、インタラクティブアプリケーションが携帯デバイスのリソースを利用することを可能とするシステムのための方法および装置を説明する。本発明の一実施形態では、プライマリ処理インタフェースは、インタラクティブアプリケーションのプライマリビデオストリームを画面に表示するために提供される。第1ユーザは画面に表示されたプライマリビデオストリームを見て、このプライマリ処理インタフェースと通信するコントローラデバイスを操作することによりインタラクションを行う。同時に、第2ユーザは、同じインタラクティブ環境において携帯デバイスを操作する。携帯デバイスは、プライマリビデオストリームを表示する画面とは分離された携帯デバイスの画面に、インタラクティブアプリケーションの補助的なビデオストリームを表示する。このように、本発明の実施形態に係る方法及び装置が以下に説明される。
しかし、これらの特定の詳細の一部あるいは全てを伴わずに実装してもよいことは当業者には明らかであろう。その他、既知の処理手順は、本発明を不必要に不明瞭なものとしないように、詳細に記載していない。
図1を参照すると、本発明の一実施形態に係る、インタラクティブアプリケーションのインタラクティブ セッションの映像を携帯デバイスがキャプチャすることを可能とするためのシステムが示される。システムは、ユーザがインタラクティブアプリケーションとインタラクションを行うインタラクティブ環境に存在する。システムは、インタラクティブアプリケーション12を実行するコンソールデバイス10を含む。コンソールデバイス10は、コンピュータ、コンソールゲームシステム、セットトップボックス、メディアプレーヤ、あるいはインタラクティブアプリケーションの実行が可能なその他の任意の種類のコンピューティングデバイスであってよい。
コンソールゲームシステムの例として、ソニープレーステーション3(登録商標)などが挙げられる。インタラクティブアプリケーション12は、複数のユーザのうちの1ユーザとアプリケーションそれ自体との間でのインタラクションを容易にする任意の様々な種類のアプリケーションであってもよい。インタラクティブアプリケーションの例として、テレビゲーム、シミュレータ、バーチャルリアリティプログラム、ユーティリティ、又は、ユーザとアプリケーションとの間のインタラクションを容易にするその他の任意の種類のプログラム又はアプリケーションであってもよい。
インタラクティブアプリケーション12は、その現在の状態に基づいて映像データを作成する。この映像データは、音声/画像プロセッサ26により処理され、アプリケーションビデオストリーム28を生成する。アプリケーションビデオストリーム28は主画面30へ送られて主画面30に表示される。本文において使用されている「ビデオ」なる用語は、一般には同期された画像データと音声データの組み合わせを指すが、本発明の各種実施形態において、「ビデオ」なる用語は画像データだけを指す場合がある。従って、例えば、アプリケーションビデオストリーム28は画像データと音声データの両方を含む場合もあるし、画像データしか含まない場合もある。主画面は、テレビ、モニタ、液晶画面、プロジェクタ、又はビデオデータストリームの視覚表示が可能な任意のその他の種類の表示装置としてもよい。
更にインタラクティブアプリケーション12はコントローラデバイス32と通信するためのコントローラ入力モジュール24を含む。コントローラデバイス32は、インタラクティブアプリケーションに対してインタラクティブな入力を行うためにユーザにより操作されうる任意の各種のコントローラとしてもよい。コントローラデバイスの例として、ソニーデュアルショック3(登録商標)無線コントローラが挙げられる。コントローラデバイス32は無線又は有線接続によりコンソールデバイス10と通信することができる。コントローラデバイス32はユーザ36からのインタラクティブな入力を受けるための少なくとも1つの入力メカニズム34を有する。入力メカニズムの例として、ボタン、ジョイスティック、タッチバッド、タッチスクリーン、方向パッド、スタイラス入力、又はユーザからインタラクティブな入力を受けるためにコントローラデバイスに含まれうる任意のその他の種類の入力メカニズムが挙げられる。ユーザ36が入力メカニズム34を操作すると、コントローラデバイス32はインタラクティブ入力データ38を生成する。このデータはインタラクティブアプリケーション12のコントローラ入力モジュール24に送られる。
インタラクティブアプリケーション12はセッションモジュール14を含む。このセッションモジュール14は、ユーザ36とインタラクティブアプリケーション12とのインタラクションを定義するインタラクティブアプリケーションのセッションを開始するものである。例えば、インタラクティブアプリケーションの開始されたセッションは新たなセッションであってもよいし、インタラクティブアプリケーション12が前にセーブしたセッションの続きであってもよい。インタラクティブアプリケーション12が実行され、アプリケーションビデオストリーム28を介して主画面30に表示されると、ユーザ36はこの主画面30に表示されたアプリケーションビデオストリームを見て、コントローラデバイス32を操作することによりインタラクティブな入力データ38をインタラクティブアプリケーションに提供する。
このインタラクティブ入力データ38はインタラクティブアプリケーション12の状態に影響を与えるようにインタラクティブアプリケーション12により処理される。インタラクティブアプリケーション12の状態がアップデートされる。このアップデートされた状態は主画面30に表示されるアプリケーションビデオストリーム28に反映される。従って、インタラクティブアプリケーション12の現在の状態は、インタラクティブ環境におけるユーザ36とインタラクティブアプリケーション12とのインタラクションに基づいて決定される。
インタラクティブアプリケーション12は更に、携帯デバイス40と通信するための携帯デバイスモジュール16を含む。携帯デバイス40は、携帯電話、携帯端末(PDA)、タブレット型コンピュータ、電子書籍、小型コンピュータ、携帯ゲーム機、又は画像表示が可能であればいずれのその他の携帯デバイスであってよい。携帯デバイスの一例として、ソニープレイステーションポータブル(登録商標)が挙げられる。携帯デバイス40はスペクテータ48により操作され、これにはスペクテータビデオストリーム52を表示するためのディスプレイ42が含まれる。入力メカニズム44は、ユーザ48がインタラクティブアプリケーション12に対してインタラクティブな入力を行うことを可能とするために提供される。更に、携帯デバイス40は、位置および方向センサ46を含む。センサ46は、インタラクティブ環境内での携帯デバイス40の位置と方向とを決定するために利用されうる。
位置および方向センサの例として、加速度計、磁力計、ジャイロスコープ、カメラ、光学センサ、あるいは、携帯デバイスの位置と方向とを決定するために利用されうるデータを生成するために携帯デバイスに含まれうる任意のその他の種類のセンサ又はデバイスなどが挙げられる。スペクテータ48が携帯デバイス40を操作すると、位置および方向センサ46はセンサデータ50を生成する。このデータは携帯デバイスモジュール16に送信される。携帯デバイスモジュール16はインタラクティブ環境内での携帯デバイス40の位置を決定するための位置モジュール18と、インタラクティブ環境内での携帯デバイス40の方向を決定する方向モジュール20を含む。携帯デバイス40の位置と方向とはインタラクティブアプリケーション12のインタラクティブセッションの間、トラッキングされる。
携帯デバイス40の位置および方向を決定するための各種の技術はいずれも本発明の範囲から逸脱することなく適用されうることが当業者に理解されるであろう。例えば、一実施形態では、携帯デバイスはインタラクティブ環境の画像ストリームをキャプチャするための画像キャプチャデバイスを含む。この携帯デバイス40の位置と方向はキャプチャした画像ストリームの分析に基づいてトラッキングされる。例えば、インタラクティブ環境に1以上のタグを配置し、これを携帯デバイス40の画像キャプチャデバイスによりキャプチャされた像における歪みに基づいて携帯デバイスの位置と方向とを決定するための基準マーカ(Fiduciary Marker:FM)として利用するようにしてもよい。タグはオブジェクトや図表であってもよいし、インタラクティブ環境のキャプチャされた画像ストリームに表示される場合に認識される、主画面に表示される画像の一部であってもよい。タグはインタラクティブ環境内での位置の決定を可能とする基準マーカとして機能する。更に、キャプチャされた画像ストリームのタグの像における歪みは、携帯デバイスの位置と方向とを示す。
別の実施形態では、携帯デバイス40の位置と方向をトラッキングすることを目的として任意の様々な方法を適用することができる。例えば、携帯デバイス40の位置と方向を決定するために自然特徴点トラッキング法(NFTM:Natural Feature Tracking Methods)や同時位置決め地図作成(SLAM:Simultaneous Location and Mapping)法を適用することができる。一般に、自然特徴点トラッキング法は、 テクスチャ、エッジ 、 コーナ等の、実環境における、(人工的に導入された基準とは対照的な)「自然の」特徴を検出し、トラッキングする。別の実施形態では、携帯デバイス40をトラッキングするために1以上の画像分析法を適用することができる。例えば、携帯デバイス40の位置と方向をトラッキングするために、タグと自然特徴点トラッキング又はSLAM法の組み合わせを採用してもよい。
更に、加速度計、磁力計、又はジャイロスコープなどの携帯デバイス40内のモーションセンシティブハードウェアからの情報に基づいて携帯デバイス40の動きがトラッキングされてもよい。一実施形態では、携帯デバイス40の最初の位置が決定される。この最初の位置に対する携帯デバイス40の動きは、加速度計、磁力計、又はジャイロスコープからの情報に基づいて決定される。他の実施形態では、加速度計、磁力計、又はジャイロスコープなどの携帯デバイス40のモーションセンシティブハードウェアを、タグや自然特徴点トラッキング技術などの上述した技術と組み合わせて使用し、携帯デバイス40の位置、方向および動きを確定するようにしてもよい。
インタラクティブアプリケーションはスペクテータビデオモジュール22を含む。このモジュールはインタラクティブアプリケーション12の現在の状態と、インタラクティブ環境における携帯デバイスのトラッキングされた位置と方向と基づいてスペクテータビデオストリーム52を生成するものである。このスペクテータビデオストリーム52は携帯デバイス40に送信され、携帯デバイス40の画面42に表示される。
本発明の各種実施形態では、インタラクティブアプリケーション12のインタラクティブセッションの映像をスペクテータ48がキャプチャすることを可能とするように上述のシステムが適用されうる。例えば、一実施形態では、インタラクティブアプリケーション12はインタラクティブセッションのアクティビティが行われる仮想空間を定義しうる。従って、インタラクティブアプリケーションにより定義される仮想空間内の仮想視点の位置と方向とを定義するためにトラッキングされた携帯デバイス40の位置と方向を利用されうる。従って、スペクテータビデオストリーム52は、仮想視点の視点からキャプチャされた仮想空間の画像を含むことになる。スペクテータ48がインタラクティブ環境において様々な位置と方向とに携帯デバイス40を動かすと、仮想視点の位置と方向が変化する。この結果、スペクテータビデオストリーム52の画像がキャプチャされる仮想空間における視点が変化し、携帯デバイスの画面42に最終的に表示される。このようにして、スペクテータ48は、携帯デバイス40を直感的な方法で動かすことで仮想空間内の仮想カメラのオペレータとしての機能を果たし、仮想空間内で仮想カメラを同様に動かすことができるようになる。
別の実施形態では、スペクテータビデオストリームはコンソールデバイス10ではなく携帯デバイス40において生成される。そのような実施形態では、アプリケーション状態データはまずインタラクティブアプリケーション12の現在の状態に基づいて決定される。このアプリケーション状態データは携帯デバイス40に送信される。携帯デバイス40はこのアプリケーション状態データを処理し、このアプリケーション状態データと、トラッキングされた携帯デバイスの位置と方向とに基づいてスペクテータビデオストリームを生成する。別の実施形態では、インタラクティブ環境の環境ビデオストリームがキャプチャされ、スペクテータビデオストリーム52はこの環境ビデオストリームに基づいてが生成される。この環境ビデオストリームは携帯デバイス40に含まれるカメラにおいてキャプチャされてもよい。
一実施形態では、スペクテータビデオストリーム52は環境ビデオストリームを仮想要素で拡張することにより生成される。環境ビデオストリームが携帯デバイス40においてキャプチャされる実施形態では、スペクテータ48は携帯デバイス40の画面42に表示される拡張された現実のシーンを見ることができる。ユーザとインタラクティブアプリケーションとの間のインタラクションによる影響を受けることから、この現実のシーンはインタラクティブアプリケーション12の現在の状態に基づいたものである。例えば、一実施形態では、ユーザ36の画像は環境ビデオストリームの範囲内で検出されうる。また、この環境ビデオストリームにおいて、ユーザの画像の一部又は全体が仮想要素と置き換えられてもよい。一実施形態では、環境ビデオストリームにおいて検出されたユーザの画像は、ユーザ36により制御されるインタラクティブアプリケーション12のキャラクタと置き換えられることも可能であった。このようにして、携帯デバイス40のカメラをユーザ36に向けると、スペクテータ48は、画面42に表示されるユーザ36ではなく、ユーザ36が制御しているインタラクティブアプリケーション12のキャラクタを見る。
別の実施形態では、ユーザ36により操作されるコントローラ32の位置と方向とが決定されトラッキングされる。コントローラ32の位置と方向とは、コントローラ32の位置に対する携帯デバイス40の位置と方向と同様、スペクテータビデオストリームを決定するために利用されてもよい。従って、コントローラの位置が基準点として利用されてもよく、これに従い、スペクテータビデオストリームは、コントローラ32の位置に対する携帯デバイス40の相対位置と方向とに基づいて決定される。例えば、コントローラ32の位置は、インタラクティブアプリケーション12の仮想空間における任意の位置に対応しうる。この任意の位置とは例えば、仮想空間においてユーザ36により制御されるキャラクタの現在の位置である。従って、インタラクティブ環境においてスペクテータが携帯デバイス40を操作すると、コントローラ32の位置に対する携帯デバイスの位置と方向とにより、キャラクタの位置に対する仮想空間の仮想視点の位置と方向とが決定される。
スペクテータビデオストリームを形成するために、仮想視点の視点からの仮想空間の画像が利用されてもよい。一実施形態において、コントローラ32に対する携帯デバイスの相対位置と、キャラクタに対する仮想視点の相対位置間と、は以下のように対応する。即ち、コントローラ32の位置に対する携帯デバイス40の位置又は方向が変化すると、キャラクタの位置に対する仮想視点の位置と方向も同様に変化するように対応する。そのため、スペクテータ48は、ユーザ36により制御されるキャラクタの位置にリンクした様々な視点から仮想空間のビデオストリームを見てキャプチャするように、ユーザ36の近くで携帯デバイスを直感的に操作することができる。
上述の実施形態はインタラクティブアプリケーション12の仮想空間においてユーザ36により制御されるキャラクタに関して説明してきた。しかし、別の実施形態では、コントローラ32の位置は、インタラクティブアプリケーションの仮想空間内の静的又は動的ないずれの位置に対応しうる。例えば、ある実施形態では、コントローラの位置はキャラクタや車、武器、オブジェクトつまりユーザ36により制御されるその他の物に対応しうる。あるいは、一部実施形態では、コントローラの位置は、ユーザ32により制御されない動いているキャラクタやオブジェクトであって、人工知能を持つキャラクタや、インタラクティブセッションの間にインタラクティブアプリケーションの遠隔ユーザにより制御されるキャラクタなどに対応しうる。あるいは、更に別の実施形態では、コントローラ32の位置は、特定の地理的位置、オブジェクトの位置、あるいはインタラクティブアプリケーション12の仮想空間内のその他の動かない物に対応しうる。
別の実施形態では、ユーザ36の最初の位置が決定される。このユーザ36の位置はインタラクティブセッションの間、トラッキングされる。次いで、スペクテータビデオストリームはユーザ36の位置に対する携帯デバイス40の位置と方向とに基づいて生成される。各種実施形態では、ユーザ36の位置は様々な技術に基づいて決定されうる。例えば、ユーザ36などのインタラクティブ環境の画像をキャプチャするために、画像キャプチャデバイスはインタラクティブシステムに含まれていてもよい。これらの画像を分析して、インタラクティブ環境におけるユーザ36の位置と姿勢とを決定するようにしてもよい。一実施形態では、インタラクティブ環境の深度データの検出が可能な深度カメラがインタラクティブスシステムに含まれる。この深度データを分析して、インタラクティブ環境におけるユーザ36の位置と姿勢とを検出するようにしてもよい。インタラクティブ環境におけるユーザの位置および/又は姿勢を決定することにより、本発明の各種実施形態に係る様々な機構が可能とされる。
例えば、一実施形態では、インタラクティブアプリケーション12の仮想環境内のオブジェクトがユーザ36の位置に対してマッピングされる。ユーザ36の位置に対する携帯デバイス40の位置と方向とを利用して、インタラクティブアプリケーション12により定義される仮想空間内の仮想視点の位置と方向とが定義される。スペクテータビデオストリームは仮想視点の視点からキャプチャされた仮想空間の画像を含み、オブジェクトは携帯デバイス40がユーザ36の位置に向けられている場合にスペクテータビデオストリームの画像に含まれる。一実施形態では、オブジェクトはユーザにより制御される。そのようなオブジェクトとして、キャラクタ、車、武器、あるいはユーザ36が制御しうるインタラクティブアプリケーション12のその他の種類の物が挙げられる。一実施形態では、ユーザ36の位置は、ユーザにより操作されるコントローラデバイス32の位置に基づいて決定される。
一実施形態では、スペクテータビデオストリーム52はメモリに記憶される。メモリは携帯デバイス40やコンソールデバイス10に含まれてもよいし、遠隔に設けられていてもよい。スペクテータビデオストリーム52を記憶した後、スペクテータ48は記憶したスペクテータビデオの編集や、記憶したスペクテータビデオをインターネットウェブサイトにアップロードし、これを共有するようにするといったオペレーションを実行することができる。
図2を参照すると、本発明の一実施形態に係る、ユーザと、インタラクティブアプリケーションとインタラクションを行っているスペクテータが示されている。インタラクティブ環境はインタラクティブアプリケーションを実行するコンソールデバイス10を含む。インタラクティブアプリケーションを実行すると、インタラクティブアプリケーションはアプリケーションビデオストリームを生成し、これが主画面30に表示される。表示されたアプリケーションビデオストリームがキャラクタ62と停止標識64とを含むシーン60を描写したものが一例として示されている。ユーザ36はこのシーン60を見てコントローラ32を操作することでインタラクティブアプリケーションとインタラクションを行う。同時に、スペクテータ48は携帯デバイス40の画面42を見る。
主画面30に表示されたアプリケーションビデオストリームは、ユーザ36の位置に対して定義された主要な仮想視点の視点からのインタラクティブアプリケーションの仮想空間のビューを描写する。この主要な仮想視点は、ユーザ36が主画面の前の近似位置にいると仮定して静的なものであってもよいし、ユーザ36の位置の変化に基づいて変化する動的なものであってもよい。同時に、携帯デバイス40の位置と方向とはインタラクティブアプリケーションの仮想空間内において第2の仮想視点を定義するように決定され、トラッキングされ、利用される。携帯デバイスがスペクテータ48により操作されるときに、この第2の仮想視点は、携帯デバイス40の位置と方向との変化に基づいて動的にアップデートされる。スペクテータビデオストリームは携帯デバイス40に表示される。これには第2仮想視点の視点からの仮想空間が描写されている。
図示している実施形態では、仮想空間はキャラクタ62と停止標識64とを含む。スペクテータ48と携帯デバイス40とはユーザ36の左側に位置しており、スペクテータ48は携帯デバイス40をシーン60の見掛けの位置に向けている。従って、携帯デバイス40の位置と方向とに基づく第2の仮想視点の位置と方向は、仮想空間における主要な仮想視点に対して同じように位置づけられている。従って、スペクテータ48は携帯デバイス40の位置と方向とに基づく異なる視点からシーン60を見る。図示しているように、主要な仮想視点からのシーン60の描写において、キャラクタ62は停止標識から水平方向にx離れている。一方、携帯デバイス40の拡大表示66には、第2の仮想視点の視点から描写されたシーン60が示されている。この拡大表示66では、キャラクタ62と停止標識64とは水平方向にx+Δx離れている。図面から明らかなように、主要な仮想視点に対して第2の仮想視点の位置と方向とは異なることから、携帯デバイス40に表示されるスペクテータビデオストリームにおいて、キャラクタ62と停止標識64の水平方向の距離は拡大している。このようにして、スペクテータ48はユーザ36と同じシーンを見るものの、スペクテータ48とユーザ36の相対的な位置に基づいて、直感的な方法で、異なる仮想視点から示される。
図3を参照すると、本発明の一実施形態に係る、インタラクティブアプリケーションとインタラクションを行っているユーザ36とスペクテータ48とを含むインタラクティブ環境が示されている。ユーザ36はインタラクティブアプリケーションへの入力を行うためにコントローラ32を操作する。図示しているように、このインタラクティブアプリケーションはアプリケーションビデオストリームを生成する。これはインタラクティブアプリケーションの現在の位置に基づいて画面30に表示される
図示しているように、表示されるアプリケーションビデオストリームはシーン70を描写する。シーン70はインタラクティブアプリケーションの仮想空間のビューであってもよい。一実施形態では、スペクテータ48は携帯デバイス40を利用してシーン70の拡大エリア72を見ることができる。例えば、一実施形態では、スペクテータは携帯デバイスが拡大エリア72内の領域74に向けられるように携帯デバイスを動かすことができる。携帯デバイス40が向けられる方向を決定することができるように、携帯デバイスの位置と方向とがトラッキングされる。領域74は携帯デバイス40に表示され、スペクテータが見ることができるようになっている。このようにして、スペクテータ48は、シーン70のその他の部分を見ることができる。ユーザ36にとっては、この部分は画面30に表示されるビューが制限されているために見ることのできない部分である。
別の実施形態では、携帯デバイス40はまず画面30に表示される画像と同じ画像を表示する。次に、スペクテータ48は、携帯デバイス40に対してジョイスティックを動かす、携帯デバイス40のタッチスクリーンをタッチする、タッチスクリーン上で指をドラッグする、などによって入力を行い、携帯デバイス40に示されるビューを別の領域に移動することで、領域74など、拡大エリア72のその他の領域を見ることができる。協力して行うタイプのゲームでは、ユーザ36が現在は見ていない仮想空間の領域をスペクテータ48が見ることができるようにこのような機構を利用することも可能であった。ゲームプレイにおいてユーザ36をサポートするために、スペクテータ48は、スペクテータ48が見たことに基づく情報をユーザ36に送ることも可能であった。
図4Aを参照すると、本発明の一実施形態に係る、インタラクティブアプリケーションとインタラクションを行っているユーザ36とスペクテータ48とを含むインタラクティブ環境の上面図が示されている。ユーザ36はインタラクティブアプリケーションに対して入力を行うためにコントローラ32を操作する。図示しているように、スペクテータ48は携帯デバイス40を操作する。スペクテータは携帯デバイス40をユーザ36に向けている。携帯デバイス40が向けられる方向を決定できるよう、携帯デバイス40の位置と方向とがトラッキングされる。更に、ユーザ36の位置はコントローラ32の位置をトラッキングすることにより識別される。図4Bは、スペクテータ48の視点からの図4Aのインタラクティブ環境を示す。図示しているように、スペクテータ48が携帯デバイス40をユーザ36に向けると(通常は携帯デバイス40の背面を向ける。よって携帯デバイスはユーザ36に向けられている)、スペクテータはユーザ36の位置において、インタラクティブアプリケーションのキャラクタ80を見る。このキャラクタはインタラクティブアプリケーションの仮想空間において設定されうる。
一実施形態では、ユーザ36の位置は、携帯デバイス40の背面カメラから画像ストリームをキャプチャすることにより、携帯デバイス40に対して決定される。キャプチャされた画像ストリームは、ユーザ36の存在を決定するために分析され、ユーザ36はインタラクティブアプリケーションのキャラクタと置き換えられる。一実施形態では、ユーザ36の選択された部分が仮想の特徴で拡張され、携帯デバイスに表示される拡張された現実の画像ストリームを形成するようにしてもよい。例えば、ユーザ36を、武器を所持しているように、様々な服を着ているように、あるいは様々なその他のアイテムを身につけているように表示させるようにすることも可能である。一実施形態では、ユーザ36はインタラクティブアプリケーションの仮想空間に設定されてもよい。このようにして、スペクテータ48は、ユーザ36がまるでインタラクティブアプリケーションの仮想空間にいるかのようにユーザ36を見ることができる。
図5を参照すると、本発明の一実施形態に係る、携帯デバイス40を操作中のスペクテータの視点からのインタラクティブアプリケーションとインタラクションを行っているユーザ36を含むインタラクティブ環境が示されている。ユーザ36はインタラクティブアプリケーションに対して入力を行うようにコントローラ32を操作する。図示しているように、ユーザ36はチェスゲームをプレイしており、ユーザ36はこれを画面30で見る。同時に、スペクテータはチェスゲームが行われている仮想空間90を見ることができる。インタラクティブ空間内でスペクテータが携帯デバイス40を動かすと、携帯デバイス40の位置と方向とに基づいて、様々な視点から仮想空間90が携帯デバイス40に示される。このようにして、スペクテータは、この仮想空間90がインタラクティブ環境に存在しているかのように、別の視点から仮想空間90を見ることができる。このように携帯デバイス40は、ビューア又はスペクテータがインタラクティブアプリケーションの仮想空間を見ることを可能とする仮想ウインドウとして機能する。
図6を参照すると、本発明の一実施形態に係る、スペクテータの視点からのインタラクティブ環境が示されている。図示しているように、ユーザ36は、画面30に表示されるインタラクティブアプリケーションを見ながらモーションコントローラ100aと100bとを操作する。本実施形態では、インタラクティブアプリケーションはボクシングゲームである。この場合、ユーザ36によりモーションコントローラ100aおよび100bが動かされるとこれらの動作が検出される。これらの動作は、インタラクティブアプリケーションが画面30に示される拳の同様の動作を表示できるように処理される。このようにして、ユーザ36にはボクシング試合での戦いの経験が与えられる。この場合、ユーザ36がパンチを繰り出すと、画面に示される拳が同様に動く。従って、ユーザ36はモーションコントローラ100aと100bとを動かすことにより拳とその動きとを制御する。
一実施形態では、インタラクティブシステムはモーションコントローラ100aと100bの画像をキャプチャする画像キャプチャデバイス106を含む。これらの画像が分析され、コントローラ100aと100bの動作が決定される。更に、キャプチャされた画像を分析して携帯デバイス40の位置と方向とを決定するようにしてもよい。一実施形態では、画像キャプチャデバイス106はインタラクティブ環境の深度情報をキャプチャするための深度カメラを含む。キャプチャされた深度情報は、ユーザ36の位置と動作の決定を支援する他に、スペクテータや携帯デバイス40の位置と動作の決定を支援するようにも処理されうる。モーションコントローラの例として、ソニーコンピュータエンターテインメント社製のプレーステーションムーブ(登録商標)コントローラが挙げられる。
一実施形態では、ユーザ36は仮想の敵102と対戦する。携帯デバイス40を操作中のスペクテータは、携帯デバイス40をユーザ36に向ける(これが通常であって、携帯デバイス40の背面がユーザ36に向けられている)。携帯デバイス40はリアルタイムで仮想の敵102と対戦中のユーザ36の映像を表示する。一実施形態では、スペクテータが携帯デバイス40をユーザ36に向けると、携帯デバイス40に含まれるカメラがユーザ36とモーションコントローラ100aおよび100bを含む映像をキャプチャする。キャプチャされた映像が分析され、ユーザの位置の他にモーションコントローラ100aおよび100bの動作が決定されうる。更に、携帯デバイス40はユーザの位置とモーションコントローラ100aおよび100bの動作に関する情報をインタラクティブアプリケーションから受けうる。一実施形態では、ユーザ36は携帯デバイス40に表示される映像に示される。この画像では、ユーザ36の手には、モーションコントローラ100aおよび100bの代わりにボクシンググローブがはめられている。別の実施形態では、ユーザ36を表示させるのではなく、ユーザ36が制御しているボクシングゲームのキャラクタが携帯デバイス40に表示される。
更に、スペクテータがユーザ36に対して様々な位置と方向とに携帯デバイス40を動かすと、携帯デバイス40に示される映像はこれらの変化を反映することになる。従って、スペクテータがユーザ36のほぼ後方の位置に移動し携帯デバイス40をユーザ36に向けると、スペクテータはユーザ36あるいはユーザ36により制御されるキャラクタの背面を携帯デバイス40に見ることができる。更にスペクテータは、ユーザ36やその他のオブジェクトによって妨げられていなければ、仮想の敵102の正面を携帯デバイス40に見ることができる。同様に、スペクテータがユーザ36のほぼ正面の位置に移動し携帯デバイスをユーザ36に向けると、スペクテータは、仮想の敵102(ビューではその背面を見ることができる)などにより塞がれているのでなければ、ユーザ36の前方を見ることができる。
スペクテータは、携帯デバイス40をユーザに近づけるように動かしてユーザ36をクローズアップしてもよく、携帯デバイス40をユーザから遠ざけるように動かしてユーザと仮想の敵102とのボクシング試合をより広範囲のビューで楽しむようにしてもよい。スペクテータが様々な位置と方向とに携帯デバイス40を動かすと、携帯デバイス40は、携帯デバイス40の位置と方向とに基づいてその位置と方向とが決定されるインタラクティブアプリケーションの仮想空間内の仮想視点からの映像を表示する。従って、ユーザ36がボクシングの試合を行うことでインタラクションを行っている間に、スペクテータは仮想のカメラマンとしてインタラクションを行うことができる。携帯デバイスを動かすことによって、インタラクティブゲームの映像が携帯デバイス40に表示される視点を制御することができる。
別の実施形態では、カメラ106はインタラクティブ環境におけるオブジェクトの深度情報をキャプチャすることができる深度カメラであってよい。一実施形態では、ユーザ36はモーションコントローラを必要としないが、カメラ106により検出される動作によりインタラクティブアプリケーションに対してインタラクティブな入力を行うことができる。カメラ106はユーザ36の位置、方向、および動作を決定するように処理される、インタラクティブ環境の映像および深度情報をキャプチャするように構成されうる。これらの情報はインタラクティブアプリケーションにより入力として利用される。
図7を参照すると、主画面30に表示されるインタラクティブアプリケーションを実行するコンソールデバイス10を含むインタラクティブ環境が示されている。ユーザ36は、インタラクティブアプリケーションに対してインタラクティブな入力を行うようにコントローラ32を操作する。画像キャプチャデバイス106はインタラクティブ環境の画像をキャプチャする。同時に、スペクテータ48は携帯デバイスを操作し、これを見る。この携帯デバイス40には主画面30に表示される映像に関連した補助的ビデオストリームが表示されている。図示しているように、コントローラ32の位置、方向および動作、および携帯デバイス40は3次元(x、y、z)座標においてトラッキングされうる。例示の実施形態では、コントローラ32の座標は(4、2、3)であり、携帯デバイスの座標は(8、3、2)である。コントローラ32と携帯デバイス40の位置と動作をトラッキングすることにより、コントローラ32と携帯デバイス40の相対的な位置を決定することができる。この情報は、携帯デバイス40に表示される補助的ビデオストリームに影響を与えるように利用可能である。例えば、現実世界のインタラクティブ環境におけるコントローラ32と携帯デバイス40の相対位置に基づいて、インタラクティブアプリケーションの仮想空間内の仮想視点の位置を決定する。
一実施形態では、現実世界のインタラクティブ環境の座標系が仮想空間の座標系にマッピングされるように、インタラクティブアプリケーションは仮想空間と現実世界のインタラクティブ環境における前述の3次元座標空間との間で相互関係を定義しうる。このマッピングの性質は各種の実施形態において異なるものであってよい。例えば、現実世界における距離が仮想世界における同等の距離と一致するようにマッピングは1対1に縮尺されうる。他の実施形態では、仮想世界における距離が現実世界における対応の距離よりも大きくなるように、あるいは小さくなるように、ある特定の係数でマッピングが縮尺されてよい。
更に、仮想の座標系と現実世界の座標系の座標軸の各々に対するマッピングのスケールは異なるものであってよい。例えば、一実施形態では、現実世界のy軸は、仮想世界において拡大されるようにマッピングしてもよい(例えば1よりも大きな係数で掛ける)。一方で、現実世界のx軸とz軸とは、これに対応する仮想空間の軸に完全に一致するようにマッピングしてもよい。そのように構成されたものの一例を図8Aおよび図8Bを参照して説明する。図8Aは現実世界のインタラクティブ環境の座標空間を示す。座標(1、1、0)から(3、3、0)への移動ベクトル110が示されている。図8Bはこれに対応する仮想空間の座標空間を示す。座標(1、2、0)から(3、6、0)への移動ベクトル112は、移動ベクトル110に対応する。図面から分かるように、移動ベクトル110は縦軸であるy軸に拡大しているが、x軸およびz軸には拡大していない。従って、スペクテータ48が携帯デバイスを上下に動かす場合、y軸の動作を選択的に拡大することで、仮想空間の仮想視点の動作が拡大される。これにより、スペクテータ48は、高い位置や低い位置からの映像をより簡単に見ることができ、また該映像のキャプチャも簡単にできるようになる。これに対して水平方向(x軸およびz軸)の携帯デバイスの動作は拡大されない。当業者にとっては、本発明の他の実施形態では、所与の方向や軸に対するマッピングのスケールはその他の方向や軸によって異なることは分かるであろう。
更に、マッピングのスケールはいずれの所与の軸や方向により、あるいは、ユーザの位置など、特定の位置により異なるものであってよい。例えば、一実施形態では、ユーザ付近のマッピングは、その縮尺は、より正確に対応するものとされる。これに対してユーザから離れたところでのマッピングは、その縮尺は、ユーザから離れた携帯デバイスの動作が仮想空間で拡大されるものとされる。従って、スペクテータがユーザの近くで携帯デバイスを操作する場合は、インタラクティブ環境における動作も仮想空間における同様の動作に対応するものとなる。これに対して、スペクテータが携帯デバイスをユーザから遠ざけると、これに対応する仮想空間での動作(例えば、ユーザにより制御されるキャラクタから離れる動作)は漸進的に拡大されうる。これにより、スペクテータは、ユーザに近づいたときには自然な方法で仮想視点の位置を制御することができ、その一方、マッピングにおいて、対応する同一のスケールが維持されていた場合の仮想視点よりも仮想空間における仮想視点を更に遠くに移動することも可能となる。
そのような実施形態の一例が図9Aおよび9Bに関連して示されている。図9Aは、インタラクティブ環境での位置が、球面座標系または円柱座標系の原点を定義するユーザ36を示す。ベクトル120は、距離1から距離2へと、ユーザ36から遠ざかる動作を示す。同様に、ベクトル122は距離2から3への動作を示し、ベクトル124は3から4への動作を示す。図9Bは仮想空間を示しており、この仮想空間に対してインタラクティブ環境がマッピングされている。仮想空間における位置125はインタラクティブ環境におけるユーザ36の位置に対応する。例えば、一部実施形態では、位置125はキャラクタ、車、あるいはユーザ36により制御されるその他のオブジェクトの位置を示しうる。ベクトル126は現実世界のベクトル120に対応する。図示しているように、ベクトル126は距離1から2への変化を示すベクトル120と正確に対応する。ベクトル128はベクトル122に対応する。しかしながら図示しているように、インタラクティブ環境の座標空間のマッピングでは、仮想空間の座標空間に対して、ベクトル122は、そのスケールが2倍に拡大されている。従って、現実世界のインタラクティブ環境において距離2から3への変化を示すベクトル122は、仮想空間において距離2から4への変化を示すベクトル128に対してマッピングされる。ベクトル130はベクトル124に対応する。図示しているように、ベクトル124はインタラクティブ環境における距離3から4への変化を示しているが、これに対応するベクトル130は距離4から7への変化を示しており、仮想空間での距離の変化を3倍にしている。
上述した例は、インタラクティブ環境から仮想空間へのマッピングが、インタラクティブ環境における基準位置からの距離が増加すると、拡大率が大きくなるように行われるという一実施形態を示すものに過ぎない。他の実施形態では、距離の増加に伴う拡大率の変化は、直線的に変化する、対数的に変化する等、任意のパターンで変化するものとしてよく、例えば、各ゾーンの範囲内で不変又は可変の、予め設定されたゾーンに従って変化するものであってもよい。
実施形態によっては、マッピングの性質はインタラクティブアプリケーションの状態の変化に応じて異なるものとしてもよい。仮想世界に対する現実世界のマッピングと対応付けとを変えることにより、携帯デバイス40およびコントローラ32の現実世界の動作に関する情報を適宜調整することができ、この結果、インタラクティブアプリケーションに対するインタラクション機能を向上させることができる。
図10Aを参照すると、本発明の一実施形態に係るインタラクティブ環境の俯瞰図が示されている。ユーザ36は画面30に表示されるインタラクティブアプリケーションとインタラクションを行うコントローラ32を操作する。同時に、スペクテータ48はインタラクティブ環境において携帯デバイス40を操作する。この携帯デバイス40には、ユーザ36の位置に対する携帯デバイス40の位置に基づく仮想空間における仮想視点からのインタラクティブアプリケーションの仮想空間の映像を表示されている。インタラクティブシーケンス(IS:nteractive Sequence)では、スペクテータ48は位置140(ユーザの隣)から位置142(ユーザ36の更に右側)、位置144(ユーザ36の正面)へと移動する。図10Bを参照すると、シーン146、148および150は、スペクテータが位置140、142、および144にそれぞれ位置する場合に携帯デバイス40に表示される映像を示す。
例示の実施形態では、ユーザ36はインタラクティブゲームをプレイ中であり、この場合、ユーザ36は仮想空間で車を運転している。ユーザ36の位置は仮想空間における車の仮想の運転手(ユーザにより制御される)の位置に対してマッピングされる。従って、スペクテータ48がユーザ36の隣の位置140にいる場合、仮想空間における仮想視点は車の運転手の隣に定められる。シーン146により示されるように、携帯デバイス40に表示される映像は、車の仮想の運転手の隣の視点からの車の内部を示す。スペクテータ48が位置142からユーザ36の更に右側に移動すると、これに応じて仮想視点が仮想空間で移動する。これに対応するシーン148により示されるように、シーン148が車のサイドを示していることから、仮想視点は車の外側に移動している。同様に、スペクテータ48が位置144からユーザ36の正面に移動すると、これに対応して仮想視点が仮想空間の範囲内で、車の正面の位置へと移動する。シーン150により図示されるように、位置144にいる場合、スペクテータは、携帯デバイス40上で車の正面を見ることになる。
説明を簡単にするために、上述した本発明の実施形態の一部をコントローラを操作する(あるいは、動作検出システムを通じて入力を行う)一人のプレーヤおよび/又は携帯デバイスを操作する一人のユーザに関して記載してきた。当業者にとっては、本発明の他の実施形態においてはコントローラを操作する(あるいは、動作検出システムを通じて入力を行う)複数のユーザおよび/又は携帯デバイスを操作する複数のユーザが存在してもよいことが分かるであろう。
図11を参照すると、本発明の一実施形態に係る、スペクテータにより操作される携帯デバイスがインタラクティブゲームの映像表示を可能とするための方法が示されている。方法オペレーション160では、プレーヤはコンソールデバイスでゲームプレイを開始する。方法オペレーション162では、スペクテータは携帯デバイスを起動する。方法オペレーション164では、ポータブルデバイスとコンソールとの間でネットワーク接続が確立される。方法オペレーション166では、ゲームに関する情報がコンソールから携帯デバイスに送られる。方法オペレーション168では、ポータブルデバイスの初期ポーズが確立される。各種実施形態では、この初期ポーズは各種のメカニズムを通じて決定されうる。これには例えば、内部の位置トラッキングセンサの現在の状態を初期ポーズとして定義する、あるいは、TV画面上のマーカを探して、TVとの関係を初期ポーズとして定義するなど、が挙げられる。
方法オペレーション170において、プレーヤがゲームを進めると、アップデートされたゲームの状態が携帯デバイスに送信される。方法オペレーション172では、携帯デバイスはゲームのスペクテータのプライベートビューを表示する。方法オペレーション174では、スペクテータが携帯デバイスを動かすと、デバイスは初期ポーズに対する位置の変化を検知する。各種実施形態では、このことは例えば、慣性モーションセンサや方向パッドを使用することにより、あるいは、TV画面のマーカをトラッキングし、この新たな方向に基づいて位置を決定することにより実現されうる。方法オペレーション176では、携帯デバイスはこの新たな情報を用いて、画面のスペクテータのプライベートビューをアップデートする。
本発明の各種実施形態では、上記方法には各種の様々な方法オペレーションが含まれてもよい。例えば、一実施形態では、スペクテータは、ゲームのスペクテータのプライベートビューの、携帯デバイスへの記録を開始するために、携帯デバイスのレコードボタンを押すようにしてもよい。別の実施形態では、携帯デバイスは、スペクテータがライブ映像や録画映像のパン、ズーム、あるいはクロップを行うことができるように構成されている。別の実施形態では、携帯デバイスはライブ映像や録画映像を扱うための、彩度キーイングやカラーチェンジツール、カット、ペーストなどの映像編集ツールをスペクテータに提供する。更に別の実施形態では、スペクテータは他の人と共有するように、記録された映像や画像をインターネットサイトにアップデートすることができる。
本発明の各種実施形態では、携帯デバイスがゲームの映像を表示することを可能とするように、様々な構成が利用されてもい。例えば、一実施形態では、コンソールは携帯デバイスの視点からすべての画像を表示し、表示されたこれらの画像を携帯デバイスにストリーミングする。この場合、ポータブルデバイスは、そのポーズをコンソールに通信するが、コンソールから受ける画像を表示するために必要とされるものは別として、ゲーム自体を実際に実行するために特に関連するソフトウェアや情報を実行あるいは維持する必要はない。しかし、別の実施形態では、携帯デバイスはプレイされるゲームのレベルやモデルの一部あるいはすべてを含む。この実施形態では、コンソールが動的オブジェクトの座標を携帯デバイスに送信するだけで、携帯デバイスはそのシーンのグラフをアップデートし、適切な画像をその画面に表示することができる。更に別の実施形態では、携帯デバイスは、複雑さが軽減され、レベルとモデルとが記憶された、小型版のインタラクティブアプリケーションを実行することができる。
更に、本発明の各種実施形態では、このように説明されている携帯デバイスのインタラクション機能は、スペクテータがゲームの結果に影響を与えることができるように、あるいは影響を与えることができないように設計されてよい。例えば一実施形態では、スペクテータのパーソナルビューはプレーヤのゲームビューからわずかにずれただけの合理的な範囲に限定されたものとされる。これにより、スペクテータには、スペクテータがプレーヤと共有することもできた多くの付加的情報を明らかにすることなく、ある程度の制御レベルが許容される。これに対して、他の形態では、スペクテータは携帯デバイスを用いてどのような動作も行うことができる。この場合、スペクテータはプレーヤのビューの外側で発生中のアクションを見ることができ、これをプレーヤに伝えることができることから(例えば、プレーヤが気づいていない敵が背後から近づいている場合に警告する)スペクテータはゲームの結果に実際に影響を与えうる。
図12を参照すると、本発明の一実施形態に係る、スペクテータが携帯デバイスを使ってインタラクティブアプリケーションの状態に影響を及ぼすことを可能とするためのシステムが示されている。コンソールデバイス10はインタラクティブアプリケーション180を実行する。アプリケーションビデオストリーム188はインタラクティブアプリケーション180の状態に基づいて生成され、主画面30に送信されて表示される。ユーザ36は、コントローラデバイス32からの生の入力を扱うコントローラモジュール186を介してインタラクティブアプリケーション180に対する入力を行うためにコントローラデバイス32を操作する。アプリケーションデータジェネレータ182はアプリケーションデータ190を生成する。このデータは携帯デバイス40で実行中の補助アプリケーション194に送信される。
携帯デバイス40はスペクテータ48と画面198からの入力を受ける入力メカニズム200を含む。補助アプリケーション194は画面198に表示されるグラフィカルユーザインタフェース(GUI)196を含む。GUIは、スペクテータがインタラクティブアプリケーションの状態、例えば、インタラクティブアプリケーションの聴覚や視覚の態様などに影響を与えることを可能とする一連のメニュやプロンプトを提供しうる。スペクテータ48は入力メカニズム200を利用して入力を行う。スペクテータの入力に基づき、補助アプリケーションは変更データ192を生成する。これはコンソールデバイス10のインタラクティブアプリケーション180の変更データハンドラ184に送信される。この変更データ192に基づき、インタラクティブアプリケーション180の状態が変更される。これは生成されるアプリケーションビデオストリーム188に影響を与えるものである。
図13を参照すると、本発明の一実施形態に係る、携帯デバイスを利用してスペクテータがゲームに影響を与えることを可能とするための方法が示されている。方法オペレーション210では、プレーヤはコンソールデバイスでゲームプレイを開始する。方法オペレーション212では、スペクテータは携帯デバイスを起動する。方法オペレーション214では、携帯デバイスはコンソールデバイスとのネットワーク接続を確立する。方法オペレーション216では、ゲームに関する情報はコンソールデバイスから携帯デバイスに送られる。各種の実施形態では、情報には例えば、プレイ中のキャラクタ、キャラクタが利用可能な衣装、サウンドトラックとして再生可能な歌のリスト、あるいは、スペクテータが調整することのできるゲームのその他のパラメータが含まれうる。方法オペレーション218では、ポータブルデバイスはゲームにより与えられる選択肢をスペクテータに表示する。方法オペレーション220では、スペクテータは選択肢の1つを選択する。例えば、スペクテータは再生する歌を選択することも、キャラクタが身に着ける衣装を選択することもできる。方法オペレーション222では、携帯デバイスはネットワーク接続を介してこの選択をコンソールに伝える。方法オペレーション224では、コンソールはこの選択を呼び出す。例えば、コンソールは選択された歌を再生し、あるいはキャラクタの衣装を選択された衣装に変更することができる。
各種実施形態では、スペクテータが調整することのできるパラメータはゲームの結果に様々な程度で影響を及ぼす場合もあるし、そうでない場合もある。例えば、一実施形態では、スペクテータは衣装やゲームのサウンドエフェクトを変更することができる。これによりゲームの結果に影響が及ぶ可能性は低い。別の実施形態では、スペクテータは、時間の流れを制御する(ゲームの速度を上げる又は落とす)、世界の重力をより大きな、あるいはより小さな惑星の重力と一致するように変更するか重力を全く設定しないようにする等、ゲームの深い部分の要素を制限することもできる。そのような変更はゲームの結果に著しい影響を及ぼす可能性が高い。
図14を参照すると、一実施形態に係る、携帯デバイス40の構成要素を示した図が示されている。携帯デバイス40はプログラム命令を実行するためのプロセッサ300を含む。記憶を目的としたメモリ302が提供されており、これは揮発性および不揮発性メモリを含みうる。ユーザが見ることのできる視覚インタフェースを提供する画面304が含まれる。携帯デバイス40の電源としてバッテリ306が提供されている。動作検出モジュール308は磁力計310、加速度計312、ジャイロスコープ314などの、各種のいずれの動作検出ハードウェアを含みうる。
加速度計は加速度と、重力に起因する反力とを測定するための装置である。異なる方向での加速度の大きさおよび方向を検出するために、一軸モデルと多軸モデルとを使用することができる。加速度計は、傾斜、振動および衝撃を検出するために使用される。一実施形態では、2角度(世界空間ピッチおよび世界空間ロール)の絶対基準となる重力の方向を提供するために、3台の加速度計312が使用される。
磁力計は、コントローラの近くの磁界の強度と方向とを測定する。一実施形態では、コントローラ内部に3台の磁力計310が使用されており、世界空間ヨー角度の絶対基準を規定している。一実施形態では、磁力計は、±80マイクロテスラである地磁界の範囲をカバーするように設計されている。磁力計は、金属の影響を受け、実際のヨーと単調関係を示すヨー測定値を提供する。磁界は、環境に存在する金属の影響で歪むことがあり、このため、ヨー測定値に歪みが生じる。必要に応じて、この歪みを、ジャイロまたはカメラからの情報を使用して較正することができる。一実施形態では、加速度計312は、携帯デバイス40の傾斜および方位角を取得するために、磁力計310と共に使用される。
ジャイロスコープは、角運動量の原理に基づいて、方向を測定および保持するための装置である。一実施形態では、3台のジャイロスコープ314が、検知された慣性に基づいて、各軸(x、y、z)の移動に関する情報を提供する。ジャイロスコープは、高速回転の検出を補助する。しかし、ジャイロスコープは、絶対基準が存在しなければ、時間が経つとずれが生じることがある。このため、ジャイロスコープの定期的なリセットが必要であり、このリセットは、オブジェクトの視覚トラッキング、加速度計、磁力計などに基づく位置/方向決定など、他の入手可能な情報を使用して行なうことができる。
画像と、実環境の画像ストリームとをキャプチャするためにカメラ316が提供される。携帯デバイス40には1台以上のカメラが含まれていてもよく、これには、背面カメラ(ユーザが携帯デバイスの画面を見ているときはユーザから遠ざかるカメラ)、および前面カメラ(ユーザが携帯デバイスの画面を見ているときはユーザに向けられるカメラ)を含む。更に、実環境のオブジェクトの深度情報を検知するために深度カメラ318が携帯デバイスに含まれうる。
携帯デバイス40は音声出力のためのスピーカ320を含む。更に、実環境から、周囲環境からの音声や、ユーザにより発せられた会話などの音声をキャプチャするためにマイクロフォン322が含まれていてもよい。携帯デバイス40はユーザに触覚フィードバックを提供するための触覚フィードバックモジュール322を含む。一実施形態では、この触覚フィードバックモジュール324は、ユーザに触覚のフィードバックを提供するために、携帯デバイス40の動き及び/又は振動を発生させることができる。
LED326は、携帯デバイス40の状態を視覚的に示すものとして設けられる。例えば、LEDは、バッテリーレベル、電源オンなどを示しうる。カードリーダ328は、携帯デバイス40がメモリカードから情報を読み出したりメモリカードに情報を書き込んだりすることを可能とするために設けられる。USBインタフェース330は、周辺装置の接続や、他の携帯型装置やコンピュータなどの他の装置への接続を可能とするためのインタフェースの一例として含まれる。携帯デバイスの各種実施形態において、携帯デバイス40のより多くの接続を可能とするために、様々な種類のインタフェースが含まれてもよい。
WiFiモジュール332は、無線ネットワーク技術を介したインターネットへの接続を可能とするために含まれる。また、携帯デバイス40は、他の装置との無線接続を可能とするために、ブルートゥースモジュール334を含む。通信リンク336も、他の装置との接続のために含まれてもよい。一実施形態では、通信リンク336は、無線通信のために赤外線送信を用いる。他の実施形態では、通信リンク336は、他の装置と通信するために、無線又は有線の種々の送信プロトコルのいずれかを用いてもよい。
入力ボタン/センサ338は、ユーザに入力インタフェースを提供するために含まれる。ボタン、タッチパッド、ジョイスティック、トラックボールなどの種々の種類の入力インタフェースのいずれかが含まれてもよい。更に、ユーザから生理的データの検出ができるように生体センサが含まれてもよい。一実施形態では、生体センサは、ユーザの肌からユーザの生理電気的信号を検出するための1以上の乾式電極を含む。
携帯デバイス40には、超音波技術により他の装置との通信を容易にするための超音波通信モジュール340が含まれてもよい。
上記の携帯デバイス40の構成要素は、携帯デバイス40に含まれうる構成要素の単なる例として説明されてきた。本発明の各種実施形態では、携帯デバイス40は上述の各種の構成要素の一部を含んでもよいし含まなくてもよい。携帯デバイス40の各実施形態は、本文において記載されていないが、当技術分野において周知の他の構成要素を、本明細書において説明される本発明の態様を容易にする目的で更に含むことができる。
図15は、本発明の一実施形態に係る、インタラクティブアプリケーションを実行し表示するために使用されうるハードウェアおよびユーザインタフェースを示す図である。より詳細には、図15は、ソニー(登録商標)プレイステーション3(登録商標)エンターテイメントデバイスの全体的なシステムアーキテクチャを模式的に示す図である。これは、制御デバイスと携帯デバイスのインタフェースのために、ベースコンピューティングデバイスで実行中のコンピュータプログラムと互換性のあるコンソールである。システムユニット700はこれに接続可能な種々の周辺デバイスと共に提供される。システムユニット700は、Cellプロセッサ728、Rambus(登録商標)ダイナミックランダムアクセスメモリ(XDRAM)ユニット726、専用のビデオランダムアクセスメモリ(VRAM)ユニット732を有する"Reality Synthesizer"グラフィックユニット730、およびI/O(入出力)ブリッジ734を備える。また、システムユニット700は、I/Oブリッジ734を介してアクセス可能な、ディスク740aおよび着脱可能なスロットインハードディスクドライブ(HDD)736から読み出すためのブルーレイ(登録商標)ディスクBD−ROM(登録商標)光ディスクリーダ740も備える。任意に、システムユニット700は、同様にI/Oブリッジ734を介してアクセス可能な、コンパクトフラッシュ(登録商標)メモリカード、メモリースティック(登録商標)メモリカードなどを読み出すためのメモリカードリーダ738も備える。
また、I/Oブリッジ734は、6つのユニバーサルシリアルバス(USB)2.0ポート724、ギガビットイーサネット(登録商標)ポート722、IEEE 802.11b/g無線ネットワーク(Wi−Fi)ポート720、および最大7つのブルートゥース(登録商標)接続に対応可能なブルートゥース(登録商標)無線リンクポート718にも接続している。
動作時に、I/Oブリッジ734は、1つ以上のゲームコントローラ702−703からのデータを含む、全ての無線、USB、およびイーサネット(登録商標)のデータを処理する。例えば、ユーザがゲームをプレイ中に、I/Oブリッジ734はブルートゥースリンクを介してゲームコントローラ702−703からデータを受信して、これをCellプロセッサ728に転送し、Cellプロセッサ728が適宜ゲームの現在の状態を更新する。
また、無線、USB、およびイーサネット(登録商標)の各ポートを介して、ゲームコントローラ702−703のほかに、他の周辺デバイスも接続することが可能となる。このような周辺デバイスには、例えば、リモコン704、キーボード706、マウス708、ソニープレイステーションポータブル(登録商標)エンターテイメントデバイスなどのポータブルエンターテイメントデバイス710、EyeToy(登録商標)ビデオカメラ712などのビデオカメラ、マイクロフォンヘッドセット714およびマイクロフォン715などがある。このため、これらの周辺デバイスは、原則としてシステムユニット700に無線で接続されうる。例えば、ポータブルエンターテイメントデバイス710はWi−Fiアドホック接続を介して通信し、マイクロフォンヘッドセット714はブルートゥースリンクを介して通信しうる。
これらのインタフェースを提供することにより、プレイステーション3デバイスは、デジタルビデオレコーダ(DVR)、セットトップボックス、デジタルカメラ、ポータブルメディアプレーヤ、VoIP電話、携帯電話、プリンタ、およびスキャナなどの他の周辺デバイスと場合によっては互換となりうる。
更に、USBポート724を介して旧式メモリカードリーダ716をシステムユニットに接続することができ、プレイステーション(登録商標)デバイスまたはプレイステーション2(登録商標)デバイスで用いられていたタイプのメモリカード748の読み出しが可能となる。
ゲームコントローラ702−703は、ブルートゥースリンクを介してシステムユニット700と無線通信するように動作可能である。あるいはUSBポートに接続されてもよく、これにより、ゲームコントローラ702−703のバッテリに充電するための電力に接続される。ゲームコントローラ702−703はメモリ、プロセッサ、メモリカードリーダ、フラッシュメモリなどの不揮発メモリ、点光源などの光源、LED、または赤外光、超音波通信用のマイクロフォンおよびスピーカ、音響室、デジタルカメラ、内部クロック、ゲームコンソールに対向する球状部のような認識可能な形状、およびブルートゥース(登録商標)、WiFi(商標または登録商標)等のプロトコルを用いた無線通信を含むことができる。
ゲームコントローラ702は両手で使うように設計されたコントローラであり、ゲームコントローラ703はボール取り付け部が付属する片手用コントローラである。ゲームコントローラは、1つ以上のアナログジョイスティックおよび従来の制御ボタンを有するほか、3次元位置を決定することができる。従って、従来のボタンまたはジョイスティックコマンドのほかに、またはこれらの代わりに、ゲームコントローラのユーザが行ったジェスチャおよび移動が、ゲームへの入力として変換されうる。任意に、プレイステーション(登録商標)ポータブルデバイスなどの他の無線対応の周辺デバイスをコントローラとして使用することができる。プレイステーション(登録商標)ポータブルデバイスの場合、追加のゲーム情報または制御情報(例えば制御命令またはライブの数)が、当該デバイスの画面に提示されうる。他の代替的または補助的な制御デバイスが使用されてもよく、これには、ダンスマット(不図示)、ライトガン(不図示)、ハンドルおよびペダル(不図示)、あるいは、即答クイズゲームのための1つまたは複数の大型のボタン(これも図示なし)などの特注品のコントローラなどがある。
また、リモコン704も、ブルートゥースリンクを介してシステムユニット700と無線通信するように動作可能である。リモコン704は、ブルーレイ(登録商標)ディスクBD−ROMリーダ740の操作、およびディスクの内容の閲覧のために適した制御を備える。
ブルーレイディスク(TM)BD−ROMリーダ740は、従来の記録済みCD、記録可能CD、およびいわゆるスーパーオーディオCDのほか、プレイステーションデバイスおよびプレイステーション2デバイスと互換のCD−ROMを読み出すように動作可能である。また、リーダ740は、従来の記録済みDVDおよび記録可能DVDのほか、プレイステーション2デバイスおよびプレイステーション3デバイスと互換のDVD−ROMを読み出すように動作可能である。更に、リーダ740は、従来の記録済みブルーレイディスクおよび記録可能ブルーレイディスクのほか、プレイステーション3デバイスと互換のBD−ROMを読み出すように動作可能である。
システムユニット700は、Reality Synthesizerグラフィックユニット730を介して、プレイステーション3デバイスによって生成またはデコードされた音声およびビデオを、音声コネクタおよびビデオコネクタ経由で、ディスプレイ744および1つ以上のラウドスピーカ746を備えた表示および音声出力装置742(モニタまたはテレビ受像機など)に提供するように動作可能である。音声コネクタ750は、従来のアナログ出力およびデジタル出力を備える一方、ビデオコネクタ752は、コンポーネントビデオ、S−ビデオ、コンポジットビデオ、および1つ以上の高品位マルチメディアインタフェース[HDMI(登録商標)]の出力などを種々備えうる。従って、ビデオ出力は、PALまたはNTSC、あるいは720p、1080iまたは1080pの高解像度などのフォーマットであってもよい。
音声処理(生成、デコードなど)はCellプロセッサ728によって実行される。プレイステーション3デバイスのオペレーティングシステムは、ドルビー(登録商標)5.1サラウンドサウンド、ドルビー(登録商標)シアターサラウンド(DTS)、およびブルーレイディスクからの7.1サラウンドサウンドのデコードに対応している。
本実施形態では、ビデオカメラ712は、1つの電荷結合素子(CCD)、LEDインジケータ、およびハードウェアベースのリアルタイムデータ圧縮およびエンコード装置を備え、圧縮ビデオデータが、システムユニット700によるデコードのために、イントラ画像ベースのMPEG(Motion Picture Expert Group)標準などの適切なフォーマットで送信されるようになる。カメラのLEDインジケータは、例えば不利な照明条件を示す適切な制御データをシステムユニット700から受け取ると、発光するように配置されている。ビデオカメラ712の実施形態は、USB、ブルートゥース(登録商標)またはWi−Fiの通信ポートを介して、システムユニット700に様々な方法で接続しうる。ビデオカメラの実施形態は、1つ以上の関連するマイクロフォンを備えており、音声データを送信することができる。ビデオカメラの実施形態では、CCDは、高解像度のビデオキャプチャに適した分解能を備えうる。使用時に、ビデオカメラによってキャプチャされた画像が、例えば、ゲーム内に取り込まれるか、またはゲームの制御入力として解釈されうる。別の実施形態では、このカメラは赤外光を検出するのに適した赤外カメラである。
一般に、システムユニット700の通信ポートの1つを介して、ビデオカメラまたはリモコン等などの周辺デバイスとのデータ通信がうまく行われるように、デバイスドライバ等の適切なソフトウェアを提供する必要がある。デバイスドライバ技術は公知であり、本発明を不必要にわかりにくくすることのないよう、当業者であればデバイスドライバまたは類似するソフトウェアインタフェースが既述した本実施形態で要求されることに気づくであろうということを除き、ここには詳しく記載することはしない。
上述のコンソールデバイスや手持ち式の携帯デバイスなどのシステムデバイスは、携帯デバイスが主画面に表示されるインタラクティブアプリケーションのインタラクティブセッションの映像を表示しキャプチャすることを可能とする手段を構成する。コンソールデバイスは、ユーザとインタラクティブアプリケーションとの間のインタラクションを定義する、インタラクティブアプリケーションのインタラクティブセッションを開始する。システムデバイスは、スペクテータにより操作される携帯デバイスの最初の位置と方向とを定義するための手段を構成する。コンソールデバイスは、ユーザとインタラクティブアプリケーションとの間のインタラクションに基づいてインタラクティブアプリケーションの現在の状態を決定するための手段を構成する。システムデバイスは、インタラクティブセッションの間、携帯デバイスの位置と方向とをトラッキングするための手段を構成する。システムデバイスは、インタラクティブアプリケーションの現在の状態とトラッキングされた携帯デバイスの位置と方向とに基づいて、インタラクティブセッションのスペクテータビデオストリームを生成するための手段を構成する。携帯デバイスは、携帯デバイスの携帯画面にスペクテータビデオストリームを表示するための手段を構成する。
本発明の実施形態は、携帯型デバイス、マイクロプロセッサシステム、マイクロプロセッサベース又はプログラム可能な家庭用電化製品、マイクロコンピュータ、メインフレームコンピュータなどを含む種々のコンピュータシステム構成により実現されてもよい。本発明は、通信ネットワークを介して接続された遠隔処理装置によりタスクが実行される分散処理環境において実現されてもよい。
上述した実施形態によれば、本発明は、コンピュータシステムに記憶されたデータを含む、様々なコンピュータ実装された命令を用いてもよいことが理解される。これらの命令は、物理量の物理的操作を要する命令を含む。本発明の一部を形成する本明細書で説明される命令はいずれも有効な機械命令である。本発明は、これらの命令を実行するためのデバイス又は装置に関する。装置は、例えば特殊目的コンピュータなど、要求された目的のために特別に構築されてもよい。特殊目的コンピュータとして定義される場合、コンピュータは、特殊目的のために動作可能でありつつ、特殊目的の一部ではない他の処理、プログラム実行、又はルーティンを実行することができる。または、命令は、選択的にアクティブ化された、又は、コンピュータメモリ、キャッシュに記憶された、又はネットワークを介して取得された1以上のコンピュータプログラムにより構成された汎用目的のコンピュータにより処理されてもよい。データがネットワークを介して取得されるとき、データは、例えば計算リソースのクラウドなどの、ネットワーク上の他の装置により処理されてもよい。
本発明の実施形態は、データをある状態から別の状態へ変換する機械として定義されてもよい。変換されたデータは、ストレージに記憶され、プロセッサにより操作されてもよい。プロセッサは、このように、データをある状態から別の状態へ変換する。更に、方法は、ネットワークを介して接続可能な1以上の機械又はプロセッサにより処理されてもよい。それぞれの機械は、データをある状態から別の状態へ変換可能であり、データを処理し、ストレージに保存し、ネットワークを介して送信し、結果を表示し、又は別の機械へ結果を送信することができる。
本発明の1以上の実施形態は、コンピュータ読み取り可能な媒体上のコンピュータ読み取り可能なコードとして具体化されてもよい。コンピュータ読み取り可能な媒体は、コンピュータシステムにより読み取り可能なデータの記憶が可能な任意のデータストレージ装置である。コンピュータ読み取り可能な媒体の例として、ハードドライブ、NAS(Network Attached Storage)、ROM(Read−Only Memory)、RAM(Random−Access Memory)、CD−ROM、CD−R、CD−RW、磁気テープ、及び他の光学的又は非光学的データストレージ装置などが挙げられる。コンピュータ読み取り可能な媒体は、コンピュータシステムに結合されたネットワークを介して配布され、コンピュータ読み取り可能なコードは分散方式で格納され実行されてもよい。
方法の手順を特定の順序で説明したが、他のハウスキーピング命令が命令の間に実行されてもよいし、命令が異なるタイミングで生じるように調整されてもよいし、オーバーレイ命令の処理が所望の方法で実行される限り、処理に関連付けられた種々のインターバルにおいて処理命令の発生を可能とするシステムに分散されてもよいことを理解されたい。
上記では、理解を明確にするために本発明を詳細に説明したが、添付の請求の範囲内で特定の変更および修正を実施可能であることは明らかである。従って、実施形態は例示的なものであり限定を意味するものではなく、また、本発明は本明細書で述べた詳細に限定されることはなく、添付の特許請求の範囲およびその等価物の範囲で修正可能である。

Claims (18)

  1. 携帯デバイスであって、
    主画面上に表示されるインタラクティブアプリケーションのインタラクティブセッションに携帯デバイスの位置および方向を決定しトラッキングのためのセンサデータを生成するように構成されたセンサを有し、
    前記インタラクティブセッションは、ユーザとインタラクティブアプリケーションとの間の相互作用のために定義されるものであり、
    コンピューティングデバイスにセンサデータを送るように構成された通信モジュールを有し、
    前記通信モジュールは、コンピューティングデバイスから、インタラクティブアプリケーションおよび携帯デバイスのトラッキングされた位置および方向の状態に基づいて生成されるインタラクティブセッションのスペクテータビデオストリームを受けるようにさらに構成されており、前記スペクテータビデオストリームは、スペクテータの前記携帯デバイスに表示されるビデオストリームであり、かつ、前記スペクテータは、同じインタラクティブ環境における前記携帯デバイスの操作者であり、
    前記インタラクティブアプリケーションのステートは、ユーザとインタラクティブアプリケーションとの間の相互作用に基づいて決定されるものであり、
    スペクテータビデオストリームを表示するように構成された画面を有し、
    携帯デバイスの位置と方向とは、インタラクティブアプリケーションにより定義される仮想空間内の仮想視点の位置と方向とを定義し、
    さらに、前記スペクテータビデオストリームは前記仮想視点の視点から撮像した前記仮想空間の画像を含む、携帯デバイス。
  2. 請求項1に記載の携帯デバイスであって、
    前記インタラクティブアプリケーションの状態は、インタラクティブな入力により決定され、前記インタラクティブな入力は、前記インタラクティブセッション中にコントローラデバイスから受けられるものである、携帯デバイス。
  3. 請求項1に記載の携帯デバイスであって、
    前記インタラクティブセッションは、ユーザと主画面上で表示されたアプリケーションビデオストリームとの間の相互作用を定義し、
    前記アプリケーションビデオストリームは、前記インタラクティブアプリケーションの状態に基づいて生成される、携帯デバイス。
  4. 請求項1に記載の携帯デバイスであって、
    前記センサは、加速度計、磁力計及び/又は、ジャイロスコープの1つ以上によって定義され、
    前記センサデータは、前記センサによって生成された慣性データを有している、携帯デバイス。
  5. 請求項1に記載の携帯デバイスであって、
    前記センサは画像キャプチャデバイスによって定義され、
    前記センサデータは、相互作用が生じる、インタラクティブな環境でキャプチャーされた画像データによって定義される、携帯デバイス。
  6. 請求項5に記載の携帯デバイスであって、
    前記携帯デバイスの位置および方向の決定およびトラッキングは、前記インタラクティブな環境内の1つ以上のマーカの識別子に基づく、携帯デバイス。
  7. 携帯デバイスであって、
    主画面上に表示されるインタラクティブアプリケーションのインタラクティブセッションに携帯デバイスの位置および方向を決定しトラッキングためのセンサデータを生成するように構成されたセンサを有し、
    前記インタラクティブセッションは、ユーザとインタラクティブアプリケーションとの間の相互作用のために定義されるものであり、
    コンピューティングデバイスにセンサデータを送るように構成された通信モジュールを有し、
    前記通信モジュールは、インタラクティブアプリケーションの状態に基づいて生成されるコンピューティングデバイスからアプリケーション状態データを受けるようにさらに構成され、
    前記インタラクティブアプリケーションのステートは、ユーザとインタラクティブアプリケーションとの間の相互作用に基づいて決定されるものであり、
    アプリケーション状態データおよび携帯デバイスのトラッキング位置および方向に基づいてスペクテータビデオストリームを生成するように構成されたスペクテータビデオストリームジェネレータを有し、前記スペクテータビデオストリームは、スペクテータの前記携帯デバイスに表示されるビデオストリームであり、かつ、前記スペクテータは、同じインタラクティブ環境における前記携帯デバイスの操作者であり、
    スペクテータビデオストリームを表示するように構成された画面を有する、携帯デバイス。
  8. 請求項7に記載の携帯デバイスであって、
    ユーザとインタラクティブアプリケーションの間の相互作用が生じるインタラクティブな環境の環境ビデオストリームをキャプチャーするように構成された画像キャプチャデバイスを有し、
    前記スペクテータビデオストリームジェネレータは、環境ビデオストリームに基づいてスペクテータビデオストリームを生成するように構成される、携帯デバイス。
  9. 請求項8に記載の携帯デバイスであって、
    前記スペクテータビデオストリームジェネレータは、環境ビデオストリームを仮想エレメントで拡張することにより、スペクテータビデオストリームを生成するように構成される、携帯デバイス。
  10. 請求項8に記載の携帯デバイスであって、
    前記スペクテータビデオストリームジェネレータは、前記環境ビデオストリームにおいて検出したユーザの少なくとも一部を仮想要素で置き換えることによりスペクテータビデオストリームを生成する、携帯デバイス。
  11. 請求項10に記載の携帯デバイスであって、
    前記ユーザの少なくとも一部の置き換えには、環境ビデオストリームで検出したユーザを、ユーザが制御するインタラクティブアプリケーションのキャラクタに置き換える、携帯デバイス。
  12. 請求項7に記載の携帯デバイスであって、
    前記スペクテータビデオストリームは、トラッキングされたユーザの位置に対する携帯デバイスのトラッキングされた位置と方向とに基づいて生成される、携帯デバイス。
  13. 請求項7に記載の携帯デバイスであって、
    前記センサは、加速度計、磁力計及び/又は、ジャイロスコープの1つ以上によって定義され、
    前記センサデータは、前記センサによって生成された慣性データを有している、携帯デバイス。
  14. 携帯デバイスであって、
    主画面上に表示されるインタラクティブアプリケーションのインタラクティブセッションに携帯デバイスの位置および方向を決定しトラッキングためのセンサデータを生成するように構成されたセンサを有し、
    前記インタラクティブセッションは、ユーザとインタラクティブアプリケーションとの間の相互作用のために定義されるものであり、
    コンピューティングデバイスにセンサデータを送るように構成された通信モジュールを有し、
    前記通信モジュールは、コンピューティングデバイスから、インタラクティブアプリケーションおよび携帯デバイスのトラッキングされた位置および方向の状態に基づいて生成されるインタラクティブセッションのスペクテータビデオストリームを受けるようにさらに構成されており、前記スペクテータビデオストリームは、スペクテータの前記携帯デバイスに表示されるビデオストリームであり、かつ、前記スペクテータは、同じインタラクティブ環境における前記携帯デバイスの操作者であり、
    前記インタラクティブアプリケーションのステートは、ユーザとインタラクティブアプリケーションとの間の相互作用に基づいて決定されるものであり、
    スペクテータビデオストリームを表示するように構成された画面を有し、
    前記スペクテータビデオストリームは、前記インタラクティブセッションの間の前記ユーザのトラッキングされた位置に対する前記携帯デバイスの前記位置と方向とに基づいて生成され、
    前記ユーザの前記位置に対する前記携帯デバイスの前記位置と前記方向とは前記インタラクティブアプリケーションにより定義される仮想空間内の仮想視点の位置および方向を定義するものであって、
    前記インタラクティブアプリケーションの仮想環境内のオブジェクトは、前記ユーザの位置に対してマッピングされ、
    前記スペクテータビデオストリームは前記仮想視点の視点からキャプチャされた前記仮想空間の画像を含むものであって、前記オブジェクトは、前記携帯デバイスが前記ユーザの前記位置に向けられる場合に前記スペクテータビデオストリームの前記画像に含まれる、携帯デバイス。
  15. 請求項14に記載の携帯デバイスであって、
    前記オブジェクトはユーザにより制御される、携帯デバイス。
  16. 請求項15に記載の携帯デバイスであって、
    前記オブジェクトは、前記インタラクティブアプリケーションのキャラクタである、携帯デバイス。
  17. 請求項14に記載の携帯デバイスであって、
    前記ユーザの前記位置は、ユーザにより操作されるコントローラデバイスの位置に基づいて決定される、携帯デバイス。
  18. 請求項17に記載の携帯デバイスであって、
    前記ユーザと前記インタラクティブアプリケーションとの間の相互作用が生じるインタラクティブな環境の環境ビデオストリームをキャプチャーするように構成された画像キャプチャデバイスを更に有し、
    前記ユーザの前記位置と、前記ユーザの前記位置に対する前記携帯デバイスの前記位置と方向とは前記環境ビデオストリームに少なくともある程度基づいて決定される、携帯デバイス。
JP2016170894A 2010-10-12 2016-09-01 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム Active JP6158406B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/903,161 2010-10-12
US12/903,161 US8854298B2 (en) 2010-10-12 2010-10-12 System for enabling a handheld device to capture video of an interactive application

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013533984A Division JP6001542B2 (ja) 2010-10-12 2011-10-12 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム

Publications (2)

Publication Number Publication Date
JP2016219056A JP2016219056A (ja) 2016-12-22
JP6158406B2 true JP6158406B2 (ja) 2017-07-05

Family

ID=44863261

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013533984A Active JP6001542B2 (ja) 2010-10-12 2011-10-12 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
JP2016170894A Active JP6158406B2 (ja) 2010-10-12 2016-09-01 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013533984A Active JP6001542B2 (ja) 2010-10-12 2011-10-12 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム

Country Status (5)

Country Link
US (2) US8854298B2 (ja)
EP (1) EP2627420B1 (ja)
JP (2) JP6001542B2 (ja)
CN (1) CN103249461B (ja)
WO (1) WO2012051351A2 (ja)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
AU2011204815B2 (en) * 2010-02-03 2013-05-30 Nintendo Co., Ltd. Game system, controller device, and game process method
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
KR101492310B1 (ko) 2010-11-01 2015-02-11 닌텐도가부시키가이샤 조작 장치 및 정보 처리 장치
WO2012088285A2 (en) * 2010-12-22 2012-06-28 Infinite Z, Inc. Three-dimensional tracking of a user control device in a volume
US9354718B2 (en) * 2010-12-22 2016-05-31 Zspace, Inc. Tightly coupled interactive stereo display
JP5829020B2 (ja) * 2010-12-22 2015-12-09 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
EP2497543A3 (en) 2011-03-08 2012-10-03 Nintendo Co., Ltd. Information processing program, information processing system, and information processing method
EP2497547B1 (en) 2011-03-08 2018-06-27 Nintendo Co., Ltd. Information processing program, information processing apparatus, information processing system, and information processing method
US9925464B2 (en) 2011-03-08 2018-03-27 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
JP5792971B2 (ja) 2011-03-08 2015-10-14 任天堂株式会社 情報処理システム、情報処理プログラム、および情報処理方法
US9561443B2 (en) * 2011-03-08 2017-02-07 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
US9914056B2 (en) * 2011-06-03 2018-03-13 Nintendo Co., Ltd. Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system
JP5841409B2 (ja) 2011-11-09 2016-01-13 任天堂株式会社 制御プログラム、入力端末装置、制御システムおよび制御方法
US8773429B2 (en) * 2011-11-15 2014-07-08 Cyberlink Corp. Method and system of virtual touch in a steroscopic 3D space
US20130166697A1 (en) * 2011-12-22 2013-06-27 Gregory P. Manning Multiconfiguration device cloud entity protocol
JP2013178639A (ja) * 2012-02-28 2013-09-09 Seiko Epson Corp 頭部装着型表示装置および画像表示システム
JP5122036B1 (ja) 2012-05-25 2013-01-16 任天堂株式会社 操作装置、情報処理システム、および通信方法
JP5122037B1 (ja) * 2012-05-25 2013-01-16 任天堂株式会社 操作装置、情報処理システム、および情報処理方法
EP2730995B1 (en) 2012-05-25 2016-11-30 Nintendo Co., Ltd. Controller device, information processing system, and communication method
US20140009384A1 (en) * 2012-07-04 2014-01-09 3Divi Methods and systems for determining location of handheld device within 3d environment
US20140038708A1 (en) * 2012-07-31 2014-02-06 Cbs Interactive Inc. Virtual viewpoint management system
US9729687B2 (en) * 2012-08-10 2017-08-08 Silverplus, Inc. Wearable communication device
JP6159515B2 (ja) * 2012-09-19 2017-07-05 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理制御方法
US20140098296A1 (en) * 2012-10-04 2014-04-10 Ati Technologies Ulc Method and apparatus for changing a perspective of a video
JP6178066B2 (ja) * 2012-11-06 2017-08-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US9286898B2 (en) 2012-11-14 2016-03-15 Qualcomm Incorporated Methods and apparatuses for providing tangible control of sound
US9588730B2 (en) * 2013-01-11 2017-03-07 Disney Enterprises, Inc. Mobile tele-immersive gameplay
US9372531B2 (en) * 2013-03-12 2016-06-21 Gracenote, Inc. Detecting an event within interactive media including spatialized multi-channel audio content
GB201310374D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable apparatus and systems
TW201510939A (zh) * 2013-09-05 2015-03-16 Utechzone Co Ltd 動態影像分析系統
US9555337B2 (en) * 2013-09-16 2017-01-31 Disney Enterprises, Inc. Method for tracking physical play objects by virtual players in online environments
JP6298613B2 (ja) 2013-10-17 2018-03-20 株式会社ソニー・インタラクティブエンタテインメント ゲームシステム、ゲーム制御方法、及びゲーム制御プログラム
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
US9710972B2 (en) * 2014-05-30 2017-07-18 Lucasfilm Entertainment Company Ltd. Immersion photography with dynamic matte screen
US20160263477A1 (en) * 2015-03-10 2016-09-15 LyteShot Inc. Systems and methods for interactive gaming with non-player engagement
EP3307407B1 (en) * 2015-06-14 2020-09-09 Sony Interactive Entertainment Inc. Expanded field of view re-rendering for vr spectating
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
US10076711B2 (en) * 2015-09-15 2018-09-18 Square Enix Holdings Co., Ltd. Remote rendering server with broadcaster
CN105354820B (zh) * 2015-09-30 2018-05-22 深圳多新哆技术有限责任公司 调整虚拟现实图像的方法及装置
CN108292168B (zh) * 2015-11-26 2021-04-06 日商可乐普拉股份有限公司 针对虚拟空间内对象的动作指示方法及介质
GB2545275A (en) * 2015-12-11 2017-06-14 Nokia Technologies Oy Causing provision of virtual reality content
EP3206122A1 (en) * 2016-02-10 2017-08-16 Nokia Technologies Oy An apparatus and associated methods
US10620701B2 (en) 2016-02-11 2020-04-14 Wipro Limited Method and system for improving application ergonomics in a hand-held device
US10372205B2 (en) 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
JP6643191B2 (ja) * 2016-06-07 2020-02-12 任天堂株式会社 ゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法
CN106297233B (zh) * 2016-07-29 2020-07-03 纳恩博(北京)科技有限公司 一种信息传输方法及设备
US10445925B2 (en) * 2016-09-30 2019-10-15 Sony Interactive Entertainment Inc. Using a portable device and a head-mounted display to view a shared virtual reality space
US10688396B2 (en) * 2017-04-28 2020-06-23 Sony Interactive Entertainment Inc. Second screen virtual window into VR environment
CN109952757B (zh) * 2017-08-24 2020-06-05 腾讯科技(深圳)有限公司 基于虚拟现实应用录制视频的方法、终端设备及存储介质
US10132490B1 (en) 2017-10-17 2018-11-20 Fung Academy Limited Interactive apparel ecosystems
US11383164B2 (en) 2018-02-23 2022-07-12 Rovi Guides, Inc. Systems and methods for creating a non-curated viewing perspective in a video game platform based on a curated viewing perspective
US11262839B2 (en) 2018-05-17 2022-03-01 Sony Interactive Entertainment Inc. Eye tracking with prediction and late update to GPU for fast foveated rendering in an HMD environment
US10942564B2 (en) 2018-05-17 2021-03-09 Sony Interactive Entertainment Inc. Dynamic graphics rendering based on predicted saccade landing point
KR102319157B1 (ko) * 2019-01-21 2021-10-29 라인플러스 주식회사 메신저 내 플랫폼에 추가된 애플리케이션을 이용하여 대화방에서 정보를 공유하는 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체
US11294453B2 (en) * 2019-04-23 2022-04-05 Foretell Studios, LLC Simulated reality cross platform system
US11334174B2 (en) * 2019-07-18 2022-05-17 Eyal Shlomot Universal pointing and interacting device
GB2586148A (en) * 2019-08-07 2021-02-10 Sony Interactive Entertainment Inc Content generation system and method
WO2021140603A1 (ja) * 2020-01-09 2021-07-15 ガンホー・オンライン・エンターテイメント株式会社 処理装置、プログラム、及び方法
US11705762B2 (en) * 2020-06-25 2023-07-18 Sony Interactive Entertainment LLC Method for game console operation based on detection of change in controller state
JP2022025471A (ja) * 2020-07-29 2022-02-10 株式会社AniCast RM アニメーション制作システム
JP2022025468A (ja) * 2020-07-29 2022-02-10 株式会社AniCast RM アニメーション制作システム
JP7101735B2 (ja) * 2020-10-20 2022-07-15 株式会社スクウェア・エニックス 画像生成プログラム及び画像生成システム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11033821B2 (en) * 2003-09-02 2021-06-15 Jeffrey D. Mullen Systems and methods for location based games and employment of the same on location enabled devices
JPWO2005076210A1 (ja) 2004-02-05 2007-10-18 ソフトバンクモバイル株式会社 画像処理方法、画像処理装置及び移動通信端末装置
JP3904562B2 (ja) 2004-02-18 2007-04-11 株式会社ソニー・コンピュータエンタテインメント 画像表示システム、記録媒体及びプログラム
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US20060223635A1 (en) 2005-04-04 2006-10-05 Outland Research method and apparatus for an on-screen/off-screen first person gaming experience
GB0608939D0 (en) * 2006-05-05 2006-06-14 Sony Comp Entertainment Europe Display apparatus and method
US8493323B2 (en) * 2006-08-02 2013-07-23 Research In Motion Limited System and method for adjusting presentation of moving images on an electronic device according to an orientation of the device
EP2359915B1 (en) 2009-12-31 2017-04-19 Sony Computer Entertainment Europe Limited Media viewing
JP2011243019A (ja) * 2010-05-19 2011-12-01 Koto Co Ltd 画像表示システム

Also Published As

Publication number Publication date
US20120086631A1 (en) 2012-04-12
US20150015486A1 (en) 2015-01-15
EP2627420A2 (en) 2013-08-21
CN103249461B (zh) 2016-01-20
US9084938B2 (en) 2015-07-21
JP6001542B2 (ja) 2016-10-05
JP2016219056A (ja) 2016-12-22
US8854298B2 (en) 2014-10-07
EP2627420B1 (en) 2018-03-07
WO2012051351A2 (en) 2012-04-19
WO2012051351A3 (en) 2012-08-16
CN103249461A (zh) 2013-08-14
JP2013545510A (ja) 2013-12-26

Similar Documents

Publication Publication Date Title
JP6158406B2 (ja) 携帯デバイスによるインタラクティブアプリケーションのビデオキャプチャを可能とするためのシステム
US10864433B2 (en) Using a portable device to interact with a virtual space
JP6484340B2 (ja) ヘッドマウントディスプレイを用いた仮想または拡張現実シーン内のユーザ対話の方法及びシステム
US10076703B2 (en) Systems and methods for determining functionality of a display device based on position, orientation or motion
US10671239B2 (en) Three dimensional digital content editing in virtual reality
US10445925B2 (en) Using a portable device and a head-mounted display to view a shared virtual reality space
JP5439367B2 (ja) ゲームギアリングを変更するための方法
JP5876229B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
US11759701B2 (en) System and method for generating user inputs for a video game
US9774989B2 (en) Position and rotation of a portable device relative to a television screen
EP3600578B1 (en) Zoom apparatus and associated methods
JP6270783B2 (ja) ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161003

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20161005

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170607

R150 Certificate of patent or registration of utility model

Ref document number: 6158406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250