JP6178066B2 - 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 - Google Patents

情報処理装置、情報処理方法、プログラム及び情報記憶媒体 Download PDF

Info

Publication number
JP6178066B2
JP6178066B2 JP2012244921A JP2012244921A JP6178066B2 JP 6178066 B2 JP6178066 B2 JP 6178066B2 JP 2012244921 A JP2012244921 A JP 2012244921A JP 2012244921 A JP2012244921 A JP 2012244921A JP 6178066 B2 JP6178066 B2 JP 6178066B2
Authority
JP
Japan
Prior art keywords
image
input device
unit
process execution
operation input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012244921A
Other languages
English (en)
Other versions
JP2014091001A (ja
Inventor
裕 横川
裕 横川
ニコラ ドゥセ
ニコラ ドゥセ
啓一郎 石原
啓一郎 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2012244921A priority Critical patent/JP6178066B2/ja
Priority to US14/065,495 priority patent/US9802122B2/en
Publication of JP2014091001A publication Critical patent/JP2014091001A/ja
Application granted granted Critical
Publication of JP6178066B2 publication Critical patent/JP6178066B2/ja
Priority to US15/714,264 priority patent/US10994200B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/31Communication aspects specific to video games, e.g. between several handheld game devices at close range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、プログラム及び情報記憶媒体に関する。
ゲームプログラムを実行することにより生成される画像が表示されるディスプレイの上に配置された撮像部が順次撮像するプレイヤの画像の差分に基づいて、プレイヤの動作を特定し、当該動作に応じた処理を実行するゲーム装置等の情報処理装置が存在する。
また、コントローラ等の操作入力装置が備える撮像部が撮像した画像内における、予め空間内に配置されたマーカの位置に応じた処理を実行するゲーム装置等の情報処理装置も存在する。
従来技術では、操作入力装置に対して行われた操作と、当該操作入力装置の位置と、を連携させた処理を実行するためには、操作入力装置が撮像部を備えるようにして、当該撮像部が処理に用いられるようにする必要があった。
本発明は上記課題に鑑みてなされたものであって、その目的の1つは、撮像部が設けられていない操作入力装置については追加で撮像部を設けることなく、また、撮像部が既に設けられている操作入力装置については操作入力装置に設けられた撮像部を用いることなく、操作入力装置に対する操作と当該操作の際の操作入力装置の位置との組合せに応じた処理を実行することができるようにすることにある。
上記課題を解決するために、本発明に係る情報処理装置は、撮像部が撮像した操作入力装置の画像を受け付ける画像受付部と、前記操作入力装置に対する操作に応じた操作信号を当該操作入力装置から受け付ける操作信号受付部と、前記画像受付部が受け付ける画像内における前記操作入力装置の位置と、前記操作信号受付部が受け付ける操作信号と、に応じた処理を実行する処理実行部と、を含むことを特徴とする。
また、本発明に係る情報処理システムは、情報処理装置と、複数の操作入力装置と、を含み、前記複数の操作入力装置のそれぞれが、互いに異なる色の光を発光する発光部を備え、前記情報処理装置が、撮像部が撮像した、前記複数の操作入力装置の画像を受け付ける画像受付部と、操作入力装置の識別情報に関連付けられた、当該操作入力装置に対する操作に応じた操作信号を当該操作入力装置から受け付ける操作信号受付部と、前記操作信号と、前記画像受付部が受け付ける画像内における、当該操作信号の出力元の操作入力装置に対応付けられる色の発光部の位置と、に応じた処理を実行する処理実行部と、を含むことを特徴とする。
また、本発明に係る情報処理方法は、撮像部が撮像した操作入力装置の画像を受け付ける画像受付ステップと、前記操作入力装置に対する操作に応じた操作信号を当該操作入力装置から受け付ける操作信号受付ステップと、前記画像受付ステップで受け付ける画像内における前記操作入力装置の位置と、前記操作信号受付ステップで受け付ける操作信号と、に応じた処理を実行する処理実行ステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、撮像部が撮像した操作入力装置の画像を受け付ける画像受付部、前記操作入力装置に対する操作に応じた操作信号を当該操作入力装置から受け付ける操作信号受付部、前記画像受付部が受け付ける画像内における前記操作入力装置の位置と、前記操作信号受付部が受け付ける操作信号と、に応じた処理を実行する処理実行部、としてコンピュータを機能させることを特徴とする。
また、本発明に係る情報記憶媒体は、撮像部が撮像した操作入力装置の画像を受け付ける画像受付部、前記操作入力装置に対する操作に応じた操作信号を当該操作入力装置から受け付ける操作信号受付部、前記画像受付部が受け付ける画像内における前記操作入力装置の位置と、前記操作信号受付部が受け付ける操作信号と、に応じた処理を実行する処理実行部、としてコンピュータを機能させるプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。
本発明の一実施形態に係るゲームシステムの全体構成図である。 本発明の一実施形態に係るコントローラの上側を臨む外観の一例を示す斜視図である。 本発明の一実施形態に係るコントローラの前側を臨む外観の一例を示す斜視図である。 本発明の一実施形態に係るスマートフォンの外観の一例を示す斜視図である。 本発明の一実施形態に係るゲーム装置の機能の一例を示す機能ブロック図である。 仮想空間画像の一例を示す図である。 撮像画像の一例を示す図である。 本発明の一実施形態に係るゲームシステムで行われる処理の流れの一例を示すフロー図である。 仮想空間画像の一例を示す図である。 本発明の一実施形態に係るスマートフォンのタッチパネルに表示される画像がボタン画像に切り替わった様子の一例を示す図である。 仮想空間画像の一例を示す図である。 プレイ画像の一例を示す図である。 撮像画像の一例を示す図である。 本発明の一実施形態に係るスマートフォンの外観の一例を示す斜視図である。 本発明の一実施形態に係るゲームシステムで行われる処理の流れの一例を示すフロー図である。 撮像画像の一例を示す図である。 表示対象画像の一例を示す図である。 撮像画像の一例を示す図である。 表示対象画像の一例を示す図である。 表示対象画像の一例を示す図である。 プレイ画像の一例を示す図である。 プレイ画像の一例を示す図である。
以下、本発明の一実施形態について図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理システムの一例であるゲームシステム10の全体構成図である。図1に示すように、本実施形態に係るゲームシステム10は、本実施形態に係る情報処理装置の一例であるゲーム装置12、スピーカ等が内蔵された、家庭用テレビ受像機等のディスプレイ14、ステレオカメラ16、本実施形態に係る操作入力装置の一例であるコントローラ18(18−1〜18−m)、本実施形態に係る操作入力装置の別の一例である情報端末(本実施形態では、例えば、スマートフォン20(20−1〜20−n))、を含んでいる。なお、以下の説明において、スマートフォン20の代わりに、パーソナルコンピュータや、タブレット端末などを、上述の情報端末として用いるようにしてもよい。
本実施形態では、ゲーム装置12とディスプレイ14とは、ケーブル(例えば、AVケーブルや、HDMI(登録商標)(High-Definition Multimedia Interface)ケーブル等)を介して接続されている。また、ゲーム装置12とステレオカメラ16とは、ケーブル(例えば、USB(Universal Serial Bus)(例えば、USB3.0)ケーブル、AVケーブルや、HDMIケーブル等)を介して接続されている。
ゲーム装置12は、例えば、ゲーム装置12にインストールされるプログラムに従って動作するMPU(Micro Processing Unit)等の制御部、ROMやRAM等の記憶素子やハードディスクドライブなどである記憶部、GPU(Graphical Processing Unit)とフレームバッファとから構成される画像処理部、SPU(Sound Processing Unit)とサウンドバッファとから構成される音声処理部、インターネット上のサーバ(図示せず)や、コントローラ18や、スマートフォン20などとの間で、有線又は無線によりデータの送受信を行う、ネットワークボードや無線LANモジュールなどである通信部、DVD−ROMやBlu−ray(登録商標)ディスクなどの光ディスク(コンピュータ読み取り可能な情報記憶媒体)を読み取る光ディスクドライブ、USBポート、HDMIポート等を含んでいる。これらの要素は互いにバスを介して相互にデータ授受可能に接続される。
画像処理部に含まれるGPUは、制御部から供給される画像データに基づいて、画像処理部に含まれるフレームバッファに各種画面を描画する。フレームバッファに形成された画面は、所定のタイミングでビデオ信号に変換されてディスプレイ14に出力される。
音声処理部に含まれるサウンドバッファには、光ディスクやハードディスクから読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。音声処理部に含まれるSPUは、これらの各種音声データを再生して、例えば、ディスプレイ14に内蔵されているスピーカや、コントローラ18に内蔵されているスピーカから出力させる。
ステレオカメラ16は、左右に並べて配置された、レンズ及び撮像素子などを含んで構成されるデジタルカメラのそれぞれが、所定時間(例えば、1/60秒)ごとに、画像を撮像して、ゲーム装置12に出力する。また、ステレオカメラ16は、USBポートを備えている。
コントローラ18は、本実施形態における操作入力装置(入出力装置)であり、ユーザがコントローラ18に対して行った操作に応じた信号を、ゲーム装置12に送信する。コントローラ18は、方向キー、ボタン、タッチセンサ、アナログスティック、スピーカ、コントローラ18の姿勢や動きの検出に利用される種々のセンサ(加速度センサ、ジャイロセンサ、など)、バッテリなどを内蔵している。また、本実施形態に係るコントローラ18は、バイブレータを備えている。そのため、本実施形態に係るコントローラ18は、振動を出力することができるようになっている。
また、コントローラ18は、ゲーム装置12と通信可能となっている。図1に示すように、コントローラ18は、ゲーム装置12と無線通信(例えば、Bluetooth(登録商標)等の通信規格に従った無線通信)によって接続されるが、コントローラ18が、ゲーム装置12と有線通信によって接続されていてもよい。
本実施形態に係るゲーム装置12の制御部は、所定時間(例えば1/60秒)ごとにコントローラ18の各部の状態をスキャンして、ユーザによって行われた操作の内容をスキャンした状態に基づいて判断する。なお、ゲーム装置12は、複数のコントローラ18を接続可能に構成されており、各コントローラ18から入力される操作状態に基づいて、制御部が各種処理を実行するようになっている。
図2Aは、本実施形態に係るコントローラ18の上側を臨む外観の一例を示す斜視図である。図2Bは、本実施形態に係るコントローラ18の前側を臨む外観の一例を示す斜視図である。
図2A及び図2Bに示すように、本実施形態に係るコントローラ18は、その左部及び右部に、ユーザが保持するための被保持部をそれぞれ有している。左側の被保持部の上面には、方向キーが配置されている。右側の被保持部の上面には、ボタンが配置されている。また、本実施形態に係るコントローラ18は、右側の被保持部の上面以外にも、様々なボタンが配置されている。また、本実施形態に係るコントローラ18の筐体表面には、直立したスティック状の操作部材であるアナログスティックが2つ配置されている。アナログスティックは、直立状態から全方位に所定角度まで傾倒自在となっている。コントローラ18の筐体長手方向をX軸方向とし、このX軸方向に直交する筐体奥行き方向をY軸方向とすると、アナログスティックの姿勢(操作状態)は、X軸方向及びY軸方向の傾き(姿勢データ(X,Y))として、それぞれ0〜255のディジタル値を表す信号がゲーム装置12に送信されるようになっている。
また、左側の被保持部の前部と右側の被保持部の前部とを連結する中央部の上面には、パネルと、タッチセンサと、を含む板状操作部材22が配置されている。パネルは、タッチセンサの全体を覆っており、タッチセンサは、パネルの下面(裏面)に取り付けられている。タッチセンサは、検出面(本実施形態では、板状操作部材22の上面)上における物体(ユーザの指やスタイラス等)の位置を検出可能なセンサであり、物体の検出位置に応じた信号を出力する。コントローラ18は、当該信号をゲーム装置12に送信する。
タッチセンサは、本実施形態では、例えば、静電容量式のセンサである。また、タッチセンサは、いわゆるマルチタッチが可能となっており、検出面上の物体の位置を複数同時に検出できるようになっている。また、板状操作部材22は、ユーザの押下操作に応じて上下動できるように支持されている。コントローラ18は、板状操作部材22が押されたことを検出するスイッチを有し、板状操作部材22は、オン/オフ操作が可能なボタンとして機能する。
図2Bに示すように、左側の被保持部の前部と右側の被保持部の前部とを連結する中央部の前面には発光部24が設けられている。発光部24は、左側の被保持部の突出部と右側の被保持部の突出部との間に位置している。また、発光部24は、左右方向に細長い形状を有している。図2Bの例では、発光部24は直線的に伸びる棒状である。なお、発光部24の形状はこれに限られず、例えばV字形状でもよいし、弧状に湾曲してもよい。
本実施形態に係るゲーム装置12は、ステレオカメラ16を通して、発光部24の光を取得する。ゲーム装置12は、ステレオカメラ16を通して取得した画像に対して画像処理を行い、取得した画像における発光部24の位置や大きさに基づいて、コントローラ18の位置を検出する。
発光部24は任意の色で光ることができる。例えば発光部24は、赤色、緑色、及び、青色の発光体(例えば、発光ダイオード)を含み、各発光体の輝度を調節することで、ゲーム装置12が指定する色や、コントローラ18の動作状態に応じた色で光る。このため、複数のコントローラ18が同時に使用される場合であっても、ゲーム装置12は各コントローラ18の位置を検出できる。
また、本実施形態に係るコントローラ18は、左側の被保持部の前部と右側の被保持部の前部とを連結する中央部にスピーカが内蔵されている。そして、当該中央部の上面の、スピーカに対応する位置には、通音孔が形成されている。なお、通音孔の位置に、スピーカとともに、又は、スピーカの代わりに、マイクが配置されていてもよい。
また、本実施形態では、スマートフォン20を、コントローラ18と同様、ゲーム装置12に対する操作入力装置として用いることができるようになっている。図3は、本実施形態に係るスマートフォン20の外観の一例を示す斜視図である。図3に示すように、本実施形態に係るスマートフォン20は、その前面にタッチパネル26を備えている。タッチパネル26は、検出面上における物体(ユーザの指やスタイラス等)の位置を検出可能なセンサであり、物体の検出位置に応じた信号を出力する。また、本実施形態に係るスマートフォン20は、スマートフォン20にインストールされるプログラムに従って動作するCPU等の制御部、フラッシュメモリ等である記憶部、ネットワークボード等の通信部、スピーカ、ジャイロセンサ、なども備えている。なお、スマートフォン20が、加速度センサを備えていてもよい。
図4は、本実施形態に係るゲーム装置12で実装される機能の一例を示す機能ブロック図である。図4に示すように、本実施形態に係るゲーム装置12は、機能的には、例えば、画像受付部30、距離分布データ生成部32、操作信号受付部34、処理実行部36、を含んでいる。これらの機能は、コンピュータであるゲーム装置12で、本実施形態に係るプログラムが実行されることにより実現される。このプログラムには、例えば、図4に示されている各部となるようコンピュータを制御する命令が含まれている。また、このプログラムは、コンピュータ通信ネットワーク経由で通信インタフェースを介して他のコンピュータからダウンロードされて、ゲーム装置12に提供されてもよいし、光ディスク(例えば、CD−ROM、DVD−ROM、Blu−rayディスクなど)、USBメモリ、メモリカード等のコンピュータ読み取り可能な情報記憶媒体に格納され、そこからゲーム装置12に提供されるようにしてもよい。
画像受付部30は、本実施形態では、ステレオカメラ16から出力される、ステレオカメラ16に左右に並べて配置された2つの撮像部のそれぞれが撮像した画像(生成した画像)を所定時間間隔で受け付けて、ゲーム装置12の記憶部に記憶させる。
距離分布データ生成部32は、画像受付部30が受け付けた画像に基づいて、当該画像の撮像タイミングにおける、ステレオカメラ16の正面によって形成される平面と、被写体との距離(より具体的には、例えば、被写体から、ステレオカメラ16の正面によって形成される平面に下ろした垂線の長さ)の分布を表す距離分布データを生成する。
距離分布データ生成部32は、本実施形態では、例えば、画像受付部30が受け付ける、ステレオカメラ16に左右に並べて配置された2つの撮像部のそれぞれが撮像した画像(生成した画像)のうち、一方を基準画像として用いて、他方を比較用画像として用いる。二つの撮像部で同じ被写体を撮像しても、視差によって、当該被写体の基準画像内における位置と比較用画像内における位置との間にはずれが生じる。距離分布データ生成部32は、このずれを測定することによって、ステレオカメラ16の位置から被写体までの距離を特定する。
基準画像は、本実施形態では、例えば、後述するコントローラ18やスマートフォン20の位置の特定処理や、顔の画像の認識処理などに用いられ、比較用画像は、距離分布データを生成するために用いられる。距離分布データ生成部32は、具体的には、例えば、基準画像を複数のブロックに分割し、各ブロックについて、比較用画像を用いて当該ブロックに写っている被写体までの距離(例えば、ステレオカメラ16の正面によって形成される平面から被写体までの距離)を特定する。そして、距離分布データ生成部32は、当該特定の結果に基づいて、上述のブロックと、当該ブロックに写っている被写体までの距離と、を対応付けた距離分布データを生成する。そして、距離分布データ生成部32は、生成した距離分布データを当該距離分布データの生成の基礎となった画像に関連付けてゲーム装置12の記憶部に記憶させる。
操作信号受付部34は、操作入力装置(本実施形態では、コントローラ18又はスマートフォン20)に対する操作に応じた操作信号を、当該操作入力装置から受け付ける。
処理実行部36は、以下に詳細を説明する各種処理を実行する。
[第1の利用例]
以下、本実施形態に係るゲームシステム10の第1の利用例を説明する。
第1の利用例では、処理実行部36が、予め、図5に例示する3次元仮想空間の画像(以下、仮想空間画像40と呼ぶ。)がディスプレイ14に表示されるよう制御する。図5に例示する仮想空間画像40には、予め、金庫を表す仮想オブジェクトが配置されている。
第1の利用例では、スマートフォン20に、第1の利用例で用いられるスマートフォン20用のクライアントプログラムが予めインストールされている。当該クライアントプログラムは、例えば、スマートフォン20からゲーム装置12に送信されるダウンロード要求に応じて、ゲーム装置12からスマートフォン20に送信される。そして、スマートフォン20が、当該クライアントプログラムを起動すると、予め定められた図形の画像(以下、コード画像42(図6参照)と呼ぶ。)がタッチパネル26に表示される。
図6は、コード画像42がタッチパネル26に表示された状態で、ユーザがスマートフォン20を手に持って、タッチパネル26が配置されている面をステレオカメラ16に向けた際に、ステレオカメラ16が撮像した画像(以下、撮像画像44と呼ぶ。)の一例を示す図である。なお、撮像画像44は、上述の基準画像に相当し、撮像画像44として、ステレオカメラ16の左側に配置された撮像部が撮像した画像を用いても、ステレオカメラ16の右側に配置された撮像部が撮像した画像を用いても構わない。
図6に示すように、第1の利用例では、撮像画像44の一部にコード画像42が含まれることとなる。そして、第1の利用例では、上述のように、画像受付部30は、所定時間間隔で、撮像画像44を受け付けることとなる。
ここで、第1の利用例において、本実施形態に係るゲームシステム10で行われる処理の流れの一例を、図7に例示するフロー図を参照しながら説明する。なお、以下の説明では、仮想空間画像40及び撮像画像44に関し、右方向をX軸正方向とし、上方向をY軸正方向とする。また、仮想空間画像40の左下端点の座標値を(0,0)、仮想空間画像40の右下端点の座標値を(x1,0)、仮想空間画像40の左上端点の座標値を(0,y1)、仮想空間画像40の右上端点の座標値を(x1,y1)とする。また、撮像画像44の左下端点の座標値を(0,0)、撮像画像44の右下端点の座標値を(x2,0)、撮像画像44の左上端点の座標値を(0,y2)、撮像画像44の右上端点の座標値を(x2,y2)とする。また、第1の利用例では、仮想空間画像40と撮像画像44の縦横比は同じであることとする。なお、仮想空間画像40と撮像画像44の縦横比は同じである必要はない。
まず、画像受付部30は、撮像画像44をステレオカメラ16から受け付ける(S101)。そして、処理実行部36は、受け付けた撮像画像44内における、コード画像42の位置及び向きを特定する(S102)。本処理例では、処理実行部36は、例えば、コード画像42内における代表点(例えば、重心)の座標値(a1,b1)、及び、撮像画像44内においてコード画像42が配置されている向きを表すベクトル(p1,q1)(ここでは、例えば、コード画像42の下から上に向かう向きを表すベクトル(p1,q1))を特定する。ここで、処理実行部36は、例えば、コード画像42に含まれる文字列に含まれる最初の文字が配置されている位置から最後の文字が配置されている位置に向かう向きを、反時計回りに90度回転させた向きのベクトルを、コード画像42の下から上に向かう向きのベクトル(p1,q1)として特定する。
そして、処理実行部36は、特定した座標値(a1,b1)及びベクトル(p1,q1)に基づいて、所定の画像(ここでは、爆弾を表す画像(以下、爆弾画像46(図8参照)と呼ぶ。))が配置されるべき、仮想空間画像40内における位置及び向きを決定する(S103)。本処理例では、処理実行部36は、例えば、座標値(x1−a1×x1/x2,b1×y1/y2)を爆弾画像46内の代表点(例えば、重心)の座標値(a2,b2)として決定し、ベクトル(−p1,q1)を、爆弾画像46の所定の向き(ここでは、例えば、爆弾画像46の右から左に向かう向き)のベクトル(p2,q2)として決定する。
そして、処理実行部36は、仮想空間画像40が表す仮想空間内に、S103に示す処理で決定された位置及び向きに従って爆弾画像46が配置されている様子を表す、新たな仮想空間画像40を生成して、ディスプレイ14に表示される画像を当該新たな仮想空間画像40に更新する(S104)。図8に、爆弾画像46が配置された仮想空間画像40の一例を示す。
そして、処理実行部36は、所定期間(例えば、3秒間)、爆弾画像46が静止しているか否かを判定する(S105)。ここで、処理実行部36は、例えば、3秒間における爆弾画像46の重心の移動距離の合計が所定値以下である場合は、爆弾画像46が静止していると判定する。そして、爆弾画像46が静止していないと判定されると(S105:N)、S101以降に示す処理を再度実行する。爆弾画像46が静止していると判定されると(S105:Y)、処理実行部36は、スマートフォン20に画像切替指示を示す信号を送信する。
そして、スマートフォン20は、当該画像切替指示を示す信号を受信する(S106)。スマートフォン20は、S106に示す処理で、画像切替指示を受信すると、タッチパネル26に表示される画像を、図9に例示する、ユーザに入力操作を促す画像(ここでは、例えば、ボタンを表す画像(以下、ボタン画像48と呼ぶ。))に切り替えるとともに、タッチパネル26に表示される画像が切り替わったことを表す音をスマートフォン20に内蔵されたスピーカから出力する(S107)。図9は、ユーザが持つスマートフォン20のタッチパネル26に表示される画像がボタン画像48に切り替わった様子の一例を示す図である。なお、S107に示す処理で、スマートフォン20に内蔵されたスピーカの代わりに、ディスプレイ14が備えるスピーカから音が出力されるようにしてもよい。
その後、ユーザが、タッチパネル26に表示されているボタン画像48を叩くタップ操作を行うと、スマートフォン20は、当該タップ操作を受け付け(S108)、爆発演出命令を示す信号をゲーム装置12に送信する。そして、ゲーム装置12の操作信号受付部34は、当該爆発演出命令を示す信号を受信する(S109)。
処理実行部36は、S109に示す処理で爆発演出命令を示す信号を受信すると、仮想空間画像40に配置されている爆弾画像46により表現された爆弾が爆発する演出が行われるよう、ディスプレイ14に表示される画像やディスプレイ14に内蔵されているスピーカから出力される音などを制御する(S110)。処理実行部36は、例えば、図10に例示するように、仮想空間画像40に配置されている爆弾画像46により表現された爆弾が爆発する様子を示す動画像がディスプレイ14に表示されるよう制御するとともに、爆弾の爆発音をディスプレイ14に内蔵されているスピーカから出力されるよう制御する。このように、処理実行部36は、スマートフォン20からの信号の受付に応じて、当該信号に応じた処理を実行する。
本処理例では、撮像画像44内におけるコード画像42の相対的な配置と、仮想空間画像40内における爆弾画像46の相対的な配置とは、左右反転の関係にある。そのため、ステレオカメラ16に向かってコード画像42をかざすユーザからディスプレイ14を見ると、ディスプレイ14に表示されている仮想空間画像40内における爆弾画像46の位置及び向きが、スマートフォン20をかざす位置及び向きと同様になるため、ユーザは、爆弾画像46を配置する操作を容易に行えることとなる。
また、本処理例では、スマートフォン20のタッチパネル26に予め定められた画像(本処理例では、コード画像42)が表示されている際には、ユーザがスマートフォン20を動かすことによって、ディスプレイ14に表示されるオブジェクトの画像(本処理例では、爆弾画像46)を配置する位置及び向きを設定することができ、爆弾画像46が配置され、タッチパネル26に表示される画像がボタン画像48に切り替わった後は、ユーザは、スマートフォン20のタッチパネル26に対して所定の操作(本処理例では、タップ操作)を行うことによって、所定の指示(本処理例では、爆弾画像46によって表現された爆弾が爆発する演出を行う指示)をゲーム装置12に送信することができることとなる。このようにして、本処理例におけるゲームシステム10では、状況によって異なる複数の役割をスマートフォン20に担わせることができることとなる。
なお、本処理例において、距離分布データ生成部32が、2つの撮像部により撮像された撮像画像44に基づいて、距離分布データを生成するようにしてもよい。そして、処理実行部36が、距離分布データに基づいて、コード画像42とステレオカメラ16との距離が所定値以下であるか否かを判定するようにしてもよい。そして、処理実行部36は、コード画像42とステレオカメラ16との距離が所定値以下ではないと判定される場合は、爆弾画像46が仮想空間内に配置されていない様子を表すよう、すなわち、図5と同様の仮想空間画像40が表示されるよう、ディスプレイ14に表示されている仮想空間画像40を更新するようにしてもよい。また、上述のS102に示す処理で、処理実行部36が、撮像画像44、距離分布データ、及び、スマートフォン20から送信されるジャイロセンサによる角速度の測定結果のうちの少なくとも1つに基づいて、コード画像42内における代表点の三次元座標値、及び、コード画像42が配置されている向きを表す三次元ベクトルを特定してもよい。そして、上述のS103に示す処理で、処理実行部36が、上述の三次元座標値及び三次元ベクトルに基づいて、所定の画像が配置されるべき、仮想空間画像40内における位置及び向きを決定してもよい。また、処理実行部36が、コード画像42内における代表点の座標値やコード画像42が配置されている向きを表すベクトルを特定にあたって、スマートフォン20から送信される、加速度センサによる測定結果を用いるようにしてもよい。
[第2の利用例]
以下、本実施形態に係るゲームシステム10の第2の利用例を説明する。
第2の利用例では、ゲーム装置12は、コントローラ18とスマートフォン20とを操作入力装置として用いるシューティングゲームのゲームプログラムを実行する。
図11は、当該シューティングゲームのプレイ中にディスプレイ14に表示される画像(以下、プレイ画像50と呼ぶ。)の一例を示す図である。
図12に、ディスプレイ14に表示されるプレイ画像50の基礎となる撮像画像44の一例を示す。なお、撮像画像44は、上述の基準画像に相当し、撮像画像44として、ステレオカメラ16の左側に配置された撮像部が撮像した画像を用いても、ステレオカメラ16の右側に配置された撮像部が撮像した画像を用いても構わない。図12には、コントローラ18の画像、及び、コントローラ18を操作するユーザの手の画像、及び、ユーザの顔の画像だけが示されており、これらの画像以外の画像が省略されているが、実際の撮像画像44には、ユーザの胴体の画像、背景の画像なども含まれている。図12に示すように、第2の利用例では、撮像画像44にコントローラ18の発光部24の画像が含まれている。
プレイ画像50には、撮像画像44を左右反転した上で、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像、標的となるオブジェクト(本処理例では、例えば、UFO)を表す画像(以下、UFO画像52と呼ぶ。)、及び、標的を狙うための照準を表す照準画像54が含まれている。
当該シューティングゲームでは、2人のユーザが高いスコアを獲得することを目指して対戦する。そして、当該シューティングゲームをプレイする2人のユーザは、それぞれ、コントローラ18を操作する。第2の利用例では、2人のユーザのそれぞれが操作するコントローラ18の発光部24からは異なる色の光が発光するよう予め設定されている。例えば、プレイ画像50における左側(すなわち、撮像画像44における右側)のユーザ(以下、第1ユーザと呼ぶ。)のコントローラ18の発光部24からは赤色の光が発光し、プレイ画像50における右側(すなわち、撮像画像44における左側)のユーザ(以下、第2ユーザと呼ぶ。)のコントローラ18の発光部24からは青色の光が発光する。
また、上述の2人のユーザとは別に、スマートフォン20を操作するユーザ(以下、第3ユーザと呼ぶ。)もゲームに参加している。第3ユーザは、スマートフォン20を操作することで、UFO画像52の動きを制御する。図13は、第3ユーザが操作するスマートフォン20の外観の一例を示す斜視図である。本処理例では、ゲーム装置12の処理実行部36が、撮像画像44を左右反転した画像を縮小した画像(以下、縮小反転画像56と呼ぶ。)をスマートフォン20に送信する。ここで、縮小反転画像56は、撮像画像44を左右反転した画像を、縦横比を維持したまま、縮小した画像であってもよい。そして、スマートフォン20が、当該縮小反転画像56を受信して、当該縮小反転画像56がタッチパネル26に表示されるよう制御する。このようにして、スマートフォン20のタッチパネル26に縮小反転画像56が表示される。そして、第3ユーザは、タッチパネル26に指等を接触させた状態で指等をずらすドラッグ操作を行うことで、標的となるオブジェクトが表示される位置(ここでは、標的となるオブジェクトが移動する軌道を示す線)を指定することができるようになっている。図13には、ドラッグ操作の軌跡の一例が実線で表現されている。
第2の利用例におけるシューティングゲームでは、スマートフォン20を操作する第3ユーザが、標的となるオブジェクトの軌道を表す線の入力を、スマートフォン20のタッチパネル26に対して行い、コントローラ18を操作する第1ユーザ及び第2ユーザが、標的となるオブジェクトを狙うための照準の位置をコントローラ18によって制御する。
なお、以下の説明において、プレイ画像50、及び、縮小反転画像56に関し、右方向をX軸正方向とし、上方向をY軸正方向とする。また、プレイ画像50の左下端点の座標値を(0,0)、プレイ画像50の右下端点の座標値を(x3,0)、プレイ画像50の左上端点の座標値を(0,y3)、プレイ画像50の右上端点の座標値を(x3,y3)とする。また、縮小反転画像56の左下端点の座標値を(0,0)、縮小反転画像56の右下端点の座標値を(x4,0)、縮小反転画像56の左上端点の座標値を(0,y4)、縮小反転画像56の右上端点の座標値を(x4,y4)とする。また、第2の利用例では、撮像画像44と、プレイ画像50と、縮小反転画像56の縦横比は同じであることとする。なお、撮像画像44と、プレイ画像50と、縮小反転画像56の縦横比は同じである必要はない。
図13に示すように、スマートフォン20のタッチパネル26に縮小反転画像56が表示されている際に、第3ユーザが指等を用いてドラッグ操作を行い、指等をタッチパネル26から離すと、スマートフォン20は、タッチパネル26が所定時間間隔で検出した位置の座標値のそれぞれに、ドラッグ操作が開始された時点から当該位置が検出されたタイミングのまでの経過時間が関連付けられた入力軌跡データを生成して、ゲーム装置12に送信する。そして、ゲーム装置12の操作信号受付部34は、当該入力軌跡データを受信する。そして、ゲーム装置12の処理実行部36は、ステレオカメラ16から受け付けた最新の撮像画像44に基づいて、当該撮像画像44を左右反転させた上で縮小した縮小反転画像56を生成して、スマートフォン20に送信する。ここで、処理実行部36は、撮像画像44を左右反転させた上で、縦横比を維持したまま縮小した縮小反転画像56を生成して、スマートフォン20に送信してもよい。そして、スマートフォン20は、当該縮小反転画像56を受信して、スマートフォン20のタッチパネル26に表示されている画像を受信した縮小反転画像56に更新する。
このようにして、スマートフォン20のタッチパネル26に表示される画像が逐次更新されることとなる。
ゲーム装置12の処理実行部36は、上述のようにして、スマートフォン20から入力軌跡データを受信した際に、当該入力軌跡データに基づいて、表示軌跡データを生成して、ゲーム装置12の記憶部に記憶させる。ここで、処理実行部36は、例えば、入力軌跡データに含まれる座標値(a3,b3)を、座標値(a3×x3/x4,b3×y3/y4)に変換し、座標値に関連付けられている経過時間の値を所定倍(例えば、3倍)する。なお、ここで、処理実行部36は、例えば、ディスプレイ14とタッチパネル26のサイズ比に応じた倍率で、座標値に関連付けられている経過時間の値を増加あるいは減少させるようにしてもよい。処理実行部36は、具体的には、例えば、座標値に関連付けられている経過時間の値をx3/x4倍したり、y3/y4倍したりするようにしてもよい。
ここで、第2の利用例において、本実施形態に係るゲームシステム10で行われる、プレイ画像50の更新処理の流れの一例を、図14に例示するフロー図を参照しながら説明する。
まず、ゲーム装置12の画像受付部30は、撮像画像44をステレオカメラ16から受け付ける(S201)。そして、処理実行部36は、受け付けた撮像画像44内における、コントローラ18の発光部24の位置を示す座標値を特定する(S202)。本処理例では、赤色の発光部24の位置を示す座標値と青色の発光部24の位置を示す座標値とが特定されることとなる。
そして、処理実行部36は、S202に示す処理で特定された座標値に基づいて、照準画像54が配置されるべき、プレイ画像50内における位置を決定する(S203)。本処理例では、処理実行部36は、例えば、撮像画像44内における発光部24の位置が左であるほど、プレイ画像50内における照準画像54の位置が右となり、撮像画像44内における発光部24の位置が上であるほど、プレイ画像50内における照準画像54の位置が上となるよう、予め定められた規則に従って照準画像54の位置を決定する。また、本処理例では、第1ユーザのコントローラ18に対応する照準画像54の位置と、第2ユーザのコントローラ18に対応する照準画像54の位置と、が決定されることとなる。
より具体的には、例えば、処理実行部36は、公知の顔画像認識技術を用いて、撮像画像44内における第1ユーザと第2ユーザの顔の画像の位置を特定する。そして、処理実行部36は、特定された顔の画像からY軸負方向に所定の長さだけ離れた位置に、撮像画像44を、縮小した形状が占める領域である検出領域を設定する。ここで、処理実行部36は、例えば、撮像画像44を、縦横比を維持したまま縮小した形状が占める領域を、検出領域として設定してもよい。そして、処理実行部36は、検出領域内における発光部24の位置と、検出領域を左右反転させて、プレイ画像50の大きさに拡大した際における照準画像54内の代表点(例えば、重心)の位置とが、一致するよう、照準画像54の位置を決定する。ここでは、例えば、図11に示されている左下の照準画像54の位置が、第1ユーザに対応付けられる照準画像54の位置として決定され、図11に示されている右上の照準画像54が、第2ユーザに対応付けられる照準画像54の位置として決定される。
そして、処理実行部36は、ゲーム装置12の記憶部に記憶されている表示軌跡データに基づいて、UFO画像52が配置されるべき、プレイ画像50内における位置を決定する(S204)。本処理例では、処理実行部36は、例えば、表示軌跡データにおいて、ディスプレイ14に表示されているUFO画像52がディスプレイ14に表示された時点からの経過時間に関連付けられている座標値をUFO画像52が配置される位置の座標値として決定する。なお、処理実行部36は、ディスプレイ14に表示されているUFO画像52がディスプレイ14に表示された時点からの経過時間を含む表示軌跡データが存在しない場合には、その前後の経過時間に関連付けられている座標値を補間することで算出される座標値を、UFO画像52が配置される位置の座標値として決定する。
なお、本処理例では、表示軌跡データにおいて、最も値の大きな経過時間に関連付けられている座標値が決定された際には、処理実行部36は、当該表示軌跡データを記憶部から削除する。
そして、処理実行部36は、S201に示す処理で取得した撮像画像44を左右反転した上で、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像に対して、S203に示す処理で決定された位置に照準画像54(本処理例では、2つの照準画像54)が配置され、S204に示す処理で決定された位置にUFO画像52が配置されたプレイ画像50を生成して、ディスプレイ14に表示される画像を当該生成されたプレイ画像50に更新する(S205)。そして、S201以降に示す処理を再度実行する。
以上のようにして、プレイ画像50が所定の時間間隔で更新されることとなる。
なお、以上説明した処理例のS204に示す処理において、表示軌跡データが削除された際には、処理実行部36は、次にS204に示す処理を実行する際に、削除された表示軌跡データの次に生成された表示軌跡データにおいて、値が0である経過時間に関連付けられている座標値をUFO画像52が配置される位置の座標値として決定する。
本処理例では、スマートフォン20のタッチパネル26に対して入力された軌跡と同様の軌跡で、UFO画像52が移動することとなる。また、表示軌跡データに含まれる経過時間の値は、入力軌跡データに含まれる座標値に関連付けられている経過時間の値を3倍となっているので、入力軌跡データに含まれる経過時間の値をそのまま表示軌跡データに含まれる経過時間の値として用いる場合と比較して、UFO画像52は、1/3の速度でプレイ画像50内を移動することとなる。図11には、UFO画像52がプレイ画像50内において移動する軌道が破線で示されている。
ここで、第1ユーザ又は第2ユーザが、シューティングゲームにおける標的の攻撃に対応付けられている、コントローラ18の所定のボタンを押下すると、コントローラ18は、当該ボタンが押下されたことを示す操作信号をゲーム装置12に送信する。すると、ゲーム装置12の操作信号受付部34が、当該操作信号を受信する。そして、ゲーム装置12の処理実行部36は、攻撃の成否判定を行う。処理実行部36は、例えば、操作信号を受信した際にディスプレイ14に表示されているプレイ画像50において、操作信号の送信元のコントローラ18に対応する照準画像54の少なくとも一部とUFO画像52の少なくとも一部が重なっている場合は、当該照準画像54に対応付けられるユーザの攻撃が成功したと判定し、そうでない場合は、攻撃が失敗したと判定する。
そして、処理実行部36は、攻撃の成否に応じた処理を実行する。例えば、処理実行部36は、攻撃が成功したと判定された場合に、ゲーム装置12の記憶部に予め記憶されている、攻撃が成功したと判定されたユーザの、当該シューティングゲームにおけるスコアを表すデータの値を所定値だけ加算する。
このようにして、第2の利用例におけるゲームシステム10では、ユーザは、シューティングゲームを楽しむことができることとなる。
また、第2の利用例では、ディスプレイ14に表示されている画像と同様の画像がスマートフォン20のタッチパネル26にも表示される。そして、ユーザが、当該タッチパネル26に表示されている画像に対して、軌跡を表す線を入力するドラッグ操作を行うことで、タッチパネル26内においてユーザが入力した線の位置に対応付けられる、ディスプレイ14に表示されている画像内における軌道に沿って、UFO画像52等のオブジェクトが移動する様子を表す動画像がディスプレイ14に表示されることとなる。このように、第2の利用例では、タッチパネル26に表示されている画像に対して入力された位置に対応付けられるディスプレイ14内の位置にオブジェクトが配置された画像が、ディスプレイ14に表示されることとなる。
なお、第2の利用例において、例えば、処理実行部36が、スコアを表すデータの値に応じて、ユーザが顔の画像が加工されたプレイ画像50が、ディスプレイ14に表示されるよう制御する処理など、上述のスコアを表すデータの値に応じた処理を実行するようにしてもよい。具体的には、例えば、処理実行部36は、スコアを表すデータの値が最も高いユーザが操作するコントローラ18の発光部24の色を特定するようにしてもよい。そして、処理実行部36は、特定された色の発光部24が配置されている、プレイ画像50内における位置を特定するようにしてもよい。そして、処理実行部36は、公知の顔画像認識技術を用いて、プレイ画像50内における、特定された発光部24の位置の上方に配置されているユーザの顔の画像を特定するようにしてもよい。処理実行部36は、具体的には、例えば、特定された発光部24の位置から所定の長さだけ上に離れた位置を中心とした所定の形状(例えば、矩形)の領域に対して顔画像認識処理を実行して、ユーザの顔の画像を特定するようにしてもよい。そして、処理実行部36が、特定されたユーザの顔の画像の位置内の代表点(例えば、重心)から、所定の向き(例えば、上向き)に所定の長さだけ離れた位置を中心とした所定の形状(例えば、矩形)の領域を表示領域として設定するようにしてもよい。そして、処理実行部36が、設定された表示領域に、スコアを表すデータの値が最高であることを表す所定の画像(例えば、王冠の画像)が配置されるよう、ディスプレイ14に表示されているプレイ画像50を更新するようにしてもよい。同様にして、処理実行部36は、例えば、スコアを表すデータの値が最も低いユーザの顔の画像の上に設定される表示領域に、スコアを表すデータの値が最低であることを表す所定の画像が配置されるよう、ディスプレイ14に表示されているプレイ画像50を更新するようにしてもよい。以上説明したように、第2の利用例において、発光部24と所定の位置関係がある領域内に対して顔画像認識処理が実行されるようにしたり、ユーザの顔の画像と所定の位置関係がある領域が表示領域として設定されて、当該表示領域に画像が配置されるようにしたりしてもよい。
また、第2の利用例において、ゲーム装置12の処理実行部36が、入力軌跡データの受信に応じて撮像画像44をスマートフォン20に送信する代わりに、所定の時間間隔(例えば、1秒間隔、あるいは、1/60秒間隔)で、ステレオカメラ16から受け付けた最新の撮像画像44に基づいて縮小反転画像56を生成して、スマートフォン20に送信するようにしてもよい。そして、スマートフォン20が、縮小反転画像56の受信に応じて、タッチパネル26に表示される画像を、受信した縮小反転画像56に更新するようにしてもよい。このようにすれば、ディスプレイ14に表示される動画像と同様の、当該動画像よりもサイズが小さな動画像がタッチパネル26に表示されることとなる。
また、上述の動画像がタッチパネル26に表示されている際に、第3ユーザによる、タッチパネル26へのドラッグ操作が開始されたタイミングから終了されたタイミングまでの期間、すなわち、タッチパネル26に指等が接触したタイミングからタッチパネル26から指等が離れたタイミングまでの期間に、タッチパネル26に表示される画像が更新されないようにしてもよい。すなわち、スマートフォン20が、上述の期間においては、タッチパネル26に表示される画像の更新処理を停止するようにしてもよい。
また、第2の利用例において、上述のS203に示す処理で、処理実行部36が、撮像画像44内における発光部24の位置と、撮像画像44を左右反転させて、プレイ画像50の大きさに拡大又は縮小した際における照準画像54内の代表点(例えば、重心)の位置とが、一致するよう、照準画像54の位置を決定するようにしてもよい。また、処理実行部36は、コントローラ18の位置と、コントローラ18に対する操作やコントローラ18の姿勢(例えば、コントローラ18の傾きや角速度)と、に基づいて、プレイ画像50に配置されるオブジェクト(例えば、照準画像54)の位置を決定してもよい。具体的には、例えば、上述のS201に示す処理で、ゲーム装置12の画像受付部30が、撮像画像44をステレオカメラ16から受け付けるとともに、ゲーム装置12の操作信号受付部34が、コントローラ18から、ジャイロセンサによる角速度の測定結果を受け付けてもよい。そして、上述のS203に示す処理で、処理実行部36が、検出領域内(あるいは、撮像画像44内)における発光部24の位置と、検出領域(あるいは、撮像画像44)を左右反転させて、プレイ画像50の大きさに拡大した際における基準点の位置とが、一致するよう、基準点の位置を決定してもよい。そして、処理実行部36が、当該基準点の位置をジャイロセンサによる角速度の測定結果に基づいて決定される補正量だけ移動させた位置(例えば、ジャイロセンサによる測定結果である角速度のベクトルに沿った向きに、当該角速度のベクトルの大きさに比例する長さだけ、基準点の位置を移動させた位置)を、照準画像54の位置として決定してもよい。
また、第2の利用例において、ゲーム装置12の処理実行部36が、縮小反転画像56の代わりに、撮像画像44、撮像画像44を左右反転させた画像、撮像画像44を縮小した画像、などをスマートフォン20に送信するようにしてもよい。そして、スマートフォン20が、受信した画像に基づいて縮小反転画像56を生成するようにしてもよい。
また、例えば、スマートフォン20が、入力軌跡データに基づいて表示軌跡データを生成して、ゲーム装置12に送信するようにしてもよい。そして、ゲーム装置12が、受信した表示軌跡データをゲーム装置12の記憶部に記憶させるようにしてもよい。
[第3の利用例]
以下、本実施形態に係るゲームシステム10の第3の利用例を説明する。
第3の利用例では、ゲーム装置12の画像受付部30が、撮像画像44(図15参照)をステレオカメラ16から受け付ける。
図15は、第3の利用例における撮像画像44の一例を示す図である。なお、撮像画像44は、上述の基準画像に相当し、撮像画像44として、ステレオカメラ16の左側に配置された撮像部が撮像した画像を用いても、ステレオカメラ16の右側に配置された撮像部が撮像した画像を用いても構わない。図15には、2つのコントローラ18の画像、及び、それぞれのコントローラ18を操作するユーザの手の画像だけが示されており、これらの画像以外の画像が省略されているが、実際の撮像画像44には、ユーザの顔の画像、ユーザの胴体の画像、背景の画像なども含まれている。図15に示すように、第3の利用例では、撮像画像44にコントローラ18の発光部24の画像が含まれている。第3の利用例では、これら2つの発光部24のそれぞれからは互いに異なる色の光が発光している。
そして、第3の利用例では、処理実行部36が、撮像画像44を左右反転させた上で、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像を、中間画像として生成する。ここで、処理実行部36が、撮像画像44を左右反転させた上で、縦横比を維持したままディスプレイ14の解像度に応じた拡大又は縮小を行った画像を、中間画像として生成してもよい。そして、処理実行部36は、中間画像内における、発光部24の位置を特定する。そして、処理実行部36は、中間画像に対して、特定された発光部24の位置をつなぐ図形(例えば、糸を表す図形)を配置した画像を、表示対象画像58として生成し、当該表示対象画像58がディスプレイ14に表示されるよう制御する(図16参照)。図16は、表示対象画像58の一例を示す図である。
第3の利用例では、ゲーム装置12は、以上説明した、撮像画像44の受付から表示対象画像58の表示制御までの処理を、ステレオカメラ16が撮像画像44を撮像する(生成する)間隔で実行する。そのため、表示対象画像58内における、発光部24の位置をつなぐ図形の位置は、ステレオカメラ16が撮像画像44を撮像する(生成する)間隔で変更されることとなる。
なお、例えば、図17に示すように、撮像画像44に、コントローラ18の画像と、指を突き出した手の画像と、が含まれていてもよい。そして、処理実行部36が、撮像画像44を左右反転させた上で、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像を、中間画像として生成するようにしてもよい。ここで、処理実行部36は、例えば、撮像画像44を左右反転させた上で、縦横比を維持したまま、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像を、中間画像として生成するようにしてもよい。そして、公知のピーク検出技術を用いることによって、処理実行部36が、距離分布データが示す距離分布に基づいて、中間画像内におけるピークの位置(例えば、人差し指の先端)を特定するようにしてもよい。そして、処理実行部36が、中間画像に対して、特定されたピークの位置と、コントローラ18の発光部24の位置と、をつなぐ図形を配置した画像を表示対象画像58として生成するようにしてもよい。図18は、以上のようにして生成された表示対象画像58の一例を示す図である。
また、例えば、撮像画像44に、コントローラ18の画像と、所定の画像(ここでは、例えば、コード画像42)がタッチパネル26に表示されたスマートフォン20の画像と、が含まれていてもよい。そして、処理実行部36が、撮像画像44を左右反転させた上で、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像を、中間画像として生成するようにしてもよい。ここで、処理実行部36は、例えば、撮像画像44を左右反転させた上で、縦横比を維持したまま、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像を、中間画像として生成するようにしてもよい。そして、処理実行部36が、例えば、中間画像内における、コード画像42内の代表点(例えば、重心)の位置と、コントローラ18の発光部24の位置を特定するようにしてもよい。そして、処理実行部36が、中間画像に対して、特定されたコード画像42内の代表点の位置と、発光部24の位置と、をつなぐ図形を配置した画像を、表示対象画像58として生成し、当該表示対象画像58がディスプレイ14に表示されるよう制御する(図19参照)。図19は、以上のようにして生成された表示対象画像58の一例を示す図である。
処理実行部36が、上述と同様の処理を実行することによって、例えば、特定されたピークの位置と、スマートフォン20のタッチパネル26に表示された画像の位置と、をつなぐ図形が配置された表示対象画像58を生成するようにしてもよい。
第3の利用例によれば、複数のコントローラ18の位置の組合せに応じた処理が実行される。また、第3の利用例によれば、スマートフォン20など多様な種類の端末の位置と、コントローラ18の位置と、の組合せに応じた処理も実行可能である。また、第3の利用例によれば、第3の利用例によれば、突き出されたユーザの指などといった、検出されたピーク位置と、コントローラ18やスマートフォン20等といった装置の位置と、に応じた処理も実行可能である。
[第4の利用例]
以下、本実施形態に係るゲームシステム10の第4の利用例を説明する。
第4の利用例では、ゲーム装置12は、コントローラ18を操作入力装置として用いる対戦型のゲーム(ここでは、例えば、エアホッケーゲーム)のゲームプログラムを実行する。
図20は、当該エアホッケーゲームのプレイ中にディスプレイ14に表示される画像(以下、第4の利用例におけるプレイ画像50と呼ぶ。)の一例を示す図である。図21は、当該エアホッケーゲームのプレイ中にディスプレイ14に表示されるプレイ画像50の別の一例を示す図である。プレイ画像50には、エアホッケーのフィールドを表すフィールド画像60、2人のユーザそれぞれが操作するためのバーを表す2つのバー画像62、及び、2人のユーザが互いに打ち返すパックを表すパック画像64、が含まれている。
当該エアホッケーゲームでは、2人のユーザが、パック画像64が表すパックを互いに打ち返す。2人のユーザのそれぞれに対応付けられているバー画像62は、コントローラ18が備えたタッチセンサによって操作可能となっている。また、2人のユーザが持つコントローラ18の位置及び向きの変化に応じて、フィールド画像60の位置、大きさ、及び、形状が変化する。本実施形態では、ディスプレイ14に向かって左側のユーザに対応するバー画像62が左側に配置され、ディスプレイ14に向かって右側のユーザに対応するバー画像62が右側に配置される。また、ディスプレイ14に向かって左側のユーザに対応するバー画像62付近の色は、ディスプレイ14に向かって左側のユーザが操作するコントローラ18の発光部24から発光する光の色と同系統の色となり、ディスプレイ14に向かって右側のユーザに対応するバー画像62付近の色は、ディスプレイ14に向かって右側のユーザが操作するコントローラ18の発光部24から発光する光の色と同系統の色となる。
当該エアホッケーゲームでは、公知のエアホッケーゲームと同様、一方のユーザが所定のスタート操作を行うと(例えば、コントローラ18が備える所定のボタンを押下すると)、当該ユーザに対応するバー画像62が表すバーから所定の速度でパック画像64が表すパックが発射される。ここで、第4の利用例では、パック画像64は、フィールド画像60の座標系に従って移動することとなる。当該エアホッケーゲームでは、ユーザが、コントローラ18を動かすことでフィールド画像60の形状等が変化するので、プレイ画像50内で動くパックが従来のエアホッケーゲームと比較して不規則なものとなる。
そして、フィールド画像60の上辺及び下辺、及び、バー画像62が表すバーで、パック画像64が表すパックが反射する。バー画像62が表すバーとパック画像64が表すパックとが接触する際に、当該バーが当該パックに向かう向きに動いていると、当該パックは加速される。また、バー画像62が表すバーとパック画像64が表すパックとが接触する際に、当該バー当該パックから離れる向きに動いていると、当該パックは減速される。
以下、第4の利用例において、画像受付部30による撮像画像44の受付間隔で実行される処理について説明する。
まず、画像受付部30が、第3の利用例と同様の、2人のユーザのそれぞれが持っているコントローラ18の発光部24の画像が含まれる撮像画像44を受け付ける。これら2つの発光部24からは、互いに異なる色の光が発光するよう予め設定されている。また、操作信号受付部34が、2つのコントローラ18のそれぞれから、コントローラ18が備える加速度センサの測定結果、コントローラ18が備えるジャイロセンサの測定結果、及び、コントローラ18が備えるタッチセンサによる指等の物体の検出結果を受け付ける。
そして、処理実行部36は、撮像画像44を左右反転させた上で、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像内における、2つの発光部24の位置を特定する。ここで、処理実行部36は、例えば、撮像画像44を左右反転させた上で、縦横比を維持したまま、ディスプレイ14の解像度に応じた拡大又は縮小を行った画像内における、2つの発光部24の位置を特定してもよい。また、処理実行部36は、コントローラ18のそれぞれから受け付けた、コントローラ18が備える加速度センサの測定結果、及び、コントローラ18が備えるジャイロセンサの測定結果に基づいて、2つのコントローラ18のそれぞれの向きを特定する。
そして、処理実行部36は、特定された2つのコントローラ18の発光部24の位置関係、及び、2つのコントローラ18それぞれの向き、に基づいて、プレイ画像50内におけるフィールド画像60の位置、形状、及び、大きさを決定する。
本実施形態では、例えば、ディスプレイ14に向かって左側のユーザのコントローラ18が、反時計回りに傾いている場合は、右下から左上に向かう向きが、時計回りに傾いている場合は、左下から右上に向かう向きが、フィールド画像60の左辺の向きとして決定される。また、ディスプレイ14に向かって右側のユーザのコントローラ18が、反時計回りに傾いている場合は、右下から左上に向かう向きが、時計回りに傾いている場合は、左下から右上に向かう向きが、フィールド画像60の右辺の向きとして決定される。
また、ディスプレイ14に向かって左側のユーザのコントローラ18の位置が、左であるほど、左となり、右であるほど、右となるよう、プレイ画像50内におけるフィールド画像60の左辺の位置が決定される。また、ディスプレイ14に向かって右側のユーザのコントローラ18の位置が、左であるほど、左となり、右であるほど、右となるよう、プレイ画像50内におけるフィールド画像60の右辺の位置が決定される。
そして、処理実行部36は、フィールド画像60の左辺の上端と右辺の上端とをなめらかにつなぐ曲線又は直線を、フィールド画像60の上辺を表す線として決定し、フィールド画像60の左辺の下端と右辺の下端とをなめらかにつなぐ曲線又は直線を、フィールド画像60の上辺を表す線として決定する。
また、処理実行部36は、コントローラ18が備えるタッチセンサによる指等の物体の検出結果に基づいて、バー画像62の新たな位置を決定する。本実施形態では、処理実行部36は、例えば、ディスプレイ14に向かって左側のユーザのコントローラ18から、タッチセンサを上向きにドラッグする操作が行われたことを示す検出結果を受け付けた場合は、フィールド画像60の左辺における位置が所定値だけ上となるようプレイ画像50の左側に配置されたバー画像62の新たな位置を決定し、タッチセンサを下向きにドラッグする操作が行われたことを示す検出結果を受け付けた場合は、フィールド画像60の左辺における位置が所定値だけ下となるよう、プレイ画像50の左側に配置されたバー画像62の新たな位置を決定する。また、処理実行部36は、例えば、ディスプレイ14に向かって右側のユーザのコントローラ18から、タッチセンサを上向きにドラッグする操作が行われたことを示す検出結果を受け付けた場合は、フィールド画像60の右辺における位置が所定値だけ上となるようプレイ画像50の右側に配置されたバー画像62の新たな位置を決定し、タッチセンサを下向きにドラッグする操作が行われたことを示す検出結果を受け付けた場合は、フィールド画像60の右辺における位置が所定値だけ下となるようプレイ画像50の右側に配置されたバー画像62の新たな位置を決定する。
そして、処理実行部36は、パック画像64の現在位置及び当該パック画像64が表すパックの速度ベクトル、フィールド画像60の形状等、バー画像62の位置等に基づいて、パック画像64の新たな位置を決定する。
そして、処理実行部36は、ディスプレイ14に表示されている画像を、上述のようにして位置等が決定されたフィールド画像60、バー画像62、及び、パック画像64が配置されたプレイ画像50に更新する。
このように、第4の利用例では、処理実行部36は、複数のコントローラ18(ここでは、2つのコントローラ18)それぞれの、位置又は姿勢の少なくとも一方についての関係に基づいて、ディスプレイ14に表示されるオブジェクトの画像(ここでは、例えば、フィールド画像60)の配置(形状、位置、大きさ等)を決定する。また、処理実行部36は、それぞれのコントローラ18について、コントローラ18に対する操作(ここでは、タッチセンサに対するドラッグ操作)に基づいて、当該コントローラ18に対応付けられる、ディスプレイ14に表示される他のオブジェクトの画像(ここでは、例えば、バー画像62)の配置を決定する。また、以上説明したように、ゲームの勝敗に関連するオブジェクト(ここでは、フィールド画像60)が、ゲームにおいて対戦しているユーザそれぞれのコントローラ18の位置、コントローラ18間の距離、コントローラ18の姿勢(例えば、角度)、などに基づいて、変形されるようにしてもよい。
以上、第1の利用例、第2の利用例、第3の利用例、及び、第4の利用例において説明したように、本実施形態に係るゲームシステム10によれば、コントローラ18やスマートフォン20などといった操作入力装置が撮像部を備えていなくても、操作入力装置に対して行われた操作と、操作入力装置の位置と、に応じた処理を実行することができることとなる。また、本実施形態に係るゲームシステム10によれば、コントローラ18やスマートフォン20などといった操作入力装置が撮像部を備えていたとしても、当該撮像部を用いることなく、操作入力装置に対して行われた操作と、操作入力装置の位置と、に応じた処理を実行することができることとなる。
なお、本発明は上述の実施形態に限定されるものではない。
例えば、ゲーム装置12の画像受付部30が、ステレオカメラ16ではないカメラから、撮像画像44を受け付けるようにしてもよい。
また、例えば、ゲーム装置12が、赤外線を出力して、その赤外線が撮像対象オブジェクトに反射して戻ってくるまでの時間を測定して、その測定された時間に基づいて、被写体とゲーム装置12との距離分布を測定する距離分布測定部から、距離分布の測定結果を受け付けるようにしてもよい。
また、例えば、ゲーム装置12が、焦点距離の異なる複数のレンズから構成され、これらのレンズのうち、被写体に対してピントが合ったレンズに基づいて、被写体とゲーム装置12との距離分布を測定する距離分布測定部から、距離分布の測定結果を受け付けるようにしてもよい。
そして、ゲーム装置12の距離分布データ生成部32が、受信した測定結果に基づいて、距離分布データを生成するようにしてもよい。
また、本実施形態を、ゲーム装置12を含むゲームシステム10以外の、情報処理装置等を含む一般的な情報処理システムに応用しても構わない。
また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。
10 ゲームシステム、12 ゲーム装置、14 ディスプレイ、16 ステレオカメラ、18 コントローラ、20 スマートフォン、22 板状操作部材、24 発光部、26 タッチパネル、30 画像受付部、32 距離分布データ生成部、34 操作信号受付部、36 処理実行部、40 仮想空間画像、42 コード画像、44 撮像画像、46 爆弾画像、48 ボタン画像、50 プレイ画像、52 UFO画像、54 照準画像、56 縮小反転画像、58 表示対象画像、60 フィールド画像、62 バー画像、64 パック画像。

Claims (4)

  1. 撮像部が撮像した操作入力装置の画像を受け付ける画像受付部と、
    前記操作入力装置に対する操作に応じた操作信号を当該操作入力装置から受け付ける操作信号受付部と、
    前記画像受付部が受け付ける画像内における前記操作入力装置の位置と、前記操作信号受付部が受け付ける操作信号と、に応じた処理を実行する処理実行部と、を含み、
    前記画像受付部が、予め定められた画像が表示されたタッチパネルを備えた操作入力装置の画像を受け付け、
    前記処理実行部が、前記画像受付部が受け付ける画像内における前記予め定められた画像の位置を特定し、
    前記処理実行部が、前記予め定められた画像の位置が特定された後に、前記操作入力装置のタッチパネルに操作を促す画像が表示されるよう制御し、
    前記操作信号受付部が、前記タッチパネルに表示されている前記操作を促す画像に対する操作に応じた操作信号を当該操作入力装置から受け付け、
    前記処理実行部が、特定された前記予め定められた画像の位置と、受け付けた前記操作信号と、に応じた処理を実行する、
    とを特徴とする情報処理装置。
  2. 撮像部が撮像した、予め定められた画像が表示されたタッチパネルを備えた操作入力装置の画像を受け付ける画像受付ステップと、
    前記画像受付ステップで受け付ける画像内における前記予め定められた画像の位置を特定するステップと、
    前記予め定められた画像の位置が特定された後に、前記操作入力装置のタッチパネルに操作を促す画像が表示されるよう制御するステップと、
    前記タッチパネルに表示されている前記操作を促す画像に対する操作に応じた操作信号を前記操作入力装置から受け付ける操作信号受付ステップと、
    特定された前記予め定められた画像の位置と、受け付けた前記操作信号と、に応じた処理を実行する処理実行ステップと、
    を含むことを特徴とする情報処理方法。
  3. 撮像部が撮像した操作入力装置の画像を受け付ける画像受付部、
    前記操作入力装置に対する操作に応じた操作信号を当該操作入力装置から受け付ける操作信号受付部、
    前記画像受付部が受け付ける画像内における前記操作入力装置の位置と、前記操作信号受付部が受け付ける操作信号と、に応じた処理を実行する処理実行部、としてコンピュータを機能させ、
    前記画像受付部が、予め定められた画像が表示されたタッチパネルを備えた操作入力装置の画像を受け付け、
    前記処理実行部が、前記画像受付部が受け付ける画像内における前記予め定められた画像の位置を特定し、
    前記処理実行部が、前記予め定められた画像の位置が特定された後に、前記操作入力装置のタッチパネルに操作を促す画像が表示されるよう制御し、
    前記操作信号受付部が、前記タッチパネルに表示されている前記操作を促す画像に対する操作に応じた操作信号を当該操作入力装置から受け付け、
    前記処理実行部が、特定された前記予め定められた画像の位置と、受け付けた前記操作信号と、に応じた処理を実行する、
    とを特徴とするプログラム。
  4. 撮像部が撮像した操作入力装置の画像を受け付ける画像受付部、
    前記操作入力装置に対する操作に応じた操作信号を当該操作入力装置から受け付ける操作信号受付部、
    前記画像受付部が受け付ける画像内における前記操作入力装置の位置と、前記操作信号受付部が受け付ける操作信号と、に応じた処理を実行する処理実行部、としてコンピュータを機能させ、
    前記画像受付部が、予め定められた画像が表示されたタッチパネルを備えた操作入力装置の画像を受け付け、
    前記処理実行部が、前記画像受付部が受け付ける画像内における前記予め定められた画像の位置を特定し、
    前記処理実行部が、前記予め定められた画像の位置が特定された後に、前記操作入力装置のタッチパネルに操作を促す画像が表示されるよう制御し、
    前記操作信号受付部が、前記タッチパネルに表示されている前記操作を促す画像に対する操作に応じた操作信号を当該操作入力装置から受け付け、
    前記処理実行部が、特定された前記予め定められた画像の位置と、受け付けた前記操作信号と、に応じた処理を実行する、
    とを特徴とするプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
JP2012244921A 2012-11-06 2012-11-06 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 Active JP6178066B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012244921A JP6178066B2 (ja) 2012-11-06 2012-11-06 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US14/065,495 US9802122B2 (en) 2012-11-06 2013-10-29 Information processing apparatus, information processing system, information processing method, program and information recording medium
US15/714,264 US10994200B2 (en) 2012-11-06 2017-09-25 Information processing apparatus, information processing system, information processing method, program and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244921A JP6178066B2 (ja) 2012-11-06 2012-11-06 情報処理装置、情報処理方法、プログラム及び情報記憶媒体

Publications (2)

Publication Number Publication Date
JP2014091001A JP2014091001A (ja) 2014-05-19
JP6178066B2 true JP6178066B2 (ja) 2017-08-09

Family

ID=50621909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244921A Active JP6178066B2 (ja) 2012-11-06 2012-11-06 情報処理装置、情報処理方法、プログラム及び情報記憶媒体

Country Status (2)

Country Link
US (2) US9802122B2 (ja)
JP (1) JP6178066B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9848106B2 (en) * 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9597599B2 (en) * 2012-06-19 2017-03-21 Microsoft Technology Licensing, Llc Companion gaming experience supporting near-real-time gameplay data
JP1520351S (ja) * 2014-04-14 2015-03-30
CN106155376B (zh) * 2015-03-27 2019-04-23 联想(北京)有限公司 一种信息处理方法和装置
JP6598748B2 (ja) * 2016-08-26 2019-10-30 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および情報処理方法
JP6555831B2 (ja) * 2017-12-27 2019-08-07 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および、情報処理方法
JP7273588B2 (ja) 2019-03-29 2023-05-15 株式会社バンダイナムコエンターテインメント サーバシステムおよび動画配信システム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3345600B2 (ja) * 2000-04-10 2002-11-18 コナミ株式会社 ゲームシステムおよびコンピュータ読取可能な記憶媒体
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6966837B1 (en) * 2001-05-10 2005-11-22 Best Robert M Linked portable and video game systems
JP2003325972A (ja) * 2002-05-17 2003-11-18 Nintendo Co Ltd 傾き操作に関連して音と画像を変化させるゲーム装置およびそのゲームプログラム
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8287373B2 (en) * 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
JP4179162B2 (ja) * 2003-12-26 2008-11-12 株式会社セガ 情報処理装置、ゲーム装置、画像生成方法、ゲーム画像生成方法
JP4376650B2 (ja) * 2004-02-09 2009-12-02 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4971594B2 (ja) * 2004-03-31 2012-07-11 キヤノン株式会社 プログラム及び表示制御装置
EP2194509A1 (en) * 2006-05-07 2010-06-09 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
JP5063930B2 (ja) * 2006-05-09 2012-10-31 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム制御方法
US8781151B2 (en) * 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
JP4856611B2 (ja) * 2007-10-29 2012-01-18 富士重工業株式会社 物体検出装置
JP4694581B2 (ja) * 2008-01-25 2011-06-08 富士フイルム株式会社 ファイル生成装置および方法、3次元形状再生装置および方法並びにプログラム
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP2008307409A (ja) * 2008-09-26 2008-12-25 Nintendo Co Ltd 情報処理装置および情報処理プログラム
JP5338228B2 (ja) * 2008-09-29 2013-11-13 カシオ計算機株式会社 画像生成装置、及びプログラム
CN102203695B (zh) 2008-10-27 2015-09-02 索尼电脑娱乐公司 用于传送视觉信息的控制设备
WO2010055737A1 (ja) * 2008-11-14 2010-05-20 株式会社ソニー・コンピュータエンタテインメント 操作デバイス
US8761434B2 (en) * 2008-12-17 2014-06-24 Sony Computer Entertainment Inc. Tracking system calibration by reconciling inertial data with computed acceleration of a tracked object in the three-dimensional coordinate system
US8953029B2 (en) * 2009-05-08 2015-02-10 Sony Computer Entertainment America Llc Portable device interaction via motion sensitive controller
US20100303297A1 (en) * 2009-05-30 2010-12-02 Anton Mikhailov Color calibration for object tracking
KR20110064435A (ko) * 2009-12-08 2011-06-15 엘지전자 주식회사 네트워크 tv의 초기 화면 설정 방법
CA2746481C (en) * 2010-02-03 2017-06-13 Nintendo Co., Ltd. Game system, controller device, and game process method
JP5727705B2 (ja) * 2010-02-03 2015-06-03 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム画像出力方法
US20120086630A1 (en) * 2010-10-12 2012-04-12 Sony Computer Entertainment Inc. Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
US8854298B2 (en) * 2010-10-12 2014-10-07 Sony Computer Entertainment Inc. System for enabling a handheld device to capture video of an interactive application
KR20120050118A (ko) * 2010-11-10 2012-05-18 삼성전자주식회사 모바일 프로젝터를 이용한 낚시 게임 장치 및 방법
US9332247B2 (en) * 2010-12-22 2016-05-03 Konica Minolta, Inc. Image processing device, non-transitory computer readable recording medium, and image processing method
KR101823148B1 (ko) * 2010-12-30 2018-01-30 주식회사 알티캐스트 휴대 단말기 및 이를 이용한 디스플레이 장치에서의 출력 화면 제어 방법
JP5724543B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 端末装置、オブジェクト制御方法及びプログラム
JP5959047B2 (ja) * 2012-04-04 2016-08-02 任天堂株式会社 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置

Also Published As

Publication number Publication date
US9802122B2 (en) 2017-10-31
US10994200B2 (en) 2021-05-04
US20140125634A1 (en) 2014-05-08
JP2014091001A (ja) 2014-05-19
US20180015367A1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
JP6178066B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP6184658B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5901891B2 (ja) ゲームシステム、ゲーム処理方法、ゲーム装置、およびゲームプログラム
JP5654430B2 (ja) 家庭用ゲームシステムにおいて実行中のゲーム又はアプリケーションをリアルタイムに記録又は変更するための携帯型ゲーム装置の使用
JP5945100B2 (ja) 入力処理プログラム、入力処理装置、入力処理方法および入力処理システム
US20190022528A1 (en) Game system, game device, storage medium storing game program, and game process method
JP5520656B2 (ja) プログラム及び画像生成装置
JP5928757B2 (ja) 情報処理装置
US11712625B2 (en) Game system, game system control method, computer-readable non-transitory storage medium having game program stored therein, and game apparatus
JP5756299B2 (ja) ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
US9751013B2 (en) Storage medium, information processing system, and information processing method for adjusting images based on movement information
JP6396070B2 (ja) 画像融合システム、情報処理装置、情報端末、および情報処理方法
JP2011239985A (ja) ゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法
JP5988549B2 (ja) 位置算出システム、位置算出装置、位置算出プログラム、および位置算出方法
JP6514376B1 (ja) ゲームプログラム、方法、及び情報処理装置
JP7457771B2 (ja) ゲームプログラム、ゲームシステム、ゲーム装置制御方法、およびゲーム装置
US8992317B2 (en) Game system, game device, storage medium storing a game program, and game process method
JP2010142404A (ja) ゲームプログラムおよびゲーム装置
TW201023951A (en) Game device, method for selecting object, information recording medium, and program
JP5945297B2 (ja) ゲームプログラムおよびゲーム装置
JP2023166044A (ja) ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170713

R150 Certificate of patent or registration of utility model

Ref document number: 6178066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250