JP6854133B2 - 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置 - Google Patents

情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置 Download PDF

Info

Publication number
JP6854133B2
JP6854133B2 JP2017002093A JP2017002093A JP6854133B2 JP 6854133 B2 JP6854133 B2 JP 6854133B2 JP 2017002093 A JP2017002093 A JP 2017002093A JP 2017002093 A JP2017002093 A JP 2017002093A JP 6854133 B2 JP6854133 B2 JP 6854133B2
Authority
JP
Japan
Prior art keywords
image
map
virtual camera
player
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017002093A
Other languages
English (en)
Other versions
JP2018110659A (ja
Inventor
宏詞 植田
宏詞 植田
和英 上田
和英 上田
矩弘 森田
矩弘 森田
有沙 木谷
有沙 木谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2017002093A priority Critical patent/JP6854133B2/ja
Priority to EP17204385.3A priority patent/EP3345665B1/en
Priority to US15/827,360 priority patent/US10694163B2/en
Publication of JP2018110659A publication Critical patent/JP2018110659A/ja
Priority to US15/931,158 priority patent/US11050989B2/en
Priority to JP2021041237A priority patent/JP7150921B2/ja
Application granted granted Critical
Publication of JP6854133B2 publication Critical patent/JP6854133B2/ja
Priority to US17/330,065 priority patent/US11310474B2/en
Priority to US17/654,693 priority patent/US11589025B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • A63F13/5378Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen for displaying an additional top view, e.g. radar screens or maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、操作部に対するユーザ操作に基づいて情報処理を実行し、表示部に画像を表示させる情報処理装置のコンピュータで実行される情報処理プログラムに関し、より特定的には、マップ画像を表示する情報処理プログラムに関する。
従来から、3次元仮想空間に構成されたゲーム世界全体を俯瞰視点で見たマップを表示する技術が知られている。
特開2009−056181号公報
上記の技術では、表示されるマップはその全体が画面内に収まるよう表示されるため、小さな縮尺で表示される。そのため、プレイヤにとって、マップ上の細かい部分(地形)が見えにくくいという側面があった。また、上記のマップにおいて、プレイヤの位置を示すための画像(例えばアイコン)が表示されることもあるが、この画像は、仮想空間内におけるプレイヤキャラクタの大きさよりも相対的に大きく表示されるのが一般的であり、それ故に、プレイヤキャラクタの正確な位置を認識しにくいという側面もあった。更に、3次元である仮想空間に対して、俯瞰マップが2次元のマップであるため、高さ方向に関する情報が把握しにくいという問題もあった。
それ故に、本発明の目的は、仮想空間内における情報をより正確に把握可能なマップ画面を提供することである。
上記目的を達成するために、例えば以下のような構成例が挙げられる。
構成例の一例は、操作部に対するユーザ操作に基づいて情報処理を実行し、表示部に画像を表示させる情報処理装置のコンピュータで実行される情報処理プログラムであって、コンピュータに、第1画像生成ステップと、マップオブジェクト生成ステップと、標識オブジェクト配置ステップと、第2画像生成ステップと、表示制御ステップとを実行させる。第1画像生成ステップは、所定のオブジェクトを含む第1の3次元仮想空間を第1の仮想カメラで撮像することにより第1の画像を生成する。マップオブジェクト生成ステップは、第1の3次元仮想空間を示すマップオブジェクトであって、当該第1の3次元仮想空間に対応する3次元モデルにより構成されるマップオブジェクトを生成し、第2の3次元仮想空間内に配置する。標識オブジェクト配置ステップは、第1の3次元仮想空間内における所定のオブジェクトの位置を示す標識オブジェクトをマップオブジェクト上に配置する。第2画像生成ステップは、標識オブジェクトが配置されたマップオブジェクトを含む第2の3次元仮想空間を第2の仮想カメラで撮像することにより第2の画像を生成する。表示制御ステップは、第1の画像と第2の画像を表示部に表示させる。そして、第2画像生成ステップでは、マップオブジェクト上に配置された標識オブジェクトについて、第2の仮想カメラの視点から見てマップオブジェクトによって隠される部分と隠されない部分とが異なる表示態様となるように第2の画像を生成する。
上記構成例によれば、仮想空間内のオブジェクトの位置関係等、仮想空間内の状況を把握しやすいマップ画面を提供することができる。
他の構成例として、第2の画像における標識オブジェクトの面積は、第1の3次元仮想空間を俯瞰した場合の画像において当該標識オブジェクトに対応する所定のオブジェクトが占めている面積よりも大きくてもよい。
上記構成例によれば、マップ画面においてプレイヤオブジェクトの位置を把握させやすくすることができる。
他の構成例として、操作部に対するユーザ操作に基づいて第2の仮想カメラの位置および/または撮像方向を制御する第2仮想カメラ操作ステップを更にコンピュータに実行させてもよい。また、操作部に対するユーザ操作に基づいて第1の仮想カメラの撮像方向を制御する第1仮想カメラ操作ステップを更に前記コンピュータに実行させ、操作部に対する同じユーザ操作に基づいて、第2仮想カメラ操作ステップにおける第2の仮想カメラの制御および第1仮想カメラ操作ステップにおける第1の仮想カメラの制御の双方が実行されるようにしてもよい。また、第2カメラ操作ステップにおける第2の仮想カメラの制御および第1仮想カメラ操作ステップにおける第1の仮想カメラの制御は、同時に実行されてもよい。
上記構成例によれば、マップ画面が表示されている状態でも仮想カメラの制御が可能となり、プレイヤの利便性を高めることができる。また、ゲーム画面用の仮想カメラとマップ画面用の仮想カメラの双方の制御を1つの操作で行うことができるため、プレイヤの利便性を高めることができる。
他の構成例として、操作部に対するユーザ操作に基づいて、第2の画像上における指示位置を示すカーソル画像を当該第2の画像に重畳して表示するカーソル表示ステップをコンピュータに更に実行させ、操作部に対するユーザ操作に基づいた第2の仮想カメラの制御およびカーソルの指示位置の制御は、同時に実行されるように構成されていてもよい。
上記構成例によれば、マップ画面上で所定の位置を指定することができ、この位置指定に基づいた所定の処理を更に実行することも可能となる。また、第2の仮想カメラ操作も同時に行うことができ、プレイヤの利便性を高めることもできる。
他の構成例として、情報処理装置は、当該情報処理装置自身に加えられた動きを検出するための慣性センサを操作部として更に備えていてもよく、第2カメラ操作ステップは、慣性センサからの出力に基づいて第2の仮想カメラの制御を実行するよう構成してもよい。
上記構成例によれば、直感的な操作を可能とし、操作性を高めることができる。
他の構成例として、第2画像生成ステップは、マップオブジェクトの表面部分の色相・明度・彩度のうちの少なくとも1つに関するパラメータを、当該表面部分の当該マップオブジェクトにおける高さに応じて変化させて表示するようにしてもよい。
上記構成例によれば、高さ方向の位置関係を把握しやすいマップ画像を提供することができる。
他の構成例として、表示制御ステップは、所定のユーザ操作に応じて、第1の画像と第2の画像を表示部に同時に表示させてもよい。更には、表示制御ステップは、所定のユーザ操作に応じて、第1の画像の上に第2の画像を重畳させることで当該2つの画像を同時に表示させてもよい。
上記構成例によれば、例えばマップ画面を表示し、マップ画面を見ながら、第1の3次元仮想空間内でプレイヤオブジェクトを移動させるという操作をプレイヤに提供でき、プレイヤの利便性を高めることができる。
他の構成例として、第1画像生成ステップは、第1の3次元仮想空間を透視投影で撮像した画像を第1の画像として生成し、第2画像生成ステップは、第2の3次元仮想空間を正射影で撮像した画像を第2の画像として生成してもよい。
上記構成例によれば、臨場感のあるゲーム画面を提供すると共に、仮想空間内の状況(例えばマップ画像における面積の比率等)についてより把握しやすいマップ画像を提供することができる。
他の構成例の一例は、操作部に対するユーザ操作に基づいて情報処理を実行し、表示部に画像を表示させる情報処理装置のコンピュータで実行される情報処理プログラムであって、コンピュータに、第1画像生成ステップと、マップオブジェクト生成ステップと、標識オブジェクト配置ステップと、仮想カメラ制御ステップと、第2画像生成ステップと、表示制御ステップとを実行させる。第1画像生成ステップは、所定のオブジェクトを含む第1の3次元仮想空間を第1の仮想カメラで撮像することにより第1の画像を生成する。マップオブジェクト生成ステップは、第1の3次元仮想空間を示すマップオブジェクトであって、当該第1の3次元仮想空間に対応する3次元モデルにより構成されるマップオブジェクトを生成し、第2の3次元仮想空間に配置する。標識オブジェクト配置ステップは、第1の3次元仮想空間内における所定のオブジェクトの位置を示す標識オブジェクトをマップオブジェクト上に配置する。仮想カメラ制御ステップは、操作部に対するユーザ操作に基づいて、標識オブジェクトが配置されたマップオブジェクトを含む第2の3次元仮想空間を撮像する第2の仮想カメラの位置および/または方向を制御する。第2画像生成ステップは、第2の3次元仮想空間を第2の仮想カメラで撮像することにより第2の画像を生成する。表示制御ステップは、第1の画像と第2の画像とを表示部に表示させる。
上記構成例によれば、例えばマップ画像を表示し、また、これを撮像している仮想カメラを制御できるため、仮想空間内のオブジェクトの位置関係等、仮想空間内の状況を把握しやすいマップ画像を提供することができる。
本実施形態によれば、仮想空間内の情報をより正確に把握可能なマップ画像を提供することができる。
ゲーム装置101の外観を示す模式図 ゲーム装置101の機能ブロック図 据え置き型ゲーム装置の機能ブロック図 本実施形態におけるゲーム画面の一例 本実施形態におけるマップ画像の一例 第2の仮想カメラについて説明するための図 第2の仮想カメラについて説明するための図 第2の仮想カメラについて説明するための図 第2の仮想カメラについて説明するための図 第2の仮想カメラについて説明するための図 第2の仮想カメラについて説明するための図 プレイヤアイコン252Aを拡大した図 プレイヤアイコンの大きさを説明するための図 プレイヤアイコンの大きさを説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 プレイヤアイコンの表示態様について説明するための図 マップオブジェクトの表示色について説明するための図 マップオブジェクトの表示色について説明するための図 坂道部分の表示について説明するための図 坂道部分の表示について説明するための図 坂道部分の表示について説明するための図 ゲーム装置101のメインメモリ113に格納されるプログラムおよび情報の一例 本実施形態にかかるゲーム処理の詳細を示すフローチャート マップ画面処理の詳細を示すフローチャート マップ画面処理の詳細を示すフローチャート
以下、本発明の一実施形態について説明する。
図1は、本実施形態に係る情報処理装置の一例であるゲーム装置101の外観を示す模式図である。ゲーム装置101は、タッチディスプレイ102、左アナログスティック103L、右アナログスティック103R、左側操作ボタン104L、右側操作ボタン104Rを少なくとも備えている。タッチディスプレイ102は、タッチパネルと液晶表示装置が一体化したものであり、ゲーム装置101の中央部分に配置される。左アナログスティック103Lは、ゲーム装置101の左上表面部分に配置される。右アナログスティック103Rは、右下表面部分に配置される。左側操作ボタン104Lは、デジタル式の操作ボタンであり、ゲーム装置101の左側部分であって左アナログスティック103Lの下側に十字型に4つ配置される。また、同じくデジタル操作ボタンである右側操作ボタン104Rは、ゲーム装置101の右側部分であって右アナログスティック103Rの上側に十字型に4つ配置される。なお、本ゲームでは、左側操作ボタン104Lは、いわゆる十字キーのように用いられ、右側操作ボタン104Rは、いわゆるABXYボタンとして用いられるものとする。また、図示は省略するが、ゲーム装置101は、Lボタン、Rボタン、ZLボタン、ZRボタンも備えている。Lボタンは、例えばゲーム装置101のハウジング側面の左上部分に設けられ、ZLボタンは、当該ハウジング側面から裏面にかけての左上部分に設けられる。また、Rボタンは、例えばゲーム装置101のハウジング側面の右上部分に設けられ、ZRボタンは、当該ハウジング側面から裏面にかけての左上部分に設けられる。
図2は、当該ゲーム装置101の機能ブロック図である。図2において、ゲーム装置101は、プロセッサ部111と、内部記憶装置112と、メインメモリ113と、通信部114と、操作部115と、表示部116と、慣性センサ117とを備えている。プロセッサ部111は、後述する情報処理を実行したり、ゲーム装置101の全体的な動作を制御したりするためのシステムプログラム(図示せず)を実行することで、ゲーム装置101の動作を制御する。なお、プロセッサ部111は、単一のプロセッサを搭載してもよいし、複数のプロセッサを搭載するようにしてもよい。内部記憶装置112には、プロセッサ部111によって実行される各種プログラムや当該プログラムで利用される各種データが格納されている。内部記憶装置112は、例えば、フラッシュEEPROMやハードディスク装置である。メインメモリ113は、コンピュータプログラムや情報を一時的に記憶する。通信部114は、有線、または無線通信によってネットワークと接続し、所定のサーバや他のゲーム装置との間で所定のデータを送受信可能である。操作部115は、例えば、ユーザからの操作を受け付けるための入力装置である。本実施形態では、上記のアナログスティック103Lおよび103R、左側操作ボタン104L、右側操作ボタン104R、タッチディスプレイ102のタッチパネル部分が該当する。また、上記のLボタン、Rボタン、ZLボタン、ZRボタンもこれ該当する。表示部116は、タッチディスプレイ102に該当する。慣性センサ117は、ゲーム装置101自身に加えられた動きを検出するためのセンサである。具体的には、加速度センサや角速度センサである。当該加速度センサは、3軸(xyz軸)方向に沿った直線方向の加速度(直線加速度)の大きさを検出する。また、角速度センサは、3軸(xyz軸)の角速度を検出する。また、本実施形態では、当該慣性センサ117は、上記操作部115の一部としても機能する。
本実施形態では、図1〜図2のような操作部と表示部とが一体的に構成されているゲーム装置101で後述するようなゲーム処理が実行される例を説明する。但し、情報処理装置としては、このようなゲーム装置101に限らず、情報処理装置本体と、操作部や表示部が別々になっている構成の情報処理システム等に対しても以下の実施形態にかかる処理は適用可能である。例えば、据え置き型のゲーム装置等である。図3に、このような据え置き型ゲーム装置の機能ブロック図の一例を示す。図3では、情報処理装置(ゲーム装置)本体122に、表示部116と、コントローラ123とが接続されている構成となっている。表示部116は、例えばテレビが該当する。また、コントローラ123は、例えばゲームコントローラであり、上述の操作部115に該当する。また、このコントローラは、上記の慣性センサ117を内蔵するものであってもよい。また、情報処理装置本体122と表示部116との接続は、有線であってもよいし、無線であってもよい。同様に、情報処理装置本体122とコントローラ123との接続も、有線であってもよいし、無線であってもよい。また、この構成の場合は、例えば、複数のコントローラ123が情報処理装置本体122に接続可能な構成でもよい。
次に、本実施形態にかかる情報処理システムで実行される情報処理の一例であるゲーム処理の動作概要を説明する。本実施形態にかかるゲーム処理は、チームバトル形式の陣取りゲームである。具体的には、4人のプレイヤで1チームを構成し、2チームで対戦する、いわゆるTPS型のゲーム(サードパーソン・シューティングゲーム)である。本実施形態では、8人のプレイヤがそれぞれゲーム装置101を操作し、2チームに分かれて、8台のゲーム装置101を用いた通信対戦ゲームが行われる場合を想定する。そして、第1の3次元仮想空間内(以下、仮想ゲーム空間)において、お互いの陣地を広げ、制限時間経過時において、より多くの陣地を取得していたほうが勝ちとなるゲームである。また、本ゲームにおいて、この陣地の広げ方は、仮想ゲーム空間を構成するフィールドを「インク(オブジェクト)」で塗りつぶしていくことである。各プレイヤは、各自のプレイヤオブジェクトを操作して、仮想ゲーム空間の地表や壁を自チームの色のインクで塗りつぶしていき、最終的に、より多くの面積を塗りつぶした方が勝利となる。なお、プレイ人数は一例であり、何人でプレイするゲームであってもよい。
(通常ゲーム画面について)
以下、画面例を用いて、本ゲームの概要を説明する。図4は、表示部116に表示されるゲーム画面の一例である。当該ゲーム画面として、本実施形態では、第1の仮想カメラで上記仮想ゲーム空間を透視投影で撮像したゲーム画像が表示されている。図4では、プレイヤオブジェクト201、照準202、ステータスバー203が表示されている。また、このゲーム画像は、プレイヤオブジェクト201の背後からゲーム空間を見たゲーム画像として表示されている。プレイヤは、例えば、左アナログスティック103Lを操作することで、プレイヤオブジェクト201を移動させることができる。また、プレイヤオブジェクト201は、インクを発射可能な銃を有しており、プレイヤからの射撃指示(例えばZRボタンの操作)に応じて、インクを発射することが可能である。発射されたインクは、照準202が示す仮想ゲーム空間の位置に向かって移動する。これにより、仮想ゲーム空間の地表や壁にインクを付着させて陣地を広げるとともに、敵オブジェクトにインクを当てて攻撃することができる。
ここで、本ゲームでは、複数種類の「武器」が設定されており、プレイヤオブジェクトにいずれかの武器を装備させることで、射撃操作を行った際の攻撃方法等を切換えることができる。なお、これら複数種類の武器は、射程距離や連写性能等、その性能が異なっている。
図4において、照準202は、例えば画面のほぼ中心となる位置に設定される。また、本ゲームでは、上記第1の仮想カメラの注視点とほぼ一致する位置に照準202が設定される。
また、本ゲームでは、プレイヤの操作によって第1の仮想カメラの向きを変更することもできる。具体的には、慣性センサ117からの出力に基づいて算出されたゲーム装置101の姿勢に基づいて、第1の仮想カメラの向きが制御される。換言すれば、第1の仮想カメラは、現実空間におけるゲーム装置101の姿勢の変化に連動するようにして、仮想ゲーム空間において動くことになる。例えばプレイヤが、現実空間においてゲーム装置101を重力方向軸回りに左回転させた場合、ゲーム空間内に設定された第1の仮想カメラの向きも左方向を向くように制御される。また、上記のように、照準202の位置は第1の仮想カメラの注視点とほぼ一致するため、照準202の制御もゲーム装置101の姿勢に基づいて行うこともできる。また、その他、第1の仮想カメラの向きについては、右アナログスティック103Rに対する操作に基づいて変更することも可能である。
また、図4では、画面上部にステータスバー203が表示されている。当該ステータスバー203は、その中央に対戦の残り時間を表示し、その右側に、プレイヤが属するチーム(自チーム)のプレイヤ情報を表示し、その左側に、対戦相手チームのプレイヤ情報を表示している。すなわち、各プレイヤを示す画像204A〜204Hがステータスバー203の左右に分かれて配置されている。各画像204では、各プレイヤが現在装備している武器の画像が示される。また、その表示態様を変化させることで、プレイヤが「特殊技」を使用可能な状態か否か、また、そのプレイヤが行動不能状態か否かも示される。例えば、画像204が虹色で点滅するように表示されると、そのプレイヤが、強力な攻撃が可能な「特殊技」を使用可能な状態であることを示すことになる。また、画像204がブラックアウトし、「×」マークが重畳表示されるような表示態様であれば、そのプレイヤが現在は行動不能な状態(敵に倒された等)であることを示すことになる。
ここで、本ゲームでは、自分以外のプレイヤを識別しやすいように、味方/敵オブジェクトの上部にそのプレイヤ名も表示される。そして、例えば敵に倒されて行動不能になった味方オブジェクトは、行動不能になった時点で、その味方オブジェクトの上部に表示されるプレイヤ名に対しても「×」マークが重畳表示される。また、本ゲームでは、行動不能となってから所定時間の経過後、仮想ゲーム空間内に予め設定されている「スタート地点」に戻され、行動可能な状態に戻るものとする。
(マップ画面について)
ところで、本ゲームでは、仮想ゲーム空間内には、壁やビル、木等の、プレイヤの視線を遮るような様々なオブジェクトも配置される。そのため、プレイヤは、ゲーム画像を見ただけでは、例えばこのようなオブジェクトの背後に対戦相手のプレイヤオブジェクト(敵オブジェクト)や自チームのプレイヤオブジェクト(味方オブジェクト)が存在するか否かが把握しづらい。そのため、本ゲームでは、プレイヤが所定の操作ボタン104を押下することで、仮想ゲーム空間の広範囲を示すマップ画像を表示部116表示させることができる。
図5に、当該マップ画像(が表示されている状態の画面)の一例を示す。通常のゲーム画像が表示されているときに、プレイヤがマップ表示用に割り当てられた所定の操作ボタン(以下、マップボタンと呼ぶ)を押下すると、画面の中央部に、マップ画像がゲーム画像に重畳されて表示される。また、マップ画像の後ろには、ゲーム画像をぼかした画像が表示されている(図5において、点線で示されたゲーム画像はぼかした画像であることを示している)
図5において、マップ画像には、マップオブジェクト251と、プレイヤアイコン252A〜252D、カーソル253、味方ステータス画像254A〜254C、敵ステータス画像255とが表示される。(なお、図示は省略するが、敵オブジェクトについては、色違いのプレイヤアイコンでマップ画像上に表示されるものとする。例えば味方チームを青色、敵チームを赤色のプレイヤアイコンとする等である。)
マップオブジェクト251は、上記仮想ゲーム空間に対応する3次元モデルのオブジェクトである。本ゲームでは、上記仮想ゲーム空間(第1の3次元仮想空間)とは異なる第2の3次元仮想空間(以下ではマップ空間と呼ぶこともある)にマップオブジェクト251が配置される。そして、このマップオブジェクト251を第2の仮想カメラで上方から撮像した画像が当該マップ画像として表示される。
ここで、当該マップオブジェクト251を撮像する第2の仮想カメラの向きに関して、本ゲームでは、第2の仮想カメラを真下方向に向けて撮像するのではなく、原則として、若干の角度をつけ、少し斜めから見た画像となるように撮像している(第2の仮想カメラの注視点は、マップオブジェクトの中心であるものとする)。本ゲームでは、仮想ゲーム空間(ゲームフィールド)において高低差が存在するところ、完全に俯瞰視点で撮像すると、2次元画像と似た表示となってしまい、マップ画像から高さ方向の情報が把握しにくくなるためである。つまり、本ゲームでは、できるだけ俯瞰マップに近い状態でマップオブジェクト全体を表示させることで、そのマップ構成を把握させやすくするとともに(つまり、「マップ画像」の体を保ちながら)、仮想ゲーム空間内の高低関係をプレイヤが把握できる程度に、若干斜め方向から撮像した画像をデフォルトとして表示している。例えば、図6に示すように、撮像方向が真下方向である場合を基準に、10度程度の角度だけ第2の仮想カメラを傾けた姿勢で撮像している。
また、本ゲームでは、当該マップオブジェクト251は、正射影で撮像される。これは、以下のような理由による。上記のように本ゲームは、インクで塗りつぶした面積を競うという性質のゲームである。そして、当該マップ画像により、自チームと敵チームとの勢力(それぞれのインクで塗りつぶした面積の比率等)をプレイヤに把握させやすくすることができる。ここで、仮に透視投影でマップオブジェクト251を撮像した画像をプレイヤに提示したとすると、上記のように、少しだけ斜め方向から撮像する関係上、仮想カメラの手前側と奧側とで、例え同じ面積で塗られていても、見た目上、面積が異なって見えてしまう可能性がある。そのため、正射影による撮像画像をプレイヤに提示することで、より正確な勢力状況(インクの塗られている面積)を把握させようとするものである。
また、本ゲームでは、上記第2の仮想カメラの位置や向きについて、ある程度プレイヤが制御することもできる。具体的には、上述したような慣性センサ117からの出力に基づいて算出されたゲーム装置101の姿勢に基づいて制御することが可能である。プレイヤは、ゲーム装置101の姿勢を変化させることで、上記第1の仮想カメラの制御と共に、第2の仮想カメラの位置や向きを制御可能である。但し、第2の仮想カメラの制御可能範囲には制限が設けられている。本ゲームでは、図7に示すように、撮像方向が真下方向である場合を基準に、プラスマイナス10°程度の角度の範囲内でのみ、第2の仮想カメラの位置と向きの制御が可能となっている。これは、(高さ以外の)全体構成が把握しやすい「マップ画像」としての機能を担保しつつ、上記のように少し斜めから撮像することによる弊害を軽減するという観点によるものである。例えば、図8に示すような、段差のある場所において、壁の一部および地表の一部分にインクが塗られたとする。この場合、マップ画像としては、例えば図9のような表示となり得る。この画像からは、段差の向こう側のすぐ下の部分の状況が把握できない。このような場合に、プレイヤがゲーム装置101の姿勢を、例えば、その上部が少し手前側に近づくように回転させる。つまり、段差の向こう側をのぞき込むような姿勢変化を行う。この操作に応じて、例えば図10に示すように、第2の仮想カメラの位置および向きが変更される。その結果、図11に示すように、段差の向こう側が見える状態となり、そこにインクが塗られていることが把握できるようなマップ画像がプレイヤに提供されることになる。
なお、第2の仮想カメラの制御可能範囲として、他の実施形態では、例えば、0°〜10°の範囲(上記図6のような範囲)としてもよい。マップ画像についてはデフォルトで斜め視点となっていることから、0°の位置を制御可能範囲の端とすることで、プレイヤがマップを俯瞰で見たいという場合の操作性を高めることができる。すなわち、制御可動範囲を−10°〜+10°とした場合、手早い操作で0°(俯瞰となる位置)ちょうどの位置に合わせるのが難しいという側面がある。そこで、0°の位置を制御可能範囲の端とすることで、第2の仮想カメラを俯瞰となる位置に手早く移動させることが可能となる。
また、本ゲームでは、マップ画像がゲーム画像に重畳表示されている間でも、プレイヤは、プレイヤオブジェクト201を移動させたり、射撃動作を行わせたりすることができる。すなわち、通常のゲーム画像が表示されているときと同様に、プレイヤはプレイヤオブジェクト201を操作することができる。換言すれば、上記第1の仮想カメラと第2の仮想カメラとは、(マップ画像表示時において)プレイヤからの仮想カメラ操作のための入力があったとき、同時に制御されることになる。そして、第1の仮想カメラと第2の仮想カメラの動きについては連動してはいるが、各仮想カメラの移動や角度の変更については、それぞれ異なる制御が行われていることになる。なお、本実施形態では、上記のように第2の仮想カメラの制御可能範囲に制限が設けられていることもあり、同じ操作内容でも、第1の仮想カメラの可動範囲のほうが第2の仮想カメラの可動範囲よりも大きくなる。
続いて、マップ画像に表示されている他の要素に関して説明する。プレイヤアイコン252A〜252Dは、プレイヤオブジェクト201および味方オブジェクトの位置を示すための標識となる画像である。上記図5では、プレイヤアイコン252Dがプレイヤオブジェクト201を示し、プレイヤアイコン252A〜252Cは、それぞれ味方オブジェクトを示すものとする。また、マップ画像には、味方ステータス画像254A〜254Cも表示されている。当該味方ステータス画像254については後述するが、プレイヤアイコン252A〜252Cのそれぞれが、味方ステータス画像254A〜254Cのいずれかと対応づけられていることがプレイヤに認識できるようにして表示されている。図5の例では、プレイヤアイコン252A〜252Cと味方ステータス画像254A〜254Cとは、それぞれ点線で結ばれているようにして表示されている。なお、本実施形態では、プレイヤアイコン252の表示態様に関しても特徴を有するが、これに関しては後述する。
次に、マップ画像に表示されているカーソル253に関して説明する。カーソル253は、マップ画像上の所定の位置を指示するために用いられる。当該カーソル253の指示位置(表示位置)は、ゲーム装置101の姿勢に基づいて制御することが可能である。つまり、プレイヤは、マップ画像が表示されている状態において、ゲーム装置101の姿勢を変化させることで、上記第1、第2の仮想カメラの制御に加えて、カーソル253の指示位置を変更することも可能である。例えば、カーソル253を上方に移動させたい場合は、プレイヤは、ゲーム装置101の姿勢を、例えば、その上部が少し手前側に近づくように回転させることで、カーソル253を上に少し移動させることができる。このような操作を行うことで、プレイヤは、例えば、プレイヤアイコン252のいずれかにカーソル253を合わせる(指示する)ことも可能となっている。
ところで、本実施形態では、プレイヤオブジェクト201に「スーパージャンプ」と呼ばれるアクションを行わせることができる。このアクションは、マップ画像上でいずれかのプレイヤアイコン252の位置をカーソル253で指示しているときに、スーパージャンプ用に割り当てられた所定の操作ボタン(以下、SJボタン)をプレイヤが押下することで、実行させることが可能である。換言すれば、いずれかの味方オブジェクトを指定している状態でSJボタンを押下すると、プレイヤオブジェクト201にスーパージャンプを実行させることができる。そして、このアクション(操作)を行うことで、プレイヤオブジェクト201を、カーソル253が示すマップオブジェクト上の位置(いずれかのプレイヤアイコン252の位置)に対応する仮想ゲーム空間内の位置に着地するようにジャンプさせることができる。このジャンプ移動にかかる軌道については、仮想ゲーム空間の各種障害物と飛び越えるような非常に高いジャンプの軌道となる。これにより、プレイヤオブジェクト201をいずれかの味方オブジェクトが存在する位置に、高速に(あるいは、ほぼ瞬間的に)移動させることが可能となっている。
なお、味方オブジェクトの指定に関して、本ゲームでは、上記のゲーム装置101の姿勢の変化に基づいたカーソル253の指示位置変更によるものの他、左側操作ボタン104Lを利用した味方オブジェクトの指定も可能となっている。例えば、本ゲームでは、左側操作ボタン104Lのうち上側に配置されているボタン(以下、上ボタン)を第1の味方オブジェクト(図5ではPlayer 2)、左側に配置されているボタン(以下、左ボタン)を第2の味方オブジェクト(図5ではPlayer 3)、右側に配置されているボタン(以下、右ボタン)を第3の味方オブジェクト(図5ではPlayer 4)に対応づけている。なお、下側のボタン(以下、下ボタン)については、ゲームのスタート地点に対応づけているものとする。そして、プレイヤが、例えば上ボタンを押下すると、第1の味方オブジェクトに対応するプレイヤアイコン252Aに、カーソル253が即時に移動する。また、そのまま上ボタンを押下し続けていれば、ゲーム装置101の姿勢に関わらず、カーソル253はプレイヤアイコン252Aの位置に表示され続ける。そのため、例えば、プレイヤアイコン252Aに対応する味方オブジェクトの位置までスーパージャンプで移動したい場合は、プレイヤは、上ボタンを押したまま、SJボタンを押下する、という操作を行えばよい。このように、(十字キー代わりとしての)左側操作ボタン104Lを利用したプレイヤアイコンの指定操作も可能とすることで、プレイヤの操作の利便性を向上させている。
ここで、各プレイヤアイコン252に左側操作ボタン104Lのどの方向のボタンが割り当てられているかをよりわかりやすくプレイヤに提示すべく、本ゲームでは、プレイヤアイコン252の周辺部に、左側操作ボタン104Lにおける方向を示すマークも表示されている。図12に、上記図5におけるプレイヤアイコン252Aを拡大した図を示す。プレイヤアイコン252Aには、上記の上ボタンが割り当てられている。そのため、プレイヤアイコン252Aの上側に、上向きの三角マークが表示されている。図示は省略するが、プレイヤアイコン252Bの場合は、左ボタンが割り当てられていることを示すため、その左側に左向きの三角マークが表示される。プレイヤアイコン252Cの場合は、右ボタンが割り当てられていることを示すため、その右側に右向きの三角マークが表示される。
なお、本ゲームでは、スーパージャンプの着地先として、上記の味方オブジェクト(およびスタート地点)以外の指定も可能である。具体的には、仮想ゲーム空間内の任意の位置に「着地点」として指定可能な着地点オブジェクトをプレイヤオブジェクト201に設置させることも可能となっている。これら着地点オブジェクトには、左側操作ボタン104Lの割り当ては行われないが、カーソル253による指定によって、スーパージャンプによる移動を行うことができる。
次に、味方ステータス画像254に関して説明する。上記のように、マップ画像では、各プレイヤアイコン252と対応づけられていることが分かるような態様でステータス画像254A〜254Cが表示されている。ここで、その表示位置としては、味方ステータス画像254Aは画面の上部に、味方ステータス画像254Bは画面の左部に、味方ステータス画像254Cは画面の右部に、それぞれ表示されている。そして、本ゲームでは、これら味方ステータス画像254の表示位置は固定的な位置となっている。上記のように、味方オブジェクトのプレイヤアイコン252は左側操作ボタン104Lにおけるいずれかの方向のボタンと割り当てられているところ、プレイヤがより直感的にこの割り当て方向を把握できるように、割り当て方向に対応した位置にそれぞれ味方ステータス画像254を配置している。これにより、上記のスーパージャンプの着地先をプレイヤが決定する際に、「味方オブジェクト」を基準にしたスーパージャンプ先の選択と、「着地位置」を基準にしたスーパージャンプ先の選択というような、2種類の選択基準をプレイヤに提供することもできる。例えば、プレイヤが「Player 2のところに移動したい」という場合と、「マップ上のこの位置に移動したい」という場合である。前者は、着地位置がどこであるかということより、誰のところに移動するか、を重視した選択基準である。後者は、プレイヤが誰であるかは関係なく、マップ上のどこに移動するか、を重視した選択基準である。このように選択基準を複数提供することで、ゲームの戦略性をより高めることもできる。
次に、各味方ステータス画像254で表示されている要素について説明する。上記図5で示される各味方ステータス画像254には、左から、十字画像と、顔画像、プレイヤ名、アイコン群が含まれている。十字画像は、上記のような各プレイヤアイコンに割り当てられている左側操作ボタン104Lにおけるボタンを示すものである。顔画像は、各味方オブジェクトの顔を示す画像である。アイコン群には、例えば、その味方オブジェクトが現在装備している武器を示す画像や、使用可能なスキルや、その味方オブジェクトの状態(例えば攻撃力アップ中である等)を示すための画像が表示される。この味方ステータス画像254を参照することで、プレイヤは、味方オブジェクトの状態を、ある程度詳細に把握することも可能である。
次に、マップ画像右上部分に表示されている敵ステータス画像255について説明する。敵ステータス画像255は、対戦相手チームにかかる敵オブジェクトのステータスを一覧表示したものである。
ここで、本ゲームでは、プレイヤオブジェクト、味方/敵オブジェクトは、所定の条件を満たすことで、通常の攻撃よりも強力な「特殊攻撃」を行うこともできる。この特殊攻撃は、所定の条件を満たすことで「発動可能」な状態となる。その後、各プレイヤが所定の操作を行うことで、「特殊攻撃」を発動することができる。そして、本ゲームでは、この「発動可能」な状態となったプレイヤオブジェクト、味方/敵オブジェクトについて、味方ステータス画像254や敵ステータス画像255における表示態様を変更する。これにより、「特殊攻撃」が発動可能であることを直感的にプレイヤに把握させることもできる。この表示態様としては、例えば、背景部分を虹色にして点滅させる等である。図5の例では、敵ステータス画像255の一番下の背景画像の表示態様が変更され、この敵オブジェクトは「特殊攻撃」が発動可能であることが示されている。
次に、プレイヤアイコン252の表示態様等に関して更に説明する。まず、前提として、プレイヤアイコン252の大きさに関して説明する。本ゲームでは、マップ画面において表示されるプレイヤアイコン252の大きさは、上記仮想ゲーム空間内におけるプレイヤオブジェクト201の大きさとは一致せず、プレイヤアイコン252のほうが相対的に大きなものとなっている。つまり、プレイヤアイコン252のマップ画面上における占有面積は、仮想ゲーム空間内においてプレイヤオブジェクト201(および味方オブジェクト。以下、プレイヤオブジェクト201との表記には、味方オブジェクトも含まれるものとする)が実際に占有している面積よりも大きくなっている。マップ画像は、上記のように広範囲(例えば、全体像)が示されるように表示されているところ(換言すれば、縮尺が小さくされている)、プレイヤの視認性を高めるという観点から、プレイヤアイコンを実際のプレイヤオブジェクトの大きさよりも大きくしてプレイヤに提示するためである。例えば、仮想ゲーム空間内を俯瞰した場合に、図13に示すような大きさでプレイヤオブジェクト201が所定の位置に存在しているとする。そして、マップ画面に表示されるプレイヤアイコン252を、仮に当該仮想ゲーム空間に配置したとすると、図14に示すように、実際のプレイヤオブジェクト201よりも大きな面積を占有するような大きさとなっている。
なお、本ゲームでは、プレイヤアイコン252をマップオブジェクトに配置する場合、その中心点を、対応するプレイヤオブジェクトの存在位置に合わせて配置するものとする。
また、本ゲームでは、プレイヤアイコン252は、厚さの無い平面オブジェクト(板状のポリゴン)であるものとする。このように厚さのない平面オブジェクトとすることで、オブジェクトの裏側の隠面処理が不要となり、処理負荷を軽減することができる。なお、他の実施形態では、プレイヤアイコンは3次元オブジェクトであってもよい。
ところで、本ゲームでは、マップオブジェクト251は3Dモデルとして表示されている。すなわち、2Dマップ(俯瞰マップ)とは異なり、高さの情報も有している。その一方で、上記のようにプレイヤアイコン252は実際のプレイヤオブジェクトよりも大きなものとなっている。そのため、次のような状況において、プレイヤにとって、プレイヤオブジェクト201の高さ方向の位置についてマップ画像からは把握しにくいという可能性があった。
まず、段差の境目付近にプレイヤオブジェクト201が位置しているという状況を想定する、図15および図16に、このような状況の一例を示す。図15では段差の境目となるような位置で、段差の上(位置A)にプレイヤオブジェクト201がいる場合を示し、図16では、段差の下(位置B)にプレイヤオブジェクト201がいる場合を示している(ここでは、x軸上のプレイヤオブジェクト201の位置は同じであるとする)。このような場合、マップ画像においては(縮尺が小さいため)、いずれの場合も、ほぼ同じ位置にプレイヤアイコン252が表示されることになる。また、その占有する表示領域としても、このような段差の境目を跨ぐような表示領域を占有することになる。そのため、プレイヤにとっては、段差付近にプレイヤオブジェクト201が存在することは把握できるものの、段差の上にいるのか、下にいるのかが把握しにくい可能性があった。
また、別の状況の例として、「橋」の上あるいは下にプレイヤオブジェクト201が位置している状況を想定する。図17および図18に、このような状況の一例を示す。図17では、橋の上にプレイヤオブジェクト201が位置しており、図18では、橋の下にプレイヤオブジェクト201が位置している状態を示す(ここでは、x軸、z軸上のプレイヤオブジェクト201の位置は同じであるとする)。このような場合、仮想カメラの角度次第では、マップ画像上においてプレイヤアイコン252が同じ位置にいるように見え得ることがある。そのため、プレイヤにとって、プレイヤオブジェクト201が橋の上に載っているのか橋の下にいるのか把握しにくい可能性があった。
また、更に別の状況の例として、図19に示すように、高さを有する建物オブジェクト等の上にプレイヤオブジェクト201がいる場合と、図20に示すように、地表にプレイヤオブジェクト201がいる場合を想定する(x軸上のプレイヤオブジェクト201の位置は同じであるとする)。この場合も、仮想カメラの角度次第では、マップ画像上において、プレイヤアイコン252が同じ位置にいるように見え得ることがある。そのため、プレイヤにとって、プレイヤオブジェクト201がこのような建物オブジェクトの屋上部分にいるのか地表側にいるのかが把握しにくいものとなっていた。
ここで、上記のように、本ゲームでは「スーパージャンプ」を用いて、味方オブジェクトの位置にプレイヤオブジェクト201をダイレクトに移動させることが可能となっている。そして、対戦ゲームという性質上、この「スーパージャンプ」でどこに着地するかという点については、ゲームの戦略や、ゲームの勝敗を決するうえで重要な要素となっている。例えば、上記図15や図16のような段差の場合を想定すると、スーパージャンプを行おうとした際に、段差の上に味方オブジェクトがいるのか、段差の下に味方オブジェクトがいるのかによって、その着地点も変わってくる。例えば、上記の段差の下側に敵オブジェクトが存在している場合、段差の上に着地できれば安全であるが、段差の下に着地してしまうと危険である、という状況も考えられる。そのため、マップ画像においても、味方オブジェクト(やプレイヤオブジェクト201)の高さ方向における位置の把握の必要性は高いものといえる。しかし、上記のように、単に上記のようなプレイヤアイコン252をマップオブジェクト上に配置して、これを第2のカメラで撮像したマップ画像を提示しただけでは、高さ方向についての情報が把握しにくいものとなる。
そこで、本ゲームでは、プレイヤアイコン252の表示態様について以下のような処理を行うことで、マップ画像において、より正確な情報(高さ方向の位置関係)をプレイヤが把握しやすいようにする。具体的には、本ゲームでは、マップオブジェクトに配置されたプレイヤアイコン252を第2の仮想カメラから見た場合に、壁等の障害物で隠されている部分について、その表示態様を変化させる処理を行うことで、プレイヤアイコン252に対応するプレイヤオブジェクトの高さ方向の位置関係を把握しやすくしている。以下、図を用いて例示する。
図21および図22は、上記図15および図16の状況に対応する、本ゲームにおけるマップ画像の一例である。なお、これらの図では、わかりやすくするためにプレイヤアイコン252の部分のみを拡大して示している。まず、図21は、上記の段差の上にプレイヤオブジェクト201が位置している場合(図15の場合)のプレイヤアイコン252の表示態様を示す。一方、図22は、上記の段差の下にプレイヤオブジェクト201が位置している場合(図16の場合)のプレイヤアイコン252の表示態様を示す。図21では、段差の上にプレイヤアイコン252が配置されており、第2の仮想カメラからプレイヤオブジェクト201を見た場合、その全体が見えていることになる、そのため、プレイヤアイコン252の全体を通常の表示態様で表示している。一方、図22では、プレイヤアイコン252は段差の下(地表部分)に配置されており、プレイヤアイコン252のうち、略下半分については、段差の陰となってしまい(下半分の部分が段差の中にめり込むような状態の配置となる)、第2の仮想カメラからは見えない位置にもなっている。そして、本ゲームでは、このような場合に、第2の仮想カメラから見えないプレイヤアイコン252の部分について、例えば、その部分だけシルエット表示となるように表示態様を変更して表示するものである。具体的には、本ゲームでは、プレイヤアイコン252の隠面判定(そのアルゴリズムはどのようなものでもよいが、例えばZバッファ法等を利用すれば良い)を行うことで、第2の仮想カメラ(視点)からは陰になって見えない部分を判別する。そして、第2の仮想カメラからは見えない部分については、その表示態様を変更したプレイヤアイコン252の画像を生成するようにしている(その結果、第2の仮想カメラからは見えない部分については、障害物が透けて見えるような見た目となる)。換言すれば、いわゆる隠面消去処理で消去されるような部分について、消去するのではなく表示態様を変化させたうえで描画する、という処理を行うものである。
他の例として、図23および図24に、上記図17および図18の状況に対応するマップ画像(プレイヤアイコン252)の一例を示す。図23は、橋の上にプレイヤオブジェクト201が位置している場合(図17の場合)のプレイヤアイコン252の表示態様を示す。図24は、橋の下にプレイヤオブジェクト201が位置している場合(図18の場合)のプレイヤアイコン252の表示態様を示す。図24では、第2の仮想カメラから見た場合、プレイヤアイコン252の全体が橋の下に隠れて見えない状況が示されている。そのため、図23の場合と比べると、プレイヤアイコン252全体の表示態様が変更された例となっている。
また、更に他の例として、図25および図26に、上記図19および図20の状況に対応するマップ画像(プレイヤアイコン252)の一例を示す。図25は、建物オブジェクトの屋上にプレイヤオブジェクト201が位置している場合(図19の場合)のプレイヤアイコン252の表示態様を示す。図26は、地表にプレイヤオブジェクト201が位置している場合(図20の場合)のプレイヤアイコン252の表示態様を示す。図25では、屋上にプレイヤアイコン252が配置されるため、第2の仮想カメラからはプレイヤアイコン252の全体が見える状態である。図26では、地表にプレイヤアイコン252が配置されており、第2の仮想カメラから見た場合、その一部が建物オブジェクトに隠されて見えない状態である。そのため、プレイヤアイコン252の画像も、建物オブジェクトに隠されて見えない部分についての表示態様が変更された画像となっている。このような高さを有するオブジェクトの場合は、第2の仮想カメラから見たときに、その陰となって見えなくなる地表のエリアもより多くなることが考えられる。この点、本ゲームのような処理を行えば、このようなオブジェクトとプレイヤアイコン252(プレイヤオブジェクト)との高さ方向における位置関係をより把握しやすくすることができる。
このように、本ゲームでは、マップオブジェクト上にプレイヤアイコンを配置し、第2の仮想カメラから見て、マップオブジェクトの構成物等の陰となって見えない部分についてはその表示態様を変更したプレイヤアイコン画像を提供している。これにより、プレイヤオブジェクトの位置関係や仮想ゲーム空間における状況をより正確にプレイヤが把握可能なマップ画像を提供することができる。
次に、プレイヤアイコン以外に関する、マップ画像における表示について説明する。上記のように、マップオブジェクトが3Dモデルであり、高さ(高低差)を有するものとなっている。そして、本ゲームでは、マップオブジェクトの表面部分の色を、当該マップオブジェクトにおける高さに応じて変化させて表示する。具体的には、その色の色相、明度、彩度の少なくとも一つに対応するパラメータを、高さに応じて変化させる。例えば、同じ色であっても、低いよりも高いところのほうが明るい色合いとなるような表示(明度の調整)を行う。
本ゲームは、上記のように、仮想ゲーム空間をインクで塗った面積を競うゲームであるが、例えば、自チームのインクの色は青色、敵チームのインクの色は赤色であるとする。そして、図27に示すような、仮想ゲーム空間内の所定の地点Aと、当該地点Aよりも高い位置にある地点Bとのそれぞれについて、その地表部分にプレイヤオブジェクト201が青色のインクを塗ったとする。この場合、マップ画像においては、図28のような表示が行われる。すなわち、同じ青色のインクではあるものの、地点Bにおける青色は、地点Aの青色よりも明るい青色として表示される(なお、これはマップ画像における表示であって、通常のゲーム画像では、高さに応じた色の変化の処理は行われない)。また、インクの色に限らず、マップオブジェクトにおけるインクが塗られていない状態の地表部分の色についても同様に、その高さに応じて上記のパラメータを異ならせて表示している。このような処理も行うことで、高さに関する情報をプレイヤが把握しやすいマップ画像を提供することができる。
また、その他、本ゲームのマップ画像では、「坂道」の部分について、次のような表示を行うようにしている。マップオブジェクトの坂道部分について、単純にマップ画像として表示すると、図29のような表示となり得る。この図では、坂の方向が把握しにくい側面がある。そのため、本ゲームでは、図30および図31に示すように、マップオブジェクトの坂道部分について、その坂の方向に応じた線、より具体的には、坂の方向に直交する直線を付加して表示するようにしている。図30の例では、横方向の直線が複数表示されている。この場合は、図30の縦方向に沿った傾斜がある坂道であることを示す。また、図31では、縦方向の直線が複数表示されている。この場合は、図31の横方向に沿った傾斜がある坂道であることを示す。これにより、マップオブジェクトにおける坂道の状況をプレイヤにより把握させやすくすることができる。
このように、本ゲームでは、仮想ゲーム空間内の状況をプレイヤがより正確に把握しやすくなるようなマップ画像を提供し、プレイヤの利便性やゲームの興趣性を高めている。
次に、図32〜図35を参照して、本実施形態におけるゲーム装置101の動作をより詳細に説明する。
(ゲーム装置に記憶されるデータ)
図32は、ゲーム装置101のメインメモリ113に格納されるプログラムおよび情報の一例を示している。メインメモリ113には、ゲーム処理プログラム301、操作データ302、ゲームフィールドデータ306、オブジェクトデータ307、プレイヤアイコンデータ308、仮想カメラデータ309、マップフラグ310、マップモデルデータ311等が格納される。
ゲーム処理プログラム301は、本実施形態にかかるゲーム処理を実行するためのプログラムである。具体的には、後述する図33のフローチャート処理を実行するためのプログラムである。
操作データ302は、ゲーム装置101に対して行われた各種操作を示すデータである。操作データ302には、操作ボタンデータ303、アナログスティックデータ304、慣性センサデータ305が含まれる。操作ボタンデータ303は、左側操作ボタン104L、右側操作ボタン104R、上記LボタンやRボタン、ZLボタンやZRボタンに対して行われた操作内容を示すデータであり、各ボタンの押下状態等を示すデータである。アナログスティックデータ304は、上記左アナログスティック103L、右アナログスティック103Rのそれぞれに対して行われた操作内容を示すデータ出ある。慣性センサデータ305は、上記慣性センサ117から出力される加速度データや角速度データである。
ゲームフィールドデータ306は、本実施形態の対戦ゲームにかかるゲームフィールド(マップ)の構成を定義したデータである。当該データに基づいて各種地形オブジェクトが仮想ゲーム空間内に配置されることで、ゲームフィールドが生成される。
オブジェクトデータ307は、上記プレイヤオブジェクト201や各味方オブジェクト等の各オブジェクトの位置や姿勢、そのときの状態(例えばスーパージャンプ中であるか否か等)やステータス(例えば体力や装備中の武器)等を示すデータである。
プレイヤアイコンデータ308は、上記プレイヤアイコン252の(マップ空間内での)位置や、その画像内容等を示すデータである。
仮想カメラデータ309は、上記第1の仮想カメラおよび第2の仮想カメラの位置や向き(姿勢)、注視点を示すデータである。
マップフラグ310は、マップ画像を表示中であるか否かを示すためのフラグデータである。
マップモデルデータ311は、上述したマップオブジェクト251の3Dモデルデータである。すなわち、上記マップオブジェクト251の3Dモデルは、当該マップモデルデータ311に基づいて生成される。なお、他の実施形態では、マップモデルデータ311を有さずに、上述のゲームフィールドデータ306に基づいてマップオブジェクト251の3Dモデルを生成するようにしてもよい。
(ゲーム処理の詳細)
次に、図33のフローチャートを参照して、ゲーム装置101のプロセッサ部111によって実行される処理の一例について説明する。図33で示される処理は、ゲーム装置101のプロセッサ部111が所定の情報処理プログラム(本例ではゲームプログラム)を実行することで行われる。なお、プロセッサ部111は、図33に示すステップS2〜S14の処理を、所定の時間間隔(例えば1/60秒間隔)で繰り返し実行する。
まず、ステップS1において、プロセッサ部111は、初期処理を実行する。具体的には、次のような処理が実行される。まず、プロセッサ部111は、ゲームフィールドデータ306に基づいて、仮想ゲーム空間内にゲームフィールドとなる各種地形オブジェクト等を配置する。更に、プレイヤオブジェクト201や味方オブジェクト、敵オブジェクト等の各種オブジェクトも適宜配置する。また、プロセッサ部111は、プレイヤオブジェクト201の背後となる位置に第1の仮想カメラを配置する。更に、プロセッサ部111は、当該ゲームフィールドに対応するマップオブジェクト(地形オブジェクト)を上記マップモデルデータ311に基づいて生成し、上記マップ空間内に配置する。また、第2の仮想カメラを、図6を用いて上述したような位置、向きとなるよう、マップオブジェクトの上方に配置する。そして、プロセッサ部111は、第1の仮想カメラで仮想ゲーム空間を撮像し、その画像を表示部116に出力する。
次に、ステップS2において、プロセッサ部111は、操作データ302を取得する。続くステップS3において、プロセッサ部111は、操作データ302に基づいてプレイヤオブジェクト201を仮想ゲーム空間内で移動させる。例えば、操作データ302で示される左アナログスティック103Lの操作内容に応じて、プレイヤオブジェクト201を移動させる。また、この移動に伴い、第1の仮想カメラをプレイヤオブジェクト201に追従させるようにして移動させる。なお、プレイヤオブジェクト201が上述した「スーパージャンプ」中の状態であれば、着地するまで(スーパージャンプが完了するまで)当該スーパージャンプによる移動を継続する処理が実行される。
次に、ステップS4で、プロセッサ部111は、慣性センサデータ305に基づいて、第1の仮想カメラの向きを制御する。具体的には、プロセッサ部111は、慣性センサデータ305に基づいてゲーム装置101の姿勢を算出する。更に、例えば前回算出したときの姿勢からどの程度変化したかを算出し、その姿勢の変化に応じて第1の仮想カメラの向きを変更する。
次に、ステップS5で、プロセッサ部111は、操作データ302に含まれる操作ボタンデータ303に基づき、プレイヤオブジェクト201の攻撃動作にかかる制御を実行する。例えば、攻撃用の操作ボタンが押下されたか否かを判定し、押下されていれば、そのときに装備している武器に応じた攻撃動作をプレイヤオブジェクト201に行わせる。例えば、装備中の武器が、インクを発射する銃であれば、第1の仮想カメラの注視点へ向けてインクオブジェクトを発射する処理が実行される。また、その他、インクオブジェクトを地表や壁に付着させる処理等も適宜実行される。
次に、ステップS6で、プロセッサ部111は、上記操作データ302に基づいて、マップボタンが操作されたか否かを判定する。その結果、操作されていない場合は(ステップS6でNO)、次に、ステップS7で、プロセッサ部111は、マップフラグ310がオンであるか否かを判定する。すなわち、現在マップ画像を表示中の状態であるか否かを判定する。当該判定の結果、マップフラグ310がオンのときは(ステップS7でYES)、後述するステップS14の処理へ進む。一方、マップフラグ310がオンではない場合は(ステップS7でNO)、ステップS8で、プロセッサ部111は、ゲーム画像を生成する。具体的には、プロセッサ部111は、第1の仮想カメラを用いて仮想ゲーム空間を撮像することで、ゲーム画像を生成する。
次に、ステップS9で、プロセッサ部111は、上記ステップS8で生成したゲーム画像を表示部116に出力する。その後、後述するステップS10の処理へと進む。
次に、上記ステップS6の判定の結果、マップボタンが操作されていた場合の処理(ステップS6でYES)について説明する。この場合は、ステップS11で、プロセッサ部111は、マップフラグ310がオンであるか否かを判定する。その結果、オンの場合は(ステップS11でYES)、既にマップ画像が表示されている状態でマップボタンが操作された場合に該当する。この場合は、ステップS13で、プロセッサ部111は、マップフラグ310をオフに設定する。そして、上記ステップS8に処理が進められる。
一方、マップフラグ310がオンではない場合は(ステップS11でNO)、ステップS12で、プロセッサ部111は、マップフラグ310にオンを設定する。続いて、ステップS14で、プロセッサ部111は、マップ画面処理を実行する。
図34および図35は、上記ステップS14のマップ画面処理の詳細を示すフローチャートである。図34において、まず、ステップS31で、プロセッサ部111は、仮想ゲーム空間におけるプレイヤオブジェクト201と味方オブジェクトの位置を判定する。
次に、ステップS32で、プロセッサ部111は、上記判定した位置に対応するマップオブジェクト内の位置に、プレイヤアイコン252を配置する。すなわち、仮想ゲーム空間におけるプレイヤオブジェクト201および味方オブジェクトの位置に、それぞれのオブジェクトに対応するプレイヤアイコン252を配置する。上記のように、プレイヤアイコン252の中心点がプレイヤオブジェクト201あるいは味方オブジェクトの位置座標に来るようにして、各プレイヤアイコンが配置される。
次に、ステップS33で、プロセッサ部111は、操作データ302を参照して、SJボタンが操作されているか否かを判定する。その結果、SJボタンが操作されている場合は(ステップS33でYES)、図35のステップS43で、プロセッサ部111は、カーソル253がいずれかの味方オブジェクトにかかるプレイヤアイコン252(またはスタート地点を示すアイコン)を指示しているか否かを判定する。その結果、いずれの味方オブジェクトも指示していない場合は(ステップS43でNO)、後述のステップS34に処理が進められる。一方、カーソル253がいずれかの味方オブジェクトに対応するプレイヤアイコン252を指示していた場合は(ステップS43でYES)、ステップS44で、プロセッサ部111は、指示されている味方オブジェクトの位置を着地点として設定して、上述したようなスーパージャンプを開始する。なお、既にスーパージャンプ中の状態の場合は、そのままスーパージャンプによるプレイヤオブジェクトの移動が継続される。その後、後述するステップS37に処理が進められる。
図34に戻り、ステップS33の判定の結果、SJボタンが操作されていない場合は(ステップS33でNO)、次に、ステップS34で、プロセッサ部111は、が操作されているか否かを判定する。その結果、操作されていないときは(ステップS34でNO)、ステップS35で、プロセッサ部111は、慣性センサデータ305に基づいてカーソル253の表示位置を制御する。更に、慣性センサデータ305に基づいて、第2の仮想カメラの位置および向きも制御する。その後、ステップS37の処理に進む。一方、左側操作ボタン104Lが操作されている場合は(ステップS34でYES)、ステップS36で、プロセッサ部111は、操作されている方向を判定し、その方向に対応したプレイヤアイコンの位置にカーソル253を表示する制御を行う。例えば、左側操作ボタン104Lにおける上ボタンが押下されている場合は、第1の味方オブジェクト(Player 2)に対応するプレイヤアイコン252の位置にカーソル253を移動して表示する。
次に、ステップS37で、プロセッサ部111は、各プレイヤアイコン252に対して隠面判定を行う。すなわち、第2の仮想カメラからプレイヤアイコン252を見た場合に、障害物等に隠れて見えない部分を判定する。例えば、Zバッファを用いて、プレイヤアイコン252の各画素についての奥行き関係を判定することで、第2の仮想カメラから見えない部分を判定する。
次に、ステップS38で、プロセッサ部111は、上記隠面判定の結果に基づいて、プレイヤアイコン252の表示態様を調整する処理を実行する。すなわち、各プレイヤアイコン252において、第2の仮想カメラから見える部分と見えない部分とでその表示態様を異ならせる処理を実行する(上記図21〜図26参照)。本ゲームでは、第2の仮想カメラから見えない部分については、シルエット画像として表示されるように調整する。表示態様の他の変更例としては、例えば、第2の仮想カメラから見えない部分の色を変えて表示したり、プレイヤアイコンの外枠を点線で表示したりすることが挙げられる。また、例えば、第2の仮想カメラから見える部分と見えない部分とで、透過度を変えて表示するようにしてもよい。
次に、ステップS39で、プロセッサ部111は、上記図27〜図28を用いて説明したような、マップオブジェクトの表面色を、その高さに応じて調整する処理を実行する。例えば、マップオブジェクトの表面部分の各画素の色に関するパラメータを、その部分の高さに応じて適宜調整する処理が行われる。例えば、より高い位置であるほど、明度を高めてより明るい色調とし、低い位置であるほど明度を下げてより暗い色調とする、等の処理が実行される。なお、調整する色のパラメータについては、明度に関するパラメータに限らず、色相や彩度に関するパラメータを調整するようにしてもよい。
次に、ステップS40で、プロセッサ部111は、第1の仮想カメラで仮想ゲーム空間を撮像したゲーム画像を生成する。更に、プロセッサ部111は、当該撮像したゲーム画像にほかし処理を行う。これにより、ぼかし効果が加えられたゲーム画像が生成される。
次に、ステップS41で、プロセッサ部111は、第2の仮想カメラでマップ空間(マップオブジェクト251)を撮像した画像を生成する。更に、プロセッサ部111は、この画像に、上述したステータス画像254や一覧画像255を加えることで、上記図5に示したようなマップ画像を生成する。
次に、ステップS42で、プロセッサ部111は、ステップS40で生成したゲーム画像に上記ステップS41で生成したマップ画像を重畳する。そして、当該重畳した画像を表示部116に出力する。なお、このようにゲーム画像にマップ画像を重畳表示する際にゲーム画像をぼかすのは、次のような理由による。ゲーム画像にマップ画像を重畳表示することで、プレイヤは、マップを確認しながらプレイヤキャラクタを移動させたり攻撃させたりすることができる。そのため、マップを見ながらゲーム画像もはっきりと見えるという状態では、そのプレイヤが有利になりすぎるという側面がある。そのため、本実施形態のようにゲーム画面をぼかすことで、ゲームバランスの調整を図っている。以上で、マップ画面処理は終了する。
図33に戻り、ステップS9またはステップS14の処理の次に、ステップS10で、プロセッサ部111は、他のゲーム装置101との間でゲーム状況を同期するための処理を実行する。本ゲームは、上記のように4対4のチーム戦であるため、自分のゲーム装置101で行われたゲーム処理の結果を示すデータを、対戦ゲームを行っている他のゲーム装置に適宜送信すると共に、他のゲーム装置101から同様のデータを受信する。そして、受信したデータを自機に反映させる処理を実行する。これにより、他のプレイヤにかかる味方オブジェクトや敵オブジェクトの位置や動作が反映されることになる。
ステップS10の処理の後、プロセッサ部111は、上記ステップS2に戻り、処理を繰り返す。
なお、上記の処理は一例であり、例えば上記各ステップの順番を入れ替えたり、その一部が省略されたり、他のステップが加えられたりしてもよい。
このように、本実施形態では、マップボタンが押下された場合に、ゲーム画像に重畳してマップ画像が表示される。そして、当該マップ画像において、プレイヤアイコン252について、第2の仮想カメラから見える部分と、第2の仮想カメラからは(マップオブジェクトの)陰になって見えない部分とでその表示態様を異ならせている。これにより、プレイヤオブジェクトの位置について、より正確にプレイヤに把握させることができる。また、マップオブジェクトにおける高さに応じて色の表現が調整されているため、地形の高さ方向に関する情報も把握しやすくすることができる。すなわち、仮想ゲーム空間の情報がより正確に把握可能なマップ画像をプレイヤに提供することができる。
なお、他の実施形態では、上記のような3次元モデルのマップオブジェクト251を用いる代わりに、2次元画像であるマップ画像を表示するようにしてもよい。例えば、俯瞰マップの2次元画像を用いてもよい。更に、この場合は、マップ内の高さに関して定義したデータを別途容易しておき、これを用いて高さ方向の位置関係を判定する処理を行ってもよい。
また、上記実施形態では、マップボタンを押す度に、マップ画像表示のオン/オフを切り替えるような制御を行っていたが、他の実施形態では、マップ画像を常に表示するような構成としてもよい。例えば、画面の右上に常時マップ画像を表示するような構成であってもよい。また、これとは逆に、ゲーム画像とマップ画像とのいずれかを選択的に表示させる構成としてもよい。
また、他の実施形態では、ゲーム画像とマップ画像とを別々の表示装置に出力するようにしてもよい。すなわち、2画面構成としてもよい。例えば、2つの画面を有する携帯型ゲーム装置において、一方の画面に上記ゲーム画像を表示し、他方の画面に上記マップ画像を表示する構成であってもよい。
また、上記実施形態では、プレイヤアイコンが地形オブジェクト(マップオブジェクト)の陰に隠れる場合に表示態様を変更する例を示したが、他の実施形態では、このような地形オブジェクト以外のオブジェクトに隠れるような場合でも表示態様を変更するようにしてもよい。すなわち、第2仮想カメラからプレイヤアイコン252へ向かう視線が地形オブジェクト以外の所定のオブジェクトで遮られるような場合も、見えない部分の表示態様を変更するようにしてもよい。例えば、マップ画像上において、高低差があるプレイヤアイコン同士が重なるような位置に表示されるような場合である。すなわち、一方のプレイヤアイコン(の一部)が他方のプレイヤアイコンの陰になるというような関係の場合も、陰になって見えない部分の表示態様を変更するようにしてもよい。
また、上記の例では、マップ画像におけるプレイヤアイコン252の表示に際して2の仮想カメラから見える部分と見えない部分とでその表示態様を異ならせていたが、この他、見えない部分(隠れている部分)については表示しないようにしてもよい(但し、この場合は全体が隠れてしまった場合にそのプレイヤアイコンの位置が把握しにくいため、基本的には、上述のように表示態様を変更しつつプレイヤアイコンの全体像は常に表示されるようにしておくことが好ましい)。
また、上記実施形態においては、プレイヤアイコンの表示態様を調整したマップ画像を表示するための一連の処理が単一の装置において実行される場合を説明したが、他の実施形態においては、上記一連の処理が複数の情報処理装置からなる情報処理システムにおいて実行されてもよい。例えば、端末側装置と、当該端末側装置とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの一部の処理がサーバ側装置によって実行されてもよい。さらには、端末側装置と、当該端末側装置とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの主要な処理がサーバ側装置によって実行され、当該端末側装置では一部の処理が実行されてもよい。また、上記情報処理システムにおいて、サーバ側のシステムは、複数の情報処理装置によって構成され、サーバ側で実行するべき処理を複数の情報処理装置が分担して実行してもよい。
また、上記実施形態にかかるゲーム処理が実現可能なゲームプログラムを格納したコンピュータ読み取り可能な記録媒体として、本実施形態にかかる処理が提供されても良い。例えばフラッシュメモリやROMやRAMのような磁気メディア、CD−ROMやDVDROM、DVD−RAM等の光媒体で提供されても良い。
101 ゲーム装置
111 プロセッサ
112 内部記憶装置
113 メインメモリ
114 通信部
115 操作部
116 表示部
117 慣性センサ

Claims (14)

  1. 操作部に対するユーザ操作に基づいて情報処理を実行し、表示部に画像を表示させる情報処理装置のコンピュータで実行される情報処理プログラムであって、前記コンピュータに、
    所定のオブジェクトを含む第1の3次元仮想空間を第1の仮想カメラで撮像することにより第1の画像を生成する第1画像生成ステップと、
    前記第1の3次元仮想空間を示すマップオブジェクトであって、当該第1の3次元仮想空間に対応する3次元モデルにより構成されるマップオブジェクトを生成し、第2の3次元仮想空間内に配置するマップオブジェクト生成ステップと、
    前記第1の3次元仮想空間内における前記所定のオブジェクトの位置を示す標識オブジェクトを前記マップオブジェクト上に配置する標識オブジェクト配置ステップと、
    前記標識オブジェクトが配置されたマップオブジェクトを含む第2の3次元仮想空間を第2の仮想カメラで撮像することにより第2の画像を生成する第2画像生成ステップと、
    前記第1の画像と前記第2の画像を前記表示部に表示させる表示制御ステップとを実行させ、
    前記第2画像生成ステップでは、前記マップオブジェクト上に配置された標識オブジェクトについて、前記第2の仮想カメラの視点から見て前記マップオブジェクトによって隠される部分と隠されない部分とが異なる表示態様となるように前記第2の画像を生成する情報処理プログラム。
  2. 前記第2の画像における前記標識オブジェクトの面積は、前記第1の3次元仮想空間を俯瞰した場合の画像において当該標識オブジェクトに対応する前記所定のオブジェクトが占めている面積よりも大きい、請求項1に記載の情報処理プログラム。
  3. 前記操作部に対するユーザ操作に基づいて前記第2の仮想カメラの位置および/または撮像方向を制御する第2仮想カメラ操作ステップを更に前記コンピュータに実行させる、請求項1に記載の情報処理プログラム。
  4. 前記操作部に対するユーザ操作に基づいて前記第1の仮想カメラの撮像方向を制御する第1仮想カメラ操作ステップを更に前記コンピュータに実行させ、
    前記操作部に対する同じユーザ操作に基づいて、前記第2仮想カメラ操作ステップにおける第2の仮想カメラの制御および前記第1仮想カメラ操作ステップにおける前記第1の仮想カメラの制御の双方が実行される、請求項3に記載の情報処理プログラム。
  5. 前記操作部に対するユーザ操作に基づいて前記第1の仮想カメラの撮像方向を制御する第1仮想カメラ操作ステップを更に前記コンピュータに実行させ、
    前記第2カメラ操作ステップにおける第2の仮想カメラの制御および前記第1仮想カメラ操作ステップにおける前記第1の仮想カメラの制御は、同時に実行される、請求項3に記載の情報処理プログラム。
  6. 前記操作部に対するユーザ操作に基づいて、前記第2の画像上における指示位置を示すカーソル画像を当該第2の画像に重畳して表示するカーソル表示ステップを更に実行させ、
    前記操作部に対するユーザ操作に基づいた前記第2の仮想カメラの制御および前記カーソルの指示位置の制御は、同時に実行される、請求項3に記載の情報処理プログラム。
  7. 前記情報処理装置は、当該情報処理装置自身に加えられた動きを検出するための慣性センサを前記操作部として更に備えており、
    前記第2カメラ操作ステップは、前記慣性センサからの出力に基づいて前記第2の仮想
    カメラの制御を実行する、請求項3に記載の情報処理プログラム。
  8. 前記第2画像生成ステップは、前記マップオブジェクトの表面部分の色相・明度・彩度のうちの少なくとも1つに関するパラメータを、当該表面部分の当該マップオブジェクトにおける高さに応じて変化させて表示する、請求項1に記載の情報処理プログラム。
  9. 前記表示制御ステップは、所定のユーザ操作に応じて、前記第1の画像と前記第2の画像を前記表示部に同時に表示させる、請求項1に記載の情報処理プログラム。
  10. 前記表示制御ステップは、前記所定のユーザ操作に応じて、前記第1の画像の上に前記第2の画像を重畳させることで、当該2つの画像を同時に表示させる、請求項9に記載の情報処理プログラム。
  11. 前記第1画像生成ステップは、前記第1の3次元仮想空間を透視投影で撮像した画像を前記第1の画像として生成し、
    前記第2画像生成ステップは、前記第2の3次元仮想空間を正射影で撮像した画像を前記第2の画像として生成する、請求項1に記載の情報処理プログラム。
  12. 所定の表示部に画像を表示させる情報処理装置を制御するコンピュータが実行する情報処理装置制御方法であって、前記コンピュータは、
    第1の仮想カメラで所定のオブジェクトを含む第1の3次元仮想空間を撮像することにより第1の画像を生成する第1画像生成ステップと、
    前記第1の3次元仮想空間を示すマップオブジェクトであって、当該第1の3次元仮想空間に対応する3次元モデルにより構成されるマップオブジェクトを生成し、第2の仮想3次元空間内に配置するマップオブジェクト生成ステップと、
    前記第1の3次元仮想空間内における前記所定のオブジェクトの位置を示す標識オブジェクトを前記マップオブジェクト上に配置する標識オブジェクト配置ステップと、
    前記標識オブジェクトが配置されたマップオブジェクトを含む第2の3次元仮想空間を第2の仮想カメラで撮像することにより第2の画像を生成する第2画像生成ステップと、
    前記第1の画像と前記第2の画像を前記表示部に表示させる表示制御ステップとを実行し、
    前記第2画像生成ステップでは、前記マップオブジェクト上に配置された標識オブジェクトについて、前記第2の仮想カメラの視点から見て前記マップオブジェクトによって隠される部分と隠されない部分とが異なる表示態様となるように前記第2の画像を生成する情報処理装置制御方法。
  13. 所定の画像を表示するための表示部と、
    第1の仮想カメラで所定のオブジェクトを含む第1の3次元仮想空間を撮像することにより第1の画像を生成する第1画像生成部と、
    前記第1の3次元仮想空間を示すマップオブジェクトであって、当該第1の3次元仮想空間に対応する3次元モデルにより構成されるマップオブジェクトを生成し、第2の3次元仮想空間内に配置するマップオブジェクト生成部と、
    前記第1の3次元仮想空間内における前記所定のオブジェクトの位置を示す標識オブジェクトを前記マップオブジェクト上に配置する標識オブジェクト配置部と、
    前記標識オブジェクトが配置されたマップオブジェクトを含む第23次元仮想空間を第2の仮想カメラで撮像することにより第2の画像を生成する第2画像生成部と、
    前記第1の画像と前記第2の画像を前記表示部に表示させる表示制御部とを備え、
    前記第2画像生成部は、前記マップオブジェクト上に配置された標識オブジェクトについて、前記第2の仮想カメラの視点から見て前記マップオブジェクトによって隠される部分と隠されない部分とが異なる表示態様となるように前記第2の画像を生成する、情報処
    理システム。
  14. 第1の仮想カメラで所定のオブジェクトを含む第1の3次元仮想空間を撮像することにより第1の画像を生成する第1画像生成部と、
    前記第1の3次元仮想空間を示すマップオブジェクトであって、当該第1の3次元仮想空間に対応する3次元モデルにより構成されるマップオブジェクトを生成し、第2の3次元仮想空間内に配置するマップオブジェクト生成部と、
    前記第1の3次元仮想空間内における前記所定のオブジェクトの位置を示す標識オブジェクトを前記マップオブジェクト上に配置する標識オブジェクト配置部と、
    前記標識オブジェクトが配置されたマップオブジェクトを含む第2の3次元仮想空間を第2の仮想カメラで撮像することにより第2の画像を生成する第2画像生成部と、
    前記第1の画像と前記第2の画像を所定の表示部に表示させる表示制御部とを備え、
    前記第2画像生成部は、前記マップオブジェクト上に配置された標識オブジェクトについて、前記第2の仮想カメラの視点から見て前記マップオブジェクトによって隠される部分と隠されない部分とが異なる表示態様となるように前記第2の画像を生成する、情報処理装置。
JP2017002093A 2017-01-10 2017-01-10 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置 Active JP6854133B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2017002093A JP6854133B2 (ja) 2017-01-10 2017-01-10 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置
EP17204385.3A EP3345665B1 (en) 2017-01-10 2017-11-29 Information processing program, informationprocessing method, information processing system, andinformation processing apparatus
US15/827,360 US10694163B2 (en) 2017-01-10 2017-11-30 Computer-readable non-transitory storage medium having stored therein information processing program, information processing method, information processing system, and information processing apparatus
US15/931,158 US11050989B2 (en) 2017-01-10 2020-05-13 Computer-readable non-transitory storage medium having stored therein information processing program, information processing method, information processing system, and information processing apparatus
JP2021041237A JP7150921B2 (ja) 2017-01-10 2021-03-15 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置
US17/330,065 US11310474B2 (en) 2017-01-10 2021-05-25 Computer-readable non-transitory storage medium having stored therein information processing program, information processing method, information processing system, and information processing apparatus
US17/654,693 US11589025B2 (en) 2017-01-10 2022-03-14 Computer-readable non-transitory storage medium having stored therein information processing program, information processing method, information processing system, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017002093A JP6854133B2 (ja) 2017-01-10 2017-01-10 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021041237A Division JP7150921B2 (ja) 2017-01-10 2021-03-15 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置

Publications (2)

Publication Number Publication Date
JP2018110659A JP2018110659A (ja) 2018-07-19
JP6854133B2 true JP6854133B2 (ja) 2021-04-07

Family

ID=60543377

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017002093A Active JP6854133B2 (ja) 2017-01-10 2017-01-10 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置
JP2021041237A Active JP7150921B2 (ja) 2017-01-10 2021-03-15 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021041237A Active JP7150921B2 (ja) 2017-01-10 2021-03-15 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置

Country Status (3)

Country Link
US (4) US10694163B2 (ja)
EP (1) EP3345665B1 (ja)
JP (2) JP6854133B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6727515B2 (ja) * 2018-07-31 2020-07-22 株式会社コナミデジタルエンタテインメント ゲームシステム、及びそれに用いるコンピュータプログラム
JP6832320B2 (ja) * 2018-10-15 2021-02-24 株式会社 ディー・エヌ・エー 拡張現実の技術を用いたコンテンツを提供するためのシステム、方法、及びプログラム
JP7256942B2 (ja) * 2018-12-04 2023-04-13 株式会社Mixi ゲームプログラム、ゲーム処理方法及びゲーム端末
CN109771951B (zh) * 2019-02-13 2022-04-29 网易(杭州)网络有限公司 游戏地图生成的方法、装置、存储介质和电子设备
CA3044587C (en) * 2019-05-28 2023-04-25 Square Enix Ltd. Control of player character with enhanced motion functionality
CN111282266B (zh) 2020-02-14 2021-08-03 腾讯科技(深圳)有限公司 三维虚拟环境中的技能瞄准方法、装置、终端及存储介质
JP7563904B2 (ja) * 2020-06-15 2024-10-08 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP2022093792A (ja) * 2020-12-14 2022-06-24 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
JP7514197B2 (ja) 2021-02-15 2024-07-10 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置、および、情報処理方法
CN113577765B (zh) * 2021-08-20 2023-06-16 腾讯科技(深圳)有限公司 用户界面的显示方法、装置、设备及存储介质
JP7324256B2 (ja) * 2021-09-22 2023-08-09 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および情報処理方法
JP7109122B1 (ja) 2021-12-28 2022-07-29 株式会社Kms ゲームシステム、画面生成方法、ならびに、プログラム
JP2023146874A (ja) * 2022-03-29 2023-10-12 株式会社ジクウ 情報処理装置、情報処理方法、及びプログラム
JP7482953B2 (ja) 2022-08-17 2024-05-14 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理方法、および情報処理システム
JP7371199B1 (ja) 2022-10-11 2023-10-30 任天堂株式会社 ゲームプログラム、ゲームシステム、ゲーム装置およびゲーム制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3215306B2 (ja) * 1995-09-19 2001-10-02 株式会社ナムコ 画像合成方法及び装置
JP2001252464A (ja) * 2000-03-10 2001-09-18 Konami Co Ltd ゲーム装置、ゲーム制御方法、記録媒体及びプログラム
JP3637031B2 (ja) * 2002-04-03 2005-04-06 任天堂株式会社 ゲーム装置およびゲームプログラム
JP3690672B2 (ja) * 2002-05-17 2005-08-31 任天堂株式会社 ゲームシステムおよびゲームプログラム
JP4885080B2 (ja) 2007-07-09 2012-02-29 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP5157329B2 (ja) 2007-08-31 2013-03-06 株式会社セガ ゲーム装置
JP5378133B2 (ja) * 2009-09-28 2013-12-25 任天堂株式会社 鳥瞰マップリソース生成プログラム、鳥瞰マップ表示プログラム、鳥瞰マップリソース生成装置、および、鳥瞰マップ表示装置
JP5632657B2 (ja) * 2010-06-09 2014-11-26 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法
JP5739674B2 (ja) * 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6473577B2 (ja) 2014-05-21 2019-02-20 任天堂株式会社 情報処理システム、情報処理方法、及び情報処理プログラム

Also Published As

Publication number Publication date
JP2021102066A (ja) 2021-07-15
US20180199022A1 (en) 2018-07-12
JP7150921B2 (ja) 2022-10-11
US11589025B2 (en) 2023-02-21
EP3345665A1 (en) 2018-07-11
EP3345665B1 (en) 2022-03-02
JP2018110659A (ja) 2018-07-19
US20200275070A1 (en) 2020-08-27
US11050989B2 (en) 2021-06-29
US10694163B2 (en) 2020-06-23
US11310474B2 (en) 2022-04-19
US20220210387A1 (en) 2022-06-30
US20210281811A1 (en) 2021-09-09

Similar Documents

Publication Publication Date Title
JP6854133B2 (ja) 情報処理プログラム、情報処理方法、情報処理システム、および情報処理装置
JP7329764B2 (ja) ゲームプログラム、情報処理システム、情報処理装置、および情報処理方法
JP5507893B2 (ja) プログラム、情報記憶媒体及び画像生成システム
EP2371433B1 (en) Image generation device, program product, and image generation method
JP6340414B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP5157329B2 (ja) ゲーム装置
JP7386360B2 (ja) 情報処理方法、装置及び端末デバイス
CN109568944B (zh) 游戏处理方法、游戏处理装置、游戏处理系统及记录介质
US9345972B2 (en) Information storage medium, image generation system, and image generation method
JP2006305176A (ja) ゲームプログラムおよびゲーム装置
KR102645534B1 (ko) 가상 환경 픽처 디스플레이 방법 및 장치, 디바이스 및 저장 매체
US8267793B2 (en) Multiplatform gaming system
US20210287382A1 (en) Systems and methods for multi-user virtual and augmented reality
JP2006314763A (ja) 対戦ビデオゲーム制御プログラム
JP6581341B2 (ja) 情報処理装置、情報処理プログラム、情報処理方法、および情報処理システム
JP4363595B2 (ja) 画像生成装置及び情報記憶媒体
CN116099195A (zh) 一种游戏的显示控制方法、装置、电子设备及存储介质
JP4114825B2 (ja) 画像生成装置及び情報記憶媒体
JP2011255114A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2003265858A (ja) 3次元シミュレータ装置及び画像合成方法
CN117298572A (zh) 游戏控制方法、装置、电子设备及存储介质
JP2007267857A (ja) プログラム、情報記憶媒体及びゲーム装置
JP2002331165A (ja) ゲーム機におけるマーカーの色変更装置及び情報記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210315

R150 Certificate of patent or registration of utility model

Ref document number: 6854133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250