JP6691351B2 - プログラム及びゲームシステム - Google Patents

プログラム及びゲームシステム Download PDF

Info

Publication number
JP6691351B2
JP6691351B2 JP2015073080A JP2015073080A JP6691351B2 JP 6691351 B2 JP6691351 B2 JP 6691351B2 JP 2015073080 A JP2015073080 A JP 2015073080A JP 2015073080 A JP2015073080 A JP 2015073080A JP 6691351 B2 JP6691351 B2 JP 6691351B2
Authority
JP
Japan
Prior art keywords
player
information
command
character
effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015073080A
Other languages
English (en)
Other versions
JP2016189999A (ja
Inventor
絢 玉置
絢 玉置
一正 小関
一正 小関
治由 山本
治由 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2015073080A priority Critical patent/JP6691351B2/ja
Priority to US15/073,046 priority patent/US10183220B2/en
Priority to CN201610191675.8A priority patent/CN106023289B/zh
Publication of JP2016189999A publication Critical patent/JP2016189999A/ja
Application granted granted Critical
Publication of JP6691351B2 publication Critical patent/JP6691351B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/303Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device for displaying additional data, e.g. simulating a Head Up Display
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、プログラム及びゲームシステム等に関する。
従来より、画面に登場する女性キャラクタ等と会話等を楽しみながら、疑似恋愛等を体験するタイプのゲームが知られている。このような女性キャラクタとのコミュニケーションゲーム(恋愛シミュレーションゲーム)では、プレーヤは、画面上のアイコンに割り当てられているコマンドを選択することで、キャラクタに声を掛けたり、アドバイスしたり、会話するなどの様々な行動を選択し、勉強やスポーツなどに関する自身のパラメータを成長させることで、キャラクタの好感度を高めて、キャラクタとの関係を向上させる。このようなゲームを実現するゲームシステムの従来技術としては、例えば特許文献1、2に開示される技術がある。
特開2001−162041号公報 特開2004−208894号公報
しかしながら、このようなゲームを実現するこれまでのゲームシステムでは、コマンドを選択する際のキャラクタとプレーヤとの関係については、考慮されていなかった。従って、例えばキャラクタの近くにプレーヤ(視点)が位置する状態で、コマンドを選択した場合と、キャラクタから遠くの場所にプレーヤが位置する状態で、同じコマンドを選択した場合とで、コマンドが発動する効果が同じになってしまう。このため、キャラクタとプレーヤの関係の反映が不十分であった。
本発明の幾つかの態様によれば、キャラクタとプレーヤとの関係を反映したコマンドの効果の発動処理を実現できるプログラム及びゲームシステム等を提供できる。
本発明の一態様は、複数のコマンドの中からプレーヤが選択したコマンドを受け付けるコマンド受け付け部と、受け付けられたコマンドの効果を発動させる処理を、ゲーム処理として行うゲーム処理部と、前記ゲーム処理の結果に基づいて、ゲーム画像の表示処理を行う表示処理部とを含み、前記ゲーム処理部は、前記プレーヤのゲームプレイの対象となるキャラクタの情報と前記プレーヤの視点情報とに応じたコマンドの効果を、発動させる処理を行うゲームシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
本発明の一態様によれば、複数のコマンドの中からプレーヤがコマンドを選択すると、そのコマンドが受け付けられて、コマンドの効果を発動させるコマンド処理が行われる。そして、このコマンド処理の際に、キャラクタの情報とプレーヤの視点情報とに応じたコマンドの効果を、発動させる処理が行われる。例えば、キャラクタの情報とプレーヤの視点情報とにより設定された情報に基づいて、コマンドの効果を発動させる処理が行われる。このようにすれば、キャラクタとプレーヤとの関係を反映したコマンドの効果の発動処理を実現でき、これまでにないタイプのゲームの実現等が可能になる。
また本発明の一態様では、前記ゲーム処理部は、前記プレーヤと前記キャラクタとの位置関係情報に応じたコマンドの効果を、発動させる処理を行ってもよい。
このようにすれば、プレーヤとキャラクタの位置関係情報を反映させたコマンドの効果を発動させることができ、例えば位置関係情報に応じてコマンドの効果を変化させることなどが可能になる。
また本発明の一態様では、前記ゲーム処理部は、前記プレーヤの視線と前記キャラクタとの関係を表す視線関係情報に応じたコマンドの効果を、発動させる処理を行ってもよい。
このようにすれば、プレーヤの視線とキャラクタとの関係を表す視線関係情報を反映させたコマンドの効果を発動させることができ、例えば視線関係情報に応じてコマンドの効果を変化させることなどが可能になる。
また本発明の一態様では、前記ゲーム処理部は、前記プレーヤの注視情報に応じたコマンドの効果を、発動させる処理を行ってもよい。
このようにすれば、プレーヤの注視情報を反映させたコマンドの効果を発動させることができ、例えば注視情報に応じてコマンドの効果を変化させることなどが可能になる。
また本発明の一態様では、前記ゲーム処理部は、前記プレーヤが注視している前記キャラクタの部位の情報である注視部位情報、前記プレーヤが前記キャラクタを注視しているか否かの情報である注視有無情報、前記プレーヤが前記キャラクタを注視している時間を表す注視時間情報、及び前記プレーヤの注視時における前記キャラクタとの間の距離を表す注視距離情報の少なくとも1つである前記注視情報に応じたコマンドの効果を、発動させる処理を行ってもよい。
このようにすれば、プレーヤがキャラクタを注視しているか否かや、プレーヤが注視しているキャラクタの部位や、プレーヤがキャラクタを注視している注視時間や、注視時のプレーヤとキャラクタの注視距離に応じたコマンドの効果を、発動させて、ゲーム処理を実行することが可能になる。
また本発明の一態様では、前記キャラクタの情報は、前記キャラクタの位置情報、方向情報、ゲームパラメータ情報、部位情報、姿勢情報、及び種類情報の少なくとも1つであり、前記視点情報は、前記プレーヤの視点位置情報、視線方向情報、及び仮想カメラ属性情報の少なくとも1つであってもよい。
このようにすれば、キャラクタの位置情報、方向情報、ゲームパラメータ情報、部位情報、姿勢情報、及び種類情報の少なくとも1つであるキャラクタの情報と、プレーヤの視点位置情報、視線方向情報、及び仮想カメラ属性情報の少なくとも1つである視点情報に応じたコマンドの効果を、発動させて、ゲーム処理を実行することが可能になる。
また本発明の一態様では、前記ゲーム処理部は、前記キャラクタの情報と前記プレーヤの視点情報とに応じて、コマンドの効果の度合い及びコマンドの効果の内容の少なくとも一方を変化させる処理を行ってもよい。
このようにすれば、例えば、キャラクタとプレーヤの関係や、キャラクタの情報とプレーヤの視点情報とにより求められる情報(例えば位置関係情報、視線関係情報、注視情報等)などに応じて、発動したコマンドの効果の度合いや内容が変化するようになり、プレーヤの仮想現実感の向上等を図れるようになる。
また本発明の一態様では、前記ゲーム処理部は、前記キャラクタの情報と前記プレーヤの視点情報とに応じて、プレーヤが選択したコマンドとは異なる別のコマンドの効果を発動させる処理を行ってもよい。
このようにすれば、キャラクタとプレーヤの関係や、キャラクタの情報とプレーヤの視点情報とにより求められる情報(例えば位置関係情報、視線関係情報、注視情報等)などに応じて、選択したコマンドとは異なる別のコマンドの効果が発動するようになり、多様なコマンド効果の発動処理を実現できる。
また本発明の一態様では、前記ゲーム処理部は、前記キャラクタの情報と前記プレーヤの視点情報とに応じたコマンドの効果が発動した後、所与の期間内に、前記キャラクタの情報又はプレーヤの前記視点情報が変化した場合に、発動したコマンドの効果を変化させる処理を行ってもよい。
このようにすれば、キャラクタの情報とプレーヤの視点情報とに応じたコマンドの効果が発動し、その効果に応じてキャラクタの情報やプレーヤの視点情報が変化した場合に、既に発動したコマンドの効果を変化させることが可能になり、プレーヤとキャラクタの関係をより反映させたゲーム処理を実現できる。
また本発明の一態様では、前記ゲーム処理部は、前記キャラクタの情報と前記プレーヤの視点情報と確率要素パラメータとに基づいて、コマンドの効果を発動させる処理を行ってもよい。
このようにすれば、発動するコマンドの効果が画一的になってしまうなどの事態を抑制できる。
また本発明の一態様では、前記表示処理部は、コマンドに対応するアイコンの表示処理を行い、コマンドの効果の度合い及びコマンドの効果の内容の少なくとも一方が変化した場合に、コマンドに対応するアイコンの表示態様を変化させてもよい。
このようにすれば、コマンドの効果の度合いや効果の内容が変化したことを、アイコンの表示態様を変化させることで、プレーヤに視覚的に認識させることが可能になる。
また本発明の一態様では、前記表示処理部は、コマンドに対応するアイコンの表示処理を行い、前記ゲーム処理部は、前記キャラクタの情報及びプレーヤの前記視点情報の少なくとも一方に応じて、アイコンの移動制御を行ってもよい。
このようにすれば、キャラクタの情報やプレーヤの視点情報に応じて、コマンドに対応するアイコンの移動制御も行われるようになり、キャラクタとプレーヤの関係等を反映させたアイコンの移動制御を実現できる。
また本発明の一態様では、前記表示処理部は、複数のコマンドに対応する複数のアイコンの表示処理を行い、前記ゲーム処理部は、複数のアイコンのうち、第1のタイプのアイコンについては、第1の移動制御を行い、第2のタイプのアイコンについては、前記第1の移動制御とは異なる第2の移動制御を行ってもよい。
このようにすれば、第1のタイプのアイコンと第2のタイプのアイコンとで、移動制御を異ならせることが可能になり、コマンドに対応するアイコンの種々の移動制御を実現できるようになる。
また本発明の一態様では、前記表示処理部は、複数のコマンドに対応する複数のアイコンの表示処理を行い、前記ゲーム処理部は、複数のアイコンのうち、コマンドの効果が発動中のアイコン、又はコマンドの効果が変化したアイコン、又は前記キャラクタのゲームパラメータに関連するアイコンと、それ以外のアイコンとでは、異なる移動制御を行ってもよい。
このようにすれば、コマンドの効果が発動中のアイコンや、コマンドの効果が変化したアイコンや、キャラクタのゲームパラメータに関連するアイコンなどの重要なアイコンについては、その移動制御について、その他のアイコンとは別扱いにすることが可能になる。
また本発明の一態様では、前記表示処理部は、前記プレーヤの視点情報が変化した場合にも、表示画面の特定の位置にコマンドに対応するアイコンが表示されるように、アイコンの表示処理を行ってもよい。
このようにすれば、プレーヤの視点情報が様々に変化しても、コマンドに対応するアイコンが、表示画面の特定の位置に例えば固定的に表示されるようになる。従って、プレーヤは、コマンドの効果を発動するためにアイコンを選択する場合に、この特定の位置にアイコンが表示されていることを把握しながら、当該アイコンを選択できるようになるため、プレーヤにとって利便性の高いコマンド入力インターフェースを提供できる。
また本発明の一態様では、前記表示処理部は、前記キャラクタが前記プレーヤの視野範囲にないと判断される場合には、コマンドに対応するアイコンを非表示にする表示処理を行ってもよい。
このようにすれば、キャラクタがプレーヤの視野範囲にないと判断され、コマンドの効果の発動の必要性が低いような状況においては、コマンドに対応するアイコンが非表示になることで、アイコンがプレーヤの視界の妨げとなるような事態を抑制できる。
本実施形態のゲームシステムの構成例。 本実施形態に用いられるHMDの例。 撮像部等の説明図。 ゲームに使用される複数のコマンドの説明図。 図5(A)、図5(B)は本実施形態により生成されるゲーム画像の例。 キャラクタのゲームパラメータの説明図。 図7(A)、図7(B)はプレーヤとキャラクタの位置関係情報に応じたコマンドの効果の発動処理の説明図。 図8(A)、図8(B)もプレーヤとキャラクタの位置関係情報に応じたコマンドの効果の発動処理の説明図。 図9(A)、図9(B)はプレーヤとキャラクタの視線関係情報に応じたコマンドの効果の発動処理の説明図。 プレーヤの注視情報に応じたコマンドの効果の発動処理の説明図。 図11(A)〜図11(D)もプレーヤの注視情報に応じたコマンドの効果の発動処理の説明図。 図12(A)、図12(B)はコマンドの効果の変化処理の説明図。 図13(A)〜図13(C)もコマンドの効果の変化処理の説明図。 図14(A)〜図14(C)もコマンドの効果の変化処理の説明図。 図15(A)、図15(B)は確率要素パラメータを用いたコマンド処理の説明図。 図16(A)、図16(B)は本実施形態により生成されるゲーム画像の例。 図17(A)、図17(B)はアイコンの移動制御処理の説明図。 図18(A)、図18(B)は本実施形態により生成されるゲーム画像の例。 図19(A)、図19(B)は本実施形態により生成されるゲーム画像の例。 図20(A)、図20(B)はキャラクタの部位情報、姿勢情報等の説明図。 図21(A)、図21(B)は、コマンドのアイコンを特定位置に表示する手法の説明図。 キャラクタがプレーヤの視野範囲にない場合に、コマンドのアイコンを非表示する手法の説明図。 本実施形態の処理を説明するフローチャート。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.構成
図1に本実施形態のゲームシステム(ゲーム装置、画像生成システム、サーバシステム)のブロック図の例を示す。なお、本実施形態のゲームシステムの構成は図1に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
撮像部150は、1又は複数のカメラにより構成される。各カメラは、レンズ(広角レンズ)等の光学系や、CCDやCMOSセンサ等の撮像素子により構成される。また撮像部150に1又は複数のマイクを設けてもよい。撮像部150を用いることで、プレーヤの動き情報(各部位の動き情報、スケルトン情報)を検出したり、プレーヤの認識処理(顔認識等)を実現できる。また複数のカメラを撮像部150に設けることで、空間の奥行き方向を認識し、撮像部150の前方でプレイしている二人のプレーヤの前後関係を判断することなどが可能になる。また複数のマイクを撮像部150に設けることで、音源の方向等を検出できる。例えば複数のカメラ及び複数のマイクが設けられた撮像部150を用いることで、プレーヤの動きや音声などを操作情報として直感的にプレイできるゲームを実現することが可能になる。
操作部160は、プレーヤが操作データを入力するためのものであり、その機能は、方向指示キー、アナログスティック、操作ボタン、レバー、或いはタッチパネル型ディスプレイなどにより実現できる。また操作部160には、プレーヤに情報を報知するための振動機構(振動モータ等)を設けることができる。
記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そしてゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
頭部装着型表示装置200(以下、適宜、HMDと呼ぶ)は、プレーヤの頭部に装着されて、プレーヤの眼前に画像を表示する装置であり、モーションセンサ210、表示部220を含む。また発光部230や処理部240を含むことができる。
モーションセンサ210は例えば加速度センサやジャイロセンサなどにより実現される。例えば加速度センサとジャイロセンサで構成されるモーションセンサ210を用いることで、X、Y、Z軸の3軸回りでのプレーヤの頭部(HMD)の回転運動を検出できる。例えば各X、Y、Z軸回りでの回転角度や角速度等を検出できる。また発光部230は、例えば後述する図2のLED231〜236(発光素子)などにより実現される。例えばHMD200の前面側に設けられた4つのLED231、232、233、234と、背面側に設けられた2つのLED235、236からの光を、撮像部150で撮像することで、プレーヤの頭部(HMD)の前後左右上下の移動を検出できる。即ち、3次元空間でのプレーヤの頭部(HMD)位置情報を取得できる。
HMD200の表示部220は例えば液晶ディスプレイ(LCD)や有機ELディスプレイなどにより実現できる。例えばHMD200には、表示部220として、プレーヤの左目の前に配置される第1のディスプレイと、右目の前に配置される第2のディスプレイが設けられており、例えば立体視表示等も可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示すればよい。なお表示部220は、HMD200に設けられる表示部でなくてもよく、家庭用ゲーム装置の表示部(テレビ等)や業務用ゲーム装置の表示部や情報処理装置(PC)の表示部等であってもよい。
HMD200の処理部230は、HMD200において必要な各種の処理を行う。例えば処理部230は、モーションセンサ210のセンサ情報の検出処理や表示部220の表示制御処理などを行う。また処理部230は、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現する。即ち、3次元空間での音場を制御する処理を行う。このような3次元音響処理が施された音は、HMD200に設けられたヘッドホン端子を介して、ヘッドホン等により実現される音出力部192に出力される。
音出力部192は、本実施形態により生成された音を出力するものであり、例えばヘッドホン、或いはテレビやオーディオ装置に設けられたスピーカ等により実現できる。
補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。
通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170、補助記憶装置194)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。
処理部100(プロセッサ)は、操作部160やHMD200からの操作情報や、プログラムなどに基づいて、ゲーム処理、表示処理、或いは音処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。
処理部100は、コマンド受け付け部101、情報取得部102、ゲーム処理部104、オブジェクト空間設定部110、仮想カメラ制御部112、表示処理部120、音処理部130を含む。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
コマンド受け付け部101は、プレーヤのコマンドの受け付け処理を行う。例えば複数のコマンドの中からプレーヤが選択したコマンドを受け付ける。
情報取得部102は、処理部100の処理に必要な種々の情報を取得する。即ち、これらの情報の受け付け処理を行う。例えば情報取得部102は、操作部160やHMD200からプレーヤの操作情報を取得する。
ゲーム処理部104は各種のゲーム処理(ゲーム演算)を行う。ここでゲーム処理としては、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム成績(ゲーム結果)を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理などがある。ゲーム処理部104は、コマンド処理部105、ゲームパラメータ処理部106、ゲーム進行処理部107、ゲーム成績演算部108、アイコン制御部109を含む。ゲーム処理部104の詳細については後述する。
オブジェクト空間設定部110は、複数のオブジェクトが配置されるオブジェクト空間の設定処理を行う。例えば、キャラクタ(人、動物、ロボット等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部174には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。オブジェクト空間設定部110は、例えば各フレーム毎にこのオブジェクトデータを更新する処理などを行う。
仮想カメラ制御部112は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。この仮想カメラはプレーヤの視点に相当する。
表示処理部120は、ゲーム画像の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ176(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。
音処理部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、BGM、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。
そして本実施形態のゲームシステムは、図1に示すように、コマンド受け付け部101、ゲーム処理部104、表示処理部120を含む。
コマンド受け付け部101は、複数のコマンドの中からプレーヤが選択したコマンドを受け付ける処理を行う。例えばプレーヤが選択可能なN個のコマンドの情報がコマンド情報記憶部171に記憶されている。そして、例えば、これらのN個のコマンドの中からM個(M<N)のコマンドが、自動的に或いはプレーヤにより選択されて、いわゆるデッキと呼ばれるコマンドのセットが編成される。ゲームプレイ中においては、プレーヤは、これらのM個のコマンドの中から自身が所望するコマンドを選択する。すると、コマンド受け付け部101は、選択されたコマンドを、発動対象のコマンドとして受け付ける。
そしてゲーム処理部104は、受け付けられたコマンドの効果を発動させる処理を、ゲーム処理として行う。例えば各コマンドの効果は各コマンドに関連づけられて、コマンド情報として、コマンド情報記憶部171に記憶されている。ゲーム処理部104は、プレーヤが選択したコマンドに関連づけられた効果を発動させる処理を行う。
そしてゲーム処理部104は、コマンドの効果の発動結果に基づいて、ゲームパラメータを演算する処理、ゲームを進行させる処理、ゲーム成績(ゲーム結果)を演算する処理、或いはコマンドに対応するアイコンの制御処理などのゲーム処理を行う。ゲームパラメータの演算処理はゲームパラメータ処理部106が行い、ゲームを進行させる処理はゲーム進行処理部107が行い、ゲーム成績を演算する処理はゲーム成績演算部108が行う。またアイコンの制御処理(移動制御、表示制御等)は、アイコン制御部109が行う。なお、ゲームパラメータ処理部106により演算処理されるゲームパラメータの情報(ゲームパラメータの値等)は、ゲームパラメータ記憶部172に記憶され、アイコン制御部109により制御されるアイコンの情報(アイコンの画像等)は、アイコン情報記憶部173に記憶される。
具体的には、ゲーム処理部104(ゲームパラメータ処理部)は、ゲームパラメータの値を増減させる演算処理を行う。そして演算処理後のゲームパラメータに基づいて、キャラクタの動作(挙動)を制御したり、ストーリーの分岐処理を行ったり、ゲームイベントを発生する処理を行ったりするなどの、各種のゲーム処理を行う。例えばプレーヤのゲームプレイの対象となるキャラクタとプレーヤとによりストーリーが進行するゲームの処理を行う。
表示処理部120は、上記のゲーム処理の結果に基づいて、ゲーム画像の表示処理を行う。例えばゲームパラメータの演算結果や、ゲーム進行処理の結果や、ゲーム成績の演算結果や、アイコンの制御処理の結果に応じたゲーム画像を、表示部220に表示するための処理を行う。また音処理部130も、ゲーム処理の結果に基づいて、BGM、効果音又は音声等のゲーム音を、音出力部192から出力するための処理を行う。
そして本実施形態では、ゲーム処理部104は、プレーヤのゲームプレイの対象となるキャラクタの情報とプレーヤの視点情報とに応じたコマンドの効果を、発動させる処理を行う。例えばキャラクタの情報とプレーヤの視点情報とにより設定(特定)される情報(例えば位置関係情報、視線関係情報、或いは注視情報等)に応じたコマンドの効果を、発動させる処理を行う。
具体的にはゲーム処理部104は、キャラクタの情報とプレーヤの視点情報とに応じて、コマンドの効果の度合い及びコマンドの効果の内容の少なくとも一方を変化させる処理を行う。例えばゲーム処理部104は、キャラクタの情報とプレーヤの視点情報とにより設定(特定)される情報(例えば位置関係情報、視線関係情報、或いは注視情報等)が変化すると、それに応じてコマンドの効果の度合い及びコマンドの効果の内容の少なくとも一方が変化するように、コマンドの発動処理を行う。
或いはゲーム処理部104は、キャラクタの情報とプレーヤの視点情報とに応じて、プレーヤが選択したコマンドとは異なる別のコマンドの効果を発動させる処理を行ってもよい。即ち、キャラクタの情報とプレーヤの視点情報とにより設定される情報に応じて、プレーヤが選択したコマンドとは異なるコマンドの効果を発動させる。
ここで、キャラクタの情報は、例えば、キャラクタの位置情報、方向情報、ゲームパラメータ情報、部位情報、姿勢情報及び種類情報の少なくとも1つである。キャラクタの位置情報は、例えばキャラクタの代表位置の情報である。この代表位置の情報としては、キャラクタの特定部位(例えば腰、胴体、頭部)に対応する位置の情報や、或いはキャラクタの視点の位置情報などの種々の情報を採用できる。キャラクタの方向情報は、例えばキャラクタの向く方向や視線方向などの情報である。
キャラクタは、ゲームに登場するゲームプレイ要素であり、例えば実世界の人、動物、ロボット、或いは移動体等を表すものであり、ゲーム画像にオブジェクトとして表示されるものである。
具体的には、プレーヤのゲームプレイの対象となるキャラクタは、例えばプレーヤのゲームプレイの相手となるキャラクタである。異性キャラクタとのコミュニケーションゲーム(人間関係シミュレーションゲーム)を例にとれば、プレーヤのコミュニケーションの相手(候補)となるキャラクタである。例えば本実施形態では表示処理部120はプレーヤの例えば一人称視点でのゲーム画像を生成し、生成された一人称視点での画像をHMD200の表示部220に表示する。このようにすることで、あたかもゲーム空間(CGアニメの世界)の中に自分が入り込んだかのような仮想現実感をプレーヤに与えることができる。そしてキャラクタは、このゲーム空間(オブジェクト空間、仮想3次元空間)の中に、プレーヤのゲームプレイの対象として登場する。これにより、プレーヤは、あたかも本当の人間(キャラクタ)がプレーヤの眼前に存在するような仮想現実を感じることができる。なおプレーヤのゲームプレイの対象となるキャラクタとして、戦争ゲームやRPGゲームやスポーツゲームなどでプレーヤの敵や味方として登場するキャラクタを用いてもよい。
また、ゲームパラメータは、ゲーム処理(ゲーム進行処理等)に使用されるパラメータである。例えばゲームパラメータは、キャラクタやプレーヤのステータスや能力等を表すパラメータである。
例えばキャラクタのゲームパラメータとしては、キャラクタの心理や状態を表すステータスパラメータ、キャラクタの能力を表すパラメータ、キャラクタの行動に関するパラメータ、或いはキャラクタの所持物に関するパラメータなどの種々のパラメータを想定できる。またキャラクタのゲームパラメータは、プレーヤに対するキャラクタの評価を表すパラメータであってもよい。このような評価を表すパラメータとしては、プレーヤに対するキャラクタの好感度(関心度)、親密度(親しみやすさ、スキンシップ度)、ときめき度、嫌悪度、傷心度、或いは人間関係度を表すパラメータなどを想定できる。
またゲームパラメータは、プレーヤのステータスや能力を表すパラメータであってもよい。このようなステータスや能力を表すパラメータとしては、プレーヤの真面目度、不道徳度、魅力度、容姿、体調、根性、ストレス度、理系度、文系度、雑学度、或いは勉強や運動や芸術等の能力などを想定できる。
キャラクタの部位情報は、キャラクタを構成する部位(部位オブジェクト)の種類情報(頭、胸、腰、足又は手等)や、部位の位置情報(キャラクタの代表位置に対する相対位置)や、或いは部位の形状情報(部位オブジェクトの形状)などである。
キャラクタの姿勢情報は、例えば、座る、立つ、歩く、又は走るなどのキャラクタのモーションを特定する姿勢の情報である。例えばキャラクタがスケルトンモデルで表現される場合には、このスケルトンの形状情報がキャラクタの姿勢情報に対応する。
キャラクタの種類情報は、例えばキャラクタのタイプ或いは属性と呼ばれるものであり、異性のキャラクタであれば、活発タイプ、真面目タイプ、甘えん坊タイプ、又は清楚タイプなどである。キャラクタの種類情報は、例えばキャラクタの性格、体系、或いは容姿などで分類・規定することができる。なおキャラクタの種類情報はキャラクタのパラメータ情報の一部とすることもできる。
またプレーヤの視点情報は、例えばプレーヤの視点位置情報、視線方向情報、及び仮想カメラ属性情報の少なくとも1つである。視点位置情報は、例えばゲーム空間(オブジェクト空間、仮想3次元空間)内において、プレーヤの視点として設定される位置の情報である。視線方向情報は、当該視点でのプレーヤの視線方向を表す情報である。仮想カメラ属性情報は、プレーヤの視点に設定される仮想カメラについての情報であり、例えば画角情報、立体視における両眼視差情報など種々の情報を想定できる。
このように本実施形態では、ゲーム処理部104は、キャラクタの位置情報、方向情報、ゲームパラメータ情報、部位情報、姿勢情報及び種類情報の少なくとも1つであるキャラクタの情報と、プレーヤの視点位置情報、視線方向情報、及び仮想カメラ属性情報の少なくとも1つである視線情報とに応じたコマンドの効果を、発動させる処理を行う。
更に具体的には、ゲーム処理部104は、プレーヤとキャラクタとの位置関係情報に応じたコマンドの効果を、発動させる処理を行う。例えば、一人称視点の場合には、プレーヤの視点位置とキャラクタの位置(代表位置)との位置関係情報に応じたコマンドの効果を、発動させる。プレーヤの視点位置は、例えばゲーム空間(オブジェクト空間、仮想3次元空間)での視点位置である。一方、三人称視点の場合には、プレーヤに対応するプレーヤキャラクタの位置(代表位置)とキャラクタの位置(代表位置)との位置関係情報に応じたコマンドの効果を、発動させる。
位置関係情報は、プレーヤの位置(視点位置、プレーヤキャラクタの位置)とキャラクタの位置(代表位置、視点位置)との関係を表す情報である。この位置関係情報としては、例えばプレーヤとキャラクタとの距離(ゲーム空間での距離)などを想定できるが、これには限定されない。例えばプレーヤとキャラクタとの方向関係の情報であってもよい。
またゲーム処理部104は、プレーヤの視線とキャラクタとの関係を表す視線関係情報に応じたコマンドの効果を、発動させる処理を行う。
視線関係情報は、プレーヤの視線とキャラクタとの関係を表す情報であり、例えばプレーヤの視線について、キャラクタとの相対的な関係を表す情報である。例えば視線関係情報は、キャラクタの位置(代表位置)や各部位を基準として、プレーヤの視線がどの方向を向いているかに関する情報である。
この視線関係情報としては、プレーヤの視線とキャラクタの視線との相関を表す視線相関情報などがあり、ゲーム処理部104は、プレーヤとキャラクタの視線相関情報に応じたコマンドの効果を、発動させる処理を行う。例えば視線相関の状態としては、プレーヤの視線もキャラクタの視線も相手の方を向いていない第1の視線相関状態や、プレーヤの視線はキャラクタの方を向いているがキャラクタの視線はプレーヤの方を向いていない第2の視線相関状態や、キャラクタの視線はプレーヤの方を向いているが、プレーヤの視線はキャラクタの方を向いていない第3の視線相関状態や、プレーヤの視線はキャラクタの方を向いておりキャラクタの視線もプレーヤの方を向いている第4の視線相関状態などを想定できる。ゲーム処理部104は、これらの視線相関の各状態に応じたコマンドの効果を発動させる。例えば、これらの視線相関の各状態に応じて、コマンドによる発動する効果の度合いや内容を異ならせる。
またゲーム処理部104は、プレーヤの注視情報に応じたコマンドの効果を、発動させる処理を行う。注視情報は、プレーヤが注視しているキャラクタの部位の情報である注視部位情報、プレーヤがキャラクタを注視しているか否かの情報である注視有無情報、プレーヤがキャラクタを注視している時間を表す注視時間情報、及びプレーヤの注視時におけるキャラクタとの間の距離を表す注視距離情報の少なくとも1つである。ゲーム処理部104は、これらの情報の少なくとも1つである注視情報に応じたコマンドの効果を、発動させる処理を行う。
具体的には、ゲーム処理部104は、プレーヤがキャラクタを注視しているか否かの情報である注視有無情報(注視有無フラグ)や、プレーヤが注視しているキャラクタの部位の情報である注視部位情報を、注視情報として求める。そして、求められた注視有無情報及び注視部位情報に応じたコマンドの効果を、発動させる。
例えばゲーム処理部104は、プレーヤがキャラクタを注視しているか否かに応じて、コマンドの効果の度合いや効果の内容を異ならせる。例えばプレーヤがキャラクタを注視している場合には、コマンドの効果の度合いを増加させる。一方、プレーヤがキャラクタを注視していない場合には、コマンドの効果の度合いを変化させなかったり、減少させる。またゲーム処理部104は、プレーヤが注視しているキャラクタの部位(顔、胸部、手、足、腹部、又臀部等)に応じて、コマンドの効果の度合いや効果の内容を異ならせる。例えばキャラクタの第1の部位(顔等)をプレーヤが注視している場合と、キャラクタの第2の部位(胸部、臀部等)をプレーヤが注視している場合とで、コマンドの効果の度合いや効果の内容を異ならせる。或いはプレーヤがキャラクタの所定部位(顔、胸部、臀部等)を注視した場合に、コマンドの効果の度合いや効果の内容を変化させる。
或いは、ゲーム処理部104は、プレーヤがキャラクタを注視している時間を表す注視時間情報や、プレーヤの注視時におけるキャラクタとの間の距離を表す注視距離情報を、注視情報として求めてもよい。そして注視時間情報や注視距離情報に応じたコマンドの効果を、発動させる。例えば注視時間が長い場合には、注視時間が短い場合に比べて、コマンドの効果の度合いを大きくする。或いは、注視距離が短い場合には、注視距離が長い場合に比べて、コマンドの効果の度合いを大きくする。
なお、情報取得部102はプレーヤの視線情報や視点位置情報等の視点情報を取得する。例えばプレーヤの操作情報として入力された視点情報を取得する。HMD200を用いる場合を例にとれば、プレーヤの視線情報等の視点情報はHMD200のモーションセンサ210からのモーション検出情報に基づいて取得できる。例えばモーションセンサ210によりプレーヤの頭部についての各3軸回りでの回転角度を求めることで、プレーヤの頭部が向く方向に対応する視線情報を求めることができる。なお操作部160(ゲームコントローラ)からの操作情報に基づいて、視線情報等の視点情報を取得してもよい。例えば操作部160に設けられた方向指示キー、アナログスティック又は操作ボタン等をプレーヤが操作することで得られた操作情報に基づいて、視点情報を取得(特定)してもよい。またプレーヤの眼球の動きを検出できる場合には、眼球の動きも考慮して視点情報を求めてもよい。また、モーションセンサ210のモーション検出情報に加えて、発光部230の複数の発光素子(LED)を撮像部150により撮像した画像を用いて、プレーヤの視点情報を取得してもよい。またHMD200のモーションセンサ210のモーション検出情報以外の情報を用いてプレーヤの視点情報を検出してもよい。例えば撮像部150に、3次元空間でのデプス情報(奥行き情報)を検出できるデプスセンサを設け、カラー画像センサからのカラー画像とデプスセンサからのデプス情報を用いて、プレーヤのスケルトン情報を抽出し、抽出されたスケルトン情報を用いてプレーヤの視点情報を取得してもよい。
またゲーム処理部104は、キャラクタの情報とプレーヤの視点情報とに応じたコマンドの効果が発動した後、所与の期間内に、キャラクタの情報又はプレーヤの視点情報が変化した場合に、発動したコマンドの効果を変化させる処理を行う。例えば、プレーヤがコマンドを選択し、そのコマンドが受け付けられると、そのときのキャラクタの情報とプレーヤの視点情報とに応じたコマンドの効果が、発動する。例えばプレーヤとキャラクタの位置関係情報、視線関係情報、又はプレーヤの注視情報に応じたコマンドの効果が、発動する。そして、このようにコマンドの効果が発動した後、所与の期間内に、キャラクタの情報が変化したり、プレーヤの視点情報が変化した場合には、発動したコマンドの効果を変化させる処理を行う。例えば、キャラクタが移動したり、キャラクタの視線が変化したり、プレーヤの視点位置(プレーヤキャラクタの位置)が移動したり、プレーヤの視線方向が変化することで、プレーヤとキャラクタの位置関係情報、視線関係情報、又はプレーヤの注視情報などが変化すると、それに応じてコマンドの効果を変化させる。或いは、コマンドの効果が発動することで、キャラクタのゲームパラメータが変化した場合に、ゲームパラメータの変化に連動して、発動したコマンドの効果も変化させる。
またゲーム処理部104は、キャラクタの情報とプレーヤの視点情報と確率要素パラメータとに基づいて、コマンドの効果を発動させる処理を行う。例えば、キャラクタの情報とプレーヤの視点情報とに応じて、コマンドの効果の度合いや効果の内容を変化させる場合に、効果の変化の度合いや、効果の内容の変化の態様に対して、確率要素パラメータを用いることで、確率的な要素を持たせる。例えば、コマンドの効果の度合いや内容が変化する変化条件に対して、確率要素パラメータを用いて確率的な要素を持たせる。例えば、当該変化条件が満たされた場合に、常にコマンドの効果の度合いや内容を変化させるのではなく、確率要素パラメータで設定される確率で、変化させる。或いは、コマンドの効果の度合いの変化量等に対して、確率要素パラメータを用いて確率的な要素を持たせる。例えば、当該変化量を、確率要素パラメータで設定される確率に応じて、増減させる。
また表示処理部120は、コマンドに対応するアイコンの表示処理を行う。即ち、コマンドに対応づけられたアイコンを、表示部220に表示するための処理を行う。例えば、上述のように、N個のコマンドの中から、自動的に又はプレーヤの選択により、M個のコマンドからなるデッキが編成された場合に、このデッキに含まれるコマンドに対応するアイコン(カード等)を、表示部220に表示する。
そして表示処理部120は、コマンドの効果の度合い及びコマンドの効果の内容の少なくとも一方が変化した場合に、アイコンの表示態様を変化させる。例えばキャラクタの情報とプレーヤの視点情報とに応じて、コマンドの効果の度合いやコマンドの効果の内容が変化した場合に、その変化を、プレーヤが認識できるように、アイコンの表示態様を変化させる。例えば表示部220に表示される第1〜第Mのアイコン(デッキのアイコン)のうち、第iのアイコン(1≦i≦M)に対応するコマンドの効果の度合いや効果の内容が変化した場合には、その第iのアイコンが他のアイコンに比べて視認効果が高くなるように、第iのアイコンの表示態様を変化させる。
また、コマンドに対応するアイコンが表示される場合に、ゲーム処理部104は、キャラクタの情報及びプレーヤの視点情報の少なくとも一方に応じて、アイコンの移動制御(広義にはアイコン制御)を行う。例えばキャラクタの情報やプレーヤの視点情報が変化すると、その変化に応じた移動制御で、表示部220の画面上等でアイコンを移動させる。
具体的には表示処理部120は、複数のコマンドに対応する複数のアイコンの表示処理を行う。そしてゲーム処理部104(アイコン制御部109)は、複数のアイコンのうち、第1のタイプのアイコンについては、第1の移動制御(第1のアイコン制御)を行い、第2のタイプのアイコンについては、第1の移動制御とは異なる第2の移動制御(第2のアイコン制御)を行う。
例えばゲーム処理部104は、コマンドの効果が発動中のアイコン、コマンドの効果が変化したアイコン、又はキャラクタのゲームパラメータに関連するアイコンである第1のタイプのアイコン(重要なアイコン)については、第1の移動制御を行い、それ以外のアイコンである第2のタイプのアイコンについては、第2の移動制御を行う。即ち、ゲーム処理部104は、複数のアイコンのうち、コマンドの効果が発動中のアイコン、コマンドの効果が変化したアイコン、又はキャラクタのゲームパラメータに関連するアイコンと、それ以外のアイコンとの間で、移動制御を異ならせる。
例えば第1のタイプのアイコンについては、移動せずに元の位置に残す第1の移動制御を行い、第2のタイプのアイコンについては、表示部220の画面の端部(左、右、上又は下の端部)に移動させたり、画面から消滅させる第2の移動制御を行う。或いは、第1のタイプのアイコンについては、画面の端部に移動させる第1の移動制御を行い、第2のタイプのアイコンについては、画面から消滅させる第2の移動制御を行ってもよい。この場合に第1のタイプのアイコンについては、コマンドの発動中であることや、コマンドの効果が変化中であることを示す表示態様で表示することが望ましい。
なお、コマンドの効果が発動中のアイコンは、そのアイコンに対応するコマンドが行使されて、例えば、その効果が発動して継続中となっているアイコンである。コマンドの効果が変化したアイコンは、例えばキャラクタの情報やプレーヤの視点情報に応じたコマンドの効果の発動処理が行われたことで、その効果の度合いや内容が変化したアイコンである。ゲームパラメータに関連するアイコンは、そのアイコンに対応するコマンドが発動されると、キャラクタのゲームパラメータに何らかの影響を与える重要なアイコンである。例えば、そのアイコンのコマンドが発動されることで、キャラクタのゲームパラメータの値が増減したり、ゲームパラメータの状態や態様が変化するようなアイコンである。
また表示処理部120は、プレーヤの視点情報が変化した場合にも、表示画面の特定の位置にコマンドに対応するアイコンが表示されるように、アイコンの表示処理を行う。例えばHMD200を装着するプレーヤが、頭部を動かして視線方向を変えたり、或いは操作部150を用いて、視点の位置を前後左右に動かした場合には、プレーヤの視点情報が様々に変化する。このようにプレーヤの視点情報が変化した場合にも、表示処理部120は、表示部220の表示画面の特定の位置に、コマンドに対応するアイコンが例えば固定的に表示されるように、アイコンの表示処理を行う。このようにすれば、プレーヤからすると、自身の視点位置や視線方向が変化しても、いつも同じ特定の位置にアイコンが表示されるようになるため、コマンドの効果を発動するためにアイコンを選択する場合に、その位置を容易に把握することができ、利便性の高いコマンド入力インターフェースを提供できる。
また表示処理部120は、キャラクタがプレーヤの視野範囲にないと判断される場合には、コマンドに対応するアイコンを非表示にする表示処理を行う。ここで、キャラクタがプレーヤの視野範囲にない状況とは、プレーヤから見える表示画面上にキャラクタが表示されていない場合や、表示されていても、そのごく一部だけが表示されている状況である。このような状況では、プレーヤにとって、コマンドの効果を発動するためのアイコンは、その必要性が低くなっている。従って、この場合には、アイコンがプレーヤの視界の妨げにならないことを優先して、アイコンを非表示にする。即ちアイコンが表示画面に表示されないようにする。
なお、本実施形態のプログラム、ゲームシステムは、サーバシステムとして実現されるものであってもよい。例えば本実施形態のプログラムはサーバシステム上で動作するものであってもよく、本実施形態のゲームシステムはサーバシステムやサーバシステムとその端末装置(クライアント)により実現されるものであってもよい。この場合には、図1の処理部100はサーバシステム等の処理部になる。
2.本実施形態の手法
次に本実施形態の手法について具体的に説明する。なお、以下では本実施形態の手法が適用されるゲームが、異性キャラクタ等とのコミュニケーションゲーム(人間関係シミュレーションゲーム)である場合を主に例にとり説明する。しかしながら、本実施形態の手法が適用されるゲームはこれには限定されず、戦闘ゲーム、RPGゲーム、スポーツゲーム、アクションゲーム等の種々のゲームに適用可能である。
また、以下では、ゲーム画像が表示される表示部が、HMD200の表示部220である場合を主に例にとり説明するが、本実施形態はこれに限定されない。例えば、本実施形態で生成されるゲーム画像は、業務用や家庭用のゲーム装置の表示部、PC(パーソナルコンピュータ)の表示部、タブレット型PCの表示部、或いはスマートフォンや携帯型ゲーム装置などの携帯型端末装置の表示部等に表示されるものであってもよい。
また、以下では、プレーヤの視点情報を、HMD200に設けられたモーションセンサ等のセンサを用いて取得する場合を主に例にとり説明するが、本実施形態はこれに限定されない。例えば、アイトラッキング、フェイストラッキング又はヘッドトラッキングなどの視点トラッキング手法により、プレーヤの視点情報を取得してもよい。例えばアイトラッキングでは、プレーヤの左目、右目の瞳の位置や形状等を認識する。そして、左目の位置、右目の位置、左目の視線方向、右目の視線方向等を特定し、プレーヤの視点情報を取得することで、視点トラッキングを実現する。このアイトラッキングは、例えば撮像部によりプレーヤの左目、右目を撮影し、その撮像画像に対して瞳等の画像認識処理を行うことなどで実現できる。また、フェイストラッキングでは、撮像部でプレーヤの顔を撮像し、顔の画像認識処理を行う。そして、画像認識処理の結果に基づいて、プレーヤの顔の位置や向く方向を特定して、プレーヤの視点位置、視線方向を求めて、視点トラッキングを実現する。
2.1 HMD
図2、図3に本実施形態のゲームシステムに用いられるHMD200や撮像部150や操作部160の例を示す。図2に示すようにHMD200には、複数のLED231〜236が設けられている。LED231〜234は、プレーヤの前面側に設けられ、LED235や不図示のLED236は、プレーヤの背面側に設けられる。これらのLED231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的にはLED231〜236は、互いに異なる色の光を出射する。そして図3に示すように、プレーヤの前方側に設置される撮像部150により、これらのLED231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらのLED231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、プレーヤの頭部(HMD)の位置(3次元位置、動き)等が検出される。
例えば図3に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、プレーヤの頭部の奥行き方向での位置等が検出可能になる。また、前述したようにモーションセンサ210のモーション検出情報に基づいて、プレーヤの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、プレーヤが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想3次元空間での画像(プレーヤの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。なお、LED231〜236として、可視光ではなく赤外線のLEDを用いてよい。また、例えばデプスカメラ等を用いるなどの他の手法で、プレーヤの頭部の位置や動き等を検出するようにしてもよい。
またHMD200には、ヘッドバンド260等が設けられており、プレーヤは、より良い装着感で安定的に頭部にHMD200を装着できるようになっている。また、HMD200には、不図示のヘッドホン端子が設けられており、このヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響(3次元オーディオ)の処理が施されたゲーム音を、プレーヤは聴くことが可能になる。そしてプレーヤは、ゲームコントローラである操作部160を操作したり、頭部の頷き動作や首振り動作を行うことで、操作情報を入力し、ゲームプレイを楽しむ。頷き動作や首振り動作は、HMD200のモーションセンサ210等により検出できる。
2.2 ゲームの概要
次に、本実施形態の手法により実現されるゲームの概要について説明する。このゲームは、プレーヤが、ゲームに登場する異性のキャラクタとコミュニケーションをしながら、勉強を教えたり、様々なアドバイスをしたり、質問に答えたり、各種イベントをクリアして、プレーヤに対するキャラクタの好感度等を高めたりする、コミュニケーションゲーム(人間関係シミュレーションゲーム)である。
このゲームでは、キャラクタとのコミュニケーション等を行うための複数のコマンドが用意されている。図4は、これらの複数のコマンドの一例である。図4ではカード形式になった複数種類のコマンドが用意されている。
本実施形態では、ゲームスタート時等に、これらの複数のコマンドからデッキを編成する。コマンドは、プレーヤのアクション(行動)を指定するものであり、プレーヤは、キャラクタとのコミュニケーション(レッスン)で使用するアクションを、デッキとして準備する。そしてプレーヤは、キャラクタの動作や状態に応じて、デッキの中からコマンドを選択して行使する。本実施形態では、プレーヤとキャラクタとの距離や注視部位や視線方向等に応じて、コマンド行使の際の効果の度合いや効果内容が変化するようになっている。
例えば図4において、CM1、CM2、CM3、CM4、CM5は、各々、「もっと集中!」、「叱る」、「声をかける」、「つつく」、「アドバイスする」というコマンドである。プレーヤは、図4のように用意された複数のコマンドの中から選択された所定数のコマンドにより、デッキを編成する。そして、編成されたデッキの中から所望のコマンドを選択して行使する。すると選択されたコマンドの効果が発動する。コマンドが行使されて発動すると、空きになったデッキのスロットに対して、例えば新たなコマンドが選ばれて補充される。
また、コマンド(アクション)は、その強化等が可能になっている。具体的には、CM1、CM2、CM3、CM4、CM5等の各コマンドには、レベルも設定されており、レベルが異なれば、コマンドにより発動される効果の度合いや内容も異なったものとなる。例えば、レベルが高いほど、コマンドにより発動される効果の度合いも高いものになり、効果の内容も、より高度で特別なものになる。例えば図4では、コマンドCM1、CM2はレベル1である。このため、これらのコマンドCM1、CM2が発動された場合の効果の度合いは低く、効果の内容も、あまり高度ではなく普通のものになる。一方、コマンドCM5はレベル3である。このため、コマンドCM5が発動された場合の効果の度合いは高く、効果の内容も、高度で特別なものになる。各コマンドのレベルは、例えばコマンドの使用回数、使用頻度、或いはゲーム成績等に応じて上昇し、その効果等が強化される。或いはプレーヤが取得・購入したアイテム等により、コマンドの効果等を強化できるようにしてもよい。
また、図4の複数のコマンドから、デッキを構成する所定数のコマンドを選択する処理は、コマンド選択のアルゴリズム(プログラム)により自動的に行ってもよいし、プレーヤの手動により行ってもよい。
図5(A)、図5(B)に、本実施形態のゲームシステムにより生成されるゲーム画像の例を示す。
本実施形態により実現されるゲームでは、プレーヤは、キャラクタCHの家庭教師としてその家を訪れ、勉強等を教える。ゲームには、複数のストーリーが用意され、各ストーリーごとに、異なるタイプが登場する。例えば第1のストーリーでは、高校生が登場し、プレーヤが、勉強を教えて、成績を上げたり、大学受験等の試験に合格させることが目的となる。第2のストーリーでは、音大生が登場し、プレーヤが音楽を教えて、オーディションに合格させることが目的となる。第3のストーリーでは、年配の人が登場し、プレーヤが陶芸教室の先生となり、陶芸のコンテストで入賞等させることが目的となる。プレーヤは、これらの各ストーリーでの目的を達成しながら、キャラクタCHとの親密なコミュニケーションを楽しむ。
例えば図5(A)、図5(B)では、プレーヤは、家庭教師となって、キャラクタCHに対して勉強等を教えるレッスンを行うゲームをプレイする。
ゲームをプレイするプレーヤは、図2に示すようにHMD200を装着する。そして、プレーヤが、プレーヤの周囲の360度の全方向の各方向に視線を向けると、各方向で見えるべき画像がHMD200の表示部220に表示される。例えば図5(A)において、プレーヤがキャラクタCHの方に視線を向ければ、勉強をしているキャラクタCHの画像が表示部220に表示される。一方、プレーヤが頭部を回して、プレーヤの背面側に視線を向ければ、キャラクタCHの背面側に位置する部屋の家具等の画像が表示部220に表示される。従って、プレーヤは、あたかもゲームの世界に自分が入ってしまったかのような仮想現実感を味わうことが可能になる。即ち、実際に部屋に入って、眼の前の異性に勉強を教えているかのような仮想現実感をプレーヤに与えることができ、ゲームへのプレーヤの没入感を高めることができる。
図5(A)では、図4のコマンドCM1、CM2、CM3によりデッキが構成されており、これらのコマンドCM1、CM2、CM3に対応するアイコンIC1、IC2、IC3が表示されている。例えばプレーヤがアイコンIC1を選択すると、「もっと集中」というコマンドCM1の効果が発動する。アイコンIC2を選択すると、「叱る」というコマンドCM2の効果が発動する。アイコンIC3を選択すると、「声をかける」というコマンドCM3の効果が発動する。
なお、コマンドの効果を発動させるアイコンの選択は、例えば図3の操作部160を用いて行う。例えばプレーヤは、操作部160の方向指示キーやアナログスティック等を用いて、プレーヤが所望するコマンドに対応するアイコンを選択する。そして、例えば操作部160のコマンド発動用の操作ボタン等を操作することで、選択したアイコンに対応するコマンドの効果を発動させる。なお、アイコン(コマンド)の選択手法としては種々の手法を想定できる。例えばHMD200を頭部に装着したプレーヤが、例えば首を横に振るなどの動作を行うことで、プレーヤが所望するコマンドに対応するアイコンを選択するようにしてもよい。
図5(B)では、プレーヤは、「声をかける」というコマンドCM3に対応するアイコンIC3を選択している。これにより、「声をかける」というコマンドCM3の効果が発動される。例えば、コマンドCM3には、「声をかける」に対応する言葉(例えば「おーい!」、「頑張ってるか?」、「勉強してるか?」)の音声データが対応づけられている。そして、コマンドCM3が発動すると、当該音声データの再生が行われ、その言葉(文)の音声が図1の音出力部192から出力される。或いは、その言葉(文)のテロップ等を、表示部220に表示してもよい。
また、コマンドが発動(コマンドの効果の発動)されると、キャラクタCHのゲームパラメータにも影響を与える。例えば、「声をかける」というコマンドCM3が発動されると、それに対応するキャラクタCHのゲームパラメータも変化する。
例えば図5(A)、図5(B)では、キャラクタCHの状態であるゲームパラメータの状態をプレーヤに伝えるための状態表示オブジェクトCPA(吹き出し)が表示されている。
この状態表示オブジェクトCPAにより、例えば図6に示すように、キャラクタCHの現在の心理状態、モチベーション、集中力、脈拍等がプレーヤに伝えられる。これらの心理状態、モチベーション、集中力、脈拍は、キャラクタCHのゲームパラメータとして用意されている。
キャラクタCHの心理状態は、例えば色などを用いて表現される。例えば本実施形態のゲームでは、レッスンの課題が出され、例えば所定時間が経過することでレッスンが終了する。そして、例えばレッスン終了時の課題の達成量に応じて、プレーヤのゲーム成績が決定される。例えばプレーヤのゲーム成績が高い場合には、例えば効果が高かったり、レア度の高いコマンド(アクション)のカードがプレーヤに付与される。
レッスンで出される各課題には、例えば赤、緑、青の属性が付与され、キャラクタCHの心理状態も、赤、緑、青の成分を有している。例えばキャラクタCHの心理状態が赤の成分が多い場合には、赤の属性の課題はすぐに消化できるが、緑、青の属性の課題は消化が遅い。同様に、キャラクタCHの心理状態が緑の成分が多い場合には、緑の属性の課題はすぐに消化できるが、赤、青の属性の課題は消化が遅い。例えば心理状態が紫であれば、赤や青の属性の課題はある程度消化しやすいが、緑の課題は消化が遅い。従って、プレーヤは、状態表示オブジェクトCPAに表示されるキャラクタCHの心理状態を見て、心理状態に合った属性の課題を消化させることで、達成される課題量が多くなり、レッスンを適正に完了できるようになる。
また図6に示すように、キャラクタCHにはモチベーション、集中力のゲームパラメータが設定されている。これらのモチベーション、集中力のゲームパラメータの値は、例えば0〜100(%)の間で変化し、その値が大きいほど、モチベーション、集中力が高くなる。モチベーションの値が高くなると、課題の消化速度が速くなり、例えばモチベーションの値が所定値以上になると、いわゆる「ノリノリタイム」になり、課題の消化速度が極めて高くなる。一方、集中力の値は、時間経過に応じて下がってゆくが、キャラクタCHの心理状態に応じて、その下がり度合いが大きくなったり、下がりにくくなったりする。また、集中力の値が所定値よりも低くなり、集中力が切れた状態になると、レッスンの休憩が必要になる。なお、休憩は、プレーヤの判断で、適宜、取ることができ、休憩を取ると、その時の心理状態(メンタル)によって、キャラクタCHの成長が確定する。休憩回数は、1回のゲームにおいて所定回数(例えば2〜3回)に制限される。
また図6の状態表示オブジェクトCPAの脈拍は、例えばキャラクタCHのプレーヤに対するドキドキ度や好感度を表すゲームパラメータとして機能する。例えばドキドキ度が高くなると、脈拍も高くなり、モチベーションが上がったり、集中力が下がりにくくなったり、課題の消化速度が速くなる。
2.3 位置関係情報等に応じたコマンドの効果の発動処理
さて、これまでのキャラクタ等を用いたコミュニケーションゲーム(人間関係シミュレーションゲーム)では、いわゆる2次元のゲームが主流であり、プレーヤとキャラクタとの位置関係や視線関係等の関係(3次元的な関係)は考慮されていなかった。
従って、例えば図4の「声をかける」というコマンドCM3をプレーヤが行使した場合に、プレーヤとキャラクタの距離が近くても、或いは遠くても、このコマンドCM3により発動される効果が、同じになってしまう。このため、プレーヤは、キャラクタとの距離感等を感じることができず、プレーヤの仮想現実感を向上できない。
また、例えば図4の「叱る」というコマンドCM2をプレーヤが行使した場合に、プレーヤがキャラクタの近くで、キャラクタの方に顔を向けていた場合も、或いはキャラクタの遠くにおいて、キャラクタの方に目を向けずにいた場合にも、コマンドCM2により発動される効果が、同じになってしまう。従って、現実世界において実際に「叱る」場合に感じる仮想現実感を、プレーヤに与えることができなかった。
また、例えば図4の「つつく」というコマンドCM4をプレーヤが行使した場合に、プレーヤがキャラクタの極めて近くにいた場合にも、或いはそれほど近い距離にいなかった場合にも、例えばキャラクタの同じ部位を「つつく」ようなコマンドの効果が発動してしまう。このため、プレーヤの意図する行動がゲームに反映されず、仮想現実感を向上できない。
そこで本実施形態では、プレーヤとキャラクタとの位置関係や視線関係や注視状況などに応じて、コマンドの効果を変化させる手法を採用している。例えば本実施形態では、プレーヤのゲームプレイの対象となるキャラクタの情報とプレーヤの視点情報とに応じたコマンドの効果を、発動させる。例えば、キャラクタの情報とプレーヤの視点情報とに応じて、コマンドの効果の度合いや、効果の内容を変化させる。具体的には、キャラクタの位置情報、方向情報、ゲームパラメータ情報、部位情報、姿勢情報又は種類情報であるキャラクタの情報と、プレーヤの視点位置情報、視線方向情報又は仮想カメラ属性情報である視点情報とに応じたコマンドの効果を、発動させる。別の言い方をすれば、プレーヤとキャラクタとの位置関係情報、プレーヤの視線とキャラクタとの関係を表す視線関係情報、或いはプレーヤの注視情報に応じたコマンドの効果を、発動させる処理を行う。
図7(A)〜図8(B)は、プレーヤPLとキャラクタCHとの位置関係情報に応じたコマンドの効果を、発動させる手法の説明図である。
例えば図7(A)、図7(B)では、プレーヤPLとキャラクタCHとの位置関係情報に応じて、コマンドの効果の度合いを変化させている。図7(A)、図7(B)では、位置関係情報は、プレーヤPLとキャラクタCHとの距離LCであり、この距離LCは、プレーヤPLの視点情報である視点位置VPと、キャラクタCHの情報である位置PCに基づき求められるものである。なお位置関係情報は、プレーヤPLの方向とキャラクタCHの方向の関係を表す情報であってもよい。
そして図7(A)、図7(B)では、プレーヤは「もっと集中!」というコマンドCM1を選択して、行使しているが、図7(A)ではプレーヤPLとキャラクタCHの距離LCは遠い(長い)。一方、図7(B)では距離LCは近い(短い)。
この場合に本実施形態では、図7(A)、図7(B)のようにプレーヤが同じコマンドCM1を行使したとしても、距離LCに応じて、コマンドCM1により発動される効果の度合いを変化させている。例えば、図7(A)では距離LCが遠いため、これに応じてコマンドCM1の効果の度合いは低くなり、図7(B)では距離LCが近いため、これに応じてコマンドCM1の効果の度合いは高くなる。
具体的には、「もっと集中!」というコマンドCM1が行使された場合に、図7(A)では、距離LCが遠いため、A1に示すように、キャラクタCHの集中力のゲームパラメータの上昇の度合いが小さい。
これに対して図7(B)では、距離LCが近いため、A2に示すように、キャラクタCHの集中力のゲームパラメータの上昇の度合いが大きくなる。
即ち、「もっと集中!」というコマンドCM1により発動される効果には、キャラクタCHのゲームパラメータである集中力を高めるという効果がある。そして図7(B)では、距離LCが近いため、コマンドCM1により発動される効果の度合いが高くなり、キャラクタCHのゲームパラメータである集中力の上昇度合いも高くなっている。
このようにすれば、プレーヤは、「もっと集中!」というコマンドCM1を行使する際に、キャラクタCHの近くに行って、当該コマンドCM1を行使することで、キャラクタCHの集中力を、より高めることが可能になる。従って、「もっと集中」という言葉を、キャラクタCHの近くに行って言ったような感覚を、プレーヤに与えることができ、プレーヤの仮想現実感を向上できる。
図8(A)、図8(B)は、プレーヤPLとキャラクタCHとの位置関係情報に応じて、コマンドの効果の内容を変化させている。即ち図7(A)、図7(B)では効果の度合いを変化させていたが、図8(A)、図8(B)では効果の内容を変化させている。
例えば図8(A)では、プレーヤは、キャラクタCHとの距離LCが遠い状態で、「声をかける」というコマンドCM3を行使している。この場合には、プレーヤの「声をかける」言葉として、例えば「おーい!」という音声が出力されたり、「おーい!」のテロップ(吹き出し)がゲーム画面上に表示される。
一方、図8(B)では、プレーヤは、キャラクタCHとの距離LCが近い状態で、「声をかける」というコマンドCM3を行使している。この場合には、プレーヤの「声をかける」言葉として、例えば「だいじょうぶか!」「頑張ってるか?」という言葉の音声が出力されたり、これらの言葉のテロップがゲーム画面上に表示される。
即ち、図8(A)では、「声をかける」というコマンドCM3の効果の内容が、「おーい!」という言葉の音声出力(テロップ表示)という内容になっている。これに対して、図8(B)では、距離LCが近づくことで、「だいじょうぶか!」「頑張ってるか?」という言葉の音声出力という内容に変化している。
このようにすれば、同じ「声をかける」というコマンドCM3であっても、プレーヤPLとキャラクタCHとの位置関係に応じて、そのコマンドの効果の内容が変化するようになる。従って、プレーヤの仮想現実感やゲーム表現のバラエティ度の向上等を図れるようになる。
図9(A)、図9(B)は、プレーヤPLとキャラクタCHとの視線関係情報に応じたコマンドの効果を、発動させる手法の説明図である。
例えば図9(A)、図9(B)では、プレーヤPLとキャラクタCHとの視線関係情報に応じて、コマンドの効果の度合いや効果の内容を変化させている。図9(A)、図9(B)では、視線関係情報は、プレーヤPLの視線方向VLと、キャラクタCHの位置PCや視線方向VLCとの関係を表す情報である。即ち、この視線関係情報は、プレーヤPLの視点情報である視線方向VLと、キャラクタCHの情報である位置PCや視線方向VLCに基づき求められるものである。
そして図9(A)、図9(B)では、プレーヤは「アドバイスをする」というコマンドCM5を選択して、行使しているが、図9(A)では、プレーヤPLの視線方向VLはキャラクタCHの位置PCの方向を向いていない。これに対して、図9(B)では、プレーヤPLの視線方向VLはキャラクタCHの位置PCの方向を向いている。また図9(A)では、プレーヤPLの視線方向VLとキャラクタCHの視線方向VLCは合っていない。これに対して図9(B)では、視線方向VLとVLCが合っている。即ち、図9(A)と図9(B)では、プレーヤPLとキャラクタCHの視線関係情報が異なっている。
この場合に本実施形態では、図9(A)、図9(B)のようにプレーヤが同じコマンドCM5を行使したとしても、視線関係情報に応じて、コマンドCM2により発動される効果の度合いや効果の内容を変化させている。
例えば、図9(A)の視線関係の場合には、「アドバイスをする」というコマンドCM5の発動による効果の内容として、「普通のアドバイス」が行われる。例えば、普通の口調で、平凡な内容のアドバイスが行われる。
そして、コマンドCM5による「普通のアドバイス」の効果として、キャラクタCHのゲームパラメータであるモチベーションは上昇するが、図9(A)では、B1に示すようにその上昇の度合いは小さい。
一方、図9(B)の視線関係の場合には、「アドバイスをする」というコマンドCM5の効果の内容として、「優しいアドバイス」が行われる。例えば、優しい口調で、やる気を出させるような内容のアドバイスが行われる。
そして、コマンドCM5による「優しいアドバイス」の効果として、キャラクタCHのモチベーションが上昇するが、図9(B)では、B2に示すようにその上昇の度合いが大きい。
このようにすれば、図9(A)のように、プレーヤがキャラクタCHの方を見ずに、目をそらして、「アドバイスする」のコマンドCM5を行使した場合に比べて、図9(B)に示すように、プレーヤがキャラクタCHの方をちゃんと見て、コマンドCM5を行使した場合の方が、より良い内容のアドバイスになると共に、アドバイスによる効果であるモチベーションの上昇度合いも大きくなる。従って、プレーヤは、あたかも目の前にいる異性に向かって、アドバイスの言葉をかけているような感覚を感じることができ、プレーヤの仮想現実感を大幅に向上できる。
図10〜図11(D)は、プレーヤの注視情報に応じたコマンドの効果を、発動させる手法の説明図である。
例えば図10では、プレーヤが注視しているキャラクタCHの部位の情報である注視部位情報に応じたコマンドの効果を、発動させている。
具体的には図10では、プレーヤは、アイコンIC4を選択して、「つつく」というコマンドCM4を行使している。
ここで、図10のC1に示すように、プレーヤがキャラクタCHの部位である肩を注視しながら、「つつく」というコマンドCM4を行使したとする。この場合には、プレーヤがキャラクタCHの肩をつつく場面を表現した画像(映像)が表示されるようになる。例えば、プレーヤの手(オブジェクト)が画面上に現れ、この手がキャラクタCHの肩をつつくという画像が表示される。
一方、図10のC2に示すように、プレーヤがキャラクタCHの部位である頭(おでこ)を注視しながら、「つつく」というコマンドCM4を行使したとする。この場合には、プレーヤがキャラクタCHの頭をつつく場面を表現した画像が表示されるようになる。例えば、プレーヤの手が画面上に現れ、この手がキャラクタCHの頭をつつくという画像が表示される。
このようにすれば、同じ「つつく」というコマンドCM4を行使した場合にも、プレーヤが注視するキャラクタCHの部位に応じて、異なる内容の動作の「つつく」が行われるようになる。そして、プレーヤが注視する部分に対して、プレーヤの動作が行われるようになるため、プレーヤは、実際にキャラクタCHをつついているような感覚を感じることができ、プレーヤの仮想現実感を向上できる。
なお、プレーヤが、キャラクタCHのどの部位を注視しているかは、プレーヤの視点情報である視線方向や視点位置と、キャラクタCHの情報であるキャラクタCHの位置やその部位の位置と基づいて、判定できる。具体的には、プレーヤの視点位置VPから視線VLの方向に線を延ばして、その線上にキャラクタCHの部位が位置していれば、プレーヤが、その部位を注視していると判定できる。
また図10では、プレーヤの注視部位情報に応じて、コマンドの効果を発動させているが、プレーヤがキャラクタCHを注視しているか否かの情報である注視有無情報に応じて、コマンドの効果を発動させてもよい。例えば、プレーヤがキャラクタCHを注視している状態でコマンドを行使した場合には、例えばキャラクタCHのモチベーションや集中力などのゲームパラメータの上昇度合いを高くする。一方、プレーヤがキャラクタCHを注視していない状態でコマンドを行使した場合には、例えばキャラクタCHのモチベーションや集中力などのゲームパラメータの上昇度合いを低くする。
また、注視情報としては、プレーヤがキャラクタを注視している時間を表す注視時間情報や、プレーヤの注視時におけるプレーヤとキャラクタとの間の距離を表す注視距離情報なども想定できる。本実施形態では、これらの注視時間情報や注視距離情報に応じてコマンドの効果を、発動させてもよい。
例えば図11(A)、図11(B)において、プレーヤPLがキャラクタCHを注視していると判定されると、注視有無フラグが立つ。この注視有無フラグが立っている期間が、注視時間TGとなる。
そして図11(A)では、注視時間TGが長いため、モチベーションや集中力などのゲームパラメータの上昇度合いが大きくなる。一方、図11(B)では、注視時間TGが短いため、モチベーションや集中力などのゲームパラメータの上昇度合いが小さくなる。
このようにすれば、プレーヤがキャラクタCHを見つめる時間が長いほど、コマンドにより発動される効果の度合いが上昇するようになる。従って、単に見つめたか否かだけではなく、見つめる時間も反映させた心理や感情の変化等を表現できるようになり、よりリアルなコミュニケーションゲームを実現できるようになる。
また図11(C)では、注視時におけるプレーヤPLとキャラクタCHとの距離である注視距離LGは短く、両者は近い距離で見つめ合っている。一方、図11(D)では注視距離LGは長く、プレーヤPLは遠い距離からキャラクタCHを見つめている。
そして図11(C)のように注視距離LGが短いと、モチベーションや集中力などのゲームパラメータの上昇度合いが大きくなる。一方、図11(D)のように注視距離LGが長いと、モチベーションや集中力などのゲームパラメータの上昇度合いが小さくなる。
このようにすれば、プレーヤが近くでキャラクタCHを見つめると、コマンドにより発動される効果の度合いが上昇するようになる。一方、プレーヤが遠くからキャラクタCHを見つめている場合には、コマンドにより発動される効果の度合いはそれほど上昇しなくなる。従って、単に見つめたか否かだけではなく、見つめた時のキャラクタCHとの距離も反映させた心理や感情の変化等を表現できるようになり、よりリアルなコミュニケーションゲームを実現できるようになる。
なお、以上では、キャラクタの情報とプレーヤの視点情報とに応じて、コマンドの効果の度合いや効果の内容を変化させる手法について説明したが、本実施形態は、これに限定されない。例えば後述する図14(C)に示すように、キャラクタの情報とプレーヤの視点情報とに応じて、プレーヤが選択したコマンドとは異なる別のコマンドの効果を発動させてもよい。
また本実施形態では、コマンドの効果の発動後、所与の期間内に、キャラクタの情報やプレーヤの視点情報が変化した場合に、コマンドの効果を変化させる処理を行っている。
例えば図12(A)では、前述したようにキャラクタの情報やプレーヤの視点情報に応じたコマンドの効果が発動している。例えば位置関係情報や視線関係情報や注視情報に応じたコマンドの効果が発動している。
そして、このようなコマンドの効果の発動後、所与の期間TCの経過前に、例えばキャラクタが移動するなどしてキャラクタの情報が変化したとする。或いは、プレーヤの視点情報が変化したとする。この場合に、本実施形態では、発動したコマンドの効果を変化させる処理を行う。例えばコマンドの効果の度合いを変化させたり、効果の内容を変化させる。或いは、発動したコマンドとは別のコマンドの効果を発動させる。
図12(B)は、図12(A)の手法の処理を説明するフローチャートである。まず、キャラクタの情報とプレーヤの視点情報を取得する(ステップS1)。キャラクタの情報は、キャラクタの位置、方向、ゲームパラメータ、部位、姿勢又は種類の情報等である。プレーヤの視点情報は、プレーヤの視点位置や視線方向等の情報である。これらの情報は、操作部160の操作情報や、HDM200のモーションセンサ210からの情報や、キャラクタのゲームパラメータの演算結果などに基づいて、取得できる。そして、これらキャラクタの情報とプレーヤの視点情報に応じたコマンドの効果を発動させる(ステップS2)。
このようにコマンドの効果が発動した後、所与の期間TCが経過したか否かを判断する(ステップS3)。この期間TCの長さは、発動したコマンドやゲーム状況に応じて変化させてもよい。そして期間TCの経過前に、例えばキャラクタが移動したり、プレーヤの視点位置が変化するなどして、プレーヤとキャラクタとの距離LCが、閾値距離LTH以下になった場合には、コマンドの効果を変化させる処理を行う(ステップS4、S5)。例えばステップS2で発動したコマンドの効果の度合いを増減したり、効果の内容を変化させたり、発動したコマンドとは別のコマンドの効果を発生させる。
図13(A)〜図14(C)は、図12(A)、図12(B)で説明したコマンドの効果の変化処理の具体例を示す図である。
例えば図13(A)では、プレーヤPLとキャラクタCHとの距離LCは遠く、この状態で、プレーヤが「声をかける」というコマンドCM3を行使している。この場合は、コマンドCM3の効果として、例えば「こっちにおいで!」という言葉が音声出力(或いはテロップ表示。以下でも同様)される。
その後、図13(B)では、キャラクタCHが、声をかけられたことによって、例えば「なーに?」という言葉を発して、プレーヤPLの方に近づいて来ている。これにより、プレーヤPLとキャラクタCHの距離LCが、図12(B)のステップS4の閾値距離LTH以下になると、図13(C)に示すように、図13(A)で発動した「声をかける」というコマンドCM3の効果の度合いが上昇し、キャラクタCHのモチベーションが更にアップする。また、コマンドCM3の効果の内容も変更され、例えば「本当によく頑張ったね!」という言葉が音声出力される。
また、図14(A)では、プレーヤPLとキャラクタCHとの距離LCは遠く、この状態で、プレーヤが「叱る」というコマンドCM2を行使している。この場合は、コマンドCM2の効果として、例えば「もっと勉強しなさい」という言葉が音声出力される。
その後、図14(B)では、キャラクタCHが、叱られたことによって、例えば「ごめーん」という言葉を発して、プレーヤPLの方に近づいて来ている。これにより、プレーヤPLとキャラクタCHの距離LCが閾値距離LTH以下になると、図14(C)に示すように、図14(A)で発動した「叱る」というコマンドCM2が、「慰める」という別のコマンドCM6に変化する。そして、この別のコマンドCM6の効果が発動して、例えば「言い過ぎちゃったね。頑張るんだよ」というキャラクタCHを慰める言葉が音声出力される。
以上のようにすれば、プレーヤが行使したコマンド(「叱る」、「声をかける」)に対して、キャラクタが反応して、近寄って来る行動等を起こし、その行動に反応して、自身が行使したコマンドも別コマンドに変更されるというような状況を、作り出すことができる。従って、あたかも本物の異性と互いに反応し合ってコミュニケーションを行っているような感覚を、プレーヤに与えることができ、仮想現実感を更に向上できるようになる。
また、本実施形態では、キャラクタの情報とプレーヤの視点情報に加えて、確率要素パラメータを用いて、コマンドの効果を発動させる処理を行う。
例えば図15(A)では、乱数を発生し、その乱数に基づき確率を設定する。具体的には確率要素パラメータPRの値を設定する。そして、キャラクタの情報とプレーヤの視点情報と確率要素パラメータPRとに基づいて、コマンドの効果を発動させるコマンド処理を実行する。即ち、コマンドの効果の発動処理に、確率要素(乱数要素)を与える。
例えば本実施形態では、前述のように、プレーヤとキャラクタの距離に応じて、発動されるコマンドの効果の度合いを変化させている。例えば図7(A)において、「もっと集中!」のコマンドCM1の効果が発動されると、キャラクタCHのゲームパラメータである集中力が上昇する。そして、コマンドCM1による集中力の上昇度合いは、図7(A)、図7(B)で説明したように、プレーヤPLとキャラクタCHとの距離LCに応じて変化する。例えば距離LCが近いほど、集中力の上昇度合いは大きくなる。
例えば図15(B)は、距離LCと、集中力の上昇度合いである効果変化率との関係を示している。ここで、確率要素パラメータがPR=1.0であるとすると、距離LCがLC1、LC2、LC3(LC1>LC2>LC3)である場合の集中力の上昇度合いである効果変化率は、各々、1.0、1.1、1.3となる。即ち、距離LCが近づくほど、効果変化率が高くなり、キャラクタCHの集中力の上昇度合いが高くなる。
そして本実施形態では、この効果変化率に対して確率要素パラメータPRを用いる。即ち、図15(B)に示すように、距離LCがLC1、LC2、LC3である場合の効果変化率を、各々、1.0×PR、1.1×PR、1.3×PRに設定する。そして、PRは、所定の範囲内(例えば0.5〜2.0の範囲)で乱数等に基づきその値が設定される。従って、距離LCがLC1、LC2、LC3である場合の効果変化率1.0×PR、1.1×PR、1.3×PRが、確率要素パラメータPRの値に応じて、ランダムに変化するようになる。従って、例えば図7(A)、図7(B)において、距離LCが同じであっても、確率要素パラメータPRの値に応じて、集中力の上昇度合いもランダムに変化するようになる。このように、コマンドの発動による効果の度合いをランダムに変化させることで、コマンドの効果の度合いが画一的になってしまうことが防止され、多様性のある発動結果が生じるため、ゲームの面白味等を向上できる。
なお図15(B)では、コマンドの効果の度合いに確率的要素を持たせる場合について説明したが、本実施形態はこれに限定されない。例えばコマンドにより発動する効果の発生率に対して、確率要素パラメータPRに基づく確率的要素を持たせてもよい。例えば図7(A)、図7(B)で、「もっと集中!」というコマンドCM1をプレーヤが行使した場合に、確率要素パラメータPRで設定される発生確率で、キャラクタCHの集中力が上昇するイベントが発生するようにする。このようにすれば、当該コマンドCM1を行使した場合にも、キャラクタCHの集中力が上昇するイベントが常に発生するとは限らなくなり、プレーヤのドキドキ感等が増し、ゲームの面白味等を向上できる。
2.4 アイコンの制御
本実施形態では、コマンドに対応して表示されるアイコンに対しても様々な制御を行っている。例えば、コマンドの効果の度合いや内容が変化した場合に、そのコマンドに対応するアイコンの表示態様を変化させる制御を行う。
例えば図16(A)、図16(B)では、プレーヤは「声をかける」というコマンドCM3に対応するアイコンIC3を選択している。この「声をかける」というコマンドCM3が行使されると、例えばキャラクタCHのモチベーションが上昇するという効果が発動する。そして図16(B)では、図16(A)に比べて、プレーヤがキャラクタCHに近づいており、コマンドの効果の度合いの変化であるモチベーションの上昇率が、最大限にアップしている。
そこで、これをプレーヤに効果的に伝えるために、コマンドCM3に対応するアイコンIC3の表示態様を変化させる。具体的には、アイコンIC3を点滅表示するなどして、当該アイコンIC3の視認性を高める表示処理を行う。
こうすることで、プレーヤは、図16(B)に示すようにキャラクタCHに接近した状態で、「声をかける」というコマンドCM3を行使すれば、キャラクタCHのモチベーションが大きく上昇することを、視覚的に認識できるようになる。従って、プレーヤにとって利便性が高く分かりやすいコマンド入力インターフェース等の実現が可能になる。
なお、図16(A)、図16(B)では、コマンドの効果の度合いが変化した場合に、そのコマンドに対応するアイコンの表示態様を変化させる場合について説明したが、本実施形態はこれに限定されない。例えば図8(A)、図8(B)のようにコマンドの効果の内容が変化した場合にも、アイコンの表示態様を変化させてもよい。或いは図14(C)のようにコマンドが別コマンドに変化した場合にも、アイコンの表示態様を変化させてもよい。
またアイコンの表示態様を変化させる処理としては、種々の表示処理を想定できる。例えば、アイコンの表示態様を変化させる処理としては、アイコンの色、形状、又は輝度を変化させたり、アニメーションなどの演出効果を付加するなどの種々の処理を想定できる。
また本実施形態では、キャラクタの情報やプレーヤの視点情報に応じて、アイコンの移動制御を行う手法を採用している。図17(A)はこの手法の処理を説明するフローチャートである。
まず、キャラクタの情報、プレーヤの視点情報を取得する(ステップS11)。即ち、キャラクタの位置、方向、ゲームパラメータ、部位、姿勢又は種類等のキャラクタの情報と、プレーヤの視点位置や視線方向等の視点情報を取得する。
そして、制御対象となるアイコンが第1のタイプのアイコンである場合には、当該アイコンに対しては第1の移動制御(第1のアイコン制御)を行う(ステップS12、S13)。一方、制御対象となるアイコンが第2のタイプのアイコンである場合には、当該アイコンに対しては第2の移動制御(第2のアイコン制御)を行う(ステップS14、S15)。
ここで、第1のタイプのアイコンは、例えばコマンドの効果が発動中のアイコンや、コマンドの効果が変化したアイコンや、キャラクタのゲームパラメータに関連する重要なアイコンなどである。一方、第2のタイプのアイコンは、これ以外のアイコンである。図17(A)に示すような処理を行うことで、効果発動中のアイコン、効果変化中のアイコン、ゲームパラメータ関連アイコンと、それ以外のアイコンとでは、異なる移動制御が行われるようになる。
例えば図17(B)に示すように、複数のコマンドの各コマンド(各アイコン)に対しては、発動フラグ、効果変化フラグ、ゲームパラメータ関連フラグなどの各種のフラグが対応づけられている。発動フラグは、効果が発動中のコマンド(アイコン)であることを示すフラグである。効果変化フラグは、効果が変化したコマンドであることを示すフラグである。ゲームパラメータ関連フラグは、キャラクタのゲームパラメータに関連するコマンドであることを示すフラグである。
これらのフラグを用いることで、コマンドの効果が発動中のアイコンや、コマンドの効果が変化したアイコンや、キャラクタのゲームパラメータに関連するアイコンと、それ以外のアイコンとで、異なる移動制御(アイコン制御)を行うことが可能になる。
例えば図18(A)では、プレーヤ(プレーヤの視点位置)とキャラクタCHとの距離は離れており、コマンドを発動するためのアイコンICA、ICB、ICC、ICDが、画面下部の真ん中付近に表示されている。
これに対して図18(B)では、プレーヤ(視点位置)がキャラクタCHに近づいており、キャラクタCHの顔がアップされて表示されている。このような場合に、図18(A)のようにアイコンICA、ICB、ICC、ICDの全てが画面下部の真ん中付近に表示されてしまうと、アイコンが邪魔になって、せっかくアップされたキャラクタCHの顔の一部等が見えなくなってしまう事態が生じる。
そこで図18(B)では、ゲームであまり重要でないアイコンICB、ICDについては、画面の端に移動させる移動制御を行っている。或いは、アイコンICB、ICDを、画面外に移動して、画面に表示しないようにする。
一方、コマンドの効果が発動中のアイコンICAや、コマンドの効果が変化したアイコンICCについては、移動せずにその位置に残す。或いは、例えばアイコンICAは左側に少しの距離(所定距離)だけ移動させ、アイコンICCは右側に少しの距離(所定距離)だけ移動させるが、画面の端には達しない位置(画面の端から所定距離だけ離れた位置)に移動させる。即ち、アイコンICB、ICDの移動距離に比べて、アイコンICA、ICCの移動距離を短くする。なお、キャラクタCHのゲームパラメータに関連するアイコン(重要なアイコン)についても、アイコンICA、ICCと同様な移動制御を行う。
このように、図18(A)、図18(B)では、アイコンICA、ICCと、アイコンICB、ICDとは、異なる移動制御が行われている。
なお、アイコンICAは、そのアイコンに対応するコマンドが行使されて、そのコマンドの効果が発動して継続中のアイコンである。アイコンICCは、例えばキャラクタの情報やプレーヤの視点情報に応じたコマンドの効果の発動処理が行われることで、コマンドの効果の度合いやコマンドの効果の内容が変化しているアイコンである。キャラクタのゲームパラメータに関連するアイコンは、そのアイコンに対応するコマンドが行使されると、そのコマンドの効果の発動によって、キャラクタの各種のゲームパラメータ(モチベーション、集中度、好感度等)が変化するアイコンであり、ゲーム進行において重要なアイコンである。
図18(A)、図18(B)のようなアイコンの移動制御を行えば、あまり重要ではないアイコンICB、ICDを画面の端に寄せることで、これらのアイコンICB、ICDによって、キャラクタCHのアップになった顔の一部等が、隠されてしまうなどの事態を抑制できる。また、重要なアイコンICA、ICCについては、画面下部の真ん中付近の位置に残すことで、プレーヤのコマンド入力の容易化等を図れるようになる。
また図19(A)では、コマンドの効果が発動中のアイコンICAや、コマンドの効果が変化したアイコンICCについても、画面の端に移動している。そして、これらのアイコンICA、ICCに対しては、図16(B)で説明した手法と同様に、その表示態様を変化させる処理を行っている。例えば、アイコンICA、ICCを点滅表示するなどして、その視認性を高める表示処理を行っている。
なお、この場合に、キャラクタCHのゲームパラメータに関連するアイコンについても、アイコンICA、ICCと同様に、画面の端に移動させる。そして、その視認性を高めるような表示処理を行うようにする。
一方、図18(B)に示すような重要ではないアイコンICB、ICDについては、例えば画面の外部に移動させて、画面に表示しないようにする。
このようにすれば、アイコンICA、ICCが画面の端に移動することで、これらのアイコンが邪魔になって、アップになったキャラクタCHの顔の一部等が見えなくなってしまうのを抑制できる。そして、画面の端に移動させたアイコンICA、ICCの表示態様を変化させて、視認性を高めれば、プレーヤのコマンド入力の容易化等も図れるようになる。
なお、図19(B)に示すように、例えばプレーヤがキャラクタCHに近づいて、キャラクタCHの顔等がアップした状況等においては、発動中や効果変化中の重要なアイコンICA、ICCについても、画面から消去するようにしてもよい。そして図19(B)に示すように、アイコンICA、ICCのコマンドが発動中、効果変化中であることを知らせる通知表示を行うようにする。或いは、アイコンICA、ICCのコマンドが発動中、効果変化中であることを、画像ではなくて、音声で知らせるようにする。このようにすることで、プレーヤがキャラクタCHに近づいて、プレーヤの仮想現実感が高まった状態になった時に、アイコンが表示されることで当該仮想現実感が低下してしまうような事態を抑制できる。
2.5 変形例
以上では、コマンドの効果の度合いや内容等を変化させるためのキャラクタの情報として、キャラクタの位置情報や方向情報を用いる場合について主に例にとり説明したが、本実施形態では、このようなキャラクタの情報として、キャラクタのゲームパラメータ情報、部位情報、姿勢情報、又は種類情報などを用いることができる。
例えば、コマンドの効果の度合いや内容等を変化させるキャラクタの情報は、キャラクタのパラメータ情報であってもよい。例えば、「アドバイスする」というコマンドCM5をプレーヤが行使した場合に、キャラクタCHのゲームパラメータであるモチベーションや集中力が高ければ、当該コマンドCM5の効果の度合いを、より高くする。例えば、キャラクタCHの課題の達成量を増加させたり、モチベーションや集中力以外の他のゲームパラメータ(例えば好感度、親密度、ときめき度等)の増加値を大きくする。
また、コマンドの効果の度合いや内容等を変化させるキャラクタの情報は、キャラクタの部位情報や姿勢情報であってもよい。
例えば図20(A)、図20(B)に示すように、キャラクタCHのモデルオブジェクトは、複数の部位P1〜P15(部位オブジェクト)により構成される。これらの部位P1〜P15の位置や方向は、モデルオブジェクトのスケルトンの形状を設定するモーションデータなどに基づいて特定される。例えばキャラクタCHの代表位置が求められると、この代表位置とモーションデータとに基づいて、部位P1〜P15の位置や方向が特定される。そして、前述の図10において、プレーヤの注視部位(肩、頭等)を特定するために、キャラクタCHの部位の位置等の部位情報を用いる。例えば、プレーヤの視点位置や視線方向と、キャラクタCHの部位の位置等を特定できれば、キャラクタCHの複数の部位P1〜P15のうちの、どの部位に対して、プレーヤが注視しているのかを判定できる。そして、前述したように、プレーヤが注視する部位に応じて、コマンドの効果の度合いや内容等を変化させる処理を行う。
また、キャラクタCHの姿勢情報は、図20(A)、図20(A)の部位P1〜P15の位置や方向に基づき特定できる。例えば図20(A)と図20(B)とでは、部位P1〜P15の位置や方向が異なっているため、キャラクタCHの姿勢も異なっている。具体的には、キャラクタCHのモデルオブジェクトのモーションデータに基づいて、キャラクタCHの姿勢情報を特定できる。そして、例えば「もっと集中!」という同じコマンドCM1をプレーヤが行使した場合でも、キャラクタCHの姿勢が、座っている姿勢である場合と、立っている姿勢である場合とで、そのコマンドCM1の効果の度合い等を異ならせる。例えば、座っている姿勢である場合には、コマンドCM1によるキャラクタCHの集中力の増加値は大きくなり、立っている姿勢である場合には、コマンドCM1によるキャラクタCHの集中力の増加値は小さくなる。
また、コマンドの効果の度合いや内容等を変化させるキャラクタの情報は、キャラクタの種類情報であってもよい。種類情報は、キャラクタCHのタイプや属性と呼ばれるものである。例えば、同じ「叱る」というコマンドCM2をプレーヤが行使した場合でも、キャラクタCHの種類(タイプ)が、活発タイプであれば、キャラクタCHのゲームパラメータであるモチベーションの値は上昇するが、真面目タイプであれば、意気消沈して、モチベーションの値があまり上昇しなかったり、逆に減少する。
また、例えば同じ「声をかける」というコマンドCM3をプレーヤが行使した場合でも、キャラクタCHが種類(タイプ)が、美形(良い容姿)のタイプである場合には、「声をかける」のコマンドCM3の効果として発話されるプレーヤの音声は、例えば緊張によって上ずったり、声が震えたりする。即ち、キャラクタCHの種類情報に応じて、発動されたコマンドの効果の内容が変化する。
また本実施形態では、プレーヤの視点情報が変化した場合にも、表示画面の特定の位置にコマンドに対応するアイコンが表示されるように、アイコンの表示処理を行う。そして、キャラクタCHがプレーヤの視野範囲にないと判断される場合には、コマンドに対応するアイコンを非表示にする表示処理を行う。
例えば図21(A)と図21(B)とでは、プレーヤの視点位置や視線方向などの視点情報が異なっている。例えば図21(A)に比べて、図21(B)では、プレーヤの視点位置はキャラクタCHに近づいており、プレーヤの視線方向も図21(A)と図21(B)では異なっている。例えば図2のようにプレーヤがHMD200を頭部に装着してゲームを行う場合に、HMD200のモーションセンサ210等により特定されるプレーヤの視線方向や視点位置等の視線情報は頻繁に変化することになる。
そして本実施形態では、このようにプレーヤの視点情報が変化した場合にも、図21(A)のG1、図21(B)のG2に示すように、コマンドに対応するアイコンIC1、IC2、IC3は、表示画面(ゲーム画面)の特定の位置に固定的に表示される。即ち、図21(A)と図21(B)とでは、プレーヤの視点位置や視線方向は異なるが、G1、G2に示すようにアイコンIC1、IC2、IC3は、常に同じ特定の位置に表示される。
このようにすれば、例えばプレーヤがコマンドの効果を発動するために、アイコンIC1、IC2、IC3のいずれかを選択する場合に、プレーヤはアイコンIC1、IC2、IC3の位置を容易に把握できる。即ち、アイコンIC1、IC2、IC3が特定の位置に固定的に表示されているため、プレーヤは、混乱することなく所望のアイコンを選択して、そのアイコンに対応するコマンドの効果を発動させることができる。
このように本実施形態では、プレーヤの視点位置や視線方向に追従するように、コマンドに対応するアイコンIC1、IC2、IC3を表示する処理を行っている。
一方、図22では、図21(A)、図21(B)では見えていたキャラクタCHが、プレーヤの視野範囲内に入っていない。即ち、表示画面にはキャラクタCHが表示されていない。
このような場合には、図22のH1に示すように、図21(A)、図21(B)で表示されていたアイコンIC1、IC2、IC3を非表示にする。即ち、表示画面からアイコンIC1、IC2、IC3の表示を消す。
例えば図22は、キャラクタCHに催促されて、プレーヤが本棚の本を探しに行く場面である。このような場合にアイコンIC1、IC2、IC3が画面上に表示されてしまうと、これらのアイコンIC1、IC2、IC3がプレーヤの視界の妨げとなって、プレーヤが本を探すのが難しくなってしまう。
一方、アイコンIC1、IC2、IC3は、キャラクタCHとのコミュニケーションのためのコマンド効果の発動のために使用されるものであるため、図22のような状況では、これらのアイコンIC1、IC2、IC3の必要性は低い。従って、このような状況では、視界の邪魔となるアイコンIC1、IC2、IC3を非表示にすることで、プレーヤのゲームへの没入感等も向上できるようになる。
2.6 処理例
次に本実施形態の処理例について図23のフローチャートを用いて説明する。
まず、コマンドの受け付け処理を行う(ステップS21)。例えば図4に示すような複数のコマンドからデッキが編成され、そのデッキを構成する複数のコマンドの中から、プレーヤが行使するコマンドを選択すると、当該コマンドを受け付ける処理を行う。
次に、キャラクタの情報とプレーヤの視点情報を取得する(ステップS22)。即ち、キャラクタの位置、方向(視線方向、向く方向等)、或いはキャラクタのゲームパラメータなどの情報と、プレーヤの視点位置、視線方向、或いは仮想カメラ属性などの情報を取得する。例えばHMD200のモーションセンサ200や撮像部150や操作部160からの検出信号や、記憶部170からの読み出されたデータなどに基づいて、これらの情報を取得する。
次に、プレーヤとキャラクタの位置関係情報、プレーヤとキャラクタの視線関係情報、プレーヤの注視情報、確率要素パラメータに応じてコマンドの効果の発動処理を行う(ステップS23)。即ち、これらの情報に応じてコマンドの効果の度合いや内容を変化させる。具体的には図7(A)〜図15(B)等で説明した処理を行う。そして、コマンドに対応するアイコンの表示制御、移動制御を行う(ステップS24)。即ち、図16(A)〜図19(B)で説明したようなアイコンの表示制御、移動制御等の種々のアイコン制御を実行する。
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、コマンドの受け付け処理、コマンドの効果の発動処理、ゲーム処理、アイコンの表示制御、アイコンの移動制御等も本実施形態で説明したものに限定されず、これらと均等な手法・処理も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲームシステム、家庭用ゲームシステム、多数のプレーヤが参加する大型アトラクションシステム、シミュレータ、マルチメディア端末、ゲーム画像を生成するシステムボード、携帯電話機等の種々のゲーム装置に適用できる。例えばゲーム装置は、ゲームのプログラムがインストールされて実行される携帯電話機や携帯型情報端末であってもよい。
CM1〜CM10 コマンド、IC1〜IC3、ICA〜ICD アイコン、
PL プレーヤ、CH キャラクタ、CPA 状態表示オブジェクト、
LC 距離、VL プレーヤの視線、VP プレーヤの視点、PC キャラクタの位置、
VLC キャラクタの視線、TC 期間、TG 注視時間、LG 注視距離、
100 処理部、101 コマンド受け付け部、102 情報取得部、
104 ゲーム処理部、105 コマンド処理部、106 ゲームパラメータ処理部、
107 ゲーム進行処理部、108 ゲーム成績演算部、109 アイコン制御部、
110 オブジェクト空間設定部、112 仮想カメラ制御部、
120 表示処理部、130 音処理部、150 撮像部、151、152 カメラ、
160 操作部、170 記憶部、172 ゲームパラメータ記憶部、
172 アイコン情報記憶部、174 オブジェクトデータ記憶部、
176 描画バッファ、180 情報記憶媒体、192 音出力部、
194 補助記憶装置、196 通信部、
200 HMD、210 モーションセンサ、220 表示部、230 発光部、
231〜236 LED、240 処理部、260 ヘッドバンド、
270 ヘッドホン

Claims (18)

  1. 複数のコマンドの中から、頭部装着型表示装置を装着するプレーヤが選択したコマンドを受け付けるコマンド受け付け部と、
    前記プレーヤのゲームプレイの対象となるキャラクタを含む複数のオブジェクトが配置されるオブジェクト空間の設定処理を行うオブジェクト空間設定部と、
    前記オブジェクト空間内での前記プレーヤの視点位置の情報である視点位置情報と前記プレーヤの視線方向の情報である視線方向情報とを、前記プレーヤの視点情報として取得する情報取得部と、
    受け付けられたコマンドの効果を発動させる処理として、前記キャラクタの情報と前記プレーヤの視点情報とに応じたコマンドの効果を発動させる処理を行うゲーム処理部と、
    前記オブジェクト空間において前記プレーヤの視点に対応する仮想カメラから見えるゲーム画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部として、
    コンピュータを機能させ、
    前記表示処理部は、
    前記複数のコマンドに対応する複数のアイコンを前記ゲーム画像に表示する処理を行い、
    前記コマンド受け付け部は、
    操作部を用いた前記プレーヤの操作又は前記頭部装着型表示装置を装着する前記プレーヤの頭部の動きに基づき、前記複数のアイコンの中からアイコンが選択された場合に、選択されたアイコンに対応するコマンドを、前記プレーヤが選択したコマンドとして受け付け、
    前記ゲーム処理部は、
    前記プレーヤが選択したコマンドの効果を発動させる際に、前記オブジェクト空間内での前記プレーヤの視点位置と前記キャラクタの位置との位置関係情報に応じてコマンドの効果の度合いを変化させることを特徴とするプログラム。
  2. 請求項において、
    前記表示処理部は、
    前記位置関係情報に応じてコマンドの効果の度合い変化した場合に、前記複数のアイコンのうち、コマンドの効果の度合いが変化したコマンドに対応するアイコンの表示態様を変化させることを特徴とするプログラム。
  3. 請求項2において、
    前記表示処理部は、
    前記表示態様を変化させる処理として、前記複数のアイコンのうち、コマンドの効果の度合いが変化したコマンドに対応するアイコンの視認性を高める処理を行うことを特徴とするプログラム。
  4. 請求項1乃至3のいずれかにおいて、
    前記複数のコマンドは、前記キャラクタに対する前記プレーヤのアクションを指定するコマンドであり、
    前記ゲーム処理部は、
    前記プレーヤが選択したコマンドの効果の発動により前記キャラクタのゲームパラメータが変化する場合に、前記位置関係情報に応じた前記ゲームパラメータの変化処理を行うことを特徴とするプログラム。
  5. 請求項1乃至4のいずれかにおいて、
    前記ゲーム処理部は、
    前記プレーヤの視線と前記キャラクタとの関係を表す視線関係情報に応じたコマンドの効果を、発動させる処理を行うことを特徴とするプログラム。
  6. 請求項1乃至のいずれかにおいて、
    前記ゲーム処理部は、
    前記プレーヤの注視情報に応じたコマンドの効果を、発動させる処理を行うことを特徴とするプログラム。
  7. 請求項において、
    前記ゲーム処理部は、
    前記プレーヤが注視している前記キャラクタの部位の情報である注視部位情報、前記プレーヤが前記キャラクタを注視しているか否かの情報である注視有無情報、前記プレーヤが前記キャラクタを注視している時間を表す注視時間情報、及び前記プレーヤの注視時における前記キャラクタとの間の距離を表す注視距離情報の少なくとも1つである前記注視情報に応じたコマンドの効果を、発動させる処理を行うことを特徴とするプログラム。
  8. 請求項1乃至のいずれかにおいて、
    前記キャラクタの情報は、前記キャラクタの位置情報、方向情報、ゲームパラメータ情報、部位情報、姿勢情報、及び種類情報の少なくとも1つであり、前記視点情報は、前記プレーヤの視点位置情報、視線方向情報、及び仮想カメラ属性情報の少なくとも1つであることを特徴とするプログラム。
  9. 請求項1乃至のいずれかにおいて、
    前記ゲーム処理部は、
    前記キャラクタの情報と前記プレーヤの視点情報とに応じて、マンドの効果の内容変化させる処理を行うことを特徴とするプログラム。
  10. 請求項1乃至のいずれかにおいて、
    前記ゲーム処理部は、
    前記キャラクタの情報と前記プレーヤの視点情報とに応じて、プレーヤが選択したコマンドとは異なる別のコマンドの効果を発動させる処理を行うことを特徴とするプログラム。
  11. 請求項1乃至10のいずれかにおいて、
    前記ゲーム処理部は、
    前記キャラクタの情報と前記プレーヤの視点情報とに応じたコマンドの効果が発動した後、所与の期間内に、前記キャラクタの情報又はプレーヤの前記視点情報が変化した場合に、発動したコマンドの効果を変化させる処理を行うことを特徴とするプログラム。
  12. 請求項1乃至11のいずれかにおいて、
    前記ゲーム処理部は、
    前記キャラクタの情報と前記プレーヤの視点情報と確率要素パラメータとに基づいて、コマンドの効果を発動させる処理を行うことを特徴とするプログラム。
  13. 請求項1乃至12のいずれかにおいて、
    記ゲーム処理部は、
    前記キャラクタの情報及びプレーヤの前記視点情報の少なくとも一方に応じて、前記複数のアイコンの移動制御を行うことを特徴とするプログラム。
  14. 請求項1乃至12のいずれかにおいて、
    前記ゲーム処理部は、
    前記複数のアイコンのうち、第1のタイプのアイコンについては、第1の移動制御を行い、第2のタイプのアイコンについては、前記第1の移動制御とは異なる第2の移動制御を行うことを特徴とするプログラム。
  15. 請求項1乃至12のいずれかにおいて、
    前記ゲーム処理部は、
    前記複数のアイコンのうち、コマンドの効果が発動中のアイコン、又はコマンドの効果が変化したアイコン、又は前記キャラクタのゲームパラメータに関連するアイコンと、それ以外のアイコンとでは、異なる移動制御を行うことを特徴とするプログラム。
  16. 請求項1乃至15のいずれかにおいて、
    前記表示処理部は、
    前記プレーヤの視点情報が変化した場合にも、表示画面の特定の位置にコマンドに対応するアイコンが表示されるように、アイコンの表示処理を行うことを特徴とするプログラム。
  17. 請求項16において、
    前記表示処理部は、
    前記キャラクタが前記プレーヤの視野範囲にないと判断される場合には、コマンドに対応するアイコンを非表示にする表示処理を行うことを特徴とするプログラム。
  18. 複数のコマンドの中から、頭部装着型表示装置を装着するプレーヤが選択したコマンドを受け付けるコマンド受け付け部と、
    前記プレーヤのゲームプレイの対象となるキャラクタを含む複数のオブジェクトが配置されるオブジェクト空間の設定処理を行うオブジェクト空間設定部と、
    前記オブジェクト空間内での前記プレーヤの視点位置の情報である視点位置情報と前記プレーヤの視線方向の情報である視線方向情報とを、前記プレーヤの視点情報として取得する情報取得部と、
    受け付けられたコマンドの効果を発動させる処理として、前記キャラクタの情報と前記プレーヤの視点情報とに応じたコマンドの効果を発動させる処理を行うゲーム処理部と、
    前記オブジェクト空間において前記プレーヤの視点に対応する仮想カメラから見える画像を、前記頭部装着型表示装置に表示する処理を行う表示処理部と、
    を含み、
    前記表示処理部は、
    前記複数のコマンドに対応する複数のアイコンを前記ゲーム画像に表示する処理を行い、
    前記コマンド受け付け部は、
    前記複数のアイコンの中から、操作部を用いた前記プレーヤの操作又は前記頭部装着型表示装置を装着する前記プレーヤの頭部の動きに基づきアイコンが選択された場合に、選択されたアイコンに対応するコマンドを、前記プレーヤが選択したコマンドとして受け付け、
    前記ゲーム処理部は、
    前記プレーヤが選択したコマンドの効果を発動させる際に、前記オブジェクト空間内での前記プレーヤの視点位置と前記キャラクタの位置との位置関係情報に応じてコマンドの効果の度合いを変化させることを特徴とするゲームシステム。
JP2015073080A 2015-03-31 2015-03-31 プログラム及びゲームシステム Active JP6691351B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015073080A JP6691351B2 (ja) 2015-03-31 2015-03-31 プログラム及びゲームシステム
US15/073,046 US10183220B2 (en) 2015-03-31 2016-03-17 Image generation device and image generation method
CN201610191675.8A CN106023289B (zh) 2015-03-31 2016-03-30 图像生成系统及图像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015073080A JP6691351B2 (ja) 2015-03-31 2015-03-31 プログラム及びゲームシステム

Publications (2)

Publication Number Publication Date
JP2016189999A JP2016189999A (ja) 2016-11-10
JP6691351B2 true JP6691351B2 (ja) 2020-04-28

Family

ID=57015123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015073080A Active JP6691351B2 (ja) 2015-03-31 2015-03-31 プログラム及びゲームシステム

Country Status (3)

Country Link
US (1) US10183220B2 (ja)
JP (1) JP6691351B2 (ja)
CN (1) CN106023289B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6832061B2 (ja) * 2015-12-29 2021-02-24 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
JP6212667B1 (ja) * 2016-12-26 2017-10-11 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
JP6892262B2 (ja) * 2016-12-26 2021-06-23 株式会社コーエーテクモゲームス ゲームプログラム、記録媒体、ゲーム処理方法
JP6623425B2 (ja) * 2017-02-10 2019-12-25 株式会社コナミデジタルエンタテインメント ゲームシステム、ゲーム制御装置、及びプログラム
JP6918630B2 (ja) * 2017-08-16 2021-08-11 株式会社コロプラ 情報処理方法、プログラム及びコンピュータ
US11351453B2 (en) * 2017-09-12 2022-06-07 Sony Interactive Entertainment LLC Attention-based AI determination of player choices
CN108090561B (zh) * 2017-11-09 2021-12-07 腾讯科技(成都)有限公司 存储介质、电子装置、游戏操作的执行方法和装置
US10981067B2 (en) * 2018-02-06 2021-04-20 Gree, Inc. Game processing system, method of processing game, and storage medium storing program for processing game
JP7211778B2 (ja) * 2018-11-28 2023-01-24 グリー株式会社 アプリケーション処理システム、アプリケーション処理方法、及びアプリケーション処理プログラム
JP6908573B2 (ja) * 2018-02-06 2021-07-28 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
EP3520868A1 (en) * 2018-02-06 2019-08-07 Gree, Inc. Game processing system, method of processing game, and program for processing game
JP6691151B2 (ja) * 2018-02-06 2020-04-28 グリー株式会社 ゲーム処理システム、ゲーム処理方法、及びゲーム処理プログラム
CN116328317A (zh) 2018-02-06 2023-06-27 日本聚逸株式会社 应用处理系统、应用处理方法以及应用处理程序
CN109364478B (zh) 2018-09-07 2022-08-23 深圳市腾讯信息技术有限公司 信息同步方法、装置及存储介质
US10569174B1 (en) 2018-09-27 2020-02-25 Microsoft Licensing Technology, LLC Implementing a graphical overlay for a streaming game based on current game scenario
JP7123736B2 (ja) * 2018-10-23 2022-08-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7330242B2 (ja) 2021-09-21 2023-08-21 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラムおよび情報処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002028371A (ja) * 1996-11-21 2002-01-29 Konami Co Ltd サッカーゲーム装置におけるpk合戦用のカーソル表示装置、カーソル表示方法及びカーソル表示を行うプログラムを記憶した媒体
JP3249492B2 (ja) * 1999-06-30 2002-01-21 株式会社スクウェア コンピュータ読み取り可能な記録媒体、ゲームの制御方法およびゲーム装置
JP2001162041A (ja) 1999-12-13 2001-06-19 Enix Corp ビデオゲーム装置およびプログラムを格納した記録媒体
US6559863B1 (en) * 2000-02-11 2003-05-06 International Business Machines Corporation System and methodology for video conferencing and internet chatting in a cocktail party style
US7137891B2 (en) * 2001-01-31 2006-11-21 Sony Computer Entertainment America Inc. Game playing system with assignable attack icons
JP3611807B2 (ja) * 2001-07-19 2005-01-19 コナミ株式会社 ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム
JP3961419B2 (ja) 2002-12-27 2007-08-22 株式会社バンダイナムコゲームス ゲーム装置、ゲーム制御プログラムおよびそのプログラムが記録された記録媒体
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
JP2006163009A (ja) * 2004-12-08 2006-06-22 Nikon Corp 映像表示方法
US9250703B2 (en) * 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
JP5539945B2 (ja) * 2011-11-01 2014-07-02 株式会社コナミデジタルエンタテインメント ゲーム装置、及びプログラム
US9248370B2 (en) * 2012-05-25 2016-02-02 Phillip B. Summons Targeting system and method for video games
JP2013258614A (ja) * 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
US9039180B2 (en) * 2012-12-11 2015-05-26 Elwah LLC Self-aligning unobtrusive active eye interrogation
EP2983139A4 (en) * 2013-04-04 2016-12-28 Sony Corp IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
JP6313432B2 (ja) * 2013-06-09 2018-04-18 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイ
US9244539B2 (en) * 2014-01-07 2016-01-26 Microsoft Technology Licensing, Llc Target positioning with gaze tracking

Also Published As

Publication number Publication date
US10183220B2 (en) 2019-01-22
CN106023289B (zh) 2021-05-18
CN106023289A (zh) 2016-10-12
JP2016189999A (ja) 2016-11-10
US20160287994A1 (en) 2016-10-06

Similar Documents

Publication Publication Date Title
JP6691351B2 (ja) プログラム及びゲームシステム
US11094106B2 (en) Simulation system, processing method, and information storage medium for changing a display object in response to a movement of a field of view
JP6306442B2 (ja) プログラム及びゲームシステム
EP3398666B1 (en) Game apparatus, processing method, and information storage medium
JP6298130B2 (ja) シミュレーションシステム及びプログラム
US20190217202A1 (en) Simulation system, process method, and information storage medium
WO2018124280A1 (ja) シミュレーションシステム、画像処理方法及び情報記憶媒体
JP7041888B2 (ja) シミュレーションシステム及びプログラム
JP2019175323A (ja) シミュレーションシステム及びプログラム
Martin A phenomenological account of the playing-body in avatar-based action games
JP2019139424A (ja) シミュレーションシステム及びプログラム
JP2009070076A (ja) プログラム、情報記憶媒体及び画像生成装置
JP2019152899A (ja) シミュレーションシステム及びプログラム
JP6794390B2 (ja) シミュレーションシステム及びプログラム
JP7305599B2 (ja) プログラム
JP6622832B2 (ja) プログラム及びゲームシステム
CN109416614A (zh) 应用程序控制程序、应用程序控制方法以及应用程序控制系统
EP3946659A1 (en) Peripersonal boundary-based augmented reality game environment
JP6419268B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP5479503B2 (ja) プログラム、情報記憶媒体及び画像生成装置
JP2019175322A (ja) シミュレーションシステム及びプログラム
Chowdhury et al. Foveated Haptic Gaze
JP2009066124A (ja) プログラム、情報記憶媒体及び画像生成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200410

R150 Certificate of patent or registration of utility model

Ref document number: 6691351

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250