JP6678566B2 - ゲームプログラム、記録媒体、ゲーム処理方法 - Google Patents

ゲームプログラム、記録媒体、ゲーム処理方法 Download PDF

Info

Publication number
JP6678566B2
JP6678566B2 JP2016252003A JP2016252003A JP6678566B2 JP 6678566 B2 JP6678566 B2 JP 6678566B2 JP 2016252003 A JP2016252003 A JP 2016252003A JP 2016252003 A JP2016252003 A JP 2016252003A JP 6678566 B2 JP6678566 B2 JP 6678566B2
Authority
JP
Japan
Prior art keywords
virtual camera
user
virtual
camera
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016252003A
Other languages
English (en)
Other versions
JP2018102588A5 (ja
JP2018102588A (ja
Inventor
和輝 野田
和輝 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Games Co Ltd
Original Assignee
Koei Tecmo Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Games Co Ltd filed Critical Koei Tecmo Games Co Ltd
Priority to JP2016252003A priority Critical patent/JP6678566B2/ja
Priority to US15/853,854 priority patent/US10525352B2/en
Publication of JP2018102588A publication Critical patent/JP2018102588A/ja
Publication of JP2018102588A5 publication Critical patent/JP2018102588A5/ja
Application granted granted Critical
Publication of JP6678566B2 publication Critical patent/JP6678566B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5252Changing parameters of virtual cameras using two or more virtual cameras concurrently or sequentially, e.g. automatically switching between fixed virtual cameras when a character changes room or displaying a rear-mirror view in a car-driving game
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ゲームプログラム、当該ゲームプログラムが記録された記録媒体、及びゲーム処理方法に関する。
従来、ディスプレイ装置に表示される三次元映像の視点を変化させる技術が知られている。例えば特許文献1には、ユーザにより操作される切替手段と、切替手段からの信号に基づいて予め設定された複数の視点の情報の中から1つの視点の情報を選択し、その選択した視点に基づき表示手段に表示対象を表示する演算処理手段と、を有する電子遊戯機器が記載されている。
特開平7−116343号
例えばシミュレーションゲームやロールプレイングゲーム等において、一人称視点の画像を生成することにより、仮想空間内でユーザが所定のイベント等を体験することが可能なゲームが知られている。
一方、上記従来技術は、ドライビングゲームにおいてプレイヤキャラクタであるドライバーの視点以外に、自車の後方からの視点、自車の後部上方からの視点等が切替可能に設定されており、いわゆる三人称視点によるゲームである。このため、上述のような一人称視点のゲームへの適用は考慮されておらず、よりリアリティのある仮想空間を体験可能なゲームが要望されていた。
本発明はこのような問題点に鑑みてなされたものであり、仮想空間のリアリティを向上することが可能なゲームプログラム、記録媒体、及びゲーム処理方法を提供することを目的とする。
上記目的を達成するために、本発明のゲームプログラムは、情報処理装置を、仮想的な3次元空間内において一人称視点の画像を生成するための仮想カメラの位置を、予め設定された複数の位置の中でユーザの操作入力に基づいて切り替えるカメラ位置切替処理部、前記仮想カメラの方向を、前記ユーザの操作入力に基づいて制御するカメラ方向制御処理部、前記カメラ位置切替処理部により前記仮想カメラの位置が切り替えられた際に、前記仮想的な3次元空間内に存在する所定のオブジェクトと前記仮想カメラとの位置関係に基づいて、前記カメラ方向制御処理部により制御される前記仮想カメラの方向を補正するカメラ方向補正処理部、として機能させる。
本発明では、ユーザは操作入力により、一人称視点の画像を生成するための仮想カメラの位置(視点の位置)を、予め設定された複数の位置の間で所望の位置に切り替えることができると共に、仮想カメラの方向(視線の方向)を所望の方向に制御することができる。これにより、ユーザは仮想空間内に存在するオブジェクトを色々な方向から眺めることができる。このとき、仮想カメラの位置が切り替えられた際に、仮想カメラの方向が仮想空間内に存在する所定のオブジェクトと仮想カメラとの位置関係に基づいて補正される。これにより、例えばユーザが仮想カメラの位置を切り替えた際(視点の位置を切り替えた際)に常にオブジェクトが正面となるように視線方向を補正することが可能となるので、ユーザが方向が分からなくなりオブジェクトを見失うこと等を防止できる。さらに、仮想空間内でオブジェクトと常に一緒にいる雰囲気を演出することが可能となるので、オブジェクトの存在感をより現実的とすることができる。したがって、仮想空間のリアリティを向上できる。
また、本発明のゲームプログラムは、好ましくは、前記カメラ方向補正処理部は、前記仮想的な3次元空間内において、鉛直方向から見た前記仮想カメラの方向が前記オブジェクトを正面とする方向となるように、前記仮想カメラの方向を補正する。
これにより、仮想カメラの方向を補正する際に、仮想空間内における水平面に対する仰俯角については考慮せずに、鉛直軸周りの回転角のみを補正の対象とすることができる。その結果、仮想カメラがオブジェクトに対して上方向や下方向を向いているにも関わらず、カメラ位置を切り替えるとオブジェクトが正面となるといった不自然な表示を防止でき、仮想空間のリアリティが低下するのを防止できる。特に、VR(バーチャルリアリティ)対応のゲームとする場合に、ユーザの正面方向と仮想空間内の空や地面等との位置関係がおかしくなり、ユーザがいわゆるVR酔いを起こすのを抑制できる。
また、本発明のゲームプログラムは、好ましくは、前記情報処理装置は、前記ユーザの頭部に装着可能に構成され、前記画像を表示する表示部と、前記頭部の方向を検出する方向検出部と、信号の送受信を行うように構成されており、前記カメラ方向制御処理部は、前記方向検出部により検出された前記頭部の方向に基づいて前記仮想カメラの方向を制御する。
これにより、ユーザは仮想空間内において仮想カメラの方向(視線の方向)を頭部の方向に応じて変化させることができるので、いわゆるVR(バーチャルリアリティ)を体験することが可能となる。したがって、ゲームへの没入感を大幅に向上できる。その上で、ユーザがバーチャルリアリティを体験する際に生じやすい視点切り替え時の方向感覚の喪失を防止できる。
また、本発明のゲームプログラムは、好ましくは、前記頭部の位置を検出する位置検出部と信号の送受信を行う前記情報処理装置を、前記カメラ位置切替処理部により切り替えられた位置を中心とする所定の範囲内において、前記位置検出部により検出された前記頭部の位置に基づいて前記仮想カメラの位置を制御するカメラ位置制御処理部、として機能させる。
これにより、ユーザはオブジェクトを眺める方向を、仮想カメラの位置を切り替える(視点位置の切り替える)ことによって大雑把に調整した後に、身体を動かして頭部を移動させることで微調整することが可能となる。したがって、ユーザはオブジェクトを眺める方向をきめ細かに調整することができるので、オブジェクトの存在感がより現実的となり、仮想空間のリアリティをさらに向上できる。
また、本発明のゲームプログラムは、好ましくは、前記情報処理装置を、前記仮想カメラの方向又は前記仮想カメラの位置の少なくとも一方に基づいて前記ユーザの視線が前記オブジェクトのどの部位を向いているかを検出する視線方向検出処理部、前記視線方向検出処理部により検出された前記部位に基づいて、前記オブジェクトの挙動を制御するオブジェクト挙動制御処理部、として機能させる。
これにより、例えばオブジェクトが感情を有するキャラクタであるような場合に、ユーザが当該キャラクタの特定の部位を注視することによりキャラクタが機嫌を損ねたり、反対に喜んだりさせること等が可能となる。したがって、ゲームの興趣性を向上できる。
上記目的を達成するために、本発明の記録媒体は、上記ゲームプログラムを記録した、情報処理装置が読み取り可能な記録媒体である。
上記目的を達成するために、本発明のゲーム処理方法は、情報処理装置によって実行されるゲーム処理方法であって、仮想的な3次元空間内において一人称視点の画像を生成するための仮想カメラの位置を、予め設定された複数の位置の中でユーザの操作入力に基づいて切り替えるステップと、前記仮想カメラの方向を、前記ユーザの操作入力に基づいて制御するステップと、前記仮想カメラの位置が切り替えられた際に、前記仮想的な3次元空間内に存在する所定のオブジェクトと前記仮想カメラとの位置関係に基づいて、前記仮想カメラの方向を補正するステップと、を有する。
本発明のゲームプログラム等によれば、仮想空間のリアリティを向上することができる。
一実施形態に係るゲームシステムの全体構成の一例を表すシステム構成図である。 情報処理装置及びヘッドマウントディスプレイの機能的構成の一例を表すブロック図である。 オブジェクトの一例を表す図である。 ゲームの概略の流れの一例を表すフローチャートである。 仮想カメラの切替位置の一例を説明するための説明図である。 Aボタンが押された場合の表示画面の一例を表す図である。 Bボタンが押された場合の表示画面の一例を表す図である。 Cボタンが押された場合の表示画面の一例を表す図である。 カメラ方向補正処理部によるカメラ方向の補正の一例を説明するための説明図である。 カメラ方向補正処理部によるカメラ方向の補正の一例を説明するための説明図である。 カメラ方向補正処理部によるカメラ方向の補正の他の例を説明するための説明図である。 カメラ方向補正処理部によるカメラ方向の補正の他の例を説明するための説明図である。 仮想カメラとの接触による女性キャラクタの変形の一例を説明するための説明図である。 仮想カメラとの接触による女性キャラクタの変形の一例を説明するための説明図である。 タッチオブジェクトとの接触による女性キャラクタの変形の一例を説明するための説明図である。 タッチオブジェクトとの接触による女性キャラクタの変形の一例を説明するための説明図である。 コントローラの動作による仮想的な風の生成及び当該風によるオブジェクトの変形の一例を説明するための説明図である。 コントローラの動作による仮想的な風の生成及び当該風によるオブジェクトの変形の一例を説明するための説明図である。 コントローラの動作による仮想的な風の生成及び当該風によるオブジェクトの変形の一例を説明するための説明図である。 情報処理装置のCPUによって実行される処理手順の一例を表すフローチャートである。 情報処理装置のハードウェア構成の一例を表すブロック図である。
以下、本発明の一実施の形態について図面を参照しつつ説明する。
<1.ゲームシステムの全体構成>
まず、図1を用いて、本実施形態に係るゲームシステム1の全体構成の一例について説明する。図1に示すように、ゲームシステム1は、情報処理装置3と、コントローラ5と、ヘッドマウントディスプレイ7を有する。コントローラ5及びヘッドマウントディスプレイ7の各々は、情報処理装置3と通信可能(信号の送受信可能)に接続されている。なお、図1には有線により接続された場合を図示しているが、無線により接続されてもよい。
情報処理装置3は、例えば据え置き型のゲーム機である。但しこれに限定されるものではなく、例えば入力部等を一体に備えた携帯型のゲーム機でもよい。また、ゲーム機以外にも、例えば、サーバコンピュータ、デスクトップ型コンピュータ、ノート型コンピュータ、タブレット型コンピュータ等のように、コンピュータとして製造、販売等されているものや、携帯電話、スマートフォン、ファブレット等のように、電話機として製造、販売等されているものでもよい。
ユーザは、コントローラ5(入力装置の一例)を用いて各種の操作入力を行う。図1に示す例では、コントローラ5は例えば十字キー9や複数のボタン11a〜11d等を有する。以下適宜、ボタン11aを「Aボタン11a」、ボタン11bを「Bボタン11b」、ボタン11cを「Cボタン11c」、ボタン11dを「Dボタン11d」と記載し、各ボタンを区別しない場合には単に「ボタン11」と記載する。なお、コントローラ5は上記に代えて又は加えて、例えばジョイスティックやタッチパッド等を有してもよい。
ヘッドマウントディスプレイ7は、ユーザの頭部又は顔部に装着可能な表示装置である。ヘッドマウントディスプレイ7は、情報処理装置3により生成されたゲームに係る画像(静止画、動画を含む)を表示する。なお、ヘッドマウントディスプレイ7は、透過型又は非透過型のいずれでもよい。
<2.ヘッドマウントディスプレイの概略構成>
次に、図2を用いて、ヘッドマウントディスプレイ7の概略構成の一例について説明する。図2に示すように、ヘッドマウントディスプレイ7は、表示部13と、方向検出部15と、位置検出部17を有する。
表示部13は、例えば液晶ディスプレイや有機ELディスプレイ等で構成されており、ゲームに係る画像を表示する。方向検出部15は、例えば加速度センサやジャイロセンサ等で構成されており、ユーザの頭部の方向(顔の向き)を検出する。位置検出部17は、例えばヘッドマウントディスプレイ7の外部に設置されたカメラと、ヘッドマウントディスプレイ7に設置された発光部などの目印等で構成されており、ユーザの頭部の位置を検出する。なお、各検出部を上記以外の構成としてもよい。
情報処理装置3は、方向検出部15や位置検出部17の検出結果に基づいて表示部13に表示する画像をユーザの頭部の方向や位置に応じて変化させ、リアルな仮想現実(以下適宜「VR(バーチャルリアリティ)」ともいう)を表現する。なお、コントローラ5の位置についても検出するようにし、表示部13に表示する画像をユーザの頭部やコントローラ5の動作に応じて変化させてもよい。
なお、ヘッドマウントディスプレイ7の構成態様は、上記に限定されるものではない。例えば、上記では説明を省略したが、ヘッドマウントディスプレイ7がイヤホンやヘッドフォンを搭載してもよい。
<3.ゲームの概略内容>
次に、図3及び図4を用いて、本実施形態に係るゲーム、すなわち、本発明のゲームプログラム及びゲーム処理方法が情報処理装置3によって実行されることにより提供されるゲームの概略内容の一例について説明する。
本実施形態に係るゲームは、ユーザによる頭部の動作及びコントローラ5の操作入力に応じて、仮想的な3次元空間内における一人称視点の画像を生成することで、例えばユーザが仮想空間内に配置されたオブジェクトを所望の方向、距離から観賞可能とするものである。オブジェクトの種類は特に限定されるものではないが、例えば人間の男性キャラクタ、女性キャラクタ、人間以外の動物キャラクタ、人間や動物以外の仮想的な生物キャラクタ、又は生物以外の物体等である。本実施形態では、図3に示すように、オブジェクトが女性キャラクタ19(第1オブジェクトの一例)である場合を例にとって説明する。なお、3次元仮想空間内には、水平面をXZ平面、鉛直軸をY軸とするXYZ座標系が設定されている。
図4に、情報処理装置3によって実行されるゲームの流れの一例を示す。
ステップS5では、情報処理装置3は、ヘッドマウントディスプレイ7の表示部13に、当該ゲームのタイトル画面を表示する。
ステップS10では、情報処理装置3は、ユーザによるゲーム開始の指示入力があったか否かを判定する。ゲーム開始の指示入力は、例えばタイトル画面においてVRモードのメニューが選択される等である。ゲーム開始の指示入力がない場合には(ステップS10:NO)、ステップS5に戻りタイトル画面の表示を継続する。一方、ゲーム開始の指示入力があった場合には(ステップS10:YES)、次のステップS15に移る。
ステップS15では、情報処理装置3は、ヘッドマウントディスプレイ7の表示部13に、ユーザにヘッドマウントディスプレイ7の装着の仕方等を説明するための装着ガイドを表示する。例えば、情報処理装置3にヘッドマウントディスプレイ7が接続されていない場合には、接続するように注意する表示を行う。
ステップS20では、情報処理装置3は、例えばセーブデータの履歴を参照する等により、当該ゲームのVRによるプレイが初めてか否かを判定する。初めてである場合には(ステップS20:YES)、次のステップS25に移る。一方、初めてでない場合には(ステップS20:NO)、後述のステップS30に移る。
ステップS25では、情報処理装置3は、ヘッドマウントディスプレイ7の表示部13に、当該ゲームのVRによるプレイの仕方を説明するためのチュートリアルを表示する。
ステップS30では、情報処理装置3は、ヘッドマウントディスプレイ7の表示部13に閲覧モードの選択画面を表示し、ユーザにより閲覧モードが選択されたか否かを判定する。閲覧モードは、ユーザが女性キャラクタ19のどのような挙動を閲覧するかを設定するためのものであり、本実施形態では例えば「イベントモード」、「グラビアモード」、「フォトモード」等が用意されている。「イベントモード」は、当該ゲーム内で一度閲覧したオープニングやアクティビティ、着替え等のイベントを自由に見ることができるモードである。「グラビアモード」は、当該ゲーム内で一度閲覧したグラビアを自由に見ることができるモードである。「フォトモード」は、女性キャラクタ19に所望のポーズをとってもらい、自由に写真撮影をすることができるモードである。
閲覧モードの選択がキャンセルされた場合には(ステップS30:NO)、次のステップS35に移り、情報処理装置3は、ヘッドマウントディスプレイ7の表示部13に、ヘッドマウントディスプレイ7を外す指示等の終了ガイドを表示する。その後、先のステップS5に戻り、タイトル画面を表示する。一方、閲覧モードが選択された場合には(ステップS30:YES)、次のステップS40に移る。
ステップS40では、情報処理装置3は、ヘッドマウントディスプレイ7の表示部13にキャラクタの選択画面を表示し、ユーザにより閲覧するキャラクタが選択されたか否かを判定する。キャラクタの選択がキャンセルされた場合には(ステップS40:NO)、上記ステップS30に戻り、閲覧モードの選択画面を表示する。一方、キャラクタが選択された場合には(ステップS40:YES)、次のステップS45に移る。
ステップS45では、情報処理装置3は、ヘッドマウントディスプレイ7の表示部13に各種の設定画面を表示し、ユーザにより各種の設定が行われたか否かを判定する。各種の設定とは、例えば、閲覧するシーン(場所や時間(朝、昼、夕方、夜)等)、ポーズ、着衣(水着やコスチューム等)、肌の状態(日焼けや濡れの度合い等)等であるが、これら以外を含めてもよい。設定がキャンセルされた場合には(ステップS45:NO)、上記ステップS40に戻り、キャラクタの選択画面を表示する。一方、各種の設定が行われた場合には(ステップS45:YES)、次のステップS50に移る。
ステップS50では、情報処理装置3は、ヘッドマウントディスプレイ7の表示部13に、上記選択された閲覧モードにおいて、選択された女性キャラクタ19の画像(静止画、動画を含む)を、上記設定された各種の条件にしたがって再生、表示する。再生を終了すると、上記ステップS45に戻り、各種の設定画面を表示する。
なお、以上説明した全てのステップの処理が、表示部13に表示する画像をユーザの頭部の動作に応じて変化させる「VRモード」で実行されてもよいし、例えばステップS25やステップS50等の一部のステップのみがVRモードで実行され、その他のステップについてはユーザの頭部の動作が表示部13の画像に反映されない「通常モード」で実行されてもよい。
以下、本実施形態に係るゲームの特徴部分の内容について詳細に説明する。なお、以下に説明する処理内容は、上記のステップS50における閲覧モードの再生中に実行されるものであり、「イベントモード」、「グラビアモード」、「フォトモード」のいずれの閲覧モードにおいても適用される。
<4.情報処理装置の機能的構成>
次に、前述の図2及び図5〜図19を用いて、情報処理装置3の機能的構成のうち、主として上記閲覧モードの再生に関わる機能的構成の一例について説明する。
図2に示すように、情報処理装置3は、カメラ位置制御処理部21と、カメラ方向制御処理部23と、カメラ位置切替処理部25と、カメラ方向補正処理部27と、第1接触判定処理部29と、第1オブジェクト変形処理部31と、オブジェクト位置制御処理部33と、第2接触判定処理部35と、振動発生処理部37と、風生成処理部39と、第2オブジェクト変形処理部41と、視線方向検出処理部43と、オブジェクト挙動制御処理部45を有する。
カメラ位置制御処理部21は、仮想的な3次元空間内において一人称視点の画像を生成するための仮想カメラの位置を、ユーザの操作入力に基づいて制御する。本実施形態では、仮想カメラの位置は、ヘッドマウントディスプレイ7の位置検出部17により検出されたユーザの頭部の位置に基づいて制御される。これにより、ユーザは、仮想空間内において仮想カメラの位置(視点の位置)を頭部の動作位置に応じて所望の位置に移動させることができる。
カメラ方向制御処理部23は、上記仮想カメラの方向を、ユーザの操作入力に基づいて制御する。本実施形態では、仮想カメラの方向は、ヘッドマウントディスプレイ7の方向検出部15により検出されたユーザの頭部の方向に基づいて制御される。これにより、ユーザは仮想空間内において仮想カメラの方向(視線の方向)を頭部の動作方向に応じて所望の方向に変化させることができる。
カメラ位置切替処理部25は、上記仮想カメラの位置を、予め設定された複数の位置の中でユーザの操作入力に基づいて切り替える。本実施形態では、女性キャラクタ19の周囲を囲むように仮想カメラを配置可能な複数の位置が予め設定されており、ユーザはコントローラ5を介した操作入力により仮想カメラの位置を所望の位置に切り替えることができる。なお、前述のカメラ位置制御処理部21は、上記カメラ位置切替処理部25により切り替えられた位置を中心とする所定の範囲内(例えば半径数mの範囲内)において、位置検出部17により検出された頭部の位置に基づいて仮想カメラ47の位置を制御する。
図5に、仮想カメラ47の切替位置の一例を示す。図5に示す例では、女性キャラクタ19の周囲を囲む4箇所が切替位置として設定されており、それぞれの切替位置がコントローラ5の各ボタン11a〜11dに割り当てられている。例えば、Aボタン11aが押された場合には、仮想カメラ47の位置は女性キャラクタ19の前方位置に切り替えられる。Bボタン11bが押された場合には、仮想カメラ47の位置は女性キャラクタ19の右方位置に切り替えられる。Cボタン11cが押された場合には、仮想カメラ47の位置は女性キャラクタ19の後方位置に切り替えられる。Dボタン11dが押された場合には、仮想カメラ47の位置は女性キャラクタ19の左方位置に切り替えられる。
図6に、Aボタン11aが押された場合の表示画面の一例を示す。仮想カメラ47の前方位置は他の位置よりも女性キャラクタ19との離間距離を長めに設定されており、図6に示すように、前方位置に切り替えられた場合には女性キャラクタ19の全身が表示される。この例では、女性キャラクタ19の身体の略中心位置が画面の略中心位置となるように表示されている。なお、図6には仮想カメラ47のその他の切替位置を説明のために図示している(実際に表示はされない)。
図7に、Bボタン11bが押された場合の表示画面の一例を示す。仮想カメラ47の右方位置は他の位置よりも女性キャラクタ19との離間距離を短めに設定されており、図7に示すように、右方位置に切り替えられた場合には女性キャラクタ19の略上半身が表示される。この例では、女性キャラクタ19の上半身の略中心位置が画面の略中心位置となるように表示されている。
図8に、Cボタン11cが押された場合の表示画面の一例を示す。仮想カメラ47の後方位置は女性キャラクタ19との離間距離を中程度に設定されており、図8に示すように、後方位置に切り替えられた場合には女性キャラクタ19の身体の略膝上部分が表示される。この例では、女性キャラクタ19の身体の略膝上部分の略中心位置が画面の略中心位置となるように表示されている。
なお、Dボタン11dが押された場合の表示画面については図示を省略する。
なお、上記の各表示画面はユーザの頭部の動作による仮想カメラ47の位置及び方向の変化がない場合、すなわち仮想カメラ47が初期設定された位置(切替直後の位置)に位置し、初期設定された方向を向いている場合の表示である。したがって、ユーザは頭部を動作させることで、上記の各表示画面の状態から仮想カメラ(視点)の位置及び方向を所望の位置及び方向に調整することができる。これにより、ユーザは女性キャラクタ19を眺める方向を、仮想カメラ47の位置を切り替えることによって大雑把に調整した後に、身体を動かして頭部を移動させることで微調整することができる。
また、上記の切替位置は一例であり、切替位置の数や位置、方向、女性キャラクタ19からの距離等は上記以外に設定されてもよい。また、キャラクタの数も1人に限定されるものではなく、複数のキャラクタの周囲を囲むように切替位置が設定されてもよい。
図2に戻り、カメラ方向補正処理部27は、上記カメラ位置切替処理部25により仮想カメラ47の位置が切り替えられた際に、仮想的な3次元空間内における女性キャラクタ19と仮想カメラ47との位置関係に基づいて、カメラ方向制御処理部23により制御される仮想カメラ47の方向を補正する。具体的には、カメラ方向補正処理部27は、鉛直方向(Y軸方向)から見た仮想カメラ47の方向が女性キャラクタ19を正面とする方向となるように、仮想カメラ47の方向を補正する。すなわち、カメラ方向補正処理部27は、仮想空間内における仰俯角(XZ平面に対する仰角及び俯角)については考慮せずに、鉛直軸(Y軸)周りの回転角のみを補正の対象とする。
図9〜図12に、カメラ方向補正処理部27による補正の具体例を示す。例えば図9に示すように、仮想カメラ47が女性キャラクタ19の右方に位置しており、ユーザが仮想カメラ47の方向を女性キャラクタ19の前方寄りに変化させている状態において、図10に示すように、仮想カメラ47が例えば後方位置に切り替えられた場合、仮想カメラ47の方向が女性キャラクタ19を正面とする方向、すなわちこの例では女性キャラクタ19の身体の中心線CLが表示画面の中心線CLoと略一致するように、Y軸周りの回転方向において角度θ1だけ補正される。その結果、仮想カメラ47が後方位置に切り替えられた際に、ユーザは女性キャラクタ19の後ろ姿を真後ろから見ている状態となる。
また、例えば図11に示すように、仮想カメラ47が女性キャラクタ19の右方に位置しており、ユーザが仮想カメラ47の方向を女性キャラクタ19の上方且つ前方寄りに変化させている状態において、図12に示すように、仮想カメラ47が例えば後方位置に切り替えられた場合、仮想カメラ47の方向が、水平面に対する仰角については変化せず、女性キャラクタ19の身体の中心線CLが表示画面の中心線CLoと略一致するようにY軸周りの回転方向についてのみ角度θ2だけ補正される。その結果、仮想カメラ47が後方位置に切り替えられた際に、ユーザは女性キャラクタ19の後ろ姿の上方を真後ろから見上げている状態となる。
このように、仮想空間内における仰俯角については考慮せずに、鉛直軸周りの回転角のみを補正の対象とすることにより、仮想カメラ47が女性キャラクタ19に対して上方向や下方向を向いているにも関わらず、カメラ位置を切り替えると女性キャラクタ19が正面に位置するといった不自然な表示を防止でき、仮想空間のリアリティが低下するのを防止できる。特に、本実施形態のようにVRモード対応である場合、ユーザの正面方向と仮想空間内の上方(例えば空等)や下方(例えば地面等)との位置関係がおかしくなることにより、ユーザがいわゆるVR酔いを起こすのを抑制できる。
なお、上記のようにしてカメラ方向補正処理部27による補正が行われた後は、当該補正後の方向を基準として、前述のカメラ方向制御処理部23による仮想カメラ47の方向の制御が行われる。例えば上記図9に示す例では、カメラ位置の切替前にユーザは頭部をユーザ周りの回転方向において左回り方向に回転させているが、カメラ位置の切替により正面に女性キャラクタ19が位置するように補正されるため、例えば切替後にユーザが頭部を右回り方向に回転させて元の方向に戻した場合、女性キャラクタ19は表示画面の中心線CLoから左側に移動することとなる。
なお、ユーザがコントローラ5又はヘッドマウントディスプレイ7を用いて所定の操作入力を行うことにより、カメラ方向補正処理部27による補正を初期化できるようにしてもよい。
図2に戻り、第1接触判定処理部29は、仮想カメラ47と仮想的な3次元空間内に存在する女性キャラクタ19との接触の有無を判定する。なお、ここでいう「接触」は、仮想カメラ47と女性キャラクタ19との距離が0となる場合だけでなく、離間した状態でそれらの距離が所定の値以下となる場合を含むものである。そして、第1オブジェクト変形処理部31は、上記第1接触判定処理部29により接触があったと判定された場合に、女性キャラクタ19の接触のあった部位に変形を生じさせる。なお、ここでいう「変形」には、凹みやつぶれ等の静的な変形だけでなく、揺れや振動等の動的な変形も含まれる。
本実施形態では、仮想カメラ47の表面と、女性キャラクタ19の身体の肌の表面には、他のオブジェクトとの衝突を検出する複数の制御点(図示省略)が設定されている。第1接触判定処理部29は、当該制御点の検出結果に基づいて仮想カメラ47と女性キャラクタ19との接触の有無を判定する。制御点は、女性キャラクタ19の全身に設けられてもよいし、例えば胸(乳房)、尻、太もも、腹、二の腕等の、特定の部位にのみ設けられてもよい。同様に、第1オブジェクト変形処理部31により変形可能は部位は、女性キャラクタ19の全身としてもよいし、上記特定の部位のみとしてもよい。なお、第1オブジェクト変形処理部31による変形手法は特に限定されるものではないが、例えば所定の部位ごとに1又は複数の基準点を設定し、肌表面を構成する複数の制御点を上記基準点に対して所定の方向及び量だけ移動させることにより変形させてもよい。
図13及び図14に、上記仮想カメラ47との接触による女性キャラクタ19の変形の一例を示す。前述のように、仮想カメラ47の各切替位置において、ユーザは頭部を移動させることで仮想カメラ47を女性キャラクタ19に対して近づけたり遠ざけたりすることができる。図13に示す例では、仮想カメラ47が女性キャラクタ19の前方に位置している状態で、ユーザは頭部を移動させて仮想カメラ47を女性キャラクタ19の大腿部49に向けて移動させている。そして、仮想カメラ47と太腿部49の表面との距離が所定の値以下となった場合、接触したと判定されて、図14に示すように、大腿部49に接触によるつぶれ部51が生じている。これにより、ユーザの身体(例えば顔や頭部)が女性キャラクタ19の大腿部49に接触したと当該ユーザに感じさせることが可能となるので、女性キャラクタ19の存在感をより現実的にすることができる。
図2に戻り、オブジェクト位置制御処理部33は、仮想的な3次元空間内におけるタッチオブジェクト53(第2オブジェクトの一例。後述の図15、図16参照)の位置をユーザの操作入力に基づいて制御する。タッチオブジェクト53は、ユーザが女性キャラクタ19に擬似的にタッチするために用意されたオブジェクトである。本実施形態では、タッチオブジェクト53の位置は、例えばコントローラ5を介した操作入力に基づいて制御される。なお、例えばヘッドマウントディスプレイ7に視線検出機能を設けておき、視線方向によってタッチオブジェクト53の位置を制御可能としてもよい。これにより、ユーザは、仮想空間内においてタッチオブジェクト53を所望の位置に移動させることができる。
第2接触判定処理部35は、タッチオブジェクト53と女性キャラクタ19との接触の有無を判定する。ここでいう「接触」は、タッチオブジェクト53と女性キャラクタ19との距離が0となる場合だけでなく、離間した状態でそれらの距離が所定の値以下となる場合を含むものである。そして、第1オブジェクト変形処理部31は、上記第2接触判定処理部35により接触があったと判定された場合に、女性キャラクタ19の接触のあった部位に変形を生じさせる。なお、ここでいう「変形」には、凹みやつぶれ等の静的な変形だけでなく、揺れや振動等の動的な変形も含まれる。
図15及び図16に、上記タッチオブジェクト53との接触による女性キャラクタ19の変形の一例を示す。上述のように、ユーザはコントローラ5等を使用してタッチオブジェクト53を自由に移動させることができる。図15に示す例では、仮想カメラ47が女性キャラクタ19の前方に位置している状態で、ユーザはタッチオブジェクト53を女性キャラクタ19の腹部55に向けて移動させている。そして、タッチオブジェクト53と腹部55の表面との距離が所定の値以下となった場合、接触したと判定されて、図16に示すように、腹部55に接触による凹部57が生じている。これにより、ユーザの身体(例えば手や足)が女性キャラクタ19の腹部55に接触したと当該ユーザに感じさせることが可能となるので、女性キャラクタ19の存在感をより現実的にすることができる。なお、図15及び図16に示すタッチオブジェクト53の形状は一例であり、例えば手やコントローラのオブジェクト等、他の形状としてもよい。
図2に戻り、振動発生処理部37は、上記第1接触判定処理部29により仮想カメラ47と女性キャラクタ19との間に接触があったと判定された場合、又は、上記第2接触判定処理部35によりタッチオブジェクト53と女性キャラクタ19との間に接触があったと判定された場合、の少なくとも一方の場合に、コントローラ5に振動を発生させる。これにより、ユーザは女性キャラクタ19との接触をよりリアルに体感することが可能となるので、仮想空間のリアリティを向上できる。
風生成処理部39は、コントローラ5が所定の方向に動かされた場合に、仮想的な3次元空間内に上記所定の方向に沿った方向の仮想的な風を生成する。また、第2オブジェクト変形処理部41は、女性キャラクタ19の所定の部位、又は、女性キャラクタ19に付帯される付帯オブジェクト、の少なくとも一方に、上記風の風圧による変形を生じさせる。なお、ここでいう「変形」には、凹みやつぶれ等の静的な変形だけでなく、揺れや振動等の動的な変形、さらには破れや破損、分解等も含まれる。
本実施形態では、コントローラ5に、例えば加速度センサやジャイロセンサ等(図示省略)が設けられており、コントローラ5の3次元における動作方向や加速度が検出される。風生成処理部39は、上記センサの検出結果に基づいて、コントローラ5の動作方向に沿った3次元方向で、且つ、当該動作の加速度に応じた風圧(又は風速)の仮想的な風を生成する。
図17〜図19に、上記仮想的な風の生成及び当該風によるオブジェクトの変形の一例を示す。図17に示すように例えば仮想カメラ47が女性キャラクタ19の後方に位置している状態で、図18に示すようにコントローラ5が例えば略左上方向に動作(1回又は複数回でもよい)された場合、図19に示すように仮想空間内で略左上向きの仮想的な風が生成される。図19に示す例では、生成された風によって女性キャラクタ19の髪部59がなびくと共に、女性キャラクタ19の水着61(付帯オブジェクトの一例)がめくれている。
なお、女性キャラクタ19の髪部59以外の身体の部位、例えば胸(乳房)、尻、太もも、腹、二の腕等を風により変形させてもよい。また、付帯オブジェクトは水着以外の着衣や、携帯品、アクセサリ等でもよい。また、髪部59や水着61の変形量をコントローラ5の速度又は加速度、あるいは揺動の回数等に応じて増減させてもよい。さらに、例えば変形量が所定の量を超える場合に、付帯オブジェクトに破れや破損、分解等を生じさせてもよい。
図2に戻り、視線方向検出処理部43は、仮想カメラ47の方向又は仮想カメラ47の位置の少なくとも一方に基づいて、ユーザの視線が女性キャラクタ19のどの部位を向いているかを検出する。そして、オブジェクト挙動制御処理部45は、上記視線方向検出処理部43により検出された上記部位に基づいて、女性キャラクタ19の挙動を制御する。また、オブジェクト挙動制御処理部45は、上記第1接触判定処理部29により仮想カメラ47と女性キャラクタ19との間に接触があったと判定された場合、又は、上記第2接触判定処理部35によりタッチオブジェクト53と女性キャラクタ19との間に接触があったと判定された場合、の少なくとも一方の場合に、女性キャラクタ19の接触のあった部位に基づいて、女性キャラクタ19の挙動を制御する。ここでいう「挙動」とは、例えば女性キャラクタ19の動作、声(台詞や声色)、表情等である。
なお、上記視線方向の部位や接触のあった部位に基づいて、女性キャラクタ19の挙動に加えて又は代えて、例えば前述の閲覧モードを終了する等、ゲームの進行自体を制御してもよい。
これにより、例えばユーザが女性キャラクタ19の特定の部位(胸や尻など)を注視したり、当該特定の部位に何度も接触する等の行為を行った場合に、女性キャラクタ19を怒らせたり機嫌を損なわせたりすることができる。また例えば、女性キャラクタ19の髪部59を撫でたり、髪部59や水着61を注視してファッションセンスを褒めたりすることで、反対に女性キャラクタ19を喜ばせたりすることも可能である。このようにして女性キャラクタ19の感情を表現することが可能となるので、女性キャラクタ19の存在感をより現実的にすることができる。
なお、以上説明した各処理部における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、上述した各処理部の機能は、後述するCPU101(後述の図21参照)が実行するゲームプログラムにより実装されるものであるが、例えばその一部がASICやFPGA等の専用集積回路、その他の電気回路等の実際の装置により実装されてもよい。
<5.情報処理装置が実行する処理手順>
次に、図20を用いて、情報処理装置3のCPU101によって実行される処理手順の一例について説明する。
ステップS105では、情報処理装置3は、カメラ位置制御処理部21及びカメラ方向制御処理部23により、仮想カメラ47の位置及び方向を、ヘッドマウントディスプレイ7の位置検出部17及び方向検出部15により検出されたユーザの頭部の位置及び方向に基づいて制御する。
ステップS110では、情報処理装置3は、オブジェクト位置制御処理部33により、仮想的な3次元空間内におけるタッチオブジェクト53の位置を、コントローラ5を介した操作入力に基づいて制御する。
ステップS115では、情報処理装置3は、カメラ位置切替処理部25により、仮想カメラ47の位置の切替操作が行われたか否かを判定する。例えばコントローラ5のボタン11のいずれかが押される等により、カメラ位置の切替操作が行われた場合には(ステップS115:YES)、次のステップS120に移る。一方、カメラ位置の切替操作が行われなかった場合には(ステップS115:NO)、後述のステップS130に移る。
ステップS120では、情報処理装置3は、カメラ位置切替処理部25により、仮想カメラ47の位置を予め設定された複数の位置の中で上記ユーザの切替操作に応じて切り替える。
ステップS125では、情報処理装置3は、カメラ方向補正処理部27により、上記ステップS120で切り替えられた位置において、鉛直方向から見た仮想カメラ47の方向が女性キャラクタ19を正面とする方向となるように、仮想カメラ47の方向を補正する。
ステップS130では、情報処理装置3は、第1接触判定処理部29及び第2接触判定処理部35により、仮想カメラ47と女性キャラクタ19との接触の有無、及び、タッチオブジェクト53と女性キャラクタ19との接触の有無を判定する。いずれかの接触があると判定した場合には(ステップS130:YES)、次のステップS135に移る。一方、いずれかの接触もないと判定した場合には(ステップS130:NO)、後述のステップS150に移る。
ステップS135では、情報処理装置3は、第1オブジェクト変形処理部31により、女性キャラクタ19の接触のあった部位に変形を生じさせる。
ステップS140では、情報処理装置3は、振動発生処理部37により、コントローラ5に振動を発生させる。
ステップS145では、情報処理装置3は、女性キャラクタ19に対する仮想カメラ47の接触、又は、女性キャラクタ19に対するタッチオブジェクト53の接触が、所定の条件を満たすか否かを判定する。所定の条件とは、例えば、接触部位が特定の部位(胸や尻など)であるか、所定の時間内の接触回数が所定の回数以上か、あるいは、連続した接触時間が所定の時間以上か、等である。女性キャラクタ19への接触が所定の条件を満たす場合には(ステップS145:YES)、後述のステップS160に移る。一方、女性キャラクタ19への接触が所定の条件を満たさない場合には(ステップS145:NO)、次のステップS150に移る。
ステップS150では、情報処理装置3は、視線方向検出処理部43により、仮想カメラ47の方向又は仮想カメラ47の位置の少なくとも一方に基づいて、ユーザの視線が女性キャラクタ19のどの部位を向いているかを検出する。
ステップS155では、情報処理装置3は、上記ステップS150で検出した視線の方向(部位)が、所定の条件を満たすか否かを判定する。所定の条件とは、例えば、視線が向いた部位が特定の部位(胸や尻など)であるか、所定の時間内に上記特定の部位を注視した回数が所定の回数以上か、あるいは、上記特定の部位を注視した時間が所定の時間以上か、等である。視線の方向が所定の条件を満たす場合には(ステップS155:YES)、次のステップS160に移る。一方、視線の方向が所定の条件を満たさない場合には(ステップS155:NO)、後述のステップS165に移る。
ステップS160では、情報処理装置3は、オブジェクト挙動制御処理部45により、例えば女性キャラクタ19の機嫌を損なわせる等、女性キャラクタ19の挙動を制御する。
ステップS165では、情報処理装置3は、風生成処理部39により、コントローラ5が所定の速度又は加速度以上で動かされたか否かを判定する。コントローラ5が動かされた場合には(ステップS165:YES)、次のステップS170に移る。一方。コントローラ5が動かされていない場合には(ステップS165:NO)、後述のステップS175に移る。
ステップS170では、情報処理装置3は、風生成処理部39により、仮想的な3次元空間内に上記コントローラ5の動作方向に沿った方向の仮想的な風を生成する。そして、第2オブジェクト変形処理部41により、女性キャラクタ19の所定の部位、又は、女性キャラクタ19が装着した水着61の少なくとも一方に、上記風の風圧による変形を生じさせる。
ステップS175では、情報処理装置3は、ゲームを終了するための所定の操作入力があったか否かを判定する。ゲーム終了の操作入力は、例えば前述の図3で説明した閲覧モードの選択をキャンセルする操作等である。ゲーム終了の操作入力がない場合には(ステップS175:NO)には、先のステップS105に戻り同様の手順を繰り返す。一方、ゲーム終了の操作入力があった場合には(ステップS175:YES)、本フローを終了する。
なお、上述した処理手順は一例であって、上記手順の少なくとも一部を削除又は変更してもよいし、上記以外の手順を追加してもよい。また、上記手順の少なくとも一部の順番を変更してもよいし、複数の手順が単一の手順にまとめられてもよい。
<6.情報処理装置のハードウェア構成>
次に、図21を用いて、上記で説明したCPU101等が実行するプログラムにより実装された各処理部を実現する情報処理装置3のハードウェア構成の一例について説明する。
図21に示すように、情報処理装置3は、例えば、CPU101と、ROM103と、RAM105と、GPU106と、例えばASIC又はFPGA等の特定の用途向けに構築された専用集積回路107と、入力装置113と、出力装置115と、記録装置117と、ドライブ119と、接続ポート121と、通信装置123を有する。これらの構成は、バス109や入出力インターフェース111等を介し相互に信号を伝達可能に接続されている。
ゲームプログラムは、例えば、ROM103やRAM105、記録装置117等に記録しておくことができる。
また、ゲームプログラムは、例えば、フレキシブルディスクなどの磁気ディスク、各種のCD、MOディスク、DVD等の光ディスク、半導体メモリ等のリムーバブルな記録媒体125に、一時的又は永続的(非一時的)に記録しておくこともできる。このような記録媒体125は、いわゆるパッケージソフトウエアとして提供することもできる。この場合、これらの記録媒体125に記録されたゲームプログラムは、ドライブ119により読み出されて、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。
また、ゲームプログラムは、例えば、ダウンロードサイト、他のコンピュータ、他の記録装置等(図示せず)に記録しておくこともできる。この場合、ゲームプログラムは、LANやインターネット等のネットワークNWを介し転送され、通信装置123がこのプログラムを受信する。そして、通信装置123が受信したプログラムは、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。
また、ゲームプログラムは、例えば、適宜の外部接続機器127に記録しておくこともできる。この場合、ゲームプログラムは、適宜の接続ポート121を介し転送され、入出力インターフェース111やバス109等を介し上記記録装置117に記録されてもよい。
そして、CPU101が、上記記録装置117に記録されたプログラムに従い各種の処理を実行することにより、前述のカメラ方向補正処理部27や第1接触判定処理部29等による処理が実現される。この際、CPU101は、例えば、上記記録装置117からプログラムを、直接読み出して実行してもよく、RAM105に一旦ロードした上で実行してもよい。更にCPU101は、例えば、プログラムを通信装置123やドライブ119、接続ポート121を介し受信する場合、受信したプログラムを記録装置117に記録せずに直接実行してもよい。
また、CPU101は、必要に応じて、前述のコントローラ5を含む、例えばマウス、キーボード、マイク等(図示せず)の入力装置113から入力する信号や情報に基づいて各種の処理を行ってもよい。
GPU106は、CPU101からの指示に応じて例えばレンダリング処理などの画像表示のための処理を行う。
そして、CPU101及びGPU106は、上記の処理を実行した結果を、例えば前述のヘッドマウントディスプレイ7の表示部13や音声出力部を含む、出力装置115から出力する。さらにCPU101及びGPU106は、必要に応じてこの処理結果を通信装置123や接続ポート121を介し送信してもよく、上記記録装置117や記録媒体125に記録させてもよい。
<7.実施形態の効果>
本実施形態のゲームプログラムは、情報処理装置3を、仮想的な3次元空間内において一人称視点の画像を生成するための仮想カメラ47の位置を、予め設定された複数の位置の中でユーザの操作入力に基づいて切り替えるカメラ位置切替処理部25、仮想カメラ47の方向を、ユーザの操作入力に基づいて制御するカメラ方向制御処理部23、カメラ位置切替処理部25により仮想カメラ47の位置が切り替えられた際に、仮想的な3次元空間内に存在する女性キャラクタ19と仮想カメラ47との位置関係に基づいて、カメラ方向制御処理部23により制御される仮想カメラ47の方向を補正するカメラ方向補正処理部27、として機能させる。
本実施形態では、ユーザは操作入力により、一人称視点の画像を生成するための仮想カメラ47の位置(視点の位置)を、予め設定された複数の位置の間で所望の位置に切り替えることができると共に、仮想カメラ47の方向(視線の方向)を所望の方向に制御することができる。これにより、ユーザは仮想空間内に存在する女性キャラクタ19を色々な方向から眺めることができる。このとき、仮想カメラ47の位置が切り替えられた際に、仮想カメラ47の方向が女性キャラクタ19と仮想カメラ47との位置関係に基づいて補正される。これにより、ユーザが仮想カメラ47の位置を切り替えた際(視点の位置を切り替えた際)に常に女性キャラクタ19が正面となるように視線方向を補正することができるので、ユーザが方向が分からなくなり女性キャラクタ19を見失うこと等を防止できる。さらに、仮想空間内で女性キャラクタ19と常に一緒にいる雰囲気を演出することが可能となるので、女性キャラクタ19の存在感をより現実的とすることができる。したがって、仮想空間のリアリティを向上できる。
また、本実施形態では特に、カメラ方向補正処理部27は、仮想的な3次元空間内において、鉛直方向から見た仮想カメラ47の方向が女性キャラクタ19を正面とする方向となるように、仮想カメラ47の方向を補正する。
これにより、仮想カメラ47の方向を補正する際に、仮想空間内における水平面に対する仰俯角については考慮せずに、鉛直軸周りの回転角のみを補正の対象とすることができる。その結果、仮想カメラ47が女性キャラクタ19に対して上方向や下方向を向いているにも関わらず、カメラ位置を切り替えると女性キャラクタ19が正面となるといった不自然な表示を防止でき、仮想空間のリアリティが低下するのを防止できる。特に、本実施形態のようにVR(バーチャルリアリティ)対応のゲームである場合に、ユーザの正面方向と仮想空間内の上方(例えば空等)や下方(例えば地面等)との位置関係がおかしくなることにより、ユーザがいわゆるVR酔いを起こすのを抑制できる。
また、本実施形態では特に、情報処理装置3は、ユーザの頭部に装着可能に構成され画像を表示する表示部13と、頭部の方向を検出する方向検出部15と、信号の送受信を行うように構成されており、カメラ方向制御処理部23は、方向検出部15により検出された頭部の方向に基づいて仮想カメラ47の方向を制御する。
これにより、ユーザは仮想空間内において仮想カメラ47の方向(視線の方向)を頭部の方向に応じて変化させることができるので、いわゆるバーチャルリアリティを体験することが可能となる。したがって、ゲームへの没入感を大幅に向上できる。その上で、ユーザがバーチャルリアリティを体験する際に生じやすい視点切り替え時の方向感覚の喪失を防止できる。
また、本実施形態では特に、ゲームプログラムは、頭部の位置を検出する位置検出部17と信号の送受信を行う情報処理装置3を、カメラ位置切替処理部25により切り替えられた位置を中心とする所定の範囲内において、位置検出部17により検出された頭部の位置に基づいて仮想カメラ47の位置を制御するカメラ位置制御処理部21、として機能させる。
これにより、ユーザは女性キャラクタ19を眺める方向を、仮想カメラ47の位置を切り替える(視点位置の切り替える)ことによって大雑把に調整した後に、身体を動かして頭部を移動させることで微調整することができる。したがって、ユーザは女性キャラクタ19を眺める方向をきめ細かに調整することができるので、女性キャラクタ19の存在感がより現実的となり、仮想空間のリアリティをさらに向上できる。
また、本実施形態では特に、ゲームプログラムは、情報処理装置3を、仮想カメラ47の方向又は仮想カメラ47の位置の少なくとも一方に基づいてユーザの視線が女性キャラクタ19のどの部位を向いているかを検出する視線方向検出処理部43、視線方向検出処理部43により検出された部位に基づいて、女性キャラクタ19の挙動を制御するオブジェクト挙動制御処理部45、として機能させる。
これにより、例えば女性キャラクタ19が感情を有するキャラクタであるような場合に、ユーザが当該キャラクタの特定の部位を注視することによりキャラクタが機嫌を損ねたり、反対に喜んだりさせること等が可能となる。したがって、ゲームの興趣性を向上できる。
また、本実施形態によれば、以上説明した効果以外にも、さらに次のような効果を得ることができる。
本実施形態のゲームプログラムは、情報処理装置3を、仮想的な3次元空間内において一人称視点の画像を生成するための仮想カメラ47の位置をユーザの操作入力に基づいて制御するカメラ位置制御処理部21、仮想カメラ47と仮想的な3次元空間内に存在する女性キャラクタ19との接触の有無を判定する第1接触判定処理部29、第1接触判定処理部29により接触があったと判定された場合に、女性キャラクタ19の接触のあった部位に変形を生じさせる第1オブジェクト変形処理部31、として機能させる。
本実施形態では、ユーザは操作入力により、一人称視点の画像を生成するための仮想カメラ47を仮想空間内の所望の位置に配置することができる。このとき、仮想カメラ47が女性キャラクタ19に接触した場合には、当該女性キャラクタ19の接触のあった部位が変形する。これにより、ユーザの身体(例えば顔や頭部)が女性キャラクタ19に対して接触したことを表現することが可能となるので、単に女性キャラクタ19を眺めるだけの場合に比べて、女性キャラクタ19の存在感をより現実的にすることができる。したがって、仮想空間のリアリティを向上することができる。
また、本実施形態では特に、ゲームプログラムは、情報処理装置3を、仮想的な3次元空間内におけるタッチオブジェクト53の位置をユーザの操作入力に基づいて制御するオブジェクト位置制御処理部33、タッチオブジェクト53と女性キャラクタ19との接触の有無を判定する第2接触判定処理部35、としてさらに機能させ、第1オブジェクト変形処理部31は、第2接触判定処理部35により接触があったと判定された場合に、女性キャラクタ19の接触のあった部位に変形を生じさせる。
本実施形態では、ユーザは操作入力により、タッチオブジェクト53を仮想的な3次元空間内の所望の位置に位置させることができる。このとき、タッチオブジェクト53が女性キャラクタ19に接触した場合には、当該女性キャラクタ19の接触のあった部位が変形する。これにより、ユーザの身体(例えば手や足等)が女性キャラクタ19に対して接触したことを表現することが可能となるので、女性キャラクタ19の存在感をより現実的にすることができる。したがって、仮想空間のリアリティをさらに向上できる。
また、本実施形態では特に、ゲームプログラムは、コントローラ5と信号の送受信を行う情報処理装置3を、第1接触判定処理部29により接触があったと判定された場合、又は、第2接触判定処理部35により接触があったと判定された場合、の少なくとも一方の場合に、コントローラ5に振動を発生させる振動発生処理部37、としてさらに機能させる。
これにより、ユーザは女性キャラクタ19との接触をよりリアルに体感することが可能となるので、仮想空間のリアリティをさらに向上できる。
また、本実施形態では特に、ゲームプログラムは、情報処理装置3を、コントローラ5が所定の方向に動かされた場合に、仮想的な3次元空間内に所定の方向に沿った方向の仮想的な風を生成する風生成処理部39、女性キャラクタ19の所定の部位、又は、女性キャラクタ19が装着している水着61、の少なくとも一方に、風の風圧による変形を生じさせる、第2オブジェクト変形処理部41、として機能させる。
これにより、ユーザはコントローラ5を所定の方向に動かすことで、仮想空間内に当該動作の方向に沿った風を生じさせることができる。また、女性キャラクタ19や水着61に対してその風の向きや強さに応じた変形を生じさせることができるので、例えば女性キャラクタ19の髪部59や水着61を風によって揺らす等が可能となる。このようにして、ユーザは女性キャラクタ19に対して直接的な接触以外にも空気を介した間接的な接触をすることが可能となるので、仮想空間のリアリティをさらに向上できると共に、ゲームの興趣性を向上できる。
また、本実施形態では特に、ゲームプログラムは、情報処理装置3を、第1接触判定処理部29により接触があったと判定された場合、又は、第2接触判定処理部35により接触があったと判定された場合、の少なくとも一方の場合に、女性キャラクタ19の接触のあった部位に基づいて、女性キャラクタ19の挙動を制御するオブジェクト挙動制御処理部45、として機能させる。
これにより、例えば女性キャラクタ19が感情を有するキャラクタであるような場合に、ユーザが当該女性キャラクタ19の特定の部位に接触することにより女性キャラクタ19が機嫌を損ねたり、反対に喜んだりさせること等が可能となる。したがって、ゲームの興趣性を向上できる。
また、本実施形態では特に、ユーザの頭部に装着可能に構成され画像を表示する表示部13と、頭部の方向を検出する方向検出部15と、信号の送受信を行う情報処理装置3を、方向検出部15により検出された頭部の方向に基づいて仮想カメラ47の方向を制御するカメラ方向制御処理部23、として機能させる。
これにより、ユーザは仮想空間内において仮想カメラ47の方向(視線の方向)を頭部の方向に応じて変化させることができるので、いわゆるバーチャルリアリティを体験することが可能となる。したがって、ゲームへの没入感を大幅に向上できる。
また、本実施形態では特に、情報処理装置3は、頭部の位置を検出する位置検出部17と信号の送受信を行うように構成されており、カメラ位置制御処理部21は、位置検出部17により検出された頭部の位置に基づいて仮想カメラ47の位置を制御する。
これにより、ユーザは身体を動かして頭部を移動させることで女性キャラクタ19に対して近づいたり遠ざかったり、接触したりすることが可能となる。したがって、ユーザの頭部が女性キャラクタ19に接触したことをユーザに対してよりリアルに感じさせることができるので、仮想空間のリアリティをさらに向上できる。
<8.変形例等>
なお、本発明は、上記の実施形態に限られるものではなく、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。
例えば、以上では、本発明のゲームプログラムがVRモードを実装する場合を一例として説明したが、VRモードを実装しないゲームにも本発明は適用可能である。
また、以上では、本発明がオブジェクトを観賞するゲームに適用される場合を一例に説明したが、その他のジャンルのゲーム、例えば、ホラーゲーム、恋愛ゲーム、シミュレーションゲーム、ロールプレイングゲーム、アクションゲーム、アドベンチャーゲーム等にも、本発明は適用可能である。特に、本発明はVRモードを実装した体験型のゲームに好適である。
また、以上では、本発明がゲームプログラムである場合について説明したが、例えば画像生成プログラム等、ゲーム以外の技術(例えばCADやコンピュータ・シミュレーション等)にも適用可能である。
また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。
3 情報処理装置
5 コントローラ
13 表示部
15 方向検出部
17 位置検出部
19 女性キャラクタ
21 カメラ位置制御処理部
23 カメラ方向制御処理部
25 カメラ位置切替処理部
27 カメラ方向補正処理部
29 第1接触判定処理部
31 第1オブジェクト変形処理部
33 オブジェクト位置制御処理部
35 第2接触判定処理部
37 振動発生処理部
39 風生成処理部
41 第2オブジェクト変形処理部
43 視線方向検出処理部
45 オブジェクト挙動制御処理部
47 仮想カメラ
49 大腿部
53 タッチオブジェクト
55 腹部
59 髪部
61 水着
125 記録媒体

Claims (10)

  1. 情報処理装置によって実行されるゲーム処理方法であって、
    仮想的な3次元空間内において予め設定された複数の位置の中の第1の位置で仮想カメラの一人称視点の画像を生成するステップと、
    前記仮想カメラの前記一人称視点を前記第1の位置から前記複数の位置の中の第2の位置にユーザの第1の操作入力に基づいて切り替えるステップと、
    前記仮想カメラの方向を、前記ユーザの第2の操作入力に基づいて制御するステップと、
    前記ユーザの前記第1の操作入力により前記仮想カメラが前記第1の位置から前記第2の位置に切り替えられた際に、前記仮想的な3次元空間内における水平面に対する前記仮想カメラの仰俯角については変更せずに、前記仮想的な3次元空間内の鉛直軸周りの前記仮想カメラの回転角を変更することにより、前記第1の位置において前記ユーザの前記第2の操作入力により変更された前記仮想カメラの方向を前記仮想的な3次元空間内に存在する所定のオブジェクトと前記仮想カメラとの位置関係に基づいて補正するステップと、
    を有する、ゲーム処理方法。
  2. 前記複数の位置のそれぞれは初期設定された前記回転角と初期設定された前記仰俯角を有しており、
    前記ユーザの前記第1の操作入力により前記仮想カメラが前記第1の位置から前記第2の位置に切り替えられた際に、前記仮想カメラの方向を補正するステップは、前記第1の位置において前記ユーザの前記第2の操作入力により変更された前記仮想カメラの前記仰俯角を前記第2の位置の前記初期設定された仰俯角に変更せずに、前記第1の位置において前記ユーザの前記第2の操作入力により変更された前記仮想カメラの前記回転角を前記第2の位置の前記初期設定された回転角に変更するステップを有する、
    請求項1に記載のゲーム処理方法。
  3. 前記ユーザの頭部の方向を検出するステップをさらに有し、
    前記仮想カメラの方向を制御するステップは、
    検出された前記頭部の方向に基づいて前記仮想カメラの方向を制御する、
    請求項2に記載のゲーム処理方法。
  4. 前記ユーザの前記頭部の位置を検出するステップと、
    前記複数の位置のうち前記仮想カメラが位置する現在位置周りの所定の範囲内において、検出された前記頭部の位置に基づいて前記仮想カメラの位置を制御するステップと、をさらに有する、
    請求項3に記載のゲーム処理方法。
  5. 前記仮想カメラの方向又は前記仮想カメラの位置の少なくとも一方に基づいて前記ユーザの視線が前記オブジェクトのどの部位を向いているかを検出するステップと、
    検出された前記部位に基づいて、前記オブジェクトの挙動を制御するステップと、をさらに有する、
    請求項4に記載のゲーム処理方法。
  6. 情報処理装置を、
    仮想的な3次元空間内において予め設定された複数の位置の中の第1の位置で仮想カメラの一人称視点の画像を生成する処理部、
    前記仮想カメラの前記一人称視点を前記第1の位置から前記複数の位置の中の第2の位置にユーザの第1の操作入力に基づいて切り替えるカメラ位置切替処理部、
    前記仮想カメラの方向を、前記ユーザの第2の操作入力に基づいて制御するカメラ方向制御処理部、
    前記ユーザの前記第1の操作入力により前記仮想カメラが前記第1の位置から前記第2の位置に切り替えられた際に、前記仮想的な3次元空間内における水平面に対する前記仮想カメラの仰俯角については変更せずに、前記仮想的な3次元空間内の鉛直軸周りの前記仮想カメラの回転角を変更することにより、前記第1の位置において前記ユーザの前記第2の操作入力により変更された前記仮想カメラの方向を前記仮想的な3次元空間内に存在する所定のオブジェクトと前記仮想カメラとの位置関係に基づいて補正するカメラ方向補正処理部、
    として機能させる、ゲームプログラムを記録した、前記情報処理装置が読み取り可能な非一時的な記録媒体。
  7. 前記複数の位置のそれぞれは初期設定された前記回転角と初期設定された前記仰俯角を有しており、
    前記カメラ方向補正処理部は、
    前記ユーザの前記第1の操作入力により前記仮想カメラが前記第1の位置から前記第2の位置に切り替えられた際に、前記第1の位置において前記ユーザの前記第2の操作入力により変更された前記仮想カメラの前記仰俯角を前記第2の位置の前記初期設定された仰俯角に変更せずに、前記第1の位置において前記ユーザの前記第2の操作入力により変更された前記仮想カメラの前記回転角を前記第2の位置の前記初期設定された回転角に変更する、
    請求項6に記載の記録媒体。
  8. 前記ゲームプログラムは、前記情報処理装置を、
    前記画像を表示する表示部及び前記ユーザの頭部の方向を検出する方向検出部と信号の送受信を行う処理部としてさらに機能させ、前記表示部及び前記方向検出部は前記頭部に装着可能に構成されており、
    前記カメラ方向制御処理部は、
    前記方向検出部により検出された前記頭部の方向に基づいて前記仮想カメラの方向を制御する、
    請求項7に記載の記録媒体。
  9. 前記ゲームプログラムは、前記情報処理装置を、
    前記頭部の位置を検出する位置検出部と信号の送受信を行う処理部、
    前記複数の位置のうち前記仮想カメラが位置する現在位置周りの所定の範囲内において、前記位置検出部により検出された前記頭部の位置に基づいて前記仮想カメラの位置を制御するカメラ位置制御処理部、
    として機能させる、請求項8に記載の記録媒体。
  10. 前記ゲームプログラムは、前記情報処理装置を、
    前記仮想カメラの方向又は前記仮想カメラの位置の少なくとも一方に基づいて前記ユーザの視線が前記オブジェクトのどの部位を向いているかを検出する視線方向検出処理部、
    前記視線方向検出処理部により検出された前記部位に基づいて、前記オブジェクトの挙動を制御するオブジェクト挙動制御処理部、
    として機能させる、請求項9に記載の記録媒体。
JP2016252003A 2016-12-26 2016-12-26 ゲームプログラム、記録媒体、ゲーム処理方法 Active JP6678566B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016252003A JP6678566B2 (ja) 2016-12-26 2016-12-26 ゲームプログラム、記録媒体、ゲーム処理方法
US15/853,854 US10525352B2 (en) 2016-12-26 2017-12-25 Game processing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016252003A JP6678566B2 (ja) 2016-12-26 2016-12-26 ゲームプログラム、記録媒体、ゲーム処理方法

Publications (3)

Publication Number Publication Date
JP2018102588A JP2018102588A (ja) 2018-07-05
JP2018102588A5 JP2018102588A5 (ja) 2020-01-30
JP6678566B2 true JP6678566B2 (ja) 2020-04-08

Family

ID=62625310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016252003A Active JP6678566B2 (ja) 2016-12-26 2016-12-26 ゲームプログラム、記録媒体、ゲーム処理方法

Country Status (2)

Country Link
US (1) US10525352B2 (ja)
JP (1) JP6678566B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6389208B2 (ja) * 2016-06-07 2018-09-12 株式会社カプコン ゲームプログラム及びゲーム装置
US10325414B2 (en) * 2017-05-08 2019-06-18 Microsoft Technology Licensing, Llc Application of edge effects to 3D virtual objects
US11204677B2 (en) * 2018-10-22 2021-12-21 Acclarent, Inc. Method for real time update of fly-through camera placement
CN115639976B (zh) * 2022-10-28 2024-01-30 深圳市数聚能源科技有限公司 一种虚拟现实内容多模式多角度同步展示方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2687989B2 (ja) 1992-06-12 1997-12-08 株式会社セガ・エンタープライゼス 電子遊戯機器
JPH0924160A (ja) * 1996-07-11 1997-01-28 Sega Enterp Ltd 電子遊戯機器
JP3751789B2 (ja) * 2000-03-02 2006-03-01 株式会社ナムコ ゲーム装置及び情報記憶媒体
US6699127B1 (en) * 2000-06-20 2004-03-02 Nintendo Of America Inc. Real-time replay system for video game
JP4027031B2 (ja) * 2000-11-16 2007-12-26 株式会社コナミデジタルエンタテインメント 対戦式3dビデオゲーム装置
JP2005025563A (ja) * 2003-07-03 2005-01-27 Canon Inc 仮想現実感生成方法
JP5951957B2 (ja) * 2011-10-27 2016-07-13 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
JP6306442B2 (ja) * 2014-06-09 2018-04-04 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
CN104548596B (zh) * 2015-02-02 2017-05-24 广州周游网络科技有限公司 一种射击游戏的瞄准方法及装置
JP5961892B1 (ja) * 2015-04-03 2016-08-03 株式会社ハコスコ 表示端末ならびに情報記録媒体

Also Published As

Publication number Publication date
US20180178124A1 (en) 2018-06-28
JP2018102588A (ja) 2018-07-05
US10525352B2 (en) 2020-01-07

Similar Documents

Publication Publication Date Title
US10496174B2 (en) Systems and methods for surface elements that provide electrostatic haptic effects
JP6678566B2 (ja) ゲームプログラム、記録媒体、ゲーム処理方法
US10474238B2 (en) Systems and methods for virtual affective touch
TWI536246B (zh) 呈現視覺介面內容的系統及其方法
CN106873767B (zh) 一种虚拟现实应用的运行控制方法和装置
JPWO2018008217A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3435208B1 (en) Method of display user movement in virtual reality system and related device
US11161047B2 (en) Game processing system, method of processing game, and storage medium storing program for processing game
JP2000126457A (ja) ゲーム画面の表示制御方法、キャラクタの移動制御方法およびゲーム機並びにプログラムを記録した記録媒体
US20180164885A1 (en) Systems and Methods For Compliance Illusions With Haptics
EP3367216A1 (en) Systems and methods for virtual affective touch
JP6892262B2 (ja) ゲームプログラム、記録媒体、ゲーム処理方法
KR102201678B1 (ko) 증강 현실에서 햅틱 오버레이를 통합하는 시스템들 및 방법들
JP2019083965A (ja) ゲームプログラム、およびゲームシステム
JP6918630B2 (ja) 情報処理方法、プログラム及びコンピュータ
JP2019021250A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20240066399A1 (en) Smooth switchover of computer game control
US11934627B1 (en) 3D user interface with sliding cylindrical volumes
WO2023002907A1 (ja) 情報処理システム、プログラム及び情報処理方法
JP6919050B1 (ja) ゲームシステム、プログラム及び情報処理方法
JP2020114435A (ja) ゲームプログラム、およびゲームシステム
JP2021003423A (ja) ゲームプログラム、およびゲームシステム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20170123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191211

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191211

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R150 Certificate of patent or registration of utility model

Ref document number: 6678566

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250