WO2020105503A1 - 表示制御プログラム、表示制御装置、及び表示制御方法 - Google Patents

表示制御プログラム、表示制御装置、及び表示制御方法

Info

Publication number
WO2020105503A1
WO2020105503A1 PCT/JP2019/044294 JP2019044294W WO2020105503A1 WO 2020105503 A1 WO2020105503 A1 WO 2020105503A1 JP 2019044294 W JP2019044294 W JP 2019044294W WO 2020105503 A1 WO2020105503 A1 WO 2020105503A1
Authority
WO
WIPO (PCT)
Prior art keywords
player character
particles
player
control unit
display control
Prior art date
Application number
PCT/JP2019/044294
Other languages
English (en)
French (fr)
Inventor
力 河野
博哉 松上
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to US17/292,770 priority Critical patent/US11951397B2/en
Publication of WO2020105503A1 publication Critical patent/WO2020105503A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6638Methods for processing data by generating or executing the game program for rendering three dimensional images for simulating particle systems, e.g. explosion, fireworks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

表示制御装置の一例であるゲーム装置は、仮想三次元空間の画像を生成する画像生成部207と、仮想三次元空間に配置された、複数の粒子を含むオブジェクトを制御するオブジェクト制御部203と、仮想三次元空間に配置された、プレイヤーが操作可能なプレイヤーキャラクタを制御するプレイヤーキャラクタ制御部202と、プレイヤーキャラクタとオブジェクトとが接触したか否かを判定する判定部204と、判定部204によりプレイヤーキャラクタとオブジェクトとが接触したと判定された場合、プレイヤーキャラクタと接触したオブジェクトに含まれる複数の粒子がプレイヤーキャラクタに吸収される様子を表すアクションを実行させる吸収制御部205とを備える。

Description

表示制御プログラム、表示制御装置、及び表示制御方法
 本発明は、表示制御技術に関し、とくに、表示装置への表示を制御する表示制御プログラム、表示制御装置、及び表示制御方法に関する。
 ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してプレイすることが可能なゲームが人気を博している。ヘッドマウントディスプレイを使用することにより、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。
 本発明者は、このような没入感の高い映像世界を利用して、視聴者の精神状態を向上させることができると考え、本発明に想到した。すなわち、本発明の目的は、視聴者に心地良い感覚を与えることが可能な表示技術を提供することにある。
 上記課題を解決するために、本発明のある態様の表示制御プログラムは、コンピュータに、仮想三次元空間の画像を生成する画像生成部と、仮想三次元空間に配置された、複数の粒子を含むオブジェクトを制御するオブジェクト制御部と、仮想三次元空間に配置された、プレイヤーが操作可能なプレイヤーキャラクタを制御するプレイヤーキャラクタ制御部と、プレイヤーキャラクタとオブジェクトとが接触したか否かを判定する判定部と、判定部によりプレイヤーキャラクタとオブジェクトとが接触したと判定された場合、プレイヤーキャラクタと接触したオブジェクトに含まれる複数の粒子がプレイヤーキャラクタに吸収される様子を表すアクションを実行させる吸収制御部と、を実現させる。
 本発明の別の態様は、表示制御装置である。この装置は、仮想三次元空間の画像を生成する画像生成部と、仮想三次元空間に配置された、複数の粒子を含むオブジェクトを制御するオブジェクト制御部と、仮想三次元空間に配置された、プレイヤーが操作可能なプレイヤーキャラクタを制御するプレイヤーキャラクタ制御部と、プレイヤーキャラクタとオブジェクトとが接触したか否かを判定する判定部と、判定部によりプレイヤーキャラクタとオブジェクトとが接触したと判定された場合、プレイヤーキャラクタと接触したオブジェクトに含まれる複数の粒子がプレイヤーキャラクタに吸収される様子を表すアクションを実行させる吸収制御部と、を備える。
 本発明のさらに別の態様は、表示制御方法である。この方法は、コンピュータに、仮想三次元空間の画像を生成するステップと、仮想三次元空間に配置された、複数の粒子を含むオブジェクトを制御するステップと、仮想三次元空間に配置された、プレイヤーが操作可能なプレイヤーキャラクタを制御するステップと、プレイヤーキャラクタとオブジェクトとが接触したか否かを判定するステップと、プレイヤーキャラクタとオブジェクトとが接触したと判定された場合、プレイヤーキャラクタと接触したオブジェクトに含まれる複数の粒子がプレイヤーキャラクタに吸収される様子を表すアクションを実行させるステップと、をコンピュータに実行させる。
 なお、以上の構成要素の任意の組合せ、本発明の表現をシステム、コンピュータプログラム、コンピュータプログラムを読み取り可能に記録した記録媒体、データ構造などの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、視聴者に心地良い感覚を与えることが可能な表示技術を提供することができる。
実施の形態に係るゲームシステムの構成例を示す図である。 実施の形態に係るヘッドマウントディスプレイの外観図である。 ヘッドマウントディスプレイの機能構成図である。 入力装置の外観構成を示す図である。 入力装置の内部構成を示す図である。 ゲーム装置の機能構成図である。 ヘッドマウントディスプレイの表示装置に表示されるゲーム画面の例を示す図である。 ゲーム世界に配置されたオブジェクトの例を示す図である。 ゲーム世界に配置されたプレイヤーキャラクタの例を示す図である。 プレイヤーが呼吸するときのプレイヤーキャラクタの映像表現の例を示す図である。 プレイヤーが呼吸するときのプレイヤーキャラクタの映像表現の例を示す図である。 プレイヤーキャラクタとオブジェクト又は粒子との相互作用について説明するための図である。 粒子がプレイヤーキャラクタに吸収される際の吸収アクションの例を示す図である。 粒子がプレイヤーキャラクタに吸収される際の吸収アクションの別の例を示す図である。 オブジェクトを構成する粒子がプレイヤーキャラクタに吸収される際の吸収アクションの例を示す。 プレイヤーキャラクタと粒子との相互作用の別の例を示す図である。 実施の形態に係るゲーム制御方法の手順を示すフローチャートである。
 実施の形態に係るゲーム装置は、表示制御装置の一例であり、仮想三次元空間にオブジェクトやキャラクタなどが配置されたゲーム世界の画像を生成して表示する。このゲーム世界において、動物や植物などのオブジェクトや、プレイヤーの体を表現したプレイヤーキャラクタは、複数の光の粒子により構成されており、幻想的な心象世界を表現したゲーム世界の映像表現がプレイヤーに提供される。この映像表現は、全ての物質が素粒子から構成されていることと対応しており、ゲーム世界において粒子がエネルギーの源であるようなイメージをプレイヤーに想起させる。プレイヤーがプレイヤーキャラクタを操作して、ゲーム世界に配置されたオブジェクトに触れると、ゲーム装置は、オブジェクトを構成する粒子が光り輝きながらプレイヤーキャラクタに吸い込まれる様子を表示する。プレイヤーは、ゲーム世界において動物や植物などに触れ、互いに共鳴し合い、エネルギーを吸収するといった、斬新で心地良い癒しの感覚を体験することができる。これにより、プレイヤーは、ゲームを通じて精神状態を向上させることができる。
 このような映像表現は、据え置き型の表示装置や携帯型の表示装置などに表示されてもよいが、ヘッドマウントディスプレイ(HMD)を使用した方がより効果的である。この場合、ゲーム装置は、プレイヤーキャラクタの目の位置に視点位置を設定し、ヘッドマウントディスプレイの向きに合わせて視線方向を変化させながら、オブジェクトが配置された仮想三次元空間をレンダリングし、生成した一人称視点の画像をヘッドマウントディスプレイに表示する。これにより、プレイヤーは、自身が幻想的な心象世界の中に現実に存在しているかのような深い没入感を得ることができる。また、より現実感の高い映像表現の中で、斬新で心地良い癒しの感覚を体験することができるので、より効果的に精神状態を高めることができる。
 図1は、実施の形態に係るゲームシステム1の構成例を示す。ゲームシステム1は、ゲーム装置10と、ヘッドマウントディスプレイ100と、プレイヤーが把持して操作する入力装置20a及び20b(「入力装置20」と総称する)と、ヘッドマウントディスプレイ100を装着したプレイヤーを撮影する撮像装置14と、画像を表示する出力装置15とを備える。出力装置15はテレビであってよい。ゲーム装置10は、アクセスポイント(AP)などを介して、インターネットなどの外部のネットワークに接続される。
 本実施の形態のゲーム装置10は、複数のゲーム装置10のプレイヤーがゲーム世界を共有して同時にゲームを実行することを可能とするために設けられたゲームサーバ3に接続される。ゲームサーバ3は、ゲームに参加しているゲーム装置10のそれぞれからプレイヤーキャラクタの位置などの情報を取得し、取得した情報をそれぞれのゲーム装置10に配信する。
 ヘッドマウントディスプレイ100は、プレイヤーの頭部に装着されて、仮想現実(VR)の映像世界をプレイヤーに提供する。ヘッドマウントディスプレイ100にヘッドトラッキング機能をもたせ、プレイヤーの頭部の動きに連動して表示画像を更新することで、映像世界への没入感を高められる。
 ゲーム装置10は、処理装置11、出力制御装置12、及び記憶装置13を備える。処理装置11は、プレイヤーにより入力装置20に入力された操作情報や、入力装置20及びヘッドマウントディスプレイ100の位置情報や姿勢情報などを受け付けて、ゲームアプリケーションを実行する。処理装置11と入力装置20とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。出力制御装置12は、処理装置11で生成された画像データをヘッドマウントディスプレイ100に出力する処理ユニットであり、出力制御装置12とヘッドマウントディスプレイ100とはケーブルで接続されてよく、また既知の無線通信プロトコルで接続されてもよい。記憶装置13は、ゲームアプリケーションのプログラムデータ、ゲームアプリケーションにより使用される仮想三次元空間の形状データ、配置されるオブジェクトやキャラクタの形状データなどを記憶する。
 撮像装置14はステレオカメラであって、ヘッドマウントディスプレイ100を装着したプレイヤーを所定の周期で撮影し、撮影画像を処理装置11に供給する。後述するが、ヘッドマウントディスプレイ100にはプレイヤーの頭部をトラッキングするためのマーカ(トラッキング用LED)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置に基づいてヘッドマウントディスプレイ100の動きを検出する。ヘッドマウントディスプレイ100には姿勢センサ(加速度センサ及びジャイロセンサ)が搭載され、処理装置11は、姿勢センサで検出されたセンサデータをヘッドマウントディスプレイ100から取得することで、マーカの撮影画像の利用とあわせて、高精度のトラッキング処理を実施する。なお、トラッキング処理については従来より様々な手法が提案されており、処理装置11は、ヘッドマウントディスプレイ100の動きを検出できるものであれば、どのようなトラッキング手法を採用してもよい。
 また、後述するが、入力装置20には、現実空間における入力装置20の姿勢(例えば、位置及び向き)を検出するためのマーカ(発光部)が設けられ、処理装置11は、撮影画像に含まれるマーカの位置・態様に基づいて入力装置20の位置及び向きを検出する。変形例として、入力装置20には、姿勢センサ(例えば、加速度センサ及びジャイロセンサ)が搭載されてもよい。処理装置11は、姿勢センサで検出されたセンサデータを入力装置20から取得し、マーカの撮影画像の利用に代えて、または、マーカの撮影画像の利用とあわせて、入力装置20の存在位置及び向きを検出してもよい。なお、入力装置20の位置及び向きを検出できるものであれば、他の公知の手法を採用してもよい。
 プレイヤーは、ヘッドマウントディスプレイ100を使用して画像を見るので、出力装置15は必ずしも必要ではないが、出力装置15を用意することで、別の視聴者が画像を見ることができる。出力制御装置12又は処理装置11は、ヘッドマウントディスプレイ100を装着したプレイヤーが見ている画像と同じ画像を出力装置15に表示させてもよいが、別の画像を表示させてもよい。例えば、ヘッドマウントディスプレイ100を装着したプレイヤーと別の視聴者とが一緒にゲームをプレイするような場合、出力装置15には、当該別の視聴者のキャラクタ視点からのゲーム画像が表示されてもよい。
 ヘッドマウントディスプレイ100は、プレイヤーが頭部に装着することによりその眼前に位置する表示パネルに画像を表示する表示装置である。ヘッドマウントディスプレイ100は、左目用表示パネルに左目用の画像を、右目用表示パネルに右目用の画像を、それぞれ別個に表示する。これらの画像は左右の視点から見た視差画像を構成し、立体視を実現する。なおプレイヤーは光学レンズを通して表示パネルを見るため、ゲーム装置10は、レンズによる光学歪みを補正した視差画像データをヘッドマウントディスプレイ100に供給する。この光学歪みの補正処理は、処理装置11、出力制御装置12のいずれが行ってもよい。
 なお出力制御装置12による機能は、処理装置11に組み込まれてもよい。つまりゲーム装置10の処理ユニットは、1台の処理装置11から構成されても、また処理装置11および出力制御装置12から構成されてもよい。以下においては、VR画像をヘッドマウントディスプレイ100に提供する機能を、まとめてゲーム装置10の機能として説明する。
 図2は、実施の形態に係るヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、本体部110、頭部接触部112、及び発光部114を備える。
 本体部110には、ディスプレイ、位置情報を取得するためのGPSユニット、姿勢センサ、通信装置などが備えられる。頭部接触部112には、プレイヤーの体温、脈拍、血液成分、発汗、脳波、脳血流などの生体情報を計測することのできる生体情報取得センサが備えられてもよい。発光部114は、ゲーム装置10から指示された色で発光し、撮像装置14により撮像される画像においてヘッドマウントディスプレイ100の位置を算出するための基準として機能する。
 ヘッドマウントディスプレイ100には、さらに、プレイヤーの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、プレイヤーの視線、瞳孔の動き、瞬きなどを検出することができる。
 本実施の形態においては、ヘッドマウントディスプレイ100について説明するが、本実施の形態の表示制御技術は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
 図3は、ヘッドマウントディスプレイ100の機能構成図である。ヘッドマウントディスプレイ100は、入力インタフェース122、出力インタフェース130、バックライト132、通信制御部140、ネットワークアダプタ142、アンテナ144、記憶部150、GPSユニット161、無線ユニット162、姿勢センサ164、外部入出力端子インタフェース170、外部メモリ172、時計部180、表示装置190、及び制御部160を備える。
 これらの構成は、ハードウエアコンポーネントでいえば、任意のコンピュータのCPU、メモリ、メモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、又はそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 制御部160は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース122は、入力ボタンなどから操作信号や設定信号を受け付け、制御部160に供給する。出力インタフェース130は、制御部160から画像信号を受け取り、表示装置190に表示させる。バックライト132は、表示装置190を構成する液晶ディスプレイにバックライトを供給する。
 通信制御部140は、ネットワークアダプタ142又はアンテナ144を介して、有線又は無線通信により、制御部160から入力されるデータを外部に送信する。通信制御部140は、また、ネットワークアダプタ142またはアンテナ144を介して、有線又は無線通信により、外部からデータを受信し、制御部160に出力する。
 記憶部150は、制御部160が処理するデータやパラメータ、操作信号などを一時的に記憶する。
 GPSユニット161は、制御部160からの操作信号にしたがって、GPS衛星から位置情報を受信して制御部160に供給する。無線ユニット162は、制御部160からの操作信号にしたがって、無線基地局から位置情報を受信して制御部160に供給する。
 姿勢センサ164は、ヘッドマウントディスプレイ100の本体部110の向きや傾きなどの姿勢情報を検出する。姿勢センサ164は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。
 外部入出力端子インタフェース170は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ172は、フラッシュメモリなどの外部メモリである。
 時計部180は、制御部160からの設定信号によって時間情報を設定し、時間データを制御部160に供給する。
 図4は、入力装置20の外観構成を示す。図4(a)は、入力装置20の上面構成を示し、図4(b)は、入力装置20の下面構成を示す。入力装置20は、発光体22及びハンドル24を有する。発光体22は、その外側を光透過性を有する樹脂で球体に形成され、内側に発光ダイオードや電球などの発光素子を有する。内側の発光素子が発光すると、外側の球体全体が光る。ハンドル24の上面には、操作ボタン30、32、34、36、38が設けられ、下面には操作ボタン40が設けられる。プレイヤーはハンドル24の端部を手で把持した状態で、操作ボタン30、32、34、36、38を親指で操作し、操作ボタン40を人差し指で操作する。操作ボタン30、32、34、36、38は、押下式に構成され、プレイヤーは押下することで操作する。操作ボタン40は、アナログ量を入力できるものであってよい。
 図5は、入力装置20の内部構成を示す。入力装置20は、無線通信モジュール48、処理部50、発光部62、及び操作ボタン30、32、34、36、38、40を備える。無線通信モジュール48は、ゲーム装置10の無線通信モジュールとの間でデータを送受信する機能をもつ。処理部50は、入力装置20における所期の処理を実行する。
 処理部50は、メイン制御部52、入力受付部54、3軸加速度センサ56、3軸ジャイロセンサ58、及び発光制御部60を有する。メイン制御部52は、無線通信モジュール48との間で必要なデータの送受を行う。
 入力受付部54は、操作ボタン30、32、34、36、38、40からの入力情報を受け付け、メイン制御部52に送る。3軸加速度センサ56は、XYZの3軸方向の加速度成分を検出する。3軸ジャイロセンサ58は、XZ平面、ZY平面、YX平面における角速度を検出する。なお、ここでは、入力装置20の幅方向をX軸、高さ方向をY軸、長手方向をZ軸と設定する。3軸加速度センサ56および3軸ジャイロセンサ58は、入力装置20のハンドル24内に配置され、ハンドル24内の中心近傍に配置されることが好ましい。無線通信モジュール48は、操作ボタンからの入力情報とともに、3軸加速度センサ56による検出値情報、及び3軸ジャイロセンサ58による検出値情報を、所定の周期でゲーム装置10の無線通信モジュールに送信する。この送信周期は、たとえば11.25m秒に設定される。
 発光制御部60は、発光部62の発光を制御する。発光部62は、赤色LED64a、緑色LED64b、青色LED64cを有し、複数色の発光を可能とする。発光制御部60は、赤色LED64a、緑色LED64b、青色LED64cの発光を調整して、発光部62を所望の色に発光させる。
 無線通信モジュール48はゲーム装置10から発光指示を受け取ると、メイン制御部52に供給し、メイン制御部52は、発光制御部60に発光指示を供給する。発光制御部60は、発光部62が発光指示により指定された色で発光するように、赤色LED64a、緑色LED64b、青色LED64cの発光を制御する。たとえば発光制御部60は、各LEDをPWM(パルス幅変調)制御で点灯制御してもよい。
 図6は、ゲーム装置10の機能構成図である。ゲーム装置10の処理装置11は、視点制御部201、プレイヤーキャラクタ制御部202、オブジェクト制御部203、判定部204、吸収制御部205、エネルギー管理部206、画像生成部207、及び音声生成部208を備える。これらの機能ブロックも、ハードウエアのみ、ソフトウエアのみ、又はそれらの組合せによっていろいろな形で実現できる。
 視点制御部201は、ゲーム世界の画像を生成するための視点の位置を制御する。視点制御部201は、プレイヤーキャラクタの目の近傍に視点を設定し、プレイヤーキャラクタの移動に伴って視点の位置を移動させる。本実施の形態では、一人称視点の画像を生成するので、プレイヤーキャラクタの移動と視点位置の移動はほぼ同義である。本実施の形態では、リラックスした状態でゲーム世界を浮遊しているような感覚をプレイヤーに与えるために、ゲーム世界において予め定められた経路に沿って、定められた速度で視点位置を自動的に移動させる。視点制御部201は、定められた範囲(例えば、半径数m~数十mの範囲)内であれば、プレイヤーの指示やゲームの状況などに応じて視点の位置や移動速度を変更してもよい。例えば、入力装置20に対する指示入力や、入力装置20又はヘッドマウントディスプレイ100の動きや姿勢などに応じて、定められた範囲内で視点の位置や移動速度を変更してもよい。移動可能な範囲は、ゲーム世界における位置や地形などに応じて変化されてもよい。例えば、広大な草原においては移動可能な範囲を広くしてもよいし、洞窟内や狭い道などにおいては移動可能な範囲を全くなくし、予め定められた経路上しか移動できないようにしてもよい。
 視点制御部201は、プレイヤーキャラクタの視線が所定時間以上ゲームオブジェクトの方に向いているとき、すなわち、ゲーム世界に配置されたオブジェクトやキャラクタなどのターゲットが表示画面の中心付近に所定時間(例えば、2~3秒)保持されたとき(これを「フォーカス」ともいう)に、そのターゲットの方に視点位置を移動させてもよい。ターゲットが表示画面の中心付近に所定時間保持され、かつ、プレイヤーが片手又は両手をターゲットの方へ伸ばしたときに、そのターゲットにフォーカスしたと判定してもよい。また、プレイヤーキャラクタがターゲットから所定の範囲内にいるときや、プレイヤーキャラクタがターゲットに触れているときなどに、視点位置をターゲットの近傍に滞在させてもよい。これにより、視点位置を自動的に移動させつつも、プレイヤーがあるオブジェクトやキャラクタに興味を持ち、そのオブジェクトやキャラクタに触れたり共鳴し合ったりしたいと感じた場合には、そのターゲットを自動的に判定し、そのターゲットとの相互作用が可能な位置でプレイヤーキャラクタを滞在させることができる。別の例では、視点制御部201は、プレイヤーからの指示に応じて視点位置を変更してもよい。例えば、入力装置20に対する指示入力や、入力装置20又はヘッドマウントディスプレイ100の動きや姿勢などに応じて、視点位置を変更してもよい。
 プレイヤーキャラクタ制御部202は、プレイヤーの体の少なくとも一部を表現したプレイヤーキャラクタを制御する。本実施の形態では、プレイヤーがプレイヤーキャラクタを操作してオブジェクトに触れることができるようにするために、入力装置20の動きに合わせてプレイヤーキャラクタの手と腕を動かす。プレイヤーキャラクタ制御部202は、入力装置20に代えて、複数の操作ボタンを備えるコントローラの動きに合わせてプレイヤーキャラクタの手と腕を動かしてもよいし、撮像装置14により撮像されたプレイヤーの手と腕の動きに合わせてプレイヤーキャラクタの手と腕を動かしてもよい。後者の場合、プレイヤーキャラクタ制御部202は、マーカーなどが付されたスーツを着用したプレイヤーを撮像装置14により撮像し、マーカーの動きを解析することによりプレイヤーの動きを取得してもよいし、マーカーなどを用いずにプレイヤーを撮像装置14により撮像し、既知の任意のモーションキャプチャー技術によりプレイヤーの動きを取得してもよい。プレイヤーキャラクタの背後や上方などに視点位置を設定して三人称視点の画像を生成する例においては、ヘッドマウントディスプレイ100の動きに合わせてプレイヤーキャラクタの頭部を動かしてもよいし、撮像装置14により撮像されるプレイヤーの体の動きに合わせてプレイヤーキャラクタの全身を動かしてもよい。
 プレイヤーキャラクタ制御部202は、プレイヤーの意識レベル、リラックスレベルなどに応じて、プレイヤーキャラクタの表示態様を決定する。プレイヤーの意識レベルやリラックスレベルなどは、ゲーム中にプレイヤーが獲得したエネルギーの値、プレイヤーの心拍数、血圧、体温、脳波などの観測値、プレイヤーの撮像画像を解析することにより得られる情報などに基づいて決定されてもよい。
 オブジェクト制御部203は、ゲーム世界に配置されたオブジェクトを制御する。オブジェクトは、プレイヤーキャラクタとの間で相互作用することが可能なインタラクティブなオブジェクトと、プレイヤーキャラクタとの間で相互作用しない非インタラクティブなオブジェクトとを含む。インタラクティブなオブジェクトは、プレイヤーキャラクタと接触したときにプレイヤーキャラクタにエネルギーを与えることが可能なエネルギーオブジェクトと、プレイヤーキャラクタと接触したときに変形するなどの相互作用は可能であるがプレイヤーキャラクタにエネルギーを与えない非エネルギーオブジェクトとを含む。エネルギーオブジェクトは、例えば、動物、植物、水晶の結晶などの形状を有してもよいし、球、立方体、直方体、回転楕円体、錐体、錐台体などの任意の形状を有してもよい。
 オブジェクト制御部203は、動物などの移動可能なオブジェクトを自動的に移動させる。オブジェクト制御部203は、植物などのオブジェクトが風に揺られるように制御する。オブジェクト制御部203は、水中に存在するオブジェクトが水流に乗ってゆらゆらと流れるように制御する。オブジェクト制御部203は、オブジェクトを構成する複数の粒子を、ゆらゆらと揺り動くように制御する。これにより、プレイヤーの精神状態をリラックスさせることができる。
 オブジェクト制御部203は、プレイヤーがオブジェクトに所定時間フォーカスしたときに、ターゲットのオブジェクトをプレイヤーキャラクタの方へ移動させてもよい。これにより、プレイヤーは、興味を持ったオブジェクトを注視することで、オブジェクトを近くに呼び寄せて触れたり共鳴したりすることができる。オブジェクト制御部203は、オブジェクトがフォーカスされたときに、そのオブジェクトが表示画面の中心付近に保持された時間や、保持された位置などに応じて、そのオブジェクトを構成する粒子の動きや表示の態様を変化させてもよい。例えば、オブジェクトが表示画面の中心付近に保持された時間が長いほど、また、オブジェクトが保持された位置が表示画面の中心に近いほど、そのオブジェクトを構成する粒子を凝集させたり、濃い色で表示したりすることにより、そのオブジェクトの形状が明確になるようにしてもよい。逆に、オブジェクトの表示位置が表示画面の中心から遠ざかると、そのオブジェクトを構成する粒子を徐々に拡散させたり、薄い色で表示したりすることにより、そのオブジェクトが空間に溶けていくような演出を施してもよい。これにより、効果的にプレイヤーの注意をオブジェクトに向けさせることができる。この機能により、プレイヤーは、ゲームプレイ中、周囲のオブジェクトやキャラクタなどに関心を持ち、そちらに注意を向けるという訓練を繰り返すことになるので、プレイヤーの集中力や注意力を向上させることができる。
 判定部204は、プレイヤーキャラクタとオブジェクトとが接触したか否かを判定する。判定部204は、プレイヤーキャラクタの体の外表面とオブジェクトの外表面との間の距離が所定値未満となったときにプレイヤーキャラクタとオブジェクトとが接触したと判定してもよい。
 吸収制御部205は、判定部204によりプレイヤーキャラクタとオブジェクトとが接触したと判定された場合、プレイヤーキャラクタと接触したオブジェクトに含まれる複数の粒子がプレイヤーキャラクタに吸収される様子を表すアクションを実行させる。吸収制御部205は、プレイヤーキャラクタが接触したオブジェクトの種類に応じて、実行されるアクションを決定してもよい。例えば、水晶などのエネルギー体とプレイヤーキャラクタが接触した場合、エネルギー体がプレイヤーキャラクタに弾き飛ばされたり、プレイヤーキャラクタに押されて変形したりした後、エネルギー体から内部の粒子が飛び出し、飛び出した粒子がプレイヤーキャラクタの方に移動するアクションを実行させてもよい。吸収制御部205は、動物や植物などとプレイヤーキャラクタが接触した場合、プレイヤーキャラクタと動物や植物などが心を通わせて互いに共鳴し合った後、表面の近傍に存在していた粒子を交換して互いに吸収し合うアクションを実行させてもよい。このときに、吸収制御部205は、脳波を変化させる作用があると言われているバイノーラルビートやクリスタルボウルなどの音を音声生成部208に生成させて出力させてもよい。これにより、プレイヤーをリラックスした脳波状態に誘導することができるので、より心地良い感覚をプレイヤーに与えることができる。
 エネルギー管理部206は、プレイヤーキャラクタがオブジェクトから吸収した粒子の量をプレイヤーが獲得したエネルギーとして管理する。エネルギー管理部206は、プレイヤーキャラクタがゲーム世界に浮遊している粒子と接触したときにもエネルギーを加算する。エネルギー管理部206は、後述するように、動物や植物などのオブジェクトと共鳴したときにエネルギーを加算する。エネルギー管理部206は、ゲームサーバ3などから現実世界の情勢の良否を表す情報を取得してゲーム画面に表示する。エネルギー管理部206は、プレイヤーが獲得したエネルギーが所定値に達すると、現実世界の情勢を表す情報を好転させる。これにより、プレイヤーは、ゲームを通じて、自身の精神状態を向上させるだけでなく、現実世界を浄化することができるような感覚を味わうことができる。
 画像生成部207は、視点制御部201により設定された視点位置と、ヘッドマウントディスプレイ100の向きに合わせて設定された視線方向を用いて、仮想三次元空間をレンダリングすることにより、ゲーム世界の画像を生成する。画像生成部207は、ヘッドマウントディスプレイ100の向きに合わせて、仮想三次元空間の画像を生成するための視線方向を変化させる。
 音声生成部208は、ゲーム世界における音声を生成する。音声生成部208は、ゲーム世界に配置されたオブジェクトや粒子などに音源を設定し、オブジェクトや粒子の種類に応じた固有の音を音源から発生させ、ゲーム世界における音声を生成する。
 以下、ゲーム画面を参照しながら、各構成の動作についてより詳細に説明する。
 図7は、ヘッドマウントディスプレイ100の表示装置190に表示されるゲーム画面の例を示す。ゲーム画面には、ゲーム世界をレンダリングした画像と、プレイヤーキャラクタ300の手と、ゲーム世界に配置されたオブジェクトである木310が表示されている。プレイヤーキャラクタ300の手の内部には、粒子303が表示される。プレイヤーキャラクタ制御部202は、入力装置20の動きに合わせてプレイヤーキャラクタ300の手の位置を移動させる。
 図8は、ゲーム世界に配置されたオブジェクトの例を示す。図8(a)に示す木310は、図8(b)に拡大して示すように、多数の光の粒子312により構成される。オブジェクト制御部203は、木310を構成する粒子312をゆらゆらと揺動させる。
 図9は、ゲーム世界に配置されたプレイヤーキャラクタの例を示す。図9(a)に示すように、プレイヤーキャラクタ300の形状は、プレイヤーの体を模したモデル301により規定される。図9(b)に示すように、プレイヤーキャラクタ300は、モデル301の中に配置された、ベースとなるガス状の薄いベースボディ302と、ベースボディ302の中や周囲を移動する多数の光の粒子303により表現される。ベースボディ302の内部には、粒子303の配置位置や移動先などを指定するためのロケータ304が配置されている。プレイヤーキャラクタ制御部202は、ベースボディ302をその場でゆっくりと揺動させるとともに、粒子303をモデル301の内部で行き来させる。
 プレイヤーキャラクタ制御部202は、プレイヤーの意識レベルによって段階的にプレイヤーキャラクタ300の表示態様を変化させるとともに、プレイヤーのリラックスレベル、呼吸や浄化などのアクションによってリアルタイムに表示態様を変化させる。
 プレイヤーキャラクタ制御部202は、プレイヤーのリラックスレベルに応じてベースボディ302のサイズや色を変化させる。例えば、プレイヤーのリラックスレベルが高いほど、ベースボディ302を大きくし、白に近い色に変化させる。また、プレイヤーキャラクタ制御部202は、プレイヤーのリラックスレベルに応じて粒子303の移動速度を変化させる。例えば、プレイヤーのリラックスレベルが高いほど、粒子303の移動速度を遅くする。これにより、プレイヤーのリラックスレベルを視覚的に分かりやすく示すことができる。
 プレイヤーキャラクタ制御部202は、プレイヤーの意識レベルに応じて、ベースボディ302の下半身の長さ、下半身から発生する粒子303の量、ベースボディ302を包む光の強さ又は色、光の強さ又は色が変化する速度、色の種類などを変化させる。これにより、プレイヤーは、自身の意識レベルを容易に客観視することができるとともに、他のプレイヤーのプレイヤーキャラクタがゲーム画面に表示される場合には、他のプレイヤーの意識レベルも容易に把握することができる。
 プレイヤーキャラクタ制御部202は、プレイヤーが入力装置20を胸の辺りで保持している間、プレイヤーキャラクタ300が手を胸に当てている様子を表示するとともに、粒子303の移動速度を速くし、粒子303の光を強くし、粒子303がプレイヤーキャラクタ300の体内を流れるときの音を変化させることにより、プレイヤーキャラクタ300の体が浄化され、エネルギーが体いっぱいに満ちた感覚を演出する。このとき、エネルギー管理部206は、プレイヤーのエネルギーを増加させる。
 図10及び図11は、プレイヤーが呼吸するときのプレイヤーキャラクタの映像表現の例を示す。プレイヤーキャラクタ制御部202は、撮像装置14により撮像されたプレイヤーの画像を解析し、プレイヤーの肩の上下の動きや胸の前後の動きなどからプレイヤーの呼吸動作を把握する。プレイヤーが息を吸っている間、プレイヤーキャラクタ制御部202は、図10(a)に示すように、プレイヤーキャラクタ300の顔の前方に粒子を出現させ、プレイヤーキャラクタ300の口に向けて移動させる。また、図10(b)に示すように、プレイヤーキャラクタ300のモデル301を膨張させる。このとき、図10(c)に示すように、モデル301内の粒子303が分散するので密度が薄くなる。プレイヤーが息を吐いている間、プレイヤーキャラクタ制御部202は、図11(a)に示すように、プレイヤーキャラクタ300の顔の前方に残っていた粒子320を口から離れるように移動させる。また、図11(b)に示すように、プレイヤーキャラクタ300のモデル301を収縮させる。このとき、図11(c)に示すように、モデル301内の粒子303が凝集するので密度が濃くなり、モデル301の形状が明確になる。このように、呼吸の動作を可視化することにより、プレイヤーに呼吸を意識させることができる。
 図12は、プレイヤーキャラクタとオブジェクト又は粒子との相互作用について説明するための図である。吸収制御部205は、プレイヤーキャラクタ300の周囲の第1の範囲331内にある粒子330をプレイヤーキャラクタ300の方に移動させる。第1の範囲331は、プレイヤーキャラクタ300の周囲に設定され、カプセル状の形状を有する。この第1の範囲331と粒子330とのコリジョン判定及びプレイヤーキャラクタ300への移動は、オブジェクトに対しては実行されない。
 判定部204は、ゲーム世界に配置されている粒子330又はオブジェクトが、プレイヤーキャラクタ300の周囲の第2の範囲332の境界と接触したか否かを判定する。第2の範囲332は、第1の範囲331よりも狭く、プレイヤーキャラクタ300のモデルに近似した形状を有する。粒子330又はオブジェクトが第2の範囲332に入ったと判定された場合、吸収制御部205は、粒子330又はオブジェクトの表示態様を、プレイヤーキャラクタと接触したことを表す表示態様に変化させる。例えば、吸収制御部205は、粒子330又はオブジェクトの種類に応じた色で粒子330又はオブジェクトを光らせる。また、吸収制御部205は、第2の範囲332内にある粒子330に音源を設定し、粒子330又はオブジェクトの種類に応じた音を音源から発する。別の例では、第2の範囲332とは異なる第4の範囲内にある粒子330に音源を設定してもよい。
 吸収制御部205は、プレイヤーキャラクタの目の前方の第3の範囲333の中に入らないように粒子330を移動させる。例えば、吸収制御部205は、第3の範囲333の境界に接触した粒子330を第3の範囲333の境界に沿って移動させる。これにより、ヘッドマウントディスプレイ100を使用してゲーム画面を見ているプレイヤーの目に粒子が当たってくるような映像が表示されないようにすることができる。
 図13は、粒子がプレイヤーキャラクタに吸収される際の吸収アクションの例を示す。粒子330がプレイヤーキャラクタ300の顔又は体に接触した場合は、図13(a)に示すように、吸収制御部205は、粒子330が第2の範囲332内を移動したときのベクトルのままプレイヤーキャラクタ300の体内に進入させ、徐々に薄くして透明にし、所定時間後に消去する。図13(c)に示すように、粒子330がプレイヤーキャラクタ300の手に接触した場合は、図13(d)に示すように、吸収制御部205は、粒子330を所定時間手の周りで回転させた後、図13(b)に示すように、プレイヤーキャラクタ300の肩付近まで移動させ、さらに胸の中心に向かって移動させながら徐々に薄くして透明にし、所定時間後に消去する。エネルギー管理部206は、プレイヤーキャラクタ300に吸収された粒子330の個数を獲得エネルギーとして加算する。
 図14は、粒子がプレイヤーキャラクタに吸収される際の吸収アクションの別の例を示す。図13(d)に示すように粒子330がプレイヤーキャラクタ300の手の周りを回転しているときに、プレイヤーが入力装置20をゆっくり動かすと、図14(a)に示すように、吸収制御部205は、粒子330をプレイヤーキャラクタ300の手の周りで継続して回転させる。図14(b)に示すように手を動かしていたプレイヤーが、手の動きを止めると、図14(c)に示すように、吸収制御部205は、プレイヤーキャラクタ300の手の周りを回転していた粒子330の回転速度を徐々に遅くしつつ、回転半径を小さくして手に近づけた後、図14(d)に示すように、腕から肩を経て胸に吸収させる。
 別の例では、吸収制御部205は、プレイヤーキャラクタ300の体内に吸収された粒子330を、プレイヤーキャラクタ300に含まれる粒子303とともにプレイヤーキャラクタ300の内部に存在させてもよい。これにより、プレイヤーが獲得したエネルギーの量をプレイヤーキャラクタ300の体内にある粒子の粗密により視覚的に分かりやすく示すことができる。プレイヤーキャラクタ300の体を構成する粒子303とは異なる表示態様で吸収された粒子330を表示してもよい。この例において、プレイヤーキャラクタ300内に多数の粒子が蓄積されると、個々の粒子を揺動させるための処理負荷が増大するので、画像生成部207は、粒子の個数に拘泥せずに、所定数(例えば、10個)の粒子を1つの粒子にまとめて表示する。このとき、画像生成部207は、まとめられた粒子を元の粒子とは異なる表示態様で表示してもよい。例えば、粒径、形状、表示色、透明度などを変更してもよい。表示される粒子の合計数が少なくなり過ぎないようにするために、画像生成部207は、所定数の粒子を1つの粒子にまとめることにより表示される粒子の合計数が所定数(例えば、100個)を下回る場合は、まとめて表示する粒子の数を制御することにより、表示される粒子の合計数が所定数以上となるようにしてもよい。同様に、音声生成部208は、所定数の粒子の音源を1つの音源にまとめて音声を生成する。これにより、映像や音声による効果を維持しつつ処理負荷を軽減させることができる。
 プレイヤーキャラクタ300がオブジェクトに接触した場合も、浮遊する粒子と接触した場合と同様に、オブジェクトからエネルギーを吸収することができる。吸収制御部205は、プレイヤーキャラクタ300の第2の範囲332の境界がオブジェクトに触れている間、オブジェクト固有の効果音と呼吸音を音声生成部208に生成させ、オブジェクトに触れている手を通してプレイヤーキャラクタ300の体に粒子が流れ込むように移動させる。エネルギー管理部206は、プレイヤーキャラクタ300がオブジェクトからエネルギーを吸収している間、オブジェクトが持つエネルギー量を減少させる。プレイヤーキャラクタ300がオブジェクトから手を放すと、吸収制御部205は、エネルギー吸収を中断する。吸収制御部205は、オブジェクトのエネルギー量が0になると、エネルギー吸収を終了する。エネルギーの量が0になったオブジェクトは、プレイヤーキャラクタ300が再び触ってもエネルギーを吸収することができない。
 本実施の形態では、オブジェクトが持つエネルギーの量は、固有のパラメーターとして予め定められており、基本的には、プレイヤーはこの値以上のエネルギーをオブジェクトから吸収する事はできないが、プレイヤーキャラクタとオブジェクトとが共鳴、調和することにより、プレイヤーはオブジェクトが持つ固有のエネルギー量以上のエネルギーを吸収することができる。
 上述したように、プレイヤーキャラクタ300がオブジェクトに触れている間、吸収制御部205は、そのオブジェクトの呼吸音を音声生成部208に生成させるが、プレイヤーがその呼吸音に自身の呼吸を同期させると、エネルギー管理部206は、オブジェクトが放出可能なエネルギー量を増加させる。これにより、プレイヤーに呼吸動作をさらに意識させることができ、正しい呼吸法による精神状態及び健康状態の向上を促すことができる。
 図15は、オブジェクトを構成する粒子がプレイヤーキャラクタに吸収される際の吸収アクションの例を示す。図15(a)に示すように、ゲーム世界に配置された象314などの動物も、複数の粒子により構成されている。図15(b)に示すように、プレイヤーキャラクタ300の手が象314に触れると、図15(c)に示すように、吸収制御部205は、象314を構成する粒子315がプレイヤーキャラクタ300の手から体内に吸収される様子を表すアクションを実行する。象314の表面を構成する粒子315と、プレイヤーキャラクタ300の手を構成する粒子303は、異なる外観を有していてもよい。例えば、図15(c)に示すように、象314を構成する粒子315とプレイヤーキャラクタ300を構成する粒子303は、異なる粒径、形状、表示色、透明度などを有していてもよい。これにより、プレイヤーキャラクタ300の体内に吸収された粒子316が象314に由来するものであることが明確に認識されるので、象314と同化したような感覚をプレイヤーに与えることができる。吸収制御部205は、プレイヤーキャラクタ300の体内に吸収された粒子316をプレイヤーキャラクタ300の手から腕を経由して胸の方へ移動させる。これにより、象314から吸収したエネルギーがプレイヤーの体内に染みこんでいくような感覚をプレイヤーに与えることができる。吸収制御部205は、プレイヤーキャラクタ300の体内に吸収された粒子315を移動させつつ、プレイヤーキャラクタ300を構成する粒子303と同じ外観に変化させてもよい。これにより、象314から吸収したエネルギーがプレイヤー自身のエネルギーに変換されたような感覚をプレイヤーに与えることができる。象314を構成する粒子315とプレイヤーキャラクタ300を構成する粒子303は、同一又は類似の外観を有していてもよい。これにより、ゲーム世界に存在するもの全てが同一又は類似の粒子により構成されていて、互いにエネルギーを交換可能であるという世界観を表現することができる。また、象314から吸収したエネルギーがプレイヤーの体内に蓄積される感覚をプレイヤーに与えることができる。
 図16は、プレイヤーキャラクタと粒子との相互作用の別の例を示す。プレイヤーが所定値以上のエネルギーを獲得しているときに、図16(a)及び図16(b)に示すように、入力装置20a及び20bを近づけてプレイヤーキャラクタ300の両手を近づけると、エネルギー管理部206は、両手の間にエネルギーの粒子330を表示し、徐々に粒子330の数を増加させる。そのまま数秒経過すると、図16(c)に示すように、エネルギー管理部206は、粒子330の表示態様を変化させ、新しいオブジェクトを生み出すことができる状態になったことをプレイヤーに示す。プレイヤーが手を動かしながら両手の間を離していくと、図16(d)に示すように、エネルギー管理部206は、プレイヤーキャラクタ300の両手の間に表示された粒子群の形状を変化させ、最終的に、図16(e)に示すように、オブジェクト340を形成させてプレイヤーキャラクタ300の周囲を移動させる。これにより、多くのエネルギーを蓄積する動機をプレイヤーに与えることができる。
 図17は、実施の形態に係るゲーム制御方法の手順を示すフローチャートである。オブジェクト制御部203は、仮想三次元空間に配置された、複数の粒子を含むオブジェクトを制御し(S10)、プレイヤーキャラクタ制御部202は、仮想三次元空間に配置された、プレイヤーが操作可能なプレイヤーキャラクタを制御し(S12)、画像生成部207は、仮想三次元空間の画像を生成する(S14)。判定部204は、プレイヤーキャラクタとオブジェクトとが接触したか否かを判定する(S16)。接触してない場合は(S16のN)、S10に戻る。接触している場合は(S16のY)、吸収制御部205は、プレイヤーキャラクタと接触したオブジェクトに含まれる複数の粒子がプレイヤーキャラクタに吸収される様子を表すアクションを実行させる(S18)。ゲームを終了しない場合は(S20のN)、S10に戻り、ゲームを終了する場合は(S20のY)、処理を終了する。
 以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 本発明は、表示装置への表示を制御する表示制御装置に利用可能である。
 1 ゲームシステム、3 ゲームサーバ、10ゲーム装置、11 処理装置、12 出力制御装置、13 記憶装置、14 撮像装置、15 出力装置、20 入力装置、100 ヘッドマウントディスプレイ、201 視点制御部、202 プレイヤーキャラクタ制御部、203 オブジェクト制御部、204 判定部、205 吸収制御部、206 エネルギー管理部、207 画像生成部、208 音声生成部。

Claims (19)

  1.  コンピュータに、
     仮想三次元空間の画像を生成する画像生成部と、
     前記仮想三次元空間に配置された、複数の粒子を含むオブジェクトを制御するオブジェクト制御部と、
     前記仮想三次元空間に配置された、プレイヤーが操作可能なプレイヤーキャラクタを制御するプレイヤーキャラクタ制御部と、
     前記プレイヤーキャラクタと前記オブジェクトとが接触したか否かを判定する判定部と、
     前記判定部により前記プレイヤーキャラクタと前記オブジェクトとが接触したと判定された場合、前記プレイヤーキャラクタと接触した前記オブジェクトに含まれる複数の粒子が前記プレイヤーキャラクタに吸収される様子を表すアクションを実行させる吸収制御部と、
    を実現させるための表示制御プログラム。
  2.  前記プレイヤーキャラクタは、少なくとも前記プレイヤーの体の一部を表現したオブジェクトであり、
     前記画像生成部は、前記プレイヤーキャラクタの目の位置の近傍に、前記仮想三次元空間の画像を生成するための視点位置を設定し、
     前記プレイヤーキャラクタ制御部は、前記プレイヤーの手の動きに合わせて前記プレイヤーキャラクタの手の動きを制御する
    ことを特徴とする請求項1に記載の表示制御プログラム。
  3.  前記画像生成部は、前記プレイヤーの頭部に装着されるヘッドマウントディスプレイに表示される画像を生成し、
     前記画像生成部は、前記ヘッドマウントディスプレイの向きに合わせて、前記仮想三次元空間の画像を生成するための視線方向を変化させる
    ことを特徴とする請求項2に記載の表示制御プログラム。
  4.  前記吸収制御部は、前記プレイヤーキャラクタの周囲の第1の範囲内にある粒子を前記プレイヤーキャラクタの方に移動させることを特徴とする請求項1から3のいずれかに記載の表示制御プログラム。
  5.  前記吸収制御部は、前記プレイヤーキャラクタの周囲の前記第1の範囲よりも狭い第2の範囲に粒子が入ったときに、前記粒子の表示態様を、前記プレイヤーキャラクタと接触したことを表す表示態様に変化させることを特徴とする請求項4に記載の表示制御プログラム。
  6.  前記吸収制御部は、前記プレイヤーキャラクタの目の前方の第3の範囲の中に入らないように前記粒子を移動させることを特徴とする請求項4又は5に記載の表示制御プログラム。
  7.  前記吸収制御部は、前記粒子が前記プレイヤーキャラクタの表面に移動したときに、前記粒子の表示態様を、前記プレイヤーキャラクタに吸収されたことを表す表示態様に変化させることを特徴とする請求項1から6のいずれかに記載の表示制御プログラム。
  8.  前記プレイヤーキャラクタは複数の粒子を含み、
     前記プレイヤーキャラクタに含まれる複数の粒子は、前記オブジェクトに含まれる複数の粒子とは異なる表示態様で表示される
    ことを特徴とする請求項7に記載の表示制御プログラム。
  9.  前記プレイヤーキャラクタに含まれる複数の粒子は、前記オブジェクトに含まれる複数の粒子とは異なる粒径を有することを特徴とする請求項8に記載の表示制御プログラム。
  10.  前記プレイヤーキャラクタに含まれる複数の粒子は、前記オブジェクトに含まれる複数の粒子とは異なる表示色で表示されることを特徴とする請求項8又は9に記載の表示制御プログラム。
  11.  前記吸収制御部は、前記プレイヤーキャラクタに吸収された粒子を、前記プレイヤーキャラクタに含まれる粒子とともに前記プレイヤーキャラクタの内部に存在させる
    ことを特徴とする請求項8から10のいずれかに記載の表示制御プログラム。
  12.  前記吸収制御部は、前記プレイヤーキャラクタに吸収された粒子を移動させることを特徴とする請求項11に記載の表示制御プログラム。
  13.  前記吸収制御部は、前記プレイヤーキャラクタに吸収された粒子を消去することを特徴とする請求項7から10のいずれかに記載の表示制御プログラム。
  14.  前記画像生成部は、所定数の前記粒子を1つの粒子にまとめて表示することを特徴とする請求項1から13のいずれかに記載の表示制御プログラム。
  15.  コンピュータに、前記仮想三次元空間における音声を生成する音声生成部を更に実現させ、
     前記音声生成部は、前記プレイヤーキャラクタの周囲の第4の範囲内にある粒子に音源を設定し、前記音源から発せられる音声を生成する
    ことを特徴とする請求項1から14のいずれかに記載の表示制御プログラム。
  16.  前記音声生成部は、所定数の前記粒子の音源を1つの音源にまとめて音声を生成することを特徴とする請求項15に記載の表示制御プログラム。
  17.  前記画像生成部は、他のプレイヤーが操作するプレイヤーキャラクタの情報をサーバから取得し、前記仮想三次元空間に他のプレイヤーが操作するプレイヤーキャラクタを配置した画像を生成することを特徴とする請求項1から16のいずれかに記載の表示制御プログラム。
  18.  仮想三次元空間の画像を生成する画像生成部と、
     前記仮想三次元空間に配置された、複数の粒子を含むオブジェクトを制御するオブジェクト制御部と、
     前記仮想三次元空間に配置された、プレイヤーが操作可能なプレイヤーキャラクタを制御するプレイヤーキャラクタ制御部と、
     前記プレイヤーキャラクタと前記オブジェクトとが接触したか否かを判定する判定部と、
     前記判定部により前記プレイヤーキャラクタと前記オブジェクトとが接触したと判定された場合、前記プレイヤーキャラクタと接触した前記オブジェクトに含まれる複数の粒子が前記プレイヤーキャラクタに吸収される様子を表すアクションを実行させる吸収制御部と、
    を備えることを特徴とする表示制御装置。
  19.  コンピュータに、
     仮想三次元空間の画像を生成するステップと、
     前記仮想三次元空間に配置された、複数の粒子を含むオブジェクトを制御するステップと、
     前記仮想三次元空間に配置された、プレイヤーが操作可能なプレイヤーキャラクタを制御するステップと、
     前記プレイヤーキャラクタと前記オブジェクトとが接触したか否かを判定するステップと、
     前記プレイヤーキャラクタと前記オブジェクトとが接触したと判定された場合、前記プレイヤーキャラクタと接触した前記オブジェクトに含まれる複数の粒子が前記プレイヤーキャラクタに吸収される様子を表すアクションを実行させるステップと、
    をコンピュータに実行させることを特徴とする表示制御方法。
PCT/JP2019/044294 2018-11-19 2019-11-12 表示制御プログラム、表示制御装置、及び表示制御方法 WO2020105503A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/292,770 US11951397B2 (en) 2018-11-19 2019-11-12 Display control program, display control device, and display control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018216863A JP7199204B2 (ja) 2018-11-19 2018-11-19 表示制御プログラム、表示制御装置、及び表示制御方法
JP2018-216863 2018-11-19

Publications (1)

Publication Number Publication Date
WO2020105503A1 true WO2020105503A1 (ja) 2020-05-28

Family

ID=70774421

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/044294 WO2020105503A1 (ja) 2018-11-19 2019-11-12 表示制御プログラム、表示制御装置、及び表示制御方法

Country Status (3)

Country Link
US (1) US11951397B2 (ja)
JP (1) JP7199204B2 (ja)
WO (1) WO2020105503A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220244540A1 (en) * 2021-02-03 2022-08-04 Htc Corporation Tracking system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001276418A (ja) * 2000-03-29 2001-10-09 Namco Ltd ゲーム装置、及び情報記憶媒体
JP2004062676A (ja) * 2002-07-30 2004-02-26 Koei:Kk プログラム、記録媒体、3次元群れ制御方法及びゲーム装置
JP2012032951A (ja) * 2010-07-29 2012-02-16 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
WO2017029915A1 (ja) * 2015-08-17 2017-02-23 日本テレビ放送網株式会社 プログラム、表示装置、表示方法、放送システム及び放送方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4307310B2 (ja) * 2004-03-31 2009-08-05 任天堂株式会社 ゲーム装置及びゲームプログラム
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001276418A (ja) * 2000-03-29 2001-10-09 Namco Ltd ゲーム装置、及び情報記憶媒体
JP2004062676A (ja) * 2002-07-30 2004-02-26 Koei:Kk プログラム、記録媒体、3次元群れ制御方法及びゲーム装置
JP2012032951A (ja) * 2010-07-29 2012-02-16 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
WO2017029915A1 (ja) * 2015-08-17 2017-02-23 日本テレビ放送網株式会社 プログラム、表示装置、表示方法、放送システム及び放送方法

Also Published As

Publication number Publication date
US11951397B2 (en) 2024-04-09
JP2020086674A (ja) 2020-06-04
US20210394069A1 (en) 2021-12-23
JP7199204B2 (ja) 2023-01-05

Similar Documents

Publication Publication Date Title
JP6276882B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6244593B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6788327B2 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6263252B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10545339B2 (en) Information processing method and information processing system
US20190073830A1 (en) Program for providing virtual space by head mount display, method and information processing apparatus for executing the program
JP2016158795A (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6290467B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6321263B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6248219B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018125003A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP2018147465A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018124981A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
WO2020105503A1 (ja) 表示制御プログラム、表示制御装置、及び表示制御方法
JP6263292B1 (ja) 情報処理方法、コンピュータ、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018192238A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018190196A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6856572B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
TW201816545A (zh) 虛擬實境頭戴式裝置
JP6820299B2 (ja) プログラム、情報処理装置、および方法
JP6330072B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6891319B2 (ja) 表示制御装置及び表示制御方法
JP6683862B2 (ja) 表示制御装置及び表示制御方法
JP7462591B2 (ja) 表示制御装置及び表示制御方法
JP2018092635A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19886757

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19886757

Country of ref document: EP

Kind code of ref document: A1