JP2022157447A - ゲームプログラム、記録媒体、ゲーム処理方法 - Google Patents

ゲームプログラム、記録媒体、ゲーム処理方法 Download PDF

Info

Publication number
JP2022157447A
JP2022157447A JP2021061671A JP2021061671A JP2022157447A JP 2022157447 A JP2022157447 A JP 2022157447A JP 2021061671 A JP2021061671 A JP 2021061671A JP 2021061671 A JP2021061671 A JP 2021061671A JP 2022157447 A JP2022157447 A JP 2022157447A
Authority
JP
Japan
Prior art keywords
player
game character
character
game
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021061671A
Other languages
English (en)
Other versions
JP7126583B1 (ja
Inventor
仁 門田
Hitoshi Kadota
裕介 石原
Yusuke Ishihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koei Tecmo Holdings Co Ltd
Original Assignee
Koei Tecmo Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koei Tecmo Holdings Co Ltd filed Critical Koei Tecmo Holdings Co Ltd
Priority to JP2021061671A priority Critical patent/JP7126583B1/ja
Priority to US17/706,592 priority patent/US11986728B2/en
Application granted granted Critical
Publication of JP7126583B1 publication Critical patent/JP7126583B1/ja
Publication of JP2022157447A publication Critical patent/JP2022157447A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/217Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】現実世界での体験をゲームキャラクタと共有する。【解決手段】ゲームプログラムは、プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部13と、信号の送受信を行うように構成された情報処理装置3を、仮想的なオブジェクトの画像を表示部13に表示させるオブジェクト表示処理部57、プレイヤの入力に基づいて、現実空間の画像に対する仮想的なオブジェクトの位置又は向きの少なくとも一方を調整するオブジェクト調整処理部59、調整された仮想的なオブジェクトの位置又は向きの少なくとも一方に合わせて配置されるように、仮想的なゲームキャラクタの画像を表示部13に表示させる第1キャラクタ表示処理部63、ゲームキャラクタの画像を表示させた際に、仮想的なオブジェクトの画像を非表示とするオブジェクト非表示処理部65、として機能させる。【選択図】図12

Description

本発明は、ゲームプログラム、記録媒体、及びゲーム処理方法に関する。
従来、プレイヤの視線とキャラクタとの関係を反映させたゲーム処理を行うゲームシステムが知られている。例えば特許文献1には、プレイヤのゲームプレイの対象となるキャラクタとプレイヤの視線との関係を表す視線関係情報を、視線情報に基づき求め、視線関係情報に基づいて、ゲームパラメータを変化させてゲーム処理を行うゲームシステムが記載されている。
特開2015-231443号公報
上記従来技術では、仮想的な三次元空間内でプレイヤとキャラクタとがコミュニケーションを行う。しかしながら、現実世界での体験をキャラクタと共有することはできなかった。
本発明はこのような問題点に鑑みてなされたものであり、現実世界での体験をゲームキャラクタと共有することが可能なゲームプログラム、記録媒体、及びゲーム処理方法を提供することを目的とする。
上記目的を達成するために、本発明のゲームプログラムは、プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部と、信号の送受信を行うように構成された情報処理装置を、仮想的なオブジェクトの画像を前記表示部に表示させるオブジェクト表示処理部、前記プレイヤの入力に基づいて、前記現実空間の画像に対する前記オブジェクトの位置又は向きの少なくとも一方を調整するオブジェクト調整処理部、調整された前記オブジェクトの位置又は向きの少なくとも一方に合わせて配置されるように、仮想的なゲームキャラクタの画像を前記表示部に表示させるキャラクタ表示処理部、前記ゲームキャラクタの画像を表示させた際に、前記オブジェクトの画像を非表示とするオブジェクト非表示処理部、として機能させる。
上記目的を達成するために、本発明の記録媒体は、上記ゲームプログラムを記録した、情報処理装置が読み取り可能な記録媒体である。
上記目的を達成するために、本発明のゲーム処理方法は、プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部と、信号の送受信を行うように構成された情報処理装置によって実行されるゲーム処理方法であって、仮想的なオブジェクトの画像を前記表示部に表示させるステップと、前記プレイヤの入力に基づいて、前記現実空間の画像に対する前記オブジェクトの位置又は向きの少なくとも一方を調整するステップと、調整された前記オブジェクトの位置又は向きの少なくとも一方に合わせて配置されるように、仮想的なゲームキャラクタの画像を前記表示部に表示させるステップと、前記ゲームキャラクタの画像を表示させた際に、前記オブジェクトの画像を非表示とするステップと、を有する。
本発明のゲームプログラム等によれば、現実世界での体験をゲームキャラクタと共有することができる。
各実施形態に共通するゲームシステムの全体構成の一例を表すシステム構成図である。 ヘッドマウントディスプレイの概略構成の一例を表すブロック図である。 プレイヤによる手操作の具体例を表す図である。 ヘッドマウントディスプレイの制御部及び情報処理装置によって実行されるゲームの流れの一例を表すフローチャートである。 キャラクタ選択画面の一例を表す図である。 仮想オブジェクトの位置調整画面の一例を表す図である。 仮想オブジェクトの向き調整画面の一例を表す図である。 ゲームキャラクタの表示画面の一例を表す図である。 ゲームキャラクタにタッチする場合のゲーム画面の一例を表す図である。 うちわモードにおけるゲーム画面の一例を表す図である。 霧吹きモードにおけるゲーム画面の一例を表す図である。 第1実施形態に係る情報処理装置の機能的構成の一例を表すブロック図である。 背もたれのあるイスの仮想オブジェクトの位置、向きを調整してゲームキャラクタを表示させる画面の一例を表す図である。 バランスボールの仮想オブジェクトの位置、向きを調整してゲームキャラクタを表示させる画面の一例を表す図である。 着座クッションの仮想オブジェクトの位置、向きを調整してゲームキャラクタを表示させる画面の一例を表す図である。 抱きまくらの仮想オブジェクトの位置、向きを調整してゲームキャラクタを表示させる画面の一例を表す図である。 ストロー付きグラスの仮想オブジェクトの位置、向きを調整してゲームキャラクタを表示させる画面の一例を表す図である。 テーブルの仮想オブジェクトの位置、向きを調整してゲームキャラクタを表示させる画面の一例を表す図である。 壁の仮想オブジェクトの位置、向きを調整してゲームキャラクタを表示させる画面の一例を表す図である。 第1実施形態に係る情報処理装置のCPUによって実行される処理手順の一例を表すフローチャートである。 第1実施形態の変形例に係る情報処理装置の機能的構成の一例を表すブロック図である。 仮想オブジェクトの登録を行う現実空間の一例を表す図である。 第2実施形態に係る情報処理装置の機能的構成の一例を表すブロック図である。 プレイヤとゲームキャラクタとが対峙する場合において、ゲームキャラクタの視線の方向をプレイヤの視線の方向に追従するように変化させる場合の一例を表す説明図である。 プレイヤとゲームキャラクタとが横並びの場合において、ゲームキャラクタの視線の方向をプレイヤの視線の方向に追従するように変化させる場合の一例を表す説明図である。 第2実施形態に係る情報処理装置のCPUによって、プレイヤの視線の方向に基づいてゲームキャラクタの視線の方向を設定して変化させる際に実行される処理手順の一例を表すフローチャートである。 第2実施形態の変形例に係る情報処理装置の機能的構成の一例を表すブロック図である。 プレイヤとゲームキャラクタとが横並びの場合において、時差を設定した場合のゲームキャラクタの視線の方向とプレイヤの視線の方向の変化の一例を表す説明図である。 プレイヤとゲームキャラクタとが横並びの場合において、プレイヤの頭部の向きに基づいてゲームキャラクタの視線の方向を設定する場合のゲームキャラクタの頭部の向き及び目の向きとプレイヤの視線の方向の変化の一例を表す説明図である。 第3実施形態に係るヘッドマウントディスプレイの構成及び情報処理装置の機能的構成の一例を表すブロック図である。 第3実施形態におけるゲーム画面の一例を表す図である。 第3実施形態におけるゲーム画面の他の例を表す図である。 第3実施形態に係る情報処理装置のCPUによって、検出した風の状態に応じてゲームキャラクタに付随する柔軟なオブジェクトの変形の態様や行動を変化させる際に実行される処理手順の一例を表すフローチャートである。 第4実施形態に係るヘッドマウントディスプレイの構成及び情報処理装置の機能的構成の一例を表すブロック図である。 第4実施形態におけるゲーム画面の一例を表す図である。 第4施形態におけるゲーム画面の他の例を表す図である。 第4実施形態に係る情報処理装置のCPUによって、検出した湿度や温度に応じてゲームキャラクタの肌又は当該ゲームキャラクタに付随するオブジェクトの濡れ具合や発汗具合を変化させる際に実行される処理手順の一例を表すフローチャートである。 情報処理装置のハードウェア構成の一例を表すブロック図である。
以下、本発明の第1乃至第4実施形態について図面を参照しつつ説明する。
<1.ゲームシステムの全体構成>
まず、図1を用いて、各実施形態に共通するゲームシステム1の全体構成の一例について説明する。図1に示すように、ゲームシステム1は、情報処理装置3と、ゲームコントローラ5と、ヘッドマウントディスプレイ7を有する。ゲームコントローラ5及びヘッドマウントディスプレイ7の各々は、情報処理装置3と有線又は無線により通信可能(信号の送受信可能)に接続されている。
情報処理装置3は、例えば据え置き型のゲーム機である。但しこれに限定されるものではなく、例えば入力部や表示部等を一体に備えた携帯型のゲーム機でもよい。また、ゲーム機以外にも、例えば、サーバコンピュータ、デスクトップ型コンピュータ、ノート型コンピュータ、タブレット型コンピュータ等のように、コンピュータとして製造、販売等されているものや、スマートフォン、携帯電話、ファブレット等のように、電話機として製造、販売等されているものでもよい。
なお、情報処理装置3がヘッドマウントディスプレイ7に搭載されることで、情報処理装置3とヘッドマウントディスプレイ7とが一体的に構成されてもよい。また、ヘッドマウントディスプレイ7が情報処理装置3と同等の機能を有する場合には、情報処理装置3を省略してもよい。
プレイヤは、ゲームコントローラ5を用いて各種の操作入力を行う。図1に示す例では、ゲームコントローラ5は、例えば十字キー9、複数のボタン10、ジョイスティック11、タッチパッド12等を有する。
ヘッドマウントディスプレイ7は、ユーザの頭部又は顔部に装着可能な、いわゆるMR(Mixed Reality:複合現実)を実現する表示装置である。ヘッドマウントディスプレイ7は、透過型の表示部13を有しており、情報処理装置3により生成されたゲームに係る仮想的な画像を現実空間の画像に重ね合わせて表示する。
<2.ヘッドマウントディスプレイの概略構成>
次に、図2及び図3を用いて、ヘッドマウントディスプレイ7の概略構成の一例について説明する。図2に示すように、ヘッドマウントディスプレイ7は、表示部13と、視線方向検出部15と、位置検出部17と、音声入力部19と、音声出力部21と、手操作入力部23と、情報取得部25と、制御部27とを有する。
表示部13は、例えば透過型(シースルー)の液晶ディスプレイや有機ELディスプレイ等で構成されており、透過して見える現実空間の画像に、情報処理装置3により生成されたゲームに係る仮想的な画像を、例えばホログラフィック映像として重ね合わせて表示する。仮想的な画像は、2次元画像又は3次元画像のいずれでもよく、また静止画又は動画のいずれでもよい。なお、表示部13を非透過型とし、例えばカメラで撮像した現実空間の画像に、情報処理装置3により生成された仮想的な画像を重ね合わせて表示してもよい。
視線方向検出部15は、プレイヤの視線の方向を検出する。なお、本明細書において「プレイヤの視線の方向」とは、プレイヤの目の向きと頭部の向きの両方を組み合わせた方向をいう。例えば、プレイヤが基準方向から頭部の向きを右に向けた上でさらに目の向きを右に向けた場合、視線の方向は基準方向に対して頭部の右向きの角度と目の右向きの角度を加えた方向となる。視線方向検出部15は、目方向検出部29と、頭部方向検出部31とを有する。
目方向検出部29は、プレイヤの目の向きを検出する。目の向きは、例えば頭部の正面方向に対する相対的な方向(角度)として検出される。目の向きの検出手法は特に限定されるものではなく、種々の検出手法を採用することが可能である。例えば、目方向検出部29を赤外線LEDと赤外線カメラ等で構成してもよい。この場合、赤外線カメラで赤外線LEDを照射した目を撮影し、撮影された画像に基づいて、例えば基準点を赤外線LEDの照射によりできた反射光(角膜反射)の角膜上の位置とし、動点を瞳孔として、角膜反射の位置に対する瞳孔の位置に基づいて制御部27がプレイヤの目の向きを算出してもよい。また例えば、目方向検出部29を可視光カメラ等で構成してもよい。可視光カメラにより撮影されたプレイヤの目の画像に基づいて、例えば基準点を目頭とし、動点を虹彩(いわゆる黒目)として、目頭に対する虹彩の位置に基づいて制御部27が目の向きを算出してもよい。
頭部方向検出部31は、プレイヤの頭部の向き(顔の向き)を検出する。頭部の向きは、例えば後述する空間認識処理によって認識される現実空間の静止座標系における方向(ベクトル)として検出される。頭部の方向の検出手法は特に限定されるものではなく、種々の検出手法を採用することが可能である。例えば、ヘッドマウントディスプレイ7に加速度センサやジャイロセンサ等を設けておき、これらのセンサの検出結果に基づいて、制御部27がプレイヤの頭部の方向を算出してもよい。
位置検出部17は、プレイヤの頭部の位置を検出する。頭部の位置の検出手法は特に限定されるものではなく、種々の検出手法を採用することが可能である。例えば、ヘッドマウントディスプレイ7の周囲複数個所にカメラ及び深度センサを設けておき、深度センサを用いてプレイヤの周囲空間(現実の空間)を認識させ、複数のカメラによる検出結果に基づいて、制御部27が周囲空間におけるプレイヤの頭部の位置を認識する手法でもよい。また例えば、ヘッドマウントディスプレイ7の外部にカメラを設置すると共に、ヘッドマウントディスプレイ7に発光部などの目印を設置しておき、外部カメラによりプレイヤの頭部の位置を検出してもよい。
音声入力部19は、例えばマイクロフォン等で構成されており、プレイヤの音声やその他の外部音を入力する。入力されたプレイヤの音声は、制御部27が例えば音声認識処理により言葉として認識し、認識した音声に基づいて処理を実行する。また入力された外部音は、制御部27が例えば音声認識処理により音の種類を認識し、認識した音の種類に基づいて処理を実行する。
音声出力部21は、例えばスピーカ等で構成されており、プレイヤの耳に対して音声を出力する。例えばキャラクタの音声、効果音、BGM等が出力される。
手操作入力部23は、例えばカメラで構成されており、プレイヤの手の動作をカメラで検出し、手操作として入力する。制御部27は、入力された手操作に基づいて処理を実行する。これにより、プレイヤは手の動作で各種の操作を行うことができる。具体的には図3に示すように、例えば右手の親指の先端と人差し指の先端を1回接触させる「タップ」操作、2回接触させる「ダブルタップ」操作、右手の人差し指を上方に伸ばして回転させる「回転」操作、等が可能である。また、この他にも多種多様な手操作を可能としてもよい。
情報取得部25は、例えば無線通信によりインターネット等に接続し、情報を配信する情報配信サイトやデータベース等から各種の情報を取得する。例えば、日時、天気、ニュース、娯楽(コンサートや映画のスケジュール等)、買い物(バーゲンセール等)等に関わる情報を取得可能である。また、情報取得部25は、例えばGPS衛星からの信号に基づいてプレイヤの現在位置情報を取得してもよい。
制御部27は、各種のセンサの検出信号に基づいて各種の処理を実行する。各種の処理は、例えば画像表示処理、視線方向検出処理、視線調整処理、位置検出処理、空間認識処理、音声認識処理、音声出力処理、手操作入力処理、情報取得処理等である。また、この他にも多種多様な処理を実行可能としてもよい。
情報処理装置3は、ヘッドマウントディスプレイ7の視線方向検出部15、位置検出部17、音声入力部19、手操作入力部23、情報取得部25等による処理結果に基づいて、表示部13に表示する仮想画像を生成し、又は変化させ、MR(複合現実)を表現する。
<3.ゲームの概略内容>
次に、図4~図11を用いて、本実施形態に係るゲーム、すなわち、本発明のゲームプログラム及びゲーム処理方法が情報処理装置3によって実行されることにより提供されるゲームの概略内容の一例について説明する。
本実施形態に係るゲームは、現実空間の画像に仮想的なゲームキャラクタの画像を重ね合わせることで、プレイヤに対して現実空間に存在するように見えるゲームキャラクタとのコミュニケーションを可能とする。ゲームキャラクタの配置、姿勢、動作、行動等は、プレイヤによる各種の操作入力(視線及び頭部の動作、手操作、音声、ゲームコントローラ5による操作入力等)に応じて変化する。ゲームキャラクタは目を有する仮想的なキャラクタ又はオブジェクトであればよく、その種類は特に限定されるものではない。例えば人間の男性キャラクタ、女性キャラクタ、人間以外の動物キャラクタ、人間や動物以外の仮想的な生物キャラクタ、生物以外のロボット等でもよい。
図4に、ヘッドマウントディスプレイ7の制御部27及び情報処理装置3によって実行されるゲームの流れの一例を示す。
ステップS5では、制御部27は、プレイヤによるヘッドマウントディスプレイ7の装着が初めてか否かを判定する。例えば、初めての装着か否かを確認するメッセージを表示部13に表示させ、プレイヤによる入力(YES又はNO)に基づいて判定してもよい。初めてである場合には(ステップS5:YES)、次のステップS10に移る。一方、初めてでない場合には(ステップS5:NO)、後述のステップS15に移る。
ステップS10では、制御部27は、視線調整処理を実行する。視線調整の手法は特に限定されるものではない。例えば、表示部13におけるプレイヤの視野の中心位置と4つの角部の近傍の5箇所にマーカを表示し、プレイヤがマーカを注視している間に視線情報を検出してもよい。
ステップS15では、制御部27は、表示部13にホームメニュー画面を表示する。
ステップS20では、制御部27は、ゲームを開始するか否かを判定する。例えば、ホームメニュー画面においてプレイヤによりゲームが起動されたか否かに基づいて判定してもよい。ゲームを開始するまでは本ステップS20で待機し(ステップS20:NO)、ゲームを開始する場合には(ステップS20:YES)、次のステップS25に移る。
ステップS25では、制御部27は、例えば深度センサやカメラを用いてプレイヤの周囲の現実空間を認識する空間認識処理を実行する。これにより、プレイヤが動きまわることでヘッドマウントディスプレイ7の位置が変化しても、変化しない静止した静止座標系(現実の空間に対応した座標系)が生成される。
ステップS30では、情報処理装置3は、表示部13に仮想オブジェクトを表示する。仮想オブジェクトは、例えば表示部13の視野の中央に表示され、奥行き方向においては、表示部13が向いている方向(プレイヤの頭部の方向)と上記ステップS25で認識された現実空間との衝突点の近傍位置に表示される。仮想オブジェクトは、プレイヤが頭部の向きを変化させた場合、視野における表示位置は中央から変化せず、奥行き方向の位置のみ現実空間に応じて変化する。なお、奥行き方向の位置についても予め設定された位置に固定して表示してもよい。また、プレイヤが視野における上下左右方向の位置又は奥行き方向の位置を調整できるようにしてもよい。仮想オブジェクトの種類は特に限定されるものではない。例えば立方体や直方体、球などの単純な形状のオブジェクトでもよいし、イスやテーブル等、現実に存在する様々なオブジェクトを模した仮想的なオブジェクトとしてもよい。また、ゲームキャラクタ自体を表示してもよい。
ステップS35では、情報処理装置3は、プレイヤによりゲームキャラクタが選択されたか否かを判定する。ゲームキャラクタが選択されるまでは本ステップS35で待機し(ステップS35:NO)、ゲームキャラクタが選択された場合には(ステップS35:YES)、次のステップS40に移る。
図5に、キャラクタ選択画面の一例を示す。図5に示す例では、直方体状の仮想オブジェクト33A~33Cが、現実空間であるプレイヤの部屋の画像35に重ね合わせて表示されている。この例では、仮想オブジェクト33A~33Cは例えばソファの近傍に表示されている。仮想オブジェクト33A,33B,33CはそれぞれゲームキャラクタA,B,Cに対応しており、各オブジェクトの色が異なっている。プレイヤは、例えば前述のタップ操作、又は、ゲームコントローラ5による切替操作を行うことにより、図5に示すように仮想オブジェクト33A,33B,33Cを順に切り替えることができる。なお、キャラクタ名を声に出して呼ぶことで仮想オブジェクトを切り替えてもよい。またプレイヤは、所望のゲームキャラクタに対応する仮想オブジェクトが表示された状態で、例えば前述のダブルタップ操作、又は、ゲームコントローラ5による決定操作を行うことにより、ゲームキャラクタを選択することができる。
図4に戻り、ステップS40では、情報処理装置3は、プレイヤにより仮想オブジェクトの位置及び向きが決定されたか否かを判定する。仮想オブジェクトの位置及び向きが決定されるまでは本ステップS40で待機し(ステップS40:NO)、仮想オブジェクトの位置及び向きが決定された場合には(ステップS40:YES)、次のステップS45に移る。
図6に、仮想オブジェクトの位置調整画面の一例を示す。図6に示すように、プレイヤは、例えば頭部の向きを変えることにより、表示部13の視野の中央に表示された仮想オブジェクト33Aの現実空間に対する位置を上下左右方向に調整することができる。仮想オブジェクト33Aの表示位置はゲームキャラクタAの表示位置に対応するため、プレイヤはゲームキャラクタAが所望の位置に配置されるように仮想オブジェクト33Aの位置を調整する。
図7に、仮想オブジェクトの向き調整画面の一例を示す。図7に示すように、プレイヤは、例えば前述の手の動作による回転操作、又は、ゲームコントローラ5による回転操作により、仮想オブジェクト33Aを鉛直軸周りに回転させて向きを調整することができる。仮想オブジェクト33Aの向きはゲームキャラクタAの向きに対応するため、プレイヤはゲームキャラクタAが所望の方向を向くように仮想オブジェクト33Aの向きを調整する。
プレイヤは、仮想オブジェクトの現実空間に対する位置及び向きの調整が完了したら、例えば前述のダブルタップ操作、又は、ゲームコントローラ5による決定操作を行うことにより、仮想オブジェクトの位置及び向きを決定することができる。
図4に戻り、ステップS45では、情報処理装置3は、仮想オブジェクトの位置及び向きに合わせて配置されるように、ゲームキャラクタを表示する。図8に、ゲームキャラクタの表示画面の一例を示す。この例では、ゲームキャラクタAである女性のゲームキャラクタ37が、例えばソファの前に立った姿勢で表示されている。
ステップS50では、情報処理装置3は、プレイヤとゲームキャラクタとの間でコミュニケーションを行うことが可能なコミュニケーション処理を実行する。プレイヤは、様々な態様でゲームキャラクタとコミュニケーションをとることができる。例えば、プレイヤは現実空間を動き回ることで表示されたゲームキャラクタの周囲を動き回り、様々な方向から眺めたり話しかけたりすることが可能である。
またプレイヤは、例えばゲームキャラクタにタッチすることができる。図9に、ゲームキャラクタにタッチする場合のゲーム画面の一例を示す。図9に示すように、プレイヤの左手39から照準ライン41が照射される。照準ライン41は、ゲームキャラクタ37のタッチ可能な部位に照射されると色が変わり、プレイヤはタッチ可能な部位を判別できる。プレイヤは、色が変わった状態で例えば左手を握ることにより、ゲームキャラクタ37にタッチすることができる。このとき、ゲームキャラクタ37はタッチされたことに対応した行動、例えば喜んだり、頬を赤らめて恥ずかしがったり、機嫌を損ねたり、所定のセリフを言う等の行動をとってもよい。図9では、例えばゲームキャラクタ37の右手に照準ライン41が照射されている。この状態でプレイヤが左手を握ることによりゲームキャラクタ37の右手にタッチする(右手を握る)ことができる。なお、図9では現実空間の画像の図示を省略している(後述の図10、図11も同様)。
また図示は省略するが、プレイヤは、照準ライン41をゲームキャラクタ37の頭に照射した状態で、例えば左手39を床と略水平になるように倒して左右方向に動作させることで、ゲームキャラクタ37の頭を撫でることができる。このとき、ゲームキャラクタ37は頭を撫でられたことに対応した行動、例えば喜んだり、甘えたり、「えへへ」等のセリフを言う等の行動をとってもよい。
またプレイヤが、例えばゲームキャラクタ37に向かって右手を振った場合には、ゲームキャラクタ37は例えば「バイバイ」等のセリフを言いながら手を振り返す行動をとってもよい。またプレイヤが、例えばゲームキャラクタ37に向かって右手でピースサインを出した場合には、ゲームキャラクタ37は例えば「ピース!」等の所定のセリフを言いながらピースサインを返す等の行動をとってもよい。
またプレイヤが、例えば右手を前に出した状態で「うちわ」と発言すると、右手がうちわモードに切り替わる。図10に、うちわモードにおけるゲーム画面の一例を示す。図10に示すように、うちわモードになった状態でプレイヤが右手43をゲームキャラクタ37に向かって振る(あおぐ)と、右手43であおいだ方向に対応した方向に仮想的な風が生じ、ゲームキャラクタ37に付随する柔軟なオブジェクト、例えば髪や衣服等が風でなびく。図10では、例えばゲームキャラクタ37の髪45が仮想的な風に対応した方向になびいている。このとき、ゲームキャラクタ37は風が吹いたことに対応した行動、例えば身構えたり、「キャッ」と叫ぶ等の行動をとってもよい。また、右手43に加えて又は代えてうちわの画像を表示してもよい。
またプレイヤが、例えば右手を前に出した状態で「霧吹き」と発言すると、右手が霧吹きモードに切り替わる。図11に、霧吹きモードにおけるゲーム画面の一例を示す。図11に示すように、霧吹きモードになった状態で、プレイヤが例えば右手の人差し指47を上に伸ばした状態から第2関節を折り曲げると、霧吹きのスプレー49がゲームキャラクタ37に向かって発射される。なお、スプレー49は表示されても表示されなくてもよい。これにより、ゲームキャラクタ37の肌や付随するオブジェクト(例えば髪や衣服等)が濡れていく。人差し指47を折り曲げる毎にスプレー49が発射されるため、何度もスプレーを繰り返すことで次第に濡れの状態が進行してずぶ濡れとなる。図11では、例えばゲームキャラクタ37の顔51や衣服53が濡れた状態となっている。このとき、ゲームキャラクタ37は濡れたことに対応した行動、例えば身構えたり、「キャッ」と叫んだり、怒る等の行動をとってもよい。
またプレイヤは、ゲームキャラクタ37に対して呼びかけをすることも可能である。例えば、プレイヤが名前を呼んだ場合には、ゲームキャラクタ37が返事をしてもよい。また例えば、プレイヤが「かわいい」や「きれい」等の褒める発言をした場合には、ゲームキャラクタ37は喜んだり、頬を赤らめて恥ずかしがったりしてもよい。また例えば、プレイヤが「ハイチーズ」と発言した場合には、ゲームキャラクタ37は写真撮影用のポーズ、例えばピースサインをしたり笑顔を作る等のポーズを決めてもよい。その他、プレイヤの様々な呼びかけに対して、ゲームキャラクタ37は笑ったり、困ったり、怒ったり等、様々な表情やしぐさを見せたり、セリフを言ってもよい。
図4に戻り、ステップS55では、ゲームを終了するか否かを判定する。ゲームを終了しない場合には(ステップS55:NO)、上記ステップS50に戻る。一方、ゲームを終了する場合には(ステップS55:YES)、本フローチャートを終了する。
なお、以上ではゲームキャラクタ37が立った状態で表示される場合について説明したが、例えば実際のイスに座った状態等、ゲームキャラクタ37を現実のオブジェクトの位置や向きに合わせて配置されるように表示することも可能である。次にこの処理の詳細について説明する。
<4.第1実施形態>
第1実施形態では、ゲームキャラクタを現実のオブジェクトの位置や向きに合わせて配置する場合の処理の詳細について説明する。本実施形態の処理内容は、前述のステップS50におけるコミュニケーション処理において、例えばプレイヤが「座ろう」等の呼びかけを行うことでモードが切り替わり実行される。なお、以下では説明を省略するが、本実施形態においてゲームキャラクタを現実のオブジェクトの位置や向きに合わせて配置した上で、前述のステップS50で説明した各種のコミュニケーションをゲームキャラクタととることが可能である。
(4-1.情報処理装置の機能的構成)
まず、図12を用いて、第1実施形態に係る情報処理装置3の機能的構成の一例について説明する。なお、図12ではヘッドマウントディスプレイ7の構成の図示を省略しているが、前述の図2と同様の構成を有する。
図12に示すように、情報処理装置3は、オブジェクト選択処理部55と、オブジェクト表示処理部57と、オブジェクト調整処理部59と、キャラクタ姿勢設定処理部61と、第1キャラクタ表示処理部63と、オブジェクト非表示処理部65とを有する。
オブジェクト選択処理部55は、プレイヤの入力に基づいて、仮想的なオブジェクトの種類を選択する。仮想的なオブジェクトは、現実空間に存在する様々な現実オブジェクトを模した仮想オブジェクトが予め用意されており、プレイヤがその中から所望の仮想オブジェクトを選択できるようにしてもよい。仮想オブジェクトには、例えばイス、ソファ、ボール、クッション等の仮想着座オブジェクトや、テーブル、タンス等の仮想家具オブジェクト、グラス、コップ、皿等の仮想食器オブジェクト、ゲームキャラクタがもたれかかることが可能な仮想壁オブジェクト等が含まれてもよい。例えば、ゲームキャラクタを現実空間のイス、ソファ、ボール、クッション等の現実着座オブジェクト(着座対象物の一例)に着座させたい場合には、プレイヤは仮想着座オブジェクトを選択すればよい。
オブジェクト表示処理部57は、上記オブジェクト選択処理部55により選択された仮想的なオブジェクトの画像を、表示部13により現実空間の画像に重ね合わせて表示する。
オブジェクト調整処理部59は、プレイヤの入力に基づいて、現実空間の画像に対する仮想的なオブジェクトの位置又は向きの少なくとも一方を調整する。例えば、ゲームキャラクタを現実着座オブジェクトに着座させたい場合には、オブジェクト調整処理部59は、プレイヤの入力に基づいて、現実空間の画像に含まれる現実着座オブジェクトに対する仮想着座オブジェクトの位置又は向きの少なくとも一方を調整する。前述のように、プレイヤは、例えば頭部の向きを変えることにより、表示部13の視野の中央に表示された仮想的なオブジェクトの現実空間に対する位置を上下左右方向に調整することができる。仮想的なオブジェクトの奥行き方向の位置は、前述のようにプレイヤの頭部の方向と現実空間との衝突点の近傍位置となる。なお、例えば手操作、又は、ゲームコントローラ5による操作により、視線の方向に沿った奥行き方向の位置を調整できるようにしてもよい。またプレイヤは、例えば前述の手の動作による回転操作、又は、ゲームコントローラ5による回転操作により、仮想的なオブジェクトの向きを調整することができる。プレイヤは、仮想的なオブジェクトの位置及び向きの両方を調整してもよいし、位置又は向きの一方のみを調整してもよい。
キャラクタ姿勢設定処理部61は、上記オブジェクト選択処理部55により選択された仮想的なオブジェクトの種類に基づいて、ゲームキャラクタの姿勢を設定する。例えば、選択されたオブジェクトがイス、ソファ、ボール、クッション等の仮想着座オブジェクトである場合には、それらに着座する姿勢に設定される。また例えば、選択されたオブジェクトが仮想テーブルオブジェクトである場合には、当該仮想テーブルオブジェクトを挟んでプレイヤと対峙して着座する姿勢に設定される。また例えば、選択されたオブジェクトがグラス、コップ、皿等の仮想食器オブジェクトである場合には、それらに手を添える姿勢に設定される。また例えば、選択されたオブジェクトが仮想壁オブジェクトである場合には、当該仮想壁オブジェクトにもたれかかる姿勢に設定される。
第1キャラクタ表示処理部63(キャラクタ表示処理部の一例)は、上記オブジェクト調整処理部59により位置又は向きの少なくとも一方を調整された仮想的なオブジェクトの位置又は向きに合わせて配置されるように、仮想的なゲームキャラクタの画像を表示部13に表示させる。例えば、仮想着座オブジェクトの位置又は向きの少なくとも一方が現実着座オブジェクトに対して調整された場合には、第1キャラクタ表示処理部63は、ゲームキャラクタが現実着座オブジェクトの位置又は向きの少なくとも一方に合わせて配置されるように、ゲームキャラクタの画像を表示部13に表示させる。また、第1キャラクタ表示処理部63は、上記キャラクタ姿勢設定処理部61により設定された姿勢をとったゲームキャラクタの画像を表示部13に表示させる。
オブジェクト非表示処理部65は、上記第1キャラクタ表示処理部63によりゲームキャラクタの画像を表示させた際に、仮想的なオブジェクトの画像を非表示とする。
なお、以上説明した各処理部における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、上述した各処理部の機能は、後述するCPU301(後述の図38参照)が実行するゲームプログラムにより実装されるものであるが、例えばその一部がASICやFPGA等の専用集積回路、その他の電気回路等の実際の装置により実装されてもよい。さらに、以上説明した各処理部は、全部が情報処理装置3側に実装される場合に限定されるものではなく、その一部又は全部がヘッドマウントディスプレイ7側(例えば制御部27)に実装されてもよい。その場合、ヘッドマウントディスプレイ7の制御部27が情報処理装置の一例となる。
(4-2.仮想オブジェクトの調整及びキャラクタ表示の画面例)
次に、図13~図19を用いて、仮想オブジェクトの位置、向きを調整してゲームキャラクタを表示させる画面の一例について説明する。
図13に示す例では、プレイヤにより例えば背もたれのあるイスの仮想着座オブジェクト67が選択されている。図13の上段に示すように、仮想着座オブジェクト67の向きが、現実空間に存在する背もたれのあるイスである現実着座オブジェクト69の向きに合うように調整される。次に、図13の中段に示すように、仮想着座オブジェクト67の位置が現実着座オブジェクト69の位置に合うように調整される。このとき、例えば仮想着座オブジェクト67と現実着座オブジェクト69の座面の高さが合うように調整されてもよい。また、向きと位置の調整は上記と反対の順に行われてもよいし、同時並行して行われてもよい(図14~図19も同様)。その後、図13の下段に示すように、調整された仮想着座オブジェクト67の位置及び向きに合うように、着座姿勢に設定されたゲームキャラクタ71が配置され、仮想着座オブジェクト67が非表示となる。これにより、ゲームキャラクタ71を現実着座オブジェクト69に着座しているように表示することができる。
図14に示す例では、プレイヤにより例えばバランスボールの仮想着座オブジェクト73が選択されている。なお、仮想着座オブジェクト73には向きが併せて表示される。図14の上段に示すように、仮想着座オブジェクト73の向きが、現実空間に存在するバランスボールである現実着座オブジェクト75の向きに合うように調整される。この例では、現実着座オブジェクト75はボール状であり向きがないため、プレイヤはゲームキャラクタの正面を向かせたい方向に調整してもよい。次に、図14の中段に示すように、仮想着座オブジェクト73の位置が現実着座オブジェクト75の位置に合うように調整される。このとき、例えば仮想着座オブジェクト73と現実着座オブジェクト75の座面(上面)の高さが合うように調整されてもよい。その後、図14の下段に示すように、調整された仮想着座オブジェクト73の位置及び向きに合うように、着座姿勢に設定されたゲームキャラクタ77が配置され、仮想着座オブジェクト73が非表示となる。これにより、ゲームキャラクタ77を現実着座オブジェクト75に着座しているように表示することができる。
図15に示す例では、プレイヤにより例えば着座クッションの仮想着座オブジェクト79が選択されている。図15の上段に示すように、仮想着座オブジェクト79の向きが、現実空間に存在する着座クッションである現実着座オブジェクト81の向きに合うように調整される。次に、図15の中段に示すように、仮想着座オブジェクト79の位置が現実着座オブジェクト81の位置に合うように調整される。このとき、例えば仮想着座オブジェクト79と現実着座オブジェクト81の座面の高さが合うように調整されてもよい。その後、図15の下段に示すように、調整された仮想着座オブジェクト79の位置及び向きに合うように、着座姿勢に設定されたゲームキャラクタ83が配置され、仮想着座オブジェクト79が非表示となる。これにより、ゲームキャラクタ83を現実着座オブジェクト81に着座しているように表示することができる。
なお、図示は省略するが、例えば4つの方向に座ることが可能な四角形のクッションに対し、上記と同様にして一の方向を向くようにゲームキャラクタを着座させ、他の方向を向くようにプレイヤが隣接して座ること等も可能である。
図16に示す例では、プレイヤにより例えば抱きまくらの仮想オブジェクト85が選択されている。図16の上段に示すように、仮想オブジェクト85の向きが、現実空間に存在する抱きまくらである現実オブジェクト87の向きに合うように調整される。このとき、例えば仮想オブジェクト85と現実オブジェクト87の長手方向(軸方向)が合うように調整されてもよい。次に、図16の中段に示すように、仮想オブジェクト85の位置が現実オブジェクト87の位置に合うように調整される。このとき、例えば仮想オブジェクト85と現実オブジェクト87の上面の高さや中心位置が合うように調整されてもよい。その後、図16の下段に示すように、調整された仮想オブジェクト85の位置及び向きに合うように、寝てまくらを抱く姿勢に設定されたゲームキャラクタ89が配置され、仮想オブジェクト85が非表示となる。これにより、ゲームキャラクタ89が現実オブジェクト87を抱いているように表示することができる。
図17に示す例では、プレイヤにより例えばストロー付きグラスの仮想オブジェクト91が選択されている。図17の上段に示すように、仮想オブジェクト91の向きが、現実空間に存在するストロー付きグラスである現実オブジェクト93の向きに合うように調整される。このとき、例えば仮想オブジェクト91と現実オブジェクト93のストローの向きが合うように調整されてもよい。次に、図17の中段に示すように、仮想オブジェクト91の位置が現実オブジェクト93の位置に合うように調整される。このとき、例えば仮想オブジェクト91と現実オブジェクト93のストローの高さが合うように調整されてもよい。その後、図17の下段に示すように、調整された仮想オブジェクト91の位置及び向きに合うように、グラスに手を添え、ストローを口にくわえた姿勢に設定されたゲームキャラクタ95が配置され、仮想オブジェクト91が非表示となる。これにより、ゲームキャラクタ95が現実オブジェクト93を手に持ち、飲み物を飲んでいるように表示することができる。
図18に示す例では、プレイヤにより例えばテーブルの仮想オブジェクト97が選択されている。図18の上段に示すように、仮想オブジェクト97の向きが、現実空間に存在するテーブルである現実オブジェクト99の向きに合うように調整される。このとき、例えば仮想オブジェクト97と現実オブジェクト99の長手方向が合うように調整されてもよい。次に、図18の中段に示すように、仮想オブジェクト97の位置が現実オブジェクト99の位置に合うように調整される。このとき、例えば仮想オブジェクト97と現実オブジェクト99の上面の高さが合うように調整されてもよい。その後、図18の下段に示すように、調整された仮想オブジェクト97の位置及び向きに合うように、プレイヤとテーブルを挟んで対峙し、テーブルに手を置いたり肘をつく等の姿勢に設定されたゲームキャラクタ101が配置され、仮想オブジェクト97が非表示となる。これにより、ゲームキャラクタ101をプレイヤと一緒に食事等をしているように表示することができる。なお、テーブルに加えて、テーブル上のグラスや皿等についても同様の調整を行うことで、ゲームキャラクタ101がテーブル上でグラスや皿等を手に持ち、飲食しているように表示することが可能となる。これにより、プレイヤはデート気分を味わうことができる。
図19に示す例では、プレイヤにより例えば壁の仮想オブジェクト103が選択されている。図19の上段に示すように、仮想オブジェクト103の向きが、現実空間に存在する壁である現実オブジェクト105の向きに合うように調整される。このとき、例えば仮想オブジェクト103と現実オブジェクト105が平行となるように調整されてもよい。次に、図19の中段に示すように、仮想オブジェクト103の位置が現実オブジェクト105の位置に合うように調整される。このとき、例えば仮想オブジェクト103と現実オブジェクト105の壁面(奥行き方向の位置)が合うように調整されてもよい。その後、図19の下段に示すように、調整された仮想オブジェクト103の位置及び向きに合うように、壁にもたれかかった姿勢に設定されたゲームキャラクタ107が配置され、仮想オブジェクト103が非表示となる。これにより、例えばプレイヤが右手109を現実オブジェクト105の壁に当てた場合には、いわゆる壁ドンを行っている気分を味わうことができる。
(4-3.情報処理装置が実行する処理手順)
次に、図20を用いて、第1実施形態に係る情報処理装置3のCPU301によって実行される処理手順の一例について説明する。
ステップS110では、情報処理装置3は、オブジェクト選択処理部55により、プレイヤの入力に基づいて、仮想オブジェクトの種類を選択する。
ステップS120では、情報処理装置3は、オブジェクト表示処理部57により、上記ステップS110で選択された仮想オブジェクトの画像を、表示部13により現実空間の画像に重ね合わせて表示する。
ステップS130では、情報処理装置3は、オブジェクト調整処理部59により、プレイヤの入力に基づいて、上記ステップS120で表示された仮想オブジェクトの現実空間の画像に対する位置又は向きの少なくとも一方を調整する。
ステップS140では、情報処理装置3は、キャラクタ姿勢設定処理部61により、上記ステップS110で選択された仮想オブジェクトの種類に基づいて、ゲームキャラクタの姿勢を設定する。
ステップS150では、情報処理装置3は、第1キャラクタ表示処理部63により、上記ステップS130で調整された仮想オブジェクトの位置又は向きに合わせて配置されるように、上記ステップS140で設定された姿勢をとったゲームキャラクタの画像を表示部13に表示させる。
ステップS160では、情報処理装置3は、オブジェクト非表示処理部65により、仮想オブジェクトの画像を非表示とする。これにより、本フローチャートを終了する。
なお、上述した処理手順は一例であって、上記手順の少なくとも一部を削除又は変更してもよいし、上記以外の手順を追加してもよい。また、上記手順の少なくとも一部の順番を変更してもよいし、複数の手順が単一の手順にまとめられてもよい。例えば、上記ステップS120及びステップS130と、ステップS140とは、反対の順番で実行されてもよいし、同時並行して実行されてもよい。
(4-4.第1実施形態の効果)
以上説明したように、本実施形態のゲームプログラムは、プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部13と、信号の送受信を行うように構成された情報処理装置3を、仮想的なオブジェクトの画像を表示部13に表示させるオブジェクト表示処理部57、プレイヤの入力に基づいて、現実空間の画像に対する仮想的なオブジェクトの位置又は向きの少なくとも一方を調整するオブジェクト調整処理部59、調整された仮想的なオブジェクトの位置又は向きの少なくとも一方に合わせて配置されるように、仮想的なゲームキャラクタの画像を表示部13に表示させる第1キャラクタ表示処理部63、ゲームキャラクタの画像を表示させた際に、仮想的なオブジェクトの画像を非表示とするオブジェクト非表示処理部65、として機能させる。
本実施形態では、仮想オブジェクトの画像が表示部13により現実空間の画像に重ね合わせて表示され、プレイヤの入力により現実空間の画像に対する仮想オブジェクトの位置又は向きの少なくとも一方が調整される。そして、調整された仮想オブジェクトの位置又は向きに合わせて配置されるように、仮想的なゲームキャラクタの画像が表示部13により現実空間の画像に重ね合わせて表示され、仮想オブジェクトの画像が非表示となる。
これにより、仮想オブジェクトの位置や向きを現実空間に存在する実際のオブジェクトに合わせるように調整することで、ゲームキャラクタを実際のオブジェクトの位置や向きに合わせて配置されるように表示することができる。したがって、プレイヤに対してゲームキャラクタが現実世界に存在するように感じさせることが可能となるので、プレイヤに対して現実世界での体験をゲームキャラクタと共有しているように感じさせることができる。
また本実施形態において、オブジェクト調整処理部59は、プレイヤの入力に基づいて、現実空間の画像に含まれる現実着座オブジェクトに対する仮想着座オブジェクトの位置又は向きの少なくとも一方を調整し、第1キャラクタ表示処理部63は、ゲームキャラクタが現実着座オブジェクトの位置又は向きの少なくとも一方に合わせて配置されるように、ゲームキャラクタの画像を表示部13に表示させてもよい。
この場合、ゲームキャラクタを現実空間に存在する実際の現実着座オブジェクトに着座しているように表示することができる。これにより、プレイヤは例えば現実のイスに着座したゲームキャラクタとの間でコミュニケーションを行うことが可能となり、プレイヤに対してゲームキャラクタが現実世界に存在するように感じさせることができる。
また本実施形態において、ゲームプログラムは、情報処理装置3を、プレイヤの入力に基づいて、仮想オブジェクトの種類を選択するオブジェクト選択処理部55、としてさらに機能させてもよい。
この場合、プレイヤは現実空間に存在する実際のオブジェクトの種類に合わせて仮想的なオブジェクトの種類を選択することが可能となる。例えば、現実空間にイスが存在する場合には仮想的なイスのオブジェクトを選択し、当該イスのオブジェクトの位置や向きを現実空間に存在する実際のイスに合わせるように調整することで、ゲームキャラクタを実際のイスに着座しているように表示することができる。したがって、プレイヤに対してゲームキャラクタが現実世界に存在するようによりリアルに感じさせることができる。
また本実施形態において、ゲームプログラムは、情報処理装置3を、選択された仮想オブジェクトの種類に基づいて、ゲームキャラクタの姿勢を設定するキャラクタ姿勢設定処理部61、としてさらに機能させてもよく、その場合には、第1キャラクタ表示処理部63は、設定された姿勢をとったゲームキャラクタの画像を表示部13に表示させてもよい。
この場合、プレイヤが選択した仮想オブジェクトの種類に対応した姿勢をゲームキャラクタにとらせて表示することができる。例えば、プレイヤがストロー付きグラスのオブジェクトを選択した場合には、ゲームキャラクタに例えばグラスに手を添えてストローに吸い付く姿勢をとらせた上で、ゲームキャラクタを実際のストロー付きグラスの位置や向きに合わせて配置されるように表示することができる。したがって、プレイヤに対してゲームキャラクタが現実世界に存在するようによりリアルに感じさせることができる。
(4-5.第1実施形態の変形例)
以上説明した第1実施形態において、調整した仮想オブジェクトの位置及び向きを登録可能とし、当該登録内容に基づいてゲームキャラクタの行動を変化させてもよい。
図21に、本変形例に係る情報処理装置3の機能的構成の一例を示す。図21に示すように、情報処理装置3は、前述の図12に示す構成に加えて、オブジェクト登録処理部111と、第1キャラクタ行動設定処理部113とを有する。
オブジェクト登録処理部111は、オブジェクト調整処理部59により調整された仮想オブジェクトの位置又は向きの少なくとも一方を、適宜の記録媒体(例えばRAM305、記録装置317等。後述の図38参照)に登録する。
第1キャラクタ行動設定処理部113(キャラクタ行動設定処理部の一例)は、上記オブジェクト登録処理部111により登録された仮想オブジェクトの位置又は向きの少なくとも一方に基づいて、ゲームキャラクタの行動を設定する。「行動」には、ゲームキャラクタの移動、身体の動作、顔の表情やしぐさ、発言等が含まれる。第1キャラクタ表示処理部63は、ゲームキャラクタが上記第1キャラクタ行動設定処理部113により設定された行動をするように、ゲームキャラクタの画像を表示部13に表示させる。
図22に、仮想オブジェクトの登録を行う現実空間の一例を示す。図22は、例えばプレイヤの部屋であり、部屋にはソファ115、テーブル117、タンス119、テレビ121、カレンダー123、窓125等が配置されている。プレイヤは、各現実オブジェクトに対応した仮想オブジェクトを選択し、前述した位置及び向きの調整を行って、各仮想オブジェクトの種類、位置、向き等を登録する。これにより、ゲームキャラクタにプレイヤの部屋の家具等の配置に応じた動作を行わせることができる。例えば、ソファ115の場所で着座したり、テレビ121の前に座ってテレビの方向を見たり、テーブル117の場所で肘をついたり、飲食をしたり、タンス119の前で引き出しをあける動作をしたり、カレンダー123を見て「もうすぐ記念日だね」等のセリフを言ったり、窓125の前で外を眺めて「今日は天気がいいね」等のセリフを言ったりする等、登録内容に応じた多種多様な行動を行わせることが可能である。
本変形例によれば、プレイヤは例えば自分の部屋の家具等の配置に応じて仮想オブジェクトの位置や向きを調整して登録しておくことで、ゲームキャラクタにプレイヤの部屋の家具等の配置に応じた行動を行わせることができる。したがって、プレイヤに対してゲームキャラクタが自分の部屋に実際に存在するように感じさせることが可能となり、現実の体験をゲームキャラクタと共有しているように感じさせることができる。
<5.第2実施形態>
第2実施形態では、プレイヤの視線の方向に基づいてゲームキャラクタの視線の方向を設定する場合の処理の詳細について説明する。なお、本実施形態の処理内容は、前述のステップS50におけるコミュニケーション処理において実行される。
(5-1.情報処理装置の機能的構成)
まず、図23を用いて、第2実施形態に係る情報処理装置3の機能的構成の一例について説明する。なお、図23ではヘッドマウントディスプレイ7の構成の図示を省略しているが、前述の図2と同様の構成を有する。
図23に示すように、情報処理装置3は、視線方向設定処理部127と、第2キャラクタ表示処理部129と、付帯情報取得処理部131と、第2キャラクタ行動設定処理部133とを有する。
視線方向設定処理部127は、ヘッドマウントディスプレイ7の視線方向検出部15により検出したプレイヤの視線の方向に基づいて、目を有する仮想的なゲームキャラクタの視線の方向を設定する。前述のように、「目を有する仮想的なゲームキャラクタ」は人間に限るものではなく、人間以外の動物キャラクタ、人間や動物以外の仮想的な生物キャラクタ、生物以外のロボット等を含む。また前述のように、「プレイヤの視線の方向」はプレイヤの目の向きと頭部の向きの両方を含んだ方向であり、視線方向設定処理部127は、検出したプレイヤの目の向き及び頭部の向きの両方に基づいて、ゲームキャラクタの視線の方向を設定する。なお、「ゲームキャラクタの視線の方向」は、ゲームキャラクタの目の向き、頭部の向き、身体の向きを組み合わせた方向をいう。
視線方向設定処理部127は、例えば検出したプレイヤの視線の方向に追従するようにゲームキャラクタの視線の方向を設定してもよい。「追従する」とは、例えばプレイヤとゲームキャラクタとが対峙する場合(例えばプレイヤの正面方向とゲームキャラクタの正面方向との交差角度が90度より大きい場合)には、ゲームキャラクタの視線の方向がプレイヤの視線の方向に対してプレイヤとゲームキャラクタの間の位置(例えば中間位置)で交差することをいう。また、例えばプレイヤとゲームキャラクタとが横並びである場合(例えばプレイヤの正面方向とゲームキャラクタの正面方向とが平行又は交差角度が90度以下である場合)には、ゲームキャラクタの視線の方向とプレイヤの視線の方向とが略平行になることをいう。また、視線方向設定処理部127は、検出したプレイヤの視線の方向がゲームキャラクタに対応する方向である場合に、ゲームキャラクタの視線の方向をプレイヤに対応する方向に設定してもよい。
第2キャラクタ表示処理部129(キャラクタ表示処理部の一例)は、上記視線方向設定処理部127により設定されたゲームキャラクタの視線の方向に基づいてゲームキャラクタが視線の方向を変化させるように、ゲームキャラクタの画像を表示部13により現実空間の画像に重ね合わせて表示させる。このとき、第2キャラクタ表示処理部129は、ゲームキャラクタの目の向き、頭部の向き、身体の向きの少なくとも1つを変化させることで、ゲームキャラクタが視線の方向を変化させるようにゲームキャラクタの画像を表示する。したがって、ゲームキャラクタは、目の向きだけで視線の方向を変化させてもよいし、目の向き及び頭部の向き、目の向き及び身体の向き、又は、目の向きを変えずに頭部の向き及び身体の向きで視線の方向を変化させてもよいし、目の向き、頭部の向き、及び身体の向きの全部で視線の方向を変化させてもよい。
図24及び図25に、ゲームキャラクタの視線の方向をプレイヤの視線の方向に追従するように変化させる場合の一例を示す。なお、図24及び図25は表示部13に表示されるゲームプレイ画面ではなく、ゲームキャラクタの視線の方向とプレイヤの視線の方向との関係性を説明するための説明図である(後述の図28及び図29も同様)。図24は、プレイヤとゲームキャラクタとが対峙する場合の例である。図24の上段に示すように、プレイヤ135の視線の方向137がプレイヤから見て例えば右を向いた場合には、ゲームキャラクタ139の視線の方向141がプレイヤ135の視線の方向137と交差するようにプレイヤから見て右を向き、追従する。図24の中段に示すように、プレイヤ135の視線の方向137がプレイヤから見て例えば左を向いた場合には、ゲームキャラクタ139の視線の方向141がプレイヤ135の視線の方向137と交差するようにプレイヤから見て左を向き、追従する。図24の下段に示すように、プレイヤ135の視線の方向137がゲームキャラクタ139の方向を向いた場合には、ゲームキャラクタ139の視線の方向141がプレイヤ135の方向を向き、見つめ合う。
図25は、プレイヤとゲームキャラクタとが横並びの場合の例である。図25の上段に示すように、プレイヤ135の視線の方向137がプレイヤの正面から見て例えば右を向いた場合には、ゲームキャラクタ139の視線の方向141がプレイヤ135の視線の方向137と略平行となるように変化し、追従する。図25の中段に示すように、プレイヤ135の視線の方向137がプレイヤの正面から見て例えば左を向いた場合には、ゲームキャラクタ139の視線の方向141がプレイヤ135の視線の方向137と略平行となるように変化し、追従する。図25の下段に示すように、プレイヤ135の視線の方向137がゲームキャラクタ139の方向を向いた場合には、ゲームキャラクタ139の視線の方向141がプレイヤ135の方向を向き、見つめ合う。
なお、図示は省略するが、プレイヤ135の視線の方向137が仰角又は俯角の方向に変化した場合にも、上記と同様にゲームキャラクタ139の視線の方向141がプレイヤ135の視線の方向137と交差するように追従する。また、上記ではゲームキャラクタ139が例えば目の向きを変化させることで視線の方向141を変化させる場合について説明したが、目の向きに代えて又は加えて、頭部の向きや身体の向きを変化させることで視線の方向141を変化させてもよい。例えば、プレイヤ135の視線の方向137の変化が小さい場合には、ゲームキャラクタの目の向きを変化させ、中程度の場合には目の向きに代えて又は加えて頭部の向きを変化させ、大きい場合には目の向き又は頭部の向きに代えて又は加えて身体の向きを変化させてもよい。
図23に戻り、付帯情報取得処理部131は、例えば通信装置323(後述の図38参照)によりインターネット等のネットワークNWに接続し、情報を配信する情報配信サイトやデータベース等から各種の情報を取得する。また、付帯情報取得処理部131は、例えばGPS衛星からの信号に基づいてプレイヤの現在位置情報を取得してもよい。また、付帯情報取得処理部131は、ヘッドマウントディスプレイ7の各種のセンサで検出した情報や、情報取得部25が取得した情報を受信することで取得してもよい。例えば、日時、天気、ニュース、娯楽(コンサートや映画のスケジュール等)、買い物(バーゲンセール等)等に関わる情報を取得可能である。
第2キャラクタ行動設定処理部133は、上記付帯情報取得処理部131により取得された情報に基づいて、ゲームキャラクタの行動を設定する。「行動」には、ゲームキャラクタの移動、身体の動作、顔の表情やしぐさ、発言等が含まれる。第2キャラクタ表示処理部129は、ゲームキャラクタが上記第2キャラクタ行動設定処理部133により設定された行動をするように、ゲームキャラクタの画像を表示部13に表示させる。
第2キャラクタ行動設定処理部133により、ゲームキャラクタは例えば次のような行動を行うことが可能である。例えば、ヘッドマウントディスプレイ7に輝度センサを設けておき、プレイヤが夜空を見上げている際に流れ星が見えた場合に、プレイヤが流れ星の方向に視線の方向を変化させるのに合わせてゲームキャラクタも視線を追従させる。この際、輝度センサの検出情報に基づいて流れ星を判断し、ゲームキャラクタが「星がきれいだね」、「また流れ星があったよ」等の状況に応じた発言をしてもよい。同様に、プレイヤが花火を鑑賞する際に、プレイヤが花火の方向に視線の方向を変化させるのに合わせてゲームキャラクタも視線を追従させる。この際、輝度センサの検出情報に基づいて花火を判断し、ゲームキャラクタが「花火がきれいだね」等の状況に応じた発言をしてもよい。
また、例えば家のチャイムが鳴った際に、プレイヤが玄関の方向に視線の方向を変化させるのに合わせてゲームキャラクタも視線を追従させる。この際、ヘッドマウントディスプレイ7の音声入力部19による検出情報に基づいてチャイムと判断し、ゲームキャラクタが「誰か来たみたいだね」等の状況に応じた発言をしてもよい。
また、複数の取得情報を掛け合わせることで、プレイヤとゲームキャラクタとの間でさらに高度なコミュニケーションを行うことが可能となる。例えば、上記輝度センサの検出情報に時間帯情報を加えることで、その光が太陽の光なのか星の光なのかを判断できる。また、輝度センサの検出情報と時間帯情報にさらにGPSによる現在位置情報や視線方向情報を加えることで、星の光がどの星座の星なのかを判断することも可能となる。これにより、ゲームキャラクタが星座にまつわる小話をする等が可能となる。
また、例えば現在位置情報に応じたニュース配信情報を取得することで、例えば近くの店で使えるクーポン情報を得て、さらにプレイヤが「お腹すいたね」等の発言をした場合、音声入力部19による検出情報に基づいて発言の内容を判断し、ゲームキャラクタが「〇〇のお弁当が安いよ」等の提案をすることが可能となる。
また、例えば現在位置情報が映画館である場合に、例えばその映画館の上映スケジュール情報を取得することで現在上映中の映画を判断し、ホラー映画であればゲームキャラクタが怖がったり、コメディ映画であればゲームキャラクタが笑ったりすることも可能である。これにより、プレイヤはゲームキャラクタと一緒に映画鑑賞をしている気分を味わうことができる。
また、例えば上述した花火鑑賞の際に、現在位置情報を取得することで花火大会の場所を判別し、その花火大会にまつわる小話をする等が可能となる。
なお、以上説明した各処理部における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、上述した各処理部の機能は、後述するCPU301(後述の図38参照)が実行するゲームプログラムにより実装されるものであるが、例えばその一部がASICやFPGA等の専用集積回路、その他の電気回路等の実際の装置により実装されてもよい。さらに、以上説明した各処理部は、全部が情報処理装置3側に実装される場合に限定されるものではなく、その一部又は全部がヘッドマウントディスプレイ7側(例えば制御部27)に実装されてもよい。その場合、ヘッドマウントディスプレイ7の制御部27が情報処理装置の一例となる。
(5-2.情報処理装置が実行する処理手順)
次に、図26を用いて、第2実施形態に係る情報処理装置3のCPU301によって、プレイヤの視線の方向に基づいてゲームキャラクタの視線の方向を設定して変化させる際に実行される処理手順の一例について説明する。
ステップS210では、情報処理装置3は、ヘッドマウントディスプレイ7の視線方向検出部15により検出したプレイヤの視線の方向に関する情報を取得する。
ステップS220では、情報処理装置3は、視線方向設定処理部127により、プレイヤの視線の方向に基づいてゲームキャラクタの視線の方向を設定する。
ステップS230では、情報処理装置3は、第2キャラクタ表示処理部129により、上記ステップS220で設定されたゲームキャラクタの視線の方向に基づいてゲームキャラクタが視線の方向を変化させるように、ゲームキャラクタの画像を表示部13に表示させる。以上により、本フローチャートを終了する。
なお、上述した処理手順は一例であって、上記手順の少なくとも一部を削除又は変更してもよいし、上記以外の手順を追加してもよい。また、上記手順の少なくとも一部の順番を変更してもよいし、複数の手順が単一の手順にまとめられてもよい。
(5-3.第2実施形態の効果)
以上説明したように、本実施形態のゲームプログラムは、プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部13と、プレイヤの視線の方向を検出する視線方向検出部15と、信号の送受信を行うように構成された情報処理装置3を、検出したプレイヤの視線の方向に基づいて、目を有する仮想的なゲームキャラクタの視線の方向を設定する視線方向設定処理部127、設定されたゲームキャラクタの視線の方向に基づいてゲームキャラクタが視線の方向を変化させるように、ゲームキャラクタの画像を表示部13に表示させる第2キャラクタ表示処理部129、として機能させる。
本実施形態では、プレイヤの視線の方向に基づいてゲームキャラクタの視線の方向が設定され、ゲームキャラクタが視線の方向を設定された方向に変化させるようにゲームキャラクタの画像が生成され、表示部13により現実空間の画像に重ね合わせて表示される。これにより、現実世界での出来事に応じてプレイヤが視線の方向を変化させた場合に、その変化に対応するようにゲームキャラクタの視線の方向を変化させることができる。したがって、プレイヤに対して現実世界での体験をゲームキャラクタと共有しているように感じさせることができる。
また本実施形態において、視線方向設定処理部127は、検出したプレイヤの視線の方向に追従するようにゲームキャラクタの視線の方向を設定してもよい。
この場合、現実世界での出来事に応じてプレイヤが視線の方向を変化させた場合に、その視線の方向に追従するようにゲームキャラクタの視線の方向を変化させることができる。これにより、プレイヤに対して現実世界の同じものをゲームキャラクタと共に見ていると感じさせることができ、共有感を高めることができる。
また本実施形態において、視線方向設定処理部127は、検出したプレイヤの視線の方向がゲームキャラクタに対応する方向である場合に、ゲームキャラクタの視線の方向をプレイヤに対応する方向に設定してもよい。
この場合、例えばプレイヤの視線の方向に追従するようにゲームキャラクタの視線の方向を変化させつつ、プレイヤがゲームキャラクタの方向を見た場合にはゲームキャラクタもプレイヤの方向を見て見つめ合うことが可能となり、恋人感やデート感を演出することができる。
また本実施形態において、第2キャラクタ表示処理部129は、ゲームキャラクタの目の向き、頭部の向き、身体の向きの少なくとも1つを変化させることで、ゲームキャラクタが視線の方向を変化させるようにゲームキャラクタの画像を表示してもよい。
この場合、例えば設定されたゲームキャラクタの視線の方向の変化が小さい場合には目の向きを変化させ、中程度の場合には目の向きに代えて又は加えて頭部の向きを変化させ、大きい場合には目の向き又は頭部の向きに代えて又は加えて身体の向きを変化させる等が可能となる。このように、設定されたゲームキャラクタの視線の方向の変化の大きさに応じてゲームキャラクタの視線の方向を変化させる動作の態様を変化させることで、より自然な表現が可能となる。
(5-4.第2実施形態の変形例)
以上説明した第2実施形態において、ゲームキャラクタが視線の方向をプレイヤの視線の方向に追従させた場合に、当該ゲームキャラクタの顔をプレイヤが視認しやすいようにしてもよい。
図27に、本変形例に係る情報処理装置3の機能的構成の一例を示す。図27に示すように、情報処理装置3は、前述の図23に示す構成に加えて、時差設定処理部143を有する。
時差設定処理部143は、ヘッドマウントディスプレイ7の視線方向検出部15により検出したプレイヤの視線の方向がゲームキャラクタに対応していない方向からゲームキャラクタに対応する方向に変化した場合に、プレイヤの視線の方向の変化とゲームキャラクタの視線の方向の変化との間に所定の時差を設定する。「所定の時差」は、例えば1秒から数秒程度に設定されてもよい。
図28に、例えばプレイヤとゲームキャラクタとが横並びの場合において、時差を設定した場合のゲームキャラクタの視線の方向とプレイヤの視線の方向の変化の一例を示す。図28の上段に示すように、プレイヤ135の視線の方向137がプレイヤの正面から見て例えば右を向いた場合には、ゲームキャラクタ139の視線の方向141がプレイヤ135の視線の方向137と略平行となるように変化し、追従する。次に、図28の中段に示すように、プレイヤ135の視線の方向137がゲームキャラクタ139の方向を向いた場合には、時差設定処理部143により設定された時差の間だけ、ゲームキャラクタ139の視線の方向141は変化しない。そして、時差の経過後には、図28の下段に示すように、ゲームキャラクタ139の視線の方向141がプレイヤ135の方向を向き、見つめ合う。
本変形例によれば、例えばプレイヤの視線の方向に追従するようにゲームキャラクタの視線の方向を変化させつつ、プレイヤがゲームキャラクタの方向を見た場合、ゲームキャラクタは所定の時差が経過した後にプレイヤの方向を見ることとなる。これにより、プレイヤはゲームキャラクタが自分と同じものを共に見ている姿をしばらくの間眺めて確認することが可能となり、現実世界での体験をゲームキャラクタと共有しているというプレイヤの感覚をより高めることができる。
また、上記手法以外にも、例えば視線方向設定処理部127が、ヘッドマウントディスプレイ7の視線方向検出部15により検出したプレイヤの目の向き又は頭部の向きのいずれか一方、例えば頭部の向きに基づいて、ゲームキャラクタの視線の方向を設定するようにしてもよい。
図29に、この場合のゲームキャラクタの視線の方向とプレイヤの視線の方向の変化の一例を示す。図29の上段に示すように、プレイヤ135の頭部の向き137aがプレイヤの正面から見て例えば右を向いた場合には、ゲームキャラクタ139の視線の方向141がプレイヤ135の頭部の向き137aと略平行となるように変化し、追従する。次に、図29の下段に示すように、プレイヤ135が頭部の向き137aを変化させずに目の向き137bだけをゲームキャラクタ139の方向に向けた場合には、ゲームキャラクタ139の視線の方向141は変化しない。これにより、プレイヤは目の向きだけ変更してゲームキャラクタが自分と同じものを共に見ている姿を視認することができる。
本変形例によれば、例えばプレイヤの頭部の向きだけに追従するようにゲームキャラクタの視線の方向を変化させることが可能となる。このように、プレイヤの目の向きと頭部の向きをそれぞれ独立に検出してゲームキャラクタの視線方向の制御を行うことで、例えばゲームキャラクタの視線方向をプレイヤの頭部の向きに追従させておいて、プレイヤは目の向きだけ変更してそのゲームキャラクタの姿を眺めて確認する、いわゆる「ちら見」と呼ばれる行動が可能となり、現実世界での体験をゲームキャラクタと共有しているというプレイヤの感覚をより高めることができる。
<6.第3実施形態>
第3実施形態では、プレイヤの周囲の現実空間の風の状態を検出し、検出した風の状態に応じてゲームキャラクタに付随する柔軟なオブジェクト(例えば髪や衣服等)の変形の態様を変化させる場合の処理の詳細について説明する。なお、本実施形態の処理内容は、前述のステップS50におけるコミュニケーション処理において実行される。例えば前述のうちわモードに切り替わった際に実行されてもよい。
(6-1.情報処理装置の機能的構成)
まず、図30を用いて、第3実施形態に係るヘッドマウントディスプレイ7の構成及び情報処理装置3の機能的構成の一例について説明する。なお、ヘッドマウントディスプレイ7は図30に示す構成の他に前述の図2と同様の構成を有するが、図2と同様の構成については図示を省略している。
図30に示すように、ヘッドマウントディスプレイ7は、風検出部145を有する。風検出部145は、プレイヤの周囲の現実空間の風の状態を検出する。風検出部145は、「風の状態」として、プレイヤの周囲の風量、風速、風向の少なくとも1つを検出する。風検出部145は、ヘッドマウントディスプレイ7の前面、側面、後面のいずれかに設置されてもよいし、複数個所に設置されてもよい。また風検出部145は、ヘッドマウントディスプレイ7に対して一体的に設置されてもよいし、信号の送受信が可能なように別体として設置されてもよい。
風検出部145は、風量検出部147と、風速検出部149と、風向検出部151とを有する。風量検出部147は、例えば風量計であり、プレイヤの周囲の風量を検出する。風速検出部149は、例えば風速計であり、プレイヤの周囲の風速を検出する。風向検出部151は、例えば風向計であり、プレイヤの周囲の風向きを検出する。なお、風量検出部147、風速検出部149、風向検出部151は、それぞれが別体である必要はなく、例えば風向風速計のように、2以上の検出部が一体的に構成されてもよい。
情報処理装置3は、第3キャラクタ表示処理部153と、オブジェクト変形処理部155と、第3キャラクタ行動設定処理部157と、付帯情報取得処理部131とを有する。
第3キャラクタ表示処理部153(キャラクタ表示処理部の一例)は、仮想的なゲームキャラクタの画像を現実空間の画像に重ね合わせて表示部13に表示させる。
オブジェクト変形処理部155は、ヘッドマウントディスプレイ7の風検出部145により検出した風の状態(風量、風速、風向の少なくとも1つ)に基づいて、ゲームキャラクタに付随する柔軟なオブジェクトの変形の態様を変化させる。「柔軟なオブジェクト」は、例えばゲームキャラクタの髪、ゲームキャラクタが着用している衣服や水着等である。なお、ゲームキャラクタが女性キャラクタである場合には、例えば胸等の身体の一部を含めてもよい。「変形の態様」は、例えば変形の大きさ、変形の方向、揺れ、振動、めくれ等である。なお、柔軟オブジェクトが例えば衣服や水着等である場合には、破れ、破損、分解等を含めてもよい。
第3キャラクタ行動設定処理部157(キャラクタ行動設定処理部の一例)は、ヘッドマウントディスプレイ7の風検出部145により検出した風の状態(風量、風速、風向の少なくとも1つ)に基づいて、ゲームキャラクタの行動が変化するように設定する。上記第3キャラクタ表示処理部153は、ゲームキャラクタが第3キャラクタ行動設定処理部157により設定された行動をするように、ゲームキャラクタの画像を表示部13に表示させる。
付帯情報取得処理部131は、前述の第2実施形態と同様であるため説明を省略する。第3キャラクタ行動設定処理部157は、上記付帯情報取得処理部131により取得された情報に基づいて、ゲームキャラクタの行動を設定する。第3キャラクタ表示処理部153は、ゲームキャラクタが上記第3キャラクタ行動設定処理部157により設定された行動をするように、ゲームキャラクタの画像を表示部13に表示させる。
図31及び図32に、本実施形態におけるゲーム画面の例を示す。図31に示す例は、現実世界でプレイヤの周囲に風が生じる出来事が起き、その風の強さが比較的弱い場合である。風が生じる出来事は特に限定されるものではないが、例えばプレイヤの手やうちわによる仰ぎ、口から息を吐く、扇風機の風を浴びる、ドライヤの風を当てる、外の風に当たる等である。なお、上記の仰ぎ動作、息を吐く、ドライヤの風を当てる等の場合には、それらの風を検出可能なように、風検出部145はヘッドマウントディスプレイ7に対して別体として設置されてもよい。図31に示すように、ゲームキャラクタ159の髪161が風向きに沿ってなびいている。この際、ゲームキャラクタ159に「涼しくて心地いいね」等の風の強さに応じたセリフを言わせてもよい。
図32に示す例は、現実世界でプレイヤの周囲に風が生じる出来事が起き、その風の強さが比較的強い場合である。図32に示すように、ゲームキャラクタ159の髪161が風向きに沿って大きくなびくと共に、スカート163がめくれている。この際、ゲームキャラクタ159に「キャッ」と叫んでスカート163を押さえたり、恥ずかしがる等の行動をさせてもよい。
また、付帯情報取得処理部131により取得された情報に基づいて行動を設定することで、プレイヤとゲームキャラクタとの間でさらに高度なコミュニケーションを行うことが可能となる。例えば、上記図31に示す場合において、カレンダー情報から夏であることを判別すると共に、カメラ画像やプレイヤの音声から扇風機の風であることを判別し、「夏は扇風機に限るね」等のセリフを言わせてもよい。また、時間帯情報とGPSによる現在位置情報に基づいて夜に海の近くにいることを判別し、「夜の海の風は心地いいね」等のセリフを言わせてもよい。また例えば、上記図32において、天気情報に基づいて台風が接近していることを判別し、「台風が近づいてきたよ」等のセリフを言わせてもよい。
なお、以上説明した各処理部における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、上述した各処理部の機能は、後述するCPU301(後述の図38参照)が実行するゲームプログラムにより実装されるものであるが、例えばその一部がASICやFPGA等の専用集積回路、その他の電気回路等の実際の装置により実装されてもよい。さらに、以上説明した各処理部は、全部が情報処理装置3側に実装される場合に限定されるものではなく、その一部又は全部がヘッドマウントディスプレイ7側(例えば制御部27)に実装されてもよい。その場合、ヘッドマウントディスプレイ7の制御部27が情報処理装置の一例となる。
(6-2.情報処理装置が実行する処理手順)
次に、図33を用いて、第3実施形態に係る情報処理装置3のCPU301によって、検出した風の状態に応じてゲームキャラクタに付随する柔軟なオブジェクトの変形の態様や行動を変化させる際に実行される処理手順の一例について説明する。
ステップS310では、情報処理装置3は、第3キャラクタ表示処理部153により、仮想的なゲームキャラクタの画像を現実空間の画像に重ね合わせて表示部13に表示する。
ステップS320では、情報処理装置3は、ヘッドマウントディスプレイ7の風検出部145により検出したプレイヤの周囲の現実空間の風の状態に関わる情報(風量、風速、風向の少なくとも1つ)を取得する。
ステップS330では、情報処理装置3は、オブジェクト変形処理部155により、上記ステップS320で取得した風の状態に基づいて、ゲームキャラクタに付随する柔軟なオブジェクトの変形の態様が変化するように設定し、第3キャラクタ表示処理部153により、柔軟オブジェクトが設定された変形をするように柔軟オブジェクトの画像を表示部13に表示させる。
ステップS340では、情報処理装置3は、第3キャラクタ行動設定処理部157により、上記ステップS320で取得した風の状態に基づいてゲームキャラクタの行動が変化するように設定し、第3キャラクタ表示処理部153により、ゲームキャラクタが設定された行動をするようにゲームキャラクタの画像を表示部13に表示させる。以上により、本フローチャートを終了する。
なお、上述した処理手順は一例であって、上記手順の少なくとも一部を削除又は変更してもよいし、上記以外の手順を追加してもよい。また、上記手順の少なくとも一部の順番を変更してもよいし、複数の手順が単一の手順にまとめられてもよい。
(6-3.第3実施形態の効果)
以上説明したように、本実施形態のゲームプログラムは、プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部13と、プレイヤの周囲の現実空間の風の状態を検出する風検出部145と、信号の送受信を行うように構成された情報処理装置3を、仮想的なゲームキャラクタの画像を表示部13に表示させる第3キャラクタ表示処理部153、検出した風の状態に基づいて、ゲームキャラクタに付随する柔軟なオブジェクトの変形の態様を変化させるオブジェクト変形処理部155、として機能させる。
本実施形態では、仮想的なゲームキャラクタの画像が表示部13により現実空間の画像に重ね合わせて表示される。その際、プレイヤの周囲の現実空間の風の状態が検出され、検出した風の状態に応じてゲームキャラクタに付随する柔軟なオブジェクトの変形の態様が変化する。
これにより、現実世界で風が生じる出来事が起きた場合に、その風の強さや風向きに応じてゲームキャラクタの例えば髪や衣服等の変形の態様を変化させることができる。例えば、風の強さが強い場合には髪が風向きに沿って大きくなびくと共にスカートがめくれ、風の強さが弱い場合には髪だけがなびく等が可能となる。したがって、プレイヤに対して現実世界での体験をゲームキャラクタと共有しているように感じさせることができる。
また本実施形態において、ゲームプログラムは、情報処理装置3を、検出した風の状態に基づいて、ゲームキャラクタの行動が変化するように設定する第3キャラクタ行動設定処理部157、としてさらに機能させてもよく、その場合には、第3キャラクタ表示処理部153は、ゲームキャラクタが設定された行動をするように、ゲームキャラクタの画像を表示部13に表示させてもよい。
この場合、現実世界で風が生じる出来事が起きた場合に、その風の状態に応じてゲームキャラクタの行動を変化させることができる。例えば、風の強さが強い場合には「キャッ」と叫んでスカートのめくれを押さえると共に恥ずかしがったり、風の強さが弱い場合には「涼しくて心地いいね」等の風の強さに応じたセリフを言う等が可能となる。したがって、プレイヤに対して現実世界での体験をゲームキャラクタと共有しているようによりリアルに感じさせることができる。
また本実施形態において、風検出部145は、プレイヤの周囲の風量、風速、風向の少なくとも1つを検出し、オブジェクト変形処理部155は、検出した風量、風速、風向の少なくとも1つに基づいて柔軟なオブジェクトの変形の態様を変化させてもよい。
この場合、現実世界で風が生じる出来事が起きた場合に、その風の強さ(風量、風速)だけでなく、風向きに応じてゲームキャラクタの例えば髪や衣服等の変形の態様(変形の方向を含む)を変化させることができる。例えば、風量や風速が強い場合には髪が風向きに沿って大きくなびくと共にスカートが風向きに応じた方向にめくれ、風量や風速が弱い場合には髪だけが風向きに沿ってなびく等が可能となる。したがって、プレイヤに対して現実世界での体験をゲームキャラクタと共有しているようによりリアルに感じさせることができる。
<7.第4実施形態>
第4実施形態では、プレイヤの周囲の現実空間の湿度を検出し、検出した湿度に応じてゲームキャラクタの肌又は当該ゲームキャラクタに付随するオブジェクト(髪や衣服等)の濡れ具合を変化させる場合の処理の詳細について説明する。なお、本実施形態の処理内容は、前述のステップS50におけるコミュニケーション処理において実行される。例えば前述の霧吹きモードに切り替わった際に実行されてもよい。
(7-1.情報処理装置の機能的構成)
まず、図34を用いて、第4実施形態に係るヘッドマウントディスプレイ7の構成及び情報処理装置3の機能的構成の一例について説明する。なお、ヘッドマウントディスプレイ7は図34に示す構成の他に前述の図2と同様の構成を有するが、図2と同様の構成については図示を省略している。
図34に示すように、ヘッドマウントディスプレイ7は、湿度検出部165と、温度検出部167とを有する。湿度検出部165は、例えば湿度計であり、プレイヤの周囲の現実空間の湿度を検出する。温度検出部167は、例えば温度計であり、プレイヤの周囲の現実空間の温度を検出する。湿度検出部165及び温度検出部167は、ヘッドマウントディスプレイ7の前面、側面、後面のいずれかに設置されてもよいし、複数個所に設置されてもよい。また湿度検出部165及び温度検出部167は、ヘッドマウントディスプレイ7に対して一体的に設置されてもよいし、信号の送受信が可能なように別体として設置されてもよい。なお、湿度検出部165及び温度検出部167の両方を設置せずに、いずれか一方のみを設置してもよい。
情報処理装置3は、第4キャラクタ表示処理部169と、濡れ処理実行処理部171と、発汗処理実行処理部173と、第4キャラクタ行動設定処理部175と、付帯情報取得処理部131とを有する。
第4キャラクタ表示処理部169(キャラクタ表示処理部の一例)は、仮想的なゲームキャラクタの画像を現実空間の画像に重ね合わせて表示部13に表示させる。
濡れ処理実行処理部171は、ヘッドマウントディスプレイ7の湿度検出部165により検出した湿度に基づいて、ゲームキャラクタの肌又は当該ゲームキャラクタに付随するオブジェクトに対して濡れ具合が変化するように濡れ処理を実行する。「ゲームキャラクタの肌」は、ゲームキャラクタの顔の肌及び身体の肌を含む。「ゲームキャラクタに付随するオブジェクト」は、例えばゲームキャラクタの髪、ゲームキャラクタが着用している衣服や水着等である。例えば、湿度が高い場合にはゲームキャラクタの肌や髪がずぶ濡れになったり、着用している衣服が濡れて透けたりし、湿度が低い場合にはゲームキャラクタの肌や髪が少しだけ濡れて衣服は透けない等、湿度の高低に応じて濡れ具合(例えば濡れる度合いや濡れる範囲等)と共に衣服の透け具合(例えば透ける度合いや透ける範囲等)が変化するように濡れ処理を行ってもよい。また、濡れ処理に加えて、湿度の高低に応じてゲームキャラクタの顔の紅潮の度合いを変化させてもよい。
発汗処理実行処理部173は、ヘッドマウントディスプレイ7の温度検出部167により検出した温度に基づいて、ゲームキャラクタの肌に対して発汗具合が変化するように発汗処理を実行する。例えば、温度が低い場合にはゲームキャラクタが汗をかかない、又は、微量の汗を狭い範囲にかくように設定し、温度が高い場合には大量の汗を広い範囲にかく等、温度の高低に応じて汗の量や汗をかく範囲等が変化するように発汗処理を行ってもよい。また、発汗処理に加えて、温度の高低に応じてゲームキャラクタの顔の紅潮の度合いを変化させてもよい。
第4キャラクタ行動設定処理部175(キャラクタ行動設定処理部の一例)は、ヘッドマウントディスプレイ7の湿度検出部165及び温度検出部167により検出した湿度及び温度の少なくとも一方に基づいて、ゲームキャラクタの行動が変化するように設定する。上記第4キャラクタ表示処理部169は、ゲームキャラクタが第4キャラクタ行動設定処理部175により設定された行動をするように、ゲームキャラクタの画像を表示部13に表示させる。
付帯情報取得処理部131は、前述の第2実施形態と同様であるため説明を省略する。第4キャラクタ行動設定処理部175は、上記付帯情報取得処理部131により取得された情報に基づいて、ゲームキャラクタの行動を設定する。第4キャラクタ表示処理部169は、ゲームキャラクタが上記第4キャラクタ行動設定処理部175により設定された行動をするように、ゲームキャラクタの画像を表示部13に表示させる。
図35及び図36に、本実施形態におけるゲーム画面の例を示す。図35に示す例は、現実世界でプレイヤの周囲に湿度が高まる出来事が起き、その湿度が比較的高い場合である。湿度が高まる出来事は特に限定されるものではないが、例えば霧吹き器によるスプレーの発射、ホースによる放水、シャワーをかける、雨に当たる等である。なお、上記のスプレー発射、ホースによる放水、シャワーをかける等の場合には、それらによる湿度の変化を検出可能なように、湿度検出部165はヘッドマウントディスプレイ7に対して別体として設置されてもよい。図35に示す例では、ゲームキャラクタ177の顔179、髪181、衣服183等がずぶ濡れになっている。この際、ゲームキャラクタ177に「雨に濡れちゃった」等の湿度に応じたセリフを言わせてもよい。
図36に示す例は、現実世界でプレイヤの周囲に温度が高まる出来事が起き、その温度が比較的高い場合である。図36に示すように、ゲームキャラクタ185の顔187が紅潮して汗をかくと共に、ハンカチ189で顔をふく動作を行っている。この際、ゲームキャラクタ185に「今日は本当に暑いね」等の温度に応じたセリフを言わせてもよい。
また、付帯情報取得処理部131により取得された情報に基づいて行動を設定することで、プレイヤとゲームキャラクタとの間でさらに高度なコミュニケーションを行うことが可能となる。例えば、上記図35に示す場合において、カメラ画像やプレイヤの音声からホースによる放水であることを判別し、「ずぶ濡れになっちゃったよ」等のセリフを言わせて怒らせてもよい。また、時間帯情報と天気情報に基づいて夕立ちであることを判別し、「夕立ちに降られちゃった」等のセリフを言わせてもよい。また例えば、上記図36において、カレンダー情報に基づいて季節が夏であることを判別し、「今年の夏は猛暑だね」等のセリフを言わせてもよい。
なお、本実施形態では湿度と温度の両方を検出する場合について説明したが、必ずしも両方を検出する必要はなく、湿度のみ又は温度のみを検出し、検出結果に基づいた処理を実行してもよい。
なお、以上説明した各処理部における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、上述した各処理部の機能は、後述するCPU301(後述の図38参照)が実行するゲームプログラムにより実装されるものであるが、例えばその一部がASICやFPGA等の専用集積回路、その他の電気回路等の実際の装置により実装されてもよい。さらに、以上説明した各処理部は、全部が情報処理装置3側に実装される場合に限定されるものではなく、その一部又は全部がヘッドマウントディスプレイ7側(例えば制御部27)に実装されてもよい。その場合、ヘッドマウントディスプレイ7の制御部27が情報処理装置の一例となる。
(7-2.情報処理装置が実行する処理手順)
次に、図37を用いて、第4実施形態に係る情報処理装置3のCPU301によって、検出した湿度や温度に応じてゲームキャラクタの肌又は当該ゲームキャラクタに付随するオブジェクトの濡れ具合や発汗具合を変化させる際に実行される処理手順の一例について説明する。
ステップS410では、情報処理装置3は、第4キャラクタ表示処理部169により、仮想的なゲームキャラクタの画像を現実空間の画像に重ね合わせて表示部13に表示させる。
ステップS420では、情報処理装置3は、ヘッドマウントディスプレイ7の湿度検出部165及び温度検出部167により検出したプレイヤの周囲の現実空間の湿度及び温度に関わる情報を取得する。
ステップS430では、情報処理装置3は、濡れ処理実行処理部171により、ヘッドマウントディスプレイ7の湿度検出部165により検出した湿度に基づいて、ゲームキャラクタの肌又は当該ゲームキャラクタに付随するオブジェクトに対して濡れ具合が変化するように濡れ処理を実行し、表示部13に表示する。
ステップS440では、情報処理装置3は、発汗処理実行処理部173により、ヘッドマウントディスプレイ7の温度検出部167により検出した温度に基づいて、ゲームキャラクタの肌に対して発汗具合が変化するように発汗処理を実行し、表示部13に表示する。
ステップS450では、情報処理装置3は、第4キャラクタ行動設定処理部175により、ヘッドマウントディスプレイ7の湿度検出部165及び温度検出部167により検出した湿度及び温度に基づいて、ゲームキャラクタの行動が変化するように設定し、第4キャラクタ表示処理部169により、ゲームキャラクタが設定された行動をするようにゲームキャラクタの画像を表示部13に表示させる。以上により、本フローチャートを終了する。
なお、上述した処理手順は一例であって、上記手順の少なくとも一部を削除又は変更してもよいし、上記以外の手順を追加してもよい。また、上記手順の少なくとも一部の順番を変更してもよいし、複数の手順が単一の手順にまとめられてもよい。例えば、上記では湿度と温度の両方を検出する場合について説明したが、必ずしも両方を検出する必要はなく、湿度のみ又は温度のみを検出し、検出結果に基づいた処理を実行してもよい。湿度のみを検出する場合にはステップS440は不要となり、温度のみを検出する場合にはステップS430は不要となる。
(7-3.第4実施形態の効果)
以上説明したように、本実施形態のゲームプログラムは、プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部13と、プレイヤの周囲の現実空間の湿度を検出する湿度検出部165と、信号の送受信を行うように構成された情報処理装置3を、仮想的なゲームキャラクタの画像を表示部13に表示させる第4キャラクタ表示処理部169、検出した湿度に基づいて、ゲームキャラクタの肌又は当該ゲームキャラクタに付随するオブジェクトに対して濡れ具合が変化するように濡れ処理を実行する濡れ処理実行処理部171、として機能させる。
本実施形態では、仮想的なゲームキャラクタの画像が表示部13により現実空間の画像に重ね合わせて表示される。その際、プレイヤの周囲の現実空間の湿度が検出され、検出した湿度に応じてゲームキャラクタの肌又は当該ゲームキャラクタに付随するオブジェクトの濡れ具合が変化する。
これにより、例えば現実世界で湿度が高まる出来事が起きた場合に、その湿度の高さに応じて例えばゲームキャラクタの肌又は例えば髪や衣服等の濡れ具合を変化させることができる。例えば、湿度が高い場合には肌や髪がずぶ濡れになったり衣服が透けたりし、湿度が低い場合には肌や髪が少しだけ濡れて衣服は透けない等の処理が可能となる。したがって、プレイヤに対して現実世界での体験をゲームキャラクタと共有しているように感じさせることができる。
また本実施形態において、ゲームプログラムは、情報処理装置3を、検出した湿度に基づいて、ゲームキャラクタの行動が変化するように設定する第4キャラクタ行動設定処理部175、としてさらに機能させてもよく、その場合には、第4キャラクタ表示処理部169は、ゲームキャラクタが設定された行動をするように、ゲームキャラクタの画像を表示部13に表示させてもよい。
この場合、例えば現実世界で湿度が高まる出来事が起きた場合に、その湿度の高さに応じてゲームキャラクタの行動を変化させることができる。例えば、湿度が高い場合には衣服が透けると共に「キャッ」と叫んで恥ずかしがり、湿度が低い場合には肌だけが濡れて「冷たくて気持ちいいね」等のセリフを言う等が可能となる。したがって、プレイヤに対して現実世界での体験をゲームキャラクタと共有しているようによりリアルに感じさせることができる。
また本実施形態において、ゲームプログラムは、情報処理装置3を、検出した温度に基づいて、ゲームキャラクタの肌に対して発汗具合が変化するように発汗処理を実行する発汗処理実行処理部173、としてさらに機能させてもよい。
この場合、例えば現実世界で温度が高まる出来事(例えば夏場の日中に散歩する等)が起きた場合に、その温度の高さに応じて例えばゲームキャラクタの肌の発汗具合を変化させることができる。したがって、プレイヤに対して現実世界での体験をゲームキャラクタと共有しているようによりリアルに感じさせることができる。
また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。
<8.情報処理装置のハードウェア構成>
次に、図38を用いて、上記で説明したCPU301等が実行するプログラムにより実装された各処理部を実現する情報処理装置3のハードウェア構成の一例について説明する。なお、ヘッドマウントディスプレイ7の制御部27が同様のハードウェア構成を有してもよい。
図38に示すように、情報処理装置3は、例えば、CPU301と、ROM303と、RAM305と、GPU306と、例えばASIC又はFPGA等の特定の用途向けに構築された専用集積回路307と、入力装置313と、出力装置315と、記録装置317と、ドライブ319と、接続ポート321と、通信装置323を有する。これらの構成は、バス309や入出力インターフェース311等を介し相互に信号を伝達可能に接続されている。
ゲームプログラムは、例えば、ROM303やRAM305、ハードディスク等の記録装置317等に記録しておくことができる。
また、ゲームプログラムは、例えば、フレキシブルディスクなどの磁気ディスク、各種のCD、MOディスク、DVD等の光ディスク、半導体メモリ等のリムーバブルな記録媒体325に、一時的又は永続的(非一時的)に記録しておくこともできる。このような記録媒体325は、いわゆるパッケージソフトウエアとして提供することもできる。この場合、これらの記録媒体325に記録されたゲームプログラムは、ドライブ319により読み出されて、入出力インターフェース311やバス309等を介し上記記録装置317に記録されてもよい。
また、ゲームプログラムは、例えば、ダウンロードサイト、他のコンピュータ、他の記録装置等(図示せず)に記録しておくこともできる。この場合、ゲームプログラムは、LANやインターネット等のネットワークNWを介し転送され、通信装置323がこのプログラムを受信する。そして、通信装置323が受信したプログラムは、入出力インターフェース311やバス309等を介し上記記録装置317に記録されてもよい。
また、ゲームプログラムは、例えば、適宜の外部接続機器327に記録しておくこともできる。この場合、ゲームプログラムは、適宜の接続ポート321を介し転送され、入出力インターフェース311やバス309等を介し上記記録装置317に記録されてもよい。
そして、CPU301が、上記記録装置317に記録されたプログラムに従い各種の処理を実行することにより、前述のオブジェクト選択処理部55、オブジェクト表示処理部57、オブジェクト調整処理部59、キャラクタ姿勢設定処理部61、第1キャラクタ表示処理部63、オブジェクト非表示処理部65、オブジェクト登録処理部111、第1キャラクタ行動設定処理部113、視線方向設定処理部127、第2キャラクタ表示処理部129、付帯情報取得処理部131、第2キャラクタ行動設定処理部133、時差設定処理部143、第3キャラクタ表示処理部153、オブジェクト変形処理部155、第3キャラクタ行動設定処理部157、第4キャラクタ表示処理部169、濡れ処理実行処理部171、発汗処理実行処理部173、第4キャラクタ行動設定処理部175等による処理が実現される。この際、CPU301は、例えば、上記記録装置317からプログラムを、直接読み出して実行してもよく、RAM305に一旦ロードした上で実行してもよい。更にCPU301は、例えば、プログラムを通信装置323やドライブ319、接続ポート321を介し受信する場合、受信したプログラムを記録装置317に記録せずに直接実行してもよい。
また、CPU301は、必要に応じて、前述のゲームコントローラ5を含む、例えばマイク、マウス、キーボード等(図示せず)の入力装置313から入力する信号や情報に基づいて各種の処理を行ってもよい。
GPU306は、CPU301からの指示に応じて例えばレンダリング処理などの画像表示のための処理を行う。
そして、CPU301及びGPU306は、上記の処理を実行した結果を、例えば前述のヘッドマウントディスプレイ7の表示部13を含む、出力装置315から出力する。さらにCPU301及びGPU306は、必要に応じてこの処理結果を通信装置323や接続ポート321を介し送信してもよく、上記記録装置317や記録媒体325に記録させてもよい。
3 情報処理装置
7 ヘッドマウントディスプレイ
13 表示部
15 視線方向検出部
27 制御部(情報処理装置)
55 オブジェクト選択処理部
57 オブジェクト表示処理部
59 オブジェクト調整処理部
61 キャラクタ姿勢設定処理部
63 第1キャラクタ表示処理部
65 オブジェクト非表示処理部
67 仮想着座オブジェクト(仮想的なオブジェクト)
71 ゲームキャラクタ
73 仮想着座オブジェクト(仮想的なオブジェクト)
77 ゲームキャラクタ
79 仮想着座オブジェクト(仮想的なオブジェクト)
83 ゲームキャラクタ
85 仮想オブジェクト(仮想的なオブジェクト)
89 ゲームキャラクタ
91 仮想オブジェクト(仮想的なオブジェクト)
95 ゲームキャラクタ
97 仮想オブジェクト(仮想的なオブジェクト)
101 ゲームキャラクタ
103 仮想オブジェクト(仮想的なオブジェクト)
107 ゲームキャラクタ
111 オブジェクト登録処理部
113 第1キャラクタ行動設定処理部(キャラクタ行動設定処理部)
127 視線方向設定処理部
129 第2キャラクタ表示処理部(キャラクタ表示処理部)
131 付帯情報取得処理部
133 第2キャラクタ行動設定処理部
143 時差設定処理部
145 風検出部
147 風量検出部
149 風速検出部
151 風向検出部
153 第3キャラクタ表示処理部(キャラクタ表示処理部)
155 オブジェクト変形処理部
157 第3キャラクタ行動設定処理部(キャラクタ行動設定処理部)
165 湿度検出部
167 温度検出部
169 第4キャラクタ表示処理部(キャラクタ表示処理部)
171 濡れ処理実行処理部
173 発汗処理実行処理部
175 第4キャラクタ行動設定処理部(キャラクタ行動設定処理部)
325 記録媒体

Claims (7)

  1. プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部と、信号の送受信を行うように構成された情報処理装置を、
    仮想的なオブジェクトの画像を前記表示部に表示させるオブジェクト表示処理部、
    前記プレイヤの入力に基づいて、前記現実空間の画像に対する前記オブジェクトの位置又は向きの少なくとも一方を調整するオブジェクト調整処理部、
    調整された前記オブジェクトの位置又は向きの少なくとも一方に合わせて配置されるように、仮想的なゲームキャラクタの画像を前記表示部に表示させるキャラクタ表示処理部、
    前記ゲームキャラクタの画像を表示させた際に、前記オブジェクトの画像を非表示とするオブジェクト非表示処理部、
    として機能させるためのゲームプログラム。
  2. 前記オブジェクト調整処理部は、
    前記プレイヤの入力に基づいて、前記現実空間の画像に含まれる着座対象物に対する前記オブジェクトの位置又は向きの少なくとも一方を調整し、
    前記キャラクタ表示処理部は、
    前記ゲームキャラクタが前記着座対象物の位置又は向きの少なくとも一方に合わせて配置されるように、前記ゲームキャラクタの画像を前記表示部に表示させる、
    請求項1に記載のゲームプログラム。
  3. 前記情報処理装置を、
    前記プレイヤの入力に基づいて、前記仮想的なオブジェクトの種類を選択するオブジェクト選択処理部、
    としてさらに機能させる、
    請求項1又は2に記載のゲームプログラム。
  4. 前記情報処理装置を、
    選択された前記仮想的なオブジェクトの種類に基づいて、前記ゲームキャラクタの姿勢を設定するキャラクタ姿勢設定処理部、
    としてさらに機能させ、
    前記キャラクタ表示処理部は、
    設定された姿勢をとった前記ゲームキャラクタの画像を前記表示部に表示させる、
    請求項3に記載のゲームプログラム。
  5. 前記情報処理装置を、
    調整された前記オブジェクトの位置又は向きの少なくとも一方を登録するオブジェクト登録処理部、
    登録された前記オブジェクトの位置又は向きの少なくとも一方に基づいて、前記ゲームキャラクタの行動を設定するキャラクタ行動設定処理部、
    としてさらに機能させ、
    前記キャラクタ表示処理部は、
    前記ゲームキャラクタが設定された前記行動をするように、前記ゲームキャラクタの画像を前記表示部に表示させる、
    請求項1乃至4のいずれか1項に記載のゲームプログラム。
  6. 請求項1乃至5のいずれか1項に記載のゲームプログラムを記録した、情報処理装置が読み取り可能な記録媒体。
  7. プレイヤの頭部に装着可能に構成され、現実空間の画像に仮想的な画像を重ね合わせて表示する表示部と、信号の送受信を行うように構成された情報処理装置によって実行されるゲーム処理方法であって、
    仮想的なオブジェクトの画像を前記表示部に表示させるステップと、
    前記プレイヤの入力に基づいて、前記現実空間の画像に対する前記オブジェクトの位置又は向きの少なくとも一方を調整するステップと、
    調整された前記オブジェクトの位置又は向きの少なくとも一方に合わせて配置されるように、仮想的なゲームキャラクタの画像を前記表示部に表示させるステップと、
    前記ゲームキャラクタの画像を表示させた際に、前記オブジェクトの画像を非表示とするステップと、
    を有する、ゲーム処理方法。
JP2021061671A 2021-03-31 2021-03-31 ゲームプログラム、記録媒体、ゲーム処理方法 Active JP7126583B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021061671A JP7126583B1 (ja) 2021-03-31 2021-03-31 ゲームプログラム、記録媒体、ゲーム処理方法
US17/706,592 US11986728B2 (en) 2021-03-31 2022-03-29 Game processing method and record medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021061671A JP7126583B1 (ja) 2021-03-31 2021-03-31 ゲームプログラム、記録媒体、ゲーム処理方法

Publications (2)

Publication Number Publication Date
JP7126583B1 JP7126583B1 (ja) 2022-08-26
JP2022157447A true JP2022157447A (ja) 2022-10-14

Family

ID=83047386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021061671A Active JP7126583B1 (ja) 2021-03-31 2021-03-31 ゲームプログラム、記録媒体、ゲーム処理方法

Country Status (2)

Country Link
US (1) US11986728B2 (ja)
JP (1) JP7126583B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048195A1 (ja) * 2022-09-02 2024-03-07 株式会社Nttドコモ 表示制御装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087564A1 (ja) * 2017-11-01 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020012955A1 (ja) * 2018-07-09 2020-01-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20210192802A1 (en) * 2018-09-07 2021-06-24 Apple Inc. Inserting imagery from a real environment into a virtual environment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
JP6306442B2 (ja) 2014-06-09 2018-04-04 株式会社バンダイナムコエンターテインメント プログラム及びゲームシステム
US10551993B1 (en) * 2016-05-15 2020-02-04 Google Llc Virtual reality content development environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087564A1 (ja) * 2017-11-01 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020012955A1 (ja) * 2018-07-09 2020-01-16 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20210192802A1 (en) * 2018-09-07 2021-06-24 Apple Inc. Inserting imagery from a real environment into a virtual environment

Also Published As

Publication number Publication date
US11986728B2 (en) 2024-05-21
US20220314114A1 (en) 2022-10-06
JP7126583B1 (ja) 2022-08-26

Similar Documents

Publication Publication Date Title
US11488362B2 (en) Information processing device, client device, information processing method, and program
US11900527B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP6373920B2 (ja) シミュレーションシステム及びプログラム
US11615596B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP6646620B2 (ja) 広範囲同時遠隔ディジタル提示世界
US10183220B2 (en) Image generation device and image generation method
US10529134B2 (en) Information processing device, client device, information processing method, and program
US8854304B2 (en) Image generation system, image generation method, and information storage medium
US20140218361A1 (en) Information processing device, client device, information processing method, and program
US20200050256A1 (en) Techniques to cause changes in both virtual environment and physical environment
WO2018051969A1 (ja) シミュレーションシステム、処理方法及び情報記憶媒体
US11934569B2 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP2020107123A (ja) プログラム、情報処理装置、および方法
JP7126583B1 (ja) ゲームプログラム、記録媒体、ゲーム処理方法
JP6794390B2 (ja) シミュレーションシステム及びプログラム
JP2022157444A (ja) ゲームプログラム、記録媒体、ゲーム処理方法
JP2022157446A (ja) ゲームプログラム、記録媒体、ゲーム処理方法
JP2022157445A (ja) ゲームプログラム、記録媒体、ゲーム処理方法
JP6718933B2 (ja) プログラム、情報処理装置、および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220513

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220722

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220816

R150 Certificate of patent or registration of utility model

Ref document number: 7126583

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150