JP2019122496A - シミュレーションシステム及びプログラム - Google Patents

シミュレーションシステム及びプログラム Download PDF

Info

Publication number
JP2019122496A
JP2019122496A JP2018003809A JP2018003809A JP2019122496A JP 2019122496 A JP2019122496 A JP 2019122496A JP 2018003809 A JP2018003809 A JP 2018003809A JP 2018003809 A JP2018003809 A JP 2018003809A JP 2019122496 A JP2019122496 A JP 2019122496A
Authority
JP
Japan
Prior art keywords
user
game
character
image
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018003809A
Other languages
English (en)
Other versions
JP7142853B2 (ja
Inventor
国人 小森
Kunihito Komori
国人 小森
博文 本山
Hirofumi Motoyama
博文 本山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Studios Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2018003809A priority Critical patent/JP7142853B2/ja
Priority to US16/245,588 priority patent/US11865453B2/en
Publication of JP2019122496A publication Critical patent/JP2019122496A/ja
Application granted granted Critical
Publication of JP7142853B2 publication Critical patent/JP7142853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザ同士やユーザと配置オブジェクトとの位置関係を反映させた仮想空間画像を生成できるシミュレーションシステム等の提供。【解決手段】シミュレーションシステムは、実空間を移動するユーザの位置情報を取得する情報取得部と、ユーザがプレイするゲームの処理を行うゲーム処理部と、仮想空間の設定処理を行う仮想空間設定部と、実空間でのユーザの位置に対応する仮想空間の位置に、ユーザに対応するユーザキャラクタの画像が表示された表示画像を、仮想空間画像として生成する表示処理部と、ユーザと実空間の他のユーザ又は仮想空間の配置オブジェクトとが所与の位置関係になって変更条件が満たされたと判断した場合に、ユーザに対応するユーザキャラクタの画像、他のユーザに対応する他ユーザキャラクタの画像、及び配置オブジェクトの画像の少なくとも1つを変更する変更処理を行う変更処理部を含む。【選択図】図28

Description

本発明は、シミュレーションシステム及びプログラム等に関する。
従来より、仮想空間において仮想カメラから見える画像を生成するシミュレーションシステムが知られている。例えば仮想カメラから見える画像をHMD(頭部装着型表示装置)に表示することで、バーチャルリアリティ(VR)や拡張現実(AR)や複合現実(MR)などの実現が可能になる。このようなシミュレーションシステムの従来技術としては、例えば特許文献1に開示される技術がある。
特開平11−309269号公報
このようなシミュレーションシステムでは、仮想現実をユーザに感じさせるために、実空間のユーザの視点に対応する仮想空間の位置に仮想カメラを配置し、仮想カメラから見える画像をHMDに表示する。この場合に仮想カメラを視点とするようなキャラクタを仮想空間に登場させる場合もあるが、登場するキャラクタの種類が変更されることはなかった。またユーザ同士の位置関係やユーザと仮想空間の配置オブジェクトとの位置関係を反映させるような表示画像の生成も行われていなかった。
本発明の幾つかの態様によれば、ユーザ同士やユーザと配置オブジェクトとの位置関係を反映させた仮想空間画像を生成できるシミュレーションシステム及びプログラム等を提供できる。
本発明の一態様は、実空間を移動するユーザの位置情報を取得する情報取得部と、前記ユーザがプレイするゲームの処理を行うゲーム処理部と、仮想空間の設定処理を行う仮想空間設定部と、前記実空間での前記ユーザの位置に対応する前記仮想空間の位置に、前記ユーザに対応するユーザキャラクタの画像が表示された表示画像を、仮想空間画像として生成する表示処理部と、前記ユーザと前記実空間の他のユーザ又は前記仮想空間の配置オブジェクトとが所与の位置関係になって変更条件が満たされたと判断した場合に、前記ユーザに対応する前記ユーザキャラクタの画像、前記他のユーザに対応する他ユーザキャラクタの画像、及び前記配置オブジェクトの画像の少なくとも1つを変更する変更処理を行う変更処理部と、を含むシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。
本発明の一態様によれば、実空間を移動するユーザの位置情報が取得され、ユーザがプレイするゲームの処理が行われる。また仮想空間の設定処理が行われ、実空間でのユーザの位置に対応する仮想空間の位置に、ユーザに対応するユーザキャラクタの画像が表示された表示画像が、仮想空間画像として生成される。そしてユーザと、実空間の他のユーザ又は仮想空間の配置オブジェクトとが、所与の位置関係になって変更条件が満たされたか否かが判断される。そして変更条件が満たされたと判断されると、ユーザキャラクタの画像、他ユーザキャラクタの画像、或いは配置オブジェクトの画像が変更される。例えば異なる種類のユーザキャラクタ、他ユーザキャラクタ、或いは配置オブジェクトの画像に変更される。従って、ユーザ同士の位置関係やユーザと配置オブジェクトとの位置関係を反映させた仮想空間画像を生成できるシミュレーションシステム等の提供が可能になる。
また本発明の一態様では、前記変更処理部は、前記ユーザ又は前記他のユーザの操作情報、或いは前記ゲームの状況に応じて、前記ユーザキャラクタの画像又は前記他ユーザキャラクタの画像の表示態様を変化させる処理を行ってもよい。
このようにすれば、ユーザ又は他のユーザが所与の操作を行ったり、所与のゲーム状況になると、ユーザキャラクタの画像や他ユーザキャラクタの画像の表示態様が変化するようになり、種々の状況に対応することが可能になる。
また本発明の一態様では、前記変更処理部は、前記ユーザと前記配置オブジェクトとが前記所与の位置関係になって前記変更条件が満たされたと判断した場合に、前記ユーザキャラクタの画像又は前記配置オブジェクトの画像の表示態様を変化させる処理を行ってもよい。
このようにすれば、ユーザと配置オブジェクトとが所与の位置関係になった場合に、ユーザキャラクタの画像又は配置オブジェクトの画像の表示態様が変化するようになり、ユーザと配置オブジェクトとの位置関係を反映させた仮想空間画像を生成できるようになる。
また本発明の一態様では、前記変更処理部は、前記ユーザキャラクタの種類、前記他ユーザキャラクタの種類、又は前記配置オブジェクトの種類に応じた、前記変更処理を行ってもよい。
このようにすれば、ユーザキャラクタ、他ユーザキャラクタ又は配置オブジェクトの種類を反映させた変更処理が行われるようになり、多様な内容の変更処理を実現できるようになる。
また本発明の一態様では、前記変更処理部は、前記ユーザと前記他のユーザとの関係情報、又は前記ユーザと前記配置オブジェクトとの関係情報に応じた、前記変更処理を行ってもよい。
このようにすれば、ユーザと他のユーザとの関係情報又はユーザと配置オブジェクトとの関係情報を反映させた変更処理が行われるようになり、多様な内容の変更処理を実現できるようになる。
また本発明の一態様では、前記変更処理部は、前記ユーザ又は前記他のユーザのゲームレベル又はゲームプレイ履歴に応じた、前記変更処理を行ってもよい。
このようにすれば、ユーザ又は他のユーザのゲームレベル又はゲームプレイ履歴を反映させた変更処理が行われるようになり、多様な内容の変更処理を実現できるようになる。
また本発明の一態様では、前記変更処理部は、前記変更条件が満たされたと判断した場合に、ゲームモードの変更処理を行ってもよい。
このようにすれば、ユーザと他のユーザが所与の位置関係になったり、ユーザと配置オブジェクトが所与の位置関係になることで、ゲームモードも様々に変化するようになり、多様な展開のゲームの処理を実現できるようになる。
また本発明の一態様では、前記ゲーム処理部は、ゲーム成績の演算処理を行い、前記変更処理部は、前記変更条件が満たされた場合に、前記ゲームモードの変更処理として、前記ゲーム成績の演算方式を変更してもよい。
このようにすれば、ユーザと他のユーザが所与の位置関係になったり、ユーザと配置オブジェクトが所与の位置関係になることで、ゲーム成績の演算方式も変更されるようになり、ゲームの戦略性や面白味を向上できるようになる。
また本発明の一態様では、前記変更処理部は、前記変更条件が満たされた場合に、前記ゲームモードの変更処理として、前記ゲームでの前記ユーザ又は前記他のユーザの役割の変更処理を行い、前記ユーザキャラクタ又は前記他ユーザキャラクタの画像を、変更された役割に対応するキャラクタの画像に変更してもよい。
このようにすれば、変更条件が満たされると、ゲームでのユーザ又は他のユーザの役割が変更されると共に、キャラクタの画像も、役割に対応する画像に変更されるようになり、ユーザの役割とキャラクタの画像を連動して変更することが可能になる。
また本発明の一態様では、前記変更処理部は、前記役割の変更処理に対する制限処理を行ってもよい。
このようにすれば、ユーザの役割の変更処理が無制限に行われてしまうのを抑制でき、ゲームバランスの調整等が可能になる。
また本発明の一態様では、前記変更処理部は、ゲーム開始からのゲームプレイの制限時間が設定されている場合に、前記変更条件が満たされたタイミングに応じて、前記ゲームモードの変更態様を異ならせてもよい。
このようにすれば、制限時間内においてどのタイミングで変更条件が成立するかに応じて、ゲームモードの変更処理の内容が様々に変化するようになり、多様なゲーム処理の実現が可能になる。
また本発明の一態様では、前記変更処理部は、前記実空間でプレイする複数のユーザに対して第1〜第Mの役割(Mは2以上の整数)が割り当てられる場合に、前記第1〜第Mの役割に割り当てられたユーザの人数の割合情報に基づいて、前記ゲームモードの変更処理を行ってもよい。
このようにすれば、各役割に割り当てられるユーザの人数がアンバランスになるなどの事態の発生を抑制できるようになる。
また本発明の一態様では、前記ゲームをプレイする複数のユーザ間の位置関係状況、又は前記変更処理の変更状況についての報知処理を行う報知処理部を含んでもよい(報知処理部としてコンピュータを機能させてもよい)。
このようにすれば、ユーザ間の位置関係状況や変更処理の変更状況をユーザが容易に把握できるようになり、ユーザインタフェースの向上を図れる。
また本発明の一態様では、前記変更処理部は、前記ユーザと前記他のユーザ又は前記配置オブジェクトとが前記所与の位置関係になり、前記ユーザが所与のアクションを行ったと判定した場合に、前記変更条件が満たされたと判断してもよい。
このようにすれば、位置関係のみならず、ユーザが行ったアクションも加味して、変更条件が満たされたか否かを判断できるようになる。
また本発明の一態様では、前記仮想空間設定部は、前記ユーザの移動の経路を設定するための経路設定用のオブジェクトを前記仮想空間に配置し、前記ゲーム処理部は、前記ユーザが前記経路を移動してプレイする前記ゲームの処理を行ってもよい。
このようにすれば、仮想空間に配置された経路設定用のオブジェクトにより設定される経路に沿って移動することでプレイできるゲームの実現が可能になる。
また本発明の一態様では、前記ゲーム処理部は、前記経路設定用のオブジェクトを前記ユーザが通過したと判定した場合又は前記経路設定用のオブジェクトに前記ユーザが接触したと判定した場合に、前記ユーザに対するペナルティー処理を行ってもよい。
このようにすれば、ユーザが、経路設定用のオブジェクトを通過してしまったり、経路設定用のオブジェクトに接触することで、ユーザのゲームプレイが不正に有利になってしまうような事態が発生するのを防止できるようになる。
本実施形態のシミュレーションシステムの構成例を示すブロック図。 図2(A)、図2(B)は本実施形態に用いられるHMDの例。 本実施形態に用いられるHMDの例。 実空間のプレイフィールドの例。 仮想空間のプレイフィールドの例。 図6(A)、図6(B)は本実施形態により生成される表示画像の例。 本実施形態により生成される表示画像の例。 図8(A)〜図8(C)はユーザの役割を通知するUI画面の例。 図9(A)〜図9(C)はゲーム進行に伴い表示されるUI画面の例。 ユーザ同士が所与の位置関係になることによる変更条件の判断処理の説明図。 本実施形態により実現されるゲームの説明図。 本実施形態により実現されるゲームの説明図。 図13(A)、図13(B)は本実施形態により生成される表示画像の例。 本実施形態により実現されるゲームの説明図。 本実施形態により実現されるゲームの説明図。 本実施形態により実現されるゲームの説明図。 キャラクタの画像の表示態様を変化させる処理の説明図。 図18(A)〜図18(C)はキャラクタや配置オブジェクトの画像の表示態様を変化させる処理の説明図。 図19(A)、図19(B)はキャラクタの種類に応じた変更処理の説明図。 図20(A)、図20(B)はユーザ同士の関係情報に応じた変更処理の説明図。 ユーザのレベルに応じた変更処理の説明図。 ゲーム成績の演算方式を変更するゲームモードの変更処理の説明図。 ユーザの役割を変更するゲームモードの変更処理の説明図。 制限時間内のタイミングに応じてゲームモードの変更態様を異ならせる処理の説明図。 図25(A)、図25(B)はユーザの役割の割合情報に基づくゲームモードの変更処理の説明図。 図26(A)、図26(B)は位置関係の状況や変更処理の変更状況の報知処理の説明図。 図27(A)、図27(B)は本実施形態のペナルティー処理の説明図。 本実施形態の詳細な処理例を示すフローチャート。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム、画像生成システム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル、レバー又は音声入力装置等の種々の操作デバイスにより実現できる。
記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。
情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
表示部190は、本実施形態により生成された画像を出力するものであり、LCD、有機ELディスプレイ、或いはCRTなどにより実現できる。本実施形態では表示部190として例えば後述の図2(A)〜図3に示すようなHMD200(頭部装着型表示装置)を用いることができる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドフォンなどにより実現できる。
I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。
通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。
なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。
処理部100(プロセッサ)は、操作部160からの操作情報や、図2(A)〜図3のHMD200のトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、仮想空間設定処理、キャラクタ処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。
処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、情報取得部111、ゲーム処理部112、キャラクタ処理部113、仮想空間設定部114、仮想カメラ制御部115、変更処理部116、報知処理部117、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。
演算処理部110は、各種の演算処理を行う。例えば情報取得処理、ゲーム処理(シミュレーション処理)、キャラクタ処理、仮想空間設定処理、仮想カメラ制御処理、変更処理、報知処理、表示処理、或いは音処理などの演算処理を行う。
情報取得部111(情報取得処理のプログラムモジュール)は種々の情報の取得処理を行う。例えば情報取得部111は、HMD200を装着するユーザの位置情報などを取得する。情報取得部111はユーザの方向情報や姿勢情報などを取得してもよい。
ゲーム処理部112(ゲーム処理のプログラムモジュール)は、ユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部112(シミュレーション処理部)は、ユーザがVR(Virtual Reality)、AR(Augmented Reality)、又はMR(Mixed Reality)などを体験するための種々のシミュレーション処理を実行する。
キャラクタ処理部113(キャラクタ処理のプログラムモジュール)は、仮想空間内で移動するキャラクタ(広義には移動体)についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)においてキャラクタを移動させる処理や、キャラクタを動作させる処理を行う。例えばキャラクタ処理部113は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、キャラクタ(モデルオブジェクト)を仮想空間内で移動させたり、キャラクタを動作(モーション、アニメーション)させる制御処理を行う。具体的には、キャラクタの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、キャラクタの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。キャラクタは、例えば実空間のユーザ(プレーヤ)に対応して仮想空間において移動する移動体である。
仮想空間設定部114(仮想空間設定処理のプログラムモジュール)は、オブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、キャラクタ(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部114は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。
仮想カメラ制御部115(仮想カメラ制御処理のプログラムモジュール)は、仮想カメラの制御を行う。例えば、操作部160により入力されたユーザの操作情報やトラッキング情報などに基づいて、仮想カメラを制御する処理を行う。
例えば仮想カメラ制御部115は、ユーザの一人称視点又は三人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動するキャラクタの視点(一人称視点)に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。或いは、キャラクタに追従する視点(三人称視点)の位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置や姿勢を制御する。
例えば仮想カメラ制御部115は、視点トラッキングにより取得されたユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。例えば本実施形態では、ユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)が取得される。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。そして仮想カメラ制御部115は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部115は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。
変更処理部116(変更処理のプログラムモジュール)は、キャラクタの画像やゲームモードなどについての種々の変更処理を行う。報知処理部117(報知処理のプログラムモジュール)は各種の報知処理を行う。例えばユーザに対する警告の報知処理などを行う。報知処理は、例えば画像や音による報知処理であってもよいし、振動デバイスや音響や空気砲などの体感装置を用いた報知処理であってもよい。
表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間において仮想カメラ(所与の視点。左眼用、右眼用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。
音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。
出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。
そして本実施形態のシミュレーションシステムは、図1に示すように、情報取得部111と、ゲーム処理部112と、仮想空間設定部114と、変更処理部116と、表示処理部120を含む。
情報取得部111はユーザの位置情報を取得する。例えばユーザが実空間(現実世界)のプレイフィールド(シミュレーションフィールド、プレイエリア)に位置する場合に、そのプレイフィールドでの位置情報を取得する。具体的には情報取得部111は、視点のトラッキング情報に基づいて、実空間でのユーザの位置情報を取得する。視点のトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。例えば情報取得部111は、HMD200の位置情報を、当該HMD200を装着するユーザの位置情報として取得する。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの位置に対応する視点位置や、ユーザの方向に対応する視線方向を特定できる。なお、HMD200のトラッキング処理ではなく、ユーザやユーザの頭部などの部位を直接にトラッキングする処理により、ユーザの位置情報を取得してもよい。また情報取得部111は、ユーザの方向情報や姿勢情報を取得してもよい。例えば視点のトラッキング処理により得られたトラッキング情報に基づいて、実空間においてユーザが向く方向である方向情報を取得する。また情報取得部111は、ユーザのモーション情報である姿勢情報を取得する。姿勢情報は、ユーザの手、頭又は足などの部位の動きを特定する情報である。例えば情報取得部111は、キネクト(登録商標)と呼ばれる処理によりユーザの姿勢情報を取得する。なお、情報取得部111が取得する位置情報は、ユーザ間の相対的な位置情報であってもよい。例えば第1のユーザの位置情報は、第2のユーザの位置を基準とした相対的な位置情報であってもよい。また情報取得部111が取得する方向情報も、ユーザ間における相対的な方向情報であってもよい。
ゲーム処理部112はユーザがプレイするゲームの処理を行う。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。例えばゲーム処理部112は、実空間のプレイフィールドにおいて複数のユーザがゲームをプレイするためのゲーム処理を行う。即ち、マルチプレーヤゲームの処理を行う。
仮想空間設定部114は、仮想空間の設定処理を行う。例えばユーザに対応するユーザキャラクタのオブジェクトや、他のユーザに対応する他ユーザキャラクタのオブジェクトや、マップや背景を構成するオブジェクトを、仮想空間に配置設定する処理を行う。ユーザキャラクタは、実空間でのユーザの移動に対応して仮想空間で移動するキャラクタである。他ユーザキャラクタは、実空間での他のユーザの移動に対応して仮想空間で移動するキャラクタである。例えばユーザキャラクタ、他ユーザキャラクタは、実空間でのユーザ、他のユーザの動き(モーション)に連動して動作する。
表示処理部120(画像生成部)は、表示部190に表示される画像を、仮想空間画像として生成する。具体的には表示処理部120は、実空間でのユーザの位置に対応する仮想空間の位置に、ユーザに対応するユーザキャラクタの画像が表示された表示画像を、仮想空間画像として生成する。同様に実空間での他のユーザの位置に対応する仮想空間の位置に、他のユーザに対応する他ユーザキャラクタの画像が表示された表示画像を、仮想空間画像として生成する。例えば情報取得部111は実空間でのユーザや他のユーザの位置情報を取得する。この位置情報はユーザ間の相対的な位置情報であってもよい。仮想空間設定部114は、取得された位置情報に基づいて、実空間でのユーザや他のユーザの位置に対応する仮想空間の位置に、ユーザキャラクタや他ユーザキャラクタを配置する。そして、この仮想空間において仮想カメラから見える画像が、仮想空間画像として生成されて、表示部190に表示される。
ここで仮想空間画像は、例えばVR、AR又はMRの画像などである。VRの画像は、例えばHMD200を装着するユーザの視界の全周囲に亘ってVR空間が広がるように生成される画像である。ARの画像は、実空間の風景などを構成する表示物に重畳するように表示される画像である。MRの画像は、実空間と仮想空間を混合し、現実のものと仮想的なものがリアルタイムで影響し合うような新たな空間を構築するMRの手法により生成される画像であり、MRは全拡張現実と拡張仮想を包含する概念である。また表示処理部120は、HMD200の表示画像として、仮想空間において仮想カメラ(所与の視点)から見える画像を生成する。例えばキャラクタ(ユーザキャラクタ、他ユーザキャラクタ)の視点(一人称視点)に設定された仮想カメラから見える画像の描画処理を行う。或いは、キャラクタに追従する視点(三人称視点)に設定された仮想カメラから見える画像の描画処理を行う。生成される画像は、例えば左眼用画像、右眼用画像などの立体視用の画像であることが望ましい。
そして変更処理部116は、変更条件が満たされたと判断した場合に、ユーザに対応するユーザキャラクタの画像、他のユーザに対応する他ユーザキャラクタの画像、及び配置オブジェクトの画像の少なくとも1つを変更する変更処理を行う。具体的には、ユーザと実空間の他のユーザ又は仮想空間の配置オブジェクトとが所与の位置関係になって変更条件が満たされたと判断した場合に、ユーザキャラクタの画像、他ユーザキャラクタの画像、或いは配置オブジェクトの画像を変更する。例えばユーザと他のユーザとが所与の位置関係になって変更条件が満たされた場合に、ユーザキャラクタの画像を変更したり、或いは他ユーザキャラクタの画像を変更する。またユーザと配置オブジェクトとが所与の位置関係になって変更条件が満たされた場合に、ユーザキャラクタの画像を変更したり、配置オブジェクトの画像を変更する。
ここで変更条件が満たされた場合の変更処理は、例えばユーザキャラクタや他ユーザキャラクタの画像を、異なる種類のキャラクタの画像に変更する処理である。或いは配置オブジェクトの画像を、異なる種類の配置オブジェクトの画像に変更する処理である。また変更処理は、ユーザキャラクタ又は他ユーザキャラクタを消滅させるような画像変更処理であってもよい。また変更処理は、後述するようなゲームモードの変更処理であってもよい。また異なる種類のキャラクタや配置オブジェクトに変更するとは、画像の主要部分が異なるキャラクタや配置オブジェクトに変更したり、ゲームでの役割が異なるキャラクタや配置オブジェクトに変更することである。また配置オブジェクトは、例えば仮想空間に配置されるアイテムのオブジェクト又はマップを構成するオブジェクトなどである。
また変更条件における所与の位置関係は、例えば接近又は接触の位置関係である。例えば所与の位置関係になるとは、ユーザと他のユーザ又は配置オブジェクトとの距離が所与の距離以下になったり、ユーザに対して設定された所与の距離範囲内に他のユーザ又は配置オブジェクトが位置することである。この位置関係における配置オブジェクトの位置は、仮想空間での配置オブジェクトの位置に対応する実空間での位置とすることができる。また変更条件は、ユーザと他のユーザ又は配置オブジェクトとが所与の位置関係になったことにより成立してもよいし、この位置関係の成立に加えて、他の条件が満たされたことにより成立するものであってもよい。例えば変更処理部116は、位置関係の成立に加えて、ユーザが所与のアクションを行った否かに応じて、変更条件が満たされたか否かを判断してもよい。
またユーザと他のユーザ又は配置オブジェクトとの位置関係は、仮想空間での絶対座標(ワールド座標)に基づき判断してもよいし、相対座標に基づき判断してもよい。例えば仮想空間でのユーザの絶対座標と、仮想空間での他のユーザや配置オブジェクトの絶対座標とに基づいて、位置関係を判断してもよい。或いは、ユーザの位置を基準とした他のユーザや配置オブジェクトの相対座標に基づいて、位置関係を判断してもよい。例えばHMD200に設けられたカメラ(RGBカメラ、デプスカメラ等)を用いて、ユーザの位置を基準とした他のユーザ又は配置オブジェクトの相対座標を求め、所与の位置関係になったか否かを判断したり、その相対座標の位置に、他ユーザキャラクタ又は配置オブジェクトの画像が表示されるようにしてもよい。
また変更処理部116は、ユーザ又は他のユーザの操作情報、或いはゲームの状況に応じて、ユーザキャラクタの画像又は他ユーザキャラクタの画像の表示態様を変化させる処理を行う。操作情報は、ユーザ又は他のユーザが操作部160を操作することにより取得される情報である。ゲーム状況は、ユーザキャラクタや他ユーザキャラクタなどのキャラクタの行動の状況、キャラクタの環境の状況(キャラクタが移動するマップの状況、キャラクタの周囲の状況、或いは時刻等の時間情報の状況)、或いはゲームの進行状況などである。またキャラクタの画像の表示態様の変更処理では、例えばキャラクタの主要部分は変更せずに当該画像を変化させる。例えばキャラクタの基本的な外形は変化させずに、半透明度、色、テクスチャ又は明るさなどの画像プロパティーを変化させる。或いは、キャラクタの画像の表示態様の変更処理では、キャラクタの一部の部位を変更したり、キャラクタに武器、防具又はアイテム等のオブジェクトを所持させる処理を行ってもよい。
また変更処理部116は、ユーザと配置オブジェクトとが所与の位置関係になって変更条件が満たされたと判断した場合に、ユーザキャラクタの画像又は配置オブジェクトの画像の表示態様を変化させる処理を行う。例えばユーザが配置オブジェクトに接近したり、ユーザが配置オブジェクトに接近して、所与のアクションを行った場合に、変更条件が満たされたと判断する。所与のアクションは、例えば配置オブジェクトにタッチしたり、持ち上げたり、或いは中身を確認する行動を行うことである。そして変更条件が満たされた場合に、ユーザキャラクタの画像の表示態様を変化させたり、配置オブジェクトの画像の表示態様を変化させる。ユーザキャラクタや配置オブジェクトの画像の表示態様の変化処理では、ユーザキャラクタや配置オブジェクトの画像の主要部分は変更せずに当該画像を変化させたり、基本的な外形は変化させずに、半透明度、色、テクスチャ又は明るさなどの画像プロパティーを変化させる。或いは、ユーザキャラクタの一部の部位を変更したり、ユーザキャラクタに武器、防具又はアイテム等のオブジェクトを所持させる。
また変更処理部116は、ユーザキャラクタの種類、他ユーザキャラクタの種類、又は配置オブジェクトの種類に応じた、変更処理を行う。例えばこれらの種類に応じて、変更条件が満たされた場合の変更処理の内容を異ならせる。例えば変更処理部116は、ユーザキャラクタや他ユーザキャラクタなどのキャラクタが第1の種類である場合には第1の内容の変更処理を行い、第2の種類である場合には第2の内容の変更処理を行う。配置オブジェクトが第1の種類である場合には第3の内容の変更処理を行い、第2の種類である場合には第4の内容の変更処理を行う。キャラクタや配置オブジェクトの種類は、ゲームにおけるキャラクタや配置オブジェクトの役割や属性である。例えばキャラクタや配置オブジェクトの画像情報は、種類毎に分類されてオブジェクト情報記憶部172に記憶される。また変更処理は、変更条件が満たされた場合に行われる、キャラクタや配置オブジェクトの画像の変更処理やゲームモードの変更処理である。変更処理部116は、変更条件が満たされた場合に、キャラクタや配置オブジェクトの種類に対して予め対応づけられた内容の変更処理を実行する。
また変更処理部116は、ユーザと他のユーザとの関係情報、又はユーザと配置オブジェクトとの関係情報に応じた、変更処理を行う。例えば、これらの関係情報に応じて、変更条件が満たされた場合の変更処理の内容を異ならせる。例えば変更処理部116は、ユーザキャラクタと他ユーザキャラクタが第1の関係である場合には第1の内容の変更処理を行い、第2の関係である場合には第2の内容の変更処理を行う。また変更処理部116は、ユーザキャラクタと配置オブジェクトが第1の関係である場合には第3の内容の変更処理を行い、第2の関係である場合には第4の内容の変更処理を行う。ユーザと他のユーザとの関係は、ユーザと他のユーザが、味方の関係にあるか敵の関係にあるか、或いは同じグループに属するか違うグループに属するか、或いは同じ役割又は属性のキャラクタが割り当てられているか違う役割又は属性のキャラクタが割り当てられているかなどである。ユーザと配置オブジェクトとの関係は、ユーザと配置オブジェクトとが、予め関連づけられた関係にあるか否かや、同じ属性、グループ又は役割の関係にあるか否かなどである。変更処理は、変更条件が満たされた場合に行われる、キャラクタや配置オブジェクトの画像の変更処理やゲームモードの変更処理である。
また変更処理部116は、ユーザ又は他のユーザのゲームレベル又はゲームプレイ履歴に応じた、変更処理を行う。例えばこれらのゲームレベルやゲームプレイ履歴に応じて、変更条件が満たされた場合の変更処理の内容を異ならせる。ゲームレベルは、各ユーザのゲームプレイの熟練度合いやゲームプレイの進行度合いを表す指標である。ゲームプレイ履歴は、各ユーザの過去のゲームプレイ状況やゲーム結果の履歴である。ゲームレベルのデータやゲームプレイ履歴のデータは、各ユーザに関連づけてユーザ情報として記憶部170に記憶される。そして変更処理部116は、各ユーザのゲームレベルが低い場合には、第1の内容の変更処理を行い、ゲームレベルが高い場合には、第2の内容の変更処理を行う。或いは、各ユーザのゲームプレイ履歴が、第1のゲームプレイ履歴である場合には、第3の内容の変更処理を行い、第2のゲームプレイ履歴である場合には、第4の内容の変更処理を行う。変更処理は、変更条件が満たされた場合に行われる、キャラクタや配置オブジェクトの画像の変更処理やゲームモードの変更処理である。例えば変更処理部116は、各ユーザのゲームレベルが低い場合には、第1の変更態様で、キャラクタや配置オブジェクトの画像やゲームモードを変更し、各ユーザのゲームレベルが高い場合には、第2の変更態様で、キャラクタや配置オブジェクトの画像やゲームモードを変更する。或いは変更処理部116は、各ユーザの過去のゲームプレイ履歴に応じて、変更条件が満たされたときのキャラクタや配置オブジェクトの画像の変更態様やゲームモードを変更態様を異ならせる。
また変更処理部116は、変更条件が満たされたと判断した場合に、ゲームモードの変更処理を行う。ゲームモードは、ゲームプレイの条件であり、ゲーム処理の各種のモードである。例えばゲームモードの変更処理は、ゲーム成績の演算方式の変更処理、ゲームでのキャラクタや配置オブジェクトの役割の変更処理、ゲーム進行の変更処理、或いはゲームのクリア条件や終了条件の変更処理などである。例えばゲーム処理におけるゲームのルールの変更処理である。例えばゲームモードの変更処理が行われると、ゲーム処理(ゲーム進行処理)に使用されるゲームパラメータが変更され、変更されたパラメータに基づくゲーム処理が実行されるようになる。
例えばゲーム処理部112は、ゲーム成績の演算処理を行う。ゲーム成績の演算処理は、ゲームにおいてユーザが獲得するポイントや得点の演算処理や、勝敗の決定処理などである。そして変更処理部116は、変更条件が満たされた場合に、ゲームモードの変更処理として、ゲーム成績の演算方式(演算処理のアルゴリズム)を変更する。例えば変更条件が満たされる前においては、第1の演算方式でポイントや得点の演算処理や勝敗の決定処理が行われていたとする。この場合に、変更条件が満たされると、第1の演算方式とは異なる第2の演算方式で、ポイントや得点の演算処理や勝敗の決定処理が行われるようになる。
また変更処理部116は、変更条件が満たされた場合に、ゲームモードの変更処理として、ゲームでのユーザ又は他のユーザの役割の変更処理を行う。そしてユーザキャラクタ又は他ユーザキャラクタの画像を、変更された役割に対応するキャラクタの画像に変更する。例えば変更条件が満たされる前においては、ユーザ又は他のユーザが第1の役割でゲームをプレイしていたとする。この場合には、第1の役割に対応するユーザキャラクタ又は他ユーザキャラクタの画像が、実空間でのユーザ又は他ユーザの位置に対応する仮想空間の位置に表示される。そして変更条件が満たされると、ユーザ又は他のユーザのゲームでの役割が、第1の役割から第2の役割に変更される。そして第2の役割に対応するユーザキャラクタ又は他ユーザキャラクタの画像が、実空間でのユーザ又は他ユーザの位置に対応する仮想空間の位置に表示されるようになる。
また変更処理部116は、役割の変更処理に対する制限処理を行う。例えば所与の制限条件が満たされたと判断した場合に、ユーザの役割の変更処理を禁止したり、役割の変更処理の内容を異ならせる。例えば変更処理部116は、第2の役割のユーザの割合(人数の割合)が所与のしきい値を超えた場合に、制限条件が満たされたと判断する。そして変更処理部116は、第1の役割のユーザについて変更条件が満たされた場合にも、第1の役割から第2の役割への変更を禁止する。或いは、第1の役割から、第2の役割とは異なる第3の役割に変更するなどの処理を行って、役割の変更処理の内容を異ならせる。
また変更処理部116は、ゲーム開始からのゲームプレイの制限時間が設定されている場合に、変更条件が満たされたタイミングに応じて、ゲームモードの変更態様を異ならせる。例えばゲーム処理部112は、ゲームプレイの制限時間を設定し、ゲーム開始から制限時間が経過すると、ゲーム終了条件が満たされたと判断して、ゲームの終了処理を行う。そして変更処理部116は、この制限時間内の第1のタイミングで変更条件が満たされた場合には、ゲームモードの変更処理として第1の変更処理を行う。一方、第2のタイミングで変更条件が満たされた場合には、ゲームモードの変更処理として、第1の変更処理とは内容が異なる第2の変更処理を行う。例えば変更処理部116は、第1のタイミングで変更条件が満たされた場合には、ゲーム成績の演算方式を第1の演算方式から第2の演算方式に変更するが、第2のタイミングで変更条件が満たされた場合には、ゲーム成績の演算方式を第1の演算方式から第3の演算方式に変更する。また変更処理部116は、第1のタイミングで変更条件が満たされた場合には、キャラクタや配置オブジェクトの役割を第1の変更態様で変更するが、第2のタイミングで変更条件が満たされた場合には、キャラクタや配置オブジェクトの役割を第2の変更態様で変更する。
また変更処理部116は、実空間でプレイする複数のユーザに対して第1〜第Mの役割(Mは2以上の整数)が割り当てられる場合に、第1〜第Mの役割に割り当てられたユーザの人数の割合情報に基づいて、ゲームモードの変更処理を行う。例えば第1の役割に割り当てられたユーザの人数が、第2の役割に割り当てられたユーザの人数よりも少ない状況になったとする。この場合には変更処理部116は、第1の役割に対応するユーザキャラクタの能力パラメータ等のゲームパラメータの値を、当該ユーザキャラクタのユーザが有利になるような値に変更する。或いは第2の役割に対応するユーザキャラクタの能力パラメータ等のゲームパラメータの値を、当該ユーザキャラクタのユーザが不利になるような値に変更する。即ち変更処理部116は、役割の割合情報に応じたゲームバランスの調整処理を行う。
また報知処理部117は、ゲームをプレイする複数のユーザ間の位置関係状況、又は変更処理の変更状況についての報知処理を行う。例えば第1のユーザと第2のユーザとが接近関係や接触関係などの所与の位置関係になったとする。この場合に報知処理部117は、第1のユーザと第2のユーザとが当該位置関係になったことを、画像又は音などを用いて各ユーザに報知する。また報知処理部117は、変更条件が満たされたことによるキャラクタの画像や配置オブジェクトの画像の変更状況やゲームモードの変更状況について、画像又は音などを用いて各ユーザに報知する。例えば報知処理部117は、HMD200の表示画像に重畳表示されるUI(User Interface)の画面を用いて報知処理を行う。
また変更処理部116は、ユーザと他のユーザ又は配置オブジェクトとが所与の位置関係になり、ユーザが所与のアクションを行ったと判定した場合に、変更条件が満たされたと判断する。そしてキャラクタや配置オブジェクトの画像の変更処理やゲームモードの変更処理を行う。即ち変更処理部116は、ユーザと他のユーザ又は配置オブジェクトとが、接近関係や接触関係などの所与の位置関係になっただけでは、変更条件が満たされたとは判断せずに、これに加えてユーザが予め決められた所与のアクションを行った場合に、変更条件が満たされたと判断する。例えば変更処理部116は、情報取得部111により取得されたユーザの姿勢情報又は操作情報に基づいて、ユーザが所与のアクションを行ったか否かを判断する。例えば、ユーザと他のユーザ又は配置オブジェクトとが所与の位置関係になった後、ユーザの姿勢が所与の姿勢(例えば後述するハイタッチの姿勢)になったり、ユーザが操作部160を用いて所与の操作を行った場合に、変更条件が満たされたと判断する。例えば変更処理部116は、操作部160であるガン型コントローラなどを用いて弾を発射する操作をユーザ行った場合に、変更条件が満たされたと判断する。
また仮想空間設定部114は、ユーザの移動の経路を設定するための経路設定用のオブジェクトを仮想空間に配置する。例えば仮想空間のプレイフィールドに対して、経路設定用のオブジェクトを配置する。経路設定用のオブジェクトは、例えば仮想空間(プレイフィールド)のマップを構成するオブジェクトであり、ユーザの移動の経路を仕切るためのオブジェクトである。例えば経路設定用のオブジェクトは、ユーザの移動の経路を所与の経路に制限するためのオブジェクトである。そしてゲーム処理部112は、ユーザが経路を移動してプレイするゲームの処理を行う。例えば経路設定用のオブジェクトにより設定される経路(コース等)をユーザが移動することでゲームが進行するゲーム処理を行う。例えばゲーム処理部112は、ユーザが経路を移動することで、ゲームのポイントや得点をユーザが獲得できるようにするゲーム処理を行う。
そしてゲーム処理部112は、経路設定用のオブジェクトをユーザが通過したと判定した場合又は経路設定用のオブジェクトにユーザが接触したと判定した場合に、ユーザに対するペナルティー処理を行う。例えばユーザの部位又は体の全体が経路設定用のオブジェクトを通過(仮想的な通過)したと判定した場合に、ユーザに対するペナルティー処理を行う。或いは、ユーザの部位が経路設定用のオブジェクトに接触(仮想的な接触)したと判定した場合に、ユーザに対するペナルティー処理を行う。ペナルティー処理は、ユーザのゲームプレイが、より不利になるようにする処理である。例えばペナルティー処理は、ユーザのゲームでのポイントや得点を減算したり、或いはポイントや得点の獲得時のポイントや得点の増加率を減少させる処理である。或いはペナルティー処理は、ユーザの勝敗決定において、ユーザが、より不利になるようにする処理である。
また本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応するキャラクタ(ユーザ移動体)を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。
なお図1の本実施形態のシミュレーションシステムの処理は、施設に設置されるPC等の処理装置、ユーザが装着する処理装置(PC)、或いはこれらの処理装置の分散処理などにより実現できる。或いは、本実施形態のシミュレーションシステムの処理を、サーバシステムと端末装置により実現してもよい。例えばサーバシステムと端末装置の分散処理などにより実現してもよい。
2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態で用いられるHMD200の一例を示す。図2(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。またHMD200には、HMD200を装着するためのヘッドバンド260や、ヘッドフォン270を接続するためのヘッドフォン端子が設けられている。
またユーザUSが、不図示の処理装置(バックパックPC)を例えば背中に装着するようにしてもよい。例えばユーザUSはジャケットを着ており、このジャケットの背面側に処理装置が取り付けられる。処理装置は例えばノート型PC等の情報処理装置により実現できる。このようなユーザが装着する処理装置を用いて、本実施形態の各処理を実現してもよいし、施設に設置されたPC等の管理用の処理装置を用いて、本実施形態の各処理を実現してもよい。或いは、ユーザが装着する処理装置と管理用の処理装置との分散処理により、本実施形態の各処理を実現してもよい。
図4に示すように、実空間のプレイフィールドFLには、位置情報等の測定用の装置251、252、253、254が設置されている。なお測定用の装置251〜254の設置台数は任意である。図2(A)のHMD200を用いる場合には、これらの測定用の装置251〜254に発光素子が設けられる。発光素子は例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。測定用の装置251〜254は、発光素子を用いて、例えばレーザーを放射状に出射する。そして図2(A)のHMD200に設けられた受光素子201、202、203が、発光素子からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザUSの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。これによりユーザUSの位置情報や方向情報の取得が可能になる。
図2(B)に本実施形態で用いられるHMD200の他の例を示す。図2(B)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。
図2(B)のHMD200を用いる場合には、図4の測定用の装置251〜254には撮像部が設けられ、この撮像部により、HMD200の発光素子231〜236の光を撮像する。即ち、撮像部の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザUSの頭部(HMD)のトラッキングを実現する。即ちユーザUSの頭部の位置や向く方向(視点位置、視線方向)を検出する。これによりユーザUSの位置情報や方向情報の取得が可能になる。例えば撮像部には第1、第2のカメラが設けられており、これらの第1、第2のカメラの第1、第2の撮像画像を用いることで、ユーザUSの頭部の奥行き方向での位置等が検出可能になる。またHMD200に設けられた慣性計測ユニット(加速度センサー、ジャイロセンサー)からの測定情報に基づいて、ユーザUSの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザUSが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200に表示することが可能になる。
なお図2(A)、図2(B)のHMD200の表示部は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部には、ユーザの左眼の前に設定される第1のディスプレイ又は第1の表示領域と、右眼の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左眼用画像と右眼用画像を生成し、第1のディスプレイに左眼用画像を表示し、第2のディスプレイに右眼用画像を表示する。或いは1つのディスプレイの第1の表示領域に左眼用画像を表示し、第2の表示領域に右眼用画像を表示する。またHMD200には左眼用、右眼用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左眼用画像、右眼用画像に対して行われる。
図3に本実施形態で用いられるHMD200の他の例を示す。図2(A)、図2(B)のHMD200は非透過型のHMDであるが、図3は透過型のメガネタイプのHMDである。図2(A)、図2(B)の非透過型のHMD200によれば例えばVRの画像を表示でき、図3の透過型のHMD200によれば例えばARやMRの画像を表示できる。
図3のHMD200はテンプル部240とゴーグル部242を有する。テンプル部240にはスピーカが内蔵されている。ゴーグル部242には表示装置243とホログラフィック光学素子244が設けられている。表示装置243には、マイクロディスプレイ、ミラー、プリズム等により構成される表示ユニットが設けられている。表示装置243には左眼用の表示ユニットと右眼用の表示ユニットが設けられており、これにより立体視が実現される。また左眼用、右眼用の各表示ユニットに一対のマイクロディスプレイを設けることで虚像の位置を可変にできる。
表示装置243からの表示光は、ホログラフィック光学素子244の導光板内部を屈折しながら、ユーザUSの眼前に導光される。そしてホログラフィック光学素子244により表示光を眼球方向に屈折させて、眼球に表示光を送る。これにより眼前に虚像(ホログラムの再生像)があるように見えるようになる。ホログラフィック光学素子244の導光板はコンバイナーとも呼ばれ、ハーフミラーであるコンバイナーにより、外界の実像と虚像が重なって見えるようになり、ARやMRが実現される。
またゴーグル部242には、RGBカメラ246、デプスカメラ247、環境認識カメラ248、249が設けられている。RGBカメラ246を用いることでユーザUSの正面方向の撮影が可能になる。デプスカメラ247を用いることで正面方向での奥行き情報を取得できる。なおゴーグル部242にはデプスカメラ用のエミッター(不図示)が設けられている。環境認識カメラ248、249を用いることでユーザUSの周囲の環境認識が可能になる。またゴーグル部242には、加速度センサー、ジャイロセンサーにより構成される慣性計測ユニット(IMU)が内蔵されている。ユーザUSの頭の位置や向く方向は、ゴーグル部242に設けられたカメラによる撮像画像と慣性計測ユニットからの測定情報などに基づいて検出され、これによりヘッドトラッキングが実現される。そしてユーザUSの位置情報や方向情報の取得も可能になる。またRGBカメラ246やデプスカメラ247などを用いた処理により、ユーザUSの周囲に居る他のユーザの位置情報(相対的な位置情報)、方向情報(相対的な方向情報)、或いは姿勢情報を取得できる。例えばキネクト(登録商標)と呼ばれる処理によりこれらの情報を取得する。例えば姿勢情報を取得することで、他のユーザがどのようなアクションを行ったかを検出できるようになる。或いは、図4の測定用の装置251〜254にキネクトの検出装置を設けてもよい。このような検出装置を用いることでユーザUSの位置情報、方向情報、或いは姿勢情報(ジェスチャ)を取得することが可能になる。
なおユーザの位置情報や方向情報等を取得するためのトラッキング処理は、図2(A)〜図4で説明した処理には限定されず、種々の変形実施が可能である。例えばHMD200の単体でトランキング処理を実現してもよい。例えば図4のような測定用の装置251〜254を設けることなく、トラッキング処理を実現してもよい。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング処理を採用してもよい。
またHMD200として、いわゆるスマートフォンVR又はVRゴーグルと呼ばれるタイプのものを用いてもよい。このタイプのHMD200では、スマートフォンの表示部がユーザの目に対向するように、HMD200のゴーグル部の中にスマートフォンを収納する。ゴーグル部(VRゴーグル)の内側には、左眼用接眼レンズ、右眼用接眼レンズが内蔵されている。ユーザは、スマートフォンの表示部に表示された左眼用画像、右眼用画像を、各々、左眼用接眼レンズ、右眼用接眼レンズを介して見ることで、VRの立体視画像を鑑賞することができる。そしてユーザの視点位置、視線方向を特定するトラッキング処理は、スマートフォンに内蔵される慣性計測ユニット(加速度センサ、ジャイロセンサ)などに基づいて実現できる。
3.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお、以下では、主キャラクタとモンスターが登場するアクションゲームに本実施形態の手法を適用した場合について主に例にとり説明を行う。なお本実施形態の手法は、種々のゲーム(仮想体験ゲーム、格闘ゲーム、競争ゲーム、RPG、スポーツゲーム、ホラー体験ゲーム、電車や飛行機等の乗り物のシミュレーションゲーム、パズルゲーム、コミュニケーションゲーム、或いは音楽ゲーム等)に適用でき、ゲーム以外にも適用可能である。
3.1 ゲームの説明
まず本実施形態により実現されるゲームについて説明する。図4に示すように実空間にプレイフィールドFLが設けられており、このプレイフィールドFLにおいてゲームプレイが行われる。図4では、複数のユーザUS1、US2、US3がプレイフィールドFLにおいてゲームプレイを行っている。ユーザUS1、US2、US3は、各々、HMD1、HMD2、HMD3を装着している。HMD1、HMD2、HMD3としては図2(A)〜図3で説明した種々のタイプのものを用いることができる。またプレイフィールドFLにはユーザUS1、US2、US3の位置情報等の測定用の装置251〜254が設置されている。
図5は仮想空間に設定される仮想的なプレイフィールドFLVの例である。図4の実空間のプレイフィールドFLに対応して、図5のような仮想空間のプレイフィールドFLVが設定される。仮想空間のプレイフィールドFLVには、経路設定用のオブジェクトOB1〜OB19が配置されている。これらの経路設定用のオブジェクトOB1〜OB19により、仮想空間でのユーザ(US1〜US3)の移動の経路が設定される。即ちユーザは、仮想空間のこれらのオブジェクトOB1〜OB19に接触したり、通過してすり抜けてしまわないように経路を移動する。ここで経路設定用のオブジェクトOB1〜OB13は、当該オブジェクトに対応する物体が図4の実空間には存在しない。一方、オブジェクトOB14〜OB19は、当該オブジェクトに対応する物体が図4の実空間に存在している。即ちオブジェクトOB14〜OB19は、実空間の部屋の壁に対応するように仮想空間に配置されている。
このようにオブジェクトOB1〜OB13は、対応する実空間の物体に存在しないため、ユーザは、実際にはこれらのオブジェクトOB1〜OB13をすり抜けて移動できる。このため後述するように、すり抜けの防止のためのペナルティー処理を行う。一方、オブジェクトOB14〜OB19は、対応する実空間の壁が存在し、この壁に対してユーザがぶつかってしまうおそれがある。このため、オブジェクトOB14〜OB19に接近したユーザに対して、壁が前方にあることを知らせる警告の報知処理を行う。例えば画像、音又は振動等により警告の報知処理を行う。
図5では、図4のユーザUS1、US2、US3に対して、各々、主キャラクタCP1、エサキャラクタCF、特殊エサキャラクタCSの役割が割り当てられて、ゲームが開始している。即ち、実空間のユーザUS1、US2、US3の位置に対応する仮想空間の位置に、主キャラクタCP1、エサキャラクタCF、特殊エサキャラクタCSのオブジェクトが配置され、これらのオブジェクトの画像が表示画像として表示される。主キャラクタCP1は、例えばパックマン(登録商標)と呼ばれるキャラクタである。エサキャラクタCF、特殊エサキャラクタCSは、各々、チェリー、パワーエサに対応するキャラクタである。また図5のA1に示すように、モンスターの巣と呼ばれる場所ではモンスターCM1〜CM5が巡回するように移動している。
ゲーム開始時にはユーザUS1だけが主キャラクタCP1の役割となっており、プレイフィールドFLV上を移動して、エサであるドットDT(クッキー)を食べる行動を行う。これによりユーザUS1はポイント(得点)を獲得できる。またエサキャラクタCFに接触することで、更なるポイントを獲得したり、特殊エサキャラクタCSに接触することで、モンスター(CM1〜CM5)を弱いモンスターに変化させることが可能になる。
ここで図5は、説明の簡略化のために模式的な2次元の画像の図になっているが、実際には図6(A)、図6(B)、図7に示すような3次元のオブジェクトの画像がユーザ(US1〜US3)のHMD(HMD1〜HMD3)に表示される。例えば図6(A)は、ユーザの前方にモンスターCM1が出現した場合の表示画像である。図6(B)は、主キャラクタCP1の役割でゲームをプレイしているユーザUS1を、ユーザUS2やUS3が見ているときの表示画像である。例えば図3のようなARやMR用のHMD200を用いた場合には、他のユーザUS2やUS3の視界には実空間のユーザUS1も見えるようになる。図7は、エサキャラクタCFの役割でゲームをプレイしているユーザUS2を、ユーザUS1やUS3が見ているときの表示画像である。例えば図3のようなARやMR用のHMD200を用いた場合には、ユーザUS1やUS3の視界には実空間のユーザUS2も見えるようになる。この場合、例えば各ユーザにマーカー(QRマーカー等)を取り付けて、このマーカーを図3のRGBカメラ246等を用いて撮影して画像認識することで、図6(B)、図7に示すような主キャラクタCP1、エサキャラクタCFなどのキャラクタの画像を表示するようにしてもよい。
また各ユーザのゲームでの役割は、図8(A)〜図8(C)に示すようなUI画面として、各ユーザのHMDに表示される。例えばゲーム中においては各ユーザが自身の足元を見た時に、図8(A)〜図8(C)のようなUI画面が表示される。図5の例では、ユーザUS1のHMD(HMD1)には、図8(A)のUI画面が表示され、主キャラクタCP1の役割であることが報知される。ユーザUS2、US3のHMD(HMD2、HMD3)には、各々、図8(B)、図8(C)のUI画面が表示され、エサキャラクタCF、特殊エサキャラクタCSの役割であることが報知される。
図9(A)、図9(B)、図9(C)はゲーム進行に伴い表示されるUI画面の例である。本実施形態ではゲームプレイに対して例えば300秒の制限時間が設定されており、制限時間の経過時間がUI画面に表示される。またドットを食べた数であるドットの獲得数及びドットの総数や、ドットを食べることなどによるユーザの獲得ポイントが、UI画面に表示される。図9(A)のゲームスタート時は、100個の総数のうち獲得数は0個となり、獲得ポイントも0ポイントとなる。
図10に示すようにユーザUS1、US2間の距離LDが近くなることで接近の位置関係(広義には所与の位置関係)になり、ハイタッチのアクション(広義には所与のアクション)が行われると、キャラクタの画像等を変更するための変更条件が成立する。この場合には図9(B)に示すようにハイタッチの成功を報知するUI画面が表示される。このように本実施形態では複数のユーザ間の位置関係状況や変更処理の変更状況についての報知処理が行われる。また図9(B)では、制限時間の経過時間は85秒であり、ドットの獲得数は23個であり、獲得ポイントは330ポイントであることが報知されている。例えばポイントは、ドットを獲得したり、エサキャラクタや特殊エサキャラクタと接触することで加算される。
図9(C)はゲーム終了時に表示されるUI画面である。図9(C)では、300秒の制限時間が経過しており、ドットの獲得数は88個であり、獲得ポイントは1630ポイントであることが報知されている。本実施形態では、図4のユーザUS1、US2、US3は、例えば全員が主キャラクタにチェンジして、プレイフィールドFLVの全てのドットを獲得することを目指す協力プレイのマルチプレーヤゲームを楽しむ。即ち、参加する全てのユーザに役割があり、ゴールに向けて全員で協力して目的を達成する。そしてユーザ同士が図10に示すようなハイタッチのアクションによるコミュニケーションを楽しむ。後述するようにゲーム開始時にエサキャラクタや特殊エサキャラクタであったユーザも、主キャラクタのユーザとハイタッチすることで、エサキャラクタや特殊エサキャラクタから主キャラクタにチェンジすることができ、協力してドットを獲得したり、モンスターを倒すゲームを楽しむことが可能になる。
3.2 キャラクタ画像、ゲームモードの変更処理
本実施形態では、実空間を移動するユーザの位置情報(広義にはユーザの情報)を取得し、ユーザがプレイするゲームの処理を行う。そして仮想空間の設定処理を行い、実空間でのユーザの位置に対応する仮想空間の位置に、ユーザに対応するユーザキャラクタの画像が表示された表示画像を、仮想空間画像(VR、AR又はMR等の画像)として生成する。例えば図4の実空間のユーザUS1の位置に対応する仮想空間の位置に、図5に示すようにユーザUS1に対応するユーザキャラクタである主キャラクタCP1の画像が表示された表示画像を生成する。即ち図6(B)に示すように仮想空間の主キャラクタCP1が表示された仮想空間画像を生成する。同様に図4の実空間のユーザUS2、US3の位置に対応する仮想空間の位置に、図5に示すようにユーザUS2、US3に対応するユーザキャラクタであるエサキャラクタCF、特殊エサキャラクタCSの画像が表示された表示画像を生成する。即ち図7に示すように仮想空間のエサキャラクタCF等が表示された仮想空間画像を生成する。
そして本実施形態ではユーザと実空間の他のユーザ又は仮想空間の配置オブジェクトとが所与の位置関係になって変更条件が満たされたと判断した場合に、ユーザキャラクタの画像、他ユーザキャラクタの画像、或いは配置オブジェクトの画像を変更する処理を行う。
例えば図4の実空間のユーザUS1、US2、US3のキャラクタ画像は、図5では主キャラクタCP1、エサキャラクタCF、特殊エサキャラクタCSの画像になっている。なお以下では、ユーザキャラクタの画像を、適宜、単にキャラクタ画像を記載する。これらのキャラクタ画像は、実空間のユーザUS1、US2、US3の位置に対応する仮想空間の位置に表示される。
そしてユーザUS1が移動して、図10に示すようにユーザUS1とUS2が接近の位置関係(所与の位置関係)になって、変更条件が満たされたとする。具体的には例えばユーザUS1、US2が接近の位置関係になって、ハイタッチ(所与のアクション)を行った場合に、変更条件が満たされる。この場合に図11に示すように、ユーザUS2のキャラクタ画像(ユーザキャラクタの画像)が、エサキャラクタCFの画像から主キャラクタCP2の画像に変更される。即ち、エサキャラクタCFとはキャラクタの種類が異なる主キャラクタCP2の画像に変更される。またユーザUS2の役割がエサキャラクタCFの役割から主キャラクタCP2の役割に変更されるというように、ゲームモード(ゲームプレイ条件)も変更される。例えばエサキャラクタCFは、仮想空間のプレイフィールドFLV上を移動できるが、ドットを獲得したり、モンスターに倒されたり、弱体化したモンスターを倒すことはできない。これに対して、主キャラクタCP2は、仮想空間のプレイフィールドFLV上を移動して、ドットを獲得でき、通常のモンスターに遭遇すると倒され、弱体化したモンスターを倒すことができる。なおユーザUS1、US2が接近の位置関係などの所与の位置関係になって変更条件が満たされたか否かを、図3のHMD200のデプスカメラ247やRGBカメラ246などを用いて判定してもよい。
このように本実施形態では、ユーザUS1、US2が接近の位置関係になって変更条件が成立すると、ユーザUS2のキャラクタ画像がエサキャラクタCFから主キャラクタCP2の画像に変更される。例えば変更条件の成立前は、ユーザUS2のキャラクタ画像として、図7に示すようにエサキャラクタCFの画像が表示されていた。これに対して変更条件が成立すると、ユーザUS2のキャラクタ画像として、図13(A)に示すように主キャラクタCP2の画像が表示されるようになる。従って、ユーザ同士の位置関係を反映させた仮想空間画像を生成できるシミュレーションシステムの提供が可能になる。例えばVRやARやMRで、実空間(現実世界)でのユーザ同士の接触を仮想空間上に反映させることで、実空間と仮想空間(ゲーム空間)を融合する新しい遊びを提供することが可能になる。
また本実施形態では図10、図11のように変更条件が成立すると、ユーザUS2の役割が変更されるというゲームモードの変更処理が行われ、ユーザUS2のゲームプレイ条件が変更される。従って、それ以降は異なったゲームプレイ条件(ゲームルール)でゲームが進行するようになり、これまでにはないタイプのゲームの実現が可能になる。
なお、このようにユーザUS1、US2が接触して変更条件が満たされると、図11に示すように新たなモンスターCM6が出現して、A2に示すように巡回移動を行うようになる。即ち、A1に示すモンスターの巣でのモンスターCM1〜CM5の巡回移動に加えて、新たなモンスターCM6が出現して、巡回移動を行うようになる。つまり、主キャラクタの人数が1人から2人に増えたことに伴い、巡回移動するモンスターも増加させることで、ゲームバランスの調整が行われる。
そして図12では、ユーザUS2がユーザUS3の方に移動して、接近の位置関係になり、図10と同様にユーザUS2、US3がハイタッチを行ったため、変更条件が成立している。これによりユーザUS3のキャラクタ画像が、特殊エサキャラクタCSの画像から主キャラクタCP3の画像に変更される。即ち、特殊エサキャラクタCSとはキャラクタの種類が異なる主キャラクタCP3の画像に変更される。またユーザUS3の役割が特殊エサキャラクタCSの役割から主キャラクタCP3の役割に変更されるというように、ゲームモードも変更される。例えば特殊エサキャラクタCSは、仮想空間のプレイフィールドFLV上を移動できるが、ドットを獲得したり、モンスターに倒されたり、弱体化したモンスターを倒すことはできない。これに対して、主キャラクタCP3は、仮想空間のプレイフィールドFLV上を移動して、ドットを獲得でき、通常のモンスターに遭遇すると倒され、弱体化したモンスターを倒すことができる。
このように本実施形態では、ユーザUS1、US3が接近の位置関係になって変更条件が成立すると、ユーザUS3のキャラクタ画像が特殊エサキャラクタCSから主キャラクタCP3の画像に変更される。例えば変更条件の成立前は、ユーザUS3のキャラクタ画像として、特殊エサキャラクタCSの画像が表示されていた。これに対して変更条件が成立すると、ユーザUS3のキャラクタ画像として、図13(B)に示すように主キャラクタCP3の画像が表示されるようになる。従って、ユーザ同士の位置関係を反映させた仮想空間画像を生成できるシミュレーションシステムの提供が可能になる。また本実施形態では図12のように変更条件が成立すると、ユーザUS3の役割が変更されるというゲームモードの変更処理が行われ、ユーザUS3のゲームプレイ条件が変更される。従って、それ以降は異なったゲームプレイ条件でゲームが進行するようになり、これまでにはないタイプのゲームの実現が可能になる。
なお、このようにユーザUS1、US3が接触して変更条件が満たされると、図12に示すように新たなモンスターCM7が出現して、A3に示すように巡回移動を行うようになる。即ち、主キャラクタの人数が増えたことに伴い、巡回移動するモンスターも増加させることで、ゲームバランスの調整が行われる。
以上のように本実施形態によれば、ユーザ間が接近の位置関係になって変更条件が満たされると、キャラクタ画像が変更されると共にゲームモードが変更される。そして図5では、ユーザUS1だけが主キャラクタの役割となっており、ユーザUS2、US3はエサキャラクタの役割となっていたため、ユーザUS1、US2、US3による協力プレイは劣勢の展開となっていた。これに対してユーザUS1がユーザUS2、US3に接近して接触することで、図11、図12に示すように、ユーザUS1に加えてユーザUS2、US3も主キャラクタの役割になる。従って、図5に比べて協力プレイが優勢な展開となり、全員で協力してゲームをクリアするというゲームの楽しみをユーザに与えることが可能になるため、これまでにはないタイプのシミュレーションシステムの実現が可能になる。
次に図14、図15、図16を用いて本実施形態の変形例について説明する。図14では、ユーザUS1とUS2が参加してゲームプレイを行っており、ユーザUS1のキャラクタ画像として主キャラクタCP1が表示され、ユーザUS2のキャラクタ画像としてモンスターCMAの画像が表示される。即ちユーザUS1には、主キャラクタCP1の役割が割り当てられ、ユーザUS2には、敵であるモンスターCMAの役割が割り当てられている。つまり図14ではエサキャラクタの役割のユーザは存在していない。そして図15では、ユーザUS1の主キャラクタCP1が、仮想空間の配置オブジェクトである特殊エサCSBに接触して、食べる行動を行っている。これによりユーザUS2のキャラクタ画像が、図15に示すようにモンスターCMAの画像からモンスターCMBの画像に変更される。モンスターCMAは通常のモンスターであるが、モンスターCMBは弱体化したモンスター(いじけモンスター)であり、主キャラクタCP1はモンスターCMBに接触して消滅させることができる。例えばユーザUS2の役割が、通常のモンスターCMAの役割から、弱体化したモンスターCMBの役割に変更されており、ゲームモード(ユーザUS2のプレイ条件)が変更されている。そして図16では、図10と同様にユーザUS1とUS2が接近の位置関係になり、変更条件が満たされたため、ユーザUS2のモンスターCMBが消滅する画像変更処理が行われている。このように図14〜図16の変形例によれば、ユーザUS1とUS2が主キャラクタとモンスターになって対戦するゲームの実現が可能になる。
3.3 種々の処理例
次に本実施形態の種々の処理例について説明する。本実施形態ではユーザ又は他のユーザの操作情報、或いはゲーム状況に応じて、ユーザキャラクタの画像又は他ユーザキャラクタの画像の表示態様を変化させる処理を行う。
例えば図17では、ユーザが所定操作を行う又は所定アイテムを使用しており、ユーザに対応する主キャラクタCP1が透明表示になったり、半透明表示になる。例えばユーザが所定操作を行う又は所定アイテムを使用することで、コマンドが発動すると、主キャラクタCP1が画面上に見えなくなったり、見えにくくなる。例えば所定操作が行われたり所定アイテムが使用されたタイミングから、所与の期間の間、主キャラクタCP1が視覚的に見えなくなったり、見えにくくなるように、主キャラクタCP1の表示態様が変更される。例えばモンスターが主キャラクタCP1に接近して来て、行き止まりの場所に追い込まれるような危機的な状況になったとする。この場合に、ユーザが所定操作を行ったり、所定アイテムを使用することで、図17に示すように主キャラクタCP1の表示態様が変更される。これによりユーザは、このような危機的な状況から脱することが可能になる。
なお主キャラクタCP1のオブジェクトを、認識しにくいオブジェクトに変更したり、別のオブジェクトに変更(擬態)してもよい。例えばモンスターが接近して来た時に、主キャラクタCP1を、一時的にモンスターのキャラクタに変更する。このようにすれば、接近して来たモンスターは、変更後のモンスターに対して食べるなどの行動が行うことができなくなるため、ユーザは危機的な状況から脱することが可能になる。
また表示態様の変更処理として、例えば背景の色と同色にするような光学迷彩の処理を行ったり、キャラクタの画像をぼかす処理を行ってもよい。また表示態様の変更処理を行うための所定操作は例えば特殊操作であり、所定アイテムの使用は例えば特殊アイテムの使用である。特殊操作は、例えばユーザのゲームレベルやゲーム状況などに基づき所与の条件が成立した場合に許可される操作である。特殊アイテムは、ユーザのゲームレベルが所定レベルを越えたり、ユーザが課金に対して対価を支払うことなどで獲得できるアイテムである。ユーザは、このような特殊操作を行ったり、特殊アイテムを使用することで、ゲームを優位に進めることが可能になる。
また本実施形態では、ユーザと配置オブジェクトとが所与の位置関係になって変更条件が満たされたと判断した場合に、ユーザキャラクタの画像又は配置オブジェクトの画像の表示態様を変化させる処理を行う。
例えば図18(A)では、RPGのゲームにおいて、ユーザに対応するキャラクタCH(ユーザキャラクタ)がマップ上を移動して、宝物を探索している。そして図18(A)では宝物のオブジェクトOBT(広義には配置オブジェクト)を見つけて、この宝物のオブジェクトOBTに接触している。このようにユーザとオブジェクトOBTが接触(接近)の位置関係になって変更条件が成立すると、図18(B)に示すようにキャラクタCHの画像やオブジェクトOBTの画像の表示態様を変化させる処理が行われる。例えば図18(A)では、キャラクタCHは剣SWAを所持しているが、図18(B)では、キャラクタCHが所持する剣が、宝物のオブジェクトOBTに入っていた剣SWBに変更される。即ちキャラクタCHの画像の表示態様が変化している。またオブジェクトOBTの画像も、空いた状態の宝箱の画像へと表示態様が変化している。更に時間が経過すると、図18(C)に示すように、宝箱のオブジェクトOBTが石のオブジェクトOBSに変化する。
このように本実施形態では、ユーザ同士が所与の位置関係になった場合のみならず、ユーザと配置オブジェクトとが接触関係や接近関係などの所与の位置関係になった場合にも、ユーザキャラクタの画像や配置オブジェクトの画像の表示態様が変化する。従って、ユーザと配置オブジェクトとの位置関係を反映させた仮想空間画像を生成することが可能になり、これまでにないシミュレーションシステムの実現が可能になる。なお配置オブジェクトの位置情報は、例えば配置オブジェクトの座標情報として、図1のオブジェクト情報記憶部172に記憶されており、この座標情報に基づき判断できる。或いは仮想空間での配置オブジェクトの位置に対応する実空間の位置に、マーカー(QRマーカー等)を配置し、このマーカーをカメラ等で画像認識することで、配置オブジェクトの位置情報を取得してもよい。
また本実施形態では、ユーザキャラクタの種類、他ユーザキャラクタの種類、又は配置オブジェクトの種類に応じた、変更処理を行う。
例えば図19(A)では、ユーザUS1、US2のユーザキャラクタの種類は、各々、主キャラクタCP1、エサキャラクタCFになっている。そしてユーザUS1、US2が接触して(接触の位置関係になって)、変更条件が満たされると、ユーザUS2のキャラクタの種類が、エサキャラクタCFから主キャラクタCP2に変更される。
一方、図19(B)では、ユーザUS1、US2のユーザキャラクタの種類は、各々、モンスターCMA、エサキャラクタCFになっている。そしてユーザUS1、US2が接触して変更条件が満たされると、ユーザUS2のキャラクタの種類が、エサキャラクタCFからモンスターCMCに変更される。
即ち、図19(A)では、エサキャラクタCFは、主キャラクタCP1と接触したため、主キャラクタCP2に変更されているが、図19(B)では、モンスターCMAと接触したため、モンスターCMCに変更されている。つまりエサキャラクタCFの接触対象となるキャラクタの種類に応じて、エサキャラクタCFの変更先のキャラクタの種類が異なっており、キャラクタの種類に応じた変更処理が行われている。
或いは図19(A)のように主キャラクタCP1とエサキャラクタCFが接触した場合に、ユーザUS1の主キャラクタCP1の方をエサキャラクタCFに変更してもよい。また図19(B)のようにモンスターCMAとエサキャラクタCFが接触した場合に、ユーザUS1のモンスターCMAの方をエサキャラクタCFに変更してもよい。
このように本実施形態では、ユーザキャラクタである主キャラクタCP1の種類や、他ユーザキャラクタであるエサキャラクタCFの種類に応じた、変更処理が行われる。同様に、例えば図18(A)、図18(B)に示すようなユーザキャラクタであるキャラクタCHと、配置オブジェクトであるオブジェクトOBTとが接触した場合に、キャラクタCHの種類又はオブジェクトOBTの種類に応じた、変更処理を行ってもよい。即ちキャラクタの種類や配置オブジェクトの種類に応じた変更処理を行う。或いは、キャラクタの種類や配置オブジェクトの種類に応じた、ゲームモードの変更処理を行ってもよい。
以上のようにすることで、ユーザキャラクタの種類、他ユーザキャラクタの種類、又は配置オブジェクトの種類に応じて、様々な変更処理が行われるようになる。従って、変更条件が満たされた場合に多様な内容の変更処理が行われるようになり、ゲームの面白味や戦略性の向上を図れるようになる。
また本実施形態では、ユーザと他のユーザとの関係情報、又はユーザと配置オブジェクトとの関係情報に応じた、変更処理を行う。
例えば図20(A)において、ユーザUS1とユーザUS2は同じグループ(チーム)に属しており味方同士になっている。そして、ユーザUS1がユーザUS2に接近して、味方同士の1回目のハイタッチを行うことで、変更条件が満たされると、ユーザUS1のキャラクタが、キャラクタCPXからキャラクタCPYに変更される。キャラクタCPYは、キャラクタCPXよりも大きな形状のキャラクタであり、色も異なっている。またキャラクタCPYは、ドットを食べた時の獲得ポイントの増加量などが、キャラクタCPXよりも大きくなっている。
また図20(B)では、ユーザUS1とユーザUS3も同じグループに属しており味方同士になっている。そしてユーザUS1がユーザUS3に接近して、味方同士の2回目のハイタッチを行うことで、変更条件が満たされると、例えばユーザUS1のキャラクタが、キャラクタCPYからキャラクタCPZに変更される。キャラクタCPZは、キャラクタCPYよりも大きな形状のキャラクタであり、色も異なっている。またキャラクタCPZは、ドットを食べた時の獲得ポイントの増加量などが、キャラクタCPYよりも大きくなっている。このようにすれば、ユーザUS1は、味方のユーザと次々とハイタッチを行うことで、自身のキャラクタの形状や色を変化させたり、能力を変化させることが可能になり、キャラクタの育成などが可能になる。従って、ユーザと他のユーザとの関係情報やユーザと配置オブジェクトとの関係情報を反映させた変更処理を実現できるようになり、複数のユーザがプレイするマルチプレーヤゲームの面白味や戦略性等の向上を図れる。
このように本実施形態では、ユーザと他のユーザが接触した場合に、相手が味方のユーザかどうかに応じて、それぞれのユーザの表示形態が変化し、ゲームモードも変化するようになる。例えば所定の関係にあるユーザ同士が接触すると、キャラクタが強くなったり、今までできなかったことができるようになる。或いは、ユーザが、ユーザと所定の関係にある配置オブジェクトに接触すると、配置オブジェクトについての特別な変更処理が行われる。例えば、今まではただの障害物だった配置オブジェクトが、宝箱に変化するような変更処理が行われる。このようにすることで、これまでにないVR、AR又はMR等のシミュレーションシステムの実現が可能になる。
また本実施形態では、ユーザ又は他のユーザのゲームレベル又はゲームプレイ履歴に応じた、変更処理を行う。
例えば図21では、ユーザUS1のゲームレベルは40レベルであり、ユーザUS2のゲームレベルは3レベルになっており、ユーザUS1の方がゲームレベルが高い。そしてユーザUS1に対応するキャラクタCPYは、1ドットを食べる毎に50ポイントを獲得できるのに対して、ユーザUS2に対応するキャラクタCPXは、1ドットを食べる毎に10ポイントしか獲得できない。即ちキャラクタCPYの方がキャラクタCPXよりも能力(能力パラメータ)が高い。
そして、このようなゲームレベルの関係にあるユーザUS1、US2がハイタッチを行って、変更条件が満たされたとする。この場合には、図21に示すように、レベルの低い方のユーザUS2のキャラクタが、キャラクタCPXからキャラクタCPYに変更される。例えばハイタッチが行われた後、所与の期間の間、ユーザUS2のキャラクタを、キャラクタCPXからキャラクタCPYに変更する。このキャラクタCPYは、ユーザUS1のキャラクタCPYと同様に、1ドットを食べる毎に50ポイントを獲得することができ、同じ能力のキャラクタになっている。このようにすることで、ユーザのゲームレベルを反映させた、キャラクタの画像の変更処理やゲームモードの変更処理を実現できるようになる。例えば図21では、ユーザUS2のキャラクタの画像が変更されると共に、ゲーム成績の演算方式の変更処理が行われており、ゲームモードが変更されている。
なお、ゲームレベルではなく、ユーザのゲームプレイ履歴を反映させた変更処理を行うようにしてもよい。例えばユーザの過去のゲームプレイ回数やゲームプレイ頻度やゲーム結果(勝敗)などのゲームプレイ履歴に応じて、キャラクタの画像の変更処理の内容やゲームモードの変更処理の内容を異ならせてもよい。例えば、ユーザの過去のゲームプレイ回数が多い場合や、ゲームプレイ頻度が高い場合や、ゲーム結果が良い結果である場合には、よりユーザが有利になるように、キャラクタの画像を変更したり、ゲーム成績の演算方式を変更してもよい。
また本実施形態では、変更条件が満たされたと判断した場合に、変更処理として、ゲームモードの変更処理を行う。例えば変更条件が満たされた場合に、キャラクタの画像の変更のみならず、ゲームモードの変更処理も行う。このようにすれば、ユーザ同士が所与の位置関係になったり、ユーザと配置オブジェクトが所与の位置関係になることで、ゲームモードも様々に変化するようになり、多様な展開のゲームの処理を実現できるようになる。
具体的には本実施形態では、変更条件が満たされた場合に、ゲームモードの変更処理として、ゲーム成績の演算方式を変更する。
例えば図22において、ユーザUS1、US2がハイタッチを行う前においては、ユーザUS1の主キャラクタCP1は、1ドットを食べる毎に10ポイントを獲得することができる。一方、ユーザUS2のエサキャラクタCFは、ドットを食べることができず、ドットを食べることによるポイント獲得もできない。
そしてユーザUS1、US2がハイタッチを行って、変更条件が満たされると、ゲームモードの変更処理として、ゲーム成績の演算方式の変更処理が行われる。例えばゲーム成績の演算方式の変更処理により、ユーザUS1の主キャラクタCP1は、1ドットを食べる毎に20ポイントを獲得することができ、ハイタッチが行われる前に比べて、1ドットを食べた時の増加ポイントが大きくなる。また変更条件が満たされると、ユーザUS2のキャラクタは、エサキャラクタCFから主キャラクタCP2に変更される。そしてユーザUS2の主キャラクタCP2は、1ドットを食べる毎に20ポイントを獲得することができる。即ち、ハイタッチ前においては、ドットを食べたり、ドットを食べることによるポイント獲得ができなかったのに対して、ハイタッチ後は、ドットを食べてポイントが獲得できるようになっており、ユーザUS2のキャラクタについてのゲーム成績の演算方式が変更されている。
このようにすれば、ユーザ同士が所与の位置関係になったり、ユーザと配置オブジェクトが所与の位置関係になることで、キャラクタや配置オブジェクトの画像が変更されると共に、ゲーム成績の演算方式も変更されるようになり、ゲームの戦略性や面白味を向上できる。
また本実施形態では、変更条件が満たされた場合に、ゲームモードの変更処理として、ゲームでのユーザ又は他のユーザの役割の変更処理を行う。そしてユーザキャラクタ又は他ユーザキャラクタの画像を、変更された役割に対応するキャラクタの画像に変更する。
例えば図23に示すように、ユーザUS1、US2のハイタッチの前においては、ユーザUS1には主キャラクタCP1の役割が割り当てられており、ユーザUS2にはエサキャラクタCFの役割が割り当てられている。そしてハイタッチが行われて変更条件が満たされると、ゲームモードの変更処理として、ユーザの役割の変更処理が行われる。例えば図23では、ユーザUS2の役割が、エサキャラクタCFの役割から、主キャラクタCP2の役割に変更されている。例えばエサキャラクタCFは、ドットを食べることもできず、ドットを食べることなどによるポイントの獲得もできない。またモンスターとは無関係であり、モンスターと接触しても、何らのイベントも発生しない。これに対して主キャラクタCP2は、ドットを食べることなどによるポイントの獲得が可能になる。また通常のモンスターと接触すると、モンスターに食べられて消滅するが、弱体化したモンスターと接触すると、当該モンスターを消滅させることができる。このように、エサキャラクタCFと主キャラクタCP2とでは、ゲームでの役割が大きく異なっている。本実施形態では、変更条件が満たされると、この役割の変更処理を行うことで、ゲームモードの変更処理を実現する。このようにすれば、ユーザの役割とキャラクタの画像が連動して変更される変更処理の実現が可能になる。
また本実施形態では図23のB1に示すように、役割の変更処理に対する制限処理を行ってもよい。例えば役割の変更の禁止や異なる内容への変更などの制限処理を行う。
例えば図23に示すようにエサキャラクタが主キャラクタに変更されると、主キャラクタの人数の割合が増えてしまう。例えばプレイフィールドFLにおいて10人のユーザがゲームに参加しており、最初は1人であった主キャラクタが、2人、3人、4人、5人というように、役割の変更処理により増えて行ったとする。すると、モンスターの数に対する主キャラクタの人数の割合が増えてしまい、ユーザのゲーム展開が有利になりすぎてしまう。従って、この場合には、エサキャラクタから主キャラクタへの役割の変更処理を制限し、例えば当該役割の変更処理を禁止する。或いは、役割の変更処理の内容を変更する。例えば変更条件が成立した場合に、エサキャラクタから主キャラクタに役割を変更するのではなく、エサキャラクタから特殊エサキャラクタに変更したり、エサキャラクタからモンスターに変更するなどして、役割の変更処理の内容を変更する。このようにすれば、ユーザの役割の変更処理が無制限に行われてしまうのを抑制でき、ゲームバランスの適切な調整が可能になる。
また本実施形態では、ゲーム開始からのゲームプレイの制限時間が設定されている場合に、変更条件が満たされたタイミングに応じて、ゲームモードの変更態様を異ならせる。
例えば図24では、ゲームスタートからゲームオーバーまでのゲームプレイの制限時間TLが設定されている。図9(A)〜図9(C)を例にとれば制限時間は300秒である。そして制限時間TL内のタイミングTM1において、変更条件が成立しており、この場合にはゲームモード変更処理MD1が行われている。同様に制限時間TL内のタイミングTM2、TM3において、変更条件が成立しており、ゲームモード変更処理MD2、MD3が行われている。そしてタイミングTM1、TM2、TM3で行われるゲームモード変更処理MD1、MD2、MD3は、その変更処理の内容が異なっている。
例えば制限時間TL内の前半のタイミングTM1において、ユーザのエサキャラクタが他のユーザの主キャラクタに接触して変更条件が成立したとする。この場合にはゲームモード変更処理MD1として、ユーザの役割をエサキャラクタから主キャラクタに変更する処理が行われる。一方、制限時間TL内の中盤のタイミングTM2において、ユーザのエサキャラクタが他のユーザの主キャラクタに接触して変更条件が成立したとする。この場合にはゲームモード変更処理MD2として、役割の変更処理は行われず、ユーザの役割はエサキャラクタのままとなる。また制限時間TL内の後半のタイミングTM3において、ユーザのエサキャラクタが他のユーザの主キャラクタに接触して変更条件が成立したとする。この場合にはゲームモード変更処理MD3として、ユーザの役割をエサキャラクタからモンスターに変更する処理が行われる。
或いは、前半のタイミングTM1において変更条件が成立した場合には、エサキャラクタを主キャラクタに変更すると共に、その主キャラクタが1ドットを食べる毎に10ポイントを獲得できるようにするゲームモード変更処理MD1を行う。一方、後半のタイミングTM3において変更条件が成立した場合には、エサキャラクタを主キャラクタに変更すると共に、その主キャラクタが1ドットを食べる毎に40ポイントを獲得できるようにするゲームモード変更処理MD3を行う。
このようにすることで、制限時間内においてどのタイミングで変更条件が成立するかに応じて、ゲームモードの変更処理の内容が様々に変化するようになり、多様なゲーム処理の実現が可能になる。
また本実施形態では、実空間でプレイする複数のユーザに対して複数の役割(第1〜第Mの役割)が割り当てられる場合に、複数の役割に割り当てられたユーザの人数の割合情報に基づいて、ゲームモードの変更処理を行う。
例えば図25(A)では、主キャラクタの役割に割り当てられたユーザの人数の割合の方が、モンスターの役割に割り当てられたユーザの人数の割合よりも多くなっている。この場合には、例えばモンスターの能力をアップするなどのゲームモードの変更処理を行う。例えばモンスターの移動速度を速くするなどのゲームモードの変更処理を行う。或いは主キャラクタの移動速度を遅くしたり、1ドットを食べる毎に獲得されるポイント数を低くするゲームモードの変更処理を行う。こうすることで、主キャラクタの割合が多いことが原因でアンバランスになったゲームバランスを適切に調整できるようになる。
一方、図25(B)では、モンスターの役割に割り当てられたユーザの人数の割合の方が、主キャラクタの役割に割り当てられたユーザの人数の割合よりも多くなっている。この場合には、例えば主キャラクタの能力をアップするなどのゲームモードの変更処理を行う。例えば主キャラクタの移動速度を速くしたり、1ドットを食べる毎に獲得されるポイント数を多くするゲームモードの変更処理を行う。或いはモンスターの移動速度を遅くするなどのゲームモードの変更処理を行う。こうすることで、モンスターの割合が多いことが原因でアンバランスになったゲームバランスを適切に調整できるようになる。従って、各役割に割り当てられるユーザの人数がアンバランスになるなどの事態の発生を抑制できるようになる。
また本実施形態では、ゲームをプレイする複数のユーザ間の位置関係状況、又は変更処理の変更状況についての報知処理を行う。
例えば図26(A)では、ユーザであるAとBが接近の位置関係になってハイタッチに成功し、Bの役割が主キャラクタに変更したことを報知するUI画面が、HMDに表示される。即ち、ゲームをプレイする複数のユーザ間の位置関係状況についての報知処理が行われている。このようすることで、ゲームに参加しているユーザは、ユーザ間の位置関係がどのような状況になっているのかを容易に把握できるようになり、ユーザインタフェースの向上を図れる。
また図26(B)では、現在の状況において主キャラクタに割り当てられたユーザの人数や、モンスターに割り当てられたユーザの人数を報知するUI画面が、HMDに表示される。即ち、変更処理の変更状況についての報知処理が行われている。このようすることで、ゲームに参加しているユーザは、現在の変更処理の状況がどのような状況になっているのかを容易に把握できるようになり、ユーザインタフェースの向上を図れる。
また本実施形態では、ユーザと他のユーザ又は配置オブジェクトとが所与の位置関係になり、ユーザが所与のアクションを行ったと判定した場合に、変更条件が満たされたと判断する。例えば図10では、ユーザUS1とユーザUS2の間の距離LDが短くなり、ユーザUS1、US2が接近の位置関係になっていると判断されている。この状態で図10に示すようにユーザUS1、US2がハイタッチのアクションを行った場合に、変更条件が満たされたと判断する。ユーザUS1、US2がハイタッチのアクションは、例えばユーザUS1、US2の姿勢情報(ジェスチャー)を検出することなどにより判断できる。或いは銃を用いるゲームにおいては、ユーザが銃コントローラを用いた弾の発射操作を行ったかを判定することで、ユーザが、変更条件の成立のための所与のアクションを行ったか否かを判断するようにしてもよい。このようにすることで、ユーザ同士の位置関係やユーザと配置オブジェクトとの位置関係のみならず、ユーザが行ったアクションも加味して、変更条件が満たされたか否かを判断できるようになる。
また本実施形態では、ユーザの移動の経路を設定するための経路設定用のオブジェクトを仮想空間に配置し、ユーザが、当該経路を移動してプレイするゲームの処理を行う。例えば図5で説明したように、仮想空間のプレイフィールドFLVに対して、ユーザUS1、US2、US3の移動の経路を設定するための経路設定用のオブジェクトOB1〜OB19を配置する。そしてユーザUS1、US2、US3は、経路設定用のオブジェクトOB1〜OB19により設定される経路を移動するゲームプレイを行う。例えばユーザUS1、US2、US3が経路に沿って移動することで、ユーザUS1、US2、US3に対応する主キャラクタCP1、エサキャラクタCF、特殊エサキャラクタCSが経路に沿って移動するようになる。このようにすれば、仮想空間に配置された仮想的なオブジェクトにより設定される仮想的な経路に沿って移動することでプレイできるゲームの実現が可能になる。
そして本実施形態では、経路設定用のオブジェクトをユーザが通過したと判定した場合又は経路設定用のオブジェクトにユーザが接触したと判定した場合に、ユーザに対するペナルティー処理を行う。例えば図27(A)、図27(B)では、HMD1を装着するユーザUS1が、その前方に配置される経路設定用のオブジェクトOBを通過して、すり抜けてしまっている。例えば前述したように、図5の経路設定用のオブジェクトOB14〜OB19については、図4の実空間においても、当該オブジェクトに対応する壁が存在する。しかしながら、経路設定用のオブジェクトOB1〜OB13については、当該オブジェクトに対応する物体が実空間には存在しない。従って、図27(A)、図27(B)に示すように、実空間に対応する物体が存在しない経路設定用のオブジェクトOBについては、ユーザUS1は通過してすり抜けることが可能になってしまう。
しかしながら、このようなすり抜けが行われてしまうと、ユーザUS1のゲームプレイが不正に有利な設定になってしまう。例えば図27(A)において、ユーザUS1の役割が主キャラクタであり、ユーザUS2の役割がモンスターであり、このモンスターが図15に示すように弱体化したモンスターになっていたとする。この場合に、ユーザUS1がオブジェクトOBをすり抜けてしまうと、ユーザUS1の主キャラクタがユーザUS2の弱体化したモンスターを消滅させるような事態が生じてしまう。
そこで、このような事態の発生を抑制するために、図27(B)に示すように、オブジェクトOBを通過したユーザUS1に対してペナルティー処理を行う。例えばペナルティー処理として、所定の期間の間、ユーザUS1が主キャラクタが移動できないようにしたり、ドットを食べられないようにする処理を行う。このようなペナルティー処理を行えば、オブジェクトOB1を通過したり、接触するようなアクションをユーザUS1が行うことを抑制できるようになり、上記のような事態の発生を防止できるようになる。
なお本実施形態では、ユーザが装着するHMDなどに実空間(現実空間)を撮影するカメラを搭載することが望ましい。例えば図3で説明したようなRGBカメラ246、デプスカメラ247、或いは環境認識カメラ248、249などを搭載する。そして、このカメラにより、実空間に配置されたりユーザに取り付けられたマーカー(マーカーオブジェクト、QRコード(QRコードは登録商標))の認識処理などを行い、認識結果に基づいて、ユーザの実空間での位置情報を検出することができる。例えば、実空間に複数のマーカーを配置し、各マーカーを、HMDに設けられたカメラにより認識することで、ユーザの現在位置を把握することができる。具体的には実空間のプレイフィールドに例えばマトリクス状に複数のマーカーを配置し、このマーカーをカメラで認識することで、ユーザの概略的な現在位置を把握できる。そして、この現在位置と、他のユーザに備えられたマーカーの情報をカメラで認識し、例えばサーバーなどの管理用の処理装置において、ユーザの位置情報と他のユーザの位置情報を判断することで、ユーザ同士が接触しているか否かを判断する。具体的には、ユーザUS1とユーザUS2の各々についてのマーカーを認識した上で、更にユーザUS1、US2の一方のユーザのHMDに備えられたカメラを用いて、他方のユーザに備えられたマーカーを認識する。例えばユーザUS1、US2が接近した場合に、一方のユーザのHMDのカメラの視界において、所定のサイズで、他方のユーザに取り付けられたマーカーが認識された場合に、図10のようにユーザUS1、US2が正面向きで接近したと判断して、変更条件が満たされたと判断する。例えばユーザUS1、US2がお互いに後ろ向きで接近した場合には、図10のようなハイタッチを行うことはできず、マーカーもカメラの視界内に入らないため、変更条件は成立しない。なおマーカーとしては、例えばマーカーの向き等についても画像のパース等を用いて判断できるマーカー(ARマーカー)や、QRコードのように幾何学模様で実現されるマーカーや、所定の周波数で発光している発光体によるマーカーなどの種々のマーカーを想定することができる。また物体の画像そのものをマーカーとして認識するようにしてもよい。
4.詳細な処理
次に本実施形態の詳細な処理例について図28のフローチャートを用いて説明する。
まず仮想空間の設定処理を行う(ステップS1)。例えば図5に示すような仮想空間を設定するための処理を行う。そして、ユーザの位置情報等の取得処理を行う(ステップS2)。例えば図2(A)〜図4で説明したトラッキング処理などにより、ユーザの位置情報、方向情報、姿勢情報などを取得する。また、設定された仮想空間において、ユーザに対応するキャラクタを移動させる処理を行う(ステップS3)。例えば実空間でのユーザの移動に連動するように仮想空間のキャラクタを移動させる。
次にユーザが経路設定用のオブジェクトを通過してしまったか否かを判断する(ステップS4)。例えば図27(A)、図27(B)に示すようにユーザが経路設定用のオブジェクトを通過してすり抜けてしまったか否かを判断する。そして、経路設定用のオブジェクトを通過してしまった場合には、ユーザに対するペナルティー処理を実行する(ステップS5)。
次に、ユーザと他のユーザ又は配置オブジェクトとが接近の位置関係になり変更条件が満たされたか否かを判断する(ステップS6)。例えば接近の位置関係になりユーザがハイタッチなどの所与のアクションを行った場合に、変更条件が満たされたと判断する。そして変更条件が満たされた場合には、キャラクタの画像又は配置オブジェクトの画像の変更処理を行う(ステップS7)。例えば図5〜図18(C)で説明したような画像の変更処理を行う。またゲームモードの変更処理を行う(ステップS8)。例えば図22〜図25(B)で説明したような種々の手法によるゲームモードの変更処理を実行する。
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(所与の位置関係、所与のアクション等)と共に記載された用語(接近・接触の位置関係、ハイタッチのアクション等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また位置情報の取得処理、ゲーム処理、仮想空間の設定処理、表示処理、画像の変更処理、ゲームモードの変更処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。
US1、US2、US ユーザ、CP1、CP2 主キャラクタ、
CF エサキャラクタ、CS 特殊エサキャラクタ、CSB 特殊エサ、
CM1〜CM7、CMA、CMB、CMC モンスター、
CH、CPX、CPY、CPZ キャラクタ、FL、FLV プレイフィールド、
OB1〜OB19 経路設定用のオブジェクト、DT ドット、
OB、OBT、OBS オブジェクト、SWA、SWB 剣、TL 経過時間、
100 処理部、102 入力処理部、110 演算処理部、111 情報取得部、
112 ゲーム処理部、113 キャラクタ処理部、114 仮想空間設定部、
115 仮想カメラ制御部、116 変更処理部、117 報知処理部、
120 表示処理部、130 音処理部、140 出力処理部、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜203 受光素子、
231〜236 発光素子、240 テンプル部、242 ゴーグル部、
243 表示装置、244 ホログラフィック光学素子、246 RGBカメラ、
247 デプスカメラ、248、249 環境認識カメラ、
251〜254 測定用の装置、260 ヘッドバンド、270 ヘッドフォン

Claims (17)

  1. 実空間を移動するユーザの位置情報を取得する情報取得部と、
    前記ユーザがプレイするゲームの処理を行うゲーム処理部と、
    仮想空間の設定処理を行う仮想空間設定部と、
    前記実空間での前記ユーザの位置に対応する前記仮想空間の位置に、前記ユーザに対応するユーザキャラクタの画像が表示された表示画像を、仮想空間画像として生成する表示処理部と、
    前記ユーザと前記実空間の他のユーザ又は前記仮想空間の配置オブジェクトとが所与の位置関係になって変更条件が満たされたと判断した場合に、前記ユーザに対応する前記ユーザキャラクタの画像、前記他のユーザに対応する他ユーザキャラクタの画像、及び前記配置オブジェクトの画像の少なくとも1つを変更する変更処理を行う変更処理部と、
    を含むことを特徴とするシミュレーションシステム。
  2. 請求項1において、
    前記変更処理部は、
    前記ユーザ又は前記他のユーザの操作情報、或いは前記ゲームの状況に応じて、前記ユーザキャラクタの画像又は前記他ユーザキャラクタの画像の表示態様を変化させる処理を行うことを特徴とするシミュレーションシステム。
  3. 請求項1又は2において、
    前記変更処理部は、
    前記ユーザと前記配置オブジェクトとが前記所与の位置関係になって前記変更条件が満たされたと判断した場合に、前記ユーザキャラクタの画像又は前記配置オブジェクトの画像の表示態様を変化させる処理を行うことを特徴とするシミュレーションシステム。
  4. 請求項1乃至3のいずれかにおいて、
    前記変更処理部は、
    前記ユーザキャラクタの種類、前記他ユーザキャラクタの種類、又は前記配置オブジェクトの種類に応じた、前記変更処理を行うことを特徴とするシミュレーションシステム。
  5. 請求項1乃至4のいずれかにおいて、
    前記変更処理部は、
    前記ユーザと前記他のユーザとの関係情報、又は前記ユーザと前記配置オブジェクトとの関係情報に応じた、前記変更処理を行うことを特徴とするシミュレーションシステム。
  6. 請求項1乃至5のいずれかにおいて、
    前記変更処理部は、
    前記ユーザ又は前記他のユーザのゲームレベル又はゲームプレイ履歴に応じた、前記変更処理を行うことを特徴とするシミュレーションシステム。
  7. 請求項1乃至6のいずれかにおいて、
    前記変更処理部は、
    前記変更条件が満たされたと判断した場合に、ゲームモードの変更処理を行うことを特徴とするシミュレーションシステム。
  8. 請求項7において、
    前記ゲーム処理部は、
    ゲーム成績の演算処理を行い、
    前記変更処理部は、
    前記変更条件が満たされた場合に、前記ゲームモードの変更処理として、前記ゲーム成績の演算方式を変更することを特徴とするシミュレーションシステム。
  9. 請求項7又は8において、
    前記変更処理部は、
    前記変更条件が満たされた場合に、前記ゲームモードの変更処理として、前記ゲームでの前記ユーザ又は前記他のユーザの役割の変更処理を行い、前記ユーザキャラクタ又は前記他ユーザキャラクタの画像を、変更された役割に対応するキャラクタの画像に変更することを特徴とするシミュレーションシステム。
  10. 請求項9において、
    前記変更処理部は、
    前記役割の変更処理に対する制限処理を行うことを特徴とするシミュレーションシステム。
  11. 請求項7乃至10のいずれかにおいて、
    前記変更処理部は、
    ゲーム開始からのゲームプレイの制限時間が設定されている場合に、前記変更条件が満たされたタイミングに応じて、前記ゲームモードの変更態様を異ならせることを特徴とするシミュレーションシステム。
  12. 請求項7乃至11のいずれかにおいて、
    前記変更処理部は、
    前記実空間でプレイする複数のユーザに対して第1〜第Mの役割(Mは2以上の整数)が割り当てられる場合に、前記第1〜第Mの役割に割り当てられたユーザの人数の割合情報に基づいて、前記ゲームモードの変更処理を行うことを特徴とするシミュレーションシステム。
  13. 請求項1乃至12のいずれかにおいて、
    前記ゲームをプレイする複数のユーザ間の位置関係状況、又は前記変更処理の変更状況についての報知処理を行う報知処理部を含むことを特徴とするシミュレーションシステム。
  14. 請求項1乃至13のいずれかにおいて、
    前記変更処理部は、
    前記ユーザと前記他のユーザ又は前記配置オブジェクトとが前記所与の位置関係になり、前記ユーザが所与のアクションを行ったと判定した場合に、前記変更条件が満たされたと判断することを特徴とするシミュレーションシステム。
  15. 請求項1乃至14のいずれかにおいて、
    前記仮想空間設定部は、
    前記ユーザの移動の経路を設定するための経路設定用のオブジェクトを前記仮想空間に配置し、
    前記ゲーム処理部は、
    前記ユーザが前記経路を移動してプレイする前記ゲームの処理を行うことを特徴とするシミュレーションシステム。
  16. 請求項15において、
    前記ゲーム処理部は、
    前記経路設定用のオブジェクトを前記ユーザが通過したと判定した場合又は前記経路設定用のオブジェクトに前記ユーザが接触したと判定した場合に、前記ユーザに対するペナルティー処理を行うことを特徴とするシミュレーションシステム。
  17. 実空間を移動するユーザの位置情報を取得する情報取得部と、
    前記ユーザがプレイするゲームの処理を行うゲーム処理部と、
    仮想空間の設定処理を行う仮想空間設定部と、
    前記実空間での前記ユーザの位置に対応する前記仮想空間の位置に、前記ユーザに対応するユーザキャラクタの画像が表示された表示画像を、仮想空間画像として生成する表示処理部と、
    前記ユーザと前記実空間の他のユーザ又は前記仮想空間の配置オブジェクトとが所与の位置関係になって変更条件が満たされたと判断した場合に、前記ユーザに対応する前記ユーザキャラクタの画像、前記他のユーザに対応する他ユーザキャラクタの画像、及び前記配置オブジェクトの画像の少なくとも1つを変更する変更処理を行う変更処理部として、
    コンピュータを機能させることを特徴とするプログラム。
JP2018003809A 2018-01-12 2018-01-12 シミュレーションシステム及びプログラム Active JP7142853B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018003809A JP7142853B2 (ja) 2018-01-12 2018-01-12 シミュレーションシステム及びプログラム
US16/245,588 US11865453B2 (en) 2018-01-12 2019-01-11 Simulation system, process method, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018003809A JP7142853B2 (ja) 2018-01-12 2018-01-12 シミュレーションシステム及びプログラム

Publications (2)

Publication Number Publication Date
JP2019122496A true JP2019122496A (ja) 2019-07-25
JP7142853B2 JP7142853B2 (ja) 2022-09-28

Family

ID=67213273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003809A Active JP7142853B2 (ja) 2018-01-12 2018-01-12 シミュレーションシステム及びプログラム

Country Status (2)

Country Link
US (1) US11865453B2 (ja)
JP (1) JP7142853B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021162876A (ja) * 2020-03-30 2021-10-11 日産自動車株式会社 画像生成システム、画像生成装置及び画像生成方法
JP6951654B1 (ja) * 2021-03-16 2021-10-20 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP6951655B1 (ja) * 2021-03-23 2021-10-20 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP6997406B1 (ja) 2021-03-23 2022-01-17 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP2022142711A (ja) * 2021-03-16 2022-09-30 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP2022151559A (ja) * 2021-03-23 2022-10-07 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
WO2023130809A1 (zh) * 2022-01-04 2023-07-13 腾讯科技(深圳)有限公司 画面显示方法、装置、终端、存储介质及程序产品
WO2024004398A1 (ja) * 2022-06-29 2024-01-04 ソニーグループ株式会社 情報処理装置、プログラム、及び情報処理システム
JP7442774B1 (ja) 2023-07-11 2024-03-05 国立大学法人富山大学 リハビリ支援システム
WO2024057642A1 (ja) * 2022-09-14 2024-03-21 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、および記憶媒体
JP7455308B2 (ja) 2020-12-14 2024-03-26 グリー株式会社 情報処理システム、情報処理方法、情報処理プログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10102659B1 (en) 2017-09-18 2018-10-16 Nicholas T. Hariton Systems and methods for utilizing a device as a marker for augmented reality content
US10105601B1 (en) 2017-10-27 2018-10-23 Nicholas T. Hariton Systems and methods for rendering a virtual content object in an augmented reality environment
JP6453501B1 (ja) * 2018-02-01 2019-01-16 株式会社Cygames 複合現実システム、プログラム、方法、及び携帯端末装置
US10636188B2 (en) 2018-02-09 2020-04-28 Nicholas T. Hariton Systems and methods for utilizing a living entity as a marker for augmented reality content
US10198871B1 (en) 2018-04-27 2019-02-05 Nicholas T. Hariton Systems and methods for generating and facilitating access to a personalized augmented rendering of a user
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US11087538B2 (en) * 2018-06-26 2021-08-10 Lenovo (Singapore) Pte. Ltd. Presentation of augmented reality images at display locations that do not obstruct user's view
US11393170B2 (en) 2018-08-21 2022-07-19 Lenovo (Singapore) Pte. Ltd. Presentation of content based on attention center of user
US10991139B2 (en) 2018-08-30 2021-04-27 Lenovo (Singapore) Pte. Ltd. Presentation of graphical object(s) on display to avoid overlay on another item
US10586396B1 (en) 2019-04-30 2020-03-10 Nicholas T. Hariton Systems, methods, and storage media for conveying virtual content in an augmented reality environment
JP7405734B2 (ja) * 2020-12-21 2023-12-26 トヨタ自動車株式会社 表示システム及びサーバ
US20220295040A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system with remote presentation including 3d graphics extending beyond frame
US20240075379A1 (en) * 2022-09-06 2024-03-07 Niantic, Inc. Dynamically Generated Local Virtual Events

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149581A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 複数のユーザによる仮想空間共有システム
JP2006149950A (ja) * 2004-12-01 2006-06-15 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP2010187940A (ja) * 2009-02-18 2010-09-02 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム制御方法、及び、プログラム
JP2013059573A (ja) * 2011-09-14 2013-04-04 Namco Bandai Games Inc プログラム、情報記憶媒体およびゲーム装置
JP2017119032A (ja) * 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW412430B (en) * 1997-04-24 2000-11-21 Sega Enterprises Kk Game device, game processing method, and recording medium
JPH11309269A (ja) 1998-04-27 1999-11-09 Sony Corp ゲーム装置、シミュレーション装置及びゲーム画像表示方法
JP2001269482A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法
JP4957938B2 (ja) * 2001-09-19 2012-06-20 株式会社セガ ゲームプログラム、ゲーム装置及びネットワークサーバ
ZA200410017B (en) * 2003-12-10 2005-08-31 Universal Entertainment Corp Gaming machine and control method of gaming machine
US20090221368A1 (en) * 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JP5937789B2 (ja) * 2011-05-24 2016-06-22 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP5539945B2 (ja) * 2011-11-01 2014-07-02 株式会社コナミデジタルエンタテインメント ゲーム装置、及びプログラム
US9143897B2 (en) * 2012-11-05 2015-09-22 Nokia Technologies Oy Method and apparatus for providing an application engine based on real-time commute activity
US20140370992A1 (en) * 2013-06-18 2014-12-18 International Business Machines Corporation Player substitution to preserve team balance
US20150105184A1 (en) * 2013-10-16 2015-04-16 Snag, Inc. Method For Conducting A Golf Tournament Over A Plurality Of Geographic Locations
US10300389B2 (en) * 2017-08-17 2019-05-28 Disney Enterprises, Inc. Augmented reality (AR) gaming system with sight lines to other players

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149581A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 複数のユーザによる仮想空間共有システム
JP2006149950A (ja) * 2004-12-01 2006-06-15 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
JP2010187940A (ja) * 2009-02-18 2010-09-02 Konami Digital Entertainment Co Ltd ゲーム装置、ゲーム制御方法、及び、プログラム
JP2013059573A (ja) * 2011-09-14 2013-04-04 Namco Bandai Games Inc プログラム、情報記憶媒体およびゲーム装置
JP2017119032A (ja) * 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"[西川善司のモバイルテックアラカルト]第41回: 「ABAL:DINOSAUR」を体験! 話題の同時多人数参加型VRシ", APPLIV GAMES[ONLINE], JPN6022002566, 1 September 2017 (2017-09-01), ISSN: 0004695106 *
"VRを駆使して迷宮地図を作る協力型ボードゲーム「アニュビスの仮面」", ケータイ WATCH[ONLINE], JPN6022032522, 20 April 2016 (2016-04-20), ISSN: 0004844778 *
馬場 哲晃: "人体同士の接触検知を利用したコンピュータゲーム", インタラクション2007予稿集 [ONLINE], JPN6022002564, 15 March 2007 (2007-03-15), ISSN: 0004695107 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021162876A (ja) * 2020-03-30 2021-10-11 日産自動車株式会社 画像生成システム、画像生成装置及び画像生成方法
JP7413122B2 (ja) 2020-03-30 2024-01-15 日産自動車株式会社 画像生成システム、画像生成装置及び画像生成方法
JP7455308B2 (ja) 2020-12-14 2024-03-26 グリー株式会社 情報処理システム、情報処理方法、情報処理プログラム
JP6951654B1 (ja) * 2021-03-16 2021-10-20 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP2022142210A (ja) * 2021-03-16 2022-09-30 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP2022142711A (ja) * 2021-03-16 2022-09-30 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP7208557B2 (ja) 2021-03-16 2023-01-19 株式会社Mixi 情報処理装置、情報処理方法、及びプログラム
JP2022151559A (ja) * 2021-03-23 2022-10-07 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP2022147218A (ja) * 2021-03-23 2022-10-06 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP2022147354A (ja) * 2021-03-23 2022-10-06 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP7244781B2 (ja) 2021-03-23 2023-03-23 株式会社Mixi 情報処理装置、情報処理方法、及びプログラム
JP6997406B1 (ja) 2021-03-23 2022-01-17 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
JP6951655B1 (ja) * 2021-03-23 2021-10-20 株式会社ミクシィ 情報処理装置、情報処理方法、及びプログラム
WO2023130809A1 (zh) * 2022-01-04 2023-07-13 腾讯科技(深圳)有限公司 画面显示方法、装置、终端、存储介质及程序产品
WO2024004398A1 (ja) * 2022-06-29 2024-01-04 ソニーグループ株式会社 情報処理装置、プログラム、及び情報処理システム
WO2024057642A1 (ja) * 2022-09-14 2024-03-21 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、および記憶媒体
JP7442774B1 (ja) 2023-07-11 2024-03-05 国立大学法人富山大学 リハビリ支援システム

Also Published As

Publication number Publication date
JP7142853B2 (ja) 2022-09-28
US20190217202A1 (en) 2019-07-18
US11865453B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
JP7142853B2 (ja) シミュレーションシステム及びプログラム
US11014000B2 (en) Simulation system, processing method, and information storage medium
CN109478345B (zh) 模拟系统、处理方法及信息存储介质
US11738270B2 (en) Simulation system, processing method, and information storage medium
JP7352264B2 (ja) ゲーム処理プログラム、ゲーム処理方法、および、ゲーム処理装置
US9836268B2 (en) Avatar displaying system, user terminal, and program
WO2018124280A1 (ja) シミュレーションシステム、画像処理方法及び情報記憶媒体
US11090554B2 (en) Simulation system, image processing method, and information storage medium
JP7144796B2 (ja) シミュレーションシステム及びプログラム
JP2019152899A (ja) シミュレーションシステム及びプログラム
JP7071823B2 (ja) シミュレーションシステム及びプログラム
JP2023115237A (ja) ゲームシステム、プログラム及びゲーム提供方法
JP2018171319A (ja) シミュレーションシステム及びプログラム
JP2018171320A (ja) シミュレーションシステム及びプログラム
JP6419268B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP6290490B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018171309A (ja) シミュレーションシステム及びプログラム
JP2019211865A (ja) コンピュータプログラム、情報処理装置および情報処理方法
JP2019166325A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2019033894A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180209

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20200221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220905

R150 Certificate of patent or registration of utility model

Ref document number: 7142853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350