JP2021069601A - コンピュータシステム - Google Patents

コンピュータシステム Download PDF

Info

Publication number
JP2021069601A
JP2021069601A JP2019197451A JP2019197451A JP2021069601A JP 2021069601 A JP2021069601 A JP 2021069601A JP 2019197451 A JP2019197451 A JP 2019197451A JP 2019197451 A JP2019197451 A JP 2019197451A JP 2021069601 A JP2021069601 A JP 2021069601A
Authority
JP
Japan
Prior art keywords
user
game
information
scenario
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019197451A
Other languages
English (en)
Other versions
JP7256398B2 (ja
Inventor
淑恵 坪倉
Toshie Tsubokura
淑恵 坪倉
和啓 高原
Kazuhiro Takahara
和啓 高原
芳高 大内
Yoshitaka Ouchi
芳高 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2019197451A priority Critical patent/JP7256398B2/ja
Publication of JP2021069601A publication Critical patent/JP2021069601A/ja
Application granted granted Critical
Publication of JP7256398B2 publication Critical patent/JP7256398B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザの仮想体験の興趣性を得られることが可能なゲームシステムを提供する。【解決手段】コンピュータを、キャラクタC1の動作を行う第1ユーザU1に対して、キャラクタC1の動作を導き出すキャラクタ動作情報を表示するHMD41と、キャラクタ動作情報に対応した第1ユーザU1の動作を示す動作トラッキング情報を取得するモーションセンサ43と、第2ユーザU2に対して、動作トラッキング情報に基づいてキャラクタC1を動作させた表示画面SC2が表示されるHMD41と、第2ユーザU2によって行われた操作入力を検出するコントローラ63と、として機能させ、HMD41は、第1ユーザU1に対して、入力情報に応じたキャラクタ動作情報を表示する。【選択図】図1

Description

本発明は、コンピュータシステムに関する。
従来、仮想空間におけるユーザの仮想体験を高めたシステムが提案されている。例えば、現実空間におけるユーザの動作に応じたパフォーマンスを、仮想空間におけるアバターが行うことによって、ユーザの仮想体験の興趣性を高めたものがある(例えば、特許文献1を参照)。
特許第6514397号公報
コンピュータシステムにおいて、ユーザが仮想体験の興趣性を得たいというニーズが存在する。
そこで、本発明の目的は、ユーザが仮想体験の興趣性を得られることが可能なコンピュータシステムを提供することである。
第1の発明は、1または複数のコンピュータを備えたコンピュータシステムであって、
前記コンピュータを、
仮想空間上に形成された代理のオブジェクトに動作を行わせる第1ユーザに対して、前記代理のオブジェクトの動作を導き出すオブジェクト動作情報を出力する第1出力部と、
前記オブジェクト動作情報に対応した前記第1ユーザの動作を示す第1ユーザ動作情報を取得する第1取得部と、
第2ユーザに対して、前記第1ユーザ動作情報を出力する第2出力部と、
前記第2ユーザの動作を示す第2ユーザ動作情報を取得する第2取得部と
して機能させ、
前記第1出力部は、前記第1ユーザに対して、前記第2ユーザ動作情報に応じた前記オブジェクト動作情報を出力することを特徴とするコンピュータシステムである。
また、第1の発明において、前記代理のオブジェクトは、前記コンピュータにおいて実行されるゲームに登場するキャラクタである、ことができる。
また、第1の発明において、前記第1出力部は、前記第1ユーザに対して、前記ゲームのシナリオに応じた前記オブジェクト動作情報を出力する、ことができる。
また、第1の発明において、前記コンピュータを、
前記第1ユーザまたは前記第2ユーザからの操作入力を受け付ける操作入力部と、
前記操作入力に基づいて、前記ゲームのシナリオを決定するシナリオ決定部と
してさらに機能させ、
前記第1出力部は、前記第1ユーザに対して、前記シナリオ決定部により決定された前記シナリオに応じた前記オブジェクト動作情報を出力する、ことができる。
また、第1の発明において、前記シナリオ決定部は、前記操作入力に基づいて、前記ゲームにおける複数のシナリオのうち少なくとも1つのシナリオを抽選により決定する、ことができる。
また、第1の発明において、前記第1出力部は、前記第1ユーザに対して、前記シナリオ決定部により決定されたシナリオに関する情報を出力する、ことができる。
また、第1の発明において、前記コンピュータを、
前記第2ユーザからの操作入力に基づいて、複数の前記第1ユーザの中から前記第2ユーザと同一の前記シナリオをプレイする前記第1ユーザを選択する第1ユーザ選択部と
してさらに機能させる、ことができる。
また、第1の発明において、前記コンピュータを、
前記第1ユーザまたは前記第2ユーザからの操作入力に基づいて、前記ゲームのシナリオを決定するシナリオ決定部と、
前記シナリオ決定部により決定されたシナリオに基づいて、複数の前記第1ユーザの中から前記第2ユーザと同一の前記シナリオをプレイする前記第1ユーザを選択する第1ユーザ選択部と
としてさらに機能させる、ことができる。
また、第1の発明において、前記第1取得部は、前記第1ユーザ動作情報として、前記第1ユーザの身体の動き、音声および表情の動きのうち少なくとも1つを取得する、ことができる。
また、第1の発明において、前記第1取得部は、前記第1ユーザ動作情報として、前記第1ユーザの音声を取得し、
前記第2出力部は、前記第1ユーザの音声を他の音声に変換して出力する、ことができる。
また、第1の発明において、前記第2出力部は、ディスプレイ、ウェアラブルデバイス、発光表示装置、プロジェクタおよび音声再生装置のうち少なくとも1つを含む、ことができる。
本発明によれば、ユーザが仮想体験の興趣性を得られることが可能なコンピュータシステムを提供することができる。
本実施形態におけるゲームシステムのハードウェア構成および機能的構成を示すブロック図。 本実施形態におけるゲームシステムの模式図。 本実施形態におけるゲームシステムの一連の流れを示す図。
[実施形態]
本発明の実施形態におけるゲームシステム1について、図面を参照して説明する。図1は本実施形態におけるゲームシステムのブロック図を示す。図2は本実施形態におけるゲームシステムの模式図を示す。
<ゲームの説明>
図1に示す実施形態のゲームシステム1では、サーバ装置2と複数の第1ゲーム装置3と複数の第2ゲーム装置5とが、通信ネットワーク6を介して互いに通信可能に接続されている。サーバ装置2、各第1ゲーム装置3および各第2ゲーム装置5には、ゲームプログラムおよびゲームデータがインストールされている。第1ゲーム装置3の第1ユーザU1および第2ゲーム装置5の第2ユーザU2は、それぞれ、プレイヤキャラクタを仮想空間上で活動させたり、プレイヤキャラクタを敵キャラクタと対戦させたりする。
本実施形態で説明するゲームでは、第1ゲーム装置3の第1ユーザU1の動作(例えば、第1ユーザU1の身体の動き、音声など)に応じて、プレイヤキャラクタが仮想空間上で動作を行う。ゲームでは、第1ゲーム装置3の第1ユーザU1が、プレイヤキャラクタ(キャラクタC1)を演ずる演者となって、ゲームが進行される。
また、本ゲームでは、各第2ユーザU2は、HMD(Head Mounted Display)61を装着している。第2ゲーム装置5は、第2ユーザU2が装着したHMD61の表示部(図示は省略する)に、三次元の仮想空間から生成されたゲーム画像を表示する。本ゲームは、第2ユーザU2に対してバーチャルリアリティ(VR:Virtual Reality)体験をさせるものである。
また、本ゲームでは、所定のシナリオに従ってゲームが進行される。例えば、ゲームのシナリオには、所定の敵キャラクタを討伐するミッション、仮想空間上にてキャラクタが進むストーリーなど、ゲームの内容に関するものが幅広く含まれる。
上記ゲームでは、第2ユーザU2側は、プレイステーション(登録商標)などの家庭用ゲーム機、PlayStation Vita(登録商標)などの携帯ゲーム機、パーソナルコンピュータ、タブレットなどにおいて実行される。
<ゲームシステム1の概要>
ゲームシステム1は、サーバ装置2、第1ゲーム装置3および第2ゲーム装置5を含んでいる。
サーバ装置2は、ゲームプログラムの提供およびゲームデータの管理を行う。
また、サーバ装置2は、第1ゲーム装置3および第2ゲーム装置5のマッチング処理を実行する。具体的には、サーバ装置2は、第2ゲーム装置5からのマッチング要求に応じて、第2ユーザU2と同一のシナリオをプレイする第1ユーザU1を決定(マッチング)する。サーバ装置2は、第1ユーザU1が操作する第1ゲーム装置3と、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5とを相互に通信可能に接続する。
第1ゲーム装置3は、第1ユーザU1の身体の動きや音声などをトラッキングし、その結果を示す動作トラッキング情報および音声トラッキング情報を生成する。第1ゲーム装置3は、生成した動作トラッキング情報および音声トラッキング情報を、マッチング相手の第2ユーザU2が操作する第2ゲーム装置5に送信する。
第2ゲーム装置5は、第2ユーザU2がコントローラ63に対して行った操作入力を入力情報として、第1ゲーム装置3に送信する。
第1ゲーム装置3および第2ゲーム装置5は、動作トラッキング情報および音声トラッキング情報に応じてキャラクタC1を仮想空間上で動作させ、入力情報に応じてキャラクタC2を仮想空間上で動作させる。すなわち、キャラクタC1は第1ユーザU1によって操作されるキャラクタであり、キャラクタC2は第2ユーザU2によって操作されるキャラクタである。
第1ゲーム装置3および第2ゲーム装置5は、仮想空間からゲーム画像を生成して、HMD41,61の表示部に表示させる。第1ゲーム装置3および第2ゲーム装置5とで同期を取りながらゲームが進行される。
<ハードウェア構成>
以下、サーバ装置2、第1ゲーム装置3および第2ゲーム装置5の各ハードウェア構成について説明する。
<サーバ装置2の構成>
図1に示すように、サーバ装置2は、ネットワークインターフェース21、記憶部22および制御部23を有する。ネットワークインターフェース21および記憶部22は、バス29を介して、制御部23と電気的に接続されている。
ネットワークインターフェース21は、インターネットおよびLANなどの通信ネットワーク6を介して、各第1ゲーム装置3および各第2ゲーム装置5と通信可能に接続されている。
記憶部22は、HDD、SSD、RAMおよびROMなどで構成される。具体的に、記憶部22には、ゲームシステムを利用するユーザのアカウント情報、ログイン履歴、ゲームプログラムおよびゲームデータを含む各種プログラムが格納されている。また、記憶部22には、マッチング処理を実行する際に用いられるマッチングリストが記憶されている。
制御部23は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置2の動作を制御する。
<サーバ装置2における制御部23の機能的構成>
制御部23は、各種プログラムを実行することにより、図1に示すように、情報処理手段231およびマッチング処理手段232として機能する。
情報処理手段231は、主に、ゲーム実行に必要なデータを、各第1ゲーム装置3との間、および、各第2ゲーム装置5との間で送受信する。
情報処理手段231が、各第1ゲーム装置3から受信するデータとしては、ゲームプログラムのダウンロード要求情報、第1ユーザU1のアカウント情報が挙げられる。情報処理手段231が各第1ゲーム装置3に送信するデータとしては、マッチングされた第2ユーザU2を示す情報、第2ゲーム装置5において決定されたシナリオを示すシナリオ情報などが挙げられる。
情報処理手段231が、各第2ゲーム装置5から受信するデータとしては、ゲームプログラムのダウンロード要求情報、第2ユーザU2のアカウント情報、マッチング要求情報などが挙げられる。情報処理手段231が各第2ゲーム装置5に送信するデータとしては、マッチングされた第1ユーザU1を示す情報などが挙げられる。
マッチング処理手段232は、マッチング要求情報を情報処理手段231が受信した場合、記憶部22に記憶されたマッチングリストに基づいて、マッチング処理を実行する。マッチング処理が実行された場合、情報処理手段231は、第1ユーザU1が操作する第1ゲーム装置3と、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5とを相互に通信可能に接続する。
<第1ゲーム装置3の構成>
第1ゲーム装置3には、HMD41、スピーカ42、モーションセンサ43およびマイク44が外部接続または内蔵される。また、第1ゲーム装置3は、ネットワークインターフェース31、グラフィック処理部32、オーディオ処理部33、トラッキング処理部34、記憶部35および制御部36を有する。ネットワークインターフェース31、グラフィック処理部32、オーディオ処理部33、トラッキング処理部34および記憶部35は、バス39を介して制御部36と電気的に接続されている。
ネットワークインターフェース31は、第1ゲーム装置3とサーバ装置2および各第2ゲーム装置5との間で各種データを送受信するために、通信ネットワーク6に通信可能に接続される。
グラフィック処理部32は、ゲームプレイ中に、制御部36から出力されるゲーム画像のデータに従って、ゲーム空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部32は、例えば、第1ユーザU1に装着されているHMD41と通信可能に接続されており、動画形式に描画されたゲーム画像がゲーム画面としてHMD41の表示部に表示される。
また、グラフィック処理部32は、後述するキャラクタ動作情報を、制御部36の指示に従ってHMD41の表示部に表示させる。
オーディオ処理部33は、スピーカ42と通信可能に接続されており、ゲームプレイ中、制御部36の指示に従ってゲーム音声を再生および合成すると、これをスピーカ42から出力させる。また、オーディオ処理部33は、後述する変換音声を、スピーカ42から出力させる。
トラッキング処理部34は、第1ユーザU1に装着されたモーションセンサ43と通信可能に接続されている。モーションセンサ43は、例えば、第1ユーザU1に装着された加速度センサなどを含み、第1ユーザU1の身体の動き(第1ユーザU1の腕、脚、胴体の動きなど)を検出する。トラッキング処理部34は、モーションセンサ43からの出力に応じて、第1ユーザU1の身体の動きを示す動作トラッキング情報を制御部36に出力する。
また、トラッキング処理部34は、第1ユーザU1が発した音声などを検出するマイク44と通信可能に接続されており、マイク44からの出力に応じて、第1ユーザU1が発した音声を示す音声トラッキング情報を制御部36に出力する。
記憶部35は、HDD、SSD、RAMおよびROMなどで構成される。記憶部35には、サーバ装置2からダウンロードしたゲームデータおよびゲームプログラムを含む各種プログラムなどが格納されている。また、記憶部35には、第1ゲーム装置3を使用している第1ユーザU1のアカウント情報およびキャラクタ動作情報が格納されている。
キャラクタ動作情報には、キャラクタC1の動作に関する情報が含まれる。例えば、キャラクタ動作情報には、コントローラ63に対して所定の操作入力が行われたときに、第1ユーザU1に対して、キャラクタC1の動作を指示する情報が含まれる。すなわち、記憶部35には、第2ゲーム装置5から受信した入力情報に応じたキャラクタ動作情報が記憶されている。
制御部36は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置3の動作を制御する。
<第1ゲーム装置3における制御部36の機能的構成>
制御部36は、各種プログラムを実行することにより、通信手段361、ゲーム進行手段362、キャラクタ動作情報処理手段363および音声変換手段364として機能する。
通信手段361は、ネットワークインターフェース31を介してサーバ装置2および第2ゲーム装置5との通信を行う機能である。
具体的には、通信手段361は、アカウント情報、ゲームデータのダウンロード要求を含むダウンロード要求情報などを、サーバ装置2に送信する。通信手段361は、シナリオ情報、マッチングされた第2ユーザU2に関する情報などを、サーバ装置2から受信する。
また、通信手段361は、動作トラッキング情報、音声トラッキング情報に基づいて生成される変換音声情報、ゲームのシナリオの開始を通知するシナリオ開始情報などを、第2ゲーム装置5に送信する。通信手段361は、第2ユーザU2の操作入力を示す入力情報などを、第2ゲーム装置5から受信する。
ゲーム進行手段362は、通信手段361がシナリオ情報を受信した場合、シナリオ情報に応じてゲームプログラムを実行する。具体的に、ゲーム進行手段362は、ゲームデータに含まれるゲーム空間オブジェクトおよびテクスチャなどのデータを記憶部35から読み出すか、または、サーバ装置2から受信したデータを用いて、三次元のゲーム画像情報を生成する。ゲーム画像情報がグラフィック処理部32によって処理されることにより、HMD41の表示部には処理後のゲーム画像が逐次表示される。
そして、ゲーム進行手段362は、ゲーム画像上に、キャラクタC1,C2を配置する。ゲーム進行手段362は、トラッキング処理部34から出力される動作トラッキング情報に従ってキャラクタC1を動作させ、第2ゲーム装置5から受信した入力情報に従ってキャラクタC2を動作させる。
キャラクタ動作情報処理手段363は、ゲームのシナリオに応じて、記憶部35に記憶されたキャラクタ動作情報をHMD41の表示部に表示させる。例えば、キャラクタ動作情報処理手段363は、第2ゲーム装置5から受信した入力情報に応じて、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2を、ゲーム画像とともに、HMD41の表示部に表示させる。
具体的に、キャラクタ動作指示情報cm1は、第1ユーザU1に対して、キャラクタC1の動作を指示する情報である。キャラクタ音声指示情報cm2は、第1ユーザU1に対して、キャラクタC1の発する音声を指示する情報である。キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2は、コントローラ63に対して所定の操作入力が行われたときに、HMD41の表示部に表示される。
音声変換手段364は、音声トラッキング情報に示される音声を他の音声に変換する。例えば、音声変換手段364は、音声トラッキング情報に含まれる音声の周波数を補正した変換音声を生成する。オーディオ処理部33は、音声変換手段364が生成した変換音声をスピーカ42に出力する。また、通信手段361は、音声変換手段364によって生成された変換音声を示す変換音声情報を第2ゲーム装置5に送信する。
<第2ゲーム装置5の構成>
第2ゲーム装置5には、HMD61、スピーカ62およびコントローラ63が外部接続または内蔵される。また、第2ゲーム装置5は、ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54、記憶部55および制御部56を有する。ネットワークインターフェース51、グラフィック処理部52、オーディオ処理部53、操作部54および記憶部55は、バス59を介して制御部56と電気的に接続されている。
ネットワークインターフェース51は、サーバ装置2および各第1ゲーム装置3との間で各種データを送受信するために、通信ネットワーク6に通信可能に接続される。
グラフィック処理部52は、ゲームプレイ中に、制御部56から出力されるゲーム画像のデータに従って、ゲーム空間に関する各種オブジェクトを含むゲーム画像を、動画形式で描画する。グラフィック処理部52は、例えば、第2ユーザU2に装着されたHMD61と通信可能に接続されており、動画形式に描画されたゲーム画像がゲーム画面としてHMD61の表示部に表示される。
オーディオ処理部53は、スピーカ62と通信可能に接続されており、ゲームプレイ中、制御部56の指示に従ってゲーム音声を再生および合成すると、これをスピーカ62から出力させる。また、オーディオ処理部53は、第1ゲーム装置3から受信した変換音声情報に示される変換音声をスピーカ62から出力させる。
操作部54は、コントローラ63と通信可能に接続され、第2ユーザU2からの操作入力を示す入力情報をコントローラ63との間で送受信する。例えば、第2ユーザU2は、コントローラ63の各種ボタンを押下することで、第2ゲーム装置5に入力情報を入力する。
記憶部55は、HDD、SSD、RAMおよびROMなどで構成される。記憶部55には、サーバ装置2からダウンロードしたゲームデータおよびゲームプログラムを含む各種プログラムなどが格納されている。また、記憶部55には、第2ゲーム装置5を使用している第2ユーザU2のアカウント情報が格納されている。
制御部56は、CPUおよび半導体メモリを含むマイクロコンピュータで構成され、自装置5の動作を制御する。
<第2ゲーム装置5における制御部56の機能的構成>
制御部56は、各種プログラムを実行することにより、通信手段561、シナリオ決定手段562、マッチング要求手段563およびゲーム進行手段564として機能する。
通信手段561は、ネットワークインターフェース31を介してサーバ装置2および第1ゲーム装置3との通信を行う機能である。
具体的には、通信手段561は、アカウント情報、ダウンロード要求情報、マッチング要求情報などを、サーバ装置2に送信する。通信手段561は、マッチングされた第1ユーザU1が操作する第1ゲーム装置3に関する情報などを、サーバ装置2から受信する。
また、通信手段561は、コントローラ63に対して行われた操作入力を示す入力情報などを、第1ゲーム装置3に送信する。通信手段561は、動作トラッキング情報、変換音声情報およびゲームのシナリオを通知するシナリオ開始情報などを、第1ゲーム装置3から受信する。
シナリオ決定手段562は、第2ユーザU2の操作入力に応じて、第2ゲーム装置5において実行されるゲームのシナリオを決定する。例えば、シナリオ決定手段562は、第2ユーザU2がシナリオを決定する操作入力を行った場合、シナリオの抽選処理を実行し、複数のシナリオの中からプレイする1つのシナリオを決定する。シナリオ決定手段562は、例えば、乱数を用いて、複数のシナリオの中から1つのシナリオを選択する。
マッチング要求手段563は、シナリオ決定手段562によりシナリオが決定された場合、決定されたシナリオをシナリオ情報として含むマッチング要求情報を生成する。通信手段561は、生成されたマッチング要求情報をサーバ装置2に送信する。
ゲーム進行手段564は、シナリオ決定手段562によりシナリオが決定された場合、決定されたシナリオに応じてゲームプログラムを実行する。具体的に、ゲーム進行手段564は、ゲームデータに含まれるゲーム空間オブジェクトおよびテクスチャなどのデータを記憶部65から読み出すか、または、サーバ装置2から受信したデータを用いて、決定されたシナリオに応じて、三次元のゲーム画像情報を生成する。ゲーム画像情報がグラフィック処理部52によって処理されることにより、HMD61の表示部には処理後のゲーム画像が逐次表示される。
そして、ゲーム進行手段564は、ゲーム画像上に、キャラクタC1,C2を配置する。ゲーム進行手段564は、第1ゲーム装置3から受信した動作トラッキング情報に従ってキャラクタC1を動作させ、コントローラ63に対する入力情報に従ってキャラクタC2を動作させる。
<マッチング処理手段232において実行されるマッチング処理について>
マッチング処理手段232は、情報処理手段231が第2ゲーム装置5からマッチング要求情報を受信したとき、記憶部22に格納されたマッチングリストを参照して、マッチング処理を実行する。具体的に、マッチングリストには、第1ユーザU1のアカウント情報とシナリオ情報とが対応付けられている。
マッチング処理手段232は、第2ゲーム装置5からマッチング要求情報を受信した場合、マッチング要求情報に含まれるシナリオ情報に対応する第1ユーザU1をマッチングリストから検索する。マッチング処理手段232は、シナリオ情報に対応する第1ユーザU1のうちログイン状態の第1ユーザU1を、第2ユーザU2とマッチングさせる。
ここで、マッチング処理手段232は、第2ユーザU2とマッチング可能な第1ユーザU1が複数存在する場合、複数の第1ユーザU1の中から一の第1ユーザU1を選択する。マッチングする第1ユーザU1の選択は、ランダムで行われてもよいし、第2ユーザU2による選択(例えば、コントローラ63に対する操作入力によって選択されるもの)でもよい。
そして、情報処理手段231は、第1ユーザU1が操作する第1ゲーム装置3と、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5とを相互に通信可能に接続する。
<キャラクタ動作情報について>
マッチング処理手段232によりマッチング処理が実行された場合、情報処理手段231は、第2ゲーム装置5から受信したマッチング要求情報に含まれるシナリオ情報を第1ゲーム装置3に送信する。すなわち、サーバ装置2は、マッチング処理を実行した場合、第2ゲーム装置5のシナリオ決定手段562により決定されたシナリオを示すシナリオ情報を、第2ユーザU2とマッチングされた第1ユーザU1が操作する第1ゲーム装置3に送信する。
そして、第1ゲーム装置3のゲーム進行手段362、および、第2ゲーム装置5のゲーム進行手段564は、シナリオ決定手段562により決定されたシナリオに従って、ゲームを進行する。
ゲームのシナリオが開始された後、第1ゲーム装置3は、モーションセンサ43により第1ユーザU1の動作を検出する。第1ゲーム装置3は、検出した第1ユーザU1の動作を示す動作トラッキング動作情報を、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5に送信する。
また、第1ゲーム装置3は、マイク44によりユーザU1の音声を検出する。第1ゲーム装置3は、検出したユーザU1の音声を示す音声トラッキング情報を生成する。さらに、第1ゲーム装置3は、音声トラッキング情報の第1ユーザU1の音声の周波数を補正した変換音声を生成する。第1ゲーム装置3は、変換音声を示す変換音声情報を、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5に送信する。
一方、第2ゲーム装置5は、コントローラ63に対する操作入力を検出する。第2ゲーム装置5は、コントローラ63に対する操作入力を示す入力情報を、第2ユーザU2とマッチングされた第1ユーザU1が操作する第1ゲーム装置3に送信する。
そして、ゲーム進行手段362,564は、それぞれ、動作トラッキング情報および変換音声情報に応じて第1ユーザU1のキャラクタC1を動作させる。また、ゲーム進行手段362,564は、それぞれ、入力情報に応じて第2ユーザU2のキャラクタC2を動作させる。
すなわち、マッチング処理により相互に通信可能となった第1ゲーム装置3および第2ゲーム装置5では、同一のシナリオが実行され、キャラクタC1,C2がそれぞれ同じ動作を行う。
ここで、第1ゲーム装置3では、第1ユーザU1に対して、キャラクタC1の動作を導き出すキャラクタ動作情報が、HMD41の表示部に表示される。キャラクタ動作情報は、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2を含む。
具体的に、図2の表示画面SC1は第1ゲーム装置3におけるHMD41の表示部に表示される表示画面の例であり、表示画面SC2は第2ゲーム装置5におけるHMD61の表示部に表示される表示画面の例である。
表示画面SC1には、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2が表示される。キャラクタ動作指示情報cm1は、ユーザU1に対して、キャラクタC1の動作を指示する情報である。キャラクタ音声指示情報cm2は、ユーザU1に対して、キャラクタC1の音声を指示する情報である。
図2では、第1ユーザU1は、ゲームのシナリオにおける敵キャラクタであるキャラクタC1を操作している。第2ユーザU2は、ゲームのシナリオにおけるプレイヤキャラクタであるキャラクタC2を操作している。例えば、第2ユーザU2がキャラクタC2を操作することによって、キャラクタC1がキャラクタC2と遭遇した場合、キャラクタ動作指示情報cm1に“動作「両手を振り上げる」”と表示され、キャラクタ音声指示情報cm2に“セリフ「私を倒してみるがよい」”と表示される。
すなわち、第2ユーザU2の操作入力によって、ゲームのシナリオにおいて所定条件を満たしたとき、HMD41の表示部に、キャラクタ動作情報が表示される。キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2には、ゲームのシナリオに沿った、キャラクタC1の動きを指示する情報、および、キャラクタC1の音声(キャラクターC1のセリフ)を指示する情報がそれぞれ表示される。
キャラクタ動作情報が表示されると、第1ユーザU1は、キャラクタ動作指示情報cm1に従って、身体を動作させる。また、第1ユーザU1は、キャラクタ音声指示情報cm2に従って、発話する。例えば、図2では、第1ユーザU1は、キャラクタ動作指示情報cm1に従って、両腕を挙げる。第1ユーザU2は、キャラクタ音声指示情報cm2に従って、セリフを読み上げる。このため、第1ユーザU1によって行われた身体の動作と発話とが、キャラクタC1によって行われているかのように、キャラクタC1の動作に反映される。
キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2に従って、第1ユーザU1が動作を行うことにより、ゲームのシナリオを盛り上げることができるため、ユーザの仮想体験の興趣性を高めることができる。
<ゲームシステムの動作の流れ>
図1〜図3を用いて、ゲームシステムの動作の流れを説明する。
第2ゲーム装置5では、コントローラ63が第2ユーザU2からの操作入力を検出する。操作部54は、コントローラ63によって検出された、第2ユーザU2からの操作入力を示す入力情報を制御部56に出力する(ステップS101)。入力情報がシナリオの抽選処理を実行するものであった場合、制御部56では、シナリオ決定手段562が、シナリオの抽選処理を実行し、ゲームプレイするゲームのシナリオを決定する(ステップS102)。マッチング要求手段563は、決定されたシナリオをシナリオ情報として含むマッチング要求情報を生成し、サーバ装置2に送信する(ステップS103)。
サーバ装置2では、情報処理手段231がマッチング要求情報を受信する(ステップS201)。マッチング処理手段232は、マッチング要求情報に含まれるシナリオ情報と、記憶部22に記憶されたマッチングリストとに基づいてマッチング処理を実行する(ステップS202)。具体的に、マッチング処理手段232は、マッチングリストから、受信したシナリオ情報に対応する第1ユーザU1を検索し、第2ユーザU2と同一のシナリオをプレイする第1ユーザU1を決定する。そして、マッチング処理手段232は、第1ユーザU1が操作する第1ゲーム装置3と、第1ユーザU1とマッチングされた第2ユーザU2が操作する第2ゲーム装置5とを相互に通信可能に接続する。
そして、情報処理手段231は、第2ゲーム装置5から受信したシナリオ情報を、通信可能となった第1ゲーム装置3に送信する(ステップS203)。
第1ゲーム装置3では、通信手段361が、シナリオ情報を受信する(ステップS301)。例えば、モーションセンサ43により第1ユーザU1の所定動作を検出された場合、通信手段361は、シナリオの開始を通知するシナリオ開始情報を第2ゲーム装置5に送信する(ステップS302)。
ゲーム進行手段362は、通信手段361が受信したシナリオ情報に従って、ゲームを進行する(ステップS303)。例えば、ゲーム進行手段362は、ゲームのシナリオに設定された第1ユーザU1の動作(身体の動き)とセリフ(発する音声)とを示す情報を、HMD41の表示部に表示させる。第1ユーザU1は、HMD41の表示部に表示された情報に従って、身体を動作させたり、セリフを発したりする。
一方、第2ゲーム装置5は、通信手段561がシナリオ開始情報を受信するまで待ち受ける。そして、通信手段561がシナリオ開始情報を受信した場合(ステップS104)、ゲーム進行手段564は、シナリオ決定手段562により決定されたシナリオに従って、ゲームを進行する(ステップS105)。
ステップS303の後、第1ゲーム装置3では、モーションセンサ43およびマイク44が、第1ユーザU1の動作および第1ユーザU1の音声をそれぞれ検出する。そして、トラッキング処理部34は、動作トラッキング情報および音声トラッキング情報を生成する(ステップS304)。具体的に、トラッキング処理部34は、モーションセンサ43の出力に応じて、第1ユーザU1の動作を示す動作トラッキング情報を生成する。また、トラッキング処理部34は、マイク44の出力に応じて、第1ユーザU1の音声を示す音声トラッキング情報を生成する。
また、音声変換手段364は、変換音声情報を生成する(ステップS305)。具体的に、音声変換手段364は、音声トラッキング情報に含まれる第1ユーザU1の音声の周波数を補正した変換音声情報を生成する。そして、通信手段361は、生成された動作トラッキング情報および変換音声情報を第2ゲーム装置5に送信する(ステップS306)。
ステップS105の後、第2ゲーム装置5は、通信手段561が動作トラッキング情報および変換音声情報を受信するまで、ゲームのシナリオの進行を停止させる(例えば、ゲームのストーリーなどを展開させない)。そして、通信手段561が動作トラッキング情報および変換音声情報を受信した場合(ステップS106)、通信手段561は、入力情報(コントローラ63によって検出された、第2ユーザU2からの操作入力を示す情報)を第1ゲーム装置3に送信する(ステップS107)。
ステップS306の後、第1ゲーム装置3では、通信手段361が、入力情報を受信する(ステップS307)。ゲーム進行手段362は、生成した動作トラッキング情報に応じてキャラクタC1を動作させ、受信した入力情報に応じてキャラクタC2を動作させる(ステップS308)。
一方、ステップS107の後、第2ゲーム装置5では、ゲーム進行手段564が、受信した動作トラッキング情報に応じてキャラクタC1を動作させ、生成した入力情報に応じてキャラクタC2を動作させる(ステップS108)。
ステップS308の後、第1ゲーム装置3では、キャラクタ動作情報処理手段363が、HMD41の表示部にキャラクタ動作情報が表示されるように、キャラクタ動作情報処理を実行する(ステップS309)。具体的に、キャラクタ動作情報処理手段363は、第2ゲーム装置5から受信した入力情報に応じて、HMD41の表示部に、ゲームのシナリオに沿ったキャラクタ動作情報が表示されるように制御する(ステップS309)。
例えば、図2に示すように、キャラクタ動作情報処理手段363は、HMD41の表示部に、キャラクタ動作情報がゲーム画面に重ね合わせられた表示画面SC1を表示させる(ステップS310)。キャラクタ動作情報は、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2を含む。キャラクタ動作指示情報cm1は、キャラクタC1の動作を指示する情報であり、キャラクタ音声指示情報cm2は、キャラクタC1の発する音声を指示する情報である。そして、オーディオ処理部33は、生成した変換音声情報に従って、スピーカ42から変換音声を再生させる(ステップS311)。
一方、ステップS108の後、第2ゲーム装置5では、グラフィック処理部52が、制御部56からの出力に応じて、HMD61の表示部に表示画面SC2を表示させる(ステップS109)。また、オーディオ処理部53は、スピーカ62に変換音声を再生させる(ステップS110)。
第1ゲーム装置3は、ステップS311の後、ステップS303に戻って、ステップS303〜S311を繰り返し実行する。一方、第2ゲーム装置5は、ステップS110の後、ステップS105に戻って、ステップS105〜S110を繰り返し実行する。
以上をまとめると、本実施形態のゲームシステムは、第1ゲーム装置3の制御部36(コンピュータ)および第2ゲーム装置5の制御部56(コンピュータ)を、ゲームに登場するキャラクタC1(代理のオブジェクト)の動作を行う第1ユーザU1に対して、キャラクタC1の動作を導き出すキャラクタ動作情報(オブジェクト動作情報)を表示するHMD41の表示部(第1出力部)と、キャラクタ動作情報に対応した第1ユーザU1の動作を示す動作トラッキング情報(第1ユーザ動作情報)を検出(取得)するモーションセンサ43(第1取得部)と、第1ユーザU1の音声を示す音声トラッキング情報(第1ユーザ動作情報)を検出(取得)するマイク44(第1取得部)と、第2ユーザU2に対して、動作トラッキング情報に基づいてキャラクタC1を動作させた表示画面SC2を表示するHMD61の表示部(第2出力部)と、音声トラッキング情報に基づいて生成された変換音声を再生するスピーカ62(第2出力部)と、第2ユーザU2によって行われた操作入力を示す入力情報(第2ユーザ動作情報)を検出(取得)するコントローラ63(第2取得部)と、として機能させ、HMD41の表示部は、第1ユーザU1に対して、入力情報に応じたキャラクタ動作情報を表示(出力)する。
<発明の効果>
以上のように、本実施形態では、モーションセンサ43およびマイク44は、キャラクタC1に動作を行わせる第1ユーザU1の動作を示す動作トラッキング情報および音声トラッキング情報をそれぞれ検出(取得)する。また、HMD61の表示部およびスピーカ62は、第2ユーザU2に対して、動作トラッキング情報および音声トラッキング情報(変換音声情報)をそれぞれ表示および再生(出力)する。コントローラ63は、第2ユーザU2の操作入力を示す入力情報を検出(取得)する。HMD41の表示部は、第1ユーザU1に対して、入力情報に応じて、第1ユーザU1の動作を導き出すキャラクタ動作情報を表示する。
すなわち、第2ユーザU2に対して、第1ユーザU1の動作を示す動作トラッキング情報および音声トラッキング情報が出力される。また、キャラクタC1に動作を行わせる第1ユーザU1に対して、第2ユーザU2の操作入力に応じて、キャラクタC1の動作を導き出すキャラクタ動作情報が出力される。キャラクタ動作情報には、ユーザが興味を持ちそうな動作を設定できる。そうすると、第1ユーザU1は、ゲームプレイを盛り上げるようにキャラクタC1を動作させることができる。したがって、ユーザが仮想体験の興趣性を得ることが可能となる。
また、シナリオ決定手段562(シナリオ決定部)は、第2ユーザU2の操作入力に応じて、第2ユーザU2がプレイするシナリオを決定する。第1ゲーム装置3のゲーム進行手段362は、シナリオ決定手段562により決定されたシナリオに従って、ゲームを進行する。キャラクタ動作情報処理手段363は、決定されたシナリオに応じたキャラクタ動作情報をHMD41の表示部に表示(出力)させる。キャラクタ動作情報には、シナリオに応じて、第1ユーザU1および第2ユーザU2が興味を持ちそうな動作を設定できる。そうすると、第1ユーザU1は、ゲームプレイを盛り上げるようにキャラクタC1を、シナリオに応じて、動作させることができる。したがって、ユーザが仮想体験の興趣性を得ることが可能となる。
また、第2ゲーム装置5のシナリオ決定手段562は、第2ユーザU2の操作入力に応じて、第2ユーザU2がプレイするシナリオを複数のシナリオのうちから1つのシナリオを抽選により決定する。これにより、ユーザの興趣性を高めることができる。
また、サーバ装置2のマッチング処理手段232(第1ユーザ選択部)は、第2ゲーム装置5からマッチングを要求されたとき(第2ゲーム装置5からマッチング要求情報を受信したとき)に、シナリオ決定手段562によって決定されたシナリオに基づいて、複数の第1ユーザU1の中から、マッチングを要求した第2ユーザU2と同一のシナリオをプレイする第1ユーザU1を選択する。これにより、ユーザの仮想体験の興趣性を高めることができる。
[その他の実施形態]
なお、第1ゲーム装置3および第2ゲーム装置5は、シナリオ決定手段562によりシナリオが決定された場合、HMD41,61の表示部に決定されたシナリオに関する情報を表示してもよい。例えば、アクションゲームである場合、討伐する敵キャラクタやプレイするステージの情報などをHMD41,61の表示部に表示してもよい。
第1ユーザU1が操作するキャラクタC1、および、第2ユーザU2が操作するキャラクタC2は、人間や動物、モンスターなど、キャラクタ以外の他の代理のオブジェクトでもよい。
また、第1ユーザU1および第2ユーザU2が、同一のシナリオをプレイしているときに、その他のユーザが観戦できてもよい。
また、マッチング処理手段232は、第2ゲーム装置5からマッチング要求があったとき、複数の第1ユーザU1と一の第2ユーザU2とをマッチングしてもよいし、一の第1ユーザU1と複数のユーザU2とをマッチングしてもよいし、複数の第1ユーザU1と複数の第2ユーザU2とをマッチングしてもよい。
また、第1ゲーム装置3は、サーバ装置2に対して、マッチング要求情報を送信してもよい。この場合、マッチング処理手段232は、第1ゲーム装置3から受信したマッチング要求情報に応じてマッチング処理を実行してもよい。
また、マッチング処理手段232がマッチングを行う際に用いるマッチングリストは、時間帯、曜日、第1ユーザU1の得意なシナリオ情報などに基づいて作成されていてもよい。
また、第2ゲーム装置5(第2ユーザU2)は、特定の第1ユーザU1に対して同じシナリオをプレイするように、サーバ装置2に対してマッチング要求できてもよい。このとき、第1ゲーム装置3のHMD61の表示部にシナリオをプレイする要求があったことを表示してもよい。
また、第2ゲーム装置5(第2ユーザU2)が特定の第1ユーザU1に対して同じシナリオをプレイするように要求したときに、第1ユーザU1が他のユーザとゲームをプレイしている場合、第2ユーザU2は、ゲームプレイの順番待ちができるようにしてもよい。このとき、第2ユーザU2は、第1ユーザU1がプレイ中のゲームを観戦できるようにしてもよい。
また、第1ユーザU1および第2ユーザU2が、ゲームのシナリオをクリアしたときに、報酬(例えば、ゲーム内通貨など)を入手できるようにしてもよい。また、第1ユーザU1および第2ユーザU2が、ゲームにおけるすべてのシナリオをクリアしたとき(シナリオをコンプリートしたとき)に、報酬(例えば、ゲーム内通貨など)を入手できるようにしてもよい。
また、マッチング処理手段232がマッチング処理を実行した際に、第2ユーザU2とマッチング可能な第1ユーザU1が複数存在する場合、第2ユーザU2が複数の第1ユーザU1の中からマッチングする第1ユーザU1を選択できてもよい。
また、マッチング処理手段232がマッチング処理を実行した際に、第2ユーザU2とマッチング可能な第1ユーザU1が複数存在する場合、マッチング処理手段232は、複数の第1ユーザU1の中から第2ユーザU2とマッチングする第1ユーザU1をランダムで選択してもよい。この場合、第2ユーザU2は、マッチングリストに含まれるすべての第1ユーザU1とゲームプレイをしたい(第1ユーザU1をコンプリートしたい)と欲するため、何度も同じシナリオをプレイする。これにより、ユーザの興趣性を高めることができる。
また、第2ユーザU2は、マッチングリストに含まれるすべての第1ユーザU1とゲームプレイ(第1ユーザU1をコンプリート)をした場合、報酬(例えば、ゲーム内通貨など)を入手できるようにしてもよい。
また、マッチング処理部232は、第2ゲーム装置5からマッチング要求があったとき、マッチングリストを参照せずにマッチング処理を行ってもよい。例えば、マッチング処理部232は、第2ゲーム装置5を操作する第2ユーザU2とマッチングする相手を、ログイン状態にある第1ユーザU1の中からランダムで選択してもよい。
また、サーバ装置2およびネットワーク6に代えて、通信ケーブル等を介して有線によりまたは無線により、第1ゲーム装置3および第2ゲーム装置5が互いに直接通信可能に構成されていてもよい。この場合、第1ゲーム装置3および第2ゲーム装置5の少なくとも一方にマッチング処理部が備えられる。マッチング処理部は、通信ケーブル等を介して通信可能となっている第1ゲーム装置3および第2ゲーム装置5を操作している第1ユーザU1と第2ユーザU2をマッチングしてもよい。
また、第2ユーザU2が、ゲームプレイ中に不適切な行為(他のユーザに対する妨害行為やゲームデータの改ざん行為など)を行った場合、第1ユーザU1が不適切な行為を行った第2ユーザU2のゲームプレイを中断してもよい。この場合、第2ユーザU2が操作していたキャラクタC2を所定のプログラムに従って動作させるようにしてもよいし、別のオブジェクトに差し替えてもよい。
また、第2ユーザU2は、他の第2ユーザU2が抽選により決定されたシナリオをプレイできてもよい。例えば、サーバ装置2の記憶部22は、第2ゲーム装置5から受信したシナリオ情報と、シナリオ情報を送信した第2ゲーム装置5を操作する第2ユーザU2とを関連付けたシナリオ決定履歴を記憶しておく。そして、第2ゲーム装置5は、サーバ装置2に記憶されたシナリオ決定履歴を参照して、第2ユーザが、他の第2ユーザU2と関連付けられたシナリオ情報をプレイ可能としてもよい。
また、シナリオ決定手段562は、ゲームプレイまでの待ち時間の長さに応じて、抽選するシナリオを変更してもよい。例えば、シナリオ決定手段562は、ゲームプレイまでの待ち時間が長いほど、レア度(「レアリティ」と呼ばれる希少度)の高いシナリオが当たるようにしてもよい。
ゲームプレイまでの待ち時間の長さを計測するために、例えば、第2ユーザU2に対して、ゲーム参加券を配布してもよい。具体的に、第2ゲーム装置5は、ゲーム参加券を発行する発行装置、および、参加券に付与されたコードを読み取る読取装置を、外部または内部に備える。第2ユーザU2は、ゲームプレイを開始する前に発行装置にゲーム参加券を発行させる。このとき、発行装置は、発行した時刻を示すコードが付与されたゲーム参加券を発行する。そして、第2ユーザU2は、ゲームプレイの順番が来たときに、ゲーム参加券を読取装置に認識させる(例えば、読取装置にかざして読み取らせる)。第2ゲーム装置5は、ゲーム参加券に示される時刻と、ゲーム参加券が読み取られた時刻との差を、ゲームプレイまでの待ち時間と決定する。なお、参加券は、紙媒体でもよいし、電子データでもよい。
また、シナリオ決定手段562は、シナリオの抽選方法として「ガチャ」と呼ばれる抽選方法によって、プレイするシナリオを決定してもよい。また、第2ユーザU2は、ガチャによって決定されたシナリオを他のユーザと交換できてもよい。
また、シナリオにごとにレア度が設定されており、レア度が低いシナリオでは、キャラクタC1がプログラムによって動作し、レア度が高いシナリオでは、キャラクタC1が第1ユーザU1の操作入力に基づいて動作するようにしてもよい。これにより、ユーザの興趣性を高めることができる。
また、シナリオ決定手段562を、第1ゲーム装置3の制御部36に備えてもよい。この場合、シナリオ決定手段562は、第1ユーザU1の操作入力(例えば、モーションセンサ43などによる操作)に応じて、シナリオ抽選が実行し、複数のシナリオの中から第1ユーザU1がプレイするシナリオを決定してもよい。
また、マッチング処理手段232は、第1ゲーム装置3(第1ユーザU1)からのマッチング要求に基づいて、第1ユーザU1と同一のシナリオをプレイする第2ユーザU2を選択してもよい。この場合、マッチングリストは、第2ユーザU2とシナリオ情報とが対応付けられたものとなる。
また、HMD41,61は、それぞれ、他の表示装置であってもよい。例えば、HMD41,61は、それぞれ、ディスプレイやウェアラブルデバイスなどの表示装置であってもよいし、バーサライタなどの発光表示装置であってもよい。
また、コントローラ63は、他の入力装置であってもよい。例えば、コントローラ63は、マウス、キーボード、タッチパネルなどの入力装置であってもよい。また、第2ゲーム装置5の操作部54は、第2ユーザU2の動作を検出するモーションセンサの出力に応じて入力情報を生成してもよい。
また、トラッキング処理部34は、モーションセンサ43に代えて、他の装置からの出力に基づいて、動作トラッキング情報を生成してもよい。例えば、第1ユーザU1をカメラ等により撮影して、カメラから出力される画像データを解析して、動作トラッキング情報を出力してもよい。
また、トラッキング処理部34は、第1ユーザU1の顔に装着されたモーションセンサ43の出力から、第1ユーザU1の表情の動きを示す動作トラッキング情報を生成してもよい。この場合、トラッキング処理部34は、第1ユーザU1の顔をカメラ等により撮影して、カメラから出力される画像データを解析して、動作トラッキング情報を出力してもよい。
また、第1ゲーム装置3は、モーションセンサ43およびマイク44のいずれか一方を備なくてもよい。
また、キャラクタ動作情報処理手段363は、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2のいずれか一方をHMD41の表示部に表示しなくてもよい。また、キャラクタ動作情報処理手段363は、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2を音声としてスピーカ42から出力してもよい。
また、キャラクタ動作情報処理手段363は、動作トラッキング情報および音声トラッキング情報に基づいて、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2をHMD41の表示部に表示させてもよい。すなわち、キャラクタ動作指示情報cm1およびキャラクタ音声指示情報cm2に表示される内容は、第1ユーザU1の動作に応じて定められていてもよい。
また、音声変換手段364は、音声トラッキング情報に示される音声を解析して、第1ユーザU1の音声を他人の音声(例えば、人工音声やキャラクタを演じている俳優などの音声)に変換してもよいし、その他の音声に変換してもよい。
また、第1ゲーム装置3には、音声変換手段364が備えられなくてもよい。この場合、第1ゲーム装置3は、音声トラッキング情報を第2ゲーム装置5に送信し、第2ゲーム装置は、音声トラッキング情報に応じて音声を再生する。
また、ゲームシステムに、第1ゲーム装置3から音声トラッキング情報を受信して、音声トラッキング情報に含まれる音声を所定の周波数に変換した変換音声情報を生成し、第1ゲーム装置3および第2ゲーム装置5に送信するゲーム装置またはサーバ装置をさらに備えてもよい。
また、第1ゲーム装置3には、キャラクタ動作情報処理手段363が備えられなくてもよい。この場合、ステップS109において、HMD41の表示部には、表示画面SC2に代えて表示画面SC1が表示される。
また、第2ゲーム装置5に、第2ユーザU2の身体の動きを検出するモーションセンサや第2ユーザU2の発する音声を検出するマイクを備えてもよい。この場合、第2ゲーム装置5のモーションセンサおよびマイクによって検出された情報を、第2ゲーム装置5の通信手段561は第1ゲーム装置3に送信する。そして、第1ゲーム装置3のゲーム進行手段362および第2ゲーム装置5のゲーム進行手段564は、第2ゲーム装置5のモーションセンサおよびマイクによって検出された情報に従って、キャラクタC2を動作させる。
また、第2ゲーム装置5は、第1ユーザU1の、身体の動きのみ、発する音声のみ、表情のみを検出してもよいし、これらの2以上の組み合わせを検出してもよい。
また、本ゲームは、1つのシナリオに従って、ゲームが進行されてもよい。この場合、シナリオ決定手段562が不要となる。
また、本ゲームシステムは、ゲームシステム以外に適用することが可能である。例えば、第1ユーザU1の動作に応じて、仮想空間上のアバターなどが動作するコミュニケーションシステムなどに適用することができる。
また、サーバ装置2、第1ゲーム装置3および第2ゲーム装置5は、それぞれが複数の装置であってもよいし、1台であってもよい。また、サーバ装置2、第1ゲーム装置3および第2ゲーム装置5が、協働して同様の処理を行うようにしてもよい。
1 ゲームシステム
2 サーバ装置
23 制御部(コンピュータ)
232 マッチング処理手段(第1ユーザ選択部)
3 第1ゲーム装置
36 制御部(コンピュータ)
363 キャラクタ動作情報処理手段
364 音声変換手段
41 HMD(第1出力部)
43 モーションセンサ(第1取得部)
44 マイク(第1取得部)
5 第2ゲーム装置
56 制御部(コンピュータ)
562 シナリオ決定手段(シナリオ決定部)
61 HMD(第2出力部)
62 スピーカ(第2出力部)
63 コントローラ(第2取得部)

Claims (11)

  1. 1または複数のコンピュータを備えたコンピュータシステムであって、
    前記コンピュータを、
    仮想空間上に形成された代理のオブジェクトに動作を行わせる第1ユーザに対して、前記代理のオブジェクトの動作を導き出すオブジェクト動作情報を出力する第1出力部と、
    前記オブジェクト動作情報に対応した前記第1ユーザの動作を示す第1ユーザ動作情報を取得する第1取得部と、
    第2ユーザに対して、前記第1ユーザ動作情報を出力する第2出力部と、
    前記第2ユーザの動作を示す第2ユーザ動作情報を取得する第2取得部と
    して機能させ、
    前記第1出力部は、前記第1ユーザに対して、前記第2ユーザ動作情報に応じた前記オブジェクト動作情報を出力することを特徴とするコンピュータシステム。
  2. 請求項1において、
    前記代理のオブジェクトは、前記コンピュータにおいて実行されるゲームに登場するキャラクタであることを特徴とするコンピュータシステム。
  3. 請求項2において、
    前記第1出力部は、前記第1ユーザに対して、前記ゲームのシナリオに応じた前記オブジェクト動作情報を出力することを特徴とするコンピュータシステム。
  4. 請求項3において、
    前記コンピュータを、
    前記第1ユーザまたは前記第2ユーザからの操作入力を受け付ける操作入力部と、
    前記操作入力に基づいて、前記ゲームのシナリオを決定するシナリオ決定部と
    してさらに機能させ、
    前記第1出力部は、前記第1ユーザに対して、前記シナリオ決定部により決定された前記シナリオに応じた前記オブジェクト動作情報を出力することを特徴とするコンピュータシステム。
  5. 請求項4において、
    前記シナリオ決定部は、前記操作入力に基づいて、前記ゲームにおける複数のシナリオのうち少なくとも1つのシナリオを抽選により決定することを特徴とするコンピュータシステム。
  6. 請求項4または5において、
    前記第1出力部は、前記第1ユーザに対して、前記シナリオ決定部により決定されたシナリオに関する情報を出力することを特徴とするコンピュータシステム。
  7. 請求項3から6のいずれか1つにおいて、
    前記コンピュータを、
    前記第2ユーザからの操作入力に基づいて、複数の前記第1ユーザの中から前記第2ユーザと同一の前記シナリオをプレイする前記第1ユーザを選択する第1ユーザ選択部と
    してさらに機能させることを特徴とするコンピュータシステム。
  8. 請求項3から7のいずれか1つにおいて、
    前記コンピュータを、
    前記第1ユーザまたは前記第2ユーザからの操作入力に基づいて、前記ゲームのシナリオを決定するシナリオ決定部と、
    前記シナリオ決定部により決定されたシナリオに基づいて、複数の前記第1ユーザの中から前記第2ユーザと同一の前記シナリオをプレイする前記第1ユーザを選択する第1ユーザ選択部と
    としてさらに機能させることを特徴とするコンピュータシステム。
  9. 請求項1〜8のいずれか1つにおいて、
    前記第1取得部は、前記第1ユーザ動作情報として、前記第1ユーザの身体の動き、音声および表情の動きのうち少なくとも1つを取得することを特徴とするコンピュータシステム。
  10. 請求項1〜9のいずれか1つにおいて、
    前記第1取得部は、前記第1ユーザ動作情報として、前記第1ユーザの音声を取得し、
    前記第2出力部は、前記第1ユーザの音声を他の音声に変換して出力することを特徴とするコンピュータシステム。
  11. 請求項1〜10のいずれか1つにおいて、
    前記第2出力部は、ディスプレイ、ウェアラブルデバイス、発光表示装置、プロジェクタおよび音声再生装置のうち少なくとも1つを含むことを特徴とするコンピュータシステム。
JP2019197451A 2019-10-30 2019-10-30 コンピュータシステム Active JP7256398B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019197451A JP7256398B2 (ja) 2019-10-30 2019-10-30 コンピュータシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019197451A JP7256398B2 (ja) 2019-10-30 2019-10-30 コンピュータシステム

Publications (2)

Publication Number Publication Date
JP2021069601A true JP2021069601A (ja) 2021-05-06
JP7256398B2 JP7256398B2 (ja) 2023-04-12

Family

ID=75711773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019197451A Active JP7256398B2 (ja) 2019-10-30 2019-10-30 コンピュータシステム

Country Status (1)

Country Link
JP (1) JP7256398B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314657A (ja) * 2000-05-08 2001-11-13 Sega Corp ネットワークシステム及び記憶媒体
JP2014054304A (ja) * 2012-09-11 2014-03-27 Sony Computer Entertainment Inc ゲーム装置、ゲームサーバ、ゲーム制御方法、及びゲーム制御プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001314657A (ja) * 2000-05-08 2001-11-13 Sega Corp ネットワークシステム及び記憶媒体
JP2014054304A (ja) * 2012-09-11 2014-03-27 Sony Computer Entertainment Inc ゲーム装置、ゲームサーバ、ゲーム制御方法、及びゲーム制御プログラム

Also Published As

Publication number Publication date
JP7256398B2 (ja) 2023-04-12

Similar Documents

Publication Publication Date Title
US11213757B2 (en) Information processing apparatus, information processing method, and program
JP7349348B2 (ja) キャラクタ制御用プログラム、方法、および情報処理装置
JP7373813B2 (ja) コンピュータプログラム、方法及びサーバ装置
JP7344948B2 (ja) システム
JP6790203B1 (ja) コンピュータプログラム、サーバ装置、端末装置及び方法
JP6672380B2 (ja) ゲームプログラム、キャラクタ制御プログラム、方法、および情報処理装置
JP2012045422A (ja) プログラム、情報記憶媒体およびゲームシステム
JP6826573B2 (ja) ゲームプログラム、方法、および情報処理装置
JP2015002895A (ja) ゲームシステムおよびゲームシステムの制御方法
US11911703B2 (en) Program, information processing method, information processing device, and server
JP7256398B2 (ja) コンピュータシステム
JP6965413B1 (ja) コンピュータプログラム、方法、及び、サーバ装置
JP6790204B1 (ja) コンピュータプログラム、サーバ装置、端末装置及び方法
JP6639561B2 (ja) ゲームプログラム、方法、および情報処理装置
JP2022012889A (ja) コンピュータプログラム、およびコンピュータ装置
JP7258923B2 (ja) プログラム
JP6942844B1 (ja) コンピュータプログラム、方法、及び、サーバ装置
JP7386927B2 (ja) プログラム、方法、および情報処理装置
JP6888061B2 (ja) コンピュータプログラム、サーバ装置、端末装置及び方法
JP7095006B2 (ja) ゲームプログラム、キャラクタ制御プログラム、方法、および情報処理装置
JP2023510057A (ja) 音声テキスト変換方法、システム、装置、機器及びプログラム
JP2021074561A (ja) ゲーム関連サービス提供プログラムならびにサーバ装置
JP2022032987A (ja) 方法、コンピュータ可読媒体、および情報処理装置
JP2023120054A (ja) プログラム、情報処理装置、及び情報処理方法
JP2020171575A (ja) ゲーム関連サービス提供プログラムならびにサーバ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7256398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150