JP2024005495A - 端末装置の制御プログラム、端末装置、及び端末装置の制御方法 - Google Patents

端末装置の制御プログラム、端末装置、及び端末装置の制御方法 Download PDF

Info

Publication number
JP2024005495A
JP2024005495A JP2022105695A JP2022105695A JP2024005495A JP 2024005495 A JP2024005495 A JP 2024005495A JP 2022105695 A JP2022105695 A JP 2022105695A JP 2022105695 A JP2022105695 A JP 2022105695A JP 2024005495 A JP2024005495 A JP 2024005495A
Authority
JP
Japan
Prior art keywords
terminal device
character
user
virtual space
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022105695A
Other languages
English (en)
Inventor
高輝 伊藤
Koki Ito
典恵 松田
Norie Matsuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022105695A priority Critical patent/JP2024005495A/ja
Publication of JP2024005495A publication Critical patent/JP2024005495A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】端末装置の制御プログラムは、端末装置の処理負荷を低減させることを可能とする。【解決手段】制御プログラムは、記憶装置を備える端末装置の制御プログラムであって、端末装置に、複数の被写体のそれぞれについて、本体オブジェクトに関する情報及び複数種類の顔画像に関する情報を記憶装置に記憶し、ユーザによる操作によって、複数の被写体のうちの一の被写体に対応するキャラクタオブジェクトの表示条件が満たされた場合、一の被写体の複数種類の顔画像の中から一の顔画像を自動的に選択し、選択された顔画像及び一の被写体の本体オブジェクトを少なくとも用いたキャラクタオブジェクトを含む仮想空間を表示すること、を実行させる。【選択図】図3

Description

本明細書で開示された実施形態は、端末装置の制御プログラム、端末装置、及び端末装置の制御方法に関する。
従来から、実際の人物又は動物等の顔を撮影した顔写真又は事前にユーザ等によって描かれた顔イラスト等の顔画像を、アバタ等のキャラクタオブジェクトの顔面部分に配置し、顔画像が配置されたキャラクタオブジェクトを表示する情報システムが知られている。
例えば、特許文献1には、プレイヤの顔の写真から公知のテクスチャマップが生成され、生成されたテクスチャマップが3次元モデルの頭部に張り付けられるテクスチャマッピングの技術が開示されている。特許文献1に記載のテクスチャマッピングの技術では、プレイヤの顔が複数の方向から撮影され、3次元モデルの複数のポリゴンに2次元の撮影画像を張り付けることで、キャラクタの3次元像が生成される。
特表2002-517840号公報
しかしながら、特許文献1に記載の情報システムでは、一つのキャラクタの画像を表示するために、複数の画像を同時に用いてコンピュータ・グラフィックス(CG)モデルを生成する必要があった。このため、このような情報システムでは、サーバ装置又は端末装置等の演算処理の負荷、及び/又は、サーバ装置及び端末装置間の情報の通信の負荷が増大するという問題が生じていた。
開示された端末装置の制御プログラム、端末装置、及び端末装置の制御方法は、端末装置の処理負荷を低減させることを可能とする。
開示された制御プログラムは、記憶装置を備える端末装置の制御プログラムであって、端末装置に、複数の被写体のそれぞれについて、本体オブジェクトに関する情報及び複数種類の顔画像に関する情報を記憶装置に記憶し、ユーザによる操作によって、複数の被写体のうちの一の被写体に対応するキャラクタオブジェクトの表示条件が満たされた場合、一の被写体の複数種類の顔画像の中から一の顔画像を自動的に選択し、選択された顔画像及び一の被写体の本体オブジェクトを少なくとも用いたキャラクタオブジェクトを含む仮想空間を表示すること、を実行させる。
また、開示された制御プログラムにおいて、端末装置に、複数の被写体の中から一の被写体を自動的に選択し、選択された一の被写体のキャラクタオブジェクトの表示条件が満たされたか否かを判定すること、を実行させることが好ましい。
また、開示された制御プログラムにおいて、仮想空間の表示において、端末装置に、仮想空間に含まれるキャラクタオブジェクトに関する第1の文字列を表示すること、を実行させることが好ましい。
また、開示された制御プログラムにおいて、端末装置に、複数の特性情報を記憶装置に記憶すること、を実行させ、顔画像の記憶において、複数種類の顔画像のそれぞれには、互いに異なる特性情報が関連付けられ、第1の文字列の表示において、端末装置に、それぞれが複数の特性情報のうちのいずれかの特性情報が関連付けられた複数の第1の文字列の中から、選択された顔画像と同一の特性情報が関連付けられている第1の文字列を選択すること、を実行させることが好ましい。
また、開示された制御プログラムにおいて、端末装置に、仮想空間に含まれるキャラクタオブジェクトに対するユーザの指定操作に応じて、一の人物の写真画像を表示すること、を実行させ、一の人物の写真画像は、選択された顔画像と異なることが好ましい。
また、開示された制御プログラムにおいて、一の人物の写真画像の表示において、端末装置に、第1の文字列を含む第2の文字列を示す文字列を表示すること、を実行させることが好ましい。
また、開示された制御プログラムにおいて、端末装置に、仮想空間に含まれるキャラクタオブジェクトに対するユーザの指定操作に応じて、キャラクタオブジェクトに所定の動作を行わせること、を実行させることが好ましい。
また、開示された制御プログラムにおいて、端末装置に、複数の特性情報を記憶装置に記憶すること、を実行させ、顔画像の記憶において、複数種類の顔画像のそれぞれには、互いに異なる特性情報が関連付けられ、所定の動作を行わせることにおいて、端末装置に、それぞれが複数の特性情報のうちのいずれかの特性情報が関連付けられた複数の動作の中から、選択された一の顔画像と同一の特性情報が関連付けられている動作を所定の動作として選択すること、を実行させることが好ましい。
また、開示された制御プログラムにおいて、端末装置に、前記本体オブジェクトに適用される複数種類の要素オブジェクトを記憶装置に記憶し、写真画像の表示に応じてユーザにポイントを付与し、ポイントに関する所定の付与条件が満たされた場合、複数種類の要素オブジェクトのうちのいずれかの要素オブジェクトをユーザに関連付けて記憶装置に記憶すること、を実行させ、仮想空間の表示において、ユーザに関連付けられた要素オブジェクトの中から、ユーザによって選択された要素オブジェクトが適用された本体オブジェクトによりキャラクタオブジェクトが構成されることが好ましい。
開示された端末装置は、記憶装置を備える端末装置であって、複数の被写体のそれぞれについて、本体オブジェクトに関する情報及び複数種類の顔画像に関する情報を記憶装置に記憶し、ユーザによる操作によって、複数の被写体のうちの一の被写体に対応するキャラクタオブジェクトの表示条件が満たされた場合、一の被写体の複数種類の顔画像の中から一の顔画像を自動的に選択し、選択された顔画像及び一の被写体の本体オブジェクトを少なくとも用いたキャラクタオブジェクトを含む仮想空間を表示する、処理装置と、を備える。
開示された制御方法は、記憶装置を備える端末装置の制御方法であって、端末装置が、複数の被写体のそれぞれについて、本体オブジェクトに関する情報及び複数種類の顔画像に関する情報を記憶装置に記憶し、ユーザによる操作によって、複数の被写体のうちの一の被写体に対応するキャラクタオブジェクトの表示条件が満たされた場合、一の被写体の複数種類の顔画像の中から一の顔画像を自動的に選択し、選択された顔画像及び一の被写体の本体オブジェクトを少なくとも用いたキャラクタオブジェクトを含む仮想空間を表示することを含む。
開示された端末装置の制御プログラム、端末装置、及び端末装置の制御方法によって、端末装置の処理負荷を低減させることが可能となる。
情報システムの概要の一例を説明するための模式図である。 情報システムの概略構成の一例を示す図である。 端末装置の概略構成の一例を示す図である。 サーバ装置の概略構成の一例を示す図である。 各種テーブルのデータ構造の一例を示す図である。 各種テーブルのデータ構造の一例を示す図である。 各種テーブルのデータ構造の一例を示す図である。 各種テーブルのデータ構造の一例を示す図である。 端末装置に表示される各種画面の一例を示す図である。 端末装置に表示される各種画面の一例を示す図である。 情報システムの動作シーケンスの一例を示す図である。 表示処理の動作フローの一例を示す図である。 端末装置に表示される各種画面の一例を示す図である。
以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲は、それらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ。
(情報システムの概要)
図1は、情報システムの概要の一例を説明するための模式図である。情報システムは、一又は複数の端末装置とサーバ装置とを備える。
端末装置は、ユーザが所有する多機能携帯電話(所謂「スマートフォン」)等の情報処理装置であり、当該ユーザによって操作される。端末装置は、サーバ装置等の外部装置から送信された端末制御プログラムを記憶し、記憶された端末制御プログラムに含まれる命令を実行することにより、特定の機能を実現(実装)する。
例えば、端末制御プログラムがゲームアプリケーションプログラムである場合、端末装置は、ゲームアプリケーションプログラムに含まれる命令を実行することにより、特定のゲームを進行させる。また、例えば、端末制御プログラムが仮想空間表示アプリケーションプログラムである場合、端末装置は、仮想空間表示アプリケーションプログラムに含まれる命令を実行することにより、特定の仮想空間を表示する。
サーバ装置は、サーバ制御プログラムを記憶し、記憶されたサーバ制御プログラムに含まれる命令を実行することにより、端末装置によって送信された各種情報を管理する機能を実現(実装)する。例えば、端末装置が特定のゲームを進行させた場合、サーバ装置は、当該特定のゲームの進行結果情報等を受信し、管理する。
ユーザが端末装置を用いてプレイするゲームは、対戦ゲーム、カードゲーム、レーシングゲーム、射撃ゲーム、ダンスゲーム、音楽ゲーム、スポーツ模擬ゲーム等、端末装置によって実現されるゲームであれば、どのようなゲームでもよい。また、ユーザが端末装置を用いてプレイするゲームは、複数のユーザがそれぞれ各自の端末装置を操作して同一のゲームをプレイできるマルチプレイゲームでも、各ユーザが、端末装置を操作して一人でゲームをプレイできるシングルプレイゲームでもよい。このように、ユーザは、端末装置を操作して、各種ゲームに参加し、各種ゲームをプレイすることができる。
図1の(a)に示されるように、情報システムのサーバ装置及び/又は端末装置は、キャラクタオブジェクトA及びキャラクタオブジェクトBのそれぞれについて、本体オブジェクトに関する情報及び複数種類の顔画像に関する情報を記憶する。サーバ装置及び/又は端末装置によって記憶される本体オブジェクトに関する情報及び複数種類の顔画像に関する情報は、2種類に限らず、1種類でも3種類以上でもよい。
キャラクタオブジェクトは、端末制御プログラムに含まれる命令が端末装置によって実行された場合に表示され得る2次元又は3次元オブジェクトである。キャラクタオブジェクトは、少なくとも本体オブジェクトと複数種類の顔画像のうちの一の顔画像とを含む。キャラクタオブジェクトは、本体オブジェクト及び一の顔画像とは異なる、他のオブジェクトを含んでもよい。キャラクタオブジェクトは、複数の顔画像を含んでもよい。
本体オブジェクトは、人間及び動物等の生物の体を模した静止画像又はアニメーション画像を生成するためのモデルデータによって表示される2次元又は3次元オブジェクトである。本体オブジェクトは、ロボット、人形及び縫いぐるみ等の無生物の体を模した2次元又は3次元オブジェクトでもよい。図1の(a)に示される例における本体オブジェクトは、人間の頭部以外の部分を模した2次元オブジェクトである。本体オブジェクトは、顔画像を含まない頭オブジェクトが含まれてもよい。本体オブジェクトに頭オブジェクトが含まれる場合、毛髪を表す毛髪オブジェクト(髪型オブジェクトと称する場合がある)が含まれなくてもよい。
モデルデータは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータは、例えば、キャラクタオブジェクトの顔以外の部分の骨格を示すリグデータ(所謂「スケルトンデータ」)と、キャラクタオブジェクトの表面の形状や質感を示す表面データとを含む。モデルデータには、互いに異なる複数のモデルデータが含まれてもよい。複数のモデルデータのそれぞれは、互いに異なるリグデータを有してもよく、又は、同じリグデータを有してもよい。複数のモデルデータのそれぞれは、互いに異なる表面データを有してもよく、又は、同じ表面データを有してもよい。本体オブジェクトは、モデルデータに限らず、画像情報等に基づいて表示される2次元又は3次元オブジェクトでもよい。
顔画像は、人間及び動物等の生物の顔を撮影した顔写真画像である。顔画像は、ロボット、人形及び縫いぐるみ等の無生物の顔を撮影した顔写真画像でもよい。以下、撮影対象となる生物及び無生物を、被写体と称する場合がある。また、顔画像は、ユーザ又はイラストレータ等によって描かれた、人間及び動物等の生物の顔のイラスト、並びにロボット、人形及び縫いぐるみ等の無生物の顔のイラストを撮影した顔写真画像でもよい。また、顔画像は、イラスト作成アプリケーションプログラムが実行されたコンピュータによって生成された、人間及び動物等の生物の顔のイラストを示す顔画像報、並びにロボット、人形及び縫いぐるみ等の無生物の顔のイラストを示す顔画像でもよい。イラスト作成アプリケーションプログラムが実行されたコンピュータは、情報システムが備える、サーバ装置又は端末装置でもよい。
顔画像は、本体オブジェクトがスケルトンデータを含む場合、スケルトンデータの顔の表面を示す表面データとして記憶されてもよく、又は、キャラクタオブジェクトの頭オブジェクトの一部として記憶されてもよい。この場合、頭オブジェクトは、顔画像を含む頭部画像でもよく、頭部の骨格を示すスケルトンデータと、キャラクタオブジェクトの顔、毛髪等の頭部の表面の形状や質感を示す表面データでもよい。
図1の(a)に示される例では、キャラクタオブジェクトごとに4種類の顔画像が記憶される。これら4種類の顔画像は、顔の表情が互いに異なる。例えば、4種類の顔画像は、互いに表情が異なる同一の人物の顔を撮影した顔写真画像である。キャラクタオブジェクトに対応する顔画像は、4種類に限らず、3種類以下でも、5種類以上でもよい。キャラクタオブジェクトに対応する顔画像には同一種類の表情の顔画像が含まれてもよい。この場合、同一種類の表情の顔画像として、表情の程度が異なる複数の顔画像が含まれてもよい。例えば、表情の程度が異なる複数の顔画像は、大笑いの表情の顔画像及び微笑みの表情の顔画像等である。また、同一種類の表情の顔画像として、表情の態様が異なる複数の顔画像が含まれてもよい。例えば、表情の態様が異なる複数の顔画像は、目を閉じて笑う表情の顔画像と目を開いて笑う表情の顔画像である。また、同一種類の表情の顔画像として、表情の程度及び態様が異なる複数の顔画像が含まれてもよい。例えば、表情の程度及び態様が異なる複数の顔画像は、目を閉じて大笑いする表情の顔画像、目を開いて大笑いする表情の顔画像、目を閉じて微笑む表情の顔画像、及び、目を開いて微笑む表情の顔画像のうちの少なくとも2種類の顔画像である。
サーバ装置及び/又は端末装置は、複数の生物のうちの又は一以上の生物及び一以上の無生物のうちの、一の生物に対応するキャラクタオブジェクトの表示条件が満たされた場合(図1の(b)の(1))、当該一の生物の複数種類の顔画像の中から一の顔画像を自動的に選択する(図1の(b)の(2))。また、サーバ装置及び/又は端末装置は、複数の無生物のうちの又は一以上の生物及び一以上の無生物のうちの、一の無生物に対応するキャラクタオブジェクトの表示条件が満たされた場合、当該一の無生物の複数種類の顔画像の中から一の顔画像を自動的に選択する。例えば、複数種類の顔画像のうちの一の顔画像の自動的な選択は、複数種類の顔画像の中からランダムに一の顔画像を選択することである。また、複数種類の顔画像のうちの一の顔画像の自動的な選択は、複数種類の顔画像の中から所定の順番に従って一の顔画像を選択することでもよい。
一の生物に対応するキャラクタオブジェクトの表示条件は、ユーザによる端末装置の操作に応じて、当該一の生物が、複数の生物の中から又は一以上の生物及び一以上の無生物の中から、ランダムに選択されたことである。一の無生物に対応するキャラクタオブジェクトの表示条件は、ユーザによる端末装置の操作に応じて、当該一の無生物が、複数の無生物の中から又は一以上の生物及び一以上の無生物の中から、ランダムに選択されたことである。ユーザによる端末装置の操作は、所定の画面の表示指示を入力する操作、又はキャラクタオブジェクトの表示指示を入力する操作等である。
一の生物又は一の無生物に対応するキャラクタオブジェクトの表示条件は、ユーザによる端末装置の操作に応じて、端末装置によって提供される所定のイベントをクリアしたという条件でもよい。所定のイベントのクリアとは、例えば、イベントに目標(自動的に進行するストーリに沿った入力に係る操作をユーザが行うこと等)が設定されている場合、当該目標が達成されること等である。また、一の生物又は一の無生物に対応するキャラクタオブジェクトの表示条件は、ユーザによる端末装置の操作に応じて、端末装置によって提供される所定のゲームをクリアしたという条件でもよい。所定のゲームをクリアとは、所定のゲーム内に登場する敵キャラクタに勝利すること、又は、所定のゲームにおいて獲得するポイントが所定値を超えること等である。また、所定のゲームのクリアとは、所定の時間内に所定の目標(ユーザによって操作されるキャラクタが仮想空間内の所定位置まで到達すること等)が達成されること等でもよい。
一の生物又は一の無生物に対応するキャラクタオブジェクトの表示条件は、外部環境に関する条件でもよい。外部環境に関する条件は、現在日時が所定の日時に到達したこと、又は、現在の天候が所定の天候となったこと等である。また、一の生物又は一の無生物に対応するキャラクタオブジェクトの表示条件は、一の生物又は一の無生物に関する条件でもよい。一の生物に関する条件は、外部装置によって公知の検知方法で検知された、一の生物の睡眠の開始又は終了に関する情報を取得したこと、又は、外部装置によって公知の検知方法で検知された、一の生物の移動の開始又は終了に関する情報を取得したこと等である。一の無生物に関する条件は、一の無生物がバッテリーによって駆動する場合、当該バッテリーの残り電力容量が所定値未満となったこと等である。また、一の生物が人間である場合、一の生物に関する条件は、当該一の生物がSNSアプリケーションを実行するコンピュータ等を操作して入力された、当該SNSで公開される特定の情報を、取得したこと等である。
サーバ装置及び/又は端末装置は、表示条件が満たされた一の生物又は一の無生物に対応するキャラクタオブジェクトについて、本体オブジェクトと、複数種類の顔画像の中から自動的に選択された一の顔画像とを特定する。そして、サーバ装置及び/又は端末装置は、特定した本体オブジェクトと一の顔画像とを少なくとも用いたキャラクタオブジェクトを生成し、生成したキャラクタオブジェクトを含む仮想空間を表示する(図1の(b)の(3)及び(4))。
キャラクタオブジェクトについて、本体オブジェクトとともに記憶される複数種類の画像は、顔画像に限らない。例えば、サーバ装置及び/又は端末装置は、複数のキャラクタオブジェクトのそれぞれについて、本体オブジェクトに関する情報及び複数種類の毛髪画像に関する情報を記憶してもよい。また、サーバ装置及び/又は端末装置は、複数のキャラクタオブジェクトのそれぞれについて、本体オブジェクトに関する情報と、複数種類のアクセサリー画像及び/又は服装画像に関する情報とを記憶してもよい。この場合、本体オブジェクトには、顔画像を含む頭オブジェクトが含まれてもよい。
以上、図1を用いて説明したように、情報システムのサーバ装置及び/又は端末装置は、キャラクタオブジェクトの表示処理において、キャラクタオブジェクトの複数種類の画像情報を自動的に選択して当該表示処理に用いることができる。このように、情報システムによって、キャラクタオブジェクトの描画処理の負荷を低減させつつキャラクタオブジェクトの多様な表現を実現することが可能となる。また、サーバ装置が、端末装置にキャラクタオブジェクトを表示させるための表示データを生成する場合、情報システムによって、サーバ装置から端末装置へのデータの通信負荷を低減させつつ、キャラクタオブジェクトの多様な表現を実現することが可能となる。
なお、上述した図1の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。
(情報システム1)
図2は、情報システム1の概略構成の一例を示す図である。情報システム1は、ユーザによって操作される端末装置2と、サーバ装置3とを備える。端末装置2及びサーバ装置3は、例えば、基地局4と移動体通信網5とゲートウェイ6とインターネット7等の通信ネットワークとを介して相互に接続される。端末装置2及びサーバ装置3間では、ハイパーテキスト転送プロトコル(Hypertext Transfer Protocol,HTTP)等の通信プロトコルに基づいて通信が行われる。また、端末装置2及びサーバ装置3間において、最初にHTTP通信によりコネクションが確立され、その後は、HTTP通信よりも小コスト(通信負荷及び処理負荷が少ない)の双方向通信が行われるWebSocketに基づいて通信が行われてもよい。なお、端末装置2及びサーバ装置3間の通信方式は、上述の方式に限定されず、本実施形態を実現できるものであれば、端末装置2及びサーバ装置3間においてどのような通信方式の技術が用いられてもよい。
端末装置2は、スマートフォン等の情報処理装置である。端末装置2は、携帯電話機、ノートPC、タブレット端末、タブレットPC、ヘッドマウントディスプレイ(Head Mounted Display,HMD)、電子書籍リーダー、又はウェアラブルコンピュータ等でもよい。端末装置2は、携帯ゲーム機、又はゲーム用コンソール等でもよい。端末装置2は、ユーザ及び他ユーザのキャラクタオブジェクトの表示出力、並びに、ユーザ及び他ユーザの音声の出力が可能であれば、どのような情報処理装置でもよい。
図2では、1台のサーバ装置3が情報システム1の構成要素として図示されているが、サーバ装置3は複数の物理的に別体のサーバ装置(コンピュータ)の集合であってもよい。この場合、複数のサーバ装置のそれぞれは、同一の機能を有するものでもよく、1台のサーバ装置3の機能を分散して有するものでもよい。
(端末装置2)
図3は、端末装置2の概略構成の一例を示す図である。端末装置2は、基地局4と移動体通信網5とゲートウェイ6とインターネット7等の通信ネットワークとを介してサーバ装置3に接続し、サーバ装置3と通信を行う。端末装置2は、ユーザによって入力された各種指示にしたがって、又は、所定のタイミングにおいて自動的に、各種要求等を生成してサーバ装置3に送信する。また、端末装置2は、サーバ装置3から送信された各種情報(後述する第1キャラクタテーブルT1、第2キャラクタテーブルT2、文字列テーブルT3、ユーザテーブルT4、及びオブジェクトテーブルT5、並びに各種画像情報等)等を受信する。端末装置2は、受信された各種の情報に基づいて各種画面を表示する。また、端末装置2は、実行された端末制御プログラムによって、各種情報が生成又は変更された場合、生成又は変更された各種情報をサーバ装置3に送信する。このような機能を実現するため、端末装置2は、端末通信I/F21と、端末記憶装置22と、表示装置23と、入力装置24と、端末処理装置25とを備える。
端末通信I/F21は、ハードウェア、ファームウェア、又はTCP/IP(Transmission Control Protocol / Internet Protocol)ドライバやPPP(Point-to-Point Protocol)ドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。端末装置2は、端末通信I/F21を介して、サーバ装置3等の他の装置にデータを送信し且つ他の装置からデータを受信することができる。
端末記憶装置22は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ装置である。端末記憶装置22は、端末処理装置25における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム及びデータ等を記憶する。端末記憶装置22に記憶されるドライバプログラムは、表示装置23を制御する出力デバイスドライバプログラム、及び、入力装置24を制御する入力デバイスドライバプログラム等である。端末記憶装置22に記憶されるアプリケーションプログラムは、端末記憶装置22に記憶された各種データに基づいて、ゲームの進行処理及び各種画面の表示処理等を端末処理装置25に実行させるための端末制御プログラム等である。
端末記憶装置22に記憶されるデータは、ユーザを一意に識別するためのユーザ識別情報(例えば、ユーザID(identification))、2次元又は3次元仮想空間を表示するための各種データ(2次元仮想空間画像データ、3次元仮想空間に配置される3次元オブジェクトのデータ等)である。端末記憶装置22に記憶されるデータは、ゲーム画面に表示される各種ゲーム媒体、背景データ等である。端末記憶装置22は、第1キャラクタテーブルT1、第2キャラクタテーブルT2、文字列テーブルT3、ユーザテーブルT4、及びオブジェクトテーブルT5等を記憶する。各種テーブルT1~T5の詳細は後述する。端末記憶装置22は、後述する特別画面を表示するための表示データを、特別画面を識別するための特別画面IDに関連付けて記憶する。また、端末記憶装置22は、所定の処理に係るデータを一時的に記憶してもよい。
表示装置23は、液晶ディスプレイである。なお、表示装置23は、有機EL(Electro-Luminescence)ディスプレイ等でもよい。表示装置23は、端末処理装置25から供給された、動画像データに応じた動画像及び/又は静止画像データに応じた静止画像等を表示画面に表示する。また、表示装置23は、端末装置2の構成要素でなくてもよく、この場合、表示装置23、表示装置23は、サーバ装置3と通信可能なHMDのディスプレイ、有線又は無線を介して端末装置2と通信可能な、プロジェクションマッピング(Projection Mapping)用の映写装置、網膜投影型の投影装置等でもよい。
入力装置24は、タッチパネル等のポインティングデバイスである。入力装置24は、入力キー等でもよい。入力装置24は、ゲーム用コントローラ装置でもよい。入力装置24は、加速度センサ、角速度センサ、変位センサ、方位測定センサ等のモーションセンサーでもよく、この場合、入力装置24を把持するユーザの動きに応じて各種操作が検出される。入力装置24は、イメージセンサ、赤外線センタ、光学センサ等の、ユーザの手及び/又は指等の動きを検出するトラッキング装置でもよい。入力装置24がタッチパネルである場合、入力装置24は、ユーザのタップ、ダブルタップ、ドラッグ、スワイプ、ピンチイン、ピンチアウト、長押し、フリック、及びタッチオフ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、ユーザの非接触操作を検出可能に構成されてもよい。ユーザは、入力装置24を用いて、文字、数字及び記号、若しくは、表示装置23の表示画面上の位置等を入力することができる。入力装置24は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、入力装置24は、発生した信号をユーザの指示として、端末処理装置25に供給する。
端末処理装置25は、端末記憶装置22に記憶されているオペレーティングシステムプログラム、ドライバプログラム及びアプリケーションプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する処理装置である。端末処理装置25は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等の電子回路、又は各種電子回路の組み合わせである。端末処理装置25は、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、MCU(Micro Controller Unit)等の集積回路により実現されてもよい。図3においては、端末処理装置25が単一の構成要素として図示されているが、端末処理装置25は複数の物理的に別体のプロセッサの集合であってもよい。
端末処理装置25は、端末記憶装置22に記憶された端末制御プログラム(アプリケーションプログラム等)に含まれる各種命令を実行することにより、表示処理部251、端末送信部252、端末受信部253、及びゲーム進行部254として機能する。なお、表示処理部251、端末送信部252、端末受信部253、及びゲーム進行部254の詳細は後述する。
(サーバ装置3)
図4は、サーバ装置3の概略構成の一例を示す図である。サーバ装置3は、端末装置2からの指示に応じて、サーバ制御プログラムの実行に応じて、端末装置2において使用される各種情報を管理する機能を有する。また、サーバ装置3は、ゲームで使用される各種ゲームデータ等を端末装置2に送信する機能を有する。そのために、サーバ装置3は、サーバ通信I/F31と、サーバ記憶装置32と、サーバ処理装置33とを備える。
サーバ通信I/F31は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置3は、サーバ通信I/F31を介して、他の装置にデータを送信し且つ他の装置からデータを受信することができる。
サーバ記憶装置32は、例えば、ROM、RAM等の半導体メモリ装置である。サーバ記憶装置32は、例えば、磁気ディスク、光ディスク、又はデータを記憶可能な前記以外の各種記憶装置でもよい。サーバ記憶装置32は、サーバ処理装置33における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム及びデータ等を記憶する。サーバ記憶装置32に記憶されるコンピュータプログラムは、例えばCD-ROM、DVD-ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いてサーバ記憶装置32にインストールされてもよい。
サーバ記憶装置32に記憶されるデータは、各ユーザがプレイしたゲームの進行結果データ等である。また、サーバ記憶装置32は、仮想空間の表示又はゲームの進行に係る各種のデータ(後述する第1キャラクタテーブルT1、第2キャラクタテーブルT2、文字列テーブルT3、ユーザテーブルT4、及びオブジェクトテーブルT5、並びにゲーム媒体の画像データ等)等を記憶する。サーバ記憶装置32は、所定の処理に係るデータを一時的に記憶してもよい。すなわち、サーバ記憶装置32は、揮発性のメモリ(Random Access Memory,RAM)を備え、ゲームの進行に応じて変動する動的データを記憶してもよい。
以下、図5~8を参照して、端末記憶装置22に記憶される第1キャラクタテーブルT1、第2キャラクタテーブルT2、文字列テーブルT3、ユーザテーブルT4、及びオブジェクトテーブルT5のデータ構造の一例を説明する。
(第1キャラクタテーブルT1)
図5は、第1キャラクタテーブルT1のデータ構造の一例を示す図である。第1キャラクタテーブルT1は、端末制御プログラムを実行した端末装置2によって用いられるキャラクタオブジェクトを管理するために用いられる。第1キャラクタテーブルT1は、端末制御プログラムの実行前、実行時及び/又は実行中に、サーバ装置3から端末装置2に送信され、端末装置2が、サーバ装置3から受信した第1キャラクタテーブルT1を端末記憶装置22に記憶する。
第1キャラクタテーブルT1では、複数のキャラクタオブジェクトのそれぞれについて、キャラクタオブジェクトIDと、本体オブジェクトに関する情報と、頭オブジェクトに関する情報とが互いに関連付けて記憶される。キャラクタオブジェクトIDは、キャラクタオブジェクトを一意に識別するための識別情報である。本体オブジェクトに関する情報は、本体オブジェクト(2次元又は3次元オブジェクト)を表示するためのモデルデータ等である。または、本体オブジェクトに関する情報は、本体オブジェクトを表示するためのモデルデータ等の格納箇所を示す情報でもよい。
頭オブジェクトに関する情報は、顔画像を示す情報、属性を示す情報、種別を示す情報、使用可否を示す情報等が含まれる。顔画像を示す情報は、顔画像データを示すファイル名情報である。顔画像を示す情報は、顔画像データを識別するための識別情報でもよい。属性を示す情報は、顔画像を示す情報に関連付けられた、当該顔画像の属性を識別するための識別情報である。例えば、属性は、「喜」、「怒」、「哀」、及び「楽」等である。図5に示される例では、属性A01は「喜」を示す識別情報であり、属性A02は「怒」を示す識別情報であり、属性A03は「哀」を示す識別情報である。属性は、図5に示されるような4種類に限定されず、3種類以下でも、5種類以上でもよい。例えば、属性は、「面白顔(変顔)」、「驚」等が含まれてもよい。属性は、顔の表情の種類に関するものに限らない。例えば、属性は、撮影方向(左斜め上から撮影、右斜め上から撮影等)、被写体の向き(正面向き、右向き等)でもよい。
種別を示す情報は、顔画像を示す情報に関連付けられた、表情の程度を識別するため識別情報及び/又は表情の態様を識別すための識別情報である。図5に示される例では、C01は「表情の程度が大きく且つ目が開いていること」を示す識別情報であり、C02は「表情の程度が小さく且つ目が開いていること」を示す識別情報であり、C03は「表情の程度が大きく且つ目が閉じていること」を示す識別情報であり、C04は「表情の程度が小さく且つ目が閉じていること」を示す識別情報である。
例えば、属性A01及びC01が関連付けられた顔画像は、目を開いて大笑いする表情の顔画像である。また、属性A02及びC04が関連付けられた顔画像は、目を閉じて不機嫌な表情の顔画像である。なお、特定の属性が関連付けられた顔画像には、種別を示す情報が関連付けられなくてもよい。例えば、種別を示す情報として「面白顔(変顔)」を示す識別情報が関連付けられた顔画像を示す情報に、種別を示す情報が関連付けられていなくてもよい。この場合、1種類の「面白顔(変顔)」の顔画像が第1キャラクタテーブルT1に記憶される。
使用可否を示す情報は、顔画像を示す情報に関連付けられた、端末装置2による当該顔画像の使用が許可されているか否かを示す情報である。使用可能を示す情報に関連付けられた顔画像は、当該第1キャラクタテーブルT1を記憶している端末装置2によって使用され得るものである。また、使用不可を示す情報に関連付けられた顔画像は、当該第1キャラクタテーブルT1を記憶している端末装置2によって使用され得ないものである。
(第2キャラクタテーブルT2)
図6は、第2キャラクタテーブルT2のデータ構造の一例を示す図である。第2キャラクタテーブルT2は、端末制御プログラムを実行した端末装置2によって用いられるキャラクタオブジェクトを管理するために用いられる。第2キャラクタテーブルT2は、端末制御プログラムの実行前、実行時及び/又は実行中に、サーバ装置3から端末装置2に送信され、端末装置2が、サーバ装置3から受信した第2キャラクタテーブルT2を端末記憶装置22に記憶する。
第2キャラクタテーブルT2では、複数のキャラクタオブジェクトのそれぞれについて、キャラクタオブジェクトIDと、装着オブジェクトに関する情報と、属性を示す情報と、種別を示す情報と、動作に関する情報と、が互いに関連付けて記憶される。
キャラクタオブジェクトIDは、第1キャラクタテーブルT1に含まれるキャラクタオブジェクトIDと同一である。装着オブジェクトに関する情報は、キャラクタオブジェクトが装着オブジェクトを装着している場合において、当該キャラクタオブジェクトに関連付けられた装着オブジェクトを識別するための識別情報である。属性を示す情報及び種別を示す情報は、第1キャラクタテーブルT1に含まれる属性を示す情報及び種別を示す情報と同一である。
動作に関する情報は、キャラクタオブジェクトの動作条件が満たされた場合にキャラクタオブジェクトが行う動作を示す情報である。動作を示す情報は、キャラクタオブジェクトの本体オブジェクトを所定時間(例えば5秒間)動作させるための命令列を示す情報等である。
第1キャラクタテーブルT1及び第2キャラクタテーブルT2は、一つのキャラクタテーブルとして管理されてもよい。例えば、一つのキャラクタテーブルでは、複数のキャラクタオブジェクトのそれぞれについて、キャラクタオブジェクトIDと、本体オブジェクトに関する情報と、頭オブジェクトに関する情報と、装着オブジェクトに関する情報と、属性を示す情報と、種別を示す情報と、動作を示す情報と、が互いに関連付けて記憶される。
(文字列テーブルT3)
図7は、文字列テーブルT3のデータ構造の一例を示す図である。文字列テーブルT3は、端末制御プログラムを実行した端末装置2によって用いられるキャラクタオブジェクトとともに表示される文字列を管理するために用いられる。文字列テーブルT3は、端末制御プログラムの実行前、実行時及び/又は実行中に、サーバ装置3から端末装置2に送信され、端末装置2が、サーバ装置3から受信した文字列テーブルT3を端末記憶装置22に記憶する。
文字列テーブルT3では、複数のキャラクタオブジェクトのそれぞれについて、キャラクタオブジェクトIDと、一以上の文字列IDとが互いに関連付けて記憶される。また、文字列テーブルT3では、各文字列IDに関連付けて、文字列を示す情報、属性を示す情報、履歴を示す情報、及び特別画面IDが記憶される。
キャラクタオブジェクトIDは、第1キャラクタテーブルT1に含まれるキャラクタオブジェクトIDと同一である。文字列IDは、文字列を一意に識別するための識別情報である。文字列を示す情報は、端末装置2に表示されるテキスト情報である。属性を示す情報は、第1キャラクタテーブルT1に含まれる属性を示す情報と同一である。なお、文字列を示す情報には、所定の言語における字句、文等を構成するものが含まれ、これらの字句、文等は、対応する属性に関連する意味を有するものでもよい。履歴を示す情報は、当該履歴を示す情報に関連付けられた文字列が、端末装置2に表示されたこと、又は、未だ表示されていないことを示す情報である。特別画面IDは、キャラクタオブジェクトが当該キャラクタオブジェクトに関連付けられた文字列とともに表示された場合において、ユーザの操作による当該キャラクタオブジェクトの指定に応じて表示される特別画面を識別するための識別情報である。
(ユーザテーブルT4)
図8(a)は、ユーザテーブルT4のデータ構造の一例を示す図である。ユーザテーブルT4は、当該ユーザテーブルT4を記憶している端末装置2のユーザを管理するために用いられる。ユーザテーブルT4は、端末制御プログラムの実行前、実行時及び/又は実行中に、端末装置2によってサーバ装置3に送信され、サーバ装置3が、端末装置2から受信したユーザテーブルT4をサーバ記憶装置32に記憶する。サーバ装置3は、複数のユーザのそれぞれのユーザテーブルT4を管理する。
ユーザテーブルT4では、ユーザを一意に識別するためのユーザIDと、ユーザの名前と、ユーザの経験値と、ユーザのランクと、ユーザの保有オブジェクトとが互いに関連付けて記憶される。ユーザの経験値及びユーザのランクは、ユーザに関連付けられたパラメータ値の一種である。ユーザの経験値は、端末制御プログラムを実行中の端末装置2に対するユーザの操作に応じて増加するパラメータ値である。例えば、端末制御プログラムがゲームアプリケーションプログラムである場合、端末装置2によって提供される所定のゲームがユーザの操作に応じてクリアされると、端末装置2はユーザの経験値を増加させる。端末制御プログラムが仮想空間表示アプリケーションプログラムである場合、端末装置2は、ユーザの操作に応じて所定の仮想空間を表示すると、ユーザの経験値を増加させてもよい。ユーザのランクは、ユーザの経験値に応じて定められるパラメータ値である。例えば、ユーザの経験値が「0」以上「1,000」未満であれば、ユーザのランクとして「1」が記憶され、ユーザの経験値が「1,000」以上「2,000」未満であれば、ユーザのランクとして「2」が記憶される。
経験値は、端末制御プログラムを実行中の端末装置2に対するユーザの操作に応じて増加又は減少するパラメータ値の一例であり、以下の説明では、このパラメータ値をパラメータ値Paと称する場合がある。また、ランクは、パラメータ値Paに応じたパラメータ値であり、パラメータ値Paの増加又は減少に応じて増加又は減少するパラメータ値の一例であり、以下の説明では、このパラメータ値をパラメータ値Pbと称する場合がある。
ユーザの保有オブジェクトは、ユーザが保有するオブジェクトを識別するための識別情報であり、ユーザに係る保有条件が満たされた場合にユーザIDに関連付けられたものである。保有条件は、ユーザに関連付けられたパラメータ値(パラメータ値Pa又はパラメータ値Pb)に関する条件等である。例えば、パラメータ値Pa又はパラメータ値Pbが所定値となった場合に、新たなオブジェクトを識別するためのオブジェクトIDが、ユーザの保有オブジェクトとしてユーザIDに関連付けて記憶される。保有条件は、端末制御プログラムの実行時間に関する条件でもよい。例えば、端末制御プログラムの実行時間が所定時間を超えた場合に、新たなオブジェクトを識別するためのオブジェクトIDが、ユーザの保有オブジェクトとしてユーザIDに関連付けて記憶されてもよい。なお、新たなオブジェクトは、後述するオブジェクトテーブルT5によって管理されるオブジェクトである。
また、保有条件は、後述する特別画面1010が表示されたこと、でもよい。この場合、表示処理部251は、選択画面1110が表示された場合、ユーザの保有オブジェクトとしてユーザに関連付けることが可能な一又は複数のオブジェクトを選択するための保有オブジェクト選択画面(図示せず)を表示してもよい。表示処理部251は、ユーザによる入力装置24の操作に応じて保有オブジェクト選択画面に表示されたオブジェクトが選択された場合、選択されたオブジェクトのオブジェクトIDを、ユーザの保有オブジェクトとしてユーザIDに関連付けてユーザテーブルT4に記憶する。
(オブジェクトテーブルT5)
図8(b)は、オブジェクトテーブルT5のデータ構造の一例を示す図である。オブジェクトテーブルT5は、端末制御プログラムを実行した端末装置2によって用いられるオブジェクトを管理するために用いられる。オブジェクトテーブルT5は、端末制御プログラムの実行前、実行時及び/又は実行中に、サーバ装置3から端末装置2に送信され、端末装置2が、サーバ装置3から受信したオブジェクトテーブルT5を端末記憶装置22に記憶する。
オブジェクトテーブルT5によって管理されるオブジェクトは、装着オブジェクトとしてキャラクタオブジェクトに装着されるオブジェクトである。また、オブジェクトテーブルT5によって管理されるオブジェクトは、仮想空間内又はゲーム空間内に配置されるオブジェクトでもよい。
オブジェクトテーブルT5では、複数のオブジェクトのそれぞれについて、オブジェクトIDと、オブジェクトの名称を示す情報と、オブジェクトの希少度を示す情報と、オブジェクトの配置箇所を示す情報と、が互いに関連付けて記憶される。オブジェクトIDは、オブジェクトを一意に識別するための識別情報である。オブジェクトの希少度を示す情報は、オブジェクトの出現頻度又は入手困難度を示す数値情報又は識別情報である。
オブジェクトの配置箇所を示す情報は、端末制御プログラムを実行中の端末装置2において、オブジェクトが適用される位置を示す情報である。例えば、端末制御プログラムがゲームアプリケーションプログラムである場合、配置箇所が「頭部」であるオブジェクトは、端末装置2によって提供される所定のゲームに登場するキャラクタオブジェクトの本体オブジェクトの頭部に、装着オブジェクトとして表示される。また、端末制御プログラムがゲームアプリケーションプログラムである場合、配置箇所が「空間」であるオブジェクトは、端末装置2によって提供される所定のゲームの2次元又は3次元ゲームフィールド内の所定位置に配置される。また、端末制御プログラムが仮想空間表示アプリケーションプログラムである場合、配置箇所が「頭部」であるオブジェクトは、端末装置2によって表示される所定の仮想空間内に登場するキャラクタオブジェクトの本体オブジェクトの頭部に、装着オブジェクトとして表示される。本体オブジェクトの配置箇所に装着オブジェクトが表示されることにより、装着オブジェクトが装着されたキャラクタオブジェクトが表示される。本体オブジェクトに装着される装着オブジェクトは、本体オブジェクトの一部として機能する要素オブジェクトである。また、端末制御プログラムが仮想空間表示アプリケーションプログラムである場合、配置箇所が「空間」であるオブジェクトは、端末装置2によって表示される所定の仮想空間内の所定位置に配置される。
以下、図9~図10を参照して、端末装置2の表示装置23に表示される各種画面について説明するとともに、端末装置2の表示処理部251、端末送信部252、端末受信部253、及びゲーム進行部254の機能、並びに、サーバ装置3のサーバ受信部331、サーバ送信部332、及び記憶処理部333の機能について説明する。
図9(a)は、端末装置2に表示されるメニュー画面900の一例を示す図である。メニュー画面900は、例えば、端末制御プログラムを示す起動アイコン等(図示しない)がユーザによる入力装置24の操作によって選択された場合に表示される。
ユーザによる入力装置24の操作によって起動アイコンが選択された場合、表示処理部251は、入力装置24から起動指示を取得する。表示処理部251は、入力装置24から起動指示を取得すると、端末記憶装置22に記憶された端末制御プログラムを読み出す。次に、表示処理部251は、読みだした端末制御プログラムに含まれる命令を実行し、端末記憶装置22に記憶された、メニュー画面900を表示するための各種オブジェクト及び描画データ等を読み出す。そして、表示処理部251は、読みだした各種オブジェクト及び描画データ等に基づいてメニュー画面900を表示装置23に表示する。
表示処理部251による起動指示の取得に応じて、端末装置2は、メニュー画面900の表示前に、サーバ装置3から第1キャラクタテーブルT1、第2キャラクタテーブルT2、文字列テーブルT3、ユーザテーブルT4、及びオブジェクトテーブルT5を取得してもよい。例えば、端末装置2の端末送信部252は、端末記憶装置22に記憶されたユーザIDを読み出し、読み出したユーザIDとともに情報送信要求を端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3のサーバ受信部331が端末装置2からの情報送信要求及びユーザIDをサーバ通信I/F31を介して受信した場合、サーバ送信部332は、受信されたユーザIDに関連付けられた各種テーブルT1~T5を、サーバ記憶装置32から抽出する。サーバ送信部332は、抽出した各種テーブルT1~T5を、受信したユーザIDによって示されるユーザの端末装置2にサーバ通信I/F31を介して送信する。端末装置2の端末受信部253は、各種テーブルT1~T5を、端末通信I/F21を介して受信した場合、受信した各種テーブルT1~T5を端末記憶装置22に記憶する。
メニュー画面900は、仮想空間の表示を開始させるための開始ボタン901aと、ゲームの進行を開始させるための開始ボタン901bとを含む。
ユーザによる入力装置24の操作によって開始ボタン901aが選択された場合、表示処理部251は、入力装置24から、仮想空間V1の表示指示を取得する。表示処理部251は、仮想空間V1の表示指示の取得に応じて、端末記憶装置22に記憶された仮想空間V1を表示するための各種データを読み出す。表示処理部251は、読み出した各種データに基づいて仮想空間画面910を表示する。
ユーザによる入力装置24の操作によって開始ボタン901bが選択された場合、表示処理部251は、入力装置24から、ゲームの開始指示を取得する。表示処理部251は、取得したゲームの開始指示をゲーム進行部254に渡す。ゲーム進行部254は、ゲームの開始指示を受け取ると、ゲームを開始し、表示処理部251は、ユーザのゲーム操作によるゲーム進行指示に応じて進行するゲームのゲーム画面(図示せず)を表示する。ゲーム進行部254は、ゲームの終了条件が満たされたか否かを判定する。ゲーム進行部254によってゲームの終了条件が満たされたことが判定されると、表示処理部251は、ゲーム画面の表示を終了する。ゲームの終了条件は、ゲームのルールに応じて予め定められており、例えば、ユーザのゲーム媒体(キャラクタ等)が対戦相手に勝利又は敗北したこと、ユーザのゲーム媒体が所定の目的地に到達したこと、又は、ユーザによって操作されるゲームオブジェクトが所定の状態となる(例えば、ゲームオブジェクトの一例である複数のコマがゲームフィールド上の升目に並ぶ)こと等である。
図9(b)は、端末装置2に表示される仮想空間画面910の一例を示す図である。仮想空間画面910は、ユーザによる入力装置24の操作によって開始ボタン901aが選択された場合に表示装置23に表示される。図9(b)に示される例では、仮想空間画面910は、仮想空間V1を示す画像911を含み、画像911に重畳するアイコン画像912a、912b、及び912cを更に含む。
図9(b)に示される仮想空間V1を示す画像911は、例えば、現実又は仮想の市街地を上空から見た場合を想定して描画された2次元画像である。なお、仮想空間V1を示す画像911は、所定の市街地を模した3次元仮想空間を当該3次元仮想空間内の所定の視点から見た画像でもよい。この場合、例えば、表示処理部251は、所定の視点の視線方向に2次元スクリーンを配置し、3次元仮想空間内に配置された各種の3次元オブジェクトの3次元座標を当該2次元スクリーンに投影する。そして、表示処理部251は、各種のオブジェクトが投影された2次元スクリーン面の画像を画像911として表示する。
図9(b)に示されるアイコン画像912a、912b、及び912cは、ユーザによって指定操作可能に表示されたアイコン画像である。各アイコン画像912a、912b、及び912cの近傍に、各アイコン画像912a、912b、及び912cを示す文字列が表示されてもよい。アイコン画像の近傍とは、アイコン画像の所定点(例えば、アイコン画像の重心点)から所定範囲内である。
ユーザによる入力装置24の操作によってアイコン画像912a、912b、及び912cのうちのいずれかのアイコン画像912が選択された場合、表示処理部251は、入力装置24から渡された仮想空間V2の表示指示を取得する。画像911が3次元仮想空間を当該3次元仮想空間内の所定の視点から見た画像である場合、3次元仮想空間内に配置された特定の3次元オブジェクトに対応する、2次元スクリーン面上の投影画像がユーザによって指定されると、入力装置24は、仮想空間V2の表示指示を表示処理部251に渡してもよい。表示処理部251は、仮想空間V2の表示指示とともに、ユーザによって選択されたアイコン画像912に関連付けられた仮想空間V2の識別情報を取得する。
端末記憶装置22は、1種類以上の仮想空間V2を表示するための各種データと、各仮想空間V2のそれぞれに関連付けられた、各仮想空間V2を識別するための識別情報と、を記憶する。表示処理部251は、仮想空間V2の表示指示及び識別情報の取得に応じて、取得された識別情報に関連付けられた、仮想空間V2を表示するための各種データを、端末記憶装置22から読み出す。表示処理部251は、読み出した各種データに基づいて仮想空間画面1000を表示する。
図10(a)は、端末装置2に表示される仮想空間画面1000の一例を示す図である。図10(a)に示される仮想空間画面1000は、仮想空間V2を示す画像1001を含み、仮想空間V2内に配置された、キャラクタオブジェクト1002a、1002b、1002c、及び1002dを更に含む。以下、仮想空間V2内に配置された、キャラクタオブジェクト1002a、1002b、1002c、及び1002dを、キャラクタオブジェクト1002と総称する場合がある。
仮想空間V2を示す画像1001において、特定のキャラクタオブジェクト1002a及び1002bの近傍に、文字列領域1003a及び1003bが含まれてもよい。特定のキャラクタオブジェクト1002の近傍とは、特定のキャラクタオブジェクト1002の所定点(例えば、特定のキャラクタオブジェクト1002の重心点)から所定範囲内である。また、仮想空間V2を示す画像1001には、仮想空間V2内に配置された、オブジェクト1004a、1004b等が含まれてもよい。
例えば、仮想空間V2は、所定のオフィス、商業施設、音楽ホール、又は駅舎等の建造物の内部を模した3次元仮想空間である。仮想空間V2は、駅前広場、野外コンサート場、又は公園等の屋外施設を模した3次元仮想空間でもよい。仮想空間V2を示す画像1001は、3次元仮想空間である仮想空間V2を、当該仮想空間V2内の所定の視点から見た画像である。この場合、例えば、表示処理部251は、所定の視点の視線方向に2次元スクリーンを配置し、3次元仮想空間である仮想空間V2内に配置された各種の3次元オブジェクトの3次元座標を当該2次元スクリーンに投影する。そして、表示処理部251は、各種のオブジェクトが投影された2次元スクリーン面の画像を画像1001として表示する。
仮想空間V2内における各種オブジェクトの配置処理の一例について説明する。まず、表示処理部251は、第1キャラクタテーブルT1を参照し、第1キャラクタテーブルT1に記憶されたキャラクタオブジェクトIDの中から、所定の選択対象条件を満たすキャラクタオブジェクトIDを選択対象として抽出する。所定の選択対象条件は、キャラクタオブジェクトIDに対し、使用可否を示す情報として使用可能を示す情報が関連付けられた顔画像が、少なくとも一つ以上関連付けられていることである。所定の選択対象条件には、キャラクタオブジェクトIDに対して、履歴を示す情報として、文字列が未だ表示されていないことを示す情報が少なくとも一つ以上関連付けられていること、が更に含まれてもよい。また、第1キャラクタテーブルT1に記憶された全てのキャラクタオブジェクトIDを選択対象として抽出してもよい。
表示処理部251は、抽出されたキャラクタオブジェクトIDの中から、所定の選択方法にしたがって、予め定められた数のキャラクタオブジェクトIDを表示対象のキャラクタオブジェクトIDとして選択する。所定の選択方法とは、抽出されたキャラクタオブジェクトIDの中から予め定められた数のキャラクタオブジェクトIDを、ランダムに選択する方法、又は、抽出されたキャラクタオブジェクトIDの中から予め定められた数のキャラクタオブジェクトIDを、所定の順番にしたがって選択する方法等である。予め定められた数は、1以上、且つ、選択対象として抽出されたキャラクタオブジェクトIDの数以下である。
次に、表示処理部251は、表示対象のキャラクタオブジェクトIDのそれぞれについて、ランダムに選択された属性及び種別、又は、所定の順番にしたがって選択された属性及び種別を特定する。次に、表示処理部251は、文字列テーブルT3を参照して、表示対象のキャラクタオブジェクトIDのそれぞれについて、各キャラクタオブジェクトIDに関連付けられた文字列IDのうち、特定された属性に関連付けられ且つ未だ表示されていないことを示す情報に関連付けられた文字列IDを一つ特定する。表示処理部251は、特定された属性に関連付けられ且つ未だ表示されていないことを示す情報に関連付けられた文字列IDが複数ある場合、特定された属性に関連付けられた複数の文字列IDの中から、ランダムに選択された又は所定の順番にしたがって選択された一つの文字列IDを特定する。また、表示処理部251は、特定された属性に関連付けられ且つ未だ表示されていないことを示す情報に関連付けられた文字列IDが文字列テーブルT3に記憶されていない場合、特定された属性以外の属性に関連付けられ且つ未だ表示されていないことを示す情報に関連付けられた文字列IDを一つ特定する。この処理により、既に端末装置2に表示された文字列が再度表示されなくなり、ユーザが仮想空間に飽きてしまうことを未然に防止することが可能となる。
次に、表示処理部251は、表示対象のキャラクタオブジェクトIDのそれぞれについて、各キャラクタオブジェクトIDに関連付けられた顔画像のうち、特定された属性及び種別の両方に関連付けられた顔画像を特定する。なお、特定された顔画像に関連付けられた使用可否を示す情報が、使用が許可されていないことを示す情報である場合、表示処理部251は、特定された種別以外の種別について顔画像の特定処理を再実行してもよい。または、この場合、表示処理部251は、特定された属性以外の属性について、上述の一つの文字列IDの特定処理及び顔画像の特定処理を再実行してもよい。
次に、表示処理部251は、表示対象のキャラクタオブジェクトIDのそれぞれについて、各キャラクタオブジェクトIDに関連付けられた本体オブジェクト、及び、特定された顔画像に基づいて、キャラクタオブジェクト1002を生成する。次に、表示処理部251は、仮想空間V2内の所定位置又はランダムに決定された位置に、生成されたキャラクタオブジェクト1002を配置する。次に、表示処理部251は、配置箇所が「空間」であるオブジェクトのうち、予め定められた、又は、ユーザによって指定されたオブジェクトのオブジェクトIDを、オブジェクトテーブルT5から抽出する。次に、表示処理部251は、仮想空間V2内の所定位置又はランダムに決定された位置に、抽出したオブジェクトIDに対応するオブジェクト1004を配置する。そして、表示処理部251は、表示対象のキャラクタオブジェクトIDのそれぞれについて、特定された一つの文字列IDに関連付けられた文字列を抽出し、抽出した文字列を含む文字列領域1003を、仮想空間V2を示す画像1001に含める。以上により、各種オブジェクトの配置処理が終了する。なお、仮想空間V2内における各種オブジェクトの配置処理は、仮想空間画面1000の表示の度に実行される。
仮想空間画面1000に含まれるキャラクタオブジェクト1002は、ユーザによって指定操作可能に表示される。各キャラクタオブジェクト1002には、各キャラクタオブジェクト1002に対応するキャラクタオブジェクトIDと、各キャラクタオブジェクト1002の近傍に表示された文字列領域1003に含まれる文字列の文字列IDとが、関連付けられている。なお、キャラクタオブジェクト1002c及び1002dのように、近傍に文字列領域1003が含まれないキャラクタオブジェクトが仮想空間V2に配置されてもよい。このようなキャラクタオブジェクト1002c及び1002dは、各種オブジェクトの配置処理において、一つの文字列の特定処理が実行されなかったキャラクタオブジェクトである。一つの文字列の特定処理が実行されなかったキャラクタオブジェクトは、表示対象のキャラクタオブジェクトIDが選択された際に、自動的にランダムに決定されたキャラクタオブジェクトである。また、近傍に文字列領域1003が含まれないキャラクタオブジェクト1002dは、近傍に文字列領域1003が含まれるキャラクタオブジェクト1002bに隣接するように配置されてもよい。このように、情報システム1は、キャラクタオブジェクト1002dを、キャラクタオブジェクト1002bの話を聞いているキャラクタオブジェクトとして表現することを可能とする。
ユーザによる入力装置24の操作によって、仮想空間画面1000に含まれるいずれかのキャラクタオブジェクト1002が選択された場合、表示処理部251は、選択されたキャラクタオブジェクト1002が、近傍に文字列領域1003が含まれないキャラクタオブジェクトであれば、入力装置24から動作指示を取得する。例えば、表示処理部251は、入力装置24から、動作指示とともに、ユーザによって選択されたキャラクタオブジェクト1002に関連付けられたキャラクタオブジェクトID並びにキャラクタオブジェクト1002の顔画像に関連付けられた属性及び種別を示す情報を取得する。次に、表示処理部251は、取得したキャラクタオブジェクトIDに関連付けられた動作のうち、取得した属性及び種別を示す情報の両方に関連付けられた動作を第2キャラクタテーブルT2から抽出する。そして、表示処理部251は、抽出した動作に基づいて、ユーザによって選択されたキャラクタオブジェクト1002を動作させる。なお、所定時間間隔(例えば5秒間)のうちに、傍に文字列領域1003が含まれないキャラクタオブジェクト1002がユーザによって所定回数(例えば3回)以上選択された場合、表示処理部251は、抽出した動作とは異なる動作を、ユーザによって選択されたキャラクタオブジェクト1002を動作させてもよい。または、この場合において、表示処理部251は、ユーザによって選択されたキャラクタオブジェクト1002の近傍に所定の文字列(例えば「止めて!」)を表示してもよい。
ユーザによる入力装置24の操作によって、仮想空間画面1000に含まれるいずれかのキャラクタオブジェクト1002が選択された場合、表示処理部251は、選択されたキャラクタオブジェクト1002が、近傍に文字列領域1003が含まれるキャラクタオブジェクトであれば、入力装置24から特別画面の表示指示を取得する。表示処理部251は、特別画面の表示指示とともに、ユーザによって選択されたキャラクタオブジェクト1002に関連付けられたキャラクタオブジェクトIDと文字列IDとを取得する。
表示処理部251は、キャラクタオブジェクトIDと文字列IDとの両方に関連付けられた特別画面IDを文字列テーブルT3から抽出する。そして、表示処理部251は、抽出した特別画面IDに関連付けられた、特別画面を表示するための表示データを端末記憶装置22から読み出して、読み出した表示データに基づいて特別画面1010を表示装置23に表示する。
図10(b)は、端末装置2に表示される特別画面1010の一例を示す図である。図10(b)に示される例では、特別画面1010は、キャラクタオブジェクト1011及び文字列領域1012を含む。
キャラクタオブジェクト1011は、特別画面1010の特別画面IDに関連付けられたキャラクタオブジェクトIDによって示されるキャラクタオブジェクトに関する画像である。例えば、キャラクタオブジェクトIDに関連付けられた顔画像が、所定の人物の顔写真画像である場合、キャラクタオブジェクト1011は、当該所定の人物の上半身の写真画像でもよく、また、当該所定の人物を描いたイラスト画像でもよい。キャラクタオブジェクトIDに関連付けられた顔画像が、所定の人物の顔写真画像である場合、キャラクタオブジェクト1011は、特別画面1010の特別画面IDに関連付けられたキャラクタオブジェクトIDに関連付けられた顔画像を示す情報によって表示される顔画像とは異なるものでもよい。
文字列領域1012は、特別画面1010の特別画面IDに関連付けられた文字列IDの文字列(仮想空間画面1000において、特別画面1010を表示するために指定したキャラクタオブジェクト1002の近傍に表示された文字列)に関連した内容の文字列を含む。例えば、文字列領域1012に表示された文字列は、特別画面1010の特別画面IDに関連付けられた文字列IDの文字列の少なくとも一部を含む。文字列領域1012には、特別画面1010の特別画面IDに関連付けられた文字列IDの文字列に関連しない内容の文字列が含まれてもよい。特別画面1010が端末装置2に表示された場合、端末装置2のスピーカ(図示せず)から、文字列領域1012に含まれる文字列が音声出力されてもよい。
図11は、情報システム1の動作シーケンスの一例を示す図である。この動作シーケンスは、予め端末記憶装置22及びサーバ記憶装置32のそれぞれに記憶されている制御プログラムに基づいて、主に端末処理装置25及びサーバ処理装置33により、端末装置2及びサーバ装置3の各要素と協働して実行される。
ユーザによる入力装置24の操作によって起動アイコンが選択された場合、表示処理部251は、入力装置24から起動指示を取得する(ステップS101)。
表示処理部251による起動指示の取得に応じて、端末装置2の端末送信部252は、端末記憶装置22に記憶されたユーザIDを読み出し、読み出したユーザIDとともに情報送信要求を端末通信I/F21を介してサーバ装置3に送信する(ステップS102)。
サーバ装置3のサーバ受信部331が端末装置2からの情報送信要求及びユーザIDをサーバ通信I/F31を介して受信した場合、サーバ送信部332は、受信したユーザIDに関連付けられた各種テーブルT1~T5を、サーバ記憶装置32から抽出する(ステップS103)。サーバ送信部332は、抽出した各種テーブルT1~T5を、受信したユーザIDによって示されるユーザの端末装置2にサーバ通信I/F31を介して送信する(ステップS104)。端末装置2の端末受信部253は、各種テーブルT1~T5を、端末通信I/F21を介して受信した場合、受信した各種テーブルT1~T5を端末記憶装置22に記憶する。
次に、端末装置2の表示処理部251は、表示処理を実行する(ステップS105)。なお、表示処理の詳細は後述する。端末装置2の端末送信部252は、所定のタイミングにおいて、端末記憶装置22に記憶された各種テーブルT1~T5とユーザIDとを読み出し、読み出した各種テーブルT1~T5及びユーザIDを、端末通信I/F21を介してサーバ装置3に送信する(ステップS106)。
サーバ装置3のサーバ受信部331が端末装置2からの各種テーブルT1~T5及びユーザIDをサーバ通信I/F31を介して受信した場合、サーバ送信部332は、受信した各種テーブルT1~T5を、受信したユーザIDと関連付けてサーバ記憶装置32に記憶する(ステップS107)。
図12は、表示処理の動作フローの一例を示す図である。図12に示され表示処理は、図11のステップS105において実行される。
まず、表示処理部251は、起動指示が取得(ステップS101)され、且つ、各種テーブルT1~T5が送信(ステップS104)されたことに応じて、メニュー画面900を表示装置23に表示する(ステップS201)。
表示処理部251は、ユーザによるメニュー画面900に対する入力装置24の操作によって仮想空間V1の表示指示が取得されたか否かを判定する(ステップS202)。取得された指示が仮想空間V1の表示指示でない(ゲームの開始指示である)場合(ステップS202-No)、ゲーム進行部254は、ゲームを開始する(ステップS203)。
ゲームが開始されると、ゲーム進行部254は、ユーザのゲーム操作によるゲーム進行指示に応じてゲームを進行させ、ゲームの終了条件が満たされたか否かを判定する(ステップS204)。ゲーム進行部254は、ゲームの終了条件が満たされていない(ゲームが進行中である)と判定した場合(ステップS204-No)、ゲームを進行させつつステップS204に処理を戻す。ゲーム進行部254は、ゲームの終了条件が満たされたと判定した場合(ステップS204-Yes)、表示処理を終了する。
取得された指示が仮想空間V1の表示指示である場合(ステップS202-Yes)、表示処理部251は、仮想空間V1を示す画像911を含む仮想空間画面910を表示装置23に表示する(ステップS205)。
次に、表示処理部251は、仮想空間画面910に含まれるアイコン画像912に対する、ユーザによる入力装置24の操作によって、仮想空間V2の表示指示が取得されたか否かを判定する(ステップS206)。表示処理部251は、仮想空間V2の表示指示が取得されていない(アイコン画像912が選択されていない)と判定した場合(ステップS206-No)、ステップS206に処理を戻す(アイコン画像912が選択されるまで待機する。)。
表示処理部251は、仮想空間V2の表示指示が取得された(アイコン画像912が選択された)と判定した場合(ステップS206-Yes)、アイコン画像912に対応する仮想空間V2を示す画像1001を含む仮想空間画面1000を表示装置23に表示する(ステップS207)。
次に、表示処理部251は、仮想空間画面1000に含まれるキャラクタオブジェクト1002に対する、ユーザによる入力装置24の操作によって、特別画面の表示指示が取得されたか否かを判定する(ステップS208)。表示処理部251は、特別画面の表示指示が取得されていない(キャラクタオブジェクト1002が選択されていない)と判定した場合(ステップS208-No)、ステップS208に処理を戻す(キャラクタオブジェクト1002が選択されるまで待機する。)。
表示処理部251は、特別画面の表示指示が取得された(キャラクタオブジェクト1002が選択された)と判定した場合(ステップS208-Yes)、キャラクタオブジェクト1002に対応する特別画面1010を表示装置23に表示し(ステップS209)、表示処理を終了する。
以上、詳述したとおり、本実施形態の情報システム1は、キャラクタオブジェクトの表示処理において、キャラクタオブジェクトの複数種類の画像情報(例えば、顔画像)を自動的に選択して当該表示処理に用いることができる。このように、情報システム1によって、キャラクタオブジェクトの描画処理の負荷を低減させつつキャラクタオブジェクトの多様な表現を実現することが可能となる。
(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、仮想空間V2内における各種オブジェクトの配置処理において、表示対象のキャラクタオブジェクトIDのそれぞれの属性及び種別の特定の前に、キャラクタオブジェクトの近傍に表示される文字列領域1003に含まれる文字列の文字列IDを特定する処理が実行されてもよい。この場合、表示処理部251は、文字列テーブルT3を参照して、表示対象のキャラクタオブジェクトIDのそれぞれについて、各キャラクタオブジェクトIDに関連付けら且つ未だ表示されていないことを示す情報に関連付けられた文字列IDの中から、ランダムに選択された又は所定の順番にしたがって選択された一つの文字列IDを特定する。また、表示処理部251は、キャラクタオブジェクトIDに関連付けら且つ未だ表示されていないことを示す情報に関連付けられた文字列IDが文字列テーブルT3に記憶されていない場合、キャラクタオブジェクトIDに関連付けられた、全て又は一部の文字列の履歴に関する情報を、未だ表示されていないことを示す情報に変更してもよい。これにより、情報システム1において、全ての文字列が表示された場合では、改めて表示した文字列を再表示させることが可能となる。
次に、表示処理部251は、表示対象のキャラクタオブジェクトIDのそれぞれについて、選択された一つの文字列IDに関連付けられた属性を示す情報を特定する。次に、表示処理部251は、表示対象のキャラクタオブジェクトIDのそれぞれについて、ランダムに選択された種別、又は、所定の順番にしたがって選択された種別を特定する。
そして、表示処理部251は、表示対象のキャラクタオブジェクトIDのそれぞれについて、顔画像の特定処理、キャラクタオブジェクト1002の生成及び配置処理、配置箇所が「空間」であるオブジェクトの配置処理、文字列領域1003を画像1001に含める処理、を順次実行し、各種オブジェクトの配置処理が終了する。
このように、当業者は、各処理の工程の実行順番を任意に変更して情報システム1の機能を実現することができる。
(変形例2)
キャラクタオブジェクトに含まれる本体オブジェクトの全部または一部は、ユーザによる端末装置2の操作によって変更されてもよい。例えば、本体オブジェクトが一又は複数の装着オブジェクトを装着しているものである場合、表示処理部251は、ユーザによる端末装置2の操作によって本体オブジェクトに装着されている装着オブジェクトを変更してもよい。
図13(a)は、端末装置2の表示装置23に表示される選択画面1100の一例を示す図である。選択画面1100は、本体オブジェクトに装着されている装着オブジェクトを変更するための操作画面の一例であり、メニュー画面900等に含まれる所定の装着オブジェクト変更ボタン(図示しない)がユーザによる入力装置24の操作によって選択された場合に表示される。
図13(a)に示される選択画面1100には、キャラクタオブジェクト1101、及び選択候補領域1102が含まれる。選択候補領域1102には、装着オブジェクトの種類を示す複数の種類オブジェクト1103、及び、装着オブジェクトを示す複数の装着候補オブジェクト1104が含まれる。キャラクタオブジェクト1101は、現在装着している装着オブジェクトを変更するためにユーザによって選択されたキャラクタオブジェクトである。キャラクタオブジェクト1101は、新たな装着オブジェクトを装着させるためにユーザによって選択されたキャラクタオブジェクトでもよい。キャラクタオブジェクト1101は、オブジェクト選択画面(図示しない)をユーザが操作することによって選択される。
表示処理部251は、ユーザによる入力装置24の操作によって複数の種類オブジェクト1103のいずれかが選択された場合、選択された種類オブジェクト1103に対応する、装着オブジェクトの種類を特定する。例えば、装着オブジェクトの配置箇所は、装着オブジェクトの種類の一例である。
表示処理部251は、ユーザテーブルT4及びオブジェクトテーブルT5を参照して、ユーザの保有オブジェクトのうちの、特定された種類(装着箇所)の装着オブジェクトを示す装着候補オブジェクト1104を選択画面1100に表示する。
次に、表示処理部251は、ユーザによる入力装置24の操作によって複数の装着候補オブジェクト1104のいずれかが選択された場合、選択された装着候補オブジェクト1104に対応するオブジェクトIDを特定する。そして、表示処理部251は、キャラクタオブジェクト1101において、特定された種類(装着箇所)の装着オブジェクトが現在装着されている場合、当該装着されている装着オブジェクトを、特定されたオブジェクトIDの装着オブジェクトに変更する。また、表示処理部251は、キャラクタオブジェクト1101において、特定された種類(装着箇所)の装着オブジェクトが現在装着されていない場合、特定されたオブジェクトIDの装着オブジェクトを新たにキャラクタオブジェクト1101に装着する。
ユーザが保有オブジェクトとして一又は複数の本体オブジェクトを保有している場合、装着候補オブジェクト1104として、一又は複数の本体オブジェクトが含まれてもよい。この場合、表示処理部251は、キャラクタオブジェクト1101の本体オブジェクトを、特定されたオブジェクトIDの本体オブジェクトに変更してもよい。
このように、ユーザが保有オブジェクトとして装着オブジェクトを保有している場合、仮想空間V2内に配置されるキャラクタオブジェクト1002の表示に多様性を持たせることが可能となる。
(変形例3)
仮想空間V2内に配置されたオブジェクト1004の全部又は一部は、ユーザによる端末装置2の操作によって選択されたものでもよい。図13(b)は、端末装置2に表示される選択画面1110の一例を示す図である。選択画面1100は、仮想空間V2内に配置させるオブジェクト1004を選択するための操作画面の一例であり、メニュー画面900等に含まれる所定のオブジェクト変更ボタン(図示しない)がユーザによる入力装置24の操作によって選択された場合に表示される。
図13(b)に示される選択画面1110には、仮想空間V2内に配置可能なオブジェクトを示す一又は複数の候補オブジェクト1111が含まれる。候補オブジェクト1111は、ユーザの保有オブジェクトのうちの、装着箇所が空間であるオブジェクトを示す候補オブジェクトである。
表示処理部251は、ユーザによる入力装置24の操作によって複数の候補オブジェクト1111のいずれかが選択された場合、選択された候補オブジェクト1111に対応するオブジェクトIDを特定する。そして、表示処理部251は、特定されたオブジェクトIDのオブジェクトを仮想空間V2内の所定位置又はランダムに決定された位置に配置する。
このように、ユーザが保有オブジェクトとして仮想空間V2内に配置可能なオブジェクトを保有している場合、仮想空間V2の表示に多様性を持たせることが可能となる。
なお、特定のオブジェクトが仮想空間V2内に配置された場合、ゲーム進行部254によって進行するゲームをユーザがプレイした際に、所定のゲーム効果が発生してもよい。所定のゲーム効果は、ゲームで獲得されるポイントが増加すること、ゲームに勝利する確率が増加すること、ゲームのクリア時間が短縮すること、ゲーム内において特別なゲーム媒体がユーザに付与されること等である。
これにより、ゲームの進行を有利にするために、ユーザが仮想空間の体験や操作を行うようになり、仮想空間の体験頻度を向上させることが可能となる。
(変形例4)
ユーザのユーザIDに関連付けられたパラメータ値Paは、ユーザによる操作に応じて変化してもよい。例えば、ユーザによる操作に応じて特別画面1010が表示された場合、表示処理部251は、パラメータ値Paを増加又は減少させてもよい。
上述の保有条件は、パラメータ値Paに関する条件でもよい。例えば、表示処理部251は、パラメータ値Paが所定値に到達した場合に、ユーザの保有オブジェクトとしてユーザに関連付けることが可能な一又は複数のオブジェクトを選択するための保有オブジェクト選択画面(図示せず)を表示してもよい。ユーザによる入力装置24の操作に応じて保有オブジェクト選択画面に表示されたオブジェクトが選択された場合、表示処理部251は、選択されたオブジェクトのオブジェクトIDを、ユーザの保有オブジェクトとしてユーザIDに関連付けてユーザテーブルT4に記憶する。また、例えば、表示処理部251は、パラメータ値Paの変化に応じてパラメータ値Pbが変化した場合に、保有オブジェクト選択画面(図示せず)を表示してもよい。
また、上述の保有条件は、ゲーム進行部254によって進行するゲームの進行状況に関する条件でもよい。例えば、上述の保有条件は、ゲーム進行部254によって進行するゲームのプレイ時間が所定時間を超えたこと、リズムゲーム等でフルコンボが成立したこと、当該ゲームの結果が勝利であること、当該ゲームで獲得した得点が所定値を超えたこと等でもよい。ゲームの進行状況に関する条件が満たされた場合、表示処理部251は、保有オブジェクト選択画面(図示せず)を表示してもよい。また、上述の保有条件は、所定の抽選ゲームによって、ユーザの保有オブジェクトとしてユーザに関連付けることが可能な一又は複数のオブジェクトが当選したことでもよく、ユーザが制御プログラムによる機能を所定日数連続で利用したこと(例えば、制御プログラムによる機能の利用に所謂「ログイン」が必要である場合において連続ログインが成立したこと)等でもよい。
このように、ユーザに関連付けられたパラメータ値の変化、又は、他のアプリケーションプログラムの進行に応じて、ユーザは保有オブジェクトを取得することができ、仮想空間V2の表示を多様化することが可能となる。また、保有オブジェクトが装着オブジェクトである場合、ユーザに関連付けられたパラメータ値の変化、又は、他のアプリケーションプログラムの進行に応じて、本体オブジェクトに適用される要素オブジェクトの種類が増加し、キャラクタオブジェクトを含む仮想空間V1の体験又は操作意欲を向上させることが可能となる。
(変形例5)
仮想空間画面1000に含まれる画像1001によって示される仮想空間V2の種類に応じて、仮想空間V2内のキャラクタオブジェクト1002の属性が制限されてもよい。例えば、仮想空間V2内における各種オブジェクトの配置処理における、属性及び種別の特定処理において、仮想空間V2の種類に対応する属性及び種別が特定されてもよい。例えば、仮想空間V2の種類が音楽ホールである場合、属性及び種別の特定処理において、「哀」の属性以外の属性の中からキャラクタオブジェクトの属性が特定されてもよい。
また、仮想空間画面1000が表示されたときの各種条件に応じて、仮想空間V2内のキャラクタオブジェクト1002の属性が制限されてもよい。例えば、仮想空間V2において、所定の関係のキャラクタオブジェクトが近傍に配置されたキャラクタオブジェクトの属性は、「怒」の属性以外の属性の中から選択される。また、仮想空間画面1000が表示されたときの時間が所定の期間(例えば、午前6時~午前10時)内である場合、仮想空間V2に配置されたキャラクタオブジェクトの属性は、「哀」及び「驚」の属性以外の属性の中から選択される。また、仮想空間V2に配置されたキャラクタオブジェクトに対応する人間が所定の活動(例えば、ライブを行う、スポーツを行う、SNSアプリケーションによって情報を公開する等)を行ってから所定の期間内においては、当該キャラクタオブジェクトの属性は「喜」及び「楽」の属性の中から選択される。
このように、各種条件に応じて、仮想空間V2内のキャラクタオブジェクト1002の属性を制限することができ、仮想空間V2の体験に対するユーザの興趣性を向上させることが可能となる。
(変形例6)
端末装置2の端末処理装置25により実現される機能の少なくとも一部は、端末装置2の端末処理装置25以外のプロセッサにより実現されてもよい。例えば、端末処理装置25により実現される機能の少なくとも一部は、サーバ装置3のサーバ処理装置33により実現されてもよい。具体的には、表示処理部251とゲーム進行部254の機能の一部は、サーバ装置3において実行されてもよい。例えば、端末装置2は、端末送信部252は、入力装置24からの各種指示を、端末装置2を操作するユーザのユーザIDとともにサーバ装置3に送信する。サーバ装置3のサーバ受信部331による各種指示及びユーザIDの受信に応じて、サーバ装置3のサーバ処理装置33は、表示処理部251とゲーム進行部254の機能を用いて、メニュー画面900、仮想空間画面910、仮想空間画面1000、特別画面1010、及びゲーム画面等の各種画面を表示するための表示情報を生成する(所謂「サーバレンダリング」)。そして、サーバ装置3のサーバ送信部332は、生成した表示情報を、受信したユーザによって識別されるユーザの端末装置2に送信する。端末装置2の端末受信部253による表示情報の受信に応じて、端末装置2の表示処理部251は、メニュー画面900、仮想空間画面910、仮想空間画面1000、特別画面1010、及びゲーム画面等の各種画面を表示する。
(変形例7)
端末装置2は、端末装置2に記憶された制御プログラムに含まれる各種命令を実行することにより、コミュニケーション画面等を表示する機能を有するが、端末装置2は、コミュニケーションサービスを実現するために、ウェブアプリケーションに組み込まれたブラウザ機能を呼び出し、このブラウザ機能を用いて、サーバ装置からウェブページ(HTML(Hyper Text Markup Language)等のマークアップ言語によって記述されたドキュメント)を受信し、このウェブページに組み込まれた制御プログラムを実行してもよい(所謂「ブラウザレンダリング」)。例えば、マークアップ言語として、HTML 5が用いられることにより、端末装置2は、新規な情報処理を容易に実行することができる。端末装置2の各種機能を実現させるために、このようなウェブアプリケーションを採用することにより、プログラムの製作者は、サーバ装置により送信されるウェブページに新しいプログラムを組み込むだけで新しい情報処理をクライアントサイド(端末装置側)に提供することができ、新しいプログラムの製作工数を大幅に抑えることが可能となる。また、クライアントサイドでは、新しい制御プログラムをダウンロードせずにウェブページを受信するだけで、新しいサービスの提供を受けることができ、制御プログラムのダウンロードに比べ、通信ネットワークの負荷、通信コスト及び/又は通信時間の低減が可能となり且つユーザのインターフェースの簡素化を実現することが可能となる。
当業者は、本発明の範囲から外れることなく、様々な変更、置換、及び修正をこれに加えることが可能である。
1 情報システム
2 端末装置
21 端末通信I/F
22 端末記憶装置
23 表示装置
24 入力装置
25 端末処理装置
251 表示処理部
252 端末送信部
253 端末受信部
254 ゲーム進行部
3 サーバ装置
31 サーバ通信I/F
32 サーバ記憶装置
33 サーバ処理装置
331 サーバ受信部
332 サーバ送信部
333 記憶処理部
4 外部装置
5 インターネット

Claims (11)

  1. 記憶装置を備える端末装置の制御プログラムであって、
    前記端末装置に、
    複数の被写体のそれぞれについて、本体オブジェクトに関する情報及び複数種類の顔画像に関する情報を前記記憶装置に記憶し、
    ユーザによる操作によって、前記複数の被写体のうちの一の被写体に対応するキャラクタオブジェクトの表示条件が満たされた場合、前記一の被写体の前記複数種類の顔画像の中から一の顔画像を自動的に選択し、
    前記選択された顔画像及び前記一の被写体の前記本体オブジェクトを少なくとも用いた前記キャラクタオブジェクトを含む仮想空間を表示すること、
    を実行させるための制御プログラム。
  2. 前記端末装置に、
    前記複数の被写体の中から前記一の被写体を自動的に選択し、
    前記選択された前記一の被写体の前記キャラクタオブジェクトの前記表示条件が満たされたか否かを判定すること、
    を実行させる、請求項1に記載の制御プログラム。
  3. 前記仮想空間の表示において、前記端末装置に、前記仮想空間に含まれる前記キャラクタオブジェクトに関する第1の文字列を表示すること、を実行させる、請求項1又は2に記載の制御プログラム。
  4. 前記端末装置に、複数の特性情報を前記記憶装置に記憶すること、を実行させ、
    前記顔画像の記憶において、前記複数種類の顔画像のそれぞれには、互いに異なる前記特性情報が関連付けられ、
    前記第1の文字列の表示において、前記端末装置に、それぞれが前記複数の特性情報のうちのいずれかの特性情報が関連付けられた複数の第1の文字列の中から、前記選択された顔画像と同一の前記特性情報が関連付けられている前記第1の文字列を選択すること、を実行させる、請求項3に記載の制御プログラム。
  5. 前記端末装置に、前記仮想空間に含まれる前記キャラクタオブジェクトに対する前記ユーザの指定操作に応じて、前記一の人物の写真画像を表示すること、を実行させ、
    前記一の人物の前記写真画像は、前記選択された顔画像と異なる、請求項4に記載の制御プログラム。
  6. 前記一の人物の前記写真画像の表示において、前記端末装置に、前記第1の文字列を含む第2の文字列を示す文字列を表示すること、を実行させる、請求項5に記載の制御プログラム。
  7. 前記端末装置に、前記仮想空間に含まれる前記キャラクタオブジェクトに対する前記ユーザの指定操作に応じて、前記キャラクタオブジェクトに所定の動作を行わせること、を実行させる、請求項1又は2に記載の制御プログラム。
  8. 前記端末装置に、複数の特性情報を前記記憶装置に記憶すること、を実行させ、
    前記顔画像の記憶において、前記複数種類の顔画像のそれぞれには、互いに異なる前記特性情報が関連付けられ、
    前記所定の動作を行わせることにおいて、前記端末装置に、それぞれが前記複数の特性情報のうちのいずれかの特性情報が関連付けられた複数の動作の中から、前記選択された一の顔画像と同一の前記特性情報が関連付けられている動作を前記所定の動作として選択すること、を実行させる、請求項7に記載の制御プログラム。
  9. 前記端末装置に、
    前記本体オブジェクトに適用される複数種類の要素オブジェクトを前記記憶装置に記憶し、
    前記写真画像の表示に応じて前記ユーザにポイントを付与し、前記ポイントに関する所定の付与条件が満たされた場合、前記複数種類の要素オブジェクトのうちのいずれかの要素オブジェクトを前記ユーザに関連付けて前記記憶装置に記憶すること、
    を実行させ、
    前記仮想空間の表示において、前記ユーザに関連付けられた前記要素オブジェクトの中から、前記ユーザによって選択された前記要素オブジェクトが適用された前記本体オブジェクトにより前記キャラクタオブジェクトが構成される、請求項5に記載の制御プログラム。
  10. 記憶装置を備える端末装置であって、
    複数の被写体のそれぞれについて、本体オブジェクトに関する情報及び複数種類の顔画像に関する情報を前記記憶装置に記憶し、
    ユーザによる操作によって、前記複数の被写体のうちの一の被写体に対応するキャラクタオブジェクトの表示条件が満たされた場合、前記一の被写体の前記複数種類の顔画像の中から一の顔画像を自動的に選択し、
    前記選択された顔画像及び前記一の被写体の前記本体オブジェクトを少なくとも用いた前記キャラクタオブジェクトを含む仮想空間を表示する、処理装置と、
    を備えることを特徴とする端末装置。
  11. 記憶装置を備える端末装置の制御方法であって、
    前記端末装置が、
    複数の被写体のそれぞれについて、本体オブジェクトに関する情報及び複数種類の顔画像に関する情報を前記記憶装置に記憶し、
    ユーザによる操作によって、前記複数の被写体のうちの一の被写体に対応するキャラクタオブジェクトの表示条件が満たされた場合、前記一の被写体の前記複数種類の顔画像の中から一の顔画像を自動的に選択し、
    前記選択された顔画像及び前記一の被写体の前記本体オブジェクトを少なくとも用いた前記キャラクタオブジェクトを含む仮想空間を表示すること、
    を含む制御方法。
JP2022105695A 2022-06-30 2022-06-30 端末装置の制御プログラム、端末装置、及び端末装置の制御方法 Pending JP2024005495A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022105695A JP2024005495A (ja) 2022-06-30 2022-06-30 端末装置の制御プログラム、端末装置、及び端末装置の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022105695A JP2024005495A (ja) 2022-06-30 2022-06-30 端末装置の制御プログラム、端末装置、及び端末装置の制御方法

Publications (1)

Publication Number Publication Date
JP2024005495A true JP2024005495A (ja) 2024-01-17

Family

ID=89539811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022105695A Pending JP2024005495A (ja) 2022-06-30 2022-06-30 端末装置の制御プログラム、端末装置、及び端末装置の制御方法

Country Status (1)

Country Link
JP (1) JP2024005495A (ja)

Similar Documents

Publication Publication Date Title
CN111095150A (zh) 机器人作为私人教练
JP5755593B2 (ja) サーバシステムおよびプログラム
KR102530747B1 (ko) 챌린지 게임 시스템
JP7170077B2 (ja) プログラム
JP6989533B2 (ja) ゲーム内位置ベースのゲームプレイコンパニオンアプリケーション
JP5526334B2 (ja) 遠隔無線操縦型オンライン対戦ゲームシステムにおけるゲーム画像生成方法
KR20140007997A (ko) 보드 게임을 제공하는 서버 및 방법, 보드 게임을 형성하는 블록
JP6796115B2 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
Joselli et al. An architecture for game interaction using mobile
US11628365B2 (en) Information processing system, storage medium, information processing apparatus and information processing method
JP2020018745A (ja) ゲームシステム及びプログラム
JP2019205645A (ja) ゲームプログラム、キャラクタ制御プログラム、方法、および情報処理装置
JP2005319191A (ja) ゲームシステム、プログラム、情報記憶媒体および画像生成方法
JP2021007198A (ja) 動画配信システム、動画配信方法、情報処理装置、動画配信プログラム及び動画視聴プログラム
JP2024005495A (ja) 端末装置の制御プログラム、端末装置、及び端末装置の制御方法
JP2022075925A (ja) ゲームシステム、ゲーム制御方法、及びゲーム制御プログラム
JP2015008987A (ja) プログラムおよびゲーム装置
JP6639561B2 (ja) ゲームプログラム、方法、および情報処理装置
JP6959267B2 (ja) 場所ベースゲームプレイコンパニオンアプリケーションを使用するチャレンジの生成
US20200353366A1 (en) System and method for augmented reality game system
JP2024056972A (ja) プログラムおよび情報処理システム
de Paiva Batista Navigating virtual reality worlds with the leap motion controller
KR20220105354A (ko) Ar 교육 콘텐츠 체험 서비스 제공 방법 및 시스템
WO2020261341A1 (ja) グラフィックゲームプログラム
JP2022107658A (ja) プログラム、方法、および情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430