JP6270973B1 - ゲーム方法およびゲームプログラム - Google Patents
ゲーム方法およびゲームプログラム Download PDFInfo
- Publication number
- JP6270973B1 JP6270973B1 JP2016241645A JP2016241645A JP6270973B1 JP 6270973 B1 JP6270973 B1 JP 6270973B1 JP 2016241645 A JP2016241645 A JP 2016241645A JP 2016241645 A JP2016241645 A JP 2016241645A JP 6270973 B1 JP6270973 B1 JP 6270973B1
- Authority
- JP
- Japan
- Prior art keywords
- field
- game
- user
- touch screen
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000012545 processing Methods 0.000 claims description 71
- 230000005540 biological transmission Effects 0.000 claims description 26
- 238000002834 transmittance Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 abstract description 15
- 238000001514 detection method Methods 0.000 description 35
- 238000003860 storage Methods 0.000 description 25
- 238000007726 management method Methods 0.000 description 18
- 238000013459 approach Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 10
- 230000009471 action Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 5
- 238000003825 pressing Methods 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000013523 data management Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000002250 progressing effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000005489 elastic deformation Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることが可能なゲーム方法を提供する。【解決手段】タッチスクリーン130を含む端末機器10で実行されるゲーム方法を提供する。当該ゲーム方法は、(a)仮想カメラと、第一のフィールドMFと、第一のフィールドMFからユーザが操作するプレイヤオブジェクト100がシームレスに移動可能な第二のフィールドBFと、を含む仮想空間を規定するステップと、(b)第一のフィールドMFおよび第二のフィールドBFの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ各画像データをタッチスクリーン130に表示させるステップと、(c)第一のフィールドMFがタッチスクリーン130に表示されている状態において所定の条件が満たされた場合に、第一のフィールドMFと第二のフィールドBFとの間を繋ぐ境界領域画像データCFを生成してタッチスクリーン130に表示させるステップと、を含む。【選択図】図13
Description
本開示は、ゲーム方法およびゲームプログラムに関する。
特許文献1には、各ゲームステージにおいて順次形成される複数のミッションをプレイヤキャラクタがクリアしてゆくゲームが開示されている。ユーザは、プレイヤキャラクタを操作して各ゲームステージでミッションを実行することにより、経験値を得ることができる。
"旧FF14 昔は世界がシームレスに繋がっていた。リムサからラノシアへの移動"、[online]、平成28年3月24日、You Tube、[平成28年12月2日検索]、インターネット<URL: https://www.youtube.com/watch?v=LiTQxURlCu4>
特許文献1に開示のゲームでは、各ゲームステージに移動する際には、対象のゲームステージを選択し、当該ゲームステージに関連付けられたゲーム空間へ移動する構成となっている。ところで、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用したゲームにおいては、複数のゲームステージのデータ(ゲームフィールドデータ)を適切なタイミングで読み込んで繋ぎ合わせる処理をすることにより、ユーザにシームレス感を提供している(非特許文献1参照)。このとき、複数のゲームフィールドデータの境界が目立っては興ざめであるため、ゲームフィールド同士のつなぎ目が目立たないように作り込む必要があり、手間がかかる。
本開示は、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることが可能なゲーム方法およびゲームプログラムを提供することを目的とする。
本開示に示す一実施形態によれば、タッチスクリーンを含む端末機器で実行されるゲーム方法が提供される。
当該ゲーム方法は、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
(b)前記第一のフィールドおよび前記第二のフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、
(c)前記第一のフィールドが前記タッチスクリーンに表示されている状態において所定の条件が満たされた場合に、前記第一のフィールドと前記第二のフィールドとの間を繋ぐ境界領域画像データを生成して前記タッチスクリーンに表示させるステップと、
を含む。
当該ゲーム方法は、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
(b)前記第一のフィールドおよび前記第二のフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、
(c)前記第一のフィールドが前記タッチスクリーンに表示されている状態において所定の条件が満たされた場合に、前記第一のフィールドと前記第二のフィールドとの間を繋ぐ境界領域画像データを生成して前記タッチスクリーンに表示させるステップと、
を含む。
また、本開示に示す一実施形態によれば、上記に記載のゲーム方法をコンピュータに実行させるためのゲームプログラムが提供される。
本開示によれば、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることが可能なゲーム方法およびゲームプログラムを提供することができる。
[本開示が示す実施形態の説明]
本開示が示す実施形態の概要を説明する。
(1)本開示の一実施形態に係るゲーム方法は、タッチスクリーンを含む端末機器で実行されるゲーム方法である。
当該ゲーム方法は、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
(b)前記第一のフィールドおよび前記第二のフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、
(c)前記第一のフィールドが前記タッチスクリーンに表示されている状態において所定の条件が満たされた場合に、前記第一のフィールドと前記第二のフィールドとの間を繋ぐ境界領域画像データを生成して前記タッチスクリーンに表示させるステップと、
を含む。
本開示が示す実施形態の概要を説明する。
(1)本開示の一実施形態に係るゲーム方法は、タッチスクリーンを含む端末機器で実行されるゲーム方法である。
当該ゲーム方法は、
(a)仮想カメラと、第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
(b)前記第一のフィールドおよび前記第二のフィールドの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ前記各画像データを前記タッチスクリーンに表示させるステップと、
(c)前記第一のフィールドが前記タッチスクリーンに表示されている状態において所定の条件が満たされた場合に、前記第一のフィールドと前記第二のフィールドとの間を繋ぐ境界領域画像データを生成して前記タッチスクリーンに表示させるステップと、
を含む。
上記方法によれば、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることができる。
(2)前記境界領域画像データは、前記第一のフィールドおよび前記第二のフィールドの各画像データに基づいて生成されても良い。
上記方法によれば、境界領域画像データを少ない信号処理量で形成することができる。
(3)前記境界領域画像データは、前記第一のフィールドおよび前記第二のフィールドのいずれか一方の画像データに、他方の画像データに対して透過処理を施した透過処理データを重畳することにより生成されても良い。
(4)前記境界領域画像データは、透過率の異なる複数の前記透過処理データを、前記透過率のグラデーションがつくように並べることで生成されても良い。
(5)前記第一のフィールドおよび前記第二のフィールドは、前記プレイヤオブジェクトが各フィールド内の上下方向および水平方向に移動可能な二次元フィールドであり、
前記境界領域画像データは、前記タッチスクリーン上に表示される地面の断面画像部分に表示されても良い。
前記境界領域画像データは、前記タッチスクリーン上に表示される地面の断面画像部分に表示されても良い。
これらの方法によれば、第一のフィールドと第二のフィールドとの繋ぎ目を自然に見せることができる。
(6)上記のゲーム方法は、
(d)前記仮想空間において、前記境界領域画像データの上方に境界用オブジェクトを配置するステップと、
(e)前記プレイヤオブジェクトを、前記第一のフィールドから前記境界用オブジェクトの後方側を通り抜けさせて前記第二のフィールドへと移動させるステップと、
をさらに含んでも良い。
(d)前記仮想空間において、前記境界領域画像データの上方に境界用オブジェクトを配置するステップと、
(e)前記プレイヤオブジェクトを、前記第一のフィールドから前記境界用オブジェクトの後方側を通り抜けさせて前記第二のフィールドへと移動させるステップと、
をさらに含んでも良い。
上記方法によれば、プレイヤオブジェクトが移動する空間の背景部分における第一のフィールドと第二のフィールドとの繋ぎ目の画像データを別途作成する必要がなく、制作負荷を低減することができる。
(7)前記所定の条件は、前記第一のフィールドの所定位置に配置された対象オブジェクトが前記タッチスクリーンに含まれていること、または、前記対象オブジェクトと前記仮想カメラあるいは前記プレイヤオブジェクトとの位置関係が所定条件を満たしていることを含んでも良い。
上記方法によれば、適切なタイミングで境界領域画像データの生成を開始することができる。
(8)本開示の一実施形態に係るプログラムは、上記(1)から(7)のいずれかに記載のゲーム方法をコンピュータに実行させるためのゲームプログラムである。
この構成によれば、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることが可能なゲームプログラムを提供することができる。
[本開示が示す実施形態の詳細]
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
以下、本開示が示す実施形態について図面を参照しながら説明する。なお、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は繰り返さない。
本実施形態において、ユーザは、例えばスマートフォンなどの、タッチスクリーンを搭載した情報処理装置を操作して、ゲームサーバと、スマートフォンとの間でゲームに関するデータを送受信しながらゲームを進行させる。ゲームは、ユーザが一人でプレイするシングルプレイと、ユーザが他のユーザとともにプレイするマルチプレイとに対応する。
図1は、実施の形態のゲーム配信システム1の構成を示す図である。図1に示すように、ゲーム配信システム1は、ユーザが使用する情報処理装置と、サーバ20とを含み、これらの装置がネットワーク30によって互いに通信可能に接続されている。
図1の例では、ユーザが使用する情報処理装置として、ユーザ端末10A、ユーザ端末10Bおよびユーザ端末10C(以下、ユーザ端末10A、10B、10Cなどのユーザ端末を総称して「ユーザ端末10」と記載することもある)など複数の携帯端末を示している。ユーザ端末10Aとユーザ端末10Bとは、無線基地局31と通信することにより、ネットワーク30と接続する。ユーザ端末10Cは、家屋などの施設に設置される無線ルータ32と通信することにより、ネットワーク30と接続する。ユーザ端末10は、タッチスクリーンを備える携帯端末であり、例えば、スマートフォン、ファブレット、タブレットなどである。
ユーザ端末10は、ゲームプログラムを実行することにより、ゲームプログラムに応じたゲームをプレイする環境をユーザに対して提供する。ユーザ端末10は、例えば、アプリ等を配信するプラットフォームを介してゲームプログラムをインストールする。ユーザ端末10は、ユーザ端末10にインストールされたゲームプログラム、または、予めプリインストールされているゲームプログラムを実行することで、ユーザによるゲームのプレイを可能とする。ユーザ端末10は、ゲームプログラムを読み込んで実行することにより、サーバ20と通信し、ゲームの進行に応じてゲームに関連するデータをユーザ端末10とサーバ20との間で送受信する。
サーバ20は、ゲームのプレイに必要なデータを、適宜、ユーザ端末10へ送信することで、ユーザ端末10でのゲームのプレイを進行させる。サーバ20は、ゲームをプレイする各ユーザの、ゲームに関連する各種データを管理する。サーバ20は、ユーザ端末10と通信し、各ユーザのゲームの進行に応じて、画像、音声、テキストデータその他のデータをユーザ端末10へ送信する。
ゲームプログラムは、ユーザがゲームをプレイするモードとして、一人のユーザがプレイする場合(シングルプレイ)と、複数人のユーザが協同してプレイする場合(マルチプレイ)とに対応している。例えば、ゲーム配信システム1において、サーバ20が、マルチプレイに参加するユーザを特定して各ユーザの各ユーザ端末10と通信すること等により、マルチプレイでゲームをプレイする環境を各ユーザに提供する。
ゲーム配信システム1は、マルチプレイに対応することにより、例えば、アクションゲームであれば、ユーザ同士が協力してゲームを進行させること、または、ユーザ同士で対戦することなどを可能とする。
図1に示すようにサーバ20は、ハードウェア構成として、通信IF(Interface)22と、入出力IF23と、メモリ25と、ストレージ26と、プロセッサ29とを備え、これらが通信バスを介して互いに接続されている。
通信IF22は、例えばLAN(Local Area Network)規格など各種の通信規格に対応しており、ユーザ端末10など外部の通信機器との間でデータを送受信するためのインタフェースとして機能する。
入出力IF23は、サーバ20への情報の入力を受け付けるとともに、サーバ20の外部へ情報を出力するためのインタフェースとして機能する。入出力IF23は、マウス、キーボード等の情報入力機器の接続を受け付ける入力受付部と、画像等を表示するためのディスプレイ等の情報出力機器の接続を受け付ける出力部とを含む。
メモリ25は、処理に使用されるデータ等を記憶するための記憶装置である。メモリ25は、例えば、プロセッサ29が処理を行う際に一時的に使用するための作業領域をプロセッサ29に提供する。メモリ25は、ROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置を含んで構成されている。
ストレージ26は、プロセッサ29が読み込んで実行するための各種プログラム及びデータを記憶するための記憶装置である。ストレージ26が記憶する情報は、ゲームプログラム、ゲームプログラムに関連する情報、ゲームプログラムをプレイするユーザの情報その他の情報を含む。ストレージ26は、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶装置を含んで構成されている。
プロセッサ29は、ストレージ26に記憶されるプログラム等を読み込んで実行することにより、サーバ20の動作を制御する。プロセッサ29は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等を含んで構成される。
図2は、ユーザ端末10の構成を示すブロック図である。図2に示すように、ユーザ端末10は、アンテナ110と、無線通信IF120と、タッチスクリーン130と、入出力IF140と、記憶部150と、音声処理部160と、マイク170と、スピーカ180と、制御部190とを含む。
アンテナ110は、ユーザ端末10が発する信号を電波として空間へ放射する。また、アンテナ110は、空間から電波を受信して受信信号を無線通信IF120へ与える。
無線通信IF120は、ユーザ端末10が他の通信機器と通信するため、アンテナ110等を介して信号を送受信するための変復調処理などを行う。無線通信IF120は、チューナー、高周波回路などを含む無線通信用の通信モジュールであり、ユーザ端末10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部190へ与える。
タッチスクリーン130は、ユーザからの入力を受け付けて、各種情報をディスプレイ132に出力する。タッチスクリーン130は、ユーザの入力操作を受け付けるためのタッチパネル131と、メニュー画面やゲームの進行を画面に表示するためのディスプレイ132と、を含む。タッチパネル131は、例えば静電容量方式のものを用いることによって、ユーザの指などが接近したことを検出する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)、有機EL(electroluminescence)その他の表示装置によって実現される。
入出力IF140は、ユーザ端末10への情報の入力を受け付けるとともに、ユーザ端末10の外部へ情報を出力するためのインタフェースとして機能する。
記憶部150は、フラッシュメモリ、RAM(Random Access Memory)等により構成され、ユーザ端末10が使用するプログラム、および、ユーザ端末10がサーバ20から受信する各種データ等を記憶する。
音声処理部160は、音声信号の変復調を行う。音声処理部160は、マイク170から与えられる信号を変調して、変調後の信号を制御部190へ与える。また、音声処理部160は、音声信号をスピーカ180へ与える。音声処理部160は、例えば、音声処理用のプロセッサによって実現される。マイク170は、音声信号の入力を受け付けて制御部190へ出力するための音声入力部として機能する。スピーカ180は、音声信号を、ユーザ端末10の外部へ出力するための音声出力部として機能する。
制御部190は、記憶部150に記憶されるプログラムを読み込んで実行することにより、ユーザ端末10の動作を制御する。制御部190は、例えば、アプリケーションプロセッサによって実現される。
ユーザ端末10がゲームプログラム151を実行する処理について、より詳細に説明する。記憶部150は、ゲームプログラム151と、ゲーム情報152と、ユーザ情報153とを記憶する。ユーザ端末10は、例えば、サーバ20からゲームプログラムをダウンロードして記憶部150に記憶させる。また、ユーザ端末10は、ゲームの進行に伴いサーバ20と通信することで、ゲーム情報152およびユーザ情報153等の各種のデータをサーバ20と送受信する。
ゲームプログラム151は、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲーム情報152は、ゲームプログラム151が参照する各種のデータを含む。ゲーム情報152は、例えば、ゲームにおいて仮想空間に配置するオブジェクトの情報、オブジェクトに対応付けられた効果の情報(ゲームキャラクタに設定されるスキルの情報などを含む)などを含む。ユーザ情報153は、ゲームをプレイするユーザについての情報を含む。ユーザ情報153は、例えば、ゲームをプレイするユーザ端末10のユーザを識別する情報、マルチプレイ時に協働してゲームをプレイする他のユーザを識別する情報などを含む。
制御部190は、ゲームプログラム151を読み込んで実行することにより、入力操作受付部191と、キャラクタ操作検出部193と、オブジェクト制御部195と、表示制御部197と、の各機能を発揮する。
入力操作受付部191は、タッチスクリーン130の出力に基づいて、ユーザの入力操作を受け付ける。具体的には、入力操作受付部191は、ユーザの指などがタッチパネル131に接近したことを、タッチスクリーン130を構成する面の横軸および縦軸からなる座標系の座標として検出する。
入力操作受付部191は、タッチスクリーン130に対するユーザの操作を判別する。入力操作受付部191は、例えば、(1)「接近操作」、(2)「リリース操作」、(3)「タップ操作」、(4)「長押し操作(ロングタッチ操作)」、(5)「ドラッグ操作(スワイプ操作)」などのユーザの操作を判別する。入力操作受付部191が判別するユーザの操作は、上記に限られない。例えば、タッチパネル131が、ユーザがタッチパネル131に対して押下する圧力の大きさを検出可能な機構を有する場合、入力操作受付部191は、ユーザが押下した圧力の大きさを判別する。
(1)「接近操作」とは、ユーザが指などをタッチスクリーン130に接近させる操作である。タッチスクリーン130は、ユーザの指などが接近したこと(ユーザの指などがタッチスクリーン130に接触したことを含む)をタッチパネル131により検出し、検出したタッチスクリーン130の座標に応じた信号を入力操作受付部191へ出力する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出しない状態から、接近を検出したときに、状態が「タッチオン状態」になったと判別する。
(2)「リリース操作」とは、ユーザがタッチスクリーン130を接近操作している状態を止める操作である。制御部190は、例えば、ユーザが指をタッチスクリーン130に接触させている状態から、指を離す操作をしたときに、ユーザの操作を「リリース操作」と判別する。制御部190は、タッチスクリーン130へのユーザの指などの接近を検出している状態から、接近を検出しない状態になったときに、状態が「タッチオン状態」から「タッチオフ状態」になったと判別する。
(3)「タップ操作」とは、ユーザがタッチスクリーン130に対して指などを接近させる接近操作をした後に、接近操作をした位置でリリース操作を行うことである。入力操作受付部191は、接近操作が検出されない状態(ユーザの指などがタッチスクリーン130から離れており、タッチパネル131がユーザの指などの接近を検出していない状態)から、タッチスクリーン130の出力に基づいて、ユーザの指などが接近したことを検出した場合に、その検出した座標を「初期タッチ位置」として保持する。制御部190は、初期タッチ位置の座標と、リリース操作をした座標とがほぼ同一である場合(接近操作が検出された座標から一定範囲内の座標においてリリース操作の座標が検出された場合)に、ユーザの操作を「タップ操作」と判別する。
(4)「長押し操作」とは、ユーザがタッチスクリーン130を押し続ける操作である。制御部190は、ユーザの操作を検出して接近操作を判別してから、接近操作が検出された座標(あるいは当該座標を含む一定領域内)において接近操作が継続している時間が一定時間を超えた場合に、ユーザの操作を「長押し操作」(「長押し操作」を、「ロングタッチ操作」と称することもある)と判別する。
(5)「ドラッグ操作」とは、ユーザがタッチスクリーン130に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。
キャラクタ操作検出部193は、タッチスクリーン130に対するユーザの入力操作に基づいて、ゲームに登場するプレイヤキャラクタ(以下、「自キャラクタ」と称することもある)に所定の動作を実行させる入力操作の操作内容を検出する。キャラクタ操作検出部193は、ユーザの入力操作に基づいて、例えば、プレイヤキャラクタを移動させる方向を検出する。すなわち、キャラクタ操作検出部193は、ユーザがプレイヤキャラクタの移動方向を指定する入力操作を受け付ける。
具体的には、キャラクタ操作検出部193は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させて、入力操作受付部191がタッチパネル131にユーザの指が接近したことを検出した座標を初期タッチ位置として、ユーザがドラッグ操作を行った場合に、初期タッチ位置の座標とタッチスクリーン130の検出結果とに基づいて、プレイヤキャラクタの移動方向を検出する。キャラクタ操作検出部193での具体的な処理については、後述する。
オブジェクト制御部195は、ユーザ端末10がゲームプログラムを実行することにより進行されるゲームに登場する各種オブジェクト、および、入力操作受付部191が受け付けたユーザの操作内容に基づいて生成される各種オブジェクト(例えば、GUI(Graphical User Interface)画面)の生成、変形、移動などの処理を制御する。オブジェクト制御部195は、例えば、ユーザがプレイヤキャラクタを移動させるためのタッチスクリーン130に対する入力操作に基づいて、プレイヤキャラクタの移動方向を示す操作オブジェクト40を生成する。操作オブジェクト40の詳細については、後述する。
表示制御部197は、キャラクタ操作検出部193およびオブジェクト制御部195での制御に応じて、ディスプレイ132の表示内容を決定し、決定した表示内容に従った画像、テキスト等の各種の情報をディスプレイ132に出力する。例えば、表示制御部197は、プレイヤキャラクタをディスプレイ132の一定領域に表示させた状態で、入力操作受付部191によって受け付けた入力操作に応じて操作オブジェクト40を表示させつつプレイヤキャラクタに所定の動作(例えば、移動やジャンプ動作)を行わせる画面表示を行う。
図3は、サーバ20の機能的な構成を示すブロック図である。図3を参照して、サーバ20の詳細な構成を説明する。サーバ20は、プログラムに従って動作することにより、通信部220と、記憶部250と、制御部290としての機能を発揮する。
通信部220は、サーバ20がユーザ端末10などの外部の通信機器とネットワーク30を介して通信するためのインタフェースとして機能する。
記憶部250は、ユーザ端末10においてユーザがゲームを進行させるための各種プログラムおよびデータを記憶する。ある局面において、記憶部250は、ゲームプログラム251と、ゲーム情報252と、ユーザ情報253とを記憶する。
ゲームプログラム251は、サーバ20がユーザ端末10と通信して、ユーザ端末10においてゲームを進行させるためのプログラムである。ゲームプログラム251は、ゲームを進行させるための各種データであるゲーム情報252およびユーザ情報253等を参照して、ユーザの入力操作に応じてゲームを進行させる。ゲームプログラム251は、制御部290に実行されることにより、ユーザ端末10とデータを送受信する処理、ユーザ端末10のユーザが行った操作内容に応じてゲームを進行させる処理、ゲームをプレイするユーザの情報を更新する処理などをサーバ20に行わせる。
ゲーム情報252は、ゲームプログラム251が参照する各種のデータを含む。ゲーム情報252は、例えば、オブジェクト管理テーブル252Aと、ミッション管理テーブル252Bとを含む。
オブジェクト管理テーブル252Aは、ゲームの仮想空間内に配置されるオブジェクトの設定を示す。ユーザ端末10は、ゲームプログラム151を実行することにより、仮想空間内に配置されるオブジェクトを、仮想空間内に配置される仮想カメラによって撮影した画像をディスプレイ132に表示することでゲームを進行させる。
ここで、オブジェクトとしては、例えば、ユーザが操作するゲームキャラクタを示すオブジェクト、ゲームキャラクタが装着する対象物を示すオブジェクトなど様々なものがある。これらオブジェクトは、ユーザがタッチスクリーン130に対して予め定められた入力操作を行うこと、ゲームの進行に伴い一定の条件を満たすこと、その他の様々な事象の発生を契機として、オブジェクトに対応付けられた処理が行われる。
例えば、あるオブジェクトに対してユーザがタッチスクリーン130に対して接近操作を行うことで、オブジェクトがユーザに選択された状態となる。また、例えば、ユーザがドラッグ操作を行うことで、ユーザに選択されているオブジェクトがユーザの入力操作に応じて移動する等の処理が行われる。また、例えば、ユーザがオブジェクトに対してタッチ操作をすることで、ユーザに対し、ゲームを有利に進めるための報酬が付与される等の処理が行われる。
ミッション管理テーブル252Bは、オブジェクトを識別する情報と、オブジェクトに対応付けられたミッションの情報とが対応付けられている。ここで、ミッションとは、クエストとも呼ばれ、例えば、敵キャラクタを倒したり、所定のキャラクタを救出したりすることで、ユーザがゲームを進行させることができるものである。例えば、ミッションをクリアした場合には、所定の報酬(例えばコイン)をユーザが得る等の、ゲームを有利に進行させられる効果が生じる。ミッション管理テーブル252Bには、各ミッションが、後述の複数のミッション発注所のそれぞれと関連付けられて記憶されている。また、各ミッションの情報には、当該ミッションに関連付けられたミッション対象キャラクタの出現場所、難易度、報酬などの情報が含まれている。
ユーザ情報253は、ゲームをプレイするユーザについての情報である。ユーザ情報253は、ユーザ管理テーブル253Aを含む。ユーザ管理テーブル253Aは、各ユーザを識別する情報と、ユーザがゲームを進行させた度合いを示す情報と、ユーザがゲーム内で保有するアイテム、ゲームキャラクタ、ゲームキャラクタが使用する装着物等の情報などを含む。
制御部290は、記憶部250に記憶されるゲームプログラム251を実行することにより、送受信部291、サーバ処理部292、データ管理部293、マッチング部294、計測部295としての機能を発揮する。
送受信部291は、ゲームプログラム151を実行するユーザ端末10から、各種情報を受信し、ユーザ端末10に対し、各種情報を送信する。ユーザ端末10とサーバ20とは、ユーザに関連付けられるオブジェクトを仮想空間に配置する要求、オブジェクトを削除する要求、オブジェクトを移動させる要求、ユーザが獲得する報酬に応じて各種パラメータを更新する要求、ゲームを進行させるための画像、音声その他のデータ、サーバ20からユーザ端末10へ送信される通知などの情報を送受信する。
サーバ処理部292は、サーバ20全体の動作を制御し、各種のプログラムを呼び出す等によりゲームの進行に必要な処理を行う。サーバ処理部292は、例えば、ユーザ端末10から受信した情報に基づいて、ゲーム情報252、ユーザ情報253、などのデータを更新し、ユーザ端末10に各種データを送信することでゲームを進行させる。
データ管理部293は、サーバ処理部292の処理結果に従って、記憶部250に記憶される各種データを更新する処理、データベースにレコードを追加/更新/削除する処理などを行う。
マッチング部294は、複数のユーザを関連付けるための一連の処理を行う。マッチング部294は、例えば、ユーザがマルチプレイを行うための入力操作を行った場合に、ゲームを協同してプレイさせるユーザを関連付ける処理などを行う。
計測部295は、時間を計測する処理を行う。計測部295は、例えば、仮想空間に配置される各オブジェクトについて時間の経過を計測する。また、計測部295は、ゲームが進行している時間を計測する。サーバ20は、ユーザ端末10から、ユーザ端末10においてゲームプログラム151を実行して計測される各種の計測結果の情報を受信し、受信した情報と、計測部295の計測結果とを照合することで、ユーザ端末10とサーバ20とで、各種の時間に関する情報を同期させる。
図4は、本実施形態に係るユーザ端末10のタッチスクリーン130に表示されるゲーム画面の一例を示す。
図4の画面例は、ユーザが操作する自キャラクタ100(キャラクタオブジェクト、プレイヤキャラクタの一例)に、所定の動作を行わせるための入力操作を受け付ける画面である。制御部190は、タッチスクリーン130に、ユーザが操作するプレイヤキャラクタである自キャラクタ100と、対戦相手(敵)となるキャラクタである相手キャラクタ200(以下、ミッション対象キャラクタと称する場合もある)とを表示させて、ユーザに対し、自キャラクタ100に所定の動作を行わせるための入力操作を受け付ける。自キャラクタ100および相手キャラクタ200は、ユーザ端末10を縦型となるように置いたときに、その上下方向においてタッチスクリーン130の中央付近(例えば、タッチスクリーン130をその上下方向に三分割したときの中央の領域内)に、例えば、左右方向において進行方向に視野がやや広くなるように表示される。タッチスクリーン130の下方には、例えば地面の断面(図4のドット模様の部分)が表示されている。タッチスクリーン130の下半部、すなわち地面の断面が表示された部分は、後述の操作オブジェクト40を操作するためのスペースとして利用可能である。ユーザは、タッチスクリーン130の任意位置への操作によって、自キャラクタ100を操作することができる。ユーザが、例えば、ディスプレイ132の左右方向に沿った方向(図4の矢印Aの方向)のドラッグ操作を入力した場合、制御部190は、そのドラッグ操作を受け付けて、自キャラクタ100をドラッグ操作の方向に対応する方向(例えば、矢印Bの方向)に移動させるよう制御する。なお、本例では、制御部190は、ドラッグ操作の方向に基づいて、仮想空間内に規定された二次元フィールドにおいて、自キャラクタ100を上下方向および水平方向に移動させることができる。
図4の画面例は、ユーザが操作する自キャラクタ100(キャラクタオブジェクト、プレイヤキャラクタの一例)に、所定の動作を行わせるための入力操作を受け付ける画面である。制御部190は、タッチスクリーン130に、ユーザが操作するプレイヤキャラクタである自キャラクタ100と、対戦相手(敵)となるキャラクタである相手キャラクタ200(以下、ミッション対象キャラクタと称する場合もある)とを表示させて、ユーザに対し、自キャラクタ100に所定の動作を行わせるための入力操作を受け付ける。自キャラクタ100および相手キャラクタ200は、ユーザ端末10を縦型となるように置いたときに、その上下方向においてタッチスクリーン130の中央付近(例えば、タッチスクリーン130をその上下方向に三分割したときの中央の領域内)に、例えば、左右方向において進行方向に視野がやや広くなるように表示される。タッチスクリーン130の下方には、例えば地面の断面(図4のドット模様の部分)が表示されている。タッチスクリーン130の下半部、すなわち地面の断面が表示された部分は、後述の操作オブジェクト40を操作するためのスペースとして利用可能である。ユーザは、タッチスクリーン130の任意位置への操作によって、自キャラクタ100を操作することができる。ユーザが、例えば、ディスプレイ132の左右方向に沿った方向(図4の矢印Aの方向)のドラッグ操作を入力した場合、制御部190は、そのドラッグ操作を受け付けて、自キャラクタ100をドラッグ操作の方向に対応する方向(例えば、矢印Bの方向)に移動させるよう制御する。なお、本例では、制御部190は、ドラッグ操作の方向に基づいて、仮想空間内に規定された二次元フィールドにおいて、自キャラクタ100を上下方向および水平方向に移動させることができる。
タッチスクリーン130の左右方向の端部(図4では左端)には、各種のユーザインターフェース画像300が表示されていても良い。UI画像300には、例えば、マップを表示するためのUI画像300A、キャラクタを変更するためのUI画像300B、スキル(ゲーム内で自キャラクタ100により行われる攻撃アクションの一つ)を発動させるためのUI画像300Cが含まれ得る。
<1.自キャラクタの動作制御>
図5は、キャラクタ操作検出部193が、ユーザの入力操作に応じて自キャラクタ100を移動させる方向を検出する処理を示す図である。キャラクタ操作検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、自キャラクタ100を移動させる方向を検出する。
図5は、キャラクタ操作検出部193が、ユーザの入力操作に応じて自キャラクタ100を移動させる方向を検出する処理を示す図である。キャラクタ操作検出部193は、ユーザがタッチスクリーン130を押していない状態から、指などをタッチパネル131に接近させてタッチスクリーン130を押した位置(初期タッチ位置)を起点と設定する。入力操作受付部191は、ユーザの操作をドラッグ操作と判別している場合に、起点となる座標と、タッチスクリーン130がユーザの指などの接近を検出している座標とに基づいて、自キャラクタ100を移動させる方向を検出する。
図5の状態(A)は、タッチスクリーン130からユーザの指が離れた状態から、ユーザが指をタッチスクリーン130に接近させた状態を示す。入力操作受付部191は、ユーザの指がタッチスクリーン130に接近したことを検出し、検出した座標を初期タッチ位置としてメモリ(例えば、主記憶4または補助記憶5)に保持する。
図5の例では、メモリが保持する初期タッチ位置の座標を、初期タッチ位置座標55として示す。入力操作受付部191は、タッチスクリーン130の検出結果(ユーザの指がタッチスクリーン130に接近している座標、および、ユーザの指がタッチスクリーン130に接近していることを検出していないこと(検出結果「null」))を、一定フレーム分、バッファメモリ53に格納する。バッファメモリ53は、タッチスクリーン130における検出結果を、各フレームについて一定フレーム分(図5の例では、メモリ領域fp〔0〕〜メモリ領域fp〔10〕までの11フレーム分)、格納することができる。バッファメモリ53は、例えばリングバッファとして実現することができる。
状態(A)の例では、ユーザがタッチスクリーン130を押した位置を、押下位置50A(タッチスクリーン130の座標(x0,y0))として示す。
図5の状態(B)は、ユーザがタッチスクリーン130に対してドラッグ操作を行って、タッチスクリーン130に対する押下位置を、押下位置50Aから押下位置50B(タッチスクリーン130の座標(x9,y9))まで10フレーム(メモリ領域fp〔0〕〜メモリ領域fp〔9〕までの10フレーム分)で移動させたことを示す。入力操作受付部191は、タッチスクリーン130の検出結果をバッファメモリ53に格納し、バッファメモリ53に保持される値を参照して、タッチスクリーン130に対するユーザの操作をドラッグ操作と判別する。
図5の状態(C)は、ユーザがタッチスクリーン130を押している位置を、押下位置50Bから押下位置50C(タッチスクリーン130の座標(x14,y14))まで、5フレーム(メモリ領域fp〔10〕、fp〔0〕、fp〔1〕、fp〔2〕、fp〔3〕の5フレーム分)で移動させたことを示す。
図5の状態(D)は、キャラクタ操作検出部193が、状態(B)および状態(C)のそれぞれにおいて、ユーザが自キャラクタ100を移動させる方向を指定する入力操作の検出結果を示す。キャラクタ操作検出部193は、バッファメモリ53において、タッチスクリーン130が検出する押下位置の座標を書き込む対象となるメモリ領域がいずれであるかを示す情報(バッファメモリ53の書き込み位置)を管理している。
状態(B)において、キャラクタ操作検出部193は、入力操作受付部191の判別結果に基づいて、初期タッチ位置を示す座標51A(座標(x0,y0))から座標51B(座標(x9,y9))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部193は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Bとによって規定されるベクトル52B((y9−y0)/(x9−x0))を、自キャラクタ100を移動させる方向として検出する。
状態(C)において、キャラクタ操作検出部193は、入力操作受付部191の判別結果に基づいて、座標51B(座標(x9,y9))から座標51C(座標(x14,y14))までユーザがドラッグ操作を行ったことを検出する。キャラクタ操作検出部193は、初期タッチ位置の座標51Aを起点として、座標51Aと座標51Cとによって規定されるベクトル52C((y14−y0)/(x14−x0))を、自キャラクタ100を移動させる方向として検出する。
<2.操作オブジェクトの基本構成>
本実施形態に係る操作オブジェクト40(図4参照)は、ユーザのタッチスクリーン130に対する接近操作が検知されるとタッチスクリーン130に表示される。操作オブジェクト40は、ユーザが自キャラクタ100を移動させる方向を示す弾性状のオブジェクトである。操作オブジェクト40は、図6の状態(A)に示すように、指接触時の初期形状として、タッチスクリーン130に接触した位置(例えば、図5の初期タッチ位置座標51A)である接触開始点に関連付けられた基準位置の周囲に、円形状の基部42を有するように形成される。なお、基準位置は、最初に指がタッチスクリーン130に触れた座標でなくても良く、例えば、最初に指が触れたフレームの数フレーム後のフレームにおいて指が触れていた座標であっても良い。
本実施形態に係る操作オブジェクト40(図4参照)は、ユーザのタッチスクリーン130に対する接近操作が検知されるとタッチスクリーン130に表示される。操作オブジェクト40は、ユーザが自キャラクタ100を移動させる方向を示す弾性状のオブジェクトである。操作オブジェクト40は、図6の状態(A)に示すように、指接触時の初期形状として、タッチスクリーン130に接触した位置(例えば、図5の初期タッチ位置座標51A)である接触開始点に関連付けられた基準位置の周囲に、円形状の基部42を有するように形成される。なお、基準位置は、最初に指がタッチスクリーン130に触れた座標でなくても良く、例えば、最初に指が触れたフレームの数フレーム後のフレームにおいて指が触れていた座標であっても良い。
ユーザがタッチスクリーン130上で接触開始点から接触終了点(ここで、接触終了点とは、ユーザの指などがタッチスクリーン130に接触した状態での最終地点を意味する)までドラッグ操作を行うと、図6の状態(B)に示すように操作オブジェクト40は、ユーザの指に引っ張られるような弾性変形を伴う。このとき、操作オブジェクト40は、ドラッグ操作の接触開始点に対応して表示される基部(拡大部)42に加えて、ドラッグ操作の接触終了点(注:指はタッチスクリーン130に接触したままの状態である。)付近に位置する先端部44と、基部42と先端部44との間を接続する接続部46とを含むように構成される。このように操作オブジェクト40は、接触開始点から接触終了点に向けて入力されたドラッグ操作の方向に弾性的に延ばされるように形成される。また、ユーザが接触終了点を接触状態に維持しつつタッチスクリーン130上において更に指などを移動させた場合、先端部44もそれに追従して更に移動し操作オブジェクト40の延びる向きも変化する。ユーザによるドラッグ操作が終了した際に(すなわち、タッチスクリーン130上において接触終了点からユーザの指が離れた際に)、弾性変形した操作オブジェクト40が、その復元力に従って、接触開始点に向けて段階的に萎縮して、図6の状態(A)に示した初期形状に復元するように表示され、一定時間経過後に非表示となる。
なお、図6の状態(A)では、接触開始点を中心に円形状の基部42を形成しているが、必ずしもこれに限定されない。例えば、基部42を接触開始点から一定距離だけ上部または下部にずらして形成しても良い。すなわち、操作オブジェクト40の基部42は、接触開始点に関連付けられた所定の位置(基準位置)に対応して表示されていても良い。また、接触開始点に形成した操作オブジェクト40(基部42)をドラッグ操作に応じて変形させずに、接触開始点から接触終了点に向けて、操作オブジェクトの一部を構成する別のオブジェクトを表示させるようにしても良い。
<3.本ゲームプログラムの動作例の説明>
図7から図11を参照して、本ゲームプログラムにおける動作例について説明する。
本実施形態に係るゲームプログラムは、ユーザの操作によって活動する自キャラクタ100が、複数のミッション(ゲームステージ)を順次クリアしてゆき、全てのミッションをクリアしたときにゲームクリア(エンディング)となるゲームであり、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用している。
図7から図11を参照して、本ゲームプログラムにおける動作例について説明する。
本実施形態に係るゲームプログラムは、ユーザの操作によって活動する自キャラクタ100が、複数のミッション(ゲームステージ)を順次クリアしてゆき、全てのミッションをクリアしたときにゲームクリア(エンディング)となるゲームであり、各ゲームステージやゲームステージを選択するためのステージが途切れなく(すなわち、シームレスに)連続している所謂「シームレスフィールド」を採用している。
図7は、本ゲームプログラムにおけるマルチプレイを実現するためのユーザ端末10およびサーバ20の動作例について説明するフローチャートである。図7に示される処理は、制御部190がゲームプログラム151を、制御部290がゲームプログラム251をそれぞれ実行することにより実現される。
ステップS1000において、ユーザ端末10の制御部190は、サーバ20に対してマルチプレイに参加するための参加リクエストを送信する。ステップS1002において、サーバ20の制御部290は、ユーザが操作するユーザ端末10からの参加リクエストを受け付ける。
ステップS1004において、サーバ20の制御部290は、サーバ処理部292として、マルチプレイに参加するユーザが規定人数に達したと判断したことに応じて、サーバ20側の仮想空間を規定して、当該仮想空間に所定のフィールド(本プログラムでは、シームレスフィールド)を形成するためのオブジェクトを配置する。さらに、制御部290は、送受信部291として、フィールドを形成するためのオブジェクトの情報をユーザ端末10に送信する。
ステップS1006において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した情報に基づいてゲーム情報152に格納されるオブジェクトをユーザ端末10側の仮想空間に配置する。これにより、制御部190は、仮想空間にフィールドを形成する。
ステップS1008において、ユーザ端末10の制御部190は、オブジェクト制御部195として、ゲーム情報152に格納される自キャラクタ100の情報に従い、自キャラクタ100をフィールドに配置(生成)する。さらに、制御部190は、自キャラクタ100の情報をサーバ20に送信する。
ステップS1010において、サーバ20の制御部290は、データ管理部293として、ユーザ端末10から受信したキャラクタ情報に基づいてユーザ管理テーブル253Aに格納される自キャラクタ100の情報を保存する。なお、同ステップにおいて、制御部290は、マルチプレイに参加する他のユーザ端末10から、当該他のユーザ端末10のユーザが操作するキャラクタ(以下、「他キャラクタ」とも称する)の情報を受信して、ユーザ管理テーブル253Aの情報を保存する。
ステップS1012において、サーバ20の制御部290は、サーバ処理部292として、ユーザ管理テーブル253Aに格納される他キャラクタの情報に基づいて、他キャラクタを生成してフィールドに配置する。さらに、制御部290は、送受信部291として、他キャラクタの情報をユーザ端末10に送信する。
ステップS1014において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した他キャラクタの情報に基づいて他キャラクタを生成してフィールドに配置する。
ステップS1016において、サーバ20の制御部290は、サーバ処理部292として、オブジェクト管理テーブル252Aを参照して、ミッション攻略のための対象であるミッション対象キャラクタを生成してフィールドに配置する。また、制御部290は、ミッション対象キャラクタおよびミッション対象キャラクタと関連付けられたミッションの情報をマルチプレイに参加する各ユーザ端末10に送信する。
ステップS1018において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信したミッション対象キャラクタの情報に基づいて、ミッション対象キャラクタを生成してフィールドに配置する。
ステップS1020において、ユーザ端末10の制御部190は、キャラクタ操作検出部193として、タッチスクリーン130に対するドラッグ操作を検出し、当該ドラッグ操作のタッチ開始位置およびタッチ継続位置により定まる方向を検出する。制御部190は、キャラクタ操作検出部193が検出した方向に、仮想カメラおよび自キャラクタ100を移動させる。さらに、制御部190は、移動後の自キャラクタ100の仮想空間における位置座標をサーバ20に送信する。なお、他の局面において、制御部190は、仮想空間における自キャラクタ100が向いている方向、自キャラクタ100の移動速度などを併せてサーバ20に送信し得る。
ステップS1022において、サーバ20の制御部290は、サーバ処理部292として、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。なお、同ステップにおいて、制御部290は、サーバ20側の仮想空間における他キャラクタの位置も更新する。制御部290は、更新した他キャラクタの位置情報をユーザ端末10に送信する。
ステップS1024において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信した他キャラクタの位置情報に基づいて、仮想空間(フィールド)内において他キャラクタを移動する。
ステップS1026において、サーバ20の制御部290は、サーバ処理部292として、ミッション対象キャラクタを移動する。また、制御部290は、送受信部291として機能し、移動後のミッション対象キャラクタの位置情報をユーザ端末10に送信する。
ステップS1028において、ユーザ端末10の制御部190は、オブジェクト制御部195として、サーバ20から受信したミッション対象キャラクタの位置情報に基づいて、仮想空間内においてミッション対象キャラクタを移動する。
また、ユーザ端末10およびサーバ20はそれぞれ、その他ゲームを進行するために必要な処理を実行する。ゲームを進行するために必要な処理は、一例として、自キャラクタおよび対象キャラタの攻撃処理、これら攻撃のヒット判定処理、ダメージ処理、ドロップアイテム処理、経験値処理、アイテム取得処理、などが挙げられる。
図8は、ミッション対象キャラクタの発生位置に関する画像の表示処理について説明するフローチャートである。
図8のステップS1100において、ユーザ端末10の制御部190は、ユーザの移動操作により、自キャラクタ100が図9に示すミッション発注所60(ミッション選択領域の一例)内に移動したか否かを判断する。ミッション発注所60は、フィールドMF内の所定の位置に一つ以上配置されている。上述の通り、各ミッション発注所60には、異なる(あるいは少なくとも一部が重複していても良い)ミッションが関連付けられている。
自キャラクタ100がミッション発注所60内に移動したと判定された場合には(ステップS1100のYes)、ステップS1102において、制御部190は、ミッション発注所60が選択されたと判定し、選択されたミッション発注所60に関する情報を生成し、当該情報をサーバ20へ送信する。
ステップS1104において、サーバ20の制御部290は、記憶部250に記憶されているミッション管理テーブル252Bを読み出す。そして、ステップS1106において、制御部290は、ミッション管理テーブル252Bからミッション発注所60に関連付けられた情報(以下、ミッション発注所情報と称する)を取得し、このミッション発注所情報をユーザ端末10へ送信する。なお、上述の通り、ミッション管理テーブル252Bに保存されているミッション発注所情報には、当該ミッション発注所60で選択可能なミッションの内容が含まれている。
ステップS1108において、ユーザ端末10の制御部190は、サーバ20から受信したミッション発注所情報に基づいて、タッチスクリーン130上に、選択されたミッション発注所60に関連付けられた少なくとも一つ(ここでは、2つ)のミッションのメニュー画面65を表示する(図10参照)。メニュー画面65には、例えば、ミッション1として「キャラクタ200を5匹倒せ!」というミッションとともに、ミッション対象キャラクタ200の出現場所、ミッションクリアの難易度、ミッションクリア時の報酬が表示される。また、ミッション2として、「キャラクタ400を救出せよ!」というミッションとともに、ミッション対象キャラクタ400の出現場所、ミッションクリアの難易度、ミッションクリア時の報酬が表示される。なお、メニュー画面65の表示は、自キャラクタ100がミッション発注所60内に移動した場合に限られない。例えば、制御部190は、ユーザによりミッション発注所60がタップされた場合などにメニュー画面65を表示しても良い。
続いて、ステップS1110において、制御部190は、ユーザの操作により、表示されたミッション1および2のうちいずれか一つが選択されたか否かを判定する。なお、ユーザは、一度に複数のミッションを選択することもできる。
いずれかのミッションが選択されたと判定された場合には(ステップS1110のYes)、ステップS1112において、制御部190は、選択されたミッションに関する情報(以下、ミッション選択情報と称する)を生成し、サーバ20へ送信する。例えば、ユーザがミッション1を選択した場合には、制御部190は、ミッション1が選択されたことを、サーバ20へ送信する。
ステップS1114において、サーバ20の制御部290は、ユーザ端末10から受信したミッション選択情報を、記憶部250のミッション管理テーブル252Bに保存する(ミッション管理テーブル252Bを更新する)。続いて、ステップS1116において、制御部290は、更新されたミッション管理テーブル252Bの情報(以下、ミッション更新情報と称する)を取得し、各ユーザ端末10へ送信する。ミッション更新情報は、特に、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタ(例えば、キャラクタ200やキャラクタ400)を含む。これにより、ユーザ端末10がミッション1を選択したことに関する情報が、サーバ20を介して、他のユーザ端末へも送信される。
ステップS1118において、ユーザ端末10の制御部190は、サーバ20から受信したミッション更新情報を記憶部150に保存する。すなわち、制御部190は、ミッション発注所60においてユーザにより選択されたミッションと、選択されたミッションに関連付けられたミッション対象キャラクタとに関する情報(第一の情報の一例)を、記憶部150に記憶する。
ステップS1120において、制御部190は、メニュー画面65を非表示とするとともに、自キャラクタ100をミッション発注所60の外側へ移動させる。具体的には、制御部190は、図11に示すように、自キャラクタ100を、ミッション発注所60に対して自キャラクタ100の進行方向側である右側へ移動させる。
ステップS1122において、制御部190は、タッチスクリーン130内の所定位置に、ミッション対象キャラクタの発生位置に関する情報を示す位置関連画像500A,500B(これらをまとめて位置関連画像500と称する場合もある)を表示する。図11に示すように、これらの位置関連画像500A,500Bは、ゲームの進行上で邪魔になりにくい位置、例えば、水平方向におけるタッチスクリーン130の端部(例えば、タッチスクリーン130の右端側)に表示される。位置関連画像500Aは、ミッション1に関連付けられたミッション対象キャラクタ200の発生位置に関する情報を示す画像であって、例えば、キャラクタ200の顔が表示されている。位置関連画像500Aの下側には、自キャラクタ100の現在位置からキャラクタ200の発生位置までの距離(ここでは、例えば2km)が表示されている。また、位置関連画像500Bは、ミッション2に関連付けられたミッション対象キャラクタ400の発生位置に関する情報を示す画像であって、例えば、ミッション対象キャラクタ400の顔が表示されている。位置関連画像500Bの下側には、自キャラクタ100の現在位置からキャラクタ400の発生位置までの距離(ここでは、例えば5km)が表示されている。このように、自キャラクタ100がフィールドの所定領域に配置されたときに、制御部190は、ミッション関連情報に基づいて、位置関連画像500A,500Bをタッチスクリーン130上の所定位置に表示させる。
ステップS1124において、ユーザ端末10の制御部190は、ユーザのドラッグ操作の入力を受けたか否かを判定する。ドラッグ操作の入力を受けたと判定された場合には(ステップS1124のYes)、ステップS1126において、制御部190は、ドラッグ操作に基づいて、自キャラクタ100を移動させる。
ステップS1128において、サーバ20の制御部290は、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。そして、制御部290は、更新された自キャラクタ100の位置情報を、ユーザ端末10以外の他のユーザ端末へ送信する。
<4.複数のフィールド間の境界領域画像を生成するための処理の説明>
続いて、図9および図11とともに、図12および図13を参照して、複数のフィールド間の境界領域画像を生成するための処理について説明する。
続いて、図9および図11とともに、図12および図13を参照して、複数のフィールド間の境界領域画像を生成するための処理について説明する。
ステップS1200において、サーバ20の制御部290は、自キャラクタ100の現在位置座標に基づいて、サーバ20側の仮想空間にフィールド、本例では例えばミッション選択用のフィールドMF(以下、現フィールドMFと称する)を形成するためのオブジェクトを配置する。さらに、制御部290は、現フィールドMFを形成するためのオブジェクトの情報をユーザ端末10に送信する。
ステップS1202において、ユーザ端末10の制御部190は、サーバ20から受信した情報に基づいてゲーム情報152に格納されるオブジェクトをユーザ端末10側の仮想空間に配置する。これにより、制御部190は、仮想空間に現フィールドMFを形成する。
ステップS1204において、ユーザ端末10の制御部190は、自キャラクタ100の移動に伴い、図9等に示す検知オブジェクト80がタッチスクリーン130内に含まれるようになったか否かを判定する。検知オブジェクト80は、ゲーム情報152に格納されるオブジェクトの一例であって、サーバ20から受信した情報に基づいてユーザ端末10側の仮想空間の所定の位置に配置されている。例えば、検知オブジェクト80は、各フィールドの境界領域から一定距離だけ内側の位置に配置され得る。なお、図9から図11において破線で図示しているように、検知オブジェクト80は、タッチスクリーン130上では非表示とされている(視認不可能な状態で配置されている)ことが好ましい。
自キャラクタ100の移動に伴って検知オブジェクト80がタッチスクリーン130内に含まれるようになったと判定された場合には(ステップS1204のYes)、ステップS1206において、制御部190は、現フィールドMFと隣接するフィールド、本例では例えば自キャラクタ100がミッション対象キャラクタと対戦等を行うバトルフィールドBF(以下、次フィールドBFと称する)に関する情報を生成する。そして、制御部190は、現フィールドMFと隣接する次フィールドBFに関する情報を、サーバ20へ送信する。
ステップS1208において、サーバ20の制御部290は、記憶部250に次フィールドBFに関する情報を保存する。そして、ステップS1210において、制御部290は、次フィールドBFのフィールドデータ(次フィールドデータ)を生成し、次フィールドデータをユーザ端末10へ送信する。
ステップS1212において、ユーザ端末10の制御部190は、記憶部150に次フィールドデータを保存する。すなわち、制御部190は、サーバ20から次フィールドデータをタウンロードして読み込む。なお、制御部190は、現フィールドMFと隣接する次フィールドBFのフィールドデータの読み込み中に、ユーザの操作に基づいて自キャラクタ100を操作する(現在のフィールド内で移動させる)ことができる。次フィールドBF(あるいは、次の次のフィールド)のフィールドデータの読み込みが完了すると、読み込みが完了したフィールドへの自キャラクタ100の移動が可能となる。このようにして、制御部190は、位置関連画像500A,500Bおよびこれらに付随して表示された情報に基づいてなされたユーザのドラッグ操作の入力を受け付けることで、自キャラクタ100をフィールドMFからフィールドBFへと連続的に移動させることができる。
ところで、図11に示すように、現フィールドMFおよび次フィールドBFは、自キャラクタ100が各フィールドMF,BF内の上下方向および水平方向に移動可能な二次元フィールドであって、各フィールドMF,BFのフィールドデータを繋ぎ合わせる処理をすることで、ユーザにシームレス感を提供している。このとき、フィールドMF,BF同士のつなぎ目(境界)が目立だってしまうと興醒めである。
そこで、本実施形態においては、フィールドMF,BF同士の境界を目立たないようにするため、以下のステップS1214以降の処理を行う。
具体的には、次フィールドBFのフィールドデータの読み込みが完了すると、ステップS1214において、制御部190は、現フィールドMFのフィールドデータと次フィールドBFのフィールドデータとに基づいて境界領域画像データCFを生成する。
具体的には、次フィールドBFのフィールドデータの読み込みが完了すると、ステップS1214において、制御部190は、現フィールドMFのフィールドデータと次フィールドBFのフィールドデータとに基づいて境界領域画像データCFを生成する。
ステップS1216において、制御部190は、ドラッグ操作に基づいて、自キャラクタ100を移動させる。そして、ステップS1218において、サーバ20の制御部290は、ユーザ端末10から受信した自キャラクタ100の位置座標に基づいて、サーバ20側の仮想空間の自キャラクタ100の位置を更新する。
ステップS1220において、自キャラクタ100が現フィールドMFの境界部分に差し掛かると、制御部190は、図13に示すように、現フィールドMFと次フィールドBFとともにこれらのフィールドMF,BFの間に境界領域画像データCFを表示する。
境界領域画像データCFは、例えば、現フィールドMFのフィールドデータのうちタッチスクリーン130の下半部に表示され得る地面の断面部分の画像データ(以下、地面画像データと称する)と、次フィールドBFのフィールドデータのうちタッチスクリーン130の下半部に表示され得る地面画像データとに基づいて生成される。具体的には、制御部190は、次フィールドBFの地面画像データに対して透過処理を施した透過処理データを生成し、この透過処理データを現フィールドMFの地面画像データに重畳することにより、境界領域画像データCFを生成する。境界領域画像データCFは、透過率の異なる複数の透過処理データを、透過率のグラデーションがつくように、すなわち、現フィールドMFに近い側から次フィールドBFに向けて、その透過率が低くなるように並べることで生成される。例えば、境界領域画像データCFは、現フィールドMFに近い側から次フィールドBFに向けて、次フィールドBFの地面画像データに対して透過率80%の透過処理を施した第一透過処理データCF1、当該地面画像データに対して透過率60%の透過処理を施した第二透過処理データCF2、当該地面画像データに対して透過率40%の透過処理を施した第三透過処理データCF3、および当該地面画像データに対して透過率20%の透過処理を施した第四透過処理データCF4から構成され得る。これにより、少ない情報処理量により境界領域画像データCFを生成できるとともに、現フィールドMFと次フィールドBFとの繋ぎ目を自然に見せることができる。なお、次フィールドBFの地面画像データに対して透過処理を施した透過処理データを生成するのではなく、現フィールドMFの地面画像データに対して透過処理を施した透過処理データを生成し、この透過処理データを次フィールドBFの地面画像データに重畳することにより、境界領域画像データCFを生成しても良い。
以上説明したように、本実施形態によれば、制御部190は、現フィールドMFと、現フィールドMFから自キャラクタ100がシームレスに移動可能な次フィールドBFと、を含む仮想空間を規定し、現フィールドMFおよび次フィールドBFの各画像データを所定のタイミングでダウンロードするとともに読み込むことにより、読み込んだ各画像データをタッチスクリーン130に表示させる。そして、制御部190は、現フィールドMFの所定位置に配置された検知オブジェクト80がタッチスクリーン130に含まれている場合に、現フィールドMFおよび次フィールドの各画像データに基づいて境界領域画像データCFを生成してタッチスクリーン130に表示させる。具体的には、制御部190は、次フィールドBFの画像データをタッチスクリーン130に表示させる際に、現フィールドMFと次フィールドBFとの間に境界領域画像データCFを表示させる。これにより、シームレスフィールドを採用したゲームにおいて、簡便な処理で複数のゲームフィールドの境界を目立たないようにすることができる。
また、現フィールドMFおよび次フィールドBFは、自キャラクタ100が各フィールドMF,BF内の上下方向および水平方向に移動可能な二次元フィールドであって、境界領域画像データCFは、タッチスクリーン130上に表示される各フィールドMF,BFの地面の断面画像部分に設定されても良い。これにより、フィールドMF,BF間の境界領域を自然に見せることができる。
なお、図13に示すように、制御部190は、仮想空間において、境界領域画像データCFの上方に境界用オブジェクト90を配置しても良い。そして、自キャラクタ100が現フィールドMFから次フィールドBFへと移動する場合には、制御部190は、自キャラクタ100を、境界用オブジェクト90の後方側を通り抜けさせて次フィールドBFへと移動させることが好ましい。なお、「境界用オブジェクト90の後方側」とは、仮想カメラとの位置からみて境界用オブジェクト90よりも遠い側である。これにより、自キャラクタ100が移動する空間の背景部分(すなわち、タッチスクリーン130において、地面の断面部分よりも上方の部分)における現フィールドMFと次フィールドBFとの繋ぎ目の画像データを別途作成する必要がなく、制作負荷を低減することができる。
なお、上記の実施形態においては、制御部190は、検知オブジェクト80がタッチスクリーン130に含まれている状態となった場合に、次フィールドBFのダウンロードおよび境界領域画像データCFの生成を開始しているが、この例に限られない。制御部190は、検知オブジェクト80と自キャラクタ100との位置関係が所定条件を満たしている、例えば、自キャラクタ100が検知オブジェクト80に対して一定距離内に近づいた場合に、次フィールドBFのダウンロードおよび境界領域画像データCFの生成を開始しても良い。なお、制御部190は、仮想空間内に配置される仮想カメラと検知オブジェクト80との位置関係により、次フィールドBFのダウンロードおよび境界領域画像データCFの生成を開始しても良い。
また、上記の実施形態においては、制御部190は、検知オブジェクト80がタッチスクリーン130に含まれている状態となった場合に、現フィールドMFと隣接する次フィールドBFのダウンロードを開始しているが、現フィールドMFが表示されている状態で次フィールドBFよりも先のフィールド(次の次のフィールド)のダウンロードを開始するようにしても良い。
上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
1:ゲーム配信システム、10:ユーザ端末、20:サーバ、130:タッチスクリーン、190:(ユーザ端末の)制御部、191:入力操作受付部、193:キャラクタ操作検出部、195:オブジェクト制御部、197:表示制御部、290:(サーバの)制御部、252B:ミッション管理テーブル、40:操作オブジェクト、53:バッファメモリ、55:初期タッチ位置座標、60:ミッション発注所、65:メニュー画面、67:ミッションボタン、80:検知オブジェクト、100:自キャラクタ(プレイヤキャラクタ、キャラクタオブジェクトの一例)、200:相手キャラクタ(ミッション対象キャラクタ)、300:ユーザインターフェース画像、400:ミッション対象キャラクタ、500A,500B:位置関連画像、CF:境界領域画像データ、CF1〜CF4:透過処理データ
Claims (7)
- タッチスクリーンを含む端末機器で実行されるゲーム方法であって、
第一のフィールドと、前記第一のフィールドからユーザが操作するプレイヤオブジェクトがシームレスに移動可能な第二のフィールドと、を含む仮想空間を規定するステップと、
前記第一のフィールドと前記第二のフィールドとの間を繋ぐ境界領域画像を生成するステップと、
前記第一のフィールドと、前記第二のフィールドと、前記境界領域画像とを、前記境界領域画像が前記第一のフィールドと前記第二のフィールドとの間を繋ぐように前記タッチスクリーンに表示させるステップと、
前記境界領域画像は、前記第一のフィールドの画像データに、前記タッチスクリーンに表示される前記第二のフィールドの画像データに透過処理を施した透過処理データを重畳させることによって生成される、ゲーム方法。 - 前記境界領域画像は、透過率の異なる複数の前記透過処理データを、前記透過率のグラデーションがつくように並べることで生成される、請求項1に記載の方法。
- 前記第一のフィールドおよび前記第二のフィールドは、前記プレイヤオブジェクトが各フィールド内の上下方向および水平方向に移動可能な二次元フィールドであり、
前記境界領域画像は、前記タッチスクリーン上に表示される地面の断面画像部分に表示される、請求項1または2に記載の方法。 - 前記仮想空間において、前記境界領域画像の上方に境界用オブジェクトを配置するステップと、
前記プレイヤオブジェクトを、前記第一のフィールドから前記境界用オブジェクトの後方側を通り抜けさせて前記第二のフィールドへと移動させるステップと、
をさらに含む、請求項3に記載の方法。 - 前記境界領域画像は、前記第一のフィールドの所定位置に配置された対象オブジェクトが前記タッチスクリーンに含まれている場合、または、前記対象オブジェクトと前記プレイヤオブジェクトとの位置関係が所定条件を満たしている場合に、生成される、請求項1から4のいずれか一項に記載の方法。
- 請求項1から5のいずれか一項に記載のゲーム方法をコンピュータに実行させるためのゲームプログラム。
- プロセッサを備えるコンピュータであって、
前記プロセッサの制御により、請求項1から5のいずれか一項に記載のゲーム方法を実行する、コンピュータ。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016241645A JP6270973B1 (ja) | 2016-12-13 | 2016-12-13 | ゲーム方法およびゲームプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016241645A JP6270973B1 (ja) | 2016-12-13 | 2016-12-13 | ゲーム方法およびゲームプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017243299A Division JP2018094424A (ja) | 2017-12-19 | 2017-12-19 | ゲーム方法およびゲームプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6270973B1 true JP6270973B1 (ja) | 2018-01-31 |
JP2018097614A JP2018097614A (ja) | 2018-06-21 |
Family
ID=61074709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016241645A Active JP6270973B1 (ja) | 2016-12-13 | 2016-12-13 | ゲーム方法およびゲームプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6270973B1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109806583B (zh) * | 2019-01-24 | 2021-11-23 | 腾讯科技(深圳)有限公司 | 用户界面显示方法、装置、设备及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001209822A (ja) * | 2000-01-28 | 2001-08-03 | Square Co Ltd | 3次元コンピュータ画像処理のプログラムを記録したコンピュータ読み取り可能な記録媒体およびぼかし描画処理方法およびビデオゲーム装置 |
JP2002092640A (ja) * | 2000-09-20 | 2002-03-29 | Namco Ltd | ゲームシステム及び情報記憶媒体 |
JP2004152150A (ja) * | 2002-10-31 | 2004-05-27 | Nintendo Co Ltd | ゲーム画像処理方法、ゲーム画像処理プログラムおよびゲーム画像処理装置 |
JP2005218591A (ja) * | 2004-02-04 | 2005-08-18 | Samii Kk | 画像表示装置及び遊技機 |
JP2006346507A (ja) * | 2006-10-04 | 2006-12-28 | Nintendo Co Ltd | ゲーム装置および画像処理プログラム |
JP2010157041A (ja) * | 2008-12-26 | 2010-07-15 | Kyocera Mita Corp | 画像形成装置 |
JP2011245015A (ja) * | 2010-05-26 | 2011-12-08 | Nintendo Co Ltd | ゲームプログラム、ゲームシステム、ゲーム装置、および、ゲーム制御方法 |
JP2011258022A (ja) * | 2010-06-09 | 2011-12-22 | Nintendo Co Ltd | 画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法 |
WO2016117267A1 (ja) * | 2015-01-20 | 2016-07-28 | 株式会社ジオ技術研究所 | 3次元地図表示システム |
JP5977878B1 (ja) * | 2015-11-27 | 2016-08-24 | グリー株式会社 | プログラム、ゲームの制御方法、及び情報処理装置 |
-
2016
- 2016-12-13 JP JP2016241645A patent/JP6270973B1/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001209822A (ja) * | 2000-01-28 | 2001-08-03 | Square Co Ltd | 3次元コンピュータ画像処理のプログラムを記録したコンピュータ読み取り可能な記録媒体およびぼかし描画処理方法およびビデオゲーム装置 |
JP2002092640A (ja) * | 2000-09-20 | 2002-03-29 | Namco Ltd | ゲームシステム及び情報記憶媒体 |
JP2004152150A (ja) * | 2002-10-31 | 2004-05-27 | Nintendo Co Ltd | ゲーム画像処理方法、ゲーム画像処理プログラムおよびゲーム画像処理装置 |
JP2005218591A (ja) * | 2004-02-04 | 2005-08-18 | Samii Kk | 画像表示装置及び遊技機 |
JP2006346507A (ja) * | 2006-10-04 | 2006-12-28 | Nintendo Co Ltd | ゲーム装置および画像処理プログラム |
JP2010157041A (ja) * | 2008-12-26 | 2010-07-15 | Kyocera Mita Corp | 画像形成装置 |
JP2011245015A (ja) * | 2010-05-26 | 2011-12-08 | Nintendo Co Ltd | ゲームプログラム、ゲームシステム、ゲーム装置、および、ゲーム制御方法 |
JP2011258022A (ja) * | 2010-06-09 | 2011-12-22 | Nintendo Co Ltd | 画像処理プログラム、画像処理装置、画像処理システム及び画像処理方法 |
WO2016117267A1 (ja) * | 2015-01-20 | 2016-07-28 | 株式会社ジオ技術研究所 | 3次元地図表示システム |
JP5977878B1 (ja) * | 2015-11-27 | 2016-08-24 | グリー株式会社 | プログラム、ゲームの制御方法、及び情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2018097614A (ja) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6225279B1 (ja) | ゲーム方法およびゲームプログラム | |
JP6318279B1 (ja) | 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6404877B2 (ja) | ゲームプログラム、ゲームを提供する方法、および情報処理装置 | |
JP6270973B1 (ja) | ゲーム方法およびゲームプログラム | |
JP2018057463A (ja) | ゲームプログラム、ゲームを提供する方法、および情報処理装置 | |
JP2017192538A (ja) | ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置 | |
JP2017192537A (ja) | ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置 | |
JP6554125B2 (ja) | ゲーム方法およびゲームプログラム | |
JP7263576B1 (ja) | プログラム、方法及び情報処理装置 | |
JP2018094424A (ja) | ゲーム方法およびゲームプログラム | |
JP6225234B1 (ja) | ゲーム方法およびゲームプログラム | |
JP6244445B1 (ja) | 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
US11318379B2 (en) | Game server and method of sharing note in the game server | |
JP2018110838A (ja) | ゲーム方法およびゲームプログラム | |
JP2018086250A (ja) | ゲーム方法およびゲームプログラム | |
JP2018192326A (ja) | ゲームプログラム、ゲームを提供する方法、および情報処理装置 | |
JP6174202B1 (ja) | ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置 | |
JP6554506B2 (ja) | 情報処理方法、情報処理装置及び情報処理プログラム | |
JP6263293B1 (ja) | 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP5841287B1 (ja) | プログラム、ゲームの制御方法、および情報処理装置 | |
JP6609084B1 (ja) | ゲーム装置、制御方法、及び制御プログラム | |
JP5779735B1 (ja) | プログラム、ゲームの制御方法、および情報処理装置 | |
JP2018020150A (ja) | ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置 | |
JP2017221676A (ja) | ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置 | |
JP2018033972A (ja) | ゲームプログラム、方法及びタッチスクリーンを備える情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6270973 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |