JP2019205514A - プログラム、方法、および情報端末装置 - Google Patents

プログラム、方法、および情報端末装置 Download PDF

Info

Publication number
JP2019205514A
JP2019205514A JP2018101238A JP2018101238A JP2019205514A JP 2019205514 A JP2019205514 A JP 2019205514A JP 2018101238 A JP2018101238 A JP 2018101238A JP 2018101238 A JP2018101238 A JP 2018101238A JP 2019205514 A JP2019205514 A JP 2019205514A
Authority
JP
Japan
Prior art keywords
game
drag operation
program
user
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018101238A
Other languages
English (en)
Inventor
宗一郎 近江
Soichiro Omi
宗一郎 近江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2018101238A priority Critical patent/JP2019205514A/ja
Publication of JP2019205514A publication Critical patent/JP2019205514A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】タッチ操作の開始位置にユーザを注目させるとともに興味を持たせることができるプログラム、方法、および情報処理装置を提供する。【解決手段】ユーザ端末は、プロセッサ、メモリ、およびタッチスクリーンを備える。プロセッサは、タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定し、特定した移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行い、特定した移動距離に応じた速度で回転する矢印AR1をドラッグ操作の開始位置に表示する。【選択図】図4

Description

本発明は、プログラム、方法、および情報処理装置に関する。
タッチパネルに対するタッチ操作に応じた処理を行う装置の一例として、ジョイスティックを模した操作を行うために、タッチ操作の原点(開始位置)と、当該タッチ操作を維持したまま移動させることにより指示される指示点(現在位置)とに基づいてベクトルを算出し、当該ベクトルに応じたゲーム制御を行うゲーム装置があった。また、このような装置においては、タッチ操作の開始位置に画像を表示するものもあった(例えば、特許文献1)。
特開2006−68385号公報
しかし、特許文献1に記載されているような装置においてタッチ操作の開始位置に表示される画像は、単に開始位置をユーザに把握させるものに過ぎず、例えばどのようなタッチ操作が行われ、またどのような処理が行われようとも、これらのタッチ操作や処理内容を反映するようなものではなかった。このため、タッチ操作の開始位置に表示される画像にユーザを注目させることや興味を持たせることができていない虞があった。
本発明は、かかる実情に鑑み考え出されたものであり、その目的は、タッチ操作の開始位置にユーザを注目させるとともに興味を持たせることができる、プログラム、方法、および情報処理装置を提供することである。
本開示に示す一実施形態のある局面によれば、プロセッサ、メモリ、およびタッチスクリーンを備えるコンピュータにおいて実行されるプログラムが提供される。プログラムは、プロセッサに、タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップと、第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップと、第1ステップによって特定された移動距離に応じた画像を、ドラッグ操作の開始位置に対応する位置に表示する第3ステップとを実行させる。
一実施形態のある局面によれば、プロセッサ、メモリ、およびタッチスクリーンを備えるコンピュータにより実行される方法が提供される。この方法は、コンピュータが、タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップと、第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップと、第1ステップによって特定された移動距離に応じた画像を、ドラッグ操作の開始位置に対応する位置に表示する第3ステップとを備える。
一実施形態のある局面によれば、タッチスクリーンと、ゲームプログラムを記憶する記憶部と、ゲームプログラムを実行することにより、情報処理装置の動作を制御する制御部とを備える情報処理装置が提供される。制御部は、タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップと、第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップと、第1ステップによって特定された移動距離に応じた画像を、ドラッグ操作の開始位置に対応する位置に表示する第3ステップとを実行する。
本発明によれば、タッチ操作の開始位置にユーザを注目させるとともに興味を持たせることができる。
本実施形態に係るゲームシステムのハードウェア構成を示す図である。 本実施形態に係るユーザ端末およびサーバの機能的構成を示すブロック図である。 ユーザ端末に設けられたプロセッサの動作の一部を示すフローチャートである。 (A)はゲーム画面の一例を示す図解図であり、(B)はゲーム画面の他の一例を示す図解図であり、(C)はゲーム画面のその他の一例を示す図解図であり、(D)はゲーム画面のさらにその他の一例を示す図解図である。 タッチ開始位置、基準位置および現タッチ位置とUI画像との関係の一例を示す図解図である。
本開示に係るゲームシステムは、複数のユーザにゲームを提供するためのシステムである。以下、ゲームシステムについて図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
<ゲームシステム1のハードウェア構成>
図1は、ゲームシステム1のハードウェア構成を示す図である。ゲームシステム1は図示の通り、複数のユーザ端末100と、サーバ200とを含む。各ユーザ端末100は、サーバ200とネットワーク2を介して接続する。ネットワーク2は、インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインターネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
サーバ200(コンピュータ、情報処理装置)は、ワークステーションまたはパーソナルコンピュータ等の汎用コンピュータであってよい。サーバ200は、プロセッサ20と、メモリ21と、ストレージ22と、通信IF23と、入出力IF24とを備える。サーバ200が備えるこれらの構成は、通信バスによって互いに電気的に接続される。
ユーザ端末100(コンピュータ、情報処理装置)は、スマートフォン、フィーチャーフォン、PDA(Personal Digital Assistant)、またはタブレット型コンピュータ等の携帯端末であってよい。ユーザ端末100は、ゲームプレイに適したゲーム装置であってもよい。ユーザ端末100は図示の通り、プロセッサ10と、メモリ11と、ストレージ12と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15(表示部)と、カメラ17と、測距センサ18とを備える。ユーザ端末100が備えるこれらの構成は、通信バスによって互いに電気的に接続される。なお、ユーザ端末100は、タッチスクリーン15に代えて、または、加えて、ユーザ端末100本体とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。
また、図1に示すように、ユーザ端末100は、1つ以上のコントローラ1020と通信可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetooth(登録商標)等の通信規格に従って、ユーザ端末100と通信を確立する。コントローラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの入力操作に基づく出力値をユーザ端末100へ送信する。また、コントローラ1020は、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種センサの出力値をユーザ端末100へ送信する。
なお、ユーザ端末100がカメラ17および測距センサ18を備えることに代えて、または、加えて、コントローラ1020がカメラ17および測距センサ18を有していてもよい。
ユーザ端末100は、例えばゲーム開始時に、コントローラ1020を使用するユーザに、該ユーザの名前またはログインID等のユーザ識別情報を、該コントローラ1020を介して入力させることが望ましい。これにより、ユーザ端末100は、コントローラ1020とユーザとを紐付けることが可能となり、受信した出力値の送信元(コントローラ1020)に基づいて、該出力値がどのユーザのものであるかを特定することができる。
ユーザ端末100が複数のコントローラ1020と通信する場合、各コントローラ1020を各ユーザが把持することで、ネットワーク2を介してサーバ200などの他の装置と通信せずに、該1台のユーザ端末100でマルチプレイを実現することができる。また、各ユーザ端末100が無線LAN(Local Area Network)規格等の無線規格により互いに通信接続する(サーバ200を介さずに通信接続する)ことで、複数台のユーザ端末100によりローカルでマルチプレイを実現することもできる。1台のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、ユーザ端末100は、さらに、サーバ200が備える後述する種々の機能の少なくとも一部を備えていてもよい。また、複数のユーザ端末100によりローカルで上述のマルチプレイを実現する場合、複数のユーザ端末100は、サーバ200が備える後述する種々の機能を分散して備えていてもよい。
なお、ローカルで上述のマルチプレイを実現する場合であっても、ユーザ端末100はサーバ200と通信を行ってもよい。例えば、あるゲームにおける成績または勝敗等のプレイ結果を示す情報と、ユーザ識別情報とを対応付けてサーバ200に送信してもよい。また、コントローラ1020は、ユーザ端末100に着脱可能な構成であるとしてもよい。この場合、ユーザ端末100の筐体における少なくともいずれかの面に、コントローラ1020との結合部が設けられていてもよい。該結合部を介して有線によりユーザ端末100とコントローラ1020とが結合している場合は、ユーザ端末100とコントローラ1020とは、有線を介して信号を送受信する。
図1に示すように、ユーザ端末100は、外部のメモリカード等の記憶媒体1030の装着を、入出力IF14を介して受け付けてもよい。これにより、ユーザ端末100は、記憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1030に記録されるプログラムは、例えばゲームプログラムである。
ユーザ端末100は、サーバ200等の外部の装置と通信することにより取得したゲームプログラムをユーザ端末100のメモリ11に記憶してもよいし、記憶媒体1030から読み込むことにより取得したゲームプログラムをメモリ11に記憶してもよい。
以上で説明したとおり、ユーザ端末100は、該ユーザ端末100に対して情報を入力する機構の一例として、通信IF13、入出力IF14、タッチスクリーン15、カメラ17、および、測距センサ18を備える。入力する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部と捉えることができる。
例えば、操作部が、カメラ17および測距センサ18の少なくともいずれか一方で構成される場合、該操作部が、ユーザ端末100の近傍の物体1010を検出し、当該物体の検出結果から入力操作を特定する。一例として、物体1010としてのユーザの手、予め定められた形状のマーカーなどが検出され、検出結果として得られた物体1010の色、形状、動き、または、種類などに基づいて入力操作が特定される。より具体的には、ユーザ端末100は、カメラ17の撮影画像からユーザの手が検出された場合、該撮影画像に基づき検出されるジェスチャ(ユーザの手の一連の動き)を、ユーザの入力操作として特定し、受け付ける。なお、撮影画像は静止画であっても動画であってもよい。
あるいは、操作部がタッチスクリーン15で構成される場合、ユーザ端末100は、タッチスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作として特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、ユーザ端末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)から出力される信号をユーザの入力操作として特定し、受け付ける。
<ゲーム概要>
ゲームシステム1は、ゲームの進行に応じてユーザに報酬が付与されるゲームを実行するシステムである。本実施形態で実行されるゲームは、例えば、新任隊長という設定のユーザが、ギア(兵装)を纏う少女たちを導き、射撃・近接攻撃・スキル等を駆使して敵キャラクタを撃退する3Dシューティングアクションゲームである。
なお、ゲームシステム1によって実行されるゲームは、特定のジャンルに限らず、各種のジャンルのゲームを実行するためのシステムであってもよい。例えば、テニス、卓球、ドッジボール、野球、サッカーおよびホッケーなどのスポーツを題材としたゲーム、パズルゲーム、クイズゲーム、RPG、アドベンチャーゲーム、シミュレーションゲーム、ならびに、育成ゲームなどであってもよい。
また、本ゲームシステム1は、シングルプレイ型ゲームを実行するためのシステムであってもよい。シングルプレイ型ゲームは、単一のユーザ端末100において実行されるゲームである。この場合、シングルプレイ型ゲームをユーザ端末100において実行するために必要な情報のやりとりが、ユーザ端末100とサーバ200との間で行われる。
また、ゲームシステム1は、マルチプレイ型ゲームを実行するためのシステムであってもよい。マルチプレイ型ゲームは、複数のユーザ端末100の各ユーザが、1のゲームに参加して対戦又は協力してプレイすることが可能なゲームである。この場合、ユーザが操作するユーザ端末100と、1以上の他のユーザが操作する1以上の他のユーザ端末100との間で、該ゲームに係るデータの少なくとも一部が、サーバ200を介して共有される。
なお、シングルプレイ型又はマルチプレイ型に限らず、ゲームシステム1は、各種のプレイ形態のゲームを実行するためのシステムであってもよい。
<各装置のハードウェア構成要素>
プロセッサ10は、ユーザ端末100全体の動作を制御する。プロセッサ20は、サーバ200全体の動作を制御する。プロセッサ10および20は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、およびGPU(Graphics Processing Unit)を含む。
プロセッサ10は後述するストレージ12からプログラムを読み出し、後述するメモリ11に展開する。プロセッサ20は後述するストレージ22からプログラムを読み出し、後述するメモリ21に展開する。プロセッサ10およびプロセッサ20は展開したプログラムを実行する。
メモリ11および21は主記憶装置である。メモリ11および21は、ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作している間に生成した各種データも一時的に記憶する。
本実施形態においてプログラムとは、ゲームをユーザ端末100により実現するためのゲームプログラムであってもよい。あるいは、該プログラムは、該ゲームをユーザ端末100とサーバ200との協働により実現するためのゲームプログラムであってもよい。あるいは、該プログラムは、該ゲームを複数のユーザ端末100の協働により実現するためのゲームプログラムであってもよい。また、各種データとは、ユーザ情報およびゲーム情報などのゲームに関するデータ、ならびに、ユーザ端末100とサーバ200との間または複数のユーザ端末100間で送受信する指示または通知を含んでいる。
ストレージ12および22は補助記憶装置である。ストレージ12および22は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成される。ストレージ12およびストレージ22には、ゲームに関する各種データが格納される。
通信IF13は、ユーザ端末100における各種データの送受信を制御する。通信IF23は、サーバ200における各種データの送受信を制御する。通信IF13および23は例えば、無線LAN(Local Area Network)を介する通信、有線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近距離無線通信等を用いた通信を制御する。
入出力IF14は、ユーザ端末100がデータの入力を受け付けるためのインターフェースであり、またユーザ端末100がデータを出力するためのインターフェースである。入出力IF14は、USB(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14は、例えば、ユーザ端末100の物理ボタン、カメラ、マイク、または、スピーカ等を含み得る。
サーバ200の入出力IF24は、サーバ200がデータの入力を受け付けるためのインターフェースであり、またサーバ200がデータを出力するためのインターフェースである。入出力IF24は、例えば、マウスまたはキーボード等の情報入力機器である入力部と、画像を表示出力する機器である表示部とを含み得る。
ユーザ端末100のタッチスクリーン15は、入力部151と表示部152とを組み合わせた電子部品である。入力部151は、例えばタッチセンシティブなデバイスであり、例えばタッチパッドによって構成される。表示部152は、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等によって構成される。
入力部151は、入力面に対しユーザの操作(主にタッチ操作、スライド操作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して、位置を示す情報を入力信号として送信する機能を備える。入力部151は、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量方式または抵抗膜方式等のどのような方式を採用したものであってもよい。
図示していないが、ユーザ端末100は、該ユーザ端末100の保持姿勢を特定するための1以上のセンサを備えていてもよい。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。ユーザ端末100がセンサを備えている場合、プロセッサ10は、センサの出力からユーザ端末100の保持姿勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10は、ユーザ端末100が縦向きに保持されているときには、縦長の画像を表示部152に表示させる縦画面表示としてもよい。一方、ユーザ端末100が横向きに保持されているときには、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ10は、ユーザ端末100の保持姿勢に応じて縦画面表示と横画面表示とを切り替え可能であってもよい。
カメラ17は、イメージセンサ等を含み、レンズから入射する入射光を電気信号に変換することで撮影画像を生成する。
測距センサ18は、測定対象物までの距離を測定するセンサである。測距センサ18は、例えば、パルス変換した光を発する光源と、光を受ける受光素子とを含む。測距センサ18は、光源からの発光タイミングと、該光源から発せられた光が測定対象物にあたって反射されて生じる反射光の受光タイミングとにより、測定対象物までの距離を測定する。測距センサ18は、指向性を有する光を発する光源を有することとしてもよい。
ここで、ユーザ端末100が、カメラ17と測距センサ18とを用いて、ユーザ端末100の近傍の物体1010を検出した検出結果を、ユーザの入力操作として受け付ける例をさらに説明する。カメラ17および測距センサ18は、例えば、ユーザ端末100の筐体の側面に設けられてもよい。カメラ17の近傍に測距センサ18が設けられてもよい。カメラ17としては、例えば赤外線カメラを用いることができる。この場合、赤外線を照射する照明装置および可視光を遮断するフィルタ等が、カメラ17に設けられてもよい。これにより、屋外か屋内かにかかわらず、カメラ17の撮影画像に基づく物体の検出精度をいっそう向上させることができる。
プロセッサ10は、カメラ17の撮影画像に対して、例えば以下の(1)〜(5)に示す処理のうち1つ以上の処理を行ってもよい。(1)プロセッサ10は、カメラ17の撮影画像に対し画像認識処理を行うことで、該撮影画像にユーザの手が含まれているか否かを特定する。プロセッサ10は、上述の画像認識処理において採用する解析技術として、例えばパターンマッチング等の技術を用いてよい。(2)また、プロセッサ10は、ユーザの手の形状から、ユーザのジェスチャを検出する。プロセッサ10は、例えば、撮影画像から検出されるユーザの手の形状から、ユーザの指の本数(伸びている指の本数)を特定する。プロセッサ10はさらに、特定した指の本数から、ユーザが行ったジェスチャを特定する。例えば、プロセッサ10は、指の本数が5本である場合、ユーザが「パー」のジェスチャを行ったと判定する。また、プロセッサ10は、指の本数が0本である(指が検出されなかった)場合、ユーザが「グー」のジェスチャを行ったと判定する。また、プロセッサ10は、指の本数が2本である場合、ユーザが「チョキ」のジェスチャを行ったと判定する。(3)プロセッサ10は、カメラ17の撮影画像に対し、画像認識処理を行うことにより、ユーザの指が人差し指のみ立てた状態であるか、ユーザの指がはじくような動きをしたかを検出する。(4)プロセッサ10は、カメラ17の撮影画像の画像認識結果、および、測距センサ18の出力値等の少なくともいずれか1つに基づいて、ユーザ端末100の近傍の物体1010(ユーザの手など)とユーザ端末100との距離を検出する。例えば、プロセッサ10は、カメラ17の撮影画像から特定されるユーザの手の形状の大小により、ユーザの手がユーザ端末100の近傍(例えば所定値未満の距離)にあるのか、遠く(例えば所定値以上の距離)にあるのかを検出する。なお、撮影画像が動画の場合、プロセッサ10は、ユーザの手がユーザ端末100に接近しているのか遠ざかっているのかを検出してもよい。(5)カメラ17の撮影画像の画像認識結果等に基づいて、ユーザの手が検出されている状態で、ユーザ端末100とユーザの手との距離が変化していることが判明した場合、プロセッサ10は、ユーザが手をカメラ17の撮影方向において振っていると認識する。カメラ17の撮影範囲よりも指向性が強い測距センサ18において、物体が検出されたりされなかったりする場合に、プロセッサ10は、ユーザが手をカメラの撮影方向に直交する方向に振っていると認識する。
このように、プロセッサ10は、カメラ17の撮影画像に対する画像認識により、ユーザが手を握りこんでいるか否か(「グー」のジェスチャであるか、それ以外のジェスチャ(例えば「パー」)であるか)を検出する。また、プロセッサ10は、ユーザの手の形状とともに、ユーザがこの手をどのように移動させているかを検出する。また、プロセッサ10は、ユーザがこの手をユーザ端末100に対して接近させているのか遠ざけているのかを検出する。このような操作は、例えば、マウスまたはタッチパネルなどのポインティングデバイスを用いた操作に対応させることができる。ユーザ端末100は、例えば、ユーザの手の移動に応じて、タッチスクリーン15においてポインタを移動させ、ユーザのジェスチャ「グー」を検出する。この場合、ユーザ端末100は、ユーザが選択操作を継続中であると認識する。選択操作の継続とは、例えば、マウスがクリックされて押し込まれた状態が維持されること、または、タッチパネルに対してタッチダウン操作がなされた後タッチされた状態が維持されることに対応する。また、ユーザ端末100は、ユーザのジェスチャ「グー」が検出されている状態で、さらにユーザが手を移動させると、このような一連のジェスチャを、スワイプ操作(またはドラッグ操作)に対応する操作として認識することもできる。また、ユーザ端末100は、カメラ17の撮影画像によるユーザの手の検出結果に基づいて、ユーザが指をはじくようなジェスチャを検出した場合に、当該ジェスチャを、マウスのクリックまたはタッチパネルへのタップ操作に対応する操作として認識してもよい。
<ゲームシステム1の機能的構成>
図2は、ゲームシステム1に含まれるサーバ200およびユーザ端末100の機能的構成を示すブロック図である。サーバ200およびユーザ端末100のそれぞれは、図示しない、一般的なコンピュータとして機能する場合に必要な機能的構成、および、ゲームにおける公知の機能を実現するために必要な機能的構成を含み得る。
ユーザ端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能を有する。ユーザ端末100は、プロセッサ10、メモリ11、ストレージ12、通信IF13、および入出力IF14等の協働によって、制御部110および記憶部120として機能する。
サーバ200は、各ユーザ端末100と通信して、ユーザ端末100がゲームを進行させるのを支援する機能を有する。ゲームがマルチプレイ型ゲームである場合には、サーバ200は、ゲームに参加する各ユーザ端末100と通信して、ユーザ端末100同士のやりとりを仲介する機能を有していてもよい。サーバ200は、プロセッサ20、メモリ21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部210および記憶部220として機能する。
記憶部120は、ゲームプログラム121、ゲーム情報122、およびユーザ情報123を格納する。記憶部220は、ゲームプログラム221、ゲーム情報222、およびユーザ情報223を格納する。ゲームプログラム121は、ユーザ端末100で実行するゲームプログラムである。ゲームプログラム221は、サーバ200で実行するゲームプログラムである。ゲーム情報122は、制御部110がゲームプログラム121を実行する際に参照するデータである。ゲーム情報222は、制御部210がゲームプログラム221を実行する際に参照するデータである。ユーザ情報123および223は、ユーザのアカウントに関するデータである。記憶部220において、ゲーム情報222およびユーザ情報223は、ユーザ端末100ごとに格納されている。
(サーバ200の機能的構成)
制御部210は、記憶部220に格納されたゲームプログラム221を実行することにより、サーバ200を統括的に制御する。例えば、制御部210は、ユーザ端末100に各種データおよびプログラム等を送信する。制御部210は、ゲーム情報もしくはユーザ情報の一部または全部をユーザ端末100から受信する。ゲームがマルチプレイゲームである場合には、制御部210は、ユーザ端末100からマルチプレイの同期の要求を受信して、同期のためのデータをユーザ端末100に送信してもよい。
制御部210は、ゲームプログラム221の記述に応じて機能する。制御部210は、実行するゲームの性質に応じて、ユーザ端末100におけるゲームの進行を支援するために、図示しないその他の機能ブロックとしても機能することができる。
(ユーザ端末100の機能的構成)
制御部110は、記憶部120に格納されたゲームプログラム121を実行することにより、ユーザ端末100を統括的に制御する。例えば、制御部110は、ゲームプログラム121およびユーザの操作にしたがって、ゲームを進行させる。また、制御部110は、ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受信を行う。
制御部110は、ゲームプログラム121の記述に応じて、操作受付部111、ユーザインターフェース(以下、UI)制御部112、アニメーション生成部113、表示制御部114、ゲーム進行部115として機能する。制御部110は、実行するゲームの性質に応じて、ゲームを進行させるために、図示しないその他の機能ブロックとしても機能することができる。
操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソールに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結果を制御部110の各要素に出力する。
例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作の種類として、例えばタッチ操作、スライド操作、スワイプ操作、ドラッグ操作、およびタップ操作等を特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッチスクリーン15から接触入力が解除されたことを検知する。
UI制御部112は、UIを構築するために表示部152に表示させるUIオブジェクトを制御する。UIオブジェクトは、ユーザが、ゲームの進行上必要な入力をユーザ端末100に対して行うためのツール、または、ゲームの進行中に出力される情報をユーザ端末100から得るためのツールである。UIオブジェクトは、これには限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。
アニメーション生成部113は、各種オブジェクトの制御態様に基づいて、各種オブジェクトのモーションを示すアニメーションを生成する。例えば、少女がオフィスで作業をしている様子を表現したアニメーション等を生成してもよい。
表示制御部114は、タッチスクリーン15の表示部152に対して、上述の各要素によって実行された処理結果が反映されたゲーム画面を出力する。表示制御部114は、アニメーション生成部113によって生成されたアニメーションを含むゲーム画面を表示部152に表示してもよい。また、表示制御部112は、上述のUIオブジェクトを、該ゲーム画面に重畳して描画してもよい。
なお、以降、操作受付部111によって入力部151に対する入力操作が検知され受け付けられることを、単に、入力操作が受け付けられる、とも記載する。また、他の機能ブロックが、各種のゲーム画面を表示制御部112によって表示部152に出力することを、単に、表示する、とも記載する。
ゲーム進行部115は、ゲームの進行に係る各種処理を行う。例えば、ゲーム進行部115は、操作受付部111が受け付けた入力操作の入力位置の座標と操作の種類とから示されるユーザの指示内容を解釈し、当該解釈に基づいて、ゲームを進行させる処理を行う。また、例えば、ゲーム進行部115は、ゲームの進行に応じて、ゲーム情報122またはユーザ情報123の追加、更新、または削除を行う。また例えば、ゲーム進行部115は、ゲームの進行に係る各種判定処理を行う。
例えば、ゲームにおいて、ユーザが操作する操作キャラクタ(本実施形態では、ユーザが導く少女たちの1人)と敵キャラクタとが戦闘するクエストが提供されている場合、ゲーム進行部115は、ユーザの操作に基づいて操作キャラクタの動作を決定する事により、戦闘を進行させる。また、この場合、ゲーム進行部115は、戦闘の進行状況に基づいて、操作キャラクタ及び敵キャラクタの何れが勝利したかを判定する。
なお、図2に示すサーバ200およびユーザ端末100の機能は一例にすぎない。サーバ200は、ユーザ端末100が備える機能の少なくとも一部を備えていてもよい。また、ユーザ端末100は、サーバ200が備える機能の少なくとも一部を備えていてもよい。さらに、ユーザ端末100およびサーバ200以外の他の装置をゲームシステム1の構成要素とし、該他の装置にゲームシステム1における処理の一部を実行させてもよい。すなわち、本実施形態においてゲームプログラムを実行するコンピュータは、ユーザ端末100、サーバ200、および他の装置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。
<処理フロー及び画面例>
ユーザ端末100が、ゲームプログラム121に基づいて実行する処理のうち、ルーラ(定規や枠などの特定画像)301、UIオブジェクト302および矢印AR1の表示を制御する処理の流れについて、図3のフローチャート及び図4(A)〜図4(D)の画面例を用いて説明する。なお、この処理は、例えば、ユーザが率いる少女たちが敵キャラクタとの戦闘に備えてオフィスで待機している場面において実行される。また、この処理は、操作受付部111、UI制御部112、表示制御部114等によって実行される。さらに、以下の説明において、フローチャートを用いて説明する一連の処理ステップの流れは、ユーザ端末100によって実行されるものとして記載しているが、これらの処理ステップの少なくとも一部が、サーバ200によって実行されてもよい。
ステップS01においては、仮想空間に仮想カメラを配置し、当該仮想カメラの視界に現れる画像を表示部152に表示する。仮想カメラは、例えばユーザが導く少女たちの1人の前方に配置される。この結果、表示部152には、例えば図4(A)に示すような少女の画像が表示される。なお、この時点では、図4(A)に図示するルーラ301、UIオブジェクト302および矢印AR1は表示されない。
ステップS02においては、入力部151の任意の位置から開始されたドラッグ操作がユーザによって行われたか否かを判定する。ドラッグ操作が行われたと判定されると、ステップS03において、ルーラ301を表示部152の所定位置に表示する。ルーラ301は、表示部152の右端および左端を縦方向に延在し、表示部152の下端を横方向に延在するように表示される。
なお、「ドラッグ操作」とは、ユーザがタッチスクリーン15に指などを接近させた接近状態を維持したまま、指をスライドさせる操作である。操作受付部111は、タッチスクリーン15の出力に基づいて、ユーザの指などが接近したことを検出した後、検出が維持されたまま、検出位置(タッチ位置)が移動している場合に、ユーザの操作を「ドラッグ操作」であると判別する。
ステップS04では、ドラッグ操作におけるタッチ開始位置(以下、開始位置ともいう)と現時点のタッチ位置(以下、現タッチ位置ともいう)とに基づいて、移動方向を算出する。ステップS04では、開始位置から現タッチ位置に向かう方向を移動方向として算出する。ステップS05においては、開始位置から反移動方向(ステップS04で算出された移動方向と反対の方向)へ所定距離だけ離れた位置を基準位置として設定する。図5を参照して、ドラッグ操作における開始位置が黒丸の位置で、現タッチ位置が白丸の位置であれば、斜線で示す丸印の位置が基準位置として設定される。
また、ステップS06においては、設定された基準位置と現タッチ位置とに基づいて、移動方向および移動距離を算出する。移動方向は基準位置から現タッチ位置に向かう方向であり、移動距離は基準位置から現タッチ位置までの距離である。
ステップS07では、開始位置から現タッチ位置まで延びるUIオブジェクト302を表示部152に表示する。図5に示すUIオブジェクト302は、右側に示す開始位置から現タッチ位置までドラッグ操作されたときの表示状態を示している。図5に示すように、UIオブジェクト302は、開始位置を根元として現在のタッチ位置まで延びる形状をなす。
ステップS08においては、ステップS06で算出された移動距離に応じた態様で、矢印AR1を表示する。具体的には、時計回り方向を示す矢印AR1を開始位置に描画し(図5参照)、当該矢印AR1を移動距離が長いほど速い速度で時計回り方向に回転させる。
したがって、図4(A)に示すような背景の画像が表示部152に表示されている状態で、ユーザが画面中央やや左下の位置を指FG1でタッチし、当該指FG1を右斜め上方向にスライドさせると、UIオブジェクト302は、指FG1の動きに沿って延びるように画面に表示され、矢印AR1はUIオブジェクト302の根元(開始位置)で時計回り方向に回転する。
また、図4(D)に示すような背景の画像が表示部152に表示されている状態で、ユーザが画面中央やや右下の位置を指FG1でタッチし、当該指FG1を左斜め上方向にスライドさせると、UIオブジェクト302は、指FG1の動きに沿って延びるように画面に表示され、矢印AR1はUIオブジェクト302の根元で時計回り方向に回転する。
ステップS09においては、ステップS06で算出された移動方向および移動距離に応じて、仮想カメラのパン/チルトを行う。具体的には、仮想カメラの配置を固定した状態で、仮想カメラの向きを、当該移動方向および当該移動距離に応じて変更する。このとき、パン/チルトの速度は、当該移動距離に応じた速度に設定される。このため、表示画像は、当該移動距離に応じた速度で移動(スクロール表示)される。
したがって、図4(A)に示すように右斜め上方向にドラッグ操作が行われた場合、仮想カメラが右斜め上方向に、移動距離に応じた速度で向けられる。その結果、背景画像は、ドラッグ操作に応じて、仮想空間における右斜め上方向の背景に切り替えられる。図4(B)は、仮想空間における図4(A)を基準とした場合に右斜め上方向に位置する背景の一例を示している。
また、図4(D)に示すように左斜め上方向にドラッグ操作が行われた場合、仮想カメラが左斜め上方向に、移動距離に応じた速度で向けられる。その結果、背景画像は、ドラッグ操作に応じて、仮想空間における左斜め上方向の背景に切り替えられる。図4(C)は、仮想空間における図4(D)を基準とした場合に左斜め上方向に位置する背景の一例を示している。
図4に示すように、ドラッグ操作によって仮想空間における背景を移動表示させることができる。一方、ルーラ301はタッチスクリーン15の表示領域中央を取り囲むように固定的に表示されているため、背景の移動に起因して乗り物酔いのような現象が生じるのを極力抑制することができる。
ステップS10においては、タッチ位置が移動したか否かを判定する。タッチ位置が移動したと判定された場合、処理はステップS06に戻る。したがって、UIオブジェクト302の形状(長さ及び延在方向)、矢印AR1の回転速度、および表示画像は、タッチ位置の移動に応じて変化する。
タッチ位置が移動したと判定されなかった場合は、タッチ操作が解除されたか否かをステップS11で判定する。タッチ操作が解除されたと判定されなかった場合、処理はステップS9に戻り、仮想カメラのパン/チルトを継続的に実行する。これにより、ステップS06で算出された移動方向および移動距離に応じて仮想カメラの向きを変化させることができ、その結果、仮想空間内における背景を移動表示させることができる。一方、タッチ操作が解除されたと判定された場合は、ステップS12においてUIオブジェクト302、矢印AR1およびルーラ301を非表示とする。この結果、UIオブジェクト302、矢印AR1およびルーラ301が表示部152から消失する。ステップS12の処理が完了すると、ステップS02に戻る。
<本実施形態の効果>
本実施形態によれば、入力部151に対するドラッグ操作が行われると、当該ドラッグ操作に応じた操作処理(背景移動表示)が行われるとともに、当該ドラッグ操作における開始位置に矢印AR1が表示される。矢印AR1は、ドラッグ操作中の指FG1の移動距離に応じた表示態様となる。これにより、ドラッグ操作に応じて操作処理を行うとともに、当該ドラッグ操作の移動距離に応じて当該ドラッグ操作の開始位置に表示される矢印AR1の表示態様を変化させることができる。つまり、ドラッグ操作や操作処理に応じた表示態様で矢印AR1を表示できる。よって、単にドラッグ操作の開始位置に画像を表示するものと比較して、矢印AR1にユーザを注目させるとともに操作処理だけでなく当該矢印AR1に興味を持たせることができる。その結果、操作処理中における興趣を向上させることができる。
また、本実施形態によれば、操作処理は、仮想空間を表す画像のうちドラッグ操作に応じて仮想空間内における背景の一部を移動表示する処理である。これにより、背景の移動表示に連動させて、矢印AR1の表示態様を変化させることができる。その結果、ドラッグ操作中の興趣を向上させることができる。
さらに、本実施形態によれば、背景画像はドラッグ操作時の指FG1の移動距離に応じた速度で移動(スクロール表示)される。このため、矢印AR1の表示態様を、背景画像の移動速度に連動させて変化させることができる。その結果、ドラッグ操作中の興趣を向上させるとともに、矢印AR1に視線を誘導させ易くすることで、乗り物酔いのような現象を抑制することができる。
また、本実施形態では、表示部152の表示領域中央を取り囲むような位置にルーラ301が固定的に表示される。これによって、乗り物酔いのような現象をさらに抑制することができる。
さらに、本実施形態では、矢印AR1は、ドラッグ操作時の指FG1の移動距離に応じた速度で回転される。これによって、当該移動距離が長いほど矢印AR1を目立たせることができ、その結果、ユーザの視線を開始位置に誘導させ易くすることができる。
また、本実施形態では、ドラッグ操作時の指FG1の動きに沿う形状のUIオブジェクト302が表示部152に表示される。これによって、操作処理中における興趣をさらに向上させることができる。
さらに、本実施形態では、開始位置に対して指FG1の移動方向と反対方向に所定距離だけ離れた位置が基準位置として設定され、基準位置から現タッチ位置までの距離が上述した移動距離として特定される。これによって、ドラッグ操作における指FG1の移動距離が短くても、操作処理について高い応答特性が得られる。
<変形例>
以上説明した実施形態の変形例などを以下に列挙する。
(1) 上記実施形態においては、仮想空間を表す画像のうち仮想カメラの視野に含まれる一部の画像を表示部152に表示し、ドラッグ操作に応じて仮想カメラをパン/チルトするようにしている。しかし、地図などの平面画像の一部を表示部152に表示し、ドラッグ操作に応じて平面画像をスクロールするようにしてもよい。
(2) 上記実施形態においては、ドラッグ操作時の指FG1の移動方向および移動距離の両方によって仮想カメラのパン/チルト量が規定される。しかし、当該移動方向のみによって当該パン/チルト量を規定するようにしてもよい。
(3) 上記実施形態においては、ドラッグ操作における開始位置に矢印AR1を表示し、指FG1の移動距離に応じた速度で矢印AR1を回転させるようにしている。しかし、矢印AR1の表示位置は開始位置から僅かにずれた位置であってもよいし、表示する画像は矢印AR1以外の画像であってもよい。また、表示した矢印AR1等の画像を回転させる代わりに、当該移動距離に応じた輝度で当該画像を光らせるようにしてもよい。
また、矢印AR1は、移動距離のみならず移動方向に応じて表示するようにしてもよい。例えば、矢印AR1は、移動距離に応じた速度で、移動方向に応じた回転方向(例えば、右向きの場合は時計回り、左向きの場合は反時計回り等)に回転表示するものであってもよい。
(4) 上記実施形態においては、ドラッグ操作のために指が入力部151にタッチされている限り、ルーラ301,UIオブジェクト302および矢印AR1の表示を継続するようにしている。しかし、タッチ状態でスライド操作を停止させたときにルーラ301,UIオブジェクト302および矢印AR1の表示を一時的に中断し、スライド操作を再開させたときにルーラ301,UIオブジェクト302および矢印AR1の表示を再開するようにしてもよい。
(5) 上記実施形態においては、仮想カメラは1人の少女の前方に配置されるが、図4(A)〜図4(D)に示す例では3人の少女が仮想空間に現れるため、別の少女に対するタッチ操作が行われたときに、仮想カメラの位置を当該別の少女の前方に移動させるようにしてもよい。
(6) 上記実施形態においては、ドラッグ操作に応じて仮想カメラをパン/チルトさせるようにしているが、これに加えて、ピンチイン操作またはピンチアウト操作に応じて仮想カメラのズーム倍率を変更するようにしてもよい。
(7) 上記実施形態においては、図3のステップS05において開始位置から反移動方向へ所定距離だけ離れた位置を基準位置として設定することにより、実際の操作量よりも高い応答特性を得られる例について説明した。しかし、このような処理を行うものに限らず、例えば、ステップS05の処理を行わずドラッグ操作の開始位置を基準位置に設定し、ステップS06において、当該基準位置と現タッチ位置とから算出される移動距離に所定距離を加算した値を移動距離として設定し、ステップS08やステップS09を実行するようにしてもよい。
また、所定距離は、予め定められている距離を想定して説明したが、これに限らず、ドラッグ操作の開始位置と現タッチ位置とから算出される移動距離に比例して大きな値となるようにしてもよい。例えば、ドラッグ操作の移動距離が大きい程、加算される距離が長くなる結果、応答特性が高くなるようにし、ドラッグ操作の移動距離が小さい程、加算される距離が短くなる結果、応答特性が低くなるようにしてもよい。
(8) 上記実施形態においては、操作処理として、ドラッグ操作によりタッチスクリーン15に表示する画像を移動表示させる処理を例示した。しかし、操作処理としては、ドラッグ操作に応じた処理であれば、これに限らず、ドラッグ操作に応じて、タッチスクリーン15に表示する所定のキャラクタを移動距離に応じた速度で移動方向へ移動表示させるような表示処理であってもよく、また、ドラッグ操作による移動方向および移動距離各々に応じた信号を外部に出力する信号出力処理であってもよい。このような信号出力処理により出力された信号に応じて、例えばユーザ端末100と通信可能な装置(例えば、無人飛行機など)を遠隔操作するものであってもよい。
<付記>
以上の各実施形態で説明した事項を、以下に付記する。
(付記1)
本開示に示す一実施形態のある局面によれば、プロセッサ、メモリ、およびタッチスクリーンを備えるコンピュータ(図1のユーザ端末100)において実行されるプログラムであって、前記プログラムは、前記プロセッサに、前記タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップ(図3のS04〜S06)と、前記第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップ(図3のS09)と、前記第1ステップによって特定された移動距離に応じた画像を、前記ドラッグ操作の開始位置に対応する位置に表示する第3ステップ(図3のS08)とを実行させる。
(付記2)
(付記1)において、前記第2ステップは、仮想空間を表す画像のうち前記移動方向および前記移動距離のうちの少なくとも一方に応じた一部の画像を前記タッチスクリーンに表示する。
(付記3)
(付記2)において、前記第2ステップは、前記移動距離に応じた速度で前記タッチスクリーンに表示する画像をスクロール表示させる。
(付記4)
(付記2)または(付記3)において、前記プログラムは、前記プロセッサに、前記タッチスクリーンの表示領域内における予め定められた位置に固定画像を表示する第4ステップ(図3のS03)を実行させる。
(付記5)
(付記1)から(付記4)のいずれかにおいて、前記第3ステップは、前記移動距離に応じて前記画像の表示態様を変化させる。
(付記6)
(付記1)から(付記5)のいずれかにおいて、前記プログラムは、前記プロセッサに、前記ドラッグ操作の開始位置と現在位置とに応じた画像を表示する第5ステップ(図3のS07)を実行させる。
(付記7)
(付記1)から(付記6)のいずれかにおいて、前記第1ステップは、前記ドラッグ操作に対応する移動方向を特定するステップ(図3のS04)と、前記開始位置から前記移動方向と反対方向に所定距離だけ離れた位置を基準位置として設定するステップ(図3のS05)と、前記基準位置から前記現在位置までの距離を前記移動距離として特定するステップ(図3のS06)とを含む。
(付記8)
一実施形態のある局面によれば、プロセッサ、メモリ、およびタッチスクリーンを備えるコンピュータ(図1のユーザ端末100)により実行される方法であって、前記方法は、前記コンピュータが、前記タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップ(図3のS04〜S06)と、前記第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップ(図3のS09)と、前記第1ステップによって特定された移動距離に応じた画像を、前記ドラッグ操作の開始位置に対応する位置に表示する第3ステップ(図3のS08)とを備える。
(付記9)
一実施形態のある局面によれば、情報処理装置(図1のユーザ端末100)であって、タッチスクリーン(図1の15)と、ゲームプログラムを記憶する記憶部(図1の11)と、前記ゲームプログラムを実行することにより、前記情報処理装置の動作を制御する制御部(図2の110)とを備え、前記制御部は、前記タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップ(図3のS04〜S06)と、前記第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップ(図3のS09)と、前記第1ステップによって特定された移動距離に応じた画像を、前記ドラッグ操作の開始位置に対応する位置に表示する第3ステップ(図3のS08)とを実行する。
〔ソフトウェアによる実現例〕
制御部110の制御ブロック(特に、操作受付部111、UI制御部112、アニメーション生成部113、表示制御部114、およびゲーム進行部115)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、制御部110を備えた情報処理装置は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
今回開示された実施の形態はすべての点で例示であって制限的なものでないと考えられるべきである。この発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 ゲームシステム、2 ネットワーク、10,20 プロセッサ、11,21 メモリ、12,22 ストレージ、13,23 通信IF(操作部)、14,24 入出力IF(操作部)、15 タッチスクリーン(表示部、操作部)、17 カメラ(操作部)、18 測距センサ(操作部)、100 ユーザ端末(情報処理装置)、110,210 制御部、111 操作受付部、112 表示制御部、113 UI制御部、114 アニメーション生成部、115 ゲーム進行部、120,220 記憶部、121,221 ゲームプログラム、122,222 ゲーム情報、123,223 ユーザ情報、151 入力部(操作部)、152 表示部、200 サーバ、1010 物体、1020 コントローラ(操作部)、1030 記憶媒体

Claims (9)

  1. プロセッサ、メモリ、およびタッチスクリーンを備えるコンピュータにおいて実行されるプログラムであって、
    前記プログラムは、前記プロセッサに、
    前記タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップと、
    前記第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップと、
    前記第1ステップによって特定された移動距離に応じた画像を、前記ドラッグ操作の開始位置に対応する位置に表示する第3ステップとを実行させる、プログラム。
  2. 前記第2ステップは、仮想空間を表す画像のうち前記移動方向および前記移動距離のうちの少なくとも一方に応じた一部の画像を前記タッチスクリーンに表示する、請求項1に記載のプログラム。
  3. 前記第2ステップは、前記移動距離に応じた速度で前記タッチスクリーンに表示する画像をスクロール表示させる、請求項2に記載のプログラム。
  4. 前記プログラムは、前記プロセッサに、
    前記タッチスクリーンの表示領域内における予め定められた位置に特定画像を表示する第4ステップを実行させる、請求項2または請求項3に記載のプログラム。
  5. 前記第3ステップは、前記移動距離に応じて前記画像の表示態様を変化させる、請求項1〜4のいずれかに記載のプログラム。
  6. 前記プログラムは、前記プロセッサに、
    前記ドラッグ操作の開始位置と現在位置とに応じた画像を表示する第5ステップを実行させる、請求項1〜5のいずれかに記載のプログラム。
  7. 前記第1ステップは、
    前記ドラッグ操作に対応する移動方向を特定するステップと、
    前記開始位置から前記移動方向と反対方向に所定距離だけ離れた位置を基準位置として設定するステップと、
    前記基準位置から前記現在位置までの距離を前記移動距離として特定するステップとを含む、請求項1〜6のいずれかに記載のプログラム。
  8. プロセッサ、メモリ、およびタッチスクリーンを備えるコンピュータにより実行される方法であって、
    前記方法は、前記コンピュータが、
    前記タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップと、
    前記第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップと、
    前記第1ステップによって特定された移動距離に応じた画像を、前記ドラッグ操作の開始位置に対応する位置に表示する第3ステップとを備える、方法。
  9. 情報処理装置であって、
    タッチスクリーンと、
    ゲームプログラムを記憶する記憶部と、
    前記ゲームプログラムを実行することにより、前記情報処理装置の動作を制御する制御部とを備え、
    前記制御部は、
    前記タッチスクリーンに対するドラッグ操作の開始位置と現在位置とに基づいて、当該ドラッグ操作に対応する移動方向および移動距離を特定する第1ステップと、
    前記第1ステップによって特定された移動方向および移動距離のうちの少なくとも一方に応じた操作処理を行う第2ステップと、
    前記第1ステップによって特定された移動距離に応じた画像を、前記ドラッグ操作の開始位置に対応する位置に表示する第3ステップとを実行する、情報処理装置。


JP2018101238A 2018-05-28 2018-05-28 プログラム、方法、および情報端末装置 Pending JP2019205514A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018101238A JP2019205514A (ja) 2018-05-28 2018-05-28 プログラム、方法、および情報端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018101238A JP2019205514A (ja) 2018-05-28 2018-05-28 プログラム、方法、および情報端末装置

Publications (1)

Publication Number Publication Date
JP2019205514A true JP2019205514A (ja) 2019-12-05

Family

ID=68768083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018101238A Pending JP2019205514A (ja) 2018-05-28 2018-05-28 プログラム、方法、および情報端末装置

Country Status (1)

Country Link
JP (1) JP2019205514A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10589246B2 (en) * 2015-02-26 2020-03-17 Kellogg Brown & Root Llc High temperature inlet distributor
KR20220120404A (ko) * 2021-02-22 2022-08-30 주식회사 네오플 터치 스크린 인터페이스를 제공하는 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10589246B2 (en) * 2015-02-26 2020-03-17 Kellogg Brown & Root Llc High temperature inlet distributor
KR20220120404A (ko) * 2021-02-22 2022-08-30 주식회사 네오플 터치 스크린 인터페이스를 제공하는 방법 및 장치
KR102595353B1 (ko) * 2021-02-22 2023-10-31 주식회사 네오플 터치 스크린 인터페이스를 제공하는 방법 및 장치

Similar Documents

Publication Publication Date Title
JP6472555B1 (ja) ゲームプログラム、方法、および情報処理装置
JP6514376B1 (ja) ゲームプログラム、方法、及び情報処理装置
JP6612391B1 (ja) ゲームプログラム、方法、および情報処理装置
JP6450875B1 (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP6450485B1 (ja) ゲームプログラム、方法、及び情報処理装置
JP6498801B1 (ja) ゲームプログラム、方法、および情報処理装置
JP2019205514A (ja) プログラム、方法、および情報端末装置
JP2024023652A (ja) プログラム
JP2019187815A (ja) ゲームプログラム、方法、および情報処理装置
JP2019126741A (ja) ゲームプログラム、方法、及び情報処理装置
JP2020022574A (ja) ゲームプログラム、方法、および情報処理装置
JP7272799B2 (ja) ゲームプログラム、方法、および情報処理装置
JP6416419B1 (ja) ゲームプログラム、方法、および情報処理装置
JP2020110603A (ja) ゲームプログラム、方法、および情報処理装置
JP2020110352A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
JP2019103815A (ja) ゲームプログラム、方法および情報処理装置
JP2020036631A (ja) ゲームプログラム、方法、および情報処理装置
JP6469784B1 (ja) プログラム、方法、および情報処理装置
JP6334043B1 (ja) ゲームプログラム、方法、及び情報処理装置
JP6668425B2 (ja) ゲームプログラム、方法、および情報処理装置
JP6307651B1 (ja) ゲームプログラム、方法、および、情報処理装置
US20220355189A1 (en) Game program, game method, and information processing device
JP6661595B2 (ja) ゲームプログラム、方法および情報処理装置
JP2019150561A (ja) ゲームプログラム、方法、および情報処理装置
JP2020075171A (ja) ゲームプログラム、方法及び情報処理装置

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180623