JP2017021466A - ユーザ入力支援のためのコンピュータ・プログラム - Google Patents
ユーザ入力支援のためのコンピュータ・プログラム Download PDFInfo
- Publication number
- JP2017021466A JP2017021466A JP2015136845A JP2015136845A JP2017021466A JP 2017021466 A JP2017021466 A JP 2017021466A JP 2015136845 A JP2015136845 A JP 2015136845A JP 2015136845 A JP2015136845 A JP 2015136845A JP 2017021466 A JP2017021466 A JP 2017021466A
- Authority
- JP
- Japan
- Prior art keywords
- user
- contact information
- contact
- computer program
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】スタンプ入力動作を容易にすべく、タッチパネルに対するユーザ操作を最小限に抑制できるユーザ入力支援のためのコンピュータ・プログラムを提供することを目的とする。
【解決手段】コンピュータ・プログラムは、1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、上記1のユーザが有するユーザ端末のディスプレイに表示する視界画像生成部と、ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、当該選択されたコンタクト情報を視界画像に重畳し、ディスプレイに表示するコンタクト出力部として前記ユーザ端末に機能させる。
【選択図】図5
【解決手段】コンピュータ・プログラムは、1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、上記1のユーザが有するユーザ端末のディスプレイに表示する視界画像生成部と、ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、当該選択されたコンタクト情報を視界画像に重畳し、ディスプレイに表示するコンタクト出力部として前記ユーザ端末に機能させる。
【選択図】図5
Description
本発明は、ユーザ入力支援のためのコンピュータ・プログラムに関する。より詳細には、複数のユーザ間で仮想空間を共有して相互対話をする際に、各ユーザによるユーザ端末からのコンタクト情報の入力を容易にするようにユーザ支援するためのコンピュータ・プログラムに関するものである。
複数のユーザが仮想空間を共有し、オンラインでの情報発信を通じてメッセージ交換等の相互対話を行うことが知られる。例えば、スマートフォンを利用したメッセージ・チャット・アプリケーションが知られ、ユーザの投稿内容として、テキスト情報のみならずスタンプと称されるアイコン画像情報を用いた画像チャットが用いられる。
また、ユーザの投稿内容の表示に関し、仮想空間内で各ユーザが入力した情報を該ユーザに関連付けられるキャラクタ(アバタ)から吹き出し表示するものが知られる。例えば、特許文献1では、SNS等においてフォローしているユーザによる投稿を表示する際に、各ユーザに対応付いたキャラクタを表示した空間フィールド画面において、各フォロー・ユーザの投稿内容をキャラクタから吹き出し表示する。
スマートフォンを用いたオンライン・ゲーム、特に、仮想空間内でユーザがキャラクタを操作可能な対戦型のオンラインRPGにおいて、ゲーム内の仮想空間を複数のユーザで共有することを想定する。この場合、上記のように画像チャット手法を適用して、各ユーザが入力したテキスト情報やスタンプ等のコンタクト情報を、該ユーザに対応付けたキャラクタから吹き出し表示することが想定される。
しかしながら、対戦型のオンラインRPGでは、一般的に、スマートフォンのタッチパネルに対する入力操作は即効性が必要とされるのに対し、ユーザが入力しようとするコンタクト情報、特にスタンプを選択する動作は多くのタッチ動作を伴うものであるため、従来型のスタンプ入力動作をユーザに要求するのは適さない。特に、昨今の画像チャットにおいてユーザに提供されるスタンプの種類も多岐にわたるため、ユーザがその中から所望のスタンプを選択するのに時間を掛けさせることは対戦型のオンラインRPGのゲーム進行上ふさわしくない。
そこで、本発明は、このようなスタンプ入力動作を容易にすべく、タッチパネルに対するユーザ操作を最小限に抑制できるユーザ入力支援のためのコンピュータ・プログラムを提供することを目的とする。
上記の課題を解決するために、本発明によれば、1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、上記1のユーザが有するユーザ端末のディスプレイに表示する視界画像生成部と、ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、当該選択されたコンタクト情報を視界画像に重畳し、ディスプレイに表示するコンタクト出力部として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラムが得られる。
本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
(項目1)
1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、前記1のユーザが有するユーザ端末のディスプレイに表示する視界画像生成部と、
前記ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、
前記選択されたコンタクト情報を前記視界画像に重畳し、前記ディスプレイに表示するコンタクト出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、コンタクト情報の候補をユーザ端末の傾け動作に応答して表示させることにより、ユーザは、タッチパネルへの多くのタッチ動作を要することなく、数多くのスタンプの中から所望のスタンプを適宜選択および入力することができる。特に上記の対戦型のオンラインRPGにおいて、ゲーム進行を妨げることなく、ゲーム状況に応じたスタンプ入力をユーザに実施させることを可能とする。
1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、前記1のユーザが有するユーザ端末のディスプレイに表示する視界画像生成部と、
前記ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、
前記選択されたコンタクト情報を前記視界画像に重畳し、前記ディスプレイに表示するコンタクト出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、コンタクト情報の候補をユーザ端末の傾け動作に応答して表示させることにより、ユーザは、タッチパネルへの多くのタッチ動作を要することなく、数多くのスタンプの中から所望のスタンプを適宜選択および入力することができる。特に上記の対戦型のオンラインRPGにおいて、ゲーム進行を妨げることなく、ゲーム状況に応じたスタンプ入力をユーザに実施させることを可能とする。
(項目2)
前記コンタクト出力部において、前記選択されたコンタクト情報を重畳するためのコンタクト情報配置領域を、前記キャラクタの配置に従って前記視界画像内に決定し、
前記コンタクト情報配置領域内において前記選択されたコンタクト情報を吹き出し画像と共に表示する、項目1記載のコンピュータ・プログラム。
前記コンタクト出力部において、前記選択されたコンタクト情報を重畳するためのコンタクト情報配置領域を、前記キャラクタの配置に従って前記視界画像内に決定し、
前記コンタクト情報配置領域内において前記選択されたコンタクト情報を吹き出し画像と共に表示する、項目1記載のコンピュータ・プログラム。
(項目3)
前記仮想空間が他のユーザに関連付けられる他のキャラクタと共有され、
前記コンタクト出力部において、更に、前記他のユーザが選択した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、項目1または2記載のコンピュータ・プログラム。
前記仮想空間が他のユーザに関連付けられる他のキャラクタと共有され、
前記コンタクト出力部において、更に、前記他のユーザが選択した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、項目1または2記載のコンピュータ・プログラム。
(項目4)
前記コンタクト出力部において、前記選択された他のコンタクト情報を重畳するための他のコンタクト情報配置領域を、前記他のキャラクタの配置に従って前記視界画像内に決定し、
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、項目3記載のコンピュータ・プログラム。
前記コンタクト出力部において、前記選択された他のコンタクト情報を重畳するための他のコンタクト情報配置領域を、前記他のキャラクタの配置に従って前記視界画像内に決定し、
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、項目3記載のコンピュータ・プログラム。
(項目5)
前記コンタクト入力部において、前記ユーザ端末が備える傾きセンサによって、前記ユーザ端末の傾き情報を検出し、該傾き情報が、所定の角度範囲の傾き状態が一定時間維持されることを示す場合に、前記傾け動作として特定されて、前記コンタクト情報の候補が前記ディスプレイに表示される、項目1から4のいずれか一項記載のコンピュータ・プログラム。
前記コンタクト入力部において、前記ユーザ端末が備える傾きセンサによって、前記ユーザ端末の傾き情報を検出し、該傾き情報が、所定の角度範囲の傾き状態が一定時間維持されることを示す場合に、前記傾け動作として特定されて、前記コンタクト情報の候補が前記ディスプレイに表示される、項目1から4のいずれか一項記載のコンピュータ・プログラム。
(項目6)
前記ディスプレイがタッチパネルであり、
前記コンタクト入力部において、前記1のコンタクト情報の選択が、前記1のコンタクト情報を特定するために前記タッチパネルにタッチする操作と共に、所定の方向に所定の距離だけスライドするユーザ操作を含む、項目1から5のいずれか一項記載のコンピュータ・プログラム。
前記ディスプレイがタッチパネルであり、
前記コンタクト入力部において、前記1のコンタクト情報の選択が、前記1のコンタクト情報を特定するために前記タッチパネルにタッチする操作と共に、所定の方向に所定の距離だけスライドするユーザ操作を含む、項目1から5のいずれか一項記載のコンピュータ・プログラム。
(項目7)
前記所定の方向が前記ユーザ端末の傾け動作における傾け方向に対応付けられる、項目6記載のコンピュータ・プログラム。
前記所定の方向が前記ユーザ端末の傾け動作における傾け方向に対応付けられる、項目6記載のコンピュータ・プログラム。
(項目8)
前記コンタクト入力部において、前記複数のコンタクト情報の候補が前記キャラクタのキャラクタ特性に従って決定される、項目1から7のいずれか一項記載のコンピュータ・プログラム。
前記コンタクト入力部において、前記複数のコンタクト情報の候補が前記キャラクタのキャラクタ特性に従って決定される、項目1から7のいずれか一項記載のコンピュータ・プログラム。
(項目9)
前記コンタクト情報がスタンプ画像である、項目1から8のいずれか一項記載のコンピュータ・プログラム。
前記コンタクト情報がスタンプ画像である、項目1から8のいずれか一項記載のコンピュータ・プログラム。
[本発明の実施形態の詳細]
以下、図面を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。
図1は、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムを実行させるためのコンピュータ・システムの全体概略図である。図1では、コンピュータ・システムの主要な構成要素のみを示している。コンピュータ・システム100は、ユーザ端末10−1〜10−4(以後、「ユーザ端末10」と総称する。)、およびコンピュータ・サーバ50を備え、これら要素間はネットワーク30(特に、インターネット・ネットワーク)を介して通信を行う。なお、以下では、一例として、本発明の実施形態によるコンピュータ・プログラムをゲーム・プログラムとしてスマートフォン・ゲームに適用し、複数のユーザに共有ゲーム空間(3次元仮想空間)内で相互にコミュニケーションさせるオンライン・ゲーム、特に、3次元仮想空間内で各ユーザが自分自身に関連付けられたキャラクタを操作可能な対戦型のオンラインRPGを想定する。
以下、図面を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。
図1は、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムを実行させるためのコンピュータ・システムの全体概略図である。図1では、コンピュータ・システムの主要な構成要素のみを示している。コンピュータ・システム100は、ユーザ端末10−1〜10−4(以後、「ユーザ端末10」と総称する。)、およびコンピュータ・サーバ50を備え、これら要素間はネットワーク30(特に、インターネット・ネットワーク)を介して通信を行う。なお、以下では、一例として、本発明の実施形態によるコンピュータ・プログラムをゲーム・プログラムとしてスマートフォン・ゲームに適用し、複数のユーザに共有ゲーム空間(3次元仮想空間)内で相互にコミュニケーションさせるオンライン・ゲーム、特に、3次元仮想空間内で各ユーザが自分自身に関連付けられたキャラクタを操作可能な対戦型のオンラインRPGを想定する。
ユーザ端末10は、コンピュータ・サーバ50から送られるデータを使用し、またコンピュータ・サーバ50から送られるプログラムを実行して、ゲーム画像を生成・表示できる装置であればよく、例えば、インターネットに接続可能な携帯電話機、スマートフォン、タブレット端末、ゲーム用コンソール、ノートPC等を含むが、これらに限定されない。図示のように、ユーザ端末10は、端末表示部11、端末入力部12、端末処理部13、端末通信部14および端末記憶部15等を備え、これらはバスを介して電気的に相互に接続される。
ゲーム・サーバ50から端末通信部14で受信したデータやプログラムは、端末記憶部15に一時的に格納され、ゲームの進行に応じて端末処理部13で画面イメージが生成されて、端末表示部11によって表示される。端末表示部11は、例えば液晶ディスプレイ(LCD)等によって実現することができるが、図2に後述するように特にタッチ・ディスプレイとして構成するのがよい。端末入力部12は、3次元仮想空間に配置される仮想カメラの操作制御をするための命令や、ゲームを進行させるためのユーザ作用全般の命令の入力、および相手キャラクタへのコンタクト情報の入力を実施する。
端末入力部12で受けた入力命令に基づいて、端末処理部13においてプログラムが実行される。または、ユーザ命令が作成され、端末通信部14およびネットワーク30を通じてコンピュータ・サーバ50と通信を行い、コンピュータ・サーバ50によってプログラムが実行される。端末記憶部15は、ユーザ端末に関連付けられる各種データ、および画像データの表示に必要なブラウザ等のアプリケーションを格納すると共に、ゲーム・サーバ50から受信するスタンプ画像データ等のコンタクト・データ、並びに画面イメージを生成するためのデータおよびプログラム等の各種データも格納する。
一方、コンピュータ・サーバ50は、処理部51、メインメモリ52、外部メモリ53、ユーザ・インタフェース54、通信部55、およびディスク・ドライブ56等を備え、これらはバスを介して電気的に相互に接続される。処理部51は、外部メモリ53に格納されたプログラム・モジュール、およびディスク・ドライブ56に格納されたユーザ・データ、スタンプ画像データ、仮想空間情報、およびゲーム進行データ等の各種データ等をメインメモリ52にロードして、順次、各種コンピュータ・プログラムを実行することによりゲームの進行を制御する。特に、処理部51は、ユーザ端末10間で共有させるための仮想空間情報等のデータやプログラムを管理し、必要に応じて通信部55を介してユーザ端末10に提供するように構成される。ユーザ・インタフェース54は、ゲーム・サーバ50の管理者によってサーバにアクセスされ、各種サーバ機能設定やネットワーク設定が実施される。
なお、上記コンピュータ・サーバ50に関する情報処理装置としての様々な機能の全部または一部は、ユーザ端末10が担うように構成してもよい。この場合には、ユーザ端末10自体で情報処理装置を構成するか、またはユーザ端末10およびコンピュータ・サーバ50を組み合わせ、全体で情報処理装置を構成することになる。
図2にユーザ端末10の一例として、携帯端末(特にスマートフォン)10の基本構成に関するブロック図を示す。図示のように、携帯端末10は基本構成として、タッチ・ディスプレイ110、制御部140および記憶部150を備える。タッチ・ディスプレイ110は、記憶部150に格納された各種データを表示するための表示部/ディスプレイ120、該表示部/ディスプレイ120に対し、人の指やスタイラスなどの物体による接触操作(主に、タッチ操作、スワイプ(スライド)操作およびタップ操作等の物理的接触操作)を検知する接触検知部/タッチパネル125、並びに、携帯端末の傾きを計測して検知する傾き検知部(傾きセンサ)130を備える。
接触検知部125はタッチ・ディスプレイの構造上、液晶パネル、有機EL、プラズマディスプレイ等のようなディスプレイ120の上層に配置される。接触検知部125は、圧力検出方式、抵抗膜方式、静電容量方式や電磁誘導方式等を採用することができる。接触検知部125上で指やスタイラス等の物体の接触による入力を受けた際に、その接触位置において押圧、電気抵抗、電気容量や弾性波のエネルギー等の変化量を検知し、表示部120上の対応する接触座標が特定される。
傾き検知部(傾きセンサ/角速度センサ)130について、次の図3を参照して説明する。本発明の実施形態では、図3に示すように傾き検知部130で経時的に角度情報が計測および検知される。角度情報に関し、携帯端末10を中心にXYZ座標系を規定することができる。XYZ座標は、所定のタイミングを初期状態とした相対座標である。より具体的には、携帯端末10のタッチ・ディスプレイ110面をXY表面とし、垂直方向をZ軸とする。図3では、ユーザが携帯端末10を縦持ちして操作することを想定して、図示のようにX軸およびY軸を規定している。横持ちの場合は、X軸、Y軸を逆にするとよい。傾き検知部130では、各軸回りの角度、即ち、X軸を中心とした回転を示すロール角、Y軸を中心とした回転を示すピッチ角、およびZ軸を中心とした回転を示すヨー角を回転方向と共に角度情報としてそれぞれ検知し、該検知した角度情報に少なくとも基づく経時的な変化データにより携帯端末10の傾き情報を決定することができる。
図2に戻り、制御部140は、端末処理部からの処理命令に従って、本発明の実施形態によるコンピュータ・プログラムを実行して携帯端末10を動作させるように構成される。制御部140の詳細については図6を参照して後述する。記憶部150は、本実施形態によるコンピュータ・プログラム、ゲーム・プログラム、ユーザやゲームに関連するデータ、およびコンタクト情報データの全般を格納し、制御部からの命令に応じて情報の登録、更新、削除等が実施される。なお、本実施形態によるコンピュータ・プログラムを通じて入力されるスタンプ画像についてもサーバ50から携帯端末10にユーザがダウンロードした際に格納する。
これより図4および図5を参照して、本発明の実施形態によるコンピュータ・プログラムが適用されるオンライン・アクションRPGの一例のゲーム・コンテンツ例の概要を示す。ここでは、複数のユーザが同一の3次元仮想空間を共有し、それぞれが当該3次元仮想空間で自らのキャラクタに対するアクション操作を実施可能である。加えて、各ユーザは、キャラクタへのアクション操作によりゲームを進行することができると共に、キャラクタを通じた相互対話、即ち、テキスト・チャットや画像チャットのようなリアルタイムのチャットをゲーム進行と同時に実施可能である。
図4(a)および(b)は、自キャラクタ1を操作するユーザ(自ユーザ)のユーザ画面に表示される一連のゲーム画像である。関連付けるキャラクタはユーザ毎に異なるため、ユーザごとに端末に表示されるゲーム画面は異なる。現に、図4(a)(b)の視界画像3は、自キャラクタ1の配置(画面中心よりやや上)に基づき、自ユーザの端末の画面に表示される画像である。一方、相手キャラクタ2を操作する別のユーザ(相手ユーザ)の端末の画面に表示される画像は、相手キャラクタ2の配置(画面中心よりやや上)に基づいた視界画像となり、自ユーザの視界画像とは異なる。
自ユーザの視界画像3の中心上部近傍に自キャラクタ1が表示される。つまり、自キャラクタ1の配置は表示画面の所定の位置範囲に位置合わせされる。ユーザは、端末入力部を通じたユーザ命令にしたがって3次元仮想空間内を移動可能である。自キャラクタ1には仮想カメラが関連付けられており、該仮想カメラは3次元仮想空間内の自キャラクタの後方かつ上方に配置されて(図示せず)、自キャラクタの移動に追従するよう動作する。自キャラクタ1の仮想カメラからの視界領域に基づいて視界画像3が生成され、端末のディスプレイに表示される。ここで、各キャラクタは、キャラクタ特性5を有しており、画面左下に表示される。キャラクタ特性5には、例えば、キャラクタの種別、キャラクタ画像、キャラクタとしての強さ(ヒット・ポイント(HP:キャラクタの体力ポイント)やスキル・ポイント(SP:必殺技を繰り出すための技能ポイント))等が含まれる。
図4(a)の例では、自キャラクタ1の左下部に、相手ユーザが操作している相手キャラクタ2が位置しており、視界画像3に映り込んでいる。そして、自ユーザ1は、自らのユーザ端末から「こんにちは」というコンタクト情報を入力して3次元仮想空間内に発信している。その結果、図示のように、視界画像3において自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像4が表示され、自ユーザの画面に表示されている。勿論、相手ユーザの画面上にも、自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像が表示されることになることが理解される。
自ユーザが3次元空間で自キャラクタ1を上方向に移動させると、図3(b)のような視界画像の表示となる。この場合、相手キャラクタ2は自キャラクタ1からは離れて画面左下に位置するようにゲーム進行される。併せて、図3(b)では、図3(a)で自キャラクタが「こんにちは」なるコンタクト情報を3次元仮想空間に発信したのに応答する形で、相手ユーザが自らの端末から「お元気ですか!?」なるコンタクト情報を入力して3次元仮想空間内に発信する。その結果、自ユーザの視界画像3でも、相手キャラクタ2から「お元気ですか!?」とテキスト表示された吹き出し画像4が表示される。
なお、図4では、ゲーム内空間を共有するキャラクタに送信されるコンタクト情報がテキスト情報であるが、次の図5に示すように、コンタクト情報は、画像チャットのようなスタンプ(即ち一般的にアイコンと称される)画像としてもよい。また、本発明の実施形態によるコンピュータ・プログラムが適用できるコンテンツは、ゲーム・アプリケーション、特に図3のようなオンライン・アクションRPGに限定されない。SNSや電子掲示板のように、複数のユーザがメッセージ交換を行ったり、自らの近況を関連ユーザに知らせたりするような3次元仮想空間内でコミュニケーションを行うアプリケーションに対して、本発明の実施形態によるコンピュータ・プログラムを広範に適用可能であることが認められて然るべきである。
図5は、自ユーザが、ゲームの進行と同時に、3次元仮想空間にスタンプを送信する際のスタンプ選択に関する態様である。まず図5(a)では、上記のように、自ユーザの視界画像3の中心上部近傍に自キャラクタ1が表示され、当該自キャラクタを操作可能な状態でゲームが進行されている。図5(a)の状態から自ユーザがスタンプを入力して3次元仮想空間に発信する場合、通常は、ユーザの端末操作により「ゲーム進行モード」から「スタンプ入力モード」に切り替えて、スタンプの候補を表示させた上で、所望のスタンプをタッチパネル上のタッチ操作によりユーザが選択することになる。
本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムでは、「ゲーム進行モード」から「スタンプ入力モード」への切り替えが非常に容易である。より具体的には、ユーザはユーザ端末を任意の方向に傾け、傾け状態を所定の時間維持するだけで、「スタンプ入力モード」へと移行可能である。これは、傾き検知部130によって端末の傾き状態を検知することによって実現される。なお、「スタンプ入力モード」状態においても、ユーザは通常通りゲーム進行させることも可能である。
本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムによって「スタンプ入力モード」へと移行すると、図5(b)のように、例えば画面の左側から入力スタンプの候補(スタンプST1〜ST4)を出現させて、ユーザに提示する。ユーザは、提示されたスタンプの候補から入力したいスタンプを決定することになる。決定したスタンプを選択して入力するために、ユーザに対し、図5(c)のように、例えば決定したスタンプ(スタンプST1)を画面上でタッチさせ、そのまま画面の右方向に所定の距離だけスライド操作を実施させる。その結果、図5(d)のように、視界画像3において自キャラクタ1からスタンプST1が表示された吹き出し画像4が反映されて表示され、3次元仮想空間に発信される。即ち、相手キャラクタ2に送信される。
上記図4および図5の画面例を踏まえ、これより、図6以降を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて、特に図5に例示したスタンプ画像の入出力に関連する情報処理について詳細に説明する。図6は、当該処理を実施するためにユーザ端末10に実装される主要機能ブロック図であり、その全体が図2の制御部140に相当する。図6に示すように、制御部140は、大きくは、ゲーム進行部61、コンタクト入力部71およびコンタクト出力部91を含む。ゲーム進行部61は、自キャラクタ移動制御部611、仮想カメラ制御部(視界領域決定部)613、および視界画像生成部615を含む。また、コンタクト入力部71は、傾け動作検知部711、候補決定表示部713、および候補選択部715を含む。更に、コンタクト出力部91は、コンタクト情報配置領域決定部911、コンタクト情報生成部913、およびコンタクト情報重畳部915を含む。制御部140は、上記以外にも、コンタクト受信部81、キャラクタ配置決定部83等も含む。なお、図6は本発明の実施形態によるコンピュータ・プログラムを実装するための最低限の主要機能のセットを記載したに過ぎない点に留意すべきである。
これにより、図7のフロー図を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムにより実施される、自ユーザと相手ユーザのサーバ・システムを介した一例の相互作用の処理について説明する。ここでは、自キャラクタの動作を制御可能な自ユーザaのユーザ端末と、相手キャラクタの動作を制御可能な相手ユーザbのユーザ端末がサーバ・システムを介してメッセージ交換することを想定する。図7に例示する情報処理では、最初に、サーバ・システムによりステップS1sにおいて、ユーザ間で共有する仮想空間情報が配信され、自ユーザaおよび他ユーザbがステップS1aおよびステップS1bにおいて仮想空間情報を展開することにより、仮想空間が共有される。その後の情報処理は、大きくは、キャラクタの空間内移動に伴うゲーム進行処理(通常のアクション・ゲーム進行。図7の上半分)および空間内コンタクトに関するコンタクト処理(図7の下半分)から構成される。
キャラクタの空間内移動に伴うゲーム進行処理は、自ユーザaによるステップS2a〜S4a、および相手ユーザbによるステップS2b〜S4b、並びにサーバ・システムによるステップS2sから構成される。ステップS2aでは、自ユーザaは、自キャラクタ移動制御部611によって自キャラクタを操作して3次元仮想空間内を移動させる。ステップS3aでは、自キャラクタの3次元仮想空間内の移動に伴い、仮想カメラ制御部613によって、自キャラクタに仮想カメラを追従させる。そして自ユーザに関連付けられた自キャラクタの3次元仮想空間内の配置を中心に関連付けた視界領域を決定する。なお、自キャラクタの移動情報はサーバ・システムにも逐一、定期的に、およびイベント・トリガのいずれか1つ以上により反映するのがよい。即ち、ステップS2sでは、サーバ・システムによって自キャラクタの位置情報で仮想空間情報を更新する。そして、ステップS4aでは、ステップS3aで決定された視界領域に基づいて、視界画像生成部615によって視界画像が生成され、ユーザ端末のディスプレイに表示される。相手ユーザbの相手キャラクタによる空間内移動(ステップS2b〜S4b)についても同様である。
空間内コンタクトに関するコンタクト処理は、自ユーザaによるステップS5a〜S6a、および相手ユーザbによるステップS5b〜S6b、並びにサーバ・システムによるステップS3sから構成される。自ユーザaの自キャラクタおよび相手ユーザbの相手キャラクタが3次元仮想空間を共有して移動しながらゲームが進行する中で、ステップS5aにおいて、自ユーザaは、コンタクト入力部71によって3次元仮想空間内にコンタクト情報を発信する。即ち、3次元仮想空間を共有しているユーザ(相手ユーザb)に向けて、図4および図5に例示したようなコンタクト情報を送信する(図8で詳述)。コンタクト情報は、テキスト情報でもスタンプ画像情報でもよい。送信されるコンタクト情報は、ステップS3sにおいてサーバ・システム側で空間情報の更新処理に用いられ、次いで、3次元仮想空間内に発信されて自ユーザaおよび相手ユーザbの両方に通知される。
そして、ユーザa側では、ステップS6aにおいて、コンタクト出力部91によって、自ら送信したコンタクト情報を収容した吹き出し画像を自キャラクタの配置に基づいて自身の視界画像に重畳させて、ディスプレイに表示する(図9で詳述)。相手ユーザb側では、ステップS5bにおいて、コンタクト受信部81によって自ユーザaからのコンタクト情報を受信し、キャラクタ配置決定部83によって3次元仮想空間内の自キャラクタの配置位置を特定する。引き続き、ステップS6bにおいて、コンタクト出力部91によって、受信したコンタクト情報を収容する吹き出し画像を自キャラクタの配置に基づいて相手ユーザ自身の視界画像に重畳させて、ディスプレイに表示する。
次に、図8〜図12を参照して、上記のうち特に自ユーザaによるステップS5a,S6aの情報処理について詳細に説明する。この内、図8は、図7のステップS5aにおいてコンタクト情報としてスタンプ画像を送信するコンタクト入力処理を詳細化したフロー図である。図8は、図5の一連の画面イメージに関連する処理に相当する。
ステップS51aでは、傾け動作検出部711において、ユーザ端末が備える傾きセンサ130によって、ユーザ端末を傾ける操作に基づいて傾き情報を検出する。そして、当該傾き情報によって、所定の角度範囲にある傾き状態が一定時間維持されることが示される場合に、傾け動作として特定し、次のステップS52aに進む。なお、当該傾け動作の特定のための条件として、所定の傾け方向の要素(即ち、例えば図3に示したロール角、ピッチ角、およびヨー角の各角度情報から、ユーザ端末の上下左右方向の傾きを特定する。)を加えて、所定の傾け方向に対し、所定の角度範囲にある傾き状態が一定時間維持されることを示すこととしてもよい。また、当該傾きの情報を一時的に格納しておき、後のステップS53aでのスタンプ候補の決定処理の際に使用してもよい。
ステップS52aでは、ステップS51aでのユーザ端末の傾け動作に応答してスタンプ入力モードに移行し、引き続き、ステップS53aで、候補決定表示部713によって、入力され得る複数のスタンプ候補を決定してディスプレイに表示する。スタンプ候補は、ユーザに関連付けられ、記憶部に格納されたスタンプの全部または一部を動的に選択したものとすることができる。具体的には、ステップS51aの処理時に格納した傾け動作の傾き情報を用いて、特定の方向の傾け動作に対しては、当該方向に事前に関連付けられた特定のグループのスタンプをスタンプ候補として採用してもよい。例えば、上下左右の傾き4方向に対して、喜怒哀楽の4つの感情を関連付け、各感情に関し事前にスタンプ・グループを関連付けてスタンプ候補としてもよい。代替として、キャラクタ特性(HPおよび/またはSP等)に従って決定されるキャラクタ状態(例えば、「毒」モード、「しびれ」モード、「瀕死」モード、「混乱」モード、「スキル発動可能」モード等)に応じて、事前に関連付けられた特定のグループのスタンプをスタンプ候補としてもよい。また、スタンプ候補の表示態様について、予め決められた表示領域部に表示してもよいし、傾け動作における傾けの方向に応じて動的に決定してもよい。例えば、傾け動作において右方向にユーザ端末を傾けたときは、図5(b)のように、画面の左方向から右方向に向けて傾きに沿うように複数のスタンプ候補が表示されるようにしてもよい。
次いで、ステップS54aでは、ディスプレイに表示された複数のスタンプ候補に対するスタンプ選択動作を受けることで、候補選択部715によって1のスタンプが選択される。スタンプ選択動作は、タッチパネル上のスライド動作に関連付けることができる。より具体的には、図5(b)のスタンプ候補に対し、スタンプST1をタッチ操作により特定すると共に、図5(c)のように所定の方向に所定の距離だけスライドするユーザ操作とするのがよい。なお、当該所定の方向は、上記傾け動作における傾け方向に対応付けるのがよい。図5(b)で画面の左方向から右方向に向けて傾きに沿うようにスタンプ候補が表示される場合には、図5(c)のようにそのまま右方向へのスライド操作を受けるようにするのがよい。最後に、ステップS55aでは、選択されたスタンプを図5(d)のように3次元仮想空間に反映させ共有ユーザに通知するために、スタンプを入力してサーバ・システムに送信する。
なお、図8の処理全般では、コンタクト情報としてスタンプを想定したが、テキスト情報においても同様のことが言える。即ち、ユーザが例えば「あいさつ」と文字入力または音声入力し、且つ端末の傾け動作を実施することで、「おはよう」「こんにちは」「さようなら」のようなテキストをコンタクト情報の候補として表示し、ユーザが意図するものをタッチ操作およびスライド操作によって選択するようにしてもよい。何れにしても、本発明の実施形態によるユーザ入力支援のコンピュータ・プログラムは、ゲームの進行を妨げることなく、非常に効率的に数多くの候補の中から所望のコンタクト情報を適宜選択および入力することができる。
図9は、図7のステップS6aにおいて、選択されたコンタクト情報を視界画像に重畳してディスプレイに表示するコンタクト出力処理を詳細化したフロー図であり、図5(d)の画面イメージの出力処理に相当する。また、図10〜図12は、当該コンタクト出力処理に関連する概要イメージを示す。
ステップS61aでは、キャラクタ配置決定部83によって、コンタクト情報を送信したキャラクタの3次元仮想空間内の配置情報を決定する。ここでは、自ユーザが自らコンタクト情報を入力したため、対応する自キャラクタの位置座標を決定する。図10(a)の例のように、自キャラクタの位置は基本的に視界画像の中心とするのがよい。引き続き、ステップS62aでは、決定した配置情報に従って、コンタクト情報配置領域決定部911によって、コンタクト情報を重畳するためのコンタクト情報配置領域を視界画像内に決定する。より具体的には、視界画像内の基準点、並びにコンタクト情報配置領域の位置および大きさを決定する。基準点は、吹き出し画像を生成するために必要となり、これに限定されないものの、キャラクタの配置位置に関連付けるのがよい。例えば図10(b)のように、自キャラクタの頭部の位置座標を基準点として採用するのがよい。また、コンタクト情報配置領域は、吹き出し画像を収容する領域であり、同じく図10(b)のように、視界画像全体における基準点の相対位置に応じて、コンタクト情報配置領域の位置および大きさを決定するのがよい。
ここで、図12の例を参照しても分かるように、コンタクト情報は、コンタクト情報配置領域内において、吹き出し画像と共にディスプレイに表示される。コンタクト情報配置領域はディスプレイに非表示とするのがよい。図示のように、コンタクト情報配置領域内に吹き出し画像が収容され、且つ吹き出し画像内にコンタクト情報(即ち、スタンプ画像(a)やテキスト情報(b))が収容される。また、図示のように、吹き出し画像は、コンタクト情報配置領域の基準点に位置合わせされる先端部分と、スタンプ画像やテキスト情報を収容する本体部分を含み、これらを結合するようにして形成される。
図9に戻り、ステップS63aでは、ステップS62aで決定した視界画像内の基準点に対し、吹き出し画像の先端部分を位置合わせする。次いで、ステップS64aでは、吹き出し画像の本体部分が視界画像内に収容されるように本体部の大きさを調整した上で、本体部分を先端部分に結合する。なお、本体部分の形状は図12(a)(b)のような矩形に限定されず、例えば角丸形、多角形やそれ以外の任意の形状としてもよいことは言うまでもない。次いで、ステップS65aでは、ステップS64aで調整した本体部分の大きさに基づいて、コンタクト情報の表示上の大きさ(即ちスタンプの大きさ)を調整し、本体部分に収容させる。これらステップS63aおよびS64aはコンタクト情報生成部913によって実施される。最後に、ステップS66aでは、コンタクト情報重畳部915によって、コンタクト情報を吹き出し画像と共に視界画像に重畳して、図5(d)や図10(c)に示したようなゲーム画像として画面表示する。なお、図10(c)ではスタンプ画像をコンタクト情報配置領域内の中央に配置しているが、これに限定されず、領域内に収容されるのであれば如何なる場所に配置してもよい。
図10の例は、自ユーザがスタンプを送信し、自キャラクタに対して吹き出し表示したものである。これに対し、図11の例は、3次元仮想空間を共有する他の相手ユーザによってコンタクト情報が選択および送信された場合の例である。この場合も、まず図11(a)のように、相手キャラクタの3次元仮想空間内の配置情報を決定し(ステップS61a)、当該配置情報に従って、図11(b)のように、自ユーザの自キャラクタの配置に基づく視界画像内においてコンタクト情報を表示するための基準点およびコンタクト情報配置領域を決定し(ステップS62a)、そして、図11(c)のように、当該コンタクト情報配置領域内にコンタクト情報を吹き出し画像と共に重畳して、ディスプレイに表示する(ステップS63a〜S66a)。
以上、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて、各種例と共に説明した。上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
Claims (9)
- 1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、前記1のユーザが有するユーザ端末のディスプレイに表示する視界画像生成部と、
前記ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、
前記選択されたコンタクト情報を前記視界画像に重畳し、前記ディスプレイに表示するコンタクト出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。 - 前記コンタクト出力部において、前記選択されたコンタクト情報を重畳するためのコンタクト情報配置領域を、前記キャラクタの配置に従って前記視界画像内に決定し、
前記コンタクト情報配置領域内において前記選択されたコンタクト情報を吹き出し画像と共に表示する、請求項1記載のコンピュータ・プログラム。 - 前記仮想空間が他のユーザに関連付けられる他のキャラクタと共有され、
前記コンタクト出力部において、更に、前記他のユーザが選択した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、請求項1または2記載のコンピュータ・プログラム。 - 前記コンタクト出力部において、前記選択された他のコンタクト情報を重畳するための他のコンタクト情報配置領域を、前記他のキャラクタの配置に従って前記視界画像内に決定し、
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、請求項3記載のコンピュータ・プログラム。 - 前記コンタクト入力部において、前記ユーザ端末が備える傾きセンサによって、前記ユーザ端末の傾き情報を検出し、該傾き情報が、所定の角度範囲の傾き状態が一定時間維持されることを示す場合に、前記傾け動作として特定されて、前記コンタクト情報の候補が前記ディスプレイに表示される、請求項1から4のいずれか一項記載のコンピュータ・プログラム。
- 前記ディスプレイがタッチパネルであり、
前記コンタクト入力部において、前記1のコンタクト情報の選択が、前記1のコンタクト情報を特定するために前記タッチパネルにタッチする操作と共に、所定の方向に所定の距離だけスライドするユーザ操作を含む、請求項1から5のいずれか一項記載のコンピュータ・プログラム。 - 前記所定の方向が前記ユーザ端末の傾け動作における傾け方向に対応付けられる、請求項6記載のコンピュータ・プログラム。
- 前記コンタクト入力部において、前記複数のコンタクト情報の候補が前記キャラクタのキャラクタ特性に従って決定される、請求項1から7のいずれか一項記載のコンピュータ・プログラム。
- 前記コンタクト情報がスタンプ画像である、請求項1から8のいずれか一項記載のコンピュータ・プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015136845A JP2017021466A (ja) | 2015-07-08 | 2015-07-08 | ユーザ入力支援のためのコンピュータ・プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015136845A JP2017021466A (ja) | 2015-07-08 | 2015-07-08 | ユーザ入力支援のためのコンピュータ・プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017021466A true JP2017021466A (ja) | 2017-01-26 |
Family
ID=57888606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015136845A Pending JP2017021466A (ja) | 2015-07-08 | 2015-07-08 | ユーザ入力支援のためのコンピュータ・プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017021466A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019076706A (ja) * | 2017-10-25 | 2019-05-23 | ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド | 情報処理方法及び装置、プログラム、記憶媒介、電子機器 |
WO2020138201A1 (ja) * | 2018-12-28 | 2020-07-02 | 株式会社バンダイナムコエンターテインメント | ゲームシステム、処理方法及び情報記憶媒体 |
-
2015
- 2015-07-08 JP JP2015136845A patent/JP2017021466A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019076706A (ja) * | 2017-10-25 | 2019-05-23 | ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド | 情報処理方法及び装置、プログラム、記憶媒介、電子機器 |
US10702776B2 (en) | 2017-10-25 | 2020-07-07 | Netease (Hangzhou) Network Co., Ltd. | Information processing method, storage medium and electronic device |
WO2020138201A1 (ja) * | 2018-12-28 | 2020-07-02 | 株式会社バンダイナムコエンターテインメント | ゲームシステム、処理方法及び情報記憶媒体 |
JP2020103724A (ja) * | 2018-12-28 | 2020-07-09 | 株式会社バンダイナムコエンターテインメント | ゲームシステム及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5276145B2 (ja) | リスト表示装置 | |
US10466811B2 (en) | Controlling a local application running on a user device that displays a touchscreen image on a touchscreen via mouse input from external electronic equipment | |
JP5333397B2 (ja) | 情報処理端末およびその制御方法 | |
WO2016199860A1 (ja) | 端末装置 | |
US20230017694A1 (en) | Method and apparatus for controlling interface display, device, and storage medium | |
JP2018027231A (ja) | プログラム、制御方法、及び情報処理装置 | |
JP5995909B2 (ja) | ユーザインターフェースプログラム | |
JP2017119043A (ja) | ゲーム制御装置及びプログラム | |
JP6386897B2 (ja) | 電子黒板、情報処理プログラムおよび情報処理方法 | |
JP2016220846A (ja) | メッセージ送信機能を備えたゲームプログラム、メッセージ送信方法及びメッセージ送信機能付きコンピュータ端末 | |
JP5953418B1 (ja) | ユーザ入力の操作性を向上させるプログラム、電子装置、システム及び方法 | |
JP6696739B2 (ja) | ユーザ入力支援のためのコンピュータ・プログラム | |
US20180078856A1 (en) | Program, game system, electronic device, server, and game control method for improving operability for user input | |
JP6088787B2 (ja) | プログラム、情報処理装置、情報処理方法および情報処理システム | |
JP2016220847A (ja) | メッセージ送信機能を備えたゲームプログラム、メッセージ送信方法及びメッセージ送信機能付きコンピュータ端末 | |
JP2014078073A (ja) | 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法 | |
JP6174646B2 (ja) | 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム | |
JP2017023239A (ja) | コンピュータ・プログラム | |
JP2017021466A (ja) | ユーザ入力支援のためのコンピュータ・プログラム | |
JP2014085816A (ja) | プログラム、情報処理装置、情報処理方法および情報処理システム | |
JP5888793B2 (ja) | オブジェクト制御プログラム及びオブジェクト制御方法 | |
JP5864018B1 (ja) | コンピュータ・プログラム | |
JP2017000703A (ja) | コンピュータ・プログラム | |
CN103631499B (zh) | 一种模式切换方法及电子设备 | |
JP2020121165A (ja) | ユーザ入力支援のためのコンピュータ・プログラム |