JP2017021466A - Computer program for user input support - Google Patents
Computer program for user input support Download PDFInfo
- Publication number
- JP2017021466A JP2017021466A JP2015136845A JP2015136845A JP2017021466A JP 2017021466 A JP2017021466 A JP 2017021466A JP 2015136845 A JP2015136845 A JP 2015136845A JP 2015136845 A JP2015136845 A JP 2015136845A JP 2017021466 A JP2017021466 A JP 2017021466A
- Authority
- JP
- Japan
- Prior art keywords
- user
- contact information
- contact
- computer program
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザ入力支援のためのコンピュータ・プログラムに関する。より詳細には、複数のユーザ間で仮想空間を共有して相互対話をする際に、各ユーザによるユーザ端末からのコンタクト情報の入力を容易にするようにユーザ支援するためのコンピュータ・プログラムに関するものである。 The present invention relates to a computer program for user input support. More particularly, the present invention relates to a computer program for assisting a user to facilitate the input of contact information from a user terminal by each user when a virtual space is shared and interacted among a plurality of users. It is.
複数のユーザが仮想空間を共有し、オンラインでの情報発信を通じてメッセージ交換等の相互対話を行うことが知られる。例えば、スマートフォンを利用したメッセージ・チャット・アプリケーションが知られ、ユーザの投稿内容として、テキスト情報のみならずスタンプと称されるアイコン画像情報を用いた画像チャットが用いられる。 It is known that a plurality of users share a virtual space and interact with each other by exchanging messages through online information transmission. For example, a message chat application using a smartphone is known, and an image chat using icon image information called a stamp as well as text information is used as a user's posted content.
また、ユーザの投稿内容の表示に関し、仮想空間内で各ユーザが入力した情報を該ユーザに関連付けられるキャラクタ(アバタ)から吹き出し表示するものが知られる。例えば、特許文献1では、SNS等においてフォローしているユーザによる投稿を表示する際に、各ユーザに対応付いたキャラクタを表示した空間フィールド画面において、各フォロー・ユーザの投稿内容をキャラクタから吹き出し表示する。 In addition, regarding the display of the user's posted content, there is known a method in which information input by each user in a virtual space is displayed in a balloon from a character (avatar) associated with the user. For example, in Patent Document 1, when displaying a post by a user who is following in SNS or the like, a post-display of the post contents of each follow user from a character is displayed on a space field screen displaying a character associated with each user. To do.
スマートフォンを用いたオンライン・ゲーム、特に、仮想空間内でユーザがキャラクタを操作可能な対戦型のオンラインRPGにおいて、ゲーム内の仮想空間を複数のユーザで共有することを想定する。この場合、上記のように画像チャット手法を適用して、各ユーザが入力したテキスト情報やスタンプ等のコンタクト情報を、該ユーザに対応付けたキャラクタから吹き出し表示することが想定される。 In an online game using a smartphone, particularly in a battle-type online RPG in which a user can operate a character in the virtual space, it is assumed that the virtual space in the game is shared by a plurality of users. In this case, it is assumed that the image chat technique is applied as described above, and contact information such as text information and a stamp input by each user is displayed in a balloon from a character associated with the user.
しかしながら、対戦型のオンラインRPGでは、一般的に、スマートフォンのタッチパネルに対する入力操作は即効性が必要とされるのに対し、ユーザが入力しようとするコンタクト情報、特にスタンプを選択する動作は多くのタッチ動作を伴うものであるため、従来型のスタンプ入力動作をユーザに要求するのは適さない。特に、昨今の画像チャットにおいてユーザに提供されるスタンプの種類も多岐にわたるため、ユーザがその中から所望のスタンプを選択するのに時間を掛けさせることは対戦型のオンラインRPGのゲーム進行上ふさわしくない。 However, in the battle-type online RPG, in general, an input operation on the touch panel of a smartphone requires an immediate effect, whereas the operation for selecting contact information to be input by the user, particularly a stamp, is a lot of touches. Since it involves an operation, it is not appropriate to require the user to perform a conventional stamp input operation. In particular, since there are various types of stamps provided to users in recent image chats, it is not appropriate for the game progress of a competitive online RPG to allow the user to select a desired stamp from among them. .
そこで、本発明は、このようなスタンプ入力動作を容易にすべく、タッチパネルに対するユーザ操作を最小限に抑制できるユーザ入力支援のためのコンピュータ・プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a computer program for user input support capable of minimizing user operations on the touch panel in order to facilitate such stamp input operation.
上記の課題を解決するために、本発明によれば、1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、上記1のユーザが有するユーザ端末のディスプレイに表示する視界画像生成部と、ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、当該選択されたコンタクト情報を視界画像に重畳し、ディスプレイに表示するコンタクト出力部として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラムが得られる。 In order to solve the above-described problem, according to the present invention, a field-of-view image based on an arrangement in a virtual space of a character associated with one user is generated and displayed on a display of a user terminal possessed by the one user. A field-of-view image generation unit, a contact input unit that selects and inputs one contact information for a plurality of contact information candidates displayed in response to the tilting motion of the user terminal, and a field of view of the selected contact information A computer program for supporting user input can be obtained that causes the user terminal to function as a contact output unit that is superimposed on an image and displayed on a display.
本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。 The features and advantages of the present invention will become apparent from the following detailed description of the invention, as well as from the accompanying drawings and claims.
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
[Description of Embodiment of the Present Invention]
First, the contents of the embodiment of the present invention will be listed and described. A computer program for user input support according to an embodiment of the present invention comprises the following arrangement.
(項目1)
1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、前記1のユーザが有するユーザ端末のディスプレイに表示する視界画像生成部と、
前記ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、
前記選択されたコンタクト情報を前記視界画像に重畳し、前記ディスプレイに表示するコンタクト出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、コンタクト情報の候補をユーザ端末の傾け動作に応答して表示させることにより、ユーザは、タッチパネルへの多くのタッチ動作を要することなく、数多くのスタンプの中から所望のスタンプを適宜選択および入力することができる。特に上記の対戦型のオンラインRPGにおいて、ゲーム進行を妨げることなく、ゲーム状況に応じたスタンプ入力をユーザに実施させることを可能とする。
(Item 1)
A field-of-view image generation unit that generates a field-of-view image based on an arrangement of characters associated with one user in a virtual space and displays the field-of-view image on a display of a user terminal included in the one user;
A contact input unit for selecting and inputting one contact information for a plurality of contact information candidates displayed in response to the tilting motion of the user terminal;
A computer program for user input support that causes the user terminal to function as a contact output unit that superimposes the selected contact information on the field-of-view image and displays it on the display.
According to the computer program of this item, by displaying the contact information candidates in response to the tilting operation of the user terminal, the user can select from a large number of stamps without requiring many touch operations on the touch panel. A desired stamp can be appropriately selected and input. In particular, in the above-described competitive online RPG, it is possible to allow the user to input a stamp according to the game situation without hindering the progress of the game.
(項目2)
前記コンタクト出力部において、前記選択されたコンタクト情報を重畳するためのコンタクト情報配置領域を、前記キャラクタの配置に従って前記視界画像内に決定し、
前記コンタクト情報配置領域内において前記選択されたコンタクト情報を吹き出し画像と共に表示する、項目1記載のコンピュータ・プログラム。
(Item 2)
In the contact output unit, a contact information arrangement area for superimposing the selected contact information is determined in the view image according to the arrangement of the character,
The computer program according to item 1, wherein the selected contact information is displayed together with a balloon image in the contact information arrangement area.
(項目3)
前記仮想空間が他のユーザに関連付けられる他のキャラクタと共有され、
前記コンタクト出力部において、更に、前記他のユーザが選択した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、項目1または2記載のコンピュータ・プログラム。
(Item 3)
The virtual space is shared with other characters associated with other users;
In the contact output unit, the other contact information selected by the other user is further superimposed on the view image based on the arrangement of the character associated with the one user and displayed on the display. The computer program according to 1 or 2.
(項目4)
前記コンタクト出力部において、前記選択された他のコンタクト情報を重畳するための他のコンタクト情報配置領域を、前記他のキャラクタの配置に従って前記視界画像内に決定し、
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、項目3記載のコンピュータ・プログラム。
(Item 4)
In the contact output unit, another contact information arrangement area for superimposing the selected other contact information is determined in the view image according to the arrangement of the other character,
4. The computer program according to item 3, wherein the other contact information is displayed together with a balloon image in the other contact information arrangement area.
(項目5)
前記コンタクト入力部において、前記ユーザ端末が備える傾きセンサによって、前記ユーザ端末の傾き情報を検出し、該傾き情報が、所定の角度範囲の傾き状態が一定時間維持されることを示す場合に、前記傾け動作として特定されて、前記コンタクト情報の候補が前記ディスプレイに表示される、項目1から4のいずれか一項記載のコンピュータ・プログラム。
(Item 5)
In the contact input unit, when the tilt information of the user terminal is detected by the tilt sensor included in the user terminal, and the tilt information indicates that the tilt state of a predetermined angle range is maintained for a certain time, 5. The computer program according to any one of items 1 to 4, wherein the computer program is specified as a tilting action and the candidate contact information is displayed on the display.
(項目6)
前記ディスプレイがタッチパネルであり、
前記コンタクト入力部において、前記1のコンタクト情報の選択が、前記1のコンタクト情報を特定するために前記タッチパネルにタッチする操作と共に、所定の方向に所定の距離だけスライドするユーザ操作を含む、項目1から5のいずれか一項記載のコンピュータ・プログラム。
(Item 6)
The display is a touch panel;
In the contact input unit, the selection of the one contact information includes a user operation of sliding a predetermined distance in a predetermined direction together with an operation of touching the touch panel to specify the one contact information. 6. The computer program according to any one of 1 to 5.
(項目7)
前記所定の方向が前記ユーザ端末の傾け動作における傾け方向に対応付けられる、項目6記載のコンピュータ・プログラム。
(Item 7)
The computer program according to item 6, wherein the predetermined direction is associated with a tilt direction in a tilt operation of the user terminal.
(項目8)
前記コンタクト入力部において、前記複数のコンタクト情報の候補が前記キャラクタのキャラクタ特性に従って決定される、項目1から7のいずれか一項記載のコンピュータ・プログラム。
(Item 8)
The computer program according to any one of items 1 to 7, wherein, in the contact input unit, the plurality of contact information candidates are determined according to character characteristics of the character.
(項目9)
前記コンタクト情報がスタンプ画像である、項目1から8のいずれか一項記載のコンピュータ・プログラム。
(Item 9)
The computer program according to any one of items 1 to 8, wherein the contact information is a stamp image.
[本発明の実施形態の詳細]
以下、図面を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。
図1は、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムを実行させるためのコンピュータ・システムの全体概略図である。図1では、コンピュータ・システムの主要な構成要素のみを示している。コンピュータ・システム100は、ユーザ端末10−1〜10−4(以後、「ユーザ端末10」と総称する。)、およびコンピュータ・サーバ50を備え、これら要素間はネットワーク30(特に、インターネット・ネットワーク)を介して通信を行う。なお、以下では、一例として、本発明の実施形態によるコンピュータ・プログラムをゲーム・プログラムとしてスマートフォン・ゲームに適用し、複数のユーザに共有ゲーム空間(3次元仮想空間)内で相互にコミュニケーションさせるオンライン・ゲーム、特に、3次元仮想空間内で各ユーザが自分自身に関連付けられたキャラクタを操作可能な対戦型のオンラインRPGを想定する。
[Details of the embodiment of the present invention]
A computer program for user input support according to an embodiment of the present invention will be described below with reference to the drawings.
FIG. 1 is an overall schematic diagram of a computer system for executing a computer program for supporting user input according to an embodiment of the present invention. FIG. 1 shows only the main components of the computer system. The computer system 100 includes user terminals 10-1 to 10-4 (hereinafter collectively referred to as “user terminals 10”) and a computer server 50, and a network 30 (particularly, an Internet network) between these elements. To communicate via. In the following, as an example, an online program in which the computer program according to the embodiment of the present invention is applied as a game program to a smartphone game to allow a plurality of users to communicate with each other in a shared game space (three-dimensional virtual space). Assume a game, particularly a battle-type online RPG in which each user can operate a character associated with himself / herself in a three-dimensional virtual space.
ユーザ端末10は、コンピュータ・サーバ50から送られるデータを使用し、またコンピュータ・サーバ50から送られるプログラムを実行して、ゲーム画像を生成・表示できる装置であればよく、例えば、インターネットに接続可能な携帯電話機、スマートフォン、タブレット端末、ゲーム用コンソール、ノートPC等を含むが、これらに限定されない。図示のように、ユーザ端末10は、端末表示部11、端末入力部12、端末処理部13、端末通信部14および端末記憶部15等を備え、これらはバスを介して電気的に相互に接続される。 The user terminal 10 may be any device that can use data sent from the computer server 50 and execute a program sent from the computer server 50 to generate and display a game image. For example, the user terminal 10 can be connected to the Internet. Including, but not limited to, mobile phones, smartphones, tablet terminals, game consoles, notebook PCs and the like. As illustrated, the user terminal 10 includes a terminal display unit 11, a terminal input unit 12, a terminal processing unit 13, a terminal communication unit 14, a terminal storage unit 15, and the like, which are electrically connected to each other via a bus. Is done.
ゲーム・サーバ50から端末通信部14で受信したデータやプログラムは、端末記憶部15に一時的に格納され、ゲームの進行に応じて端末処理部13で画面イメージが生成されて、端末表示部11によって表示される。端末表示部11は、例えば液晶ディスプレイ(LCD)等によって実現することができるが、図2に後述するように特にタッチ・ディスプレイとして構成するのがよい。端末入力部12は、3次元仮想空間に配置される仮想カメラの操作制御をするための命令や、ゲームを進行させるためのユーザ作用全般の命令の入力、および相手キャラクタへのコンタクト情報の入力を実施する。 Data and programs received from the game server 50 by the terminal communication unit 14 are temporarily stored in the terminal storage unit 15, and a screen image is generated by the terminal processing unit 13 as the game progresses, and the terminal display unit 11. Is displayed. The terminal display unit 11 can be realized by, for example, a liquid crystal display (LCD) or the like, but is preferably configured as a touch display as will be described later with reference to FIG. The terminal input unit 12 inputs commands for controlling the operation of a virtual camera arranged in the three-dimensional virtual space, commands for general user actions for advancing the game, and inputs of contact information to the opponent character. carry out.
端末入力部12で受けた入力命令に基づいて、端末処理部13においてプログラムが実行される。または、ユーザ命令が作成され、端末通信部14およびネットワーク30を通じてコンピュータ・サーバ50と通信を行い、コンピュータ・サーバ50によってプログラムが実行される。端末記憶部15は、ユーザ端末に関連付けられる各種データ、および画像データの表示に必要なブラウザ等のアプリケーションを格納すると共に、ゲーム・サーバ50から受信するスタンプ画像データ等のコンタクト・データ、並びに画面イメージを生成するためのデータおよびプログラム等の各種データも格納する。 Based on the input command received by the terminal input unit 12, the program is executed in the terminal processing unit 13. Alternatively, a user command is generated, and communication with the computer server 50 is performed through the terminal communication unit 14 and the network 30, and the program is executed by the computer server 50. The terminal storage unit 15 stores various data associated with the user terminal and applications such as a browser necessary for displaying the image data, and contact data such as stamp image data received from the game server 50, and a screen image. Various data such as data for generating and programs are also stored.
一方、コンピュータ・サーバ50は、処理部51、メインメモリ52、外部メモリ53、ユーザ・インタフェース54、通信部55、およびディスク・ドライブ56等を備え、これらはバスを介して電気的に相互に接続される。処理部51は、外部メモリ53に格納されたプログラム・モジュール、およびディスク・ドライブ56に格納されたユーザ・データ、スタンプ画像データ、仮想空間情報、およびゲーム進行データ等の各種データ等をメインメモリ52にロードして、順次、各種コンピュータ・プログラムを実行することによりゲームの進行を制御する。特に、処理部51は、ユーザ端末10間で共有させるための仮想空間情報等のデータやプログラムを管理し、必要に応じて通信部55を介してユーザ端末10に提供するように構成される。ユーザ・インタフェース54は、ゲーム・サーバ50の管理者によってサーバにアクセスされ、各種サーバ機能設定やネットワーク設定が実施される。 On the other hand, the computer server 50 includes a processing unit 51, a main memory 52, an external memory 53, a user interface 54, a communication unit 55, a disk drive 56, and the like, which are electrically connected to each other via a bus. Is done. The processing unit 51 stores various data such as program modules stored in the external memory 53, user data stored in the disk drive 56, stamp image data, virtual space information, game progress data, and the like. The game progress is controlled by sequentially executing various computer programs. In particular, the processing unit 51 is configured to manage data and programs such as virtual space information to be shared among the user terminals 10 and provide the data to the user terminals 10 via the communication unit 55 as necessary. The user interface 54 is accessed by the administrator of the game server 50 to perform various server function settings and network settings.
なお、上記コンピュータ・サーバ50に関する情報処理装置としての様々な機能の全部または一部は、ユーザ端末10が担うように構成してもよい。この場合には、ユーザ端末10自体で情報処理装置を構成するか、またはユーザ端末10およびコンピュータ・サーバ50を組み合わせ、全体で情報処理装置を構成することになる。 In addition, you may comprise so that the user terminal 10 may bear all or one part of the various functions as an information processing apparatus regarding the said computer server 50. FIG. In this case, the information processing apparatus is configured by the user terminal 10 itself, or the information processing apparatus is configured as a whole by combining the user terminal 10 and the computer server 50.
図2にユーザ端末10の一例として、携帯端末(特にスマートフォン)10の基本構成に関するブロック図を示す。図示のように、携帯端末10は基本構成として、タッチ・ディスプレイ110、制御部140および記憶部150を備える。タッチ・ディスプレイ110は、記憶部150に格納された各種データを表示するための表示部/ディスプレイ120、該表示部/ディスプレイ120に対し、人の指やスタイラスなどの物体による接触操作(主に、タッチ操作、スワイプ(スライド)操作およびタップ操作等の物理的接触操作)を検知する接触検知部/タッチパネル125、並びに、携帯端末の傾きを計測して検知する傾き検知部(傾きセンサ)130を備える。 As an example of the user terminal 10, FIG. 2 shows a block diagram relating to the basic configuration of a mobile terminal (particularly a smartphone) 10. As illustrated, the mobile terminal 10 includes a touch display 110, a control unit 140, and a storage unit 150 as a basic configuration. The touch display 110 includes a display unit / display 120 for displaying various data stored in the storage unit 150, and a touch operation (mainly, an object such as a human finger or a stylus on the display unit / display 120. A touch detection unit / touch panel 125 that detects a touch operation, a physical contact operation such as a swipe (slide) operation and a tap operation), and a tilt detection unit (tilt sensor) 130 that measures and detects the tilt of the mobile terminal. .
接触検知部125はタッチ・ディスプレイの構造上、液晶パネル、有機EL、プラズマディスプレイ等のようなディスプレイ120の上層に配置される。接触検知部125は、圧力検出方式、抵抗膜方式、静電容量方式や電磁誘導方式等を採用することができる。接触検知部125上で指やスタイラス等の物体の接触による入力を受けた際に、その接触位置において押圧、電気抵抗、電気容量や弾性波のエネルギー等の変化量を検知し、表示部120上の対応する接触座標が特定される。 The contact detection unit 125 is disposed on an upper layer of the display 120 such as a liquid crystal panel, an organic EL, a plasma display, etc. due to the structure of the touch display. The contact detection unit 125 may employ a pressure detection method, a resistance film method, a capacitance method, an electromagnetic induction method, or the like. When an input by contact of an object such as a finger or a stylus is received on the contact detection unit 125, a change amount of pressure, electrical resistance, capacitance, elastic wave energy, etc. is detected at the contact position, and the display unit 120 Corresponding contact coordinates are identified.
傾き検知部(傾きセンサ/角速度センサ)130について、次の図3を参照して説明する。本発明の実施形態では、図3に示すように傾き検知部130で経時的に角度情報が計測および検知される。角度情報に関し、携帯端末10を中心にXYZ座標系を規定することができる。XYZ座標は、所定のタイミングを初期状態とした相対座標である。より具体的には、携帯端末10のタッチ・ディスプレイ110面をXY表面とし、垂直方向をZ軸とする。図3では、ユーザが携帯端末10を縦持ちして操作することを想定して、図示のようにX軸およびY軸を規定している。横持ちの場合は、X軸、Y軸を逆にするとよい。傾き検知部130では、各軸回りの角度、即ち、X軸を中心とした回転を示すロール角、Y軸を中心とした回転を示すピッチ角、およびZ軸を中心とした回転を示すヨー角を回転方向と共に角度情報としてそれぞれ検知し、該検知した角度情報に少なくとも基づく経時的な変化データにより携帯端末10の傾き情報を決定することができる。 The tilt detection unit (tilt sensor / angular velocity sensor) 130 will be described with reference to FIG. In the embodiment of the present invention, as shown in FIG. 3, angle information is measured and detected over time by the inclination detector 130. With respect to the angle information, an XYZ coordinate system can be defined around the mobile terminal 10. The XYZ coordinates are relative coordinates with a predetermined timing as an initial state. More specifically, the surface of the touch display 110 of the mobile terminal 10 is the XY surface, and the vertical direction is the Z axis. In FIG. 3, the X axis and the Y axis are defined as shown on the assumption that the user operates the portable terminal 10 while holding it vertically. In the case of horizontal holding, the X axis and Y axis may be reversed. In the inclination detector 130, an angle around each axis, that is, a roll angle indicating rotation about the X axis, a pitch angle indicating rotation about the Y axis, and a yaw angle indicating rotation about the Z axis. Can be detected as angle information together with the rotation direction, and the tilt information of the portable terminal 10 can be determined based on temporal change data based at least on the detected angle information.
図2に戻り、制御部140は、端末処理部からの処理命令に従って、本発明の実施形態によるコンピュータ・プログラムを実行して携帯端末10を動作させるように構成される。制御部140の詳細については図6を参照して後述する。記憶部150は、本実施形態によるコンピュータ・プログラム、ゲーム・プログラム、ユーザやゲームに関連するデータ、およびコンタクト情報データの全般を格納し、制御部からの命令に応じて情報の登録、更新、削除等が実施される。なお、本実施形態によるコンピュータ・プログラムを通じて入力されるスタンプ画像についてもサーバ50から携帯端末10にユーザがダウンロードした際に格納する。 Returning to FIG. 2, the control unit 140 is configured to operate the mobile terminal 10 by executing the computer program according to the embodiment of the present invention in accordance with a processing instruction from the terminal processing unit. Details of the control unit 140 will be described later with reference to FIG. The storage unit 150 stores the computer program, the game program, the data related to the user and the game, and the contact information data in general, and registers, updates, and deletes information according to instructions from the control unit Etc. are implemented. Note that the stamp image input through the computer program according to the present embodiment is also stored when the user downloads it from the server 50 to the mobile terminal 10.
これより図4および図5を参照して、本発明の実施形態によるコンピュータ・プログラムが適用されるオンライン・アクションRPGの一例のゲーム・コンテンツ例の概要を示す。ここでは、複数のユーザが同一の3次元仮想空間を共有し、それぞれが当該3次元仮想空間で自らのキャラクタに対するアクション操作を実施可能である。加えて、各ユーザは、キャラクタへのアクション操作によりゲームを進行することができると共に、キャラクタを通じた相互対話、即ち、テキスト・チャットや画像チャットのようなリアルタイムのチャットをゲーム進行と同時に実施可能である。 4 and 5, an outline of an example game content of an online action RPG to which the computer program according to the embodiment of the present invention is applied will be described. Here, a plurality of users can share the same three-dimensional virtual space, and each can perform an action operation on its own character in the three-dimensional virtual space. In addition, each user can proceed with the game by performing an action operation on the character, and can perform a real-time chat such as text chat and image chat through the character simultaneously with the progress of the game. is there.
図4(a)および(b)は、自キャラクタ1を操作するユーザ(自ユーザ)のユーザ画面に表示される一連のゲーム画像である。関連付けるキャラクタはユーザ毎に異なるため、ユーザごとに端末に表示されるゲーム画面は異なる。現に、図4(a)(b)の視界画像3は、自キャラクタ1の配置(画面中心よりやや上)に基づき、自ユーザの端末の画面に表示される画像である。一方、相手キャラクタ2を操作する別のユーザ(相手ユーザ)の端末の画面に表示される画像は、相手キャラクタ2の配置(画面中心よりやや上)に基づいた視界画像となり、自ユーザの視界画像とは異なる。 4A and 4B are a series of game images displayed on the user screen of the user who operates the player character 1 (host user). Since the character to be associated is different for each user, the game screen displayed on the terminal is different for each user. Actually, the view image 3 in FIGS. 4A and 4B is an image displayed on the screen of the terminal of the own user based on the arrangement of the own character 1 (slightly above the center of the screen). On the other hand, the image displayed on the screen of the terminal of another user (an opponent user) who operates the opponent character 2 is a view image based on the arrangement of the opponent character 2 (slightly above the center of the screen), and the view image of the own user Is different.
自ユーザの視界画像3の中心上部近傍に自キャラクタ1が表示される。つまり、自キャラクタ1の配置は表示画面の所定の位置範囲に位置合わせされる。ユーザは、端末入力部を通じたユーザ命令にしたがって3次元仮想空間内を移動可能である。自キャラクタ1には仮想カメラが関連付けられており、該仮想カメラは3次元仮想空間内の自キャラクタの後方かつ上方に配置されて(図示せず)、自キャラクタの移動に追従するよう動作する。自キャラクタ1の仮想カメラからの視界領域に基づいて視界画像3が生成され、端末のディスプレイに表示される。ここで、各キャラクタは、キャラクタ特性5を有しており、画面左下に表示される。キャラクタ特性5には、例えば、キャラクタの種別、キャラクタ画像、キャラクタとしての強さ(ヒット・ポイント(HP:キャラクタの体力ポイント)やスキル・ポイント(SP:必殺技を繰り出すための技能ポイント))等が含まれる。 The own character 1 is displayed near the upper center of the view image 3 of the own user. That is, the arrangement of the player character 1 is aligned with a predetermined position range on the display screen. The user can move in the three-dimensional virtual space according to a user command through the terminal input unit. The own character 1 is associated with a virtual camera, and the virtual camera is disposed behind and above the own character in the three-dimensional virtual space (not shown) and operates to follow the movement of the own character. A view image 3 is generated based on the view area from the virtual camera of the player character 1 and displayed on the display of the terminal. Here, each character has a character characteristic 5 and is displayed at the lower left of the screen. Character characteristics 5 include, for example, character type, character image, character strength (hit points (HP: physical strength points of characters) and skill points (SP: skill points for delivering special moves)), etc. Is included.
図4(a)の例では、自キャラクタ1の左下部に、相手ユーザが操作している相手キャラクタ2が位置しており、視界画像3に映り込んでいる。そして、自ユーザ1は、自らのユーザ端末から「こんにちは」というコンタクト情報を入力して3次元仮想空間内に発信している。その結果、図示のように、視界画像3において自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像4が表示され、自ユーザの画面に表示されている。勿論、相手ユーザの画面上にも、自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像が表示されることになることが理解される。 In the example of FIG. 4A, the opponent character 2 operated by the opponent user is located in the lower left part of the own character 1 and is reflected in the view image 3. Then, the own user 1 is calling from his user terminal in the three-dimensional virtual space by entering the contact information "Hello". As a result, as shown, it is "Hello" and balloon image 4 displayed text displayed from the player character 1 in field image 3 is displayed on the screen of the host user. Of course, also on the screen of the other user, the image balloon is text message "Hello" from the player character 1 is understood that to be displayed.
自ユーザが3次元空間で自キャラクタ1を上方向に移動させると、図3(b)のような視界画像の表示となる。この場合、相手キャラクタ2は自キャラクタ1からは離れて画面左下に位置するようにゲーム進行される。併せて、図3(b)では、図3(a)で自キャラクタが「こんにちは」なるコンタクト情報を3次元仮想空間に発信したのに応答する形で、相手ユーザが自らの端末から「お元気ですか!?」なるコンタクト情報を入力して3次元仮想空間内に発信する。その結果、自ユーザの視界画像3でも、相手キャラクタ2から「お元気ですか!?」とテキスト表示された吹き出し画像4が表示される。 When the own user moves his / her character 1 upward in a three-dimensional space, a visual field image as shown in FIG. 3B is displayed. In this case, the game progresses so that the opponent character 2 is away from the player character 1 and is located at the lower left of the screen. In addition, in FIG. 3 (b), in the form of the player character in Figure 3 (a) to respond to the call to "Hello" three-dimensional virtual space the contact information to be, "Take care partner users from its own terminal "?!?" Is input and transmitted to the 3D virtual space. As a result, the balloon image 4 with the text “How are you !?” from the opponent character 2 is also displayed in the view image 3 of the own user.
なお、図4では、ゲーム内空間を共有するキャラクタに送信されるコンタクト情報がテキスト情報であるが、次の図5に示すように、コンタクト情報は、画像チャットのようなスタンプ(即ち一般的にアイコンと称される)画像としてもよい。また、本発明の実施形態によるコンピュータ・プログラムが適用できるコンテンツは、ゲーム・アプリケーション、特に図3のようなオンライン・アクションRPGに限定されない。SNSや電子掲示板のように、複数のユーザがメッセージ交換を行ったり、自らの近況を関連ユーザに知らせたりするような3次元仮想空間内でコミュニケーションを行うアプリケーションに対して、本発明の実施形態によるコンピュータ・プログラムを広範に適用可能であることが認められて然るべきである。 In FIG. 4, the contact information transmitted to the characters sharing the game space is text information. However, as shown in FIG. 5, the contact information is a stamp such as an image chat (ie, generally, It may be an image (referred to as an icon). Further, the content to which the computer program according to the embodiment of the present invention can be applied is not limited to the game application, particularly the online action RPG as shown in FIG. According to an embodiment of the present invention, an application that communicates in a three-dimensional virtual space such as an SNS or an electronic bulletin board in which a plurality of users exchange messages or inform related users of their current status. It should be recognized that computer programs are widely applicable.
図5は、自ユーザが、ゲームの進行と同時に、3次元仮想空間にスタンプを送信する際のスタンプ選択に関する態様である。まず図5(a)では、上記のように、自ユーザの視界画像3の中心上部近傍に自キャラクタ1が表示され、当該自キャラクタを操作可能な状態でゲームが進行されている。図5(a)の状態から自ユーザがスタンプを入力して3次元仮想空間に発信する場合、通常は、ユーザの端末操作により「ゲーム進行モード」から「スタンプ入力モード」に切り替えて、スタンプの候補を表示させた上で、所望のスタンプをタッチパネル上のタッチ操作によりユーザが選択することになる。 FIG. 5 shows an aspect relating to stamp selection when the user transmits the stamp to the three-dimensional virtual space simultaneously with the progress of the game. First, in FIG. 5A, as described above, the player character 1 is displayed near the upper center of the user's field-of-view image 3, and the game is progressing in a state where the player character can be operated. When the user inputs a stamp from the state of FIG. 5A and transmits it to the three-dimensional virtual space, the user normally switches from “game progress mode” to “stamp input mode” by operating the terminal, After displaying the candidates, the user selects a desired stamp by a touch operation on the touch panel.
本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムでは、「ゲーム進行モード」から「スタンプ入力モード」への切り替えが非常に容易である。より具体的には、ユーザはユーザ端末を任意の方向に傾け、傾け状態を所定の時間維持するだけで、「スタンプ入力モード」へと移行可能である。これは、傾き検知部130によって端末の傾き状態を検知することによって実現される。なお、「スタンプ入力モード」状態においても、ユーザは通常通りゲーム進行させることも可能である。 In the computer program for supporting user input according to the embodiment of the present invention, switching from the “game progress mode” to the “stamp input mode” is very easy. More specifically, the user can shift to the “stamp input mode” only by tilting the user terminal in an arbitrary direction and maintaining the tilted state for a predetermined time. This is realized by detecting the tilt state of the terminal by the tilt detection unit 130. Even in the “stamp input mode” state, the user can proceed with the game as usual.
本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムによって「スタンプ入力モード」へと移行すると、図5(b)のように、例えば画面の左側から入力スタンプの候補(スタンプST1〜ST4)を出現させて、ユーザに提示する。ユーザは、提示されたスタンプの候補から入力したいスタンプを決定することになる。決定したスタンプを選択して入力するために、ユーザに対し、図5(c)のように、例えば決定したスタンプ(スタンプST1)を画面上でタッチさせ、そのまま画面の右方向に所定の距離だけスライド操作を実施させる。その結果、図5(d)のように、視界画像3において自キャラクタ1からスタンプST1が表示された吹き出し画像4が反映されて表示され、3次元仮想空間に発信される。即ち、相手キャラクタ2に送信される。 When the mode is shifted to the “stamp input mode” by the computer program for user input support according to the embodiment of the present invention, as shown in FIG. 5B, for example, input stamp candidates (stamps ST1 to ST4) from the left side of the screen. And appear to the user. The user determines a stamp to be input from the presented stamp candidates. In order to select and input the determined stamp, the user touches the determined stamp (stamp ST1) on the screen as shown in FIG. 5C, for example, and continues to the right of the screen by a predetermined distance. Let the slide operation be performed. As a result, as shown in FIG. 5D, the balloon image 4 on which the stamp ST1 is displayed from the player character 1 is reflected and displayed in the view field image 3 and transmitted to the three-dimensional virtual space. That is, it is transmitted to the opponent character 2.
上記図4および図5の画面例を踏まえ、これより、図6以降を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて、特に図5に例示したスタンプ画像の入出力に関連する情報処理について詳細に説明する。図6は、当該処理を実施するためにユーザ端末10に実装される主要機能ブロック図であり、その全体が図2の制御部140に相当する。図6に示すように、制御部140は、大きくは、ゲーム進行部61、コンタクト入力部71およびコンタクト出力部91を含む。ゲーム進行部61は、自キャラクタ移動制御部611、仮想カメラ制御部(視界領域決定部)613、および視界画像生成部615を含む。また、コンタクト入力部71は、傾け動作検知部711、候補決定表示部713、および候補選択部715を含む。更に、コンタクト出力部91は、コンタクト情報配置領域決定部911、コンタクト情報生成部913、およびコンタクト情報重畳部915を含む。制御部140は、上記以外にも、コンタクト受信部81、キャラクタ配置決定部83等も含む。なお、図6は本発明の実施形態によるコンピュータ・プログラムを実装するための最低限の主要機能のセットを記載したに過ぎない点に留意すべきである。 4 and FIG. 5, and referring to FIG. 6 and subsequent figures, a computer program for user input support according to the embodiment of the present invention, particularly the stamp image illustrated in FIG. Information processing related to output will be described in detail. FIG. 6 is a main functional block diagram implemented in the user terminal 10 in order to perform the processing, and the whole corresponds to the control unit 140 in FIG. As shown in FIG. 6, the control unit 140 mainly includes a game progression unit 61, a contact input unit 71, and a contact output unit 91. The game progression unit 61 includes a player character movement control unit 611, a virtual camera control unit (view area determination unit) 613, and a view image generation unit 615. Further, the contact input unit 71 includes a tilting motion detection unit 711, a candidate determination display unit 713, and a candidate selection unit 715. Further, the contact output unit 91 includes a contact information arrangement region determination unit 911, a contact information generation unit 913, and a contact information superimposition unit 915. In addition to the above, the control unit 140 includes a contact receiving unit 81, a character arrangement determining unit 83, and the like. It should be noted that FIG. 6 only describes a minimum set of main functions for implementing a computer program according to an embodiment of the present invention.
これにより、図7のフロー図を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムにより実施される、自ユーザと相手ユーザのサーバ・システムを介した一例の相互作用の処理について説明する。ここでは、自キャラクタの動作を制御可能な自ユーザaのユーザ端末と、相手キャラクタの動作を制御可能な相手ユーザbのユーザ端末がサーバ・システムを介してメッセージ交換することを想定する。図7に例示する情報処理では、最初に、サーバ・システムによりステップS1sにおいて、ユーザ間で共有する仮想空間情報が配信され、自ユーザaおよび他ユーザbがステップS1aおよびステップS1bにおいて仮想空間情報を展開することにより、仮想空間が共有される。その後の情報処理は、大きくは、キャラクタの空間内移動に伴うゲーム進行処理(通常のアクション・ゲーム進行。図7の上半分)および空間内コンタクトに関するコンタクト処理(図7の下半分)から構成される。 Thus, referring to the flow chart of FIG. 7, an example of interaction between the own user and the other user's server system, implemented by the computer program for user input support according to the embodiment of the present invention. Processing will be described. Here, it is assumed that a message is exchanged via the server system between the user terminal of the own user a who can control the movement of the own character and the user terminal of the other user b who can control the movement of the opponent character. In the information processing illustrated in FIG. 7, first, virtual space information shared between users is distributed by the server system in step S1s, and the own user a and other user b receive virtual space information in steps S1a and S1b. By deploying, the virtual space is shared. Subsequent information processing mainly includes a game progress process (normal action game progress, upper half of FIG. 7) and a contact process (lower half of FIG. 7) related to the contact in space as the character moves in the space. The
キャラクタの空間内移動に伴うゲーム進行処理は、自ユーザaによるステップS2a〜S4a、および相手ユーザbによるステップS2b〜S4b、並びにサーバ・システムによるステップS2sから構成される。ステップS2aでは、自ユーザaは、自キャラクタ移動制御部611によって自キャラクタを操作して3次元仮想空間内を移動させる。ステップS3aでは、自キャラクタの3次元仮想空間内の移動に伴い、仮想カメラ制御部613によって、自キャラクタに仮想カメラを追従させる。そして自ユーザに関連付けられた自キャラクタの3次元仮想空間内の配置を中心に関連付けた視界領域を決定する。なお、自キャラクタの移動情報はサーバ・システムにも逐一、定期的に、およびイベント・トリガのいずれか1つ以上により反映するのがよい。即ち、ステップS2sでは、サーバ・システムによって自キャラクタの位置情報で仮想空間情報を更新する。そして、ステップS4aでは、ステップS3aで決定された視界領域に基づいて、視界画像生成部615によって視界画像が生成され、ユーザ端末のディスプレイに表示される。相手ユーザbの相手キャラクタによる空間内移動(ステップS2b〜S4b)についても同様である。 The game progress process accompanying the movement of the character in the space includes steps S2a to S4a by the user a, steps S2b to S4b by the opponent user b, and step S2s by the server system. In step S <b> 2 a, the own user “a” operates the own character by the own character movement control unit 611 to move in the three-dimensional virtual space. In step S3a, the virtual camera control unit 613 causes the virtual camera to follow the virtual camera as the character moves in the three-dimensional virtual space. Then, the visual field area associated with the arrangement of the character in the three-dimensional virtual space associated with the user is determined. Note that the movement information of the player character is preferably reflected on the server system one by one, periodically, or by any one or more of event triggers. That is, in step S2s, the virtual space information is updated with the position information of the player character by the server system. In step S4a, a visual field image is generated by the visual field image generation unit 615 based on the visual field region determined in step S3a and displayed on the display of the user terminal. The same applies to movement in space (steps S2b to S4b) by the opponent user b's opponent character.
空間内コンタクトに関するコンタクト処理は、自ユーザaによるステップS5a〜S6a、および相手ユーザbによるステップS5b〜S6b、並びにサーバ・システムによるステップS3sから構成される。自ユーザaの自キャラクタおよび相手ユーザbの相手キャラクタが3次元仮想空間を共有して移動しながらゲームが進行する中で、ステップS5aにおいて、自ユーザaは、コンタクト入力部71によって3次元仮想空間内にコンタクト情報を発信する。即ち、3次元仮想空間を共有しているユーザ(相手ユーザb)に向けて、図4および図5に例示したようなコンタクト情報を送信する(図8で詳述)。コンタクト情報は、テキスト情報でもスタンプ画像情報でもよい。送信されるコンタクト情報は、ステップS3sにおいてサーバ・システム側で空間情報の更新処理に用いられ、次いで、3次元仮想空間内に発信されて自ユーザaおよび相手ユーザbの両方に通知される。 The contact processing related to the in-space contact includes steps S5a to S6a by the own user a, steps S5b to S6b by the partner user b, and step S3s by the server system. While the game progresses while the own character of the own user a and the opponent character of the opponent user b move while sharing the three-dimensional virtual space, in step S5a, the own user a makes the three-dimensional virtual space by the contact input unit 71. Send contact information inside. That is, the contact information illustrated in FIGS. 4 and 5 is transmitted to the user (partner user b) sharing the three-dimensional virtual space (detailed in FIG. 8). The contact information may be text information or stamp image information. The contact information to be transmitted is used for update processing of the spatial information on the server system side in step S3s, and then transmitted to the three-dimensional virtual space to notify both the own user a and the partner user b.
そして、ユーザa側では、ステップS6aにおいて、コンタクト出力部91によって、自ら送信したコンタクト情報を収容した吹き出し画像を自キャラクタの配置に基づいて自身の視界画像に重畳させて、ディスプレイに表示する(図9で詳述)。相手ユーザb側では、ステップS5bにおいて、コンタクト受信部81によって自ユーザaからのコンタクト情報を受信し、キャラクタ配置決定部83によって3次元仮想空間内の自キャラクタの配置位置を特定する。引き続き、ステップS6bにおいて、コンタクト出力部91によって、受信したコンタクト情報を収容する吹き出し画像を自キャラクタの配置に基づいて相手ユーザ自身の視界画像に重畳させて、ディスプレイに表示する。 On the user a side, in step S6a, the contact output unit 91 superimposes the balloon image containing the contact information transmitted by himself / herself on the field-of-view image based on the arrangement of the player character and displays it on the display (FIG. 9). On the partner user b side, in step S5b, the contact receiving unit 81 receives contact information from the own user a, and the character arrangement determining unit 83 specifies the arrangement position of the own character in the three-dimensional virtual space. Subsequently, in step S6b, the contact output unit 91 superimposes the balloon image containing the received contact information on the view image of the opponent user based on the arrangement of the own character and displays it on the display.
次に、図8〜図12を参照して、上記のうち特に自ユーザaによるステップS5a,S6aの情報処理について詳細に説明する。この内、図8は、図7のステップS5aにおいてコンタクト情報としてスタンプ画像を送信するコンタクト入力処理を詳細化したフロー図である。図8は、図5の一連の画面イメージに関連する処理に相当する。 Next, with reference to FIGS. 8 to 12, the information processing of steps S5a and S6a by the user a among the above will be described in detail. Among these, FIG. 8 is a detailed flow chart of contact input processing for transmitting a stamp image as contact information in step S5a of FIG. FIG. 8 corresponds to processing related to the series of screen images in FIG.
ステップS51aでは、傾け動作検出部711において、ユーザ端末が備える傾きセンサ130によって、ユーザ端末を傾ける操作に基づいて傾き情報を検出する。そして、当該傾き情報によって、所定の角度範囲にある傾き状態が一定時間維持されることが示される場合に、傾け動作として特定し、次のステップS52aに進む。なお、当該傾け動作の特定のための条件として、所定の傾け方向の要素(即ち、例えば図3に示したロール角、ピッチ角、およびヨー角の各角度情報から、ユーザ端末の上下左右方向の傾きを特定する。)を加えて、所定の傾け方向に対し、所定の角度範囲にある傾き状態が一定時間維持されることを示すこととしてもよい。また、当該傾きの情報を一時的に格納しておき、後のステップS53aでのスタンプ候補の決定処理の際に使用してもよい。 In step S51a, the tilt motion detection unit 711 detects tilt information based on an operation of tilting the user terminal by the tilt sensor 130 included in the user terminal. If the tilt information indicates that the tilt state within the predetermined angle range is maintained for a certain period of time, the tilt information is specified, and the process proceeds to the next step S52a. In addition, as a condition for specifying the tilting operation, elements in a predetermined tilting direction (that is, from the angle information of the roll angle, the pitch angle, and the yaw angle shown in FIG. It is also possible to indicate that an inclination state within a predetermined angle range is maintained for a predetermined time with respect to a predetermined inclination direction. Further, the tilt information may be temporarily stored and used in the stamp candidate determination process in the subsequent step S53a.
ステップS52aでは、ステップS51aでのユーザ端末の傾け動作に応答してスタンプ入力モードに移行し、引き続き、ステップS53aで、候補決定表示部713によって、入力され得る複数のスタンプ候補を決定してディスプレイに表示する。スタンプ候補は、ユーザに関連付けられ、記憶部に格納されたスタンプの全部または一部を動的に選択したものとすることができる。具体的には、ステップS51aの処理時に格納した傾け動作の傾き情報を用いて、特定の方向の傾け動作に対しては、当該方向に事前に関連付けられた特定のグループのスタンプをスタンプ候補として採用してもよい。例えば、上下左右の傾き4方向に対して、喜怒哀楽の4つの感情を関連付け、各感情に関し事前にスタンプ・グループを関連付けてスタンプ候補としてもよい。代替として、キャラクタ特性(HPおよび/またはSP等)に従って決定されるキャラクタ状態(例えば、「毒」モード、「しびれ」モード、「瀕死」モード、「混乱」モード、「スキル発動可能」モード等)に応じて、事前に関連付けられた特定のグループのスタンプをスタンプ候補としてもよい。また、スタンプ候補の表示態様について、予め決められた表示領域部に表示してもよいし、傾け動作における傾けの方向に応じて動的に決定してもよい。例えば、傾け動作において右方向にユーザ端末を傾けたときは、図5(b)のように、画面の左方向から右方向に向けて傾きに沿うように複数のスタンプ候補が表示されるようにしてもよい。 In step S52a, the process proceeds to the stamp input mode in response to the tilting operation of the user terminal in step S51a. Subsequently, in step S53a, the candidate determination display unit 713 determines a plurality of stamp candidates that can be input and displays them on the display. indicate. The stamp candidates may be dynamically selected from all or part of the stamps associated with the user and stored in the storage unit. Specifically, using the tilt information of the tilting operation stored at the time of the processing in step S51a, for a tilting motion in a specific direction, a stamp of a specific group associated in advance with the direction is adopted as a stamp candidate. May be. For example, four emotions of emotions may be associated with four directions of up, down, left, and right inclinations, and stamp groups may be associated in advance with each emotion as stamp candidates. Alternatively, character states determined according to character characteristics (such as HP and / or SP) (eg, “poison” mode, “numbness” mode, “drown” mode, “confused” mode, “skill can be activated” mode, etc.) Accordingly, a stamp of a specific group associated in advance may be used as a stamp candidate. Further, the display mode of the stamp candidates may be displayed in a predetermined display area, or may be dynamically determined according to the tilt direction in the tilt operation. For example, when the user terminal is tilted to the right in the tilting operation, a plurality of stamp candidates are displayed along the tilt from the left to the right of the screen as shown in FIG. 5B. May be.
次いで、ステップS54aでは、ディスプレイに表示された複数のスタンプ候補に対するスタンプ選択動作を受けることで、候補選択部715によって1のスタンプが選択される。スタンプ選択動作は、タッチパネル上のスライド動作に関連付けることができる。より具体的には、図5(b)のスタンプ候補に対し、スタンプST1をタッチ操作により特定すると共に、図5(c)のように所定の方向に所定の距離だけスライドするユーザ操作とするのがよい。なお、当該所定の方向は、上記傾け動作における傾け方向に対応付けるのがよい。図5(b)で画面の左方向から右方向に向けて傾きに沿うようにスタンプ候補が表示される場合には、図5(c)のようにそのまま右方向へのスライド操作を受けるようにするのがよい。最後に、ステップS55aでは、選択されたスタンプを図5(d)のように3次元仮想空間に反映させ共有ユーザに通知するために、スタンプを入力してサーバ・システムに送信する。 Next, in step S54a, the candidate selection unit 715 selects one stamp by receiving a stamp selection operation for a plurality of stamp candidates displayed on the display. The stamp selection operation can be associated with a slide operation on the touch panel. More specifically, the stamp ST1 is specified for the stamp candidate in FIG. 5B by a touch operation, and the user operation is to slide a predetermined distance in a predetermined direction as shown in FIG. 5C. Is good. The predetermined direction is preferably associated with the tilt direction in the tilt operation. When the stamp candidates are displayed along the inclination from the left direction to the right direction of the screen in FIG. 5B, the slide operation in the right direction is directly received as shown in FIG. 5C. It is good to do. Finally, in step S55a, in order to reflect the selected stamp in the three-dimensional virtual space as shown in FIG. 5D and notify the shared user, the stamp is input and transmitted to the server system.
なお、図8の処理全般では、コンタクト情報としてスタンプを想定したが、テキスト情報においても同様のことが言える。即ち、ユーザが例えば「あいさつ」と文字入力または音声入力し、且つ端末の傾け動作を実施することで、「おはよう」「こんにちは」「さようなら」のようなテキストをコンタクト情報の候補として表示し、ユーザが意図するものをタッチ操作およびスライド操作によって選択するようにしてもよい。何れにしても、本発明の実施形態によるユーザ入力支援のコンピュータ・プログラムは、ゲームの進行を妨げることなく、非常に効率的に数多くの候補の中から所望のコンタクト情報を適宜選択および入力することができる。 In the overall processing of FIG. 8, a stamp is assumed as contact information, but the same can be said for text information. That is, the user, for example, characters or speech input as "greeting", and by carrying out tilting operation of the terminal, and displays the text such as "Good morning", "Hello", "Goodbye" as a candidate for the contact information, the user May be selected by touch operation and slide operation. In any case, the computer program for assisting user input according to the embodiment of the present invention can select and input desired contact information from a large number of candidates as appropriate without interfering with the progress of the game. Can do.
図9は、図7のステップS6aにおいて、選択されたコンタクト情報を視界画像に重畳してディスプレイに表示するコンタクト出力処理を詳細化したフロー図であり、図5(d)の画面イメージの出力処理に相当する。また、図10〜図12は、当該コンタクト出力処理に関連する概要イメージを示す。 FIG. 9 is a detailed flow chart of the contact output process in which the selected contact information is superimposed on the view field image and displayed on the display in step S6a of FIG. 7, and the screen image output process of FIG. It corresponds to. 10 to 12 show schematic images related to the contact output process.
ステップS61aでは、キャラクタ配置決定部83によって、コンタクト情報を送信したキャラクタの3次元仮想空間内の配置情報を決定する。ここでは、自ユーザが自らコンタクト情報を入力したため、対応する自キャラクタの位置座標を決定する。図10(a)の例のように、自キャラクタの位置は基本的に視界画像の中心とするのがよい。引き続き、ステップS62aでは、決定した配置情報に従って、コンタクト情報配置領域決定部911によって、コンタクト情報を重畳するためのコンタクト情報配置領域を視界画像内に決定する。より具体的には、視界画像内の基準点、並びにコンタクト情報配置領域の位置および大きさを決定する。基準点は、吹き出し画像を生成するために必要となり、これに限定されないものの、キャラクタの配置位置に関連付けるのがよい。例えば図10(b)のように、自キャラクタの頭部の位置座標を基準点として採用するのがよい。また、コンタクト情報配置領域は、吹き出し画像を収容する領域であり、同じく図10(b)のように、視界画像全体における基準点の相対位置に応じて、コンタクト情報配置領域の位置および大きさを決定するのがよい。 In step S61a, the character arrangement determining unit 83 determines arrangement information in the three-dimensional virtual space of the character that has transmitted the contact information. Here, since the own user himself / herself entered the contact information, the position coordinates of the corresponding own character are determined. As in the example of FIG. 10A, the position of the player character should basically be the center of the view image. Subsequently, in step S62a, according to the determined arrangement information, the contact information arrangement area determination unit 911 determines a contact information arrangement area for superimposing contact information in the view field image. More specifically, the reference point in the view field image and the position and size of the contact information arrangement area are determined. The reference point is necessary for generating the balloon image, and although it is not limited to this, it is preferable to associate the reference point with the arrangement position of the character. For example, as shown in FIG. 10B, the position coordinates of the head of the player character may be adopted as the reference point. Further, the contact information arrangement area is an area that accommodates the balloon image. Similarly, as shown in FIG. 10B, the position and size of the contact information arrangement area are set according to the relative position of the reference point in the entire view image. It is good to decide.
ここで、図12の例を参照しても分かるように、コンタクト情報は、コンタクト情報配置領域内において、吹き出し画像と共にディスプレイに表示される。コンタクト情報配置領域はディスプレイに非表示とするのがよい。図示のように、コンタクト情報配置領域内に吹き出し画像が収容され、且つ吹き出し画像内にコンタクト情報(即ち、スタンプ画像(a)やテキスト情報(b))が収容される。また、図示のように、吹き出し画像は、コンタクト情報配置領域の基準点に位置合わせされる先端部分と、スタンプ画像やテキスト情報を収容する本体部分を含み、これらを結合するようにして形成される。 Here, as can be seen by referring to the example of FIG. 12, the contact information is displayed on the display together with the balloon image in the contact information arrangement area. The contact information arrangement area is preferably not displayed on the display. As illustrated, a balloon image is accommodated in the contact information arrangement area, and contact information (that is, stamp image (a) and text information (b)) is accommodated in the balloon image. Further, as shown in the figure, the balloon image includes a tip portion that is aligned with a reference point of the contact information arrangement region and a main body portion that accommodates the stamp image and text information, and is formed by combining them. .
図9に戻り、ステップS63aでは、ステップS62aで決定した視界画像内の基準点に対し、吹き出し画像の先端部分を位置合わせする。次いで、ステップS64aでは、吹き出し画像の本体部分が視界画像内に収容されるように本体部の大きさを調整した上で、本体部分を先端部分に結合する。なお、本体部分の形状は図12(a)(b)のような矩形に限定されず、例えば角丸形、多角形やそれ以外の任意の形状としてもよいことは言うまでもない。次いで、ステップS65aでは、ステップS64aで調整した本体部分の大きさに基づいて、コンタクト情報の表示上の大きさ(即ちスタンプの大きさ)を調整し、本体部分に収容させる。これらステップS63aおよびS64aはコンタクト情報生成部913によって実施される。最後に、ステップS66aでは、コンタクト情報重畳部915によって、コンタクト情報を吹き出し画像と共に視界画像に重畳して、図5(d)や図10(c)に示したようなゲーム画像として画面表示する。なお、図10(c)ではスタンプ画像をコンタクト情報配置領域内の中央に配置しているが、これに限定されず、領域内に収容されるのであれば如何なる場所に配置してもよい。 Returning to FIG. 9, in step S63a, the tip portion of the balloon image is aligned with the reference point in the view field image determined in step S62a. Next, in step S64a, the size of the main body portion is adjusted so that the main body portion of the balloon image is accommodated in the view field image, and then the main body portion is coupled to the tip portion. Needless to say, the shape of the main body portion is not limited to a rectangle as shown in FIGS. 12A and 12B, and may be, for example, a rounded round shape, a polygonal shape, or any other shape. Next, in step S65a, the display size of the contact information (that is, the size of the stamp) is adjusted based on the size of the main body portion adjusted in step S64a, and is accommodated in the main body portion. These steps S63a and S64a are performed by the contact information generation unit 913. Finally, in step S66a, the contact information superimposing unit 915 superimposes the contact information together with the balloon image on the view image and displays it on the screen as a game image as shown in FIG. 5 (d) or FIG. 10 (c). In FIG. 10C, the stamp image is arranged at the center in the contact information arrangement area. However, the present invention is not limited to this, and the stamp image may be arranged in any location as long as it is accommodated in the area.
図10の例は、自ユーザがスタンプを送信し、自キャラクタに対して吹き出し表示したものである。これに対し、図11の例は、3次元仮想空間を共有する他の相手ユーザによってコンタクト情報が選択および送信された場合の例である。この場合も、まず図11(a)のように、相手キャラクタの3次元仮想空間内の配置情報を決定し(ステップS61a)、当該配置情報に従って、図11(b)のように、自ユーザの自キャラクタの配置に基づく視界画像内においてコンタクト情報を表示するための基準点およびコンタクト情報配置領域を決定し(ステップS62a)、そして、図11(c)のように、当該コンタクト情報配置領域内にコンタクト情報を吹き出し画像と共に重畳して、ディスプレイに表示する(ステップS63a〜S66a)。 In the example of FIG. 10, the user sends a stamp and displays it in a balloon for the player character. On the other hand, the example of FIG. 11 is an example in a case where contact information is selected and transmitted by another partner user who shares the three-dimensional virtual space. Also in this case, first, as shown in FIG. 11A, the arrangement information of the opponent character in the three-dimensional virtual space is determined (step S61a), and according to the arrangement information, as shown in FIG. A reference point and a contact information arrangement area for displaying contact information in the field-of-view image based on the arrangement of the player character are determined (step S62a). Then, as shown in FIG. The contact information is superimposed on the balloon image and displayed on the display (steps S63a to S66a).
以上、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて、各種例と共に説明した。上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 In the above, the computer program for user input support by embodiment of this invention was demonstrated with the various examples. The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.
Claims (9)
前記ユーザ端末の傾け動作に応答して表示される複数のコンタクト情報の候補に対し、1のコンタクト情報を選択および入力するコンタクト入力部と、
前記選択されたコンタクト情報を前記視界画像に重畳し、前記ディスプレイに表示するコンタクト出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。 A field-of-view image generation unit that generates a field-of-view image based on an arrangement of characters associated with one user in a virtual space and displays the field-of-view image on a display of a user terminal included in the one user;
A contact input unit for selecting and inputting one contact information for a plurality of contact information candidates displayed in response to the tilting motion of the user terminal;
A computer program for user input support that causes the user terminal to function as a contact output unit that superimposes the selected contact information on the field-of-view image and displays it on the display.
前記コンタクト情報配置領域内において前記選択されたコンタクト情報を吹き出し画像と共に表示する、請求項1記載のコンピュータ・プログラム。 In the contact output unit, a contact information arrangement area for superimposing the selected contact information is determined in the view image according to the arrangement of the character,
The computer program according to claim 1, wherein the selected contact information is displayed together with a balloon image in the contact information arrangement area.
前記コンタクト出力部において、更に、前記他のユーザが選択した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、請求項1または2記載のコンピュータ・プログラム。 The virtual space is shared with other characters associated with other users;
The contact output unit further displays other contact information selected by the other user on the display, superimposed on the view image based on the arrangement of the character associated with the one user. Item 3. The computer program according to item 1 or 2.
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、請求項3記載のコンピュータ・プログラム。 In the contact output unit, another contact information arrangement area for superimposing the selected other contact information is determined in the view image according to the arrangement of the other character,
The computer program according to claim 3, wherein the other contact information is displayed together with a balloon image in the other contact information arrangement area.
前記コンタクト入力部において、前記1のコンタクト情報の選択が、前記1のコンタクト情報を特定するために前記タッチパネルにタッチする操作と共に、所定の方向に所定の距離だけスライドするユーザ操作を含む、請求項1から5のいずれか一項記載のコンピュータ・プログラム。 The display is a touch panel;
The selection of the one contact information in the contact input unit includes a user operation of sliding a predetermined distance in a predetermined direction together with an operation of touching the touch panel to specify the one contact information. The computer program according to any one of 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015136845A JP2017021466A (en) | 2015-07-08 | 2015-07-08 | Computer program for user input support |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015136845A JP2017021466A (en) | 2015-07-08 | 2015-07-08 | Computer program for user input support |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017021466A true JP2017021466A (en) | 2017-01-26 |
Family
ID=57888606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015136845A Pending JP2017021466A (en) | 2015-07-08 | 2015-07-08 | Computer program for user input support |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017021466A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019076706A (en) * | 2017-10-25 | 2019-05-23 | ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド | Information processing method and device, program, storage medium, and electronic apparatus |
WO2020138201A1 (en) * | 2018-12-28 | 2020-07-02 | 株式会社バンダイナムコエンターテインメント | Game system, processing method, and information storage medium |
-
2015
- 2015-07-08 JP JP2015136845A patent/JP2017021466A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019076706A (en) * | 2017-10-25 | 2019-05-23 | ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド | Information processing method and device, program, storage medium, and electronic apparatus |
US10702776B2 (en) | 2017-10-25 | 2020-07-07 | Netease (Hangzhou) Network Co., Ltd. | Information processing method, storage medium and electronic device |
WO2020138201A1 (en) * | 2018-12-28 | 2020-07-02 | 株式会社バンダイナムコエンターテインメント | Game system, processing method, and information storage medium |
JP2020103724A (en) * | 2018-12-28 | 2020-07-09 | 株式会社バンダイナムコエンターテインメント | Game system and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5276145B2 (en) | List display device | |
JP5333397B2 (en) | Information processing terminal and control method thereof | |
US10466811B2 (en) | Controlling a local application running on a user device that displays a touchscreen image on a touchscreen via mouse input from external electronic equipment | |
JP2017000480A (en) | Terminal device and program | |
JP5995909B2 (en) | User interface program | |
JP2011070609A (en) | Information terminal device with touch panel, method and program for controlling display | |
JP2018027231A (en) | Program, control method, and information processing apparatus | |
JP2023523442A (en) | Method, apparatus, apparatus and program for controlling interface display | |
JP6470111B2 (en) | Game program having message transmission function, message transmission method, and computer terminal with message transmission function | |
JP2017119043A (en) | Game control device and program | |
JP2017204115A (en) | Operation input device, portable terminal, and operation input method | |
JP6386897B2 (en) | Electronic blackboard, information processing program, and information processing method | |
JP6088787B2 (en) | Program, information processing apparatus, information processing method, and information processing system | |
JP2017086492A (en) | Program, electronic device, system, and method for improving user input operability | |
JP6100497B2 (en) | Information processing program, information processing apparatus, information processing system, and image display method | |
JP6696739B2 (en) | Computer program for supporting user input | |
JP2016220847A (en) | Game program with message transmission function, message transmission method, and computer terminal with message transmission function | |
US20180078856A1 (en) | Program, game system, electronic device, server, and game control method for improving operability for user input | |
JP6174646B2 (en) | Computer program for 3-axis operation of objects in virtual space | |
JP2017023239A (en) | Computer program | |
JP2017021466A (en) | Computer program for user input support | |
JP2014085816A (en) | Program, information processing device, information processing method, and information processing system | |
JP5864018B1 (en) | Computer program | |
JP2009294928A (en) | Input device, input system, and input method in input device | |
JP2017000703A (en) | Computer program |