JP2020121165A - Computer program for assisting user input - Google Patents
Computer program for assisting user input Download PDFInfo
- Publication number
- JP2020121165A JP2020121165A JP2020075329A JP2020075329A JP2020121165A JP 2020121165 A JP2020121165 A JP 2020121165A JP 2020075329 A JP2020075329 A JP 2020075329A JP 2020075329 A JP2020075329 A JP 2020075329A JP 2020121165 A JP2020121165 A JP 2020121165A
- Authority
- JP
- Japan
- Prior art keywords
- user
- contact information
- image
- input
- computer program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザ入力支援のためのコンピュータ・プログラムに関する。より詳細には、複数のユーザ間で仮想空間を共有して相互対話をする際に、各ユーザによるユーザ端末からのコンタクト情報の入力を容易にするようにユーザ支援するためのコンピュータ・プログラムに関するものである。 The present invention relates to a computer program for supporting user input. More specifically, the present invention relates to a computer program for assisting a user in facilitating input of contact information from a user terminal when a plurality of users share a virtual space and interact with each other. Is.
複数のユーザが仮想空間を共有し、オンラインでの情報発信を通じてメッセージ交換等の相互対話を行うことが知られる。例えば、スマートフォンを利用したメッセージ・チャット・アプリケーションが知られる。特に、ユーザの投稿内容として、テキスト情報のみならずスタンプと称されるアイコン画像情報を用いた画像チャットが知られる。 It is known that a plurality of users share a virtual space and interact with each other such as exchanging messages through online information transmission. For example, a message chat application using a smartphone is known. In particular, as the posted content of the user, image chat using not only text information but also icon image information called a stamp is known.
また、ユーザの投稿内容の表示に関し、仮想空間内で各ユーザが入力した情報を該ユーザに関連付けられるキャラクタ(アバタ)から吹き出し表示するものが知られる。例えば、特許文献1では、SNS等においてフォローしているユーザによる投稿を表示する際に、各ユーザに対応付いたキャラクタを表示した空間フィールド画面において、各フォロー・ユーザの投稿内容をキャラクタから吹き出し表示する。 In addition, regarding the display of the posted content of the user, it is known that information input by each user in the virtual space is displayed in a balloon from a character (avatar) associated with the user. For example, in Patent Document 1, when displaying a post by a user who is following in SNS or the like, a post content of each follow user is displayed as a balloon from the character on a space field screen displaying a character associated with each user. To do.
スマートフォンを用いたオンライン・ゲーム、特に、仮想空間内でユーザがキャラクタを操作可能な対戦型のオンラインRPGにおいて、ゲーム内の仮想空間を複数のユーザで共有する場合、仮想空間内での共有ユーザ同士のコミュニケーション手法として、各ユーザが入力したテキスト情報やスタンプ等のコンタクト情報を、ユーザに対応付けたキャラクタから吹き出し表示することが想定される。 In an online game using a smartphone, particularly in a battle-type online RPG in which a user can operate a character in a virtual space, when sharing the virtual space in the game with a plurality of users, the sharing users in the virtual space As a communication method, it is assumed that text information or contact information such as a stamp input by each user is displayed in a balloon from a character associated with the user.
対戦型のオンラインRPGでは、一般的に、スマートフォンのタッチパネルに対する入力操作は即時性が必要とされるのに対し、ユーザが入力しようとするコンタクト情報、特にスタンプを選択する動作は多くのタッチ動作を伴うものであるため、従来型のスタンプ入力動作をユーザに要求するのは適さない。特に、昨今の画像チャットにおいてユーザに提供されるスタンプの種類は多岐にわたるため、ユーザがその中から所望のスタンプを選択するのに時間を掛けさせることは対戦型のオンラインRPGのゲーム進行上ふさわしくない。 In a battle-type online RPG, the input operation on the touch panel of the smartphone generally requires immediacy, whereas the contact information to be input by the user, particularly the operation of selecting the stamp, requires many touch operations. As such, it is not suitable to require the user to perform a conventional stamp input operation. In particular, since there are various kinds of stamps provided to users in recent image chats, it is not appropriate for the user to take a long time to select a desired stamp from the viewpoint of progress of a competitive online RPG game. ..
そこで、本発明は、このようなスタンプをはじめとしたコンタクト情報の入力動作を容易にすべく、音声入力を用いてタッチパネルに対するユーザ操作を最小限に抑制でき、更に音声に応じた画面表示態様とするユーザ入力支援のためのコンピュータ・プログラムを提供することを目的とする。 Therefore, in order to facilitate the input operation of contact information such as such a stamp, the present invention can minimize the user operation on the touch panel by using voice input, and further provide a screen display mode corresponding to voice. It is an object of the present invention to provide a computer program for supporting a user input to perform.
上記の課題を解決するために、本発明によれば、1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、ユーザのユーザ端末が具備するディスプレイに表示する視界画像生成部と、ユーザ端末が具備するマイクロフォンを通じて音
声入力を受ける入力部と、音声入力に基づくコンタクト情報を視界画像に重畳して、ディスプレイに表示する出力部であって、コンタクト情報を重畳するためのコンタクト情報配置領域が、音声入力の音量に少なくとも従って視界画像内に決定される、出力部として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラムが得られる。
In order to solve the above-mentioned problem, according to the present invention, a visual field image is generated based on the arrangement of a character associated with one user in the virtual space, and the visual field is displayed on the display included in the user terminal of the user. An image generation unit, an input unit that receives a voice input through a microphone included in a user terminal, and an output unit that superimposes contact information based on the voice input on a visual field image and displays it on a display for superimposing contact information. A computer program for supporting user input, which causes the user terminal to function as an output unit, is obtained in which the contact information arrangement area is determined in the visual field image at least according to the volume of the voice input.
本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。 Features and advantages of the invention will be apparent from the following detailed description of the invention, the accompanying drawings, and the appended claims.
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
[Description of Embodiments of the Present Invention]
First, the contents of the embodiments of the present invention will be listed and described. A computer program for supporting user input according to the embodiment of the present invention has the following configuration.
(項目1)
1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、前記ユーザのユーザ端末が具備するディスプレイに表示する視界画像生成部と、
前記ユーザ端末が具備するマイクロフォンを通じて音声入力を受ける入力部と、
前記音声入力に基づくコンタクト情報を前記視界画像に重畳して、前記ディスプレイに表示する出力部であって、前記コンタクト情報を重畳するためのコンタクト情報配置領域が、前記音声入力の音量に少なくとも従って前記視界画像内に決定される、出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。
(Item 1)
A field-of-view image generation unit that generates a field-of-view image based on the arrangement of the character associated with one user in the virtual space and displays the field-of-view image on a display included in the user terminal of the user.
An input unit for receiving voice input through a microphone included in the user terminal;
An output unit that superimposes contact information based on the voice input on the visual field image and displays it on the display, wherein a contact information arrangement area for superimposing the contact information is at least according to the volume of the voice input. A computer program for supporting user input, which is determined in the view image and causes the user terminal to function as an output unit.
本項目のコンピュータ・プログラムによれば、マイクロフォンを通じた音声入力によりコンタクト情報を入力可能とすることにより、ユーザは、タッチパネルへの多くのタッチ
動作を要することなく、入力動作を効率化することができる。特に上記の対戦型のオンラインRPGにおいて、ゲーム進行を妨げることなく、ゲーム状況に応じたスタンプ入力をユーザに実施させることを可能とする。
また、音声入力時の音量をコンタクト情報の出力処理時のパラメータに採用することにより、ユーザにとってよりダイナミックなコンタクト情報の画面出力を可能とし、ユーザ間のリアルタイム・コミュニケーションの臨場感をより大きなものとすることができる。
According to the computer program of this item, the contact information can be input by voice input through a microphone, so that the user can efficiently perform the input operation without requiring many touch operations on the touch panel. .. In particular, in the above battle-type online RPG, it is possible to allow the user to input a stamp according to the game situation without hindering the progress of the game.
Also, by adopting the volume at the time of voice input as a parameter during the output processing of contact information, it is possible to output the contact information on the screen more dynamically for the user, and to enhance the realism of real-time communication between users. can do.
(項目2)
前記出力部において、前記コンタクト情報配置領域内において前記コンタクト情報を吹き出し画像と共に表示する、項目1記載のコンピュータ・プログラム。
(Item 2)
The computer program according to item 1, wherein the output unit displays the contact information together with a balloon image in the contact information arrangement area.
(項目3)
前記仮想空間が他のユーザに関連付けられる他のキャラクタと共有され、
前記出力部において、更に、前記他のユーザが入力した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、項目1または2記載のコンピュータ・プログラム。
(Item 3)
The virtual space is shared with other characters associated with other users,
In the output unit, further, other contact information input by the other user is displayed on the display by superimposing it on the view image based on the arrangement of the character associated with the one user. Alternatively, the computer program according to item 2.
(項目4)
前記出力部において、前記他のコンタクト情報を重畳するための他のコンタクト情報配置領域を、前記他のキャラクタの配置に少なくとも従って前記視界画像内に決定し、
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、項目3記載のコンピュータ・プログラム。
(Item 4)
In the output unit, another contact information arrangement area for superimposing the other contact information is determined in the view image at least according to the arrangement of the other character,
4. The computer program according to item 3, wherein the other contact information is displayed in the other contact information arrangement area together with a balloon image.
(項目5)
前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキスト情報である、項目1から4のいずれか一項記載のコンピュータ・プログラム。
(Item 5)
5. The computer program according to any one of Items 1 to 4, wherein the contact information is text information based on text conversion of the voice input.
(項目6)
前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキストに関連付けられ、前記ユーザ端末に格納されるスタンプ画像である、項目1から5のいずれか一項記載のコンピュータ・プログラム。
(Item 6)
6. The computer program according to any one of items 1 to 5, wherein the contact information is a stamp image that is associated with text based on the text conversion of the voice input and is stored in the user terminal.
[本発明の実施形態の詳細]
以下、図面を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。
[Details of the embodiment of the present invention]
Hereinafter, a computer program for supporting user input according to an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムを実行させるためのコンピュータ・システムの全体概略図である。図1では、コンピュータ・システムの主要な構成要素のみを示している。コンピュータ・システム100は、ユーザ端末10−1〜10−4(以後、「ユーザ端末10」と総称する。)、およびコンピュータ・サーバ50を備え、これら要素間はネットワーク30(特に、インターネット・ネットワーク)を介して通信を行う。なお、以下では、一例として、本発明の実施形態によるコンピュータ・プログラムをゲーム・プログラムとしてスマートフォン・ゲームに適用し、複数のユーザに共有ゲーム空間(3次元仮想空間)内で相互にコミュニケーションさせるオンライン・ゲーム、特に、3次元仮想空間内で各ユーザが自分自身に関連付けられたキャラクタを操作可能な対戦型のオンラインRPGをユーザがプレイすることを想定する。 FIG. 1 is an overall schematic diagram of a computer system for executing a computer program for supporting user input according to an embodiment of the present invention. In FIG. 1, only the major components of the computer system are shown. The computer system 100 includes user terminals 10-1 to 10-4 (hereinafter collectively referred to as "user terminal 10") and a computer server 50, and a network 30 (particularly, an internet network) between these elements. To communicate via. In the following, as an example, an online program in which the computer program according to the embodiment of the present invention is applied to a smartphone game as a game program to allow a plurality of users to communicate with each other in a shared game space (three-dimensional virtual space) It is assumed that a user plays a game, in particular, a battle-type online RPG in which each user can operate a character associated with himself/herself in a three-dimensional virtual space.
ユーザ端末10は、コンピュータ・サーバ50から送られるデータを使用し、またコンピュータ・サーバ50から送られるプログラムを実行して、ゲーム画像を生成・表示でき
る装置であればよく、例えば、インターネットに接続可能な携帯電話機、スマートフォン、タブレット端末、ゲーム用コンソール、ノートPC等を含むが、これらに限定されない。図示のように、ユーザ端末10は、端末表示部11、端末入力部12、端末処理部13、端末通信部14および端末記憶部15等を備え、これらはバスを介して電気的に相互に接続される。
The user terminal 10 may be any device that can generate and display a game image by using the data sent from the computer server 50 and executing the program sent from the computer server 50. For example, it can be connected to the Internet. Including, but not limited to, mobile phones, smartphones, tablet terminals, game consoles, notebook PCs, and the like. As illustrated, the user terminal 10 includes a terminal display unit 11, a terminal input unit 12, a terminal processing unit 13, a terminal communication unit 14, a terminal storage unit 15, and the like, which are electrically connected to each other via a bus. To be done.
ゲーム・サーバ50から端末通信部14で受信したデータやプログラムは、端末記憶部15に一時的に格納され、ゲームの進行に応じて端末処理部13で画面イメージが生成されて、端末表示部11によって表示される。端末表示部11は、例えば液晶ディスプレイ(LCD)等によって実現することができるが、図2に後述するように特にタッチ・ディスプレイとして構成するのがよい。端末入力部12は、3次元仮想空間に配置される仮想カメラの操作制御をするための命令や、ゲームを進行させるためのユーザ作用全般の命令の入力(音声入力も含む)、および仮想空間内へのコンタクト情報の発信を実施する。 Data and programs received from the game server 50 by the terminal communication unit 14 are temporarily stored in the terminal storage unit 15, and a screen image is generated by the terminal processing unit 13 according to the progress of the game, and the terminal display unit 11 Displayed by. The terminal display unit 11 can be realized by, for example, a liquid crystal display (LCD) or the like, but it is particularly preferable to configure it as a touch display as described later in FIG. The terminal input unit 12 inputs a command for controlling the operation of a virtual camera arranged in a three-dimensional virtual space, a command input of general user actions for advancing a game (including voice input), and a virtual space. Send contact information to
端末入力部12で受けた入力命令に基づいて、端末処理部13においてプログラムが実行される。または、ユーザ命令が作成され、端末通信部14およびネットワーク30を通じてコンピュータ・サーバ50と通信を行い、コンピュータ・サーバ50によってプログラムを実行することができる。端末記憶部15は、ユーザ端末に関連付けられる各種データ、および画像データの表示に必要なブラウザ等のアプリケーションを格納すると共に、ゲーム・サーバ50から受信するテキストデータやスタンプ画像データ等のコンタクト・データ、並びに画面イメージを生成するためのデータおよびプログラム等の各種データも格納する。 The program is executed in the terminal processing unit 13 based on the input command received by the terminal input unit 12. Alternatively, a user command may be created, communicate with the computer server 50 through the terminal communication unit 14 and the network 30, and the computer server 50 may execute the program. The terminal storage unit 15 stores various data associated with the user terminal, an application such as a browser necessary for displaying image data, and contact data such as text data and stamp image data received from the game server 50. It also stores various data such as data and programs for generating screen images.
一方、コンピュータ・サーバ50は、処理部51、メインメモリ52、外部メモリ53、ユーザ・インタフェース54、通信部55、およびディスク・ドライブ56等を備え、これらはバスを介して電気的に相互に接続される。処理部51は、外部メモリ53に格納されたプログラム・モジュール、およびディスク・ドライブ56に格納されたユーザ・データ、スタンプ画像データ、仮想空間情報、およびゲーム進行データ等の各種データ等をメインメモリ52にロードして、順次、各種コンピュータ・プログラムを実行することによりゲームの進行を制御する。特に、処理部51は、ユーザ端末10間で共有させるための仮想空間情報等のデータやプログラムを管理し、必要に応じて通信部55を介してユーザ端末10に提供するように構成される。ユーザ・インタフェース54は、ゲーム・サーバ50の管理者によってサーバにアクセスされ、各種サーバ機能設定やネットワーク設定が実施される。 On the other hand, the computer server 50 includes a processing unit 51, a main memory 52, an external memory 53, a user interface 54, a communication unit 55, a disk drive 56, etc., which are electrically connected to each other via a bus. To be done. The processing unit 51 stores the program modules stored in the external memory 53 and various data such as user data, stamp image data, virtual space information, and game progress data stored in the disk drive 56 into the main memory 52. To control the progress of the game by sequentially executing various computer programs. In particular, the processing unit 51 is configured to manage data and programs such as virtual space information to be shared between the user terminals 10 and provide the data to the user terminals 10 via the communication unit 55 as necessary. The user interface 54 is accessed by the administrator of the game server 50 to make various server function settings and network settings.
なお、上記コンピュータ・サーバ50に関する情報処理装置としての様々な機能の全部または一部は、ユーザ端末10が担うように構成してもよい。この場合には、ユーザ端末10自体で情報処理装置を構成するか、またはユーザ端末10およびコンピュータ・サーバ50を組み合わせ、全体で情報処理装置を構成することになる。 The user terminal 10 may be configured to perform all or part of various functions of the computer server 50 as an information processing apparatus. In this case, the user terminal 10 itself constitutes the information processing apparatus, or the user terminal 10 and the computer server 50 are combined to constitute the information processing apparatus as a whole.
図2にユーザ端末10の一例として、携帯端末(特にスマートフォン)10の基本構成に関するブロック図を示す。図示のように、携帯端末10は基本構成として、タッチ・ディスプレイ110、音声検知部/マイクロフォン130、制御部140および記憶部150を備える。タッチ・ディスプレイ110は、記憶部150に格納された各種データを表示するための表示部/ディスプレイ120、該表示部/ディスプレイ120に対し、人の指やスタイラスなどの物体による接触操作(主に、タッチ操作、スワイプ(スライド)操作およびタップ操作等の物理的接触操作)を検知する接触検知部/タッチパネル125、並びに、携帯端末への音声入力を検知する音声検知部(マイクロフォン)130を備える。 As an example of the user terminal 10, FIG. 2 shows a block diagram regarding the basic configuration of the mobile terminal (particularly a smartphone) 10. As illustrated, the mobile terminal 10 includes a touch display 110, a voice detection unit/microphone 130, a control unit 140, and a storage unit 150 as a basic configuration. The touch display 110 is a display unit/display 120 for displaying various data stored in the storage unit 150, and a touch operation on the display unit/display 120 with an object such as a human finger or a stylus (mainly, A touch detection unit/touch panel 125 that detects a touch operation, a physical contact operation such as a swipe (slide) operation, and a tap operation, and a voice detection unit (microphone) 130 that detects a voice input to a mobile terminal.
接触検知部125はタッチ・ディスプレイの構造上、液晶パネル、有機EL、プラズマディスプレイ等のようなディスプレイ120の上層に配置される。接触検知部125は、圧力検出方式、抵抗膜方式、静電容量方式や電磁誘導方式等を採用することができる。接触検知部125上で指やスタイラス等の物体の接触による入力を受けた際に、その接触位置において押圧、電気抵抗、電気容量や弾性波のエネルギー等の変化量を検知し、表示部120上の対応する接触座標が特定される。 Due to the structure of the touch display, the contact detection unit 125 is arranged in the upper layer of the display 120 such as a liquid crystal panel, an organic EL, a plasma display. The contact detection unit 125 can adopt a pressure detection method, a resistance film method, a capacitance method, an electromagnetic induction method, or the like. When an input by contact of an object such as a finger or a stylus is received on the contact detection unit 125, the amount of change in pressure, electric resistance, electric capacity, energy of elastic wave, or the like is detected at the contact position, and the display unit 120 displays. The corresponding contact coordinates of are identified.
音声検知部130は、ユーザ端末等に標準的に搭載される音声通話用のマイクロフォンとすることができる。制御部140は、端末処理部からの処理命令に従って、本発明の実施形態によるコンピュータ・プログラムを実行して携帯端末10を動作させるように構成される。制御部140の詳細については図5を参照して後述する。記憶部150は、本実施形態によるコンピュータ・プログラム、ゲーム・プログラム、ユーザやゲームに関連するデータ、およびコンタクト情報データの全般を格納し、制御部からの命令に応じて情報の登録、更新、削除等が実施される。なお、本実施形態によるコンピュータ・プログラムを通じて入力されるスタンプ画像についてもサーバ50から携帯端末10にユーザがダウンロードした際に格納することができる。 The voice detection unit 130 can be a microphone for voice communication that is standardly installed in a user terminal or the like. The control unit 140 is configured to execute the computer program according to the embodiment of the present invention to operate the mobile terminal 10 according to a processing instruction from the terminal processing unit. Details of the control unit 140 will be described later with reference to FIG. The storage unit 150 stores the computer program according to the present embodiment, a game program, data related to a user or a game, and contact information data in general, and registers, updates, or deletes information according to a command from the control unit. Etc. are carried out. The stamp image input through the computer program according to the present embodiment can also be stored when the user downloads it from the server 50 to the mobile terminal 10.
これより図3および図4を参照して、本発明の実施形態によるコンピュータ・プログラムが適用されるオンライン・アクションRPGの一例のゲーム・コンテンツ例の概要を示す。ここでは、複数のユーザが同一の3次元仮想空間を共有し、それぞれが当該3次元仮想空間で自らのキャラクタに対するアクション操作を実施可能である。加えて、各ユーザは、キャラクタへのアクション操作によりゲームを進行することができると共に、キャラクタを通じた相互対話、即ち、テキスト・チャットや画像チャットのようなリアルタイムのチャットをゲーム進行と同時に実施可能である。 3 and 4, an outline of an example of game content of an online action RPG to which the computer program according to the embodiment of the present invention is applied will be shown. Here, a plurality of users share the same three-dimensional virtual space, and each can perform an action operation for their own character in the three-dimensional virtual space. In addition, each user can progress the game by operating actions on the character, and can interact with each other through the character, that is, real-time chat such as text chat and image chat at the same time as the game progresses. is there.
図3(a)および(b)は、自キャラクタ1を操作するユーザ(自ユーザ)のユーザ画面に表示される一連のゲーム画像である。関連付けるキャラクタおよびその配置はユーザ毎に異なるため、ユーザごとに端末に表示されるゲーム画面は異なる。図3(a)(b)の視界画像3は、自キャラクタ1の配置(画面中心よりやや上)に基づき、自ユーザの端末の画面に表示される画像である。一方、相手キャラクタ2を操作する別のユーザ(相手ユーザ)の端末の画面に表示される画像は、相手キャラクタ2の配置(画面中心よりやや上)に基づいた視界画像となり、図3(a)(b)の自ユーザの視界画像とは異なるものとなる。 3A and 3B are a series of game images displayed on the user screen of the user (own user) operating the own character 1. Since the associated character and its arrangement are different for each user, the game screen displayed on the terminal is different for each user. The view field image 3 of FIGS. 3A and 3B is an image displayed on the screen of the user's terminal based on the arrangement of the character 1 (slightly above the center of the screen). On the other hand, the image displayed on the screen of the terminal of another user (an opponent user) who operates the opponent character 2 becomes a visual field image based on the arrangement of the opponent character 2 (slightly above the center of the screen), and FIG. It is different from the view image of the own user in (b).
上記のように、自ユーザの視界画像3の中心上部近傍に自キャラクタ1が表示される。つまり、自キャラクタ1の配置は表示画面の所定の位置範囲に位置合わせされる。ユーザは、端末入力部を通じたユーザ命令に従い、3次元仮想空間内で自キャラクタ1を移動させることができる。自キャラクタ1には仮想カメラが関連付けられており、該仮想カメラは3次元仮想空間内の自キャラクタの後方かつ上方に配置されて(図示せず)、自キャラクタの移動に伴って追従するよう動作する。自キャラクタ1の仮想カメラからの視界領域に基づいて視界画像3が生成され、端末のディスプレイに表示される。ここで、各キャラクタは、キャラクタ特性5を有しており、画面左下に表示される。キャラクタ特性5には、例えば、キャラクタの種別、キャラクタ画像、キャラクタとしての強さ(ヒット・ポイント(HP:キャラクタの体力ポイント)やスキル・ポイント(SP:必殺技を繰り出すための技能ポイント))等が含まれる。 As described above, the own character 1 is displayed near the upper center of the view image 3 of the own user. That is, the arrangement of the player character 1 is aligned with the predetermined position range on the display screen. The user can move his/her character 1 in the three-dimensional virtual space in accordance with a user command through the terminal input unit. A virtual camera is associated with the player character 1, the virtual camera is arranged behind and above the player character in the three-dimensional virtual space (not shown), and moves so as to follow the player character's movement. To do. The visual field image 3 is generated based on the visual field area of the own character 1 from the virtual camera, and is displayed on the display of the terminal. Here, each character has a character characteristic 5 and is displayed at the lower left of the screen. The character characteristics 5 include, for example, the type of the character, the character image, the strength as a character (hit points (HP: physical strength points of the character), skill points (SP: skill points for performing special moves), etc. Is included.
図3(a)の例では、自キャラクタ1の左下部に、相手ユーザが操作している相手キャラクタ2が位置しており、視界画像3にも映り込んでいる。そして、自ユーザ1は、自らのユーザ端末から「こんにちは」というコンタクト情報(テキスト・データ)を入力して3次元仮想空間内に発信している。その結果、図示のように、視界画像3において自キャ
ラクタ1から「こんにちは」とテキスト表示された吹き出し画像4が表示され、自ユーザの画面に表示されている。勿論、相手ユーザの画面上にも、自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像が表示されることが理解される。
In the example of FIG. 3A, the opponent character 2 operated by the opponent user is located in the lower left part of the own character 1, and is reflected in the visual field image 3. Then, the self-user 1, are sent to their user contact information of "Hello" from the terminal (text data) three-dimensional virtual space by entering the. As a result, as shown, it is "Hello" and balloon image 4 displayed text displayed from the player character 1 in field image 3 is displayed on the screen of the host user. Of course, even on the screen of the other user, that the "Hello" and the text displayed balloon image is displayed from the own character 1 it is to be understood.
自ユーザが3次元仮想空間で自キャラクタ1を上方向に移動させると、図3(b)のような視界画像の表示となる。この場合、相手キャラクタ2は自キャラクタ1からは離れて画面左下に位置するようにゲーム進行される。併せて、図3(b)では、図3(a)で自キャラクタが「こんにちは」なるコンタクト情報を3次元仮想空間に発信したのに応答するようにして、相手ユーザが自らの端末から「お元気ですか!?」なるコンタクト情報を入力して3次元仮想空間内に発信する。その結果、自ユーザの視界画像3でも、相手キャラクタ2から「お元気ですか!?」とテキスト表示された吹き出し画像4が表示される。 When the own user moves the own character 1 upward in the three-dimensional virtual space, the view image as shown in FIG. 3B is displayed. In this case, the opponent character 2 progresses in the game so as to be located at the lower left of the screen apart from the own character 1. In addition, in FIG. 3 (b), as the player character in FIGS. 3 (a) to respond to originated the contact information of "Hello" to the 3-dimensional virtual space, "Contact from the other users own terminal Enter the contact information "How are you?!" and send it out in the 3D virtual space. As a result, even in the visual field image 3 of the own user, the balloon image 4 in which the text "How are you!?" is displayed from the opponent character 2 is displayed.
なお、図3では、ゲーム内空間を共有するキャラクタに送信されるコンタクト情報がテキスト情報であるが、次の図4(c)に示すように、コンタクト情報は、画像チャットのようなスタンプ(即ち一般的にアイコンと称される)画像としてもよい。また、本発明の実施形態によるコンピュータ・プログラムが適用できるコンテンツは、ゲーム・アプリケーション、特に図3および図4のようなオンライン・アクションRPGに限定されない。これ以外にも、SNSや電子掲示板のように、複数のユーザがメッセージ交換を行ったり、自らの近況を関連ユーザに知らせたりするような3次元仮想空間内でコミュニケーションを実施するアプリケーションに対して、本発明の実施形態によるコンピュータ・プログラムを広範に適用可能であることが認められる。 Note that, in FIG. 3, the contact information transmitted to the characters sharing the in-game space is text information, but as shown in FIG. 4C, the contact information is a stamp (that is, image chat) like image chat. It may be an image (generally called an icon). Further, the content to which the computer program according to the embodiment of the present invention can be applied is not limited to the game application, particularly the online action RPG as shown in FIGS. 3 and 4. In addition to this, for applications such as SNS and electronic bulletin boards, which perform communication in a three-dimensional virtual space in which a plurality of users exchange messages and inform related users of their current status, It will be appreciated that the computer programs according to embodiments of the invention are widely applicable.
図4は、自ユーザが、ゲームの進行と同時に、3次元仮想空間にコンタクト情報を音声入力により発信した際のイメージ図である。図4(a)は、ゲーム進行中に「音声入力モード」に切り替えた状態である。切り替えは、ユーザがゲーム進行中に所定の画面領域を長押しする、所定のボタンをタップする、またはユーザ端末を傾ける等のユーザ動作をすることによって実施可能である。図4(a)での「音声入力モード」においてユーザが「ありがとう!」と音声を発すると、音声検知部130がそれを検知する。入力された音声は、制御部140によって認識および解析等の処理がされ、図4(b)(c)のようにコンタクト情報画像としてゲーム画面中に出力される。具体的には、文字列「ありがとう」が音声認識・解析され、予めユーザ端末の記憶部150に格納されている変換テーブルに格納してある「Thanks!」や所定のスタンプ画像に変換されて画面出力される。後述するように、変換処理の際は、入力音声に関連してその音質や音量を変換パラメータとして利用するのがよい。 FIG. 4 is an image diagram when the own user transmits contact information to the three-dimensional virtual space by voice input at the same time as the game progresses. FIG. 4A shows a state in which the "voice input mode" is switched to while the game is in progress. The switching can be performed by the user performing a user operation such as long-pressing a predetermined screen area, tapping a predetermined button, or tilting the user terminal while the game is in progress. When the user utters "Thank you!" in the "voice input mode" in FIG. 4A, the voice detection unit 130 detects it. The input voice is subjected to processing such as recognition and analysis by the control unit 140, and is output as a contact information image in the game screen as shown in FIGS. 4B and 4C. Specifically, the character string "Thank you" is voice-recognized and analyzed, converted into "Thanks!" or a predetermined stamp image stored in the conversion table stored in the storage unit 150 of the user terminal in advance, and the screen is displayed. Is output. As will be described later, in the conversion processing, it is preferable to use the sound quality and volume of the input sound as a conversion parameter.
これら図3および図4の画面イメージ例を踏まえ、これより、図5以降を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。特に図4に例示した音声入力に基づく情報処理について詳細に説明する。図5は、当該処理を実施するためにユーザ端末10に実装される主要機能ブロック図であり、その全体が図2の制御部140に相当する。図5に示すように、制御部140は、大きくは、ゲーム進行部61、コンタクト入力部71およびコンタクト出力部91を含む。また、ゲーム進行部61は、自キャラクタ移動制御部611、仮想カメラ制御部(視界領域決定部)613、および視界画像生成部615を含む。コンタクト入力部71は、音声検知部711、音声解析部713、音声変換部715、およいbコンタクト情報決定部717を含む。更に、コンタクト出力部91は、コンタクト情報配置領域決定部911、コンタクト画像生成部913、およびコンタクト情報重畳部915を含む。制御部140は、上記以外にも、コンタクト受信部81、キャラクタ配置決定部83等も含む。なお、図5は本発明の実施形態によるコンピュータ・プログラムを実装するための最低限の主要機能のセットを記載したに過ぎない点に留意すべきである。 Based on the screen image examples of FIGS. 3 and 4, a computer program for supporting user input according to the embodiment of the present invention will be described with reference to FIGS. In particular, the information processing based on the voice input illustrated in FIG. 4 will be described in detail. FIG. 5 is a main functional block diagram implemented in the user terminal 10 to carry out the processing, and the whole corresponds to the control unit 140 in FIG. As shown in FIG. 5, the control unit 140 roughly includes a game progression unit 61, a contact input unit 71, and a contact output unit 91. In addition, the game progression unit 61 includes a self-character movement control unit 611, a virtual camera control unit (visual field determination unit) 613, and a visual field image generation unit 615. The contact input unit 71 includes a voice detection unit 711, a voice analysis unit 713, a voice conversion unit 715, and a good b contact information determination unit 717. Furthermore, the contact output unit 91 includes a contact information arrangement area determination unit 911, a contact image generation unit 913, and a contact information superposition unit 915. In addition to the above, the control unit 140 also includes a contact receiving unit 81, a character placement determining unit 83, and the like. It should be noted that FIG. 5 only describes the minimum set of main functions for implementing the computer program according to the embodiment of the present invention.
これより図6のフロー図を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムにより実施される、自ユーザと相手ユーザのサーバ・システムを介した一例の相互作用に関連する情報処理について説明する。ここでは、自キャラクタの動作を制御可能な自ユーザaのユーザ端末と、相手キャラクタの動作を制御可能な相手ユーザbのユーザ端末が、各々ゲームを進行させながら、サーバ・システムを介してメッセージ交換することを想定する。 Referring now to the flow diagram of FIG. 6, relating to an example interaction between a user's and another user's server system implemented by a computer program for supporting user input according to an embodiment of the present invention. The information processing to be performed will be described. Here, the user terminal of the own user a capable of controlling the action of the own character and the user terminal of the other user b capable of controlling the action of the opponent character exchange messages via the server system while proceeding with the respective games. It is supposed to do.
図6に例示する情報処理では、最初に、サーバ・システムによりステップS1sにおいて、ユーザ間で共有する仮想空間情報が配信され、自ユーザaおよび他ユーザbがステップS1aおよびステップS1bにおいて仮想空間情報を展開することにより、仮想空間が共有される。その後の情報処理は、大きくは、キャラクタの空間内移動に伴うゲーム進行処理(通常のゲーム進行。図7の上半分)および空間内コンタクトに関するコンタクト処理(図7の下半分)から構成される。 In the information processing illustrated in FIG. 6, first, in step S1s, the server system distributes virtual space information shared among users, and the own user a and the other user b receive the virtual space information in steps S1a and S1b. By expanding, the virtual space is shared. Subsequent information processing is mainly composed of a game progressing process (normal game progressing; upper half of FIG. 7) associated with the movement of the character in space and a contact process (lower half of FIG. 7) relating to in-space contact.
キャラクタの空間内移動に伴うゲーム進行処理は、自ユーザaによるステップS2a〜S4a、および相手ユーザbによるステップS2b〜S4b、並びにサーバ・システムによるステップS2sから構成される。ステップS2aでは、自ユーザaは、自キャラクタ移動制御部611によって自キャラクタを操作して3次元仮想空間内を移動させる。ステップS3aでは、自キャラクタの3次元仮想空間内の移動に伴い、仮想カメラ制御部613によって、自キャラクタに仮想カメラを追従させる。そして、自ユーザに関連付けられた自キャラクタの3次元仮想空間内の配置を中心に関連付けた視界領域を決定する。なお、自キャラクタの移動情報はサーバ・システムにも逐一、定期的に、およびイベント・トリガのいずれか1つ以上により反映するのがよい。即ち、ステップS2sでは、サーバ・システムによって自キャラクタの位置情報で仮想空間情報を更新して、各ユーザにフィードバックする。そして、ステップS4aでは、ステップS3aで決定された視界領域に基づいて、視界画像生成部615によって視界画像が生成され、ユーザ端末のディスプレイに表示される。相手ユーザbの相手キャラクタによる空間内移動(ステップS2b〜S4b)についても同様である。 The game progress process accompanying the movement of the character in the space is composed of steps S2a to S4a by the own user a, steps S2b to S4b by the opponent user b, and step S2s by the server system. In step S2a, the own user a operates the own character by the own character movement control unit 611 to move in the three-dimensional virtual space. In step S3a, the virtual camera control unit 613 causes the virtual camera to follow the self character as the self character moves in the three-dimensional virtual space. Then, the visual field area is determined which is associated with the arrangement of the own character associated with the own user in the three-dimensional virtual space. It should be noted that the movement information of the player character may be reflected in the server system one by one, periodically, or by one or more of event triggers. That is, in step S2s, the server system updates the virtual space information with the position information of the player character and feeds it back to each user. Then, in step S4a, a field-of-view image is generated by the field-of-view image generation unit 615 based on the field-of-view area determined in step S3a and displayed on the display of the user terminal. The same applies to the movement in space by the opponent character of the opponent user b (steps S2b to S4b).
空間内コンタクトに関するコンタクト処理は、自ユーザaによるステップS5a〜S6a、および相手ユーザbによるステップS5b〜S6b、並びにサーバ・システムによるステップS3sから構成される。自ユーザaの自キャラクタおよび相手ユーザbの相手キャラクタが3次元仮想空間を共有して移動しながらゲームが進行する中で、ステップS5aにおいて、自ユーザaは、コンタクト入力部71により、即ち、ユーザ端末のマイクロフォンを通じた音声入力により、3次元仮想空間内にコンタクト情報を発信する。つまり、3次元仮想空間を共有しているユーザ(相手ユーザb)に向けて、図3および図4に例示したようなコンタクト情報を送信する(図7で詳述)。コンタクト情報は、テキスト変換に基づくテキスト情報でも、テキスト変換に基づくテキストに関連付けられたスタンプ画像情報でもよい。送信されるコンタクト情報は、ステップS3sにおいてサーバ・システム側で空間情報の更新処理に用いられ、次いで、3次元仮想空間内に発信されて自ユーザaおよび相手ユーザbの両方に通知される。 The contact process regarding the in-space contact includes steps S5a to S6a by the own user a, steps S5b to S6b by the other user b, and step S3s by the server system. While the game proceeds while the own character of the own user a and the partner character of the other user b move while sharing the three-dimensional virtual space, in step S5a, the own user a uses the contact input unit 71, that is, the user. Contact information is transmitted in the three-dimensional virtual space by voice input through the microphone of the terminal. That is, the contact information as illustrated in FIGS. 3 and 4 is transmitted to the user (partner user b) who shares the three-dimensional virtual space (detailed in FIG. 7). The contact information may be text information based on text conversion or stamp image information associated with text based on text conversion. The contact information to be transmitted is used in the process of updating the spatial information on the server system side in step S3s, then transmitted in the three-dimensional virtual space and notified to both the own user a and the other user b.
そして、ユーザa側では、ステップS6aにおいて、コンタクト出力部91によって、自ら送信したコンタクト情報を収容した吹き出し画像を自キャラクタの配置に基づいて自身の視界画像に重畳させて、ディスプレイに表示する(図8で詳述)。相手ユーザb側では、ステップS5bにおいて、コンタクト受信部81によって自ユーザaからのコンタクト情報を入力音声関連情報と共に受信し、キャラクタ配置決定部83によって3次元仮想空間内の自キャラクタの配置位置を特定する。入力音声関連情報は、コンタクト情報配置領域を決定するのに使用される音量パラメータや音質パラメータを含むのがよい。引き続き、ステップS6bにおいて、コンタクト出力部91によって、受信したコンタクト情報
を収容する吹き出し画像を自キャラクタの配置に基づいて相手ユーザ自身の視界画像に重畳させて、ディスプレイに表示する。
Then, on the side of the user a, in step S6a, the contact output unit 91 superimposes the balloon image accommodating the contact information transmitted by itself on the view image of the character based on the arrangement of the character, and displays it on the display (FIG. 8). At the partner user b side, in step S5b, the contact receiving unit 81 receives the contact information from the own user a together with the input voice related information, and the character placement determining unit 83 identifies the placement position of the own character in the three-dimensional virtual space. To do. The input voice related information may include a volume parameter and a sound quality parameter used for determining the contact information arrangement area. Subsequently, in step S6b, the contact output unit 91 superimposes the balloon image accommodating the received contact information on the visual field image of the opponent user based on the arrangement of the own character and displays it on the display.
次に、図7〜図11を参照して、上記のうち特に自ユーザaによるステップS5a,S6aの情報処理について詳細に説明する。この内、図7は、図6のステップS5aにおいて音声入力を通じたコンタクト発信処理を詳細化したフロー図であり、図8は、図4の画面イメージに関連するコンタクト処理に相当する。 Next, with reference to FIGS. 7 to 11, in particular, the information processing of steps S5a and S6a by the own user a will be described in detail. Among these, FIG. 7 is a detailed flow chart of the contact calling process through voice input in step S5a of FIG. 6, and FIG. 8 corresponds to the contact process related to the screen image of FIG.
図7のステップS51aでは、最初に、音声検知部711において、ユーザ端末が具備するマイクロフォンを通じて音声入力を受け、次いで、ステップS52aに進んで、音声解析部713において音声情報を取得および解析する。音声の解析では、主に、入力された音声の音量および音質を音声関連情報として取得する。音声関連情報は、コンタクト情報配置領域の大きさを決定し、および/または該コンタクト情報配置領域内に収容する吹き出し種別やコンタクト情報の表示態様を決定するのに使用することができる。ここで、音質は公知の評価方法により取得可能なものである。一例として、物理信号としての音声信号の周波数特性、歪率、SN比およびダイナミックレンジを取得してもよいし、並びに/または、国際電気通信連合(ITU)で規格化された音声の主観的品質評価法および客観的品質評価法による評点を取得してもよい。しかしながら、当業者にとって、音質パラメータはこれらに限定されないことが理解されるべきである。 In step S51a of FIG. 7, first, the voice detection unit 711 receives a voice input through the microphone included in the user terminal, and then proceeds to step S52a to obtain and analyze voice information in the voice analysis unit 713. In the analysis of voice, the volume and sound quality of the input voice are mainly acquired as voice related information. The voice-related information can be used to determine the size of the contact information arrangement area and/or to determine the type of balloons to be accommodated in the contact information arrangement area and the display mode of the contact information. Here, the sound quality can be acquired by a known evaluation method. As an example, the frequency characteristics, distortion, SNR and dynamic range of a voice signal as a physical signal may be obtained, and/or the subjective quality of voice standardized by the International Telecommunication Union (ITU). You may acquire the score by an evaluation method and an objective quality evaluation method. However, it should be understood by those skilled in the art that the sound quality parameters are not limited to these.
ステップS53aでは、音声変換部715によって、入力された音声をテキスト情報へ変換する。具体的には、図4(a)の例では、音声入力に対し「ありがとう」とテキスト変換する。ステップS54aでは、コンタクト情報決定部717によって、変換されたテキスト情報に基づいてコンタクト情報を決定する。具体的には、図4(a)でテキスト変換された「ありがとう」に対し、予め規定され記憶部150に格納された変換テーブルに基づいて、「Thanks!」や相当するスタンプ画像と変換して、コンタクト情報として決定する。最後に、ステップS55aでは、決定したコンタクト情報を図3や図4のように3次元仮想空間に発信し共有ユーザに通知するために、サーバ・システムに送信する。その際、音声入力に関連する上記音声関連情報も一緒に送るのがよい。 In step S53a, the voice conversion unit 715 converts the input voice into text information. Specifically, in the example of FIG. 4A, the text input is converted to "Thank you" for the voice input. In step S54a, the contact information determining unit 717 determines contact information based on the converted text information. Specifically, the text converted “Thank you” in FIG. 4A is converted into “Thanks!” or a corresponding stamp image based on a conversion table defined in advance and stored in the storage unit 150. , Contact information is determined. Finally, in step S55a, the determined contact information is transmitted to the server system for transmission to the three-dimensional virtual space as shown in FIGS. 3 and 4 and notifying the shared user. At this time, it is preferable to send the above-mentioned voice-related information related to voice input together.
このように、本発明の実施形態によるユーザ入力支援のコンピュータ・プログラムは、ゲームの進行を妨げることなく、音声入力を通じて、非常に効率的に数多くの候補の中から所望のコンタクト情報を入力することができる。なお、テキスト(「ありがとう」)と変換されることになる対応情報(「Thanks!」や記号(「♪」「★」等)を含むテキスト情報や、相当するスタンプ画像)との間の関連付けは、各ユーザが個別に実施して格納しても、関連付け情報をサーバ側からダウンロードして格納しても何れの態様とすることができる。 As described above, the computer program supporting the user input according to the embodiment of the present invention can very efficiently input desired contact information from a large number of candidates through voice input without hindering the progress of the game. You can In addition, the association between the text (“Thank you”) and the corresponding information (“Thanks!” and the text information including symbols (“♪” “★”, etc.) and the corresponding stamp image) to be converted is It is possible to adopt any mode, whether each user individually implements and stores the association information or downloads and stores the association information from the server side.
図8は、図6のステップS6aにおいて、上記音声入力に基づくコンタクト情報を視界画像に重畳してディスプレイに表示するコンタクト出力処理を詳細化したフロー図であり、図4(b)(c)の画面イメージの出力処理に相当する。また、図9〜図11は、当該コンタクト出力処理に関連する幾らかの例示の概要イメージである。 FIG. 8 is a detailed flow chart of the contact output process of superimposing the contact information based on the voice input on the visual field image and displaying it on the display in step S6a of FIG. 6, and FIG. This corresponds to the output processing of the screen image. 9 to 11 are some exemplary schematic images related to the contact output process.
図8のステップS61aでは、キャラクタ配置決定部83によって、コンタクト情報を送信したキャラクタの3次元仮想空間内の配置情報を決定する。図4の例では、自ユーザが自らコンタクト情報を入力したため、対応する自キャラクタの位置座標を決定することになる。なお、図9(a)の例のように、自キャラクタの位置は基本的に視界画像の中心とするのがよい。引き続き、ステップS62aでは、決定した配置情報およびステップS55aでの音声関連情報に従って、コンタクト情報配置領域決定部911によって、コンタクト情報を重畳するためのコンタクト情報配置領域を視界画像内に決定する。より具体
的には、視界画像内の基準点、並びにコンタクト情報配置領域の位置および大きさを決定する。基準点は、吹き出し画像を生成するために必要となり、一例としてはキャラクタの配置位置に関連付けるのがよいが、これに限定されない。例えば図9(b)のように、自キャラクタの頭部の位置座標を基準点として採用するのがよい。また、コンタクト情報配置領域は、吹き出し画像を収容する領域であり、同じく図9(b)のように、視界画像全体における基準点の相対位置に応じてコンタクト情報配置領域の位置を、また、上記音声関連情報に含まれる音量に少なくとも従ってその大きさを決定するのがよい。
In step S61a of FIG. 8, the character placement determination unit 83 determines placement information in the three-dimensional virtual space of the character that transmitted the contact information. In the example of FIG. 4, since the user himself/herself has input the contact information, the position coordinate of the corresponding own character is determined. Note that, as in the example of FIG. 9A, it is preferable that the position of the player character is basically the center of the view image. Succeedingly, in a step S62a, the contact information arrangement area determination unit 911 determines a contact information arrangement area for superimposing the contact information in the visual field image according to the determined arrangement information and the voice related information in the step S55a. More specifically, the reference point in the view image and the position and size of the contact information arrangement area are determined. The reference point is necessary for generating the balloon image, and as an example, the reference point is preferably associated with the arrangement position of the character, but is not limited to this. For example, as shown in FIG. 9B, it is preferable to adopt the position coordinates of the head of the own character as the reference point. Further, the contact information arrangement area is an area for accommodating the balloon image, and similarly, as shown in FIG. 9B, the position of the contact information arrangement area is changed according to the relative position of the reference point in the entire visual field image. At least according to the volume included in the voice-related information, it is preferable to determine the loudness.
ここで、図11の例を参照しても分かるように、コンタクト情報は、コンタクト情報配置領域内において、吹き出し画像と共に(吹き出し画像に収容されるようにして)ディスプレイに表示される。コンタクト情報配置領域はディスプレイに非表示とするのがよい。図示のように、コンタクト情報配置領域内に吹き出し画像が収容され、且つ吹き出し画像内にコンタクト情報(即ち、スタンプ画像(a)やテキスト情報(b))が収容される。また、図示のように、吹き出し画像は、コンタクト情報配置領域の基準点に位置合わせされる先端部分と、スタンプ画像やテキスト情報を収容する本体部分を含み、これらを結合するようにして形成される。 Here, as can be seen by referring to the example of FIG. 11, the contact information is displayed on the display together with the balloon image (so as to be contained in the balloon image) in the contact information arrangement area. The contact information placement area is preferably hidden on the display. As shown in the figure, the balloon information is stored in the contact information arrangement area, and the contact information (that is, the stamp image (a) and the text information (b)) is stored in the balloon image. Further, as shown in the figure, the balloon image includes a tip portion aligned with the reference point of the contact information arrangement area and a main body portion containing the stamp image and text information, and is formed by combining these. ..
図8に戻り、ステップS63aでは、ステップS62aで決定した視界画像内の基準点に対し、吹き出し画像の先端部分を位置合わせする。次いで、ステップS64aでは、吹き出し画像の本体部分が視界画像内に収容されるように本体部の大きさを調整した上で、本体部分を先端部分に結合する。なお、本体部分の形状は図11(a)(b)のような矩形に限定されず、例えば角丸形、多角形やそれ以外の任意の形状としてもよい。特に、上記音声関連情報に含まれる音質情報に従ってその形状を決定してもよい。具体的には、音声品質が悪い場合には、多角形状を有する(ギザギザの)本体部分とし、音声品質が良い場合には正方形状の本体部分とするように吹き出し画像を形成してもよい。 Returning to FIG. 8, in step S63a, the tip portion of the balloon image is aligned with the reference point in the view image determined in step S62a. Next, in step S64a, the size of the main body portion is adjusted so that the main body portion of the balloon image is accommodated in the visual field image, and then the main body portion is joined to the tip portion. The shape of the main body is not limited to the rectangular shape shown in FIGS. 11A and 11B, and may be, for example, a rounded shape, a polygonal shape, or any other shape. In particular, the shape may be determined according to the sound quality information included in the voice related information. Specifically, when the voice quality is poor, the balloon image may be formed so as to have a polygonal (ragged) main body portion, and when the voice quality is good, a square main body portion.
次いで、ステップS65aでは、ステップS64aで調整した本体部分の大きさに基づいて、コンタクト情報の表示上の大きさ(即ちスタンプの大きさやテキスト情報のフォントの大きさ)を調整し、本体部分に収容させてコンタクト画像情報を生成する。特に、コンタクト情報がテキスト情報である場合には、上記音声関連情報に含まれる音質情報に従って、更にそのフォントの種別を決定してもよい。これらステップS63aおよびS64aはコンタクト画像生成部913によって実施される。最後に、ステップS66aでは、コンタクト情報重畳部915によって、コンタクト画像情報を吹き出し画像と共に視界画像に重畳して、図3や図4(b)(c)に示したようなゲーム画像として画面表示する。 Next, in step S65a, the size of the contact information displayed (that is, the size of the stamp or the font size of the text information) is adjusted based on the size of the body part adjusted in step S64a, and the contact information is stored in the body part. Then, the contact image information is generated. In particular, when the contact information is text information, the font type may be further determined according to the sound quality information included in the voice related information. These steps S63a and S64a are performed by the contact image generation unit 913. Finally, in step S66a, the contact information superimposing unit 915 superimposes the contact image information on the field-of-view image together with the balloon image and displays it on the screen as a game image as shown in FIGS. 3 and 4B and 4C. ..
このように、音声入力時の音量や音質といった音声関連情報をコンタクト情報の出力処理時のパラメータに採用することにより、コンタクト画像情報をユーザにとってよりダイナミックに生成可能とすることができ、ユーザ間のリアルタイム・コミュニケーションの臨場感をより大きなものとすることができる。 In this way, by adopting the voice-related information such as the volume and sound quality at the time of voice input as the parameter at the output process of the contact information, it is possible to generate the contact image information more dynamically for the users, and The realism of real-time communication can be enhanced.
なお、図9(c)では、コンタクト画像情報としてスタンプ画像をコンタクト情報配置領域内の中央に配置しているが、これに限定されず、視界画像内に収容されるのであれば如何なる場所に配置してもよい。図9の例は、自ユーザがスタンプを送信し、自キャラクタに対して吹き出し表示したものである。これに対し、図10の例は、3次元仮想空間を共有する他の相手ユーザによってコンタクト情報が選択および送信された場合の例である。この場合も、まず図10(a)のように、相手キャラクタの3次元仮想空間内の配置情報を少なくとも決定し(ステップS61a)、当該配置情報および受信した音声関連情報に従って、図10(b)のように、自ユーザの自キャラクタの配置に基づく視界画像内においてコンタクト情報を表示するための基準点およびコンタクト情報配置領域を決定し(ステップS62a)、そして、図10(c)のように、当該コンタクト情報配置領域内にコンタクト画像情報を吹き出し画像と共に重畳して、ディスプレイに表示することになる(ステップS63a〜S66a)。 In FIG. 9C, the stamp image is arranged at the center of the contact information arrangement area as the contact image information, but the present invention is not limited to this, and the stamp image may be arranged at any place as long as it is accommodated in the view image. You may. In the example of FIG. 9, the user sends a stamp, and a balloon is displayed on the character. On the other hand, the example of FIG. 10 is an example in the case where contact information is selected and transmitted by another partner user who shares the three-dimensional virtual space. Also in this case, first, as shown in FIG. 10A, at least the placement information of the opponent character in the three-dimensional virtual space is determined (step S61a), and according to the placement information and the received voice-related information, FIG. As described above, the reference point and the contact information arrangement area for displaying the contact information in the visual field image based on the arrangement of the own character of the own user are determined (step S62a), and as shown in FIG. The contact image information is superimposed on the balloon image in the contact information arrangement area and displayed on the display (steps S63a to S66a).
以上、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて、各種例と共に説明した。上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。 The computer program for supporting user input according to the embodiments of the present invention has been described above with various examples. The embodiments described above are merely examples for facilitating the understanding of the present invention, and are not for limiting the interpretation of the present invention. It goes without saying that the present invention can be modified and improved without departing from the spirit thereof and that the present invention includes equivalents thereof.
Claims (6)
前記ユーザ端末が具備するマイクロフォンを通じて音声入力を受ける入力部と、
前記音声入力に基づくコンタクト情報を前記視界画像に重畳して、前記ディスプレイに表示する出力部であって、前記コンタクト情報を重畳するためのコンタクト情報配置領域が、前記音声入力の音量に少なくとも従って前記視界画像内に決定される、出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。 A field-of-view image generation unit that generates a field-of-view image based on the arrangement of the character associated with one user in the virtual space and displays the field-of-view image on a display included in the user terminal of the user.
An input unit for receiving voice input through a microphone included in the user terminal;
An output unit that superimposes contact information based on the voice input on the visual field image and displays it on the display, wherein a contact information arrangement area for superimposing the contact information is at least according to the volume of the voice input. A computer program for supporting user input, which is determined in the view image and causes the user terminal to function as an output unit.
前記出力部において、更に、前記他のユーザが入力した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、請求項1または2記載のコンピュータ・プログラム。 The virtual space is shared with other characters associated with other users,
In the output unit, further, other contact information input by the other user is superimposed on the view image based on the arrangement of the character associated with the one user, and is displayed on the display. The computer program according to 1 or 2.
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、請求項3記載のコンピュータ・プログラム。 In the output unit, another contact information arrangement area for superimposing the other contact information is determined in the view image at least according to the arrangement of the other character,
4. The computer program according to claim 3, wherein the other contact information is displayed in the other contact information arrangement area together with a balloon image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020075329A JP2020121165A (en) | 2020-04-21 | 2020-04-21 | Computer program for assisting user input |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020075329A JP2020121165A (en) | 2020-04-21 | 2020-04-21 | Computer program for assisting user input |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015139715A Division JP6696739B2 (en) | 2015-07-13 | 2015-07-13 | Computer program for supporting user input |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020121165A true JP2020121165A (en) | 2020-08-13 |
Family
ID=71991727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020075329A Pending JP2020121165A (en) | 2020-04-21 | 2020-04-21 | Computer program for assisting user input |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020121165A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10261099A (en) * | 1997-03-17 | 1998-09-29 | Casio Comput Co Ltd | Image processor |
JP2003164669A (en) * | 2001-11-29 | 2003-06-10 | Konami Computer Entertainment Yokyo Inc | Network game system, game apparatus and program |
JP2003296743A (en) * | 2002-03-29 | 2003-10-17 | Fuji Photo Film Co Ltd | Image processor |
JP2012252524A (en) * | 2011-06-03 | 2012-12-20 | Casio Comput Co Ltd | Display device, display method and program |
-
2020
- 2020-04-21 JP JP2020075329A patent/JP2020121165A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10261099A (en) * | 1997-03-17 | 1998-09-29 | Casio Comput Co Ltd | Image processor |
JP2003164669A (en) * | 2001-11-29 | 2003-06-10 | Konami Computer Entertainment Yokyo Inc | Network game system, game apparatus and program |
JP2003296743A (en) * | 2002-03-29 | 2003-10-17 | Fuji Photo Film Co Ltd | Image processor |
JP2012252524A (en) * | 2011-06-03 | 2012-12-20 | Casio Comput Co Ltd | Display device, display method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8360877B2 (en) | Input of message to be exchanged between game apparatuses connected together for communication thereamong | |
US8926430B1 (en) | Game system, game program, and method for providing game switchable between manual mode and automatic mode | |
JP6696739B2 (en) | Computer program for supporting user input | |
TW201337711A (en) | Systems and methods for presenting visual interface content | |
JP6684952B1 (en) | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method | |
JP5995909B2 (en) | User interface program | |
JP2012090843A (en) | Party chat system, program for party chat system, and information recording medium | |
US11071913B2 (en) | Program, game system, electronic device, server, and game control method for improving operability for user input | |
JP5721876B1 (en) | GAME PROGRAM, GAME PROCESSING METHOD, AND INFORMATION PROCESSING DEVICE | |
JP2011118595A (en) | Apparatus, method and program for processing user interface | |
JP2017023239A (en) | Computer program | |
US20160361659A1 (en) | Method and system for instant messaging and gaming | |
JP2020121165A (en) | Computer program for assisting user input | |
JP2015216996A (en) | Game program and game system | |
JP5864018B1 (en) | Computer program | |
JP7559014B2 (en) | Program, terminal, and game system | |
JP2017021466A (en) | Computer program for user input support | |
JP2016093364A (en) | Communication match game system | |
JP2014023940A (en) | Chat system, program for chat system, and information recording medium | |
CN115193043A (en) | Game information sending method and device, computer equipment and storage medium | |
JP2016101261A (en) | Sound message system | |
JP5938131B1 (en) | Program, game system, electronic device, server, and game control method for improving user input operability | |
JP5843985B2 (en) | GAME PROGRAM, GAME PROCESSING METHOD, AND INFORMATION PROCESSING DEVICE | |
JP2017000703A (en) | Computer program | |
JP5411112B2 (en) | Game device with input navigation function and online game program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200421 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210322 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210921 |