JP2017018414A - ユーザ入力支援のためのコンピュータ・プログラム - Google Patents

ユーザ入力支援のためのコンピュータ・プログラム Download PDF

Info

Publication number
JP2017018414A
JP2017018414A JP2015139715A JP2015139715A JP2017018414A JP 2017018414 A JP2017018414 A JP 2017018414A JP 2015139715 A JP2015139715 A JP 2015139715A JP 2015139715 A JP2015139715 A JP 2015139715A JP 2017018414 A JP2017018414 A JP 2017018414A
Authority
JP
Japan
Prior art keywords
user
contact information
image
computer program
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015139715A
Other languages
English (en)
Other versions
JP6696739B2 (ja
Inventor
篤 猪俣
Atsushi Inomata
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015139715A priority Critical patent/JP6696739B2/ja
Publication of JP2017018414A publication Critical patent/JP2017018414A/ja
Application granted granted Critical
Publication of JP6696739B2 publication Critical patent/JP6696739B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】スタンプ等のコンタクト情報の入力動作を容易にすべく、音声入力を用いてタッチパネルに対するユーザ操作を最小限に抑制できるユーザ入力支援のためのコンピュータ・プログラムを提供することを目的とする。
【解決手段】当該コンピュータ・プログラムは、1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、ユーザのユーザ端末が具備するディスプレイに表示する視界画像生成部と、ユーザ端末が具備するマイクロフォンを通じて音声入力を受ける入力部と、音声入力に基づくコンタクト情報を視界画像に重畳して、ディスプレイに表示する出力部であって、コンタクト情報を重畳するためのコンタクト情報配置領域が、音声入力の音量に少なくとも従って視界画像内に決定される、出力部として前記ユーザ端末に機能させる。
【選択図】図4

Description

本発明は、ユーザ入力支援のためのコンピュータ・プログラムに関する。より詳細には、複数のユーザ間で仮想空間を共有して相互対話をする際に、各ユーザによるユーザ端末からのコンタクト情報の入力を容易にするようにユーザ支援するためのコンピュータ・プログラムに関するものである。
複数のユーザが仮想空間を共有し、オンラインでの情報発信を通じてメッセージ交換等の相互対話を行うことが知られる。例えば、スマートフォンを利用したメッセージ・チャット・アプリケーションが知られる。特に、ユーザの投稿内容として、テキスト情報のみならずスタンプと称されるアイコン画像情報を用いた画像チャットが知られる。
また、ユーザの投稿内容の表示に関し、仮想空間内で各ユーザが入力した情報を該ユーザに関連付けられるキャラクタ(アバタ)から吹き出し表示するものが知られる。例えば、特許文献1では、SNS等においてフォローしているユーザによる投稿を表示する際に、各ユーザに対応付いたキャラクタを表示した空間フィールド画面において、各フォロー・ユーザの投稿内容をキャラクタから吹き出し表示する。
スマートフォンを用いたオンライン・ゲーム、特に、仮想空間内でユーザがキャラクタを操作可能な対戦型のオンラインRPGにおいて、ゲーム内の仮想空間を複数のユーザで共有する場合、仮想空間内での共有ユーザ同士のコミュニケーション手法として、各ユーザが入力したテキスト情報やスタンプ等のコンタクト情報を、ユーザに対応付けたキャラクタから吹き出し表示することが想定される。
2012−018569号公報
対戦型のオンラインRPGでは、一般的に、スマートフォンのタッチパネルに対する入力操作は即時性が必要とされるのに対し、ユーザが入力しようとするコンタクト情報、特にスタンプを選択する動作は多くのタッチ動作を伴うものであるため、従来型のスタンプ入力動作をユーザに要求するのは適さない。特に、昨今の画像チャットにおいてユーザに提供されるスタンプの種類は多岐にわたるため、ユーザがその中から所望のスタンプを選択するのに時間を掛けさせることは対戦型のオンラインRPGのゲーム進行上ふさわしくない。
そこで、本発明は、このようなスタンプをはじめとしたコンタクト情報の入力動作を容易にすべく、音声入力を用いてタッチパネルに対するユーザ操作を最小限に抑制でき、更に音声に応じた画面表示態様とするユーザ入力支援のためのコンピュータ・プログラムを提供することを目的とする。
上記の課題を解決するために、本発明によれば、1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、ユーザのユーザ端末が具備するディスプレイに表示する視界画像生成部と、ユーザ端末が具備するマイクロフォンを通じて音声入力を受ける入力部と、音声入力に基づくコンタクト情報を視界画像に重畳して、ディスプレイに表示する出力部であって、コンタクト情報を重畳するためのコンタクト情報配置領域が、音声入力の音量に少なくとも従って視界画像内に決定される、出力部として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラムが得られる。
本発明の特徴点および利点は、後述する発明の詳細な説明、並びに添付の図面および特許請求の範囲の記載から明らかなものとなる。
図1は、本発明の実施形態によるコンピュータ・プログラムを実行させるためのコンピュータ・システムの全体概略図である。 図2は、図1に示したユーザ端末の構成を示す概略ブロック図である。 図3は、本発明の実施形態によるコンピュータ・プログラムをゲーム・アプリケーションとして適用した一例のゲーム画面である。 図4は、本発明の実施形態によるコンピュータ・プログラムをゲーム・アプリケーションとして適用した他の例のゲーム画面である。 図5は、図2に示したユーザ端末の制御部に関連する詳細な主要機能ブロック図である。 図6は、本発明の実施形態により実現される自ユーザと相手ユーザのサーバ・システムを介した一例の相互作用に関連するフロー図である。 図7は、本発明の実施形態によるコンピュータ・プログラムで実装される、音声入力処理に関するフロー図である。 図8は、本発明の実施形態によるコンピュータ・プログラムで実装される、コンタクト情報の画面出力処理に関するフロー図である。 図9は、本発明の実施形態により、視界画像中にコンタクト情報配置領域を決定し、コンタクト情報を視界画像に重畳する一例の概略イメージ図である。 図10は、本発明の実施形態により、視界画像中にコンタクト情報配置領域を決定し、コンタクト情報を視界画像に重畳する他の例の概略イメージ図である。 図11は、本発明の実施形態による、コンタクト情報配置領域内にコンタクト情報を収容する吹き出し画像を生成して、視界画像に重畳する一例の概略イメージ図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムは、以下のような構成を備える。
(項目1)
1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、前記ユーザのユーザ端末が具備するディスプレイに表示する視界画像生成部と、
前記ユーザ端末が具備するマイクロフォンを通じて音声入力を受ける入力部と、
前記音声入力に基づくコンタクト情報を前記視界画像に重畳して、前記ディスプレイに表示する出力部であって、前記コンタクト情報を重畳するためのコンタクト情報配置領域が、前記音声入力の音量に少なくとも従って前記視界画像内に決定される、出力部と
として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。
本項目のコンピュータ・プログラムによれば、マイクロフォンを通じた音声入力によりコンタクト情報を入力可能とすることにより、ユーザは、タッチパネルへの多くのタッチ動作を要することなく、入力動作を効率化することができる。特に上記の対戦型のオンラインRPGにおいて、ゲーム進行を妨げることなく、ゲーム状況に応じたスタンプ入力をユーザに実施させることを可能とする。
また、音声入力時の音量をコンタクト情報の出力処理時のパラメータに採用することにより、ユーザにとってよりダイナミックなコンタクト情報の画面出力を可能とし、ユーザ間のリアルタイム・コミュニケーションの臨場感をより大きなものとすることができる。
(項目2)
前記出力部において、前記コンタクト情報配置領域内において前記コンタクト情報を吹き出し画像と共に表示する、項目1記載のコンピュータ・プログラム。
(項目3)
前記仮想空間が他のユーザに関連付けられる他のキャラクタと共有され、
前記出力部において、更に、前記他のユーザが入力した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、項目1または2記載のコンピュータ・プログラム。
(項目4)
前記出力部において、前記他のコンタクト情報を重畳するための他のコンタクト情報配置領域を、前記他のキャラクタの配置に少なくとも従って前記視界画像内に決定し、
前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、項目3記載のコンピュータ・プログラム。
(項目5)
前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキスト情報である、項目1から4のいずれか一項記載のコンピュータ・プログラム。
(項目6)
前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキストに関連付けられ、前記ユーザ端末に格納されるスタンプ画像である、項目1から5のいずれか一項記載のコンピュータ・プログラム。
[本発明の実施形態の詳細]
以下、図面を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。
図1は、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムを実行させるためのコンピュータ・システムの全体概略図である。図1では、コンピュータ・システムの主要な構成要素のみを示している。コンピュータ・システム100は、ユーザ端末10−1〜10−4(以後、「ユーザ端末10」と総称する。)、およびコンピュータ・サーバ50を備え、これら要素間はネットワーク30(特に、インターネット・ネットワーク)を介して通信を行う。なお、以下では、一例として、本発明の実施形態によるコンピュータ・プログラムをゲーム・プログラムとしてスマートフォン・ゲームに適用し、複数のユーザに共有ゲーム空間(3次元仮想空間)内で相互にコミュニケーションさせるオンライン・ゲーム、特に、3次元仮想空間内で各ユーザが自分自身に関連付けられたキャラクタを操作可能な対戦型のオンラインRPGをユーザがプレイすることを想定する。
ユーザ端末10は、コンピュータ・サーバ50から送られるデータを使用し、またコンピュータ・サーバ50から送られるプログラムを実行して、ゲーム画像を生成・表示できる装置であればよく、例えば、インターネットに接続可能な携帯電話機、スマートフォン、タブレット端末、ゲーム用コンソール、ノートPC等を含むが、これらに限定されない。図示のように、ユーザ端末10は、端末表示部11、端末入力部12、端末処理部13、端末通信部14および端末記憶部15等を備え、これらはバスを介して電気的に相互に接続される。
ゲーム・サーバ50から端末通信部14で受信したデータやプログラムは、端末記憶部15に一時的に格納され、ゲームの進行に応じて端末処理部13で画面イメージが生成されて、端末表示部11によって表示される。端末表示部11は、例えば液晶ディスプレイ(LCD)等によって実現することができるが、図2に後述するように特にタッチ・ディスプレイとして構成するのがよい。端末入力部12は、3次元仮想空間に配置される仮想カメラの操作制御をするための命令や、ゲームを進行させるためのユーザ作用全般の命令の入力(音声入力も含む)、および仮想空間内へのコンタクト情報の発信を実施する。
端末入力部12で受けた入力命令に基づいて、端末処理部13においてプログラムが実行される。または、ユーザ命令が作成され、端末通信部14およびネットワーク30を通じてコンピュータ・サーバ50と通信を行い、コンピュータ・サーバ50によってプログラムを実行することができる。端末記憶部15は、ユーザ端末に関連付けられる各種データ、および画像データの表示に必要なブラウザ等のアプリケーションを格納すると共に、ゲーム・サーバ50から受信するテキストデータやスタンプ画像データ等のコンタクト・データ、並びに画面イメージを生成するためのデータおよびプログラム等の各種データも格納する。
一方、コンピュータ・サーバ50は、処理部51、メインメモリ52、外部メモリ53、ユーザ・インタフェース54、通信部55、およびディスク・ドライブ56等を備え、これらはバスを介して電気的に相互に接続される。処理部51は、外部メモリ53に格納されたプログラム・モジュール、およびディスク・ドライブ56に格納されたユーザ・データ、スタンプ画像データ、仮想空間情報、およびゲーム進行データ等の各種データ等をメインメモリ52にロードして、順次、各種コンピュータ・プログラムを実行することによりゲームの進行を制御する。特に、処理部51は、ユーザ端末10間で共有させるための仮想空間情報等のデータやプログラムを管理し、必要に応じて通信部55を介してユーザ端末10に提供するように構成される。ユーザ・インタフェース54は、ゲーム・サーバ50の管理者によってサーバにアクセスされ、各種サーバ機能設定やネットワーク設定が実施される。
なお、上記コンピュータ・サーバ50に関する情報処理装置としての様々な機能の全部または一部は、ユーザ端末10が担うように構成してもよい。この場合には、ユーザ端末10自体で情報処理装置を構成するか、またはユーザ端末10およびコンピュータ・サーバ50を組み合わせ、全体で情報処理装置を構成することになる。
図2にユーザ端末10の一例として、携帯端末(特にスマートフォン)10の基本構成に関するブロック図を示す。図示のように、携帯端末10は基本構成として、タッチ・ディスプレイ110、音声検知部/マイクロフォン130、制御部140および記憶部150を備える。タッチ・ディスプレイ110は、記憶部150に格納された各種データを表示するための表示部/ディスプレイ120、該表示部/ディスプレイ120に対し、人の指やスタイラスなどの物体による接触操作(主に、タッチ操作、スワイプ(スライド)操作およびタップ操作等の物理的接触操作)を検知する接触検知部/タッチパネル125、並びに、携帯端末への音声入力を検知する音声検知部(マイクロフォン)130を備える。
接触検知部125はタッチ・ディスプレイの構造上、液晶パネル、有機EL、プラズマディスプレイ等のようなディスプレイ120の上層に配置される。接触検知部125は、圧力検出方式、抵抗膜方式、静電容量方式や電磁誘導方式等を採用することができる。接触検知部125上で指やスタイラス等の物体の接触による入力を受けた際に、その接触位置において押圧、電気抵抗、電気容量や弾性波のエネルギー等の変化量を検知し、表示部120上の対応する接触座標が特定される。
音声検知部130は、ユーザ端末等に標準的に搭載される音声通話用のマイクロフォンとすることができる。制御部140は、端末処理部からの処理命令に従って、本発明の実施形態によるコンピュータ・プログラムを実行して携帯端末10を動作させるように構成される。制御部140の詳細については図5を参照して後述する。記憶部150は、本実施形態によるコンピュータ・プログラム、ゲーム・プログラム、ユーザやゲームに関連するデータ、およびコンタクト情報データの全般を格納し、制御部からの命令に応じて情報の登録、更新、削除等が実施される。なお、本実施形態によるコンピュータ・プログラムを通じて入力されるスタンプ画像についてもサーバ50から携帯端末10にユーザがダウンロードした際に格納することができる。
これより図3および図4を参照して、本発明の実施形態によるコンピュータ・プログラムが適用されるオンライン・アクションRPGの一例のゲーム・コンテンツ例の概要を示す。ここでは、複数のユーザが同一の3次元仮想空間を共有し、それぞれが当該3次元仮想空間で自らのキャラクタに対するアクション操作を実施可能である。加えて、各ユーザは、キャラクタへのアクション操作によりゲームを進行することができると共に、キャラクタを通じた相互対話、即ち、テキスト・チャットや画像チャットのようなリアルタイムのチャットをゲーム進行と同時に実施可能である。
図3(a)および(b)は、自キャラクタ1を操作するユーザ(自ユーザ)のユーザ画面に表示される一連のゲーム画像である。関連付けるキャラクタおよびその配置はユーザ毎に異なるため、ユーザごとに端末に表示されるゲーム画面は異なる。図3(a)(b)の視界画像3は、自キャラクタ1の配置(画面中心よりやや上)に基づき、自ユーザの端末の画面に表示される画像である。一方、相手キャラクタ2を操作する別のユーザ(相手ユーザ)の端末の画面に表示される画像は、相手キャラクタ2の配置(画面中心よりやや上)に基づいた視界画像となり、図3(a)(b)の自ユーザの視界画像とは異なるものとなる。
上記のように、自ユーザの視界画像3の中心上部近傍に自キャラクタ1が表示される。つまり、自キャラクタ1の配置は表示画面の所定の位置範囲に位置合わせされる。ユーザは、端末入力部を通じたユーザ命令に従い、3次元仮想空間内で自キャラクタ1を移動させることができる。自キャラクタ1には仮想カメラが関連付けられており、該仮想カメラは3次元仮想空間内の自キャラクタの後方かつ上方に配置されて(図示せず)、自キャラクタの移動に伴って追従するよう動作する。自キャラクタ1の仮想カメラからの視界領域に基づいて視界画像3が生成され、端末のディスプレイに表示される。ここで、各キャラクタは、キャラクタ特性5を有しており、画面左下に表示される。キャラクタ特性5には、例えば、キャラクタの種別、キャラクタ画像、キャラクタとしての強さ(ヒット・ポイント(HP:キャラクタの体力ポイント)やスキル・ポイント(SP:必殺技を繰り出すための技能ポイント))等が含まれる。
図3(a)の例では、自キャラクタ1の左下部に、相手ユーザが操作している相手キャラクタ2が位置しており、視界画像3にも映り込んでいる。そして、自ユーザ1は、自らのユーザ端末から「こんにちは」というコンタクト情報(テキスト・データ)を入力して3次元仮想空間内に発信している。その結果、図示のように、視界画像3において自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像4が表示され、自ユーザの画面に表示されている。勿論、相手ユーザの画面上にも、自キャラクタ1から「こんにちは」とテキスト表示された吹き出し画像が表示されることが理解される。
自ユーザが3次元仮想空間で自キャラクタ1を上方向に移動させると、図3(b)のような視界画像の表示となる。この場合、相手キャラクタ2は自キャラクタ1からは離れて画面左下に位置するようにゲーム進行される。併せて、図3(b)では、図3(a)で自キャラクタが「こんにちは」なるコンタクト情報を3次元仮想空間に発信したのに応答するようにして、相手ユーザが自らの端末から「お元気ですか!?」なるコンタクト情報を入力して3次元仮想空間内に発信する。その結果、自ユーザの視界画像3でも、相手キャラクタ2から「お元気ですか!?」とテキスト表示された吹き出し画像4が表示される。
なお、図3では、ゲーム内空間を共有するキャラクタに送信されるコンタクト情報がテキスト情報であるが、次の図4(c)に示すように、コンタクト情報は、画像チャットのようなスタンプ(即ち一般的にアイコンと称される)画像としてもよい。また、本発明の実施形態によるコンピュータ・プログラムが適用できるコンテンツは、ゲーム・アプリケーション、特に図3および図4のようなオンライン・アクションRPGに限定されない。これ以外にも、SNSや電子掲示板のように、複数のユーザがメッセージ交換を行ったり、自らの近況を関連ユーザに知らせたりするような3次元仮想空間内でコミュニケーションを実施するアプリケーションに対して、本発明の実施形態によるコンピュータ・プログラムを広範に適用可能であることが認められる。
図4は、自ユーザが、ゲームの進行と同時に、3次元仮想空間にコンタクト情報を音声入力により発信した際のイメージ図である。図4(a)は、ゲーム進行中に「音声入力モード」に切り替えた状態である。切り替えは、ユーザがゲーム進行中に所定の画面領域を長押しする、所定のボタンをタップする、またはユーザ端末を傾ける等のユーザ動作をすることによって実施可能である。図4(a)での「音声入力モード」においてユーザが「ありがとう!」と音声を発すると、音声検知部130がそれを検知する。入力された音声は、制御部140によって認識および解析等の処理がされ、図4(b)(c)のようにコンタクト情報画像としてゲーム画面中に出力される。具体的には、文字列「ありがとう」が音声認識・解析され、予めユーザ端末の記憶部150に格納されている変換テーブルに格納してある「Thanks!」や所定のスタンプ画像に変換されて画面出力される。後述するように、変換処理の際は、入力音声に関連してその音質や音量を変換パラメータとして利用するのがよい。
これら図3および図4の画面イメージ例を踏まえ、これより、図5以降を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて説明する。特に図4に例示した音声入力に基づく情報処理について詳細に説明する。図5は、当該処理を実施するためにユーザ端末10に実装される主要機能ブロック図であり、その全体が図2の制御部140に相当する。図5に示すように、制御部140は、大きくは、ゲーム進行部61、コンタクト入力部71およびコンタクト出力部91を含む。また、ゲーム進行部61は、自キャラクタ移動制御部611、仮想カメラ制御部(視界領域決定部)613、および視界画像生成部615を含む。コンタクト入力部71は、音声検知部711、音声解析部713、音声変換部715、およいbコンタクト情報決定部717を含む。更に、コンタクト出力部91は、コンタクト情報配置領域決定部911、コンタクト画像生成部913、およびコンタクト情報重畳部915を含む。制御部140は、上記以外にも、コンタクト受信部81、キャラクタ配置決定部83等も含む。なお、図5は本発明の実施形態によるコンピュータ・プログラムを実装するための最低限の主要機能のセットを記載したに過ぎない点に留意すべきである。
これより図6のフロー図を参照して、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムにより実施される、自ユーザと相手ユーザのサーバ・システムを介した一例の相互作用に関連する情報処理について説明する。ここでは、自キャラクタの動作を制御可能な自ユーザaのユーザ端末と、相手キャラクタの動作を制御可能な相手ユーザbのユーザ端末が、各々ゲームを進行させながら、サーバ・システムを介してメッセージ交換することを想定する。
図6に例示する情報処理では、最初に、サーバ・システムによりステップS1sにおいて、ユーザ間で共有する仮想空間情報が配信され、自ユーザaおよび他ユーザbがステップS1aおよびステップS1bにおいて仮想空間情報を展開することにより、仮想空間が共有される。その後の情報処理は、大きくは、キャラクタの空間内移動に伴うゲーム進行処理(通常のゲーム進行。図7の上半分)および空間内コンタクトに関するコンタクト処理(図7の下半分)から構成される。
キャラクタの空間内移動に伴うゲーム進行処理は、自ユーザaによるステップS2a〜S4a、および相手ユーザbによるステップS2b〜S4b、並びにサーバ・システムによるステップS2sから構成される。ステップS2aでは、自ユーザaは、自キャラクタ移動制御部611によって自キャラクタを操作して3次元仮想空間内を移動させる。ステップS3aでは、自キャラクタの3次元仮想空間内の移動に伴い、仮想カメラ制御部613によって、自キャラクタに仮想カメラを追従させる。そして、自ユーザに関連付けられた自キャラクタの3次元仮想空間内の配置を中心に関連付けた視界領域を決定する。なお、自キャラクタの移動情報はサーバ・システムにも逐一、定期的に、およびイベント・トリガのいずれか1つ以上により反映するのがよい。即ち、ステップS2sでは、サーバ・システムによって自キャラクタの位置情報で仮想空間情報を更新して、各ユーザにフィードバックする。そして、ステップS4aでは、ステップS3aで決定された視界領域に基づいて、視界画像生成部615によって視界画像が生成され、ユーザ端末のディスプレイに表示される。相手ユーザbの相手キャラクタによる空間内移動(ステップS2b〜S4b)についても同様である。
空間内コンタクトに関するコンタクト処理は、自ユーザaによるステップS5a〜S6a、および相手ユーザbによるステップS5b〜S6b、並びにサーバ・システムによるステップS3sから構成される。自ユーザaの自キャラクタおよび相手ユーザbの相手キャラクタが3次元仮想空間を共有して移動しながらゲームが進行する中で、ステップS5aにおいて、自ユーザaは、コンタクト入力部71により、即ち、ユーザ端末のマイクロフォンを通じた音声入力により、3次元仮想空間内にコンタクト情報を発信する。つまり、3次元仮想空間を共有しているユーザ(相手ユーザb)に向けて、図3および図4に例示したようなコンタクト情報を送信する(図7で詳述)。コンタクト情報は、テキスト変換に基づくテキスト情報でも、テキスト変換に基づくテキストに関連付けられたスタンプ画像情報でもよい。送信されるコンタクト情報は、ステップS3sにおいてサーバ・システム側で空間情報の更新処理に用いられ、次いで、3次元仮想空間内に発信されて自ユーザaおよび相手ユーザbの両方に通知される。
そして、ユーザa側では、ステップS6aにおいて、コンタクト出力部91によって、自ら送信したコンタクト情報を収容した吹き出し画像を自キャラクタの配置に基づいて自身の視界画像に重畳させて、ディスプレイに表示する(図8で詳述)。相手ユーザb側では、ステップS5bにおいて、コンタクト受信部81によって自ユーザaからのコンタクト情報を入力音声関連情報と共に受信し、キャラクタ配置決定部83によって3次元仮想空間内の自キャラクタの配置位置を特定する。入力音声関連情報は、コンタクト情報配置領域を決定するのに使用される音量パラメータや音質パラメータを含むのがよい。引き続き、ステップS6bにおいて、コンタクト出力部91によって、受信したコンタクト情報を収容する吹き出し画像を自キャラクタの配置に基づいて相手ユーザ自身の視界画像に重畳させて、ディスプレイに表示する。
次に、図7〜図11を参照して、上記のうち特に自ユーザaによるステップS5a,S6aの情報処理について詳細に説明する。この内、図7は、図6のステップS5aにおいて音声入力を通じたコンタクト発信処理を詳細化したフロー図であり、図8は、図4の画面イメージに関連するコンタクト処理に相当する。
図7のステップS51aでは、最初に、音声検知部711において、ユーザ端末が具備するマイクロフォンを通じて音声入力を受け、次いで、ステップS52aに進んで、音声解析部713において音声情報を取得および解析する。音声の解析では、主に、入力された音声の音量および音質を音声関連情報として取得する。音声関連情報は、コンタクト情報配置領域の大きさを決定し、および/または該コンタクト情報配置領域内に収容する吹き出し種別やコンタクト情報の表示態様を決定するのに使用することができる。ここで、音質は公知の評価方法により取得可能なものである。一例として、物理信号としての音声信号の周波数特性、歪率、SN比およびダイナミックレンジを取得してもよいし、並びに/または、国際電気通信連合(ITU)で規格化された音声の主観的品質評価法および客観的品質評価法による評点を取得してもよい。しかしながら、当業者にとって、音質パラメータはこれらに限定されないことが理解されるべきである。
ステップS53aでは、音声変換部715によって、入力された音声をテキスト情報へ変換する。具体的には、図4(a)の例では、音声入力に対し「ありがとう」とテキスト変換する。ステップS54aでは、コンタクト情報決定部717によって、変換されたテキスト情報に基づいてコンタクト情報を決定する。具体的には、図4(a)でテキスト変換された「ありがとう」に対し、予め規定され記憶部150に格納された変換テーブルに基づいて、「Thanks!」や相当するスタンプ画像と変換して、コンタクト情報として決定する。最後に、ステップS55aでは、決定したコンタクト情報を図3や図4のように3次元仮想空間に発信し共有ユーザに通知するために、サーバ・システムに送信する。その際、音声入力に関連する上記音声関連情報も一緒に送るのがよい。
このように、本発明の実施形態によるユーザ入力支援のコンピュータ・プログラムは、ゲームの進行を妨げることなく、音声入力を通じて、非常に効率的に数多くの候補の中から所望のコンタクト情報を入力することができる。なお、テキスト(「ありがとう」)と変換されることになる対応情報(「Thanks!」や記号(「♪」「★」等)を含むテキスト情報や、相当するスタンプ画像)との間の関連付けは、各ユーザが個別に実施して格納しても、関連付け情報をサーバ側からダウンロードして格納しても何れの態様とすることができる。
図8は、図6のステップS6aにおいて、上記音声入力に基づくコンタクト情報を視界画像に重畳してディスプレイに表示するコンタクト出力処理を詳細化したフロー図であり、図4(b)(c)の画面イメージの出力処理に相当する。また、図9〜図11は、当該コンタクト出力処理に関連する幾らかの例示の概要イメージである。
図8のステップS61aでは、キャラクタ配置決定部83によって、コンタクト情報を送信したキャラクタの3次元仮想空間内の配置情報を決定する。図4の例では、自ユーザが自らコンタクト情報を入力したため、対応する自キャラクタの位置座標を決定することになる。なお、図9(a)の例のように、自キャラクタの位置は基本的に視界画像の中心とするのがよい。引き続き、ステップS62aでは、決定した配置情報およびステップS55aでの音声関連情報に従って、コンタクト情報配置領域決定部911によって、コンタクト情報を重畳するためのコンタクト情報配置領域を視界画像内に決定する。より具体的には、視界画像内の基準点、並びにコンタクト情報配置領域の位置および大きさを決定する。基準点は、吹き出し画像を生成するために必要となり、一例としてはキャラクタの配置位置に関連付けるのがよいが、これに限定されない。例えば図9(b)のように、自キャラクタの頭部の位置座標を基準点として採用するのがよい。また、コンタクト情報配置領域は、吹き出し画像を収容する領域であり、同じく図9(b)のように、視界画像全体における基準点の相対位置に応じてコンタクト情報配置領域の位置を、また、上記音声関連情報に含まれる音量に少なくとも従ってその大きさを決定するのがよい。
ここで、図11の例を参照しても分かるように、コンタクト情報は、コンタクト情報配置領域内において、吹き出し画像と共に(吹き出し画像に収容されるようにして)ディスプレイに表示される。コンタクト情報配置領域はディスプレイに非表示とするのがよい。図示のように、コンタクト情報配置領域内に吹き出し画像が収容され、且つ吹き出し画像内にコンタクト情報(即ち、スタンプ画像(a)やテキスト情報(b))が収容される。また、図示のように、吹き出し画像は、コンタクト情報配置領域の基準点に位置合わせされる先端部分と、スタンプ画像やテキスト情報を収容する本体部分を含み、これらを結合するようにして形成される。
図8に戻り、ステップS63aでは、ステップS62aで決定した視界画像内の基準点に対し、吹き出し画像の先端部分を位置合わせする。次いで、ステップS64aでは、吹き出し画像の本体部分が視界画像内に収容されるように本体部の大きさを調整した上で、本体部分を先端部分に結合する。なお、本体部分の形状は図11(a)(b)のような矩形に限定されず、例えば角丸形、多角形やそれ以外の任意の形状としてもよい。特に、上記音声関連情報に含まれる音質情報に従ってその形状を決定してもよい。具体的には、音声品質が悪い場合には、多角形状を有する(ギザギザの)本体部分とし、音声品質が良い場合には正方形状の本体部分とするように吹き出し画像を形成してもよい。
次いで、ステップS65aでは、ステップS64aで調整した本体部分の大きさに基づいて、コンタクト情報の表示上の大きさ(即ちスタンプの大きさやテキスト情報のフォントの大きさ)を調整し、本体部分に収容させてコンタクト画像情報を生成する。特に、コンタクト情報がテキスト情報である場合には、上記音声関連情報に含まれる音質情報に従って、更にそのフォントの種別を決定してもよい。これらステップS63aおよびS64aはコンタクト画像生成部913によって実施される。最後に、ステップS66aでは、コンタクト情報重畳部915によって、コンタクト画像情報を吹き出し画像と共に視界画像に重畳して、図3や図4(b)(c)に示したようなゲーム画像として画面表示する。
このように、音声入力時の音量や音質といった音声関連情報をコンタクト情報の出力処理時のパラメータに採用することにより、コンタクト画像情報をユーザにとってよりダイナミックに生成可能とすることができ、ユーザ間のリアルタイム・コミュニケーションの臨場感をより大きなものとすることができる。
なお、図9(c)では、コンタクト画像情報としてスタンプ画像をコンタクト情報配置領域内の中央に配置しているが、これに限定されず、視界画像内に収容されるのであれば如何なる場所に配置してもよい。図9の例は、自ユーザがスタンプを送信し、自キャラクタに対して吹き出し表示したものである。これに対し、図10の例は、3次元仮想空間を共有する他の相手ユーザによってコンタクト情報が選択および送信された場合の例である。この場合も、まず図10(a)のように、相手キャラクタの3次元仮想空間内の配置情報を少なくとも決定し(ステップS61a)、当該配置情報および受信した音声関連情報に従って、図10(b)のように、自ユーザの自キャラクタの配置に基づく視界画像内においてコンタクト情報を表示するための基準点およびコンタクト情報配置領域を決定し(ステップS62a)、そして、図10(c)のように、当該コンタクト情報配置領域内にコンタクト画像情報を吹き出し画像と共に重畳して、ディスプレイに表示することになる(ステップS63a〜S66a)。
以上、本発明の実施形態によるユーザ入力支援のためのコンピュータ・プログラムについて、各種例と共に説明した。上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。

Claims (6)

  1. 1のユーザに関連付けられたキャラクタの仮想空間内の配置に基づく視界画像を生成して、前記ユーザのユーザ端末が具備するディスプレイに表示する視界画像生成部と、
    前記ユーザ端末が具備するマイクロフォンを通じて音声入力を受ける入力部と、
    前記音声入力に基づくコンタクト情報を前記視界画像に重畳して、前記ディスプレイに表示する出力部であって、前記コンタクト情報を重畳するためのコンタクト情報配置領域が、前記音声入力の音量に少なくとも従って前記視界画像内に決定される、出力部と
    として前記ユーザ端末に機能させる、ユーザ入力支援のためのコンピュータ・プログラム。
  2. 前記出力部において、前記コンタクト情報配置領域内において前記コンタクト情報を吹き出し画像と共に表示する、請求項1記載のコンピュータ・プログラム。
  3. 前記仮想空間が他のユーザに関連付けられる他のキャラクタと共有され、
    前記出力部において、更に、前記他のユーザが入力した他のコンタクト情報を、前記1のユーザに関連付けられた前記キャラクタの配置に基づく前記視界画像に重畳して、前記ディスプレイに表示する、請求項1または2記載のコンピュータ・プログラム。
  4. 前記出力部において、前記他のコンタクト情報を重畳するための他のコンタクト情報配置領域を、前記他のキャラクタの配置に少なくとも従って前記視界画像内に決定し、
    前記他のコンタクト情報配置領域内に前記他のコンタクト情報を吹き出し画像と共に表示する、請求項3記載のコンピュータ・プログラム。
  5. 前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキスト情報である、請求項1から4のいずれか一項記載のコンピュータ・プログラム。
  6. 前記コンタクト情報が、前記音声入力のテキスト変換に基づくテキストに関連付けられ、前記ユーザ端末に格納されるスタンプ画像である、請求項1から5のいずれか一項記載のコンピュータ・プログラム。
JP2015139715A 2015-07-13 2015-07-13 ユーザ入力支援のためのコンピュータ・プログラム Active JP6696739B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015139715A JP6696739B2 (ja) 2015-07-13 2015-07-13 ユーザ入力支援のためのコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015139715A JP6696739B2 (ja) 2015-07-13 2015-07-13 ユーザ入力支援のためのコンピュータ・プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020075329A Division JP2020121165A (ja) 2020-04-21 2020-04-21 ユーザ入力支援のためのコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2017018414A true JP2017018414A (ja) 2017-01-26
JP6696739B2 JP6696739B2 (ja) 2020-05-20

Family

ID=57888809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015139715A Active JP6696739B2 (ja) 2015-07-13 2015-07-13 ユーザ入力支援のためのコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP6696739B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018183423A (ja) * 2017-04-26 2018-11-22 株式会社コロプラ 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020163041A (ja) * 2019-03-29 2020-10-08 株式会社コロプラ 視聴プログラム、視聴方法、視聴端末、配信プログラム、配信方法、および情報端末装置
JP2021049391A (ja) * 2019-03-29 2021-04-01 株式会社コロプラ 視聴プログラム、視聴方法、視聴端末、配信プログラム、配信方法、および情報端末装置
JP2022041095A (ja) * 2020-08-31 2022-03-11 株式会社スクウェア・エニックス 吹き出し生成プログラムおよびビデオゲーム処理システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10261099A (ja) * 1997-03-17 1998-09-29 Casio Comput Co Ltd 画像処理装置
JPH1155614A (ja) * 1997-08-04 1999-02-26 Casio Comput Co Ltd 音声認識画像処理装置
JP2003164669A (ja) * 2001-11-29 2003-06-10 Konami Computer Entertainment Yokyo Inc ネットワークゲームシステム、ゲーム装置及びプログラム
JP2004126786A (ja) * 2002-09-30 2004-04-22 Konami Co Ltd 通信装置、プログラム、ならびに通信方法
JP2006127371A (ja) * 2004-11-01 2006-05-18 Matsushita Electric Ind Co Ltd アニメーション選択装置及び方法
JP2012185681A (ja) * 2011-03-04 2012-09-27 Nec Casio Mobile Communications Ltd 情報端末及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10261099A (ja) * 1997-03-17 1998-09-29 Casio Comput Co Ltd 画像処理装置
JPH1155614A (ja) * 1997-08-04 1999-02-26 Casio Comput Co Ltd 音声認識画像処理装置
JP2003164669A (ja) * 2001-11-29 2003-06-10 Konami Computer Entertainment Yokyo Inc ネットワークゲームシステム、ゲーム装置及びプログラム
JP2004126786A (ja) * 2002-09-30 2004-04-22 Konami Co Ltd 通信装置、プログラム、ならびに通信方法
JP2006127371A (ja) * 2004-11-01 2006-05-18 Matsushita Electric Ind Co Ltd アニメーション選択装置及び方法
JP2012185681A (ja) * 2011-03-04 2012-09-27 Nec Casio Mobile Communications Ltd 情報端末及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DOCOMO IPHONE 6/6PLUS マスターブック, vol. 初版, JPN6019003781, 19 November 2014 (2014-11-19), pages 64 - 65, ISSN: 0003973308 *
LINEお得技ベストセレクション, JPN6019003778, 1 October 2014 (2014-10-01), pages 12, ISSN: 0004105837 *
スマートフォンゲームアプリ初の音声認識機能を搭載した、キャラクターと会話が楽しめる"女性向け恋愛シミ, JPN6020013492, ISSN: 0004250636 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018183423A (ja) * 2017-04-26 2018-11-22 株式会社コロプラ 情報処理方法、装置、及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020163041A (ja) * 2019-03-29 2020-10-08 株式会社コロプラ 視聴プログラム、視聴方法、視聴端末、配信プログラム、配信方法、および情報端末装置
JP2021049391A (ja) * 2019-03-29 2021-04-01 株式会社コロプラ 視聴プログラム、視聴方法、視聴端末、配信プログラム、配信方法、および情報端末装置
JP7341976B2 (ja) 2019-03-29 2023-09-11 株式会社コロプラ 配信プログラム、および配信方法
JP2022041095A (ja) * 2020-08-31 2022-03-11 株式会社スクウェア・エニックス 吹き出し生成プログラムおよびビデオゲーム処理システム
JP7157781B2 (ja) 2020-08-31 2022-10-20 株式会社スクウェア・エニックス 吹き出し生成プログラムおよびビデオゲーム処理システム
US11766617B2 (en) 2020-08-31 2023-09-26 Square Enix Co., Ltd. Non-transitory medium and video game processing system

Also Published As

Publication number Publication date
JP6696739B2 (ja) 2020-05-20

Similar Documents

Publication Publication Date Title
JP3679350B2 (ja) プログラム、情報記憶媒体及びコンピュータシステム
US8926430B1 (en) Game system, game program, and method for providing game switchable between manual mode and automatic mode
JP6696739B2 (ja) ユーザ入力支援のためのコンピュータ・プログラム
TW201337711A (zh) 呈現視覺介面內容的系統及其方法
JP5721876B1 (ja) ゲームプログラム、ゲーム処理方法および情報処理装置
JP5995909B2 (ja) ユーザインターフェースプログラム
JP2017217352A (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US10525346B2 (en) Program, game system, electronic device, server, and game control method for improving operability for user input
JP2017023239A (ja) コンピュータ・プログラム
US20160361659A1 (en) Method and system for instant messaging and gaming
JP2015216996A (ja) ゲームプログラムおよびゲームシステム
CN111905371A (zh) 一种游戏中目标虚拟角色的控制方法及装置
JP2020121165A (ja) ユーザ入力支援のためのコンピュータ・プログラム
JP2022169530A (ja) プログラム、端末、及びゲームシステム
JP2016093364A (ja) 通信対戦ゲームシステム
JP2014023940A (ja) チャットシステム,チャットシステム用プログラム,及び情報記録媒体
JP5864018B1 (ja) コンピュータ・プログラム
JP2016101261A (ja) サウンドメッセージシステム
JP5938131B1 (ja) ユーザ入力の操作性を向上させるプログラム、ゲームシステム、電子装置、サーバ及びゲーム制御方法
US10146340B2 (en) Information processing system, information processing apparatus, non-transitory storage medium encoded with computer readable information processing program, and information processing method
JP5755705B2 (ja) 入力ナビ機能付きゲーム装置及びオンラインゲームプログラム
JP2017000703A (ja) コンピュータ・プログラム
JP5411112B2 (ja) 入力ナビ機能付きゲーム装置及びオンラインゲームプログラム
JP5052465B2 (ja) ビデオゲーム制御サーバ、ビデオゲーム制御方法、およびビデオゲーム制御プログラム
JP2017023238A (ja) コンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200423

R150 Certificate of patent or registration of utility model

Ref document number: 6696739

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250