JP2021153789A - 情報処理装置、出力音決定方法及び出力音決定プログラム - Google Patents

情報処理装置、出力音決定方法及び出力音決定プログラム Download PDF

Info

Publication number
JP2021153789A
JP2021153789A JP2020056424A JP2020056424A JP2021153789A JP 2021153789 A JP2021153789 A JP 2021153789A JP 2020056424 A JP2020056424 A JP 2020056424A JP 2020056424 A JP2020056424 A JP 2020056424A JP 2021153789 A JP2021153789 A JP 2021153789A
Authority
JP
Japan
Prior art keywords
gaze
output sound
line
user
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020056424A
Other languages
English (en)
Inventor
勇斗 松元
Yuto Matsumoto
勇斗 松元
英樹 竹原
Hideki Takehara
英樹 竹原
智之 宍戸
Tomoyuki Shishido
智之 宍戸
秀太 湯舟
Shuta Yubune
秀太 湯舟
浩史 野口
Hirofumi Noguchi
浩史 野口
鉄二 鈴木
Tetsuji Suzuki
鉄二 鈴木
一輝 堀切
Kazuki Horiguchi
一輝 堀切
雄介 大月
Yusuke Otsuki
雄介 大月
康平 大橋
Kohei Ohashi
康平 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020056424A priority Critical patent/JP2021153789A/ja
Publication of JP2021153789A publication Critical patent/JP2021153789A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの視線を用いて、スキルの分析が可能な情報処理装置、出力音決定方法及び出力音決定プログラムを提供すること。【解決手段】情報処理装置10は、仮想空間内の少なくとも1つのオブジェクトを表示装置に表示する表示部12と、ユーザの視線を検出し、表示装置における視線位置を特定する視線検出部14と、視線位置と、少なくとも1つのオブジェクトが表示される表示領域とに基づいて、ユーザが注視した注視オブジェクトを特定するとともに、ユーザが注視オブジェクトを注視し始めた時刻を示す注視開始時刻を特定するオブジェクト特定部15と、注視オブジェクトの出力音に関連する情報である出力音情報と、注視開始時刻とに基づいて、ユーザの視線を注視オブジェクトに移動させた第1出力音を決定する出力音決定部16と、を備える。【選択図】図2

Description

本発明は、情報処理装置、出力音決定方法及び出力音決定プログラムに関する。
特許文献1には、視線により指定された選択用オブジェクトに基づいて、関連する情報オブジェクトを探索する対話的情報探索装置が開示されている。
特開2014−59840号公報
近年、FPS(First Person shooter)及びTPS(Third Person shooter)等のゲームを用いた、いわゆる「eスポーツ」の競技者が増加している。eスポーツの競技者の増加に伴い、ゲームを楽しむことに加えて、ゲームのスキル向上を求めるユーザが増えてきている。スキル向上を図るためには、現在のスキルを分析した上で、スキル向上につながる検討及び訓練が必要である。
ここで、特許文献1のように、ユーザの視線を用いることにより、関連する情報を探索できるため、ユーザの視線を用いることは有効である。しかしながら、特許文献1は、対話インタフェースに関する技術であるため、ユーザの視線を用いて、現在のスキルを分析する技術を開示していない。
本発明の目的は、上述した課題を解決するためになされたものであり、ユーザの視線を用いて、スキルの分析が可能な情報処理装置、出力音決定方法及び出力音決定プログラムを提供することにある。
本発明にかかる情報処理装置は、仮想空間内の少なくとも1つのオブジェクトを表示装置に表示する表示部と、ユーザの視線を検出し、前記表示装置における視線位置を特定する視線検出部と、前記視線位置と、前記少なくとも1つのオブジェクトが表示される表示領域とに基づいて、前記ユーザが注視した注視オブジェクトを特定するとともに、前記ユーザが前記注視オブジェクトを注視し始めた時刻を示す注視開始時刻を特定するオブジェクト特定部と、前記注視オブジェクトの出力音に関連する情報である出力音情報と、前記注視開始時刻とに基づいて、前記ユーザの視線を前記注視オブジェクトに移動させた第1出力音を決定する出力音決定部と、を備える。
本発明にかかる出力音決定方法は、仮想空間内の少なくとも1つのオブジェクトを表示装置に表示し、ユーザの視線を検出し、前記表示装置における視線位置を特定し、前記視線位置と、前記少なくとも1つのオブジェクトが表示される表示領域とに基づいて、前記ユーザが注視した注視オブジェクトを特定するとともに、前記ユーザが前記注視オブジェクトを注視し始めた時刻を示す注視開始時刻を特定し、前記注視オブジェクトの出力音に関連する情報である出力音情報と、前記注視開始時刻とに基づいて、前記ユーザの視線を前記注視オブジェクトに移動させた第1出力音を決定する、出力音決定方法である。
本発明にかかる出力音決定プログラムは、仮想空間内の少なくとも1つのオブジェクトを表示装置に表示し、ユーザの視線を検出し、前記表示装置における視線位置を特定し、前記視線位置と、前記少なくとも1つのオブジェクトが表示される表示領域とに基づいて、前記ユーザが注視した注視オブジェクトを特定するとともに、前記ユーザが前記注視オブジェクトを注視し始めた時刻を示す注視開始時刻を特定し、前記注視オブジェクトの出力音に関連する情報である出力音情報と、前記注視開始時刻とに基づいて、前記ユーザの視線を前記注視オブジェクトに移動させた第1出力音を決定する、処理をコンピュータに実行させる出力音決定プログラムである。
本発明によれば、ユーザの視線を用いて、スキルの分析が可能な情報処理装置、出力音決定方法及び出力音決定プログラムを提供できる。
実施の形態1の概要を説明するための図である。 実施の形態1にかかる情報処理システムの構成例を示す図である。 実施の形態1にかかる情報処理装置の動作例を示すフローチャートである。 実施の形態1にかかる情報処理装置の動作例を示すフローチャートである。 実施の形態2にかかる情報処理装置の構成例を示す図である。 オブジェクト情報テーブルの一例を示す図である。 実施の形態2にかかる情報処理装置の動作例を示すフローチャートである。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。但し、本発明が以下の実施の形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。
(実施の形態1)
実施の形態1の詳細を説明する前に、実施の形態1の概要を説明する。図1は、実施の形態1の概要を説明するための図である。図1は、例えば、ユーザU1が、FPS又はTPS等のゲームを行っている状況を模式した模式図である。
ユーザU1は、ゲームを行っており、ディスプレイD1に仮想空間であるゲーム空間が表示されている。ディスプレイD1に表示されたゲーム空間には、例えば、ゲーム内のキャラクタであるオブジェクトC1、及びゲーム内の物体であるオブジェクトC2が配置されている。ゲーム空間において、オブジェクトC2は、例えば、オブジェクトC1により、ユーザU1が操作するプレイヤーに向かって投げられている。オブジェクトC2のゲーム空間内の位置は、時刻とともに変化し、それに伴い、ディスプレイD1における表示位置も変化する。オブジェクトC1及びC2には、関連する出力音が対応付けられており、オブジェクトC1及びC2のゲーム空間内の位置及び位置の変化に応じて、対応付けられた出力音が出力される。ユーザU1は、第1時刻では、視線L1のようにオブジェクトC1を見ていたが、何らかの情報に反応して、第2時刻では、視線L2のようにオブジェクトC2を注視し、注視した内容に基づいて行動する。
ゲームスキルの高いプロプレイヤー及び上級プレイヤーは、ゲームスキルの低いプレイヤーよりも、特定のオブジェクトをいち早く注視し、注視したオブジェクトに応じて必要な行動を行っていることが予測される。FPS又はTPS等のゲームでは、音の情報は非常に重要な情報である。そのため、ゲームスキルの高いプレイヤーは、ゲーム内の特定の出力音に反応し、当該出力音に反応して特定のオブジェクトを注視し、必要な操作をしている。したがって、ゲームスキルの高いプレイヤー及びゲームスキルの低いプレイヤーを特定のオブジェクトに注視させた出力音を決定することにより、ゲームスキルの低いプレイヤーは、現在のゲームスキルを分析できる。
本実施の形態では、ユーザU1の視線を用いて、ユーザU1が注視したオブジェクトを特定し、ユーザU1を当該オブジェクトに注視させた出力音を決定することを実現する。また、本実施の形態では、ユーザU1のプレイ内容が把握できる映像データであって、決定された出力音が把握できる映像データを出力することで、配信された映像データに基づいて現在のゲームスキルを分析可能にすることを実現する。
<情報処理システムの構成例>
次に、図2を用いて、実施の形態1にかかる情報処理システム100について説明する。図2は、実施の形態1にかかる情報処理システムの構成例を示す図である。情報処理システム100は、情報処理装置10と、表示端末30とを備える。
情報処理装置10は、例えば、パーソナルコンピュータ装置、サーバ装置、スマートフォン、携帯電話、タブレット端末等である。情報処理装置10は、ネットワークを介して、表示端末30と接続し、通信を行う。ネットワークは、無線ネットワークでもよいし、有線ネットワークでもよいし、無線及び有線ネットワークであってもよい。情報処理装置10は、ゲームが実行されるゲーム端末である。情報処理装置10は、自装置において、ユーザが行ったゲームのプレイ内容を映像データとして生成し、表示端末30に配信する配信装置でもある。情報処理装置10において実行されるゲームは、オフラインゲームであってもよいし、オンラインゲームであってもよい。なお、以降の説明では、情報処理装置10が配信する映像データが、配信データとして記載されることがある。
表示端末30は、例えば、パーソナルコンピュータ装置、スマートフォン、携帯電話、タブレット端末等の情報処理装置である。表示端末30は、ネットワークを介して、情報処理装置10と接続し、通信を行う。表示端末30は、情報処理装置10から配信された映像データ(配信データ)を受信し、受信した配信データを再生可能に構成される。
<情報処理装置の構成例>
次に、情報処理装置10の構成例について説明する。情報処理装置10は、操作入力部11と、表示部12と、音出力部13と、視線検出部14と、オブジェクト特定部15と、出力音決定部16と、制御部17と、映像生成部18と、通信部19と、記憶部20とを備える。
操作入力部11、表示部12、音出力部13、視線検出部14、オブジェクト特定部15、出力音決定部16、制御部17、映像生成部18、通信部19及び記憶部20は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェア又はモジュールであってもよい。また、操作入力部11、表示部12、音出力部13、視線検出部14、オブジェクト特定部15、出力音決定部16、制御部17、映像生成部18、通信部19及び記憶部20は、回路又はチップ等のハードウェアであってもよい。
操作入力部11は、例えば、ゲームコントローラ、タッチパネル、キーボード、マウス等を含むように構成される。操作入力部11は、ユーザが入力した操作についての操作情報を取得する。
表示部12は、例えば、ディスプレイ、タッチパネル等の表示装置を含むように構成される。なお、表示部12は、表示装置とのインタフェースとして構成されてもよい。表示部12は、ゲーム空間内の少なくとも1つのオブジェクトが配置された、仮想空間であるゲーム空間を表示装置に表示する。オブジェクトは、例えば、ゲーム内のプレイヤーキャラクタ、敵キャラクタ、味方キャラクタ、及び各種物体を含む。表示部12は、例えば、記憶部20に記憶されたゲームプログラムを読み出し、ゲームプログラムから取得した、各オブジェクトのゲーム空間における位置情報及び行動情報に基づいて、各オブジェクトの表示装置における表示位置についての表示位置情報を生成する。もしくは、表示部12は、例えば、記憶部20に記憶されたゲームプログラムを読み出し、ゲームサーバ(不図示)から取得した、各オブジェクトのゲーム空間における位置情報及び行動情報に基づいて、各オブジェクトの表示装置における表示位置についての表示位置情報を生成する。表示部12は、表示位置情報に基づいて、表示装置に各オブジェクトを表示する。
表示位置情報は、各オブジェクトを識別するオブジェクト識別情報と、各オブジェクトが表示される表示開始時刻及び表示終了時刻を含む表示時刻情報と、各時刻における各オブジェクトが表示される表示位置及び表示領域とを含むことができる。表示位置及び表示領域は、例えば、表示装置上に設けた座標系の座標を用いて管理される。表示位置は、各時刻における各オブジェクトの中心位置等の基準位置であってもよい。なお、表示位置情報は、表示位置を含まなくてもよく、表示領域が、各時刻における各オブジェクトの表示範囲を一意に定めるように設定されてもよい。各オブジェクトを識別するオブジェクト識別情報は、例えば、オブジェクトID(Identifier)であってもよいし、オブジェクト名であってもよい。
音出力部13は、例えば、スピーカ等を含むように構成される。音出力部13は、ゲーム内の各オブジェクトに関連する出力音を出力する。音出力部13は、例えば、記憶部20に記憶されたゲームプログラムを読み出し、各オブジェクトに関連する少なくとも1つの出力音に関連する情報である出力音情報を取得する。音出力部13は、出力音情報に基づいて、表示装置に表示された各オブジェクトに関連する出力音を出力する。もしくは、音出力部13は、例えば、記憶部20に記憶されたゲームプログラムを読み出し、ゲームサーバ(不図示)から取得した、各オブジェクトのゲーム空間における位置情報及び行動情報と、出力音情報とに基づいて、表示装置に表示された各オブジェクトの出力音を出力する。
出力音情報は、出力音の関連する情報として、各オブジェクトを識別するオブジェクト識別情報と、各オブジェクトに関連する、少なくとも1つの出力音の各々を特定する識別情報と、各出力音の出力開始時刻及び出力終了時刻を含む出力時刻情報とを含むことができる。出力音識別情報は、例えば、出力音ID、出力音名であってもよい。
音出力部13は、出力音情報に基づいて、各時刻において出力する出力音の識別情報を特定する。音出力部13は、識別情報に対応する、出力音データを再生することにより、出力音を出力する。音出力部13は、表示位置情報と出力音情報とに基づいて、各オブジェクトの各時刻におけるゲーム空間内の位置を仮想的な音源位置として、出力音の音量等が調整された出力音を出力する。
視線検出部14は、情報処理装置10においてゲームを行うユーザの視線を検出し、表示装置における視線位置を特定する。視線検出部14は、表示部12が設けた、表示装置上の座標系と、視線検出部14が用いる座標系とが一致するように予め校正されている。視線検出部14は、例えば、ユーザの視線位置を、表示装置上の座標系の座標を用いて管理する。視線検出部14は、時刻と、視線位置とを対応付けて、ユーザの視線位置についての視線位置情報を生成する。
オブジェクト特定部15は、視線位置と、表示位置情報とに基づいて、表示装置に表示された、ゲーム内のオブジェクトのうち、情報処理装置10においてゲームを行うユーザが注視したオブジェクトを示す注視オブジェクトを特定する。オブジェクト特定部15は、視線位置と、表示領域とに基づいて、視線位置を含む表示領域に表示されるオブジェクトを特定することにより注視オブジェクトを特定する。
ここで、情報処理装置10においてゲームを行うユーザが、表示装置に表示された、いずれかのオブジェクトを、単に見ただけの場合もあり得る。そのため、オブジェクト特定部15は、ユーザの視線位置が所定距離以上移動し、移動後の視線位置を所定時間以上含む表示領域に表示されるオブジェクトを注視オブジェクトとして特定する。なお、オブジェクト特定部15は、ユーザの視線位置が所定距離以上移動した後の視線位置を含む表示領域に表示されるオブジェクトを注視オブジェクトとして特定してもよい。
また、オブジェクト特定部15は、情報処理装置10においてゲームを行うユーザが、注視オブジェクトを注視し始めたときの時刻を示す注視開始時刻を特定する。オブジェクト特定部15は、ユーザの視線位置が所定距離以上移動し、移動後の視線位置を含む表示領域に表示されるオブジェクトがある場合、ユーザの視線位置が所定距離以上移動した直後の時刻を取得する。そして、オブジェクト特定部15は、当該オブジェクトの表示領域がユーザの視線位置を所定時間以上含む場合、取得した時刻を注視開始時刻として特定する。一方、オブジェクト特定部15は、移動後の視線位置を含む表示領域に表示されるオブジェクトの表示領域がユーザの視線位置を所定時間以上含まない場合、取得した時刻を破棄する。
出力音決定部16は、出力音情報と、注視開始時刻とに基づいて、ユーザの視線を注視オブジェクトに移動させた出力音を決定する。出力音決定部16は、記憶部20から出力音情報を取得する。出力音決定部16は、出力音情報のうち、オブジェクト特定部15が特定した注視オブジェクトのオブジェクト識別情報と一致する出力音情報を抽出する。換言すると、出力音決定部16は、注視オブジェクトに関連する出力音情報を抽出する。出力音決定部16は、抽出した出力音情報に含まれる出力開始時刻と、出力終了時刻との間に注視開始時刻が含まれる出力音を特定し、特定した出力音をユーザの視線を注視オブジェクトに移動させた出力音として決定する。
制御部17は、出力音決定部16が特定した出力音の音量を変更する。制御部17は、オブジェクト特定部15が特定した注視開始時刻を用いて、出力音決定部16が決定した出力音の注視開始時刻以降の音量を大きくするように、当該出力音を変更する。制御部17は、出力音決定部16が決定した出力音の出力音データを加工することにより、当該出力音の注視開始時刻以降の音量を大きくする。制御部17は、音量が変更された出力音データを映像生成部18に出力する。
映像生成部18は、情報処理装置10においてゲームを行うユーザのプレイ内容を含む映像データを生成する。映像生成部18は、表示部12が表示装置に表示する表示内容、及び音出力部13が出力する出力音を記録して、ユーザのプレイ内容が含まれる映像データを生成する。
なお、映像生成部18は、記憶部20に記憶されたゲームプログラムを読み出し、表示部12が生成した表示位置情を用いて、ユーザのプレイ内容が含まれた映像データを生成してもよい。映像生成部18は、各オブジェクトのゲーム空間における位置情報及び行動情報と、出力音情報とに基づいて、各オブジェクトの各時刻におけるゲーム空間における位置を仮想的な音源位置として調整された出力音を映像データに重畳させて映像データを生成してもよい。
映像生成部18は、生成した映像データに含まれる出力音のうち、出力音決定部16が決定した出力音を、制御部17が音量を変更した出力音に置換して、映像データを加工して、配信データを生成する。つまり、映像生成部18は、出力音決定部16が決定した出力音に対して、注視開始時刻以降の音量が変更された出力音を含む映像データを生成する。映像生成部18は、制御部17が加工した出力音データと、加工前の当該出力音データとを置換することにより、映像データを加工する。
通信部19は、ネットワークを介して、表示端末30と接続し、通信を行う。通信部19は、映像生成部18が生成した配信データを配信する。
記憶部20は、ゲームプログラム、表示位置情報、出力音情報を含む、情報処理装置10が使用する各種情報を記憶する。記憶部20は、映像生成部18が生成した映像データ及び配信データを記憶する。
<表示端末の構成例>
次に、表示端末30の構成例について説明する。表示端末30は、通信部31と、表示部32とを備える。
通信部31は、ネットワークを介して、情報処理装置10と接続し、通信を行う。通信部31は、通信部19から映像データを受信する。
表示部32は、例えば、ディスプレイ、タッチパネル等の表示装置を含むように構成される。表示部32は、通信部31が受信した映像データを再生し、表示装置に表示する。
<情報処理装置の動作例>
次に、図3及び図4を用いて、情報処理装置10の動作例について説明する。図3及び図4は、実施の形態1にかかる情報処理装置の動作例を示すフローチャートである。
まず、図3について説明する。図3は、ユーザの視線を注視オブジェクトに移動させた出力音を決定するまでの動作を示すフローチャートである。
表示部12は、ゲーム空間内の少なくとも1つのオブジェクトの表示位置情報を生成する(ステップS1)。表示部12は、例えば、記憶部20に記憶されたゲームプログラムを読み出し、ゲームプログラムから取得した、各オブジェクトのゲーム空間における位置情報及び行動情報に基づいて、各オブジェクトの表示装置における表示位置情報を生成する。もしくは、表示部12は、例えば、記憶部20に記憶されたゲームプログラムを読み出し、ゲームサーバ(不図示)から取得した、各オブジェクトのゲーム空間における位置情報及び行動情報に基づいて、各オブジェクトの表示装置における表示位置情報を生成する。表示部12は、表示位置情報に基づいて、表示装置に各オブジェクトを表示する。なお、ステップS1は、周期的又は非周期的に繰り返し実行される。
視線検出部14は、ユーザの視線位置についての視線位置情報を生成する(ステップS2)。視線検出部14は、情報処理装置10においてゲームを行うユーザの視線を検出し、表示装置における視線位置を特定する。視線検出部14は、ユーザの視線位置を、表示装置における座標系の座標に変換して、変換された座標により視線位置を管理する。視線検出部14は、時刻と、視線位置とを対応付けて、視線位置情報を生成する。なお、ステップS2は、周期的又は非周期的に繰り返し実行される。図3では、ステップS2は、ステップS1の後に記載されているが、ステップS1と並列的に実行されてもよく、ステップS2の後にステップS1が実行されてもよい。
オブジェクト特定部15は、視線位置情報に基づいて、ユーザの視線位置が所定距離以上移動したかを判定する(ステップS3)。オブジェクト特定部15は、視線位置情報に基づいて、ユーザの視線位置が所定距離以上移動したか否かを判定する。
ユーザの視線位置が所定距離以上移動した場合(ステップS3のYES)、オブジェクト特定部15は、所定時間以上、ユーザの視線位置を含むオブジェクトがあるかを判定する(ステップS4)。オブジェクト特定部15は、視線位置情報と、表示位置情報とに基づいて、ユーザの視線位置を含む表示領域のオブジェクトがあるか否かを判定する。ユーザの視線位置を含む表示領域のオブジェクトがある場合、オブジェクト特定部15は、特定されたオブジェクトの表示領域が所定時間以上、ユーザの視線位置を含むかを判定する。また、ユーザの視線位置を含む表示領域のオブジェクトがある場合、オブジェクト特定部15は、ユーザの視線位置が所定距離以上移動した直後の時刻を取得する。
一方、ステップS3において、ユーザの視線位置が所定距離以上移動していない場合(ステップS3のNO)、情報処理装置10は、ステップS2に戻り、視線位置情報が生成されるまで処理を待機する。
ステップS4において、所定時間以上、ユーザの視線位置を含むオブジェクトがある場合(ステップS4のYES)、オブジェクト特定部15は、所定時間以上、ユーザの視線位置を含むオブジェクトを注視オブジェクトとして特定する(ステップS5)。オブジェクト特定部15は、ステップS4において特定されたオブジェクトの表示領域が、所定時間以上、ユーザの視線位置を含む場合、当該オブジェクトを注視オブジェクトとして特定する。また、オブジェクト特定部15は、ステップS4において取得した時刻を注視開始時刻として決定(特定)する。
一方、ステップS4において、オブジェクト特定部15は、所定時間以上、ユーザの視線位置を含むオブジェクトがない場合(ステップS4のNO)、情報処理装置10は、ステップS2に戻り、視線位置情報が生成されるまで処理を待機する。この場合、オブジェクト特定部15は、ステップS4において取得した時刻を破棄する。
ステップS6において、出力音決定部16は、視線位置の移動前後の数秒間に、注視オブジェクトが出力音を出力しているか判定する(ステップS6)。出力音決定部16は、記憶部20から出力音情報を取得する。出力音決定部16は、出力音情報のうち、オブジェクト特定部15が特定した注視オブジェクトのオブジェクト識別情報と一致する出力音情報を抽出する。出力音決定部16は、抽出した出力音情報に含まれる出力開始時刻と、出力終了時刻との間に注視開始時刻が含まれる出力音があるか否かを判定する。
視線位置の移動前後の数秒間に、注視オブジェクトが出力音を出力している場合(ステップS6のYES)、出力音決定部16は、当該出力音を、ユーザの視線を注視オブジェクトに移動させた出力音として決定する(ステップS7)。そして、情報処理装置10は、図4のフローチャートを実行する。
出力音決定部16は、抽出した出力音情報に含まれる出力開始時刻と、出力終了時刻との間に注視開始時刻が含まれる出力音がある場合、当該出力音を、ユーザの視線を注視オブジェクトに移動させた出力音として決定する。
一方、ステップS6において、視線位置の移動前後の数秒間に、注視オブジェクトが出力音を出力していない場合(ステップS6のNO)、情報処理装置10は、ステップS2に戻り、視線位置情報が生成されるまで処理を待機する。
次に、図4について説明する。図4は、表示端末30に配信する映像データを生成し、送信するまでの動作を示すフローチャートである。
制御部17は、ステップS7において決定された出力音の音量を変更する(ステップS8)。制御部17は、オブジェクト特定部15が特定した注視開始時刻を用いて、出力音決定部16が決定した出力音の注視開始時刻以降の音量を大きくするように、当該出力音の音量を調整する。
映像生成部18は、情報処理装置10においてゲームを行うユーザのプレイ内容を含む映像データを生成する(ステップS9)。映像生成部18は、表示部12が表示装置に表示する表示内容、及び音出力部13が出力する出力音を記録して、ユーザのプレイ内容が含まれる映像データを生成する。
映像生成部18は、音量が変更された出力音を用いて映像データを加工する(ステップS10)。映像生成部18は、ステップS9において生成した映像データに含まれる出力音のうち、ステップS8において音量が変更された出力音に置換して、映像データを加工し、配信データを生成する。
通信部19は、配信データを表示端末30に配信する(ステップS11)。
以上、説明したように、情報処理装置10は、ゲーム内のオブジェクトの表示位置情報と、ユーザの視線位置情報とに基づいて、ユーザが注視した注視オブジェクトを特定する。情報処理装置10は、注視オブジェクトに関連する出力音情報と、注視開始時刻とに基づいて、ユーザの視線を注視オブジェクトに移動させた出力音を決定する。このように、情報処理装置10を用いることにより、ゲームを行う各ユーザは、注視オブジェクトに注視させた出力音を把握できる。そのため、ゲームスキルの低いプレイヤーは、ゲームスキルの高いプレイヤーの上記出力音を把握できるので、ゲームスキルの高いプレイヤーとの違いを分析でき、現在のゲームスキルを分析することができる。また、ゲームスキルの高いプレイヤーは、プレイしたゲームについて、通常よりも素早い行動が起こせなかったプレイ箇所、又は素早い行動を起こす余地があるプレイ箇所を、注視オブジェクトに視線を移動させた出力音に基づいて分析できる。すなわち、ゲームスキルの低いプレイヤーだけでなく、ゲームスキルの高いプレイヤーも、現在のゲームスキルを分析することができる。したがって、実施の形態1にかかる情報処理装置10によれば、ユーザの視線を用いてスキルの分析を行うことができる。
また、ゲームスキルの低いプレイヤーは、ゲームスキルの高いプレイヤーに対して決定された出力音に基づいて訓練を行うことにより、ゲームスキルの向上を図ることができる。すなわち、ゲームスキルの低いプレイヤーは、プロプレイヤーや上級プレイヤーがゲームプレイ中にどの音に傾聴しているかを知ることで、技術向上を図ることができる。したがって、実施の形態1にかかる情報処理装置10によれば、ゲームスキルの向上に寄与できる。
さらに、情報処理装置10は、出力音決定部16が決定した出力音の音量が調整された出力音を含むプレイ内容が把握できる映像データを生成し、生成した映像データを配信する。映像データが、ゲームスキルの高いプレイヤーのプレイ内容が把握できる映像データである場合、映像データを受信したプレイヤーは、ゲームスキルの高いプレイヤーが傾聴している出力音を分析でき、スキル向上につなげることができる。
(実施の形態2)
続いて、実施の形態2について説明する。実施の形態2は、実施の形態1の改良例である。実施の形態2は、実施の形態1と基本的に同様であり、実施の形態1にかかる情報処理装置10が情報処理装置40に置き換わった構成である。なお、実施の形態2かかる情報処理システム、表示端末30の構成例及び動作例は、実施の形態1と基本的に同様であるため、実施の形態1と共通する説明については適宜割愛する。
<情報処理装置の構成例>
図5を用いて、実施の形態2にかかる情報処理装置40の構成例について説明する。図5は、実施の形態2にかかる情報処理装置の構成例を示す図である。情報処理装置40は、実施の形態1にかかるオブジェクト特定部15、映像生成部18及び記憶部20が、それぞれオブジェクト特定部41、映像生成部42及び記憶部43に置き換わった構成である。その他の構成については基本的に同様であるため、説明を適宜割愛する。
オブジェクト特定部41、映像生成部42及び記憶部43は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェア又はモジュールであってもよい。また、オブジェクト特定部41、映像生成部42及び記憶部43は、回路又はチップ等のハードウェアであってもよい。
オブジェクト特定部41は、表示位置情報と、視線位置情報とに基づいて、注視オブジェクトを特定する。オブジェクト特定部41は、少なくとも1つの注視オブジェクトの各々について、ユーザが注視した注視回数を計数する。換言すると、オブジェクト特定部41は、表示装置に表示された、ゲーム空間内の少なくとも1つのオブジェクトのうち、注視オブジェクトとして選択した回数を計数する。オブジェクト特定部41は、例えば、1ゲーム当たりの注視回数を計数する。オブジェクト特定部41は、注視オブジェクトを特定すると、注視オブジェクトを管理するオブジェクト情報テーブルT1の注視回数をインクリメントして更新する。
ここで、図6を用いて、オブジェクト情報テーブルT1について説明する。図6は、オブジェクト情報テーブルの一例を示す図である。オブジェクト情報テーブルT1は、情報処理装置10においてゲームを行ったユーザ名と、オブジェクト名と、1ゲーム当たりの注視回数とが対応付けられる。オブジェクト情報テーブルT1は、記憶部20に格納される。
ユーザ名には、情報処理装置10においてゲームを行ったユーザの名前が設定される。ユーザ名には、例えば、オブジェクト特定部41が、ゲーム内のプレイヤー名を取得して、取得したプレイヤー名が設定される。なお、オブジェクト情報テーブルT1には、ユーザ名の代わりに、例えば、情報処理装置10にログインしたユーザID等が設定されてもよい。
オブジェクト名には、オブジェクト特定部41が特定した注視オブジェクトを識別するオブジェクト識別情報の一例であるオブジェクト名が設定される。なお、オブジェクト情報テーブルT1には、オブジェクト名の代わりに、例えば、オブジェクトIDが設定されてもよい。
1ゲーム当たりの注視回数には、オブジェクト特定部41が、過去に特定した、注視オブジェクトをユーザが注視した1ゲーム当たりの注視回数が設定される。換言すると、1ゲーム当たりの注視回数には、オブジェクト特定部41が、表示装置に表示された、ゲーム空間内の少なくとも1つのオブジェクトのうち、注視オブジェクトとして選択した1ゲーム当たりの回数が設定される。
図5に戻り、映像生成部42について説明する。映像生成部42は、表示部12が表示装置に表示する表示内容、及び音出力部13が出力する出力音を記録して、ユーザのプレイ内容が含まれる映像データを生成する。映像生成部42は、オブジェクト情報テーブルT1を、記憶部20から呼び出す。映像生成部42は、オブジェクト情報テーブルT1のうち、1ゲーム当たりの注視回数が所定数以上の注視オブジェクトがあるか判定する。映像生成部42は、オブジェクト情報テーブルT1に、1ゲーム当たりの注視回数が所定数以上の注視オブジェクトがある場合、当該注視オブジェクトが強調表示されるように映像データを加工して、配信データを生成する。
記憶部43は、実施の形態1にかかる記憶部20が記憶する情報に加えて、オブジェクト情報テーブルT1を記憶する。
<情報処理装置の動作例>
次に、図3及び図7を用いて、実施の形態2にかかる情報処理装置40の動作例について説明する。図7は、実施の形態2にかかる情報処理装置の動作例を示すフローチャートである。情報処理装置40の動作例は、実施の形態1にかかる情報処理装置10の動作例と比較すると、図3のステップS5が異なり、図4のフローチャートが図7に置き換わっている。
まず、図3を参照して、情報処理装置40の動作例について、実施の形態1との差分を説明する。ステップS1〜S4、及びステップS6及びS7については同様であるため説明を割愛する。
ステップS5において、オブジェクト特定部41は、注視オブジェクトを特定すると、オブジェクト情報テーブルT1を更新する。オブジェクト特定部41が特定した注視オブジェクトがオブジェクト情報テーブルT1に登録されていない場合、オブジェクト特定部41は、オブジェクト情報テーブルT1に、1ゲーム当たりの注視回数を1として、オブジェクト特定部41が特定した注視オブジェクトに関する情報を新たに登録する。
オブジェクト特定部41が特定した注視オブジェクトがオブジェクト情報テーブルT1に登録されている場合、オブジェクト特定部41は、オブジェクト情報テーブルT1の当該注視オブジェクトのレコードの1ゲーム当たりの注視回数をインクリメントする。
次に、図7について説明する。図7は、図4に対応するフローチャートであり、図4のフローチャートにステップS21〜S23が追加されている。ステップS8〜S11については、図4と同様であるため説明を割愛する。
ステップS21において、映像生成部42は、オブジェクト情報テーブルT1を呼び出し(ステップS21)、オブジェクト情報テーブルT1のうち、1ゲーム当たりの注視回数が所定数以上の注視オブジェクトがあるか判定する(ステップS22)。
映像生成部42は、オブジェクト情報テーブルT1に、1ゲーム当たりの注視回数が所定数以上の注視オブジェクトがある場合、当該注視オブジェクトが強調表示されるように映像データを加工して、配信データを生成する(ステップS23)。
以上のように、情報処理装置40は、ユーザの視線を注視オブジェクトに移動させた出力音の音量を大きくすることに加えて、ユーザが、より注目している注視オブジェクトを強調表示した配信データを生成する。そのため、実施の形態2にかかる情報処理装置40を用いて、プロプレイヤー、上級プレイヤーが注視している注視回数が多いオブジェクトを強調表示することで、下級プレイヤーに視覚的にも分かりやすく伝えることができる。
また、映像データが、ゲームスキルの高いプレイヤーのプレイ内容が把握できる映像データである場合、映像データを受信したプレイヤーは、ゲームスキルの高いプレイヤーが傾聴している出力音に加えて、より注目しているオブジェクトを即時に把握できる。したがって、実施の形態2にかかる情報処理装置40によれば、映像データを受信したプレイヤーは、ゲームスキルの高いプレイヤーのプレイ内容を分析でき、スキル向上を図ることができる。
本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、任意の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
10、40 情報処理装置
11 操作入力部
12、32 表示部
13 音出力部
14 視線検出部
15、41 オブジェクト特定部
16 出力音決定部
17 制御部
18、42 映像生成部
19、31 通信部
20、43 記憶部
30 表示端末
100 情報処理システム

Claims (8)

  1. 仮想空間内の少なくとも1つのオブジェクトを表示装置に表示する表示部と、
    ユーザの視線を検出し、前記表示装置における視線位置を特定する視線検出部と、
    前記視線位置と、前記少なくとも1つのオブジェクトが表示される表示領域とに基づいて、前記ユーザが注視した注視オブジェクトを特定するとともに、前記ユーザが前記注視オブジェクトを注視し始めた時刻を示す注視開始時刻を特定するオブジェクト特定部と、
    前記注視オブジェクトの出力音に関連する情報である出力音情報と、前記注視開始時刻とに基づいて、前記ユーザの視線を前記注視オブジェクトに移動させた第1出力音を決定する出力音決定部と、を備える情報処理装置。
  2. 前記オブジェクト特定部は、前記視線位置が所定距離以上移動した後の第1視線位置を含む表示領域に表示されるオブジェクトを前記注視オブジェクトとして特定する、請求項1に記載の情報処理装置。
  3. 前記オブジェクト特定部は、前記第1視線位置に移動した後の前記視線位置を所定時間以上含む表示領域に表示されるオブジェクトを前記注視オブジェクトとして特定する、請求項2に記載の情報処理装置。
  4. 前記出力音情報は、前記注視オブジェクトに関連する少なくとも1つの出力音の出力開始時刻と出力終了時刻とを含み、
    前記出力音決定部は、前記出力開始時刻と前記出力終了時刻との間に前記注視開始時刻が含まれる出力音を前記第1出力音として決定する、請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記第1出力音の音量を変更する制御部と、
    前記音量が変更された第1出力音を含む映像データを生成する映像生成部と、
    をさらに備える請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記オブジェクト特定部は、少なくとも1つの前記注視オブジェクトの各々について、前記ユーザが注視した注視回数を計数し、
    前記映像生成部は、前記注視回数が所定数以上の注視オブジェクトが強調表示された前記映像データを生成する、請求項5に記載の情報処理装置。
  7. 仮想空間内の少なくとも1つのオブジェクトを表示装置に表示し、
    ユーザの視線を検出し、前記表示装置における視線位置を特定し、
    前記視線位置と、前記少なくとも1つのオブジェクトが表示される表示領域とに基づいて、前記ユーザが注視した注視オブジェクトを特定するとともに、前記ユーザが前記注視オブジェクトを注視し始めた時刻を示す注視開始時刻を特定し、
    前記注視オブジェクトの出力音に関連する情報である出力音情報と、前記注視開始時刻とに基づいて、前記ユーザの視線を前記注視オブジェクトに移動させた第1出力音を決定する、出力音決定方法。
  8. 仮想空間内の少なくとも1つのオブジェクトを表示装置に表示し、
    ユーザの視線を検出し、前記表示装置における視線位置を特定し、
    前記視線位置と、前記少なくとも1つのオブジェクトが表示される表示領域とに基づいて、前記ユーザが注視した注視オブジェクトを特定するとともに、前記ユーザが前記注視オブジェクトを注視し始めた時刻を示す注視開始時刻を特定し、
    前記注視オブジェクトの出力音に関連する情報である出力音情報と、前記注視開始時刻とに基づいて、前記ユーザの視線を前記注視オブジェクトに移動させた第1出力音を決定する、処理をコンピュータに実行させる出力音決定プログラム。
JP2020056424A 2020-03-26 2020-03-26 情報処理装置、出力音決定方法及び出力音決定プログラム Pending JP2021153789A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020056424A JP2021153789A (ja) 2020-03-26 2020-03-26 情報処理装置、出力音決定方法及び出力音決定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020056424A JP2021153789A (ja) 2020-03-26 2020-03-26 情報処理装置、出力音決定方法及び出力音決定プログラム

Publications (1)

Publication Number Publication Date
JP2021153789A true JP2021153789A (ja) 2021-10-07

Family

ID=77916118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020056424A Pending JP2021153789A (ja) 2020-03-26 2020-03-26 情報処理装置、出力音決定方法及び出力音決定プログラム

Country Status (1)

Country Link
JP (1) JP2021153789A (ja)

Similar Documents

Publication Publication Date Title
JP7049428B2 (ja) 動画配信装置、動画配信方法、動画配信プログラム
CN112203733A (zh) 在游戏玩法期间动态配置情景辅助
JPWO2018211571A1 (ja) 演技表示プログラム、演技表示方法および演技表示装置
KR102413269B1 (ko) 정보 처리 장치
JP6419932B1 (ja) 仮想空間において楽器の演奏を支援するためのプログラム、楽器の選択を支援するためにコンピュータで実行される方法、および情報処理装置
US10245505B2 (en) Generating custom recordings of skeletal animations
JP7107302B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20210236944A1 (en) Gameplay event detection and gameplay enhancement operations
CN112236203A (zh) 向玩家反应分配情景游戏玩法辅助
CN113398590A (zh) 声音处理方法、装置、计算机设备及存储介质
JP2015049801A (ja) 情報処理装置、情報処理方法及びプログラム
JP2017093803A (ja) 評価プログラム、評価方法及び評価装置
US20210236931A1 (en) Gameplay event detection and gameplay enhancement operations
JP2017018469A (ja) ゲームサーバ、端末、ゲームサーバによるゲームの制御方法及びプログラム
JP6984613B2 (ja) 出力制御装置、出力制御方法、およびプログラム
TWI775714B (zh) 視訊遊戲指導系統
JP2021153789A (ja) 情報処理装置、出力音決定方法及び出力音決定プログラム
JP5318016B2 (ja) ゲームシステム、ゲームシステムの制御方法、及びプログラム
US10847047B2 (en) Information processing device, information processing method, and computer program
US11406895B2 (en) Gameplay event detection and gameplay enhancement operations
TWI729323B (zh) 互動式遊戲系統
JP5912940B2 (ja) 評価装置、評価方法、プログラム、ならびに、システム
JP2021140349A (ja) サーバ、試合表示システム、広告設定方法及び広告設定プログラム
JP2021140350A (ja) サーバ、チャットシステム、広告設定方法及び広告設定プログラム
JP7484285B2 (ja) 情報処理装置、出力音決定方法及び出力音決定プログラム