JP2023115649A - 分析システム、情報処理装置、分析方法、及びプログラム - Google Patents

分析システム、情報処理装置、分析方法、及びプログラム Download PDF

Info

Publication number
JP2023115649A
JP2023115649A JP2022017993A JP2022017993A JP2023115649A JP 2023115649 A JP2023115649 A JP 2023115649A JP 2022017993 A JP2022017993 A JP 2022017993A JP 2022017993 A JP2022017993 A JP 2022017993A JP 2023115649 A JP2023115649 A JP 2023115649A
Authority
JP
Japan
Prior art keywords
user
information
analysis
audio information
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022017993A
Other languages
English (en)
Inventor
省吾 松尾
Shogo Matsuo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2022017993A priority Critical patent/JP2023115649A/ja
Publication of JP2023115649A publication Critical patent/JP2023115649A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザの実際の嗜好の傾向に沿った分析結果を出力することができる分析システムを提供すること。【解決手段】本開示にかかる分析システムは、映像を表示する表示手段11と、映像を視聴しているユーザが発声した際の音声情報を記録する記録手段12と、音声情報を用いて、音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対するユーザの嗜好を分析する分析手段13と、を備える。【選択図】図1

Description

本開示は、分析システム、情報処理装置、分析方法、及びプログラムに関する。
近年、仮想空間における様々な体験を提供するAR(Augmented Reality)サービスもしくはVR(Virtual Reality)サービスが提供されている。ARサービスもしくはVRサービスが仮想的な世界を表現する映像をユーザに提供することによって、ユーザは、様々な仮想空間を体験することができる。
特許文献1には、仮想空間におけるユーザの視点に基づいて、ユーザの嗜好もしくは関心を把握する情報分析システムの構成が開示されている。
特開2021-43819号公報
特許文献1に開示されている情報分析システムにおいては、ユーザの視野に入ったマーカに関連付けられた抽象属性に対して点数を付与し、点数が高くなるほどユーザの関心度が高い、もしくは、その抽象属性への嗜好性が強いと分析される。しかし、ユーザの視野に偶然に入った抽象属性に対して必ずしもユーザの関心度が高くさらに嗜好性が強いとは限らない。そのため、ユーザの視点に基づいて嗜好性の分析を行った場合に、ユーザの実際の嗜好の傾向とは異なる傾向が示される可能性があるという問題がある。
本開示の目的の一つは、ユーザの実際の嗜好の傾向に沿った分析結果を出力することができる分析システム、情報処理装置、分析方法、及びプログラムを提供することにある。
本開示の第1の態様にかかる分析システムは、映像を表示する表示手段と、前記映像を視聴しているユーザが発声した際の音声情報を記録する記録手段と、前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する分析手段と、を備える。
本開示の第2の態様にかかる情報処理装置は、映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得する取得部と、前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する分析部と、を備える。
本開示の第3の態様にかかる分析方法は、映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得し、前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する。
本開示の第4の態様にかかるプログラムは、映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得し、前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析することをコンピュータに実行させるプログラム。
本開示により、ユーザの実際の嗜好の傾向に沿った分析結果を出力することができる分析システム、情報処理装置、分析方法、及びプログラムを提供することができる。
実施の形態1にかかる分析システムの構成図である。 実施の形態1にかかる情報処理装置の構成図である。 実施の形態1にかかる分析方法の処理の流れを示す図である。 実施の形態2にかかる分析システムの構成図である。 実施の形態2にかかるHMD搭載装置の構成図である。 実施の形態2にかかる分析サーバの構成図である。 実施の形態2にかかるHMD搭載装置におけるデータ収集処理の流れを示す図である。 実施の形態2にかかる分析サーバにおける分析処理の流れを示す図である。 実施の形態2にかかる分析処理の詳細な処理の流れを示す図である。 実施の形態2にかかる分析処理の詳細な処理の流れを示す図である。 実施の形態2にかかる位置スコアの算出を説明する図である。 実施の形態2にかかるネガポジ評価の詳細な処理の流れを示す図である。 実施の形態4にかかる位置スコアの算出を説明する図である。 実施の形態5にかかる位置スコアの算出を説明する図である。 それぞれの実施の形態にかかるHMD搭載装置及び分析サーバの構成図である。
(実施の形態1)
以下、図面を参照して本発明の実施の形態について説明する。図1を用いて実施の形態1にかかる分析システムの構成例について説明する。図1の分析システムは、表示手段11記録手段12、及び分析手段13を有している。表示手段11、記録手段12、及び分析手段13は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、表示手段11、記録手段12、及び分析手段13は、回路もしくはチップ等のハードウェアであってもよい。
表示手段11、記録手段12、及び分析手段13は、コンピュータ装置に備えられている。表示手段11、記録手段12、及び分析手段13は、それぞれが異なるコンピュータ装置に備えられてもよく、同一のコンピュータ装置に備えられてもよい。もしくは、表示手段11、記録手段12、及び分析手段13のうちの2以上の要素が一つのコンピュータ装置に備えられてもよい。コンピュータ装置は、プロセッサがメモリに格納されたプログラムを実行することによって動作する装置である。
表示手段11は、映像を表示する。表示手段11は、例えば、ディスプレイ装置であってもよい。具体的には、表示手段11は、ARサービスもしくはVRサービスを提供するHMD(Head Mounted Display)であってもよい。表示手段11が表示する映像は、実際の風景、ゲーム映像、CG(Computer Graphics)等を含んでもよい。
記録手段12は、映像を視聴しているユーザが発声した際の音声情報を記録する。記録手段12は、例えば、マイクを介してユーザの音声情報を記録してもよい。記録手段12は、コンピュータ装置に内蔵されるメモリであってもよく、コンピュータ装置に外付けされるメモリであってもよい。
分析手段13は、音声情報を用いて音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対するユーザの嗜好を分析する。映像に含まれるオブジェクトは、例えば、映像内に含まれる建物、自然物、人間、動物、車両、等の何らかの名称を有する物であってもよい。オブジェクトに対するユーザの嗜好を分析するとは、オブジェクトに対するユーザの嗜好の傾向を分析することであってもよい。オブジェクトに対するユーザの嗜好を分析するとは、オブジェクトに対するユーザの感情を分析することであってもよく、例えば、ユーザがオブジェクトに対して肯定的な印象を抱いているか、否定的な印象を抱いているか、を判定することであってもよい。もしくは、オブジェクトに対するユーザの嗜好を分析するとは、オブジェクトに対するユーザの関心度を分析することであってもよく、例えば、オブジェクトに対するユーザの関心が高いかもしくは低いかを判定することであってもよい。分析手段13は、例えば、ユーザの発話内容に基づいて、オブジェクトに対するユーザの嗜好を分析してもよい。
ここで、図2示すように、コンピュータ装置である情報処理装置20が、取得手段21及び分析手段13を有してもよい。情報処理装置20が有する分析手段13は、図1の分析手段13と同様である。取得手段21は、他の装置において記録されたユーザの音声情報を、他の装置からネットワーク等を介して取得してもよい。情報処理装置20における分析手段13は、取得手段21が取得した音声情報を用いてユーザの嗜好を分析してもよい。
続いて、図3を用いて実施の形態1にかかる分析処理の流れについて説明する。ここでは、図2に示す情報処理装置20が実行する分析処理の流れについて説明する。はじめに、取得手段21は、映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得する(S11)。取得手段21は、音声情報を、他の装置からネットワークを介して取得してもよく、情報処理装置20が有するマイクを介して取得してもよい。
次に、分析手段13は、音声情報を用いて、音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対するユーザの嗜好を分析する(S12)。
以上説明したように、図1の分析システムもしくは図2の情報処理装置20は、ユーザの音声情報に基づいて、映像に含まれるオブジェクトに対するユーザの嗜好を分析する。ユーザの音声情報には、ユーザの感情を表す発話が含まれる。これより、映像に含まれるオブジェクトに対するユーザの発話内容を用いることによって、オブジェクトに対するユーザの嗜好を正確に分析することができる。
(実施の形態2)
続いて図4を用いて実施の形態2にかかる分析システムの構成例について説明する。図4の分析システムは、HMD搭載装置30及び分析サーバ40を有している。HMD搭載装置30及び分析サーバ40は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。ユーザは、ARサービスもしくはVRサービスを利用する際に、HMD搭載装置30を装着し、HMD搭載装置30が出力する映像を視聴する。分析サーバ40は、HMD搭載装置30からネットワークを介して受信した情報を用いて、ユーザの嗜好を分析する。HMD搭載装置30は、無線通信回線もしくは固定通信回線を介して分析サーバ40に接続されてもよい。分析サーバ40は、クラウドサーバであってもよい。
続いて、図5を用いて実施の形態2にかかるHMD搭載装置30の構成例について説明する。HMD搭載装置30は、表示部31、音声情報記録部32、視野情報記録部33、制御部34、及び通信部35を有している。HMD搭載装置30の各構成要素は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、HMD搭載装置30の各構成要素は、回路もしくはチップ等のハードウェアであってもよい。
表示部31は、映像を表示もしくは出力するディスプレイ装置であってもよい。表示部31には、ARサービスもしくはVRサービスに用いられる映像が表示される。ユーザは、表示部31に表示される映像を視聴することによって、仮想空間を体験する。
音声情報記録部32は、ユーザが表示部31に表示される映像を視聴し、仮想空間を体験している間に発話した内容を音声情報として記録する。例えば、音声情報記録部32は、マイク等の入力インタフェースを介して音声情報を記録する。音声情報を記録するとは、音声を録音すると言い換えられてもよい。音声情報記録部32は、表示部31に映像が表示されている間、音声情報の記録処理を実行してもよい。つまり、音声情報記録部32は、表示部31に映像が表示されている間、録音を継続してもよい。言い換えると、音声情報記録部32は、表示部31に映像が表示されている間にユーザが発話した内容とともに無音状態も含めて音声情報として記録してもよい。音声情報記録部32は、音声情報を制御部34へ出力する。
視野情報記録部33は、ユーザが体験した仮想空間における視野情報を記録する。視野情報は、ユーザが視聴した映像であってもよい。視野情報には、映像に示される少なくとも1以上のオブジェクトが含まれる。例えば、表示部31に表示される映像は、ユーザの視点が移動するたびに表示内容が変更されてもよい。具体的には、ユーザが向いた方向に応じて、表示部31に表示される仮想空間の映像は、ユーザの向いた方向の仮想空間の映像に変更される。ユーザの視点は、表示部31に表示される映像の中心に存在すると仮定されてもよい。表示部31に表示される映像が変化することによって、映像に含まれるオブジェクトも変化する。視野情報記録部33は、視野情報を制御部34へ出力する。
制御部34は、音声情報記録部32から取得した音声情報から、ユーザの発話情報を抽出して一つのデータもしくは一つの音声ファイルを生成する。一つの音声ファイルには、ユーザの発話が開始されてから発話が終了するまでの発話情報が含まれている。また、無音状態が所定の期間よりも短い場合、例えば、無音状態が1秒未満である場合、発話が終了したとみなされず、発話が継続しているとみなされてもよい。つまり、一つの音声ファイルには、所定の期間よりも短い期間の無音状態が含まれてもよい。さらに、制御部34は、音声ファイルと、音声ファイルに含まれる発話が行われたタイミングと同じタイミングの視野情報とを関連付けてもよい。つまり、制御部34は、ユーザが発話中に視聴していた映像を含む視野情報と、発話情報とを関連付けてもよい。
通信部35は、制御部34において生成された音声ファイルと視野情報とを分析サーバ40へ送信する。
続いて、図6を用いて実施の形態2にかかる分析サーバ40の構成例について説明する。分析サーバ40は、分析部41、出力部42、及び通信部43を有している。分析部41、出力部42、及び通信部43は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、分析部41、出力部42、及び通信部43は、回路もしくはチップ等のハードウェアであってもよい。
通信部43は、HMD搭載装置30から送信された音声ファイル、及び音声ファイルに関連付けられた視野情報を受信する。分析部41は、通信部43が受信した音声ファイル及び視野情報を受け取り、ユーザの嗜好を分析する。出力部42は、分析部41における分析結果を、分析サーバ40のディスプレイ等へ出力する。分析部41における分析処理については後述する。
続いて、図7を用いて実施の形態2にかかるHMD搭載装置30におけるデータ収集処理の流れについて説明する。はじめに、制御部34は、ユーザの仮想空間体験の終了を検出する(S21)。例えば、制御部34は、仮想空間体験に用いられる映像の再生が終了したこと、もしくは、制御部34は、ユーザから仮想空間体験の映像の停止を指示する信号が入力された場合に、ユーザの仮想空間の体験が終了したとみなしてもよい。ユーザが仮想空間体験を行っている間、音声情報記録部32は、音声情報を記録し続けており、視野情報記録部33は視野情報を記録し続けているとする。
次に、制御部34は、音声情報記録部32から音声情報を取得する(S22)。さらに、制御部34は、視野情報記録部33から視野情報を取得する(S23)。制御部34は、ステップS22において取得した音声情報と、ステップS23において取得した視野情報とを関連付けて管理する。
次に、制御部34は、音声情報から全ての発話の開始及び終了のタイミングを取得する。ユーザは、仮想空間を体験中に、様々な言葉を発している。また、ユーザは、常に言葉を発していることはなく、一度言葉を発した後に、数秒等の期間後に、再度言葉を発する。つまり、音声情報には、発話情報と無音情報とが含まれる。発話情報は、ユーザが言葉を発してから無音状態になるまでの期間の情報である。ここで、無音状態が予め定められた所定の期間よりも短い場合、ユーザによる発話は継続しているとみなされてもよい。発話情報は、音声ファイルに相当する。
次に、制御部34は、ステップS24において取得した全ての発話情報の中からn個目の発話情報を取得する(S25)。nは1以上の整数であり、制御部34は、はじめに1個目の発話情報を取得する。発話情報は、例えば、発話が行われたタイミングが古い順番に並べられ、1番目の発話情報は、音声情報の中において最も古いタイミングに発話が行われた際の発話情報であってもよい。もしくは、1番目の発話情報は、音声情報の中において最も新しいタイミングに発話が行われた際の発話情報であってもよい。
次に、制御部34は、n個目の発話情報に関連付けられた視野情報を取得する(S26)。具体的には、制御部34は、n個目の発話情報と同じタイミングの視野情報を取得する。n個目の発話情報と同じタイミングの視野情報とは、n個目の発話情報が開始されたタイミングから終了したタイミングまでの視野情報である。
次に、制御部34は、ステップS25において取得したn個目の発話情報と、ステップS26において取得した視野情報とを、データセットnに保存する(S27)。データセットnは、n個目の発話情報と、n個目の発話情報に関連付けられた視野情報と、を含むデータである。
次に、制御部34は、音声情報に含まれるすべての発話情報をデータセットnに保存済みかどうかを判定する(S28)。データセットnは、例えば、HMD搭載装置30に内蔵もしくは外付けされているメモリ等に保存されてもよい。制御部34は、音声情報に含まれるすべての発話情報をデータセットnに保存済みであると判定した場合、全てのデータセットを分析サーバ40へ送信する(S29)。
制御部34は、音声情報に含まれるすべての発話情報をデータセットnに保存済みではない、つまり、取得していない発話情報があると判定した場合、n=n+1として、ステップS25以降の処理を実行する。
続いて、図8を用いて実施の形態2にかかる分析サーバ40における分析処理の流れについて説明する。はじめに、通信部43は、HMD搭載装置30からデータセットを受信する(S31)。次に、分析部41は、データセットを用いてユーザの嗜好を分析する処理を実行する(S32)。次に、出力部42は、分析部41における分析結果を表示装置等へ出力する(S33)。
次に、図9を用いて、図8のステップS32における分析処理の詳細な処理について説明する。分析部41は、データセットnを受け取る(S41)。nは1以上の整数であり、分析部41は、はじめにn=1のデータセット1を受け取る。もしくは、分析部41は、分析サーバ40のメモリ等に保存されたすべてのデータセットの中から、データセットnを選択して抽出してもよい。例えば、分析部41は、データセット1から順番にデータセットを抽出してもよい。
次に、分析部41は、データセットnに含まれる視野情報の映像を再生する(S42)。次に、分析部41は、映像に映っているオブジェクトを検出する(S43)。例えば、分析部41は、画像認識技術を用いて、映像に含まれるオブジェクトを検出する。例えば、分析部41は、事前に機械学習を行うことによってオブジェクトの名称を特定する学習モデルを生成してもよい。分析部41は、検出したオブジェクトを学習モデルに入力することによって、オブジェクトの名称を特定してもよい。オブジェクトの名称とは、例えば、ビル、人、犬、等のオブジェクトの属性を示す名称であってもよい。また、分析部41は、機械学習を行うことによって生成された学習モデルを用いてオブジェクトの検出を行ってもよい。もしくは、分析部41は、予め定められたオブジェクトのみを検出してもよい。例えば、特定の建物、人物、もしくは物体が定められている場合、分析部41は、映像に含まれるオブジェクトの内、予め定められた建物等の特徴量との差が所定の範囲内の特徴量を有するオブジェクトを検出してもよい。もしくは、分析部41は、特定の建物等を機械学習することによって生成された学習モデルを用いて、映像の中から特定の建物等を検出してもよい。
次に、分析部41は、検出したオブジェクトの位置スコアを算出する(S44)。ここで、図11を用いて位置スコアの算出について説明する。図11の実線の四角で囲まれた領域は、再生された視野情報の映像を示している。また、点線の直線は、実践の四角で囲まれた領域を二等分する中心線を示している。A11及びA12にて示される楕円は、オブジェクトを示している。図11は、オブジェクトA11及びA12を含む視野情報の映像を示している。オブジェクトに付与される位置スコアは、中心線に近いオブジェクトほど高くなる。例えば、中心線上のオブジェクトに付与される位置スコアを100とし、中心線から最も離れた位置の位置スコアを0とする。具体的には、中心線から垂直方向の端までの距離を100等分し、それぞれの位置に0から100までの位置スコアが付与されてもよい。図11は、オブジェクトA12がオブジェクトA11よりも中心線に近いことを示している。このような場合、例えば、オブジェクトA12の位置スコアを50とし、オブジェクトA11の位置スコアを20としてもよい。
図9に戻り、分析部41は、所定期間待機する(S45)。例えば、分析部41は、1秒間待機してもよく、0.1秒間待機してもよい。次に、分析部41は、視野情報の映像の再生が終了したか否かを判定する(S46)。分析部41は、視野情報の映像の再生が終了していないと判定した場合、ステップS43以降の処理を繰り返し、オブジェクトの位置スコアを算出する。ここで、ステップS44において、既に位置スコアが算出されたオブジェクトにおいては、新たに算出された位置スコアを、既に算出された位置スコアに加算する。つまり、あるオブジェクトの位置スコアが50と算出された後、1秒後にそのオブジェクトの位置スコアが20と算出された場合、そのオブジェクトの位置スコアは70となる。
ステップS45における所定期間が短くなるほど、ステップS43におけるオブジェクトの検出タイミングが増加するため、オブジェクトの位置スコアの精度が向上する。
ステップS46において、分析部41は、視野情報の映像の再生が終了したと判定した場合、ユーザの発話内容のネガポジ評価を行う(S47)。ネガポジとは、ネガティブ及びポジティブを意図する。例えば、分析部41は、ステップS41において受け取ったデータセットnに含まれる発話情報の内容が、ネガティブかポジティブかを判定する。分析部41は、発話情報の内容がネガティブであると判定した場合(S48)、それぞれのオブジェクトの位置スコアに「―1」を乗算する(S49)。分析部41は、発話情報の内容がポジティブであると判定した場合(S48)、それぞれのオブジェクトの位置スコアの値を用いてステップS50以降の処理を実行する。
次に、分析部41は、ステップS48もしくはS49において算出された位置スコアを注目スコアとする(S50)。ステップS48において発話情報の内容がポジティブと判定された場合、注目スコアは正の数であり、ステップS48において発話情報の内容がネガティブと判定された場合、注目スコアは負の数となる。
次に、分析部41は、全てのデータセットにおいて注目スコアを算出済みであるか否かを判定する(S51)。分析部41は、全てのデータセットにおいて注目スコアを算出済みではないと判定した場合、n=n+1として(S53)、ステップS41以降の処理を繰り返す。分析部41は、全てのデータセットにおいて注目スコアを算出済みであると判定した場合、オブジェクト毎に注目スコアを合計して、オブジェクト毎のオブジェクトスコアを算出する(S52)。オブジェクト毎のオブジェクトスコアは、全てのデータセットにおいて算出されたオブジェクト毎の注目スコアの合計スコアである。
続いて、図12を用いて、図9のステップS47において実行されるネガポジ評価の詳細について説明する。はじめに、分析部41は、発話情報を形態素解析する(S61)。具体的には、分析部41は、発話情報に含まれる単語を形態素に分割する。形態素は、その用語が意味を有する最小単位であることを意図する。
次に、分析部41は、分割されたそれぞれの用語について、極性辞書を利用した平均スコアを取得する(S62)。極性辞書は、例えば、東北大学、乾・鈴木研究室の日本語評価極性辞書や、東京工業大学、科学技術創成研究院 未来産業技術研究所 奥村高村研究室の単語感情極性対応表などが用いられてもよい。分析部41は、分割されたそれぞれの用語について極性辞書を用いたスコアを算出し、全ての用語の平均スコアを算出する。もしくは、分析部41は、分割されたそれぞれの用語について極性辞書を用いたスコアを算出し、全ての用語のスコアを加算した合計値を算出してもよい。
分析部41は、発話情報の平均スコアが0以上であるか否かを判定する(S63)。分析部41は、発話情報の平均スコアが0以上である場合、発話情報の内容がポジティブであると決定し(S64)、平均スコアが0未満である場合、発話情報の内容がネガティブであると決定する(S65)。
ここで、図8のステップS33における分析結果の出力処理について説明する。例えば、分析部41は、算出されたオブジェクトスコアを、スコアが高い順に並べたデータを作成し、ユーザの興味もしくは関心の高いオブジェクトのランキングを作成してもよい。出力部42は、分析部41において作成されたオブジェクトのランキングを表示装置等へ出力してもよい。表示装置は、分析サーバ40と一体として用いられる装置であってもよく、分析結果を活用するユーザが保持するスマートフォン等の端末装置であってもよい。分析部41は、通信部43を介して、端末装置へランキングを示す情報を送信してもよい。
または、分析部41は、オブジェクトスコアを、仮想空間内に表示してもよい。例えば、分析部41は、オブジェクトスコアを、HMD搭載装置30へ送信してもよい。この時、HMD搭載装置30は、受信したオブジェクトスコアを、仮想空間内のオブジェクトに重ねて表示してもよい。
さらに、分析部41は、オブジェクトのスコアを、異なる色を用いて表示させてもよい。分析部41は、このように、様々な形式にてオブジェクトスコアを表示させることによって、仮想空間のユーザがより視覚的に、ユーザのオブジェクト毎の興味もしくは関心を把握することができる。
以上説明したように、実施の形態2にかかる分析サーバ40は、ユーザが視野情報に含まれるそれぞれのオブジェクトに対して抱いている、ネガティブもしくはポジティブな感情を特定することができる。これにより、分析サーバ40は、ユーザの感情と、位置スコアとを組み合わせることによって、ユーザの興味もしくは関心を定量的な結果として出力することができる。また、分析サーバ40は、視野情報を用いて算出された位置スコアを、発話情報のネガポジ評価結果を用いて補正することによって、ユーザの視線が、ネガティブな感情に基づく視線か、ポジティブな感情に基づく視線かを推定することができる。
(実施の形態3)
続いて、実施の形態3にかかる分析部41の分析処理について説明する。分析部41は、発話情報のネガポジ評価について、ネガティブかポジティブかの2値ではなく、ネガポジ評価の結果を特定の数値の幅を有するスコアとして算出してもよい。ネガポジ評価の結果を示すスコアは、例えば、ユーザのオブジェクトへの関心度を示す。
さらに、分析部41は、音声情報として、ユーザが発話した際の声の高さもしくは大きさを取得し、声の高さもしくは大きさを用いて、ネガポジ評価を行った結果算出したスコアの補正を行ってもよい。例えば、分析部41は、ネガポジスコアを算出した全ての発話情報における声の高さ(単位:ヘルツ)と声の大きさ(単位:デシベル)の平均値を算出する。
分析部41は、それぞれの発話情報における声の高さの平均値が、全ての発話情報における声の高さの平均値よりも高い場合であって、さらに、ネガポジ評価のスコアが正の数である場合、スコアに1.1を乗算してもよい。もしくは、分析部41は、それぞれの発話情報における声の高さの平均値が、全ての発話情報における声の高さの平均値よりも高い場合であって、さらに、ネガポジ評価のスコアが負の数である場合、スコアに0.9をかけてもよい。
分析部41は、それぞれの発話情報における声の高さの平均値が、全ての発話情報における声の高さの平均値よりも低い場合であって、さらに、ネガポジ評価のスコアが正の数である場合、スコアに0.9を乗算してもよい。もしくは、分析部41は、それぞれの発話情報における声の高さの平均値が、全ての発話情報における声の高さの平均値よりも低い場合であって、さらに、ネガポジ評価のスコアが負の数である場合、スコアに1.1をかけてもよい。
分析部41は、声の大きさについても、声の高さと同様に、声の大きさに基づいてスコアの値を補正してもよい。
もしくは、分析部41は、発話の内容を考慮することなく、声の大きさ及び声の高さの少なくとも一方を用いて、ネガポジ評価を行ってもよい。つまり、分析部41は、声が大きいもしくは声が高い場合には、発話情報の内容がポジティブと評価し、声が小さいもしくは声が低い場合には、発話情報の内容がネガティブと評価してもよい。
以上説明したように、声の高さもしくは声の大きさを用いてネガポジ評価の結果算出されたスコアを補正することによって、ユーザの感情をより正確にスコアに反映することができる。
(実施の形態4)
続いて、図13を用いて、位置スコアの算出例について説明する。図13における実線の四角で囲まれた領域は、再生された視野情報の映像を示している。また、点線の円は、実線の四角で囲まれた領域の対角線の交点を中心とする円であって、実線の四角に外接する円である。A21にて示される楕円は、オブジェクトを示している。図13は、オブジェクトA21を含む視野情報の映像を示している。
オブジェクトに付与される位置スコアは、円の中心を100とし、円上を0とする。さらに、円の中心から円上までの距離を100等分し、それぞれの位置に0から100までの位置スコアが付与されてもよい。ただし、円内にあるオブジェクトであっても、視野情報の映像外、つまり、実線の四角で囲まれた領域外にあるオブジェクトに対しては、位置スコアは付与されない。図13に示す例においては、オブジェクトA21は、実線の四角で囲まれた領域内に存在し、さらに、円の中心から円上までの距離の中央に存在しているため、位置スコアが50となる。
または、円の中心から実線の四角までの距離を100等分し、それぞれの位置に0から100までの位置スコアが付与されてもよい。この場合、円の中心の位置スコアを100とし、実線の四角のそれぞれの辺の位置スコアを0としてもよい。
以上説明したように、視野情報の映像のX軸方向及びY軸方向の2次元の情報を用いて、位置スコアを算出することによって、ユーザの視点を考慮したより正確な位置スコアを算出することができる。図13においては、X軸方向が、長辺に平行な方向であり、Y軸方向が、短辺に平行な方向である。
(実施の形態5)
続いて、実施の形態5にかかる位置スコアの補正処理について説明する。分析部41は、前回の位置スコア測定時より、より中央によっているオブジェクトの点数が高くなるように位置スコアを補正してもよい。例えば、位置スコアに補正をかけたスコアを補正位置スコアとすると、補正位置スコアは、補正位置スコア=位置スコア+{0.001×(前回測定時の位置スコアから近づいた差分+連続して近づいた回数)}、の式を用いて算出されてもよい。図14は、図11と同様に、視野情報の映像を示しており、オブジェクト31が存在していることを示している。例えば図14に示すように、測定ごとにオブジェクト31の位置スコアが(1回目)20→(2回目)50→(3回目)90のように変動する場合について説明する。この場合、1回目の補正位置スコアは、20+0.001×{0+0}=20となる。同様にして、2回目、3回目の補正位置スコアはそれぞれ、50+0.001×{(50-20)+1}=50.031、90+0.001×{(90-50)+2}=90.042となる。
以上説明したように、初めは中心から離れた位置に存在し、その後中心に近づいてくるオブジェクトにより高い位置スコアを付与することが可能となる。なお、補正位置スコアの計算に使用する係数(0.001)の数値に特に指定はない。この数値を下げる程、オブジェクトが中心に近づく行為に対する、補正位置スコアへの影響が少なくなり、この数値を上げる程、補正位置スコアへの影響が大きくなる。
図15は、上述の実施の形態において説明したHMD搭載装置30及び分析サーバ40(以下、HMD搭載装置30等とする)の構成例を示すブロック図である。図15を参照すると、HMD搭載装置30等は、ネットワークインタフェース1201、プロセッサ1202、及びメモリ1203を含む。ネットワークインタフェース1201は、ネットワークノードと通信するために使用されてもよい。ネットワークインタフェース1201は、例えば、IEEE 802.3 seriesに準拠したネットワークインタフェースカード(NIC)を含んでもよい。IEEEは、Institute of Electrical and Electronics Engineersを表す。
プロセッサ1202は、メモリ1203からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態においてフローチャートを用いて説明されたHMD搭載装置30等の処理を行う。プロセッサ1202は、例えば、マイクロプロセッサ、MPU、又はCPUであってもよい。プロセッサ1202は、複数のプロセッサを含んでもよい。
メモリ1203は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1203は、プロセッサ1202から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1202は、図示されていないI/O(Input/Output)インタフェースを介してメモリ1203にアクセスしてもよい。
図15の例では、メモリ1203は、ソフトウェアモジュール群を格納するために使用される。プロセッサ1202は、これらのソフトウェアモジュール群をメモリ1203から読み出して実行することで、上述の実施形態において説明されたHMD搭載装置30等の処理を行うことができる。
図15を用いて説明したように、上述の実施形態におけるHMD搭載装置30等が有するプロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。
上述の例において、プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
映像を表示する表示手段と、
前記映像を視聴しているユーザが発声した際の音声情報を記録する記録手段と、
前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する分析手段と、を備える分析システム。
(付記2)
前記分析手段は、
前記音声情報のネガポジ評価を行い、前記ネガポジ評価を用いて前記オブジェクトに対する前記ユーザの嗜好を分析する、付記1に記載の分析システム。
(付記3)
前記分析手段は、
前記ネガポジ評価を用いて前記オブジェクトへの関心度を示すスコアを算出し、前記スコアに基づいて前記オブジェクトに対する前記ユーザの嗜好を分析する、付記2に記載の分析システム。
(付記4)
前記記録手段は、
前記ユーザの視線を示す視線情報をさらに記録し、
前記分析手段は、
前記音声情報及び前記視線情報を用いて、前記オブジェクトに対する前記ユーザの嗜好を分析する、付記1から3のいずれか1項に記載の分析システム。
(付記5)
前記分析手段は、
前記ユーザの視線に近いオブジェクトほど位置スコアを高くし、前記位置スコアを前記音声情報のネガポジ評価を用いて補正することによって前記オブジェクトのオブジェクトスコアを算出し、前記オブジェクトスコアに基づいて前記オブジェクトに対する前記ユーザの嗜好を分析する、付記4に記載の分析システム。
(付記6)
前記分析手段は、
前記位置スコアを、前記音声情報のネガポジ評価と、前記音声情報に含まれる音声の大きさ及び高さの少なくとも一方と、を用いて補正する、付記5に記載の分析システム。
(付記7)
前記分析手段は、
前記オブジェクトと前記ユーザの視線との位置の差分の変動に基づいて、前記位置スコアを補正する、付記5又は6に記載の分析システム。
(付記8)
映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得する取得部と、
前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する分析部と、を備える情報処理装置。
(付記9)
前記分析部は、
前記音声情報のネガポジ評価を行い、前記ネガポジ評価を用いて前記オブジェクトに対する前記ユーザの嗜好を分析する、付記8に記載の情報処理装置。
(付記10)
映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得し、
前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する、分析方法。
(付記11)
映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得し、
前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析することをコンピュータに実行させるプログラム。
11 表示手段
12 記録手段
13 分析手段
20 情報処理装置
21 取得手段
30 HMD搭載装置
31 表示部
32 音声情報記録部
33 視野情報記録部
34 制御部
35 通信部
40 分析サーバ
41 分析部
42 出力部
43 通信部

Claims (10)

  1. 映像を表示する表示手段と、
    前記映像を視聴しているユーザが発声した際の音声情報を記録する記録手段と、
    前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する分析手段と、を備える分析システム。
  2. 前記分析手段は、
    前記音声情報のネガポジ評価を行い、前記ネガポジ評価を用いて前記オブジェクトに対する前記ユーザの嗜好を分析する、請求項1に記載の分析システム。
  3. 前記分析手段は、
    前記ネガポジ評価を用いて前記オブジェクトへの関心度を示すスコアを算出し、前記スコアに基づいて前記オブジェクトに対する前記ユーザの嗜好を分析する、請求項2に記載の分析システム。
  4. 前記記録手段は、
    前記ユーザの視線を示す視線情報をさらに記録し、
    前記分析手段は、
    前記音声情報及び前記視線情報を用いて、前記オブジェクトに対する前記ユーザの嗜好を分析する、請求項1から3のいずれか1項に記載の分析システム。
  5. 前記分析手段は、
    前記ユーザの視線に近いオブジェクトほど位置スコアを高くし、前記位置スコアを前記音声情報のネガポジ評価を用いて補正することによって前記オブジェクトのオブジェクトスコアを算出し、前記オブジェクトスコアに基づいて前記オブジェクトに対する前記ユーザの嗜好を分析する、請求項4に記載の分析システム。
  6. 前記分析手段は、
    前記位置スコアを、前記音声情報のネガポジ評価と、前記音声情報に含まれる音声の大きさ及び高さの少なくとも一方と、を用いて補正する、請求項5に記載の分析システム。
  7. 前記分析手段は、
    前記オブジェクトと前記ユーザの視線との位置の差分の変動に基づいて、前記位置スコアを補正する、請求項5又は6に記載の分析システム。
  8. 映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得する取得部と、
    前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する分析部と、を備える情報処理装置。
  9. 映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得し、
    前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析する、分析方法。
  10. 映像装置に表示されている映像を視聴しているユーザが発声した際の音声情報を取得し、
    前記音声情報を用いて、前記音声情報が記録された際に表示されていた映像に含まれるオブジェクトに対する前記ユーザの嗜好を分析することをコンピュータに実行させるプログラム。
JP2022017993A 2022-02-08 2022-02-08 分析システム、情報処理装置、分析方法、及びプログラム Pending JP2023115649A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022017993A JP2023115649A (ja) 2022-02-08 2022-02-08 分析システム、情報処理装置、分析方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022017993A JP2023115649A (ja) 2022-02-08 2022-02-08 分析システム、情報処理装置、分析方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2023115649A true JP2023115649A (ja) 2023-08-21

Family

ID=87576435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022017993A Pending JP2023115649A (ja) 2022-02-08 2022-02-08 分析システム、情報処理装置、分析方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2023115649A (ja)

Similar Documents

Publication Publication Date Title
CN110473525B (zh) 获取语音训练样本的方法和装置
US20180077095A1 (en) Augmentation of Communications with Emotional Data
JP2013527947A5 (ja)
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
CN106463119B (zh) 用于支持改进语音识别的对视觉内容的修改
JP6122792B2 (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
US10460731B2 (en) Apparatus, method, and non-transitory computer readable storage medium thereof for generating control instructions based on text
US20110228983A1 (en) Information processor, information processing method and program
US9028255B2 (en) Method and system for acquisition of literacy
KR101998482B1 (ko) 가상현실 기반의 의사소통 훈련 및 모바일 장치를 이용한 지속적인 피드백 시스템 및 방법
US20180277145A1 (en) Information processing apparatus for executing emotion recognition
CN112735371B (zh) 一种基于文本信息生成说话人视频的方法及装置
CN112017633B (zh) 语音识别方法、装置、存储介质及电子设备
WO2021085242A1 (ja) 情報処理装置、及びコマンド処理方法
CN114255737B (zh) 语音生成方法、装置、电子设备
US11176943B2 (en) Voice recognition device, voice recognition method, and computer program product
US11775070B2 (en) Vibration control method and system for computer device
JP2017146672A (ja) 画像表示装置、画像表示方法、画像表示プログラム及び画像表示システム
US20220198293A1 (en) Systems and methods for evaluation of interpersonal interactions to predict real world performance
JP6629172B2 (ja) 対話制御装置、その方法及びプログラム
CN111506183A (zh) 一种智能终端及用户交互方法
KR20200065755A (ko) 몰입도 운용 방법 및 이를 지원하는 전자 장치
JP2023115649A (ja) 分析システム、情報処理装置、分析方法、及びプログラム
US20200234187A1 (en) Information processing apparatus, information processing method, and program
US20220189200A1 (en) Information processing system and information processing method