JP2021057002A - コンテンツ選択方法、コンテンツ選択装置及びコンテンツ選択プログラム - Google Patents

コンテンツ選択方法、コンテンツ選択装置及びコンテンツ選択プログラム Download PDF

Info

Publication number
JP2021057002A
JP2021057002A JP2020095295A JP2020095295A JP2021057002A JP 2021057002 A JP2021057002 A JP 2021057002A JP 2020095295 A JP2020095295 A JP 2020095295A JP 2020095295 A JP2020095295 A JP 2020095295A JP 2021057002 A JP2021057002 A JP 2021057002A
Authority
JP
Japan
Prior art keywords
emotional state
user
image
images
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020095295A
Other languages
English (en)
Inventor
吹野 美和
Yoshikazu Fukino
美和 吹野
宏樹 竹内
Hiroki Takeuchi
宏樹 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2021057002A publication Critical patent/JP2021057002A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Abstract

【課題】ユーザが自身の感情状態を感覚的に選択することができるとともに、ユーザによって選択された画像からユーザの現在の感情状態を容易に特定することができる技術を提供する。【解決手段】コンテンツ選択方法は、コンピュータが、少なくとも1つの感情の強度と対応付けられた複数の画像を取得し、ディスプレイに複数の画像を選択可能に表示させ、複数の画像のうちのユーザによって選択された画像に対応付けられた少なくとも1つの感情の強度を、ユーザの現在の感情状態を示す現在感情状態として取得し、ユーザが目標とする感情状態を示す目標感情状態を取得し、現在感情状態から目標感情状態に変化させるためのコンテンツを決定し、コンテンツを出力する。【選択図】図10

Description

本開示は、ユーザの感情状態を変化させるためのコンテンツを選択する技術に関するものである。
従来、感情状態を変化させるためのコンテンツをユーザに提供するコンテンツ提供方法が存在している。
例えば、特許文献1におけるコンテンツ提供方法は、ユーザが目標とする感情状態を示す目標感情状態値を取得し、ユーザの生体データを取得し、生体データに基づいて、ユーザの現在の感情状態を示す現在感情状態値を算出し、目標感情状態値と現在感情状態値との差分値を算出し、差分値に応じて感情状態を変化させるためのコンテンツを決定し、決定したコンテンツをユーザに提供している。
また、例えば、特許文献2における情報処理装置は、画像データから抽出される画像情報に基づいて、画像データを複数含む画像データ群毎にテーマ性を解析し、テーマ性と関連付けて記憶された所定の処理と画像データ群との組合せを、テーマ性に基づいて選択している。
特開2018−195043号公報 特開2011−170690号公報
しかしながら、上記従来の技術では、ユーザが自身の感情状態を感覚的に選択することが困難であるとともに、ユーザによって選択された画像からユーザの現在の感情状態を容易に特定することが困難であり、更なる改善が必要とされていた。
本開示は、上記の問題を解決するためになされたもので、ユーザが自身の感情状態を感覚的に選択することができるとともに、ユーザによって選択された画像からユーザの現在の感情状態を容易に特定することができる技術を提供することを目的とするものである。
本開示に係るコンテンツ選択方法は、コンピュータが、少なくとも1つの感情の強度と対応付けられた複数の画像を取得し、ディスプレイに前記複数の画像を選択可能に表示させ、前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記ユーザの現在の感情状態を示す現在感情状態として取得し、前記ユーザが目標とする感情状態を示す目標感情状態を取得し、前記現在感情状態から前記目標感情状態に変化させるためのコンテンツを決定し、前記コンテンツを出力する。
本開示によれば、ユーザが自身の感情状態を感覚的に選択することができるとともに、ユーザによって選択された画像からユーザの現在の感情状態を容易に特定することができる。
本開示の一実施の形態に係るコンテンツ提供システムの構成の一例を示す図である。 本開示の一実施の形態に係る端末装置の構成の一例を示すブロック図である。 本開示の一実施の形態に係るサーバの構成の一例を示すブロック図である。 本実施の形態における画像データベースの一例を示す図である。 本実施の形態における画像に対するアンケートの一例を示す図である。 本実施の形態において、ユーザに提示される画像の一例を示す図である。 本実施の形態において、複数の感情の強度を対応付けた画像の一例を示す図である。 本開示の一実施の形態に係るコンテンツ提供装置の構成の一例を示すブロック図である。 本開示の一実施の形態に係るスピーカ装置の構成の一例を示すブロック図である。 本実施の形態における端末装置及びサーバの動作について説明するためのフローチャートである。 本実施の形態において、ユーザIDと複数の画像の表示位置とを対応付けた表示位置データベースの一例を示す図である。 本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の一例を示す図である。 本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の第1の変形例を示す図である。 本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の第2の変形例を示す図である。 本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の第3の変形例を示す図である。 本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の第4の変形例を示す図である。 本実施の形態において、端末装置の表示部に表示される第1画像選択画面の一例を示す図である。 本実施の形態において、端末装置の表示部に表示される第2画像選択画面の一例を示す図である。 本実施の形態において、端末装置の表示部に表示される画像選択画面の一例を示す図である。 本実施の形態において、ユーザが目標とする感情状態を表した座標点の入力前に、端末装置の表示部に表示される座標選択画面の一例を示す図である。 本実施の形態において、ユーザが目標とする感情状態を表した座標点の入力後に、端末装置の表示部に表示される座標選択画面の一例を示す図である。 本実施の形態におけるコンテンツ提供装置及びスピーカ装置の動作について説明するためのフローチャートである。 本実施の形態において、音楽コンテンツの出力開始時に表示されるコンテンツ提示画面の一例を示す図である。 本実施の形態において、音楽コンテンツの出力中に表示されるコンテンツ提示画面の一例を示す図である。 本実施の形態における音楽コンテンツに対するアンケートの一例を示す図である。 本実施の形態における覚醒度の補正について説明するための図である。 本実施の形態におけるユーザの生体情報に応じた音楽コンテンツの決定について説明するための図である。 本実施の形態において、リカレンスプロットにより作成された複数の画像の一例を示す図である。 本開示の実施の形態の変形例に係る端末装置の構成の一例を示すブロック図である。
(本開示の基礎となった知見)
上記の特許文献1の技術では、生体データに基づいてユーザの現在の感情状態を示す現在感情状態値を算出しているが、複数の感情状態を示す複数の画像がユーザに提示されることはなく、複数の画像の中からユーザの現在の感情状態を示す画像が選択されることはない。
また、上記の特許文献2の技術では、画像データから抽出される画像情報に基づいて、複数の画像データを含む画像データ群毎にテーマ性が解析される。テーマ性は、所定の評価基準を示す複数の特徴軸に基づいた特徴量空間上で示される。特徴軸としては、「静的−動的」、「可愛い−格好いい」及び「理性的−感情的」の3つの軸が挙げられている。各特徴軸の特徴量は数値で表される。
このように、特許文献2では、画像データ群のテーマ性が、所定の評価基準を示す複数の特徴軸に基づいた特徴量空間上で示されるが、複数の感情状態を示す複数の画像がユーザに提示されることはなく、複数の画像の中からユーザの現在の感情状態を示す画像が選択されることはない。
そのため、上記のいずれの従来技術でも、ユーザは、自身の感情状態を感覚的に選択することができず、ユーザの視覚によって現在の感情状態が特定されない。
以上の課題を解決するために、本開示の一態様に係るコンテンツ選択方法は、コンピュータが、少なくとも1つの感情の強度と対応付けられた複数の画像を取得し、ディスプレイに前記複数の画像を選択可能に表示させ、前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記ユーザの現在の感情状態を示す現在感情状態として取得し、前記ユーザが目標とする感情状態を示す目標感情状態を取得し、前記現在感情状態から前記目標感情状態に変化させるためのコンテンツを決定し、前記コンテンツを出力する。
この構成によれば、ディスプレイに表示された複数の画像のうちのユーザによって選択された画像に対応付けられた少なくとも1つの感情の強度が、ユーザの現在の感情状態を示す現在感情状態として取得されるので、ユーザが自身の感情状態を感覚的に選択することができるとともに、ユーザによって選択された画像からユーザの現在の感情状態を容易に特定することができる。
また、上記のコンテンツ選択方法において、さらに、前記ユーザを識別するためのユーザ識別情報を取得し、前記複数の画像の取得において、前記ユーザ識別情報に予め対応付けられている前記複数の画像を取得してもよい。
この構成によれば、ユーザを識別するためのユーザ識別情報が取得され、ユーザ識別情報に予め対応付けられている複数の画像が取得されるので、複数の画像に対して、ユーザ毎に異なる感情の強度を対応付けることができ、より正確なユーザの感情の強度を取得することができる。
また、上記のコンテンツ選択方法において、さらに、前記現在感情状態を取得した後、前記ディスプレイに前記複数の画像を選択可能に表示させ、前記目標感情状態の取得において、前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記目標感情状態として取得してもよい。
この構成によれば、現在感情状態が取得された後、ディスプレイに表示された複数の画像のうちのユーザによって選択された画像に対応付けられた少なくとも1つの感情の強度が、目標感情状態として取得されるので、目標感情状態についても、複数の画像の中から感覚的に選択することができるとともに、ユーザによって選択された画像からユーザが目標とする感情状態を容易に特定することができる。
また、上記のコンテンツ選択方法において、前記現在感情状態は、2つの感情の強度を縦軸及び横軸で表す座標平面上の座標値で表され、さらに、前記現在感情状態を取得した後、前記現在感情状態を示す座標点とともに前記座標平面を前記ディスプレイに表示させ、前記目標感情状態の取得において、前記座標平面上において前記ユーザによって選択された前記目標感情状態を示す座標点の座標値を、前記目標感情状態として取得してもよい。
この構成によれば、現在感情状態は、2つの感情の強度を縦軸及び横軸で表す座標平面上の座標値で表される。現在感情状態を取得した後、現在感情状態を示す座標点とともに座標平面がディスプレイに表示され、座標平面上においてユーザによって選択された目標感情状態を示す座標点の座標値が、目標感情状態として取得される。したがって、ユーザが目標とする感情状態を座標平面上から容易に選択することができる。
また、上記のコンテンツ選択方法において、前記複数の画像の表示において、第1の感情の強度に対応付けられた複数の画像を表示させ、さらに、前記複数の画像が表示されてから前記ユーザによって前記画像が選択されるまでの選択時間を計測し、さらに、計測した前記選択時間が所定時間以下である場合、前記第1の感情の強度とは異なる第2の感情の強度に対応付けられた複数の画像を選択可能に表示させてもよい。
この構成によれば、第1の感情の強度に対応付けられた複数の画像が表示されてからユーザによって画像が選択されるまでの選択時間が計測される。そして、計測された選択時間が所定時間以下である場合、第1の感情の強度とは異なる第2の感情の強度に対応付けられた複数の画像が選択可能に表示される。
したがって、ユーザが自身の感情に応じた画像を選択することに慣れ、選択時間が短縮された場合、より詳細にユーザの感情を取得するための複数の画像がさらに表示されるので、より正確なユーザの感情の強度を取得することができる。
また、上記のコンテンツ選択方法において、さらに、取得した前記現在感情状態の履歴を記憶し、さらに、前回取得した前記現在感情状態の前記感情の強度と前々回取得した前記現在感情状態の前記感情の強度との差分が閾値以上である場合、前記感情の強度の優先度を上げ、前記複数の画像の表示において、前記優先度の高い前記感情の強度に対応付けられる前記複数の画像を順番に表示させてもよい。
この構成によれば、前回取得した現在感情状態の感情の強度が、前々回取得した現在感情状態の感情の強度から大きく変化した場合、当該感情の強度が優先して取得されるので、より変化の大きい感情の強度を優先して取得することができる。
また、上記のコンテンツ選択方法において、さらに、現在の時刻と、選択した前記画像の特徴量とに基づいて、取得した前記現在感情状態を補正してもよい。
この構成によれば、現在の時刻と、選択された画像の特徴量とに基づいて、取得された現在感情状態が補正されるので、例えば、時間帯によって画像の見え方が異なる場合に、見え方の違いを補正することができる。
また、上記のコンテンツ選択方法において、さらに、前記ユーザの生体情報を取得し、さらに、取得した前記生体情報に基づいて、取得した前記現在感情状態を補正してもよい。
この構成によれば、ユーザの生体情報が取得され、取得された生体情報に基づいて、取得された現在感情状態が補正されるので、例えば、ユーザの体の状態に応じて画像の見え方が異なる場合に、見え方の違いを補正することができる。
本開示の他の態様に係るコンテンツ選択装置は、少なくとも1つの感情の強度と対応付けられた複数の画像を取得する画像取得部と、ディスプレイに前記複数の画像を選択可能に表示させる表示制御部と、前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記ユーザの現在の感情状態を示す現在感情状態として取得する現在感情状態取得部と、前記ユーザが目標とする感情状態を示す目標感情状態を取得する目標感情状態取得部と、前記現在感情状態から前記目標感情状態に変化させるためのコンテンツを決定するコンテンツ決定部と、前記コンテンツを出力する出力部と、を備える。
この構成によれば、ディスプレイに表示された複数の画像のうちのユーザによって選択された画像に対応付けられた少なくとも1つの感情の強度が、ユーザの現在の感情状態を示す現在感情状態として取得されるので、ユーザが自身の感情状態を感覚的に選択することができるとともに、ユーザによって選択された画像からユーザの現在の感情状態を容易に特定することができる。
本開示の他の態様に係るコンテンツ選択プログラムは、少なくとも1つの感情の強度と対応付けられた複数の画像を取得し、ディスプレイに前記複数の画像を選択可能に表示させ、前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記ユーザの現在の感情状態を示す現在感情状態として取得し、前記ユーザが目標とする感情状態を示す目標感情状態を取得し、前記現在感情状態から前記目標感情状態に変化させるためのコンテンツを決定し、前記コンテンツを出力するようにコンピュータを機能させる。
この構成によれば、ディスプレイに表示された複数の画像のうちのユーザによって選択された画像に対応付けられた少なくとも1つの感情の強度が、ユーザの現在の感情状態を示す現在感情状態として取得されるので、ユーザが自身の感情状態を感覚的に選択することができるとともに、ユーザによって選択された画像からユーザの現在の感情状態を容易に特定することができる。
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
(実施の形態)
図1は、本開示の一実施の形態に係るコンテンツ提供システムの構成の一例を示す図である。図1に示すコンテンツ提供システムは、端末装置1、サーバ2、コンテンツ提供装置3及びスピーカ装置4を備える。
端末装置1は、例えば、パーソナルコンピュータ、タブレット型コンピュータ又はスマートフォンであり、ユーザが存在する空間に配置されている。
サーバ2は、ユーザの現在の感情状態を示す現在感情状態を取得するとともに、ユーザの目標とする感情状態を示す目標感情状態を取得する。端末装置1とサーバ2とは、インターネットなどのネットワーク5を介して互いに通信可能に接続されている。
コンテンツ提供装置3は、例えば、プロセッサ及びメモリ等を備えるサーバであり、ユーザの現在感情状態を目標感情状態に変化させるためのコンテンツを提供する。なお、本実施の形態では、コンテンツ提供装置3は、コンテンツの一例として、音楽コンテンツをユーザに提供するが、本開示は特にこれに限定されない。コンテンツ提供装置3は、ユーザの感情状態を変化させるための映像コンテンツを提供してもよい。また、コンテンツ提供装置3は、ユーザがいる空間内の照明の色を変化させることにより、ユーザの感情状態を変化させる照明コンテンツを提供してもよい。サーバ2とコンテンツ提供装置3とは、ネットワーク5を介して互いに通信可能に接続されている。
スピーカ装置4は、ユーザが存在する空間に配置されている。スピーカ装置4は、コンテンツ提供装置3から受信した音楽コンテンツを出力する。なお、映像コンテンツがユーザに提供される場合、コンテンツ提供システムは、スピーカ装置4に替えて表示装置を備えてもよい。また、照明コンテンツがユーザに提供される場合、コンテンツ提供システムは、スピーカ装置4に替えて照明装置を備えてもよい。
図2は、本開示の一実施の形態に係る端末装置の構成の一例を示すブロック図である。
図2に示す端末装置1は、表示部11、入力部12、通信部13、プロセッサ14及びメモリ15を備える。
表示部11は、例えば、液晶表示装置であり、種々の情報を表示する。表示部11は、ユーザを識別するためのユーザIDのユーザによる入力を受け付けるためのユーザID入力画面を表示する。表示部11は、少なくとも1つの感情の強度と対応付けられた複数の画像を選択可能に表示する。表示部11は、複数の画像の中から、ユーザの現在の感情状態を表した1の画像のユーザによる選択を受け付けるための第1画像選択画面を表示する。表示部11は、複数の画像の中から、ユーザが目標とする感情状態を表した1の画像のユーザによる選択を受け付けるための第2画像選択画面を表示する。
入力部12は、例えば、キーボード、マウス又はタッチパネルディスプレイであり、ユーザによる種々の情報の入力を受け付ける。入力部12は、ユーザIDのユーザによる入力を受け付ける。入力部12は、複数の画像の中から、ユーザの現在の感情状態を表した1の画像のユーザによる選択を受け付ける。入力部12は、複数の画像の中から、ユーザが目標とする感情状態を表した1の画像のユーザによる選択を受け付ける。
通信部13は、サーバ2へ種々の情報を送信するとともに、サーバ2から種々の情報を受信する。通信部13は、入力部12によって入力されたユーザIDをサーバ2へ送信する。通信部13は、複数の画像を含む画像データをサーバ2から受信する。通信部13は、ユーザによって選択された現在の感情状態を表した1の画像を識別するための第1画像IDをサーバ2へ送信する。通信部13は、ユーザによって選択された目標とする感情状態を表した1の画像を識別するための第2画像IDをサーバ2へ送信する。
プロセッサ14は、例えば、CPU(中央演算処理装置)であり、表示制御部141、入力制御部142及び通信制御部143を備える。
表示制御部141は、表示部11の表示動作を制御する。表示制御部141は、ユーザIDのユーザによる入力を受け付けるためのユーザID入力画面を表示部11に表示させる。表示制御部141は、表示部11に複数の画像を選択可能に表示させる。表示制御部141は、複数の画像の中から、ユーザの現在の感情状態を表した1の画像のユーザによる選択を受け付けるための第1画像選択画面を表示部11に表示させる。表示制御部141は、複数の画像の中から、ユーザが目標とする感情状態を表した1の画像のユーザによる選択を受け付けるための第2画像選択画面を表示部11に表示させる。
入力制御部142は、入力部12の入力受付動作を制御する。入力制御部142は、ユーザIDのユーザによる入力を受け付けるように入力部12を制御する。入力制御部142は、複数の画像の中から、ユーザの現在の感情状態を表した1の画像のユーザによる選択を受け付けるように入力部12を制御する。入力制御部142は、複数の画像の中から、ユーザが目標とする感情状態を表した1の画像のユーザによる選択を受け付けるように入力部12を制御する。
通信制御部143は、通信部13の通信動作及び送信動作を制御する。通信制御部143は、入力部12によって入力されたユーザIDをサーバ2へ送信するように通信部13を制御する。通信制御部143は、通信部13によって受信された画像データを画像データ記憶部151に記憶する。通信制御部143は、入力部12によって選択された第1画像IDをサーバ2へ送信するように通信部13を制御する。また、通信制御部143は、入力部12によって選択された第2画像IDをサーバ2へ送信するように通信部13を制御する。
メモリ15は、例えば、半導体メモリ又はハードディスクドライブであり、画像データ記憶部151を備える。
画像データ記憶部151は、通信部13によって受信された画像データを記憶する。
図3は、本開示の一実施の形態に係るサーバの構成の一例を示すブロック図である。
図3に示すサーバ2は、通信部21、プロセッサ22及びメモリ23を備える。
通信部21は、端末装置1によって送信されたユーザIDを受信する。通信部21は、画像データを端末装置1へ送信する。通信部21は、ユーザの現在の感情状態を表した1の画像を識別するための第1画像IDを端末装置1から受信する。通信部21は、ユーザが目標とする感情状態を表した1の画像を識別するための第2画像IDを端末装置1から受信する。通信部21は、ユーザの現在の感情状態を示す現在感情状態と、ユーザが目標とする感情状態を示す目標感情状態とをコンテンツ提供装置3へ送信する。
メモリ23は、例えば、半導体メモリ又はハードディスクドライブであり、画像データベース記憶部231を備える。
画像データベース記憶部231は、少なくとも1つの感情の強度と、複数の画像のそれぞれとを対応付けた画像データベースを記憶する。
ここで、画像データベースについて説明する。
図4は、本実施の形態における画像データベースの一例を示す図である。
図4に示すように、画像データベースは、画像を識別するための画像IDと、画像特徴量と、少なくとも1つの感情の強度とを対応付けている。画像特徴量は、画像の色相を示す第1画像特徴量と、画像の彩度を示す第2画像特徴量と、画像の明度を示す第3画像特徴量とを含む。
なお、画像データベースは、画像IDごとに、画像特徴量を対応付けている。例えば、外部のデータベースに画像が記憶されている場合、画像データベースの画像IDに対応する画像が外部のデータベースから取得されてもよく、また、画像データベースの画像特徴量と同じ画像特徴量を有する画像が外部のデータベースから取得されてもよい。
感情の強度は、例えば、覚醒度の値及び感情価の値で表される。また、現在感情状態及び目標感情状態は、2つの感情の強度を縦軸及び横軸で表す座標平面上の座標値で表される。すなわち、現在感情状態及び目標感情状態は、縦軸が覚醒度であり、横軸が感情価である2次元座標の座標値で表される。当該2次元座標は、ラッセルの円環図(circumplex model of affect)に基づくものである(James A. Russell、「A Circumplex Model of Affect」、Journal of Personality and Social Psychology、1980、Vol.39、No.6、1161−1178)。覚醒度は、−1.0(鎮静)から+1.0(覚醒)までの値で示され、感情価は、−1.0(不快)から+1.0(快適)までの値で示される。覚醒度の値と感情価の値とによりユーザの感情状態が表される。
なお、本実施の形態では、画像に対して対応付けられる感情の強度は、覚醒度の値及び感情価の値であるが、本開示は特にこれに限定されない。画像に対して対応付けられる感情の強度は、覚醒度の値、感情価の値、緊張感を示す値、複雑性を示す値及びストレス感を示す値のうちの少なくとも1つであってもよい。
感情の強度は、無次元量で規定されてもよい。例えば、覚醒度の値が大きければ、覚醒度が高いことを示す。感情の強度は、所定の基準に基づいて、正の値及び負の値で表されてもよい。
ここで、感情の強度と画像の特徴量との関係について説明する。例えば、覚醒度の値が高い画像には、覚醒度の値が低い画像よりも、赤色成分が多く含まれている。また、感情価の値が高い画像の明度は、感情価の値が低い画像の明度よりも高い。また、緊張感の値が高い画像には、緊張感の値が低い画像よりも、黄色成分が多く含まれている。また、複雑性の値が高い画像は、複雑性の値が低い画像よりも、多くの色を有している。また、複雑性の値が高い画像の例としては、迷彩模様のような、複数の色の境界線が曲線で表された画像である。また、ストレス感の高い画像は、ストレス感の低い画像よりも、多くの色を有している。ストレス感の値が高い画像の例としては、複数の色の境界線が鋭角を有する画像である。
続いて、画像データベースを作成する方法について説明する。
画像データベースに格納される画像と感情の強度とは、画像の特徴量と、ユーザへのアンケート結果又はユーザの生体情報の計測結果とに基づいて、対応付けられる。例えば、1つの画像について、覚醒度、感情価、緊張感、複雑性及びストレス感などの感情の強度が対応付けられる。
また、ユーザに画像が提示され、提示された画像に対するユーザの評価がアンケート結果として取得される。これにより、画像と感情の強度とが対応付けられる。例えば、写真画像又はデザインされた画像がユーザに提示され、提示された画像に対して複数の感情をユーザが7段階で評価するアンケートが実施される。例えば、複数の感情それぞれの評価スコアと画像との関係に基づいて画像と感情の強度とが対応付けられる。なお、一人のユーザのアンケート結果が用いられてもよいし、複数のユーザのアンケート結果の平均が用いられてもよい。
画像セットに含まれる複数の画像のうちの一部の画像に対するユーザのアンケート結果に基づいて、ユーザに提示していない他の画像の感情の強度が付与されてもよい。例えば、画像と、画像に対する複数のユーザの評価結果とを用いて推定モデルが学習され、学習済みの推定モデルを用いて、提示していない画像の感情の強度が推定されてもよい。また、一部の画像に対するアンケート結果と一部の画像の特徴量とを用いて推定モデルが学習され、学習済みの推定モデルを用いて、他の画像の感情の強度が推定されてもよい。
また、ユーザの生体情報の計測結果が用いられる場合には、ユーザの生体情報の計測結果と感情の強度との対応関係が参照されて、計測結果に基づいて、画像と感情の強度との対応付けが決定される。例えば、生体情報としては、脳波、脈波又は心電図などが利用可能である。
図5は、本実施の形態における画像に対するアンケートの一例を示す図である。
例えば、複数の画像のうちの1つの画像がユーザに提示される。そして、提示された画像に対するユーザの評価が受け付けられる。図5に示す例は、1つの画像について、複数の感情の各項目に対する複数のユーザの評価を平均したアンケート結果を表示している。図5に示すアンケートでは、1つの画像に対して、覚醒度、明暗(感情価)、緊張感及び複雑性の4つの感情が評価される。各感情は、7段階で評価される。図5において、覚醒度の評価の平均は6.7であり、明暗(感情価)の評価の平均は6.4であり、緊張感の評価の平均は1.5であり、複雑性の評価の平均は1.2である。各感情の評価の平均が、−1.0〜+1.0の値に正規化され、感情の強度として画像に対応付けられる。例えば、アンケートでは、直接的に感情と対応付ける評価結果が取得されてもよいが、明暗(感情価)のような画像の特徴量に近い評価結果が取得されて、他の画像への感情評価の基準が取得されてもよい。
また、例えば、明暗(感情価)の感情状態のみが画像に対応付けられてもよい。サーバ2は、音楽コンテンツの出力後に、ユーザの感情状態をフィードバックとして取得してもよい。ユーザの直接的な感情状態ではなく、明暗の形式で表した感情状態の方がユーザに適した音楽コンテンツを決定できる場合には、サーバ2は、音楽コンテンツ出力後のフィードバック結果に応じて、現在感情状態及び目標感情状態を取得してもよい。画像特徴量に関連する情報に基づいて、感情状態を取得し、音楽コンテンツを決定することができる。
図6は、本実施の形態において、ユーザに提示される画像の一例を示す図である。
画像は、色、図形及び模様の少なくとも1つにより表現されてもよい。図6では、例えば、色のみ、図形のみ又は模様のみで表現される画像を示す。画像は、複数の要素を組み合わせて表現してもよい。また、例えば、ユーザに依存して、画像の印象の影響を受けやすい感情の項目がある可能性がある。音楽コンテンツ出力後のフィードバック結果に応じて、画像の印象の影響を受けやすい感情の項目を含む画像を用いて、感情状態が取得されてもよい。
図7は、本実施の形態において、複数の感情の強度を対応付けた画像の一例を示す図である。
図7に示すように、縦軸が覚醒度であり、横軸が感情価である2次元座標平面上に、覚醒度及び感情価の値に応じた複数の画像が配置される。ここで、覚醒度及び感情価に加えて、緊張感又はストレス感の感情を画像に対応付けることが可能である。例えば、覚醒度、感情価及び緊張感を画像に対応付ける場合、画像1000は、覚醒度及び感情価を表現した第1領域1001と、第1領域1001の外縁に接した緊張感を表現した第2領域1002とを含んでもよい。第2領域1002は、緊張感を増加せる黄色成分を含む。例えば、表示位置毎に、第2領域1002の黄色成分の含有量を変化させることにより、緊張感の強度を変化させることが可能である。第2領域1002の黄色成分が増加することにより、緊張感は増加する。
また、例えば、覚醒度、感情価及びストレス感を画像に対応付ける場合、画像1010は、第1の色を有する第1領域1011と、第1の色とは異なる第2の色を有する第2領域1012とを含む。第1領域1011及び第2領域1012により、覚醒度及び感情価が表現される。第1領域1011と第2領域1012との境界線1013は、少なくとも1つの鋭角部分を含む。鋭角部分の数により、ストレス感が表現される。例えば、表示位置毎に、鋭角部分の数を変化させることにより、ストレス感の強度を変化させることが可能である。境界線1013の鋭角部分の数が増加することにより、ストレス感は増加する。
プロセッサ22は、例えば、CPUであり、画像取得部221、現在感情状態取得部222、目標感情状態取得部223及び通信制御部224を備える。
画像取得部221は、画像データベース記憶部231から、少なくとも1つの感情の強度と対応付けられた複数の画像を取得する。通信部21は、画像取得部221によって取得された複数の画像を含む画像データを端末装置1へ送信する。
現在感情状態取得部222は、複数の画像のうちのユーザによって選択された画像に対応付けられた少なくとも1つの感情の強度を、ユーザの現在の感情状態を示す現在感情状態として取得する。現在感情状態取得部222は、通信部21によって受信されたユーザの現在の感情状態を表した1の画像を識別するための第1画像IDに対応付けられた感情の強度を、現在感情状態として画像データベース記憶部231から取得する。
目標感情状態取得部223は、ユーザが目標とする感情状態を示す目標感情状態を取得する。目標感情状態取得部223は、通信部21によって受信されたユーザが目標とする感情状態を表した1の画像を識別するための第2画像IDに対応付けられた感情の強度を、目標感情状態として画像データベース記憶部231から取得する。
通信制御部224は、通信部21の送信動作及び受信動作を制御する。通信制御部224は、端末装置1によって送信されたユーザIDを受信するように通信部21を制御する。通信制御部224は、画像データを端末装置1へ送信するように通信部21を制御する。通信制御部224は、ユーザの現在の感情状態を表した1の画像を識別するための第1画像IDを端末装置1から受信するように通信部21を制御する。通信制御部224は、ユーザが目標とする感情状態を表した1の画像を識別するための第2画像IDを端末装置1から受信するように通信部21を制御する。通信制御部224は、現在感情状態及び目標感情状態をコンテンツ提供装置3へ送信するように通信部21を制御する。
図8は、本開示の一実施の形態に係るコンテンツ提供装置の構成の一例を示すブロック図である。
図8に示すコンテンツ提供装置3は、通信部31、プロセッサ32及びメモリ33を備える。
通信部31は、サーバ2によって送信された現在感情状態及び目標感情状態を受信する。通信部31は、音楽コンテンツ決定部321によって決定された音楽コンテンツをスピーカ装置4へ送信する。
メモリ33は、例えば、半導体メモリ又はハードディスクドライブであり、音楽コンテンツ記憶部331を備える。
音楽コンテンツ記憶部331は、複数の音楽コンテンツを記憶している。音楽コンテンツ記憶部331は、音楽コンテンツを識別するための曲IDと、曲名と、現在感情状態と目標感情状態との差分を示す感情状態変化値とを、音楽コンテンツに対応付けて記憶している。
プロセッサ32は、例えば、CPUであり、音楽コンテンツ決定部321及び通信制御部322を備える。
音楽コンテンツ決定部321は、現在感情状態から目標感情状態に変化させるためのコンテンツを決定する。本実施の形態におけるコンテンツは、音楽コンテンツである。音楽コンテンツ決定部321は、通信部31によって受信された現在感情状態及び目標感情状態の差分を示す感情状態変化値を算出する。音楽コンテンツ決定部321は、算出した感情状態変化値に対応付けられている音楽コンテンツを、音楽コンテンツ記憶部331から取得する。
例えば、現在感情状態である覚醒度及び感情価が−0.5及び−0.5であり、目標感情状態である覚醒度及び感情価が+0.3及び+0.6である場合、感情状態変化値(覚醒度の差分及び感情価の差分)は、+0.8及び+1.1となる。音楽コンテンツ決定部321は、感情状態変化値である覚醒度の差分(+0.8)及び感情価の差分(+1.1)に対応付けられている音楽コンテンツを、音楽コンテンツ記憶部331から取得する。
通信制御部322は、サーバ2によって送信された現在感情状態及び目標感情状態を受信するように通信部31を制御する。通信制御部322は、音楽コンテンツ決定部321によって決定された音楽コンテンツをスピーカ装置4へ送信するように通信部31を制御する。
図9は、本開示の一実施の形態に係るスピーカ装置の構成の一例を示すブロック図である。
図9に示すスピーカ装置4は、通信部41、プロセッサ42及びスピーカ43を備える。
通信部41は、コンテンツ提供装置3によって送信された音楽コンテンツを受信する。
プロセッサ42は、例えば、CPUであり、音楽コンテンツ出力制御部421及び通信制御部422を備える。
音楽コンテンツ出力制御部421は、通信部41によって受信された音楽コンテンツを出力するようにスピーカ43を制御する。
通信制御部422は、コンテンツ提供装置3によって送信された音楽コンテンツを受信するように通信部41を制御する。
スピーカ43は、コンテンツを出力する。本実施の形態におけるコンテンツは、音楽コンテンツである。
続いて、本実施の形態におけるコンテンツ提供システムの動作について説明する。
図10は、本実施の形態における端末装置及びサーバの動作について説明するためのフローチャートである。
まず、ステップS1において、端末装置1の表示部11は、ユーザIDのユーザによる入力を受け付けるためのユーザID入力画面を表示する。
次に、ステップS2において、入力部12は、表示部11に表示されたユーザID入力画面において、ユーザIDのユーザによる入力を受け付ける。
次に、ステップS3において、通信部13は、入力部12によって受け付けられたユーザIDをサーバ2へ送信する。
次に、ステップS4において、サーバ2の通信部21は、端末装置1によって送信されたユーザIDを受信する。
次に、ステップS5において、画像取得部221は、通信部21によって受信されたユーザIDに対応する複数の画像を画像データベース記憶部231から取得する。
ここで、ユーザIDには、複数の画像が予め対応付けられている。また、ユーザIDに対応付けられている複数の画像は、予め表示位置が決められている。
図11は、本実施の形態において、ユーザIDと複数の画像の表示位置とを対応付けた表示位置データベースの一例を示す図であり、図12は、本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の一例を示す図である。
図11に示すように、表示位置データベースは、ユーザIDと複数の画像の表示位置とを予め対応付けている。なお、表示位置データベースは、メモリ23に記憶される。
画像取得部221は、ユーザを識別するためのユーザID(ユーザ識別情報)を取得する。画像取得部221は、ユーザID(ユーザ識別情報)に予め対応付けられている複数の画像を取得する。表示位置データベースが記憶されている場合、表示位置データベースに含まれる複数の画像毎の表示位置の情報に基づいて、表示部11に複数の画像が表示される。
図12に示すように、表示部11は、ユーザの選択操作を2階層にし、第1の画面1111で大雑把に選んだムードを、第2の画面1112でより詳しく選択させてもよい。図12の第1の画面1111は、図12の画像群1113を大雑把に表している。まず、表示部11は、第1の画面1111を表示する。例えば、ユーザは、図12の第1の画面1111の座標(3,3)の画像を選択する。この場合、次に、表示部11は、図12の画像群1113のうち、座標(7,7)から座標(9,9)の9個の画像を第2の画面1112として表示する。この操作を用いることにより、ユーザは、図12の第1の画面1111で選択した情動の軸上の領域を、より詳しく選択することができる。
なお、第1の画面1111の各画像は、画像群1113を3×3ごとに区切った時の左上の画像を使用してもよい。例えば、第1の画面1111の座標(1,1)の画像は画像群1113の座標(1,1)の画像を使用してもよく、第1の画面1111の座標(1,2)は画像群1113の座標(1,4)の画像を使用してもよく、第1の画面1111の座標(3,3)は画像群1113の座標(7,7)の画像を使用してもよい。
表示部11は、3×3の9個の第1の画像セットを表示し、第1の画像セットのうちの1の画像の選択を受け付ける。そして、第1の画像セットのうちの1の画像が選択された場合、表示部11は、当該1の画像に対応付けられた3×3の9個の第2の画像セットを表示し、第2の画像セットのうちの1の画像の選択を受け付ける。この場合、画像データベース記憶部231は、図12に示す9×9の81個の画像を含む画像群1113を3×3の9個の画像として大雑把に示した第1の画像セットと、第1の画像セットの各画像に対応する領域を、より詳細な3×3の9個の画像として示した第2の画像セットとを記憶する。第1の画像セットの1の画像は、第1の画面の座標(1,1)〜(1,3)、(2,1)〜(2,3)、(3,1)〜(3,3)の9個のいずれかの画像である。また、第2の画像セットの1の画像は、例えば、第2の画面の座標(7,7)〜(9,9)のいずれかの画像である。
図13は、本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の第1の変形例を示す図である。
図13に示すように、端末装置1の表示部11には、縦方向及び横方向に9つずつ画像が表示されてもよい。図13の座標(1,1)〜座標(9,9)は、各画像の表示位置を示している。
また、表示部11は、図13に示すように9×9の81個の画像を1つの画面に表示してもよいが、画面のサイズが小さい場合、個々の画像を視認することが困難となるおそれがある。そこで、表示部11は、81個の画像の一部を画面上に視認可能に表示し、縦方向及び横方向にスクロールすることにより、全ての画像を表示してもよい。
なお、本実施の形態では、画像データベース記憶部231は、予めユーザ毎に、画像群を記憶しているが、本開示は特にこれに限定されず、ユーザ毎に、複数の画像群を記憶してもよい。画像取得部221は、例えば、利用時間、利用日(平日又は休日)、又は利用空間中の他人の存在の有無などの情報に基づいて、複数の画像群の中から1の画像群を取得してもよい。また、端末装置1は、ユーザに、複数の感情を提示し、提示した複数の感情の中から、最も関心がある感情の選択を受け付けてもよい。画像取得部221は、選択された感情に基づいて、画像群を選択してもよい。
上記のように、事前にコンテンツ提供システムを利用するユーザに対してアンケートを行い、当該ユーザを識別するユーザIDと複数の画像とを予め対応付けておくことにより、当該ユーザの現在感情状態及び目標感情状態をより正確に取得することが可能となる。
なお、本実施の形態では、ユーザIDが取得されるが、本開示は特にこれに限定されず、ユーザIDが取得されなくてもよい。この場合、ユーザIDの入力を受け付ける処理が不要となり、ユーザIDと複数の画像とを予め対応付けた表示位置データベースが記憶されていなくてもよい。
また、表示位置データベースが記憶されていない場合、複数の画像毎の感情の強度に関する値に基づいて、表示部11に複数の画像が表示されてもよい。
図14は、本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の第2の変形例を示す図である。
例えば、感情の強度である覚醒度の値及び感情価の値に応じて表示位置が決定されてもよい。図14に示すように、表示画面において、縦軸が覚醒度であり、横軸が感情価であり、それぞれの値に応じた位置に画像が表示されてもよい。
図14に示すように、表示部11は、ユーザの選択操作を2階層にし、第1の画面1121で大雑把に選んだムードを、第2の画面1122でより詳しく選択させてもよい。図14の第1の画面1121は、図14の画像群1123を大雑把に表している。まず、表示部11は、第1の画面1121を表示する。例えば、ユーザは、図14の第1の画面1121の座標(3,3)の画像を選択する。この場合、次に、表示部11は、図14の画像群1123のうち、座標(7,7)から座標(9,9)の9個の画像を第2の画面1122として表示する。この操作を用いることにより、ユーザは、図14の第1の画面1121で選択した情動の軸上の領域を、より詳しく選択することができる。
なお、第1の画面1121の各画像は、画像群1123を3×3ごとに区切った時の左上の画像を使用してもよい。例えば、第1の画面1121の座標(1,1)の画像は画像群1123の座標(1,1)の画像を使用してもよく、第1の画面1121の座標(1,2)は画像群1123の座標(1,4)の画像を使用してもよく、第1の画面1121の座標(3,3)は画像群1123の座標(7,7)の画像を使用してもよい。
表示部11は、3×3の9個の第1の画像セットを表示し、第1の画像セットのうちの1の画像の選択を受け付けてもよい。そして、第1の画像セットのうちの1の画像が選択された場合、表示部11は、当該1の画像に対応付けられた3×3の9個の第2の画像セットを表示し、その後に第2の画像セットのうちの1の画像の選択を受け付けてもよい。この場合、画像データベース記憶部231は、覚醒度が縦軸であり感情価が横軸である座標平面上の画像群1123を3×3の9個の画像に分割した第1の画像セットと、第1の画像セットの各画像に対応する領域を3×3の9個の画像に分割した第2の画像セットとを記憶する。第1の画像セットの1の画像は、第1の画面の座標(1,1)〜(1,3)、(2,1)〜(2,3)、(3,1)〜(3,3)の9個のいずれかの画像である。また、第2の画像セットの1の画像は、例えば、第2の画面の座標(7,7)〜(9,9)のいずれかの画像である。
図15は、本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の第3の変形例を示す図である。
図15に示すように、端末装置1の表示部11には、縦方向及び横方向に9つずつ画像が表示されてもよい。図15に示すように、表示画面において、縦軸が覚醒度であり、横軸が感情価であり、それぞれの値に応じた位置に画像が表示されてもよい。
また、表示部11は、図15に示すように9×9の81個の画像を1つの画面に表示してもよいが、画面のサイズが小さい場合、個々の画像を視認することが困難となるおそれがある。そこで、表示部11は、81個の画像の一部を画面上に視認可能に表示し、縦方向及び横方向にスクロールすることにより、全ての画像を表示してもよい。
また、表示部11は、図15に示す9×9の81個の画像を表示せずに、覚醒度が縦軸であり感情価が横軸である座標平面を表示し、座標平面上におけるユーザの現在感情状態に対応する位置の選択を受け付けてもよい。そして、表示部11は、座標平面上の選択された位置を含む画像を中心とする3×3の9個の画像セットを表示し、画像セットのうちの1の画像の選択を受け付けてもよい。
また、各画像に2個以上の感情の強度が対応付けられている場合、端末装置1の表示制御部141は、2個以上の感情の強度のうちの2個の感情の強度を選択し、2個の感情の強度を用いて複数の画像を2次元で表示してもよい。また、表示制御部141は、各画像に対応付けられた感情の数に応じて、複数の画像を1次元〜多次元で表示してもよい。なお、ユーザの視認性の観点から、複数の画像は2次元で表示することが望ましい。
また、表示制御部141は、2個以上の感情の強度のうちの1の感情の強度に対応付けられた複数の画像を1次元で表示し、ユーザによる選択を受け付けた後、さらに、2個以上の感情の強度のうちの他の感情の強度に対応付けられた複数の画像を1次元で表示し、ユーザによる選択を受け付けてもよい。
図16は、本実施の形態において、端末装置の表示部に表示される複数の画像の表示位置の第4の変形例を示す図である。
図16に示す第1の画面1131では、感情を表す画像を覚醒度と感情価との2軸で示している。縦軸が覚醒度であり、横軸が感情価である。第1の画面1131は、3×3の画像を含む。例えば、ユーザが、第1の画面1131の左上の画像を選択した場合、ユーザの選択した感情が、興奮且つネガティブな感情であることはわかる。しかしながら、第1の画面1131だけでは、興奮且つネガティブな感情のうち、怒り、恐怖又は深い悲しみなどの更に詳細な感情はわからない。そこで、第1の画面1131の複数の画像のうち、興奮且つネガティブな感情に対応する画像が選択された場合、興奮且つネガティブな感情に関連付けられている複数の画像を表す第2の画面1132が更に表示される。ユーザは、第2の画面1132に表示された複数の画像の中から、さらに自身の感情に対応する画像を選択する。これにより、ユーザが意図している感情をシステム側でより詳しく把握することができる。
図10に戻って、次に、ステップS6において、通信部21は、画像取得部221によって取得された複数の画像を含む画像データを端末装置1へ送信する。なお、画像データは、ユーザIDに応じた複数の画像の表示位置を含む。
次に、ステップS7において、端末装置1の通信部13は、サーバ2によって送信された画像データを受信する。
次に、ステップS8において、表示制御部141は、複数の画像を表示するとともに、複数の画像の中からユーザの現在の感情状態を表した1の画像のユーザによる選択を受け付けるための第1画像選択画面を表示部11に表示する。
次に、ステップS9において、入力部12は、表示部11に表示された第1画像選択画面において、複数の画像の中からユーザの現在の感情状態を表した1の画像のユーザによる選択を受け付ける。
図17は、本実施の形態において、端末装置の表示部に表示される第1画像選択画面の一例を示す図である。
表示部11は、図17に示す第1画像選択画面を表示する。図17に示す第1画像選択画面では、複数の画像が選択可能に表示される。ユーザは、入力部12を用いて、複数の画像の中から、ユーザの現在の感情状態を表した1の画像を選択する。現在感情状態は、音楽コンテンツの選択の基準となる情報である。そのため、直感的な情報である複数の画像の中から1の画像が選択されることが望ましい。
図10に戻って、次に、ステップS10において、通信部13は、入力部12によって選択されたユーザの現在の感情状態を表した1の画像に対応する第1画像IDをサーバ2へ送信する。
次に、ステップS11において、サーバ2の通信部21は、端末装置1によって送信された第1画像IDを受信する。
次に、ステップS12において、現在感情状態取得部222は、通信部21によって受信された第1画像IDに対応付けられた感情の強度を、現在感情状態として画像データベース記憶部231から取得する。
次に、ステップS13において、端末装置1の表示制御部141は、複数の画像を表示するとともに、複数の画像の中からユーザが目標とする感情状態を表した1の画像のユーザによる選択を受け付けるための第2画像選択画面を表示部11に表示する。表示制御部141は、現在感情状態が取得された後、表示部11に複数の画像を選択可能に表示させる。
次に、ステップS14において、入力部12は、表示部11に表示された第2画像選択画面において、複数の画像の中からユーザが目標とする感情状態を表した1の画像のユーザによる選択を受け付ける。
図18は、本実施の形態において、端末装置の表示部に表示される第2画像選択画面の一例を示す図である。
表示部11は、図18に示す第2画像選択画面を表示する。図18に示す第2画像選択画面では、複数の画像が選択可能に表示される。ユーザは、入力部12を用いて、複数の画像の中から、ユーザが目標とする感情状態を表した1の画像を選択する。
図10に戻って、次に、ステップS15において、通信部13は、入力部12によって選択されたユーザが目標とする感情状態を表した1の画像に対応する第2画像IDをサーバ2へ送信する。
次に、ステップS16において、サーバ2の通信部21は、端末装置1によって送信された第2画像IDを受信する。
次に、ステップS17において、目標感情状態取得部223は、通信部21によって受信された第2画像IDに対応付けられた感情の強度を、目標感情状態として画像データベース記憶部231から取得する。目標感情状態取得部223は、複数の画像のうちのユーザによって選択された画像に対応付けられた少なくとも1つの感情の強度を、目標感情状態として取得する。
次に、ステップS18において、通信部21は、現在感情状態取得部222によって取得された現在感情状態と、目標感情状態取得部223によって取得された目標感情状態とをコンテンツ提供装置3へ送信する。
なお、本実施の形態では、端末装置1は、第1画像ID及び第2画像IDを個別に送信しているが、本開示は特にこれに限定されず、端末装置1は、第1画像ID及び第2画像IDをまとめて送信してもよい。この場合、図10のステップS10及びステップS11の処理が不要となり、ステップS9の処理の後、ステップS13の処理が行われる。ステップS15において、通信部13は、第1画像ID及び第2画像IDをサーバ2へ送信する。サーバ2は、第1画像ID及び第2画像IDを受信した後、ステップS12、ステップS17及びステップS18の処理を行う。
本実施の形態では、第1画像選択画面が表示された後、第2画像選択画面が表示されるが、本開示は特にこれに限定されず、複数の画像の中からユーザの現在の感情状態を表した1の画像のユーザによる選択を受け付けるとともに、複数の画像の中からユーザの目標とする感情状態を表した1の画像のユーザによる選択を受け付けるための1の画像選択画面が表示されてもよい。
図19は、本実施の形態において、端末装置の表示部に表示される画像選択画面の一例を示す図である。
表示部11は、図19に示す画像選択画面を表示してもよい。図19に示す画像選択画面では、現在の感情状態を表した1の画像をユーザが選択するための第1画像群が選択可能に表示されるとともに、目標とする感情状態を表した1の画像をユーザが選択するための第2画像群が選択可能に表示される。ユーザは、入力部12を用いて、第1画像群の中から、ユーザの現在の感情状態を表した1の画像を選択するとともに、第2画像群の中から、ユーザが目標とする感情状態を表した1の画像を選択する。
また、本実施の形態では、複数の画像の中からユーザが目標とする感情状態を表した1の画像のユーザによる選択を受け付けるための第2画像選択画面が表示されるが、本開示は特にこれに限定されず、2つの感情の強度を縦軸及び横軸で表す座標平面上においてユーザが目標とする感情状態を表した座標点のユーザによる選択を受け付けるための座標選択画面が表示されてもよい。
図20は、本実施の形態において、ユーザが目標とする感情状態を表した座標点の入力前に、端末装置の表示部に表示される座標選択画面の一例を示す図であり、図21は、本実施の形態において、ユーザが目標とする感情状態を表した座標点の入力後に、端末装置の表示部に表示される座標選択画面の一例を示す図である。
表示部11は、図20に示す座標選択画面を表示してもよい。図20に示す座標選択画面では、2つの感情の強度を縦軸及び横軸で表す座標平面と、現在感情状態を示す座標点とが表示される。図20では、縦軸が覚醒度を表しており、横軸が感情価を表している。図20中のスタート点は、現在感情状態を示す座標点を表している。現在感情状態は、2つの感情の強度を縦軸及び横軸で表す座標平面上の座標値で表される。表示制御部141は、現在感情状態を取得した後、現在感情状態を示す座標点とともに座標平面を表示部11に表示させる。ユーザは、入力部12を用いて、座標平面上において、ユーザが目標とする感情状態を表した座標点を選択する。サーバ2の目標感情状態取得部223は、座標平面上においてユーザによって選択された目標感情状態を示す座標点の座標値を、目標感情状態として取得する。
目標感情状態を表した座標点が選択された後、表示部11は、図21に示す座標選択画面を表示する。図21に示す座標選択画面では、2つの感情の強度を縦軸及び横軸で表す座標平面と、現在感情状態を示す座標点と、目標感情状態を示す座標点とが表示される。図21では、縦軸が覚醒度を表しており、横軸が感情価を表している。図21中のスタート点は、現在感情状態を示す座標点を表しており、ゴール点は、目標感情状態を示す座標点を表している。座標選択画面には、スタート点とゴール点とを結ぶ矢印が表示される。
図22は、本実施の形態におけるコンテンツ提供装置及びスピーカ装置の動作について説明するためのフローチャートである。
まず、ステップS21において、コンテンツ提供装置3の通信部31は、サーバ2によって送信された現在感情状態及び目標感情状態を受信する。
次に、ステップS22において、音楽コンテンツ決定部321は、現在感情状態から目標感情状態に変化させるための音楽コンテンツを決定する。音楽コンテンツ決定部321は、目標感情状態を示す感情の強度から、現在感情状態を示す感情の強度を減算することにより、現在感情状態と目標感情状態との差分を示す感情状態変化値を算出する。音楽コンテンツ決定部321は、算出した感情状態変化値に対応付けられている音楽コンテンツを、音楽コンテンツ記憶部331から取得する。
次に、ステップS23において、通信部31は、音楽コンテンツ決定部321によって決定された音楽コンテンツをスピーカ装置4へ送信する。
次に、ステップS24において、スピーカ装置4の通信部41は、コンテンツ提供装置3によって送信された音楽コンテンツを受信する。
次に、ステップS25において、音楽コンテンツ出力制御部421は、通信部41によって受信された音楽コンテンツをスピーカ43に出力させる。ユーザは、スピーカ43から出力される音楽コンテンツを聞く。これにより、ユーザの感情状態は、現在感情状態から目標感情状態に変化する。
なお、音楽コンテンツの出力中において、端末装置1の表示部11は、現在感情状態、目標感情状態及び音楽コンテンツの楽曲名を表示してもよい。
図23は、本実施の形態において、音楽コンテンツの出力開始時に表示されるコンテンツ提示画面の一例を示す図であり、図24は、本実施の形態において、音楽コンテンツの出力中に表示されるコンテンツ提示画面の一例を示す図である。
表示部11は、音楽コンテンツの出力開始時に図23に示すコンテンツ提示画面を表示する。図23に示すコンテンツ提示画面は、2つの感情の強度を縦軸及び横軸で表す座標平面と、現在感情状態を示す座標点と、目標感情状態を示す座標点と、音楽コンテンツの楽曲名と、音楽コンテンツのディスクジャケット画像とが表示される。図23では、縦軸が覚醒度を表しており、横軸が感情価を表している。図23中のスタート点は、現在感情状態を示す座標点を表しており、ゴール点は、目標感情状態を示す座標点を表している。座標選択画面には、スタート点とゴール点とを結ぶ矢印が表示される。
また、表示部11は、音楽コンテンツの出力中に図24に示すコンテンツ提示画面を表示する。図24に示すコンテンツ提示画面は、座標平面と、現在感情状態を示す座標点と、目標感情状態を示す座標点と、ユーザの感情状態の遷移を示す座標点と、音楽コンテンツの楽曲名と、音楽コンテンツのディスクジャケット画像とが表示される。図24中の現在点は、音楽コンテンツを聞くことにより変化するユーザの感情状態の遷移を示す座標点を表している。なお、現在点の座標は、音楽コンテンツの出力時間と現在時刻とに基づいて算出される。
なお、端末装置1は、現在感情状態及び目標感情状態をサーバ2から受信し、音楽コンテンツの楽曲名及び音楽コンテンツのディスクジャケット画像をコンテンツ提供装置3から受信し、コンテンツ提示画面を生成する。
また、音楽コンテンツについても画像と同様にアンケートが行われ、アンケート結果に基づいて、音楽コンテンツに対応付ける感情状態変化値が取得されてもよい。
図25は、本実施の形態における音楽コンテンツに対するアンケートの一例を示す図である。
例えば、複数の音楽コンテンツのうちの1つの音楽コンテンツがユーザに向かって出力される。そして、出力された音楽コンテンツに対するユーザの評価が受け付けられる。このとき、音楽コンテンツの出力開始時点から所定の時間内(例えば、出力開始から10秒内)に音楽コンテンツに対するユーザの評価が受け付けられる。また、音楽コンテンツの出力終了時点から所定時間内(例えば、出力終了時点の10秒前から10秒後までの間)に音楽コンテンツに対するユーザの評価が受け付けられる。
図25に示す例は、1つの音楽コンテンツについて、複数の感情の各項目に対する複数のユーザの評価を平均したアンケート結果を表示している。図25に示すアンケートでは、1つの音楽コンテンツに対して、覚醒度、明暗(感情価)、緊張感及び複雑性の4つの感情が評価される。各感情は、7段階で評価される。
図25において、音楽コンテンツの出力開始時点において、覚醒度の評価の平均は3.1であり、明暗(感情価)の評価の平均は5.4であり、緊張感の評価の平均は1.5であり、複雑性の評価の平均は5.8である。また、音楽コンテンツの出力終了時点において、覚醒度の評価の平均は5.5であり、明暗(感情価)の評価の平均は7.8であり、緊張感の評価の平均は1.0であり、複雑性の評価の平均は3.5である。出力終了時点の各感情の評価値から、出力開始時点の各感情の評価値を減算することにより、各感情の感情状態変化値が算出される。感情状態変化値が、−1.0〜+1.0の値に正規化され、音楽コンテンツに対応付けられる。
(変形例)
続いて、本実施の形態の変形例について説明する。
(1)画像選択時において、端末装置1は、1つの感情の強度に対応する複数の画像を1軸で表示する表示態様と、複数の感情の強度に対応する複数の画像を複数の軸で表示する表示態様とを切り替えてもよい。例えば、端末装置1は、ユーザのいる場所に応じて表示態様を切り替えてもよい。
例えば、ユーザが、就寝前に、ベッドルームでコンテンツ提供システムを使用する場合、静かな音楽コンテンツが出力されるなど、出力される音楽コンテンツが予め想定される。この場合、複数の画像は、1つの感情軸で表示されてもよい。例えば、感情価軸のみに対応する複数の画像が表示される。また、最初に、端末装置1は、ネガティブ(マイナス)に対応する複数の画像及びポジティブ(プラス)に対応する複数の画像のいずれを表示するかのユーザによる選択を受け付けてもよい。
また、ユーザの利用情報に基づいて、音楽コンテンツの出力開始から所定時間以内に音楽コンテンツの出力が所定回数以上キャンセルされた場合、端末装置1は、感情価の情報をより正確に取得するために、複数の画像を変更してもよい。例えば、端末装置1は、プラスの感情価に対応する複数の画像と、マイナスの感情価に対応する複数の画像とのいずれを表示するかのユーザによる選択を受け付けるための画面を表示してもよい。その後、端末装置1は、ユーザによって選択されたプラスの感情価に対応する複数の画像と、マイナスの感情価に対応する複数の画像とのいずれかを表示してもよい。
また、ユーザの利用情報に基づいて、音楽コンテンツの出力開始から所定時間以内に音楽コンテンツの出力が所定回数以上キャンセルされた場合、端末装置1は、他の感情に対応付けられている複数の画像を表示してもよい。感情価に基づいて決定された音楽コンテンツの出力開始から所定時間以内に音楽コンテンツの出力が所定回数以上キャンセルされた場合、端末装置1は、複雑性又はストレス感に対応付けられている複数の画像を表示してもよい。例えば、端末装置1は、1つの軸の感情の強度が取得された後に、さらに音楽コンテンツの出力がキャンセルされた場合に、1つの軸の異なる感情の強度が取得してもよい。
例えば、ユーザがリビングでくつろいでいる状態でコンテンツ提供システムを使用する場合、ユーザには音楽コンテンツを詳しく選ぶ心理的な準備があると想定される。この場合、複数の画像は、最初から2つの感情軸で表示されてもよい。端末装置1は、例えば、覚醒度、感情価、緊張感及び複雑性の順でユーザに選択させる複数の画像を表示してもよい。
現在時刻は、インターネットから取得されてもよく、コンテンツ提供装置3又は端末装置1に内蔵される時計から取得されてもよい。また、端末装置1は、端末装置1の配置位置を予め記憶し、記憶した配置位置を参照することで端末装置1(ユーザ)の位置を特定してもよい。
(2)端末装置1は、ユーザの状況に応じて、より詳細な現在感情状態又は目標感情状態を取得してもよい。例えば、ユーザが就寝する前の時間帯においてコンテンツ提供システムが利用される場合、端末装置1は、プラスの感情価に対応する複数の画像と、マイナスの感情価に対応する複数の画像とのいずれを表示するかのユーザによる選択を受け付けるための画面を表示してもよい。その後、端末装置1は、ユーザによって選択されたプラスの感情価に対応する複数の画像と、マイナスの感情価に対応する複数の画像とのいずれかを表示してもよい。複数の画像は、例えば、3個である。
(3)端末装置1は、複数の画像が表示された時刻からユーザにより1の画像が選択された時刻までの選択時間に基づいて、現在感情状態又は目標感情状態として取得する感情の数を変更してもよい。初心者は、慣れていないため、選択時間が長くなるおそれがあり、成熟度が上がるにつれて、選択時間は短くなる。例えば、選択時間が所定の閾値よりも短い場合、端末装置1は、より詳細な感情状態を取得するために、取得する感情軸の数を増やしてもよい。
端末装置1の表示制御部141は、第1の感情の強度に対応付けられた複数の画像を表示させる。端末装置1のプロセッサ14は、複数の画像が表示されてからユーザによって画像が選択されるまでの選択時間を計測する時間計測部を備えてもよい。表示制御部141は、計測された選択時間が所定時間以下である場合、第1の感情の強度とは異なる第2の感情の強度に対応付けられた複数の画像を選択可能に表示させる。
最初は、サーバ2は、2つの軸の感情の強度を現在感情状態又は目標感情状態として取得し、選択時間が短縮されるにつれて、取得する感情の軸を増やす。端末装置1は、1つの画面を複数の画面に分割し、各画面に複数の感情のそれぞれに対応する複数の画像を表示してもよい。また、サーバ2は、1つの感情の軸又は2つの感情の軸に対応する複数の画像を表示する第1画面に基づいて1つの感情の強度又は2つの感情の強度を取得してもよい。次に、サーバ2は、第1画面とは異なる1つの感情の軸又は2つの感情の軸に対応する複数の画像を表示する第2画面に基づいて1つの感情の強度又は2つの感情の強度を取得してもよい。
なお、選択時間の閾値としては、ユーザの過去の選択時間に基づいた時間が設定されてもよい。端末装置1は、例えば、複数の画像が表示される前の過去5回の選択時間の平均と、複数の画像が表示される前の過去10回の選択時間の平均との差分が所定の時間以上に短くなった場合に、成熟度が上がったと判断し、取得する感情の軸を増やす。また、端末装置1は、前回の選択時間から5回前までの選択時間の平均と、6回前の選択時間から10回前までの選択時間の平均との差分を用いてもよい。
また、端末装置1は、感情の軸を増やさないことを示す選択ボタンを第2画面に表示してもよい。また、端末装置1は、第2画面の選択時間が所定時間以上であり、かつ、音楽コンテンツの出力が所定回数以上キャンセルされる場合には、第2画面の表示を止めて、第1画面のみを表示してもよい。
端末装置1は、第2画面において感情の軸を増やさないことを示す選択ボタンが押下された後、その後の現在感情状態又は目標感情状態の取得時には、第2画面を表示しないようにしてもよい。また、端末装置1は、第2画面を表示させずに現在感情状態又は目標感情状態が取得され、かつ、音楽コンテンツの出力が所定回数以上キャンセルされる場合には、第2画面を表示するとともに、第2画面において画像が選択されることによりユーザに適した音楽コンテンツが出力可能であることを示すメッセージを表示してもよい。
(4)現在感情状態又は目標感情状態の過去の履歴に基づいて、取得された感情の強度の値の変化が大きい感情は優先順位を上げてもよく、取得された感情の強度の値の変化が小さい感情は優先順位を下げてもよい。サーバ2のメモリ23は、取得した現在感情状態の履歴を記憶してもよい。画像取得部221は、前回取得した現在感情状態の感情の強度と前々回取得した現在感情状態の感情の強度との差分が閾値以上である場合、感情の強度の優先度を上げてもよい。画像取得部221は、優先度の高い感情の強度に対応する複数の画像を取得してもよい。端末装置1の表示制御部141は、優先度の高い感情の強度に対応付けられる複数の画像を順番に表示させてもよい。
例えば、端末装置1は、複数の感情の強度を取得する場合、優先順位の高い感情の強度に対応する複数の画像を先に表示する。1つの感情の軸毎に複数の画像を表示して、複数の感情の強度を取得する場合には、端末装置1は、優先順位の高い感情の強度に対応する複数の画像を順番に表示する。
また、端末装置1は、2つの感情の軸に対応する複数の画像を表示し、かつ1つの感情の軸に対応する複数の画像を表示する場合、優先順位が高い順に2つの感情の軸に対応する複数の画像を表示し、その後、3番目の優先順位の感情の軸に対応する複数の画像を表示する。また、端末装置1は、優先順位が1位及び2位の感情の軸に対応する複数の画像を先に表示し、その後、優先順位が1位及び3位の感情の軸に対応する複数の画像を表示してもよい。
また、サーバ2は、取得された感情の強度の値の変化が所定値以下である場合には、ユーザに画像を選択させることなく、過去の選択履歴に基づいて現在感情状態又は目標感情状態を取得してもよい。取得された感情の強度の値の変化が所定値以下であるか否かの判断には、選択された画像に対応する感情の強度の値の平均値に対する差分が利用可能である。また、取得された感情の強度の値の変化が所定値以下であるか否かの判断には、分散値を利用することも可能である。
なお、取得された感情の強度の値の変化は、時間帯に応じて利用することが望ましい。時間帯に応じた感情の軸の設定は、過去の履歴に基づかずユーザの行動に応じた設定になるため、有効である。例えば、就寝直前の時間帯のユーザは、眠りたい可能性が高い。そのため、サーバ2は、緊張感の軸又はストレス感の軸を用いて感情の強度を取得し、覚醒度の軸を用いて感情の強度を取得しない。
また、取得された感情の強度の値の変化は、現在感情状態及び目標感情状態の少なくとも一方の取得において比較されてもよい。
(5)選択された画像に対する感情状態は、人の特性に応じて補正されてもよい。サーバ2のプロセッサ22は、現在の時刻と、選択された画像の特徴量とに基づいて、取得された現在感情状態を補正する補正部をさらに備えてもよい。また、補正部は、現在の時刻と、選択された画像の特徴量とに基づいて、取得された目標感情状態を補正してもよい。
図26は、本実施の形態における覚醒度の補正について説明するための図である。
補正部は、ユーザにより画像が選択された時刻などの時刻情報を取得し、取得した時刻情報と、選択された画像の特徴量とに基づいて、現在感情状態の値又は目標感情状態の値を補正する。例えば、人は、時間帯によって色の見え方が変化すると言われている。例えば、人は、夜に青が見えやすくなると言われている。そのため、補正部は、現在の時刻(ユーザにより画像が選択された時刻)が夜間であり、かつ選択された画像の色相が青色(例えば、180°〜240°)を示している場合、覚醒度の値を例えば20%増加させてもよい。
図26の例において、選択された画像の画像IDが「7788」であり、現在の時刻が夜間の時刻である場合、補正部は、第1画像特徴量である色相が185°であるので、覚醒度の値を「+0.1」から「+0.12」に補正する。
また、音楽コンテンツ決定部321は、人の特性に応じて音楽コンテンツを決定してもよい。人の時間経過の感じ方は時間帯により変化すると言われている。例えば、人は、同じ曲であっても夜間の方が昼間よりもテンポが速く聞こえると言われている。そのため、音楽コンテンツ決定部321は、現在の時刻が夜間の時間帯であれば、算出した感情状態変化値に対応付けられている音楽コンテンツのテンポよりも例えば20%遅いテンポの音楽コンテンツを決定してもよい。
(6)選択された画像に対する感情状態は、画像選択時におけるユーザの生体情報に応じて補正されてもよい。コンテンツ提供システムは、ユーザの生体情報を計測する生体情報計測装置をさらに備えてもよい。生体情報は、例えば、心拍数である。サーバ2の通信部21は、ユーザの生体情報を生体情報計測装置から取得する。サーバ2のプロセッサ22は、取得された生体情報に基づいて、取得された現在感情状態を補正する補正部をさらに備えてもよい。例えば、補正部は、取得された心拍数が所定値以上である場合、現在感情状態の覚醒度の値を20%増加させてもよい。
また、補正部は、取得された生体情報に基づいて、取得された目標感情状態を補正してもよい。この場合、例えば、補正部は、取得された心拍数が所定値以上である場合、目標感情状態の覚醒度の値を20%増加させてもよい。
また、人は、心拍数が高い時に音楽を聞くと、平常時よりもテンポが遅く聞こえると言われている。そこで、音楽コンテンツ決定部321は、ユーザの生体情報に応じて音楽コンテンツを決定してもよい。
図27は、本実施の形態におけるユーザの生体情報に応じた音楽コンテンツの決定について説明するための図である。
平常時において、ユーザの今の気分(覚醒度)が「0」であった場合、それは心拍数が60bpmである時の感覚である。このとき、ユーザの今の気分(覚醒度)を表す音楽コンテンツのテンポは、60bpmである。一方、ユーザが走った後において、ユーザの今の気分(覚醒度)が「0」であった場合、それは心拍数が120bpmである時の感覚である。このとき、ユーザの今の気分(覚醒度)が「0」であるため、60bpmのテンポの音楽コンテンツを出力すると、非常に覚醒度の低い音楽コンテンツが再生されたような印象を与えてしまう。このため、音楽コンテンツ決定部321は、ユーザの生体情報(例えば、心拍数)に応じて、音楽コンテンツのテンポを補正することが好ましい。図27の補正式に示すように、音楽コンテンツ決定部321は、平常時の心拍数60bpmと、走った後の現在の心拍数120bpmとを加算した値を2で割った値(90bpm)を補正後の音楽コンテンツのテンポとして算出してもよい。これにより、今の気分(覚醒度)に合ったテンポの音楽コンテンツを提供することができる。
また、現在感情状態取得部222は、ユーザの心拍数に応じて、現在感情状態の強度を補正してもよい。現在感情状態取得部222は、覚醒度(例えば、「0」)を取得した際の心拍数が平常値の60bpmであった場合、そのまま覚醒度を取得する。一方、現在感情状態取得部222は、覚醒度(例えば、「0」)を取得した際の心拍数が所定値よりも高い場合、覚醒度をより高い値(例えば、+0.5)に補正してもよい。現在感情状態取得部222は、現在の心拍数の値に応じて、補正値を決定してもよい。また、現在感情状態取得部222は、現在の心拍数が所定の範囲である場合には、所定の値を減算した覚醒度を取得してもよい。
また、目標感情状態取得部223は、ユーザの心拍数に応じて、目標感情状態の強度を補正してもよい。なお、目標感情状態取得部223は、ユーザの心拍数に応じて、目標感情状態の強度を補正しなくてもよい。この場合、現在感情状態の強度のみが、心拍数を用いて補正されてもよい。
また、音楽コンテンツ出力制御部421は、出力開始時には補正後のテンポ(例えば、90bpm)で音楽コンテンツを出力し、時間が経過するにつれて徐々にテンポを遅くし、出力終了時には平常時のテンポ(例えば、60bpm)で音楽コンテンツを出力するように制御してもよい。このように、徐々にテンポを遅くすることにより、ユーザの感情を効果的に誘導することができる。
(7)複数の画像は、音楽データを解析した結果を視覚化することにより作成されてもよい。例えば、非線形時系列解析の手法の1つであるリカレンスプロットにより、種々の音楽データの特徴を視覚化した複数の2次元平面画像が作成されてもよい。
図28は、本実施の形態において、リカレンスプロットにより作成された複数の画像の一例を示す図である。
図28に示す画像1021は、ボサノバ音楽を階層的なリカレンスプロットで解析した画像であり、画像1022は、ヒーリング用シンセサイザー音楽を階層的なリカレンスプロットで解析した画像であり、画像1023は、オルゴール音を階層的なリカレンスプロットで解析した画像である。各画像には、感情を表す色を付与してもよい。なお、階層的なリカレンスプロットについては、「Miwa Fukino、Yoshito Hirata及びKazuyuki Aihara、「Coarse−graining time series data: recurrence plot of recurrence plots and its application for music」、Chaos: An Interdisciplinary Journal of Nonlinear Science、(2016年)」に開示されているので、詳細な説明は省略する。
このように、種々の音楽データをリカレンスプロットで解析することにより、複数の画像を容易に作成することができる。
(8)本実施の形態において、端末装置1は、サーバ2、コンテンツ提供装置3及びスピーカ装置4の少なくとも1つの構成の一部又は全てを備えてもよい。
図29は、本開示の実施の形態の変形例に係る端末装置の構成の一例を示すブロック図である。
図29に示す端末装置1Aは、表示部11、入力部12、プロセッサ14A、メモリ15A及びスピーカ43を備える。プロセッサ14Aは、表示制御部141、入力制御部142、画像取得部221、現在感情状態取得部222、目標感情状態取得部223、音楽コンテンツ決定部321及び音楽コンテンツ出力制御部421を備える。メモリ15Aは、画像データベース記憶部231及び音楽コンテンツ記憶部331を備える。なお、図29に示す端末装置1Aにおいて、上記の実施の形態の端末装置1は、サーバ2、コンテンツ提供装置3及びスピーカ装置4と同じ構成については同じ符号を付し、説明を省略する。
(まとめ)
本実施の形態では、大雑把(俯瞰的)な感情を表す3×3の画像のうちの1の画像が選択された後、選択された1の画像に対応する感情の範囲から更に詳細な感情を示す3×3の画像のうちの1の画像が選択される。このような選択操作により、ユーザが画像から受けた更に詳細な感情に関する情報を取得することができる。また、このような選択操作により、システム側が想定している画像が表現している感情と、ユーザ側が受け取った感情との違いを補正することも可能である。
また、表示部11の画面が大きい場合には、表示制御部141は、9×9の画像を最初から表示してもよい。また、表示部11の画面が小さい場合には、表示制御部141は、9×9の画像を2階層に分け、3×3の画像を最初に表示し、3×3の画像の中から1の画像が選択されると、さらに3×3の画像を表示してもよい。これにより、システム側で保持している感情画像の数は変化させずに、画像の視認性を高めることができる。
また、2軸以上の感情軸を設け、1軸ずつユーザに選択させることにより、Russellに基づく2軸のマップでは表現しきれない新たな軸を、システム側が機械学習しながら発見し追加することも可能である。これにより、将来的に拡張性のあるユーザインタフェースデザインとなる。例えば、高音の金属音(甲高い音)に対する感受性が非常に高いユーザの感情を表現する場合、従来の2軸のマップでは音の高さの違いがマップ上で表現できない。しかし、機械学習により音の高さの違いが判別できるようになった後に、高さが異なる複数の音をリカレンスプロットでそれぞれ解析することにより、音の高さの違いを表現した複数の画像が作成される。そして、作成された複数の画像がユーザに提示されることで、個人差に対応した感情の入力インタフェースを実現することができる。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
本開示の実施の形態に係る装置の機能の一部又は全ては典型的には集積回路であるLSI(Large Scale Integration)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、本開示の実施の形態に係る装置の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。
また、上記フローチャートに示す各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。
本開示に係る技術は、ユーザが自身の感情状態を感覚的に選択することができるとともに、ユーザによって選択された画像からユーザの現在の感情状態を容易に特定することができるので、ユーザの感情状態を変化させるためのコンテンツを選択する技術に有用である。
1 端末装置
2 サーバ
3 コンテンツ提供装置
4 スピーカ装置
5 ネットワーク
11 表示部
12 入力部
13 通信部
14 プロセッサ
15 メモリ
21 通信部
22 プロセッサ
23 メモリ
31 通信部
32 プロセッサ
33 メモリ
41 通信部
42 プロセッサ
43 スピーカ
141 表示制御部
142 入力制御部
143 通信制御部
151 画像データ記憶部
221 画像取得部
222 現在感情状態取得部
223 目標感情状態取得部
224 通信制御部
231 画像データベース記憶部
321 音楽コンテンツ決定部
322 通信制御部
331 音楽コンテンツ記憶部
421 音楽コンテンツ出力制御部
422 通信制御部

Claims (10)

  1. コンピュータが、
    少なくとも1つの感情の強度と対応付けられた複数の画像を取得し、
    ディスプレイに前記複数の画像を選択可能に表示させ、
    前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記ユーザの現在の感情状態を示す現在感情状態として取得し、
    前記ユーザが目標とする感情状態を示す目標感情状態を取得し、
    前記現在感情状態から前記目標感情状態に変化させるためのコンテンツを決定し、
    前記コンテンツを出力する、
    コンテンツ選択方法。
  2. さらに、前記ユーザを識別するためのユーザ識別情報を取得し、
    前記複数の画像の取得において、前記ユーザ識別情報に予め対応付けられている前記複数の画像を取得する、
    請求項1記載のコンテンツ選択方法。
  3. さらに、前記現在感情状態を取得した後、前記ディスプレイに前記複数の画像を選択可能に表示させ、
    前記目標感情状態の取得において、前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記目標感情状態として取得する、
    請求項1又は2記載のコンテンツ選択方法。
  4. 前記現在感情状態は、2つの感情の強度を縦軸及び横軸で表す座標平面上の座標値で表され、
    さらに、前記現在感情状態を取得した後、前記現在感情状態を示す座標点とともに前記座標平面を前記ディスプレイに表示させ、
    前記目標感情状態の取得において、前記座標平面上において前記ユーザによって選択された前記目標感情状態を示す座標点の座標値を、前記目標感情状態として取得する、
    請求項1又は2記載のコンテンツ選択方法。
  5. 前記複数の画像の表示において、第1の感情の強度に対応付けられた複数の画像を表示させ、
    さらに、前記複数の画像が表示されてから前記ユーザによって前記画像が選択されるまでの選択時間を計測し、
    さらに、計測した前記選択時間が所定時間以下である場合、前記第1の感情の強度とは異なる第2の感情の強度に対応付けられた複数の画像を選択可能に表示させる、
    請求項1〜4のいずれか1項に記載のコンテンツ選択方法。
  6. さらに、取得した前記現在感情状態の履歴を記憶し、
    さらに、前回取得した前記現在感情状態の前記感情の強度と前々回取得した前記現在感情状態の前記感情の強度との差分が閾値以上である場合、前記感情の強度の優先度を上げ、
    前記複数の画像の表示において、前記優先度の高い前記感情の強度に対応付けられる前記複数の画像を順番に表示させる、
    請求項1〜5のいずれか1項に記載のコンテンツ選択方法。
  7. さらに、現在の時刻と、選択した前記画像の特徴量とに基づいて、取得した前記現在感情状態を補正する、
    請求項1〜6のいずれか1項に記載のコンテンツ選択方法。
  8. さらに、前記ユーザの生体情報を取得し、
    さらに、取得した前記生体情報に基づいて、取得した前記現在感情状態を補正する、
    請求項1〜7のいずれか1項に記載のコンテンツ選択方法。
  9. 少なくとも1つの感情の強度と対応付けられた複数の画像を取得する画像取得部と、
    ディスプレイに前記複数の画像を選択可能に表示させる表示制御部と、
    前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記ユーザの現在の感情状態を示す現在感情状態として取得する現在感情状態取得部と、
    前記ユーザが目標とする感情状態を示す目標感情状態を取得する目標感情状態取得部と、
    前記現在感情状態から前記目標感情状態に変化させるためのコンテンツを決定するコンテンツ決定部と、
    前記コンテンツを出力する出力部と、
    を備えるコンテンツ選択装置。
  10. 少なくとも1つの感情の強度と対応付けられた複数の画像を取得し、
    ディスプレイに前記複数の画像を選択可能に表示させ、
    前記複数の画像のうちのユーザによって選択された画像に対応付けられた前記少なくとも1つの感情の強度を、前記ユーザの現在の感情状態を示す現在感情状態として取得し、
    前記ユーザが目標とする感情状態を示す目標感情状態を取得し、
    前記現在感情状態から前記目標感情状態に変化させるためのコンテンツを決定し、
    前記コンテンツを出力するようにコンピュータを機能させる、
    コンテンツ選択プログラム。
JP2020095295A 2019-06-06 2020-06-01 コンテンツ選択方法、コンテンツ選択装置及びコンテンツ選択プログラム Pending JP2021057002A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962858020P 2019-06-06 2019-06-06
US62/858,020 2019-06-06
JP2019179541 2019-09-30
JP2019179541 2019-09-30

Publications (1)

Publication Number Publication Date
JP2021057002A true JP2021057002A (ja) 2021-04-08

Family

ID=73609421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020095295A Pending JP2021057002A (ja) 2019-06-06 2020-06-01 コンテンツ選択方法、コンテンツ選択装置及びコンテンツ選択プログラム

Country Status (3)

Country Link
US (1) US11379094B2 (ja)
JP (1) JP2021057002A (ja)
CN (1) CN112052349B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023139849A1 (ja) * 2022-01-18 2023-07-27 パナソニックIpマネジメント株式会社 感情推定方法、コンテンツ決定方法、プログラム、感情推定システム、及びコンテンツ決定システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5822123A (en) * 1993-09-09 1998-10-13 Davis; Bruce Electronic television program guide schedule system and method with pop-up hints
US5732232A (en) * 1996-09-17 1998-03-24 International Business Machines Corp. Method and apparatus for directing the expression of emotion for a graphical user interface
US20080216002A1 (en) * 2004-08-30 2008-09-04 Pioneer Corporation Image Display Controller and Image Display Method
CN101512574A (zh) * 2006-09-07 2009-08-19 宝洁公司 用于测量情绪响应和选择偏好的方法
GB0818089D0 (en) * 2008-10-03 2008-11-05 Eastman Kodak Co Interactive image selection method
KR101262922B1 (ko) * 2009-12-10 2013-05-09 한국전자통신연구원 감성 변화에 따른 감성지수 결정 장치 및 그 방법
JP2011170690A (ja) 2010-02-19 2011-09-01 Sony Corp 情報処理装置、情報処理方法、およびプログラム。
US20150127577A1 (en) * 2012-05-04 2015-05-07 B-Sm@Rk Limited Method and apparatus for rating objects
US20170004260A1 (en) * 2012-08-16 2017-01-05 Ginger.io, Inc. Method for providing health therapeutic interventions to a user
US9047871B2 (en) * 2012-12-12 2015-06-02 At&T Intellectual Property I, L.P. Real—time emotion tracking system
KR102254705B1 (ko) * 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
KR102458643B1 (ko) * 2016-05-27 2022-10-24 얀센 파마슈티카 엔.브이. 실제 세계 사용자의 인지 및 기분 상태들을 가상 세계 활동의 함수로서 평가하기 위한 시스템 및 방법
US10698951B2 (en) * 2016-07-29 2020-06-30 Booktrack Holdings Limited Systems and methods for automatic-creation of soundtracks for speech audio
US20180101659A1 (en) * 2016-10-07 2018-04-12 eMind Science Corp. Methods, devices, and systems for identifying, monitoring, and treating a mental health disorder
JP6839818B2 (ja) 2017-05-17 2021-03-10 パナソニックIpマネジメント株式会社 コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム
CN107424019A (zh) * 2017-08-15 2017-12-01 京东方科技集团股份有限公司 基于情绪识别的艺术品推荐方法、装置、介质和电子设备
US10091554B1 (en) * 2017-12-06 2018-10-02 Echostar Technologies L.L.C. Apparatus, systems and methods for generating an emotional-based content recommendation list
CN109688264B (zh) * 2018-12-17 2021-02-12 咪咕数字传媒有限公司 一种电子设备显示状态调整方法、装置及存储介质
CN109684978A (zh) * 2018-12-18 2019-04-26 深圳壹账通智能科技有限公司 员工情绪监控方法、装置、计算机设备和存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023139849A1 (ja) * 2022-01-18 2023-07-27 パナソニックIpマネジメント株式会社 感情推定方法、コンテンツ決定方法、プログラム、感情推定システム、及びコンテンツ決定システム

Also Published As

Publication number Publication date
CN112052349B (zh) 2024-04-16
US20200387267A1 (en) 2020-12-10
US11379094B2 (en) 2022-07-05
CN112052349A (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
JP6982660B2 (ja) 身体活動及びトレーニングモニタ
JP6636792B2 (ja) 刺激提示システム、刺激提示方法、コンピュータ、および制御方法
JP2019518284A (ja) 呼吸シーケンスユーザインターフェース
US20210212581A1 (en) Method and apparatus for providing biometric information by electronic device
US10372086B2 (en) Smart watch having display, color of which changes according to state of user
JP7288064B2 (ja) 視覚型仮想エージェント
JP2021057002A (ja) コンテンツ選択方法、コンテンツ選択装置及びコンテンツ選択プログラム
JP4750554B2 (ja) 色彩診断システム及びそのプログラム
JP2021135853A (ja) 睡眠改善システム
US20210011614A1 (en) Method and apparatus for mood based computing experience
JP2017170253A (ja) 印象評価装置及び印象評価方法
JP6226288B2 (ja) 印象評価装置及び印象評価方法
JP2021003216A (ja) 情報処理システム、及び、情報処理方法
EP3893091A1 (en) Controlling a data inspection by a user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240416

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423