JP7512903B2 - 感性算出装置、感性算出方法、およびプログラム - Google Patents

感性算出装置、感性算出方法、およびプログラム Download PDF

Info

Publication number
JP7512903B2
JP7512903B2 JP2020571230A JP2020571230A JP7512903B2 JP 7512903 B2 JP7512903 B2 JP 7512903B2 JP 2020571230 A JP2020571230 A JP 2020571230A JP 2020571230 A JP2020571230 A JP 2020571230A JP 7512903 B2 JP7512903 B2 JP 7512903B2
Authority
JP
Japan
Prior art keywords
information
user
content
unit
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020571230A
Other languages
English (en)
Other versions
JPWO2020162486A1 (ja
Inventor
正敏 小林
大士 木本
公子 秋本
優輝 鈴木
博 武田
誠 佐々木
康史 別宮
健佑 川島
諭 有泉
侑 竹下
大二 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority claimed from PCT/JP2020/004294 external-priority patent/WO2020162486A1/ja
Publication of JPWO2020162486A1 publication Critical patent/JPWO2020162486A1/ja
Application granted granted Critical
Publication of JP7512903B2 publication Critical patent/JP7512903B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、感性算出装置、感性算出方法、およびプログラムに関する。
ソーシャルメディアに投稿されたソーシャルメディアデータをマーケティングに活用する技術が知られている。
例えば、特許文献1には、商品などの特定の対象に対するソーシャルメディアへの投稿に基づいて、その対象を嗜好するユーザであるファンを抽出する技術が開示されている。
特開2014-137757号公報
しかしながら、特許文献1に記載の技術は、特定の対象に対するファンの感性的な価値を定量的に算出していない。そのため、ある商品が特定のユーザに対して訴求できているかは判別できない可能性がある。例えば、ユーザは、それぞれ感性が異なっている。このため、感性が異なるユーザ同士では、同一のコンテンツに対する感性や、志向などを含む情緒的価値観が異なる。
そこで、本開示では、コンテンツに対するユーザの感性タイプに応じた情緒的価値観のマッチング度数を定量的に算出する感性算出装置、感性算出方法、およびプログラムを提案する。
上記の課題を解決するために、本開示に係る一形態の感性算出装置は、第1コンテンツに関する第1コンテンツ情報を取得する取得部と、ユーザの感性タイプに基づいて前記ユーザを分類したセグメントごとに、前記第1コンテンツ情報に対するマッチング度数を算出する算出部と、を備える。
本開示の実施形態に係る感性算出装置の構成の一例を示すブロック図である。 ユーザを感性タイプごとに分類する方法の一例を示す模式図である。 教師画像を学習する方法の一例を説明するための模式図である。 教師テキストを学習する方法の一例を説明するための模式図である。 ユーザの感性タイプを推定する方法の一例を説明するための模式図である。 商品を購入しているユーザが属する感性タイプの変化を示す模式図である。 感性タイプに属するユーザの口コミの時間変化を示す模式図である。 ユーザインターフェイスの一例を示す模式図である。 テキストを入力する方法の一例を示す模式図である。 テキストの分析結果の一例を示す模式図である。 伝わる度の詳細を表示する方法の一例を示す模式図である。 ささる度の詳細を表示する方法の一例を示す模式図である。 テキストをクラスタ化する方法の一例を示す模式図である。 クラスタ化された文書の性質の一例を示す模式図である。 感性算出装置に対して画像を入力する方法の一例を示す模式図である。 画像選択画面の一例を示す模式図である。 画像データの分析結果の一例を示す模式図である。 最適感性タイプのユーザの特徴の詳細の一例を示す模式図である。 コンテンツファンマップの一例を示す模式図である。 コンテンツファンマップの一例を示す模式図である。 感性算出装置に対して、コンテンツを入力する方法の一例を示す模式図である。 検索結果の一例を示す模式図である。 コンテンツの利用者の感性タイプの分析結果の一例を示す模式図である。 テキスト分析画面のユーザインターフェイスの一例を示す模式図である。 テキストの分析結果の一例を示す模式図である。 デザイン分析画面のユーザインターフェイスの一例を示す模式図である。 デザインの分析結果の一例を示す模式図である。 利用者分析画面のユーザインターフェイスの一例を示す模式図である。 コンテンツの分析結果の一例を示す模式図である。 分析結果を保存する処理の一例を示す模式図である。 ブックマーク一覧の一例を説明するための模式図である。 過去に行った分析結果の詳細を示す模式図である。 共有画面のユーザインターフェイスを示す模式図である。 本開示のその他の実施形態に係る発掘システムの構成の一例を示す図である。 本開示のその他の実施形態に係る発掘装置の構成の一例を示すブロック図である。 フレームから顔を検出する方法を説明するための図である。 ユーザインターフェイスの一例を示す模式図である。 アーティストのいいねリストを説明するための図である。 注目リストを説明するための模式図である。 アーティストの履歴を表示する画面を説明するための図である。 本開示のその他の実施形態に係る分析装置の構成を示すブロック図である。 ユーザインターフェイスの一例を示す模式図である。 アーティストの分析画面の一例を示す模式図である。 アーティストの総合ビジネスパワーのランクを説明するための図である。 アーティストのトレンド力のランクを説明するための図である。 定着度、バズり度を確認する方法を説明するための図である。 バズり度が急上昇した日のアーティストの定着度情報を説明するための図である。 ペルソナ像を表示させる方法を説明するための図である。 表示させるペルソナ像を変更する方法を説明するための図である。 ファン層が情報を得ている情報ソースを表示する方法を説明するための図である。 ファン層が好むアーティストを表示する方法を説明するための図である。 ファン層が好むプレイリストを表示する方法を説明するための図である。 感性算出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
1.実施形態
1-1.感性算出装置の構成
2.ユーザインターフェイス
3.その他の実施形態
3-1.発掘装置
3-2.ユーザインターフェイス
3-3.分析装置
3-4.ユーザインターフェイス
4.ハードウェア構成
(1.実施形態)
[1-1.感性算出装置の構成]
図1を用いて、本開示の実施形態に係る感性算出装置の構成について説明する。図1は、感性算出装置の構成を示すブロック図である。
図1に示すように、感性算出装置100は、記憶部110と、制御部120と、通信部130とを備える。感性算出装置100は、ユーザを、複数の感性タイプのセグメントのうち、どの感性タイプのセグメントに属するかを判定することのできる装置である。感性算出装置100は、コンテンツに対するユーザの感性タイプのセグメントに応じた情緒的価値観のマッチング度数を定量的に算出する。
記憶部110は、種々の情報を記憶している。記憶部110は、例えば、感性算出装置100の各部を実現させるためのプログラムを記憶している。この場合、制御部120は、記憶部110に記憶されているプログラムを展開して実行することで、各部の機能を実現する。記憶部110は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブ、光ディスクなどの記憶装置で実現することができる。記憶部110は、複数の異なるメモリなどで構成されてもよい。記憶部110は、通信部130を介して、有線又は無線で感性算出装置100と接続された外部の記憶装置であってもよい。この場合、通信部130は、例えば、図示しないインターネット網と接続されている。記憶部110は、例えば、顧客データベース111と、消費者データベース112と、感性データベース113とを有している。
顧客データベース111は、ユーザを感性タイプに応じて複数のセグメントに分類するために行ったアンケート結果を記憶している。アンケートは、例えば、日本の人口分布に従って、年齢及び性別などを考慮した複数人に対して実行している。消費者データベース112は、ユーザのWebの回遊履歴や、ユーザが購入した商品の購買データ、第三者が提供しているオープンなデータを記憶している。
図2を用いて、本実施形態に係るユーザの感性タイプのセグメントについて説明する。図2は、ユーザを感性タイプに応じて複数のセグメントに分類する方法の一例を示す模式図である。
本実施形態では、予めアンケートを行い、ユーザの感性タイプを8~12種類程度のセグメントに分類している。図2に示す例では、ユーザの感性タイプに応じて、ナチュラル、ユニーク、コンサバ、スタイリッシュ、チャーミング、ラグジュアリー、プレーン、その他の8種類のセグメントに分類している。なお、ユーザの感性タイプのセグメントの種類は、8種類よりも少なくてもよいし、多くてもよい。
ナチュラルは、例えば、商品が気に入ればブランドはこだわらないという特徴を持つユーザ群である。ユニークは、例えば、他の人とはとにかく違う商品を求めるという特徴を持つユーザ群である。コンサバは、例えば、一番売れている商品であれば安心して購入するという特徴を持つユーザ群である。スタイリッシュは、例えば、自分のための投資を惜しまないという特徴を持つユーザ群である。チャーミングは、例えば、着飾ることが重要でトレンドに敏感という特徴を持つユーザ群である。ラグジュアリーは、例えば、良質なものを調べて見極めて使うという特徴を持つユーザ群である。プレーンは、例えば、欲しいものはあまりなく必要最低限のものだけ購入するという特徴を持つユーザ群である。その他は、どの感性タイプにもあてはまらないタイプのユーザ群である。また、これらの感性タイプに加えて、例えば、「イベントにお金を使う」ことや、「情報には踊らされたくない」という特徴を持つZENという感性タイプがあってもよい。
また、ユーザの感性タイプを、カジュアル、シンプル、プレーン、スポーティ、クール、スマート、ゴージャス、セクシー、ロマンティック、エレガント、フォーマル、ポップの12の感性タイプに分類してもよい。この場合、カジュアルは、例えば、間違いのないものを選ぶという特徴を持つユーザ群である。シンプルは、例えば、気に入ったものを長く使うといった特徴を持つユーザ群である。プレーンは、例えば、必要なもの以外持たないという特徴を持つユーザ群である。スポーティは、活動的で軽快さを好むという特徴を持つユーザ群である。クールは、バランスを考えて行動するという特徴を持つユーザ群である。スマートは、合理的に考えて行動するという特徴を持つユーザ群である。ゴージャスは、ブランド志向で派手を好むという特徴を持つユーザ群である。セクシーは、自分の理想へ磨き高めるという特徴を持つユーザ群である。ロマンティックは、例えば、自分の願望に一直線という特徴を持つユーザ群である。エレガントは、例えば、上品で落ち着いたものを好むという特徴を持つユーザ群である。フォーマルは、例えば、きちんとしたものを好むという特徴を持つユーザ群である。ポップは、例えば、華やかで楽しいものを好むという特徴を持つユーザ群である。
再び図1を参照する。感性データベース113は、例えば、感性タイプごとの特徴を記憶している。具体的には、感性データベース113は、各感性タイプの好きな画像、好きな色、文章表現の特徴、性格、価値観などを記憶している。そのため、感性算出装置100は、ユーザのWebの回遊履歴や、ユーザが購入した商品の購買データ、SNS(Social Network Service)などの書き込みを取得することで、そのユーザの感性タイプを算出し、どのセグメントに属するかを判定することができる。
制御部120は、取得部121と、算出部122と、推定部123と、提示部124と、更新部125と、表示制御部126とを備える。制御部120は、記憶部110に記憶されているプログラムを展開して実行することで各部として機能する。制御部120は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、図示しない記憶部に記憶されたプログラム(例えば、本発明に係るプログラム)がRAM等を作業領域として実行されることにより実現される。また、制御部120は、コントローラ(Controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
取得部121は、種々の情報を取得する。取得部121は、例えば、ユーザが行ったアンケート結果を取得する。この場合、取得部121は、例えば、取得したアンケート結果を顧客データベース111に格納する。取得部121は、例えば、ユーザに対するアンケートが定期的(例えば、半年ごと)に行われる場合、アンケート結果を定期的に取得する。この場合、取得部121は、例えば、定期的にアンケート結果を顧客データベース111に格納する。すなわち、顧客データベース111に格納されているアンケート結果は、取得部121によって定期的にアップデートされる。
取得部121は、例えば、ユーザのWebの回遊履歴や、ユーザが購入した商品の購買データなどを含む価値観情報を、通信部130を介して取得する。この場合、取得部121は、価値観情報を消費者データベース112に格納する。取得部121は、例えば、価値観情報を随時取得するようにしてもよい。この場合、取得部121は、価値観情報を消費者データベース112に格納する。すなわち、消費者データベース112に格納されている価値観情報は、取得部121によって随時アップデートされる。
取得部121は、例えば、顧客の導線に関する情報を取得してもよい。この場合、取得部121は、例えば、Webの回遊履歴を顧客の導線として取得してもよいし、特定のWebページ内の利用しているページを顧客の導線として取得してもよい。この場合、取得部121は、例えば、顧客の導線に関する情報を特定の間隔で定期的に取得してもよいし、リアルタイムで取得してもよい。
取得部121は、例えば、感性算出装置100の使用者によって入力されたコンテンツに関するコンテンツ情報を取得する。取得部121は、例えば、通信部130を介してコンテンツ情報を取得してもよい。取得部121が取得するコンテンツに特に制限はないが、例えば、商品、テキスト、静止画像、動画像、音声及び音楽を含む音を挙げることができる。
取得部121は、コンテンツに対するSNSの口コミ、顧客の声(VOC:Voice Of the Customer)、およびEC(Electronic Commerce)サイトなどの口コミを含むレビュー情報を取得してもよい。
算出部122は、種々の情報を算出する。算出部122は、例えば、感性算出装置100に入力された情報に基づいて、各種の値を算出する。算出部122は、例えば、取得部121が取得したコンテンツ情報に基づいて、各種の情報を算出する。具体的には、算出部122は、コンテンツ情報に基づいて、感性タイプのセグメントごとに、コンテンツ情報に対応するコンテンツのマッチング度数を算出する。マッチング度数が高ければそのコンテンツに対する関心が高いことを意味し、マッチング度数が低ければそのコンテンツに対する関心が低いことを意味する。言い換えれば、算出部122は、感性タイプのセグメントごとに、関心の高いコンテンツを算出することができる。
算出部122は、例えば、予めモデル化された価値観モデルに基づいて、マッチング度数を算出する。この場合、算出部122は、予め、感性タイプのセグメントごとに好まれる画像や、テキストを学習し、感性タイプのセグメントごとに好む画像や、テキストをモデル化する。
図3と、図4とを用いて、感性タイプのセグメントごとに好む画像や、テキストをモデル化する方法の一例について説明する。図3は、算出部122が画像を学習する方法の一例を示す模式図である。図4は、算出部122がテキストを学習する方法の一例を示す模式図である。
図3に示すように、算出部122には、例えば、複数の教師画像が入力される。具体的には、算出部122には、感性タイプのセグメントごとに好む教師画像が複数入力される。ここで、教師画像には、例えば、感性タイプのセグメントごとに情緒的価値観などの概念が異なる複数の種類の画像が使用される。感性タイプのセグメントごとに好む画像は、例えば、ユーザに対して行ったアンケート結果を使用すればよい。感性タイプのセグメントごとに好む画像は、例えば、取得部121によって取得され、消費者データベース112に格納された画像を使用してもよい。感性タイプのセグメントごとに好む画像は、外部機関などによって収集された画像を使用してもよい。算出部122は、感性タイプのセグメントごとに入力された教師画像による学習結果をモデル化する。これにより、算出部122は、モデルに基づいて、新たに入力された画像がどの感性タイプのセグメントに属するユーザに好まれるかを示すマッチング度数を算出することができる。なお、算出部122に画像の学習させる場合には、算出部122に周知の画像分類機能を適用すればよい。
図4に示すように、算出部122には、例えば、複数の教師テキストが入力される。具体的には、算出部122には、感性タイプのセグメントごとに好む教師テキストが複数入力される。ここで、教師テキストには、例えば、感性タイプのセグメントごとに情緒的価値観などの概念が異なる複数の種類のテキストが使用される。感性タイプのセグメントごとに好むテキストは、例えば、ユーザに対して行ったアンケート結果を使用すればよい。感性タイプのセグメントごとに好むテキストは、例えば、取得部121によって取得され、消費者データベース112に格納されたテキストを使用してもよい。算出部122は、感性タイプのセグメントごとに入力された教師テキストによる学習結果をモデル化する。具体的には、算出部122は、入力された教師テキストを、例えば、9個のキーワードに分類する。そして、算出部122は、例えば、分類された9個のキーワードそれぞれが、どの感性タイプのセグメントが反応する度合いを示すマッピングテーブル140を生成する。これにより、算出部122は、新たに入力されたテキストがどの感性タイプのセグメントに属するユーザに好まれるかを示すマッチング度数を、マッピングテーブル140を参照することで算出することができる。なお、マッピングテーブル140には、ユーザの性格と感性タイプとが対応付けられている。そのため、9個のキーワードは予め生成した感性データベース113に記憶されている感性タイプのセグメントごとの特徴に近いことが好ましい。算出部122は、9個のキーワードに基づいて、感性タイプのセグメントごとのマッチング度数を算出することができる。
算出部122は、コンテンツがテキストである場合には、ユーザによるテキストに対する理解度を示す伝わる度と、テキストがユーザの心にささった度合いを示すささる度と、ユーザによるテキストに対する表現方法によるコミュニケーション傾向を示す表現傾向を算出する。この場合、算出部122は、教師テキストによる学習の際に、ささる度を指標として、9個のキーワードに分類する。ささる度を示すキーワードとしては、「新しさ」、「驚き」、「Only One」、「トレンド」、「ストーリー」、「No.1」、「顧客メリット」、「売り方」、「実数値」である。
算出部122は、例えば、感性タイプ同士のマッチング度数を算出してもよい。言い換えれば、算出部122は、感性タイプ同士の相性度を算出してもよい。この場合、例えば、取得部121は、SNS上の複数の著名人の感性タイプと、その著名人をフォローしているユーザの感性タイプを取得する。そして、算出部122は、例えば、著名人の感生タイプをフォローしている割合の高い感性タイプなどを算出することで、感性タイプ同士の相性度をモデル化する。これにより、影響の受けやすい感性タイプの組み合わせなどを把握することができる。
算出部122は、例えば、感性タイプごとの種々の好みを算出してもよい。算出部122は、感性タイプごとの感性示唆を算出してもよい。具体的には、算出部122は、例えば、感性タイプごとの好むDM(Direct Mail)およびWeb広告などの出し分けの方法を算出してもよい。算出部122は、例えば、感性タイプごとの最適なコンテンツの組み合わせを算出してもよい。算出部122は、例えば、感性タイプごとの好むメディア、インフルエンサーを算出してもよい。算出部122は、例えば、感性タイプごとにムードボードおよびレコメンド情報などを算出してもよい。算出部122は、例えば、取得部121が取得した種々のコンテンツの利用者像、ファン層を算出してもよい。この場合、算出部122は、例えば、取得部121が取得したレビュー情報に基づいて、利用者像や、ファン層を算出すればよい。
具体的には、算出部122は、例えば、消費者データベース112に記憶されている各種のデータに基づいて、感性示唆を算出してもよい。算出部122は、対象となるユーザが保有している商品リスト、Webの閲覧履歴、クリックしたことのあるWeb広告およびDMなどに関する情報に基づいて感性示唆を算出する。算出部122は、例えば、対象となるユーザに関する情報と、第三者が提供している画像およびキャラクターなどに関する情報を組み合わせて、感性示唆を算出してもよい。
再び図1を参照する。推定部123は、種々の情報を推定する。推定部123は、例えば、取得部121によって取得されたユーザの価値観情報に基づいて、ユーザが属する感性タイプを推定する。
図5を用いて、推定部123がユーザの感性タイプを推定する方法について説明する。図5は、推定部123がユーザの感性タイプを推定する方法の一例を説明するための模式図である。
図5に示すように、推定部123には、取得部121によって取得されたユーザが発した口コミなどが入力される。推定部123は、例えば、ユーザの性格を示す特徴である22項目について、各項目の特徴を持っているか否かを分析する。そして、推定部123は、性格を特徴づける22項目に基づいて、性格と感性タイプとを対応付けたマッピングテーブル140を用いて、ユーザの感性タイプを推定する。なお、性格を特徴づける22項目としては、知的好奇心、誠実性などを挙げることができる。具体的には、推定部123が推定する22項目の性格は、予め生成した感性データベース113に記憶されている感性タイプごとの特徴に近い性格であることが好ましい。これにより、取得部121によって口コミを発したユーザの性格を推定することができる。
推定部123は、取得部121が取得したあるユーザが発したテキスト、静止画像、動画像、音声及び音楽を含む音、及びこれらの組み合わせから、そのユーザの感性タイプを推定してもよい。推定部123は、例えば、取得部121が取得したあるユーザの顧客の導線に基づいて、そのユーザの感性タイプを推定してもよい。
再び図1を参照する。提示部124は、種々の情報を提示する。提示部124は、算出部122によるコンテンツの算出結果に基づいて、適切なユーザにそのコンテンツを提示する。具体的には、提示部124は、例えば、コンテンツがテキストである場合に、伝わる度と、ささる度と、表現傾向との少なくとも1つに基づいて、テキストの感性価値に応じた感性タイプに属するユーザに、テキストを提示する。
提示部124は、ユーザの価値観情報に基づいて、ユーザに対し最適な最適コンテンツを提示してもよい。具体的には、取得部121は、例えば、第1コンテンツ情報に基づいて生成された第1コンテンツとは異なる第2コンテンツに関する第2コンテンツ情報を少なくとも1つ取得する。この場合、算出部122は、複数の感性タイプのセグメントごとに、第2コンテンツ情報に対するマッチング度数を算出する。この場合、提示部124は、第1コンテンツと、第2コンテンツのうち、ユーザのマッチング度数が高い方のコンテンツを最適コンテンツとして提示する。ここでは、提示部124は、2つのコンテンツのうち、マッチング度数の高い方のコンテンツを提示する場合について説明したが、これは例示であり、本開示を限定するものではない。本開示において、提示部124は、更に多くのコンテンツのうちの最適なコンテンツをユーザに提示するようにしてもよい。
提示部124は、例えば、算出部122によって算出された感性示唆を感性タイプに応じた方法で提示してもよい。具体的には、提示部124は、例えば、感性タイプの好みに応じた方法で、DMおよびWeb広告を提示してもよい。提示部124は、例えば、算出部122によって算出された、ムードボードおよびレコメンド情報などを提示してもよい。これにより、提示部124は、感性タイプに応じて適切なレコメンド情報を提示することができる。
更新部125は、種々の情報の更新タイミングを検知したり、種々の情報を更新したりする。更新部125は、例えば、ユーザが分類されている感性タイプを更新するタイミングを検知する。具体的には、取得部121は、ユーザのWeb上の回遊履歴などを随時取得している。この場合、取得部121は、例えば、特定サイトを利用しているユーザの感性タイプが変化していることを取得することができる。更新部125は、取得部121が感性タイプの変化を取得した場合に、感性タイプを更新するタイミングであると検知する。
更新部125は、例えば、感性タイプを更新するタイミングを検知した場合、感性データベース113に記憶されている感性タイプを自動で更新するようにしてもよい。更新部125は、例えば、取得部121が定期的に取得したアンケート結果や、取得部121が随時取得しているユーザの行動ログや、特定サイトの利用ログに基づいて、感性データベース113に記憶されている感性タイプを自動で更新するようにしてもよい。
表示制御部126は、感性タイプのセグメントごとのマッチング度数を比較可能なマッチング情報を第1表示領域に可視化して表示部に表示する。ここで、表示部は、種々の映像を表示する。表示部は、例えば、表示制御部126からの制御に従って、マッチング情報を表示する。表示部は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示制御部126が表示部に表示する具体的な映像については後述する。
表示制御部126は、例えば、マッチング度数の最も高かった感性タイプのセグメントを最適感性タイプとして、第1表示領域において、マッチング情報に隣接して表示する。表示制御部126は、例えば、マッチング情報に含まれる感性タイプ及び最適感性タイプが選択された場合に、選択された感性タイプ又は最適感性タイプの詳細情報をポップアップ表示する。これにより、感性タイプの特徴の詳細が確認しやすくなる。
表示制御部126は、例えば、第1コンテンツ情報のマッチング度数を第1表示領域に表示する。この場合、表示制御部126は、例えば、第2コンテンツ情報のマッチング度数を第1表示領域に隣接する第2表示領域に表示する。これにより、第1コンテンツ情報と、第2コンテンツ情報とが比較しやすくなる。
表示制御部126は、算出部122が算出した伝わる度と、ささる度と、表現傾向とを可視化して表示部に表示する。この場合、表示制御部126は、表示部に表示された伝わる度が感性算出装置100の使用者によって選択された場合、テキストに含まれる単語や言い回しごとの出現回数と、認知度とをスコア化して表示する。表示制御部126は、表示部に表示されたささる度が感性算出装置100の使用者によって選択された場合、テキストにおいて、予め定められた複数のジャンルのそれぞれに関連する単語が含まれている度合いと、単語の出現頻度とをスコア化して表示する。
表示制御部126は、取得部121が感性タイプごとのユーザのコンテンツに対する購買情報を含む価値観情報を時系列に沿って取得した場合、感性タイプのセグメントごとのコンテンツの価値観情報の時間変化を表示する。
図6Aと、図6Bとを用いて、商品を購入しているユーザが属する感性タイプのセグメントの変化について説明する。図6Aは、商品を購入しているユーザが属する感性タイプの変化を示す模式図である。図6Bは、感性タイプに属するユーザの口コミの時間変化を示す模式図である。図6Aと、図6Bとにおいて、縦軸は、ユーザの口コミ数及び売り上げを含むリアクションを示しており、横軸は時間を示している。
図6Aにおいて、グラフL1は、例えば、ワイヤレスヘッドホンに関する第1商品に対する感性タイプがコンサバに属するユーザのリアクションの時間変化を示している。グラフL2は、例えば、ワイヤレスヘッドホンに関する第1商品に対する感性タイプがユニークに属するユーザのリアクションの時間変化を示している。グラフL1に示されるように、コンサバタイプのユーザの第1商品に対するリアクションは時間が経過するにつれて高くなっている。一方、グラフL2に示されるように、ユニークタイプのユーザの第1商品に対するリアクションは時間が経過するに連れて低くなっている。すなわち、グラフL1と、グラフL2とを参照することで、コンサバタイプのユーザは時間が経過するにつれて、第1商品に対する興味が高まり、ユニークタイプのユーザは時間が経過するにつれて、第1商品に対する興味が低くなっていることを把握することができる。
図6Bにおいて、グラフL11は、例えば、ワイヤレスヘッドホンに対するコンサバタイプのユーザのリアクションの時間変化を示している。グラフL12は、例えば、エアコンに対するコンサバタイプのユーザのリアクションの時間変化を示している。グラフL12に示すように、コンサバタイプのユーザのエアコンに対するリアクションは周期的に高くなっている。これは、夏や冬などのエアコンを動作させる時期にリアクションが高くなっていることを示している。一方、グラフL11を参照すると、ワイヤレスヘッドホンに関する第2商品が発売された201X年XX月XX日の段階では、コンサバタイプのユーザのワイヤレスヘッドホンに対するリアクションは比較的小さい。一方、ワイヤレスヘッドホンに関する第1商品が発売される201Y年YY月YY日の段階では、コンサバタイプのユーザのワイヤレスヘッドホンに対するリアクションは比較的大きい。すなわち、グラフL11を参照することで、第1商品が発売される201Y年YY月YY日には、ワイヤレスヘッドホンは、コンサバタイプの人たちのトレンドになっていると把握することができる。
(2.ユーザインターフェイス)
図7を用いて、本実施形態に係る感性算出装置100が表示部に表示するユーザインターフェイスの一例について説明する。図7は、ユーザインターフェイスの一例を示す模式図である。ユーザインターフェイス200は、例えば、使用者が感性算出装置100を使用する際に、表示部に表示されるインターフェイスである。
図7に示すように、ユーザインターフェイス200は、一気通貫画面を示している。ユーザインターフェイス200は、分析選択バー210と、メニューバー220と、ニュースバー230、テキスト入力タブ240と、第1画像入力タブ250と、第2画像入力タブ260と、コンテンツ入力タブ270とを有する。テキスト入力タブ240は、第1領域200-1に配置されている。第1画像入力タブ250は、第2領域200-2に配置されている。第2画像入力タブ260は、第3領域200-3に配置されている。コンテンツ入力タブ270は、第4領域200-4に配置されている。感性算出装置100では、例えば、マウスなどの操作機器を使用して、ユーザインターフェイス200に表示されている各種のタブを選択(クリック)することで、各タブに割り当てられている機能を実行することができる。なお、各機能は、感性算出装置100の制御部120が実行する。ユーザインターフェイス200は、例えば、使用者が感性算出装置100を使用する際に、表示部に表示されるインターフェイスである。
分析選択バー210は、一気通貫タブ211と、テキスト分析タブ212と、デザイン分析タブ213と、利用者分析タブ214とを有する。
一気通貫タブ211を選択すると、一気通貫画面に遷移する。なお、図7に示す、ユーザインターフェイス200は、一気通貫画面である。一気通貫タブ211を選択するには、例えば、マウスなどを操作し表示部に表示されている一気通貫タブ211をクリックして選択すればよい。これは以降も同様なので、説明は省略する。
一気通貫画面では、例えば、企業などが発行した広報文及び企業のサイトなどのキャッチコピーの分析、商品デザイン及びシチュエーションの画像の分析、コンテンツを利用しているユーザの類推を一画面で行うことができる。一気通貫画面では、例えば、ユーザとの全てのタッチポイントにおいて、コミュニケーションに一貫性があるか、実際の利用者は想定通りである否かを確認するために事前にシミュレーションを実行し、事後、確認することができる。
テキスト分析タブ212を選択すると、ユーザインターフェイス200は、テキスト分析画面に遷移する。テキスト分析画面では、広報文や、サイト・販促物・広告などのキャッチコピー及び本文を検討したり、制作したりする際に、ユーザに対する訴求力や、想定のユーザとのマッチング度数のシミュレーションを実行することができる。これにより、使用者は、テキスト分析画面上で文章を最適化したり、複数の候補の中から採用する候補を選択判断したりすることができる。また、テキスト分析画面上で、競合する他社やメディアが発行した文章との比較も可能となる。これにより、テキスト分析画面による分析結果を利用することで、自社が発行する広報文などのテキストのブラッシュアップが容易となる。なお、テキスト分析画面については後述する。
デザイン分析タブ213を選択すると、ユーザインターフェイス200は、デザイン分析画面に遷移する。デザイン分析画面では、例えば、商品デザイン、商品のカラーバリエーション企業のサイト・販促物・広告などで使用するイメージカットを制作・検討する際に、想定するユーザの感性タイプとのマッチング度数のシミュレーションを実行することができる。これにより、商品デザイン画面では、商品デザイン、商品のカラーバリエーション、イメージカットを最適化したり、選択したり、自社と競合他社の所品デザイン音感性訴求力やその方向性を比較したりすることができる。これにより、デザイン分析画面による分析結果を利用することで、商品デザインと、イメージカットの一貫性の確認などが容易となる。なお、デザイン分析画面については後述する。
利用者分析タブ214を選択すると、ユーザインターフェイス200は、利用者分析画面に遷移する。利用者分析画面では、自社の商品などのコンテンツ間でのユーザの感性タイプの比較を行うことができる。利用者分析画面では、例えば、ユーザの感性タイプについて、商品の旧モデルと新モデルとを比較したり、自社製品と他社製品とを比較したりすることができる。これにより、利用者分析画面では、例えば、想定していた感性タイプと、実際に商品を利用している感性タイプとのギャップを把握したり、実際に商品を利用しているユーザの感性タイプの比率を把握したりすることができる。利用者分析画面では、実際に商品を利用しているユーザの感性タイプの比率などを可視化してもよい。これにより、利用者分析画面による分析結果を利用することで、マーケティング施策の正当性を確認することや、今後のマーケティング施策を改善することが容易となる。なお、利用者分析画面については後述する。
メニューバー220は、ダッシュボードタブ221と、ブックマークタブ222と、FAQ(Frequently Asked Question)タブ223と、フィードバックタブ224と、セッティングタブ225とを有する。
ダッシュボードタブ221を選択すると、図7に示しているような分析画面を示すユーザインターフェイス200に遷移する。
ブックマークタブ222を選択すると、例えば、表示中の分析画面を感性算出装置100の記憶部110又は外部の記憶装置に保存することができる。具体的には、ブックマークタブ222を選択することで、入力されたコンテンツと分析結果を保存する。
ブックマークタブ222を選択すると、例えば、以前に保存された画面の一覧を表示する。具体的には、過去の分析結果が表示されたり、過去に分析したコンテンツを呼び出したり、他の使用者が分析したコンテンツの分析結果が表示される。これにより、過去の分析結果を活用することが容易となる。
FAQタブ223を選択すると、例えば、感性算出装置100のマニュアルや、感性算出装置100のFAQがまとめられたポータルサイトに接続される。これにより、感性算出装置100の使用性が向上する。
フィードバックタブ224を選択すると、例えば、感性算出装置100に対する使用者の意見を入力することができる。
セッティングタブ225を選択すると、例えば、プロジェクトに関するプロジェクト名や、プロジェクトに属するメンバーの編集を行うことができる。
ニュースバー230は、プロジェクトタブ231と、ニュースタブ232と、リセットボタン233とを有する。
プロジェクトタブ231には、現在利用中の使用者の氏名や、利用中のプロジェクト名称が表示される。プロジェクトタブ231を選択することで、例えば、利用するプロジェクトを変更することができる。
ニュースタブ232を選択することで、感性算出装置100のアップデータに関する情報や、障害情報などを確認することができる。ニュースタブ232には、感性算出装置100に関する新しいニュースが届くとその旨を示すアイコンが表示されるようにしてもよい。これにより、使用者は最新のニュースの把握が容易となる。
リセットボタン233を選択することで、例えば、分析中の処理を終了することができる。
次に、感性算出装置100において、テキストを分析する方法について説明する。
テキスト入力タブ240を選択することで、感性算出装置100に対して分析すべきテキストを入力することができる。
図8を用いて、感性算出装置100に対して、テキストを入力する方法について説明する。図8は、感性算出装置100に対して、テキストを入力する方法の一例を示す模式図である。
図8に示すように、テキスト入力タブ240が選択されると、例えば、表示制御部126は、テキスト入力画面241をユーザインターフェイス200においてポップアップ表示する。テキスト入力画面241には、例えば、「製品・サービスのキャッチコピーや企画書などのテキストデータを入れてください。」と表示される。テキスト入力画面241には、キャッチコピーや企画書などに制限されず、種々のテキストを入力してもよい。テキスト入力画面241には、タイトル入力領域242と、本文入力領域243とが含まれている。
タイトル入力領域242には、タイトルが入力される。具体的には、タイトル入力領域242には、例えば、「世界初、・・・、ワイヤレスヘッドホン3機種発売」といった文章が入力される。
本文入力領域243には、本文が入力される。具体的には、本文入力領域243には、例えば、「A社は、・・・、ワイヤレスヘッドホン3機種発売」といった文書が入力される。なお、タイトル入力領域242及び本文入力領域243に入力された文書は、取得部121によって取得される。
タイトル入力領域242及び本文入力領域243の少なくとも一方に文章を入力した後、解析ボタン244を選択することによって、算出部122は、入力された文書の訴求力を算出する。
図9を用いて、テキストの分析結果について説明する。図9は、テキストの分析結果の一例を示す模式図である。
図9に示すように、ユーザインターフェイス200の第1領域200-1には、タイトル310と、本文320と、タイトル訴求力330と、本文訴求力340とが示されている。
タイトル310は、タイトル入力領域242に入力されたテキストである。本文320は、本文入力領域243に入力されたテキストである。
タイトル訴求力330は、取得部121が取得したタイトルに基づいて、算出部122によって算出されたタイトルの訴求力である。算出部122は、タイトルの訴求力として、伝わる度331と、ささる度332と、表現傾向333とを算出している。伝わる度331は24%である。ささる度332は66%である。表現傾向333は36%である。図9では、表示制御部126は、伝わる度331と、ささる度332と、表現傾向333とをグラフ化して表示している。タイトル訴求力330を参照することで、タイトルの伝わる度が比較的低いことを把握することができる。
本文訴求力340は、取得部121が取得した本文に基づいて、算出部122によって算出された本文の訴求力である。算出部122は、本文の訴求力として、伝わる度341と、ささる度342と、表現傾向343とを算出している。伝わる度341は40%である。ささる度342は73%である。表現傾向343は82%である。図9では、表示制御部126は、伝わる度341と、ささる度342と、表現傾向343とをグラフ化して表示している。本文訴求力340を参照することで、本文のささる度と、表現傾向とが比較的高いことを把握することができる。
本文訴求力において、伝わる度341と、ささる度342とを選択することで、伝わる度341と、ささる度342との算出部122による算出結果の詳細を、表示制御部126によって表示させることができる。なお、伝わる度331と、ささる度332とを選択することで、伝わる度331と、ささる度332との詳細を表示させるようにしてもよい。
算出部122は、文書中の含まれる単語や言い回しについて、出現頻度と、認知度とを分析することで、消費者がその文書を理解できるか否かをスコア化する。算出部122は、例えば、出現頻度を回数、認知度をWeb検索結果、検索トレンド、Webにおける辞書へのアクセス頻度などの分析に基づいて、5段階にスコア化する。この場合、表示制御部126は、例えば、認知度の低い単語や言い回しは赤色で表示する。
図10を用いて、伝わる度の詳細を表示する方法について説明する。図10は、伝わる度の詳細を表示する方法の一例を示す模式図である。
図10に示すように、伝わる度詳細350は、第1領域200-1において、本文訴求力340に隣接して表示されている。伝わる度詳細350には、例えば、スポーツ、ノイズキャンセリング、世界初、両立、左右独立型、普段使い、調和、防滴性能が含まれている。
スポーツ、ノイズキャンセリング、世界初、両立、左右独立型、普段使い、調和、防滴性能の出現頻度は、それぞれ1である。これは、それぞれの単語が同程度に含まれていることを意味している。
スポーツ、両立、普段使い、調和については、認知度は5である。一方、ノイズキャンセリング、世界初、左右独立型、防滴性能については、認知度は1である。この場合、表示制御部126は、ノイズキャンセリング、世界初、左右独立型、防滴性能については赤く表示する。これにより、認知度の低い単語や言い回しの把握が容易となる。また、伝わる度詳細350に基づくことで、伝わりやすい単語や言い回しでテキストを書き換えることが容易となる。
図11を用いて、ささる度の詳細を表示する方法について説明する。図11は、ささる度の詳細を表示する方法の一例を示す模式図である。
図11に示すように、ささる度詳細360は、第1領域200-1において、本文訴求力340に隣接して表示されている。ささる度詳細360は、テーマ361と、レーダーチャート362とを含む。
テーマ361は、ささる度を示す9個のキーワードの度合いが示されている。9個のキーワードは上述したように、「新しさ」、「驚き」、「Only One」、「トレンド」、「ストーリー」、「No.1」、「顧客メリット」、「売り方」、「実数値」である。算出部122は、各キーワードに関連する単語がテキストに含まれているか否かを分析し、その単語の出現頻度の高さや、単語を強調して使用しているかを総合的に分析し、各キーワードをスコア化する。そして、表示制御部126は、9個のキーワードのうち、ユーザにささっているキーワードが強調して表示する。例えば、強くささっているキーワードは青く表示され、弱くささっているキーワードは黄色く表示され、ささっていないキーワードは強調なしで表示される。テーマ361では、「新しさ」と、「Only One」と、「ストーリー」とが弱く刺さっていることが示されている。
算出部122は、感性タイプのセグメントごとに各キーワードのマッチング度数を分析し、スコア化する。表示制御部126は、例えば、算出部122の算出結果をレーダーチャート362として表示する。レーダーチャート362では、感性タイプがエコロジーのユーザに強くささっていることが示されている。
テーマ361と、レーダーチャート362とを参照することで、テキストが想定している感性タイプのユーザにささっているか否かを確認しながら、テキストを修正することができる。
また、感性算出装置100は、入力されたテキストが、そのテキストが公表されるメディアや媒体にマッチしているかを示すマッチング度合いや適正化を示唆してもよい。
図12Aと、図12Bとを用いて、テキストのマッチング度合いや適正化を示唆する方法について説明する。図12Aは、テキストをクラスタ化する方法の一例を示す模式図である。図12Bは、クラスタ化された文書の性質の一例を示す模式図である。
図12Aに示すグラフ370は、入力されたテキストを、プレス向けテキスト371と、説明会資料向けテキスト372と、ニュース向けテキスト373と、キャッチコピー向けテキスト374のいずれかにクラスタ化することを示している。この場合、算出部122は、入力されたテキストが、どのクラスタに属しているかを分析する。この場合、表示制御部126は、算出部122による分析結果を表示する。これにより、入力したテキストが、どのクラスタに属しているか、想定していたクラスタから外れているか否かを示唆することができる。
図12Bは、プレス向けテキスト371における、文書の性質を説明するための模式図である。図12Bにおいて、第1プレス371aはA社が発表したテキストである。第1プレス371aは、例えば、改まった表現を含み、要約的な書き方をしているテキストであるとする。第2プレス371bはB社が発表したテキストである。第2プレス371bは、例えば、くだけた表現を含み、抽象的な書き方をしているテキストであるとする。このように、算出部122は、クラスタ化したテキスト内における、文章の性質を分析することができる。具体的には、算出部122は、文書の性質から、文書の表現、文書の書き方、文書のリズムなどを解析することができる。このため、例えば、A社がB社のようなテキストを公表した場合には、示唆された分析結果に基づいて、A社は文書を適切に修正することが容易となる。
次に、感性算出装置100において、デザインを分析する方法について説明する。
図7において、第1画像入力タブ250及び第2画像入力タブ260を選択することで、感性算出装置100に対して分析すべきデザインの画像を入力することができる。
図13を用いて、感性算出装置100に対して、画像を入力する方法について説明する。図13は、感性算出装置100に対して、画像を入力する方法の一例を示す模式図である。図13では、第1画像入力タブ250が選択された場合について説明する。第2画像入力タブ260が選択された場合の処理は、第1画像入力タブ250が選択された場合の処理と同じなので説明は省略する。
図13に示すように、第1画像入力タブ250が選択されると、例えば、表示制御部126は、画像入力画面251をユーザインターフェイス200においてポップアップ表示する。画像入力画面251には、ローカルデータ入力タブ252と、サーバデータ入力タブ253とが示されている。
ローカルデータ入力タブ252を選択すると、感性算出装置100を使用しているローカルのPC(Personal Computer)に記憶されている画像データを入力することができる。サーバデータ入力タブ253は、サーバデータベースに記憶されている画像データを入力することができる。入力された画像データは、取得部121によって取得される。
表示制御部126は、ローカルデータ入力タブ252又はサーバデータ入力タブ253が選択され、入力される画像が選択されると画像選択画面を表示する。図14は、画像選択画面の一例を示す模式図である。
図14に示すように、表示制御部126は、画像選択画面254をポップアップ表示する。画像選択画面254には、商品カット選択ボタン254aと、シチュエーション画像選択ボタン254bとが含まれている。画像選択画面254では、入力した画像データが商品である場合には商品カット選択ボタン254aを選択し、シチュエーションである場合にはシチュエーション画像選択ボタン254bを選択する。商品カット選択ボタン254a又はシチュエーション画像選択ボタン254bを選択した後、解析開始ボタン254cを選択することで、算出部122による商品の分析が実行される。具体的には、算出部122は、入力された画像データに対する各感性タイプのセグメントのマッチング度数を算出する。
図15を用いて、画像データの分析結果について説明する。図15は、画像データの分析結果の一例を示す模式図である。
図15に示すように、ユーザインターフェイス200の第2領域200-2には、商品画像データ410と、マッチング情報420と、最適感性タイプ430とが示されている。
商品画像データ410は、分析に使用された画像データを示している。
マッチング情報420は、商品画像データ410に隣接して表示されている。マッチング情報420は、商品画像データ410に対する各感性タイプのセグメントのマッチング度数が示されている。表示制御部126は、各感性タイプのマッチング度数をレーダーチャートで示している。これにより、商品画像データ410に対応する商品が、想定していた感性タイプのセグメントとマッチしているか否かを把握することができる。マッチング情報420には、感性タイプのセグメントがスタイリッシュのユーザとのマッチング度数が高いことが示されている。また、具体的には後述するが、商品画像データ410に基づいて、他の商品画像データと比較することも可能となる。
最適感性タイプ430は、マッチング情報420に隣接して表示されている。最適感性タイプ430は、マッチング度数の最も高かった感性タイプである。ここでは、最適感性タイプとしてスタイリッシュが示されている。スタイリッシュのユーザは、「先進性やトレンドに敏感なタイプ」であることが示されている。スタイリッシュのユーザの特徴として、「新商品をよくチェック」することや、「多人数でワイワイするのが好き」であることが示されている。また、最適感性タイプ430には、詳細ボタン431が含まれている。詳細ボタン431を選択することで、感性タイプがスタイリッシュのユーザの特徴を確認することができる。
上述では静止画像のコンテンツとして、商品画像を例に説明したが、これは例示であり、本発明を限定するものではない。感性算出装置100に入力する画像に特に制限はなく、VR(Virtual Reality)画像でもよいし、CAD(Computer Aided Design)で作成された画像であってもよい。感性算出装置100には、CG(Computer Graphics)で作成された動画像又は静止画像を入力してもよい。
また、感性算出装置100に入力されるコンテンツは、商品、テキスト、静止画像、動画像、音声および音楽を含む音の組み合わせであってもよい。コンテンツを組み合わせることで、感性価値を多角的に分析することが可能となる。
図16を用いて、最適感性タイプのユーザの特徴の詳細を確認する方法について説明する。図16は、最適感性タイプのユーザの特徴の詳細の一例を示す模式図である。
図16に示すように、表示制御部126は、詳細ボタン431が選択されると、詳細情報440をポップアップ表示する。
詳細情報440には、人物情報441と、嗜好情報442と、性年代情報443と、ブランド情報444と、購買行動情報445と、価値観情報446とを含む。
人物情報441には、例えば、全人口に対する構成比率が示されている。図16に示す例では、スタイリッシュの感性タイプの構成比率は、10%である。
嗜好情報442には、スタイリッシュのユーザの種々の嗜好する物の情報が含まれている。嗜好情報442には、例えば、カラー、趣味、興味、芸能人、閲覧再度、購読雑誌に関する情報が含まれている。この場合、例えば、スタイリッシュのユーザが好むカラーは、黒と、ゴールドと、赤とであることが示されている。
性年代情報443には、スタイリッシュのユーザを構成する性別と、年代に関する情報が含まれている。性年代情報443には、例えば、全体では、男性が48%であり、女性が52%であることが示されている。
ブランド情報444には、スタイリッシュのユーザが好むブランドに関する情報が含まれている。ブランド情報444には、例えば、男性と女性と好きなファッション、インテリア、家電に関するブランドの情報が含まれている。ブランド情報444には、年代ごとに好きなブランドに関する情報が含まれていてもよい。
購買行動情報445には、商品を購買する際の行動に関する情報が含まれている。例えば、商品を購買する際の行動に関する情報は、横軸を外部からの影響度、縦軸を情報収集度で生成したグラフで特徴づけられる。購買行動情報445には、例えば、トレンドに敏感で積極的に情報を収集することが示されている。
価値観情報446には、スタイリッシュのユーザの種々の価値観に関する情報が含まれている。価値観情報446には、例えば、流行やトレンドに敏感であることが示されている。
図16に示すように、詳細情報440には、スタイリッシュのユーザに関する種々の情報が含まれている。これにより、商品を展開する広告、展示、媒体選択などのマーケティング施策を検討する際に有効となる。なお、図15に示したマッチング情報420のレーダーチャートに含まれる感性タイプを選択することで、各感性タイプの詳細情報を表示するようにしてもよい。
また、図17に示すように、特定の感性タイプAが好むコンテンツを紐付けて表示したマップを表示するようにしてもよい。図17は、特定の感性タイプのユーザが好むコンテンツをネットワーク図化したコンテンツファンマップである。
コンテンツファンマップCM1には、コンテンツ11と、コンテンツ12と、コンテンツ13と、コンテンツ14と、コンテンツ15とが配置されている。コンテンツ11からコンテンツ16は、特定の感性タイプAのユーザが好むコンテンツである。このような、コンテンツファンマップCM1は、上述のアンケート結果に基づいて生成することができる。
コンテンツ11と、コンテンツ16とは、第1領域31に配置されている。コンテンツ12と、コンテンツ13と、コンテンツ14と、コンテンツ15とは、第2領域32に配置されている。この場合、第1領域31に配置されたコンテンツは、第2領域32に配置されたコンテンツよりも、感性タイプAのユーザが好むコンテンツであることを意味している。詳細には、原点Oに近い位置に配置されたコンテンツほど、感性タイプAのユーザが好むコンテンツであることを意味している。
コンテンツ11と、コンテンツ12とは、矢印21とで紐付けられている。コンテンツ12と、コンテンツ14とは、矢印22で紐付けられている。コンテンツ11と、コンテンツ14とは、矢印23で紐付けられている。コンテンツ11と、コンテンツ16とは、矢印24とで、紐付けられている。紐付けられたコンテンツ同士は、例えば、ECサイトや、レコメンドサイトから一緒に購入されたコンテンツであることを意味している。すなわち、紐付けられたコンテンツ同士は関連性が強いことを意味している。そのため、コンテンツファンマップCM1を確認することで、特定の感性タイプの顧客が好むコンテンツや、コンテンツ同士の関連性を把握することが容易になる。
また、図18に示すように、特定のコンテンツがどの感性タイプに好まれているかを示すマップを表示してもよい。図18は、特定のコンテンツがどの感性タイプに好まれているかを表示したコンテンツファンマップである。
コンテンツファンマップCM2には、第1領域41と、第2領域42と、第3領域43と、第4領域44とが示されている。コンテンツファンマップCM2には、例えばコンテンツ14が配置されている。
第1領域41は、中心領域41aと、周辺領域41bとを有する。第1領域41は、特定の感性タイプAが好むコンテンツの領域を示している。この場合、周辺領域41bに配置されたコンテンツよりも中心領域41aに配置されたコンテンツの方が、感性タイプAのユーザが好むコンテンツであることを意味している。
第2領域42は、中心領域42aと、周辺領域42bとを有する。第2領域42は、特定の感性タイプBが好むコンテンツの領域を示している。この場合、周辺領域42bに配置されたコンテンツよりも中心領域42aに配置されたコンテンツの方が、感性タイプBのユーザが好むコンテンツであることを意味している。
第3領域43は、中心領域43aと、周辺領域43bとを有する。第3領域43は、特定の感性タイプCが好むコンテンツの領域を示している。この場合、周辺領域43bに配置されたコンテンツよりも中心領域43aに配置されたコンテンツの方が、感性タイプCのユーザが好むコンテンツであることを意味している。
第4領域44は、中心領域44aと、周辺領域44bとを有する。第4領域44は、特定の感性タイプDが好むコンテンツの領域を示している。この場合、周辺領域44bに配置されたコンテンツよりも中心領域44aに配置されたコンテンツの方が、感性タイプDのユーザが好むコンテンツであることを意味している。
第1領域41から第4領域44とは、それぞれがいずれかの領域と重複している。重複している範囲に配置されたコンテンツは、その両方の感性タイプのユーザが好んでいることを意味する。図20に示す例では、コンテンツ14は、周辺領域41bと、周辺領域44bとの重複範囲に配置されている。これは、コンテンツ14が、感性タイプAと、感性タイプDの両方のユーザから好まれていることを意味している。すなわち、コンテンツファンマップCM2では、あるコンテンツのファン層が可視化されている。そのため、コンテンツファンマップCM2を確認することで、あるコンテンツが複数のユーザから好まれているか否かを確認することが容易となる。言い換えれば、あるコンテンツのファン層を構成しているユーザが、どの感性タイプに属しているかを確認することが容易となる。
次に、感性算出装置100において、コンテンツを利用するユーザの感性タイプを分析する方法について説明する。
図7において、コンテンツ入力タブを選択することで、感性算出装置100に対して分析すべきコンテンツを入力することができる。
図19を用いて、感性算出装置100に対して、コンテンツを入力する方法について説明する。図19は、感性算出装置100に対して、コンテンツを入力する方法の一例を示す模式図である。
図19に示すように、テキスト入力タブ240が選択されると、例えば、表示制御部126は、コンテンツ入力画面261をユーザインターフェイス200においてポップアップ表示する。コンテンツ入力画面261には、コンテンツ入力領域261aと、検索ボタン261bとが示されている。
コンテンツ入力領域261aには、分析すべきコンテンツの名称が入力される。コンテンツ入力領域261aにコンテンツを入力した後、検索ボタン261bを選択すると、入力したコンテンツの口コミやレビューの検索結果が表示される。ここで、入力したコンテンツの口コミやレビューは、取得部121が取得する。
図20を用いて、入力したコンテンツの検索結果について説明する。図20は、検索結果の一例を示す模式図である。
図20に示すように、検索結果262には、同一のコンテンツの色違いの製品が複数表示されている。ここで製品は、例えば、ワイヤレスヘッドホンである。具体的には、第1コンテンツ情報262aと、第2コンテンツ情報262bと、第3コンテンツ情報262cと、第4コンテンツ情報262dとが示されている。第1コンテンツ情報262aには第1選択ボタン263aが含まれている。第2コンテンツ情報262bには第2選択ボタン263bが含まれている。第3コンテンツ情報262cには第3選択ボタン263cが含まれている。第4コンテンツ情報262dには第4選択ボタン263dが含まれている。各選択ボタンを選択することで、分析を実行するコンテンツを選択することができる。分析するコンテンツを選択した後、解析ボタン264を選択することで、算出部122は、選択されたコンテンツの利用者の感性タイプの分析を実行する。
図21を用いて、感性タイプの分析結果について説明する。図21は、コンテンツの利用者の感性タイプの分析結果の一例を示す模式図である。
図21に示すように、ユーザインターフェイス200の第4領域200-4には、選択コンテンツ510と、感性タイプ情報520と、最多感性タイプ530とが示されている。
選択コンテンツ510は、感性算出装置100の使用者によって選択されたコンテンツを示している。
感性タイプ情報520は、選択コンテンツ510に隣接して表示されている。感性タイプ情報520は、選択コンテンツ510を利用している感性タイプのユーザの割合を示している。表示制御部126は、各感性タイプの割合をレーダーチャートで示している。これにより、選択コンテンツ510に対応する商品が、想定していた感性タイプとマッチしているか否かを把握することができる。感性タイプ情報には、感性タイプがチャーミングのユーザの利用率が高いことが示されている。
最多感性タイプ530は、感性タイプ情報520に隣接して表示されている。最多感性タイプ530は、選択コンテンツ510の利用率の最も高かった感性タイプである。ここでは、最多感性タイプとしてチャーミングが示されている。チャーミングのユーザは、「ファッション性を取り入れるタイプ」であることが示されている。チャーミングのユーザの特徴として、「ブランド商品が好き」であることや、「良いと思ったものは他人にすすめる」ことが示されている。また、最多感性タイプ530には、詳細ボタン531が含まれている。詳細ボタン531を選択することで、感性タイプがチャーミングのユーザの特徴を確認することができる。詳細を表示させる方法については、最適感性タイプ430の場合と同様なので説明は省略する。
一気通貫画面では、テキストと画像などを横並びで表示したが、本開示では、テキスト分析タブ212を選択することで、テキストのみを横に並べて表示比較することができる。
図22を用いて、テキスト分析画面について説明する。図22は、テキスト分析画面のユーザインターフェイス300を示す模式図である。例えば、一気通貫画面のユーザインターフェイス200の状態で、テキスト分析タブ212を選択することでユーザインターフェイス300に切り替わる。言い換えれば、表示制御部126がユーザインターフェイス200からユーザインターフェイス300に切り替える。
図22に示すように、ユーザインターフェイス300には、第1領域300-1に第1テキスト入力タブ240Aと、第2領域300-2に第2テキスト入力タブ240Bと、第3領域300-3に第3テキスト入力タブ240Cとを含む。第1テキスト入力タブ240Aと、第2テキスト入力タブ240Bと、第3テキスト入力タブ240Cとを選択することで、それぞれに異なるテキストを入力することができる。なお、テキストを入力して分析する方法については、ユーザインターフェイス200の場合と同様なので説明は省略する。また、図22では、テキスト入力タブが3個含まれているが、これは例示であり、本開示を限定するものではない。本開示では、例えば、テキスト分析タブ212を選択することで、横並びに表示させるテキストの数を自由に設定することができる。
図23を用いて、テキストの分析結果について説明する。図23は、テキストの分析結果の一例を示す模式図である。
図23に示すように、ユーザインターフェイス300の第1領域300-1には、本文320Aと、本文訴求力340Aと、ささる度詳細360Aのテーマ361Aとが示されている。本文320Aには、例えば、「AAAは、・・・・、です」といったことが記載される。
本文訴求力340Aは、伝わる度341Aと、ささる度342Aと、表現傾向343Aとを含む。伝わる度341Aは37%である。ささる度342Aは62%である。表現傾向343Aは70%である。
テーマ361Aを参照すると、本文320Aはテーマとして「驚き」が弱くささっていることが示されている。
ユーザインターフェイス300の第2領域300-2には、本文320Bと、本文訴求力340Bと、ささる度詳細360Bのテーマ361Bとが示されている。本文320Bには、例えば、「BBBは、・・・・、です」といったことが記載される。
本文訴求力340Bは、伝わる度341Bと、ささる度342Bと、表現傾向343Bとを含む。伝わる度341Bは43%である。ささる度342Bは63%である。表現傾向343Cは89%である。すなわち、本文320Bは比較的強く共感されていることが示されている。
テーマ361Bを参照すると、本文320Bはテーマとして「トレンド」と、「顧客メリット」とが弱くささっていることが示されている。
ユーザインターフェイス300の第3領域300-3には、本文320Cと、本文訴求力340Cと、ささる度詳細360Cのテーマ361Cとが示されている。本文320Cには、例えば、「CCCは、・・・・、です」といったことが記載される。
本文訴求力340Cは、伝わる度341Cと、ささる度342Cと、表現傾向343Cとを含む。伝わる度341Cは26%である。ささる度342Cは57%である。表現傾向343Cは79%である。すなわち、本文320Cは、比較的伝わっていないことが示されている。
テーマ361Cを参照すると、本文320Cはテーマとして何もささっていないことが示されている。
上述のように、テキスト分析画面では複数のテキストを横並びに表示させることで、それぞれの訴求力を容易に比較することができる。そのため、サイト・販促物・広告などのキャッチコピー及び本文を検討したり、制作したりする際に、ユーザに対する訴求力や、想定のユーザとのマッチング度数のシミュレーションを実行することができる。これにより、使用者は、テキスト分析画面上で文章を最適化したり、複数の候補の中から採用する候補を選択判断したりすることができる。
一気通貫画面では、テキストと画像などを横並びで表示したが、本開示では、デザイン分析タブ213を選択することで、画像のみを横に並べて表示比較することができる。
図24を用いて、デザイン分析画面について説明する。図24は、デザイン分析画面のユーザインターフェイス400を示す模式図である。例えば、一気通貫画面のユーザインターフェイス200の状態で、デザイン分析タブ213を選択することでユーザインターフェイス400に切り替わる。言い換えれば、表示制御部126がユーザインターフェイス200からユーザインターフェイス400に切り替える。
図24に示すように、ユーザインターフェイス400には、第1領域400-1に第1画像入力タブ250Aと、第2領域400-2に第2画像入力タブ250Bと、第3領域400-3に第3画像入力タブ250Cと、第4領域400-4に第4画像入力タブ250Dとを含む。第1画像入力タブ250Aと、第2画像入力タブ250Bと、第3画像入力タブ250Cと、第4画像入力タブ250Dとを選択することで、それぞれに異なる画像を入力することができる。なお、テキストを入力して分析する方法については、ユーザインターフェイス200の場合と同様なので説明は省略する。また、図24では、画像入力タブが4個含まれているが、これは例示であり、本開示を限定するものではない。本開示では、例えば、デザイン分析タブ213を選択することで、横並びに表示させるテキストの数を自由に設定することができる。
図25を用いて、デザインの分析結果について説明する。図25は、デザインの分析結果の一例を示す模式図である。
図25に示すように、ユーザインターフェイス400の第1領域400-1には、商品画像データ410Aと、マッチング情報420Aと、最適感性タイプ430Aとが含まれている。
商品画像データ410Aは、使用者によって入力される画像データである。商品画像データ410Aは、例えば、黒のワイヤレスヘッドホンである。
マッチング情報420Aは、商品画像データ410Aに対する各感性タイプのマッチング度数を示すレーダーチャートである。すなわち、マッチング情報420Aは、各感性タイプの顧客像を示すレーダーチャートである。マッチング情報420Aには、商品画像データ410Aは、感性タイプがポピュラーなユーザとのマッチング度数が高いことが示されている。
最適感性タイプ430Aは、マッチング度数の最も高かった感性タイプである。ここでは、最適感性タイプとしてポピュラーが示されている。ポピュラーのユーザは、「人気があるものを好むタイプ」であることが示されている。ポピュラーのユーザの特徴として、「売れているものを買えば間違いない」と考えることや、「デザインより多機能」を好むことが示されている。また、最適感性タイプ430Aには、詳細ボタン431Aが含まれている。詳細ボタン431Aを選択することで、感性タイプがポピュラーのユーザの特徴の詳細を確認することができる。
ユーザインターフェイス400の第2領域400-2には、商品画像データ410Bと、マッチング情報420Bと、最適感性タイプ430Bとが含まれている。
商品画像データ410Bは、使用者によって入力される画像データである。商品画像データ410Bは、例えば、商品画像データ410Aとは色違いの白のワイヤレスヘッドホンである。すなわち、商品画像データ410Bは、商品画像データ410Aに基づいて生成された同一コンテンツの色違いの商品の画像データである。
マッチング情報420Bは、商品画像データ410Bに対する各感性タイプのマッチング度数を示すレーダーチャートである。マッチング情報420Bには、商品画像データ410Bは、感性タイプがポピュラーなユーザとのマッチング度数が高いことが示されている。
最適感性タイプ430Bは、マッチング度数の最も高かった感性タイプである。ここでは、最適感性タイプとしてポピュラーが示されている。最適感性タイプ430Bには、詳細ボタン431Bが含まれている。詳細ボタン431Bを選択することで、感性タイプがポピュラーのユーザの特徴の詳細を確認することができる。
ユーザインターフェイス400の第3領域400-3には、商品画像データ410Cと、マッチング情報420Cと、最適感性タイプ430Cとが含まれている。
商品画像データ410Cは、使用者によって入力される画像データである。商品画像データ410Cは、例えば、商品画像データ410A及び商品画像データ410Bとは色違いの黄色のワイヤレスヘッドホンである。すなわち、商品画像データ410Cは、商品画像データ410A及び商品画像データ410Bに基づいて生成された同一コンテンツの色違いの商品の画像データである。
マッチング情報420Cは、商品画像データ410Cに対する各感性タイプのマッチング度数を示すレーダーチャートである。マッチング情報420Cには、商品画像データ410Cは、感性タイプがZENなユーザとのマッチング度数が高いことが示されている。
最適感性タイプ430Cは、マッチング度数の最も高かった感性タイプである。ここでは、最適感性タイプとしてZENが示されている。ZENのユーザは、「モノより体験を重視するタイプ」であることが示されている。ZENのユーザの特徴として、「イベントにお金を使う」ことや、「情報には踊らされたくない」と考えることが示されている。また、最適感性タイプ430Cには、詳細ボタン431Cが含まれている。詳細ボタン431Cを選択することで、感性タイプがポピュラーのユーザの特徴の詳細を確認することができる。
上述のとおり、デザイン分析画面では、同一商品において、カラーバリエーションごとに各感性タイプのマッチング度数を算出することができる。すなわち、デザイン分析画面では、想定するユーザの感性タイプに応じた商品デザインや、カラーバリエーションを検討したり、サイト・販促物・広告などのイメージカットを制作・検討したりする際に、有用である。具体的には、デザイン分析画面では、想定するユーザの感性タイプのマッチング度数をシミュレーションしながら商品のコンセプトを最適化したり、選択したり、自社と競合他社の商品デザインの感性訴求力やその方向性を比較したりすることができる。その結果、商品デザインと、イメージカットの一貫性の確認などが容易になる。
ユーザインターフェイス400においては、入力された画像の商品に対するレビューや口コミなどを含むレビュー情報をSNSなどから収集して、口コミの解析を実行してもよい。例えば、商品画像データ410Aとして入力された、黒のワイヤレスヘッドホンに対するユーザの評価を1から5までの5段階で算出してもよい。この場合、1が最も低い評価で、5が最も高い評価であることを意味する。ユーザインターフェイス400においては、商品画像データ410Aとして入力された、黒のワイヤレスヘッドホンに対するVOCを頻出ワードとして表示してもよい。この場合、VOCの内容の評価をリアルタイムで実行してもよい。また、ユーザインターフェイス400においては、商品画像データ410Aとして入力された、黒のワイヤレスヘッドホンに対するVOCを自動でカテゴライズして表示するようにしてもよい。商品画像データ410Aとして入力された、黒のワイヤレスヘッドホンに対するVOCに基づいて、「高音」「ノイズ」などの単語を「音質」として、カテゴライズしてもよい。
これにより、ユーザインターフェイス400において、Webの回遊履歴、SNSの口コミ、VOC、およびECサイトなどの口コミを含むレビュー情報に基づいて、入力された画像の商品の利用者像や、利用が見込まれる利用者像を算出することができる。すなわち、入力された画像の商品を利用しているユーザの感性タイプや、利用が見込まれるユーザの感性タイプをすることができる。具体的には、ある商品のブランドやアーティストのファン層を算出することができる。
また、ユーザインターフェイス400においては、マッチング情報420Aのレーダーチャートに表示された感性タイプを選択することで、感性タイプごとの頻出ワードを表示したり、感性タイプごとのVOCのカテゴライズを実行したりしてもよい。
図26を用いて、利用者分析画面について説明する。図26は、利用者分析画面のユーザインターフェイス500を示す模式図である。例えば、一気通貫画面のユーザインターフェイス200の状態で、利用者分析タブ214を選択することでユーザインターフェイス500に切り替わる。言い換えれば、表示制御部126がユーザインターフェイス200からユーザインターフェイス500に切り替える。
図26に示すように、ユーザインターフェイス500には、第1領域500-1に第1コンテンツ入力タブ270Aと、第2領域500-2に第2コンテンツ入力タブ270Bと、第3領域500-3に第3コンテンツ入力タブ270Cとを含む。第1コンテンツ入力タブ270Aと、第2コンテンツ入力タブ270Bと、第3コンテンツ入力タブ270Cとを選択することで、それぞれに異なる画像を入力することができる。なお、コンテンツを入力して分析する方法については、ユーザインターフェイス200の場合と同様なので説明は省略する。また、図26では、コンテンツ入力タブが3個含まれているが、これは例示であり、本開示を限定するものではない。本開示では、例えば、利用者分析タブ214を選択することで、横並びに表示させるテキストの数を自由に設定することができる。
図27を用いて、コンテンツの分析結果について説明する。図27は、コンテンツの分析結果の一例を示す模式図である。
図27に示すように、ユーザインターフェイス500の第1領域500-1には、選択コンテンツ510Aと、感性タイプ情報520Aと、最多感性タイプ530Aとが含まれている。
選択コンテンツ510Aは、使用者によって入力された分析すべきコンテンツ情報である。選択コンテンツ510Aは、例えば、ワイヤレスヘッドホンに関する第1商品である。
感性タイプ情報520Aは、選択コンテンツ510を利用している感性タイプのユーザの割合を示すレーダーチャートである。感性タイプ情報520Aには、選択コンテンツ510Aを利用しているユーザの感性タイプは、スタイリッシュが最も多いことを示している。
最多感性タイプ530Aは、選択コンテンツ510Aの利用率の最も高かった感性タイプである。ここでは、最多感性タイプとしてスタイリッシュが示されている。また、最多感性タイプ530Aには、詳細ボタン531Aが含まれている。詳細ボタン531Aを選択することで、感性タイプがスタイリッシュのユーザの特徴の詳細を確認することができる。
ユーザインターフェイス500の第2領域500-2には、選択コンテンツ510Bと、感性タイプ情報520Bと、最多感性タイプ530Bとが含まれている。
選択コンテンツ510Bは、使用者によって入力された分析すべきコンテンツ情報である。選択コンテンツ510Bは、例えば、ワイヤレスヘッドホンに関する第2商品である。
感性タイプ情報520Bは、選択コンテンツ510を利用している感性タイプのユーザの割合を示すレーダーチャートである。感性タイプ情報520Bには、選択コンテンツ510Bを利用しているユーザの感性タイプは、ZENが最も多いことを示している。
最多感性タイプ530Bは、選択コンテンツ510Bの利用率の最も高かった感性タイプである。ここでは、最多感性タイプとしてZENが示されている。また、最多感性タイプ530Bには、詳細ボタン531Bが含まれている。詳細ボタン531Bを選択することで、感性タイプがZENのユーザの特徴の詳細を確認することができる。
ユーザインターフェイス500の第3領域500-3には、選択コンテンツ510Cと、感性タイプ情報520Cと、最多感性タイプ530Cとが含まれている。
選択コンテンツ510Cは、使用者によって入力された分析すべきコンテンツ情報である。選択コンテンツ510Cは、例えば、ワイヤレスヘッドホンに関する第3商品である。
感性タイプ情報520Cは、選択コンテンツ510を利用している感性タイプのユーザの割合を示すレーダーチャートである。感性タイプ情報510cCは、選択コンテンツ510Bを利用しているユーザの感性タイプは、スタイリッシュが最も多いことを示している。
最多感性タイプ530Cは、選択コンテンツ510Cの利用率の最も高かった感性タイプである。ここでは、最多感性タイプとしてスタイリッシュが示されている。また、最多感性タイプ530Cには、詳細ボタン531Cが含まれている。詳細ボタン531Cを選択することで、感性タイプがスタイリッシュのユーザの特徴の詳細を確認することができる。
上述のとおり、コンテンツ分析画面では、例えば、自社の同一商品のラインアップ間での利用者の感性タイプを比較したり、自社商品の旧モデルと新モデルとを比較したり、自社製品と他社製品とを比較したりすることができる。これにより、利用者分析画面では、例えば、想定していた感性タイプと、実際に商品を利用している感性タイプとのギャップを把握したり、実際に商品を利用しているユーザの感性タイプの比率を把握したりすることができる。利用者分析画面による分析結果を利用することで、マーケティング施策の正当性を確認することや、今後のマーケティング施策を改善することが容易となる。
次に、図28を用いて、分析結果を保存する処理について説明する。図28は、分析結果を保存する処理の一例を示す模式図である。
例えば、図27に示したコンテンツ分析画面の表示された分析結果を保存する。この場合、分析結果が表示されている画面上で、メニューバー220に配置しているブックマークタブ222を選択すると、図28に示すような、ブックマーク選択画面222aが、ユーザインターフェイス500にポップアップ表示される。
図28に示すように、ブックマーク選択画面222bには、ブックマークタブ222a-1と、ブックマーク一覧タブ222a-2とが含まれている。ブックマークタブ222a-1を選択すると、コンテンツ分析画面に表示されている分析結果がブックマークとして保存される。これは、一気通貫画面、テキスト分析画面、デザイン分析画面の場合も同様である。一方、ブックマーク一覧タブ222a-2を選択すると、過去に行ったブックマークが一覧で表示される。
図29を用いて、ブックマーク一覧の一例について説明する。図29は、ブックマーク一覧の一例を説明するための模式図である。
図29に示すように、ブックマーク一覧600には、例えば、テキスト分析結果610と、デザイン比較結果620と、シチュエーション比較結果630とが含まれている。
テキスト分析結果610は、過去に行ったテキスト分析の結果である。具体的には、テキスト分析結果610は、第1テキスト611と、第2テキスト612との分析結果であり、分析結果の登録者と、登録日とが関連付けられて保存されている。第1テキスト611は、タイトル611aと、本文611bとを含むテキストである。第2テキスト612は、タイトル612aと、本文612bとを含むテキストである。また、テキスト分析結果610には、適用ボタン615と、削除ボタン616とが含まれている。適用ボタン615を選択すると、テキスト分析結果610の詳細が表示される。削除ボタン616を選択すると、テキスト分析結果610が削除される。
デザイン比較結果620は、過去に行ったデザイン分析の結果である。具体的には、デザイン比較結果620は、第1商品画像データ621と、第2商品画像データ622と、第3シチュエーション画像データ633との分析結果であり、分析結果の登録者と、登録日とが関連付けられて記録されている。第1商品画像データ621と、第2商品画像データ622と、第3商品画像データ623とは、例えば、同一商品の色違いバージョンの商品の画像データである。また、デザイン比較結果620には、適用ボタン625と、削除ボタン626とが含まれている。適用ボタン625を選択すると、デザイン比較結果620の詳細が表示される。削除ボタン626を選択すると、デザイン比較結果620が削除される。
シチュエーション比較結果630は、過去に行ったシチュエーション画像の分析の結果である。具体的には、シチュエーション比較結果630は、第1シチュエーション画像データ631と、第2シチュエーション画像データ632と、第3シチュエーション画像データ633と、第4シチュエーション画像データ634との分析結果である。シチュエーション比較結果630には、分析結果の登録者と、登録日とが関連付けられている。また、シチュエーション比較結果630には、適用ボタン635と、削除ボタン636とが含まれている。適用ボタン635を選択すると、シチュエーション比較結果630の詳細が表示される。削除ボタン636を選択すると、シチュエーション比較結果630が削除される。
図30を用いて、過去に行った分析結果の詳細を表示する方法について説明する。図30は、過去に行った分析結果の詳細を示す模式図である。
図30は、図29において、適用ボタン635が選択された、シチュエーション比較結果630を示したユーザインターフェイス400Aを示している。
図30に示すように、ユーザインターフェイス400Aの第1領域400A-1には、第1シチュエーション画像データ631と、マッチング情報641と、最適感性タイプ651とが含まれている。マッチング情報641には、第1シチュエーション画像データ631は、感性タイプがエコロジーのユーザとのマッチング度数が最も高いことが示されている。最適感性タイプ651には、マッチング度数の最も高かった感性タイプが示されている。最適感性タイプ651には、詳細ボタン651-1が含まれている。なお、マッチング情報と、最適感性タイプの詳細については、ユーザインターフェイス400の場合と同様なので説明は省略する。
ユーザインターフェイス400Aの第2領域400A-2には、第2シチュエーション画像データ632と、マッチング情報642と、最適感性タイプ652とが含まれている。マッチング情報642には、第2シチュエーション画像データ632は、感性タイプがエコロジーのユーザとのマッチング度数が最も高いことが示されている。最適感性タイプ652には、マッチング度数の最も高かった感性タイプが示されている。最適感性タイプ652には、詳細ボタン652-1が含まれている。
ユーザインターフェイス400Aの第3領域400A-3には、第3シチュエーション画像データ633と、マッチング情報643と、最適感性タイプ653とが含まれている。マッチング情報643には、第3シチュエーション画像データ633は、感性タイプがエコロジーのユーザとのマッチング度数が最も高いことが示されている。最適感性タイプ653には、マッチング度数の最も高かった感性タイプが示されている。最適感性タイプ653には、詳細ボタン653-1が含まれている。
ユーザインターフェイス400Aの第4領域400A-4には、第4シチュエーション画像データ634と、マッチング情報644と、最適感性タイプ654とが含まれている。マッチング情報644には、第4シチュエーション画像データ634は、感性タイプがエコロジーのユーザとのマッチング度数が最も高いことが示されている。最適感性タイプ654には、マッチング度数の最も高かった感性タイプが示されている。最適感性タイプ654には、詳細ボタン654-1が含まれている。
上述のように、本開示では、過去に行った分析結果を表示させることができる。これにより、例えば、他の使用者が行った分析結果を確認したり、過去の分析結果を活用したりすることが容易となる。
本開示では、セッティングタブ225を選択することによって、上述した各分析に使用したテキストや画像データのファイルを、例えば、プロジェクト内のメンバーで供給することができる。この場合、ファイルは、例えば、プロジェクトのメンバーが共有するデータベース上に格納される。
図31を用いて、プロジェクトメンバーがファイルを共有する方法について説明する。図31は、共有画面のユーザインターフェイスを示す模式図である。
図31に示すように、ユーザインターフェイス700には、フォルダ追加ボタン710と、フォルダ名前変更ボタン720と、フォルダ削除ボタン730と、フォルダ表示領域740と、ファイル表示領域750とを有する。
フォルダ追加ボタン710を選択することで、ファイルを格納するためのフォルダを追加することができる。追加されたフォルダは、フォルダ表示領域740に表示される。
フォルダ名前変更ボタン720を選択することで、フォルダ表示領域740に表示されているフォルダ名を変更することができる。
フォルダ削除ボタン730を選択することで、フォルダ表示領域740に表示されているフォルダを削除することできる。
フォルダ表示領域740には、共有のデータベースに格納されているフォルダが表示される。例えば、図31では、「Project」フォルダ内の、「Image History」フォルダが選択されている。
ファイル表示領域750には、フォルダに格納されているファイルが表示される。具体的には、ファイル表示領域750には、フォルダ表示領域740で選択されたフォルダ内のファイルが表示される。ここでは、画像ファイルI1と、テキストファイルT1~T4とが格納されている。それぞれのファイルには、ファイル名と、最終更新日とが、関連付けられている。例えば、画像ファイルI1のファイル名は、「Image 1」であり、最終更新日は「2018年10月3日17時57分」であることが示されている。感性算出装置100の使用者などは、ファイル表示領域750に表示されているファイルを自由に分析などに使用することができる。
上述のとおり、本開示では、プロジェクトのメンバーなどが過去に使用した、ファイルを利用することができる。これにより、分析に使用した過去の素材を使用することができるので、有用である。
(3.その他の実施形態)
[3-1.発掘装置]
次に本開示のその他の実施形態に係る技術について説明する。
上述した実施形態では、ユーザの感性タイプに応じて、製品との情緒的な価値観を示すマッチング度数を算出している。本開示では、製品に限らず、音楽等のエンターテイメント分野に適用することができる。
従来、エンターテイメント分野において、担当者は、音楽活動支援プラットフォームに投稿された音源を聞いたり、SNSに投稿された動画を視聴したりすることで、新しいミュージシャンや、アイドルの発掘を行うことがある。しかしながら、これらの音源や動画は、数が膨大であり、かつ新たな音源や動画が日々登録されるので、登録されている全ての音源や動画を人手で確認することが困難であった。また、担当者は、新しいミュージシャンなどのアーティストを発掘できた場合に、アーティストの特性を理解したり、ファンを想定し、アーティスを売り出すための施策検討を行ったりすることがある。この場合、担当者は、例えば、関係者などからヒヤリングを行い、ヒヤリングの結果に基づいて、アーティストの売り上げ見込みや、アーティストの想定されるファン層を予想することがある。また、担当者は、勘や経験に基づいて、アーティストを売り出すための施策を行ったりすることがある。この場合、アーティスが成功した場合であっても、施策と結果の因果関係を分析することが困難となる可能性がある。
そこで、本開示のその他の実施形態では、新しいミュージシャン、アイドルなどを自動で発掘することのできる技術を提供する。また、本開示のその他の実施形態では、ミュージシャンなどのアーティストの商業価値を自動で算出することのできる技術を提供する。また、本開示のその他の実施形態では、アーティストの想定されるファンの具体像(以下、ペルソナ像とも呼ぶ)を生成することのできる技術を提供する。また、本開示のその他の実施形態では、アーティストの世間への定着度と、アーティストに関するトピックを自動で分析することのできる技術を開示する。
図32を用いて、本開示のその他の実施形態に係る発掘システムの構成について説明する。図32は、本開示のその他の実施形態に係る発掘システムの構成の一例を示す図である。
図32に示すように、発掘システム1は、発掘装置800と、記憶サーバ900とを含む。発掘装置800は、記憶サーバ900に保存された、各種の音源に関する音源ファイルや、動画に関する動画ファイルを取得する。発掘装置800は、取得された音源ファイルや、動画ファイルに基づいて、ミュージシャンやアイドルなどになり得る人物を発掘する。発掘装置800は、検出された人物の才能を含むクオリティを判定する。発掘装置800は、検出された人物のクオリティが所定の条件を満たすか否かを判定する。発掘装置800は、所定の条件を満たすと判定された人物を発掘装置800の使用者に推薦する。
記憶サーバ900は、各種の音楽ファイルおよび動画ファイルなどを記憶している。記憶サーバ900は、例えば、ユーザが楽曲を投稿することのできる、音楽支援プラットフォームのサーバを含む。記憶サーバ900は、例えば、各種の動画共有サービスなどのSNSのサーバを含む。図32に示す例では、発掘装置800は、1台の記憶サーバ900と接続しているように示しているが、発掘装置800は、複数の記憶サーバ900と接続されている。
図33を用いて、本開示のその他の実施形態に係る発掘装置の構成について説明する。図33は、本開示のその他の実施形態に係る発掘装置の構成の一例を示すブロック図である。
図33に示すように、発掘装置800は、記憶部810と、制御部820と、通信部830と、を備える。
記憶部810は、種々の情報を記憶している。記憶部810は、例えば、発掘装置800の各部を実現させるためのプログラムを記憶している。この場合、制御部820は、記憶部810に記憶されているプログラムを展開して実行することで、各部の機能を実現する。記憶部810は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブ、光ディスクなどの記憶装置で実現することができる。記憶部810は、通信部830を介して、有線又は無線で発掘装置800と接続された外部の記憶装置であってもよい。この場合、通信部830は、図32に図示の、インターネット網などのネットワークNWと接続されている。記憶部810は、例えば、第1学習済みデータ記憶部811と、第2学習済みデータ記憶部812と、第3学習済みデータ記憶部813と、を有する。
第1学習済みデータ記憶部811~第3学習済みデータ記憶部813は、学習された学習済みデータを記憶する。第1学習済みデータ記憶部811~第3学習済みデータ記憶部813は、学習済みモデルに関する情報を記憶する。第1学習済みデータ記憶部811~第3学習済みデータ記憶部813は、学習済みモデルの条件式に関する情報を記憶する。例えば、学習済みモデルを生成する際の学習モデル(分類器等)にはCNN(Convolutional Neural Network)などのニューラルネットワークを用いるが、これに限定されるものではない。学習モデルには、SVM(Support Vector Machine)、決定木等の学習モデルを用いてもよい。学習モデルには、線形または非線形の種々の学習モデルを用いてもよい。
具体的には、第1学習済みデータ記憶部811は、アーティストに関する各種の情報を入力すると、そのアーティストの商業的価値を出力する学習済みモデルを記憶している。アーティストに関する各種の情報は、例えば、音楽性情報と、ボーカルタイプ情報と、ライブの集客に関するライブ集客情報を含む。音楽性情報は、例えば、アーティストの音源に対して12音解析技術を用いて抽出された特徴量を形容詞に変換した情報が例示される。形容詞は、例えば、予め定められた複数の形容詞(例えば、62個)のうちの1つ、または2つ以上の組み合わせが用いられる。ボーカルタイプ情報は、例えば、アーティストの音源に対して音源分離技術を用いて抽出されたボーカルの音源を周波数に応じてタイプ別に分類された情報が例示される。ボーカルタイプは、ボーカルの音源を周波数解析の解析結果に応じて予め定められた複数のタイプ(例えば、27タイプ)のうちの1つが用いられる。ライブ集客情報は、例えば、アーティストが出演したフェス、ライブ、ディナーショーなどを含むイベントのタイプに関する情報や、イベントが行われた会場の収容人数に関する情報を含む。
第2学習済みデータ記憶部812は、人物の顔の画像データを入力すると、その人物は人気が出そうか否かを示す学習済みモデルを記憶する。第2学習済みデータ記憶部812は、人物の顔の画像データを入力すると、その人物はアイドルとして人気がでそうか否かを示す情報を出力する。
第3学習済みデータ記憶部813は、例えば、写真共有サービスや動画共有サービスなどに登録されている静止画や動画のコンテンツに関する情報を入力すると、写真や動画に含まれる人物は人気が出そうか否かを示す学習済みモデルを記憶する。コンテンツに関する情報は、例えば、コンテンツのタイトルや静止画や動画に埋め込まれたテキストに関する情報や、動画に含まれる音に関する情報を含む。コンテンツに関する情報は、例えば、動画を構成するフレーム画像や、フレーム画像に含まれる物体に関する情報を含む。より具体的には、第3学習済みデータ記憶部813は、チャンネル登録数、再生回数、フォロワー数、およびコメント数などを入力して、その静止画および動画の流行度を出力する学習済みモデルを記憶してよい。第3学習済みデータ記憶部813は、静止画や動画に含まれる人物の顔の画像を入力として、人気がでそうか否かを示す情報を出力する学習済みモデルを記憶してよい。第3学習済みデータ記憶部813は、静止画および動画に付けられたタイトルを入力として、タイトルのキャッチー度を出力する学習済みモデルを記憶してよい。第3学習済みデータ記憶部813は、動画を構成する複数のフレーム画像を入力として、サムネイル画像の魅力度を出力する学習済みモデルを記憶してよい。第3学習済みデータ記憶部813は、静止画や動画に含まれる物体を入力として、静止画や動画に含まれる各物体の新しさや、物体間の組み合わせの意外性に関する情報を出力する学習済みモデルを記憶してよい。
制御部820は、取得部821と、抽出部822と、タイプ判定部823と、クオリティ判定部824と、推薦部825と、表示制御部826と、を備える。制御部820は、例えば、CPUやMPU等によって、図示しない記憶部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。また、制御部820は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現されてもよい。
取得部821は、各種のコンテンツに関する情報を取得する。取得部821は、通信部830を介して、記憶サーバ900などから判定すべきアーティストの音源に関する情報を取得する。取得部821は、通信部830を介して、記憶サーバ900などから人物の静止画や動画に関する情報を取得する。
抽出部822は、取得部821が取得したコンテンツのうち、所定のコンテンツを抽出する。抽出部822は、取得部821が取得したコンテンツのうち、人気のでそうなコンテンツを抽出する。抽出部822は、音楽活動支援プラットフォームや、SNSなどから取得できた全ユーザ(アーティスト等)の再生回数、閲覧回数、フォロワー数、イイネ数、上昇率などを取得する。抽出部822は、抽出した再生回数、閲覧回数、フォロワー数、イイネ数、上昇率などに基づいてスコア化して、全ユーザに対してランキングを付与する。抽出部822は、全ユーザのうち、上位のランキング(例えば、20位まで)のユーザを抽出する。抽出部822は、既に人気があったり、有名であったりする人物は抽出対象から除外してよい。
タイプ判定部823は、抽出部822が抽出した人物のアーティストとしてのタイプを判定する。タイプ判定部823は、抽出した人物が、アーティスト系、アイドル系、およびタレント系のいずれかのタイプであるか否かを判定する。アーティスト系は、ミュージシャンに分類される人物である。アイドル系は、アイドルに分類される人物である。タレント系は、動画共有サービス(例えば、Youtube(登録商標))などで活動するタレントに分類される人物である。
クオリティ判定部824は、タイプ判定部823によって判定された、アーティスト系、アイドル系、タレント系に分類された人物のクオリティを判定する。
クオリティ判定部824は、アーティスト系の人物のクオリティを判定する場合には、第1学習済みデータ記憶部811に記憶されている学習済みモデルを用いて、クオリティを判定する。クオリティ判定部824は、アーティスト系の人物の音源に対して、第1学習済みデータ記憶部811に記憶されている学習済みモデルを用いて、クオリティを判定する。クオリティ判定部824は、第1学習済みデータ記憶部811に記憶されている学習済みモデルを用いて、アーティスト系の人物の楽曲が人気のでる可能性があるか否かを判定する。クオリティ判定部824は、第1学習済みデータ記憶部811に記憶されている学習済みモデルを用いて、楽曲が商業価値の高い楽曲、ボーカル特性であるか否かを判定する。クオリティ判定部824は、第1学習済みデータ記憶部811に記憶されている学習済みモデルを用いて、楽曲が集客力のあるライブが開催できるか、場を盛り上げるライブを開催できる否かを判定する。
クオリティ判定部824は、アイドル系の人物のクオリティを判定する場合には、第2学習済みデータ記憶部812に記憶されている学習済みモデルを用いて、クオリティを判定する。クオリティ判定部824は、アイドル系の人物の動画や画像に対して、第2学習済みデータ記憶部812に記憶されている学習済みモデルを用いてクオリティを判定する。クオリティ判定部824は、アイドル系人物の動画に基づいてクオリティを判定する場合には、図34に示すように、動画をフレーム画像D1からフレーム画像D6のように、複数のフレーム画像に分解する。クオリティ判定部824は、フレーム画像D4からフレーム画像D6において、顔画像F1から顔画像F3を検出する。そして、クオリティ判定部824は、検出された顔画像F1から顔画像F3に対して、第2学習済みデータ記憶部812に記憶されている学習済みモデルを用いて、クオリティを判定する。具体的には、クオリティ判定部824は、人物の顔が人気のでる可能性がある顔であるか否かを判定する。
クオリティ判定部824は、タレント系の人物のクオリティを判定する場合には、第3学習済みデータ記憶部813に記憶されている学習済みモデルを用いて、クオリティを判定する。クオリティ判定部824は、タレント系の人物が投稿した動画のタイトルや、動画に埋め込まれた文字などを含むテキスト情報に対して、第3学習済みデータ記憶部813に記憶されている学習済みモデルを用いて、クオリティを判定する。クオリティ判定部824は、タレント系の人物が投稿した動画に含まれる音に関する情報に対し、第3学習済みデータ記憶部813に記憶されている学習済みモデルを用いて、クオリティを判定する。クオリティ判定部824は、例えば、タレント系の人物が投稿した動画を構成するフレーム画像や、フレーム画像に含まれる物体に対して、第3学習済みデータ記憶部813に記憶されている学習済みモデルを用いて、クオリティを判定する。クオリティ判定部824は、例えば、タレント系の人物が投稿した静止画像に含まれる物体に対して、学習済みモデルを用いて、クオリティを判定する。クオリティ判定部824は、タレント系の人物が人気のでる可能性があるか否かを判定する。
すなわち、クオリティ判定部824は、人気の出る可能性の有無を含むコンテンツの人気度を判定する。言い換えれば、クオリティ判定部824は、人気のでる可能性があるアーティスト、アイドル、タレントを発掘する。
推薦部825は、所定のクオリティ以上であると判定されたアーティスト系、アイドル系、タレント系の人物をユーザに対して推薦する。すなわち、推薦部825は、クオリティ判定部824が発掘した、アーティスト、アイドル、タレントをユーザに推薦する。
表示制御部826は、クオリティ判定部824の判定結果や、推薦部825による推薦人物を表示部に表示させる制御をおこなう。表示制御部826は、表示部にユーザインターフェイスを表示させる制御を行う。
[3-2.ユーザインターフェイス]
図35を用いて、本実施形態に係る発掘装置800が表示部に表示するユーザインターフェイスの一例について説明する。図35は、ユーザインターフェイスの一例を示す模式図である。
図35に示すユーザインターフェイス2000は、例えば、使用者が発掘装置800を使用する際に、表示部に表示されるインターフェイスである。
ユーザインターフェイス2000は、選択領域2010と、スポットライト表示領域2020と、アーティスト表示領域2030と、アイドル表示領域2040と、タレント表示領域2050と、を含む。図35に示すユーザインターフェイス2000は、トップ画面である。
選択領域2010は、「トップ」ボタンと、「いいねリスト」ボタンと、「わたしの「注目」」ボタンと、「設定」ボタンと、「履歴書」ボタンと、を含む。
「トップ」ボタンが選択されると、トップ画面に移行する。「いいねリスト」ボタンが選択されると、ユーザ自身がいいねをした人物や、ユーザが所属するプロフェクトの人物がいいねをした人物が表示される、いいねリストの画面に移行する。「わたしの「注目」」ボタンが選択されると、ユーザが注目している人物が表示される注目リストの画面に移行する。「設定」ボタンが選択されると、インターフェイスの表示領域などを変更する画面に移行する。「履歴書」ボタンが選択されると、選択された人物の活動履歴を含む履歴を表示する画面に移行する。ユーザが所属するプロフェクトの人物がいいねをした人物が表示される画面、ユーザが注目している人物が表示される画面、選択された人物の活動履歴を含む履歴を表示する画面については後述する。
スポットライト表示領域2020は、今週注目されているアーティスト系、アイドル系、タレント系の人物が表示される。スポットライト表示領域2020に表示される人物の数に特に制限はない。
アーティスト表示領域2030は、発掘されたアーティストを表示する領域である。アーティスト表示領域2030には、発掘されたアーティストに関する情報が表示される。例えば、アーティスト#1でいえば、アーティスト情報#1と、プロフィール画像2031と、いいねボタン2032と、非表示ボタン2033と、属性情報2034とを、含む。アーティスト情報#1は、アーティスト#1のプロフィールなどの簡略的な情報を示す。プロフィール画像2031は、アーティスト#1のプロフィール画像を示す。プロフィール画像2031を押下することで、アーティスト#1の情報を示すページに繊維する。いいねボタン2032を押下すると、アーティスト#1をいいねリストに入れることができる。非表示ボタン2033を選択すると、ユーザインターフェイス200において、アーティスト#1を非表示にすることができる。「わたしの「注目」」ボタンを押下すると、注目リストに入れることができる。属性情報2034は、例えば、「やる気」、「いま旬」、「急上昇」、「大穴度」、および「人気度」といった項目が含まれる。属性情報2034においては、それぞれの項目についての評価が段階的(例えば、3段階)に示される。例えば、属性情報2034においては、評価が高いほど濃い色で示される。
アイドル表示領域2040は、発掘されたアイドルを表示する領域である。アイドル表示領域2040には、発掘されたアイドルに関する情報が表示される。例えば、アイドル#1でいえば、アイドル情報#1と、プロフィール画像2041と、いいねボタン2042と、非表示ボタン2043と、属性情報2044とを、含む。アイドル情報#1と、プロフィール画像2041と、いいねボタン2042と、非表示ボタン2043と、属性情報2044とは、それぞれ、アーティスト情報#1と、プロフィール画像2031と、いいねボタン2032と、非表示ボタン2033と、属性情報2034と同様なので、説明を省略する。
タレント表示領域2050は、発掘されたタレントを表示する領域である。タレント表示領域2050には、発掘されたタレントに関する情報が表示される。例えば、タレント#1でいえば、タレント情報#1と、プロフィール画像2051と、いいねボタン2052と、非表示ボタン2053と、属性情報2054とを、含む。タレント情報#1と、プロフィール画像2051と、いいねボタン2052と、非表示ボタン2053と、属性情報2054とは、それぞれ、アーティスト情報#1と、プロフィール画像2031と、いいねボタン2032と、非表示ボタン2033と、属性情報2034と同様なので、説明を省略する。
図36を用いて、ユーザやプロフェクトのメンバーによって、いいねボタン2032が選択されたアーティストのいいねリストについて説明する。図36は、アーティストのいいねリストを説明するための図である。なお、アイドルのいいねリストおよびタレントのいいねリストについては、アーティストのいいねリストの場合と同様なので、説明を省略する。
図36に示すように、いいねリスト2060には、ユーザやユーザが所属するプロジェクトのメンバーがいいねボタン2032を選択したアーティストが表示される。いいねリスト2060は、アーティストに対していいねボタン2032を選択した人物の数を示すいいね数情報2061を含む。例えば、アーティスト#2でいえば1人からいいねされており、アーティスト#4でいえば3人からいいねされていることが示されている。すなわち、ユーザは、いいねリスト2060を参照することで、そのアーティストが何人からいいねと思われているかを容易に把握することができる。
また、ユーザは、いいねリスト2060において、いいね数情報2061のボタンをマウスなどで押下することで、アーティストに対するいいねをキャンセルすることができる。この場合、ユーザが所属するプロフェクトのメンバーがいいねをしていないアーティストデあれば、いいねリスト2060からそのアーティストは消える。
図37を用いて、注目リストについて説明する。図37は、注目リストを説明するための模式図である。なお、アイドルの注目リストおよびタレントの注目リストについては、アーティストの注目リストと同様なので、説明を省略する。
図37に示すように、注目リスト2070には、ユーザ注目しているアーティストが表示される。例えば、注目リスト2070には、ユーザ注目しているアーティストとして、アーティスト#1、アーティスト#2、およびアーティスト#3などが示される。すなわち、注目リスト2070には、ユーザが注目しているアーティストを集約することができる。
図38を用いて、アーティストの履歴を表示する画面について説明する。図38は、アーティストの履歴を表示する画面を説明するための図である。なお、アイドルの履歴を表示する画面およびタレントの履歴を表示する画面については、アーティストの履歴を表示する画面と同様なので、説明を省略する。
図38に示すように、履歴画面2090は、原石検索領域2091と、履歴表示領域2092と、履歴入力領域2093と、を有する。
原石検索領域2091は、履歴表示領域2092に履歴を表示させるアーティスト名を検索する領域である。例えば、ユーザは、原石検索領域2091に含まれる入力ボタンに所望のアーティスト名を入力することで、履歴表示領域2092にそのアーティストの履歴を表示することができる。
履歴表示領域2092は、アーティストの履歴が表示される。履歴表示領域2092は、アーティスト#2と、アーティスト情報#2と、活動履歴#2とを含む。アーティスト#2には、実際にはアーティスト名が表示される。アーティスト情報#2には、アーティストの出身地や、バンドである場合には構成メンバーなどを含む基本的な情報が表示される。活動履歴#2には、実際にはライブ等の活動履歴を示す情報が表示される。すなわち、ユーザは、履歴画面2090を参照することで、アーティストの履歴を容易に把握することができる。
履歴入力領域2093は、アーティストの履歴を入力する領域である。ユーザは、履歴入力領域2093に履歴を入力して登録ボタンを押すことで、履歴表示領域2092の情報を更新することができる。
[3-3.分析装置]
図39を用いて、本開示のその他の実施形態に係る分析装置について説明する。図39は、本開示のその他の実施形態に係る分析装置の構成を示すブロック図である。
上述のとおり、発掘装置800は、人気のでる可能性のあるアーティスト、アイドル、およびタレントを発掘することができる。図39に示す、分析装置3000は、発掘装置800が発掘したアーティスト、アイドル、およびタレントの商業的な価値を算出する。分析装置3000は、発掘装置800が発掘したアーティスト、アイドル、およびタレントのファン層や、潜在的なファン層を分析する。分析装置3000は、発掘装置800が発掘したアーティスト、アイドル、およびタレントのファンのペルソナ像を生成する。
図39に示すように、分析装置3000は、記憶部3100と、制御部3200と、通信部3300と、を備える。
記憶部3100は、種々の情報を記憶している。記憶部3100は、例えば、分析装置3000の各部を実現させるためのプログラムを記憶している。この場合、制御部3200は、記憶部3100に記憶されているプログラムを展開して実行することで、各部の機能を実現する。記憶部810は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブ、光ディスクなどの記憶装置で実現することができる。記憶部3100は、通信部3300を介して、有線又は無線で分析装置3000と接続された外部の記憶装置であってもよい。この場合、通信部3300は、インターネット網などのネットワークと接続されている。記憶部3100は、例えば、ペルソナデータベース3110と、アーティスト特徴量データベース3120と、を有する。
ペルソナデータベース3110は、アンケート結果に基づいて生成された、学習済みモデルを記憶する。ペルソナデータベース3110は、例えば、数万人以上に対して実施された、音楽の嗜好に関するアンケートに基づいて生成された、学習済みモデルを記憶する。ペルソナデータベース3110は、アーティストの特徴量に関する情報が入力されると、そのアーティストの想定さえるファン層に関する情報を出力する学習済みモデルを記憶する。アーティストの特徴量は、アーティストに関する各種の情報を含む。アーティストの特徴量は、音源に関する情報や、アーティストに関するビジュアル、およびその他のオフラインの各種の情報を含む。
アーティスト特徴量データベース3120は、各種のアーティストの特徴量の解析結果に関する情報を記憶する。アーティストの特徴量としては、例えば、音楽性情報、音楽ジャンル情報、歌詞情報、ボーカルタイプ情報、ビジュアル情報、評判情報、プロフィール情報、ライブ集客情報、楽譜情報、および新規性情報の10個を上げることができる。
以下で、本開示でアーティストの特徴量として用いる、音楽性情報、音楽ジャンル情報、歌詞情報、ボーカルタイプ情報、ビジュアル情報、評判情報、プロフィール情報、ライブ集客情報、楽譜情報、および新規性について説明する。
音楽性情報は、楽曲の印象を意味する。音楽性情報は、楽曲の印象を表現する形容詞である。形容詞としては、例えば、「テンションの高い」、「華やかな」、「色っぽい」、「哀愁漂う」などが例示されるが、これに限定されない。具体的には、形容詞は、予め定められた62個の形容詞の中から選択される。62個の形容詞は、数万人以上に対して行われた音楽の嗜好性に関するアンケート結果に基づいて定められる。アーティスト特徴量データベース3120は、楽曲のリズム、テンポ、ビートなどの音楽性が入力されると、形容詞を出力する学習済みモデルを記憶する。このような学習済みモデルは、アンケート結果に基づいて生成される。楽曲のリズム、テンポ、ビートなどは、楽曲のデータファイルに基づいて、楽曲特性解析ツールを用いた12音解析技術などで解析される。
音楽ジャンル情報は、楽曲のジャンル、アーティストタイプ、年代、国などを意味する、楽曲のジャンルは、ポップ、ロックなどの情報を意味する。アーティストタイプは、男性、女性、混合、ソロ、デュオ、グループなどの情報を意味する
歌詞情報は、歌詞の特徴量に基づいて分類された、歌詞の印象を意味する。歌詞の印象とは、家族、恋愛、青春といったジャンルで表現される。アーティスト特徴量データベース3120は、歌詞のデータが入力されると、歌詞のジャンルに関する情報を出力する学習済みモデルを記憶している。このような学習済みモデルは、歌詞に対して形態素解析を実行して作成されたフレーズの特徴量の辞書に基づいて、生成される。
ボーカルタイプ情報は、楽曲を歌唱するアーティストのボーカルタイプを意味する。アーティスト特徴量データベース3120は、楽曲に対して音源分離技術を用いて抽出されたボーカルの音源のデータが入力されると、ボーカルタイプに関する情報を出力する学習済みモデルを記憶している。ボーカルタイプは、ボーカルの音源に対して実行した周波数解析の解析結果に応じて得られたボーカル特徴量に基づいて定められる。ボーカル特徴量は、声の高低、声域、声質などの情報を含む。ボーカルタイプに関する情報を出力する学習済みモデルは、ボーカル特徴量に基づいて生成される。
ビジュアル情報は、アーティストの写真や、アーティストの楽曲のジャケットの写真などの印象を意味する。ビジュアル情報は、アーティストの写真や、ジャケットの写真の印象を表現する形容詞である。形容詞としては、「清潔感がある」、「かわいい」、「男らしい」、「派手な」などが例示されるが、これに限定されない。具体的には、形容詞は、予め定められた22個の形容詞の中から選択される。22個の形容詞は、数万人以上に対して行われた各アーティストの写真や、各アーティストの楽曲のジャケットの写真の嗜好性に関するアンケート結果に基づいて定められる。アーティスト特徴量データベース3120は、アーティストの写真や、アーティストの楽曲のジャケットの写真が入力されると形容詞を出力する学習済みモデルを記憶する。このような学習済みモデルは、アンケート結果に基づいて、生成される。
評判情報は、アーティストの評判傾向を意味する。アーティストの評判傾向は、検索エンジンなどによる検索数と、SNSやニュースサイトなどの記事数や記事の内容に関する情報を意味する。記事数および記事の内容は、記事への取り上げ率や、受賞歴や、露出度に関する情報を含む。アーティスト特徴量データベース3120は、アーティストの検索エンジンなどによる検索数に関する情報が入力されると、バズり度、注目度、定着度に関する情報を出力する学習済みモデルを記憶する。アーティスト特徴量データベース3120は、検索数、記事数、および記事の内容に関する情報が入力されると、そのアーティストの流行度に関する情報を出力する学習済みモデルを記憶する。
プロフィール情報は、楽曲のタイアップに関する情報や、楽曲の関係者の特徴に関する情報を意味する。楽曲のタイアップに関する情報は、楽曲が使用されたアニメ、映画、およびテレビ番組などに関する情報である。タイアップに関する情報は、音楽ニュースサイトなどから取得される。楽曲の関係者の特徴に関する情報は、楽曲の作詞家や、作曲家、編曲家などに関する情報である。具体的には、楽曲の作詞家、作曲家、および編曲家が人気のある作品をどれだけ輩出しているかを示す情報である。楽曲の関係者の特徴に関する情報は、音楽チャートサイトなどから取得される。アーティスト特徴量データベース3120は、楽曲の作詞家、作曲家、および編曲家の名前などの情報を入力すると、入力された作詞家、作曲家、および編曲家の人気度を示す情報を出力する学習済みモデルを記憶する。
ライブ集客情報は、ライブ情報と、会場情報とを意味する。ライブ情報は、ライブが行われる日付と、会場名などの情報を含む。ライブ情報は、単独であるか、フェスであるかといった情報や、ゲストアーティストや、対バンなどの共演者に関する情報を含む。ライブ情報は、ディナーショーに関する情報を含んでもよい。ライブ情報は、ライブに関する情報を扱うサイトから取得される。会場情報は、会場名、地域、集客人数に関する情報を含む。会場情報は、会場のサイトなどから取得される。アーティスト特徴量データベース3120は、ライブ情報や、会場情報を入力すると、音楽イベントの価値を出力する学習済みモデルを記憶する。
楽譜情報は、アーティストの楽曲の楽譜に関する楽譜情報と、楽譜の検索数に関する情報を意味する。楽譜情報は、楽譜の種類や、楽譜の価格に関する情報を含む。楽譜情報は、楽譜のデータを提供しているサイトや、楽譜を販売しているサイトなどから取得される。楽譜の検索数に関する情報は、検索エンジンなどによるアーティストの楽譜の検索数を意味する。アーティスト特徴量データベース3120は、楽譜情報と、楽譜の検索数に関する情報を入力すると、楽譜の価値に関する情報を出力する学習済みモデルを記憶する。
新規性情報は、音楽性情報、音楽ジャンル情報、歌詞情報、ボーカルタイプ情報、ビジュアル情報、評判情報、プロフィール情報、ライブ集客情報、および楽譜情報の新しさを意味する。新規性情報は、音楽性情報、音楽ジャンル情報、歌詞情報、ボーカルタイプ情報、ビジュアル情報、評判情報、プロフィール情報、ライブ集客情報、および楽譜情報のうち、2つ以上の項目の組み合わせの新しさを意味する。アーティスト特徴量データベース3120は、アーティストの音楽性情報、音楽ジャンル情報、歌詞情報、ボーカルタイプ情報、ビジュアル情報、評判情報、プロフィール情報、ライブ集客情報、および楽譜情報が入力されると、アーティストの新しさに関する情報を出力する学習済みモデルを記憶する。
制御部3200は、取得部3210と、分析部3220と、特定部3230と、生成部3240と、提供部3250と、表示制御部3260と、を備える。制御部3200は、例えば、CPUやMPU等によって、図示しない記憶部に記憶されたプログラムがRAM等を作業領域として実行されることにより実現される。また、制御部3200は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現されてもよい。
取得部3210は、各種のコンテンツに関する情報を取得する。取得部3210は、分析すべきアーティストに関する情報を取得する。取得部3210は、分析すべきアーティストの特徴量に関する情報を取得する。取得部3210は、アーティストの楽性情報、音楽ジャンル情報、歌詞情報、ボーカルタイプ情報、ビジュアル情報、評判情報、プロフィール情報、ライブ集客情報、および楽譜情報などを取得する。
分析部3220は、取得部3210が取得したアーティストの特徴量に基づいて、アーティストを分析する。分析部3220は、取得部3210が取得したアーティストの特徴量に基づいて、アーティスト特徴量データベース3120が記憶する各種の学習済みモデルを用いてアーティストを分析する。
特定部3230は、分析部3220による分析結果に基づいて、各種の情報を特定する。特定部3230は、分析部3220による分析結果に基づいて、アーティストのファン層や、潜在的なファン層を特定する。後述するが、ファン層については、予め定められた9個のなかから選択的に特定される。言い換えれば、特定部3230は、アーティストのファン層及び潜在的ファン層を9個のタイプに分類する。特定部3230は、ユーザの感性タイプによらず、ファン層及び潜在的なファン層のタイプを、予め定められた9個の中から特定する。
生成部3240は、分析部3220による分析結果に基づいて、アーティストのファンのペルソナ像を生成する。生成部3240は、分析部3220による分析結果に基づいて、ペルソナデータベース3110に記憶された学習済みモデルを用いて、ペルソナ像を生成する。
提供部3250は、各種の情報をユーザに提供する。提供部3250は、特定部3230によるファン層や、潜在的なファン層の特定結果や、生成部3240によるペルソナ像の生成結果をユーザに提供する。
表示制御部3260は、特定部3230による特定結果や、生成部3240による生成結果を表示部に表示させる制御をおこなう。表示制御部3260は、表示部にユーザインターフェイスを表示させる制御を行う。
[3-4.ユーザインターフェイス]
図40を用いて、分析装置3000が表示部に表示するユーザインターフェイスの一例について説明する。図40は、ユーザインターフェイスの一例を示す模式図である。
ユーザインターフェイス400は、検索表示領域4010と、話題のアーティスト表示領域4020と、ピックアップアーティスト表示領域4030と、を含む。
検索表示領域4010は、分析対象となるアーティストを入力するための領域である。例えば、検索表示領域4010内のアーティスト名検索の下矢印のボタンをマウスなどで押下すると、アーティスト名が表示されるので、ユーザは分析したいアーティストを選択すればよい。ユーザは、アーティスト名検索の欄にアーティスト名を直接、入力するようにしてもよい。例えば、検索表示領域4010内の楽曲から検索のボックスをマウスなどで押下すると、楽曲を選択する画面が立ち上がるので、ユーザは、分析したい楽曲を選択すればよい。ユーザによって、分析対象となるアーティストや楽曲が選択された場合、そのアーティストの分析画面に移行する。
話題のアーティスト表示領域4020は、話題になっているアーティストが表示される領域である。話題のアーティスト表示領域4020には、例えば、所定期間内に所定回数以上検索されたアーティストが表示される。
ピックアップアーティスト表示領域4030は、ピックアップされているアーティストが表示される領域である。ピックアップアーティスト表示領域4030には、例えば、売り上げが上位のアーティストや、楽曲を最近発表したアーティストなどが表示される。図40に示す例では、アーティスト#20~アーティスト#34が表示されている。ユーザは、ピックアップアーティスト表示領域4030のアーティスト#20~アーティスト#34のパッケージ写真をマウスなどで押下することによっても、選択したアーティストの分析画面に移行することができる。
図41を用いて、本実施形態に係るアーティストの分析画面について説明する。図41は、アーティストの分析画面の一例を示す模式図である。
図41に示すように、アーティストの分析画面は、総合ビジネスパワー表示領域4110と、人気トレンド表示領域4120と、ビジネスパワー表示領域4130と、ファンタイプ表示領域4140と、を含む。図41では、アーティストC1の分析画面を示している。
総合ビジネスパワー表示領域4110は、アーティストC1の総合ビジネスパワーが表示される。本実施形態において、総合ビジネスパワーとは、商業的な価値を、価格とランクとで表した指標である。価格は、所定期間内に活躍を見込める度合いを金額で表しものであり、アーティストC1の実際の金額とは異なる。価格は、点数で表現してもよい。総合ビジネスパワー表示領域4110には、アーティストC1のランクは「C」であり、価格は「¥237,780,784」であることが示されている。総合ビジネスパワー表示領域4110内のRANKボタンをマウスなどで押下することで、各ランクに属するアーティストや金額を確認することができる。
図42を用いて、アーティストの総合ビジネスパワーのランクについて説明する。図42は、アーティストの総合ビジネスパワーのランクを説明するための図である。
図42には、ランク表4200が示されている。ランク表4200に示すように、ランクは、「S」、「A」、「B」、「C」、「D」の5段階に分けられている。それぞれのランクに各アーティストが属している。ランク「S」には、アーティストS1~アーティストS3が属している。ランク「A」には、アーティストA1~アーティストA3が属している。ランク「B」には、アーティストB1~アーティストB3が属している。ランク「C」には、アーティストC1~アーティストC3が属している。ランク「D」には、アーティストD1~アーティストD3が属している。ランクは、アーティストの金額に応じて区分けされる。「¥900,000,000」~「¥3,000,000,000」のアーティストであればランク「S」に区分けされる。「¥650,000,000」~「¥900,000,000」のアーティストであればランク「A」に区分けされる。「¥260,000,000」~「¥650,000,000」のアーティストであればランク「B」に区分けされる。「¥130,000,000」~「¥260,000,000」のアーティストであればランク「C」に区分けされる。「¥130,000,000」以下のアーティストであればランク「D」に区分けされる。ランク「S」に属するアーティストは、全体の1%である。ランク「A」に属するアーティストは、全体の3%である。ランク「B」に属するアーティストは、全体の6%である。ランク「C」に属するアーティストは、全体の17%である。ランク「D」に属するアーティストは、全体の73%である。
人気トレンド表示領域4120は、アーティストC1のトレンド力が表示される。本実施形態において、トレンド力は、知名度に関する情報と、検索されるか否かを示す情報に基づいて、定められる。人気トレンド表示領域4120には、アーティストC1のトレンド力は「D」であることが示されている。すなわち、総合ビジネスパワーのランクと、トレンド力のランクとは異なることがある。人気トレンド表示領域4120内のRANKボタンを選択することで、各ランクに属するアーティストを確認することができる。
図43を用いて、アーティストのトレンド力のランクについて説明する。図43は、アーティストのトレンド力のランクを説明するための図である。
図43には、ランク表4300が示されている。ランク表4300に示すように、ランクは、「S」、「A」、「B」、「C」、「D」の5段階に分けられている。ランク表4300において、横軸は知名度に関する情報を示し、縦軸は検索されているか否かに関する情報を示す。ランク「S」には、よく知られており、よく調べられているアーティストが属している。ランク「A」には、比較的知られており、よく調べられているアーティストが属している。ランク「B」には、比較的知られていないが、よく調べられているアーティストが属している。ランク「C」には、比較的知られており、比較的調べられていないアーティストが属している。ランク「D」には、比較的知られておらず、比較的調べられていないアーティストが属している。
人気トレンド表示領域4120において、拡大アイコン4121を選択することで、アーティストC1の検索数から算出した、定着度、バズり度を確認することができる。
図44を用いて、定着度、バズり度を確認する方法について説明する。図44は、定着度、バズり度を確認する方法を説明するための図である。
図44には、定着度情報4400が示されている。定着度情報4400の上部には、定着度と、バズり度とがグラフで示されている。グラフは、横軸が日付で、縦軸が定着度である。定着度とは、検索されている度合いを意味する。グラフには、バズり度が急上昇した日にポイント示されている。グラフには、定着度の動きが示されているので、ユーザは、グラフを参照することで、バズり度が急上昇した後、アーティストC1がどの程度定着したかを容易に把握することができる。定着度情報4400の下部には、アーティストC1に関連する記事が表示される。定着度情報4400には、直近にバズり度が急上昇した二付の記事が表示される。定着度情報4400には、2019年11月10日時点のアーティストC1の関連記事として、アーティストC1のトピック#1~トピック#6が表示される。定着度情報4400のグラフは、バズり度急上昇日4410を含む。定着度情報4400を参照すると、バズり度急上昇日4410以降、アーティストC1の定着度が向上していることが示されている。バズり度急上昇日4410をマウスなどで押下することで、バズり度が急上昇した日のアーティストC1の記事を確認することができる。
図45は、バズり度が急上昇した日のアーティストC1の定着度情報4500を示している。定着度情報4500には、バズり度が急上昇した2019年9月15日のアーティストC1の関連記事として、アーティストC1のトピック#11~トピック#16が表示される。ユーザは、定着度情報4500を確認することで、アーティストC1のバズり度が急上昇した理由を把握することができる。
ビジネスパワー表示領域4130は、アーティストの商品価値を判断する媒体を示している。ビジネスパワー表示領域4130は、「ライブ・フェス」、「CD」、「ラジオ」、「ストリーミング」、「カラオケ」、「ダウンロード」、「MV」、「SNS」、「レンタル」といった項目を含む。「ライブ・フェス」は、アーティストC1のライブやフェスにおける商品価値の金額を示す。「CD」は、アーティストC1のCDの売り上げにおける商品価値の金額を示す。「ラジオ」は、アーティストC1のラジオにおける商品価値の金額を示す。「ストリーミング」は、アーティストC1の動画配信サービスなどにおける商品価値の金額を示す。「カラオケ」は、アーティストC1のカラオケにおける商品価値の金額を示す。「ダウンロード」は、アーティストC1のダウンロードサービスにおける商品価値の金額を示す。「MV」は、アーティストC1のミュージックビデオにおける商品価値の金額を示す。「SNS」は、アーティストC1のSNSにおける商品価値の金額を示す。「レンタル」は、アーティストC1のCDなどのレンタルにおける商品価値の金額を示す。ビジネスパワー表示領域4130に含まれる各項目の金額の合計値が、総合ビジネスパワー表示領域4110に表示される金額となる。ユーザは、ビジネスパワー表示領域4130を確認することで、アーティストC1の項目ごとの商品価値の金額の分布を容易に把握することができる。例えば、ユーザは、アーティストC1について、「ライブ・フェス」の商品価値の金額が最も大きく、「レンタル」の商品価値の金額が最も小さいことを把握することができる。アーティストC1でいえば、「ライブ・フェス」、「ラジオ」、「カラオケ」のグラフが、他の項目とは異なる色で示される、これは、「ライブ・フェス」、「ラジオ」、および「カラオケ」の3項目は、全アーティストの平均と比較して、アーティストC1が特に強みを持っている媒体であることを意味している。
ファンタイプ表示領域4140は、アーティストのファンタイプが表示される。本実施形態において、ファンタイプは、9個のタイプに分類される。9個のタイプは、「ファンクラブ」、「テレビ」、「ストリーミング」、「パリピ」、「CD・カラオケ」、「リッピング・DL」、「バンド・プレイ」、「NO MUSIC NO LIFE」、「DTM」である。ファンのタイプの名称は、本開示を限定するものではない。ファンタイプ表示領域4140に示すように、各ファンタイプは正方形を9個の領域に分割された各領域に1タイプずつ配置される。この場合、右側に配置されたタイプであるほど「デジタル」の傾向があり、左側に配置されたタイプであるほど「リアル」の傾向があることを意味する。具体的には、「デジタル」であるほど家などでアーティストの楽曲に関する活動をする傾向があり、「リアル」であるほどライブなどの会場でアーティストの楽曲に関する活動をする傾向があることを意味している。また、上側に配置されたタイプであるほど「リスナー」の傾向があり、下側に配置されたタイプであるほど「クリエイター」の傾向があることを意味している。具体的には、「リスナー」であるほど楽曲を聞くことを専門にする傾向があり、「クリエイター」であるほど、楽曲を自ら演奏する傾向があることを意味する。ファンタイプ表示領域4140においては、アーティストC1の主要なファン層と、潜在的なファン層とでは異なる色で色付けされて表示される。図41に示す例においては、主要なファン層は「パリピ」であり、潜在的なファン層は「ファンクラブ」である。
ファンタイプ表示領域4140は、トレンド表示ボタン4141と、ペルソナ表示ボタン4142と、ソース表示ボタン4143と、お好みアーティスト表示ボタン4144と、プレイリスト表示ボタン4145を含む。トレンド表示ボタン4141は、人気トレンド表示領域4120を表示させるためのボタンである。
ペルソナ表示ボタン4142は、ファンタイプ表示領域4140で選択されたファンタイプのペルソナ像を表示させるボタンである。ペルソナ像を表示させるファンタイプは、ファンタイプ表示領域4140で表示されたファンタイプをマウスなどで押下することで選択することができる。
図46を用いて、ペルソナ像を表示させる方法について説明する。図46は、ペルソナ像を表示させる方法を説明するための図である。
図46に示すように、ペルソナ表示ボタン4142が押下されると、ペルソナ表示領域4150にペルソナ像が表示される。図46に示す例においては、ファンタイプとして「パリピ」が選択されているので、ペルソナ表示領域4150には、「パリピ」のペルソナ像が表示される。具体的には、ペルソナ表示領域4150には、ペルソナ像#1と、ペルソナ情報#1とが表示される。ペルソナ像#1には、想定されるペルソナ像の名前、職業、年齢、および性別などが表示される。ペルソナ情報#1には、想定されるペルソナ像の楽曲との付き合い方を含む情報が表示される。また、ファンタイプ表示領域4140には、「パリピ」のペルソナ像が、どのような媒体で楽曲を消費しているかを示す情報がハートマークで示されている。図46に示す例では、「ライブ・フェス」と、「カラオケ」と、「ストリーミング」と、「MV」とにはハートマークが付されている。これは、「パリピ」のペルソナ像は、「ライブ・フェス」、「カラオケ」、「ストリーミング」、「MV」とで楽曲を消費する傾向にあることを意味する。ここで、「ライブ・フェス」と、「カラオケ」との項目に大きなハートマークが付されている。これは、対象となっているアーティストC1の強みである媒体と、「パリピ」が楽曲を消費している媒体とがマッチングしていることを意味している。
ペルソナ表示ボタン4142が表示されている状態で、ファンタイプ表示領域4140に表示された他のファンタイプを選択することで、ペルソナ表示領域4150に表示するペルソナ像を変更することができる。
図47を用いて、表示させるペルソナ像を変更する方法について説明する。図47は、表示させるペルソナ像を変更する方法を説明するための図である。
図47に示す例では、ファンタイプとして、「ストリーミング」が選択されている。この場合、ペルソナ表示領域4150には、「ストリーミング」のペルソナ像として、ペルソナ像#1と、ペルソナ情報#2とが表示される。また、ファンタイプが変更されたことで、「ストリーミング」のペルソナ像が、どのような媒体で楽曲を消費しているかを確認することができる。図47に示す例では、「ストリーミング」のペルソナ像は、「ラジオ」と、「ストリーミング」と、「ダウンロード」と、「MV」で楽曲を消費していることが示されている。また、「ストリーミング」のペルソナ像が楽曲を消費している媒体と、アーティストC1の強みである媒体とのマッチング箇所は、「ラジオ」であることが示されている。
図46に示す例において、ソース表示ボタン4143を押下すると、「パリピ」のファン層が、音楽系の情報を得ている情報ソースを表示させることができる。
図48を用いて、ファン層が情報を得ている情報ソースを表示する方法について説明する。図48は、ファン層が情報を得ている情報ソースを表示する方法を説明するための図である。
図48に示すように、情報ソース表示領域4160には、「パリピ」のファン層が情報を得ている情報ソースが表示される。情報ソース表示領域4160には、例えば、上位の3個の情報ソースが表示される。例えば、情報ソース表示領域4160には、アーティストのSNSが32.8%であり、知人のSNSが21.9%であり、その他のSNSが17.2%であることが示されている。図48において、ファンタイプ表示領域4140内のファンタイプを選択することで、情報ソース表示領域4160には、選択されたファンタイプの情報ソースが表示される。これにより、ユーザは、ファンタイプごとの情報ソースを容易に把握することができる。
図46に示す例において、お好みアーティスト表示ボタン4144を押下すると、「パリピ」のファン層が、アーティストC1以外にどのようなアーティストを好んでいるかを示す情報を表示させることができる。
図49を用いてファン層が好むアーティストを表示する方法について説明する。図49は、ファン層が好むアーティストを表示する方法を説明するための図である。
図49に示すように、アーティスト表示領域4170には、「パリピ」のファン層が、アーティストC1以外に好むアーティストが表示される。アーティスト表示領域4170には、例えば、アーティストC1以外の3組のアーティストが表示される。具体的には、アーティスト表示領域4170には、アーティストS1と、アーティストA1と、アーティストB1とが表示される。図49において、ファンタイプ表示領域4140内のファンタイプを選択することで、アーティスト表示領域4170には、選択されたファンタイプが好むアーティストが表示される。これにより、ユーザは、ファンタイプごとにアーティストC1以外に好むアーティストを容易に表示させることができる。
図46に示す例において、プレイリスト表示ボタン4145を押下すると、「パリピ」のファン層が、好むプレイリストを表示することができる。
図50を用いて、ファン層が好むプレイリストを表示する方法について説明する。図50は、ファン層が好むプレイリストを表示する方法を説明するための図である。
図50に示すように、プレイリスト表示領域4180には、「パリピ」のファン層が好むプレイリストが表示される。ここで、プレイリストは、例えば、定額音楽配信サービスなどの利用者が共有することのできる、プレイリストである。具体的には、プレイリスト表示領域4180には、「アウトドア」と、「ドライブ」と、「恋愛中」とが表示される。図50において、ファンタイプ表示領域4140内のファンタイプを選択することで、アーティスト表示領域4170には、選択されたファンタイプが好むプレイリストが表示される。これにより、ユーザは、ファンタイプごとに好むプレイリストを容易に表示させることができる。
上述のとおり、本実施形態では、アーティスの想定されるファンのペルソナ像を生成する。本実施形態では、生成したペルソナ像ごとに音楽を消費している媒体、音楽の情報を得ている情報ソース、そのアーティスト以外に好むアーティスト、好むプレイリストなどを表示することができる。すなわち、本実施形態は、アーティストの楽曲の売り上げを向上させるために必要な情報をユーザに自動で提供することができる。これにより、ユーザは、本実施形態で生成された情報に基づいて、アーティストの楽曲の売り上げを向上させるための施策立案を行うことができる。
(4.ハードウェア構成)
上述してきた各実施形態に係る感性算出装置100、発掘装置800、分析装置3000は、例えば、図51に示すような構成のコンピュータ1000によって実現される。図51は、感性算出装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係るプログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が感性算出装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、各部の機能を実現する。また、HDD1400には、本開示に係るプログラムが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
第1コンテンツに関する第1コンテンツ情報を取得する取得部と、
ユーザの感性タイプに基づいて前記ユーザを分類したセグメントごとに、前記第1コンテンツ情報に対するマッチング度数を算出する算出部と、
を備える、感性算出装置。
(2)
前記第1コンテンツは、商品、テキスト、静止画像、動画像、音、及びこれらの組み合わせのいずれかである、
前記(1)に記載の感性算出装置。
(3)
前記感性タイプごとの前記マッチング度数を比較可能なマッチング情報を第1表示領域に可視化して表示部に表示する表示制御部をさらに備える、
前記(1)または(2)に記載の感性算出装置。
(4)
前記表示制御部は、前記マッチング度数の最も高かった前記感性タイプを最適感性タイプとして、前記第1表示領域において、前記マッチング情報に隣接して表示する、
前記(3)に記載の感性算出装置。
(5)
前記表示制御部は、前記マッチング情報に含まれる前記感性タイプ及び前記最適感性タイプが選択された場合に、選択された前記感性タイプ又は前記最適感性タイプの詳細情報をポップアップ表示する、
前記(3)または(4)に記載の感性算出装置。
(6)
前記取得部は、前記ユーザの価値観情報を取得する、
前記(1)~(5)のいずれかに記載の感性算出装置。
(7)
前記価値観情報に基づいて、前記ユーザの前記感性タイプの種別を推定する推定部をさらに備える、
前記(6)に記載の感性算出装置。
(8)
前記取得部は、前記第1コンテンツ情報に基づいて生成された第1コンテンツとは異なる第2コンテンツに関する第2コンテンツ情報を少なくとも1つ取得し、
前記算出部は、複数の前記感性タイプごとに、前記第2コンテンツ情報に対するマッチング度数を算出する、
前記(1)~(7)のいずれかに記載の感性算出装置。
(9)
前記表示制御部は、前記第1コンテンツ情報のマッチング度数を前記第1表示領域に表示し、前記第2コンテンツ情報のマッチング度数を前記第1表示領域に隣接する第2表示領域に表示する、
前記(8)に記載の感性算出装置。
(10)
前記第1コンテンツが前記テキストである場合、
前記算出部は、前記ユーザによる前記テキストに対する理解度を示す伝わる度と、前記テキストが前記ユーザの心にささった度合いを示すささる度と、前記ユーザによる前記テキストに対する表現方法によるコミュニケーション傾向を示す表現傾向を算出する、
前記(3)~(5)のいずれかに記載の感性算出装置。
(11)
前記表示制御部は、前記伝わる度と、前記ささる度と、前記表現傾向とを可視化して前記表示部に表示する、
前記(10)に記載の感性算出装置。
(12)
前記伝わる度と、前記ささる度と、前記表現傾向との少なくとも1つに基づいて、前記テキストの感性価値に応じた前記感性タイプに属する前記ユーザに、前記テキストを提示する提示部とをさらに備える、
前記(10)または(11)に記載の感性算出装置。
(13)
前記提示部は、前記ユーザの価値観情報に基づいて、前記ユーザに対し最適な最適コンテンツを提示する、
前記(12)に記載の感性算出装置。
(14)
前記表示部に表示された前記伝わる度が前記ユーザによって選択された場合、
前記表示制御部は、前記テキストに含まれる単語や言い回しごとの出現回数と、認知度とをスコア化して表示する、
前記(10)~(13)のいずれかに記載の感性算出装置。
(15)
前記表示部に表示された前記ささる度が前記ユーザによって選択された場合、
前記表示制御部は、前記テキストにおいて、予め定められた複数のジャンルのそれぞれに関連する単語が含まれている度合いと、前記単語の出現頻度とをスコア化して表示する、
前記(10)~(13)のいずれかに記載の感性算出装置。
(16)
前記価値観情報に基づいて、前記ユーザが分類されている前記感性タイプを更新するタイミングを検知する更新部をさらに備える、
前記(7)に記載の感性算出装置。
(17)
前記算出部は、前記感性タイプ間の相性度を算出する、
前記(1)~(16)のいずれかに記載の感性算出装置。
(18)
前記第1コンテンツが前記商品である場合、
前記取得部は、前記感性タイプごとの前記ユーザの前記商品に対する前記価値観情報を時系列に沿って取得し、
前記表示制御部は、前記感性タイプごとの前記商品に対する前記価値観情報の時間変化を表示する、
前記(6)に記載の感性算出装置。
(19)
前記算出部は、前記第1コンテンツに対するVOCの内容および評価をリアルタイムで算出する、
前記(1)~(18)のいずれかに記載の感性算出装置。
(20)
前記算出部は、前記感性タイプに応じたレコメンド情報を算出する、
前記(1)~(19)のいずれかに記載の感性算出装置。
(21)
前記取得部は、前記コンテンツに対するレビュー情報を取得し、
前記算出部は、前記レビュー情報に基づいて、前記コンテンツの利用者像を算出する、
前記(1)~(20)のいずれかに記載の感性算出装置。
(22)
第1コンテンツに関する第1コンテンツ情報を取得し、
ユーザの感性に基づいて前記ユーザを分類した複数の感性タイプごとに、前記第1コンテンツ情報に対するマッチング度数を算出する、
感性算出方法。
(23)
コンピュータを、
第1コンテンツに関する第1コンテンツ情報を取得する取得部と、
ユーザの感性に基づいて前記ユーザを分類した複数の感性タイプごとに、前記第1コンテンツ情報に対するマッチング度数を算出する算出部と、
として機能させるための、プログラム。
(24)
コンテンツ情報を取得する取得部と、
前記取得部によって取得されたコンテンツ情報のうち、所定の条件を満たすコンテンツ情報に対して、学習済みモデルを用いて、所定の条件を満たす前記コンテンツの人気度を判定するクオリティ判定部と、
を備える、発掘装置。
(25)
コンテンツ情報を取得する取得部と、
前記取得部によって取得されたコンテンツ情報の特徴量に対して、前記コンテンツ情報のファン層を出力する学習済みモデルを用いて、前記コンテンツ情報のファン層を特定する特定部と、
を備える、分析装置。
(26)
前記取得部によって取得されたコンテンツ情報の特徴量に対して、前記コンテンツ情報のファン層のペルソナ像を生成する学習済みモデルを用いて、前記コンテンツ情報のファン層のペルソナ像を生成する生成部を備える、
前記(25)に記載の分析装置。
100 感性算出装置
110,810,3100 記憶部
111 顧客データベース
112 消費者データベース
113 感性データベース
120,820,3200 制御部
121,821,3210 取得部
122 算出部
123 推定部
124 提示部
125 更新部
126,826,3260 表示制御部
130,830,3300 通信部
800 発掘装置
811 第1学習済みデータ記憶部
812 第2学習済みデータ記憶部
813 第3学習済みデータ記憶部
822 抽出部
823 タイプ判定部
824 クオリティ判定部
825 推薦部
3000 分析装置
3110 ペルソナデータベース
3120 アーティスト特徴量データベース
3220 分析部
3230 特定部
3240 生成部
3250 提供部

Claims (19)

  1. 第1コンテンツに関する第1コンテンツ情報を取得する取得部と、
    ユーザの感性タイプに基づいて前記ユーザを分類したセグメントごとに、前記第1コンテンツ情報に対するマッチング度数を算出する算出部と、
    前記感性タイプごとの前記マッチング度数を比較可能なマッチング情報を第1表示領域に可視化して表示部に表示する表示制御部と、
    を備える、感性算出装置。
  2. 前記第1コンテンツは、商品、テキスト、静止画像、動画像、音、及びこれらの組み合わせのいずれかである、
    請求項1に記載の感性算出装置。
  3. 前記表示制御部は、前記マッチング度数の最も高かった前記感性タイプを最適感性タイプとして、前記第1表示領域において、前記マッチング情報に近接して表示する、
    請求項に記載の感性算出装置。
  4. 前記表示制御部は、前記マッチング情報に含まれる前記感性タイプ及び前記最適感性タイプが選択された場合に、選択された前記感性タイプ又は前記最適感性タイプの詳細情報を表示する、
    請求項に記載の感性算出装置。
  5. 前記取得部は、前記ユーザの価値観情報を取得する、
    請求項に記載の感性算出装置。
  6. 前記価値観情報に基づいて、前記ユーザの前記感性タイプの種別を推定する推定部をさらに備える、
    請求項に記載の感性算出装置。
  7. 前記取得部は、前記第1コンテンツ情報に基づいて生成された第1コンテンツとは異なる第2コンテンツに関する第2コンテンツ情報を少なくとも1つ取得し、
    前記算出部は、複数の前記感性タイプごとに、前記第2コンテンツ情報に対するマッチング度数を算出する、
    請求項に記載の感性算出装置。
  8. 前記表示制御部は、前記第1コンテンツ情報のマッチング度数を前記第1表示領域に表示し、前記第2コンテンツ情報のマッチング度数を前記第1表示領域に近接する第2表示領域に表示する、
    請求項に記載の感性算出装置。
  9. 前記第1コンテンツがテキストである場合、
    前記算出部は、前記ユーザによる前記テキストに対する理解度を示す伝わる度と、前記テキストが前記ユーザの心にささった度合いを示すささる度と、前記ユーザによる前記テキストに対する表現方法によるコミュニケーション傾向を示す表現傾向を算出する、
    請求項に記載の感性算出装置。
  10. 前記表示制御部は、前記伝わる度と、前記ささる度と、前記表現傾向とを可視化して前記表示部に表示する、
    請求項に記載の感性算出装置。
  11. 前記伝わる度と、前記ささる度と、前記表現傾向との少なくとも1つに基づいて、前記テキストの感性価値に応じた前記感性タイプに属する前記ユーザに、前記テキストを提示する提示部とをさらに備える、
    請求項10に記載の感性算出装置。
  12. 前記提示部は、前記ユーザの価値観情報に基づいて、前記ユーザに対し最適な最適コンテンツを提示する、
    請求項11に記載の感性算出装置。
  13. 前記表示部に表示された前記伝わる度が前記ユーザによって選択された場合、
    前記表示制御部は、前記テキストに含まれる単語や言い回しごとの出現回数と、認知度とをスコア化して表示する、
    請求項10に記載の感性算出装置。
  14. 前記表示部に表示された前記ささる度が前記ユーザによって選択された場合、
    前記表示制御部は、前記テキストにおいて、予め定められた複数のジャンルのそれぞれに関連する単語が含まれている度合いと、前記単語の出現頻度とをスコア化して表示する、
    請求項10に記載の感性算出装置。
  15. 前記価値観情報に基づいて、前記ユーザが分類されている前記感性タイプを更新するタイミングを検知する更新部をさらに備える、
    請求項に記載の感性算出装置。
  16. 前記算出部は、前記感性タイプ間の相性度を算出する、
    請求項1に記載の感性算出装置。
  17. 前記第1コンテンツが商品である場合、
    前記取得部は、前記感性タイプごとの前記ユーザの前記商品に対する前記価値観情報を時系列に沿って取得し、
    前記表示制御部は、前記感性タイプごとの前記商品に対する前記価値観情報の時間変化を表示する、
    請求項に記載の感性算出装置。
  18. コンピュータが、
    第1コンテンツに関する第1コンテンツ情報を取得し、
    ユーザの感性に基づいて前記ユーザを分類した複数の感性タイプごとに、前記第1コンテンツ情報に対するマッチング度数を算出し、
    前記感性タイプごとの前記マッチング度数を比較可能なマッチング情報を第1表示領域に可視化して表示部に表示する、
    感性算出方法。
  19. コンピュータを、
    第1コンテンツに関する第1コンテンツ情報を取得する取得部と、
    ユーザの感性に基づいて前記ユーザを分類した複数の感性タイプごとに、前記第1コンテンツ情報に対するマッチング度数を算出する算出部と、
    前記感性タイプごとの前記マッチング度数を比較可能なマッチング情報を第1表示領域に可視化して表示部に表示する表示制御部と、
    として機能させるための、プログラム。
JP2020571230A 2019-02-05 2020-02-05 感性算出装置、感性算出方法、およびプログラム Active JP7512903B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019019140 2019-02-05
JP2019019140 2019-02-05
PCT/JP2020/004294 WO2020162486A1 (ja) 2019-02-05 2020-02-05 感性算出装置、感性算出方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2020162486A1 JPWO2020162486A1 (ja) 2021-12-02
JP7512903B2 true JP7512903B2 (ja) 2024-07-09

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297659A (ja) 2001-03-30 2002-10-11 Just Syst Corp 主観的特徴要素生成装置、主観的特徴要素生成方法、及び主観的特徴要素生成プログラム
JP2003337828A (ja) 2002-05-21 2003-11-28 Recruit Co Ltd 対象物紹介方法およびコミュニケーション構築支援方法
JP2007156978A (ja) 2005-12-07 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> コンテンツ構成装置、コンテンツ構成方法、及び、コンテンツを構成するためのプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297659A (ja) 2001-03-30 2002-10-11 Just Syst Corp 主観的特徴要素生成装置、主観的特徴要素生成方法、及び主観的特徴要素生成プログラム
JP2003337828A (ja) 2002-05-21 2003-11-28 Recruit Co Ltd 対象物紹介方法およびコミュニケーション構築支援方法
JP2007156978A (ja) 2005-12-07 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> コンテンツ構成装置、コンテンツ構成方法、及び、コンテンツを構成するためのプログラム

Similar Documents

Publication Publication Date Title
Brown et al. Why go to pop concerts? The motivations behind live music attendance
EP3923226A1 (en) Preference computation device, preference computation method, and program
Schedl et al. Music recommender systems
US9058248B2 (en) Method and system for searching for, and monitoring assessment of, original content creators and the original content thereof
US8364528B2 (en) System and process for improving product recommendations for use in providing personalized advertisements to retail customers
US8583524B2 (en) System and process for improving recommendations for use in providing personalized advertisements to retail customers
US20090281884A1 (en) System and process for receiving boosting recommendations for use in providing personalized advertisements to retail customers
Schedl et al. Music recommendation systems: Techniques, use cases, and challenges
Boughanmi et al. Dynamics of musical success: A machine learning approach for multimedia data fusion
US20130318021A1 (en) Information processing apparatus, information processing method, and program
Light et al. Managing the boundaries of taste: culture, valuation, and computational social science
Lepa et al. A computational model for predicting perceived musical expression in branding scenarios
Shafiee et al. The effect of implementing SEO techniques and websites design methods on e-tourism development: A study of travel agencies e-tourism websites
Rowberry The limits of Big Data for analyzing reading
Miklosik Search engine marketing strategies: Google answer box-related search visibility factors
Tacchini Serendipitous mentorship in music recommender systems
Jones Keyword intelligence: Keyword research for search, social, and beyond
Chen et al. A mood‐and situation‐based model for developing intuitive pop music recommendation systems
JP7512903B2 (ja) 感性算出装置、感性算出方法、およびプログラム
Turnbull Design and development of a semantic music discovery engine
Schedl et al. A dataset of multimedia material about classical music: PHENICX-SMM
Jones User perceived qualities and acceptance of recommender systems: the role of diversity
Boughanmi et al. Dynamics of musical success: A Bayesian nonparametric approach
Al-Maliki User based hybrid algorithms for music recommendation systems
Skutle Discovering music in the streaming era: How online recommendation engines and application design influence users’ habits and discoveries in online music streaming services