JP7260505B2 - 情報処理装置、情報処理方法、情報処理プログラム及び端末装置 - Google Patents

情報処理装置、情報処理方法、情報処理プログラム及び端末装置 Download PDF

Info

Publication number
JP7260505B2
JP7260505B2 JP2020082880A JP2020082880A JP7260505B2 JP 7260505 B2 JP7260505 B2 JP 7260505B2 JP 2020082880 A JP2020082880 A JP 2020082880A JP 2020082880 A JP2020082880 A JP 2020082880A JP 7260505 B2 JP7260505 B2 JP 7260505B2
Authority
JP
Japan
Prior art keywords
user
information
content
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020082880A
Other languages
English (en)
Other versions
JP2021177362A (ja
Inventor
宏彰 寺岡
圭祐 明石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2020082880A priority Critical patent/JP7260505B2/ja
Publication of JP2021177362A publication Critical patent/JP2021177362A/ja
Application granted granted Critical
Publication of JP7260505B2 publication Critical patent/JP7260505B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、情報処理装置、情報処理方法、情報処理プログラム及び端末装置に関する。
従来、利用者から取得した生体情報に基づいて利用者の心理状況や感情を判定し、判定した利用者の心理状況や感情に応じたサービスの提供を行う技術が知られている。例えば、利用者の感情を検出し、検出した感情に応じて、利用者が作成中のメッセージを加工する情報端末装置が開示されている。
例えば、情報端末装置は、利用者がメッセージを作成する際に、生体センサを用いて、利用者の生体情報を測定し、測定した生体情報を用いて、利用者の心理状況や感情の強さを示す情報を算出する。そして、情報端末装置は、算出した情報に基づいて、利用者が作成したメールを加工し、加工したメッセージを送信することで、利用者の感情を伝達する。
特開2013-029928号公報
しかしながら、上記の従来技術は、メッセージの送信先へ利用者の感情を伝えるに過ぎず、コンテンツを閲覧することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができるとは限らない。
本願は、上記に鑑みてなされたものであって、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる情報処理装置、情報処理方法、情報処理プログラム及び端末装置を提供することを目的とする。
本願に係る情報処理装置は、コンテンツを閲覧中のユーザを、当該コンテンツを表示している端末装置が有する撮像手段によって撮像された撮像情報が示す当該ユーザの表情に基づいて推定された当該ユーザの感情に関する情報を取得する取得部と、前記取得部によって取得された推定結果を集計することにより、前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する特定部とを備えることを特徴とする。
実施形態の一態様によれば、コンテンツを閲覧することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができるといった効果を奏する。
図1は、実施形態に係る情報処理装置による情報処理の一例を示す図である。 図2は、実施形態に係る提示処理の一例を示す図である。 図3は、実施形態に係る表示画面の一例を示す図である。 図4は、実施形態に係る情報処理システムの構成例を示す図である。 図5は、実施形態に係る端末装置の構成例を示す図である。 図6は、実施形態に係る情報処理装置の構成例を示す図である。 図7は、実施形態に係る撮像情報記憶部の一例を示す図である。 図8は、実施形態に係る推定情報記憶部の一例を示す図である。 図9は、実施形態に係る全体集計結果記憶部の一例を示す図である。 図10は、実施形態に係る感情ポイント記憶部の一例を示す図である。 図11は、実施形態に係る出演者情報記憶部の一例を示す図である。 図12は、実施形態に係る情報処理装置が実行する情報処理を示すフローチャートである。 図13は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法、情報処理プログラム及び端末装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法、情報処理プログラム及び端末装置が限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.情報処理の一例〕
最初に、実施形態に係る情報処理装置100により実現される情報処理を説明する。図1は、実施形態に係る情報処理装置100による情報処理の一例を示す図である。以下の説明では、実施形態に係る情報処理として、端末装置10及び情報処理装置100が協働して行う情報処理について説明する。本実施形態では、情報処理装置100は、実施形態に係る情報処理プログラムを実行し、端末装置10と協働することで、実施形態に係る情報処理を行う。また、端末装置10にも、実施形態に係る情報処理プログラムであるアプリケーション(以下、「アプリAP」と表記する場合がある)がインストールされているものとする。
図1の説明に先立って、図4を用いて、実施形態に係る情報処理システム1について説明する。図4は、実施形態に係る情報処理システム1の構成例を示す図である。実施形態に係る情報処理システム1は、図4に示すように、端末装置10と、コンテンツ配信装置30と、情報処理装置100とを含む。端末装置10、コンテンツ配信装置30、情報処理装置100は、ネットワークNを介して有線又は無線により通信可能に接続される。なお、図4に示す情報処理システム1には、複数台の端末装置10や、複数台のコンテンツ配信装置30や、複数台の情報処理装置100が含まれてよい。
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)や、ヘッドマウントディスプレイ等である。本実施形態では、端末装置10は、スマートフォンであるものとする。
また、端末装置10には、2つのカメラ機能が内蔵されている。一つは、メインカメラであり、ユーザから見た景色や人物を撮像するために用いられる。このため、メインカメラ用のレンズは、ユーザとは反対側の方向に向けて、例えば、端末装置10の裏側に付与されている。
もう一つは、インカメラであり、例えば、ビデオ通話や顔認証に利用される。このため、インカメラ用のレンズは、端末装置10が有するディスプレイ(タッチパネル)の周辺等において、ユーザ向きに付与されている。このため、ユーザは、インカメラ用のレンズによって取り込まれた映像(例えば、自身の顔の映像)であって、ディスプレイに表示された映像の映り具合を確認しながら、インカメラを用いて自身を撮影することができる。本実施形態では、このインカメラを「撮像手段の一例」とする。
また、上記の通り、端末装置10にはアプリAPがインストールされており、端末装置10は、アプリAPの制御に従って、ユーザによる操作に関係なく、動的にユーザを撮像することができるものとする。例えば、端末装置10は、アプリAPの制御に従って、ユーザが所定の動画サイト(「動画サイトST」とする)で動画コンテンツを視聴中にのみ、動的にユーザの表情を撮像する。より具体的には、端末装置10は、アプリAP内で配信される全て、又は、任意の動画コンテンツを視聴中にのみ、動的にユーザの表情を撮像する。
なお、動的にユーザを撮像するため、例えば、ユーザが動画サイトSTを訪問した際、又は、動画サイトSTにおいて任意の動画コンテンツを閲覧する際には、端末装置10は、アプリAPの制御に従って、ユーザに対して撮像する旨の同意を得るようにする。例えば、ユーザがユーザ自身を撮像されることを許可した場合(同意が得られた場合)には、端末装置10は、かかるユーザの撮像を行う。一方、ユーザがユーザ自身を撮像されることを許可しなかった場合(同意が得られなかった場合)には、端末装置10は、かかるユーザの撮像は行わない。
コンテンツ配信装置30は、コンテンツを配信するサーバ装置又はクラウドシステム等である。例えば、コンテンツ配信装置30は、動画コンテンツを配信する。例えば、コンテンツ配信装置30は、動画サイトSTを介して、端末装置10に動画コンテンツを配信する。例えば、ユーザが動画サイトSTに訪問し、閲覧したい動画コンテンツの動画名やカテゴリをクエリとして指定したものとする。この場合、コンテンツ配信装置30は、端末装置10からクエリを受信し、受信したクエリに対応する動画コンテンツの一覧を動画サイトST中に表示させる。
また、コンテンツ配信装置30は、VOD(Video On Demand)といった配信形態で、動画コンテンツを配信する。例えば、コンテンツ配信装置30は、お笑い番組、ドラマ、映画、アニメ等の様々なジャンルの動画コンテンツを配信する。また、コンテンツ配信装置30は、インターネットライブ配信を行う。
ここで、実施形態にかかる情報処理が行われるにあたっての前提について説明する。例えば、動画サイトSTでお笑い番組を視聴する場合、面白いポイントを探してそこだけを視聴しようとする場合があるが、かかる場合、ユーザはシークバーを動かす等を行い、ユーザ自身で面白いポイントを見つける必要があり面倒である。このようなことから、面白いポイントだけをピックアップして視聴出来るようにして欲しいといったニーズがある。
このようなニーズをかなえようとすると、所定の担当者(例えば、目利きの人)が、お笑い番組を視聴し、面白いポイントを探すことが考えられるが、この作業も非常に面倒である。このようなことから、お笑い番組を視聴しているユーザについて、そのユーザの感情(表情)から、笑ったという笑いの行動を推定できれば、より多くのユーザが笑ったポイントを面白いポイントとして抽出し、以降、このお笑い番組を視聴しようとするユーザに、この抽出したポイントを提示することができるようになる。
また、お笑い番組の中には、例えば、出演者(例えば、お笑いタレントやグループ)毎に、出演者の演技(すなわち、ネタ)に対するユーザの反応に基づいて、ネタの面白さを競って、出演者に順位付けするといったものがある。このようなお笑い番組では、実際に、お笑い番組を視聴していた各ユーザからの投票を受け付けてその投票結果で順位付けする場合がある。一例を示すと、集計する専用サーバは、お笑い番組が再生表示されている最中に、このお笑い番組が再生表示されている領域の下部等に「投票ボタン」を表示しておく。ユーザは、この出演者のネタが面白いと思う場合には、「投票ボタン」を押下する。これによって、集計する専用サーバは、出演者毎に投票結果を集計し、投票数のより多い出演者に高い順位を付与する。
しかしながら、このような投票システムで算出される投票数は、必ずしも面白さを正確に反映しているとはいい難い場合がある。例えば、1人のユーザが、1組の出演者について、複数回投票ができてしまうと、興味のない出演者を故意に上位にランクアップさせることができてしまうかもしれない。また、投票するという行動は、反射的な行動ではなく、確固たる意思に基づく行動であるため、実際には面白いと思ってなくても、不正のような形で投票ボタンを押そうとするユーザもいるかもしれない。そうすると、投票数は、必ずしも面白さを正確に反映しているとはいい難い。
一方で、ユーザは面白いネタには、反射的に笑ってしまい、面白くないネタには反応しない(わざと笑うようなことはしない)ため、ユーザが確実に笑ったことを特定し、笑ったユーザの人数を出演者毎に集計できれば、この集計結果は、上記投票数よりも、より正確にユーザの意志(面白いという感情)を反映しているといえる。そうすると、出演者に対してより正確な順位付けができるようになる。
以上のような前提及び問題点を踏まえて、実施形態に係る情報処理装置100は、コンテンツ(例えば、動画コンテンツ)を視聴中のユーザを、かかるコンテンツを表示している端末装置が有する撮像手段によって撮像された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する情報を取得する。そして、情報処理装置100は、取得された推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。
以下、実施形態に係る情報処理の一例について説明する。以下の情報処理の一例では、情報処理装置100が情報処理プログラムを実行することにより、上記手順を行うものとする。情報処理装置100は、例えば、実施形態にかかる情報処理を行うサーバ装置又はクラウドシステム等である。また、コンテンツ配信装置30及び情報処理装置100を管理する事業主を「事業主X」とする。このようなことから、動画サイトSTは、事業主Xによって管理・運営されるコンテンツといえる。
まず、図1の例では、ユーザU1及びU2の2人のユーザを例示するが、これは一例であり、ユーザの人数は2人に限定されない。また、ユーザU1によって利用される端末装置10を端末装置10-1とする。また、ユーザU2によって利用される端末装置10を端末装置10-2とする。一方、ユーザ毎に端末装置を区別する必要が無い場合には、単に端末装置10と表記する。また、図1の例では、ユーザU1及びU2ともに、動画サイトSTにて動画コンテンツを閲覧中にインカメラで自身が撮像されることを許可しているものとする。つまり、端末装置10-1は、インカメラにてユーザU1を撮像してよい旨を認識している。また、端末装置10-2は、インカメラにてユーザU2を撮像してよい旨を認識している。
このような状態において、図1の例では、ユーザU1は、端末装置10-1を用いて、動画サイトSTにて動画コンテンツVC1を視聴しているものとする。また、同様に、ユーザU2は、端末装置10-2を用いて、動画サイトSTにて動画コンテンツVC2を視聴しているものとする。また、動画コンテンツVC1及びVC2ともにお笑い番組であるものとする。
端末装置10-1は、ユーザU1が動画コンテンツVC1を視聴している間、インカメラを制御し、ユーザU1の顔(表情)を撮像する(ステップS1)。例えば、端末装置10-1は、ユーザU1が動画コンテンツVC1を視聴している間、ユーザU1の表情を動画(顔動画)として撮像する。そして、端末装置10-1は、ユーザU1を撮像することで得られた撮像情報FDA1を情報処理装置100に送信する(ステップS2)。この点について具体的に説明すると、端末装置10-1は、ユーザU1を撮像することで得られた顔動画のデータを解析することにより、その解析に基づく推定結果を含む撮像情報FDA1を得る。
例えば、端末装置10-1は、顔動画のデータ(撮像情報の一例)に基づいて、ユーザU1の感情に関する情報を推定する。具体的には、端末装置10-1は、顔動画のデータが示すユーザU1の表情に基づいて、ユーザU1の感情に関する情報として、ユーザU1の感情表出行動を推定する。例えば、端末装置10-1は、顔動画のデータについて表情解析することにより、ユーザU1の感情表出行動を推定する推定処理を行う。また、端末装置10-1は、顔動画のデータが示すユーザの瞳孔について解析することにより、ユーザU1の感情表出行動を推定する推定処理を行う。
ここで、感情表出行動とは、いわゆる喜怒哀楽に関する行動であり、「笑う」、「泣く」、「驚く」等が挙げられる。以下の実施形態では、特に「笑う」行動に焦点を当てて説明する。以下、感情表出行動を「笑う行動」と表記する。図1の例では、端末装置10-1は、ユーザU1が笑う行動を行ったと推定したとする。そうすると、端末装置10-1は、この笑う行動の度合い(どれだけ笑ったか笑いの程度を示す度合い)を示す特徴量を推定(算出)する。例えば、端末装置10-1は、笑う行動の度合いを示す特徴量を1~10の数値で推定することができる。例えば、端末装置10-1は、ユーザU1の笑いが微笑レベルであるなら、笑う行動の度合いを示す特徴量として、笑い度「2」を推定する。一方、端末装置10は、ユーザU1の笑いが大笑いレベルであるなら、笑い度「9」を推定する。
なお、端末装置10-1は、ユーザU1が動画コンテンツVC1を閲覧しているまさにそのタイミング、つまり、リアルタイムで、ユーザU1を撮像しつつ上記推定処理を連続的に行う。そして、端末装置10-1は、この推定結果を含む撮像情報FDA1を、例えば、毎秒、情報処理装置100に送信する。一例を示すと、端末装置10-1は、動画コンテンツVC1の再生時間に対応する時間位置(タイムコード)と、感情表出行動を示す情報と、その感情表出行動の特徴量とを含む撮像情報FDA1を毎秒毎に、情報処理装置100に送信する。なお、上記リアルタイムにおける処理は、5G(Generation)等の無線通信網を介して通信を行うことで実現可能である。
上記のように、笑いの例を用いると、端末装置10-1は、ユーザU1を撮像しつつ上記推定処理を連続的に行っているため、例えば、時間位置「1分53秒」、感情表出行動「笑う行動」、笑い度「0」といった情報を含む撮像情報FDA1を情報処理装置100に送信する。また、端末装置10は、例えば、時間位置「1分54秒」、感情表出行動「笑う行動」、笑い度「2」といった情報を含む撮像情報FDA1を情報処理装置100に送信する。また、端末装置10は、例えば、時間位置「1分55秒」、感情表出行動「笑う行動」、笑い度「9」といった情報を含む撮像情報FDA1を情報処理装置100に送信する。なお、端末装置10-1は、撮像情報を毎秒毎に送信するのではなく、任意の時間間隔(例えば、3秒)毎に撮像情報を送信してもよい。
端末装置10-1について説明してきたが、端末装置10-2についても同様である。具体的には、端末装置10-2は、ユーザU2が動画コンテンツVC2を視聴している間、インカメラを制御し、ユーザU2の顔(表情)を撮像する(ステップS1)。例えば、端末装置10-2は、ユーザU2が動画コンテンツVC2を視聴している間、ユーザU2の表情を顔動画として撮像する。そして、端末装置10-2は、ユーザU2を撮像することで得られた撮像情報FDA2を情報処理装置100に送信する(ステップS2)。具体的には、端末装置10-2は、ユーザU2が動画コンテンツVC2を閲覧しているまさにそのタイミング、つまり、リアルタイムで、ユーザU2を撮像しつつ、端末装置10-1を例に説明した推定処理を連続的に行う。そして、端末装置10-2は、この推定結果を含む撮像情報FDA2を、例えば、毎秒毎に、情報処理装置100に送信する。一例を示すと、端末装置10-2は、動画コンテンツVC2の再生時間に対応する時間位置と、感情表出行動を示す情報と、その感情表出行動の特徴量とを含む撮像情報FDA1を毎秒毎に、情報処理装置100に送信する。
端末装置10-2は、ユーザU2を撮像しつつ上記推定処理を連続的に行っているため、例えば、時間位置「1分53秒」、感情表出行動「笑う行動」、笑い度「0」といった情報を含む撮像情報FDA2を情報処理装置100に送信する。また、端末装置10は、例えば、時間位置「1分54秒」、感情表出行動「笑う行動」、笑い度「3」といった情報を含む撮像情報FDA2を情報処理装置100に送信する。また、端末装置10は、例えば、時間位置「1分55秒」、感情表出行動「笑う行動」、笑い度「10」といった情報を含む撮像情報FDA2を情報処理装置100に送信する。
以下、撮像情報FDA1及び撮像情報FDA2を区別せずに、単に撮像情報FDAと表記する場合がある。情報処理装置100は、端末装置10から送信された撮像情報FDAを受信する(ステップS3)。言い換えれば、情報処理装置100は、端末装置10から撮像情報FDAを取得する。また、情報処理装置100は、受信した撮像情報FDAを撮像情報記憶部121に格納する(ステップS4)。なお、このとき、情報処理装置100は、端末装置10からユーザの属性に関する属性情報を取得してもよい。ここで、属性情報とは、ユーザの性別や、年齢や、興味関心及び趣味趣向や、ユーザの居住地及びユーザの位置情報等を含む地域に関する情報等に関する情報である。
撮像情報記憶部121は、コンテンツを視聴中のユーザを、かかるコンテンツを表示している端末装置10が有するインカメラ(撮像手段)で撮像することで得られる撮像情報FDAを記憶する。図1の例では、撮像情報記憶部121は、「ユーザID」、「動画ID」、「撮像情報」といった項目を有する。
「ユーザID」は、ユーザ又はユーザの端末装置10を識別する識別情報を示す。「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴していた動画コンテンツを識別する識別情報を示す。「撮像情報」は、動画コンテンツを視聴中のユーザをインカメラで撮像することで得られる撮像情報であって、端末装置10の推定処理による推定結果を含む撮像情報を示す。なお、撮像情報には、ユーザが撮像された顔動画のデータも含まれてよい。
すなわち、図1に示す撮像情報記憶部121の例では、ユーザID「U1」によって識別されるユーザ(ユーザU1)が、動画ID「VC1」によって識別される動画コンテンツ(動画コンテンツVC1)を閲覧中において、端末装置10のインカメラによって撮像されることによって、ユーザU1の表情を含む撮像情報FDA1が得られた例を示す。
次に、情報処理装置100は、動画コンテンツにおいて笑う行動が行われた時間位置を特定する(ステップS5)。上記の通り、情報処理装置100は、時間位置(例えば、1分55秒)、感情表出行動行動(例えば、笑う行動)、笑い度(特徴量)(例えば、「9」)といった推定結果を含む撮像情報を端末装置10(図1の例では、端末装置10-1及び10-2)から毎秒毎に受信する。このため、情報処理装置100は、端末装置10による推定結果(撮像情報)に基づいて、動画コンテンツにおいて笑う行動が行われた時間位置を特定する。例えば、情報処理装置100は、特徴量である笑い度が所定の閾値(例えば、笑い度「5」)以上を示す時間位置を、動画コンテンツVC1において、ユーザU1が笑う行動を行った時間位置として特定する。かかる例では、情報処理装置100は、動画コンテンツVC1の時間位置「t2、t21、t51・・・」をユーザU1が笑う行動を行った時間位置として特定したとする。
また、情報処理装置100は、動画コンテンツVC2の時間位置「t13、t31、t52・・・」をユーザU2が笑う行動を行った時間位置として特定したとする。
次に、情報処理装置100は、端末装置10により推定された感情表出行動と、ステップS5で特定した時間位置とを対応付けて、推定情報記憶部122に格納する(ステップS6)。推定情報記憶部122は、感情表出行動を推定した推定結果に関する情報を記憶する。図1の例では、推定情報記憶部122は、「動画ID」、「ユーザID」、「行動情報(笑う)」といった項目を有する。なお、情報処理装置100は、感情表出行動として、笑う行動だけでなく、泣く行動や驚く行動等を推定する場合もある。このため、「行動情報」には、「泣く」や「驚く」といった項目も含まれてよい。
また、情報処理装置100は、画像解析等の従来技術を用いて、ユーザの顔動画から、かかるユーザの属性情報を推定してもよい。そして、情報処理装置100は、ユーザの属性情報を「行動情報」と対応付けて推定情報記憶部122に格納してもよい。なお、情報処理装置100は、予め端末装置10からユーザの属性情報を取得している場合には、かかるユーザの「行動情報」と対応付けてユーザの属性情報を推定情報記憶部122に格納してもよい。
「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。「ユーザID」は、対応する動画コンテンツを視聴するユーザ又はユーザの端末装置を識別する識別情報を示す。「行動情報(笑い)」は、推定処理で推定された感情表出行動のうち、笑う行動が行われた時間位置を示す。
上記例の通り、情報処理装置100は、ユーザU1について、笑う行動は動画コンテンツVC1の「t2、t21、t51・・・」で行われたことを特定している。したがって、情報処理装置100は、図1に示す推定情報記憶部122の例のように、動画ID「VC1」、ユーザID「U1」、行動情報(笑い)「t2、t21、t51・・・」を対応付けて格納する。
また、上記例の通り、情報処理装置100は、ユーザU2について、笑う行動は動画コンテンツVC2の「t13、t31、t52・・・」で行われたことを特定している。したがって、情報処理装置100は、図1に示す推定情報記憶部122の例のように、動画ID「VC2」、ユーザID「U2」、行動情報(笑い)「t13、t31、t52・・・」を対応付けて格納する。
なお、推定情報記憶部122は、各ユーザが各動画コンテンツの中で行ったと推定される感情表出行動について、動画コンテンツの中で感情表出行動行われた時間位置を記憶するため、ユーザ毎の集計結果を記憶する記憶部といえる。これに対して、後述する全体集計結果記憶部123は、ユーザ毎の集計結果をまとめて、全ユーザで見た場合はどうなるか集計し直した集計結果を記憶する。
次に、情報処理装置100は、ステップS5で特定した時間位置に基づいて、動画コンテンツの中で感情表出行動が行われた人数を集計する(ステップS7)。例えば、情報処理装置100は、各動画コンテンツの中で笑う行動を行った人数である行動人数を、各動画コンテンツの時間位置毎に集計する。例えば、情報処理装置100は、推定情報記憶部122に記憶される情報を用いて、かかる集計を行う。
図1の例では、情報処理装置100は、動画コンテンツVC1の時間位置「t1」では、所定期間の間に動画コンテンツVC1を視聴したユーザの総数のうち、「135人」が笑う行動を行った(行動人数135人)との集計結果を得たものとする。また、情報処理装置100は、動画コンテンツVC1の時間位置「t2」では、所定期間の間に動画コンテンツVC1を視聴したユーザの総数のうち、「693人」が笑う行動を行った(行動人数693人)との集計結果を得たものとする。また、情報処理装置100は、動画コンテンツVC1の時間位置「t3」では、所定期間の間に動画コンテンツVC1を視聴したユーザの総数のうち、「86人」が笑う行動を行った(行動人数86人)との集計結果を得たものとする。
また、図1の例では、情報処理装置100は、動画コンテンツVC2の時間位置「t1」では、所定期間の間に動画コンテンツVC2を視聴したユーザの総数のうち、「321人」が笑う行動を行った(行動人数321人)との集計結果を得たものとする。また、情報処理装置100は、動画コンテンツVC2の時間位置「t2」では、所定期間の間に動画コンテンツVC2を視聴したユーザの総数のうち、「592人」が笑う行動を行った(行動人数592人)との集計結果を得たものとする。また、情報処理装置100は、動画コンテンツVC2の時間位置「t3」では、所定期間の間に動画コンテンツVC2を視聴したユーザの総数のうち、「293人」が笑う行動を行った(行動人数293人)との集計結果を得たものとする。
次に、情報処理装置100は、ステップS7での集計結果として、行動人数を全体集計結果記憶部123に格納する(ステップS8)。全体集計結果記憶部123は、所定期間の間において、各動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数を、各動画コンテンツの時間位置毎に記憶する。図1の例では、全体集計結果記憶部123は、「動画ID」、「行動情報(笑う)」といった項目を有する。なお、情報処理装置100は、感情表出行動として、笑う行動だけでなく、泣く行動や驚く行動等を推定する場合もある。このため、「行動情報」には、「泣く」や「驚く」といった項目も含まれてよい。
「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。「行動情報(笑う)」に対応付けられる項目(「t1」、「t2」、「t3」・・・)は、各動画コンテンツの時間位置を示し、所定期間の間、動画コンテンツを閲覧したユーザの総数うち、その時間位置において笑う行動を行ったユーザの人数である行動人数が入力される。
上記例の通り、情報処理装置100は、動画コンテンツVC1の時間位置「t1」では行動人数「135人」、時間位置「t2」では行動人数「693人」、時間位置「t3」では行動人数「86人」との集計結果を得ている。したがって、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC1」及び時間位置「t1」に対応する入力欄に「135人」を入力する。また、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC1」及び時間位置「t2」に対応する入力欄に「693人」を入力する。また、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC1」及び時間位置「t3」に対応する入力欄に「86人」を入力する。
また、上記例の通り、情報処理装置100は、動画コンテンツVC2の時間位置「t1」では行動人数「321人」、時間位置「t2」では行動人数「592人」、時間位置「t3」では行動人数「293人」との集計結果を得ている。したがって、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC2」及び時間位置「t1」に対応する入力欄に「321人」を入力する。また、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC2」及び時間位置「t2」に対応する入力欄に「592人」を入力する。また、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC2」及び時間位置「t3」に対応する入力欄に「293人」を入力する。
次に、情報処理装置100は、ステップS8での集計結果、すなわち行動人数に基づいて、動画コンテンツに関する情報をユーザに提示する(ステップS9)。例えば、情報処理装置100は、動画コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフを、かかる動画コンテンツとともに表示されるシークバーが示す時間位置に対応付けて提示する。
上記の通り、全体集計結果記憶部123は、所定期間の間において、各動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数を、各動画コンテンツの時間位置毎に記憶する。このようなことから、全体集計結果記憶部123に記憶される集計結果は、動画コンテンツの時間位置に応じて変化する行動人数の遷移と言い換えることもできる。したがって、ステップS9では、情報処理装置100は、動画コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、動画コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示されるよう表示制御する。
ここで、図2に実施形態に係る提示処理の一例を示す。図2では、ユーザU1が、動画コンテンツVC2を閲覧する際を例に説明する。まず、端末装置10は、ユーザU1の操作に応じて、動画サイトSTにおいて動画コンテンツVC2をストリーミング配信させるための配信要求をコンテンツ配信装置30に送信する(ステップS10)。例えば、ユーザU1が動画サイトSTにおいて、動画コンテンツVC2を示すクエリを指定したとすると、端末装置10は、かかるクエリを含む配信要求をコンテンツ配信装置30に送信する。
続いて、コンテンツ配信装置30は、配信要求を受信すると、ユーザU1の端末装置10から動画コンテンツVC2の配信要求を受信した旨を情報処理装置100に通知する(ステップS11)。例えば、コンテンツ配信装置30は、ユーザID「U1」と、動画ID「VC2」とを含む情報を情報処理装置100に通知する。
そして、情報処理装置100は、コンテンツ配信装置30から通知を受信すると、動画コンテンツVC2の中で笑う行動を行ったユーザの人数である行動人数であって、動画コンテンツVC2の時間位置に応じて変化する行動人数の遷移を示すグラフGを生成する(ステップS12)。具体的には、情報処理装置100は、全体集計結果記憶部123にアクセスし、動画ID「VC2」に対応付けられる行動人数を取得する。より具体的には、情報処理装置100は、動画ID「VC2」に対応付けられる行動人数として、動画コンテンツVC2の時間位置の変化(例えば、時間位置t1、t2、t3といった時間位置の変化)に応じて変化する行動人数を取得する。図1の例では、情報処理装置100は、時間位置t1では「321人」、時間位置t2では「592人」、時間位置t3では「293人」といった、時間位置の変化に応じて変化する行動人数の遷移(遷移情報)を取得する。
そして、情報処理装置100は、取得した遷移情報に基づいて、グラフGを生成する。例えば、情報処理装置100は、横軸(X座標)を動画コンテンツVC2の時間位置、縦軸(Y座標)を行動人数として、各時間位置に対応する行動人数をプロットすることで、グラフGを生成する。
次に、情報処理装置100は、ステップS13で生成したグラフGが動画コンテンツVC2の再生箇所(時間位置)をユーザ側がコントロールすることができるシークバーBR上に表示されるようコンテンツ配信装置30に対して表示制御する(ステップS13)。具体的には、情報処理装置100は、グラフGの横軸が示す時間位置、すなわち動画コンテンツVC2の時間位置が、シークバーBRの時間位置に対応付けて表示されるようコンテンツ配信装置30に対して表示制御する。例えば、情報処理装置100は、端末装置10がシークバーBR上にグラフGを表示するよう、端末装置10に対してグラフGを配信するようコンテンツ配信装置30に指示する。また、情報処理装置100は、グラフGをコンテンツ配信装置30に送信する。
シークバーの時間位置は、動画コンテンツVC2の時間位置に対応付けられる。例えば、ユーザU1は、シークバーを時間位置「32分」のところに合わせた場合、動画コンテンツVC2を再生時間「32分」のところから視聴することができる。このような状態において、グラフGの時間位置もシークバーの時間位置に対応付けられる。したがって、シークバーの時間位置「32分」は、グラフGの時間位置「32分」に一致する。
説明を戻す。コンテンツ配信装置30は、情報処理装置100からの表示制御に応じて、動画コンテンツVC2をストリーミング配信する(ステップS14)。例えば、コンテンツ配信装置30は、動画コンテンツVC2をストリーミング配信するにあたって、シークバーBR上にグラフGを表示するよう、端末装置10に対してグラフGを配信する。これにより、図2に示す端末装置10の表示画面Dのように、シークバーBR上にグラフGを表示される。
図2に示す表示画面Dの例によると、動画サイトSTに含まれる領域AR1内に、実際に動画コンテンツVC2が再生表示される領域PL1が存在し、領域PL1内には動画コンテンツVC2の再生を開始しるための再生ボタンBT3が表示される。なお、領域PL1は、動画コンテンツVC2の再生制御を行うプレーヤーPL1と言い換えることができるものとする。プレーヤーPL1は、例えば、ブラウザ上で動画コンテンツの再生制御を行うブラウザ版プレーヤー(ウェブプレーヤー)であってもよいし、アプリケーション(アプリAP)としてのプレーヤー(アプリ版プレーヤー)であってもよい。また、予め、シークバーBRの時間位置のうち、最も行動人数が多い再生位置から選択された状態で動画コンテンツが再生されてもよい。また、ユーザに対して、最も行動人数が多い再生位置から動画コンテンツを再生するか否かを提示してもよい。
また、シークバーBR上には、グラフGが表示される。上記の通り、シークバーBRの時間位置と、グラフGの時間位置とは一致している。また、グラフGの縦軸は行動人数を示すため、ユーザU1は、他のユーザはおよそどの時間位置でよく笑っていたかをグラフGを一目見て把握することができる。このため、ユーザU1は、例えば、動画コンテンツVC2の中で面白いポイントだけピックアップして視聴した場合、例えば、グラフGのピークに対応する時間位置にシークバーBRのカーソルを合わせることで、簡単に面白いポイントの箇所へと移動することができる。また、これにより、目利きの人が面白いポイントを探さなければならないといった面倒な作業を無くすことができる。
また、図3を用いて、所定の時間位置に感情を抽象化したマークを付した動画コンテンツVC2を配信する場合の表示画面の例を説明する。図3は、実施形態に係る表示画面の一例を示す図である。ここで、コンテンツ配信装置30は、情報処理装置100からの表示制御に応じて、動画コンテンツVC2の所定の時間位置に感情を抽象化したマークを付した動画コンテンツVC2をストリーミング配信するものとして説明する。
図3に示す表示画面Tの例によると、動画サイトSTに含まれる領域AR2内に、実際に動画コンテンツVC2が再生表示されるプレーヤーPL2が表示される。また、図3に示す表示画面Tの例によると、シークバーBR上にグラフGが表示される。
ここで、動画コンテンツVC2のうち、時間位置「t2」で所定期間の間に動画コンテンツVC2を視聴したユーザの総数のうち、最も多い「592人」が笑う行動を行ったとの集計結果を得たものとする。この場合、情報処理装置100は、動画コンテンツVC2のうち、時間位置「t2」において笑った顔文字マークMRを付すようにコンテンツ配信装置30に対して表示制御する。例えば、情報処理装置100は、動画コンテンツVC2の時間位置「t2」において、笑った顔文字マークMRがプレーヤーPL2の下方向からプレーヤーPL2の中央付近に素早く飛出すような表示態様で表示制御する。この場合、笑った顔文字マークMRは、動画コンテンツVC2に重畳されるように表示される。これにより、情報処理装置100は、観客がいないリアルタイム配信においても、ユーザ間で一体感を演出したサービスの提供が可能となる。
また、動画コンテンツVC2は、予め、シークバーBRの時間位置のうち、最も行動人数が多い再生位置から選択された状態で再生されてもよい。また、ユーザに対して、最も行動人数が多い再生位置から動画コンテンツV2を再生するか否かを提示してもよい。例えば、図3の例では、グラフGのうち、時間位置「t2」に笑った顔文字マークMRが付されている。これにより、ユーザに対して、最も笑う行動を行った人数が多い再生位置である時間位置「t2」から動画コンテンツV2を再生するように提示してもよい。
なお、笑った顔文字マークMRを付す例に限定されなくともよく、感情を抽象化したマークの代わりに、笑い声や、効果音や、キャラクタを付してもよい。このように、情報処理装置100は、動画コンテンツの盛り上りを演出できるような効果であれば如何なる情報を付すように表示制御してもよい。また、上記例では、ユーザの感情として、笑いについて例を挙げて説明したが、上記処理は、泣くや、驚く等の感情にも適用可能である。
以上、図1及び図2を用いて説明してきたように、実施形態に係る情報処理装置100は、コンテンツ(例えば、動画コンテンツ)を視聴中のユーザを、かかるコンテンツを表示している端末装置10が有するインカメラによって撮像された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する情報を取得する。そして、情報処理装置100は、取得された推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。また、情報処理装置100は、推定結果に基づいて、コンテンツに関する情報を提示する。これにより、実施形態にかかる情報処理装置100は、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
〔2.端末装置の構成〕
次に、図5を用いて、実施形態にかかる端末装置10について説明する。図5は、実施形態に係る端末装置10の構成例を示す図である。図5に示すように、端末装置10は、通信部11と、表示部12と、撮像部13と、制御部14とを有する。端末装置10は、ユーザによって利用される情報処理装置である。
(通信部11について)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークNと有線又は無線で接続され、例えば、コンテンツ配信装置30や情報処理装置100との間で情報の送受信を行う。
(表示部12について)
表示部12は、各種情報を表示する表示デバイスであり、図2に示す表示画面Dに相当する。例えば、表示部12には、タッチパネルが採用される。また、表示部12は、例えば、撮像部13によってレンズから取り込まれた映像を表示する。
(撮像部13について)
撮像部13は、撮像素子を内蔵し、画像や動画を撮像するデバイスである。撮像素子は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)など何れでもよい。例えば、撮像部13は、レンズから取り込んだ映像であって表示部12に現在表示されている映像を静止画像として写真撮影したり、動画撮影したりすることができる。また、撮像部13は、図1で説明したインカメラに相当するものとする。
(制御部14について)
制御部14は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶装置に記憶されている各種プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現される。また、制御部14は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。また、制御部14は、実施形態に係る情報処理プログラム(アプリAP)により実行される処理部である。
図5に示すように、制御部14は、要求部14aと、同意情報受付部14bと、表示制御部14cと、カメラ制御部14dと、取得部14eと、推定部14f、送信部14gとを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部14の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部14が有する各処理部の接続関係は、図5に示した接続関係に限られず、他の接続関係であってもよい。
(要求部14a)
要求部14aは、コンテンツ(例えば、動画コンテンツ)の配信を要求する。例えば、要求部14aは、コンテンツ配信装置30に対して、コンテンツの配信を要求する。例えば、要求部14aは、コンテンツの配信を要求する配信要求をコンテンツ配信装置30に送信する。図1の例では、端末装置10は、ユーザU1の操作に応じて、動画サイトSTにおいて動画コンテンツをストリーミング配信させるための配信要求をコンテンツ配信装置30に送信する。例えば、ユーザU1が動画サイトSTにおいて、動画コンテンツVC2を示すクエリを指定したとすると、端末装置10は、かかるクエリを含む配信要求をコンテンツ配信装置30に送信する。また、要求部14aは、コンテンツ配信装置30から配信されたコンテンツを受信する。
(同意情報受付部14b)
同意情報受付部14b、インカメラ(撮像部13)によって撮像されることに同意するか否か(撮像されることを許可するか否か)を示す同意情報をユーザから受け付ける。図1の例では、同意情報受付部14bは、動画サイトSTにおいて任意の動画コンテンツを閲覧している間だけインカメラ(撮像部13)によって撮像されることに、同意するか否か(撮像されることを許可するか否か)を示す同意情報をユーザから受け付ける。例えば、同意情報受付部14bは、動画サイトSTに表示される「同意ボタン」が押下された場合には、インカメラ(撮像部13)によって撮像されることに同意する旨の同意情報を受け付ける。
(表示制御部14cについて)
表示制御部14cは、各種情報を端末装置10の表示画面D(表示部12)に表示させるための表示制御を行う。例えば、表示制御部14cは、要求部14aによって受信された情報を表示画面Dに表示させる。例えば、表示制御部14cは、動画サイトSTを表示画面Dに表示させる。また、表示制御部14cは、動画コンテンツを表示画面Dに表示させる。例えば、図2の例では、要求部14aは、動画コンテンツVC2を受信する。かかる場合、表示制御部14cは、領域AR内にプレーヤーPL1、グラフG、シークバーBRを表示させる。
(カメラ制御部14dについて)
カメラ制御部14dは、インカメラ(撮像部13)を制御することによりユーザを撮像する。例えば、カメラ制御部14dは、同意情報受付部14bにより受け付けられた同意情報に従って、インカメラを制御する。例えば、カメラ制御部14dは、同意情報受付部14bにより撮像されることに同意する旨の同意情報が受け付けられた場合には、ユーザが動画サイトSTにおいて任意の動画コンテンツを閲覧している間だけインカメラを制御する。つまり、カメラ制御部14dは、ユーザが動画サイトSTにおいて任意の動画コンテンツを閲覧している間だけユーザを撮像するようインカメラを制御する。
(取得部14eについて)
取得部14eは、コンテンツを視聴中のユーザを、コンテンツを表示している端末装置10が有するインカメラで撮像することで得られる撮像情報(顔動画のデータ)を取得する。例えば、取得部14eは、カメラ制御部14dから撮像情報を取得する。
また、例えば、取得部14eは、コンテンツとして、動画コンテンツ又は画像コンテンツを視聴中のユーザを撮像することで得られる撮像情報を取得する。動画コンテンツは、お笑い番組、ドラマ、映画、アニメ等の様々なジャンルの動画コンテンツである。一方、画像コンテンツは、例えば、各種の電子書籍である。また、取得部14eは、撮像情報として、ユーザの許諾が得られた場合にインカメラで撮像することで得られる撮像情報を取得する。例えば、取得部14eは、撮像情報として、ユーザの許諾が得られた場合において、コンテンツが表示されている間、インカメラで撮像することで得られる撮像情報を取得する。
(推定部14fについて)
推定部14fは、図1のステップS2で説明した推定処理を行う。具体的には、推定部14fは、取得部14eにより取得された撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報を推定する。例えば、推定部14fは、撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報として、ユーザの感情表出行動を推定する。感情表出行動は、感情を表す行動であり、面白いといった感情が生じた際に行う笑う行動、悲しいといった感情が生じた際に行う泣く行動、等である。また、例えば、推定部14fは、コンテンツが再生されている再生中に(つまり、ユーザがコンテンツを視聴しているまさにその時、リアルタイムに)、ユーザの感情に関する情報を推定する。また、推定部14fは、撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報として、ユーザの感情表出行動の度合いを示す特徴量を推定する。
図1の例では、取得部14eは、カメラ制御部14dによる撮像で得られた顔動画のデータ(撮像情報の一例)を取得し、推定部14fに送信する。そして、推定部14fは、顔動画のデータ(撮像情報の一例)に基づいて、ユーザの感情に関する情報を推定する。具体的には、推定部14fは、顔動画のデータが示すユーザの表情に基づいて、ユーザの感情に関する情報として、ユーザの感情表出行動を推定する。例えば、推定部14fは、顔動画のデータについて表情解析することにより、ユーザの感情表出行動を推定する。
また、推定部14fは、推定した感情放出行動の度合いを示す特徴量を推定する。例えば、推定部14fは、感情放出行動として、「笑う行動」を推定した場合には、この笑う行動の度合い(どれだけ笑ったか笑いの程度を示す度合い)を示す特徴量を推定(算出)する。例えば、推定部14fは、顔動画のデータが示すユーザの笑いが微笑レベルであるなら、笑う行動の度合いを示す特徴量として、笑い度「2」を推定する。一方、推定部14fは、顔動画のデータが示すユーザの笑いが大笑いレベルであるなら、笑い度「9」を推定する。
なお、推定部14fは、上記例に限定されない。具体的には、推定部14fは、取得部14eにより取得された撮像情報が示すユーザの表情に基づいて、ユーザの属性情報を推定してもよい。例えば、推定部14fは、画像解析等の従来技術を用いて、目や、鼻や、口の大きさ、眉毛の形、顔の皺又は髪の長さ等のユーザの属性を特徴付ける特徴情報を抽出する。そして、推定部14fは、抽出された特徴情報に基づいて、ユーザの属性情報として、ユーザの年齢や、性別を推定してもよい。
また、推定部14fは、ユーザが動画コンテンツを閲覧しているまさにそのタイミング、つまり、リアルタイムで、ユーザが撮像されることに応じて、例えば、毎秒推定処理を連続的に行う。このため、後述する送信部14gは、この推定部14fによる推定処理の推定結果を含む情報を、例えば、毎秒毎に、情報処理装置100に送信する。一例を示すと、送信部14gは、動画コンテンツの再生時間に対応する時間位置(タイムコード)と、感情表出行動を示す情報と、その感情表出行動の特徴量とを含む情報(図1の例では、撮像情報FDA1やFDA2)を毎秒、情報処理装置100に送信する。つまり、送信部14gは、ユーザが動画コンテンツを閲覧している間は、時間位置(タイムコード)と、感情表出行動を示す情報と、その感情表出行動の特徴量とを含む情報、つまり推定結果を遂次、情報処理装置100に送信する。
(送信部14gについて)
送信部14gは、推定部14fによる推定結果を送信する。具体的には、送信部14gは、推定部14fによる推定結果を含む情報を情報処理装置100に送信する。図1の例では、送信部14gは、撮像情報FDA1を情報処理装置100に送信する。また、送信部14gは、撮像情報FDA2を情報処理装置100に送信する。
なお、推定部14fによる推定処理は、情報処理装置100側で行われてもよい。この場合には、情報処理装置100は、推定部14fに対応する処理部を有することになる。また、この場合には、送信部14gは、顔動画のデータを連続的に情報処理装置100に送信する。
〔3.情報処理装置の構成〕
次に、図6を用いて、実施形態にかかる情報処理装置100について説明する。図6は、実施形態にかかる情報処理装置100の構成例を示す図である。図6に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。情報処理装置100は、例えば、実施形態にかかる情報処理を行うサーバ装置である。
(通信部110について)
通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークNと有線又は無線で接続され、例えば、端末装置10やコンテンツ配信装置30との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子又はハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、撮像情報記憶部121と、推定情報記憶部122と、全体集計結果記憶部123と、感情ポイント記憶部124と、出演者情報記憶部125とを有する。
(撮像情報記憶部121について)
撮像情報記憶部121は、コンテンツを視聴中のユーザを、コンテンツを表示している端末装置10が有するインカメラで撮像することで得られる撮像情報を記憶する。ここで、図7に実施形態にかかる撮像情報記憶部121の一例を示す。図7の例では、撮像情報記憶部121は、「ユーザID」、「動画ID」、「撮像情報」といった項目を有する。撮像情報記憶部121については、図1で説明済みのため、説明を省略する。
(推定情報記憶部122について)
推定情報記憶部122は、感情表出行動を推定した推定結果に関する情報を記憶する。また、推定情報記憶部122は、各ユーザが各動画コンテンツの中で行ったと推定される感情表出行動について、動画コンテンツの中で感情表出行動行われた時間位置を記憶するため、ユーザ毎の集計結果を記憶する記憶部といえる。ここで、図8に実施形態にかかる推定情報記憶部122の一例を示す。図1の例では、推定情報記憶部122は、「動画ID」、「ユーザID」、「行動情報」といった項目を有する。また、「行動情報」は、「笑う」、「泣く」、「驚く」といった項目を含む。
「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。「ユーザID」は、対応する動画コンテンツを視聴するユーザ又はユーザの端末装置を識別する識別情報を示す。
「行動情報」に含まれる「笑い」は、推定処理で推定された感情表出行動のうち、笑う行動が行われた時間位置であって、対応する動画IDが示す動画コンテンツの中で笑う行動が行われた時間位置を示す。また、「行動情報」に含まれる「笑い」は、後述する集計部132が、推定部14fによる推定結果に基づいて、動画コンテンツにおいて笑う行動が行われたものとして特定した時間位置を示す。「行動情報」に含まれる「泣く」は、推定処理で推定された感情表出行動のうち、泣く行動が行われた時間位置であって、対応する動画IDが示す動画コンテンツの中で泣く行動が行われた時間位置を示す。また、「行動情報」に含まれる「泣く」は、後述する集計部132が、推定部14fによる推定結果に基づいて、動画コンテンツにおいて泣く行動が行われたものとして特定した時間位置を示す。「行動情報」に含まれる「驚く」は、推定処理で推定された感情表出行動のうち、驚く行動が行われた時間位置であって、対応する動画IDが示す動画コンテンツの中で驚く行動が行われた時間位置を示す。また、「行動情報」に含まれる「驚く」は、後述する集計部132が、推定部14fによる推定結果に基づいて、動画コンテンツにおいて驚く行動が行われたものとして特定した時間位置を示す。
すなわち、図8の例では、ユーザU1が動画コンテンツVC1を閲覧している中で、笑う行動を行ったと推定されたとともに、動画コンテンツVC1の再生時間の中の時間位置t2、t21、t51において、この笑う行動が行われたことを特定された例を示す。
なお、本実施形態では、時間位置は、ある1点の時間位置であってもよいし、時間の範囲であってもよい。例えば、時間位置「t2」は、「2分35秒」といった1点の時間位置であってもよいし、「2分35秒~2分30秒」といった時間範囲であってもよい。また、時間位置が1点の時間位置を示す場合、かかる時間位置は、例えば、感情表出行動が開始された時間位置、感情表出行動が終了した時間位置、感情表出行動が開始された時間位置から感情表出行動が終了した時間位置までの時間範囲の中での中間時刻のいずれかであってもよい。
(全体集計結果記憶部123について)
全体集計結果記憶部123は、所定期間の間において、各動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数(笑う行動を行ったユーザの割合)を、各動画コンテンツの時間位置毎に記憶する。ここで、図9に実施形態にかかる全体集計結果記憶部123の一例を示す。図9の例では、全体集計結果記憶部123は、「動画ID」、「行動情報」といった項目を有する。また、「行動情報」は、「笑った人数(割合)」、「泣いた人数(割合)」、「驚いた人数(割合)」といった項目を含む。また、「笑った人数(割合)」、「泣いた人数(割合)」、「驚いた人数(割合)」それぞれには、動画コンテンツの時間位置を示す広告が対応付けられる。
「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。
「笑った人数(割合)」に対応付けられる項目である時間位置(「t1」、「t2」、「t3」・・・)は、各動画コンテンツの時間位置を示し、所定期間の間、動画コンテンツを閲覧したユーザの総数うち、その時間位置において笑う行動を行ったユーザの人数である行動人数(笑う行動を行ったユーザの割合)が入力される。「泣いた人数(割合)」に対応付けられる項目である時間位置(「t1」、「t2」、「t3」・・・)は、各動画コンテンツの時間位置を示し、所定期間の間、動画コンテンツを閲覧したユーザの総数うち、その時間位置において泣く行動を行ったユーザの人数である行動人数(泣く行動を行ったユーザの割合)が入力される。「驚いた人数(割合)」に対応付けられる項目である時間位置(「t1」、「t2」、「t3」・・・)は、各動画コンテンツの時間位置を示し、所定期間の間、動画コンテンツを閲覧したユーザの総数うち、その時間位置において驚く行動を行ったユーザの人数である行動人数(驚く行動を行ったユーザの割合)が入力される。
すなわち、図9の例では、所定期間の間、動画コンテンツVC1を閲覧したユーザの総数うち、時間位置t1において笑う行動を行ったユーザの人数である行動人数が「135人」である例を示す。また、図9の例では、所定期間の間、動画コンテンツVC1を閲覧したユーザの総数に対する、時間位置t1において笑う行動を行ったユーザの人数の割合が「20%」である例を示す。
また、図9の例では、所定期間の間、動画コンテンツVC2を閲覧したユーザの総数うち、時間位置t1において笑う行動を行ったユーザの人数である行動人数が「321人」である例を示す。また、図9の例では、所定期間の間、動画コンテンツVC2を閲覧したユーザの総数に対する、時間位置t1において笑う行動を行ったユーザの人数の割合が「5%」である例を示す。
(感情ポイント記憶部124について)
感情ポイント記憶部124は、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントに関する情報を記憶する。ユーザは感情に変化が生じると、反射的にその感情を行動に表す、例えば、面白いといった感情が芽生えたときには、笑う行動を行う。例えば、悲しいといった感情が芽生えたときには、泣く行動を行う。例えば、驚きの感情が芽生えたときには、驚く行動を行う。このようなことから、感情ポイントは、面白ポイント、泣きポイント、驚きポイント等に分けられる。ここで、図10に実施形態にかかる感情ポイント記憶部124の一例を示す。図10に示すように、感情ポイント記憶部124は、感情ポイント記憶部124-1、124-2、124-3に分けられる。
まず、感情ポイント記憶部124-1について説明する。感情ポイント記憶部124-1は、ユーザの感情ポイントに関する情報を記憶する。図10の例では、感情ポイント記憶部124-1は、「動画ID」、「感情ポイント」といった項目を有する。また、「感情ポイント」は、「面白ポイント」、「泣きポイント」、「驚きポイント」といった項目を含む。
「動画ID」は、ユーザによって視聴された動画コンテンツを識別する識別情報を示す。「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。かかる数値は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数そのもの、又は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、笑う行動を行ったユーザの人数の割合である。
このようなことから、「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数が所定人数以上であった時間位置を示す。あるいは、「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、笑う行動を行ったユーザの人数の割合が所定割合以上であった時間位置を示す。つまり、「面白ポイント」は、図9に示す全体集計結果記憶部123に記憶される時間位置のうち、上記条件情報を満たす時間位置が抽出されたものである。図10の例では、「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数が所定人数以上であった時間位置を示すものとする。
「泣きポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち泣く行動を行ったユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。かかる数値は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、泣く行動を行ったユーザの人数である行動人数そのもの、又は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、泣く行動を行ったユーザの人数の割合である。
このようなことから、「泣きポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、泣く行動を行ったユーザの人数である行動人数が所定人数以上であった時間位置を示す。あるいは、「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、泣く行動を行ったユーザの人数の割合が所定割合以上であった時間位置を示す。つまり、「泣きポイント」は、図9に示す全体集計結果記憶部123に記憶される時間位置のうち、上記条件情報を満たす時間位置が抽出されたものである。図10の例では、「泣きポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、泣く行動を行ったユーザの人数である行動人数が所定人数以上であった時間位置を示すものとする。
「驚きポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち驚く行動を行ったユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。「驚きポイント」についても同様であるためこれ以上の説明は省略する。
また、「感情ポイント」を示す時間位置の中でも、最も行動人数が多かった(又は、最も割合が高かった)時間位置にはチェックマークが付与される。「感情ポイント」は、後述する特定部133によって特定され、感情ポイント記憶部124に入力される。
すなわち、図10の例では、動画コンテンツVC1について時間位置「t1、t31、t62・・・」が面白ポイントとして特定され、また、時間位置「t1、t31、t62・・・」のうち、笑う行動を行った行動人数が最も多い時間位置が時間位置t31であると特定された例を示す。
また、図10の例では、動画コンテンツVC2について時間位置「t13、t55、t61・・・」が面白ポイントとして特定され、また、時間位置「t13、t55、t61・・・」のうち、笑う行動を行った行動人数が最も多い時間位置が時間位置t61であると特定された例を示す。
なお、図8に示す推定情報記憶部122は、動画コンテンツ毎に各ユーザが感情表出行動を行った時間位置を記憶している。このため、推定情報記憶部122に記憶される時間位置は、各ユーザの感情ポイントともいえる。
次に、感情ポイント記憶部124-2について説明する。感情ポイント記憶部124-2は、ユーザの年代毎に、年代を有するユーザの感情ポイントに関する情報を記憶する。図10の例では、感情ポイント記憶部124-2は、「属性(年代)」、「属性(性別)」、「動画ID」、「感情ポイント」といった項目を有する。また、「感情ポイント」は、「面白ポイント」、「泣きポイント」、「驚きポイント」といった項目を含む。なお、図10の例では、属性が「年代」及び「性別」である例を示すが、感情ポイント記憶部124、例えば、属性がユーザの興味関心及び趣味趣向や、ユーザの居住地及びユーザの位置情報等を含む地域に関する情報等の場合の感情ポイントも記憶することができる。つまり、図10の例では、属性をどうするかは限定されない。
「属性(年代)」は、動画コンテンツを視聴したユーザの年代を示す。なお、「属性(年代)」は、動画コンテンツを視聴したユーザの年齢を示してもよい。「属性(性別)」は、動画コンテンツを視聴したユーザの性別を示す。「動画ID」は、対応する属性のユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。
「面白ポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際の総数のうち、笑う行動を行ったユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。かかる数値は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、笑う行動を行ったかかる年代及び性別のユーザの人数である行動人数そのもの、又は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数に対する、笑う行動を行ったかかる年代及び性別のユーザの人数の割合である。
このようなことから、「面白ポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、笑う行動を行ったかかる年代及び性別のユーザの人数である行動人数が所定人数以上であった時間位置を示す。あるいは、「面白ポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数に対する、笑う行動を行ったかかる年代及び性別のユーザの人数の割合が所定割合以上であった時間位置を示す。図10の例では、「面白ポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、笑う行動を行ったかかる年代及び性別のユーザの人数である行動人数が所定人数以上であった時間位置を示すものとする。
「泣きポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、泣く行動を行ったかかる年代及び性別のユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。「驚きポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、驚く行動を行ったかかる年代のユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。「泣きポイント」及び「驚きポイント」も考え方は「面白ポイント」と同様であるためこれ以上の説明は省略する。
また、「感情ポイント」を示す時間位置の中でも、最も行動人数が多かった(又は、最も割合が高かった)時間位置にはチェックマークが付与される。「感情ポイント」は、後述する特定部133によって特定され、感情ポイント記憶部124に入力される。
すなわち、図10の例では、動画コンテンツVC1について時間位置「t14、t21、t39・・・」が面白ポイントとして特定され、また、時間位置「t14、t21、t39・・・」のうち、笑う行動を行った行動人数が最も多い時間位置が時間位置t31であると特定された例を示す。
また、図10の例では、10代のユーザであり、男性のユーザに対して、動画コンテンツVC2について時間位置「t13、t55、t61・・・」が面白ポイントとして特定された例を示す。また、時間位置「t13、t55、t61・・・」のうち、笑う行動を行った行動人数が最も多い時間位置が10代男性のユーザでは、時間位置t21であると特定された例を示す。
なお、図8に示す推定情報記憶部122は、動画コンテンツ毎に各ユーザが感情表出行動を行った時間位置を記憶している。このため、推定情報記憶部122に記憶される時間位置は、各ユーザの感情ポイントともいえる。
(出演者情報記憶部125について)
出演者情報記憶部125は、動画コンテンツに出演する出演者(例えば、タレント、芸人等)に対して行われた感情表出行動に関する情報を記憶する。出演者情報記憶部125は、例えば、推定情報記憶部122に記憶される情報を集計することで得られる。ここで、図11に実施形態にかかる出演者情報記憶部125の一例を示す。図11に示すように、出演者情報記憶部125は、出演者情報記憶部125-1、出演者情報記憶部125-2等に分けられる。
まず、出演者情報記憶部125-1について説明する。出演者情報記憶部125-1は、動画コンテンツVC1に出演している各出演者毎に、出演者が動画コンテンツVC1の中で演じている際に、このとき動画コンテンツVC1を視聴していたユーザのうち、感情表出行動を行ったユーザの人数に関する情報を記憶する。つまり、出演者情報記憶部125-1は、動画コンテンツVC1に出演している各出演者に対して、視聴者であるユーザがどれだけ笑ったか等といった情報を記憶する。図11の例では、出演者情報記憶部125-1は、「動画ID」、「行動情報」、「出演者」といった項目を有する。また、「出演者」は、各出演者を示す情報(例えば、氏名、グループ名等)を概念的に示す記号(TR11、TR12、TR13等)を含む。
「動画ID」は、ユーザによって視聴された動画コンテンツを識別する識別情報を示す。「行動情報」は、対応する動画コンテンツの中でユーザが行った感情放出行動を示す。
また、動画コンテンツVC1において、出演者「TR11」及び行動情報「笑う」に対応付けられる数値「30%」は、出演者「TR11」が動画コンテンツVC1の中で演じている際に笑う行動を行ったユーザの割合を示す。また、動画コンテンツVC1において、出演者「TR12」及び行動情報「笑う」に対応付けられる数値「50%」は、出演者「TR12」が動画コンテンツVC1の中で演じている際に笑う行動を行ったユーザの割合を示す。また、動画コンテンツVC1において、出演者「TR13」及び行動情報「笑う」に対応付けられる数値「15%」は、出演者「TR13」が動画コンテンツVC1の中で演じている際に笑う行動を行ったユーザの割合を示す。
次に、出演者情報記憶部125-2について説明する。出演者情報記憶部125-2は、出演者情報記憶部125-1と比較して、対象とする動画コンテンツが異なるため、出演者が行っているといった違いはあるが、実質、出演者情報記憶部125-1と同様である。
例えば、動画コンテンツVC2において、出演者「TR21」及び行動情報「笑う」に対応付けられる数値「3%」は、出演者「TR21」が動画コンテンツVC2の中で演じている際に笑う行動を行ったユーザの割合を示す。また、動画コンテンツVC2において、出演者「TR22」及び行動情報「笑う」に対応付けられる数値「3%」は、出演者「TR22」が動画コンテンツVC2の中で演じている際に笑う行動を行ったユーザの割合を示す。また、動画コンテンツVC2において、出演者「TR23」及び行動情報「笑う」に対応付けられる数値「3%」は、出演者「TR23」が動画コンテンツVC2の中で演じている際に笑う行動を行ったユーザの割合を示す。
図6に戻り、制御部130は、CPUやMPU等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASICやFPGA等の集積回路により実現される。
図6に示すように、制御部130は、受信部131と、集計部132と、特定部133と、提示部134と、編集部135とを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部130の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。
(受信部131について)
受信部131は、各種情報を受信する。具体的には、受信部131は、端末装置10から送信される情報を受信する。例えば、受信部131は、端末装置10による推定処理の推定結果を含む情報を受信する。上記の通り、推定部14fは、ユーザが動画コンテンツを閲覧しているリアルタイムで推定処理を行い、送信部14gは、推定結果を含む情報をリアルタイムで遂次、情報処理装置100に送信する。このため、受信部131は、ユーザが動画コンテンツを閲覧しているリアルタイムで情報を受信する。図1の例では、端末装置10は、撮像情報FDA1やFDA2を受信する。例えば、受信部131は、ユーザの属性情報を受信する。このとき、受信部131は、端末装置10からユーザの属性情報を受信してもよいし、ユーザ毎に属性情報が予め記憶されている記憶部を有する外部サーバからユーザの属性情報を受信してもよい。
(集計部132について)
集計部132は、推定部14fにより推定された推定結果を集計する集計処理を行う。例えば、集計部132は、推定部14fにより推定された推定結果に基づいて、動画コンテンツにおいて感情表出行動が行われた時間位置を特定する。そして、特定部133は、特定した時間位置に基づいて、動画コンテンツの中で感情表出行動が行われた回数を集計する。図1の例では、集計部132は、特徴量である笑い度が所定の閾値(例えば、笑い度「5」)以上を示す時間位置を、動画コンテンツVC1において、ユーザU1が笑う行動を行った時間位置として特定する。また、集計部132は、推定情報記憶部122に格納する。
また、例えば、集計部132は、各動画コンテンツの中で笑う行動を行った人数である行動人数を、各動画コンテンツの時間位置毎に集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を用いて、かかる集計を行う。また、集計部132は、所定期間の間において、動画コンテンツを視聴したユーザの総数に対する、その動画コンテンツの中で笑う行動を行ったユーザの人数の割合を、各動画コンテンツの時間位置毎に集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を用いて、かかる集計を行う。また、集計部132は、集計した集計結果を全体集計結果記憶部123に格納する。
また、集計部132は、コンテンツに出演している出演者毎に、出演者がコンテンツの中で演じている際に動画コンテンツVC1を視聴していたユーザのうち、感情表出行動を行ったユーザの人数に関する情報を集計する。例えば、集計部132は、出演者がコンテンツの中で演じている際に笑う行動を行ったユーザの割合を集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を集計することにより、出演者がコンテンツの中で演じている際に笑う行動を行ったユーザの割合を算出する。また、集計部132は、このときの集計結果を出演者情報記憶部125に格納する。
(特定部133について)
特定部133は、推定部14fにより推定された推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。図10で説明したように、感情ポイントは、面白ポイント、泣きポイント、驚きポイント等に分けられる。
例えば、特定部133は、推定部14fにより推定された推定結果をユーザ毎に集計することにより、ユーザ毎に感情ポイントを特定する。推定情報記憶部122に記憶されるユーザ毎に時間位置は、ユーザ毎の感情ポイントといえる。また、特定部133は、このユーザ毎の感情ポイントである時間位置の出現回数を集計することにより、感情ポイントを特定する。言い換えれば、特定部133は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数を集計することにより、感情ポイントを特定する。
例えば、特定部133は、行動人数に基づく数値が所定の条件情報を満たすポイントを感情ポイントとして特定する。具体的には、特定部133は、コンテンツが動画コンテンツである場合には、動画コンテンツの再生時間のうち、行動人数に基づく数値が所定の条件情報を満たす時間位置を感情ポイントとして特定する。例えば、特定部133は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数が所定人数以上の時間位置を面白ポイント(感情ポイントの一例)として特定する。あるいは、特定部133は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、このユーザのうち笑う行動を行ったユーザの人数である行動人数の割合が所定割合以上の時間位置を面白ポイント(感情ポイントの一例)として特定する。また、特定部133は、特定した感情ポイントを感情ポイント記憶部124-1に格納する。
また、特定部133は、推定部14fにより推定された推定結果をユーザのユーザ属性毎に集計することにより、ユーザ属性毎に感情ポイントを特定する。また、特定部133は、特定した感情ポイントを感情ポイント記憶部124-2に格納する。
また、特定部133は、推定結果をユーザ毎に集計した集計結果と、ユーザ毎の属性情報とに基づいて、ユーザ毎に感情ポイントを特定してもよい。例えば、特定部133は、ユーザの年齢が同一又は類似する年齢である他のユーザの感情ポイントを参照して、かかるユーザの感情ポイントを特定してもよい。また、特定部133は、ユーザの性別が同一又は類似する性別である他のユーザの感情ポイントを参照して、かかるユーザの感情ポイントを特定してもよい。また、特定部133は、ユーザの興味関心及び趣味嗜好が同一又は類似する興味関心及び趣味趣向を有する他のユーザの感情ポイントを参照して、かかるユーザの感情ポイントを特定してもよい。
(提示部134について)
提示部134は、推定部14fにより推定された推定結果に基づいて、コンテンツに関する情報を提示する。例えば、提示部134は、ユーザがコンテンツを閲覧する際に、コンテンツについて推定された推定結果に基づくコンテンツに関する情報を提示する。図2で説明したように、提示部134は、コンテンツが動画コンテンツである場合には、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示(提示)されるよう表示制御する。例えば、図2の例では、提示部134は、ステップS13及びS14にかけての処理を行う。
また、提示部134は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数に基づいて、コンテンツに順位付けを行う。そして、提示部134は、付与した順位情報に基づいて、ランキング形式でコンテンツを提示する。例えば、提示部134は、順位の高い上位所定数のコンテンツを人気コンテンツランキングとしてユーザに提示する。この点について、図9の例を用いて説明する。
図9の例では、全体集計結果記憶部123は、所定期間の間において、各動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数を、各動画コンテンツの時間位置毎に記憶する。したがって、提示部134は、全体集計結果記憶部123に記憶される行動人数に基づいて、コンテンツに順位付けを行う。例えば、提示部134は、動画コンテンツを視聴したユーザの総数に対する、このユーザのうち笑う行動を行ったユーザの人数の割合を、各動画コンテンツの時間位置毎に算出する。なお、この算出は、集計部132によって行われてもよい。
次に、提示部134は、各動画コンテンツから最も高い割合を抽出する。図9の例では、動画コンテンツVC1については時間位置t2の「46%」、動画コンテンツVC2については時間位置t1の「5%」といった具合である。そして、提示部134は、例えば、この割合がより高い上位5つの動画コンテンツを提示対象の動画コンテンツとして決定するとともに、割合が高い動画コンテンツほど高い順位を付与する。図9で不図示であるが、説明の便宜上、提示部134は、動画コンテンツVC5「1位」、動画コンテンツVC1「2位」、動画コンテンツVC4「3位」、動画コンテンツVC2「4位」、動画コンテンツVC3「5位」、といった順位付けを行ったものとする。
そうすると、提示部134は、この順位付けを行った5つの動画コンテンツを、例えば、「今週の人気動画ランキング」といった形でユーザに提示する。例えば、ユーザU1が動画サイトSTにアクセスしてきた場合、提示部134は、動画サイトSTの所定のページ内において「今週の人気動画ランキング」を表示させる。ユーザU1は、「今週の人気動画ランキング」の中に気になる動画コンテンツが含まれていれば、それを選択することで動画閲覧ページへとジャンプすることができる。
また、別の一例を示すと、提示部134は、推定部14fにより推定された推定結果に基づいて、各ユーザに応じたコンテンツをユーザにレコメンドすることができる。具体的には、提示部134は、推定部14fにより推定された推定結果をユーザ毎に集計することによりユーザについて特定された感情ポイントであって、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントに基づいて、ユーザに応じたコンテンツをレコメンドする。一例を示すと、提示部134は、ユーザ毎にユーザにパーソナライズ化されたコンテンツを、「あなた向けの動画一覧」等としてレコメンドする。この点について、図8の例を用いて説明する。
図8の例では、推定情報記憶部122は、動画コンテンツ毎に各ユーザが感情表出行動を行った時間位置を記憶している。このため、推定情報記憶部122に記憶される時間位置は、各ユーザの感情ポイントともいえる。したがって、提示部134は、この感情ポイントでの動画コンテンツの内容を分析する。ユーザU1を例に挙げると、提示部134は、動画コンテンツVC1の時間位置t2では、出演者は誰であったか、その出演者はどのような内容の演技を行っていたか等を分析する。また、提示部134は、動画コンテンツVC1の時間位置t21、t51についても同様に分析する。また、提示部134は、分析結果に基づいて、例えば、ユーザU1はどのようなジャンルの動画コンテンツが好みであるか、ユーザU1はどのような出演者が好みであるか、ユーザU1はどのような演技(例えば、お笑いネタ)が好みであるか等といった、動画コンテンツに対するユーザU1の傾向を学習する。
ここでは、簡単な例として、提示部134は、ユーザU1について「複数のグループが漫才を披露してゆく番組を好む傾向にある」との学習結果を得たとする。このような状態において、ユーザU1が動画サイトSTにアクセスしてきたとする。かかる場合、提示部134は、動画サイトSTの所定のページ内において「あなた向けの動画一覧」を表示させる。ここで、コンテンツ配信装置30は、ユーザに配信する各種コンテンツを記憶部に格納している。したがって、提示部134は、コンテンツ配信装置30の記憶部にアクセスし、「複数のグループが漫才を披露してゆく番組」(動画コンテンツ)を選択する。そして、提示部134は、選択した動画コンテンツをユーザU1に配信するようコンテンツ配信装置30に指示する。例えば、提示部134は、選択した動画コンテンツが「あなた向けの動画一覧」として表示されるよう、選択した動画コンテンツを配信させる。
これにより、情報処理装置100は、ユーザU1が好みそうなコンテンツをレコメンドすることができる。この結果、例えば、ユーザU1は、視聴したい動画コンテンツは決まっていないが、面白そうものがあれば視聴してみたいといった場面で、積極的に探すことなく、容易に自分好みの動画コンテンツを視聴することができるようになる。つまり、情報処理装置100は、ユーザに面倒な操作を与えることなく、ユーザに適したコンテンツをレコメンドすることができる。
(編集部135について)
編集部135は、動画コンテンツの編集を行う、具体的には、編集部135は、特定部133により特定された感情ポイントに基づいて、コンテンツの編集を行う。なお、本実施形態において編集するとは、新たなコンテンツを生成する概念を含み得るものとする。例えば、編集部135は、コンテンツのうち、感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する。例えば、編集部135は、コンテンツそれぞれの感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する。この点について、図10の例を用いて説明する。
図10に示す感情ポイント記憶部124-1の例では、動画コンテンツVC1の面白ポイントは時間位置t2、t31、t62である。また、動画コンテンツVC2の面白ポイントは時間位置t13、t55、t61である。
この場合、編集部135は、動画コンテンツVC1から、時間位置t2周辺の部分コンテンツ、時間位置t31周辺の部分コンテンツ、時間位置t62周辺の部分コンテンツをそれぞれ抽出する。例えば、編集部135は、時間位置t0~t4までに対応する動画コンテンツVC1を、時間位置t2周辺の部分コンテンツVC11として抽出する。また、編集部135は、時間位置t29~t33までに対応する動画コンテンツVC1を、時間位置t31周辺の部分コンテンツとVC12して抽出する。また、編集部135は、時間位置t00~t64までに対応する動画コンテンツVC1を、時間位置t62周辺の部分コンテンツVC13として抽出する。
また、編集部135は、動画コンテンツVC2から、時間位置t13周辺の部分コンテンツ、時間位置t55周辺の部分コンテンツ、時間位置t61周辺の部分コンテンツをそれぞれ抽出する。例えば、編集部135は、時間位置t11~t15までに対応する動画コンテンツVC2を、時間位置t13周辺の部分コンテンツVC21として抽出する。また、編集部135は、時間位置t53~t57までに対応する動画コンテンツVC2を、時間位置t55周辺の部分コンテンツとVC22して抽出する。また、編集部135は、時間位置t59~t63までに対応する動画コンテンツVC2を、時間位置t61周辺の部分コンテンツVC23として抽出する。
そして、編集部135は、上記にように抽出した部分コンテンツVC11、VC12、VC13、VC21、VC22、VC23を組み合わせる(繋ぎ合わせる)ことにより、新たな動画コンテンツVC11-21を生成する。このようなことから、動画コンテンツVC11-21は、面白ポイントだけで構成された動画コンテンツといえる。また、提示部134は、ユーザからのアクセスに応じて、動画コンテンツVC11-21を提示してもよい。
これにより、情報処理装置100は、ユーザがより楽しむことのできる動画コンテンツを動的に生成することができる。また、情報処理装置100は、動画コンテンツVC11-21を所定の事業主に販売することができる。なお、上記例では、情報処理装置100が、面白ポイントで編集する例を示したが、情報処理装置100は、泣きポイントや驚きポイントで同様の編集を行ってもよい。また、情報処理装置100は、面白ポイント、泣きポイント、驚きポイントを織り交ぜることで編集を行ってもよい。
また、編集部135は、動画コンテンツの所定の時間位置に、感情を抽象化したマークを付してもよい。例えば、動画コンテンツVC1のうち、時間位置「t2」で所定期間の間に動画コンテンツVC1を視聴したユーザの総数のうち、最も多い「693人」が笑う行動を行った(行動人数693人)との集計結果を得たものとする。この場合、編集部135は、時間位置「t2」において笑った顔文字等のマークを付してもよい。この場合、笑った顔文字マークは、動画コンテンツVC1に重畳されるように表示される。なお、上記例に限定されなくともよく、感情を抽象化したマークの代わりに、笑い声や、効果音や、キャラクタを付してもよい。このように、編集部135は、動画コンテンツの盛り上りを演出できるような効果であれば如何なる情報を付してもよい。また、上記例では、ユーザの感情として、笑いについて例を挙げて説明したが、上記編集処理は、泣くや、驚く等の感情にも適用可能である。
〔4.処理手順〕
次に、図12を用いて、実施形態に係る情報処理の手順について説明する。図12は、実施形態にかかる情報処理装置100が実行する情報処理を示すフローチャートである。図12の例では、端末装置10と情報処理装置100とが協働して行う情報処理の手順を示す。また、端末装置10及び情報処理装置100は、実施形態に係る情報処理プログラムを実行することにより情報処理を行う。なお、図12の例では、ユーザが閲覧する動画コンテンツを動画コンテンツVC1とする。
まず、端末装置10の同意情報受付部14bは、ユーザから受け付けた同意情報に基づいて、ユーザが撮像に許可したか否かを判定する(ステップS101)。同意情報受付部14bは、ユーザが撮像に許可しなかった場合には(ステップS101;No)、ユーザの撮像を行わず処理を終了する。一方、カメラ制御部14dは、同意情報受付部14bによりユーザが撮像に許可したと判定された場合には(ステップS101;Yes)、動画コンテンツVC1の閲覧が開始されたか否かを判定する(ステップS102)。カメラ制御部14dは、動画コンテンツVC1の閲覧が開始されていない場合には(ステップS102;No)、閲覧が開始されるまで待機する。一方、カメラ制御部14dは、動画コンテンツVC1の閲覧が開始された場合には(ステップS102;Yes)、ユーザの撮像を行う(ステップS103)。
カメラ制御部14dは、ユーザが動画コンテンツVC1を閲覧している間は撮像を継続するため、推定部14fは、カメラ制御部14dの撮像による撮像データ(顔動画のデータ)に基づいて、ユーザの感情表出行動を推定するとともに、推定した感情表出行動の度合いを示す特徴量を推定する推定処理を行う(ステップS104)。例えば、推定部14fは、ユーザが動画コンテンツVC1を閲覧しているリアルタイムにおいて、ユーザが動画コンテンツVC1の閲覧を終了するまで、毎秒毎に、この推定処理を行う。そして、送信部14gは、推定部14fによる推定結果を含む情報を、毎秒毎に、情報処理装置100に送信する(ステップS105)。
集計部132は、受信部131により撮像情報が受信されると、推定部14fにより推定された推定結果に基づいて、動画コンテンツVC1において感情表出行動が行われた時間位置を特定する(ステップS206)。例えば、集計部132は、特徴量が所定の閾値以上を示す時間位置を、動画コンテンツVC1において、ユーザが対応する感情表出行動を行った時間位置として特定する。
次に、集計部132は、推定部14fによる推定結果、及び、ステップS206で特定した時間位置に基づいて、各種集計を行う(ステップS207)。例えば、集計部132は、笑う行動を行ったユーザの人数や割合を集計し、全体集計結果記憶部123に格納する。
次に、特定部133は、感情ポイント(例えば、面白ポイント)を特定する(ステップS208)。例えば、特定部133は、全体集計結果記憶部123を参照し、各動画コンテンツの中で所定人数以上が笑う行動を行った時間位置、又は動画コンテンツの中で所定割合以上が笑う行動を行った時間位置を面白ポイントとして特定する。
このような状態において、受信部131は、ユーザからのアクセスを受信したか否かを判定する(ステップS209)。例えば、受信部131は、ユーザから動画コンテンツの配信要求を受信したか否かを判定する。受信部131は、アクセスを受信していない場合には(ステップS209;No)、受信するまで待機する。一方、提示部134は、受信部131によりアクセスが受信された場合には(ステップS209;Yes)、このとき、かかるユーザが視聴しようとする動画コンテンツ(ここでは、動画コンテンツVC2とする)に応じたコンテンツ(提示対象のコンテンツ)を生成する(ステップS210)。例えば、提示部134は、図2で説明したように、全体集計結果記憶部123にアクセスし、線情報を取得し、取得した遷移情報に基づいて、動画コンテンツVC2における行動人数ンの遷移を示すグラフGを生成する。
次に、提示部134は、グラフGを配信要求送信元のユーザに提示する(ステップS211)。例えば、情報処理装置136は、グラフGが動画コンテンツVC2の再生箇所(時間位置)をユーザ側がコントロールすることができるシークバーBR上に表示されるようコンテンツ配信装置30に対して表示制御する。例えば、情報処理装置100は、端末装置10がシークバーBR上にグラフGを表示するよう、端末装置10に対してグラフGを配信するようコンテンツ配信装置30に指示する。また、情報処理装置100は、グラフGをコンテンツ配信装置30に送信する。
〔5.変形例〕
上記実施形態に係る端末装置10及び情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、端末装置10及び情報処理装置100の他の実施形態について説明する。
〔5-1.コンテンツ〕
上記実施形態では、情報処理装置100による情報処理の対象となるコンテンツが動画コンテンツの場合での例を示してきたが、情報処理の対象となるコンテンツは、画像コンテンツであってもよい。すなわち、実施形態に係る情報処理装置100は、画像コンテンツを閲覧中のユーザを、かかる画像コンテンツを表示している端末装置10が有する撮像手段によって撮像された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する情報を取得する。そして、情報処理装置100は、取得された推定結果を集計することにより、画像コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。
一方、情報処理装置100は、コンテンツが画像コンテンツ(例えば、電子書籍)である場合には、画像コンテンツのページのうち、行動人数に基づく数値が所定の条件情報を満たすページを感情ポイントとして特定する。
この場合、集計部132は、各画像コンテンツの中で笑う行動を行った人数である行動人数を、各画像コンテンツのページ毎に集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を用いて、行動人数の集計を行う。また、集計部132は、所定期間の間において、画像コンテンツを閲覧したユーザの総数に対する、その画像コンテンツの中で笑う行動を行ったユーザの人数の割合を、各画像コンテンツのページ毎に集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を用いて、ユーザの人数の割合の集計を行う。また、集計部132は、集計した集計結果を全体集計結果記憶部123に格納する。
また、特定部133は、行動人数に基づく数値が所定の条件情報を満たすポイントを感情ポイントとして特定する。具体的には、特定部133は、画像コンテンツのページのうち、行動人数に基づく数値が所定の条件情報を満たすページを感情ポイントとして特定する。例えば、特定部133は、所定期間の間において、対応する画像コンテンツを閲覧したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数が所定人数以上のページを面白ポイントとして特定する。また、特定部133は、所定期間の間において、対応する画像コンテンツを閲覧したユーザの総数に対する、このユーザのうち笑う行動を行ったユーザの人数である行動人数の割合が所定割合以上のページを面白ポイントとして特定する。
これにより、情報処理装置100は、コンテンツを閲覧することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。例えば、情報処理装置100は、面白ポイントのページだけを寄せ集めた新たな画像コンテンツを提供したり、ユーザが画像コンテンツを閲覧使用する際に、笑いのポイントとなるページをグラフで提示したりすることができる。
〔5-2.端末装置〕
上記実施形態では、端末装置10が、感情に関する情報を推定する例を示したが、端末装置10が実行する推定処理は、情報処理装置100側で行われてもよい。一方、端末装置10は、推定処理を行うことに加えて、情報処理装置100が実行する集計部132によって行われる集計処理や、特定部133によって行われる特定処理等を行ってよい。
〔5-3.集中度を推定〕
上記実施形態では、推定部14fが、ユーザの感情に関する情報として、感情表出行動や感情表出行動の特徴量を推定する推定処理を行う例を示したが、推定部14fは、撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報として、コンテンツに対するユーザの集中度を推定してもよい。例えば、ユーザは、動画コンテンツを集中して閲覧するからこそ、笑う、泣く、驚く、といった感情表出行動を行う。したがって、コンテンツに対するユーザの集中度は、ユーザの感情に関する情報といえる。なお、推定部14fは、これまでに説明してきた推定処理と同様の手法を用いて、集中度(集中の度合いを示す指標値)を推定することができる。以下、この一例について、適宜、図1の例を用いて説明する。
例えば、推定部14fは、顔動画のデータについて表情解析することにより、ユーザの表情、動画コンテンツVC1のどの時間位置で動画コンテンツVC1(あるいは、動画コンテンツVC1が表示されている端末装置10の画面)に注目したかといった視聴態様を判断・計測する。そして、推定部14fは、この結果に基づいて、例えば、毎秒、集中度を推定する。
また、送信部14gは、かかる推定結果(集中度)を含む情報を、例えば、毎秒毎に、情報処理装置100に送信する。一例を示すと、送信部14gは、動画コンテンツの再生時間に対応する時間位置(タイムコード)と、集中度とを含む情報を毎秒毎に、情報処理装置100に送信する。つまり、送信部14gは、ユーザが動画コンテンツを閲覧している間は、時間位置(タイムコード)と、集中度とを含む情報を遂次、情報処理装置100に送信する。例えば、送信部14gは、時間位置「1分53秒」、集中度「10」といった情報を情報処理装置100に送信する。また、例えば、送信部14gは、時間位置「1分54秒」、集中度「8」といった情報を情報処理装置100に送信する。また、例えば、送信部14gは、時間位置「1分55秒」、集中度「7」といった情報を情報処理装置100に送信する。
ここで、動画コンテンツVC1を広告動画とすると、情報処理装置100は、端末装置10から受信した集中度に基づいて、広告効果を測定することができるため、測定した広告効果に基づいて、どのような広告配信がよいかを分析することや、分析結果を広告主にフィードバックすることができる。
〔5-4.コンテンツ配信装置〕
上記実施形態では、コンテンツ配信装置30が、各種コンテンツを配信する例を示したが、情報処理装置100がコンテンツ配信装置30の機能を有することによりコンテンツ配信を行ってもよい。この場合、情報処理装置100は、事業主(例えば、コンテンツプロバイダー)から受け付けた各種コンテンツを記憶する記憶部を有する。
〔5-5.音声情報〕
上記実施形態では、情報処理装置100が、撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報を推定する例を示したが、情報処理装置100が、端末装置10が有する集音手段(例えば、マイク)で集音された音声情報を取得し、取得した音声情報に基づいて、ユーザの感情に関する情報を推定してもよい。
例えば、情報処理装置100は、端末装置10が有するマイクで集音されたユーザの笑い声を取得する。そして、情報処理装置100は、ユーザの笑い声が取得されたことから、ユーザの感情に関する情報を「笑い」と推定してもよい。このとき、情報処理装置100は、音声解析等の従来技術を用いて、ユーザの音声情報を解析する。
なお、変形例は、上記例に限定されなくともよい。例えば、情報処理装置100は、端末装置10が有する集音手段で集音された音声情報を取得し、取得した音声情報と撮像情報とを組み合わせて、ユーザの感情に関する情報を推定してもよい。
また、情報処理装置100は、音声情報に限らず、例えば、端末装置10の動きを検知するジャイロセンサ及び加速度センサから取得されるセンシング情報や、ユーザの心拍数や、ユーザの体温等のユーザの生体情報に関するセンシング情報に基づいて、ユーザの感情に関する情報を推定してもよい。
〔6.ハードウェア構成〕
また、上述してきた実施形態にかかる端末装置10、コンテンツ配信装置30及び情報処理装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図13は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等である。
例えば、コンピュータ1000が実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
また、例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部14の機能を実現する。
〔7.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。
〔8.効果〕
上述してきたように、実施形態に係る情報処理装置100は、受信部131(取得部の一例)と、特定部133とを有する。受信部131は、コンテンツを閲覧中のユーザを、コンテンツを表示している端末装置10が有する撮像手段によって撮像された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する情報を取得する。特定部133は、受信部131によって取得された推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。
これにより、実施形態に係る情報処理装置100は、推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、受信部131は、ユーザの表情に基づいて、リアルタイムで推定されたユーザの感情に関する情報を取得し、特定部133は、受信部131によってリアルタイムで取得された推定結果をユーザ毎に集計することにより、ユーザ毎に感情ポイントをリアルタイムで特定する。
これにより、実施形態に係る情報処理装置100は、リアルタイムで取得された推定結果をユーザ毎に集計することにより、ユーザ毎に感情ポイントをリアルタイムで特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報をリアルタイムで提供することができる。
また、実施形態に係る情報処理装置100において、受信部131は、ユーザの属性に関する属性情報を取得し、特定部133は、受信部131によって取得された推定結果をユーザ毎に集計した集計結果と、ユーザ毎の属性情報とに基づいて、ユーザ毎に感情ポイントを特定する。
これにより、実施形態に係る情報処理装置100は、取得された推定結果をユーザ毎に集計した集計結果と、ユーザ毎の属性情報とに基づいて、ユーザ毎に感情ポイントを特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、特定部133は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数を集計することにより、感情ポイントを特定する。
これにより、実施形態に係る情報処理装置100は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数を集計することにより、感情ポイントを特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、特定部133は、行動人数に基づく数値が所定の条件情報を満たすポイントを感情ポイントとして特定する。
これにより、実施形態に係る情報処理装置100は、行動人数に基づく数値が所定の条件情報を満たすポイントを前記感情ポイントとして特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、特定部133は、コンテンツが動画コンテンツである場合には、動画コンテンツの再生時間のうち、行動人数に基づく数値が所定の条件情報を満たす時間位置を感情ポイントとして特定する。
これにより、実施形態に係る情報処理装置100は、コンテンツが動画コンテンツである場合には、動画コンテンツの再生時間のうち、行動人数に基づく数値が所定の条件情報を満たす時間位置を感情ポイントとして特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、特定部133は、コンテンツが画像コンテンツである場合には、画像コンテンツのページのうち、行動人数に基づく数値が所定の条件情報を満たすページを感情ポイントとして特定する。
これにより、実施形態に係る情報処理装置100は、コンテンツが画像コンテンツである場合には、画像コンテンツのページのうち、行動人数に基づく数値が所定の条件情報を満たすページを感情ポイントとして特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、感情ポイントに基づいて、コンテンツの編集を行う編集部135をさらに備える。
これにより、実施形態に係る情報処理装置100は、感情ポイントに基づいて、コンテンツの編集を行うため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、編集部135は、コンテンツのうち、感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する。
これにより、実施形態に係る情報処理装置100は、コンテンツのうち、感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、編集部135は、コンテンツそれぞれの感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する。
これにより、実施形態に係る情報処理装置100は、コンテンツそれぞれの感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、受信部131によって取得された推定結果に基づいて、コンテンツに関する情報を提示する提示部134をさらに備える。
これにより、実施形態に係る情報処理装置100は、取得された推定結果に基づいて、コンテンツに関する情報を提示するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、提示部134は、ユーザがコンテンツを閲覧する際に、コンテンツについて推定された推定結果に基づくコンテンツに関する情報を提示する。
これにより、実施形態に係る情報処理装置100は、ユーザがコンテンツを閲覧する際に、コンテンツについて推定された推定結果に基づくコンテンツに関する情報を提示するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、提示部134は、コンテンツが動画コンテンツである場合には、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示されるよう表示制御する。
これにより、実施形態に係る情報処理装置100は、コンテンツが動画コンテンツである場合には、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示されるよう表示制御するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、提示部134は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数に基づきコンテンツに順位付けされた順位情報に基づいて、ランキング形式でコンテンツを提示する。
これにより、実施形態に係る情報処理装置100は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数に基づきコンテンツに順位付けされた順位情報に基づいて、ランキング形式でコンテンツを提示するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、提示部134は、受信部131によって取得された推定結果に基づいて、ユーザに応じたコンテンツをレコメンドする。
これにより、実施形態に係る情報処理装置100は、取得された推定結果に基づいて、ユーザに応じたコンテンツをレコメンドするため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る情報処理装置100において、提示部134は、受信部131によって取得された推定結果をユーザ毎に集計することによりユーザについて特定された感情ポイントであって、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントに基づいて、ユーザに応じたコンテンツをレコメンドする。
これにより、実施形態に係る情報処理装置100は、取得された推定結果をユーザ毎に集計することによりユーザについて特定された感情ポイントであって、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントに基づいて、ユーザに応じたコンテンツをレコメンドするため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
また、実施形態に係る端末装置10は、取得部14eと、推定部14fと、送信部14gを有する。取得部14eは、コンテンツを閲覧中のユーザを、撮像手段によって撮像されることで得られる撮像情報を取得する。推定部14fは、取得部14eによって取得された撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報を推定する。送信部14gは、推定部14fによって推定された推定結果を情報処理装置100に送信する。
これにより、実施形態に係る端末装置10は、取得された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する推定結果を情報処理装置100に送信するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
1 情報処理システム
10 端末装置
12 表示部
13 撮像部
14 制御部
14a 要求部
14b 同意情報受付部
14c 表示制御部
14d カメラ制御部
14e 取得部
14f 推定部
14g 送信部
30 コンテンツ配信装置
100 情報処理装置
120 記憶部
121 撮像情報記憶部
122 推定情報記憶部
123 全体集計結果記憶部
124 感情ポイント記憶部
125 出演者情報記憶部
130 制御部
131 受信部
132 集計部
133 特定部
134 提示部
135 編集部

Claims (19)

  1. コンテンツを閲覧中のユーザを、当該コンテンツを表示している端末装置が有する撮像手段によって撮像された撮像情報が示す当該ユーザの表情に基づいて推定された当該ユーザの感情に関する情報として、感情表出行動を示す情報と、当該感情表出行動の特徴量とを取得する取得部と、
    前記取得部により取得された推定結果を前記特徴量が所定の閾値以上を示す時間位置と前記感情表出行動とを対応付けた情報に基づき前記コンテンツの時間位置毎に集計することにより、前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する特定部と
    を備えることを特徴とする情報処理装置。
  2. 前記取得部は、
    前記ユーザの表情に基づいて、リアルタイムで推定された前記ユーザの感情に関する情報を取得し、
    前記特定部は、
    前記取得部によってリアルタイムで取得された推定結果を前記ユーザ毎に集計することにより、前記ユーザ毎に前記感情ポイントをリアルタイムで特定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得部は、
    前記ユーザの属性に関する属性情報を取得し、
    前記特定部は、
    前記取得部によって取得された推定結果を前記ユーザ毎に集計した集計結果と、前記ユーザ毎の属性情報とに基づいて、前記ユーザ毎に前記感情ポイントを特定する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記特定部は、
    前記コンテンツの中で感情表出行動を行ったユーザの人数である行動人数を集計することにより、前記感情ポイントを特定する
    ことを特徴とする請求項1~3のいずれか1つに記載の情報処理装置。
  5. 前記特定部は、
    前記行動人数に基づく数値が所定の条件情報を満たすポイントを前記感情ポイントとして特定する
    ことを特徴とする請求項4に記載の情報処理装置。
  6. 前記特定部は、
    前記コンテンツが動画コンテンツである場合には、動画コンテンツの再生時間のうち、前記行動人数に基づく数値が所定の条件情報を満たす時間位置を前記感情ポイントとして特定する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記特定部は、
    前記コンテンツが画像コンテンツである場合には、画像コンテンツのページのうち、前記行動人数に基づく数値が所定の条件情報を満たすページを前記感情ポイントとして特定する
    ことを特徴とする請求項5又は6に記載の情報処理装置。
  8. 前記感情ポイントに基づいて、前記コンテンツの編集を行う編集部をさらに備える
    ことを特徴とする請求項1~7のいずれか1つに記載の情報処理装置。
  9. 前記編集部は、
    前記コンテンツのうち、前記感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する
    ことを特徴とする請求項8に記載の情報処理装置。
  10. 前記編集部は、
    前記コンテンツそれぞれの前記感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する
    ことを特徴とする請求項9に記載の情報処理装置。
  11. 前記取得部によって取得された推定結果に基づいて、前記コンテンツに関する情報を提示する提示部をさらに備える
    ことを特徴とする請求項1~10のいずれか1つに記載の情報処理装置。
  12. 前記提示部は、
    前記ユーザがコンテンツを閲覧する際に、当該コンテンツについて推定された推定結果に基づく前記コンテンツに関する情報を提示する
    ことを特徴とする請求項11に記載の情報処理装置。
  13. 前記提示部は、
    前記コンテンツが動画コンテンツである場合には、前記コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、前記コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示されるよう表示制御する
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記提示部は、
    前記コンテンツの中で感情表出行動を行ったユーザの人数である行動人数に基づき前記コンテンツに順位付けされた順位情報に基づいて、ランキング形式でコンテンツを提示する
    ことを特徴とする請求項11~13のいずれか1つに記載の情報処理装置。
  15. 前記提示部は、
    前記取得部によって取得された推定結果に基づいて、前記ユーザに応じたコンテンツをレコメンドする
    ことを特徴とする請求項11~14のいずれか1つに記載の情報処理装置。
  16. 前記提示部は、
    前記取得部によって取得された推定結果を前記ユーザ毎に集計することにより当該ユーザについて特定された感情ポイントであって、前記コンテンツの中で当該ユーザの感情に変化が生じたポイントである感情ポイントに基づいて、当該ユーザに応じたコンテンツをレコメンドする
    ことを特徴とする請求項15に記載の情報処理装置。
  17. コンピュータが実行する情報処理方法であって、
    コンテンツを閲覧中のユーザを、当該コンテンツを表示している端末装置が有する撮像手段によって撮像された撮像情報が示す当該ユーザの表情に基づいて推定された当該ユーザの感情に関する情報として、感情表出行動を示す情報と、当該感情表出行動の特徴量とを取得する取得工程と、
    前記取得工程により取得された推定結果を前記特徴量が所定の閾値以上を示す時間位置と前記感情表出行動とを対応付けた情報に基づき前記コンテンツの時間位置毎に集計することにより、前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する特定工程と
    を含むことを特徴とする情報処理方法。
  18. コンテンツを閲覧中のユーザを、当該コンテンツを表示している端末装置が有する撮像手段によって撮像された撮像情報が示す当該ユーザの表情に基づいて推定された当該ユーザの感情に関する情報として、感情表出行動を示す情報と、当該感情表出行動の特徴量とを取得する取得手順と、
    前記取得手順により取得された推定結果を前記特徴量が所定の閾値以上を示す時間位置と前記感情表出行動とを対応付けた情報に基づき前記コンテンツの時間位置毎に集計することにより、前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する特定手順と
    をコンピュータに実行させることを特徴とする情報処理プログラム。
  19. コンテンツを閲覧中のユーザを、撮像手段によって撮像されることで得られる撮像情報を取得する取得部と、
    前記取得部によって取得された撮像情報が示す前記ユーザの表情に基づいて、前記ユーザの感情に関する情報として、感情表出行動を示す情報と、当該感情表出行動の特徴量とを推定する推定部と、
    前記推定部によって推定された推定結果を、当該推定結果を前記特徴量が所定の閾値以上を示す時間位置と前記感情表出行動とを対応付けた情報に基づき前記コンテンツの時間位置毎に集計することにより前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する情報処理装置に送信する送信部と
    を備えることを特徴とする端末装置。
JP2020082880A 2020-05-08 2020-05-08 情報処理装置、情報処理方法、情報処理プログラム及び端末装置 Active JP7260505B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020082880A JP7260505B2 (ja) 2020-05-08 2020-05-08 情報処理装置、情報処理方法、情報処理プログラム及び端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082880A JP7260505B2 (ja) 2020-05-08 2020-05-08 情報処理装置、情報処理方法、情報処理プログラム及び端末装置

Publications (2)

Publication Number Publication Date
JP2021177362A JP2021177362A (ja) 2021-11-11
JP7260505B2 true JP7260505B2 (ja) 2023-04-18

Family

ID=78409524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082880A Active JP7260505B2 (ja) 2020-05-08 2020-05-08 情報処理装置、情報処理方法、情報処理プログラム及び端末装置

Country Status (1)

Country Link
JP (1) JP7260505B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102626061B1 (ko) * 2023-04-21 2024-01-16 주식회사 티빙 콘텐츠에 대한 사용자의 감정 정보에 기반하여 서비스를 제공하는 방법 및 장치
JP7398854B1 (ja) * 2023-06-30 2023-12-15 ヴィアゲート株式会社 ウェブページ閲覧解析システム、ウェブページ閲覧解析方法およびウェブページ閲覧解析プログラム
JP7398853B1 (ja) * 2023-06-30 2023-12-15 ヴィアゲート株式会社 動画視聴解析システム、動画視聴解析方法および動画視聴解析プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010001512A1 (ja) 2008-07-03 2010-01-07 パナソニック株式会社 印象度抽出装置および印象度抽出方法
JP2011215895A (ja) 2010-03-31 2011-10-27 Ntt Docomo Inc コンテンツ評価装置及びコンテンツ評価方法
JP2014222397A (ja) 2013-05-13 2014-11-27 日本電信電話株式会社 感情推定方法、装置及びプログラム
JP2014235533A (ja) 2013-05-31 2014-12-15 株式会社Nttぷらら コンテンツ評価装置、コンテンツ提示装置、コンテンツ評価方法、コンテンツ評価プログラム、およびコンテンツ供給システム
JP2015528226A (ja) 2012-06-14 2015-09-24 トムソン ライセンシングThomson Licensing コンテンツ要素に対する閲覧者の反応を決定する方法、装置及びシステム
WO2019130437A1 (ja) 2017-12-26 2019-07-04 株式会社ウフル 地域別笑顔度表示システム、地域別笑顔度表示方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102387400B1 (ko) * 2017-08-08 2022-04-15 라인 가부시키가이샤 통화 중 감정을 인식하여 인식된 감정을 활용하는 방법 및 시스템
WO2019193781A1 (ja) * 2018-04-04 2019-10-10 パナソニックIpマネジメント株式会社 感情推定装置、感情推定方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010001512A1 (ja) 2008-07-03 2010-01-07 パナソニック株式会社 印象度抽出装置および印象度抽出方法
JP2011215895A (ja) 2010-03-31 2011-10-27 Ntt Docomo Inc コンテンツ評価装置及びコンテンツ評価方法
JP2015528226A (ja) 2012-06-14 2015-09-24 トムソン ライセンシングThomson Licensing コンテンツ要素に対する閲覧者の反応を決定する方法、装置及びシステム
JP2014222397A (ja) 2013-05-13 2014-11-27 日本電信電話株式会社 感情推定方法、装置及びプログラム
JP2014235533A (ja) 2013-05-31 2014-12-15 株式会社Nttぷらら コンテンツ評価装置、コンテンツ提示装置、コンテンツ評価方法、コンテンツ評価プログラム、およびコンテンツ供給システム
WO2019130437A1 (ja) 2017-12-26 2019-07-04 株式会社ウフル 地域別笑顔度表示システム、地域別笑顔度表示方法及びプログラム

Also Published As

Publication number Publication date
JP2021177362A (ja) 2021-11-11

Similar Documents

Publication Publication Date Title
US10405020B2 (en) Sharing television and video programming through social networking
US10623783B2 (en) Targeted content during media downtimes
JP7260505B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び端末装置
TWI581128B (zh) 基於媒體反應來控制媒體節目的方法、系統及電腦可讀取儲存記憶體
US9015737B2 (en) Linked advertisements
US20140337868A1 (en) Audience-aware advertising
US20150020086A1 (en) Systems and methods for obtaining user feedback to media content
US20140331242A1 (en) Management of user media impressions
JP2014511620A (ja) 感情に基づく映像推薦
US20140325540A1 (en) Media synchronized advertising overlay
KR20140037874A (ko) 관심 기반 비디오 스트림 선택 기법
CN110959166B (zh) 信息处理设备、信息处理方法、信息处理系统、显示设备和预订系统
TWI570639B (zh) 虛擬社群建立系統及方法
JPWO2014148229A1 (ja) 番組再生装置
EP3316204A1 (en) Targeted content during media downtimes
EP2824630A1 (en) Systems and methods for obtaining user feedback to media content
JP2022120646A (ja) 撮影装置および撮影システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230111

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230117

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230406

R150 Certificate of patent or registration of utility model

Ref document number: 7260505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350