JP2021177362A - Information processing apparatus, information processing method, information processing program, and terminal apparatus - Google Patents
Information processing apparatus, information processing method, information processing program, and terminal apparatus Download PDFInfo
- Publication number
- JP2021177362A JP2021177362A JP2020082880A JP2020082880A JP2021177362A JP 2021177362 A JP2021177362 A JP 2021177362A JP 2020082880 A JP2020082880 A JP 2020082880A JP 2020082880 A JP2020082880 A JP 2020082880A JP 2021177362 A JP2021177362 A JP 2021177362A
- Authority
- JP
- Japan
- Prior art keywords
- user
- content
- information
- information processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 260
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims abstract description 99
- 230000014509 gene expression Effects 0.000 claims abstract description 72
- 230000008859 change Effects 0.000 claims abstract description 25
- 230000008451 emotion Effects 0.000 claims description 195
- 230000009471 action Effects 0.000 claims description 159
- 230000006399 behavior Effects 0.000 claims description 93
- 230000002996 emotional effect Effects 0.000 claims description 80
- 230000002776 aggregation Effects 0.000 claims description 49
- 238000004220 aggregation Methods 0.000 claims description 49
- 238000000034 method Methods 0.000 claims description 44
- 230000008921 facial expression Effects 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 33
- 230000005540 biological transmission Effects 0.000 claims description 21
- 230000004931 aggregating effect Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 16
- 230000007704 transition Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 abstract description 18
- 206010011469 Crying Diseases 0.000 description 32
- 238000010586 diagram Methods 0.000 description 18
- 239000000284 extract Substances 0.000 description 16
- 238000004891 communication Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000014478 crying behavior Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000010195 expression analysis Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000003578 releasing effect Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明の実施形態は、情報処理装置、情報処理方法、情報処理プログラム及び端末装置に関する。 Embodiments of the present invention relate to information processing devices, information processing methods, information processing programs, and terminal devices.
従来、利用者から取得した生体情報に基づいて利用者の心理状況や感情を判定し、判定した利用者の心理状況や感情に応じたサービスの提供を行う技術が知られている。例えば、利用者の感情を検出し、検出した感情に応じて、利用者が作成中のメッセージを加工する情報端末装置が開示されている。 Conventionally, there is known a technique of determining a user's psychological state and emotion based on biometric information acquired from the user and providing a service according to the determined user's psychological state and emotion. For example, an information terminal device that detects a user's emotion and processes a message being created by the user according to the detected emotion is disclosed.
例えば、情報端末装置は、利用者がメッセージを作成する際に、生体センサを用いて、利用者の生体情報を測定し、測定した生体情報を用いて、利用者の心理状況や感情の強さを示す情報を算出する。そして、情報端末装置は、算出した情報に基づいて、利用者が作成したメールを加工し、加工したメッセージを送信することで、利用者の感情を伝達する。 For example, an information terminal device measures a user's biometric information by using a biosensor when the user composes a message, and uses the measured biometric information to determine the user's psychological state and emotional strength. The information indicating is calculated. Then, the information terminal device processes the mail created by the user based on the calculated information, and transmits the processed message to convey the user's emotions.
しかしながら、上記の従来技術は、メッセージの送信先へ利用者の感情を伝えるに過ぎず、コンテンツを閲覧することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができるとは限らない。 However, the above-mentioned prior art merely conveys the user's emotions to the destination of the message, and can provide meaningful information to the user in response to the change in emotions caused to the user by browsing the content. Not always possible.
本願は、上記に鑑みてなされたものであって、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる情報処理装置、情報処理方法、情報処理プログラム及び端末装置を提供することを目的とする。 The present application has been made in view of the above, and is an information processing device, an information processing method, which can provide information meaningful to the user in response to changes in emotions caused to the user by viewing the content. An object of the present invention is to provide an information processing program and a terminal device.
本願に係る情報処理装置は、コンテンツを閲覧中のユーザを、当該コンテンツを表示している端末装置が有する撮像手段によって撮像された撮像情報が示す当該ユーザの表情に基づいて推定された当該ユーザの感情に関する情報を取得する取得部と、前記取得部によって取得された推定結果を集計することにより、前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する特定部とを備えることを特徴とする。 The information processing device according to the present application estimates the user who is viewing the content based on the facial expression of the user indicated by the image pickup information captured by the image pickup means of the terminal device displaying the content. An acquisition unit that acquires information about emotions, and a specific unit that identifies emotion points, which are points where the user's emotions have changed in the content, by aggregating the estimation results acquired by the acquisition unit. It is characterized by having.
実施形態の一態様によれば、コンテンツを閲覧することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができるといった効果を奏する。 According to one aspect of the embodiment, it is possible to provide information that is meaningful to the user in response to changes in emotions that occur in the user by browsing the content.
以下に、本願に係る情報処理装置、情報処理方法、情報処理プログラム及び端末装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法、情報処理プログラム及び端末装置が限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for implementing the information processing apparatus, information processing method, information processing program, and terminal apparatus according to the present application (hereinafter, referred to as “embodiments”) will be described with reference to the drawings. Note that this embodiment does not limit the information processing device, information processing method, information processing program, and terminal device according to the present application. Further, in the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
〔1.情報処理の一例〕
最初に、実施形態に係る情報処理装置100により実現される情報処理を説明する。図1は、実施形態に係る情報処理装置100による情報処理の一例を示す図である。以下の説明では、実施形態に係る情報処理として、端末装置10及び情報処理装置100が協働して行う情報処理について説明する。本実施形態では、情報処理装置100は、実施形態に係る情報処理プログラムを実行し、端末装置10と協働することで、実施形態に係る情報処理を行う。また、端末装置10にも、実施形態に係る情報処理プログラムであるアプリケーション(以下、「アプリAP」と表記する場合がある)がインストールされているものとする。
[1. An example of information processing]
First, the information processing realized by the
図1の説明に先立って、図4を用いて、実施形態に係る情報処理システム1について説明する。図4は、実施形態に係る情報処理システム1の構成例を示す図である。実施形態に係る情報処理システム1は、図4に示すように、端末装置10と、コンテンツ配信装置30と、情報処理装置100とを含む。端末装置10、コンテンツ配信装置30、情報処理装置100は、ネットワークNを介して有線又は無線により通信可能に接続される。なお、図4に示す情報処理システム1には、複数台の端末装置10や、複数台のコンテンツ配信装置30や、複数台の情報処理装置100が含まれてよい。
Prior to the description of FIG. 1, the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)や、ヘッドマウントディスプレイ等である。本実施形態では、端末装置10は、スマートフォンであるものとする。
The
また、端末装置10には、2つのカメラ機能が内蔵されている。一つは、メインカメラであり、ユーザから見た景色や人物を撮像するために用いられる。このため、メインカメラ用のレンズは、ユーザとは反対側の方向に向けて、例えば、端末装置10の裏側に付与されている。
Further, the
もう一つは、インカメラであり、例えば、ビデオ通話や顔認証に利用される。このため、インカメラ用のレンズは、端末装置10が有するディスプレイ(タッチパネル)の周辺等において、ユーザ向きに付与されている。このため、ユーザは、インカメラ用のレンズによって取り込まれた映像(例えば、自身の顔の映像)であって、ディスプレイに表示された映像の映り具合を確認しながら、インカメラを用いて自身を撮影することができる。本実施形態では、このインカメラを「撮像手段の一例」とする。
The other is an in-camera, which is used, for example, for video calls and face recognition. Therefore, the lens for the in-camera is provided for the user around the display (touch panel) of the
また、上記の通り、端末装置10にはアプリAPがインストールされており、端末装置10は、アプリAPの制御に従って、ユーザによる操作に関係なく、動的にユーザを撮像することができるものとする。例えば、端末装置10は、アプリAPの制御に従って、ユーザが所定の動画サイト(「動画サイトST」とする)で動画コンテンツを視聴中にのみ、動的にユーザの表情を撮像する。より具体的には、端末装置10は、アプリAP内で配信される全て、又は、任意の動画コンテンツを視聴中にのみ、動的にユーザの表情を撮像する。
Further, as described above, the application AP is installed in the
なお、動的にユーザを撮像するため、例えば、ユーザが動画サイトSTを訪問した際、又は、動画サイトSTにおいて任意の動画コンテンツを閲覧する際には、端末装置10は、アプリAPの制御に従って、ユーザに対して撮像する旨の同意を得るようにする。例えば、ユーザがユーザ自身を撮像されることを許可した場合(同意が得られた場合)には、端末装置10は、かかるユーザの撮像を行う。一方、ユーザがユーザ自身を撮像されることを許可しなかった場合(同意が得られなかった場合)には、端末装置10は、かかるユーザの撮像は行わない。
In order to dynamically image the user, for example, when the user visits the video site ST or browses arbitrary video content on the video site ST, the
コンテンツ配信装置30は、コンテンツを配信するサーバ装置又はクラウドシステム等である。例えば、コンテンツ配信装置30は、動画コンテンツを配信する。例えば、コンテンツ配信装置30は、動画サイトSTを介して、端末装置10に動画コンテンツを配信する。例えば、ユーザが動画サイトSTに訪問し、閲覧したい動画コンテンツの動画名やカテゴリをクエリとして指定したものとする。この場合、コンテンツ配信装置30は、端末装置10からクエリを受信し、受信したクエリに対応する動画コンテンツの一覧を動画サイトST中に表示させる。
The
また、コンテンツ配信装置30は、VOD(Video On Demand)といった配信形態で、動画コンテンツを配信する。例えば、コンテンツ配信装置30は、お笑い番組、ドラマ、映画、アニメ等の様々なジャンルの動画コンテンツを配信する。また、コンテンツ配信装置30は、インターネットライブ配信を行う。
Further, the
ここで、実施形態にかかる情報処理が行われるにあたっての前提について説明する。例えば、動画サイトSTでお笑い番組を視聴する場合、面白いポイントを探してそこだけを視聴しようとする場合があるが、かかる場合、ユーザはシークバーを動かす等を行い、ユーザ自身で面白いポイントを見つける必要があり面倒である。このようなことから、面白いポイントだけをピックアップして視聴出来るようにして欲しいといったニーズがある。 Here, the premise for performing information processing according to the embodiment will be described. For example, when watching a laughing program on the video site ST, there is a case where you search for an interesting point and try to watch only that point, but in such a case, the user needs to move the seek bar etc. and find the interesting point by himself. It is troublesome. For this reason, there is a need to pick up and watch only interesting points.
このようなニーズをかなえようとすると、所定の担当者(例えば、目利きの人)が、お笑い番組を視聴し、面白いポイントを探すことが考えられるが、この作業も非常に面倒である。このようなことから、お笑い番組を視聴しているユーザについて、そのユーザの感情(表情)から、笑ったという笑いの行動を推定できれば、より多くのユーザが笑ったポイントを面白いポイントとして抽出し、以降、このお笑い番組を視聴しようとするユーザに、この抽出したポイントを提示することができるようになる。 In order to meet such needs, it is conceivable that a predetermined person in charge (for example, a connoisseur) watches a laughing program and searches for interesting points, but this work is also very troublesome. From this, if the laughing behavior of laughing can be estimated from the emotions (facial expressions) of the user who is watching the laughing program, the points where more users laughed can be extracted as interesting points. After that, the extracted points can be presented to the user who wants to watch this laughing program.
また、お笑い番組の中には、例えば、出演者(例えば、お笑いタレントやグループ)毎に、出演者の演技(すなわち、ネタ)に対するユーザの反応に基づいて、ネタの面白さを競って、出演者に順位付けするといったものがある。このようなお笑い番組では、実際に、お笑い番組を視聴していた各ユーザからの投票を受け付けてその投票結果で順位付けする場合がある。一例を示すと、集計する専用サーバは、お笑い番組が再生表示されている最中に、このお笑い番組が再生表示されている領域の下部等に「投票ボタン」を表示しておく。ユーザは、この出演者のネタが面白いと思う場合には、「投票ボタン」を押下する。これによって、集計する専用サーバは、出演者毎に投票結果を集計し、投票数のより多い出演者に高い順位を付与する。 Also, in a comedy program, for example, each performer (for example, a comedy talent or a group) competes for the fun of the story based on the user's reaction to the performer's performance (that is, the story) and appears. There is something like ranking people. In such a laughing program, there is a case where a vote is actually received from each user who was watching the laughing program and ranked by the voting result. As an example, the dedicated server for totaling displays a "voting button" at the bottom of the area where the laughing program is played and displayed while the laughing program is being played and displayed. The user presses the "voting button" when he / she finds the story of this performer interesting. As a result, the dedicated server that aggregates aggregates the voting results for each performer, and assigns a higher ranking to the performers with the larger number of votes.
しかしながら、このような投票システムで算出される投票数は、必ずしも面白さを正確に反映しているとはいい難い場合がある。例えば、1人のユーザが、1組の出演者について、複数回投票ができてしまうと、興味のない出演者を故意に上位にランクアップさせることができてしまうかもしれない。また、投票するという行動は、反射的な行動ではなく、確固たる意思に基づく行動であるため、実際には面白いと思ってなくても、不正のような形で投票ボタンを押そうとするユーザもいるかもしれない。そうすると、投票数は、必ずしも面白さを正確に反映しているとはいい難い。 However, the number of votes calculated by such a voting system may not always accurately reflect the fun. For example, if one user can vote for a set of performers multiple times, an uninterested performer may be intentionally ranked higher. Also, since the action of voting is not a reflexive action but an action based on a firm intention, some users try to press the voting button in a fraudulent manner even if they do not actually find it interesting. There may be. Then, the number of votes does not necessarily accurately reflect the fun.
一方で、ユーザは面白いネタには、反射的に笑ってしまい、面白くないネタには反応しない(わざと笑うようなことはしない)ため、ユーザが確実に笑ったことを特定し、笑ったユーザの人数を出演者毎に集計できれば、この集計結果は、上記投票数よりも、より正確にユーザの意志(面白いという感情)を反映しているといえる。そうすると、出演者に対してより正確な順位付けができるようになる。 On the other hand, the user laughs reflexively at interesting material and does not react to uninteresting material (does not intentionally laugh), so identify that the user laughed surely and the user who laughed If the number of people can be totaled for each performer, it can be said that this totaled result reflects the user's intention (feeling of being interesting) more accurately than the above-mentioned number of votes. Then, the performers can be ranked more accurately.
以上のような前提及び問題点を踏まえて、実施形態に係る情報処理装置100は、コンテンツ(例えば、動画コンテンツ)を視聴中のユーザを、かかるコンテンツを表示している端末装置が有する撮像手段によって撮像された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する情報を取得する。そして、情報処理装置100は、取得された推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。
Based on the above assumptions and problems, the
以下、実施形態に係る情報処理の一例について説明する。以下の情報処理の一例では、情報処理装置100が情報処理プログラムを実行することにより、上記手順を行うものとする。情報処理装置100は、例えば、実施形態にかかる情報処理を行うサーバ装置又はクラウドシステム等である。また、コンテンツ配信装置30及び情報処理装置100を管理する事業主を「事業主X」とする。このようなことから、動画サイトSTは、事業主Xによって管理・運営されるコンテンツといえる。
Hereinafter, an example of information processing according to the embodiment will be described. In the following example of information processing, the
まず、図1の例では、ユーザU1及びU2の2人のユーザを例示するが、これは一例であり、ユーザの人数は2人に限定されない。また、ユーザU1によって利用される端末装置10を端末装置10−1とする。また、ユーザU2によって利用される端末装置10を端末装置10−2とする。一方、ユーザ毎に端末装置を区別する必要が無い場合には、単に端末装置10と表記する。また、図1の例では、ユーザU1及びU2ともに、動画サイトSTにて動画コンテンツを閲覧中にインカメラで自身が撮像されることを許可しているものとする。つまり、端末装置10−1は、インカメラにてユーザU1を撮像してよい旨を認識している。また、端末装置10−2は、インカメラにてユーザU2を撮像してよい旨を認識している。
First, in the example of FIG. 1, two users, users U1 and U2, are illustrated, but this is an example, and the number of users is not limited to two. Further, the
このような状態において、図1の例では、ユーザU1は、端末装置10−1を用いて、動画サイトSTにて動画コンテンツVC1を視聴しているものとする。また、同様に、ユーザU2は、端末装置10−2を用いて、動画サイトSTにて動画コンテンツVC2を視聴しているものとする。また、動画コンテンツVC1及びVC2ともにお笑い番組であるものとする。 In such a state, in the example of FIG. 1, it is assumed that the user U1 is viewing the video content VC1 on the video site ST by using the terminal device 10-1. Similarly, it is assumed that the user U2 is viewing the video content VC2 on the video site ST using the terminal device 10-2. Further, it is assumed that both the video contents VC1 and VC2 are funny programs.
端末装置10−1は、ユーザU1が動画コンテンツVC1を視聴している間、インカメラを制御し、ユーザU1の顔(表情)を撮像する(ステップS1)。例えば、端末装置10−1は、ユーザU1が動画コンテンツVC1を視聴している間、ユーザU1の表情を動画(顔動画)として撮像する。そして、端末装置10−1は、ユーザU1を撮像することで得られた撮像情報FDA1を情報処理装置100に送信する(ステップS2)。この点について具体的に説明すると、端末装置10−1は、ユーザU1を撮像することで得られた顔動画のデータを解析することにより、その解析に基づく推定結果を含む撮像情報FDA1を得る。 The terminal device 10-1 controls the in-camera and captures the face (facial expression) of the user U1 while the user U1 is viewing the moving image content VC1 (step S1). For example, the terminal device 10-1 captures the facial expression of the user U1 as a moving image (face moving image) while the user U1 is viewing the moving image content VC1. Then, the terminal device 10-1 transmits the image pickup information FDA1 obtained by imaging the user U1 to the information processing device 100 (step S2). More specifically, the terminal device 10-1 analyzes the face moving image data obtained by imaging the user U1 to obtain the imaging information FDA1 including the estimation result based on the analysis.
例えば、端末装置10−1は、顔動画のデータ(撮像情報の一例)に基づいて、ユーザU1の感情に関する情報を推定する。具体的には、端末装置10−1は、顔動画のデータが示すユーザU1の表情に基づいて、ユーザU1の感情に関する情報として、ユーザU1の感情表出行動を推定する。例えば、端末装置10−1は、顔動画のデータについて表情解析することにより、ユーザU1の感情表出行動を推定する推定処理を行う。また、端末装置10−1は、顔動画のデータが示すユーザの瞳孔について解析することにより、ユーザU1の感情表出行動を推定する推定処理を行う。 For example, the terminal device 10-1 estimates information about the emotion of the user U1 based on face moving image data (an example of imaging information). Specifically, the terminal device 10-1 estimates the emotion expression behavior of the user U1 as information regarding the emotion of the user U1 based on the facial expression of the user U1 indicated by the face moving image data. For example, the terminal device 10-1 performs an estimation process for estimating the emotional expression behavior of the user U1 by performing facial expression analysis on the face moving image data. In addition, the terminal device 10-1 performs an estimation process for estimating the emotional expression behavior of the user U1 by analyzing the pupil of the user indicated by the face moving image data.
ここで、感情表出行動とは、いわゆる喜怒哀楽に関する行動であり、「笑う」、「泣く」、「驚く」等が挙げられる。以下の実施形態では、特に「笑う」行動に焦点を当てて説明する。以下、感情表出行動を「笑う行動」と表記する。図1の例では、端末装置10−1は、ユーザU1が笑う行動を行ったと推定したとする。そうすると、端末装置10−1は、この笑う行動の度合い(どれだけ笑ったか笑いの程度を示す度合い)を示す特徴量を推定(算出)する。例えば、端末装置10−1は、笑う行動の度合いを示す特徴量を1〜10の数値で推定することができる。例えば、端末装置10−1は、ユーザU1の笑いが微笑レベルであるなら、笑う行動の度合いを示す特徴量として、笑い度「2」を推定する。一方、端末装置10は、ユーザU1の笑いが大笑いレベルであるなら、笑い度「9」を推定する。
Here, the emotional expression behavior is a behavior related to so-called emotions, and includes “laughing”, “crying”, “surprise”, and the like. The following embodiments will be described with a particular focus on "laughing" behavior. Hereinafter, the emotional expression behavior is referred to as "laughing behavior". In the example of FIG. 1, it is assumed that the terminal device 10-1 presumes that the user U1 has performed a laughing action. Then, the terminal device 10-1 estimates (calculates) a feature amount indicating the degree of this laughing behavior (the degree of laughing or the degree of laughing). For example, the terminal device 10-1 can estimate a feature amount indicating the degree of laughing behavior with a numerical value of 1 to 10. For example, if the laughter of the user U1 is at the smile level, the terminal device 10-1 estimates the laughter degree "2" as a feature quantity indicating the degree of the laughing behavior. On the other hand, the
なお、端末装置10−1は、ユーザU1が動画コンテンツVC1を閲覧しているまさにそのタイミング、つまり、リアルタイムで、ユーザU1を撮像しつつ上記推定処理を連続的に行う。そして、端末装置10−1は、この推定結果を含む撮像情報FDA1を、例えば、毎秒、情報処理装置100に送信する。一例を示すと、端末装置10−1は、動画コンテンツVC1の再生時間に対応する時間位置(タイムコード)と、感情表出行動を示す情報と、その感情表出行動の特徴量とを含む撮像情報FDA1を毎秒毎に、情報処理装置100に送信する。なお、上記リアルタイムにおける処理は、5G(Generation)等の無線通信網を介して通信を行うことで実現可能である。
The terminal device 10-1 continuously performs the above estimation process while imaging the user U1 at the exact timing when the user U1 is browsing the moving image content VC1, that is, in real time. Then, the terminal device 10-1 transmits the imaging information FDA1 including the estimation result to the
上記のように、笑いの例を用いると、端末装置10−1は、ユーザU1を撮像しつつ上記推定処理を連続的に行っているため、例えば、時間位置「1分53秒」、感情表出行動「笑う行動」、笑い度「0」といった情報を含む撮像情報FDA1を情報処理装置100に送信する。また、端末装置10は、例えば、時間位置「1分54秒」、感情表出行動「笑う行動」、笑い度「2」といった情報を含む撮像情報FDA1を情報処理装置100に送信する。また、端末装置10は、例えば、時間位置「1分55秒」、感情表出行動「笑う行動」、笑い度「9」といった情報を含む撮像情報FDA1を情報処理装置100に送信する。なお、端末装置10−1は、撮像情報を毎秒毎に送信するのではなく、任意の時間間隔(例えば、3秒)毎に撮像情報を送信してもよい。
As described above, using the example of laughter, since the terminal device 10-1 continuously performs the above estimation process while imaging the user U1, for example, the time position "1 minute 53 seconds", the emotion table. The imaging information FDA1 including information such as the appearance behavior "laughing behavior" and the laughing degree "0" is transmitted to the
端末装置10−1について説明してきたが、端末装置10−2についても同様である。具体的には、端末装置10−2は、ユーザU2が動画コンテンツVC2を視聴している間、インカメラを制御し、ユーザU2の顔(表情)を撮像する(ステップS1)。例えば、端末装置10−2は、ユーザU2が動画コンテンツVC2を視聴している間、ユーザU2の表情を顔動画として撮像する。そして、端末装置10−2は、ユーザU2を撮像することで得られた撮像情報FDA2を情報処理装置100に送信する(ステップS2)。具体的には、端末装置10−2は、ユーザU2が動画コンテンツVC2を閲覧しているまさにそのタイミング、つまり、リアルタイムで、ユーザU2を撮像しつつ、端末装置10−1を例に説明した推定処理を連続的に行う。そして、端末装置10−2は、この推定結果を含む撮像情報FDA2を、例えば、毎秒毎に、情報処理装置100に送信する。一例を示すと、端末装置10−2は、動画コンテンツVC2の再生時間に対応する時間位置と、感情表出行動を示す情報と、その感情表出行動の特徴量とを含む撮像情報FDA1を毎秒毎に、情報処理装置100に送信する。
Although the terminal device 10-1 has been described, the same applies to the terminal device 10-2. Specifically, the terminal device 10-2 controls the in-camera while the user U2 is viewing the moving image content VC2, and captures the face (facial expression) of the user U2 (step S1). For example, the terminal device 10-2 captures the facial expression of the user U2 as a facial motion while the user U2 is viewing the moving image content VC2. Then, the terminal device 10-2 transmits the image pickup information FDA2 obtained by imaging the user U2 to the information processing device 100 (step S2). Specifically, the terminal device 10-2 is estimated at the exact timing when the user U2 is browsing the video content VC2, that is, the estimation described using the terminal device 10-1 as an example while capturing the user U2 in real time. The process is performed continuously. Then, the terminal device 10-2 transmits the imaging information FDA2 including the estimation result to the
端末装置10−2は、ユーザU2を撮像しつつ上記推定処理を連続的に行っているため、例えば、時間位置「1分53秒」、感情表出行動「笑う行動」、笑い度「0」といった情報を含む撮像情報FDA2を情報処理装置100に送信する。また、端末装置10は、例えば、時間位置「1分54秒」、感情表出行動「笑う行動」、笑い度「3」といった情報を含む撮像情報FDA2を情報処理装置100に送信する。また、端末装置10は、例えば、時間位置「1分55秒」、感情表出行動「笑う行動」、笑い度「10」といった情報を含む撮像情報FDA2を情報処理装置100に送信する。
Since the terminal device 10-2 continuously performs the above estimation process while imaging the user U2, for example, the time position "1 minute 53 seconds", the emotion expression behavior "laughing behavior", and the laughing degree "0". The imaging information FDA2 including such information is transmitted to the
以下、撮像情報FDA1及び撮像情報FDA2を区別せずに、単に撮像情報FDAと表記する場合がある。情報処理装置100は、端末装置10から送信された撮像情報FDAを受信する(ステップS3)。言い換えれば、情報処理装置100は、端末装置10から撮像情報FDAを取得する。また、情報処理装置100は、受信した撮像情報FDAを撮像情報記憶部121に格納する(ステップS4)。なお、このとき、情報処理装置100は、端末装置10からユーザの属性に関する属性情報を取得してもよい。ここで、属性情報とは、ユーザの性別や、年齢や、興味関心及び趣味趣向や、ユーザの居住地及びユーザの位置情報等を含む地域に関する情報等に関する情報である。
Hereinafter, the imaging information FDA1 and the imaging information FDA2 may not be distinguished and may be simply referred to as the imaging information FDA. The
撮像情報記憶部121は、コンテンツを視聴中のユーザを、かかるコンテンツを表示している端末装置10が有するインカメラ(撮像手段)で撮像することで得られる撮像情報FDAを記憶する。図1の例では、撮像情報記憶部121は、「ユーザID」、「動画ID」、「撮像情報」といった項目を有する。
The imaging
「ユーザID」は、ユーザ又はユーザの端末装置10を識別する識別情報を示す。「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴していた動画コンテンツを識別する識別情報を示す。「撮像情報」は、動画コンテンツを視聴中のユーザをインカメラで撮像することで得られる撮像情報であって、端末装置10の推定処理による推定結果を含む撮像情報を示す。なお、撮像情報には、ユーザが撮像された顔動画のデータも含まれてよい。
The "user ID" indicates identification information that identifies the user or the user's
すなわち、図1に示す撮像情報記憶部121の例では、ユーザID「U1」によって識別されるユーザ(ユーザU1)が、動画ID「VC1」によって識別される動画コンテンツ(動画コンテンツVC1)を閲覧中において、端末装置10のインカメラによって撮像されることによって、ユーザU1の表情を含む撮像情報FDA1が得られた例を示す。
That is, in the example of the imaging
次に、情報処理装置100は、動画コンテンツにおいて笑う行動が行われた時間位置を特定する(ステップS5)。上記の通り、情報処理装置100は、時間位置(例えば、1分55秒)、感情表出行動行動(例えば、笑う行動)、笑い度(特徴量)(例えば、「9」)といった推定結果を含む撮像情報を端末装置10(図1の例では、端末装置10−1及び10−2)から毎秒毎に受信する。このため、情報処理装置100は、端末装置10による推定結果(撮像情報)に基づいて、動画コンテンツにおいて笑う行動が行われた時間位置を特定する。例えば、情報処理装置100は、特徴量である笑い度が所定の閾値(例えば、笑い度「5」)以上を示す時間位置を、動画コンテンツVC1において、ユーザU1が笑う行動を行った時間位置として特定する。かかる例では、情報処理装置100は、動画コンテンツVC1の時間位置「t2、t21、t51・・・」をユーザU1が笑う行動を行った時間位置として特定したとする。
Next, the
また、情報処理装置100は、動画コンテンツVC2の時間位置「t13、t31、t52・・・」をユーザU2が笑う行動を行った時間位置として特定したとする。
Further, it is assumed that the
次に、情報処理装置100は、端末装置10により推定された感情表出行動と、ステップS5で特定した時間位置とを対応付けて、推定情報記憶部122に格納する(ステップS6)。推定情報記憶部122は、感情表出行動を推定した推定結果に関する情報を記憶する。図1の例では、推定情報記憶部122は、「動画ID」、「ユーザID」、「行動情報(笑う)」といった項目を有する。なお、情報処理装置100は、感情表出行動として、笑う行動だけでなく、泣く行動や驚く行動等を推定する場合もある。このため、「行動情報」には、「泣く」や「驚く」といった項目も含まれてよい。
Next, the
また、情報処理装置100は、画像解析等の従来技術を用いて、ユーザの顔動画から、かかるユーザの属性情報を推定してもよい。そして、情報処理装置100は、ユーザの属性情報を「行動情報」と対応付けて推定情報記憶部122に格納してもよい。なお、情報処理装置100は、予め端末装置10からユーザの属性情報を取得している場合には、かかるユーザの「行動情報」と対応付けてユーザの属性情報を推定情報記憶部122に格納してもよい。
Further, the
「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。「ユーザID」は、対応する動画コンテンツを視聴するユーザ又はユーザの端末装置を識別する識別情報を示す。「行動情報(笑い)」は、推定処理で推定された感情表出行動のうち、笑う行動が行われた時間位置を示す。 The "video ID" is the video content that the user watches, and indicates identification information that identifies the video content that the user is watching, which is captured by the in-camera. The "user ID" indicates identification information that identifies the user who views the corresponding moving image content or the terminal device of the user. "Behavioral information (laughter)" indicates the time position at which the laughing behavior was performed among the emotional expression behaviors estimated by the estimation processing.
上記例の通り、情報処理装置100は、ユーザU1について、笑う行動は動画コンテンツVC1の「t2、t21、t51・・・」で行われたことを特定している。したがって、情報処理装置100は、図1に示す推定情報記憶部122の例のように、動画ID「VC1」、ユーザID「U1」、行動情報(笑い)「t2、t21、t51・・・」を対応付けて格納する。
As described in the above example, the
また、上記例の通り、情報処理装置100は、ユーザU2について、笑う行動は動画コンテンツVC2の「t13、t31、t52・・・」で行われたことを特定している。したがって、情報処理装置100は、図1に示す推定情報記憶部122の例のように、動画ID「VC2」、ユーザID「U2」、行動情報(笑い)「t13、t31、t52・・・」を対応付けて格納する。
Further, as in the above example, the
なお、推定情報記憶部122は、各ユーザが各動画コンテンツの中で行ったと推定される感情表出行動について、動画コンテンツの中で感情表出行動行われた時間位置を記憶するため、ユーザ毎の集計結果を記憶する記憶部といえる。これに対して、後述する全体集計結果記憶部123は、ユーザ毎の集計結果をまとめて、全ユーザで見た場合はどうなるか集計し直した集計結果を記憶する。
In addition, since the estimation
次に、情報処理装置100は、ステップS5で特定した時間位置に基づいて、動画コンテンツの中で感情表出行動が行われた人数を集計する(ステップS7)。例えば、情報処理装置100は、各動画コンテンツの中で笑う行動を行った人数である行動人数を、各動画コンテンツの時間位置毎に集計する。例えば、情報処理装置100は、推定情報記憶部122に記憶される情報を用いて、かかる集計を行う。
Next, the
図1の例では、情報処理装置100は、動画コンテンツVC1の時間位置「t1」では、所定期間の間に動画コンテンツVC1を視聴したユーザの総数のうち、「135人」が笑う行動を行った(行動人数135人)との集計結果を得たものとする。また、情報処理装置100は、動画コンテンツVC1の時間位置「t2」では、所定期間の間に動画コンテンツVC1を視聴したユーザの総数のうち、「693人」が笑う行動を行った(行動人数693人)との集計結果を得たものとする。また、情報処理装置100は、動画コンテンツVC1の時間位置「t3」では、所定期間の間に動画コンテンツVC1を視聴したユーザの総数のうち、「86人」が笑う行動を行った(行動人数86人)との集計結果を得たものとする。
In the example of FIG. 1, in the
また、図1の例では、情報処理装置100は、動画コンテンツVC2の時間位置「t1」では、所定期間の間に動画コンテンツVC2を視聴したユーザの総数のうち、「321人」が笑う行動を行った(行動人数321人)との集計結果を得たものとする。また、情報処理装置100は、動画コンテンツVC2の時間位置「t2」では、所定期間の間に動画コンテンツVC2を視聴したユーザの総数のうち、「592人」が笑う行動を行った(行動人数592人)との集計結果を得たものとする。また、情報処理装置100は、動画コンテンツVC2の時間位置「t3」では、所定期間の間に動画コンテンツVC2を視聴したユーザの総数のうち、「293人」が笑う行動を行った(行動人数293人)との集計結果を得たものとする。
Further, in the example of FIG. 1, at the time position "t1" of the video content VC2, the
次に、情報処理装置100は、ステップS7での集計結果として、行動人数を全体集計結果記憶部123に格納する(ステップS8)。全体集計結果記憶部123は、所定期間の間において、各動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数を、各動画コンテンツの時間位置毎に記憶する。図1の例では、全体集計結果記憶部123は、「動画ID」、「行動情報(笑う)」といった項目を有する。なお、情報処理装置100は、感情表出行動として、笑う行動だけでなく、泣く行動や驚く行動等を推定する場合もある。このため、「行動情報」には、「泣く」や「驚く」といった項目も含まれてよい。
Next, the
「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。「行動情報(笑う)」に対応付けられる項目(「t1」、「t2」、「t3」・・・)は、各動画コンテンツの時間位置を示し、所定期間の間、動画コンテンツを閲覧したユーザの総数うち、その時間位置において笑う行動を行ったユーザの人数である行動人数が入力される。 The "video ID" is the video content that the user watches, and indicates identification information that identifies the video content that the user is watching, which is captured by the in-camera. Items ("t1", "t2", "t3" ...) Associated with "behavior information (laughing)" indicate the time position of each video content, and the user who browsed the video content for a predetermined period of time. Of the total number of users, the number of users who performed a laughing action at that time position is input.
上記例の通り、情報処理装置100は、動画コンテンツVC1の時間位置「t1」では行動人数「135人」、時間位置「t2」では行動人数「693人」、時間位置「t3」では行動人数「86人」との集計結果を得ている。したがって、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC1」及び時間位置「t1」に対応する入力欄に「135人」を入力する。また、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC1」及び時間位置「t2」に対応する入力欄に「693人」を入力する。また、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC1」及び時間位置「t3」に対応する入力欄に「86人」を入力する。
As in the above example, in the
また、上記例の通り、情報処理装置100は、動画コンテンツVC2の時間位置「t1」では行動人数「321人」、時間位置「t2」では行動人数「592人」、時間位置「t3」では行動人数「293人」との集計結果を得ている。したがって、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC2」及び時間位置「t1」に対応する入力欄に「321人」を入力する。また、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC2」及び時間位置「t2」に対応する入力欄に「592人」を入力する。また、情報処理装置100は、図1に示す全体集計結果記憶部123の例のように、動画ID「VC2」及び時間位置「t3」に対応する入力欄に「293人」を入力する。
Further, as in the above example, the
次に、情報処理装置100は、ステップS8での集計結果、すなわち行動人数に基づいて、動画コンテンツに関する情報をユーザに提示する(ステップS9)。例えば、情報処理装置100は、動画コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフを、かかる動画コンテンツとともに表示されるシークバーが示す時間位置に対応付けて提示する。
Next, the
上記の通り、全体集計結果記憶部123は、所定期間の間において、各動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数を、各動画コンテンツの時間位置毎に記憶する。このようなことから、全体集計結果記憶部123に記憶される集計結果は、動画コンテンツの時間位置に応じて変化する行動人数の遷移と言い換えることもできる。したがって、ステップS9では、情報処理装置100は、動画コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、動画コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示されるよう表示制御する。
As described above, the total total
ここで、図2に実施形態に係る提示処理の一例を示す。図2では、ユーザU1が、動画コンテンツVC2を閲覧する際を例に説明する。まず、端末装置10は、ユーザU1の操作に応じて、動画サイトSTにおいて動画コンテンツVC2をストリーミング配信させるための配信要求をコンテンツ配信装置30に送信する(ステップS10)。例えば、ユーザU1が動画サイトSTにおいて、動画コンテンツVC2を示すクエリを指定したとすると、端末装置10は、かかるクエリを含む配信要求をコンテンツ配信装置30に送信する。
Here, FIG. 2 shows an example of the presentation process according to the embodiment. In FIG. 2, a case where the user U1 browses the moving image content VC2 will be described as an example. First, the
続いて、コンテンツ配信装置30は、配信要求を受信すると、ユーザU1の端末装置10から動画コンテンツVC2の配信要求を受信した旨を情報処理装置100に通知する(ステップS11)。例えば、コンテンツ配信装置30は、ユーザID「U1」と、動画ID「VC2」とを含む情報を情報処理装置100に通知する。
Subsequently, when the
そして、情報処理装置100は、コンテンツ配信装置30から通知を受信すると、動画コンテンツVC2の中で笑う行動を行ったユーザの人数である行動人数であって、動画コンテンツVC2の時間位置に応じて変化する行動人数の遷移を示すグラフGを生成する(ステップS12)。具体的には、情報処理装置100は、全体集計結果記憶部123にアクセスし、動画ID「VC2」に対応付けられる行動人数を取得する。より具体的には、情報処理装置100は、動画ID「VC2」に対応付けられる行動人数として、動画コンテンツVC2の時間位置の変化(例えば、時間位置t1、t2、t3といった時間位置の変化)に応じて変化する行動人数を取得する。図1の例では、情報処理装置100は、時間位置t1では「321人」、時間位置t2では「592人」、時間位置t3では「293人」といった、時間位置の変化に応じて変化する行動人数の遷移(遷移情報)を取得する。
When the
そして、情報処理装置100は、取得した遷移情報に基づいて、グラフGを生成する。例えば、情報処理装置100は、横軸(X座標)を動画コンテンツVC2の時間位置、縦軸(Y座標)を行動人数として、各時間位置に対応する行動人数をプロットすることで、グラフGを生成する。
Then, the
次に、情報処理装置100は、ステップS13で生成したグラフGが動画コンテンツVC2の再生箇所(時間位置)をユーザ側がコントロールすることができるシークバーBR上に表示されるようコンテンツ配信装置30に対して表示制御する(ステップS13)。具体的には、情報処理装置100は、グラフGの横軸が示す時間位置、すなわち動画コンテンツVC2の時間位置が、シークバーBRの時間位置に対応付けて表示されるようコンテンツ配信装置30に対して表示制御する。例えば、情報処理装置100は、端末装置10がシークバーBR上にグラフGを表示するよう、端末装置10に対してグラフGを配信するようコンテンツ配信装置30に指示する。また、情報処理装置100は、グラフGをコンテンツ配信装置30に送信する。
Next, the
シークバーの時間位置は、動画コンテンツVC2の時間位置に対応付けられる。例えば、ユーザU1は、シークバーを時間位置「32分」のところに合わせた場合、動画コンテンツVC2を再生時間「32分」のところから視聴することができる。このような状態において、グラフGの時間位置もシークバーの時間位置に対応付けられる。したがって、シークバーの時間位置「32分」は、グラフGの時間位置「32分」に一致する。 The time position of the seek bar is associated with the time position of the moving image content VC2. For example, when the seek bar is set to the time position "32 minutes", the user U1 can watch the moving image content VC2 from the playback time "32 minutes". In such a state, the time position of the graph G is also associated with the time position of the seek bar. Therefore, the time position "32 minutes" of the seek bar coincides with the time position "32 minutes" of the graph G.
説明を戻す。コンテンツ配信装置30は、情報処理装置100からの表示制御に応じて、動画コンテンツVC2をストリーミング配信する(ステップS14)。例えば、コンテンツ配信装置30は、動画コンテンツVC2をストリーミング配信するにあたって、シークバーBR上にグラフGを表示するよう、端末装置10に対してグラフGを配信する。これにより、図2に示す端末装置10の表示画面Dのように、シークバーBR上にグラフGを表示される。
Return the description. The
図2に示す表示画面Dの例によると、動画サイトSTに含まれる領域AR1内に、実際に動画コンテンツVC2が再生表示される領域PL1が存在し、領域PL1内には動画コンテンツVC2の再生を開始しるための再生ボタンBT3が表示される。なお、領域PL1は、動画コンテンツVC2の再生制御を行うプレーヤーPL1と言い換えることができるものとする。プレーヤーPL1は、例えば、ブラウザ上で動画コンテンツの再生制御を行うブラウザ版プレーヤー(ウェブプレーヤー)であってもよいし、アプリケーション(アプリAP)としてのプレーヤー(アプリ版プレーヤー)であってもよい。また、予め、シークバーBRの時間位置のうち、最も行動人数が多い再生位置から選択された状態で動画コンテンツが再生されてもよい。また、ユーザに対して、最も行動人数が多い再生位置から動画コンテンツを再生するか否かを提示してもよい。 According to the example of the display screen D shown in FIG. 2, the area PL1 in which the video content VC2 is actually reproduced and displayed exists in the area AR1 included in the video site ST, and the video content VC2 is reproduced in the area PL1. The play button BT3 for starting is displayed. The area PL1 can be rephrased as the player PL1 that controls the reproduction of the moving image content VC2. The player PL1 may be, for example, a browser version player (web player) that controls playback of video content on a browser, or a player (application version player) as an application (application AP). In addition, the moving image content may be played in advance in a state of being selected from the playback positions with the largest number of active players among the time positions of the seek bar BR. In addition, the user may be presented with whether or not to play the video content from the playback position where the number of active players is the largest.
また、シークバーBR上には、グラフGが表示される。上記の通り、シークバーBRの時間位置と、グラフGの時間位置とは一致している。また、グラフGの縦軸は行動人数を示すため、ユーザU1は、他のユーザはおよそどの時間位置でよく笑っていたかをグラフGを一目見て把握することができる。このため、ユーザU1は、例えば、動画コンテンツVC2の中で面白いポイントだけピックアップして視聴した場合、例えば、グラフGのピークに対応する時間位置にシークバーBRのカーソルを合わせることで、簡単に面白いポイントの箇所へと移動することができる。また、これにより、目利きの人が面白いポイントを探さなければならないといった面倒な作業を無くすことができる。 Further, a graph G is displayed on the seek bar BR. As described above, the time position of the seek bar BR and the time position of the graph G coincide with each other. Further, since the vertical axis of the graph G indicates the number of people acting, the user U1 can grasp at a glance the graph G at which time position other users often laughed. Therefore, for example, when the user U1 picks up and views only interesting points in the video content VC2, for example, by moving the cursor of the seek bar BR to the time position corresponding to the peak of the graph G, the interesting points can be easily obtained. You can move to the place of. This also eliminates the hassle of having a connoisseur find an interesting point.
また、図3を用いて、所定の時間位置に感情を抽象化したマークを付した動画コンテンツVC2を配信する場合の表示画面の例を説明する。図3は、実施形態に係る表示画面の一例を示す図である。ここで、コンテンツ配信装置30は、情報処理装置100からの表示制御に応じて、動画コンテンツVC2の所定の時間位置に感情を抽象化したマークを付した動画コンテンツVC2をストリーミング配信するものとして説明する。
Further, with reference to FIG. 3, an example of a display screen in the case of delivering the moving image content VC2 having a mark that abstracts emotions at a predetermined time position will be described. FIG. 3 is a diagram showing an example of a display screen according to the embodiment. Here, the
図3に示す表示画面Tの例によると、動画サイトSTに含まれる領域AR2内に、実際に動画コンテンツVC2が再生表示されるプレーヤーPL2が表示される。また、図3に示す表示画面Tの例によると、シークバーBR上にグラフGが表示される。 According to the example of the display screen T shown in FIG. 3, the player PL2 in which the moving image content VC2 is actually reproduced and displayed is displayed in the area AR2 included in the moving image site ST. Further, according to the example of the display screen T shown in FIG. 3, the graph G is displayed on the seek bar BR.
ここで、動画コンテンツVC2のうち、時間位置「t2」で所定期間の間に動画コンテンツVC2を視聴したユーザの総数のうち、最も多い「592人」が笑う行動を行ったとの集計結果を得たものとする。この場合、情報処理装置100は、動画コンテンツVC2のうち、時間位置「t2」において笑った顔文字マークMRを付すようにコンテンツ配信装置30に対して表示制御する。例えば、情報処理装置100は、動画コンテンツVC2の時間位置「t2」において、笑った顔文字マークMRがプレーヤーPL2の下方向からプレーヤーPL2の中央付近に素早く飛出すような表示態様で表示制御する。この場合、笑った顔文字マークMRは、動画コンテンツVC2に重畳されるように表示される。これにより、情報処理装置100は、観客がいないリアルタイム配信においても、ユーザ間で一体感を演出したサービスの提供が可能となる。
Here, among the video content VC2, among the total number of users who watched the video content VC2 at the time position "t2" during the predetermined period, the largest number "592" performed the laughing behavior. It shall be. In this case, the
また、動画コンテンツVC2は、予め、シークバーBRの時間位置のうち、最も行動人数が多い再生位置から選択された状態で再生されてもよい。また、ユーザに対して、最も行動人数が多い再生位置から動画コンテンツV2を再生するか否かを提示してもよい。例えば、図3の例では、グラフGのうち、時間位置「t2」に笑った顔文字マークMRが付されている。これにより、ユーザに対して、最も笑う行動を行った人数が多い再生位置である時間位置「t2」から動画コンテンツV2を再生するように提示してもよい。 Further, the moving image content VC2 may be played in a state of being selected in advance from the playing position having the largest number of active players among the time positions of the seek bar BR. Further, the user may be presented with whether or not to play the moving image content V2 from the playback position having the largest number of active players. For example, in the example of FIG. 3, a laughing emoticon mark MR is attached to the time position “t2” in the graph G. As a result, the user may be presented to play the moving image content V2 from the time position "t2", which is the playback position where the number of people who have performed the most laughing action is large.
なお、笑った顔文字マークMRを付す例に限定されなくともよく、感情を抽象化したマークの代わりに、笑い声や、効果音や、キャラクタを付してもよい。このように、情報処理装置100は、動画コンテンツの盛り上りを演出できるような効果であれば如何なる情報を付すように表示制御してもよい。また、上記例では、ユーザの感情として、笑いについて例を挙げて説明したが、上記処理は、泣くや、驚く等の感情にも適用可能である。
It is not limited to the example of attaching the laughing emoticon mark MR, and instead of the mark that abstracts emotions, a laughing voice, a sound effect, or a character may be attached. As described above, the
以上、図1及び図2を用いて説明してきたように、実施形態に係る情報処理装置100は、コンテンツ(例えば、動画コンテンツ)を視聴中のユーザを、かかるコンテンツを表示している端末装置10が有するインカメラによって撮像された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する情報を取得する。そして、情報処理装置100は、取得された推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。また、情報処理装置100は、推定結果に基づいて、コンテンツに関する情報を提示する。これにより、実施形態にかかる情報処理装置100は、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As described above with reference to FIGS. 1 and 2, the
〔2.端末装置の構成〕
次に、図5を用いて、実施形態にかかる端末装置10について説明する。図5は、実施形態に係る端末装置10の構成例を示す図である。図5に示すように、端末装置10は、通信部11と、表示部12と、撮像部13と、制御部14とを有する。端末装置10は、ユーザによって利用される情報処理装置である。
[2. Terminal device configuration]
Next, the
(通信部11について)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークNと有線又は無線で接続され、例えば、コンテンツ配信装置30や情報処理装置100との間で情報の送受信を行う。
(About communication unit 11)
The
(表示部12について)
表示部12は、各種情報を表示する表示デバイスであり、図2に示す表示画面Dに相当する。例えば、表示部12には、タッチパネルが採用される。また、表示部12は、例えば、撮像部13によってレンズから取り込まれた映像を表示する。
(About display unit 12)
The
(撮像部13について)
撮像部13は、撮像素子を内蔵し、画像や動画を撮像するデバイスである。撮像素子は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)など何れでもよい。例えば、撮像部13は、レンズから取り込んだ映像であって表示部12に現在表示されている映像を静止画像として写真撮影したり、動画撮影したりすることができる。また、撮像部13は、図1で説明したインカメラに相当するものとする。
(About the imaging unit 13)
The image pickup unit 13 is a device that has a built-in image pickup element and captures an image or a moving image. The image pickup device may be any of CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor) and the like. For example, the imaging unit 13 can take a picture of an image captured from the lens and currently displayed on the
(制御部14について)
制御部14は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶装置に記憶されている各種プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現される。また、制御部14は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。また、制御部14は、実施形態に係る情報処理プログラム(アプリAP)により実行される処理部である。
(About control unit 14)
In the
図5に示すように、制御部14は、要求部14aと、同意情報受付部14bと、表示制御部14cと、カメラ制御部14dと、取得部14eと、推定部14f、送信部14gとを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部14の内部構成は、図5に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部14が有する各処理部の接続関係は、図5に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 5, the
(要求部14a)
要求部14aは、コンテンツ(例えば、動画コンテンツ)の配信を要求する。例えば、要求部14aは、コンテンツ配信装置30に対して、コンテンツの配信を要求する。例えば、要求部14aは、コンテンツの配信を要求する配信要求をコンテンツ配信装置30に送信する。図1の例では、端末装置10は、ユーザU1の操作に応じて、動画サイトSTにおいて動画コンテンツをストリーミング配信させるための配信要求をコンテンツ配信装置30に送信する。例えば、ユーザU1が動画サイトSTにおいて、動画コンテンツVC2を示すクエリを指定したとすると、端末装置10は、かかるクエリを含む配信要求をコンテンツ配信装置30に送信する。また、要求部14aは、コンテンツ配信装置30から配信されたコンテンツを受信する。
(Request unit 14a)
The requesting unit 14a requests the distribution of content (for example, moving image content). For example, the requesting unit 14a requests the
(同意情報受付部14b)
同意情報受付部14b、インカメラ(撮像部13)によって撮像されることに同意するか否か(撮像されることを許可するか否か)を示す同意情報をユーザから受け付ける。図1の例では、同意情報受付部14bは、動画サイトSTにおいて任意の動画コンテンツを閲覧している間だけインカメラ(撮像部13)によって撮像されることに、同意するか否か(撮像されることを許可するか否か)を示す同意情報をユーザから受け付ける。例えば、同意情報受付部14bは、動画サイトSTに表示される「同意ボタン」が押下された場合には、インカメラ(撮像部13)によって撮像されることに同意する旨の同意情報を受け付ける。
(Consent Information Reception Department 14b)
Consent information reception unit 14b receives consent information from the user indicating whether or not he / she agrees to be imaged by the in-camera (imaging unit 13) (whether or not he / she is permitted to be imaged). In the example of FIG. 1, whether or not the consent information receiving unit 14b agrees to be imaged by the in-camera (imaging unit 13) only while viewing arbitrary video content on the video site ST (imaged). Accepts consent information from the user indicating (whether or not to allow it). For example, the consent information receiving unit 14b receives consent information to the effect that when the "agreement button" displayed on the video site ST is pressed, the consent information is agreed to be imaged by the in-camera (imaging unit 13).
(表示制御部14cについて)
表示制御部14cは、各種情報を端末装置10の表示画面D(表示部12)に表示させるための表示制御を行う。例えば、表示制御部14cは、要求部14aによって受信された情報を表示画面Dに表示させる。例えば、表示制御部14cは、動画サイトSTを表示画面Dに表示させる。また、表示制御部14cは、動画コンテンツを表示画面Dに表示させる。例えば、図2の例では、要求部14aは、動画コンテンツVC2を受信する。かかる場合、表示制御部14cは、領域AR内にプレーヤーPL1、グラフG、シークバーBRを表示させる。
(About display
The
(カメラ制御部14dについて)
カメラ制御部14dは、インカメラ(撮像部13)を制御することによりユーザを撮像する。例えば、カメラ制御部14dは、同意情報受付部14bにより受け付けられた同意情報に従って、インカメラを制御する。例えば、カメラ制御部14dは、同意情報受付部14bにより撮像されることに同意する旨の同意情報が受け付けられた場合には、ユーザが動画サイトSTにおいて任意の動画コンテンツを閲覧している間だけインカメラを制御する。つまり、カメラ制御部14dは、ユーザが動画サイトSTにおいて任意の動画コンテンツを閲覧している間だけユーザを撮像するようインカメラを制御する。
(About camera control unit 14d)
The camera control unit 14d captures the user by controlling the in-camera (imaging unit 13). For example, the camera control unit 14d controls the in-camera according to the consent information received by the consent information reception unit 14b. For example, when the camera control unit 14d receives the consent information to the effect that the consent information reception unit 14b agrees to be imaged, the camera control unit 14d only while the user is browsing arbitrary video content on the video site ST. Control the in-camera. That is, the camera control unit 14d controls the in-camera so that the user is imaged only while the user is browsing an arbitrary video content on the video site ST.
(取得部14eについて)
取得部14eは、コンテンツを視聴中のユーザを、コンテンツを表示している端末装置10が有するインカメラで撮像することで得られる撮像情報(顔動画のデータ)を取得する。例えば、取得部14eは、カメラ制御部14dから撮像情報を取得する。
(About acquisition unit 14e)
The acquisition unit 14e acquires imaging information (face moving image data) obtained by imaging a user who is viewing the content with an in-camera included in the
また、例えば、取得部14eは、コンテンツとして、動画コンテンツ又は画像コンテンツを視聴中のユーザを撮像することで得られる撮像情報を取得する。動画コンテンツは、お笑い番組、ドラマ、映画、アニメ等の様々なジャンルの動画コンテンツである。一方、画像コンテンツは、例えば、各種の電子書籍である。また、取得部14eは、撮像情報として、ユーザの許諾が得られた場合にインカメラで撮像することで得られる撮像情報を取得する。例えば、取得部14eは、撮像情報として、ユーザの許諾が得られた場合において、コンテンツが表示されている間、インカメラで撮像することで得られる撮像情報を取得する。 Further, for example, the acquisition unit 14e acquires the imaging information obtained by imaging the user who is viewing the moving image content or the image content as the content. Video content is video content of various genres such as comedy programs, dramas, movies, and animations. On the other hand, the image content is, for example, various electronic books. In addition, the acquisition unit 14e acquires the imaging information obtained by imaging with the in-camera when the user's permission is obtained as the imaging information. For example, the acquisition unit 14e acquires the imaging information obtained by imaging with the in-camera while the content is displayed when the user's permission is obtained as the imaging information.
(推定部14fについて)
推定部14fは、図1のステップS2で説明した推定処理を行う。具体的には、推定部14fは、取得部14eにより取得された撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報を推定する。例えば、推定部14fは、撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報として、ユーザの感情表出行動を推定する。感情表出行動は、感情を表す行動であり、面白いといった感情が生じた際に行う笑う行動、悲しいといった感情が生じた際に行う泣く行動、等である。また、例えば、推定部14fは、コンテンツが再生されている再生中に(つまり、ユーザがコンテンツを視聴しているまさにその時、リアルタイムに)、ユーザの感情に関する情報を推定する。また、推定部14fは、撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報として、ユーザの感情表出行動の度合いを示す特徴量を推定する。
(About estimation unit 14f)
The estimation unit 14f performs the estimation process described in step S2 of FIG. Specifically, the estimation unit 14f estimates information about the user's emotions based on the facial expression of the user indicated by the imaging information acquired by the acquisition unit 14e. For example, the estimation unit 14f estimates the user's emotion expression behavior as information on the user's emotions based on the user's facial expression indicated by the imaging information. Emotional expression behaviors are behaviors that express emotions, such as laughing behaviors that occur when emotions such as funny occur, and crying behaviors that occur when emotions such as sadness occur. Also, for example, the estimation unit 14f estimates information about the user's emotions during playback of the content (that is, at the very moment when the user is viewing the content). Further, the estimation unit 14f estimates a feature amount indicating the degree of the user's emotion expression behavior as information on the user's emotion based on the user's facial expression indicated by the imaging information.
図1の例では、取得部14eは、カメラ制御部14dによる撮像で得られた顔動画のデータ(撮像情報の一例)を取得し、推定部14fに送信する。そして、推定部14fは、顔動画のデータ(撮像情報の一例)に基づいて、ユーザの感情に関する情報を推定する。具体的には、推定部14fは、顔動画のデータが示すユーザの表情に基づいて、ユーザの感情に関する情報として、ユーザの感情表出行動を推定する。例えば、推定部14fは、顔動画のデータについて表情解析することにより、ユーザの感情表出行動を推定する。 In the example of FIG. 1, the acquisition unit 14e acquires face moving image data (an example of imaging information) obtained by imaging by the camera control unit 14d and transmits it to the estimation unit 14f. Then, the estimation unit 14f estimates information about the user's emotions based on the face moving image data (an example of imaging information). Specifically, the estimation unit 14f estimates the user's emotional expression behavior as information on the user's emotions based on the user's facial expression indicated by the facial expression data. For example, the estimation unit 14f estimates the emotional expression behavior of the user by performing facial expression analysis on the face moving image data.
また、推定部14fは、推定した感情放出行動の度合いを示す特徴量を推定する。例えば、推定部14fは、感情放出行動として、「笑う行動」を推定した場合には、この笑う行動の度合い(どれだけ笑ったか笑いの程度を示す度合い)を示す特徴量を推定(算出)する。例えば、推定部14fは、顔動画のデータが示すユーザの笑いが微笑レベルであるなら、笑う行動の度合いを示す特徴量として、笑い度「2」を推定する。一方、推定部14fは、顔動画のデータが示すユーザの笑いが大笑いレベルであるなら、笑い度「9」を推定する。 In addition, the estimation unit 14f estimates a feature amount indicating the estimated degree of emotional release behavior. For example, when the estimation unit 14f estimates "laughing behavior" as an emotional release behavior, it estimates (calculates) a feature amount indicating the degree of this laughing behavior (the degree of laughing or the degree of laughing). .. For example, if the user's laughter indicated by the face video data is at the smile level, the estimation unit 14f estimates the laughter degree "2" as a feature quantity indicating the degree of laughing behavior. On the other hand, the estimation unit 14f estimates the laughter degree "9" if the user's laughter indicated by the face video data is at the level of laughter.
なお、推定部14fは、上記例に限定されない。具体的には、推定部14fは、取得部14eにより取得された撮像情報が示すユーザの表情に基づいて、ユーザの属性情報を推定してもよい。例えば、推定部14fは、画像解析等の従来技術を用いて、目や、鼻や、口の大きさ、眉毛の形、顔の皺又は髪の長さ等のユーザの属性を特徴付ける特徴情報を抽出する。そして、推定部14fは、抽出された特徴情報に基づいて、ユーザの属性情報として、ユーザの年齢や、性別を推定してもよい。 The estimation unit 14f is not limited to the above example. Specifically, the estimation unit 14f may estimate the user's attribute information based on the facial expression of the user indicated by the imaging information acquired by the acquisition unit 14e. For example, the estimation unit 14f uses conventional techniques such as image analysis to provide feature information that characterizes user attributes such as eye, nose, mouth size, eyebrow shape, facial wrinkles, or hair length. Extract. Then, the estimation unit 14f may estimate the age and gender of the user as the attribute information of the user based on the extracted feature information.
また、推定部14fは、ユーザが動画コンテンツを閲覧しているまさにそのタイミング、つまり、リアルタイムで、ユーザが撮像されることに応じて、例えば、毎秒推定処理を連続的に行う。このため、後述する送信部14gは、この推定部14fによる推定処理の推定結果を含む情報を、例えば、毎秒毎に、情報処理装置100に送信する。一例を示すと、送信部14gは、動画コンテンツの再生時間に対応する時間位置(タイムコード)と、感情表出行動を示す情報と、その感情表出行動の特徴量とを含む情報(図1の例では、撮像情報FDA1やFDA2)を毎秒、情報処理装置100に送信する。つまり、送信部14gは、ユーザが動画コンテンツを閲覧している間は、時間位置(タイムコード)と、感情表出行動を示す情報と、その感情表出行動の特徴量とを含む情報、つまり推定結果を遂次、情報処理装置100に送信する。
Further, the estimation unit 14f continuously performs estimation processing, for example, every second, in response to the user being imaged at the exact timing when the user is browsing the moving image content, that is, in real time. Therefore, the
(送信部14gについて)
送信部14gは、推定部14fによる推定結果を送信する。具体的には、送信部14gは、推定部14fによる推定結果を含む情報を情報処理装置100に送信する。図1の例では、送信部14gは、撮像情報FDA1を情報処理装置100に送信する。また、送信部14gは、撮像情報FDA2を情報処理装置100に送信する。
(About the
The
なお、推定部14fによる推定処理は、情報処理装置100側で行われてもよい。この場合には、情報処理装置100は、推定部14fに対応する処理部を有することになる。また、この場合には、送信部14gは、顔動画のデータを連続的に情報処理装置100に送信する。
The estimation process by the estimation unit 14f may be performed on the
〔3.情報処理装置の構成〕
次に、図6を用いて、実施形態にかかる情報処理装置100について説明する。図6は、実施形態にかかる情報処理装置100の構成例を示す図である。図6に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。情報処理装置100は、例えば、実施形態にかかる情報処理を行うサーバ装置である。
[3. Information processing device configuration]
Next, the
(通信部110について)
通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークNと有線又は無線で接続され、例えば、端末装置10やコンテンツ配信装置30との間で情報の送受信を行う。
(About communication unit 110)
The
(記憶部120について)
記憶部120は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子又はハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、撮像情報記憶部121と、推定情報記憶部122と、全体集計結果記憶部123と、感情ポイント記憶部124と、出演者情報記憶部125とを有する。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory or a storage device such as a hard disk or an optical disk. The storage unit 120 includes an imaging
(撮像情報記憶部121について)
撮像情報記憶部121は、コンテンツを視聴中のユーザを、コンテンツを表示している端末装置10が有するインカメラで撮像することで得られる撮像情報を記憶する。ここで、図7に実施形態にかかる撮像情報記憶部121の一例を示す。図7の例では、撮像情報記憶部121は、「ユーザID」、「動画ID」、「撮像情報」といった項目を有する。撮像情報記憶部121については、図1で説明済みのため、説明を省略する。
(About the image pickup information storage unit 121)
The image pickup
(推定情報記憶部122について)
推定情報記憶部122は、感情表出行動を推定した推定結果に関する情報を記憶する。また、推定情報記憶部122は、各ユーザが各動画コンテンツの中で行ったと推定される感情表出行動について、動画コンテンツの中で感情表出行動行われた時間位置を記憶するため、ユーザ毎の集計結果を記憶する記憶部といえる。ここで、図8に実施形態にかかる推定情報記憶部122の一例を示す。図1の例では、推定情報記憶部122は、「動画ID」、「ユーザID」、「行動情報」といった項目を有する。また、「行動情報」は、「笑う」、「泣く」、「驚く」といった項目を含む。
(About the estimated information storage unit 122)
The estimation
「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。「ユーザID」は、対応する動画コンテンツを視聴するユーザ又はユーザの端末装置を識別する識別情報を示す。 The "video ID" is the video content that the user watches, and indicates identification information that identifies the video content that the user is watching, which is captured by the in-camera. The "user ID" indicates identification information that identifies the user who views the corresponding moving image content or the terminal device of the user.
「行動情報」に含まれる「笑い」は、推定処理で推定された感情表出行動のうち、笑う行動が行われた時間位置であって、対応する動画IDが示す動画コンテンツの中で笑う行動が行われた時間位置を示す。また、「行動情報」に含まれる「笑い」は、後述する集計部132が、推定部14fによる推定結果に基づいて、動画コンテンツにおいて笑う行動が行われたものとして特定した時間位置を示す。「行動情報」に含まれる「泣く」は、推定処理で推定された感情表出行動のうち、泣く行動が行われた時間位置であって、対応する動画IDが示す動画コンテンツの中で泣く行動が行われた時間位置を示す。また、「行動情報」に含まれる「泣く」は、後述する集計部132が、推定部14fによる推定結果に基づいて、動画コンテンツにおいて泣く行動が行われたものとして特定した時間位置を示す。「行動情報」に含まれる「驚く」は、推定処理で推定された感情表出行動のうち、驚く行動が行われた時間位置であって、対応する動画IDが示す動画コンテンツの中で驚く行動が行われた時間位置を示す。また、「行動情報」に含まれる「驚く」は、後述する集計部132が、推定部14fによる推定結果に基づいて、動画コンテンツにおいて驚く行動が行われたものとして特定した時間位置を示す。 "Laughter" included in "behavior information" is the time position where the laughing action was performed among the emotional expression actions estimated by the estimation process, and the laughing action in the video content indicated by the corresponding video ID. Indicates the time position where Further, the "laughter" included in the "behavior information" indicates a time position specified by the aggregation unit 132, which will be described later, as having performed a laughing action in the moving image content based on the estimation result by the estimation unit 14f. "Crying" included in "behavior information" is the time position where the crying action was performed among the emotional expression actions estimated by the estimation process, and the crying action in the video content indicated by the corresponding video ID. Indicates the time position where Further, "crying" included in the "behavior information" indicates a time position specified by the aggregation unit 132, which will be described later, as having performed a crying action in the moving image content based on the estimation result by the estimation unit 14f. The "surprise" included in the "behavior information" is the time position where the surprising action was performed among the emotional expression actions estimated by the estimation process, and the surprising action in the video content indicated by the corresponding video ID. Indicates the time position where Further, "surprise" included in the "behavior information" indicates a time position specified by the aggregation unit 132, which will be described later, as having performed a surprising action in the moving image content based on the estimation result by the estimation unit 14f.
すなわち、図8の例では、ユーザU1が動画コンテンツVC1を閲覧している中で、笑う行動を行ったと推定されたとともに、動画コンテンツVC1の再生時間の中の時間位置t2、t21、t51において、この笑う行動が行われたことを特定された例を示す。 That is, in the example of FIG. 8, it is presumed that the user U1 performed a laughing action while browsing the video content VC1, and at the time positions t2, t21, and t51 in the playback time of the video content VC1. Here is an example of how this laughing behavior was identified.
なお、本実施形態では、時間位置は、ある1点の時間位置であってもよいし、時間の範囲であってもよい。例えば、時間位置「t2」は、「2分35秒」といった1点の時間位置であってもよいし、「2分35秒〜2分30秒」といった時間範囲であってもよい。また、時間位置が1点の時間位置を示す場合、かかる時間位置は、例えば、感情表出行動が開始された時間位置、感情表出行動が終了した時間位置、感情表出行動が開始された時間位置から感情表出行動が終了した時間位置までの時間範囲の中での中間時刻のいずれかであってもよい。
In the present embodiment, the time position may be a time position of a certain point or a time range. For example, the time position "t2" may be a one-point time position such as "2
(全体集計結果記憶部123について)
全体集計結果記憶部123は、所定期間の間において、各動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数(笑う行動を行ったユーザの割合)を、各動画コンテンツの時間位置毎に記憶する。ここで、図9に実施形態にかかる全体集計結果記憶部123の一例を示す。図9の例では、全体集計結果記憶部123は、「動画ID」、「行動情報」といった項目を有する。また、「行動情報」は、「笑った人数(割合)」、「泣いた人数(割合)」、「驚いた人数(割合)」といった項目を含む。また、「笑った人数(割合)」、「泣いた人数(割合)」、「驚いた人数(割合)」それぞれには、動画コンテンツの時間位置を示す広告が対応付けられる。
(About the total total result storage unit 123)
The total total
「動画ID」は、ユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。 The "video ID" is the video content that the user watches, and indicates identification information that identifies the video content that the user is watching, which is captured by the in-camera.
「笑った人数(割合)」に対応付けられる項目である時間位置(「t1」、「t2」、「t3」・・・)は、各動画コンテンツの時間位置を示し、所定期間の間、動画コンテンツを閲覧したユーザの総数うち、その時間位置において笑う行動を行ったユーザの人数である行動人数(笑う行動を行ったユーザの割合)が入力される。「泣いた人数(割合)」に対応付けられる項目である時間位置(「t1」、「t2」、「t3」・・・)は、各動画コンテンツの時間位置を示し、所定期間の間、動画コンテンツを閲覧したユーザの総数うち、その時間位置において泣く行動を行ったユーザの人数である行動人数(泣く行動を行ったユーザの割合)が入力される。「驚いた人数(割合)」に対応付けられる項目である時間位置(「t1」、「t2」、「t3」・・・)は、各動画コンテンツの時間位置を示し、所定期間の間、動画コンテンツを閲覧したユーザの総数うち、その時間位置において驚く行動を行ったユーザの人数である行動人数(驚く行動を行ったユーザの割合)が入力される。 The time position ("t1", "t2", "t3" ...), Which is an item associated with the "number of people laughing (ratio)", indicates the time position of each video content, and the video is displayed for a predetermined period of time. Of the total number of users who browsed the content, the number of users who performed the laughing action at that time position (the ratio of the users who performed the laughing action) is input. The time position ("t1", "t2", "t3" ...), Which is an item associated with the "number of people crying (ratio)", indicates the time position of each video content, and the video is displayed for a predetermined period of time. Of the total number of users who browsed the content, the number of users who performed the crying action at that time position (the ratio of the users who performed the crying action) is input. The time position ("t1", "t2", "t3" ...), Which is an item associated with the "surprised number of people (ratio)", indicates the time position of each video content, and the video is displayed for a predetermined period of time. Of the total number of users who browsed the content, the number of actions (percentage of users who performed a surprising action), which is the number of users who performed a surprising action at that time position, is input.
すなわち、図9の例では、所定期間の間、動画コンテンツVC1を閲覧したユーザの総数うち、時間位置t1において笑う行動を行ったユーザの人数である行動人数が「135人」である例を示す。また、図9の例では、所定期間の間、動画コンテンツVC1を閲覧したユーザの総数に対する、時間位置t1において笑う行動を行ったユーザの人数の割合が「20%」である例を示す。 That is, in the example of FIG. 9, among the total number of users who browsed the video content VC1 during a predetermined period, the number of users who performed a laughing action at the time position t1 is "135". .. Further, the example of FIG. 9 shows an example in which the ratio of the number of users who performed a laughing action at the time position t1 to the total number of users who browsed the moving image content VC1 during a predetermined period is “20%”.
また、図9の例では、所定期間の間、動画コンテンツVC2を閲覧したユーザの総数うち、時間位置t1において笑う行動を行ったユーザの人数である行動人数が「321人」である例を示す。また、図9の例では、所定期間の間、動画コンテンツVC2を閲覧したユーザの総数に対する、時間位置t1において笑う行動を行ったユーザの人数の割合が「5%」である例を示す。 Further, in the example of FIG. 9, among the total number of users who browsed the video content VC2 during a predetermined period, the number of users who performed a laughing action at the time position t1 is "321". .. Further, the example of FIG. 9 shows an example in which the ratio of the number of users who performed a laughing action at the time position t1 to the total number of users who browsed the moving image content VC2 during a predetermined period is “5%”.
(感情ポイント記憶部124について)
感情ポイント記憶部124は、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントに関する情報を記憶する。ユーザは感情に変化が生じると、反射的にその感情を行動に表す、例えば、面白いといった感情が芽生えたときには、笑う行動を行う。例えば、悲しいといった感情が芽生えたときには、泣く行動を行う。例えば、驚きの感情が芽生えたときには、驚く行動を行う。このようなことから、感情ポイントは、面白ポイント、泣きポイント、驚きポイント等に分けられる。ここで、図10に実施形態にかかる感情ポイント記憶部124の一例を示す。図10に示すように、感情ポイント記憶部124は、感情ポイント記憶部124−1、124−2、124−3に分けられる。
(About emotion point storage unit 124)
The emotion
まず、感情ポイント記憶部124−1について説明する。感情ポイント記憶部124−1は、ユーザの感情ポイントに関する情報を記憶する。図10の例では、感情ポイント記憶部124−1は、「動画ID」、「感情ポイント」といった項目を有する。また、「感情ポイント」は、「面白ポイント」、「泣きポイント」、「驚きポイント」といった項目を含む。 First, the emotion point storage unit 124-1 will be described. The emotion point storage unit 124-1 stores information about the user's emotion points. In the example of FIG. 10, the emotion point storage unit 124-1 has items such as “moving image ID” and “emotion point”. In addition, the "emotion point" includes items such as "interesting point", "crying point", and "surprise point".
「動画ID」は、ユーザによって視聴された動画コンテンツを識別する識別情報を示す。「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。かかる数値は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数そのもの、又は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、笑う行動を行ったユーザの人数の割合である。 The "video ID" indicates identification information that identifies the video content viewed by the user. The "interesting point" is that the numerical value based on the number of users who performed the laughing action out of the total number of users who watched the corresponding video content during the predetermined period is a predetermined number or more (condition information). Indicates the time position. Such a numerical value is the total number of users who watched the corresponding video content during the predetermined period, which is the number of users who performed the laughing action, or the corresponding video content during the predetermined period. It is the ratio of the number of users who performed laughing behavior to the total number of users who watched.
このようなことから、「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数が所定人数以上であった時間位置を示す。あるいは、「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、笑う行動を行ったユーザの人数の割合が所定割合以上であった時間位置を示す。つまり、「面白ポイント」は、図9に示す全体集計結果記憶部123に記憶される時間位置のうち、上記条件情報を満たす時間位置が抽出されたものである。図10の例では、「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数が所定人数以上であった時間位置を示すものとする。
For this reason, the "interesting point" is that the number of users who performed the laughing action out of the total number of users who watched the corresponding video content during the predetermined period was equal to or greater than the predetermined number. Indicates the time position. Alternatively, the "interesting point" indicates the time position in which the ratio of the number of users who performed the laughing action to the total number of users who viewed the corresponding video content during the predetermined period was equal to or higher than the predetermined ratio. That is, the "interesting point" is the time position that satisfies the above-mentioned condition information from the time positions stored in the total aggregation
「泣きポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち泣く行動を行ったユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。かかる数値は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、泣く行動を行ったユーザの人数である行動人数そのもの、又は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、泣く行動を行ったユーザの人数の割合である。 For the "crying point", the numerical value based on the number of users who performed the crying action out of the total number of users who watched the corresponding video content during the predetermined period was a predetermined number or more (condition information). Indicates the time position. Such a numerical value is the total number of users who watched the corresponding video content during the predetermined period, which is the number of users who performed the crying action, or the corresponding video content during the predetermined period. It is the ratio of the number of users who performed crying behavior to the total number of users who watched.
このようなことから、「泣きポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、泣く行動を行ったユーザの人数である行動人数が所定人数以上であった時間位置を示す。あるいは、「面白ポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、泣く行動を行ったユーザの人数の割合が所定割合以上であった時間位置を示す。つまり、「泣きポイント」は、図9に示す全体集計結果記憶部123に記憶される時間位置のうち、上記条件情報を満たす時間位置が抽出されたものである。図10の例では、「泣きポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、泣く行動を行ったユーザの人数である行動人数が所定人数以上であった時間位置を示すものとする。
For this reason, the "crying point" is that the number of users who performed the crying action out of the total number of users who watched the corresponding video content during the predetermined period was equal to or greater than the predetermined number. Indicates the time position. Alternatively, the "interesting point" indicates the time position in which the ratio of the number of users who performed the crying action to the total number of users who viewed the corresponding video content during the predetermined period was equal to or higher than the predetermined ratio. That is, the "crying point" is a time position that satisfies the above-mentioned condition information from the time positions stored in the total total
「驚きポイント」は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち驚く行動を行ったユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。「驚きポイント」についても同様であるためこれ以上の説明は省略する。 The "surprise point" was a numerical value based on the number of users who performed a surprising action out of the total number of users who watched the corresponding video content during a predetermined period, which was a predetermined number or more (condition information). Indicates the time position. Since the same applies to the "surprise point", further description will be omitted.
また、「感情ポイント」を示す時間位置の中でも、最も行動人数が多かった(又は、最も割合が高かった)時間位置にはチェックマークが付与される。「感情ポイント」は、後述する特定部133によって特定され、感情ポイント記憶部124に入力される。
In addition, among the time positions indicating "emotion points", a check mark is given to the time position where the number of active persons is the largest (or the ratio is the highest). The "emotion point" is specified by the specific unit 133, which will be described later, and is input to the emotion
すなわち、図10の例では、動画コンテンツVC1について時間位置「t1、t31、t62・・・」が面白ポイントとして特定され、また、時間位置「t1、t31、t62・・・」のうち、笑う行動を行った行動人数が最も多い時間位置が時間位置t31であると特定された例を示す。 That is, in the example of FIG. 10, the time position "t1, t31, t62 ..." Is specified as an interesting point for the video content VC1, and the laughing behavior of the time positions "t1, t31, t62 ..." An example is shown in which the time position where the number of people who performed the above is the largest is the time position t31.
また、図10の例では、動画コンテンツVC2について時間位置「t13、t55、t61・・・」が面白ポイントとして特定され、また、時間位置「t13、t55、t61・・・」のうち、笑う行動を行った行動人数が最も多い時間位置が時間位置t61であると特定された例を示す。 Further, in the example of FIG. 10, the time position "t13, t55, t61 ..." Is specified as an interesting point for the video content VC2, and the laughing behavior of the time positions "t13, t55, t61 ..." An example is shown in which the time position where the number of people who performed the above is the largest is the time position t61.
なお、図8に示す推定情報記憶部122は、動画コンテンツ毎に各ユーザが感情表出行動を行った時間位置を記憶している。このため、推定情報記憶部122に記憶される時間位置は、各ユーザの感情ポイントともいえる。
The estimated
次に、感情ポイント記憶部124−2について説明する。感情ポイント記憶部124−2は、ユーザの年代毎に、年代を有するユーザの感情ポイントに関する情報を記憶する。図10の例では、感情ポイント記憶部124−2は、「属性(年代)」、「属性(性別)」、「動画ID」、「感情ポイント」といった項目を有する。また、「感情ポイント」は、「面白ポイント」、「泣きポイント」、「驚きポイント」といった項目を含む。なお、図10の例では、属性が「年代」及び「性別」である例を示すが、感情ポイント記憶部124、例えば、属性がユーザの興味関心及び趣味趣向や、ユーザの居住地及びユーザの位置情報等を含む地域に関する情報等の場合の感情ポイントも記憶することができる。つまり、図10の例では、属性をどうするかは限定されない。
Next, the emotion point storage unit 124-2 will be described. The emotion point storage unit 124-2 stores information about the emotion points of the user having the age for each age of the user. In the example of FIG. 10, the emotion point storage unit 124-2 has items such as "attribute (age)", "attribute (gender)", "video ID", and "emotion point". In addition, the "emotion point" includes items such as "interesting point", "crying point", and "surprise point". In the example of FIG. 10, an example in which the attributes are "age" and "gender" is shown, but the emotion
「属性(年代)」は、動画コンテンツを視聴したユーザの年代を示す。なお、「属性(年代)」は、動画コンテンツを視聴したユーザの年齢を示してもよい。「属性(性別)」は、動画コンテンツを視聴したユーザの性別を示す。「動画ID」は、対応する属性のユーザが視聴する動画コンテンツであって、インカメラにて撮像されるユーザが視聴している動画コンテンツを識別する識別情報を示す。 The "attribute (age)" indicates the age of the user who viewed the video content. The "attribute (age)" may indicate the age of the user who has viewed the video content. "Attribute (gender)" indicates the gender of the user who viewed the video content. The "video ID" is video content viewed by a user with the corresponding attribute, and indicates identification information for identifying the video content being viewed by the user captured by the in-camera.
「面白ポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際の総数のうち、笑う行動を行ったユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。かかる数値は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、笑う行動を行ったかかる年代及び性別のユーザの人数である行動人数そのもの、又は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数に対する、笑う行動を行ったかかる年代及び性別のユーザの人数の割合である。 The "interesting point" is a numerical value based on the number of users who have performed a laughing action out of the total number of users of the corresponding age and gender viewing the video content during a predetermined period. Indicates the time position that was (condition information). Such a numerical value is the number of users of the age and gender who performed the laughing action among the total number of the users when the users of the corresponding age and gender watched the video content during the predetermined period. Or, the ratio of the number of users of such age and gender who performed a laughing action to the total number of users of the corresponding age and gender when viewing the video content during a predetermined period.
このようなことから、「面白ポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、笑う行動を行ったかかる年代及び性別のユーザの人数である行動人数が所定人数以上であった時間位置を示す。あるいは、「面白ポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数に対する、笑う行動を行ったかかる年代及び性別のユーザの人数の割合が所定割合以上であった時間位置を示す。図10の例では、「面白ポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、笑う行動を行ったかかる年代及び性別のユーザの人数である行動人数が所定人数以上であった時間位置を示すものとする。 For this reason, the "interesting point" is the age and gender of the user who performed the laughing behavior out of the total number of users of the corresponding age and gender when viewing the video content during the predetermined period. Indicates the time position where the number of actions, which is the number of users, is equal to or greater than the predetermined number. Alternatively, the "interesting point" is the ratio of the number of users of such age and gender who performed laughing behavior to the total number of users of the corresponding age and gender when viewing the video content during a predetermined period. Indicates a time position where was greater than or equal to a predetermined proportion. In the example of FIG. 10, the "interesting point" is the age and gender of the user who performed the laughing behavior among the total number of users of the corresponding age and gender when viewing the video content during the predetermined period. It shall indicate the time position where the number of actions, which is the number of users, was equal to or greater than the predetermined number.
「泣きポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、泣く行動を行ったかかる年代及び性別のユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。「驚きポイント」は、所定期間の間において、対応する年代及び性別のユーザが動画コンテンツを視聴した際のこのユーザの総数のうち、驚く行動を行ったかかる年代のユーザの人数である行動人数に基づく数値が所定数以上(条件情報)であった時間位置を示す。「泣きポイント」及び「驚きポイント」も考え方は「面白ポイント」と同様であるためこれ以上の説明は省略する。 The "crying point" is the number of users of the age and gender who performed the crying behavior out of the total number of users of the corresponding age and gender when viewing the video content during the predetermined period. Indicates the time position where the numerical value based on the number of people is equal to or greater than the predetermined number (condition information). The "surprise point" is the number of users in the age group who performed a surprising action out of the total number of users of the corresponding age group and gender when viewing the video content during a predetermined period. Indicates the time position where the base numerical value is equal to or greater than a predetermined number (condition information). Since the concept of "crying point" and "surprise point" is the same as that of "interesting point", further explanation is omitted.
また、「感情ポイント」を示す時間位置の中でも、最も行動人数が多かった(又は、最も割合が高かった)時間位置にはチェックマークが付与される。「感情ポイント」は、後述する特定部133によって特定され、感情ポイント記憶部124に入力される。
In addition, among the time positions indicating "emotion points", a check mark is given to the time position where the number of active persons is the largest (or the ratio is the highest). The "emotion point" is specified by the specific unit 133, which will be described later, and is input to the emotion
すなわち、図10の例では、動画コンテンツVC1について時間位置「t14、t21、t39・・・」が面白ポイントとして特定され、また、時間位置「t14、t21、t39・・・」のうち、笑う行動を行った行動人数が最も多い時間位置が時間位置t31であると特定された例を示す。 That is, in the example of FIG. 10, the time position "t14, t21, t39 ..." Is specified as an interesting point for the video content VC1, and the laughing behavior of the time positions "t14, t21, t39 ..." An example is shown in which the time position where the number of people who performed the above is the largest is the time position t31.
また、図10の例では、10代のユーザであり、男性のユーザに対して、動画コンテンツVC2について時間位置「t13、t55、t61・・・」が面白ポイントとして特定された例を示す。また、時間位置「t13、t55、t61・・・」のうち、笑う行動を行った行動人数が最も多い時間位置が10代男性のユーザでは、時間位置t21であると特定された例を示す。 Further, in the example of FIG. 10, an example is shown in which the time position "t13, t55, t61 ..." Is specified as an interesting point for the moving image content VC2 for a male user who is a teenage user. Further, among the time positions "t13, t55, t61 ...", the time position in which the number of people who performed the laughing action is the largest is the time position t21 for the male teenage user.
なお、図8に示す推定情報記憶部122は、動画コンテンツ毎に各ユーザが感情表出行動を行った時間位置を記憶している。このため、推定情報記憶部122に記憶される時間位置は、各ユーザの感情ポイントともいえる。
The estimated
(出演者情報記憶部125について)
出演者情報記憶部125は、動画コンテンツに出演する出演者(例えば、タレント、芸人等)に対して行われた感情表出行動に関する情報を記憶する。出演者情報記憶部125は、例えば、推定情報記憶部122に記憶される情報を集計することで得られる。ここで、図11に実施形態にかかる出演者情報記憶部125の一例を示す。図11に示すように、出演者情報記憶部125は、出演者情報記憶部125−1、出演者情報記憶部125−2等に分けられる。
(About performer information storage 125)
The performer
まず、出演者情報記憶部125−1について説明する。出演者情報記憶部125−1は、動画コンテンツVC1に出演している各出演者毎に、出演者が動画コンテンツVC1の中で演じている際に、このとき動画コンテンツVC1を視聴していたユーザのうち、感情表出行動を行ったユーザの人数に関する情報を記憶する。つまり、出演者情報記憶部125−1は、動画コンテンツVC1に出演している各出演者に対して、視聴者であるユーザがどれだけ笑ったか等といった情報を記憶する。図11の例では、出演者情報記憶部125−1は、「動画ID」、「行動情報」、「出演者」といった項目を有する。また、「出演者」は、各出演者を示す情報(例えば、氏名、グループ名等)を概念的に示す記号(TR11、TR12、TR13等)を含む。 First, the performer information storage unit 125-1 will be described. The performer information storage unit 125-1 is a user who was watching the video content VC1 at this time when the performer was performing in the video content VC1 for each performer appearing in the video content VC1. Among them, information on the number of users who have performed emotional expression behavior is stored. That is, the performer information storage unit 125-1 stores information such as how much the user who is the viewer laughed at each performer appearing in the video content VC1. In the example of FIG. 11, the performer information storage unit 125-1 has items such as “video ID”, “behavior information”, and “performer”. Further, the "performer" includes symbols (TR11, TR12, TR13, etc.) that conceptually indicate information (for example, name, group name, etc.) indicating each performer.
「動画ID」は、ユーザによって視聴された動画コンテンツを識別する識別情報を示す。「行動情報」は、対応する動画コンテンツの中でユーザが行った感情放出行動を示す。 The "video ID" indicates identification information that identifies the video content viewed by the user. The "behavior information" indicates an emotion-releasing action performed by the user in the corresponding video content.
また、動画コンテンツVC1において、出演者「TR11」及び行動情報「笑う」に対応付けられる数値「30%」は、出演者「TR11」が動画コンテンツVC1の中で演じている際に笑う行動を行ったユーザの割合を示す。また、動画コンテンツVC1において、出演者「TR12」及び行動情報「笑う」に対応付けられる数値「50%」は、出演者「TR12」が動画コンテンツVC1の中で演じている際に笑う行動を行ったユーザの割合を示す。また、動画コンテンツVC1において、出演者「TR13」及び行動情報「笑う」に対応付けられる数値「15%」は、出演者「TR13」が動画コンテンツVC1の中で演じている際に笑う行動を行ったユーザの割合を示す。 Further, in the video content VC1, the numerical value "30%" associated with the performer "TR11" and the action information "laughing" performs the action of laughing when the performer "TR11" is performing in the video content VC1. Shows the percentage of users. Further, in the video content VC1, the numerical value "50%" associated with the performer "TR12" and the action information "laughing" performs the action of laughing when the performer "TR12" is performing in the video content VC1. Shows the percentage of users. Further, in the video content VC1, the numerical value "15%" associated with the performer "TR13" and the action information "laughing" performs the action of laughing when the performer "TR13" is performing in the video content VC1. Shows the percentage of users.
次に、出演者情報記憶部125−2について説明する。出演者情報記憶部125−2は、出演者情報記憶部125−1と比較して、対象とする動画コンテンツが異なるため、出演者が行っているといった違いはあるが、実質、出演者情報記憶部125−1と同様である。 Next, the performer information storage unit 125-2 will be described. Since the target video content of the performer information storage unit 125-2 is different from that of the performer information storage unit 125-1, there is a difference that the performer is performing, but in reality, the performer information storage unit It is the same as the part 125-1.
例えば、動画コンテンツVC2において、出演者「TR21」及び行動情報「笑う」に対応付けられる数値「3%」は、出演者「TR21」が動画コンテンツVC2の中で演じている際に笑う行動を行ったユーザの割合を示す。また、動画コンテンツVC2において、出演者「TR22」及び行動情報「笑う」に対応付けられる数値「3%」は、出演者「TR22」が動画コンテンツVC2の中で演じている際に笑う行動を行ったユーザの割合を示す。また、動画コンテンツVC2において、出演者「TR23」及び行動情報「笑う」に対応付けられる数値「3%」は、出演者「TR23」が動画コンテンツVC2の中で演じている際に笑う行動を行ったユーザの割合を示す。 For example, in the video content VC2, the numerical value "3%" associated with the performer "TR21" and the action information "laughing" performs the action of laughing when the performer "TR21" is performing in the video content VC2. Shows the percentage of users. Further, in the video content VC2, the numerical value "3%" associated with the performer "TR22" and the action information "laughing" performs the action of laughing when the performer "TR22" is performing in the video content VC2. Shows the percentage of users. Further, in the video content VC2, the numerical value "3%" associated with the performer "TR23" and the action information "laughing" performs the action of laughing when the performer "TR23" is performing in the video content VC2. Shows the percentage of users.
図6に戻り、制御部130は、CPUやMPU等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASICやFPGA等の集積回路により実現される。
Returning to FIG. 6, the
図6に示すように、制御部130は、受信部131と、集計部132と、特定部133と、提示部134と、編集部135とを有し、以下に説明する情報処理の機能や作用を実現又は実行する。なお、制御部130の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 6, the
(受信部131について)
受信部131は、各種情報を受信する。具体的には、受信部131は、端末装置10から送信される情報を受信する。例えば、受信部131は、端末装置10による推定処理の推定結果を含む情報を受信する。上記の通り、推定部14fは、ユーザが動画コンテンツを閲覧しているリアルタイムで推定処理を行い、送信部14gは、推定結果を含む情報をリアルタイムで遂次、情報処理装置100に送信する。このため、受信部131は、ユーザが動画コンテンツを閲覧しているリアルタイムで情報を受信する。図1の例では、端末装置10は、撮像情報FDA1やFDA2を受信する。例えば、受信部131は、ユーザの属性情報を受信する。このとき、受信部131は、端末装置10からユーザの属性情報を受信してもよいし、ユーザ毎に属性情報が予め記憶されている記憶部を有する外部サーバからユーザの属性情報を受信してもよい。
(About receiver 131)
The receiving
(集計部132について)
集計部132は、推定部14fにより推定された推定結果を集計する集計処理を行う。例えば、集計部132は、推定部14fにより推定された推定結果に基づいて、動画コンテンツにおいて感情表出行動が行われた時間位置を特定する。そして、特定部133は、特定した時間位置に基づいて、動画コンテンツの中で感情表出行動が行われた回数を集計する。図1の例では、集計部132は、特徴量である笑い度が所定の閾値(例えば、笑い度「5」)以上を示す時間位置を、動画コンテンツVC1において、ユーザU1が笑う行動を行った時間位置として特定する。また、集計部132は、推定情報記憶部122に格納する。
(About tabulation section 132)
The totaling unit 132 performs a totaling process for totaling the estimation results estimated by the estimation unit 14f. For example, the aggregation unit 132 specifies the time position where the emotional expression action is performed in the moving image content based on the estimation result estimated by the estimation unit 14f. Then, the specific unit 133 totals the number of times the emotion expression action is performed in the moving image content based on the specified time position. In the example of FIG. 1, the aggregation unit 132 performs an action in which the user U1 laughs at a time position at which the laughter degree, which is a feature amount, indicates a predetermined threshold value (for example, the laughter degree “5”) or more in the video content VC1. Specify as a time position. Further, the aggregation unit 132 stores the information in the estimation
また、例えば、集計部132は、各動画コンテンツの中で笑う行動を行った人数である行動人数を、各動画コンテンツの時間位置毎に集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を用いて、かかる集計を行う。また、集計部132は、所定期間の間において、動画コンテンツを視聴したユーザの総数に対する、その動画コンテンツの中で笑う行動を行ったユーザの人数の割合を、各動画コンテンツの時間位置毎に集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を用いて、かかる集計を行う。また、集計部132は、集計した集計結果を全体集計結果記憶部123に格納する。
Further, for example, the aggregation unit 132 aggregates the number of people who have performed a laughing action in each video content for each time position of each video content. For example, the aggregation unit 132 performs such aggregation using the information stored in the estimation
また、集計部132は、コンテンツに出演している出演者毎に、出演者がコンテンツの中で演じている際に動画コンテンツVC1を視聴していたユーザのうち、感情表出行動を行ったユーザの人数に関する情報を集計する。例えば、集計部132は、出演者がコンテンツの中で演じている際に笑う行動を行ったユーザの割合を集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を集計することにより、出演者がコンテンツの中で演じている際に笑う行動を行ったユーザの割合を算出する。また、集計部132は、このときの集計結果を出演者情報記憶部125に格納する。
In addition, the aggregation unit 132 is a user who has performed an emotional expression action among the users who were watching the video content VC1 when the performer was performing in the content for each performer appearing in the content. Aggregate information about the number of people. For example, the aggregation unit 132 aggregates the percentage of users who laugh when the performer is performing in the content. For example, the aggregation unit 132 aggregates the information stored in the estimation
(特定部133について)
特定部133は、推定部14fにより推定された推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。図10で説明したように、感情ポイントは、面白ポイント、泣きポイント、驚きポイント等に分けられる。
(About specific part 133)
The identification unit 133 identifies an emotion point, which is a point at which the user's emotion changes in the content, by aggregating the estimation results estimated by the estimation unit 14f. As described with reference to FIG. 10, emotion points are divided into fun points, crying points, surprise points, and the like.
例えば、特定部133は、推定部14fにより推定された推定結果をユーザ毎に集計することにより、ユーザ毎に感情ポイントを特定する。推定情報記憶部122に記憶されるユーザ毎に時間位置は、ユーザ毎の感情ポイントといえる。また、特定部133は、このユーザ毎の感情ポイントである時間位置の出現回数を集計することにより、感情ポイントを特定する。言い換えれば、特定部133は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数を集計することにより、感情ポイントを特定する。
For example, the identification unit 133 identifies emotion points for each user by aggregating the estimation results estimated by the estimation unit 14f for each user. The time position for each user stored in the estimation
例えば、特定部133は、行動人数に基づく数値が所定の条件情報を満たすポイントを感情ポイントとして特定する。具体的には、特定部133は、コンテンツが動画コンテンツである場合には、動画コンテンツの再生時間のうち、行動人数に基づく数値が所定の条件情報を満たす時間位置を感情ポイントとして特定する。例えば、特定部133は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数が所定人数以上の時間位置を面白ポイント(感情ポイントの一例)として特定する。あるいは、特定部133は、所定期間の間において、対応する動画コンテンツを視聴したユーザの総数に対する、このユーザのうち笑う行動を行ったユーザの人数である行動人数の割合が所定割合以上の時間位置を面白ポイント(感情ポイントの一例)として特定する。また、特定部133は、特定した感情ポイントを感情ポイント記憶部124−1に格納する。 For example, the specific unit 133 specifies a point at which a numerical value based on the number of active persons satisfies a predetermined condition information as an emotional point. Specifically, when the content is a moving image content, the specifying unit 133 specifies as an emotion point a time position in which the numerical value based on the number of active persons satisfies the predetermined condition information in the playing time of the moving image content. For example, the specific unit 133 points out an interesting point (emotion) at a time position in which the number of users who have performed a laughing action out of the total number of users who have viewed the corresponding video content during a predetermined period is equal to or greater than the predetermined number of people. Specify as an example of points). Alternatively, the specific unit 133 is at a time position in which the ratio of the number of active users, which is the number of users who have performed a laughing action, to the total number of users who have viewed the corresponding video content during a predetermined period is equal to or greater than the predetermined ratio. Is specified as an interesting point (an example of an emotional point). Further, the specific unit 133 stores the specified emotion point in the emotion point storage unit 124-1.
また、特定部133は、推定部14fにより推定された推定結果をユーザのユーザ属性毎に集計することにより、ユーザ属性毎に感情ポイントを特定する。また、特定部133は、特定した感情ポイントを感情ポイント記憶部124−2に格納する。 In addition, the identification unit 133 identifies emotion points for each user attribute by aggregating the estimation results estimated by the estimation unit 14f for each user attribute of the user. Further, the specific unit 133 stores the specified emotion point in the emotion point storage unit 124-2.
また、特定部133は、推定結果をユーザ毎に集計した集計結果と、ユーザ毎の属性情報とに基づいて、ユーザ毎に感情ポイントを特定してもよい。例えば、特定部133は、ユーザの年齢が同一又は類似する年齢である他のユーザの感情ポイントを参照して、かかるユーザの感情ポイントを特定してもよい。また、特定部133は、ユーザの性別が同一又は類似する性別である他のユーザの感情ポイントを参照して、かかるユーザの感情ポイントを特定してもよい。また、特定部133は、ユーザの興味関心及び趣味嗜好が同一又は類似する興味関心及び趣味趣向を有する他のユーザの感情ポイントを参照して、かかるユーザの感情ポイントを特定してもよい。 In addition, the identification unit 133 may specify emotion points for each user based on the aggregation result obtained by totaling the estimation results for each user and the attribute information for each user. For example, the identification unit 133 may specify the emotional points of such users by referring to the emotional points of other users whose ages of the users are the same or similar. In addition, the identification unit 133 may specify the emotional points of the user by referring to the emotional points of other users whose genders are the same or similar to each other. In addition, the specific unit 133 may specify the emotional points of the user by referring to the emotional points of other users who have the same or similar interests and hobbies and tastes of the user.
(提示部134について)
提示部134は、推定部14fにより推定された推定結果に基づいて、コンテンツに関する情報を提示する。例えば、提示部134は、ユーザがコンテンツを閲覧する際に、コンテンツについて推定された推定結果に基づくコンテンツに関する情報を提示する。図2で説明したように、提示部134は、コンテンツが動画コンテンツである場合には、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示(提示)されるよう表示制御する。例えば、図2の例では、提示部134は、ステップS13及びS14にかけての処理を行う。
(About presentation unit 134)
The
また、提示部134は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数に基づいて、コンテンツに順位付けを行う。そして、提示部134は、付与した順位情報に基づいて、ランキング形式でコンテンツを提示する。例えば、提示部134は、順位の高い上位所定数のコンテンツを人気コンテンツランキングとしてユーザに提示する。この点について、図9の例を用いて説明する。
In addition, the
図9の例では、全体集計結果記憶部123は、所定期間の間において、各動画コンテンツを視聴したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数を、各動画コンテンツの時間位置毎に記憶する。したがって、提示部134は、全体集計結果記憶部123に記憶される行動人数に基づいて、コンテンツに順位付けを行う。例えば、提示部134は、動画コンテンツを視聴したユーザの総数に対する、このユーザのうち笑う行動を行ったユーザの人数の割合を、各動画コンテンツの時間位置毎に算出する。なお、この算出は、集計部132によって行われてもよい。
In the example of FIG. 9, the total total
次に、提示部134は、各動画コンテンツから最も高い割合を抽出する。図9の例では、動画コンテンツVC1については時間位置t2の「46%」、動画コンテンツVC2については時間位置t1の「5%」といった具合である。そして、提示部134は、例えば、この割合がより高い上位5つの動画コンテンツを提示対象の動画コンテンツとして決定するとともに、割合が高い動画コンテンツほど高い順位を付与する。図9で不図示であるが、説明の便宜上、提示部134は、動画コンテンツVC5「1位」、動画コンテンツVC1「2位」、動画コンテンツVC4「3位」、動画コンテンツVC2「4位」、動画コンテンツVC3「5位」、といった順位付けを行ったものとする。
Next, the
そうすると、提示部134は、この順位付けを行った5つの動画コンテンツを、例えば、「今週の人気動画ランキング」といった形でユーザに提示する。例えば、ユーザU1が動画サイトSTにアクセスしてきた場合、提示部134は、動画サイトSTの所定のページ内において「今週の人気動画ランキング」を表示させる。ユーザU1は、「今週の人気動画ランキング」の中に気になる動画コンテンツが含まれていれば、それを選択することで動画閲覧ページへとジャンプすることができる。
Then, the
また、別の一例を示すと、提示部134は、推定部14fにより推定された推定結果に基づいて、各ユーザに応じたコンテンツをユーザにレコメンドすることができる。具体的には、提示部134は、推定部14fにより推定された推定結果をユーザ毎に集計することによりユーザについて特定された感情ポイントであって、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントに基づいて、ユーザに応じたコンテンツをレコメンドする。一例を示すと、提示部134は、ユーザ毎にユーザにパーソナライズ化されたコンテンツを、「あなた向けの動画一覧」等としてレコメンドする。この点について、図8の例を用いて説明する。
Further, as another example, the
図8の例では、推定情報記憶部122は、動画コンテンツ毎に各ユーザが感情表出行動を行った時間位置を記憶している。このため、推定情報記憶部122に記憶される時間位置は、各ユーザの感情ポイントともいえる。したがって、提示部134は、この感情ポイントでの動画コンテンツの内容を分析する。ユーザU1を例に挙げると、提示部134は、動画コンテンツVC1の時間位置t2では、出演者は誰であったか、その出演者はどのような内容の演技を行っていたか等を分析する。また、提示部134は、動画コンテンツVC1の時間位置t21、t51についても同様に分析する。また、提示部134は、分析結果に基づいて、例えば、ユーザU1はどのようなジャンルの動画コンテンツが好みであるか、ユーザU1はどのような出演者が好みであるか、ユーザU1はどのような演技(例えば、お笑いネタ)が好みであるか等といった、動画コンテンツに対するユーザU1の傾向を学習する。
In the example of FIG. 8, the estimation
ここでは、簡単な例として、提示部134は、ユーザU1について「複数のグループが漫才を披露してゆく番組を好む傾向にある」との学習結果を得たとする。このような状態において、ユーザU1が動画サイトSTにアクセスしてきたとする。かかる場合、提示部134は、動画サイトSTの所定のページ内において「あなた向けの動画一覧」を表示させる。ここで、コンテンツ配信装置30は、ユーザに配信する各種コンテンツを記憶部に格納している。したがって、提示部134は、コンテンツ配信装置30の記憶部にアクセスし、「複数のグループが漫才を披露してゆく番組」(動画コンテンツ)を選択する。そして、提示部134は、選択した動画コンテンツをユーザU1に配信するようコンテンツ配信装置30に指示する。例えば、提示部134は、選択した動画コンテンツが「あなた向けの動画一覧」として表示されるよう、選択した動画コンテンツを配信させる。
Here, as a simple example, it is assumed that the
これにより、情報処理装置100は、ユーザU1が好みそうなコンテンツをレコメンドすることができる。この結果、例えば、ユーザU1は、視聴したい動画コンテンツは決まっていないが、面白そうものがあれば視聴してみたいといった場面で、積極的に探すことなく、容易に自分好みの動画コンテンツを視聴することができるようになる。つまり、情報処理装置100は、ユーザに面倒な操作を与えることなく、ユーザに適したコンテンツをレコメンドすることができる。
As a result, the
(編集部135について)
編集部135は、動画コンテンツの編集を行う、具体的には、編集部135は、特定部133により特定された感情ポイントに基づいて、コンテンツの編集を行う。なお、本実施形態において編集するとは、新たなコンテンツを生成する概念を含み得るものとする。例えば、編集部135は、コンテンツのうち、感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する。例えば、編集部135は、コンテンツそれぞれの感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する。この点について、図10の例を用いて説明する。
(About editorial department 135)
The
図10に示す感情ポイント記憶部124−1の例では、動画コンテンツVC1の面白ポイントは時間位置t2、t31、t62である。また、動画コンテンツVC2の面白ポイントは時間位置t13、t55、t61である。 In the example of the emotion point storage unit 124-1 shown in FIG. 10, the interesting points of the moving image content VC1 are the time positions t2, t31, and t62. The interesting points of the moving image content VC2 are the time positions t13, t55, and t61.
この場合、編集部135は、動画コンテンツVC1から、時間位置t2周辺の部分コンテンツ、時間位置t31周辺の部分コンテンツ、時間位置t62周辺の部分コンテンツをそれぞれ抽出する。例えば、編集部135は、時間位置t0〜t4までに対応する動画コンテンツVC1を、時間位置t2周辺の部分コンテンツVC11として抽出する。また、編集部135は、時間位置t29〜t33までに対応する動画コンテンツVC1を、時間位置t31周辺の部分コンテンツとVC12して抽出する。また、編集部135は、時間位置t00〜t64までに対応する動画コンテンツVC1を、時間位置t62周辺の部分コンテンツVC13として抽出する。
In this case, the
また、編集部135は、動画コンテンツVC2から、時間位置t13周辺の部分コンテンツ、時間位置t55周辺の部分コンテンツ、時間位置t61周辺の部分コンテンツをそれぞれ抽出する。例えば、編集部135は、時間位置t11〜t15までに対応する動画コンテンツVC2を、時間位置t13周辺の部分コンテンツVC21として抽出する。また、編集部135は、時間位置t53〜t57までに対応する動画コンテンツVC2を、時間位置t55周辺の部分コンテンツとVC22して抽出する。また、編集部135は、時間位置t59〜t63までに対応する動画コンテンツVC2を、時間位置t61周辺の部分コンテンツVC23として抽出する。
Further, the
そして、編集部135は、上記にように抽出した部分コンテンツVC11、VC12、VC13、VC21、VC22、VC23を組み合わせる(繋ぎ合わせる)ことにより、新たな動画コンテンツVC11−21を生成する。このようなことから、動画コンテンツVC11−21は、面白ポイントだけで構成された動画コンテンツといえる。また、提示部134は、ユーザからのアクセスに応じて、動画コンテンツVC11−21を提示してもよい。
Then, the
これにより、情報処理装置100は、ユーザがより楽しむことのできる動画コンテンツを動的に生成することができる。また、情報処理装置100は、動画コンテンツVC11−21を所定の事業主に販売することができる。なお、上記例では、情報処理装置100が、面白ポイントで編集する例を示したが、情報処理装置100は、泣きポイントや驚きポイントで同様の編集を行ってもよい。また、情報処理装置100は、面白ポイント、泣きポイント、驚きポイントを織り交ぜることで編集を行ってもよい。
As a result, the
また、編集部135は、動画コンテンツの所定の時間位置に、感情を抽象化したマークを付してもよい。例えば、動画コンテンツVC1のうち、時間位置「t2」で所定期間の間に動画コンテンツVC1を視聴したユーザの総数のうち、最も多い「693人」が笑う行動を行った(行動人数693人)との集計結果を得たものとする。この場合、編集部135は、時間位置「t2」において笑った顔文字等のマークを付してもよい。この場合、笑った顔文字マークは、動画コンテンツVC1に重畳されるように表示される。なお、上記例に限定されなくともよく、感情を抽象化したマークの代わりに、笑い声や、効果音や、キャラクタを付してもよい。このように、編集部135は、動画コンテンツの盛り上りを演出できるような効果であれば如何なる情報を付してもよい。また、上記例では、ユーザの感情として、笑いについて例を挙げて説明したが、上記編集処理は、泣くや、驚く等の感情にも適用可能である。
In addition, the
〔4.処理手順〕
次に、図12を用いて、実施形態に係る情報処理の手順について説明する。図12は、実施形態にかかる情報処理装置100が実行する情報処理を示すフローチャートである。図12の例では、端末装置10と情報処理装置100とが協働して行う情報処理の手順を示す。また、端末装置10及び情報処理装置100は、実施形態に係る情報処理プログラムを実行することにより情報処理を行う。なお、図12の例では、ユーザが閲覧する動画コンテンツを動画コンテンツVC1とする。
[4. Processing procedure]
Next, the procedure of information processing according to the embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing information processing executed by the
まず、端末装置10の同意情報受付部14bは、ユーザから受け付けた同意情報に基づいて、ユーザが撮像に許可したか否かを判定する(ステップS101)。同意情報受付部14bは、ユーザが撮像に許可しなかった場合には(ステップS101;No)、ユーザの撮像を行わず処理を終了する。一方、カメラ制御部14dは、同意情報受付部14bによりユーザが撮像に許可したと判定された場合には(ステップS101;Yes)、動画コンテンツVC1の閲覧が開始されたか否かを判定する(ステップS102)。カメラ制御部14dは、動画コンテンツVC1の閲覧が開始されていない場合には(ステップS102;No)、閲覧が開始されるまで待機する。一方、カメラ制御部14dは、動画コンテンツVC1の閲覧が開始された場合には(ステップS102;Yes)、ユーザの撮像を行う(ステップS103)。
First, the consent information receiving unit 14b of the
カメラ制御部14dは、ユーザが動画コンテンツVC1を閲覧している間は撮像を継続するため、推定部14fは、カメラ制御部14dの撮像による撮像データ(顔動画のデータ)に基づいて、ユーザの感情表出行動を推定するとともに、推定した感情表出行動の度合いを示す特徴量を推定する推定処理を行う(ステップS104)。例えば、推定部14fは、ユーザが動画コンテンツVC1を閲覧しているリアルタイムにおいて、ユーザが動画コンテンツVC1の閲覧を終了するまで、毎秒毎に、この推定処理を行う。そして、送信部14gは、推定部14fによる推定結果を含む情報を、毎秒毎に、情報処理装置100に送信する(ステップS105)。
Since the camera control unit 14d continues imaging while the user is viewing the video content VC1, the estimation unit 14f is based on the imaged data (face video data) obtained by the camera control unit 14d. In addition to estimating the emotional expression behavior, an estimation process for estimating a feature amount indicating the degree of the estimated emotional expression behavior is performed (step S104). For example, the estimation unit 14f performs this estimation process every second until the user finishes viewing the video content VC1 in real time when the user is browsing the video content VC1. Then, the
集計部132は、受信部131により撮像情報が受信されると、推定部14fにより推定された推定結果に基づいて、動画コンテンツVC1において感情表出行動が行われた時間位置を特定する(ステップS206)。例えば、集計部132は、特徴量が所定の閾値以上を示す時間位置を、動画コンテンツVC1において、ユーザが対応する感情表出行動を行った時間位置として特定する。
When the imaging information is received by the receiving
次に、集計部132は、推定部14fによる推定結果、及び、ステップS206で特定した時間位置に基づいて、各種集計を行う(ステップS207)。例えば、集計部132は、笑う行動を行ったユーザの人数や割合を集計し、全体集計結果記憶部123に格納する。
Next, the aggregation unit 132 performs various aggregations based on the estimation result by the estimation unit 14f and the time position specified in step S206 (step S207). For example, the aggregation unit 132 aggregates the number and proportion of users who have performed a laughing action, and stores the total aggregation
次に、特定部133は、感情ポイント(例えば、面白ポイント)を特定する(ステップS208)。例えば、特定部133は、全体集計結果記憶部123を参照し、各動画コンテンツの中で所定人数以上が笑う行動を行った時間位置、又は動画コンテンツの中で所定割合以上が笑う行動を行った時間位置を面白ポイントとして特定する。
Next, the identification unit 133 specifies an emotional point (for example, an interesting point) (step S208). For example, the specific unit 133 refers to the overall aggregation
このような状態において、受信部131は、ユーザからのアクセスを受信したか否かを判定する(ステップS209)。例えば、受信部131は、ユーザから動画コンテンツの配信要求を受信したか否かを判定する。受信部131は、アクセスを受信していない場合には(ステップS209;No)、受信するまで待機する。一方、提示部134は、受信部131によりアクセスが受信された場合には(ステップS209;Yes)、このとき、かかるユーザが視聴しようとする動画コンテンツ(ここでは、動画コンテンツVC2とする)に応じたコンテンツ(提示対象のコンテンツ)を生成する(ステップS210)。例えば、提示部134は、図2で説明したように、全体集計結果記憶部123にアクセスし、線情報を取得し、取得した遷移情報に基づいて、動画コンテンツVC2における行動人数ンの遷移を示すグラフGを生成する。
In such a state, the receiving
次に、提示部134は、グラフGを配信要求送信元のユーザに提示する(ステップS211)。例えば、情報処理装置136は、グラフGが動画コンテンツVC2の再生箇所(時間位置)をユーザ側がコントロールすることができるシークバーBR上に表示されるようコンテンツ配信装置30に対して表示制御する。例えば、情報処理装置100は、端末装置10がシークバーBR上にグラフGを表示するよう、端末装置10に対してグラフGを配信するようコンテンツ配信装置30に指示する。また、情報処理装置100は、グラフGをコンテンツ配信装置30に送信する。
Next, the
〔5.変形例〕
上記実施形態に係る端末装置10及び情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、端末装置10及び情報処理装置100の他の実施形態について説明する。
[5. Modification example]
The
〔5−1.コンテンツ〕
上記実施形態では、情報処理装置100による情報処理の対象となるコンテンツが動画コンテンツの場合での例を示してきたが、情報処理の対象となるコンテンツは、画像コンテンツであってもよい。すなわち、実施形態に係る情報処理装置100は、画像コンテンツを閲覧中のユーザを、かかる画像コンテンツを表示している端末装置10が有する撮像手段によって撮像された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する情報を取得する。そして、情報処理装置100は、取得された推定結果を集計することにより、画像コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。
[5-1. content〕
In the above embodiment, an example has been shown in which the content to be processed by the
一方、情報処理装置100は、コンテンツが画像コンテンツ(例えば、電子書籍)である場合には、画像コンテンツのページのうち、行動人数に基づく数値が所定の条件情報を満たすページを感情ポイントとして特定する。
On the other hand, when the content is an image content (for example, an electronic book), the
この場合、集計部132は、各画像コンテンツの中で笑う行動を行った人数である行動人数を、各画像コンテンツのページ毎に集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を用いて、行動人数の集計を行う。また、集計部132は、所定期間の間において、画像コンテンツを閲覧したユーザの総数に対する、その画像コンテンツの中で笑う行動を行ったユーザの人数の割合を、各画像コンテンツのページ毎に集計する。例えば、集計部132は、推定情報記憶部122に記憶される情報を用いて、ユーザの人数の割合の集計を行う。また、集計部132は、集計した集計結果を全体集計結果記憶部123に格納する。
In this case, the aggregation unit 132 aggregates the number of people who performed the laughing action in each image content for each page of each image content. For example, the aggregation unit 132 aggregates the number of active people using the information stored in the estimation
また、特定部133は、行動人数に基づく数値が所定の条件情報を満たすポイントを感情ポイントとして特定する。具体的には、特定部133は、画像コンテンツのページのうち、行動人数に基づく数値が所定の条件情報を満たすページを感情ポイントとして特定する。例えば、特定部133は、所定期間の間において、対応する画像コンテンツを閲覧したユーザの総数のうち、笑う行動を行ったユーザの人数である行動人数が所定人数以上のページを面白ポイントとして特定する。また、特定部133は、所定期間の間において、対応する画像コンテンツを閲覧したユーザの総数に対する、このユーザのうち笑う行動を行ったユーザの人数である行動人数の割合が所定割合以上のページを面白ポイントとして特定する。 In addition, the specific unit 133 specifies a point at which the numerical value based on the number of active persons satisfies the predetermined condition information as an emotional point. Specifically, the specific unit 133 specifies, among the pages of the image content, the page whose numerical value based on the number of active persons satisfies the predetermined condition information as the emotion point. For example, the specific unit 133 specifies, as an interesting point, a page in which the number of users who have performed a laughing action, which is the number of users who have performed a laughing action, is equal to or greater than the predetermined number of users who have viewed the corresponding image content during a predetermined period. .. In addition, the specific unit 133 displays a page in which the ratio of the number of users who have performed a laughing action to the total number of users who have viewed the corresponding image content during a predetermined period is equal to or greater than the predetermined ratio. Identify as an interesting point.
これにより、情報処理装置100は、コンテンツを閲覧することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。例えば、情報処理装置100は、面白ポイントのページだけを寄せ集めた新たな画像コンテンツを提供したり、ユーザが画像コンテンツを閲覧使用する際に、笑いのポイントとなるページをグラフで提示したりすることができる。
As a result, the
〔5−2.端末装置〕
上記実施形態では、端末装置10が、感情に関する情報を推定する例を示したが、端末装置10が実行する推定処理は、情報処理装置100側で行われてもよい。一方、端末装置10は、推定処理を行うことに加えて、情報処理装置100が実行する集計部132によって行われる集計処理や、特定部133によって行われる特定処理等を行ってよい。
[5-2. Terminal equipment]
In the above embodiment, the
〔5−3.集中度を推定〕
上記実施形態では、推定部14fが、ユーザの感情に関する情報として、感情表出行動や感情表出行動の特徴量を推定する推定処理を行う例を示したが、推定部14fは、撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報として、コンテンツに対するユーザの集中度を推定してもよい。例えば、ユーザは、動画コンテンツを集中して閲覧するからこそ、笑う、泣く、驚く、といった感情表出行動を行う。したがって、コンテンツに対するユーザの集中度は、ユーザの感情に関する情報といえる。なお、推定部14fは、これまでに説明してきた推定処理と同様の手法を用いて、集中度(集中の度合いを示す指標値)を推定することができる。以下、この一例について、適宜、図1の例を用いて説明する。
[5-3. Estimate concentration ratio]
In the above embodiment, the estimation unit 14f has shown an example in which the estimation unit 14f performs an estimation process for estimating the emotion expression behavior and the feature amount of the emotion expression behavior as information on the user's emotion. The degree of concentration of the user on the content may be estimated as information on the user's emotions based on the facial expression of the user. For example, a user performs emotional expression behaviors such as laughing, crying, and surprise because he / she concentrates on viewing video content. Therefore, the degree of concentration of the user on the content can be said to be information on the user's emotions. The estimation unit 14f can estimate the degree of concentration (an index value indicating the degree of concentration) by using the same method as the estimation process described so far. Hereinafter, this example will be described as appropriate with reference to the example of FIG.
例えば、推定部14fは、顔動画のデータについて表情解析することにより、ユーザの表情、動画コンテンツVC1のどの時間位置で動画コンテンツVC1(あるいは、動画コンテンツVC1が表示されている端末装置10の画面)に注目したかといった視聴態様を判断・計測する。そして、推定部14fは、この結果に基づいて、例えば、毎秒、集中度を推定する。
For example, the estimation unit 14f analyzes the facial expression of the facial expression data to analyze the facial expression of the user and the video content VC1 (or the screen of the
また、送信部14gは、かかる推定結果(集中度)を含む情報を、例えば、毎秒毎に、情報処理装置100に送信する。一例を示すと、送信部14gは、動画コンテンツの再生時間に対応する時間位置(タイムコード)と、集中度とを含む情報を毎秒毎に、情報処理装置100に送信する。つまり、送信部14gは、ユーザが動画コンテンツを閲覧している間は、時間位置(タイムコード)と、集中度とを含む情報を遂次、情報処理装置100に送信する。例えば、送信部14gは、時間位置「1分53秒」、集中度「10」といった情報を情報処理装置100に送信する。また、例えば、送信部14gは、時間位置「1分54秒」、集中度「8」といった情報を情報処理装置100に送信する。また、例えば、送信部14gは、時間位置「1分55秒」、集中度「7」といった情報を情報処理装置100に送信する。
Further, the
ここで、動画コンテンツVC1を広告動画とすると、情報処理装置100は、端末装置10から受信した集中度に基づいて、広告効果を測定することができるため、測定した広告効果に基づいて、どのような広告配信がよいかを分析することや、分析結果を広告主にフィードバックすることができる。
Here, assuming that the video content VC1 is an advertising video, the
〔5−4.コンテンツ配信装置〕
上記実施形態では、コンテンツ配信装置30が、各種コンテンツを配信する例を示したが、情報処理装置100がコンテンツ配信装置30の機能を有することによりコンテンツ配信を行ってもよい。この場合、情報処理装置100は、事業主(例えば、コンテンツプロバイダー)から受け付けた各種コンテンツを記憶する記憶部を有する。
[5-4. Content distribution device]
In the above embodiment, the
〔5−5.音声情報〕
上記実施形態では、情報処理装置100が、撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報を推定する例を示したが、情報処理装置100が、端末装置10が有する集音手段(例えば、マイク)で集音された音声情報を取得し、取得した音声情報に基づいて、ユーザの感情に関する情報を推定してもよい。
[5-5. Voice information]
In the above embodiment, the
例えば、情報処理装置100は、端末装置10が有するマイクで集音されたユーザの笑い声を取得する。そして、情報処理装置100は、ユーザの笑い声が取得されたことから、ユーザの感情に関する情報を「笑い」と推定してもよい。このとき、情報処理装置100は、音声解析等の従来技術を用いて、ユーザの音声情報を解析する。
For example, the
なお、変形例は、上記例に限定されなくともよい。例えば、情報処理装置100は、端末装置10が有する集音手段で集音された音声情報を取得し、取得した音声情報と撮像情報とを組み合わせて、ユーザの感情に関する情報を推定してもよい。
The modified example is not limited to the above example. For example, the
また、情報処理装置100は、音声情報に限らず、例えば、端末装置10の動きを検知するジャイロセンサ及び加速度センサから取得されるセンシング情報や、ユーザの心拍数や、ユーザの体温等のユーザの生体情報に関するセンシング情報に基づいて、ユーザの感情に関する情報を推定してもよい。
Further, the
〔6.ハードウェア構成〕
また、上述してきた実施形態にかかる端末装置10、コンテンツ配信装置30及び情報処理装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図13は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
Further, the
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
For example, when the
また、例えば、コンピュータ1000が端末装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部14の機能を実現する。
Further, for example, when the
〔7.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[7. others〕
Of the processes described in each of the above embodiments, all or part of the processes described as being automatically performed can be performed manually, or all the processes described as being performed manually. Alternatively, a part thereof can be automatically performed by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、推定部は、推定手段や推定回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the estimation unit can be read as an estimation means or an estimation circuit.
〔8.効果〕
上述してきたように、実施形態に係る情報処理装置100は、受信部131(取得部の一例)と、特定部133とを有する。受信部131は、コンテンツを閲覧中のユーザを、コンテンツを表示している端末装置10が有する撮像手段によって撮像された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する情報を取得する。特定部133は、受信部131によって取得された推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定する。
[8. effect〕
As described above, the
これにより、実施形態に係る情報処理装置100は、推定結果を集計することにより、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントを特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、受信部131は、ユーザの表情に基づいて、リアルタイムで推定されたユーザの感情に関する情報を取得し、特定部133は、受信部131によってリアルタイムで取得された推定結果をユーザ毎に集計することにより、ユーザ毎に感情ポイントをリアルタイムで特定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、リアルタイムで取得された推定結果をユーザ毎に集計することにより、ユーザ毎に感情ポイントをリアルタイムで特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報をリアルタイムで提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、受信部131は、ユーザの属性に関する属性情報を取得し、特定部133は、受信部131によって取得された推定結果をユーザ毎に集計した集計結果と、ユーザ毎の属性情報とに基づいて、ユーザ毎に感情ポイントを特定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、取得された推定結果をユーザ毎に集計した集計結果と、ユーザ毎の属性情報とに基づいて、ユーザ毎に感情ポイントを特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、特定部133は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数を集計することにより、感情ポイントを特定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数を集計することにより、感情ポイントを特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、特定部133は、行動人数に基づく数値が所定の条件情報を満たすポイントを感情ポイントとして特定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、行動人数に基づく数値が所定の条件情報を満たすポイントを前記感情ポイントとして特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、特定部133は、コンテンツが動画コンテンツである場合には、動画コンテンツの再生時間のうち、行動人数に基づく数値が所定の条件情報を満たす時間位置を感情ポイントとして特定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、コンテンツが動画コンテンツである場合には、動画コンテンツの再生時間のうち、行動人数に基づく数値が所定の条件情報を満たす時間位置を感情ポイントとして特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, when the content is video content, the
また、実施形態に係る情報処理装置100において、特定部133は、コンテンツが画像コンテンツである場合には、画像コンテンツのページのうち、行動人数に基づく数値が所定の条件情報を満たすページを感情ポイントとして特定する。
Further, in the
これにより、実施形態に係る情報処理装置100は、コンテンツが画像コンテンツである場合には、画像コンテンツのページのうち、行動人数に基づく数値が所定の条件情報を満たすページを感情ポイントとして特定するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, when the content is image content, the
また、実施形態に係る情報処理装置100において、感情ポイントに基づいて、コンテンツの編集を行う編集部135をさらに備える。
Further, the
これにより、実施形態に係る情報処理装置100は、感情ポイントに基づいて、コンテンツの編集を行うため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、編集部135は、コンテンツのうち、感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する。
Further, in the
これにより、実施形態に係る情報処理装置100は、コンテンツのうち、感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、編集部135は、コンテンツそれぞれの感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する。
Further, in the
これにより、実施形態に係る情報処理装置100は、コンテンツそれぞれの感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、受信部131によって取得された推定結果に基づいて、コンテンツに関する情報を提示する提示部134をさらに備える。
Further, the
これにより、実施形態に係る情報処理装置100は、取得された推定結果に基づいて、コンテンツに関する情報を提示するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, since the
また、実施形態に係る情報処理装置100において、提示部134は、ユーザがコンテンツを閲覧する際に、コンテンツについて推定された推定結果に基づくコンテンツに関する情報を提示する。
Further, in the
これにより、実施形態に係る情報処理装置100は、ユーザがコンテンツを閲覧する際に、コンテンツについて推定された推定結果に基づくコンテンツに関する情報を提示するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, when the user browses the content, the
また、実施形態に係る情報処理装置100において、提示部134は、コンテンツが動画コンテンツである場合には、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示されるよう表示制御する。
Further, in the
これにより、実施形態に係る情報処理装置100は、コンテンツが動画コンテンツである場合には、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示されるよう表示制御するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, when the content is video content, the
また、実施形態に係る情報処理装置100において、提示部134は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数に基づきコンテンツに順位付けされた順位情報に基づいて、ランキング形式でコンテンツを提示する。
Further, in the
これにより、実施形態に係る情報処理装置100は、コンテンツの中で感情表出行動を行ったユーザの人数である行動人数に基づきコンテンツに順位付けされた順位情報に基づいて、ランキング形式でコンテンツを提示するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、提示部134は、受信部131によって取得された推定結果に基づいて、ユーザに応じたコンテンツをレコメンドする。
Further, in the
これにより、実施形態に係る情報処理装置100は、取得された推定結果に基づいて、ユーザに応じたコンテンツをレコメンドするため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る情報処理装置100において、提示部134は、受信部131によって取得された推定結果をユーザ毎に集計することによりユーザについて特定された感情ポイントであって、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントに基づいて、ユーザに応じたコンテンツをレコメンドする。
Further, in the
これにより、実施形態に係る情報処理装置100は、取得された推定結果をユーザ毎に集計することによりユーザについて特定された感情ポイントであって、コンテンツの中でユーザの感情に変化が生じたポイントである感情ポイントに基づいて、ユーザに応じたコンテンツをレコメンドするため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
また、実施形態に係る端末装置10は、取得部14eと、推定部14fと、送信部14gを有する。取得部14eは、コンテンツを閲覧中のユーザを、撮像手段によって撮像されることで得られる撮像情報を取得する。推定部14fは、取得部14eによって取得された撮像情報が示すユーザの表情に基づいて、ユーザの感情に関する情報を推定する。送信部14gは、推定部14fによって推定された推定結果を情報処理装置100に送信する。
Further, the
これにより、実施形態に係る端末装置10は、取得された撮像情報が示すユーザの表情に基づいて推定されたユーザの感情に関する推定結果を情報処理装置100に送信するため、コンテンツを視聴することでユーザに生じた感情の変化に応じて、ユーザにとって有意義な情報を提供することができる。
As a result, the
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 The embodiments of the present application have been described in detail with reference to some drawings, but these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to practice the present invention in other improved forms.
1 情報処理システム
10 端末装置
12 表示部
13 撮像部
14 制御部
14a 要求部
14b 同意情報受付部
14c 表示制御部
14d カメラ制御部
14e 取得部
14f 推定部
14g 送信部
30 コンテンツ配信装置
100 情報処理装置
120 記憶部
121 撮像情報記憶部
122 推定情報記憶部
123 全体集計結果記憶部
124 感情ポイント記憶部
125 出演者情報記憶部
130 制御部
131 受信部
132 集計部
133 特定部
134 提示部
135 編集部
1
Claims (19)
前記取得部によって取得された推定結果を集計することにより、前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する特定部と
を備えることを特徴とする情報処理装置。 An acquisition unit that acquires information about the user's emotions estimated based on the user's facial expression indicated by the image pickup information captured by the image pickup means of the terminal device displaying the content for the user who is viewing the content. When,
An information processing device including a specific unit that identifies an emotional point, which is a point at which the user's emotion changes in the content, by aggregating the estimation results acquired by the acquisition unit. ..
前記ユーザの表情に基づいて、リアルタイムで推定された前記ユーザの感情に関する情報を取得し、
前記特定部は、
前記取得部によってリアルタイムで取得された推定結果を前記ユーザ毎に集計することにより、前記ユーザ毎に前記感情ポイントをリアルタイムで特定する
ことを特徴とする請求項1に記載の情報処理装置。 The acquisition unit
Based on the facial expression of the user, information on the emotion of the user estimated in real time is acquired, and the information is obtained.
The specific part is
The information processing apparatus according to claim 1, wherein the emotion points are specified in real time for each user by aggregating the estimation results acquired in real time by the acquisition unit for each user.
前記ユーザの属性に関する属性情報を取得し、
前記特定部は、
前記取得部によって取得された推定結果を前記ユーザ毎に集計した集計結果と、前記ユーザ毎の属性情報とに基づいて、前記ユーザ毎に前記感情ポイントを特定する
ことを特徴とする請求項2に記載の情報処理装置。 The acquisition unit
Acquire attribute information related to the user's attribute,
The specific part is
The second aspect of claim 2 is characterized in that the emotion point is specified for each user based on the aggregation result obtained by the acquisition unit for each user and the attribute information for each user. The information processing device described.
前記コンテンツの中で感情表出行動を行ったユーザの人数である行動人数を集計することにより、前記感情ポイントを特定する
ことを特徴とする請求項1〜3のいずれか1つに記載の情報処理装置。 The specific part is
The information according to any one of claims 1 to 3, wherein the emotional points are specified by aggregating the number of users who have performed emotional expression behavior in the content. Processing equipment.
前記行動人数に基づく数値が所定の条件情報を満たすポイントを前記感情ポイントとして特定する
ことを特徴とする請求項4に記載の情報処理装置。 The specific part is
The information processing device according to claim 4, wherein a point at which a numerical value based on the number of active persons satisfies a predetermined condition information is specified as the emotion point.
前記コンテンツが動画コンテンツである場合には、動画コンテンツの再生時間のうち、前記行動人数に基づく数値が所定の条件情報を満たす時間位置を前記感情ポイントとして特定する
ことを特徴とする請求項5に記載の情報処理装置。 The specific part is
The fifth aspect of the fifth aspect is that when the content is a video content, the time position where the numerical value based on the number of active persons satisfies the predetermined condition information is specified as the emotion point in the playback time of the video content. The information processing device described.
前記コンテンツが画像コンテンツである場合には、画像コンテンツのページのうち、前記行動人数に基づく数値が所定の条件情報を満たすページを前記感情ポイントとして特定する
ことを特徴とする請求項5又は6に記載の情報処理装置。 The specific part is
When the content is image content, claim 5 or 6 is characterized in that, among the pages of the image content, the page whose numerical value based on the number of active persons satisfies the predetermined condition information is specified as the emotion point. The information processing device described.
ことを特徴とする請求項1〜7のいずれか1つに記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, further comprising an editorial unit that edits the content based on the emotional point.
前記コンテンツのうち、前記感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する
ことを特徴とする請求項8に記載の情報処理装置。 The editorial department
The information processing apparatus according to claim 8, wherein the partial content, which is the content corresponding to the emotional point, is extracted from the content, and new content is generated by combining the extracted partial content.
前記コンテンツそれぞれの前記感情ポイントに対応するコンテンツである部分コンテンツを抽出し、抽出した部分コンテンツを組み合わせた新たなコンテンツを生成する
ことを特徴とする請求項9に記載の情報処理装置。 The editorial department
The information processing apparatus according to claim 9, wherein partial content, which is content corresponding to the emotional point of each of the contents, is extracted, and new content is generated by combining the extracted partial contents.
ことを特徴とする請求項1〜10のいずれか1つに記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 10, further comprising a presenting unit that presents information about the content based on the estimation result acquired by the acquiring unit.
前記ユーザがコンテンツを閲覧する際に、当該コンテンツについて推定された推定結果に基づく前記コンテンツに関する情報を提示する
ことを特徴とする請求項11に記載の情報処理装置。 The presentation unit
The information processing device according to claim 11, wherein when the user browses the content, information about the content is presented based on an estimation result estimated for the content.
前記コンテンツが動画コンテンツである場合には、前記コンテンツの中で感情表出行動を行ったユーザの人数である行動人数であって、動画コンテンツの時間位置に応じて変化する行動人数の遷移を示すグラフが、前記コンテンツとともに表示されるシークバーが示す時間位置に対応付けて表示されるよう表示制御する
ことを特徴とする請求項12に記載の情報処理装置。 The presentation unit
When the content is video content, it is the number of actions that is the number of users who have performed emotional expression actions in the content, and indicates the transition of the number of actions that changes according to the time position of the video content. The information processing apparatus according to claim 12, wherein the graph is displayed and controlled so as to be displayed in association with the time position indicated by the seek bar displayed together with the content.
前記コンテンツの中で感情表出行動を行ったユーザの人数である行動人数に基づき前記コンテンツに順位付けされた順位情報に基づいて、ランキング形式でコンテンツを提示する
ことを特徴とする請求項11〜13のいずれか1つに記載の情報処理装置。 The presentation unit
Claims 11 to 11 characterized in that the content is presented in a ranking format based on the ranking information ranked in the content based on the number of users who have performed emotional expression behavior in the content. The information processing apparatus according to any one of 13.
前記取得部によって取得された推定結果に基づいて、前記ユーザに応じたコンテンツをレコメンドする
ことを特徴とする請求項11〜14のいずれか1つに記載の情報処理装置。 The presentation unit
The information processing apparatus according to any one of claims 11 to 14, wherein the content according to the user is recommended based on the estimation result acquired by the acquisition unit.
前記取得部によって取得された推定結果を前記ユーザ毎に集計することにより当該ユーザについて特定された感情ポイントであって、前記コンテンツの中で当該ユーザの感情に変化が生じたポイントである感情ポイントに基づいて、当該ユーザに応じたコンテンツをレコメンドする
ことを特徴とする請求項15に記載の情報処理装置。 The presentation unit
Emotion points that are identified for the user by aggregating the estimation results acquired by the acquisition unit for each user, and are points at which the user's emotions change in the content. The information processing apparatus according to claim 15, wherein the content according to the user is recommended based on the information processing apparatus.
コンテンツを閲覧中のユーザを、当該コンテンツを表示している端末装置が有する撮像手段によって撮像された撮像情報が示す当該ユーザの表情に基づいて推定された当該ユーザの感情に関する情報を取得する取得工程と、
前記取得工程によって取得された推定結果を集計することにより、前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する特定工程と
を含むことを特徴とする情報処理方法。 It is an information processing method executed by a computer.
An acquisition step of acquiring information on the user's emotions estimated based on the facial expression of the user indicated by the imaging information captured by the imaging means of the terminal device displaying the content for the user who is viewing the content. When,
An information processing method including a specific step of identifying emotion points, which are points in which the user's emotions change in the content, by aggregating the estimation results acquired by the acquisition process. ..
前記取得手順によって取得された推定結果を集計することにより、前記コンテンツの中で前記ユーザの感情に変化が生じたポイントである感情ポイントを特定する特定手順と
をコンピュータに実行させることを特徴とする情報処理プログラム。 Acquisition procedure for acquiring information on the user's emotions estimated based on the facial expression of the user indicated by the imaging information captured by the imaging means of the terminal device displaying the content. When,
By aggregating the estimation results acquired by the acquisition procedure, the computer is made to execute a specific procedure for identifying emotion points, which are points where the user's emotions have changed in the content. Information processing program.
前記取得部によって取得された撮像情報が示す前記ユーザの表情に基づいて、前記ユーザの感情に関する情報を推定する推定部と、
前記推定部によって推定された推定結果を情報処理装置に送信する送信部と
を備えることを特徴とする端末装置。 An acquisition unit that acquires imaging information obtained by imaging a user who is viewing content by an imaging means, and an acquisition unit.
An estimation unit that estimates information about the user's emotions based on the facial expression of the user indicated by the imaging information acquired by the acquisition unit, and an estimation unit.
A terminal device including a transmission unit that transmits an estimation result estimated by the estimation unit to an information processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020082880A JP7260505B2 (en) | 2020-05-08 | 2020-05-08 | Information processing device, information processing method, information processing program, and terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020082880A JP7260505B2 (en) | 2020-05-08 | 2020-05-08 | Information processing device, information processing method, information processing program, and terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021177362A true JP2021177362A (en) | 2021-11-11 |
JP7260505B2 JP7260505B2 (en) | 2023-04-18 |
Family
ID=78409524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020082880A Active JP7260505B2 (en) | 2020-05-08 | 2020-05-08 | Information processing device, information processing method, information processing program, and terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7260505B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7398854B1 (en) | 2023-06-30 | 2023-12-15 | ヴィアゲート株式会社 | Web page viewing analysis system, web page viewing analysis method, and web page viewing analysis program |
JP7398853B1 (en) | 2023-06-30 | 2023-12-15 | ヴィアゲート株式会社 | Video viewing analysis system, video viewing analysis method, and video viewing analysis program |
KR102626061B1 (en) * | 2023-04-21 | 2024-01-16 | 주식회사 티빙 | Method and apparatus for providing service based on emotion information of user about content |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010001512A1 (en) * | 2008-07-03 | 2010-01-07 | パナソニック株式会社 | Impression degree extraction apparatus and impression degree extraction method |
JP2011215895A (en) * | 2010-03-31 | 2011-10-27 | Ntt Docomo Inc | Device and method for evaluating content |
JP2014222397A (en) * | 2013-05-13 | 2014-11-27 | 日本電信電話株式会社 | Feeling estimation method, device, and program |
JP2014235533A (en) * | 2013-05-31 | 2014-12-15 | 株式会社Nttぷらら | Content evaluation device, content presentation device, content evaluation method, content evaluation program and content supply system |
JP2015528226A (en) * | 2012-06-14 | 2015-09-24 | トムソン ライセンシングThomson Licensing | Method, apparatus and system for determining viewer response to content elements |
WO2019031621A1 (en) * | 2017-08-08 | 2019-02-14 | 라인 가부시키가이샤 | Method and system for recognizing emotion during telephone call and utilizing recognized emotion |
WO2019130437A1 (en) * | 2017-12-26 | 2019-07-04 | 株式会社ウフル | Regional smile degree display system, regional smile degree display method, and program |
WO2019193781A1 (en) * | 2018-04-04 | 2019-10-10 | パナソニックIpマネジメント株式会社 | Emotion inference device, emotion inference method, and program |
-
2020
- 2020-05-08 JP JP2020082880A patent/JP7260505B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010001512A1 (en) * | 2008-07-03 | 2010-01-07 | パナソニック株式会社 | Impression degree extraction apparatus and impression degree extraction method |
JP2011215895A (en) * | 2010-03-31 | 2011-10-27 | Ntt Docomo Inc | Device and method for evaluating content |
JP2015528226A (en) * | 2012-06-14 | 2015-09-24 | トムソン ライセンシングThomson Licensing | Method, apparatus and system for determining viewer response to content elements |
JP2014222397A (en) * | 2013-05-13 | 2014-11-27 | 日本電信電話株式会社 | Feeling estimation method, device, and program |
JP2014235533A (en) * | 2013-05-31 | 2014-12-15 | 株式会社Nttぷらら | Content evaluation device, content presentation device, content evaluation method, content evaluation program and content supply system |
WO2019031621A1 (en) * | 2017-08-08 | 2019-02-14 | 라인 가부시키가이샤 | Method and system for recognizing emotion during telephone call and utilizing recognized emotion |
WO2019130437A1 (en) * | 2017-12-26 | 2019-07-04 | 株式会社ウフル | Regional smile degree display system, regional smile degree display method, and program |
WO2019193781A1 (en) * | 2018-04-04 | 2019-10-10 | パナソニックIpマネジメント株式会社 | Emotion inference device, emotion inference method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102626061B1 (en) * | 2023-04-21 | 2024-01-16 | 주식회사 티빙 | Method and apparatus for providing service based on emotion information of user about content |
JP7398854B1 (en) | 2023-06-30 | 2023-12-15 | ヴィアゲート株式会社 | Web page viewing analysis system, web page viewing analysis method, and web page viewing analysis program |
JP7398853B1 (en) | 2023-06-30 | 2023-12-15 | ヴィアゲート株式会社 | Video viewing analysis system, video viewing analysis method, and video viewing analysis program |
Also Published As
Publication number | Publication date |
---|---|
JP7260505B2 (en) | 2023-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI581128B (en) | Method, system, and computer-readable storage memory for controlling a media program based on a media reaction | |
CN109118290B (en) | Method, system, and computer-readable non-transitory storage medium | |
CN105339969B (en) | Linked advertisements | |
US20140337868A1 (en) | Audience-aware advertising | |
US8605958B2 (en) | Method and apparatus for generating meta data of content | |
JP7260505B2 (en) | Information processing device, information processing method, information processing program, and terminal device | |
US8418193B2 (en) | Information processing terminal, information processing method, and program | |
US20150020086A1 (en) | Systems and methods for obtaining user feedback to media content | |
US20150067708A1 (en) | Systems and methods for generating media asset representations based on user emotional responses | |
US20140304289A1 (en) | Information processing device, information processing terminal, information processing method, and program | |
US20140325540A1 (en) | Media synchronized advertising overlay | |
KR20140045412A (en) | Video highlight identification based on environmental sensing | |
JP2014511620A (en) | Emotion based video recommendation | |
US20140331242A1 (en) | Management of user media impressions | |
KR20140037874A (en) | Interest-based video streams | |
TW201407516A (en) | Determining a future portion of a currently presented media program | |
CN110959166B (en) | Information processing apparatus, information processing method, information processing system, display apparatus, and reservation system | |
KR101530122B1 (en) | A method for providing of social networking service, and a server therefor | |
JP6090053B2 (en) | Information processing apparatus, information processing method, and program | |
JP2019036191A (en) | Determination device, method for determination, and determination program | |
US20140214860A1 (en) | Data generation device, content reproduction device, and storage medium | |
JP2022056358A (en) | Video distribution apparatus, video distribution method, and video distribution program | |
WO2022264377A1 (en) | Information processing device, information processing system, information processing method, and non-transitory computer-readable medium | |
EP2824630A1 (en) | Systems and methods for obtaining user feedback to media content | |
JP2022120646A (en) | Imaging apparatus and imaging system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220725 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230111 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230111 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230117 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230406 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7260505 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |