JP2007034664A - Emotion estimation device and method, recording medium and program - Google Patents

Emotion estimation device and method, recording medium and program Download PDF

Info

Publication number
JP2007034664A
JP2007034664A JP2005216794A JP2005216794A JP2007034664A JP 2007034664 A JP2007034664 A JP 2007034664A JP 2005216794 A JP2005216794 A JP 2005216794A JP 2005216794 A JP2005216794 A JP 2005216794A JP 2007034664 A JP2007034664 A JP 2007034664A
Authority
JP
Japan
Prior art keywords
user
emotion
stimulus
information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005216794A
Other languages
Japanese (ja)
Inventor
Noriyuki Yamamoto
則行 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005216794A priority Critical patent/JP2007034664A/en
Publication of JP2007034664A publication Critical patent/JP2007034664A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To further accurately estimate a user's emotion without increase in the user's burden. <P>SOLUTION: A learning part 103 learns, when stimulation information is presented during learning processing, an emotion determination model showing the relation between a characteristic vector showing the user's state supplied from a sensor part and the user's interest based on user instruction information intentionally inputted by the user, the characteristic vector, and an emotion map mutually relating the instruction content and interest of the user. After the learning processing, an estimation part 104 estimates the user's emotion to the stimulation information based on the characteristic vector and the emotion determination model. This invention is applicable to a recommendation system for recommending contents to users. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、感情推定装置および方法、記録媒体、および、プログラムに関し、特に、ユーザの感情をより正確に推定できるようにした情報処理システム、感情推定装置および方法、記録媒体、および、プログラムに関する。   The present invention relates to an emotion estimation apparatus and method, a recording medium, and a program, and more particularly, to an information processing system, an emotion estimation apparatus and method, a recording medium, and a program that can estimate a user's emotion more accurately.

近年、ユーザの興味や関心の度合いを推定し、推定結果に基づいてユーザが興味や関心を持ちそうなコンテンツや商品などを推薦するシステム(以下、推薦システムと称する)が普及してきている。   In recent years, a system (hereinafter referred to as a recommendation system) that estimates the degree of interest and interest of a user and recommends content, products, etc. that the user is likely to be interested based on the estimation result has become widespread.

推薦システムで一般的に用いられるユーザの興味や関心の度合いを推定する手法として、対象への興味や関心の有無をユーザに直接問い合わせ、それに対するユーザの回答などを利用する手法、すなわち、明示的フィードバック(Explicit Feedback)を利用する手法、および、対象を提示した場合にユーザによってなされる機器の操作などを利用する手法、すなわち、暗黙的フィードバック(Implicit Feedback)を利用する手法がある。   As a method of estimating the degree of interest and interest of a user that is generally used in the recommendation system, a method that directly inquires the user about the interest or interest in the target and uses the user's answer to that, that is, explicit There are a technique that uses feedback (Explicit Feedback) and a technique that uses a device operation performed by a user when an object is presented, that is, a technique that uses implicit feedback.

明示的フィードバックを利用したシステムの一つに、予め準備されているシナリオに基づいてユーザと対話を行い、ユーザが発話した内容に基づいて、ユーザの興味や関心の度合いを推定する対話システムがある。   One system that uses explicit feedback is a dialog system that interacts with a user based on a scenario prepared in advance and estimates the user's interest and degree of interest based on what the user utters. .

また、暗黙的フィードバックを利用したシステムの一つに、ユーザの生体情報を検出し、生体情報に基づいてユーザの感情状態を解析し、ユーザの感情状態に基づいて、ユーザに適したコンテンツを推奨するシステムが提案されている(例えば、特許文献1参照)。   Also, in one of the systems using implicit feedback, the user's biological information is detected, the emotional state of the user is analyzed based on the biological information, and the content suitable for the user is recommended based on the emotional state of the user The system which performs is proposed (for example, refer patent document 1).

特開2003−92701号公報JP 2003-92701 A

しかしながら、明示的フィードバックを利用する手法では、システムの問い合わせに対して、ユーザは明示的な反応を示さなければならず、ユーザに負担をかけてしまう。例えば、対話システムでは、システムの問い合わせに対して、ユーザは明瞭でシステムが認識可能な声で回答しなければならない。仮に、興味がなくてユーザが生返事を続けた場合、システム側がユーザの反応を認識できず、しつこく対話を続けてしまうことがある。   However, in the method using explicit feedback, the user must show an explicit response to the system query, which places a burden on the user. For example, in a dialogue system, a user must answer a system query in a clear and recognizable voice. If the user is not interested and continues to respond, the system may not be able to recognize the user's reaction and may continue to interact.

また、暗黙的フィードバックを利用する手法では、例えば、ユーザが機器を何も操作しなければ、ユーザの興味や関心を推定することができない。また、ユーザに提示する対象を映像コンテンツとした場合、ユーザが映像コンテンツを実際に視聴しているか否かが分からないため、誤った学習をしてしまう場合がある。   In the method using implicit feedback, for example, the user's interest and interest cannot be estimated unless the user operates any device. In addition, if the target to be presented to the user is video content, it is not known whether the user is actually viewing the video content, and thus there is a case where the user learns incorrectly.

また、特許文献1に記載の発明では、全てのユーザに対して共通のモデルを用い、かつ、予め作り込まれたルールに基づいて、感情状態が解析され、生体情報などの個人差に対応することについては考慮されていない。また、特許文献1に記載の発明では、ユーザの興味や関心の度合いを推定することは提案されていない。   Further, in the invention described in Patent Document 1, an emotional state is analyzed based on a rule that has been created in advance using a common model for all users, and corresponds to individual differences such as biological information. This is not taken into consideration. Further, in the invention described in Patent Document 1, it is not proposed to estimate the user's interest or degree of interest.

本発明は、このような状況に鑑みてなされたものであり、ユーザの負担を増やすことなく、ユーザの感情をより正確に推定できるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to estimate a user's emotion more accurately without increasing the burden on the user.

本発明の第1の側面の感情推定装置は、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得する特徴量取得手段と、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得する入力情報取得手段と、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習する学習手段と、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段とを含む。   The emotion estimation apparatus according to the first aspect of the present invention includes a feature amount acquisition unit that acquires feature amount data indicating a feature amount of a user's state that changes due to the expression of emotion, and when a stimulus is given to the user. Input information acquisition means for acquiring input information intentionally input by the user, information indicating the user's emotion with respect to the stimulus predicted by the input information input by the user, and the input information are associated in advance. Based on the emotion data set and the feature data acquired when the user inputs the input information when the user is given the first stimulus as the stimulus, Learning means for learning a model indicating a relationship between the feature quantity data and the user's emotion; the feature quantity data acquired when a second stimulus is given; and Based on Dell, including an estimation unit for estimating the user's feelings when given the second stimulation.

前記入力情報は、前記第1の刺激を前記ユーザに与える機器への処理の指令を示す情報であるようにすることができる。   The input information may be information indicating a processing command to a device that gives the first stimulus to the user.

前記感情データには、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの興味の程度を示す情報および前記入力情報が予め関連づけられて設定されているようにすることができる。   In the emotion data, information indicating the degree of interest of the user with respect to the stimulus predicted by the input information input by the user and the input information may be set in advance in association with each other. .

前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段をさらに設けるようにすることができる。   Detection means for detecting a feature value of the user's state and outputting the feature value data may be further provided.

前記ユーザに与えられる前記刺激は、前記ユーザに提示される情報であるようにすることができる。   The stimulus given to the user may be information presented to the user.

推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段をさらに設けるようにすることができる。   Information presentation control means for controlling presentation of information recommended to the user can be further provided based on the estimated emotion of the user.

本発明の第1の側面の感情推定方法またはプログラムは、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得し、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定するステップを含む。   The emotion estimation method or program according to the first aspect of the present invention acquires feature amount data indicating a feature amount of a user's state that changes due to the expression of an emotion, and when the user is given a stimulus, Information indicating intention of the user is acquired, and information indicating the user's emotion with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with each other And when the user receives the first stimulus as the stimulus, based on the feature amount data acquired when the user inputs the input information, the feature amount data and the user's Based on the feature amount data acquired when the model indicating the relationship with emotion is learned and the second stimulus is given, and the model, the second stimulus is Comprising the step of estimating the emotion of the user when was e.

本発明の第2の側面の感情推定装置は、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得する特徴量取得手段と、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習する学習手段と、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段とを含む。   An emotion estimation apparatus according to a second aspect of the present invention includes a feature amount acquisition unit that acquires feature amount data indicating a feature amount of a user's state that changes due to expression of emotion, and the user's emotion with respect to a first stimulus. Based on emotion data that is set in advance in association with information indicating and information indicating the first stimulus, and the feature amount data acquired when the first stimulus is given to the user, Based on the learning means for learning a model indicating the relationship between the feature quantity data and the user's emotion, the feature quantity data acquired when a second stimulus is given, and the model, the second Estimating means for estimating the user's emotion when the stimulus is applied.

前記感情データには、前記第1の刺激に対する前記ユーザの興味の程度を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されているようにすることができる。   In the emotion data, information indicating the degree of interest of the user with respect to the first stimulus and information indicating the first stimulus may be set in advance in association with each other.

前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段をさらに設けるようにすることができる。   Detection means for detecting a feature value of the user's state and outputting the feature value data may be further provided.

前記ユーザに与えられる前記第1の刺激または第2の刺激は、前記ユーザに提示される情報であるようにすることができる。   The first stimulus or the second stimulus given to the user may be information presented to the user.

推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段をさらに設けるようにすることができる。   Information presentation control means for controlling presentation of information recommended to the user can be further provided based on the estimated emotion of the user.

本発明の第2の側面の感情推定方法またはプログラムは、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定するステップを含む。   The emotion estimation method or program according to the second aspect of the present invention acquires feature amount data indicating a feature amount of a user's state that changes due to the expression of emotion, information indicating the user's emotion with respect to a first stimulus, and The feature amount based on emotion data in which information indicating the first stimulus is set in advance in association with the feature amount data acquired when the first stimulus is given to the user When learning the model indicating the relationship between the data and the emotion of the user, and applying the second stimulus based on the feature amount data acquired when the second stimulus is applied and the model Estimating the user's emotions.

本発明の第1の側面においては、感情の表出により変化するユーザの状態の特徴量を示す特徴量データが取得され、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報が取得され、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルが学習され、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情が推定される。   In the first aspect of the present invention, feature amount data indicating a feature amount of a user's state that changes due to the expression of emotion is acquired, and when a stimulus is given to the user, the feature amount data is intentionally input by the user. Information indicating the user's emotion with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with the user. When the first stimulus, which is the stimulus, is given, the relationship between the feature amount data and the user's emotion is obtained based on the feature amount data acquired when the user inputs the input information. When the model shown is learned and the second stimulus is given, the feature amount data obtained when the second stimulus is given, and the second stimulus is given based on the model Feelings over The is estimated.

本発明の第2の側面においては、感情の表出により変化するユーザの状態の特徴量を示す特徴量データが取得され、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルが学習され、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情が推定される   In the second aspect of the present invention, feature amount data indicating a feature amount of a user's state that changes due to expression of emotion is acquired, information indicating the user's emotion with respect to the first stimulus, and the first stimulus On the basis of emotion data that is set in advance in association with information indicating the above and the feature amount data acquired when the first stimulus is given to the user. The feature amount data acquired when a model showing a relationship with emotion is learned and a second stimulus is given, and the user's emotion when the second stimulus is given based on the model Is estimated

以上のように、本発明の第1の側面または第2の側面によれば、ユーザの感情を推定することができる。また、本発明の第1の側面または第2の側面によれば、ユーザの負担を増やすことなく、ユーザの感情をより正確に推定することができる。   As described above, according to the first aspect or the second aspect of the present invention, the user's emotion can be estimated. Moreover, according to the 1st side surface or the 2nd side surface of this invention, a user's emotion can be estimated more correctly, without increasing a user's burden.

以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even if there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.

本発明の第1の側面の感情推定装置(例えば、図1のコンテンツ推薦制御部13)は、感情の表出により変化するユーザの状態の特徴量を示す特徴量データ(例えば、特徴ベクトル)を取得する特徴量取得手段(例えば、図2の特徴量取得部102)と、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報(例えば、ユーザ指令情報)を取得する入力情報取得手段(例えば、図2の入力情報取得部101)と、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データ(例えば、図3または図4の感情マップ)と、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデル(例えば、図5の感情判別モデル)を学習する学習手段(例えば、学習部103)と、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段(例えば、推定部104)とを含む。   The emotion estimation apparatus according to the first aspect of the present invention (for example, the content recommendation control unit 13 in FIG. 1) uses feature amount data (for example, a feature vector) indicating the feature amount of the user's state that changes due to the expression of emotion. A feature amount acquisition means to acquire (for example, the feature amount acquisition unit 102 in FIG. 2) and input information (for example, user command information) intentionally input by the user when a stimulus is given to the user Input information acquisition means (for example, the input information acquisition unit 101 in FIG. 2), information indicating the user's feelings with respect to the stimulus predicted by the input information input by the user, and the input information are associated in advance. Emotion data (for example, the emotion map in FIG. 3 or FIG. 4) and the user is given the first stimulus as the stimulus, the user Learning means for learning a model (for example, an emotion discrimination model in FIG. 5) indicating a relationship between the feature amount data and the user's emotion based on the feature amount data acquired when force information is input. For example, based on the learning unit 103), the feature amount data acquired when the second stimulus is given, and the model, the emotion of the user when the second stimulus is given is estimated. And estimation means (for example, the estimation unit 104).

本発明の第1の側面の感情推定装置においては、前記感情データには、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの興味の程度を示す情報(例えば、興味度)および前記入力情報が予め関連づけられて設定されているようにすることができる。   In the emotion estimation apparatus according to the first aspect of the present invention, the emotion data includes information indicating a degree of interest of the user with respect to the stimulus predicted by the input information input by the user (for example, degree of interest). ) And the input information may be set in advance in association with each other.

本発明の第1の側面の感情推定装置は、前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段(例えば、図1のセンサ部41)をさらに含むようにすることができる。   The emotion estimation apparatus according to the first aspect of the present invention further includes detection means (for example, the sensor unit 41 in FIG. 1) that detects a feature amount of the user's state and outputs the feature amount data. Can do.

本発明の第1の側面の感情推定装置は、推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段(例えば、図1の推薦処理制御部43)をさらに含むようにすることができる。   The emotion estimation apparatus according to the first aspect of the present invention is an information presentation control means for controlling presentation of information recommended to the user based on the estimated emotion of the user (for example, the recommendation processing control unit 43 in FIG. 1). ).

本発明の第1の側面の感情推定方法またはプログラムは、感情の表出により変化するユーザの状態の特徴量を示す特徴量データ(例えば、特徴ベクトル)を取得し(例えば、図8のステップS41)、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報(例えば、ユーザ指令情報)を取得し(例えば、図8のステップS42)、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データ(例えば、図3または図4の感情マップ)と、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データ(例えば、図5の感情判別モデル)とに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し(例えば、図8のステップS43、S44、および、図9のステップS61)、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する(例えば、図10のステップS102乃至S105)を含む。   The emotion estimation method or program according to the first aspect of the present invention acquires feature amount data (for example, a feature vector) indicating a feature amount of a user's state that changes due to the expression of emotion (for example, step S41 in FIG. 8). ) When a stimulus is given to the user, input information (for example, user command information) intentionally input by the user is acquired (for example, step S42 in FIG. 8), and the input by the user is performed. Information indicating the user's emotion with respect to the stimulus predicted by the input information and emotion data (for example, the emotion map of FIG. 3 or FIG. 4) set in association with the input information, and the stimulus to the user When the first stimulus is given, the feature amount data acquired when the user inputs the input information (for example, emotion discrimination in FIG. 5) Based on (Dell), a model indicating the relationship between the feature quantity data and the user's emotion is learned (for example, steps S43 and S44 in FIG. 8 and step S61 in FIG. 9). Including estimating the user's emotion when the second stimulus is given based on the feature amount data acquired when given and the model (for example, steps S102 to S105 in FIG. 10) .

本発明の第2の側面の感情推定装置(例えば、図1のコンテンツ推薦制御部13)は、感情の表出により変化するユーザの状態の特徴量を示す特徴量データ(例えば、特徴ベクトル)を取得する特徴量取得手段(例えば、図2の特徴量取得部102)と、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データ(例えば、図11の感情マップ)と、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデル(例えば、図5の感情判別モデル)を学習する学習手段(例えば、学習部103)と、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段例えば、推定部104)とを含む。   The emotion estimation apparatus according to the second aspect of the present invention (for example, the content recommendation control unit 13 in FIG. 1) uses feature amount data (for example, a feature vector) indicating the feature amount of the user's state that changes due to the expression of emotion. Feature amount acquisition means (for example, the feature amount acquisition unit 102 in FIG. 2) to be acquired, information indicating the user's emotion with respect to the first stimulus, and information indicating the first stimulus are set in advance in association with each other. Based on emotion data (for example, the emotion map of FIG. 11) and the feature data acquired when the user is given the first stimulus, the feature data and the user's emotion Learning means (for example, the learning unit 103) for learning a model indicating the relationship (for example, the emotion discrimination model in FIG. 5), the feature amount data acquired when the second stimulus is given, and the model Based on the estimation means estimates the emotion of the user of when given the second stimulus, including, for example, the estimation unit 104) and.

本発明の第2の側面の感情推定装置においては、前記感情データには、前記第1の刺激に対する前記刺激に対する前記ユーザの興味の程度を示す情報(例えば、興味度)および前記第1の刺激を示す情報が予め関連づけられて設定されているようにすることができる。   In the emotion estimation apparatus according to the second aspect of the present invention, the emotion data includes information (for example, degree of interest) indicating the degree of interest of the user with respect to the stimulus with respect to the first stimulus and the first stimulus. Can be set in advance in association with each other.

本発明の第2の側面の感情推定装置は、前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段(例えば、図1のセンサ部41)をさらに含むようにすることができる。   The emotion estimation apparatus according to the second aspect of the present invention further includes detection means (for example, the sensor unit 41 in FIG. 1) that detects a feature amount of the user's state and outputs the feature amount data. Can do.

本発明の第2の側面の感情推定装置は、推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段(例えば、図1の推薦処理制御部43)をさらに含むようにすることができる。   The emotion estimation apparatus according to the second aspect of the present invention is an information presentation control means for controlling presentation of information recommended to the user based on the estimated emotion of the user (for example, the recommendation processing control unit 43 in FIG. 1). ).

本発明の第2の側面の感情推定方法またはプログラムは、感情の表出により変化するユーザの状態の特徴量を示す特徴量データ(例えば、特徴ベクトル)を取得し(例えば、図8のステップS42)、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データ(例えば、図11の感情マップ)と、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデル(例えば、図5の感情判別モデル)を学習し(例えば、図13のステップS223、S224、および、図9のステップS61)、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する(例えば、図10のステップS102乃至S105)ステップを含む。   The emotion estimation method or program according to the second aspect of the present invention acquires feature amount data (for example, feature vector) indicating the feature amount of the user's state that changes due to the expression of emotion (for example, step S42 in FIG. 8). ), Emotion data (for example, the emotion map of FIG. 11) in which information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other, Based on the feature amount data acquired when one stimulus is given, a model (for example, an emotion discrimination model in FIG. 5) showing the relationship between the feature amount data and the user's emotion is learned (for example, For example, based on steps S223 and S224 in FIG. 13 and step S61 in FIG. 9, the feature amount data acquired when the second stimulus is given, and the model , Including the said estimation of the user feelings when given a second stimulus (e.g., step S102 to S105 in FIG. 10) steps.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用したコンテンツ推薦システム1の一実施の形態を示すブロック図である。   FIG. 1 is a block diagram showing an embodiment of a content recommendation system 1 to which the present invention is applied.

コンテンツ推薦システム1は、コンテンツ提示制御部11、リモートコントローラ12、出力部14、および、コンテンツ推薦制御部13を含むように構成される。   The content recommendation system 1 is configured to include a content presentation control unit 11, a remote controller 12, an output unit 14, and a content recommendation control unit 13.

コンテンツ提示制御部11は、リモートコントローラ12を操作することによりユーザにより入力された処理の指令、または、コンテンツ推薦制御部13からの指令などに基づいて、ユーザへのコンテンツの提示を制御する。   The content presentation control unit 11 controls the presentation of content to the user based on a processing command input by the user by operating the remote controller 12 or a command from the content recommendation control unit 13.

なお、コンテンツとは、本明細書においては、例えば、一般的にコンテンツと称されている、テレビジョン放送番組、映画、写真、楽曲等(動画像、静止画像、若しくは音声、または、それらの組み合わせ等)のことである。   In this specification, the content is, for example, a television broadcast program, a movie, a photo, a song, etc. (moving image, still image, audio, or a combination thereof) generally called content. Etc.).

コンテンツ提示制御部11は、コンテンツ受信部21、コンテンツ蓄積部23、メタ情報受信部22、メタ情報蓄積部24、メタ情報抽出部25、コンテンツ再生部26、コンテンツ情報提示部27、および、ユーザ入力取得部28を含むように構成される。   The content presentation control unit 11 includes a content reception unit 21, a content storage unit 23, a meta information reception unit 22, a meta information storage unit 24, a meta information extraction unit 25, a content reproduction unit 26, a content information presentation unit 27, and a user input The acquisition unit 28 is configured to be included.

コンテンツ受信部21は、例えば、図示せぬインターネットなどのネットワークコンテンツ提示制御部11に接続されているサーバ、または、コンテンツ提示制御部11に接続されている図示せぬ外部の情報処理装置などから、映像コンテンツ、音声コンテンツなどのコンテンツを受信する。コンテンツ受信部21は、受信したコンテンツをコンテンツ蓄積部23に蓄積させる。また、コンテンツ受信部21は、受信したコンテンツに、そのコンテンツに関連する情報であるメタ情報が含まれる場合、そのメタ情報をメタ情報受信部22に供給する。   The content receiving unit 21 is, for example, from a server connected to a network content presentation control unit 11 such as the Internet (not shown) or an external information processing device (not shown) connected to the content presentation control unit 11. Receive content such as video content and audio content. The content receiving unit 21 causes the content storage unit 23 to store the received content. In addition, when the received content includes meta information that is information related to the content, the content receiving unit 21 supplies the meta information to the meta information receiving unit 22.

メタ情報受信部22は、コンテンツ受信部21が受信したコンテンツに対応するメタ情報を、例えば、図示せぬインターネットなどのネットワークを介してコンテンツ提示制御部11に接続されているサーバ、または、コンテンツ提示制御部11に接続されている図示せぬ外部の情報処理装置などから受信する。メタ情報受信部22は、受信したメタ情報、または、コンテンツ受信部21から取得したメタ情報をメタ情報蓄積部24に蓄積させる。   The meta information receiving unit 22 displays meta information corresponding to the content received by the content receiving unit 21, for example, a server connected to the content presentation control unit 11 via a network such as the Internet (not shown), or content presentation Received from an external information processing apparatus (not shown) connected to the control unit 11. The meta information receiving unit 22 causes the meta information accumulating unit 24 to accumulate the received meta information or the meta information acquired from the content receiving unit 21.

コンテンツ蓄積部23およびメタ情報蓄積部24は、例えば、ハードディスクなどの記録媒体により構成される。なお、コンテンツ蓄積部23およびメタ情報蓄積部24を、一つの記録媒体により構成するようにしてもいいし、それぞれ異なる記録媒体により構成するようにしてもよい。   The content storage unit 23 and the meta information storage unit 24 are configured by a recording medium such as a hard disk, for example. The content storage unit 23 and the meta information storage unit 24 may be configured by one recording medium, or may be configured by different recording media.

メタ情報抽出部25は、コンテンツ再生部26またはコンテンツ情報提示部27から要求されたメタ情報をメタ情報蓄積部24から読み出し、読み出したメタ情報をコンテンツ再生部26またはコンテンツ情報提示部27に供給する。   The meta information extraction unit 25 reads the meta information requested from the content reproduction unit 26 or the content information presentation unit 27 from the meta information storage unit 24, and supplies the read meta information to the content reproduction unit 26 or the content information presentation unit 27. .

コンテンツ再生部26は、リモートコントローラ12を操作することによりユーザにより入力された処理の指令、または、推薦処理制御部43からの指令などに基づいて、コンテンツ蓄積部23に蓄積されているコンテンツを読み出し、読み出したコンテンツを再生する。コンテンツ再生部26は、コンテンツを再生することにより得られた画像データまたは音声データを出力部14に供給する。また、コンテンツ情報提示部27は、必要に応じて、メタ情報抽出部25から供給されたメタ情報を感情推定部42に供給する。   The content playback unit 26 reads the content stored in the content storage unit 23 based on a processing command input by the user by operating the remote controller 12 or a command from the recommendation processing control unit 43. Play the read content. The content reproduction unit 26 supplies image data or audio data obtained by reproducing the content to the output unit 14. Further, the content information presentation unit 27 supplies the meta information supplied from the meta information extraction unit 25 to the emotion estimation unit 42 as necessary.

コンテンツ情報提示部27は、リモートコントローラ12を操作することによりユーザにより入力された処理の指令などに基づいて、メタ情報抽出部25を介して、メタ情報蓄積部24に蓄積されているコンテンツのメタ情報を読み出し、読み出したメタ情報に基づいて、ユーザにコンテンツを推薦するための推薦情報を提示するための画像データまたは音声データを生成する。コンテンツ情報提示部27は、生成した画像データまたは音声データを出力部14に供給する。また、コンテンツ情報提示部27は、推薦情報を提示したことを通知する情報をコンテンツ再生部26に供給する。さらに、コンテンツ情報提示部27は、必要に応じて、推薦情報の元となるメタ情報を感情推定部42に供給する。   The content information presenting unit 27 performs a meta of content stored in the meta information accumulating unit 24 via the meta information extracting unit 25 based on a processing command input by the user by operating the remote controller 12. Information is read, and based on the read meta information, image data or audio data for presenting recommended information for recommending content to the user is generated. The content information presentation unit 27 supplies the generated image data or audio data to the output unit 14. In addition, the content information presentation unit 27 supplies information notifying that the recommendation information has been presented to the content reproduction unit 26. Furthermore, the content information presentation unit 27 supplies meta information that is the basis of the recommendation information to the emotion estimation unit 42 as necessary.

ユーザ入力取得部28は、リモートコントローラ12を操作することによりユーザにより意図的に入力され、コンテンツ提示制御部11への処理の指令を示す情報(以下、ユーザ指令情報と称する)を、リモートコントローラ12から取得する。ユーザ入力取得部28は、必要に応じて、感情推定部42、コンテンツ再生部26、または、コンテンツ情報提示部27にユーザ指令情報を供給する。   The user input acquisition unit 28 intentionally inputs a user operation by operating the remote controller 12, and indicates information (hereinafter referred to as user command information) indicating a processing command to the content presentation control unit 11. Get from. The user input acquisition unit 28 supplies user command information to the emotion estimation unit 42, the content reproduction unit 26, or the content information presentation unit 27 as necessary.

コンテンツ推薦制御部13は、図6乃至図10を参照して後述するように、ユーザに与えられている刺激(例えば、出力部14に提示されているコンテンツまたは推薦情報など)に対するユーザの感情を推定する。コンテンツ推薦制御部13は、推定結果に基づいて、コンテンツ再生部26を制御して、ユーザに推薦する情報であるコンテンツの提示、または、コンテンツの再生もしくは停止などを制御する。コンテンツ推薦制御部13は、センサ部41、感情推定部42、および、推薦処理制御部43を含むように構成される。   As will be described later with reference to FIGS. 6 to 10, the content recommendation control unit 13 expresses the user's feelings regarding the stimulus given to the user (for example, the content presented on the output unit 14 or recommendation information). presume. Based on the estimation result, the content recommendation control unit 13 controls the content reproduction unit 26 to control the presentation of content, which is information recommended to the user, or the reproduction or stop of the content. The content recommendation control unit 13 is configured to include a sensor unit 41, an emotion estimation unit 42, and a recommendation processing control unit 43.

なお、以下、ユーザの感情を推定するための刺激となる出力部14に提示されるコンテンツまたは推薦情報を、適宜、刺激情報とも称する。また、以下の説明では、主に刺激情報に対するユーザの興味の程度を示す興味度を推定する場合の例について説明する。   Hereinafter, the content or recommendation information presented on the output unit 14 serving as a stimulus for estimating the user's emotion is also referred to as stimulus information as appropriate. Further, in the following description, an example will be described in which the degree of interest indicating the degree of interest of the user with respect to stimulus information is mainly estimated.

センサ部41は、感情の表出により変化するユーザの特徴量を検出する。センサ部41は、検出した特徴量により構成される特徴ベクトルを含む表出情報を感情推定部42に供給する。センサ部41は、画像特徴抽出部51および音声特徴抽出部52を含むように構成される。   The sensor unit 41 detects the feature amount of the user that changes due to the expression of emotion. The sensor unit 41 supplies expression information including a feature vector constituted by the detected feature amount to the emotion estimation unit 42. The sensor unit 41 is configured to include an image feature extraction unit 51 and an audio feature extraction unit 52.

画像特徴抽出部51は、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどを含み、ユーザを撮像し、撮像した画像に基づく画像データを生成する。画像特徴抽出部51は、感情の表出により変化するユーザの状態の特徴量を画像データから抽出(検出)する。画像特徴抽出部51により抽出される特徴量には、例えば、表情、顔の向き、顔の各部の位置、動きまたは形状、視線の位置、顔色、姿勢、身振り、体の各部の位置や動きなどが含まれる。   The image feature extraction unit 51 includes, for example, a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, and the like, captures a user, and generates image data based on the captured image. The image feature extraction unit 51 extracts (detects), from the image data, the feature amount of the user's state that changes due to the expression of emotion. The feature amount extracted by the image feature extraction unit 51 includes, for example, facial expression, face orientation, position of each part, movement or shape, line of sight, face color, posture, gesture, position and movement of each part of the body, etc. Is included.

音声特徴抽出部52は、例えば、マイクロホンなどを含み、ユーザから発せられる音声に基づく音声データを生成する。音声特徴抽出部52は、感情の表出により変化するユーザの状態の特徴量を音声データから抽出(検出)する。音声特徴抽出部52により抽出される特徴量には、例えば、ユーザが発した声の音韻、音質、韻律などが含まれる。   The voice feature extraction unit 52 includes, for example, a microphone, and generates voice data based on the voice emitted from the user. The voice feature extraction unit 52 extracts (detects), from the voice data, the feature amount of the user's state that changes due to the expression of emotion. The feature amount extracted by the speech feature extraction unit 52 includes, for example, the phoneme of the voice uttered by the user, the sound quality, and the prosody.

表出ベクトルに含まれる特徴ベクトルは、画像特徴抽出部51および音声特徴抽出部52により抽出(検出)される特徴量により構成される。なお、センサ部41に、例えば、発汗量、体温、血圧、心拍数など、画像データまたは音声データ以外のデータから抽出されるユーザの状態の特徴量を検出するセンサを設けるようにして、それらのセンサにより検出された特徴量を特徴ベクトルの構成要素(変量)に加えるようにしてもよい。   The feature vector included in the expression vector is composed of feature amounts extracted (detected) by the image feature extraction unit 51 and the audio feature extraction unit 52. The sensor unit 41 is provided with sensors for detecting feature quantities of the user's state extracted from data other than image data or audio data such as sweat volume, body temperature, blood pressure, heart rate, etc. You may make it add the feature-value detected by the sensor to the component (variable) of a feature vector.

感情推定部42は、図6乃至図13を参照して後述するように、出力部14に提示されている刺激情報に対するユーザの感情を推定する。感情推定部42は、推定した結果を示すデータを推薦処理制御部43に供給する。   As will be described later with reference to FIGS. 6 to 13, the emotion estimation unit 42 estimates a user's emotion for the stimulus information presented in the output unit 14. The emotion estimation unit 42 supplies data indicating the estimation result to the recommendation processing control unit 43.

推薦処理制御部43は、図10を参照して後述するように、ユーザの感情に基づいて、コンテンツ再生部26を制御して、ユーザに推薦する情報であるコンテンツの提示、または、コンテンツの再生もしくは停止などを制御する。   As will be described later with reference to FIG. 10, the recommendation processing control unit 43 controls the content reproduction unit 26 based on the user's emotion, and presents content that is recommended to the user or reproduces the content. Or stop is controlled.

出力部14は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などのディスプレイ、並びにスピーカなどで構成され、コンテンツ再生部26またはコンテンツ情報提示部27から供給される画像データに基づく画像を表示したり、コンテンツ再生部26またはコンテンツ情報提示部27から供給される音声データに基づく音声を出力する。   The output unit 14 includes, for example, a display such as a CRT (Cathode Ray Tube) or LCD (Liquid Crystal Display), a speaker, and the like, and an image based on image data supplied from the content reproduction unit 26 or the content information presentation unit 27. Is displayed, or audio based on audio data supplied from the content reproduction unit 26 or the content information presentation unit 27 is output.

図2は、図1の感情推定部42の詳細を示すブロック図である。感情推定部42は、入力情報取得部101、特徴量取得部102、学習部103、推定部104、感情マップ蓄積部105、表出−感情データ蓄積部106、および、感情判別モデル蓄積部107を含むように構成される。   FIG. 2 is a block diagram showing details of the emotion estimation unit 42 of FIG. The emotion estimation unit 42 includes an input information acquisition unit 101, a feature amount acquisition unit 102, a learning unit 103, an estimation unit 104, an emotion map storage unit 105, an expression-emotion data storage unit 106, and an emotion discrimination model storage unit 107. Configured to include.

入力情報取得部101は、ユーザ入力取得部28からユーザ指令情報を取得する。また、入力情報取得部101は、コンテンツ再生部26またはコンテンツ情報提示部27からコンテンツのメタ情報を取得する。入力情報取得部101は、取得したユーザ指令情報、または、メタ情報を感情検出部111に供給する。   The input information acquisition unit 101 acquires user command information from the user input acquisition unit 28. Further, the input information acquisition unit 101 acquires meta information of content from the content reproduction unit 26 or the content information presentation unit 27. The input information acquisition unit 101 supplies the acquired user command information or meta information to the emotion detection unit 111.

特徴量取得部102は、センサ部41から表出情報を取得する。特徴量取得部102は、表出情報に含まれる特徴ベクトルを示す情報をデータ収集部112またはマッチング部121に供給する。   The feature amount acquisition unit 102 acquires expression information from the sensor unit 41. The feature amount acquisition unit 102 supplies information indicating the feature vector included in the expression information to the data collection unit 112 or the matching unit 121.

学習部103は、図6乃至図9または図11乃至図13を参照して後述するように、感情の表出により変化するユーザの状態を示す特徴ベクトルとユーザの感情との関係を示し、ユーザの感情を判別するために用いられる感情判別モデルを学習する。学習部103は、感情検出部111、データ収集部112、および、感情判別モデル学習部113を含むように構成される。   As will be described later with reference to FIG. 6 to FIG. 9 or FIG. 11 to FIG. 13, the learning unit 103 indicates the relationship between the feature vector indicating the user state that changes due to the expression of emotion and the user's emotion. Learn the emotion discrimination model used to discriminate emotions. The learning unit 103 is configured to include an emotion detection unit 111, a data collection unit 112, and an emotion discrimination model learning unit 113.

感情検出部111は、図8または図13を参照して後述するように、感情マップ蓄積部105に蓄積されている感情マップ、および、ユーザ指令情報またはメタ情報に基づいて、ユーザに提示されている刺激情報に対するユーザの感情を検出する。感情検出部111は、検出した感情を通知する情報をデータ収集部112に供給する。   As will be described later with reference to FIG. 8 or FIG. 13, the emotion detection unit 111 is presented to the user based on the emotion map stored in the emotion map storage unit 105 and the user command information or meta information. The user's emotion for the stimulus information is detected. The emotion detection unit 111 supplies information for notifying the detected emotion to the data collection unit 112.

図3は、感情マップの例を示す図である。図3の感情マップには、ユーザにより入力されるユーザ指令情報により示される指令内容により予測される刺激情報に対するユーザの興味度を示す情報と、指令内容とが予め関連づけられて設定されている。すなわち、図3の感情マップには、ユーザに刺激情報が提示された場合に、刺激情報をユーザに提示する(与える)コンテンツ提示制御部11に、ユーザが意図的に入力する情報であるユーザ指令情報の指令内容により予測される、刺激情報に対するユーザの興味度が設定されている。   FIG. 3 is a diagram illustrating an example of an emotion map. In the emotion map of FIG. 3, information indicating the degree of interest of the user with respect to stimulus information predicted by the command content indicated by the user command information input by the user and the command content are set in advance in association with each other. That is, in the emotion map of FIG. 3, when the stimulus information is presented to the user, the user command that is information that the user intentionally inputs to the content presentation control unit 11 that presents (gives) the stimulus information to the user. The degree of interest of the user with respect to the stimulus information, which is predicted based on the command content of the information, is set.

例えば、図3の感情マップでは、ユーザがコンテンツの再生を指令した場合、そのコンテンツに対して興味が高いと予測されるため、興味度は+1に設定されている。また、ユーザがコンテンツの再生の早送りを指令した場合、再生中のコンテンツに対する興味が薄いと予測されるため、興味度は−1に設定されている。さらに、ユーザがコンテンツの再生途中に再生の停止を指令したり、再生のスキップを指令した場合、再生中のコンテンツに対する興味がさらに薄いと予測されるため、興味度は−2に設定されている。   For example, in the emotion map of FIG. 3, when the user commands the reproduction of the content, it is predicted that the content is highly interested, so the degree of interest is set to +1. Also, when the user commands fast-forwarding of content playback, it is predicted that the user is not interested in the content being played back, so the degree of interest is set to -1. Furthermore, when the user commands the stop of playback during the playback of the content or commands the skip of the playback, it is predicted that the user is less interested in the content being played back, so the degree of interest is set to -2. .

図4は、感情マップの他の例を示す図である。図3に示される感情マップでは、指令内容が単発のものに限られていたのに対し、図4に示される感情マップでは、指令内容が複数の指令を時系列に並べたものとされている。   FIG. 4 is a diagram illustrating another example of the emotion map. In the emotion map shown in FIG. 3, the command content is limited to a single one, whereas in the emotion map shown in FIG. 4, the command content is a plurality of commands arranged in time series. .

例えば、図4の感情マップでは、ユーザがコンテンツの再生を指令した後、30秒以内にコンテンツの再生のスキップを指令した場合、再生した部分に対する興味が薄いと予測されるため、興味度は−1に設定されている。また、ユーザがコンテンツの再生を指令した後、30秒以内にコンテンツの再生のスキップを2回繰り返して指令した場合、再生した部分に対する興味がさらに薄いと予測されるため、興味度は−3に設定されている。さらに、ユーザがコンテンツの再生を指令した後、そのまま終了まで再生した場合、そのコンテンツに対する興味が高いと予測されるため、興味度は+1に設定されている。また、ユーザがコンテンツの再生のスキップを指令した後、スキップした先のコンテンツの再生を指令し、30秒以上経過した場合、スキップした先のコンテンツに対する興味が高いと予測されるため、興味度は+2に設定されている。   For example, in the emotion map of FIG. 4, if the user commands the reproduction of the content and commands the skipping of the reproduction of the content within 30 seconds, it is predicted that the interest in the reproduced portion is low. 1 is set. In addition, when the user instructs to reproduce the content and repeats the instruction to skip the reproduction of the content twice within 30 seconds, it is predicted that the interest in the reproduced portion is further less. Is set. Further, when the user instructs the reproduction of the content and then plays it to the end as it is, it is predicted that the content is highly interested, so the degree of interest is set to +1. In addition, after the user commands the skip of content playback, if the user commands the playback of the skipped content, and 30 seconds or more have passed, the interest in the skipped content is predicted to be high. It is set to +2.

なお、図3または図4に示される感情マップは、例えば、予め行われる他の学習処理になどにより生成される。また、興味度以外の感情(例えば、喜怒哀楽、または、個々の感情の程度など)を示す情報を感情マップに設定するようにしてもよい。また、指令内容以外の、刺激情報が提示された場合にユーザにより意図的に入力される情報(例えば、問いかけに対するユーザの応答内容を示す情報など)を感情マップに設定するようにしてもよい。   Note that the emotion map shown in FIG. 3 or 4 is generated by, for example, other learning processing performed in advance. Further, information indicating emotions other than the degree of interest (for example, emotions or the degree of individual emotions) may be set in the emotion map. In addition, information that is intentionally input by the user when stimulus information other than the command content is presented (for example, information indicating the content of the user's response to the question) may be set in the emotion map.

データ収集部112は、特徴量取得部102から供給される特徴ベクトルを示す情報を表出−感情データ蓄積部106に一時的に記憶させる。データ収集部112は、ユーザの感情を示すデータを感情検出部111から取得した場合、直前の所定の時間(例えば、30秒)(以下、判別時間と称する)内に取得し、表出−感情データ蓄積部106に蓄積されている特徴ベクトルを時系列に並べたデータ(以下、特徴ベクトル群と称する)と、通知された感情とを関連づけた表出−感情データを生成する。すなわち、表出−感情データは、ユーザに与えられた刺激情報に対するユーザの感情と、そのときのユーザの状態を示す特徴ベクトル群とを関連づけたデータである。なお、図3または図4の感情マップを用いる場合、表出−感情デ−タは、特徴ベクトル群とユーザの興味度が関連づけられたデータとなる。データ収集部112は、生成した表出−感情データを表出−感情データ蓄積部106に蓄積させる。また、データ収集部112は、表出−感情データの蓄積量が所定の閾値を超えた場合、そのことを通知する情報を感情判別モデル学習部113に供給する。   The data collection unit 112 temporarily stores information indicating the feature vector supplied from the feature amount acquisition unit 102 in the expression-emotion data storage unit 106. When the data collection unit 112 acquires data indicating the user's emotion from the emotion detection unit 111, the data collection unit 112 acquires the data within a predetermined time (for example, 30 seconds) (hereinafter referred to as a determination time) immediately before the expression-emotion. Expression-emotional data is generated in which data in which the feature vectors stored in the data storage unit 106 are arranged in time series (hereinafter referred to as a feature vector group) and the notified emotion are associated with each other. In other words, the expression-emotion data is data in which a user's emotion with respect to stimulus information given to the user is associated with a feature vector group indicating the user's state at that time. When the emotion map of FIG. 3 or FIG. 4 is used, the expression-emotion data is data in which the feature vector group is associated with the degree of interest of the user. The data collection unit 112 accumulates the generated expression-emotion data in the expression-emotion data storage unit 106. In addition, when the accumulated amount of the expression-emotion data exceeds a predetermined threshold value, the data collection unit 112 supplies information that notifies the emotion discrimination model learning unit 113.

感情判別モデル学習部113は、図9を参照して後述するように、表出−感情データ蓄積部106に蓄積されている表出−感情データを分析することにより、感情判別モデルを学習する。感情判別モデル学習部113は、学習した感情判別モデルを示すデータを感情判別モデル蓄積部107に蓄積させる。また、感情判別モデル学習部113は、特徴ベクトルを主成分ベクトルに変換するための変換ベクトルを示すデータをマッチング部121に供給する。   As will be described later with reference to FIG. 9, the emotion discrimination model learning unit 113 learns an emotion discrimination model by analyzing the expression-emotion data stored in the expression-emotion data storage unit 106. The emotion discrimination model learning unit 113 causes the emotion discrimination model accumulation unit 107 to accumulate data indicating the learned emotion discrimination model. In addition, the emotion discrimination model learning unit 113 supplies the matching unit 121 with data indicating a conversion vector for converting the feature vector into the principal component vector.

図5は、図3または図4の感情マップを用いた場合に学習される感情判別モデルの例を示す図である。図5の感情判別モデルには、主成分ベクトル群と推定興味度とが関連づけられて設定されている。主成分ベクトルは、表出−感情データの特徴ベクトル群に含まれる特徴ベクトルの各変量を、主成分分析により主成分に変換したベクトル(以下、主成分ベクトルと称する)により構成されるベクトル群であり、推定興味度は、表出−感情データにおいて変換前の特徴ベクトル群に対応づけられていた興味度に基づいて設定される情報である。すなわち、図5感情判別モデルは、ユーザの状態を示す特徴量とユーザの感情(興味度)を示すモデルである。   FIG. 5 is a diagram showing an example of an emotion discrimination model learned when the emotion map of FIG. 3 or FIG. 4 is used. In the emotion discrimination model of FIG. 5, a principal component vector group and an estimated interest level are set in association with each other. The principal component vector is a vector group composed of vectors (hereinafter referred to as principal component vectors) obtained by converting each variable of the feature vector included in the feature vector group of the expression-emotional data into principal components by principal component analysis. The estimated degree of interest is information set based on the degree of interest associated with the feature vector group before conversion in the expression-emotion data. That is, the emotion discrimination model in FIG. 5 is a model that indicates a feature amount indicating the user's state and the user's emotion (degree of interest).

なお、興味度以外の感情を示す情報が感情マップに設定されている場合、感情判別モデルの推定興味度の代わりに、それらの感情に基づく情報が設定される。   When information indicating emotions other than the interest level is set in the emotion map, information based on those emotions is set instead of the estimated interest level of the emotion discrimination model.

推定部104は、図10を参照して後述するように、ユーザに提示されている刺激情報に対するユーザの感情を推定する。推定部104は、推定した結果を通知する情報を推薦処理制御部43に供給する。推定部104は、マッチング部121および感情出力部122を含むように構成される。   As will be described later with reference to FIG. 10, the estimation unit 104 estimates the user's emotion for the stimulus information presented to the user. The estimation unit 104 supplies information for notifying the estimation result to the recommendation processing control unit 43. The estimation unit 104 is configured to include a matching unit 121 and an emotion output unit 122.

マッチング部121は、図10を参照して後述するように、特徴量取得部102から供給される特徴ベクトルを主成分ベクトルに変換する。マッチング部121は、判別時間内の主成分ベクトルを時系列に並べた主成分ベクトル群と一致するベクトル群を感情判別モデルの中から検索する。マッチング部121は、主成分ベクトルと一致するベクトル群を検出した場合、そのベクトル群に対応するユーザの感情(図5の例の場合、推定興味度)を通知する情報を感情出力部122に供給する。   The matching unit 121 converts the feature vector supplied from the feature amount acquisition unit 102 into a principal component vector, as will be described later with reference to FIG. The matching unit 121 searches the emotion discrimination model for a vector group that matches the principal component vector group in which the principal component vectors within the discrimination time are arranged in time series. When the matching unit 121 detects a vector group that matches the principal component vector, the matching unit 121 supplies the emotion output unit 122 with information for notifying the user's emotion corresponding to the vector group (in the case of FIG. 5, the estimated interest level). To do.

感情出力部122は、必要に応じて、マッチング部121により推定されたユーザの感情を通知する情報を推薦処理制御部43に供給する。   The emotion output unit 122 supplies information for notifying the user's emotion estimated by the matching unit 121 to the recommendation processing control unit 43 as necessary.

感情マップ蓄積部105、表出−感情データ蓄積部106、および、感情判別モデル蓄積部107は、例えば、ハードディスクなどの記録媒体により構成される。なお、感情マップ蓄積部105、表出−感情データ蓄積部106、および、感情判別モデル蓄積部107を、一つの記録媒体により構成するようにしてもいいし、それぞれ異なる記録媒体により構成するようにしてもよい。   The emotion map storage unit 105, the expression-emotion data storage unit 106, and the emotion discrimination model storage unit 107 are configured by a recording medium such as a hard disk, for example. The emotion map storage unit 105, the expression-emotion data storage unit 106, and the emotion discrimination model storage unit 107 may be configured by one recording medium, or may be configured by different recording media. May be.

次に、図6乃至図13を参照して、コンテンツ推薦システム1の処理を説明する。なお、上述したように、以下の説明では、ユーザの興味度を推定する場合の例について説明する。   Next, processing of the content recommendation system 1 will be described with reference to FIGS. As described above, in the following description, an example in which the user's interest level is estimated will be described.

まず、図6のフローチャートを参照して、コンテンツ推薦システム1により実行される学習処理を説明する。   First, the learning process executed by the content recommendation system 1 will be described with reference to the flowchart of FIG.

ステップS1において、感情推定部42は、表出−感情データ蓄積処理を実行する。表出−感情データ蓄積処理の詳細は、図7を参照して後述するが、この処理により、表出−感情データが蓄積される。   In step S <b> 1, the emotion estimation unit 42 executes the expression-emotion data accumulation process. Details of the expression-emotion data accumulation process will be described later with reference to FIG. 7, but the expression-emotion data is accumulated by this process.

ステップS2において、データ収集部112は、表出−感情データの蓄積量が閾値を超えたか否かを判定する。表出−感情データの蓄積量が閾値を超えていないと判定された場合、処理はステップS1に戻り、ステップS2において、表出−感情データの蓄積量が閾値を超えたと判定されるまで、ステップS1およびS2の処理が繰り返し実行される。すなわち、表出−感情データが閾値を超えるまで蓄積される。   In step S <b> 2, the data collection unit 112 determines whether or not the amount of expression-emotion data accumulated exceeds a threshold value. If it is determined that the accumulated amount of the expression-emotional data does not exceed the threshold value, the process returns to step S1 until the determination is made that the accumulated amount of the expressed-emotional data exceeds the threshold value in step S2. The processes of S1 and S2 are repeatedly executed. That is, the expression-emotion data is accumulated until the threshold value is exceeded.

ステップS2において、表出−感情データの蓄積量が閾値を超えたと判定された場合、処理はステップS3に進む。   If it is determined in step S2 that the accumulated amount of the expression-emotional data exceeds the threshold, the process proceeds to step S3.

ステップS3において、感情判別モデル学習部113は、感情判別モデル学習処理を実行する。感情判別モデル学習処理の詳細は、図9を参照して後述するが、この処理により、表出−感情データに基づいて、感情判別モデルが学習される。   In step S3, the emotion discrimination model learning unit 113 executes an emotion discrimination model learning process. The details of the emotion discrimination model learning process will be described later with reference to FIG. 9. By this process, the emotion discrimination model is learned based on the expression-emotion data.

ステップS4において、感情推定部42は、図10を参照して後述するコンテンツ自動再生制御処理を開始して、学習処理は終了する。   In step S4, the emotion estimation unit 42 starts a content automatic reproduction control process described later with reference to FIG. 10, and the learning process ends.

次に、図7を参照して、図6のステップS1の表出−感情データ蓄積処理の詳細を説明する。   Next, with reference to FIG. 7, the details of the expression-emotion data accumulation process in step S1 of FIG. 6 will be described.

ステップS21において、コンテンツ情報提示部27は、ユーザに推薦情報を提示する。具体的には、コンテンツ情報提示部27は、メタ情報抽出部25を介して、メタ情報蓄積部24から、ユーザに推薦するコンテンツのメタ情報を読み出す。コンテンツ情報提示部27は、読み出したメタ情報に基づいて、ユーザに推薦するコンテンツに関する情報、すなわち、推薦情報を提示するための画像データおよび音声データを生成する。コンテンツ情報提示部27は、生成した画像データおよび音声データを出力部14に供給する。出力部14は、画像データに基づく画像を表示し、音声データに基づく音声を出力する。すなわち、刺激情報としてのコンテンツの推薦情報がユーザに提示される。   In step S21, the content information presentation unit 27 presents recommendation information to the user. Specifically, the content information presentation unit 27 reads meta information of content recommended to the user from the meta information storage unit 24 via the meta information extraction unit 25. Based on the read meta information, the content information presentation unit 27 generates information related to content recommended to the user, that is, image data and audio data for presenting the recommendation information. The content information presentation unit 27 supplies the generated image data and audio data to the output unit 14. The output unit 14 displays an image based on the image data and outputs sound based on the sound data. That is, content recommendation information as stimulus information is presented to the user.

ユーザに提示される推薦情報は、例えば、推薦するコンテンツのタイトル、ジャンル、概要、出演者、制作日時、再生時間などを含む。また、推薦するコンテンツは、例えば、メタ情報蓄積部24にメタ情報が蓄積されているコンテンツの中からランダムに選択するようにしてもよいし、先に学習されているユーザの嗜好情報に基づいて、ユーザの嗜好に適したコンテンツを選択するようにしてもよい。   The recommendation information presented to the user includes, for example, the title, genre, outline, performer, production date / time, and reproduction time of the recommended content. In addition, the recommended content may be selected at random from the content in which the meta information is stored in the meta information storage unit 24, or based on the user's preference information learned in advance. The content suitable for the user's preference may be selected.

ステップS22において、データ収集部112は、表出−感情データ追加処理を実行する。表出−感情データ追加処理の詳細は、図4を参照して後述するが、この処理により、新たな表出−感情データが蓄積される。   In step S <b> 22, the data collection unit 112 executes the expression-emotion data addition process. Details of the expression-emotion data addition process will be described later with reference to FIG. 4, but new expression-emotion data is accumulated by this process.

次に、図8を参照して、図7のステップS22の表出−感情データ追加処理の詳細を説明する。   Next, with reference to FIG. 8, the details of the expression-emotion data addition process in step S22 of FIG. 7 will be described.

ステップS41において、データ収集部112は、特徴ベクトルの蓄積を開始する。具体的には、特徴量取得部102は、画像特徴抽出部51により抽出されたユーザの特徴量、および、音声特徴抽出部52により抽出されたユーザの特徴量により構成される特徴ベクトルを含む表出情報をセンサ部41から取得する。特徴量取得部102は、取得した表出情報に含まれる特徴量ベクトルを示すデータをデータ収集部112に供給する。データ収集部112は、取得した特徴ベクトルを示すデータの表出−感情データ蓄積部106への蓄積を開始する。   In step S41, the data collection unit 112 starts accumulation of feature vectors. Specifically, the feature amount acquisition unit 102 is a table including a feature vector composed of the user feature amount extracted by the image feature extraction unit 51 and the user feature amount extracted by the audio feature extraction unit 52. Out information is acquired from the sensor unit 41. The feature amount acquisition unit 102 supplies data indicating the feature amount vector included in the acquired expression information to the data collection unit 112. The data collection unit 112 starts accumulation of data indicating the acquired feature vector in the expression-emotion data accumulation unit 106.

ステップS42において、ユーザ入力取得部28は、ユーザにより処理の指令が入力されたか否かを判定する。ユーザ入力取得部28は、ユーザがリモートコントローラ12を操作して入力した処理の指令を示すユーザ指令情報をリモートコントローラ12から取得した場合、ユーザにより処理の指令が入力されたと判定し、処理はステップS43に進む。   In step S42, the user input acquisition unit 28 determines whether or not a processing command is input by the user. The user input acquisition unit 28 determines that the process command is input by the user when the user command information indicating the process command input by operating the remote controller 12 by the user is acquired from the remote controller 12. Proceed to S43.

ステップS43において、感情検出部111は、ユーザの感情を検出する。具体的には、ユーザ入力取得部28は、コンテンツ再生部26、コンテンツ情報提示部27、および、感情検出部111にユーザ指令情報を供給する。コンテンツ再生部26、または、コンテンツ情報提示部27は、ユーザ指令情報に示される指令内容に基づいて、所定の処理を開始する。例えば、推薦情報により推薦されているコンテンツの再生がユーザにより指令された場合、コンテンツ再生部26は、再生が指令されたコンテンツをコンテンツ蓄積部23から読み出す。コンテンツ再生部26は、読み出したコンテンツを再生することにより得られた画像データおよび音声データを出力部14に供給する。出力部14は、画像データに基づく画像、すなわち、ユーザに推薦されたコンテンツの画像を表示し、音声データに基づく音声、すなわち、ユーザに推薦されたコンテンツの音声を出力する。   In step S43, the emotion detection unit 111 detects the user's emotion. Specifically, the user input acquisition unit 28 supplies user command information to the content reproduction unit 26, the content information presentation unit 27, and the emotion detection unit 111. The content reproduction unit 26 or the content information presentation unit 27 starts predetermined processing based on the command content indicated in the user command information. For example, when the user instructs the reproduction of the content recommended by the recommendation information, the content reproduction unit 26 reads the content instructed to reproduce from the content storage unit 23. The content reproduction unit 26 supplies image data and audio data obtained by reproducing the read content to the output unit 14. The output unit 14 displays an image based on image data, that is, an image of content recommended to the user, and outputs audio based on the audio data, that is, audio of content recommended to the user.

感情検出部111は、感情マップ蓄積部105に蓄積されている感情マップの中から、ユーザ指令情報に示される指令内容に対応する興味度を検出する。このとき検出される興味度は、ユーザに提示されている刺激情報、すなわち、推薦情報またはコンテンツに対するユーザの興味度を示している。感情検出部111は、検出した興味度を通知する情報をデータ収集部112に供給する。   The emotion detection unit 111 detects an interest level corresponding to the command content indicated in the user command information from the emotion maps stored in the emotion map storage unit 105. The degree of interest detected at this time indicates the degree of interest of the user with respect to stimulus information presented to the user, that is, recommendation information or content. The emotion detection unit 111 supplies information for notifying the detected degree of interest to the data collection unit 112.

ステップS44において、データ収集部112は、表出−感情データを蓄積する。具体的には、データ収集部112は、表出−感情データ蓄積部106に蓄積されている特徴ベクトルのうち、直前の判別時間内に蓄積された特徴ベクトルを時系列に並べた特徴ベクトル群と、通知された興味度とを関連づけた表出−感情データを生成する。すなわち、このとき生成される表出−感情データは、刺激情報に対するユーザの状態を示す特徴ベクトル群と、刺激情報に対するユーザの興味度を関連づけたデータである。データ収集部112は、生成した表出−感情データをメタ情報蓄積部24に蓄積させる。   In step S44, the data collection unit 112 accumulates the expression-emotional data. Specifically, the data collection unit 112 includes a feature vector group in which feature vectors accumulated in the immediately previous discrimination time among the feature vectors accumulated in the expression-emotion data accumulation unit 106 are arranged in time series. Then, the expression-emotion data in association with the notified interest level is generated. That is, the expression-emotion data generated at this time is data in which the feature vector group indicating the user's state with respect to the stimulus information is associated with the degree of interest of the user with respect to the stimulus information. The data collection unit 112 stores the generated expression-emotion data in the meta information storage unit 24.

その後、処理はステップS42に戻る。   Thereafter, the process returns to step S42.

ステップS42において、ユーザにより処理の指令が入力されていないと判定された場合、処理はステップS45に進む。   If it is determined in step S42 that the user has not input a processing instruction, the process proceeds to step S45.

ステップS45において、コンテンツ再生部26は、コンテンツの再生が終了したか否かを判定する。コンテンツ再生部26は、推薦情報が提示されてから所定の時間が経過していない場合、コンテンツが再生中の場合、または、コンテンツの再生が停止されてから所定の時間が経過していない場合、コンテンツの再生が終了していないと判定し、処理はステップS42に戻る。   In step S45, the content reproduction unit 26 determines whether or not the reproduction of the content has ended. When the predetermined time has not elapsed since the recommendation information was presented, when the content is being reproduced, or when the predetermined time has not elapsed since the reproduction of the content was stopped, It is determined that the content reproduction has not ended, and the process returns to step S42.

その後、ステップS45において、コンテンツの再生が終了したと判定されるまで、ステップS42乃至S45の処理が繰り返し実行され、ユーザが処理の指令を入力する度に、表出−感情データが蓄積される。   Thereafter, in step S45, the processes in steps S42 to S45 are repeatedly executed until it is determined that the reproduction of the content is completed, and the expression-emotional data is accumulated every time the user inputs a process command.

ステップS45において、コンテンツ再生部26は、推薦情報が提示されてから所定の時間が経過してもコンテンツの再生が行われない場合、または、コンテンツの再生が停止されてから所定の時間が経過した場合、コンテンツの再生が終了したと判定し、処理はステップS46に進む。   In step S45, the content reproduction unit 26 determines that the content has not been reproduced even after a predetermined time has elapsed since the recommendation information was presented, or the predetermined time has elapsed since the content reproduction was stopped. In this case, it is determined that the reproduction of the content has ended, and the process proceeds to step S46.

ステップS46において、データ収集部112は、表出−感情データ蓄積部106への特徴ベクトルの蓄積を停止し、表出−感情データ追加処理は終了する。   In step S46, the data collection unit 112 stops the accumulation of feature vectors in the expression-emotion data storage unit 106, and the expression-emotion data addition process ends.

次に、図9のフローチャートを参照して、図6のステップS3の感情判別モデル学習処理の詳細を説明する。   Next, details of the emotion discrimination model learning process in step S3 in FIG. 6 will be described with reference to the flowchart in FIG.

ステップS61において、感情判別モデル学習部113は、表出−感情データに基づいて、感情判別モデルを学習し、感情判別モデル学習処理は終了する。具体的には、データ収集部112は、表出−感情データの蓄積量が閾値を超えたことを通知する情報を感情判別モデル学習部113に供給する。   In step S61, the emotion discrimination model learning unit 113 learns an emotion discrimination model based on the expression-emotion data, and the emotion discrimination model learning process ends. Specifically, the data collection unit 112 supplies the emotion determination model learning unit 113 with information that notifies that the accumulated amount of the expression-emotion data exceeds the threshold value.

感情判別モデル学習部113は、表出−感情データ蓄積部106に蓄積されている表出−感情データを読み出す。感情判別モデル学習部113は、表出−感情データに含まれる特徴ベクトルを主成分分析することにより、特徴ベクトルの主成分を求める。感情判別モデル学習部113は、表出−感情データに含まれる各特徴ベクトルについて、各特徴ベクトルの各変量を主成分に変換した主成分ベクトルを算出する。また、感情判別モデル学習部113は、表出−感情データの興味度を推定興味度に変換する。推定興味度は、例えば、興味度が所定の閾値(例えば、0)以上である場合、興味ありに設定され、閾値未満である場合、興味なしに設定される。   The emotion discrimination model learning unit 113 reads the expression-emotion data stored in the expression-emotion data storage unit 106. The emotion discrimination model learning unit 113 obtains the principal component of the feature vector by performing principal component analysis on the feature vector included in the expression-emotional data. The emotion discrimination model learning unit 113 calculates, for each feature vector included in the expression-emotion data, a principal component vector obtained by converting each variable of each feature vector into a principal component. In addition, the emotion discrimination model learning unit 113 converts the interest level of the expression-emotion data into the estimated interest level. The estimated interest level is set to be interesting when the interest level is equal to or greater than a predetermined threshold (for example, 0), and is set to no interest when the degree of interest is less than the threshold.

感情判別モデル学習部113は、各表出−感情データの特徴ベクトル群と興味度の組み合わせを、主成分ベクトル群と推定興味度の組み合わせに変換したデータにより構成される感情判別モデル(図5)を生成する。なお、このとき、互いに距離が近い主成分ベクトル群を一つのベクトル群に統合したり、他の主成分ベクトル群から孤立している(所定の閾値より距離が離れている)主成分ベクトル群を削除するようにしてもよい。   The emotion discrimination model learning unit 113 is an emotion discrimination model composed of data obtained by converting a combination of a feature vector group and an interest level of each expression-emotion data into a combination of a principal component vector group and an estimated interest level (FIG. 5). Is generated. At this time, a principal component vector group that is close to each other is integrated into one vector group, or a principal component vector group that is isolated from another principal component vector group (distance away from a predetermined threshold) It may be deleted.

感情判別モデル学習部113は、感情判別モデルを示すデータを感情判別モデル蓄積部107に蓄積させる。また、感情判別モデル学習部113は、特徴ベクトルを主成分ベクトルに変換するための変換ベクトルを示すデータをマッチング部121に供給する。   The emotion discrimination model learning unit 113 causes the emotion discrimination model accumulation unit 107 to accumulate data indicating the emotion discrimination model. In addition, the emotion discrimination model learning unit 113 supplies the matching unit 121 with data indicating a conversion vector for converting the feature vector into the principal component vector.

次に、図10のフローチャートを参照して、図6の学習処理に引き続いて行われるコンテンツ自動再生制御処理を説明する。   Next, the content automatic reproduction control process performed subsequent to the learning process of FIG. 6 will be described with reference to the flowchart of FIG.

ステップS101において、図4のステップS21の処理と同様に、ユーザに推薦情報が提示される。   In step S101, the recommendation information is presented to the user as in the process of step S21 of FIG.

ステップS102において、マッチング部121は、特徴量ベクトルを取得する。具体的には、マッチング部121は、センサ部41から供給される表出情報に含まれる特徴量ベクトルを示すデータを特徴量取得部102から取得する。   In step S102, the matching unit 121 acquires a feature amount vector. Specifically, the matching unit 121 acquires data indicating the feature amount vector included in the expression information supplied from the sensor unit 41 from the feature amount acquisition unit 102.

ステップS103において、マッチング部121は、マッチング処理を行う。具体的には、マッチング部121は、ユーザに推薦情報が提示されてから判別時間内の特徴ベクトルを主成分ベクトルに変換し、変換した主成分ベクトルを時系列に並べた主成分ベクトル群(以下、入力主成分ベクトル群と称する)を生成する。マッチング部121は、感情判別モデル蓄積部107に蓄積されている感情判別モデルを示すデータを読み出す。マッチング部121は、感情判別モデルに含まれる各主成分ベクトル群について、入力主成分ベクトル群との相関をそれぞれ求める。例えば、マッチング部121は、感情判別モデルに含まれる主成分ベクトル群と入力主成分ベクトル群とについて、先頭の主成分ベクトルから順番に対応する主成分ベクトル間の相関係数を算出し、算出した相関係数の和を求める。   In step S103, the matching unit 121 performs a matching process. Specifically, the matching unit 121 converts a feature vector within a determination time after recommendation information is presented to the user into a principal component vector, and a principal component vector group (hereinafter, referred to as a time series) of the converted principal component vectors. , Referred to as an input principal component vector group). The matching unit 121 reads data indicating the emotion discrimination model accumulated in the emotion discrimination model accumulation unit 107. The matching unit 121 obtains a correlation between each principal component vector group included in the emotion discrimination model and the input principal component vector group. For example, the matching unit 121 calculates the correlation coefficient between the principal component vectors corresponding to the principal component vector in order from the head principal component vector for the principal component vector group and the input principal component vector group included in the emotion discrimination model. Find the sum of correlation coefficients.

ステップS104において、マッチング部121は、一致する主成分ベクトル群があるか否かを判定する。具体的には、マッチング部121は、ステップS103において算出した入力主成分ベクトル群に対する感情判別モデルに含まれる各主成分ベクトル群の相関係数の和のうちの最大値が所定の閾値を超える場合、入力主成分ベクトル群と一致する主成分ベクトル群が感情判別モデルにあると判定し、処理はステップS105に進む。なお、感情判別モデルに含まれる主成分ベクトル群のうち、入力主成分ベクトル群との相関計数の和が最大となる主成分ベクトル群は、ステップS101において提示された推薦情報に対するユーザの状態と最も近い状態を示す主成分ベクトル群である。   In step S104, the matching unit 121 determines whether there is a matching principal component vector group. Specifically, the matching unit 121 determines that the maximum value among the sums of correlation coefficients of the principal component vector groups included in the emotion discrimination model for the input principal component vector group calculated in step S103 exceeds a predetermined threshold value. Then, it is determined that there is a principal component vector group that matches the input principal component vector group in the emotion discrimination model, and the process proceeds to step S105. Of the principal component vector groups included in the emotion discrimination model, the principal component vector group that maximizes the sum of the correlation coefficients with the input principal component vector group is the user state corresponding to the recommendation information presented in step S101. It is a principal component vector group indicating a close state.

ステップS105において、マッチング部121は、推薦したコンテンツにユーザが興味を持っているか否かを判定する。具体的には、マッチング部121は、入力主成分ベクトル群との相関計数の和が最大となる主成分ベクトル群に対応する推定興味度が興味ありに設定されている場合、推薦したコンテンツにユーザが興味を持っていると判定し、処理はステップS106に進む。   In step S105, the matching unit 121 determines whether the user is interested in the recommended content. Specifically, the matching unit 121 determines that the estimated interest level corresponding to the principal component vector group that maximizes the sum of the correlation coefficients with the input principal component vector group is set to be interesting when the estimated content of interest is set to the user. Is determined to be interested, and the process proceeds to step S106.

ステップS106において、推薦処理制御部43は、コンテンツを自動再生させる。具体的には、マッチング部121は、推薦したコンテンツにユーザが興味を持っていることを示す情報を、感情出力部122を介して推薦処理制御部43に供給する。推薦処理制御部43は、推薦したコンテンツの再生を指令する情報をコンテンツ再生部26に供給する。コンテンツ再生部26は、再生が指令されたコンテンツをコンテンツ蓄積部23から読み出す。コンテンツ再生部26は、読み出したコンテンツを再生することにより得られた画像データおよび音声データを出力部14に供給する。出力部14は、画像データに基づく画像、すなわち、ユーザに推薦したコンテンツの画像を表示し、音声データに基づく音声、すなわち、ユーザに推薦したコンテンツの音声を出力する。   In step S106, the recommendation processing control unit 43 automatically reproduces the content. Specifically, the matching unit 121 supplies information indicating that the user is interested in the recommended content to the recommendation processing control unit 43 via the emotion output unit 122. The recommendation processing control unit 43 supplies information for instructing reproduction of the recommended content to the content reproduction unit 26. The content playback unit 26 reads the content for which playback has been commanded from the content storage unit 23. The content reproduction unit 26 supplies image data and audio data obtained by reproducing the read content to the output unit 14. The output unit 14 displays an image based on image data, that is, an image of content recommended to the user, and outputs audio based on the audio data, that is, audio of content recommended to the user.

ステップS105において、入力主成分ベクトル群との相関計数の和が最大となる主成分ベクトル群に対応する推定興味度が興味なしに設定されている場合、推薦したコンテンツにユーザが興味を持っていないと判定され、ステップS106の処理はスキップされ、コンテンツの自動再生は行われずに、処理はステップS107に進む。   In step S105, if the estimated interest level corresponding to the principal component vector group having the maximum correlation coefficient with the input principal component vector group is set to be uninteresting, the user is not interested in the recommended content. The process of step S106 is skipped, the content is not automatically reproduced, and the process proceeds to step S107.

ステップS104において、一致する主成分ベクトル群がないと判定された場合、すなわち、現在のユーザの状態を示す主成分ベクトル群と一致する主成分ベクトル群が感情判別モデルになく、推薦したコンテンツに対するユーザの興味度を推定できない場合、ステップS105およびS106の処理はスキップされ、処理はステップS107に進む。   If it is determined in step S104 that there is no matching principal component vector group, that is, there is no principal component vector group that matches the principal component vector group indicating the current user state in the emotion discrimination model, and the user for the recommended content If the degree of interest cannot be estimated, the processes of steps S105 and S106 are skipped, and the process proceeds to step S107.

ステップS107において、図8を参照して上述した表出−感情データ追加処理が実行され、コンテンツ自動再生制御処理は終了する。これにより、学習処理が終了し、コンテンツ自動再生制御処理が開始された後も、ユーザにコンテンツが推薦される度に、表出−感情データが蓄積される。そして、蓄積された表出−感情データに基づいて、新たに学習処理を実行することにより、感情推定部42が推定するユーザの興味度の信頼度をより高いものにすることができる。   In step S107, the expression-emotion data addition process described above with reference to FIG. 8 is executed, and the content automatic reproduction control process ends. Thus, even after the learning process is finished and the automatic content reproduction control process is started, the expression-emotional data is accumulated every time the content is recommended to the user. And the reliability of the user's interest degree which the emotion estimation part 42 estimates can be made higher by performing a learning process newly based on the accumulated expression-emotion data.

以上のようにして、学習期間中に刺激情報を提示したときに検出されるユーザの状態に基づいて学習された感情判別モデルを用いて、ユーザの興味度を推定することにより、刺激情報に対する各個人の反応の違いに応じて、より正確にユーザの興味度を推定することができる。また、感情判別モデルの学習をするにあたり、ユーザは特別な対応をする必要がないため、ユーザの負担は増加しない。また、ユーザが興味を持っていると判定された場合、推薦されたコンテンツが自動的に再生されるため、ユーザの利便性が向上する。   As described above, by using the emotion discrimination model learned based on the user's state detected when the stimulus information is presented during the learning period, each user's interest level is estimated by estimating the user's degree of interest. The degree of interest of the user can be estimated more accurately according to the difference in individual responses. In addition, when learning the emotion discrimination model, the user does not need to take a special action, so the burden on the user does not increase. In addition, when it is determined that the user is interested, the recommended content is automatically reproduced, so that convenience for the user is improved.

なお、以上の説明では、処理の指令を入力したときのユーザの状態を検出することにより、ユーザの状態と興味度との関係を学習する例を示したが、ユーザに与える刺激の内容に対するユーザの状態を検出することにより、ユーザの状態と興味度との関係を学習するようにすることも可能である。なお、以下、ユーザに与える刺激の内容に対するユーザの状態を検出することによるユーザの状態と興味度との関係の学習を、刺激対応学習と称する。   In the above description, an example is shown in which the relationship between the user state and the degree of interest is learned by detecting the user state when a processing command is input. It is also possible to learn the relationship between the user's state and the degree of interest by detecting the state. Hereinafter, learning of the relationship between the user state and the degree of interest by detecting the user state with respect to the content of the stimulus given to the user is referred to as stimulus correspondence learning.

図11乃至図13を参照して、刺激対応学習をする場合のコンテンツ推薦システム1の処理を説明する。   With reference to FIGS. 11 to 13, processing of the content recommendation system 1 in the case of performing stimulus correspondence learning will be described.

図11は、刺激対応学習をする場合に用いられる感情マップの例を示している。図11の感情マップには、ユーザに与えられる刺激に対するユーザの興味度を示す情報および刺激の内容を示す情報が予め関連づけられて設定されている。感情マップに設定される刺激内容には、タレントの名前、楽曲名、番組名、ジャンル名(例えば、スポーツ、ニュースなど)など、ユーザに与える刺激の特徴を示すデータが含まれる。例えば、図11の感情マップでは、タレントAに対してユーザの興味が非常に高いため、興味度は+3に設定されている。また、楽曲Bに対してユーザの興味が高いため、興味度は+1に設定されている。さらに、番組Cに対してユーザの興味がかなり高いため、興味度は+2に設定されている。また、ジャンルDに対してユーザの興味がかなり低いため、興味度は−2に設定されている。   FIG. 11 shows an example of an emotion map used in the case of stimulating correspondence learning. In the emotion map of FIG. 11, information indicating the degree of interest of the user with respect to the stimulus given to the user and information indicating the content of the stimulus are set in advance in association with each other. The stimulus content set in the emotion map includes data indicating the characteristics of the stimulus given to the user, such as the name of the talent, the name of the song, the program name, and the genre name (eg, sports, news, etc.). For example, in the emotion map of FIG. 11, since the user is very interested in the talent A, the degree of interest is set to +3. Further, since the user is highly interested in the music B, the degree of interest is set to +1. Further, since the user is very interested in the program C, the degree of interest is set to +2. Also, since the user's interest in the genre D is very low, the interest level is set to -2.

なお、図11に示される感情マップは、例えば、予め行われる他の学習処理、または、ユーザに対するアンケートなどにより生成される。   Note that the emotion map shown in FIG. 11 is generated by, for example, another learning process performed in advance or a questionnaire for the user.

次に、図12および図13のフローチャートを参照して、刺激対応学習をする場合に、コンテンツ推薦システム1により実行される処理を説明する。   Next, processing executed by the content recommendation system 1 in the case of performing stimulus correspondence learning will be described with reference to the flowcharts of FIGS. 12 and 13.

刺激対応学習をする場合の学習処理は、図6を参照して説明した学習処理と同様なので、その説明は省略する。   The learning process in the case of performing stimulus correspondence learning is the same as the learning process described with reference to FIG.

次に、図12を参照して、刺激対応学習する場合の図6のステップS1の表出−感情データ蓄積処理を説明する。   Next, with reference to FIG. 12, the expression-emotion data accumulation process in step S1 of FIG.

ステップS201において、図7のステップS21の処理と同様に、ユーザに推薦情報が提示される。なお、このとき、コンテンツ情報提示部27は、推薦情報の元となるメタ情報を、入力情報取得部101を介して感情検出部111に供給する。   In step S201, recommendation information is presented to the user in the same manner as in step S21 of FIG. At this time, the content information presentation unit 27 supplies the meta information that is the basis of the recommendation information to the emotion detection unit 111 via the input information acquisition unit 101.

ステップS202において、データ収集部112は、表出−感情データ追加処理を実行する。表出−感情データ追加処理の詳細は、図13を参照して後述するが、この処理により、新たな表出−感情データが蓄積される。   In step S <b> 202, the data collection unit 112 executes an expression-emotion data addition process. Details of the expression-emotion data addition process will be described later with reference to FIG. 13, but new expression-emotion data is accumulated by this process.

次に、図13を参照して、図12のステップS202の表出−感情データ追加処理の詳細を説明する。   Next, with reference to FIG. 13, the details of the expression-emotional data adding process in step S202 of FIG. 12 will be described.

なお、表出−感情データ追加処理の実行中に、ユーザがリモートコントローラ12を操作して処理の指令を入力し、リモートコントローラ12から、ユーザ入力取得部28を介して、コンテンツ再生部26またはコンテンツ情報提示部27に、ユーザ指令情報が供給された場合、コンテンツ再生部26またはコンテンツ情報提示部27は、ユーザ指令情報に示される指令内容に基づいて、所定の処理を開始する。   During the execution of the expression-emotion data addition process, the user operates the remote controller 12 to input a process command, and the content playback unit 26 or content from the remote controller 12 via the user input acquisition unit 28. When user command information is supplied to the information presentation unit 27, the content reproduction unit 26 or the content information presentation unit 27 starts a predetermined process based on the command content indicated in the user command information.

例えば、推薦情報により推薦されているコンテンツの再生がユーザにより指令された場合、コンテンツ再生部26は、再生が指令されたコンテンツをコンテンツ蓄積部23から読み出す。コンテンツ再生部26は、読み出したコンテンツを再生することにより得られた画像データおよび音声データを出力部14に供給する。出力部14は、画像データに基づく画像、すなわち、ユーザに推薦されたコンテンツの画像を表示し、音声データに基づく音声、すなわち、ユーザに推薦されたコンテンツの音声を出力する。また、コンテンツ再生部26は、メタ情報抽出部25を介して、再生するコンテンツのメタ情報をメタ情報蓄積部24から読み出す。コンテンツ再生部26は、コンテンツの再生中、再生している場面に対応するメタ情報を、入力情報取得部101を介して感情検出部111に適宜供給する。   For example, when the user instructs the reproduction of the content recommended by the recommendation information, the content reproduction unit 26 reads the content instructed to reproduce from the content storage unit 23. The content reproduction unit 26 supplies image data and audio data obtained by reproducing the read content to the output unit 14. The output unit 14 displays an image based on image data, that is, an image of content recommended to the user, and outputs audio based on the audio data, that is, audio of content recommended to the user. In addition, the content reproduction unit 26 reads the meta information of the content to be reproduced from the meta information storage unit 24 via the meta information extraction unit 25. The content reproduction unit 26 appropriately supplies meta information corresponding to the scene being reproduced to the emotion detection unit 111 via the input information acquisition unit 101 during the reproduction of the content.

ステップS221において、図8のステップS41の処理と同様に、特徴ベクトルの蓄積が開始される。   In step S221, as in the process of step S41 of FIG. 8, accumulation of feature vectors is started.

ステップS222において、感情検出部111は、ユーザに所定の刺激が与えられたか否かを判定する。具体的には、ユーザに推薦情報が提示されている場合、感情検出部111は、コンテンツ情報提示部27から供給されたメタ情報の中に、感情マップに定義されている刺激内容が含まれているか否かを判定する。メタ情報の中に感情マップに定義されている刺激内容が含まれている場合、感情検出部111は、ユーザに所定の刺激が与えられたと判定し、処理はステップS223に進む。   In step S222, the emotion detection unit 111 determines whether a predetermined stimulus is given to the user. Specifically, when the recommendation information is presented to the user, the emotion detection unit 111 includes the stimulus content defined in the emotion map in the meta information supplied from the content information presentation unit 27. It is determined whether or not. If the stimulus information defined in the emotion map is included in the meta information, the emotion detection unit 111 determines that a predetermined stimulus is given to the user, and the process proceeds to step S223.

また、コンテンツを再生中の場合、感情検出部111は、コンテンツ再生部26から供給された、現在再生しているコンテンツの場面に対応するメタ情報の中に、感情マップに定義されている刺激内容が含まれているか否かを判定する。メタ情報の中に感情マップに定義されている刺激内容が含まれている場合、ユーザに所定の刺激が与えられたと判定し、処理はステップS223に進む。   In addition, when the content is being played back, the emotion detection unit 111 supplies the stimulus content defined in the emotion map in the meta information corresponding to the scene of the content currently being played, supplied from the content playback unit 26. Whether or not is included is determined. When the stimulus information defined in the emotion map is included in the meta information, it is determined that a predetermined stimulus is given to the user, and the process proceeds to step S223.

ステップS223において、感情検出部111は、ユーザの感情を検出する。具体的には、感情検出部111は、ステップS222において、感情マップに定義されていると判定された刺激内容に対応する興味度を、感情マップの中から検出する。感情検出部111は、検出した興味度を通知する情報をデータ収集部112に供給する。このとき検出される興味度は、ユーザに提示されている刺激情報、すなわち、推薦情報またはコンテンツに対するユーザの興味度を示している。   In step S223, the emotion detection unit 111 detects the user's emotion. Specifically, the emotion detection unit 111 detects the degree of interest corresponding to the stimulus content determined to be defined in the emotion map in step S222 from the emotion map. The emotion detection unit 111 supplies information for notifying the detected degree of interest to the data collection unit 112. The degree of interest detected at this time indicates the degree of interest of the user with respect to stimulus information presented to the user, that is, recommendation information or content.

ステップS224において、図8のステップS43の処理と同様に、表出−感情データが蓄積される。   In step S224, the expression-emotion data is accumulated as in the process of step S43 of FIG.

その後、処理はステップS222に戻る。   Thereafter, the process returns to step S222.

ステップS222において、ユーザに推薦情報が提示されている場合、コンテンツ情報提示部27から供給されたメタ情報の中に、感情マップに定義されている刺激内容が含まれていないとき、感情検出部111は、ユーザに所定の刺激が与えられていないと判定し、処理はステップS225に進む。また、コンテンツを再生中の場合、コンテンツ再生部26から供給されたメタ情報の中に感情マップに定義されている刺激内容が含まれていないとき、感情検出部111は、ユーザに所定の刺激が与えられていないと判定し、処理はステップS225に進む。   In step S222, when the recommendation information is presented to the user, when the stimulus information defined in the emotion map is not included in the meta information supplied from the content information presentation unit 27, the emotion detection unit 111 is displayed. Determines that the predetermined stimulus is not given to the user, and the process proceeds to step S225. In addition, when the content is being played back, when the stimulus information defined in the emotion map is not included in the meta information supplied from the content playback unit 26, the emotion detection unit 111 causes the user to receive a predetermined stimulus. It is determined that it has not been given, and the process proceeds to step S225.

ステップS225において、上述した図8のステップS45の処理と同様に、コンテンツの再生が終了したか否かが判定される。コンテンツの再生が終了していないと判定された場合、処理はステップS222に戻る。   In step S225, it is determined whether or not the reproduction of the content has been completed, similar to the process in step S45 of FIG. 8 described above. If it is determined that the content reproduction has not ended, the process returns to step S222.

その後、ステップS225において、コンテンツの再生が終了したと判定されるまで、ステップS222乃至S225の処理が繰り返し実行され、感情マップに定義されている刺激内容を含むコンテンツの場面がユーザに提示される度に、表出−感情データが蓄積される。   Thereafter, until it is determined in step S225 that the reproduction of the content has been completed, the processing in steps S222 to S225 is repeatedly executed, and the scene of the content including the stimulus content defined in the emotion map is presented to the user. In addition, the expression-emotion data is accumulated.

ステップS225において、コンテンツの再生が終了したと判定された場合、処理はステップS226に進む。   If it is determined in step S225 that the content reproduction has ended, the process proceeds to step S226.

ステップS226において、上述した図13のステップS46の処理と同様に、特徴ベクトルの蓄積が終了され、表出−感情データ追加処理は終了する。   In step S226, similar to the process of step S46 of FIG. 13 described above, the accumulation of feature vectors is terminated, and the expression-emotion data addition process is terminated.

刺激対応学習をする場合の図6のステップS3の感情判別モデル学習処理は、図9を参照して説明した感情判別モデル学習処理と同様なので、その説明は省略する。すなわち、図11に示される感情マップに基づく表出−感情デ−タに基づいて、図5に示される感情判別モデルが学習される。   The emotion discrimination model learning process in step S3 of FIG. 6 in the case of performing stimulus correspondence learning is the same as the emotion discrimination model learning process described with reference to FIG. That is, the emotion discrimination model shown in FIG. 5 is learned based on the expression-emotion data based on the emotion map shown in FIG.

このようにして、図6乃至図10を参照して上述した処理と同様に、感情判別モデルを学習することができる。また、学習された感情判別モデルを用いることにより、感情マップに定義されていない刺激内容に対するユーザの興味度も正確に推定することができる。   In this manner, the emotion discrimination model can be learned in the same manner as the processing described above with reference to FIGS. Further, by using the learned emotion discrimination model, it is possible to accurately estimate the user's degree of interest with respect to the stimulus content not defined in the emotion map.

以上のように、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、ユーザに刺激が与えられた場合、ユーザにより意図的に入力される入力情報を取得し、ユーザにより入力される入力情報により予測される刺激に対するユーザの感情を示す情報および入力情報が予め関連づけられて設定されている感情データと、ユーザに刺激である第1の刺激が与られた場合、ユーザが入力情報を入力したときに取得される特徴量データとに基づいて、特徴量データとユーザの感情との関係を示すモデルを学習し、第2の刺激を与えた場合に取得される特徴量データ、および、モデルに基づいて、第2の刺激を与えた場合のユーザの感情を推定する場合には、ユーザの感情を推定することができる。また、ユーザの負担を増やすことなく、ユーザの感情をより正確に推定することができる。   As described above, the feature amount data indicating the feature amount of the user state that changes due to the expression of emotion is acquired, and when the user is given a stimulus, the input information intentionally input by the user is acquired, When the first stimulus that is the stimulus is given to the user and the emotion data that is set in association with the information indicating the user's emotion with respect to the stimulus predicted by the input information input by the user and the input information, Features acquired when learning a model indicating the relationship between the feature data and the user's emotion based on the feature data acquired when the user inputs input information, and applying a second stimulus When estimating the user's emotion when the second stimulus is applied based on the quantity data and the model, the user's emotion can be estimated. Moreover, a user's emotion can be estimated more correctly, without increasing a user's burden.

また、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、第1の刺激に対するユーザの感情を示す情報および第1の刺激を示す情報が予め関連づけられて設定されている感情データと、ユーザに第1の刺激が与えられた場合に取得される特徴量データとに基づいて、特徴量データとユーザの感情との関係を示すモデルを学習し、第2の刺激を与えた場合に取得される特徴量データ、および、モデルに基づいて、第2の刺激を与えた場合のユーザの感情を推定する場合には、ユーザの感情を推定することができる。また、ユーザの負担を増やすことなく、ユーザの感情をより正確に推定することができる。   Further, feature amount data indicating the feature amount of the user's state that changes due to the expression of emotion is acquired, and information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other. Based on the sentiment data and the feature data acquired when the first stimulus is given to the user, a model indicating the relationship between the feature data and the user's emotion is learned, and the second stimulus In the case where the user's emotion when the second stimulus is applied is estimated based on the feature amount data acquired when the second stimulus is applied and the model, the user's emotion can be estimated. Moreover, a user's emotion can be estimated more correctly, without increasing a user's burden.

なお、以上の説明では、推定されたユーザの興味度を用いて、コンテンツを自動再生する例について説明したが、その他の処理を自動化することも可能である。例えば、コンテンツの再生中に、ユーザの興味度が低いと推定された場合、コンテンツの再生を自動的に停止するようにしてもよい。また、例えば、テレビジョン放送の番組を視聴中に、ユーザの興味度が低いと推定された場合、裏番組に自動的に切替えたり、HDD(ハードディスク)やDVD(Digital Versatile Disc)などの記録媒体に記録されているコンテンツの再生に自動的に切替えるようにしてもよい。さらに、コンテンツがテキスト情報の場合、ユーザの興味度が高いと推定された場合、さらに詳細な情報をユーザに提示するようにしてもよい。これらにより、ユーザの利便性が向上する。   In the above description, an example in which content is automatically reproduced using the estimated degree of interest of the user has been described. However, other processes can be automated. For example, when it is estimated that the degree of interest of the user is low during the reproduction of the content, the reproduction of the content may be automatically stopped. Also, for example, when it is estimated that the user's degree of interest is low while watching a television broadcast program, the program is automatically switched to the back program, or a recording medium such as an HDD (hard disk) or DVD (Digital Versatile Disc) It is also possible to automatically switch to playback of the content recorded in Furthermore, when the content is text information, more detailed information may be presented to the user when the degree of interest of the user is estimated to be high. As a result, user convenience is improved.

また、例えば、ペット用のロボットなどに用いられる会話システムに本発明を適用して、ユーザの興味度に応じて、会話を継続したり、停止したり、話題を変更したりするようにしてもよい。これにより、ユーザを飽きさせずに楽しませることができる。   Further, for example, the present invention is applied to a conversation system used for a pet robot or the like, and the conversation is continued, stopped, or the topic is changed according to the degree of interest of the user. Good. Thereby, it is possible to entertain the user without getting bored.

さらに、表出−感情データに設定する興味度を、感情マップ以外の情報を用いて設定するようにしてもよい。例えば、推薦するコンテンツが音楽である場合、再生している音楽のリズムやビートを音楽特徴解析により解析するとともに、ユーザの体の一部の揺れを検出するようにして、音楽のリズムまたはビートとユーザの体の一部の揺れとの同調度を求める。そして、音楽のリズムまたはビートとユーザの体の一部の揺れとが同調している場合、そのときのユーザの興味度をより高く(例えば、+5に)設定するようにすることが可能である。   Furthermore, you may make it set the interest degree set to expression-emotion data using information other than an emotion map. For example, if the recommended content is music, the rhythm or beat of the music being played is analyzed by music feature analysis, and the rhythm or beat of the music is detected by detecting the shaking of a part of the user's body. The degree of synchronization with shaking of a part of the user's body is obtained. When the rhythm or beat of the music is synchronized with the shaking of a part of the user's body, the user's interest at that time can be set higher (for example, to +5). .

また、図5の感情判別モデルの推定興味度を興味あり、興味なしの2値ではなく、興味度をそのまま用いるようにしたり、推定興味度の取りうる離散値の数を増やしたり、または、推定興味度を連続量にしたりして、ユーザの興味度をより詳細に推定できるようにしてもよい。   Further, the estimated interest degree of the emotion discrimination model in FIG. 5 is not the binary value of interest and not interested, but the interest degree is used as it is, or the number of discrete values that the estimated interest degree can take is increased or estimated. The degree of interest may be a continuous amount or the user's degree of interest may be estimated in more detail.

さらに、以上の説明では、興味度を推定する例について説明したが、興味度以外の感情(例えば、喜怒哀楽、または、個々の感情の程度など)を推定するようにしてもよい。この場合、例えば、図3、図4、または図11に示される感情マップに、興味度以外の感情を設定することにより実現することができる。また、興味度を用いた場合と同様に、各種の推薦処理や自動処理などに推定されたユーザの感情を利用することができる。   Furthermore, in the above description, an example of estimating the degree of interest has been described. However, emotions other than the degree of interest (for example, emotions, degrees of individual emotions, etc.) may be estimated. In this case, for example, it can be realized by setting an emotion other than the degree of interest in the emotion map shown in FIG. 3, FIG. 4, or FIG. Similarly to the case of using the degree of interest, it is possible to use the user's emotion estimated for various types of recommendation processing and automatic processing.

また、以上の説明では、リモートコントローラ12を操作して、処理の指令を入力する例について説明したが、処理の指令を入力する方法は、特定の方法に限定されるものではない。例えば、音声入力やジェスチャーなどにより処理の指令を入力するようにしたり、コンテンツ提示制御部11に設けられている図示せぬボタン、スイッチなどを操作して処理の指令を入力するようにすることも可能である。   In the above description, an example in which a processing command is input by operating the remote controller 12 is described. However, a method of inputting a processing command is not limited to a specific method. For example, a processing command may be input by voice input or a gesture, or a processing command may be input by operating a button or switch (not shown) provided in the content presentation control unit 11. Is possible.

さらに、処理の指令以外の、ユーザが刺激情報に対して意図的に入力する情報を用いて、感情判別モデルを学習するようにすることもできる。例えば、ユーザに現在の感情を問いかけて、それに対する回答、および、回答したときに得られる特徴ベクトルに基づいて、感情判別モデルを学習することができる。   Furthermore, the emotion discrimination model can be learned using information that the user intentionally inputs to the stimulus information other than the processing command. For example, an emotion discrimination model can be learned on the basis of a feature vector obtained when a user is asked about the current emotion and an answer is given to the user.

また、図5に示される感情判別モデルの代わりに、例えば、検出されたユーザの特徴量と興味度の関係を線形または非線型の関数により表し、関数計算によりユーザの興味度を算出するようにしてもよい。   Further, instead of the emotion discrimination model shown in FIG. 5, for example, the relationship between the detected feature quantity of the user and the degree of interest is represented by a linear or nonlinear function, and the degree of interest of the user is calculated by function calculation. May be.

さらに、コンテンツの再生中に検出される興味度を加算していくことにより、コンテンツ単位の興味度を求めることができる。求めたコンテンツ単位の興味度は、コンテンツのメタ情報などと関連づけるなどして、コンテンツ単位のユーザの嗜好の学習に利用するようにすることもできる。   Furthermore, the interest level in units of content can be obtained by adding the interest levels detected during the reproduction of the content. The obtained interest level of the content unit can be used for learning the user preference of the content unit by associating it with the meta information of the content.

また、以上の説明では、ユーザに与える刺激として、コンテンツの推薦情報またはコンテンツを提示する例について説明したが、例えば、各種の商品、飲食店のメニュー、各種のパンフレットなどコンテンツ以外の刺激を与えるようにしてもよい。例えば、コンテンツ以外の刺激を与えた場合のユーザの状態、および、ユーザにより意図的に入力される入力情報を取得し、予め準備されている感情マップを用いて、感情判別モデルを学習することができる。   In the above description, examples of presenting content recommendation information or content as a stimulus to be given to the user have been described. However, for example, various products, restaurant menus, various pamphlets, and the like may be given. It may be. For example, it is possible to acquire a user's state when a stimulus other than content is given and input information intentionally input by the user and learn an emotion discrimination model using an emotion map prepared in advance. it can.

なお、本発明は、上述したコンテンツなどの情報をユーザに推薦するシステム以外にも、ユーザの感情を用いて処理を制御する装置、例えば、ユーザの感情に反応するペット型ロボット、ユーザの感情を利用してストーリー等を切替えるゲーム機器またはソフトウエアなどに適用することができる。   In addition to the system for recommending information such as the content described above to the user, the present invention is a device that controls processing using the user's emotion, for example, a pet robot that reacts to the user's emotion, the user's emotion It can be applied to game machines or software that switch stories and the like.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図14は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)901は、ROM(Read Only Memory)902、または記録部908に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が実行するプログラムやデータなどが適宜記憶される。これらのCPU901、ROM902、およびRAM903は、バス904により相互に接続されている。   FIG. 14 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 901 executes various processes according to a program stored in a ROM (Read Only Memory) 902 or a recording unit 908. A RAM (Random Access Memory) 903 appropriately stores programs executed by the CPU 901, data, and the like. The CPU 901, ROM 902, and RAM 903 are connected to each other by a bus 904.

CPU901にはまた、バス904を介して入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907が接続されている。CPU901は、入力部906から入力される指令に対応して各種の処理を実行する。そして、CPU901は、処理の結果を出力部907に出力する。   An input / output interface 905 is also connected to the CPU 901 via the bus 904. The input / output interface 905 is connected to an input unit 906 made up of a keyboard, mouse, microphone, etc., and an output unit 907 made up of a display, a speaker, etc. The CPU 901 executes various processes in response to a command input from the input unit 906. Then, the CPU 901 outputs the processing result to the output unit 907.

入出力インタフェース905に接続されている記録部908は、例えばハードディスクからなり、CPU901が実行するプログラムや各種のデータを記憶する。通信部909は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The recording unit 908 connected to the input / output interface 905 includes, for example, a hard disk, and stores programs executed by the CPU 901 and various data. A communication unit 909 communicates with an external device via a network such as the Internet or a local area network.

また、通信部909を介してプログラムを取得し、記録部908に記憶してもよい。   Further, the program may be acquired via the communication unit 909 and stored in the recording unit 908.

入出力インタフェース905に接続されているドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部908に転送され、記憶される。   A drive 910 connected to the input / output interface 905 drives a removable medium 911 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to and stored in the recording unit 908 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図14に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911、または、プログラムが一時的もしくは永続的に格納されるROM902や、記録部908を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部909を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 14, a program recording medium that stores a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 911 which is a package medium composed of a semiconductor memory, a ROM 902 in which a program is temporarily or permanently stored, and a recording unit 908 It is comprised by the hard disk etc. which comprise. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 909 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

本発明を適用したコンテンツ推薦システムの一実施の形態を示すブロック図である。It is a block diagram which shows one Embodiment of the content recommendation system to which this invention is applied. 図1の感情推定部の構成の一実施の形態を示すブロック図である。It is a block diagram which shows one Embodiment of a structure of the emotion estimation part of FIG. 感情マップの例を示す図である。It is a figure which shows the example of an emotion map. 感情マップの他の例を示す図である。It is a figure which shows the other example of an emotion map. 感情判別モデルの例を示す図である。It is a figure which shows the example of an emotion discrimination | determination model. 図1のコンテンツ推薦システムにより実行される学習処理を説明するためのフローチャートである。It is a flowchart for demonstrating the learning process performed by the content recommendation system of FIG. 図6のステップS1の表出−感情データ蓄積処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the expression-emotional data accumulation | storage process of step S1 of FIG. 図6のステップS22の表出−感情データ追加処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the expression-emotional data addition process of step S22 of FIG. 図6のステップS3の感情判別モデル学習処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the emotion discrimination | determination model learning process of step S3 of FIG. 図1のコンテンツ推薦システムにより実行されるコンテンツ自動再生制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the content automatic reproduction | regeneration control processing performed by the content recommendation system of FIG. 感情マップのさらに他の例を示す図である。It is a figure which shows the further another example of an emotion map. 図6のステップS1の表出−感情データ蓄積処理の他の例の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the other example of the expression-emotional data accumulation | storage process of step S1 of FIG. 図12のステップS202の表出−感情データ追加処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of the expression-emotional data addition process of step S202 of FIG. パーソナルコンピュータの構成の例を示すブロック図である。And FIG. 11 is a block diagram illustrating an example of a configuration of a personal computer.

符号の説明Explanation of symbols

1 コンテンツ推薦システム, 11 リモートコントローラ, 12 コンテンツ提示制御部, 13 コンテンツ推薦制御部, 14 出力部, 25 メタ情報抽出部, 26 コンテンツ再生部, 27 コンテンツ情報提示部, 28 ユーザ入力取得部, 41 センサ部, 42 感情推定部, 43 推薦処理制御部, 101 入力情報取得部, 102 特徴量取得部, 103 学習部, 104 推定部, 111 感情検出部, 112 データ収集部, 113 感情判別モデル学習部, 121 マッチング部, 122 感情出力部, 901 CPU, 902 ROM, 903 RAM, 908 記録部, 910 ドライブ, 911 リムーバブルメディア   DESCRIPTION OF SYMBOLS 1 Content recommendation system, 11 Remote controller, 12 Content presentation control part, 13 Content recommendation control part, 14 Output part, 25 Meta information extraction part, 26 Content reproduction part, 27 Content information presentation part, 28 User input acquisition part, 41 Sensor Unit, 42 emotion estimation unit, 43 recommendation processing control unit, 101 input information acquisition unit, 102 feature quantity acquisition unit, 103 learning unit, 104 estimation unit, 111 emotion detection unit, 112 data collection unit, 113 emotion discrimination model learning unit, 121 matching unit, 122 emotion output unit, 901 CPU, 902 ROM, 903 RAM, 908 recording unit, 910 drive, 911 removable media

Claims (16)

感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得する特徴量取得手段と、
前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得する入力情報取得手段と、
前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習する学習手段と、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段と
を含む感情推定装置。
Feature quantity acquisition means for acquiring feature quantity data indicating a feature quantity of a user's state that changes due to the expression of emotion;
Input information acquisition means for acquiring input information intentionally input by the user when a stimulus is given to the user;
Information indicating the emotion of the user with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with the user, and the first that is the stimulus to the user Learning means for learning a model indicating a relationship between the feature amount data and the user's emotion based on the feature amount data acquired when the user inputs the input information when a stimulus is given When,
An emotion estimation apparatus comprising: estimation means for estimating the emotion of the user when the second stimulus is applied based on the feature amount data acquired when the second stimulus is applied and the model; .
前記入力情報は、前記第1の刺激を前記ユーザに与える機器への処理の指令を示す情報である
請求項1に記載の感情推定装置。
The emotion estimation apparatus according to claim 1, wherein the input information is information indicating a processing instruction to a device that gives the user the first stimulus.
前記感情データには、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの興味の程度を示す情報および前記入力情報が予め関連づけられて設定されている
請求項1に記載の感情推定装置。
The information indicating the degree of interest of the user with respect to the stimulus predicted by the input information input by the user and the input information are set in association with the emotion data in advance. Emotion estimation device.
前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段を
さらに含む請求項1に記載の感情推定装置。
The emotion estimation apparatus according to claim 1, further comprising detection means for detecting a feature amount of the user's state and outputting the feature amount data.
前記ユーザに与えられる前記刺激は、前記ユーザに提示される情報である
請求項1に記載の感情推定装置。
The emotion estimation apparatus according to claim 1, wherein the stimulus given to the user is information presented to the user.
推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段を
さらに含む請求項5に記載の感情推定装置。
The emotion estimation apparatus according to claim 5, further comprising information presentation control means for controlling presentation of information recommended to the user based on the estimated emotion of the user.
感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、
前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得し、
前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する
ステップを含む感情推定方法。
Acquire feature quantity data indicating the feature quantity of the user's state that changes due to the expression of emotions,
When stimulation is given to the user, input information that is intentionally input by the user is acquired,
Information indicating the user's emotions with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with the user, and the first that is the stimulus to the user When a stimulus is applied, based on the feature amount data acquired when the user inputs the input information, a model indicating a relationship between the feature amount data and the user's emotion is learned.
An emotion estimation method including a step of estimating an emotion of the user when the second stimulus is applied based on the feature amount data acquired when the second stimulus is applied and the model.
感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、
前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得し、
前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する
ステップをコンピュータに実行させるプログラム。
Acquire feature quantity data indicating the feature quantity of the user's state that changes due to the expression of emotions,
When stimulation is given to the user, input information that is intentionally input by the user is acquired,
Information indicating the emotion of the user with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with the user, and the first that is the stimulus to the user When a stimulus is applied, based on the feature amount data acquired when the user inputs the input information, a model indicating a relationship between the feature amount data and the user's emotion is learned.
A program for causing a computer to execute a step of estimating an emotion of the user when the second stimulus is given based on the feature amount data obtained when the second stimulus is given and the model.
感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得する特徴量取得手段と、
第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習する学習手段と、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段と
を含む感情推定装置。
Feature quantity acquisition means for acquiring feature quantity data indicating a feature quantity of a user's state that changes due to the expression of emotion;
Acquired when the first stimulus is given to the user, and emotion data in which information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other. Learning means for learning a model indicating a relationship between the feature amount data and the user's emotion based on the feature amount data;
An emotion estimation apparatus comprising: estimation means for estimating the emotion of the user when the second stimulus is applied based on the feature amount data acquired when the second stimulus is applied and the model; .
前記感情データには、前記第1の刺激に対する前記ユーザの興味の程度を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている
請求項9に記載の感情推定装置。
The emotion estimation apparatus according to claim 9, wherein information indicating a degree of interest of the user with respect to the first stimulus and information indicating the first stimulus are set in advance in the emotion data.
前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段を
さらに含む請求項9に記載の感情推定装置。
The emotion estimation apparatus according to claim 9, further comprising detection means for detecting a feature amount of the user's state and outputting the feature amount data.
前記ユーザに与えられる前記第1の刺激または第2の刺激は、前記ユーザに提示される情報である
請求項9に記載の感情推定装置。
The emotion estimation apparatus according to claim 9, wherein the first stimulus or the second stimulus given to the user is information presented to the user.
推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段を
さらに含む請求項12に記載の感情推定装置。
The emotion estimation apparatus according to claim 12, further comprising information presentation control means for controlling presentation of information recommended to the user based on the estimated emotion of the user.
感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、
第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する
ステップを含む感情推定方法。
Acquire feature quantity data indicating the feature quantity of the user's state that changes due to the expression of emotions,
Acquired when the first stimulus is given to the user, and emotion data in which information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other. Based on the feature amount data, a model indicating a relationship between the feature amount data and the user's emotion is learned,
An emotion estimation method including a step of estimating an emotion of the user when the second stimulus is applied based on the feature amount data acquired when the second stimulus is applied and the model.
感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、
第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する
ステップをコンピュータに実行させるプログラム。
Acquire feature quantity data indicating the feature quantity of the user's state that changes due to the expression of emotions,
Acquired when the first stimulus is given to the user, and emotion data in which information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other. Based on the feature amount data, a model indicating a relationship between the feature amount data and the user's emotion is learned,
A program for causing a computer to execute a step of estimating an emotion of the user when the second stimulus is given based on the feature amount data obtained when the second stimulus is given and the model.
請求項8または15に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 8 or 15 is recorded.
JP2005216794A 2005-07-27 2005-07-27 Emotion estimation device and method, recording medium and program Pending JP2007034664A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005216794A JP2007034664A (en) 2005-07-27 2005-07-27 Emotion estimation device and method, recording medium and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005216794A JP2007034664A (en) 2005-07-27 2005-07-27 Emotion estimation device and method, recording medium and program

Publications (1)

Publication Number Publication Date
JP2007034664A true JP2007034664A (en) 2007-02-08

Family

ID=37793849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005216794A Pending JP2007034664A (en) 2005-07-27 2005-07-27 Emotion estimation device and method, recording medium and program

Country Status (1)

Country Link
JP (1) JP2007034664A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009076027A (en) * 2007-09-19 2009-04-09 Korea Electronics Telecommun Service recommendation method and service recommendation device for robots of network base
JP2009187109A (en) * 2008-02-04 2009-08-20 Fujifilm Corp Image display device, display control method and display control program
KR100919825B1 (en) * 2008-03-25 2009-10-01 한국전자통신연구원 Method for generating a composite emotion state in a multi-dimensional vector space
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
JP2011120824A (en) * 2009-12-14 2011-06-23 Tokyo Univ Of Agriculture & Technology Sensibility evaluation device, sensibility evaluation method, and sensibility evaluation program
EP2061242A3 (en) * 2007-11-19 2011-07-27 Sony Corporation Information providing device, system, method and program, information acquisition terminal and broadcast receiving terminal
JP2013502633A (en) * 2009-08-20 2013-01-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for image analysis
JP2013153349A (en) * 2012-01-25 2013-08-08 Nippon Hoso Kyokai <Nhk> Viewing state recognition apparatus and viewing state recognition program
JP2014115897A (en) * 2012-12-11 2014-06-26 Fujitsu Ltd Information processor, management device, information processing method, controlling method, information processing program, controlling program, and content providing system
JP2014120137A (en) * 2012-12-19 2014-06-30 Samsung R&D Institute Japan Co Ltd Information processing apparatus, information processing method and computer program
JP2014241498A (en) * 2013-06-11 2014-12-25 三星電子株式会社Samsung Electronics Co.,Ltd. Program recommendation device
WO2015162949A1 (en) * 2014-04-21 2015-10-29 ソニー株式会社 Communication system, control method, and storage medium
JP2021068090A (en) * 2019-10-21 2021-04-30 パナソニックIpマネジメント株式会社 Content recommendation system
JP2021525921A (en) * 2018-06-01 2021-09-27 システムズ アンド ソフトウェア エンタープライゼス, エルエルシーSystems And Software Enterprises, Llc Systems and methods for recommended systems based on implied feedback
WO2022085926A1 (en) * 2020-10-23 2022-04-28 삼성전자 주식회사 System including electronic device and server, and content recommendation method using system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142975A (en) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus
JP2005190640A (en) * 2003-12-26 2005-07-14 Sony Corp Reproduction apparatus and evaluation method for content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142975A (en) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus
JP2005190640A (en) * 2003-12-26 2005-07-14 Sony Corp Reproduction apparatus and evaluation method for content

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009076027A (en) * 2007-09-19 2009-04-09 Korea Electronics Telecommun Service recommendation method and service recommendation device for robots of network base
EP2061242A3 (en) * 2007-11-19 2011-07-27 Sony Corporation Information providing device, system, method and program, information acquisition terminal and broadcast receiving terminal
US8250594B2 (en) 2007-11-19 2012-08-21 Sony Corporation Information providing device, information acquisition terminal, broadcast receiving terminal, information providing system, information providing method, and program
JP2009187109A (en) * 2008-02-04 2009-08-20 Fujifilm Corp Image display device, display control method and display control program
KR100919825B1 (en) * 2008-03-25 2009-10-01 한국전자통신연구원 Method for generating a composite emotion state in a multi-dimensional vector space
US8099372B2 (en) 2008-03-25 2012-01-17 Electronics And Telecommunications Research Institute Method of modeling composite emotion in multidimensional vector space
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
JP2013502633A (en) * 2009-08-20 2013-01-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for image analysis
JP2011120824A (en) * 2009-12-14 2011-06-23 Tokyo Univ Of Agriculture & Technology Sensibility evaluation device, sensibility evaluation method, and sensibility evaluation program
JP2013153349A (en) * 2012-01-25 2013-08-08 Nippon Hoso Kyokai <Nhk> Viewing state recognition apparatus and viewing state recognition program
JP2014115897A (en) * 2012-12-11 2014-06-26 Fujitsu Ltd Information processor, management device, information processing method, controlling method, information processing program, controlling program, and content providing system
JP2014120137A (en) * 2012-12-19 2014-06-30 Samsung R&D Institute Japan Co Ltd Information processing apparatus, information processing method and computer program
JP2014241498A (en) * 2013-06-11 2014-12-25 三星電子株式会社Samsung Electronics Co.,Ltd. Program recommendation device
WO2015162949A1 (en) * 2014-04-21 2015-10-29 ソニー株式会社 Communication system, control method, and storage medium
CN106255866A (en) * 2014-04-21 2016-12-21 索尼公司 Communication system, control method and storage medium
JPWO2015162949A1 (en) * 2014-04-21 2017-04-13 ソニー株式会社 COMMUNICATION SYSTEM, CONTROL METHOD, AND STORAGE MEDIUM
US10488208B2 (en) 2014-04-21 2019-11-26 Sony Corporation Communication system, control method, and storage medium
JP2021525921A (en) * 2018-06-01 2021-09-27 システムズ アンド ソフトウェア エンタープライゼス, エルエルシーSystems And Software Enterprises, Llc Systems and methods for recommended systems based on implied feedback
JP2021068090A (en) * 2019-10-21 2021-04-30 パナソニックIpマネジメント株式会社 Content recommendation system
JP7417889B2 (en) 2019-10-21 2024-01-19 パナソニックIpマネジメント株式会社 Content recommendation system
WO2022085926A1 (en) * 2020-10-23 2022-04-28 삼성전자 주식회사 System including electronic device and server, and content recommendation method using system

Similar Documents

Publication Publication Date Title
JP2007034664A (en) Emotion estimation device and method, recording medium and program
JP4389973B2 (en) Information processing apparatus and method, and program
CN102209184B (en) Electronic apparatus, reproduction control system, reproduction control method
US7945439B2 (en) Information processing apparatus, information processing method, and computer program
JP4380524B2 (en) Information processing apparatus and information processing method
US20070113182A1 (en) Replay of media stream from a prior change location
US20070223871A1 (en) Method of Generating a Content Item Having a Specific Emotional Influence on a User
JP2009140010A (en) Information processing device, information processing terminal, information processing method, and program
US11533542B2 (en) Apparatus, systems and methods for provision of contextual content
JP2009134671A (en) Information processing terminal, information processing method, and program
JP2007041988A (en) Information processing device, method and program
JP2007027990A (en) Apparatus and method, and program for generating caption from moving picture data, and storage medium
JP5181640B2 (en) Information processing apparatus, information processing terminal, information processing method, and program
US7149365B2 (en) Image information summary apparatus, image information summary method and image information summary processing program
CN103187082B (en) Information processor, information processing method
JP2009296346A (en) Program recommendation device, method for recommending program and program for recommending program
JP2008205745A (en) Image reproducing device and method
JP2007060060A (en) Reproduction system, reproducing apparatus, reproducing method, information processing apparatus, information processing method, and program
JP2009134670A (en) Information processing terminal, information processing method, and program
JP2008312183A (en) Information processing apparatus, method, and program
JP2007101945A (en) Apparatus, method, and program for processing video data with audio
JP2009111938A (en) Device, method and program for editing information, and record medium recorded with the program thereon
JP5043711B2 (en) Video evaluation apparatus and method
JP4509188B2 (en) Movie playback apparatus, movie playback method and computer program thereof
JP4086886B2 (en) Movie playback apparatus, movie playback method and computer program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110802