JP2007034664A - Emotion estimation device and method, recording medium and program - Google Patents
Emotion estimation device and method, recording medium and program Download PDFInfo
- Publication number
- JP2007034664A JP2007034664A JP2005216794A JP2005216794A JP2007034664A JP 2007034664 A JP2007034664 A JP 2007034664A JP 2005216794 A JP2005216794 A JP 2005216794A JP 2005216794 A JP2005216794 A JP 2005216794A JP 2007034664 A JP2007034664 A JP 2007034664A
- Authority
- JP
- Japan
- Prior art keywords
- user
- emotion
- stimulus
- information
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、感情推定装置および方法、記録媒体、および、プログラムに関し、特に、ユーザの感情をより正確に推定できるようにした情報処理システム、感情推定装置および方法、記録媒体、および、プログラムに関する。 The present invention relates to an emotion estimation apparatus and method, a recording medium, and a program, and more particularly, to an information processing system, an emotion estimation apparatus and method, a recording medium, and a program that can estimate a user's emotion more accurately.
近年、ユーザの興味や関心の度合いを推定し、推定結果に基づいてユーザが興味や関心を持ちそうなコンテンツや商品などを推薦するシステム(以下、推薦システムと称する)が普及してきている。 In recent years, a system (hereinafter referred to as a recommendation system) that estimates the degree of interest and interest of a user and recommends content, products, etc. that the user is likely to be interested based on the estimation result has become widespread.
推薦システムで一般的に用いられるユーザの興味や関心の度合いを推定する手法として、対象への興味や関心の有無をユーザに直接問い合わせ、それに対するユーザの回答などを利用する手法、すなわち、明示的フィードバック(Explicit Feedback)を利用する手法、および、対象を提示した場合にユーザによってなされる機器の操作などを利用する手法、すなわち、暗黙的フィードバック(Implicit Feedback)を利用する手法がある。 As a method of estimating the degree of interest and interest of a user that is generally used in the recommendation system, a method that directly inquires the user about the interest or interest in the target and uses the user's answer to that, that is, explicit There are a technique that uses feedback (Explicit Feedback) and a technique that uses a device operation performed by a user when an object is presented, that is, a technique that uses implicit feedback.
明示的フィードバックを利用したシステムの一つに、予め準備されているシナリオに基づいてユーザと対話を行い、ユーザが発話した内容に基づいて、ユーザの興味や関心の度合いを推定する対話システムがある。 One system that uses explicit feedback is a dialog system that interacts with a user based on a scenario prepared in advance and estimates the user's interest and degree of interest based on what the user utters. .
また、暗黙的フィードバックを利用したシステムの一つに、ユーザの生体情報を検出し、生体情報に基づいてユーザの感情状態を解析し、ユーザの感情状態に基づいて、ユーザに適したコンテンツを推奨するシステムが提案されている(例えば、特許文献1参照)。 Also, in one of the systems using implicit feedback, the user's biological information is detected, the emotional state of the user is analyzed based on the biological information, and the content suitable for the user is recommended based on the emotional state of the user The system which performs is proposed (for example, refer patent document 1).
しかしながら、明示的フィードバックを利用する手法では、システムの問い合わせに対して、ユーザは明示的な反応を示さなければならず、ユーザに負担をかけてしまう。例えば、対話システムでは、システムの問い合わせに対して、ユーザは明瞭でシステムが認識可能な声で回答しなければならない。仮に、興味がなくてユーザが生返事を続けた場合、システム側がユーザの反応を認識できず、しつこく対話を続けてしまうことがある。 However, in the method using explicit feedback, the user must show an explicit response to the system query, which places a burden on the user. For example, in a dialogue system, a user must answer a system query in a clear and recognizable voice. If the user is not interested and continues to respond, the system may not be able to recognize the user's reaction and may continue to interact.
また、暗黙的フィードバックを利用する手法では、例えば、ユーザが機器を何も操作しなければ、ユーザの興味や関心を推定することができない。また、ユーザに提示する対象を映像コンテンツとした場合、ユーザが映像コンテンツを実際に視聴しているか否かが分からないため、誤った学習をしてしまう場合がある。 In the method using implicit feedback, for example, the user's interest and interest cannot be estimated unless the user operates any device. In addition, if the target to be presented to the user is video content, it is not known whether the user is actually viewing the video content, and thus there is a case where the user learns incorrectly.
また、特許文献1に記載の発明では、全てのユーザに対して共通のモデルを用い、かつ、予め作り込まれたルールに基づいて、感情状態が解析され、生体情報などの個人差に対応することについては考慮されていない。また、特許文献1に記載の発明では、ユーザの興味や関心の度合いを推定することは提案されていない。
Further, in the invention described in
本発明は、このような状況に鑑みてなされたものであり、ユーザの負担を増やすことなく、ユーザの感情をより正確に推定できるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to estimate a user's emotion more accurately without increasing the burden on the user.
本発明の第1の側面の感情推定装置は、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得する特徴量取得手段と、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得する入力情報取得手段と、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習する学習手段と、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段とを含む。 The emotion estimation apparatus according to the first aspect of the present invention includes a feature amount acquisition unit that acquires feature amount data indicating a feature amount of a user's state that changes due to the expression of emotion, and when a stimulus is given to the user. Input information acquisition means for acquiring input information intentionally input by the user, information indicating the user's emotion with respect to the stimulus predicted by the input information input by the user, and the input information are associated in advance. Based on the emotion data set and the feature data acquired when the user inputs the input information when the user is given the first stimulus as the stimulus, Learning means for learning a model indicating a relationship between the feature quantity data and the user's emotion; the feature quantity data acquired when a second stimulus is given; and Based on Dell, including an estimation unit for estimating the user's feelings when given the second stimulation.
前記入力情報は、前記第1の刺激を前記ユーザに与える機器への処理の指令を示す情報であるようにすることができる。 The input information may be information indicating a processing command to a device that gives the first stimulus to the user.
前記感情データには、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの興味の程度を示す情報および前記入力情報が予め関連づけられて設定されているようにすることができる。 In the emotion data, information indicating the degree of interest of the user with respect to the stimulus predicted by the input information input by the user and the input information may be set in advance in association with each other. .
前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段をさらに設けるようにすることができる。 Detection means for detecting a feature value of the user's state and outputting the feature value data may be further provided.
前記ユーザに与えられる前記刺激は、前記ユーザに提示される情報であるようにすることができる。 The stimulus given to the user may be information presented to the user.
推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段をさらに設けるようにすることができる。 Information presentation control means for controlling presentation of information recommended to the user can be further provided based on the estimated emotion of the user.
本発明の第1の側面の感情推定方法またはプログラムは、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得し、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定するステップを含む。 The emotion estimation method or program according to the first aspect of the present invention acquires feature amount data indicating a feature amount of a user's state that changes due to the expression of an emotion, and when the user is given a stimulus, Information indicating intention of the user is acquired, and information indicating the user's emotion with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with each other And when the user receives the first stimulus as the stimulus, based on the feature amount data acquired when the user inputs the input information, the feature amount data and the user's Based on the feature amount data acquired when the model indicating the relationship with emotion is learned and the second stimulus is given, and the model, the second stimulus is Comprising the step of estimating the emotion of the user when was e.
本発明の第2の側面の感情推定装置は、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得する特徴量取得手段と、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習する学習手段と、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段とを含む。 An emotion estimation apparatus according to a second aspect of the present invention includes a feature amount acquisition unit that acquires feature amount data indicating a feature amount of a user's state that changes due to expression of emotion, and the user's emotion with respect to a first stimulus. Based on emotion data that is set in advance in association with information indicating and information indicating the first stimulus, and the feature amount data acquired when the first stimulus is given to the user, Based on the learning means for learning a model indicating the relationship between the feature quantity data and the user's emotion, the feature quantity data acquired when a second stimulus is given, and the model, the second Estimating means for estimating the user's emotion when the stimulus is applied.
前記感情データには、前記第1の刺激に対する前記ユーザの興味の程度を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されているようにすることができる。 In the emotion data, information indicating the degree of interest of the user with respect to the first stimulus and information indicating the first stimulus may be set in advance in association with each other.
前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段をさらに設けるようにすることができる。 Detection means for detecting a feature value of the user's state and outputting the feature value data may be further provided.
前記ユーザに与えられる前記第1の刺激または第2の刺激は、前記ユーザに提示される情報であるようにすることができる。 The first stimulus or the second stimulus given to the user may be information presented to the user.
推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段をさらに設けるようにすることができる。 Information presentation control means for controlling presentation of information recommended to the user can be further provided based on the estimated emotion of the user.
本発明の第2の側面の感情推定方法またはプログラムは、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定するステップを含む。 The emotion estimation method or program according to the second aspect of the present invention acquires feature amount data indicating a feature amount of a user's state that changes due to the expression of emotion, information indicating the user's emotion with respect to a first stimulus, and The feature amount based on emotion data in which information indicating the first stimulus is set in advance in association with the feature amount data acquired when the first stimulus is given to the user When learning the model indicating the relationship between the data and the emotion of the user, and applying the second stimulus based on the feature amount data acquired when the second stimulus is applied and the model Estimating the user's emotions.
本発明の第1の側面においては、感情の表出により変化するユーザの状態の特徴量を示す特徴量データが取得され、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報が取得され、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルが学習され、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情が推定される。 In the first aspect of the present invention, feature amount data indicating a feature amount of a user's state that changes due to the expression of emotion is acquired, and when a stimulus is given to the user, the feature amount data is intentionally input by the user. Information indicating the user's emotion with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with the user. When the first stimulus, which is the stimulus, is given, the relationship between the feature amount data and the user's emotion is obtained based on the feature amount data acquired when the user inputs the input information. When the model shown is learned and the second stimulus is given, the feature amount data obtained when the second stimulus is given, and the second stimulus is given based on the model Feelings over The is estimated.
本発明の第2の側面においては、感情の表出により変化するユーザの状態の特徴量を示す特徴量データが取得され、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルが学習され、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情が推定される In the second aspect of the present invention, feature amount data indicating a feature amount of a user's state that changes due to expression of emotion is acquired, information indicating the user's emotion with respect to the first stimulus, and the first stimulus On the basis of emotion data that is set in advance in association with information indicating the above and the feature amount data acquired when the first stimulus is given to the user. The feature amount data acquired when a model showing a relationship with emotion is learned and a second stimulus is given, and the user's emotion when the second stimulus is given based on the model Is estimated
以上のように、本発明の第1の側面または第2の側面によれば、ユーザの感情を推定することができる。また、本発明の第1の側面または第2の側面によれば、ユーザの負担を増やすことなく、ユーザの感情をより正確に推定することができる。 As described above, according to the first aspect or the second aspect of the present invention, the user's emotion can be estimated. Moreover, according to the 1st side surface or the 2nd side surface of this invention, a user's emotion can be estimated more correctly, without increasing a user's burden.
以下に本発明の実施の形態を説明するが、請求項に記載の構成要件と、発明の実施の形態における具体例との対応関係を例示すると、次のようになる。この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between constituent elements described in the claims and specific examples in the embodiments of the present invention are exemplified as follows. This description is to confirm that specific examples supporting the invention described in the claims are described in the embodiments of the invention. Therefore, even if there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.
さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。 Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.
本発明の第1の側面の感情推定装置(例えば、図1のコンテンツ推薦制御部13)は、感情の表出により変化するユーザの状態の特徴量を示す特徴量データ(例えば、特徴ベクトル)を取得する特徴量取得手段(例えば、図2の特徴量取得部102)と、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報(例えば、ユーザ指令情報)を取得する入力情報取得手段(例えば、図2の入力情報取得部101)と、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データ(例えば、図3または図4の感情マップ)と、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデル(例えば、図5の感情判別モデル)を学習する学習手段(例えば、学習部103)と、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段(例えば、推定部104)とを含む。
The emotion estimation apparatus according to the first aspect of the present invention (for example, the content
本発明の第1の側面の感情推定装置においては、前記感情データには、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの興味の程度を示す情報(例えば、興味度)および前記入力情報が予め関連づけられて設定されているようにすることができる。 In the emotion estimation apparatus according to the first aspect of the present invention, the emotion data includes information indicating a degree of interest of the user with respect to the stimulus predicted by the input information input by the user (for example, degree of interest). ) And the input information may be set in advance in association with each other.
本発明の第1の側面の感情推定装置は、前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段(例えば、図1のセンサ部41)をさらに含むようにすることができる。 The emotion estimation apparatus according to the first aspect of the present invention further includes detection means (for example, the sensor unit 41 in FIG. 1) that detects a feature amount of the user's state and outputs the feature amount data. Can do.
本発明の第1の側面の感情推定装置は、推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段(例えば、図1の推薦処理制御部43)をさらに含むようにすることができる。
The emotion estimation apparatus according to the first aspect of the present invention is an information presentation control means for controlling presentation of information recommended to the user based on the estimated emotion of the user (for example, the recommendation
本発明の第1の側面の感情推定方法またはプログラムは、感情の表出により変化するユーザの状態の特徴量を示す特徴量データ(例えば、特徴ベクトル)を取得し(例えば、図8のステップS41)、前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報(例えば、ユーザ指令情報)を取得し(例えば、図8のステップS42)、前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データ(例えば、図3または図4の感情マップ)と、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データ(例えば、図5の感情判別モデル)とに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し(例えば、図8のステップS43、S44、および、図9のステップS61)、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する(例えば、図10のステップS102乃至S105)を含む。 The emotion estimation method or program according to the first aspect of the present invention acquires feature amount data (for example, a feature vector) indicating a feature amount of a user's state that changes due to the expression of emotion (for example, step S41 in FIG. 8). ) When a stimulus is given to the user, input information (for example, user command information) intentionally input by the user is acquired (for example, step S42 in FIG. 8), and the input by the user is performed. Information indicating the user's emotion with respect to the stimulus predicted by the input information and emotion data (for example, the emotion map of FIG. 3 or FIG. 4) set in association with the input information, and the stimulus to the user When the first stimulus is given, the feature amount data acquired when the user inputs the input information (for example, emotion discrimination in FIG. 5) Based on (Dell), a model indicating the relationship between the feature quantity data and the user's emotion is learned (for example, steps S43 and S44 in FIG. 8 and step S61 in FIG. 9). Including estimating the user's emotion when the second stimulus is given based on the feature amount data acquired when given and the model (for example, steps S102 to S105 in FIG. 10) .
本発明の第2の側面の感情推定装置(例えば、図1のコンテンツ推薦制御部13)は、感情の表出により変化するユーザの状態の特徴量を示す特徴量データ(例えば、特徴ベクトル)を取得する特徴量取得手段(例えば、図2の特徴量取得部102)と、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データ(例えば、図11の感情マップ)と、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデル(例えば、図5の感情判別モデル)を学習する学習手段(例えば、学習部103)と、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段例えば、推定部104)とを含む。
The emotion estimation apparatus according to the second aspect of the present invention (for example, the content
本発明の第2の側面の感情推定装置においては、前記感情データには、前記第1の刺激に対する前記刺激に対する前記ユーザの興味の程度を示す情報(例えば、興味度)および前記第1の刺激を示す情報が予め関連づけられて設定されているようにすることができる。 In the emotion estimation apparatus according to the second aspect of the present invention, the emotion data includes information (for example, degree of interest) indicating the degree of interest of the user with respect to the stimulus with respect to the first stimulus and the first stimulus. Can be set in advance in association with each other.
本発明の第2の側面の感情推定装置は、前記ユーザの状態の特徴量を検出し、前記特徴量データを出力する検出手段(例えば、図1のセンサ部41)をさらに含むようにすることができる。 The emotion estimation apparatus according to the second aspect of the present invention further includes detection means (for example, the sensor unit 41 in FIG. 1) that detects a feature amount of the user's state and outputs the feature amount data. Can do.
本発明の第2の側面の感情推定装置は、推定された前記ユーザの感情に基づいて、前記ユーザに推薦する情報の提示を制御する情報提示制御手段(例えば、図1の推薦処理制御部43)をさらに含むようにすることができる。
The emotion estimation apparatus according to the second aspect of the present invention is an information presentation control means for controlling presentation of information recommended to the user based on the estimated emotion of the user (for example, the recommendation
本発明の第2の側面の感情推定方法またはプログラムは、感情の表出により変化するユーザの状態の特徴量を示す特徴量データ(例えば、特徴ベクトル)を取得し(例えば、図8のステップS42)、第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データ(例えば、図11の感情マップ)と、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデル(例えば、図5の感情判別モデル)を学習し(例えば、図13のステップS223、S224、および、図9のステップS61)、第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する(例えば、図10のステップS102乃至S105)ステップを含む。 The emotion estimation method or program according to the second aspect of the present invention acquires feature amount data (for example, feature vector) indicating the feature amount of the user's state that changes due to the expression of emotion (for example, step S42 in FIG. 8). ), Emotion data (for example, the emotion map of FIG. 11) in which information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other, Based on the feature amount data acquired when one stimulus is given, a model (for example, an emotion discrimination model in FIG. 5) showing the relationship between the feature amount data and the user's emotion is learned (for example, For example, based on steps S223 and S224 in FIG. 13 and step S61 in FIG. 9, the feature amount data acquired when the second stimulus is given, and the model , Including the said estimation of the user feelings when given a second stimulus (e.g., step S102 to S105 in FIG. 10) steps.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用したコンテンツ推薦システム1の一実施の形態を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a
コンテンツ推薦システム1は、コンテンツ提示制御部11、リモートコントローラ12、出力部14、および、コンテンツ推薦制御部13を含むように構成される。
The
コンテンツ提示制御部11は、リモートコントローラ12を操作することによりユーザにより入力された処理の指令、または、コンテンツ推薦制御部13からの指令などに基づいて、ユーザへのコンテンツの提示を制御する。
The content
なお、コンテンツとは、本明細書においては、例えば、一般的にコンテンツと称されている、テレビジョン放送番組、映画、写真、楽曲等(動画像、静止画像、若しくは音声、または、それらの組み合わせ等)のことである。 In this specification, the content is, for example, a television broadcast program, a movie, a photo, a song, etc. (moving image, still image, audio, or a combination thereof) generally called content. Etc.).
コンテンツ提示制御部11は、コンテンツ受信部21、コンテンツ蓄積部23、メタ情報受信部22、メタ情報蓄積部24、メタ情報抽出部25、コンテンツ再生部26、コンテンツ情報提示部27、および、ユーザ入力取得部28を含むように構成される。
The content
コンテンツ受信部21は、例えば、図示せぬインターネットなどのネットワークコンテンツ提示制御部11に接続されているサーバ、または、コンテンツ提示制御部11に接続されている図示せぬ外部の情報処理装置などから、映像コンテンツ、音声コンテンツなどのコンテンツを受信する。コンテンツ受信部21は、受信したコンテンツをコンテンツ蓄積部23に蓄積させる。また、コンテンツ受信部21は、受信したコンテンツに、そのコンテンツに関連する情報であるメタ情報が含まれる場合、そのメタ情報をメタ情報受信部22に供給する。
The
メタ情報受信部22は、コンテンツ受信部21が受信したコンテンツに対応するメタ情報を、例えば、図示せぬインターネットなどのネットワークを介してコンテンツ提示制御部11に接続されているサーバ、または、コンテンツ提示制御部11に接続されている図示せぬ外部の情報処理装置などから受信する。メタ情報受信部22は、受信したメタ情報、または、コンテンツ受信部21から取得したメタ情報をメタ情報蓄積部24に蓄積させる。
The meta
コンテンツ蓄積部23およびメタ情報蓄積部24は、例えば、ハードディスクなどの記録媒体により構成される。なお、コンテンツ蓄積部23およびメタ情報蓄積部24を、一つの記録媒体により構成するようにしてもいいし、それぞれ異なる記録媒体により構成するようにしてもよい。
The
メタ情報抽出部25は、コンテンツ再生部26またはコンテンツ情報提示部27から要求されたメタ情報をメタ情報蓄積部24から読み出し、読み出したメタ情報をコンテンツ再生部26またはコンテンツ情報提示部27に供給する。
The meta
コンテンツ再生部26は、リモートコントローラ12を操作することによりユーザにより入力された処理の指令、または、推薦処理制御部43からの指令などに基づいて、コンテンツ蓄積部23に蓄積されているコンテンツを読み出し、読み出したコンテンツを再生する。コンテンツ再生部26は、コンテンツを再生することにより得られた画像データまたは音声データを出力部14に供給する。また、コンテンツ情報提示部27は、必要に応じて、メタ情報抽出部25から供給されたメタ情報を感情推定部42に供給する。
The
コンテンツ情報提示部27は、リモートコントローラ12を操作することによりユーザにより入力された処理の指令などに基づいて、メタ情報抽出部25を介して、メタ情報蓄積部24に蓄積されているコンテンツのメタ情報を読み出し、読み出したメタ情報に基づいて、ユーザにコンテンツを推薦するための推薦情報を提示するための画像データまたは音声データを生成する。コンテンツ情報提示部27は、生成した画像データまたは音声データを出力部14に供給する。また、コンテンツ情報提示部27は、推薦情報を提示したことを通知する情報をコンテンツ再生部26に供給する。さらに、コンテンツ情報提示部27は、必要に応じて、推薦情報の元となるメタ情報を感情推定部42に供給する。
The content
ユーザ入力取得部28は、リモートコントローラ12を操作することによりユーザにより意図的に入力され、コンテンツ提示制御部11への処理の指令を示す情報(以下、ユーザ指令情報と称する)を、リモートコントローラ12から取得する。ユーザ入力取得部28は、必要に応じて、感情推定部42、コンテンツ再生部26、または、コンテンツ情報提示部27にユーザ指令情報を供給する。
The user
コンテンツ推薦制御部13は、図6乃至図10を参照して後述するように、ユーザに与えられている刺激(例えば、出力部14に提示されているコンテンツまたは推薦情報など)に対するユーザの感情を推定する。コンテンツ推薦制御部13は、推定結果に基づいて、コンテンツ再生部26を制御して、ユーザに推薦する情報であるコンテンツの提示、または、コンテンツの再生もしくは停止などを制御する。コンテンツ推薦制御部13は、センサ部41、感情推定部42、および、推薦処理制御部43を含むように構成される。
As will be described later with reference to FIGS. 6 to 10, the content
なお、以下、ユーザの感情を推定するための刺激となる出力部14に提示されるコンテンツまたは推薦情報を、適宜、刺激情報とも称する。また、以下の説明では、主に刺激情報に対するユーザの興味の程度を示す興味度を推定する場合の例について説明する。
Hereinafter, the content or recommendation information presented on the
センサ部41は、感情の表出により変化するユーザの特徴量を検出する。センサ部41は、検出した特徴量により構成される特徴ベクトルを含む表出情報を感情推定部42に供給する。センサ部41は、画像特徴抽出部51および音声特徴抽出部52を含むように構成される。
The sensor unit 41 detects the feature amount of the user that changes due to the expression of emotion. The sensor unit 41 supplies expression information including a feature vector constituted by the detected feature amount to the
画像特徴抽出部51は、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどを含み、ユーザを撮像し、撮像した画像に基づく画像データを生成する。画像特徴抽出部51は、感情の表出により変化するユーザの状態の特徴量を画像データから抽出(検出)する。画像特徴抽出部51により抽出される特徴量には、例えば、表情、顔の向き、顔の各部の位置、動きまたは形状、視線の位置、顔色、姿勢、身振り、体の各部の位置や動きなどが含まれる。
The image
音声特徴抽出部52は、例えば、マイクロホンなどを含み、ユーザから発せられる音声に基づく音声データを生成する。音声特徴抽出部52は、感情の表出により変化するユーザの状態の特徴量を音声データから抽出(検出)する。音声特徴抽出部52により抽出される特徴量には、例えば、ユーザが発した声の音韻、音質、韻律などが含まれる。
The voice
表出ベクトルに含まれる特徴ベクトルは、画像特徴抽出部51および音声特徴抽出部52により抽出(検出)される特徴量により構成される。なお、センサ部41に、例えば、発汗量、体温、血圧、心拍数など、画像データまたは音声データ以外のデータから抽出されるユーザの状態の特徴量を検出するセンサを設けるようにして、それらのセンサにより検出された特徴量を特徴ベクトルの構成要素(変量)に加えるようにしてもよい。
The feature vector included in the expression vector is composed of feature amounts extracted (detected) by the image
感情推定部42は、図6乃至図13を参照して後述するように、出力部14に提示されている刺激情報に対するユーザの感情を推定する。感情推定部42は、推定した結果を示すデータを推薦処理制御部43に供給する。
As will be described later with reference to FIGS. 6 to 13, the
推薦処理制御部43は、図10を参照して後述するように、ユーザの感情に基づいて、コンテンツ再生部26を制御して、ユーザに推薦する情報であるコンテンツの提示、または、コンテンツの再生もしくは停止などを制御する。
As will be described later with reference to FIG. 10, the recommendation
出力部14は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)などのディスプレイ、並びにスピーカなどで構成され、コンテンツ再生部26またはコンテンツ情報提示部27から供給される画像データに基づく画像を表示したり、コンテンツ再生部26またはコンテンツ情報提示部27から供給される音声データに基づく音声を出力する。
The
図2は、図1の感情推定部42の詳細を示すブロック図である。感情推定部42は、入力情報取得部101、特徴量取得部102、学習部103、推定部104、感情マップ蓄積部105、表出−感情データ蓄積部106、および、感情判別モデル蓄積部107を含むように構成される。
FIG. 2 is a block diagram showing details of the
入力情報取得部101は、ユーザ入力取得部28からユーザ指令情報を取得する。また、入力情報取得部101は、コンテンツ再生部26またはコンテンツ情報提示部27からコンテンツのメタ情報を取得する。入力情報取得部101は、取得したユーザ指令情報、または、メタ情報を感情検出部111に供給する。
The input
特徴量取得部102は、センサ部41から表出情報を取得する。特徴量取得部102は、表出情報に含まれる特徴ベクトルを示す情報をデータ収集部112またはマッチング部121に供給する。
The feature
学習部103は、図6乃至図9または図11乃至図13を参照して後述するように、感情の表出により変化するユーザの状態を示す特徴ベクトルとユーザの感情との関係を示し、ユーザの感情を判別するために用いられる感情判別モデルを学習する。学習部103は、感情検出部111、データ収集部112、および、感情判別モデル学習部113を含むように構成される。
As will be described later with reference to FIG. 6 to FIG. 9 or FIG. 11 to FIG. 13, the
感情検出部111は、図8または図13を参照して後述するように、感情マップ蓄積部105に蓄積されている感情マップ、および、ユーザ指令情報またはメタ情報に基づいて、ユーザに提示されている刺激情報に対するユーザの感情を検出する。感情検出部111は、検出した感情を通知する情報をデータ収集部112に供給する。
As will be described later with reference to FIG. 8 or FIG. 13, the
図3は、感情マップの例を示す図である。図3の感情マップには、ユーザにより入力されるユーザ指令情報により示される指令内容により予測される刺激情報に対するユーザの興味度を示す情報と、指令内容とが予め関連づけられて設定されている。すなわち、図3の感情マップには、ユーザに刺激情報が提示された場合に、刺激情報をユーザに提示する(与える)コンテンツ提示制御部11に、ユーザが意図的に入力する情報であるユーザ指令情報の指令内容により予測される、刺激情報に対するユーザの興味度が設定されている。
FIG. 3 is a diagram illustrating an example of an emotion map. In the emotion map of FIG. 3, information indicating the degree of interest of the user with respect to stimulus information predicted by the command content indicated by the user command information input by the user and the command content are set in advance in association with each other. That is, in the emotion map of FIG. 3, when the stimulus information is presented to the user, the user command that is information that the user intentionally inputs to the content
例えば、図3の感情マップでは、ユーザがコンテンツの再生を指令した場合、そのコンテンツに対して興味が高いと予測されるため、興味度は+1に設定されている。また、ユーザがコンテンツの再生の早送りを指令した場合、再生中のコンテンツに対する興味が薄いと予測されるため、興味度は−1に設定されている。さらに、ユーザがコンテンツの再生途中に再生の停止を指令したり、再生のスキップを指令した場合、再生中のコンテンツに対する興味がさらに薄いと予測されるため、興味度は−2に設定されている。 For example, in the emotion map of FIG. 3, when the user commands the reproduction of the content, it is predicted that the content is highly interested, so the degree of interest is set to +1. Also, when the user commands fast-forwarding of content playback, it is predicted that the user is not interested in the content being played back, so the degree of interest is set to -1. Furthermore, when the user commands the stop of playback during the playback of the content or commands the skip of the playback, it is predicted that the user is less interested in the content being played back, so the degree of interest is set to -2. .
図4は、感情マップの他の例を示す図である。図3に示される感情マップでは、指令内容が単発のものに限られていたのに対し、図4に示される感情マップでは、指令内容が複数の指令を時系列に並べたものとされている。 FIG. 4 is a diagram illustrating another example of the emotion map. In the emotion map shown in FIG. 3, the command content is limited to a single one, whereas in the emotion map shown in FIG. 4, the command content is a plurality of commands arranged in time series. .
例えば、図4の感情マップでは、ユーザがコンテンツの再生を指令した後、30秒以内にコンテンツの再生のスキップを指令した場合、再生した部分に対する興味が薄いと予測されるため、興味度は−1に設定されている。また、ユーザがコンテンツの再生を指令した後、30秒以内にコンテンツの再生のスキップを2回繰り返して指令した場合、再生した部分に対する興味がさらに薄いと予測されるため、興味度は−3に設定されている。さらに、ユーザがコンテンツの再生を指令した後、そのまま終了まで再生した場合、そのコンテンツに対する興味が高いと予測されるため、興味度は+1に設定されている。また、ユーザがコンテンツの再生のスキップを指令した後、スキップした先のコンテンツの再生を指令し、30秒以上経過した場合、スキップした先のコンテンツに対する興味が高いと予測されるため、興味度は+2に設定されている。 For example, in the emotion map of FIG. 4, if the user commands the reproduction of the content and commands the skipping of the reproduction of the content within 30 seconds, it is predicted that the interest in the reproduced portion is low. 1 is set. In addition, when the user instructs to reproduce the content and repeats the instruction to skip the reproduction of the content twice within 30 seconds, it is predicted that the interest in the reproduced portion is further less. Is set. Further, when the user instructs the reproduction of the content and then plays it to the end as it is, it is predicted that the content is highly interested, so the degree of interest is set to +1. In addition, after the user commands the skip of content playback, if the user commands the playback of the skipped content, and 30 seconds or more have passed, the interest in the skipped content is predicted to be high. It is set to +2.
なお、図3または図4に示される感情マップは、例えば、予め行われる他の学習処理になどにより生成される。また、興味度以外の感情(例えば、喜怒哀楽、または、個々の感情の程度など)を示す情報を感情マップに設定するようにしてもよい。また、指令内容以外の、刺激情報が提示された場合にユーザにより意図的に入力される情報(例えば、問いかけに対するユーザの応答内容を示す情報など)を感情マップに設定するようにしてもよい。 Note that the emotion map shown in FIG. 3 or 4 is generated by, for example, other learning processing performed in advance. Further, information indicating emotions other than the degree of interest (for example, emotions or the degree of individual emotions) may be set in the emotion map. In addition, information that is intentionally input by the user when stimulus information other than the command content is presented (for example, information indicating the content of the user's response to the question) may be set in the emotion map.
データ収集部112は、特徴量取得部102から供給される特徴ベクトルを示す情報を表出−感情データ蓄積部106に一時的に記憶させる。データ収集部112は、ユーザの感情を示すデータを感情検出部111から取得した場合、直前の所定の時間(例えば、30秒)(以下、判別時間と称する)内に取得し、表出−感情データ蓄積部106に蓄積されている特徴ベクトルを時系列に並べたデータ(以下、特徴ベクトル群と称する)と、通知された感情とを関連づけた表出−感情データを生成する。すなわち、表出−感情データは、ユーザに与えられた刺激情報に対するユーザの感情と、そのときのユーザの状態を示す特徴ベクトル群とを関連づけたデータである。なお、図3または図4の感情マップを用いる場合、表出−感情デ−タは、特徴ベクトル群とユーザの興味度が関連づけられたデータとなる。データ収集部112は、生成した表出−感情データを表出−感情データ蓄積部106に蓄積させる。また、データ収集部112は、表出−感情データの蓄積量が所定の閾値を超えた場合、そのことを通知する情報を感情判別モデル学習部113に供給する。
The
感情判別モデル学習部113は、図9を参照して後述するように、表出−感情データ蓄積部106に蓄積されている表出−感情データを分析することにより、感情判別モデルを学習する。感情判別モデル学習部113は、学習した感情判別モデルを示すデータを感情判別モデル蓄積部107に蓄積させる。また、感情判別モデル学習部113は、特徴ベクトルを主成分ベクトルに変換するための変換ベクトルを示すデータをマッチング部121に供給する。
As will be described later with reference to FIG. 9, the emotion discrimination
図5は、図3または図4の感情マップを用いた場合に学習される感情判別モデルの例を示す図である。図5の感情判別モデルには、主成分ベクトル群と推定興味度とが関連づけられて設定されている。主成分ベクトルは、表出−感情データの特徴ベクトル群に含まれる特徴ベクトルの各変量を、主成分分析により主成分に変換したベクトル(以下、主成分ベクトルと称する)により構成されるベクトル群であり、推定興味度は、表出−感情データにおいて変換前の特徴ベクトル群に対応づけられていた興味度に基づいて設定される情報である。すなわち、図5感情判別モデルは、ユーザの状態を示す特徴量とユーザの感情(興味度)を示すモデルである。 FIG. 5 is a diagram showing an example of an emotion discrimination model learned when the emotion map of FIG. 3 or FIG. 4 is used. In the emotion discrimination model of FIG. 5, a principal component vector group and an estimated interest level are set in association with each other. The principal component vector is a vector group composed of vectors (hereinafter referred to as principal component vectors) obtained by converting each variable of the feature vector included in the feature vector group of the expression-emotional data into principal components by principal component analysis. The estimated degree of interest is information set based on the degree of interest associated with the feature vector group before conversion in the expression-emotion data. That is, the emotion discrimination model in FIG. 5 is a model that indicates a feature amount indicating the user's state and the user's emotion (degree of interest).
なお、興味度以外の感情を示す情報が感情マップに設定されている場合、感情判別モデルの推定興味度の代わりに、それらの感情に基づく情報が設定される。 When information indicating emotions other than the interest level is set in the emotion map, information based on those emotions is set instead of the estimated interest level of the emotion discrimination model.
推定部104は、図10を参照して後述するように、ユーザに提示されている刺激情報に対するユーザの感情を推定する。推定部104は、推定した結果を通知する情報を推薦処理制御部43に供給する。推定部104は、マッチング部121および感情出力部122を含むように構成される。
As will be described later with reference to FIG. 10, the
マッチング部121は、図10を参照して後述するように、特徴量取得部102から供給される特徴ベクトルを主成分ベクトルに変換する。マッチング部121は、判別時間内の主成分ベクトルを時系列に並べた主成分ベクトル群と一致するベクトル群を感情判別モデルの中から検索する。マッチング部121は、主成分ベクトルと一致するベクトル群を検出した場合、そのベクトル群に対応するユーザの感情(図5の例の場合、推定興味度)を通知する情報を感情出力部122に供給する。
The
感情出力部122は、必要に応じて、マッチング部121により推定されたユーザの感情を通知する情報を推薦処理制御部43に供給する。
The
感情マップ蓄積部105、表出−感情データ蓄積部106、および、感情判別モデル蓄積部107は、例えば、ハードディスクなどの記録媒体により構成される。なお、感情マップ蓄積部105、表出−感情データ蓄積部106、および、感情判別モデル蓄積部107を、一つの記録媒体により構成するようにしてもいいし、それぞれ異なる記録媒体により構成するようにしてもよい。
The emotion
次に、図6乃至図13を参照して、コンテンツ推薦システム1の処理を説明する。なお、上述したように、以下の説明では、ユーザの興味度を推定する場合の例について説明する。
Next, processing of the
まず、図6のフローチャートを参照して、コンテンツ推薦システム1により実行される学習処理を説明する。
First, the learning process executed by the
ステップS1において、感情推定部42は、表出−感情データ蓄積処理を実行する。表出−感情データ蓄積処理の詳細は、図7を参照して後述するが、この処理により、表出−感情データが蓄積される。
In step S <b> 1, the
ステップS2において、データ収集部112は、表出−感情データの蓄積量が閾値を超えたか否かを判定する。表出−感情データの蓄積量が閾値を超えていないと判定された場合、処理はステップS1に戻り、ステップS2において、表出−感情データの蓄積量が閾値を超えたと判定されるまで、ステップS1およびS2の処理が繰り返し実行される。すなわち、表出−感情データが閾値を超えるまで蓄積される。
In step S <b> 2, the
ステップS2において、表出−感情データの蓄積量が閾値を超えたと判定された場合、処理はステップS3に進む。 If it is determined in step S2 that the accumulated amount of the expression-emotional data exceeds the threshold, the process proceeds to step S3.
ステップS3において、感情判別モデル学習部113は、感情判別モデル学習処理を実行する。感情判別モデル学習処理の詳細は、図9を参照して後述するが、この処理により、表出−感情データに基づいて、感情判別モデルが学習される。
In step S3, the emotion discrimination
ステップS4において、感情推定部42は、図10を参照して後述するコンテンツ自動再生制御処理を開始して、学習処理は終了する。
In step S4, the
次に、図7を参照して、図6のステップS1の表出−感情データ蓄積処理の詳細を説明する。 Next, with reference to FIG. 7, the details of the expression-emotion data accumulation process in step S1 of FIG. 6 will be described.
ステップS21において、コンテンツ情報提示部27は、ユーザに推薦情報を提示する。具体的には、コンテンツ情報提示部27は、メタ情報抽出部25を介して、メタ情報蓄積部24から、ユーザに推薦するコンテンツのメタ情報を読み出す。コンテンツ情報提示部27は、読み出したメタ情報に基づいて、ユーザに推薦するコンテンツに関する情報、すなわち、推薦情報を提示するための画像データおよび音声データを生成する。コンテンツ情報提示部27は、生成した画像データおよび音声データを出力部14に供給する。出力部14は、画像データに基づく画像を表示し、音声データに基づく音声を出力する。すなわち、刺激情報としてのコンテンツの推薦情報がユーザに提示される。
In step S21, the content
ユーザに提示される推薦情報は、例えば、推薦するコンテンツのタイトル、ジャンル、概要、出演者、制作日時、再生時間などを含む。また、推薦するコンテンツは、例えば、メタ情報蓄積部24にメタ情報が蓄積されているコンテンツの中からランダムに選択するようにしてもよいし、先に学習されているユーザの嗜好情報に基づいて、ユーザの嗜好に適したコンテンツを選択するようにしてもよい。 The recommendation information presented to the user includes, for example, the title, genre, outline, performer, production date / time, and reproduction time of the recommended content. In addition, the recommended content may be selected at random from the content in which the meta information is stored in the meta information storage unit 24, or based on the user's preference information learned in advance. The content suitable for the user's preference may be selected.
ステップS22において、データ収集部112は、表出−感情データ追加処理を実行する。表出−感情データ追加処理の詳細は、図4を参照して後述するが、この処理により、新たな表出−感情データが蓄積される。
In step S <b> 22, the
次に、図8を参照して、図7のステップS22の表出−感情データ追加処理の詳細を説明する。 Next, with reference to FIG. 8, the details of the expression-emotion data addition process in step S22 of FIG. 7 will be described.
ステップS41において、データ収集部112は、特徴ベクトルの蓄積を開始する。具体的には、特徴量取得部102は、画像特徴抽出部51により抽出されたユーザの特徴量、および、音声特徴抽出部52により抽出されたユーザの特徴量により構成される特徴ベクトルを含む表出情報をセンサ部41から取得する。特徴量取得部102は、取得した表出情報に含まれる特徴量ベクトルを示すデータをデータ収集部112に供給する。データ収集部112は、取得した特徴ベクトルを示すデータの表出−感情データ蓄積部106への蓄積を開始する。
In step S41, the
ステップS42において、ユーザ入力取得部28は、ユーザにより処理の指令が入力されたか否かを判定する。ユーザ入力取得部28は、ユーザがリモートコントローラ12を操作して入力した処理の指令を示すユーザ指令情報をリモートコントローラ12から取得した場合、ユーザにより処理の指令が入力されたと判定し、処理はステップS43に進む。
In step S42, the user
ステップS43において、感情検出部111は、ユーザの感情を検出する。具体的には、ユーザ入力取得部28は、コンテンツ再生部26、コンテンツ情報提示部27、および、感情検出部111にユーザ指令情報を供給する。コンテンツ再生部26、または、コンテンツ情報提示部27は、ユーザ指令情報に示される指令内容に基づいて、所定の処理を開始する。例えば、推薦情報により推薦されているコンテンツの再生がユーザにより指令された場合、コンテンツ再生部26は、再生が指令されたコンテンツをコンテンツ蓄積部23から読み出す。コンテンツ再生部26は、読み出したコンテンツを再生することにより得られた画像データおよび音声データを出力部14に供給する。出力部14は、画像データに基づく画像、すなわち、ユーザに推薦されたコンテンツの画像を表示し、音声データに基づく音声、すなわち、ユーザに推薦されたコンテンツの音声を出力する。
In step S43, the
感情検出部111は、感情マップ蓄積部105に蓄積されている感情マップの中から、ユーザ指令情報に示される指令内容に対応する興味度を検出する。このとき検出される興味度は、ユーザに提示されている刺激情報、すなわち、推薦情報またはコンテンツに対するユーザの興味度を示している。感情検出部111は、検出した興味度を通知する情報をデータ収集部112に供給する。
The
ステップS44において、データ収集部112は、表出−感情データを蓄積する。具体的には、データ収集部112は、表出−感情データ蓄積部106に蓄積されている特徴ベクトルのうち、直前の判別時間内に蓄積された特徴ベクトルを時系列に並べた特徴ベクトル群と、通知された興味度とを関連づけた表出−感情データを生成する。すなわち、このとき生成される表出−感情データは、刺激情報に対するユーザの状態を示す特徴ベクトル群と、刺激情報に対するユーザの興味度を関連づけたデータである。データ収集部112は、生成した表出−感情データをメタ情報蓄積部24に蓄積させる。
In step S44, the
その後、処理はステップS42に戻る。 Thereafter, the process returns to step S42.
ステップS42において、ユーザにより処理の指令が入力されていないと判定された場合、処理はステップS45に進む。 If it is determined in step S42 that the user has not input a processing instruction, the process proceeds to step S45.
ステップS45において、コンテンツ再生部26は、コンテンツの再生が終了したか否かを判定する。コンテンツ再生部26は、推薦情報が提示されてから所定の時間が経過していない場合、コンテンツが再生中の場合、または、コンテンツの再生が停止されてから所定の時間が経過していない場合、コンテンツの再生が終了していないと判定し、処理はステップS42に戻る。
In step S45, the
その後、ステップS45において、コンテンツの再生が終了したと判定されるまで、ステップS42乃至S45の処理が繰り返し実行され、ユーザが処理の指令を入力する度に、表出−感情データが蓄積される。 Thereafter, in step S45, the processes in steps S42 to S45 are repeatedly executed until it is determined that the reproduction of the content is completed, and the expression-emotional data is accumulated every time the user inputs a process command.
ステップS45において、コンテンツ再生部26は、推薦情報が提示されてから所定の時間が経過してもコンテンツの再生が行われない場合、または、コンテンツの再生が停止されてから所定の時間が経過した場合、コンテンツの再生が終了したと判定し、処理はステップS46に進む。
In step S45, the
ステップS46において、データ収集部112は、表出−感情データ蓄積部106への特徴ベクトルの蓄積を停止し、表出−感情データ追加処理は終了する。
In step S46, the
次に、図9のフローチャートを参照して、図6のステップS3の感情判別モデル学習処理の詳細を説明する。 Next, details of the emotion discrimination model learning process in step S3 in FIG. 6 will be described with reference to the flowchart in FIG.
ステップS61において、感情判別モデル学習部113は、表出−感情データに基づいて、感情判別モデルを学習し、感情判別モデル学習処理は終了する。具体的には、データ収集部112は、表出−感情データの蓄積量が閾値を超えたことを通知する情報を感情判別モデル学習部113に供給する。
In step S61, the emotion discrimination
感情判別モデル学習部113は、表出−感情データ蓄積部106に蓄積されている表出−感情データを読み出す。感情判別モデル学習部113は、表出−感情データに含まれる特徴ベクトルを主成分分析することにより、特徴ベクトルの主成分を求める。感情判別モデル学習部113は、表出−感情データに含まれる各特徴ベクトルについて、各特徴ベクトルの各変量を主成分に変換した主成分ベクトルを算出する。また、感情判別モデル学習部113は、表出−感情データの興味度を推定興味度に変換する。推定興味度は、例えば、興味度が所定の閾値(例えば、0)以上である場合、興味ありに設定され、閾値未満である場合、興味なしに設定される。
The emotion discrimination
感情判別モデル学習部113は、各表出−感情データの特徴ベクトル群と興味度の組み合わせを、主成分ベクトル群と推定興味度の組み合わせに変換したデータにより構成される感情判別モデル(図5)を生成する。なお、このとき、互いに距離が近い主成分ベクトル群を一つのベクトル群に統合したり、他の主成分ベクトル群から孤立している(所定の閾値より距離が離れている)主成分ベクトル群を削除するようにしてもよい。
The emotion discrimination
感情判別モデル学習部113は、感情判別モデルを示すデータを感情判別モデル蓄積部107に蓄積させる。また、感情判別モデル学習部113は、特徴ベクトルを主成分ベクトルに変換するための変換ベクトルを示すデータをマッチング部121に供給する。
The emotion discrimination
次に、図10のフローチャートを参照して、図6の学習処理に引き続いて行われるコンテンツ自動再生制御処理を説明する。 Next, the content automatic reproduction control process performed subsequent to the learning process of FIG. 6 will be described with reference to the flowchart of FIG.
ステップS101において、図4のステップS21の処理と同様に、ユーザに推薦情報が提示される。 In step S101, the recommendation information is presented to the user as in the process of step S21 of FIG.
ステップS102において、マッチング部121は、特徴量ベクトルを取得する。具体的には、マッチング部121は、センサ部41から供給される表出情報に含まれる特徴量ベクトルを示すデータを特徴量取得部102から取得する。
In step S102, the
ステップS103において、マッチング部121は、マッチング処理を行う。具体的には、マッチング部121は、ユーザに推薦情報が提示されてから判別時間内の特徴ベクトルを主成分ベクトルに変換し、変換した主成分ベクトルを時系列に並べた主成分ベクトル群(以下、入力主成分ベクトル群と称する)を生成する。マッチング部121は、感情判別モデル蓄積部107に蓄積されている感情判別モデルを示すデータを読み出す。マッチング部121は、感情判別モデルに含まれる各主成分ベクトル群について、入力主成分ベクトル群との相関をそれぞれ求める。例えば、マッチング部121は、感情判別モデルに含まれる主成分ベクトル群と入力主成分ベクトル群とについて、先頭の主成分ベクトルから順番に対応する主成分ベクトル間の相関係数を算出し、算出した相関係数の和を求める。
In step S103, the
ステップS104において、マッチング部121は、一致する主成分ベクトル群があるか否かを判定する。具体的には、マッチング部121は、ステップS103において算出した入力主成分ベクトル群に対する感情判別モデルに含まれる各主成分ベクトル群の相関係数の和のうちの最大値が所定の閾値を超える場合、入力主成分ベクトル群と一致する主成分ベクトル群が感情判別モデルにあると判定し、処理はステップS105に進む。なお、感情判別モデルに含まれる主成分ベクトル群のうち、入力主成分ベクトル群との相関計数の和が最大となる主成分ベクトル群は、ステップS101において提示された推薦情報に対するユーザの状態と最も近い状態を示す主成分ベクトル群である。
In step S104, the
ステップS105において、マッチング部121は、推薦したコンテンツにユーザが興味を持っているか否かを判定する。具体的には、マッチング部121は、入力主成分ベクトル群との相関計数の和が最大となる主成分ベクトル群に対応する推定興味度が興味ありに設定されている場合、推薦したコンテンツにユーザが興味を持っていると判定し、処理はステップS106に進む。
In step S105, the
ステップS106において、推薦処理制御部43は、コンテンツを自動再生させる。具体的には、マッチング部121は、推薦したコンテンツにユーザが興味を持っていることを示す情報を、感情出力部122を介して推薦処理制御部43に供給する。推薦処理制御部43は、推薦したコンテンツの再生を指令する情報をコンテンツ再生部26に供給する。コンテンツ再生部26は、再生が指令されたコンテンツをコンテンツ蓄積部23から読み出す。コンテンツ再生部26は、読み出したコンテンツを再生することにより得られた画像データおよび音声データを出力部14に供給する。出力部14は、画像データに基づく画像、すなわち、ユーザに推薦したコンテンツの画像を表示し、音声データに基づく音声、すなわち、ユーザに推薦したコンテンツの音声を出力する。
In step S106, the recommendation
ステップS105において、入力主成分ベクトル群との相関計数の和が最大となる主成分ベクトル群に対応する推定興味度が興味なしに設定されている場合、推薦したコンテンツにユーザが興味を持っていないと判定され、ステップS106の処理はスキップされ、コンテンツの自動再生は行われずに、処理はステップS107に進む。 In step S105, if the estimated interest level corresponding to the principal component vector group having the maximum correlation coefficient with the input principal component vector group is set to be uninteresting, the user is not interested in the recommended content. The process of step S106 is skipped, the content is not automatically reproduced, and the process proceeds to step S107.
ステップS104において、一致する主成分ベクトル群がないと判定された場合、すなわち、現在のユーザの状態を示す主成分ベクトル群と一致する主成分ベクトル群が感情判別モデルになく、推薦したコンテンツに対するユーザの興味度を推定できない場合、ステップS105およびS106の処理はスキップされ、処理はステップS107に進む。 If it is determined in step S104 that there is no matching principal component vector group, that is, there is no principal component vector group that matches the principal component vector group indicating the current user state in the emotion discrimination model, and the user for the recommended content If the degree of interest cannot be estimated, the processes of steps S105 and S106 are skipped, and the process proceeds to step S107.
ステップS107において、図8を参照して上述した表出−感情データ追加処理が実行され、コンテンツ自動再生制御処理は終了する。これにより、学習処理が終了し、コンテンツ自動再生制御処理が開始された後も、ユーザにコンテンツが推薦される度に、表出−感情データが蓄積される。そして、蓄積された表出−感情データに基づいて、新たに学習処理を実行することにより、感情推定部42が推定するユーザの興味度の信頼度をより高いものにすることができる。
In step S107, the expression-emotion data addition process described above with reference to FIG. 8 is executed, and the content automatic reproduction control process ends. Thus, even after the learning process is finished and the automatic content reproduction control process is started, the expression-emotional data is accumulated every time the content is recommended to the user. And the reliability of the user's interest degree which the
以上のようにして、学習期間中に刺激情報を提示したときに検出されるユーザの状態に基づいて学習された感情判別モデルを用いて、ユーザの興味度を推定することにより、刺激情報に対する各個人の反応の違いに応じて、より正確にユーザの興味度を推定することができる。また、感情判別モデルの学習をするにあたり、ユーザは特別な対応をする必要がないため、ユーザの負担は増加しない。また、ユーザが興味を持っていると判定された場合、推薦されたコンテンツが自動的に再生されるため、ユーザの利便性が向上する。 As described above, by using the emotion discrimination model learned based on the user's state detected when the stimulus information is presented during the learning period, each user's interest level is estimated by estimating the user's degree of interest. The degree of interest of the user can be estimated more accurately according to the difference in individual responses. In addition, when learning the emotion discrimination model, the user does not need to take a special action, so the burden on the user does not increase. In addition, when it is determined that the user is interested, the recommended content is automatically reproduced, so that convenience for the user is improved.
なお、以上の説明では、処理の指令を入力したときのユーザの状態を検出することにより、ユーザの状態と興味度との関係を学習する例を示したが、ユーザに与える刺激の内容に対するユーザの状態を検出することにより、ユーザの状態と興味度との関係を学習するようにすることも可能である。なお、以下、ユーザに与える刺激の内容に対するユーザの状態を検出することによるユーザの状態と興味度との関係の学習を、刺激対応学習と称する。 In the above description, an example is shown in which the relationship between the user state and the degree of interest is learned by detecting the user state when a processing command is input. It is also possible to learn the relationship between the user's state and the degree of interest by detecting the state. Hereinafter, learning of the relationship between the user state and the degree of interest by detecting the user state with respect to the content of the stimulus given to the user is referred to as stimulus correspondence learning.
図11乃至図13を参照して、刺激対応学習をする場合のコンテンツ推薦システム1の処理を説明する。
With reference to FIGS. 11 to 13, processing of the
図11は、刺激対応学習をする場合に用いられる感情マップの例を示している。図11の感情マップには、ユーザに与えられる刺激に対するユーザの興味度を示す情報および刺激の内容を示す情報が予め関連づけられて設定されている。感情マップに設定される刺激内容には、タレントの名前、楽曲名、番組名、ジャンル名(例えば、スポーツ、ニュースなど)など、ユーザに与える刺激の特徴を示すデータが含まれる。例えば、図11の感情マップでは、タレントAに対してユーザの興味が非常に高いため、興味度は+3に設定されている。また、楽曲Bに対してユーザの興味が高いため、興味度は+1に設定されている。さらに、番組Cに対してユーザの興味がかなり高いため、興味度は+2に設定されている。また、ジャンルDに対してユーザの興味がかなり低いため、興味度は−2に設定されている。 FIG. 11 shows an example of an emotion map used in the case of stimulating correspondence learning. In the emotion map of FIG. 11, information indicating the degree of interest of the user with respect to the stimulus given to the user and information indicating the content of the stimulus are set in advance in association with each other. The stimulus content set in the emotion map includes data indicating the characteristics of the stimulus given to the user, such as the name of the talent, the name of the song, the program name, and the genre name (eg, sports, news, etc.). For example, in the emotion map of FIG. 11, since the user is very interested in the talent A, the degree of interest is set to +3. Further, since the user is highly interested in the music B, the degree of interest is set to +1. Further, since the user is very interested in the program C, the degree of interest is set to +2. Also, since the user's interest in the genre D is very low, the interest level is set to -2.
なお、図11に示される感情マップは、例えば、予め行われる他の学習処理、または、ユーザに対するアンケートなどにより生成される。 Note that the emotion map shown in FIG. 11 is generated by, for example, another learning process performed in advance or a questionnaire for the user.
次に、図12および図13のフローチャートを参照して、刺激対応学習をする場合に、コンテンツ推薦システム1により実行される処理を説明する。
Next, processing executed by the
刺激対応学習をする場合の学習処理は、図6を参照して説明した学習処理と同様なので、その説明は省略する。 The learning process in the case of performing stimulus correspondence learning is the same as the learning process described with reference to FIG.
次に、図12を参照して、刺激対応学習する場合の図6のステップS1の表出−感情データ蓄積処理を説明する。 Next, with reference to FIG. 12, the expression-emotion data accumulation process in step S1 of FIG.
ステップS201において、図7のステップS21の処理と同様に、ユーザに推薦情報が提示される。なお、このとき、コンテンツ情報提示部27は、推薦情報の元となるメタ情報を、入力情報取得部101を介して感情検出部111に供給する。
In step S201, recommendation information is presented to the user in the same manner as in step S21 of FIG. At this time, the content
ステップS202において、データ収集部112は、表出−感情データ追加処理を実行する。表出−感情データ追加処理の詳細は、図13を参照して後述するが、この処理により、新たな表出−感情データが蓄積される。
In step S <b> 202, the
次に、図13を参照して、図12のステップS202の表出−感情データ追加処理の詳細を説明する。 Next, with reference to FIG. 13, the details of the expression-emotional data adding process in step S202 of FIG. 12 will be described.
なお、表出−感情データ追加処理の実行中に、ユーザがリモートコントローラ12を操作して処理の指令を入力し、リモートコントローラ12から、ユーザ入力取得部28を介して、コンテンツ再生部26またはコンテンツ情報提示部27に、ユーザ指令情報が供給された場合、コンテンツ再生部26またはコンテンツ情報提示部27は、ユーザ指令情報に示される指令内容に基づいて、所定の処理を開始する。
During the execution of the expression-emotion data addition process, the user operates the
例えば、推薦情報により推薦されているコンテンツの再生がユーザにより指令された場合、コンテンツ再生部26は、再生が指令されたコンテンツをコンテンツ蓄積部23から読み出す。コンテンツ再生部26は、読み出したコンテンツを再生することにより得られた画像データおよび音声データを出力部14に供給する。出力部14は、画像データに基づく画像、すなわち、ユーザに推薦されたコンテンツの画像を表示し、音声データに基づく音声、すなわち、ユーザに推薦されたコンテンツの音声を出力する。また、コンテンツ再生部26は、メタ情報抽出部25を介して、再生するコンテンツのメタ情報をメタ情報蓄積部24から読み出す。コンテンツ再生部26は、コンテンツの再生中、再生している場面に対応するメタ情報を、入力情報取得部101を介して感情検出部111に適宜供給する。
For example, when the user instructs the reproduction of the content recommended by the recommendation information, the
ステップS221において、図8のステップS41の処理と同様に、特徴ベクトルの蓄積が開始される。 In step S221, as in the process of step S41 of FIG. 8, accumulation of feature vectors is started.
ステップS222において、感情検出部111は、ユーザに所定の刺激が与えられたか否かを判定する。具体的には、ユーザに推薦情報が提示されている場合、感情検出部111は、コンテンツ情報提示部27から供給されたメタ情報の中に、感情マップに定義されている刺激内容が含まれているか否かを判定する。メタ情報の中に感情マップに定義されている刺激内容が含まれている場合、感情検出部111は、ユーザに所定の刺激が与えられたと判定し、処理はステップS223に進む。
In step S222, the
また、コンテンツを再生中の場合、感情検出部111は、コンテンツ再生部26から供給された、現在再生しているコンテンツの場面に対応するメタ情報の中に、感情マップに定義されている刺激内容が含まれているか否かを判定する。メタ情報の中に感情マップに定義されている刺激内容が含まれている場合、ユーザに所定の刺激が与えられたと判定し、処理はステップS223に進む。
In addition, when the content is being played back, the
ステップS223において、感情検出部111は、ユーザの感情を検出する。具体的には、感情検出部111は、ステップS222において、感情マップに定義されていると判定された刺激内容に対応する興味度を、感情マップの中から検出する。感情検出部111は、検出した興味度を通知する情報をデータ収集部112に供給する。このとき検出される興味度は、ユーザに提示されている刺激情報、すなわち、推薦情報またはコンテンツに対するユーザの興味度を示している。
In step S223, the
ステップS224において、図8のステップS43の処理と同様に、表出−感情データが蓄積される。 In step S224, the expression-emotion data is accumulated as in the process of step S43 of FIG.
その後、処理はステップS222に戻る。 Thereafter, the process returns to step S222.
ステップS222において、ユーザに推薦情報が提示されている場合、コンテンツ情報提示部27から供給されたメタ情報の中に、感情マップに定義されている刺激内容が含まれていないとき、感情検出部111は、ユーザに所定の刺激が与えられていないと判定し、処理はステップS225に進む。また、コンテンツを再生中の場合、コンテンツ再生部26から供給されたメタ情報の中に感情マップに定義されている刺激内容が含まれていないとき、感情検出部111は、ユーザに所定の刺激が与えられていないと判定し、処理はステップS225に進む。
In step S222, when the recommendation information is presented to the user, when the stimulus information defined in the emotion map is not included in the meta information supplied from the content
ステップS225において、上述した図8のステップS45の処理と同様に、コンテンツの再生が終了したか否かが判定される。コンテンツの再生が終了していないと判定された場合、処理はステップS222に戻る。 In step S225, it is determined whether or not the reproduction of the content has been completed, similar to the process in step S45 of FIG. 8 described above. If it is determined that the content reproduction has not ended, the process returns to step S222.
その後、ステップS225において、コンテンツの再生が終了したと判定されるまで、ステップS222乃至S225の処理が繰り返し実行され、感情マップに定義されている刺激内容を含むコンテンツの場面がユーザに提示される度に、表出−感情データが蓄積される。 Thereafter, until it is determined in step S225 that the reproduction of the content has been completed, the processing in steps S222 to S225 is repeatedly executed, and the scene of the content including the stimulus content defined in the emotion map is presented to the user. In addition, the expression-emotion data is accumulated.
ステップS225において、コンテンツの再生が終了したと判定された場合、処理はステップS226に進む。 If it is determined in step S225 that the content reproduction has ended, the process proceeds to step S226.
ステップS226において、上述した図13のステップS46の処理と同様に、特徴ベクトルの蓄積が終了され、表出−感情データ追加処理は終了する。 In step S226, similar to the process of step S46 of FIG. 13 described above, the accumulation of feature vectors is terminated, and the expression-emotion data addition process is terminated.
刺激対応学習をする場合の図6のステップS3の感情判別モデル学習処理は、図9を参照して説明した感情判別モデル学習処理と同様なので、その説明は省略する。すなわち、図11に示される感情マップに基づく表出−感情デ−タに基づいて、図5に示される感情判別モデルが学習される。 The emotion discrimination model learning process in step S3 of FIG. 6 in the case of performing stimulus correspondence learning is the same as the emotion discrimination model learning process described with reference to FIG. That is, the emotion discrimination model shown in FIG. 5 is learned based on the expression-emotion data based on the emotion map shown in FIG.
このようにして、図6乃至図10を参照して上述した処理と同様に、感情判別モデルを学習することができる。また、学習された感情判別モデルを用いることにより、感情マップに定義されていない刺激内容に対するユーザの興味度も正確に推定することができる。 In this manner, the emotion discrimination model can be learned in the same manner as the processing described above with reference to FIGS. Further, by using the learned emotion discrimination model, it is possible to accurately estimate the user's degree of interest with respect to the stimulus content not defined in the emotion map.
以上のように、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、ユーザに刺激が与えられた場合、ユーザにより意図的に入力される入力情報を取得し、ユーザにより入力される入力情報により予測される刺激に対するユーザの感情を示す情報および入力情報が予め関連づけられて設定されている感情データと、ユーザに刺激である第1の刺激が与られた場合、ユーザが入力情報を入力したときに取得される特徴量データとに基づいて、特徴量データとユーザの感情との関係を示すモデルを学習し、第2の刺激を与えた場合に取得される特徴量データ、および、モデルに基づいて、第2の刺激を与えた場合のユーザの感情を推定する場合には、ユーザの感情を推定することができる。また、ユーザの負担を増やすことなく、ユーザの感情をより正確に推定することができる。 As described above, the feature amount data indicating the feature amount of the user state that changes due to the expression of emotion is acquired, and when the user is given a stimulus, the input information intentionally input by the user is acquired, When the first stimulus that is the stimulus is given to the user and the emotion data that is set in association with the information indicating the user's emotion with respect to the stimulus predicted by the input information input by the user and the input information, Features acquired when learning a model indicating the relationship between the feature data and the user's emotion based on the feature data acquired when the user inputs input information, and applying a second stimulus When estimating the user's emotion when the second stimulus is applied based on the quantity data and the model, the user's emotion can be estimated. Moreover, a user's emotion can be estimated more correctly, without increasing a user's burden.
また、感情の表出により変化するユーザの状態の特徴量を示す特徴量データを取得し、第1の刺激に対するユーザの感情を示す情報および第1の刺激を示す情報が予め関連づけられて設定されている感情データと、ユーザに第1の刺激が与えられた場合に取得される特徴量データとに基づいて、特徴量データとユーザの感情との関係を示すモデルを学習し、第2の刺激を与えた場合に取得される特徴量データ、および、モデルに基づいて、第2の刺激を与えた場合のユーザの感情を推定する場合には、ユーザの感情を推定することができる。また、ユーザの負担を増やすことなく、ユーザの感情をより正確に推定することができる。 Further, feature amount data indicating the feature amount of the user's state that changes due to the expression of emotion is acquired, and information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other. Based on the sentiment data and the feature data acquired when the first stimulus is given to the user, a model indicating the relationship between the feature data and the user's emotion is learned, and the second stimulus In the case where the user's emotion when the second stimulus is applied is estimated based on the feature amount data acquired when the second stimulus is applied and the model, the user's emotion can be estimated. Moreover, a user's emotion can be estimated more correctly, without increasing a user's burden.
なお、以上の説明では、推定されたユーザの興味度を用いて、コンテンツを自動再生する例について説明したが、その他の処理を自動化することも可能である。例えば、コンテンツの再生中に、ユーザの興味度が低いと推定された場合、コンテンツの再生を自動的に停止するようにしてもよい。また、例えば、テレビジョン放送の番組を視聴中に、ユーザの興味度が低いと推定された場合、裏番組に自動的に切替えたり、HDD(ハードディスク)やDVD(Digital Versatile Disc)などの記録媒体に記録されているコンテンツの再生に自動的に切替えるようにしてもよい。さらに、コンテンツがテキスト情報の場合、ユーザの興味度が高いと推定された場合、さらに詳細な情報をユーザに提示するようにしてもよい。これらにより、ユーザの利便性が向上する。 In the above description, an example in which content is automatically reproduced using the estimated degree of interest of the user has been described. However, other processes can be automated. For example, when it is estimated that the degree of interest of the user is low during the reproduction of the content, the reproduction of the content may be automatically stopped. Also, for example, when it is estimated that the user's degree of interest is low while watching a television broadcast program, the program is automatically switched to the back program, or a recording medium such as an HDD (hard disk) or DVD (Digital Versatile Disc) It is also possible to automatically switch to playback of the content recorded in Furthermore, when the content is text information, more detailed information may be presented to the user when the degree of interest of the user is estimated to be high. As a result, user convenience is improved.
また、例えば、ペット用のロボットなどに用いられる会話システムに本発明を適用して、ユーザの興味度に応じて、会話を継続したり、停止したり、話題を変更したりするようにしてもよい。これにより、ユーザを飽きさせずに楽しませることができる。 Further, for example, the present invention is applied to a conversation system used for a pet robot or the like, and the conversation is continued, stopped, or the topic is changed according to the degree of interest of the user. Good. Thereby, it is possible to entertain the user without getting bored.
さらに、表出−感情データに設定する興味度を、感情マップ以外の情報を用いて設定するようにしてもよい。例えば、推薦するコンテンツが音楽である場合、再生している音楽のリズムやビートを音楽特徴解析により解析するとともに、ユーザの体の一部の揺れを検出するようにして、音楽のリズムまたはビートとユーザの体の一部の揺れとの同調度を求める。そして、音楽のリズムまたはビートとユーザの体の一部の揺れとが同調している場合、そのときのユーザの興味度をより高く(例えば、+5に)設定するようにすることが可能である。 Furthermore, you may make it set the interest degree set to expression-emotion data using information other than an emotion map. For example, if the recommended content is music, the rhythm or beat of the music being played is analyzed by music feature analysis, and the rhythm or beat of the music is detected by detecting the shaking of a part of the user's body. The degree of synchronization with shaking of a part of the user's body is obtained. When the rhythm or beat of the music is synchronized with the shaking of a part of the user's body, the user's interest at that time can be set higher (for example, to +5). .
また、図5の感情判別モデルの推定興味度を興味あり、興味なしの2値ではなく、興味度をそのまま用いるようにしたり、推定興味度の取りうる離散値の数を増やしたり、または、推定興味度を連続量にしたりして、ユーザの興味度をより詳細に推定できるようにしてもよい。 Further, the estimated interest degree of the emotion discrimination model in FIG. 5 is not the binary value of interest and not interested, but the interest degree is used as it is, or the number of discrete values that the estimated interest degree can take is increased or estimated. The degree of interest may be a continuous amount or the user's degree of interest may be estimated in more detail.
さらに、以上の説明では、興味度を推定する例について説明したが、興味度以外の感情(例えば、喜怒哀楽、または、個々の感情の程度など)を推定するようにしてもよい。この場合、例えば、図3、図4、または図11に示される感情マップに、興味度以外の感情を設定することにより実現することができる。また、興味度を用いた場合と同様に、各種の推薦処理や自動処理などに推定されたユーザの感情を利用することができる。 Furthermore, in the above description, an example of estimating the degree of interest has been described. However, emotions other than the degree of interest (for example, emotions, degrees of individual emotions, etc.) may be estimated. In this case, for example, it can be realized by setting an emotion other than the degree of interest in the emotion map shown in FIG. 3, FIG. 4, or FIG. Similarly to the case of using the degree of interest, it is possible to use the user's emotion estimated for various types of recommendation processing and automatic processing.
また、以上の説明では、リモートコントローラ12を操作して、処理の指令を入力する例について説明したが、処理の指令を入力する方法は、特定の方法に限定されるものではない。例えば、音声入力やジェスチャーなどにより処理の指令を入力するようにしたり、コンテンツ提示制御部11に設けられている図示せぬボタン、スイッチなどを操作して処理の指令を入力するようにすることも可能である。
In the above description, an example in which a processing command is input by operating the
さらに、処理の指令以外の、ユーザが刺激情報に対して意図的に入力する情報を用いて、感情判別モデルを学習するようにすることもできる。例えば、ユーザに現在の感情を問いかけて、それに対する回答、および、回答したときに得られる特徴ベクトルに基づいて、感情判別モデルを学習することができる。 Furthermore, the emotion discrimination model can be learned using information that the user intentionally inputs to the stimulus information other than the processing command. For example, an emotion discrimination model can be learned on the basis of a feature vector obtained when a user is asked about the current emotion and an answer is given to the user.
また、図5に示される感情判別モデルの代わりに、例えば、検出されたユーザの特徴量と興味度の関係を線形または非線型の関数により表し、関数計算によりユーザの興味度を算出するようにしてもよい。 Further, instead of the emotion discrimination model shown in FIG. 5, for example, the relationship between the detected feature quantity of the user and the degree of interest is represented by a linear or nonlinear function, and the degree of interest of the user is calculated by function calculation. May be.
さらに、コンテンツの再生中に検出される興味度を加算していくことにより、コンテンツ単位の興味度を求めることができる。求めたコンテンツ単位の興味度は、コンテンツのメタ情報などと関連づけるなどして、コンテンツ単位のユーザの嗜好の学習に利用するようにすることもできる。 Furthermore, the interest level in units of content can be obtained by adding the interest levels detected during the reproduction of the content. The obtained interest level of the content unit can be used for learning the user preference of the content unit by associating it with the meta information of the content.
また、以上の説明では、ユーザに与える刺激として、コンテンツの推薦情報またはコンテンツを提示する例について説明したが、例えば、各種の商品、飲食店のメニュー、各種のパンフレットなどコンテンツ以外の刺激を与えるようにしてもよい。例えば、コンテンツ以外の刺激を与えた場合のユーザの状態、および、ユーザにより意図的に入力される入力情報を取得し、予め準備されている感情マップを用いて、感情判別モデルを学習することができる。 In the above description, examples of presenting content recommendation information or content as a stimulus to be given to the user have been described. However, for example, various products, restaurant menus, various pamphlets, and the like may be given. It may be. For example, it is possible to acquire a user's state when a stimulus other than content is given and input information intentionally input by the user and learn an emotion discrimination model using an emotion map prepared in advance. it can.
なお、本発明は、上述したコンテンツなどの情報をユーザに推薦するシステム以外にも、ユーザの感情を用いて処理を制御する装置、例えば、ユーザの感情に反応するペット型ロボット、ユーザの感情を利用してストーリー等を切替えるゲーム機器またはソフトウエアなどに適用することができる。 In addition to the system for recommending information such as the content described above to the user, the present invention is a device that controls processing using the user's emotion, for example, a pet robot that reacts to the user's emotion, the user's emotion It can be applied to game machines or software that switch stories and the like.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図14は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)901は、ROM(Read Only Memory)902、または記録部908に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)903には、CPU901が実行するプログラムやデータなどが適宜記憶される。これらのCPU901、ROM902、およびRAM903は、バス904により相互に接続されている。
FIG. 14 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 901 executes various processes according to a program stored in a ROM (Read Only Memory) 902 or a
CPU901にはまた、バス904を介して入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907が接続されている。CPU901は、入力部906から入力される指令に対応して各種の処理を実行する。そして、CPU901は、処理の結果を出力部907に出力する。
An input /
入出力インタフェース905に接続されている記録部908は、例えばハードディスクからなり、CPU901が実行するプログラムや各種のデータを記憶する。通信部909は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
The
また、通信部909を介してプログラムを取得し、記録部908に記憶してもよい。
Further, the program may be acquired via the
入出力インタフェース905に接続されているドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記録部908に転送され、記憶される。
A drive 910 connected to the input /
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図14に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911、または、プログラムが一時的もしくは永続的に格納されるROM902や、記録部908を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部909を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 14, a program recording medium that stores a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a
なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
1 コンテンツ推薦システム, 11 リモートコントローラ, 12 コンテンツ提示制御部, 13 コンテンツ推薦制御部, 14 出力部, 25 メタ情報抽出部, 26 コンテンツ再生部, 27 コンテンツ情報提示部, 28 ユーザ入力取得部, 41 センサ部, 42 感情推定部, 43 推薦処理制御部, 101 入力情報取得部, 102 特徴量取得部, 103 学習部, 104 推定部, 111 感情検出部, 112 データ収集部, 113 感情判別モデル学習部, 121 マッチング部, 122 感情出力部, 901 CPU, 902 ROM, 903 RAM, 908 記録部, 910 ドライブ, 911 リムーバブルメディア
DESCRIPTION OF
Claims (16)
前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得する入力情報取得手段と、
前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習する学習手段と、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段と
を含む感情推定装置。 Feature quantity acquisition means for acquiring feature quantity data indicating a feature quantity of a user's state that changes due to the expression of emotion;
Input information acquisition means for acquiring input information intentionally input by the user when a stimulus is given to the user;
Information indicating the emotion of the user with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with the user, and the first that is the stimulus to the user Learning means for learning a model indicating a relationship between the feature amount data and the user's emotion based on the feature amount data acquired when the user inputs the input information when a stimulus is given When,
An emotion estimation apparatus comprising: estimation means for estimating the emotion of the user when the second stimulus is applied based on the feature amount data acquired when the second stimulus is applied and the model; .
請求項1に記載の感情推定装置。 The emotion estimation apparatus according to claim 1, wherein the input information is information indicating a processing instruction to a device that gives the user the first stimulus.
請求項1に記載の感情推定装置。 The information indicating the degree of interest of the user with respect to the stimulus predicted by the input information input by the user and the input information are set in association with the emotion data in advance. Emotion estimation device.
さらに含む請求項1に記載の感情推定装置。 The emotion estimation apparatus according to claim 1, further comprising detection means for detecting a feature amount of the user's state and outputting the feature amount data.
請求項1に記載の感情推定装置。 The emotion estimation apparatus according to claim 1, wherein the stimulus given to the user is information presented to the user.
さらに含む請求項5に記載の感情推定装置。 The emotion estimation apparatus according to claim 5, further comprising information presentation control means for controlling presentation of information recommended to the user based on the estimated emotion of the user.
前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得し、
前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する
ステップを含む感情推定方法。 Acquire feature quantity data indicating the feature quantity of the user's state that changes due to the expression of emotions,
When stimulation is given to the user, input information that is intentionally input by the user is acquired,
Information indicating the user's emotions with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with the user, and the first that is the stimulus to the user When a stimulus is applied, based on the feature amount data acquired when the user inputs the input information, a model indicating a relationship between the feature amount data and the user's emotion is learned.
An emotion estimation method including a step of estimating an emotion of the user when the second stimulus is applied based on the feature amount data acquired when the second stimulus is applied and the model.
前記ユーザに刺激が与えられた場合、前記ユーザにより意図的に入力される入力情報を取得し、
前記ユーザにより入力される前記入力情報により予測される前記刺激に対する前記ユーザの感情を示す情報および前記入力情報が予め関連づけられて設定されている感情データと、前記ユーザに前記刺激である第1の刺激が与られた場合、前記ユーザが前記入力情報を入力したときに取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する
ステップをコンピュータに実行させるプログラム。 Acquire feature quantity data indicating the feature quantity of the user's state that changes due to the expression of emotions,
When stimulation is given to the user, input information that is intentionally input by the user is acquired,
Information indicating the emotion of the user with respect to the stimulus predicted by the input information input by the user and emotion data in which the input information is set in advance in association with the user, and the first that is the stimulus to the user When a stimulus is applied, based on the feature amount data acquired when the user inputs the input information, a model indicating a relationship between the feature amount data and the user's emotion is learned.
A program for causing a computer to execute a step of estimating an emotion of the user when the second stimulus is given based on the feature amount data obtained when the second stimulus is given and the model.
第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習する学習手段と、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する推定手段と
を含む感情推定装置。 Feature quantity acquisition means for acquiring feature quantity data indicating a feature quantity of a user's state that changes due to the expression of emotion;
Acquired when the first stimulus is given to the user, and emotion data in which information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other. Learning means for learning a model indicating a relationship between the feature amount data and the user's emotion based on the feature amount data;
An emotion estimation apparatus comprising: estimation means for estimating the emotion of the user when the second stimulus is applied based on the feature amount data acquired when the second stimulus is applied and the model; .
請求項9に記載の感情推定装置。 The emotion estimation apparatus according to claim 9, wherein information indicating a degree of interest of the user with respect to the first stimulus and information indicating the first stimulus are set in advance in the emotion data.
さらに含む請求項9に記載の感情推定装置。 The emotion estimation apparatus according to claim 9, further comprising detection means for detecting a feature amount of the user's state and outputting the feature amount data.
請求項9に記載の感情推定装置。 The emotion estimation apparatus according to claim 9, wherein the first stimulus or the second stimulus given to the user is information presented to the user.
さらに含む請求項12に記載の感情推定装置。 The emotion estimation apparatus according to claim 12, further comprising information presentation control means for controlling presentation of information recommended to the user based on the estimated emotion of the user.
第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する
ステップを含む感情推定方法。 Acquire feature quantity data indicating the feature quantity of the user's state that changes due to the expression of emotions,
Acquired when the first stimulus is given to the user, and emotion data in which information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other. Based on the feature amount data, a model indicating a relationship between the feature amount data and the user's emotion is learned,
An emotion estimation method including a step of estimating an emotion of the user when the second stimulus is applied based on the feature amount data acquired when the second stimulus is applied and the model.
第1の刺激に対する前記ユーザの感情を示す情報および前記第1の刺激を示す情報が予め関連づけられて設定されている感情データと、前記ユーザに前記第1の刺激が与えられた場合に取得される前記特徴量データとに基づいて、前記特徴量データと前記ユーザの感情との関係を示すモデルを学習し、
第2の刺激を与えた場合に取得される前記特徴量データ、および、前記モデルに基づいて、前記第2の刺激を与えた場合の前記ユーザの感情を推定する
ステップをコンピュータに実行させるプログラム。 Acquire feature quantity data indicating the feature quantity of the user's state that changes due to the expression of emotions,
Acquired when the first stimulus is given to the user, and emotion data in which information indicating the user's emotion with respect to the first stimulus and information indicating the first stimulus are set in advance in association with each other. Based on the feature amount data, a model indicating a relationship between the feature amount data and the user's emotion is learned,
A program for causing a computer to execute a step of estimating an emotion of the user when the second stimulus is given based on the feature amount data obtained when the second stimulus is given and the model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005216794A JP2007034664A (en) | 2005-07-27 | 2005-07-27 | Emotion estimation device and method, recording medium and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005216794A JP2007034664A (en) | 2005-07-27 | 2005-07-27 | Emotion estimation device and method, recording medium and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007034664A true JP2007034664A (en) | 2007-02-08 |
Family
ID=37793849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005216794A Pending JP2007034664A (en) | 2005-07-27 | 2005-07-27 | Emotion estimation device and method, recording medium and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007034664A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009076027A (en) * | 2007-09-19 | 2009-04-09 | Korea Electronics Telecommun | Service recommendation method and service recommendation device for robots of network base |
JP2009187109A (en) * | 2008-02-04 | 2009-08-20 | Fujifilm Corp | Image display device, display control method and display control program |
KR100919825B1 (en) * | 2008-03-25 | 2009-10-01 | 한국전자통신연구원 | Method for generating a composite emotion state in a multi-dimensional vector space |
JP2010094493A (en) * | 2008-09-22 | 2010-04-30 | Koichi Kikuchi | System for deciding viewer's feeling on viewing scene |
JP2011120824A (en) * | 2009-12-14 | 2011-06-23 | Tokyo Univ Of Agriculture & Technology | Sensibility evaluation device, sensibility evaluation method, and sensibility evaluation program |
EP2061242A3 (en) * | 2007-11-19 | 2011-07-27 | Sony Corporation | Information providing device, system, method and program, information acquisition terminal and broadcast receiving terminal |
JP2013502633A (en) * | 2009-08-20 | 2013-01-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and system for image analysis |
JP2013153349A (en) * | 2012-01-25 | 2013-08-08 | Nippon Hoso Kyokai <Nhk> | Viewing state recognition apparatus and viewing state recognition program |
JP2014115897A (en) * | 2012-12-11 | 2014-06-26 | Fujitsu Ltd | Information processor, management device, information processing method, controlling method, information processing program, controlling program, and content providing system |
JP2014120137A (en) * | 2012-12-19 | 2014-06-30 | Samsung R&D Institute Japan Co Ltd | Information processing apparatus, information processing method and computer program |
JP2014241498A (en) * | 2013-06-11 | 2014-12-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Program recommendation device |
WO2015162949A1 (en) * | 2014-04-21 | 2015-10-29 | ソニー株式会社 | Communication system, control method, and storage medium |
JP2021068090A (en) * | 2019-10-21 | 2021-04-30 | パナソニックIpマネジメント株式会社 | Content recommendation system |
JP2021525921A (en) * | 2018-06-01 | 2021-09-27 | システムズ アンド ソフトウェア エンタープライゼス, エルエルシーSystems And Software Enterprises, Llc | Systems and methods for recommended systems based on implied feedback |
WO2022085926A1 (en) * | 2020-10-23 | 2022-04-28 | 삼성전자 주식회사 | System including electronic device and server, and content recommendation method using system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005142975A (en) * | 2003-11-10 | 2005-06-02 | Nippon Telegr & Teleph Corp <Ntt> | Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus |
JP2005190640A (en) * | 2003-12-26 | 2005-07-14 | Sony Corp | Reproduction apparatus and evaluation method for content |
-
2005
- 2005-07-27 JP JP2005216794A patent/JP2007034664A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005142975A (en) * | 2003-11-10 | 2005-06-02 | Nippon Telegr & Teleph Corp <Ntt> | Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus |
JP2005190640A (en) * | 2003-12-26 | 2005-07-14 | Sony Corp | Reproduction apparatus and evaluation method for content |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009076027A (en) * | 2007-09-19 | 2009-04-09 | Korea Electronics Telecommun | Service recommendation method and service recommendation device for robots of network base |
EP2061242A3 (en) * | 2007-11-19 | 2011-07-27 | Sony Corporation | Information providing device, system, method and program, information acquisition terminal and broadcast receiving terminal |
US8250594B2 (en) | 2007-11-19 | 2012-08-21 | Sony Corporation | Information providing device, information acquisition terminal, broadcast receiving terminal, information providing system, information providing method, and program |
JP2009187109A (en) * | 2008-02-04 | 2009-08-20 | Fujifilm Corp | Image display device, display control method and display control program |
KR100919825B1 (en) * | 2008-03-25 | 2009-10-01 | 한국전자통신연구원 | Method for generating a composite emotion state in a multi-dimensional vector space |
US8099372B2 (en) | 2008-03-25 | 2012-01-17 | Electronics And Telecommunications Research Institute | Method of modeling composite emotion in multidimensional vector space |
JP2010094493A (en) * | 2008-09-22 | 2010-04-30 | Koichi Kikuchi | System for deciding viewer's feeling on viewing scene |
JP2013502633A (en) * | 2009-08-20 | 2013-01-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Method and system for image analysis |
JP2011120824A (en) * | 2009-12-14 | 2011-06-23 | Tokyo Univ Of Agriculture & Technology | Sensibility evaluation device, sensibility evaluation method, and sensibility evaluation program |
JP2013153349A (en) * | 2012-01-25 | 2013-08-08 | Nippon Hoso Kyokai <Nhk> | Viewing state recognition apparatus and viewing state recognition program |
JP2014115897A (en) * | 2012-12-11 | 2014-06-26 | Fujitsu Ltd | Information processor, management device, information processing method, controlling method, information processing program, controlling program, and content providing system |
JP2014120137A (en) * | 2012-12-19 | 2014-06-30 | Samsung R&D Institute Japan Co Ltd | Information processing apparatus, information processing method and computer program |
JP2014241498A (en) * | 2013-06-11 | 2014-12-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Program recommendation device |
WO2015162949A1 (en) * | 2014-04-21 | 2015-10-29 | ソニー株式会社 | Communication system, control method, and storage medium |
CN106255866A (en) * | 2014-04-21 | 2016-12-21 | 索尼公司 | Communication system, control method and storage medium |
JPWO2015162949A1 (en) * | 2014-04-21 | 2017-04-13 | ソニー株式会社 | COMMUNICATION SYSTEM, CONTROL METHOD, AND STORAGE MEDIUM |
US10488208B2 (en) | 2014-04-21 | 2019-11-26 | Sony Corporation | Communication system, control method, and storage medium |
JP2021525921A (en) * | 2018-06-01 | 2021-09-27 | システムズ アンド ソフトウェア エンタープライゼス, エルエルシーSystems And Software Enterprises, Llc | Systems and methods for recommended systems based on implied feedback |
JP2021068090A (en) * | 2019-10-21 | 2021-04-30 | パナソニックIpマネジメント株式会社 | Content recommendation system |
JP7417889B2 (en) | 2019-10-21 | 2024-01-19 | パナソニックIpマネジメント株式会社 | Content recommendation system |
WO2022085926A1 (en) * | 2020-10-23 | 2022-04-28 | 삼성전자 주식회사 | System including electronic device and server, and content recommendation method using system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007034664A (en) | Emotion estimation device and method, recording medium and program | |
JP4389973B2 (en) | Information processing apparatus and method, and program | |
CN102209184B (en) | Electronic apparatus, reproduction control system, reproduction control method | |
US7945439B2 (en) | Information processing apparatus, information processing method, and computer program | |
JP4380524B2 (en) | Information processing apparatus and information processing method | |
US20070113182A1 (en) | Replay of media stream from a prior change location | |
US20070223871A1 (en) | Method of Generating a Content Item Having a Specific Emotional Influence on a User | |
JP2009140010A (en) | Information processing device, information processing terminal, information processing method, and program | |
US11533542B2 (en) | Apparatus, systems and methods for provision of contextual content | |
JP2009134671A (en) | Information processing terminal, information processing method, and program | |
JP2007041988A (en) | Information processing device, method and program | |
JP2007027990A (en) | Apparatus and method, and program for generating caption from moving picture data, and storage medium | |
JP5181640B2 (en) | Information processing apparatus, information processing terminal, information processing method, and program | |
US7149365B2 (en) | Image information summary apparatus, image information summary method and image information summary processing program | |
CN103187082B (en) | Information processor, information processing method | |
JP2009296346A (en) | Program recommendation device, method for recommending program and program for recommending program | |
JP2008205745A (en) | Image reproducing device and method | |
JP2007060060A (en) | Reproduction system, reproducing apparatus, reproducing method, information processing apparatus, information processing method, and program | |
JP2009134670A (en) | Information processing terminal, information processing method, and program | |
JP2008312183A (en) | Information processing apparatus, method, and program | |
JP2007101945A (en) | Apparatus, method, and program for processing video data with audio | |
JP2009111938A (en) | Device, method and program for editing information, and record medium recorded with the program thereon | |
JP5043711B2 (en) | Video evaluation apparatus and method | |
JP4509188B2 (en) | Movie playback apparatus, movie playback method and computer program thereof | |
JP4086886B2 (en) | Movie playback apparatus, movie playback method and computer program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080723 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110113 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110802 |