JP2005346471A - Information processing method and apparatus - Google Patents

Information processing method and apparatus Download PDF

Info

Publication number
JP2005346471A
JP2005346471A JP2004166135A JP2004166135A JP2005346471A JP 2005346471 A JP2005346471 A JP 2005346471A JP 2004166135 A JP2004166135 A JP 2004166135A JP 2004166135 A JP2004166135 A JP 2004166135A JP 2005346471 A JP2005346471 A JP 2005346471A
Authority
JP
Japan
Prior art keywords
emotion
information
user
game
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004166135A
Other languages
Japanese (ja)
Other versions
JP2005346471A5 (en
JP4641389B2 (en
Inventor
Katsuhiko Mori
克彦 森
Masakazu Matsugi
優和 真継
Mie Ishii
美絵 石井
Hirosuke Mitarai
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004166135A priority Critical patent/JP4641389B2/en
Publication of JP2005346471A publication Critical patent/JP2005346471A/en
Publication of JP2005346471A5 publication Critical patent/JP2005346471A5/ja
Application granted granted Critical
Publication of JP4641389B2 publication Critical patent/JP4641389B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for easily setting the correspondence between the condition (reaction) of each individual represented by expressions and his or her emotions. <P>SOLUTION: When presentation information to be presented to a user has been previously presented to a plurality of persons, information showing the emotion that the greatest number of them have is retained in association with the presentation information. The feature quantity of the user when the presentation information is presented to the user is collected (S302). Using a predetermined recognition model, the user's emotion is estimated on the basis of the feature quantity (S303). The parameters of the recognition model are corrected so that the emotion estimated when the presentation information is presented is estimated as the emotion shown by the information associated with the presentation information (S304). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ユーザの表情や動作等といった反応を検出し、その検出した反応からユーザの感情を認識する為の技術に関するものである。   The present invention relates to a technique for detecting a reaction such as a user's facial expression or action and recognizing a user's emotion from the detected reaction.

近年、機械と人間とのインターフェースとして、人間の意志や感情を認識し、人間とのコミュニケーションを行う人工エージェントの研究が進んでいる。また、様々なペットロボットが登場し、使用者の行動や感情等を認識し、その認識結果によりペットロボットの行動を変化させるものもあり、このようなペットロボットは一種の人工エージェントと言える。このような人工エージェントにおいては、カメラやマイクを用いて、人物の状態を検出し、検出した状態に基づいて人物の喜怒哀楽等といった感情を認識することが必要とされている。   In recent years, research on artificial agents that recognize human intentions and emotions and communicate with humans as an interface between machines and humans is progressing. In addition, various pet robots appear, and there are those that recognize the user's behavior and emotions and change the behavior of the pet robot according to the recognition result. Such a pet robot can be said to be a kind of artificial agent. In such an artificial agent, it is necessary to detect a person's state using a camera or a microphone, and to recognize emotions such as a person's emotions based on the detected state.

例えば、CCDカメラ等で撮影された画像から顔の表情を検出する装置が従来から開示されている(例えば特許文献1を参照)。これは、入力画像に対してウェーブレット変換を行い、各周波数領域での平均電力と無表情の時の平均電力との差分から、表情を検出するものである。   For example, an apparatus for detecting a facial expression from an image taken with a CCD camera or the like has been conventionally disclosed (see, for example, Patent Document 1). In this method, wavelet transform is performed on an input image, and a facial expression is detected from the difference between the average power in each frequency region and the average power when there is no expression.

また、音声と画像の両方を用いて、被写体の顔の表情と感情を検出する技術が従来から開示されている(例えば非特許文献1を参照)。   In addition, a technique for detecting facial expressions and emotions of a subject using both sound and images has been conventionally disclosed (for example, see Non-Patent Document 1).

さらに、顔の変位に応じた特徴ベクトルと、表情の各カテゴリごとに用意したベクトル量子化を行うためのコードブックとを使用し、ベクトル量子化後のシンボル列に基づいてカテゴリを決定する技術が従来から開示されている(例えば特許文献2を参照)。   Furthermore, there is a technology for determining a category based on a symbol sequence after vector quantization using a feature vector corresponding to face displacement and a code book for vector quantization prepared for each category of facial expression. It has been conventionally disclosed (for example, see Patent Document 2).

さらにまた、笑顔画像に対して、眼や口や眉の位置やサイズ等の変動から、その笑顔を、快の笑顔・不快の笑顔・社交的な笑顔に分類する検討を行なう技術も開示されている(例えば非特許文献2を参照)。
特開平8―249447号公報 特許第2839855号 「Lawrence S.Chen,Thomas S.Huang, Tsutomu Miyasato, Ryohei Nakatsu : “Multimodal Human Emotion/Expression Recognition”, Proceedings of the Second International Conference on Automatic Face and Gesture Recognition pp366-371(1998)」 「片岡、岩口、佐冶:“目と口の動きの追跡による笑顔の分類”、情報処理学会研究報告、2001-HI-95、pp109-116(2001)」
In addition, a technique is also disclosed for examining smile images that are classified into pleasant smiles, unpleasant smiles, and social smiles based on changes in the position and size of the eyes, mouth, and eyebrows. (See Non-Patent Document 2, for example).
JP-A-8-249447 Japanese Patent No. 2839855 “Lawrence S. Chen, Thomas S. Huang, Tsutomu Miyasato, Ryohei Nakatsu:“ Multimodal Human Emotion / Expression Recognition ”, Proceedings of the Second International Conference on Automatic Face and Gesture Recognition pp366-371 (1998)” “Kataoka, Iwaguchi, Sagi:“ Classification of smiles by tracking eye and mouth movements ”, Information Processing Society of Japan, 2001-HI-95, pp109-116 (2001)”

上記説明したように、カメラやマイクを用いて人物の状態(反応)を検出し、さらに検出した状態(反応)に基づいて人物の喜怒哀楽等といった感情を認識する研究が進められている。しかし、検出した状態(反応)と感情とを正確に対応させるのは容易ではない。   As described above, research is being conducted to detect a person's state (reaction) using a camera or a microphone, and to recognize emotions such as a person's emotions based on the detected state (reaction). However, it is not easy to accurately correspond the detected state (reaction) and emotion.

例えば、反応の一つとして表情を考えれば、表情の豊かな人もいれば、そうでない人もいる。つまり、同じ感情を持った人が全員同じ表情をするわけではない。逆に言うと、同じ表情をした人たちが、同じ感情を持っているとは限らない。そのため、表情といった人物の状態(反応)と感情との対応は、個人毎に設定する必要がある。上記従来例においては、ユーザ個々人の個人差に関しては言及がない。   For example, if one considers facial expressions as one of the reactions, some people have rich facial expressions and others do not. In other words, not all people with the same emotions have the same facial expression. In other words, people with the same facial expression do not always have the same emotion. For this reason, the correspondence between a person's state (reaction) such as a facial expression and emotion must be set for each individual. In the above conventional example, there is no mention regarding individual differences among individual users.

本発明は以上の問題に鑑みてなされたものであり、表情に代表される人物の状態(反応)と感情との対応を、個人毎に簡便に設定する為の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for easily setting a correspondence between a person's state (reaction) represented by a facial expression and an emotion for each individual. To do.

本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an information processing apparatus of the present invention comprises the following arrangement.

すなわち、情報処理装置であって、
再生する再生情報を、感情情報に関連付けて記憶保持する記憶保持手段と、
前記再生情報を再生する再生手段と、
前記再生情報を再生しているときの前記ユーザの画像を撮像する撮像手段と、
前記画像から得られる前記ユーザの特徴量に基づいて、前記再生情報を再生しているときの前記ユーザの感情を所定の認識モデルを用いて推定する推定手段と、
前記再生情報を再生したときの前記推定手段が推定した感情が、前記記憶保持手段に再生情報に関連付けられて保持された感情情報が示す感情として推定されるように、前記認識モデルのパラメータを修正する修正手段と
を備えることを特徴とする。
That is, an information processing apparatus,
Memory holding means for storing and holding reproduction information to be reproduced in association with emotion information;
Reproducing means for reproducing the reproduction information;
Imaging means for capturing an image of the user when reproducing the reproduction information;
Estimating means for estimating the user's emotion when reproducing the reproduction information based on a feature amount of the user obtained from the image using a predetermined recognition model;
The parameter of the recognition model is corrected so that the emotion estimated by the estimation unit when the reproduction information is reproduced is estimated as the emotion indicated by the emotion information stored in the memory holding unit in association with the reproduction information. And correcting means.

本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an information processing apparatus of the present invention comprises the following arrangement.

すなわち、ゲームを再生する情報処理装置であって、
前記ゲームの各進展具合を示す情報毎に、感情情報を関連付けて記憶保持する記憶保持手段と、
前記ゲームを再生しているときの前記ユーザの画像を撮像する撮像手段と、
前記ユーザが行っているゲームの進展具合を監視する監視手段と、
前記画像から得られる前記ユーザの特徴量に基づいて、前記ゲームを行っているときの前記ユーザの感情を所定の認識モデルを用いて推定する推定手段と、
所定の進展具合において前記推定手段が推定した感情が、前記記憶保持手段に当該進展具合を示す情報に関連付けられて保持された感情情報に基づいて決まる感情として推定されるように、前記認識モデルのパラメータを修正する修正手段と
を備えることを特徴とする。
That is, an information processing apparatus that plays a game,
Storage means for associating and storing emotion information for each piece of information indicating the progress of the game;
Imaging means for capturing an image of the user when playing the game;
Monitoring means for monitoring the progress of the game being played by the user;
Estimating means for estimating the user's emotion when playing the game using a predetermined recognition model based on the feature amount of the user obtained from the image;
The recognition model of the recognition model is estimated so that the emotion estimated by the estimation unit in a predetermined progress is estimated as an emotion determined based on emotion information held in association with information indicating the progress in the memory holding unit. And a correcting means for correcting the parameter.

本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an information processing method of the present invention comprises the following arrangement.

すなわち、情報処理方法であって、
再生する再生情報を、感情情報に関連付けて記憶保持部に記憶保持する記憶保持工程と、
前記再生情報を再生する再生工程と、
前記再生情報を再生しているときの前記ユーザの画像を撮像する撮像工程と、
前記画像から得られる前記ユーザの特徴量に基づいて、前記再生情報を再生しているときの前記ユーザの感情を所定の認識モデルを用いて推定する推定工程と、
前記再生情報を再生したときの前記推定工程で推定した感情が、前記記憶保持部に再生情報に関連付けられて保持された感情情報が示す感情として推定されるように、前記認識モデルのパラメータを修正する修正工程と
を備えることを特徴とする。
That is, an information processing method,
A memory holding step of storing and holding the reproduction information to be reproduced in the memory holding unit in association with emotion information;
A reproduction step of reproducing the reproduction information;
An imaging step of capturing an image of the user when reproducing the reproduction information;
Based on the feature amount of the user obtained from the image, an estimation step of estimating the user's emotion when reproducing the reproduction information using a predetermined recognition model;
The parameters of the recognition model are corrected so that the emotion estimated in the estimation step when the reproduction information is reproduced is estimated as the emotion indicated by the emotion information stored in the memory holding unit in association with the reproduction information. And a correction process.

本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an information processing method of the present invention comprises the following arrangement.

すなわち、ゲームを再生する情報処理方法であって、
前記ゲームの各進展具合を示す情報毎に、感情情報を関連付けて記憶保持部に記憶保持する記憶保持工程と、
前記ゲームを再生しているときの前記ユーザの画像を撮像する撮像工程と、
前記ユーザが行っているゲームの進展具合を監視する監視工程と、
前記画像から得られる前記ユーザの特徴量に基づいて、前記ゲームを行っているときの前記ユーザの感情を所定の認識モデルを用いて推定する推定工程と、
所定の進展具合において前記推定工程で推定した感情が、前記記憶保持部に当該進展具合を示す情報に関連付けられて保持された感情情報に基づいて決まる感情として推定されるように、前記認識モデルのパラメータを修正する修正工程と
を備えることを特徴とする。
That is, an information processing method for playing a game,
For each piece of information indicating the progress of each game, a memory holding step for associating emotion information and storing and holding it in a memory holding unit;
An imaging step of capturing an image of the user when playing the game;
A monitoring step of monitoring the progress of the game being performed by the user;
Based on the feature amount of the user obtained from the image, an estimation step of estimating the user's emotion when playing the game using a predetermined recognition model;
The emotion of the recognition model is estimated so that the emotion estimated in the estimation step in a predetermined progress is estimated as an emotion determined based on emotion information held in association with information indicating the progress in the memory holding unit. And a correction step of correcting the parameter.

本発明の構成により、表情に代表される人物の状態(反応)と感情との対応を、個人毎に簡便に設定することができる。   With the configuration of the present invention, the correspondence between the state (reaction) of a person typified by a facial expression and emotion can be easily set for each individual.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
図1は、本実施形態に係る情報処理システムの機能構成を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a functional configuration of the information processing system according to the present embodiment.

同図において100はユーザで、以下では、このユーザの表情と感情との対応関係を設定する処理について説明する。本実施形態に係るシステムは、カメラ、101、マイク102、制御部103、反応計測部104、感情認識部105、刺激データ提示部106、感情データ保持部107、感情モデル修正部108、感情モデル109により構成されている。   In the figure, reference numeral 100 denotes a user. In the following, processing for setting the correspondence between the user's facial expression and emotion will be described. The system according to this embodiment includes a camera, a 101, a microphone 102, a control unit 103, a reaction measurement unit 104, an emotion recognition unit 105, a stimulus data presentation unit 106, an emotion data holding unit 107, an emotion model correction unit 108, and an emotion model 109. It is comprised by.

以下、システムを構成する各部について簡単に説明する。   Hereinafter, each part which comprises a system is demonstrated easily.

カメラ101はユーザの様子を動画像として撮像するものである。マイク102は、ユーザの音声を収集するものである。カメラ101、マイク102により得られた画像情報、音声情報は、後段の反応計測部104に出力される。   The camera 101 captures the state of the user as a moving image. The microphone 102 collects user's voice. Image information and audio information obtained by the camera 101 and the microphone 102 are output to the reaction measurement unit 104 in the subsequent stage.

制御部103は、同図に示したシステムを構成する各部を制御するものである。反応計測部104は、カメラ101から得られた画像情報、もしくはマイク102から得られた音声情報を用いて、ユーザ100の反応を計測する。この反応とは例えば、ユーザ100の顔における眼や口等の位置や大きさ、また声の大きさ等といったものである。   The control unit 103 controls each unit constituting the system shown in FIG. The reaction measurement unit 104 measures the reaction of the user 100 using image information obtained from the camera 101 or voice information obtained from the microphone 102. This reaction includes, for example, the position and size of eyes and mouth on the face of the user 100, the volume of voice, and the like.

感情認識部105は、反応計測部104が計測したユーザ100の反応を示す情報、及び感情モデル109を用いて、ユーザ100の感情を認識する。この認識方法については後述する。   The emotion recognition unit 105 recognizes the emotion of the user 100 using the information indicating the reaction of the user 100 measured by the reaction measurement unit 104 and the emotion model 109. This recognition method will be described later.

刺激データ提示部106は、刺激データに従った画像や音声をユーザ100に提示(再生)するものである。刺激データには、この刺激データに従った画像や音声を一般のユーザに提示した場合に、一般のユーザが抱くとおぼしき感情を示すデータ(情報)が関連付けられている。この刺激データについては詳しくは後述する。感情データ保持部107は、上記刺激データ、及びこの刺激データに関連付けられている感情を示すデータを保持する。   The stimulus data presentation unit 106 presents (reproduces) an image and sound according to the stimulus data to the user 100. The stimulus data is associated with data (information) indicating a feeling that a general user holds when an image or sound according to the stimulus data is presented to the general user. This stimulation data will be described later in detail. The emotion data holding unit 107 holds the stimulus data and data indicating emotions associated with the stimulus data.

感情モデル修正部108は、刺激データ提示部106によってユーザ100に刺激データを提示した場合に、感情認識部105が認識した感情が、提示した刺激データに関連付けらた感情として認識されるように、感情モデル109のパラメータを修正するものである。感情モデル109は、反応計測部104からの情報を入力とし、この入力に基づいて、ユーザ100の感情を認識する為のモデルである。   When emotion data is presented to the user 100 by the stimulus data presentation unit 106, the emotion model correction unit 108 recognizes the emotion recognized by the emotion recognition unit 105 as an emotion associated with the presented stimulus data. The parameters of the emotion model 109 are corrected. The emotion model 109 is a model for receiving information from the reaction measurement unit 104 and recognizing the emotion of the user 100 based on the input.

図7は、本実施形態に係るシステムのハードウェア構成を示す図である。本実施形態では、カメラ101、マイク102をPC(パーソナルコンピュータ)やWS(ワークステーション)などのコンピュータに接続し、一連の上記認識処理、感情モデル109のパラメータ修正処理をこのコンピュータにおいて行うとする。   FIG. 7 is a diagram illustrating a hardware configuration of a system according to the present embodiment. In the present embodiment, it is assumed that the camera 101 and the microphone 102 are connected to a computer such as a PC (personal computer) or WS (workstation), and a series of the above-described recognition processing and parameter correction processing of the emotion model 109 are performed in this computer.

701はCPUで、RAM702やROM703に格納されているプログラムやデータを用いてコンピュータ全体の制御を行うと共に、I/F707を介してカメラ101から入力される各フレームのデータ、マイク102から入力されるアナログ信号を受ける処理をも行う。また、後述する一連の認識処理、感情モデル109のパラメータ修正処理をも行う。CPU701は、図1では制御部103として機能するものである。   Reference numeral 701 denotes a CPU that controls the entire computer using programs and data stored in the RAM 702 and ROM 703, and also receives data of each frame input from the camera 101 and input from the microphone 102 via the I / F 707. Processing to receive analog signals is also performed. In addition, a series of recognition processing, which will be described later, and parameter correction processing of the emotion model 109 are also performed. The CPU 701 functions as the control unit 103 in FIG.

702はRAMで、外部記憶装置706に保存されており、CPU701の制御によりロードされたプログラムやデータを一時的に記憶するためのエリアを備えると共に、CPU701が各種の処理を行うために使用するワークエリアも備える。また、I/F707を介してカメラ101、マイク102から入力される画像情報、音声情報を一時的に記憶するためのエリアを備える。   Reference numeral 702 denotes a RAM which is stored in the external storage device 706. The RAM 702 includes an area for temporarily storing programs and data loaded under the control of the CPU 701, and a work used by the CPU 701 for performing various processes. It also has an area. Further, an area for temporarily storing image information and audio information input from the camera 101 and the microphone 102 via the I / F 707 is provided.

703はROMで、コンピュータを起動するためのプログラムやデータなどを格納する。   Reference numeral 703 denotes a ROM which stores programs and data for starting up the computer.

704は操作部で、キーボードやマウスなどにより構成されており、各種の指示をCPU701に入力することができる。   An operation unit 704 includes a keyboard and a mouse, and can input various instructions to the CPU 701.

705は表示部で、CRTや液晶画面などにより構成されており、画像や文字などを表示することができる。また、表示部705は音声出力も可能である。表示部705は、図1では刺激データ提示部106として機能するものである。   A display unit 705 includes a CRT, a liquid crystal screen, and the like, and can display images, characters, and the like. The display unit 705 can also output sound. The display unit 705 functions as the stimulus data presentation unit 106 in FIG.

706は外部記憶装置で、ハードディスク装置などの大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)やCPU701に後述する一連の処理を実行させるためのプログラムやデータを保存させておくことができる。本実施形態では、反応計測部104、感情認識部105、感情モデル109、感情モデル修正部108は全てプログラムやデータなどにより構成され、外部記憶装置706に保存されており、CPU701の制御に従ってRAM702にロードされるものであるとする。また、外部記憶装置706は、図1では、感情データ保持部107として機能するものである。   Reference numeral 706 denotes an external storage device that functions as a large-capacity information storage device such as a hard disk device, and stores programs and data for causing the OS (operating system) and the CPU 701 to execute a series of processes described later. I can leave. In the present embodiment, the reaction measurement unit 104, the emotion recognition unit 105, the emotion model 109, and the emotion model correction unit 108 are all configured by programs, data, and the like, stored in the external storage device 706, and stored in the RAM 702 according to the control of the CPU 701. Suppose that it is to be loaded. Also, the external storage device 706 functions as the emotion data holding unit 107 in FIG.

707はI/Fで、カメラ101やマイク102を接続することができ、このI/F707を介してカメラ101から入力される各フレームのデータ、マイク102から入力されるアナログ信号を受けることができる。なお、I/F707には、カメラ101やマイク102からのアナログ信号をディジタルデータに変換するためのA/D変換器が内蔵されているものとする。   Reference numeral 707 denotes an I / F that can connect the camera 101 and the microphone 102 and can receive data of each frame input from the camera 101 and an analog signal input from the microphone 102 via the I / F 707. . It is assumed that the I / F 707 includes an A / D converter for converting analog signals from the camera 101 and the microphone 102 into digital data.

708は上述の各部を繋ぐバスである。   Reference numeral 708 denotes a bus connecting the above-described units.

以下では、このコンピュータが行う感情認識処理、及びユーザ100の感情を認識するための感情モデル109のパラメータの修正処理について、これらの処理のフローチャートを示す図3を参照して詳細に説明する。   Hereinafter, the emotion recognition process performed by the computer and the parameter correction process of the emotion model 109 for recognizing the emotion of the user 100 will be described in detail with reference to FIG. 3 showing a flowchart of these processes.

ここで、本実施形態では、表示部705によってユーザ100に提示するものを映画とする。すなわち、上記刺激データは、映画のデータとする。従って刺激データは、映画の各フレームの画像データ、及び音声データにより構成される。また、刺激データには、映画の各シーン毎に、そのシーンを見ている人が(一般に)抱くとおぼしき感情を示す情報が関連付けられている。   Here, in this embodiment, what is presented to the user 100 by the display unit 705 is a movie. That is, the stimulus data is movie data. Therefore, the stimulus data is composed of image data and audio data of each frame of the movie. In addition, the stimulus data is associated with each scene of the movie, and information indicating an emotion that appears to be (generally) held by a person watching the scene.

このように刺激データとして映画を使用することに対してはいくつかの長所がある。一つは、多数の人が同じ体験をすることが出来るので、平均的な反応と個人の特異な反応との比較がしやすい。つまり、日常生活の中での経験に基づいて個人ごとの設定を行おうとすると、状況がまったく同じであることはまれであるので比較がしにくいが、映画を使用することで、そのような問題を回避できる。   There are several advantages to using movies as stimulus data. One is that many people can have the same experience, so it is easy to compare the average response with the individual's unique response. In other words, when trying to make individual settings based on experience in daily life, it is rare that the situation is exactly the same, so it is difficult to compare, but using movies makes such a problem Can be avoided.

また、一般的に映画は多くのシーンがあり映画を一通り見ると、基本的な感情全てに対する反応が得られる。さらに、ユーザが同じ感情を持つ複数のシーンがあるので、ある特異なシーンのみで感情モデルが作成されるのではなく、ユーザが同じ感情をもつ複数のシーンに対する平均的な反応を使用して、感情モデルを作成するため、精度の高い感情モデルが作成できる。   In general, movies have many scenes, and when you watch a movie, you can get a response to all the basic emotions. Furthermore, since there are multiple scenes where the user has the same emotion, instead of creating an emotion model only with one particular scene, the average reaction for multiple scenes where the user has the same emotion is used, Since an emotion model is created, an accurate emotion model can be created.

図2は、各シーン毎に感情を示すデータを関連付けた感情データシートの構成例を示す図である。例えば映画開始から10分21秒目のフレームから12分20秒目のフレームまでのシーンを見た場合、多くの人は「怒り」の感情を抱くというように統計が取れているので、同図に示す如く、10分21秒目のフレームから12分20秒目のフレームまでのシーンには、「怒り」の感情を示すデータが関連付けられている。これは他のシーンについても同様である。   FIG. 2 is a diagram illustrating a configuration example of an emotion data sheet in which data indicating emotion is associated with each scene. For example, if you watch a scene from the frame of 10 minutes 21 seconds to the frame of 12 minutes 20 seconds from the start of the movie, many people have statistics such as feeling “anger”, so the figure As shown in FIG. 5, data indicating the feeling of “anger” is associated with the scene from the frame at 10 minutes 21 seconds to the frame at 12 minutes 20 seconds. The same applies to other scenes.

このような感情データシートのデータは予め作成され、外部記憶装置706に保存されており、必要に応じてRAM702にロードされる。   Such emotion data sheet data is created in advance, stored in the external storage device 706, and loaded into the RAM 702 as necessary.

そしてCPU701は外部記憶装置706に保存されている映画のデータ、各シーンに関連付けられている感情を示すデータ、上記感情データシートのデータをRAM702にロードし、映画のデータを再生して表示部705に映画の各フレームの画像情報、音声情報を出力(再生)する(ステップS301)。   The CPU 701 loads movie data stored in the external storage device 706, data indicating emotions associated with each scene, and data of the emotion data sheet into the RAM 702, reproduces the movie data, and displays the display unit 705. The image information and audio information of each frame of the movie are output (reproduced) (step S301).

ユーザ100はこの提示された映画の画像を見、提示された音声情報を聞くのであるが、このときのユーザの様子(反応)はカメラ101、マイク102により収集される。カメラ101はユーザ100の動画像を撮像しており、撮像した各フレームの画像のデータはI/F707を介して順次RAM702に出力される。同様にマイク102はユーザ100から発せられる音声を収集しており、収集した音声信号はI/F707を介してRAM702に出力される。   The user 100 views the presented movie image and listens to the presented audio information. The state (reaction) of the user at this time is collected by the camera 101 and the microphone 102. The camera 101 captures a moving image of the user 100, and the captured image data of each frame is sequentially output to the RAM 702 via the I / F 707. Similarly, the microphone 102 collects sound emitted from the user 100, and the collected sound signal is output to the RAM 702 via the I / F 707.

CPU701は、カメラ101、マイク102からRAM702に出力された画像情報、音声情報を用いて、映画を見ているユーザ100の反応を計測する(ステップS302)。反応の計測とは上述の通り、ユーザ100の顔の眼・口・鼻といった顔を構成する部品の画像上における位置や大きさ、またそれらの変化、その他にも手や足の画像上における位置やその位置の変化、またユーザ100の発する音声の大きさ等といった特徴量が、後述する感情モデル109への入力に使用されるパラメータ計測値として計測される。なお、このような特徴量の内容については特に限定するものではないし、またその計測、算出方法については周知のものであるので、これ以上の説明は省略する。   The CPU 701 measures the reaction of the user 100 watching a movie using the image information and audio information output from the camera 101 and microphone 102 to the RAM 702 (step S302). As described above, the measurement of the reaction is the position and size of the parts constituting the face such as the eyes, mouth and nose of the face of the user 100 on the image, their changes, and other positions on the hand and foot images. A feature amount such as a change in the position of the user 100, a loudness of the voice uttered by the user 100, or the like is measured as a parameter measurement value used for input to the emotion model 109 described later. Note that the contents of such feature quantities are not particularly limited, and the measurement and calculation methods thereof are well known, and thus further explanation is omitted.

そしてCPU701は、得られた計測値に基づいてユーザ100の感情を認識(推定)する(ステップS303)。すなわち、ステップS301で提示したシーンを見、聞いているユーザ100の感情を認識する。この認識のために、感情モデル109を用いる。感情モデル109は、プログラムやデータの形態で外部記憶装置706からRAM702にロードされており、CPU701がこれを用いることで、以下説明する認識処理を行うことができる。   Then, the CPU 701 recognizes (estimates) the emotion of the user 100 based on the obtained measurement value (step S303). That is, it recognizes the emotion of the user 100 who is listening to the scene presented in step S301. For this recognition, the emotion model 109 is used. The emotion model 109 is loaded from the external storage device 706 to the RAM 702 in the form of a program or data, and the CPU 701 can use this to perform recognition processing described below.

感情モデル109としては例えば周知のニューラルネットワークを用いることができる。図4は、周知の階層型ニューラルネットワークの構成例を示す図である。同図に示す如く、階層型ニューラルネットワークは、入力層、中間層、出力層の3層構造でもって構成されるもので、入力層に入力された情報は中間層でもって処理され、その処理結果は出力層でもって更に処理されて、出力層を構成する各ニューロンから出力される。   As the emotion model 109, for example, a known neural network can be used. FIG. 4 is a diagram illustrating a configuration example of a known hierarchical neural network. As shown in the figure, the hierarchical neural network has a three-layer structure of an input layer, an intermediate layer, and an output layer. Information input to the input layer is processed by the intermediate layer, and the processing result Is further processed by the output layer and output from each neuron constituting the output layer.

入力層を構成するニューロンの数は、ステップS302で求めた特徴量の数だけ用意される。従って入力層を構成する各ニューロンには、ステップS302で求めたそれぞれの特徴量(ユーザ100の顔の眼・口・鼻といった顔を構成する部品の位置や大きさ、またそれらの変化、その他にも手や足の位置やその位置の変化、またユーザ100の発する音声の大きさ等)が入力される。   The number of neurons constituting the input layer is prepared by the number of feature amounts obtained in step S302. Therefore, each neuron constituting the input layer includes the feature amount obtained in step S302 (the position and size of the parts constituting the face such as the eyes, mouth, and nose of the user 100, the change thereof, and the like). The position of the hand or foot, the change in the position, the loudness of the sound produced by the user 100, etc.) are input.

一方、出力層を構成する各ニューロンは、それぞれが異なる感情を示す為のもので、入力層を構成する各ニューロンに、ステップS302で求めたそれぞれの特徴量を入力すると、出力層を構成するニューロンの何れか1つが発火する。従って、発火したニューロンに割り当てられた感情が、認識結果とする。例えば出力層を構成するニューロンの数を7つとすると、各ニューロンに“幸福”“怒り”“悲しみ”“嫌悪”“驚き”“恐れ”“感情なし”の何れか1つを重複なしに割り当てる。そして例えば”驚き”を割り当てられたニューロンのみが発火した場合には、認識結果は”驚き”となる。なお、感情の種類はこれに限定するものではないし、これに伴って出力層を構成するニューロンの数もこれに限定するものではない。   On the other hand, each neuron constituting the output layer is for showing different emotions, and when each feature amount obtained in step S302 is input to each neuron constituting the input layer, the neuron constituting the output layer Any one of them will ignite. Therefore, the emotion assigned to the fired neuron is the recognition result. For example, if the number of neurons constituting the output layer is seven, any one of “happiness”, “anger”, “sadness”, “disgust”, “surprise”, “fear”, and “no emotion” is assigned to each neuron without duplication. For example, when only a neuron assigned with “surprise” fires, the recognition result is “surprise”. The type of emotion is not limited to this, and the number of neurons constituting the output layer is not limited to this.

なお、周知の通り、各層間のニューロン間の重み係数はすでに設定されているのであるが、この重み係数は、平均的な人の反応データのパラメータ計測値が入力されたときに、平均的な人の感情を出力するように初期設定されている。この初期設定は、多数の人に同じ刺激データを提示し、その時の反応データのパラメータ計測値を入力層への入力信号とし、そしてそのときの平均的な感情を教師信号として学習することにより、行われる。   As is well known, a weighting factor between neurons between layers is already set, but this weighting factor is averaged when parameter measurement values of average human reaction data are input. It is initially set to output human emotions. In this initial setting, the same stimulus data is presented to a large number of people, the parameter measurement value of the response data at that time is used as an input signal to the input layer, and the average emotion at that time is learned as a teacher signal, Done.

これにより、様々な人の反応データをニューラルネットワークに入力しても、出力層からは、おおよその人が抱くであろう感情を示すニューロンのみが発火するようになる。   As a result, even when various human reaction data are input to the neural network, only the neurons that show the emotions that the approximate person will have will fire from the output layer.

しかし、人によっては、例えば怒っている場合の顔の特徴量をニューラルネットワークに入力しても、悲しみの感情を割り当てられたニューロンが発火してしまうことがある。これは、この人の表情が平均的な表情ではない場合等に生ずる。   However, depending on the person, for example, even if the facial feature amount when angry is input to the neural network, the neuron assigned with the emotion of sadness may fire. This occurs when the facial expression of this person is not an average facial expression.

従って以下で詳しく説明するが、感情モデル109としてニューラルネットワークを用いる場合には、あるシーンを見たユーザ100の反応データをニューラルネットワークに入力した場合の出力層におけるニューロンの発火パターンが、このシーンに関連付けられている感情を示す出力層におけるニューロンの発火パターンに一致するように、ニューロン間の重み係数を修正する必要がある。   Therefore, as will be described in detail below, when a neural network is used as the emotion model 109, the firing pattern of neurons in the output layer when the response data of the user 100 viewing a certain scene is input to the neural network is shown in this scene. It is necessary to modify the weighting factor between neurons to match the firing pattern of neurons in the output layer showing the associated emotion.

一方、感情モデル109としてニューラルネットワーク以外のモデルを用いた場合について説明する。ニューラルネットワーク以外のモデルとして、ステップS302で計測されるユーザ100の反応データのパラメータ計測値の存在範囲を、各感情毎に規定している感情モデルを使用する。   On the other hand, a case where a model other than the neural network is used as the emotion model 109 will be described. As a model other than the neural network, an emotion model that defines the existence range of parameter measurement values of the response data of the user 100 measured in step S302 for each emotion is used.

図5は、このようなモデルが規定する各反応パラメータの範囲の例を示す図である。同図に示した感情モデルシート501には、前述した“幸福”・・・といった各感情ごとに、眼や口等、及びそれらを構成するさらに小さな部位の位置やその変化といった反応データのパラメータ計測値の存在範囲が記述されている。例えば、“幸福”という感情は、眼に関しては、目の中心位置と目尻の位置関係が規定されている。原点を画像の左上にとり、眼の垂直方向の長さをEv、眼の中心位置をEx,Ey、とすると、目尻の垂直方向の位置Eeyは、
Eey≧Ey+a×Ev 且つ Eey<Ey+b×Ev (a=0.1,b=1.0)
という条件式に従っている。つまり、この式から、“幸福”という感情をしめす時には目尻が下がっているということがわかる。
FIG. 5 is a diagram showing an example of the range of each reaction parameter defined by such a model. In the emotion model sheet 501 shown in the figure, for each emotion such as “happiness” described above, parameter measurement of reaction data such as the position of the eye, mouth, etc., and the position of a smaller part constituting them, and changes thereof is performed. Describes the range of values. For example, for the feeling of “happiness”, the positional relationship between the center position of the eye and the corner of the eye is defined for the eye. If the origin is at the upper left of the image, the vertical length of the eye is Ev, the center position of the eye is Ex, Ey, the vertical position Eey of the outer corner of the eye is
Eey ≧ Ey + a × Ev and Eey <Ey + b × Ev (a = 0.1, b = 1.0)
It follows the conditional expression. In other words, this expression shows that when the emotion of “happiness” is expressed, the corners of the eyes are lowered.

逆にいうと、ユーザ100の反応データにおいて、眼の中心位置及び目尻の位置というパラメータ計測値がこの式を満足したときに、ユーザ100が“幸福”という状態である可能性があるということである。そして、この感情モデル109を用いて、この他にも、眼・口等の構成部品それぞれに対して求められたパラメータ計測値が、それぞれの位置関係を示す式を満足しているかどうかを調べ、満足した式が最も多い感情をユーザ100の感情として認識する。   In other words, in the response data of the user 100, when the parameter measurement values of the center position of the eye and the position of the corner of the eye satisfy this expression, the user 100 may be in a state of “happiness”. is there. Then, using this emotion model 109, in addition to this, it is examined whether the parameter measurement values obtained for the respective components such as the eyes and mouth satisfy the expressions indicating the respective positional relationships, The emotion with the most satisfied expressions is recognized as the emotion of the user 100.

このように各感情時の顔の構成部品の位置や変化、また手や足の動作や声の大きさ等の存在範囲を規定することで、モデルシート上で各感情を表現することができる。なお、上記式におけるパラメータ(係数)(a,b)の値は、平均的な人の反応データのパラメータ計測値が入力されたときに、平均的な人の感情を出力するように初期設定されている。当然、他の関係式におけるパラメータについても同様に初期設定されている。   In this way, by defining the positions and changes of the components of the face at the time of each emotion, and the existence ranges such as the movements of the hands and feet and the loudness of the voice, each emotion can be expressed on the model sheet. Note that the values of the parameters (coefficients) (a, b) in the above formula are initially set so that the average human emotion is output when the parameter measurement values of the average human reaction data are input. ing. Of course, the parameters in the other relational expressions are similarly initialized.

これにより、様々な人の反応データを図5に示すようなモデルシートに記述された各条件式に当てはめてみても、おおよその人が抱くであろう感情に該当する各条件式を満たすようになる。   As a result, even if the response data of various people are applied to the conditional expressions described in the model sheet as shown in FIG. 5, the conditional expressions corresponding to the emotions that an approximate person will have are satisfied. Become.

しかし、人によっては、例えば怒っている場合の顔の特徴量を各条件式に代入してみても、悲しみの感情に該当する条件式を満たすようになることがある。これは、この人の表情が平均的な表情ではない場合等に生ずる。   However, depending on the person, for example, even if the facial feature amount when angry is substituted into each conditional expression, the conditional expression corresponding to the emotion of sadness may be satisfied. This occurs when the facial expression of this person is not an average facial expression.

従って以下で詳しく説明するが、感情モデル109として感情毎に設けた条件式群を用いる場合には、あるシーンを見たユーザ100の反応データを感情毎に設けた条件式群に代入した場合に、このシーンに関連付けられている感情に対して設けた条件式群を最も満たすように、各条件式群におけるパラメータを修正する必要がある。   Therefore, as will be described in detail below, when a group of conditional expressions provided for each emotion is used as the emotion model 109, when the reaction data of the user 100 viewing a certain scene is substituted into the conditional expression group provided for each emotion. It is necessary to correct the parameters in each conditional expression group so that the conditional expression group provided for the emotion associated with this scene is most satisfied.

以上のようにして、感情モデル109に何れのモデルを用いたとしても、本実施形態では、あるシーンを見ているユーザ100の反応データに基づいて、ユーザ100の感情がこのシーンに関連付けられている感情として認識されるように、感情モデル109のパラメータを修正する必要がある。   As described above, no matter which model is used for the emotion model 109, in this embodiment, the emotion of the user 100 is associated with this scene based on the reaction data of the user 100 who is watching a certain scene. It is necessary to correct the parameters of the emotion model 109 so that the emotion is recognized as the emotion.

従ってステップS304では、感情モデル109のパラメータの修正処理を行う。   Accordingly, in step S304, the parameter of the emotion model 109 is corrected.

先ず、感情モデル109としてニューラルネットワークを用いた場合のステップS304における処理について説明する。   First, the process in step S304 when a neural network is used as the emotion model 109 will be described.

図8は、感情モデル109としてニューラルネットワークを用いた場合のステップS304における処理を説明する図である。ここでは出力層を構成するニューロンの数を3とするが、これに限定するものではない。   FIG. 8 is a diagram illustrating the process in step S304 when a neural network is used as the emotion model 109. Although the number of neurons constituting the output layer is 3 here, the number is not limited to this.

同図において出力層を構成するニューロン801,802,803にはそれぞれ「怒り」、「悲しみ」、「幸福」の感情を割り当てているものとする。従ってニューロン801のみが発火する場合(「1 0 0」の出力パターンが出力層から出力された場合)、ニューラルネットワークは認識結果として「怒り」を出力したことになる。一方、ニューロン802のみが発火する場合(「0 1 0」の出力パターンが出力層から出力された場合)、ニューラルネットワークは認識結果として「悲しみ」を出力したことになる。一方、ニューロン803のみが発火する場合(「0 0 1」の出力パターンが出力層から出力された場合)、ニューラルネットワークは認識結果として「幸福」を出力したことになる。   In the figure, it is assumed that emotions “anger”, “sadness”, and “happiness” are assigned to the neurons 801, 802, and 803 constituting the output layer, respectively. Therefore, when only the neuron 801 fires (when the output pattern of “1 0 0” is output from the output layer), the neural network outputs “anger” as the recognition result. On the other hand, when only the neuron 802 fires (when the output pattern “0 1 0” is output from the output layer), the neural network outputs “sadness” as the recognition result. On the other hand, when only the neuron 803 fires (when the output pattern of “0 0 1” is output from the output layer), the neural network outputs “happiness” as the recognition result.

ここで、あるシーンを見ているユーザ100の反応データが入力層に入力され、出力層から「0.1 0.2 0.9」の出力パターンが出力され、更にこのシーンには「幸福」を示す情報が関連付けられているとする。   Here, the response data of the user 100 watching a certain scene is input to the input layer, and an output pattern of “0.1 0.2 0.9” is output from the output layer. Assume that information indicating is associated.

この場合、このシーンを見て一般的にはユーザ100は「幸福」な感情を抱くと予想されるので、ユーザ100の感情の認識結果として「幸福」を示すパターン「0 0 1」が出力層から出力されることが好ましい。ところが、これとは異なる「0.1 0.2 0.9」の出力パターンが出力されたということは、これはすなわち、重み係数を修正し、ニューラルネットワークが上記反応データを入力した場合には所望の出力パターン(「0 0 1」)を出力するようにする必要があるということである。   In this case, since it is generally expected that the user 100 will have a “happy” feeling by looking at this scene, the pattern “0 0 1” indicating “happiness” is recognized as an output layer as the recognition result of the user 100 emotion. Is preferably output from. However, when an output pattern of “0.1 0.2 0.9” different from this is output, this means that when the weighting coefficient is corrected and the neural network inputs the above reaction data. This means that it is necessary to output a desired output pattern (“0 0 1”).

従ってこのような場合には、上記反応データを入力層に入力することで出力層から出力される出力パターンと、教師信号としての上記所望の出力パターンとの差(誤差)を求め、この差に基づいて周知のバックプロパゲーション処理を行うことで、各層間のニューロン間の重み係数を修正する(学習処理)。このような処理を複数回繰り返して重み係数を修正することで、幸福なシーンを見ているユーザ100の反応データをニューラルネットワークに入力すると、「0 0 1」の出力パターンが出力層から出力される、すなわち、「幸福」の感情として認識されることになる。   Therefore, in such a case, by inputting the reaction data to the input layer, a difference (error) between the output pattern output from the output layer and the desired output pattern as a teacher signal is obtained, and Based on this, a known back-propagation process is performed to correct the weighting factor between the neurons between the layers (learning process). By repeating such processing a plurality of times and correcting the weighting coefficient, when the response data of the user 100 who is watching a happy scene is input to the neural network, an output pattern of “0 0 1” is output from the output layer. In other words, it will be recognized as an emotion of “happiness”.

また、これは他のシーン(他の感情を抱かせるシーン)をユーザ100に見せ、そのときのユーザ100の感情を認識するために用いる重み係数の修正処理を行う場合についても同じである。なお、本実施形態では、1つのシーン(図2に示した各シーン)について上記誤差が所定値となるまで行ってから次にシーンに処理を移行しても良いし、各シーンについて1回ずつ順次行うようにしても良い。また、上記学習処理のアルゴリズムについては様々なものが適用可能であり、特に限定するものではない。また、学習処理の終了基準についても特に限定するものではない。   The same applies to the case where the user 100 is shown other scenes (scenes with other emotions) and the weighting coefficient used for recognizing the emotions of the user 100 at that time is corrected. In the present embodiment, the processing may be shifted to the next scene after the above error reaches a predetermined value for one scene (each scene shown in FIG. 2), or once for each scene. You may make it carry out sequentially. Various algorithms for the learning process can be applied and are not particularly limited. Further, the end criterion of the learning process is not particularly limited.

次に、感情モデル109がパラメータ計測値の存在範囲を各感情毎に規定している感情モデルの場合のステップS304における処理について説明する。   Next, the process in step S304 in the case where the emotion model 109 is an emotion model that defines the existence range of parameter measurement values for each emotion will be described.

例えばユーザ100が「幸福」を示す情報が関連付けられたシーンを見ている場合、このときのユーザ100の反応データの存在範囲が、「幸福」の感情に該当する条件式を満たすように、条件式に含まれているパラメータを修正する。例えば幸福という感情として認識するための目に関する上記条件式
Eey≧Ey+a×Ev 且つ Eey<Ey+b×Ev
の場合、「幸福」を示す情報が関連付けられたシーンを見ているユーザ100の反応データに含まれる眼の垂直方向の長さEv、眼の中心位置Ex,Eyをこの式に代入し、この式を満たすように係数a、bを修正する。
For example, when the user 100 is viewing a scene associated with information indicating “happiness”, the condition that the presence range of the reaction data of the user 100 at this time satisfies the conditional expression corresponding to the emotion of “happiness” is satisfied. Correct the parameters included in the expression. For example, the above conditional expression for eyes to recognize as feelings of happiness
Eey ≧ Ey + a × Ev and Eey <Ey + b × Ev
In this case, the vertical length Ev and the center positions Ex and Ey of the eye included in the response data of the user 100 who is viewing the scene associated with the information indicating “happiness” are substituted into this expression, The coefficients a and b are corrected so as to satisfy the equation.

なお、本実施形態では、1つのシーン(図2に示した各シーン)について条件式のパラメータ修正処理を行ってから次にシーンに処理を移行しても良いし、各シーンについて1回ずつ順次行うようにしても良い。   In the present embodiment, the conditional expression parameter correction processing may be performed for one scene (each scene shown in FIG. 2), and then the processing may be transferred to the next scene. Alternatively, each scene may be sequentially performed once. You may make it do.

以上の処理を映画の終了時まで行う(ステップS305)。   The above processing is performed until the end of the movie (step S305).

以上説明した処理を行うことにより、各シーンに関連付けられた感情をユーザ100が抱いた場合に、どのような表情、手足の動き、声の大きさであるのかを感情モデル109に含まれるパラメータを修正することにより、学習することができ、その結果、学習後の感情モデル109は、ユーザ100の感情を、ユーザ100固有の視覚的な情報、聴覚的な情報でもって認識することができるモデルとなる。   By performing the processing described above, the parameters included in the emotion model 109 indicate what facial expression, limb movement, and voice volume when the user 100 has emotions associated with each scene. As a result, the emotion model 109 after learning can recognize the emotion of the user 100 with visual information and auditory information unique to the user 100. Become.

このようにユーザ個人毎の感情モデルを作成し、その個人ごとの感情モデルに基づいて、ユーザの反応に対して感情を認識することにより、正確にユーザの感情を認識することが出来る。つまり、一般的に同じ感情を抱いていても個人の反応(表情等)は異なるが、同じ刺激に対する各個人の反応を学習したため、個人の反応の差異に影響を受けない感情認識が可能になる。   Thus, by creating an emotion model for each individual user and recognizing the emotion for the user's reaction based on the individual emotion model, the user's emotion can be accurately recognized. In other words, although the individual responses (facial expressions, etc.) are generally different even if they hold the same emotions, they can learn emotions that are not affected by differences in individual responses because they learned each individual response to the same stimulus. .

また、刺激データに映画を使用することで、前述のように、精度の高い感情モデルが作成できるため、精度の高い感情認識が可能になる。   In addition, by using a movie as the stimulus data, a highly accurate emotion model can be created as described above, so that highly accurate emotion recognition is possible.

また本実施形態では、感情モデル109のパラメータの初期値は、平均的な人の反応データのパラメータ計測値が入力されたときに、平均的な人の感情を出力するように初期設定されているので、初期値を全て0と設定するよりも、容易に個人ごとの感情モデルが作成できる。   In this embodiment, the initial values of the parameters of the emotion model 109 are initially set so that the average human emotion is output when the parameter measurement values of the average human reaction data are input. Therefore, it is possible to easily create an emotion model for each individual rather than setting all initial values to 0.

また、各シーンごとに感情を認識するのではなく、ユーザ100の表情が変化したり、ユーザ100の動作が変化したとき等、ユーザ100の反応データのパラメータ計測値に変化が起こった時のみに、感情を認識するようにしてもよい。このようにすることで、反応の乏しい人に対して感情モデルを作成する時に、無反応の時の誤差を減少させることが出来る。   Also, instead of recognizing emotion for each scene, only when a change occurs in the parameter measurement value of the reaction data of the user 100, such as when the facial expression of the user 100 changes or when the operation of the user 100 changes. You may be made to recognize emotions. In this way, when creating an emotion model for a person with poor response, the error when there is no response can be reduced.

なお、本実施形態では、ユーザ100の画像情報と音声情報の両方を収集して感情を認識するようにしていたが、ユーザによっては如何なる感情を抱いても声を出さない場合もある。その場合には、画像情報のみを用いて感情を認識するようにしても良い。その場合には、マイク102は必要はないし、感情モデル109には、上記画像情報のみを入力することになる。   In the present embodiment, both the image information and audio information of the user 100 are collected to recognize emotions. However, some users may not speak any emotions. In that case, emotion may be recognized using only image information. In that case, the microphone 102 is not necessary, and only the image information is input to the emotion model 109.

[第2の実施形態]
第1の実施形態では刺激データとして映画のデータとしたが、本実施形態ではテレビゲームのプログラム、及びデータとする。
[Second Embodiment]
In the first embodiment, movie data is used as stimulus data, but in this embodiment, a video game program and data are used.

つまり、ゲームを再生し、ゲームの進展具合と、その進展具合に対して人が抱く感情とに関して関連付けられた感情データを用意する。そして、ゲームの進展具合に対する感情データと、その進展具合に対するユーザの反応とから、そのユーザの感情モデルを第1の実施形態と同様にして作成する。   That is, the game is played, and emotion data associated with the progress of the game and the emotion that the person has with respect to the progress is prepared. Then, the emotion model of the user is created in the same manner as in the first embodiment from the emotion data for the progress of the game and the user's reaction to the progress.

ここでいうゲームの進展具合とは、ある場面をクリアするのにどれくらい時間がかかっているか、またはある時間内にどれだけの敵を倒したか、またはある時間内に自分のキャラクタが敵に連続して負けたか等である。なお、本実施形態では、感情データ保持部107には、ゲームの進展具合とその時の感情とを関連付けた感情データを保持している。   The progress of the game here means how long it takes to clear a scene, how many enemies have been defeated within a certain period of time, Or have lost. In the present embodiment, the emotion data holding unit 107 holds emotion data in which the progress of the game is associated with the emotion at that time.

図6は、本実施形態における感情データシートの構成例を示している。   FIG. 6 shows a configuration example of an emotion data sheet in the present embodiment.

感情データシート601では、前述のようなゲームの進展具合と感情とを関連付けている。この関連付けは、多数の人にゲームをやってもらい、そのときのゲームの進展具合に応じた感情をまとめた平均的な感情データから作成される。   The emotion data sheet 601 associates the progress of the game as described above with emotions. This association is created from average emotion data in which a large number of people play a game and the emotions according to the progress of the game at that time are summarized.

よってCPU701は、同図に示した各進展具合についてユーザ100のプレイを監視(クリア時間は?ある時間内にどの程度の数の敵を倒したか?等を監視)し、同図の感情データシートにおいて該当する進展具合を特定する。特定した各進展具合には感情が関連付けられているので、それぞれの進展具合に関連付けられた感情のうち、最も多いものを認識結果として出力する。すなわち、ここで認識したのは、「この進展具合なら、ユーザ100はこのような感情を抱くであろう」感情(推定感情)である。   Therefore, the CPU 701 monitors the play of the user 100 for each progress shown in the figure (monitoring the clear time, how many enemies have been defeated within a certain time, etc.), and the emotion data sheet of the figure Identify the relevant progress in. Since emotions are associated with each identified progress, the largest number of emotions associated with each progress are output as recognition results. That is, what is recognized here is an emotion (estimated emotion) that “if this progress, the user 100 will have such an emotion”.

一方で、第1の実施形態と同様にして、カメラ101、マイク102からの画像情報、音声情報に基づいて感情モデル109によりユーザ100の感情を認識する。そして、認識した感情と上記推定感情(第1の実施形態では教師信号に該当)とを参照し、第1の実施形態と同様にして感情モデル109のパラメータを修正する。   On the other hand, as in the first embodiment, the emotion of the user 100 is recognized by the emotion model 109 based on image information and audio information from the camera 101 and the microphone 102. Then, referring to the recognized emotion and the estimated emotion (corresponding to the teacher signal in the first embodiment), the parameters of the emotion model 109 are corrected in the same manner as in the first embodiment.

以上の説明からもわかるとおり、第1の実施形態では、各シーン毎に感情を示す情報が予め関連付けられて感情データシートの形態で記憶保持されていたので、各シーン毎に認識されるべき感情はこの感情データシートを参照することにより得られたのであるが、本実施形態では、刺激データとしてゲームのプログラム、データを用いたことにより、感情データシートの構成、及びこの感情データシートを用いたユーザ100の感情を認識する方法は異なる。   As can be seen from the above description, in the first embodiment, information indicating emotions is associated with each scene in advance and stored in the form of an emotion data sheet, so the emotions to be recognized for each scene. Is obtained by referring to this emotion data sheet, but in this embodiment, by using a game program and data as stimulus data, the configuration of the emotion data sheet and this emotion data sheet are used. The method for recognizing the emotion of the user 100 is different.

すなわち、CPU701は常にユーザ100のゲームの進展具合を監視し、所定の時間毎に感情データシートのどの進展具合に該当するのかを判断する。そして該当する進展具合に関連付けられた感情のうち、最も多いものを認識結果とする。これにより、CPU701は、「この進展具合なら、ユーザ100はこのような感情を抱くであろう」と判断して、感情を認識することができる。   In other words, the CPU 701 always monitors the progress of the game of the user 100 and determines which progress of the emotion data sheet corresponds to each predetermined time. Of the emotions associated with the corresponding progress, the most common emotion is taken as the recognition result. Thereby, the CPU 701 can recognize the emotion by determining that “the user 100 will have such an emotion if this progress is made”.

このように、現在のユーザ100の感情がどのようなものであるかを得るために映画の代わりにテレビゲームを用いることで、感情データシートの構成、及びこの感情データシートを用いたユーザ100の感情を認識する方法が異なる以外は、本実施形態は第1の実施形態と同じである。   Thus, by using a video game instead of a movie in order to obtain what the current user's 100 emotion is, the configuration of the emotion data sheet and the user 100 using this emotion data sheet The present embodiment is the same as the first embodiment except that the method for recognizing emotions is different.

このように刺激データとしてテレビゲームを使用すると以下のような長所がある。すなわち、多数の人がゲームの進展に沿って、ほぼ同じ体験をすることが出来るので、平均的な反応と個人の特異な反応との比較がしやすい。さらに、同じ感情を持つ状態がいくつかあるので、ある特異な状態のみで感情モデルが作成されるのではなく、同じ感情をもつ複数の状態に対する平均的な反応を使用して感情モデルを作成するため、精度の高い感情モデルが作成できる。   Thus, using a video game as stimulus data has the following advantages. That is, since many people can experience almost the same experience as the game progresses, it is easy to compare the average response with the individual specific response. In addition, because there are several states with the same emotion, an emotion model is created using an average response to multiple states with the same emotion, instead of creating an emotion model with only one specific state. Therefore, an accurate emotion model can be created.

また、テレビゲームはインタラクティブ性があり、ユーザが映画よりも更に主体的に取り組むので、声を出したりして、ユーザの反応も強くなり、喜怒哀楽の感情が出やすい。そのため、ユーザの反応データのパラメータ計測が行いやすい。しかし、感情モデルの作成及び修正時には、入力されるユーザの反応データのパラメータ計測値に対して出力される感情の強さは最大のレベルとする必要がある。つまり、ゲームを実行中の反応データのパラメータ計測値のレベルより低い値を入力した時に、出力される感情のレベルが通常レベルになるようにする必要がある。   In addition, the video game is interactive, and the user works more proactively than the movie. Therefore, the user's reaction becomes stronger by making a voice and the emotion of emotion is easily generated. Therefore, it is easy to measure parameters of user reaction data. However, when creating and correcting an emotion model, the strength of the emotion that is output with respect to the parameter measurement value of the input response data of the user needs to be at the maximum level. That is, when a value lower than the parameter measurement value level of the reaction data during the game is input, the emotion level to be output needs to be set to the normal level.

なお、本実施形態では、ユーザ100の画像情報と音声情報の両方を収集して感情を認識するようにしていたが、ユーザによっては如何なる感情を抱いても声を出さない場合もある。その場合には、画像情報のみを用いて感情を認識するようにしても良い。その場合には、マイク102は必要はないし、感情モデル109には、上記画像情報のみを入力することになる。   In the present embodiment, both the image information and audio information of the user 100 are collected to recognize emotions. However, some users may not speak any emotions. In that case, emotion may be recognized using only image information. In that case, the microphone 102 is not necessary, and only the image information is input to the emotion model 109.

なお、ユーザ100の反応データを得る形態は上記実施形態以外にも考えられる。例えば、第1の実施形態ではシーンを見ているユーザ100の画像情報、音声情報を反応データとして収集したが、シーンを見ているユーザの脈拍数を計測し、計測した脈拍数が単位時間あたりどの程度の脈拍数であるかによって、感情を推定するようにしても良い。例えば興奮時には単位時間あたりの脈拍数は多くなる等、脈拍数は感情の部分情報になりうるので、この脈拍数を反応データとして用いることも可能である。また、反応データとして以上説明したものを適宜組み合わせて用いるようにしても良い。   In addition, the form which obtains the reaction data of the user 100 can be considered other than the above embodiment. For example, in the first embodiment, image information and audio information of the user 100 watching the scene are collected as reaction data, but the pulse rate of the user watching the scene is measured, and the measured pulse rate is per unit time. The emotion may be estimated depending on how much the pulse rate is. For example, since the pulse rate per unit time increases during excitement, the pulse rate can be partial information of emotion, so this pulse rate can also be used as reaction data. Moreover, you may make it use combining suitably what was demonstrated above as reaction data.

[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
An object of the present invention is to supply a recording medium (or storage medium) that records software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer of the system or apparatus (or CPU or MPU). Needless to say, this can also be achieved by reading and executing the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャート(機能構成)に対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, the recording medium stores program codes corresponding to the above-described flowchart (functional configuration).

本発明の第1の実施形態に係る情報処理システムの機能構成を示す図である。It is a figure which shows the function structure of the information processing system which concerns on the 1st Embodiment of this invention. 各シーン毎に感情を示すデータを関連付けた感情データシートの構成例を示す図である。It is a figure which shows the structural example of the emotion data sheet which linked | related the data which show an emotion for every scene. 本発明の第1の実施形態に係るコンピュータが行う感情認識処理、及びユーザ100の感情を認識するための感情モデル109のパラメータの修正処理のフローチャートである。It is a flowchart of the emotion recognition process which the computer which concerns on the 1st Embodiment of this invention performs, and the correction process of the parameter of the emotion model 109 for recognizing the emotion of the user 100. FIG. 周知の階層型ニューラルネットワークの構成例を示す図である。It is a figure which shows the structural example of a known hierarchical type neural network. ステップS302で計測されるユーザ100の反応データのパラメータ計測値の存在範囲を、各感情毎に規定している感情モデルが規定する各反応パラメータの範囲の例を示す図である。It is a figure which shows the example of the range of each reaction parameter which the emotion model which prescribes | regulates the existence range of the parameter measurement value of the reaction data of the user 100 measured by step S302 for every emotion. 本発明の第2の実施形態における感情データシートの構成例を示している。The structural example of the emotion data sheet in the 2nd Embodiment of this invention is shown. 本発明の第1の実施形態に係るシステムのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the system which concerns on the 1st Embodiment of this invention. 感情モデル109としてニューラルネットワークを用いた場合のステップS304における処理を説明する図である。It is a figure explaining the process in step S304 at the time of using a neural network as the emotion model 109. FIG.

Claims (12)

情報処理装置であって、
再生する再生情報を、感情情報に関連付けて記憶保持する記憶保持手段と、
前記再生情報を再生する再生手段と、
前記再生情報を再生しているときの前記ユーザの画像を撮像する撮像手段と、
前記画像から得られる前記ユーザの特徴量に基づいて、前記再生情報を再生しているときの前記ユーザの感情を所定の認識モデルを用いて推定する推定手段と、
前記再生情報を再生したときの前記推定手段が推定した感情が、前記記憶保持手段に再生情報に関連付けられて保持された感情情報が示す感情として推定されるように、前記認識モデルのパラメータを修正する修正手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus,
Memory holding means for storing and holding reproduction information to be reproduced in association with emotion information;
Reproducing means for reproducing the reproduction information;
Imaging means for capturing an image of the user when reproducing the reproduction information;
Estimating means for estimating the user's emotion when reproducing the reproduction information based on a feature amount of the user obtained from the image using a predetermined recognition model;
The parameter of the recognition model is corrected so that the emotion estimated by the estimation unit when the reproduction information is reproduced is estimated as the emotion indicated by the emotion information stored in the memory holding unit in association with the reproduction information. An information processing apparatus comprising: correcting means for performing
前記推定手段は、前記特徴量を多層型ニューラルネットワークにおける入力層のニューロン群に入力し、出力層のニューロン群からの出力を前記ユーザの感情を示す情報として得ることを特徴とする請求項1に記載の情報処理装置。   The said estimation means inputs the said feature-value into the neuron group of the input layer in a multilayer type neural network, and obtains the output from the neuron group of an output layer as the information which shows the said user's emotion. The information processing apparatus described. 前記修正手段は、前記再生情報を再生しているときの前記ユーザの画像から得られる前記特徴量を前記入力層のニューロン群に入力した場合に、前記再生情報に関連付けられた感情情報が出力されるように、ニューロン間の重み係数を修正することを特徴とする請求項2に記載の情報処理装置。   The correction means outputs emotion information associated with the reproduction information when the feature amount obtained from the image of the user when reproducing the reproduction information is input to a neuron group of the input layer. The information processing apparatus according to claim 2, wherein a weight coefficient between neurons is corrected. 前記修正手段は、前記重み係数の修正を、バックプロパゲーションによって修正することを特徴とする請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein the correction unit corrects the weight coefficient by back propagation. 前記推定手段は、感情毎に予め求めた前記特徴量の許容範囲を参照し、前記特徴量を許容範囲とする感情を推定結果として出力することを特徴とする請求項1に記載の情報処理装置。   2. The information processing apparatus according to claim 1, wherein the estimation unit refers to an allowable range of the feature amount obtained in advance for each emotion, and outputs an emotion having the feature amount as an allowable range as an estimation result. . 更に、前記ユーザの音声情報を収集する収集手段を備え、
前記推定手段は前記画像から得られる特徴量、及び前記音声情報から得られる特徴量に基づいて、前記再生情報を再生しているときの前記ユーザの感情を所定の認識モデルを用いて推定することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
And further comprising a collecting means for collecting the user's voice information,
The estimation means estimates a user's emotion when reproducing the reproduction information based on a feature amount obtained from the image and a feature amount obtained from the audio information using a predetermined recognition model. The information processing apparatus according to claim 1, wherein:
前記再生情報は映画のデータであって、前記記憶保持手段は、当該映画の各シーン毎に、シーンに対する感情情報を関連付けて記憶保持していることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。   7. The reproduction information according to claim 1, wherein the reproduction information is movie data, and the memory holding means stores and holds emotion information for each scene in association with each scene. The information processing apparatus according to item 1. ゲームを再生する情報処理装置であって、
前記ゲームの各進展具合を示す情報毎に、感情情報を関連付けて記憶保持する記憶保持手段と、
前記ゲームを再生しているときの前記ユーザの画像を撮像する撮像手段と、
前記ユーザが行っているゲームの進展具合を監視する監視手段と、
前記画像から得られる前記ユーザの特徴量に基づいて、前記ゲームを行っているときの前記ユーザの感情を所定の認識モデルを用いて推定する推定手段と、
所定の進展具合において前記推定手段が推定した感情が、前記記憶保持手段に当該進展具合を示す情報に関連付けられて保持された感情情報に基づいて決まる感情として推定されるように、前記認識モデルのパラメータを修正する修正手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus for playing a game,
Storage means for associating and storing emotion information for each piece of information indicating the progress of the game;
Imaging means for capturing an image of the user when playing the game;
Monitoring means for monitoring the progress of the game being played by the user;
Estimating means for estimating the user's emotion when playing the game using a predetermined recognition model based on the feature amount of the user obtained from the image;
The recognition model of the recognition model is estimated so that the emotion estimated by the estimation unit in a predetermined progress is estimated as an emotion determined based on emotion information held in association with information indicating the progress in the memory holding unit. An information processing apparatus comprising: correction means for correcting a parameter.
情報処理方法であって、
再生する再生情報を、感情情報に関連付けて記憶保持部に記憶保持する記憶保持工程と、
前記再生情報を再生する再生工程と、
前記再生情報を再生しているときの前記ユーザの画像を撮像する撮像工程と、
前記画像から得られる前記ユーザの特徴量に基づいて、前記再生情報を再生しているときの前記ユーザの感情を所定の認識モデルを用いて推定する推定工程と、
前記再生情報を再生したときの前記推定工程で推定した感情が、前記記憶保持部に再生情報に関連付けられて保持された感情情報が示す感情として推定されるように、前記認識モデルのパラメータを修正する修正工程と
を備えることを特徴とする情報処理方法。
An information processing method,
A memory holding step of storing and holding the reproduction information to be reproduced in the memory holding unit in association with emotion information;
A reproduction step of reproducing the reproduction information;
An imaging step of capturing an image of the user when reproducing the reproduction information;
Based on the feature amount of the user obtained from the image, an estimation step of estimating the user's emotion when reproducing the reproduction information using a predetermined recognition model;
The parameters of the recognition model are corrected so that the emotion estimated in the estimation step when the reproduction information is reproduced is estimated as the emotion indicated by the emotion information stored in the memory holding unit in association with the reproduction information. An information processing method comprising: a correcting step.
ゲームを再生する情報処理方法であって、
前記ゲームの各進展具合を示す情報毎に、感情情報を関連付けて記憶保持部に記憶保持する記憶保持工程と、
前記ゲームを再生しているときの前記ユーザの画像を撮像する撮像工程と、
前記ユーザが行っているゲームの進展具合を監視する監視工程と、
前記画像から得られる前記ユーザの特徴量に基づいて、前記ゲームを行っているときの前記ユーザの感情を所定の認識モデルを用いて推定する推定工程と、
所定の進展具合において前記推定工程で推定した感情が、前記記憶保持部に当該進展具合を示す情報に関連付けられて保持された感情情報に基づいて決まる感情として推定されるように、前記認識モデルのパラメータを修正する修正工程と
を備えることを特徴とする情報処理方法。
An information processing method for playing a game,
For each piece of information indicating the progress of each game, a memory holding step for associating emotion information and storing and holding it in a memory holding unit;
An imaging step of capturing an image of the user when playing the game;
A monitoring step of monitoring the progress of the game being performed by the user;
Based on the feature amount of the user obtained from the image, an estimation step of estimating the user's emotion when playing the game using a predetermined recognition model;
In the recognition model, the emotion estimated in the estimation step in a predetermined progress is estimated as an emotion determined based on emotion information held in association with the information indicating the progress in the memory holding unit. An information processing method comprising: a correction step of correcting a parameter.
コンピュータに請求項9又は10に記載の情報処理方法を実行させることを特徴とするプログラム。   A program causing a computer to execute the information processing method according to claim 9 or 10. 請求項11に記載のプログラムを格納することを特徴とする、コンピュータ読みとり可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 11.
JP2004166135A 2004-06-03 2004-06-03 Information processing method and information processing apparatus Expired - Fee Related JP4641389B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004166135A JP4641389B2 (en) 2004-06-03 2004-06-03 Information processing method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004166135A JP4641389B2 (en) 2004-06-03 2004-06-03 Information processing method and information processing apparatus

Publications (3)

Publication Number Publication Date
JP2005346471A true JP2005346471A (en) 2005-12-15
JP2005346471A5 JP2005346471A5 (en) 2010-04-22
JP4641389B2 JP4641389B2 (en) 2011-03-02

Family

ID=35498780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004166135A Expired - Fee Related JP4641389B2 (en) 2004-06-03 2004-06-03 Information processing method and information processing apparatus

Country Status (1)

Country Link
JP (1) JP4641389B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146318A (en) * 2006-12-08 2008-06-26 Toyota Infotechnology Center Co Ltd Emotion estimation apparatus
JP2009026125A (en) * 2007-07-20 2009-02-05 Denso It Laboratory Inc Emotion analysis device, emotion analysis method, and program
JP2009042671A (en) * 2007-08-10 2009-02-26 Kao Corp Method for determining feeling
JP2010286627A (en) * 2009-06-11 2010-12-24 Nissan Motor Co Ltd Emotion estimation device and emotion estimating method
JP2011227710A (en) * 2010-04-20 2011-11-10 Mega Chips Corp Data processor, data processing system, and program
JP2012137680A (en) * 2010-12-27 2012-07-19 Fujitsu Ltd State detector, state detection method and program for state detection
JP2016110631A (en) * 2014-12-02 2016-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. State estimation device, state estimation method and program
US9491507B2 (en) 2013-05-24 2016-11-08 Fujitsu Limited Content providing program, content providing method, and content providing apparatus
JP2017138343A (en) * 2016-02-01 2017-08-10 カシオ計算機株式会社 Emotion estimation device, emotion estimation method and program
JP2017194805A (en) * 2016-04-19 2017-10-26 Cocoro Sb株式会社 Emotion determination system, system, and program
JP2018132623A (en) * 2017-02-15 2018-08-23 トヨタ自動車株式会社 Voice interaction apparatus
JP2018152004A (en) * 2017-03-15 2018-09-27 富士ゼロックス株式会社 Information processor and program
JP2019505111A (en) * 2015-12-04 2019-02-21 スリング メディア,インク. Processing multiple media streams
CN109491499A (en) * 2018-11-05 2019-03-19 广州创维平面显示科技有限公司 A kind of electrical equipment control method, device, electrical equipment and medium
JP2019512822A (en) * 2016-03-14 2019-05-16 フヴィ・コグニティヴ・ネットワーク・コーポレーション Personal emotion-based computer-readable cognitive sensory memory and cognitive insights to enhance memory and decision making
WO2019243955A1 (en) * 2018-06-22 2019-12-26 株式会社半導体エネルギー研究所 Information processing method, image display method, information processing device, and image display device
WO2020162239A1 (en) * 2019-02-08 2020-08-13 日本電信電話株式会社 Paralinguistic information estimation model learning device, paralinguistic information estimation device, and program
WO2020246075A1 (en) * 2019-06-04 2020-12-10 ソニー株式会社 Action control device, action control method, and program
JP2021024378A (en) * 2019-08-01 2021-02-22 株式会社デンソー Emotion estimation device
JP2021514514A (en) * 2018-01-26 2021-06-10 インスティテュート オブ ソフトウェア チャイニーズ アカデミー オブ サイエンシズInstitute Of Software Chinese Academy Of Sciences Affective computing Sensitive interaction systems, devices and methods based on user interfaces
WO2021166207A1 (en) * 2020-02-21 2021-08-26 日本電信電話株式会社 Recognition device, learning device, method for same, and program

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02165285A (en) * 1988-12-20 1990-06-26 Fujitsu Ltd Pattern recognition device
JPH06231257A (en) * 1993-02-02 1994-08-19 Nec Corp Device for generating learning data
JPH0719834A (en) * 1993-07-02 1995-01-20 Fujitsu Ltd Recognizing apparatus for object
JPH08249447A (en) * 1995-03-13 1996-09-27 Atr Tsushin Syst Kenkyusho:Kk Expression detector
JP2593625B2 (en) * 1994-01-12 1997-03-26 株式会社脳機能研究所 Biological information automatic identification device
JP2874858B2 (en) * 1997-01-30 1999-03-24 株式会社エイ・ティ・アール知能映像通信研究所 Interactive movie system
JPH11219195A (en) * 1998-02-04 1999-08-10 Atr Chino Eizo Tsushin Kenkyusho:Kk Interactive mode poem reading aloud system
JP2001051967A (en) * 1999-08-04 2001-02-23 Fuji Xerox Co Ltd Associated storage device
JP2001209779A (en) * 1999-11-18 2001-08-03 Toshiba Corp Virtual biological system and pattern learning method in virtual biological system
JP3348956B2 (en) * 1994-03-24 2002-11-20 ソニー株式会社 Display device
JP2003099084A (en) * 2001-07-13 2003-04-04 Sony France Sa Emotion recognition method and device
JP2003162294A (en) * 2001-10-05 2003-06-06 Sony Internatl Europ Gmbh Method and device for detecting emotion
JP2003178078A (en) * 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd Additional indicator data to image and voice data, and its adding method
JP2003330485A (en) * 2002-05-10 2003-11-19 Tokai Rika Co Ltd Voice recognition device, voice recognition system, and method for voice recognition
JP2004064433A (en) * 2002-07-29 2004-02-26 Seiko Epson Corp System, program, and method for device operation
JP2004144996A (en) * 2002-10-24 2004-05-20 Daiichikosho Co Ltd Information presentation system
JP2004153770A (en) * 2002-10-31 2004-05-27 Sega Corp Digital movie system
JP2004178593A (en) * 2002-11-25 2004-06-24 Eastman Kodak Co Imaging method and system
JP2005063163A (en) * 2003-08-13 2005-03-10 Sony Corp Device and method for retrieval reproduction of imaging information, device and method for retrieval reproduction of contents and device and method for emotion retrieval
JP2005128884A (en) * 2003-10-24 2005-05-19 Sony Corp Device and method for editing information content

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6339835A (en) * 1986-08-05 1988-02-20 Fuso Kagaku Kogyo Kk Production of carboxylic acid vinyl ester

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02165285A (en) * 1988-12-20 1990-06-26 Fujitsu Ltd Pattern recognition device
JPH06231257A (en) * 1993-02-02 1994-08-19 Nec Corp Device for generating learning data
JPH0719834A (en) * 1993-07-02 1995-01-20 Fujitsu Ltd Recognizing apparatus for object
JP2593625B2 (en) * 1994-01-12 1997-03-26 株式会社脳機能研究所 Biological information automatic identification device
JP3348956B2 (en) * 1994-03-24 2002-11-20 ソニー株式会社 Display device
JPH08249447A (en) * 1995-03-13 1996-09-27 Atr Tsushin Syst Kenkyusho:Kk Expression detector
JP2874858B2 (en) * 1997-01-30 1999-03-24 株式会社エイ・ティ・アール知能映像通信研究所 Interactive movie system
JPH11219195A (en) * 1998-02-04 1999-08-10 Atr Chino Eizo Tsushin Kenkyusho:Kk Interactive mode poem reading aloud system
JP2001051967A (en) * 1999-08-04 2001-02-23 Fuji Xerox Co Ltd Associated storage device
JP2001209779A (en) * 1999-11-18 2001-08-03 Toshiba Corp Virtual biological system and pattern learning method in virtual biological system
JP2003099084A (en) * 2001-07-13 2003-04-04 Sony France Sa Emotion recognition method and device
JP2003162294A (en) * 2001-10-05 2003-06-06 Sony Internatl Europ Gmbh Method and device for detecting emotion
JP2003178078A (en) * 2001-12-12 2003-06-27 Matsushita Electric Ind Co Ltd Additional indicator data to image and voice data, and its adding method
JP2003330485A (en) * 2002-05-10 2003-11-19 Tokai Rika Co Ltd Voice recognition device, voice recognition system, and method for voice recognition
JP2004064433A (en) * 2002-07-29 2004-02-26 Seiko Epson Corp System, program, and method for device operation
JP2004144996A (en) * 2002-10-24 2004-05-20 Daiichikosho Co Ltd Information presentation system
JP2004153770A (en) * 2002-10-31 2004-05-27 Sega Corp Digital movie system
JP2004178593A (en) * 2002-11-25 2004-06-24 Eastman Kodak Co Imaging method and system
JP2005063163A (en) * 2003-08-13 2005-03-10 Sony Corp Device and method for retrieval reproduction of imaging information, device and method for retrieval reproduction of contents and device and method for emotion retrieval
JP2005128884A (en) * 2003-10-24 2005-05-19 Sony Corp Device and method for editing information content

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146318A (en) * 2006-12-08 2008-06-26 Toyota Infotechnology Center Co Ltd Emotion estimation apparatus
JP2009026125A (en) * 2007-07-20 2009-02-05 Denso It Laboratory Inc Emotion analysis device, emotion analysis method, and program
JP2009042671A (en) * 2007-08-10 2009-02-26 Kao Corp Method for determining feeling
JP2010286627A (en) * 2009-06-11 2010-12-24 Nissan Motor Co Ltd Emotion estimation device and emotion estimating method
JP2011227710A (en) * 2010-04-20 2011-11-10 Mega Chips Corp Data processor, data processing system, and program
JP2012137680A (en) * 2010-12-27 2012-07-19 Fujitsu Ltd State detector, state detection method and program for state detection
US9491507B2 (en) 2013-05-24 2016-11-08 Fujitsu Limited Content providing program, content providing method, and content providing apparatus
JP2016110631A (en) * 2014-12-02 2016-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. State estimation device, state estimation method and program
US10878325B2 (en) 2014-12-02 2020-12-29 Samsung Electronics Co., Ltd. Method and device for acquiring state data indicating state of user
JP2019505111A (en) * 2015-12-04 2019-02-21 スリング メディア,インク. Processing multiple media streams
JP2017138343A (en) * 2016-02-01 2017-08-10 カシオ計算機株式会社 Emotion estimation device, emotion estimation method and program
JP2019512822A (en) * 2016-03-14 2019-05-16 フヴィ・コグニティヴ・ネットワーク・コーポレーション Personal emotion-based computer-readable cognitive sensory memory and cognitive insights to enhance memory and decision making
JP2017194805A (en) * 2016-04-19 2017-10-26 Cocoro Sb株式会社 Emotion determination system, system, and program
CN109074509A (en) * 2016-04-19 2018-12-21 情感爱思比株式会社 Emotion determines system, system and program
WO2017183523A1 (en) * 2016-04-19 2017-10-26 Cocoro Sb株式会社 Emotion determination system, system, and program
JP2018132623A (en) * 2017-02-15 2018-08-23 トヨタ自動車株式会社 Voice interaction apparatus
JP2018152004A (en) * 2017-03-15 2018-09-27 富士ゼロックス株式会社 Information processor and program
JP7199451B2 (en) 2018-01-26 2023-01-05 インスティテュート オブ ソフトウェア チャイニーズ アカデミー オブ サイエンシズ Emotional interaction system, device and method based on emotional computing user interface
JP2021514514A (en) * 2018-01-26 2021-06-10 インスティテュート オブ ソフトウェア チャイニーズ アカデミー オブ サイエンシズInstitute Of Software Chinese Academy Of Sciences Affective computing Sensitive interaction systems, devices and methods based on user interfaces
CN112313701A (en) * 2018-06-22 2021-02-02 株式会社半导体能源研究所 Data processing method, image display method, data processing device, and image display device
US11755905B2 (en) 2018-06-22 2023-09-12 Semiconductor Energy Laboratory Co., Ltd. Data processing method, image display method, data processing device, and image display device
WO2019243955A1 (en) * 2018-06-22 2019-12-26 株式会社半導体エネルギー研究所 Information processing method, image display method, information processing device, and image display device
JPWO2019243955A1 (en) * 2018-06-22 2021-08-05 株式会社半導体エネルギー研究所 Information processing method, image display method, information processing device, and image display device
JP7350735B2 (en) 2018-06-22 2023-09-26 株式会社半導体エネルギー研究所 image display device
CN109491499A (en) * 2018-11-05 2019-03-19 广州创维平面显示科技有限公司 A kind of electrical equipment control method, device, electrical equipment and medium
JP2020129051A (en) * 2019-02-08 2020-08-27 日本電信電話株式会社 Paralanguage information estimation model learning device, paralanguage information estimation device and program
WO2020162239A1 (en) * 2019-02-08 2020-08-13 日本電信電話株式会社 Paralinguistic information estimation model learning device, paralinguistic information estimation device, and program
US20220122584A1 (en) * 2019-02-08 2022-04-21 Nippon Telegraph And Telephone Corporation Paralinguistic information estimation model learning apparatus, paralinguistic information estimation apparatus, and program
JP7111017B2 (en) 2019-02-08 2022-08-02 日本電信電話株式会社 Paralinguistic information estimation model learning device, paralinguistic information estimation device, and program
WO2020246075A1 (en) * 2019-06-04 2020-12-10 ソニー株式会社 Action control device, action control method, and program
JP2021024378A (en) * 2019-08-01 2021-02-22 株式会社デンソー Emotion estimation device
JP7251392B2 (en) 2019-08-01 2023-04-04 株式会社デンソー emotion estimation device
JP7332024B2 (en) 2020-02-21 2023-08-23 日本電信電話株式会社 Recognition device, learning device, method thereof, and program
WO2021166207A1 (en) * 2020-02-21 2021-08-26 日本電信電話株式会社 Recognition device, learning device, method for same, and program

Also Published As

Publication number Publication date
JP4641389B2 (en) 2011-03-02

Similar Documents

Publication Publication Date Title
JP4641389B2 (en) Information processing method and information processing apparatus
Celiktutan et al. Multimodal human-human-robot interactions (mhhri) dataset for studying personality and engagement
KR20200130231A (en) Direct live entertainment using biometric sensor data for detection of neural conditions
US8494338B2 (en) Electronic apparatus, video content editing method, and program
Chou et al. NNIME: The NTHU-NTUA Chinese interactive multimodal emotion corpus
JP4877762B2 (en) Facial expression guidance device, facial expression guidance method, and facial expression guidance system
US20050187437A1 (en) Information processing apparatus and method
JP2010066844A (en) Method and device for processing video content, and program for processing video content
CN112379780B (en) Multi-mode emotion interaction method, intelligent device, system, electronic device and medium
JP2020039029A (en) Video distribution system, video distribution method, and video distribution program
CN110121026A (en) Intelligent capture apparatus and its scene generating method based on living things feature recognition
JP5294315B2 (en) Dialogue activation robot
JP2011186521A (en) Emotion estimation device and emotion estimation method
KR101913811B1 (en) A method for analysing face information, and an appratus for analysing face information to present faces, identify mental status or compensate it
JP2007101945A (en) Apparatus, method, and program for processing video data with audio
Malatesta et al. Towards modeling embodied conversational agent character profiles using appraisal theory predictions in expression synthesis
Castellano et al. Inter-ACT: An affective and contextually rich multimodal video corpus for studying interaction with robots
CN114967937B (en) Virtual human motion generation method and system
JP2008186075A (en) Interactive image display device
JP4608655B2 (en) Learning support device, learning support device control method, learning support device control program, and computer-readable recording medium
CN109697413B (en) Personality analysis method, system and storage medium based on head gesture
Desai et al. Sound mixed reality prompts for people with dementia: A familiar and meaningful experience
Arendsen et al. When and how well do people see the onset of gestures?
JP2009032056A (en) Communication system
EP3799407A1 (en) Initiating communication between first and second users

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070604

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070604

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4641389

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees