JP4546767B2 - 感情推定装置及び感情推定プログラム - Google Patents

感情推定装置及び感情推定プログラム Download PDF

Info

Publication number
JP4546767B2
JP4546767B2 JP2004171288A JP2004171288A JP4546767B2 JP 4546767 B2 JP4546767 B2 JP 4546767B2 JP 2004171288 A JP2004171288 A JP 2004171288A JP 2004171288 A JP2004171288 A JP 2004171288A JP 4546767 B2 JP4546767 B2 JP 4546767B2
Authority
JP
Japan
Prior art keywords
subject
information
emotion
presentation
emotional state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004171288A
Other languages
English (en)
Other versions
JP2005348872A (ja
Inventor
康仁 澤畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2004171288A priority Critical patent/JP4546767B2/ja
Publication of JP2005348872A publication Critical patent/JP2005348872A/ja
Application granted granted Critical
Publication of JP4546767B2 publication Critical patent/JP4546767B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Description

本発明は、感情推定装置及び感情推定プログラムに係り、特に高精度に被験者の感情を推定するための感情推定装置及び感情推定プログラムに関する。
従来より映像や音声等のコンテンツや物理的なオブジェクト等を用いて被験者に何かしらの感情表現のきっかけを与え、その結果被験者から得られる情報により被験者の感情を推定する技術が様々な分野で用いられる。
ここで、一般に被験者の感情を推定する場合、被験者の情報をカメラやマイク等から得られる映像や音声、生体情報等に基づいて感情の推定を行っている(例えば、特許文献1参照。)。
特許文献1では、被験者の感情を検出するための感情検出方法として、音声信号を入力し、入力した音声信号から音声の強度、音声のテンポ及び音声の各単語内の強度変化パターンを表す抑揚をそれぞれ検出し、またそれぞれの変化量を算出して、算出された変化量に基づいて「怒り」や「悲しみ」、及び「喜び」のそれぞれの感情状態を表す信号を生成している。
特開2002−91482号
しかしながら、従来の方法では、表情や音声、あるいは生体情報と、予め収集していた統計データとの差異を調べることにより、対応する感情の推定を行っていた。
そのため、例えば、目を細めて肩を上下に揺らしている被験者は、「笑っている」と推定される場合や、「泣いている」と推定される場合があった。このように、被験者から得られる情報のみでは、高精度に感情の推定を行うことができない。
本発明は、上述した問題点に鑑みなされたものであり、高精度に感情の推定を行うための感情推定装置及び感情推定プログラムを提供することを目的とする。
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
請求項1に記載された発明は、被験者に情報を提示することにより前記被験者が得る感情を推定するための感情推定装置において、前記被験者に提示情報を提示する情報提示手段と、前記情報提示手段により提示された提示情報に含まれる映像及び音声から特徴量を生成し、生成された特徴量と予め学習された第1のニューラルネットワークとに基づいて、前記提示情報の状況を分析する分析手段と、前記分析手段により得られる分析結果と前記提示情報の詳細情報とから得られる文脈から前記被験者の感情状態の候補を推定する文脈推定手段と、前記情報提示手段により提示された提示情報を視聴する被験者の映像、音声、及び前記被験者の生体情報に基づいて前記被験者の感情状態の尤度を推定する状況推定手段と、前記文脈推定手段により得られる前記被験者の感情状態の候補と、予め設定される感情状態に対する調整値とに基づいて、前記状況推定手段により得られる前記被験者の感情状態の尤度を調整し、調整された尤度が最大となる感情状態を前記被験者の感情であると推定する感情推定手段とを有することを特徴とする。
請求項1記載の発明によれば、高精度に感情の推定を行うことができる。具体的には、提示情報や詳細情報からなる文脈により、文脈として不正確な感情表現を削除することができるため、高精度に感情の推定を行うことができる。また、ニューラルネットワークの学習情報を用いて効率よく高精度に分析を行うことができる。また、調整値により尤度を調整することにより、高精度に感情の推定を行うことができる。更に、尤度が最大となる感情状態を被験者の感情であると推定することで容易に被験者の感情状態を推定することができる。
請求項に記載された発明は、前記文脈推定手段は、前記分析手段により得られる分析結果及び前記提示情報の詳細情報と、予め学習された第2のニューラルネットワークとに基づいて、前記被験者の感情状態の候補を推定することを特徴とする。
請求項記載の発明によれば、ニューラルネットワークの学習情報を用いて効率よく高精度に感情状態の頻度を推定することができる。これにより、高精度に感情の推定を行うことができる。
請求項に記載された発明は、前記状況推定手段は、前記提示情報を視聴する被験者の映像、音声、及び前記被験者の生体情報から特徴量を生成し、生成された特徴量と、予め学習された第3のニューラルネットワークとに基づいて、前記感情状態に対する尤度を出力することを特徴とする。
請求項記載の発明によれば、ニューラルネットワークの学習情報を用いて効率よく高精度に感情状態に対する尤度を出力することができる。これにより、高精度に感情の推定を行うことができる
請求項に記載された発明は、被験者に情報を提示することにより前記被験者が得る感情を推定するための感情推定プログラムにおいて、コンピュータを、前記被験者に提示情報を提示する情報提示手段、前記情報提示手段により提示された提示情報に含まれる映像及び音声から特徴量を生成し、生成された特徴量と予め学習された第1のニューラルネットワークとに基づいて、前記提示情報の状況を分析する分析手段、前記分析手段により得られる分析結果と前記提示情報の詳細情報とから得られる文脈から前記被験者の感情状態の候補を推定する文脈推定手段、前記情報提示手段により提示された提示情報を視聴する被験者の映像、音声、及び前記被験者の生体情報に基づいて前記被験者の感情状態の尤度を推定する状況推定手段、及び、前記文脈推定手段により得られる前記被験者の感情状態の候補と、予め設定される感情状態に対する調整値とに基づいて、前記状況推定手段により得られる前記被験者の感情状態の尤度を調整し、調整された尤度が最大となる感情状態を前記被験者の感情であると推定する感情推定手段として機能させる。
請求項記載の発明によれば、高精度に感情の推定を行うことができる。また、ニューラルネットワークの学習情報を用いて効率よく高精度に分析を行うことができる。また、調整値により尤度を調整することにより、高精度に感情の推定を行うことができる。また、尤度が最大となる感情状態を被験者の感情であると推定することで容易に被験者の感情状態を推定することができる。更に、実行プログラムをコンピュータにインストールすることにより、安価な構成で容易に被験者の感情の推定を行うことができる。
本発明によれば、高精度に被験者の感情の推定を行うことができる。
<本発明の概要>
本発明は、被験者の感情を推定する際、被験者の状況をカメラやマイク、生体情報等の情報を処理するだけでなく、被験者に提示している映像や音声等のコンテンツ、又は被験者と対話を行うインターフェースロボット等の表情や動作、触覚ディスプレイ等の物理的なオブジェクト等の情報を利用することにより、カメラやマイク、生体情報等だけでは判断が難しい感情を高精度に推定することを可能とする。
具体的には、情報提示手段により被験者に提示されている提示情報(映像、音声、字幕や音声認識から得られる言語情報、物理的なオブジェクトの動き等)を分析することにより得られる特徴と提示情報の詳細情報、及び被験者の状況をカメラ、マイク、その他のセンサ等によって被験者をモニタリングし、そのモニタリング結果から得られる感情状態に基づいて被験者がどのような感情になっているかを高精度に推定する。
<実施形態>
以下に、本発明における感情推定装置及び感情推定プログラムを好適に実施した形態について、図面を用いて説明する。
図1は、本発明における感情推定装置の一構成例を示す図である。図1に示す感情推定装置10は、情報提示手段11と、提示情報分析手段12と、文脈推定手段13と、撮像手段14と、音声入力手段15と、計測手段16と、被験者状況推定手段17と、感情推定手段18とを有するよう構成されている。また、感情推定手段18は、文脈・被験者状況対応データベース(DB:Data Base)19から必要に応じて情報を取得することができる。
情報提示手段11は、被験者(視聴者)21に映像や音声等の情報を提示する。具体的には、ディスプレイ等の表示手段や、スピーカ等の音声出力手段を有する。また、情報提示手段11は、出力された映像や音声からなるAV(Audio Visual)ソースやオブジェクトに関する基本情報を提示情報分析手段12に出力する。
提示情報分析手段12は、映像や音声、物理的なオブジェクトの動き等の提示情報について、映像の色情報、エッジ情報、顔の存在等の特徴、音声のMFCC(Mel Frequency Cepstrum Coefficient:帯域毎のエネルギー)、音量、韻律(ピッチ、抑揚等)等の特徴量を生成する。
また、提示情報分析手段12は、予め学習されたニューラルネットワーク(第1のニューラルネットワーク)に上述した少なくとも1つの特徴量を入力し、提示情報がどのようなもの(映像、音声)であるかを分析する。また、提示情報分析手段11は、分析結果を文脈推定手段13に出力する。なお、提示情報分析手段12における第1のニューラルネットワークの構成例については後述する。
文脈推定手段13は、提示情報分析手段12により得られる分析結果及び提示情報に対応した詳細情報20等からなる物事の背景(文脈)と、予め学習されたニューラルネットワーク(第2のニューラルネットワーク)とに基づいて、提示情報が被験者21に引き起こす感情状態が何である確率が高いかを推定する。提示情報における文脈の推定を行うことで、文脈として不正確な感情を削除することができる。
ここで、提示情報の詳細情報20は、放送波やインターネット等から取得した字幕情報、番組詳細情報、現在提示している状態等であり、提示情報に対応して放送局等から取得することができるものである。なお、詳細情報には、ドラマ、ニュース、音楽等の提示している番組のジャンルや、提示情報の属性を示すメタデータ、言語情報、「喜」、「怒」、「哀」、「楽」等の予め設定される感情に対応する言葉の数等の情報も含まれる。
文脈推定手段13は、上述した情報を入力し、予め学習された第2のニューラルネットワークにより被験者の感情の候補を推定し、推定結果として感情推定手段18に出力する。ここで、感情の候補としては、例えば、「喜び」、「悲しみ」、「怒り」、「驚き」、「恐れ」、「緊張」、「疲労」、等である。なお、文脈推定手段13における第2のニューラルネットワークの構成例については後述する。
また、感情推定装置10は、被験者21における提示情報の視聴状況についてモニタリングを行う。撮像手段14はカメラ等からなり、被験者21の顔画像等を撮影する。また、撮像手段14は、撮影された映像を被験者状況推定手段17に出力する。
また、音声入力手段15はマイク等からなり、被験者21からの音声を入力する。また、音声入力手段15は入力した音声を被験者状況推定手段17に出力する。
また、計測手段16は、被験者21の血圧計や心拍計等を用いて被験者の生体情報を取得する。また、計測手段16は、計測した生体情報を被験者状況推定手段17に出力する。
被験者状況推定手段17は、撮像手段14、音声入力手段15、計測手段16により得られる映像情報、音声情報、生体情報から特徴量を生成する。また、被験者状況推定手段17は、予め学習されたニューラルネットワーク(第3のニューラルネットワーク)に上述した少なくとも1つの特徴量を入力し、被験者21が提示情報の視聴時に複数の感情状態に対してどの程度の尤度を有しているのかを推定する。なお、被験者状況推定手段17における第3のニューラルネットワークの構成例については後述する。
なお、被験者状況推定手段17の入力は、被験者21の顔の特徴(例えば、シワ、眉毛、目、口等)、発話内容の属性(例えば、「喜び」「怒り」等)、生体情報(例えば、心拍数、α波(覚醒状態)、血圧等)、韻律(例えば、ピッチ、音量、MFCC等)等である。ここで、上述した顔の特徴を抽出する手法としては、例えば顔の濃淡画像にエッジ抽出フィルタ等を行い、エッジ画像とエッジにより得られる顔部品のテンプレートとのマッチングによって、顔の特徴を抽出する手法等を用いることができる。
また、被験者状況推定手段17の出力は、文脈推定手段13と同様に、「喜び」、「悲しみ」、「怒り」、「驚き」、「恐れ」、「緊張」、「疲労」等である。被験者状況推定手段17は、推定された被験者状況の推定結果を感情推定手段18に出力する。
感情推定手段18は、文脈・被験者状況対応DB19の情報を参照することで、文脈推定手段13及び被験者状況推定手段17により得られるそれぞれの感情状態から尤度を重み付けにより調整し、最終的に被験者21がどのような感情状態にいるかを推定する。
ここで、文脈・被験者状況対応DB19には、文脈推定手段13により得られる感情状態の候補と、被験者状況推定手段17により得られる感情状態との各組み合わせに対応する尤度の調整値(重み付け)が蓄積されている。なお、文脈・被験者状況対応DB19の具体的なデータ例については後述する。
感情推定手段18は、尤度の調整を行った後、例えば、尤度が最大の感情をその時点での被験者21の感情と推定する。
このように、被験者の状況だけでなく、被験者の感情変化のきっかけを与える提示情報の特徴を用いることにより、文脈に適した感情表現を認識することができる。これにより、判断が困難であった感情表現も文脈に合わない感情表現を削除することで、高精度に感情の推定を行うことができる。
<提示情報分析手段12における第1のニューラルネットワークの構成例>
次に、提示情報分析手段12における第1のニューラルネットワークの構成例について説明する。図2は、提示情報分析手段における入出力について説明するための一例を示す図である。図2に示すように情報提示手段11により得られる提示情報から特徴量を生成し、生成した特徴量を入力として第1のニューラルネットワークにより提示情報の分析を行う。
具体的には、第1のニューラルネットワークに入力される情報としては、映像の色やエッジ量、顔の存在の有無、MFCC、音量、韻律等がある。また、第1のニューラルネットワークからの出力としては、映像が屋内であるか、屋外であるか、映像の天気の様子、映像が対話中であるか否か、BGMのジャンル(ポップ、ロック、ジャズ等)、音声の種類(泣き声、笑い声、叫び声等)等がある。
次に、提示情報の分析内容についての具体的な内容について説明する。例えば、提示情報として映像及び音声情報を有する場合には、映像と音声とのそれぞれにおける特徴量を生成し、生成した特徴量を結合してn次元(n:1以上の整数)の特徴量を取得する。また、取得した特徴量に基づいて提示情報の分析を行う。
ここで、一例として、音声特徴量としてケプストラム分析により6次元の特徴量を生成する手法を説明する。ある時間tに入力される音声信号s(t)から予め設定される時間Tまでの音声信号s(t〜t+T)の区間についてフーリエ変換を行う(F[s(t)]=S(ω))。
次に、フーリエ変換された値のケプストラムを計算し(F−1[log(||S(ω)||)、パラメータ(C〜CT−1)を取得する。このとき、取得したパラメータから低次のパラメータを音声特徴量とする。つまり、6次元の音声特徴量は、[C,C,C,C,C,C]となる。
次に、映像特徴量としてカラーヒストグラムにより9次元(3×3次元)の特徴量を生成する手法を説明する。まず、映像中のある座標(x,y)におけるR,G,B値をR(x,y)、G(x,y)、B(x,y)とする。また、特徴量を削減するためにRGBそれぞれを3階調にする。次に、3階調にされたデータを用いてヒストグラムを作成し、3×3の特徴量を取得する。この取得した特徴量を映像特徴量[R,R,R,G,G,G,B,B,B]とする。
ここで、上述した音声特徴量と映像特徴量とを結合し、15次元特徴量を取得する。なお、本実施形態において、音声特徴量及び映像特徴量の次元数や取得方法についてはこの限りではない。
次に、上述した15次元特徴量とニューラルネットワークを適用した分析内容について図を用いて説明する。図3は、特徴量から提示内容を分析するためのニューラルネットワークの一構成例を示す図である。なお、図3に示すネットワークは、入力層、中間層、出力層の3層を有するよう構成されており、入力層、中間層、出力層の任意の素子に対する出力を、それぞれx、y、zとする。
入力層には、上述した15個(次元)の素子x〜x14を有し、中間層には7個の素子y〜yを有し、出力層には11個の素子z〜z10を有している。なお、本実施形態においては、それぞれの層における素子の数は限定されるものではない。
また、iは、各層の素子数に対応する変数である。更に、入力層から中間層、中間層から出力層の間では、前の層の全素子から、次の層の全素子へ接続されているものとする。
まず、ニューラルネットワークの入力層には、上述した音声及び映像の特徴量[C,C,C,C,C,C,R,R,R,G,G,G,B,B,B]を入力する。
ここで、xは、入力層における特徴量の一例を示している。また、wは、入力層から中間層において、ある感情jを出力する層に入力される特徴iに対する重み関数を示し、w’は、中間層から出力層において、ある感情jを出力する層に入力される特徴iに対する重み関数を示している。
また、図3では入力層と出力層の間に7個の素子からなる中間層y〜yを設けている。中間層における素子の入出力の関係は、以下に示す(1)式となる。
Figure 0004546767
ここで、上述の(1)式において、σは一種の閾値関数であるシグモイド関数(Sigmoid Function)を示し、σ(y)は以下に示す(2)式となる。
Figure 0004546767
次に、上述と同様な手法により、出力層におけるニューラルネットワークに基づく入出力の関係は、例えば以下に示す(3)式、(4)式等となる。
Figure 0004546767
ここで、上述の(3)式は、図3において、提示情報の状況が「屋内」であると分析された出力を示すものである。同様に(4)式は、図3において、提示情報の状況が野球等の「打席シーン」と分析された出力を示すものである。提示情報分析手段は、このようにニューラルネットワークを用いて入力情報から分析した分析結果を文脈推定手段13に出力する。
<文脈推定手段13における第2のニューラルネットワークの構成例>
次に、文脈推定手段13における第2のニューラルネットワークの構成例について説明する。文脈推定手段13は、提示情報分析手段12の分析結果と、提示情報の詳細情報20とを入力し、予め学習された第2のニューラルネットワークを用いて、被験者が提示情報を視聴することにより感情状態が何である確率が高くなるかを求め、その候補を推定して出力する。なお、第2のニューラルネットワークからの出力は、「喜び」、「悲しみ」、「怒り」、「驚き」、「恐れ」、「緊張」、「疲労」等となる。
次に、ニューラルネットワークを適用した分析内容から感情状態の候補の推定内容について図を用いて説明する。図4は、分析内容から感情状態の候補を推定するためのニューラルネットワークの一構成例を示す図である。なお、図4に示すネットワークは、図3と同様に入力層、中間層、出力層の3層を有するよう構成されている。ここで、図4におけるx、y、z、w、σ等は上述と同様である。また、入力層には、上述した15個(次元)の素子x〜x14を有し、中間層には7個の素子y〜yを有し、出力層には8個の素子z〜zを有している。なお、本実施形態においては、それぞれの層における素子の数は限定されるものではない。
また、ニューラルネットワークの入力層には、上述した提示情報分析手段12にて得られた分析情報と、提示情報の詳細情報20とに基づいて設定された提示情報の特徴が付与されている。つまり、提示情報の分析結果もしくは詳細情報から、提示される状況に該当する特徴には「1」、該当しない特徴には「0」が設定される。なお、本実施形態においては、特に値の限定はなく、その他の値が設定されてもよい。
例えば、情報提示手段11により、屋根のない球場での野球中継の番組を被験者に提示しているものとすると、図4では、「屋外」、「晴れ」、「歓声」、「悲鳴」、「怒号」、「ホームラン」、「得点シーン」、「野球」、「ホームラン発言」に分析結果として「1」が設定される。
また、図4は入力層と出力層の間に7個の素子からなる中間層y〜yを設けている。中間層における素子の入出力の関係は、上述した(1)式に示すようになる。また、出力層における素子の入出力の関係は、例えば、以下に示す(5)式、(6)式等となる。
Figure 0004546767
また、出力層には予め感情状態が設定されている。設定された感情状態に対し、文脈推定を行い、被験者21の感情状態である確率の高い感情状態に「1」を設定する。例えば、図4においては、「なし」、「喜び」、「悲しみ」、「怒り」、「驚き」、「恐れ」、「緊張」、「疲労」に対して、推定される感情状態に「1」が設定されている。このように、第2のニューラルネットワークを用いて被験者の感情状態の候補を推定し、推定した結果を感情推定手段18に出力する。
<被験者状況推定手段17における第3のニューラルネットワークの構成例>
次に、被験者状況推定手段17における第3のニューラルネットワークの構成例について説明する。被験者状況推定手段17は、撮像手段14からの映像、音声入力手段15からの音声、計測手段16からの生体情報に基づいて、予め学習されたニューラルネットワーク(第3のニューラルネットワーク)を用いて被験者の状況の推定を行う。
ここで、被験者の状況を把握するために、例えば、映像から顔の特徴を検出したり、上述したように音声に関する特徴を取得したり、言語に関する特徴を取得することにより特徴量を生成する。
ここで、顔の特徴としては、例えば、「眉の角度」、「口が開いているか」、「目は開いているか」、「眉間にシワがあるか」等がある。また、音声特徴量としては、上述としては、例えば、ケプストラム分析により6次元の特徴量(C〜C)を取得する。
また、言語の特徴としては、被験者21が「うまい!」と発言したか、「やった!」と発言したか等を検出することにより特徴量を生成し、予め設定された感情状態に対する尤度(確率)を推定し感情推定手段18に出力する。
次に、ニューラルネットワークを適用した被験者状況推定内容について図を用いて説明する。図5は、被験者状況推定するためのニューラルネットワークの一構成例を示す図である。
なお、図5に示すネットワークは、図3、図4と同様に入力層、中間層、出力層の3層を有するよう構成されている。ここで、図5におけるx、y、z、w、σ等は上述と同様である。また、入力層には、上述した15個(次元)の素子x〜x14を有し、中間層には7個の素子y〜yを有し、出力層には8個の素子z〜zを有している。なお、本実施形態においては、それぞれの層における素子の数は限定されるものではない。
まず、ニューラルネットワークの入力層には、上述した音声の特徴量と、所定の角度からの「眉の角度」、「口が開いている」、「左目を開いている」、「右目を開いている」、「眉間にシワ」か、発言「やった」、発言「ガンバレ」、発言「うまい」、発言「下手」等に対する特徴量が設定されている。
ここで、眉の角度等は予め設定された位置からの角度を設定し、図5では、被験者の視聴状況に該当する特徴には「1」、該当しない特徴には「−1」が設定される。なお、本実施形態においては、特に値の限定はなく、その他の値が設定されてもよい。
また、図5は入力層と出力層の間に7個の素子からなる中間層y〜yを設けている。中間層における素子の入出力の関係は、上述した(1)式に示すようになる。また、出力層における素子の入出力の関係は、例えば、以下に示す(7)式、(8)式等となる。
Figure 0004546767
ここで、上述の(7)式は、図5においては、被験者の感情状態が「なし」と推定される場合の尤度を示すものである。同様に(8)式は、図5においては、被験者の感情状態が「疲労」と推定される場合の尤度を示すものである。なお、被験者状況推定手段17では正規化処理を行う。具体的には、以下に示す(9)式により、Z’kを算出する。
Figure 0004546767
ここで、上述の(9)式において、lは出力層の全素子数からの出力の合計を算出するための変数を示し、kは各素子毎の出力を算出するための変数を示している。このように、第3のニューラルネットワークを用いて推定された結果(尤度)を感情推定手段18に出力する。
<感情推定手段18>
次に、感情推定手段18における感情推定内容について説明する。感情推定手段18は、文脈・被験者状況対応DB19の情報を参照することで、被験者状況推定手段17が出力する尤度を増減することで、最終的に被験者がどのような感情状態にいるかを推定する。ここで、文脈・被験者状況対応DB19の例について図を用いて説明する。
図6は、本実施形態における文脈・被験者状況対応DBの一例を示す図である。図6に示すように、文脈・被験者状況対応DB19は、「文脈推定感情」と、「被験者状況推定感情」と、「尤度の調整値」とを有する。
つまり、図6により、文脈推定手段12により推定された感情状態の候補と、被験者状況推定手段17により推定される感情状態とに基づいて尤度の調整値を参照する。例えば、図6において、文脈推定感情が「喜び」であったとする。このとき、被験者状況推定手段17により得られるそれぞれの感情に対して、「喜び」の場合は「+0.3」の増加を行い、「怒り」の場合は「−0.1」の減少を行う。つまり、文脈・被験者状況対応DB19に蓄積される調整値に基づいて、それぞれの感情状態に対する尤度を増減させる。なお、図6に示すデータ例では、調整値として尤度の増減値が設定されているが、本発明においては、この限りではなく、例えば、被験者状況推定手段17により得られる尤度に対して増減させる割合(%)等を調整値として設定することができる。
次に、感情推定手段18における感情推定内容について図を用いて説明する。図7は、本実施形態における感情推定内容を説明するための図である。図7において、被験者状況推定手段17により尤度が入力される。また、上述の図4に示すように、文脈推定手段13により「喜び」と「怒り」の2つの感情状態が推定がされているため、感情推定手段18は文脈・被験者状況対応DB19を参照し、対応する尤度の増減値をそれぞれ設定して、図7に示すようにそれらを加算することにより尤度を出力する。
また、感情推定手段18は、この尤度に基づいて被験者の感情の推定を行う。感情の推定については、例えば調整された尤度の中から最大のものを選択して被験者の感情を特定したり、最大の尤度から上位の数個の感情を候補として出力したりすることができる。これにより、高精度に感情の推定を実現することができる。
なお、上述した実施の形態では、提示情報分析、文脈推定、被験者状況推定において、それぞれにニューラルネットワークを構成したが、本発明においては、この限りではなく、例えば、図8に示す他のニューラルネットワーク構成例のように、ニューラルネットワークを1つに統合することもできる。なお、このとき上述した文脈・被験者状況対応DB19に示す尤度の増減値の設定は、図8に示すニューラルネットワークのパラメータとして付与されることになる。
<ハードウェア構成>
ここで、上述した感情推定装置10は、専用の装置構成により本発明における感情の推定を行うこともできるが、上述した各構成における感情推定処理をコンピュータに実行させることができる実行プログラムを生成し、例えば、汎用のパーソナルコンピュータ、ワークステーション等にプログラムをインストールすることにより、本発明における感情推定を実現することができる。
次に、本発明における実行可能なコンピュータのハードウェア構成例について図を用いて説明する。図9は、本発明における感情推定処理が実現可能なハードウェア構成の一例を示す図である。
図9におけるコンピュータ本体には、入力装置31と、出力装置32と、ドライブ装置33と、補助記憶装置34と、メモリ装置35と、各種制御を行うCPU(Central Processing Unit)36と、ネットワーク接続装置37とを有するよう構成されており、これらはシステムバスBで相互に接続されている。
入力装置31は、使用者が操作するキーボード及びマウス等のポインティングデバイスを有しており、使用者からのプログラムの実行等、各種操作信号を入力する。出力装置32は、本発明における感情推定処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU36が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。
ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、CD−ROM等の記録媒体38等により提供される。プログラムを記録した記録媒体38は、ドライブ装置33にセット可能であり、記録媒体38に含まれる実行プログラムが、記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。
補助記憶装置34は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。
CPU36は、OS(Operating System)等の制御プログラム、メモリ装置35により読み出され格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、感情推定における各処理を実現することができる。プログラムの実行中に必要な各種情報は、補助記憶装置34から取得することができ、また格納することもできる。
ネットワーク接続装置37は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。
上述したようなハードウェア構成により、特別な装置構成を必要とせず、低コストで感情推定を実現することができる。また、本発明の実行プログラムをコンピュータにインストールすることにより、安価な構成で容易に被験者の感情の推定を行うことができる。
<処理手順>
次に、本発明における感情推定処理手順についてフローチャートを用いて説明する。図10は、感情推定処理手順の一例を示すフローチャートである。
まず、被験者に対して映像や音声等の情報の提示を行う(S01)。次に、提示された情報の分析を行う(S02)。また、S02により得られる分析結果に基づいて文脈推定を行う(S03)。このとき、上述したように、提示された情報に対応する詳細情報も入力して、文脈推定を行うことができる。
一方、S01により被験者に情報を提示し、提示された情報を見ている被験者を撮影した映像情報、被験者の発声(音声情報)、生体情報等を取得し、提示情報を視聴している被験者の状況を推定する(S04)。具体的には、被験者の状況に対応する尤度を設定する。
次に、S03により得られた文脈推定結果と、S04により得られた尤度から予め設定される尤度の増減値や割合等の調整値(重み付け)に基づいて尤度の調整を行う(S05)。更に、調整された尤度から現在の被験者の感情の推定を行う(S06)。
上述したような感情推定処理により、高精度に感情の推定を実現することができる。また、本発明における実行プログラムをコンピュータにインストールすることにより、容易に高精度な感情の推定を実現することができる。
上述したように本発明によれば、高精度な感情の推定を実現することができる。具体的には、提示されている被験者の状態だけを用いて感情の推定を行う従来の方法では判断が難しかった感情表現でも、文脈推定により文脈として不正確な感情表現を削除するため、高精度に感情の推定を行うことができる。
なお、本発明における感情推定は、被験者の心理状態を把握して治療を行う等の医療分野に適用することができ、また、感情を推定し、その推定情報をコンピュータが利用することにより、マン・マシンインタフェースとして様々なコンピュータの操作が実現できる。
以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
本発明における感情推定装置の一構成例を示す図である。 提示情報分析手段における入出力について説明するための一例を示す図である。 特徴量から提示内容を分析するためのニューラルネットワークの一構成例を示す図である。 分析内容から感情状態の候補を推定するためのニューラルネットワークの一構成例を示す図である。 被験者状況推定するためのニューラルネットワークの一構成例を示す図である。 本実施形態における文脈・被験者状況対応DBの一例を示す図である。 本実施形態における感情推定内容を説明するための図である。 他のニューラルネットワーク構成例を示す図である。 本発明における感情推定処理が実現可能なハードウェア構成の一例を示す図である。 感情推定処理手順の一例を示すフローチャートである。
符号の説明
10 感情推定装置
11 情報提示手段
12 提示情報分析手段
13 文脈推定手段
14 撮像手段
15 音声入力手段
16 計測手段
17 被験者状況推定手段
18 感情推定手段
19 文脈・被験者状況対応データベース
20 提示情報の詳細情報
21 被験者
31 入力装置
32 出力装置
33 ドライブ装置
34 補助記憶装置
35 メモリ装置
36 CPU
37 ネットワーク接続装置
38 記録媒体

Claims (4)

  1. 被験者に情報を提示することにより前記被験者が得る感情を推定するための感情推定装置において、
    前記被験者に提示情報を提示する情報提示手段と、
    前記情報提示手段により提示された提示情報に含まれる映像及び音声から特徴量を生成し、生成された特徴量と予め学習された第1のニューラルネットワークとに基づいて、前記提示情報の状況を分析する分析手段と、
    前記分析手段により得られる分析結果と前記提示情報の詳細情報とから得られる文脈から前記被験者の感情状態の候補を推定する文脈推定手段と、
    前記情報提示手段により提示された提示情報を視聴する被験者の映像、音声、及び前記被験者の生体情報に基づいて前記被験者の感情状態の尤度を推定する状況推定手段と、
    前記文脈推定手段により得られる前記被験者の感情状態の候補と、予め設定される感情状態に対する調整値とに基づいて、前記状況推定手段により得られる前記被験者の感情状態の尤度を調整し、調整された尤度が最大となる感情状態を前記被験者の感情であると推定する感情推定手段とを有することを特徴とする感情推定装置。
  2. 前記文脈推定手段は、
    前記分析手段により得られる分析結果及び前記提示情報の詳細情報と、予め学習された第2のニューラルネットワークとに基づいて、前記被験者の感情状態の候補を推定することを特徴とする請求項に記載の感情推定装置。
  3. 前記状況推定手段は、
    前記提示情報を視聴する被験者の映像、音声、及び前記被験者の生体情報から特徴量を生成し、生成された特徴量と、予め学習された第3のニューラルネットワークとに基づいて、前記感情状態に対する尤度を出力することを特徴とする請求項1又は2に記載の感情推定装置。
  4. 被験者に情報を提示することにより前記被験者が得る感情を推定するための感情推定プログラムにおいて、
    コンピュータを、
    前記被験者に提示情報を提示する情報提示手段、
    前記情報提示手段により提示された提示情報に含まれる映像及び音声から特徴量を生成し、生成された特徴量と予め学習された第1のニューラルネットワークとに基づいて、前記提示情報の状況を分析する分析手段
    前記分析手段により得られる分析結果と前記提示情報の詳細情報とから得られる文脈から前記被験者の感情状態の候補を推定する文脈推定手段
    前記情報提示手段により提示された提示情報を視聴する被験者の映像、音声、及び前記被験者の生体情報に基づいて前記被験者の感情状態の尤度を推定する状況推定手段、及び、
    前記文脈推定手段により得られる前記被験者の感情状態の候補と、予め設定される感情状態に対する調整値とに基づいて、前記状況推定手段により得られる前記被験者の感情状態の尤度を調整し、調整された尤度が最大となる感情状態を前記被験者の感情であると推定する感情推定手段として機能させるための感情推定プログラム。
JP2004171288A 2004-06-09 2004-06-09 感情推定装置及び感情推定プログラム Expired - Fee Related JP4546767B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004171288A JP4546767B2 (ja) 2004-06-09 2004-06-09 感情推定装置及び感情推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004171288A JP4546767B2 (ja) 2004-06-09 2004-06-09 感情推定装置及び感情推定プログラム

Publications (2)

Publication Number Publication Date
JP2005348872A JP2005348872A (ja) 2005-12-22
JP4546767B2 true JP4546767B2 (ja) 2010-09-15

Family

ID=35583820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004171288A Expired - Fee Related JP4546767B2 (ja) 2004-06-09 2004-06-09 感情推定装置及び感情推定プログラム

Country Status (1)

Country Link
JP (1) JP4546767B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107710235A (zh) * 2015-06-17 2018-02-16 情感爱思比株式会社 控制系统、系统以及程序
CN107924482A (zh) * 2015-06-17 2018-04-17 情感爱思比株式会社 情感控制系统、系统及程序
KR20190054501A (ko) * 2017-11-13 2019-05-22 주식회사 하가 피검자의 감정을 분석하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041988A (ja) 2005-08-05 2007-02-15 Sony Corp 情報処理装置および方法、並びにプログラム
US8204747B2 (en) 2006-06-23 2012-06-19 Panasonic Corporation Emotion recognition apparatus
JP4941966B2 (ja) * 2006-09-22 2012-05-30 国立大学法人 東京大学 感情の判別方法、感情判別装置、雰囲気情報通信端末
JP4757787B2 (ja) * 2006-12-08 2011-08-24 株式会社トヨタIt開発センター 感情推定装置
JP4891802B2 (ja) * 2007-02-20 2012-03-07 日本電信電話株式会社 コンテンツ検索・推薦方法、コンテンツ検索・推薦装置およびコンテンツ検索・推薦プログラム
JP5244627B2 (ja) * 2009-01-21 2013-07-24 Kddi株式会社 感情推定方法および装置
JP4992925B2 (ja) * 2009-03-23 2012-08-08 トヨタ自動車株式会社 音声対話装置及びプログラム
JP5635859B2 (ja) * 2010-09-27 2014-12-03 Necパーソナルコンピュータ株式会社 編集装置、制御方法及びプログラム
KR101854812B1 (ko) * 2016-05-18 2018-05-04 신호철 시청각 콘텐츠와 생체신호 분석을 활용한 정신증상 평가 시스템
US10445565B2 (en) * 2016-12-06 2019-10-15 General Electric Company Crowd analytics via one shot learning
JP2020099367A (ja) * 2017-03-28 2020-07-02 株式会社Seltech 感情認識装置および感情認識プログラム
WO2018182337A1 (ko) * 2017-03-31 2018-10-04 삼성전자주식회사 사용자 감정 판단을 위한 전자 장치 및 이의 제어 방법
US11494388B2 (en) * 2017-04-10 2022-11-08 Softbank Corp. Information processing apparatus, information processing method, and program
WO2018189792A1 (ja) * 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018189791A1 (ja) 2017-04-10 2018-10-18 ソフトバンク株式会社 情報処理装置、情報処理方法、およびプログラム
JP7097012B2 (ja) * 2017-05-11 2022-07-07 学校法人 芝浦工業大学 感性推定装置、感性推定システム、感性推定方法およびプログラム
KR101984410B1 (ko) * 2017-12-19 2019-05-30 건국대학교 산학협력단 감정 상태에 기반한 조명 테라피 방법 및 장치
CN108186033B (zh) * 2018-01-08 2021-06-25 杭州不亦乐乎健康管理有限公司 一种基于人工智能的幼儿情绪监控方法及其系统
JP7075045B2 (ja) * 2018-03-30 2022-05-25 国立研究開発法人情報通信研究機構 推定システム、及び推定方法
KR102299455B1 (ko) * 2019-09-03 2021-09-06 한국항공대학교산학협력단 신경망 기반 감정 분석 방법 및 장치, 및 그에 기반한 감정 치료 장치
JP7106041B2 (ja) * 2020-05-20 2022-07-25 三菱電機株式会社 情報処理装置、感情推定方法、及び感情推定プログラム
JPWO2022180858A1 (ja) * 2021-02-26 2022-09-01
JPWO2022180861A1 (ja) * 2021-02-26 2022-09-01
JP2023183280A (ja) * 2022-06-15 2023-12-27 京セラ株式会社 電子機器、電子機器の制御方法及び制御プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034936A (ja) * 2000-07-24 2002-02-05 Sharp Corp 通信装置および通信方法
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2004112518A (ja) * 2002-09-19 2004-04-08 Takenaka Komuten Co Ltd 情報提供装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05252509A (ja) * 1992-03-02 1993-09-28 Toshiba Corp マルチメディア装置及び電子会議システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002034936A (ja) * 2000-07-24 2002-02-05 Sharp Corp 通信装置および通信方法
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2004112518A (ja) * 2002-09-19 2004-04-08 Takenaka Komuten Co Ltd 情報提供装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107710235A (zh) * 2015-06-17 2018-02-16 情感爱思比株式会社 控制系统、系统以及程序
CN107924482A (zh) * 2015-06-17 2018-04-17 情感爱思比株式会社 情感控制系统、系统及程序
KR20190054501A (ko) * 2017-11-13 2019-05-22 주식회사 하가 피검자의 감정을 분석하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
KR102106517B1 (ko) * 2017-11-13 2020-05-06 주식회사 하가 피검자의 감정을 분석하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체

Also Published As

Publication number Publication date
JP2005348872A (ja) 2005-12-22

Similar Documents

Publication Publication Date Title
JP4546767B2 (ja) 感情推定装置及び感情推定プログラム
Mouawad et al. Robust detection of COVID-19 in cough sounds: using recurrence dynamics and variable Markov model
US11538472B2 (en) Processing speech signals in voice-based profiling
Gogate et al. Deep learning driven multimodal fusion for automated deception detection
Busso et al. Iterative feature normalization scheme for automatic emotion detection from speech
Ringeval et al. Emotion recognition in the wild: Incorporating voice and lip activity in multimodal decision-level fusion
Emerich et al. Emotions recognition by speechand facial expressions analysis
Haider et al. A System for Real-Time Privacy Preserving Data Collection for Ambient Assisted Living.
Tong et al. Automatic assessment of dysarthric severity level using audio-video cross-modal approach in deep learning
Selvakumari et al. A voice activity detector using SVM and Naïve Bayes classification algorithm
JP4775961B2 (ja) 映像を用いた発音の推定方法
Poorjam et al. Quality control of voice recordings in remote Parkinson’s disease monitoring using the infinite hidden Markov model
Chaudhari et al. Emotion Recognition System via Facial Expressions and Speech Using Machine Learning and Deep Learning Techniques
CN114492579A (zh) 情绪识别方法、摄像装置、情绪识别装置及存储装置
van Bemmel et al. Automatic Selection of the Most Characterizing Features for Detecting COPD in Speech
WO2021119742A1 (en) Diagnosing respiratory maladies from subject sounds
Yasmin et al. Discrimination of male and female voice using occurrence pattern of spectral flux
Emerich et al. Bimodal approach in emotion recognition using speech and facial expressions
Elbarougy et al. An improved speech emotion classification approach based on optimal voiced unit
Maningo et al. A Smart Space with Music Selection Feature Based on Face and Speech Emotion and Expression Recognition
US20240194200A1 (en) System and method for change point detection in multi-media multi-person interactions
JP2015022357A (ja) 情報処理システム、情報処理方法および情報処理装置
CN115662447B (zh) 一种基于多特征融合的测谎分析方法及装置
JP7361163B2 (ja) 情報処理装置、情報処理方法およびプログラム
bin Sham et al. Voice Pathology Detection System Using Machine Learning Based on Internet of Things

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140709

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees