JP5083033B2 - 感情推定装置及びプログラム - Google Patents

感情推定装置及びプログラム Download PDF

Info

Publication number
JP5083033B2
JP5083033B2 JP2008135290A JP2008135290A JP5083033B2 JP 5083033 B2 JP5083033 B2 JP 5083033B2 JP 2008135290 A JP2008135290 A JP 2008135290A JP 2008135290 A JP2008135290 A JP 2008135290A JP 5083033 B2 JP5083033 B2 JP 5083033B2
Authority
JP
Japan
Prior art keywords
emotion
polarity
model
representing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008135290A
Other languages
English (en)
Other versions
JP2009282824A (ja
Inventor
良子 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2008135290A priority Critical patent/JP5083033B2/ja
Publication of JP2009282824A publication Critical patent/JP2009282824A/ja
Application granted granted Critical
Publication of JP5083033B2 publication Critical patent/JP5083033B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、感情推定装置及びプログラムに係り、特に、ユーザを撮像した画像データ、ユーザの発話による音声データ、及びユーザにより入力されたテキストデータの少なくとも1つを用いてユーザの感情を推定するための感情推定装置及びプログラムに関する。
従来、ユーザからの入力情報に基づいてユーザの感情を推定することが行われている。
特許文献1の対話処理装置は、ユーザから入力された音声信号から抽出した韻律情報、音声信号を音声認識した結果に含まれる語句の概念情報、ユーザの顔を撮像して得られた顔画像情報、及びユーザの脈拍等の生理情報を用いてユーザの感情を推定するものである。このうち、顔画像情報を用いた感情の推定は、予め喜んでいる状態、怒っている状態、及び悲しんでいる状態等の各感情における顔の画像を用いて学習を行うことにより得られたモデルと、顔画像情報の特徴量とをマッチングすることにより行うことが提案されている。
また、特許文献2の感情推定装置では、ユーザを撮像して得られた画像データやユーザから発せられる音声に基づく音声データから抽出した特徴量を、興味度を示す学習モデルと比較することにより、ユーザの感情を推定することが提案されている。
特開2001−215993号公報 特開2007−34664号公報
しかしながら、上記特許文献1の対話処理装置及び特許文献2の感情推定装置では、学習モデルを生成する際の学習データの量が考慮されていないため、学習データの個数に偏りがある場合には正確な学習が行われていない場合がある、という問題がある。また、ポジティブまたはネガティブを表す感情極性の判定を行っていないため、例えば、ユーザの感情は「楽しい」というポジティブな感情であるのに対して、「腹立たしい」というネガティブな感情であると推定するような致命的な誤判断が生じる可能性がある、という問題がある。
本発明は、上述した問題を解決するためになされたものであり、1つの感情に対応する感情モデルに該当する学習データの個数を考慮して感情モデルを生成することにより、効率よくかつ精度よく感情を推定することができる感情推定装置及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る感情推定装置は、ユーザを撮像して得られた画像データ、前記ユーザの発話により入力された音声データ、及び前記ユーザにより前記発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する抽出手段と、複数のサンプルデータの各々から抽出された特徴と複数種類の感情のいずれかとを対応付けた複数の学習データを用いて、各々が異なる1つの感情に対応すると共に、該学習データの感情の各々が前記1つの感情に該当する場合を正例として学習した前記複数種類の感情毎の複数の感情モデルを生成する感情モデル生成手段と、前記抽出手段で抽出された前記入力データの特徴が、前記複数の感情モデルの各々に対応する1つの感情のいずれに対応するかを、前記1つの感情に該当する正例の学習データの個数が多い感情モデルから順に判断することにより、前記ユーザの感情を推定する推定手段と、を含んで構成されている。
また、第1の発明に係る感情推定プログラムは、コンピュータを、ユーザを撮像して得られた画像データ、前記ユーザの発話により入力された音声データ、及び前記ユーザにより前記発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する抽出手段と、複数のサンプルデータの各々から抽出された特徴と複数種類の感情のいずれかとを対応付けた複数の学習データを用いて、各々が異なる1つの感情に対応すると共に、該学習データの感情の各々が前記1つの感情に該当する場合を正例として学習した前記複数種類の感情毎の複数の感情モデルを生成する感情モデル生成手段と、前記抽出手段で抽出された前記入力データの特徴が、前記複数の感情モデルの各々に対応する1つの感情のいずれに対応するかを、前記1つの感情に該当する正例の学習データの個数が多い感情モデルから順に判断することにより、前記ユーザの感情を推定する推定手段として機能させるためのプログラムである。
第1の発明に係る感情推定装置及びプログラムによれば、抽出手段が、ユーザを撮像して得られた画像データ、ユーザの発話により入力された音声データ、及びユーザにより発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する。また、感情モデル生成手段が、複数のサンプルデータの各々から抽出された特徴と複数種類の感情のいずれかとを対応付けた複数の学習データを用いて、各々が異なる1つの感情に対応すると共に、学習データの感情の各々が1つの感情に該当する場合を正例として学習した複数種類の感情毎の複数の感情モデルを生成する。そして、推定手段が、抽出手段で抽出された入力データの特徴が、複数の感情モデルの各々に対応する1つの感情のいずれかに対応するかを、1つの感情に該当する正例の学習データの個数が多い感情モデルから順に判断することにより、ユーザの感情を推定する。
このように、入力データの特徴が各感情モデルに該当するか否かを、該当する学習データの個数が多い感情モデルから順に判断するため、出現率の高い感情から判断されることになり、効率よくかつ精度よく感情を推定することができる。
また、第1の発明に係る感情推定装置及びプログラムの前記感情モデル生成手段は、前記複数の感情モデルの各々を生成する際に、前記該当する学習データの個数が多い順に生成すると共に、生成が終了した感情モデルに対応する感情に該当する学習データを、他の感情モデルを生成する際の学習データに含めないようにして前記他の感情モデルを生成することができる。
このように、該当する学習データの個数が多い順に感情モデルが生成され、生成された感情モデルに該当する学習データは他の感情モデル生成の際に学習データに含まれないようにすることで、感情モデルの各々に含まれる該当する学習データの個数と該当しない学習データの個数との偏りを軽減することができるため、精度のよい感情モデルが生成され、感情推定の精度をさらに向上させることができる。
また、第2の発明に係る感情推定装置は、ユーザを撮像して得られた画像データ、前記ユーザの発話により入力された音声データ、及び前記ユーザにより前記発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する抽出手段と、前記抽出手段により抽出された前記入力データの特徴が、第1の極性を表す感情及び該第1の極性に対して反対の感情の第2の極性を表す感情のいずれを示すかを判別する極性判別手段と、各々が異なる1つの第1の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第1の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が前記1つの第1の極性を表す感情に該当するか否かを表した複数の第1感情モデルと、各々が異なる1つの第2の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第2の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が前記1つの第2の極性を表す感情に該当するか否かを表した複数の第2感情モデルとを生成する感情モデル生成手段と、前記極性判別手段で前記入力データの特徴が前記第1の極性を表す感情であると判別された場合には、前記抽出手段で抽出された前記入力データの特徴が、前記複数の第1感情モデルの各々に対応する1つの第1の極性を表す感情のいずれかに対応するかを、前記1つの第1の極性を表す感情に該当する学習データの個数が多い第1感情モデルから順に判断し、前記極性判別手段で前記入力データの特徴が前記第2の極性を表す感情であると判別された場合には、前記抽出手段で抽出された前記入力データの特徴が、前記複数の第2感情モデルの各々に対応する1つの第2の極性を表す感情のいずれかに対応するかを、前記1つの第2の極性を表す感情に該当する学習データの個数が多い第2感情モデルから順に判断することにより、前記ユーザの感情を推定する推定手段と、を含んで構成されている。
また、第2の発明に係る感情推定プログラムは、コンピュータを、ユーザを撮像して得られた画像データ、前記ユーザの発話により入力された音声データ、及び前記ユーザにより前記発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する抽出手段と、前記抽出手段により抽出された前記入力データの特徴が、第1の極性を表す感情及び該第1の極性に対して反対の感情の第2の極性を表す感情のいずれを示すかを判別する極性判別手段と、各々が異なる1つの第1の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第1の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が前記1つの第1の極性を表す感情に該当するか否かを表した複数の第1感情モデルと、各々が異なる1つの第2の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第2の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が前記1つの第2の極性を表す感情に該当するか否かを表した複数の第2感情モデルとを生成する感情モデル生成手段と、前記極性判別手段で前記入力データの特徴が前記第1の極性を表す感情であると判別された場合には、前記抽出手段で抽出された前記入力データの特徴が、前記複数の第1感情モデルの各々に対応する1つの第1の極性を表す感情のいずれかに対応するかを、前記1つの第1の極性を表す感情に該当する学習データの個数が多い第1感情モデルから順に判断し、前記極性判別手段で前記入力データの特徴が前記第2の極性を表す感情であると判別された場合には、前記抽出手段で抽出された前記入力データの特徴が、前記複数の第2感情モデルの各々に対応する1つの第2の極性を表す感情のいずれかに対応するかを、前記1つの第2の極性を表す感情に該当する学習データの個数が多い第2感情モデルから順に判断することにより、前記ユーザの感情を推定する推定手段として機能させるためのプログラムである。
第2の発明に係る感情推定装置及びプログラムによれば、極性判別手段が、抽出手段により抽出された入力データの特徴が、第1の極性を表す感情及び該第1の極性に対して反対の感情の第2の極性を表す感情のいずれを示すかを判別する。また、感情も出る生成手段が、各々が異なる1つの第1の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第1の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が1つの第1の極性を表す感情に該当するか否かを表した複数の第1感情モデルと、各々が異なる1つの第2の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第2の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が1つの第2の極性を表す感情に該当するか否かを表した複数の第2感情モデルとを生成する。
そして、極性判別手段で入力データの特徴が第1の極性を表す感情であると判別された場合には、抽出手段で抽出された入力データの特徴が、複数の第1感情モデルの各々に対応する1つの第1の極性を表す感情のいずれかに対応するかを、1つの第1の極性を表す感情に該当する学習データの個数が多い第1感情モデルから順に判断し、極性判別手段で入力データの特徴が第2の極性を表す感情であると判別された場合には、抽出手段で抽出された入力データの特徴が、複数の第2感情モデルの各々に対応する1つの第2の極性を表す感情のいずれかに対応するかを、1つの第2の極性を表す感情に該当する学習データの個数が多い第2感情モデルから順に判断することにより、ユーザの感情を推定する。
このように、第1の極性を表す感情について複数の第1感情モデルを生成し、第1の極性と反対の感情の第2の極性を表す感情について複数の第2感情モデルを生成し、まず入力データの特徴の極性を判別した上で、該当する極性を表す感情についての感情モデルに該当するか否かを判断するため、第1の極性を表す感情を第2の極性を表す感情であると推定したり、第2の極性を表す感情を第1の極性を表す感情であると推定したりという致命的な誤判断を防止することができる。
また、第2の発明に係る感情推定装置及びプログラムは、前記複数の学習データの各々に対して、該学習データの感情の各々が前記第1の極性を表す感情に該当するか前記第2の極性を表す感情に該当するかを表した感情極性モデルを生成する感情極性モデル生成手段をさらに含み、前記極性判別手段は、前記感情極性モデルに基づいて、前記入力データの特徴が、前記第1の極性を表す感情及び前記第2の極性を表す感情のいずれを示すかを判別するようにすることができる。
また、第2の発明に係る感情推定装置及びプログラムの前記感情モデル生成手段は、前記複数の第1感情モデルの各々を生成する際に、前記該当する学習データの個数が多い順に生成すると共に、生成が終了した第1感情モデルに対応する第1の極性を表す感情に該当する学習データを、他の第1感情モデルを生成する際の学習データに含めないようにして前記他の第1感情モデルを生成し、前記複数の第2感情モデルの各々を生成する際に、前記該当する学習データの個数が多い順に生成すると共に、生成が終了した第2感情モデルに対応する第2の極性を表す感情に該当する学習データを、他の第2感情モデルを生成する際の学習データに含めないようにして前記他の第2感情モデルを生成するようにすることができる。
このように、極性毎に該当する学習データの個数が多い順に感情モデルが生成され、生成された感情モデルに該当する学習データは他の感情モデル生成の際に含まれないようにすることで、感情モデルの各々に含まれる該当する学習データの個数と該当しない学習データの個数との偏りを軽減することができるため、精度のよい感情モデルが生成され、感情推定の精度をさらに向上させることができる。
以上説明したように、本発明の感情推定装置及びプログラムによれば、1つの感情に対応する感情モデルに該当する学習データの個数を考慮して学習モデルを生成することにより、効率よくかつ精度よく感情を推定することができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態について詳細に説明する。なお、以下では、本発明の感情推定装置を、ユーザからの入力に対応した応答を生成してユーザと対話を行う感情推定対話装置に適用した場合について説明する。
図1に示すように、第1の実施の形態に係る感情推定対話装置10は、ユーザの音声を入力するためのマイク12、ユーザの顔を撮像するための撮像装置14、応答を音声で出力するためのスピーカ16、及び感情推定及び応答生成の制御を実行するコンピュータ18を備えている。
コンピュータ18は、感情推定対話装置10全体の制御を司るCPU24、後述する感情推定モデル生成処理及び対話処理のプログラム等各種プログラムを記憶した記憶媒体としてのROM26、ワークエリアとしてデータを一時的に格納するRAM28、各種情報が記憶された記憶手段としてのHDD(ハードディスク)30、ネットワークと接続するためのネットワークI/F(インタフェース)部32、I/O(入出力)ポート34、及びこれらを接続するバスを含んで構成されている。I/Oポート34には、マイク12、撮像装置14及びスピーカ16が接続されている。
まず、後述する感情推定モデル生成処理に使用される学習元データベースについて説明する。学習元データベースは、例えば、図2に示されるようなものある。このような学習元データベース40を得るためには、まず、対話中の人物の顔画像を撮影して得られる画像データ及び発話に基づく音声データを取得する。音声データと画像データとは略同時に取得される。また、音声データ及び画像データが取得された際の人物の感情を人物に対してヒアリングするなどして得ておく。なお、感情は予め定めたn(nは自然数)種類の感情に限定するものとし、ここでは、例えば、「嫌」「嬉しい」「残念」「楽しい」「恐い」「不安」「寂しい」「腹立たしい」「悲しい」の9種類(n=9)とする。なお、感情の種類は、10以上であっても、8以下であってもよい。
画像データについては、エッジ処理などの画像処理を施して表情を認識するなどして画像特徴Iを抽出する。音声データについては、音声認識処理によりテキストデータに変換し、変換したテキストデータから、例えば、「ので」「ため」などの手がかり語を用いた方法で感情状態を示す感情語をテキスト特徴Tとして抽出する。同一の音声データについて、韻律を分析するなどして韻律特徴Rを抽出する。
この画像特徴I、テキスト特徴T、及び韻律特徴Rをまとめて1つの特徴42とし、これらの特徴が抽出された画像データ及び音声データが取得された際の人物の感情44と特徴42とを対応付けて1つの学習データ46とする。上述の音声データ及び画像データと、音声データ及び画像データが取得された際の感情とを大量に取得しておき、学習データ46を大量に生成することで学習元データベース40を構築する。
なお、学習元データベース40は、人物から取得される情報から抽出される特徴と感情とを対応付けた学習データから構成されていればよく、取得するデータの種類、抽出される特徴の種類、特徴の抽出方法、及び感情の種類などは上記の内容に限定されるものではない。また、学習元データベース40は、本実施の形態の感情推定対話装置10で構築してもよいし、他の外部装置により構築してもよい。感情推定対話装置10で構築した場合には、構築された学習元データベース40は、HDD30に記憶しておく。外部装置で構築した場合には、ネットワークを介して取得することができる。本実施の形態では、学習元データベース40は、外部装置にて構築されて外部装置に記憶されている場合について説明する。
次に、図3を参照して、第1の実施の形態における感情推定モデル生成の処理ルーチンについて説明する。
ステップ100で、ネットワークI/F32を介してネットワークに接続された外部装置から学習元データベース40を取得する。
次に、ステップ102で、感情44毎に学習データ46の個数をカウントして、次に、ステップ104で、最もカウント数が多かった感情をパラメータXに設定する。例えば、本実施の形態では「嫌」という感情44の学習データ46の個数が最も多かった場合を例としているので、X=「嫌」と設定する。次に、ステップ106の学習処理を実行する。
ここで、図4を参照して、学習処理の処理ルーチンについて説明する。
ステップ200で、学習元データベース40の学習データ46を1つずつ学習していく。ここでは、学習の手法としてSVM(Support Vector Machine)の手法を用いる。まず、1つ目の学習データ46の感情44がXか否かを判断する。Xの場合、すなわち学習データ46の感情44が感情Xに該当する場合には、ステップ202へ進んで正例として学習を行い、Xではない場合、すなわち学習データ46の感情44が感情Xに該当しない場合には、ステップ204へ進んで負例として学習を行う。図2の学習元データベース40の場合では、1つ目の学習データ46の感情44は「楽しい」であるので、ステップ200で否定されてステップ204で負例として学習される。
次に、ステップ206で、学習元データベース40のすべての学習データ46について学習を終了したか否かを判断する。未学習の学習データ46が残っている場合には、ステップ200へ戻って、次の学習データ46について学習を繰り返す。図2の学習元データベース40の場合では、2つ目の学習データ46の感情44は「嫌」であるので、ステップ200で肯定されてステップ202で正例として学習される。
学習元データベース40内のすべての学習データ46について学習が終了した場合には、ステップ206で肯定されてリターンする。この学習処理により、1つ目の感情X(=1)についての感情モデルM(1)が生成される。ここでは、感情モデルM(1)は、1つの感情「嫌」に対応する感情モデル(「嫌」モデル)である。
次に、感情推定モデル生成処理ルーチン(図3)のステップ108で、学習元データベース40から感情Xに該当する学習データ46、すなわち正例の学習データ46のすべてを削除する。なお、本実施の形態では、感情Xに対して正例の学習データ46を削除することとしたが、学習元データベース40からは削除せず、次の感情モデル生成の際に、既に生成された感情モデルに該当する感情の学習データ46か否かを判断するステップを設け、否定判断される学習データ46のみを感情モデルの生成に使用するようにしてもよい。
次に、ステップ110で、学習元データベース40に残っている学習データ46の感情44の種類が1種類か否かを判断する。2種類以上残っている場合には、ステップ106へ戻り、残っている学習データ46のうち、最も学習データの個数が多い感情をパラメータXに設定して以降の処理を繰り返し、感情毎の感情モデルM(i)(iは感情モデルが生成された順に付与される通し番号)を生成する。
ステップ110で、残りの感情が1種類であると判断された場合には、ステップ112へ進んで、生成した感情毎の感情モデルM(i)を、感情モデルM(1)、感情モデルM(2)、・・・、感情モデルM(n−1)のように配列した感情推定モデルを構築する。なお、感情の種類がn種類の場合には、最後の感情については感情モデルが生成されないため、配列の最後は感情モデルM(n−1)になっている。
例えば、学習データの個数が「嫌」「嬉しい」「残念」「楽しい」「恐い」「不安」「寂しい」「腹立たしい」「悲しい」の順で多かったとすると、M(1)=「嫌」モデル、M(2)=「嬉しい」モデル、・・・、M(8)=「腹立たしい」モデルとなり、図5に示すように、「嫌」モデル、「嬉しい」モデル、「残念」モデル、「楽しい」モデル、「恐い」モデル、「不安」モデル、「寂しい」モデル及び「腹立たしい」モデルの順で各感情モデル50が配列された感情推定モデルが構築される。感情推定モデルをHDD30に記憶して処理を終了する。
次に、図6を参照して、感情推定を含む対話処理の処理ルーチンについて説明する。
ステップ300で、ユーザによりマイク12から入力される音声データ及びユーザの顔を撮像装置14で撮像した画像データを取り込む。次に、ステップ302で、取り込んだ画像データから画像特徴Iを抽出する。次に、ステップ304で、音声データを音声認識してテキストデータに変換し、変換したテキストデータからテキスト特徴Tを抽出する。次に、ステップ306で同一の音声データから韻律特徴Rを抽出する。画像特徴I、テキスト特徴T及び韻律特徴Rの抽出方法は、学習元データベース40を構築する際に画像特徴I、テキスト特徴T及び韻律特徴Rを抽出した方法と同じ方法を用いる。
次に、ステップ308で、画像特徴I、テキスト特徴T及び韻律特徴Rをまとめて入力データの特徴を求める。次に、ステップ310で、後述する感情推定処理を実行し、次に、ステップ312で、応答生成出力処理を実行して、推定された感情に応じた応答を生成して出力する。応答生成出力処理については従来の技術を用いることができるため、説明を省略する。
ここで、図7を参照して、感情推定処理の処理ルーチンについて説明する。
ステップ400で、カウンタ値iに「1」をセットする。このカウンタ値iは、感情推定モデルに含まれる各感情モデルに付与された通し番号に対応するものである。カウンタ値i=1として、以下のステップで通し番号「1」の感情モデルから順に比較することにより、感情推定モデルを構築した際に使用した学習元データベース40の中の学習データの個数が多い感情に対応する感情モデルから順に判断が行われることになる。
次に、ステップ402で、対話処理(図6)のステップ308で求められた入力データの特徴が示す感情が感情推定モデルの最初の感情モデルM(1)に対応する感情に該当するか否かを、感情モデルを生成した際の手法に対応した手法を用いて判断する。該当する場合には、ステップ404へ進み、推定結果として感情モデルM(1)に対応する感情F(1)を出力する。
ステップ402で該当しないと判断された場合には、ステップ406へ進み、感情モデルM(1)が感情推定モデルの最後の感情モデルか否かを判断する。最後の感情モデルではない場合には、次の感情モデルとの比較を行うため、ステップ408へ進んでカウンタ値iをインクリメントしてステップ402へ戻る。
上記ステップを繰り返し、最後の感情モデルM(n−1)に対応する感情にも該当しなかった場合には、ステップ406で肯定されてステップ410へ進み、感情モデルの生成されていなかった感情、すなわち該当する学習データの個数が最も少なかった感情を推定結果F(n)として出力してリターンする。
上記処理を図5に示す感情推定モデルを例にして説明すると、まず、入力データの特徴が示す感情が「嫌」モデルに該当するか否かを判断し、該当する場合には、推定結果「嫌」を出力し、該当しない場合には、次の「嬉しい」モデルに該当するか否かを判断する。該当する場合には、推定結果「嬉しい」を出力する。該当しない場合には、順次次の感情モデル50との判断を行う。最後の「腹立たしい」モデルに該当するか否かを判断し、該当する場合には、推定結果「腹立たしい」を出力し、該当しない場合には、推定結果「悲しい」を出力して終了する。
このように、該当する学習データの個数が多い感情モデルから順に、入力データの特徴が該当するか否かを判断するため、出現率の高い感情から該当するか否かの判断を行うこととなり、効率よく感情推定を行うことができる。また、該当する学習データの個数が多い順に感情モデルが生成され、かつ生成を終了した感情モデルに該当する学習データを削除して次の感情モデルを生成して感情推定モデルを構築することにより、各感情モデルを生成する際の正例の学習データの個数と負例の学習データの個数との偏りが解消された精度の高い感情モデルにより感情推定モデルが構築されることとなり、感情推定の精度が向上する。
次に、第2の実施の形態に係る感情推定対話装置について説明する。第2の実施の形態では、感情極性を判別する点が第1の実施の形態とは異なる。なお、第1の実施の形態と同一の構成及び処理については、同一の符号を付して説明を省略する。
まず、図8を参照して、第2の実施の形態における感情推定モデル生成の処理ルーチンについて説明する。
ステップ100で、学習元データベース40を取得し、次に、ステップ500で、学習元データベース40に含まれる学習データ46を感情の示す極性に基づいて分類する。例えば、感情の種類として「嫌」「嬉しい」「残念」「楽しい」「恐い」「不安」「寂しい」「腹立たしい」「悲しい」及び「安心」が学習元データベース40に含まれている場合、「嬉しい」「楽しい」及び「安心」をポジティブ極性、「嫌」「残念」「恐い」「不安」「寂しい」「腹立たしい」及び「悲しい」をネガティブ極性とする。このポジティブ極性及びネガティブ極性の一方を第1の極性、他方を第2の極性とすることができ、第1の極性と第2の極性とは反対の感情を有することになる。この極性に基づいて学習元データベース40の学習データ46を分類し、ポジティブ極性の学習元データベース及びネガティブ極性の学習元データベースを構築する。
次に、ステップ502〜ステップ510で、ポジティブ極性の学習元データベースの学習データを使用して、第1の実施の形態の感情推定モデル生成処理(図3)のステップ102〜ステップ110と同様の処理により、ポジティブ極性の感情モデルを生成する。
次に、ステップ512〜ステップ520で、同様に、ネガティブ極性の学習元データベースの学習データを利用して、ネガティブ極性の感情モデルを生成する。
ステップ520で、肯定判定されたステップ522へ進んで、生成したポジティブ極性の感情毎の感情モデルMP(i)を、感情モデルMP(1)、感情モデルMP(2)、・・・、感情モデルMP(n−1)のように配列し、生成したネガティブ極性の感情毎の感情モデルMN(i)を、感情モデルMN(1)、感情モデルMN(2)、・・・、感情モデルMN(n−1)のように配列した感情推定モデルを構築する。
例えば、ポジティブ極性の学習データの個数が「嬉しい」「楽しい」「安心」の順で多かったとすると、MP(1)=「嬉しい」モデル、MP(2)=「楽しい」モデルとなり、ネガティブ極性の学習データの個数が「嫌」「残念」「恐い」「不安」「寂しい」「腹立たしい」「悲しい」の順で多かったとすると、MN(1)=「嫌」モデル、MP(2)=「残念」モデル、・・・、MN(6)=「腹立たしい」モデルとなり、図9に示すように、ポジティブ極性については、「嬉しい」モデル及び「楽しい」モデルの順で各感情モデル50が配列され、ネガティブ極性については、「嫌」モデル、「残念」モデル、「恐い」モデル、「不安」モデル、「寂しい」モデル及び「腹立たしい」モデルの順で各感情モデル50が配列された感情推定モデルが構築される。感情推定モデルをHDD30に記憶して処理を終了する。
次に、図10を参照して、第2の実施の形態における感情推定を含む対話処理の処理ルーチンについて説明する。
ステップ300〜ステップ306で、画像データから画像特徴Iと、音声データからテキスト特徴T、及び韻律特徴Rとを抽出し、これらの特徴をまとめて入力データの特徴を求める。次に、ステップ600で、入力データの特徴が示す感情がポジティブか否かを判断する。この判断は、例えば、入力データの特徴の1つであるテキスト特徴Tの持つ概念から判断するなど、周知の技術を用いることができる。
ステップ600で肯定判定された場合には、ステップ602へ進んで、入力データの特徴が示す感情が感情推定モデルのポジティブ極性として配列された感情モデルに該当するか否かを感情モデルが配列された順に判断することによりユーザの感情を推定する。例えば、入力データの特徴が示す極性がポジティブであった場合には、図9に示す感情推定モデルにおいて、「嬉しい」モデル及び「楽しい」モデルの順に該当するか否かを判断していく。
また、ステップ600で否定判定された場合には、ステップ604へ進んで、入力データの特徴が示す感情が感情推定モデルのネガティブ極性として配列された感情モデルに該当するか否かを感情モデルが配列された順に判断することにより感情を推定する。例えば、入力データの特徴が示す極性がポジティブではなかった場合(ネガティブの場合)には、図9に示す感情推定モデルにおいて、「嫌」モデル、「残念」モデル、「恐い」モデル、「不安」モデル、「寂しい」モデル及び「腹立たしい」モデルの順に該当するか否かを判断していく。感情推定処理の詳細については、第1の実施の形態と同様である。
次に、ステップ312で、応答生成出力処理を実行して、推定された感情に応じた応答を生成して出力する。
このように、入力データの特徴が示す感情がポジティブかネガティブかという反対の極性のいずれであるかを判別し、ポジティブの場合には、ポジティブ極性の感情モデルに該当するか否か、ネガティブの場合には、ネガティブ極性の感情モデルに該当するか否かを、該当する学習データの個数が多い順に判断するため、第1の実施の形態の効果に加え、ポジティブの感情をネガティブの感情であると推定したり、ネガティブの感情をポジティブの感情であると推定したりという致命的な誤判断を防止することができる。
なお、上記対話処理の処理ルーチンのステップ600では、テキストの持つ概念から感情の極性を判断する等の周知技術を用いる場合について説明したが、感情モデル50を生成した手法と同じ手法により、感情極性モデルを生成して、入力データの特徴がポジティブ極性及びネガティブ極性のいずれに該当するかを判別するようにしてもよい。感情極性モデルは、学習元データベース40の学習データ46の各々を、学習データ46の感情44がポジティブ極性の場合には正例として、ネガティブ極性の場合には負例として学習することにより生成することができる。また、極性は、ポジティブ極性及びネガティブ極性の2値であるため、ネガティブ極性の場合には正例として、ポジティブ極性の場合には負例として学習することによっても、同様に感情極性モデルを生成することができる。
次に、第3の実施の形態に係る感情推定対話装置について説明する。第3の実施の形態では、スコアを用いて各感情モデルに該当するか否かを判断する点が第1の実施の形態及び第2の実施形態と異なる。なお、第1の実施の形態及び第2の実施の形態と同一の構成及び処理については、同一の符号を付して説明を省略する。
図11を参照して、第3の実施の形態における感情推定モデル生成の処理ルーチンについて説明する。
ステップ100で、学習元データベース40を取得し、次に、ステップ700で、後述する生成済み感情モデルに該当する学習データ46に設定されるフラグを確認し、フラグが立っていない学習データ46の個数を感情44毎にカウントして、次に、ステップ104で、最もカウント数の多かった学習データの感情をパラメータXに設定し、次に、ステップ106の学習処理を実行する。
次に、ステップ702で、学習元データベース40の感情Xに該当する学習データ46、すなわち正例の学習データ46に対応する感情モデルが生成されたことを示すフラグを立てる。次に、ステップ704で、フラグが立っていない学習データ46の感情44の種類が1種類か否かを判断する。2種類以上残っている場合には、ステップ700へ戻り、フラグが立っていない学習データ46について学習処理を繰り返し、感情毎の感情モデルM(i)(iは感情モデルが生成された順に付与される通し番号)を生成する。
ステップ704で、フラグが立っていない学習データ46の感情44が1種類であると判断された場合には、ステップ706へ進んで、最後の1種類の感情をパラメータXに設定する。次に、ステップ708で、フラグが立っている学習データ46の中からランダムに所定数の学習データ46を選択してフラグをはずす。ここで所定数は、最後の感情Xに対応する感情モデルを生成する際の負例とするのに適当な個数とし、例えば、最後の感情Xに該当する学習データ46の個数と同数とする。
次に、ステップ710で学習処理を実行し、次に、ステップ112で、生成した感情毎の感情モデルM(i)を、感情モデルM(1)、感情モデルM(2)、・・・、感情モデルM(n)のように配列した感情推定モデルを構築する。なお、第3の実施の形態では、感情の種類がn種類の場合に、最後の1種類の感情についても感情モデルが生成されるため、配列の最後は感情モデルM(n)となる。
例えば、学習データの個数が「嫌」「嬉しい」「残念」「楽しい」「恐い」「不安」「寂しい」「腹立たしい」「悲しい」の順で多かったとすると、M(1)=「嫌」モデル、M(2)=「嬉しい」モデル、・・・、M(9)=「悲しい」モデルとなり、図12に示すように、「嫌」モデル、「嬉しい」モデル、「残念」モデル、「楽しい」モデル、「恐い」モデル、「不安」モデル、「寂しい」モデル、「腹立たしい」モデル及び「悲しい」モデルの順で各感情モデル50が配列された感情推定モデルが構築される。感情推定モデルをHDD30に記憶して処理を終了する。
次に、図13を参照して、第3の実施の形態における対話処理(図6)ステップ308の感情推定の処理ルーチンについて説明する。対話処理の他のステップについては、第1の実施の形態と同様の処理であるので説明を省略する。
ステップ400で、カウンタ値iに「1」をセットし、次に、ステップ800で、入力データの特徴が示す感情の感情モデルM(i)に対する当てはまりの度合いを示すスコアを算出する。スコアの算出には、感情モデルを生成した際の手法に対応した手法を用いる。例えば、SVMの手法では、正例の学習データと負例の学習データとの分離超平面上をスコア0とし、入力データの特徴が分離超平面から離れるほどスコアの絶対値を大きくし、正例側に離れるのであればプラス、負例側に離れるのであればマイナスとなるようにスコアを算出することができる。
次に、ステップ802で、算出したスコアが所定値以上か否かを判断する。ここで、所定値は、各感情モデルに該当するか否かを高い精度で判断するために、0より大きな値とすることができる。スコアが所定値以上の場合には、ステップ404へ進み、推定結果として感情モデルM(1)に該当する感情F(1)を出力する。
ステップ802で、スコアが所定値より小さいと判断された場合には、ステップ406へ進み、感情モデルM(1)が感情推定モデルの最後の感情モデルか否かを判断する。最後の感情モデルではない場合には、次の感情モデルとの比較を行うため、ステップ408へ進んでカウンタ値iをインクリメントしてステップ800へ戻る。
上記ステップを繰り返し、最後の感情モデルM(n)に対してもスコアが所定値以上とならなかった場合には、ステップ406で肯定されてステップ804へ進み、所定種類のいずれの感情にも該当しなかったため、推定結果「不明」を出力してリターンする。
推定結果「不明」の場合には、応答生成出力処理で、例えば相槌を打つなどの曖昧な応答を生成して出力するようにするとよい。
なお、第3の実施の形態の処理を第2の実施の形態の処理に適用することもできる。
また、上記実施の形態では、ユーザの顔を撮像して得られる画像データから抽出される画像特徴、ユーザの発話により入力される音声データから抽出されるテキスト特徴及び韻律特徴をまとめて入力データの特徴とする場合について説明したが、入力データの特徴は、画像特徴、テキスト特徴及び韻律特徴のいずれか1つでもよし、これらの中から選択した2つを組み合わせたものでもよい。また、脈拍や発汗などの人体の生理情報等その他の情報を取得し、この情報から抽出される特徴を用いてもよい。
また、上記実施の形態では、テキスト特徴を取得した音声データを音声認識してテキストデータに変換してから抽出する場合について説明した、キーボードなどの入力手段から入力されるテキストデータを取得してテキスト特徴を抽出するようにしてもよい。
また、上記実施の形態では、学習方法としてSVMの手法を用いる場合について説明したが、これに限定されるものではない。
第1の実施の形態に係る感情推定対話装置の構成を示すブロック図である。 学習元データベースの一例を示す図である。 第1の実施の形態における感情推定モデル生成処理の処理ルーチンを示すフローチャートである。 第1の実施の形態における学習処理の処理ルーチンを示すフローチャートである。 第1の実施の形態における感情推定モデルの一例を示す図である。 第1の実施の形態における対話処理の処理ルーチンを示すフローチャートである。 第1の実施の形態における感情推定処理の処理ルーチンを示すフローチャートである。 第2の実施の形態における感情推定モデル生成処理の処理ルーチンを示すフローチャートである。 第2の実施の形態における感情推定モデルの一例を示す図である。 第2の実施の形態における対話処理の処理ルーチンを示すフローチャートである。 第3の実施の形態における感情推定モデル生成処理の処理ルーチンを示すフローチャートである。 第3の実施の形態における感情推定モデルの一例を示す図である。 第3の実施の形態における感情推定処理の処理ルーチンを示すフローチャートである。
符号の説明
10 感情推定対話装置
12 マイク
14 撮像装置
16 スピーカ
18 コンピュータ
50 感情モデル

Claims (7)

  1. ユーザを撮像して得られた画像データ、前記ユーザの発話により入力された音声データ、及び前記ユーザにより前記発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する抽出手段と、
    複数のサンプルデータの各々から抽出された特徴と複数種類の感情のいずれかとを対応付けた複数の学習データを用いて、各々が異なる1つの感情に対応すると共に、該学習データの感情の各々が前記1つの感情に該当する場合を正例として学習した前記複数種類の感情毎の複数の感情モデルを生成する感情モデル生成手段と、
    前記抽出手段で抽出された前記入力データの特徴が、前記複数の感情モデルの各々に対応する1つの感情のいずれに対応するかを、前記1つの感情に該当する正例の学習データの個数が多い感情モデルから順に判断することにより、前記ユーザの感情を推定する推定手段と、
    を含む感情推定装置。
  2. 前記感情モデル生成手段は、前記複数の感情モデルの各々を生成する際に、前記該当する学習データの個数が多い順に生成すると共に、生成が終了した感情モデルに対応する感情に該当する学習データを、他の感情モデルを生成する際の学習データに含めないようにして前記他の感情モデルを生成する請求項1記載の感情推定装置。
  3. ユーザを撮像して得られた画像データ、前記ユーザの発話により入力された音声データ、及び前記ユーザにより前記発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する抽出手段と、
    前記抽出手段により抽出された前記入力データの特徴が、第1の極性を表す感情及び該第1の極性に対して反対の感情の第2の極性を表す感情のいずれを示すかを判別する極性判別手段と、
    各々が異なる1つの第1の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第1の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が前記1つの第1の極性を表す感情に該当するか否かを表した複数の第1感情モデルと、各々が異なる1つの第2の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第2の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が前記1つの第2の極性を表す感情に該当するか否かを表した複数の第2感情モデルとを生成する感情モデル生成手段と、
    前記極性判別手段で前記入力データの特徴が前記第1の極性を表す感情であると判別された場合には、前記抽出手段で抽出された前記入力データの特徴が、前記複数の第1感情モデルの各々に対応する1つの第1の極性を表す感情のいずれかに対応するかを、前記1つの第1の極性を表す感情に該当する学習データの個数が多い第1感情モデルから順に判断し、前記極性判別手段で前記入力データの特徴が前記第2の極性を表す感情であると判別された場合には、前記抽出手段で抽出された前記入力データの特徴が、前記複数の第2感情モデルの各々に対応する1つの第2の極性を表す感情のいずれかに対応するかを、前記1つの第2の極性を表す感情に該当する学習データの個数が多い第2感情モデルから順に判断することにより、前記ユーザの感情を推定する推定手段と、
    を含む感情推定装置。
  4. 前記複数の学習データの各々に対して、該学習データの感情の各々が前記第1の極性を表す感情に該当するか前記第2の極性を表す感情に該当するかを表した感情極性モデルを生成する感情極性モデル生成手段をさらに含み、前記極性判別手段は、前記感情極性モデルに基づいて、前記入力データの特徴が、前記第1の極性を表す感情及び前記第2の極性を表す感情のいずれを示すかを判別する請求項3記載の感情推定装置。
  5. 前記感情モデル生成手段は、前記複数の第1感情モデルの各々を生成する際に、前記該当する学習データの個数が多い順に生成すると共に、生成が終了した第1感情モデルに対応する第1の極性を表す感情に該当する学習データを、他の第1感情モデルを生成する際の学習データに含めないようにして前記他の第1感情モデルを生成し、前記複数の第2感情モデルの各々を生成する際に、前記該当する学習データの個数が多い順に生成すると共に、生成が終了した第2感情モデルに対応する第2の極性を表す感情に該当する学習データを、他の第2感情モデルを生成する際の学習データに含めないようにして前記他の第2感情モデルを生成する請求項3または請求項4記載の感情推定装置。
  6. コンピュータを、
    ユーザを撮像して得られた画像データ、前記ユーザの発話により入力された音声データ、及び前記ユーザにより前記発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する抽出手段と、
    複数のサンプルデータの各々から抽出された特徴と複数種類の感情のいずれかとを対応付けた複数の学習データを用いて、各々が異なる1つの感情に対応すると共に、該学習データの感情の各々が前記1つの感情に該当する場合を正例として学習した前記複数種類の感情毎の複数の感情モデルを生成する感情モデル生成手段と、
    前記抽出手段で抽出された前記入力データの特徴が、前記複数の感情モデルの各々に対応する1つの感情のいずれに対応するかを、前記1つの感情に該当する正例の学習データの個数が多い感情モデルから順に判断することにより、前記ユーザの感情を推定する推定手段と、
    して機能させるための感情推定プログラム。
  7. コンピュータを、
    ユーザを撮像して得られた画像データ、前記ユーザの発話により入力された音声データ、及び前記ユーザにより前記発話以外で入力されたテキストデータの少なくとも1つの入力データの特徴を抽出する抽出手段と、
    前記抽出手段により抽出された前記入力データの特徴が、第1の極性を表す感情及び該第1の極性に対して反対の感情の第2の極性を表す感情のいずれを示すかを判別する極性判別手段と、
    各々が異なる1つの第1の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第1の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が前記1つの第1の極性を表す感情に該当するか否かを表した複数の第1感情モデルと、各々が異なる1つの第2の極性を表す感情に対応すると共に、各々が複数のサンプルデータから特徴と第2の極性を表す感情とを対応させて予め抽出した複数の学習データの各々に対して、該学習データの感情の各々が前記1つの第2の極性を表す感情に該当するか否かを表した複数の第2感情モデルとを生成する感情モデル生成手段と、
    前記極性判別手段で前記入力データの特徴が前記第1の極性を表す感情であると判別された場合には、前記抽出手段で抽出された前記入力データの特徴が、前記複数の第1感情モデルの各々に対応する1つの第1の極性を表す感情のいずれかに対応するかを、前記1つの第1の極性を表す感情に該当する学習データの個数が多い第1感情モデルから順に判断し、前記極性判別手段で前記入力データの特徴が前記第2の極性を表す感情であると判別された場合には、前記抽出手段で抽出された前記入力データの特徴が、前記複数の第2感情モデルの各々に対応する1つの第2の極性を表す感情のいずれかに対応するかを、前記1つの第2の極性を表す感情に該当する学習データの個数が多い第2感情モデルから順に判断することにより、前記ユーザの感情を推定する推定手段と、
    して機能させるための感情推定プログラム。
JP2008135290A 2008-05-23 2008-05-23 感情推定装置及びプログラム Expired - Fee Related JP5083033B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008135290A JP5083033B2 (ja) 2008-05-23 2008-05-23 感情推定装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008135290A JP5083033B2 (ja) 2008-05-23 2008-05-23 感情推定装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2009282824A JP2009282824A (ja) 2009-12-03
JP5083033B2 true JP5083033B2 (ja) 2012-11-28

Family

ID=41453205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008135290A Expired - Fee Related JP5083033B2 (ja) 2008-05-23 2008-05-23 感情推定装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5083033B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6033697B2 (ja) * 2013-02-01 2016-11-30 株式会社Nttドコモ 画像評価装置
JP6546271B2 (ja) * 2015-04-02 2019-07-17 株式会社日立製作所 画像処理装置、物体検知装置、画像処理方法
US11049147B2 (en) 2016-09-09 2021-06-29 Sony Corporation System and method for providing recommendation on an electronic device based on emotional state detection
CN107967659A (zh) * 2016-10-19 2018-04-27 南京萌宝睿贝教育科技有限公司 一种幼儿情绪智力培养系统及培养方法
US11495245B2 (en) 2017-11-29 2022-11-08 Nippon Telegraph And Telephone Corporation Urgency level estimation apparatus, urgency level estimation method, and program
JP6893366B2 (ja) * 2019-09-30 2021-06-23 株式会社なごみテクノロジー 評価システム
JP7001126B2 (ja) * 2020-06-17 2022-01-19 カシオ計算機株式会社 感情推定装置、感情推定方法及びプログラム
KR102564570B1 (ko) * 2020-11-09 2023-08-07 주식회사 스피랩 멀티모달 감성 분석 시스템 및 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195520A (ja) * 1992-12-25 1994-07-15 Fujitsu Ltd 識別用辞書生成方法
JP2874858B2 (ja) * 1997-01-30 1999-03-24 株式会社エイ・ティ・アール知能映像通信研究所 対話型映画システム
JP3941572B2 (ja) * 2002-04-23 2007-07-04 松下電器産業株式会社 操作制御装置
JP2004163416A (ja) * 2002-10-23 2004-06-10 Nippon Steel Corp 欠陥検査装置
JP4553300B2 (ja) * 2004-09-30 2010-09-29 Kddi株式会社 コンテンツ識別装置
DE112006002988T5 (de) * 2005-12-14 2009-01-29 Mitsubishi Electric Corp. Spracherkennungsvorrichtung
JP2008146137A (ja) * 2006-12-06 2008-06-26 Seiko Epson Corp 画像認識装置、電子機器、画像認識方法、制御プログラム及び記録媒体

Also Published As

Publication number Publication date
JP2009282824A (ja) 2009-12-03

Similar Documents

Publication Publication Date Title
JP5083033B2 (ja) 感情推定装置及びプログラム
US20190172448A1 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
JP5195414B2 (ja) 応答生成装置及びプログラム
CN108242238B (zh) 一种音频文件生成方法及装置、终端设备
JP2002091482A (ja) 感情検出方法及び感情検出装置ならびに記録媒体
WO2020253128A1 (zh) 基于语音识别的通信服务方法、装置、计算机设备及存储介质
JP2018169494A (ja) 発話意図推定装置および発話意図推定方法
CN108039181B (zh) 一种声音信号的情感信息分析方法和装置
JP2018072650A (ja) 音声対話装置及び音声対話方法
JP2019020684A (ja) 感情インタラクションモデル学習装置、感情認識装置、感情インタラクションモデル学習方法、感情認識方法、およびプログラム
JP2017111760A (ja) 感情推定器生成方法、感情推定器生成装置、感情推定方法、感情推定装置及びプログラム
CN113327620A (zh) 声纹识别的方法和装置
CN112232276B (zh) 一种基于语音识别和图像识别的情绪检测方法和装置
CN111916054A (zh) 基于唇形的语音生成方法、装置和系统及存储介质
CN113434647A (zh) 一种人机交互方法、系统及存储介质
US11069108B2 (en) Method and system for creating an intelligent cartoon chat strip based on dynamic content
CN114708869A (zh) 语音交互方法、装置及电器
Alashban et al. Speaker gender classification in mono-language and cross-language using BLSTM network
CN115104152A (zh) 讲话者识别装置、讲话者识别方法以及程序
JP4992925B2 (ja) 音声対話装置及びプログラム
Koolagudi et al. Recognition of emotions from speech using excitation source features
CN116564269A (zh) 语音数据的处理方法、装置、电子设备和可读存储介质
CN116597858A (zh) 语音口型匹配方法、装置、存储介质及电子设备
JP2005352151A (ja) 人間の感情状態に応じた音楽出力装置及び音楽出力方法
JP2016143050A (ja) 音声認識装置および音声認識方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120820

R151 Written notification of patent or utility model registration

Ref document number: 5083033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees