JP2003162294A - 感情検出方法及び感情検出装置 - Google Patents

感情検出方法及び感情検出装置

Info

Publication number
JP2003162294A
JP2003162294A JP2002293926A JP2002293926A JP2003162294A JP 2003162294 A JP2003162294 A JP 2003162294A JP 2002293926 A JP2002293926 A JP 2002293926A JP 2002293926 A JP2002293926 A JP 2002293926A JP 2003162294 A JP2003162294 A JP 2003162294A
Authority
JP
Japan
Prior art keywords
emotion
feature
emotional
classifier
detection method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002293926A
Other languages
English (en)
Inventor
Raquel Tato
タト、ラッケル
Thomas Kemp
ケムプ、トーマス
Krzysztof Marasek
マラセック、クリシトフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Deutschland GmbH
Original Assignee
Sony International Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony International Europe GmbH filed Critical Sony International Europe GmbH
Publication of JP2003162294A publication Critical patent/JP2003162294A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Abstract

(57)【要約】 【課題】 感応検出処理の精度を高め、誤差が発生する
可能性を低減する。 【解決手段】 所定の入力音声に基づいて、少なくとも
第1の特徴クラスの特徴及び第2の特徴クラスの特徴の
少なくとも一部を評価、導出及び/又は抽出し、特徴か
ら現在の話者の現在の感情状態及び/又は感情状態のパ
ラメータを導出する。第1及び第2の特徴クラスは、覚
醒度及び快度等、基底に存在する感情多様体又は感情空
間の個別の次元又は部分空間に割り当てられる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、感情検出方法及び
感情検出装置に関し、詳しくは、いわゆる部分空間スペ
シャリスト(subspace specialists)を用いて、入力音
声(speech input)から感情を検出する感情検出方法及
び感情検出装置に関する。
【0002】
【従来の技術】様々なアプリケーションにおいて、例え
ば装置のユーザ等、人間の話者の現在の感情状態を検出
することが望まれる場合がある。これまで、人間の感情
状態を検出する多くの手法が提案されている。これらの
周知の手法の多くは、視覚的情報源、音響的情報源、及
び例えば肌の緊張度、湿度及び体温、血圧、心拍数等で
ある他の物理的情報源等の異なる特徴的情報源を評価す
ることにより感情を検出する。
【0003】
【発明が解決しようとする課題】ユーザが入力した入力
音声を音響的情報源とする場合、音声が示す感情が異な
る話者間で大きく異なるために、感情の検出は非常に困
難であった。したがって、入力音声を単一の特徴クラス
として評価し、人間の話者の現在の感情状態を検出する
手法は、十分に信頼できるものではなかった。
【0004】そこで、本発明は、上述の課題に鑑みてな
されたものであり、本発明の目的は、音響的な入力音声
に基づく感情検出方法及び感情検出装置であって、検出
処理において誤差が発生する可能性が極めて低く、且
つ、より正確で高精度な感情検出を行うことができる感
情検出方法及び感情検出装置を提供することである。
【0005】
【課題を解決するための手段】本発明は、人間の様々な
感情(emotion)及び情動(affect)を多次元空間、特
に2次元空間において表現でき、及び各次元又は両次元
が分類及び認識に関係しているという発見及び仮定に基
づいている。
【0006】上述の課題を解決するために、本発明に係
る感情検出方法は、所定の入力音声に基づいて、少なく
とも第1の特徴クラスの特徴及び第2の特徴クラスの特
徴の少なくとも一部を評価、導出及び/又は抽出する。
これらの特徴からは、現在の話者の現在の感情状態及び
/又は感情状態のパラメータが導出される。第1及び第
2の特徴クラスは、基底に存在する感情多様体又は感情
空間の個別の次元又は部分空間、特に覚醒度及び快度に
よって特定され、及び/又は基底に存在する感情多様体
又は感情空間の個別の次元又は部分空間、特に覚醒度及
び快度に割り当てられる。
【0007】すなわち、所定の感情多様体、個別の第1
及び第2の特徴クラスを感情空間又は感情空間の部分空
間の次元により区別し、又は感情空間又は感情空間の部
分空間の次元に割り当てることが本発明の基本的な着想
である。音声から感情を検出する従来の手法と異なり、
本発明は、複数の特徴クラスを用いるのみではなく、こ
れらの特徴クラスを感情多様体又は感情空間の次元によ
り区別し、又はこれらの次元にマッピングすることによ
り、特徴をより精密に記述し、したがって、話者の感情
状態をより精密に検出することができる。この処理は、
各次元について異なる複雑性の度合いに基づいて実行す
ることができる。
【0008】本発明の好ましい実施例においては、各特
徴クラスについて、感情多様体又は感情空間の各次元又
は部分空間及び/又は次元又は部分空間のグループに対
して、独立した及び/又は個別のスペシャリスト、特に
部分空間スペシャリスト、又は特化された分類器が使用
及び/又は構築される。各分類器は、割り当てられた特
徴クラス及び/又は割り当てられた次元又は部分空間か
ら、現在の話者の現在の感情状態及び/又は感情状態の
パラメータとして、特徴を分類又は取得する。通常、特
徴は、個別の分類器の1つのみに用いられる。さらに、
複数の又は全ての分類器に用いられる特徴もある。ここ
で、所定の分類器用の特徴クラスとは、この所定の分類
器の処理に必要な特徴の完全な集合を指す。
【0009】さらに、本発明の好ましい実施例において
は、個別に特化された分類器は、既に抽出されている異
なる特徴クラス及び/又は入力音声に直接適用される。
分類器によって評価、導出及び/又は抽出された特徴、
感情及び/又は特徴又は感情のパラメータは、処理結果
の結合による最終的な分類のために、収集及び/又は保
存される。
【0010】さらに、特に異なる特徴部分空間から評
価、導出及び/又は抽出された特徴、感情及び/又は特
徴又は感情のパラメータは、結合され、特に現在の話者
の現在の感情状態及び/又は感情状態のパラメータを表
すものであってもよい。
【0011】本発明の好ましい実施例においては、各特
徴クラスに対して個別に特化された分類器及び/又は分
類器の特徴又は出力は、結合、融合又は併合されて包括
的分類器が形成され、特に非直交の部分空間又は分類器
の場合、特に経験的重み付けアルゴリズムにより包括的
分類器が形成される。これにより、基底に存在する感情
状態から、人間の話者の胸中の振舞い及びこれに依存す
る情報を取り扱い、及び考慮することができる。
【0012】また、特に感情又は感情多様体における覚
醒度及び/又は覚醒の次元等である第1の特徴クラスの
少なくとも一部として、韻律的特徴のクラスを使用して
もよい。
【0013】これに代えて、又はこれに加えて、特に感
情又は感情多様体における快度及び/又は快楽の次元等
である第2の特徴クラスの少なくとも一部として、音声
又は声の質的特徴のクラスを使用してもよい。
【0014】さらに、特に韻律的特徴又は韻律的特徴ク
ラス用の分類器として、簡単な単次元分類器を使用して
もよい。
【0015】これに代えて、又はこれに加えて、音声及
び/又は声の質的特徴又は質的特徴クラス用の分類器と
して、複雑な単次元分類器を使用してもよい。ここで、
単次元分類器又は1次元分類器とは、その出力を混合し
ない分類器を指す。
【0016】複雑な分類器は、特に、話者依存性を実現
することにより、複数の単一の分類器を備えていてもよ
い。この話者依存性には、話者の年齢や性別等が含まれ
る。
【0017】さらに、本発明に係る感情検出方法におい
て、異なる分類器は、出力として、固有の感情のみでは
なく、入力される特徴部分空間に応じた快度及び覚醒度
の度合いを含む感情の度合いを出力してもよく、快度及
び覚醒度の度合いは、後に結合され、これに基づいて話
者の現在の感情状態を判定してもよい。
【0018】韻律的特徴としては、音高、音高範囲、イ
ントネーション傾向(Intonation attitude)、声の大
きさ、発話速度、音の長さ及び/又は音声要素の期間的
特徴(speech element duration features)等を使用し
てもよい。
【0019】また、音声及び/又は声の質的特徴として
は、調音法、音質的特徴、スペクトル傾斜(spectral t
ilt)、高調波とフォルマントの間の振幅差、フォルマ
ントの帯域幅、ジッタ及び/又は高調波対雑音比を使用
してもよい。
【0020】さらに、上述の課題を解決するために、本
発明は、上述した感情検出方法を実行又は実現して入力
音声から感情を検出する感情検出装置、感情検出器等を
提供する。
【0021】さらに、上述の課題を解決するために、本
発明は、コンピュータ又はデジタル信号処理手段により
実行されて、上述の感情検出方法を実行及び/又は実現
するコンピュータプログラムを備えるコンピュータプロ
グラム製品を提供する。
【0022】以下、本発明のさらなる特徴について説明
する。
【0023】感情次元を用いて、自動感情認識又は自動
感情検出のための分類器(classifier)を設計するとい
うことが本発明の基本的な着想である。人間の様々な感
情及び情動は、多次元、特に2次元の空間又は多様体
(manifold)によって表現することができる。一方の次
元は、例えば、覚醒度(activation)又は覚醒(arousa
l)である。他方の次元は、快度(evaluation)又は快
楽(pleasure)である。感情多様体又は感情空間におけ
る同一の領域に配置される感情は、音響的に類似する特
徴を有し、したがって、分類することがより困難であ
る。ここで、感情次元と特徴空間の関係に基づく部分空
間スペシャリスト(subspace specialist)及びその手
法を適用することにより、認識率が高め、誤り率を低減
することができる。
【0024】一般的な周知の分類スキームにおいては、
ニューラルネットワーク、学習ベクトル量子化(learni
ng vector quantization)、線形判別分析(linear dis
criminant analysis)、CART(classification and
regression trees)、最近傍識別(nearest neighbou
r)、K最近傍識別(K-nearest neighbour)等の様々な
異なる分類法が使用されている。しかしながら、現在で
も、音声信号から感情を認識することは、容易ではな
い。多くの分類法は、韻律学的特徴又は韻律的特徴を利
用している。これらの韻律的特徴は、扱いが比較的容易
であるが、これらの特徴からは、いわゆる感情の覚醒度
又は覚醒次元に関する情報のみしか得ることができな
い。
【0025】一方、本発明では、感情空間における少な
くとも1つの第2の次元を考慮する。特に、本発明で
は、感情空間又は感情多様体における快楽又は快感の次
元を評価する。このような次元は、音声又は声の質的特
徴、すなわち、ソース信号及び声道特性(vocal tract
properties)の変化により生じる音響的特徴に影響され
る。これらの質的特徴は、話者に強く依存している。
【0026】感情認識又は感情検出のための分類器を設
計する場合、話者が異なると、同じ感情が異なる特徴で
表現され、又は異なる特徴にマッピングされてしまうと
いう問題が生じやすい。感情空間における可能な感情次
元のうちの1つの感情次元のみを変化させる話者もい
る。また、複数の感情次元を変化させる話者について
は、感情に関する共通の範囲を定義することが困難であ
る。
【0027】感情空間における複数の感情次元、特に上
述の例では2つの感情次元が正確な感情分類に関連し、
これらの感情が異なる複雑性を有する異なる音声的特徴
に関連するとの仮定に基づき、本発明では、両方の概念
を用いて、最適な分類器を設計する。
【0028】本発明では、複数の感情次元を利用して、
自動感情認識及び自動感情検出のための分類器を設計す
る。さらに、この手法は、感情次元と特徴空間の関連付
けに基づく部分空間スペシャリスト法(subspace speci
alist technique)と組み合わせることができる。な
お、基本的には、本発明に基づき、韻律的特徴及び質的
特徴に割り当てられた各特徴部分空間に異なる分類器を
適用し、異なる分類器による判定結果を組み合わせる処
理でも十分な効果を得ることができる。
【0029】本発明のさらなる態様においては、以下に
示す2つの手法のいずれか、又はこれらの組み合わせに
よって、上述の基本的な手法をさらに向上させる。
(a)2次元概念に基づく感情空間の2つの次元は、そ
れぞれ異なる複雑性の度合いを有する異なる音声の特徴
に関連しているため、問題を分離し、2つの分類法を設
計することは有意義である。これらの2つの分類法は、
感情多様体の部分空間又は感情部分空間に注目し、すな
わち、異なる特徴に注目する。最も処理が難しい場合、
すなわち質的特徴の部分空間については、この部分空間
に対して2以上の分類器を用い、さらに年齢や性別等の
話者へのある種の依存性を分析に含ませてもよい。分類
アルゴリズムは、それぞれの部分空間における処理の
後、部分空間スペシャリストの結果を最終的に併合(me
rge)するようにしてもよい。(b)一方、与えられた
感情における快楽(pleasure)及び覚醒度(activatio
n)の度合いを判定することは比較的容易である。した
がって、この知識に基づいて、一組の候補を用いてこの
ような感情の分類を推定することもできる。この場合、
異なるレベルの覚醒度と快楽のラベルが適切に付された
トレーニングデータベースを使用し、又は感情のラベル
が付されたデータベースを用いて、覚醒度及び快楽の両
次元の固定された座標にこれらの各感情を関連付ける必
要がある。このようなレベルに基づいて分類を行うこと
ができ、また、感情空間の任意の領域から異なる感情へ
のマッピングを行うこともできる。
【0030】
【発明の実施の形態】以下、本発明に係る感情検出方法
及び感情検出装置について、添付の図面を参照して詳細
に説明する。
【0031】本明細書においては、説明を簡潔に行うた
めに、個別の感情次元(emotionaldimensions)である
覚醒(arousal)と快感(evaluation)をそれぞれ単に
A、Eと表記する。
【0032】図1は、話者自身の可能な感情状態(emot
ional states)CESを反映した抽象的なエンティティ
として与えられる感情空間(emotional space)ESを
示している。すなわち、この感情空間ES内の各点は、
所定の話者の現在の可能な感情状態CESを表す。入力
音声(speech Input)SIを分析し、所定の特徴クラス
の組(set)E、Aに基づいて、特徴f1、f2、f3
又は特徴値を抽出することにより、いわゆる特徴空間
(feature space)FSから感情空間ESへのマッピン
グMが定義される。特徴空間FS内の各点FCESは、
抽出された特徴f1、f2、f3のパラメータ値又は特
徴値であるnタプル<f1,f2,f3>(n-tuple <f
, f, f>)として表され、したがって、現在の可
能な感情状態のパラメータ表現及び/又は近似値(appr
oximation)である。
【0033】感情空間ESの横座標及び縦座標には、そ
れぞれ個別の特徴クラスE及びAが割り当てられてお
り、特徴空間FSの各軸には、入力音声SIから抽出す
べき個別の特徴が割り当てられている。個別の特徴パラ
メータの値は、入力音声を分析することにより判定され
る。感情空間ES内の個別の感情次元の値又は度合い、
すなわち覚醒(arousal)A及び快感(evaluation)E
の度合いは、個別に割り当てられた分類器(classifier
s)CE、CAによって判定される。
【0034】通常、分類器CA、CEのいずれか一方の
みに必要とされる特徴がある。また、2つの分類器C
E、CAの両方に用いられる特徴がある場合もある。単
次元又は1次元分類器の場合、分類器CA、CEは、そ
れぞれ次元A及び次元Eに関して、それぞれの出力を混
合せず、すなわち、分類器CAはAのみを分類し、分類
器CEはEのみを分類する。
【0035】各可能な感情状態CESは、特徴空間FS
における、特定の点FCESのマッピングM又はnタプ
ルパラメータによって得られるイメージであるとみなす
ことができる。感情空間ESの軸、すなわち次元E、A
は、感情空間ES内の所定の特徴クラスE、Aに割り当
てられる。これらの次元は、感情状態CESのイメージ
のパラメータ表現FCESを定義し、すなわち、現在の
話者の現在の感情状態CESを覚醒度(activation/aro
usal)の高低(active/passive)及び快度(evaluation
/pleasure)の高低(negative/positive)によって分類
する。
【0036】感情空間ESの各次元に関しては、個別の
異なる分類器CA、CEが適用され、これらの分類器C
A、CEには、それぞれ対応する特徴クラスA、Eが入
力され、分類器CA、CEは、それぞれに割り当てられ
た軸又は次元に対応した感情空間ES内における点CE
Sの位置を出力する。これにより、覚醒度(activation
/arousal)又は快度(evaluation/pleasure)の次元に
よって、所定の話者の感情状態は、悲しみ(sad)、退
屈(bored)、満足(content)、リラックス(relaxe
d)、喜び(pleased)、幸福(happy)、興奮(excite
d)、怒り(angry)、恐怖(afraid)等に分類される。
これらの各特性(property)は、対応する次元A、Eに
関する度合いによって表現されている。
【0037】図2は、本発明に基づき、入力音声から感
情を検出する処理の手順の具体例を示すフローチャート
である。この検出処理は、まず、導入ステップであるス
テップS0から開始され、このステップS0において、
予備データ(preliminary data)が準備され、評価され
る。ステップS1において、入力音声SIが入力され
る。このステップS1は、後に繰り返し実行される。
【0038】図2に示す処理は、第1の処理セクション
S10と第2の処理セクションS20に分割される。第
1の処理セクションS10では、感情空間ESにおける
第1の感情次元である覚醒度(arousal/activation)A
に割り当てられる第1の特徴クラスに関して入力音声S
Iを評価し、第2の処理セクションS20では、感情空
間ESにおける第2の感情次元である快度(evaluation
/pleasure)Eに割り当てられる第2の特徴クラスに関
して入力音声SIを評価する。第1及び第2の処理セク
ションS10、S20は、実質的に相互に独立した処理
であるため、これらは、順次実行してもよく、平行して
実行してもよい。
【0039】第1の処理セクション10のステップS1
1において、韻律的特徴(prosodicfeature)のクラス
である第1の特徴クラスAにおける韻律的特徴又はその
パラメータが、入力された入力音声S1の分析から生成
及び抽出される。韻律的特徴とは、例えば音高(pitc
h)、音高範囲(pitch range)、音量(loudness)、発
話速度(speaking rate)等であってもよい。
【0040】次に、処理セクション10のステップS1
2において、上述のようにして生成及び抽出された韻律
的特徴又はそのパラメータから特徴ベクトルが構築さ
れ、これらの特徴ベクトルは、現在の話者の感情を覚醒
度(activation/arousal)の高低(passive/active)に
より分類する第1の特徴クラスAに基づいて、覚醒度の
部分空間(subspace)にマッピングされる。覚醒度の部
分空間に現在の話者の感情状態CESを分類する分類器
CAは、比較的簡単な(comparative low complexity)
な構成であり、この分類器CAは、覚醒度Aの度合いを
判定する。
【0041】一方、第2の処理セクションS20のステ
ップS21において、声又は音声の質的特徴(quality
feature)の組に属する第2の特徴クラスEの特徴が生
成される。これらの質的特徴には、例えばスペクトル傾
斜(spectral tilt)、高調波とフォルマントの間の振
幅差、フォルマントの帯域幅、ジッタ、高調波対雑音比
等が含まれる。
【0042】ステップS22において、これらの質的特
徴から特徴ベクトルが構築され、これらの特徴ベクトル
は、現在の話者の感情を快度(evaluation/pleasure)
の高低(negative/positive)により分類する第2の特
徴クラスEに基づいて、快度の部分空間又は次元にマッ
ピングされる。快度の部分空間において話者の感情状態
CESを分類する分類器CEは、比較的複雑な構成を有
し、この分類器CEは、快度Eの度合いを判定する。分
類器CEが複雑な理由は、実際、複数の分類器(multi-
classifier system)が必要であったり、年齢及び性別
を含む話者に依存した(dependencies)分類器等である
からである。
【0043】ステップS12及びステップS22におけ
る分類処理から導き出される結果は、ステップS30に
おいて、最後の分類アルゴリズムにおける評価によって
併合(merged)及び融合(fused)される。
【0044】そして、ステップS40において、現在の
話者の現在の感情状態CESがこの処理の結果として検
出及び/又は出力される。
【0045】部分空間スペシャリスト(subspace speci
alists)の概念は、本質的には、任意の特徴の部分空間
に関して、又は任意の特徴の部分空間において、それぞ
れ特化された(specialized)分類器を使用するという
手法に基づいている。特徴クラスの区別及び感情空間又
はその部分空間の任意の次元に対する特徴クラスの割り
当ては、音声学的及び音韻論的理論、並びに心理学的及
び生理学的研究等に基づいて行うことができる。上述し
た分類器又は分類装置を構築するために、特徴ベクトル
を分類するいかなる手法を用いてもよい。これらの手法
には、例えば、ニューラルネットワーク、サポートベク
トルマシン(support vector machines)、ガウス混合
(Gaussian mixtures)、K最近傍識別(K-next neighb
ours)等が含まれる。
【0046】各特徴部分空間に対応する異なる分類器又
はスペシャリストによる処理結果の結合は、最終段の分
類器である第3の分類器により行うことができる。この
第3の分類器には、各次元の度合い又は各次元に対応す
る条件付き感情(conditional emotions)が入力され、
第3の分類器は、分類された感情を出力する。
【0047】なお、本発明は、上述の実施例に限定され
るものではなく、例えば、上述の感情検出方法をコンピ
ュータプログラムで実現して、コンピュータ又はデジタ
ルシグナルプロセッサ(DSP)で実行するようにして
もよい。
【0048】
【発明の効果】以上のように、本発明に係る感情検出方
法は、所定の入力音声に基づいて、少なくとも第1の特
徴クラスの特徴及び第2の特徴クラスの特徴の少なくと
も一部を評価、導出及び/又は抽出し、特徴から現在の
話者の現在の感情状態及び/又は感情状態のパラメータ
を導出し、第1及び第2の特徴クラスは、覚醒度及び快
度を含む、基底に存在する感情多様体又は感情空間の個
別の次元又は部分空間によって特定され、及び/又は覚
醒度及び快度を含む、基底に存在する感情多様体又は感
情空間の個別の次元又は部分空間に割り当てられる。こ
れにより、検出処理において誤差が発生する可能性が極
めて低く、且つ、より正確で高精度な感情検出を行うこ
とができる
【図面の簡単な説明】
【図1】所定の感情空間と各特徴空間の間の関係を説明
する図である。
【図2】本発明を適用した感情検出処理の手順を示すフ
ローチャートである。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 タト、ラッケル ドイツ連邦共和国 70327 シュトゥット ゥガルト ハインリッヒ ヘルツ シュト ラーセ 1 ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミッ ト ベシュレンクテル ハフツング アド バンスド テクノロジー センター シュ トゥットゥガルト内 (72)発明者 ケムプ、トーマス ドイツ連邦共和国 70327 シュトゥット ゥガルト ハインリッヒ ヘルツ シュト ラーセ 1 ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミッ ト ベシュレンクテル ハフツング アド バンスド テクノロジー センター シュ トゥットゥガルト内 (72)発明者 マラセック、クリシトフ ドイツ連邦共和国 70327 シュトゥット ゥガルト ハインリッヒ ヘルツ シュト ラーセ 1 ソニー インターナショナル (ヨーロッパ) ゲゼルシャフト ミッ ト ベシュレンクテル ハフツング アド バンスド テクノロジー センター シュ トゥットゥガルト内 Fターム(参考) 5D015 AA06 CC04

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 入力音声から感情を検出する感情検出方
    法において、 所定の入力音声(SI)に基づいて、少なくとも第1の
    特徴クラス(A)の特徴及び第2の特徴クラス(E)の
    特徴の少なくとも一部を評価、導出及び/又は抽出する
    ステップと、 上記特徴から現在の話者の現在の感情状態(CES)及
    び/又は感情状態のパラメータ(CFS)を導出するス
    テップとを有し、 上記第1及び第2の特徴クラス(A,E)は、覚醒度及
    び快度を含む、基底に存在する感情多様体(EM)又は
    感情空間(ES)の個別の次元又は部分空間によって特
    定され、及び/又は覚醒度及び快度を含む、基底に存在
    する感情多様体(EM)又は感情空間(ES)の個別の
    次元又は部分空間に割り当てられることを特徴とする感
    情検出方法。
  2. 【請求項2】 上記第1及び第2の特徴クラス(A,
    E)について、上記感情多様体(EM)又は感情空間
    (ES)の各次元又は部分空間及び/又は次元又は部分
    空間のグループに対して、部分空間スペシャリストを含
    む独立した及び/又は個別のスペシャリスト又は特化さ
    れた分類器(CA,CE)が使用及び/又は構築され、
    該分類器は、上記割り当てられた第1及び第2の特徴ク
    ラス(A,E)及び/又は割り当てられた次元又は部分
    空間から、上記現在の話者の現在の感情状態(CES)
    及び/又は該感情状態のパラメータとして、特徴を分類
    又は取得することを特徴とする請求項1記載の感情検出
    方法。
  3. 【請求項3】 上記個別に特化された分類器(CA,C
    E)は、既に抽出されている異なる上記第1及び第2の
    特徴クラス(A,E)及び/又は入力音声(SI)に直
    接適用され、該分類器(CA,CE)によって評価、導
    出及び/又は抽出された特徴、感情及び/又は特徴又は
    感情のパラメータは、処理結果の結合による最終的な分
    類のために、収集及び/又は保存されることを特徴とす
    る請求項1又は2記載の感情検出方法。
  4. 【請求項4】 異なる特徴部分空間から評価、導出及び
    /又は抽出された上記特徴、感情及び/又は特徴又は感
    情のパラメータは、結合され、上記現在の話者の現在の
    感情状態(CES)及び/又は該感情状態のパラメータ
    を表すことを特徴とする請求項3記載の感情検出方法。
  5. 【請求項5】 上記第1及び第2の特徴クラス(A,
    E)に対して個別に特化された分類器(CA,CE)及
    び/又は該分類器の特徴又は出力は、結合、融合又は併
    合されて包括的分類器が形成され、非直交の部分空間又
    は分類器の場合、経験的重み付けアルゴリズムにより包
    括的分類器が形成されることを特徴とする請求項1乃至
    4いずれか1項記載の感情検出方法。
  6. 【請求項6】 上記感情又は感情多様体(EM)におけ
    る覚醒度及び/又は覚醒の次元を含む上記第1の特徴ク
    ラス(A)の少なくとも一部として、韻律的特徴のクラ
    スが用いられることを特徴とする請求項1乃至5いずれ
    か1項記載の感情検出方法。
  7. 【請求項7】 上記感情又は感情多様体(EM)におけ
    る快度及び/又は快楽の次元を含む上記第2の特徴クラ
    ス(E)の少なくとも一部として、音声又は声の質的特
    徴のクラスが用いられることを特徴とする請求項1乃至
    6いずれか1項記載の感情検出方法。
  8. 【請求項8】 上記韻律的特徴用の分類器として、簡単
    な単次元分類器(CA)が用いられることを特徴とする
    請求項2乃至7いずれか1項記載の感情検出方法。
  9. 【請求項9】 上記音声及び/又は声の質的特徴用の分
    類器として、複雑な単次元分類器(CE)が用いられる
    ことを特徴とする請求項2乃至7いずれか1項記載の感
    情検出方法。
  10. 【請求項10】 上記複雑な分類器(CE)は、年齢及
    び性別を含む話者依存性に対応する複数の分類器を含む
    ことを特徴とする請求項9記載の感情検出方法。
  11. 【請求項11】 上記異なる分類器は、出力として、固
    有の感情のみではなく、入力される特徴部分空間に応じ
    た快度及び覚醒度の度合いを含む感情の度合いを出力
    し、該快度及び覚醒度の度合いは、後に結合され、これ
    に基づいて上記話者の現在の感情状態(CES)が判定
    されることを特徴とする請求項8乃至10いずれか1項
    記載の感情検出方法。
  12. 【請求項12】 上記韻律的特徴として、音高、音高範
    囲、イントネーション傾向、声の大きさ、発話速度、音
    の長さ及び/又は音声要素の期間的特徴が用いられるこ
    とを特徴とする請求項1乃至11いずれか1項記載の感
    情検出方法。
  13. 【請求項13】 上記音声及び/又は声の質的特徴とし
    て、調音法、音質的特徴、スペクトル傾斜、高調波とフ
    ォルマントの間の振幅差、フォルマントの帯域幅、ジッ
    タ及び/又は高調波対雑音比が用いられることを特徴と
    する請求項1乃至12記載の感情検出方法。
  14. 【請求項14】 請求項1乃至13いずれか1項記載の
    感情検出方法を実行及び/又は実現することにより、入
    力音声から感情を検出する感情検出装置。
  15. 【請求項15】 コンピュータ又はデジタル信号処理手
    段により実行されて、請求項1乃至13いずれか1項記
    載の感情検出方法を実行及び/又は実現するコンピュー
    タプログラムを備えるコンピュータプログラム製品。
JP2002293926A 2001-10-05 2002-10-07 感情検出方法及び感情検出装置 Withdrawn JP2003162294A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP01123867.2 2001-10-05
EP01123867A EP1300831B1 (en) 2001-10-05 2001-10-05 Method for detecting emotions involving subspace specialists

Publications (1)

Publication Number Publication Date
JP2003162294A true JP2003162294A (ja) 2003-06-06

Family

ID=8178859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002293926A Withdrawn JP2003162294A (ja) 2001-10-05 2002-10-07 感情検出方法及び感情検出装置

Country Status (4)

Country Link
US (1) US7729914B2 (ja)
EP (1) EP1300831B1 (ja)
JP (1) JP2003162294A (ja)
DE (1) DE60115653T2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP2007121456A (ja) * 2005-10-25 2007-05-17 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2008076904A (ja) * 2006-09-22 2008-04-03 Univ Of Tokyo 感情の判別方法、感情判別装置、雰囲気情報通信端末
WO2017138376A1 (ja) * 2016-02-09 2017-08-17 Pst株式会社 推定方法、推定プログラム、推定装置および推定システム
JP2020154332A (ja) * 2020-06-17 2020-09-24 カシオ計算機株式会社 感情推定装置、感情推定方法及びプログラム
JP2021510851A (ja) * 2018-01-26 2021-04-30 上海智臻智能網絡科技股▲ふん▼有限公司Shanghai Xiaoi Robot Technology Co.,Ltd. インテリジェントインタラクション方法、装置、コンピュータデバイス及びコンピュータ読取可能な記憶媒体
US11918372B2 (en) 2017-11-02 2024-03-05 Panasonic Intellectual Property Management Co., Ltd. Cognitive function evaluation system, method, and storage medium for dementia by analyzing voice of evaluatee for recognition, remembering or jugment capabilities

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040032451A (ko) * 2002-10-09 2004-04-17 삼성전자주식회사 생체신호 기반의 건강 관리 기능을 갖는 모바일 기기 및이를 이용한 건강 관리 방법
DE60320414T2 (de) 2003-11-12 2009-05-20 Sony Deutschland Gmbh Vorrichtung und Verfahren zur automatischen Extraktion von wichtigen Ereignissen in Audiosignalen
DE102004050785A1 (de) * 2004-10-14 2006-05-04 Deutsche Telekom Ag Verfahren und Anordnung zur Bearbeitung von Nachrichten im Rahmen eines Integrated Messaging Systems
US20060122834A1 (en) * 2004-12-03 2006-06-08 Bennett Ian M Emotion detection device & method for use in distributed systems
KR20060066416A (ko) * 2004-12-13 2006-06-16 한국전자통신연구원 음성 코덱을 이용한 후두 원격 진단 서비스 장치 및 그 방법
EP1703491B1 (en) * 2005-03-18 2012-02-22 Sony Deutschland GmbH Method for classifying audio data
US7457753B2 (en) * 2005-06-29 2008-11-25 University College Dublin National University Of Ireland Telephone pathology assessment
US8209182B2 (en) * 2005-11-30 2012-06-26 University Of Southern California Emotion recognition system
WO2007072485A1 (en) * 2005-12-22 2007-06-28 Exaudios Technologies Ltd. System for indicating emotional attitudes through intonation analysis and methods thereof
JP4085130B2 (ja) * 2006-06-23 2008-05-14 松下電器産業株式会社 感情認識装置
WO2008092474A1 (en) 2007-01-31 2008-08-07 Telecom Italia S.P.A. Method and system to improve automated emotional recognition
EP2122610B1 (en) 2007-01-31 2018-12-26 Telecom Italia S.p.A. Customizable method and system for emotional recognition
EP1981021A1 (fr) 2007-04-13 2008-10-15 France Telecom Procede d'estimation de l'etat mental d'une personne
WO2009009722A2 (en) 2007-07-12 2009-01-15 University Of Florida Research Foundation, Inc. Random body movement cancellation for non-contact vital sign detection
US20090157660A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems employing a cohort-linked avatar
US20090157813A1 (en) * 2007-12-17 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for identifying an avatar-linked population cohort
US8356004B2 (en) * 2007-12-13 2013-01-15 Searete Llc Methods and systems for comparing media content
US9211077B2 (en) * 2007-12-13 2015-12-15 The Invention Science Fund I, Llc Methods and systems for specifying an avatar
US20090171164A1 (en) * 2007-12-17 2009-07-02 Jung Edward K Y Methods and systems for identifying an avatar-linked population cohort
US20090164458A1 (en) * 2007-12-20 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems employing a cohort-linked avatar
US20090157625A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for identifying an avatar-linked population cohort
US20090157751A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying an avatar
US8615479B2 (en) 2007-12-13 2013-12-24 The Invention Science Fund I, Llc Methods and systems for indicating behavior in a population cohort
US20090157481A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying a cohort-linked avatar attribute
US20090164131A1 (en) * 2007-12-20 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying a media content-linked population cohort
US20090164503A1 (en) * 2007-12-20 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying a media content-linked population cohort
US9418368B2 (en) * 2007-12-20 2016-08-16 Invention Science Fund I, Llc Methods and systems for determining interest in a cohort-linked avatar
US9775554B2 (en) * 2007-12-31 2017-10-03 Invention Science Fund I, Llc Population cohort-linked avatar
JPWO2010001512A1 (ja) * 2008-07-03 2011-12-15 パナソニック株式会社 印象度抽出装置および印象度抽出方法
WO2011011413A2 (en) * 2009-07-20 2011-01-27 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data
US9015046B2 (en) * 2010-06-10 2015-04-21 Nice-Systems Ltd. Methods and apparatus for real-time interaction analysis in call centers
US20140025385A1 (en) * 2010-12-30 2014-01-23 Nokia Corporation Method, Apparatus and Computer Program Product for Emotion Detection
JP5906071B2 (ja) * 2011-12-01 2016-04-20 キヤノン株式会社 情報処理方法、情報処理装置、および記憶媒体
GB2501062B (en) * 2012-03-14 2014-08-13 Toshiba Res Europ Ltd A text to speech method and system
TWI473080B (zh) * 2012-04-10 2015-02-11 Nat Univ Chung Cheng The use of phonological emotions or excitement to assist in resolving the gender or age of speech signals
TWI500023B (zh) 2013-04-11 2015-09-11 Univ Nat Central 透過視覺的聽覺輔助裝置
US9934793B2 (en) * 2014-01-24 2018-04-03 Foundation Of Soongsil University-Industry Cooperation Method for determining alcohol consumption, and recording medium and terminal for carrying out same
US9899039B2 (en) * 2014-01-24 2018-02-20 Foundation Of Soongsil University-Industry Cooperation Method for determining alcohol consumption, and recording medium and terminal for carrying out same
KR101621766B1 (ko) * 2014-01-28 2016-06-01 숭실대학교산학협력단 음주 판별 방법, 이를 수행하기 위한 기록매체 및 단말기
KR101569343B1 (ko) 2014-03-28 2015-11-30 숭실대학교산학협력단 차신호 고주파 신호의 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
KR101621780B1 (ko) 2014-03-28 2016-05-17 숭실대학교산학협력단 차신호 주파수 프레임 비교법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
KR101621797B1 (ko) 2014-03-28 2016-05-17 숭실대학교산학협력단 시간 영역에서의 차신호 에너지법에 의한 음주 판별 방법, 이를 수행하기 위한 기록 매체 및 장치
US9600743B2 (en) 2014-06-27 2017-03-21 International Business Machines Corporation Directing field of vision based on personal interests
US9471837B2 (en) 2014-08-19 2016-10-18 International Business Machines Corporation Real-time analytics to identify visual objects of interest
US20160086088A1 (en) * 2014-09-24 2016-03-24 Raanan Yonatan Yehezkel Facilitating dynamic affect-based adaptive representation and reasoning of user behavior on computing devices
US11051702B2 (en) 2014-10-08 2021-07-06 University Of Florida Research Foundation, Inc. Method and apparatus for non-contact fast vital sign acquisition based on radar signal
US9833200B2 (en) 2015-05-14 2017-12-05 University Of Florida Research Foundation, Inc. Low IF architectures for noncontact vital sign detection
CN105609116B (zh) * 2015-12-23 2019-03-05 东南大学 一种语音情感维度区域的自动识别方法
EP3392884A1 (en) * 2017-04-21 2018-10-24 audEERING GmbH A method for automatic affective state inference and an automated affective state inference system
JP7073640B2 (ja) * 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
CN107578775B (zh) * 2017-09-07 2021-02-12 四川大学 一种基于深度神经网络的多分类语音方法
CN108806667B (zh) * 2018-05-29 2020-04-17 重庆大学 基于神经网络的语音与情绪的同步识别方法
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
EP3811245A4 (en) 2018-06-19 2022-03-09 Ellipsis Health, Inc. MENTAL HEALTH ASSESSMENT SYSTEMS AND METHODS
CN109697472B (zh) * 2018-12-28 2021-05-04 泰州市津达电子科技有限公司 一种子情绪划归方法
CN111413874B (zh) * 2019-01-08 2021-02-26 北京京东尚科信息技术有限公司 用于控制智能设备的方法、装置和系统
CN110033029A (zh) * 2019-03-22 2019-07-19 五邑大学 一种基于多模态情感模型的情感识别方法和装置
JP7290507B2 (ja) * 2019-08-06 2023-06-13 本田技研工業株式会社 情報処理装置、情報処理方法、認識モデルならびにプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6157913A (en) * 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
US6006188A (en) * 1997-03-19 1999-12-21 Dendrite, Inc. Speech signal processing for determining psychological or physiological characteristics using a knowledge base
US6173260B1 (en) * 1997-10-29 2001-01-09 Interval Research Corporation System and method for automatic classification of speech based upon affective content
IL122632A0 (en) * 1997-12-16 1998-08-16 Liberman Amir Apparatus and methods for detecting emotions
US6480826B2 (en) * 1999-08-31 2002-11-12 Accenture Llp System and method for a telephonic emotion detection that provides operator feedback

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP4641389B2 (ja) * 2004-06-03 2011-03-02 キヤノン株式会社 情報処理方法、情報処理装置
JP2007121456A (ja) * 2005-10-25 2007-05-17 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US7738982B2 (en) 2005-10-25 2010-06-15 Sony Corporation Information processing apparatus, information processing method and program
JP2008076904A (ja) * 2006-09-22 2008-04-03 Univ Of Tokyo 感情の判別方法、感情判別装置、雰囲気情報通信端末
CN108601567A (zh) * 2016-02-09 2018-09-28 Pst株式会社 推测方法、推测程序、推测装置及推测系统
WO2017138376A1 (ja) * 2016-02-09 2017-08-17 Pst株式会社 推定方法、推定プログラム、推定装置および推定システム
CN108601567B (zh) * 2016-02-09 2021-06-11 Pst株式会社 推测方法、推测程序、推测装置及推测系统
US11147487B2 (en) 2016-02-09 2021-10-19 Pst Corporation, Inc. Estimation method, estimation program, estimation device, and estimation system
US11918372B2 (en) 2017-11-02 2024-03-05 Panasonic Intellectual Property Management Co., Ltd. Cognitive function evaluation system, method, and storage medium for dementia by analyzing voice of evaluatee for recognition, remembering or jugment capabilities
JP2021510851A (ja) * 2018-01-26 2021-04-30 上海智臻智能網絡科技股▲ふん▼有限公司Shanghai Xiaoi Robot Technology Co.,Ltd. インテリジェントインタラクション方法、装置、コンピュータデバイス及びコンピュータ読取可能な記憶媒体
US11373641B2 (en) 2018-01-26 2022-06-28 Shanghai Xiaoi Robot Technology Co., Ltd. Intelligent interactive method and apparatus, computer device and computer readable storage medium
JP2020154332A (ja) * 2020-06-17 2020-09-24 カシオ計算機株式会社 感情推定装置、感情推定方法及びプログラム
JP7001126B2 (ja) 2020-06-17 2022-01-19 カシオ計算機株式会社 感情推定装置、感情推定方法及びプログラム

Also Published As

Publication number Publication date
EP1300831B1 (en) 2005-12-07
EP1300831A1 (en) 2003-04-09
DE60115653D1 (de) 2006-01-12
DE60115653T2 (de) 2006-08-10
US20030069728A1 (en) 2003-04-10
US7729914B2 (en) 2010-06-01

Similar Documents

Publication Publication Date Title
JP2003162294A (ja) 感情検出方法及び感情検出装置
CN105761720B (zh) 一种基于语音属性分类的交互系统及其方法
Schuller et al. Emotion recognition in the noise applying large acoustic feature sets
EP1282113B1 (en) Method for detecting emotions from speech using speaker identification
WO2020247231A1 (en) Multiple classifications of audio data
US20160086622A1 (en) Speech processing device, speech processing method, and computer program product
US8655656B2 (en) Method and system for assessing intelligibility of speech represented by a speech signal
JP2018169506A (ja) 会話満足度推定装置、音声処理装置および会話満足度推定方法
Hasan et al. Emotion recognition from bengali speech using rnn modulation-based categorization
Chen et al. Mandarin emotion recognition combining acoustic and emotional point information
WO2019244385A1 (ja) 音声認識システム、及び音声認識装置
Khan et al. Quranic reciter recognition: a machine learning approach
Palo et al. Design of neural network model for emotional speech recognition
Darekar et al. A hybrid meta-heuristic ensemble based classification technique speech emotion recognition
CN110827853A (zh) 语音特征信息提取方法、终端及可读存储介质
WO2021171956A1 (ja) 話者識別装置、話者識別方法、及び、プログラム
Palo et al. Emotion Analysis from Speech of Different Age Groups.
Paul et al. A 2D convolution neural network based method for human emotion classification from speech signal
Coro et al. A self-training automatic infant-cry detector
JP2016143050A (ja) 音声認識装置および音声認識方法
JP7159655B2 (ja) 感情推定システムおよびプログラム
Bhavya et al. Speech Emotion Analysis Using Machine Learning for Depression Recognition: a Review
Gupta et al. Detecting emotions from human speech: Role of gender information
Kowalczyk et al. Detecting changing emotions in natural speech
Prajapati et al. A review-ML and DL classifiers for emotion detection in audio and speech data

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060110