JPH0512023A - 感情認識装置 - Google Patents
感情認識装置Info
- Publication number
- JPH0512023A JPH0512023A JP3164243A JP16424391A JPH0512023A JP H0512023 A JPH0512023 A JP H0512023A JP 3164243 A JP3164243 A JP 3164243A JP 16424391 A JP16424391 A JP 16424391A JP H0512023 A JPH0512023 A JP H0512023A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- emotion
- voice
- deviation
- audio signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【目的】 音声認識を利用した感情認識装置の実現に関
するものである。 【構成】 特徴信号抽出手段10が、感情に対応する音
声信号の特徴を抽出する。ズレ検出手段12は、基準と
なる音声信号と特徴信号とのズレ量を検出する。感情判
断手段14は、前記ズレ量に基づいて、感情状態を判断
する。従って、感情を適切に判断することができる。
するものである。 【構成】 特徴信号抽出手段10が、感情に対応する音
声信号の特徴を抽出する。ズレ検出手段12は、基準と
なる音声信号と特徴信号とのズレ量を検出する。感情判
断手段14は、前記ズレ量に基づいて、感情状態を判断
する。従って、感情を適切に判断することができる。
Description
【0001】
【産業上の利用分野】この発明は、音声認識装置の利用
に関して、特に音声認識を利用した感情認識装置に関す
るものである。
に関して、特に音声認識を利用した感情認識装置に関す
るものである。
【0002】
【従来の技術】従来、人間と機械間のインターフェイス
(以下、MMIという)としては、手書き文字認識、音
声認識などが知られている。しかし、これらの手段によ
って機械側に入力される情報は、あくまでも、人間の感
情/心理状態を言葉に変換して入力されるものである。
従って、人間の感情/心理状態が、自然に、直接的に入
力されるようなものではなかった。
(以下、MMIという)としては、手書き文字認識、音
声認識などが知られている。しかし、これらの手段によ
って機械側に入力される情報は、あくまでも、人間の感
情/心理状態を言葉に変換して入力されるものである。
従って、人間の感情/心理状態が、自然に、直接的に入
力されるようなものではなかった。
【0003】一方、人間の感情/心理状態を把握する方
法としては、以下の方法がある。
法としては、以下の方法がある。
【0004】(1)脳波、心拍、発汗などの身体的な物
理量をセンサで計測して認識する。例えば、嘘発見器の
ようなものである。
理量をセンサで計測して認識する。例えば、嘘発見器の
ようなものである。
【0005】(2)感情/心理を反映する質問に対し
て、YES,NOや3〜5段階評価で答えさせて認識す
る。
て、YES,NOや3〜5段階評価で答えさせて認識す
る。
【0006】
【発明が解決しようとする課題】しかしながら、上記の
方法をMMIの手段とするには、次のような問題があ
る。すなわち、(1)は、測定用電極などを身体に装着
する必要があり、日常、簡易に利用できる方法ではな
い。また、(2)は、心理テストなどには有効である
が、リアルタイム性に欠ける。このように、従来の方法
では、MMIの手段として適当ではなく、自然なMMI
を実現することが困難であった。また、音声認識におい
て、話者の感情/心理状態の変化によって、発声が変動
し、認識効率が低下するという問題もあった。
方法をMMIの手段とするには、次のような問題があ
る。すなわち、(1)は、測定用電極などを身体に装着
する必要があり、日常、簡易に利用できる方法ではな
い。また、(2)は、心理テストなどには有効である
が、リアルタイム性に欠ける。このように、従来の方法
では、MMIの手段として適当ではなく、自然なMMI
を実現することが困難であった。また、音声認識におい
て、話者の感情/心理状態の変化によって、発声が変動
し、認識効率が低下するという問題もあった。
【0007】この発明は上記問題を解決し、自然なMM
Iを実現することを目的とする。
Iを実現することを目的とする。
【0008】
【課題を解決するための手段】請求項1の感情認識装置
は、感情に対応する音声信号の特徴を抽出する特徴信号
抽出手段、基準となる音声信号と特徴信号とのズレ量を
検出するズレ検出手段、前記ズレ量に基づいて、感情状
態を判断する感情判断手段、を備えている。
は、感情に対応する音声信号の特徴を抽出する特徴信号
抽出手段、基準となる音声信号と特徴信号とのズレ量を
検出するズレ検出手段、前記ズレ量に基づいて、感情状
態を判断する感情判断手段、を備えている。
【0009】
【作用】請求項1の感情認識装置は、特徴信号抽出手段
が、感情に対応する音声信号の特徴を抽出する。ズレ検
出手段は、基準となる音声信号と特徴信号とのズレ量を
検出する。感情判断手段は、前記ズレ量に基づいて、感
情状態を判断する。従って、感情を適切に判断すること
ができる。
が、感情に対応する音声信号の特徴を抽出する。ズレ検
出手段は、基準となる音声信号と特徴信号とのズレ量を
検出する。感情判断手段は、前記ズレ量に基づいて、感
情状態を判断する。従って、感情を適切に判断すること
ができる。
【0010】
【実施例】図1に、この発明の一実施例である感情認識
装置の構成図を示す。特徴信号抽出手段10は、マイク
ロホンを通して入力された音声から感情に対応する音声
信号の特徴信号を抽出する。ズレ検出手段12は、特徴
信号と基準となる音声信号との間のズレ量を検出する。
感情判断手段14は、ズレ検出手段12から検出された
ずれ量に基づいて感情を判断する。
装置の構成図を示す。特徴信号抽出手段10は、マイク
ロホンを通して入力された音声から感情に対応する音声
信号の特徴信号を抽出する。ズレ検出手段12は、特徴
信号と基準となる音声信号との間のズレ量を検出する。
感情判断手段14は、ズレ検出手段12から検出された
ずれ量に基づいて感情を判断する。
【0011】図2に、この発明の一実施例である感情認
識装置のハードウエア構成を示す。
識装置のハードウエア構成を示す。
【0012】以下、感情認識装置の動作について説明す
る。
る。
【0013】まず、特徴信号抽出回路20は、マイクロ
ホン16を通して入力された音声から感情に対応する音
声信号の特徴信号26を抽出する。図3に、特徴信号抽
出回路20の具体例を示す。
ホン16を通して入力された音声から感情に対応する音
声信号の特徴信号26を抽出する。図3に、特徴信号抽
出回路20の具体例を示す。
【0014】図3aの例では、入力信号の音声継続時間
を抽出する。入力された音声信号をフィルタ30にかけ
て、所定の周波数を取り出して、その包絡線検出32を
行う。この包絡線を比較器34にかけて、所定のしきい
値を超える信号の長さをタイマ36により計測して音声
継続時間を抽出する。
を抽出する。入力された音声信号をフィルタ30にかけ
て、所定の周波数を取り出して、その包絡線検出32を
行う。この包絡線を比較器34にかけて、所定のしきい
値を超える信号の長さをタイマ36により計測して音声
継続時間を抽出する。
【0015】図3bでは、サンプル時間内の音声信号の
周波数成分におけるピーク(フォルマント)を抽出する
ことによって、特徴信号を抽出する。まず、入力された
音声信号のサンプルホールド40をする。次に、サンプ
ルホールドした音声信号をA/D変換42して、フーリ
エ変換(FFT)44を行う。この結果により、声道の
共鳴周波数であるフォルマント周波数が抽出される。な
お、最も大きなピーク値を持つものから第1フォルマン
ト周波数,第2フォルマント周波数,・・・と呼ぶ。
周波数成分におけるピーク(フォルマント)を抽出する
ことによって、特徴信号を抽出する。まず、入力された
音声信号のサンプルホールド40をする。次に、サンプ
ルホールドした音声信号をA/D変換42して、フーリ
エ変換(FFT)44を行う。この結果により、声道の
共鳴周波数であるフォルマント周波数が抽出される。な
お、最も大きなピーク値を持つものから第1フォルマン
ト周波数,第2フォルマント周波数,・・・と呼ぶ。
【0016】図3cでは、入力信号の信号レベルの強度
を抽出する。入力された音声信号を、例えば、フィルタ
50にかけて、10KHzの周波数を取り出して、その
包絡線検出60を行う。これをA/D変換70して、1
0KHzの周波数の強度を抽出する。以下、フィルタ5
2により20KHzの周波数2などと、周波数ごとの強
度を抽出する。強度が大であれば、例えば、「喜び」、
「怒り」を表現したものと考えられる。
を抽出する。入力された音声信号を、例えば、フィルタ
50にかけて、10KHzの周波数を取り出して、その
包絡線検出60を行う。これをA/D変換70して、1
0KHzの周波数の強度を抽出する。以下、フィルタ5
2により20KHzの周波数2などと、周波数ごとの強
度を抽出する。強度が大であれば、例えば、「喜び」、
「怒り」を表現したものと考えられる。
【0017】次に、図2に示すズレ検出手段である正規
化ズレ検出回路22は、特徴信号26と基準となる音声
信号との間の正規化ズレ量を検出して、正規化ズレ信号
28を出力する。図4に、正規化ズレ量の検出方法の一
例を示す。
化ズレ検出回路22は、特徴信号26と基準となる音声
信号との間の正規化ズレ量を検出して、正規化ズレ信号
28を出力する。図4に、正規化ズレ量の検出方法の一
例を示す。
【0018】図4aに、音声継続時間の正規化ズレ量検
出の例を示す。この場合、音声継続時間が短くなってな
っており、「怒り」を短い言葉(乱暴な言葉)で表現し
たものと判断される。このように、特徴信号を抽出する
ことができる。
出の例を示す。この場合、音声継続時間が短くなってな
っており、「怒り」を短い言葉(乱暴な言葉)で表現し
たものと判断される。このように、特徴信号を抽出する
ことができる。
【0019】図4bに、フォルマント周波数による例を
示す。この例では、第一フォルマント周波数について、
基準となる音声信号との正規化ズレ量を検出している。
このズレ量については、サンプル時間内の平均ズレ量を
用いてもよいし、時系列データとしてのズレ量を用いて
もよい。この図では、入力周波数は、基準周波数より負
の方にズレており、例えば、「怒り」や「悲しみ」を低
音により表現したものと判断される。
示す。この例では、第一フォルマント周波数について、
基準となる音声信号との正規化ズレ量を検出している。
このズレ量については、サンプル時間内の平均ズレ量を
用いてもよいし、時系列データとしてのズレ量を用いて
もよい。この図では、入力周波数は、基準周波数より負
の方にズレており、例えば、「怒り」や「悲しみ」を低
音により表現したものと判断される。
【0020】その他、サンプル時間内の一定レベル強度
sを超える最高周波数成分(図4c)、音声の基本周波
数成分における立ち上がり時間t(図4d)、サンプル
時間内の入力信号の周波数変動の最大/最小値h(図4
e)などにより、基準データと特徴信号との正規化ズレ
量を抽出することができる。
sを超える最高周波数成分(図4c)、音声の基本周波
数成分における立ち上がり時間t(図4d)、サンプル
時間内の入力信号の周波数変動の最大/最小値h(図4
e)などにより、基準データと特徴信号との正規化ズレ
量を抽出することができる。
【0021】次に、図2に示す感情判断手段であるファ
ジイ推論装置24は、正規化ズレ検出回路22から送ら
れた正規化ズレ信号28に基づいて感情を判断する。推
論ルールの抽出は、以下のように行っている。例えば、
「怒り」について特徴とされる信号は、音声継続時間
が短い(乱暴な言葉)、周波数のシフト(低音で表
現)、信号レベルが大(声が大きい)、信号の立ち
上がりが速い(語気が鋭い)、周波数の変動が大(表
現がオーバー)のようになっている。この抽出されたル
ールによってファジイ推論ルールは、例えば、次のよう
なものとなっている。
ジイ推論装置24は、正規化ズレ検出回路22から送ら
れた正規化ズレ信号28に基づいて感情を判断する。推
論ルールの抽出は、以下のように行っている。例えば、
「怒り」について特徴とされる信号は、音声継続時間
が短い(乱暴な言葉)、周波数のシフト(低音で表
現)、信号レベルが大(声が大きい)、信号の立ち
上がりが速い(語気が鋭い)、周波数の変動が大(表
現がオーバー)のようになっている。この抽出されたル
ールによってファジイ推論ルールは、例えば、次のよう
なものとなっている。
【0022】 IF 音声継続時間=小 THEN 怒りが 大 IF 周波数のシフト=負 THEN 怒りが 中 IF 信号レベル=大 THEN 怒りが 中 IF 信号立ち上がりの速さ=大 THEN 怒りが 大 IF 信号レベルの変動=大 THEN 怒りが 中 図5に、前件部のメンバーシップ関数を示す。この例で
は、図5aに示すように、「音声継続時間が小」である
適合度は、0.7である。図5bに示す「第一フォルマ
ント周波数のシフトが負」である適合度は0.3であ
る。図5cに示す「信号レベルが大」である適合度は
0.4である。図5dに示す「信号立ち上がりの速さが
大」である適合度は0.9である。図5eに示す「信号
レベル変動が大」である適合度は0.2である。
は、図5aに示すように、「音声継続時間が小」である
適合度は、0.7である。図5bに示す「第一フォルマ
ント周波数のシフトが負」である適合度は0.3であ
る。図5cに示す「信号レベルが大」である適合度は
0.4である。図5dに示す「信号立ち上がりの速さが
大」である適合度は0.9である。図5eに示す「信号
レベル変動が大」である適合度は0.2である。
【0023】以上の前件部により、後件部である「怒り
が大」である確からしさを、図6に示すように、「最大
高さ法」により求める。この場合、「怒りが大」である
適合度は、ルールの適合度が0.7であり、ルール
の適合度は0.9であるので0.9になる。「怒りが
中」である適合度は、ルールの適合度が0.4であ
り、ルールの適合度は0.2であり、ルールの適合
度は0.3であるので0.4になる。従って、「怒りが
中」の適合度が0.4であって、「怒りが大」である適
合度がより大きい0.9であることにより、「怒りが
大」が、全体の結論とされる。
が大」である確からしさを、図6に示すように、「最大
高さ法」により求める。この場合、「怒りが大」である
適合度は、ルールの適合度が0.7であり、ルール
の適合度は0.9であるので0.9になる。「怒りが
中」である適合度は、ルールの適合度が0.4であ
り、ルールの適合度は0.2であり、ルールの適合
度は0.3であるので0.4になる。従って、「怒りが
中」の適合度が0.4であって、「怒りが大」である適
合度がより大きい0.9であることにより、「怒りが
大」が、全体の結論とされる。
【0024】その他、「あせり」、「喜び」、・・・な
どについて確からしさを演算することができる。以上の
ように、ファジイ推論を行う。
どについて確からしさを演算することができる。以上の
ように、ファジイ推論を行う。
【0025】なお、この実施例では、「最大高さ法」に
より後件部を求めたが、「重心法」によってもよい。
より後件部を求めたが、「重心法」によってもよい。
【0026】これにより、音声認識装置において、音声
の変化幅が大きいことにより、認識率が向上しないとい
う問題点があるが、感情認識装置により感情を推定し
て、音声の変化幅を補正して認識率を上げることが可能
となる。
の変化幅が大きいことにより、認識率が向上しないとい
う問題点があるが、感情認識装置により感情を推定し
て、音声の変化幅を補正して認識率を上げることが可能
となる。
【0027】次に、この実施例を利用した具体例を示
す。この例では、ファミコンゲーム「ドラゴンクエス
ト」などのロールプレイングゲームに利用している。図
8に、ブロック図を示す。CPU80には、ゲームソフ
ト(ROM)84,RAM86,パラメータメモリ8
8,CRT90が接続されている。さらに、マイクロホ
ン92と感情認識装置82、ゲーム用操作杆94が、イ
ンターフェース96、98を介して、接続されている。
す。この例では、ファミコンゲーム「ドラゴンクエス
ト」などのロールプレイングゲームに利用している。図
8に、ブロック図を示す。CPU80には、ゲームソフ
ト(ROM)84,RAM86,パラメータメモリ8
8,CRT90が接続されている。さらに、マイクロホ
ン92と感情認識装置82、ゲーム用操作杆94が、イ
ンターフェース96、98を介して、接続されている。
【0028】まず、マイクロホン92を通じて入力され
た音声は、感情認識装置82により、感情を認識され、
RAM86に記憶される。CPU80は、パラメータメ
モリ88に記憶されている「攻撃力」のパラメータを、
RAM86に記憶されている感情により変化させる。例
えば、「怒り」が大であれば、パラメータを増にし、
「あせり」が大であれば、パラメータを減にする。これ
により、ゲームを行う者の心理状態に応じた「攻撃力」
を用いて、より現実感があるゲームを楽しむことができ
る。
た音声は、感情認識装置82により、感情を認識され、
RAM86に記憶される。CPU80は、パラメータメ
モリ88に記憶されている「攻撃力」のパラメータを、
RAM86に記憶されている感情により変化させる。例
えば、「怒り」が大であれば、パラメータを増にし、
「あせり」が大であれば、パラメータを減にする。これ
により、ゲームを行う者の心理状態に応じた「攻撃力」
を用いて、より現実感があるゲームを楽しむことができ
る。
【0029】また、音声により認識された心理状態に合
せて、BGMや照明などを変えることもできるため、住
宅環境における快適さを得ることもできる。例えば、精
神状態が不安定と認識された時に、精神を安定させるバ
ロック音楽などをBGMに流すことが効果的になる。
せて、BGMや照明などを変えることもできるため、住
宅環境における快適さを得ることもできる。例えば、精
神状態が不安定と認識された時に、精神を安定させるバ
ロック音楽などをBGMに流すことが効果的になる。
【0030】
【発明の効果】請求項1の感情認識装置は、特徴信号抽
出手段が、感情に対応する音声信号の特徴を抽出する。
ズレ検出手段は、基準となる音声信号と特徴信号とのズ
レ量を検出する。感情判断手段は、前記ズレ量に基づい
て、感情状態を判断する。従って、感情を適切に判断す
ることができる。
出手段が、感情に対応する音声信号の特徴を抽出する。
ズレ検出手段は、基準となる音声信号と特徴信号とのズ
レ量を検出する。感情判断手段は、前記ズレ量に基づい
て、感情状態を判断する。従って、感情を適切に判断す
ることができる。
【図面の簡単な説明】
【図1】この発明の一実施例による感情認識装置の構成
図である。
図である。
【図2】この発明の一実施例による感情認識装置のブロ
ック図である。
ック図である。
【図3】特徴信号抽出回路を示す図である。
【図4】正規化ズレ検出回路を示す図である。
【図5】前件部のメンバーシップ関数を示す図である。
【図6】後件部のメンバーシップ関数を示す図である。
【図7】この発明の一実施例による感情認識装置のブロ
ック図である。
ック図である。
10・・・特徴信号抽出手段 12・・・ズレ検出手段 14・・・感情判断手段
Claims (1)
- 【特許請求の範囲】 【請求項1】感情に対応する音声信号の特徴を抽出する
特徴信号抽出手段、 基準となる音声信号と特徴信号とのズレ量を検出するズ
レ検出手段、 前記ズレ量に基づいて、感情状態を判断する感情判断手
段、 を備えたことを特徴とする感情認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3164243A JPH0512023A (ja) | 1991-07-04 | 1991-07-04 | 感情認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3164243A JPH0512023A (ja) | 1991-07-04 | 1991-07-04 | 感情認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0512023A true JPH0512023A (ja) | 1993-01-22 |
Family
ID=15789399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3164243A Pending JPH0512023A (ja) | 1991-07-04 | 1991-07-04 | 感情認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0512023A (ja) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002034936A (ja) * | 2000-07-24 | 2002-02-05 | Sharp Corp | 通信装置および通信方法 |
WO2002023524A1 (fr) * | 2000-09-13 | 2002-03-21 | A.G.I.Inc. | Procédé de reconnaissance d'émotion, procédé de création de sensibilité, dispositif, et logiciel |
JP2002509267A (ja) * | 1997-12-16 | 2002-03-26 | アミール・リバーマン | 情動状態検出装置及び方法 |
JP2002091482A (ja) * | 2000-09-13 | 2002-03-27 | Agi:Kk | 感情検出方法及び感情検出装置ならびに記録媒体 |
JP2002108929A (ja) * | 2000-10-04 | 2002-04-12 | Up Coming:Kk | 関連情報検索システム及び方法、並びにコンピュータ読取可能な記録媒体 |
JP2002215183A (ja) * | 2001-01-16 | 2002-07-31 | Agi:Kk | 感性発生方法及び感性発生装置並びにソフトウェア |
KR20040038419A (ko) * | 2002-11-01 | 2004-05-08 | 에스엘투(주) | 음성을 이용한 감정인식 시스템 및 감정인식 방법 |
JP2004514178A (ja) * | 2000-11-17 | 2004-05-13 | フォルスカーパテント アイ エスワイディ アクチボラゲット | 音声の分析の方法及び装置 |
US6761131B2 (en) | 2001-08-06 | 2004-07-13 | Index Corporation | Apparatus for determining dog's emotions by vocal analysis of barking sounds and method for the same |
JP2006127057A (ja) * | 2004-10-27 | 2006-05-18 | Canon Inc | 推定装置、及びその制御方法 |
US7116284B2 (en) | 1999-12-02 | 2006-10-03 | Canon Kabushiki Kaisha | Control apparatus of virtual common space using communication line |
JP2006293102A (ja) * | 2005-04-12 | 2006-10-26 | Saga Univ | 受講者の自信の有無判定による理解度チェックを伴う教育システム |
US7203558B2 (en) | 2001-06-05 | 2007-04-10 | Open Interface, Inc. | Method for computing sense data and device for computing sense data |
JP2007287177A (ja) * | 2002-12-11 | 2007-11-01 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
US7315821B2 (en) | 2002-01-31 | 2008-01-01 | Sanyo Electric Co., Ltd. | System and method for health care information processing based on acoustic features |
JP2008076905A (ja) * | 2006-09-22 | 2008-04-03 | Univ Of Tokyo | 感情判別方法 |
US7486969B2 (en) | 2003-05-20 | 2009-02-03 | Ntt Docomo, Inc. | Transmitting portable terminal |
KR100903348B1 (ko) * | 2007-11-28 | 2009-06-23 | 중앙대학교 산학협력단 | 특징 융합 기반 감정인식 방법 및 시스템 |
WO2009125710A1 (ja) * | 2008-04-08 | 2009-10-15 | 株式会社エヌ・ティ・ティ・ドコモ | メディア処理サーバ装置およびメディア処理方法 |
KR101330268B1 (ko) * | 2012-09-12 | 2013-11-15 | 가천대학교 산학협력단 | 가중 퍼지 소속 함수 기반 뉴로 퍼지 네트워크를 이용한 음성 감정 인식 모델 생성 방법 |
CN104851422A (zh) * | 2015-06-09 | 2015-08-19 | 张维秀 | 一种语音信号处理方法及系统 |
WO2018188097A1 (zh) * | 2017-04-14 | 2018-10-18 | 格兰比圣(深圳)科技有限公司 | 一种家庭氛围调节的方法及装置 |
CN108806686A (zh) * | 2018-07-09 | 2018-11-13 | 广东小天才科技有限公司 | 一种语音搜题应用的启动控制方法及家教设备 |
-
1991
- 1991-07-04 JP JP3164243A patent/JPH0512023A/ja active Pending
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002509267A (ja) * | 1997-12-16 | 2002-03-26 | アミール・リバーマン | 情動状態検出装置及び方法 |
US7116284B2 (en) | 1999-12-02 | 2006-10-03 | Canon Kabushiki Kaisha | Control apparatus of virtual common space using communication line |
JP2002034936A (ja) * | 2000-07-24 | 2002-02-05 | Sharp Corp | 通信装置および通信方法 |
US7340393B2 (en) | 2000-09-13 | 2008-03-04 | Advanced Generation Interface, Inc. | Emotion recognizing method, sensibility creating method, device, and software |
JP2002091482A (ja) * | 2000-09-13 | 2002-03-27 | Agi:Kk | 感情検出方法及び感情検出装置ならびに記録媒体 |
CN100370414C (zh) * | 2000-09-13 | 2008-02-20 | 株式会社A·G·I | 感受能力生成器及其方法 |
KR100714535B1 (ko) * | 2000-09-13 | 2007-05-07 | 가부시키가이샤 에이.지.아이 | 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어를 저장한 컴퓨터로 읽을 수 있는 기록매체 |
WO2002023524A1 (fr) * | 2000-09-13 | 2002-03-21 | A.G.I.Inc. | Procédé de reconnaissance d'émotion, procédé de création de sensibilité, dispositif, et logiciel |
JP2002108929A (ja) * | 2000-10-04 | 2002-04-12 | Up Coming:Kk | 関連情報検索システム及び方法、並びにコンピュータ読取可能な記録媒体 |
JP2004514178A (ja) * | 2000-11-17 | 2004-05-13 | フォルスカーパテント アイ エスワイディ アクチボラゲット | 音声の分析の方法及び装置 |
JP2002215183A (ja) * | 2001-01-16 | 2002-07-31 | Agi:Kk | 感性発生方法及び感性発生装置並びにソフトウェア |
US7203558B2 (en) | 2001-06-05 | 2007-04-10 | Open Interface, Inc. | Method for computing sense data and device for computing sense data |
US6761131B2 (en) | 2001-08-06 | 2004-07-13 | Index Corporation | Apparatus for determining dog's emotions by vocal analysis of barking sounds and method for the same |
US7315821B2 (en) | 2002-01-31 | 2008-01-01 | Sanyo Electric Co., Ltd. | System and method for health care information processing based on acoustic features |
KR20040038419A (ko) * | 2002-11-01 | 2004-05-08 | 에스엘투(주) | 음성을 이용한 감정인식 시스템 및 감정인식 방법 |
JP2007287177A (ja) * | 2002-12-11 | 2007-11-01 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
JP4525712B2 (ja) * | 2002-12-11 | 2010-08-18 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びに記録媒体 |
US7486969B2 (en) | 2003-05-20 | 2009-02-03 | Ntt Docomo, Inc. | Transmitting portable terminal |
US7766828B2 (en) | 2004-10-27 | 2010-08-03 | Canon Kabushiki Kaisha | Estimation apparatus and its control method |
JP2006127057A (ja) * | 2004-10-27 | 2006-05-18 | Canon Inc | 推定装置、及びその制御方法 |
JP2006293102A (ja) * | 2005-04-12 | 2006-10-26 | Saga Univ | 受講者の自信の有無判定による理解度チェックを伴う教育システム |
JP2008076905A (ja) * | 2006-09-22 | 2008-04-03 | Univ Of Tokyo | 感情判別方法 |
KR100903348B1 (ko) * | 2007-11-28 | 2009-06-23 | 중앙대학교 산학협력단 | 특징 융합 기반 감정인식 방법 및 시스템 |
WO2009125710A1 (ja) * | 2008-04-08 | 2009-10-15 | 株式会社エヌ・ティ・ティ・ドコモ | メディア処理サーバ装置およびメディア処理方法 |
JPWO2009125710A1 (ja) * | 2008-04-08 | 2011-08-04 | 株式会社エヌ・ティ・ティ・ドコモ | メディア処理サーバ装置およびメディア処理方法 |
KR101330268B1 (ko) * | 2012-09-12 | 2013-11-15 | 가천대학교 산학협력단 | 가중 퍼지 소속 함수 기반 뉴로 퍼지 네트워크를 이용한 음성 감정 인식 모델 생성 방법 |
CN104851422A (zh) * | 2015-06-09 | 2015-08-19 | 张维秀 | 一种语音信号处理方法及系统 |
WO2018188097A1 (zh) * | 2017-04-14 | 2018-10-18 | 格兰比圣(深圳)科技有限公司 | 一种家庭氛围调节的方法及装置 |
CN108806686A (zh) * | 2018-07-09 | 2018-11-13 | 广东小天才科技有限公司 | 一种语音搜题应用的启动控制方法及家教设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0512023A (ja) | 感情認識装置 | |
Büchler et al. | Sound classification in hearing aids inspired by auditory scene analysis | |
US6697457B2 (en) | Voice messaging system that organizes voice messages based on detected emotion | |
US6353810B1 (en) | System, method and article of manufacture for an emotion detection system improving emotion recognition | |
US6427137B2 (en) | System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud | |
EP1222656B1 (en) | Telephonic emotion detector with operator feedback | |
EP1222448B1 (en) | System, method, and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters | |
JP3676969B2 (ja) | 感情検出方法及び感情検出装置ならびに記録媒体 | |
US8428945B2 (en) | Acoustic signal classification system | |
US8473282B2 (en) | Sound processing device and program | |
JPH0222398B2 (ja) | ||
CN114093386A (zh) | 一种面向教育的多维度歌唱评价方法 | |
KR20170073113A (ko) | 음성의 톤, 템포 정보를 이용한 감정인식 방법 및 그 장치 | |
CN114822502A (zh) | 一种报警方法、报警装置、计算机设备、以及存储介质 | |
JP2017187676A (ja) | 音声判別装置、音声判別方法、コンピュータプログラム | |
JP3232112B2 (ja) | 小節境界時刻抽出装置 | |
JPH0430040B2 (ja) | ||
JP2968976B2 (ja) | 音声認識装置 | |
JP2005010652A (ja) | 音声検出装置 | |
JPH10187178A (ja) | 歌唱の感情分析装置並びに採点装置 | |
JP2004317822A (ja) | 感情分析・表示装置 | |
JP2557497B2 (ja) | 男女声の識別方法 | |
CN110895941A (zh) | 声纹识别方法、装置及存储装置 | |
He et al. | Emotion recognition in speech of parents of depressed adolescents | |
Marolt | Adaptive oscillator networks for partial tracking and piano music transcription |