JP2002509267A - 情動状態検出装置及び方法 - Google Patents
情動状態検出装置及び方法Info
- Publication number
- JP2002509267A JP2002509267A JP2000539473A JP2000539473A JP2002509267A JP 2002509267 A JP2002509267 A JP 2002509267A JP 2000539473 A JP2000539473 A JP 2000539473A JP 2000539473 A JP2000539473 A JP 2000539473A JP 2002509267 A JP2002509267 A JP 2002509267A
- Authority
- JP
- Japan
- Prior art keywords
- individual
- plateau
- information
- emotion
- emotional state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 42
- 238000001514 detection method Methods 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 title claims description 32
- 230000002996 emotional effect Effects 0.000 claims description 54
- 230000007935 neutral effect Effects 0.000 claims description 23
- 238000011156 evaluation Methods 0.000 claims description 4
- 230000006641 stabilisation Effects 0.000 claims 1
- 238000011105 stabilization Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000739 chaotic effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000006461 physiological response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/92—Computer assisted medical diagnostics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Steroid Compounds (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
Description
1984号に、対象(人物)の情動に関する少なくとも1つの生理学的可変特性
のバイオフィードバック制御方法、即ち、対象の情動状態、即ち、情動による少
なくとも1つの音声パラメータ特徴を探索してその表示信号を発生する段階及び
該表示信号を用いて当該対象を少なくとも1つの生理学的変数をもって表示する
段階とを含む、生体自己制御方法が記載されている。このシステムは、スタンド
アロンモードにて、即ち、電話回線を介して主体から隔てた場所で発生するよう
にして当該方法を実施するようにしたものである。対象人物の情動に関係する情
報は遠隔当事者に口答で、即ち、インターネットを介して逐次伝送され、次いで
、所望に処理される。
537A2号)に、連続音声におけるアクセントを決定する方法及び装置が記載
されている。会話中に認識された連続音声により音声モデルが作成される。音声
会話中の一連の音声をモデル化した音声と比較することにより両者間の相違点が
得られる。
考用として本明細書に取込んで記述される。
のである。
するものであり、該装置は、個人により発生された音声試料を入力するとともに
これらの入力音声試料からイントネーション情報を導出するようにした、音声分
析器と、上記イントネーション情報に基づき個人の情動を表わす表示出力を発生
するようにした、情動記録器とを含む。
析器に供給される。
記個人の情動状態に基づくうそ検出報告を含む。
トネーション情報を含む。
情報を含む。
くとも4次元情報を含む。
(不安定期)に関連する情報を含む。
は予め定めた時間中に存在するソーンの数量から構成される。
は時間に関するソーン分布を含む。
安定期)に関連する情報を含む。
報は予め定めた時間中に存在するプラトーの数量から構成される。
トー(安定期)の期間長さに関連する情報を含む。
報は予め定めた時間中の平均プラトー期間長さを含む。
は予め定めた時間中のプラトー期間長さの標準誤りを含む。
力するとともに該音声試料における複数の特徴事項を定量化するように作用する
、多次元音声分析器;及び上記定量化された複数の特徴事項に基づき、うその検
出を含む、個人の信頼性指示出力を発生するように作用する、信頼性評価報告器
により構成したうそ検出装置が提供される。
領するとともに該音声試料における複数の特徴事項を定量化する段階;及び上記
定量化された複数の特徴事項に基づき、うその検出を含む、個人の信頼性指示出
力を発生する段階を含む、うそ検出方法が提供される。
波により構成され、音声分析器は上記主音声波に重畳したローカル低周波により
指示されるプラトー(安定期)の出現率を決定するために上記音声試料を分析す
るように作用し、情動記録器は上記プラトーの出現率に基づいて適当な指示を出
力する。例えば、プラトー出現率の変化が発見されたとき、情動報告が適当な指
示出力を提供するようにする。
とを示す。本明細書に記載されると共に説明されるように、ソーン及びプラトー
を分析する利点は、実質的に、音声波の全ての周波数が分析されることにある。
における第1期間にわたって複数の情動関連パラメータに関して上記個人を探索
するとともに上記第1期間中、上記情動関連パラメータ範囲の関数として特徴範
囲を特定することにより、上記個人の情動範囲を特徴付ける、多次元特徴範囲を
確立し;及び上記個人の情動状態を検出しようとするとき、該個人を、第2期間
にわたって上記情動関連パラメータに関して探索し、上記複数の情動パラメータ
の測定値を得、これらの測定値を上記特徴範囲を考慮して調整するようにした、
情動状態検出方法が提供される。
たり、個人により発生された音声試料を受領するとともに該音声試料からイント
ネーション情報を導出し、上記イントネーション情報に基づき上記個人の情動状
態を指示する出力を発生するようにした、情動状態検出方法が提供される。
解及び評価の便宜に供せられる。
フトウェアのコンピュータリストである。
は、米国特許商標庁における特許ファイル又は記録簿に存在し、さもなければ、
当該著作権の全てが保存される限りにおいて、何人も当該特許書類又は特許開示
物をファクシミリにより複製することに異存は無い。
ある。実施例において、図示されるように、電話回線を伝わって入来する音声入
力が当該装置により受信される。この装置は、話者の情動状態の指示を得るため
に、入力音声を分析し、例えば、図示するように、上記指示を表示器画面に表示
してユーザにリアルタイムに提供される。
化動作流れ図である。この図1Bの方法は、好ましくは次のステップを含む: 初期化ステップ10:詳細に後述するように、種々の情動を指示しようとする
範囲を特定する、色々なパラメータの閾値等の定数が定義される。
の音声セグメント、即ち、0.5秒毎に連続して記録される。それに代えて、上
記セグメントは、他の適当な長さとするか又は重複しない長さのものとすること
ができる。例えば、隣接するセグメントは、1つ又は数個のサンプルを除いて、 略完全に重複するものとされる。 音声記録をデジタル化する。 上記記録を構成する追加的に、即ち、交番状に重複するセグメントの標本が採
取される。
音声情報を包含すると思われる音声セグメントの部分を選定するために、音声セ
グメントを分析する。適当な音声情報検出基準は振幅であり、例えば、閾値を超
える振幅の最初の部分が音声情報の開始部分とみなされ、音声情報の最終部は予
め定められた期間中に閾値を超過する音声が見出せなくなった後の時点であると
みなされる。
モリが適用されるのであれば、例えば、+/−127振幅ユニットを当該メモリ
に収容できる、振幅の全範囲を利用するために当該サンプルを増幅することによ
り正規化される。
の数量を計数する。各同定されたプラトー長さを演算し、当該重要部分に対する
平均プラトー長さ及び該プラトー長さに対する標準誤りを演算する。
は、次のように定義される: a. 隣接した3つの連続したサンプルであって、1番目及び3番
目のサンプルの振幅が共に中間のサンプルより高いか、又は b. 隣接した3つの連続したサンプルであって、1番目及び3番
目のサンプルの振幅が共に中間のサンプルより低いもの 好ましくは、ソーンは、たとえ、1番目及び3番目のサンプルの振幅が共に中
間のサンプルより非常に僅かだけ相違する、即ち、サンプル間の違いに対する最
小閾値の無いものであっても宣言される。一方、好ましくは、ソーンのベースラ
インに対し最小閾値とされ、即ち、非常に低い振幅をもって生じたソーンは無視
され、それというのも、これらのセグメントは音声に関するものというより背景
雑音に関するものと考えられるからである。
を示す。 “プラトー(安定期)”は、音声波における局所的平坦部分である。プラトー
(安定期)とは、例えば、連続した平坦部分の長さが予め定められた最小閾値よ
り大きくかつ予め定められた最大閾値より小さいものと定義される。最小閾値は
局所的平坦部分を無声又は沈黙期間と識別することを要する。もし、連続したサ
ンプル間の振幅差が予め定められた閾値、例えば、8ビットメモリを適用したと
き、5振幅目盛分小さければ、当該シーケンス(連続サンプル)は平坦であると
みなされる。
である。付録Aにおいて、プラトーは“jumps(ジャンプ)”と称される。 本発明の装置は、代表的に、1つ又は2つのモードで操作される: a. 較正(Calibration)―― 対象(個人)は横臥及び/又は中
立情動状態としたまま、該対象を探索することにより当該対象の真実/中立情動
状態のプロフィールを確立する。 b. テスト(Testing)―― 情動状態を確立する及び/又は当該
対象を誠実状態かどうかを確立すべく、当該対象の音声と、較正時に確立される
ような当該対象の真実/中立情動状態のプロフィールとの比較を行う。
までの方法が実行される。該装置をテストモードで使用するのであれば、ステッ
プ50からステップ80までの方法が実行される。
処理に付されたことを指示する。したがって、ステップ40において導出された
ソーン及びプラトー情報が較正テーブルに蓄積される。 ここで、ステップ20〜ステップ50の処理は“音声記録入力処理(voice re
cording entering processes)”と定義される。較正の目的で更に音声記録を入
力する必要があれば、ステップ20に戻る。較正の目的のための全ての音声記録
の入力が完了すれば、当該方法はステップ80に進む。
ロフィールを作成する。これは較正モードで操作される。引続いて、当該装置は
テストモードに入り、虚偽又は緊張情動事態を同定するために、当該対象の音声
記録がそれの真実/中立情動状態プロフィールと比較される。この対象のプロセ
ッサーは、代表的に、ソーン/プラトー情報の中心傾向に反映されるとともに、 代表的に、擬似較正状態を考慮して調整される。例えば、較正開始時における自
然ストレスのため、初期音声記録はその後の音声記録よりも信頼性が低い。好ま
しくは、信頼性のある中心傾向の指示を得るために、較正テーブルにおける極端
な入力は排除されなければならない。
現セグメントを分類すべく、ステップ90における比較処理結果に閾値を設定す
る。
態が既に終焉した後も消え去らないものである。ステップ105を実行するため
の適当な実施例が図8のフローチャート(動作流れ図)において記述される。
ッセージを表示する。
戻る。それとも、終了する。適当な数m個のセグメントが、例えば、5個のセグ
メントが較正に使用される。
る簡略フローチャート(動作流れ図)である。上述したように、ステップ40に
おいて、現音声記録セグメントの重要部分に対するソーン/プラトー情報が発生
される。
る。
開始(loop on)される。このループは第1重要サンプルにおいて開始され、最 後から2番目の重要サンプルにおいて終る。
ップ190、ステップ195、ステップ200及びステップ210において、プ
ラトーの検出が行なわれる。
例えば、3〜20の範囲内のものであれば、長さjjのプラトー数が増分(インク
リメント)されるとともにPlat及びプラトーの総数量が増分(インクリメント)
される。そうでなければ、即ち、もし、候補プラトーの長さが3より小さいか、
又は、20を超えるものであれば、該候補プラトーはプラトーと認められない。
プラトー長さ、jjは、零(0)とされる(ステップ210)。
サンプルのチェックが完了した時点である。
(JQ)、jjmapが演算される。
あたりの平均ソーン数量であり、好ましくは、適当に正規化される。SPJは各
サンプルあたりの平均プラトー数量であり、好ましくは、適当に正規化される。
ち、情動状態が、複数の、好ましくは独立した中間変数を介して音声情報から導
出される。
る。 MinJQは、任意のm個のセグメントについて計測された最小JQ値である。 MaxJQは、任意のm個のセグメントについて計測された最大JQ値である。
には、ResSPTは、対象(人物)が真実/中立情動状態にあるときに予測さ
れ得るソーン数量の変動程度を指示する。したがって、音声セグメントにおける
ソーン数量が、ResSPTに関して非標準的であれば、当該対象は、興奮又は
準覚醒によって特徴付けられる情動状態等の非中立状態にあるといえる。よって
、ResSPTは、代表的に、情動環境が知られない間に発生されたSPT値の
計測処理に対する入力とされる。
には、ResSPJは、対象(人物)が真実/中立情動状態にあるときに予測さ
れ得るプラトー数量の変動程度を指示する。したがって、音声セグメントにおけ
るプラトー数量が、ResSPJに関して非標準的であれば、当該対象は、内部
矛盾又は認知的不協和感情によって特徴付けられる情動状態等の非中立状態にあ
るといえる。よって、ResSPJは、代表的に、情動環境が知られない間に発
生されたSPJ値の計測処理に対する入力とされる。
無く、それに代えて、1次元又は4次元以上の多次元のものであってもよい。
ましい方法の簡略化した流れ図である。上述したように、ステップ90において
、現在セグメントのソーン/プラトー情報がステップ80において演算された真
実/中立情動基準値と比較される。
動状態プロフィールからの偏差を演算する。説明された実施例において、偏差は
、ソーン数量に関連した第1成分、プラトー数量に関連した第2成分、プラトー
期間中の標準誤りに関連した第3成分及びプラトー期間の平均長さに関連した第
4成分から構成される。一方、別異のアプリケーションには異なった成分を使用
することが考えられる。例えば、幾つかのアプリケーションでは、ある時間間隔
にわたる(均一なソーン、不規則なソーン等の)ソーン分布は対象の情動状態に
関して情報を導出するのに有用である。
けるソーン数量との比率の許容範囲を特徴付ける閾値である。 “破断点J”は、真実/中立情動環境における平均プラトー数量と現主要部に
おけるプラトー数量との比率の許容範囲を特徴付ける閾値である。 “破断点Q”は、真実/中立情動環境におけるプラトー数量の平均標準誤りと
現主要部におけるプラトー数量の標準誤りとの比率の許容範囲を特徴付ける閾値
である。 “破断点A”は、真実/中立情動環境における平均プラトー長さと現主要部に
おける平均プラトー長さとの比率の許容範囲を特徴付ける閾値である。
を考慮するために対象プロフィールを更新する。上述した実施例において、現主
要部の以前に演算された対象の真実/中立情動状態プロフィールからの偏差が非
常に大きいか(例えば、最高限度値を超えるか)又は非常に小さい(例えば、最
低限度値を下回る)とき、ResSPT値及びResSPJ値のみが更新される
。現主要部の上記真実/中立情動状態プロフィールからの偏差が非常に大きくな
いか又は小さくない(例えば、最高限度と最低限度間の値である)と、対象プロ
フィールは当該段階では代表的に変更されない。
Jがそれぞれ極めて零(0)に近い値であれば、当該装置の感度は、ResSP
T値及びResSPJ値をそれぞれ漸減することにより高められる。
において演算された偏差成分の特定の組合せが発生される。これらの組合せは、
適当な情動分類基準、例えば、図7において特定される情動分類基準等の基礎と
して用いられる。図7の情動分類基準は、誇張であるか、不誠実であるか、言い
紛らわしであるか、混沌とし若しくは不確かであるか、興奮しているか、又は辛
辣であるかどうかを判定するものである。一方、異なった状況に在っては、異な
った情動分類基準を適用するようにしてもよい。
られる。更に、詳しくは、zzSPTはcrEXCITE値を決定するのに用い
られる。crEXCITE値はcrSTRESS等の付加パラメータに依存する
ものである。例えば、crEXCITE値が、70〜120の範囲内にあれば正
常とみなされる一方、120〜160の範囲内にあれば中程度の興奮状態とみな
され、160を超えた値であれば、高レベルの興奮状態とみなされる。
用いられる。例えば、zzSPJ値が0.6〜1.2の範囲内にあれば、正常と
みなされるが、1.2〜1.7の範囲内にあれば、混沌としているか若しくは不
確かを表示しているとみなされる。1.7を超えた値は、対象の部分についての
音声意識及び/又は対象の音声制御の意図を表示しているものとみなされる。
レベルを判定するのに用いられる。例えば、crSTRESS値が70〜120
の範囲内にあれば、正常とみなされる一方、120を超えた値であれば、高度の
ストレスを表わしているとみなされる。
数を判定するのに用いられる。例えば、crTHINK値が100を超えれば、
最終の会話文中に検出された考慮度数は、較正位相において検出された考慮度数
よりも高いことを表している。これは、較正位相において考慮したことよりも会
話中のことについてより多く考慮していることを意味する。もし、該crTHI
NK値が100を下回れば、その人は、較正位相において考慮したよりも会話中
のことについて考慮することが少ない。
られる。crLIE値が50を下回るときは、不真誠であることを表わし、50
〜60の範囲内にあれば、辛辣若しくはユーモアであることを表わし、60〜1
30の範囲内に在れば、真誠であることを表わし、130〜170の範囲内に在
れば、不正確若しくは誇張であること表わすものとみなされ、170を超えた値
であれば、不誠実であることを表わすものとみなされる。
破断点T=破断点J=破断点Q=破断点A=1.1 最高限度値T=最高限度値J=1.1 最低限度値J=最低限度値T=−0.6 増分T=増分J=減分T=減分J=0.1 最小値T=最小値J=0.1 上記の全ての数値は単なる一例であって、代表的なアプリケーションに依存す
るものである。
るメッセージに変換する方法を示す図である。
のコンピュータリストであり、該コンピュータリストは、本明細書において図面
を参照して示されかつ記述される実施例とは若干異なっている。
バージョン5ソフトウェアを具備したPC(パーソナルコンピュータ)に新しい
プロジェクトが発生される。
8ビット、モノラル、PCMに応じて作用する。 b. 新しいプロジェクトに現れるデフォルトフォームにタイマー
目標を設定する。このタイマー目標を“timer 1(タイマー1)”と称する。 c. 上記フォームにMCIマルチメディア制御目的を設定する。
この目的を“mm control 1(mmコントロール1)”と称する。 d. 上記フォームに5つのラベル目的(label object)を設定す
る。これらのラベルを、ラベル1、ラベル2、ラベル3、ラベル4及びラベル6
と称する。 e. 上記フォームに4つのアレイを作成する。これらのアレイに
次のような名前を付す;SPT(0.4)、SPJ(0.4)、JQ(0.4)
及びAVJ(0.4)。 f. 上記フォームにコマンドボタンを設定するとともにその終了
すべき主要特性を変更する。上記コマンドボタンを“command 1”と称する。 g. 上記付録Aにおける“form 1”と表題が付されたページに、
キーボードからの入力操作により上記フォーム用のコードを発生する。 h. プロジェクトにモジュールを加える。上記付録Aにおける“
Feelings _detector”と表題が付されたページに、キーボードからの入力操作に
より上記モジュール用のコードを発生する。 i. 上記PCにマイクロフォンを接続する。 j. 上記アプリケーションをスタートするために、キー(F5)又
は“run”を押圧する。
ームを描いたディスプレイ表示画面の画像を示す図である。
描いたディスプレイ表示画面の画像を示す図である。
画面の画像を示す図である。
る。
装置は本発明の好ましい実施例に応じて構成されるとともに作動し、図1Bの方
法を実施するように作用する。図示するように、図12の装置は、A/D変換器
を介して情動検出ワークステーション735により入力するようにした音声を発
生する、テープレコーダ700、マイクロフォン710又は電話器720等の音
声入力機器を含む。音声窓記録器750は、代表的に、入来する音声表現信号を
音声窓又はセグメントに区分して、それぞれ、音声窓分析器760により分析さ
れる。上記音声分析器は、各音声窓又はセグメントを、ユニット770に蓄積さ
れた較正データと比較する。この較正データは、代表的に、詳細に前述したよう
に、各対象の個人から個別に導出される。表示器又はプリンタ780は、好まし
くは、オン−ライン方式で、当該システムにおける各ユーザ用に情動状態報告を
表示又は印刷する。
モリ)形式で実装することができる。このようなソフトウェア構成要素は、一般
に、所望により、公知の方法でハードウェアに実装するようにしてもよい。
たものであり、それに限定する意図はない。
は、単一の実施例に組込むことができる。これと反対に、簡潔化のため、単一の
実施例に関連して記述された本発明の種々の特徴は個別化し又は適当なサブコン
ビネーションをもって実施することができる。
は明らかなことであり、むしろ、本発明の範囲は、請求の範囲の記載のみにより
特定される。
図である。
作流れ図である。
流れ図である。
めの好ましい方法の簡略動作流れ図である。
の好ましい方法の簡略動作流れ図である。
作流れ図である。
作流れ図である。
フォームを描写した表示画面の画像図である。
対する較正時でのフォームを描写した表示画面の画像図である。
時でのフォームを描写した表示画面の画像図である。
である。
Claims (19)
- 【請求項1】 個人により発生された音声試料を入力するとともに該音声試
料からイントネーション情報を導出するように作用する、音声分析器;及び 上記イントネーション情報に基づき個人の情動状態指示出力を発生するように
作用する、情動報告器により構成した、個人の情動状態検出装置。 - 【請求項2】 音声試料が電話器を介して音声分析器に供給される、請求項
1に記載の装置。 - 【請求項3】 個人の情動状態についての報告が個人の情動状態に基づくう
そ検出報告を含む、請求項1に記載の装置。 - 【請求項4】 イントネーション情報が多次元イントネーション情報から成
る、請求項1〜請求項3のいずれかに記載の装置。 - 【請求項5】 多次元イントネーション情報が少なくとも3次元情報から成
る、請求項4に記載の装置。 - 【請求項6】 多次元イントネーション情報が少なくとも4次元情報から成
る、請求項4に記載の装置。 - 【請求項7】 イントネーション情報がソーン(不安定期)に関連する情報
を含む、請求項1〜請求項3、請求項5〜請求項6のいずれかに記載の装置。 - 【請求項8】 ソーンに関連する情報が予め定めた時間中に存在するソーン
数量から成る、請求項7に記載の装置。 - 【請求項9】 ソーンに関連する情報が時間に関するソーン分布を構成する
、請求項8に記載の装置。 - 【請求項10】 イントネーション情報がプラトー(安定期)に関連する情
報を含む、請求項1〜請求項3、請求項5〜請求項6、請求項8〜請求項9のい
ずれかに記載の装置。 - 【請求項11】 プラトーに関連する情報が予め定めた時間中に存在するプ
ラトー数量から成る、請求項10に記載の装置。 - 【請求項12】 プラトーに関連する情報がプラトーの期間長さに関連する
情報から成る、請求項11に記載の装置。 - 【請求項13】 プラトーの期間長さに関連する情報が予め定めた時間中の
平均プラトー期間長さから成る、請求項12に記載の装置。 - 【請求項14】 プラトーの期間長さに関連する情報が予め定めた時間中の
プラトー期間長さの標準誤りから成る、請求項12に記載の装置。 - 【請求項15】 個人により発生された音声試料を入力するとともに該音声
試料における複数の特徴事項を定量化するように作用する、多次元音声分析器;
及び 上記定量化された複数の特徴事項に基づき、うその検出を含む、個人の信頼性
指示出力を発生するように作用する、信頼性評価報告器 により構成された、うそ検出装置。 - 【請求項16】 個人により発生された音声試料を受領するとともに該音声
試料における複数の特徴事項を定量化する段階;及び 上記定量化された複数の特徴事項に基づき、うその検出を含む、個人の信頼性
指示出力を発生する段階 を含む、うそ検出方法。 - 【請求項17】 音声試料が周期を有する主音声波により構成され; 音声分析器が上記主音声波に重畳したローカル低周波により指示される、プラ
トー(安定期)の出現率を決定するために上記音声試料を分析するように作用し
;及び 情動記録器が上記プラトーの出現率に基づいて適当な指示を出力するようにし
た、請求項1〜請求項3、請求項5〜請求項6、請求項8〜請求項9、請求項1
1〜請求項15のいずれかに記載の装置。、 - 【請求項18】 情動状態を検出するにあたり: 安息時に、個人の情動の中立状態時における第1期間にわたって複数の情動関
連パラメータに関して上記個人を探索するとともに上記第1期間中、上記情動関
連パラメータ範囲の関数として特徴範囲を特定することにより、上記個人の情動
範囲を特徴付ける、多次元特徴範囲を確立し;及び 上記個人の情動状態を検出しようとするとき、該個人を、第2期間にわたって
上記情動関連パラメータに関して探索し、上記複数の情動パラメータの測定値を
得、これらの測定値を上記特徴範囲を考慮して調整するようにした、情動状態検
出方法。 - 【請求項19】 個人の情動状態を検出するにあたり、 個人により発生された音声試料を受領するとともに該音声試料からイントネー
ション情報を導出し;及び 上記イントネーション情報に基づき上記個人の情動状態を指示する出力を発生
するようにした、情動状態検出方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IL12263297A IL122632A0 (en) | 1997-12-16 | 1997-12-16 | Apparatus and methods for detecting emotions |
IL122632 | 1997-12-16 | ||
PCT/IL1998/000613 WO1999031653A1 (en) | 1997-12-16 | 1998-12-16 | Apparatus and methods for detecting emotions |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002509267A true JP2002509267A (ja) | 2002-03-26 |
JP2002509267A5 JP2002509267A5 (ja) | 2009-04-30 |
JP4309053B2 JP4309053B2 (ja) | 2009-08-05 |
Family
ID=11070983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000539473A Expired - Lifetime JP4309053B2 (ja) | 1997-12-16 | 1998-12-16 | 情動状態検出装置及び方法 |
Country Status (19)
Country | Link |
---|---|
US (1) | US6638217B1 (ja) |
EP (1) | EP1038291B1 (ja) |
JP (1) | JP4309053B2 (ja) |
CN (1) | CN1174373C (ja) |
AT (1) | ATE354159T1 (ja) |
AU (1) | AU770410B2 (ja) |
BR (1) | BR9814288A (ja) |
CA (1) | CA2313526C (ja) |
DE (1) | DE69837107T2 (ja) |
ES (1) | ES2283082T3 (ja) |
HK (1) | HK1034796A1 (ja) |
HU (1) | HU226537B1 (ja) |
IL (1) | IL122632A0 (ja) |
PL (1) | PL341296A1 (ja) |
PT (1) | PT1038291E (ja) |
RU (1) | RU2294023C2 (ja) |
TR (1) | TR200001765T2 (ja) |
TW (1) | TW446933B (ja) |
WO (1) | WO1999031653A1 (ja) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL129399A (en) | 1999-04-12 | 2005-03-20 | Liberman Amir | Apparatus and methods for detecting emotions in the human voice |
US6427137B2 (en) | 1999-08-31 | 2002-07-30 | Accenture Llp | System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud |
US6275806B1 (en) * | 1999-08-31 | 2001-08-14 | Andersen Consulting, Llp | System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters |
US6480826B2 (en) * | 1999-08-31 | 2002-11-12 | Accenture Llp | System and method for a telephonic emotion detection that provides operator feedback |
US6463415B2 (en) * | 1999-08-31 | 2002-10-08 | Accenture Llp | 69voice authentication system and method for regulating border crossing |
US7222075B2 (en) | 1999-08-31 | 2007-05-22 | Accenture Llp | Detecting emotions using voice signal analysis |
US7590538B2 (en) | 1999-08-31 | 2009-09-15 | Accenture Llp | Voice recognition system for navigating on the internet |
TWI221574B (en) * | 2000-09-13 | 2004-10-01 | Agi Inc | Sentiment sensing method, perception generation method and device thereof and software |
ES2177437B1 (es) * | 2000-12-13 | 2003-09-01 | Neturin S L | Dispositivo analizador animico para mamiferos. |
IL144818A (en) | 2001-08-09 | 2006-08-20 | Voicesense Ltd | Method and apparatus for speech analysis |
US6721704B1 (en) | 2001-08-28 | 2004-04-13 | Koninklijke Philips Electronics N.V. | Telephone conversation quality enhancer using emotional conversational analysis |
DE60115653T2 (de) * | 2001-10-05 | 2006-08-10 | Sony Deutschland Gmbh | Verfahren zur Detektion von Emotionen, unter Verwendung von Untergruppenspezialisten |
US7191134B2 (en) * | 2002-03-25 | 2007-03-13 | Nunally Patrick O'neal | Audio psychological stress indicator alteration method and apparatus |
EP1796347A4 (en) * | 2004-09-10 | 2010-06-02 | Panasonic Corp | INFORMATION PROCESSING TERMINAL |
US20060229882A1 (en) * | 2005-03-29 | 2006-10-12 | Pitney Bowes Incorporated | Method and system for modifying printed text to indicate the author's state of mind |
US7580512B2 (en) * | 2005-06-28 | 2009-08-25 | Alcatel-Lucent Usa Inc. | Selection of incoming call screening treatment based on emotional state criterion |
WO2007017853A1 (en) * | 2005-08-08 | 2007-02-15 | Nice Systems Ltd. | Apparatus and methods for the detection of emotions in audio interactions |
EP1924941A2 (en) * | 2005-09-16 | 2008-05-28 | Imotions-Emotion Technology APS | System and method for determining human emotion by analyzing eye properties |
EP1969589A1 (en) * | 2005-12-22 | 2008-09-17 | Exaudios Technologies Ltd. | System for indicating emotional attitudes through intonation analysis and methods thereof |
US8204747B2 (en) * | 2006-06-23 | 2012-06-19 | Panasonic Corporation | Emotion recognition apparatus |
MX2009000206A (es) * | 2006-07-12 | 2009-06-08 | Medical Cyberworlds Inc | Sistema de entrenamiento medico computarizado. |
US20080065468A1 (en) * | 2006-09-07 | 2008-03-13 | Charles John Berg | Methods for Measuring Emotive Response and Selection Preference |
CN101517636A (zh) * | 2006-10-03 | 2009-08-26 | 安德烈·耶夫根尼耶维奇·纳兹德拉坚科 | 根据声音确定人紧张状态的方法和实现所述方法的装置 |
US20080260212A1 (en) * | 2007-01-12 | 2008-10-23 | Moskal Michael D | System for indicating deceit and verity |
US20110022395A1 (en) * | 2007-02-15 | 2011-01-27 | Noise Free Wireless Inc. | Machine for Emotion Detection (MED) in a communications device |
EP1998452A1 (en) * | 2007-06-01 | 2008-12-03 | EADS Deutschland GmbH | Method for compression and expansion of audio signals |
WO2009086033A1 (en) * | 2007-12-20 | 2009-07-09 | Dean Enterprises, Llc | Detection of conditions from sound |
US8219397B2 (en) * | 2008-06-10 | 2012-07-10 | Nuance Communications, Inc. | Data processing system for autonomously building speech identification and tagging data |
US20090318773A1 (en) * | 2008-06-24 | 2009-12-24 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Involuntary-response-dependent consequences |
US20100010370A1 (en) | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
WO2010018459A2 (en) | 2008-08-15 | 2010-02-18 | Imotions - Emotion Technology A/S | System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text |
US8340974B2 (en) * | 2008-12-30 | 2012-12-25 | Motorola Mobility Llc | Device, system and method for providing targeted advertisements and content based on user speech data |
WO2010100567A2 (en) | 2009-03-06 | 2010-09-10 | Imotions- Emotion Technology A/S | System and method for determining emotional response to olfactory stimuli |
CN102396211B (zh) * | 2009-04-17 | 2015-03-11 | 皇家飞利浦电子股份有限公司 | 气氛电话通信系统、运动部件及其方法 |
WO2012089906A1 (en) * | 2010-12-30 | 2012-07-05 | Nokia Corporation | Method, apparatus and computer program product for emotion detection |
US20120182309A1 (en) * | 2011-01-14 | 2012-07-19 | Research In Motion Limited | Device and method of conveying emotion in a messaging application |
US20120182211A1 (en) * | 2011-01-14 | 2012-07-19 | Research In Motion Limited | Device and method of conveying emotion in a messaging application |
GB2500363A (en) * | 2011-02-03 | 2013-09-25 | Research In Motion Ltd | Device and method of conveying emotion in a messaging application |
GB2500362A (en) * | 2011-02-03 | 2013-09-25 | Research In Motion Ltd | Device and method of conveying emotion in a messaging application |
US10853819B2 (en) | 2011-04-14 | 2020-12-01 | Elwha Llc | Cost-effective resource apportionment technologies suitable for facilitating therapies |
US10445846B2 (en) | 2011-04-14 | 2019-10-15 | Elwha Llc | Cost-effective resource apportionment technologies suitable for facilitating therapies |
US10373508B2 (en) * | 2012-06-27 | 2019-08-06 | Intel Corporation | Devices, systems, and methods for enriching communications |
RU2553413C2 (ru) * | 2012-08-29 | 2015-06-10 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") | Способ выявления эмоционального состояния человека по голосу |
RU2525284C2 (ru) * | 2012-11-16 | 2014-08-10 | Валерий Викторович Курышев | Способ определения степени эмоционального воздействия развлекательных мероприятий на зрителя |
US9378741B2 (en) | 2013-03-12 | 2016-06-28 | Microsoft Technology Licensing, Llc | Search results using intonation nuances |
TWI500023B (zh) | 2013-04-11 | 2015-09-11 | Univ Nat Central | 透過視覺的聽覺輔助裝置 |
WO2015019345A1 (en) * | 2013-08-06 | 2015-02-12 | Beyond Verbal Communication Ltd | Emotional survey according to voice categorization |
CN103829958B (zh) * | 2014-02-19 | 2016-11-09 | 广东小天才科技有限公司 | 一种监测人情绪的方法及装置 |
US9786299B2 (en) | 2014-12-04 | 2017-10-10 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
EP3267872A1 (en) | 2015-03-09 | 2018-01-17 | Koninklijke Philips N.V. | System, device and method for remotely monitoring the well-being of a user with a wearable device |
EP3674951A1 (en) * | 2018-12-31 | 2020-07-01 | Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO | System and method of obtaining authentication information for user input information |
US11138379B2 (en) | 2019-04-25 | 2021-10-05 | Sorenson Ip Holdings, Llc | Determination of transcription accuracy |
CN110265063B (zh) * | 2019-07-22 | 2021-09-24 | 东南大学 | 一种基于固定时长语音情感识别序列分析的测谎方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01107240U (ja) * | 1988-01-08 | 1989-07-19 | ||
JPH0512023A (ja) * | 1991-07-04 | 1993-01-22 | Omron Corp | 感情認識装置 |
JPH08297496A (ja) * | 1995-04-26 | 1996-11-12 | Fujitsu Ltd | 音声特徴分析装置 |
JPH09265378A (ja) * | 1996-03-28 | 1997-10-07 | Hitachi Ltd | オペレータの支援方法および支援システム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3971034A (en) * | 1971-02-09 | 1976-07-20 | Dektor Counterintelligence And Security, Inc. | Physiological response analysis method and apparatus |
US3855418A (en) * | 1972-12-01 | 1974-12-17 | F Fuller | Method and apparatus for phonation analysis leading to valid truth/lie decisions by vibratto component assessment |
DE2431458C2 (de) * | 1974-07-01 | 1986-05-28 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Verfahren und Anordnung zur automatischen Sprechererkennung |
US4093821A (en) * | 1977-06-14 | 1978-06-06 | John Decatur Williamson | Speech analyzer for analyzing pitch or frequency perturbations in individual speech pattern to determine the emotional state of the person |
US5148483A (en) * | 1983-08-11 | 1992-09-15 | Silverman Stephen E | Method for detecting suicidal predisposition |
US5029214A (en) * | 1986-08-11 | 1991-07-02 | Hollander James F | Electronic speech control apparatus and methods |
IL108401A (en) * | 1994-01-21 | 1996-12-05 | Hashavshevet Manufacture 1988 | Method and apparatus for indicating the emotional state of a person |
US5853005A (en) * | 1996-05-02 | 1998-12-29 | The United States Of America As Represented By The Secretary Of The Army | Acoustic monitoring system |
US5875427A (en) | 1996-12-04 | 1999-02-23 | Justsystem Corp. | Voice-generating/document making apparatus voice-generating/document making method and computer-readable medium for storing therein a program having a computer execute voice-generating/document making sequence |
US6055501A (en) * | 1997-07-03 | 2000-04-25 | Maccaughelty; Robert J. | Counter homeostasis oscillation perturbation signals (CHOPS) detection |
-
1997
- 1997-12-16 IL IL12263297A patent/IL122632A0/xx not_active IP Right Cessation
-
1998
- 1998-12-16 BR BR9814288-7A patent/BR9814288A/pt not_active Application Discontinuation
- 1998-12-16 TR TR2000/01765T patent/TR200001765T2/xx unknown
- 1998-12-16 AT AT98960070T patent/ATE354159T1/de not_active IP Right Cessation
- 1998-12-16 ES ES98960070T patent/ES2283082T3/es not_active Expired - Lifetime
- 1998-12-16 HU HU0101836A patent/HU226537B1/hu not_active IP Right Cessation
- 1998-12-16 WO PCT/IL1998/000613 patent/WO1999031653A1/en active IP Right Grant
- 1998-12-16 JP JP2000539473A patent/JP4309053B2/ja not_active Expired - Lifetime
- 1998-12-16 PL PL98341296A patent/PL341296A1/xx unknown
- 1998-12-16 AU AU15750/99A patent/AU770410B2/en not_active Ceased
- 1998-12-16 CN CNB988122871A patent/CN1174373C/zh not_active Expired - Lifetime
- 1998-12-16 EP EP98960070A patent/EP1038291B1/en not_active Expired - Lifetime
- 1998-12-16 DE DE69837107T patent/DE69837107T2/de not_active Expired - Lifetime
- 1998-12-16 CA CA002313526A patent/CA2313526C/en not_active Expired - Lifetime
- 1998-12-16 US US09/581,722 patent/US6638217B1/en not_active Expired - Lifetime
- 1998-12-16 PT PT98960070T patent/PT1038291E/pt unknown
- 1998-12-16 RU RU2000118824/09A patent/RU2294023C2/ru active
-
1999
- 1999-01-20 TW TW088100850A patent/TW446933B/zh not_active IP Right Cessation
-
2001
- 2001-07-31 HK HK01105356A patent/HK1034796A1/xx not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01107240U (ja) * | 1988-01-08 | 1989-07-19 | ||
JPH0512023A (ja) * | 1991-07-04 | 1993-01-22 | Omron Corp | 感情認識装置 |
JPH08297496A (ja) * | 1995-04-26 | 1996-11-12 | Fujitsu Ltd | 音声特徴分析装置 |
JPH09265378A (ja) * | 1996-03-28 | 1997-10-07 | Hitachi Ltd | オペレータの支援方法および支援システム |
Also Published As
Publication number | Publication date |
---|---|
EP1038291A1 (en) | 2000-09-27 |
BR9814288A (pt) | 2000-10-03 |
EP1038291B1 (en) | 2007-02-14 |
ES2283082T3 (es) | 2007-10-16 |
AU770410B2 (en) | 2004-02-19 |
AU1575099A (en) | 1999-07-05 |
HUP0101836A1 (hu) | 2001-09-28 |
PL341296A1 (en) | 2001-04-09 |
ATE354159T1 (de) | 2007-03-15 |
CA2313526C (en) | 2009-08-11 |
PT1038291E (pt) | 2007-05-31 |
DE69837107D1 (de) | 2007-03-29 |
US6638217B1 (en) | 2003-10-28 |
RU2294023C2 (ru) | 2007-02-20 |
EP1038291A4 (en) | 2000-11-22 |
HUP0101836A3 (en) | 2004-04-28 |
IL122632A0 (en) | 1998-08-16 |
CN1282445A (zh) | 2001-01-31 |
TW446933B (en) | 2001-07-21 |
HK1034796A1 (en) | 2001-11-02 |
DE69837107T2 (de) | 2007-11-22 |
HU226537B1 (en) | 2009-03-30 |
TR200001765T2 (tr) | 2000-11-21 |
JP4309053B2 (ja) | 2009-08-05 |
CN1174373C (zh) | 2004-11-03 |
CA2313526A1 (en) | 1999-06-24 |
WO1999031653A1 (en) | 1999-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2002509267A (ja) | 情動状態検出装置及び方法 | |
US7165033B1 (en) | Apparatus and methods for detecting emotions in the human voice | |
Dubnov | Generalization of spectral flatness measure for non-gaussian linear processes | |
Pabon et al. | Automatic phonetogram recording supplemented with acoustical voice-quality parameters | |
EP1100073A2 (en) | Classifying audio signals for later data retrieval | |
US5940792A (en) | Nonintrusive testing of telecommunication speech by determining deviations from invariant characteristics or relationships | |
JP4495907B2 (ja) | 音声の分析の方法及び装置 | |
JPH08286693A (ja) | 情報処理装置 | |
US6794567B2 (en) | Audio quality based culling in a peer-to-peer distribution model | |
Harrison | Variability of formant measurements | |
KR100623214B1 (ko) | 음성 및 오디오신호의 실시간 품질 분석기 | |
US7418385B2 (en) | Voice detection device | |
AU2004200002B2 (en) | Apparatus and methods for detecting emotions | |
US20040054524A1 (en) | Speech transformation system and apparatus | |
JPH01502779A (ja) | 適応多変数推定装置 | |
MXPA00005981A (en) | Apparatus and methods for detecting emotions | |
JP3423233B2 (ja) | オーディオ信号処理方法および装置 | |
CN117789767A (zh) | 一种音频采集设备的测试方法、装置及相关设备 | |
JPH09305194A (ja) | 音響処理装置 | |
EP2148327A1 (en) | A method and a device and a system for determining the location of distortion in an audio signal | |
Pols et al. | How to make more efficient use of the fact that the speech signal is dynamic and redundant |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20010410 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20010410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20010410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090227 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090318 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090421 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090507 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |