JP2002509267A - 情動状態検出装置及び方法 - Google Patents

情動状態検出装置及び方法

Info

Publication number
JP2002509267A
JP2002509267A JP2000539473A JP2000539473A JP2002509267A JP 2002509267 A JP2002509267 A JP 2002509267A JP 2000539473 A JP2000539473 A JP 2000539473A JP 2000539473 A JP2000539473 A JP 2000539473A JP 2002509267 A JP2002509267 A JP 2002509267A
Authority
JP
Japan
Prior art keywords
individual
plateau
information
emotion
emotional state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000539473A
Other languages
English (en)
Other versions
JP2002509267A5 (ja
JP4309053B2 (ja
Inventor
アミール・リバーマン
Original Assignee
アミール・リバーマン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アミール・リバーマン filed Critical アミール・リバーマン
Publication of JP2002509267A publication Critical patent/JP2002509267A/ja
Publication of JP2002509267A5 publication Critical patent/JP2002509267A5/ja
Application granted granted Critical
Publication of JP4309053B2 publication Critical patent/JP4309053B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Steroid Compounds (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

(57)【要約】 本発明は、人の情動を検出する装置を開示し、該装置は、個人により発生された音声試料を入力する(710、720、730)とともにこれらの入力音声試料からイントネーション情報を導出するようにした、音声分析器(760)と、上記イントネーション情報に基づき個人の情動を表わす表示出力を発生するようにした、情動記録器(735)とを含む。また、多次元うそ発見方法及び情動検出方法が開示される。

Description

【発明の詳細な説明】
【0001】 (技術分野) 本発明は情動検出装置及び方法に関する。
【0002】 (背景技術) PCT国際出願(PCT/IL96/00027号)の公開公報WO97/0
1984号に、対象(人物)の情動に関する少なくとも1つの生理学的可変特性
のバイオフィードバック制御方法、即ち、対象の情動状態、即ち、情動による少
なくとも1つの音声パラメータ特徴を探索してその表示信号を発生する段階及び
該表示信号を用いて当該対象を少なくとも1つの生理学的変数をもって表示する
段階とを含む、生体自己制御方法が記載されている。このシステムは、スタンド
アロンモードにて、即ち、電話回線を介して主体から隔てた場所で発生するよう
にして当該方法を実施するようにしたものである。対象人物の情動に関係する情
報は遠隔当事者に口答で、即ち、インターネットを介して逐次伝送され、次いで
、所望に処理される。
【0003】 ヨーロッパ特許出願公報第94850185.3号(特許公報第306664
537A2号)に、連続音声におけるアクセントを決定する方法及び装置が記載
されている。会話中に認識された連続音声により音声モデルが作成される。音声
会話中の一連の音声をモデル化した音声と比較することにより両者間の相違点が
得られる。
【0004】 米国特許公報第1384721号には、生理学的応答分析用の方法及び装置が 記載されている。
【0005】 フュラー(Fuller)に付与された、米国特許公報第3855416号には、 基本的な音声−エネルギー重み付けビブラート成分評価による真/偽決定を行う ようにした、音声分析方法及び装置が記載されている。
【0006】 フュラー(Fuller)に付与された、米国特許公報第3855417号には、 スペクトルエネルギー領域の比較による真/偽決定を行うようにした、音声分析 方法及び装置が記載されている。
【0007】 フュラー(Fuller)に付与された、米国特許公報第3855418号には、 ビブラート成分評価による真/偽決定を行うようにした、音声分析方法及び装置 が記載されている。 本明細書で記述された全ての公報及びそれらの引用例に開示された事項は、参
考用として本明細書に取込んで記述される。
【0008】 (発明の開示) (発明が解決しようとする技術的課題) 本発明は、改良された情動状態を探索する装置及び方法を提供しようとするも
のである。
【0009】 (課題の解決方法) したがって、本発明の好ましい実施例により個人の情動を検出する装置を提供
するものであり、該装置は、個人により発生された音声試料を入力するとともに
これらの入力音声試料からイントネーション情報を導出するようにした、音声分
析器と、上記イントネーション情報に基づき個人の情動を表わす表示出力を発生
するようにした、情動記録器とを含む。
【0010】 また、本発明の好ましい実施例によれば、音声試料が電話回線を介して音声分
析器に供給される。
【0011】 更に、本発明の好ましい実施例によれば、個人の情動状態についての報告は上
記個人の情動状態に基づくうそ検出報告を含む。
【0012】 また、本発明の好ましい実施例によれば、イントネーション情報は多次元イン
トネーション情報を含む。
【0013】 更にまた、本発明の好ましい実施例によれば、多次元情報は少なくとも3次元
情報を含む。
【0014】 更に、本発明の好ましい実施例によれば、多次元イントネーション情報は少な
くとも4次元情報を含む。
【0015】 更にまた、本発明の好ましい実施例によれば、イントネーション情報はソーン
(不安定期)に関連する情報を含む。
【0016】 更に、本発明の好ましい実施例によれば、ソーン(不安定期)に関連する情報
は予め定めた時間中に存在するソーンの数量から構成される。
【0017】 また、本発明の好ましい実施例によれば、ソーン(不安定期)に関連する情報
は時間に関するソーン分布を含む。
【0018】 更に、本発明の好ましい実施例によれば、イントネーション情報はプラトー(
安定期)に関連する情報を含む。
【0019】 更には、本発明の好ましい実施例によれば、プラトー(安定期)に関連する情
報は予め定めた時間中に存在するプラトーの数量から構成される。
【0020】 更にまた、本発明の好ましい実施例によれば、プラトーに関連する情報はプラ
トー(安定期)の期間長さに関連する情報を含む。
【0021】 更には、本発明の好ましい実施例によれば、プラトーの期間長さに関連する情
報は予め定めた時間中の平均プラトー期間長さを含む。
【0022】 更に、本発明の好ましい実施例によれば、プラトーの期間長さに関連する情報
は予め定めた時間中のプラトー期間長さの標準誤りを含む。
【0023】 また、本発明の好ましい実施例によれば、個人により発生された音声試料を入
力するとともに該音声試料における複数の特徴事項を定量化するように作用する
、多次元音声分析器;及び上記定量化された複数の特徴事項に基づき、うその検
出を含む、個人の信頼性指示出力を発生するように作用する、信頼性評価報告器
により構成したうそ検出装置が提供される。
【0024】 更に、本発明の好ましい実施例によれば、個人により発生された音声試料を受
領するとともに該音声試料における複数の特徴事項を定量化する段階;及び上記
定量化された複数の特徴事項に基づき、うその検出を含む、個人の信頼性指示出
力を発生する段階を含む、うそ検出方法が提供される。
【0025】 更にまた、本発明の好ましい実施例によれば、音声試料が周期を有する主音声
波により構成され、音声分析器は上記主音声波に重畳したローカル低周波により
指示されるプラトー(安定期)の出現率を決定するために上記音声試料を分析す
るように作用し、情動記録器は上記プラトーの出現率に基づいて適当な指示を出
力する。例えば、プラトー出現率の変化が発見されたとき、情動報告が適当な指
示出力を提供するようにする。
【0026】 同様に、各ソーンは、主音声波に局部的に比較的高い高周波が重畳しているこ
とを示す。本明細書に記載されると共に説明されるように、ソーン及びプラトー
を分析する利点は、実質的に、音声波の全ての周波数が分析されることにある。
【0027】 また、本発明の好ましい実施例によれば、安息時に、個人の情動の中立状態時
における第1期間にわたって複数の情動関連パラメータに関して上記個人を探索
するとともに上記第1期間中、上記情動関連パラメータ範囲の関数として特徴範
囲を特定することにより、上記個人の情動範囲を特徴付ける、多次元特徴範囲を
確立し;及び上記個人の情動状態を検出しようとするとき、該個人を、第2期間
にわたって上記情動関連パラメータに関して探索し、上記複数の情動パラメータ
の測定値を得、これらの測定値を上記特徴範囲を考慮して調整するようにした、
情動状態検出方法が提供される。
【0028】 更にまた、本発明の好ましい実施例によれば、個人の情動状態を検出するにあ
たり、個人により発生された音声試料を受領するとともに該音声試料からイント
ネーション情報を導出し、上記イントネーション情報に基づき上記個人の情動状
態を指示する出力を発生するようにした、情動状態検出方法が提供される。
【0029】 本明細書に添付の付録は、本明細書に開示される本発明の好ましい実施例の理
解及び評価の便宜に供せられる。
【0030】 付録Aは、本明細書に開示される、本発明の好ましい実施例の好ましい実施ソ
フトウェアのコンピュータリストである。
【表1】
【表2】
【表3】
【表4】
【表5】
【表6】
【表7】
【表8】
【表9】
【表10】
【表11】
【表12】
【表13】
【表14】
【表15】
【表16】
【表17】
【表18】
【表19】
【0031】 (発明を実施するための最良の形態) 本特許出願書類の開示部分は著作権に属する事項を含んでいる。この著作権者
は、米国特許商標庁における特許ファイル又は記録簿に存在し、さもなければ、
当該著作権の全てが保存される限りにおいて、何人も当該特許書類又は特許開示
物をファクシミリにより複製することに異存は無い。
【0032】 図1Aは、話者の情動状態をオン−ライン方式で探索するシステムの外観図で
ある。実施例において、図示されるように、電話回線を伝わって入来する音声入
力が当該装置により受信される。この装置は、話者の情動状態の指示を得るため
に、入力音声を分析し、例えば、図示するように、上記指示を表示器画面に表示
してユーザにリアルタイムに提供される。
【0033】 図1Bは、話者の情動状態をオン−ライン方式で探索する方法を説明する簡略
化動作流れ図である。この図1Bの方法は、好ましくは次のステップを含む: 初期化ステップ10:詳細に後述するように、種々の情動を指示しようとする
範囲を特定する、色々なパラメータの閾値等の定数が定義される。
【0034】 ステップ20:周期的に又は要求により音声を記録する。例えば、0.5秒間
の音声セグメント、即ち、0.5秒毎に連続して記録される。それに代えて、上
記セグメントは、他の適当な長さとするか又は重複しない長さのものとすること
ができる。例えば、隣接するセグメントは、1つ又は数個のサンプルを除いて、 略完全に重複するものとされる。 音声記録をデジタル化する。 上記記録を構成する追加的に、即ち、交番状に重複するセグメントの標本が採
取される。
【0035】 ステップ30:音声セグメントの重要部、即ち、背景雑音とは対称的に実際に
音声情報を包含すると思われる音声セグメントの部分を選定するために、音声セ
グメントを分析する。適当な音声情報検出基準は振幅であり、例えば、閾値を超
える振幅の最初の部分が音声情報の開始部分とみなされ、音声情報の最終部は予
め定められた期間中に閾値を超過する音声が見出せなくなった後の時点であると
みなされる。
【0036】 好ましくは、重要部分のサンプルは正規化され、例えば、もし、8ビットのメ
モリが適用されるのであれば、例えば、+/−127振幅ユニットを当該メモリ
に収容できる、振幅の全範囲を利用するために当該サンプルを増幅することによ
り正規化される。
【0037】 ステップ40:重要部分におけるソーン(不安定期)及びプラトー(安定期)
の数量を計数する。各同定されたプラトー長さを演算し、当該重要部分に対する
平均プラトー長さ及び該プラトー長さに対する標準誤りを演算する。
【0038】 “ソーン”はノッチ形態のものである。例えば、語“ソーン(不安定期)”と
は、次のように定義される: a. 隣接した3つの連続したサンプルであって、1番目及び3番
目のサンプルの振幅が共に中間のサンプルより高いか、又は b. 隣接した3つの連続したサンプルであって、1番目及び3番
目のサンプルの振幅が共に中間のサンプルより低いもの 好ましくは、ソーンは、たとえ、1番目及び3番目のサンプルの振幅が共に中
間のサンプルより非常に僅かだけ相違する、即ち、サンプル間の違いに対する最
小閾値の無いものであっても宣言される。一方、好ましくは、ソーンのベースラ
インに対し最小閾値とされ、即ち、非常に低い振幅をもって生じたソーンは無視
され、それというのも、これらのセグメントは音声に関するものというより背景
雑音に関するものと考えられるからである。
【0039】 図2は、多数のソーン(不安定期)34を含んだ音声セグメント32のグラフ
を示す。 “プラトー(安定期)”は、音声波における局所的平坦部分である。プラトー
(安定期)とは、例えば、連続した平坦部分の長さが予め定められた最小閾値よ
り大きくかつ予め定められた最大閾値より小さいものと定義される。最小閾値は
局所的平坦部分を無声又は沈黙期間と識別することを要する。もし、連続したサ
ンプル間の振幅差が予め定められた閾値、例えば、8ビットメモリを適用したと
き、5振幅目盛分小さければ、当該シーケンス(連続サンプル)は平坦であると
みなされる。
【0040】 図3は、多数のプラトー(安定期)38を含んだ音声セグメント36のグラフ
である。付録Aにおいて、プラトーは“jumps(ジャンプ)”と称される。 本発明の装置は、代表的に、1つ又は2つのモードで操作される: a. 較正(Calibration)―― 対象(個人)は横臥及び/又は中
立情動状態としたまま、該対象を探索することにより当該対象の真実/中立情動
状態のプロフィールを確立する。 b. テスト(Testing)―― 情動状態を確立する及び/又は当該
対象を誠実状態かどうかを確立すべく、当該対象の音声と、較正時に確立される
ような当該対象の真実/中立情動状態のプロフィールとの比較を行う。
【0041】 上記装置を較正モードで使用するのであれば、ステップ50からステップ60
までの方法が実行される。該装置をテストモードで使用するのであれば、ステッ
プ50からステップ80までの方法が実行される。
【0042】 ステップ60:ステップ60に到達したならば、現セグメントが較正の目的で
処理に付されたことを指示する。したがって、ステップ40において導出された
ソーン及びプラトー情報が較正テーブルに蓄積される。 ここで、ステップ20〜ステップ50の処理は“音声記録入力処理(voice re
cording entering processes)”と定義される。較正の目的で更に音声記録を入
力する必要があれば、ステップ20に戻る。較正の目的のための全ての音声記録
の入力が完了すれば、当該方法はステップ80に進む。
【0043】 ステップ80:現在試験されている対象人物に対する真実/中立情動状態のプ
ロフィールを作成する。これは較正モードで操作される。引続いて、当該装置は
テストモードに入り、虚偽又は緊張情動事態を同定するために、当該対象の音声
記録がそれの真実/中立情動状態プロフィールと比較される。この対象のプロセ
ッサーは、代表的に、ソーン/プラトー情報の中心傾向に反映されるとともに、 代表的に、擬似較正状態を考慮して調整される。例えば、較正開始時における自
然ストレスのため、初期音声記録はその後の音声記録よりも信頼性が低い。好ま
しくは、信頼性のある中心傾向の指示を得るために、較正テーブルにおける極端
な入力は排除されなければならない。
【0044】 ステップ90前のテストモードに入る。 ステップ90:現セグメントのソーン/プラトー情報をステップ80において 演算された真実/中立情動プロフィールと比較する。
【0045】 ステップ100:種々の情動及び/又は虚偽事態であると指示できるように、
現セグメントを分類すべく、ステップ90における比較処理結果に閾値を設定す
る。
【0046】 ステップ105:オプションとして、持越(Carryover)を補償する。語“持 越(Carryover)”とは、最初の知覚状態によって惹起された“現実的(Actual )”情動状態から持越される残存情動状態であり、該残存情動状態は初期知覚状
態が既に終焉した後も消え去らないものである。ステップ105を実行するため
の適当な実施例が図8のフローチャート(動作流れ図)において記述される。
【0047】 ステップ110:ステップ100において決定されたカテゴリーを指示するメ
ッセージを表示する。
【0048】 ステップ120:分析すべき音声セグメントの追加があれば、ステップ20に
戻る。それとも、終了する。適当な数m個のセグメントが、例えば、5個のセグ
メントが較正に使用される。
【0049】 図4は、図1Bにおけるステップ40を実行するための好ましい方法を説明す
る簡略フローチャート(動作流れ図)である。上述したように、ステップ40に
おいて、現音声記録セグメントの重要部分に対するソーン/プラトー情報が発生
される。
【0050】 プラトーの現在長さが“jj”と記される。 “Jjmap(jj)”は長さが正確にjjとされるプラトーの数量である。 “Plat”は、長さに拘わらずプラトーの数量を計数するカウンタである。 “Thorn”は、ソーンの数量を計数するカウンタである。 nは、テスト中の重要部分におけるサンプル数である。
【0051】 ステップ150において、ソーン及びプラトーの計数カウンタがリセットされ
る。
【0052】 ステップ160において、重要部分の全てのサンプルについてループの実行が
開始(loop on)される。このループは第1重要サンプルにおいて開始され、最 後から2番目の重要サンプルにおいて終る。
【0053】 ステップ164において、ループにおける各サンプルの振幅が記録される。 ステップ170及びステップ180において、ソーンの検出が行なわれ、ステ
ップ190、ステップ195、ステップ200及びステップ210において、プ
ラトーの検出が行なわれる。
【0054】 ステップ200において、もし、候補プラトーの長さが妥当な範囲内のもの、
例えば、3〜20の範囲内のものであれば、長さjjのプラトー数が増分(インク
リメント)されるとともにPlat及びプラトーの総数量が増分(インクリメント)
される。そうでなければ、即ち、もし、候補プラトーの長さが3より小さいか、
又は、20を超えるものであれば、該候補プラトーはプラトーと認められない。
【0055】 候補プラトーが“実(real)”プラトーとみなされるか又はみなされないと、
プラトー長さ、jjは、零(0)とされる(ステップ210)。
【0056】 ステップ220は当該ループの終わり、即ち、当該シーケンスにおける全ての
サンプルのチェックが完了した時点である。
【0057】 ステップ230において、プラトー長さ変数の平均値(AVJ)及び標準誤り
(JQ)、jjmapが演算される。
【0058】 ステップ240において、SPT及びSPJを演算する。SPTは各サンプル
あたりの平均ソーン数量であり、好ましくは、適当に正規化される。SPJは各
サンプルあたりの平均プラトー数量であり、好ましくは、適当に正規化される。
【0059】 上記説明された実施例によれば、情動状態検出は多次元をもって行なわれ、即
ち、情動状態が、複数の、好ましくは独立した中間変数を介して音声情報から導
出される。
【0060】 図5は、図1Bの真実/中立情動プロフィール形成ステップを実施するための 好ましい方法の簡略説明フローチャート(動作流れ図)である。 図5において、SPT(i)はセグメントiのSPT値である。 MinSPTは、任意のm個のセグメントについて計測された最小SPT値であ る。 MaxSPTは、任意のm個のセグメントについて計測された最大SPT値であ る。 MinSPJは、任意のm個のセグメントについて計測された最小SPJ値であ る。 MaxSPJは、任意のm個のセグメントについて計測された最大SPJ値であ
る。 MinJQは、任意のm個のセグメントについて計測された最小JQ値である。 MaxJQは、任意のm個のセグメントについて計測された最大JQ値である。
【0061】 ResSPTは、較正時に遭遇したSPT値の範囲サイズである。より一般的
には、ResSPTは、対象(人物)が真実/中立情動状態にあるときに予測さ
れ得るソーン数量の変動程度を指示する。したがって、音声セグメントにおける
ソーン数量が、ResSPTに関して非標準的であれば、当該対象は、興奮又は
準覚醒によって特徴付けられる情動状態等の非中立状態にあるといえる。よって
、ResSPTは、代表的に、情動環境が知られない間に発生されたSPT値の
計測処理に対する入力とされる。
【0062】 ResSPJは、較正時に遭遇したSPJ値の範囲サイズである。より一般的
には、ResSPJは、対象(人物)が真実/中立情動状態にあるときに予測さ
れ得るプラトー数量の変動程度を指示する。したがって、音声セグメントにおけ
るプラトー数量が、ResSPJに関して非標準的であれば、当該対象は、内部
矛盾又は認知的不協和感情によって特徴付けられる情動状態等の非中立状態にあ
るといえる。よって、ResSPJは、代表的に、情動環境が知られない間に発
生されたSPJ値の計測処理に対する入力とされる。
【0063】 ResJQは、較正時に遭遇したJQ値の範囲のサイズであり、該JQ値は、未 知の情動環境時に発生されたJQ値を評価するための基準値として利用される。 上記基準値は、必ずしも、図5に示されるように、4次元のものとする必要は
無く、それに代えて、1次元又は4次元以上の多次元のものであってもよい。
【0064】 図6は、特定のセグメントについて図1Bのステップ90を実行するための好
ましい方法の簡略化した流れ図である。上述したように、ステップ90において
、現在セグメントのソーン/プラトー情報がステップ80において演算された真
実/中立情動基準値と比較される。
【0065】 ステップ400は初期化ステップである。 ステップ410は、現主要部の以前に演算された対象(人物)の真実/中立情
動状態プロフィールからの偏差を演算する。説明された実施例において、偏差は
、ソーン数量に関連した第1成分、プラトー数量に関連した第2成分、プラトー
期間中の標準誤りに関連した第3成分及びプラトー期間の平均長さに関連した第
4成分から構成される。一方、別異のアプリケーションには異なった成分を使用
することが考えられる。例えば、幾つかのアプリケーションでは、ある時間間隔
にわたる(均一なソーン、不規則なソーン等の)ソーン分布は対象の情動状態に
関して情報を導出するのに有用である。
【0066】 “破断点T”は、真実/中立情動環境における平均ソーン数量と現主要部にお
けるソーン数量との比率の許容範囲を特徴付ける閾値である。 “破断点J”は、真実/中立情動環境における平均プラトー数量と現主要部に
おけるプラトー数量との比率の許容範囲を特徴付ける閾値である。 “破断点Q”は、真実/中立情動環境におけるプラトー数量の平均標準誤りと
現主要部におけるプラトー数量の標準誤りとの比率の許容範囲を特徴付ける閾値
である。 “破断点A”は、真実/中立情動環境における平均プラトー長さと現主要部に
おける平均プラトー長さとの比率の許容範囲を特徴付ける閾値である。
【0067】 ステップ420〜ステップ470は、現セグメントから発生された新しい情報
を考慮するために対象プロフィールを更新する。上述した実施例において、現主
要部の以前に演算された対象の真実/中立情動状態プロフィールからの偏差が非
常に大きいか(例えば、最高限度値を超えるか)又は非常に小さい(例えば、最
低限度値を下回る)とき、ResSPT値及びResSPJ値のみが更新される
。現主要部の上記真実/中立情動状態プロフィールからの偏差が非常に大きくな
いか又は小さくない(例えば、最高限度と最低限度間の値である)と、対象プロ
フィールは当該段階では代表的に変更されない。
【0068】 ステップ460及びステップ470において、もし、zzSPT及びzzSP
Jがそれぞれ極めて零(0)に近い値であれば、当該装置の感度は、ResSP
T値及びResSPJ値をそれぞれ漸減することにより高められる。
【0069】 ステップ480は、適当な代表的なアプリケーション、即ち、ステップ410
において演算された偏差成分の特定の組合せが発生される。これらの組合せは、
適当な情動分類基準、例えば、図7において特定される情動分類基準等の基礎と
して用いられる。図7の情動分類基準は、誇張であるか、不誠実であるか、言い
紛らわしであるか、混沌とし若しくは不確かであるか、興奮しているか、又は辛
辣であるかどうかを判定するものである。一方、異なった状況に在っては、異な
った情動分類基準を適用するようにしてもよい。
【0070】 上述の実施例において、SPT情報は、主に、興奮レベルを判定するのに用い
られる。更に、詳しくは、zzSPTはcrEXCITE値を決定するのに用い
られる。crEXCITE値はcrSTRESS等の付加パラメータに依存する
ものである。例えば、crEXCITE値が、70〜120の範囲内にあれば正
常とみなされる一方、120〜160の範囲内にあれば中程度の興奮状態とみな
され、160を超えた値であれば、高レベルの興奮状態とみなされる。
【0071】 上記実施例において、SPJ情報は、主に、心理学的に不協調な感情の判定に
用いられる。例えば、zzSPJ値が0.6〜1.2の範囲内にあれば、正常と
みなされるが、1.2〜1.7の範囲内にあれば、混沌としているか若しくは不
確かを表示しているとみなされる。1.7を超えた値は、対象の部分についての
音声意識及び/又は対象の音声制御の意図を表示しているものとみなされる。
【0072】 上記実施例において、zzJQ値及びcrSTRESS値は、主に、ストレス
レベルを判定するのに用いられる。例えば、crSTRESS値が70〜120
の範囲内にあれば、正常とみなされる一方、120を超えた値であれば、高度の
ストレスを表わしているとみなされる。
【0073】 上記実施例において、AVJ情報は、喋り言葉又は文章中に観察された考慮度
数を判定するのに用いられる。例えば、crTHINK値が100を超えれば、
最終の会話文中に検出された考慮度数は、較正位相において検出された考慮度数
よりも高いことを表している。これは、較正位相において考慮したことよりも会
話中のことについてより多く考慮していることを意味する。もし、該crTHI
NK値が100を下回れば、その人は、較正位相において考慮したよりも会話中
のことについて考慮することが少ない。
【0074】 上述した実施例において、crLIEパラメータは真誠さを判定するのに用い
られる。crLIE値が50を下回るときは、不真誠であることを表わし、50
〜60の範囲内にあれば、辛辣若しくはユーモアであることを表わし、60〜1
30の範囲内に在れば、真誠であることを表わし、130〜170の範囲内に在
れば、不正確若しくは誇張であること表わすものとみなされ、170を超えた値
であれば、不誠実であることを表わすものとみなされる。
【0075】 図6を振り返って見ると、上述したパラメータは、次のような値を受け取る:
破断点T=破断点J=破断点Q=破断点A=1.1 最高限度値T=最高限度値J=1.1 最低限度値J=最低限度値T=−0.6 増分T=増分J=減分T=減分J=0.1 最小値T=最小値J=0.1 上記の全ての数値は単なる一例であって、代表的なアプリケーションに依存す
るものである。
【0076】 図7は、種々のパラメータを、例えば、図1に示されるように表示しようとす
るメッセージに変換する方法を示す図である。
【0077】 図8は、真実/中立情動状態を微調整する方法を示す図である。 付録Aは、本明細書に開示される本発明の好ましい実施例の実施ソフトウェア
のコンピュータリストであり、該コンピュータリストは、本明細書において図面
を参照して示されかつ記述される実施例とは若干異なっている。
【0078】 実施ソフトウェアを発生する適当な方法は次のとうりである: a. マイクロフォン、音声カード及びビジュアルベーシックTM
バージョン5ソフトウェアを具備したPC(パーソナルコンピュータ)に新しい
プロジェクトが発生される。
【0079】 音声カードの記録セッティングすることにより次のパラメータ;11KHz、
8ビット、モノラル、PCMに応じて作用する。 b. 新しいプロジェクトに現れるデフォルトフォームにタイマー
目標を設定する。このタイマー目標を“timer 1(タイマー1)”と称する。 c. 上記フォームにMCIマルチメディア制御目的を設定する。
この目的を“mm control 1(mmコントロール1)”と称する。 d. 上記フォームに5つのラベル目的(label object)を設定す
る。これらのラベルを、ラベル1、ラベル2、ラベル3、ラベル4及びラベル6
と称する。 e. 上記フォームに4つのアレイを作成する。これらのアレイに
次のような名前を付す;SPT(0.4)、SPJ(0.4)、JQ(0.4)
及びAVJ(0.4)。 f. 上記フォームにコマンドボタンを設定するとともにその終了
すべき主要特性を変更する。上記コマンドボタンを“command 1”と称する。 g. 上記付録Aにおける“form 1”と表題が付されたページに、
キーボードからの入力操作により上記フォーム用のコードを発生する。 h. プロジェクトにモジュールを加える。上記付録Aにおける“
Feelings _detector”と表題が付されたページに、キーボードからの入力操作に
より上記モジュール用のコードを発生する。 i. 上記PCにマイクロフォンを接続する。 j. 上記アプリケーションをスタートするために、キー(F5)又
は“run”を押圧する。
【0080】 図9は、上記アプリケーションの開始直前における、設計モードでの上記フォ
ームを描いたディスプレイ表示画面の画像を示す図である。
【0081】 図10は、特定対象に対する較正時における、稼動モードでの上記フォームを
描いたディスプレイ表示画面の画像を示す図である。
【0082】 図11は、対象のテスト時における、上記フォームを描いたディスプレイ表示
画面の画像を示す図である。
【0083】 付録AにおけるCoR_msgXの各変数値はつぎのとおりである: 1---真誠、2---辛辣、3---興奮、4---混沌/不確か、5---興奮度大、 6---音声操作、7---うそ/偽表明、8---誇張/杜撰。 現在の主要部データを担う各変数は、次の文字で始まる名前を有する:cor_. ベースライン要素は次の文字で始まる名前を有する:cal_. 破断点要素は、次の文字で始まる名前を有する:bp_. ResSPT及びresSPTは、それぞれ、ResT及びResJと略称す
る。
【0084】 図12は、情動状態検出装置の簡略化機能ブロック図であり、該情動状態検出
装置は本発明の好ましい実施例に応じて構成されるとともに作動し、図1Bの方
法を実施するように作用する。図示するように、図12の装置は、A/D変換器
を介して情動検出ワークステーション735により入力するようにした音声を発
生する、テープレコーダ700、マイクロフォン710又は電話器720等の音
声入力機器を含む。音声窓記録器750は、代表的に、入来する音声表現信号を
音声窓又はセグメントに区分して、それぞれ、音声窓分析器760により分析さ
れる。上記音声分析器は、各音声窓又はセグメントを、ユニット770に蓄積さ
れた較正データと比較する。この較正データは、代表的に、詳細に前述したよう
に、各対象の個人から個別に導出される。表示器又はプリンタ780は、好まし
くは、オン−ライン方式で、当該システムにおける各ユーザ用に情動状態報告を
表示又は印刷する。
【0085】 本発明のソフトウェア構成要素は、所望により、ROM(リード−オンリーメ
モリ)形式で実装することができる。このようなソフトウェア構成要素は、一般
に、所望により、公知の方法でハードウェアに実装するようにしてもよい。
【0086】 付録Aに記載した実施例は、単に本発明の詳細な実施例の開示にのみ供せられ
たものであり、それに限定する意図はない。
【0087】 明瞭化のため、個別の複数の実施例に関連して記述された本発明の種々の特徴
は、単一の実施例に組込むことができる。これと反対に、簡潔化のため、単一の
実施例に関連して記述された本発明の種々の特徴は個別化し又は適当なサブコン
ビネーションをもって実施することができる。
【0088】 本発明は、以上に記述された実施例に限定されるものではないことは当業者に
は明らかなことであり、むしろ、本発明の範囲は、請求の範囲の記載のみにより
特定される。
【図面の簡単な説明】
【図1A】 話者の情動状態をオン−ライン方式で探索するシステムの説明
図である。
【図1B】 話者情動状態をオン−ライン方式で探索する好ましい方法の動
作流れ図である。
【図2】 多数のソーンを含む音声セグメントのグラフである。
【図3】 多数のプラトーを含む音声セグメントのグラフである。
【図4】 図1Bのステップ40を実行するための好ましい方法の簡略動作
流れ図である。
【図5】 図1Bの真実/中立情動プロフィール確立ステップを実行するた
めの好ましい方法の簡略動作流れ図である。
【図6】 特定のセグメントについて図1Bのステップ90を実行するため
の好ましい方法の簡略動作流れ図である。
【図7】 図1Bのステップ100を実行するための好ましい方法の簡略動
作流れ図である。
【図8】 図1Bのステップ105を実行するための好ましい方法の簡略動
作流れ図である。
【図9】 付録Aのアプリケーションの開始直前における、設計モードでの
フォームを描写した表示画面の画像図である。
【図10】 付録Aのアプリケーションの開始直前における、特定の対象に
対する較正時でのフォームを描写した表示画面の画像図である。
【図11】 付録Aのアプリケーションの開始直前における、対象のテスト
時でのフォームを描写した表示画面の画像図である。
【図12】 図1Bの方法を実行するための好ましい装置の簡略ブロック図
である。
【符号の説明】
32 音声セグメント 34 ソーン(不安定期) 36 プラトー(安定期) 700 テープレコーダ 710 マイクロフォン 720 電話器 730 音声入力装置(機器) 735 情動状態検出ワークステーション 740 A/D変換器 750 音声窓又はセグメント記録器 760 音声窓又はセグメント分析器 770 較正データ蓄積器 780 表示器/プリンタ
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GD,GE,GH,GM ,HR,HU,ID,IL,IN,IS,JP,KE, KG,KP,KR,KZ,LC,LK,LR,LS,L T,LU,LV,MD,MG,MK,MN,MW,MX ,NO,NZ,PL,PT,RO,RU,SD,SE, SG,SI,SK,SL,TJ,TM,TR,TT,U A,UG,US,UZ,VN,YU,ZW

Claims (19)

    【特許請求の範囲】
  1. 【請求項1】 個人により発生された音声試料を入力するとともに該音声試
    料からイントネーション情報を導出するように作用する、音声分析器;及び 上記イントネーション情報に基づき個人の情動状態指示出力を発生するように
    作用する、情動報告器により構成した、個人の情動状態検出装置。
  2. 【請求項2】 音声試料が電話器を介して音声分析器に供給される、請求項
    1に記載の装置。
  3. 【請求項3】 個人の情動状態についての報告が個人の情動状態に基づくう
    そ検出報告を含む、請求項1に記載の装置。
  4. 【請求項4】 イントネーション情報が多次元イントネーション情報から成
    る、請求項1〜請求項3のいずれかに記載の装置。
  5. 【請求項5】 多次元イントネーション情報が少なくとも3次元情報から成
    る、請求項4に記載の装置。
  6. 【請求項6】 多次元イントネーション情報が少なくとも4次元情報から成
    る、請求項4に記載の装置。
  7. 【請求項7】 イントネーション情報がソーン(不安定期)に関連する情報
    を含む、請求項1〜請求項3、請求項5〜請求項6のいずれかに記載の装置。
  8. 【請求項8】 ソーンに関連する情報が予め定めた時間中に存在するソーン
    数量から成る、請求項7に記載の装置。
  9. 【請求項9】 ソーンに関連する情報が時間に関するソーン分布を構成する
    、請求項8に記載の装置。
  10. 【請求項10】 イントネーション情報がプラトー(安定期)に関連する情
    報を含む、請求項1〜請求項3、請求項5〜請求項6、請求項8〜請求項9のい
    ずれかに記載の装置。
  11. 【請求項11】 プラトーに関連する情報が予め定めた時間中に存在するプ
    ラトー数量から成る、請求項10に記載の装置。
  12. 【請求項12】 プラトーに関連する情報がプラトーの期間長さに関連する
    情報から成る、請求項11に記載の装置。
  13. 【請求項13】 プラトーの期間長さに関連する情報が予め定めた時間中の
    平均プラトー期間長さから成る、請求項12に記載の装置。
  14. 【請求項14】 プラトーの期間長さに関連する情報が予め定めた時間中の
    プラトー期間長さの標準誤りから成る、請求項12に記載の装置。
  15. 【請求項15】 個人により発生された音声試料を入力するとともに該音声
    試料における複数の特徴事項を定量化するように作用する、多次元音声分析器;
    及び 上記定量化された複数の特徴事項に基づき、うその検出を含む、個人の信頼性
    指示出力を発生するように作用する、信頼性評価報告器 により構成された、うそ検出装置。
  16. 【請求項16】 個人により発生された音声試料を受領するとともに該音声
    試料における複数の特徴事項を定量化する段階;及び 上記定量化された複数の特徴事項に基づき、うその検出を含む、個人の信頼性
    指示出力を発生する段階 を含む、うそ検出方法。
  17. 【請求項17】 音声試料が周期を有する主音声波により構成され; 音声分析器が上記主音声波に重畳したローカル低周波により指示される、プラ
    トー(安定期)の出現率を決定するために上記音声試料を分析するように作用し
    ;及び 情動記録器が上記プラトーの出現率に基づいて適当な指示を出力するようにし
    た、請求項1〜請求項3、請求項5〜請求項6、請求項8〜請求項9、請求項1
    1〜請求項15のいずれかに記載の装置。、
  18. 【請求項18】 情動状態を検出するにあたり: 安息時に、個人の情動の中立状態時における第1期間にわたって複数の情動関
    連パラメータに関して上記個人を探索するとともに上記第1期間中、上記情動関
    連パラメータ範囲の関数として特徴範囲を特定することにより、上記個人の情動
    範囲を特徴付ける、多次元特徴範囲を確立し;及び 上記個人の情動状態を検出しようとするとき、該個人を、第2期間にわたって
    上記情動関連パラメータに関して探索し、上記複数の情動パラメータの測定値を
    得、これらの測定値を上記特徴範囲を考慮して調整するようにした、情動状態検
    出方法。
  19. 【請求項19】 個人の情動状態を検出するにあたり、 個人により発生された音声試料を受領するとともに該音声試料からイントネー
    ション情報を導出し;及び 上記イントネーション情報に基づき上記個人の情動状態を指示する出力を発生
    するようにした、情動状態検出方法。
JP2000539473A 1997-12-16 1998-12-16 情動状態検出装置及び方法 Expired - Lifetime JP4309053B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IL12263297A IL122632A0 (en) 1997-12-16 1997-12-16 Apparatus and methods for detecting emotions
IL122632 1997-12-16
PCT/IL1998/000613 WO1999031653A1 (en) 1997-12-16 1998-12-16 Apparatus and methods for detecting emotions

Publications (3)

Publication Number Publication Date
JP2002509267A true JP2002509267A (ja) 2002-03-26
JP2002509267A5 JP2002509267A5 (ja) 2009-04-30
JP4309053B2 JP4309053B2 (ja) 2009-08-05

Family

ID=11070983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000539473A Expired - Lifetime JP4309053B2 (ja) 1997-12-16 1998-12-16 情動状態検出装置及び方法

Country Status (19)

Country Link
US (1) US6638217B1 (ja)
EP (1) EP1038291B1 (ja)
JP (1) JP4309053B2 (ja)
CN (1) CN1174373C (ja)
AT (1) ATE354159T1 (ja)
AU (1) AU770410B2 (ja)
BR (1) BR9814288A (ja)
CA (1) CA2313526C (ja)
DE (1) DE69837107T2 (ja)
ES (1) ES2283082T3 (ja)
HK (1) HK1034796A1 (ja)
HU (1) HU226537B1 (ja)
IL (1) IL122632A0 (ja)
PL (1) PL341296A1 (ja)
PT (1) PT1038291E (ja)
RU (1) RU2294023C2 (ja)
TR (1) TR200001765T2 (ja)
TW (1) TW446933B (ja)
WO (1) WO1999031653A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL129399A (en) 1999-04-12 2005-03-20 Liberman Amir Apparatus and methods for detecting emotions in the human voice
US6427137B2 (en) 1999-08-31 2002-07-30 Accenture Llp System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud
US6275806B1 (en) * 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
US6480826B2 (en) * 1999-08-31 2002-11-12 Accenture Llp System and method for a telephonic emotion detection that provides operator feedback
US6463415B2 (en) * 1999-08-31 2002-10-08 Accenture Llp 69voice authentication system and method for regulating border crossing
US7222075B2 (en) 1999-08-31 2007-05-22 Accenture Llp Detecting emotions using voice signal analysis
US7590538B2 (en) 1999-08-31 2009-09-15 Accenture Llp Voice recognition system for navigating on the internet
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
ES2177437B1 (es) * 2000-12-13 2003-09-01 Neturin S L Dispositivo analizador animico para mamiferos.
IL144818A (en) 2001-08-09 2006-08-20 Voicesense Ltd Method and apparatus for speech analysis
US6721704B1 (en) 2001-08-28 2004-04-13 Koninklijke Philips Electronics N.V. Telephone conversation quality enhancer using emotional conversational analysis
DE60115653T2 (de) * 2001-10-05 2006-08-10 Sony Deutschland Gmbh Verfahren zur Detektion von Emotionen, unter Verwendung von Untergruppenspezialisten
US7191134B2 (en) * 2002-03-25 2007-03-13 Nunally Patrick O'neal Audio psychological stress indicator alteration method and apparatus
EP1796347A4 (en) * 2004-09-10 2010-06-02 Panasonic Corp INFORMATION PROCESSING TERMINAL
US20060229882A1 (en) * 2005-03-29 2006-10-12 Pitney Bowes Incorporated Method and system for modifying printed text to indicate the author's state of mind
US7580512B2 (en) * 2005-06-28 2009-08-25 Alcatel-Lucent Usa Inc. Selection of incoming call screening treatment based on emotional state criterion
WO2007017853A1 (en) * 2005-08-08 2007-02-15 Nice Systems Ltd. Apparatus and methods for the detection of emotions in audio interactions
EP1924941A2 (en) * 2005-09-16 2008-05-28 Imotions-Emotion Technology APS System and method for determining human emotion by analyzing eye properties
EP1969589A1 (en) * 2005-12-22 2008-09-17 Exaudios Technologies Ltd. System for indicating emotional attitudes through intonation analysis and methods thereof
US8204747B2 (en) * 2006-06-23 2012-06-19 Panasonic Corporation Emotion recognition apparatus
MX2009000206A (es) * 2006-07-12 2009-06-08 Medical Cyberworlds Inc Sistema de entrenamiento medico computarizado.
US20080065468A1 (en) * 2006-09-07 2008-03-13 Charles John Berg Methods for Measuring Emotive Response and Selection Preference
CN101517636A (zh) * 2006-10-03 2009-08-26 安德烈·耶夫根尼耶维奇·纳兹德拉坚科 根据声音确定人紧张状态的方法和实现所述方法的装置
US20080260212A1 (en) * 2007-01-12 2008-10-23 Moskal Michael D System for indicating deceit and verity
US20110022395A1 (en) * 2007-02-15 2011-01-27 Noise Free Wireless Inc. Machine for Emotion Detection (MED) in a communications device
EP1998452A1 (en) * 2007-06-01 2008-12-03 EADS Deutschland GmbH Method for compression and expansion of audio signals
WO2009086033A1 (en) * 2007-12-20 2009-07-09 Dean Enterprises, Llc Detection of conditions from sound
US8219397B2 (en) * 2008-06-10 2012-07-10 Nuance Communications, Inc. Data processing system for autonomously building speech identification and tagging data
US20090318773A1 (en) * 2008-06-24 2009-12-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Involuntary-response-dependent consequences
US20100010370A1 (en) 2008-07-09 2010-01-14 De Lemos Jakob System and method for calibrating and normalizing eye data in emotional testing
WO2010018459A2 (en) 2008-08-15 2010-02-18 Imotions - Emotion Technology A/S System and method for identifying the existence and position of text in visual media content and for determining a subject's interactions with the text
US8340974B2 (en) * 2008-12-30 2012-12-25 Motorola Mobility Llc Device, system and method for providing targeted advertisements and content based on user speech data
WO2010100567A2 (en) 2009-03-06 2010-09-10 Imotions- Emotion Technology A/S System and method for determining emotional response to olfactory stimuli
CN102396211B (zh) * 2009-04-17 2015-03-11 皇家飞利浦电子股份有限公司 气氛电话通信系统、运动部件及其方法
WO2012089906A1 (en) * 2010-12-30 2012-07-05 Nokia Corporation Method, apparatus and computer program product for emotion detection
US20120182309A1 (en) * 2011-01-14 2012-07-19 Research In Motion Limited Device and method of conveying emotion in a messaging application
US20120182211A1 (en) * 2011-01-14 2012-07-19 Research In Motion Limited Device and method of conveying emotion in a messaging application
GB2500363A (en) * 2011-02-03 2013-09-25 Research In Motion Ltd Device and method of conveying emotion in a messaging application
GB2500362A (en) * 2011-02-03 2013-09-25 Research In Motion Ltd Device and method of conveying emotion in a messaging application
US10853819B2 (en) 2011-04-14 2020-12-01 Elwha Llc Cost-effective resource apportionment technologies suitable for facilitating therapies
US10445846B2 (en) 2011-04-14 2019-10-15 Elwha Llc Cost-effective resource apportionment technologies suitable for facilitating therapies
US10373508B2 (en) * 2012-06-27 2019-08-06 Intel Corporation Devices, systems, and methods for enriching communications
RU2553413C2 (ru) * 2012-08-29 2015-06-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Воронежский государственный университет" (ФГБУ ВПО "ВГУ") Способ выявления эмоционального состояния человека по голосу
RU2525284C2 (ru) * 2012-11-16 2014-08-10 Валерий Викторович Курышев Способ определения степени эмоционального воздействия развлекательных мероприятий на зрителя
US9378741B2 (en) 2013-03-12 2016-06-28 Microsoft Technology Licensing, Llc Search results using intonation nuances
TWI500023B (zh) 2013-04-11 2015-09-11 Univ Nat Central 透過視覺的聽覺輔助裝置
WO2015019345A1 (en) * 2013-08-06 2015-02-12 Beyond Verbal Communication Ltd Emotional survey according to voice categorization
CN103829958B (zh) * 2014-02-19 2016-11-09 广东小天才科技有限公司 一种监测人情绪的方法及装置
US9786299B2 (en) 2014-12-04 2017-10-10 Microsoft Technology Licensing, Llc Emotion type classification for interactive dialog system
EP3267872A1 (en) 2015-03-09 2018-01-17 Koninklijke Philips N.V. System, device and method for remotely monitoring the well-being of a user with a wearable device
EP3674951A1 (en) * 2018-12-31 2020-07-01 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO System and method of obtaining authentication information for user input information
US11138379B2 (en) 2019-04-25 2021-10-05 Sorenson Ip Holdings, Llc Determination of transcription accuracy
CN110265063B (zh) * 2019-07-22 2021-09-24 东南大学 一种基于固定时长语音情感识别序列分析的测谎方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01107240U (ja) * 1988-01-08 1989-07-19
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH08297496A (ja) * 1995-04-26 1996-11-12 Fujitsu Ltd 音声特徴分析装置
JPH09265378A (ja) * 1996-03-28 1997-10-07 Hitachi Ltd オペレータの支援方法および支援システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3971034A (en) * 1971-02-09 1976-07-20 Dektor Counterintelligence And Security, Inc. Physiological response analysis method and apparatus
US3855418A (en) * 1972-12-01 1974-12-17 F Fuller Method and apparatus for phonation analysis leading to valid truth/lie decisions by vibratto component assessment
DE2431458C2 (de) * 1974-07-01 1986-05-28 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und Anordnung zur automatischen Sprechererkennung
US4093821A (en) * 1977-06-14 1978-06-06 John Decatur Williamson Speech analyzer for analyzing pitch or frequency perturbations in individual speech pattern to determine the emotional state of the person
US5148483A (en) * 1983-08-11 1992-09-15 Silverman Stephen E Method for detecting suicidal predisposition
US5029214A (en) * 1986-08-11 1991-07-02 Hollander James F Electronic speech control apparatus and methods
IL108401A (en) * 1994-01-21 1996-12-05 Hashavshevet Manufacture 1988 Method and apparatus for indicating the emotional state of a person
US5853005A (en) * 1996-05-02 1998-12-29 The United States Of America As Represented By The Secretary Of The Army Acoustic monitoring system
US5875427A (en) 1996-12-04 1999-02-23 Justsystem Corp. Voice-generating/document making apparatus voice-generating/document making method and computer-readable medium for storing therein a program having a computer execute voice-generating/document making sequence
US6055501A (en) * 1997-07-03 2000-04-25 Maccaughelty; Robert J. Counter homeostasis oscillation perturbation signals (CHOPS) detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01107240U (ja) * 1988-01-08 1989-07-19
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH08297496A (ja) * 1995-04-26 1996-11-12 Fujitsu Ltd 音声特徴分析装置
JPH09265378A (ja) * 1996-03-28 1997-10-07 Hitachi Ltd オペレータの支援方法および支援システム

Also Published As

Publication number Publication date
EP1038291A1 (en) 2000-09-27
BR9814288A (pt) 2000-10-03
EP1038291B1 (en) 2007-02-14
ES2283082T3 (es) 2007-10-16
AU770410B2 (en) 2004-02-19
AU1575099A (en) 1999-07-05
HUP0101836A1 (hu) 2001-09-28
PL341296A1 (en) 2001-04-09
ATE354159T1 (de) 2007-03-15
CA2313526C (en) 2009-08-11
PT1038291E (pt) 2007-05-31
DE69837107D1 (de) 2007-03-29
US6638217B1 (en) 2003-10-28
RU2294023C2 (ru) 2007-02-20
EP1038291A4 (en) 2000-11-22
HUP0101836A3 (en) 2004-04-28
IL122632A0 (en) 1998-08-16
CN1282445A (zh) 2001-01-31
TW446933B (en) 2001-07-21
HK1034796A1 (en) 2001-11-02
DE69837107T2 (de) 2007-11-22
HU226537B1 (en) 2009-03-30
TR200001765T2 (tr) 2000-11-21
JP4309053B2 (ja) 2009-08-05
CN1174373C (zh) 2004-11-03
CA2313526A1 (en) 1999-06-24
WO1999031653A1 (en) 1999-06-24

Similar Documents

Publication Publication Date Title
JP2002509267A (ja) 情動状態検出装置及び方法
US7165033B1 (en) Apparatus and methods for detecting emotions in the human voice
Dubnov Generalization of spectral flatness measure for non-gaussian linear processes
Pabon et al. Automatic phonetogram recording supplemented with acoustical voice-quality parameters
EP1100073A2 (en) Classifying audio signals for later data retrieval
US5940792A (en) Nonintrusive testing of telecommunication speech by determining deviations from invariant characteristics or relationships
JP4495907B2 (ja) 音声の分析の方法及び装置
JPH08286693A (ja) 情報処理装置
US6794567B2 (en) Audio quality based culling in a peer-to-peer distribution model
Harrison Variability of formant measurements
KR100623214B1 (ko) 음성 및 오디오신호의 실시간 품질 분석기
US7418385B2 (en) Voice detection device
AU2004200002B2 (en) Apparatus and methods for detecting emotions
US20040054524A1 (en) Speech transformation system and apparatus
JPH01502779A (ja) 適応多変数推定装置
MXPA00005981A (en) Apparatus and methods for detecting emotions
JP3423233B2 (ja) オーディオ信号処理方法および装置
CN117789767A (zh) 一种音频采集设备的测试方法、装置及相关设备
JPH09305194A (ja) 音響処理装置
EP2148327A1 (en) A method and a device and a system for determining the location of distortion in an audio signal
Pols et al. How to make more efficient use of the fact that the speech signal is dynamic and redundant

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20010410

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20010410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20010410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090227

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090318

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090507

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term