JP2010506206A - 声に応じて人のストレス状態を測定する方法およびこの方法を実行する装置 - Google Patents

声に応じて人のストレス状態を測定する方法およびこの方法を実行する装置 Download PDF

Info

Publication number
JP2010506206A
JP2010506206A JP2009531339A JP2009531339A JP2010506206A JP 2010506206 A JP2010506206 A JP 2010506206A JP 2009531339 A JP2009531339 A JP 2009531339A JP 2009531339 A JP2009531339 A JP 2009531339A JP 2010506206 A JP2010506206 A JP 2010506206A
Authority
JP
Japan
Prior art keywords
stress state
level
stress
value
vibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009531339A
Other languages
English (en)
Inventor
エヴゲニエヴィッチ ナズドラチェンコ、アンドレイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2010506206A publication Critical patent/JP2010506206A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本発明は、言語的テストに対する人の精神生理学的反応を解析する方法および装置の分野に関する。ストレス状態を測定すべく本発明の方法を実行する本発明の装置(1)は例えばマイクロホン(5)から音声信号を受信するのに用いられる受信ユニット、スペクトルの基本周波数、強度、中央値および幅等のスペクトル特性に基づいて1個の無次元パラメータに従いストレス状態のレベルを測定する処理ユニット、およびストレス状態を決定すべく例えば発光装置(6)または振動を生成する装置(7)からなる表示ユニットを含んでいて、光の波長または振動周波数はストレス状態のレベルに依存する。
【選択図】図3

Description

本発明は、言語的テストに対する人の精神生理学的反応を解析する方法および装置の分野に関し、医用目的や司法手続き、また意思決定を伴う日常的な活動にも適用可能である。
ストレスにさらされた音声信号をパラメータ化する各種の方法および装置が従来技術として知られている。このように、人の潜在的な興奮状態を測定する装置および方法が公知である(2000年10月19日公開の国際公開第0062279号パンフレット)。本装置は、電話、マイクロホンまたはインターネット等の各種音声源、音声周波数スペクトル解析器、スピーカー等の音声結果の実演装置、あるいは図形、グラフ表現または何らかの描画形式によるディスプレイ上での視覚的結果の実演装置に接続されたアナログ/デジタル変換器を含んでいる。本方法は、音声断片の類似体をデジタル計算する工程、計算された値を解析する工程、話者の音声類似体における興奮状態を明らかにする工程、明らかにされた興奮状態を表示して出力する工程を含んでいる。公知の方法の短所として、解析における特定のテスト結果の精度が不十分である点、テストに対する特定の被験者の反応が正しく識別されることが保証されない点、被験者が質問に答える際の正直さに関する結論の信頼性が不十分である点が挙げられ、これらは質問の形式を変えることにより繰り返し確認することを必要とする。
また、人の感情の状態を制御する方法および装置が公知である(1995年7月27日公開の国際公開第9520216号パンフレット]。感情の状態を制御する方法は、人の声の震えを検出する工程、検出された震えをフィルタリングして残留信号を受信する工程、残留信号を比較して結果を得る工程、同時発生した後方および前方残留信号を般化して声の震えを評価する工程、声の震えを超える評価を明らかにする工程、および話者の何らかの感情的な状態の表示を固定する工程を含んでいる。感情の状態を制御する装置は、音声検出器、逆および反転フィルタ、残留信号の関係の相互相関メーター、声の震えを評価するための部分的に重なる最大後方および前方信号の積分器、検出された興奮、累積、固定成分を処理および測定して人の感情的な状態を解析するプロセッサを含んでいる。公知の方法の短所として、使用したデータおよびデータ処理の手順の妥当性、および被験者の正直さまたは不正直さを測定する多くの統計的手法に起因して測定の客観性が疑わしく、従って被験者が不正直である旨の合理性を欠いた批判を行なう誤謬を犯す危険性が増すことが挙げられる。
人の発話の影響を受けた成分を自動的に分類する装置および方法がプロトタイプとして選択されている(1999年5月6日公開の国際公開第9922364号パンフレット)。本装置は、音声信号を受信、記録、および解析するユニット、当該信号のスペクトル特性を測定、計算および分類するユニット、並びにストレス状態の結果を表示するユニットを含んでいる。本方法は、音声信号を受信、記録、および解析して、統計処理に用いた少なくとも2個の計算されたウインドウに設定されたタイムカウントにおけるスペクトル特性の少なくとも一つの特徴、測定、計算および分類に特異性が現れた場合にその重要性および値を確定し、スペクトル走査において声が不誠実に聞こえた場合にそれらを分類してストレス状態の結果表示を行なう。公知の装置の短所として、各種の外乱に対する感度が高いこと、およびスペクトルから分離された初期パラメータの適切な選択および処理が不十分なために、得られた結果の信頼性が下がることが挙げられる。
解決すべき技術的な課題は、声のスペクトル特性から最も妥当な初期パラメータを選択することにより、および提案された汎用的積分パラメータに基づいてストレスを計算するためにそのような初期パラメータを処理するのに最も十分なモデルを用いることにより、人の声のスペクトル特性に基づいて人のストレス状態の測定結果の信頼性および精度を向上させることである。
声に応じて人のストレス状態を測定すべく以下の工程を含む方法を提案する、すなわち、一定時間間隔において音声信号を受信し、受信された音声信号のスペクトル特性を計算して、計算されたスペクトル特性に従いストレス状態のレベルを測定し、測定されたストレス状態の結果を表示する。新たな特徴として、スペクトル特性を計算する場合、受信された音声信号のスペクトルの少なくとも4個のパラメータ、すなわち基本周波数、スペクトルの強度、スペクトルの中央値、およびスペクトルの幅が計算され、ストレス状態のレベルを測定する際に、4個のパラメータの全てについて正規化された無次元のストレスパラメータが計算され、前記正規化された無次元ストレスパラメータがスペクトルの各パラメータのストレス状態を示し、0から1の範囲にあって、計算された全ての正規化ストレスパラメータの加重平均値としてストレス状態のレベルが決定される。
スペクトル特性を計算するために、少なくとも自身の幅の半分が重なる音声信号ウインドウを用いることがより好ましい。
また、音声信号ウインドウは、使用した音声信号ウインドウの列において非発声音声信号ウインドウが2個以上存在しないという条件で、および/または発声された音声信号ウインドウの任意の対が基本周波数の相対偏差が20%を超えない場合に計算に用いられる。
正規化ストレスパラメータの全てを計算する場合、パラメータの算術平均値とパラメータの現在値との間、およびパラメータの局所平均値とパラメータの現在値との間の相対偏差の和として正規化ストレスパラメータのストレス係数Zを予め計算しておくことがより好ましく、次いで正規化ストレスパラメータは1/(1+e)として計算される。
この場合、基本周波数の現在値として、50〜500Hzの周波数範囲におけるスペクトル特性の最大値における基本周波数を用いることがより好ましい。
スペクトル特性の2乗積分としてスペクトルの強度を計算することがより好ましい。
スペクトル特性の加重平均値としてスペクトルの中央値を計算し、その際に周波数を重みとして用いることがより好ましい。
スペクトルの幅を、そのスペクトル特性が予め設定された閾値(例えば、スペクトル特性がゼロであると見なされる値より2〜8%低い閾値を予め設定することにより)を上回る最大周波数と最小周波数との差として計算することがより好ましい。
ストレス状態のレベルを測定する工程において、全ての計算された正規化ストレスパラメータの加重平均値をその算術平均値として決定することがより好ましい。
測定されたストレス状態の結果を、可視波長範囲における発光により表示することができ、その場合発光された光の波長は測定されたストレス状態のレベルの値に依存する。
この場合、測定されたストレス状態のレベルの値が、それがとり得る値の範囲で増減することに伴い、発光された光の波長が増減するように、測定されたストレス状態のレベルが表示される。例えば、緑色の光を用いてストレス状態のレベルの最小値を表示し、黄色の光を用いてストレス状態のレベルの平均値を表示し、赤色の光を用いてストレス状態のレベルの最大値を表示する。
測定されたストレス状態の結果を振動で表示することができ、その場合、振動の周波数は測定されたストレス状態のレベルの値に依存する。
この場合、測定されたストレス状態のレベルは、測定されたストレス状態のレベルの値がとり得る値の範囲で増減するのに伴い振動の周波数がゼロまで増減するように表示される。例えば、とり得る値の範囲で振動の最小周波数あるいは振動が存在しないことを利用してストレス状態のレベルの最小値を表示し、とり得る値の範囲で振動の平均周波数を用いてストレス状態のレベルの平均値を表示し、とり得る値の範囲で振動の最大周波数を用いてストレス状態のレベルの最大値を表示する。
また、声に応じて人のストレス状態を測定すべく以下を含む装置を提案する。すなわち、一定時間間隔における音声信号を受信する受信ユニット、デジタル形式に変換された受信音声信号のスペクトルのスペクトル特性を計算し、計算されたスペクトル特性に従いストレスのレベルを測定する処理ユニット、および測定されたストレス状態の結果を表示する表示ユニットである。新たな特徴として、処理ユニットが、受信された音声信号のスペクトルのスペクトル特性を計算して、上述の方法に従いストレス状態のレベルを測定する能力を備えている点が挙げられる。
表示ユニットは、可視波長の範囲で発光する発光手段として実装可能であり、発光している光の波長は処理ユニットにより測定されたストレス状態のレベルの値に依存する。例えば発光手段は、ストレス状態のレベルが、ストレス状態のレベルがとり得る値の範囲で最小値である場合は緑色の光を発光し、ストレス状態のレベルがとり得る値の平均値である場合は黄色の光を発光し、ストレスのレベルがとり得る値の範囲で最大値である場合は赤色の光を発光することができる。
表示ユニットは振動手段として実装可能であり、振動の周波数は処理ユニットにより測定されたストレス状態のレベルに依存する。例えば振動手段は、ストレス状態のレベルがとり得る値の範囲で最小値である場合に振動手段がとり得る値の範囲でゼロまでの振動の最小周波数で振動することができ、ストレス状態のレベルがとり得る値の範囲で平均値である場合に振動手段がとり得る値の範囲で振動の平均周波数で振動することができ、ストレス状態のレベルがとり得る値の範囲で最大値である場合に振動手段がとり得る値の範囲で振動の最大周波数で振動することができる。
本装置の全てのユニットは、単一の携帯機器に一体化されていても、あるいはコンピュータ、またはデジタルディクタフォン、携帯電話、デジタル録音カメラ、手のひらサイズのコンピュータを含むグループから選択されたコンピュータ化された装置に組み込まれていてもよい。
本発明について、以下の図面に示す例により詳述する。
本発明による装置の概略ブロック図である。 提案する方法の基本工程の簡略化されたブロック図である。 本発明の一実施形態の模式図である。
図1は本発明による装置の概略ブロック図を示す。
図1に示すように、音声により人のストレス状態を測定する装置1は、一定時間間隔において音声信号を受信する受信ユニット2、デジタル形式に変換された受信音声信号のスペクトルのスペクトル特性を計算して、計算されたスペクトル特性に従いストレス状態のレベルを測定する処理ユニット3、および測定されたストレスの結果を表示する表示ユニット4を含んでいる。
全てのユニット2〜4は、コンピュータまたはコンピュータ化された装置のソフトウェア・ハードウェアとして実装可能である。
受信ユニット2は、一定時間間隔において音声信号のサンプルをデジタル形式で受信する、またはアナログ形式で受信して処理ユニット3で当該音声信号を更にデータ処理すべく更にデジタル形式に更に変換することを目的とする。音声信号のサンプルとして、リアルタイム・モードで音声信号を用いる、または任意の公知の有形媒体に格納された一定時間間隔内における音声信号の断片を用いることができる。例えば、リアルタイム・モードでは音声信号として、コンピュータ・音声カード、デジタルディクタフォンその他によりデジタル形式に変換されたマイクロホンからの音声信号、およびケーブル、無線その他の通信ネットワークを含む各種の放送網(テレビ、ラジオ)を介して受信された音声信号を用いることができる。音声信号の断片を格納するために、任意の磁気および光情報媒体、マイクロプロセッサを利用したデータ記憶装置を用いることができる。音声信号の断片は、デジタル形式およびアナログ形式の両方で媒体に記録および格納することができ、アナログ形式の場合は受信ユニット2において更にデジタル形式に変換することができる点に留意されたい。また、音声信号の断片は、音声信号として映像信号と共に媒体に記録および格納して、必要ならば更に音声信号を分離してデジタル形式に変換することができる点に留意されたい。受信ユニット2として、音声信号をコンピュータまたはコンピュータ化された装置内へデジタル形式またはアナログ形式で受け入れ、アナログ信号を更にデジタル形式に変換させることができる、音声カード、USBポート、無線通信カード(電波、赤外線、ブルートゥース)、各種ディスク(FD、CD、DVD)用のディスク駆動装置等、任意のソフトウェア・ハードウェア手段を用いてよい。
処理ユニット3は、受信ユニット2により受信されてデジタル形式に変換された音声信号のスペクトル特性を計算して、計算されたスペクトル特性に従いストレス状態のレベルを測定することを目的とする。処理ユニット3は、公知のコンピュータまたはコンピュータ化された装置、並びに本発明で提案する方法を実施するソフトウェアを搭載した別個の装置のソフトウェア・ハードウェアツール、を利用する中央処理装置を用いて実装することができる。
図2に、提案する方法の基本ステップ310〜380の簡略化されたブロック図を示し、これらは後述する処理ユニット3により処理される。
開始に先立って、以前に受信および計算された全ての音声信号のデータおよび音声信号のスペクトルのスペクトル特性のパラメータがリセットされる(ステップ310)。最初に、処理ユニット3は受信ユニット2から音声信号のデータブロックをデジタル形式で受信する(ステップ320)。受信したデータブロックは、任意の公知の一般的な方法により、当該データブロックの音声信号のスペクトル特性を取得することにより処理される(ステップ330)。
更なる研究の過程で、スペクトルの4個の初期パラメータ(すなわち、直接の計算によりスペクトルから導出されるパラメータ)である基音周波数または基本周波数(FTF)、スペクトルの強度、スペクトルの中央値、およびスペクトルの幅が最も妥当であることがわかった。すなわち、ストレス状態のレベルを測定するには、以下に詳述するように、得られた結果から95%を超える高い精度を示すこれら4個のパラメータを使用すれば十分である。
ステップ340を実行する際に、上述したスペクトルの4個のパラメータは、取得されたスペクトル特性から計算される。
以前に記録および格納された音声信号サンプルのデータに従って計算する場合、互いに幅の半分が重なり合っているウインドウを用いて計算が実行される。従って、全てのタイムカウントは、2個の計算されたウインドウに属する。しかし、データに従いリアルタイム・モードで計算する場合、最後の短い時間間隔で計算が実行される。
音声信号の音量がその信号が重要であると見なすのに十分である前提で、50〜500Hzの範囲に最大スペクトル特性を有する周波数がFTFの現在値とされる。しかし、格納されたサンプルに従って計算する場合、一つ前および更に前のものと合わせて非発声ウインドウが1個以下である場合にのみ1個のウインドウが計算に用いられ、その場合、発声ウインドウの全ての対でFTFの相対偏差が20%を超えてはならないことを指摘しておく。リアルタイム・モードで計算する場合、この条件は無視してよい。
スペクトルの強度を計算する場合、一般に認められた概念であるスペクトル特性の2乗積分としての強度を用いる。
スペクトルの中央値は、スペクトル特性の値と関連する周波数との積の和をスペクトル特性の値の和で除算したものとして計算される。現実にはスペクトル特性は配列として格納され、周波数の代わりに配列指数が用いられ、次いで得られた商が整数指数に約分されるという事実から、関連する周波数の値を用いることができる。換言すれば、スペクトルの中央値はスペクトル特性の加重平均値であって、周波数が重みである。
スペクトルの幅を計算するには、それを下回るスペクトル特性は条件付けでゼロであると考えられる何らかの閾値(この場合、統計に基づいて5%の閾値を採用した)を与えることが必要である。スペクトル特性がこの閾値を上回る最大周波数と最小周波数との差をスペクトルの幅とする。
更に、メモリ装置(RAM)が、以前の何らかのデータブロックに基づいてスペクトルの4個の初期パラメータ用に以前に計算されたデータを有する場合、以前のデータは更新される(ステップ350)。
更に、ステップ360を実行する場合に、スペクトルの4個の初期パラメータの更新された値に基づいて4個の初期パラメータ全てに合う4個のストレス係数が次式により計算される。
Z=(M−P)/M +(L−P)/L
ここで、M:関連する初期パラメータの算術平均値
L:関連する初期パラメータの局所平均値
P:関連する初期パラメータの現在値
である。
従って、局所平均値は以下のように計算される。
データが1個のみである場合、当該1個だけのデータに比較する対象が無いため、L=Pと仮定される。
境界データの場合、リアルタイム・モードにおける計算で頻繁に生起するように、初期パラメータに先行値と後続値が各々1個だけ存在することが示唆され、合理的な理由により後続値が全く存在しない場合は次式により計算が行なわれる。
L=(2・P+Pout)/3
ここで、Poutは境界値(例:一つ前の)を有するパラメータの隣接値である。
初期パラメータの先行および後続値の両方が存在することが示唆される内部データの場合、次式により計算が行なわれる。
L=(P+2・P+P)/4
ここで、
:パラメータの先行値
:パラメータの後続値
である。
このように、ステップ360を実行した後で4個の無次元ストレス係数が導出され、ステップ370の開始時点でこれらを用いて、スペクトルの関連パラメータによりストレス状態を示す4個の無次元正規化ストレスパラメータを次式に従い計算する。
Stress=1/(1+e
導出された正規化Stress値は常に0〜1の間であって、ストレス係数が正の無限大に近づくにつれてゼロに近づき、ストレス係数が負の無限大に近づくにつれて1に近づく。従って、正規化ストレス係数は、ストレス係数が増加するにつれて単調減少する。原理的には、4個の正規化Stress値の全てを用いてこの無次元パラメータの値に従うストレス状態のレベルを識別することができるが、ステップ370を実行する場合、結果の精度を相当向上させるために、統合無次元パラメータStressΣが計算され、むしろこちらの方がストレス状態の存在およびストレス状態のレベルを4個の導かれた正規化ストレスパラメータ全ての加重平均値として正確に示す。研究が示すように、この場合は加重平均値として算術平均値を用いてよい。
更に、ステップ380を実行する場合、処理ユニット3で計算された結果を表示ユニット4に出力させるコマンドが形成される。これを行なう際に、コマンドの性質は計算されたStressΣの値に依存する。このとき、StressΣの値もまた0〜1の範囲にあるため、StressΣの値がほぼゼロに等しいときにストレスの欠如を示すよう指示され、StressΣの値が1にほぼ等しいときに強いストレスの存在を示すよう指示され、ストレスが中間値である場合にはStressΣの値に比例してストレス状態を示すよう指示される。
更に、処理ユニット3は、音声信号の次のデータブロックが存在すれば受信ユニット2からデジタル形式で受信し、このデータブロックのためにステップ320〜380が繰り返される。
処理ユニット3が受信したストレス状態の結果を表示する表示ユニット4は、StressΣの値を直接的に表示すること、およびStressΣの値またはStressΣのある値区間に対応する各種の信号を表示することの両方により、ストレス状態の現在のレベルを表示することを目的とする。そのため、表示ユニット4は結果を図形、光または他の情報として表示可能な任意の組み込み型周辺装置として実装することができる。別の例により、各種の信号を表示するいくつかの実施形態を提示する。
図3に、アクセサリーまたはペンダントとして使用可能な分離された携帯用の音声ストレス検出器の本発明の一実施形態の模式図を示す。
この実施形態では、携帯型ストレス検出器1はマイクロプロセッサを利用して実装された上述のユニット2〜4を含んでおり、この場合、受信ユニット2はマイクロホン5、表示ユニットは、交通信号と同じ順に並んだ赤、黄、緑の3個の発光ダイオード6を有する3色光パネルおよび一般的な携帯電話の振動呼び出しまたは振動メロディで用いられるバイブレータと同様の圧電素子として実装されたバイブレータ7を含んでいる。ユニット2〜4は上述と同様に動作し、そのために、得られた結果を表示する二つの実施形態があって一緒にまたは別個に利用できる。
発光だけで表示する実施形態では、発光ダイオード6の1個が、以下に従い処理ユニット3により計算されるStressΣの現在値に応じて光る。StressΣ=0.0〜0.3の場合、興奮を含むストレス状態が無いかまたはわずかな値であることに対応する緑色の発光ダイオードが発光してマイクロホン5が拾った発声が充分に正直であることが示唆される。StressΣ=0.3〜0.7の場合、ストレス状態が無いかまたはわずかな値であることに対応する黄色の発光ダイオードが発光してマイクロホン5が拾った発声に興奮が含まれる、すなわち発言の正直さがやや疑わしいことを示唆する。StressΣ=0.7〜1.0の場合、ストレス状態が相当大きいことに対応する赤色発光ダイオードが発光してマイクロホン5が拾った発声の興奮が極端なレベルである、すなわち発言が恐らく不正直であることを示唆する。そのような交通信号と同様の光信号はむしろユーザが容易に認識することができる。
振動により表示の実施形態では、StressΣが0.1未満の場合にはバイブレータ7は振動せず、StressΣ=0.1のときにバイブレータ7で可能な振動の最小周波数で振動し、StressΣの値が増加するために振動周波数が比例的に増加して、StressΣが1にほぼ等しいかまたは等しい場合に最大の周波数で振動する。
提案する装置がソフトウェアの見地からはむしろ単純であって、デジタルディクタフォン、携帯電話、デジタル録音カメラ、手のひらサイズのコンピュータ等、音声信号を処理する公知のコンピュータ化された装置と一体化できることは明らかであろう。
提示した実施形態は、本発明のいくつかの実施形態をあくまでも例示する目的で用いたものであって、特許請求の範囲に記載した法的保護範囲を何ら制限するものではなく、当業者であれば他の方法により本発明の別の実施形態を容易に実現できよう。

Claims (25)

  1. 声に応じて人のストレス状態を測定する方法であって、
    一定時間間隔において音声信号を受信する工程と、
    前記受信された音声信号のスペクトル特性を計算する工程と、
    前記計算されたスペクトル特性に応じてストレス状態のレベルを測定する工程と、
    前記測定されたストレス状態の結果を表示する工程とを含み、
    前記スペクトル特性の計算では、前記受信された音声信号のスペクトルの基本周波数、スペクトルの強度、スペクトルの中央値、およびスペクトルの幅を含む少なくとも4個のパラメータが計算され、
    前記ストレス状態のレベルの測定では、無次元の正規化されたストレスパラメータが前記4個のパラメータの全てについて計算され、
    前記無次元の正規化されたストレスパラメータが前記スペクトルの前記パラメータの各々のストレス状態をゼロから1で示し、
    前記ストレス状態のレベルの値が、全ての計算された正規化ストレスパラメータの加重平均値として測定される方法。
  2. 少なくとも自身の幅の半分が重なる音声信号ウインドウが、前記スペクトル特性の計算に使用される請求項1に記載の方法。
  3. 前記音声信号ウインドウが、使用された音声信号ウインドウの列において非発声音声信号ウインドウが2個以上存在しないという条件で計算に使用される請求項2に記載の方法。
  4. 前記音声信号ウインドウが、発声された音声信号ウインドウの任意の対における基本周波数の相対偏差が20%を超えないという条件で計算に使用される請求項2に記載の方法。
  5. 前記正規化ストレスパラメータの全ての計算において、前記正規化ストレスパラメータのストレス係数Zが、前記パラメータの算術平均値と前記パラメータの現在値との間の相対偏差と、前記パラメータの局所平均値と前記パラメータの前記現在値との間の相対偏差の和として予め計算され、
    次いで、正規化ストレスパラメータが1/(1+e)として計算される請求項1に記載の方法。
  6. 前記基本周波数の現在値として、50〜500Hzの周波数範囲におけるスペクトル特性の最大値における前記基本周波数を用いる、請求項1に記載の方法。
  7. 前記スペクトル特性の2乗積分として前記スペクトルの強度が計算される請求項1に記載の方法。
  8. 周波数を重みとして用いて、前記スペクトル特性の加重平均値として前記スペクトルの中央値が計算される請求項1に記載の方法。
  9. 前記スペクトルの幅が、前記スペクトル特性が予め設定された閾値を上回る最大周波数と最小周波数との差として計算される請求項1に記載の方法。
  10. 前記スペクトルの幅の計算において、前記スペクトル特性がゼロであると見なされる値より2〜8%低い閾値が予め設定されている請求項9に記載の方法。
  11. 全ての計算された正規化ストレスパラメータの前記加重平均値が、その算術平均値として測定される請求項1に記載の方法。
  12. 前記測定されたストレス状態の結果が、可視波長範囲における発光により表示され、
    前記発光された光の波長が、測定されたストレス状態のレベルの値によって決められる請求項1〜11のいずれか1項に記載の方法。
  13. 前記測定されたストレス状態のレベルの値がとり得る値の範囲における増減に応じて、前記発光された光の波長を増減させて前記測定されたストレス状態のレベルが表示される請求項12に記載の方法。
  14. 緑色の光を用いてストレス状態のレベルの最小値を表示し、黄色の光を用いてストレス状態のレベルの平均値を表示し、赤色の光を用いてストレス状態のレベルの最大値を表示する請求項13に記載の方法。
  15. 前記測定されたストレス状態の結果が振動により表示され、
    前記振動の周波数が、前記測定されたストレス状態のレベルの値によって決められる請求項1〜11のいずれか1項に記載の方法。
  16. ストレス状態の前記測定されたレベルの値がとり得る値の範囲における増減に応じて、前記振動の周波数がゼロまで増減するように測定された前記ストレス状態の前記測定されたレベルが表示される、請求項15に記載の方法。
  17. 前記ストレス状態のレベルの最小値が、
    とり得る値の範囲で振動の最小周波数あるいは振動が存在しないことを利用して表示され、
    前記ストレス状態のレベルの平均値が、とり得る値の範囲で振動の平均周波数を利用して表示され、
    前記ストレス状態のレベルの最大値が、とり得る値の範囲で振動の最大周波数を利用して表示される請求項16に記載の方法。
  18. 声に応じて人のストレス状態を測定する装置であって、
    一定時間間隔における音声信号を受信する受信ユニットと、
    デジタル形式に変換された前記受信音声信号のスペクトルのスペクトル特性を計算し、前記計算されたスペクトル特性に応じてストレスのレベルを測定する処理ユニットと、
    測定されたストレス状態の結果を表示する表示ユニットとを含み、
    前記処理ユニットが、前記受信された音声信号の前記スペクトルの前記スペクトル特性を計算し、請求項1〜11のいずれか1項に記載の方法により前記計算されたスペクトル特性に応じて前記ストレス状態のレベルを測定する能力を備えている装置。
  19. 前記表示ユニットが、可視波長の範囲で発光する発光手段であり、
    前記発光している光の波長は処理ユニットにより測定されたストレス状態のレベルの値によって決められる請求項18に記載の装置。
  20. 前記発光手段が、前記ストレス状態のレベルがとり得る値の範囲で最小値である場合は緑色の光を発光し、前記ストレス状態のレベルがとり得る値の範囲で平均値である場合は黄色の光を発光し、前記ストレス状態のレベルがとり得る値の範囲で最大値である場合は赤色の光を発光することができる、請求項19に記載の装置。
  21. 前記表示ユニットが、振動手段であり、
    前記振動の周波数が、前記処理ユニットにより測定された前記ストレス状態のレベルによって決められる請求項18に記載の装置。
  22. 前記振動手段が、前記ストレス状態のレベルがとり得る値の範囲で最小値である場合に前記振動手段がとり得る値の範囲でゼロまでの振動の最小周波数で振動することができ、前記ストレス状態のレベルがとり得る値の範囲で平均値である場合に前記振動手段がとり得る値の範囲で振動の平均周波数で振動することができ、前記ストレス状態のレベルがとり得る値の範囲で最大値である場合に前記振動手段がとり得る値の範囲で振動の最大周波数で振動することができる請求項21に記載の装置。
  23. 前記装置の全てのユニットが単一のコンピュータ又はコンピュータ化されている装置に一体化されている請求項21に記載の装置。
  24. 前記装置の全てのユニットがコンピュータまたはコンピュータ化された装置に組み込まれている請求項21に記載の装置。
  25. 前記コンピュータ化された装置が、デジタルディクタフォン、携帯電話、デジタル録音カメラ、手のひらサイズのコンピュータを含む群から選択されている請求項24に記載の装置
JP2009531339A 2006-10-03 2006-10-03 声に応じて人のストレス状態を測定する方法およびこの方法を実行する装置 Pending JP2010506206A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2006/000514 WO2008041881A1 (fr) 2006-10-03 2006-10-03 Procédé permettant de déterminer l'état de stress d'un individu en fonction de sa voix et dispositif de mise en oeuvre de ce procédé

Publications (1)

Publication Number Publication Date
JP2010506206A true JP2010506206A (ja) 2010-02-25

Family

ID=39268666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009531339A Pending JP2010506206A (ja) 2006-10-03 2006-10-03 声に応じて人のストレス状態を測定する方法およびこの方法を実行する装置

Country Status (5)

Country Link
US (1) US20100211394A1 (ja)
JP (1) JP2010506206A (ja)
CN (1) CN101517636A (ja)
BR (1) BRPI0621991A2 (ja)
WO (1) WO2008041881A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017138376A1 (ja) * 2016-02-09 2017-08-17 Pst株式会社 推定方法、推定プログラム、推定装置および推定システム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4519193B1 (ja) * 2009-07-27 2010-08-04 エンパイア テクノロジー ディベロップメント エルエルシー 情報処理システム、情報処理方法
US9138186B2 (en) 2010-02-18 2015-09-22 Bank Of America Corporation Systems for inducing change in a performance characteristic
US9066713B2 (en) 2010-10-26 2015-06-30 Medtronic Ardian Luxembourg S.A.R.L. Neuromodulation cryotherapeutic devices and associated systems and methods
CN105023570B (zh) * 2014-04-30 2018-11-27 科大讯飞股份有限公司 一种实现声音转换的方法及系统
KR101960654B1 (ko) * 2014-10-14 2019-03-22 아스일 나이어 후세인 신체 특성에 관한 데이터를 포착하고 출력하기 위한 시스템, 디바이스, 및 방법
CN105962956A (zh) * 2016-04-20 2016-09-28 范长英 一种基于计算机通信的医学用情绪检测装置
US20200175255A1 (en) 2016-10-20 2020-06-04 Bayer Business Services Gmbh Device for determining features of a person
CA3040989A1 (en) 2016-10-20 2018-04-26 Bayer Business Services Gmbh System for selectively informing a person
CN107736893A (zh) * 2017-09-01 2018-02-27 合肥迅大信息技术有限公司 基于移动设备的心理情绪监测系统
US11848019B2 (en) * 2021-06-16 2023-12-19 Hewlett-Packard Development Company, L.P. Private speech filterings

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3855416A (en) * 1972-12-01 1974-12-17 F Fuller Method and apparatus for phonation analysis leading to valid truth/lie decisions by fundamental speech-energy weighted vibratto component assessment
US3855417A (en) * 1972-12-01 1974-12-17 F Fuller Method and apparatus for phonation analysis lending to valid truth/lie decisions by spectral energy region comparison
US4093821A (en) * 1977-06-14 1978-06-06 John Decatur Williamson Speech analyzer for analyzing pitch or frequency perturbations in individual speech pattern to determine the emotional state of the person
US5976081A (en) * 1983-08-11 1999-11-02 Silverman; Stephen E. Method for detecting suicidal predisposition
US5327899A (en) * 1993-01-22 1994-07-12 The Johns Hopkins University Polygraph automated scoring systems
RU2107950C1 (ru) * 1996-08-08 1998-03-27 Николай Владимирович Байчаров Способ идентификации личности по фонограммам произвольной устной речи
RU2125399C1 (ru) * 1997-01-23 1999-01-27 Общество с ограниченной ответственностью "ФИТА-проект" Устройство для анализа психофизиологической информации
US6055501A (en) * 1997-07-03 2000-04-25 Maccaughelty; Robert J. Counter homeostasis oscillation perturbation signals (CHOPS) detection
US6173260B1 (en) * 1997-10-29 2001-01-09 Interval Research Corporation System and method for automatic classification of speech based upon affective content
IL122632A0 (en) * 1997-12-16 1998-08-16 Liberman Amir Apparatus and methods for detecting emotions
JP2978928B1 (ja) * 1998-12-03 1999-11-15 日本電気移動通信株式会社 携帯電話装置及びその着信音制御方法ならびに記録媒体
US6151571A (en) * 1999-08-31 2000-11-21 Andersen Consulting System, method and article of manufacture for detecting emotion in voice signals through analysis of a plurality of voice signal parameters
US6427137B2 (en) * 1999-08-31 2002-07-30 Accenture Llp System, method and article of manufacture for a voice analysis system that detects nervousness for preventing fraud
US6523008B1 (en) * 2000-02-18 2003-02-18 Adam Avrunin Method and system for truth-enabling internet communications via computer voice stress analysis
IL144818A (en) * 2001-08-09 2006-08-20 Voicesense Ltd Method and apparatus for speech analysis
US7283962B2 (en) * 2002-03-21 2007-10-16 United States Of America As Represented By The Secretary Of The Army Methods and systems for detecting, measuring, and monitoring stress in speech
US7191134B2 (en) * 2002-03-25 2007-03-13 Nunally Patrick O'neal Audio psychological stress indicator alteration method and apparatus
US7321855B2 (en) * 2003-12-15 2008-01-22 Charles Humble Method for quantifying psychological stress levels using voice pattern samples
RU42905U1 (ru) * 2004-10-05 2004-12-20 Наздратенко Андрей Евгеньевич Система для обнаружения эмоций
US20070192108A1 (en) * 2006-02-15 2007-08-16 Alon Konchitsky System and method for detection of emotion in telecommunications
US7571101B2 (en) * 2006-05-25 2009-08-04 Charles Humble Quantifying psychological stress levels using voice patterns

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017138376A1 (ja) * 2016-02-09 2017-08-17 Pst株式会社 推定方法、推定プログラム、推定装置および推定システム
US11147487B2 (en) 2016-02-09 2021-10-19 Pst Corporation, Inc. Estimation method, estimation program, estimation device, and estimation system

Also Published As

Publication number Publication date
US20100211394A1 (en) 2010-08-19
CN101517636A (zh) 2009-08-26
BRPI0621991A2 (pt) 2011-12-27
WO2008041881A1 (fr) 2008-04-10

Similar Documents

Publication Publication Date Title
JP2010506206A (ja) 声に応じて人のストレス状態を測定する方法およびこの方法を実行する装置
US11039259B2 (en) Method and system for sound monitoring over a network
US10516788B2 (en) Method and apparatus for adjusting volume of user terminal, and terminal
EP3270377A1 (en) Assessment and adjustment of audio installation
EP2541543B1 (en) Signal processing apparatus and signal processing method
US8571853B2 (en) Method and system for laughter detection
US10446166B2 (en) Assessment and adjustment of audio installation
CN103505183B (zh) 基于实时言语多维建模的言语障碍多维测量系统
US20150287414A1 (en) Method for controlling device and device control system
WO2022068304A1 (zh) 音质检测方法及装置
CN108172240A (zh) 一种声音检测方法、装置
JP2023502697A (ja) 咳嗽を監視および分析するための方法およびシステム
CN113259826B (zh) 在电子终端中实现助听的方法和装置
KR101660306B1 (ko) 휴대용 단말기에서 라이프 로그 생성 방법 및 장치
US11437019B1 (en) System and method for source authentication in voice-controlled automation
US7418385B2 (en) Voice detection device
JP6589040B1 (ja) 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP2018500093A (ja) 効果的な可聴アラーム設定のための方法及びデバイス
Shabtai et al. Towards room-volume classification from reverberant speech using room-volume feature extraction and room-acoustics parameters
JP7107732B2 (ja) 人物関係抽出システム
JP5907487B2 (ja) 情報伝送システム、送信装置、受信装置、情報伝送方法、およびプログラム
KR20170087225A (ko) 동물의 음성 분석정보를 제공하는 장치, 방법 및 기록매체
JP2020034555A (ja) 非破壊検査システム、方法およびプログラム
US12039970B1 (en) System and method for source authentication in voice-controlled automation
KR102350890B1 (ko) 휴대용 청력검사장치

Legal Events

Date Code Title Description
A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20110215