JP2007000366A - ストレス状態推定緩和方法、ストレス状態推定緩和装置及びそのプログラム - Google Patents

ストレス状態推定緩和方法、ストレス状態推定緩和装置及びそのプログラム Download PDF

Info

Publication number
JP2007000366A
JP2007000366A JP2005183989A JP2005183989A JP2007000366A JP 2007000366 A JP2007000366 A JP 2007000366A JP 2005183989 A JP2005183989 A JP 2005183989A JP 2005183989 A JP2005183989 A JP 2005183989A JP 2007000366 A JP2007000366 A JP 2007000366A
Authority
JP
Japan
Prior art keywords
stress state
stress
likelihood
state
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005183989A
Other languages
English (en)
Other versions
JP4630136B2 (ja
Inventor
Kota Hidaka
浩太 日高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005183989A priority Critical patent/JP4630136B2/ja
Publication of JP2007000366A publication Critical patent/JP2007000366A/ja
Application granted granted Critical
Publication of JP4630136B2 publication Critical patent/JP4630136B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 被検者の行動を制限しないで簡便にストレス状態を推定し、ストレス緩和を可能にする。
【解決手段】 学習音声に基づき予め被検者のストレス状態での音声特徴量ベクトルの出現確率、及び非ストレス状態での音声特徴量ベクトルの出現確率を音声特徴量ベクトルに対応付けた符号帳を作成し、検査時に、被検者の入力音声から音声特徴量を抽出し、抽出した音声特徴量に基づいて符号帳の対応する音声特徴量ベクトルを判定し、判定した音声特徴量ベクトルに対応するストレス状態での音声特徴量ベクトルの出現確率と、非ストレス状態での音声特徴量ベクトルの出現確率からストレス状態尤度及び非ストレス状態尤度を算出し、それらの尤度情報を一定期間蓄積し、蓄積されたストレス状態尤度と非ストレス状態尤度に基づいて話者がストレス状態にあったか否かを推定し、推定したストレス状態に対応したストレス緩和音を出力する。
【選択図】 図1

Description

本発明は、被検者のストレス状態を推定し、緩和する方法、装置及びそのプログラムに関する。
航空機の管制官やパイロット、電車の運転手、など、多数の人命の安全がゆだねられる職業の人間は、身体的疲労が生じなくても、過大な精神的ストレスを受け、健康を損ねるだけでなく、適切な判断ができなくなり、事故の原因となることがある。従って、定期的又は不定期的にストレスの程度を自分で、又は管理者が簡便に検査でき、ストレス状態と推定された場合は、被検者にストレスを緩和する環境を与えることができれば、都合がよい。あるいは、家庭における日常生活においても、ストレス度を簡便に検査でき、必要に応じてストレスを緩和できれば、健康の管理に役に立つ。
ストレスの度合いを測定する従来の装置として、個人の心理的ストレス又はリラックス度合いを、ストレス時に生じる体温上昇、皮膚の電気抵抗変化、血圧変化、血流量変化などの生体反応を測定して推測し、推測したストレス度合いに応じたリラックス情報を得るようにした装置が例えば特許文献1に示されている。
特開2003−153905号公報。 「音響・音声工学」、古井貞煕、近代科学社、1992。 「音声符号化」、守谷健弘、電子情報通信学会、1998。 「ディジタル音声処理」、古井貞煕、東海大学出版会、1985。 「複合正弦波モデルに基づく音声分析アルゴリズムに関する研究」、嵯峨山茂樹、博士論文、1998。 Y.Linde, A.Buzo and R.M.Gray, "An algorithm for vector Quantizer design", IEEE Trans. Commun., vol. Com-288, pp.84-95, 1980 。
しかしながら、上述のような従来の装置では、一般に、生体反応を測定するための検出手段を被検者に接触して測定を行う必要があり、測定中の被検者の行動に制限があった。また、ストレス状態を精度よく推定するのが容易でないという問題があった。
この発明は、そのような問題を解決するためになされたものであり、被検者のストレス状態を検出する際に、被検者の行動をそれほど束縛しないでも精度よく簡便にストレス状態を検出し、それに応じてストレスを緩和する処置が可能なストレス状態推定緩和方法、装置及びそのプログラムを提供することである。
この発明による被検者のストレスを推定し、緩和する方法及び装置は、
被検者の音声からフレームごとに予め決めた音声特徴量の組を抽出し、
ストレス状態と非ストレス状態のそれぞれにおける音声特徴量ベクトルの出現確率が上記被検者の学習音声から予め求められ格納された符号帳を用い、上記音声特徴量の組から対応する音声特徴量ベクトルと、その音声特徴量ベクトルのストレス状態及び非ストレス状態における出現確率を得て、
1フレーム以上の与えられた判定期間にわたる上記ストレス状態と非ストレス状態のそれぞれにおける上記音声特徴量ベクトルの上記出現確率に基づいてストレス状態となる尤度と非ストレス状態となる尤度をそれぞれ算出し、
上記ストレス状態となる尤度と上記非ストレス状態となる尤度に基づいて上記被検者がストレス状態か非ストレス状態のいずれであるかを推定し、
上記被検者がストレス状態と推定された場合、予め決めた複数のストレスレベルのいずれかを判定し、
予め決めた複数のストレス緩和音から上記判定したストレスレベルに応じたストレス緩和音を選択し、上記被検者の環境に出力する。
本発明は、被検者の音声から音声特徴量を抽出し、その音声特徴量に基づいて被検者のストレス状態を推定するため、被検者は音声を入力するだけでよく、従って、身体的行動の制限をうけることなく仕事を行いながらでも実時間で簡便にストレス状態を推定し、そのストレス状態に応じたストレス緩和音を与えてストレスを緩和させることができる。
以下、本発明の実施の形態について、図面を用いて説明する。
図1は、本発明の実施の形態に係るストレス状態推定緩和装置の機能構成を示すブロック図である。この実施例のストレス状態推定緩和装置100は、記憶手段110と、音声特徴量抽出手段120と、音声特徴量ベクトル判定手段130と、出現確率取得手段140と、尤度算出手段150と、ストレス状態推定手段160と、尤度情報蓄積手段170と、ストレス緩和音出力手段180と、制御手段190とから構成されている。
例えばこのストレス状態推定緩和装置100が航空管制官室の管制テーブル近くに設置され、管制官がパイロットとの交信時に使用するマイクロホンにより集音された音声信号がこの装置100に入力される。あるいは、この発明の装置がオフィスの電話機と隣接して又は電話機内に設置され、電話機の送話用マイクロホンから音声信号を取り出し、この発明の装置100に入力する。もちろん、この発明のストレス状態推定緩和装置100内にマイクロホンを設けて、そのマイクロホンで集音した音声信号を使用してもよい。あるいは、この発明のストレス状態推定緩和装置を被検者とは離れた例えば管理者室に設け、無線回線、電話回線あるいはインターネット電話回線を通して被検者からの音声信号を受信してストレス状態推定緩和装置100に入力し、被検者のストレス状態を管理者が遠隔地で監視するようにしてもよい。
記憶手段110には符号帳110CBが格納されている。符号帳110CBは学習音声を用いて予め生成された符号帳であって、被検者からストレス状態及び非ストレス状態で収集した音声に含まれる予め決めた音声特徴量の組のすべてから周知のアルゴリズムで予め決めた数のベクトルに量子化した音声特徴量ベクトル(量子化音声特徴量ベクトル又は代表音声特徴量ベクトルとも呼ばれる)と、それらの各音声特徴量ベクトルのストレス状態及び非ストレス状態における音声特徴量ベクトルの出現確率とが各コードに対応して格納されている。
音声特徴量抽出手段120はバッファ120Aと音声分析手段120Bを有しており、入力音声信号を一定長(フレーム長)ごとに区切られて番号が付加されてバッファ120Aに順次格納される。バッファ120Aの容量は音声の所定フレーム数分を必要とし、満杯になった後は最も古いフレームが破棄され、最新のフレームの音声信号が取り込まれる。音声分析手段120Bは、バッファ120A内の所定番目のフレームを分析対象の現フレームとしてそのフレームの予め決めた種類の音声特徴量の組を抽出する。予め決めた種類の音声特徴量としては、少なくとも基本周波数(又はピッチ周期)、パワー、動的特徴量の時間変化特性、又はこれらのフレーム間差分を含む。
音声特徴量ベクトル判定手段130は、音声特徴量抽出手段120が抽出した音声特徴量の組に対し、符号帳110CB中の最も近い音声特徴量ベクトルを探索し、そのベクトルであると判定する。出現確率取得手段140は、判定された音声特徴量ベクトルに対応するストレス状態及び非ストレス状態での出現確率をそれぞれ符号帳110CBから読み取る。
尤度算出手段150は、与えられた判定区間、例えば入力音声の音声小段落区間に渡ってフレームごとに順次抽出した音声特徴量の組に対してこの符号帳110CBから読み取られた音声特徴量ベクトルに対応するストレス状態及び非ストレス状態での出現確率に基づいて、ストレス状態及び非ストレス状態となる尤度をそれぞれ算出する。
尤度情報蓄積手段170は、判定区間より十分長い検査期間、例えば数分から数10分、にわたって尤度算出手段150によって順次算出されたストレス状態及び非ストレス状態となる尤度を蓄積する。検査期間は予め決めた一定長でもよいし、音声から検出される音声段落区間であってもよい。
ストレス状態推定手段160は、尤度情報蓄積手段170により検査期間にわたって蓄積された判定区間毎のストレス状態となる尤度と非ストレス状態となる尤度に基づいて被検者がストレス状態か否かを判定し、その検査期間にわたる判定結果から、被検者がストレス状態か否かを推定する。さらに、ストレス状態と推定された場合はそのストレスのレベルが予め決めた複数の段階的レベル(例えば軽度、中度、重度)のどれに属するかを判定する。
制御手段190は、上記検査期間の後に被検者の音声が予め設定された期間をあけてサイド検査期間にわたるストレス状態の測定を繰り返し、ストレス状態及び非ストレス状態となる尤度を蓄積するよう制御する。
ストレス緩和音出力手段180は、それぞれのストレスレベルに応じた癒しの効果のあるストレス緩和音を予め格納しており、ストレス状態推定手段160によって判定された被検者のストレスレベルに対応するストレス緩和音を選択し、被検者の環境に再生出力する。ストレス緩和音としては、癒し効果のある楽曲、電子的に合成された効果音、波の音や小鳥のさえずりなどの自然音、などである。
図2は、ストレス状態推定緩和装置100の具体的構成の一例を示す図である。図2に示すように、話者の音声を収集する入力部116と、音声処理方法に基づいて話者の音声を処理するCPU(Central Processing Unit)111と、制御用のパラメータを記憶するROM(Read Only Memory)112と、CPU111の動作中にその動作に必要とするプログラムやデータ等を記憶するRAM(Random Access Memory)113と、アプリケーションソフトや所定データを不揮発かつ書き換え可能に記憶するEEPROM(Electrically Erasable Programmable Memory)114と、液晶画面などのモニタ画面を有し、処理経過、ストレス状態推定結果、その他の情報を必要に応じて表示する表示部115と、判定されたストレスレベルに対応して選択されたストレス緩和音を被検者の環境に出力する音響出力部117とによって実現される。
図1における音声特徴量抽出手段120、音声特徴量ベクトル判定手段130、出現確率取得手段140、尤度算出手段150、ストレス状態推定手段160の機能は、それぞれの機能を実施するプログラムをCPU111により実行することにより実現される。それらのプログラムはEEPROM114に格納されており、実行時には必要なプログラムがRAM113に読み込まれ、CPU111により実行される。EEPROM114にはその他、後述する符号帳が格納されており、また、前述の入力音声信号が一時的に取り込まれるバッファとしても機能し、更に所定の検査期間にわたって得られた尤度を格納する尤度情報蓄積手段170としても機能する。
ROM112にはCPU111を立ち上げるためのプログラム、その他のプログラム及び制御用のパラメータ等を記憶する。RAM113にはCPU111の動作中に必要とするプログラムやデータ等が記憶される。
以下、本発明の実施の形態に係るストレス状態推定緩和装置100の動作について説明する。図3は、本発明の実施の形態に係るストレス状態推定緩和装置100の動作を説明するためのフローチャートである。
まず、学習音声を用いて生成された符号帳であって、学習音声に含まれる所定の音声特徴量の組(パラメータの組)である音声特徴量ベクトルの各値がストレス状態及び非ストレス状態でそれぞれ出現する出現確率をその音声特徴量ベクトルに対応して保持する符号帳が予め作成され、図1の記憶手段110に格納される(ステップS310)。符号帳作成の詳細とともに後述するが、音声特徴量ベクトルは、特許文献2に開示されているような音声のフレームごとに検出する少なくとも基本周波数、パワー、動的特徴量の時間変化特性、又はそれらのフレーム間差分のいずれか1つ以上のパラメータの組を含むベクトルである。
次に、音声特徴量抽出手段120のバッファ120Aに話者の音声が取り込まれ、音声分析手段120Bによりその取り込まれた入力音声から予め決めた複数種類の音声特徴量の組(音声特徴量ベクトル)を抽出する(ステップS320)。
抽出した音声特徴量ベクトルに最も近い音声特徴量ベクトルが符号帳から音声特徴量ベクトル判別手段130により判別され(ステップS330)、出現確率取得手段140によりこの判別した音声特徴量ベクトルの、ストレス状態及び非ストレス状態での出現確率をそれぞれ符号帳110CBから読み出し(ステップS340)、これらステップS320,S330,S340を判定区間(例えば音声小段落区間又は一定区間)にわたって繰り返す。得られたこれらの出現確率に基づいて尤度算出手段150により、ストレス状態となる尤度及び非ストレス状態となる尤度を算出し、蓄積する(ステップS350)。
ステップS360で検査期間が終了したか判定し、終了してなければステップS320〜S350を再度実行する。検査期間が終了したならば、ステップS370に移り、まず、ステップS350で算出したストレス状態及び非ストレス状態となる尤度に基づいて、判定区間ごとに話者のストレス状態がストレス状態推定手段160によって推定される(ステップS360)。ストレスの状態の判定は、各判定区間のストレス状態と非ストレス状態の尤度比を閾値と比較し、それより大きければストレス状態と判定し、そうでなければ非ストレス状態と判定する。
次に、検査期間内のストレス状態の推定を行う。この推定は、検査期間内でストレス状態と判定された判定区間の尤度比の総和と、非ストレス状態と判定された判定区間の尤度比の総和を比較し、前者が大きければストレス状態と推定し、そうでなければ非ストレス状態と推定する。あるいは前記総和をその検査期間の全判定区間数(又は全フレーム数)で割り算した値(以下これをストレスレベルと呼ぶことにする)を予め決めた状態推定閾値と比較し、それより大きければストレス状態と推定し、そうでなければ非ストレス状態と推定してもよい。上述において、ストレス状態と非ストレス状態の尤度比の代わりに尤度差を使用してもよい。
検査期間がストレス状態と推定された場合は、前記ストレスレベルを前期状態推定閾値より大きい第1レベル閾値及びそれより大きい第2レベル閾値と比較し、第1レベル閾値以下であれば軽度のストレス状態であると判定し、ステップS381で軽度のストレスに対応するストレス緩和音を選択し、出力する。ストレスレベルが第1レベル閾値より大で第2レベル閾値以下の場合は中度のストレス状態であると判定し、ステップS382で中度のストレスに対応するストレス緩和音を選択し、出力する。前記ストレスレベルが第2レベル閾値より大であれば重度のストレス状態であると判定し、ステップS383で重度のストレスに対応するストレス緩和音を選択し、出力する。
以下に、上記の各ステップでの処理について詳細に説明する。まず、各ステップでの処理についての詳細な説明に先立ち、上記の音声特徴量の組について説明する。音声特徴量としては、音声スペクトル等の情報に比べて、雑音環境下でも安定して得られ、かつストレス状態か否かの判定が話者依存性の低いものを用いる。このような条件を満たす音声特徴量として、本発明の実施の形態では、基本周波数f0、パワーp、動的特徴量d(t)、無声区間TS等を抽出する。
これらの音声特徴量の抽出法は公知であり、その詳細については、例えば、非特許文献1、非特許文献2、非特許文献3、非特許文献4等を参照されたい。
ここで、上記の動的特徴量d(t)は、以下の式(1) によって定義され、その時間変化量は発話速度の尺度となるパラメータである。
Figure 2007000366
ここで、tは時刻、Ck(t)は時刻tにおけるk次のLPCケプストラム係数、±F0は対象とするフレーム(以下、現フレームという)の前後のフレーム数(必ずしも整数個のフレームでなくとも一定の時間区間でもよい)をいう。なお、動的特徴量d(t)としては、特許文献3に定義されたものを用いるのでもよい。
LPCケプストラム係数の次数kは、1からKまでの整数のいずれかである。動的特徴量d(t)の単位時間当たりの極大点の数、または、単位時間当たりの変化率はダイナミックメジャーとも呼ばれ、発話速度の尺度となる。
以下では、1フレームの長さ(以下、フレーム長という)を100msとし、このフレームの開始時刻から50msずらして次のフレームを形成するものとする。また、フレーム毎に、基本周波数f0'、平均パワーp'を算出するものとする。さらに、現フレームの基本周波数f0'と、現フレームからiフレーム前の基本周波数f0'及び現フレームからiフレーム後の基本周波数f0'のそれぞれと差分Δf0'(-i)、Δf0'(i)と、をとる。平均パワーp'についても同様に、現フレームの平均パワーp'と、現フレームからiフレーム前の平均パワーp'及び現フレームからiフレーム後の平均パワーp'のそれぞれと差分Δp'(-i)、Δp'(i)と、をとる。
次に、これらフレーム毎の、基本周波数f0'、基本周波数の差分Δf0'(-i)、Δf0'(i)、平均パワーp'、平均パワーの差分Δp'(-i)、Δp'(i)を規格化する。以下では、基本周波数f0'、基本周波数の差分Δf0'(-i)、Δf0'(i)、平均パワーp'、平均パワーの差分Δp'(-i)、Δp'(i)のそれぞれを、単に、f0'、Δf0'(-i)、Δf0'(i)、p'、Δp'(-i)、Δp'(i)と表し、規格化されたものを、それぞれ、f0"、Δf0"(-i)、Δf0"(i)、p”、Δp"(-i)、Δp"(i)と表す。
この規格化は、例えば、f0'、Δf0'(-i)、Δf0'(i)のそれぞれを、例えば、処理対象の音声データ全体の平均基本周波数で割算することによって行うのでもよい。また、処理対象の音声データ全体の平均基本周波数の代わりに、後述する音声小段落や音声段落毎の平均基本周波数や、数秒や数分等の時間内での平均基本周波数等を用いるのでもよい。
同様に、p'についても、処理対象の音声データ全体の平均パワーで割算数し、規格化又は標準化する。また、処理対象の音声データ全体の平均パワーの代わりに、後述する音声小段落や音声段落毎の平均パワーや、数秒や数分等の時間内での平均パワー等を用いるのでもよい。ここで、上記のiの値を、例えば、4とする。
ダイナミックメジャーは、以下のように算出する。まず、現フレームの開始時刻を中心に現フレームより十分長い時間幅2T1(ただしT1は例えばフレーム長の10倍程度とする)の区間を設ける。次に、この区間内における動的特徴量d(t)の時間変化の極大点を算出し、極大点の個数dp(以下、単にdpという)を計数する。
また、ダイナミックメジャーの差分値も、以下に述べるようにして算出しておく。即ち、現フレームの開始時刻のT2前の時刻を中心とする幅2T1内の区間におけるdpから、現フレームのdpを差し引いた差成分Δdp(-T2)を求める。同様に、現フレームの終了時刻のT3後の時刻を中心とする幅2T1内の区間におけるdpを、現フレームのdpから差し引いた差成分Δdp(T3)を求める。
上記の、T1、T2、T3の値は、それぞれ、フレーム長より十分長いものとし、以下では、T1=T2=T3=450msとする。ただし、これらの値に限られるものではない。また、フレームの前後の無声区間の長さを、それぞれ、tSR、tSFとする。ステップS320では、上記のf0"、Δf0"(-i)、Δf0"(i)、p”、Δp"(-i)、Δp"(i)、dp、Δdp(-T2)、Δdp(T3)等(以下、それぞれをパラメータと呼ぶ)の値をフレーム毎に抽出する。
上記のf0"、Δf0"(-i)、Δf0"(i)、p"、Δp"(-i)、Δp"(i)、dp、Δdp(-T2)、Δdp(T3)等のパラメータの中から予め選択された1つ以上のパラメータの組、例えば(f0",p",dp)を音声特徴量ベクトルと定義する。符号帳110CBには予め決めたエントリ数の各符号に対応して被検者の学習音声から求めた量子化された音声特徴量代表ベクトルと、その音声特徴量ベクトルの各ストレス状態での出現確率が記録されている。
ステップS320では、入力音声を対象に、音声特徴量ベクトルを規定する上記選択されたパラメータの組の値を入力音声信号のフレームごとに算出し、符号帳中の対応する音声特徴量ベクトルを判定し、その音声特徴量ベクトルに対応するストレス状態での出現確率と非ストレス状態での出現確率を得る。
次に、図4を参照してステップS330のストレス状態尤度及び非ストレス状態尤度を算出する処理について説明する。
ステップS330では、ステップS331〜S333により、音声小段落及び音声段落を抽出する。次に、ステップS334、S335で、ストレス状態尤度及び非ストレス状態尤度を算出する。この実施例では音声小段落を、話者がストレス状態か否かを判定する最小の単位とし、音声段落は、例えば、400ms程度またはそれ以上の無声区間ではさまれた、少なくとも1つ以上の音声小段落を含む区間であるものとする。図5に音声小段落Sj-1, Sj, Sj+1と音声段落B, B+1の関係を概念的に示す。
音声段落等の抽出には、まず、入力音声データの無声区間と有声区間を抽出する(S331)。有声区間であるか無声区間であるかの判定(以下、単に、有声/無声の判定という)は、周期性の有無の判定と等価であるとみなして、自己相関関数や変形相関関数のピーク値に基づいて行われることが多い。
具体的には、入力信号の短時間スペクトルからスペクトル包絡を除去し、得られた予測残差の自己相関関数(以下、変形相関関数という)を算出し、変形相関関数のピーク値が所定の閾値より大きいか否かによって有声/無声の判定を行う。また、そのようなピークが得られる相関処理の遅延時間に基づいて、ピッチ周期1/f0の抽出を行う。
上記では、フレーム毎に各音声特徴量を音声データから抽出する場合について述べたが、音声データが、例えば、CELP(Code-Excited Linear Prediction)などにより、既にフレーム毎に符号化(即ち、分析)されている場合は、この符号化で得られる係数または符号を用いて音声特徴量を生成するのでもよい。CELPによって得られる符号(以下、CELP符号という)には、一般に、線形予測係数、利得係数、ピッチ周期等が含まれる。そのため、CELP符号を復号して上記の音声特徴量を得ることができる。
具体的には、復号された利得係数の絶対値または二乗値をパワーとして用い、ピッチ成分の利得係数と非周期成分の利得係数との比に基づいて有声/無声の判定を行うことができる。また、復号されたピッチ周期の逆数をピッチ周波数、即ち基本周波数として用いることができる。また、上記の式(1) で説明した動的特徴量の計算に使用するLPCケプストラム係数は、CELP符号を復号して得られたものを変換して求めることができる。
また、CELP符号にLSP(Line Spectrum Pair)係数が含まれていれば、LSP係数を一旦LPCケプストラム係数に変換し、変換して得られたLPCケプストラム係数から求めてもよい。このように、CELP符号には本発明で使用できる音声特徴量が含まれているので、CELP符号を復号し、フレーム毎に必要な音声特徴量の組を取り出すことができる。
図4に戻って、有声区間の両側の無声区間の時間tSR、tSFがそれぞれ予め決めたt以上になるとき、その無声区間によって囲まれた有声区間を含む信号部分を音声小段落Sjとして抽出する(S332)。以下では、この無声区間の時間tSの値を、例えば、tS=400msとする。
次に、この音声小段落Sj内の、好ましくは後半部の有声区間内の平均パワーpQと、この音声小段落Sjの平均パワー値Pjの定数β倍とを比較し、pQ<βPjであれば、その音声小段落Sjを末尾音声小段落とし、直前の末尾音声小段落後の音声小段落から現在の末尾音声小段落までを音声段落と決定して抽出する(S333)。
音声小段落の抽出は、上記の有声区間を囲む無声区間の時間がtS以上となるという条件で行う。図5に、音声小段落としてSj-1、Sj、Sj+1を示し、以下では音声小段落Sを処理対象の音声小段落とする。音声小段落Sは、Q個の有声区間から構成され、音声小段落Sの平均パワーをPjとする。
また、音声小段落Sに含まれるq番目の有声区間V(q=1, 2, …, Q)の平均パワーをpと表す。音声小段落Sが音声段落Bの末尾の音声小段落であるか否かは、音声小段落Sを構成する後半部分の有声区間の平均パワーに基づいて判定する。具体的には、以下の式(2) に示す条件が満たされるか否かで判定する。
Figure 2007000366
この条件を満たすとき、音声小段落Sjが音声段落Bの末尾音声小段落であると判定する。
ここで、αはQj/2以下の値をとる整数であり、βは例えば0.5〜1.5程度の値をとる定数である。これらの値は、音声段落の抽出を最適化するように、予め実験により決めておく。ただし、有声区間の平均パワーpqは、その有声区間内の全フレームの平均パワーである。本発明の実施の形態では、例えばα=3、β=0.8とする。上記のようにすることによって、隣接する末尾音声小段落間の音声小段落の集合を音声段落と判定できる。あるいは、音声小段落を固定長t(s)、シフト幅S(s)と決めてもよい。例えばt(s)=S(s)=1msecの固定長、シフト幅としてもよい。音声段落についてもΔSの無声区間で囲まれた区間としてもよい。
次に、図4に戻ってストレス状態尤度を算出する処理(S334、S335)について説明する(以下、この処理をストレス状態判定処理という)。まず、ステップS310で予め作成した符号帳に記録される音声特徴量ベクトルに合わせて、ステップS320で抽出した入力音声小段落中の音声特徴量の組をベクトル量子化し、符号列C1, C2, C3, …を得る(S334)。
ステップS335でのストレス状態尤度の算出に先立って、図6を用いて符号帳の作成方法について説明する。まず、多数の学習用音声を被験者から採取し、ストレス状態にあるときの発話と非ストレス状態にあるときの発話とを識別できるようにラベルを付ける(S311)。
ステップS311で上記のラベル付けを行ったら、ラベル付けされた音声データから、ステップS320での処理と同様に予め決めたパラメータの組の音声特徴量、例えば(f0",p",dp)の値を音声特徴量ベクトル値としてフレームごとに抽出する(S312)。ラベル付けによって得られるストレス状態または非ストレス状態の情報と、ストレス状態または非ストレス状態とされたラベル区間(ラベル付けされた音声区間)について得られる音声特徴量ベクトルとを用いて、LBGアルゴリズムに従って所定エントリ数の符号帳を作成する(S313)。LBGアルゴリズムは公知であり、その詳細は、例えば、非特許文献5を参照されたい。
符号帳に記録されるmビット符号のエントリの数(以下、符号長サイズという)は、2m個(mは、1以上の整数)であり、エントリのインデックスとしてコードCが用いられる。即ち、インデックスにはmビットの符号(C=00…0, 00…1, …,11…1)が用いられる。
符号帳には、このコードCに対応させて、フレーム長より十分長い所望の区間、例えば学習音声のラベル区間に得られる全音声特徴量ベクトルを使って上記LBGアルゴリズムにより決められた代表ベクトルを符号帳の音声特徴量代表ベクトルとして記録しておく。その際、各音声特徴量を、例えば、その平均値と標準偏差で規格化してもよい。以下の説明では、符号帳の音声特徴量代表ベクトルも単に音声特徴量ベクトルと呼ぶ。
入力音声データから抽出した音声特徴量のパラメータのうち、ストレス状態判定処理に使用するパラメータの組は、上記の符号帳作成に用いたパラメータの組と同じものである。ストレス状態または非ストレス状態の音声小段落を特定するために、音声小段落中のコードC(エントリのインデックス)に対応させて、各ストレス状態での出現確率と非ストレス状態での出現確率をそれぞれ算出する。従って、符号帳には、上記のコードCと、音声特徴量ベクトルと、ストレス状態での出現確率と非ストレス状態での出現確率とが対応して記録されている。
以下に、ステップS335で行う話者がストレス状態にあるときの尤度であるストレス状態尤度の算出、及び、ステップS336で行う非ストレス状態にあるときの尤度である非ストレス状態尤度の算出方法の一例について説明する。まず、学習音声中のラベル区間に含まれるフレームの数をnとし、それぞれのフレームについて得られる音声特徴量の組の時系列に対応するコードが時系列でC, C, …, Cとなっているものとする。
前述のように、ラベル区間は、符号帳を作成する処理のステップS311で、ラベルが付けられた1つの音声区間である。ステップS335、S336で算出される、ラベル区間Aのストレス状態尤度PAstr及び非ストレス状態尤度PAnrmは、それぞれ、以下の式(3) 及び式(4) に示すように表される。
Figure 2007000366
ここで、Pstr(Ci|C1…Ci-1)は、コード列C1, …, Ci-1の次にコードCiがストレス状態となる条件付出現確率、Pnrm(Ci|C1…Ci-1)は、同様にコード列C1, …, Ci-1の次にコードCiが非ストレス状態となる条件付出現確率である。また、Pstr(Ci)は、符号帳を作成する処理において、音声がストレス状態とラベル付けされた部分に存在した音声特徴量ベクトルに対応するコードCiの総個数を数え、その総個数を、全音声データ中のストレス状態とラベル付けされた部分音声データの全コード数(=フレーム数)で割算した値である。一方、Pnrm(Ci)は、コードCiが非ストレス状態とラベル付けされた部分に存在した個数を、非ストレス状態とラベル付けされた音声データの全コード数で割算した値である。
以下では、各条件付出現確率をN-gram(N<i)モデルで近似し、ストレス状態尤度及び非ストレス状態尤度の計算を簡単にする。N-gramモデルは、ある時点でのある事象の出現がその直前のN-1個の事象の出現に依存すると近似するモデルである。ここで、N=3のときはtrigram、N=2のときはbigram、N=1のときはunigramとよばれる。このモデルでは、例えば、n番目のフレームにコードCiが出現する確率P(Ci)は、P(Ci)=P(Ci|Ci-N+1…Ci-1)とされる。
上記の式(3) 及び式(4) 中の各条件付出現確率Pstr(Ci|C1…Ci-1)、Pnrm(Ci|C1…Ci-1)にN-gramモデルを適用すると、各条件付出現確率は以下の式(5) 及び式(6) に示すように近似される。
Pstr(Ci|C1…Ci-1)=Pstr(Ci|Ci-N+1…Ci-1) (5)
Pnrm(Ci|C1…Ci-1)=Pnrm(Ci|Ci-N+1…Ci-1) (6)
上記の式(5) のPstr(Ci|Ci-N+1…Ci-1)及び式(6) のPnrm(Ci|Ci-N+1…Ci-1)は、通常、符号帳から全て得られるようになっているが、一部のものについては、学習音声から得られないものもある。その場合は、他の条件付出現確率や単独出現確率から補間によって求めたものでもよい。例えば、低次(即ち、コード列が短い)の条件付出現確率と単独出現確率等とから高次(即ち、コード列が長い)の条件付出現確率を補間して求めることができる。
以下に、この補間の方法について説明する。以下では、上記のtrigram (N=3)、bigram (N=2)、及び、unigram (N=1)を例にとり説明する。各出現確率は、trigram (N=3)では、Pstr(Ci|Ci-2Ci-1)、Pnrm(Ci|Ci-2Ci-1)、bigram (N=2)では、Pstr(Ci|Ci-1)、Pnrm(Ci|Ci-1)、そして、unigram (N=1)では、Pstr(Ci)、Pnrm(Ci)と表される。
この補間の方法では、Pstr(Ci|Ci-2Ci-1)及びPnrm(Ci|Ci-2Ci-1)を、上記のストレス状態での3つの出現確率、非ストレス状態での3つの出現確率を用い、以下の式(7) 及び式(8) に基づいて算出する。
Figure 2007000366
ここで、上記のλstr1、λstr2、λstr3は、trigramのストレス状態とラベル付けされた学習データのフレーム数をnとし、時系列でコードC1, C2, …, Cnが得られたとき、以下のように表される。
Figure 2007000366
ただし、λstr1、λstr2、λstr3を求めるときの音声データは、符号帳を作成するときの音声データ以外のものとする。符号帳を作成するときの音声データと同じ音声データを用いると、λstr1=1、λstr2=λstr3=0の自明な解となってしまうからである。同様に、λnrm1、λnrm2、λnrm3も求められる。
次に、trigramを用い、ラベル区間Aのフレーム数がFAであり、得られたコードがC1, C2, …, CFAのとき、このラベル区間Aのストレス状態尤度PAstr及び非ストレス状態尤度PAnrmは、それぞれ、以下の式(9) 及び式(10)に示すように表される。
PAstr=Pstr(C3|C1C2)…Pstr(CFA|CFA-2CFA=1) (9)
PAnrm=Pnrm(C3|C1C2)…Pnrm(CFA|CFA-2CFA-1) (10)
本発明の実施の形態では、上記のように補間と、ストレス状態尤度PAstr及び非ストレス状態尤度PAnrmの算出とができるように、上記の例では、trigram (N=3)、bigram (N=2)、及び、unigram (N=1)を各コードについて算出しておき、符号帳に格納しておくものとする。つまり、符号帳には、各コードに対応して、音声特徴量ベクトルと、そのストレス状態での出現確率と、非ストレス状態での出現確率との組が格納される。
ストレス状態での音声特徴量ベクトルの出現確率としては、各コードが過去のフレームで出現したコードと無関係にストレス状態で出現する確率(単独出現確率)、直前の連続した所定数のフレームの取り得るコードの列の次にそのコードがストレス状態で出現する条件付出現確率、またはそれら両方を使用する。同様に、非ストレス状態での出現確率、そのコードが過去のフレームで出現したコードと無関係に非ストレス状態で出現する単独出現確率、直前の連続した所定数のフレームの取り得るコードの列の次にそのコードが非ストレス状態で出現する条件付出現確率、またはそれら両方を使用する。
図7に、符号帳に記録される内容の一例を示す。符号帳におけるh番目のエントリのコードをChで表し、例えばC1は第1番目のエントリのコードを表すものとする。コードC1, C2, C3, …は、符号帳の各音声特徴量ベクトルに対応したコード(インデックス)を表し、それぞれmビットの値"00…00"、"00…01"、"00…10"、…である。符号帳には各コードC1, C2, …毎に、その音声特徴量ベクトルと、その単独出現確率が、各ストレス状態及び非ストレス状態について格納され、条件付出現確率が各ストレス状態及び非ストレス状態についてそれぞれ組として格納されている。
以下では、表記を簡略化するため、各符号を区別せずCで表し、入力音声信号の音声特徴量ベクトル時系列に対応する符号時系列をC1, C2, C3...と表す。またこの発明に好適な音声特徴量の組の例として、パラメータf0"、p"、dpを使用し、符号帳サイズ(音声特徴量ベクトルの数)が25の場合のストレス状態及び非ストレス状態での、条件付出現確率をtrigramで近似した例について説明する。
図8は、音声データの処理を説明するための模式図である。時刻tから始まる音声小段落のうち、第1フレームから第4フレームまでを符号i〜i+3を付して示し、フレーム長及びフレームシフトを、上記のように、それぞれ、100ms、50msとしている。ここでは、フレーム番号i(時刻t〜t+100)のフレームについてコードC1が、フレーム番号i+1(時刻t+50〜t+150)のフレームについてコードC2が、フレーム番号i+2(時刻t+100〜t+200)のフレームについてコードC3が、そして、フレーム番号i+1(時刻t+50〜t+150)のフレームについてコードC4が得られているものとする。即ち、フレーム順にコードがC1、C2、C3、C4であるとする。
この場合、フレーム番号i+2以上のフレームでは、trigramが計算できる。いま、音声小段落Sのストレス状態尤度をPSstr、非ストレス状態尤度をPSnrmとすると、第4フレームまでの各尤度はそれぞれ、以下の式(11)及び式(12)によって与えられる。
PSstr=Pstr(C3|C1C2)Pstr(C4|C2C3) (11)
PSnrm=Pnrm(C3|C1C2)Pnrm(C4|C2C3) (12)
この例では、符号帳からコードC3、C4のストレス状態及び非ストレス状態の各単独出現確率を求め、コードC2の次にコードC3がストレス状態及び非ストレス状態で出現する条件付出現確率を求め、さらに、コードC3が連続するコードC1C2の次にストレス状態及び非ストレス状態で出現し、コードC4が連続するコードC2C3の次にストレス状態及び非ストレス状態で出現する条件付出現確率を求めると以下のようになる。
Pstr(C3|C1C2)=λstr1Pstr(C3|C1C2)+λstr2Pstr(C3|C2)+λstr3Pstr(C3) (13)
Pstr(C4|C2C3)=λstr1Pstr(C4|C2C3)+λstr2Pstr(C4|C3)+λstr3Pstr(C4) (14)
Pnrm(C3|C1C2)=λnrm1Pnrm(C3|C1C2)+λnrm2Pnrm(C3|C2)+λrnm3Pnrm(C3) (15)
Pnrm(C4|C2C3)=λnrm1Pnrm(C4|C2C3)+λnrm2Pnrm(C4|C3)+λnrm3Pnrm(C4) (16)
上記の式(13)〜(16)を用いることによって、式(11)と(12)とで示される第3フレームまでのストレス状態尤度PSstrと非ストレス状態尤度をPSnrmが求まる。ここで、条件付出現確率Pstr(C3|C1C2)及びPnrm(C3|C1C2)は、フレーム番号i+2以降で計算できる。
以上の説明は、第4フレームi+3までの計算についてであったが、フレーム数FSの音声小段落Sについても同様に適用できる。例えば、フレーム数FSの音声小段落Sのそれぞれのフレームから得られたコードがC1、C2、…、CFAのとき、この音声小段落Sがストレス状態になる尤度PSstrと非ストレス状態になる尤度PSnrmを以下の式(17)及び式(18)に示すように計算する。
Figure 2007000366
上記のように算出した尤度が、PSstr>PSnrm、であれば、その音声小段落Sは、ストレス状態であると判定する(S350)。逆に、PSstr≦PSnrmであれば、実質的に非ストレス状態と判定されることになる。同様に、PSstr/PSnrm>1、であることをストレス状態と判定するための条件とするのでもよい。また、正の重み係数Wに対しWFAPSstr>PSnrm、を満足することを条件とすることにより、あるいは
RE=(logPSstr-logPSnrm)/FA>W (19)
を満足することを条件とすることにより、小段落のフレーム数FAに応じて重み付けの影響を増減するようにしてもよい。
あるいは、ストレス状態出現確率Pstrの音声小段落にわたる総和ΣPstrと非ストレス状態出現確率Pnrmの音声小段落にわたる総和ΣPnrmからストレス状態尤度PAstrと非ストレス状態尤度PAnrmを次式
Figure 2007000366
のように求め、PAstr>PAnrmならその音声小段落はストレス状態であると判定し、PAstr≦PAnrmであれば非ストレス状態と判定してもよい。あるいは、これら条件付出現確率の総積あるいは条件付出現確率の総和を重み付け比較して音声小段落のストレス状態/非ストレス状態を判定してもよい。
本発明に係るストレス状態推定緩和方法及び装置は、被検者の音声に基づいて推定を行っているので、被検者の行動をそれほど制限しないでの測定を簡便に行うことができ、例えば航空管制官のストレス状態を推定し、ストレス状態に応じてストレスを緩和するストレス緩和音を与えることなどに適用できる。
本発明の実施の形態に係るストレス状態推定緩和装置の機能構成を示すブロック図。 本発明の実施の形態に係るストレス状態推定緩和装置の具体的構成の一例を示す図。 本発明の実施の形態に係るストレス状態推定緩和装置の動作を説明するためのフローチャート。 ステップS330での処理を説明するためのフローチャート。 音声小段落、音声段落等を説明するための概念図。 ステップS310での処理を説明するためのフローチャート。 符号帳の記載例を示す図。 音声データの処理を説明するための模式図。

Claims (9)

  1. 被検者のストレス状態を推定し、緩和するストレス状態推定緩和方法であって、
    (a) 被検者の音声からフレームごとに予め決めた音声特徴量の組を抽出するステップと、
    (b) ストレス状態と非ストレス状態のそれぞれにおける音声特徴量ベクトルの出現確率が上記被検者の学習音声から予め求められ格納された符号帳を用い、上記音声特徴量の組から対応する音声特徴量ベクトルと、その音声特徴量ベクトルのストレス状態及び非ストレス状態における出現確率を得るステップと、
    (c) 1フレーム以上の与えられた判定区間にわたる上記ストレス状態と非ストレス状態のそれぞれにおける上記音声特徴量ベクトルの上記出現確率に基づいてストレス状態となる尤度と非ストレス状態となる尤度をそれぞれ算出するステップと、
    (d) 上記ストレス状態となる尤度と上記非ストレス状態となる尤度に基づいて上記被検者がストレス状態か非ストレス状態のいずれであるかを推定するステップと、
    (e) 上記被検者がストレス状態と推定された場合、予め決めた複数のストレスレベルのいずれかを判定するステップと、
    (f) 予め決めた複数のストレス緩和音から上記判定したストレスレベルに応じたストレス緩和音を選択し、上記被検者の環境に出力するステップ、
    とを含むことを特徴とするストレス状態推定緩和方法。
  2. 請求項1記載の方法において、上記ステップ(d) は、ストレス状態の尤度と非ストレス状態の尤度との差分を算出し、上記算出した差分が予め設定した閾値を超える場合は上記被検者がストレス状態にあると判定するステップであることを特徴とするストレス状態推定緩和方法。
  3. 請求項1記載の方法において、上記ステップ(d) は、ストレス状態の尤度と非ストレス状態の尤度の比を算出し、上記算出した比が予め設定した閾値を超える場合は上記被検者がストレス状態にあると判定するステップであることを特徴とするストレス状態推定緩和方法。
  4. 請求項1記載の方法において、上記ステップ(d) は、
    (d-1) 上記ステップ(a)〜(c)を実行するごとに算出した上記ストレス状態及び非ストレス状態となる尤度を蓄積することを与えられた検査期間にわたって繰り返すステップと、
    (d-2) 蓄積された上記ストレス状態及び非ストレス状態となる尤度に基づいて上記被検者がストレス状態であるか否かを推定するステップ、
    とを含むことを特徴とするストレス状態推定緩和方法。
  5. 請求項4記載の方法において、上記ステップ(d-2) は、上記検査期間内の判定区間ごとに、ストレス状態の尤度と非ストレス状態の尤度との差分を算出し、上記算出した差分が予め設定した状態推定閾値を超える場合は上記被検者がストレス状態にあると判定するステップを含み、上記ステップ(e) は、ストレス状態と判定されたすべての判定区間の上記尤度の差分の総和を上記検査期間内の全判定区間数で割り算してストレスレベルを得て、上記ストレスレベルを上記状態推定閾値より大のレベル閾値と比較し、上記ストレスレベルが上記レベル閾値以下であれば第1のストレス状態と判定し、上記レベル閾値より大であれば第2のストレス状態と判定するステップとを含むことを特徴とするストレス状態推定緩和方法。
  6. 請求項4記載の方法において、上記ステップ(d-2) は、上記検査期間内の判定区間ごとに、ストレス状態の尤度と非ストレス状態の尤度との尤度比を算出し、上記算出した尤度比が予め設定した状態推定閾値を超える場合は上記被検者がストレス状態にあると判定するステップを含み、上記ステップ(e) は、ストレス状態と判定されたすべての判定区間の上記尤度比の総和を上記検査期間内の全判定区間数で割り算してストレスレベルを得て、上記ストレスレベルを上記状態推定閾値より大のレベル閾値と比較し、上記ストレスレベルが上記レベル閾値以下であれば第1のストレス状態と判定し、上記レベル閾値より大であれば第2のストレス状態と判定するステップとを含むことを特徴とするストレス状態推定緩和方法。
  7. 請求項1乃至6のいずれか記載の方法において、上記音声特徴量の組は、少なくとも基本周波数、パワー、動的特徴量の時間変化特性、またはそれらのフレーム間差分を含むことを特徴とするストレス状態推定緩和方法。
  8. 被検者のストレス状態を推定し、緩和するストレス状態推定緩和装置であって、
    被検者の音声からフレームごとに予め決めた音声特徴量の組を抽出する音声特徴量抽出手段と、
    ストレス状態と非ストレス状態のそれぞれにおける音声特徴量ベクトルの出現確率が上記被検者の学習音声から予め求められ格納された符号帳を記憶する記憶手段と、
    上記音声特徴量の組から対応する音声特徴量ベクトルを判定する音声特徴量ベクトル判定手段と、
    上記判定した音声特徴量ベクトルのストレス状態及び非ストレス状態における出現確率をそれぞれ上記符号帳から得る出現確率取得手段と、
    1フレーム以上の当てられた判定区間にわたる上記ストレス状態及び非ストレス状態のそれぞれにおける上記音声特徴量ベクトルの上記出現確率に基づいてストレス状態となる尤度及び非ストレス状態となる尤度をそれぞれ算出する尤度算出手段と、
    上記ストレス状態となる尤度及び非ストレス状態となる尤度に基づいて上記被検者がストレス状態か非ストレス状態のいずれであるかを推定し、ストレス状態と推定された場合に、予め決めた複数のストレスレベルのいずれであるかを判定するストレス状態推定手段と、
    予め決めた複数のストレス緩和音から上記判定したストレスレベルに応じたストレス緩和音を選択し、上記被検者の環境に出力するストレス緩和音出力手段、
    とを含むことを特徴とするストレス状態推定緩和装置。
  9. 請求項1乃至7のいずれか記載のストレス状態推定緩和方法を実施する処理ステップを記述したコンピュータで実行可能なプログラム。
JP2005183989A 2005-06-23 2005-06-23 ストレス状態推定緩和装置及びそのプログラム Expired - Fee Related JP4630136B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005183989A JP4630136B2 (ja) 2005-06-23 2005-06-23 ストレス状態推定緩和装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005183989A JP4630136B2 (ja) 2005-06-23 2005-06-23 ストレス状態推定緩和装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2007000366A true JP2007000366A (ja) 2007-01-11
JP4630136B2 JP4630136B2 (ja) 2011-02-09

Family

ID=37686507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005183989A Expired - Fee Related JP4630136B2 (ja) 2005-06-23 2005-06-23 ストレス状態推定緩和装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP4630136B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4519193B1 (ja) * 2009-07-27 2010-08-04 エンパイア テクノロジー ディベロップメント エルエルシー 情報処理システム、情報処理方法
KR101549908B1 (ko) 2014-07-02 2015-09-08 전우성 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법
KR101574950B1 (ko) 2014-05-22 2015-12-07 주식회사 가온디렉터 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법
KR20160115568A (ko) * 2015-03-27 2016-10-06 박세준 텔레마케팅용 헤드셋 장치 및 이를 포함하는 스트레스 측정시스템
KR20180019375A (ko) * 2016-08-16 2018-02-26 서민수 감정노동자를 위한 컨디션 체크와 관리 시스템 및 그 방법
KR20190135916A (ko) * 2018-05-29 2019-12-09 연세대학교 산학협력단 음성 신호를 이용한 사용자 스트레스 판별 장치 및 방법
KR20210007357A (ko) * 2019-07-11 2021-01-20 국방과학연구소 심전도 기반의 스트레스 완화 장치 및 그 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153905A (ja) * 2001-11-20 2003-05-27 Matsushita Electric Ind Co Ltd 携帯通信機
JP2003316378A (ja) * 2001-08-08 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 音声処理方法及びその方法を使用した装置及びそのプログラム
JP2004275220A (ja) * 2003-03-12 2004-10-07 Matsushita Electric Ind Co Ltd 発話量計、発話量計測方法、プログラム、及び記録媒体
JP2005137896A (ja) * 2003-10-16 2005-06-02 Sanyo Electric Co Ltd リラクセーションシステム、リラクセーション方法およびリラクセーションプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003316378A (ja) * 2001-08-08 2003-11-07 Nippon Telegr & Teleph Corp <Ntt> 音声処理方法及びその方法を使用した装置及びそのプログラム
JP2003153905A (ja) * 2001-11-20 2003-05-27 Matsushita Electric Ind Co Ltd 携帯通信機
JP2004275220A (ja) * 2003-03-12 2004-10-07 Matsushita Electric Ind Co Ltd 発話量計、発話量計測方法、プログラム、及び記録媒体
JP2005137896A (ja) * 2003-10-16 2005-06-02 Sanyo Electric Co Ltd リラクセーションシステム、リラクセーション方法およびリラクセーションプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011024830A (ja) * 2009-07-27 2011-02-10 Emprie Technology Development LLC 情報処理システム、情報処理方法
US7908144B2 (en) 2009-07-27 2011-03-15 Empire Technology Development Llc Information processing system and information processing method
JP4519193B1 (ja) * 2009-07-27 2010-08-04 エンパイア テクノロジー ディベロップメント エルエルシー 情報処理システム、情報処理方法
KR101574950B1 (ko) 2014-05-22 2015-12-07 주식회사 가온디렉터 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법
JP2017528282A (ja) * 2014-07-02 2017-09-28 ガオンディレクター カンパニー リミテッドGaondirector Co., Ltd ストレス緩和及び集中力向上のためのホワイトノイズ発生ヘッドセット及びそれを用いたホワイトノイズ発生方法
KR101549908B1 (ko) 2014-07-02 2015-09-08 전우성 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법
US10354674B2 (en) * 2014-07-02 2019-07-16 Gaondirector Co., Ltd. White noise generating apparatus for stress relaxation and concentration improvement, and white noise generating method using same
WO2016003096A3 (ko) * 2014-07-02 2017-04-20 주식회사 가온디렉터 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법
KR101678774B1 (ko) * 2015-03-27 2016-11-22 박세준 텔레마케팅용 헤드셋 장치 및 이를 포함하는 스트레스 측정시스템
KR20160115568A (ko) * 2015-03-27 2016-10-06 박세준 텔레마케팅용 헤드셋 장치 및 이를 포함하는 스트레스 측정시스템
KR20180019375A (ko) * 2016-08-16 2018-02-26 서민수 감정노동자를 위한 컨디션 체크와 관리 시스템 및 그 방법
KR20190135916A (ko) * 2018-05-29 2019-12-09 연세대학교 산학협력단 음성 신호를 이용한 사용자 스트레스 판별 장치 및 방법
KR102241364B1 (ko) * 2018-05-29 2021-04-16 연세대학교 산학협력단 음성 신호를 이용한 사용자 스트레스 판별 장치 및 방법
KR20210007357A (ko) * 2019-07-11 2021-01-20 국방과학연구소 심전도 기반의 스트레스 완화 장치 및 그 방법
KR102322003B1 (ko) * 2019-07-11 2021-11-04 국방과학연구소 심전도 기반의 스트레스 완화 장치 및 그 방법

Also Published As

Publication number Publication date
JP4630136B2 (ja) 2011-02-09

Similar Documents

Publication Publication Date Title
JP4630136B2 (ja) ストレス状態推定緩和装置及びそのプログラム
US8484035B2 (en) Modification of voice waveforms to change social signaling
US20020035915A1 (en) Generation of a note-based code
EP0764937A2 (en) Method for speech detection in a high-noise environment
US8392198B1 (en) Split-band speech compression based on loudness estimation
BRPI0910793B1 (pt) Metodo e discriminador para a classificaqao de diferentes segmentos de um sinal
JP6542796B2 (ja) 線形予測係数量子化方法及びその装置、並びに線形予測係数逆量子化方法及びその装置
ES2757700T3 (es) Detección y codificación de altura tonal muy débil
JP2008503783A (ja) オーディオ信号のエンコーディングにおけるコーディング・モデルの選択
KR20110013390A (ko) 신호판정방법, 신호판정장치, 프로그램, 신호판정시스템
JPH0869299A (ja) 音声符号化方法、音声復号化方法及び音声符号化復号化方法
JP2011065120A (ja) すべての言語の音声識別及び音声識別を利用した単字入力の方法
JP6170172B2 (ja) 符号化モード決定方法及び該装置、オーディオ符号化方法及び該装置、並びにオーディオ復号化方法及び該装置
Ryant et al. Highly accurate mandarin tone classification in the absence of pitch information
KR102400540B1 (ko) 선형예측계수 양자화방법 및 장치와 역양자화 방법 및 장치
JP4580190B2 (ja) 音声処理装置、音声処理方法およびそのプログラム
JP5293329B2 (ja) 音声信号評価プログラム、音声信号評価装置、音声信号評価方法
CN101030374B (zh) 基音周期提取方法及装置
Goh et al. Robust speech recognition using harmonic features
JP3803311B2 (ja) 音声処理方法及びその方法を使用した装置及びそのプログラム
JP2002505450A (ja) ハイブリッド被刺激線形予測スピーチ符号化装置及び方法
JP2007003835A (ja) 疲労状態推定方法、疲労状態推定装置及びそのプログラム
Korse et al. Entropy Coding of Spectral Envelopes for Speech and Audio Coding Using Distribution Quantization.
Oppermann et al. What’s That Phthong? Automated Classification of Dialectal Mono-and Standard Diphthongs
US20110119067A1 (en) Apparatus for signal state decision of audio signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees