JP2007000366A - ストレス状態推定緩和方法、ストレス状態推定緩和装置及びそのプログラム - Google Patents
ストレス状態推定緩和方法、ストレス状態推定緩和装置及びそのプログラム Download PDFInfo
- Publication number
- JP2007000366A JP2007000366A JP2005183989A JP2005183989A JP2007000366A JP 2007000366 A JP2007000366 A JP 2007000366A JP 2005183989 A JP2005183989 A JP 2005183989A JP 2005183989 A JP2005183989 A JP 2005183989A JP 2007000366 A JP2007000366 A JP 2007000366A
- Authority
- JP
- Japan
- Prior art keywords
- stress state
- stress
- likelihood
- state
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】 学習音声に基づき予め被検者のストレス状態での音声特徴量ベクトルの出現確率、及び非ストレス状態での音声特徴量ベクトルの出現確率を音声特徴量ベクトルに対応付けた符号帳を作成し、検査時に、被検者の入力音声から音声特徴量を抽出し、抽出した音声特徴量に基づいて符号帳の対応する音声特徴量ベクトルを判定し、判定した音声特徴量ベクトルに対応するストレス状態での音声特徴量ベクトルの出現確率と、非ストレス状態での音声特徴量ベクトルの出現確率からストレス状態尤度及び非ストレス状態尤度を算出し、それらの尤度情報を一定期間蓄積し、蓄積されたストレス状態尤度と非ストレス状態尤度に基づいて話者がストレス状態にあったか否かを推定し、推定したストレス状態に対応したストレス緩和音を出力する。
【選択図】 図1
Description
この発明は、そのような問題を解決するためになされたものであり、被検者のストレス状態を検出する際に、被検者の行動をそれほど束縛しないでも精度よく簡便にストレス状態を検出し、それに応じてストレスを緩和する処置が可能なストレス状態推定緩和方法、装置及びそのプログラムを提供することである。
被検者の音声からフレームごとに予め決めた音声特徴量の組を抽出し、
ストレス状態と非ストレス状態のそれぞれにおける音声特徴量ベクトルの出現確率が上記被検者の学習音声から予め求められ格納された符号帳を用い、上記音声特徴量の組から対応する音声特徴量ベクトルと、その音声特徴量ベクトルのストレス状態及び非ストレス状態における出現確率を得て、
1フレーム以上の与えられた判定期間にわたる上記ストレス状態と非ストレス状態のそれぞれにおける上記音声特徴量ベクトルの上記出現確率に基づいてストレス状態となる尤度と非ストレス状態となる尤度をそれぞれ算出し、
上記ストレス状態となる尤度と上記非ストレス状態となる尤度に基づいて上記被検者がストレス状態か非ストレス状態のいずれであるかを推定し、
上記被検者がストレス状態と推定された場合、予め決めた複数のストレスレベルのいずれかを判定し、
予め決めた複数のストレス緩和音から上記判定したストレスレベルに応じたストレス緩和音を選択し、上記被検者の環境に出力する。
図1は、本発明の実施の形態に係るストレス状態推定緩和装置の機能構成を示すブロック図である。この実施例のストレス状態推定緩和装置100は、記憶手段110と、音声特徴量抽出手段120と、音声特徴量ベクトル判定手段130と、出現確率取得手段140と、尤度算出手段150と、ストレス状態推定手段160と、尤度情報蓄積手段170と、ストレス緩和音出力手段180と、制御手段190とから構成されている。
例えばこのストレス状態推定緩和装置100が航空管制官室の管制テーブル近くに設置され、管制官がパイロットとの交信時に使用するマイクロホンにより集音された音声信号がこの装置100に入力される。あるいは、この発明の装置がオフィスの電話機と隣接して又は電話機内に設置され、電話機の送話用マイクロホンから音声信号を取り出し、この発明の装置100に入力する。もちろん、この発明のストレス状態推定緩和装置100内にマイクロホンを設けて、そのマイクロホンで集音した音声信号を使用してもよい。あるいは、この発明のストレス状態推定緩和装置を被検者とは離れた例えば管理者室に設け、無線回線、電話回線あるいはインターネット電話回線を通して被検者からの音声信号を受信してストレス状態推定緩和装置100に入力し、被検者のストレス状態を管理者が遠隔地で監視するようにしてもよい。
尤度算出手段150は、与えられた判定区間、例えば入力音声の音声小段落区間に渡ってフレームごとに順次抽出した音声特徴量の組に対してこの符号帳110CBから読み取られた音声特徴量ベクトルに対応するストレス状態及び非ストレス状態での出現確率に基づいて、ストレス状態及び非ストレス状態となる尤度をそれぞれ算出する。
ストレス状態推定手段160は、尤度情報蓄積手段170により検査期間にわたって蓄積された判定区間毎のストレス状態となる尤度と非ストレス状態となる尤度に基づいて被検者がストレス状態か否かを判定し、その検査期間にわたる判定結果から、被検者がストレス状態か否かを推定する。さらに、ストレス状態と推定された場合はそのストレスのレベルが予め決めた複数の段階的レベル(例えば軽度、中度、重度)のどれに属するかを判定する。
ストレス緩和音出力手段180は、それぞれのストレスレベルに応じた癒しの効果のあるストレス緩和音を予め格納しており、ストレス状態推定手段160によって判定された被検者のストレスレベルに対応するストレス緩和音を選択し、被検者の環境に再生出力する。ストレス緩和音としては、癒し効果のある楽曲、電子的に合成された効果音、波の音や小鳥のさえずりなどの自然音、などである。
以下、本発明の実施の形態に係るストレス状態推定緩和装置100の動作について説明する。図3は、本発明の実施の形態に係るストレス状態推定緩和装置100の動作を説明するためのフローチャートである。
まず、学習音声を用いて生成された符号帳であって、学習音声に含まれる所定の音声特徴量の組(パラメータの組)である音声特徴量ベクトルの各値がストレス状態及び非ストレス状態でそれぞれ出現する出現確率をその音声特徴量ベクトルに対応して保持する符号帳が予め作成され、図1の記憶手段110に格納される(ステップS310)。符号帳作成の詳細とともに後述するが、音声特徴量ベクトルは、特許文献2に開示されているような音声のフレームごとに検出する少なくとも基本周波数、パワー、動的特徴量の時間変化特性、又はそれらのフレーム間差分のいずれか1つ以上のパラメータの組を含むベクトルである。
抽出した音声特徴量ベクトルに最も近い音声特徴量ベクトルが符号帳から音声特徴量ベクトル判別手段130により判別され(ステップS330)、出現確率取得手段140によりこの判別した音声特徴量ベクトルの、ストレス状態及び非ストレス状態での出現確率をそれぞれ符号帳110CBから読み出し(ステップS340)、これらステップS320,S330,S340を判定区間(例えば音声小段落区間又は一定区間)にわたって繰り返す。得られたこれらの出現確率に基づいて尤度算出手段150により、ストレス状態となる尤度及び非ストレス状態となる尤度を算出し、蓄積する(ステップS350)。
これらの音声特徴量の抽出法は公知であり、その詳細については、例えば、非特許文献1、非特許文献2、非特許文献3、非特許文献4等を参照されたい。
LPCケプストラム係数の次数kは、1からKまでの整数のいずれかである。動的特徴量d(t)の単位時間当たりの極大点の数、または、単位時間当たりの変化率はダイナミックメジャーとも呼ばれ、発話速度の尺度となる。
この規格化は、例えば、f0'、Δf0'(-i)、Δf0'(i)のそれぞれを、例えば、処理対象の音声データ全体の平均基本周波数で割算することによって行うのでもよい。また、処理対象の音声データ全体の平均基本周波数の代わりに、後述する音声小段落や音声段落毎の平均基本周波数や、数秒や数分等の時間内での平均基本周波数等を用いるのでもよい。
ダイナミックメジャーは、以下のように算出する。まず、現フレームの開始時刻を中心に現フレームより十分長い時間幅2T1(ただしT1は例えばフレーム長の10倍程度とする)の区間を設ける。次に、この区間内における動的特徴量d(t)の時間変化の極大点を算出し、極大点の個数dp(以下、単にdpという)を計数する。
上記の、T1、T2、T3の値は、それぞれ、フレーム長より十分長いものとし、以下では、T1=T2=T3=450msとする。ただし、これらの値に限られるものではない。また、フレームの前後の無声区間の長さを、それぞれ、tSR、tSFとする。ステップS320では、上記のf0"、Δf0"(-i)、Δf0"(i)、p”、Δp"(-i)、Δp"(i)、dp、Δdp(-T2)、Δdp(T3)等(以下、それぞれをパラメータと呼ぶ)の値をフレーム毎に抽出する。
ステップS320では、入力音声を対象に、音声特徴量ベクトルを規定する上記選択されたパラメータの組の値を入力音声信号のフレームごとに算出し、符号帳中の対応する音声特徴量ベクトルを判定し、その音声特徴量ベクトルに対応するストレス状態での出現確率と非ストレス状態での出現確率を得る。
ステップS330では、ステップS331〜S333により、音声小段落及び音声段落を抽出する。次に、ステップS334、S335で、ストレス状態尤度及び非ストレス状態尤度を算出する。この実施例では音声小段落を、話者がストレス状態か否かを判定する最小の単位とし、音声段落は、例えば、400ms程度またはそれ以上の無声区間ではさまれた、少なくとも1つ以上の音声小段落を含む区間であるものとする。図5に音声小段落Sj-1, Sj, Sj+1と音声段落B, B+1の関係を概念的に示す。
具体的には、入力信号の短時間スペクトルからスペクトル包絡を除去し、得られた予測残差の自己相関関数(以下、変形相関関数という)を算出し、変形相関関数のピーク値が所定の閾値より大きいか否かによって有声/無声の判定を行う。また、そのようなピークが得られる相関処理の遅延時間に基づいて、ピッチ周期1/f0の抽出を行う。
具体的には、復号された利得係数の絶対値または二乗値をパワーとして用い、ピッチ成分の利得係数と非周期成分の利得係数との比に基づいて有声/無声の判定を行うことができる。また、復号されたピッチ周期の逆数をピッチ周波数、即ち基本周波数として用いることができる。また、上記の式(1) で説明した動的特徴量の計算に使用するLPCケプストラム係数は、CELP符号を復号して得られたものを変換して求めることができる。
図4に戻って、有声区間の両側の無声区間の時間tSR、tSFがそれぞれ予め決めたtS以上になるとき、その無声区間によって囲まれた有声区間を含む信号部分を音声小段落Sjとして抽出する(S332)。以下では、この無声区間の時間tSの値を、例えば、tS=400msとする。
音声小段落の抽出は、上記の有声区間を囲む無声区間の時間がtS以上となるという条件で行う。図5に、音声小段落としてSj-1、Sj、Sj+1を示し、以下では音声小段落Sjを処理対象の音声小段落とする。音声小段落Sjは、Qj個の有声区間から構成され、音声小段落Sjの平均パワーをPjとする。
ここで、αはQj/2以下の値をとる整数であり、βは例えば0.5〜1.5程度の値をとる定数である。これらの値は、音声段落の抽出を最適化するように、予め実験により決めておく。ただし、有声区間の平均パワーpqは、その有声区間内の全フレームの平均パワーである。本発明の実施の形態では、例えばα=3、β=0.8とする。上記のようにすることによって、隣接する末尾音声小段落間の音声小段落の集合を音声段落と判定できる。あるいは、音声小段落を固定長t(s)、シフト幅S(s)と決めてもよい。例えばt(s)=S(s)=1msecの固定長、シフト幅としてもよい。音声段落についてもΔSの無声区間で囲まれた区間としてもよい。
ステップS335でのストレス状態尤度の算出に先立って、図6を用いて符号帳の作成方法について説明する。まず、多数の学習用音声を被験者から採取し、ストレス状態にあるときの発話と非ストレス状態にあるときの発話とを識別できるようにラベルを付ける(S311)。
符号帳には、このコードCに対応させて、フレーム長より十分長い所望の区間、例えば学習音声のラベル区間に得られる全音声特徴量ベクトルを使って上記LBGアルゴリズムにより決められた代表ベクトルを符号帳の音声特徴量代表ベクトルとして記録しておく。その際、各音声特徴量を、例えば、その平均値と標準偏差で規格化してもよい。以下の説明では、符号帳の音声特徴量代表ベクトルも単に音声特徴量ベクトルと呼ぶ。
前述のように、ラベル区間は、符号帳を作成する処理のステップS311で、ラベルが付けられた1つの音声区間である。ステップS335、S336で算出される、ラベル区間Aのストレス状態尤度PAstr及び非ストレス状態尤度PAnrmは、それぞれ、以下の式(3) 及び式(4) に示すように表される。
上記の式(3) 及び式(4) 中の各条件付出現確率Pstr(Ci|C1…Ci-1)、Pnrm(Ci|C1…Ci-1)にN-gramモデルを適用すると、各条件付出現確率は以下の式(5) 及び式(6) に示すように近似される。
Pnrm(Ci|C1…Ci-1)=Pnrm(Ci|Ci-N+1…Ci-1) (6)
上記の式(5) のPstr(Ci|Ci-N+1…Ci-1)及び式(6) のPnrm(Ci|Ci-N+1…Ci-1)は、通常、符号帳から全て得られるようになっているが、一部のものについては、学習音声から得られないものもある。その場合は、他の条件付出現確率や単独出現確率から補間によって求めたものでもよい。例えば、低次(即ち、コード列が短い)の条件付出現確率と単独出現確率等とから高次(即ち、コード列が長い)の条件付出現確率を補間して求めることができる。
この補間の方法では、Pstr(Ci|Ci-2Ci-1)及びPnrm(Ci|Ci-2Ci-1)を、上記のストレス状態での3つの出現確率、非ストレス状態での3つの出現確率を用い、以下の式(7) 及び式(8) に基づいて算出する。
次に、trigramを用い、ラベル区間Aのフレーム数がFAであり、得られたコードがC1, C2, …, CFAのとき、このラベル区間Aのストレス状態尤度PAstr及び非ストレス状態尤度PAnrmは、それぞれ、以下の式(9) 及び式(10)に示すように表される。
PAnrm=Pnrm(C3|C1C2)…Pnrm(CFA|CFA-2CFA-1) (10)
本発明の実施の形態では、上記のように補間と、ストレス状態尤度PAstr及び非ストレス状態尤度PAnrmの算出とができるように、上記の例では、trigram (N=3)、bigram (N=2)、及び、unigram (N=1)を各コードについて算出しておき、符号帳に格納しておくものとする。つまり、符号帳には、各コードに対応して、音声特徴量ベクトルと、そのストレス状態での出現確率と、非ストレス状態での出現確率との組が格納される。
図8は、音声データの処理を説明するための模式図である。時刻tから始まる音声小段落のうち、第1フレームから第4フレームまでを符号i〜i+3を付して示し、フレーム長及びフレームシフトを、上記のように、それぞれ、100ms、50msとしている。ここでは、フレーム番号i(時刻t〜t+100)のフレームについてコードC1が、フレーム番号i+1(時刻t+50〜t+150)のフレームについてコードC2が、フレーム番号i+2(時刻t+100〜t+200)のフレームについてコードC3が、そして、フレーム番号i+1(時刻t+50〜t+150)のフレームについてコードC4が得られているものとする。即ち、フレーム順にコードがC1、C2、C3、C4であるとする。
PSstr=Pstr(C3|C1C2)Pstr(C4|C2C3) (11)
PSnrm=Pnrm(C3|C1C2)Pnrm(C4|C2C3) (12)
この例では、符号帳からコードC3、C4のストレス状態及び非ストレス状態の各単独出現確率を求め、コードC2の次にコードC3がストレス状態及び非ストレス状態で出現する条件付出現確率を求め、さらに、コードC3が連続するコードC1C2の次にストレス状態及び非ストレス状態で出現し、コードC4が連続するコードC2C3の次にストレス状態及び非ストレス状態で出現する条件付出現確率を求めると以下のようになる。
Pstr(C4|C2C3)=λstr1Pstr(C4|C2C3)+λstr2Pstr(C4|C3)+λstr3Pstr(C4) (14)
Pnrm(C3|C1C2)=λnrm1Pnrm(C3|C1C2)+λnrm2Pnrm(C3|C2)+λrnm3Pnrm(C3) (15)
Pnrm(C4|C2C3)=λnrm1Pnrm(C4|C2C3)+λnrm2Pnrm(C4|C3)+λnrm3Pnrm(C4) (16)
上記の式(13)〜(16)を用いることによって、式(11)と(12)とで示される第3フレームまでのストレス状態尤度PSstrと非ストレス状態尤度をPSnrmが求まる。ここで、条件付出現確率Pstr(C3|C1C2)及びPnrm(C3|C1C2)は、フレーム番号i+2以降で計算できる。
RE=(logPSstr-logPSnrm)/FA>W (19)
を満足することを条件とすることにより、小段落のフレーム数FAに応じて重み付けの影響を増減するようにしてもよい。
Claims (9)
- 被検者のストレス状態を推定し、緩和するストレス状態推定緩和方法であって、
(a) 被検者の音声からフレームごとに予め決めた音声特徴量の組を抽出するステップと、
(b) ストレス状態と非ストレス状態のそれぞれにおける音声特徴量ベクトルの出現確率が上記被検者の学習音声から予め求められ格納された符号帳を用い、上記音声特徴量の組から対応する音声特徴量ベクトルと、その音声特徴量ベクトルのストレス状態及び非ストレス状態における出現確率を得るステップと、
(c) 1フレーム以上の与えられた判定区間にわたる上記ストレス状態と非ストレス状態のそれぞれにおける上記音声特徴量ベクトルの上記出現確率に基づいてストレス状態となる尤度と非ストレス状態となる尤度をそれぞれ算出するステップと、
(d) 上記ストレス状態となる尤度と上記非ストレス状態となる尤度に基づいて上記被検者がストレス状態か非ストレス状態のいずれであるかを推定するステップと、
(e) 上記被検者がストレス状態と推定された場合、予め決めた複数のストレスレベルのいずれかを判定するステップと、
(f) 予め決めた複数のストレス緩和音から上記判定したストレスレベルに応じたストレス緩和音を選択し、上記被検者の環境に出力するステップ、
とを含むことを特徴とするストレス状態推定緩和方法。 - 請求項1記載の方法において、上記ステップ(d) は、ストレス状態の尤度と非ストレス状態の尤度との差分を算出し、上記算出した差分が予め設定した閾値を超える場合は上記被検者がストレス状態にあると判定するステップであることを特徴とするストレス状態推定緩和方法。
- 請求項1記載の方法において、上記ステップ(d) は、ストレス状態の尤度と非ストレス状態の尤度の比を算出し、上記算出した比が予め設定した閾値を超える場合は上記被検者がストレス状態にあると判定するステップであることを特徴とするストレス状態推定緩和方法。
- 請求項1記載の方法において、上記ステップ(d) は、
(d-1) 上記ステップ(a)〜(c)を実行するごとに算出した上記ストレス状態及び非ストレス状態となる尤度を蓄積することを与えられた検査期間にわたって繰り返すステップと、
(d-2) 蓄積された上記ストレス状態及び非ストレス状態となる尤度に基づいて上記被検者がストレス状態であるか否かを推定するステップ、
とを含むことを特徴とするストレス状態推定緩和方法。 - 請求項4記載の方法において、上記ステップ(d-2) は、上記検査期間内の判定区間ごとに、ストレス状態の尤度と非ストレス状態の尤度との差分を算出し、上記算出した差分が予め設定した状態推定閾値を超える場合は上記被検者がストレス状態にあると判定するステップを含み、上記ステップ(e) は、ストレス状態と判定されたすべての判定区間の上記尤度の差分の総和を上記検査期間内の全判定区間数で割り算してストレスレベルを得て、上記ストレスレベルを上記状態推定閾値より大のレベル閾値と比較し、上記ストレスレベルが上記レベル閾値以下であれば第1のストレス状態と判定し、上記レベル閾値より大であれば第2のストレス状態と判定するステップとを含むことを特徴とするストレス状態推定緩和方法。
- 請求項4記載の方法において、上記ステップ(d-2) は、上記検査期間内の判定区間ごとに、ストレス状態の尤度と非ストレス状態の尤度との尤度比を算出し、上記算出した尤度比が予め設定した状態推定閾値を超える場合は上記被検者がストレス状態にあると判定するステップを含み、上記ステップ(e) は、ストレス状態と判定されたすべての判定区間の上記尤度比の総和を上記検査期間内の全判定区間数で割り算してストレスレベルを得て、上記ストレスレベルを上記状態推定閾値より大のレベル閾値と比較し、上記ストレスレベルが上記レベル閾値以下であれば第1のストレス状態と判定し、上記レベル閾値より大であれば第2のストレス状態と判定するステップとを含むことを特徴とするストレス状態推定緩和方法。
- 請求項1乃至6のいずれか記載の方法において、上記音声特徴量の組は、少なくとも基本周波数、パワー、動的特徴量の時間変化特性、またはそれらのフレーム間差分を含むことを特徴とするストレス状態推定緩和方法。
- 被検者のストレス状態を推定し、緩和するストレス状態推定緩和装置であって、
被検者の音声からフレームごとに予め決めた音声特徴量の組を抽出する音声特徴量抽出手段と、
ストレス状態と非ストレス状態のそれぞれにおける音声特徴量ベクトルの出現確率が上記被検者の学習音声から予め求められ格納された符号帳を記憶する記憶手段と、
上記音声特徴量の組から対応する音声特徴量ベクトルを判定する音声特徴量ベクトル判定手段と、
上記判定した音声特徴量ベクトルのストレス状態及び非ストレス状態における出現確率をそれぞれ上記符号帳から得る出現確率取得手段と、
1フレーム以上の当てられた判定区間にわたる上記ストレス状態及び非ストレス状態のそれぞれにおける上記音声特徴量ベクトルの上記出現確率に基づいてストレス状態となる尤度及び非ストレス状態となる尤度をそれぞれ算出する尤度算出手段と、
上記ストレス状態となる尤度及び非ストレス状態となる尤度に基づいて上記被検者がストレス状態か非ストレス状態のいずれであるかを推定し、ストレス状態と推定された場合に、予め決めた複数のストレスレベルのいずれであるかを判定するストレス状態推定手段と、
予め決めた複数のストレス緩和音から上記判定したストレスレベルに応じたストレス緩和音を選択し、上記被検者の環境に出力するストレス緩和音出力手段、
とを含むことを特徴とするストレス状態推定緩和装置。 - 請求項1乃至7のいずれか記載のストレス状態推定緩和方法を実施する処理ステップを記述したコンピュータで実行可能なプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005183989A JP4630136B2 (ja) | 2005-06-23 | 2005-06-23 | ストレス状態推定緩和装置及びそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005183989A JP4630136B2 (ja) | 2005-06-23 | 2005-06-23 | ストレス状態推定緩和装置及びそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007000366A true JP2007000366A (ja) | 2007-01-11 |
JP4630136B2 JP4630136B2 (ja) | 2011-02-09 |
Family
ID=37686507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005183989A Expired - Fee Related JP4630136B2 (ja) | 2005-06-23 | 2005-06-23 | ストレス状態推定緩和装置及びそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4630136B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4519193B1 (ja) * | 2009-07-27 | 2010-08-04 | エンパイア テクノロジー ディベロップメント エルエルシー | 情報処理システム、情報処理方法 |
KR101549908B1 (ko) | 2014-07-02 | 2015-09-08 | 전우성 | 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법 |
KR101574950B1 (ko) | 2014-05-22 | 2015-12-07 | 주식회사 가온디렉터 | 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법 |
KR20160115568A (ko) * | 2015-03-27 | 2016-10-06 | 박세준 | 텔레마케팅용 헤드셋 장치 및 이를 포함하는 스트레스 측정시스템 |
KR20180019375A (ko) * | 2016-08-16 | 2018-02-26 | 서민수 | 감정노동자를 위한 컨디션 체크와 관리 시스템 및 그 방법 |
KR20190135916A (ko) * | 2018-05-29 | 2019-12-09 | 연세대학교 산학협력단 | 음성 신호를 이용한 사용자 스트레스 판별 장치 및 방법 |
KR20210007357A (ko) * | 2019-07-11 | 2021-01-20 | 국방과학연구소 | 심전도 기반의 스트레스 완화 장치 및 그 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003153905A (ja) * | 2001-11-20 | 2003-05-27 | Matsushita Electric Ind Co Ltd | 携帯通信機 |
JP2003316378A (ja) * | 2001-08-08 | 2003-11-07 | Nippon Telegr & Teleph Corp <Ntt> | 音声処理方法及びその方法を使用した装置及びそのプログラム |
JP2004275220A (ja) * | 2003-03-12 | 2004-10-07 | Matsushita Electric Ind Co Ltd | 発話量計、発話量計測方法、プログラム、及び記録媒体 |
JP2005137896A (ja) * | 2003-10-16 | 2005-06-02 | Sanyo Electric Co Ltd | リラクセーションシステム、リラクセーション方法およびリラクセーションプログラム |
-
2005
- 2005-06-23 JP JP2005183989A patent/JP4630136B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003316378A (ja) * | 2001-08-08 | 2003-11-07 | Nippon Telegr & Teleph Corp <Ntt> | 音声処理方法及びその方法を使用した装置及びそのプログラム |
JP2003153905A (ja) * | 2001-11-20 | 2003-05-27 | Matsushita Electric Ind Co Ltd | 携帯通信機 |
JP2004275220A (ja) * | 2003-03-12 | 2004-10-07 | Matsushita Electric Ind Co Ltd | 発話量計、発話量計測方法、プログラム、及び記録媒体 |
JP2005137896A (ja) * | 2003-10-16 | 2005-06-02 | Sanyo Electric Co Ltd | リラクセーションシステム、リラクセーション方法およびリラクセーションプログラム |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011024830A (ja) * | 2009-07-27 | 2011-02-10 | Emprie Technology Development LLC | 情報処理システム、情報処理方法 |
US7908144B2 (en) | 2009-07-27 | 2011-03-15 | Empire Technology Development Llc | Information processing system and information processing method |
JP4519193B1 (ja) * | 2009-07-27 | 2010-08-04 | エンパイア テクノロジー ディベロップメント エルエルシー | 情報処理システム、情報処理方法 |
KR101574950B1 (ko) | 2014-05-22 | 2015-12-07 | 주식회사 가온디렉터 | 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법 |
JP2017528282A (ja) * | 2014-07-02 | 2017-09-28 | ガオンディレクター カンパニー リミテッドGaondirector Co., Ltd | ストレス緩和及び集中力向上のためのホワイトノイズ発生ヘッドセット及びそれを用いたホワイトノイズ発生方法 |
KR101549908B1 (ko) | 2014-07-02 | 2015-09-08 | 전우성 | 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법 |
US10354674B2 (en) * | 2014-07-02 | 2019-07-16 | Gaondirector Co., Ltd. | White noise generating apparatus for stress relaxation and concentration improvement, and white noise generating method using same |
WO2016003096A3 (ko) * | 2014-07-02 | 2017-04-20 | 주식회사 가온디렉터 | 스트레스 완화 및 집중력 향상을 위한 백색소음 발생 헤드셋 및 그를 이용한 백색소음 발생 방법 |
KR101678774B1 (ko) * | 2015-03-27 | 2016-11-22 | 박세준 | 텔레마케팅용 헤드셋 장치 및 이를 포함하는 스트레스 측정시스템 |
KR20160115568A (ko) * | 2015-03-27 | 2016-10-06 | 박세준 | 텔레마케팅용 헤드셋 장치 및 이를 포함하는 스트레스 측정시스템 |
KR20180019375A (ko) * | 2016-08-16 | 2018-02-26 | 서민수 | 감정노동자를 위한 컨디션 체크와 관리 시스템 및 그 방법 |
KR20190135916A (ko) * | 2018-05-29 | 2019-12-09 | 연세대학교 산학협력단 | 음성 신호를 이용한 사용자 스트레스 판별 장치 및 방법 |
KR102241364B1 (ko) * | 2018-05-29 | 2021-04-16 | 연세대학교 산학협력단 | 음성 신호를 이용한 사용자 스트레스 판별 장치 및 방법 |
KR20210007357A (ko) * | 2019-07-11 | 2021-01-20 | 국방과학연구소 | 심전도 기반의 스트레스 완화 장치 및 그 방법 |
KR102322003B1 (ko) * | 2019-07-11 | 2021-11-04 | 국방과학연구소 | 심전도 기반의 스트레스 완화 장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP4630136B2 (ja) | 2011-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4630136B2 (ja) | ストレス状態推定緩和装置及びそのプログラム | |
US8484035B2 (en) | Modification of voice waveforms to change social signaling | |
US20020035915A1 (en) | Generation of a note-based code | |
EP0764937A2 (en) | Method for speech detection in a high-noise environment | |
US8392198B1 (en) | Split-band speech compression based on loudness estimation | |
BRPI0910793B1 (pt) | Metodo e discriminador para a classificaqao de diferentes segmentos de um sinal | |
JP6542796B2 (ja) | 線形予測係数量子化方法及びその装置、並びに線形予測係数逆量子化方法及びその装置 | |
ES2757700T3 (es) | Detección y codificación de altura tonal muy débil | |
JP2008503783A (ja) | オーディオ信号のエンコーディングにおけるコーディング・モデルの選択 | |
KR20110013390A (ko) | 신호판정방법, 신호판정장치, 프로그램, 신호판정시스템 | |
JPH0869299A (ja) | 音声符号化方法、音声復号化方法及び音声符号化復号化方法 | |
JP2011065120A (ja) | すべての言語の音声識別及び音声識別を利用した単字入力の方法 | |
JP6170172B2 (ja) | 符号化モード決定方法及び該装置、オーディオ符号化方法及び該装置、並びにオーディオ復号化方法及び該装置 | |
Ryant et al. | Highly accurate mandarin tone classification in the absence of pitch information | |
KR102400540B1 (ko) | 선형예측계수 양자화방법 및 장치와 역양자화 방법 및 장치 | |
JP4580190B2 (ja) | 音声処理装置、音声処理方法およびそのプログラム | |
JP5293329B2 (ja) | 音声信号評価プログラム、音声信号評価装置、音声信号評価方法 | |
CN101030374B (zh) | 基音周期提取方法及装置 | |
Goh et al. | Robust speech recognition using harmonic features | |
JP3803311B2 (ja) | 音声処理方法及びその方法を使用した装置及びそのプログラム | |
JP2002505450A (ja) | ハイブリッド被刺激線形予測スピーチ符号化装置及び方法 | |
JP2007003835A (ja) | 疲労状態推定方法、疲労状態推定装置及びそのプログラム | |
Korse et al. | Entropy Coding of Spectral Envelopes for Speech and Audio Coding Using Distribution Quantization. | |
Oppermann et al. | What’s That Phthong? Automated Classification of Dialectal Mono-and Standard Diphthongs | |
US20110119067A1 (en) | Apparatus for signal state decision of audio signal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100610 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100921 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101102 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101112 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131119 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |