JP2010273700A - ストレス測定装置 - Google Patents

ストレス測定装置 Download PDF

Info

Publication number
JP2010273700A
JP2010273700A JP2009126076A JP2009126076A JP2010273700A JP 2010273700 A JP2010273700 A JP 2010273700A JP 2009126076 A JP2009126076 A JP 2009126076A JP 2009126076 A JP2009126076 A JP 2009126076A JP 2010273700 A JP2010273700 A JP 2010273700A
Authority
JP
Japan
Prior art keywords
stress
unit
speaker
voice
speakers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009126076A
Other languages
English (en)
Inventor
Takako Samukawa
貴子 寒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009126076A priority Critical patent/JP2010273700A/ja
Publication of JP2010273700A publication Critical patent/JP2010273700A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】対話中のストレスを判定するものであり、対話中の双方のストレスを測定するストレス装置を提供する。
【解決手段】対話しているそれぞれの話者の音声を入力する音声入力部と、前記音声入力信号を分析しストレスの有無は判定するストレス有無判定部と、前記ストレス有無判定部で判定した「ストレス有」という結果に対してストレスレベルの分類を行うストレスレベル判定部とを備え、話者双方の発声の重なりデータよりストレスの有無を判定し、そのストレス有無判定の結果が「ストレス有」の場合にはさらに発声回数データと発生累計時間データとを用いて話者双方のストレスレベルを判定することが出来る。
【選択図】図5

Description

本発明は、対話している話者の音声信号を使って、話者双方のストレスを測定する技術に関する。より詳細には、音声データから発声開始時間と発声時間を抽出し、その音声データに基づいて話者双方のストレスを測定する技術に関する。
近年、社会が複雑になるにつれて、話者が受ける精神的ストレスが増加している。この精神的ストレスは、心身症などの身体的症状や、鬱病等の精神的疾患の要因であり、日常生活に支障をきたす。この精神的ストレスを測定するために、様々な技術が知られている。
このストレスの判定方法には、話者の生体情報を利用して測定するものが多い。よく用いられる生体情報には、体温上昇、皮膚の電気抵抗の変化、血圧変化、血流量変化などが挙げられる。
一例として、皮膚の電気抵抗によるストレス測定を行う携帯通信機を図12に示す。この携帯通信機は、携帯端末に皮膚抵抗を測定するための電極103を備える。被験者は、ストレス測定電源104を入れ、2本の指を電極103に接触させ、電位を測定することでストレスを推定する。その結果を液晶ディスプレイ101に表示し、ストレス判定結果に応じたリラックス情報を提供する。リラックス情報は、無線通信で結ばれたセンターサーバーに設けられた記憶手段から送信される。リラックス情報としては、リラックスするためのアドバイス文章、音楽、映像、エクササイズ動画などが提供される(例えば、特許文献1参照。)。
特開2003−153905号公報
しかしながら、前記従来の構成では、携帯通信機を利用することで被験者のストレスを緩和する技術であり、携帯端末を利用して対話している話者の対話によるストレスを測定することが出来ない。我々は、対話によるストレスを、日常、良く体験しており、特に、電話での対話では、お互いの表情が見えないだけに対話による快不快が、より強く話者へのストレスと成る。すなわち、前記従来の構成では、携帯通信機による対話中の双方のストレスを測定できないという課題を有していた。
本発明は、前記従来の課題を解決するもので、会話によって生じる話者双方のストレスを測定出来るストレス測定装置を提供することを目的とする。
前記従来の課題を解決するために、本発明のストレス測定装置は、対話中の各々の話者の音声を入力して音声信号とする音声入力部と、前記話者同士の音声信号の重なり長さを利用して話者のストレスを判定するストレス有無判定部と、前記ストレスが生じた話者のトレスレベル判定を行うストレスレベル判定部と、を備えたことを特徴としたものである。
本発明のストレス測定装置によれば、対話中の双方の音声データを利用することにより、その音声データに基づいて、話者のストレスを判断することが出来る。
対話中の話者Aと話者Bの音声信号の模式図 話者Aと話者Bのデジタル変換した音声信号の模式図 音声波形の発声回数に関する模式図 音声波形の発声累積時間に関する模式図 本発明の実施の形態に係るストレス測定装置1の機能構成を示すブロック図 本発明の実施の形態に係るストレス測定装置1のストレス有無判定部6の機能構成およびストレスレベル判定部7の機能構成を示すブロック図 本発明の実施の形態に係るストレス測定装置1の判定データの表示形態を示す図 本発明の実施の形態に係るストレス測定装置1の判定データの表示形態を示す図 本発明の実施の形態に係るストレス測定装置1の判定データの表示形態を示す図 本発明の実施の形態に係るストレス測定装置1の動作を示すフローチャート 本発明の実施の携帯に係るストレス測定装置1のストレス有無判定の動作を示すフローチャートおよびストレスレベル判定の動作を示すフローチャート 従来のストレス測定を行う携帯通信機の構成図
以下に、本発明のストレス測定装置の実施の形態を図面とともに詳細に説明する。
(実施の形態1)
本発明によるストレス測定装置は、話者双方の音声の発声開始時刻と発声時間とから得られる重なり信号を使って、話者双方のストレスの有無を測定する。ストレスがあれば、ストレスパラメータX及びYを計算してストレス指標Zを求め、予め用意したストレスレベルテーブルより、ストレスレベル(ストレス度合い)の判定を行う。以下、その原理の詳細を説明する。
最初に、ストレスの有無の判定方法を説明する。図1は、話者Aと話者Bとが対話しているときの音声波形の模式図を示す。図中の会話者A及びBの音声波形は、発声部分と無発声部分からなり、無発声部分と発声部分とを交互に繰り返している。本発明では、隣り合う無発声部分と無発声部分との間にある発声部分を音声単位と称している。図1の話者Aを例にとると、音声単位は、・・・、SAn-1、SAn、SAn+1、・・・となる。本実施の形態1では、無音声が0.5sec以上あれば無発声部分とした。以下、その音声単位の開始時刻と音声単位の時間長さから、対話中のストレスの有無を判定する方法を次に示す。
図1(a)は通常(無ストレス)の話者の対話中の音声波形の模式図である。一方の話者の発言の終了後に、時間をおいて他方の話者が発言する。このような無ストレスの状態では、話者Aと話者Bとの音声単位に重なりは生じない。ところが、対話中にストレスを受けると一方の話者の発声の語尾に重なるようにもう一方の話者が発言する。すなわち、ストレスを受けると図1(b)のように話者双方の音声単位に重なりが生じる。この会話中の音声の重なりを利用すると、対話中の話者のストレス度合いを判定することが出来る。
まず、話者Aのn番目の音声単位SAnに対して、発声開始時刻tASn、及び、発声終了時刻tAEnを付与し、tASnとtAEnとの間の時間を発声時間tAnとする。時間軸の原点は、使用する会話装置により適宜、決めれば良い。本実施の形態1では、携帯通信機での最初の会話の開始時刻をt=0(原点)とした。
次に、説明を簡単にするため、音声信号を、音声単位を1に無発声部分を0とした対話パターンに置き換える。図1(b)の話者AおよびBの音声信号を対話パターンに置き換えたものを図2(a)に示す。また、話者AとBとの対話パターンの積を図2(b)に示す。話者双方の音声単位に重なりのない場合の積は0となるが、重なりがある場合には、積は1となる。この積が1となる部分を重なり信号SABnとし、その重なり信号SABnの発生時刻を重なり信号発生時刻tABSnとする。
この重なり信号SABnがあれば、ストレスがどちらかの話者に生じたものと判断できる。図2(b)では、重なり信号SABnが一個有るので、ストレスが1回発生している。この原因が話者Aと話者Bのどちらにあるのかを判定する方法を以下に説明する。重なり信号SABnは、一方の話者の音声単位の途中で、もう一方の話者の音声単位が重なるときに生じる。従って、重なり信号発生時刻tSABnは、話者AまたはBの何れかの音声単位の発声開始時刻と一致する。この性質を利用することにより、ストレスを感じている話者を判定することが出来る。すなわち、重なり信号発生時刻tSABnが話者Aの発声開始時刻と一致すれば、ストレスを感じているのは話者Aである。反対に重なり信号発生時刻tSABnと話者Bの発声開始時刻とが一致すれば、ストレスを感じているのは話者Bである。また、重なり信号発生時刻tSABnと話者A及びBの発声開始時刻が共に一致する場合、話者双方は同時に発言したことを示すので、話者双方ともストレスを感じているものとする。図2(b)では、重なり信号発生時刻tABSnは話者Aの発声開始時刻と一致するので、話者Aがストレスを感じていると判定する。
次に、ストレスを感じている話者のストレスレベルの計算方法を説明する。これは、重なり信号が発生して「ストレス有」と判定した場合に行う。このストレスレベルの計算には、2つのストレスパラメータXとYを利用する。ストレスパラメータXは話者双方の発声回数であり、ストレスパラメータYは発声累計時間である。
まず、ストレスパラメータXの算出方法を説明する。図3に、図2で説明した重なり信号SABnが生じた後の、話者AとBとの対話パターンを示す。ストレスを感じている話者の発声回数が多くなることが経験的に知られている。すなわち、話者はストレスを感じると、図3に示す会話者Aのように、発声回数が増加する。この性質を利用して、対話中の話者双方の発声回数を数えることでストレスレベルを計算できる。図3に示すが、ストレスレベルの判定には、重なり信号発生時刻tSABnから判定区間の各々の話者の音声単位を使用する。本実施の形態1では、この判定区間を30secとした。発声回数とは、この判定区間内の各話者の音声単位の数である。話者Aの発声回数(単位音声の数)をaA、話者Bの発声回数(単位音声の数)をaBとしたときの、ストレスパラメータXは、数(1)で表される。この値が、ストレスを感じている話者のストレスレベルを示す。
Figure 2010273700
このとき、話者双方の発声回数の差は、符号を持たない絶対値で計算する。ストレスレベルには符号を付ける必要がないからである。
次に、残りのパラメータであるストレスパラメータYの算出方法を説明する。図4に、重なり信号SABnが生じた後の、話者AとBとの対話パターンを示す。Xストレスパラメータ算出の時に説明した判定区間内を見ると、ストレスを感じている話者Aの発声単位の累計時間(以下、発声累計時間と称す。)が、話者Bに比べて長くなっている。これは、会話中の話者は、ストレスを感じると、図4のように、発声時間が長くなるからである。ストレスを感じている話者の発声時間が長くなることが経験的に知られている。この性質を利用して、対話中の話者双方の音声単位の発声累計時間を求めることでストレスを計算することができる。

図4に示すが、Xストレスパラメータ算出のときと同様に、重なり信号発生時刻tABSnから判定区間に生じる各話者の音声単位を用いて、ストレスレベルを計算する。本実施の形態1では、この判定区間を30secとした。発声累計時間とは、この判定区間内の各話者の音声単位の発声時間の総和である。話者Aの発声累計時間(単位音声の発声時間の総和)をbA、話者Bの発声累計時間(単位音声の発声時間の総和)をbBとすると、ストレスパラメータYは、数(2)で表される。
Figure 2010273700
このとき、話者双方の発声累積時間の差は、数(1)と同じ理由から絶対値とする。
以上のようにして、求められた2つのストレスパラメータX及びYから、ストレスを感じている話者のストレス指標Zを計算する。このストレス指標Zは、数(3)のように定義する。
Figure 2010273700
このようにして、求められたストレス指標Zと予め用意した表1のストレスレベルテーブルを使って、ストレスレベルを判定する。ストレスレベルテーブルの作成は、次のようにして行う。ストレス指標Zは、数(3)に示すように、対話者AとBとの発声回数及び発声累計時間から得られるストレスパラメータXとYとの平均である。すなわち、対話者AとBとの間で、発声回数や発声累計時間の差が大きいほど、ストレス指標Zは大きい値を取る。もし、どちらかの対話者の発声回数と発声累計時間双方とも、他者のそれよりも2倍多い場合には、ストレス指標Zは3分の1となる。この差が3倍になれば、ストレス指標Zは2分の1となる。従って、本実施の形態1では、ストレス指標Zが3分の1より小さい場合「経度」、3分の1以上で2分の1より小さい場合「中度」、2分の1以上の場合「重度」とストレスレベルを区分した。この区分は、これに縛られるものではなく、話者の会話パターンに応じて、変えることが出来る。
Figure 2010273700
本実施の形態1に使用したストレスレベルテーブルを用いると、ストレス指標Zが1/3より小ならば「軽度」と、ストレス指標Zが1/3以上1/2未満ならば「中度」、ストレス指標Zが1/2ならば「重度」と、ストレスレベルが判定できる。
以上説明したストレス測定方法を用いたストレス測定装置1の構成の詳細を説明する。図5は、本発明の実施の形態に係るストレス測定装置1の機能構成を示すブロック図である。
まず、音声A入力部2より入力される話者Aの音声を音声Aバッファ3に一時記憶する。音声Aバッファ3の容量は、ストレスレベルの判定に使う判定区間の2倍の期間のデータを記録出来る程度であれば良い。本実施の形態1では、音声Aバッファ3の容量は60secの間のデータを記録出来るものとした。音声Aバッファ3で記憶した音声信号は、図示していない制御部により、ストレス有無判定部6へ転送される。同様に、話者Bの音声も音声B入力部4から入力した後に音声Bバッファ5を経由してストレス有無判定部6へ転送される。
ストレス有無判定部6では、話者A及び話者Bの音声信号から音声単位を抽出して、重なり信号を調べ、重なり信号の有無によりストレスの有無を判定する。図6(a)にストレス有無判定部6の詳細構成を示す。ストレス有無判定部6は、音声A音声単位抽出部10、音声A時間データ分析部11、音声B音声単位抽出部12、音声B時間データ分析部13、重なり信号抽出部14、ストレス有無分析部15とから構成される。
話者Aのストレスの有無の判定について順を追って説明する。話者Aの音声信号が音声Aバッファ3から音声A音声単位抽出部10へ転送されると、音声A音声単位抽出部10は、音声信号を音声単位ごとに区切り、それぞれの音声単位に、その発声開始時間と発声終了時刻を付加する。音声単位の抽出方法は、先に説明した無発声部分を利用する。本実施の形態1では、無音声が0.5sec以上連続すれば無発声部分とした。無音声の判断は、周知技術を利用すれば良く、例えば、所定の閾値との比較で決めればよい。音声A時間データ分析部11では、送られてくる音声単位毎の発声開始時間と発声終了時刻を抽出する。話者Bの音声信号も音声B音声単位抽出部12と音声B時間データ分析部13にて同様に処理される。こうして、抽出された会話者A及びBの各音声単位とその発声開始時間と発声終了時刻は、逐次、重なり信号抽出部14に送られる。
重なり信号抽出部14は、話者A及び話者Bの音声単位を、図2で説明した0と1の会話パターンに置き換える。次に、話者A及び話者Bの会話パターンの積を取り、重なり信号を求める。ストレス有無分析部15は、重なり信号の有無を調べることにより、ストレスの有無を判定する。「ストレス有」の場合、ストレス有無分析部15は、ストレス発生時刻と判定期間を計算し、これらの情報と各話者の音声単位をストレスレベル判定部7へ転送する。また、ストレス有無判定部6は、「ストレス無」と判定した場合、その判定結果を特定データ蓄積部8に転送する。
ストレスレベル判定部7では、先に説明した数(1)及び数(2)を用いてストレスパラメータX及びYを求めた後、数(3)に基づいてストレス指標Zを計算する。このストレス指標Zと、表1で説明したストレスレベルテーブルによりストレスレベルを判定し、その判定結果を判定データ蓄積部8に転送する。この判定データ蓄積部8の容量は、対話中の全データを記録出来る大きさであれば良く、対話時間と音声信号の単位時間当たりデータ量とから計算して決めればよい。
図6(b)に、ストレスレベル判定部7の詳細の機能構成を示す。ストレスレベル判定部7は、発声回数分析部21、発声累積時間分析部23、ストレスパラメータX算出部22、ストレスパラメータY算出部24、ストレス指標Z算出部25とから構成される。ストレス有無分析部15は、「ストレス有」と判定すると、「ストレス有」と判定した時点から、予め定めた長さの判定区間の音声Aと音声Bの会話パターンを発声回数分析部21及び発声累計時間分析部23へ転送する。この判定区間は、本実施の形態1では、30secとした。
発声回数分析部21では、判定区間内における音声Aの発声回数を計算し、その値をaAとする。同じく音声Bの発声回数をaBと計算する。ストレスパラメータX算出部22は、このaAとaBとを用いて、数(1)に従い、ストレスパラメータXを算出する。
発声累積時間分析部23では、判定区間内における音声Aの発生時間の総和である発声累計時間を計算し、その値をbAとする。同じく音声Bの発声累計時間bBを計算する。同じように、ストレスパラメータY算出部24でも、音声A及び音声Bの発声累計時間bAとbBとを用いて、数(2)に従い、ストレスパラメータYを計算する。
ストレス指標Z算出部25では、このようにして求めたストレスレベルパラメータXとYとを用いて、数(3)に従い、ストレス指標Zを算出し、ストレス分類部26に送る。
ストレス分類部26では、送られてきたストレス指標Zの値と予め用意したストレスレベルテーブル値に基づいて、ストレスレベルを分類する。本実施の形態1では、先に説明した表1のものを用いた。すなわち、ストレス指標Zが3分の1よりも小さい場合、ストレスレベルは「軽度」とし、ストレス指標Zが3分の1以上で2分の1よりも小さい場合のストレスレベルは「中度」とし、Zが2分の1以上の場合のストレスレベルは「重度」と判定した。話者が対話終了と判断したとき、あるいはストレス判定したい時は、図示しない外部指示回路よりデータ転送指令信号が判定データ蓄積部8に送られる。
このとき、表示部9には、音声Aと音声Bのストレス判定結果のデータをあわせて表示する。この表示部9には液晶ディスプレイなどの表示手段を用いれば良い。本発明のストレス測定装置1を携帯電話に組み込むときは、携帯電話の表示部を利用すれば良い。
判定結果を、「ストレス無」、「ストレス軽度」、「ストレス中度」、「ストレス重度」の4段階で表示する。判定データの表示形態は、全ての対話中のストレス判定データを時間軸に対してグラフで表示しても良い(図7)。また、「ストレス軽度」、「ストレス中度」、「ストレス重度」の場合のみ、発生時間とともに表示する形態でも良い(図8)。さらに、簡易に、「ストレス無」、「ストレス軽度」、「ストレス中度」、「ストレス重度」の割合を表示する形態でも良い(図9)。
次に、本発明の実施の形態に係るストレス測定装置1の動作についてフローチャートを用いて説明する。図10は、本発明の実施の形態に係るストレス測定装置1の動作を説明するためのフローチャートである。
音声A入力部2へ入力された話者Aの音声を、ある区間ごとに音声信号を切り出す。そして、切り出した音声信号に音声単位Snのように番号を付ける。この音声単位の切り出しは、0.5秒以上の無発声部分の有無で行う(ステップS1)。
次に、切り出した音声単位を時間データ分析部11へ転送し、音声単位Snの発声開始時間、及び、発声終了時刻を抽出する(ステップS2)。
時間データを抽出した音声信号を0と1の対話パターンに置き換える。その対話パターンを使って、ストレスの有無を判定する(ステップS3)。
このストレス有無の判定結果が「ストレス無」である場合、その判定データを判定データ蓄積部8で一時記憶する。ストレス有無の判定結果が「ストレス有」の場合は、さらにストレスレベルを分類する。ストレスレベルは、「ストレス軽度」、「ストレス中度」、「ストレス重度」の3段階に分類する(ステップS4)。
ストレス有無判定結果が「ストレス無」である場合と同様に、ストレスレベルの判定データを判定データ蓄積部8で一時記憶する(ステップS5)。
その判定データをディスプレイなどの表示部9に出力する。ストレス評価結果は、数値で表示してもよいし、グラフで表示してもよい(ステップS6)。
ストレス有無判定の処理(ステップS3)について、図11(a)を用いてさらに詳しく説明する。
音声信号は、予め音声A音声単位抽出部10及び音声B音声単位抽出部12において音声単位SAn、SBnを切り出している。その音声単位SAn、SBnを1、無発声部分を0とする対話パターンに置き換える。続いて、話者Aと話者Bの対話パターンの積算を求める。ここでは、話者Aと話者Bの信号に重なりがある場合に積算値が1となる重なり信号を抽出する。抽出した重なり信号にSABnのように番号を付ける(ステップS31)。
重なり信号SABnは、話者Aと話者Bの信号に重なりがある場合のみ、抽出される。重なり信号SABnがない場合、判定結果は、「ストレス無」と判定し、ストレス有無判定ステップ(ステップS3)を終了する。一方、重なり信号SABnがある場合、判定結果は「ストレス有」と判定し、重なりの要因を割り出すステップへと続く(ステップS32)。
ステップS32において判定結果が「ストレス有」と判定された場合、重なり信号SABnの発生時刻tSABnを使って、重なりの要因が話者Aと話者Bのどちらにあるのかを判定する。話者A及び話者Bの発声開始時刻・・・、tSAn-1、tSAn、tSAn+1、・・・及び・・・、tSBn-1、tSBn、tSBn+1、・・・のうち、この信号発生時刻tSABnと一致する時刻を検索する。重なり信号発生時刻tSABnと話者Aの発声開始時刻とが一致する場合、重なりの要因は話者Aにあり、話者Aの発声開始時刻が一致する場合には、重なりの要因は話者Bにあると判定し、ストレス有無判定ステップ(ステップS3)を終了する(ステップS33)。
さて、ストレスレベル判定(ステップS4)でのストレスレベル判定の処理について、図11(b)を用いてさらに詳しく説明する。
ストレス有無判定部6において「ストレス有」と判定した場合、音声Aと音声Bの対話パターンを、発声回数分析部21及び発声累計時間分析部23へ転送する。この転送する音声信号は、「ストレス有」と判定した時点から、ある判定区間のデータとする。本実施の形態1では、判定区間を30secとした。
発声回数分析部21へ転送された音声A及び音声Bの対話パターンから、判定区間内における音声A及び音声Bの発声回数を算出する。具体的には、判定区間内における音声A及び音声Bの音声単位SAn及びSBnの個数をカウントする。その発声回数(音声単位の個数)の値をaA及びaBとする(ステップS41)。
ステップS41で求めた音声A及び音声Bの発声回数の値aA、aBを使って、ストレスパラメータX算出部22において、ストレスレベルパラメータXを算出する。ストレスパラメータXの算出は、数(1)に従って求める(ステップS42)。
また、発声累計時間分析部23へ転送された音声A及び音声Bの対話パターンから、判定区間内における音声A及び音声Bの発声累計時間を算出する。具体的には、判定区間内における音声A及び音声Bの音声単位SAn及びSBnの発声時間tAn、tBnの総和を求める。その発声累計時間の値をbA及びbBとする(ステップS43)。
ステップS43で求めた音声A及び音声Bの発声累計時間の値bA、bBを使って、ストレスパラメータY算出部24において、ストレスパラメータYを算出する。ストレスパラメータYの算出は、数(2)に従って求める(ステップS44)。
ステップS42及びS44で求めたストレスパレメータXとYを使って、数(3)に従い、ストレス指標Zを算出する(ステップS45)。
ステップS45で求めたストレス指標Zを使って、表1のストレスレベルテーブルに従って、ストレスレベルを分類する(ステップS46)。
以上のように、本発明の実施の形態1において、話者の音声信号を用いて、話者双方のストレスを判定することが出来る。
また、本実施の形態では、発声回数と発声累計時間に基づいてストレスの判定を行った。その際のストレス指標Zは、数(3)のように定義したが、数(4)のように定義してもよい。
Figure 2010273700
c、dは重みづけのための正の少数であり、c+d=1とする。
本発明にかかるストレス診断測定装置は、対話している話者双方の音声信号を用いて、話者双方のストレスを測定することが出来る。例えば、このストレス測定装置を携帯電話の機能として設置することも出来る。携帯電話で通話している際、携帯電話で通話している相手のストレスがかかっているかどうかを判定出来る。
1 ストレス測定装置
2 音声A入力部
3 音声Aバッファ
4 音声B入力部
5 音声Bバッファ
6 ストレス有無判定部
7 ストレスレベル判定部
8 判定データ蓄積部
9 表示部
10 音声A音声単位抽出部
11 音声A時間データ分析部
12 音声B音声単位抽出部
13 音声B時間データ分析部
14 重なり信号抽出部
15 ストレス有無分析部
21 発生回数分析部
22 ストレスレベルパラメータX算出部
23 発声累計時間分析部
24 ストレスレベルパラメータY算出部
25 ストレス指標Z算出部
26 ストレスレベル判定部
101 液晶ディスプレイ
103 電極
104 電源

Claims (8)

  1. 対話中の各々の話者の音声を入力して音声信号とする音声入力部と、
    前記話者同士の音声信号の重なり長さを利用して話者のストレスを判定するストレス有無判定部と、
    前記ストレスが生じた話者のトレスレベル判定を行うストレスレベル判定部と、
    を備えたストレス測定装置。
  2. 前記ストレス有無判定部が、
    各々の話者の前記音声信号を発声部と無発声部とに分け発声部のみを音声単位として抽出する音声単位抽出部と、
    前記話者毎の前記音声単位の開始時刻と前記音声単位の長さを抽出する時間データ分析部と、
    前記話者毎の前記音声単位の開始時刻と前記音声単位の長さに基づいて前記話者同士の会話の重なりを重なり信号に抽出する重なり信号抽出部と、
    前記重なり信号に基づいて話者のストレスを判定するストレス有無分析部とを備えた請求項1に記載のストレス測定装置。
  3. 前記音声単位抽出部が、
    前記音声信号の大きさが予め設定した時間において連続して所定値以下であれば無発声部分とし、隣接する無発声部分の間にある発生部分を音声単位とする請求項2に記載のストレス測定装置。
  4. 前記ストレスレベル判定部が、
    前記話者の音声単位の数を話者毎の発声回数とする発声回数分析部と、
    前記話者同士の前記発声回数の差を差分値とし前記話者同士の前記発声回数の和を総和値としたとき、前記差分値と前記総和値との比を第1のストレス変数とする第1のストレス変数算出部と、
    前記話者毎の前記音声単位の長さの和を発声累計時間とする発声累計時間分析部と、
    前記話者同士の前記発声累計時間の差を差分値とし前記話者の前記発生累計時間の和を総和値としたとき、前記差分値と総和値との比を第2のストレス変数とする第2のストレス変数算出部と、
    前記第1と第2のストレス変数を利用して前記話者のストレス指標を求めるストレス指標算出部とを備え、
    予め用意されたストレスレベルテーブルと前記ストレス指標に基づいて前記話者のストレスレベルを判定する請求項2に記載のストレス測定装置。
  5. 前記第1のストレス変数算出部が、
    前記重なり信号発生時から予め定めた判定区間における各話者の発声回数の差分値を同一の判定区間における各話者の和で除したものをストレスパラメータXと計算する請求項4に記載のストレス測定装置。
  6. 前記第2のストレス変数算出部が、
    前記重なり信号発生時から予め定めた判定区間における各話者間の音声単位の長さの差を同一の判定区間における各話者の音声単位の長さの総和で除したものストレスパラメータYと計算する請求項4に記載のストレス測定装置。
  7. 前記ストレス指標Zが、
    数(3)もしくは数(4)を用いて算出される値である請求項4に記載のストレス測定装置。
    Figure 2010273700
    Figure 2010273700
    但し、c及びdは正の少数であり、c+d=1である。
  8. 前記ストレスレベル判定部で判定されたストレス指標を出力するための表示部を備えた請求項1に記載のストレス測定装置。
JP2009126076A 2009-05-26 2009-05-26 ストレス測定装置 Pending JP2010273700A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009126076A JP2010273700A (ja) 2009-05-26 2009-05-26 ストレス測定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009126076A JP2010273700A (ja) 2009-05-26 2009-05-26 ストレス測定装置

Publications (1)

Publication Number Publication Date
JP2010273700A true JP2010273700A (ja) 2010-12-09

Family

ID=43421238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009126076A Pending JP2010273700A (ja) 2009-05-26 2009-05-26 ストレス測定装置

Country Status (1)

Country Link
JP (1) JP2010273700A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106724A1 (ja) 2019-11-26 2021-06-03 京セラ株式会社 ストレス計測システムおよびストレス計測方法
WO2021200189A1 (ja) * 2020-03-31 2021-10-07 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106724A1 (ja) 2019-11-26 2021-06-03 京セラ株式会社 ストレス計測システムおよびストレス計測方法
WO2021200189A1 (ja) * 2020-03-31 2021-10-07 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Similar Documents

Publication Publication Date Title
CN103348730B (zh) 语音服务的体验质量测量
US8386252B2 (en) Estimating a listener's ability to understand a speaker, based on comparisons of their styles of speech
EP1423846B1 (en) Method and apparatus for speech analysis
Pentland Social signal processing [exploratory DSP]
WO2014069076A1 (ja) 会話分析装置及び会話分析方法
EP1635327A1 (en) Information transmission device
JP2007004001A (ja) オペレータ応対能力診断装置、オペレータ応対能力診断プログラム、プログラム格納媒体
JP2006267465A (ja) 発話状態評価装置、発話状態評価プログラム、プログラム格納媒体
Chandrashekar et al. Investigation of different time-frequency representations for intelligibility assessment of dysarthric speech
Gallardo Human and automatic speaker recognition over telecommunication channels
Hansen et al. On the issues of intra-speaker variability and realism in speech, speaker, and language recognition tasks
JP4587854B2 (ja) 感情解析装置、感情解析プログラム、プログラム格納媒体
JP2010259691A (ja) ストレス測定装置
Köster Multidimensional analysis of conversational telephone speech
Jhawar et al. Speech disorder recognition using MFCC
CN114566187A (zh) 具有会话后表示的系统、电子装置和相关方法
CN116129874A (zh) 通信系统和操作通信系统的方法
US20100235169A1 (en) Speech differentiation
Hinterleitner Quality of Synthetic Speech
JP2010273700A (ja) ストレス測定装置
AU773708B2 (en) Non-intrusive speech-quality assessment
Parisae et al. Adaptive attention mechanism for single channel speech enhancement
Niebuhr et al. “high on emotion “? how audio codecs interfere with the perceived charisma and emotional states of men and women
Westall et al. Speech technology for telecommunications
Mengistu et al. Using acoustic measures to predict automatic speech recognition performance for dysarthric speakers.