JP2010259691A - Stress measuring device - Google Patents

Stress measuring device Download PDF

Info

Publication number
JP2010259691A
JP2010259691A JP2009114304A JP2009114304A JP2010259691A JP 2010259691 A JP2010259691 A JP 2010259691A JP 2009114304 A JP2009114304 A JP 2009114304A JP 2009114304 A JP2009114304 A JP 2009114304A JP 2010259691 A JP2010259691 A JP 2010259691A
Authority
JP
Japan
Prior art keywords
stress
voice
unit
amplitude
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009114304A
Other languages
Japanese (ja)
Inventor
Takako Samukawa
貴子 寒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009114304A priority Critical patent/JP2010259691A/en
Publication of JP2010259691A publication Critical patent/JP2010259691A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stress device for measuring stress during a conversation through mobile communication devices and measuring the degrees of both speakers' stress caused by the conversation. <P>SOLUTION: The stress measuring device includes a voice input section for inputting voices of both speakers in conversation to make voice signals; a voice analyzing section for discriminating vocal parts out of the voice signals from the voice input section and computing stress indexes from the frequencies and amplitude of the discriminated vocal parts; and a voice stress determining section for determining the stress values of the speakers based on the stress indexes. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、会話している会話者の音声信号を使って、会話者双方のストレスを測定する技術に関する。より詳細には、音声データからピッチと振幅を抽出し、その音声データに基づいて会話者双方のストレスを測定する技術に関する。   The present invention relates to a technique for measuring stresses of both parties using voice signals of a talking party. More specifically, the present invention relates to a technique for extracting pitch and amplitude from voice data and measuring stresses of both parties based on the voice data.

近年、社会が複雑になるにつれて、ヒトが受ける精神的ストレスが増加している。この精神的ストレスは、心身症などの身体的症状や、鬱病等の精神的疾患の要因であり、日常生活に支障をきたす。この精神的ストレスを測定するために、様々な技術が知られている。   In recent years, as society becomes more complex, the mental stress experienced by humans has increased. This mental stress is a factor of physical symptoms such as psychosomatic disorders and mental illnesses such as depression and interferes with daily life. Various techniques are known for measuring this mental stress.

このストレスの判定方法には、ヒトの生体情報を利用して測定するものが多い。よく用いられる生体情報には、体温上昇、皮膚の電気抵抗の変化、血圧変化、血流量変化などが挙げられる。   Many of the stress determination methods use human biological information for measurement. Commonly used biological information includes an increase in body temperature, a change in skin electrical resistance, a change in blood pressure, a change in blood flow, and the like.

一例として、皮膚の電気抵抗によるストレス測定を行う携帯通信機を図8に示す。この携帯通信機は、携帯端末に皮膚抵抗を測定するための電極53を備える。被験者は、ストレス測定電源54を入れ、2本の指を電極54に接触させ、電位を測定することでストレスを推定する。その結果を液晶ディスプレイ51に表示し、ストレス判定結果に応じたリラックス情報を提供する。リラックス情報は、無線通信で結ばれたセンターサーバーに設けられた記憶手段から送信される。リラックス情報としては、リラックスするためのアドバイス文章、音楽、映像、エクササイズ動画などが提供される(例えば、特許文献1参照。)。   As an example, FIG. 8 shows a portable communication device that performs stress measurement based on skin electrical resistance. This portable communication device includes an electrode 53 for measuring skin resistance on a portable terminal. The test subject puts on the stress measurement power supply 54, makes two fingers contact the electrode 54, and estimates the stress by measuring the potential. The result is displayed on the liquid crystal display 51, and the relaxation information according to the stress determination result is provided. Relax information is transmitted from the storage means provided in the center server connected by wireless communication. As relaxation information, advice text, music, video, exercise video, etc. for relaxing are provided (for example, refer to Patent Document 1).

特開2003−153905号公報JP 2003-153905 A

しかしながら、前記従来の構成では、携帯通信機を利用することで被験者のストレスを緩和する技術を開示しているが、携帯端末を利用して会話している話者の双方のストレスを実時間で測定することが出来ない。我々は、会話によるストレスを、日常、良く体験しており、特に、電話中の会話においては、お互いの表情が見えないだけに会話による快不快が、より強く話者へのストレスと成る。すなわち、前記従来の構成では、携帯通信機による会話中の双方のストレスを測定できないという課題を有していた。   However, although the conventional configuration discloses a technique for relieving the stress of the subject by using a mobile communication device, the stress of both speakers speaking using the mobile terminal in real time is disclosed. It cannot be measured. We often experience the stress of conversation every day, especially in conversation over the phone, the pleasant discomfort due to the conversation is more intensely stressed by the speaker because each other's facial expressions are not visible. That is, the conventional configuration has a problem that it is impossible to measure both stresses during conversation by the portable communication device.

本発明は、前記従来の課題を解決するもので、携帯通信機での会話している話者が、会話することにより生じるストレスを測定することの出来るストレス測定装置を提供することを目的とする。   An object of the present invention is to solve the above-described conventional problems, and to provide a stress measuring device capable of measuring a stress generated by a speaker having a conversation using a portable communication device. .

前記従来の課題を解決するために、本発明のストレス測定装置は、対話中の双方の話者の音声を入力して音声信号とする音声入力部と、前記音声入力部からの音声信号の周波数と振幅よりストレス指標を算出する音声分析部と、前記ストレス指標に基づいて話者のストレス値を判定する音声ストレス判定部と、を備えたことを特徴としたものである。   In order to solve the above-described conventional problems, a stress measuring device according to the present invention includes a voice input unit that inputs voices of both speakers during a conversation to generate a voice signal, and a frequency of the voice signal from the voice input unit. And a voice analysis unit that calculates a stress index from the amplitude, and a voice stress determination unit that determines a stress value of a speaker based on the stress index.

本発明のストレス測定装置によれば、会話中の双方の音声データを利用することにより、その音声データに基づいて、会話者双方のストレスを判断することが出来る。   According to the stress measuring apparatus of the present invention, by using both voice data during conversation, it is possible to determine the stress of both talkers based on the voice data.

音声波形の周波数に関する模式図Schematic diagram about frequency of voice waveform 会話中の会話者Aと会話者Bの音声信号の模式図Schematic diagram of audio signals of conversation A and conversation B during conversation 音声波形の振幅に関する模式図Schematic diagram of amplitude of speech waveform 本発明の実施の形態に係るストレス測定装置1の機能構成を示すブロック図The block diagram which shows the function structure of the stress measuring apparatus 1 which concerns on embodiment of this invention. 本発明の実施の形態に係るストレス測定装置1の音声A分析部4の機能構成および音声B分析部11の機能構成を示すブロック図The block diagram which shows the functional structure of the audio | voice A analysis part 4 and the functional structure of the audio | voice B analysis part 11 of the stress measuring device 1 which concerns on embodiment of this invention. 本発明の実施の形態に係るストレス測定装置1の動作を示すフローチャートThe flowchart which shows operation | movement of the stress measuring apparatus 1 which concerns on embodiment of this invention. 本発明の実施の携帯に係るストレス測定装置1の周波数分析の動作を示すフローチャートThe flowchart which shows the operation | movement of the frequency analysis of the stress measuring device 1 which concerns on carrying of this invention. 従来のストレス測定を行う携帯通信機の構成図Configuration diagram of a portable communication device for conventional stress measurement

以下に、本発明のストレス測定装置の実施の形態を図面とともに詳細に説明する。   Hereinafter, embodiments of the stress measuring apparatus of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
本発明によるストレス測定装置は、会話者双方の音声の周波数と振幅とから得られる2つのストレスパラメータXAn及びYAnを利用して、会話者双方のストレスを測定する。以下、その詳細を説明する。
(Embodiment 1)
The stress measuring apparatus according to the present invention measures the stress of both parties using two stress parameters X An and Y An obtained from the frequency and amplitude of the voices of both parties. Details will be described below.

最初に、音声の周波数から得られるストレスパラメータXAnの算出方法を説明する。図1は、ストレスによる音声の周波数の変化を模式的に示す図である。図1(a)は会話中の音声波形の模式図であり、その音声の波形から得られるピッチを図1(b)から(d)に示す。図1(b)は通常のピッチ(無ストレス)の音声波形であり、その絶対値は個人差があるが、ほぼ一定の値をとる。ところが、会話中にストレスを受けるとピッチが変化する。すなわち、ストレスを受けていないときの音声ピッチは、図1(b)に示すとおり通常のピッチであるが、ストレスを受けると、図1(c)や図1(d)のように、ピッチが変化する。これを利用することで、会話中の音声ピッチから、会話中の話者のストレスを判定することが出来る。 First, a method for calculating the stress parameter X An obtained from the sound frequency will be described. FIG. 1 is a diagram schematically showing a change in audio frequency due to stress. FIG. 1A is a schematic diagram of a speech waveform during conversation, and the pitch obtained from the speech waveform is shown in FIGS. FIG. 1B shows a speech waveform with a normal pitch (no stress), and the absolute value thereof is almost constant, although there are individual differences. However, the pitch changes when stressed during conversation. That is, the voice pitch when not stressed is a normal pitch as shown in FIG. 1 (b), but when stressed, the pitch is changed as shown in FIGS. 1 (c) and 1 (d). Change. By using this, the stress of the speaker during the conversation can be determined from the voice pitch during the conversation.

図2に、会話者Aと会話者Bとが会話しているときの音声信号の模式図を示す。会話者AとBの双方の音声信号に着目すると、無発声部分と発声部分とに分かれる。そこで、無発声部分と無発声部分との間にある発声部分を音声単位とする。会話者Aを例にとると、音声単位は、・・・、SAn-1、SAn、SAn+1、・・・となる。本実施例では、無音声が0.5秒以上あれば無発声部分とした。以下、会話者Aを例にとり、その音声単位の周波数の変化から、会話中のストレスを判定する方法を次に示す。 In FIG. 2, the schematic diagram of the audio | voice signal when the conversation person A and the conversation person B are talking is shown. When attention is paid to the voice signals of both of the talkers A and B, it is divided into a non-speaking part and a speaking part. Therefore, the utterance part between the non-voicing part and the non-voicing part is set as a voice unit. Taking the conversation person A as an example, the speech units are..., S An-1 , S An , S An + 1,. In this embodiment, if there is no voice for 0.5 seconds or longer, the voiceless part is determined. Hereinafter, a method for determining the stress during the conversation from the change in the frequency of the voice unit will be described by taking the conversation person A as an example.

まず、n番目の音声単位SAnにおける周波数の平均を平均周波数fAnとする。その平均周波数fAnの算出について説明する。周波数は、音声信号の振動波形における1秒間の繰り返し回数であるので、1秒間に音声振幅の平均値を横切る回数(平均値交差数)の半分の値を求めれば良い。本実施例では、n番目の音声単位SAnにおける1秒毎の周波数を抽出し、その平均値を平均周波数fAnとした。ストレス量は、1つ前の音声単位SAn-1における周波数との差分値△fAnに基づいて判定する。△fAnは、数(1)で表される。 First, an average frequency in the nth speech unit S An is defined as an average frequency f An . The calculation of the average frequency f An will be described. Since the frequency is the number of repetitions per second in the vibration waveform of the audio signal, a value that is half the number of times that the average value of the audio amplitude is crossed per second (average value intersection number) may be obtained. In this embodiment, the frequency per second in the n-th voice unit S An is extracted, and the average value is set as the average frequency f An . The amount of stress is determined based on a difference value Δf An with respect to the frequency in the previous speech unit S An-1 . Δf An is expressed by the number (1).

Figure 2010259691
Figure 2010259691

このとき、周波数の差は絶対値で評価しなければならない。ヒトの音声の高さは、ストレス状態により声が低くなる場合もあれば、逆に、声がかん高くなる場合もあるからである。これら両方を考慮して、周波数の差△fAnを絶対値で判定することが重要である。 At this time, the frequency difference must be evaluated as an absolute value. This is because the voice level of a human may be low due to the stress state, and conversely, the voice may be high. Considering both of these, it is important to determine the frequency difference Δf An by an absolute value.

続いて、求められた差分値△fAnを音声単位SAnの平均周波数との比を計算する。すな
わち、会話者Aのそれぞれの音声単位の平均の周波数に対して、周波数がどのくらい変化したかという割合を求める。この割合をストレスパラメータXAnとして、数(2)で表す。
Subsequently, the ratio of the obtained difference value Δf An to the average frequency of the voice unit S An is calculated. That is, the ratio of how much the frequency has changed with respect to the average frequency of each voice unit of the conversation person A is obtained. This ratio is expressed by the number (2) as the stress parameter X An .

Figure 2010259691
Figure 2010259691

次に、もう一つのパラメータである振幅に基づくストレスパラメータYAnの算出方法を説明する。図3に、会話しているときの話者の音声波形を示す。この音声波形の振幅は振動エネルギーなので、話者が発する音量を表す。すなわち、振幅が大きいほど音量は大きく、振幅が小さいほど音量が小さい。人がストレスを感じていないときは、図3(a)のように、音声の振幅は一定である。しかし、会話中にストレスがかかると、音量が徐々に上がるので、図3(b)のように振幅が徐々に増加する。あるいは、ストレスによっては、突発的に大声を上げるので、図3(c)のように振幅が急激に増加する。 Next, a method for calculating the stress parameter Y An based on amplitude, which is another parameter, will be described. FIG. 3 shows the voice waveform of the speaker when talking. Since the amplitude of this speech waveform is vibration energy, it represents the volume of sound produced by the speaker. That is, the volume is larger as the amplitude is larger, and the volume is smaller as the amplitude is smaller. When the person does not feel stress, the amplitude of the voice is constant as shown in FIG. However, when stress is applied during conversation, the volume gradually increases, and the amplitude gradually increases as shown in FIG. Or, depending on the stress, the voice suddenly increases, so the amplitude increases rapidly as shown in FIG.

この性質を利用して、音声波形の振幅から会話中のストレス判定が出来る。以下、具体的に説明する。周波数の分析と同様に、会話者Aの会話中の音声信号を無発声部分と発声部分とに分ける。図2に示すように、会話者Aの発声部分から、音声単位・・・、SAn-1、SAn、SAn+1、・・・を抽出する。n番目の音声単位SAnにおける振幅の平均を平均振幅RAnとする。その平均振幅RAnの算出について説明する。振幅は、音声信号の1周期における変位の絶対値なので、音声振幅の平均値を2回横切る間の最大変位の絶対値を求めればよい。本実施例では、n番目の音声単位SAnにおける1周期毎の振幅を抽出し、その平均を平均振幅RAnとした。会話者Aのストレスは、1つ前の音声単位SAn-1における振幅との差を用いて判定する。振幅の差は△RAnは、数(3)で表される。 Using this property, stress during conversation can be determined from the amplitude of the speech waveform. This will be specifically described below. Similar to the frequency analysis, the voice signal during the conversation of the conversation person A is divided into a non-speech part and a speech part. As shown in FIG. 2, voice units..., S An-1 , S An , S An + 1,. The average amplitude in the nth speech unit S An is defined as an average amplitude R An . The calculation of the average amplitude R An will be described. Since the amplitude is the absolute value of the displacement in one cycle of the audio signal, the absolute value of the maximum displacement while crossing the average value of the audio amplitude twice may be obtained. In the present embodiment, the amplitude for each period in the n-th speech unit S An is extracted, and the average is taken as the average amplitude R An . The stress of the talker A is determined using the difference from the amplitude in the previous speech unit S An-1 . The difference in amplitude is represented by ΔR An (3).

Figure 2010259691
Figure 2010259691

この振幅の差が、会話者Aの平均の振幅と比較して、どのくらい変化したかという割合を求める。その割合をストレスパラメータYAnとして、数(4)で表す。 Compared with the average amplitude of the conversation person A, a ratio of how much the amplitude difference has changed is obtained. The ratio is expressed by the number (4) as the stress parameter Y An .

Figure 2010259691
Figure 2010259691

以上のようにして、求められた二つのストレスパラメータXAnとYAnとは、音声単位ごとの変化率なので、会話者Aのストレスを評価するためには、これらの変化率の和の平均を求める必要がある。本発明では、この値をストレス指標ZAとして数(5)のように定義し、この指標を会話者Aのストレス値とする。 Since the two stress parameters X An and Y An obtained as described above are the rate of change for each voice unit, the average of the sum of these rates of change is used to evaluate the stress of the talker A. Need to ask. In the present invention, this value is defined as a stress index Z A as shown in Equation (5), and this index is used as the stress value of the conversation person A.

Figure 2010259691
Figure 2010259691

ここで、Nは音声単位の総数である。このようにして、ストレス指標ZAを求め、ZA>0なら会話者Aはストレスがかかった状態であり、ZA<0ならストレスがかかっていない状態であると判定する。 Here, N is the total number of audio units. In this way, the stress index Z A is obtained, and if Z A > 0, the conversation person A is in a stressed state, and if Z A <0, it is determined that the stress is not applied.

(数5)は、二つのストレスパラメータXAnとYAnとは同じ取扱いをしたが、両者の重み付けてしてもよい。ストレスパラメータXAnの重み付け係数をa、ストレスパラメータYAnの重み付け係数をbとしたときのストレス指標ZAの計算式を数(6)に示す。 In (Equation 5), the two stress parameters X An and Y An are handled in the same way, but they may be weighted. The calculation formula of the stress index Z A when the weighting coefficient of the stress parameter X An is a and the weighting coefficient of the stress parameter Y An is b is shown in Equation (6).

Figure 2010259691
Figure 2010259691

会話者Aのストレス判定と同様に、会話者Bのストレス判定も音声信号の振動波形の周波数と振幅に基づいて判定することが出来る。会話者Bの音声の音声単位をSBn、その平均周波数をfBnに基づいて、ストレスパラメータXBnを求める。また、平均振幅をRBnに基づいて、ストレスパラメータYBnを求める。これらのストレスパラメータの平均より、ZBを求め、ストレス判定を行う。 Similar to the stress determination of the conversation person A, the stress determination of the conversation person B can be determined based on the frequency and amplitude of the vibration waveform of the voice signal. The stress parameter X Bn is obtained based on the voice unit of the voice of the conversation person B as S Bn and the average frequency as f Bn . Further, the stress parameter Y Bn is obtained based on the average amplitude R Bn . Z B is obtained from the average of these stress parameters, and the stress is determined.

次に、ストレス判定の例を示し、ストレス指標による判定方法を説明する。ここでは、図3(c)を例に挙げ、会話により会話者Aにストレスがかかり一時的に声が大きくなった場合を考える。   Next, an example of stress determination will be shown, and a determination method using a stress index will be described. Here, FIG. 3C is taken as an example, and a case is considered in which the conversationer A is stressed by conversation and the voice temporarily becomes louder.

通常、人が聴こえる音声の可聴帯域は、20Hzから20000Hzであり、日本語会話では、1000Hzを中心に150Hzから1500Hzまでの周波数帯域が使用される。会話している会話者Aにストレスがかかり、声が高くなった場合を例に挙げる。表1に、その場合の音声単位SAnの番号nと、平均周波数fn、一つ前の音声単位との周波数の差Δfn、ストレスパラメータXAnとの関係を示す。 Usually, the audible band of a voice that can be heard by humans is 20 Hz to 20000 Hz, and in Japanese conversation, a frequency band from 150 Hz to 1500 Hz is used centering on 1000 Hz. The case where stress is applied to the talking conversation person A and the voice becomes high is taken as an example. Table 1 shows the relationship between the number n of the voice unit S An in that case, the average frequency f n , the frequency difference Δf n of the previous voice unit, and the stress parameter X An .

Figure 2010259691
Figure 2010259691

この例では、音声単位を示す番号(音声単位番号)nが2と3との間、7と8との間で平均周波数fAnが変化したことを表している。ここで、音声単位番号2の平均周波数fA2が1000Hzであるが、音声単位番号3の平均周波数fA3は1500Hzに変化している。したがって、数(2)を用いれば、ストレスパラメータXAnは、XAn=(|1500−1000|)/1125=0.44と求まる。本実施例では、ストレスパラメータXAnの分母の△fAn/nは、n=1から4までの平均周波数fAnの平均とした。 In this example, the number (sound unit number) n indicating the voice unit is between 2 and 3, and the average frequency f An is changed between 7 and 8. Here, the average frequency f A2 of the voice unit number 2 is 1000 Hz, but the average frequency f A3 of the voice unit number 3 is changed to 1500 Hz. Therefore, if the number (2) is used, the stress parameter X An can be obtained as X An = (| 1500−1000 |) /1125=0.44. In this embodiment, Δf An / n of the denominator of the stress parameter X An is the average of the average frequencies f An from n = 1 to 4.

続いて、振幅に基づくストレスパラメータYAnを求める。日常の会話が60dB程度であり、叫び声が100dBである。従って、会話をする場合の音量領域は60dBから100dBである。表2に、表1と同一の会話をしているときの、各音声単位番号に対する振幅の変化量を示す。音声単位SAnの番号nと、平均振幅Rn、一つ前の音声単位との振幅の差ΔRAn、ストレスパラメータYAnとの関係を示す。 Subsequently, a stress parameter Y An based on the amplitude is obtained. Daily conversation is about 60 dB and screaming is 100 dB. Therefore, the volume range when talking is 60 dB to 100 dB. Table 2 shows the amount of change in amplitude for each voice unit number when the same conversation as in Table 1 is made. The relationship between the number n of the voice unit S An , the average amplitude R n , the difference ΔR An in amplitude from the previous voice unit, and the stress parameter Y An is shown.

Figure 2010259691
Figure 2010259691

この例では、音声単位を示す番号(音声単位番号)nが2と3との間、3と4との間、4と5との間、5と6との間、6と7との間で平均振幅RAnが変化したことを表している。音声単位番号2の平均振幅RA2が60dB、音声単位番号3の平均振幅RA3が100dBと変化するので、数(4)より、ストレスパラメータYAnは、YAn=(100−60)/70=0.57と求まる。本実施例では、ストレスパラメータYAnの分母の△RAn/n
は、n=1から4までの平均振幅RAnの平均とした。
In this example, the sound unit number (sound unit number) n is between 2 and 3, between 3 and 4, between 4 and 5, between 5 and 6, and between 6 and 7. Represents that the average amplitude R An has changed. Since the average amplitude R A2 of the voice unit number 2 changes to 60 dB and the average amplitude R A3 of the voice unit number 3 changes to 100 dB, the stress parameter Y An is represented by Y An = (100−60) / 70 from Equation (4). = 0.57. In this embodiment, ΔR An / n of the denominator of the stress parameter Y An
Is the average of the average amplitude R An from n = 1 to 4.

以上のように求めたストレスパラメータXAnとストレスパラメータYAnより、数(5)を用いて、ストレス指標ZAを求める。表1および表2に示したストレスパラメータXAnとストレスパラメータYAnの総和を求め、音声単位の総数N=10として平均を求める。すると、ストレス指標ZAは0.17と求まる。ストレス指標がZA>0であるので、会話者Aはストレスを感じていると判定出来る。 From the stress parameter X An and the stress parameter Y An obtained as described above, the stress index Z A is obtained using the number (5). The sum of the stress parameter X An and the stress parameter Y An shown in Table 1 and Table 2 is obtained, and the average is obtained with the total number of voice units N = 10. Then, the stress index Z A is obtained as 0.17. Since the stress index is Z A > 0, it can be determined that the conversation person A feels stress.

以上説明したストレス測定方法を用いたストレス測定装置の構成の詳細を説明する。図4は、本発明の実施の形態に係るストレス測定装置の機能構成を示すブロック図である。   Details of the configuration of the stress measurement apparatus using the stress measurement method described above will be described. FIG. 4 is a block diagram showing a functional configuration of the stress measuring apparatus according to the embodiment of the present invention.

まず、会話者Aの音声は、音声A入力部2に入力された後、音声Aバッファ3に一時記憶される。音声Aバッファ3で記憶された音声信号は、音声A分析部4へ随時転送される。音声A分析部4では、会話者Aの音声信号から音声単位を抽出して、周波数に基づくストレスパラメータXAnと振幅に基づくストレスパラメータYAnの計算を行い、計算されたパラメータを音声単位の音声番号に従って音声Aデータ蓄積部8に記憶する。そのため、音声A蓄積部8の容量は、会話中の全データを記録できる大きさの容量を必要とする。これは、会話時間と音声信号の単位時間当たりデータ量とから計算して決めればよい。会話者が会話終了と判断したとき、あるいはストレス判定したい時は、図示しない外部指示回路より判定指令信号が音声Aストレス判定部17に送られる。このとき、音声Aストレス判定部17は、音声Aデータ蓄積部8へ記憶されたデータを音声Aストレス判定部17へ全て転送するように要求する。音声Aストレス判定部17は、この転送されたデータを使ってストレス指標ZAを計算して会話者Aのストレスを判定する。 First, the voice of the conversation person A is input to the voice A input unit 2 and then temporarily stored in the voice A buffer 3. The audio signal stored in the audio A buffer 3 is transferred to the audio A analysis unit 4 as needed. The voice A analysis unit 4 extracts a voice unit from the voice signal of the conversation person A, calculates a stress parameter X An based on the frequency and a stress parameter Y An based on the amplitude, and uses the calculated parameters as the voice of the voice unit. It is stored in the voice A data storage unit 8 according to the number. For this reason, the capacity of the voice A storage unit 8 needs to be large enough to record all data during the conversation. This may be determined by calculating from the conversation time and the amount of data per unit time of the voice signal. When the conversation person determines that the conversation is over, or when it is desired to make a stress determination, a determination command signal is sent to the voice A stress determination unit 17 from an external instruction circuit (not shown). At this time, the voice A stress determination unit 17 requests that all data stored in the voice A data storage unit 8 be transferred to the voice A stress determination unit 17. The voice A stress determination unit 17 determines the stress of the talker A by calculating a stress index Z A using the transferred data.

会話者Bの音声Bも音声Aと同様に、音声B入力部9、音声Bバッファ10、音声B分析部11、音声Bデータ蓄積部15、及び音声Bストレス判定部18を用いて、ストレス指標ZBを計算して会話者Bのストレスを判定する。表示部16には、音声Aと音声Bのストレス判定結果のデータをあわせて表示する。この表示部16には液晶ディスプレイなどの表示手段を用いれば良い。本発明のストレス測定装置1を携帯電話に組み込むときは、携帯電話の表示部を利用すれば良い。 Similarly to the voice A, the voice B of the conversation person B is also a stress index using the voice B input unit 9, the voice B buffer 10, the voice B analysis unit 11, the voice B data storage unit 15, and the voice B stress determination unit 18. Z B is calculated to determine the stress of Talker B. The display unit 16 displays the data of the stress determination results of the voice A and the voice B together. Display means such as a liquid crystal display may be used for the display unit 16. When incorporating the stress measuring device 1 of the present invention into a mobile phone, a display unit of the mobile phone may be used.

次に、音声A分析部4の詳細について、図5(a)を用いて説明する。音声A分析部4は、音声A音声単位抽出部5、音声A周波数分析部6、音声A振幅分析部7、音声AストレスパラメータXAn算出部19及び音声AストレスパラメータXAn算出部とから構成される。 Next, details of the voice A analysis unit 4 will be described with reference to FIG. The voice A analyzer 4 includes a voice A voice unit extractor 5, a voice A frequency analyzer 6, a voice A amplitude analyzer 7, a voice A stress parameter X An calculator 19, and a voice A stress parameter X An calculator. Is done.

まず、音声Aバッファ3で一時記憶された音声は、音声A音声単位抽出部5へ転送され、音声信号を音声単位ごとに区切り、音声番号を付加する。この区切られた音声単位は、音声A周波数分析6と音声A振幅分析7へ転送される。   First, the sound temporarily stored in the sound A buffer 3 is transferred to the sound A sound unit extraction unit 5, where the sound signal is divided into sound units and a sound number is added. The divided audio units are transferred to the audio A frequency analysis 6 and the audio A amplitude analysis 7.

音声A周波数分析部6では、転送された音声単位の周波数を抽出する。さらに、その平均周波数fnを算出し、1つ前の音声番号を持つ音声単位の周波数との差Δfnを求める。音声AストレスパラメータXAn算出部では、この音声A周波数分析部で求めた平均周波数と周波数との差Δfnとを用いて、数(2)に従い、ストレスパラメータXAnを算出する。 The voice A frequency analysis unit 6 extracts the frequency of the transferred voice unit. Further, the average frequency f n is calculated, and a difference Δf n with the frequency of the voice unit having the previous voice number is obtained. The voice A stress parameter X An calculation unit calculates the stress parameter X An according to the equation (2) using the average frequency and the frequency difference Δf n obtained by the voice A frequency analysis unit.

また、音声A振幅分析部7において、音声単位における平均振幅Rnを算出し、1つ前の音声単位における平均振幅との差ΔRnを算出する。その振幅データを使って、音声AストレスパラメータYAn算出部において、ストレスパラメータYAnを算出する。 Further, the voice A amplitude analysis unit 7 calculates an average amplitude R n in the voice unit and calculates a difference ΔR n from the average amplitude in the previous voice unit. Using the amplitude data, the voice A stress parameter Y An calculating unit calculates the stress parameter Y An .

算出したストレスパラメータXAnとYAnを、音声Aデータ蓄積部8で一時記録する。 The calculated stress parameters X An and Y An are temporarily recorded by the voice A data storage unit 8.

図5(b)は、音声B分析部11の詳細の機能構成を示すブロック図である。音声A分析部4と同様に、音声B音声単位抽出部12で音声単位を抽出する。その音声単位を音声B周波数分析部13において周波数を分析し、音声BストレスパラメータXB算出部21においてストレスパラメータYBnを算出する。また、音声単位を音声B振幅分析部13において振幅を分析し、音声BストレスパラメータYBn算出部21においてストレスパラメータYBnを算出する。 FIG. 5B is a block diagram illustrating a detailed functional configuration of the voice B analysis unit 11. Similarly to the voice A analysis unit 4, a voice unit is extracted by the voice B voice unit extraction unit 12. The voice B frequency analysis unit 13 analyzes the frequency of the voice unit, and the voice B stress parameter X B calculation unit 21 calculates the stress parameter Y Bn . Further, the voice B amplitude analysis unit 13 analyzes the amplitude of the voice unit, and the voice B stress parameter Y Bn calculation unit 21 calculates the stress parameter Y Bn .

図6を用いて、本発明の実施の形態に係るストレス測定装置1の動作を説明する。図6は、本発明の実施の形態に係るストレス測定装置1の動作を説明するためのフローチャートである。   The operation of the stress measuring apparatus 1 according to the embodiment of the present invention will be described using FIG. FIG. 6 is a flowchart for explaining the operation of the stress measuring apparatus 1 according to the embodiment of the present invention.

会話者Aの音声が音声A入力部2へ入力されると、ある区間ごとに音声信号を切り出す。そして、切り出した音声信号に音声単位Snのように番号を付ける。この音声単位の切り出しは、0.5秒以上の無発声部分の有無で行う。(ステップS1)
次に、音声単位Snから周波数を抽出し、その平均周波数fnを算出する。そして、1つ前の音声単位における平均周波数fn-1との差異Δfnを求める。さらに、会話者Aの会話全体における周波数の平均に対して、周波数がどのくらい変化したかという割合を求める。その割合を表すストレスパラメータXAnは、数(2)に従って求める。(ステップS2)
また、音声単位Snから振幅を抽出し、その平均振幅Rnを算出する。そして、1つ前の音声単位における平均振幅Rn-1との差異ΔRnを求める。さらに、会話における振幅の平均に対して、周波数がどのくらい変化したかという割合を求める。その割合を表すパラメータYBnは、式(4)に従って求める。(ステップS3)
これらの周波数に基づくストレスパラメータXAnと振幅基づくストレスパラメータYAnを一時記憶する。(ステップS4)
会話が終了しているか否かを確認する。会話が終了していなければ、ステップS2(周波数分析)、ステップS3(振幅分析)、ステップS4(周波数データ・振幅データ記録)を繰り返す。(ステップS5)
会話が終了していれば、ストレス判定を行う。ストレス判定は、ストレスパラメータXAnとストレスパラメータYAnに基づいて行う。式(5)よりストレス指標ZAを求め、ZA>0なら会話者Aがストレスを感じている状態であり、Z<0ならストレスを感じていない状態であると判定する。(ステップS6)
そのストレス判定の結果をディスプレイなどの表示部に出力する。ストレス評価結果は、数値で表示してもよいし、イラストや色で表示してもよい。(ステップS7)
次に、ステップS2で行う周波数分析の処理の詳細を説明する。図7(a)は、周波数分析の動作を説明するためのフローチャートである。
When the voice of the talker A is input to the voice A input unit 2, a voice signal is cut out for each certain section. Then, numbered as phonetic units S n to audio signal clipping. The audio unit is cut out based on the presence or absence of a non-voiced portion of 0.5 seconds or longer. (Step S1)
Next, the frequency is extracted from the voice unit S n and the average frequency f n is calculated. Then, a difference Δf n with respect to the average frequency f n−1 in the previous speech unit is obtained. Further, the ratio of how much the frequency has changed is obtained with respect to the average frequency in the entire conversation of the conversation person A. The stress parameter X An representing the ratio is obtained according to the number (2). (Step S2)
Further, the amplitude is extracted from the voice unit S n and the average amplitude R n is calculated. Then, a difference ΔR n with respect to the average amplitude R n-1 in the previous speech unit is obtained. Furthermore, the ratio of how much the frequency has changed with respect to the average amplitude in conversation is obtained. The parameter Y Bn representing the ratio is obtained according to the equation (4). (Step S3)
The stress parameter X An based on these frequencies and the stress parameter Y An based on the amplitude are temporarily stored. (Step S4)
Check if the conversation is over. If the conversation has not ended, step S2 (frequency analysis), step S3 (amplitude analysis), and step S4 (frequency data / amplitude data recording) are repeated. (Step S5)
If the conversation is over, a stress determination is performed. The stress determination is performed based on the stress parameter X An and the stress parameter Y An . The stress index Z A is obtained from the equation (5). If Z A > 0, it is determined that the talker A feels stress, and if Z <0, the stress is not felt. (Step S6)
The result of the stress determination is output to a display unit such as a display. The stress evaluation result may be displayed as a numerical value, or may be displayed as an illustration or a color. (Step S7)
Next, details of the frequency analysis process performed in step S2 will be described. FIG. 7A is a flowchart for explaining the operation of frequency analysis.

音声信号は、予め音声A音声単位抽出部5において、発声部分と無発声部分に区分し、音声単位SAnとしている。 The voice signal is divided into a voiced part and a non-voiced part in the voice A voice unit extraction unit 5 in advance, and is set as a voice unit S An .

n=1から開始し、n−1=0である。0番目の音声単位SA0における周波数を抽出する。そして、その周波数の平均を求め、平均周波数fA0とする。(ステップS21)
音声A入力部へ音声が入力されると、入力音声が音声単位へ随時変換される。音声単位SA0に続いて、音声単位SA1が抽出される。その音声単位SA1に対応する平均周波数を算出し、平均周波数fA1を求める。(ステップS22)
続いて、ステップS21とステップS22で算出した平均周波数fA0とfA1との差異を算出する。この周波数の差△fA1は、数(1)で表すような絶対値で計算する。(ステッ
プS23)
さらに、この周波数の差△fA1に基づいて、ストレスパラメータXA1を算出する。この
ストレスパラメータXA1は、数(2)を用いて求める。(ステップS24)
ここで、会話が終了しているか否かを確認する。会話が終了していない場合は、続いてn=1として、ステップS21からステップS24を行う。音声A入力部へ音声が入力され、音声単位へ変換される限り、n=n+1としてステップS21からステップS24を繰り返し行う。
Starting from n = 1, n-1 = 0. The frequency in the 0th audio unit S A0 is extracted. And the average of the frequency is calculated | required and it is set as average frequency fA0 . (Step S21)
When a voice is input to the voice A input unit, the input voice is converted into voice units as needed. Following the audio unit S A0 , the audio unit S A1 is extracted. An average frequency corresponding to the voice unit S A1 is calculated to obtain an average frequency f A1 . (Step S22)
Subsequently, the difference between the average frequencies f A0 and f A1 calculated in step S21 and step S22 is calculated. This frequency difference Δf A1 is calculated as an absolute value represented by the number (1). (Step S23)
Further, a stress parameter X A1 is calculated based on the frequency difference Δf A1 . The stress parameter X A1 is obtained using the number (2). (Step S24)
Here, it is confirmed whether or not the conversation has ended. If the conversation has not ended, then n = 1 and steps S21 to S24 are performed. As long as voice is input to the voice A input unit and converted into voice units, step S21 to step S24 are repeated with n = n + 1.

会話が終了し、音声A入力部へ音声が入力されなくなると、周波数分析のステップS2は終了となる。   When the conversation ends and no voice is input to the voice A input unit, step S2 of the frequency analysis ends.

次に、ステップS3で行う振幅分析の処理の詳細を説明する。図7(b)は、振幅分析の動作を説明するためのフローチャートである。   Next, details of the amplitude analysis process performed in step S3 will be described. FIG. 7B is a flowchart for explaining the operation of amplitude analysis.

周波数分析(ステップS2)と同様に、n=1から開始し、n−1=0である。0番目の音声単位SA0における振幅を抽出する。そして、その平均振幅を算出し平均周波数RA0を求める。(ステップS31)
音声単位SA0の1つ次の音声単位SA1に対応する平均振幅RA1を求める。(ステップS32)
続いて、ステップS31とステップS32で算出した平均振幅RA0とRA1との差異を算出する。この振幅の差△RA1は、数(3)を使って算出する。(ステップS33)
さらに、この振幅の差△RA1に基づいて、ストレスパラメータYA1を算出する。このス
トレスパラメータYA1は、数(4)を用いて求める。(ステップS34)
ここで、会話が終了しているか否かを確認する。会話が終了していない場合は、続いてn=1として、ステップS31からステップS34を行う。音声A入力部へ音声が入力され、音声単位へ変換される限り、n=n+1としてステップS31からステップS34を繰り返し行う。会話が終了し、音声A入力部へ音声が入力されなくなると、振幅分析のステップS3は終了する。
Similar to the frequency analysis (step S2), it starts from n = 1 and n-1 = 0. The amplitude in the 0th audio unit S A0 is extracted. Then, the average amplitude is calculated to determine the average frequency R A0 . (Step S31)
An average amplitude R A1 corresponding to the first audio unit S A1 of the audio unit S A0 is obtained. (Step S32)
Subsequently, the difference between the average amplitudes R A0 and R A1 calculated in step S31 and step S32 is calculated. This amplitude difference ΔR A1 is calculated using the number (3). (Step S33)
Further, the stress parameter Y A1 is calculated based on the amplitude difference ΔR A1 . This stress parameter Y A1 is obtained using the equation (4). (Step S34)
Here, it is confirmed whether or not the conversation has ended. If the conversation has not ended, then n = 1 and steps S31 to S34 are performed. As long as voice is input to the voice A input unit and converted into voice units, step S31 to step S34 are repeated with n = n + 1. When the conversation ends and no voice is input to the voice A input unit, the amplitude analysis step S3 ends.

以上のように、本発明の実施の形態1において、会話者の音声信号を用いて、会話者双方のストレスを判定することが出来る。   As described above, in the first embodiment of the present invention, it is possible to determine the stress of both the talkers using the voice signals of the talkers.

本発明にかかるストレス測定装置は、会話している会話者双方の音声信号を用いて、会話者双方のストレスを測定することが出来る。例えば、このストレス測定装置を携帯電話の機能として設置することも出来る。携帯電話で通話している際、携帯電話で通話している相手にストレスがかかっているかどうかを判定出来る。   The stress measuring device according to the present invention can measure the stress of both parties using voice signals of both of the speaking parties. For example, this stress measuring device can be installed as a function of a mobile phone. When making a call on a mobile phone, it is possible to determine whether the other party on the mobile phone is under stress.

1 ストレス測定装置
2 音声A入力部
3 音声Aバッファ
4 音声A分析部
5 音声A音声単位抽出部
6 音声A周波数分析部
7 音声A振幅分析部
8 音声Aデータ蓄積部
9 音声B入力部
10 音声Bバッファ
11 音声B分析部
12 音声B音声単位抽出部
13 音声B周波数分析部
14 音声B振幅分析部
15 音声Bデータ蓄積部
16 表示部
17 音声Aストレス判定部
18 音声Bストレス判定部
19 音声AストレスパラメータXAn算出部
20 音声AストレスパラメータYAn算出部
21 音声BストレスパラメータXBn算出部
22 音声BストレスパラメータYBn算出部
50 スピーカー
51 液晶ディスプレイ
53 電極
54 電源
DESCRIPTION OF SYMBOLS 1 Stress measuring device 2 Voice A input part 3 Voice A buffer 4 Voice A analysis part 5 Voice A voice unit extraction part 6 Voice A frequency analysis part 7 Voice A amplitude analysis part 8 Voice A data storage part 9 Voice B input part 10 Voice B buffer 11 Audio B analysis unit 12 Audio B audio unit extraction unit 13 Audio B frequency analysis unit 14 Audio B amplitude analysis unit 15 Audio B data storage unit 16 Display unit 17 Audio A stress determination unit 18 Audio B stress determination unit 19 Audio A Stress parameter X An calculation unit 20 Audio A stress parameter Y An calculation unit 21 Audio B stress parameter X Bn calculation unit 22 Audio B stress parameter Y Bn calculation unit 50 Speaker 51 Liquid crystal display 53 Electrode 54 Power supply

Claims (9)

対話中の双方の話者の音声を入力して音声信号とする音声入力部と、
前記音声入力部からの音声信号の周波数と振幅よりストレス指標を算出する音声分析部と、
前記ストレス指標に基づいて話者のストレス値を判定する音声ストレス判定部と、
を備えたストレス測定装置。
A voice input unit that inputs voices of both speakers during the conversation and generates voice signals;
A voice analysis unit that calculates a stress index from the frequency and amplitude of a voice signal from the voice input unit;
A voice stress determination unit that determines a stress value of a speaker based on the stress index;
Stress measuring device with
前記音声分析部は、
前記音声信号を発声部と無発声部とに分け発声部のみを音声単位として抽出する音声単位抽出部と、
前記音声単位の平均周波数を算出し先行する前記音声単位の平均周波数との周波数差分値を算出する音声周波数分析部と、
前記周波数差分値と前記平均周波数の商を第1のストレス変数とする第1のストレス変数算出部と、
前記音声単位の平均振幅を算出し先行する前記音声単位の平均振幅との振幅差分値を算出する音声振幅分析部と、
前記振幅差分値と前記平均周波数の商を第2のストレス変数とする第2のストレス変数算出部とを備えた請求項1に記載のストレス測定装置。
The voice analysis unit
A voice unit extraction unit that divides the voice signal into a voice part and a voiceless part and extracts only the voice part as a voice unit;
An audio frequency analyzer that calculates an average frequency of the audio unit and calculates a frequency difference value from the average frequency of the audio unit preceding the audio unit;
A first stress variable calculation unit having a quotient of the frequency difference value and the average frequency as a first stress variable;
An audio amplitude analyzer that calculates an average amplitude of the audio unit and calculates an amplitude difference value from the average amplitude of the preceding audio unit;
The stress measurement apparatus according to claim 1, further comprising a second stress variable calculation unit that uses a quotient of the amplitude difference value and the average frequency as a second stress variable.
前記音声単位抽出部は、
音声信号において無音声が一定時間以上あれば無発声部分として、隣接する2つの無発声部分の間にある発声部分を音声単位とする請求項1に記載のストレス測定装置。
The voice unit extraction unit
The stress measuring device according to claim 1, wherein a voiced portion between two adjacent voiceless parts is used as a voiced part if no voice is present in the voice signal for a predetermined time or longer.
前記第1のストレス変数算出部は、
前記音声単位における周波数fAnと1つ前の音声単位における周波数fAn-1との周波数差分値△fAnを(数1)で求め、
前記周波数差分値△fAnと任意の音声単位における周波数fiとを(数2)を用いて第1
のストレスパラメータXAnを計算する請求項2に記載のストレス測定装置。
Figure 2010259691
Figure 2010259691
ここで、Nは音声単位の数である。
The first stress variable calculator is
A frequency difference △ f An between the frequency f An-1 in the frequency f An and the previous speech unit in the speech unit calculated by (Equation 1),
The using the equation (2) and the frequency f i in the frequency difference △ f An and any speech unit 1
The stress measurement device according to claim 2, wherein the stress parameter X An is calculated.
Figure 2010259691
Figure 2010259691
Here, N is the number of audio units.
前記第2のストレス変数算出部は、
前記音声単位における振幅RAnと1つ前の音声単位における振幅RAn-1との振幅差分値△
Anを(数3)で求め、
前記振幅差分値△RAnと任意の音声単位における振幅Riとを(数4)を用いて第2のス
トレスパラメータYAnを計算する請求項2に記載のストレス測定装置。
Figure 2010259691
Figure 2010259691
ここで、Nは、音声単位の数である。
The second stress variable calculation unit includes:
Amplitude difference value between the amplitude R An-1 in the amplitude R An and the previous speech unit in the speech unit △
Calculate R An by (Equation 3)
3. The stress measuring device according to claim 2, wherein the second stress parameter Y An is calculated using the amplitude difference value ΔR An and the amplitude Ri in an arbitrary voice unit using (Expression 4).
Figure 2010259691
Figure 2010259691
Here, N is the number of audio units.
前記音声ストレス判定部は、
前記第1と第2のストレス変数の平均値を第3のストレス指標とし、前記第3のストレス指標が正であればストレスと判定する請求項2に記載のストレス測定装置。
The voice stress determination unit
The stress measurement device according to claim 2, wherein an average value of the first and second stress variables is set as a third stress index, and if the third stress index is positive, it is determined as stress.
前記第3ストレス指標は、
第1のストレスパラメータXAnと第2のストレスパラメータYAnとを数(5)を用いて算出する請求項6に記載のストレス測定装置。
Figure 2010259691
ここで、ZAは第3ストレス指標、Nは音声単位の数である。
The third stress index is
The stress measuring device according to claim 6, wherein the first stress parameter X An and the second stress parameter Y An are calculated using the number (5).
Figure 2010259691
Here, Z A is the third stress index, and N is the number of voice units.
前記第3ストレス指標は、
重みを付加した二つのストレスパラメータXAnとYAnとを数(6)を用いて算出する請求項6に記載のストレス測定装置。
Figure 2010259691
ここで、ZAは第3ストレス指標、Nは音声単位の数、aはストレスパラメータXAnの重みを示す係数、bはストレスパラメータYAnの重みを示す係数である。
The third stress index is
The stress measuring apparatus according to claim 6, wherein the two stress parameters X An and Y An to which weights are added are calculated using the number (6).
Figure 2010259691
Here, Z A is a third stress index, N is the number of voice units, a is a coefficient indicating the weight of the stress parameter X An , and b is a coefficient indicating the weight of the stress parameter Y An .
前記音声ストレス判定部で判定された話者のストレス値を出力するための表示部を備えた請求項1に記載のストレス測定装置。 The stress measurement apparatus according to claim 1, further comprising a display unit for outputting a speaker stress value determined by the voice stress determination unit.
JP2009114304A 2009-05-11 2009-05-11 Stress measuring device Pending JP2010259691A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009114304A JP2010259691A (en) 2009-05-11 2009-05-11 Stress measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009114304A JP2010259691A (en) 2009-05-11 2009-05-11 Stress measuring device

Publications (1)

Publication Number Publication Date
JP2010259691A true JP2010259691A (en) 2010-11-18

Family

ID=43358297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009114304A Pending JP2010259691A (en) 2009-05-11 2009-05-11 Stress measuring device

Country Status (1)

Country Link
JP (1) JP2010259691A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101286134B1 (en) * 2011-11-03 2013-07-23 오근석 Feeling expression system for resolving spirit stress
US8892424B2 (en) 2011-09-27 2014-11-18 Fuji Xerox Co., Ltd. Audio analysis terminal and system for emotion estimation of a conversation that discriminates utterance of a user and another person
WO2015146824A1 (en) * 2014-03-25 2015-10-01 シャープ株式会社 Interactive household-electrical-appliance system, server device, interactive household electrical appliance, method whereby household-electrical-appliance system performs interaction, and non-volatile computer-readable data recording medium having, stored thereon, program for executing said method on computer
JP2016085478A (en) * 2016-02-12 2016-05-19 シャープ株式会社 Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the method by computer
JP2018180061A (en) * 2017-04-04 2018-11-15 富士通株式会社 Voice processing program, voice processing method and voice processing device
JP2019020600A (en) * 2017-07-18 2019-02-07 富士通株式会社 Evaluation program, evaluation method and evaluation device
WO2021200189A1 (en) * 2020-03-31 2021-10-07 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8892424B2 (en) 2011-09-27 2014-11-18 Fuji Xerox Co., Ltd. Audio analysis terminal and system for emotion estimation of a conversation that discriminates utterance of a user and another person
KR101286134B1 (en) * 2011-11-03 2013-07-23 오근석 Feeling expression system for resolving spirit stress
WO2015146824A1 (en) * 2014-03-25 2015-10-01 シャープ株式会社 Interactive household-electrical-appliance system, server device, interactive household electrical appliance, method whereby household-electrical-appliance system performs interaction, and non-volatile computer-readable data recording medium having, stored thereon, program for executing said method on computer
JP2015184563A (en) * 2014-03-25 2015-10-22 シャープ株式会社 Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer
JP2016085478A (en) * 2016-02-12 2016-05-19 シャープ株式会社 Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the method by computer
JP2018180061A (en) * 2017-04-04 2018-11-15 富士通株式会社 Voice processing program, voice processing method and voice processing device
JP2019020600A (en) * 2017-07-18 2019-02-07 富士通株式会社 Evaluation program, evaluation method and evaluation device
JP7143574B2 (en) 2017-07-18 2022-09-29 富士通株式会社 Evaluation program, evaluation method and evaluation device
WO2021200189A1 (en) * 2020-03-31 2021-10-07 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
McLoughlin Applied speech and audio processing: with Matlab examples
Scarborough et al. Clarity in communication:“Clear” speech authenticity and lexical neighborhood density effects in speech production and perception
JP2010259691A (en) Stress measuring device
EP1423846B1 (en) Method and apparatus for speech analysis
CN101346758B (en) Emotion recognizer
Qi et al. The estimation of signal-to-noise ratio in continuous speech for disordered voices
JPH09505701A (en) Testing telecommunications equipment
US20110190658A1 (en) Portable sound source reproducing apparatus for testing hearing ability and method using the same
Zezario et al. STOI-Net: A deep learning based non-intrusive speech intelligibility assessment model
US9131876B2 (en) Portable sound source playing apparatus for testing hearing ability and method of testing hearing ability using the apparatus
JP2006267465A (en) Uttering condition evaluating device, uttering condition evaluating program, and program storage medium
JP4587854B2 (en) Emotion analysis device, emotion analysis program, program storage medium
Chandrashekar et al. Investigation of different time-frequency representations for intelligibility assessment of dysarthric speech
Gallardo Human and automatic speaker recognition over telecommunication channels
Daudet et al. Portable mTBI assessment using temporal and frequency analysis of speech
Sevitz et al. Obtaining objective clinical measures during telehealth evaluations of dysarthria
Godin et al. Glottal Waveform Analysis of Physical Task Stress Speech.
JP3701671B2 (en) Method and apparatus for testing communication devices using test signals with reduced redundancy
US8938077B2 (en) Sound source playing apparatus for compensating output sound source signal and method of compensating sound source signal output from sound source playing apparatus
JP7191269B1 (en) Device for promoting vocal health, method for promoting vocal health, and program for promoting vocal health
JP2010273700A (en) Stress measuring device
KR20110018829A (en) Portable sound source playing apparatus for testing hearing ability and method for performing thereof
Richard et al. Comparison of objective and subjective methods for evaluating speech quality and intelligibility recorded through bone conduction and in-ear microphones
Niebuhr et al. Pronunciation engineering: Investigating the link between jaw-movement patterns and perceived speaker charisma using the MARRYS cap
Saukh et al. Quantle: fair and honest presentation coach in your pocket