JP5834521B2 - 音声解析装置 - Google Patents

音声解析装置 Download PDF

Info

Publication number
JP5834521B2
JP5834521B2 JP2011135584A JP2011135584A JP5834521B2 JP 5834521 B2 JP5834521 B2 JP 5834521B2 JP 2011135584 A JP2011135584 A JP 2011135584A JP 2011135584 A JP2011135584 A JP 2011135584A JP 5834521 B2 JP5834521 B2 JP 5834521B2
Authority
JP
Japan
Prior art keywords
user
sound
analysis
state
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011135584A
Other languages
English (en)
Other versions
JP2013000408A (ja
Inventor
毅 境
毅 境
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011135584A priority Critical patent/JP5834521B2/ja
Publication of JP2013000408A publication Critical patent/JP2013000408A/ja
Application granted granted Critical
Publication of JP5834521B2 publication Critical patent/JP5834521B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、人の精神状態を良好に保つ技術に関する。
特許文献1には、利用者の身体に装着した各種センサの検出値から利用者の精神状態を解析し、利用者の精神が不安定な状態に陥っている場合にその不安定な状態を和らげる技術の開示がある。同文献に開示されたシステムは、室内に固定される空気調和機(空調機)とその室内の利用者の身体に装着される検出装置とを有する。検出装置は、利用者の脳波、血圧、発汗量などの生体情報をセンサにより検出し、この生体情報を空気調和機に送信する。空気調和機は、リラックス効果を奏する芳香剤が充填された芳香剤放出部を有している。そして、空気調和機は、検出装置から当該空気調和機に送信された生体情報から利用者の精神が緊張状態に陥っているか否かを判断し、緊張状態に陥っている場合には、芳香剤放出部から芳香剤を放出させる。この芳香剤が、利用者の嗅覚を刺激し、利用者の精神状態が改善される。
特開2006−320621号公報
しかしながら、特許文献1に記載の技術では、検出装置の側に利用者の生体情報を検出する為のセンサを搭載せねばならず、装置が大掛かりな構成になってしまうという問題があった。
本発明は、このような背景の下に案出されたものであり、簡易な構成により、利用者の精神状態を解析することができる技術的手段を提供することを目的とする。
本発明は、利用者の耳の中の音を収音する第2の収音部と、耳の外の音を収音する第1の収音部と、前記第2の収音部の出力信号と前記第1の収音部の出力信号とから前記挿入部を耳に装着している利用者の会話の状態を解析する解析部とを具備する音声解析装置を提供する。
人にとって、他人との会話は、その本人の精神を高揚させる場合もあるし、落ち着かせたり安静にさせる場合もあるし、ストレスを与える場合もある。従って、他人との会話は、本人の健康状態、特に精神状態に大きな影響を与える重要な要素であると考えられる。そこで、本発明では、利用者の耳に挿入部を挿入した状態における耳の中の音と耳の外の音の2種類の音の音信号から利用者の会話の状態を解析する。この会話の状態の解析結果を利用することにより、利用者の精神状態を解析することができる。
この発明の第1実施形態である音声解析装置を示す図である。 同音声解析装置による解析処理を説明するための図である。 この発明の第2実施形態である音声解析装置を示す図である。
以下、図面を参照しつつ本発明の実施形態について説明する。
<第1実施形態>
図1は、この発明の第1実施形態である音声解析装置10の構成を示す図である。この音声解析装置10は、イヤホンマイクの筐体である本体部11内に制御部20を埋め込んだものである。より詳細に説明すると、この音声解析装置10の本体部11の一端面12には収音部13が設けられている。本体部11の他端面14からは利用者Sの耳に挿入される部分である挿入部15が突出している。挿入部15の先端には収音部16と放音部17とが併設されている。また、音声解析装置10からはケーブル40が引き出されており、このケーブル40は携帯音楽プレーヤ50に接続される。音声解析装置10は、本体部11の端面14から突出している挿入部15を利用者Sの耳の外耳道EAC内に挿入することにより、利用者Sの耳に装着される。利用者Sの耳の外耳道EAC内に挿入部15が挿入されると、挿入部15の先端の収音部16及び放音部17は鼓膜DRMと対向し、本体部11における挿入部15の反対側の端面12上の収音部13は耳の外側に露出する。
この装着状態において、収音部13は、利用者Sの耳の外の音を収音し、収音した音を音信号XEXTとして制御部20に供給する。収音部16は、利用者Sの耳の中の音を収音し、収音した音を音信号XINTとして制御部20に供給する。放音部17は、携帯音楽プレーヤ50からケーブル40を介して当該放音部17に音信号Mが供給されている場合には、その音信号Mを利用者Sの耳の中に音として放音する。また、放音部17は、制御部20から当該放音部17に音信号Yが供給されている場合には、その音信号Yを利用者Sの耳の中に音として放音する。
制御部20は、解析部21及び報知部22とこれら両部間で授受される各種情報等を記憶する記憶部23とを有する。解析部21は、収音部13の出力信号XEXT及び収音部16の出力信号XINTから、利用者Sとその会話相手Cとの会話の状態が、利用者Sの会話音声SAと会話相手Cの会話音声CAのいずれも発生していない状態S0、利用者Sの会話音声SAが発生しておらず会話相手Cの会話音声CAが発生している状態S1、利用者Sの会話音声SAが発生しており会話相手Cの会話音声CAが発生していない状態S2、及び利用者Sの会話音声SAと会話相手Cの会話音声CAの両方が発生している状態S3のうちのどの状態に該当するかを判定し、会話中における状態S0,S1,S2,S3の遷移を解析する役割を果たす。
ここで、状態S0では、利用者Sの会話音声SAと会話相手Cの会話音声CAのいずれも発生していないため、信号XEXT及びXINTの振幅がほぼ0になる。これに対し、状態S1では、会話相手Cを発生源とする音声CAが、利用者Sの耳に装着された音声解析装置10の収音部13に伝わり、さらに音声解析装置10及び挿入部15と耳との間の隙間を介して耳の中に伝搬して収音部16にも僅かに伝わる。状態S2では、利用者Sの声帯を発生源とする音声SAが、利用者Sの対外に一旦放音された後、空気伝搬音として収音部13及び収音部16に伝わるとともに、利用者Sの声帯の振動が、体内を経由する固体伝搬音として直接収音部16に伝わる。状態S3では、会話相手Cを発生源とする音声CAと利用者Sを発生源とする音声SAの合成音が収音部13及び収音部16に伝わる。このため、状態S0以外の3つの状態S1,S2,S3では何れも信号XEXT及びXINTの振幅が0より大きくなる。よって、音声解析装置10における2つの収音部13及び16の出力信号XEXT及びXINTの振幅からは状態S0か否かを判定することはできるものの、残り3つの状態S1,S2,S3のいずれであるかまでは判定できない。そこで、解析部21は、収音部13及び16から信号XEXT及びXINTが出力される度に、最新の所定サンプル分の信号XEXT及びXINTの平均値を求めるとともに、最新の所定サンプル分の信号XEXT及びXINTの相互相関値Vを求め、信号XEXT、XINTに相互相関値Vを加えた3つのパラメータを利用して状態S0,S1,S2,及びS3のいずれに該当するかを判定する。
より詳細に説明すると、図2のタイミングチャートに例示されるように、解析部21は、信号XEXTと閾値TH1の大小関係がXEXT<TH1である場合は、現在の状態がS0状態であるとみなす。また、解析部21は、信号XEXTと閾値TH1の大小関係がXEXT≧TH1であり、信号XINTと2つの閾値TH2及びTH2(TH2>TH2)との大小関係がTH2≦XINT<TH2である場合は、現在の状態がS1状態であるとみなす。そして、解析部21は、信号XEXTと閾値TH1の大小関係がXEXT≧TH1であり、信号XINTと閾値TH2の大小関係がXINT≧TH2である場合は、現在の状態が状態S2及びS3の何れかであるとみなし、その何れであるかを相互相関値Vと閾値TH3との大小関係に基づいて判定する。すなわち、解析部21は、XEXT≧TH1,XINT≧TH2,且つV≧TH3の場合は現在の状態が状態S2であるとし、XEXT≧TH1,XINT≧TH2,且つV<TH3の場合は現在の状態が状態S3であるとする。このように判定し得る理由は次の通りである。状態S2では、収音部13及び収音部16にある程度の大きさのレベルを有する音声SAが伝わるため、収音部13の出力信号XEXTと収音部16の出力信号XINTの相互相関値Vは1に近い高い値となる。これに対し、状態S3では、収音部13には音声SAと音声CAの双方を含む音が伝わり、収音部16には音声SAを含み音声CAを殆ど含まない音が伝わるため、収音部13の出力信号XEXTと収音部16の出力信号XINTの相互相関値Vは、状態S2の場合よりも十分に小さな値となる。以上の理由から、状態S2の場合の相互相関値Vの予測値VS2(VS2≒1)よりも小さく状態S3の場合の相互相関値Vの予測値VS3よりも大きい値を閾値TH3とし、最新の信号XEXT及びXINTから求まる相互相関値Vとこの閾値TH3とを比較することにより、現在の状態が状態S2であるか状態S3であるかを判定し得る。
また、解析部21は、この信号XINT及びXEXTと相互相関値Vの3つのパラメータを用いた判定の判定結果を利用して以下の5種類の解析項目a1〜e1を解析する処理を行い、各解析処理の解析結果を記憶部23に記憶する。
a1.会話相手Cの発言に対する利用者Sの応答性
利用者Sは日常生活の中で様々な者を会話相手Cとして会話を行う。この会話において、例えば図2に示すシーン1のように、利用者Sが会話相手Cの発言を最後まで聞いた上でそれに対する返答を一定のテンポで返す傾向がみられる場合、利用者Sは比較的落ち着いた安静な精神状態にあるといえる。また、会話相手Cが発言を終えているのに相当時間が経っても利用者Sが自身の発言を始めない、という傾向がみられる場合、利用者Sは精神的に疲れているといえる。逆に、例えば図2に示すシーン2のように、会話相手Cが発言している間にその発言を遮るようにして利用者Sが自身の発言を始める傾向がみられる場合、利用者Sは精神的に興奮しているか焦っているといえる。そこで、この解析処理では、解析部21は、利用者Sが誰かを会話相手Cとして会話する度に、その会話内において会話相手Cが発言を終えてから時間長T1(例えば、T1≦10秒)以内に利用者Sが発言を始めた回数NumA、会話相手Cが発言を終えてから時間長T1が過ぎた後に利用者Sが発言を始めた回数NumB、及び会話相手Cが発言を終える前に利用者Sが発言を始めた回数NumCを個別に集計する。
より具体的に説明すると、解析部21は、状態S1から状態S0への遷移が発生してから時間T1以内に状態S2への遷移が発生した場合に回数NumAを1だけインクリメントする動作を繰り返す。また、解析部21は、状態S1から状態S0への遷移が発生してから時間T1が経過した後に状態S2への遷移が発生した場合に回数NumBを1だけインクリメントする動作を繰り返す。また、解析部21は、状態S1から状態S3への遷移が発生した場合に回数NumCを1だけインクリメントする動作を繰り返す。解析部21は、利用者Sが誰かを会話相手Cとする会話を始めてからその会話を終えるまでの間に亘って以上の処理を行う。そして、解析部21は、この間に集計した回数NumA,NumB,及びNumCを会話相手Cの発言に対する利用者Sの応答性の解析結果を示す解析結果データP1として記憶部23に記憶する。
b1.利用者Sと会話相手Cの発話時間のバランス
利用者Sが日常生活の中で行う会話において、例えば、図2に示すシーン3のように、利用者Sが会話相手Cにほとんど発言させずに自分だけ一方的に発言する傾向がみられる場合、利用者Sはその鬱積したストレスを会話を通じて解消したがっている、あるいは自分の考えを強く主張したいという精神状態にあるといえる。逆に、図2に示すシーン4のように、利用者Sが会話相手Cの発言を聴いているだけで自分はほとんど発言しない、という傾向がみられる場合、利用者Sが精神的に塞ぎ込んでいる、あるいは会話に積極的に参加したくないような精神状態にあるといえる。そこで、この解析処理では、解析部21は、利用者Sが誰かを会話相手Cとして会話する度に、利用者Sの発言時間Tと会話相手Cの発言時間Tの割合T/T、及び利用者Sの発言の総数NumSと利用者Sが会話相手Cの発言を遮って行った発言の回数NumSINTとの割合NumSINT/NumSを求める。
より具体的に説明すると、解析部21は、状態S0から状態S2への遷移が発生した時に時間Tの計時を開始し状態S2から状態S0への遷移が発生した時に時間Tの計時を停止する第1の計時処理と、状態S0から状態S1への遷移が発生した時から時間Tの計時を開始し状態S1から状態S0への遷移が発生した時に時間Tの計時を停止する第2の計時処理とを行う。また、解析部21は、状態S0から状態S2への遷移が発生した場合と状態S1から状態S3への遷移が発生した場合に回数NumSを1だけインクリメントする動作を繰り返す。また、解析部21は、状態S1から状態S3への遷移が発生した場合にNumSINTを1だけインクリメントする動作を繰り返す。解析部21は、利用者Sが誰かを会話相手Cとする会話を始めてからその会話を終えるまでの間に亘って以上の処理を行う。そして、解析部21は、時間Tを時間Tで除算した値T/T、及び回数NumSINTを回数NumSで除算した値NumSINT/NumSを、利用者Sと会話相手Cの発話時間のバランスの解析結果を示す解析結果データP2として記憶部23に記憶する。
c1.利用者Sの声の調子
利用者Sが日常会話の中で行う会話において、利用者Sが低く陰鬱な調子で発言する傾向がみられる場合、利用者Sは無気力感に苛まれているといえる。逆に、利用者Sが高く浮ついた調子で発言する傾向がみられる場合、利用者Sは精神的に緊張しているといえる。また、利用者Sの声の調子は、利用者Sの声における優勢な周波数成分であるフォルマントの周波数軸上の位置から求めることができる。そこで、この解析処理では、解析部21は、利用者Sが誰かを会話相手Cとして会話をする度に、その会話内の利用者Sの発言の音声における代表的な音韻(例えば、「あ」とする)の第1フォルマントF1及び第2フォルマントF2を抽出し、この第1フォルマントF1及び第2フォルマントF2と利用者Sの精神状態が安静であるときの音声から予め抽出しておいた音韻(あ)の第1フォルマントF1REF及び第2フォルマントF2REFの周波数差を求める。
より具体的に説明すると、解析部21は、所定時間以上に亙って状態S0が続いた後、状態S2に遷移した場合に、利用者Sがある程度静かな環境の下で発言しているみなし、状態S0から状態S2に遷移した以降の収音部16の出力信号XINTを解析対象とする。解析部21は、解析対象の信号XINTから音韻(あ)の波形区間の信号XINTを切り出し、この波形区間の信号XINTにFFT(Fast Fourier Transform)処理を施し、FFT処理により得られたパワースペクトルにおける最も大きなパワーを持った周波数f1及び次に大きなパワーを持った周波数f2を第1フォルマントF1及び第2フォルマントF2とする。解析部21は、フォルマントF1とフォルマントF1REFの周波数差ΔF1、及びフォルマントF2とフォルマントF2REFの周波数差ΔF2を各々算出する。解析部21は、この周波数差ΔF1及びΔF2の合計値ΔF1+ΔF2を、利用者Sの声の調子の解析結果を示す解析結果データP3として記憶部23に記憶する。
d1.利用者Sの会話中における同じ言葉の繰り返し
利用者Sが日常生活の中で行う会話において、同じ言葉を繰り返す傾向がみられる場合、疲れて言葉を考え出すのが困難であったり、別のことに気をとられて会話に集中できない状態であるといえる。そこで、この解析処理では、解析部21は、利用者Sが誰かを会話相手Cとして会話する度に、その会話内の言葉(単語)が繰り返し話されているものであるかを判定する。
より具体的に説明すると、解析部21は、状態S2における収音部16の出力信号XINTを解析対象とする。そして、この状態S2における信号XINTに音声/テキスト変換処理を施し、利用者Sの発言を示すテキストデータを生成して、バッファに順次蓄積する。解析部21は、蓄積したテキストデータ中にN(例えば、N=5)文字以上の同じ配列順の文字列が続けて出現した場合には、同じ会話の出現回数NumDを1だけインクリメントする。そして、解析部21は、この出現回数NumDを利用者Sの会話中における同じ言葉の繰り返しの解析結果を示す解析結果データP4として記憶部23に記憶する。
e1.利用者Sの独り言
利用者Sが、その日常生活の中で独り言を発する回数が多い場合、利用者Sがストレスをため込んでいるとみることができる。そこで、この解析処理では、解析部21は、利用者Sの独り言の回数を集計する。より具体的に説明すると、解析部21は、状態S0を間に挟んで状態S2が繰り返し発生した場合にその状態S2の繰り返し回数を独り言の回数NumEとして計数する。そして、制御部21は、この回数NumEを利用者Sの独り言の解析結果を示す解析結果データP5として記憶部23に記憶する。
報知部22は、解析部21による解析の結果に応じた報知を行う。より具体的に説明すると、報知部22は、時間T3(例えば、T3=30分とする)毎に記憶部23内の解析結果データP1〜P5を参照する。報知部22は、参照した解析結果データP1〜P5の中に適正範囲から外れるものがある場合には、精神状態を安定化させるための推奨行動を案内する報知音の音信号Yを放音部17に供給し、この報知音を放音部17から放音させる。具体例を挙げると次の通りである。
(1)回数NumBが所定の閾値より多い場合には、「お疲れのようなので休んだらどうですか」という音声を放音させる。
(2)回数NumCが所定の閾値より多い場合には、「落ち着いて下さい」という音声を放音させる。
(3)時間比T/Tが所定の閾値より小さい場合は、「もっと会話に参加したらどうですか」という音声を放音させ、回数比NumSINT/NumSが大きい場合は、「もう少し落ち着きましょう」という音声を放音させる。
(4)精神的に鬱積した状態であるときの声の調子であることを解析結果データP3が示している場合には、「音楽でも聴きませんか」という音声を放音させる。
以上説明した本実施形態では、利用者Sの耳に挿入部15を装着した状態における耳の中の音と耳の外の音を収音部16及び13によって収音し、収音部16及び13の出力信号XINT及びXEXTから利用者Sの会話の状態を解析する。本実施形態によると、この会話の状態の解析結果を用いることにより、利用者Sの精神状態を解析することができる。
<第2実施形態>
図3は、本発明の第2実施形態である音声解析装置10Aの構成を示す図である。本実施形態では、携帯音楽プレーヤ50の操作部51によって解析結果を閲覧する操作が行われると、携帯音楽プレーヤ50は解析結果の提供を求める信号をケーブル40を介して音声解析装置10Aの報知部22に供給する。報知部22は、この信号を受け取ると、記憶部23内における最新の解析結果データP1〜P5を読み出し、これらの解析結果データP1〜P5を正五角形の中心及び各頂点間のスケール上にプロットしたレーダーチャートRCを生成する。ここで、解析結果データP1については、回数NumA、NumB、NumCのうちから選択した値(例えば、NumC)に基づいてスケール上のプロット位置を決定する。報知部22は、生成したレーダーチャートRCの表示制御データをケーブル40を介して携帯音楽プレーヤ50に供給し、このレーダーチャートRCをディスプレイ52に表示させる。
本実施形態では、利用者Sの精神状態の解析結果である5種類の解析結果データP1〜P5がレーダーチャートRCの画像としてディスプレイ52に表示される。よって、本実施形態によると、利用者Sは、5つの解析項目毎の個別の解析結果を視覚により確認することができる。
以上、この発明の第1及び第2実施形態について説明したが、この発明には他にも実施形態があり得る。例えば、以下の通りである。
(1)上記第1及び第2実施形態において、収音部13及び16の出力信号XEXT及びXINTを発話履歴データとして記憶部23内に記憶するようにしてもよい。この場合において、記憶部23内の発話履歴データをパーソナルコンピュータに送信し、精神状態の起伏の傾向、各種治療の効果、治療後の経過観察などの解析に供してもよい。また、解析部21の解析結果として生成された解析結果データP1〜P5のいずれが適正範囲を外れている場合にのみ、収音部13及び16の出力信号XEXT及びXINTを発話履歴データとして記憶部23内に記憶するようにしてもよい。
(2)上記第1及び第2実施形態では、解析部21の解析結果して生成された解析結果データP1〜P5のいずれかが適正範囲を外れている場合、精神状態を安定化させるための推奨行動を案内する報知音の音信号Yを放音部17に供給し、この報知音を放音部17から放音させた。しかし、この場合に、精神状態を安定化させるための音楽であるヒーリングミュージックの音信号Y’を放音部17に供給し、放音部17からヒーリングミュージックを放音させてもよい。
(3)上記第1及び第2実施形態において、各種生体センサにより検出した血圧、血流、発汗等の生体情報と音信号XEXT及びXINTの解析とを併用して利用者Sの精神状態の解析を行ってもよい。
(4)上記第1及び第2実施形態において、利用者Sと会話相手Cとの間の会話中に予め設定されたパターンと異なる異常な状態S0,S1,S2,S3の遷移が現れた場合、利用者Sが精神的なダメージを受けたとみなしてその回数をカウントし、利用者Sに報知するようにしてもよい。
(5)上記第1及び第2実施形態において、会話の状態から利用者Sが健康を害するような発言を行った場合にその記録を行うようにしてもよい。例えば図2において、状態S3から状態S2へ遷移したときの信号XINTの振幅が所定限度を越えて大きい場合、利用者Sが声を荒げて会話相手を遮り、発言を行ったと考えられる。このような行為は健康上好ましくないので、その回数をカウントし、利用者Sに報知することが好ましい。
(6)上記第1及び第2実施形態における同じ言葉の繰り返しを解析対象とする処理では、利用者Sの発言を示すテキストデータ中にN文字以上の同じ文字列が続けて出現した場合に、同じ言葉の繰り返し回数NumDを1つインクリメントした。しかし、利用者Sの発言を示すテキストデータ中に現れた文字列の意味に応じて回数NunDに加算する値に重みづけを与えてもよい。例えば、利用者Sと会話相手Cとの会話中に、「そうだね」、「そう」、「すばらしい」といった肯定的な意味の言葉が繰り返し現れている場合は、その会話が円滑、円満に行われていることが多い。その一方、利用者Sと会話相手Cとの会話中に、「でも」、「いや」、「だから」といった否定的な意味の言葉が繰り返し現れている場合は、その会話が円滑、円満に行われていないことが多い。よって、肯定的な意味を有する言葉と高い値の評価値とを対応付けるとともに、否定的な意味を有する言葉と低い値の評価値を対応付けたテーブルを設け、利用者Sの発言を示すテキストデータ中にN文字以上の同じ文字列が続けて現れる度に、テーブル内における該当する言葉の評価値をNumDに加算していくようにするとよい。
(7)上記第1及び第2実施形態において、耳の外の音を収音する収音部13と解析部20との間にLPF(Low Pass Filter)を介挿し、このLPFを通過した信号XEXT’と収音部16の出力信号XINTとの相互相関値V’を求め、この相互相関値V’に基づいて状態S2であるか状態S3であるかの判定が行なうようにしてもよい。利用者Sの体外を伝搬する空気伝搬音は、低域から高域に至る成分が殆ど失われずに収音部13に到達するのに対し、利用者Sの体内を伝搬する固体伝搬音は、頭蓋骨や鼓膜を経由する過程において高域の成分が失われる。この実施形態によると、利用者Sの会話音声SAが発生しており会話相手Cの会話音声CAが発生していないにも拘わらず相互相関値Vが1よりも十分に小さな値となってしまい、状態S2と状態S3を判別し難くなる、という事態の発生を防ぐことができる。
10、10A…音声解析装置、11…本体部、12,14…端面、13,16…収音部、17…放音部、20…制御部、21…解析部、22…報知部、23…記憶部。

Claims (7)

  1. 利用者の耳の外の音を収音する第1の収音部と、
    前記耳の中の音を収音する第2の収音部と、
    前記第1の収音部の出力信号と前記第2の収音部の出力信号とから前記利用者及び当該利用者の会話相手の会話の状態を解析する解析部と
    を具備することを特徴とする音声解析装置。
  2. 前記解析部は、前記第1の収音部の出力信号と前記第2の収音部の出力信号の相互相関値に基づいて、前記利用者と前記会話相手の両者が発言している状態であるかそれとも前記利用者だけが発言している状態なのかを判定することを特徴とする請求項1に記載の音声解析装置。
  3. 前記解析部は、前記会話相手が発言を終えてから所定時間以内に前記利用者が発言を始めた回数及び前記会話相手が発言を終えてから前記所定時間が過ぎた後に利用者が発言を始めた回数のうちの一方または両方を前記第1の収音部の出力信号と前記第2の収音部の出力信号とを用いて集計し、集計した回数を前記会話の状態の解析結果とすることを特徴とする請求項1または2に記載の音声解析装置。
  4. 前記解析部は、前記利用者の発言時間と前記利用者の会話相手の発言時間を前記第1の収音部の出力信号と前記第2の収音部の出力信号とを用いて個別に計測し、前記利用者の発言時間と前記会話相手の発言時間の関係を前記会話の状態の解析結果とすることを特徴と請求項1または2に記載の音声解析装置。
  5. 前記解析部は、前記利用者の発言の音声における所定の音韻のフォルマントを前記第2の収音部の出力信号から抽出し、抽出したフォルマントと前記利用者の精神状態が安静であるときの音声から予め抽出された前記音韻のフォルマントとを比較し、この比較の結果を前記会話の状態の解析結果とすることを特徴とする請求項1または2に記載の音声解析装置。
  6. 前記解析部は、前記利用者における同じ言葉の繰り返しの回数を前記第1の収音部の出力信号と前記第2の収音部の出力信号とを用いて集計し、この集計した回数を前記会話の状態の解析結果とすることを特徴とする請求項1または2に記載の音声解析装置。
  7. 前記解析部は、前記利用者における独り言の回数を前記第1の収音部の出力信号と前記第2の収音部の出力信号とを用いて集計し、この集計した回数を前記会話の状態の解析結果とすることを特徴とする請求項1または2に記載の音声解析装置。
JP2011135584A 2011-06-17 2011-06-17 音声解析装置 Expired - Fee Related JP5834521B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011135584A JP5834521B2 (ja) 2011-06-17 2011-06-17 音声解析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011135584A JP5834521B2 (ja) 2011-06-17 2011-06-17 音声解析装置

Publications (2)

Publication Number Publication Date
JP2013000408A JP2013000408A (ja) 2013-01-07
JP5834521B2 true JP5834521B2 (ja) 2015-12-24

Family

ID=47669614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011135584A Expired - Fee Related JP5834521B2 (ja) 2011-06-17 2011-06-17 音声解析装置

Country Status (1)

Country Link
JP (1) JP5834521B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11026613B2 (en) 2015-03-09 2021-06-08 Koninklijke Philips N.V. System, device and method for remotely monitoring the well-being of a user with a wearable device
WO2021200189A1 (ja) * 2020-03-31 2021-10-07 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP2013000408A (ja) 2013-01-07

Similar Documents

Publication Publication Date Title
Patel et al. Recommended protocols for instrumental assessment of voice: American Speech-Language-Hearing Association expert panel to develop a protocol for instrumental assessment of vocal function
US11102568B2 (en) Automatic speech recognition triggering system
Dasgupta Detection and analysis of human emotions through voice and speech pattern processing
US20210366508A1 (en) Vowel sensing voice activity detector
Darling et al. Changes to articulatory kinematics in response to loudness cues in individuals with Parkinson’s disease
US10074384B2 (en) State estimating apparatus, state estimating method, and state estimating computer program
US20160302003A1 (en) Sensing non-speech body sounds
Smiljanic et al. Acoustics of clear and noise-adapted speech in children, young, and older adults
Astolfi et al. Duration of voicing and silence periods of continuous speech in different acoustic environments
Nathan et al. Assessment of chronic pulmonary disease patients using biomarkers from natural speech recorded by mobile devices
Owren et al. Listeners judge talker sex more efficiently from male than from female vowels
Castellana et al. Intra-speaker and inter-speaker variability in speech sound pressure level across repeated readings
US20120264091A1 (en) Method and system for training voice patterns
JP2023105135A (ja) 情報処理装置、装着型機器、情報処理方法及びプログラム
Pandey et al. Enhancement of alaryngeal speech using spectral subtraction
JP5834521B2 (ja) 音声解析装置
Virebrand Real-time monitoring of voice characteristics usingaccelerometer and microphone measurements
Jayan et al. Automated modification of consonant–vowel ratio of stops for improving speech intelligibility
Nudelman et al. Daily Phonotrauma Index: An objective indicator of large differences in self-reported vocal status in the daily life of females with phonotraumatic vocal hyperfunction
US20150305920A1 (en) Methods and system to reduce stuttering using vibration detection
Kim et al. An acoustic-phonetic approach to effects of face masks on speech Intelligibility
Adams et al. Conversational speech intensity
Deshpande et al. Laughter as a controller in a stress buster game
JP2012198726A (ja) 会話支援装置および会話支援方法
Lei et al. Wearable neck surface accelerometers for occupational vocal health monitoring: instrument and analysis validation study

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151019

R151 Written notification of patent or utility model registration

Ref document number: 5834521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees