JP5834521B2 - 音声解析装置 - Google Patents
音声解析装置 Download PDFInfo
- Publication number
- JP5834521B2 JP5834521B2 JP2011135584A JP2011135584A JP5834521B2 JP 5834521 B2 JP5834521 B2 JP 5834521B2 JP 2011135584 A JP2011135584 A JP 2011135584A JP 2011135584 A JP2011135584 A JP 2011135584A JP 5834521 B2 JP5834521 B2 JP 5834521B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- sound
- analysis
- state
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
<第1実施形態>
図1は、この発明の第1実施形態である音声解析装置10の構成を示す図である。この音声解析装置10は、イヤホンマイクの筐体である本体部11内に制御部20を埋め込んだものである。より詳細に説明すると、この音声解析装置10の本体部11の一端面12には収音部13が設けられている。本体部11の他端面14からは利用者Sの耳に挿入される部分である挿入部15が突出している。挿入部15の先端には収音部16と放音部17とが併設されている。また、音声解析装置10からはケーブル40が引き出されており、このケーブル40は携帯音楽プレーヤ50に接続される。音声解析装置10は、本体部11の端面14から突出している挿入部15を利用者Sの耳の外耳道EAC内に挿入することにより、利用者Sの耳に装着される。利用者Sの耳の外耳道EAC内に挿入部15が挿入されると、挿入部15の先端の収音部16及び放音部17は鼓膜DRMと対向し、本体部11における挿入部15の反対側の端面12上の収音部13は耳の外側に露出する。
利用者Sは日常生活の中で様々な者を会話相手Cとして会話を行う。この会話において、例えば図2に示すシーン1のように、利用者Sが会話相手Cの発言を最後まで聞いた上でそれに対する返答を一定のテンポで返す傾向がみられる場合、利用者Sは比較的落ち着いた安静な精神状態にあるといえる。また、会話相手Cが発言を終えているのに相当時間が経っても利用者Sが自身の発言を始めない、という傾向がみられる場合、利用者Sは精神的に疲れているといえる。逆に、例えば図2に示すシーン2のように、会話相手Cが発言している間にその発言を遮るようにして利用者Sが自身の発言を始める傾向がみられる場合、利用者Sは精神的に興奮しているか焦っているといえる。そこで、この解析処理では、解析部21は、利用者Sが誰かを会話相手Cとして会話する度に、その会話内において会話相手Cが発言を終えてから時間長T1(例えば、T1≦10秒)以内に利用者Sが発言を始めた回数NumA、会話相手Cが発言を終えてから時間長T1が過ぎた後に利用者Sが発言を始めた回数NumB、及び会話相手Cが発言を終える前に利用者Sが発言を始めた回数NumCを個別に集計する。
利用者Sが日常生活の中で行う会話において、例えば、図2に示すシーン3のように、利用者Sが会話相手Cにほとんど発言させずに自分だけ一方的に発言する傾向がみられる場合、利用者Sはその鬱積したストレスを会話を通じて解消したがっている、あるいは自分の考えを強く主張したいという精神状態にあるといえる。逆に、図2に示すシーン4のように、利用者Sが会話相手Cの発言を聴いているだけで自分はほとんど発言しない、という傾向がみられる場合、利用者Sが精神的に塞ぎ込んでいる、あるいは会話に積極的に参加したくないような精神状態にあるといえる。そこで、この解析処理では、解析部21は、利用者Sが誰かを会話相手Cとして会話する度に、利用者Sの発言時間TSと会話相手Cの発言時間TCの割合TS/TC、及び利用者Sの発言の総数NumSと利用者Sが会話相手Cの発言を遮って行った発言の回数NumSINTとの割合NumSINT/NumSを求める。
利用者Sが日常会話の中で行う会話において、利用者Sが低く陰鬱な調子で発言する傾向がみられる場合、利用者Sは無気力感に苛まれているといえる。逆に、利用者Sが高く浮ついた調子で発言する傾向がみられる場合、利用者Sは精神的に緊張しているといえる。また、利用者Sの声の調子は、利用者Sの声における優勢な周波数成分であるフォルマントの周波数軸上の位置から求めることができる。そこで、この解析処理では、解析部21は、利用者Sが誰かを会話相手Cとして会話をする度に、その会話内の利用者Sの発言の音声における代表的な音韻(例えば、「あ」とする)の第1フォルマントF1及び第2フォルマントF2を抽出し、この第1フォルマントF1及び第2フォルマントF2と利用者Sの精神状態が安静であるときの音声から予め抽出しておいた音韻(あ)の第1フォルマントF1REF及び第2フォルマントF2REFの周波数差を求める。
利用者Sが日常生活の中で行う会話において、同じ言葉を繰り返す傾向がみられる場合、疲れて言葉を考え出すのが困難であったり、別のことに気をとられて会話に集中できない状態であるといえる。そこで、この解析処理では、解析部21は、利用者Sが誰かを会話相手Cとして会話する度に、その会話内の言葉(単語)が繰り返し話されているものであるかを判定する。
利用者Sが、その日常生活の中で独り言を発する回数が多い場合、利用者Sがストレスをため込んでいるとみることができる。そこで、この解析処理では、解析部21は、利用者Sの独り言の回数を集計する。より具体的に説明すると、解析部21は、状態S0を間に挟んで状態S2が繰り返し発生した場合にその状態S2の繰り返し回数を独り言の回数NumEとして計数する。そして、制御部21は、この回数NumEを利用者Sの独り言の解析結果を示す解析結果データP5として記憶部23に記憶する。
(1)回数NumBが所定の閾値より多い場合には、「お疲れのようなので休んだらどうですか」という音声を放音させる。
(2)回数NumCが所定の閾値より多い場合には、「落ち着いて下さい」という音声を放音させる。
(3)時間比TS/TCが所定の閾値より小さい場合は、「もっと会話に参加したらどうですか」という音声を放音させ、回数比NumSINT/NumSが大きい場合は、「もう少し落ち着きましょう」という音声を放音させる。
(4)精神的に鬱積した状態であるときの声の調子であることを解析結果データP3が示している場合には、「音楽でも聴きませんか」という音声を放音させる。
図3は、本発明の第2実施形態である音声解析装置10Aの構成を示す図である。本実施形態では、携帯音楽プレーヤ50の操作部51によって解析結果を閲覧する操作が行われると、携帯音楽プレーヤ50は解析結果の提供を求める信号をケーブル40を介して音声解析装置10Aの報知部22に供給する。報知部22は、この信号を受け取ると、記憶部23内における最新の解析結果データP1〜P5を読み出し、これらの解析結果データP1〜P5を正五角形の中心及び各頂点間のスケール上にプロットしたレーダーチャートRCを生成する。ここで、解析結果データP1については、回数NumA、NumB、NumCのうちから選択した値(例えば、NumC)に基づいてスケール上のプロット位置を決定する。報知部22は、生成したレーダーチャートRCの表示制御データをケーブル40を介して携帯音楽プレーヤ50に供給し、このレーダーチャートRCをディスプレイ52に表示させる。
(1)上記第1及び第2実施形態において、収音部13及び16の出力信号XEXT及びXINTを発話履歴データとして記憶部23内に記憶するようにしてもよい。この場合において、記憶部23内の発話履歴データをパーソナルコンピュータに送信し、精神状態の起伏の傾向、各種治療の効果、治療後の経過観察などの解析に供してもよい。また、解析部21の解析結果として生成された解析結果データP1〜P5のいずれが適正範囲を外れている場合にのみ、収音部13及び16の出力信号XEXT及びXINTを発話履歴データとして記憶部23内に記憶するようにしてもよい。
Claims (7)
- 利用者の耳の外の音を収音する第1の収音部と、
前記耳の中の音を収音する第2の収音部と、
前記第1の収音部の出力信号と前記第2の収音部の出力信号とから前記利用者及び当該利用者の会話相手の会話の状態を解析する解析部と
を具備することを特徴とする音声解析装置。 - 前記解析部は、前記第1の収音部の出力信号と前記第2の収音部の出力信号の相互相関値に基づいて、前記利用者と前記会話相手の両者が発言している状態であるかそれとも前記利用者だけが発言している状態なのかを判定することを特徴とする請求項1に記載の音声解析装置。
- 前記解析部は、前記会話相手が発言を終えてから所定時間以内に前記利用者が発言を始めた回数及び前記会話相手が発言を終えてから前記所定時間が過ぎた後に利用者が発言を始めた回数のうちの一方または両方を前記第1の収音部の出力信号と前記第2の収音部の出力信号とを用いて集計し、集計した回数を前記会話の状態の解析結果とすることを特徴とする請求項1または2に記載の音声解析装置。
- 前記解析部は、前記利用者の発言時間と前記利用者の会話相手の発言時間を前記第1の収音部の出力信号と前記第2の収音部の出力信号とを用いて個別に計測し、前記利用者の発言時間と前記会話相手の発言時間の関係を前記会話の状態の解析結果とすることを特徴と請求項1または2に記載の音声解析装置。
- 前記解析部は、前記利用者の発言の音声における所定の音韻のフォルマントを前記第2の収音部の出力信号から抽出し、抽出したフォルマントと前記利用者の精神状態が安静であるときの音声から予め抽出された前記音韻のフォルマントとを比較し、この比較の結果を前記会話の状態の解析結果とすることを特徴とする請求項1または2に記載の音声解析装置。
- 前記解析部は、前記利用者における同じ言葉の繰り返しの回数を前記第1の収音部の出力信号と前記第2の収音部の出力信号とを用いて集計し、この集計した回数を前記会話の状態の解析結果とすることを特徴とする請求項1または2に記載の音声解析装置。
- 前記解析部は、前記利用者における独り言の回数を前記第1の収音部の出力信号と前記第2の収音部の出力信号とを用いて集計し、この集計した回数を前記会話の状態の解析結果とすることを特徴とする請求項1または2に記載の音声解析装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011135584A JP5834521B2 (ja) | 2011-06-17 | 2011-06-17 | 音声解析装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011135584A JP5834521B2 (ja) | 2011-06-17 | 2011-06-17 | 音声解析装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013000408A JP2013000408A (ja) | 2013-01-07 |
JP5834521B2 true JP5834521B2 (ja) | 2015-12-24 |
Family
ID=47669614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011135584A Expired - Fee Related JP5834521B2 (ja) | 2011-06-17 | 2011-06-17 | 音声解析装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5834521B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11026613B2 (en) | 2015-03-09 | 2021-06-08 | Koninklijke Philips N.V. | System, device and method for remotely monitoring the well-being of a user with a wearable device |
WO2021200189A1 (ja) * | 2020-03-31 | 2021-10-07 | ソニーグループ株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
-
2011
- 2011-06-17 JP JP2011135584A patent/JP5834521B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013000408A (ja) | 2013-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Patel et al. | Recommended protocols for instrumental assessment of voice: American Speech-Language-Hearing Association expert panel to develop a protocol for instrumental assessment of vocal function | |
US11102568B2 (en) | Automatic speech recognition triggering system | |
Dasgupta | Detection and analysis of human emotions through voice and speech pattern processing | |
US20210366508A1 (en) | Vowel sensing voice activity detector | |
Darling et al. | Changes to articulatory kinematics in response to loudness cues in individuals with Parkinson’s disease | |
US10074384B2 (en) | State estimating apparatus, state estimating method, and state estimating computer program | |
US20160302003A1 (en) | Sensing non-speech body sounds | |
Smiljanic et al. | Acoustics of clear and noise-adapted speech in children, young, and older adults | |
Astolfi et al. | Duration of voicing and silence periods of continuous speech in different acoustic environments | |
Nathan et al. | Assessment of chronic pulmonary disease patients using biomarkers from natural speech recorded by mobile devices | |
Owren et al. | Listeners judge talker sex more efficiently from male than from female vowels | |
Castellana et al. | Intra-speaker and inter-speaker variability in speech sound pressure level across repeated readings | |
US20120264091A1 (en) | Method and system for training voice patterns | |
JP2023105135A (ja) | 情報処理装置、装着型機器、情報処理方法及びプログラム | |
Pandey et al. | Enhancement of alaryngeal speech using spectral subtraction | |
JP5834521B2 (ja) | 音声解析装置 | |
Virebrand | Real-time monitoring of voice characteristics usingaccelerometer and microphone measurements | |
Jayan et al. | Automated modification of consonant–vowel ratio of stops for improving speech intelligibility | |
Nudelman et al. | Daily Phonotrauma Index: An objective indicator of large differences in self-reported vocal status in the daily life of females with phonotraumatic vocal hyperfunction | |
US20150305920A1 (en) | Methods and system to reduce stuttering using vibration detection | |
Kim et al. | An acoustic-phonetic approach to effects of face masks on speech Intelligibility | |
Adams et al. | Conversational speech intensity | |
Deshpande et al. | Laughter as a controller in a stress buster game | |
JP2012198726A (ja) | 会話支援装置および会話支援方法 | |
Lei et al. | Wearable neck surface accelerometers for occupational vocal health monitoring: instrument and analysis validation study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150317 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151019 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5834521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |