JP2003228391A - 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体 - Google Patents
情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体Info
- Publication number
- JP2003228391A JP2003228391A JP2002024823A JP2002024823A JP2003228391A JP 2003228391 A JP2003228391 A JP 2003228391A JP 2002024823 A JP2002024823 A JP 2002024823A JP 2002024823 A JP2002024823 A JP 2002024823A JP 2003228391 A JP2003228391 A JP 2003228391A
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- question
- character string
- answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
の変化に対応して音声から感情を推定することができる
情報処理方法、情報処理システム、情報処理装置、前記
情報処理システム及び情報処理装置を実現するためのコ
ンピュータプログラム、及び該コンピュータプログラム
が記録されているコンピュータでの読取りが可能な記録
媒体の提供。 【解決手段】 体調に係る質問と感情に係る質問とを行
い(S1,S8)、夫々音声にて回答を受付け、体調に
係る質問の回答から音響学的特徴を抽出し(S4)、感
情に係る質問の回答から文字列情報を抽出する(S1
1)。データの収集期間でない場合(S7:NO)、音
響学的特徴と文字列情報との相関関係を設定し(S1
4)、新たに受付けた音響学的特徴から文字列情報を特
定することによって、感情を推定する(S16)。
Description
報を前記音声から抽出した音響学的特徴に基づいて推定
する情報処理方法、情報処理システム、情報処理装置、
前記情報処理システム及び情報処理装置を実現するため
のコンピュータプログラム、並びに該コンピュータプロ
グラムが記録されている記録媒体に関する。
等の情報処理装置を利用して、入力された音声を解析
し、その音声に伴う感情を推定する方法が知られてい
る。主として、以下で説明する2つの方法が従来から知
られている。1つは、入力された音声に対して音声認識
を行うことにより、その音声に対応した文字列を特定
し、文字列の内容に基づいて感情を推定する方法であ
る。この方法による場合、感情を示す語彙として予め用
意しておいた語彙情報と特定した文字列の内容とが一致
するか否かを判断することにより、喜び、怒り、哀し
み、驚き、楽しみなど10種類程度に分類された感情か
ら1つの感情を特定することが行われる。
音声波形を解析して、音声の強弱(音圧レベル)、ピッ
チ周波数、継続時間等の特徴量を抽出し、感情の程度
(抑揚)を推定する方法である。この方法による場合、
まず、感情の推定を行う前の準備段階として、音圧レベ
ル、ピッチ周波数、継続時間等の特徴量の基準値を設定
する。基準値としては、例えば、成人男性、成人女性、
子供などの母集団における各特徴量の平均値をとる。感
情の推定を行う場合、被験者から新たに音声を収集し、
その音声の波形を解析して特徴量を抽出する。そして、
抽出した特徴量と被験者が属する母集団の基準値とを比
較し、比較した結果に基づいて被験者の感情の程度を推
定する。
た文字列の内容に基づいて感情を推定する方法では、感
情の程度まで推定することができず、一方、音声の特徴
量(音圧レベル、ピッチ周波数、継続時間)から感情の
程度を推定する方法では、推定した感情の程度がどのよ
うな感情に対応しているのかということまで推測するこ
とは困難である。また、各特徴量の基準値として、成人
男性、成人女性、子供の平均値をとった場合、被験者の
個別性を反映させることができないという問題点があ
る。更に、音声は、加齢及び被験者の体調によっても変
化することが一般的であり、また、音声を採取した時期
によっても変化することが多い。したがって、加齢、被
験者の体調、及び音声を採取した時期を反映させて適切
に感情を推定することができることが望ましい。
であり、互いに相関を有する2つの質問情報を出力し、
出力された質問情報に対する回答を夫々音声にて受付
け、一方の回答に係る音声から文字列情報を抽出し、他
方の回答に係る音声から音響学的特徴に係る特徴情報を
抽出し、文字列情報と特徴情報とから両者の相関関係を
設定し、質問情報の回答に係る音声を新たに受付けた場
合、受付けた音声から抽出した音響学的特徴に係る特徴
情報と設定した相関関係とに基づき、前記特徴情報と相
関がある文字列情報を特定することにより、被験者から
発せられた音声から、その音声に付随する情報の意味内
容及び程度を容易に推定することができる情報処理方
法、情報処理システム、情報処理装置、前記情報処理シ
ステム及び情報処理装置を実現するコンピュータプログ
ラム、並びに該コンピュータプログラムが記録されてい
る記録媒体を提供することを目的とする。
理状態に関する質問情報であり、他方が体調に関する質
問情報であることにより、被験者から発せられた音声に
基づき、感情の意味内容、感情の程度を容易に推定する
ことができる情報処理方法、情報処理システム、及び情
報処理装置を提供することにある。
る回答を音声にて受付ける際、所定の期間であるか否か
を判断し、所定の期間である場合にのみ、記憶してある
文字列情報と特徴情報との間の相関関係を設定すること
により、音声を採取した時期を反映させて適切に情報を
推定することができる情報処理方法、情報処理システ
ム、及び情報処理装置を提供することにある。
字列情報及び特徴情報から夫々を特徴づける特徴量を算
出し、算出した特徴量を用いた多変量解析により文字列
情報と特徴情報との相関関係を設定することにより、複
数の特徴情報を推定に反映させることができる情報処理
方法、情報処理システム、及び情報処理装置を提供する
ことにある。
方法は、質問情報の記憶手段及び出力手段と、音声の受
付手段とを備える情報処理システムにより、前記記憶手
段に記憶してある質問情報を出力し、出力した質問情報
に対する回答を音声にて受付け、受付けた音声に係る音
響学的特徴を抽出し、抽出した音響学的特徴に基づき、
前記音声に付随する情報を推定する情報処理方法におい
て、前記記憶手段に予め記憶されており、互いに相関を
有する第1質問情報及び第2質問情報を前記出力手段に
より出力し、出力された第1及び第2質問情報に対する
回答を夫々音声にて受付け、受付けた第1質問情報の回
答に係る音声から文字列情報を抽出し、受付けた第2質
問情報の回答に係る音声から音響学的特徴に係る1又は
複数の特徴情報を抽出し、抽出した文字列情報と特徴情
報とを関連付けて記憶し、記憶してある文字列情報と特
徴情報とから両者の相関関係を設定し、前記受付手段に
より第2質問情報の回答に係る音声を新たに受付けた場
合、受付けた音声から抽出した音響学的特徴に係る1又
は複数の特徴情報と設定した相関関係とに基づき、前記
特徴情報と相関がある文字列情報を特定することを特徴
とする。
において、前記第1及び第2質問情報は、一方が心理状
態に関する質問情報であり、他方が体調に関する質問情
報であることを特徴とする。
又は第2発明において、第1質問情報又は第2質問情報
に対する回答を音声にて受付ける際、所定の期間である
か否かを判断し、所定の期間である場合にのみ、記憶し
てある文字列情報と特徴情報とから両者の相関関係を設
定することを特徴とする。
乃至第3発明の何れかにおいて、記憶してある文字列情
報及び特徴情報から夫々を特徴づける特徴量を算出し、
算出した特徴量を用いた多変量解析により前記相関関係
を設定することを特徴とする。
情報の記憶手段と、該記憶手段に記憶されている質問情
報を出力する出力手段と、音声を受付ける手段とを備
え、前記出力手段から出力された質問情報に対する回答
を音声にて受付け、受付けた音声から抽出した音響学的
特徴に基づき、前記音声に付随する情報を推定すべくな
してある情報処理システムにおいて、前記記憶手段に予
め記憶されており、互いに相関を有する第1質問情報及
び第2質問情報を出力する手段と、出力された第1及び
第2質問情報に対する回答を夫々音声にて受付ける手段
と、受付けた第1質問情報の回答に係る音声から文字列
情報を抽出する文字列情報抽出手段と、受付けた第2質
問情報の回答に係る音声から音響学的特徴に係る1又は
複数の特徴情報を抽出する特徴情報抽出手段と、抽出し
た文字列情報及び特徴情報を関連付けて記憶する手段
と、記憶してある文字列情報と特徴情報とから両者の相
関関係を設定する手段とを備え、前記受付手段により第
2質問情報の回答に係る音声を新たに受付けた場合、受
付けた音声から抽出した音響学的特徴に係る1又は複数
の特徴情報と設定した相関関係とに基づき、前記特徴情
報と相関がある文字列情報を特定すべくなしてあること
を特徴とする。
ネットワークを介して接続された第1情報処理装置と第
2情報処理装置とを備え、前記第1情報処理装置は、質
問情報の記憶手段と、該記憶手段に記憶されている質問
情報を送信する送信手段とを備え、前記第2情報処理装
置は、前記通信ネットワークを通じて送信された質問情
報を受信する手段と、受信した質問情報に対する回答を
音声にて受付ける手段と、受付けた音声に係る音声情報
を送信する手段とを備え、前記第1情報処理装置は、前
記通信ネットワークを通じて受信した音声情報から抽出
した音響学的特徴に基づき、前記音声情報に付随する情
報を推定すべくなしてある情報処理システムにおいて、
前記第2情報処理装置は、前記第1情報処理装置の前記
記憶手段に予め記憶されており、互いに相関を有する第
1質問情報及び第2質問情報を前記ネットワークを通じ
て受信する手段と、受信した第1及び第2質問情報を出
力する手段と、出力された第1及び第2質問情報に対す
る回答を夫々音声にて受付ける手段と、受付けた音声に
係る音声情報を送信する手段とを備え、前記第1情報処
理装置は、受信した第1質問情報の回答に係る音声情報
から文字列情報を抽出する文字列情報抽出手段と、受信
した第2質問情報の回答に係る音声情報から音響学的特
徴に係る1又は複数の特徴情報を抽出する特徴情報抽出
手段と、抽出した文字列情報及び特徴情報を関連付けて
記憶する手段と、記憶してある文字列情報と特徴情報と
から両者の相関関係を設定する手段とを備え、第2質問
情報の回答に係る音声情報を前記第2情報処理装置から
新たに受信した場合、受信した音声情報から抽出した音
響学的特徴に係る1又は複数の特徴情報と設定した相関
関係とに基づき、前記特徴情報と相関がある文字列情報
を特定すべくなしてあることを特徴とする。
発明又は第6発明において、前記第1及び第2質問情報
は、一方が心理状態に関する質問情報であり、他方が体
調に関する質問情報であることを特徴とする。
発明乃至第7発明の何れかにおいて、第1質問情報又は
第2質問情報に対する回答を音声にて受付ける際、所定
の期間であるか否かを判断する手段を備え、所定の期間
である場合にのみ、記憶してある文字列情報と特徴情報
とから両者の相関関係を設定すべくなしてあることを特
徴とする。
発明乃至第8発明の何れかにおいて、記憶してある文字
列情報及び特徴情報から夫々を特徴づける特徴量を算出
し、算出した特徴量を用いた多変量解析により前記相関
関係を設定すべくなしてあることを特徴とする。
報の記憶手段と、該記憶手段に記憶されている質問情報
を出力する出力手段と、音声の受付手段とを備え、前記
出力手段から出力された質問情報に対する回答を音声に
て受付け、受付けた音声から抽出した音響学的特徴に基
づき、前記音声に付随する情報を推定すべくなしてある
情報処理装置において、前記記憶手段に予め記憶されて
おり、互いに相関を有する第1質問情報及び第2質問情
報を出力する手段と、出力された第1及び第2質問情報
に対する回答を夫々音声にて受付ける手段と、受付けた
第1質問情報の回答に係る音声から文字列情報を抽出す
る文字列情報抽出手段と、受付けた第2質問情報の回答
に係る音声から音響学的特徴に係る1又は複数の特徴情
報を抽出する特徴情報抽出手段と、抽出した文字列情報
及び特徴情報を関連付けて記憶する手段と、記憶してあ
る文字列情報と特徴情報とから両者の相関関係を設定す
る手段とを備え、前記受付手段により第2質問情報の回
答に係る音声を新たに受付けた場合、受付けた音声から
抽出した音響学的特徴に係る1又は複数の特徴情報と設
定した相関関係とに基づき、前記特徴情報と相関がある
文字列情報を特定すべくなしてあることを特徴とする。
ットワークに接続可能になしてあり、音声情報を受信す
る手段を備え、受信した音声情報から抽出した音響学的
特徴に基づき、前記音声情報に付随する情報を推定すべ
くなしてある情報処理装置において、互いに相関を有す
る第1質問情報及び第2質問情報に対する回答を前記通
信ネットワークを通じて夫々音声情報にて受信する手段
と、受信した第1質問情報の回答に係る音声情報から該
音声情報が含む文字列情報を抽出する文字列情報抽出手
段と、受信した第2質問情報の回答に係る音声情報から
音響学的特徴に係る1又は複数の特徴情報を抽出する特
徴情報抽出手段と、抽出した文字列情報及び特徴情報を
関連付けて記憶する手段と、記憶してある文字列情報と
特徴情報とから両者の相関関係を設定する手段とを備
え、第2質問情報の回答に係る音声情報を新たに受信し
た場合、受信した音声情報から抽出した音響学的特徴に
係る1又は複数の特徴情報と設定した相関関係とに基づ
き、前記特徴情報と相関がある文字列情報を特定すべく
なしてあることを特徴とする。
発明又は第11発明において、前記第1及び第2質問情
報は、一方が心理状態に関する質問情報であり、他方が
体調に関する質問情報であることを特徴とする。
発明乃至第12発明の何れかにおいて、第1質問情報又
は第2質問情報に対する回答を音声にて受付ける際、所
定の期間であるか否かを判断する手段を備え、所定の期
間である場合にのみ、記憶してある文字列情報と特徴情
報とから両者の相関関係を設定すべくなしてあることを
特徴とする。
発明乃至第13発明の何れかにおいて、記憶してある文
字列情報及び特徴情報から夫々を特徴づける特徴量を算
出し、算出した特徴量を用いた多変量解析により前記相
関関係を設定すべくなしてあることを特徴とする。
発明乃至第14発明の何れかにおいて、前記特徴情報抽
出手段は、入力された音声情報の音圧を検出する検出手
段、ピッチ周波数を検出する検出手段、継続時間を検出
する検出手段、又はジッタを検出する検出手段のうち少
なくとも一の検出手段を備えることを特徴とする。
発明乃至第15発明の何れかにおいて、特定された文字
列情報に応じた適宜情報を出力する手段を更に備えるこ
とを特徴とする。
は、コンピュータに、入力された音声情報に係る音響学
的特徴を抽出させ、抽出させた音響学的特徴に基づき、
前記音声情報に付随する情報を推定させるステップを有
するコンピュータプログラムにおいて、コンピュータ
に、互いに相関を有する第1質問情報及び第2質問情報
を出力させるステップと、コンピュータに、出力された
第1及び第2質問情報に対する回答を夫々音声情報にて
入力させるステップと、コンピュータに、入力された第
1質問情報の回答に係る音声情報から文字列情報を抽出
させるステップと、コンピュータに、受付けた第2質問
情報の回答に係る音声情報から音響学的特徴に係る1又
は複数の特徴情報を抽出させるステップと、コンピュー
タに、抽出させた文字列情報及び特徴情報を関連付けて
記憶させるステップと、コンピュータに、記憶してある
文字列情報と特徴情報とから両者の相関関係を設定させ
るステップと、コンピュータに、第2質問情報に対する
回答に係る音声情報を新たに受付けた場合、受付けた音
声情報から抽出した音響学的特徴に係る1又は複数の特
徴情報と設定させた相関関係とに基づき、前記特徴情報
と相関がある文字列情報を特定させるステップとを有す
ることを特徴とする。
が可能な記録媒体は、コンピュータに、入力された音声
情報に係る音響学的特徴を抽出させ、抽出させた音響学
的特徴に基づき、前記音声情報に付随する情報を推定さ
せるステップを有するコンピュータプログラムが記録さ
れているコンピュータでの読取りが可能な記録媒体にお
いて、コンピュータに、互いに相関を有する第1質問情
報及び第2質問情報を出力させるステップと、コンピュ
ータに、出力された第1及び第2質問情報に対する回答
を夫々音声情報にて入力させるステップと、コンピュー
タに、入力された第1質問情報の回答に係る音声情報か
ら文字列情報を抽出させるステップと、コンピュータ
に、受付けた第2質問情報の回答に係る音声情報から音
響学的特徴に係る1又は複数の特徴情報を抽出させるス
テップと、コンピュータに、抽出させた文字列情報及び
特徴情報を関連付けて記憶させるステップと、コンピュ
ータに、記憶してある文字列情報と特徴情報とから両者
の相関関係を設定させるステップと、コンピュータに、
第2質問情報に対する回答に係る音声情報を新たに受付
けた場合、受付けた音声情報から抽出した音響学的特徴
に係る1又は複数の特徴情報と設定させた相関関係とに
基づき、前記特徴情報と相関がある文字列情報を特定さ
せるステップとを有するコンピュータプログラムが記録
されていることを特徴とする。
つの質問情報を出力し、出力された質問情報に対する回
答を夫々音声にて受付け、一方の回答に係る音声から文
字列情報を抽出し、他方の回答に係る音声から音響学的
特徴に係る特徴情報を抽出し、抽出した文字列情報と特
徴情報とから両者の相関関係を設定し、質問情報の回答
に係る音声を新たに受付けた場合、受付けた音声から抽
出した音響学的特徴に係る特徴情報と設定した相関関係
とに基づき、前記特徴情報と相関がある文字列情報を特
定する。したがって、例えば、一方の質問情報を被験者
の感情に関する質問情報とし、他方の質問情報を被験者
の体調に係る質問とした場合、体調に係る質問を被験者
に答えてもらうことによって、その被験者の感情を推定
することが可能である。特に、感情に関する質問で、被
験者自身に特定の感情に対する評価を答えてもらい、そ
の評価と体調に係る質問の回答から抽出した音響学的特
徴との間に相関関係を設定することによって、体調に係
る質問の音声による回答のみから、感情の種類、及び感
情の程度(抑揚)を定量的に推測することが可能であ
る。
が心理状態に関する質問情報であり、他方が体調に関す
る質問情報である。したがって、被験者から発せられた
音声に基づき、感情の意味内容、感情の程度を容易に推
定することができる。
回答を音声にて受付ける際、所定の期間であるか否かを
判断し、所定の期間である場合にのみ、記憶してある文
字列情報と特徴情報との間の相関関係を設定するように
している。したがって、本発明の情報処理システムの利
用開始時に、前述の相関関係を設定するために音声情報
を収集する期間(例えば、一週間程度)を設けることが
できる。また、加齢、被験者の体調等を適切に考慮して
感情の推定を行うために、例えば、一ヶ月ごとに前記相
関関係を最新の状態に更新することができる。その為、
長期的に感情推定を行うことが可能であり、推定誤差を
縮小することが可能である。
列情報及び特徴情報から夫々を特徴づける特徴量を算出
し、算出した特徴量を用いた多変量解析により文字列情
報と特徴情報との相関関係を設定するようにしている。
したがって、複数の特徴量を利用して感情の推定を行う
ことができるため、特定の音響学的特徴に被験者の体調
等の影響があった場合であっても、その影響を必要最小
限に抑えることが可能である。
示す図面に基づいて具体的に説明する。 実施の形態1.図1は、本発明の情報処理装置を具体化
した感情推定装置の内部構成を示すブロック図である。
本実施の形態に係る感情推定装置は、例えば、マイクロ
ホンのような音声入力部11を備える「ネコ型」の介護
ロボットであり、体調及び心理状態を問う質問を呈示
し、これらの質問に対する回答を音声入力部11により
受付け、受付けた音声の波形を解析することにより、音
声に伴う感情を推定すべくなしてある。
述する各ハードウェア各部に接続されていて、ROM3
に格納された制御プログラムに従って、それらを制御す
る。RAM4は、SRAM又はフラッシュメモリ等で構
成され、ROM3に格納された制御プログラムの実行時
に発生するデータを記憶する。
問情報を表示させるための液晶ディスプレイ等の表示装
置である。これらの質問情報は、内部記憶装置9が有す
る質問情報データベース(質問情報DB)9bに記憶さ
れている。質問情報が音声データとして質問情報データ
ベース9bに記憶されている場合には、スピーカのよう
な音声出力部12により質問情報を出力してもよい。入
力部6は、感情推定装置の動作を制御するための各種ボ
タンスイッチを備えている。
より電気信号に変換された音声波形を解析し、音圧、ピ
ッチ周波数、継続時間等の音響学的特徴に係る特徴量を
算出する。
入力された音声情報の音声認識を行い、音声情報を文字
列情報に変換する。変換された文字列情報は、後述する
ように評価され、評価された値が解析データベース9a
(解析DB)に記憶される。
な記憶装置からなり、記憶領域の一部は前述の質問情報
データベース9b、音声波形解析部13によって解析さ
れた結果を記憶する解析データベース9aとして用いら
れており、必要に応じて各種データベースにアクセス
し、情報の記憶及び読取り処理が行われる。
プログラム及び質問情報等のデータを記録したメモリカ
ード等の可搬型の記録媒体10からコンピュータプログ
ラム及びデータを読取る読取装置からなり、読取られた
コンピュータプログラム及びデータは、内部記憶装置9
に記憶される。内部記憶装置9に記憶されているコンピ
ュータプログラムは、RAM4に読込まれ、CPU1が
実行することで感情推定装置として動作する。
声情報の波形、及び音声波形解析部13によって抽出さ
れた特徴量の時間変化の一例を示すグラフである。図2
(a)に示した例では、被験者が質問に対する回答とし
て「いいえ」と答えた場合の音声情報の波形を示してい
る。音声入力部11から入力された音声情報の波形は音
声波形解析部13によって解析され、図2(b)のグラ
フに示したような音圧レベルの時間変化、図2(c)の
グラフに示したようなピッチ周波数の時間変化を得る。
(b)及び(c)に示したように時間とともに変化する
関数であるが、これらを特徴付ける特徴量としては、音
声の継続時間(図2ではt1 −t0 )における最大値、
平均値、中央値等を採用する。例えば、音圧レベルの特
徴量としては、音声の継続時間における平均値をとり、
ピッチ周波数の特徴量としては、音声の継続時間におけ
る最大値を採用する。このように、音圧レベル、ピッチ
周波数等の音響学的特徴に対する特徴量として、最大
値、平均値、中央値等の何れを採用するかは予め定めて
おく。
ベルの時間変化、ピッチ周波数の時間変化だけでなく、
ピッチ周波数の時間変動、音声の継続時間、音声のかす
れに対応するジッタを解析することができ、解析して算
出された特徴量は、解析した日付と関連付けて解析デー
タベース9aに記憶される。
チ周波数の時間変動、音声の継続時間、及びジッタ等
は、一般に、被験者の感情に左右されることが知られて
いる。被験者が元気であり、感情が良い状態にある場
合、音圧レベル、ピッチ周波数、ピッチ周波数の時間変
動は増加する。音声の継続時間、ジッタについては、個
々の被験者によって異なることが多いが、一般に、感情
が良い状態にある場合は減少することが知られている。
逆に、被験者が不機嫌であり、感情が悪い状態にある場
合、音圧レベル、ピッチ周波数、ピッチ周波数の時間変
動は減少し、音声の継続時間、ジッタは増加することが
知られている。
の感情と密接な関係があることが知られているが、本発
明では、加齢及び被験者の体調といった個別性、及び感
情の推定を行う時期を推定結果に反映させるため、前述
した音響学的特徴に関する特徴量にのみに基づいて感情
の推定を行うのではなく、まず、一定の期間(例えば一
週間)、体調を問う体調問診と感情について問うメンタ
ル問診とを行って音声情報の予備データを収集した後、
体調問診の回答から算出した特徴量とメンタル問診の回
答内容との間の対応付けを行い、前記期間(以下、デー
タ収集期間という)の終了後に行った体調問診の回答か
ら感情を推定するようにしている。また、例えば、月始
めの一週間程度は、音声情報の予備データを収集するデ
ータ収集期間を設け、体調問診の回答から算出した特徴
量とメンタル問診の回答内容との間の対応付けを行うよ
うにしている。
図である。図3(a)は、解析データベース9aの一例
を示す概念図であり、予備データを収集する際に、体調
問診を行った場合、音声情報の解析を行った日付、並び
に音圧レベル(音圧)、ピッチ周波数、ピッチ周波数の
変動(ピッチ変動)、継続時間、及びジッタに関する特
徴量を互いに関連付けて記憶する。また、メンタル問診
からは、感情得点なるものを算出して前記特徴量と関連
付けて記憶する。ここで、感情得点とは、感情、心情、
気分の善し悪しを得点化したものであり、最も良い感情
(心情、気分)を100点、最も悪い感情(心情、気
分)を0点に定めている。更に、予備データを収集した
後、感情推定のために体調問診を行った場合、各特徴量
と推定した感情得点の推定値とを互いに関連付けて記憶
する。
の一例を示す概念図であり、質問情報を識別する質問I
Dと質問情報の内容とを互いに関連付けて記憶してい
る。図3(b)に示した例では、質問ID「M01」に
は、メンタル問診として「今日の気分は、100点満点
中何点ですか?」といった内容の質問情報が対応付けら
れて記憶されており、質問ID「F01」、「F0
2」、…には、体調問診として夫々「おなかがすいて我
慢ができないですか?」、「頭痛がしますか?」、…と
いった内容の質問情報が対応付けられて記憶されてい
る。
る場合、又は感情を推定する場合に出力される。質問情
報を出力する場合、感情推定装置の表示部5から文字情
報として出力してもよく、また、音声出力部12から音
声情報として出力してもよい。質問情報に対する回答は
音声入力部11により音声情報として入力される。メン
タル問診の回答は、音声認識処理により文字列に変換さ
れ、回答の中心になる部分、すなわち、前述の質問内容
では被験者自身が付けた点数が抽出される。解析データ
ベース9aには、抽出した点数を感情得点として記憶さ
せる。体調問診では、回答に係る音声情報がADコンバ
ータ等によりデジタル化され、デジタル化された音声波
形が一時的にRAM4に記憶される。そして、記憶され
た音声波形から回答の中心になる部分、すなわち、「は
い」、「いいえ」に該当する部分の波形のみが抽出さ
れ、波形の解析が行われる。解析によって得られた音響
学的特徴に係る特徴量は、解析データベース9aの適宜
の記憶領域に記憶される。
識を容易にするために、各質問情報は、回答がある程度
予測できるものが望ましく、前述の例のようにメンタル
問診の質問は、気分を得点で答えさせる内容とし、体調
問診の質問は、「はい」又は「いいえ」で答えることが
できる内容にしている。特に、体調問診では、体調不良
・重篤を問う質問内容に統一した場合、「いいえ」で返
答され確率が高くなるため、更に音声情報の波形の解析
が容易になる。
量に対する感情得点の得点分布の一例を示したグラフで
ある。ここでは、図4(a)は音圧レベルに対する感情
得点の得点分布を示すグラフであり、図4(b)はピッ
チ周波数に対する感情得点の得点分布を示すグラフであ
る。前述したように、被験者の感情が良い状態にある場
合、音圧レベルは大きくなる傾向があり、また、被験者
は自身の感情得点を高く付けるはずであるから、図4
(a)に示したように音圧レベルが大きくなるに従い、
感情得点が高くなる傾向の得点分布を示す。ピッチ周波
数についても同様であり、被験者の感情が良い状態にあ
る場合、ピッチ周波数は高くなる傾向があり、また、被
験者は自身の感情得点を高く付けるはずであるから、図
4(b)に示したようピッチ周波数が高くなるに従い、
感情得点が高くなる傾向の得点分布を示す。また、図に
は示していないが、ピッチ周波数の時間変動、音声の継
続時間、及びジッタの各音響学的指標と感情得点との間
にも何らかの傾向があり、得点分布をグラフにして示す
ことが可能である。
することによって、各特徴量から感情得点を容易に推定
することが可能である。前述の数式モデルの最も簡単な
モデルは、感情得点を1種類の特徴量により表した回帰
直線であって、最小二乗法を利用して求めることができ
る。音声情報を収集するあたって、例えば、空気が乾燥
している時期と湿気を多く含んでいる時期とでは、音声
が伝わる速度が変化する。したがって、外気の変化は、
音声の持続時間、ピッチ周波数に大きな影響を与えやす
いと考えられる。一方、任意の時刻での絶対量である音
圧レベルは、外気の影響を受ける程度が低いと考えられ
る。また、被験者が体調を崩して、風邪を引いている場
合は、ピッチ周波数、ジッタに特にその影響が及ぶ。し
たがって、1種類の特徴量から数式モデルを設定して、
感情を推定する場合、必ずしも精度良く感情を推定する
ことができるとは限らない。
被験者の体調等による影響を最小限に抑えるために、前
述した5種類全ての特徴量を用いて、得点分布を表す数
式モデルを多変量解析によって設定する。
分析を利用し、感情得点の得点分布を表す数式モデルを
設定する場合について説明する。重回帰分析では、目的
変数yと説明変数x1 ,x2 ,x3 ,…との間の関係を
重回帰分析によって定める。本実施の形態では、メンタ
ル問診の回答から算出された感情得点を目的変数yにと
り、体調問診の回答の音響学的特徴から算出された5つ
の各特徴量を説明変数x1 ,x2 ,…,x5 にとる。こ
こで、各説明変数x1 ,x2 ,…,x5 は、それぞれ、
音圧レベル、ピッチ周波数、ピッチ周波数の時間変動、
音声の継続時間、及びジッタに該当する。
質問とを夫々n回行った場合、n個の目的変数(y1 ,
y2 ,…yn )と、各特徴量につきn個の説明変数(x
11,x12,…,xn5)とが得られる。それらの関係を次
の5つの線形方程式によって表す。
…,5)は重回帰係数である。α,βi (i=1,…,
5)の最小二乗推定値を、a,bi (i=1,…,5)
で表した場合、これらの係数を用いてyのx1 ,x2 ,
…,x5 に対する重回帰式
よく知られており、観測値yj (j=1,…,n)と推
定値Yj (j=1,…,n)との差(残差)の二乗和が
最小となるようなa,bi を算出することによって、重
回帰式を求めることができる。ここで、観測値yj と
は、数式1におけるy1 ,…,yn のことであり、推定
値Yj は、5×n個の特徴量x11,x12,…,xn5を数
式(2)に代入した値である。算出した定数a,重回帰
係数bi (i=1,…,5)を数式2に代入した重回帰
式が求めるべき数式モデルであって、新たに取得した特
徴量をx1 ,x2 ,…,x5 に代入することによって、
感情得点の推定値Yが得られる。
得点分布の数式モデルを設定することとしたが、重回帰
分析の他に判別分析、数量化III類分析などを利用す
ることも可能である。
ローチャートである。感情推定装置は、まず、体調問診
に関する質問情報を表示部5に表示する(ステップS
1)。表示する質問情報は、質問情報データベース9b
からランダムに選択したものでもよく、また、質問ID
の順に選択したものでもよい。また、質問情報は、音声
出力部12から音声によって出力される形態であっても
よい。
による回答を受付けたか否かを判断する(ステップS
2)。回答を受付けていない場合(S2:NO)、回答
を受付けるまで待機する。回答を受付けた場合(S2:
YES)、回答を音声情報として記憶する(ステップS
3)。
S3にて記憶した音声情報の波形の解析を行い、音響学
的特徴を抽出する(ステップS4)。そして、波形の解
析によって得られた音圧レベル、ピッチ周波数等の特徴
量を解析データベース9aに記憶する(ステップS
5)。
たか否かを判断することによって、体調問診が終了した
か否かを判断する(ステップS6)。体調問診が終了し
ていない場合(S6:NO)、処理をステップS1に戻
す。体調問診が終了した場合(S6:YES)、データ
収集期間であるか否かを判断する(ステップS7)。
S)、メンタル問診に関する質問情報を表示部5に表示
する(ステップS8)。質問情報を表示部5に表示せず
に、音声出力部12から音声によって出力する形態であ
ってもよい。
による回答を受付けたか否かを判断する(ステップS
9)。回答を受付けていない場合(S9:NO)、回答
を受付けるまで待機する。回答を受付けた場合(S9:
YES)、回答を音声情報として記憶する(ステップS
10)。
0にて記憶した音声情報の音声認識を行い、音声情報を
文字列に変換する(ステップS11)。変換した文字列
から回答の中心となる部分を抽出して、回答を評価する
(ステップS12)。メンタル問診では、前述したよう
に「今日の気分は、100点満点中何点ですか?」とい
う質問がされる。したがって、被験者自身が質問に対し
て付けた点数を回答の評価とすることができる。そし
て、回答の評価を感情得点として、解析データベース9
aに記憶させる(ステップS13)。
断した場合(S7:NO)、重回帰式を設定する(ステ
ップS14)。重回帰式を設定する際、解析データベー
ス9aに既に記憶してある音圧レベル、ピッチ周波数、
ピッチ周波数の時間変動、音声の継続時間、及びジッタ
を説明変数、感情得点を目的変数として重回帰分析を利
用する。そして、ステップS4にて新たに抽出した特徴
量を設定した重回帰式に代入し(ステップS15)、感
情得点の推定値を得ることによって、感情の推定を行う
(ステップS16)。感情得点の推定値は、解析データ
ベース9aに記憶される(ステップS17)。
験者自身に感情を評価した得点を付けさせ、それを感情
得点としているが、体調問診と同様に「はい」又は「い
いえ」で答えることができる質問を幾つか用意してお
き、「はい」と答えた数、又は「いいえ」と答えた数に
応じて感情得点を算出する形態であってもよい。
て「ネコ型」の介護ロボットについて説明したが、介護
ロボットに限らず、マイクロホンのような音声入力部を
内蔵しているか、又は外部入力装置として接続できるよ
うになっているパーソナルコンピュータ、ワークステー
ション等を利用することができることは勿論のことであ
る。
ル問診の回答から求めた感情得点と重回帰分析によって
推定した感情得点との間に差が生じている場合に、感情
得点の推定値を補正する方法について説明する。
であるため説明を省略する。図6及び図7は、本実施の
形態に係る感情推定装置の処理手順を示すフローチャー
トである。感情推定装置は、まず、体調問診に関する質
問情報を表示部5に表示する(ステップS21)。表示
する質問情報は、質問情報データベース9bからランダ
ムに選択したものでもよく、また、質問IDの順に選択
したものでもよい。また、質問情報は、音声出力部12
から音声によって出力される形態であってもよい。
による回答を受付けたか否かを判断する(ステップS2
2)。回答を受付けていない場合(S22:NO)、回
答を受付けるまで待機する。回答を受付けた場合(S2
2:YES)、回答を音声情報として記憶する(ステッ
プS23)。
S23にて記憶した音声情報の波形の解析を行い、音響
学的特徴を抽出する(ステップS24)。そして、波形
の解析によって得られた音圧レベル、ピッチ周波数等の
特徴量を解析データベース9aに記憶する(ステップS
25)。
付けたか否かを判断することによって、体調問診が終了
したか否かを判断する(ステップS26)。体調問診が
終了していない場合(S26:NO)、処理をステップ
S21に戻す。
S)、メンタル問診に関する質問情報を表示部5に表示
する(ステップS27)。質問情報を表示部5に表示せ
ずに、音声出力部12から音声によって出力する形態で
あってもよい。
による回答を受付けたか否かを判断する(ステップS2
8)。回答を受付けていない場合(S28:NO)、回
答を受付けるまで待機する。回答を受付けた場合(S2
8:YES)、回答を音声情報として記憶する(ステッ
プS29)。
9にて記憶した音声情報の音声認識を行い、音声情報を
文字列に変換する(ステップS30)。変換した文字列
から回答の中心となる部分を抽出して、回答を評価する
(ステップS31)。メンタル問診では、前述したよう
に「今日の気分は、100点満点中何点ですか?」とい
う質問がされる。したがって、被験者自身が質問に対し
て付けた点数を回答の評価とすることができる。そし
て、回答の評価を感情得点として、解析データベース9
aに記憶させる(ステップS32)。
断する(ステップS33)。データ収集期間であると判
断した場合(S33:YES)、処理を終了する。
判断した場合(S33:NO)、重回帰式を設定する
(ステップS34)。重回帰式を設定する際、解析デー
タベース9aに既に記憶してある音圧レベル、ピッチ周
波数、ピッチ周波数の時間変動、音声の継続時間、及び
ジッタを説明変数、感情得点を目的変数として重回帰分
析を行う。そして、ステップS24にて新たに抽出した
特徴量を設定した重回帰式に代入し(ステップS3
5)、感情得点の推定値を得ることによって、感情の推
定を行う(ステップS36)。
情得点とメンタル問診の回答の評価から得られた感情得
点との間の重み係数を算出する(ステップS37)。そ
して、算出した重み係数を用いて感情得点を補正し(ス
テップS38)、補正した感情得点の値を解析データベ
ース9aに記憶する(ステップS39)。
ーチャートである。まず、メンタル問診の回答を音声認
識することによって得られた感情得点P1を読込む(ス
テップS41)。次いで、重回帰式を用いて推定された
感情得点P 2 を読込む(ステップS42)。
(=100×|P1 −P2 |/P1 )を算出する(ステ
ップS43)。
か否かを判断する(ステップS44)。差の割合ΔPが
80%以上である場合(S44:YES)、P1 に乗じ
る重み係数w1 を0.8とし、P2 に乗じる重み係数w
2 を0.2とする(ステップS45)。
44:NO)、差の割合ΔPが80%より小さく、かつ
20%より大きいか否かを判断する(ステップS4
6)。差の割合ΔPが80%より小さく、かつ20%よ
り大きい場合(S46:YES)、P1 に乗じる重み係
数w1 を0.6とし、P2 に乗じる重み係数w2 を0.
4とする(ステップS47)。
20%以下である場合(S46:NO)、差の割合ΔP
が20%以下であるか否かを判断する(ステップS4
8)。差の割合ΔPが20%以下である場合(S48:
YES)、P1 に乗じる重み係数w1 を0.5とし、P
2 に乗じる重み係数w2 を0.5とする(ステップS4
9)。差の割合ΔPが20%以下でない場合(S48:
NO)、処理をステップS41に戻す。
情得点の推定値を解析データベース9aに記憶させる形
態であったが、感情得点に基づき感情を評価する場合、
被験者毎に基準値を設定する必要がある。被験者によっ
ては、感情の得点を常に高く付ける人、常に低く付ける
人がいるため、基準値を一律に設けることが出来ないた
めである。
定する場合の処理手順を示すフローチャートである。ま
ず、感情認識装置は、ある特定の被験者が付けた感情得
点P1 を解析データベース9aから読込み(ステップS
51)、読込んだ感情得点P1 の平均値Mと標準偏差σ
とを算出する(ステップS52)。次いで、前述と同様
にして重回帰式により感情得点P2 を算出する(ステッ
プS53)。
も小さいか否かを判断し(ステップS54)、感情得点
P2 がM−1.0σよりも小さい場合(S54:YE
S)、感情の評価を「悪い」とする(ステップS5
5)。
合(S54:NO)、感情得点P2が、M−1.0σ以
上であり、かつM−0.5σ以下であるか否かを判断す
る(ステップS56)。感情得点P2 が、M−1.0σ
以上であり、かつM−0.5σ以下である場合(S5
6:YES)、感情の評価を「やや悪い」とする(ステ
ップS57)。
か、又はM−0.5σより大きい場合(S56:N
O)、感情得点P2 が、M−0.5σより大きく、かつ
M+0.5σより小さいか否かを判断する(ステップS
58)。感情得点P2 が、M−0.5σより大きく、か
つM+0.5σより小さい場合(S58:YES)、感
情の評価を「ふつう」にする(ステップS59)。
か、又はM+0.5σ以上である場合(S58:N
O)、感情得点P2 が、M+0.5σ以上であり、かつ
M+1.0σ以下であるか否かを判断する(ステップS
60)。感情得点P2 が、M+0.5σ以上であり、か
つM+1.0σ以下である場合(S60:YES)、感
情の評価を「やや良い」にする(ステップS61)。
か、又はM+1.0σより大きい場合(S60:N
O)、感情得点P2 が、M+1.0σより大きいか否か
を判断する(ステップS62)。感情得点P2 が、M+
1.0σよりも大きい場合(S62:YES)、感情の
評価を「良い」にする(ステップS63)。感情得点P
2が、M+1.0σ以下である場合(S62:NO)、
処理をステップS51に戻す。
示部5に表示させる等により出力する(ステップS6
4)。
からの音声データをインターネット等の通信ネットワー
クを通じて受信し、感情の推定を行う感情推定システム
について説明する。
ムの構成を示す模式図である。感情推定システムは、被
験者から音声データを受信して、感情の推定を行う解析
サーバ100と被験者が利用する情報処理装置200,
200,200,…とから構成される。解析サーバ10
0は、被験者の情報処理装置200,200,200,
…にウェブページを送信することによって、感情推定の
ためのアプリケーションを提供する。感情推定を行う
際、被験者の情報処理装置200,200,200,…
から音声データを送信する必要があるため、解析サーバ
100と被験者の情報処理装置200,200,20
0,…との間には、ストリーミング配信用のプロトコル
RTP(Real-time transport protocol)が設定され
る。解析サーバ100にて、音声データを受信した場
合、前述と同様にして音声データの波形解析及び音声認
識を行い、感情の推定を行う。
示すブロック図である。図中101はCPUであり、バ
ス102を介して後述する各ハードウェア各部に接続さ
れていて、ROM103に格納された制御プログラムに
従って、それらを制御する。RAM104は、SRAM
又はフラッシュメモリ等で構成され、ROM103に格
納された制御プログラムの実行時に発生するデータを記
憶する。
イ等の表示装置であり、入力部106は、キーボード、
マウス等の入力装置である。通信部107は、モデム等
の回線終端装置を備えている。被験者の情報処理装置2
00からの要求に応じて、インターネット等の通信ネッ
トワークNを通じて、ウェブページ等を送信することに
よって、所要の情報を情報処理装置200へ送信すると
ともに、被験者の情報処理装置200から音声データを
受信する。通信部107は、これらの情報の送受信の制
御を行っている。
00から送信された音声データの音声波形を解析し、音
圧、ピッチ周波数、継続時間等の音響学的特徴に係る特
徴量を算出する。
から送信された音声データの音声認識を行い、音声情報
を文字列情報に変換する。変換された文字列情報は、後
述するように評価され、評価された値が解析データベー
ス109a(解析DB)に記憶される。
ような記憶装置からなり、記憶領域の一部は、被験者の
情報処理装置200から受信した音声データの波形を解
析して、抽出され音響学的特徴に係る特徴量を記憶する
解析データベース109a、被験者の情報処理装置20
0に送信する質問情報が記憶されている質問情報データ
ベース109bとして用いられており、必要に応じて各
種データベースにアクセスし、情報の記憶及び読取り処
理が行われる。なお、本実施の形態では、解析サーバ1
00の内部記憶装置109に各種データベースを備えて
いるが、これらのデータベースは必ずしも解析サーバ1
00の内部にある必要はなく、解析サーバ100に接続
したデータベースサーバを用意して、このデータベース
サーバの内部に備える構成であってもよい。
ータプログラム及びデータを記録したCD−ROM等の
記録媒体110からコンピュータプログラム及びデータ
を読取るCD−ROMドライブ等からなり、読取られた
コンピュータプログラム及びデータは、内部記憶装置1
09に記憶される。内部記憶装置109に記憶されてい
るコンピュータプログラム及びデータは、RAM104
に読込まれ、CPU101が実行することで音声データ
を解析して、感情の推定を行う解析サーバ100として
動作する。
内部構成を示すブロック図である。情報処理装置200
は、具体的にはパーソナルコンピュータであり、CPU
201を備えている。該CPU201は、バス202を
介して、ROM203、RAM204、表示部205、
入力部206、通信部207、外部記憶装置208、及
び内部記憶装置209に接続されており、ROM203
に格納された制御プログラムを実行することで表示部2
05、入力部206等の各ハードウェアを制御する。
を備えている。通信部207は、通信ネットワークNを
介して、解析サーバ100へ接続し、解析サーバ100
からの要求を受信し、音声データ等の必要な情報を送信
する。
イブのような記憶装置からなり、内部記憶装置209
は、ハードディスクのような記憶装置からなる。内部記
憶装置209には、例えば、解析サーバ100から送信
されるウェブページを閲覧するウェブ・ブラウザ等がイ
ンストールされている。
00から送信されてきた質問情報に対する回答を音声で
入力するために、マイクロホン等の入力装置を備えてい
る。音声出力部212は、解析サーバ100から送信さ
れてきた質問情報を音声で出力するために、スピーカ等
の出力装置を備えている。
定システムの動作手順を示すフローチャートである。ま
ず、被験者は音声データを送信するにあたって、URL
の入力、又は他のウェブページからの選択操作によっ
て、解析サーバ100にアクセス要求を行う(ステップ
S71)。アクセス要求を受信した解析サーバ100
は、ユーザID及びパスワードを入力させるためのウェ
ブページを情報処理装置200に送信する(ステップS
72)。
0は、ユーザID及びパスワードの入力を受付け(ステ
ップS73)、入力されたユーザID及びパスワードを
解析サーバ100に送信する(ステップS74)。解析
サーバ100は、送信されたユーザID及びパスワード
を受信し(ステップS75)、それが登録ユーザのもの
であるか否かを判断する(ステップS76)。登録ユー
ザのものでない場合(S76:NO)、処理をステップ
S72に戻し、登録ユーザのものである場合(S76:
YES)、ストリーミング配信等で利用されるプロトコ
ル(RTP)を設定する(ステップS77)。
係る質問情報を送信する(ステップS78)。質問情報
は、文字データとして送信してもよく、また、音声デー
タとして送信してもよい。質問情報を受信した被験者の
情報処理装置200では、回答情報の受付けを行う(ス
テップS79)。回答情報の受付けは音声で行い、音声
入力部211によって入力された回答に係る音声データ
を解析サーバ100に送信する(ステップS80)。
置200から送信された音声データを受信し(ステップ
S81)、受信した音声データの音響学的特徴を抽出す
る(ステップS82)。そして、抽出した音響学的特徴
から特徴量を算出して、解析データベース109aに記
憶させる(ステップS83)。次いで、体調問診に係る
質問情報をすべて送信したか否かを判断することによっ
て、体調問診が終了したか否かを判断する(ステップS
84)。体調問診が終了していない場合(S84:N
O)、処理をステップS78に戻す。
了した場合(S84:YES)、データ収集期間である
か否かを判断する(ステップS85)。データ収集期間
である場合(S85:YES)、メンタル問診に係る質
問情報を被験者の情報処理装置200に送信する(ステ
ップS86)。質問情報は、文字データとして送信して
もよく、また、音声データとして送信してもよい。質問
情報を受信した被験者の情報処理装置200では、回答
情報の受付けを行う(ステップS87)。回答情報の受
付けは音声で行い、音声入力部211によって入力され
た回答に係る音声データを解析サーバ100に送信する
(ステップS88)。
置200から送信された音声データを受信し(ステップ
S89)、受信した音声データの音声認識を行う(ステ
ップS90)。そして、音声認識により抽出された文字
列を評価することによって、感情得点を算出し、算出し
た感情得点を解析データベース109aに記憶させる
(ステップS91)。
と判断した場合(S85:NO)、重回帰式を設定する
(ステップS92)。重回帰式を設定する際、解析デー
タベース109aに既に記憶してある音圧レベル、ピッ
チ周波数、ピッチ周波数の時間変動、音声の継続時間、
及びジッタを説明変数、感情得点を目的変数として重回
帰分析を行う。そして、ステップS82にて新たに抽出
した特徴量を設定した重回帰式に代入し(ステップS9
3)、感情得点の推定値を得ることによって、感情の推
定を行う(ステップS94)。感情得点の推定値は、解
析データベース109aに記憶される(ステップS9
5)。
ンターネット等の通信ネットワークNを通じて解析サー
バ100に送信する構成としているため、音声データは
一般に圧縮した後に送信されることになるが、本実施の
形態では、5つの音響学的特徴を利用して推定を行って
いるため、圧縮による音声データの劣化から生じる感情
推定の誤差を縮小することができる。
ら求めた感情得点と重回帰分析によって推定した感情得
点との間に差が生じている場合に、感情得点の推定値の
補正を行ってもよい。また、感情得点に基づき感情を評
価する場合、前述したように被験者毎に基準値を設定し
て感情を評価してもよい。
合は、互いに相関を有する2つの質問情報を出力し、出
力された質問情報に対する回答を夫々音声にて受付け、
一方の回答に係る音声から文字列情報を抽出し、他方の
回答に係る音声から音響学的特徴に係る特徴情報を抽出
し、抽出した文字列情報と特徴情報とから両者の相関関
係を設定し、質問情報の回答に係る音声を新たに受付け
た場合、受付けた音声から抽出した音響学的特徴に係る
特徴情報と設定した相関関係とに基づき、前記特徴情報
と相関がある文字列情報を特定する。したがって、例え
ば、一方の質問情報を被験者の感情に関する質問情報と
し、他方の質問情報を被験者の体調に係る質問とした場
合、体調に係る質問を被験者に答えてもらうことによっ
て、その被験者の感情を推定することが可能である。特
に、感情に関する質問で、被験者自身に特定の感情に対
する評価を答えてもらい、その評価と体調に係る質問の
回答から抽出した音響学的特徴との間に相関関係を設定
することによって、体調に係る質問の回答のみから、感
情の種類、及び感情の程度(抑揚)を定量的に推測する
ことが可能である。
方が心理状態に関する質問情報であり、他方が体調に関
する質問情報である。したがって、被験者から発せられ
た音声に基づき、感情の意味内容、感情の程度を容易に
推定することができる。
る回答を音声にて受付ける際、所定の期間であるか否か
を判断し、所定の期間である場合にのみ、記憶してある
文字列情報と特徴情報との間の相関関係を設定するよう
にしている。したがって、本発明の情報処理システムの
利用開始時に、前述の相関関係を設定するために音声情
報を収集する期間(例えば、一週間程度)を設けること
ができる。また、加齢、被験者の体調等を適切に考慮し
て感情の推定を行うために、例えば、一ヶ月ごとに前記
相関関係を最新の状態に更新することができる。その
為、長期的に感情推定を行うことが可能であり、推定誤
差を縮小することが可能である。
字列情報及び特徴情報から夫々を特徴づける特徴量を算
出し、算出した特徴量を用いた多変量解析により文字列
情報と特徴情報との相関関係を設定するようにしてい
る。したがって、複数の特徴量を利用して感情の推定を
行うことができるため、特定の音響学的特徴に被験者の
体調等の影響があった場合であっても、その影響を必要
最小限に抑えることが可能である等、本発明は優れた効
果を奏する。
置の内部構成を示すブロック図である。
び音声波形解析部によって抽出された特徴量の時間変化
の一例を示すグラフである。
情得点の得点分布の一例を示したグラフである。
である。
である。
示すフローチャートである。
ある。
処理手順を示すフローチャートである。
す模式図である。
る。
ック図である。
を示すフローチャートである。
を示すフローチャートである。
を示すフローチャートである。
Claims (18)
- 【請求項1】 質問情報の記憶手段及び出力手段と、音
声の受付手段とを備える情報処理システムにより、前記
記憶手段に記憶してある質問情報を出力し、出力した質
問情報に対する回答を音声にて受付け、受付けた音声に
係る音響学的特徴を抽出し、抽出した音響学的特徴に基
づき、前記音声に付随する情報を推定する情報処理方法
において、 前記記憶手段に予め記憶されており、互いに相関を有す
る第1質問情報及び第2質問情報を前記出力手段により
出力し、出力された第1及び第2質問情報に対する回答
を夫々音声にて受付け、受付けた第1質問情報の回答に
係る音声から文字列情報を抽出し、受付けた第2質問情
報の回答に係る音声から音響学的特徴に係る1又は複数
の特徴情報を抽出し、抽出した文字列情報と特徴情報と
を関連付けて記憶し、記憶してある文字列情報と特徴情
報とから両者の相関関係を設定し、前記受付手段により
第2質問情報の回答に係る音声を新たに受付けた場合、
受付けた音声から抽出した音響学的特徴に係る1又は複
数の特徴情報と設定した相関関係とに基づき、前記特徴
情報と相関がある文字列情報を特定することを特徴とす
る情報処理方法。 - 【請求項2】 前記第1及び第2質問情報は、一方が心
理状態に関する質問情報であり、他方が体調に関する質
問情報であることを特徴とする請求項1に記載の情報処
理方法。 - 【請求項3】 第1質問情報又は第2質問情報に対する
回答を音声にて受付ける際、所定の期間であるか否かを
判断し、所定の期間である場合にのみ、記憶してある文
字列情報と特徴情報とから両者の相関関係を設定するこ
とを特徴とする請求項1又は請求項2に記載の情報処理
方法。 - 【請求項4】 記憶してある文字列情報及び特徴情報か
ら夫々を特徴づける特徴量を算出し、算出した特徴量を
用いた多変量解析により前記相関関係を設定することを
特徴とする請求項1乃至請求項3の何れかに記載の情報
処理方法。 - 【請求項5】 質問情報の記憶手段と、該記憶手段に記
憶されている質問情報を出力する出力手段と、音声を受
付ける手段とを備え、前記出力手段から出力された質問
情報に対する回答を音声にて受付け、受付けた音声から
抽出した音響学的特徴に基づき、前記音声に付随する情
報を推定すべくなしてある情報処理システムにおいて、 前記記憶手段に予め記憶されており、互いに相関を有す
る第1質問情報及び第2質問情報を出力する手段と、出
力された第1及び第2質問情報に対する回答を夫々音声
にて受付ける手段と、受付けた第1質問情報の回答に係
る音声から文字列情報を抽出する文字列情報抽出手段
と、受付けた第2質問情報の回答に係る音声から音響学
的特徴に係る1又は複数の特徴情報を抽出する特徴情報
抽出手段と、抽出した文字列情報及び特徴情報を関連付
けて記憶する手段と、記憶してある文字列情報と特徴情
報とから両者の相関関係を設定する手段とを備え、前記
受付手段により第2質問情報の回答に係る音声を新たに
受付けた場合、受付けた音声から抽出した音響学的特徴
に係る1又は複数の特徴情報と設定した相関関係とに基
づき、前記特徴情報と相関がある文字列情報を特定すべ
くなしてあることを特徴とする情報処理システム。 - 【請求項6】 通信ネットワークを介して接続された第
1情報処理装置と第2情報処理装置とを備え、前記第1
情報処理装置は、質問情報の記憶手段と、該記憶手段に
記憶されている質問情報を送信する送信手段とを備え、
前記第2情報処理装置は、前記通信ネットワークを通じ
て送信された質問情報を受信する手段と、受信した質問
情報に対する回答を音声にて受付ける手段と、受付けた
音声に係る音声情報を送信する手段とを備え、前記第1
情報処理装置は、前記通信ネットワークを通じて受信し
た音声情報から抽出した音響学的特徴に基づき、前記音
声情報に付随する情報を推定すべくなしてある情報処理
システムにおいて、 前記第2情報処理装置は、前記第1情報処理装置の前記
記憶手段に予め記憶されており、互いに相関を有する第
1質問情報及び第2質問情報を前記ネットワークを通じ
て受信する手段と、受信した第1及び第2質問情報を出
力する手段と、出力された第1及び第2質問情報に対す
る回答を夫々音声にて受付ける手段と、受付けた音声に
係る音声情報を送信する手段とを備え、 前記第1情報処理装置は、受信した第1質問情報の回答
に係る音声情報から文字列情報を抽出する文字列情報抽
出手段と、受信した第2質問情報の回答に係る音声情報
から音響学的特徴に係る1又は複数の特徴情報を抽出す
る特徴情報抽出手段と、抽出した文字列情報及び特徴情
報を関連付けて記憶する手段と、記憶してある文字列情
報と特徴情報とから両者の相関関係を設定する手段とを
備え、第2質問情報の回答に係る音声情報を前記第2情
報処理装置から新たに受信した場合、受信した音声情報
から抽出した音響学的特徴に係る1又は複数の特徴情報
と設定した相関関係とに基づき、前記特徴情報と相関が
ある文字列情報を特定すべくなしてあることを特徴とす
る情報処理システム。 - 【請求項7】 前記第1及び第2質問情報は、一方が心
理状態に関する質問情報であり、他方が体調に関する質
問情報であることを特徴とする請求項5又は請求項6に
記載の情報処理システム。 - 【請求項8】 第1質問情報又は第2質問情報に対する
回答を音声にて受付ける際、所定の期間であるか否かを
判断する手段を備え、所定の期間である場合にのみ、記
憶してある文字列情報と特徴情報とから両者の相関関係
を設定すべくなしてあることを特徴とする請求項5乃至
請求項7の何れかに記載の情報処理システム。 - 【請求項9】 記憶してある文字列情報及び特徴情報か
ら夫々を特徴づける特徴量を算出し、算出した特徴量を
用いた多変量解析により前記相関関係を設定すべくなし
てあることを特徴とする請求項5乃至請求項8の何れか
に記載の情報処理システム。 - 【請求項10】 質問情報の記憶手段と、該記憶手段に
記憶されている質問情報を出力する出力手段と、音声の
受付手段とを備え、前記出力手段から出力された質問情
報に対する回答を音声にて受付け、受付けた音声から抽
出した音響学的特徴に基づき、前記音声に付随する情報
を推定すべくなしてある情報処理装置において、 前記記憶手段に予め記憶されており、互いに相関を有す
る第1質問情報及び第2質問情報を出力する手段と、出
力された第1及び第2質問情報に対する回答を夫々音声
にて受付ける手段と、受付けた第1質問情報の回答に係
る音声から文字列情報を抽出する文字列情報抽出手段
と、受付けた第2質問情報の回答に係る音声から音響学
的特徴に係る1又は複数の特徴情報を抽出する特徴情報
抽出手段と、抽出した文字列情報及び特徴情報を関連付
けて記憶する手段と、記憶してある文字列情報と特徴情
報とから両者の相関関係を設定する手段とを備え、前記
受付手段により第2質問情報の回答に係る音声を新たに
受付けた場合、受付けた音声から抽出した音響学的特徴
に係る1又は複数の特徴情報と設定した相関関係とに基
づき、前記特徴情報と相関がある文字列情報を特定すべ
くなしてあることを特徴とする情報処理装置。 - 【請求項11】 通信ネットワークに接続可能になして
あり、音声情報を受信する手段を備え、受信した音声情
報から抽出した音響学的特徴に基づき、前記音声情報に
付随する情報を推定すべくなしてある情報処理装置にお
いて、 互いに相関を有する第1質問情報及び第2質問情報に対
する回答を前記通信ネットワークを通じて夫々音声情報
にて受信する手段と、受信した第1質問情報の回答に係
る音声情報から該音声情報が含む文字列情報を抽出する
文字列情報抽出手段と、受信した第2質問情報の回答に
係る音声情報から音響学的特徴に係る1又は複数の特徴
情報を抽出する特徴情報抽出手段と、抽出した文字列情
報及び特徴情報を関連付けて記憶する手段と、記憶して
ある文字列情報と特徴情報とから両者の相関関係を設定
する手段とを備え、第2質問情報の回答に係る音声情報
を新たに受信した場合、受信した音声情報から抽出した
音響学的特徴に係る1又は複数の特徴情報と設定した相
関関係とに基づき、前記特徴情報と相関がある文字列情
報を特定すべくなしてあることを特徴とする情報処理装
置。 - 【請求項12】 前記第1及び第2質問情報は、一方が
心理状態に関する質問情報であり、他方が体調に関する
質問情報であることを特徴とする請求項10又は請求項
11に記載の情報処理装置。 - 【請求項13】 第1質問情報又は第2質問情報に対す
る回答を音声にて受付ける際、所定の期間であるか否か
を判断する手段を備え、所定の期間である場合にのみ、
記憶してある文字列情報と特徴情報とから両者の相関関
係を設定すべくなしてあることを特徴とする請求項10
乃至請求項12の何れかに記載の情報処理装置。 - 【請求項14】 記憶してある文字列情報及び特徴情報
から夫々を特徴づける特徴量を算出し、算出した特徴量
を用いた多変量解析により前記相関関係を設定すべくな
してあることを特徴とする請求項10乃至請求項13の
何れかに記載の情報処理装置。 - 【請求項15】 前記特徴情報抽出手段は、入力された
音声情報の音圧を検出する検出手段、ピッチ周波数を検
出する検出手段、継続時間を検出する検出手段、又はジ
ッタを検出する検出手段のうち少なくとも一の検出手段
を備えることを特徴とする請求項10乃至請求項14の
何れかに記載の情報処理装置。 - 【請求項16】 特定された文字列情報に応じた適宜情
報を出力する手段を更に備えることを特徴とする請求項
10乃至請求項15の何れかに記載の情報処理装置。 - 【請求項17】 コンピュータに、入力された音声情報
に係る音響学的特徴を抽出させ、抽出させた音響学的特
徴に基づき、前記音声情報に付随する情報を推定させる
ステップを有するコンピュータプログラムにおいて、 コンピュータに、互いに相関を有する第1質問情報及び
第2質問情報を出力させるステップと、コンピュータ
に、出力された第1及び第2質問情報に対する回答を夫
々音声情報にて入力させるステップと、コンピュータ
に、入力された第1質問情報の回答に係る音声情報から
文字列情報を抽出させるステップと、コンピュータに、
受付けた第2質問情報の回答に係る音声情報から音響学
的特徴に係る1又は複数の特徴情報を抽出させるステッ
プと、コンピュータに、抽出させた文字列情報及び特徴
情報を関連付けて記憶させるステップと、コンピュータ
に、記憶してある文字列情報と特徴情報とから両者の相
関関係を設定させるステップと、コンピュータに、第2
質問情報に対する回答に係る音声情報を新たに受付けた
場合、受付けた音声情報から抽出した音響学的特徴に係
る1又は複数の特徴情報と設定させた相関関係とに基づ
き、前記特徴情報と相関がある文字列情報を特定させる
ステップとを有することを特徴とするコンピュータプロ
グラム。 - 【請求項18】 コンピュータに、入力された音声情報
に係る音響学的特徴を抽出させ、抽出させた音響学的特
徴に基づき、前記音声情報に付随する情報を推定させる
ステップを有するコンピュータプログラムが記録されて
いるコンピュータでの読取りが可能な記録媒体におい
て、 コンピュータに、互いに相関を有する第1質問情報及び
第2質問情報を出力させるステップと、コンピュータ
に、出力された第1及び第2質問情報に対する回答を夫
々音声情報にて入力させるステップと、コンピュータ
に、入力された第1質問情報の回答に係る音声情報から
文字列情報を抽出させるステップと、コンピュータに、
受付けた第2質問情報の回答に係る音声情報から音響学
的特徴に係る1又は複数の特徴情報を抽出させるステッ
プと、コンピュータに、抽出させた文字列情報及び特徴
情報を関連付けて記憶させるステップと、コンピュータ
に、記憶してある文字列情報と特徴情報とから両者の相
関関係を設定させるステップと、コンピュータに、第2
質問情報に対する回答に係る音声情報を新たに受付けた
場合、受付けた音声情報から抽出した音響学的特徴に係
る1又は複数の特徴情報と設定させた相関関係とに基づ
き、前記特徴情報と相関がある文字列情報を特定させる
ステップとを有するコンピュータプログラムが記録され
ていることを特徴とするコンピュータでの読取りが可能
な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002024823A JP3973434B2 (ja) | 2002-01-31 | 2002-01-31 | 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体 |
US10/356,331 US7315821B2 (en) | 2002-01-31 | 2003-01-31 | System and method for health care information processing based on acoustic features |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002024823A JP3973434B2 (ja) | 2002-01-31 | 2002-01-31 | 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003228391A true JP2003228391A (ja) | 2003-08-15 |
JP3973434B2 JP3973434B2 (ja) | 2007-09-12 |
Family
ID=27747152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002024823A Expired - Fee Related JP3973434B2 (ja) | 2002-01-31 | 2002-01-31 | 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3973434B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006267464A (ja) * | 2005-03-23 | 2006-10-05 | Tokyo Electric Power Co Inc:The | 感情解析装置、感情解析プログラム、プログラム格納媒体 |
JP2016085478A (ja) * | 2016-02-12 | 2016-05-19 | シャープ株式会社 | 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム |
JP2017140170A (ja) * | 2016-02-09 | 2017-08-17 | Pst株式会社 | 推定方法、推定プログラム、推定装置および推定システム |
JP2017220807A (ja) * | 2016-06-08 | 2017-12-14 | 株式会社日立システムズ | 音声データ収集システム |
US10224060B2 (en) | 2014-03-25 | 2019-03-05 | Sharp Kabushiki Kaisha | Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101937678A (zh) * | 2010-07-19 | 2011-01-05 | 东南大学 | 一种针对烦躁情绪的可据判的自动语音情感识别方法 |
-
2002
- 2002-01-31 JP JP2002024823A patent/JP3973434B2/ja not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006267464A (ja) * | 2005-03-23 | 2006-10-05 | Tokyo Electric Power Co Inc:The | 感情解析装置、感情解析プログラム、プログラム格納媒体 |
JP4587854B2 (ja) * | 2005-03-23 | 2010-11-24 | 東京電力株式会社 | 感情解析装置、感情解析プログラム、プログラム格納媒体 |
US10224060B2 (en) | 2014-03-25 | 2019-03-05 | Sharp Kabushiki Kaisha | Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method |
JP2017140170A (ja) * | 2016-02-09 | 2017-08-17 | Pst株式会社 | 推定方法、推定プログラム、推定装置および推定システム |
JP2016085478A (ja) * | 2016-02-12 | 2016-05-19 | シャープ株式会社 | 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム |
JP2017220807A (ja) * | 2016-06-08 | 2017-12-14 | 株式会社日立システムズ | 音声データ収集システム |
Also Published As
Publication number | Publication date |
---|---|
JP3973434B2 (ja) | 2007-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7315821B2 (en) | System and method for health care information processing based on acoustic features | |
CN107818798B (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
JP6263308B1 (ja) | 認知症診断装置、認知症診断方法、及び認知症診断プログラム | |
KR102237539B1 (ko) | 음성 대화 분석을 기반으로 하는 치매 및 인지 능력 판단 시스템 및 방법 | |
JP6755304B2 (ja) | 情報処理装置 | |
CN108806720B (zh) | 话筒、数据处理器、监测系统及监测方法 | |
JP4965322B2 (ja) | ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム | |
JP2020524308A (ja) | 声紋モデルを構築する方法、装置、コンピュータデバイス、プログラム及び記憶媒体 | |
CN110782962A (zh) | 听力语言康复装置、方法、电子设备及存储介质 | |
JP4495907B2 (ja) | 音声の分析の方法及び装置 | |
US7571101B2 (en) | Quantifying psychological stress levels using voice patterns | |
WO2006132159A1 (ja) | ピッチ周波数を検出する音声解析装置、音声解析方法、および音声解析プログラム | |
WO2020155490A1 (zh) | 基于语音分析的管理音乐的方法、装置和计算机设备 | |
JPWO2019246239A5 (ja) | ||
Wambaugh et al. | Interrater reliability and concurrent validity for the Apraxia of Speech Rating Scale 3.0: Application with persons with acquired apraxia of speech and aphasia | |
US20040167774A1 (en) | Audio-based method, system, and apparatus for measurement of voice quality | |
CN111681779A (zh) | 一种医疗诊断系统 | |
JP2004240394A (ja) | 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム | |
CN112686048A (zh) | 基于语音、语义、面部表情融合的情绪识别方法及装置 | |
WO2020013296A1 (ja) | 精神・神経系疾患を推定する装置 | |
JP2019133451A (ja) | 評価方法、評価装置、評価プログラム、および、評価システム | |
JP2003228391A (ja) | 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体 | |
JP2006230548A (ja) | 体調判定装置およびそのプログラム | |
KR20180043925A (ko) | 노래 평가 시스템, 노래 평가 서버 및 노래 평가 서비스 제공 방법 | |
US20100153101A1 (en) | Automated sound segment selection method and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070515 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070612 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100622 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110622 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |