JP2003228391A - 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体 - Google Patents

情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体

Info

Publication number
JP2003228391A
JP2003228391A JP2002024823A JP2002024823A JP2003228391A JP 2003228391 A JP2003228391 A JP 2003228391A JP 2002024823 A JP2002024823 A JP 2002024823A JP 2002024823 A JP2002024823 A JP 2002024823A JP 2003228391 A JP2003228391 A JP 2003228391A
Authority
JP
Japan
Prior art keywords
information
voice
question
character string
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002024823A
Other languages
English (en)
Other versions
JP3973434B2 (ja
Inventor
Rie Monchi
里絵 門地
Masakazu Asano
昌和 浅野
Hirokazu Genno
広和 源野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2002024823A priority Critical patent/JP3973434B2/ja
Priority to US10/356,331 priority patent/US7315821B2/en
Publication of JP2003228391A publication Critical patent/JP2003228391A/ja
Application granted granted Critical
Publication of JP3973434B2 publication Critical patent/JP3973434B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 被験者の個別性、及び被験者の年齢、体調等
の変化に対応して音声から感情を推定することができる
情報処理方法、情報処理システム、情報処理装置、前記
情報処理システム及び情報処理装置を実現するためのコ
ンピュータプログラム、及び該コンピュータプログラム
が記録されているコンピュータでの読取りが可能な記録
媒体の提供。 【解決手段】 体調に係る質問と感情に係る質問とを行
い(S1,S8)、夫々音声にて回答を受付け、体調に
係る質問の回答から音響学的特徴を抽出し(S4)、感
情に係る質問の回答から文字列情報を抽出する(S1
1)。データの収集期間でない場合(S7:NO)、音
響学的特徴と文字列情報との相関関係を設定し(S1
4)、新たに受付けた音響学的特徴から文字列情報を特
定することによって、感情を推定する(S16)。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声に付随する情
報を前記音声から抽出した音響学的特徴に基づいて推定
する情報処理方法、情報処理システム、情報処理装置、
前記情報処理システム及び情報処理装置を実現するため
のコンピュータプログラム、並びに該コンピュータプロ
グラムが記録されている記録媒体に関する。
【0002】
【従来の技術】パーソナルコンピュータ、音声処理装置
等の情報処理装置を利用して、入力された音声を解析
し、その音声に伴う感情を推定する方法が知られてい
る。主として、以下で説明する2つの方法が従来から知
られている。1つは、入力された音声に対して音声認識
を行うことにより、その音声に対応した文字列を特定
し、文字列の内容に基づいて感情を推定する方法であ
る。この方法による場合、感情を示す語彙として予め用
意しておいた語彙情報と特定した文字列の内容とが一致
するか否かを判断することにより、喜び、怒り、哀し
み、驚き、楽しみなど10種類程度に分類された感情か
ら1つの感情を特定することが行われる。
【0003】もう1つは、入力された音声に対してその
音声波形を解析して、音声の強弱(音圧レベル)、ピッ
チ周波数、継続時間等の特徴量を抽出し、感情の程度
(抑揚)を推定する方法である。この方法による場合、
まず、感情の推定を行う前の準備段階として、音圧レベ
ル、ピッチ周波数、継続時間等の特徴量の基準値を設定
する。基準値としては、例えば、成人男性、成人女性、
子供などの母集団における各特徴量の平均値をとる。感
情の推定を行う場合、被験者から新たに音声を収集し、
その音声の波形を解析して特徴量を抽出する。そして、
抽出した特徴量と被験者が属する母集団の基準値とを比
較し、比較した結果に基づいて被験者の感情の程度を推
定する。
【0004】
【発明が解決しようとする課題】しかしながら、特定し
た文字列の内容に基づいて感情を推定する方法では、感
情の程度まで推定することができず、一方、音声の特徴
量(音圧レベル、ピッチ周波数、継続時間)から感情の
程度を推定する方法では、推定した感情の程度がどのよ
うな感情に対応しているのかということまで推測するこ
とは困難である。また、各特徴量の基準値として、成人
男性、成人女性、子供の平均値をとった場合、被験者の
個別性を反映させることができないという問題点があ
る。更に、音声は、加齢及び被験者の体調によっても変
化することが一般的であり、また、音声を採取した時期
によっても変化することが多い。したがって、加齢、被
験者の体調、及び音声を採取した時期を反映させて適切
に感情を推定することができることが望ましい。
【0005】本発明は斯かる事情に鑑みてなされたもの
であり、互いに相関を有する2つの質問情報を出力し、
出力された質問情報に対する回答を夫々音声にて受付
け、一方の回答に係る音声から文字列情報を抽出し、他
方の回答に係る音声から音響学的特徴に係る特徴情報を
抽出し、文字列情報と特徴情報とから両者の相関関係を
設定し、質問情報の回答に係る音声を新たに受付けた場
合、受付けた音声から抽出した音響学的特徴に係る特徴
情報と設定した相関関係とに基づき、前記特徴情報と相
関がある文字列情報を特定することにより、被験者から
発せられた音声から、その音声に付随する情報の意味内
容及び程度を容易に推定することができる情報処理方
法、情報処理システム、情報処理装置、前記情報処理シ
ステム及び情報処理装置を実現するコンピュータプログ
ラム、並びに該コンピュータプログラムが記録されてい
る記録媒体を提供することを目的とする。
【0006】本発明の他の目的は、質問情報の一方が心
理状態に関する質問情報であり、他方が体調に関する質
問情報であることにより、被験者から発せられた音声に
基づき、感情の意味内容、感情の程度を容易に推定する
ことができる情報処理方法、情報処理システム、及び情
報処理装置を提供することにある。
【0007】本発明の更に他の目的は、質問情報に対す
る回答を音声にて受付ける際、所定の期間であるか否か
を判断し、所定の期間である場合にのみ、記憶してある
文字列情報と特徴情報との間の相関関係を設定すること
により、音声を採取した時期を反映させて適切に情報を
推定することができる情報処理方法、情報処理システ
ム、及び情報処理装置を提供することにある。
【0008】本発明の更に他の目的は、記憶してある文
字列情報及び特徴情報から夫々を特徴づける特徴量を算
出し、算出した特徴量を用いた多変量解析により文字列
情報と特徴情報との相関関係を設定することにより、複
数の特徴情報を推定に反映させることができる情報処理
方法、情報処理システム、及び情報処理装置を提供する
ことにある。
【0009】
【課題を解決するための手段】第1発明に係る情報処理
方法は、質問情報の記憶手段及び出力手段と、音声の受
付手段とを備える情報処理システムにより、前記記憶手
段に記憶してある質問情報を出力し、出力した質問情報
に対する回答を音声にて受付け、受付けた音声に係る音
響学的特徴を抽出し、抽出した音響学的特徴に基づき、
前記音声に付随する情報を推定する情報処理方法におい
て、前記記憶手段に予め記憶されており、互いに相関を
有する第1質問情報及び第2質問情報を前記出力手段に
より出力し、出力された第1及び第2質問情報に対する
回答を夫々音声にて受付け、受付けた第1質問情報の回
答に係る音声から文字列情報を抽出し、受付けた第2質
問情報の回答に係る音声から音響学的特徴に係る1又は
複数の特徴情報を抽出し、抽出した文字列情報と特徴情
報とを関連付けて記憶し、記憶してある文字列情報と特
徴情報とから両者の相関関係を設定し、前記受付手段に
より第2質問情報の回答に係る音声を新たに受付けた場
合、受付けた音声から抽出した音響学的特徴に係る1又
は複数の特徴情報と設定した相関関係とに基づき、前記
特徴情報と相関がある文字列情報を特定することを特徴
とする。
【0010】第2発明に係る情報処理方法は、第1発明
において、前記第1及び第2質問情報は、一方が心理状
態に関する質問情報であり、他方が体調に関する質問情
報であることを特徴とする。
【0011】第3発明に係る情報処理方法は、第1発明
又は第2発明において、第1質問情報又は第2質問情報
に対する回答を音声にて受付ける際、所定の期間である
か否かを判断し、所定の期間である場合にのみ、記憶し
てある文字列情報と特徴情報とから両者の相関関係を設
定することを特徴とする。
【0012】第4発明に係る情報処理方法は、第1発明
乃至第3発明の何れかにおいて、記憶してある文字列情
報及び特徴情報から夫々を特徴づける特徴量を算出し、
算出した特徴量を用いた多変量解析により前記相関関係
を設定することを特徴とする。
【0013】第5発明に係る情報処理システムは、質問
情報の記憶手段と、該記憶手段に記憶されている質問情
報を出力する出力手段と、音声を受付ける手段とを備
え、前記出力手段から出力された質問情報に対する回答
を音声にて受付け、受付けた音声から抽出した音響学的
特徴に基づき、前記音声に付随する情報を推定すべくな
してある情報処理システムにおいて、前記記憶手段に予
め記憶されており、互いに相関を有する第1質問情報及
び第2質問情報を出力する手段と、出力された第1及び
第2質問情報に対する回答を夫々音声にて受付ける手段
と、受付けた第1質問情報の回答に係る音声から文字列
情報を抽出する文字列情報抽出手段と、受付けた第2質
問情報の回答に係る音声から音響学的特徴に係る1又は
複数の特徴情報を抽出する特徴情報抽出手段と、抽出し
た文字列情報及び特徴情報を関連付けて記憶する手段
と、記憶してある文字列情報と特徴情報とから両者の相
関関係を設定する手段とを備え、前記受付手段により第
2質問情報の回答に係る音声を新たに受付けた場合、受
付けた音声から抽出した音響学的特徴に係る1又は複数
の特徴情報と設定した相関関係とに基づき、前記特徴情
報と相関がある文字列情報を特定すべくなしてあること
を特徴とする。
【0014】第6発明に係る情報処理システムは、通信
ネットワークを介して接続された第1情報処理装置と第
2情報処理装置とを備え、前記第1情報処理装置は、質
問情報の記憶手段と、該記憶手段に記憶されている質問
情報を送信する送信手段とを備え、前記第2情報処理装
置は、前記通信ネットワークを通じて送信された質問情
報を受信する手段と、受信した質問情報に対する回答を
音声にて受付ける手段と、受付けた音声に係る音声情報
を送信する手段とを備え、前記第1情報処理装置は、前
記通信ネットワークを通じて受信した音声情報から抽出
した音響学的特徴に基づき、前記音声情報に付随する情
報を推定すべくなしてある情報処理システムにおいて、
前記第2情報処理装置は、前記第1情報処理装置の前記
記憶手段に予め記憶されており、互いに相関を有する第
1質問情報及び第2質問情報を前記ネットワークを通じ
て受信する手段と、受信した第1及び第2質問情報を出
力する手段と、出力された第1及び第2質問情報に対す
る回答を夫々音声にて受付ける手段と、受付けた音声に
係る音声情報を送信する手段とを備え、前記第1情報処
理装置は、受信した第1質問情報の回答に係る音声情報
から文字列情報を抽出する文字列情報抽出手段と、受信
した第2質問情報の回答に係る音声情報から音響学的特
徴に係る1又は複数の特徴情報を抽出する特徴情報抽出
手段と、抽出した文字列情報及び特徴情報を関連付けて
記憶する手段と、記憶してある文字列情報と特徴情報と
から両者の相関関係を設定する手段とを備え、第2質問
情報の回答に係る音声情報を前記第2情報処理装置から
新たに受信した場合、受信した音声情報から抽出した音
響学的特徴に係る1又は複数の特徴情報と設定した相関
関係とに基づき、前記特徴情報と相関がある文字列情報
を特定すべくなしてあることを特徴とする。
【0015】第7発明に係る情報処理システムは、第5
発明又は第6発明において、前記第1及び第2質問情報
は、一方が心理状態に関する質問情報であり、他方が体
調に関する質問情報であることを特徴とする。
【0016】第8発明に係る情報処理システムは、第5
発明乃至第7発明の何れかにおいて、第1質問情報又は
第2質問情報に対する回答を音声にて受付ける際、所定
の期間であるか否かを判断する手段を備え、所定の期間
である場合にのみ、記憶してある文字列情報と特徴情報
とから両者の相関関係を設定すべくなしてあることを特
徴とする。
【0017】第9発明に係る情報処理システムは、第5
発明乃至第8発明の何れかにおいて、記憶してある文字
列情報及び特徴情報から夫々を特徴づける特徴量を算出
し、算出した特徴量を用いた多変量解析により前記相関
関係を設定すべくなしてあることを特徴とする。
【0018】第10発明に係る情報処理装置は、質問情
報の記憶手段と、該記憶手段に記憶されている質問情報
を出力する出力手段と、音声の受付手段とを備え、前記
出力手段から出力された質問情報に対する回答を音声に
て受付け、受付けた音声から抽出した音響学的特徴に基
づき、前記音声に付随する情報を推定すべくなしてある
情報処理装置において、前記記憶手段に予め記憶されて
おり、互いに相関を有する第1質問情報及び第2質問情
報を出力する手段と、出力された第1及び第2質問情報
に対する回答を夫々音声にて受付ける手段と、受付けた
第1質問情報の回答に係る音声から文字列情報を抽出す
る文字列情報抽出手段と、受付けた第2質問情報の回答
に係る音声から音響学的特徴に係る1又は複数の特徴情
報を抽出する特徴情報抽出手段と、抽出した文字列情報
及び特徴情報を関連付けて記憶する手段と、記憶してあ
る文字列情報と特徴情報とから両者の相関関係を設定す
る手段とを備え、前記受付手段により第2質問情報の回
答に係る音声を新たに受付けた場合、受付けた音声から
抽出した音響学的特徴に係る1又は複数の特徴情報と設
定した相関関係とに基づき、前記特徴情報と相関がある
文字列情報を特定すべくなしてあることを特徴とする。
【0019】第11発明に係る情報処理装置は、通信ネ
ットワークに接続可能になしてあり、音声情報を受信す
る手段を備え、受信した音声情報から抽出した音響学的
特徴に基づき、前記音声情報に付随する情報を推定すべ
くなしてある情報処理装置において、互いに相関を有す
る第1質問情報及び第2質問情報に対する回答を前記通
信ネットワークを通じて夫々音声情報にて受信する手段
と、受信した第1質問情報の回答に係る音声情報から該
音声情報が含む文字列情報を抽出する文字列情報抽出手
段と、受信した第2質問情報の回答に係る音声情報から
音響学的特徴に係る1又は複数の特徴情報を抽出する特
徴情報抽出手段と、抽出した文字列情報及び特徴情報を
関連付けて記憶する手段と、記憶してある文字列情報と
特徴情報とから両者の相関関係を設定する手段とを備
え、第2質問情報の回答に係る音声情報を新たに受信し
た場合、受信した音声情報から抽出した音響学的特徴に
係る1又は複数の特徴情報と設定した相関関係とに基づ
き、前記特徴情報と相関がある文字列情報を特定すべく
なしてあることを特徴とする。
【0020】第12発明に係る情報処理装置は、第10
発明又は第11発明において、前記第1及び第2質問情
報は、一方が心理状態に関する質問情報であり、他方が
体調に関する質問情報であることを特徴とする。
【0021】第13発明に係る情報処理装置は、第10
発明乃至第12発明の何れかにおいて、第1質問情報又
は第2質問情報に対する回答を音声にて受付ける際、所
定の期間であるか否かを判断する手段を備え、所定の期
間である場合にのみ、記憶してある文字列情報と特徴情
報とから両者の相関関係を設定すべくなしてあることを
特徴とする。
【0022】第14発明に係る情報処理装置は、第10
発明乃至第13発明の何れかにおいて、記憶してある文
字列情報及び特徴情報から夫々を特徴づける特徴量を算
出し、算出した特徴量を用いた多変量解析により前記相
関関係を設定すべくなしてあることを特徴とする。
【0023】第15発明に係る情報処理装置は、第10
発明乃至第14発明の何れかにおいて、前記特徴情報抽
出手段は、入力された音声情報の音圧を検出する検出手
段、ピッチ周波数を検出する検出手段、継続時間を検出
する検出手段、又はジッタを検出する検出手段のうち少
なくとも一の検出手段を備えることを特徴とする。
【0024】第16発明に係る情報処理装置は、第10
発明乃至第15発明の何れかにおいて、特定された文字
列情報に応じた適宜情報を出力する手段を更に備えるこ
とを特徴とする。
【0025】第17発明に係るコンピュータプログラム
は、コンピュータに、入力された音声情報に係る音響学
的特徴を抽出させ、抽出させた音響学的特徴に基づき、
前記音声情報に付随する情報を推定させるステップを有
するコンピュータプログラムにおいて、コンピュータ
に、互いに相関を有する第1質問情報及び第2質問情報
を出力させるステップと、コンピュータに、出力された
第1及び第2質問情報に対する回答を夫々音声情報にて
入力させるステップと、コンピュータに、入力された第
1質問情報の回答に係る音声情報から文字列情報を抽出
させるステップと、コンピュータに、受付けた第2質問
情報の回答に係る音声情報から音響学的特徴に係る1又
は複数の特徴情報を抽出させるステップと、コンピュー
タに、抽出させた文字列情報及び特徴情報を関連付けて
記憶させるステップと、コンピュータに、記憶してある
文字列情報と特徴情報とから両者の相関関係を設定させ
るステップと、コンピュータに、第2質問情報に対する
回答に係る音声情報を新たに受付けた場合、受付けた音
声情報から抽出した音響学的特徴に係る1又は複数の特
徴情報と設定させた相関関係とに基づき、前記特徴情報
と相関がある文字列情報を特定させるステップとを有す
ることを特徴とする。
【0026】第18発明に係るコンピュータでの読取り
が可能な記録媒体は、コンピュータに、入力された音声
情報に係る音響学的特徴を抽出させ、抽出させた音響学
的特徴に基づき、前記音声情報に付随する情報を推定さ
せるステップを有するコンピュータプログラムが記録さ
れているコンピュータでの読取りが可能な記録媒体にお
いて、コンピュータに、互いに相関を有する第1質問情
報及び第2質問情報を出力させるステップと、コンピュ
ータに、出力された第1及び第2質問情報に対する回答
を夫々音声情報にて入力させるステップと、コンピュー
タに、入力された第1質問情報の回答に係る音声情報か
ら文字列情報を抽出させるステップと、コンピュータ
に、受付けた第2質問情報の回答に係る音声情報から音
響学的特徴に係る1又は複数の特徴情報を抽出させるス
テップと、コンピュータに、抽出させた文字列情報及び
特徴情報を関連付けて記憶させるステップと、コンピュ
ータに、記憶してある文字列情報と特徴情報とから両者
の相関関係を設定させるステップと、コンピュータに、
第2質問情報に対する回答に係る音声情報を新たに受付
けた場合、受付けた音声情報から抽出した音響学的特徴
に係る1又は複数の特徴情報と設定させた相関関係とに
基づき、前記特徴情報と相関がある文字列情報を特定さ
せるステップとを有するコンピュータプログラムが記録
されていることを特徴とする。
【0027】本発明にあっては、互いに相関を有する2
つの質問情報を出力し、出力された質問情報に対する回
答を夫々音声にて受付け、一方の回答に係る音声から文
字列情報を抽出し、他方の回答に係る音声から音響学的
特徴に係る特徴情報を抽出し、抽出した文字列情報と特
徴情報とから両者の相関関係を設定し、質問情報の回答
に係る音声を新たに受付けた場合、受付けた音声から抽
出した音響学的特徴に係る特徴情報と設定した相関関係
とに基づき、前記特徴情報と相関がある文字列情報を特
定する。したがって、例えば、一方の質問情報を被験者
の感情に関する質問情報とし、他方の質問情報を被験者
の体調に係る質問とした場合、体調に係る質問を被験者
に答えてもらうことによって、その被験者の感情を推定
することが可能である。特に、感情に関する質問で、被
験者自身に特定の感情に対する評価を答えてもらい、そ
の評価と体調に係る質問の回答から抽出した音響学的特
徴との間に相関関係を設定することによって、体調に係
る質問の音声による回答のみから、感情の種類、及び感
情の程度(抑揚)を定量的に推測することが可能であ
る。
【0028】また、本発明にあっては、質問情報の一方
が心理状態に関する質問情報であり、他方が体調に関す
る質問情報である。したがって、被験者から発せられた
音声に基づき、感情の意味内容、感情の程度を容易に推
定することができる。
【0029】更に本発明にあっては、質問情報に対する
回答を音声にて受付ける際、所定の期間であるか否かを
判断し、所定の期間である場合にのみ、記憶してある文
字列情報と特徴情報との間の相関関係を設定するように
している。したがって、本発明の情報処理システムの利
用開始時に、前述の相関関係を設定するために音声情報
を収集する期間(例えば、一週間程度)を設けることが
できる。また、加齢、被験者の体調等を適切に考慮して
感情の推定を行うために、例えば、一ヶ月ごとに前記相
関関係を最新の状態に更新することができる。その為、
長期的に感情推定を行うことが可能であり、推定誤差を
縮小することが可能である。
【0030】更に本発明にあっては、記憶してある文字
列情報及び特徴情報から夫々を特徴づける特徴量を算出
し、算出した特徴量を用いた多変量解析により文字列情
報と特徴情報との相関関係を設定するようにしている。
したがって、複数の特徴量を利用して感情の推定を行う
ことができるため、特定の音響学的特徴に被験者の体調
等の影響があった場合であっても、その影響を必要最小
限に抑えることが可能である。
【0031】
【発明の実施の形態】以下、本発明をその実施の形態を
示す図面に基づいて具体的に説明する。 実施の形態1.図1は、本発明の情報処理装置を具体化
した感情推定装置の内部構成を示すブロック図である。
本実施の形態に係る感情推定装置は、例えば、マイクロ
ホンのような音声入力部11を備える「ネコ型」の介護
ロボットであり、体調及び心理状態を問う質問を呈示
し、これらの質問に対する回答を音声入力部11により
受付け、受付けた音声の波形を解析することにより、音
声に伴う感情を推定すべくなしてある。
【0032】図中1はCPUであり、バス2を介して後
述する各ハードウェア各部に接続されていて、ROM3
に格納された制御プログラムに従って、それらを制御す
る。RAM4は、SRAM又はフラッシュメモリ等で構
成され、ROM3に格納された制御プログラムの実行時
に発生するデータを記憶する。
【0033】表示部5は、体調及び心理状態に関する質
問情報を表示させるための液晶ディスプレイ等の表示装
置である。これらの質問情報は、内部記憶装置9が有す
る質問情報データベース(質問情報DB)9bに記憶さ
れている。質問情報が音声データとして質問情報データ
ベース9bに記憶されている場合には、スピーカのよう
な音声出力部12により質問情報を出力してもよい。入
力部6は、感情推定装置の動作を制御するための各種ボ
タンスイッチを備えている。
【0034】音声波形解析部13は、音声入力部11に
より電気信号に変換された音声波形を解析し、音圧、ピ
ッチ周波数、継続時間等の音響学的特徴に係る特徴量を
算出する。
【0035】音声認識部14は、音声入力部11により
入力された音声情報の音声認識を行い、音声情報を文字
列情報に変換する。変換された文字列情報は、後述する
ように評価され、評価された値が解析データベース9a
(解析DB)に記憶される。
【0036】内部記憶装置9は、ハードディスクのよう
な記憶装置からなり、記憶領域の一部は前述の質問情報
データベース9b、音声波形解析部13によって解析さ
れた結果を記憶する解析データベース9aとして用いら
れており、必要に応じて各種データベースにアクセス
し、情報の記憶及び読取り処理が行われる。
【0037】外部記憶装置8は、本発明のコンピュータ
プログラム及び質問情報等のデータを記録したメモリカ
ード等の可搬型の記録媒体10からコンピュータプログ
ラム及びデータを読取る読取装置からなり、読取られた
コンピュータプログラム及びデータは、内部記憶装置9
に記憶される。内部記憶装置9に記憶されているコンピ
ュータプログラムは、RAM4に読込まれ、CPU1が
実行することで感情推定装置として動作する。
【0038】図2は、音声入力部11から入力された音
声情報の波形、及び音声波形解析部13によって抽出さ
れた特徴量の時間変化の一例を示すグラフである。図2
(a)に示した例では、被験者が質問に対する回答とし
て「いいえ」と答えた場合の音声情報の波形を示してい
る。音声入力部11から入力された音声情報の波形は音
声波形解析部13によって解析され、図2(b)のグラ
フに示したような音圧レベルの時間変化、図2(c)の
グラフに示したようなピッチ周波数の時間変化を得る。
【0039】音圧レベル及びピッチ周波数は、図2
(b)及び(c)に示したように時間とともに変化する
関数であるが、これらを特徴付ける特徴量としては、音
声の継続時間(図2ではt1 −t0 )における最大値、
平均値、中央値等を採用する。例えば、音圧レベルの特
徴量としては、音声の継続時間における平均値をとり、
ピッチ周波数の特徴量としては、音声の継続時間におけ
る最大値を採用する。このように、音圧レベル、ピッチ
周波数等の音響学的特徴に対する特徴量として、最大
値、平均値、中央値等の何れを採用するかは予め定めて
おく。
【0040】音声波形解析部13では、前述した音圧レ
ベルの時間変化、ピッチ周波数の時間変化だけでなく、
ピッチ周波数の時間変動、音声の継続時間、音声のかす
れに対応するジッタを解析することができ、解析して算
出された特徴量は、解析した日付と関連付けて解析デー
タベース9aに記憶される。
【0041】前述した音圧レベル、ピッチ周波数、ピッ
チ周波数の時間変動、音声の継続時間、及びジッタ等
は、一般に、被験者の感情に左右されることが知られて
いる。被験者が元気であり、感情が良い状態にある場
合、音圧レベル、ピッチ周波数、ピッチ周波数の時間変
動は増加する。音声の継続時間、ジッタについては、個
々の被験者によって異なることが多いが、一般に、感情
が良い状態にある場合は減少することが知られている。
逆に、被験者が不機嫌であり、感情が悪い状態にある場
合、音圧レベル、ピッチ周波数、ピッチ周波数の時間変
動は減少し、音声の継続時間、ジッタは増加することが
知られている。
【0042】このように、音声の音響学的特徴は被験者
の感情と密接な関係があることが知られているが、本発
明では、加齢及び被験者の体調といった個別性、及び感
情の推定を行う時期を推定結果に反映させるため、前述
した音響学的特徴に関する特徴量にのみに基づいて感情
の推定を行うのではなく、まず、一定の期間(例えば一
週間)、体調を問う体調問診と感情について問うメンタ
ル問診とを行って音声情報の予備データを収集した後、
体調問診の回答から算出した特徴量とメンタル問診の回
答内容との間の対応付けを行い、前記期間(以下、デー
タ収集期間という)の終了後に行った体調問診の回答か
ら感情を推定するようにしている。また、例えば、月始
めの一週間程度は、音声情報の予備データを収集するデ
ータ収集期間を設け、体調問診の回答から算出した特徴
量とメンタル問診の回答内容との間の対応付けを行うよ
うにしている。
【0043】図3は、各データベースの一例を示す概念
図である。図3(a)は、解析データベース9aの一例
を示す概念図であり、予備データを収集する際に、体調
問診を行った場合、音声情報の解析を行った日付、並び
に音圧レベル(音圧)、ピッチ周波数、ピッチ周波数の
変動(ピッチ変動)、継続時間、及びジッタに関する特
徴量を互いに関連付けて記憶する。また、メンタル問診
からは、感情得点なるものを算出して前記特徴量と関連
付けて記憶する。ここで、感情得点とは、感情、心情、
気分の善し悪しを得点化したものであり、最も良い感情
(心情、気分)を100点、最も悪い感情(心情、気
分)を0点に定めている。更に、予備データを収集した
後、感情推定のために体調問診を行った場合、各特徴量
と推定した感情得点の推定値とを互いに関連付けて記憶
する。
【0044】図3(b)は、質問情報データベース9b
の一例を示す概念図であり、質問情報を識別する質問I
Dと質問情報の内容とを互いに関連付けて記憶してい
る。図3(b)に示した例では、質問ID「M01」に
は、メンタル問診として「今日の気分は、100点満点
中何点ですか?」といった内容の質問情報が対応付けら
れて記憶されており、質問ID「F01」、「F0
2」、…には、体調問診として夫々「おなかがすいて我
慢ができないですか?」、「頭痛がしますか?」、…と
いった内容の質問情報が対応付けられて記憶されてい
る。
【0045】これらの質問情報は、予備データの収集す
る場合、又は感情を推定する場合に出力される。質問情
報を出力する場合、感情推定装置の表示部5から文字情
報として出力してもよく、また、音声出力部12から音
声情報として出力してもよい。質問情報に対する回答は
音声入力部11により音声情報として入力される。メン
タル問診の回答は、音声認識処理により文字列に変換さ
れ、回答の中心になる部分、すなわち、前述の質問内容
では被験者自身が付けた点数が抽出される。解析データ
ベース9aには、抽出した点数を感情得点として記憶さ
せる。体調問診では、回答に係る音声情報がADコンバ
ータ等によりデジタル化され、デジタル化された音声波
形が一時的にRAM4に記憶される。そして、記憶され
た音声波形から回答の中心になる部分、すなわち、「は
い」、「いいえ」に該当する部分の波形のみが抽出さ
れ、波形の解析が行われる。解析によって得られた音響
学的特徴に係る特徴量は、解析データベース9aの適宜
の記憶領域に記憶される。
【0046】なお、音声情報の波形の解析、及び音声認
識を容易にするために、各質問情報は、回答がある程度
予測できるものが望ましく、前述の例のようにメンタル
問診の質問は、気分を得点で答えさせる内容とし、体調
問診の質問は、「はい」又は「いいえ」で答えることが
できる内容にしている。特に、体調問診では、体調不良
・重篤を問う質問内容に統一した場合、「いいえ」で返
答され確率が高くなるため、更に音声情報の波形の解析
が容易になる。
【0047】図4は、音響学的特徴から算出された特徴
量に対する感情得点の得点分布の一例を示したグラフで
ある。ここでは、図4(a)は音圧レベルに対する感情
得点の得点分布を示すグラフであり、図4(b)はピッ
チ周波数に対する感情得点の得点分布を示すグラフであ
る。前述したように、被験者の感情が良い状態にある場
合、音圧レベルは大きくなる傾向があり、また、被験者
は自身の感情得点を高く付けるはずであるから、図4
(a)に示したように音圧レベルが大きくなるに従い、
感情得点が高くなる傾向の得点分布を示す。ピッチ周波
数についても同様であり、被験者の感情が良い状態にあ
る場合、ピッチ周波数は高くなる傾向があり、また、被
験者は自身の感情得点を高く付けるはずであるから、図
4(b)に示したようピッチ周波数が高くなるに従い、
感情得点が高くなる傾向の得点分布を示す。また、図に
は示していないが、ピッチ周波数の時間変動、音声の継
続時間、及びジッタの各音響学的指標と感情得点との間
にも何らかの傾向があり、得点分布をグラフにして示す
ことが可能である。
【0048】これらの得点分布を表す数式モデルを設定
することによって、各特徴量から感情得点を容易に推定
することが可能である。前述の数式モデルの最も簡単な
モデルは、感情得点を1種類の特徴量により表した回帰
直線であって、最小二乗法を利用して求めることができ
る。音声情報を収集するあたって、例えば、空気が乾燥
している時期と湿気を多く含んでいる時期とでは、音声
が伝わる速度が変化する。したがって、外気の変化は、
音声の持続時間、ピッチ周波数に大きな影響を与えやす
いと考えられる。一方、任意の時刻での絶対量である音
圧レベルは、外気の影響を受ける程度が低いと考えられ
る。また、被験者が体調を崩して、風邪を引いている場
合は、ピッチ周波数、ジッタに特にその影響が及ぶ。し
たがって、1種類の特徴量から数式モデルを設定して、
感情を推定する場合、必ずしも精度良く感情を推定する
ことができるとは限らない。
【0049】そこで、本実施の形態では、外気の影響、
被験者の体調等による影響を最小限に抑えるために、前
述した5種類全ての特徴量を用いて、得点分布を表す数
式モデルを多変量解析によって設定する。
【0050】以下では、多変量解析の一つである重回帰
分析を利用し、感情得点の得点分布を表す数式モデルを
設定する場合について説明する。重回帰分析では、目的
変数yと説明変数x1 ,x2 ,x3 ,…との間の関係を
重回帰分析によって定める。本実施の形態では、メンタ
ル問診の回答から算出された感情得点を目的変数yにと
り、体調問診の回答の音響学的特徴から算出された5つ
の各特徴量を説明変数x1 ,x2 ,…,x5 にとる。こ
こで、各説明変数x1 ,x2 ,…,x5 は、それぞれ、
音圧レベル、ピッチ周波数、ピッチ周波数の時間変動、
音声の継続時間、及びジッタに該当する。
【0051】メンタル問診による質問と体調問診による
質問とを夫々n回行った場合、n個の目的変数(y1
2 ,…yn )と、各特徴量につきn個の説明変数(x
11,x12,…,xn5)とが得られる。それらの関係を次
の5つの線形方程式によって表す。
【0052】
【数1】
【0053】ここで、αは定数であり、βi (i=1,
…,5)は重回帰係数である。α,βi (i=1,…,
5)の最小二乗推定値を、a,bi (i=1,…,5)
で表した場合、これらの係数を用いてyのx1 ,x2
…,x5 に対する重回帰式
【0054】
【数2】
【0055】が得られる。重回帰式を求める手法は既に
よく知られており、観測値yj (j=1,…,n)と推
定値Yj (j=1,…,n)との差(残差)の二乗和が
最小となるようなa,bi を算出することによって、重
回帰式を求めることができる。ここで、観測値yj
は、数式1におけるy1 ,…,yn のことであり、推定
値Yj は、5×n個の特徴量x11,x12,…,xn5を数
式(2)に代入した値である。算出した定数a,重回帰
係数bi (i=1,…,5)を数式2に代入した重回帰
式が求めるべき数式モデルであって、新たに取得した特
徴量をx1 ,x2 ,…,x5 に代入することによって、
感情得点の推定値Yが得られる。
【0056】本実施の形態では、重回帰分析を利用して
得点分布の数式モデルを設定することとしたが、重回帰
分析の他に判別分析、数量化III類分析などを利用す
ることも可能である。
【0057】図5は、感情推定装置の処理手順を示すフ
ローチャートである。感情推定装置は、まず、体調問診
に関する質問情報を表示部5に表示する(ステップS
1)。表示する質問情報は、質問情報データベース9b
からランダムに選択したものでもよく、また、質問ID
の順に選択したものでもよい。また、質問情報は、音声
出力部12から音声によって出力される形態であっても
よい。
【0058】そして、表示された質問情報に対して音声
による回答を受付けたか否かを判断する(ステップS
2)。回答を受付けていない場合(S2:NO)、回答
を受付けるまで待機する。回答を受付けた場合(S2:
YES)、回答を音声情報として記憶する(ステップS
3)。
【0059】次いで、音声波形解析部13は、ステップ
S3にて記憶した音声情報の波形の解析を行い、音響学
的特徴を抽出する(ステップS4)。そして、波形の解
析によって得られた音圧レベル、ピッチ周波数等の特徴
量を解析データベース9aに記憶する(ステップS
5)。
【0060】次いで、全ての質問に対する回答を受付け
たか否かを判断することによって、体調問診が終了した
か否かを判断する(ステップS6)。体調問診が終了し
ていない場合(S6:NO)、処理をステップS1に戻
す。体調問診が終了した場合(S6:YES)、データ
収集期間であるか否かを判断する(ステップS7)。
【0061】データ収集期間である場合(S7:YE
S)、メンタル問診に関する質問情報を表示部5に表示
する(ステップS8)。質問情報を表示部5に表示せず
に、音声出力部12から音声によって出力する形態であ
ってもよい。
【0062】そして、表示された質問情報に対して音声
による回答を受付けたか否かを判断する(ステップS
9)。回答を受付けていない場合(S9:NO)、回答
を受付けるまで待機する。回答を受付けた場合(S9:
YES)、回答を音声情報として記憶する(ステップS
10)。
【0063】次いで、音声認識部13は、ステップS1
0にて記憶した音声情報の音声認識を行い、音声情報を
文字列に変換する(ステップS11)。変換した文字列
から回答の中心となる部分を抽出して、回答を評価する
(ステップS12)。メンタル問診では、前述したよう
に「今日の気分は、100点満点中何点ですか?」とい
う質問がされる。したがって、被験者自身が質問に対し
て付けた点数を回答の評価とすることができる。そし
て、回答の評価を感情得点として、解析データベース9
aに記憶させる(ステップS13)。
【0064】ステップS7でデータ収集期間でないと判
断した場合(S7:NO)、重回帰式を設定する(ステ
ップS14)。重回帰式を設定する際、解析データベー
ス9aに既に記憶してある音圧レベル、ピッチ周波数、
ピッチ周波数の時間変動、音声の継続時間、及びジッタ
を説明変数、感情得点を目的変数として重回帰分析を利
用する。そして、ステップS4にて新たに抽出した特徴
量を設定した重回帰式に代入し(ステップS15)、感
情得点の推定値を得ることによって、感情の推定を行う
(ステップS16)。感情得点の推定値は、解析データ
ベース9aに記憶される(ステップS17)。
【0065】本実施の形態では、メンタル問診の際、被
験者自身に感情を評価した得点を付けさせ、それを感情
得点としているが、体調問診と同様に「はい」又は「い
いえ」で答えることができる質問を幾つか用意してお
き、「はい」と答えた数、又は「いいえ」と答えた数に
応じて感情得点を算出する形態であってもよい。
【0066】本実施の形態では、感情推定装置の例とし
て「ネコ型」の介護ロボットについて説明したが、介護
ロボットに限らず、マイクロホンのような音声入力部を
内蔵しているか、又は外部入力装置として接続できるよ
うになっているパーソナルコンピュータ、ワークステー
ション等を利用することができることは勿論のことであ
る。
【0067】実施の形態2.本実施の形態では、メンタ
ル問診の回答から求めた感情得点と重回帰分析によって
推定した感情得点との間に差が生じている場合に、感情
得点の推定値を補正する方法について説明する。
【0068】感情推定装置の構成は実施の形態1と同様
であるため説明を省略する。図6及び図7は、本実施の
形態に係る感情推定装置の処理手順を示すフローチャー
トである。感情推定装置は、まず、体調問診に関する質
問情報を表示部5に表示する(ステップS21)。表示
する質問情報は、質問情報データベース9bからランダ
ムに選択したものでもよく、また、質問IDの順に選択
したものでもよい。また、質問情報は、音声出力部12
から音声によって出力される形態であってもよい。
【0069】そして、表示された質問情報に対して音声
による回答を受付けたか否かを判断する(ステップS2
2)。回答を受付けていない場合(S22:NO)、回
答を受付けるまで待機する。回答を受付けた場合(S2
2:YES)、回答を音声情報として記憶する(ステッ
プS23)。
【0070】次いで、音声波形解析部13は、ステップ
S23にて記憶した音声情報の波形の解析を行い、音響
学的特徴を抽出する(ステップS24)。そして、波形
の解析によって得られた音圧レベル、ピッチ周波数等の
特徴量を解析データベース9aに記憶する(ステップS
25)。
【0071】次いで、全ての質問情報に対する回答を受
付けたか否かを判断することによって、体調問診が終了
したか否かを判断する(ステップS26)。体調問診が
終了していない場合(S26:NO)、処理をステップ
S21に戻す。
【0072】体調問診が終了した場合(S26:YE
S)、メンタル問診に関する質問情報を表示部5に表示
する(ステップS27)。質問情報を表示部5に表示せ
ずに、音声出力部12から音声によって出力する形態で
あってもよい。
【0073】そして、表示された質問情報に対して音声
による回答を受付けたか否かを判断する(ステップS2
8)。回答を受付けていない場合(S28:NO)、回
答を受付けるまで待機する。回答を受付けた場合(S2
8:YES)、回答を音声情報として記憶する(ステッ
プS29)。
【0074】次いで、音声認識部14は、ステップS2
9にて記憶した音声情報の音声認識を行い、音声情報を
文字列に変換する(ステップS30)。変換した文字列
から回答の中心となる部分を抽出して、回答を評価する
(ステップS31)。メンタル問診では、前述したよう
に「今日の気分は、100点満点中何点ですか?」とい
う質問がされる。したがって、被験者自身が質問に対し
て付けた点数を回答の評価とすることができる。そし
て、回答の評価を感情得点として、解析データベース9
aに記憶させる(ステップS32)。
【0075】次いで、データ収集期間であるか否かを判
断する(ステップS33)。データ収集期間であると判
断した場合(S33:YES)、処理を終了する。
【0076】ステップS33でデータ収集期間でないと
判断した場合(S33:NO)、重回帰式を設定する
(ステップS34)。重回帰式を設定する際、解析デー
タベース9aに既に記憶してある音圧レベル、ピッチ周
波数、ピッチ周波数の時間変動、音声の継続時間、及び
ジッタを説明変数、感情得点を目的変数として重回帰分
析を行う。そして、ステップS24にて新たに抽出した
特徴量を設定した重回帰式に代入し(ステップS3
5)、感情得点の推定値を得ることによって、感情の推
定を行う(ステップS36)。
【0077】次いで、後述する手法により、推定した感
情得点とメンタル問診の回答の評価から得られた感情得
点との間の重み係数を算出する(ステップS37)。そ
して、算出した重み係数を用いて感情得点を補正し(ス
テップS38)、補正した感情得点の値を解析データベ
ース9aに記憶する(ステップS39)。
【0078】図8は、重み係数の算出処理を示したフロ
ーチャートである。まず、メンタル問診の回答を音声認
識することによって得られた感情得点P1を読込む(ス
テップS41)。次いで、重回帰式を用いて推定された
感情得点P 2 を読込む(ステップS42)。
【0079】次いで、2つの感情得点の差の割合ΔP
(=100×|P1 −P2 |/P1 )を算出する(ステ
ップS43)。
【0080】そして、差の割合ΔPが80%以上である
か否かを判断する(ステップS44)。差の割合ΔPが
80%以上である場合(S44:YES)、P1 に乗じ
る重み係数w1 を0.8とし、P2 に乗じる重み係数w
2 を0.2とする(ステップS45)。
【0081】差の割合ΔPが80%より小さい場合(S
44:NO)、差の割合ΔPが80%より小さく、かつ
20%より大きいか否かを判断する(ステップS4
6)。差の割合ΔPが80%より小さく、かつ20%よ
り大きい場合(S46:YES)、P1 に乗じる重み係
数w1 を0.6とし、P2 に乗じる重み係数w2 を0.
4とする(ステップS47)。
【0082】差の割合ΔPが80%以上であるか、又は
20%以下である場合(S46:NO)、差の割合ΔP
が20%以下であるか否かを判断する(ステップS4
8)。差の割合ΔPが20%以下である場合(S48:
YES)、P1 に乗じる重み係数w1 を0.5とし、P
2 に乗じる重み係数w2 を0.5とする(ステップS4
9)。差の割合ΔPが20%以下でない場合(S48:
NO)、処理をステップS41に戻す。
【0083】実施の形態3.前述の実施の形態では、感
情得点の推定値を解析データベース9aに記憶させる形
態であったが、感情得点に基づき感情を評価する場合、
被験者毎に基準値を設定する必要がある。被験者によっ
ては、感情の得点を常に高く付ける人、常に低く付ける
人がいるため、基準値を一律に設けることが出来ないた
めである。
【0084】図9は、被験者毎に感情評価の基準値を設
定する場合の処理手順を示すフローチャートである。ま
ず、感情認識装置は、ある特定の被験者が付けた感情得
点P1 を解析データベース9aから読込み(ステップS
51)、読込んだ感情得点P1 の平均値Mと標準偏差σ
とを算出する(ステップS52)。次いで、前述と同様
にして重回帰式により感情得点P2 を算出する(ステッ
プS53)。
【0085】次いで、感情得点P2 がM−1.0σより
も小さいか否かを判断し(ステップS54)、感情得点
2 がM−1.0σよりも小さい場合(S54:YE
S)、感情の評価を「悪い」とする(ステップS5
5)。
【0086】感情得点P2 がM−1.0σ以上である場
合(S54:NO)、感情得点P2が、M−1.0σ以
上であり、かつM−0.5σ以下であるか否かを判断す
る(ステップS56)。感情得点P2 が、M−1.0σ
以上であり、かつM−0.5σ以下である場合(S5
6:YES)、感情の評価を「やや悪い」とする(ステ
ップS57)。
【0087】感情得点P2 が、M−1.0σより小さい
か、又はM−0.5σより大きい場合(S56:N
O)、感情得点P2 が、M−0.5σより大きく、かつ
M+0.5σより小さいか否かを判断する(ステップS
58)。感情得点P2 が、M−0.5σより大きく、か
つM+0.5σより小さい場合(S58:YES)、感
情の評価を「ふつう」にする(ステップS59)。
【0088】感情得点P2 が、M−0.5σ以下である
か、又はM+0.5σ以上である場合(S58:N
O)、感情得点P2 が、M+0.5σ以上であり、かつ
M+1.0σ以下であるか否かを判断する(ステップS
60)。感情得点P2 が、M+0.5σ以上であり、か
つM+1.0σ以下である場合(S60:YES)、感
情の評価を「やや良い」にする(ステップS61)。
【0089】感情得点P2 が、M+0.5σより小さい
か、又はM+1.0σより大きい場合(S60:N
O)、感情得点P2 が、M+1.0σより大きいか否か
を判断する(ステップS62)。感情得点P2 が、M+
1.0σよりも大きい場合(S62:YES)、感情の
評価を「良い」にする(ステップS63)。感情得点P
2が、M+1.0σ以下である場合(S62:NO)、
処理をステップS51に戻す。
【0090】そして、評価した感情を感情推定装置の表
示部5に表示させる等により出力する(ステップS6
4)。
【0091】実施の形態4.本実施の形態では、被験者
からの音声データをインターネット等の通信ネットワー
クを通じて受信し、感情の推定を行う感情推定システム
について説明する。
【0092】図10は、本実施の形態の感情推定システ
ムの構成を示す模式図である。感情推定システムは、被
験者から音声データを受信して、感情の推定を行う解析
サーバ100と被験者が利用する情報処理装置200,
200,200,…とから構成される。解析サーバ10
0は、被験者の情報処理装置200,200,200,
…にウェブページを送信することによって、感情推定の
ためのアプリケーションを提供する。感情推定を行う
際、被験者の情報処理装置200,200,200,…
から音声データを送信する必要があるため、解析サーバ
100と被験者の情報処理装置200,200,20
0,…との間には、ストリーミング配信用のプロトコル
RTP(Real-time transport protocol)が設定され
る。解析サーバ100にて、音声データを受信した場
合、前述と同様にして音声データの波形解析及び音声認
識を行い、感情の推定を行う。
【0093】図11は、解析サーバ100の内部構成を
示すブロック図である。図中101はCPUであり、バ
ス102を介して後述する各ハードウェア各部に接続さ
れていて、ROM103に格納された制御プログラムに
従って、それらを制御する。RAM104は、SRAM
又はフラッシュメモリ等で構成され、ROM103に格
納された制御プログラムの実行時に発生するデータを記
憶する。
【0094】表示部105は、CRT、液晶ディスプレ
イ等の表示装置であり、入力部106は、キーボード、
マウス等の入力装置である。通信部107は、モデム等
の回線終端装置を備えている。被験者の情報処理装置2
00からの要求に応じて、インターネット等の通信ネッ
トワークNを通じて、ウェブページ等を送信することに
よって、所要の情報を情報処理装置200へ送信すると
ともに、被験者の情報処理装置200から音声データを
受信する。通信部107は、これらの情報の送受信の制
御を行っている。
【0095】音声波形解析部113は、情報処理装置2
00から送信された音声データの音声波形を解析し、音
圧、ピッチ周波数、継続時間等の音響学的特徴に係る特
徴量を算出する。
【0096】音声認識部114は、情報処理装置200
から送信された音声データの音声認識を行い、音声情報
を文字列情報に変換する。変換された文字列情報は、後
述するように評価され、評価された値が解析データベー
ス109a(解析DB)に記憶される。
【0097】内部記憶装置109は、ハードディスクの
ような記憶装置からなり、記憶領域の一部は、被験者の
情報処理装置200から受信した音声データの波形を解
析して、抽出され音響学的特徴に係る特徴量を記憶する
解析データベース109a、被験者の情報処理装置20
0に送信する質問情報が記憶されている質問情報データ
ベース109bとして用いられており、必要に応じて各
種データベースにアクセスし、情報の記憶及び読取り処
理が行われる。なお、本実施の形態では、解析サーバ1
00の内部記憶装置109に各種データベースを備えて
いるが、これらのデータベースは必ずしも解析サーバ1
00の内部にある必要はなく、解析サーバ100に接続
したデータベースサーバを用意して、このデータベース
サーバの内部に備える構成であってもよい。
【0098】外部記憶装置108は、本発明のコンピュ
ータプログラム及びデータを記録したCD−ROM等の
記録媒体110からコンピュータプログラム及びデータ
を読取るCD−ROMドライブ等からなり、読取られた
コンピュータプログラム及びデータは、内部記憶装置1
09に記憶される。内部記憶装置109に記憶されてい
るコンピュータプログラム及びデータは、RAM104
に読込まれ、CPU101が実行することで音声データ
を解析して、感情の推定を行う解析サーバ100として
動作する。
【0099】図12は、被験者の情報処理装置200の
内部構成を示すブロック図である。情報処理装置200
は、具体的にはパーソナルコンピュータであり、CPU
201を備えている。該CPU201は、バス202を
介して、ROM203、RAM204、表示部205、
入力部206、通信部207、外部記憶装置208、及
び内部記憶装置209に接続されており、ROM203
に格納された制御プログラムを実行することで表示部2
05、入力部206等の各ハードウェアを制御する。
【0100】通信部207は、モデム等の回線終端装置
を備えている。通信部207は、通信ネットワークNを
介して、解析サーバ100へ接続し、解析サーバ100
からの要求を受信し、音声データ等の必要な情報を送信
する。
【0101】外部記憶装置208は、CD−ROMドラ
イブのような記憶装置からなり、内部記憶装置209
は、ハードディスクのような記憶装置からなる。内部記
憶装置209には、例えば、解析サーバ100から送信
されるウェブページを閲覧するウェブ・ブラウザ等がイ
ンストールされている。
【0102】また、音声入力部211は、解析サーバ1
00から送信されてきた質問情報に対する回答を音声で
入力するために、マイクロホン等の入力装置を備えてい
る。音声出力部212は、解析サーバ100から送信さ
れてきた質問情報を音声で出力するために、スピーカ等
の出力装置を備えている。
【0103】図13〜図15は、本実施の形態の感情推
定システムの動作手順を示すフローチャートである。ま
ず、被験者は音声データを送信するにあたって、URL
の入力、又は他のウェブページからの選択操作によっ
て、解析サーバ100にアクセス要求を行う(ステップ
S71)。アクセス要求を受信した解析サーバ100
は、ユーザID及びパスワードを入力させるためのウェ
ブページを情報処理装置200に送信する(ステップS
72)。
【0104】ウェブページを受信した情報処理装置20
0は、ユーザID及びパスワードの入力を受付け(ステ
ップS73)、入力されたユーザID及びパスワードを
解析サーバ100に送信する(ステップS74)。解析
サーバ100は、送信されたユーザID及びパスワード
を受信し(ステップS75)、それが登録ユーザのもの
であるか否かを判断する(ステップS76)。登録ユー
ザのものでない場合(S76:NO)、処理をステップ
S72に戻し、登録ユーザのものである場合(S76:
YES)、ストリーミング配信等で利用されるプロトコ
ル(RTP)を設定する(ステップS77)。
【0105】そして、解析サーバ100は、体調問診に
係る質問情報を送信する(ステップS78)。質問情報
は、文字データとして送信してもよく、また、音声デー
タとして送信してもよい。質問情報を受信した被験者の
情報処理装置200では、回答情報の受付けを行う(ス
テップS79)。回答情報の受付けは音声で行い、音声
入力部211によって入力された回答に係る音声データ
を解析サーバ100に送信する(ステップS80)。
【0106】解析サーバ100は、被験者の情報処理装
置200から送信された音声データを受信し(ステップ
S81)、受信した音声データの音響学的特徴を抽出す
る(ステップS82)。そして、抽出した音響学的特徴
から特徴量を算出して、解析データベース109aに記
憶させる(ステップS83)。次いで、体調問診に係る
質問情報をすべて送信したか否かを判断することによっ
て、体調問診が終了したか否かを判断する(ステップS
84)。体調問診が終了していない場合(S84:N
O)、処理をステップS78に戻す。
【0107】全ての質問情報を送信して、体調問診が終
了した場合(S84:YES)、データ収集期間である
か否かを判断する(ステップS85)。データ収集期間
である場合(S85:YES)、メンタル問診に係る質
問情報を被験者の情報処理装置200に送信する(ステ
ップS86)。質問情報は、文字データとして送信して
もよく、また、音声データとして送信してもよい。質問
情報を受信した被験者の情報処理装置200では、回答
情報の受付けを行う(ステップS87)。回答情報の受
付けは音声で行い、音声入力部211によって入力され
た回答に係る音声データを解析サーバ100に送信する
(ステップS88)。
【0108】解析サーバ100は、被験者の情報処理装
置200から送信された音声データを受信し(ステップ
S89)、受信した音声データの音声認識を行う(ステ
ップS90)。そして、音声認識により抽出された文字
列を評価することによって、感情得点を算出し、算出し
た感情得点を解析データベース109aに記憶させる
(ステップS91)。
【0109】ステップS85で、データ収集期間でない
と判断した場合(S85:NO)、重回帰式を設定する
(ステップS92)。重回帰式を設定する際、解析デー
タベース109aに既に記憶してある音圧レベル、ピッ
チ周波数、ピッチ周波数の時間変動、音声の継続時間、
及びジッタを説明変数、感情得点を目的変数として重回
帰分析を行う。そして、ステップS82にて新たに抽出
した特徴量を設定した重回帰式に代入し(ステップS9
3)、感情得点の推定値を得ることによって、感情の推
定を行う(ステップS94)。感情得点の推定値は、解
析データベース109aに記憶される(ステップS9
5)。
【0110】以上のように、音声データによる回答をイ
ンターネット等の通信ネットワークNを通じて解析サー
バ100に送信する構成としているため、音声データは
一般に圧縮した後に送信されることになるが、本実施の
形態では、5つの音響学的特徴を利用して推定を行って
いるため、圧縮による音声データの劣化から生じる感情
推定の誤差を縮小することができる。
【0111】本実施の形態でも、メンタル問診の回答か
ら求めた感情得点と重回帰分析によって推定した感情得
点との間に差が生じている場合に、感情得点の推定値の
補正を行ってもよい。また、感情得点に基づき感情を評
価する場合、前述したように被験者毎に基準値を設定し
て感情を評価してもよい。
【0112】
【発明の効果】以上、詳述したように、本発明による場
合は、互いに相関を有する2つの質問情報を出力し、出
力された質問情報に対する回答を夫々音声にて受付け、
一方の回答に係る音声から文字列情報を抽出し、他方の
回答に係る音声から音響学的特徴に係る特徴情報を抽出
し、抽出した文字列情報と特徴情報とから両者の相関関
係を設定し、質問情報の回答に係る音声を新たに受付け
た場合、受付けた音声から抽出した音響学的特徴に係る
特徴情報と設定した相関関係とに基づき、前記特徴情報
と相関がある文字列情報を特定する。したがって、例え
ば、一方の質問情報を被験者の感情に関する質問情報と
し、他方の質問情報を被験者の体調に係る質問とした場
合、体調に係る質問を被験者に答えてもらうことによっ
て、その被験者の感情を推定することが可能である。特
に、感情に関する質問で、被験者自身に特定の感情に対
する評価を答えてもらい、その評価と体調に係る質問の
回答から抽出した音響学的特徴との間に相関関係を設定
することによって、体調に係る質問の回答のみから、感
情の種類、及び感情の程度(抑揚)を定量的に推測する
ことが可能である。
【0113】また、本発明による場合は、質問情報の一
方が心理状態に関する質問情報であり、他方が体調に関
する質問情報である。したがって、被験者から発せられ
た音声に基づき、感情の意味内容、感情の程度を容易に
推定することができる。
【0114】更に本発明による場合は、質問情報に対す
る回答を音声にて受付ける際、所定の期間であるか否か
を判断し、所定の期間である場合にのみ、記憶してある
文字列情報と特徴情報との間の相関関係を設定するよう
にしている。したがって、本発明の情報処理システムの
利用開始時に、前述の相関関係を設定するために音声情
報を収集する期間(例えば、一週間程度)を設けること
ができる。また、加齢、被験者の体調等を適切に考慮し
て感情の推定を行うために、例えば、一ヶ月ごとに前記
相関関係を最新の状態に更新することができる。その
為、長期的に感情推定を行うことが可能であり、推定誤
差を縮小することが可能である。
【0115】更に本発明による場合は、記憶してある文
字列情報及び特徴情報から夫々を特徴づける特徴量を算
出し、算出した特徴量を用いた多変量解析により文字列
情報と特徴情報との相関関係を設定するようにしてい
る。したがって、複数の特徴量を利用して感情の推定を
行うことができるため、特定の音響学的特徴に被験者の
体調等の影響があった場合であっても、その影響を必要
最小限に抑えることが可能である等、本発明は優れた効
果を奏する。
【図面の簡単な説明】
【図1】本発明の情報処理装置を具体化した感情推定装
置の内部構成を示すブロック図である。
【図2】音声入力部から入力された音声情報の波形、及
び音声波形解析部によって抽出された特徴量の時間変化
の一例を示すグラフである。
【図3】各データベースの一例を示す概念図である。
【図4】音響学的特徴から算出された特徴量に対する感
情得点の得点分布の一例を示したグラフである。
【図5】感情推定装置の処理手順を示すフローチャート
である。
【図6】感情推定装置の処理手順を示すフローチャート
である。
【図7】本実施の形態に係る感情推定装置の処理手順を
示すフローチャートである。
【図8】重み係数の算出処理を示したフローチャートで
ある。
【図9】被験者毎に感情評価の基準値を設定する場合の
処理手順を示すフローチャートである。
【図10】本実施の形態の感情推定システムの構成を示
す模式図である。
【図11】解析サーバの内部構成を示すブロック図であ
る。
【図12】被験者の情報処理装置の内部構成を示すブロ
ック図である。
【図13】本実施の形態の感情推定システムの動作手順
を示すフローチャートである。
【図14】本実施の形態の感情推定システムの動作手順
を示すフローチャートである。
【図15】本実施の形態の感情推定システムの動作手順
を示すフローチャートである。
【符号の説明】
1 CPU 2 バス 3 ROM 4 RAM 5 表示部 6 入力部 8 外部記憶装置 9 内部記憶装置 9a 解析データベース 9b 質問情報データベース 10 記録媒体 100 解析サーバ 200 情報処理装置 N 通信ネットワーク
───────────────────────────────────────────────────── フロントページの続き (72)発明者 源野 広和 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 Fターム(参考) 5D015 HH13 HH21 KK02 LL11

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 質問情報の記憶手段及び出力手段と、音
    声の受付手段とを備える情報処理システムにより、前記
    記憶手段に記憶してある質問情報を出力し、出力した質
    問情報に対する回答を音声にて受付け、受付けた音声に
    係る音響学的特徴を抽出し、抽出した音響学的特徴に基
    づき、前記音声に付随する情報を推定する情報処理方法
    において、 前記記憶手段に予め記憶されており、互いに相関を有す
    る第1質問情報及び第2質問情報を前記出力手段により
    出力し、出力された第1及び第2質問情報に対する回答
    を夫々音声にて受付け、受付けた第1質問情報の回答に
    係る音声から文字列情報を抽出し、受付けた第2質問情
    報の回答に係る音声から音響学的特徴に係る1又は複数
    の特徴情報を抽出し、抽出した文字列情報と特徴情報と
    を関連付けて記憶し、記憶してある文字列情報と特徴情
    報とから両者の相関関係を設定し、前記受付手段により
    第2質問情報の回答に係る音声を新たに受付けた場合、
    受付けた音声から抽出した音響学的特徴に係る1又は複
    数の特徴情報と設定した相関関係とに基づき、前記特徴
    情報と相関がある文字列情報を特定することを特徴とす
    る情報処理方法。
  2. 【請求項2】 前記第1及び第2質問情報は、一方が心
    理状態に関する質問情報であり、他方が体調に関する質
    問情報であることを特徴とする請求項1に記載の情報処
    理方法。
  3. 【請求項3】 第1質問情報又は第2質問情報に対する
    回答を音声にて受付ける際、所定の期間であるか否かを
    判断し、所定の期間である場合にのみ、記憶してある文
    字列情報と特徴情報とから両者の相関関係を設定するこ
    とを特徴とする請求項1又は請求項2に記載の情報処理
    方法。
  4. 【請求項4】 記憶してある文字列情報及び特徴情報か
    ら夫々を特徴づける特徴量を算出し、算出した特徴量を
    用いた多変量解析により前記相関関係を設定することを
    特徴とする請求項1乃至請求項3の何れかに記載の情報
    処理方法。
  5. 【請求項5】 質問情報の記憶手段と、該記憶手段に記
    憶されている質問情報を出力する出力手段と、音声を受
    付ける手段とを備え、前記出力手段から出力された質問
    情報に対する回答を音声にて受付け、受付けた音声から
    抽出した音響学的特徴に基づき、前記音声に付随する情
    報を推定すべくなしてある情報処理システムにおいて、 前記記憶手段に予め記憶されており、互いに相関を有す
    る第1質問情報及び第2質問情報を出力する手段と、出
    力された第1及び第2質問情報に対する回答を夫々音声
    にて受付ける手段と、受付けた第1質問情報の回答に係
    る音声から文字列情報を抽出する文字列情報抽出手段
    と、受付けた第2質問情報の回答に係る音声から音響学
    的特徴に係る1又は複数の特徴情報を抽出する特徴情報
    抽出手段と、抽出した文字列情報及び特徴情報を関連付
    けて記憶する手段と、記憶してある文字列情報と特徴情
    報とから両者の相関関係を設定する手段とを備え、前記
    受付手段により第2質問情報の回答に係る音声を新たに
    受付けた場合、受付けた音声から抽出した音響学的特徴
    に係る1又は複数の特徴情報と設定した相関関係とに基
    づき、前記特徴情報と相関がある文字列情報を特定すべ
    くなしてあることを特徴とする情報処理システム。
  6. 【請求項6】 通信ネットワークを介して接続された第
    1情報処理装置と第2情報処理装置とを備え、前記第1
    情報処理装置は、質問情報の記憶手段と、該記憶手段に
    記憶されている質問情報を送信する送信手段とを備え、
    前記第2情報処理装置は、前記通信ネットワークを通じ
    て送信された質問情報を受信する手段と、受信した質問
    情報に対する回答を音声にて受付ける手段と、受付けた
    音声に係る音声情報を送信する手段とを備え、前記第1
    情報処理装置は、前記通信ネットワークを通じて受信し
    た音声情報から抽出した音響学的特徴に基づき、前記音
    声情報に付随する情報を推定すべくなしてある情報処理
    システムにおいて、 前記第2情報処理装置は、前記第1情報処理装置の前記
    記憶手段に予め記憶されており、互いに相関を有する第
    1質問情報及び第2質問情報を前記ネットワークを通じ
    て受信する手段と、受信した第1及び第2質問情報を出
    力する手段と、出力された第1及び第2質問情報に対す
    る回答を夫々音声にて受付ける手段と、受付けた音声に
    係る音声情報を送信する手段とを備え、 前記第1情報処理装置は、受信した第1質問情報の回答
    に係る音声情報から文字列情報を抽出する文字列情報抽
    出手段と、受信した第2質問情報の回答に係る音声情報
    から音響学的特徴に係る1又は複数の特徴情報を抽出す
    る特徴情報抽出手段と、抽出した文字列情報及び特徴情
    報を関連付けて記憶する手段と、記憶してある文字列情
    報と特徴情報とから両者の相関関係を設定する手段とを
    備え、第2質問情報の回答に係る音声情報を前記第2情
    報処理装置から新たに受信した場合、受信した音声情報
    から抽出した音響学的特徴に係る1又は複数の特徴情報
    と設定した相関関係とに基づき、前記特徴情報と相関が
    ある文字列情報を特定すべくなしてあることを特徴とす
    る情報処理システム。
  7. 【請求項7】 前記第1及び第2質問情報は、一方が心
    理状態に関する質問情報であり、他方が体調に関する質
    問情報であることを特徴とする請求項5又は請求項6に
    記載の情報処理システム。
  8. 【請求項8】 第1質問情報又は第2質問情報に対する
    回答を音声にて受付ける際、所定の期間であるか否かを
    判断する手段を備え、所定の期間である場合にのみ、記
    憶してある文字列情報と特徴情報とから両者の相関関係
    を設定すべくなしてあることを特徴とする請求項5乃至
    請求項7の何れかに記載の情報処理システム。
  9. 【請求項9】 記憶してある文字列情報及び特徴情報か
    ら夫々を特徴づける特徴量を算出し、算出した特徴量を
    用いた多変量解析により前記相関関係を設定すべくなし
    てあることを特徴とする請求項5乃至請求項8の何れか
    に記載の情報処理システム。
  10. 【請求項10】 質問情報の記憶手段と、該記憶手段に
    記憶されている質問情報を出力する出力手段と、音声の
    受付手段とを備え、前記出力手段から出力された質問情
    報に対する回答を音声にて受付け、受付けた音声から抽
    出した音響学的特徴に基づき、前記音声に付随する情報
    を推定すべくなしてある情報処理装置において、 前記記憶手段に予め記憶されており、互いに相関を有す
    る第1質問情報及び第2質問情報を出力する手段と、出
    力された第1及び第2質問情報に対する回答を夫々音声
    にて受付ける手段と、受付けた第1質問情報の回答に係
    る音声から文字列情報を抽出する文字列情報抽出手段
    と、受付けた第2質問情報の回答に係る音声から音響学
    的特徴に係る1又は複数の特徴情報を抽出する特徴情報
    抽出手段と、抽出した文字列情報及び特徴情報を関連付
    けて記憶する手段と、記憶してある文字列情報と特徴情
    報とから両者の相関関係を設定する手段とを備え、前記
    受付手段により第2質問情報の回答に係る音声を新たに
    受付けた場合、受付けた音声から抽出した音響学的特徴
    に係る1又は複数の特徴情報と設定した相関関係とに基
    づき、前記特徴情報と相関がある文字列情報を特定すべ
    くなしてあることを特徴とする情報処理装置。
  11. 【請求項11】 通信ネットワークに接続可能になして
    あり、音声情報を受信する手段を備え、受信した音声情
    報から抽出した音響学的特徴に基づき、前記音声情報に
    付随する情報を推定すべくなしてある情報処理装置にお
    いて、 互いに相関を有する第1質問情報及び第2質問情報に対
    する回答を前記通信ネットワークを通じて夫々音声情報
    にて受信する手段と、受信した第1質問情報の回答に係
    る音声情報から該音声情報が含む文字列情報を抽出する
    文字列情報抽出手段と、受信した第2質問情報の回答に
    係る音声情報から音響学的特徴に係る1又は複数の特徴
    情報を抽出する特徴情報抽出手段と、抽出した文字列情
    報及び特徴情報を関連付けて記憶する手段と、記憶して
    ある文字列情報と特徴情報とから両者の相関関係を設定
    する手段とを備え、第2質問情報の回答に係る音声情報
    を新たに受信した場合、受信した音声情報から抽出した
    音響学的特徴に係る1又は複数の特徴情報と設定した相
    関関係とに基づき、前記特徴情報と相関がある文字列情
    報を特定すべくなしてあることを特徴とする情報処理装
    置。
  12. 【請求項12】 前記第1及び第2質問情報は、一方が
    心理状態に関する質問情報であり、他方が体調に関する
    質問情報であることを特徴とする請求項10又は請求項
    11に記載の情報処理装置。
  13. 【請求項13】 第1質問情報又は第2質問情報に対す
    る回答を音声にて受付ける際、所定の期間であるか否か
    を判断する手段を備え、所定の期間である場合にのみ、
    記憶してある文字列情報と特徴情報とから両者の相関関
    係を設定すべくなしてあることを特徴とする請求項10
    乃至請求項12の何れかに記載の情報処理装置。
  14. 【請求項14】 記憶してある文字列情報及び特徴情報
    から夫々を特徴づける特徴量を算出し、算出した特徴量
    を用いた多変量解析により前記相関関係を設定すべくな
    してあることを特徴とする請求項10乃至請求項13の
    何れかに記載の情報処理装置。
  15. 【請求項15】 前記特徴情報抽出手段は、入力された
    音声情報の音圧を検出する検出手段、ピッチ周波数を検
    出する検出手段、継続時間を検出する検出手段、又はジ
    ッタを検出する検出手段のうち少なくとも一の検出手段
    を備えることを特徴とする請求項10乃至請求項14の
    何れかに記載の情報処理装置。
  16. 【請求項16】 特定された文字列情報に応じた適宜情
    報を出力する手段を更に備えることを特徴とする請求項
    10乃至請求項15の何れかに記載の情報処理装置。
  17. 【請求項17】 コンピュータに、入力された音声情報
    に係る音響学的特徴を抽出させ、抽出させた音響学的特
    徴に基づき、前記音声情報に付随する情報を推定させる
    ステップを有するコンピュータプログラムにおいて、 コンピュータに、互いに相関を有する第1質問情報及び
    第2質問情報を出力させるステップと、コンピュータ
    に、出力された第1及び第2質問情報に対する回答を夫
    々音声情報にて入力させるステップと、コンピュータ
    に、入力された第1質問情報の回答に係る音声情報から
    文字列情報を抽出させるステップと、コンピュータに、
    受付けた第2質問情報の回答に係る音声情報から音響学
    的特徴に係る1又は複数の特徴情報を抽出させるステッ
    プと、コンピュータに、抽出させた文字列情報及び特徴
    情報を関連付けて記憶させるステップと、コンピュータ
    に、記憶してある文字列情報と特徴情報とから両者の相
    関関係を設定させるステップと、コンピュータに、第2
    質問情報に対する回答に係る音声情報を新たに受付けた
    場合、受付けた音声情報から抽出した音響学的特徴に係
    る1又は複数の特徴情報と設定させた相関関係とに基づ
    き、前記特徴情報と相関がある文字列情報を特定させる
    ステップとを有することを特徴とするコンピュータプロ
    グラム。
  18. 【請求項18】 コンピュータに、入力された音声情報
    に係る音響学的特徴を抽出させ、抽出させた音響学的特
    徴に基づき、前記音声情報に付随する情報を推定させる
    ステップを有するコンピュータプログラムが記録されて
    いるコンピュータでの読取りが可能な記録媒体におい
    て、 コンピュータに、互いに相関を有する第1質問情報及び
    第2質問情報を出力させるステップと、コンピュータ
    に、出力された第1及び第2質問情報に対する回答を夫
    々音声情報にて入力させるステップと、コンピュータ
    に、入力された第1質問情報の回答に係る音声情報から
    文字列情報を抽出させるステップと、コンピュータに、
    受付けた第2質問情報の回答に係る音声情報から音響学
    的特徴に係る1又は複数の特徴情報を抽出させるステッ
    プと、コンピュータに、抽出させた文字列情報及び特徴
    情報を関連付けて記憶させるステップと、コンピュータ
    に、記憶してある文字列情報と特徴情報とから両者の相
    関関係を設定させるステップと、コンピュータに、第2
    質問情報に対する回答に係る音声情報を新たに受付けた
    場合、受付けた音声情報から抽出した音響学的特徴に係
    る1又は複数の特徴情報と設定させた相関関係とに基づ
    き、前記特徴情報と相関がある文字列情報を特定させる
    ステップとを有するコンピュータプログラムが記録され
    ていることを特徴とするコンピュータでの読取りが可能
    な記録媒体。
JP2002024823A 2002-01-31 2002-01-31 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体 Expired - Fee Related JP3973434B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002024823A JP3973434B2 (ja) 2002-01-31 2002-01-31 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体
US10/356,331 US7315821B2 (en) 2002-01-31 2003-01-31 System and method for health care information processing based on acoustic features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002024823A JP3973434B2 (ja) 2002-01-31 2002-01-31 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体

Publications (2)

Publication Number Publication Date
JP2003228391A true JP2003228391A (ja) 2003-08-15
JP3973434B2 JP3973434B2 (ja) 2007-09-12

Family

ID=27747152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002024823A Expired - Fee Related JP3973434B2 (ja) 2002-01-31 2002-01-31 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体

Country Status (1)

Country Link
JP (1) JP3973434B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267464A (ja) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The 感情解析装置、感情解析プログラム、プログラム格納媒体
JP2016085478A (ja) * 2016-02-12 2016-05-19 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
JP2017140170A (ja) * 2016-02-09 2017-08-17 Pst株式会社 推定方法、推定プログラム、推定装置および推定システム
JP2017220807A (ja) * 2016-06-08 2017-12-14 株式会社日立システムズ 音声データ収集システム
US10224060B2 (en) 2014-03-25 2019-03-05 Sharp Kabushiki Kaisha Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101937678A (zh) * 2010-07-19 2011-01-05 东南大学 一种针对烦躁情绪的可据判的自动语音情感识别方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006267464A (ja) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The 感情解析装置、感情解析プログラム、プログラム格納媒体
JP4587854B2 (ja) * 2005-03-23 2010-11-24 東京電力株式会社 感情解析装置、感情解析プログラム、プログラム格納媒体
US10224060B2 (en) 2014-03-25 2019-03-05 Sharp Kabushiki Kaisha Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method
JP2017140170A (ja) * 2016-02-09 2017-08-17 Pst株式会社 推定方法、推定プログラム、推定装置および推定システム
JP2016085478A (ja) * 2016-02-12 2016-05-19 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
JP2017220807A (ja) * 2016-06-08 2017-12-14 株式会社日立システムズ 音声データ収集システム

Also Published As

Publication number Publication date
JP3973434B2 (ja) 2007-09-12

Similar Documents

Publication Publication Date Title
US7315821B2 (en) System and method for health care information processing based on acoustic features
CN107818798B (zh) 客服服务质量评价方法、装置、设备及存储介质
JP6263308B1 (ja) 認知症診断装置、認知症診断方法、及び認知症診断プログラム
KR102237539B1 (ko) 음성 대화 분석을 기반으로 하는 치매 및 인지 능력 판단 시스템 및 방법
JP6755304B2 (ja) 情報処理装置
CN108806720B (zh) 话筒、数据处理器、监测系统及监测方法
JP4965322B2 (ja) ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム
JP2020524308A (ja) 声紋モデルを構築する方法、装置、コンピュータデバイス、プログラム及び記憶媒体
CN110782962A (zh) 听力语言康复装置、方法、电子设备及存储介质
JP4495907B2 (ja) 音声の分析の方法及び装置
US7571101B2 (en) Quantifying psychological stress levels using voice patterns
WO2006132159A1 (ja) ピッチ周波数を検出する音声解析装置、音声解析方法、および音声解析プログラム
WO2020155490A1 (zh) 基于语音分析的管理音乐的方法、装置和计算机设备
JPWO2019246239A5 (ja)
Wambaugh et al. Interrater reliability and concurrent validity for the Apraxia of Speech Rating Scale 3.0: Application with persons with acquired apraxia of speech and aphasia
US20040167774A1 (en) Audio-based method, system, and apparatus for measurement of voice quality
CN111681779A (zh) 一种医疗诊断系统
JP2004240394A (ja) 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
CN112686048A (zh) 基于语音、语义、面部表情融合的情绪识别方法及装置
WO2020013296A1 (ja) 精神・神経系疾患を推定する装置
JP2019133451A (ja) 評価方法、評価装置、評価プログラム、および、評価システム
JP2003228391A (ja) 情報処理方法、情報処理システム、情報処理装置、コンピュータプログラム、及び記録媒体
JP2006230548A (ja) 体調判定装置およびそのプログラム
KR20180043925A (ko) 노래 평가 시스템, 노래 평가 서버 및 노래 평가 서비스 제공 방법
US20100153101A1 (en) Automated sound segment selection method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070612

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees