JP2009042671A - 感情を判定するための方法 - Google Patents

感情を判定するための方法 Download PDF

Info

Publication number
JP2009042671A
JP2009042671A JP2007210066A JP2007210066A JP2009042671A JP 2009042671 A JP2009042671 A JP 2009042671A JP 2007210066 A JP2007210066 A JP 2007210066A JP 2007210066 A JP2007210066 A JP 2007210066A JP 2009042671 A JP2009042671 A JP 2009042671A
Authority
JP
Japan
Prior art keywords
subject
value
voice
predetermined
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007210066A
Other languages
English (en)
Other versions
JP5026887B2 (ja
Inventor
Tomoko Sano
智子 佐野
Atsushi Katayama
敦 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2007210066A priority Critical patent/JP5026887B2/ja
Publication of JP2009042671A publication Critical patent/JP2009042671A/ja
Application granted granted Critical
Publication of JP5026887B2 publication Critical patent/JP5026887B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】所望の刺激に対する被験者の快/不快の感情をより的確に判定する。
【解決手段】所望の刺激が与えられる前に被験者が発した音声から所定の種類の音声パラメータの値(第1の値)を抽出し、次に、同じ被験者(被験者A)に前記所望の刺激が提供されているとき、または、被験者Aに前記所望の刺激が提供されていたときの状況を被験者Aが想起しているときに、被験者Aが発した音声から、前記所定の種類と同じ種類の音声パラメータの値(第2の値)を抽出する。前記第1の値と前記第2の値を比較し、この比較結果に基づいて、前記第2の音声を発したときの被験者Aの感情が快であるか否かを判定する。
【選択図】図5

Description

本発明は、被験者の音声から被験者の感情を判定するための装置及び方法に関する。
被験者の音声信号を音声分析することにより当該被験者の感情を検出する装置は公知であり、特に、被験者の音声信号から、基本周波数、第1及び第2フォルマント等の音声パラメータを抽出して、当該被験者の感情を検出する装置として、特許文献1に記載されているものがある。
特許文献1では、被験者の音声信号から抽出した音声パラメータと所定のデータベースに蓄積された音声パラメータとの比較に基づいてその被験者の感情を判定しているが、このデータベースは、特別に選択された特定の複数の被験者の感情と音声パラメータに関する統計情報を含むものである。
特表2003−508805号公報
上記のように、特許文献1に開示された方法では、それぞれの被験者の音声から抽出されたデータと比較されるのは、データベースに予め蓄積された、特定の複数の被験者の音声から抽出されたデータである。このため、この方法によって、たとえば、何らかの刺激を受けた後の被験者の感情を検出する場合には、その刺激を受ける前における当該被験者固有の音声の特性は何ら考慮されない。したがって、このような場合には、感情検出の精度が低下したり、被験者間での感情の検出精度のバラツキが大きくなるという問題があった。
本発明は、かかる問題点に鑑みてなされたものであり、ある刺激(たとえば視覚情報など)に対する被験者の感情を判定する際に、その刺激が与えられる前における被験者の音声特性をも個別に考慮に入れることにより、その刺激を受けた状態における被験者の感情が快であるか(たとえば、刺激に対して好感や興味を持ったり、喜び、楽しみなどの感情を抱いているか)、または、不快であるか(たとえば、刺激に対して嫌悪感を持ったり、失望したり、悲しみや怒りなどの感情を抱いているか)を、より的確に判定しうる感情判定手段を提供しようとするものである。
図5は本発明の概念を説明するためのフローチャートであり、本発明は、図5に示す本発明の概念を実施する方法を本発明の範囲に含む。この方法は、所定の刺激が与えられる前に被験者が発した音声を第1の音声信号として取得するステップ(ステップ510)と、前記第1の音声信号から所定の種類の音声パラメータの値(第1の値)を抽出するステップ(ステップ520)と、前記被験者に所定の刺激が提供されているとき、または、前記被験者に前記所定の刺激が提供されていたときの状況を前記被験者が想起しているときに、前記被験者が発した音声を第2の音声信号として取得するステップ(ステップ530)と、前記第2の音声信号から前記所定の種類と同じ種類の音声パラメータの値(第2の値)を抽出するステップ(ステップ540)と、前記第1の値と前記第2の値を比較するステップ(ステップ550)と、この比較結果に基づいて、前記第2の音声を発したときの前記被験者の感情が快であるか否かを判定するステップ(ステップ560)を含む。
この方法には、さらに、ステップ520と530の間に前記所定の刺激を前記被験者に提供するステップ、または、前記被験者に前記所定の刺激が提供されていたときの状況を前記被験者に想起させるステップを含めてもよい。
本発明は、また、図5に示す本発明の概念を実現するための装置を本発明の範囲に含む。この装置は、被験者の音声信号を取得する音声信号取得手段と、前記音声信号から少なくとも1つの種類の音声パラメータの値を抽出する音声パラメータ値抽出手段と、抽出された音声パラメータの2つの値を比較して、この比較結果に基づいて、前記被験者の感情が快であるか否かを判定する判定手段を備える。この判定手段は、前記被験者に所定の刺激が提供される前に該被験者が発した音声信号(第1の音声信号)から抽出された音声パラメータの値(第1の値)と、抽出した前記音声パラメータと同じ種類の音声パラメータの値であって、前記被験者に前記所定の刺激が提供されているとき、または、前記被験者に前記所定の刺激が提供されていたときの状況を前記被験者が想起しているときに該被験者が発した音声信号(第2の音声信号)から抽出された音声パラメータの値(第2の値)との2つの値を比較し、この比較結果に基づいて、前記第2の音声信号を発したときの前記被験者の感情を判定する。
この装置には、さらに、所望の刺激を被験者に提供するための刺激提供手段を設けてもよい。
上記方法または装置における比較結果は、いずれも、前記第2の値から前記第1の値を減算した結果である差分値とすることができ、さらに、この差分値と所定の値とを比較した結果に基づいて、被験者の感情が快か不快を判定するようにすることができる。
尚、上記刺激は、人間の視覚、聴覚、臭覚、触覚、味覚のいずれか、またはこれらの任意の組みわせに作用するものとすることができる。
ところで、感情の判定精度をより高めるために、被験者に所定の刺激を提示する前においては、被験者が、なるべく快または不快の感情を抱いていない状態で発した音声を取得し、これによって、抽出される音声パラメータ値に付加される、快または不快感情に起因するバイアスを最小化するのが好ましい。これを実現するために、たとえば、十分な数の被験者に対する事前の調査・実験により、多数の被験者に「快」または「不快」のいずれの感情も喚起させないことが検証された刺激(中性刺激という)を予め準備しておき、この中性刺激を所定の刺激を提供する前に被験者に提供するようにしてもよい。
本発明によれば、所定の刺激情報が提供される前と提供されたとき(または、提供された後)のそれぞれにおいて同じ被験者から得られた音声パラメータが比較されるため、所定の刺激に対する被験者の感情判定において、その所定の刺激情報が提供される前の当該被験者固有の音声特性も考慮したより精度の高い判定が可能である。したがって、例えば、新しい商品やサービスなどを被験者に提示して、それらの商品等が提示される前と提示されたときの被験者の音声、あるいは、被験者がそれらの商品等を提示された時のことを回想してインタビューに応えている時の音声を、本発明にしたがって処理することにより、被験者の言葉や表情だけからは測りきれない、それらの商品等に対して抱いた被験者の感情をより的確に推定することが可能となる。
本発明の実施例を説明する前に、本発明の契機となった実験の概要及びその実験結果を示す。
この実験は、所定の感情価をもつ複数の画像を予め準備して、20名以上の被験者を対象として行われ、それらの複数の画像を提示する前の比較的落ち着いた状態で各被験者が発した音声と、それらの画像を各被験者に提示した後に各被験者が発した音声とからそれぞれ抽出された音声パラメータの値が分析された。提示した画像は、先行調査によって、快感情を喚起する画像(タイプ1の画像)、不快感情を喚起する画像(タイプ2の画像)、快及び不快のいずれの感情も喚起しない画像(タイプ3の画像。いわゆる中性画像)として検証されたものである。実験は、
1)各被験者に「a、e、i、o、u」と発声してもらい、自然な形でこの音声を録音し、これを5回繰り返す。
2)次に、タイプ3の画像、タイプ1の画像、タイプ3の画像、タイプ2の画像、タイプ3の画像の順、またはタイプ3の画像、タイプ2の画像、タイプ3の画像、タイプ1の画像、タイプ3の画像の順で被験者に提示し、それぞれのタイプの画像の提示が終了する毎に、各被験者に、「このテーマは」に続いて、一連の画像のテーマを回答してもらい、この音声を録音する。
という手順で行った。
上記2)の各試行から得られたそれぞれの被験者の音声から「このテーマは」の部分を切り出して、平均基本周波数(F0)、最大基本周波数(F0MAX)、最小基本周波数(F0MIN)、平均強度(INT.)、第1〜第4フォルマント周波数(F1〜F4)を音声パラメータとして音声分析を行った。上記1)で録音した音声についても同様の音声分析を行い、5回の平均値を算出して、この平均値をベースラインとし、このベースラインと上記2)の各試行での音声分析の結果との差を算出し、快刺激、不快刺激の平均値を算出した。また、得られた値について、対応のあるt検定を行った。これらの結果を表1に示す。
Figure 2009042671
以上の実験結果から、平均基本周波数(F0)、第1〜第4フォルマントの各周波数(F1〜F4)、最大基本周波数(F0MAX)、最小基本周波数(F0MIN)といった音声パラメータは、外部刺激が与えられているときの被験者の快または不快感情を推測するための音声パラメータとして利用できることがわかった。特に、平均基本周波数(F0)、第1フォルマント周波数(F1)、第3フォルマント周波数(F3)は有効なパラメータとなりうることが認められた。
1.第1の実施形態
図1は、本発明の第1の実施形態に係る感情判定装置100のブロック図である。
感情判定装置100は、音声信号取得ブロック110、音声パラメータ値抽出ブロック120、感情判定ブロック130、表示手段140、制御手段150、及びユーザインターフェース手段160から構成される。
音声信号取得ブロック110は、マイクロホン112とA/D(アナログ−ディジタル)変換器114から構成される。A/D変換器114の出力は、次段の音声パラメータ値抽出ブロック120に入力される。
音声パラメータ値抽出ブロック120は、平均基本周波数(F0)抽出手段120a、最大基本周波数(F0MAX)抽出手段120b、最小基本周波数(F0MIN)抽出手段120c、第1フォルマント(F1)抽出手段120d、第2フォルマント(F2)抽出手段120e、第3フォルマント(F3)抽出手段120f、第4フォルマント(F4)抽出手段120gを備える(但し、感情判定装置100は、これらの抽出手段の全てではなく、少なくとも1つの抽出手段を備える構成であってもよいが、少なくともF0、F0MAX、F0MIN、F1及びF3の5つの種類のパラメータの値、または、これらの5つのうちの少なくとも1つの種類のパラメータの値を抽出する手段を備えることが好ましい)。抽出手段120a〜120gのそれぞれは、A/D変換器114の出力であるディジタル音声信号を受信して、音声パラメータ、すなわち、平均基本周波数、最大基本周波数、最小基本周波数、第1フォルマント周波数、第2フォルマント周波数、第3フォルマント周波数、第4フォルマント周波数の値をそれぞれ抽出して出力する。これら7つの抽出手段としては、いずれも周知の構成を採用することができる。
感情判定ブロック130は、レジスタ手段131a〜131g、選択手段132、第1の比較手段133、第2の比較手段134、第3の比較手段135、第1のメモリ手段136、第2のメモリ手段137、及び判定部138から構成される。各抽出手段120a〜120gの出力は、対応する次段のレジスタ手段131a〜131g及び選択手段132の対応する入力B0〜B6のそれぞれに接続されている。選択手段132は、制御手段150による指示にしたがって、A0とB0、A1とB1、A2とB2、A3とB3、A4とB4、A5とB5、A6とB6のいずれか1つの組を選択して出力するものであり、出力QAからはA0〜A6のうちの選択されたものを、出力QBからは対応するB0〜B6のうちの選択されたものを出力するように構成されている。第1の比較手段133は、選択手段132の出力QA、QBから出力される信号(以下、説明の簡単のためにこれらの信号もそれぞれ、QA、QBと呼ぶ)を受信し、QAとQBの値を比較して比較結果ΔQを出力する。この実施形態では、第1の比較手段133は、QAの値をQBの値から減算した結果(差分値)を比較結果ΔQとして出力するように構成されている。
第2の比較手段134は、第1の比較手段133の出力ΔQと第1のメモリ手段136の出力を受信し、それら2つの出力の値を比較して比較結果ΔXを出力する。第3の比較手段135は、第1の比較手段133の出力ΔQと第2のメモリ手段137の出力を受信し、それら2つの出力の値を比較して比較結果ΔYを出力する。
第1のメモリ手段136には、上記の各音声パラメータ毎に予め決められた上限値が格納されており、第1のメモリ手段136は、制御手段150による制御により、第1の比較手段133でΔQを得るために比較対象とされた音声パラメータと同じ種類の音声パラメータについての上限値を第2の比較手段134に送出するように構成されている。
第2のメモリ手段137には、上記の各音声パラメータ毎に予め決められた下限値が格納されており、第2のメモリ手段137は、制御手段150による制御により、第1の比較手段133でΔQを得るために比較対象とされた音声パラメータと同じ種類の音声パラメータについての下限値を第3の比較手段135に送出するように構成されている。すなわち、比較される音声パラメータの種類は第1〜第3の比較手段で共通であり、各々の比較手段で比較される2つの値は同じ種類の音声パラメータについてのものである。尚、各音声パラメータについて、上限値≧下限値である。
この実施形態では、第2の比較手段134は、第1の比較手段133の出力値ΔQから第1のメモリ手段136の出力値を減算した結果(差分値)を比較結果ΔXとして出力し、第3の比較手段135は、第2のメモリ手段137の出力値から第1の比較手段133の出力値ΔQを減算した結果(差分値)を比較結果ΔYとして出力するようにそれぞれ構成されている。
ここで、上記上限値は、被験者の音声から得られたΔQの値が、この音声パラメータの上限値を超えたときには、その被験者は、その音声を発したときに快の感情を有していたと認めるのに適する値として選択されたものであり、同様に、上記下限値は、被験者の音声から得られたΔQの値がこの下限値を下回ったときには、その被験者は、その音声を発したときに不快の感情を有していたと認めるのに適する値として選択されたものである。尚、これらの上限値及び下限値は、たとえば、事前の調査・実験において、十分な数の被験者を対象として、様々な刺激を与える前と与えた後の各音声パラメータ値を取得・分析した結果に基づいて決定することができる。
判定部138は、比較結果ΔX及びΔYを受信して、これらの値に基づいて後述のようにして被験者の感情が快か否かを判定する。
表示手段140はモニタ等の表示装置からなり、判定部138による判定結果を表示する。
制御手段150は、ユーザインターフェース手段(以下、I/Fという)160を介して入力されたユーザの指示に基づいて、上記各コンポーネントの動作を制御する。たとえば、制御手段150は、どの音声パラメータが感情判定用のパラメータとして有効となっているかを判断して、その有効な音声パラメータの値が選択手段132の出力QA、QBからそれぞれ出力されるように選択手段132を制御する。また、平均基本周波数による感情判定に続いて、最大基本周波数から第4フォルマント周波数までの各音声パラメータについて、順次感情判定が行われるよう各コンポーネントを制御することもできる。
I/F160は、ユーザのキー入力(不図示)によるユーザの指示に応答して、たとえば、装置100の起動/停止や音声信号取得ブロック110への音声信号取得開始を制御手段に伝える。
以上のように構成された感情判定装置100の動作を、その動作の1例を示す図2のフローチャートを参照して説明する。
図2は、感情判定装置100を用いて、被験者がある刺激を受けたときの当該被験者の感情を判定する場合の動作フローを示す図である。被験者に与える刺激としては、上記のように、被験者の視覚、聴覚、臭覚、触覚、味覚のいずれか、またはこれらの任意の組みわせに作用するものを使用できるが、ここでは、1例として、視覚情報を被験者に与える場合について説明する。具体的には、任意に選択された一人の被験者Aが特定の製品、ここでは、ある特定のビデオカメラ(以下、ビデオカメラVという)を見ることによって受けた刺激に応答してその被験者Aが快と感じたか否か(すなわち、快、不快、または、快でも不快でもない、のいずれの感情を抱いたか)を判定するものとする。したがって、この場合の刺激は、ビデオカメラの外観という視覚情報である。尚、装置100の操作者を操作者B(不図示)とする。
まず、ステップ200において、装置100は音声信号取得の指示を待つ。このステップ中に、操作者Bは、被験者Aに不図示のビデオカメラVによる視覚刺激がまだ提供されていないこと、たとえば、被験者AがビデオカメラVをまだ視認していないことを確認すると、適宜のタイミングでI/F160に設けられた不図示の音声信号取得スタートキーを押下することができる。このキー押下に応答して、制御手段150は音声信号取得ブロック110に音声信号取得の開始を指示する。
一方、操作者Bは、音声信号取得スタートキーの押下後、被験者Aが所定時間(たとえば、10〜30秒程度)継続して音声を発したことを確認すると、I/F160に設けられた不図示の音声信号取得ストップキーを押下することによって、装置100に音声信号取得の停止を指示することができる。実際には、このキー押下に応答して、制御手段150が音声信号取得ブロック110に音声信号取得の停止を指示し、これにより、音声信号取得処理が停止される。
ステップ210において、音声信号取得ブロック110は、ステップ200における音声信号取得の指示に応答して、被験者Aが発した音声をマイクロホン112を通じてアナログ音声信号に変換し、このアナログ音声信号をA/D変換器114でサンプリングしてディジタル音声信号に変換する。このときの被験者Aの音声は、被験者AがビデオカメラVを視認する前、すなわち、ビデオカメラVからの刺激情報は何ら受け取っていないとみなすことが可能な状態において発せられた音声である。
A/D変換器114から出力されたディジタル音声信号は、音声パラメータ値抽出ブロック120の各抽出手段120a〜120gに送られる。以下では、説明を簡単にするために、音声パラメータ値として平均基本周波数(F0)を抽出して被験者Aの感情を判定する場合を1例(以下、本例として参照する)として説明する。したがって、本例では、ディジタル音声信号は、少なくとも平均基本周波数抽出手段120aに送られることになる。
ステップ220において、平均基本周波数抽出手段120aは、A/D変換器114から受信したディジタル音声信号に対して周知の処理を施して平均基本周波数を抽出する。抽出された平均基本周波数の値を表す信号はレジスタ手段131aに送出され、制御手段150の制御の下、レジスタ手段131aには被験者Aの音声から抽出された平均基本周波数が格納される(以下、ステップ220で抽出された平均基本周波数を第1の平均基本周波数という)。以上の処理は他の抽出手段についても同様であり、たとえば、第1フォルマント(F1)抽出手段120dにおいて抽出された第1フォルマント周波数はレジスタ手段131dに送られる。
ステップ230において、再び、装置100は音声信号取得の指示を待つ。このステップ中に、操作者Bは、被験者AにビデオカメラVの視覚情報という刺激が提供されていること、たとえば、被験者AがビデオカメラVを所定時間継続して注視している(より具体的には、たとえば、被験者Aが2分間程継続してビデオカメラVに見入っている)ことを確認すると、上記と同様にI/F160の音声信号取得スタートキーを適宜のタイミングで押下することができる。このキー押下に応答して、制御手段150は音声信号取得ブロック110に音声信号取得の開始を指示する。
音声信号取得ブロック110は、ステップ230における音声信号取得指示を検出すると、ステップ240において、被験者Aが発した音声をマイクロホン112を通じてアナログ音声信号に変換し、このアナログ音声信号をA/D変換器114でサンプリングしてディジタル音声信号に変換する。このときの被験者Aの音声は、被験者AがビデオカメラVを所定時間継続して注視したことによる視覚刺激を受けているとき(または、その視覚刺激を受けた直後、たとえば、ビデオカメラの注視をやめてから2分程度以内)に所定時間(たとえば、10〜30秒程度)継続して発した音声である。
A/D変換器114から出力されたディジタル音声信号は、ステップ220で抽出したのと同じ種類の音声パラメータ値を抽出する抽出手段に送られる。本例では、少なくとも平均基本周波数抽出手段120aに送られることになる。
ステップ250は、ステップ220で抽出したのと同じ種類の音声パラメータの値を抽出するステップである。本例では、平均基本周波数抽出手段120aが、ステップ220と同様にして、A/D変換器114から受信したディジタル音声信号から平均基本周波数を抽出して出力する(以下、ステップ250で抽出された平均基本周波数を第2の平均基本周波数という)。しかしながら、今度は、制御手段150の制御の下、レジスタ手段131aにはこの第2の平均基本周波数は格納されず、レジスタ手段131aの内容は変更されない。
平均基本周波数抽出手段120aから第2の平均基本周波数が出力されると同時に、制御手段150による制御の下、レジスタ手段131aから第1の平均基本周波数が出力される。したがって、この時点で、選択手段132のA0、B0入力には、それぞれ、レジスタ手段131aの出力、すなわち、第1の平均基本周波数と、平均基本周波数抽出手段120aの出力、すなわち、第2の平均基本周波数が入力されている。選択手段132は、制御手段150の制御の下、出力QA、QBに、それぞれ、入力A0、B0に入力されている値、すなわち、第1の平均基本周波数、第2の平均基本周波を出力する。したがって、第1の比較手段133には、第1の平均基本周波数及び第2の平均基本周波数が入力される。
次のステップ260は、ステップ220と250で抽出された音声パラメータの値に基づいて被験者の感情が快か否かを判定するステップであり、ステップ262〜268からなる。
ステップ262は、ステップ220とステップ250で抽出された音声パラメータのうち同じ種類の音声パラメータの値同士を比較するステップである。本例では、第1の平均基本周波数と第2の平均基本周波数とが比較され、より具体的には、第1の比較手段133は、第1の平均基本周波数を第2の平均基本周波から減算した値(差分値)ΔQmbfを出力する。したがって、ステップ262では、ビデオカメラVの視覚情報という刺激を提供される前に被験者Aが発した音声から抽出された平均基本周波数を、その刺激が提供されているとき(または提供された直後)に被験者Aが発した音声から抽出された平均基本周波数から減算して、減算結果である差分値ΔQmbfを生成する。この差分値ΔQmbfは、第2の比較手段134と第3の比較手段135のそれぞれ一方の入力に入力される。
この時点で、制御手段150の制御の下、第1のメモリ手段136からは、平均基本周波数について予め決定された上限値(Pmbf_max)が第2の比較手段134の他方の入力に、第2のメモリ手段137からは、平均基本周波数について予め決定された下限値(Pmbf_min)が第3の比較手段135の他方の入力にそれぞれ入力されている。
ステップ264は、比較結果ΔQmbfと上限値Pmbf_maxを比較するステップである。本例では、第2の比較手段134により、ΔQmbfからPmbf_maxを減算した差分値ΔXが出力される。
ステップ266は、比較結果ΔQmbfと下限値Pmbf_minを比較するステップである。本例では、第3の比較手段135により、Pmbf_minからΔQmbfを減算した差分値ΔYが出力される。
ステップ268は、ステップ264と266でそれぞれ得られた比較結果に基づいて、ステップ240において取得された音声を被験者Aが発したとき(このときの音声は、被験者AがビデオカメラVの視覚刺激を受けた状態で発したものであるとみなすことができる)の被験者Aの感情が快であるか否かを判定するステップである。本例では、判定部138は、ビデオカメラVの視覚刺激を受けたときの被験者Aの感情を、ΔXが正の値であれば「快」と判定し、ΔYが正の値であれば「不快」と判定し、それらのいずれでもなければ「快、不快のどちらでもない」と判定する。
ステップ270は、ステップ268で判定された結果を表示するステップである。すなわち、ステップ268においてなされた「快」、「不快」、「快、不快のどちらでもない」との判定結果に応じて、表示手段140にその旨を示す表示がなされる。たとえば、「快」、「不快」、「快、不快のどちらでもない」というそれぞれの判定結果に対応して、それぞれ、緑色、赤色、黄色のマークを表示手段140に表示することができる。
以上、音声パラメータの種類として平均基本周波数を抽出する場合について説明したが、上記した他の音声パラメータについても、同様にして、装置100は、順次音声パラメータを抽出し、各音声パラメータ毎に判定結果を生成して表示することができる。この場合、図1の装置100の構成によれば、A/D変換器114から受信した音声信号について、7つの種類の音声パラメータの抽出処理を並行して実施することができる。
尚、上記では、刺激を受けているとき、または刺激を受けた直後に被験者が発した音声から音声パラメータの値を抽出するものとして説明したが、刺激を受けてから任意の時間経過後に同じ被験者の音声から音声パラメータの値を抽出することも可能なことは装置100の構成上明らかである。したがって、所望の刺激が与えられる前の状態における被験者の音声から特定の種類の音声パラメータの値を抽出した後、その被験者にその所望の刺激を与え(このときには音声パラメータ値抽出処理の必要はない)、それからしばらくたった後で、当該被験者に、当該所望の刺激を与えられていたときの状況を回想しつつ感想を述べてもらい、装置100によってその音声から上記特定の種類の音声パラメータの値を抽出し、その所望の刺激を受けたときの当該被験者の感情を推定するといったことも可能である。
上記第1の実施形態の構成によれば、操作者Bが任意に選択して提供した刺激情報に対して被験者が抱いた感情が快であるか否かを、同一の被験者の音声から抽出した音声パラメータを比較することにより判定することができる。したがって、新たに開発した新製品やサービスをじかに、または、外部モニタに表示させるなどして間接的に被験者に提示し、その音声を分析することによって、通常のアンケート調査などでは測りきれない、それらの商品等に対する被験者の感情情報を得ることが可能である。
第1の実施形態のバリエーション
以下に、第1の実施形態の構成及び動作に対する変形形態を例示する。
上記では、音声パラメータ毎に、快、不快の判定基準値として上限値及び下限値の2つの値を用意して、ΔQと比較するようにしたが、音声パラメータ毎に1つの判定基準値のみを用意して、これとΔQを比較し、この値を超えたか否かに応じて、快または不快の判定を行うようにしてもよい。この場合は、図1の構成における、第2、第3の比較手段134、135、及び、第1、第2のメモリ手段136、137からなる構成を、1つの比較手段と1つのメモリ手段からなる構成で置き換えることができ、判定部138は、当該1つの比較手段からの1つの出力結果に基づいて、快か不快かいずれかのみを判定することになる。この場合、図2のステップ264及び266を、ステップ262で得られた比較結果と、それに対応する音声パラメータについての上記1つの判定基準値とを比較する1つのステップ(ステップ262’とする)で置換し、さらに、ステップ268では、このステップ262’で得られた比較結果に基づいて被験者Aの感情を判定することになる。
また、音声信号取得ブロック110において刺激の提供の前後の時点(図2のステップ210、240に対応)で取得したディジタル音声を収集・格納するための記憶手段を別途設けて、音声パラメータ値抽出以降の処理をオフラインで行うようにすることもできる。この場合、さらに周知の構成の音声認識手段を組み込むことにより、複数の被験者の音声信号をその記憶手段に収集・格納して、後で一括して、各被験者毎の感情判定処理を行うことが可能である。かかる構成は、上記のような被験者の回想中の音声から音声パラメータを抽出して感情を判定する場合にも好適である。
また、音声パラメータ間に優先順位付けをして、優先順位の最も高い音声パラメータについての判定結果を採用し、それを表示手段140に表示するようにしてもよい。この場合、平均基本周波数(F0)に最も高い優先順位を設定するのが好ましい。
また、第1フォルマント周波数(F1)、最大基本周波数(F0MAX)、最小基本周波数(F0MIN)、第3フォルマント周波数(F3)のうちの少なくとも1つについての快か不快かの判定結果が、平均基本周波数(F0)についての判定結果と合致した場合にのみ、その判定結果(快または不快)を採用して表示手段140に表示するようにしてもよい。尚、この場合には、音声パラメータ値抽出ブロック120は、F0、F1、F0MAX、F0MIN、及びF3のそれぞれの値を抽出する手段のみ具備すればよい。
また、上記では、各音声パラメータ毎に順次判定を行うことができるものとして説明したが、ユーザが、I/F160を介して所望の1つまたは複数の音声パラメータを選択できるようにし、その選択された音声パラメータのみについて処理を行うようにしてもよい。この場合において、複数の音声パラメータが選択された場合には、上記と同様に優先順位に基づく判定処理を行うようにしてもよい。
また、表示手段140への表示は、単に、快か不快か等を示すのみでなく、ΔX、ΔYの大きさに応じて、快、不快の度合いを表示するようにしてもよい。たとえば、快、不快の度合いを各々10段階に分けて、ΔX、ΔYの大きさに応じて、被験者の快、不快の度合いがどの段階に達しているかを棒グラフ状に表示することができる。
また、音声パラメータの種類毎に、第1、第2及び第3の比較手段133、134、135の出力を表示手段140に表示して、操作者B自身がそれらの表示データから被験者の感情を判定できるようにしてもよい。この場合は、図1の構成において判定部138を省いても省かなくてもよいが、省く場合には、第1、第2の比較手段の出力を直接表示手段140に入力することができる。同様に、図2のフローチャートにおいて、ステップ268を省く場合には、ステップ264、266で得られた比較結果をステップ270で表示するようにすることができる。
また、図2ではステップ264の後に266を実施するようにしているが、これら2つのステップの処理順序は任意でよく、並行して実施してもよい。
また、ステップ200及び230において、装置100は操作者Bからの音声信号取得の指示に応答して音声信号取得を開始する構成としたが、周知の構成の音声検出手段を組み込んで、当該音声検出手段によって所定のレベル以上の音声が検出されたときに、自動的に音声の取得を開始するようにしてもよい。
また、音声信号取得ブロック110の音声信号取得処理の停止は、操作者Bのキー入力による指示に代えて、制御手段150の制御の下、音声信号取得の開始から所定時間経過後に自動的に停止するようにしてもよい。
また、第1、第2のメモリ手段として書き換え可能なメモリ手段を採用し、感情を判定するための音声パラメータの基準値である上限値/下限値を、被験者のタイプや環境等に応じて外部から適宜設定する構成としてもよい。また、図1に示す構成において、第1と第2のメモリ手段136、137を別個に設けずに、1つのメモリ手段中の異なる記憶場所にそれぞれの上限値/下限値を記憶するようにしてもよいことは言うまでもない。
第1の実施形態及び以上の変形形態における処理は、A/D変換器でディジタル信号とした後の全てについて、CPU及びメモリを搭載した周知のコンピュータシステムにおいて動作するソフトウエアを用いて行うようにすることも可能である。
2.第2の実施形態
図3は、本発明の第2の実施形態に係る感情判定装置300のブロック図である。感情判定装置300は、第1の実施形態の装置100に相当する装置310に加えて、所望の刺激情報を被験者に提供するための刺激提供手段320を設けた構成である。尚、後述のように、装置310と刺激提供手段320とを(図3の点線で示すように)電気的に結合して、両者の動作を連動させることもできる。装置310の構成及び動作は、刺激提供手段320と電気的に結合する場合における刺激提供手段320とのインターフェースに関係する部分を除き、第1の実施形態の感情判定装置100と同様であるので、装置310の構成の説明は省く。
刺激提供手段320は、人間の視覚、聴覚、臭覚、触覚、味覚のいずれか、または、これらの任意の組みわせに作用する情報を提供するものとすることができるが、ここでは、視覚に作用する刺激情報(視覚情報)としての画像情報(または映像情報)を提示するための画像記録再生装置324及び画像表示装置(以下、表示装置という)322から構成されるものとする。刺激提供手段320は、市販の画像記録再生ソフトを組み込んだパーソナルコンピュータ及びそのモニタや、市販のビデオ記録再生装置及びテレビモニタなどとすることができ、操作者のキー入力などの操作に応答して、記憶媒体に記録されている画像のうちの任意の画像を表示装置322に表示し、その表示画像を他の任意の画像に切り替え、または、画像表示をやめるといった動作が可能なものである。
この装置300によれば、所望の検査対象とする画像(以下、検査画像という)を予め画像記録再生装置324に記録しておくことにより、それらの画像を提示された被験者が快または不快のいずれの感情を抱いたかを判定することができる。
ここで、「課題を解決するための手段」の項で述べたように、感情の判定精度をより高めるために、被験者に検査画像を提示する前に、予め中性刺激を提供しておくことが好ましい。本実施形態では、そのような中性刺激として、視覚刺激を提供する画像(中性画像)を採用して、かかる中性画像を刺激提供手段320によって被験者に提示することが可能である。以下では、かかる中性画像が検査画像と共に予め画像記録再生装置324に記録されているものとして説明する。
以下、図3に示す感情判定装置300の動作を、その動作の1例を示す図4のフローチャートを参照して説明する。尚、図1の感情判定装置100において実施される処理、及び、当該装置100に対してなされる操作者による操作と同様の処理乃至操作を採用することができる部分については、図2における対応するステップの参照番号を付して簡単に記述するに留める。
図4は、図3の感情判定装置300を用いて、被験者に所望の刺激を与え、その刺激を受けたときの当該被験者の感情を判定する場合の動作フローを示す図である。
ステップ400において、刺激提供手段320は画像表示の指示を待つ。このステップ中に、操作者Bは、画像記録再生装置324を操作して、検査画像用の表示装置322に中性画像を表示させるための指示を与えることができる。
画像記録再生装置324は、ステップ400における画像表示の指示を検出すると、ステップ410において表示装置322に中性画像を表示する。
ステップ415において、装置310は音声信号取得の指示を待つ。このステップ中に、操作者Bは、被験者Aに中性画像からの視覚刺激が提供されていること、たとえば、被験者Aが中性画像を所定時間継続して注視していることを確認すると、装置310に対して所定の操作をすることにより、音声信号取得の指示を行うことができる(図2のステップ200についての説明参照)。
一方、操作者Bは、音声信号取得の指示を行った後、被験者Aが所定時間(たとえば、10〜30秒程度)継続して音声を発したことを確認すると、装置310に対して所定の操作をすることにより、音声信号取得の停止を指示することができる(図2のステップ200についての説明の直後の記載参照)。
装置310は、ステップ415における音声信号取得指示を検出すると、ステップ420において、被験者Aが発した音声をディジタル音声信号に変換する(図2のステップ210についての説明参照)。このときの被験者Aの音声は、被験者Aに中性画像からの視覚刺激が与えられている状態で発せられた音声であって、被験者Aの「快」または「不快」感情が小さい状態で発せられた音声であると推定可能なものである。
ステップ425において、装置310は、ステップ420で生成されたディジタル音声信号から少なくとも1つの音声パラメータを抽出する。ここでは、音声パラメータとして第1フォルマント周波数を抽出して被験者Aの感情を判定する場合を1例(以下、本例として参照する)として説明する。すなわち、第1フォルマント抽出手段120d(図1参照)がディジタル音声信号から第1フォルマント周波数を抽出する(以下、ステップ425で抽出された第1フォルマント周波数をF11とする)。
ステップ430において、刺激提供手段320は画像表示切換の指示を待つ。このステップ中で、操作者Bは、所望の検査画像を表示装置322に表示させるための切換指示を画像記録再生装置324対して行うことができる。
画像記録再生装置324は、ステップ430における切換指示を検出すると、ステップ435において、表示装置322にその所望の検査画像を表示する。図3では、検査画像として携帯電話の外観画像が表示されている。
ステップ440において、装置310は音声信号取得の指示を待つ。このステップ中に、操作者Bは、被験者Aに検査画像からの視覚刺激が提供されていること、たとえば、被験者Aが検査画像を所定時間継続して注視していることを確認すると、ステップ415と同様に、装置310に対して所定の操作をすることにより、音声信号取得の指示を行うことができる(図2のステップ230についての説明参照)。
装置310は、ステップ440における音声信号取得指示を検出すると、ステップ445において、被験者Aの音声をディジタル音声信号に変換する。このときの被験者Aの音声は、被験者Aが検査画像からの視覚刺激を受けた状態で発したものであるとみなすことができる音声である。このディジタル音声信号は、ステップ425で抽出されたのと同じ種類の音声パラメータの値を抽出する抽出手段に送られる。本例では、第1フォルマント抽出手段120d(図1参照)に少なくとも送られることになる。尚、この時に取得する音声は、第1の実施形態について述べたのと同様に、被験者Aが検査画像を実際に見てからしばらくした後に、被験者Aがそのときの状況を回想しながら発した音声であってもよい。
ステップ450は、ステップ425で抽出したのと同じ種類の音声パラメータの値を抽出するステップである。本例では、第1フォルマント抽出手段120dが、ステップ445において生成されたディジタル音声信号から、ステップ425と同様にして第1フォルマント周波数を抽出して出力する(以下、ステップ450で抽出された第1フォルマント周波数をF12とする)。
ステップ455は、ステップ425と450で抽出された音声パラメータの値から被験者の感情が快か否か(すなわち、快、不快、快及び不快のいずれでもない、のうちのいずれであるか)を判定するステップであり、本例では、装置310において、F11及びF12に対して、図2のステップ262〜268と同様の処理が行われ、検査画像を見たときの被験者Aの感情が快であったか否かが判定される。但し、この場合、第1及び第2のメモリ手段136、137のそれぞれから供給される上限値、下限値は、第1フォルマント周波数についてのものである。
ステップ460は、ステップ455で判定された結果を図2のステップ270と同様にして操作者用の表示装置(図1の表示手段140に対応)に表示するステップである。
尚、装置310と刺激提供手段320を電気的に結合して、被験者Aの音声の取得開始及び停止を、操作者BによるI/F160(図1参照)の操作によるのではなく、画像記録再生装置314による画像の表示の開始及び切換のタイミングと所定のタイミング関係で自動的に連動させるようにしてもよい。
また、第2の実施形態の装置310については、第1の実施形態の感情判定装置100について述べた種々の変形形態を採用することが可能である。
第2の実施形態の構成によれば、意図的に、被験者の感情を快でも不快でもない状態に近づけることが可能となり、その後に、当該被験者に所望の刺激を与えて感情を判定することによって、所望の刺激に対する被験者の感情をより的確に推定することが可能である。
本発明の第1の実施形態による感情判定装置のブロック図である。 図1の感情判定装置の動作を示すフローチャートである。 本発明の第2の実施形態による感情判定装置のブロック図である。 図3の感情判定装置の動作を示すフローチャートである。 本発明の基本概念を説明するためのフローチャートである。
符号の説明
100、300 感情判定装置
110 音声信号取得ブロック
120 音声パラメータ値抽出ブロック
130 感情判定ブロック
140 表示手段
150 制御手段
160 ユーザインターフェース手段
320 刺激提供手段

Claims (12)

  1. 被験者の感情を判定するための方法であって、
    所定の刺激が提供される前に被験者が発した音声を第1の音声信号として取得するステップと、
    前記第1の音声信号から所定の種類の音声パラメータの値(第1の値)を抽出するステップと、
    前記被験者に所定の刺激が提供されているとき、または、前記被験者に前記所定の刺激が提供されていたときの状況を前記被験者が想起しているときに前記被験者が発した音声を第2の音声信号として取得するステップと、
    前記第2の音声信号から前記所定の種類と同じ種類の音声パラメータの値(第2の値)を抽出するステップと、
    前記第1の値と前記第2の値を比較して第1の比較結果を生成するステップと、
    前記第1の比較結果に基づいて、前記第2の音声を発したときの前記被験者の感情が快であるか否かを判定するステップ
    を含む方法。
  2. 前記第1の比較結果が、前記第2の値から前記第1の値を減算した差分値である、請求項1に記載の方法。
  3. 前記所定の種類の音声パラメータが、平均基本周波数、最大基本周波数、最小基本周波数、第1フォルマント周波数、第3フォルマント周波数のうちの1つである、請求項2に記載の方法。
  4. 音声パラメータの種類毎に、所定の上限値と所定の下限値が予め決められており、前記所定の上限値及び所定の下限値についての音声パラメータの種類は前記第1及び第2の値のものと同じであり、
    前記差分値と前記所定の上限値を比較して第2の比較結果を生成するステップと、
    前記差分値と前記所定の下限値を比較して第3の比較結果を生成するステップ
    をさらに含み、
    前記判定するステップは、前記第2の音声信号を発したときの前記被験者の感情を、前記第2の比較結果が、前記差分値が前記所定の上限値を超えたことを示すときは快と判定し、前記第3の比較結果が、前記差分値が前記所定の下限値を下回ったことを示すときは不快と判定し、それらのいずれでもないことを示すときは快でも不快でもないと判定する、請求項2または3に記載の方法。
  5. 前記第1の値を抽出するステップの後に、前記被験者に前記所定の刺激を提供するステップ、または、前記被験者に前記所定の刺激が提供されていたときの状況を前記被験者に想起させるステップをさらに含む、請求項1乃至4のいずれかに記載の方法。
  6. 前記所定の刺激が視覚情報である、請求項1乃至5のいずれかに記載の方法。
  7. 被験者の感情を判定するための装置であって、
    被験者の音声信号を取得する音声信号取得手段と、
    前記音声信号から少なくとも1つの種類の音声パラメータの値を抽出する音声パラメータ値抽出手段と、
    抽出された音声パラメータの2つの値を比較して、この比較結果に基づいて、前記被験者の感情が快であるか否かを判定する判定手段
    を備え、
    前記判定手段は、前記被験者に所定の刺激が提供される前に該被験者が発した音声信号(第1の音声信号)から抽出された音声パラメータの値(第1の値)と、抽出した前記音声パラメータと同じ種類の音声パラメータの値であって、前記被験者に前記所定の刺激が提供されているとき、または、前記被験者に前記所定の刺激が提供されていたときの状況を前記被験者が想起しているときに該被験者が発した音声信号(第2の音声信号)から抽出された音声パラメータの値(第2の値)との2つの値を比較して、その比較結果に基づいて、前記第2の音声信号を発したときの前記被験者の感情を判定する、装置。
  8. 前記比較結果が、前記第2の値から前記第1の値を減算した差分値である、請求項7に記載の装置。
  9. 前記音声パラメータ値抽出手段が、平均基本周波数抽出手段、最大基本周波数抽出手段、最小基本周波数抽出手段、第1フォルマント抽出手段、第3フォルマント抽出手段のうちの少なくとも1つを備える、請求項8に記載の装置。
  10. 前記判定手段が、第1のメモリ手段、第2のメモリ手段、第1の比較手段、第2の比較手段及び第3の比較手段を備え、前記第1のメモリ手段には音声パラメータ毎に所定の上限値が格納されており、前記第2のメモリ手段には音声パラメータ毎に所定の下限値が格納されており、
    前記第1の比較手段は、前記差分値を第1の比較結果として生成し、
    前記第2の比較手段は、前記第1の比較結果と前記所定の上限値を比較して第2の比較結果を生成し、
    前記第3の比較手段は、前記第1の比較結果と前記所定の下限値を比較して第3の比較結果を生成し、
    前記第1、第2、第3の比較手段で比較される値は、いずれも同じ種類の音声パラメータについてものであり、
    前記判定手段は、前記第2の音声信号を発したときの前記被験者の感情を、前記第2の比較結果が、前記差分値が前記所定の上限値を超えたことを示すときは快であると判定し、前記第3の比較結果が、前記差分値が前記所定の下限値を下回ったことを示すときは不快であると判定し、それらのいずれでもないことを示すときは、快でも不快でもないと判定する、請求項8または9に記載の装置。
  11. 前記被験者に前記所定の刺激を与えるための刺激提供手段をさらに備える、請求項7乃至10のいずれかに記載の装置。
  12. 前記所定の刺激が視覚情報である、請求項7乃至11のいずれかに記載の装置。
JP2007210066A 2007-08-10 2007-08-10 感情を判定するための方法 Expired - Fee Related JP5026887B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007210066A JP5026887B2 (ja) 2007-08-10 2007-08-10 感情を判定するための方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007210066A JP5026887B2 (ja) 2007-08-10 2007-08-10 感情を判定するための方法

Publications (2)

Publication Number Publication Date
JP2009042671A true JP2009042671A (ja) 2009-02-26
JP5026887B2 JP5026887B2 (ja) 2012-09-19

Family

ID=40443435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007210066A Expired - Fee Related JP5026887B2 (ja) 2007-08-10 2007-08-10 感情を判定するための方法

Country Status (1)

Country Link
JP (1) JP5026887B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010175778A (ja) * 2009-01-29 2010-08-12 Fujitsu Ltd インタビュー支援方法、装置及びプログラム
JP2010264087A (ja) * 2009-05-15 2010-11-25 Tokyo Univ Of Agriculture & Technology 社会性情動行動評価システム、社会性情動行動評価方法並びに社会性情動行動評価プログラム及びこれを記録したコンピュータ読み取り可能な記録媒体
JP2019008113A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
WO2019176535A1 (ja) * 2018-03-15 2019-09-19 パナソニックIpマネジメント株式会社 ユーザの心理状態を推定するためのシステム、記録媒体、および方法
CN111312245A (zh) * 2020-02-18 2020-06-19 腾讯科技(深圳)有限公司 一种语音应答方法、装置和存储介质
US11963772B2 (en) 2018-03-15 2024-04-23 Panasonic Intellectual Property Management Co., Ltd. System, computer-readable non-transitory recording medium, and method for estimating psychological state of user

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09265378A (ja) * 1996-03-28 1997-10-07 Hitachi Ltd オペレータの支援方法および支援システム
JP2001083984A (ja) * 1999-09-09 2001-03-30 Alpine Electronics Inc インタフェース装置
JP2003508805A (ja) * 1999-08-31 2003-03-04 アクセンチュア リミテッド ライアビリティ パートナーシップ 複数の音声信号パラメータの分析を通して音声信号の感情を検出する装置、方法、及び、製造物品
JP2004349851A (ja) * 2003-05-20 2004-12-09 Ntt Docomo Inc 携帯端末、画像通信プログラム、及び画像通信方法
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
JP2005252595A (ja) * 2004-03-03 2005-09-15 Hisatoku Ito 会話支援システム
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP2007004001A (ja) * 2005-06-27 2007-01-11 Tokyo Electric Power Co Inc:The オペレータ応対能力診断装置、オペレータ応対能力診断プログラム、プログラム格納媒体

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09265378A (ja) * 1996-03-28 1997-10-07 Hitachi Ltd オペレータの支援方法および支援システム
JP2003508805A (ja) * 1999-08-31 2003-03-04 アクセンチュア リミテッド ライアビリティ パートナーシップ 複数の音声信号パラメータの分析を通して音声信号の感情を検出する装置、方法、及び、製造物品
JP2001083984A (ja) * 1999-09-09 2001-03-30 Alpine Electronics Inc インタフェース装置
JP2004349851A (ja) * 2003-05-20 2004-12-09 Ntt Docomo Inc 携帯端末、画像通信プログラム、及び画像通信方法
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
JP2005252595A (ja) * 2004-03-03 2005-09-15 Hisatoku Ito 会話支援システム
JP2005346471A (ja) * 2004-06-03 2005-12-15 Canon Inc 情報処理方法、情報処理装置
JP2007004001A (ja) * 2005-06-27 2007-01-11 Tokyo Electric Power Co Inc:The オペレータ応対能力診断装置、オペレータ応対能力診断プログラム、プログラム格納媒体

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010175778A (ja) * 2009-01-29 2010-08-12 Fujitsu Ltd インタビュー支援方法、装置及びプログラム
JP2010264087A (ja) * 2009-05-15 2010-11-25 Tokyo Univ Of Agriculture & Technology 社会性情動行動評価システム、社会性情動行動評価方法並びに社会性情動行動評価プログラム及びこれを記録したコンピュータ読み取り可能な記録媒体
JP2019008113A (ja) * 2017-06-23 2019-01-17 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
JP7073640B2 (ja) 2017-06-23 2022-05-24 カシオ計算機株式会社 電子機器、感情情報取得システム、プログラム及び感情情報取得方法
WO2019176535A1 (ja) * 2018-03-15 2019-09-19 パナソニックIpマネジメント株式会社 ユーザの心理状態を推定するためのシステム、記録媒体、および方法
JPWO2019176535A1 (ja) * 2018-03-15 2021-03-11 パナソニックIpマネジメント株式会社 ユーザの心理状態を推定するためのシステム、記録媒体、および方法
US11557148B2 (en) 2018-03-15 2023-01-17 Panasonic Intellectual Property Management Co., Ltd. System, computer-readable non-transitory recording medium, and method for estimating psychological state of user
JP7308430B2 (ja) 2018-03-15 2023-07-14 パナソニックIpマネジメント株式会社 ユーザの心理状態を推定するためのシステム、記録媒体、および方法
US11963772B2 (en) 2018-03-15 2024-04-23 Panasonic Intellectual Property Management Co., Ltd. System, computer-readable non-transitory recording medium, and method for estimating psychological state of user
CN111312245A (zh) * 2020-02-18 2020-06-19 腾讯科技(深圳)有限公司 一种语音应答方法、装置和存储介质
CN111312245B (zh) * 2020-02-18 2023-08-08 腾讯科技(深圳)有限公司 一种语音应答方法、装置和存储介质

Also Published As

Publication number Publication date
JP5026887B2 (ja) 2012-09-19

Similar Documents

Publication Publication Date Title
CN105844072B (zh) 刺激提示系统、刺激提示方法、计算机以及控制方法
JP5139319B2 (ja) ストレッサーセンサ及びストレス管理システム
JP5026887B2 (ja) 感情を判定するための方法
CN111315302A (zh) 认知功能评估装置、认知功能评估系统、认知功能评估方法及程序
JP2005531080A (ja) 視覚及び音声認識を介するコンテンツ格付けの測定
US20180242898A1 (en) Viewing state detection device, viewing state detection system and viewing state detection method
CN112163518B (zh) 情绪监测的情绪建模方法及情绪监测调节系统
JP2015229040A (ja) 感情分析システム、感情分析方法および感情分析プログラム
TWI666633B (zh) Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method and program
van den Broek et al. Unobtrusive sensing of emotions (USE)
WO2017143951A1 (zh) 一种表情反馈方法及智能机器人
KR102321520B1 (ko) 음성 분석을 통한 우울증 판별 및 케어 시스템
JP2019133451A (ja) 評価方法、評価装置、評価プログラム、および、評価システム
JP2023532323A (ja) 生体データを使用して製品推奨を生成するためのシステム
JP2005063087A (ja) 記録再生装置、再生装置、記録再生方法および再生方法
US20030109797A1 (en) Chromatic display-type biofeedback system and method using brain waves
JP6198530B2 (ja) 画像処理装置
KR102081752B1 (ko) 영상평가시스템 및 영상평가방법
WO2022065446A1 (ja) 感情判定装置、感情判定方法及び感情判定プログラム
JP7307507B2 (ja) 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム
US7421392B2 (en) Diagnosis device and diagnosis method
CN113764099A (zh) 基于人工智能的心理状态分析方法、装置、设备及介质
JP6838739B2 (ja) 近時記憶支援装置
JP2020181422A (ja) 医療診断支援システム、医療診断支援装置、医療診断支援方法及びプログラム
US20220183580A1 (en) Method of providing spoken instructions for a device for determining a heartbeat

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5026887

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees