JP2017121286A - 情動推定システム、情動推定方法および情動推定プログラム - Google Patents

情動推定システム、情動推定方法および情動推定プログラム Download PDF

Info

Publication number
JP2017121286A
JP2017121286A JP2016000655A JP2016000655A JP2017121286A JP 2017121286 A JP2017121286 A JP 2017121286A JP 2016000655 A JP2016000655 A JP 2016000655A JP 2016000655 A JP2016000655 A JP 2016000655A JP 2017121286 A JP2017121286 A JP 2017121286A
Authority
JP
Japan
Prior art keywords
emotion
ratio
frequency
unit
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016000655A
Other languages
English (en)
Inventor
佐藤 輝幸
Teruyuki Sato
輝幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016000655A priority Critical patent/JP2017121286A/ja
Priority to US15/350,903 priority patent/US20170188977A1/en
Publication of JP2017121286A publication Critical patent/JP2017121286A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • A61B5/347Detecting the frequency distribution of signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms

Abstract

【課題】感情の異常状態に応じた出力を行うことができる情動推定システム、情動推定方法および情動推定プログラムを提供する。【解決手段】情動推定システムは、取得部131と、分類部と、出力制御部137とを有する。取得部は、1のユーザについて継続的に計測された心拍間隔の情報を取得する。分類部は、取得された心拍間隔の情報を周波数解析した結果得られる値、および、取得された心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、ユーザの感情を少なくとも2種類のいずれかに分類する。出力制御部は、分類された結果に応じて異なる出力を行う。【選択図】図1

Description

本発明は、情動推定システム、情動推定方法および情動推定プログラムに関する。
近年、セルフレジやATM(Automated Teller Machine)等のように、対人業務において自動化が進められている。一方、自動化された装置が使いやすいとは限られず、例えば、ユーザがセルフレジで会計を行う場合に、操作が判らず困惑してしまう場合がある。このとき、ユーザは、会計を済ますという目的達成を妨げる原因が自分の外にあると考える場合には、例えばイライラするといったような外に向けた攻撃的感情が現れる。また、ユーザは、原因が自分の中にあると考える場合には、例えば不安や落ち込みといった感情が現れる。
また、装置を操作する場合の感情について、脈波や心拍といった生体情報を用いて検出することが提案されている。例えば、心拍数の変動が心理起因の変動か運動起因の変動であるかを判別し、ライフログ用途のためにカメラの撮像を制御することが提案されている。また、例えば、心拍の揺らぎを検出してゲームプレイ時のストレス状態を検出し、休憩を促すことが提案されている。
特開2012−120206号公報 特開2014−140587号公報 特開2008−104596号公報 特表2011−517411号公報
しかしながら、心拍数は、運動を伴わない場合であっても生体が本来持つ心拍変動によって変化するので、ユーザが主観的感情を抱いたときに、心拍変動が安静時に元々ある変動であるか、感情による変動であるかの判定が困難である。
一つの側面では、本発明は、感情の異常状態に応じた出力を行うことができる情動推定システム、情動推定方法および情動推定プログラムを提供することにある。
一つの態様では、情動推定システムは、取得部と、分類部と、出力制御部とを有する。取得部は、1のユーザについて継続的に計測された心拍間隔の情報を取得する。分類部は、取得された前記心拍間隔の情報を周波数解析した結果得られる値、および、取得された前記心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類する。出力制御部は、分類された結果に応じて異なる出力を行う。
感情の異常状態に応じた出力を行うことができる。
図1は、実施例1の情動推定システムの構成の一例を示すブロック図である。 図2は、感情評価の一例を示す図である。 図3は、心拍変動データの一例を示す図である。 図4は、心拍変動データの他の一例を示す図である。 図5は、心拍変動の周波数特性の一例を示す図である。 図6は、心拍変動の周波数特性の他の一例を示す図である。 図7は、第1の比および第2の比の一例を示す図である。 図8は、感情評価の他の一例を示す図である。 図9は、第1の比および第2の比の他の一例を示す図である。 図10は、感情評価の他の一例を示す図である。 図11は、実施例1の判定処理の一例を示すフローチャートである。 図12は、実施例2の情動推定システムの構成の一例を示すブロック図である。 図13は、心拍変動の周波数特性およびLSPの一例を示す図である。 図14は、心拍変動の周波数特性およびLSPの他の一例を示す図である。 図15は、心拍変動の周波数特性およびLSPの他の一例を示す図である。 図16は、実施例2の判定処理の一例を示すフローチャートである。 図17は、実施例3の情動推定システムの構成の一例を示すブロック図である。 図18は、ログデータの一例を示す図である。 図19は、実施例3の判定処理の一例を示すフローチャートである。 図20は、情動推定プログラムを実行するコンピュータの一例を示す図である。
以下、図面に基づいて、本願の開示する情動推定システム、情動推定方法および情動推定プログラムの実施例を詳細に説明する。なお、本実施例により、開示技術が限定されるものではない。また、以下の実施例は、矛盾しない範囲で適宜組みあわせてもよい。
図1は、実施例1の情動推定システムの構成の一例を示すブロック図である。図1に示す情動推定システム1は、感情評価装置100を有する。情動推定システム1は、感情評価装置100の他に、例えば、所定の装置、管理者端末およびサーバ装置等を含んでもよい。なお、所定の装置は、例えば、セルフレジやATM等が挙げられる。
感情評価装置100は、1のユーザについて継続的に計測された心拍間隔の情報を取得する。感情評価装置100は、取得された心拍間隔の情報を周波数解析した結果得られる値、および、取得された心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、ユーザの感情を少なくとも2種類のいずれかに分類する。感情評価装置100は、分類された結果に応じて異なる出力を行う。これにより、感情評価装置100は、感情の異常状態に応じた出力を行うことができる。
図1に示すように、感情評価装置100は、心拍センサ101と、表示部102と、記憶部120と、制御部130とを有する。なお、感情評価装置100は、図1に示す機能部以外にも既知のコンピュータが有する各種の機能部、例えば各種の入力デバイスや音声出力デバイス等の機能部を有することとしてもかまわない。
心拍センサ101は、ユーザの心拍信号を検出する。例えば、心拍センサ101は、ユーザに接触する電極により、ユーザの心拍信号を各電極の電位差から取得する。なお、心拍センサ101によって用いられる電極は、例えば、胸ベルトタイプのものや腕時計型の小型機器に埋め込まれた電極(両手に装着される)に対応する。心拍センサ101は、検出した心拍信号に基づいて心拍間隔の情報、つまり心拍変動データを継続的に計測する。心拍センサ101は、計測した心拍変動データを制御部130に出力する。なお、心拍変動データは、例えば、心拍の隣接する2つのR波の時間間隔とR波の検出時間とを対応づけたRRIデータである。また、心拍センサ101は、一定時間ごとに心拍数を出力してもよい。この場合、心拍数は、60/RRIという関係となる。
また、心拍センサ101は、例えば、ユーザの耳たぶ等の血流を光で計測し、脈波を取得するようにしてもよい。心拍センサ101の検出部は、脈波取得であれば光学式となり、腕時計タイプやリストバンドタイプ(反射型)、イヤクリップ型(反射型、透過型)等を用いることができる。さらに、心拍センサ101は、例えば、赤外線カメラを用いてユーザの顔面の赤外反射に基づいて、脈波を取得するようにしてもよい。また、心拍センサ101は、例えば、ミリ波センサを用いて脈波を取得するようにしてもよい。これらの場合、心拍センサ101は、脈波に基づいて計測した心拍変動データを制御部130に出力する。
ここで、心拍変動データと感情評価とについて説明する。まず、心拍変動の原理と自律神経バランスについて説明する。東北大学吉澤らの『生理的パラメータの相互相関を用いた映像の生体影響評価法』(BME,Vol.18,No.1,pp.8-13(March 2004))(以下、非特許文献1という。)によれば、心拍が変動する要因として次の2つがある。1つ目は、呼吸によるヘモグロビン変動を要因とした揺らぎで、4秒より早い周期である。2つ目は、血圧変動によるもので概ね10秒周期(Mayer波)である。
この揺らぎ制御信号を伝える自律神経には、交感神経はおおむね0.15Hz以下を通すローパスの伝達特性である点、および、副交感神経は全域透過の伝達特性である点といった性質がある。すなわち、交感神経優位の状態では、揺らぎ成分は低域成分(LF成分)しか現れない。逆に副交感神経優位な状態では、低域成分(LF成分)も高域成分(HF成分)も現れることになる。この原理に着目した測定器は、心拍間隔を一定時間(2分から5分)計測し、その変動を構成する周波数成分を解析したうえでLF成分/HF成分比を用いて、安静時における交感神経活動と副交感神経活動のバランスを計測する。
本願では、この揺らぎ成分の周波数解析の際に用いる手法の1つとして自己回帰型(AR)モデルによる線形予測手法を用いる。本手法の要点は、1つ目として、安静時の心拍変動は、過去の系列から線形予測モデルにて予測ができる。また、定常でない変動成分は、その予測モデルからの外れであり、残留誤差とLF成分とで判明する。2つ目として、ユーザ、つまり検出対象の感情は、定常でない心拍変動成分とストレス度との2軸平面上にマッピングされる。
次に、ARモデルによる心拍変動のスペクトル解析について説明する。ARモデルを使ったスペクトル解析では、LF成分およびHF成分を見る手法が知られている。ARモデルは、次の式(1)で表される。
Figure 2017121286
式(1)は、現サンプルXを、過去のM個の系列Xs−1,Xs−2,・・・,Xs−Mから線形予測することを意味する。a,a,・・・,aは、重み係数である。εは観察誤差、つまり残留誤差であり、予測からの外れを意味する。ユーザは、例えば機械操作に困るとストレスがかかった状態となり、HF成分は低下した状態となる。このとき、ユーザは、怒りやイライラの感情が加わると、心拍や血圧が押し上げられる。これらの感情を判別するには、安静時における心拍変動の予測モデル(ARモデル)からの「外れ」を見れば検出することができる。
ARモデルでは、非定常な心拍変動が入った時には、残留誤差が増加する。また、ARモデルでは、心拍または血圧が上昇した時には、血圧変動と心拍変動との相関が低下しLF成分が低下する。非特許文献1では、Mayer波が明確に現われるのは安静時であり、強い情動反応が生じた場合等のように、血圧に依存しない心拍数の変動や、心拍数に依存しない血圧変動が生じる場合には、Mayer波帯域における両者の関係性が薄れることが示唆されている。なお、Mayer波帯域は、LFと同義である。これらのことから、ARモデルからの外れは、残留誤差とLF成分とに着目することで得られる。
続いて、ARモデルを用いたスペクトル解析に基づく感情評価について説明する。当該感情評価では、2つの評価量を用いて2軸のグラフを生成する。評価量の1つ目は、LF成分/HF成分の比であり、ストレスを意味する。評価量の2つ目は、LF成分/残留誤差の比であり、定常でない変動成分があると低下する評価値である。LF成分は、血圧変動成分が周期的か否かを表すもので、突発的な血圧変動があると低下する。残留誤差は、ARモデルによる線形予測が当たっているか否かを表すもので、予測が外れると増加する。従って、2つ目の評価量であるLF成分/残留誤差の比は、LF成分が低下するか、残留誤差が増加すると値としては小さくなり、定常性が低くなることを示す。グラフでは、LF成分/HF成分の比をストレス度としてy軸にとり、LF成分/残留誤差の比を定常性としてx軸にとる。
図2は、感情評価の一例を示す図である。図2に示すグラフでは、例えば、Aさんのように、定常性が高くストレスが低いとなった場合、Aさんに対応するグラフ上の点が領域21に存在する。領域21は、リラックスして機械を操作している場合の感情を示す。つまり、Aさんは、リラックスな感情と相関が高い状態である。また、Bさんのように、定常性が高くストレスが高いとなった場合、Bさんに対応するグラフ上の点が領域22に存在する。領域22は、不安を抱えてスムーズに機械の操作が進んでいない場合の感情を示す。つまり、Bさんは、不安な感情と相関が高い状態である。さらに、Cさんのように、定常性が低くストレスが高いとなった場合、Cさんに対応するグラフ上の点が領域23に存在する。領域23は、イライラのような強い感情(情動)が生じており、場合によっては操作が粗暴になっているような状態を示す。つまり、Cさんは、イライラとした感情と相関が高い状態である。なお、本願では、不安やイライラの感情の状態を、感情の異常状態ともいう。
図3は、心拍変動データの一例を示す図である。図3に示すグラフは、ユーザに課題タスクを与えた場合における心拍変動データの一例である。図3に示すグラフは、課題タスクの間に怒りの表情が見られたユーザの心拍変動データである。
図4は、心拍変動データの他の一例を示す図である。図4に示すグラフは、ユーザに課題タスクを与えた場合における心拍変動データの他の一例である。図4に示すグラフは、課題タスクの間に不安の表情が見られたユーザの心拍変動データである。図3および図4のグラフを比較すると、図4に示す不安の表情が見られたユーザのグラフの方が、心拍変動が少なくなっている。一方、図3に示す怒りの表情が見られたユーザのグラフでは、心拍変動が定常的な箇所と突発的な箇所とがあり、かつ、その変化の幅が大きいことがわかる。
図1の説明に戻って、表示部102は、ユーザの感情が分類された結果に応じて異なる出力を行う表示デバイスである。表示部102は、例えば、表示デバイスとして複数の色のランプを有する表示器等によって実現される。表示部102は、制御部130から入力された出力情報に応じた表示を行う。また、表示部102は、例えば、表示デバイスとして液晶ディスプレイ等によって実現されてもよい。この場合には、表示部102は、ユーザの感情が分類された結果、つまり判定結果の推移を示す情報を表示する。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、ハードディスクや光ディスク等の記憶装置によって実現される。記憶部120は、制御部130での処理に用いる情報、例えば、心拍変動データ等を記憶する。
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。
制御部130は、取得部131と、予測部132と、予測誤差算出部133と、第1利得算出部134と、第2利得算出部135と、判定部136と、出力制御部137とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図1に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、予測部132と、予測誤差算出部133と、第1利得算出部134と、第2利得算出部135と、判定部136とは、統合して分類部としてもよい。分類部は、取得された心拍間隔の情報を周波数解析した結果、および、取得された心拍間隔の情報に基づいて算出された予測心拍間隔と、実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、ユーザの感情を少なくとも2種類のいずれかに分類する。
取得部131は、心拍センサ101から心拍変動データが入力されると、入力された心拍変動データを取得する。すなわち、取得部131は、1のユーザについて継続的に計測された心拍間隔の情報を取得する。取得部131は、取得した心拍変動データを予測部132に出力する。なお、取得部131は、心拍センサ101から継続的に心拍変動データが入力されるので、心拍変動データの取得および出力も継続して行う。また、取得される心拍変動データは、例えば連続して1分程度以上取得されたものが好ましいが、例えば連続して30秒程度以上取得されたものであってもよい。ただし、ユーザが装置の操作に戸惑う場合には、それなりに長い時間操作すると考えられるので、運用上では心拍変動データの連続した1分間の取得は問題とならないと考えられる。
予測部132は、取得部131から心拍変動データが入力されると、入力された心拍変動データに対してARモデルを用いて周波数解析を行って、現在の心拍数を予測する予測係数を算出する。すなわち、予測部132は、過去の心拍変動データに基づいて、心拍変動データを予測する。予測部132は、上述の式(1)を用い、適する次数は、例えば10次から16次として周波数解析を行う。なお、予測部132は、AIC(赤池情報量基準)を用いて次数を得てもよい。予測部132は、次数の数の係数を予測係数として算出する。予測部132は、予測係数を含む周波数解析の結果を予測誤差算出部133、第1利得算出部134および第2利得算出部135に出力する。なお、予測部132は、取得部131から心拍変動データが継続的に入力されると、予測係数を含む周波数解析の結果の出力も継続して行う。
予測誤差算出部133は、予測部132から周波数解析の結果が入力されると、予測係数における予測誤差パワーを算出する。すなわち、予測誤差算出部133は、予測係数における残留誤差の二乗和Σεを算出する。なお、予測誤差パワーの算出は、Levinson−Durbinアルゴリズムを用いて、予測部132において予測係数と同時に予測誤差パワーを算出するようにしてもよい。予測誤差算出部133は、算出した予測誤差パワーを判定部136に出力する。なお、予測誤差算出部133は、予測部132から周波数解析の結果が継続的に入力されると、予測誤差パワーの出力も継続して行う。
第1利得算出部134は、予測部132から周波数解析の結果が入力されると、周波数解析の結果に基づいて、第1周波数より高い帯域の第1利得を算出する。すなわち、第1利得算出部134は、予測係数を用いて得られる伝達関数LP(z)=1/(1−Σa−j)に対して、|LP(z)|を単位円回りで評価してθを横軸に取った振幅特性を得る。なお、単位円回りは、z=eiθ(θは正規化角周波数)である。第1利得算出部134は、得られた振幅特性に基づいて、第1周波数より高い帯域の利得(ゲイン)の平均を第1利得として算出する。なお、第1周波数は、例えば、0.15Hzである。なお、第1利得算出部134は、第1周波数より高い帯域として、例えば、0.15Hz〜0.4Hzの帯域を用いることができる。第1利得算出部134は、算出した第1利得を判定部136に出力する。なお、第1利得算出部134は、予測部132から周波数解析の結果が継続的に入力されると、第1利得の出力も継続して行う。
第2利得算出部135は、予測部132から周波数解析の結果が入力されると、周波数解析の結果に基づいて、第1周波数以下の周波数である第2周波数と第3周波数との間の帯域の第2利得を算出する。すなわち、第2利得算出部135は、第1利得算出部134と同様に、得られた振幅特性に基づいて、第2周波数と第3周波数との間の帯域の利得(ゲイン)の平均を第2利得として算出する。なお、第2周波数および第3周波数は、例えば、0.15Hzおよび0.05Hzである。第2利得算出部135は、算出した第2利得を判定部136に出力する。なお、第2利得算出部135は、予測部132から周波数解析の結果が継続的に入力されると、第2利得の出力も継続して行う。
ここで、図5および図6を用いて心拍変動の周波数特性について説明する。図5は、心拍変動の周波数特性の一例を示す図である。図5に示すグラフ30は、図3に示す怒りの表情が見られたユーザの心拍変動データに対応する心拍変動の周波数特性である。グラフ30では、例えば、第1周波数を周波数31、第2周波数を周波数31、第3周波数を周波数32、第1周波数より高い帯域の上限周波数を周波数33とする。このとき、第1利得算出部134は、周波数31から周波数33の帯域の利得の平均を第1利得として算出する。また、第2利得算出部135は、周波数32から周波数31の帯域の利得の平均を第2利得として算出する。
図6は、心拍変動の周波数特性の他の一例を示す図である。図6に示すグラフ40は、図4に示す不安の表情が見られたユーザの心拍変動データに対応する心拍変動の周波数特性である。グラフ40では、グラフ30と同様に、例えば、第1周波数を周波数31、第2周波数を周波数31、第3周波数を周波数32、第1周波数より高い帯域の上限周波数を周波数33とする。このとき、第1利得算出部134は、周波数31から周波数33の帯域の利得の平均を第1利得として算出する。また、第2利得算出部135は、周波数32から周波数31の帯域の利得の平均を第2利得として算出する。
図1の説明に戻って、判定部136には、予測誤差算出部133、第1利得算出部134および第2利得算出部135から、それぞれ、予測誤差パワー、第1利得および第2利得が入力される。判定部136は、予測誤差パワー、第1利得および第2利得に基づいて、第2利得と予測誤差パワーとの第1の比、および、第2利得と第1利得との第2の比を算出する。判定部136は、算出した第1の比および第2の比に基づく点を、第1の比および第2の比を軸としたグラフに配置して、点が配置されたグラフの領域に基づいて、ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する。つまり、判定部136は、第1の比および第2の比を軸とした平面上のクラスタリングで感情評価を行う。
なお、判定部136は、予測誤差算出部133、第1利得算出部134および第2利得算出部135から、それぞれ、予測誤差パワー、第1利得および第2利得が継続的に入力されると、感情の判定も継続的に行って、判定結果の出力も継続して行う。
具体的には、判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満であるか否かを判定する。なお、例えば、第1の閾値は−60dB、第2の閾値は−3dBとすることができる。判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満である場合には、リラックスと判定する。この場合には、ARモデルでの予測が当たっており、かつ、ストレス度が低いことを示し、ユーザが機械操作に迷わずやりたいことが完遂できた場合である。
判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満でない場合には、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値以上であるか否かを判定する。判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値以上である場合には、不安と判定する。この場合には、ARモデルでの予測が当たっており、かつ、ストレス度が高いことを示し、ユーザがどうしていいかわからない不安状態である場合である。
判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値以上でない場合には、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上であるか否かを判定する。判定部136は、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上である場合には、イライラと判定する。この場合には、ARモデルでの予測が外れており、かつ、ストレス度が高いことを示し、ユーザが機械の使い勝手が悪くイライラした状態である場合である。
判定部136は、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上でない場合には、その他の状態と判定する。この場合には、ARモデルでの予測が外れており、かつ、ストレス度が低いことを示し、ウォーキングのような有酸素運動のケースが考えられるが、機械操作中にこのような動作は不自然であるため、感情判定を行わない場合である。判定部136は、判定結果を出力制御部137に出力する。なお、判定結果は、例えば、イライラの状態が第1の異常状態、不安の状態が第2の異常状態に対応する。また、判定結果は、例えば、その他の状態が正常状態または判別不能の状態に対応する。
ここで、図7から図10を用いて第1の比および第2の比と、感情評価とについて説明する。図7は、第1の比および第2の比の一例を示す図である。図7に示す第1の比および第2の比は、図5および図6のユーザに対応する。ここでは、図5のグラフ30に対応する怒りの表情が見られたユーザをDさん、図6のグラフ40に対応する不安の表情が見られたユーザをEさんとする。Dさんは、第1の比が−80dB、第2の比が+3dBである。また、Eさんは、第1の比が−44dB、第2の比が−1dBである。
図8は、感情評価の他の一例を示す図である。図8は、図7の第1の比および第2の比をグラフに配置したもので、Dさんを示す点は、イライラを表す領域23に配置され、Eさんを示す点は、不安を表す領域22に配置される。DさんとEさんとは、ストレス度を示す第2の比では差が4dBと小さいが、定常性を示す第1の比では差が36dBと明らかな差が見られる。このため、図8のグラフでは、定常性に対応する第1の閾値25を−60dBとすることで、イライラ(怒り)と不安との判別ができる。また、図8のグラフでは、ストレス度に対応する第2の閾値26を、不安成分がリラックス成分の半分より小さいとして−3dBとすることで、不安とリラックスとの判別ができる。すなわち、図8のグラフでは、イライラ(怒り)、不安およびリラックスの3つの感情の判定ができる。なお、図8のグラフでは、領域24は、その他の状態に対応する。また、図8のグラフでは、領域21、22、23を、第1の閾値25と第2の閾値26とで区切られた領域のうち一部の領域としたが、これに限定されず、第1の閾値25と第2の閾値26とで区切られた領域の、それぞれ全域を領域21、22、23としてもよい。
図9は、第1の比および第2の比の他の一例を示す図である。図9では、他の例として、Sさん、Iさん、Fさん、KさんおよびFさんの操作終了間際の第1の比および第2の比を挙げている。図10は、感情評価の他の一例を示す図である。図10は、図9の第1の比および第2の比をグラフに配置したもので、SさんおよびFさんを示す点は、イライラを表す領域23に配置され、IさんおよびKさんを示す点は、不安を表す領域22に配置される。さらに、Fさん終了間際を示す点は、領域23よりもストレス度が高い領域に配置される。
図1の説明に戻って、出力制御部137は、判定部136から判定結果、つまり分類結果が入力されると、分類された結果に応じて異なる出力を行う。すなわち、出力制御部137は、例えば、判定結果のイライラ(怒り)、不安およびリラックスのそれぞれに応じて、それぞれ異なる色のランプを点灯させる出力情報を表示部102に出力し、それぞれの判定結果に応じた色のランプを点灯させる。つまり、出力制御部137は、第1の異常状態および第2の異常状態を識別可能な情報を含むアラームを出力する。また、出力制御部137は、その他の状態と判定された場合には、アラームを出力しない。なお、アラームは、表示部102における表示でもよいし、図示しないブザー等を鳴動させるようにしてもよい。
出力制御部137は、例えば、イライラを示す判定結果の場合には、赤色のランプを点灯させる出力情報を表示部102に出力する。また、出力制御部137は、例えば、不安を示す判定結果の場合には、黄色のランプを点灯させる出力情報を表示部102に出力する。さらに、出力制御部137は、例えば、リラックスを示す判定結果の場合には、緑色のランプを点灯させる出力情報を表示部102に出力する。また、出力制御部137は、例えば、その他の状態を示す判定結果の場合には、ランプを消灯させる出力情報を表示部102に出力する。さらに、出力制御部137は、例えば、判定結果の推移を示す情報を出力情報として表示部102に出力してもよい。
次に、実施例1の情動推定システム1の動作について説明する。図11は、実施例1の判定処理の一例を示すフローチャートである。
感情評価装置100の取得部131は、心拍センサ101から心拍変動データが入力されると、入力された心拍変動データを取得する(ステップS1)。取得部131は、取得した心拍変動データを予測部132に出力する。
予測部132は、取得部131から心拍変動データが入力されると、入力された心拍変動データに対してARモデルを用いて周波数解析を行って、現在の心拍数を予測する予測係数を算出する(ステップS2)。予測部132は、予測係数を含む周波数解析の結果を予測誤差算出部133、第1利得算出部134および第2利得算出部135に出力する。
予測誤差算出部133は、予測部132から周波数解析の結果が入力されると、予測係数における予測誤差パワーを算出する(ステップS3)。予測誤差算出部133は、算出した予測誤差パワーを判定部136に出力する。
第1利得算出部134は、予測部132から周波数解析の結果が入力されると、周波数解析の結果に基づいて、第1周波数より高い帯域の第1利得を算出する(ステップS4)。第1利得算出部134は、算出した第1利得を判定部136に出力する。
第2利得算出部135は、予測部132から周波数解析の結果が入力されると、周波数解析の結果に基づいて、第1周波数以下の周波数である第2周波数と第3周波数との間の帯域の第2利得を算出する(ステップS5)。第2利得算出部135は、算出した第2利得を判定部136に出力する。
判定部136には、予測誤差算出部133、第1利得算出部134および第2利得算出部135から、それぞれ、予測誤差パワー、第1利得および第2利得が入力される。判定部136は、予測誤差パワーおよび第2利得に基づいて、第2利得と予測誤差パワーとの第1の比を算出する(ステップS6)。また、判定部136は、第1利得および第2利得に基づいて、第2利得と第1利得との第2の比を算出する(ステップS7)。
判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満であるか否かを判定する(ステップS8)。判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満である場合には(ステップS8:肯定)、リラックスと判定し(ステップS9)、判定結果を出力制御部137に出力する。
判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満でない場合には(ステップS8:否定)、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値以上であるか否かを判定する(ステップS10)。判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値以上である場合には(ステップS10:肯定)、不安と判定し(ステップS11)、判定結果を出力制御部137に出力する。
判定部136は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値以上でない場合には(ステップS10:否定)、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上であるか否かを判定する(ステップS12)。判定部136は、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上である場合には(ステップS12:肯定)、イライラと判定し(ステップS13)、判定結果を出力制御部137に出力する。
判定部136は、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上でない場合には(ステップS12:否定)、その他の状態と判定し(ステップS14)、判定結果を出力制御部137に出力する。
出力制御部137は、判定部136から判定結果が入力されると、判定結果に応じた出力情報を表示部102に出力する(ステップS15)。表示部102は、制御部130から入力された出力情報に応じた表示を行う。これにより、感情評価装置100は、感情の異常状態に応じた出力を行うことができる。
このように、感情評価装置100は、1のユーザについて継続的に計測された心拍間隔の情報を取得する。また、感情評価装置100は、取得された心拍間隔の情報を周波数解析した結果得られる値、および、取得された心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、ユーザの感情を少なくとも2種類のいずれかに分類する。また、感情評価装置100は、分類された結果に応じて異なる出力を行う。その結果、感情の異常状態に応じた出力を行うことができる。
また、感情評価装置100は、取得された心拍間隔の情報に対してARモデルを用いて周波数解析を行って、現在の心拍数を予測する予測係数を算出する。また、感情評価装置100は、算出された予測係数における予測誤差パワーを算出する。また、感情評価装置100は、周波数解析の結果に基づいて、第2周波数より低い帯域の第2利得を算出する。また、感情評価装置100は、第2利得と予測誤差パワーとの第1の比を算出し、算出した第1の比を示す値に基づいて、ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する。また、感情評価装置100は、判定された感情に基づいて、ユーザの感情を少なくとも2種類のいずれかに分類する。その結果、イライラおよび不安のそれぞれの感情を判別できる。
また、感情評価装置100は、第2利得として、第2周波数と第2周波数よりも低い第3周波数との間の帯域の利得を算出する。その結果、イライラおよび不安のそれぞれの感情を判別できる。
また、感情評価装置100は、周波数解析の結果に基づいて、第2周波数以上の周波数である第1周波数より高い帯域の第1利得を算出する。また、感情評価装置100は、第2利得と第1利得との第2の比を算出し、第1の比および第2の比を軸とした2次元平面上に、第1の比および第2の比に基づく点を配置し、点が配置された2次元平面の領域に基づいて、ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する。その結果、イライラ、不安およびリラックスのそれぞれの感情を判別できる。
また、感情評価装置100は、感情の判定を継続的に行い、判定の結果の推移を示す情報を出力する。その結果、ユーザの感情の推移を把握できる。
また、感情評価装置100は、感情を第1の異常状態であるか、第2の異常状態であるかを判定する。その結果、イライラの感情と、不安の感情とを判別できる。
また、感情評価装置100は、感情を第1の異常状態、第2の異常状態、あるいは、正常状態または判別不能の状態であることを示すその他の状態のいずれであるかを判定する。その結果、イライラの感情と、不安の感情とを判別できるとともに、正常状態または判別不能の状態を判別できる。
また、感情評価装置100は、第1の異常状態および第2の異常状態を識別可能な情報を含むアラームを出力する。その結果、イライラの感情と、不安の感情とを区別して報知できる。
また、感情評価装置100は、その他の状態と判定された場合には、アラームを出力しない。その結果、余分な報知を抑止できる。
上記実施例1では、第2利得と予測誤差パワーとの第1の比、および、第2利得と第1利得との第2の比を用いて感情を判定したが、さらに、振幅特性のピークを用いて感情を判定してもよく、この場合の実施の形態につき、実施例2として説明する。図12は、実施例2の情動推定システムの構成の一例を示すブロック図である。なお、実施例1の情動推定システム1と同一の構成には同一符号を付すことで、その重複する構成及び動作の説明については省略する。
実施例2の情動推定システム2における感情評価装置200の制御部230は、実施例1の感情評価装置100の制御部130と比較して、さらに線スペクトル対算出部238を有する。また、感情評価装置200は、実施例1の第2利得算出部135および判定部136に代えて、第2利得算出部235および判定部236を有する。
線スペクトル対算出部238には、予測部132からARモデルの解析結果が入力される。なお、感情評価装置200の予測部132では、線スペクトル対算出部238に対してARモデルの解析結果が出力される。線スペクトル対算出部238は、入力されたARモデルの解析結果に基づいて、線スペクトル対(以下、LSP(Line Spectral Pair)ともいう。)を算出する。線スペクトル対算出部238は、算出したLSP群を第2利得算出部235および判定部236に出力する。
ここで、LF帯域における振幅特性の取り方とLSPとについて説明する。LF成分/HF成分の比をとる際に、帯域全体の積分値の比をとる手法が知られている。このとき、ピークを見るという測定手法を採用したとしても、比をとるのでLF成分、HF成分の双方とも同じ測定手法をとった上で、比に対する閾値を適切に定めれば問題はない。ところが、本願では、グラフの片方の軸がLF成分/残留誤差の比であり、残留誤差はスカラ値であるため、LF帯域における振幅特性の形状の適切な取り方が問題となる。なお、LF帯域は、第2周波数と第3周波数との間の帯域である。
実施例2では、LF帯域における振幅特性の取り方として、予測系列a,a,・・・,aからLSPと呼ばれるパラメータに変換する。ここで、LSPは、ARモデルをZ変換で表わした線形予測多項式である下記の式(2)を用いて構成される、下記の式(3)の多項式の根である。
Figure 2017121286
Figure 2017121286
式(3)の根は、単位円上にあることがわかっているため、元のA(z)の根を、単位円上の2つの根のペアにマッピングしたものが得られる。LSPは、A(z)の根を数値解析的に解くより計算量が少なくて済み、A(z)の周波数特性をつかむことができるという特徴がある。このことを利用して、LF帯域における振幅特性がどのようなものかの物差しとして導入する。より具体的には、LSPの密なところが周波数特性のピーク、疎なところは谷の部分ということが分かっている。つまり、LF帯域におけるLSPの間隔をみれば、明確なピークの有無がわかる。
第2利得算出部235は、線スペクトル対算出部238からLSP群が入力されると、LSPで挟まれた帯域に基づいて第2利得を算出する。なお、利得の算出については、実施例1の第2利得算出部135と同様であってもよいが、LSP間の中点を算出することで周波数特性のプロット数を削減することができる。第2利得算出部235は、算出した第2利得を判定部236に出力する。
判定部236には、実施例1の判定部136と比較して、さらに、線スペクトル対算出部238からLSP群が入力される。判定部236は、第2周波数と第3周波数との間の利得特性(周波数特性)にピークがあるか否かについてLSP群を用いて評価する。つまり、判定部236は、LF帯域にピークがあるか否かをLSPで得られた角周波数を用いて判定する。当該評価は、感情によって血圧との相関が低くなれば、LF帯域に明確なピークが現れなくなる。つまり、当該評価は、ピークがあることは定常性があることを示し、ピークがないことは定常性がないことを示す。なお、判定部236は、利得特性のピークを評価する際に、LSPを周波数の低いものから順に並べて2本目からN本目(Nは、例えば4〜6である。)について、間隔の最小距離を見て、つまりLSPが一番密になっている箇所を見て評価してもよい。
具体的には、判定部236は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満であるか否かを判定する。判定部236は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満である場合には、リラックスと判定する。
判定部236は、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値未満でない場合には、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値以上、かつ、第2周波数と第3周波数との間の利得特性にピークがあるか否かを判定する。判定部236は、当該判定条件を満たす場合には、不安と判定する。判定部236は、当該判定条件を満たさない場合には、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上であるか否かを判定する。判定部236は、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上である場合には、イライラと判定する。
判定部236は、第1の比が第1の閾値未満、かつ、第2の比が第2の閾値以上でない場合には、その他の状態と判定する。判定部236は、判定結果を出力制御部137に出力する。すなわち、判定部236は、算出されたLSPの間隔に基づくピークが、第2周波数と第3周波数との間の帯域にあるか否かに基づいて、ユーザの感情を判定する。
ここで、図13から図15を用いて、イライラ、不安およびリラックスの感情における、心拍変動の周波数特性およびLSPについて説明する。なお、図中において、LSPは点線で示す。図13は、心拍変動の周波数特性およびLSPの一例を示す図である。図13のグラフは、イライラの感情における心拍変動の周波数特性およびLSPである。図13のグラフでは、明確なピークが現れていない状態である。
図14は、心拍変動の周波数特性およびLSPの他の一例を示す図である。図14のグラフは、不安の感情における心拍変動の周波数特性およびLSPである。図14のグラフでは、LF帯域とHF帯域とにピークが現れている状態である。
図15は、心拍変動の周波数特性およびLSPの他の一例を示す図である。図15のグラフは、リラックスの感情における心拍変動の周波数特性およびLSPである。図15のグラフでは、HF帯域にピークが現れている状態である。図13から図15に示すように、LSPの密なところが周波数特性のピークであり、疎なところはそうではないところである。すなわち、これらのグラフでは、LF帯域におけるLSPの間隔を見ると、明確なピークの有無がわかる。つまり、これらのグラフでは、LF帯域におけるLSPのペアおよびその中点の3点で傾きを求め、その符号が反対ならばピークがあることになる。また、当該符号が同じであればピークがないことがわかる。
次に、実施例2の情動推定システム2の動作について説明する。図16は、実施例2の判定処理の一例を示すフローチャートである。以下の説明では、ステップS1〜S9、S11〜S15の処理は、実施例1と同様であるので、その説明を省略する。
感情評価装置200は、ステップS2の処理に続いて、次の処理を実行する。線スペクトル対算出部238には、予測部132からARモデルの解析結果が入力される。線スペクトル対算出部238は、入力されたARモデルの解析結果に基づいて、線スペクトル対を算出する(ステップS21)。線スペクトル対算出部238は、算出したLSP群を第2利得算出部235および判定部236に出力し、ステップS3に進む。
感情評価装置200は、ステップS5の処理に続いて、次の処理を実行する。判定部236は、第2周波数と第3周波数との間の利得特性にピークがあるか否かについてLSP群を用いて評価する(ステップS22)。なお、ステップS22での評価結果は、ステップS23での判定に用いる。感情評価装置200は、ステップS6に進む。
感情評価装置200は、ステップS8の処理に続いて、次の処理を実行する。判定部236は、ステップS8の判定において否定の場合に、第1の比が第1の閾値以上、かつ、第2の比が第2の閾値以上、かつ、第2周波数と第3周波数との間の利得特性にピークがあるか否かを判定する(ステップS23)。判定部236は、当該判定条件を満たす場合には(ステップS23:肯定)、不安と判定し(ステップS11)、ステップS15に進む。判定部236は、当該判定条件を満たさない場合には(ステップS23:否定)、ステップS12に進む。これにより、感情評価装置200は、より的確に感情の異常状態に応じた出力を行うことができる。
このように、感情評価装置200は、さらに、ARモデルの解析結果に基づいて線スペクトル対を算出する。また、感情評価装置200は、算出した線スペクトル対の間隔に基づくピークが、第2周波数と第3周波数との間の帯域にあるか否かに基づいて、ユーザの感情を判定する。その結果、より的確に感情の異常状態に応じた出力を行うことができる。
また、感情評価装置200は、第2利得を線スペクトル対で挟まれた帯域に基づいて算出する。その結果、より的確に感情の異常状態に応じた出力を行うことができる。
上記各実施例では、判定結果に基づく出力情報を出力制御部137から表示部102に出力したが、さらに、ユーザが操作中の所定の装置や管理者端末に出力情報を送信してもよく、この場合の実施の形態につき、実施例3として説明する。図17は、実施例3の情動推定システムの構成の一例を示すブロック図である。なお、実施例1の情動推定システム1と同一の構成には同一符号を付すことで、その重複する構成及び動作の説明については省略する。
実施例3の情動推定システム3は、感情評価装置300と、所定の装置400と、管理者端末500と、サーバ装置600とを有する。感情評価装置300は、実施例1の感情評価装置100の表示部102に代えて、第1表示部302および第2表示部303を有する。また、感情評価装置300は、実施例1の感情評価装置100と比較して、さらに通信部310を有する。さらに、感情評価装置300の制御部330は、実施例1の制御部130の出力制御部137に代えて出力制御部337を有する。
第1表示部302は、実施例1の表示部102と同様に、ユーザの感情が分類された結果に応じて異なる出力を行う表示デバイスである。第1表示部302は、例えば、表示デバイスとして複数の色のランプを有する表示器等によって実現される。第1表示部302は、制御部330から入力された出力情報に応じた表示を行う。
第2表示部303は、各種情報を表示するための表示デバイスである。第2表示部303は、例えば、表示デバイスとして液晶ディスプレイ等によって実現される。第2表示部303は、制御部330から入力された出力画面等の各種画面を表示する。
通信部310は、例えば、NIC(Network Interface Card)等によって実現される。通信部310は、ネットワークNを介して所定の装置400、管理者端末500およびサーバ装置600と有線または無線で接続され、所定の装置400、管理者端末500およびサーバ装置600との間で情報の通信を司る通信インタフェースである。通信部310は、制御部330から入力された出力情報を所定の装置400、管理者端末500およびサーバ装置600に送信する。
出力制御部337は、実施例1の出力制御部137と比較して、さらに、第2表示部303への出力画面の出力と、通信部310を介して、所定の装置400、管理者端末500およびサーバ装置600に出力情報およびログデータを送信する点が異なる。出力制御部337は、例えば、判定結果のイライラ(怒り)、不安およびリラックスのそれぞれに応じて、それぞれ異なる色のランプを点灯させる出力情報を第1表示部302に出力し、それぞれの判定結果に応じた色のランプを点灯させる。また、出力制御部337は、判定結果に対応する出力情報を、通信部310を介して、所定の装置400および管理者端末500に送信する。すなわち、出力制御部337は、判定の結果がその他の状態から第1の異常状態または第2の異常状態に変化した場合、もしくは、判定の開始時から第1の異常状態または第2の異常状態である場合に、管理者端末500に対してアラームを送信する。なお、アラームは、出力情報の一例である。
また、出力制御部337は、判定部136から入力される判定結果に応じたメッセージを表示する出力画面を生成し、生成した出力画面を第2表示部303に出力して表示させる。出力制御部337は、例えば、判定結果がイライラである場合には、「ご不便をおかけしており申し訳ございません。係員が対応致します、少々お待ちください。」といったメッセージを表示する出力画面を生成して、第2表示部303に表示させる。また、出力制御部337は、例えば、判定結果が不安である場合には、「操作について詳しい者が案内致します、少々お待ちください。」といったメッセージを表示する出力画面を生成して、第2表示部303に表示させる。
出力制御部337は、判定部136から入力される判定結果をタイムスタンプとともに時系列的に記録した第1ログデータを生成する。出力制御部337は、生成した第1ログデータを、通信部310およびネットワークNを介して、サーバ装置600に送信する。なお、出力制御部337は、第1ログデータの送信タイミングとして、例えば、出力情報を所定の装置400および管理者端末500に送信するタイミングを用いることができる。
所定の装置400は、例えば、セルフレジやATM等の装置であり、ユーザによって操作される装置である。所定の装置400は、ユーザの操作に関する情報をタイムスタンプとともに時系列的に記録した第2ログデータを生成する。なお、ユーザの操作に関する情報は、所定の装置400で実行されていた処理内容、操作内容または画面内容に関する情報を含む情報である。所定の装置400は、感情評価装置300から、ネットワークNを介して出力情報を受信すると、生成した第2ログデータを、通信部310およびネットワークNを介して、サーバ装置600に送信する。
管理者端末500は、感情評価装置300、所定の装置400およびサーバ装置600を管理する管理者が用いる端末装置である。管理者端末500は、例えば、感情評価装置300から出力情報を受信すると、受信した出力情報を図示しない表示部に表示させる。すなわち、管理者端末500は、出力情報であるアラームを図示しない表示部に表示させる。また、管理者端末500は、ネットワークNを介して、サーバ装置600に対して、第1ログデータおよび第2ログデータの解析を指示し、解析結果を受信して図示しない表示部に表示させる。
サーバ装置600は、第1ログデータおよび第2ログデータを記憶するとともに、管理者端末500からの解析指示に基づいて解析を実行し、解析結果を管理者端末500に送信するサーバ装置である。サーバ装置600は、ネットワークNを介して、感情評価装置300から第1ログデータを受信し、所定の装置400から第2ログデータを受信する。サーバ装置600は、受信した第1ログデータおよび第2ログデータを図示しない記憶部に記憶して蓄積する。また、サーバ装置600は、ネットワークNを介して、管理者端末500から解析指示を受信すると、蓄積した第1ログデータおよび第2ログデータを突き合わせることで、感情の変化時に何が原因となったのかを解析する。サーバ装置600は、ネットワークNを介して、解析結果を管理者端末500に送信する。
ここで、図18を用いてログデータについて説明する。図18は、ログデータの一例を示す図である。図18に示すように、第1ログデータ50および第2ログデータ51は、それぞれ、感情の判定結果と、操作イベントとをタイムスタンプ、つまり日時情報と対応付けて記憶されている。サーバ装置600は、第1ログデータ50および第2ログデータ51を突き合わせて、感情の変化時に何が原因となったのかを解析する。図18の例では、突き合わせ52によって、第1ログデータ50の「感情A 確度X1」と、第2ログデータ51の操作イベント「A」とが対応付けられる。つまり、サーバ装置600は、「感情A」の原因が操作イベント「A」であると解析する。
同様に、図18の例では、第1ログデータ50の「感情A 確度X2」と、第2ログデータ51の操作イベント「B」とが対応付けられる。つまり、サーバ装置600は、「感情A」の原因が操作イベント「B」であると解析する。また同様に、図18の例では、第1ログデータ50の「感情B 確度X3」と、第2ログデータ51の操作イベント「C」とが対応付けられる。つまり、サーバ装置600は、「感情B」の原因が操作イベント「C」であると解析する。なお、確度は、例えば、図8に示す感情評価のグラフにおいて、領域21、22、23のそれぞれの領域の中心部ほど確度を高くし、周辺部ほど確度を低くすることができる。確度は、例えば、各領域の中心部から周辺部にかけて、確度X1〜X3を割り当てることができる。
次に、実施例3の情動推定システム3の動作について説明する。図19は、実施例3の判定処理の一例を示すフローチャートである。以下の説明では、ステップS1〜S14の処理は、実施例1と同様であるので、その説明を省略する。
感情評価装置300は、ステップS9、S11、S13またはS14の処理に続いて、次の処理を実行する。出力制御部337は、判定部136から判定結果が入力されると、判定結果に応じた出力情報を第1表示部302に出力し、それぞれの判定結果に応じた色のランプを点灯させる。また、出力制御部337は、判定部136から入力される判定結果に応じたメッセージを表示する出力画面を生成し、生成した出力画面を第2表示部303に出力して表示させる。さらに、出力制御部337は、判定結果に対応する出力情報、つまりアラームを、所定の装置400および管理者端末500に送信する(ステップS31)。なお、所定の装置400では、出力情報の受信に応じて、第2ログデータがサーバ装置600に送信される。
出力制御部337は、判定部136から入力される判定結果をタイムスタンプとともに時系列的に記録した第1ログデータを生成する。出力制御部337は、生成した第1ログデータを、例えば、出力情報を送信するタイミングでサーバ装置600に送信する(ステップS32)。なお、サーバ装置600では、感情評価装置300から受信した第1ログデータと、所定の装置400から受信した第2ログデータとが記憶され蓄積される。これにより、情動推定システム3は、ユーザの心情を読み取り、先回りして提示するので、不安やイライラの感情を抑え、顧客満足度向上に資することができる。また、情動推定システム3は、どの様な操作がユーザの感情を損なっているかを解析できる。また、情動推定システム3は、所定の装置400の改善や店舗運営の分析ができる。
このように、感情評価装置300は、判定の結果がその他の状態から第1の異常状態または第2の異常状態に変化した場合、もしくは、判定の開始時から第1の異常状態または第2の異常状態である場合に、管理者端末500に対してアラームを送信する。その結果、イライラや不安の感情を抱いているユーザに対して、管理者が適切に対応することができる。
また、情動推定システム3では、ユーザは、所定の装置400を操作しているユーザである。また、所定の装置400は、感情評価装置300の判定部136において感情が第1の異常状態または第2の異常状態と判定されたときに、該所定の装置400で実行されていた処理内容、操作内容または画面内容に関する情報を出力する。その結果、どの様な操作がユーザの感情を損なっているかを解析できる。
なお、図示した各部の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、予測部132と、予測誤差算出部133とを統合してもよい。また、図示した各処理は、上記の順番に限定されるものではなく、処理内容を矛盾させない範囲において、同時に実施してもよく、順序を入れ替えて実施してもよい。
さらに、各装置で行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウェア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。
ところで、上記の実施例で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図20は、情動推定プログラムを実行するコンピュータの一例を示す図である。
図20に示すように、コンピュータ700は、各種演算処理を実行するCPU701と、データ入力を受け付ける入力装置702と、モニタ703とを有する。また、コンピュータ700は、記憶媒体からプログラム等を読み取る媒体読取装置704と、各種装置と接続するためのインタフェース装置705と、他の情報処理装置等と有線または無線により接続するための通信装置706とを有する。また、コンピュータ700は、各種情報を一時記憶するRAM707と、ハードディスク装置708とを有する。また、各装置701〜708は、バス709に接続される。
ハードディスク装置708には、図1に示した取得部131、予測部132、予測誤差算出部133、第1利得算出部134、第2利得算出部135、判定部136および出力制御部137の各処理部と同様の機能を有する情動推定プログラムが記憶される。また、ハードディスク装置708には、図12に示した取得部131、予測部132、予測誤差算出部133および第1利得算出部134の各処理部と同様の機能を有する情動推定プログラムが記憶されてもよい。また、ハードディスク装置708には、図12に示した第2利得算出部235、判定部236、出力制御部137および線スペクトル対算出部238の各処理部と同様の機能を有する情動推定プログラムが記憶されてもよい。また、ハードディスク装置708には、図17に示した取得部131、予測部132、予測誤差算出部133、第1利得算出部134、第2利得算出部135、判定部136および出力制御部337の各処理部と同様の機能を有する情動推定プログラムが記憶されてもよい。また、ハードディスク装置708には、情動推定プログラムを実現するための各種データが記憶される。
入力装置702は、例えば、コンピュータ700の管理者から操作情報等の各種情報の入力を受け付ける。モニタ703は、例えば、図1または図12に示した表示部102、あるいは、図17に示した第1表示部302および第2表示部303と同様の機能を有し、出力情報に応じた表示を行う。インタフェース装置705は、例えば、図1、図12または図17に示した心拍センサ101が接続される。通信装置706は、例えば、図17に示した通信部310と同様の機能を有し、ネットワークNと接続され、所定の装置400、管理者端末500およびサーバ装置600と各種情報をやりとりする。
CPU701は、ハードディスク装置708に記憶された各プログラムを読み出して、RAM707に展開して実行することで、各種の処理を行う。また、これらのプログラムは、コンピュータ700を図1に示した取得部131、予測部132、予測誤差算出部133、第1利得算出部134、第2利得算出部135、判定部136および出力制御部137として機能させることができる。また、これらのプログラムは、コンピュータ700を、図12に示した取得部131、予測部132、予測誤差算出部133、第1利得算出部134、第2利得算出部235、判定部236、出力制御部137および線スペクトル対算出部238として機能させてもよい。また、これらのプログラムは、コンピュータ700を、図17に示した取得部131、予測部132、予測誤差算出部133、第1利得算出部134、第2利得算出部135、判定部136および出力制御部337として機能させてもよい。
なお、上記の情動推定プログラムは、必ずしもハードディスク装置708に記憶されている必要はない。例えば、コンピュータ700が読み取り可能な記憶媒体に記憶されたプログラムを、コンピュータ700が読み出して実行するようにしてもよい。コンピュータ700が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこの情動推定プログラムを記憶させておき、コンピュータ700がこれらから情動推定プログラムを読み出して実行するようにしてもよい。
以上、各実施例を含む実施の形態に関し、さらに以下の付記を開示する。
(付記1)1のユーザについて継続的に計測された心拍間隔の情報を取得する取得部と、
取得された前記心拍間隔の情報を周波数解析した結果得られる値、および、取得された前記心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類する分類部と、
分類された結果に応じて異なる出力を行う出力制御部と、
を有することを特徴とする情動推定システム。
(付記2)前記分類部は、
取得された前記心拍間隔の情報に対してARモデルを用いて周波数解析を行って、現在の心拍数を予測する予測係数を算出する予測部と、
算出された前記予測係数における予測誤差パワーを算出する予測誤差算出部と、
前記周波数解析の結果に基づいて、第2周波数より低い帯域の第2利得を算出する第2利得算出部と、
前記第2利得と前記予測誤差パワーとの第1の比を算出し、算出した前記第1の比を示す値に基づいて、前記ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する判定部と、を有し、
判定された前記感情に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類する、
ことを特徴とする付記1に記載の情動推定システム。
(付記3)前記第2利得算出部は、前記第2利得として、前記第2周波数と前記第2周波数よりも低い第3周波数との間の帯域の利得を算出する、
ことを特徴とする付記2に記載の情動推定システム。
(付記4)前記分類部はさらに、前記周波数解析の結果に基づいて、前記第2周波数以上の周波数である第1周波数より高い帯域の第1利得を算出する第1利得算出部を有し、
前記判定部はさらに、前記第2利得と前記第1利得との第2の比を算出し、前記第1の比および前記第2の比を軸とした2次元平面上に、前記第1の比および前記第2の比に基づく点を配置し、前記点が配置された前記2次元平面の領域に基づいて、前記ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する、
ことを特徴とする付記2に記載の情動推定システム。
(付記5)さらに、前記ARモデルの解析結果に基づいて線スペクトル対を算出する線スペクトル対算出部を有し、
前記判定部は、算出した前記線スペクトル対の間隔に基づくピークが、前記第2周波数と前記第3周波数との間の帯域にあるか否かに基づいて、前記ユーザの感情を判定する、
ことを特徴とする付記3に記載の情動推定システム。
(付記6)前記第2利得算出部は、前記第2利得を前記線スペクトル対で挟まれた帯域に基づいて算出する、
ことを特徴とする付記5に記載の情動推定システム。
(付記7)前記判定部は、前記感情の判定を継続的に行い、
前記出力制御部は、前記判定の結果の推移を示す情報を出力する、
ことを特徴とする付記2〜6のいずれか1つに記載の情動推定システム。
(付記8)前記判定部は、前記感情を第1の異常状態であるか、第2の異常状態であるかを判定する、
ことを特徴とする付記2〜7のいずれか1つに記載の情動推定システム。
(付記9)前記判定部は、前記感情を第1の異常状態、第2の異常状態、あるいは、正常状態または判別不能の状態であることを示すその他の状態のいずれであるかを判定する、
ことを特徴とする付記2〜7のいずれか1つに記載の情動推定システム。
(付記10)前記出力制御部は、前記第1の異常状態および前記第2の異常状態を識別可能な情報を含むアラームを出力する、
ことを特徴とする付記8または9に記載の情動推定システム。
(付記11)前記出力制御部は、前記その他の状態と判定された場合には、アラームを出力しない、
ことを特徴とする付記9に記載の情動推定システム。
(付記12)前記出力制御部は、前記判定の結果が前記その他の状態から前記第1の異常状態または前記第2の異常状態に変化した場合、もしくは、前記判定の開始時から前記第1の異常状態または前記第2の異常状態である場合に、管理者端末に対してアラームを送信する、
ことを特徴とする付記9に記載の情動推定システム。
(付記13)前記ユーザは、所定の装置を操作しているユーザであり、
前記所定の装置は、前記判定部において前記感情が前記第1の異常状態または前記第2の異常状態と判定されたときに、該所定の装置で実行されていた処理内容、操作内容または画面内容に関する情報を出力する、
ことを特徴とする付記8〜12のいずれか1つに記載の情動推定システム。
(付記14)1のユーザについて継続的に計測された心拍間隔の情報を取得し、
取得された前記心拍間隔の情報を周波数解析した結果得られる値、および、取得された前記心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類し、
分類された結果に応じて異なる出力を行う、
処理をコンピュータが実行することを特徴とする情動推定方法。
(付記15)前記分類する処理は、
取得された前記心拍間隔の情報に対してARモデルを用いて周波数解析を行って、現在の心拍数を予測する予測係数を算出し、
算出された前記予測係数における予測誤差パワーを算出し、
前記周波数解析の結果に基づいて、第2周波数より低い帯域の第2利得を算出し、
前記第2利得と前記予測誤差パワーとの第1の比を算出し、算出した前記第1の比を示す値に基づいて、前記ユーザの感情を2種類以上の感情のうち、いずれであるかを判定し、
判定された前記感情に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類する、
ことを特徴とする付記14に記載の情動推定方法。
(付記16)前記第2利得を算出する処理は、前記第2利得として、前記第2周波数と前記第2周波数よりも低い第3周波数との間の帯域の利得を算出する、
ことを特徴とする付記15に記載の情動推定方法。
(付記17)前記分類する処理はさらに、前記周波数解析の結果に基づいて、前記第2周波数以上の周波数である第1周波数より高い帯域の第1利得を算出し、
前記判定する処理はさらに、前記第2利得と前記第1利得との第2の比を算出し、前記第1の比および前記第2の比を軸とした2次元平面上に、前記第1の比および前記第2の比に基づく点を配置し、前記点が配置された前記2次元平面の領域に基づいて、前記ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する、
ことを特徴とする付記15に記載の情動推定方法。
(付記18)さらに、前記ARモデルの解析結果に基づいて線スペクトル対を算出し、
前記判定する処理は、算出した前記線スペクトル対の間隔に基づくピークが、前記第2周波数と前記第3周波数との間の帯域にあるか否かに基づいて、前記ユーザの感情を判定する、
ことを特徴とする付記16に記載の情動推定方法。
(付記19)前記第2利得を算出する処理は、前記第2利得を前記線スペクトル対で挟まれた帯域に基づいて算出する、
ことを特徴とする付記18に記載の情動推定方法。
(付記20)前記判定する処理は、前記感情の判定を継続的に行い、
前記出力を行う処理は、前記判定の結果の推移を示す情報を出力する、
ことを特徴とする付記15〜19のいずれか1つに記載の情動推定方法。
(付記21)前記判定する処理は、前記感情を第1の異常状態であるか、第2の異常状態であるかを判定する、
ことを特徴とする付記15〜20のいずれか1つに記載の情動推定方法。
(付記22)前記判定する処理は、前記感情を第1の異常状態、第2の異常状態、あるいは、正常状態または判別不能の状態であることを示すその他の状態のいずれであるかを判定する、
ことを特徴とする付記15〜20のいずれか1つに記載の情動推定方法。
(付記23)前記出力を行う処理は、前記第1の異常状態および前記第2の異常状態を識別可能な情報を含むアラームを出力する、
ことを特徴とする付記21または22に記載の情動推定方法。
(付記24)前記出力を行う処理は、前記その他の状態と判定された場合には、アラームを出力しない、
ことを特徴とする付記22に記載の情動推定方法。
(付記25)前記出力を行う処理は、前記判定の結果が前記その他の状態から前記第1の異常状態または前記第2の異常状態に変化した場合、もしくは、前記判定の開始時から前記第1の異常状態または前記第2の異常状態である場合に、管理者端末に対してアラームを送信する、
ことを特徴とする付記22に記載の情動推定方法。
(付記26)前記ユーザは、所定の装置を操作しているユーザであり、
前記所定の装置は、前記判定する処理において前記感情が前記第1の異常状態または前記第2の異常状態と判定されたときに、該所定の装置で実行されていた処理内容、操作内容または画面内容に関する情報を出力する、
ことを特徴とする付記21〜25のいずれか1つに記載の情動推定方法。
(付記27)1のユーザについて継続的に計測された心拍間隔の情報を取得し、
取得された前記心拍間隔の情報を周波数解析した結果得られる値、および、取得された前記心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類し、
分類された結果に応じて異なる出力を行う、
処理をコンピュータに実行させることを特徴とする情動推定プログラム。
(付記28)前記分類する処理は、
取得された前記心拍間隔の情報に対してARモデルを用いて周波数解析を行って、現在の心拍数を予測する予測係数を算出し、
算出された前記予測係数における予測誤差パワーを算出し、
前記周波数解析の結果に基づいて、第2周波数より低い帯域の第2利得を算出し、
前記第2利得と前記予測誤差パワーとの第1の比を算出し、算出した前記第1の比を示す値に基づいて、前記ユーザの感情を2種類以上の感情のうち、いずれであるかを判定し、
判定された前記感情に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類する、
ことを特徴とする付記27に記載の情動推定プログラム。
(付記29)前記第2利得を算出する処理は、前記第2利得として、前記第2周波数と前記第2周波数よりも低い第3周波数との間の帯域の利得を算出する、
ことを特徴とする付記28に記載の情動推定プログラム。
(付記30)前記分類する処理はさらに、前記周波数解析の結果に基づいて、前記第2周波数以上の周波数である第1周波数より高い帯域の第1利得を算出し、
前記判定する処理はさらに、前記第2利得と前記第1利得との第2の比を算出し、前記第1の比および前記第2の比を軸とした2次元平面上に、前記第1の比および前記第2の比に基づく点を配置し、前記点が配置された前記2次元平面の領域に基づいて、前記ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する、
ことを特徴とする付記28に記載の情動推定プログラム。
(付記31)さらに、前記ARモデルの解析結果に基づいて線スペクトル対を算出し、
前記判定する処理は、算出した前記線スペクトル対の間隔に基づくピークが、前記第2周波数と前記第3周波数との間の帯域にあるか否かに基づいて、前記ユーザの感情を判定する、
ことを特徴とする付記29に記載の情動推定プログラム。
(付記32)前記第2利得を算出する処理は、前記第2利得を前記線スペクトル対で挟まれた帯域に基づいて算出する、
ことを特徴とする付記31に記載の情動推定プログラム。
(付記33)前記判定する処理は、前記感情の判定を継続的に行い、
前記出力を行う処理は、前記判定の結果の推移を示す情報を出力する、
ことを特徴とする付記28〜32のいずれか1つに記載の情動推定プログラム。
(付記34)前記判定する処理は、前記感情を第1の異常状態であるか、第2の異常状態であるかを判定する、
ことを特徴とする付記28〜33のいずれか1つに記載の情動推定プログラム。
(付記35)前記判定する処理は、前記感情を第1の異常状態、第2の異常状態、あるいは、正常状態または判別不能の状態であることを示すその他の状態のいずれであるかを判定する、
ことを特徴とする付記28〜33のいずれか1つに記載の情動推定プログラム。
(付記36)前記出力を行う処理は、前記第1の異常状態および前記第2の異常状態を識別可能な情報を含むアラームを出力する、
ことを特徴とする付記34または35に記載の情動推定プログラム。
(付記37)前記出力を行う処理は、前記その他の状態と判定された場合には、アラームを出力しない、
ことを特徴とする付記35に記載の情動推定プログラム。
(付記38)前記出力を行う処理は、前記判定の結果が前記その他の状態から前記第1の異常状態または前記第2の異常状態に変化した場合、もしくは、前記判定の開始時から前記第1の異常状態または前記第2の異常状態である場合に、管理者端末に対してアラームを送信する、
ことを特徴とする付記35に記載の情動推定プログラム。
(付記39)前記ユーザは、所定の装置を操作しているユーザであり、
前記所定の装置は、前記判定する処理において前記感情が前記第1の異常状態または前記第2の異常状態と判定されたときに、該所定の装置で実行されていた処理内容、操作内容または画面内容に関する情報を出力する、
ことを特徴とする付記34〜38のいずれか1つに記載の情動推定プログラム。
1,2,3 情動推定システム
100,200,300 感情評価装置
101 心拍センサ
102 表示部
120 記憶部
130,230,330 制御部
131 取得部
132 予測部
133 予測誤差算出部
134 第1利得算出部
135,235 第2利得算出部
136,236 判定部
137,337 出力制御部
238 線スペクトル対算出部
302 第1表示部
303 第2表示部
310 通信部
400 所定の装置
500 管理者端末
600 サーバ装置
N ネットワーク

Claims (15)

  1. 1のユーザについて継続的に計測された心拍間隔の情報を取得する取得部と、
    取得された前記心拍間隔の情報を周波数解析した結果得られる値、および、取得された前記心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類する分類部と、
    分類された結果に応じて異なる出力を行う出力制御部と、
    を有することを特徴とする情動推定システム。
  2. 前記分類部は、
    取得された前記心拍間隔の情報に対してARモデルを用いて周波数解析を行って、現在の心拍数を予測する予測係数を算出する予測部と、
    算出された前記予測係数における予測誤差パワーを算出する予測誤差算出部と、
    前記周波数解析の結果に基づいて、第2周波数より低い帯域の第2利得を算出する第2利得算出部と、
    前記第2利得と前記予測誤差パワーとの第1の比を算出し、算出した前記第1の比を示す値に基づいて、前記ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する判定部と、を有し、
    判定された前記感情に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類する、
    ことを特徴とする請求項1に記載の情動推定システム。
  3. 前記第2利得算出部は、前記第2利得として、前記第2周波数と前記第2周波数よりも低い第3周波数との間の帯域の利得を算出する、
    ことを特徴とする請求項2に記載の情動推定システム。
  4. 前記分類部はさらに、前記周波数解析の結果に基づいて、前記第2周波数以上の周波数である第1周波数より高い帯域の第1利得を算出する第1利得算出部を有し、
    前記判定部はさらに、前記第2利得と前記第1利得との第2の比を算出し、前記第1の比および前記第2の比を軸とした2次元平面上に、前記第1の比および前記第2の比に基づく点を配置し、前記点が配置された前記2次元平面の領域に基づいて、前記ユーザの感情を2種類以上の感情のうち、いずれであるかを判定する、
    ことを特徴とする請求項2に記載の情動推定システム。
  5. さらに、前記ARモデルの解析結果に基づいて線スペクトル対を算出する線スペクトル対算出部を有し、
    前記判定部は、算出した前記線スペクトル対の間隔に基づくピークが、前記第2周波数と前記第3周波数との間の帯域にあるか否かに基づいて、前記ユーザの感情を判定する、
    ことを特徴とする請求項3に記載の情動推定システム。
  6. 前記第2利得算出部は、前記第2利得を前記線スペクトル対で挟まれた帯域に基づいて算出する、
    ことを特徴とする請求項5に記載の情動推定システム。
  7. 前記判定部は、前記感情の判定を継続的に行い、
    前記出力制御部は、前記判定の結果の推移を示す情報を出力する、
    ことを特徴とする請求項2〜6のいずれか1つに記載の情動推定システム。
  8. 前記判定部は、前記感情を第1の異常状態であるか、第2の異常状態であるかを判定する、
    ことを特徴とする請求項2〜7のいずれか1つに記載の情動推定システム。
  9. 前記判定部は、前記感情を第1の異常状態、第2の異常状態、あるいは、正常状態または判別不能の状態であることを示すその他の状態のいずれであるかを判定する、
    ことを特徴とする請求項2〜7のいずれか1つに記載の情動推定システム。
  10. 前記出力制御部は、前記第1の異常状態および前記第2の異常状態を識別可能な情報を含むアラームを出力する、
    ことを特徴とする請求項8または9に記載の情動推定システム。
  11. 前記出力制御部は、前記その他の状態と判定された場合には、アラームを出力しない、
    ことを特徴とする請求項9に記載の情動推定システム。
  12. 前記出力制御部は、前記判定の結果が前記その他の状態から前記第1の異常状態または前記第2の異常状態に変化した場合、もしくは、前記判定の開始時から前記第1の異常状態または前記第2の異常状態である場合に、管理者端末に対してアラームを送信する、
    ことを特徴とする請求項9に記載の情動推定システム。
  13. 前記ユーザは、所定の装置を操作しているユーザであり、
    前記所定の装置は、前記判定部において前記感情が前記第1の異常状態または前記第2の異常状態と判定されたときに、該所定の装置で実行されていた処理内容、操作内容または画面内容に関する情報を出力する、
    ことを特徴とする請求項8〜12のいずれか1つに記載の情動推定システム。
  14. 1のユーザについて継続的に計測された心拍間隔の情報を取得し、
    取得された前記心拍間隔の情報を周波数解析した結果得られる値、および、取得された前記心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類し、
    分類された結果に応じて異なる出力を行う、
    処理をコンピュータが実行することを特徴とする情動推定方法。
  15. 1のユーザについて継続的に計測された心拍間隔の情報を取得し、
    取得された前記心拍間隔の情報を周波数解析した結果得られる値、および、取得された前記心拍間隔の情報に基づいて算出された予測心拍間隔と実際に得られた心拍間隔とのズレを示す値との比を示す値に基づいて、前記ユーザの感情を少なくとも2種類のいずれかに分類し、
    分類された結果に応じて異なる出力を行う、
    処理をコンピュータに実行させることを特徴とする情動推定プログラム。
JP2016000655A 2016-01-05 2016-01-05 情動推定システム、情動推定方法および情動推定プログラム Pending JP2017121286A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016000655A JP2017121286A (ja) 2016-01-05 2016-01-05 情動推定システム、情動推定方法および情動推定プログラム
US15/350,903 US20170188977A1 (en) 2016-01-05 2016-11-14 Emotion estimation system, emotion estimation method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016000655A JP2017121286A (ja) 2016-01-05 2016-01-05 情動推定システム、情動推定方法および情動推定プログラム

Publications (1)

Publication Number Publication Date
JP2017121286A true JP2017121286A (ja) 2017-07-13

Family

ID=59235078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016000655A Pending JP2017121286A (ja) 2016-01-05 2016-01-05 情動推定システム、情動推定方法および情動推定プログラム

Country Status (2)

Country Link
US (1) US20170188977A1 (ja)
JP (1) JP2017121286A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019069910A1 (ja) * 2017-10-02 2019-04-11 日本電気株式会社 情動判定装置、情動判定方法、及びプログラム
WO2019107266A1 (ja) * 2017-11-29 2019-06-06 シャープ株式会社 情報処理装置、状態取得プログラム、サーバ、および情報処理方法
WO2019107267A1 (ja) * 2017-11-29 2019-06-06 シャープ株式会社 情報処理装置、プログラム、サーバ、および情報処理方法
JP2019115561A (ja) * 2017-12-27 2019-07-18 国立大学法人滋賀医科大学 心理状態判定方法、判定装置、判定システムおよび判定プログラム
WO2023243172A1 (ja) * 2022-06-17 2023-12-21 日立チャネルソリューションズ株式会社 監視装置及び監視装置方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6436030B2 (ja) * 2015-09-17 2018-12-12 トヨタ自動車株式会社 ライフログ記録システム
JP2018157876A (ja) * 2017-03-22 2018-10-11 ルネサスエレクトロニクス株式会社 心拍計測システム及び心拍計測方法
US10322728B1 (en) 2018-02-22 2019-06-18 Futurewei Technologies, Inc. Method for distress and road rage detection
US10652567B2 (en) * 2018-03-28 2020-05-12 Apple Inc. Applications for decoder-side modeling of objects identified in decoded video data
RU2723732C1 (ru) * 2019-10-23 2020-06-17 Акционерное общество «Нейротренд» Способ анализа эмоционального восприятия аудиовизуального контента у группы пользователей
CN112057090B (zh) * 2020-09-04 2021-10-29 浙江大学 基于体表极低频电势差特征的情绪判断穿戴式设备和方法
CN112370037B (zh) * 2020-11-24 2022-10-14 惠州华阳通用电子有限公司 一种基于情绪识别的安全驾驶方法及系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019069910A1 (ja) * 2017-10-02 2019-04-11 日本電気株式会社 情動判定装置、情動判定方法、及びプログラム
JP2019063324A (ja) * 2017-10-02 2019-04-25 公立大学法人名古屋市立大学 情動判定装置、情動判定方法、及びプログラム
JP7058383B2 (ja) 2017-10-02 2022-04-22 日本電気株式会社 情動判定装置、情動判定方法、及びプログラム
WO2019107266A1 (ja) * 2017-11-29 2019-06-06 シャープ株式会社 情報処理装置、状態取得プログラム、サーバ、および情報処理方法
WO2019107267A1 (ja) * 2017-11-29 2019-06-06 シャープ株式会社 情報処理装置、プログラム、サーバ、および情報処理方法
JPWO2019107266A1 (ja) * 2017-11-29 2020-10-22 シャープ株式会社 情報処理装置、状態取得プログラム、サーバ、および情報処理方法
JP2019115561A (ja) * 2017-12-27 2019-07-18 国立大学法人滋賀医科大学 心理状態判定方法、判定装置、判定システムおよび判定プログラム
JP7051083B2 (ja) 2017-12-27 2022-04-11 国立大学法人滋賀医科大学 心理状態判定方法、判定装置、判定システムおよび判定プログラム
WO2023243172A1 (ja) * 2022-06-17 2023-12-21 日立チャネルソリューションズ株式会社 監視装置及び監視装置方法

Also Published As

Publication number Publication date
US20170188977A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
JP2017121286A (ja) 情動推定システム、情動推定方法および情動推定プログラム
US10321871B2 (en) Determining sleep stages and sleep events using sensor data
JP7191159B2 (ja) コンピュータプログラム、及び、被験者の感情状態を提供する方法
RU2634680C2 (ru) Оценка уровня кортизола и психологического равновесия или нарушения психологического равновесия
JP5327458B2 (ja) 精神ストレス評価とそれを用いた装置とそのプログラム
AU2017262666A2 (en) Apparatus and method for recording and analysing lapses in memory and function
TW201224825A (en) Physiological signal detection system capable of showing emotions, device and emotional display method
US20230233152A1 (en) Methods, apparatus and systems for adaptable presentation of sensor data
US11191483B2 (en) Wearable blood pressure measurement systems
Dai et al. Comparing stress prediction models using smartwatch physiological signals and participant self-reports
CN110446458B (zh) 信息处理装置和信息处理程序
CN108697363B (zh) 用于检测心脏变时功能不全的装置和方法
US20230248320A1 (en) Detection of User Temperature and Assessment of Physiological Symptoms with Respiratory Diseases
Bu Stress evaluation index based on Poincaré plot for wearable health devices
JP5296392B2 (ja) 自己組織化マップを用いた健康状態判定支援システム及び自己組織化マップ生成システム
CN110446460B (zh) 信息处理装置和存储介质
JP2020130784A (ja) 状態表示装置、状態表示システム及びプログラム
US20230284948A1 (en) Test protocol for detecting significant psychophysiological response
EP4012722A1 (en) Sleep quality analysis
JP7289095B2 (ja) 睡眠教育システム、睡眠教育方法及びプログラム
US20210169415A1 (en) Machine classification of significant psychophysiological response
US20220125376A1 (en) Sleep apnea syndrome determination apparatus, sleep apnea syndrome determination method, and sleep apnea syndrome determination program
KR20240011359A (ko) 생체 신호 분석을 이용한 인공지능 기반 맞춤형 학습 솔루션 제공 시스템 및 방법
WO2021141572A1 (en) Methods and systems for adaptable presentation of sensor data