JP6665777B2 - 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体 - Google Patents

感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体 Download PDF

Info

Publication number
JP6665777B2
JP6665777B2 JP2016523127A JP2016523127A JP6665777B2 JP 6665777 B2 JP6665777 B2 JP 6665777B2 JP 2016523127 A JP2016523127 A JP 2016523127A JP 2016523127 A JP2016523127 A JP 2016523127A JP 6665777 B2 JP6665777 B2 JP 6665777B2
Authority
JP
Japan
Prior art keywords
emotion
biological information
change
information pattern
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016523127A
Other languages
English (en)
Other versions
JPWO2015182077A1 (ja
Inventor
中島 嘉樹
嘉樹 中島
充 仙洞田
充 仙洞田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2015182077A1 publication Critical patent/JPWO2015182077A1/ja
Application granted granted Critical
Publication of JP6665777B2 publication Critical patent/JP6665777B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0295Measuring blood flow using plethysmography, i.e. measuring the variations in the volume of a body part as modified by the circulation of blood therethrough, e.g. impedance plethysmography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4029Detecting, measuring or recording for evaluating the nervous system for evaluating the peripheral nervous systems
    • A61B5/4035Evaluating the autonomic nervous system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Cardiology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Neurology (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Fuzzy Systems (AREA)
  • Signal Processing (AREA)
  • Hematology (AREA)
  • Neurosurgery (AREA)

Description

本発明は、感情を推定する技術に関し、特に、生体情報を用いて感情を推定する技術に関する。
被験者の感情を推定する方法として、体温、心拍数、肌表面の導通性、呼吸頻度、血流量等の自律神経の動作を反映する生体情報を手掛かりとして用いる方法が広く知られている。一般に、生体情報によって被験者の感情を推定する場合、被験者に特定の感情を誘発する刺激が動画、音楽、絵等の方法によって与えられる。そして、その際の被験者の生体情報の値が記録される。感情推定装置は、記録された生体情報の値に基づき、教師あり機械学習の手法によって、特定の感情に伴う生体情報の値の組み合わせ(すなわち生体情報パターン)を学習する。感情推定装置は、学習の結果に基づき、感情を推定する。
しかし、生体情報の絶対値には個人差がある。例えば、安静時の体温、及び心拍数は、個人によって異なる。そのため、教師あり学習の手法を用いた学習に使用された生体情報が記録された被験者と、感情が推定される被験者が異なる場合、上述の感情推定装置は、必ずしも精度の高い推定を行えない。そのような教師あり学習の手法を用いた感情推定装置を汎用化する技術(すなわち、そのような感情推定装置を、特定のユーザに限らず、例えば不特定多数のユーザに適応可能にする技術)が、例えば非特許文献1及び2に開示されている。非特許文献1及び2に開示されている技術では、特定の感情に伴う生体情報の絶対値ではなく、安静時から、特定の感情を誘発する刺激を与えた時にかけての生体情報パターンの変化(相対値)が計測される。
また、生体情報の絶対値の安静時からの変化ではなく、生体情報の特徴量の変化に基づき、感情を識別する技術の例が、特許文献1に開示されている。特許文献1に記載されている感情検出装置では、生体情報の特徴量の変化のパターンと感情とが関連付けられた情報が、感情データベースにあらかじめ記憶されている。特許文献1に記載されている例では、生体情報の特徴量の変化は、被験者が発する音声の、単語内における、強度、テンポ、及び抑揚の変化である。感情検出装置は、感情データベースに記憶されている情報において、検出された生体情報の特徴量の変化のパターンに関連付けられている感情が、その生体情報が検出された被験者の感情であると推定する。
特開2002−091482号公報
Rosalind W. Picard, Elias Vyzas and Jennifer Healey, "Toward Machine Emotional Intelligence: Analysis of Affective Physiological State," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 23, No. 10, pp. 1175-1192, 2001 Jonghwa Kim and Elisabeth Andre, "Emotion Recognition Based on Physiological Changes in Music Listening," IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 30, NO. 12, PP. 2067-2083, DECEMBER 2008
感情を推定する手がかりとして用いられる生体情報には、自律神経の動作が反映される。そのため、被験者が安静にしている時であっても、生体情報は、自律神経の動作(たとえば、消化吸収や体温調整など)に応じて変動する。また、安静にしているよう被験者に指示した場合であっても、被験者が特定の感情を持っている可能性がある。そのため、一般的な方法として知られている、ベースラインと見なされる安静時からの生体情報パターンの変化を手掛かりに感情を推定する方法には限界がある。言い換えると、安静時における被験者の生体情報は、常に同一であるとは限らない。さらに、安静時における被験者の感情も、常に同一であるとは限らない。従って、感情推定の基準が安静時において得られる生体情報である場合、基準の変動を排除することは困難である。したがって、非特許文献1及び2に記載されている、安静時における生体情報を基準に感情を推定する方法によって、精度よく感情を推定できるとは限らない。
また、特許文献1に記載されている感情検出装置では、生体情報の特徴量の変化のパターンと、特定の感情から別の特定の感情への変化とを関連付けている。しかし、変化前(基準となる感情)と、変化後(識別対象の感情)の組み合わせについて、全てのあり得る組み合わせを網羅する方法が記載されていない。特許文献1の方法で、ある識別対象の感情を確実に識別したいとき、基準となる感情は、識別対象の感情以外のすべての感情でなければならない。このため、特許文献1に記載されている感情検出装置は、必ずしも全ての感情を精度よく識別できるとは限らない。
本発明の目的の一つは、感情推定の基準が変動することによる感情の識別精度の低下を抑制することができる感情推定装置等を提供することにある。
本発明の一態様に係る感情推定装置は、複数の感情のうち異なる2つの感情の、複数の組み合わせに対して得られた、前記2つの感情の一方である第1の感情を誘発する刺激が与えられている状態で被験者からセンシング手段によって計測された生体情報と、当該生体情報が計測された後に前記2つの感情の他方である第2の感情を誘発する刺激が与えられている状態で計測された前記生体情報との差を表す生体情報パターン変化量を、前記第2の感情に基づき分類する分類手段と、前記生体情報パターン変化量が分類された結果に基づき、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情としての前記複数の感情の各々との関係を学習する学習手段と、を備える。
本発明の一態様に係る感情推定方法は、複数の感情のうち異なる2つの感情の、複数の組み合わせに対して得られた、前記2つの感情の一方である第1の感情を誘発する刺激が与えられている状態で被験者からセンシング手段によって計測された生体情報と、当該生体情報が計測された後に前記2つの感情の他方である第2の感情を誘発する刺激が与えられている状態で計測された前記生体情報との差を表す生体情報パターン変化量を、前記第2の感情に基づき分類し、前記生体情報パターン変化量が分類された結果に基づき、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情としての前記複数の感情の各々との関係を学習する。
本発明の一態様に係る記録媒体は、コンピュータを、複数の感情のうち異なる2つの感情の、複数の組み合わせに対して得られた、前記2つの感情の一方である第1の感情を誘発する刺激が与えられている状態で被験者からセンシング手段によって計測された生体情報と、当該生体情報が計測された後に前記2つの感情の他方である第2の感情を誘発する刺激が与えられている状態で計測された前記生体情報との差を表す生体情報パターン変化量を、前記第2の感情に基づき分類する分類手段と、前記生体情報パターン変化量が分類された結果に基づき、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情としての前記複数の感情の各々との関係を学習する学習手段と、して動作させる感情推定プログラムを記憶する。本発明は、上述の記録媒体が記憶する感情推定プログラムによっても実現可能である。
本発明には、感情推定の基準が変動することによる感情の識別精度の低下を抑制することができるという効果がある。
図1は、比較例に係る感情推定システム201の構成の例を表すブロック図である。 図2は、比較例の感情推定装置101の構成の例を表すブロック図である。 図3は、学習フェーズにおける、比較例の感情推定システム201の構成の例を表すブロック図である。 図4は、学習フェーズにおける、比較例の感情推定装置101の構成の例を表すブロック図である。 図5は、学習フェーズにおける、比較例の感情推定装置101の構成の例を表す第2のブロック図である。 図6は、分類された感情の例を表す図である。 図7は、推定フェーズにおける、比較例の感情推定システム201の構成の例を表すブロック図である。 図8は、推定フェーズにおける、比較例の感情推定装置101の構成の例を表すブロック図である。 図9は、学習フェーズにおける、比較例の感情推定システム201の動作の例を表すフローチャートである。 図10は、比較例の感情推定システム201の、生体情報パターンの変化量を抽出する処理の動作の例を表すフローチャートである。 図11は、学習フェーズにおける、比較例の感情推定装置101の第1の動作の例を表すフローチャートである。 図12は、学習フェーズにおける、比較例の感情推定装置101の第2の動作の例を表すフローチャートである。 図13は、判定フェーズにおける、比較例の感情推定システム201の動作の例を表すフローチャートである。 図14は、判定フェーズにおける、比較例の感情推定装置101の動作の例を表す図である。 図15は、本発明の第1の実施形態の感情推定システム2の構成の例を表すブロック図である。 図16は、学習フェーズにおける、本発明の第1の実施形態の感情推定システム2の構成の例を表すブロック図である。 図17は、推定フェーズにおける、本発明の第1の実施形態の感情推定システム2の構成の例を表すブロック図である。 図18は、本発明の第1の実施形態の感情推定装置1の構成の例を表すブロック図である。 図19は、学習フェーズにおける、本発明の第1の実施形態の感情推定装置1の構成の例を表す第1のブロック図である。 図20は、学習フェーズにおける、本発明の第1の実施形態の感情推定装置1の構成の例を表す第2のブロック図である。 図21は、本発明の第1の実施形態の第1の分布形成部11、合成部12、及び第2の分布形成部13の処理を模式的に表す図である。 図22は、推定フェーズにおける、本発明の第1の実施形態の感情推定装置1の構成の例を表すブロック図である。 図23は、学習フェーズにおける、本発明の第1の実施形態の感情推定システム2の動作の例を表すフローチャートである。 図24は、本発明の第1の実施形態の感情推定システム2による、生体情報パターンの相対値を抽出する処理の動作の例を表すフローチャートである。 図25は、学習フェーズにおける、本発明の第1の実施形態の感情推定装置1の動作の例を表す第1のフローチャートである。 図26は、学習フェーズにおける、本発明の第1の実施形態の感情推定装置1の動作の例を表す第1のフローチャートである。 図27は、推定フェーズにおける、本発明の第1の実施形態の感情推定システム2の動作の例を表すフローチャートである。 図28は、推定フェーズにおける、本発明の第1の実施形態の感情推定装置1の動作の例を表すフローチャートである。 図29は、比較例における特徴空間の1次元部分空間におけるパターンを模式的に表す図である。 図30は、本発明の第1の実施形態の特徴空間の1次元部分空間におけるパターンを模式的に表す図である。 図31は、本発明の第1の実施形態における各感情において得られる生体情報パターンの変化量の分布を模式的に表す図である。 図32は、感情の分類の例を表す図である。 図33は、本発明の第2の実施形態の感情推定装置1Aの構成を表すブロック図である。 図34は、感情推定装置1、感情推定装置1A、感情推定システム2を実現することができる、コンピュータ1000の構成の一例を表すブロック図である。
以下、本発明の実施の形態を詳細に説明する。但し、以下に述べる実施の形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。
まず、安静時からの生体情報の変化に基づく比較例と本発明の実施の形態との差異が明らかになるように、比較例について説明する。次に、本発明の実施の形態について説明する。
<比較例>
図1は、比較例に係る感情推定システム201の構成の例を表すブロック図である。
図1を参照すると、感情推定システム201は、センシング部220と、生体情報処理部221と、感情入力部222と、感情推定装置101と、出力部223とを含む。図1に示す例では、感情推定システム201は、感情推定装置101を含む1つの装置として描かれている。しかし、感情推定システム201は、複数の装置を使用して実現されていてもよい。例えば、感情推定システム201は、センシング部220と、生体情報処理部221と、感情入力部222と、出力部223とを含む計測装置(図示されない)と、感情推定装置101とを使用して実現されていてもよい。その場合、計測装置と感情推定装置101は、通信可能に接続されていればよい。
センシング部220は、被験者の、複数の種類の生体情報を計測する。生体情報は、例えば、体温、単位時間当たりの脈拍数、単位時間当たりの呼吸の回数、肌表面の導電性、及び血圧などである。生体情報は、他の情報であってもよい。センシング部220は、被験者の皮膚に接触した状態で生体情報を計測する接触型センシング装置と、被験者の皮膚に接触しない状態で生体情報を計測する非接触型センシング装置との、いずれか一方又は双方の組み合わせによって実現される。接触型センシング装置は、例えば、皮膚表面に貼りつけるタイプの体温センサ、肌表面導通性測定センサ、脈拍センサ、及び、腹部または胸部に巻きつけるタイプの呼吸センサ等である。非接触型センシング装置は、例えば、赤外線カメラによる体温センサ、及び、光学カメラによる脈拍センサ等である。接触型センシング装置には、詳細で精度が高いデータを採取できるという利点がある。非接触型センシング装置には、装置を肌表面に貼りつけたり、装置を胴に巻いたりする必要がないので、被験者の負担が少ないという利点がある。以下の説明において、生体情報の計測によって得られる、生体情報を表すデータを、「生体情報データ」とも表記される。
生体情報処理部221は、センシング部220によって計測された生体情報のデータから、生体情報を表す特徴量を抽出する。生体情報処理部221は、まず、ノイズの除去を行ってもよい。生体情報処理部221は、例えば、時間に応じて変動する生体情報のデータから、特定の波長帯域における波形を抽出してもよい。生体情報処理部221は、ノイズの除去や、例えば周期的に変化する生体情報のデータ値から特定の波長のデータの抽出を行うバンドパスフィルタを含んでいてもよい。生体情報処理部221は、例えば、特定の時間幅の中での生体情報の平均値、及び、標準偏差等の統計量を抽出する演算処理部を含んでいてもよい。具体的には、生体情報処理部221は、例えば、体温、心拍数、肌表面の導通性、呼吸頻度、及び、血流量等の生体情報の生データから、例えば、特定の波長成分や、平均値及び標準偏差等の統計量等の特徴量を抽出する。抽出された特徴量は、感情推定装置101によって機械学習に用いられる。以下の説明において、感情推定装置101が使用する全ての特徴量の組み合わせを「生体情報パターン」と表記する。生体情報パターンに含まれる全ての特徴量によって張られる空間を「特徴空間」と表記する。生体情報パターンは特徴空間の一点を占める。
例えば、まず、生体情報処理部221は、被験者の状態が安静状態である間に計測された生体情報データから生体情報パターンを抽出する。以下の説明において、被験者の状態が安静状態である間に計測された生体情報データから抽出された生体情報パターンを、「安静時パターン」とも表記する。被験者が安静状態である間を「安静時」とも表記する。生体情報処理部221は、例えば、実験者からの指示に基づき、被験者の状態が安静状態である間に計測された生体情報データを特定すればよい。生体情報処理部221は、例えば、計測の開始から所定時間の間に計測された生体情報を、被験者の状態が安静状態である間に計測された生体情報データとしてもよい。
生体情報処理部221は、さらに、感情を誘発する刺激が被験者に与えられている状態において計測された生体情報データから生体情報パターンを抽出する。以下の説明において、感情を誘発する刺激が被験者に与えられている状態において計測された生体情報データから抽出された生体情報パターンを、「刺激時パターン」とも表記する。生体情報処理部221は、例えば、実験者からの指示に基づき、感情を誘発する刺激が被験者に与えられている状態において計測された生体情報データを特定すればよい。生体情報処理部221は、生体情報パターンの変化を検出してもよい。そして、生体情報処理部221は、検出された変化より前に計測された生体情報パターンを、被験者の状態が安静状態である間に計測された生体情報データとしてもよい。さらに、生体情報処理部221は、検出された変化より後に計測された生体情報パターンを、感情を誘発する刺激が被験者に与えられている状態において計測された生体情報データとしてもよい。
生体情報処理部221は、安静時パターンと刺激時パターンとを、感情推定装置101に送信してもよい。その場合、例えば、感情推定装置101の受信部116が、安静時パターンから刺激時パターンへの変化を表す、後述の、生体情報パターンの相対値を算出すればよい。生体情報処理部221が、生体情報パターンの相対値を算出してもよい。そして、生体情報処理部221は、生体情報パターンの相対値を感情推定装置101に送信してもよい。以下の説明では、生体情報処理部221が、生体情報パターンの相対値を算出し、算出した生体情報パターンの相対値を感情推定装置101に送信する。
感情推定装置101は、以下の説明のように教師あり機械学習を行う装置である。感情推定装置101には、導出された生体情報パターンと、その生体情報パターンが導出された生体情報データが計測された時に被験者に与えられていた刺激が誘発する感情との組み合わせが、例えば繰り返し入力される。感情推定装置101には、あらかじめ繰り返し取得された、生体情報パターンと感情との複数の組み合わせが、まとめて入力されてもよい。感情推定装置101は、入力された、生体情報パターンと感情との組み合わせに基づいて生体情報パターンと感情との関係を学習し、学習の結果を記憶する(学習フェーズ)。感情推定装置101は、更に、生体情報パターンを入力されると、学習の結果に基づき、入力された生体情報パターンの相対値が得られる場合における被験者の感情を推定する(推定フェーズ)。
感情入力部222は、学習フェーズにおいて、例えば実験者が、感情推定装置101に感情情報を入力する装置である。感情入力部222は、例えば、キーボード、マウス等の、一般的な入力装置である。出力部223は、推定フェーズにおいて、感情推定装置101が、感情推定の結果を出力する装置である。出力部223は、ディスプレイ等の一般の出力装置であってもよい。出力部223は、感情推定の結果に応じて動作する、家庭用電気機器、自動車等の機械であってもよい。実験者は、例えば、感情入力部222を操作することによって、感情推定システム201に感情を特定するデータ値を入力する。感情入力部222は、実験者が入力したデータ値によって特定される感情を表す感情情報を、感情推定装置101に送信する。感情情報は、例えば、感情を特定する感情識別子である。本比較例及び本発明の各実施形態の説明において、感情を特定するデータ値を入力することを、「感情を入力する」とも表記する。感情情報を送信することを、「感情を送信する」とも表記する。
被験者の感情の状態は、与えられる刺激に応じて、様々に変化する。感情の状態は、その特徴に応じて、感情の状態の集合に分類することができる。また、本比較例及び本発明の各実施形態では、感情は、例えば、被験者の感情の状態が分類された集合を表す。被験者に与えられる「感情を誘発する刺激」は、例えば、その刺激を与えられた被験者の感情の状態が、その感情が表す集合に含まれる状態になる可能性が高いことが、あらかじめ、例えば実験的に、知られている刺激であればよい。被験者の感情の状態が分類された集合については、後で詳細に説明する。実験者は、あらかじめ定められた複数の感情から適切な感情を選択すればよい。実験者は、選択した感情を入力すればよい。
図2は、本比較例の感情推定装置101の構成の例を表すブロック図である。図2を参照すると、感情推定装置101は、受信部116と、計測データ記憶部117と、分類部110と、学習部118と、学習結果記憶部114と、感情推定部115とを含む。
次に、学習フェーズにおける感情推定システム201及び感情推定装置101について、図面を参照して詳細に説明する。学習フェーズにおいて生体情報が計測される被験者は、特定の被験者に限定されない。感情推定システム201を操作する実験者は、例えば、特定の被験者に限定されない多数の被験者の生体情報を計測すればよい。
図3は、学習フェーズにおける感情推定システム201の構成の例を表すブロック図である。学習フェーズにおいて、実験者は、被験者に刺激を与えない状態で、感情推定システム201のセンシング部220によって、被験者の生体情報の計測を始める。実験者は、感情推定システム201を構築したシステム構築者であってもよい。実験者自身が被験者であってもよい。実験者は、被験者に対して安静にする指示を与えてから、被験者の生体情報の計測を始めてもよい。計測の開始後、実験者は、被験者に対して、特定の感情を誘発する刺激を与える。刺激は、例えば、音声や映像である。実験者は、更に、感情入力部222を介して、被験者に与えている刺激が誘発する感情を、感情推定装置101に入力する。被験者に与えている刺激が誘発する感情は、例えば、被験者に与えられている刺激によって、その被験者に誘発されること、又は、その被験者に誘発される可能性が高いことが実験的に確かめられている感情である。感情入力部222は、実験者が入力した感情を表す感情情報を、感情推定装置101に送信する。以上の操作によって、センシング部220は、被験者の状態が、被験者が安静にしている状態から、刺激が与えられることによって被験者に特定の感情が誘発されている状態になるまでの間の、生体情報を測定する。すなわち、センシング部220は、被験者の状態が安静状態から特定の感情を持っている状態に変化した場合における、生体情報の測定値(すなわち生体情報データ)の変化量(すなわち相対値)を取得することができる。生体情報処理部221は、センシング部220が取得した生体情報データを処理することによって、生体情報パターンの変化量(すなわち相対値)を導出する。生体情報処理部221は、生体情報パターンの相対値を、感情推定装置101に入力する。
図4は、学習フェーズにおける感情推定装置101の構成の例を表すブロック図である。図4は、学習フェーズにおいて、生体情報パターンの変化量と、感情情報とを受信する場合における感情推定装置101の構成を表す。
学習フェーズにおいて、受信部116は、被験者に与えられる刺激が誘発する感情を表す感情情報と、その刺激を被験者に与えることによって得られた生体情報パターンの相対値とを受信する。学習フェーズにおいて、受信部116は、受信した、感情情報が表す感情を生体情報パターンの相対値に関連付ける。そして、受信部116は、感情が関連付けられた生体情報パターンの相対値を、例えば計測データ記憶部117に格納する。あるいは、受信部116は、感情が関連付けられた生体情報パターンの相対値を、分類部110に送信してもよい。
図5は、学習フェーズにおける感情推定装置101の構成の例を表す第2のブロック図である。図5は、学習フェーズにおいて、感情情報に関連付けられた生体情報パターンの変化量に基づき、教師付き機械学習を行う場合における感情推定装置101の構成を表す。
分類部110は、以下で説明するように、計測データ記憶部117に格納されている生体情報パターンの相対値を、関連付けられている感情が同じ感情クラスに属する生体情報パターンの相対値のグループに分類する。
本比較例及び本発明の各実施形態では、実験者によって入力される感情は、例えば、あらかじめ定められた複数の感情から選択される。すなわち、生体情報パターンの相対値に関連付けられている感情は、あらかじめ定められた複数の感情から選択された感情である。
それらの複数の感情の各々は、例えば、その感情が属する、1つ以上の、感情のクラスによって特徴付けられる。本比較例及び本発明の各実施形態の説明において、感情のクラスは、単に「クラス」とも表記される。そして、1つ以上のクラスの組は、「感情クラス」とも表記される。感情クラスは、例えば、特徴に応じて分類された感情の状態の集合である。感情の状態は、例えば、1つの軸に対して複数のクラスのうちのいずれかに分類される。軸は、例えば、感情の状態の特徴を評価する観点を表す。感情の状態は、各軸において、他の軸とは独立に分類されていればよい。以下の説明では、1つの軸において分類されるクラスを、「基本クラス」とも表記する。基本クラスは、感情クラスの1つである。異なる複数の軸における、基本クラスの積集合も、感情クラスの1つである。
本比較例及び本発明の各実施形態では、複数の感情の各々は、例えば、定義されている全ての軸における基本クラスの積集合である。従って、複数の感情の各々は、その感情が属する全ての基本クラスによって表される。複数の感情の各々も、感情クラスである。被験者の感情の状態が含まれる基本クラスを、定義されている全ての軸において特定することによって、被験者の感情(すなわち、被験者の感情の状態が含まれる感情)は特定される。各軸において感情の状態の特徴を評価した結果を数値として表現した場合、軸は座標軸に相当する。その場合、原点が、安静時の被験者の感情を表す。
以下の本比較例及び本発明の各実施形態では、具体的な例として、軸の数は2である例について説明する。2つの軸は、α又はβによって表される。そして、1つの軸あたりのクラスの数は2である。軸αに関するクラス(すなわち、軸αの基本クラス)は、α1及びα2である。軸βに関するクラス(すなわち、軸βの基本クラス)は、β1及びβ2である。各感情は、α1又はα2に分類される。さらに、各感情は、α1又はα2への分類とは独立に、β1又はβ2に分類される。言い換えると、各感情は、α1又はα2に含まれる。さらに、各感情は、β1又はβ2にも含まれる。各感情は、その感情が含まれる軸αに関するクラス及び軸βに関するクラスによって特定される。すなわち、各感情は、軸αに関するクラス及び軸βに関するクラスによって表すことができる。この場合、これらのクラスによって、4つの感情を表すことができる。感情の軸及びクラスは、例えば、システムの構築者や、実験者によって、あらかじめ定められていればよい。
図6は、分類された感情の例を表す図である。図6では、縦軸が軸αに相当する。上半分の感情が、クラスα1に分類される。下半分の感情が、クラスα2に分類される。横軸は軸βに相当する。右半分の感情が、クラスβ1に分類される。左半分の感情が、クラスβ2に分類される。図6に示す例では、感情Aが、α1及びβ1に含まれる。感情Bは、α1及びβ2に含まれる。感情Cは、α2及びβ1に含まれる。感情Dは、α2及びβ2に含まれる。前述のように、感情は、その感情が含まれるクラスによって表される。例えば、感情Aは、α1及びβ1によって表される。
分類部110は、例えば、あらかじめ定められている複数の感情クラスから、一つの感情クラスを選択する。この感情クラスは、例えば、1つ以上の基本クラスによって定まる感情クラスである。この複数のクラスは、定義されている全ての基本クラスであってもよい。この複数の感情クラスは、定義されている全ての感情であってもよい。分類部110は、例えば、計測データ記憶部117に格納されている生体情報パターンの相対値から、選択された感情クラスに含まれる感情に関連付けられている生体情報パターンの相対値を全て抽出する。分類部110は、あらかじめ定められている複数の感情クラスを選択するまで、感情クラスの選択と、選択された感情クラスに含まれる感情に関連付けられている生体情報パターンの相対値の抽出を繰り返せばよい。分類部110は、同じ生体情報パターンの相対値を複数回選択してもよい。
以上により、分類部110は、計測データ記憶部117に格納されている生体情報パターンの相対値を、関連付けられている感情が同じ感情クラスに属する生体情報パターンの相対値のグループに分類する。一つの生体情報パターンの相対値が、複数のグループに含まれていてもよい。以下の説明において、「グループに関連する感情クラス」は、グループに含まれる生体情報パターンの相対値に関連付けられている感情が属する感情クラスを指す。
分類部110は、例えば、感情クラス毎に、感情クラスと、抽出した生体情報パターンの相対値とを、学習部118に送信すればよい。すなわち、分類部110は、グループ毎に、グループに関連する感情クラスと、そのグループに含まれる生体情報パターンの相対値とを、学習部118に送信すればよい。分類部110は、例えば、選択した感情クラスを特定するクラス識別子と、選択した生体情報パターンの相対値とを、学習部118に送信すればよい。
図6に示す例では、分類部110は、例えば、感情A、感情B、感情C、及び感情Dから、順次一つの感情を選択してもよい。その場合、分類部110は、選択した感情に関連付けられている生体情報パターンの相対値を選択すればよい。分類部110は、例えば、α1、α2、β1、及びβ2から、順次一つのクラスを選択してもよい。その場合、分類部110は、選択したクラスに属する感情に関連付けられている生体情報パターンの相対値を選択すればよい。例えば、α1が選択されている場合、分類部110は、感情A又は感情Bに関連付けられている生体情報パターンの相対値を選択すればよい。
学習部118は、受信したクラス及び生体情報パターンの相対値に基づき、教師あり機械学習の手法によって、学習を行う。学習部118は、学習の結果を、学習結果記憶部114に格納する。学習部118は、例えば、受信した感情クラス及び生体情報パターンの相対値に基づき、受信した感情クラスの確率密度分布を導出すればよい。学習部118は、受信したクラスの確率密度分布を、学習結果として、その感情クラスに関連付けて学習結果記憶部114に格納すればよい。
生体情報処理部221によって抽出される特徴量の個数がd個である場合、生体情報パターンの相対値は、d次元特徴空間におけるベクトルによって表される。学習部118は、受信した生体情報パターンの相対値が表すベクトルを、その生体情報パターンの相対値に関連付けられている感情クラス毎に、原点がベクトルの始点であるように、d次元特徴空間にプロットする。学習部118は、d次元特徴空間にプロットされたベクトルの終点の分布に基づき、感情クラス毎に、生体情報パターンの相対値が表すベクトルの確率密度分布を推定する。前述のように、学習部118が受信する生体情報パターンの相対値に関連付けられている感情クラスは、例えば感情である。学習部118が受信する生体情報パターンの相対値に関連付けられている感情クラスは、例えば、基本クラスであってもよい。
学習部118が受信する生体情報パターンの相対値に関連付けられている感情クラスが感情である場合、学習部118は、あらかじめ定められている全ての感情から、1つの感情を選択する。選択された感情が例えば感情Aである場合、学習部118は、感情Aに関連付けられている生体情報パターンの相対値を表すベクトルの終点の、d次元特徴空間における終点の分布を生成する。感情Aに関連付けられている生体情報パターンの相対値は、被験者の状態が安静な状態から感情Aが誘発された状態に変化した場合における、特徴量の変化を表す。感情Aに関連付けられている生体情報パターンの相対値を表すベクトルの終点の、d次元特徴空間における終点の分布は、被験者の状態が安静な状態から感情Aが誘発された状態に変化した場合における、特徴量の変化の分布である。
学習部118は、さらに、生成した分布に基づき、被験者の状態が安静な状態から感情Aが誘発された状態に変化した場合における、生体情報パターンの相対値の確率密度分布を推定する。以下の本比較例の説明において、被験者の状態が安静な状態から感情Aが誘発された状態に変化した場合における、生体情報パターンの相対値の確率密度分布を、「感情Aの確率密度分布」と表記する。
学習部118は、感情Aの確率密度分布を、学習結果記憶部114に格納する。学習結果記憶部114に格納される確率密度分布の形式は、d次元のベクトルと確率とが関連付けられている形式であれば、さまざまな形式が可能である。例えば、学習部118は、d次元特徴空間を、所定サイズのメッシュに分割し、メッシュ毎に確率を算出する。学習部118は、算出された確率を、メッシュの識別子と感情とに関連付けて、学習結果記憶部114に格納すればよい。
学習部118は、例えば、あらかじめ定められている感情が全て選択されるまで、順次1つの感情を選択しながら、分布の生成とその分布に基づく確率密度分布の推定を繰り返す。例えば、感情Aの他に、感情B、感情C、及び感情Dが存在する場合、学習部118は、感情Aの確率密度分布の推定と同様に、感情B、感情C、及び感情Dの確率密度分布を順次推定する。学習部118は、推定した確率密度分布を、感情に関連付けて、学習結果記憶部114に格納する。
各感情の確率密度分布の推定が高い精度で行われれば、未知の感情に紐付く生体情報データ(テストデータと呼ばれる)が計測された際の被験者の感情を高い精度で推定することが可能となる。以下の説明において、生体情報データが、感情Xを誘発する刺激が被験者に与えられている場合に計測された生体情報データであることを、「生体情報データが感情Xに属する」と表記する。生体情報パターンの相対値が、感情Xを誘発する刺激が被験者に与えられている場合に計測された生体情報データから導出された生体情報パターンの相対値であることを、「生体情報パターンの相対値が感情Xに属する」と表記する。さらに、特徴ベクトルxが、被験者に誘発されている感情が感情Xである場合に計測された生体情報データから導出された生体情報パターンの相対値を表すことを、「特徴ベクトルxが感情Xに属する」と表記する。
次に、推定フェーズにおける、本比較例の感情推定システム201について説明する。
図7は、推定フェーズにおける感情推定システム201の構成の例を表すブロック図である。図7を参照すると、推定フェーズでも、実験者は、安静な状態である被験者に刺激を与える。推定フェーズでは、センシング部220及び生体情報処理部221は、学習フェーズと同様に動作する。センシング部220は、状態が安静な状態から刺激によって感情が誘発された状態に変化する被験者の生体情報を計測する。生体情報処理部221は、センシング部220から、生体情報の計測結果を表す生体情報データを受信する。生体情報処理部221は、学習フェーズと同様に、受信した生体情報データから、安静時パターンと刺激時パターンとを抽出する。生体情報処理部221は、生体情報パターンの相対値を、感情推定装置101に送信する。
また、推定フェーズでは、実験者は、感情を入力しない。そして、推定フェーズでは、感情入力部222は、感情推定装置101に感情情報を送信しない。
図8は、推定フェーズにおける感情推定装置101の構成の例を表すブロック図である。図8を参照すると、受信部116は、生体情報パターンの相対値を受信する。推定フェーズにおいて、受信部116は、感情情報を受信しない。推定フェーズにおいて、受信部116は、生体情報パターンの相対値を、感情推定部115に送信する。受信部116は、生体情報パターンの相対値のみを受信し、感情情報を受信しない場合に、推定フェーズにおける動作(すなわち、感情推定部115への生体情報パターンの送信)を行ってもよい。受信部116は、生体情報パターンの相対値と感情情報とを受信した場合に、学習フェーズにおける動作(すなわち、計測データ記憶部117への生体情報パターンの相対値の格納)を行ってもよい。
感情推定部115は、学習結果記憶部114に格納されている学習の結果に基づき、受信した生体情報パターンの相対値が導出された生体情報データが計測された際に被験者に誘発されていた感情を推定する。
具体的には、感情推定部115は、例えば、以下で説明する算出法に基づき、感情を推定する。上述のように、本比較例及び本発明の各実施形態の説明において、生体情報パターンの相対値は、生体情報パターンの変化量とも表記される。
以下の説明において、ベクトルxは、生体情報パターンの変化量を表すベクトルである、特徴ベクトルを表す。学習フェーズにおいて推定される、特徴ベクトルxが感情ωiに属する確率密度分布を示す確率密度関数p(x|ωi)は、xが感情ωiに属する確率密度分布を示す確率密度関数を表す。上述のように、特徴ベクトルxが感情ωiに属する確率密度分布は、学習フェーズにおいて、それぞれのiについて推定される。確率P(ωi)は、感情ωiの生起確率を表す。さらに、確率P(ωi|x)は、xが計測された時、xが属する感情がωiである確率を表す。その場合、ベイズの定理により、数1に示す式が成り立つ。
Figure 0006665777
数1に示す式を使用することによって、学習データより求めた感情識別マップ、即ちp(x|ωi)と、感情の生起確率P(ωi)とに基づき、推定フェーズにおいて得られた特徴ベクトルxが各感情に属する確率が求められる。このように、感情推定の精度は、生体情報の特徴空間における、各感情の確率密度分布の推定の精度に依存する。
確率密度分布p(x|ωi)の推定方法(識別機)として、たとえば、線形判別法を採用することができる。また、推定対象の感情が4つである場合、2クラス分類を2回繰り返すことによって、それらの感情を識別することができる。線形判別法と複数回の2クラス分類とを使用して感情を識別する場合、まず、最初の2クラス分類のために、d次元特徴空間(ここでdは抽出される特徴量の数である)を最適な1次元空間に変換することが好ましい。最初の2クラス分類における2つのクラス(例えばクラスα1及びクラスα2)のクラス内共分散行列ΣW及びクラス間共分散行列ΣBは、次式のように定義される。
Figure 0006665777
Figure 0006665777
ここで、ベクトルmは特徴ベクトル全体の平均ベクトルを表し、ベクトルmi(i=α1、α2)はそれぞれのクラスに属する特徴ベクトルの平均ベクトルを表す。また、整数nは特徴ベクトル全体の数を表し、整数niはそれぞれのクラスに属する特徴ベクトルの数を表す。さらに、集合χiは、それぞれのクラスに属する特徴ベクトル全体の集合を表す。
これらの定義に基づき、数4、数5、及び数6に示す式が成り立つ。
Figure 0006665777
Figure 0006665777
Figure 0006665777
数3に示す式の変形では、数4、数5、及び数6に示す関係が用いられている。
また、数7に示すΣiは、それぞれのクラスiに属する特徴ベクトルの共分散行列である。
Figure 0006665777
特徴空間の次元は、抽出される特徴量の数である、dである。従って、特徴空間から1次元空間への変換を表す行列Aは、d次元特徴空間から1次元空間への変換を表す(d, 1)行列(d行1列の行列)である。そして、Aによるクラス間の分離度を表す関数JΣ(A)は、数8に示す式によって定義される。感情推定部115は、関数JΣを最大化する変換行列Aを求める。
Figure 0006665777
数9は、変換行列Aを使用して定義した、一次元軸上における確率密度分布を表す。
Figure 0006665777
数9に示す式は、クラス識別のプロトタイプとして各クラスの重心(平均ベクトル)を使用する、確率密度分布の定義を表す。これらの確率密度分布は、学習フェーズにおいて得られたデータに応じて、クラス境界付近の特徴ベクトルをプロトタイプとして使用して定義されていてもよい。
推定フェーズでは、感情推定部115は、得られた特徴ベクトルが各クラスに属する確率を、上述の確率密度分布を数1に示す式に代入することによって得られる確率に基づき推定する。感情推定部115は、特徴ベクトルが、推定された確率が高いクラスに属すると判定すればよい。
感情推定部115は、同様にして、更に、特徴ベクトルが、次の2クラス(例えば、クラスβ1及びクラスβ2)のいずれに属するか判定する。このことにより、感情推定部115は、特徴ベクトルが、感情A(α1かつβ1)、感情B(α1かつβ2)、感情C(α2かつβ1)、あるいは感情D(α2かつβ2)の四つのクラスうちいずれに属するか判別する。
本比較例では、推定フェーズにおける被験者も、特定の被験者に限られない。
次に、本比較例の感情推定システム201の動作について、図面を参照して詳細に説明する。以下では、感情推定装置101を除く感情推定システム201の動作と、感情推定装置101の動作とを、別に説明する。
図9は、学習フェーズにおける感情推定システム201の動作の例を表すフローチャートである。
図9を参照すると、まず、感情推定システム201は、センシング部220及び生体情報処理部221によって、生体情報パターンの変化量を抽出する処理を行う(ステップS1101)。「生体情報パターンの変化量を抽出する処理」は、計測によって生体情報データを取得し、取得した生体情報データから生体情報パターンの変化量を導出する処理を表す。ステップS1101において生体情報パターンの変化量が取得される被験者は、特定の被験者に限定されない。ステップS1101における処理については、後で説明する。
実験者は、感情入力部222を介して、ステップS1101において実験者が被験者に与えた刺激が誘発する感情を入力する。感情入力部222は、実験者が入力した感情を取得する(ステップS1102)。
生体情報処理部221は、導出した生体情報パターンの変化量を、感情推定装置101に送信する。感情入力部222は、実験者が入力した感情を、感情推定装置101に送信する。すなわち、感情推定システム201は、生体情報パターンの変化量と感情との組み合わせを、感情推定装置101に送信する(ステップS1103)。
生体情報の計測が終了していない場合(ステップS1104においてNo)、感情推定システム201は、ステップS1101からステップS1103までの動作を繰り返す。実験者は、ステップS1101において、例えば、被験者に与える刺激を変化させながら、感情推定システム201が異なる多数の被験者の生体情報を計測するよう、アレンジすればよい。計測が終了した場合(ステップS1104においてYes)、感情推定システム201は、学習フェーズの動作を終了する。ステップS1104において、感情推定システム201は、例えば、実験者が感情推定システム201に計測を終了する指示を行った場合に、生体情報の計測が終了したと判定すればよい。感情推定システム201は、例えば、実験者が感情推定システム201に計測を継続する指示を行った場合に、生体情報の計測は終了しないと判定してもよい。
次に、感情推定システム201の、生体情報パターンの変化量を抽出する処理の動作について、図面を参照して詳細に説明する。
図10は、感情推定システム201の、生体情報パターンの変化量を抽出する処理の動作の例を表すフローチャートである。
図10を参照すると、センシング部220が、安静時における被験者の生体情報を計測する(ステップS1201)。センシング部220は、計測によって得られた生体情報データを、生体情報処理部221に送信する。生体情報処理部221は、安静時において計測された生体情報データから、生体情報パターンを抽出する(ステップS1202)。センシング部220は、刺激が与えられている被験者の生体情報を計測する(ステップS1203)。センシング部220は、計測によって得られた生体情報データを、生体情報処理部221に送信する。生体情報処理部221は、刺激が与えられている状態で計測された生体情報データから、生体情報パターンを抽出する(ステップS1204)。生体情報処理部221は、安静時の生体情報パターンから刺激が与えられている状態の生体情報パターンへの変化量を導出する(ステップS1205)。
図10に示す例では、生体情報処理部221は、例えば、実験者からの指示に基づき、安静時における生体情報データと、刺激が与えられている状態における生体情報データとを特定すればよい。生体情報処理部221は、計測開始から経過した時間や生体情報データの変化の大きさに基づき、安静時における生体情報データと、刺激が与えられている状態における生体情報データとを特定してもよい。
生体情報処理部221は、例えば、計測開始から経過した時間が所定時間を越えた後に測定された生体情報データを、刺激が与えられている状態における生体情報データとして特定してもよい。生体情報処理部221は、例えば、測定された生体情報データの、測定開始時又は測定開始時から一定時間が経過した時に計測された生体情報データからの変化の大きさが所定値を越えた場合に、刺激が与えられ始めたと判定してもよい。その一定時間は、例えば、実験的に導出された、安静時において、測定開始時から生体情報データが安定するまでの時間である。そして、生体情報処理部221は、例えば、刺激が与えられ始めたと判定した後に測定された生体情報データを、刺激が与えられている状態における生体情報データとして特定してもよい。
次に、学習フェーズにおける、感情推定装置101の動作について、図面を参照して詳細に説明する。
図11は、学習フェーズにおける、感情推定装置101の第1の動作の例を表すフローチャートである。図11は、実験者が被験者の生体情報を計測する操作を行っている間における、感情推定装置101の動作を表す。
受信部116は、生体情報パターンの変化量と感情との組み合わせを受信する(ステップS1301)。ステップS1301において受信部116が受信する生体情報パターンの変化量及び感情は、ステップS1103において感情推定装置101に送信された生体情報パターンの変化量及び感情である。学習フェーズにおいて、受信部116は、受信した生体情報パターンの変化量と感情とを関連付け、互いに関連付けられた生体情報パターンの変化量と感情とを計測データ記憶部117に格納する(ステップS1302)。計測が終了していない場合(ステップS1303においてNo)、感情推定装置101は、ステップS1301及びステップS1302の動作を繰り返す。計測が終了した場合(ステップS1303においてYes)、感情推定装置101は、図11に示す動作を終了する。感情推定装置101は、例えば、実験者からの指示に基づき、計測が完了したか否かを判定すればよい。
図12は、学習フェーズにおける、感情推定装置101の第2の動作の例を表すフローチャートである。図12は、感情推定装置101が、生体情報パターンの変化量とその変化量に関連付けられている感情とを使用して、教師付き機械学習に基づく学習を行う動作を表す。
分類部110は、複数の、あらかじめ定められている感情クラスから、一つの感情クラスを選択する(ステップS1401)。上述のように、感情クラスは、例えば、あらかじめ定められている感情である。感情クラスは、例えば、あらかじめ定められている、上述の基本クラスであってもよい。分類部110は、選択された感情クラスが含む感情に関連付けられている生体情報パターンの変化量を全て選択する(ステップS1402)。学習部118は、選択された感情クラスに属する生体情報パターンの変化量の確率密度分布を形成する(ステップS1403)。学習部118は、形成した確率密度分布を、選択された感情クラスに関連付けて、学習結果記憶部114に格納する(ステップS1404)。選択されていない感情クラスが存在する場合(ステップS1405においてNo)、感情推定装置101は、ステップS1401からステップS1404までの動作を繰り返す。全ての感情クラスが選択された場合(ステップS1405においてYes)、感情推定装置101は、図12に示す動作を終了する。
次に、判定フェーズにおける感情推定システム201の動作について、図面を参照して詳細に説明する。
図13は、判定フェーズにおける感情推定システム201の動作の例を表すフローチャートである。図13を参照すると、判定フェーズにおいて、感情推定システム201は、まず、生体パターンの変化量を抽出する処理を行う(ステップS1501)。ステップS1501において、感情推定システム201は、図10に示す動作を行う。前述のように、生体情報パターンの変化量を抽出する処理は、生体情報データを取得し、取得した生体情報データから生体情報パターンの変化量を導出する処理である。次に、生体情報処理部221は、生体情報パターンの変化量を、感情推定装置101に送信する(ステップS1502)。生体情報パターンの変化量を受信した感情推定装置101は、被験者の感情を推定し、推定した感情を返信する。出力部223は、感情推定装置101から推定された感情を受信し、受信した感情を出力する(ステップS1503)。
次に、判定フェーズにおける感情推定装置101の動作について、図面を参照して詳細に説明する。
図14は、判定フェーズにおける感情推定装置101の動作の例を表す図である。
図14を参照すると、受信部116は、生体情報処理部221から、生体情報パターンの変化量を受信する(ステップS1601)。判定フェーズでは、受信部116は、感情を受信しない。判定フェーズでは、受信部116は、受信した、生体情報パターンの変化量を、感情推定部115に送信する。感情判定部115は、あらかじめ定められた、複数の感情クラスから、1つの感情クラスを選択する(ステップS1602)。感情推定部115は、学習結果記憶部114に格納されている確率密度分布を使用して、受信した生体情報パターンの変化量が抽出された被験者の感情が、選択された感情クラスに含まれる確率を導出する(ステップS1603)。選択されていない感情クラスが存在する場合(ステップS1604においてNo)、感情推定部115は、全ての感情クラスが選択されるまで、ステップS1602とステップS1603の動作を繰り返す。全ての感情クラスが選択された場合(ステップS1604においてYes)、感情推定部115は、導出された、感情クラスの確率に基づき、被験者の感情を推定する(ステップS1605)。前述のように、感情クラスは、例えば基本クラスである。その場合、感情推定部115は、上述のように2つの基本クラスから感情が含まれるクラスを選択する2クラス分類を繰り返すことによって、被験者の感情を推定すればよい。すなわち、感情推定部115は、選択された全ての基本クラスに含まれる感情を、被験者の感情として選択すればよい。感情クラスは、感情であってもよい。その場合、感情推定部115は、導出された確率が最も高い感情を、被験者の感情として選択すればよい。感情推定部115は、推定した被験者の感情を出力する(ステップS1606)。
<第1の実施形態>
次に、本発明の第1の実施形態の感情推定システム2について、図面を参照して詳細に説明する。
図15は、本実施形態の感情推定システム2の構成の例を表すブロック図である。図15を参照すると、感情推定システム2は、センシング部20と、生体情報処理部21と、感情入力部22と、感情推定装置1と、出力部23を含む。図15に示す例では、感情推定システム2は、感情推定装置1を含む1つの装置として描かれている。しかし、感情推定システム2は、複数の装置を使用して実現されていてもよい。例えば、感情推定システム2は、センシング部20と、生体情報処理部21と、感情入力部22と、出力部23とを含む計測装置(図示されない)と、感情推定装置1とを使用して実現されていてもよい。その場合、計測装置と感情推定装置1は、通信可能に接続されていればよい。
本実施形態では、実験者は、1回の生体情報の計測において、異なる感情を誘発する2種類の刺激を別々に被験者に与える。被験者に与えられる刺激が誘発する感情は、あらかじめ定められた複数の感情から選択された2つの感情の組み合わせである。それぞれの種類の刺激が与えられる時間は、例えば、あらかじめ実験的に測定された、被験者に感情が誘発されるのに十分な時間である。以下の説明において、1回の生体情報の計測において、実験者が最初に与える刺激を「第1の刺激」とも表記する。第1の刺激が誘発する感情を、「第1の感情」とも表記する。同様に、1回の生体情報の計測において、実験者が次に与える刺激を「第2の刺激」とも表記する。第2の刺激が誘発する感情を、「第2の感情」とも表記する。実験者は、例えば、被験者に第1の刺激を与えながら、被験者の生体情報の計測を開始すればよい。そして、第1の刺激を与え始めてから前述の十分な時間が経過した後、実験者は、被験者に与える刺激を第2の刺激に変更すればよい。第2の刺激を与え始めてから前述の十分な時間が経過した後、実験者は、被験者の生体情報の計測を終了すればよい。以上のように被験者に刺激を与えると、被験者の感情が、第1の感情から第2の感情に変化することが期待される。被験者の感情が変化した場合、第1の感情が変化前の感情であり、第2の感情が変化後の感情である。
センシング部20は、前述の比較例におけるセンシング部220と同じハードウェア構成を備えていればよい。そして、センシング部20は、センシング部220と同様に動作すればよい。センシング部20は、生体情報が計測される被験者の状態を除き、センシング部220と同じでよい。センシング部20は、安静時における被験者の生体情報を計測しなくてよい。センシング部20は、少なくとも、第1の刺激が与えられている被験者の生体情報と、第2の刺激が与えられているその被験者の生体情報とを計測する。センシング部20は、例えば、被験者に第1の刺激が与えられている間に計測を開始してもよい。そして、センシング部20は、被験者に与えられる刺激が第2の刺激に変わってから所定時間が経過するまで、生体情報の計測を継続してもよい。センシング部20は、比較例におけるセンシング部220と同様に、計測によって得られた生体情報データを、生体情報処理部21に送信する。
生体情報処理部21は、前述の比較例における生体情報処理部221と同じハードウェア構成を備えていればよい。そして、生体情報処理部21は、生体情報処理部221と同様の処理を行えばよい。生体情報処理部21は、生体情報パターンが導出される生体情報データが計測によって得られた被験者の状態を除き、生体情報処理部221と同じでよい。生体情報処理部21は、第1の刺激が与えられている状態における計測によって得られた生体情報データから生体情報パターン(すなわち、第1の生体情報パターン)を抽出する。生体情報処理部21は、さらに、第2の刺激が与えられている状態における計測によって得られた生体情報データから生体情報パターン(すなわち、第2の生体情報パターン)を抽出する。生体情報処理部21が導出する生体情報パターンの変化量は、第1の生体情報パターンに対する、第2の生体情報パターンの変化量である。生体情報処理部21は、第1の生体情報パターンに対する、第2の生体情報パターンの変化量を導出する。
感情入力部22は、比較例における感情入力部222と同じハードウェア構成を備えていればよい。実験者は、感情入力部22を介して、被験者に与えられる2種類の刺激が誘発する感情、すなわち、第1の感情と第2の感情とを、感情推定システム2に入力する。感情入力部22は、第1の感情から第2の感情への感情の変化を表す感情情報を生成する。そして、感情入力部22は、生成した感情情報を感情推定装置1に入力する。感情情報は、実験者が被験者に与える刺激によって被験者に誘発される感情の変化が、第1の感情から第2の感情への変化であることが特定可能な情報であればよい。感情入力部22が感情推定装置1に入力する感情情報は、例えば、第1の感情の感情識別子と、第2の感情の感情識別子とを含んでいてもよい。感情入力部22が感情推定装置1に入力する感情情報に、例えば、第1の感情の感情識別子と、第2の感情の感情識別子とが関連付けられていてもよい。
出力部23は、比較例における出力部223と同じハードウェア構成を備えていればよい。出力部23は、比較例における出力部223と同様に動作すればよい。
図16は、学習フェーズにおける感情推定システム2の構成の例を表すブロック図である。
上述のように、学習フェーズにおいて、センシング部20は被験者の生体情報を計測する。センシング部20は、計測によって得られた生体情報データを生体情報処理部21に送信する。生体情報処理部21は、受信した生体情報データから、被験者に与えられる刺激の変化に応じた、その被験者の生体情報の変化を表す生体情報パターンの変化量を導出する。生体情報処理部21は、生体情報パターンの変化量を、感情推定装置1に送信する。感情入力部22は、実験者によって入力された感情の変化を表す感情情報を、感情推定装置1に入力する。学習フェーズでは、実験者は、例えば、被験者に与える第1の刺激と第2の刺激の組み合わせをさまざまに変更しながら、被験者の生体情報の計測と、第1の感情から第2の感情への感情の変化を表す感情情報の入力とを行う。被験者は、特定の被験者に限定されない。実験者は、不特定多数の被験者に対して、生体情報の計測と感情情報の入力を行えばよい。その結果、感情推定装置1に、生体情報パターンの変化量と感情情報の変化を表す感情情報とが、繰り返し入力される。感情推定装置1は、入力された生体情報パターンの変化量と感情情報の変化を表す感情情報とを使用して、後述されるように教師つき学習モデルに従った学習を行う。
図17は、推定フェーズにおける、本実施形態の感情推定システム2の構成の例を表すブロック図である。推定フェーズでは、実験者は、学習フェーズと同様に、異なる感情を誘発する、連続する2種類の刺激を被験者に与える。推定フェーズでも、被験者は、特定の被験者に限定されない。推定フェーズでは、実験者は感情情報を入力しない。
推定フェーズにおいて、センシング部20及び生体情報処理部21は、学習フェーズと同様に動作する。すなわち、センシング部20は、計測によって得られた生体情報データを、生体情報処理部21に送信する。生体情報処理部21は、生体情報データから抽出された生体情報パターンの変化量を、感情推定装置1に送信する。感情入力部22は、感情推定装置1に感情情報を入力しない。
感情推定装置1は、受信した生体情報パターンの変化量に基づき、後述されるように被験者の感情を推定する。感情推定装置1は、推定した被験者の感情を、出力部23に送信する。感情推定装置1は、例えば、推定した感情を特定する感情識別子を、出力部23に送信すればよい。
出力部23は、感情推定装置1が、生体情報処理部21が感情推定装置1に入力した生体情報パターンの変化量に基づいて推定した感情を、感情推定装置1から受信する。出力部23は、推定された感情を特定する感情識別子を受信すればよい。出力部23は、受信した感情を出力する。出力部23は、例えば、受信した感情識別子によって特定される感情を表す文字列を表示すればよい。出力部23による感情の出力方法は、他の方法であってもよい。
次に、本実施形態の感情推定装置1について、図面を参照して詳細に説明する。
図18は、本実施形態の感情推定装置1の構成の例を表すブロック図である。図18を参照すると、感情推定装置1は、受信部16と、計測データ記憶部17と、分類部10と、学習部18と、学習結果記憶部14と、感情推定部15とを含む。学習部18は、第1の分布形成部11と、合成部12と、第2の分布形成部13とを含む。
図19は、学習フェーズにおける感情推定装置1の構成の例を表す第1のブロック図である。図19は、学習フェーズにおいて、生体情報パターンの変化量と、感情情報とを受信する場合における感情推定装置1の構成を表す。
受信部16は、学習フェーズにおいて、生体情報パターンの変化量と、感情情報とを受信する。前述のように、感情情報は、例えば、第1の感情の識別子と、第2の感情の識別子とを含む。受信部16は、実験者による生体情報の測定及び感情情報の入力に応じて、生体情報パターンの変化量と感情情報とを繰り返し受信する。学習フェーズでは、受信部16は、受信した生体情報パターンの変化量と感情情報とを関連付け、関連付けられた生体情報パターンの変化量と感情情報とを、計測データ記憶部17に格納する。
計測データ記憶部17は、互いに関連付けられた生体情報パターンの変化量と感情情報とを記憶する。計測データ記憶部17は、例えば、互いに関連付けられた生体情報パターンの変化量と感情情報との組み合わせを複数記憶する。前述のように、本実施形態では、入力される感情情報は、第1の感情及び第2の感情を特定することができる情報である。
図20は、学習フェーズにおける感情推定装置1の構成の例を表す第2のブロック図である。図20は、学習フェーズにおいて、互いに関連付けられた生体情報パターンの変化量と感情情報との組み合わせに基づき学習を行う場合における感情推定装置1の構成を表す。感情推定装置1は、例えば実験者からの指示に従って、学習フェーズにおける動作を行えばよい。
分類部10は、計測データ記憶部17に格納されている生体情報パターンの変化量を、生体情報パターンの変化量に関連付けられている感情情報に基づき、分類する。前述のように、本実施形態では、感情情報は、第1の感情及び第2の感情を含む。そして、感情情報は、第1の感情から第2の感情への感情の変化を表す。分類部10は、例えば、計測データ記憶部17に格納されている生体情報パターンの変化量において、関連付けられている感情情報が同じである生体情報パターンの変化量のグループを生成することによって、生体情報パターンの変化量を分類すればよい。
学習部18は、分類部10によって生体情報パターンの変化量が分類された結果に基づき、生体情報パターンの変化量と、その生体情報パターンの変化量が得られた場合の第2の感情としての、前述の複数の感情の各々との関係を学習する。学習部18は、学習の結果を、学習結果記憶部14に格納する。
具体的には、まず、第1の分布形成部11が、分類部10による、計測データ記憶部17に格納されている生体情報パターンの変化量の分類結果に基づき、分類毎に確率密度分布を形成する。例えば、生体情報パターンの変化量が、それらの生体情報パターンの変化量に関連付けられている感情情報によって分類されている場合、第1の分布形成部11は、感情情報によって表される感情の変化毎に、確率密度分布を形成する。
そして、合成部12は、例えば、生体情報パターンの変化量に関連付けられている変化後の感情すなわち第2の感情において、要素に共通部分がある複数のグループを、1つのグループに合成する。
第2の分布形成部13は、第2の分布形成部13は、合成部12による合成後のグループ毎に、確率密度分布を形成する。第2の分布形成部13は、合成後のグループ毎に形成された確率密度分布を、学習結果記憶部14に格納する。
学習結果記憶部14は、学習部18による学習の結果を記憶する。すなわち、学習結果記憶部14は、第2の分布形成部13によって格納された学習の結果を記憶する。
以下では、学習フェーズにおける感情推定装置1について、更に具体的に説明する。
本実施形態では、複数の感情と、各軸と、各軸上の各クラスは、各感情が、その感情が属する全てのクラスによって一意に定まるようあらかじめ選択される。
以下では、感情が、上述のように2つの軸上のそれぞれ2つのクラスによって分類されている場合における、感情推定装置1について、具体的に説明する。上述の例と同様に、2つの軸をα及びβによって表す。軸α上の2つのクラスを、α1及びα2と表記する。軸β上の2つのクラスを、β1及びβ2と表記する。軸α上では、全ての感情は、α1又はα2のいずれかに分類される。軸β上では、全ての感情は、β1又はβ2のいずれかに分類される。上述の例と同様に、例えば、感情Aは、クラスα1及びβ1の双方に属する感情である。感情Bは、クラスα1及びβ2の双方に属する感情である。感情Cは、クラスα2及びβ1の双方に属する感情である。感情Dは、クラスα2及びβ2の双方に属する感情である。
分類部10は、上述のように、計測データ記憶部17に格納されている生体情報パターンの変化量を、関連付けられている感情情報が表す第1の感情と第2の感情の組み合わせが同じ生体情報パターンの変化量が同じグループに含まれるよう、分類する。例えば、刺激により誘発される感情が感情Aから感情Bに変化した際に得られた生体情報パターンの変化量は、同じグループに分類される。
第1の分布形成部11は、生体情報パターンの変化量が分類されたグループ毎に、確率密度分布を形成する。第1の分布形成部11が生成する確率密度分布は、比較例の説明において述べたp(x|ωi)によって表される。第1の分布形成部11が生成する確率密度分布において、ωiは感情変化である。この場合のxは、比較例の説明と同様に、生体情報パターンの変化量である。
合成部12は、上述のように、生体情報パターンの変化量に関連付けられている変化後の感情すなわち第2の感情において、要素に共通部分がある複数のグループを、1つのグループに合成する。この感情における要素は、例えば、感情が属する1個以上のクラスである。本実施形態では、感情クラスは、1個以上のクラスの組である。合成部12による複数のグループを1つのグループに合成する方法として、例えば以下に示す方法が使用可能である。
以下の説明において、例えば、第1の感情が感情Bであり第2の感情が感情Aである感情情報に関連付けられている生体情報パターンの変化量のグループを、感情Bから感情Aのグループと表記する。第1の感情が感情Bであり第2の感情が感情Aである感情情報に関連付けられている生体情報パターンの変化量のグループは、感情Bから感情Aへの変化を表す感情情報に関連付けられている生体情報パターンの変化量のグループである。
例えば、合成部12は、生体情報パターンの変化量に関連付けられている感情情報の第2の感情が属する全てのクラスが共通である複数のグループを1つのグループに合成してもよい。その場合、第2の感情が同じグループは、1つのグループに合成される。例えば、合成部12は、第2の感情が感情Aであるグループ、すなわち、感情Bから感情Aのグループと、感情Cから感情Aのグループと、感情Dから感情Aのグループとを、1つのグループに合成する。この場合に合成されたグループは、以下の説明では、感情Aへのグループとも表記される。合成部12は、第2の感情が感情Bであるグループ、第2の感情が感情Cであるグループ、第2の感情が感情Dであるグループを、それぞれ1つのグループに合成する。この場合、感情クラスは、感情が属する全てのクラスの組である。例えば、合成後の、感情Aへのグループは、感情Aが属する全てのクラスの組である感情クラスに関連する。
合成部12は、軸毎に、生体情報パターンの変化量に関連付けられている感情情報の第2の感情が属するその軸上のクラスが同一であるグループを、1つのグループに合成してもよい。その場合、合成部12は、例えば、α1に属する第2の感情を含む感情情報に関連付けられている生体情報パターンの変化量のグループを、一つのグループに合成すればよい。α1に属する感情は、感情A及び感情Bである。この例の場合、合成部12は、第2の感情が感情A又は感情Bである感情情報に関連付けられている生体情報パターンの変化量のグループを、一つのグループに合成すればよい。合成部12は、同様に、α2に属する第2の感情を含む感情情報に関連付けられている生体情報パターンの変化量のグループを、一つのグループに合成すればよい。さらに、合成部12は、β1に属する第2の感情を含む感情情報に関連付けられている生体情報パターンの変化量のグループを、一つのグループに合成する。β1に属する感情は、感情A及び感情Cである。この例の場合、合成部12は、第2の感情が感情A又は感情Cである感情情報に関連付けられている生体情報パターンの変化量のグループを、一つのグループに合成すればよい。合成部12は、同様に、β2に属する第2の感情を含む感情情報に関連付けられている生体情報パターンの変化量のグループを、一つのグループに合成すればよい。この場合、感情クラスは、いずれかの軸上のクラスである。そして、合成後のグループは、いずれかの軸上のいずれかの感情クラスに関連する。例えば、α1に属する第2の感情を含む感情情報に関連付けられている生体情報パターンの変化量のグループは、クラスα1である感情クラスに関連する。
第2の分布形成部13は、上述のように、合成部12による合成後のグループ毎に、確率密度分布を形成する。第2の分布形成部13が生成する確率密度分布では、比較例の説明において述べたp(x|ωi)におけるωiは、合成後の同じグループに含まれる生体情報パターンの変化量に関連付けられている感情情報に共通の要素である。共通の要素は、例えば、感情クラスである。感情クラスである共通の要素は、例えば、感情が属する所定個数のクラスの組である。感情クラスである共通の要素は、例えば、感情が属する全てのクラスの組であってもよい。感情クラスである共通の要素は、例えば、感情が属する1つのクラスの組であってもよい。この場合のxは、比較例の説明と同様に、生体情報パターンの変化量である。第2の分布形成部13は、合成後のグループ毎に形成した確率密度分布を、学習の結果として、学習結果記憶部14に格納する。
以上の感情推定装置1の各構成要素は、例えば、教師あり機械学習の手法による、感情Aに関連する生体情報パターンの変化量(以下では、パターンとも表記される)の学習に着目して、以下のようにも説明される。以下の説明でも、感情は、軸α上の2つのクラス(α1及びα2)と、軸β上の2つのクラス(β1及びβ2)によって、4つの感情に分類できる。4つの感情は、同様に、感情A、感情B、感情C、及び感情Dである。そして、同様に、感情Aは、α1及びβ1に属する。感情Bは、α1及びβ2に属する。感情Cは、α2及びβ1に属する。感情Dは、α2及びβ2に属する。
分類部10は、入力された生体情報パターンと感情情報から、入力された感情情報に基づき、α1からα2の方向及びその逆の方向、β1からβ2の方向及びその逆の方向における生体情報パターンの変化量(すなわち相対変化)の情報を記録する。たとえば、刺激によって誘発される感情の変化が感情Bから感情Aへの変化である場合、得られる生体情報パターンの相対変化はβ2からβ1への相対変化に相当する。なお、例えばβ2からβ1への相対変化は、刺激によって誘発される感情が属する軸β上のクラスがβ2からβ1に変化した際に得られる、生体情報パターンの変化量(すなわち相対値)を表す。刺激によって誘発される感情の変化は感情Cから感情Aへの変化である場合、得られる生体情報パターンの相対変化はα2からα1への相対変化に相当する。また、刺激によって誘発される感情の変化が感情Dから感情Aへの変化である場合、得られる生体情報パターンの相対変化はα2からα1への、かつβ2からβ1への相対変化に相当する。
第1の分布形成部11は、それらの分類結果を、それぞれ確率密度分布の形に形成する。
更に、合成部12は、前述の生体情報パターンの変化共通部分を抽出する。合成部12は、その結果を第2の分布形成部13に入力する。
第2の分布形成部13は、入力された共通要素に基づき、感情Aへの変化(α2からα1への変化、かつ、β2からβ1への変化)に共通する相対値の確率密度分布を形成する。第2の分布形成部13は、形成した確率密度分布を学習結果記憶部14に格納する。
図21は、第1の分布形成部11、合成部12、及び第2の分布形成部13の処理を模式的に表す図である。図21の上段に示す図は、それぞれの感情変化に関連付けられた生体情報パターンの変化量を模式的に表す。図21の中段に示す図における矢印は、感情変化毎のグループに含まれる生体情報パターンの変化量の平均値ベクトルを模式的に表す。図21の下段に示す図における矢印は、合成後のグループに含まれる生体情報パターンの変化量の平均値ベクトルを模式的に表す。図21が模式的に示す処理において注意が必要なのは、例えば感情Aへの相対変化のベクトルを合成する際、第2の分布形成部13は、単に感情Aへの変化すべてを合成するのではなく、例えば以下に述べる順番で合成することである。感情Dから感情Aへの変化における感情が属するクラスの変化は、α2からα1への変化、かつβ2からβ1への変化である。感情Bから感情Aへの変化における感情が属するクラスの変化は、β2からβ1への変化である。感情Cから感情Aへの変化における感情が属するクラスの変化は、α2からα1への変化である。よって、第2の分布形成部13は、感情Aへの相対変化が、α2からα1への、かつ、β2からβ1への相対変化であることを前提に、この方向に沿ったベクトルを合成するために、たとえば次の順番で合成を行う。第2の分布形成部13は、感情Bから感情Aへの確率密度分布と、感情Cから感情Aへの確率密度分布とをまず合成する。第2の分布形成部13は、その合成の結果と、感情Dから感情Aへの確率密度分布を合成する。
こうして合成された感情Aへの確率密度分布は、α軸方向においても、β軸方向においても、比較例と比較すると、より際立つ(すなわち他の感情の確率密度分布から離れる)ことが期待される。
次に、推定フェーズにおける感情推定装置1について、図面を参照して詳細に説明する。
図22は、推定フェーズにおける、本実施形態の感情推定装置1の構成の例を表すブロック図である。
図22を参照すると、推定フェーズでは、受信部16には生体情報パターンの変化量が入力される。受信部16は、生体情報パターンの変化量を受信する。しかし、推定フェーズでは、受信部16は、感情情報を受信しない。推定フェーズでは、受信部16は、受信した生体情報パターンの変化量を、感情推定部15に送信する。
例えば実験者が、学習フェーズと推定フェーズの切り替えを指示してもよい。あるいは、生体情報パターンの変化量を受信し、感情情報を受信しなかった場合に、受信部16が、推定フェーズに切り替わったことを判定してもよい。感情推定装置1のフェーズが推定フェーズに切り替わる際、学習結果記憶部14に学習の結果が格納されていなければ、感情推定装置1は、学習を行った後、フェーズを推定フェーズに切り替えればよい。
感情推定部15は、受信部16から生体情報パターンの変化量を受信する。感情推定部15は、学習結果記憶部14に格納されている学習結果を使用して、受信した生体情報パターンの変化量が得られた際に被験者に与えられている刺激によって誘発される感情を推定する。感情推定部15は、推定の結果、すなわち、推定した感情を、例えば出力部23に出力する。学習の結果は、例えば前述の確率分布p(x|ωi)である。その場合、感情推定部15は、数1に示す式に基づき、複数の感情クラスの各々について、確率P(ωi|x)を導出する。感情クラスが、感情が属する全てのクラスの組である場合、感情クラスωiによって感情が特定される。以下、感情クラスωiによって特定される感情を、感情ωiと表記する。確率P(ωi|x)は、感情ωiが、受信した生体情報パターンの変化量xが得られた際に被験者に与えられている刺激が誘発する感情である確率を表す。感情推定部15は、導出された確率P(ωi|x)が最も高い感情ωiが、感情推定部15が受信した生体情報パターンの変化量が得られた際に被験者に与えられている刺激によって誘発される感情であると推定する。感情推定部15は、導出された確率P(ωi|x)が最も高い感情ωiを感情推定の結果として選択すればよい。感情クラスωiが、いずれかの軸上のいずれかのクラスである場合、例えば、感情推定部15は、各感情クラスωiについて、P(ωi|x)を導出すればよい。そして、感情推定部15は、それぞれの軸上で、軸上の2つのクラスから導出されたP(ωi|x)が大きいクラスを選択すればよい。感情推定部15は、選択された全てのクラスに属する感情を感情推定の結果として選択すればよい。
選択された感情が、感情推定部15が受信した生体情報パターンの変化量が得られた際に被験者に与えられている刺激によって誘発される感情として推定した感情である。感情推定部15は、推定した感情を、推定の結果として出力すればよい。感情推定部15は、例えば、推定した感情の感情識別子を出力部23に送信すればよい。
次に、学習フェーズにおける、本実施形態の感情推定システム2の動作について、図面を参照して詳細に説明する。
図23は、学習フェーズにおける、本実施形態の感情推定システム2の動作の例を表すフローチャートである。感情推定システム2は、まず、生体情報パターンの相対値を抽出する処理を行う(ステップS101)。生体情報パターンの相対値を抽出する処理によって、生体情報パターンの相対値が抽出される。生体情報パターンの相対値を抽出する処理は、後で詳細に説明する。実験者は、感情入力部22を介して、第1の刺激が誘発する第1の感情を、感情推定システム2に入力する。感情入力部22は、第1の刺激が誘発する第1の感情を取得する(ステップS102)。実験者は、感情入力部22を介して、第2の刺激が誘発する第2の感情を、感情推定システム2にさらに入力する。感情入力部22は、第2の刺激が誘発する第2の感情を取得する(ステップS103)。生体情報処理部21は、生体情報パターンの相対値を、感情推定装置1に送信する。さらに、感情入力部22は、第1の感情から第2の感情への感情変化を表す感情情報を、感情推定装置1に送信する。すなわち、感情推定システム2は、生体情報パターンの相対値と第1の感情から第2の感情への感情変化との組み合わせを、感情推定装置1に送信する。計測が終了した場合(ステップS105においてYes)、感情推定システム2は、図23に示す動作を終了する。計測が終了していない場合(ステップS105においてNo)、感情推定システム2の動作は、ステップS101に戻る。
図24は、本実施形態の感情推定システム2による、生体情報パターンの相対値を抽出する処理の動作の例を表すフローチャートである。センシング部20は、第1の刺激が与えられている状態における生体情報を計測する(ステップS201)。生体情報処理部21は、ステップS201において計測された生体情報から生体情報パターンを抽出する(ステップS202)。センシング部20は、さらに、第2の刺激が与えられている状態における生体情報を計測する(ステップS203)。生体情報処理部21は、ステップS203において計測された生体情報から生体情報パターンを抽出する(ステップS204)。生体情報処理部21は、ステップS202及びステップS204において計測された生体情報から、生体情報パターンの変化量(相対値)を導出する(ステップS205)。そして、感情推定システム2は、図24に示す動作を終了する。
センシング部20は、第1の刺激が与えられている状態から生体情報の計測を開始し、そして、第2の刺激が与えられている状態で生体情報の計測を終了してもよい。その間、センシング部20は、生体情報の計測を継続的に行えばよい。生体情報処理部21は、センシング部20が計測した生体情報において、第1の刺激が与えられている状態で計測された生体情報と、第2の刺激が与えられている状態で計測された生体情報とを特定すればよい。生体情報処理部21は、様々な方法によって、第1の刺激が与えられている状態で計測された生体情報と、第2の刺激が与えられている状態で計測された生体情報とを特定することができる。生体情報処理部21は、例えば、計測された生体情報において、所定時間以上所定の変動幅内に含まれる部分を特定すればよい。そして、生体情報処理部21は、計測の前半で特定された部分が、第1の刺激が与えられている状態で計測された生体情報であると推定すればよい。生体情報処理部21は、計測の後半で特定された部分が、第2の刺激が与えられている状態で計測された生体情報であると推定すればよい。
次に、学習フェーズにおける、本実施形態の感情推定装置1の動作について、図面を参照して詳細に説明する。
図25は、学習フェーズにおける、本実施形態の感情推定装置1の動作の例を表す第1のフローチャートである。受信部16は、生体情報パターンの変化量と感情変化との組み合わせを受信する(ステップS301)。受信部16は、生体情報の変化量と感情変化との組み合わせを、計測データ記憶部17に格納する(ステップS302)。計測が終了した場合(ステップS303においてYes)、感情推定装置1は、図25に示す動作を終了する。計測が終了していない場合(ステップS303においてNo)、感情推定装置1の動作は、ステップS301に戻る。
図26は、学習フェーズにおける、本実施形態の感情推定装置1の動作の例を表す第1のフローチャートである。感情推定装置1は、図25に示す動作が終了した後、例えば実験者による指示に従って、図26に示す動作を開始すればよい。
分類部10は、計測データ記憶部17に格納されている生体情報パターンの変化量に関連する感情変化から、1つの感情変化を選択する(ステップS401)。分類部10は、選択された感情変化に関連付けられている生体情報パターンの変化量を全て選択する(ステップS402)。分類部10は、選択された感情変化に関連付けられている生体情報パターンの変化量を、1つのグループにするグループ化を行う。第1の分布形成部11は、ステップS402で選択された生体情報パターンの変化量に基づき、ステップS401で選択された感情変化に関連する生体情報パターンの変化量の確率密度分布を形成する(ステップS403)。全ての感情変化が選択された場合(ステップS404においてYes)、感情推定装置1の動作は、ステップS405に進む。選択されていない感情変化が存在する場合(ステップS404においてNo)、感情推定装置1の動作は、ステップS401に戻る。
ステップS405において、合成部12は、変化後の感情が共通である感情クラスに属する感情変化に関連する生体情報パターンの変化量のグループを、一つのグループに合成する(ステップS405)。
第2の分布形成部13は、1つの感情クラスを選択する(ステップS406)。第2の分布形成部13は、選択された感情クラスに関連する合成後のグループに含まれる生体情報パターンの変化量の確率密度分布を形成する(ステップS407)。全ての感情クラスが選択された場合(ステップS408においてYes)、感情推定装置1の動作は、ステップS409に進む。選択されていない感情クラスが存在する場合(ステップS408においてNo)、感情推定装置1の動作は、ステップS406に戻る。
ステップS409において、第2の分布形成部13は、形成した確率密度分布を、学習の結果として学習結果記憶部14に格納する。そして、感情推定装置1は、図26に示す動作を終了する。第2の分布形成部13は、ステップS409の動作を、ステップS407の動作の後に行ってもよい。
次に、推定フェーズにおける、本実施形態の感情推定システム2の動作について図面を参照して詳細に説明する。
図27は、推定フェーズにおける、本実施形態の感情推定システム2の動作の例を表すフローチャートである。感情推定システム2は、まず、生体情報パターンの変化量を抽出する処理を行う(ステップS501)。推定フェーズにおける、生体情報パターンの変化量を抽出する処理は、図24に示す、生体情報パターンの変化量を抽出する処理と同じである。生体情報処理部21は、抽出した生体情報パターンの変化量を、感情推定装置1に送信する(ステップS502)。感情推定装置1は、送信された生体情報パターンの変化量が得られた場合における、被験者の第2の感情を推定する。感情推定装置1は、判定結果(すなわち推定した第2の感情)を出力部23に送信する。出力部23は、感情推定装置1から判定結果を受信する。出力部23は、受信した判定結果を出力する(ステップS503)。
次に、推定フェーズにおける、本実施形態の感情推定装置1の動作について、図面を参照して詳細に説明する。
図28は、推定フェーズにおける、本実施形態の感情推定装置1の動作の例を表すフローチャートである。まず、受信部16が、生体情報処理部21から、生体情報パターンの変化量を受信する(ステップS601)。推定フェーズでは、受信部16は、受信した生体情報パターンの変化量を、感情推定部15に送信する。感情推定部15は、複数の感情クラスから、1つの感情クラスを選択する(ステップS602)。前述のように、感情クラスは、例えば、感情が属する、1つ以上のクラスの組である。感情クラスは、感情であってもよい。その場合、上述の複数の感情クラスは、あらかじめ定められている複数の感情である。本実施形態では、感情は、その感情が属する全てのクラスの組によって表される。感情クラスは、感情を分類するいずれかの軸上のいずれかのクラスであってもよい。その場合、上述の複数の感情クラスは、全ての軸上の全てのクラスである。感情推定部15は、学習結果記憶部14に格納されている学習の結果に基づき、受信した生体情報パターンの変化量が得られる場合の被験者の第2の感情が、選択された感情クラスに含まれる確率を導出する(ステップS603)。選択されていない感情クラスが存在する場合(ステップS604においてNo)、感情推定装置1は、ステップS602の動作からの動作を繰り返す。全ての感情クラスが選択された場合(ステップS604においてYes)、感情推定装置1は、ステップS605の動作を行う。
ステップS605において、感情推定部15は、導出された各感情クラスの確率に基づき、感情変化後の被験者の感情(すなわち、第2の感情)を推定する。感情クラスが感情である場合、感情推定部15は、確率が最も高い感情を、推定された感情として選択すればよい。感情クラスがいずれかの軸上のいずれかのクラスである場合、感情推定部15は、各軸について、その軸上のクラスで確率が最も高いクラスを選択すればよい。前述のように、本実施形態では、感情は、全ての軸上において選択されたクラスによって特定される。感情推定部15は、選択された感情クラスによって特定される感情を、推定された感情として選択すればよい。感情推定部15は、推定した被験者の感情を、出力部23に出力する。
以上で説明した本実施形態には、感情推定の基準が変動することによる感情の識別精度の低下を抑制することができるという効果がある。その理由は、学習部18が、第1の感情を誘発する刺激が与えられた状態で得られる生体情報と、第2の感情を誘発する刺激が与えられた状態で得られる生体情報との差を表す生体情報パターンの変化量に基づき、学習を行うからである。すなわち、学習部18は、安静時における生体情報を、生体情報パターンの変化量の基準として使用しない。安静時における生体情報は、個々の被験者によって、そして被験者の状態によって変動する。従って、学習部18は、誤った学習を行う可能性を低減できる。誤った学習を行う可能性の低減によって、学習部18による学習の結果に基づき推定される被験者の感情の識別精度の低下が抑制される。以下では、本実施形態の効果について、更に詳しく説明する。
上述のように、安静を指示された被験者の状態は必ずしも一様ではない。安静を指示された被験者の感情の変動を抑制することは困難である。従って、安静な状態の生体情報パターンも、必ずしも一様ではない。一般的に、安静な状態の生体情報パターンが、生体情報パターンのベースラインすなわち感情推定の基準とされている。そのため、感情の基準の変動を抑制することは困難である。その場合、学習時において、安静な状態であるはずの被験者から得られる生体情報パターンが、例えばいずれかの感情が誘発された状態における生体情報パターンと同様である場合、誤ったパターンを学習するリスクがある。こうしたリスクに対処するために、一般的に、多数のパターンを学習させれば安静時の生体情報パターンが平均的には特定の感情を持たない状態に近づくことを期待して、多数の生体情報パターンが学習データとして与えられる。
本実施形態の感情推定装置1は、異なる2つの感情を誘発する刺激を別々に与えることによって得られた生体情報パターンの変化量を使用して学習する。本実施形態の感情推定装置1は、被験者が安静を指示された状態で得られた生体情報パターンに関係するデータを学習に使用しない。従って、本実施形態の感情推定装置1は、安静を指示された被験者の状態の変動に影響されない。また、感情を誘発する刺激が与えられている状態で得られる生体情報パターンは、感情を誘発する刺激によって感情が強制的に誘発されるため、安静を指示された状態で得られる生体情報パターンより安定している。
従って本実施形態の感情推定装置1は、誤ったパターンを学習するリスクを低減できる。測定しようとする感情以外の全ての感情からの変化を網羅的に学習することによって、特定の感情を抱くことによるベースラインの偏りを予め織り込むことができる。そして、多数の学習によって前記偏りを排除し特定の感情を持たない状態に近づくことを期待する必要がない。よって、本実施形態の感情推定装置1による学習は、効率的な学習である。そして、このように、全ての感情から感情への変化量を学習した場合、推定フェーズにおいてある生体情報パターンの変化量を得た時、出発点がどの感情であっても、被験者がどの感情を得つつあるのかが分かる。
以下では、本実施形態の学習フェーズ及び推定フェーズにおける特徴空間の構成方法の優位性を更に詳細に説明する。
一般に、クラス内分散(within-class variance) 及びクラス間分散(between-class variance) は、次に示す式によって表せる。数10に示すσW 2がクラス内分散を表す。数11に示すσB 2がクラス間分散を表す。
Figure 0006665777
Figure 0006665777
数10及び数11に示す式において、cはクラスの数を表し、nは特徴ベクトルの数を表し、mは特徴ベクトルの平均を表し、miはクラスiに属する特徴ベクトルの平均を表し、χiはクラスiに属する特徴ベクトルの集合を表す。以下の説明において、特徴ベクトルは、パターンとも表記される。
特徴空間において、クラス内分散が小さく、クラス間分散が大きいほど、特徴ベクトルの集合の識別性は高いと言える。
したがって、数12に示す式によって定義される比Jσによって、特徴ベクトルの集合における識別性の高さを評価することができる。
Figure 0006665777
比Jσが大きいほど識別性に優れた特徴ベクトルの集合であると判定することができる。
以下では、クラス数cが2である場合(c=2)の識別性について説明する。
これらの2つのクラスに属する特徴ベクトルの平均値ベクトルであるベクトルm1及びm2が共通に属する1次元の部分空間として、ただ一つの、直線である1次元部分空間が定義される。以下では、この1次元部分空間における識別性について説明する。1次元部分空間における各パターンは、いずれかの特徴ベクトルが変換された、その1次元部分空間への射影である。また簡単のため、全パターンの重心(すなわち平均値)がその1次元部分空間のゼロ点によって表されるように、各パターンの座標はずらされる。従って、全パターンの平均値mは0である(m=0)。なお、全パターンの平均値mは、全特徴ベクトルの重心の、その1次元部分空間への射影である。
また、以下の説明では、これらの2つのクラスに所属するパターンの数は等しい。すなわち、クラス2に属するパターンの数n2は、クラス1に属するパターンの数n1と等しい(n2=n1)。さらに、一方のクラスに属するパターンは、他方のクラスに属するパターンに、1対1で関連付けられている。互いに関連付けられている2つのパターンを、x1j及びx2jと表記する。パターンx1jは、クラス1に属する。パターンx2jは、クラス2に属する。値jは、2つのパターンの組み合わせに付与された番号である。値jは、1からniまでのいずれかの整数をとる。以下に示す式において、m1は、クラス1に属するパターンの平均値であり、m2はクラス2に属するパターンの平均値である。全パターンの平均値がゼロであり、2つのクラスに所属するパターンの数は等しいので、m1とm2の和はゼロである。
この場合、σw 2、σB 2、及びJσは、それぞれ、数13、数14及び数15に示す式によって表される。
Figure 0006665777
Figure 0006665777
Figure 0006665777
本実施形態における感情推定では、上述の式において、パターンは数16のように定義される。本実施形態では、上述の式におけるパターンx1j及びx2jは、数16を使用して置き換えられる。
Figure 0006665777
さらに、定義より、各クラスの重心を表すパターンは、数17によって表される。本実施形態では、上述の式における重心を表すパターンm1及びm2は、数17を使用して置き換えられる。
Figure 0006665777
ゆえに、本実施形態におけるクラス内分散σW2、クラス間分散σB2及びそれらの比Jσ’は、それぞれ、次の数18、数19、及び数20に示す式によって表される。
Figure 0006665777
Figure 0006665777
Figure 0006665777
ここで、Jσ’からJσを引いた値に、両者の分母を掛けた値をΔJσと表記する。ΔJσは、数20に示す式によって表される。なお、各クラスの全てのパターンがその平均値に等しいという状況を想定しないならば、Jσ’及びJσの分母は共にゼロより大きい。
Figure 0006665777
このΔJσがゼロより大きければ、クラス数c=2等の上述の前提の下で、本実施形態の感情識別の結果は一般の場合よりも優れていると結論することができる。
ここで、数21に示す関係を使用して数20に示す式を整理すると、ΔJσは数22に示す式によって表される。
Figure 0006665777
Figure 0006665777
数24におけるΔJσjは、ΔJσのj番目の要素、すなわち、数23に示す式の右辺のj番目の要素である。ΔJσjを、0より大きいs2j 2で割った値を整理することによって、数24に示す式が導かれる。
Figure 0006665777
数24に示す式はs1j/s2jの二次方程式である。全パターンの平均値はゼロであるので、式m+m=0が成り立つ。すなわち、mは−mと等しい。従って、数25に示すように、(s1j/s2j)2の係数であるm −2mはゼロより大きい。
Figure 0006665777
従って、数26に示す関係が成立すれば、ΔJσj/(s2j 2)>0すなわちΔJσ>0が証明される。
Figure 0006665777
全パターンの平均値がゼロであるために成り立つm=−mという関係を再び使って数26に示す式を整理することにより、数27に示す式が導かれる。
Figure 0006665777
すなわち、クラス数c=2等の前提の下で、本実施形態の感情識別方法は、クラス(感情)の識別において、比較例における方法より優れていることが示された。
図29及び図30は、比較例と本実施形態とにおけるパターンを模式的に表す図である。
図29は、比較例の特徴空間の1次元部分空間におけるパターンを模式的に表す図である。図29に示す黒丸が、比較例におけるパターンである。図29には、さらに、本実施形態の定義によるパターンが示されている。本実施形態のパターンは、異なるクラスに含まれる、比較例における2つのパターンの差として定義される。
図30は、本実施形態の特徴空間の1次元部分空間におけるパターンを模式的に表す図である。図30に示す黒丸が、上述の定義に基づき模式的に描かれた、本実施形態の特徴空間の1次元部分空間におけるパターンを表す。図30に示すように、各クラス間の分布の距離、即ちクラス間分散は、クラス内分散に比較して相対的に増大する。これにより識別性が増す。本実施形態では、こうした識別性の優位性のため、より少ない学習データで高い識別性を得られることが期待できる。本実施形態では、被験者の感情が2を超える数の感情(例えば、上述の感情A、B、C、及びD)のいずれかであることを直接推定することができる。しかし、特に、2つのクラスにおいて、被験者の感情が属するクラスを識別する場合において、本実施形態の優位性は上記のように顕著である。そのため、上述のように、あらかじめ2n個の感情を定めておき、2クラス識別をn回繰り返すことによって、被験者の感情が2n個の感情のいずれであるかを識別する方法を採用することがより望ましいと言える。2クラス識別は、感情全体が2つのクラスに分類される場合に、被験者の感情が2つのクラスのいずれであるかを識別することを表す。例えば、被験者の感情が感情A、B、C、及びDのいずれかであることを識別する場合、2クラス識別を2回繰り返すことによって、被験者の感情が4つの感情のいずれであるかを識別することができる。すなわち、被験者の感情を推定することができる。
図31は、本実施形態における各感情において得られる生体情報パターンの変化量の分布を模式的に表す図である。図31に示す例では、2クラス分類が2回繰り返されることによって、全ての感情が4つの感情に分類されている。図31に模式的に示す通り、本実施形態では、2クラス分類を繰り返す分類の採用によって、比較例と比較して、感情A、B、C、及びDのそれぞれにおけるパターンの分布領域が離れる効果が得られる。このことになり、本実施形態では、クラス間の分類が明らかに容易になる。
図32は、感情の分類の例を表す図である。本実施形態では、例えば図32に示す、覚醒度、及び価値評価(ネガティヴ、ポジティヴ)を、軸として採用することができる。図32に示す感情の分類の例は、例えば、非特許文献2において開示されている。
<第2の実施形態>
次に、本発明の第2の実施形態について、図面を参照して詳細に説明する。
図33は、本実施形態の感情推定装置1Aの構成を表すブロック図である。
図33を参照すると、本実施形態の感情推定装置1Aは、分類部10と、学習部18Aと、を備える。分類部10は、複数の感情のうち異なる2つの感情(すなわち、第1の感情及び第2の感情)の、複数の組み合わせに対して得られた、第1の生体情報と、第2の生体情報との差を表す生体情報パターン変化量を、前記第2の感情に基づき分類する。第1の生体情報は、前記2つの感情の一方である第1の感情を誘発する刺激が与えられている状態で被験者からセンシング手段によって計測された生体情報である。第2の生体情報は、前記第1の生体情報が計測された後に前記2つの感情の他方である第2の感情を誘発する刺激が与えられている状態で計測された前記生体情報である。学習部18Aは、前記生体情報パターン変化量が分類された結果に基づき、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情としての前記複数の感情の各々との関係を学習する。本実施形態の学習部18Aは、例えば、本発明の第1の実施形態の学習部18と同様の学習を行えばよい。
以上で説明した本実施形態には、第1の実施形態と同じ効果がある。その理由は、第1の実施形態の効果が生じる理由と同じである。
<その他の実施形態>
感情推定装置1、感情推定装置1A、感情推定システム2は、それぞれ、コンピュータ及びコンピュータを制御するプログラムにより実現することができる。感情推定装置1、感情推定装置1A、感情推定システム2は、それぞれ、専用のハードウェアにより実現することもできる。感情推定装置1、感情推定装置1A、感情推定システム2は、それぞれ、コンピュータ及びコンピュータを制御するプログラムと専用のハードウェアの組合せにより実現することもできる。
図34は、感情推定装置1、感情推定装置1A、感情推定システム2を実現することができる、コンピュータ1000の構成の一例を表す図である。図34を参照すると、コンピュータ1000は、プロセッサ1001と、メモリ1002と、記憶装置1003と、I/O(Input/Output)インタフェース1004とを含む。また、コンピュータ1000は、記録媒体1005にアクセスすることができる。メモリ1002と記憶装置1003は、例えば、RAM(Random Access Memory)、ハードディスクなどの記憶装置である。記録媒体1005は、例えば、RAM、ハードディスクなどの記憶装置、ROM(Read Only Memory)、可搬記録媒体である。記憶装置1003が記録媒体1005であってもよい。プロセッサ1001は、メモリ1002と、記憶装置1003に対して、データやプログラムの読み出しと書き込みを行うことができる。プロセッサ1001は、I/Oインタフェース1004を介して、例えば、感情推定システム2、あるいは感情推定装置1にアクセスすることができる。プロセッサ1001は、記録媒体1005にアクセスすることができる。記録媒体1005には、コンピュータ1000を、感情推定装置1、感情推定装置1A、又は感情推定システム2として動作させるプログラムが格納されている。
プロセッサ1001は、記録媒体1005に格納されている、コンピュータ1000を、感情推定装置1、感情推定装置1A、又は感情推定システム2として動作させるプログラムを、メモリ1002にロードする。そして、プロセッサ1001が、メモリ1002にロードされたプログラムを実行することにより、コンピュータ1000は、感情推定装置1、感情推定装置1A、又は感情推定システム2として動作する。
以下の第1グループに含まれる各部は、例えば、プログラムを記憶する記録媒体1005からメモリ1002に読み込まれた、各部の機能を実現することができる専用のプログラムと、そのプログラムを実行するプロセッサ1001により実現することができる。第1グループは、分類部10、第1の分布形成部11、合成部12、第2の分布形成部13、感情推定部15、受信部16、学習部18、学習部18A、生体情報処理部21、感情入力部22、及び、出力部23である。また、以下の第2グループに含まれる各部は、コンピュータ1000が含むメモリ1002やハードディスク装置等の記憶装置1003により実現することができる。第2グループは、学習結果記憶部14、及び、計測データ記憶部17である。あるいは、第1グループに含まれる部及び第2グループに含まれる部の一部又は全部を、それぞれの部の機能を実現する専用の回路によって実現することもできる。
以上、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2014年5月27日に出願された日本出願特願2014−109015を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 感情推定装置
1A 感情推定装置
2 感情推定システム
10 分類部
11 第1の分布形成部
12 合成部
13 第2の分布形成部
14 学習結果記憶部
15 感情推定部
16 受信部
17 計測データ記憶部
18 学習部
20 センシング部
21 生体情報処理部
22 感情入力部
23 出力部
101 感情推定装置
110 分類部
114 学習結果記憶部
115 感情推定部
116 受信部
117 計測データ記憶部
118 学習部
201 感情推定システム
220 センシング部
221 生体情報処理部
222 感情入力部
223 出力部
1000 コンピュータ
1001 プロセッサ
1002 メモリ
1003 記憶装置
1004 I/Oインタフェース
1005 記録媒体

Claims (10)

  1. 複数の感情のうち異なる2つの感情の、複数の組み合わせに対して得られた、前記2つの感情の一方である第1の感情を誘発する刺激が与えられている状態で被験者からセンシング手段によって計測された第1の生体情報と、当該第1の生体情報が計測された後に前記2つの感情の他方である第2の感情を誘発する刺激が与えられている状態で計測された第2の生体情報との差を表す生体情報パターン変化量を、前記第2の感情に基づき分類する分類手段と、
    前記生体情報パターン変化量が分類された結果に基づき、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情としての前記複数の感情の各々との関係を学習する学習手段と、
    を備え、
    前記生体情報パターン変化量は、前記複数の感情のうち少なくとも2つの異なる前記第1の感情について計測された、前記第1の生体情報と前記第2の生体情報との差を表す前記生体情報パターン変化量を含む
    感情推定装置。
  2. 前記生体情報パターン変化量が与えられた場合、当該生体情報パターン変化量と学習された前記関係とに基づき、前記生体情報パターン変化量が計測された場合の前記第2の感情推定する感情推定手段
    を備える請求項1に記載の感情推定装置。
  3. 前記分類手段は、前記複数の感情を2つのクラスのいずれかに分類するクラス分類によって、前記生体情報パターン変化量が計測された際の前記第2の感情が分類される前記クラスに基づく、前記生体情報パターン変化量の分類を、1以上の前記クラス分類の各々に対して行い、
    前記複数の感情の各々は、当該感情が分類される前記クラスの各々によって特定され、
    前記学習手段は、前記1以上のクラス分類の各々に対して、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情が前記クラス分類によって分類される前記クラスとの関係を学習し、
    前記感情推定手段は、前記1以上のクラス分類の各々に対して、当該クラス分類によって前記生体情報パターン変化量が分類されるクラスを推定することによって、前記第2の感情を推定する
    請求項2に記載の感情推定装置。
  4. 請求項1乃至3のいずれかに記載の感情推定装置と、
    前記センシング手段と、
    前記第1の感情を誘発する刺激が与えられている状態で計測された前記第1の生体情報と、当該第1の生体情報が計測された後、前記2つの感情の他方である前記第2の感情を誘発する刺激が与えられている状態で計測された前記第2の生体情報との差に基づき、前記生体情報パターン変化量を導出する生体情報処理手段と、
    前記第1の感情及び前記第2の感情を入力する感情入力手段と、
    推定された感情を出力する出力手段と、
    を備える感情推定システム。
  5. コンピュータが備える分類手段が、複数の感情のうち異なる2つの感情の、複数の組み合わせに対して得られた、前記2つの感情の一方である第1の感情を誘発する刺激が与えられている状態で被験者からセンシング手段によって計測された第1の生体情報と、当該第1の生体情報が計測された後に前記2つの感情の他方である第2の感情を誘発する刺激が与えられている状態で計測された第2の生体情報との差を表す生体情報パターン変化量を、前記第2の感情に基づき分類し、
    前記コンピュータが備える学習手段が、前記生体情報パターン変化量が分類された結果に基づき、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情としての前記複数の感情の各々との関係を学習し、
    前記生体情報パターン変化量は、前記複数の感情のうち少なくとも2つの異なる前記第1の感情について計測された、前記第1の生体情報と前記第2の生体情報との差を表す前記生体情報パターン変化量を含む
    感情推定方法。
  6. 前記コンピュータが備える感情推定手段が、前記生体情報パターン変化量が与えられた場合、当該生体情報パターン変化量と学習された前記関係とに基づき、前記生体情報パターン変化量が計測された場合の前記第2の感情推定する
    請求項5に記載の感情推定方法。
  7. 前記分類手段は、前記複数の感情を2つのクラスのいずれかに分類するクラス分類によって、前記生体情報パターン変化量が計測された際の前記第2の感情が分類される前記クラスに基づく、前記生体情報パターン変化量の分類を、1以上の前記クラス分類の各々に対して行い、
    前記複数の感情の各々、当該感情が分類される前記クラスの各々によって特定され
    前記学習手段は、前記1以上のクラス分類の各々に対して、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情が前記クラス分類によって分類される前記クラスとの関係を学習し、
    前記感情推定手段は、前記1以上のクラス分類の各々に対して、当該クラス分類によって前記生体情報パターン変化量が分類されるクラスを推定することによって、前記第2の感情を推定する
    請求項6に記載の感情推定方法。
  8. コンピュータに、
    複数の感情のうち異なる2つの感情の、複数の組み合わせに対して得られた、前記2つの感情の一方である第1の感情を誘発する刺激が与えられている状態で被験者からセンシング手段によって計測された第1の生体情報と、当該第1の生体情報が計測された後に前記2つの感情の他方である第2の感情を誘発する刺激が与えられている状態で計測された第2の生体情報との差を表す生体情報パターン変化量を、前記第2の感情に基づき分類する分類処理と、
    前記生体情報パターン変化量が分類された結果に基づき、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情としての前記複数の感情の各々との関係を学習する学習処理と、
    を実行させ、
    前記生体情報パターン変化量は、前記複数の感情のうち少なくとも2つの異なる前記第1の感情について計測された、前記第1の生体情報と前記第2の生体情報との差を表す前記生体情報パターン変化量を含む
    感情推定プログラム。
  9. コンピュータに、
    前記生体情報パターン変化量が与えられた場合、当該生体情報パターン変化量と学習された前記関係とに基づき、前記生体情報パターン変化量が計測された場合の前記第2の感情推定する感情推定処理
    を実行させる請求項8に記載の感情推定プログラム。
  10. 前記分類処理は、2つのクラスのいずれかに分類するクラス分類によって、前記生体情報パターン変化量が計測された際の前記第2の感情が分類される前記クラスに基づく、前記生体情報パターン変化量の分類を、1以上の前記クラス分類の各々に対して行い、
    前記複数の感情の各々は、分類される前記クラスの各々によって特定され、
    前記学習処理は、前記1以上のクラス分類の各々に対して、前記生体情報パターン変化量と、当該生体情報パターン変化量が得られた場合の前記第2の感情が前記クラス分類によって分類される前記クラスとの関係を学習し、
    前記感情推定処理は、前記1以上のクラス分類の各々に対して、当該クラス分類によって前記生体情報パターン変化量が分類されるクラスを推定することによって、前記第2の感情を推定する、
    請求項9に記載の感情推定プログラム。
JP2016523127A 2014-05-27 2015-05-20 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体 Active JP6665777B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014109015 2014-05-27
JP2014109015 2014-05-27
PCT/JP2015/002541 WO2015182077A1 (ja) 2014-05-27 2015-05-20 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体

Publications (2)

Publication Number Publication Date
JPWO2015182077A1 JPWO2015182077A1 (ja) 2017-04-27
JP6665777B2 true JP6665777B2 (ja) 2020-03-13

Family

ID=54698432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016523127A Active JP6665777B2 (ja) 2014-05-27 2015-05-20 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体

Country Status (3)

Country Link
US (1) US20170188927A1 (ja)
JP (1) JP6665777B2 (ja)
WO (1) WO2015182077A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6665777B2 (ja) * 2014-05-27 2020-03-13 日本電気株式会社 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体
CN106202860B (zh) * 2016-06-23 2018-08-14 南京邮电大学 一种情绪调节业务推送方法
JP7097012B2 (ja) * 2017-05-11 2022-07-07 学校法人 芝浦工業大学 感性推定装置、感性推定システム、感性推定方法およびプログラム
US20190000384A1 (en) * 2017-06-30 2019-01-03 Myant Inc. Method for sensing of biometric data and use thereof for determining emotional state of a user
GB2564865A (en) * 2017-07-24 2019-01-30 Thought Beanie Ltd Biofeedback system and wearable device
US10379535B2 (en) 2017-10-24 2019-08-13 Lear Corporation Drowsiness sensing system
KR102106517B1 (ko) * 2017-11-13 2020-05-06 주식회사 하가 피검자의 감정을 분석하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
US10836403B2 (en) 2017-12-04 2020-11-17 Lear Corporation Distractedness sensing system
US10867218B2 (en) 2018-04-26 2020-12-15 Lear Corporation Biometric sensor fusion to classify vehicle passenger state
JP7125050B2 (ja) * 2018-06-08 2022-08-24 株式会社ニコン 推定装置、推定システム、推定方法および推定プログラム
KR102174232B1 (ko) * 2018-08-09 2020-11-04 연세대학교 산학협력단 생체신호 클래스 분류 장치 및 그 방법
JP7224032B2 (ja) * 2019-03-20 2023-02-17 株式会社国際電気通信基礎技術研究所 推定装置、推定プログラムおよび推定方法
SG11202110562VA (en) * 2019-03-29 2021-10-28 Agency Science Tech & Res A system and method for measuring non-stationary brain signals
US11524691B2 (en) 2019-07-29 2022-12-13 Lear Corporation System and method for controlling an interior environmental condition in a vehicle
WO2022144978A1 (ja) * 2020-12-28 2022-07-07 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
WO2022180852A1 (ja) * 2021-02-26 2022-09-01 株式会社I’mbesideyou ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
US20220346681A1 (en) * 2021-04-29 2022-11-03 Kpn Innovations, Llc. System and method for generating a stress disorder ration program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP2006061632A (ja) * 2004-08-30 2006-03-09 Ishisaki:Kk 感情データ提供装置、心理解析装置、および電話ユーザ心理解析方法
US9833184B2 (en) * 2006-10-27 2017-12-05 Adidas Ag Identification of emotional states using physiological responses
JP5319960B2 (ja) * 2008-05-28 2013-10-16 株式会社日立製作所 生体光計測装置
JP5322179B2 (ja) * 2009-12-14 2013-10-23 国立大学法人東京農工大学 感性評価装置、感性評価方法、及び感性評価プログラム
KR102011495B1 (ko) * 2012-11-09 2019-08-16 삼성전자 주식회사 사용자의 심리 상태 판단 장치 및 방법
JP6665777B2 (ja) * 2014-05-27 2020-03-13 日本電気株式会社 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体

Also Published As

Publication number Publication date
JPWO2015182077A1 (ja) 2017-04-27
US20170188927A1 (en) 2017-07-06
WO2015182077A1 (ja) 2015-12-03

Similar Documents

Publication Publication Date Title
JP6665777B2 (ja) 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体
Shimpi et al. A machine learning approach for the classification of cardiac arrhythmia
EP3037036B1 (en) Biometric authentication method and apparatus
García-Salinas et al. Transfer learning in imagined speech EEG-based BCIs
Wang et al. Emotional state classification from EEG data using machine learning approach
KR101284561B1 (ko) 멀티 모달리티 감정인식 시스템, 감정인식 방법 및 그 기록매체
JP5672144B2 (ja) 心拍数・呼吸数検出装置,方法およびプログラム
Torres-Valencia et al. Comparative analysis of physiological signals and electroencephalogram (EEG) for multimodal emotion recognition using generative models
Bostrom et al. A shapelet transform for multivariate time series classification
KR20160098960A (ko) 심전도에 기초한 인증 방법, 인증 장치, 심전도 기반 인증을 위한 학습 방법 및 학습 장치
Wu et al. Offline EEG-based driver drowsiness estimation using enhanced batch-mode active learning (EBMAL) for regression
US20180177415A1 (en) Cardiovascular disease detection
Karan et al. Time series classification via topological data analysis
JP2016536044A (ja) マルチチャネルecg信号の評価装置及び方法
WO2023112384A1 (ja) 計算機システム及び情動推定方法
Singer et al. Classification of severity of trachea stenosis from EEG signals using ordinal decision-tree based algorithms and ensemble-based ordinal and non-ordinal algorithms
Mauldin et al. Ensemble deep learning on wearables using small datasets
Tazrin et al. LiHEA: migrating EEG analytics to ultra-edge IoT devices with logic-in-headbands
Wu et al. Statistical sleep pattern modelling for sleep quality assessment based on sound events
JP6203324B1 (ja) 認知状態推定システム及び認知状態推定方法
Wu et al. Unobtrusive monitoring of sedentary behaviors with fusion of bluetooth and ballistocardiogram signals
Rudas et al. On activity identification pipelines for a low-accuracy EEG device
JP7016680B2 (ja) 生体情報処理装置、生体情報処理方法およびプログラム
Uslu et al. On the activity detection with incomplete acceleration data using iterative KNN classifier
Malott et al. Scalable homology classification through decomposed euler characteristic curves

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200203

R150 Certificate of patent or registration of utility model

Ref document number: 6665777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150