JP6976498B1 - 感情推定装置および感情推定方法 - Google Patents

感情推定装置および感情推定方法 Download PDF

Info

Publication number
JP6976498B1
JP6976498B1 JP2021550162A JP2021550162A JP6976498B1 JP 6976498 B1 JP6976498 B1 JP 6976498B1 JP 2021550162 A JP2021550162 A JP 2021550162A JP 2021550162 A JP2021550162 A JP 2021550162A JP 6976498 B1 JP6976498 B1 JP 6976498B1
Authority
JP
Japan
Prior art keywords
information
subjects
emotion
acquisition unit
preparatory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550162A
Other languages
English (en)
Other versions
JPWO2022195661A1 (ja
Inventor
政郎 弓削
幸大 栗原
幸治 太田
典子 長田
匡史 杉本
帆 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Kwansei Gakuin Educational Foundation
Original Assignee
Mitsubishi Electric Corp
Kwansei Gakuin Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Kwansei Gakuin Educational Foundation filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6976498B1 publication Critical patent/JP6976498B1/ja
Publication of JPWO2022195661A1 publication Critical patent/JPWO2022195661A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • A61B5/0533Measuring galvanic skin response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/332Portable devices specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Cardiology (AREA)
  • Psychiatry (AREA)
  • Dermatology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

感情推定装置は、準備生体情報取得部と準備感情情報取得部と関連構築部と推定生体情報取得部と推定部とを備える。準備生体情報取得部は、準備空間内の複数の対象者の各々から、各対象者の身体の状態を示す第1生体情報を取得して解析する。準備感情情報取得部は、当該複数の対象者の各々の感情を示す感情情報を取得する。関連構築部は、第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部は、推定空間内に存在するいずれかの対象者の身体の状態を示す第2生体情報を取得する。推定部は、関連情報において、当該第2生体情報と等しい第1生体情報と関連付けられた感情情報を抽出し、抽出した感情情報によって当該いずれかの対象者の感情を推定する。

Description

本開示は、人の快適感を推定する、感情推定装置および感情推定方法に関するものである。
人の感情を推定する装置が知られている。例えば、特許文献1には、取得した顔面皮膚温度データまたは顔面血行量データに基づき、対象者の脳活動を推定し、推定した当該脳活動に基づき、当該対象者の感情を判定する感情判定装置について記載されている。
具体的には、当該感情判定装置は、脳活動の推定結果と、人の感情を示す感情データとを関連付けて記憶する感情記憶部を有する。感情判定装置は、当該感情記憶部において、顔面皮膚温度データまたは顔面血行量データに基づいて推定された脳活動に関連付けられている感情データを抽出することによって、対象者の感情を判定する。なお、感情記憶部に記憶されている、脳活動の推定結果と、感情データとの関連付けは、例えば、人を「喜怒哀楽」のいずれかの状態にし、当該人に脳機能賦活課題を一定期間与えた際に収集された脳活動量のデータに基づくものである。
特開2017−74214号公報
ここで、上記感情判定装置は、何らかの方法によって、人を「喜怒哀楽」のいずれかの状態にした上で脳活動量のデータを収集し、感情データと脳活動の推定結果との関連付けを行っている。すなわち、外部からの何らかの刺激によって人の感情を変化させた上で、変化後の感情を示す感情情報と、感情の変化後における脳活動の推定結果などの生体情報と、を関連付けたデータベースを構築している。しかし、感情の推定に用いるデータベースが、人に特定の刺激を与える実験、または、特定の環境要因を変動させる実験等によって得られている場合には、実験環境と日常環境の違い、または個人差等の影響によって、感情を精度良く推定できない可能性がある。
本開示は、上記課題を解決するためになされたものであり、対象者の感情を推定する推定精度を向上し得る感情推定装置および感情推定方法を提供することを目的とする。
本開示の一側面に係る感情推定装置は、推定空間内に存在する複数の対象者の感情を推定する感情推定装置であって、準備空間内に存在する前記複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する準備生体情報取得部と、前記準備空間内に存在する前記複数の対象者の各々の感情を示す感情情報を取得する準備感情情報取得部と、前記第1生体情報、および、該第1生体情報に対応する前記感情情報を、互いに関連付けた関連情報を構築する関連構築部と、前記複数の対象者のうちのいずれかの対象者であって、前記推定空間内に存在する前記いずれかの対象者の身体の状態を示す第2生体情報を取得して解析する推定生体情報取得部と、前記第2生体情報と等しい前記第1生体情報に、前記関連情報において関連付けられている前記感情情報を抽出し、抽出した該感情情報によって前記推定空間内に存在する前記いずれかの対象者の感情を推定する推定部と、を備え、前記準備感情情報取得部は、評価グリッド法に基づいて、前記複数の対象者の各々から、前記感情情報として、該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、該複数の対象者の各々の該快適度の要因を示す要因情報を取得するものである。
本開示の一側面に係る感情推定方法は、推定空間内に存在する複数の対象者の感情を推定する感情推定装置が実行する感情推定方法であって、準備空間内に存在する前記複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する準備生体情報取得ステップと、前記準備空間内に存在する前記複数の対象者の各々の感情を示す感情情報を取得する準備感情情報取得ステップと、前記第1生体情報、および、該第1生体情報に対応する前記感情情報を、互いに関連付けた関連情報を構築する関連構築ステップと、前記複数の対象者のうちのいずれかの対象者であって、前記推定空間内に存在する前記いずれかの対象者の身体の状態を示す第2生体情報を取得して解析する推定生体情報取得ステップと、前記第2生体情報と等しい前記第1生体情報に、前記関連情報において関連付けられている前記感情情報を抽出し、抽出した該感情情報によって前記推定空間内に存在する前記いずれかの対象者の感情を推定する推定ステップと、を含み、前記準備感情情報取得ステップは、評価グリッド法に基づいて、前記複数の対象者の各々から、前記感情情報として、該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、該複数の対象者の各々の該快適度の要因を示す要因情報を取得するステップを含むものである。
本開示においては、対象者の感情を推定する推定精度を向上し得る感情推定装置および感情推定方法を提供することが可能となる。
実施の形態1に係る感情推定装置の機能ブロックを例示する図である。 実施の形態1に係る感情推定装置のハードウェア構成を例示する模式図である。 実施の形態1に係る感情推定装置による感情推定処理を例示するフローチャートである。 実施の形態2に係る感情推定処理を例示するフローチャートである。 実施の形態3に係る感情推定処理を例示するフローチャートである。
以下、図面を参照し、実施の形態に係る感情推定装置および感情推定方法について詳述する。
実施の形態1.
実施の形態1に係る感情推定装置100は、例えばオフィスビルの一室などの特定の室内または屋内等の空間における対象者の感情を、当該対象者の後述する生体情報に基づいて推定する装置である。以下では、当該特定の室内または屋内等の空間を、推定空間と記載する場合もある。図1は、実施の形態1に係る感情推定装置の機能ブロックを例示する図である。感情推定装置100は、記憶部1、準備生体情報取得部2、準備感情情報取得部3、関連構築部4、推定生体情報取得部5、推定部6、および出力部7を備える。
記憶部1は、感情推定装置100が対象者の感情を推定するための関連情報を保存する。感情推定装置100は、対象者の感情を推定する際に、当該関連情報を参照する。
準備生体情報取得部2は、1以上のセンサを含む。以下では、当該センサを準備用センサと記載する場合もある。準備生体情報取得部2は、1以上の準備用センサによって、準備空間内に存在する複数の対象者の各々から、サンプルとなる第1生体情報を取得する。準備空間とは、例えば試験室など、複数の対象者から第1生体情報を取得するための空間である。準備空間は、上述の推定空間と同一の空間、在室目的が当該推定空間の在室目的と同一の空間、または、当該推定空間と類似の空間であってもよい。なお、当該推定空間と類似の空間とは、推定空間との気温差が、予め定められた温度差閾値以下である空間であってもよいし、推定空間との湿度差が、予め定められた湿度差閾値以下である空間であってもよい。あるいは、当該類似の空間とは、推定空間との照度差が、予め定められた照度差閾値以下である空間であってもよいし、推定空間との面積の差が、予め定められた面積差閾値以下である空間であってもよい。なお、上述の類似の空間は例であって、推定空間と類似の空間は上述のものに限定されない。また、上述の準備空間は例であって、準備空間は上述のものに限定されない。準備空間が、推定空間と同一の空間、在室目的が推定空間の在室目的と同一の空間、または、推定空間と類似の空間である場合には、感情推定装置100は、上記複数の対象者に特段の負担を与えることなく、第1生体情報を取得できる。一方、準備空間が、推定空間と同一の空間、在室目的が推定空間の在室目的と同一の空間、または、推定空間と類似の空間でない場合には、感情推定装置100による第1生体情報の取得が容易になり得る。第1生体情報は、人体の状態の指標となる情報である。第1生体情報は、数値によって示され、人体の状態に応じて様々な値となる。第1生体情報は、例えば、体表温度、心拍、脈波、皮膚電気反応、体表温度の時間的な変化量、体における複数の部位の各々の表面温度の差、および、心拍の周波数解析によって得られる指標値等の少なくとも1つを示す情報である。実施の形態1における準備生体情報取得部2は、例えば、体表温度、心拍、脈波、および皮膚電気反応等の少なくともいずれか1つを示す第1生体情報を、上記1以上の準備用センサによって取得する。
準備生体情報取得部2は、人体における1つの部分から、任意の1種類の検知方法によって、第1生体情報を取得してもよい。あるいは、準備生体情報取得部2は、人体における1つの部分から、任意の2種類以上の検知方法の各々によって、1種類の第1生体情報、または、2種類以上の第1生体情報の各々を取得してもよい。または、準備生体情報取得部2は、人体における複数の部分から、任意の2種類以上の検知方法の各々によって、1種類の第1生体情報、または、2種類以上の第1生体情報の各々を取得してもよい。
実施の形態1における準備生体情報取得部2は、上記1以上の準備用センサによって取得した第1生体情報を解析する。具体的には、準備生体情報取得部2は、上記1以上の準備用センサによって取得した第1生体情報を用いて、体表温度の時間的な変化量、体における複数の部位の各々の表面温度の差、および、心拍の周波数解析によって得られる指標値等の少なくとも1つを示す第1生体情報を生成する。例えば、準備生体情報取得部2は、1以上の準備用センサによって取得した第1生体情報が体表温度である場合には、体における複数の部位の各々の表面温度の差を演算してもよい。あるいは、準備生体情報取得部2は、1以上の準備用センサによって取得した第1生体情報が、例えば心電データなどの、心拍に関するデータである場合には、周波数解析を行い、心拍の状態を示す指標値を取得してもよい。
準備感情情報取得部3は、準備空間内に存在する上記複数の対象者の各々から、当該複数の対象者の各々の感情を示す感情情報を取得する。ここで、感情情報は、快適度合い、高揚度合い、または鎮静度合い等の感情を、数値によって示した情報である。準備感情情報取得部3は、複数の対象者の各々が感情推定装置100に感情情報を入力するための、キーボード、タッチパネル、ボタン、またはマウス等の入力装置を含む。
実施の形態1における準備感情情報取得部3は、経験抽出法に基づいて準備空間内に存在する複数の対象者の各々から、感情情報を取得する。すなわち、準備感情情報取得部3は、準備空間内に存在する複数の対象者の各々から、予め定められた期間内の複数の時点の各々において、当該複数の時点の各々における当該複数の対象者の各々の感情を示す感情情報を取得する。
準備感情情報取得部3は、経験抽出法に基づいて、感情情報を、例えば2日以上の上記期間における複数の時点の各々において取得する。準備感情情報取得部3は、当該期間内の各日にちにおける1以上の、予め定められた時刻、または、ランダムな時刻において、感情情報を取得する。準備感情情報取得部3は、5日以上の期間に亘り、感情情報を取得することが望ましい。その理由は、平日の曜日毎、または、1週間における曜日毎に生じる事象は異なることが多く、当該事象によって生じる心身の状態を示す感情情報を、準備感情情報取得部3が満遍なく取得するためである。
経験抽出法によって、複数の時点の各々において取得された感情情報は、各対象者の想起バイアスが低減されたものとなる。すなわち、各時点において取得された感情情報は、当該各時点において発生した事象によって影響を受けた、各対象者の感情を精度良く示すものとなる。また、経験抽出法によって、複数の時点の各々において取得された感情情報の集まりは、例えば日常生活における特定の事象によって生じた特定の感情のみを示す偏った情報ではなく、多種多様の事象によって生じた、各対象者の多種多様な感情を示すものとなる。
関連構築部4は、準備生体情報取得部2による解析後の第1生体情報と、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。ここで、第1生体情報に対応する感情情報とは、準備生体情報取得部2が各対象者から当該第1生体情報を1以上の準備用センサによって取得した時点と同時点において、準備感情情報取得部3が当該各対象者から取得した感情情報を用いて得られた、上記快適度合い、高揚度合い、または鎮静度合い等の、感情を示す情報である。なお、或る時点と同時点とは、当該或る時点を起点に、前後予め定められた時間以内における時点を指すものとする。当該予め定められた時間とは、実験などによって予め得られた、人の感情の状態と身体の状態とが変化しない時間を指す。
第1生体情報に対応する感情情報は、当該第1生体情報と同時点に取得された感情情報でもよいし、回帰分析によって得られるものでもよいし、第1生体情報毎に、感情情報の値を平均して得られるものでもよい。以下、第1生体情報を、体表温度の時間的な変化量とした場合を例に挙げて説明する。例えば0.5[℃]を示す第1生体情報が、複数の対象者から取得された場合において、当該0.5[℃]が取得された時点と同時点において、当該複数の対象者から取得した感情情報の値、または、当該感情情報の値の平均値が、「当該0.5[℃]を示す第1生体情報に対応する感情情報」の例となる。また、複数の対象者から得られた第1生体情報と感情情報の各値を用いた回帰分析により、第1生体情報の値と感情情報の値との関係を数式化した場合において、当該0.5[℃]を当該数式に代入した場合に得られる感情情報の値が、「当該0.5[℃]を示す第1生体情報に対応する感情情報」の例となる。
第1生体情報に対応する感情情報は、複数の対象者の身体状態を示す第1生体情報に対して、当該第1生体情報が取得された時点と同時点における複数の対象者の感情を一般化したものとなる。例えば、複数の対象者から上記0.5[℃]を示す第1生体情報が取得された全ての時点において、当該複数の対象者から高い快適度合いを示す数値の感情情報が得られた場合には、「当該0.5[℃]を示す第1生体情報に対応する感情情報」は、高い快適度合いを示す数値となる。当該高い快適度合いは、当該0.5[℃]を示す第1生体情報が取得された時点における複数の対象者の感情を一般的に示すものと考えられる。
関連情報は、第1生体情報と、当該第1生体情報に対応する感情情報とを関連付ける、例えば上記回帰分析による数式でもよい。あるいは、関連情報は、第1生体情報の値と、当該第1生体情報に対応する感情情報の値とを、例えば表形式で示す情報であってもよい。なお、関連情報は、第1生体情報と、当該第1生体情報に対応する感情情報とを関連付ける情報であれば、上述のものに限定されない。
推定生体情報取得部5は、1以上のセンサを含む。以下では、当該センサを推定用センサと記載する場合もある。1以上の推定用センサは、上述の1以上の準備用センサと同じものであってもよい。推定生体情報取得部5は、当該1以上の推定用センサによって、推定空間内に存在する、上述の複数の対象者のうちのいずれかの対象者から第2生体情報を取得する。なお、上述のように、推定空間とは、感情推定装置100が、当該複数の対象者の各々の感情を推定するための空間を指す。推定空間は、上記準備空間と同じ空間であってもよいし、異なる空間であってもよい。第2生体情報は、人体の状態の指標となる情報である。第2生体情報は、数値によって示され、人体の状態に応じて様々な値となる。第2生体情報は、例えば、体表温度、心拍、脈波、皮膚電気反応、体表温度の時間的な変化量、体における複数の部位の各々の表面温度の差、および、心拍の周波数解析によって得られる指標値等の少なくとも1つを示す情報である。実施の形態1における推定生体情報取得部5は、例えば、体表温度、心拍、脈波、および皮膚電気反応等の少なくともいずれか1つを示す第2生体情報を、当該1以上の推定用センサによって取得する。
推定生体情報取得部5は、人体における1つの部分から、任意の1種類の検知方法によって、生体情報を取得してもよい。あるいは、推定生体情報取得部5は、人体における1つの部分から、任意の2種類以上の検知方法の各々によって、1種類の生体情報、または、2種類以上の生体情報の各々を取得してもよい。または、推定生体情報取得部5は、人体における複数の部分から、任意の2種類以上の検知方法の各々によって、1種類の生体情報、または、2種類以上の生体情報の各々を取得してもよい。
実施の形態1における推定生体情報取得部5は、当該1以上の推定用センサによって取得した第2生体情報を解析する。具体的には、推定生体情報取得部5は、当該1以上の推定用センサによって取得した第2生体情報を用いて、体表温度の時間的な変化量、体における複数の部位の各々の表面温度の差、および、心拍の周波数解析によって得られる指標値等の少なくとも1つを示す第2生体情報を生成する。なお、推定生体情報取得部5が生成する第2生体情報は、関連情報が含む第1生体情報と同じ種類の情報である。関連情報が含む第1生体情報が、例えば、体表温度の時間的な変化量である場合には、推定生体情報取得部5が生成する第2生体情報は、体表温度の時間的な変化量となる。
推定部6は、関連情報を用いて、推定生体情報取得部5が解析した第2生体情報と等しい第1生体情報と関連付けられた感情情報を抽出する。ここで、関連情報が、第1生体情報の値と、当該第1生体情報に対応する感情情報の値とを、例えば表形式などで示す情報である場合には、第2生体情報と等しい第1生体情報とは、当該第2生体情報との差の大きさが最小のものを指すものとする。推定部6は、抽出した感情情報が示す感情を、当該第2生体情報の取得元の上記対象者の感情と推定する。
出力部7は、外部の機器と通信する。当該外部の機器としては、例えば、パーソナルコンピュータ、ワークステーション、タブレット端末、またはスマートフォン等の端末が挙げられる。他にも、当該外部の機器として、例えば、液晶ディスプレイ、CRT(Cathode Ray Tube)、または有機EL(Electro Luminescence)ディスプレイ等の表示装置が挙げられる。また更に、当該外部の機器として、例えば、空気調和機または空気清浄機等の、推定空間の環境を調整する環境調整装置が挙げられる。この他、当該外部の機器として、スピーカなどを含む音声出力装置が挙げられる。
推定部6は、当該外部の機器が端末である場合には、当該端末に、抽出した感情情報を送信するよう出力部7を制御する。推定部6は、当該外部の機器が表示装置である場合には、当該感情情報、および、当該感情情報の表示を指示する表示指示情報を、当該表示装置に送信するよう出力部7を制御する。推定部6は、当該外部の機器が環境調整装置である場合には、当該感情情報に応じた動作を当該環境調整装置に実行させるための指示と共に、当該感情情報を、当該環境調整装置に送信するよう出力部7を制御する。なお、感情情報に応じた環境調整装置の動作とは、推定空間における対象者の感情の状態を向上させる動作を指す。推定部6は、当該外部の機器が音声出力装置である場合には、当該感情情報、および、当該感情情報を音声によって出力する指示を、当該音声出力装置に送信するよう出力部7を制御する。
以下、実施の形態1に係る感情推定装置100のハードウェア構成について説明する。図2は、実施の形態1に係る感情推定装置のハードウェア構成を例示する模式図である。感情推定装置100は、例えば、プロセッサ11と、メモリ12と、記憶装置13と、第1入力インターフェース回路14と、センサ15と、第2入力インターフェース回路16と、入力装置17と、出力インターフェース回路18等とによって構成可能である。なお、プロセッサ11と、メモリ12と、記憶装置13と、第1入力インターフェース回路14と、第2入力インターフェース回路16と、出力インターフェース回路18とは、バス19によって接続されている。
プロセッサ11としては、例えば、CPU(Central Processing Unit)またはMPU(Micro Processing Unit)などが挙げられる。メモリ12としては、例えば、ROM(Read Only Memory)またはRAM(Random Access Memory)などが挙げられる。記憶装置13としては、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などが挙げられる。センサ15としては、例えば、赤外線センサまたはウェアラブルセンサなどが挙げられる。入力装置17としては、例えば、キーボードまたはタッチパネルなどがあげられる。第1入力インターフェース回路14は、プロセッサ11とセンサ15とを仲立ちする入力インターフェース回路である。第2入力インターフェース回路16は、プロセッサ11と入力装置17とを仲立ちする入力インターフェース回路である。
記憶部1の機能は、記憶装置13によって実現できる。関連構築部4および推定部6の各機能は、メモリ12または記憶装置13に記憶されている、例えば、感情を推定するための感情推定プログラムなどの各種プログラムを、プロセッサ11が読み出して実行することにより実現できる。準備生体情報取得部2による第1生体情報の取得機能と、推定生体情報取得部5による第2生体情報の取得機能は、第1入力インターフェース回路14およびセンサ15によって実現できる。準備生体情報取得部2による第1生体情報の解析機能と、推定生体情報取得部5による第2生体情報の解析機能は、メモリ12または記憶装置13に記憶されている上記感情推定プログラムなどの各種プログラムを、プロセッサ11が読み出して実行することにより実現できる。準備感情情報取得部3が複数の時点の各々において感情情報を取得する機能は、プロセッサ11、第2入力インターフェース回路16、および入力装置17によって実現できる。なお、複数の時点の各々において複数の対象者の各々から準備感情情報取得部3が取得した感情情報を、関連構築部4が関連情報を生成するまでの間、当該関連構築部4または準備感情情報取得部3が保持する機能は、メモリ12または記憶装置13によって実現できる。当該複数の時点の各々において複数の対象者の各々から準備生体情報取得部2が取得して解析した第1生体情報を、関連構築部4が関連情報を生成するまでの間、当該関連構築部4または準備生体情報取得部2が保持する機能は、メモリ12または記憶装置13によって実現できる。
出力部7の機能は、出力インターフェース回路18によって実現できる。なお、出力インターフェース回路18は、上記外部の機器が、端末である場合には、通信インターフェース回路である。一方、出力インターフェース回路18は、当該外部の機器が、表示装置、音声出力装置、および環境調整装置のいずれかの装置である場合には、当該いずれかの装置とプロセッサ11とを仲立ちする出力インターフェース回路である。
感情推定装置100は、第1入力インターフェース回路14およびセンサ15を、それぞれ複数含んでもよい。これにより、感情推定装置100は、準備空間および推定空間の各々において、複数の対象者の各々が別個の位置にいる場合において、当該複数の対象者の各々から同時に、第1生体情報と第2生体情報の各々を取得できる。感情推定装置100は、第2入力インターフェース回路16および入力装置17を、それぞれ複数含んでもよい。これにより、感情推定装置100は、準備空間において複数の対象者の各々が、別個の位置にいる場合において、当該複数の対象者の各々から同時に感情情報を取得できる。感情推定装置100の全部または一部の機能は、専用のハードウェアによって実現されてもよい。
次に、実施の形態1に係る感情推定装置100による感情推定処理について、図3を参照して説明する。図3は、実施の形態1に係る感情推定装置による感情推定処理を例示するフローチャートである。ステップS1において準備感情情報取得部3は、現時点が、感情情報の取得のタイミングであるか否かを判定する。以下では、当該タイミングを取得用タイミングと記載する。現時点が取得用タイミングでない場合には(ステップS1:NO)、準備感情情報取得部3は、感情推定処理をステップS1に戻す。
現時点が取得用タイミングである場合には(ステップS1:YES)、ステップS2において準備感情情報取得部3は、複数の対象者の各々から感情情報を取得する。ステップS3において準備生体情報取得部2は、感情情報の取得時点と同時点において各対象者から取得した第1生体情報を解析する。なお、準備生体情報取得部2は、感情情報の取得時点と同時点において各対象者から第1生体情報を取得するものでもよいし、各対象者から連続的に第1生体情報を取得するものでもよい。準備生体情報取得部2は、各対象者から連続的に第1生体情報を取得するものである場合には、連続的に取得した第1生体情報を解析するものでもよい。
ステップS4において準備感情情報取得部3は、上記期間が終了したか否かを判定する。当該期間が終了していない場合には(ステップS4:NO)、準備感情情報取得部3は、感情推定処理をステップS1に戻す。上記期間が終了した場合には(ステップS4:YES)、ステップS5において関連構築部4は、当該期間に亘って取得された感情情報と第1生体情報とを用いて、第1生体情報と、当該第1生体情報に対応する感情情報とを関連付けた関連情報を構築する。ステップS6において関連構築部4は、構築した関連情報を記憶部1に記憶する。
ステップS7において推定生体情報取得部5は、複数の対象者のうちの上記いずれかの対象者の第2生体情報を取得する。ステップS8において推定生体情報取得部5は、取得した当該第2生体情報を解析する。ステップS9において推定部6は、関連情報を参照し、解析後の当該第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。推定部6は、抽出した感情情報が示す感情を、当該対象者の感情と推定する。ステップS10において推定部6は、抽出した感情情報を、外部の機器に出力するよう出力部7に指示を行う。出力部7は、推定部6からの指示に従い、当該感情情報を外部の機器に出力する。ステップS10の処理後、感情推定処理は終了する。なお、再度、感情推定処理が実行される場合には、感情推定装置100は、ステップS7の処理から実行する。
以下、実施の形態1に係る感情推定装置100による効果について説明する。実施の形態1に係る感情推定装置100は、準備生体情報取得部2、準備感情情報取得部3、関連構築部4、推定生体情報取得部5、および推定部6を備える。準備生体情報取得部2は、準備空間内に存在する複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する。準備感情情報取得部3は、準備空間内に存在する複数の対象者の各々の感情を示す感情情報を取得する。関連構築部4は、第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部5は、推定空間内に存在する、当該複数の対象者のうちのいずれかの対象者の身体の状態を示す第2生体情報を取得して解析する。推定部6は、関連構築部4が構築した関連情報において第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。そして、推定部6は、抽出した当該感情情報によって当該推定空間内に存在する当該いずれかの対象者の感情を推定する。これにより、感情の推定精度が向上する。
実施の形態1における関連構築部4は、準備感情情報取得部3が複数の対象者の各々から取得した感情情報と、当該感情情報が取得された時点と同時点において準備生体情報取得部2が複数の対象者の各々から取得した第1生体情報と、を用いて前記関連情報を構築する。なお、感情情報が取得された時点と同時点とは、準備感情情報取得部3が複数の対象者の各々から当該感情情報を取得した時点を起点として前後予め定められた時間以内の時点を指す。これにより、感情情報と、当該感情情報の取得時点の直近において取得された第1生体情報とが関連情報において反映され、関連情報の精度が向上する。従って、感情推定装置100による当該関連情報を用いての、感情の推定精度が向上する。
実施の形態1における準備感情情報取得部3は、準備空間内に存在する複数の対象者の各々から、予め定められた期間内の複数の時点の各々において、当該複数の時点の各々における複数の対象者の各々の感情を示す感情情報を取得する。関連構築部4は、当該複数の時点の各々において準備生体情報取得部2が当該複数の対象者の各々から取得した第1生体情報と、当該複数の時点の各々において準備感情情報取得部3が当該複数の対象者の各々から取得した感情情報と、を用いて関連情報を構築する。これにより、準備感情情報取得部3が取得する感情情報の想起バイアスが低減する。また、関連情報における、第1生体情報と、当該第1生体情報に対応する感情情報との相関は、気候変動、体調変化、または心情の変化等の特定の事象に依存しないものとなる。従って、関連情報は、当該事象による影響が低減され、精度が向上する。よって、推定部6による感情の推定精度が向上する。
実施の形態1における上記期間は、5日以上の期間である。前記準備感情情報取得部3は、各日にちにおける、予め定められた1以上の時刻、または、ランダムな1以上の時刻において、複数の対象者の各々から感情情報を取得する。これにより、関連情報は、平日の5日間における各日にち、一週間における各日にち、または各季節等における、天候、体調、または心情等に依らないものとなる。従って、関連情報は、種々の事象による影響が低減されたものとなり、精度が向上する。よって、推定部6による感情の推定精度が向上する。
実施の形態1に係る感情推定装置100は、外部の機器と通信する出力部7を更に備える。推定部6は、抽出した感情情報を、当該外部の機器に送信するよう出力部7を制御する。これにより、外部の機器が端末、表示装置、または音声出力装置である場合には、当該端末、表示装置、または音声出力装置のユーザは、対象者の感情について知ることができる。また、外部の機器が上記環境調整装置である場合には、当該環境調整装置は、対象者の感情に応じた動作を行うことにより、例えば、対象者の快適度合いを向上させたり、快適度と相関する対象者の知的生産性を向上させたりすることができる。
実施の形態2.
実施の形態2に係る感情推定装置100は、対象者毎の、第1生体情報と、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。そして、当該感情推定装置100は、当該関連情報を用いることにより、各対象者の感情を更に精度良く推定するものである。以下、実施の形態2について説明する。なお、実施の形態2における構成要素において、上記実施の形態1における構成要素と同様のものには、上記実施の形態1における符号と同様の符号を付す。また、実施の形態2の内容において、上記実施の形態1の内容と同様のものについては、特段の事情が無い限り説明を省略する。
実施の形態2に係る感情推定装置100に含まれる機能ブロックは、図1に例示される、実施の形態1に係る感情推定装置100における機能ブロックと同様である。
実施の形態2における準備生体情報取得部2は、複数の対象者のそれぞれに割り当てられた例えばウェアラブルセンサなどのセンサを含む。各対象者に割り当てられたセンサには、当該センサを識別するためのセンサ識別情報が割り当てられている。あるいは、実施の形態2における準備生体情報取得部2は、カメラを含み、複数の対象者の各々の顔を認識するセンサを含む。これらにより、準備生体情報取得部2は各対象者を識別する。なお、準備生体情報取得部2は、各対象者を識別できれば、上述のものに限定されない。
実施の形態2における準備感情情報取得部3は、複数の対象者のそれぞれに割り当てられた例えば端末を含む。当該端末には、当該端末を識別するためのID(Identifier)が割り当てられている。あるいは、実施の形態2における準備感情情報取得部3は、各対象者から感情情報と共に、当該各対象者を識別する識別情報を取得する。各対象者の端末のID、または、当該各対象者の識別情報等と、当該各対象者に割り当てられたセンサのセンサ識別情報、または、当該各対象者の顔のデータ等とは、感情推定装置100において関係付けられているものとする。以下では、各対象者の端末のID、各対象者の上記識別情報、各対象者に割り当てられたセンサのセンサ識別情報、および、各対象者の顔のデータ等の、各対象者を識別する情報をまとめて識別情報と記載する。
実施の形態2における関連構築部4は、対象者の識別情報毎に、当該対象者の身体を示す第1生体情報と、当該対象者の感情を示し、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を生成する。すなわち、関連構築部4は、各対象者の識別情報と、当該各対象者の身体の状態を示す第1生体情報と、当該各対象者の身体の状態を示す当該第1生体情報に対応する感情情報と、を関連付けた関連情報を生成する。
ここで、当該各対象者の身体の状態を示す第1生体情報に対応する感情情報は、各対象者から当該第1生体情報と同時点において取得された感情情報でもよい。あるいは、各対象者から当該第1生体情報と同時点において取得された感情情報を用いて、上記回帰分析もしくは上記平均算出処理により得られた情報でもよい。以下、第1生体情報を、体表温度の時間的な変化量とした場合を例に挙げて説明する。或る対象者から、0.5[℃]を示す第1生体情報が取得された時点と同時点において取得された感情情報が、高い快適度合いを示したとする。この場合には、当該高い快適度合いを示す数値、または、当該数値を平均したものが、「当該或るタイプの対象者の、0.5[℃]である、体表温度の時間的な変化量と対応する感情情報」、すなわち「当該或る対象者の身体の状態を示す第1生体情報と対応する感情情報」の例となる。また、或る対象者から得られた第1生体情報と感情情報の各値を用いて、回帰分析などにより第1生体情報と感情情報との関係が数式化された場合には、当該数式に当該0.5[℃]と代入して得られる感情情報の値が、「当該或る対象者の身体の状態を示す第1生体情報と対応する感情情報」の例となる。
当該各対象者の身体の状態を示す第1生体情報に対応する感情情報は、当該各対象者の感情を一般化して示すものである。例えば、上記0.5[℃]を示す第1生体情報が取得された全ての時点において、上記或る対象者から、高い快適度合いを示す数値の感情情報が得られた場合には、当該或る対象者の身体の状態を示す第1生体情報、すなわち、0.5[℃]の体表温度の時間的変化量、に対応する感情情報は、当該或る対象者の高い快適度合いを示すものとなる。当該高い快適度合いは、当該0.5[℃]を示す第1生体情報が取得された時点における当該或る対象者の感情を一般的に示すものと考えられる。
推定部6は、各対象者の識別情報、および、推定生体情報取得部5が取得した当該各対象者の身体状態を示す第2生体情報と等しい第1生体情報と、関連情報において関連付けられた感情情報を抽出する。そして、推定部6は、抽出した当該感情情報が示す感情を、当該各対象者の感情と推定する。
図4は、実施の形態2に係る感情推定処理を例示するフローチャートである。ステップS21における処理は、上記ステップS1における処理と同様であるため、説明を省略する。なお、ステップS21において現時点が取得用タイミングでない場合には(ステップS21:NO)、準備感情情報取得部3は、感情推定処理をステップS21に戻す。ステップS21において、現時点が取得用タイミングである場合には(ステップS21:YES)、ステップS22において準備感情情報取得部3は、複数の対象者から、識別情報および感情情報を取得する。ステップS23において準備生体情報取得部2は、各対象者から感情情報を取得した時点と同時点において当該各対象者から取得した第1生体情報を解析する。なお、準備生体情報取得部2は、各対象者から、第1生体情報と共に、当該各対象者を識別するための上記センサ識別情報または上記顔データ等の上記識別情報を取得している。準備生体情報取得部2は、感情情報の取得時点と同時点において各対象者から第1生体情報を取得するものでもよいし、各対象者から連続的に第1生体情報を取得するものでもよい。準備生体情報取得部2は、各対象者から連続的に第1生体情報を取得するものである場合には、連続的に取得した第1生体情報を解析するものでもよい。
ステップS24において準備感情情報取得部3は、上記期間が終了したか否かを判定する。当該期間が終了していない場合には(ステップS24:NO)、準備感情情報取得部3は、感情推定処理をステップS21に戻す。上記期間が終了した場合には(ステップS24:YES)、ステップS25において関連構築部4は、各対象者の識別情報と、当該各対象者の身体の状態を示す第1生体情報と、当該各対象者の感情を示し、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。ステップS26における処理は、上記ステップS6における処理と同様であるため、説明を省略する。
ステップS27において推定生体情報取得部5は、複数の対象者のうちの上記いずれかの対象者から第2生体情報を取得する。この際において推定生体情報取得部5は、当該第2生体情報と共に、当該いずれかの対象者を識別するための上記センサ識別情報または上記顔データ等の上記識別情報を取得する。ステップS28の処理は、ステップS8の処理と同様であるため、説明を省略する。ステップS29において推定部6は、関連情報を参照し、当該いずれかの対象者の識別情報と、解析後の当該第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。推定部6は、抽出した感情情報が示す感情を、当該対象者の感情と推定する。ステップS30における処理は、ステップS10における処理と同様であるため、説明を省略する。ステップS30の処理後、感情推定処理は終了する。なお、再度、感情推定処理が実行される場合には、感情推定装置100は、ステップS27の処理から実行する。
以下、実施の形態2に係る感情推定装置100による効果について記載する。実施の形態2における準備生体情報取得部2および準備感情情報取得部3は、前記複数の対象者の各々を識別するための識別情報を取得する。関連構築部4は、各対象者の識別情報と、各対象者の身体の状態を示す第1生体情報と、各対象者の感情を示し、各対象者の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。推定部6は、関連情報において、上記いずれかの対象者の識別情報、および、当該いずれかの対象者の身体の状態を示す第2生体情報と等しい第1生体情報に、関連付けられた感情情報を抽出し、抽出した当該感情情報によって当該いずれかの対象者の感情を推定する。これにより、関連情報は、対象者毎に、身体の状態と、感情との相関を示すものとなる。従って、推定部6は、当該関連情報を用いることにより、対象者毎に感情を推定することができる。よって、感情推定装置100は、対象者毎に暑がりまたは寒がりなどの特性の違いがあっても、対象者に応じて高精度に感情を推定することができる。
実施の形態3.
実施の形態3に係る感情推定装置100は、推定用情報の構築において、評価グリッド法に基づいて感情情報を取得し、クラスター分析を行って対象者を分類するものである。以下、実施の形態3について説明する。なお、実施の形態3における構成要素において、実施の形態1および実施の形態2における構成要素と同様のものには、実施の形態1および実施の形態2における符号と同様の符号を付す。また、実施の形態3の内容において、実施の形態1および実施の形態2の内容と同様のものについては、特段の事情が無い限り説明を省略する。
実施の形態3に係る感情推定装置100に含まれる機能ブロックは、図1に例示される、実施の形態1および実施の形態2に係る感情推定装置100における機能ブロックと同様である。
実施の形態3における準備感情情報取得部3は、評価グリッド法に基づいて、複数の対象者の各々から感情情報を取得する。この場合において準備感情情報取得部3は、評点法に基づいて、感情情報として、快適度合いの指標となる快適度を取得する。また、準備感情情報取得部3は、自由記述法に基づいて、当該快適度の要因を示す要因情報を、快適度と共に取得する。
関連構築部4は、準備感情情報取得部3が取得した、快適度および要因情報を用いて、クラスター分析を行う。具体的には、関連構築部4は、各対象者からの要因情報を用いて、各対象者を複数のタイプのいずれかに分類する。例えば、関連構築部4は、快適度の主要因が温熱要因となる対象者を、「温熱タイプ」などと分類する。また、関連構築部4は、快適度の主要因が、心身の状態など内的要因となる対象者を、「内的タイプ」などと分類する。更に、関連構築部4は、様々な要因が快適度に影響する対象者を、「バランスタイプ」などと分類する。ここで、各対象者の快適度がどのような要因によって影響を受けるかは、当該各対象者から取得した要因情報によって定まる。例えば、或る対象者からの要因情報のうち、予め定められた割合以上の要因情報が気温に関する内容であれば、関連構築部4は、当該或る対象者を上記「温熱タイプ」などと分類する。なお、当該予め定められた割合は、実施の形態3では、7割または8割であるとするが、5割または6割などであってもよい。タイプの数、および、タイプの名称等は、上述したものに限られず、適宜設定することができる。
関連構築部4は、各対象者からの要因情報によって、各対象者を上述のようにタイプ分けすると共に、各対象者からの快適度によって、各対象者が何に対してどの程度の快不快を感じるかを分析してもよい。例えば、或る対象者からの要因情報が寒さを示し、当該或る対象者から当該要因情報と共に取得された快適度が低い場合には、関連構築部4は、当該或る対象者を「寒がりタイプ」と分析してもよい。そして、関連構築部4は、当該或る対象者を「温熱タイプ」で「寒がりタイプ」と分類するなど、要因情報のみを用いる場合に比べて、更に詳細な分類を行ってもよい。また、関連構築部4は、各対象者からの要因情報のみならず、各対象者からの生体情報を用いて、各対象者をタイプ分けしてもよい。例えば、或る対象者からの生体情報が低体温を示し、当該或る対象者から当該生体情報と同時点において取得された要因情報が「寒さ」を示す場合には、関連構築部4は、当該或る対象者を「冷え性タイプ」と分析してもよい。
実施の形態3における関連構築部4は、タイプを示すタイプ情報と、当該タイプの1以上の対象者の身体の状態を示す第1生体情報と、当該1以上の対象者の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。なお、当該タイプの1以上の対象者の身体の状態を示す第1生体情報に対応する感情情報は、当該1以上の対象者から当該第1生体情報と同時点において取得された感情情報でもよい。あるいは、当該1以上の対象者から当該第1生体情報と同時点において取得された感情情報を用いて、上記回帰分析もしくは上記平均算出処理により得られた情報でもよい。当該タイプの1以上の対象者の身体の状態を示す第1生体情報に対応する感情情報は、当該タイプの1以上の対象者の感情を一般化して示すものである。
以下、第1生体情報を、体表温度の時間的な変化量とした場合を例に挙げて説明する。或るタイプに分類された対象者が5人であった場合において、当該5人の対象者から、0.5[℃]を示す第1生体情報が取得された時点と同時点において取得された感情情報が、高い快適度合いを示したとする。この場合において当該高い快適度合いを示す数値、または、当該数値を平均したものが、「当該或るタイプの5人の対象者の、0.5[℃]である、体表温度の時間的変化量と対応する感情情報」、すなわち「当該或るタイプの5人の対象者の身体の状態を示す生体情報に対応する感情情報」の例となる。また、当該5人の対象者から得られた第1生体情報と感情情報の各値を用いて、回帰分析などにより第1生体情報と感情情報との関係が数式化された場合には、当該数式に当該0.5[℃]と代入して得られる感情情報の値が、「当該或るタイプの5人の対象者の身体の状態を示す生体情報に対応する感情情報」の例となる。当該高い快適度合いは、当該0.5[℃]を示す第1生体情報が取得された時点における当該或るタイプの当該5人の対象者の感情を一般的に示すものと考えられる。
実施の形態3における関連構築部4は、各対象者の識別情報と、当該各対象者のタイプを示すタイプ情報と、当該各対象者の身体の状態を示す第1生体情報と、当該各対象者の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築してもよい。
推定部6は、関連情報において、タイプ情報と、第1生体情報と、当該第1生体情報に対応する感情情報とが関連付けられている場合には、推定生体情報取得部5が取得した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。なお、実施の形態3では、第1生体情報の値によって、タイプ情報が一意的に決まるものとする。推定部6は、当該第2生体情報と等しい第1生体情報と関連付けられたタイプ情報を抽出し、当該第2生体情報の取得元の対象者のタイプを推定してもよい。
推定部6は、関連情報において、識別情報と、タイプ情報と、第1生体情報と、当該第1生体情報に対応する感情情報とが関連付けられている場合には、推定生体情報取得部5が取得した識別情報、および、推定生体情報取得部5が取得した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出する。推定部6は、当該識別情報、および、当該第2生体情報と等しい第1生体情報に関連付けられたタイプ情報を抽出し、当該第2生体情報の取得元の対象者のタイプを推定してもよい。
推定部6は、タイプ情報を抽出した場合には、抽出した当該タイプ情報を外部の機器に出力するよう出力部7に指示する。出力部7は、当該タイプ情報を外部の機器に出力する。当該外部の機器が、上述の表示装置である場合には、出力部7から取得したタイプ情報を表示する。当該外部の機器が、上述の音声出力装置である場合には、出力部7から取得したタイプ情報を音声出力する。当該外部の機器が、上述の端末である場合には、出力部7から取得したタイプ情報を表示または音声出力する。これにより、対象者は、当該対象者のタイプを知ることができる。なお、対象者は、感情推定装置100と接続された当該端末を用いて記憶部1を参照することによって、当該対象者のタイプを知ることもできる。
対象者が自己のタイプを知る場合には、当該対象者は、第2生体情報の取得の際において、不図示の、キーボードまたはタッチパネル等の入力装置に、当該タイプを示すタイプ情報を入力してもよい。そして、推定部6は、当該対象者の識別情報および当該タイプ情報、または、当該タイプ情報と関連付けられた感情情報を抽出し、当該対象者の感情を推定してもよい。
図5は、実施の形態3に係る感情推定処理を例示するフローチャートである。ここでは、準備生体情報取得部2および準備感情情報取得部3は、各対象者を識別する識別情報を取得する場合を例に挙げて説明する。ステップS41〜ステップS44における各処理は、上記ステップS21〜およびステップS24における各処理と同様であるため、説明を省略する。
ステップS44において上記期間が終了した場合には(ステップS44:YES)、ステップS45において関連構築部4は、クラスター分析を行い、各対象者を複数のタイプのいずれかに分類する。ステップS46において関連構築部4は、タイプ情報と、当該タイプ情報が示すタイプの1以上の対象者の身体の状態を示す第1生体情報と、当該1以上の対象者の感情を示し、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。あるいは、ステップS46において関連構築部4は、各対象者の識別情報と、当該各対象者のタイプを示すタイプ情報と、当該各対象者の身体の状態を示す第1生体情報と、当該各対象者の感情を示し、当該第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。ステップS47における処理は、ステップS6における処理と同様であるため、説明を省略する。ステップS48における処理は、ステップS7またはステップS27における処理と同様であるため、説明を省略する。ステップS49における処理は、ステップS8における処理と同様であるため、説明を省略する。
ステップS50において推定部6は、ステップS49において解析された第2生体情報と等しい第1生体情報と関連付けられた感情情報とタイプ情報とを抽出する。あるいは、推定部6は、当該第2生体情報の取得元の上記いずれかの対象者を識別する識別情報と、当該第2生体情報に等しい第1生体情報と、に関連付けられた感情情報とタイプ情報とを抽出する。ステップS51において推定部6は、抽出した感情情報およびタイプ情報を、外部の機器に出力するよう出力部7に指示を行う。ステップS51の処理後、感情推定処理は終了する。なお、再度、感情推定処理が実行される場合には、感情推定装置100は、ステップS48の処理から実行する。
以下、実施の形態3に係る感情推定装置200による効果について説明する。実施の形態3における準備感情情報取得部3は、評価グリッド法に基づいて、複数の対象者の各々から、感情情報として、当該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、当該複数の対象者の各々の当該快適度の要因を示す要因情報を取得する。準備感情情報取得部3は、快適度を評点法に基づいて取得し、要因情報を自由記述法に基づいて取得する。関連構築部4は、複数の対象者の各々からの要因情報を用いてクラスター分析を行い、当該複数の対象者の各々を、複数のタイプのうちのいずれかのタイプに分類する。関連構築部4は、タイプを示すタイプ情報と、当該タイプに分類された複数の対象者のうちの1以上の対象者の身体の状態を示す第1生体情報と、当該1以上の対象者の感情を示し、該1以上の対象者の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。推定部6は、関連情報において、上記いずれかの対象者の身体の状態を示す第2生体情報と等しい第1生体情報に関連付けられた感情情報およびタイプ情報を抽出する。推定部6は、抽出した当該感情情報によって当該いずれかの対象者の感情を推定し、且つ、抽出した当該タイプ情報によって当該いずれかの対象者のタイプを推定する。これにより、関連情報は、「温熱タイプ」または「内的タイプ」等のタイプに特有の、第1生体情報と感情情報との相関を示すものとなる。従って、推定部6は、対象者のタイプに応じて、第2生体情報を用いて、対象者の感情を高精度に推定できる。
実施の形態3における準備感情情報取得部3は、評価グリッド法に基づいて、複数の対象者の各々から、感情情報として、当該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、当該複数の対象者の各々の当該快適度の要因を示す要因情報を取得する。準備感情情報取得部3は、快適度を評点法に基づいて取得し、要因情報を自由記述法に基づいて取得する。準備生体情報取得部2および準備感情情報取得部3は、複数の対象者の各々を識別するための識別情報を取得する。関連構築部4は、複数の対象者の各々からの要因情報を用いてクラスター分析を行い、当該複数の対象者の各々を、複数のタイプのうちのいずれかのタイプに分類する。関連構築部4は、複数の対象者の各々の識別情報と、複数の対象者の各々のタイプを示すタイプ情報と、複数の対象者の各々の身体の状態を示す第1生体情報と、複数の対象者の各々の感情を示し、複数の対象者の各々の身体の状態を示す第1生体情報に対応する感情情報と、を関連付けた関連情報を構築する。推定部6は、関連情報において、上記いずれかの対象者の識別情報、および、第2生体情報と等しい第1生体情報に、関連付けられた感情情報およびタイプ情報を抽出する。推定部6は、抽出した当該感情情報によって当該いずれかの対象者の感情を推定し、且つ、抽出した当該タイプ情報によって当該いずれかの対象者のタイプを推定する。これにより、関連情報は、対象者毎に、身体の状態と、感情との相関を示すものとなる。従って、推定部6は、当該関連情報を用いることにより、対象者毎に感情を推定することができる。よって、感情推定装置100は、対象者毎にタイプに応じて高精度に感情を推定することができる。
実施の形態3における関連構築部4は、各対象者からの要因情報と共に、各対象者からの第1生体情報、および、各対象者からの快適度のうちの少なくとも一方を用いてクラスター分析を行い、各対象者を、複数のタイプのうちのいずれかのタイプに分類する。これにより、関連構築部4は、各対象者を詳細にタイプ分類することができる。従って、関連情報の精度が更に向上する。よって、感情推定装置100による感情の推定精度が向上する。
実施の形態3に係る感情推定装置100は、外部の機器と通信する出力部7を更に備える。推定部6は、抽出した感情情報およびタイプ情報を、外部の機器に送信するよう出力部7を制御する。これにより、端末、表示装置、または音声出力装置等の、外部の機器のユーザは、当該いずれかの対象者の感情とタイプとを知ることができる。なお、当該ユーザが、当該いずれかの対象者である場合には、当該いずれかの対象者は、自己のタイプを知ることができる。
実施の形態4.
実施の形態4に係る感情推定装置100は、対象者の感情を、更に高い精度で推定するものである。以下、実施の形態4について説明する、なお、実施の形態4における構成要素において、実施の形態1〜実施の形態3における構成要素と同様のものには、実施の形態1〜実施の形態3における符号と同様の符号を付す。また、実施の形態4の内容において、実施の形態1〜実施の形態3の内容と同様のものについては、特段の事情が無い限り説明を省略する。
実施の形態4に係る感情推定装置100に含まれる機能ブロックは、図1に例示される、実施の形態1〜実施の形態3に係る感情推定装置100における機能ブロックと同様である。なお、実施の形態4における準備感情情報取得部3は、上記実施の形態1と同様に感情情報を取得する。
人の身体状態を示す生体情報のうち、安静時における顔温度との差分、頬と額の温度差、心電指標の値、または、皮膚電気反応を示す値が、当該人の感情と強く相関する。実施の形態4における準備生体情報取得部2は、複数の対象者の各々の、顔温度、心電データ、および皮膚電気反応データ等のうちの、少なくとも1つを含む第1生体情報を取得する。準備生体情報取得部2は、例えば赤外線センサによって、顔温度を検知する。また、準備生体情報取得部2は、例えばウェアラブルセンサによって、心電データまたは皮膚電気反応データを取得する。
準備生体情報取得部2は、取得した第1生体情報に基づいて、当該複数の対象者の各々の、安静時における顔温度との差分、頬と額の温度差、心電指標の値、および皮膚電気反応を示す値等のうちの少なくとも1つを含む第1生体情報を演算する。なお、準備生体情報取得部2は、安静時における顔温度との差分を演算する場合には、安静時における顔温度を予め取得しているものとする。
推定生体情報取得部5は、複数の対象者のうちの上記いずれかの対象者の、顔温度、心電データ、および皮膚電気反応データ等のうちの少なくとも1つを含む第2生体情報を取得する。推定生体情報取得部5は、例えば赤外線センサによって、顔温度を検知する。また、推定生体情報取得部5は、例えばウェアラブルセンサによって、心電データまたは皮膚電気反応データを取得する。
推定生体情報取得部5は、取得した第2生体情報に基づいて、当該いずれかの対象者の、安静時における顔温度との差分、頬と額の温度差、心電指標の値、および皮膚電気反応を示す値等のうちの少なくとも1つを含む第2生体情報を演算する。
上記心電指標としては、高周波数帯域、低周波数帯域、超低周波数帯域、または心拍間隔の標準偏差等が、感情と強く相関するため、好ましい。また、皮膚電気反応を示す値としては、発汗量、反応振幅、出現頻度、反応時間、または回復時間等が、感情と強く相関するため、好ましい。
実施の形態4における感情推定装置100による感情推定処理は、図3〜図5を参照して説明した、実施の形態1〜実施の形態3に係る感情推定処理と以下の点以外において同様である。
以下、実施の形態4に係る感情推定装置100による効果について説明する。準備生体情報取得部2は、複数の対象者の各々の、顔温度を含む第1生体情報を取得する。準備生体情報取得部2は、各対象者の顔温度を用いて、当該各対象者の顔温度の、当該各対象者の安静時における顔温度からの差分、または、当該各対象者の頬と額の温度差を含む第1生体情報を演算する。関連構築部4は、準備生体情報取得部2が演算した第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部5は、上記複数の対象者のうちのいずれかの対象者の顔温度を含む第2生体情報を取得する。推定生体情報取得部5は、当該いずれかの対象者の顔温度を用いて、当該いずれかの対象者の顔温度の、当該いずれかの対象者の安静時における顔温度からの差分、または、当該いずれかの対象者の頬と額の温度差を含む第2生体情報を演算する。推定部6は、推定生体情報取得部5が演算した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出し、抽出した感情情報によって当該いずれかの対象者の感情を推定する。安静時における顔温度からの差分、および、頬と額の温度差は、感情と強く相関する。このため、第1生体情報および第2生体情報として、当該差分または当該温度差を用いることにより、感情推定装置100による感情の推定精度が向上する。
実施の形態4における準備生体情報取得部2は、複数の対象者の各々の、心電データを含む第1生体情報を取得する。準備生体情報取得部2は、各対象者の心電データを用いて、当該各対象者の心電指標の値を含む第1生体情報を演算する。関連構築部4は、準備生体情報取得部2が演算した第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部5は、上記複数の対象者のうちのいずれかの対象者の心電データを含む第2生体情報を取得する。推定生体情報取得部5は、当該いずれかの対象者の心電データを用いて、当該いずれかの対象者の心電指標の値を含む第2生体情報を演算する。推定部6は、推定生体情報取得部5が演算した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出し、抽出した感情情報によって当該いずれかの対象者の感情を推定する。心電指標は、感情と強く相関する。このため、第1生体情報および第2生体情報として、当該心電指標を用いることにより、感情推定装置100による推定精度が向上する。
実施の形態4における準備生体情報取得部2は、複数の対象者の各々の、皮膚電気反応データを含む第1生体情報を取得する。準備生体情報取得部2は、各対象者の皮膚電気反応データを用いて、当該各対象者の皮膚電気反応を示す値を含む第1生体情報を演算する。関連構築部4は、準備生体情報取得部2が演算した第1生体情報、および、当該第1生体情報に対応する感情情報を、関連付けた関連情報を構築する。推定生体情報取得部5は、上記複数の対象者のうちのいずれかの対象者の皮膚電気反応データを含む第2生体情報を取得する。推定生体情報取得部5は、当該いずれかの対象者の皮膚電気反応データを用いて、当該いずれかの対象者の皮膚電気反応を示す値を含む第2生体情報を演算する。推定部6は、推定生体情報取得部5が演算した第2生体情報と等しい第1生体情報に関連付けられた感情情報を抽出し、抽出した感情情報によって当該いずれかの対象者の感情を推定する。皮膚電気反応は、感情と強く相関する。このため、第1生体情報および第2生体情報として、当該皮膚電気反応を示す値を用いることにより、感情推定装置100による推定精度が向上する。
準備生体情報取得部2および推定生体情報取得部5は、それぞれウェアラブルセンサを有する。これにより、準備生体情報取得部2は、複数の対象者の各々から日常的に第1生体情報を取得することができる。従って、関連情報は、日常における各対象者の身体状態と感情との相関を詳細に示すものとなる。また、推定生体情報取得部5は、上記いずれかの対象者の日常における第2生体情報を取得することができる。これにより、感情推定装置100は、日常における対象者の感情を精度良く推定できる。
以上、実施の形態について説明したが、本開示の内容は、実施の形態に限定されるものではなく、想定しうる均等の範囲を含む。
1 記憶部、2 準備生体情報取得部、3 準備感情情報取得部、4 関連構築部、5 推定生体情報取得部、6 推定部、7 出力部、11 プロセッサ、12 メモリ、13 記憶装置、14 第1入力インターフェース回路、15 センサ、16 第2入力インターフェース回路、17 入力装置、18 出力インターフェース回路、19 バス、100 感情推定装置。

Claims (18)

  1. 推定空間内に存在する複数の対象者の感情を推定する感情推定装置であって、
    準備空間内に存在する前記複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する準備生体情報取得部と、
    前記準備空間内に存在する前記複数の対象者の各々の感情を示す感情情報を取得する準備感情情報取得部と、
    前記第1生体情報、および、該第1生体情報に対応する前記感情情報を、互いに関連付けた関連情報を構築する関連構築部と、
    前記複数の対象者のうちのいずれかの対象者であって、前記推定空間内に存在する前記いずれかの対象者の身体の状態を示す第2生体情報を取得して解析する推定生体情報取得部と、
    前記第2生体情報と等しい前記第1生体情報に、前記関連情報において関連付けられている前記感情情報を抽出し、抽出した該感情情報によって前記推定空間内に存在する前記いずれかの対象者の感情を推定する推定部と、
    を備え
    前記準備感情情報取得部は、
    評価グリッド法に基づいて、前記複数の対象者の各々から、前記感情情報として、該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、該複数の対象者の各々の該快適度の要因を示す要因情報を取得する、感情推定装置。
  2. 前記関連構築部は、
    前記準備感情情報取得部が前記複数の対象者の各々から取得した前記感情情報と、前記準備感情情報取得部が前記複数の対象者の各々から該感情情報を取得した時点を起点として前後予め定められた時間以内に前記準備生体情報取得部が前記複数の対象者の各々から取得した前記第1生体情報と、を用いて前記関連情報を構築する、請求項1に記載の感情推定装置。
  3. 前記準備感情情報取得部は、
    前記準備空間内に存在する複数の対象者の各々から、予め定められた期間内の複数の時点の各々において、該複数の時点の各々における前記複数の対象者の各々の感情を示す前記感情情報を取得し、
    前記関連構築部は、
    前記複数の時点の各々において前記準備生体情報取得部が前記複数の対象者の各々から取得した前記第1生体情報と、前記複数の時点の各々において前記準備感情情報取得部が前記複数の対象者の各々から取得した前記感情情報と、を用いて前記関連情報を構築する、請求項1または請求項2に記載の感情推定装置。
  4. 前記期間は、2日以上の期間であって、
    前記準備感情情報取得部は、
    各日にちにおける、予め定められた1以上の時刻、または、ランダムな1以上の時刻において、前記複数の対象者の各々から前記感情情報を取得する、請求項3に記載の感情推定装置。
  5. 前記期間は5日以上である、請求項4に記載の感情推定装置。
  6. 前記準備感情情報取得部は、
    前記快適度を評点法に基づいて取得し、
    前記要因情報を自由記述法に基づいて取得する、請求項1〜請求項5のいずれか一項に記載の感情推定装置。
  7. 前記関連構築部は、
    前記複数の対象者の各々からの前記要因情報を用いてクラスター分析を行い、前記複数の対象者の各々を、複数のタイプのうちのいずれかのタイプに分類し、
    前記タイプを示すタイプ情報と、該タイプに分類された前記複数の対象者のうちの1以上の対象者の身体の状態を示す第1生体情報と、該1以上の対象者の感情を示し、該1以上の対象者の身体の状態を示す前記第1生体情報に対応する感情情報と、を関連付けた前記関連情報を構築し、
    前記推定部は、
    前記関連情報において、前記いずれかの対象者の身体の状態を示す前記第2生体情報と等しい前記第1生体情報に関連付けられた、前記感情情報および前記タイプ情報を抽出し、抽出した該感情情報によって前記いずれかの対象者の感情を推定し、且つ、抽出した該タイプ情報によって前記いずれかの対象者の前記タイプを推定する、請求項1〜請求項6のいずれか一項に記載の感情推定装置。
  8. 前記準備生体情報取得部および前記準備感情情報取得部は、
    前記複数の対象者の各々を識別するための識別情報を取得し、
    前記関連構築部は、
    前記複数の対象者の各々からの前記要因情報を用いてクラスター分析を行い、前記複数の対象者の各々を、複数のタイプのうちのいずれかのタイプに分類し、
    前記複数の対象者の各々の前記識別情報と、前記複数の対象者の各々の前記タイプを示すタイプ情報と、前記複数の対象者の各々の身体の状態を示す前記第1生体情報と、前記複数の対象者の各々の感情を示し、前記複数の対象者の各々の身体の状態を示す前記第1生体情報に対応する感情情報と、を関連付けた前記関連情報を構築し、
    前記推定部は、
    前記関連情報において、前記いずれかの対象者の前記識別情報、および、前記第2生体情報と等しい前記第1生体情報に関連付けられた、前記感情情報および前記タイプ情報を抽出し、抽出した該感情情報によって前記いずれかの対象者の感情を推定し、且つ、抽出した該タイプ情報によって前記いずれかの対象者の前記タイプを推定する、請求項1〜請求項6のいずれか一項に記載の感情推定装置。
  9. 前記関連構築部は、
    前記複数の対象者の各々からの前記要因情報と共に、前記複数の対象者の各々からの前記第1生体情報、および、前記複数の対象者の各々からの前記快適度のうちの少なくとも一方を用いてクラスター分析を行い、前記複数の対象者の各々を、前記複数のタイプのうちのいずれかの前記タイプに分類する、請求項または請求項に記載の感情推定装置。
  10. 外部の機器と通信する出力部を更に備え、
    前記推定部は、
    抽出した前記感情情報および前記タイプ情報を、前記外部の機器に送信するよう前記出力部を制御する、請求項7〜請求項9のいずれか一項に記載の感情推定装置。
  11. 外部の機器と通信する出力部を更に備え、
    前記推定部は、
    抽出した前記感情情報を、前記外部の機器に送信するよう前記出力部を制御する、請求項1〜請求項のいずれか一項に記載の感情推定装置。
  12. 前記準備生体情報取得部および前記準備感情情報取得部は、
    前記複数の対象者の各々を識別するための識別情報を取得し、
    前記関連構築部は、
    前記複数の対象者の各々の前記識別情報と、前記複数の対象者の各々の身体の状態を示す前記第1生体情報と、前記複数の対象者の各々の感情を示し、前記複数の対象者の各々の身体の状態を示す前記第1生体情報に対応する感情情報と、を関連付けた前記関連情報を構築し、
    前記推定部は、
    前記関連情報において、前記いずれかの対象者の前記識別情報、および、前記第2生体情報と等しい前記第1生体情報に、関連付けられた前記感情情報を抽出し、抽出した該感情情報によって前記いずれかの対象者の感情を推定する、請求項1〜請求項のいずれか一項に記載の感情推定装置。
  13. 前記準備生体情報取得部は、
    前記複数の対象者の各々の、顔温度を含む前記第1生体情報を取得し、
    前記複数の対象者の各々の前記顔温度を用いて、該複数の対象者の各々の前記顔温度の、該複数の対象者の各々の安静時における前記顔温度からの差分、または、前記複数の対象者の各々の頬と額の温度差を含む、前記第1生体情報を演算し、
    前記関連構築部は、
    前記準備生体情報取得部が演算した前記第1生体情報、および、該準備生体情報取得部が演算した前記第1生体情報に対応する感情情報を、関連付けた前記関連情報を構築し、
    前記推定生体情報取得部は、
    前記いずれかの対象者の顔温度を含む前記第2生体情報を取得し、
    前記いずれかの対象者の前記顔温度を用いて、該いずれかの対象者の前記顔温度の、該いずれかの対象者の安静時における前記顔温度からの差分、または、前記いずれかの対象者の頬と額の温度差を含む前記第2生体情報を演算し、
    前記推定部は、
    前記推定生体情報取得部が演算した前記第2生体情報と等しい前記第1生体情報と関連付けられた前記感情情報を抽出し、抽出した前記感情情報によって前記いずれかの対象者の感情を推定する、請求項1〜請求項1のいずれか一項に記載の感情推定装置。
  14. 前記準備生体情報取得部および前記推定生体情報取得部は、それぞれ赤外線センサを有し、
    前記赤外線センサは、前記顔温度を検知する、請求項1に記載の感情推定装置。
  15. 前記準備生体情報取得部は、
    前記複数の対象者の各々の、心電データを含む前記第1生体情報を取得し、
    前記複数の対象者の各々の前記心電データを用いて、該複数の対象者の各々の心電指標の値を含む前記第1生体情報を演算し、
    前記関連構築部は、
    前記準備生体情報取得部が演算した前記第1生体情報、および、該準備生体情報取得部が演算した前記第1生体情報に対応する感情情報を、関連付けた前記関連情報を構築し、
    前記推定生体情報取得部は、
    前記いずれかの対象者の心電データを含む前記第2生体情報を取得し、
    前記いずれかの対象者の前記心電データを用いて、該いずれかの対象者の心電指標の値を含む前記第2生体情報を演算し、
    前記推定部は、
    前記推定生体情報取得部が演算した前記第2生体情報と等しい前記第1生体情報と関連付けられた前記感情情報を抽出し、抽出した前記感情情報によって前記いずれかの対象者の感情を推定する、請求項1〜請求項1のいずれか一項に記載の感情推定装置。
  16. 前記準備生体情報取得部は、
    前記複数の対象者の各々の、皮膚電気反応データを含む前記第1生体情報を取得し、
    前記複数の対象者の各々の前記皮膚電気反応データを用いて、該複数の対象者の各々の皮膚電気反応を示す値を含む前記第1生体情報を演算し、
    前記関連構築部は、
    前記準備生体情報取得部が演算した前記第1生体情報、および、該準備生体情報取得部が演算した前記第1生体情報に対応する感情情報を、関連付けた前記関連情報を構築し、
    前記推定生体情報取得部は、
    前記いずれかの対象者の皮膚電気反応データを含む前記第2生体情報を取得し、
    前記いずれかの対象者の前記皮膚電気反応データを用いて、該いずれかの対象者の皮膚電気反応を示す値を含む前記第2生体情報を演算し、
    前記推定部は、
    前記推定生体情報取得部が演算した前記第2生体情報と等しい前記第1生体情報と関連付けられた前記感情情報を抽出し、抽出した前記感情情報によって前記いずれかの対象者の前記感情を推定する、請求項1〜請求項1のいずれか一項に記載の感情推定装置。
  17. 前記準備生体情報取得部および前記推定生体情報取得部は、それぞれウェアラブルセンサを有する、請求項1または請求項1に記載の感情推定装置。
  18. 推定空間内に存在する複数の対象者の感情を推定する感情推定装置が実行する感情推定方法であって、
    準備空間内に存在する前記複数の対象者の各々の身体の状態を示す第1生体情報を取得して解析する準備生体情報取得ステップと、
    前記準備空間内に存在する前記複数の対象者の各々の感情を示す感情情報を取得する準備感情情報取得ステップと、
    前記第1生体情報、および、該第1生体情報に対応する前記感情情報を、互いに関連付けた関連情報を構築する関連構築ステップと、
    前記複数の対象者のうちのいずれかの対象者であって、前記推定空間内に存在する前記いずれかの対象者の身体の状態を示す第2生体情報を取得して解析する推定生体情報取得ステップと、
    前記第2生体情報と等しい前記第1生体情報に、前記関連情報において関連付けられている前記感情情報を抽出し、抽出した該感情情報によって前記推定空間内に存在する前記いずれかの対象者の感情を推定する推定ステップと、
    を含み、
    前記準備感情情報取得ステップは、
    評価グリッド法に基づいて、前記複数の対象者の各々から、前記感情情報として、該複数の対象者の各々の快適度合いを示す快適度を取得すると共に、該複数の対象者の各々の該快適度の要因を示す要因情報を取得するステップを含む、感情推定方法。
JP2021550162A 2021-03-15 2021-03-15 感情推定装置および感情推定方法 Active JP6976498B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/010340 WO2022195661A1 (ja) 2021-03-15 2021-03-15 感情推定装置および感情推定方法

Publications (2)

Publication Number Publication Date
JP6976498B1 true JP6976498B1 (ja) 2021-12-08
JPWO2022195661A1 JPWO2022195661A1 (ja) 2022-09-22

Family

ID=78815494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550162A Active JP6976498B1 (ja) 2021-03-15 2021-03-15 感情推定装置および感情推定方法

Country Status (4)

Country Link
US (1) US20240032835A1 (ja)
JP (1) JP6976498B1 (ja)
CN (1) CN116963667A (ja)
WO (1) WO2022195661A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043061A1 (ja) * 2016-09-01 2018-03-08 株式会社ワコム 座標入力処理装置、感情推定装置、感情推定システム及び感情推定用データベースの構築装置
JP2018187044A (ja) * 2017-05-02 2018-11-29 国立大学法人東京工業大学 感情推定装置、感情推定方法およびコンピュータプログラム
JP2019126657A (ja) * 2018-01-26 2019-08-01 富士ゼロックス株式会社 検出装置、及び検出プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101840644B1 (ko) * 2011-05-31 2018-03-22 한국전자통신연구원 감성인지 기반 보디가드 시스템, 감성인지 디바이스, 영상 및 센서 제어 장치, 신변 보호 관리 장치 및 그 제어 방법
JP6509459B2 (ja) * 2016-12-14 2019-05-08 三菱電機株式会社 状態推定装置
JP6839818B2 (ja) * 2017-05-17 2021-03-10 パナソニックIpマネジメント株式会社 コンテンツ提供方法、コンテンツ提供装置及びコンテンツ提供プログラム
CN107679067A (zh) * 2017-08-04 2018-02-09 平安科技(深圳)有限公司 信息推荐方法及移动终端
JP6906197B2 (ja) * 2017-09-29 2021-07-21 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置及び情報処理プログラム
CN108095740B (zh) * 2017-12-20 2021-06-22 姜涵予 一种用户情绪评估方法和装置
CN108154398B (zh) * 2017-12-27 2021-01-12 Oppo广东移动通信有限公司 信息显示方法、装置、终端及存储介质
EP4000520A1 (en) * 2020-11-12 2022-05-25 Koninklijke Philips N.V. Method and system for sensor signals dependent dialog generation during a medical imaging process

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043061A1 (ja) * 2016-09-01 2018-03-08 株式会社ワコム 座標入力処理装置、感情推定装置、感情推定システム及び感情推定用データベースの構築装置
JP2018187044A (ja) * 2017-05-02 2018-11-29 国立大学法人東京工業大学 感情推定装置、感情推定方法およびコンピュータプログラム
JP2019126657A (ja) * 2018-01-26 2019-08-01 富士ゼロックス株式会社 検出装置、及び検出プログラム

Also Published As

Publication number Publication date
JPWO2022195661A1 (ja) 2022-09-22
CN116963667A (zh) 2023-10-27
US20240032835A1 (en) 2024-02-01
WO2022195661A1 (ja) 2022-09-22

Similar Documents

Publication Publication Date Title
Liu et al. Personal thermal comfort models with wearable sensors
Nkurikiyeyezu et al. The effect of person-specific biometrics in improving generic stress predictive models
Morresi et al. Sensing physiological and environmental quantities to measure human thermal comfort through machine learning techniques
US10062163B2 (en) Health information service system
CN109009017B (zh) 一种智能健康监测系统及其数据处理方法
US20160321403A1 (en) Data collection method and apparatus
CN107405072A (zh) 用于生成个体的压力水平信息和压力弹性水平信息的系统和方法
JP7338886B2 (ja) エリア別環境管理システム及び方法とプログラム
US10945674B2 (en) Methods, systems, and media for predicting sensor measurement quality
JP6304050B2 (ja) 生体状態推定装置
Baldoumas et al. Remote sensing natural time analysis of heartbeat data by means of a portable photoplethysmography device
US20180254106A1 (en) Behavior sensing device, behavior sensing method, and recording medium
CN109373499B (zh) 空调控制方法及装置
Costantino et al. Off-the-shelf wearable sensing devices for personalized thermal comfort models: A systematic review on their use in scientific research
JP6976498B1 (ja) 感情推定装置および感情推定方法
CN110659594B (zh) 一种基于AlphaPose的热舒适姿态估计方法
CN113841205A (zh) 热应激的影响推定装置、热应激的影响推定方法以及计算机程序
US20200111569A1 (en) System, computing device, and method for analyzing sleep-related activity pattern using multimodal sensor data
JP2019017946A (ja) 気分推定システム
CN112998717A (zh) 一种量化人体生理状态的分析方法和设备
WO2023074283A1 (ja) 健康状態判定方法、及び、健康状態判定システム
TWI556188B (zh) Automatic identification of state of mind and real - time control of embedded systems
WO2023074284A1 (ja) 健康状態判定方法、及び、健康状態判定システム
WO2023189853A1 (ja) 健康状態判定方法、及び、健康状態判定システム
JP7426015B1 (ja) ヘルスケア用データ解析システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210827

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211109

R150 Certificate of patent or registration of utility model

Ref document number: 6976498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150