JP7311118B2 - 感情推定方法および感情推定システム - Google Patents

感情推定方法および感情推定システム Download PDF

Info

Publication number
JP7311118B2
JP7311118B2 JP2021553450A JP2021553450A JP7311118B2 JP 7311118 B2 JP7311118 B2 JP 7311118B2 JP 2021553450 A JP2021553450 A JP 2021553450A JP 2021553450 A JP2021553450 A JP 2021553450A JP 7311118 B2 JP7311118 B2 JP 7311118B2
Authority
JP
Japan
Prior art keywords
emotion
subject
myoelectric potential
quotients
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021553450A
Other languages
English (en)
Other versions
JPWO2021085231A1 (ja
Inventor
泰之 浦岡
耕一 村田
健二 田窪
雅史 古田
弥 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Kyoto University
Original Assignee
Shimadzu Corp
Kyoto University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp, Kyoto University filed Critical Shimadzu Corp
Publication of JPWO2021085231A1 publication Critical patent/JPWO2021085231A1/ja
Application granted granted Critical
Publication of JP7311118B2 publication Critical patent/JP7311118B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Developmental Disabilities (AREA)
  • Dermatology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本開示は、感情推定方法および感情推定システムに関する。
心理学の分野において、人間の感情を表現するための種々のモデルが提案されている。たとえば非特許文献1には「ラッセルの円環モデル」が開示されている。ラッセルの円環モデルとは、快-不快を表す横軸と、覚醒-眠気を表す縦軸とを有する二次元平面上で、様々な感情を表せるとしたモデルである。
James A. Russell and Geraldine Pratt, "A Description of the Affective Quality Attributed to Environments", Journal of Personality and Social Psychology, 1980, Vol. 38, No. 2, 311-322 Wataru Sato, Tomomi Fujimura, Takanori Kochiyama, Naoto Suzuki, "Relationships among Facial Mimicry, Emotional Experience, and Emotion Recognition", Journal of PLoS ONE, 2013, 8(3), 1-8
対象者の顔の筋肉から筋電位信号を取得し、筋電位信号に基づいて対象者の感情を推定する技術が提案されている。
本発明者らは、人間には快/不快だけでは分類することができない、より複雑な感情が存在する点に着目した。たとえば、スポーツまたはゲーム等において熱戦の末にポイントを奪われたり敗れたりした場合などには、「悔しいながらも楽しい」との感情が生じることがある。このような複雑な感情についても対象者の顔の筋肉の筋電位信号から推定可能であることが望ましい。
本開示は、かかる課題を解決するためになされたものであり、本開示の目的は、複雑な感情を推定可能な技術を提供することである。
本開示の第1の態様に係る感情推定方法は、第1~第3のステップを含む。第1のステップは、対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応する複数の筋電位信号を取得するステップである。第2のステップは、複数の筋電位信号に基づいて複数の感情指数を算出するステップである。第3のステップは、複数の感情指数と人間の感情との間の関係を示す情報を用いて、複数の感情指数から対象者の感情を推定するステップである。
本開示の第2の態様に係る感情推定システムは、複数の筋電位センサと、演算装置とを備える。複数の筋電位センサは、対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応するように配置され、対応する筋肉の筋電位信号を出力する。演算装置は、複数の筋電位センサからの複数の筋電位信号に基づいて対象者の感情を推定するように構成されている。演算装置は、複数の筋電位信号に基づいて複数の感情指数を算出し、複数の感情指数と人間の感情との間の関係を示す情報を用いて、複数の感情指数から対象者の感情を推定する。
本開示によれば、複雑な感情を推定できる。
本開示の実施の形態に係る感情推定システムの全体構成を概略的に示す図である。 実施の形態における複数のセンサの装着部位を説明するための図である。 比較例における感情推定方法を説明するための概念図である。 第1の筋電位センサおよび第2の筋電位センサの各々により検出された筋電位信号の一例を示す図である。 比較例における感情価の課題を説明するための概念図である。 本実施の形態における感情推定方法を説明するための概念図である。 2つの感情指数間の関係を説明するための図である。 感情指数から対象者の感情を推定するためのマップの概念図である。 実施の形態に係る感情推定方法を示すフローチャートである。 変形例に係る感情推定システムの全体構成を概略的に示す図である。 変形例における覚醒度センサの装着部位を説明するための図である。 変形例における複数のマップの概念図(第1図)である。 変形例における複数のマップの概念図(第2図)である。 変形例における複数のマップの概念図(第3図)である。 変形例に係る感情推定方法を示すフローチャートである。
以下、本実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付して、その説明は繰り返さない。
[実施の形態]
<システム構成>
図1は、本開示の実施の形態に係る感情推定システムの全体構成を概略的に示す図である。図1を参照して、感情推定システム100は、対象者(被験者)からの筋電位信号を取得し、取得した筋電位信号により表される筋肉活動に基づいて、対象者の感情を推定する。感情推定システム100は、対象者に装着されるウェアラブル端末10と、対象者の周囲の環境に設置される固定端末90とを備える。ウェアラブル端末10と固定端末90とは双方向通信が可能に構成されている。
ウェアラブル端末10は、複数の筋電位センサ1と、信号処理回路2と、コントローラ3と、通信モジュール4と、バッテリ5とを備える。信号処理回路2とコントローラ3と通信モジュール4とバッテリ5とは、専用の筐体6の内部に収容されている。
複数の筋電位センサ1の各々は、対象者の顔に装着され、装着部位の筋電位信号を検出する。筋電位信号とは、筋肉を動かす際に発生する微弱な電気信号を意味する。本開示において、対象者の「顔」は、顔面(顔の前面または側面)に限定されず、「顔」には対象者の首が含まれ得る。たとえば、対象者の喉に筋電位センサを装着し、対象者の嚥下動作に伴う筋電位変化を検出するようにしてもよい。複数の筋電位センサ1は、互いに異なる種類の筋肉に装着される。筋肉の種類は部位によって特定され得る。筋肉の種類を特定する際、筋肉の組成または構造まで必ずしも限定しなくともよく、部位が異なれば異なる種類の筋肉として扱える。本実施の形態において、複数の筋電位センサ1は、第1筋電位センサ11と、第2筋電位センサ12とを含む。
図2は、本実施の形態における第1筋電位センサ11および第2筋電位センサ12の装着部位を説明するための図である。図2を参照して、第1筋電位センサ11は対象者の眉に装着される。より詳細には、第1筋電位センサ11は、作用電極111と、参照電極112とを含む。作用電極111および参照電極112は、皺眉筋の直上に装着される。作用電極111および参照電極112の装着部位は、皺眉筋の近傍であれば皺眉筋の直上から多少ずれてもよい。第1筋電位センサ11は、参照電極112の電位を基準とした作用電極111の電位を皺眉筋の筋電位として検出する。第1筋電位センサ11は、皺眉筋の活動を示す筋電位信号を信号処理回路2に出力する。
第2筋電位センサ12は対象者の頬に装着される。より詳細には、第2筋電位センサ12は、作用電極121と、参照電極122とを含む。作用電極121および参照電極122は、大頬骨筋の直上に装着される。ただし、作用電極121および参照電極122の装着部位は、大頬骨筋の近傍であれば大頬骨筋の直上から多少ずれてもよい。第2筋電位センサ12は、参照電極122の電位を基準とした作用電極121の電位を大頬骨筋の筋電位として検出する。第2筋電位センサ12は、大頬骨筋の活動を示す筋電位信号を信号処理回路2に出力する。
図1を再び参照して、信号処理回路2は、いずれも図示しないが、フィルタ、アンプ、A/Dコンバータなどを含む。信号処理回路2は、複数の筋電位センサ1により取得された筋電位信号の各々に所定の信号処理(ノイズ除去、整流、増幅、デジタル化など)を施し、当該処理後の各信号をコントローラ3に出力する。以下では、第1筋電位センサ11からの筋電位信号を信号処理回路2により処理したものを「筋電位信号MS1」と記載し、第2筋電位センサ12からの筋電位信号を信号処理回路2により処理したものを「筋電位信号MS2」と記載する。
コントローラ3は、CPU(Central Processing Unit)などのプロセッサ31と、ROM(Read Only Memory)およびRAM(Random Access Memory)などのメモリ32と、入出力ポート33とを含む演算装置である。コントローラ3は、筋電位信号MS1,MS2に基づいて、対象者の感情を推定するための演算処理を実行する。この演算処理については後述する。また、コントローラ3は、通信モジュール4を制御することで外部(固定端末90など)との情報の授受も可能に構成されている。
通信モジュール4は、近距離無線通信規格に準拠した通信機器である。通信モジュール4は、コントローラ3による制御に応答して、コントローラ3の演算結果を示す信号(対象者の感情の推定結果を示す信号)などを固定端末90に送信する。
バッテリ5は、リチウムイオン二次電池等の二次電池である。バッテリ5は、ウェアラブル端末10内の各機器に動作電圧を供給する。
固定端末90は、たとえばPC(Personal Computer)またはサーバである。固定端末90は、図示しない通信モジュールを介してウェアラブル端末10との間で通信を行い、コントローラ3の演算結果を示す信号を受信する。固定端末90は、演算装置91と、表示装置92とを備える。
演算装置91は、コントローラ3と同様に、プロセッサと、メモリと、入出力ポート(いずれも図示せず)とを含み、種々の演算処理を実行可能に構成されている。表示装置92は、たとえば液晶ディスプレイであって、ウェアラブル端末10から受信したコントローラ3の演算結果を表示する。
なお、図1に示した感情推定システム100のハードウェア構成は例示に過ぎず、これに限定されるものではない。たとえば、信号処理回路2とコントローラ3とが対象者に装着可能であることは必須ではなく、信号処理回路2とコントローラ3とは固定端末90に設けられていてもよい。一方で、固定端末90が定置型であることも必須ではなく、固定端末90に代えて、スマートホンなどの携帯端末を採用してもよい。また、対象者の感情の推定結果を表示するための小型モニタをウェアラブル端末10に設けてもよい。
<感情の表出>
一般に、不愉快なとき、心配事があるときなどの不快の感情は、皺眉筋の活動に表れると考えられている。一方、嬉しいとき、安心したときなどの快の感情は、大頬骨筋の活動に表れると考えられている。これらの筋肉の活動を監視することで、以下に説明する比較例のように対象者の感情を推定することも考えられる。
図3は、比較例における感情推定方法を説明するための概念図である。図3を参照して、比較例では、快/不快を表す指標である「感情価Z」が算出される(非特許文献2参照)。第1筋電位センサ11により検出された皺眉筋の活動量をxと表し、第2筋電位センサ12により検出された大頬骨筋の活動量をyと表す。そして、下記式(1)に示すように、活動量x,yの各々に適切な係数を乗算し、当該乗算後の活動量同士を足し合わせる。なお、式(1)に示された2つの係数(-0.25,0.27)は一例に過ぎない。
Figure 0007311118000001
感情価Zは、正の場合には快の感情を表し、負の場合には不快の感情を表す。式(1)から理解されるように、感情価Zは、快/不快の感情を一次元的に表すことができる指標であるため、快/不快の感情を統一的に扱う上で有益である。
その一方で、人間には、快/不快だけでは分類することができない、より複雑な感情が存在する。以下では、この感情について、運動中(この例では卓球のプレイ中)の対象者から取得された筋電位信号MS1,MS2を例に説明する。
図4は、第1筋電位センサ11および第2筋電位センサ12の各々により検出された筋電位信号の一例を示す図である。横軸は経過時間を表す。縦軸は、上から順に、信号処理回路2による信号処理後の皺眉筋の筋電位信号MS1の電圧と、信号処理回路2による信号処理後の大頬骨筋の筋電位信号MS2の電圧とを表す。電圧の振れ幅が大きいほど筋肉の活動が大きい。
図4を参照して、まず、時間帯T1において皺眉筋の活動が検出された。これは、対象者がプレイ中にミスしたタイミングと一致する。時間帯T1には大頬骨筋の活動は検出されなかった。
また、時間帯T2において大頬骨筋の活動が検出された。この電圧変化は、対戦相手と交わした会話を対象者が楽しんだことによるものである。時間帯T2には皺眉筋の活動は検出されなかった。
さらに、時間帯T3において皺眉筋の活動が検出された。これは、プレイがうまくいかないのはなぜなのかと対象者が悩んだことに起因する信号変化と考えられる。時間帯T3には大頬骨筋の活動は、ほとんど検出されなかった。
その後、時間帯T4において、皺眉筋の活動と大頬骨筋の活動とが同時に検出された。このときにどのように感じていたか対象者に聞き取り調査を行ったところ、「プレイが楽しくて笑顔になったが、そのプレイ中にミスが出て悔しい思いをした」との回答であった。このように、人間には、複数の感情が混在した複雑な感情が湧くことがある。
また、他の例として、人間は、考え事をしていたり心配事があったりする場合に、眉間に皺が寄った状態で口がまっすぐに横に伸びた表情を取り、皺眉筋の活動と大頬骨筋の活動とが同時に検出されることがある。このような感情も単なる快/不快とは異なる複雑な感情である。しかしながら、以下に説明するように、比較例では、そのような複雑な感情を推定することはできない。
図5は、比較例における感情価Zの課題を説明するための概念図である。図5を参照して、上記式(1)にて説明したように、感情価Zは、快/不快の感情を一次元的に表す指標である。そのため、皺眉筋の活動を表す負の項(-0.25x)と大頬骨筋の活動を表す正の項(0.27y)とが互いに打ち消し合って0(または0に近い値)となる可能性がある。そうすると、実際には複数の感情が同時に存在しているにも拘らず、「特に何も感じていない」(Z≒0の場合)と推定される可能性がある。あるいは、「やや快に感じた」(Zが正だが、0に近い場合)と推定されたり、「わずかに不快に感じた」(Zが負だが、0に近い場合)と推定されたりする可能性もある。
感情価Zでは快と不快とが単一軸の両極に配置されている。これには、快と不快とが対極をなしており、人間が快と不快とを同時に経験することはないとの暗黙の前提が存在する。そのため、比較例では、複数の感情が混ざり合った複雑な感情を推定できない。
図6は、本実施の形態における感情推定方法を説明するための概念図である。図6を参照して、以下では、第1筋電位センサ11により検出された皺眉筋の活動量をx1と表し、第2筋電位センサ12により検出された大頬骨筋の活動量をx2と表す(x1≧0,x2≧0)。本実施の形態では、感情価Zに代えて、2つの「感情指数E1,E2」が用いられる。感情指数E1,E2は、4つの係数k11~k22を用いて以下の行列式で表現される(式(2)参照)。
Figure 0007311118000002
係数k11~k22の各々は、事前の心理学的な実験の結果に基づいて予め定められた正の定数である。より具体的には、感情情報を伴う様々な刺激を一定数の被験者に与え、それに対する反応としての筋電位信号MS1,MS2を取得する。他の例として、様々な刺激を一定数の被験者に与え、それに対する反応としての筋電位信号MS1,MS2を取得しつつ、第1筋電位センサ11および第2筋電位センサ12以外の感情取得装置(カメラ、心拍センサ、汗センサ、脳波センサなど)を用いて感情情報を取得してもよい。そして、皺眉筋の活動量x1と大頬骨筋の活動量x2と感情との間の対応関係を多変量解析等の手法を用いて求めることにより、各係数k11~k22を決定できる。
なお、式(2)を書き下すと、下記式(3)が導出される。式(2)または式(3)より、感情指数E1が皺眉筋の活動量x1と大頬骨筋の活動量x2との両方に基づいて算出されることが理解されるとともに、感情指数E2も皺眉筋の活動量x1と大頬骨筋の活動量x2との両方に基づいて算出されることが理解される。
Figure 0007311118000003
このように、感情指数E1,ESの算出においては、筋電位信号MS1,MS2毎に、その筋電位信号に対応する筋肉の活動量xと係数kとの積を算出し、その積の総和を取ってもよい(式(3)参照)。あるいは、筋電位信号MS1,MS2毎に、前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量xと所定の係数とを行列的に掛け合わせることで積を算出し、その積の総和を取ってもよい(式(2)参照)。
図7は、感情指数E1と感情指数E2との間の関係を説明するための図である。図7を参照して、本実施の形態において、感情指数E1は、肯定的(ポジティブ)な感情の強さを表す指標である。感情指数E1には、主に大頬骨筋の活動量x2の影響が反映されるものの、皺眉筋の活動量x1も影響を与え得る。一方、感情指数E2は、否定的(ネガティブ)な感情の強さを表す指標である。感情指数E2には、主に皺眉筋の活動量x1の影響が反映されるものの、大頬骨筋の活動量x2も影響を与え得る。
感情指数E1と感情指数E2とは、感情価Zとは異なり、互いに相殺し合う関係にはない。また、感情指数E1と感情指数E2とは、一方が大きくなると他方が必然的に小さくなるとのトレードオフの関係にもない。この意味で、感情指数E1と感情指数E2とは、互いに独立した指標である。
本実施の形態では、まず、筋電位信号MS1,MS2から感情指数E1,E2が算出され、さらに感情指数E1,E2に基づいて対象者の感情が推定される。感情指数E1,E2からの感情推定には、以下に説明するようなマップが用いられる。
図8は、感情指数E1,E2から対象者の感情を推定するためのマップの概念図である。図8を参照して、このマップMPにおいては、事前実験の結果に基づき、感情指数E1と感情指数E2との組合せ(E1,E2)毎に、人間の対応する感情が予め定められている。2つの感情が混在した複雑な感情が対象者に生じている場合、2つの感情指数の組合せ(E1,E2)が領域Q内に位置することとなる。よって、コントローラ3は、筋電位信号MS1,MS2から算出された感情指数の組合せ(E1,E2)が領域Q内に位置する場合に、複数の感情が混在した複雑な感情が対象者に生じていると推定できる。なお、マップMPは、本開示に係る「情報」の一例に相当するが、マップに代えてテーブルを用いてもよい。
<処理フロー>
図9は、本実施の形態に係る感情推定方法を示すフローチャートである。図9および後述する図13に示すフローチャートでは、左側にウェアラブル端末10により実行される処理を図示し、右側に固定端末90により実行される処理を図示している。これらの処理は、所定の演算周期でメインルーチンから呼び出され、ウェアラブル端末10のコントローラ3または固定端末90の演算装置91により繰り返し実行される。各ステップは、コントローラ3または演算装置91によるソフトウェア処理によって実現されるが、コントローラ3または演算装置91内に作製されたハードウェア(電気回路)によって実現されてもよい。なお、図中ではステップを「S」と記載する。
ステップ11において、コントローラ3は、第1筋電位センサ11から皺眉筋の活動を示す筋電位信号MS1を取得する。また、ステップ12において、コントローラ3は、第2筋電位センサ12から大頬骨筋の活動を示す筋電位信号MS2を取得する。これらの筋電位信号MS1,MS2は同時に(あるいは十分に短い時間差で)取得されたものであることが好ましい。
ステップ13において、コントローラ3は、上記式(2)または式(3)に従って、ステップ11,12にて取得された2つの筋電位信号MS1,MS2から2つの感情指数E1,E2を算出する。
ステップ14において、コントローラ3は、図8に示したマップMPを参照することによって、ステップ13にて算出した感情指数E1,E2に対応するユーザの感情を推定する。
コントローラ3は、ステップ11,12にて取得した筋電位信号MS1,MS2を示すデータを固定端末90に送信するように通信モジュール4を制御する。また、コントローラ3は、感情指数E1,E2の算出結果(ステップ13)を示すデータと、ユーザの感情の推定結果(ステップ14)を示すデータとついても固定端末90に送信させる。固定端末90の演算装置91は、ウェアラブル端末10から各種データを受信すると、受信したデータを表示するように表示装置92を制御する(ステップ19)。ステップ11~19の処理を繰り返し実行することにより、対象者の感情を表示装置92に経時的に表示できる。
なお、図9では、コントローラ3が筋電位信号MS1,MS2から感情指数E1,E2を即時に算出する例について説明した。しかし、コントローラ3は、リアルタイム処理に代えてバッチ処理を実行してもよい。すなわち、コントローラ3は、筋電位信号MS1,MS2のデータをメモリ32に時系列に格納しておき、後に(たとえば感情推定を開始するための操作を受け付けたタイミングで)感情指数E1,E2を算出してもよい。また、コントローラ3は、2つの筋電位信号MS1,MS2のデータを固定端末90に送信し、固定端末90の演算装置91によって感情指数E1,E2を算出してもよい。
以上のように、本実施の形態においては、2つの筋電位信号MS1,MS2から対象者の感情するための指標として、感情価Zに代えて感情指数E1,E2が採用される。本実施の形態における感情指数E1,E2は、行列式である式(2)またはその書き下しである式(3)から算出されるが、これらの式では、各筋肉の活動量が1つの感情のみに寄与するのではなく、各筋肉の活動量が程度の差はあっても複数の感情に対して寄与し得ることが表現されている。また、感情価Zが筋電位信号MS1の寄与と筋電位信号MS2の寄与とが相殺し得る指標であるのに対して、感情指数E1,E2は、筋電位信号MS1の寄与と筋電位信号MS2の寄与とが相殺し合わない点において、互いに独立した指標である。よって、感情指数E1,E2の採用により、複数の感情が混在した複雑な感情を推定することが可能になる。
本実施の形態では、2つの筋電位センサを対象者の顔に装着する例について説明した。しかし、筋電位センサの装着数は2つに限定されず、3つ以上の筋電位センサを対象者の顔に装着してもよい。たとえば、n(nは3以上の自然数)個の筋電位センサを用いてn個の感情指数を算出する場合には、正方行列を用いた下記式(4)に従って、筋肉の活動量xと感情指数Eとの間の関係を規定できる。
Figure 0007311118000004
また、筋肉の活動量xの数と感情指数Eの数とが異なってもよい。その場合には式(4)において係数kの行列を非正方行列とすればよい。
[変形例]
対象者に生じる感情は、対象者の覚醒度によっても影響され得る。覚醒度とは、感情が引き起こす身体的または認知的な喚起の程度を示す指標であり、興奮性(高覚醒)と沈静性(低覚醒)との間の値を取る。この変形例においては、感情指数E1,E2と覚醒度とを組み合わせることによって、対象者の感情をより詳細に推定する構成について説明する。
図10は、変形例に係る感情推定システムの全体構成を概略的に示す図である。図10を参照して、感情推定システム200は、複数の筋電位センサ1(この例では第1筋電位センサ11および第2筋電位センサ12)に加えて覚醒度センサ7をさらに備える点において、実施の形態に係る感情推定システム100(図1参照)と異なる。感情推定システム200の他の構成は、感情推定システム100の対応する構成と同様であるため、説明は繰り返さない。
図11は、変形例における覚醒度センサ7の装着部位を説明するための図である。図11を参照して、覚醒度センサ7は、たとえば対象者の額に装着される。覚醒度センサ7は、額における皮膚電気活動を監視するための信号を信号処理回路2に出力する。皮膚電気活動には、皮膚インピーダンス(もしくは皮膚インピーダンス逆数である皮膚コンダクタンス)、または、皮膚の電位活動などの様々な生体活動が含まれ得る。なお、皮膚電気活動による情報は、本開示に係る「生体情報」の一例である。
以下では、皮膚電気活動のうち皮膚コンダクタンスを取得する例について説明する。信号処理回路2により処理された信号を「皮膚コンダクタンス信号RS」と称する。コントローラ3は、皮膚コンダクタンス信号RSに基づいて、対象者の覚醒度Aを定量化する。より具体的には、皮膚コンダクタンス信号RSは、比較的長時間のレベル変動を表す皮膚コンダクタンスレベル(SCL:Skin Conductance Level)と、数秒オーダの一過性の変動を表す皮膚コンダクタンス反応(SCR:Skin Conductance Response)とを含む。コントローラ3は、SCLの変化に基づいて対象者の覚醒度Aを算出する。なお、覚醒度センサ7の装着部位は額に限定されず、たとえば、対象者のこめかみであってもよいし、対象者の手のひらであってもよい。本実施の形態では、図8にて説明したような2次元マップが対象者の覚醒度A毎に複数準備される。
図12A~図12Cは、変形例における複数のマップの概念図である。図12A~図12Cを参照して、変形例では、高覚醒、中覚醒および低覚醒の3つの区分に覚醒度Aを分け、各区分に対応するように合計3つの2次元マップMP1~MP3が事前に作成される。対象者の覚醒度Aが高い区分に属する場合、高覚醒に対応するマップMP1が参照される。対象者の覚醒度Aが中程度の区分に属する場合、中覚醒に対応するマップMP2が参照される。対象者の覚醒度Aが低い区分に属する場合、低覚醒に対応するマップMP3が参照される。なお、ここで覚醒度Aを3つの区分に分けたのは一例に過ぎず、区分数は2つであってもよいし4つ以上であってもよい。
このように覚醒度Aに応じた複数のマップを準備することにより、感情指数の組合せ(E1,E2)が等しくても覚醒度Aが異なる場合には、コントローラ3は、対象者が異なる感情を経験していると判断できる。一例として、「悔しいが楽しい」との感情と、対象者が作り笑顔を見せているときの感情とを区別することが可能となる。
図13は、変形例に係る感情推定方法を示すフローチャートである。図13を参照して、このフローチャートは、ステップ24~26の処理をさらに含む点と、ステップ14の処理に代えてステップ17の処理を含む点とにおいて、実施の形態におけるフローチャート(図9参照)と異なる。ステップ21~23の処理は、実施の形態におけるステップ11~13の処理とそれぞれ同様である。
ステップ24において、コントローラ3は、覚醒度センサ7から皮膚コンダクタンス信号RSを取得する。取得された皮膚コンダクタンス信号RSは、コントローラ3内のメモリ32に時系列に格納される。
ステップ25において、コントローラ3は、ステップ24にて取得された皮膚コンダクタンス信号RSと、メモリ32に格納された過去の皮膚コンダクタンス信号RSとを解析することによって、対象者の覚醒度Aを算出する。
ステップ26において、コントローラ3は、予め準備された複数のマップMP1~MP3(図12A~図12C参照)の中からステップ25にて算出された覚醒度Aに応じたマップを選択する。
ステップ27において、コントローラ3は、ステップ26にて選択されたマップを参照して、ステップ23にて算出された感情指数の組合せ(E1,E2)に対応する感情を推定する。
なお、この変形例では、複数の2次元マップが準備されると説明したが、これに代えて3次元マップを準備してもよい。この3次元マップは、第1軸~第3軸として、感情指数E1と感情指数E2と覚醒度Aとを有する。このような3次元マップを参照することによっても感情指数E1,E2と覚醒度Aとの組み合わせに応じて対象者の感情を推定することが可能である。
以上のように、本変形例によれば、実施の形態と同様に、複数の感情が混在した複雑な感情を推定できる。さらに、本変形例によれば、覚醒度Aをさらに導入することによって、感情指数E1,E2が等しくても覚醒度Aが異なれば異なる感情と区別されるので、より詳細に対象者の感情を推定することが可能となる。
<態様>
上述した複数の例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
(第1項)
第1の態様に係る感情推定方法は、
対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応する複数の筋電位信号を取得するステップと、
前記複数の筋電位信号に基づいて複数の感情指数を算出するステップと、
前記複数の感情指数と人間の感情との間の関係を示す情報を用いて、前記複数の感情指数から前記対象者の感情を推定するステップとを含んでもよい。
第1項に記載の感情推定方法によれば、複数の感情指数と人間の感情との間の関係を示す情報を用いることで、複雑な感情を推定できる。
(第2項)
第1項に記載の感情推定方法において、前記算出するステップは、前記複数の筋電位信号の各々に対応する筋肉の活動量を求め、求めた活動量に基づいて前記複数の感情指数を算出するステップを含み得る。
第2項に記載の感情推定方法によれば、筋肉の活動量から感情指数を高精度に算出できる。
(第3項)
第2項に記載の感情推定方法において、前記算出するステップは、
前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量と所定の係数との積を算出するステップと、
前記複数の筋電位信号のすべてについて前記積の総和を取ることによって、前記複数の感情指数を算出するステップとを含み得る。
(第4項)
第2項に記載の感情推定方法において、前記算出するステップは、
前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量と所定の係数とを行列的に掛け合わせることで積を算出するステップと、
前記複数の筋電位信号のすべてについて前記積の総和を取ることによって、前記複数の感情指数を算出するステップとを含み得る。
第3項または第4項に記載の感情推定方法によれば、筋肉の活動量から感情指数をより高精度に算出できる。
(第5項)
第1項~第4項に記載の感情推定方法において、前記推定するステップは、前記複数の感情指数と前記対象者の感情との間で予め定められたマップを参照することによって、前記複数の感情指数から前記対象者の感情を推定するステップを含み得る。
第5項に記載の感情推定方法によれば、複数の感情指数と対象者の感情の関係が予め定められたマップを用いることで、複数の感情指数から対象者の感情を高精度に推定できる。
(第6項)
第1項~第5項に記載の感情推定方法において、前記取得するステップは、
前記対象者の皺眉筋の筋電位信号を取得するステップと、
前記対象者の大頬骨筋の筋電位信号を取得するステップとを含み得る。
第6項に記載の感情推定方法によれば、複数の筋電位信号を容易に取得できる。
(第7項)
第6項に記載の感情推定方法において、前記複数の感情指数は、肯定的な感情を指標する第1感情指数と、否定的な感情を指標する第2感情指数とを含み、
前記算出するステップは、前記対象者の皺眉筋の活動量と前記対象者の大頬骨筋の活動量とに基づいて、前記第1感情指数と前記第2感情指数とを算出するステップを含み得る。
第7項に記載の感情推定方法によれば、第1感情指数と第2感情指数とを高精度に算出できる。
(第8項)
第1項~第7項に記載の感情推定方法において、前記対象者の生体情報に基づいて前記対象者の覚醒度を算出するステップをさらに含み、
前記推定するステップは、前記複数の感情指数と前記覚醒度と前記対象者の感情との対応関係を参照することによって、前記複数の感情指数と前記覚醒度とから前記対象者の感情を推定するステップを含み得る。
第8項に記載の感情推定方法によれば、感情指数の組合せが等しくても覚醒度が異なる場合には、対象者が異なる感情を経験していると判断できる。
(請求項9)
第1項~第8項に記載の感情推定方法において、前記推定するステップにより推定した前記対象者の感情を表示装置に経時的に表示するステップをさらに含み得る。
第9項に記載の感情推定方法によれば、対象者の感情の経時変化を容易に観察できる。
(第10項)
第1の態様に係る感情推定システムは、
対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応するように配置され、対応する筋肉の筋電位信号を出力する複数の筋電位センサと、
前記複数の筋電位センサからの複数の筋電位信号に基づいて前記対象者の感情を推定するように構成された演算装置とを備え、
前記演算装置は、
前記複数の筋電位信号に基づいて複数の感情指数を算出し、
前記複数の感情指数と人間の感情との間の関係を示す情報を用いて、前記複数の感情指数から前記対象者の感情を推定してもよい。
第10項に記載の感情推定システムによれば、第1項に記載の感情推定方法と同様に、複雑な感情を推定できる。
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した実施の形態の説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 複数の筋電位センサ、11 第1筋電位センサ、12 第2筋電位センサ、111,121 作用電極、112,122 参照電極、2 信号処理回路、3 コントローラ、31 CPU、32 メモリ、33 入出力ポート、4 通信モジュール、5 バッテリ、6 筐体、7 覚醒度センサ、10 ウェアラブル端末、90 固定端末、91 演算装置、92 表示装置、100,200 感情推定システム。

Claims (10)

  1. 対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応する複数の筋電位信号を取得するステップと、
    前記複数の筋電位信号にそれぞれ対応する複数の筋肉の活動量の寄与を各々が受ける複数の感情指数を算出するステップと、
    前記複数の感情指数と人間の感情との間の関係を示す情報を用いて、前記複数の感情指数から前記対象者の感情を推定するステップとを含む、感情推定方法。
  2. 前記算出するステップは、前記複数の感情指数がトレードオフの関係にない点において互いに独立しているように、前記複数の感情指数を算出するステップを含む、請求項1に記載の感情推定方法。
  3. 前記算出するステップは、
    前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量と所定の係数との積を算出するステップと、
    前記複数の筋電位信号のすべてについて前記積の総和を取ることによって、前記複数の感情指数を算出するステップとを含む、請求項1または2に記載の感情推定方法。
  4. 前記算出するステップは、
    前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量と所定の係数とを行列的に掛け合わせることで積を算出するステップと、
    前記複数の筋電位信号のすべてについて前記積の総和を取ることによって、前記複数の感情指数を算出するステップとを含む、請求項1または2に記載の感情推定方法。
  5. 前記推定するステップは、前記複数の感情指数と前記対象者の感情との間で予め定められたマップを参照することによって、前記複数の感情指数から前記対象者の感情を推定するステップを含む、請求項1または2に記載の感情推定方法。
  6. 前記取得するステップは、
    前記対象者の皺眉筋の筋電位信号を取得するステップと、
    前記対象者の大頬骨筋の筋電位信号を取得するステップとを含む、請求項1または2に記載の感情推定方法。
  7. 前記複数の感情指数は、肯定的な感情を指標する第1感情指数と、否定的な感情を指標する第2感情指数とを含み、
    前記算出するステップは、
    前記対象者の皺眉筋の活動量と前記対象者の大頬骨筋の活動量との両方に基づいて前記第1感情指数を算出するステップと、
    前記対象者の皺眉筋の活動量と前記対象者の大頬骨筋の活動量との両方に基づいて前記第2感情指数を算出するステップを含む、請求項6に記載の感情推定方法。
  8. 前記対象者の生体情報に基づいて前記対象者の覚醒度を算出するステップをさらに含み、
    前記推定するステップは、前記複数の感情指数と前記覚醒度と前記対象者の感情との対応関係を参照することによって、前記複数の感情指数と前記覚醒度とから前記対象者の感情を推定するステップを含む、請求項1または2に記載の感情推定方法。
  9. 前記推定するステップにより推定した前記対象者の感情を表示装置に経時的に表示するステップをさらに含む、請求項1または2に記載の感情推定方法。
  10. 対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応するように配置され、対応する筋肉の筋電位信号を出力する複数の筋電位センサと、
    前記複数の筋電位センサからの複数の筋電位信号に基づいて前記対象者の感情を推定するように構成された演算装置とを備え、
    前記演算装置は、
    前記複数の筋電位信号にそれぞれ対応する複数の筋肉の活動量の寄与を各々が受ける複数の感情指数を算出し、
    前記複数の感情指数と人間の感情との間の関係を示す情報を用いて、前記複数の感情指数から前記対象者の感情を推定する、感情推定システム。
JP2021553450A 2019-10-30 2020-10-20 感情推定方法および感情推定システム Active JP7311118B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019197330 2019-10-30
JP2019197330 2019-10-30
PCT/JP2020/039356 WO2021085231A1 (ja) 2019-10-30 2020-10-20 感情推定方法および感情推定システム

Publications (2)

Publication Number Publication Date
JPWO2021085231A1 JPWO2021085231A1 (ja) 2021-05-06
JP7311118B2 true JP7311118B2 (ja) 2023-07-19

Family

ID=75715979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021553450A Active JP7311118B2 (ja) 2019-10-30 2020-10-20 感情推定方法および感情推定システム

Country Status (2)

Country Link
JP (1) JP7311118B2 (ja)
WO (1) WO2021085231A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023037749A1 (ja) * 2021-09-07 2023-03-16
WO2023223832A1 (ja) * 2022-05-18 2023-11-23 株式会社資生堂 評価装置、評価方法、および美容方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030032890A1 (en) 2001-07-12 2003-02-13 Hazlett Richard L. Continuous emotional response analysis with facial EMG

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8401248B1 (en) * 2008-12-30 2013-03-19 Videomining Corporation Method and system for measuring emotional and attentional response to dynamic digital media content

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030032890A1 (en) 2001-07-12 2003-02-13 Hazlett Richard L. Continuous emotional response analysis with facial EMG

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大平 英樹,表情筋筋電図を指標とした情動の潜在的表出についての検討,東海女子大学紀要,11巻,東海学院大学・東海女子短期大学,1992年,p.259 -272,インターネット:<URL:https://tokaigakuin-u.repo.nii.ac.jp/?action=repository_action_common_download&item_id=2258&item_no=1&attribute_id=21&file_no=1>,[オンライン][検索日 2020.11.04], ISSN:0287-0525, (OHIRA, Hideki, Facial Electromyograph as a Measu
藤村 友美,動画および静止画表情に対する顔面筋電図反応,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2008年,Vol.108 No.317,p.23-28,ISSN:0913-5685, ( FUJIMURA, Tomomi, Facial elctromyographic activities to dynamic and static facial

Also Published As

Publication number Publication date
WO2021085231A1 (ja) 2021-05-06
JPWO2021085231A1 (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
Nacke An introduction to physiological player metrics for evaluating games
Cernea et al. A survey of technologies on the rise for emotion-enhanced interaction
US20150025335A1 (en) Method and system for monitoring pain of patients
US9814423B2 (en) Method and system for monitoring pain of users immersed in virtual reality environment
KR20170032179A (ko) 심리생리학적 모델을 이용한 피험자의 심리 상태 표현
JP7311118B2 (ja) 感情推定方法および感情推定システム
US20150025334A1 (en) Method and system for monitoring pain of patients
WO2012032507A1 (en) Diagnosing system for consciousness level measurement and method thereof
KR102618437B1 (ko) 정보 처리 시스템
Welch Physiological signals of autistic children can be useful
KR102425481B1 (ko) 재활치료를 위한 가상현실 커뮤니케이션 시스템
KR102429630B1 (ko) 헬스케어를 위한 커뮤니케이션 npc아바타를 생성하는 시스템
KR102586167B1 (ko) 데이터베이스의 구축 방법
Tivatansakul et al. Healthcare system design focusing on emotional aspects using augmented reality—Relaxed service design
JPWO2021100880A5 (ja)
KR102429627B1 (ko) 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템
KR102425479B1 (ko) 사용자의 정보로 아바타를 생성하여 외부의 메타버스플랫폼에 제공하고 사용자 맞춤형 디지털치료제를 추천하는 시스템 및 방법
Daşdemir Locomotion techniques with EEG signals in a virtual reality environment
Whang The emotional computer adaptive to human emotion
Brennan et al. Quantifying brain activity for task engagement
KR102432251B1 (ko) 소셜서버에서 수행되는 가상현실 재활시스템
JP7435965B2 (ja) 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム
KR102543337B1 (ko) 아바타를 생성한 사용자의 생체정보 기반 색채힐링콘텐츠를 제공하기 위한 사용자 맞춤 색채힐링콘텐츠 제공 시스템 및 방법
KR102432250B1 (ko) 케어용 챗봇을 제공하는 시스템
Szegletes et al. Applications of modern HCIs in adaptive mobile learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230628

R150 Certificate of patent or registration of utility model

Ref document number: 7311118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150