JP7311118B2 - 感情推定方法および感情推定システム - Google Patents
感情推定方法および感情推定システム Download PDFInfo
- Publication number
- JP7311118B2 JP7311118B2 JP2021553450A JP2021553450A JP7311118B2 JP 7311118 B2 JP7311118 B2 JP 7311118B2 JP 2021553450 A JP2021553450 A JP 2021553450A JP 2021553450 A JP2021553450 A JP 2021553450A JP 7311118 B2 JP7311118 B2 JP 7311118B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- subject
- myoelectric potential
- quotients
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/053—Measuring electrical impedance or conductance of a portion of the body
- A61B5/0531—Measuring skin impedance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Developmental Disabilities (AREA)
- Dermatology (AREA)
- Social Psychology (AREA)
- Psychology (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- Educational Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
<システム構成>
図1は、本開示の実施の形態に係る感情推定システムの全体構成を概略的に示す図である。図1を参照して、感情推定システム100は、対象者(被験者)からの筋電位信号を取得し、取得した筋電位信号により表される筋肉活動に基づいて、対象者の感情を推定する。感情推定システム100は、対象者に装着されるウェアラブル端末10と、対象者の周囲の環境に設置される固定端末90とを備える。ウェアラブル端末10と固定端末90とは双方向通信が可能に構成されている。
一般に、不愉快なとき、心配事があるときなどの不快の感情は、皺眉筋の活動に表れると考えられている。一方、嬉しいとき、安心したときなどの快の感情は、大頬骨筋の活動に表れると考えられている。これらの筋肉の活動を監視することで、以下に説明する比較例のように対象者の感情を推定することも考えられる。
図9は、本実施の形態に係る感情推定方法を示すフローチャートである。図9および後述する図13に示すフローチャートでは、左側にウェアラブル端末10により実行される処理を図示し、右側に固定端末90により実行される処理を図示している。これらの処理は、所定の演算周期でメインルーチンから呼び出され、ウェアラブル端末10のコントローラ3または固定端末90の演算装置91により繰り返し実行される。各ステップは、コントローラ3または演算装置91によるソフトウェア処理によって実現されるが、コントローラ3または演算装置91内に作製されたハードウェア(電気回路)によって実現されてもよい。なお、図中ではステップを「S」と記載する。
対象者に生じる感情は、対象者の覚醒度によっても影響され得る。覚醒度とは、感情が引き起こす身体的または認知的な喚起の程度を示す指標であり、興奮性(高覚醒)と沈静性(低覚醒)との間の値を取る。この変形例においては、感情指数E1,E2と覚醒度とを組み合わせることによって、対象者の感情をより詳細に推定する構成について説明する。
上述した複数の例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
第1の態様に係る感情推定方法は、
対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応する複数の筋電位信号を取得するステップと、
前記複数の筋電位信号に基づいて複数の感情指数を算出するステップと、
前記複数の感情指数と人間の感情との間の関係を示す情報を用いて、前記複数の感情指数から前記対象者の感情を推定するステップとを含んでもよい。
第1項に記載の感情推定方法において、前記算出するステップは、前記複数の筋電位信号の各々に対応する筋肉の活動量を求め、求めた活動量に基づいて前記複数の感情指数を算出するステップを含み得る。
第2項に記載の感情推定方法において、前記算出するステップは、
前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量と所定の係数との積を算出するステップと、
前記複数の筋電位信号のすべてについて前記積の総和を取ることによって、前記複数の感情指数を算出するステップとを含み得る。
第2項に記載の感情推定方法において、前記算出するステップは、
前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量と所定の係数とを行列的に掛け合わせることで積を算出するステップと、
前記複数の筋電位信号のすべてについて前記積の総和を取ることによって、前記複数の感情指数を算出するステップとを含み得る。
第1項~第4項に記載の感情推定方法において、前記推定するステップは、前記複数の感情指数と前記対象者の感情との間で予め定められたマップを参照することによって、前記複数の感情指数から前記対象者の感情を推定するステップを含み得る。
第1項~第5項に記載の感情推定方法において、前記取得するステップは、
前記対象者の皺眉筋の筋電位信号を取得するステップと、
前記対象者の大頬骨筋の筋電位信号を取得するステップとを含み得る。
(第7項)
第6項に記載の感情推定方法において、前記複数の感情指数は、肯定的な感情を指標する第1感情指数と、否定的な感情を指標する第2感情指数とを含み、
前記算出するステップは、前記対象者の皺眉筋の活動量と前記対象者の大頬骨筋の活動量とに基づいて、前記第1感情指数と前記第2感情指数とを算出するステップを含み得る。
第1項~第7項に記載の感情推定方法において、前記対象者の生体情報に基づいて前記対象者の覚醒度を算出するステップをさらに含み、
前記推定するステップは、前記複数の感情指数と前記覚醒度と前記対象者の感情との対応関係を参照することによって、前記複数の感情指数と前記覚醒度とから前記対象者の感情を推定するステップを含み得る。
第1項~第8項に記載の感情推定方法において、前記推定するステップにより推定した前記対象者の感情を表示装置に経時的に表示するステップをさらに含み得る。
(第10項)
第1の態様に係る感情推定システムは、
対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応するように配置され、対応する筋肉の筋電位信号を出力する複数の筋電位センサと、
前記複数の筋電位センサからの複数の筋電位信号に基づいて前記対象者の感情を推定するように構成された演算装置とを備え、
前記演算装置は、
前記複数の筋電位信号に基づいて複数の感情指数を算出し、
前記複数の感情指数と人間の感情との間の関係を示す情報を用いて、前記複数の感情指数から前記対象者の感情を推定してもよい。
Claims (10)
- 対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応する複数の筋電位信号を取得するステップと、
前記複数の筋電位信号にそれぞれ対応する複数の筋肉の活動量の寄与を各々が受ける複数の感情指数を算出するステップと、
前記複数の感情指数と人間の感情との間の関係を示す情報を用いて、前記複数の感情指数から前記対象者の感情を推定するステップとを含む、感情推定方法。 - 前記算出するステップは、前記複数の感情指数がトレードオフの関係にない点において互いに独立しているように、前記複数の感情指数を算出するステップを含む、請求項1に記載の感情推定方法。
- 前記算出するステップは、
前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量と所定の係数との積を算出するステップと、
前記複数の筋電位信号のすべてについて前記積の総和を取ることによって、前記複数の感情指数を算出するステップとを含む、請求項1または2に記載の感情推定方法。 - 前記算出するステップは、
前記複数の筋電位信号毎に、その筋電位信号に対応する筋肉の活動量と所定の係数とを行列的に掛け合わせることで積を算出するステップと、
前記複数の筋電位信号のすべてについて前記積の総和を取ることによって、前記複数の感情指数を算出するステップとを含む、請求項1または2に記載の感情推定方法。 - 前記推定するステップは、前記複数の感情指数と前記対象者の感情との間で予め定められたマップを参照することによって、前記複数の感情指数から前記対象者の感情を推定するステップを含む、請求項1または2に記載の感情推定方法。
- 前記取得するステップは、
前記対象者の皺眉筋の筋電位信号を取得するステップと、
前記対象者の大頬骨筋の筋電位信号を取得するステップとを含む、請求項1または2に記載の感情推定方法。 - 前記複数の感情指数は、肯定的な感情を指標する第1感情指数と、否定的な感情を指標する第2感情指数とを含み、
前記算出するステップは、
前記対象者の皺眉筋の活動量と前記対象者の大頬骨筋の活動量との両方に基づいて前記第1感情指数を算出するステップと、
前記対象者の皺眉筋の活動量と前記対象者の大頬骨筋の活動量との両方に基づいて前記第2感情指数を算出するステップを含む、請求項6に記載の感情推定方法。 - 前記対象者の生体情報に基づいて前記対象者の覚醒度を算出するステップをさらに含み、
前記推定するステップは、前記複数の感情指数と前記覚醒度と前記対象者の感情との対応関係を参照することによって、前記複数の感情指数と前記覚醒度とから前記対象者の感情を推定するステップを含む、請求項1または2に記載の感情推定方法。 - 前記推定するステップにより推定した前記対象者の感情を表示装置に経時的に表示するステップをさらに含む、請求項1または2に記載の感情推定方法。
- 対象者の顔の筋肉のうちの異なる種類の筋肉にそれぞれ対応するように配置され、対応する筋肉の筋電位信号を出力する複数の筋電位センサと、
前記複数の筋電位センサからの複数の筋電位信号に基づいて前記対象者の感情を推定するように構成された演算装置とを備え、
前記演算装置は、
前記複数の筋電位信号にそれぞれ対応する複数の筋肉の活動量の寄与を各々が受ける複数の感情指数を算出し、
前記複数の感情指数と人間の感情との間の関係を示す情報を用いて、前記複数の感情指数から前記対象者の感情を推定する、感情推定システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019197330 | 2019-10-30 | ||
JP2019197330 | 2019-10-30 | ||
PCT/JP2020/039356 WO2021085231A1 (ja) | 2019-10-30 | 2020-10-20 | 感情推定方法および感情推定システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021085231A1 JPWO2021085231A1 (ja) | 2021-05-06 |
JP7311118B2 true JP7311118B2 (ja) | 2023-07-19 |
Family
ID=75715979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021553450A Active JP7311118B2 (ja) | 2019-10-30 | 2020-10-20 | 感情推定方法および感情推定システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7311118B2 (ja) |
WO (1) | WO2021085231A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2023037749A1 (ja) * | 2021-09-07 | 2023-03-16 | ||
WO2023223832A1 (ja) * | 2022-05-18 | 2023-11-23 | 株式会社資生堂 | 評価装置、評価方法、および美容方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030032890A1 (en) | 2001-07-12 | 2003-02-13 | Hazlett Richard L. | Continuous emotional response analysis with facial EMG |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8401248B1 (en) * | 2008-12-30 | 2013-03-19 | Videomining Corporation | Method and system for measuring emotional and attentional response to dynamic digital media content |
-
2020
- 2020-10-20 JP JP2021553450A patent/JP7311118B2/ja active Active
- 2020-10-20 WO PCT/JP2020/039356 patent/WO2021085231A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030032890A1 (en) | 2001-07-12 | 2003-02-13 | Hazlett Richard L. | Continuous emotional response analysis with facial EMG |
Non-Patent Citations (2)
Title |
---|
大平 英樹,表情筋筋電図を指標とした情動の潜在的表出についての検討,東海女子大学紀要,11巻,東海学院大学・東海女子短期大学,1992年,p.259 -272,インターネット:<URL:https://tokaigakuin-u.repo.nii.ac.jp/?action=repository_action_common_download&item_id=2258&item_no=1&attribute_id=21&file_no=1>,[オンライン][検索日 2020.11.04], ISSN:0287-0525, (OHIRA, Hideki, Facial Electromyograph as a Measu |
藤村 友美,動画および静止画表情に対する顔面筋電図反応,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2008年,Vol.108 No.317,p.23-28,ISSN:0913-5685, ( FUJIMURA, Tomomi, Facial elctromyographic activities to dynamic and static facial |
Also Published As
Publication number | Publication date |
---|---|
WO2021085231A1 (ja) | 2021-05-06 |
JPWO2021085231A1 (ja) | 2021-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nacke | An introduction to physiological player metrics for evaluating games | |
Cernea et al. | A survey of technologies on the rise for emotion-enhanced interaction | |
US20150025335A1 (en) | Method and system for monitoring pain of patients | |
US9814423B2 (en) | Method and system for monitoring pain of users immersed in virtual reality environment | |
KR20170032179A (ko) | 심리생리학적 모델을 이용한 피험자의 심리 상태 표현 | |
JP7311118B2 (ja) | 感情推定方法および感情推定システム | |
US20150025334A1 (en) | Method and system for monitoring pain of patients | |
WO2012032507A1 (en) | Diagnosing system for consciousness level measurement and method thereof | |
KR102618437B1 (ko) | 정보 처리 시스템 | |
Welch | Physiological signals of autistic children can be useful | |
KR102425481B1 (ko) | 재활치료를 위한 가상현실 커뮤니케이션 시스템 | |
KR102429630B1 (ko) | 헬스케어를 위한 커뮤니케이션 npc아바타를 생성하는 시스템 | |
KR102586167B1 (ko) | 데이터베이스의 구축 방법 | |
Tivatansakul et al. | Healthcare system design focusing on emotional aspects using augmented reality—Relaxed service design | |
JPWO2021100880A5 (ja) | ||
KR102429627B1 (ko) | 가상현실에서 아바타를 생성하고 복수의 콘텐츠를 제공하는 시스템 | |
KR102425479B1 (ko) | 사용자의 정보로 아바타를 생성하여 외부의 메타버스플랫폼에 제공하고 사용자 맞춤형 디지털치료제를 추천하는 시스템 및 방법 | |
Daşdemir | Locomotion techniques with EEG signals in a virtual reality environment | |
Whang | The emotional computer adaptive to human emotion | |
Brennan et al. | Quantifying brain activity for task engagement | |
KR102432251B1 (ko) | 소셜서버에서 수행되는 가상현실 재활시스템 | |
JP7435965B2 (ja) | 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム | |
KR102543337B1 (ko) | 아바타를 생성한 사용자의 생체정보 기반 색채힐링콘텐츠를 제공하기 위한 사용자 맞춤 색채힐링콘텐츠 제공 시스템 및 방법 | |
KR102432250B1 (ko) | 케어용 챗봇을 제공하는 시스템 | |
Szegletes et al. | Applications of modern HCIs in adaptive mobile learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230628 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7311118 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |