JP2019515730A - 生理学的信号からの特徴の抽出 - Google Patents

生理学的信号からの特徴の抽出 Download PDF

Info

Publication number
JP2019515730A
JP2019515730A JP2018554449A JP2018554449A JP2019515730A JP 2019515730 A JP2019515730 A JP 2019515730A JP 2018554449 A JP2018554449 A JP 2018554449A JP 2018554449 A JP2018554449 A JP 2018554449A JP 2019515730 A JP2019515730 A JP 2019515730A
Authority
JP
Japan
Prior art keywords
subject
signal
determining
component
physiological
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018554449A
Other languages
English (en)
Inventor
ミンミン ザオ
ミンミン ザオ
ファデル アディブ
ファデル アディブ
ディナ カタビ
ディナ カタビ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Massachusetts Institute of Technology
Original Assignee
Massachusetts Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Massachusetts Institute of Technology filed Critical Massachusetts Institute of Technology
Publication of JP2019515730A publication Critical patent/JP2019515730A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1102Ballistocardiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Cardiology (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Pulmonology (AREA)
  • Mathematical Physics (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Developmental Disabilities (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Business, Economics & Management (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

対象者の感情の状態を判定するための方法が、対象者に関連する運動に基づく生理学的信号を受信するステップであって、運動に基づく生理学的信号が、対象者のバイタルサインに関連する成分を含む、ステップと、対象者のバイタルサインに関連する成分に少なくとも部分的に基づいて対象者の感情の状態を判定するステップとを含む。

Description

関連出願の相互参照
本出願は、2016年10月4日に出願した米国仮出願第62/403,808号明細書及び2016年4月18日に出願した米国仮出願第62/323,928号明細書の優先日の利益を主張するものであり、これらの仮出願の内容は、参照により本明細書に組み込まれる。
連邦政府による資金提供を受けた研究の記載
本発明は、米国空軍によって与えられた契約番号FA8721−05−C−0002の下での政府支援によってなされた。政府は、本発明に特定の権利を有する。
本発明は、生理学的信号及び特に生理学的運動を表す信号からの特徴の抽出に関する。
対象者の感情を推測し、場合によっては推測された感情に反応することができるシステムに対する関心が高まっている。そのようなシステムは、ゲーム、映画、広告、オンラインコンテンツ、及びヒューマン−コンピュータインターフェースを設計し、試験するために使用され得る。
一部の例において、対象者の感情を推測するためのシステムは、2つの段階で動作する。つまり、第1の段階において、それらのシステムは、感情に関連する信号(視聴覚的手掛かり(audio-visual cue)又は生理学的信号)を抽出し、第2の段階において、それらのシステムは、感情に関連する信号を、感情を認識するために分類器に与える。感情に関連する信号を抽出するための既存の手法は、2つのカテゴリ、すなわち、視聴覚的技術及び生理学的技術に分かれる。
視聴覚的技術は、概して、視聴覚的記録又はストリームの中に存在する表情、発話、及びジェスチャーに依拠する。視聴覚的手法は、ユーザがそれらのユーザの体にいかなるセンサを付けることも必要としない。しかし、それらの手法は、外面に現れた状態に依拠するので、微妙な感情を見逃すことが多く、対象者が感情を表に出すことを制御又は抑制するとき、失敗させられる可能性がある。さらに、多くの映像に基づく技術は、それらの技術が正しく働くためにユーザがカメラの方を向くことを必要とする。
生理学的技術は、ECG及びEEG信号などの生理学的測定値に依拠する。生理学的測定値は、自律神経系(ANS,autonomic nervous system)の不随意の活性化によって制御されるので、概して、対象者が制御するのがより難しい。これらの信号を抽出することができる既存のセンサは、人の体に物理的に接触することを必要とし、したがって、対象者の体験を邪魔し、その対象者の感情の状態に影響を与える可能性がある。
感情に関連する信号に基づいて感情を認識するための既存の手法は、測定された信号から感情に関連する特徴を抽出し、それから、対象者の感情の状態を特定するために分類器を使用して抽出された特徴を処理する。いくつかの既存の分類手法は、各感情に別々のラベル(例えば、満悦(pleasure)、悲しみ(sadness)、又は怒り(anger))を割り当てる。その他の既存の分類手法は、感情価(valence)(つまり、肯定的感情対否定的感情)軸及び覚醒度(arousal)(つまり、平静対高揚)軸によって張られる2D平面内に感情を表現する多次元モデルを使用する。例えば、怒り及び悲しみは、両方とも否定的感情であるが、怒りはより高い覚醒度をともなう。同様に、歓喜(joy)及び満悦は、両方とも肯定的感情であるが、前者が興奮に関連付けられる一方、後者は満足の状態を指す。
包括的な態様においては、対象者からの信号の反射を使用して、対象者の運動を表す運動に基づく生理学的信号を処理するための方法が、送信要素から1又は2以上の送信信号パターンを含む無線周波数送信信号を放射するステップを含む。送信信号のいくつかの反射の組合せを含む無線周波数受信信号が、1又は2以上の受信要素において受信され、送信信号のいくつかの反射のうちの少なくとも一部の反射が、対象者に関連付けられる。送信信号パターンの反射の時間的に連続したパターンが、1又は2以上の運動に基づく生理学的信号を形成するために処理され、いくつかの反射のうちの少なくとも一部の反射に関して、受信信号内の送信信号の反射の経時的な変動から対象者の生理学的運動を表す運動に基づく生理学的信号を形成することを含む。1又は2以上の運動に基づく生理学的信号のサブセットのそれぞれの運動に基づく生理学的信号が、運動に基づく生理学的信号の心拍成分のセグメンテーションを決定するために処理され、処理は、心拍成分を決定すること、心拍成分内の心拍に関するテンプレートの時間パターンを決定すること、及び決定されたテンプレートの時間パターンに基づいて心拍成分のセグメンテーションを決定することを含む。
態様は、以下の特徴のうちの1又は2以上を含み得る。
送信信号は、単一の信号パターンの繰り返しを含む周波数変調連続波(FMCW,frequency modulated continuous wave)信号である可能性がある。1又は2以上の送信信号パターンは、1又は2以上の擬似ランダム雑音シーケンスを含む可能性がある。心拍成分を決定することは、運動に基づく生理学的信号の2次導関数を決定することを含む、運動に基づく生理学的信号に対する呼吸の影響を軽減することを含む可能性がある。心拍成分を決定することは、帯域通過フィルタを使用して運動に基づく生理学的信号をフィルタリングすることを含む、運動に基づく生理学的信号に対する呼吸の影響を軽減することを含む。心拍成分内の心拍に関するテンプレートの時間パターンを決定すること、及び心拍成分のセグメンテーションを決定することは、心拍に関する時間パターン及び心拍成分のセグメンテーションを一緒に最適化することを含む可能性がある。
方法は、対象者に関連する運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションに少なくとも部分的に基づいて対象者の認知状態を判定するステップを含む可能性がある。対象者の認知状態は、困惑(confusion)の状態、注意散漫(distraction)の状態、及び注意深さ(attention)の状態のうちの1又は2以上を含む可能性がある。方法は、運動に基づく生理学的信号の各々の心拍成分から特徴を抽出するステップと、抽出された特徴を1又は2以上の心機能にマッピングするステップとを含む可能性があり、特徴は、ピーク、谷、又は変曲点を含む。
方法は、対象者に関連する運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションに少なくとも部分的に基づいて対象者の感情の状態を判定するステップを含む可能性がある。対象者の感情の状態を判定するステップは、1又は2以上の運動に基づく生理学的信号の呼吸成分にさらに基づく可能性がある。方法は、1又は2以上の運動に基づく生理学的信号に低域通過フィルタを適用することを含む、1又は2以上の運動に基づく生理学的信号の呼吸成分を決定するステップを含む可能性がある。対象者の感情の状態を判定するステップは、運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションから決定された1又は2以上の特徴に感情分類器を適用することを含む可能性がある。
対象者の感情の状態を判定するステップは、運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションから決定された1又は2以上の特徴と、1又は2以上の運動に基づく生理学的信号の呼吸成分から決定された1又は2以上の特徴とに感情分類器を適用することを含む可能性がある。方法は、第1の覚醒度の次元及び第2の感情価の次元を含む2次元グリッド内に感情の状態を提示するステップを含む可能性がある。運動に基づく生理学的信号は、受信信号内の送信信号の反射の位相角の経時的な変動から対象者の生理学的運動を表す可能性がある。
別の包括的な態様においては、対象者の感情の状態を判定するための方法が、対象者に関連する運動に基づく生理学的信号を受信するステップであって、運動に基づく生理学的信号が、対象者のバイタルサインに関連する成分を含む、ステップと、対象者のバイタルサインに関連する成分に少なくとも部分的に基づいて対象者の感情の状態を判定するステップとを含む。
態様は、以下の特徴のうちの1又は2以上を含み得る。
対象者のバイタルサインに関連する成分は、周期的成分を含む可能性があり、方法は、周期的成分のセグメンテーションを決定するステップをさらに含む。周期的成分のセグメンテーションを決定するステップは、周期的成分内の周期の間のテンプレートの時間パターンを決定することと、決定されたテンプレートの時間パターンに基づいて周期的成分のセグメンテーションを決定することとを含む可能性がある。対象者の感情の状態を判定するステップは、周期的成分のセグメンテーションに少なくとも部分的に基づく可能性がある。周期的成分は、心拍成分及び呼吸成分のうちの少なくとも一方を含む可能性がある。
心拍成分を決定することは、運動に基づく生理学的信号の2次導関数を決定することを含む可能性がある。方法は、運動に基づく生理学的信号に帯域通過フィルタを適用することを含む、心拍成分を決定するステップを含む可能性がある。方法は、運動に基づく生理学的信号に低域通過フィルタを適用することを含む、呼吸成分を決定するステップを含む可能性がある。対象者の感情の状態を判定するステップは、対象者に関連する運動に基づく生理学的信号から決定された1又は2以上の特徴に感情分類器を適用することを含む可能性がある。対象者の感情の状態を判定するステップは、周期的成分の決定されたセグメンテーションから決定された1又は2以上の特徴に感情分類器を適用することを含む可能性がある。
方法は、第1の覚醒度の次元及び第2の感情価の次元を含む2次元グリッド内に感情の状態を提示するステップを含む可能性がある。対象者に関連する運動に基づく生理学的信号は、加速度計の測定に関連付けられる可能性がある。対象者に関連する運動に基づく生理学的信号は、超音波測定に関連付けられる可能性がある。対象者に関連する運動に基づく生理学的信号は、無線周波数に基づく測定に関連付けられる可能性がある。対象者に関連する運動に基づく生理学的信号は、ビデオに基づく測定に関連付けられる可能性がある。
上述のように、人の感情を推測するための既存の手法は、概して、画像及びオーディオクリップなどの視聴覚的手掛かりに依拠するか、又は人がECGモニタのような生理学的センサを身につけることを必要とする。これらの既存の手法の両方に関連する制限が存在する。
特に、現在の視聴覚的技術は、感情の表出を利用するが、内面の感情を測定しない。例えば、人は、たとえ笑っていないとしても幸せである可能性があり、又はたとえ幸せでないとしても笑っている可能性がある。また、人々は、それらの人の内面の感情を示す際にどれだけ表現豊かかに大きな違いがあり、このことがこの問題をさらに複雑にしている。体に付けるセンサを使用して生理学的信号(例えば、心拍)を監視することは、手法が自律神経系と心拍リズムとの間の相互作用を考慮に入れるので、対象者の内面の感情を測定する改善された手法である。しかし、これらの信号を測定するために体に付けるセンサ(例えば、ECGモニタ)を使用することは、煩わしく、ユーザの活動及び感情を妨げる可能性があり、この手法を常用に適さなくする。
本明細書において説明される態様は、対象者がそれらの対象者の体にセンサを付けることを必要とせずに生理学的信号を直接測定し、それから、測定された生理学的信号を使用して対象者の感情を推定する。一部の態様において、手法は、生理学的信号(及び生理学的信号に関連する感情)を感知するために無線周波数(RF,radio frequency)信号を使用する。特に、RF反射信号は、人の体に反射し、呼吸に関連する動き及び心拍に関連する動きを含む体の動きによって変調される。
RF反射信号の心拍成分の個々の心拍が抽出され得る場合、個々の鼓動の長さ及び/又は形状の微小な変動が、対象者の感情を推定するために使用される。しかし、RF反射信号から個々の心拍を抽出することに関連するいくつかの課題がある。例えば、RF反射信号は、対象者の呼吸と対象者の心拍との両方によって変調され、概して、呼吸の影響は、呼吸に関連する運動が個々の心拍をマスクするように心拍の影響よりも数桁大きい。呼吸を心拍数と分けるために、過去のシステムは、周波数領域において数秒にわたって動作し、鼓動毎の変動性を測定する能力なしで済ませる。
さらに、RF反射信号内の心拍に関連する特徴(本明細書においては概して「心拍」と呼ばれる)は、ECG信号を特徴づける鋭いピークがなく、鼓動の境界を正確に特定することをより難しくする。
最後に、心拍間隔(IBI,inter-beat interval)の違いは、数十ミリ秒に過ぎない。したがって、個々の鼓動が、数ミリ秒以内にセグメント分けされなければならない。そのような精度を得ることは、心拍の始まり又は終わりを特定する鋭いピークがない場合、特に難しい。
態様は、これらの課題に対処して、人の体からのRFの反射を使用して感情認識を実行するワイヤレスシステムを可能にする。態様は、RF反射信号から個々の心拍及び個々の心拍の間の変動を抽出するためのアルゴリズムを利用する。一部の態様において、アルゴリズムは、まず、RF反射信号内の呼吸の影響を軽減する。一部の例において、軽減メカニズムは、息を吸う−息を吐くプロセスが原因である胸の変位が心拍によって引き起こされる微小な振動よりも数桁大きい一方、呼吸が原因である運動の加速度は心拍が原因である運動の加速度よりも著しく小さいという認識に基づく。つまり、呼吸が通常ゆっくりで安定している一方で、心拍は局所的な瞬間の心筋の速い収縮をともなう。したがって、態様は、呼吸信号を抑制し、心拍を強調するためにRF反射信号の加速度によって動作する。
そして、態様は、RF反射信号を個々の心拍にセグメント分けする。知られている予想される形状を有するECG信号とは対照的に、RF反射信号内の心拍の形状は、未知であり、対象者の体及びデバイスに対する厳密な姿勢に依存して変わる。したがって、態様は、セグメンテーションが行われるとき、鼓動の形状を学習することを求められる。そのようにするために、同時最適化(joint optimization)アルゴリズムが2つの部分問題の間で反復され、第1の部分問題が、特定のセグメンテーションを前提として心拍のテンプレートを学習し、一方、第2の部分問題は、学習されたテンプレートとの類似性を最大化するセグメンテーションを見つける。最適化アルゴリズムは、最適な鼓動のテンプレート及びテンプレートとの類似性を最大化する最適なセグメンテーションに収束するまで2つの部分問題の間の反復を継続する。
セグメンテーションは、鼓動が縮む及び伸びる可能性があり、したがって、鼓動の長さが変動する可能性があることを考慮に入れる。したがって、アルゴリズムは、鼓動信号の柔軟なワーピング(warping)(収縮又は伸張)を許容しながら、連続した鼓動の間の心拍信号の形態の類似度を最大化する鼓動のセグメンテーションを見つける。
特定の態様は、決定されたセグメンテーションを感情分類サブシステムに与える。感情分類サブシステムは、心拍に基づく特徴及び呼吸に基づく特徴を計算し、サポートベクターマシン(SVM,support vector machine)分類器を使用してさまざまな感情の状態を区別する。
態様は、以下の利点のうちの1又は2以上を有する可能性がある。
その他の利点の中でもとりわけ、態様は、有利なことに、RF反射信号から心拍を正確に抽出することができる。特に、心拍間隔を推定する際の40〜50ミリ秒の誤差でさえも、感情認識の正確さを大きく損なう。対照的に、態様は、3.2ミリ秒の心拍間隔(IBI)の平均誤差を達成することができ、この平均誤差は、平均的な鼓動の長さの0.4%未満である。
態様は、対象者の体から反射されたワイヤレス信号に頼ることによって対象者の感情を認識する。
態様は、RFの反射から人の心拍全体を復元し、したがって、非侵襲的な健康状態の監視及び診断に関連して使用され得る。
態様は、純粋にユーザの体から反射されたワイヤレス信号に頼ることによって、ユーザがいかなるセンサを身につけることも必要とせずに生理学的信号を捕捉する。
感情認識システムのブロック図である。 図1のシステムの運動信号獲得モジュールのブロック図である。 対象者の生理学的運動を表す信号の例の図である。 図1のシステムの運動信号処理モジュールのブロック図である。 図3の信号の心拍成分の例の図である。 図3の信号の呼吸成分の例の図である。 心拍セグメンテーションアルゴリズムの擬似コードの記述の図である。 図5の心拍成分のセグメンテーションの図である。 図5の心拍成分から決定された心拍のテンプレートの図である。 2次元感情グリッドの図である。
図1を参照すると、感情認識システム100が、対象者104の生理学的運動を表す信号を獲得し、獲得された信号を処理して対象者の感情の状態112を推測する。システム100は、対象者104の生理学的運動に関連する信号の獲得のための運動信号獲得モジュール102と、運動信号処理モジュール106と、心拍セグメンテーションモジュール107と、特徴抽出モジュール108と、対象者の感情の状態112を分類するための感情分類モジュール110とを含む。
1 信号の獲得
図1の例において、対象者の体は、対象者の呼吸と対象者の心臓の鼓動との両方が原因で動く。運動信号獲得モジュール102は、対象者の体の運動(又は任意のその他の生理学的運動)を感知し、対象者の体の運動を表す信号(例えば、電気信号)φ(t)を生じさせる1又は2以上のトランスデューサ(図示せず)を含む。
図2を参照すると、一部の例において、運動信号獲得モジュール102は、ワイヤレス感知技術を使用して対象者の体の運動を表す信号を生じさせる。ワイヤレス感知技術は、息を吸うこと及び息を吐くことによる胸の動き並びに心拍による体の振動を含む環境内の運動によってワイヤレス信号の特徴が影響を受けるという事実を利用する。特に、ワイヤレス感知システムは、環境内の対象者104を含む対象者に反射するワイヤレス信号を放つ(環境内に2人以上の対象者がいる可能性があることに留意されたい)。そして、反射された信号が、運動感知獲得モジュール102において受信される。環境内の対象者104が呼吸をするので、及びそれらの対象者104の心臓が鼓動するので、ワイヤレス感知システムによって受信される反射されたワイヤレス信号によって移動される距離が変化する。ワイヤレス感知システムは、飛行時間(TOF,time-of-flight)(「往復遅延時間」とも呼ばれる)を使用してシステムのアンテナと(1又は2以上の)対象者104との間の距離を監視する。
図2において、運動信号獲得モジュール102は、周波数変調連続波(FMCW)ワイヤレス感知と呼ばれる特定のワイヤレス感知技術を実装する。運動感知信号獲得モジュールは、送信アンテナ114と、受信アンテナ116と、コントローラ118、FMCW信号ジェネレータ120、周波数シフトモジュール122、及び位相信号抽出モジュール124を含むいくつかの信号処理構成要素とを含む。
動作中、コントローラ118は、FMCW信号ジェネレータ120に信号パターン(例えば、周波数掃引信号パターン)の繰り返しを生じさせる。繰り返される信号パターンが、送信アンテナ114に与えられ、送信アンテナ114からモジュール102の周りの環境に送信される。送信された信号は、1又は2以上の対象者104並びに/又は環境内の壁及び家具などのその他の物体105に反射し、それから、受信アンテナ116によって受信される。受信された反射された信号は、FMCW信号ジェネレータ120によって生じさせられた送信された信号と一緒に周波数シフトモジュール122に与えられる。周波数シフトモジュール122は、(例えば、信号を乗算することによって)送信された信号に応じて受信された信号を周波数シフト(例えば、「ダウンコンバート」又は「ダウンミックス」)し、(例えば、高速フーリエ変換(FFT,Fast Fourier Transform)によって)周波数シフトされた受信された信号を周波数領域の表現に変換し、周波数の離散的な組ωにおける周波数シフトされた受信された信号の周波数領域の表現S(ω)をもたらす。
周波数シフトされた信号の周波数領域の表現S(ω)は、S(ω)を処理して1又は2以上の位相信号φ(t)を抽出する位相信号抽出モジュール124に与えられる。一部の例において、位相信号抽出モジュール124は、周波数シフトされた信号S(ω)を処理して、それらの信号の反射時間に基づいて環境内の物体及び/又は対象者からの反射信号を空間的に分ける。一部の例において、位相信号抽出モジュール124は、静的なオブジェクト(つまり、時間の経過とともに動かない物体)からの反射を除去する。
図2に示される例においては、代表的な対象者104に反射する、送信アンテナ104と受信アンテナ106との間の経路112が示される。一定の信号伝播速度c(すなわち、光速)を仮定して、座標(x,y,z)の対象者に反射し、座標(x,y,z)の受信アンテナにおいて受信された座標(x,y,z)の送信アンテナからの飛行時間(TOF)は、
のように表され得る。この場合、アンテナの単一のペアによって、経路112に関連するTOFは、対象者104の位置を、経路の送信アンテナ及び受信アンテナの3次元座標とTOFから決定される経路の距離とによって定義される楕円体上にあるように拘束する。
上述のように、送信アンテナ及び受信アンテナのペアからの楕円体の距離は、息を吸うこと及び息を吐くことによる対象者の胸の動き並びに心拍による体の振動とともに変わる。アンテナ114、116と対象者104との間の変化する距離は、次のように、時間とともに変わる位相として反射された信号に表される。
ここで、φ(t)は、信号の位相であり、λは、波長であり、d(t)は、移動される距離であり、tは、時間変数である。信号の位相φ(t)は、対象者の体の運動を表す信号として運動信号獲得モジュール102から出力される。
上述のFMCWに基づく運動感知技術のさらなる詳細は、2015年4月28日に出願し、国際公開第2015168093号パンフレットとして公開された、VITAL SIGNS MONITORING VIA RADIO REFLECTIONSと題したPCT出願PCT/US2015/027945号明細書に見つけられる可能性があり、この出願は、参照により本明細書に組み込まれる。
図3を参照すると、信号獲得モジュール102によって獲得された対象者の体の運動を表す信号φ(t)の一例は、対象者が息を吸い、息を吐くときのその対象者の胸の変位が原因である比較的大きな呼吸成分(つまり、約0.25Hzの周波数の正弦波成分)を有する。位相信号の心拍成分は、呼吸成分を変調する小さな変動として現れ、小さな変動は、対象者の心拍及び血液の脈動に関連する微小な体の振動によって引き起こされる。
2 運動信号の処理
再び図1を参照すると、運動信号処理モジュール106は、運動信号獲得モジュール102から対象者の運動を表す信号φ(t)を受信し、対象者の運動を表す信号を処理して信号の心拍成分φ″(t)を信号の呼吸成分φ(t)と分ける。
図4を参照すると、運動信号処理モジュールは、対象者の運動を表す信号φ(t)を処理して信号の心拍成分φ″(t)を分離する微分器442と、信号の呼吸成分φ(t)を分離するための低域通過フィルタ440とを含む。
呼吸成分は心拍成分よりも数桁大きいので、心拍成分との呼吸成分の分離。心拍成分φ″(t)を分離するために、運動信号処理モジュール106は、呼吸運動の加速度が心拍運動の加速度よりも小さいという事実を利用する。これは、呼吸が通常ゆっくりで安定している一方で、心拍が心筋の速い収縮をともなうためである。したがって、運動信号処理モジュール106は、加速度信号を決定することによって心拍成分に対して相対的な信号の呼吸成分の影響を小さくするための微分器442を含む。特に、微分器442は、対象者の運動を表す信号の2次導関数φ″(t)を計算する。
一部の例においては、φ(t)の解析的表現が利用可能でなく、2次導関数φ″(t)を計算するために数値的方法が使用される。一部の例においては、雑音に対するその堅牢性のために、微分器442は、次の2階微分器を実装する。
ここで、
は、特定のサンプルにおける2次導関数を指し、fは、iサンプル離れた時系列の値を指し、hは、連続するサンプルの間の時間間隔である。
図5を参照すると、微分器442によって出力される加速度信号φ″(t)の一例が、微分器442に、上述の2階微分器を対象者の運動を表す信号φ(t)に適用させることによって決定される。結果として得られる加速度信号φ″(t)において、心拍が原因である信号成分は、心拍に関連する運動の加速度が対象者の呼吸に関連する運動の加速度よりもかなり大きいために突出している。一部の例において、運動信号処理モジュール106は、信号内にある雑音をやはり削減しながら心拍に関連する信号成分を分離するために帯域通過フィルタを使用する。
再び図4を参照すると、低域通過フィルタ440は、対象者の運動を表す信号φ(t)の呼吸成分φ(t)を分離するために使用される。特に、呼吸成分は心拍成分と比べて圧倒的に周波数が低いので、呼吸成分φ(t)を実質的にそのまま残しながら対象者の運動を表す信号φ(t)から心拍成分を実質的に除去するために低域通過フィルタが使用され得る。
信号の心拍成分(すなわち、加速度信号)φ″(t)及び信号の呼吸成分φ(t)は、運動信号処理モジュール106から出力として提供される。図6を参照すると、低域通過フィルタ440によって出力される呼吸成分φ(t)の一例において、比較的高い周波数の心拍成分が、対象者の運動を表す信号φ(t)から実質的に取り除かれる一方、呼吸成分φ(t)は、実質的にそのままである。
3 心拍のセグメンテーション
再び図1を参照すると、信号の心拍成分φ″(t)が、心拍成分に関する最適なセグメンテーションを決定する心拍セグメンテーションモジュール107に与えられる。上述のように、感情を分類する一部の手法は、対象者の感情の状態を分類するために対象者の心拍間隔の小さな変動を利用する。心拍信号内の心拍の形態(例えば、時間パターン又は形状)は、(システム100に対する対象者の位置及び姿勢などの要因が原因で)未知であるので、心拍セグメンテーションモジュール107は、心拍の形態を一緒に決定し、心拍をセグメント分けする最適化アルゴリズムを使用する。結果として得られるセグメンテーション
は、特徴の中でもとりわけ、上述の心拍間隔の小さな変動を特定するために使用される。
最適化アルゴリズムは、連続する人の心拍が同じ形態を有するという仮定に基づく。つまり、個々の心拍運動は、異なる鼓動の長さが原因で伸びるか又は縮む可能性があるが、すべて似た全体の形状を有する。この仮定を念頭に置いて、アルゴリズムは、心拍の形状が事前に知られておらず、心拍が縮むか又は伸びる可能性があるという事実を考慮しながら心拍の間の形状の違いを最小化するセグメンテーションを決定する。アルゴリズムは、以下で説明されるように、加速度信号φ″(t)のすべての可能なセグメンテーションに関する最適化問題として定式化される。
x = (x1, x2,…, xn)が長さnのシーケンスを表すものとする。xのセグメンテーションS = {s1, s2,…}は、重なり合わない切れ目のない部分シーケンス(つまり、セグメント)へのxの区分けであり、各セグメントsは、|s|個の点を含む。各心拍を特定するために、セグメントが互いに最も似ているセグメンテーションが特定される(つまり、セグメント間の変動が最小化される)。統計的な分散はスカラ又は同じ次元を有するベクトルに関してのみ定義されるので、異なる長さを有するベクトルに関する定義が、セグメントS = {s1, s2,…}の分散が
であるように拡張され、ここで、ω(μ,|s|)は、長さ|s|へのμの(例えば、3次スプライン補間による)線形ワーピングである。
上述の定義は、すべてのセグメントが同じ長さを有するとき、統計的な分散と同じであることに留意されたい。上の定義において、μは、すべてのセグメントの中心傾向(central tendency)(つまり、鼓動の形状又は形態に関するテンプレート)を表す。
アルゴリズムは、セグメントの分散を最小化する最適なセグメンテーションSを決定し、正式には次のように示され得る。
最適なセグメンテーションの上述の表現に基づいて、最適化問題は、
bmin ≦ |si| ≦ bmax, si ∈ S
という制約条件の下での
のように書き換えられ、ここで、bmin及びbmaxは、各心拍サイクルの長さに対する制約である。
最適化問題は、セグメントとテンプレートとの間の2乗差の合計を最小化する最適なセグメンテーションS及びテンプレート(つまり、形態)μを決定しようと試みる。この最適化問題は、Sに対する組合せ最適化とμに対する数値最適化との両方を含む。すべての可能なセグメンテーションを網羅的に探索することは、指数関数的複雑性を有する。
この指数関数的複雑性を避けるために、アルゴリズムは、セグメンテーションS及びテンプレートμを同時に推定するのではなく、セグメンテーションの更新とテンプレートの更新とを交互に行う。各反復の間に、アルゴリズムは、現在のテンプレートを前提としてセグメンテーションを更新し、それから、新しいセグメンテーションを前提としてテンプレートを更新する。これらの2つの部分問題の各々に関して、アルゴリズムは、線形の時間計算量(time complexity)で大域的最適条件を得る。
図7を参照すると、心拍セグメンテーションアルゴリズムの擬似コードの記述は、n個のデータサンプルのシーケンスx及び許容される心拍数の範囲Bを入力として受け取る。心拍セグメンテーションアルゴリズムは、いくつかのセグメントS及び長さmのテンプレートμを含む出力を生じさせる。
擬似コードの記述の1行目において、μを表すベクトルが、すべてゼロを含むように初期化される。擬似コードの記述の2行目において、反復の数lがゼロに初期化される。擬似コードの記述の3〜7行目において、アルゴリズムが収束するまでセグメンテーションS及びテンプレートμが反復して更新されるループが実行される。特に、擬似コードの記述の4行目において、更新されたセグメンテーションSl+1が、データサンプルのシーケンスx及びテンプレートの最も最近更新されたバージョンμに対してUPDATESEGMENTATIONプロシージャを呼び出すことによって決定される。擬似コードの記述の5行目において、テンプレートの更新されたバージョンμl+1が、データサンプルのシーケンスx及びセグメンテーションの最も最近更新されたバージョンSl+1に対してUPDATETEMPLATEプロシージャを呼び出すことによって決定される。擬似コードの記述の5行目において、反復の数lがインクリメントされる。アルゴリズムが収束するまで、UPDATESEGMENTATIONプロシージャ及びUPDATETEMPLATEプロシージャが繰り返し呼び出される。アルゴリズムが収束すると、最終的なセグメンテーションS及び最終的なテンプレートμが、擬似コードの記述の8行目において返される。
擬似コードの記述の9〜16行目を参照すると、UPDATESEGMENTATIONプロシージャが、n個のデータサンプルのシーケンスx及びテンプレートμを入力として受け取る。プロシージャは、次のように決定される第nのセグメンテーションSを返す。
可能なセグメンテーションの数はxの長さとともに指数関数的に増えるが、上述の最適化問題は、動的プログラミングを使用して効率的に解かれる。動的プログラムのための再帰的関係は、次の通りである。Dが、セグメンテーションシーケンスx1:tの最小コストを表す場合、
であり、ここで、τt,Bは、セグメントの長さの制約に基づくτの可能な選択肢を規定する。式6に基づく動的プログラムの時間計算量はO(n)であり、大域的最適条件が保証される。
擬似コードの記述の17〜19行目を参照すると、UPDATETEMPLATEプロシージャが、n個のデータサンプルのシーケンスx及びセグメンテーションSを入力として受け取る。プロシージャは、更新されたテンプレートμを返す。更新されたテンプレートは、
として決定され、ここで、mは、テンプレートの必要とされる長さである。上述の最適化問題は、次の閉形式解を有する加重最小自乗である。
図8を参照すると、加速度信号に上述のアルゴリズムを適用した結果は、セグメント分けされた加速度信号Sである。図9を参照すると、上述のアルゴリズムによって加速度信号から発見された心拍の形態が示される。
4 特徴の抽出
セグメント分けされた加速度信号及び呼吸信号は、特徴抽出モジュール108に与えられ、特徴抽出モジュール108が、心拍信号の決定された形態及びセグメンテーション並びに呼吸信号を使用して感情分類モジュール110による使用のために特徴を決定する。
一部の例において、特徴抽出モジュール108は、Mean、Median、SDNN、PNN50、RMSSD、SDNNi、meanRate、sdRate、HRVTi、及びTINNなどの時間領域の特徴を抽出する。一部の例において、特徴抽出モジュール108は、Welch PSD(LH/HF、peakLF、peakHF)、BurgPSD(LF/HF、peakLF、peakHF)、Lomb−Scargle PSD:LF/HF、peakLF、peakHF)などの周波数領域の特徴を抽出する。一部の例において、特徴抽出モジュール108は、SD、SD、SD/SDなどのポアンカレの特徴(Poincare feature)を抽出する。一部の例において、特徴抽出モジュール108は、SampEn、SampEn、DFAall、DFA、及びDFAなどの非線形の特徴を抽出する。
一部の例において、特徴抽出モジュール108は、呼吸の不規則さなどの呼吸の特徴を抽出する。そのようにするために、特徴抽出モジュール108は、呼吸成分φ(t)内のピーク検出によって各呼吸サイクルを特定する。それから、特徴抽出モジュール108は、上述の特徴の一部又はすべてを使用して呼吸の変動性を測定する。
5 感情の分類
再び図1を参照すると、特徴抽出モジュール108によって抽出される特徴が、感情分類モジュール110に与えられ、感情分類モジュール110は、例えば、対象者の感情112の分類を生じさせるための感情モデルによって特徴を処理する。
一部の例において、感情分類モジュール110は、感情価軸及び覚醒度軸を有する感情モデルを実装する。非常に広く言えば、感情モデルは、4つの基本的な感情の状態、すなわち、悲しみ(否定的感情価及び否定的覚醒度)、怒り(否定的感情価及び肯定的覚醒度)、満悦(肯定的感情価及び否定的覚醒度)、並びに歓喜(肯定的感情価及び肯定的覚醒度)に分類する。例えば、図8を参照すると、2D感情グリッド830が、感情モデルによって生じさせられたいくつかの例示的な感情分類結果を含む。第1の感情分類結果832は、肯定的覚醒度値及び否定的感情価を有し、したがって、怒りの感情の状態を有する対象者を示す。第2の感情分類結果834は、肯定的覚醒度値及び肯定的感情価値を有し、したがって、歓喜の感情の状態を有する対象者を示す。第3の感情分類結果836は、否定的覚醒度値及び否定的感情価値を有し、したがって、悲しみの感情の状態を有する対象者を示す。第4の感情分類結果838は、否定的覚醒度値及び肯定的感情価値を有し、したがって、満悦の感情の状態を有する対象者を示す。
一部の例において、感情分類モジュール110の感情モデルは、1組の訓練データを使用して対象者の感情を2D感情グリッドに分類するように訓練される。一部の例において、1組の訓練データは、いくつかの対象者から測定された特徴のいくつかの組を含み、特徴の各組は、2D感情グリッド内の知られている感情の状態に関連付けられる。感情分類モジュール110は、機械学習技術を使用して、訓練データを分析し、特徴の組と感情の状態との間の統計的な関係に基づいて感情モデル(例えば、サポートベクターマシン(SVM)分類器モデル)を訓練する。感情モデルが訓練されると、感情分類モジュール110は、特徴抽出モジュール108から対象者に関する抽出された特徴を受け取り、抽出された特徴に感情モデルを適用することによって対象者の感情を予測することができる。感情分類システム及び方法に関連するさらなる詳細は、例えば、J. Kim and E. Andre. “Emotion recognition based on physiological changes in music listening. Pattern Analysis and Machine Intelligence,” IEEE Transactions on, 30(12):2067-2083, 2008及びP. J. Lang. “The emotion probe: studies of motivation and attention.” American psychologist, 50(5):372, 1995に見つけられる可能性があり、これらの文献の内容は、参照により本明細書に組み込まれる。
一部の例において、特徴抽出モジュール108によって抽出される特徴は、同じ感情の状態に関して対象者毎に異なる。さらに、それらの特徴は、異なる日の同じ対象者に関して異なる可能性がある。そのような変動は、その日のカフェインの摂取、睡眠、及び基本的な気分を含む複数の要因によって引き起こされる可能性がある。モデルがユーザに依存せず、時間に依存しないことを保証するために、感情分類モジュール110は、基本的な感情の状態、中立を組み込む。つまり、感情分類モジュール110は、絶対的な値ではなく生理学的特徴の変化を利用する。したがって、一部の例において、感情分類モジュール110は、各特徴に関して、所与の日に所与の人に関して中立の状態で計算されたその特徴の対応する値を引くことによって、計算された特徴を較正する。この較正は、感情分類モジュール110によって使用される感情モデルに組み込まれる可能性があり、及び/又は抽出された特徴が感情モデルに供給される前にそれらの抽出された特徴に適用される前処理ステップの一部である可能性がある。
一部の例において、限られた量の訓練データとともに上で列挙された特徴のすべてを使用することは、過学習につながる可能性がある。この理由により、一部の例において、感情分類モジュール110は、感情に最も関連性がある1組の特徴を選択する。この選択は、訓練のために必要とされるデータの量を減らすだけでなく、試験データに対する分類の正確さも高められる。一部の例において、感情分類モジュール110は、感情モデルを訓練しながら、どの特徴が感情モデルの正確さに最も寄与するのかを学習する。一部の例において、この学習は、感情モデルを訓練しながら関連する特徴のサブセットを選択するl1−SVMを使用して達成される。
6 代替実施形態
上述の実施形態は対象者の体(例えば、皮膚若しくは内部構造、又は皮膚を覆う衣服)の運動を感知するために非接触RF感知を使用するが、その他の例において、信号獲得モジュール102は、対象者の体の運動を感知するために(直接、又は対象者の体の上の衣服若しくは身につけられるアクセサリを介して)対象者の体に接続された加速度計を使用することが留意される。さらにその他の例において、信号獲得モジュール102は、運動(例えば、対象者の血管系内の血液の運動)を感知するために超音波測定技術を使用する。任意の数のその他の好適な手法が、対象者の生理機能に関連する運動を感知するために使用され得ることを理解されたい。概して、運動信号獲得モジュール102は、運動信号獲得モジュール102によって出力された信号がシステム100の下流のモジュールによって使用され得るように、例えば、信号をフィルタリング、増幅、及びサンプリングすることによって対象者の体の運動を表す信号を整える。
上述のシステムは、単一の信号パターン(例えば、周波数掃引信号パターン)の繰り返しを送信することを含むFMCWワイヤレス感知技術を使用する。しかし、一部の例において、システムは、各送信が(システムに事前に知られている)異なる信号パターンを含むようにして繰り返し送信を実行することが留意される。例えば、各送信は、事前に知られている擬似ランダム雑音信号パターンを含む可能性がある。各信号パターンがシステムに事前に知られているので、システムは、送信された事前に知られている信号を送信された信号の受信された反射と比較することによって(例えば、知られている信号と送信された信号の受信された反射との相互相関によって)飛行時間などの情報を決定することができる。
生理学的運動を表す信号は、任意の数の異なる種類の生理学的運動を表す可能性があることが留意される。例えば、信号は、対象者の皮膚の動きなどの巨視的な生理学的運動を表す可能性がある。信号は、対象者の血管系を通じた血液の動きなどのより小さな生理学的運動を表す可能性もある。例えば、対象者の皮膚の中及び対象者の皮膚に近い血管系への及び血管系からの血液の動きが原因である対象者の皮膚の色合いの小さな変化を特定するために、対象者のビデオ記録(つまり、ビデオカメラを使用して撮影された記録)が分析され得る。そして、対象者の皮膚の色合いの観察された変化が、対象者の感情を推測するために使用され得る。
一部の例において、システムは、認知状態分類器(例えば、サポートベクターマシンに基づく認知状態分類器)を使用して対象者の認知状態(例えば、困惑、注意散漫、注意深さなどの度合い)を判定するように構成される。認知状態分類器は、対象者に関連する運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションに少なくとも部分的に基づいて対象者の認知状態を分類する。
一部の例において、対象者の心拍の特徴は、対象者に関連する運動に基づく生理学的信号の心拍成分から抽出され、心機能にマッピングされる。一部の例において、特徴は、心拍成分のピーク、谷、及び変曲点のうちの1又は2以上を含む。
7 実施形態
上述の技術を実装するシステムは、ソフトウェア、ファームウェア、デジタル電子回路、若しくはコンピュータハードウェア、又はそれらの組合せに実装され得る。システムは、プログラミング可能なプロセッサによって実行するために機械可読ストレージデバイス内に有形で具現化されたコンピュータプログラム製品を含む可能性があり、方法のステップは、入力データに対して演算を行い、出力を生じさせることによって機能を実行する命令のプログラムをプログラミング可能なプロセッサが実行することによって実行される可能性がある。システムは、データストレージシステム、少なくとも1つの入力デバイス、及び少なくとも1つの出力デバイスからデータ及び命令を受信し、それらにデータ及び命令を送信するために接続された少なくとも1つのプログラミング可能なプロセッサを含むプログラミング可能なシステム上で実行可能な1又は2以上のコンピュータプログラムに実装される可能性がある。各コンピュータプログラムは、必要に応じて、高水準手続型若しくはオブジェクト指向プログラミング言語で、又はアセンブリ若しくは機械語で実装される可能性があり、いずれの場合も、言語は、コンパイル型又はインタープリタ型言語である可能性がある。好適なプロセッサは、例として、汎用マイクロプロセッサと専用マイクロプロセッサとの両方を含む。概して、プロセッサは、読み出し専用メモリ及び/又はランダムアクセスメモリから命令及びデータを受け取る。概して、コンピュータは、データファイルを記憶するための1又は2以上の大容量ストレージデバイスを含み、そのようなデバイスは、内蔵ハードディスク及びリムーバブルディスクなどの磁気ディスク、光磁気ディスク、並びに光ディスクを含む。コンピュータプログラム命令及びデータを有形で具現化するのに好適なストレージデバイスは、例として、EPROM、EEPROM、及びフラッシュメモリデバイスなどの半導体メモリデバイス、内蔵ハードディスク及び取り外し可能なディスクなどの磁気ディスク、光磁気ディスク、並びにCD−ROMディスクを含むすべての形態の不揮発性メモリを含む。上記のいずれも、特定用途向け集積回路(ASIC,application-specific integrated circuit)によって補完されるか、又はASICに組み込まれ得る。
上記の説明は本発明の範囲を例示するように意図されており、限定するように意図されておらず、本発明の範囲は、添付の請求項の範囲によって画定されることを理解されたい。その他の実施形態は、添付の請求項の範囲内にある。

Claims (31)

  1. 対象者からの信号の反射を使用して、前記対象者の運動を表す運動に基づく生理学的信号を処理するための方法であって、
    送信要素から1又は2以上の送信信号パターンを含む無線周波数送信信号を放射するステップと、
    前記送信信号の複数の反射の組合せを含む無線周波数受信信号を1又は2以上の受信要素において受信するステップであって、前記送信信号の前記複数の反射のうちの少なくとも一部の反射が、前記対象者に関連付けられる、ステップと、
    1又は2以上の運動に基づく生理学的信号を形成するために前記送信信号パターンの反射の時間的に連続したパターンを処理するステップであって、前記複数の反射のうちの少なくとも一部の反射に関して、前記受信信号内の前記送信信号の反射の経時的な変動から対象者の生理学的運動を表す運動に基づく生理学的信号を形成することを含む、ステップと、
    前記運動に基づく生理学的信号の心拍成分のセグメンテーションを決定するために前記1又は2以上の運動に基づく生理学的信号のサブセットのそれぞれの運動に基づく生理学的信号を処理するステップであって、
    前記心拍成分を決定すること、
    前記心拍成分内の心拍に関するテンプレートの時間パターンを決定すること、及び
    決定されたテンプレートの時間パターンに基づいて前記心拍成分のセグメンテーションを決定することを含む、ステップとを含む、方法。
  2. 送信信号が、単一の信号パターンの繰り返しを含む周波数変調連続波(FMCW)信号である請求項1に記載の方法。
  3. 1又は2以上の送信信号パターンが、1又は2以上の擬似ランダム雑音シーケンスを含む請求項1に記載の方法。
  4. 心拍成分を決定することが、運動に基づく生理学的信号の2次導関数を決定することを含む、前記運動に基づく生理学的信号に対する呼吸の影響を軽減することを含む請求項1に記載の方法。
  5. 心拍成分を決定することが、帯域通過フィルタを使用して運動に基づく生理学的信号をフィルタリングすることを含む、前記運動に基づく生理学的信号に対する呼吸の影響を軽減することを含む請求項1に記載の方法。
  6. 心拍成分内の心拍に関するテンプレートの時間パターンを決定すること、及び前記心拍成分のセグメンテーションを決定することが、前記心拍に関する前記時間パターン及び前記心拍成分の前記セグメンテーションを一緒に最適化することを含む請求項1に記載の方法。
  7. 対象者に関連する運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションに少なくとも部分的に基づいて前記対象者の認知状態を判定するステップをさらに含む請求項1に記載の方法。
  8. 対象者の認知状態が、困惑の状態、注意散漫の状態、及び注意深さの状態のうちの1又は2以上を含む請求項7に記載の方法。
  9. 対象者に関連する運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションに少なくとも部分的に基づいて前記対象者の感情の状態を判定するステップをさらに含む請求項1に記載の方法。
  10. 対象者の感情の状態を判定するステップが、1又は2以上の運動に基づく生理学的信号の呼吸成分にさらに基づく請求項9に記載の方法。
  11. 1又は2以上の運動に基づく生理学的信号に低域通過フィルタを適用することを含む、前記1又は2以上の運動に基づく生理学的信号の呼吸成分を決定するステップをさらに含む請求項9に記載の方法。
  12. 対象者の感情の状態を判定するステップが、運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションから決定された1又は2以上の特徴に感情分類器を適用することを含む請求項9に記載の方法。
  13. 対象者の感情の状態を判定するステップが、運動に基づく生理学的信号の心拍成分の決定されたセグメンテーションから決定された1又は2以上の特徴と、1又は2以上の運動に基づく生理学的信号の呼吸成分から決定された1又は2以上の特徴とに感情分類器を適用することを含む請求項10に記載の方法。
  14. 第1の覚醒度の次元及び第2の感情価の次元を含む2次元グリッド内に感情の状態を提示するステップをさらに含む請求項9に記載の方法。
  15. 運動に基づく生理学的信号が、受信信号内の送信信号の反射の位相角の経時的な変動から対象者の生理学的運動を表す請求項1に記載の方法。
  16. 運動に基づく生理学的信号の各々の心拍成分から特徴を抽出するステップと、抽出された特徴を1又は2以上の心機能にマッピングするステップとをさらに含み、前記特徴が、ピーク、谷、又は変曲点を含む請求項1に記載の方法。
  17. 対象者の感情の状態を判定するための方法であって、
    対象者に関連する運動に基づく生理学的信号を受信するステップであって、前記運動に基づく生理学的信号が、前記対象者のバイタルサインに関連する成分を含む、ステップと、
    前記対象者のバイタルサインに関連する前記成分に少なくとも部分的に基づいて前記対象者の感情の状態を判定するステップとを含む、方法。
  18. 対象者のバイタルサインに関連する成分が、周期的成分を含み、方法が、前記周期的成分のセグメンテーションを決定するステップをさらに含む請求項17に記載の方法。
  19. 周期的成分のセグメンテーションを決定するステップが、前記周期的成分内の周期の間のテンプレートの時間パターンを決定することと、決定されたテンプレートの時間パターンに基づいて前記周期的成分の前記セグメンテーションを決定することとを含む請求項18に記載の方法。
  20. 対象者の感情の状態を判定するステップが、周期的成分のセグメンテーションに少なくとも部分的に基づく請求項18に記載の方法。
  21. 周期的成分が、心拍成分及び呼吸成分のうちの少なくとも一方を含む請求項18に記載の方法。
  22. 運動に基づく生理学的信号の2次導関数を決定することを含む、心拍成分を決定するステップをさらに含む請求項21に記載の方法。
  23. 運動に基づく生理学的信号に帯域通過フィルタを適用することを含む、心拍成分を決定するステップをさらに含む請求項21に記載の方法。
  24. 運動に基づく生理学的信号に低域通過フィルタを適用することを含む、呼吸成分を決定するステップをさらに含む請求項21に記載の方法。
  25. 対象者の感情の状態を判定するステップが、前記対象者に関連する運動に基づく生理学的信号から決定された1又は2以上の特徴に感情分類器を適用することを含む請求項17に記載の方法。
  26. 対象者の感情の状態を判定するステップが、周期的成分の決定されたセグメンテーションから決定された1又は2以上の特徴に感情分類器を適用することを含む請求項20に記載の方法。
  27. 第1の覚醒度の次元及び第2の感情価の次元を含む2次元グリッド内に感情の状態を提示するステップをさらに含む請求項17に記載の方法。
  28. 対象者に関連する運動に基づく生理学的信号が、加速度計の測定に関連付けられる請求項17に記載の方法。
  29. 対象者に関連する運動に基づく生理学的信号が、超音波測定に関連付けられる請求項17に記載の方法。
  30. 対象者に関連する運動に基づく生理学的信号が、無線周波数に基づく測定に関連付けられる請求項17に記載の方法。
  31. 対象者に関連する運動に基づく生理学的信号が、ビデオに基づく測定に関連付けられる請求項17に記載の方法。
JP2018554449A 2016-04-18 2017-04-18 生理学的信号からの特徴の抽出 Pending JP2019515730A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662323928P 2016-04-18 2016-04-18
US62/323,928 2016-04-18
US201662403808P 2016-10-04 2016-10-04
US62/403,808 2016-10-04
PCT/US2017/028106 WO2018013192A2 (en) 2016-04-18 2017-04-18 Extraction of features from physiological signals

Publications (1)

Publication Number Publication Date
JP2019515730A true JP2019515730A (ja) 2019-06-13

Family

ID=60157076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018554449A Pending JP2019515730A (ja) 2016-04-18 2017-04-18 生理学的信号からの特徴の抽出

Country Status (5)

Country Link
US (1) US20170311901A1 (ja)
EP (1) EP3446248A2 (ja)
JP (1) JP2019515730A (ja)
CN (1) CN109416729A (ja)
WO (1) WO2018013192A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071800A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理装置及び感情誘導方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2017372454B2 (en) * 2016-12-06 2020-07-16 Nippon Telegraph And Telephone Corporation Signal feature extraction apparatus, signal feature extraction method, and program
US10159435B1 (en) * 2017-09-29 2018-12-25 Novelic D.O.O. Emotion sensor system
US10310073B1 (en) * 2018-02-07 2019-06-04 Infineon Technologies Ag System and method for determining engagement level of a human being using a millimeter-wave radar sensor
EP3883459A1 (en) 2018-11-20 2021-09-29 Massachusetts Institute of Technology Therapy monitoring system
CN109512441A (zh) * 2018-12-29 2019-03-26 中山大学南方学院 基于多元信息的情绪识别方法及装置
CN109685156B (zh) * 2018-12-30 2021-11-05 杭州灿八科技有限公司 一种用于识别情绪的分类器的获取方法
JP7001627B2 (ja) 2019-03-01 2022-01-19 Kddi株式会社 感情特定装置、感情特定方法及びメッセージ出力システム
TWI761671B (zh) * 2019-04-02 2022-04-21 緯創資通股份有限公司 活體偵測方法與活體偵測系統
CN110123342B (zh) * 2019-04-17 2021-06-08 西北大学 一种基于脑电波的网瘾检测方法及系统
CN110200640B (zh) * 2019-05-14 2022-02-18 南京理工大学 基于双模态传感器的非接触式情绪识别方法
CN110368005A (zh) * 2019-07-25 2019-10-25 深圳大学 一种智能耳机及基于智能耳机的情绪及生理健康监控方法
EP4013338A4 (en) 2019-08-12 2023-08-30 Bard Access Systems, Inc. FORM MEASUREMENT SYSTEMS AND PROCESSES FOR MEDICAL DEVICES
CN110619301B (zh) * 2019-09-13 2023-04-18 道和安邦(天津)安防科技有限公司 一种基于双模态信号的情绪自动识别方法
CN112826497A (zh) 2019-11-25 2021-05-25 巴德阿克塞斯系统股份有限公司 光学尖端追踪系统及其方法
US11525670B2 (en) * 2019-11-25 2022-12-13 Bard Access Systems, Inc. Shape-sensing systems with filters and methods thereof
US11832933B2 (en) 2020-04-20 2023-12-05 Emerald Innovations Inc. System and method for wireless detection and measurement of a subject rising from rest
US11622816B2 (en) 2020-06-26 2023-04-11 Bard Access Systems, Inc. Malposition detection system
EP4171373A1 (en) 2020-06-29 2023-05-03 Bard Access Systems, Inc. Automatic dimensional frame reference for fiber optic
CN216317552U (zh) 2020-07-10 2022-04-19 巴德阿克塞斯系统股份有限公司 用于检测医疗装置的光纤技术的损坏和潜在损坏的医疗装置系统
US11630009B2 (en) 2020-08-03 2023-04-18 Bard Access Systems, Inc. Bragg grated fiber optic fluctuation sensing and monitoring system
CN112957044A (zh) * 2021-02-01 2021-06-15 上海理工大学 一种基于双层神经网络模型的驾驶员情绪识别系统
CN113274022B (zh) * 2021-05-08 2022-07-01 南京邮电大学 一种匹配饮品咖啡因含量的音乐辅助调节情绪智能方法
CN116725538B (zh) * 2023-08-11 2023-10-27 深圳市昊岳科技有限公司 一种基于深度学习的手环情绪识别方法
CN116763312B (zh) * 2023-08-21 2023-12-05 上海迎智正能文化发展有限公司 一种基于可穿戴设备的异常情绪识别方法及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08146127A (ja) * 1994-11-22 1996-06-07 Tech Res & Dev Inst Of Japan Def Agency レーダ装置
JPH08280636A (ja) * 1995-04-14 1996-10-29 Agency Of Ind Science & Technol 加速度心拍計
JPH1080412A (ja) * 1996-09-10 1998-03-31 Omron Corp 生体情報処理装置、生体情報処理方法及び生体情報処理プログラム記憶媒体
JPH11113863A (ja) * 1997-10-09 1999-04-27 Seiko Epson Corp 心機能診断装置
JP2003310562A (ja) * 2002-04-15 2003-11-05 Samsung Electronics Co Ltd Ppgを用いた心拍検出装置及びその方法
JP2004003893A (ja) * 2002-06-03 2004-01-08 Japan Radio Co Ltd Fmcwレーダ装置
JP2004113329A (ja) * 2002-09-25 2004-04-15 Tanita Corp 枕型睡眠測定装置
JP2006006355A (ja) * 2004-06-22 2006-01-12 Sony Corp 生体情報の処理装置および映像音響再生装置
US20080221401A1 (en) * 2006-10-27 2008-09-11 Derchak P Alexander Identification of emotional states using physiological responses
JP2010286268A (ja) * 2009-06-09 2010-12-24 Kyushu Univ 信号ピーク測定システム
JP2014151010A (ja) * 2013-02-08 2014-08-25 Toyota Motor Corp 生体情報取得装置、生体情報取得方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4958638A (en) * 1988-06-30 1990-09-25 Georgia Tech Research Corporation Non-contact vital signs monitor
US20070191901A1 (en) * 2004-06-04 2007-08-16 Pacesetter, Inc. Quantifying systolic and diastolic cardiac performance from dynamic impedance waveforms
EP3616611B1 (en) * 2006-06-01 2020-12-30 ResMed Sensor Technologies Limited Apparatus, system, and method for monitoring physiological signs
US20100152600A1 (en) * 2008-04-03 2010-06-17 Kai Sensors, Inc. Non-contact physiologic motion sensors and methods for use
EP2274050A2 (en) * 2008-04-18 2011-01-19 Medtronic, Inc. Timing therapy evaluation trials
KR101025510B1 (ko) * 2009-06-10 2011-04-04 연세대학교 산학협력단 감성인식장치의 개인별 최적화시스템 및 그 최적화 방법
US20140221866A1 (en) * 2010-06-02 2014-08-07 Q-Tec Systems Llc Method and apparatus for monitoring emotional compatibility in online dating
US20130001422A1 (en) * 2011-06-29 2013-01-03 The Procter & Gamble Company Apparatus And Method For Monitoring The Condition Of A Living Subject
US20130197401A1 (en) * 2011-12-30 2013-08-01 Tomo Sato Optimization of ultrasound waveform characteristics for transcranial ultrasound neuromodulation
CN102874259B (zh) * 2012-06-15 2015-12-09 浙江吉利汽车研究院有限公司杭州分公司 一种汽车驾驶员情绪监视及车辆控制系统
WO2015168093A1 (en) * 2014-04-28 2015-11-05 Massachusetts Institute Of Technology Vital signs monitoring via radio reflections

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08146127A (ja) * 1994-11-22 1996-06-07 Tech Res & Dev Inst Of Japan Def Agency レーダ装置
JPH08280636A (ja) * 1995-04-14 1996-10-29 Agency Of Ind Science & Technol 加速度心拍計
JPH1080412A (ja) * 1996-09-10 1998-03-31 Omron Corp 生体情報処理装置、生体情報処理方法及び生体情報処理プログラム記憶媒体
JPH11113863A (ja) * 1997-10-09 1999-04-27 Seiko Epson Corp 心機能診断装置
JP2003310562A (ja) * 2002-04-15 2003-11-05 Samsung Electronics Co Ltd Ppgを用いた心拍検出装置及びその方法
JP2004003893A (ja) * 2002-06-03 2004-01-08 Japan Radio Co Ltd Fmcwレーダ装置
JP2004113329A (ja) * 2002-09-25 2004-04-15 Tanita Corp 枕型睡眠測定装置
JP2006006355A (ja) * 2004-06-22 2006-01-12 Sony Corp 生体情報の処理装置および映像音響再生装置
US20080221401A1 (en) * 2006-10-27 2008-09-11 Derchak P Alexander Identification of emotional states using physiological responses
JP2010286268A (ja) * 2009-06-09 2010-12-24 Kyushu Univ 信号ピーク測定システム
JP2014151010A (ja) * 2013-02-08 2014-08-25 Toyota Motor Corp 生体情報取得装置、生体情報取得方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071800A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 情報処理装置及び感情誘導方法
JP2023027783A (ja) * 2020-10-28 2023-03-02 株式会社日本総合研究所 情報処理装置及び感情誘導方法
JP7470171B2 (ja) 2020-10-28 2024-04-17 株式会社日本総合研究所 情報処理装置及び感情誘導方法

Also Published As

Publication number Publication date
WO2018013192A2 (en) 2018-01-18
EP3446248A2 (en) 2019-02-27
WO2018013192A3 (en) 2018-06-21
CN109416729A (zh) 2019-03-01
US20170311901A1 (en) 2017-11-02

Similar Documents

Publication Publication Date Title
JP2019515730A (ja) 生理学的信号からの特徴の抽出
TWI720215B (zh) 提供即時訊號分段和基準點對準架構的系統與方法
US10813559B2 (en) Detecting respiratory tract infection based on changes in coughing sounds
US9946942B2 (en) Method, apparatus and system for biometric identification
Gochoo et al. Monitoring real-time personal locomotion behaviors over smart indoor-outdoor environments via body-worn sensors
US10441180B2 (en) Episodical and continuous ECG monitoring
Sun et al. Contrast-phys: Unsupervised video-based remote physiological measurement via spatiotemporal contrast
US11896380B2 (en) Medical decision support system
Zhao et al. Towards low-cost sign language gesture recognition leveraging wearables
US11103140B2 (en) Monitoring blood sugar level with a comfortable head-mounted device
Zhao et al. PPG-based finger-level gesture recognition leveraging wearables
US20170273635A1 (en) Method and Apparatus for Heart Rate and Respiration Rate Estimation Using Low Power Sensor
Hu et al. Cyberphysical system with virtual reality for intelligent motion recognition and training
US10368765B2 (en) Wearable apparatus for ECG signal acquisition
Espinosa et al. Application of convolutional neural networks for fall detection using multiple cameras
Samyoun et al. Stress detection via sensor translation
Aleksic et al. State of the art of audio-and video-based solutions for AAL
Maiorana et al. Biowish: Biometric recognition using wearable inertial sensors detecting heart activity
Slapnicar et al. Contact-free monitoring of physiological parameters in people with profound intellectual and multiple disabilities
JP7301275B2 (ja) 睡眠状態推定システム
Pradhan et al. Emotion recognition through wireless signal
de Magalhães Feel my heart: Emotion recognition using the electrocardiogram
Alabsi et al. Emotion recognition based on wireless, physiological and audiovisual signals: A comprehensive survey
Takır et al. rPPG detection in children with autism spectrum disorder during robot-child interaction studies
Ma Towards a Contactless Vital Sign System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210301

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220905