JPWO2018109863A1 - 状態推定装置 - Google Patents

状態推定装置 Download PDF

Info

Publication number
JPWO2018109863A1
JPWO2018109863A1 JP2018556087A JP2018556087A JPWO2018109863A1 JP WO2018109863 A1 JPWO2018109863 A1 JP WO2018109863A1 JP 2018556087 A JP2018556087 A JP 2018556087A JP 2018556087 A JP2018556087 A JP 2018556087A JP WO2018109863 A1 JPWO2018109863 A1 JP WO2018109863A1
Authority
JP
Japan
Prior art keywords
pattern
unpleasant
information
reaction
discomfort
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018556087A
Other languages
English (en)
Other versions
JP6509459B2 (ja
Inventor
勇 小川
勇 小川
貴弘 大塚
貴弘 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6509459B2 publication Critical patent/JP6509459B2/ja
Publication of JPWO2018109863A1 publication Critical patent/JPWO2018109863A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01KMEASURING TEMPERATURE; MEASURING QUANTITY OF HEAT; THERMALLY-SENSITIVE ELEMENTS NOT OTHERWISE PROVIDED FOR
    • G01K13/00Thermometers specially adapted for specific purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Physiology (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Dentistry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)

Abstract

挙動情報と、予め格納された行動パターンとを照合し、一致する行動パターンを検出する行動検出部(104)と、挙動情報およびユーザの生体情報と、予め格納された反応パターンとを照合し、一致する反応パターンを検出する反応検出部(106)と、一致する行動パターンが検出された場合、または一致する反応パターンが検出され、且つ検出された反応パターンが予め格納されたユーザの不快状態を示す不快反応パターンと一致した場合に、ユーザが不快状態であると判定する不快判定部(108)と、検出された行動パターンに基づいて不快区間を推定するための推定条件を取得し、予め格納された履歴情報のうち取得した推定条件と一致する区間を不快区間と推定する不快区間推定部(110)と、履歴情報を参照し、推定された不快区間および不快区間以外の区間における反応パターンの発生頻度に基づいて不快反応パターンを取得して格納する学習部(109)とを備える。

Description

この発明は、ユーザの感情の状態を推定する技術に関するものである。
従来より、ウェアラブルセンサ等から取得される生体情報から、ユーザの感情の状態を推定する技術が存在する。推定されたユーザの感情は、例えばユーザの状態に応じて推奨されるサービスを提供するための情報として参照される。
例えば、特許文献1には、予め取得したユーザの生体情報と、当該生体情報に対応したユーザの感情情報と身体的状態とを格納した履歴蓄積データベースに基づいて生体情報と感情情報との関係を学習して身体的状態ごとに生体情報から感情情報を推定する推定器を機械学習によって生成し、ユーザの身体状態に対応した推定器を用いて検出されたユーザの生体情報から当該ユーザの感情情報を推定する感情情報推定装置が開示されている。
特開2013−73985号公報
上述した特許文献1の感情情報推定装置では、履歴蓄積データベースを構築するために、ユーザが生体情報に対応する自身の感情情報を入力する必要があり、ユーザにかかる入力操作の負担が大きく、利便性が低下するという課題があった。
また、機械学習により精度の高い推定器を得るためには、履歴蓄積データベースに情報が十分に蓄積されるまで推定器を適用することができないという課題があった。
この発明は、上記のような課題を解決するためになされたもので、ユーザが自身の感情の状態を入力することなく、またユーザの感情の状態を示す情報と身体的状態を示す情報とが蓄積されていない場合においても、ユーザの状態を推定することを目的とする。
この発明に係る発明の状態推定装置は、ユーザの動き情報、ユーザの音情報、およびユーザの操作情報とを含む挙動情報のうちの少なくともいずれか一つの情報と、予め格納された行動パターンとを照合し、一致する行動パターンを検出する行動検出部と、挙動情報およびユーザの生体情報と、予め格納された反応パターンとを照合し、一致する反応パターンを検出する反応検出部と、行動検出部が一致する行動パターンを検出した場合、または反応検出部が一致する反応パターンを検出し、且つ検出した反応パターンが予め格納されたユーザの不快状態を示す不快反応パターンと一致した場合に、ユーザが不快状態であると判定する不快判定部と、行動検出部が検出した行動パターンに基づいて不快区間を推定するための推定条件を取得し、予め格納された履歴情報のうち取得した推定条件と一致する区間を不快区間と推定する不快区間推定部と、履歴情報を参照し、不快区間推定部が推定した不快区間および不快区間以外の区間における反応パターンの発生頻度に基づいて不快反応パターンを取得して格納する学習部とを備えるものである。
この発明によれば、ユーザが自身の感情の状態を入力することなく、またユーザの感情の状態を示す情報と身体的状態を示す情報とが蓄積されていない場合においても、ユーザの状態を推定することができる。
実施の形態1に係る状態推定装置の構成を示すブロック図である。 実施の形態1に係る状態推定装置の行動情報データベースの格納例を示す図である。 実施の形態1に係る状態推定装置の反応情報データベースの格納例を示す図である。 実施の形態1に係る状態推定装置の不快反応パターンデータベースの格納例を示す図である。 実施の形態1に係る状態推定装置の学習用データベースの格納例を示す図である。 図6A、図6Bは、実施の形態1に係る状態推定装置のハードウェア構成例を示す図である。 実施の形態1に係る状態推定装置の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の環境情報取得部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の挙動情報取得部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の生体情報取得部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の行動検出部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の反応検出部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の不快判定部、不快反応パターン学習部および不快区間推定部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の不快反応パターン学習部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の不快区間推定部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の不快反応パターン学習部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の不快反応パターン学習部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の不快反応パターンの学習例を示す図である。 実施の形態1に係る状態推定装置の不快判定部の動作を示すフローチャートである。 実施の形態1に係る状態推定装置の不快状態の推定例を示す図である。 実施の形態2に係る状態推定装置の構成を示すブロック図である。 実施の形態2に係る状態推定装置の推定器生成部の動作を示すフローチャートである。 実施の形態2に係る状態推定装置の不快判定部の動作を示すフローチャートである。 実施の形態3に係る状態推定装置の構成を示すブロック図である。 実施の形態3に係る状態推定装置の不快反応パターンデータベースの格納例を示す図である。 実施の形態3に係る状態推定装置の不快判定部の動作を示すフローチャートである。 実施の形態3に係る状態推定装置の不快判定部の動作を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る状態推定装置100の構成を示すブロック図である。
状態推定装置100は、環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、行動情報データベース105、反応検出部106、反応情報データベース107、不快判定部108、学習部109、不快区間推定部110、不快反応パターンデータベース111および学習用データベース112を備える。
環境情報取得部101は、環境情報として、ユーザの周囲の温度情報および騒音の大きさを示す騒音情報を取得する。環境情報取得部101は、例えば温度センサが検出した情報を温度情報として取得する。環境情報取得部101は、例えばマイクが集音した音の大きさを示す情報を騒音情報として取得する。環境情報取得部101は、取得した環境情報を、不快判定部108および学習用データベース112に出力する。
挙動情報取得部102は、挙動情報として、ユーザの顔および体の動きを示す動き情報、ユーザの発話およびユーザが発した音を示す音情報、ユーザの機器の操作を示す操作情報を取得する。
挙動情報取得部102は、例えばカメラが撮像した撮像画像を解析して得られたユーザの表情、ユーザの顔の一部の動き、ユーザの頭、手、腕、足または上半身等の体の動きを示す情報を、動き情報として取得する。
挙動情報取得部102は、例えばマイクが集音した音声信号を解析して得られたユーザの発話内容を示す音声認識結果、およびユーザが発した音(例えば、舌打ちした際の音)を示す音認識結果を、音情報として取得する。
挙動情報取得部102は、タッチパネルまたは物理的スイッチが検出した、ユーザが機器を操作する情報(例えば、音量を上げるボタンを押した等を示す情報)を、操作情報として取得する。
挙動情報取得部102は、取得した挙動情報を、行動検出部104および反応検出部106に出力する。
生体情報取得部103は、生体情報として、ユーザの心拍変動を示す情報を取得する。生体情報取得部103は、例えばユーザが装着した心拍計等が計測したユーザの心拍変動を示す情報を、生体情報として取得する。生体情報取得部103は、取得した生体情報を反応検出部106に出力する。
行動検出部104は、挙動情報取得部102から入力された挙動情報と、行動情報データベース105に格納された行動情報の行動パターンとの照合を行う。行動検出部104は、挙動情報と一致する行動パターンが行動情報データベース105に格納されていた場合に、当該行動パターンに対応付けられた識別情報を取得する。行動検出部104は、取得した行動パターンの識別情報を不快判定部108および学習用データベース112に出力する。
行動情報データベース105は、ユーザの行動パターンを不快要因ごとに定義して格納したデータベースである。
図2は、実施の形態1に係る状態推定装置100の行動情報データベース105の格納例を示す図である。
図2で示した行動情報データベース105は、ID105a、不快要因105b、行動パターン105cおよび推定条件105dの項目で構成されている。
行動情報データベース105は、不快要因105bごとに、行動パターン105cが定義されている。各行動パターン105cには、不快区間を推定するための条件である推定条件105dが設定されている。また、各行動パターン105cには、識別情報であるID105aが付されている。
行動パターン105cは、不快要因105bに直接的に結び付く、ユーザの行動パターンが設定されている。図2の例では、「空調(暑い)」との不快要因105bに直接的に結び付くユーザの行動パターンとして「「暑い」と発話する」および「設定温度を下げるボタンを押す」が設定されている。
反応検出部106は、挙動情報取得部102から入力された挙動情報および生体情報取得部103から入力された生体情報と、反応情報データベース107に格納された反応情報との照合を行う。反応検出部106は、挙動情報または生体情報と一致する反応パターンが反応情報データベース107に格納されていた場合に、当該反応パターンに対応付けられた識別情報を取得する。反応検出部106は、取得した反応パターンの識別情報を不快判定部108、学習部109および学習用データベース112に出力する。
反応情報データベース107は、ユーザの反応パターンを格納したデータベースである。
図3は、実施の形態1に係る状態推定装置100の反応情報データベース107の格納例を示す図である。
図3で示した反応情報データベース107は、ID107aおよび反応パターン107bの項目で構成されている。各反応パターン107bには、識別情報であるID107aが付されている。
反応パターン107bは、不快要因(例えば、図2で示した不快要因105b)とは直接的には結び付かない、ユーザの反応パターンが設定されている、図3の例では、ユーザが不快状態である時に示す反応パターンとして「眉間にしわを寄せる」および「咳払いをする」等が設定されている。
不快判定部108は、行動検出部104から検出した行動パターンの識別情報が入力されると、ユーザの不快状態を検出したことを示す信号を外部に出力する。また、不快判定部108は、入力された行動パターンの識別情報を学習部109に出力し、学習部109に対して反応パターンの学習を指示する。
また、不快判定部108は、反応検出部106から検出した反応パターンの識別情報が入力されると、入力された識別情報と、不快反応パターンデータベース111に格納されたユーザの不快状態を示す不快反応パターンとの照合を行う。不快判定部108は、入力された識別情報と一致する反応パターンが不快反応パターンデータベース111に格納されていた場合に、ユーザは不快状態であると推定する。不快判定部108は、ユーザの不快状態を検出したことを示す信号を外部に出力する。
不快反応パターンデータベース111の詳細は後述する。
図1に示すように、学習部109は、不快区間推定部110を備える。不快区間推定部110は、不快判定部108から反応パターンの学習が指示されると、当該指示と同時に入力された行動パターンの識別情報を用いて行動情報データベース105から不快区間を推定するための推定条件を取得する。不快区間推定部110は、例えば図2で示した行動パターンの識別情報であるID105aに対応した推定条件105dを取得する。不快区間推定部110は、学習用データベース112を参照し、取得した推定条件と一致する情報から不快区間と推定する。
学習部109は、学習用データベース112を参照し、不快区間推定部110が推定した不快区間における1つ以上の反応パターンの識別情報を抽出する。学習部109は、抽出した識別情報に基づいて、さらに学習用データベース112を参照して過去に閾値以上の頻度で発生した反応パターンを不快反応パターン候補として抽出する。
さらに、学習部109は、学習用データベース112を参照して、不快区間推定部110が推定した不快区間以外の区間で閾値以上の頻度で発生する反応パターンを不快反応ではないパターン(以下、非不快反応パターンと称する)として抽出する。学習部109は、抽出した不快反応ではないパターンを、不快反応パターン候補から除外する。
学習部109は、最終的に残った不快反応パターン候補の識別情報の組み合わせを不快反応パターンとして、不快要因ごとに不快反応パターンデータベース111に格納する。
不快反応パターンデータベース111は、学習部109が学習した結果である不快反応パターンを格納したデータベースである。
図4は、実施の形態1に係る状態推定装置100の不快反応パターンデータベース111の格納例を示す図である。
図4で示した不快反応パターンデータベース111は、不快要因111aおよび不快反応パターン111bの項目で構成されている。不快要因111aには、行動情報データベース105の不快要因105bの項目と同等の項目が記載される。
不快反応パターン111bは、反応情報データベース107の反応パターン107bに対応したID107aが記載される。
図4において不快要因が「空調(暑い)」である場合に、ユーザがID:b−1の「眉間にしわを寄せる」およびID:b−3の「対象を見つめる」との反応を示すことを表している。
学習用データベース112は、環境情報取得部101が環境情報を取得した際の行動パターンおよび反応パターンを学習した結果を格納したデータベースである。
図5は、実施の形態1に係る状態推定装置100の学習用データベース112の格納例を示す図である。
図5で示した学習用データベース112は、タイムスタンプ112a、環境情報112b、行動パターンID112cおよび反応パターンID112dの項目で構成されている。
タイムスタンプ112aは、環境情報112bが取得された時刻を示す情報である。
環境情報112bは、タイムスタンプ112aで示された時刻における温度情報および騒音情報等である。行動パターンID112cは、タイムスタンプ112aで示された時刻において、行動検出部104が取得した識別情報である。反応パターンID112dは、タイムスタンプ112aで示された時刻において、反応検出部106が取得した識別情報である。
図5において、タイムスタンプ112aが「2016/8/1/11:02:00」である時に、環境情報112bが「温度28℃、騒音35dB」であり、行動検出部104がユーザの不快を示す行動パターンを検出しておらず、反応検出部106がID;b−1の「眉間にしわを寄せる」との反応パターンを検出したことを示している。
次に、状態推定装置100のハードウェア構成例を説明する。
図6A、図6Bは、状態推定装置100のハードウェア構成例を示す図である。
状態推定装置100における環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、反応検出部106、不快判定部108、学習部109および不快区間推定部110は、図6Aに示すように専用のハードウェアである処理回路100aであってもよいし、図6Bに示すようにメモリ100cに格納されているプログラムを実行するプロセッサ100bであってもよい。
図6Aに示すように、環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、反応検出部106、不快判定部108、学習部109および不快区間推定部110が専用のハードウェアである場合、処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit),FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、反応検出部106、不快判定部108、学習部109および不快区間推定部110の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
図6Bに示すように、環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、反応検出部106、不快判定部108、学習部109および不快区間推定部110がプロセッサ100bである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100cに格納される。プロセッサ100bは、メモリ100cに記憶されたプログラムを読み出して実行することにより、環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、反応検出部106、不快判定部108、学習部109および不快区間推定部110の各機能を実現する。即ち、環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、反応検出部106、不快判定部108、学習部109および不快区間推定部110は、プロセッサ100bにより実行されるときに、後述する図7−17,19に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100cを備える。また、これらのプログラムは、環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、反応検出部106、不快判定部108、学習部109および不快区間推定部110の手順または方法をコンピュータに実行させるものであるともいえる。
ここで、プロセッサ100bとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ100cは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、環境情報取得部101、挙動情報取得部102、生体情報取得部103、行動検出部104、反応検出部106、不快判定部108、学習部109および不快区間推定部110の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、状態推定装置100における処理回路100aは、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
次に、状態推定装置100の動作について説明する。
図7は、実施の形態1に係る状態推定装置100の動作を示すフローチャートである。
環境情報取得部101は、環境情報を取得する(ステップST101)。
図8は、実施の形態1に係る状態推定装置100の環境情報取得部101の動作を示すフローチャートであり、ステップST101の処理を詳細に示すフローチャートである。
環境情報取得部101は、例えば温度センサが検出した情報を温度情報として取得する(ステップST110)。環境情報取得部101は、例えばマイクが集音した音の大きさを示す情報を騒音情報として取得する(ステップST111)。環境情報取得部101は、ステップST110で取得した温度情報およびステップST111で取得した騒音情報を、環境情報として不快判定部108および学習用データベース112に出力する(ステップST112)。
上述したステップST110からステップST112の処理により、例えば図5で示した学習用データベース112のタイムスタンプ112aおよび環境情報112bの項目に情報が格納される。その後、フローチャートは図7のステップST102の処理に進む。
次に、図7のフローチャートにおいて、挙動情報取得部102は、ユーザの挙動情報を取得する(ステップST102)。
図9は、実施の形態1に係る状態推定装置100の挙動情報取得部102の動作を示すフローチャートであり、ステップST102の処理を詳細に示すフローチャートである。
挙動情報取得部102は、例えば撮像画像を解析して得られた動き情報を取得する(ステップST113)。挙動情報取得部102は、例えば音声信号を解析して得られた音情報を取得する(ステップST114)。挙動情報取得部102は、例えば機器を操作する情報を、操作情報として取得する(ステップST115)。挙動情報取得部102は、ステップST113で取得した動き情報、ステップST114で取得した音情報、ステップST115で取得した操作情報を、挙動情報として行動検出部104および反応検出部106に出力する(ステップST116)。その後、フローチャートは図7のステップST103の処理に進む。
次に、図7のフローチャートにおいて、生体情報取得部103は、ユーザの生体情報を取得する(ステップST103)。
図10は、実施の形態1に係る状態推定装置100の生体情報取得部103の動作を示すフローチャートであり、ステップST103の処理を詳細に示すフローチャートである。
生体情報取得部103は、例えばユーザの心拍変動を示す情報を、生体情報として取得する(ステップST117)。生体情報取得部103は、ステップST117で取得した生体情報を、反応検出部106に出力する(ステップST118)。その後、フローチャートは図7のステップST104の処理に進む。
次に、図7のフローチャートにおいて、行動検出部104は、ステップST102において挙動情報取得部102から入力された挙動情報からユーザの行動情報を検出する(ステップST104)。
図11は、実施の形態1に係る状態推定装置100の行動検出部104の動作を示すフローチャートであり、ステップST104の処理を詳細に示すフローチャートである。
行動検出部104は、挙動情報取得部102から挙動情報が入力されたか否か判定を行う(ステップST120)。挙動情報が入力されていない場合(ステップST120;NO)、処理を終了し、図7のステップST105の処理に進む。一方、挙動情報が入力された場合(ステップST120;YES)、行動検出部104は、入力された挙動情報が、行動情報データベース105に格納された行動情報の行動パターンと一致するか否か判定を行う(ステップST121)。
行動情報データベース105に格納された行動情報の行動パターンと一致する場合(ステップST121;YES)、行動検出部104は、一致する行動パターンに付された識別情報を取得し、不快判定部108および学習用データベース112に出力する(ステップST122)。一方、行動情報データベース105に格納された行動情報の行動パターンと一致しない場合(ステップST121;NO)、行動検出部104は全ての行動情報と照合したか否か判定を行う(ステップST123)。全ての行動情報と照合していない場合(ステップST123;NO)、ステップST121の処理に戻り、上述した処理を繰り返す。一方、ステップST122の処理を行った場合、または全ての行動情報と照合した場合(ステップST123;YES)、フローチャートは図7のステップST105の処理に進む。
次に、図7のフローチャートにおいて、反応検出部106は、ユーザの反応情報を検出する(ステップST105)。詳細には、反応検出部106は、ステップST102において挙動情報取得部102から入力された挙動情報およびステップST103において生体情報取得部103から入力された生体情報を用いて、ユーザの反応情報を検出する。
図12は、実施の形態1に係る状態推定装置100の反応検出部106の動作を示すフローチャートであり、ステップST105の処理を詳細に示すフローチャートである。
反応検出部106は、挙動情報取得部102から挙動情報が入力されたか否か判定を行う(ステップST124)。挙動情報が入力されていない場合(ステップST124;NO)、反応検出部106は生体情報取得部103から生体情報が入力されたか否か判定を行う(ステップST125)。生体情報が入力されていない場合(ステップST125;NO)、処理を終了し、図7のフローチャートのステップST106の処理に進む。
一方、挙動情報が入力された場合(ステップST124;YES)、または生体情報が入力されている場合(ステップST125;YES)、反応検出部106は、入力された挙動情報または生体情報が、反応情報データベース107に格納された反応情報の反応パターンと一致するか否か判定を行う(ステップST126)。反応情報データベース107に格納された反応情報の反応パターンと一致する場合(ステップST126;YES)、反応検出部106は、一致する反応パターンに付された識別情報を取得し、不快判定部108、学習部109、および学習用データベース112に出力する(ステップST127)。
反応情報データベース107に格納された反応情報の反応パターンと一致しない場合(ステップST126;NO)、反応検出部106は全ての反応情報と照合したか否か判定を行う(ステップST128)。全ての反応情報と照合していない場合(ステップST128;NO)、ステップST126の処理に戻り、上述した処理を繰り返す。一方、ステップST127の処理を行った場合、または全ての反応情報と照合した場合(ステップST128;YES)、フローチャートは図7のステップST106の処理に進む。
次に、図7のフローチャートにおいて、行動検出部104による行動情報の検出処理、および反応検出部106による反応情報の検出処理が終了すると、不快判定部108はユーザが不快状態であるか否かの判定を行う(ステップST106)。
図13は、実施の形態1に係る状態推定装置100の不快判定部108、学習部109および不快区間推定部110の動作を示すフローチャートであり、ステップST106の処理を詳細に示すフローチャートである。
不快判定部108は、行動検出部104から行動パターンの識別情報が入力されたか否か判定を行う(ステップST130)。行動パターンの識別情報が入力された場合(ステップST130;YES)、不快判定部108は、ユーザの不快状態を検出したことを示す信号を外部に出力する(ステップST131)。また、不快判定部108は、入力された行動パターンの識別情報を学習部109に出力し、不快反応パターンの学習を指示する(ステップST132)。学習部109は、ステップST132で入力された行動パターンの識別情報および学習指示に基づいて不快反応パターンの学習を行う(ステップST133)。ステップST133の不快反応パターンを学習する処理の詳細については後述する。
一方、行動パターンの識別情報が入力されていない場合(ステップST130;NO)、不快判定部108は反応検出部106から反応パターンの識別情報が入力されたか否か判定を行う(ステップST134)。反応パターンの識別情報が入力されていた場合(ステップST134;YES)、不快判定部108は識別情報で示された反応パターンと、不快反応パターンデータベース111に格納された不快反応パターンとを照合し、ユーザの不快状態を推定する(ステップST135)。ステップST135の不快状態を推定する処理の詳細については後述する。
不快判定部108は、ステップST135の推定結果を参照し、ユーザが不快状態であるか否か判定を行う(ステップST136)。ユーザが不快状態であると判定した場合(ステップST136;YES)、不快判定部108は、ユーザの不快状態を検出したことを示す信号を外部に出力する(ステップST137)。不快判定部108は、ステップST137の処理において、外部に出力する信号に不快要因を示す情報を付加させて出力してもよい。
ステップST133の処理を行った場合、ステップST137の処理を行った場合、反応パターンの識別情報が入力されていない場合(ステップST134;NO)、またはユーザが不快状態でないと判定した場合(ステップST136;NO)、フローチャートは図7のステップST101の処理に戻る。
次に、上述した図13のフローチャートのステップST133の処理の詳細について説明する。以下では、図2から図5で示した格納例、図14から図17に示したフローチャート、および図18に示す不快反応パターンの学習例を参照しながら説明を行う。
図14は、実施の形態1に係る状態推定装置100の学習部109の動作を示すフローチャートである。
図18は、実施の形態1に係る状態推定装置100の不快反応パターンの学習例を示す図である。
図14のフローチャートにおいて、学習部109の不快区間推定部110は、不快判定部108から入力された行動パターンの識別情報に基づいて不快区間を推定する(ステップST140)。
図15は、実施の形態1に係る状態推定装置100の不快区間推定部110の動作を示すフローチャートであり、ステップST140の処理を詳細に示すフローチャートである。
不快区間推定部110は、不快判定部108から入力された行動パターンの識別情報を用いて行動情報データベース105内を検索し、当該行動パターンに対応付けられた推定条件および不快要因を取得する(ステップST150)。
例えば、図18(a)で示したように、不快区間推定部110は、識別情報(ID;a−1)で示された行動パターンが入力された場合、図2で示した行動情報データベース105内を検索し、「ID;a−1」の推定条件「温度℃」および不快要因「空調(暑い)」を取得する。
次に、不快区間推定部110は、ステップST150で取得した推定条件の識別情報と一致する、学習用データベース112に格納された最も直近の環境情報を参照し、行動情報が検出された際の環境情報を取得する(ステップST151)。また、不快区間推定部110は、ステップST151で取得した環境情報に対応したタイムスタンプを不快区間として取得する(ステップST152)。
例えば、図5で示した学習用データベース112を参照する場合、不快区間推定部110は、最も新しい履歴情報の環境情報112bである「温度28℃、騒音35dB」から、ステップST150で取得した推定条件に基づいて「温度28℃」を、行動パターンが検出された際の環境情報として取得する。また、不快区間推定部110は、取得した環境情報のタイムスタンプ「2016/8/1/11:04:30」を不快区間として取得する。
不快区間推定部110は、学習用データベース112に格納された履歴情報を遡って環境情報を参照し(ステップST153)、ステップST151で取得した行動パターンが検出された際の環境情報と一致するか否か判定を行う(ステップST154)。行動パターンが検出された際の環境情報と一致する場合(ステップST154;YES)、不快区間推定部110は一致する履歴情報のタイムスタンプが示す時間を不快区間に追加する(ステップST155)。不快区間推定部110は、学習用データベース112に格納された全ての履歴情報の環境情報を参照したか否か判定を行う(ステップST156)。
全ての履歴情報の環境情報を参照していない場合(ステップST156;NO)、ステップST153の処理に戻り、上述した処理を繰り返す。一方、全ての履歴情報の環境情報を参照した場合(ステップST156;YES)、不快区間推定部110は、ステップST155で追加された不快区間を、推定した不快区間として学習部109に出力する(ステップST157)。また、不快区間推定部110は、ステップST150で取得した不快要因も合わせて学習部109に出力する。
例えば、図5で示した学習用データベース112を参照する場合、不快区間の推定条件として取得された「温度28℃」と一致する履歴情報のタイムスタンプが示した時間「2016/8/1/11:01:00」から「2016/8/1/11:04:30」を不快区間として学習部109に出力する。その後、図7のフローチャートのステップST141の処理に進む。
上述したステップST154では、不快区間推定部110が、行動パターンが検出された際の環境情報と一致するか否かの判定を行う構成を示したが、行動パターンが検出された際の環境情報に基づいて設定した閾値範囲内であるか否かの判定を行う構成としてもよい。例えば、行動パターンが検出された際の環境情報が「28℃」であった場合に、不快区間推定部110は、閾値範囲として「下限:27.5℃、上限:なし」を設定する。不快区間推定部110は、当該範囲内である履歴情報のタイムスタンプが示す時間を不快区間に追加する。
例えば、図18(d)で示したように、閾値範囲の下限以上の温度を示す連続した区間「2016/8/1/11:01:00」から「2016/8/1/11:04:30」が、不快区間として推定される。
図14のフローチャートにおいて、学習部109は、学習用データベース112を参照し、ステップST140で推定された不快区間において格納された反応パターンを不快反応パターン候補Aとして抽出する(ステップST141)。
例えば、図5で示した学習用データベース112を参照する場合、学習部109は、推定された不快区間である「2016/8/1/11:01:00」から「2016/8/1/11:04:30」までの区間における反応パターンID「b−1」,「b−2」,「b−3」および「b−4」を、不快反応パターン候補Aとして抽出する。
次に、学習部109は、学習用データベース112を参照し、ステップST140で推定された不快区間と類似した環境情報を有する区間において、不快反応パターン候補の学習を行う(ステップST142)。
図16は、実施の形態1に係る状態推定装置100の学習部109の動作を示すフローチャートであり、ステップST142の処理を詳細に示すフローチャートである。
学習部109は、学習用データベース112を参照し、ステップST140で推定された不快区間と環境情報が類似した区間を検索する(ステップST160)。
ステップST160の検索処理により、学習部109は、例えば、図18(e)で示したように、過去に温度条件が一致する区間、例えば温度情報が28℃で推移した区間(時間t1から時間t2)を取得する。
また、ステップST160の検索処理では、学習部109は、過去に温度条件が予め設定された範囲(27.5℃以上の範囲)内である区間を取得するように構成してもよい。
学習部109は、学習用データベース112を参照し、ステップST160で検索した区間に反応パターンIDが格納されているか否か判定を行う(ステップST161)。反応パターンIDが格納されていない場合(ステップST161;NO)、ステップST163の処理に進む。一方、反応パターンIDが格納されている場合(ステップST161;YES)、学習部109は当該反応パターンIDを不快反応パターン候補Bとして抽出する(ステップST162)。
例えば、図18(e)で示したように、検索された時間t1から時間t2の区間で格納された反応パターンID「b−1」,「b−2」,「b−3」を不快反応パターン候補Bとして抽出する。
次に、学習部109は、学習用データベース112の全ての履歴情報を参照したか否か判定を行う(ステップST163)。全ての履歴情報を参照していない場合(ステップST163;NO)、ステップST160の処理に戻る。一方、全ての履歴情報を参照した場合(ステップST163;YES)、学習部109は、ステップST141で抽出した不快反応パターン候補AおよびステップST162で抽出した不快反応パターン候補Bから、出現頻度の低い反応パターンを除外する(ステップST164)。学習部109は、ステップST164で出現頻度の低い反応パターンIDを除外した反応パターンを、最終的な不快反応パターン候補とする。その後、図14のフローチャートのステップST143の処理に進む。
図18(f)の例では、学習部109は、不快反応パターン候補Aとして抽出した反応パターンID;b−1,b−2,b−3,b−4と、不快反応パターン候補Bとして抽出した反応パターンID;b−1,b−2,b−3とを比較し、不快反応パターン候補Aのみに含まれる反応パターンID;b−4を出現頻度の低いパターンIDとして除外する。
図14のフローチャートにおいて、学習部109は、学習用データベース112を参照し、ステップST140で推定された不快区間と類似しない環境条件を有する区間において、ユーザが不快状態でない時の反応パターンを学習する(ステップST143)。
図17は、実施の形態1に係る状態推定装置100の学習部109の動作を示すフローチャートであり、ステップST143の処理を詳細に示すフローチャートである。
学習部109は、学習用データベース112を参照し、ステップST140で推定された不快区間と環境情報が類似しない過去の区間を検索する(ステップST170)。具体的には、環境情報が一致しない区間または環境情報が予め設定された範囲外である区間を検索する。
図18(g)の例では、学習部109は、過去に温度情報が「28℃未満」で推移した区間(時間t3から時間t4)を、不快区間と環境情報が類似しない区間として検索する。
学習部109は、学習用データベース112を参照し、ステップST170で検索した区間に反応パターンIDが格納されているか否か判定を行う(ステップST171)。反応パターンIDが格納されていない場合(ステップST171;NO)、ステップST173の処理に進む。一方、反応パターンIDが格納されている場合(ステップST171;YES)、学習部109は格納されている反応パターンIDを非不快反応パターン候補として抽出する(ステップST172)。
図18(g)の例では、過去に温度情報が「28℃未満」で推移した区間(時間t3から時間t4)に格納されたパターンID;b−2を非不快反応パターン候補として抽出する。
次に、学習部109は、学習用データベース112の全ての履歴情報を参照したか否か判定を行う(ステップST173)。全ての履歴情報を参照していない場合(ステップST173;NO)、ステップST170の処理に戻る。一方、全ての履歴情報を参照した場合(ステップST173;YES)、学習部109は、ステップST172で抽出した非不快反応パターン候補のうち、出現頻度の低い反応パターンを除外する(ステップST174)。学習部109は、ステップST174で出現頻度の低い反応パターンを除外した後の反応パターンを、最終的な非不快反応パターンとする。その後、図14のステップST144の処理に進む。
図18(g)の例で示した、非不快反応パターン候補として抽出した反応パターンID;b−2の抽出数と、不快区間と環境情報に類似していない区間として検出した区間の数との割合が、閾値未満であれば、反応パターンID;b−2を非不快反応パターン候補から除外する。なお、図18(g)の例では、反応パターンID;b−2は除外しない。
図14のフローチャートにおいて、学習部109は、ステップST142で学習した不快反応パターン候補から、ステップST143で学習した非不快反応パターンを除外し、不快反応パターンを取得する(ステップST144)。
図18(h)の例では、不快反応パターン候補である反応パターンID;b−1,b−2,b−3から、非不快反応パターン候補である反応パターンID;b−2を除外し、除外後の反応パターンID;b−1,b−3を不快反応パターンとして取得する。
学習部109は、ステップST144で取得した不快反応パターンを、不快区間推定部110から入力された不快要因と合わせて不快反応パターンデータベース111に格納する(ステップST145)。
図4の例では、学習部109は、不快反応パターンとして抽出した反応パターンID;b−1,b−3を、不快要因「空調(暑い)」と共に格納している。その後、フローチャートは図7のステップST101の処理に戻る。
次に、上述した図13のフローチャートのステップST135の処理の詳細について説明する。
以下では、図2から図5で示したデータベースの格納例、図19に示したフローチャート、および図20に示す不快状態の推定例を参照しながら説明を行う。
図19は、実施の形態1に係る状態推定装置100の不快判定部108の動作を示すフローチャートである。
図20は、実施の形態1に係る状態推定装置100の不快状態の推定例を示す図である。
不快判定部108は、不快反応パターンデータベース111を参照し、不快反応パターンが格納されているか否か判定を行う(ステップST180)。不快反応パターンが格納されていない場合(ステップST180;NO)、ステップST190の処理に進む。
一方、不快反応パターンが格納されている場合(ステップST180;YES)、不快判定部108は、格納された不快反応パターンと、図12のステップST127において反応検出部106から入力された反応パターンの識別情報とを比較する(ステップST181)。不快反応パターンに反応検出部106が検出した反応パターンの識別情報が含まれているか否か判定を行う(ステップST182)。反応パターンの識別情報が含まれていない場合(ステップST182;NO)、不快判定部108はステップST189の処理に進む。一方、反応パターンの識別情報が含まれている場合(ステップST182;YES)、不快判定部108は、不快反応パターンデータベース111を参照し、当該反応パターンの識別情報に対応付けられた不快要因を取得する(ステップST183)。不快判定部108は、ステップST183で取得した不快要因が得られた際の環境情報を環境情報取得部101から取得する(ステップST184)。不快判定部108は、取得した環境情報に基づいて不快区間を推定する(ステップST185)。
図20(a)の例では、図4で示した格納例である場合に、反応検出部106から反応パターンID;b−3が入力されると、不快判定部108は、当該ID;b−3が取得された際の環境情報(温度情報27℃)を取得する。不快判定部108は、学習用データベース112を参照して、温度情報が27℃未満になるまでの過去の区間(時間t5から時間t6)を不快区間として推定する。
不快判定部108は、学習用データベース112を参照し、ステップST185で推定した不快区間で検出された反応パターンの識別情報を抽出する(ステップST186)。不快判定部108は、ステップST186で抽出した反応パターンの識別情報が、不快反応パターンデータベース111に格納された不快反応パターンと一致するか否か判定を行う(ステップST187)。一致する不快反応パターンが格納されている場合(ステップST187;YES)、不快判定部108は、ユーザが不快状態であると推定する(ステップST188)。
図20(b)の例では、不快判定部108は、推定された不快区間で検出された反応パターンID;b−1,b−2,b−3を抽出する。
不快判定部108は、図20(b)の反応パターンID;b−1,b−2,b−3が、図20(c)の不快反応パターンデータベース111に格納された不快反応パターンと一致するか否か判定を行う。
図4で示した不快反応パターンデータベース111の格納例の場合、不快要因111aが「空調(暑い)」場合の不快反応パターンID;b−1、b−3全てが、抽出された反応パターンIDに包含されている。この場合、不快判定部108は、一致する不快反応パターンが、不快反応パターンデータベース111に格納されていると判定し、ユーザは不快状態であると推定する。
一方、一致する不快反応パターンが格納されていない場合(ステップST187;NO)、不快判定部108は、全ての不快反応パターンと照合したか否か判定を行う(ステップST189)。全ての不快反応パターンと照合していない場合(ステップST189;NO)、ステップST181の処理に戻る。一方、全ての不快反応パターンと照合した場合(ステップST189;YES)、不快判定部108は、ユーザは不快状態でないと推定する(ステップST190)。ステップST188またはステップST190の処理を行った場合、フローチャートは図13のステップST136の処理に進む。
以上のように、この実施の形態1によれば、ユーザの動き情報、前記ユーザの音情報、および前記ユーザの操作情報とを含む挙動情報のうちの少なくともいずれか一つの情報と、予め格納された行動パターンとを照合し、一致する行動パターンを検出する行動検出部104と、挙動情報およびユーザの生体情報と、予め格納された反応パターンとを照合し、一致する反応パターンを検出する反応検出部106と、一致する行動パターンを検出した場合、または一致する反応パターンを検出し、且つ検出した反応パターンが予め格納されたユーザの不快状態を示す不快反応パターンと一致した場合に、ユーザが不快状態であると判定する不快判定部108と、検出した行動パターンに基づいて不快区間を推定するための推定条件を取得し、予め格納された履歴情報のうち取得した推定条件と一致する区間を不快区間と推定する不快区間推定部110と、履歴情報を参照し、推定された不快区間および不快区間以外の区間における反応パターンの発生頻度に基づいて不快反応パターンを取得して格納する学習部109とを備えるように構成したので、ユーザが不快要因とは直接的には結び付かない反応に対応する自身の不快状態または不快要因の情報を入力することなく、ユーザが不快状態であるかを判定し、ユーザの状態を推定することができる。これによりユーザの利便性を向上させることができる。
また、履歴情報が多く蓄積されていない状態でも、学習により不快反応パターンを取得して格納することができる。これにより状態推定装置の使用の開始から長い時間を必要とせずにユーザ状態を推定することができ、ユーザの利便性を向上させることができる。
また、この実施の形態1によれば、学習部109が、不快区間における履歴情報の反応パターンの発生頻度に基づいて不快反応パターン候補を抽出し、不快区間以外の区間における履歴情報の反応パターンの発生頻度に基づいて不快反応でないパターンを抽出し、不快反応パターン候補から不快反応でないパターンを除外した反応パターンを、不快反応パターンとして取得するように構成したので、不快要因に応じてユーザが示す可能性の高い反応パターンのみを不快状態の判定に用い、不快要因と関係なくユーザが示す可能性の高い反応パターンを不快状態の判定の対象外とすることができる。これにより、不快状態の推定精度を向上させることができる。
また、この実施の形態1によれば、不快判定部108が、反応検出部106において一致する反応パターンが検出された、且つ検出された反応パターンが予め格納されたユーザの不快状態を示す不快反応パターンと一致した場合に、ユーザが不快状態であると判定するように構成したので、ユーザが不快要因と直接的に結び付く行動を行う前に、ユーザの不快状態を推定し、外部装置に対して当該不快要因を取り除く制御を行わせることができる。これにより、ユーザの利便性を向上させることができる。
上述した実施の形態1では、環境情報取得部101が、温度センサが検出した温度情報、およびマイクが集音した騒音の大きさを示す騒音情報を取得する構成を示したが、湿度センサが検出した湿度情報および照度センサが検出した明るさの情報を取得する構成としてもよい。また、環境情報取得部101は、温度情報および騒音情報に加えて湿度情報および明るさの情報を取得する構成としてもよい。状態推定装置100は、環境情報取得部101が取得した湿度情報および明るさの情報を用いることにより、乾燥、湿気の多さ、明るすぎる状況および暗すぎる状況によりユーザ不快状態であることを推定することができる。
上述した実施の形態1では、生体情報取得部103が生体情報として心拍計等が計測したユーザの心拍変動を示す情報を取得する構成を示したが、ユーザが装着した脳波計等が計測したユーザの脳波変動を示す情報を取得する構成としてもよい。また、生体情報取得部103は、生体情報として心拍変動を示す情報および脳波変動を示す情報の双方を取得する構成としてもよい。状態推定装置100は、生体情報取得部103が取得した脳波変動を示す情報を用いることにより、ユーザが不快に感じた際の反応パターンとして脳波変動に変化が現れる場合に、ユーザの不快状態を推定する精度を向上させることができる。
また、上述した実施の形態1の状態推定装置において、不快区間推定部110が推定した不快区間に行動パターンの識別情報が含まれている場合は、当該行動パターンの識別情報に対応する不快要因と、不快区間の推定条件として使用した不快要因が一致しない場合には、当該区間反応パターンを不快反応パターン候補として抽出しないように構成してもよい。これにより、異なる不快要因に対する反応パターンが、誤って不快反応パターンとして不快反応パターンデータベース111に格納されるのを抑制することができる。これにより、不快状態の推定精度を向上させることができる。
また、上述した実施の形態1の状態推定装置では、不快区間推定部110が推定した不快区間を、行動情報データベース105の推定条件105dに基づいて推定している。これに替えて、状態推定装置が、学習用データベース112にユーザ全ての機器操作に関する情報を格納し、当該機器操作が行われてから一定期間の区間は、不快区間の対象外とするように構成してもよい。これにより、例えばユーザが機器操作を行ってから一定期間の間に発生した反応を、機器の操作に対するユーザの反応として除外することができる。よって、ユーザの不快状態の推定精度を向上させることができる。
また、上述した実施の形態1の状態推定装置では、不快区間推定部110が不快要因に基づいて推定した不快区間と環境情報が類似した区間において、出現頻度の低い反応パターンを除外した反応パターンを不快反応パターン候補とするように構成したので、不快要因に応じたユーザが示す可能性の高い非不快反応パターンのみを不快状態の推定に使用することができる。よって、ユーザの不快状態の推定精度を向上させることができる。
また、上述した実施の形態1の状態推定装置では、不快区間推定部110が不快要因に基づいて推定した不快区間と、環境情報が類似しない区間において、出現頻度の高い反応パターンを除外した反応パターンを不快反応パターン候補とするように構成したので、不快要因と関係なくユーザが示す可能性の高い非不快反応パターンを不快状態の推定の対象外とすることができる。よって、ユーザの不快状態の推定精度を向上させることができる。
なお、上述した実施の形態1の状態推定装置において、不快区間推定部110は、行動検出部104が検出した行動パターンに操作情報が含まれている場合に、操作情報を取得してから一定期間の区間を、不快区間から除外するように構成してもよい。
これにより、例えば、機器が空調機器の上限温度を変更してから一定時間の間に発生する反応を、機器の制御に対するユーザの反応として除外することができる。よって、ユーザの不快状態の推定精度を向上させることができる。
実施の形態2.
この実施の形態2では、学習用データベース112に蓄積された履歴情報の量に応じてユーザの不快状態を推定する方法を切り替える構成を示す。
図21は、実施の形態2に係る状態推定装置100Aの構成を示すブロック図である。
実施の形態2に係る状態推定装置100Aは、図1に示した実施の形態1の状態推定装置100の不快判定部108に替えて不快判定部201を備え、さらに推定器生成部202を追加して備える。
以下では、実施の形態1に係る状態推定装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
不快判定部201は、後述する推定器生成部202によって推定器が生成されている場合には、生成された推定器を用いてユーザの不快状態を推定する。不快判定部201は、推定器生成部202によって推定器が生成されていない場合には、不快反応パターンデータベース111を用いてユーザの不快状態を推定する。
推定器生成部202は、学習用データベース112に格納された履歴情報のうち、行動パターンの数が規定の値以上となった場合に、学習用データベース112に格納された履歴情報を用いた機械学習を行う。ここで、規定の値とは、推定器生成部202が推定器を生成するのに必要となる行動パターンの数に基づいて設定される値である。推定器生成部202は、行動パターンの識別情報に基づいて推定した不快区間ごとに抽出した反応パターンおよび環境情報を入力信号とし、行動パターンの識別情報に対応する不快要因ごとのユーザの快状態または不快状態を示す情報を出力信号とする機械学習を行う。推定器生成部202は反応パターンおよび環境情報からユーザの不快状態を推定する推定器を生成する。推定器生成部202が行う機械学習は、例えば以下に示す非特許文献1に記載されたディープラーニングの手法等を適用して行われる。
・非特許文献1
岡谷貴之、“ディープラーニング”、映像情報メディア学会誌、Vol.68、No.6、2014年
次に、状態推定装置100Aのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
状態推定装置100Aにおける不快判定部201および推定器生成部202は、図6Aで示した処理回路100a、または図6Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、推定器生成部202の動作について説明する。
図22は、実施の形態2に係る状態推定装置100Aの推定器生成部202の動作を示すフローチャートである。
推定器生成部202は、学習用データベース112および行動情報データベース105を参照し、学習用データベース112に格納されている行動パターンIDを不快要因毎に集計する(ステップST200)。推定器生成部202は、ステップST200で集計した行動パターンIDの総数が規定の値以上になったか否か判定を行う(ステップST201)。行動パターンIDの総数が規定の値以上でない場合(ステップST201;NO)、ステップST200の処理に戻り、上述した処理を繰り返す。
一方、行動パターンIDの総数が規定の値以上になった場合(ステップST201;YES)、推定器生成部202は機械学習を行い、反応パターンおよび環境情報からユーザの不快状態を推定する推定器を生成する(ステップST202)。ステップST202において、推定器生成部202が推定器を生成すると、処理を終了する。
図23は、実施の形態2に係る状態推定装置100Aの不快判定部201の動作を示すフローチャートである。
図23において、図19で示した実施の形態1のフローチャートと同一のステップには同一の符号を付し、説明を省略する。
不快判定部201は、推定器生成部202の状態を参照し、推定器が生成されているか否か判定を行う(ステップST211)。推定器が生成されている場合(ステップST211;YES)、不快判定部201は当該推定器に、入力信号である反応パターンおよび環境情報を入力し、出力信号であるユーザの不快状態を推定した結果を取得する(ステップST212)。不快判定部201は、ステップST212で取得した出力信号を参照し、推定器がユーザの不快状態を推定したか否か判定を行う(ステップST213)。推定器がユーザの不快状態を推定していた場合(ステップST213;YES)、不快判定部201はユーザが不快状態であると推定する(ステップST214)。
一方、推定器が生成されていない場合(ステップST211;NO)、不快判定部201は不快反応パターンデータベース111を参照し、不快反応パターンが格納されているか否か判定を行う(ステップST180)。その後、ステップST181からステップST190の処理を行う。ステップST188、ステップST190またはステップST214の処理を行った場合、フローチャートは図13のステップST136の処理に進む。
以上のように、この実施の形態2によれば、履歴情報として規定の値以上の行動パターンが蓄積されている場合に、反応検出部106で検出された反応パターンおよび環境情報に基づいて、ユーザが不快状態であるか否かを推定する推定器を生成する推定器生成部202を備え、不快判定部201は、推定器が生成されている場合に、当該推定器の推定結果を参照してユーザが不快状態であるか否か判定を行うように構成したので、履歴情報のうち、行動パターンの数が規定の値以上でない場合には、不快反応パターンデータベースに格納された不快反応パターンに基づいてユーザの不快状態および不快要因を推定し、行動パターンの数が規定の値以上である場合には機械学習によって生成された推定器を用いてユーザの不快状態および不快要因を推定することができる。これにより、ユーザの不快状態の推定精度を向上させることができる。
なお、上述した実施の形態2では、推定器生成部202が学習用データベース112に格納された反応パターンを入力信号として機械学習を行う構成を示した。これに加えて、行動情報データベース105および反応情報データベース107に登録されていない情報を学習用データベース112に格納し、格納した情報を機械学習の入力信号に使用するように構成してもよい。これにより、行動情報データベース105および反応情報データベース107に登録されていないユーザの癖を学習することが可能となり、ユーザの不快状態の推定精度を向上させることができる。
実施の形態3.
この実施の形態3では、検出された反応パターンから不快状態に加えて不快要因を推定する構成を示す。
図24は、実施の形態3に係る状態推定装置100Bの構成を示すブロック図である。
実施の形態3に係る状態推定装置100Bは、図1に示した実施の形態1の状態推定装置100の不快判定部108および不快反応パターンデータベース111に替えて不快判定部301および不快反応パターンデータベース302を備えて構成している。
以下では、実施の形態1に係る状態推定装置100の構成要素と同一または相当する部分には、実施の形態1で使用した符号と同一の符号を付して説明を省略または簡略化する。
不快判定部301は、反応検出部106から検出した反応パターンの識別情報が入力されると、入力された識別情報と、不快反応パターンデータベース302に格納されたユーザの不快状態を示す不快反応パターンとの照合を行う。不快判定部301は、入力された識別情報と一致する反応パターンが不快反応パターンデータベース302に格納されていた場合に、ユーザは不快状態であると推定する。さらに不快判定部301は、不快反応パターンデータベース302を参照し、入力された識別情報から不快要因が特定できる場合には、不快要因を特定する。不快判定部301は、ユーザが不快状態であることを検出したことを示す信号、および不快要因が特定できた場合には不快要因の情報を示す信号を外部に出力する。
不快反応パターンデータベース302は、学習部109が学習した結果である不快反応パターンを格納したデータベースである。
図25は、実施の形態3に係る状態推定装置100Bの不快反応パターンデータベース302の格納例を示す図である。
図25で示した不快反応パターンデータベース302は、不快要因302a、第1の不快反応パターン302bおよび第2の不快反応パターン302cの項目で構成されている。不快要因302aには、行動情報データベース105の不快要因105bの項目と同等の項目が記載される(図2参照)。第1の不快反応パターン302bは、複数の不快要因302aに対応する不快反応パターンのIDが記載されている。第2の不快反応パターン302cは、固有の不快要因のみに対応する不快反応パターンのIDが記載されている。第1および第2の不快反応パターン302b,302cに記載された不快反応パターンのIDは、図3で示したID107aに相当している。
不快判定部301は、入力された識別情報が、第2の不快反応パターン302cの識別情報と一致した場合に、一致した識別情報に対応付けられた不快要因302aを取得することにより、不快要因を特定する。
状態推定装置100Bのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
状態推定装置100Bにおける不快判定部301および不快反応パターンデータベース302は、図6Aで示した処理回路100a、または図6Bで示したメモリ100cに格納されるプログラムを実行するプロセッサ100bである。
次に、不快判定部301の動作について説明する。
図26は、実施の形態1に係る状態推定装置100Bの不快判定部301の動作を示すフローチャートである。
図26において、図13で示した実施の形態1のフローチャートと同一のステップには同一の符号を付し、説明を省略する。
ステップST134において、不快判定部301は、反応パターンの識別情報が入力されたと判定すると(ステップST134;YES)、入力された反応パターンの識別情報と、不快反応パターンデータベース302に格納された第1の不快反応パターン302bおよび第2の不快反応パターン302cとを照合し、ユーザの不快状態を推定する(ステップST301)。不快判定部301は、ステップST301の推定結果を参照し、ユーザが不快状態であるか否か判定を行う(ステップST302)。
ユーザが不快状態であると判定した場合(ステップST302;YES)、不快判定部301は、照合結果を参照して不快要因を特定したか否か判定を行う(ステップST303)。不快要因を特定した場合(ステップST303;YES)、不快判定部301はユーザの不快状態を検出したことを示す信号を、不快要因と共に外部に出力する(ステップST304)。一方、不快要因が特定されなかった場合(ステップST303;NO)、不快判定部301は、不快要因は不明であるが、ユーザの不快状態を検出したことを示す信号を外部に出力する(ステップST305)。
ステップST133の処理を行った場合、ステップST304の処理を行った場合、ステップST305の処理を行った場合、または反応パターンの識別情報が入力されていない場合(ステップST134;NO)、またはユーザが不快状態でないと判定した場合(ステップST302;NO)、フローチャートは図7のステップST101の処理に戻る。
次に、上述した図26のフローチャートのステップST301の処理の詳細について説明する。
図27は、実施の形態3に係る状態推定装置100Bの不快判定部301の動作を示すフローチャートである。
図27において、図19で示した実施の形態1のフローチャートと同一のステップには同一の符号を付し、説明を省略する。
不快判定部301は、ステップST186において反応パターンの識別情報を抽出すると、抽出した反応パターンの識別情報が、第1および第2の不快反応パターンの組み合わせと一致するか否か判定を行う(ステップST310)。第1および第2の不快反応パターンの組み合わせと一致すると判定した場合(ステップST310;YES)、不快判定部301は不快状態であると推定し、且つ不快要因を推定する(ステップST311)。一方、第1および第2の不快反応パターンの組み合わせと一致しないと判定した場合(ステップST310;NO)、不快判定部301は、全ての第1および第2の不快反応パターンの組み合わせと照合したか否か判定を行う(ステップST312)。
不快判定部301は、全ての第1および第2の不快反応パターンの組み合わせと照合していない場合(ステップST312;NO)、ステップST181の処理に戻る。一方、全ての第1および第2の不快反応パターンの組み合わせと照合した場合(ステップST312;YES)、不快判定部301は反応パターンの識別情報が第1の不快反応パターンと一致するか否か判定を行う(ステップST313)。識別情報が第1の不快反応パターンと一致する場合(ステップST313;YES)、不快判定部301は、不快状態であると推定する(ステップST314)。ステップST314の処理では、不快状態を推定するのみで、不快要因の推定は行わない。
一方、識別情報が第1の不快反応パターンと一致しない場合(ステップST313;NO)、不快判定部301は、不快状態でないと推定する(ステップST315)。また、ステップST180において、不快判定部301が、不快反応パターンが格納されていないと判定した場合にも(ステップST180;NO)、ステップST315の処理に進む。
ステップST311、ステップST314またはステップST315の処理を行った場合、フローチャートは図26のステップST302の処理に進む。
以上のように、この実施の形態3によれば、不快判定部301は、反応検出部106で検出された反応パターンが、格納された不快反応パターンと一致した場合に、一致した反応パターンに、固有の不快要因に対応した反応パターンが含まれている場合に、固有の不快要因に対応した反応パターンに基づいてユーザの不快要因を特定するするように構成したので、不快要因が特定可能な場合には、特定された不快要因を迅速に除去することが可能になる。また、不快要因が不明である場合には、その旨を出力することによりユーザに不快要因を問い合わせる等により、迅速に不快要因を特定して除去することが可能になる。これにより、ユーザの快適性を向上させることができる。
なお、上述した実施の形態3では、不快判定部301が、複数の不快要因に対応する第1の不快反応パターンに一致したと判定した場合に、直ちに不快要因は不明であるが不快状態であると推定する構成を示したが、複数の不快要因に対応する第1の不快反応パターンに一致した場合にのみ起動するタイマを設け、第1の不快反応パターンが一致した状態が一定期間以上継続した場合に、不快要因は不明であるが不快状態であると推定する構成としてもよい。これにより、ユーザに対して不快要因の問い合わせが頻繁に行われることを防止することができる。これにより、ユーザの快適性を向上させることができる。
上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
この発明に係る状態推定装置は、ユーザが自身の感情の状態を示す情報を入力することなくユーザの状態を推定することができるため、環境制御システム等に適用し、ユーザの負担を抑制しながらユーザ状態を推定するのに適している。
100,100A,100B 状態推定装置、101 環境情報取得部、102 挙動情報取得部、103 生体情報取得部、104 行動検出部、105 行動情報データベース、106 反応検出部、107 反応情報データベース、108,201,301 不快判定部、109 学習部、110 不快区間推定部、111,302 不快反応パターンデータベース、112 学習用データベース、202 推定器生成部。

Claims (6)

  1. ユーザの動き情報、前記ユーザの音情報、および前記ユーザの操作情報とを含む挙動情報のうちの少なくともいずれか一つの情報と、予め格納された行動パターンとを照合し、一致する行動パターンを検出する行動検出部と、
    前記挙動情報および前記ユーザの生体情報と、予め格納された反応パターンとを照合し、一致する反応パターンを検出する反応検出部と、
    前記行動検出部が一致する行動パターンを検出した場合、または前記反応検出部が一致する反応パターンを検出し、且つ検出した前記反応パターンが予め格納された前記ユーザの不快状態を示す不快反応パターンと一致した場合に、前記ユーザが不快状態であると判定する不快判定部と、
    前記行動検出部が検出した行動パターンに基づいて不快区間を推定するための推定条件を取得し、予め格納された履歴情報のうち前記取得した推定条件と一致する区間を不快区間と推定する不快区間推定部と、
    前記履歴情報を参照し、前記不快区間推定部が推定した前記不快区間および前記不快区間以外の区間における反応パターンの発生頻度に基づいて前記不快反応パターンを取得して格納する学習部とを備えた状態推定装置。
  2. 前記履歴情報は、少なくとも前記ユーザの周囲の環境情報、前記ユーザの行動パターンおよび前記ユーザの反応パターンで構成されていることを特徴とする請求項1記載の状態推定装置。
  3. 前記学習部は、前記不快区間における前記履歴情報の反応パターンの発生頻度に基づいて不快反応パターン候補を抽出し、前記不快区間以外の区間における前記履歴情報の反応パターンの発生頻度に基づいて不快反応でないパターンを抽出し、前記不快反応パターン候補から前記不快反応でないパターンを除外した反応パターンを、前記不快反応パターンとして取得することを特徴とする請求項2記載の状態推定装置。
  4. 前記不快判定部は、前記反応検出部が検出した反応パターンが、前記格納された前記不快反応パターンと一致した場合に、当該一致した前記反応パターンに、固有の不快要因に対応した反応パターンが含まれている場合に、前記固有の不快要因に対応した反応パターンに基づいて前記ユーザの不快要因を特定することを特徴とする請求項1記載の状態推定装置。
  5. 前記履歴情報として規定の値以上の行動パターンが蓄積されている場合に、前記反応検出部が検出した反応パターンおよび前記環境情報に基づいて、前記ユーザが不快状態であるか否かを推定する推定器を生成する推定器生成部を備え、
    前記不快判定部は、前記推定器が生成されている場合に、当該推定器の推定結果を参照して前記ユーザが不快状態であるか否か判定を行うことを特徴とする請求項2記載の状態推定装置。
  6. 前記不快区間推定部は、前記行動検出部が検出した行動パターンに前記操作情報が含まれている場合に、前記操作情報を取得してから一定期間の区間を、前記不快区間から除外することを特徴とする請求項1記載の状態推定装置。
JP2018556087A 2016-12-14 2016-12-14 状態推定装置 Expired - Fee Related JP6509459B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/087204 WO2018109863A1 (ja) 2016-12-14 2016-12-14 状態推定装置

Publications (2)

Publication Number Publication Date
JP6509459B2 JP6509459B2 (ja) 2019-05-08
JPWO2018109863A1 true JPWO2018109863A1 (ja) 2019-06-24

Family

ID=62558128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018556087A Expired - Fee Related JP6509459B2 (ja) 2016-12-14 2016-12-14 状態推定装置

Country Status (5)

Country Link
US (1) US20200060597A1 (ja)
JP (1) JP6509459B2 (ja)
CN (1) CN110049724B (ja)
DE (1) DE112016007435T5 (ja)
WO (1) WO2018109863A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102485253B1 (ko) * 2017-11-10 2023-01-06 현대자동차주식회사 대화 시스템 및 그 제어방법
JP7238994B2 (ja) * 2019-07-19 2023-03-14 日本電気株式会社 快適性運転データ収集システム、運転制御装置、方法、および、プログラム
CN116963667A (zh) * 2021-03-15 2023-10-27 三菱电机株式会社 情绪推测装置以及情绪推测方法
JP2023174323A (ja) * 2022-05-27 2023-12-07 オムロン株式会社 環境制御システム、環境制御方法及び環境制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348432A (ja) * 2003-05-22 2004-12-09 Home Well:Kk 健康管理支援システム
JP2007236488A (ja) * 2006-03-06 2007-09-20 Toyota Motor Corp 覚醒度推定装置及びシステム並びに方法
JP2008532587A (ja) * 2005-02-22 2008-08-21 ヘルス−スマート リミテッド 生理学的及び心理学的/生理学的モニタリングのための方法及びシステム並びにその使用
JP2016165373A (ja) * 2015-03-10 2016-09-15 日本電信電話株式会社 センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3993069B2 (ja) * 2002-10-30 2007-10-17 三菱電機株式会社 脳波信号を利用した制御装置
JP2007167105A (ja) * 2005-12-19 2007-07-05 Olympus Corp 心身相関データ評価装置及び心身相関データ評価方法
JP2008099884A (ja) * 2006-10-19 2008-05-01 Toyota Motor Corp 状態推定装置
CN102485165A (zh) * 2010-12-02 2012-06-06 财团法人资讯工业策进会 可显示情绪的生理信号侦测系统、装置及显示情绪方法
WO2012117335A2 (en) * 2011-03-01 2012-09-07 Koninklijke Philips Electronics N.V. System and method for operating and/or controlling a functional unit and/or an application based on head movement
JP5194157B2 (ja) 2011-09-27 2013-05-08 三菱電機株式会社 プリント基板の保持構造
CN103111006A (zh) * 2013-01-31 2013-05-22 江苏中京智能科技有限公司 智能心情调整仪
US10405786B2 (en) * 2013-10-09 2019-09-10 Nedim T. SAHIN Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device
CN105682542B (zh) * 2013-10-22 2019-06-25 皇家飞利浦有限公司 用于监测对象的生命体征的传感器装置和方法
CN105615902A (zh) * 2014-11-06 2016-06-01 北京三星通信技术研究有限公司 情绪监控方法和装置
CN104434066A (zh) * 2014-12-05 2015-03-25 上海电机学院 一种驾驶员生理信号监控系统及方法
WO2016093347A1 (ja) * 2014-12-12 2016-06-16 株式会社デルタツーリング 生体状態分析装置及びコンピュータプログラム
CN105721936B (zh) * 2016-01-20 2018-01-16 中山大学 一种基于情景感知的智能电视节目推荐系统
CN106200905B (zh) * 2016-06-27 2019-03-29 联想(北京)有限公司 信息处理方法及电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348432A (ja) * 2003-05-22 2004-12-09 Home Well:Kk 健康管理支援システム
JP2008532587A (ja) * 2005-02-22 2008-08-21 ヘルス−スマート リミテッド 生理学的及び心理学的/生理学的モニタリングのための方法及びシステム並びにその使用
JP2007236488A (ja) * 2006-03-06 2007-09-20 Toyota Motor Corp 覚醒度推定装置及びシステム並びに方法
JP2016165373A (ja) * 2015-03-10 2016-09-15 日本電信電話株式会社 センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム

Also Published As

Publication number Publication date
US20200060597A1 (en) 2020-02-27
JP6509459B2 (ja) 2019-05-08
WO2018109863A1 (ja) 2018-06-21
CN110049724A (zh) 2019-07-23
DE112016007435T5 (de) 2019-07-25
CN110049724B (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
JP6509459B2 (ja) 状態推定装置
US8125314B2 (en) Distinguishing between user physical exertion biometric feedback and user emotional interest in a media stream
TWI621470B (zh) 快速識別方法及家庭智能機器人
JP4073711B2 (ja) 操作補助方法、操作補助装置、プログラムおよびプログラムを記録した媒体
JP2002182680A (ja) 操作指示装置
JP2017059043A (ja) 車両用覚醒制御システム
US10195748B2 (en) Humanoid robot
TWI654600B (zh) 語音情緒辨識系統與方法以及使用其之智慧型機器人
EP3432598B1 (en) Noise detection device and audio signal output device
EP2457365A1 (en) Event disambiguation
CN111402880A (zh) 一种数据处理方法、装置及电子设备
US4867171A (en) Blood pressure measurement apparatus
JPWO2019102525A1 (ja) 異常検知装置及び異常検知方法
WO2021234972A1 (ja) 手洗い認識システムおよび手洗い認識方法
CN111787861B (zh) 不愉快状态判定装置
CN106027762A (zh) 一种手机寻回方法及装置
CN112102837B (zh) 家电设备及家电设备的拾音检测方法、装置
JP2015039904A (ja) 操作者識別装置
JP2018049484A (ja) 気質推定システム、気質推定方法及び気質推定処理プログラム
CN109949831B (zh) 智能设备中语音识别的方法、装置及计算机可读存储介质
JP7325687B2 (ja) 眠気推定装置及び眠気推定システム
JP2020129763A5 (ja)
JP2020086808A (ja) 情報処理装置、広告出力方法、及びプログラム
JP2005275536A (ja) 会話先導者判別装置および会話先導者判別方法
JP6962551B2 (ja) 瞳孔反応を用いた情報処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190121

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190121

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190402

R150 Certificate of patent or registration of utility model

Ref document number: 6509459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees