JP2014094291A - ユーザの心理状態判断装置及び方法 - Google Patents

ユーザの心理状態判断装置及び方法 Download PDF

Info

Publication number
JP2014094291A
JP2014094291A JP2013233195A JP2013233195A JP2014094291A JP 2014094291 A JP2014094291 A JP 2014094291A JP 2013233195 A JP2013233195 A JP 2013233195A JP 2013233195 A JP2013233195 A JP 2013233195A JP 2014094291 A JP2014094291 A JP 2014094291A
Authority
JP
Japan
Prior art keywords
user
psychological state
data
information
feature data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013233195A
Other languages
English (en)
Other versions
JP6571310B2 (ja
Inventor
Kosho Lee
昊 燮 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014094291A publication Critical patent/JP2014094291A/ja
Application granted granted Critical
Publication of JP6571310B2 publication Critical patent/JP6571310B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/222Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】ユーザの心理状態判断装置及び方法を提供する。
【解決手段】端末でユーザの心理状態を判断する装置は、センサーデータを収集するデータ収集部110と、センサーデータから特徴データを抽出するデータ処理部120と、特徴データを推論モデルに提供してユーザの心理状態を判断する心理状態判断部150と、を含む。
【選択図】図1

Description

本発明は、端末でユーザの心理状態を判断する装置及び方法に関する。
最近、販売されているスマートフォン、タブレットPCなどの端末は、強力なハードウェア性能に基づいて多様な機能を提供している。特に、ユーザが直面した状況を認識して、それに合う機能を提供する状況認識サービス(context aware service)が活発に試みられている。現在までは、ユーザの位置情報を活用して提供するサービス、例えば、ユーザが特定の飲食店の前に行けば、使えるクーポンを自動で提示するサービスなどが主流をなしており、未来には、ユーザの心理状態のようにより意味のあるユーザ情報に基づいた知能型サービスが提供されると予想されている。
しかし、ユーザの心理状態のうち、感情を認識する技術と関連して、今のところは、ユーザの顔面映像を分析して、特定の顔の筋肉の動きを特定の感情でマッピングする技術、またはユーザの音声の特徴を分析して、特定の感情でマッピングする技術、またはユーザの生体信号の特徴を分析して、特定の感情でマッピングする技術のように、主にユーザの身体的反応を分析対象とするレベルに留まっている。このような、ユーザの身体的反応を分析する感情認識技術は、ユーザが意図的に身体的反応を隠す場合(無表情など)、ユーザの内面の隠された感情を把握することは容易ではなく、身体的反応を測定するために、別途のセンサー(皮膚伝導度センサーなど)を身体に装着しなければならない不便さをもたらして、使用上の制約が存在する。
本発明は、ユーザの心理状態判断装置及び方法を提供することである。
本発明の一態様によれば、ユーザの心理状態判断装置は、センサーデータを収集するデータ収集部と、前記センサーデータから特徴データを抽出するデータ処理部と、前記特徴データを推論モデルに提供してユーザの心理状態を判断する心理状態判断部と、を含む。
前記センサーデータは、タッチスクリーン、加速度センサー、方向センサー、GPS、照度センサー、マイクロホン、ジャイロスコープセンサー、磁力計センサー(magnetometer sensor)、気圧センサー(barometer sensor)、指紋センサー(fingerprint sensor)、及びソフトウェアセンサーのうちの1つ以上を含むセンサーを通じて測定されうる。
前記特徴データは、テキスト入力情報及び状況情報を含み、前記テキスト入力情報は、キーボード入力情報、筆記入力情報、及び端末状態情報のうちの1つ以上を含み、前記状況情報は、位置、天気、不快指数、時間、及び平均照度のうちの1つ以上を含みうる。
前記ユーザの心理状態判断装置は、特徴データが抽出されれば、学習データを生成するか否かを判断し、前記特徴データを用いて学習データを生成する学習データ生成部をさらに含み、前記心理状態判断部は、前記学習データを用いて前記推論モデルを構築することができる。
前記学習データ生成部は、前記抽出された特徴データから少なくとも1つの特徴データを選択し、ユーザに心理状態を質疑してユーザの応答に基づいて学習データを生成することができる。前記学習データ生成部は、前記抽出された特徴データに対する重要度を計算し、前記重要度に基づいて前記少なくとも1つの特徴データを選択することができる。
前記抽出された特徴データに対する重要度は、情報利得(Information Gain)、カイ二乗分布(Chi−Sqaured Distribution)、及び相互情報(Mutual Information)アルゴリズムを含むアルゴリズムを用いて計算されうる。
前記ユーザの心理状態判断装置は、前記学習データを保存する学習データベースをさらに含みうる。前記心理状態は、感情、気持ち、またはストレスのうち少なくとも1つを含み、前記心理状態のそれぞれは、1つ以上の下位レベルを含みうる。
前記心理状態判断部は、決定ツリー(Decision Tree)アルゴリズム及びナイーブベイズ分類(Navie Bayes Classification)アルゴリズムを含む指導学習(Supervised Learning)アルゴリズムを用いて、前記特徴データを前記推論モデルに提供することができる。
前記ユーザの心理状態判断装置は、前記判断されたユーザの心理状態に基づいて所定の措置を実行する措置実行部をさらに含みうる。
前記所定の措置は、前記判断されたユーザの心理状態と関連した情報提供、前記ユーザの心理状態に基づいた前記端末のユーザインターフェース制御、前記ユーザの心理状態に基づいたコンデンツ推薦、及び前記ユーザの心理状態を利用した学習データ更新中を含みうる。
前記ユーザの心理状態判断装置は、所定の措置を保存する措置データベースをさらに含みうる。
前記措置実行部は、対話型インターフェース(conversational interface)を提供する対話型ソフトウェアエージェント(interactive software agent)に搭載されうる。
前記ユーザの心理状態判断装置は、前記端末のユーザを認証する認証部をさらに含みうる。
前記ユーザは、ログオン情報、指紋、または生体認識情報(biometric information)のうち少なくとも1つに基づいて認証されうる。
本発明の一態様によるユーザの心理状態判断方法は、ユーザが端末でテキストを入力する時に発生するセンサーデータを収集する段階と、前記センサーデータから特徴データを抽出する段階と、前記特徴データを構築された推論モデルに適用してユーザの心理状態を判断する段階と、を含む。
前記センサーデータは、タッチスクリーン、加速度センサー、方向センサー、GPS、照度センサー、マイクロホン、ジャイロスコープセンサー、磁力計センサー、気圧センサー、指紋センサー、及びソフトウェアセンサーのうちの1つ以上を含むセンサーを通じて測定されうる。
前記特徴データは、テキスト入力情報及び状況情報を含み、前記テキスト入力情報は、キーボード入力情報、筆記入力情報、及び端末状態情報のうちの1つ以上を含み、前記状況情報は、位置、天気、不快指数、時間、及び平均照度のうちの1つ以上を含みうる。
前記ユーザの心理状態判断方法は、特徴データが抽出されれば、学習データを生成するか否かを判断する段階と、学習データが生成されれば、前記特徴データを用いて学習データを生成する段階と、前記学習データを用いて前記推論モデルを構築する段階と、をさらに含みうる。前記学習データ生成段階は、前記抽出された特徴データから少なくとも1つの特徴データを選択する段階と、ユーザに心理状態を質疑する段階と、ユーザの応答に基づいて学習データを生成する段階と、を含みうる。
前記少なくとも1つの特徴データを選択する段階は、前記抽出された特徴データに対する重要度を計算し、前記重要度に基づいて前記少なくとも1つの特徴データを選択することができる。前記抽出された特徴データに対する重要度は、情報利得、カイ二乗分布、及び相互情報アルゴリズムを含むアルゴリズムを用いて計算されうる。
前記心理状態は、感情、気持ち、またはストレスのうち少なくとも1つを含み、前記心理状態のそれぞれは、1つ以上の下位レベルを含みうる。前記心理状態判断段階は、決定ツリーアルゴリズム及びナイーブベイズ分類アルゴリズムを含む指導学習アルゴリズムを用いて、前記特徴データを前記推論モデルに適用することができる。
ユーザの心理状態判断方法は、前記判断されたユーザの心理状態に基づいて所定の措置を実行する段階をさらに含みうる。
前記所定の措置は、前記判断されたユーザの心理状態と関連した情報提供、前記心理状態に基づいた端末のユーザインターフェース制御、前記ユーザの心理状態に基づいたコンデンツ推薦、及び前記ユーザの心理状態判断結果を利用した学習データ更新を含みうる。
本発明の他の態様によるユーザの心理状態判断方法は、ユーザが端末にテキストを入力する速度を抽出する段階と、前記テキスト入力速度を推論モデルに適用してユーザの心理状態を判断する段階と、前記判断された心理状態に基づいて所定の措置を実行する段階と、を含む。前記ユーザの心理状態判断方法は、ユーザのテキストの入力時に発生する他の情報を抽出し、前記推論モデルに適用することができる。
前記他の情報は、端末の位置情報を含みうる。前記他の情報は、天気情報を含みうる。前記他の情報は、端末の状態情報を含みうる。前記端末の状態情報は、端末の揺れ回数を含みうる。
本発明の他の態様によるユーザの心理状態判断方法は、ユーザの端末を用いたテキストの入力時に生成されるセンサーデータを収集する段階と、前記ユーザ入力データから特徴データを抽出する段階と、学習データを生成するか否かを判断する段階と、ユーザの心理状態を判断するために、前記特徴データを推論モデルに適用する段階と、を含む。前記学習データを生成するか否かを判断する段階は、既定の第1基準を満足するか否かを確認するか、ユーザから学習データ生成要請を受信する段階を含みうる。
前記ユーザの心理状態判断方法は、学習データを生成しなければならない場合、前記特徴データを用いて学習データを生成する段階と、前記学習データが既定の第2基準を超過するか否かを確認する段階と、前記学習データが、前記既定の第2基準を超過する場合、前記学習データを用いて前記推論モデルを構築する段階と、をさらに含みうる。前記ユーザの心理状態判断方法は、前記判断されたユーザの心理状態に対するユーザの応答を用いて、前記推論モデルを更新する段階をさらに含みうる。
本発明の一実施形態によるユーザの心理状態判断装置のブロック図である。 特徴データの一例を示す図面である。 特徴データを利用した心理状態判断結果の一例を示す図面である。 特徴データを利用した心理状態判断結果の一例を示す図面である。 学習データ生成のための質疑の例を示す図面である。 本発明の一実施形態によるユーザの心理状態判断方法のフローチャートである。 本発明の他の実施形態によるユーザの心理状態判断方法のフローチャートである。
その他の実施形態の具体的な事項は、詳細な説明及び図面に含まれている。記載の技術の利点及び特徴、そして、それらを果たす方法は、添付される図面と共に詳細に後述されている実施形態を参照すると、明確になる。明細書の全般に亘って同じ参照符号は、同じ構成要素を指称する。
以下、ユーザの心理状態判断装置及び方法の実施形態を図面を参考にして詳しく説明する。
図1は、本発明の一実施形態によるユーザの心理状態判断装置のブロック図である。図1を参照すると、ユーザの心理状態判断装置100は、データ収集部110、データ処理部120、心理状態判断部150、及び措置実行部160を含む。
データ収集部110は、ユーザが端末でテキストを入力する時に発生するセンサーデータを収集する。ここで、端末、装置、モバイル端末は、例えば、携帯電話、スマートフォン、ウェアラブル(wearable)スマート装置(例えば、時計、メガネなど)、タブレットPC(tablet personal computer)、PDA(Personal Digital Assistant)、デジタルカメラ、携帯用ゲームコンソール(potable game console)、MP3プレーヤー、PMP(Potable/Personal Multimedia Player)、handheld e−book、UMPC(Ultra Mobile Personal Computer)、携帯用ラップトップPC(portable lab−top PC)、GPSナビゲーションのようなモバイル装置、及びデスクトップPC、HDTV(High Definition TeleVision)、光ディスクプレーヤー(optical disc player)、セットトップボックス(setup box)のような装置を意味する。
ユーザは、移動端末を用いて、例えば、電子メール確認、SNS(Social Network Service)活動、インターネットブラウジング、モバイルメッセンジャー使用、ショッピング、ナビゲーション、ゲームなどの各種作業を行うことができる。ユーザが、移動端末でこのような作業を行う時、端末に内蔵された多様なセンサーから多様な形態のデータが生成されうる。このようなセンサーは、タッチスクリーン、加速度センサー、ジャイロスコープセンサー、磁力計センサー、方向センサー、GPS、照度センサー、指紋センサー、気圧センサー、マイクロホン、及びソフトウェアセンサーなどを含みうる。データ収集部110は、このようなセンサーから生成されたデータを収集することができる。
データ処理部120は、収集されたセンサーデータからユーザ心理状態分析のための特徴データを抽出する。ユーザが、キーボード、タッチスクリーン、またはスタイラスペン(stylus pen)などを用いてテキストを入力する時、ユーザの心理状態と関連した多様な癖や特徴が内包されている。データ処理部120は、センサーデータからユーザの心理状態によって無意識的に変わりうるユーザのテキスト入力習慣に関する情報を特徴データとして抽出することができる。また、データ処理部120は、テキストを入力する時、ユーザの周辺状況に応じてユーザの心理状態が変わりうる点を考慮して、ユーザの周辺状況に関する情報を特徴データとして抽出することができる。但し、特徴データは、これに限定されるものではなく、ユーザの心理状態を反映することができる如何なるセンサーデータも特徴データとして利用されうる。
図2は、特徴データの一例である。図1及び図2を参照すると、データ処理部120は、ユーザがテキスト(例:メッセージ)を入力する途中で持続的に収集されるセンサーデータのうちから習慣情報としてキーボード入力情報、筆記入力情報、及び端末状態情報のうちの1つ以上を特徴データとして抽出することができる。キーボード入力情報は、端末のキーボードを介したテキストの入力時に発生するデータである。図2に例示されたように、キーボード入力情報は、タイプ速度、最長のテキスト長、最長の削除されたテキスト長、最短の削除されたテキスト長、編集当たりロングタッチ(long touch)の数、編集当たりタイピングされた単語の数、バックスペースキーの使用頻度、エンターキーの使用頻度、特殊記号の使用頻度などになりうる。筆記入力情報は、例えば、スタイラスペンのような筆記用具を用いたテキストの入力時に発生するデータである。図2に例示されたように、筆記入力情報は、筆記入力速度、文字サイズの平均、平均筆圧、文字画の直進度(または、曲率)の平均、行間隔の平均、筆記入力規則性(writing input regularity)などを含みうる。図2に例示されたように、端末状態情報は、機器揺れ回数、平均機器傾き程度、平均バッテリ残量、及び平均音量などを含みうる。
さらに他の例として、データ処理部120は、テキスト入力途中で1回以上収集される状況情報を特徴データとして抽出することができる。図2に例示されたように、状況情報は、位置、天気、不快指数(discomfort index)、時間、平均照度、及び入力されたメッセージの受信者に関する情報などを含みうる。例えば、不快指数は、温湿度指数(temperature−humidity index、THI)であり、THIは、温度及び湿度によって人が感じることができる不快感を数量化したものであり得る。例えば、数式1及び数式2を用いて計算することができる。
数式1:不快指数=0.72(乾球温度(dry−bulb temperature)+湿球温度(wet−bulb temperature))+40.6
数式2:不快指数=0.72(乾球温度+湿球温度)+15
数式1は、摂氏温度を使う場合であり、数式2は、華氏温度を使う場合の例である。
例えば、位置、天気、及び不快指数のような状況情報のうち一部は、所定基準または所定のスケジュールによって1回以上抽出されうる。所定の基準によって状況情報を収集することの一例として、状況情報は、ユーザが移動しながらテキストを入力している場合、一定距離ほど(例:10M)移動する度に抽出されうる。さらに他の例として、一定時間(例:1分)が経過する度に状況情報を抽出することも可能である。メッセージ受信者情報は、ユーザの心理状態によって特定受信者にメッセージを送信する回数、あるいは頻度が変化することを表すことができる。
心理状態判断部150は、抽出された特徴データを推論モデルに適用してユーザの心理状態を判断することができる。心理状態判断部150は、あらかじめ生成されている学習データを用いて推論モデルを構築し、その特徴データを構築された推論モデルに適用してユーザの心理状態を判断することができる。心理状態判断部150は、特徴データを指導学習アルゴリズムのうちの何れか1つを用いて推論モデルに適用して心理状態を判断することができる。指導学習アルゴリズムは、決定ツリー、ナイーブベイズ分類アルゴリズムなどを含みうる。
図3A及び図3Bは、特徴データを利用した心理状態判断結果の一例である。図1、図3A及び図3Bを参照すると、心理状態判断部150は、図3A及び図3Bに例示されたように、特徴データを用いてユーザの心理状態を分類することができる。この際、心理状態は、感情、気持ち、ストレスのうちの1つ以上を含み、各心理状態は、多様な下位レベルに分類されうる。例えば、感情の場合、幸せ、喜び、悲しみ、驚きなどに分類され、気持ちは、良い、普通、憂鬱などに分類されうる。また、ストレスは、上、中、下に分類されうる。また、図3Aに示された信頼度レベル、または分類正確性確率は、心理状態または感情に起因することができる。
心理状態判断部150は、図3Aに例示されたように、特徴データを用いて1つの心理状態を判断することができる。または、図3Bに例示されたように、2つ以上の心理状態を判断することができる。
図3Aに例示されたように、キーボードを通じるタイプ入力速度が分当たり23打、メッセージを作成する間にバックスペースキーの使用頻度3回、特殊記号の使用頻度5回、機器揺れ回数10回、平均照度150Lux、特定位置(例:道路)を数値化した値が3である場合、この特徴データを推論モデルに適用して分類した感情状態は、74%の信頼度レベルで‘驚き’である。図3Bに例示されたように、心理状態のうち、感情状態は、スタイラスペンなどを通じてテキストを入力する時、抽出される筆記速度、平均筆圧、筆記入力規則性などの筆記入力情報を用いて判断されうる。ストレスは、平均バッテリ残量、平均音量などの端末状態情報を用いて判断されうる。
図1を参照すると、ユーザの心理状態判断装置100は、学習データ生成部130、及び学習データDB140をさらに含みうる。
学習データ生成部130は、特徴データが抽出されれば、学習データを生成するか否かを判断することができる。学習データ生成部130は、ユーザに学習データ生成の有無を質疑し、その質疑に対してユーザが学習データを生成するように要請する場合、または既定の所定基準(例:保存された学習データの数が一定値以下である場合)を満足する場合、学習データを生成することができる。
図4は、学習データ生成のための質疑の例である。図1及び図4を参照すると、学習データ生成部130は、学習データを生成する場合、抽出された特徴データから少なくとも一部の特徴データを選択し、その選択された特徴データに対してユーザに心理状態を質疑して、ユーザの応答に基づいて学習データを生成することができる。
学習データ生成部130は、先に抽出された特徴データのうちから推論モデル構築に必要な意味のある特徴データを選択することができる。学習データ生成部130は、抽出された特徴データからノイズを除去することができる。例えば、抽出された特徴データを数値化した値の大多数が0またはヌル(Null)である場合、当該特徴データをノイズと判断することができる。さらに他の例として、特徴データの変化(例:標準偏差)が所定の臨界値に達していない場合、当該特徴データをノイズと判断することができる。この際、特徴データの形態が数字ではない名目型(Nominal)である場合、当該特徴データを任意の数字に変換し、その数値を利用できる。例えば、現在位置が、家であれば1、会社であれば2、道路であれば3のように変換することができる。
学習データ生成部130は、ノイズが除去された特徴データから重要度が高い一部の特徴データを選択することができる。学習データ生成部130は、例えば、情報利得、カイ二乗分布、及び相互情報アルゴリズムなどの特徴選択アルゴリズムを用いて抽出された特徴データに対する重要度を計算することができる。学習データ生成部130は、計算された重要度に基づいて高い重要度を有する一部の特徴データを選択することができる。
一部の特徴データが選択された場合、図4に例示されたように、ユーザに心理状態を質疑することができる。ユーザが心理状態を選択すれば、その心理状態を特徴データに索引処理して学習データを生成し、学習データDB140に保存することができる。図4に例示されたように、ユーザが、‘今日は良い天気ですね!’のようなメッセージを作成すれば、現在の感情状態を選択することができるエモーティコンを端末に表示することができる。学習データ生成部130は、ユーザによって選択されたエモーティコンに対応する感情状態を特徴データに索引処理して学習データを生成することができる。
学習データ生成部130は、ユーザが心理状態を容易に入力できるように心理状態に対応するエモーティコンなどを端末を通じて提供することができる。また、学習データ生成部130は、ユーザが自身の心理状態をテキストで入力できるようにテキスト入力窓を提供することができる。学習データ生成部130は、例えば、ユーザが端末を通じてテキストを入力した直後の心理状態、ユーザが移動をしばらく止めた場合の心理状態、ユーザが複数のメッセージを入力する場合、メッセージ作成する間に感じた心理状態のように多様な状況での心理状態に対して質疑することができる。
心理状態判断部150は、学習データ生成部130によって生成されて、学習データDB140に保存された学習データを用いて推論モデルを構築することができる。心理状態判断部150が心理状態を判断した場合、措置実行部160は、その心理状態によって適切な措置を実行することができる。措置実行部160は、例えば、判断された心理状態と関連した情報を提供するか、その判断された心理状態に基づいて端末のユーザインターフェースを制御することができる。
例えば、措置実行部160は、ユーザ本人、知人、または医療陣などにユーザの現在の心理状態を知らせることができる。さらに他の例として、措置実行部160は、過去1ヶ月、または他のある期間の間の‘幸せ’感情を感じた回数、時間帯、場所などをグラフで表示するように累積された心理状態の統計情報を提供することができる。措置実行部160は、ユーザが文字メッセージ、電子メール、SNS掲示物作成時に感じたユーザの心理状態を自動で記録し、ユーザの心理状態についての情報を適切に加工して提供することができる。
措置実行部160は、ユーザの心理状態によって端末のユーザインターフェーステーマ(例:字体、色、背景、明るさなど)を自動で変更することができる。また、措置実行部160は、ユーザの心理状態に適切なコンテンツ(例:音楽、ゲーム、映画など)を推薦することができる。さらに他の例として、ユーザの現在感情が悲しみである場合、“すべては考え方次第です。頑張ってください!”のようにユーザの現在心理状態に適切なメッセージを表示することができる。このような措置実行部160が、対話型ソフトウェアエージェントに搭載される場合、端末がユーザの心理状態に適切に反応して対話を試みることが可能となる。
ユーザの心理状態判断結果が正しい場合、措置実行部160は、抽出された特徴データに判断された心理状態を索引処理して学習データを更新することができる。ユーザの心理状態判断装置100は、措置DB170をさらに含み、措置DB170は、心理状態判断時に実行する各種措置についての情報を保存することができる。例えば、心理状態による適切なユーザインターフェース構成方法、心理状態別推薦コンテンツのリスト、対応メッセージなどの情報が保存することができる。
ユーザの心理状態判断装置100は、ユーザ認証部(図示せず)をさらに含みうる。ユーザ認証部(図示せず)は、ID/パスワード、生体認識(biometrics)、公認認証でなどを通じるログイン、顔認識などを通じてユーザを認証することができる。学習データは、各ユーザ別に生成され、推論モデルも各ユーザ別に構築されうる。これを通じて、1つの移動端末を多数のユーザが使う場合にも、各ユーザによる最適化された心理状態情報提供が可能となる。
図5は、本発明の一実施形態によるユーザの心理状態判断方法のフローチャートである。図5を参照して、図1のユーザの心理状態判断装置100を通じてユーザの心理状態を判断する方法の一実施形態を説明する。図5の動作は、示された順序と方式とで行われうるが、示された例の範囲及び思想を外れない範囲内で一部の動作が省略されるか、動作順序が変更されうる。図5に示された動作は、並列的に、または同時に行われる。図1ないし図4の説明は、図5にも適用可能なので、重複された説明は省略する。
ユーザの心理状態判断装置100は、ユーザが端末でテキストを入力する時に発生するセンサーデータを収集する(段階301)。ユーザの心理状態判断装置100は、収集されたセンサーデータからユーザ心理状態分析のための特徴データを抽出する(段階302)。
特徴データが抽出されれば、ユーザの心理状態判断装置100は、学習データを生成するか否かを判断することができる(段階303)。例えば、特徴データが抽出されれば、ユーザの心理状態判断装置100は、既定の所定基準(例:保存された学習データの数が一定値以下である場合)を満足する場合、またはユーザに学習データ生成の有無を質疑し、ユーザが学習データを生成するように要請する場合、学習データが生成されなければならないと判断することができる。
学習データが生成されなければならないと判断された場合、ユーザの心理状態判断装置100は、抽出された特徴データを用いて学習データを生成することができる(段階304)。前述したように、ユーザの心理状態判断装置100は、抽出された特徴データ、またはその特徴データからノイズを除去し、残りの特徴データに対してユーザに心理状態を質疑してユーザが入力した心理状態を特徴データに索引処理することによって、学習データを生成することができる。前述したように、ユーザの心理状態判断装置100は、抽出された特徴データまたは抽出された特徴データからノイズが除去され、残りの特徴データのうちから重要度に基づいて少なくとも一部の特徴データを選択し、その選択された特徴データに対して学習データを生成することも可能である。学習データが生成されれば、ユーザの心理状態判断装置100は、センサーデータを収集する段階(301)に戻ることができる。これは、例えば、生成された学習データの数が既定の基準値である場合に発生することがある。さらに他の例として、ユーザが、推論モデル構築要請に応答しない場合、ユーザの心理状態判断装置100は、生成された学習データがまだ推論モデルを構築するのに十分ではないと判断し、再びセンサーデータを収集することができる。生成された学習データの数が既定の基準値を超過するか、ユーザの要請が入力されれば、ユーザの心理状態判断装置100は、生成された学習データで推論モデルを構築し、学習することができる(段階305)。
ユーザの心理状態判断装置100は、特徴データを構築された推論モデルに適用して心理状態を判断することができる(段階306)。
前述したように、心理状態が判断されれば、ユーザの心理状態判断装置100は、その心理状態によって適切な措置を実行することができる(段階307)。判断された心理状態の真偽の結果が真である場合、ユーザの心理状態判断装置100は、抽出された特徴データ及び判断された心理状態を索引処理して学習データを更新することもできる。
図6は、本発明の他の実施形態によるユーザの心理状態判断方法のフローチャートである。図6の動作は、示された順序と方式とで行われうるが、示された例の範囲及び思想を外れない範囲内で一部の動作が省略されるか、動作順序が変更されうる。図6に示された動作は、並列的に、または同時に行われる。図1ないし図4の説明は、図6にも適用可能なので、重複された説明は省略する。
図6を参照して、図1のユーザの心理状態判断装置100を通じてユーザの心理状態を判断する方法の他の実施形態を説明する。
ユーザが端末にテキストを入力すれば、ユーザの心理状態判断装置100は、テキスト入力速度を抽出し(段階401)、テキスト入力速度を推論モデルに適用してユーザの心理状態を判断することができる(段階402)。テキスト入力速度は、ユーザの感情状態によって変わり、ユーザの心理状態判断装置100は、抽出されたテキスト入力速度を通じて表われるユーザの心理状態を判断することができる。一方、ユーザの心理状態判断時にテキスト入力速度に追加して、ユーザの心理状態判断装置100は、ユーザのテキストの入力時に発生する他の情報をさらに抽出し、その他の情報を推論モデルに適用してユーザの心理状態を判断することができる。他の情報は、端末の位置情報、天気情報、及び端末の揺れ回数のような端末の状態情報など、前記で明示された情報1つ以上の形態であり得る。
ユーザの心理状態が判断されれば、ユーザの心理状態判断装置100は、判断された心理状態に基づいて所定の措置を実行することができる(段階403)。所定の措置は、前述したように、ユーザ本人、知人、または医療陣などにユーザの現在の心理状態を知らせるか、累積された心理状態の統計情報を提供することなどになりうる。このような情報は、ユーザが文字メッセージ、電子メール、SNS掲示物作成時に自動で記録されて提供されうる。または、ユーザの心理状態によって端末のユーザインターフェーステーマ(例:字体、色など)を自動で変更するか、ユーザの心理状態に適切なコンテンツ(例:音楽、ゲーム、映画など)を推薦すること、またはユーザの現在心理状態に適切な対応メッセージを表示することになりうる。
一方、本実施形態は、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取れるデータが保存されるあらゆる種類の記録装置を含む。
コンピュータで読み取り可能な記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがあり、また、キャリアウェーブ(例えば、インターネットを介した伝送)の形態で具現するものを含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散されて、分散方式でコンピュータで読み取り可能なコードとして保存されて実行可能である。そして、本発明を具現するための機能的な(functional)プログラム、コード及びコードセグメントは、本発明が属する技術分野のプログラマーによって容易に推論されうる。
当業者ならば、本発明がその技術的思想や必須の特徴を変更せずとも、他の具体的な形態で実施可能であることを理解できるであろう。したがって、前述した実施形態は、あらゆる面で例示的なものであり、限定的ではないということを理解せねばならない。
本発明は、ユーザの心理状態判断装置及び方法関連の技術分野に適用可能である。
110 データ収集部
120 データ処理部
130 学習データ生成部
140 学習データDB
150 心理状態判断部
160 措置実行部
170 措置DB

Claims (37)

  1. センサーデータを収集するデータ収集部と、
    前記センサーデータから特徴データを抽出するデータ処理部と、
    前記特徴データを推論モデルに提供してユーザの心理状態を判断する心理状態判断部と、
    を含むユーザの心理状態判断装置。
  2. 前記センサーデータは、
    タッチスクリーン、加速度センサー、方向センサー、GPS、照度センサー、マイクロホン、ジャイロスコープセンサー、磁力計センサー、気圧センサー、指紋センサー、及びソフトウェアセンサーのうちの1つ以上を含むセンサーを通じて測定される請求項1に記載のユーザの心理状態判断装置。
  3. 前記特徴データは、テキスト入力情報及び状況情報を含み、
    前記テキスト入力情報は、キーボード入力情報、筆記入力情報、及び端末状態情報のうちの1つ以上を含み、
    前記状況情報は、位置、天気、不快指数、時間、及び平均照度のうちの1つ以上を含む請求項1または2に記載のユーザの心理状態判断装置。
  4. 前記特徴データが抽出されれば、学習データを生成するか否かを判断し、前記特徴データを用いて前記学習データを生成する学習データ生成部をさらに含み、
    前記心理状態判断部は、
    前記学習データを用いて前記推論モデルを構築する請求項1に記載のユーザの心理状態判断装置。
  5. 前記学習データ生成部は、
    前記抽出された特徴データから少なくとも1つの特徴データを選択し、ユーザに心理状態を質疑してユーザの応答に基づいて学習データを生成する請求項4に記載のユーザの心理状態判断装置。
  6. 前記学習データ生成部は、
    前記抽出された特徴データに対する重要度を計算し、前記重要度に基づいて前記少なくとも1つの特徴データを選択する請求項4または5に記載のユーザの心理状態判断装置。
  7. 前記抽出された特徴データに対する重要度は、情報利得、カイ二乗分布、及び相互情報アルゴリズムを含むアルゴリズムを用いて計算される請求項6に記載のユーザの心理状態判断装置。
  8. 前記学習データを保存する学習データベースをさらに含む請求項4に記載のユーザの心理状態判断装置。
  9. 前記心理状態は、
    感情、気持ち、またはストレスのうち少なくとも1つを含み、前記心理状態のそれぞれは、1つ以上の下位レベルを含む請求項1に記載のユーザの心理状態判断装置。
  10. 前記心理状態判断部は、
    決定ツリーアルゴリズム及びナイーブベイズ分類アルゴリズムを含む指導学習アルゴリズムを用いて、前記特徴データを前記推論モデルに提供する請求項1に記載のユーザの心理状態判断装置。
  11. 前記判断されたユーザの心理状態に基づいて所定の措置を実行する措置実行部をさらに含む請求項1に記載のユーザの心理状態判断装置。
  12. 前記所定の措置は、
    前記判断されたユーザの心理状態と関連した情報提供、前記ユーザの心理状態に基づいた前記端末のユーザインターフェース制御、前記ユーザの心理状態に基づいたコンデンツ推薦、及び前記ユーザの心理状態を利用した学習データ更新中を含む請求項11に記載のユーザの心理状態判断装置。
  13. 前記所定の措置を保存する措置データベースをさらに含む請求項11に記載のユーザの心理状態判断装置。
  14. 前記措置実行部は、対話型インターフェースを提供する対話型ソフトウェアエージェントに搭載される請求項11に記載のユーザの心理状態判断装置。
  15. 前記端末のユーザを認証する認証部をさらに含む請求項1に記載のユーザの心理状態判断装置。
  16. 前記ユーザは、ログオン情報、指紋、または生体認識情報のうち少なくとも1つに基づいて認証される請求項15に記載のユーザの心理状態判断装置。
  17. ユーザが端末でテキストを入力する時に発生するセンサーデータを収集する段階と、
    前記センサーデータから特徴データを抽出する段階と、
    前記特徴データを構築された推論モデルに適用してユーザの心理状態を判断する段階と、
    を含むユーザの心理状態判断方法。
  18. 前記センサーデータは、
    タッチスクリーン、加速度センサー、方向センサー、GPS、照度センサー、マイクロホン、ジャイロスコープセンサー、磁力計センサー、気圧センサー、指紋センサー、及びソフトウェアセンサーのうちの1つ以上を含むセンサーを通じて測定される請求項17に記載のユーザの心理状態判断方法。
  19. 前記特徴データは、テキスト入力情報及び状況情報を含み、
    前記テキスト入力情報は、キーボード入力情報、筆記入力情報、及び端末状態情報のうちの1つ以上を含み、
    前記状況情報は、位置、天気、不快指数、時間、及び平均照度のうちの1つ以上を含む請求項17または18に記載のユーザの心理状態判断方法。
  20. 前記特徴データが抽出されれば、学習データを生成するか否かを判断する段階と、
    前記学習データを生成する場合、前記特徴データを用いて学習データを生成する段階と、
    前記学習データを用いて前記推論モデルを構築する段階と、
    をさらに含む請求項17に記載のユーザの心理状態判断方法。
  21. 前記学習データを生成する段階は、
    前記抽出された特徴データから少なくとも1つの特徴データを選択する段階と、
    ユーザに心理状態を質疑する段階と、
    ユーザの応答に基づいて学習データを生成する段階と、
    を含む請求項20に記載のユーザの心理状態判断方法。
  22. 前記少なくとも1つの特徴データを選択する段階は、
    前記抽出された特徴データに対する重要度を計算し、前記重要度に基づいて前記少なくとも1つの特徴データを選択する請求項21に記載のユーザの心理状態判断方法。
  23. 前記抽出された特徴データに対する重要度は、情報利得、カイ二乗分布、及び相互情報アルゴリズムを含むアルゴリズムを用いて計算される請求項22に記載のユーザの心理状態判断方法。
  24. 前記心理状態は、
    感情、気持ち、またはストレスのうち少なくとも1つを含み、
    前記心理状態のそれぞれは、1つ以上の下位レベルを含む請求項17に記載のユーザの心理状態判断方法。
  25. 前記心理状態判断段階は、
    決定ツリーアルゴリズム及びナイーブベイズ分類アルゴリズムを含む指導学習アルゴリズムを用いて、前記特徴データを前記推論モデルに適用する請求項17に記載のユーザの心理状態判断方法。
  26. 前記判断されたユーザの心理状態に基づいて所定の措置を実行する段階をさらに含む請求項17に記載のユーザの心理状態判断方法。
  27. 前記所定の措置は、前記判断されたユーザの心理状態と関連した情報提供、前記心理状態に基づいた端末のユーザインターフェース制御、前記ユーザの心理状態に基づいたコンデンツ推薦、及び前記ユーザの心理状態判断結果を利用した学習データ更新を含む請求項26に記載のユーザの心理状態判断方法。
  28. ユーザが端末にテキストを入力する速度を抽出する段階と、
    前記テキスト入力速度を推論モデルに適用してユーザの心理状態を判断する段階と、
    前記判断された心理状態に基づいて所定の措置を実行する段階と、
    を含むユーザの心理状態判断方法。
  29. ユーザのテキストの入力時に発生する他の情報を抽出し、前記推論モデルに適用する請求項28に記載のユーザの心理状態判断方法。
  30. 前記他の情報は、端末の位置情報を含む請求項29に記載のユーザの心理状態判断方法。
  31. 前記他の情報は、天気情報を含む請求項29または30に記載のユーザの心理状態判断方法。
  32. 前記他の情報は、端末の状態情報を含む請求項29乃至30のいずれか一項に記載のユーザの心理状態判断方法。
  33. 前記端末の状態情報は、端末の揺れ回数を含む請求項32に記載のユーザの心理状態判断方法。
  34. ユーザの端末を用いたテキストの入力時に生成されるセンサーデータを収集する段階と、
    ユーザ入力データから特徴データを抽出する段階と、
    学習データを生成するか否かを判断する段階と、
    ユーザの心理状態を判断するために、前記特徴データを推論モデルに適用する段階と、
    を含むユーザの心理状態判断方法。
  35. 前記学習データを生成するか否かを判断する段階は、
    既定の第1基準を満足するか否かを確認するか、ユーザから学習データ生成要請を受信する段階を含む請求項34に記載のユーザの心理状態判断方法。
  36. 前記学習データを生成しなければならない場合、前記特徴データを用いて前記学習データを生成する段階と、
    前記学習データが既定の第2基準を超過するか否かを確認する段階と、
    前記学習データが、前記既定の第2基準を超過する場合、前記学習データを用いて前記推論モデルを構築する段階と、をさらに含む請求項35に記載のユーザの心理状態判断方法。
  37. 前記判断されたユーザの心理状態に対するユーザの応答を用いて、前記推論モデルを更新する段階をさらに含む請求項34乃至36のいずれか一項に記載のユーザの心理状態判断方法。
JP2013233195A 2012-11-09 2013-11-11 ユーザの心理状態判断装置及び方法 Active JP6571310B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0126804 2012-11-09
KR1020120126804A KR102011495B1 (ko) 2012-11-09 2012-11-09 사용자의 심리 상태 판단 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018146119A Division JP6761837B2 (ja) 2012-11-09 2018-08-02 ユーザの心理状態判断装置及び方法

Publications (2)

Publication Number Publication Date
JP2014094291A true JP2014094291A (ja) 2014-05-22
JP6571310B2 JP6571310B2 (ja) 2019-09-04

Family

ID=49552226

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013233195A Active JP6571310B2 (ja) 2012-11-09 2013-11-11 ユーザの心理状態判断装置及び方法
JP2018146119A Active JP6761837B2 (ja) 2012-11-09 2018-08-02 ユーザの心理状態判断装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018146119A Active JP6761837B2 (ja) 2012-11-09 2018-08-02 ユーザの心理状態判断装置及び方法

Country Status (5)

Country Link
US (2) US9928462B2 (ja)
EP (1) EP2730223B1 (ja)
JP (2) JP6571310B2 (ja)
KR (1) KR102011495B1 (ja)
CN (1) CN103809746B (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182077A1 (ja) * 2014-05-27 2015-12-03 日本電気株式会社 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体
JP2017126330A (ja) * 2015-12-31 2017-07-20 ダッソー システムズDassault Systemes 予測型モデルに基づく推薦
JP2018081631A (ja) * 2016-11-18 2018-05-24 国立大学法人電気通信大学 遠隔遊び支援システム、心的状態・性格推定システム、遊び推定システム、方法およびプログラム
JP2019074936A (ja) * 2017-10-17 2019-05-16 株式会社日立製作所 気分スコア計算装置および気分スコア計算方法
JP2019136513A (ja) * 2016-09-01 2019-08-22 株式会社ワコム 座標入力処理装置、感情推定装置、感情推定システム及び感情推定用データベースの構築装置
JP2021047502A (ja) * 2019-09-17 2021-03-25 三菱電機インフォメーションシステムズ株式会社 アンケート入力装置、アンケート入力方法及びアンケート入力プログラム
EP4070718A1 (en) * 2021-04-10 2022-10-12 Koa Health B.V. Determining a stress level of a smartphone user based on the user's touch interactions and motion sensor data

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102011495B1 (ko) 2012-11-09 2019-08-16 삼성전자 주식회사 사용자의 심리 상태 판단 장치 및 방법
KR102063766B1 (ko) * 2013-09-17 2020-01-08 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9600743B2 (en) 2014-06-27 2017-03-21 International Business Machines Corporation Directing field of vision based on personal interests
US9471837B2 (en) 2014-08-19 2016-10-18 International Business Machines Corporation Real-time analytics to identify visual objects of interest
JP6727774B2 (ja) * 2014-10-15 2020-07-22 オムロン株式会社 特性評価装置、特性評価システム、特性評価方法、および特性評価プログラム
US11031133B2 (en) * 2014-11-06 2021-06-08 leso Digital Health Limited Analysing text-based messages sent between patients and therapists
JP2016110631A (ja) * 2014-12-02 2016-06-20 三星電子株式会社Samsung Electronics Co.,Ltd. 状態推定装置、状態推定方法およびプログラム
EP3072446A1 (en) * 2015-03-26 2016-09-28 Digital for Mental Health Mental suffering monitoring system
CA2981052A1 (en) * 2015-03-30 2016-10-06 Twiin, Inc. Systems and methods of generating consciousness affects
AU2016278357A1 (en) 2015-06-15 2018-01-04 Medibio Limited Method and system for monitoring stress conditions
AU2016278356A1 (en) 2015-06-15 2018-01-04 Medibio Limited Method and system for assessing mental state
WO2016203575A1 (ja) 2015-06-17 2016-12-22 株式会社日立製作所 気分スコア計算システム
KR101726562B1 (ko) * 2015-06-30 2017-04-13 주학진 감정 메시지 전달의 소셜 네트워크 서비스 방법
US10878308B2 (en) * 2015-12-02 2020-12-29 Abhishek Biswas Method and system for detecting emotions based on typing behaviour
US10332031B2 (en) 2016-03-01 2019-06-25 Wipro Limited Method and system for recommending one or more events based on mood of a person
US10732722B1 (en) * 2016-08-10 2020-08-04 Emaww Detecting emotions from micro-expressive free-form movements
KR102081220B1 (ko) * 2016-08-10 2020-02-25 라인 가부시키가이샤 출력 효과를 제공하는 메신저 서비스 방법, 시스템 및 기록 매체
JP2018055422A (ja) * 2016-09-29 2018-04-05 株式会社東芝 情報処理システム、情報処理装置、情報処理方法、及びプログラム
JP6551376B2 (ja) * 2016-12-07 2019-07-31 トヨタ自動車株式会社 負担感推定装置及び負担感推定プログラム
US20180235540A1 (en) 2017-02-21 2018-08-23 Bose Corporation Collecting biologically-relevant information using an earpiece
DE102017205878A1 (de) * 2017-04-06 2018-10-11 Bundesdruckerei Gmbh Verfahren und System zur Authentifizierung
US10484320B2 (en) * 2017-05-10 2019-11-19 International Business Machines Corporation Technology for multi-recipient electronic message modification based on recipient subset
US10213157B2 (en) * 2017-06-09 2019-02-26 Bose Corporation Active unipolar dry electrode open ear wireless headset and brain computer interface
CN113974626B (zh) * 2017-08-24 2023-03-10 华为技术有限公司 一种心理压力评估方法及设备
US10410655B2 (en) * 2017-09-18 2019-09-10 Fujitsu Limited Estimating experienced emotions
CN107704542B (zh) * 2017-09-25 2020-08-25 联想(北京)有限公司 一种标记方法、装置及存储介质
US10379535B2 (en) 2017-10-24 2019-08-13 Lear Corporation Drowsiness sensing system
US10836403B2 (en) 2017-12-04 2020-11-17 Lear Corporation Distractedness sensing system
US10867218B2 (en) 2018-04-26 2020-12-15 Lear Corporation Biometric sensor fusion to classify vehicle passenger state
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
WO2019246239A1 (en) 2018-06-19 2019-12-26 Ellipsis Health, Inc. Systems and methods for mental health assessment
KR102186059B1 (ko) * 2019-04-22 2020-12-03 한국과학기술원 웨어러블 기기를 위한 상황 적응형 개인화 심리상태 표집 방법 및 장치
US12059980B2 (en) 2019-06-21 2024-08-13 Lear Corporation Seat system and method of control
US11524691B2 (en) 2019-07-29 2022-12-13 Lear Corporation System and method for controlling an interior environmental condition in a vehicle
KR102354964B1 (ko) * 2019-10-11 2022-01-24 주식회사 케이티앤지 교체 가능한 카트리지를 추천하는 에어로졸 생성 장치 및 에어로졸 생성 시스템
KR102370688B1 (ko) * 2019-10-23 2022-03-04 주식회사 라라랩스 컨텐츠 추천 시스템 및 이를 이용한 컨텐츠 추천 방법
KR102427508B1 (ko) * 2019-11-14 2022-08-01 주식회사 셀바스에이아이 인공 지능 기반의 정신 건강 관리를 위한 장치 및 방법
US11517233B2 (en) * 2019-12-02 2022-12-06 Navigate Labs, LLC System and method for using computational linguistics to identify and attenuate mental health deterioration
US11006877B1 (en) * 2019-12-02 2021-05-18 Navigate Labs, LLC System and method for identifying and attenuating mental health deterioration
US20220057218A1 (en) * 2020-08-19 2022-02-24 Here Global B.V. Method and apparatus for automatic generation of context-based guidance information from behavior and context-based machine learning models
KR102378412B1 (ko) * 2020-09-01 2022-03-25 주식회사 인생노트에이아이 날씨 기반의 감정 지수 제공 방법 및 이를 위한 장치
KR102413181B1 (ko) * 2020-09-23 2022-06-27 (주)알에프캠프 모바일 디바이스, 사용자에 의해 발생된 드로잉 데이터를 이용하여 사용자와 관련된 정보를 판별하는 방법 및 컴퓨터 프로그램
KR102610787B1 (ko) * 2020-12-28 2023-12-06 주식회사 텐덤 사용자의 성향 분석을 위한 설문 조사 데이터 분석 방법 및 시스템
KR102510023B1 (ko) * 2021-01-21 2023-03-15 (주)알에프캠프 사용자의 행동 데이터 또는 입력 데이터를 이용하여 사용자의 심리 상태를 판별하는 방법 및 컴퓨터 프로그램
US11429188B1 (en) * 2021-06-21 2022-08-30 Sensie, LLC Measuring self awareness utilizing a mobile computing device
EP4198948A1 (en) * 2021-12-20 2023-06-21 BIC Violex Single Member S.A. Personalized lecture generator
KR102463875B1 (ko) * 2022-10-11 2022-11-04 한동균 빅데이터를 활용한 사용자 맞춤 심리 치료 콘텐츠 제공 방법, 장치 및 시스템
KR102624653B1 (ko) 2023-06-30 2024-01-15 주식회사 글로랑 대규모 언어 모델 기반 심리 상태 판단 방법 및 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017451A (ja) * 2008-07-14 2010-01-28 Namco Bandai Games Inc 情報提供装置
JP2010131280A (ja) * 2008-12-08 2010-06-17 Hitachi Ltd 精神状態判定支援方法および装置
US20110301433A1 (en) * 2010-06-07 2011-12-08 Richard Scott Sadowsky Mental state analysis using web services
JP2012075708A (ja) * 2010-10-01 2012-04-19 Sharp Corp ストレス状態推定装置、ストレス状態推定方法、プログラム、および記録媒体

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8364136B2 (en) * 1999-02-01 2013-01-29 Steven M Hoffberg Mobile system, a method of operating mobile system and a non-transitory computer readable medium for a programmable control of a mobile system
US6731307B1 (en) 2000-10-30 2004-05-04 Koninklije Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
US7853863B2 (en) 2001-12-12 2010-12-14 Sony Corporation Method for expressing emotion in a text message
JP2003216294A (ja) 2002-01-25 2003-07-31 Victor Co Of Japan Ltd ユーザインタフェース装置
KR100471669B1 (ko) 2004-05-10 2005-03-14 에스케이 텔레콤주식회사 이동 통신 단말의 진동 장치를 이용한 감정 표현 방법 및이를 위한 이동 통신 단말
WO2005088993A1 (en) 2004-03-17 2005-09-22 Sk Telecom Co., Ltd. Method and system for providing contents service to instant messenger program installed mobile communication terminal by using virtual talking companions
JP2006130121A (ja) 2004-11-08 2006-05-25 Univ Nihon 生体情報に基づく感情認識方法
KR100763238B1 (ko) 2006-05-26 2007-10-04 삼성전자주식회사 모바일 디바이스를 위한 특이성 탐지 장치 및 방법
JP2008205861A (ja) 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体
US20090002178A1 (en) * 2007-06-29 2009-01-01 Microsoft Corporation Dynamic mood sensing
US8081164B2 (en) * 2007-07-02 2011-12-20 Research In Motion Limited Controlling user input devices based upon detected attitude of a handheld electronic device
KR101027406B1 (ko) 2008-04-07 2011-04-11 가부시키가이샤 엔.티.티.도코모 감정 인식 메시지 시스템과, 이 시스템의 모바일 통신 단말및 메시지 기억 서버
KR101458139B1 (ko) * 2008-09-18 2014-11-05 삼성전자 주식회사 연출규칙을 이용한 카메라웍 제어장치 및 그 제어방법
US20100223341A1 (en) 2009-02-27 2010-09-02 Microsoft Corporation Electronic messaging tailored to user interest
CN101853259A (zh) 2009-03-31 2010-10-06 国际商业机器公司 添加和处理带有情感数据的标签的方法和设备
US20100292545A1 (en) * 2009-05-14 2010-11-18 Advanced Brain Monitoring, Inc. Interactive psychophysiological profiler method and system
KR20090063202A (ko) 2009-05-29 2009-06-17 포항공과대학교 산학협력단 감정 인식 장치 및 방법
EP2442167A3 (en) 2009-06-16 2012-10-17 Intel Corporation Camera applications in a handheld device
CN201504263U (zh) 2009-09-14 2010-06-09 幻音科技(深圳)有限公司 健康手机
US8500635B2 (en) * 2009-09-17 2013-08-06 Blife Inc. Mobile system and method for addressing symptoms related to mental health conditions
KR101654008B1 (ko) * 2009-10-09 2016-09-09 삼성전자주식회사 음향신호 처리를 이용한 모바일 기기 및 상기 모바일 기기에서 수행되는 음향 신호 처리 방법
KR101678549B1 (ko) * 2010-02-02 2016-11-23 삼성전자주식회사 표면 음향 신호를 이용한 유저 인터페이스 제공 장치 및 방법, 유저 인터페이스를 구비한 디바이스
US20120011477A1 (en) 2010-07-12 2012-01-12 Nokia Corporation User interfaces
KR101726849B1 (ko) * 2010-08-06 2017-04-13 삼성전자주식회사 휴대 단말, 휴대 단말을 이용한 위험 감지 장치 및 방법
AU2012200812B2 (en) 2011-05-04 2016-12-08 National Ict Australia Limited Measuring cognitive load
KR101824388B1 (ko) * 2011-06-10 2018-02-01 삼성전자주식회사 사용자의 신체특성을 고려한 동적 사용자 인터페이스 제공 장치 및 방법
KR101830767B1 (ko) * 2011-07-14 2018-02-22 삼성전자주식회사 사용자의 감정 인식 장치 및 방법
KR101868597B1 (ko) * 2011-09-20 2018-06-19 삼성전자 주식회사 올바른 기기사용자세 유도 장치 및 방법
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
KR101971715B1 (ko) * 2012-06-21 2019-04-23 삼성전자 주식회사 모바일 단말 사용자의 몰입 위험 판단 장치 및 방법
US20140107531A1 (en) * 2012-10-12 2014-04-17 At&T Intellectual Property I, Lp Inference of mental state using sensory data obtained from wearable sensors
KR102011495B1 (ko) 2012-11-09 2019-08-16 삼성전자 주식회사 사용자의 심리 상태 판단 장치 및 방법
US9781118B2 (en) * 2013-03-14 2017-10-03 Intel Corporation Differentiated containerization and execution of web content based on trust level and other attributes
KR20150010255A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 습관을 이용한 진단 장치 및 진단 관리 장치와 그를 이용한 진단 방법
KR20150021842A (ko) * 2013-08-21 2015-03-03 삼성전자주식회사 시스템 사용성 증진 장치, 방법 및 휴대 기기
KR102257910B1 (ko) * 2014-05-02 2021-05-27 삼성전자주식회사 음성 인식 장치 및 방법, 잡음-음성 인식 모델 생성 장치 및 방법
KR20150144031A (ko) * 2014-06-16 2015-12-24 삼성전자주식회사 음성 인식을 이용하는 사용자 인터페이스 제공 방법 및 사용자 인터페이스 제공 장치
WO2016006727A1 (ko) * 2014-07-08 2016-01-14 삼성전자 주식회사 인지기능 검사 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010017451A (ja) * 2008-07-14 2010-01-28 Namco Bandai Games Inc 情報提供装置
JP2010131280A (ja) * 2008-12-08 2010-06-17 Hitachi Ltd 精神状態判定支援方法および装置
US20110301433A1 (en) * 2010-06-07 2011-12-08 Richard Scott Sadowsky Mental state analysis using web services
JP2012075708A (ja) * 2010-10-01 2012-04-19 Sharp Corp ストレス状態推定装置、ストレス状態推定方法、プログラム、および記録媒体

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015182077A1 (ja) * 2014-05-27 2015-12-03 日本電気株式会社 感情推定装置、感情推定方法及び感情推定プログラムを記憶する記録媒体
JP2017126330A (ja) * 2015-12-31 2017-07-20 ダッソー システムズDassault Systemes 予測型モデルに基づく推薦
JP2022048219A (ja) * 2016-09-01 2022-03-25 株式会社ワコム 感情推定装置、感情推定システム及び感情推定用情報格納部の構築装置
JP7189382B2 (ja) 2016-09-01 2022-12-13 株式会社ワコム 感情推定装置、感情推定システム及び感情推定用情報格納部の構築装置
JP2019136513A (ja) * 2016-09-01 2019-08-22 株式会社ワコム 座標入力処理装置、感情推定装置、感情推定システム及び感情推定用データベースの構築装置
JP7108752B2 (ja) 2016-09-01 2022-07-28 株式会社ワコム 感情状態推定要求と返信情報とのやり取り方法
JP2021166751A (ja) * 2016-09-01 2021-10-21 株式会社ワコム 感情状態伝送用の信号フォーマット
JP2018081631A (ja) * 2016-11-18 2018-05-24 国立大学法人電気通信大学 遠隔遊び支援システム、心的状態・性格推定システム、遊び推定システム、方法およびプログラム
US11071483B2 (en) 2017-10-17 2021-07-27 Hitachi, Ltd. Mood score calculation apparatus and mood score calculation method
JP7085331B2 (ja) 2017-10-17 2022-06-16 株式会社日立製作所 気分スコア計算装置および気分スコア計算方法
JP2019074936A (ja) * 2017-10-17 2019-05-16 株式会社日立製作所 気分スコア計算装置および気分スコア計算方法
JP2021047502A (ja) * 2019-09-17 2021-03-25 三菱電機インフォメーションシステムズ株式会社 アンケート入力装置、アンケート入力方法及びアンケート入力プログラム
EP4070718A1 (en) * 2021-04-10 2022-10-12 Koa Health B.V. Determining a stress level of a smartphone user based on the user's touch interactions and motion sensor data
US11944436B2 (en) 2021-04-10 2024-04-02 Koa Health Digital Solutions S. L. U. Determining a stress level of a smartphone user based on the user's touch interactions and motion sensor data

Also Published As

Publication number Publication date
KR102011495B1 (ko) 2019-08-16
US20180150751A1 (en) 2018-05-31
CN103809746B (zh) 2018-06-22
EP2730223A1 (en) 2014-05-14
JP2018187441A (ja) 2018-11-29
JP6761837B2 (ja) 2020-09-30
CN103809746A (zh) 2014-05-21
JP6571310B2 (ja) 2019-09-04
EP2730223B1 (en) 2022-04-06
KR20140060112A (ko) 2014-05-19
US10803389B2 (en) 2020-10-13
US20140136450A1 (en) 2014-05-15
US9928462B2 (en) 2018-03-27

Similar Documents

Publication Publication Date Title
JP6761837B2 (ja) ユーザの心理状態判断装置及び方法
US11829720B2 (en) Analysis and validation of language models
JP6777201B2 (ja) 情報処理装置、情報処理方法及びプログラム
Guo et al. Toward fairness in AI for people with disabilities SBG@ a research roadmap
Kołakowska et al. A review of emotion recognition methods based on data acquired via smartphone sensors
TWI579714B (zh) 用於預測文字輸入之方法、系統及電腦可讀儲存媒體
KR102447503B1 (ko) 메시지 서비스를 제공하는 전자기기 및 그 전자기기가 컨텐트 제공하는 방법
US9842101B2 (en) Predictive conversion of language input
KR102331049B1 (ko) 통신 개시를 위한 사용자 신호 레버리징
US10692606B2 (en) Stress level reduction using haptic feedback
Yanay et al. Air-writing recognition using smart-bands
US20160063874A1 (en) Emotionally intelligent systems
Jain et al. Gender recognition in smartphones using touchscreen gestures
Yu et al. Inferring user profile attributes from multidimensional mobile phone sensory data
KR102200816B1 (ko) 얼굴 이미지를 이용한 정신건강 자가관리 제공 방법 및 정신건강 자가관리 제공 시스템
Sağbaş et al. Machine learning-based novel continuous authentication system using soft keyboard typing behavior and motion sensor data
KR20160134564A (ko) 사용자의 감성을 분석하는 방법 및 디바이스
US11816328B2 (en) Context-based shape extraction and interpretation from hand-drawn ink input
CN114816036A (zh) 一种情绪处理方法、装置和介质
JP6708354B2 (ja) 文字入力装置、文字入力方法および文字入力プログラム
KR102413181B1 (ko) 모바일 디바이스, 사용자에 의해 발생된 드로잉 데이터를 이용하여 사용자와 관련된 정보를 판별하는 방법 및 컴퓨터 프로그램
Karina et al. A Review of Public Datasets for Keystroke-based Behavior Analysis
CN112084420A (zh) 一种好友推荐方法、装置、电子设备及存储介质
KR20230081584A (ko) 자동 및 멀티 모달리티 정보 입력을 활용하는 일상 추적 시스템을 위한 인공지능 기반의 상황 추론 장치 및 방법
ENYINNAH AN IMPROVED MODEL FOR EMOTION-AWARE COMPUTING DEVICES USING KEYSTROKE DYNAMICS AND SUPPORT VECTOR MACHINE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180810

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190808

R150 Certificate of patent or registration of utility model

Ref document number: 6571310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250