JP6321571B2 - センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム - Google Patents

センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム Download PDF

Info

Publication number
JP6321571B2
JP6321571B2 JP2015046573A JP2015046573A JP6321571B2 JP 6321571 B2 JP6321571 B2 JP 6321571B2 JP 2015046573 A JP2015046573 A JP 2015046573A JP 2015046573 A JP2015046573 A JP 2015046573A JP 6321571 B2 JP6321571 B2 JP 6321571B2
Authority
JP
Japan
Prior art keywords
sensor data
time
user
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015046573A
Other languages
English (en)
Other versions
JP2016165373A (ja
Inventor
法子 横山
法子 横山
浩之 戸田
浩之 戸田
義昌 小池
義昌 小池
茂木 学
学 茂木
佐久間 聡
聡 佐久間
武藤 伸洋
伸洋 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015046573A priority Critical patent/JP6321571B2/ja
Publication of JP2016165373A publication Critical patent/JP2016165373A/ja
Application granted granted Critical
Publication of JP6321571B2 publication Critical patent/JP6321571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、センサデータを用いてユーザの内面状態(例えば感情、気分の安定性、疲労や明暗の具合など)を推定する技術に関する。
現在、ウェアラブルセンサで生体情報(心拍数、血圧、体温など)を取得し、取得されたセンサデータを用いて人の内面状態の把握を目指す研究が盛んに行われている。この研究によれば、ユーザの感情などに応じたレコメンデーション等が可能となり、より快適な生活を送る手助けになることが期待できる。
例えば前記センサデータとGPSの位置情報とを組み合わせることにより、施設に対する大規模な感情のデータを取得でき、ユーザの状態に応じた施設推薦サービスが可能となる。この点について前記センサデータに心拍データを用いて、感情を推定した研究として非特許文献1,2が公知となっている。
非特許文献1は、感情を想起した際の心拍データから算出したLF(Low Frequency),HF(Hi Frequency)などの特徴量と、感情との関係を調査している。その結果、称賛時に比べて怒りを想起した時にLF/HFが大きくなることを確認している。
非特許文献2は、ビデオ視聴中の心拍データから算出したLF,HFを特徴量として、悲しみ・幸福・恐怖・嫌悪・普通の5つの感情を分類する手法を提案している。
R. McCraty, M. Atkinson, W. Tiller, G. Rein, and A. Watkins, "The Effects of Emotions on Short-Term Power Spectrum Analysis of Heart Rate Variability," Am. J. Cardiology, vol. 76, no. 14, pp. 1089-1093, 1995. M. Murugappan, S. Murugappan, B.S. Zheng, "Frequency Band Analysis of Electrocardiogram (ECG) Signals for Human Emotional State Classification Using Discrete Wavelet Transform (DWT)," J.Phys. Ther. Sci., vol. 25, no. 7, pp. 753-59, 2013. 本多薫, 若井正一, "ウェーブレット変換による心拍変動解析に関する検討_R-R間隔の急激な変化時のパワースペクトルについて," 山形大学大学院社会文化システム研究科紀要, No. 3, pp. 35-43, 2006. Jing Cai, Guangyuan Liu, Min Hao, "The research on emotion recognition from ECG signal", Information Technology and Computer Science, vol. 1, pp. 497-500, 2009
確かに特許文献1,2の知見を利用すれば、ユーザの生体情報に基づき感情を推定することは可能である。
しかしながら、従来の心拍データを用いた感情推定の研究は、非特許文献1,2を含め、ビデオ視聴や実験室環境下などの静止時の感情推定にすぎず、身体動作を伴う状態の感情推定ではない。
そうすると非特許文献3に示すように、身体動作などによってもLF/HFが変化することから、前記従来の研究は身体動作を伴う場面では感情の推定精度が悪化するおそれがある。
本発明は、このような従来の問題を解決するためになされ、身体動作を伴う環境下でセンサデータを用いて感情などの内面状態の推定精度の向上を図ることを解決課題としている。
本発明の一態様は、生体情報に関するセンサデータを用いて、ユーザの内面状態を推定する装置であって、ユーザの安静時と動作時とで異なる生体情報を示す第1センサデータと、ユーザの動作の程度を示す第2センサデータとを取得するセンサデータ取得部と、予め定めたよりも動作程度の大きい前記第2センサデータの時間区分に対応する前記第1センサデータの時間区分を、安静時における前記第1センサデータに類似させるセンサデータ処理部と、前記センサデータ処理部に処理された前記第1センサデータに基づきユーザの内面状態を推定する判定部と、を備える。
本発明の他の様態は、コンピュータが生体情報に関するセンサデータを用いてユーザの内面状態を推定する方法であって、ユーザの安静時と動作時とで異なる生体情報を示す第1センサデータと、ユーザの動作の程度を示す第2センサデータとを取得するセンサデータ取得ステップと、予め定めたよりも動作程度の大きい前記第2センサデータの時間区分に対応する前記第1センサデータの時間区分を、安静時における前記第1センサデータに類似させるセンサデータ処理ステップと、前記センサデータ処理ステップ後の前記第1センサデータに基づきユーザの内面状態を推定する判定ステップと、を有する。
なお、本発明は、前記装置としてコンピュータを機能させるプログラムの態様としてもよい。このプログラムは、ネットワークや記録媒体などを通じて提供することができる。
本発明によれば、身体動作を伴う環境下でセンサデータを用いて、感情などの内面状態の推定精度の向上を図ることができる。
本発明の第1実施形態に係るセンサデータを用いた推定装置の構成図。 同 履歴蓄積データベースの格納データ例。 同 事前学習部の処理を示すフローチャート。 同 推定部の処理を示すフローチャート。 同 可視化部の提示例。 本発明の第2実施形態に係るセンサデータを用いた推定装置の構成図。 同 履歴蓄積データベースの格納データ例。 同 事前学習部の処理を示すフローチャート。 本発明の第3実施形態に係るセンサデータを用いた推定装置の構成図。 同 事前学習部の処理を示すフローチャート。 同 推定部の処理を示すフローチャート。 本発明の第3実施形態に係るセンサデータを用いた推定装置の構成図。 同 推定部の処理を示すフローチャート。 同 可視化部の提示例。
以下、本発明の実施形態に係るセンサデータを用いた推定装置を説明する。ここでは一例として「楽しい/退屈」の感情を推定する手法を説明するが、他の内面状態(例えば「悲しい」などの感情や「不安感」など)の推定にも同じ手法を適用することができる。
また、ユーザの感情を推定するためのセンサデータの一例として、心拍データを用いた手法を説明するが、皮膚コンダクタンスや脈拍など他のセンサデータを用いてもよい。
前記心拍データを用いた手法では、1拍数の時間から算出した瞬時心拍数を単に心拍数と呼ぶものとする。ただし、いくつかの瞬時心拍数を平均した値を心拍数として用いてもよい。
なお、心拍計と加速度計とは、ユーザの胸部に装着されることが好ましいが、これに限定されることなく、その他の部位への装着や同一機能の複数センサを装着してもよい。
≪第1実施形態≫
(1)装置構成
図1に基づき第1実施形態に係る前記推定装置の構成を説明する。この前記推定装置1は、心拍計と加速度計とが取得したセンサデータを用いてユーザの感情を推定する。
具体的には、前記推定装置1は、コンピュータにより構成され、通常のコンピュータのハードウェアリソース(例えばCPU,RAMやROMなどの主記憶手段,ハードディスドライブ装置などの補助記憶装置)を備える。
このハードウェアリソースとソフトウェアリソースとの協同の結果、前記推定装置1は、事前学習により推定器を生成する事前学習部(事前処理部)301と、前記推定器を用いてユーザの感情(楽しい/退屈)を推定する推定部302とを実装する。なお、事前学習部301と推定部302は、同じコンピュータに実装してもよく、複数のコンピュータに分散して実装してもよいものとする。
事前学習部(事前学習部)301は、感情取得部310,センサデータ取得部330,履歴蓄積データベース350,推定器生成部360を備える。この感情取得部310は、ユーザから感情のアノテーションデータ(楽しい/退屈)を取得する。この取得方法は、図示省略のキーボードなどの入力手段による入力を受け付けてもよく、あるいはネットワーク経由で図示省略のユーザ端末からの入力を受け付けてもよい。ここで取得したアノテーションデータをユーザの状態を示す感情のラベルとする。
センサデータ取得部330は、ユーザの胸部に装着された心拍計から心拍数に関する心拍データを取得する。取得された心拍データは、図2に示すように、履歴蓄積データベース350に感情のラベル付きで記録されて保存される。ここでは感情取得部310の取得したアノテーションデータを感情のラベルとし、また履歴蓄積データベース350は前記記憶装置に構築されているものとする。
推定器生成部360は、履歴蓄積データベース350の記録データを機械学習し、心拍データから感情を推定する推定器を生成する。ここで生成された推定器は前記記憶装置に記憶され、推定部302の推定処理時に利用される。
推定部302は、センサデータ取得部380,フィルタリング部390,感情判定部395,感情可視化部396を備える。このセンサデータ取得部380は、ユーザの胸部に装着された加速度計と心拍計とから計測データ、即ち加速度データおよび心拍データを取得する。なお、センサデータ取得部380は、センサデータ取得部330と兼用してもよく、あるいは別に構成してもよいものとする。
フィルタリング部390は、センサデータ取得部380の取得したユーザの加速度データを基に心拍データをフィルタリングする。具体的にはユーザの加速度データもとに身体動作の大きさを判断し、身体動作が大きい部分の心拍データを変換する。このとき身体動作が大きい部分の心拍データと前後のデータが類似する心拍動作の程度が小さい部分の心拍データで置換する。この置換により変換された心拍データは、感情判定部395に出力される。
感情判定部395は、前記記憶装置から取得した推定器を利用してフィルタリング部390の出力した心拍データからユーザの感情を判定し、判定結果を感情可視化部396に出力する。この感情可視化部396は、感情判定部395が判定した感情をユーザに提示する。
(2)事前学習部301の処理内容
図3に基づき事前学習部301の処理内容を説明する。ここではユーザの胸部に心拍計を装着し、事前に心拍数と感情との関係を機械学習する。
S410:処理が開始されると、センサデータ取得部330は、感情のラベルに応じた心拍データを取得し、取得された心拍データを履歴蓄積データベース350に前記ラベル付きで記録する。取得する心拍データのデータ長は、感情のアノテーションの取得後1分間,5分間など予め設定した時間幅としてよく、あるいは感情開始・感情終了のアノテーションを取得し、データ毎にバラバラとしてもよい。
S420:推定器生成部360は、履歴蓄積データベース350のデータを機械学習し、「入力が心拍数」かつ「出力が感情(楽しい/退屈)」の推定器を生成し、処理を終了する。この推定器については、例えば非特許文献4のような特徴量・分類手法を用いて生成することなどが考えられる。
(3)推定部302の処理内容
図4に基づき推定部302の処理内容を説明する。ここでは推定器生成部360により既に推定器が生成され、前記記憶手段に記憶されているものとする。
S510:センサデータ取得部380は、加速度計と心拍計とを用いて、ユーザの加速度・心拍数を計測し続ける。
S520:センサデータ取得部380は、S510の計測中の加速度計と心拍計とから加速度データ・心拍データを取得する。ここでは一定時間(例えば5分)ごとに一定時間間隔(例えば5分)の前記両データを取得する。
S530:フィルタリング部390は、S520で取得した加速度データをもとにユーザの身体動作の大きさを判断し、身体動作が大きい部分の心拍データを身体動作が小さい時の心拍データに置換することで心拍データを変換する。ここで置換される心拍データは、連結される前後データが類似するものとする。
例えば加速度のノルム(norm)が事前設定の閾値以上の場合を身体動作が大きいと判断するものとする。この場合に加速度データから閾値以上の部分を特定し、該特定された加速度データの時間区分に対応する時間区分の心拍データxを抽出する。
ここでは前記時間区分は10秒間とし、心拍データxの直前・直後に位置する一定間隔(例えば5秒)の心拍データを「b=[100,101,102,...]」・「a=[100,101,101,...]」とする。
つぎに加速度データに基づき身体動作が小さい部分、即ち加速度のノルムが前記閾値未満の部分に対応する心拍データ群を収集する。この収集データ群から前記時間区分(10秒間)の心拍データxi群を抽出し、抽出された各心拍データxiの直前・直後に位置する前記一定間隔(5秒)の心拍データを「bxi」,「axi」とする。この場合に式(1)を満たす心拍データxiによって心拍データxを置換する。
Figure 0006321571
ここで身体動作が大きい部分に応じた心拍データの長さ(時間区分)は、身体動作が大きい部分の時間区分(10秒間)よりも長く設定してもよい。すなわち、身体動作が大きい部分に応じた心拍データは、反応の速さや余韻などの影響により、加速度データと開始時間・終了時間や時間幅がずれることも考えられるが、置換する心拍データ長を長く設定することにより、こういった場合も十分に対応することができる。なお、前記フィルタリング後の心拍データは、感情判定部395に出力される。
S540,S550:感情判定部395は、S420で生成した推定器を前記記憶部から取り出す。この推定器を用いてS530のフィルタリング後の心拍データからユーザの感情を判定し(S540)、判定結果を感情可視化部396に出力する。
感情可視化部396は、感情判定部395の判定結果をユーザに提示し(S550)、処理を終了する。例えば図5に示すように、S520で取得した時間毎にユーザの感情(楽しい/退屈)を提示することができる。具体的な提示手法としては前記推定装置1のモニタに表示してもよく、あるいはネットワーク経由でユーザ端末に送信して提示してもよい。
このような前記推定装置1によれば、加速度計と心拍計とを併用し、加速度が大きい部分に応じた心拍データを静止時のデータと置換し、該置換後の心拍データから感情が推定される。
これにより身体動作を伴う環境においても楽しさなどの感情を精度よく推定することが可能となる。したがって、従来技術の問題、即ち音楽鑑賞中などの限られた状況下しか感情推定ができず、実生活の様々な状況下でユーザの感情が推定できかなった問題が解決される。
≪第2実施形態≫
図6〜図8に基づき第2実施形態に係る前記推定装置を説明する。この推定装置2は、図6に示すように、事前学習部(事前処理部)601と推定部602を備える。この事前学習部601は、センサデータ取得部630と履歴蓄積データベース650と関係学習部670とにおいて、第1実施形態に係る事前学習部301と相違する。
一方、推定部602は、フィルタリング部690において第1実施形態に係る推定部302と相違する。以下、前記各部601,602の前記各部301,302と相違する処理内容を説明する。
(1)事前学習部601
事前学習部601のセンサデータ取得部630は、センサデータ取得部330と異なり、心拍データと加速度データとを取得する。ここで取得された心拍データと加速度データとは、図7に示すように、感情のラベル付きで履歴蓄積データベース650に記録されて保存される。この履歴蓄積データベース650のデータに基づき関係学習部670は、加速度の変化量と心拍数との関係を学習する。
図8に基づき事前学習部601の処理を説明する。ここでS810,S820はS410,S420と同様な処理を実行する。一方、S830では、前述のように関係学習部670が、履歴蓄積データベース650のデータに基づき加速度の変化量と心拍数との関係を学習する。
例えば加速度が一定値以上増加した時を考える。このとき加速度と心拍数の変化前後のデータを、「accbefore(変化前の加速度データ)」,「hrbefore(変化前の心拍データ)」,「accafter(変化後の加速度データ)」,「hrafter(変化後の心拍データ)」とすれば、加速度の変化量に対する心拍数の変化量fは、式(2)で求められる。
Figure 0006321571
また、加速度の変化開始時刻から心拍数の変化開始時刻までの時間を「t1」とし、加速度の変化終了時刻から心拍数の変化終了時刻までの時間を「t2」とする。この「t1」と「t2」とを、変化量「f」と併せて前記記憶装置に記憶しておく。
このとき加速度が一定以上増加した時が複数回ある場合には、「f」と「t1」と「t2」との平均値を算出し、算出された平均値を「f」,「t1」,「t2」とする。あるいは平均値を算出することなく、全データを動作時の加速度「accafter」とともに前記記憶手段に記憶してもよい。
(2)推定部602
推定部602のフィルタリング部690は、フィルタリング部390と同様に加速度データをもとに心拍データをフィルタリングする(図4中のS530)。ただし、フィルタリング部690は、フィルタリング部390とフィルタリングの処理内容が相違している。
すなわち、フィルタリング部690は、センサデータ取得部630の取得するユーザの加速度情報をもとに身体動作の大きさを判別し、身体動作が大きい時の心拍データを関係学習部670の学習結果を用いて変換する。
詳細を説明すれば、フィルタリング部690は、ユーザの加速度データをもとに身体動作の大きさを判別し、身体動作が大きい部分に応じた心拍データを予めS830で学習した学習結果を用いて変換する。
例えば大きい身体動作が発生し、その時の加速度が直前の「g倍」になった時、身体動作発生中に応じた心拍データxを、式(3)を用いて変換する。
Figure 0006321571
このとき身体動作が大きい部分に応じた心拍データは、反応の速さや余韻などの影響から加速度データと開始時刻、終了時刻や時間幅がずれることが想定される。そこで、身体動作に応じた心拍データの開始時刻と終了時刻は、身体動作開始時時刻・身体動作終了時刻からそれぞれ「t1」・「t2」を加算した時刻とし、前記想定に対応させることとする。
このような前記推定装置2によれば、加速度計と心拍計とを併用し、加速度が大きい部分に応じた心拍データを加速度に基づき変換し、該変換された心拍データからユーザの感情が推定される。これにより第1実施形態と同じく身体動作を伴う環境においても楽しさなどの感情を精度よく推定することが可能となる。
≪第3実施形態≫
図9〜図11に基づき第3実施形態に係る前記推定装置を説明する。この推定装置3は、図9に示すように、事前学習部(事前処理部)1001と推定部1002とを備える。この事前学習部1001は、推定器作成部360と関係学習部670を備えていない点で第2実施形態の事前学習部601と相違する。
推定部1002は、フィルタリング部690に代わって類似データ判定部1060を備える点で第2実施形態の推定部602と相違する。また、推定部1002の感情判定部1070は、類似データ判定部1060の取得データに基づき心拍数と感情との関係を学習する点で感情判定部395と相違する。以下、前記各部1001,1002の前記各部601,602と相違する処理内容を説明する。
(1)事前学習部1001
図10に基づき事前学習部1001の処理内容を説明する。このS1210,S1220は、図8のS810と同じ処理を実行する。すなわち、センサデータ取得部630は心拍データと加速度データとを取得し、取得された心拍データと加速度データとは感情のラベル付きで履歴蓄積データベース650に記録されて保存される。
ただし、事前学習部1001は、推定部生成部360を備えていないため、S820の推定器生成は実行されない。また、関係学習部670を備えていないため、S830の学習も実行されない。
(2)推定部1002
図11に基づき推定部1002の処理内容を説明する。この図11中のS1310は図4中のS510と同じ処理であり、S1350はS520と同じ処理S1350はS540と同じ処理であり、S1360はS550と同じ処理である。ここでは主にS1330,S1340の処理内容を説明する。
S1330:類似データ判定部1060は、履歴蓄積データベース650のデータから加速度がセンサデータ取得部380の取得データと類似するデータ群を抽出する。
例えば履歴蓄積データベース650から加速度データ「Fi=[1.01,1.02,...]」が、S1320で取得した加速度データ「G=[1.01,1.02,...]」と類似するデータ群を取得する。この類似するか否かの判定には、例えば式(4)を用いることができ、式(4)を満たしていれば類似と判定する。
Figure 0006321571
S1340:感情判定部1070は、S1330の取得データを用いて、心拍数と感情との関係を学習し、心拍データから感情を推定する推定器を作成する。
ここではS420と同様に「入力が心拍数」かつ「出力が感情(楽しい/退屈)」の推定器を作成する。このとき例えば非特許文献4の特徴量や分類手法を用いて推定器を作成してもよい。なお、感情判定部1070は、S1350に示すように、S1340で作成した推定器を用いて、センサデータ取得部380の取得した心拍データをもとにユーザの感情を判定する。
このような前記推定装置3によれば、加速度計と心拍計とを併用し、加速度に合わせた推定器を用いて、心拍データからユーザの感情が推定される。これにより第1実施形態と同じく身体動作を伴う環境においても楽しさなどの感情を精度よく推定することが可能となる。
≪第4実施形態≫
図12〜図14に基づき第4実施形態に係る前記推定器を説明する。この推定器4は、前記推定装置1〜3のように一定時刻間隔ごとに感情推定するものではなく、他のセンサ情報(例えばGPSによる位置情報)からユーザの行動の切り替わりを判断し、計測を実行する。
この推定部4は、図12に示すように、事前学習により推定器を生成する事前学習部(事前処理部)301と、前記推定器を用いてユーザの施設滞在中の感情を推定する推定部1402とを備える。この事前学習部301は、第1実施形態と同じなため、説明を省略する。
推定部1402は、場所取得部1470を備える点で第1実施形態の推定部302と相違する。この場所取得部1470は、ユーザの現在の場所、即ちユーザの位置情報(緯度情報・経度情報)を取得する。なお、場所取得部1470としては、例えばGPS受信器などが該当する。
図13に基づき推定部14002の処理内容を説明する。ここではS1730は図4のS530と同じ処理であり、S1740は同S540に相当し、S1750はS550と同じ処理である。
S1710:図4のS510と同様にセンサデータ取得部380は、加速度計と心拍計とを用いて、ユーザの加速度・心拍数を計測し続ける。ここでは更に場所取得部1470は、GPS衛星からユーザの位置情報を取得し続ける。
S1720:センサデータ取得部380は、S1710の計測中のデータのうち、事前に定めた施設滞在中のユーザの心拍データと加速度データとを取得する。この施設滞在中か否かは、S1710の位置情報に基づき判断すればよい。
ここで取得した心拍データおよび加速度データに基づきS1730のフィルタリングが実行される。これによりS1740の判定では、前記施設滞在中の感情が判定され、S1750でユーザに提示される。ここでは図13に示すように、滞在中の施設を示す訪問施設名ごとに感情が提示される。
このような前記推定装置4によれば、GPSの位置情報と実施形態1の感情推定処理を組み合わせることで施設等に対する大規模な感情データを収集でき、マーケティングや状態に応じた推薦サービスなど様々に応用することできる。
≪プログラムなど≫
(1)本発明は、上記実施形態に限定されるものではなく、各請求項に記載した範囲内で変形して実施することができる。例えば場所取得部1470を前記推定装置2,3の推定部602,1002に設けることもできる。この場合にも、前記推定装置4と同様に施設等に対する大規模な感情データを収集することができる。
(2)本発明は、前記推定装置1〜4の各部310,330,350,360,380,390,395,396,630,650,690,1060,1070,1470の一部もしくは全部として、コンピュータを機能させるセンサデータを用いた推定プログラムとして構成することもできる。
このプログラムによれば、S410,S420,S510〜S550,S810〜S830,S1210,S1220,S1310〜S1360,S1710〜S1750の一部あるいは全部をコンピュータに実行させることが可能となる。
また、前記プログラムは、Webサイトや電子メールなどネットワークを通じて提供することができる。さらに前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,BD−ROM,BD−R,BD−REなどの記録媒体に記録して、保存・配布することも可能である。この記録媒体は、記録媒体駆動装置を利用して読み出され、そのプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。
1〜4…センサデータを用いた推定装置
301,601,1001…事前学習部(事前処理部)
302,602,1002,1402…推定部
310…感情取得部
330,380,630…センサデータ取得部
350,650…履歴蓄積データベース
360…推定器生成部
390,690…フィルタリング部(センサデータ処理部)
395,1070…感情判定部(判定部)
396…感情可視化部
1060…類似データ判定部(センサデータ処理部)

Claims (4)

  1. 生体情報に関するセンサデータを用いて、ユーザの内面状態を推定する装置であって、
    ユーザの安静時と動作時とで異なる生体情報を示す第1センサデータと、ユーザの動作の程度を示す第2センサデータとを取得するセンサデータ取得部と、
    予め定めたよりも動作程度の大きい前記第2センサデータの時間区分に対応する前記第1センサデータの時間区分を、安静時における前記第1センサデータに類似させるセンサデータ処理部と、
    前記センサデータ処理部に処理された前記第1センサデータに基づきユーザの内面状態を推定する判定部と、を備え、
    事前に前記第2センサデータの示す動作の変化量と、前記第1センサデータとの関係を学習する関係学習部をさらに備え、
    前記関係学習部は、前記第2センサデータの変化開始時刻から前記第1センサデータの変化開始時刻までの第1の時間と、前記第2センサデータの変化終了時刻から前記第1センサデータの変化終了時刻までの第2の時間とを記憶装置に記憶させ、
    前記センサデータ処理部は、予め定めたよりも動作の大きな前記第2センサデータの時間区分に応じた前記第1センサデータの時間区分を、前記関係学習部の学習結果を用いて変換し、
    前記第1センサデータの開始時刻をユーザの身体動作開始時刻に前記第1の時間を加算した時刻とし、前記第1センサデータの終了時刻をユーザの身体動作終了時刻に前記第2の時間を加算した時刻とする
    ことを特徴とするセンサデータを用いた推定装置。
  2. 前記第1センサデータが心拍データである一方、
    前記第2センサデータが加速度データである
    ことを特徴とする請求項記載のセンサデータを用いた推定装置。
  3. コンピュータが、生体情報に関するセンサデータを用いて、ユーザの内面状態を推定する方法であって、
    ユーザの安静時と動作時とで異なる生体情報を示す第1センサデータと、ユーザの動作の程度を示す第2センサデータとを取得するセンサデータ取得ステップと、
    予め定めたよりも動作程度の大きい前記第2センサデータの時間区分に対応する前記第1センサデータの時間区分を、安静時における前記第1センサデータに類似させるセンサデータ処理ステップと、
    前記センサデータ処理ステップ後の前記第1センサデータに基づきユーザの内面状態を推定する判定ステップと、
    事前に前記第2センサデータの示す動作の変化量と、前記第1センサデータとの関係を学習する関係学習ステップと、を有し、
    前記関係学習ステップは、前記第2センサデータの変化開始時刻から前記第1センサデータの変化開始時刻までの第1の時間と、前記第2センサデータの変化終了時刻から前記第1センサデータの変化終了時刻までの第2の時間とを記憶装置に記憶させ、
    前記センサデータ処理ステップは、予め定めたよりも動作の大きな前記第2センサデータの時間区分に応じた前記第1センサデータの時間区分を、前記関係学習部の学習結果を用いて変換し、
    前記第1センサデータの開始時刻をユーザの身体動作開始時刻に前記第1の時間を加算した時刻とし、前記第1センサデータの終了時刻をユーザの身体動作終了時刻に前記第2の時間を加算した時刻とする
    ことを特徴とするセンサデータを用いた推定方法。
  4. 請求項1または2に記載された各部としてコンピュータを機能させることを特徴とするセンサデータを用いた推定プログラム。
JP2015046573A 2015-03-10 2015-03-10 センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム Active JP6321571B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015046573A JP6321571B2 (ja) 2015-03-10 2015-03-10 センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015046573A JP6321571B2 (ja) 2015-03-10 2015-03-10 センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム

Publications (2)

Publication Number Publication Date
JP2016165373A JP2016165373A (ja) 2016-09-15
JP6321571B2 true JP6321571B2 (ja) 2018-05-09

Family

ID=56897121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015046573A Active JP6321571B2 (ja) 2015-03-10 2015-03-10 センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム

Country Status (1)

Country Link
JP (1) JP6321571B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907598B1 (ko) * 2016-10-18 2018-10-12 경북대학교 산학협력단 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템
DE112016007435T5 (de) * 2016-12-14 2019-07-25 Mitsubishi Electric Corporation Zustandsschätzeinrichtung
JP7347822B2 (ja) * 2018-02-19 2023-09-20 日本電気株式会社 心身状態推定装置、心身状態推定方法、及びプログラム
JP6705611B2 (ja) * 2018-03-09 2020-06-03 三菱電機株式会社 不快状態判定装置
JP2023089729A (ja) * 2021-12-16 2023-06-28 株式会社日立製作所 計算機システム及び情動推定方法
WO2023199422A1 (ja) * 2022-04-13 2023-10-19 日本電気株式会社 内面状態推定装置、内面状態推定方法及び記憶媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101917898A (zh) * 2007-10-31 2010-12-15 埃姆申塞公司 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法
JP5895345B2 (ja) * 2011-02-03 2016-03-30 ソニー株式会社 時差ぼけ症状の推定装置、推定システム、推定方法およびプログラム

Also Published As

Publication number Publication date
JP2016165373A (ja) 2016-09-15

Similar Documents

Publication Publication Date Title
JP6321571B2 (ja) センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム
JP6388824B2 (ja) 感情情報推定装置、感情情報推定方法及び感情情報推定プログラム
WO2013114596A1 (ja) 情報処理装置、代表波形生成方法および代表波形生成プログラム
EP3876191A1 (en) Estimator generation device, monitoring device, estimator generation method, estimator generation program
US20150169659A1 (en) Method and system for generating user lifelog
CN111867467A (zh) 用于功能能力及跌倒风险的移动评估的消费者应用程序
US20190261863A1 (en) System and method for providing an indication of the well-being of an individual
JP2018202130A (ja) 状態推定装置、情報処理装置、状態推定システム
US20190388035A1 (en) Blood pressure data processing apparatus, blood pressure data processing method, and blood pressure data processing program
WO2023112384A1 (ja) 計算機システム及び情動推定方法
JP6950504B2 (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
JPWO2008111349A1 (ja) 生存分析システム、生存分析方法および生存分析用プログラム
JP7052604B2 (ja) 業務推定方法、情報処理装置、及び業務推定プログラム
JP6449355B2 (ja) 移動体の状態を検知するための方法、プログラム、及び装置
WO2021210172A1 (ja) データ処理装置、システム、データ処理方法、および記録媒体
JP6174527B2 (ja) 移動手段推定装置、その動作方法およびプログラム
Clark et al. Machine learning based prediction of future stress events in a driving scenario
JP6118082B2 (ja) 肌画像分析装置及び肌画像分析方法
JP2015146847A (ja) 身体情報取得装置、方法及びプログラム
JP2016099110A (ja) 移動手段推定モデル生成装置、移動手段推定モデル生成方法、移動手段推定モデル生成プログラム
JPWO2021205497A5 (ja)
Mahmood et al. Contextual Anomaly Detection Based Video Surveillance System
JP2020057168A (ja) 属性推定システム
Sawano et al. Annotation Method for Human Activity and Device State Recognition Based on Smartphone Notification Removals
Kher et al. RPCA-based detection and quantification of motion artifacts in ECG signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180405

R150 Certificate of patent or registration of utility model

Ref document number: 6321571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150