JP2023115687A - データ処理方法、プログラム及びデータ処理装置 - Google Patents

データ処理方法、プログラム及びデータ処理装置 Download PDF

Info

Publication number
JP2023115687A
JP2023115687A JP2022018048A JP2022018048A JP2023115687A JP 2023115687 A JP2023115687 A JP 2023115687A JP 2022018048 A JP2022018048 A JP 2022018048A JP 2022018048 A JP2022018048 A JP 2022018048A JP 2023115687 A JP2023115687 A JP 2023115687A
Authority
JP
Japan
Prior art keywords
user
emotion
data
pulse wave
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022018048A
Other languages
English (en)
Inventor
大貴 田中
Hirotaka Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Emotive Core
Emotive Core Co Ltd
Original Assignee
Emotive Core
Emotive Core Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Emotive Core, Emotive Core Co Ltd filed Critical Emotive Core
Priority to JP2022018048A priority Critical patent/JP2023115687A/ja
Publication of JP2023115687A publication Critical patent/JP2023115687A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

Figure 2023115687000001
【課題】人の感情を推定する精度を向上させる。
【解決手段】データ処理方法は、ユーザの脈波データが入力されると脈波データに対応するユーザの感情を示す推定感情データを出力する、ユーザに対応するユーザ感情推定モデルに、ユーザの脈波データを入力する脈波データ入力ステップ(S200)と、ユーザ感情推定モデルから出力される推定感情データを出力する感情データ出力ステップ(S300)と、を有し、ユーザ感情推定モデルは、予め準備された複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応するものであって、当該一の属性別感情推定モデルは、複数の属性別感情推定モデルのうち、ユーザの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する属性別感情推定モデルであることを特徴とする。
【選択図】図2

Description

本発明は、データ処理方法、プログラム及びデータ処理装置に関する。
従来、人の脈波を計測することにより人の感情を推定する感情推定装置が知られている(例えば、特許文献1を参照)。
特開2015-109964号公報
従来の感情推定装置は、複数の感情に対応する複数の特徴パターンのうち、計測した脈波に対応する特徴パターンを特定することにより感情を推定する。しかしながら、人の年齢、性別又は性格等の属性によって、感情と脈波との関係が異なるため、従来の感情推定装置においては、人の感情を推定する精度が低いという問題があった。
そこで、本発明はこれらの点に鑑みてなされたものであり、人の感情を推定する精度を向上させることを目的とする。
本発明の第1の態様に係るデータ処理方法は、コンピュータが実行する、ユーザの脈波データが入力されると前記脈波データに対応する前記ユーザの感情を示す推定感情データを出力する、前記ユーザに対応するユーザ感情推定モデルに、前記ユーザの脈波データを入力する脈波データ入力ステップと、前記ユーザ感情推定モデルから出力される前記推定感情データを出力する感情データ出力ステップと、を有し、前記ユーザ感情推定モデルは、予め準備された複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応するものであって、当該一の属性別感情推定モデルは、複数の属性別感情推定モデルのうち、前記ユーザの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する属性別感情推定モデルであることを特徴とする。
前記ユーザ属性は、前記脈波データに基づいて特定された脈波の大きさ及び心拍数の組合せに基づいて特定される属性であってもよい。
所定の期間が経過するたびに、前記ユーザ感情推定モデルを、予め準備された複数の属性別感情推定モデルから再び選択してもよい。
前記脈波データ入力ステップの前に、前記ユーザに関連付けられた重み係数を前記一の属性別感情推定モデルに設定することにより、前記ユーザ感情推定モデルを作成するモデル作成ステップをさらに有してもよい。
前記モデル作成ステップにおいて、前記ユーザが使用する情報端末から前記重み係数を取得し、取得した前記重み係数を前記一の属性別感情推定モデルに設定してもよい。
前記モデル作成ステップにおいて、前記ユーザに関連付けて記憶部に記憶された前記重み係数を前記一の属性別感情推定モデルに設定してもよい。
前記モデル作成ステップは、前記ユーザの感情を問い合わせるメッセージを前記ユーザが使用する情報端末に送信するステップと、前記メッセージを前記情報端末に送信したことに応じて、前記ユーザが入力した感情を示す入力感情データと、前記ユーザが前記入力感情データを入力した時点の前記ユーザの脈波データと、を前記情報端末から取得するステップと、取得した前記入力感情データと前記ユーザの脈波データとの関係に基づいて前記重み係数を決定するステップと、を有してもよい。
前記モデル作成ステップにおいて、複数の感情候補データを含む前記メッセージを送信し、前記複数の感情候補データから選択された感情候補データを前記入力感情データとして取得してもよい。
所定の期間が経過するたびに前記モデル作成ステップを実行してもよい。
本発明の第2の態様に係るプログラムは、コンピュータに、ユーザの脈波データが入力されると前記脈波データに対応する前記ユーザの感情を示す推定感情データを出力する、前記ユーザに対応するユーザ感情推定モデルに、前記ユーザの脈波データを入力する脈波データ入力ステップと、前記ユーザ感情推定モデルから出力される前記推定感情データを出力する感情データ出力ステップと、を実行させ、前記ユーザ感情推定モデルは、予め準備された複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応するものであって、当該一の属性別感情推定モデルは、複数の属性別感情推定モデルのうち、前記ユーザの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する属性別感情推定モデルであることを特徴とする。
本発明の第3の態様に係るデータ処理装置は、ユーザの脈波データが入力されると前記脈波データに対応する前記ユーザの感情を示す推定感情データを出力する、前記ユーザに対応するユーザ感情推定モデルに、前記ユーザの脈波データを入力する脈波データ入力部と、前記ユーザ感情推定モデルから出力される前記推定感情データを出力する感情データ出力部と、を有し、前記ユーザ感情推定モデルは、予め準備された複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応するものであって、当該一の属性別感情推定モデルは、複数の属性別感情推定モデルのうち、前記ユーザの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する属性別感情推定モデルであることを特徴とする。
本発明によれば、人の感情を推定する精度を向上させるという効果を奏する。
本実施形態に係るデータ処理システム1のシステム構成例を示す図である。 本実施形態に係るデータ処理方法を示すフローチャートである。 データ処理装置30の機能ブロック構成例を示す図である。 属性別感情推定モデルを選択する動作の流れを示すフローチャートである。 脈波データから心拍データを生成する動作を説明するための図である。 ユーザ属性を特定するための管理テーブルを示す図である。 記憶部32に記憶されたユーザ情報を示す図である。 ユーザ感情推定モデルを作成する動作の流れを示すフローチャートである。 心拍波形における複数の特徴点を説明するための図である。 心拍データの特徴パターンを示す図である。 記憶部32に記憶された脈波データの管理テーブルを示す図である。 ユーザUの感情を問い合わせる画面の一例を示す図である。 記憶部32に記憶された入力感情データを示す図である。
<データ処理システム1の概要>
図1は、本実施形態に係るデータ処理システム1のシステム構成例を示す図である。図1に示すデータ処理システム1は、光電測定デバイス10と、情報端末20と、データ処理装置30と、を備える。光電測定デバイス10と情報端末20とは、Bluetooth(登録商標)等の近距離無線通信を介して接続されている。情報端末20とデータ処理装置30とは、インターネット、イントラネット、無線LAN(Local Area Network)、又は移動体通信網等のネットワークを介して互いに通信可能に接続されている。
光電測定デバイス10は、人の脈波を計測するための光電センサを有する装置であり、例えばスマートウォッチ等のウェアラブル端末である。光電測定デバイス10は、情報端末20を使用するユーザUが装着している。光電測定デバイス10は、例えば光電センサが計測したユーザUの脈波を示す脈波データを生成し、情報端末20に送信する。
情報端末20は、データ処理システム1において感情を推定する対象ユーザ(図1に示すユーザU)が使用する端末であり、例えば携帯電話(スマートフォンを含む)、タブレット端末又はパーソナルコンピュータ等の情報処理端末である。情報端末20は、光電測定デバイス10から取得した脈波データをデータ処理装置30に送信する。
情報端末20には、例えばユーザUが情報端末20を操作することにより入力した自身の感情を示す入力感情データをデータ処理装置30に送信するための専用のアプリケーションプログラム(以下、「専用アプリ」という)がインストールされている。入力感情データは、例えば情報端末20に表示された「喜」「怒」「哀」「楽」等の感情を示す複数の文字のうち、ユーザUが自身の感情に対応する文字又は画像を選択することにより生成されたデータである。ユーザUは、専用アプリを介して入力感情データを送信することができる。
データ処理装置30は、例えばコンピュータであり、一又は複数の物理的なサーバから構成されている。データ処理装置30は、ハイパーバイザ(hypervisor)上で動作する仮想的なサーバを用いて構成されていてもよく、クラウドサーバを用いて構成されていてもよい。
データ処理装置30は、情報端末20から取得したユーザUの脈波データ及び入力感情データに基づいてユーザUの感情を推定するための装置である。データ処理装置30は、例えば複数のユーザ属性に対応する複数の属性別感情推定モデルを有する。ユーザ属性は、例えばユーザUの脈波データから算出した平均心拍数及び脈の高さ等の特徴量に基づいて特定した属性である。属性別感情推定モデルは、例えば脈波と感情とが関連付けられたモデルであり、入力された脈波データが示す脈波に対応する感情を示す感情推定データを出力する。データ処理装置30を用いることで、例えば、ユーザUが自身の感情を客観的に把握したり、企業の管理者が従業員の感情を把握したりすることが可能になる。
以下、図1を参照しながらデータ処理システム1の動作の概要を説明する。
光電測定デバイス10は、光電センサが計測したユーザUの脈波を示す脈波データを情報端末20に送信する(図1における(1))。情報端末20は、光電測定デバイス10から取得した脈波データをデータ処理装置30に送信する(図1における(2))。
続いて、情報端末20は、データ処理装置30からユーザUの感情を問い合わせるためのメッセージを受信したことに応じて、ユーザUが感情を入力するための画面を表示する。情報端末20は、ユーザUが自身の感情を入力する操作を受け付け(図1における(3))、ユーザUが入力した感情を示す入力感情データをデータ処理装置30に送信する(図1における(4))。
データ処理装置30は、情報端末20から取得した脈波データ及び入力感情データに基づいてユーザUの感情を推定する(図1における(5))。データ処理装置30は、例えばユーザUの脈波データに基づいて特定したユーザ属性に対応する属性別感情モデルに重み係数を設定することにより、ユーザUの感情を示す感情推定データを出力するためのユーザ感情推定モデルを作成する。重み係数は、脈波と感情との関連付けを調整するための係数であり、ユーザUの脈波データ及び入力感情データに基づいて決定される。データ処理装置30は、作成したユーザ感情推定モデルにユーザUの脈波データを入力することによりユーザUの感情を示す感情推定データを出力する。
人の感情と脈波との関係は、当該人の年齢、性別、性格又は疾患等により異なるため、複数のユーザUの感情を一の感情推定モデルにより推定する精度は低い。これに対して、データ処理装置30は、複数のユーザUそれぞれが使用する情報端末20から取得した脈波データ及び入力感情データに基づいて、複数のユーザUそれぞれに対応する感情推定モデルを作成し、複数のユーザUの感情を推定する。
データ処理装置30がこのように動作することで、データ処理装置30は、人の感情を推定する精度を向上させることができる。
以下、データ処理装置30が実行するデータ処理方法とデータ処理装置30の機能ブロック構成とを説明する。
<データ処理方法のフローチャート>
図2は、本実施形態に係るデータ処理方法を示すフローチャートである。データ処理方法は、モデル作成ステップ(S100)、脈波データ入力ステップ(S200)及び感情データ出力ステップ(S300)を有する。
モデル作成ステップ(S100)は、ユーザUの感情を推定するためのユーザ感情推定モデルを作成するステップである。モデル作成ステップ(S100)においては、脈波データ入力ステップ(S200)の前に、ユーザに関連付けられた重み係数を一の属性別感情推定モデルに設定することにより、ユーザ感情推定モデルを作成する。
脈波データ入力ステップ(S200)は、モデル作成ステップ(S100)において作成したユーザ感情推定モデルに情報端末20から取得したユーザUの脈波データを入力するステップである。脈波データ入力ステップ(S200)においては、ユーザUの脈波データが入力されると脈波データに対応するユーザUの感情を示す推定感情データを出力する、ユーザUに対応するユーザ感情推定モデルに、ユーザUの脈波データを入力する。
感情データ出力ステップ(S300)は、ユーザ感情推定モデルから出力される推定感情データを出力するステップである。感情データ出力ステップ(S300)においては、脈波データ入力ステップ(S200)においてユーザ感情推定モデルに入力した脈波データに対応するユーザUを示すユーザ情報とユーザ感情推定モデルが出力した推定感情データとを関連付けて出力する。
<機能ブロック構成>
図3は、データ処理装置30の機能ブロック構成例を示す図である。データ処理装置30は、通信部31と、記憶部32と、制御部33と、を有する。制御部33は、取得部331と、モデル作成部332と、脈波データ入力部333と、感情データ出力部334
と、を有する。
通信部31は、インターネット等の通信ネットワークを介して情報を送受信するための通信デバイスを含む。通信デバイスは、例えばLANコントローラ又は無線LANコントローラである。記憶部32は、ROM(Read Only Memory)、RAM(Random Access Memory)及びSSD(Solid State Drive)等の記憶媒体を有する。記憶部32は、制御部33が実行するプログラムを記憶している。記憶部32は、複数の属性別感情推定モデルを記憶している。
制御部33は、例えばCPU(Central Processing Unit)である。制御部33は、記憶部32に記憶されたプログラムを実行することにより、取得部331、モデル作成部332、脈波データ入力部333及び感情データ出力部334として動作する。
取得部331は、ユーザUの脈波データ及び入力感情データをユーザUが使用している情報端末20から取得する。取得部331は、例えば入力感情データを取得するタイミングにおいて、ユーザUの感情を問い合わせるためのメッセージを情報端末20に送信することにより、当該情報端末20から入力感情データを取得する。
モデル作成部332は、図2に示すモデル作成ステップ(S100)を実行する。モデル作成部332は、取得部331が取得したユーザUの脈波データに基づいてユーザUのユーザ属性を特定し、ユーザ属性に対応する属性別感情推定モデルを選択する。モデル作成部332は、例えば取得部331が取得したユーザUの脈波データ及び入力感情データに基づいて決定した重み係数を、選択した属性別感情推定モデルに設定することでユーザ感情推定モデルを作成する。
脈波データ入力部333は、図2に示す脈波データ入力ステップ(S200)を実行する。脈波データ入力部333は、ユーザUの脈波データが入力されると脈波データに対応するユーザUの感情を示す推定感情データを出力する、ユーザUに対応するユーザ感情推定モデルに、ユーザUの脈波データを入力する。脈波データ入力部333は、例えばモデル作成部332が作成したユーザUのユーザ感情推定モデルに、取得部331が取得したユーザUの脈波データを入力する。
感情データ出力部334は、図2に示す感情データ出力ステップ(S300)を実行する。感情データ出力部334は、ユーザ感情推定モデルから出力される推定感情データを出力する。感情データ出力部334は、例えば推定感情データを外部の情報処理装置(不図示)に出力する。外部の情報処理装置は、例えば複数のユーザUの推定感情データを管理することが可能なサーバである。感情データ出力部334は、推定感情データを記憶部32に記憶してもよい。
<ユーザ感情推定モデルを作成する動作の流れ>
以下、モデル作成ステップ(S100)においてモデル作成部332がユーザ感情推定モデルを作成する動作の流れを詳細に説明する。
まず、モデル作成ステップ(S100)においては、モデル作成部332がユーザUの脈波データに基づいてユーザ属性を特定し、複数の属性別感情推定モデルのうち特定したユーザ属性に対応する属性別感情推定モデルを選択する。
図4は、属性別感情推定モデルを選択する動作の流れを示すフローチャートである。図4に示すように、取得部331は、情報端末20からユーザUの脈波データを取得する(S11)。モデル作成部332は、取得部331が取得したユーザUの脈波データが示す脈波の周期に基づいてユーザUの心拍データを生成する(S12)。
図5は、脈波データから心拍データを生成する動作を説明するための図である。図5(a)は、脈波データが示す指尖容積脈波を示す図である。図5(b)は、図5(a)に示す指尖容積脈波から生成した速度脈波を示す図である。図5(c)は、図5(b)に示す速度脈波から生成した加速度脈波(すなわち心拍波形)を示す図である。図5の横軸は時刻を示す。図5の縦軸は、指尖容積脈波、速度脈波及び加速度脈波それぞれの脈波の高さを示す。図5においては、1つの脈波データが示す指尖容積脈波から1つの心拍波形を示す心拍データを生成する動作を示している。
取得部331は、例えば図5(a)に示す指尖容積脈波を示す脈波データを取得する。モデル作成部332は、取得部331が取得した指尖容積脈波を示す脈波データにフーリエ解析等を用いた微分処理を実行することにより、図5(b)に示す速度脈波を示す速度脈波データを生成する。モデル作成部332は、生成した速度脈波データにフーリエ解析等を用いた微分処理を実行することにより、図5(c)に示す加速度脈波(すなわち心拍波形)を示す心拍データを生成する。
モデル作成部332は、生成した心拍データから特徴量を抽出する(S13)。特徴量は、ユーザUの時系列の脈波データに基づく情報であり、例えば所定時間における平均心拍数又は脈の高さの最大値若しくは脈の高さの平均値の少なくともいずれかである。所定時間は、例えば5分である。モデル作成部332は、例えば所定時間における複数の心拍波形それぞれから図5に示す点Aを特定する。モデル作成部332は、所定時間における点Aの数を特定することにより平均心拍数を算出する。モデル作成部332は、例えば所定時間における複数の心拍波形それぞれから図5に示す基線Zと点Aとの差である高さYを算出する。モデル作成部332は、所定時間における複数の高さYの最大値又は平均値を算出することにより、脈の高さを特定する。
モデル作成部332は、抽出した特徴量と記憶部32が記憶している基準特徴量とを比較し(S14)、比較した結果に基づいてユーザ属性を特定する(S15)。基準特徴量は、複数の特徴量それぞれにおいて定められた値であり、予め実験又はシミュレーションに基づいて定められた値である。ユーザ属性は、例えば脈波データに基づいて特定された脈波の大きさ及び心拍数の組合せに基づいて特定される属性である。脈波の大きさは、例えば所定時間における脈の高さの最大値又は平均値であり、心拍数は、例えば所定時間における平均心拍数である。
図6は、ユーザ属性を特定するための管理テーブルを示す図である。管理テーブルは、記憶部32に記憶されている。図6においては、特徴量比較結果1、特徴量比較結果2及びユーザ属性が関連付けられている。特徴量比較結果1は、脈波データに基づいて特定された心拍数と当該心拍数に対応する心拍基準特徴量とを比較した結果である。図6に示す「P0」は、心拍数が心拍基準特徴量未満であることを示し、図6に示す「P1」は、心拍数が心拍基準特徴量以上であることを示す。特徴量比較結果2は、脈波データに基づいて特定された脈波の大きさと当該脈波の大きさに対応する脈波基準特徴量とを比較した結果である。図6に示す「Q0」は、脈波の大きさが脈波基準特徴量未満であることを示し、図6に示す「Q1」は、脈波の大きさが脈波基準特徴量以上であることを示す。
なお、特徴量比較結果1及び特徴量比較結果2それぞれは、1つの特徴量と当該特徴量に対応する複数の基準特徴量とを比較した結果であってもよい。例えば、モデル作成部332は、脈波データに基づいて特定した心拍数と、当該心拍数に対応する第1心拍基準特徴量及び第2心拍基準特徴量と、を比較する。第1心拍基準特徴量は、例えば第2心拍基準特徴量よりも大きい心拍数を示す心拍基準特徴量である。この場合、モデル作成部332は、心拍数が第1心拍基準特徴量以上である場合に比較結果「P2」を示し、心拍数が第1心拍基準特徴量未満かつ第2心拍基準特徴量以上である場合に比較結果「P1」を示し、心拍数が第2心拍基準特徴量未満である場合に比較結果「P0」を示す。
ユーザ属性は、図6に示す特徴量比較結果1が示す比較結果「P0」又は比較結果「P1」と、特徴量比較結果2が示す比較結果「Q0」又は比較結果「Q1」と、の組合せに基づいて特定される。図6においては、属性「C1」から属性「C4」までの4種類が示されている。具体的には、図6に示すように、特徴量比較結果1が比較結果「P0」であり、且つ特徴量比較結果2が比較結果「Q0」である場合、モデル作成部332は、ユーザ属性を、比較結果「P0」と比較結果「Q0」との組合せに対応する属性「C1」に特定する。
ところで、ユーザUの平均心拍数及び脈の高さの最大値等の特徴量は、ユーザUの喜怒哀楽等の感情の状態に応じて変化する。これに対して、モデル作成部332は、ユーザUが使用している情報端末20から取得したユーザUの感情を示す入力感情データと、特徴量比較結果1及び特徴量比較結果2と、に基づいてユーザUのユーザ属性を特定してもよい。この場合、モデル作成部332は、例えば入力感情データが示すユーザUの感情が「喜」を示している状態で、特徴量比較結果1が「P1」であり特徴量比較結果2が「Q0」である場合、感情が「喜」、特徴量比較結果1が「P1」、特徴量比較結果2が「Q0」であるという組み合わせに対応する属性「C3」をユーザUのユーザ属性であると特定する。
モデル作成部332は、特定したユーザ属性をユーザIDに関連付けて記憶部32に記憶させる(S16)。記憶部32は、ユーザIDと、モデル作成部332が特定したユーザ属性と、を関連付けたユーザ情報を記憶する。図7は、記憶部32に記憶されたユーザ情報を示す図である。図7においては、ユーザID、ユーザUのユーザ名、ユーザUのアドレス、特徴量比較結果1、特徴量比較結果2及びユーザ属性が関連付けられている。
モデル作成部332は、特定したユーザ属性に対応する一の属性別感情推定モデルを選択する(S17)。感情推定モデルは、例えば脈波を示す脈波データと人の感情を示す推定感情データとが関連付けられたモデルであり、入力された脈波データに対応する推定感情データを出力するモデルである。属性別感情推定モデルは、例えば所定のユーザ属性を有する複数のユーザUから過去に取得した脈波データが示す特徴量と当該特徴量に関連付けられた入力感情データとに基づいて作成された感情推定モデルである。属性別感情推定モデルは、同じユーザ属性を示す複数のユーザUから取得した脈波データ及び入力感情データに基づいて作成されるため、複数の属性別感情推定モデルは、それぞれ異なるユーザ属性に対応している。
モデル作成部332が選択する一の属性別感情推定モデルは、複数の属性別感情推定モデルのうち、ユーザUの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する属性別感情推定モデルである。モデル作成部332は、例えば図7に示すユーザ属性を参照することによりユーザUに関連付けられたユーザ属性を特定し、記憶部32が記憶している複数の属性別感情推定モデルから、特定したユーザ属性に対応する一の属性別感情推定モデルを選択する。
続いて、モデル作成部332は、予め準備された複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応するユーザU用のユーザ感情推定モデルを作成する。モデル作成部332は、例えば、脈波データと当該脈波データが取得された時点でのユーザの感情を示す感情データとを教師データとして用いて学習して、選択した属性別感情推定モデルの係数を更新することにより、ユーザU用のユーザ感情推定モデルを作成する(S18)。具体的には、モデル作成部332は、脈波データと感情データとを含む教師データを属性別感情推定モデルに入力することにより、属性別感情推定モデルの係数を更新する。
モデル作成部332が、脈波データが取得された時点でのユーザUの感情を特定する方法は任意であるが、例えば、モデル作成部332は、ユーザUが使用する情報端末20においてユーザUに感情を入力させ、その時点での脈波データを取得することにより教師データを作成する。モデル作成部332は、ユーザUの属性に対応する属性別感情推定モデルを使用して学習するので、ユーザUの属性に無関係のモデルを使用して学習する場合よりも短時間でユーザUに適した感情推定モデルを作成することができる。
モデル作成ステップ(S100)において、モデル作成部332がこのように一の属性別感情推定モデルを選択することで、モデル作成部332は、ユーザUの脈波の特徴に応じた属性別感情推定モデルを選択することができる。その結果、モデル作成ステップ(S100)においては、ユーザUの感情を推定する精度が高いユーザ感情推定モデルを容易に作成することができる。
なお、モデル作成ステップ(S100)においては、所定の期間が経過するたびに、ユーザ感情推定モデルを、予め準備された複数の属性別感情推定モデルから再び選択してもよい。モデル作成部332は、例えば図4に示すS11からS17を所定の期間が経過するたびに実行してもよい。所定の期間は、例えば1週間又は1ヶ月等の予め定められた期間である。このように動作することで、モデル作成部332は、例えばユーザUの疾患が改善したり悪化したりすることによりユーザUの属性が変化した場合、又はユーザUの年齢の変化により脈波が変化した場合であっても、ユーザUの属性に対応する一の属性別感情推定モデルを選択することができる。
続いて、モデル作成ステップ(S100)においては、モデル作成部332がユーザUの脈波データ及び入力感情データに基づいて決定した重み係数を、一の属性別感情推定モデルに設定することによりユーザUに対応するユーザ感情推定モデルを作成する。重み係数は、脈波と感情との関連付けを調整するための係数であり、例えば複数の脈波データと当該脈波データに関連付けられた入力感情データに基づいて機械学習を実行することにより決定される係数である。
図8は、ユーザ感情推定モデルを作成する動作の流れを示すフローチャートである。図8に示すように、取得部331は、情報端末20からユーザUの脈波データを取得する(S21)。モデル作成部332は、S21において取得した脈波データが示す脈波から抽出した複数の特徴点に基づいて、当該S21よりも前の時刻に取得した脈波データが示す脈波から、ユーザUの脈波の特徴が変化したか否かを判定する(S22)。特徴点は、例えば脈波が示す複数の波の頂点である。本実施形態においては、一例として心拍データが示す心拍波形に基づいて脈波の特徴が変化したか否かを判定する。
図9は、心拍波形における複数の特徴点を説明するための図である。図9の横軸は時刻を示し、縦軸は心拍波形の高さを示す。図9に示す点A、点B、点C及び点Dは、心拍データが示す心拍波形における複数の特徴点である。モデル作成部332は、点A、点B、点C及び点Dの時刻及び高さに基づいて、心拍波形の特徴の変化の有無を特定することにより、ユーザUの脈波の特徴が変化したか否かを判定する。
例えば、モデル作成部332は、点Aと点Bとの時刻の差であるAB間隔を算出する。また、モデル作成部332は、S21において取得部331が取得した心拍データにおける点Aの時刻と、S21の直前に取得部331が取得した心拍データにおける点Aの時刻との差である心拍間隔を算出する。モデル作成部332は、例えば複数の心拍データにおいて算出した複数のAB間隔の時系列データを周波数解析した結果を、AB間隔の特徴パターンとして特定する。また、モデル作成部332は、複数の心拍間隔の時系列データを周波数解析した結果を、心拍間隔の特徴パターンとして特定する。モデル作成部332は、AB間隔の変化の特徴パターン(以下、「第1特徴パターン」という)と心拍間隔の変化の特徴パターン(以下、「第2特徴パターン」という)との組み合わせにより、ユーザUの心拍データを複数の特徴パターンのいずれかに分類する。
図10は、心拍データの特徴パターンを示す図である。図10においては、ユーザID、脈波データを取得した時刻、第1特徴パターン及び第2特徴パターンが関連付けられている。第1特徴パターンは、例えばAB間隔の時系列データを周波数解析することにより分類した第1特徴パターンを示す。第2特徴パターンは、例えば心拍間隔を周波数解析することにより分類した第2特徴パターンを示す。図10に示す「R10」「R11」「R20」及び「R21」は、複数の特徴パターンそれぞれに関連付けられた特徴パターン識別情報(以下、「特徴パターンID」という)である。
モデル作成部332は、例えば図10に示す第1特徴パターン及び第2特徴パターンを参照することにより、時刻T1においてユーザU1の第1特徴パターンが「R11」であり、第2特徴パターンが「R20」であることを特定する。モデル作成部332は、時刻T1よりも後の時刻である時刻T3においてユーザU1の第1特徴パターンが「R10」であり、第2特徴パターンが「R21」であることを特定する。モデル作成部332は、例えば時刻T3においてユーザU1の第1特徴パターンが「R11」から「R10」に変化し、ユーザU1の第2特徴パターンが「R20」から「R21」に変化したことに基づいて、ユーザUの脈波が変化したと判定する。
モデル作成部332は、例えば図10に示す第1特徴パターン及び第2特徴パターンを参照することにより、時刻T2及び時刻T4において第1特徴パターンが「R10」であり、第2特徴パターンが「R20」であることを特定する。モデル作成部332は、時刻T2と時刻T2よりも後の時刻である時刻T4とにおいて第1特徴パターン及び第2特徴パターンが変化していないことに基づいて、ユーザU2の脈波が変化していないと判定する。
図8に戻って、モデル作成部332は、例えば図10に示す第1特徴パターン及び第2特徴パターンを参照することにより、現在の時刻における脈波の特徴が、現在の時刻よりも前の時刻の脈波の特徴から変化していないと判定した場合(S22のNO)、S21及びS22の処理を繰り返す。モデル作成部332は、現在の時刻の脈波の特徴が、現在の時刻よりも前の時刻の脈波の特徴から変化したと判定した場合(S22のYES)、脈波の特徴が変化した時刻を特定する(S23)。モデル作成部332は、変化した時刻に関連付けて、当該時刻において取得部331が取得した脈波データを記憶部32に記憶させる(S24)。
図11は、記憶部32に記憶された脈波データの管理テーブルを示す図である。図11においては、ユーザID、過去の時刻から脈波の特徴が変化したと判定した時刻を示す「時刻」及び「脈波データアドレス」が関連付けられている。脈波データアドレスは、例えば記憶部32が有する記憶媒体において脈波データが記憶されているアドレスを示す。
モデル作成部332は、S22においてユーザUの脈波の特徴が過去の脈波の特徴から変化したことを特定した場合に、ユーザUの感情を問い合わせるメッセージをユーザUが使用する情報端末20に送信する(S25)。モデル作成部332は、例えば複数の感情候補データを含むメッセージを送信する。感情候補データは、例えば「喜」「怒」「哀」「楽」等の感情を示す情報である。情報端末20は、モデル作成部332からメッセージを取得したことに応じて、ユーザUの感情を問い合わせる画面を表示する。
図12は、ユーザUの感情を問い合わせる画面の一例を示す図である。図12に示す画面には、表示領域11、操作用画像12、表示領域13及び操作用画像14が含まれている。表示領域11は、操作用画像12に対応する問い合わせ内容を表示するための領域である。図12においては「10分くらい前の気分はどれにあてはまりますか?」という問い合わせ内容が表示されている。
操作用画像12は、ユーザUが表示領域11に表示された問い合わせに対する回答を選択するための操作用画像である。操作用画像12は、例えばモデル作成部332から取得した感情候補データが示す「喜」「怒」「哀」「楽」等の文字画像である。情報端末20は、ユーザUが操作用画像12に含まれる複数の文字画像のうち1つの文字画像を押したことにより、当該1つの文字画像に対応する感情を示す感情候補データをモデル作成部332に出力する。
表示領域13は、操作用画像14に対応する問い合わせ内容を表示するための領域である。図12においては「今の気分はどれにあてはまりますか?」という問い合わせ内容が表示されている。操作用画像14は、ユーザUが表示領域13に表示された問い合わせに対する回答を選択するための操作用画像である。操作用画像14は、例えばモデル作成部332から取得した感情候補データが示す「喜」「怒」「哀」「楽」等の文字画像である。情報端末20は、ユーザUが操作用画像14に含まれる複数の文字画像のうち1つの文字画像を押したことにより、当該1つの文字画像に対応する感情を示す感情候補データをモデル作成部332に出力する。
モデル作成部332は、複数の感情候補データから選択された感情候補データを入力感情データとして取得する(S26)。モデル作成部332は、例えばメッセージを情報端末20に送信したことに応じて、ユーザUが入力した感情を示す入力感情データと、ユーザUが入力感情データを入力した時点のユーザUの脈波データと、を情報端末20から取得する。すなわち、モデル作成部332は、ユーザUの脈波が変化した時点における脈波データと、その時点におけるユーザUの感情とを関連付ける。モデル作成部332は、例えばユーザUが図12に示す操作用画像14を操作することにより取得した入力感情データを、S21において取得した脈波データに関連付ける。
モデル作成部332は、取得した入力感情データが重み係数を決定するために有効なデータであるか否かを判定する(S27)。モデル作成部332は、例えば記憶部32を参照することにより、脈波データと感情との関係の許容範囲を示す範囲データを取得する。範囲データは、例えば脈の高さ又は平均心拍数の数値ごとに、対応し得る一以上の感情の種別が関連付けられたデータである。
モデル作成部332は、例えば入力感情データが示す感情と、脈波データに基づいて特定した平均心拍数又は脈の高さの少なくともいずれかとの関係が、範囲データにおける許容範囲に含まれているか否かを判定する。モデル作成部332は、入力感情データと脈波データとの関係が、範囲データが示す許容範囲内である場合、取得した入力感情データが有効であると判定する。モデル作成部332は、入力感情データと脈波データとの関係が、範囲データが示す感情の許容範囲外である場合、取得した入力感情データが有効ではないと判定する。例えば、「哀」又は「怒」に対応していることを範囲データが示す脈波データが取得された時点で、「喜」を示す入力感情データが取得された場合、モデル作成部332は、入力感情データが有効ではないと判定する。
モデル作成部332は、取得した入力感情データが有効ではないと判定した場合(S27のNO)、当該入力感情データを記憶部32に記憶しない。一方、取得した入力感情データが有効であると判定した場合(S27のYES)、モデル作成部332は、当該入力感情データと脈波データが変化した時刻とを関連付けて記憶部32に記憶する(S28)。
図13は、記憶部32に記憶された入力感情データを示す図である。図13においては、ユーザID、脈波が変化した時刻を示す「時刻」、「感情1」及び「感情2」が関連付けられている。「感情1」は、ユーザUが操作用画像12を押すことにより選択した感情(すなわち10分くらい前の感情)を示す。「感情2」は、ユーザUが操作用画像14を押すことにより選択した感情(すなわち今の感情)を示す。例えば、モデル作成部332が時刻T3にユーザU1の脈波が変化したと判定した場合、モデル作成部332は、ユーザU1の10分くらい前の感情「哀」とユーザU1の今の感情「怒」とを示す入力感情データをユーザU1の情報端末20から取得し、時刻T3に関連付けて記憶部32に記憶させる。
モデル作成部332は、一の属性別感情推定モデルに設定するための重み係数を決定する(S29)。モデル作成部332は、例えば取得した入力感情データとユーザUの脈波データとの関係に基づいて重み係数を決定する。モデル作成部332は、例えば記憶部32を参照することにより、情報端末20から取得したユーザUの入力感情データと、ユーザUの脈波データと、を取得する。モデル作成部332は、例えば図11に示す「脈波データアドレス」が示す脈波データ及び図13に示す「感情2」が示す入力感情データを参照することにより、ユーザU1に対応する入力感情データと、当該入力感情データに関連付けられた脈波データと、を取得する。
モデル作成部332は、ユーザU1に対応する入力感情データ及び脈波データの組合せを教師データとして、ユーザU1のユーザ属性に対応する属性別感情推定モデルに入力することにより、機械学習を実行する。モデル作成部332は、機械学習を実行することにより、属性別感情推定モデルに設定された係数(すなわち重み係数)を変化させる。モデル作成部332は、属性別感情推定モデルに設定された係数が変化した後の係数を、ユーザU1固有の重み係数に決定する。
モデル作成ステップ(S100)においては、モデル作成部332がこのように動作することで、ユーザU1の脈波に対応する感情を含めた重み係数を決定することができる。その結果、モデル作成部332は、ユーザU1の感情を推定する精度が高いユーザ感情推定モデルを作成することができる。
モデル作成部332は、例えば決定した重み係数をユーザU1が使用している情報端末20に送信することにより、当該情報端末20に重み係数を記憶させる。モデル作成部332は、決定した重み係数を記憶部32に記憶させてもよい。
以上の説明においては、モデル作成部332が、ユーザUの感情が変化した時点における感情データと脈波データとを用いてユーザ感情推定モデルを作成する場合を例示したが、モデル作成部332は、予め作成したユーザ感情推定モデルの重み係数を取得することにより、属性別感情推定モデルに基づいてユーザ感情推定モデルを作成してもよい。モデル作成部332は、例えばS29において決定した重み係数を取得し、取得した重み係数をユーザ属性に対応する属性別感情推定モデルに設定することで、ユーザUに対応するユーザ感情推定モデルを作成してもよい。
モデル作成部332は、例えばユーザUが使用する情報端末20から重み係数を取得し、取得した重み係数を、ユーザUの属性に対応する一の属性別感情推定モデルに設定する。モデル作成部332がこのように動作することで、データ処理装置30は、ユーザ感情推定モデルを作成する対象となるユーザUの人数が増加したとしても、ユーザUの人数分のユーザ感情推定モデルを記憶部32に記憶する必要がないので、記憶部32に記憶するデータの容量を小さくすることができる。
モデル作成部332は、ユーザUに関連付けて記憶部32に記憶された重み係数を一の属性別感情推定モデルに設定してもよい。モデル作成部332がこのように動作することで、データ処理装置30は、ユーザUが使用している情報端末20から重み係数を取得するよりも短い時間で重み係数を取得することができる。その結果、モデル作成部332は、ユーザ感情推定モデルを作成する時間を短くすることができる。
一例として、モデル作成部332は、ユーザUの感情を推定する要求を取得部331が取得したことに応じて、ユーザUに対応する重み係数を取得し、取得した重み係数に基づいてユーザ感情推定モデルを作成してもよい。そして、感情データ出力部334は、ユーザUから取得された脈波データを当該ユーザ感情推定モデルに入力することで、その時点でのユーザUの感情を推定した結果を出力することができる。
なお、モデル作成部332は、所定の期間が経過するたびにモデル作成ステップ(S100)を実行してもよい。所定の期間は、例えば1週間又は1ヶ月等の予め定められた期間である。モデル作成部332がこのように動作することで、モデル作成部332は、例えばユーザUの疾患が改善したり悪化したりすることによりユーザUの属性が変化した場合、又はユーザUの年齢の変化により脈波若しくは感情の起伏が変化した場合であっても、ユーザUに対応するユーザ感情推定モデルを作成することができる。
<データ処理方法による効果>
以上説明したように、データ処理方法は、ユーザUの感情を示すユーザ推定感情データを出力するユーザ感情推定モデルにユーザUの脈波データを入力する脈波データ入力ステップと、ユーザ感情推定モデルから出力される推定感情データを出力する感情データ出力ステップと、を有する。そして、ユーザ推定感情モデルは、ユーザの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応する。
データ処理方法がこのように構成されることで、データ処理装置30は、複数のユーザUそれぞれのユーザ属性に対応する属性別感情推定モデルを用いてユーザUの感情を推定することができるため、ユーザの感情を推定する精度を向上させることができる。さらに、本発明のデータ処理方法は、ユーザUの脈波データ及び入力感情データの関係に基づいて決定した重み係数を属性別感情推定モデルに設定することにより、ユーザの感情を推定する精度をさらに向上させることができる。このようなデータ処理方法は、例えば企業の人事を担当する部門が従業員であるユーザUの感情に基づいて当該ユーザUに適正な業務を割り当てたり、ロボットを開発する開発者がユーザUの感情をロボットに移植したりする場合に好適である。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 データ処理システム
10 光電測定デバイス
20 情報端末
30 データ処理装置
31 通信部
32 記憶部
33 制御部
331 取得部
332 モデル作成部
333 脈波データ入力部
334 感情データ出力部

Claims (11)

  1. コンピュータが実行する、
    ユーザの脈波データが入力されると前記脈波データに対応する前記ユーザの感情を示す推定感情データを出力する、前記ユーザに対応するユーザ感情推定モデルに、前記ユーザの脈波データを入力する脈波データ入力ステップと、
    前記ユーザ感情推定モデルから出力される前記推定感情データを出力する感情データ出力ステップと、
    を有し、
    前記ユーザ感情推定モデルは、予め準備された複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応するものであって、当該一の属性別感情推定モデルは、複数の属性別感情推定モデルのうち、前記ユーザの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する属性別感情推定モデルであることを特徴とするデータ処理方法。
  2. 前記ユーザ属性は、前記脈波データに基づいて特定された脈波の大きさ及び心拍数の組合せに基づいて特定される属性であることを特徴とする、
    請求項1に記載のデータ処理方法。
  3. 所定の期間が経過するたびに、前記ユーザ感情推定モデルを、予め準備された複数の属性別感情推定モデルから再び選択することを特徴とする、
    請求項1又は2に記載のデータ処理方法。
  4. 前記脈波データ入力ステップの前に、前記ユーザに関連付けられた重み係数を前記一の属性別感情推定モデルに設定することにより、前記ユーザ感情推定モデルを作成するモデル作成ステップをさらに有することを特徴とする、
    請求項1から3のいずれか一項に記載のデータ処理方法。
  5. 前記モデル作成ステップにおいて、前記ユーザが使用する情報端末から前記重み係数を取得し、取得した前記重み係数を前記一の属性別感情推定モデルに設定することを特徴とする、
    請求項4に記載のデータ処理方法。
  6. 前記モデル作成ステップにおいて、前記ユーザに関連付けて記憶部に記憶された前記重み係数を前記一の属性別感情推定モデルに設定することを特徴とする、
    請求項4に記載のデータ処理方法。
  7. 前記モデル作成ステップは、
    前記ユーザの感情を問い合わせるメッセージを前記ユーザが使用する情報端末に送信するステップと、
    前記メッセージを前記情報端末に送信したことに応じて、前記ユーザが入力した感情を示す入力感情データと、前記ユーザが前記入力感情データを入力した時点の前記ユーザの脈波データと、を前記情報端末から取得するステップと、
    取得した前記入力感情データと前記ユーザの脈波データとの関係に基づいて前記重み係数を決定するステップと、
    を有することを特徴とする、
    請求項5又は6に記載のデータ処理方法。
  8. 前記モデル作成ステップにおいて、複数の感情候補データを含む前記メッセージを送信し、前記複数の感情候補データから選択された感情候補データを前記入力感情データとして取得することを特徴とする、
    請求項7に記載のデータ処理方法。
  9. 所定の期間が経過するたびに前記モデル作成ステップを実行することを特徴とする、
    請求項4から8のいずれか一項に記載のデータ処理方法。
  10. コンピュータに、
    ユーザの脈波データが入力されると前記脈波データに対応する前記ユーザの感情を示す推定感情データを出力する、前記ユーザに対応するユーザ感情推定モデルに、前記ユーザの脈波データを入力する脈波データ入力ステップと、
    前記ユーザ感情推定モデルから出力される前記推定感情データを出力する感情データ出力ステップと、
    を実行させ、
    前記ユーザ感情推定モデルは、予め準備された複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応するものであって、当該一の属性別感情推定モデルは、複数の属性別感情推定モデルのうち、前記ユーザの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する属性別感情推定モデルであることを特徴とするプログラム。
  11. ユーザの脈波データが入力されると前記脈波データに対応する前記ユーザの感情を示す推定感情データを出力する、前記ユーザに対応するユーザ感情推定モデルに、前記ユーザの脈波データを入力する脈波データ入力部と、
    前記ユーザ感情推定モデルから出力される前記推定感情データを出力する感情データ出力部と、
    を有し、
    前記ユーザ感情推定モデルは、予め準備された複数の属性別感情推定モデルから選択した一の属性別感情推定モデルに対応するものであって、当該一の属性別感情推定モデルは、複数の属性別感情推定モデルのうち、前記ユーザの時系列の脈波データに基づく特徴量を、複数の属性に対応する複数の基準特徴量と比較することにより特定したユーザ属性に対応する属性別感情推定モデルであることを特徴とするデータ処理装置。
JP2022018048A 2022-02-08 2022-02-08 データ処理方法、プログラム及びデータ処理装置 Pending JP2023115687A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022018048A JP2023115687A (ja) 2022-02-08 2022-02-08 データ処理方法、プログラム及びデータ処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022018048A JP2023115687A (ja) 2022-02-08 2022-02-08 データ処理方法、プログラム及びデータ処理装置

Publications (1)

Publication Number Publication Date
JP2023115687A true JP2023115687A (ja) 2023-08-21

Family

ID=87576466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022018048A Pending JP2023115687A (ja) 2022-02-08 2022-02-08 データ処理方法、プログラム及びデータ処理装置

Country Status (1)

Country Link
JP (1) JP2023115687A (ja)

Similar Documents

Publication Publication Date Title
JP2018010501A (ja) 面接システム
CN110337699A (zh) 一种心理压力评估方法及设备
EP3722977A1 (en) Method and apparatus for generating a design for a technical system or product
JP2020024665A (ja) 情報処理方法、及び情報処理システム
CN116013228A (zh) 一种音乐生成方法、装置、电子设备及其存储介质
KR101926855B1 (ko) 콜센터 질의응답 서비스 제공 장치
JP6970641B2 (ja) 感情推測方法、感情推測装置及びプログラム
JP6910919B2 (ja) システム及び意思疎通を図るために行うアクションの評価方法
JPWO2019146405A1 (ja) 表情解析技術を用いた商品に対するモニタの反応を評価するための情報処理装置、情報処理システム、プログラム
JP7072967B2 (ja) 推薦アイテム決定及び性格モデル生成のためのシステム、方法、プログラム、及びプログラムを記録した記録媒体
JP2019204142A (ja) 組織情報処理装置、組織情報処理方法、およびプログラム
JP2023115687A (ja) データ処理方法、プログラム及びデータ処理装置
CN109919740B (zh) 一种生成购衣建议的方法及装置
JP7501614B2 (ja) 価格算出装置
US20210097884A1 (en) Work support apparatus, work support system, and work support method
JP7529029B2 (ja) 情報処理装置、制御方法及びプログラム
JP6751955B1 (ja) 学習方法、評価装置、及び評価システム
JP7224315B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JPWO2020170845A1 (ja) 情報処理装置、及び、プログラム
JP2020168537A (ja) 情報処理装置、プログラム、及び、情報処理方法
JP6713936B2 (ja) 情報提供装置、情報提供システム、端末装置、情報提供方法および情報提供プログラム
JP7487944B2 (ja) 感情記録支援装置と感情記録支援方法
JP2020201751A (ja) ユーザ状態推定装置
JP7333570B1 (ja) プログラム、方法、情報処理装置、システム
CN109584012A (zh) 用于生成物品推送信息的方法和装置