JP2012053829A - User state estimation device and user state estimation method - Google Patents
User state estimation device and user state estimation method Download PDFInfo
- Publication number
- JP2012053829A JP2012053829A JP2010197774A JP2010197774A JP2012053829A JP 2012053829 A JP2012053829 A JP 2012053829A JP 2010197774 A JP2010197774 A JP 2010197774A JP 2010197774 A JP2010197774 A JP 2010197774A JP 2012053829 A JP2012053829 A JP 2012053829A
- Authority
- JP
- Japan
- Prior art keywords
- user state
- user
- state estimation
- sound pressure
- decision tree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、椅子に着席するユーザの状態を推定するユーザ状態推定装置及びユーザ状態推定方法に関する。 The present invention relates to a user state estimation device and a user state estimation method for estimating the state of a user sitting on a chair.
回転椅子に加速度センサを設置して、回転椅子に着席するユーザのコンテキストを推定する技術が知られている(例えば、非特許文献1参照)。この技術では、ユーザが特殊なセンサを装着する負担がない点で有効な手段ではあるが、推定可能なユーザ状態が、「着席」と「退席」だけに限られている。 A technique is known in which an acceleration sensor is installed on a swivel chair and a context of a user seated on the swivel chair is estimated (see, for example, Non-Patent Document 1). This technique is effective in that the user does not have to put on a special sensor, but the user states that can be estimated are limited to “sitting” and “leaving”.
一方で、机上のパーソナルコンピュータ(PC)の操作を行うユーザの動作を推定するために、非特許文献1の技術よりも推定可能なユーザ状態を拡大して、ユーザの動作を細かく推定するため、加速度センサを腕等に装着する技術が知られている(例えば、非特許文献2参照)。この技術では、「PC作業」、「書類を読む」、「書類を書く」及び「自由行動」の4つの状態が推定可能となっている。
On the other hand, in order to estimate the operation of a user who operates a personal computer (PC) on a desk, in order to estimate the user's operation in a more detailed manner by enlarging the user state that can be estimated than the technique of Non-Patent
非特許文献1における回転椅子に加速度センサを設置する従来方式では、推定可能となるユーザの着席時の状態が2つだけであり、これをサービスに適用する際には、極めて限定した利用方法しかできなかった。
In the conventional method of installing an acceleration sensor on a swivel chair in Non-Patent
また、非特許文献2における装着型の加速度センサを用いる従来方式では、着席時にも、常にセンサをユーザ自身に装着しなければならないという点で、ユーザに負担を強いる問題があった。また、「PC作業」のような機器使用に関するユーザ状態については、キーボード/マウス操作などのセンサから収集されるデータを用いるよりも、PC動作自体を監視した方がより容易に推定可能である。
Further, in the conventional method using the wearable acceleration sensor in Non-Patent
このため、ユーザ自身にセンサを装着することなしに、より多種類のユーザ状態を推定する技術が望まれる。 For this reason, the technique which estimates more types of user states, without mounting | wearing a user himself / herself with a sensor is desired.
本発明は、上述の問題を鑑みて為されたものであり、椅子に着席するユーザの状態を推定するユーザ状態推定装置及びユーザ状態推定方法を提供することにある。 The present invention has been made in view of the above-described problems, and it is an object of the present invention to provide a user state estimation device and a user state estimation method for estimating the state of a user sitting on a chair.
本発明は、椅子に設置した3軸加速度センサと机上に設置したマイクから収集される一定期間のデータから、特徴量としての複数種類のパラメータを抽出し、これらのパラメータを基に、椅子に着席するユーザの状態を推定する。 The present invention extracts a plurality of types of parameters as feature quantities from data for a certain period collected from a triaxial acceleration sensor installed on a chair and a microphone installed on a desk, and sits on the chair based on these parameters. The state of the user who performs is estimated.
ユーザの負担を減らすため、設置型センサとして、椅子に設置した加速度センサ、及び机上に置いたマイク(例えば、指向性マイク)をセンサとして用いる。加速度センサは、椅子に着席するユーザの動きに起因する振動を収集し、マイクは、椅子に着席するユーザの近傍の音を収集する。加速度センサとマイクの双方からの収集データに基づいて特徴量としての複数種類のパラメータを抽出し、予め定めた(予め学習して得られた)着席時の多様なユーザ状態の各々について、精度良く判定する。 In order to reduce the burden on the user, an acceleration sensor installed on a chair and a microphone (for example, a directional microphone) placed on a desk are used as sensors. The acceleration sensor collects vibrations caused by the movement of the user sitting on the chair, and the microphone collects sounds near the user sitting on the chair. A plurality of types of parameters as feature quantities are extracted based on data collected from both the acceleration sensor and the microphone, and each of various user states at the time of seating determined in advance (obtained by learning in advance) with high accuracy is obtained. judge.
即ち、本発明のユーザ状態推定装置は、椅子に着席するユーザの状態を推定するユーザ状態推定装置であって、ユーザの動作に起因する音を収音可能な位置に配置されたマイクから音圧データを取得する第1のインターフェースと、当該椅子に設置された3軸加速度センサから加速度データを取得する第2のインターフェースと、当該ユーザ状態の推定処理を実行する制御部と、当該ユーザ状態の推定処理に用いる決定木を格納する決定木格納部とを備え、前記制御部は、前記第1のインターフェース及び前記第2のインターフェースを介して得られる加速度データ及び音圧データを監視し、所定の期間の加速度データ及び音圧データを決定するデータ監視部と、前記所定の期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出する特徴量抽出部と、前記決定木格納部から決定木を読み出し、当該抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行するユーザ状態推定部と、を備えることを特徴とする。 That is, the user state estimation device of the present invention is a user state estimation device that estimates the state of a user sitting on a chair, and the sound pressure from a microphone disposed at a position where sound caused by the user's motion can be collected. A first interface for acquiring data; a second interface for acquiring acceleration data from a three-axis acceleration sensor installed in the chair; a control unit for executing processing for estimating the user state; and estimating the user state A decision tree storage unit for storing a decision tree used for processing, wherein the control unit monitors acceleration data and sound pressure data obtained via the first interface and the second interface, and performs a predetermined period of time. A data monitoring unit for determining the acceleration data and sound pressure data of the sound, and a plurality of types as feature amounts from the sound pressure data and acceleration data of the predetermined period A feature quantity extraction unit that extracts parameters; and a user state estimation unit that reads out a decision tree from the decision tree storage unit and executes at least five types of user state estimation processing based on the extracted feature quantities. It is characterized by that.
また、本発明のユーザ状態推定装置において、前記特徴量としての複数種類のパラメータは、加速度データから得られる各軸の平均値、分散値及びパワースペクトルと、3軸の合成軸の平均値、分散値及びパワースペクトルからなるパラメータと、音圧データから得られる音圧の平均値、分散値及びパワースペクトルからなるパラメータと、を含むことを特徴とする。 Further, in the user state estimation device of the present invention, the plurality of types of parameters as the feature amount include an average value, a variance value, and a power spectrum of each axis obtained from the acceleration data, and an average value, variance of the three axes combined And a parameter consisting of a value and a power spectrum, and a parameter consisting of an average value of sound pressure obtained from sound pressure data, a variance value and a power spectrum.
また、本発明のユーザ状態推定装置において、前記決定木は、一括推定方式に従う決定木、又は、段階推定方式に従う決定木からなることを特徴とする。 In the user state estimation apparatus according to the present invention, the decision tree includes a decision tree according to a collective estimation method or a decision tree according to a step estimation method.
さらに、本発明のユーザ状態推定方法は、椅子に着席するユーザの状態を推定するユーザ状態推定方法であって、ユーザの動作に起因する音を収音可能な位置に配置されたマイクから音圧データを取得するステップと、当該椅子に設置された3軸加速度センサから加速度データを取得するステップと、前記加速度データ及び音圧データを監視し、所定の期間の加速度データ及び音圧データを決定するステップと、前記所定の期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出するステップと、予め定めた決定木を用いて、当該抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行するステップと、を含むことを特徴とする。 Furthermore, the user state estimation method of the present invention is a user state estimation method for estimating the state of a user sitting on a chair, and the sound pressure from a microphone disposed at a position where sound caused by the user's action can be collected. A step of acquiring data, a step of acquiring acceleration data from a three-axis acceleration sensor installed in the chair, and monitoring the acceleration data and sound pressure data to determine acceleration data and sound pressure data for a predetermined period. A step of extracting a plurality of types of parameters as feature values from the sound pressure data and acceleration data of the predetermined period, and at least 5 based on the extracted feature values using a predetermined decision tree Performing a process for estimating types of user states.
本発明によれば、着席時のユーザの状態をユーザに負担をかけることなく推定でき、従来に比べてより多くのユーザ状態を推定可能となる。 ADVANTAGE OF THE INVENTION According to this invention, the user's state at the time of sitting can be estimated without imposing a burden on a user, and more user states can be estimated compared with the past.
以下、本発明による一実施例のユーザ状態推定装置について説明する。本発明に係るユーザ状態推定方法は、ユーザ状態推定装置の説明から明らかになる。 Hereinafter, a user state estimation apparatus according to an embodiment of the present invention will be described. The user state estimation method according to the present invention will become clear from the description of the user state estimation device.
図1は、本発明による一実施例のユーザ状態推定装置の適用例を示す図である。机上50には、ユーザ状態推定装置10と接続される表示装置40及びマイク20が設置されている。ユーザUは、回転椅子60に着席している。回転椅子60の背もたれ部には3軸加速度センサ30が取り付けられ、3軸加速度センサ30は、ユーザ状態推定装置10と短距離無線通信(例えば、ブルートゥース)可能である。尚、図2には、3軸加速度センサ(サンプリング周波数:10Hz)を椅子の背もたれ部に設置するとともに、指向性マイクを机上に設置した様子を示しており、3軸加速度センサ30の軸方向を示している。尚、マイク20は、ユーザUの動作に起因する音を収音可能な位置であれば机上でなくともよい。
FIG. 1 is a diagram illustrating an application example of a user state estimation apparatus according to an embodiment of the present invention. On the
図3は、本発明による一実施例のユーザ状態推定装置のブロック図である。本実施例のユーザ状態推定装置10は、マイク20からの音圧データを取得するインターフェース(I/F)101と、3軸加速度センサ30からの加速度データを取得するインターフェース(I/F)102と、ユーザ状態の推定処理を実行する制御部103と、ユーザ状態の推定処理を表示装置40に出力する出力部104と、ユーザ状態の推定処理に用いる決定木を格納する決定木格納部105と、記憶部106とを備える。ユーザ状態推定装置10は、コンピュータとして構成することができ、制御部103の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部106に格納しておき、当該コンピュータの中央演算処理装置(CPU)によってこのプログラムを読み出して実行させることで実現することができる。
FIG. 3 is a block diagram of a user state estimation apparatus according to an embodiment of the present invention. The user
制御部103は、データ監視部1031と、特徴量抽出部1032と、ユーザ状態推定部1033とを備える。
The
データ監視部1031は、I/F101,102を介して得られる加速度データ及び音圧データを監視しており、加速度データ及び音圧データのいずれか一方又は双方が、あるレベル以上の変化が生じた場合に、その変化が生じたレベルが安定するまでの期間(窓関数の期間に相当する)の時間軸データを切り出し、特徴量抽出部1032に送出する。例えば、図4(a)に、切り出された期間の音圧データの例を示し、図4(b)に切り出された期間の加速度データの例を示している。
The
特徴量抽出部1032は、切り出された期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出し、ユーザ状態推定部1033に送出する。例えば、3軸加速度センサ30からの加速度データからは、各軸の平均値、分散値及びパワースペクトルと、3軸の合成軸の平均値、分散値及びパワースペクトルを特徴量として抽出する。また、マイク20からの音圧データからは、音圧の平均値、分散値及びパワースペクトルを特徴量として抽出する。尚、本実施例では、サンプリング周波数:8000Hz、ビット数:16bit、窓関数(FFT)のデータサイズ:8192点、パワースペクトルとして有効な4096点(FFTのデータサイズの半分)の内、前半の800点のみを推定に用いている。
The feature
ユーザ状態推定部1033は、一括推定方式に従う決定木、又は、段階推定方式に従う決定木を格納する決定木格納部105から、一括推定方式に従う決定木、又は、段階推定方式に従う決定木を読み出し、特徴量抽出部1032によって抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行し、推定結果を、出力部104を介して表示装置40に送出する。本実施例では、「休憩」、「会話」、「読書」、「筆記」、「飲食」の5つの状態を、重心位置/人の声/紙をめくる音/ペンを走らせる音/食器が立てる音などに着目して高精度で推定可能とする。
The user
図5は、一括推定方式に従う決定木を用いて、抽出した特徴量から少なくとも5種類のユーザ状態の推定処理を実行する動作例を示している。一括推定とは、併合クラスタの決定木を用いる推定法であり、抽出した全ての特徴量を入力値として、予め構築した決定木を用いてコンテキストを推定するやり方である。データ監視部1031によって、音圧データ及び加速度データを取得して切り出し(ステップS1)、特徴量抽出部1032によって、音圧データ及び加速度データの特徴量を抽出し(ステップS2)、ユーザ状態推定部1033によって、一括推定方式に従う決定木を用いて、「休憩」、「会話」、「読書」、「筆記」、「飲食」の5つの状態を推定する(ステップS3)。
FIG. 5 shows an operation example in which at least five types of user state estimation processes are executed from extracted feature quantities using a decision tree according to the collective estimation method. The batch estimation is an estimation method using a decision tree of merged clusters, and is a method of estimating a context using a pre-constructed decision tree with all extracted feature values as input values. The sound pressure data and acceleration data are acquired by the
図6は、本発明による一実施例のユーザ状態推定装置における、段階推定方式に従う決定木を用いて、抽出した特徴量から少なくとも5種類のユーザ状態の推定処理を実行する動作例を示す図である。段階推定方式とは、2段階クラスタに沿った決定木を用いる例であり、センサから抽出した特徴量を入力値として、あらかじめ構築した複数の決定木を用いて、段階的にコンテキストを推定するやり方である。データ監視部1031によって、音圧データ及び加速度データを取得して切り出し(ステップS11)、特徴量抽出部1032によって、音圧データ及び加速度データの特徴量を抽出し(ステップS12)、ユーザ状態推定部1033によって、まず、段階推定方式に従う決定木(加速度)を用いて、「動作あり」及び「動作なし」のユーザ状態の大分類を行い(ステップS13)、それぞれ大分類したユーザ状態について、さらに、段階推定方式に従う決定木(マイクからの音圧データ)を用いて、「休憩」、「会話」、「読書」、「筆記」、「飲食」の5つの状態を推定する(ステップS14)。
FIG. 6 is a diagram illustrating an operation example in which at least five types of user state estimation processing are executed from extracted feature quantities using a decision tree according to the stage estimation method in the user state estimation apparatus according to an embodiment of the present invention. is there. The stage estimation method is an example using a decision tree along a two-stage cluster. A method for estimating a context step by step using a plurality of decision trees built in advance using feature values extracted from sensors as input values. It is. The sound pressure data and acceleration data are acquired by the
図7(a)に、両方式の最終的に得られた推定正解率を示し、図7(b)に、両方式の最終的に得られた推定正解率の標準偏差を示す。図7(a)の結果から分かるように、一括推定方式は「会話」のコンテキストを除く、残りの全てのコンテキストにおいて高い推定正解率が得られている。これに比し、段階推定方式は動作が無く、音声に特徴がある、「会話」コンテキストの推定には、方式が持つ特性上、良い結果が得られている。 FIG. 7A shows the estimated accuracy rates finally obtained for both formulas, and FIG. 7B shows the standard deviation of the estimated accuracy rates finally obtained for both formulas. As can be seen from the results of FIG. 7A, the collective estimation method obtains a high estimated accuracy rate in all remaining contexts except the “conversation” context. Compared to this, the stage estimation method has no operation, and the “conversation” context, which is characterized by speech, has a good result due to the characteristics of the method.
図7(b)に示す標準偏差値から、全てのコンテキストにおいて一括推定方式の値が小さくなっていることが分かる。これは、言い換えるとユーザによる個人差の影響が小さいことを示しており、煩雑なカスタマイズをすることなく適用できる方式と云える。 It can be seen from the standard deviation value shown in FIG. 7B that the value of the collective estimation method is small in all contexts. In other words, this indicates that the influence of individual differences by the user is small, and it can be said that the method can be applied without complicated customization.
一括推定方式の決定木の例を図8A〜図8Eに示し、段階推定方式の決定木の例を図9A〜図9Kに示す。尚、例示する決定木における記号の説明は、以下のとおりである。 Examples of decision trees for the batch estimation method are shown in FIGS. 8A to 8E, and examples of decision trees for the stage estimation method are shown in FIGS. 9A to 9K. The explanation of symbols in the exemplified decision tree is as follows.
(3軸加速度センサ)
XAve:X軸平均値
YAve:Y軸平均値
ZAve:Z軸平均値
ALLAve:各軸の合成軸平均値
XVar:X軸分散値
YVar:Y軸分散値
ZVar:Z軸分散値
ALLVar:各軸の合成軸分散値
XPow:X軸パワースペクトル
YPow:Y軸パワースペクトル
ZPow:Z軸パワースペクトル
ALLPow:各軸の合成軸パワースペクトル
(マイク)
MAve:音圧の平均値
MVar:音圧の分散値
MPow1:出力されたパワースペクトルの1点目
MPow800:出力されたパワースペクトルの800点目
MPowAve:前半のパワースペクトル800点分の平均値
MPowVar:前半のパワースペクトル800点分の分散値
(推定コンテキスト)
condition=1: 読書
condition=2: 筆記
condition=3: 休憩
condition=4: 飲食
condition=5: 会話
(3-axis acceleration sensor)
XAve: X-axis average value
YAve: Y-axis average value
ZAve: Z-axis average value
ALLAve: Composite axis average value of each axis
XVar: X-axis dispersion value
YVar: Y-axis variance
ZVar: Z-axis dispersion value
ALLVar: Composite axis dispersion value for each axis
XPow: X-axis power spectrum
YPow: Y-axis power spectrum
ZPow: Z-axis power spectrum
ALLPow: Composite axis power spectrum of each axis (microphone)
MAve: Average sound pressure
MVar: Dispersion value of sound pressure
MPow1: First point of the output power spectrum
MPow800: 800th point of output power spectrum
MPowAve: Average value of 800 power spectra in the first half
MPowVar: Dispersion value for 800 power spectra in the first half (estimated context)
condition = 1: Reading
condition = 2: writing
condition = 3: Break
condition = 4: Food and drink
condition = 5: conversation
このように、本発明によれば、着席時のユーザの状態をユーザに負担をかけることなく推定でき、従来に比べてより多くのユーザ状態を推定可能となる。 Thus, according to the present invention, it is possible to estimate the user's state at the time of sitting without burdening the user, and it is possible to estimate more user states than in the past.
このユーザ状態の適用の一例として、着席ユーザへの着信時、推定したユーザ状態に合わせて、ユーザにとって最適な通信手段(例えば、電話やメール等)を選択して着信させることができるようになる。ユーザの状態が細かく推定可能となることにより、行動履歴やライフログへの適用も期待できる。 As an example of the application of this user status, when receiving a call to a seated user, it becomes possible to select an optimal communication means (for example, a telephone or an e-mail) for the user according to the estimated user status and to receive the incoming call. . Since the user's state can be estimated in detail, application to an action history and a life log can be expected.
本発明によれば、多種類のユーザ状態を高精度に自動認識することができるので、ユーザ状態に応じた制御を要する環境設備の用途に有用である。 According to the present invention, since various types of user states can be automatically recognized with high accuracy, the present invention is useful for environmental facilities that require control according to the user state.
10 ユーザ状態推定装置
20 マイク
30 3軸加速度センサ
40 表示装置
50 机上
60 椅子
101,102 インターフェース(I/F)
103 制御部
104 出力部
105 決定木格納部
106 記憶部
1031 データ監視部
1032 特徴量抽出部
1033 ユーザ状態推定部
DESCRIPTION OF
DESCRIPTION OF
Claims (4)
ユーザの動作に起因する音を収音可能な位置に配置されたマイクから音圧データを取得する第1のインターフェースと、
当該椅子に設置された3軸加速度センサから加速度データを取得する第2のインターフェースと、
当該ユーザ状態の推定処理を実行する制御部と、
当該ユーザ状態の推定処理に用いる決定木を格納する決定木格納部とを備え、
前記制御部は、
前記第1のインターフェース及び前記第2のインターフェースを介して得られる加速度データ及び音圧データを監視し、所定の期間の加速度データ及び音圧データを決定するデータ監視部と、
前記所定の期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出する特徴量抽出部と、
前記決定木格納部から決定木を読み出し、当該抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行するユーザ状態推定部と、
を備えることを特徴とするユーザ状態推定装置。 A user state estimation device for estimating a state of a user sitting on a chair,
A first interface for acquiring sound pressure data from a microphone arranged at a position where sound caused by a user's operation can be collected;
A second interface for acquiring acceleration data from a three-axis acceleration sensor installed in the chair;
A control unit that executes the estimation process of the user state;
A decision tree storage unit for storing a decision tree used for the estimation process of the user state,
The controller is
A data monitoring unit that monitors acceleration data and sound pressure data obtained via the first interface and the second interface, and determines acceleration data and sound pressure data for a predetermined period;
A feature amount extraction unit that extracts a plurality of types of parameters as feature amounts from the sound pressure data and acceleration data of the predetermined period;
A user state estimation unit that reads out a decision tree from the decision tree storage unit and executes at least five types of user state estimation processing based on the extracted feature amount;
A user state estimation device comprising:
加速度データから得られる各軸の平均値、分散値及びパワースペクトルと、3軸の合成軸の平均値、分散値及びパワースペクトルからなるパラメータと、
音圧データから得られる音圧の平均値、分散値及びパワースペクトルからなるパラメータと、を含むことを特徴とする、請求項1に記載のユーザ状態推定装置。 The plural types of parameters as the feature amount are:
Parameters consisting of the average value, variance value, and power spectrum of each axis obtained from the acceleration data, and the average value, variance value, and power spectrum of the three-axis composite axis,
The user state estimation apparatus according to claim 1, further comprising: a parameter composed of an average value, a variance value, and a power spectrum of sound pressure obtained from the sound pressure data.
ユーザの動作に起因する音を収音可能な位置に配置されたマイクから音圧データを取得するステップと、
当該椅子に設置された3軸加速度センサから加速度データを取得するステップと、
前記加速度データ及び音圧データを監視し、所定の期間の加速度データ及び音圧データを決定するステップと、
前記所定の期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出するステップと、
予め定めた決定木を用いて、当該抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行するステップと、
を含むことを特徴とするユーザ状態推定方法。 A user state estimation method for estimating a state of a user sitting on a chair,
Obtaining sound pressure data from a microphone arranged at a position where sound caused by the user's action can be collected;
Obtaining acceleration data from a three-axis acceleration sensor installed in the chair;
Monitoring the acceleration data and sound pressure data to determine acceleration data and sound pressure data for a predetermined period;
Extracting a plurality of types of parameters as feature values from the sound pressure data and acceleration data of the predetermined period;
Executing at least five types of user state estimation processing based on the extracted feature quantity using a predetermined decision tree;
The user state estimation method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010197774A JP2012053829A (en) | 2010-09-03 | 2010-09-03 | User state estimation device and user state estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010197774A JP2012053829A (en) | 2010-09-03 | 2010-09-03 | User state estimation device and user state estimation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012053829A true JP2012053829A (en) | 2012-03-15 |
Family
ID=45907035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010197774A Pending JP2012053829A (en) | 2010-09-03 | 2010-09-03 | User state estimation device and user state estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012053829A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101654906B1 (en) * | 2015-05-28 | 2016-09-22 | 경희대학교 산학협력단 | Apparatus and method for character motion control |
JP2018075357A (en) * | 2016-11-02 | 2018-05-17 | 国立大学法人 奈良先端科学技術大学院大学 | Sitting posture determination device, chair, sitting posture determination method and program |
CN110893811A (en) * | 2018-09-12 | 2020-03-20 | 丰田纺织株式会社 | Seat and posture estimation system |
-
2010
- 2010-09-03 JP JP2010197774A patent/JP2012053829A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101654906B1 (en) * | 2015-05-28 | 2016-09-22 | 경희대학교 산학협력단 | Apparatus and method for character motion control |
JP2018075357A (en) * | 2016-11-02 | 2018-05-17 | 国立大学法人 奈良先端科学技術大学院大学 | Sitting posture determination device, chair, sitting posture determination method and program |
CN110893811A (en) * | 2018-09-12 | 2020-03-20 | 丰田纺织株式会社 | Seat and posture estimation system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10228764B2 (en) | Automatic haptic effect adjustment system | |
KR101753509B1 (en) | Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context | |
US20220117515A1 (en) | Advanced Consumer Application for Mobile Assessment of Functional Capacity and Falls Risk | |
JP6941622B2 (en) | Optimizing wearable device settings using machine learning | |
US8132229B2 (en) | Governing the transfer of physiological and emotional user data | |
JP6400445B2 (en) | Conversation analyzer, conversation analysis system, conversation analysis method, and conversation analysis program | |
CN108139988B (en) | Information processing system and information processing method | |
CN102160794A (en) | Systems for inducing change in a human physiological characteristic | |
CN107610698A (en) | A kind of method for realizing Voice command, robot and computer-readable recording medium | |
JP2017151517A (en) | Robot control system | |
EP2892051A2 (en) | Apparatus and method for structuring contents of meeting | |
JP5946364B2 (en) | Time-series data processing system and time-series data processing method | |
JP2012053829A (en) | User state estimation device and user state estimation method | |
JP2019068153A (en) | Information processing method, information processing unit and information processing program | |
US20180173544A1 (en) | Information processing device, information processing method, and program | |
US20120109868A1 (en) | Real-Time Adaptive Output | |
EP3490449A1 (en) | System and method for aiding communication | |
WO2020261977A1 (en) | Space proposal system and space proposal method | |
Stojanović et al. | Sensor data fusion and big mobility data analytics for activity recognition | |
US11443738B2 (en) | Electronic device processing user utterance and control method thereof | |
KR20190011031A (en) | Electronic device and metohd for expressing natural language | |
JP2007087255A (en) | Information processing system, information processing method and program | |
US20220005562A1 (en) | Measurement-facilitating device, method, and non-transitory recording medium that records program | |
JP2021162670A (en) | Communication providing device, communication providing system, and program | |
KR100702140B1 (en) | Apparatus and method for controlling unit in response to user state in portable unit |