JP2012053829A - User state estimation device and user state estimation method - Google Patents

User state estimation device and user state estimation method Download PDF

Info

Publication number
JP2012053829A
JP2012053829A JP2010197774A JP2010197774A JP2012053829A JP 2012053829 A JP2012053829 A JP 2012053829A JP 2010197774 A JP2010197774 A JP 2010197774A JP 2010197774 A JP2010197774 A JP 2010197774A JP 2012053829 A JP2012053829 A JP 2012053829A
Authority
JP
Japan
Prior art keywords
user state
user
state estimation
sound pressure
decision tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010197774A
Other languages
Japanese (ja)
Inventor
Hironari Minami
裕也 南
Yoshihiro Niitsu
善弘 新津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Shibaura Institute of Technology
Original Assignee
Nippon Telegraph and Telephone Corp
Shibaura Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Shibaura Institute of Technology filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010197774A priority Critical patent/JP2012053829A/en
Publication of JP2012053829A publication Critical patent/JP2012053829A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a user state estimation device and a user state estimation method for estimating the state of a user who sits down in a chair.SOLUTION: A user state estimation device 10 includes: a first interface 101 for acquiring sound pressure data from a microphone arranged at a position where it is possible to collect a sound due to the operation of a user; a second interface 102 for acquiring acceleration data from a three-axial acceleration sensor installed in a chair; a control unit 103 for executing the estimation processing of the user state; and a determination tree storage unit 105 for storing a determination tree to be used for the estimation processing of the user state. The control unit 103 includes: a featured value extraction section 1032 for extracting a plurality of types of parameters as featured values from the sound pressure data and the acceleration data in a prescribed period; and a user state estimation section 1033 for reading the determination tree from the determination tree storage part 105, and for executing the estimation processing of at least 5 types of the user states based on the extracted featured values.

Description

本発明は、椅子に着席するユーザの状態を推定するユーザ状態推定装置及びユーザ状態推定方法に関する。   The present invention relates to a user state estimation device and a user state estimation method for estimating the state of a user sitting on a chair.

回転椅子に加速度センサを設置して、回転椅子に着席するユーザのコンテキストを推定する技術が知られている(例えば、非特許文献1参照)。この技術では、ユーザが特殊なセンサを装着する負担がない点で有効な手段ではあるが、推定可能なユーザ状態が、「着席」と「退席」だけに限られている。   A technique is known in which an acceleration sensor is installed on a swivel chair and a context of a user seated on the swivel chair is estimated (see, for example, Non-Patent Document 1). This technique is effective in that the user does not have to put on a special sensor, but the user states that can be estimated are limited to “sitting” and “leaving”.

一方で、机上のパーソナルコンピュータ(PC)の操作を行うユーザの動作を推定するために、非特許文献1の技術よりも推定可能なユーザ状態を拡大して、ユーザの動作を細かく推定するため、加速度センサを腕等に装着する技術が知られている(例えば、非特許文献2参照)。この技術では、「PC作業」、「書類を読む」、「書類を書く」及び「自由行動」の4つの状態が推定可能となっている。   On the other hand, in order to estimate the operation of a user who operates a personal computer (PC) on a desk, in order to estimate the user's operation in a more detailed manner by enlarging the user state that can be estimated than the technique of Non-Patent Document 1, A technique for mounting an acceleration sensor on an arm or the like is known (for example, see Non-Patent Document 2). In this technique, four states of “PC work”, “reading a document”, “writing a document”, and “free action” can be estimated.

大久保 雅史、藤村 安耶、“加速度センサを利用した集中度合い推定システムの提案”、[online]、[2010年8月1日検索]、インターネットhttp://www.wiss.org/WISS2008Proceedings/posters/paper0038.pdfMasafumi Okubo, Ango Fujimura, “Proposal of Concentration Estimation System Using Accelerometer”, [online], [Search August 1, 2010], Internet http://www.wiss.org/WISS2008Proceedings/posters/ paper0038.pdf 佐藤誠、森田千絵、土井美和子、“生体データと加速度データを用いた行動認識”、[online]、[2010年8月1日検索]、インターネットhttp://www.ipsj.or.jp/01kyotsu/award/taikai_yushu/65award_papers/Y_Sato_Makoto.pdfMakoto Sato, Chie Morita, Miwako Doi, “Recognition of Behavior Using Biological Data and Acceleration Data”, [online], [searched on August 1, 2010], Internet http://www.ipsj.or.jp/01kyotsu /award/taikai_yushu/65award_papers/Y_Sato_Makoto.pdf

非特許文献1における回転椅子に加速度センサを設置する従来方式では、推定可能となるユーザの着席時の状態が2つだけであり、これをサービスに適用する際には、極めて限定した利用方法しかできなかった。   In the conventional method of installing an acceleration sensor on a swivel chair in Non-Patent Document 1, there are only two user-sitting states that can be estimated, and when this is applied to a service, there is only a very limited use method. could not.

また、非特許文献2における装着型の加速度センサを用いる従来方式では、着席時にも、常にセンサをユーザ自身に装着しなければならないという点で、ユーザに負担を強いる問題があった。また、「PC作業」のような機器使用に関するユーザ状態については、キーボード/マウス操作などのセンサから収集されるデータを用いるよりも、PC動作自体を監視した方がより容易に推定可能である。   Further, in the conventional method using the wearable acceleration sensor in Non-Patent Document 2, there is a problem that places a burden on the user in that the sensor must always be worn by the user even when seated. Further, the user status related to device use such as “PC work” can be estimated more easily by monitoring the PC operation itself than using data collected from sensors such as keyboard / mouse operations.

このため、ユーザ自身にセンサを装着することなしに、より多種類のユーザ状態を推定する技術が望まれる。   For this reason, the technique which estimates more types of user states, without mounting | wearing a user himself / herself with a sensor is desired.

本発明は、上述の問題を鑑みて為されたものであり、椅子に着席するユーザの状態を推定するユーザ状態推定装置及びユーザ状態推定方法を提供することにある。   The present invention has been made in view of the above-described problems, and it is an object of the present invention to provide a user state estimation device and a user state estimation method for estimating the state of a user sitting on a chair.

本発明は、椅子に設置した3軸加速度センサと机上に設置したマイクから収集される一定期間のデータから、特徴量としての複数種類のパラメータを抽出し、これらのパラメータを基に、椅子に着席するユーザの状態を推定する。   The present invention extracts a plurality of types of parameters as feature quantities from data for a certain period collected from a triaxial acceleration sensor installed on a chair and a microphone installed on a desk, and sits on the chair based on these parameters. The state of the user who performs is estimated.

ユーザの負担を減らすため、設置型センサとして、椅子に設置した加速度センサ、及び机上に置いたマイク(例えば、指向性マイク)をセンサとして用いる。加速度センサは、椅子に着席するユーザの動きに起因する振動を収集し、マイクは、椅子に着席するユーザの近傍の音を収集する。加速度センサとマイクの双方からの収集データに基づいて特徴量としての複数種類のパラメータを抽出し、予め定めた(予め学習して得られた)着席時の多様なユーザ状態の各々について、精度良く判定する。   In order to reduce the burden on the user, an acceleration sensor installed on a chair and a microphone (for example, a directional microphone) placed on a desk are used as sensors. The acceleration sensor collects vibrations caused by the movement of the user sitting on the chair, and the microphone collects sounds near the user sitting on the chair. A plurality of types of parameters as feature quantities are extracted based on data collected from both the acceleration sensor and the microphone, and each of various user states at the time of seating determined in advance (obtained by learning in advance) with high accuracy is obtained. judge.

即ち、本発明のユーザ状態推定装置は、椅子に着席するユーザの状態を推定するユーザ状態推定装置であって、ユーザの動作に起因する音を収音可能な位置に配置されたマイクから音圧データを取得する第1のインターフェースと、当該椅子に設置された3軸加速度センサから加速度データを取得する第2のインターフェースと、当該ユーザ状態の推定処理を実行する制御部と、当該ユーザ状態の推定処理に用いる決定木を格納する決定木格納部とを備え、前記制御部は、前記第1のインターフェース及び前記第2のインターフェースを介して得られる加速度データ及び音圧データを監視し、所定の期間の加速度データ及び音圧データを決定するデータ監視部と、前記所定の期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出する特徴量抽出部と、前記決定木格納部から決定木を読み出し、当該抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行するユーザ状態推定部と、を備えることを特徴とする。   That is, the user state estimation device of the present invention is a user state estimation device that estimates the state of a user sitting on a chair, and the sound pressure from a microphone disposed at a position where sound caused by the user's motion can be collected. A first interface for acquiring data; a second interface for acquiring acceleration data from a three-axis acceleration sensor installed in the chair; a control unit for executing processing for estimating the user state; and estimating the user state A decision tree storage unit for storing a decision tree used for processing, wherein the control unit monitors acceleration data and sound pressure data obtained via the first interface and the second interface, and performs a predetermined period of time. A data monitoring unit for determining the acceleration data and sound pressure data of the sound, and a plurality of types as feature amounts from the sound pressure data and acceleration data of the predetermined period A feature quantity extraction unit that extracts parameters; and a user state estimation unit that reads out a decision tree from the decision tree storage unit and executes at least five types of user state estimation processing based on the extracted feature quantities. It is characterized by that.

また、本発明のユーザ状態推定装置において、前記特徴量としての複数種類のパラメータは、加速度データから得られる各軸の平均値、分散値及びパワースペクトルと、3軸の合成軸の平均値、分散値及びパワースペクトルからなるパラメータと、音圧データから得られる音圧の平均値、分散値及びパワースペクトルからなるパラメータと、を含むことを特徴とする。   Further, in the user state estimation device of the present invention, the plurality of types of parameters as the feature amount include an average value, a variance value, and a power spectrum of each axis obtained from the acceleration data, and an average value, variance of the three axes combined And a parameter consisting of a value and a power spectrum, and a parameter consisting of an average value of sound pressure obtained from sound pressure data, a variance value and a power spectrum.

また、本発明のユーザ状態推定装置において、前記決定木は、一括推定方式に従う決定木、又は、段階推定方式に従う決定木からなることを特徴とする。   In the user state estimation apparatus according to the present invention, the decision tree includes a decision tree according to a collective estimation method or a decision tree according to a step estimation method.

さらに、本発明のユーザ状態推定方法は、椅子に着席するユーザの状態を推定するユーザ状態推定方法であって、ユーザの動作に起因する音を収音可能な位置に配置されたマイクから音圧データを取得するステップと、当該椅子に設置された3軸加速度センサから加速度データを取得するステップと、前記加速度データ及び音圧データを監視し、所定の期間の加速度データ及び音圧データを決定するステップと、前記所定の期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出するステップと、予め定めた決定木を用いて、当該抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行するステップと、を含むことを特徴とする。   Furthermore, the user state estimation method of the present invention is a user state estimation method for estimating the state of a user sitting on a chair, and the sound pressure from a microphone disposed at a position where sound caused by the user's action can be collected. A step of acquiring data, a step of acquiring acceleration data from a three-axis acceleration sensor installed in the chair, and monitoring the acceleration data and sound pressure data to determine acceleration data and sound pressure data for a predetermined period. A step of extracting a plurality of types of parameters as feature values from the sound pressure data and acceleration data of the predetermined period, and at least 5 based on the extracted feature values using a predetermined decision tree Performing a process for estimating types of user states.

本発明によれば、着席時のユーザの状態をユーザに負担をかけることなく推定でき、従来に比べてより多くのユーザ状態を推定可能となる。   ADVANTAGE OF THE INVENTION According to this invention, the user's state at the time of sitting can be estimated without imposing a burden on a user, and more user states can be estimated compared with the past.

本発明による一実施例のユーザ状態推定装置の適用例を示す図である。It is a figure which shows the example of application of the user state estimation apparatus of one Example by this invention. 3軸加速度センサ30の軸方向を例示する図である。3 is a diagram illustrating an axial direction of a triaxial acceleration sensor 30. FIG. 本発明による一実施例のユーザ状態推定装置のブロック図である。It is a block diagram of the user state estimation apparatus of one Example by this invention. (a),(b)は、本発明による一実施例のユーザ状態推定装置にて、切り出された期間の音圧データ及び加速度データの例を示す図である。(A), (b) is a figure which shows the example of the sound pressure data and acceleration data of the cut-out period in the user state estimation apparatus of one Example by this invention. 本発明による一実施例のユーザ状態推定装置における、一括推定方式に従う決定木を用いて、抽出した特徴量から少なくとも5種類のユーザ状態の推定処理を実行する動作例を示す図である。It is a figure which shows the operation example which performs the estimation process of at least 5 types of user states from the extracted feature-value using the decision tree according to the collective estimation method in the user state estimation apparatus of one Example by this invention. 本発明による一実施例のユーザ状態推定装置における、段階推定方式に従う決定木を用いて、抽出した特徴量から少なくとも5種類のユーザ状態の推定処理を実行する動作例を示す図である。It is a figure which shows the operation example which performs the estimation process of at least 5 types of user states from the extracted feature-value using the decision tree according to the stage estimation system in the user state estimation apparatus of one Example by this invention. (a),(b)は、それぞれ段階推定方式及び一括推定方式の最終的に得られた推定正解率、及び推定正解率の標準偏差を示す図である。(A), (b) is a figure which shows the standard deviation of the estimated correct answer rate finally obtained by the step estimation method and the collective estimation method, respectively, and an estimated correct answer rate, respectively. 一括推定方式の決定木の例を示す図である(その1)。It is a figure which shows the example of the decision tree of a batch estimation system (the 1). 一括推定方式の決定木の例を示す図である(その2)。It is a figure which shows the example of the decision tree of a batch estimation system (the 2). 一括推定方式の決定木の例を示す図である(その3)。It is a figure which shows the example of the decision tree of a batch estimation system (the 3). 一括推定方式の決定木の例を示す図である(その4)。It is a figure which shows the example of the decision tree of a batch estimation system (the 4). 一括推定方式の決定木の例を示す図である(その5)。It is a figure which shows the example of the decision tree of a batch estimation system (the 5). 段階推定方式の決定木の例を示す図である(その1)。It is a figure which shows the example of the decision tree of a stage estimation system (the 1). 段階推定方式の決定木の例を示す図である(その2)。It is a figure which shows the example of the decision tree of a stage estimation system (the 2). 段階推定方式の決定木の例を示す図である(その3)。It is a figure which shows the example of the decision tree of a stage estimation system (the 3). 段階推定方式の決定木の例を示す図である(その4)。It is a figure which shows the example of the decision tree of a stage estimation system (the 4). 段階推定方式の決定木の例を示す図である(その5)。It is a figure which shows the example of the decision tree of a stage estimation system (the 5). 段階推定方式の決定木の例を示す図である(その6)。It is a figure which shows the example of the decision tree of a stage estimation system (the 6). 段階推定方式の決定木の例を示す図である(その7)。It is a figure which shows the example of the decision tree of a stage estimation system (the 7). 段階推定方式の決定木の例を示す図である(その8)。It is a figure which shows the example of the decision tree of a stage estimation system (the 8). 段階推定方式の決定木の例を示す図である(その9)。It is a figure which shows the example of the decision tree of a stage estimation system (the 9). 段階推定方式の決定木の例を示す図である(その10)。It is a figure which shows the example of the decision tree of a stage estimation system (the 10). 段階推定方式の決定木の例を示す図である(その11)。It is a figure which shows the example of the decision tree of a stage estimation system (the 11).

以下、本発明による一実施例のユーザ状態推定装置について説明する。本発明に係るユーザ状態推定方法は、ユーザ状態推定装置の説明から明らかになる。   Hereinafter, a user state estimation apparatus according to an embodiment of the present invention will be described. The user state estimation method according to the present invention will become clear from the description of the user state estimation device.

図1は、本発明による一実施例のユーザ状態推定装置の適用例を示す図である。机上50には、ユーザ状態推定装置10と接続される表示装置40及びマイク20が設置されている。ユーザUは、回転椅子60に着席している。回転椅子60の背もたれ部には3軸加速度センサ30が取り付けられ、3軸加速度センサ30は、ユーザ状態推定装置10と短距離無線通信(例えば、ブルートゥース)可能である。尚、図2には、3軸加速度センサ(サンプリング周波数:10Hz)を椅子の背もたれ部に設置するとともに、指向性マイクを机上に設置した様子を示しており、3軸加速度センサ30の軸方向を示している。尚、マイク20は、ユーザUの動作に起因する音を収音可能な位置であれば机上でなくともよい。   FIG. 1 is a diagram illustrating an application example of a user state estimation apparatus according to an embodiment of the present invention. On the desktop 50, a display device 40 and a microphone 20 connected to the user state estimation device 10 are installed. The user U is seated on the rotary chair 60. A triaxial acceleration sensor 30 is attached to the backrest portion of the swivel chair 60, and the triaxial acceleration sensor 30 is capable of short-range wireless communication (for example, Bluetooth) with the user state estimation device 10. FIG. 2 shows a state in which a triaxial acceleration sensor (sampling frequency: 10 Hz) is installed on the backrest of the chair and a directional microphone is installed on the desk. The axial direction of the triaxial acceleration sensor 30 is shown in FIG. Show. Note that the microphone 20 does not have to be on the desk as long as it can pick up sound due to the operation of the user U.

図3は、本発明による一実施例のユーザ状態推定装置のブロック図である。本実施例のユーザ状態推定装置10は、マイク20からの音圧データを取得するインターフェース(I/F)101と、3軸加速度センサ30からの加速度データを取得するインターフェース(I/F)102と、ユーザ状態の推定処理を実行する制御部103と、ユーザ状態の推定処理を表示装置40に出力する出力部104と、ユーザ状態の推定処理に用いる決定木を格納する決定木格納部105と、記憶部106とを備える。ユーザ状態推定装置10は、コンピュータとして構成することができ、制御部103の各機能を実現する処理内容を記述したプログラムを、当該コンピュータの記憶部106に格納しておき、当該コンピュータの中央演算処理装置(CPU)によってこのプログラムを読み出して実行させることで実現することができる。   FIG. 3 is a block diagram of a user state estimation apparatus according to an embodiment of the present invention. The user state estimation device 10 of the present embodiment includes an interface (I / F) 101 that acquires sound pressure data from the microphone 20, and an interface (I / F) 102 that acquires acceleration data from the triaxial acceleration sensor 30. A control unit 103 that executes a user state estimation process, an output unit 104 that outputs the user state estimation process to the display device 40, a decision tree storage unit 105 that stores a decision tree used for the user state estimation process, And a storage unit 106. The user state estimation device 10 can be configured as a computer, and stores a program describing processing contents for realizing each function of the control unit 103 in the storage unit 106 of the computer, and performs central processing of the computer. This can be realized by reading and executing this program by a device (CPU).

制御部103は、データ監視部1031と、特徴量抽出部1032と、ユーザ状態推定部1033とを備える。   The control unit 103 includes a data monitoring unit 1031, a feature amount extraction unit 1032, and a user state estimation unit 1033.

データ監視部1031は、I/F101,102を介して得られる加速度データ及び音圧データを監視しており、加速度データ及び音圧データのいずれか一方又は双方が、あるレベル以上の変化が生じた場合に、その変化が生じたレベルが安定するまでの期間(窓関数の期間に相当する)の時間軸データを切り出し、特徴量抽出部1032に送出する。例えば、図4(a)に、切り出された期間の音圧データの例を示し、図4(b)に切り出された期間の加速度データの例を示している。   The data monitoring unit 1031 monitors acceleration data and sound pressure data obtained via the I / Fs 101 and 102, and either one or both of the acceleration data and the sound pressure data has changed more than a certain level. In this case, time-axis data for a period (corresponding to a window function period) until the level at which the change occurs is stabilized is cut out and sent to the feature amount extraction unit 1032. For example, FIG. 4A shows an example of sound pressure data in the cut out period, and FIG. 4B shows an example of acceleration data in the cut out period.

特徴量抽出部1032は、切り出された期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出し、ユーザ状態推定部1033に送出する。例えば、3軸加速度センサ30からの加速度データからは、各軸の平均値、分散値及びパワースペクトルと、3軸の合成軸の平均値、分散値及びパワースペクトルを特徴量として抽出する。また、マイク20からの音圧データからは、音圧の平均値、分散値及びパワースペクトルを特徴量として抽出する。尚、本実施例では、サンプリング周波数:8000Hz、ビット数:16bit、窓関数(FFT)のデータサイズ:8192点、パワースペクトルとして有効な4096点(FFTのデータサイズの半分)の内、前半の800点のみを推定に用いている。   The feature amount extraction unit 1032 extracts a plurality of types of parameters as feature amounts from the sound pressure data and acceleration data in the cut out period, and sends them to the user state estimation unit 1033. For example, from the acceleration data from the triaxial acceleration sensor 30, the average value, variance value, and power spectrum of each axis, and the average value, variance value, and power spectrum of the triaxial composite axis are extracted as feature amounts. Further, from the sound pressure data from the microphone 20, the average value, variance value, and power spectrum of the sound pressure are extracted as feature amounts. In this embodiment, the sampling frequency is 8000 Hz, the number of bits is 16 bits, the data size of the window function (FFT) is 8192 points, and 4096 points that are effective as a power spectrum (half of the FFT data size), 800 in the first half. Only points are used for estimation.

ユーザ状態推定部1033は、一括推定方式に従う決定木、又は、段階推定方式に従う決定木を格納する決定木格納部105から、一括推定方式に従う決定木、又は、段階推定方式に従う決定木を読み出し、特徴量抽出部1032によって抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行し、推定結果を、出力部104を介して表示装置40に送出する。本実施例では、「休憩」、「会話」、「読書」、「筆記」、「飲食」の5つの状態を、重心位置/人の声/紙をめくる音/ペンを走らせる音/食器が立てる音などに着目して高精度で推定可能とする。   The user state estimation unit 1033 reads the decision tree according to the batch estimation method or the decision tree according to the step estimation method from the decision tree storage unit 105 that stores the decision tree according to the batch estimation method or the decision tree according to the step estimation method, Based on the feature amount extracted by the feature amount extraction unit 1032, at least five types of user state estimation processes are executed, and the estimation results are sent to the display device 40 via the output unit 104. In this embodiment, the five states of “break”, “conversation”, “reading”, “writing”, and “food” are the center of gravity position / the voice of the person / the sound of turning the paper / the sound of running the pen / tableware. It is possible to estimate with high accuracy by paying attention to the sound to be made.

図5は、一括推定方式に従う決定木を用いて、抽出した特徴量から少なくとも5種類のユーザ状態の推定処理を実行する動作例を示している。一括推定とは、併合クラスタの決定木を用いる推定法であり、抽出した全ての特徴量を入力値として、予め構築した決定木を用いてコンテキストを推定するやり方である。データ監視部1031によって、音圧データ及び加速度データを取得して切り出し(ステップS1)、特徴量抽出部1032によって、音圧データ及び加速度データの特徴量を抽出し(ステップS2)、ユーザ状態推定部1033によって、一括推定方式に従う決定木を用いて、「休憩」、「会話」、「読書」、「筆記」、「飲食」の5つの状態を推定する(ステップS3)。   FIG. 5 shows an operation example in which at least five types of user state estimation processes are executed from extracted feature quantities using a decision tree according to the collective estimation method. The batch estimation is an estimation method using a decision tree of merged clusters, and is a method of estimating a context using a pre-constructed decision tree with all extracted feature values as input values. The sound pressure data and acceleration data are acquired by the data monitoring unit 1031 and cut out (step S1), the feature values of the sound pressure data and acceleration data are extracted by the feature value extraction unit 1032 (step S2), and the user state estimation unit In 1033, five states of "rest", "conversation", "reading", "writing", and "food" are estimated using a decision tree according to the collective estimation method (step S3).

図6は、本発明による一実施例のユーザ状態推定装置における、段階推定方式に従う決定木を用いて、抽出した特徴量から少なくとも5種類のユーザ状態の推定処理を実行する動作例を示す図である。段階推定方式とは、2段階クラスタに沿った決定木を用いる例であり、センサから抽出した特徴量を入力値として、あらかじめ構築した複数の決定木を用いて、段階的にコンテキストを推定するやり方である。データ監視部1031によって、音圧データ及び加速度データを取得して切り出し(ステップS11)、特徴量抽出部1032によって、音圧データ及び加速度データの特徴量を抽出し(ステップS12)、ユーザ状態推定部1033によって、まず、段階推定方式に従う決定木(加速度)を用いて、「動作あり」及び「動作なし」のユーザ状態の大分類を行い(ステップS13)、それぞれ大分類したユーザ状態について、さらに、段階推定方式に従う決定木(マイクからの音圧データ)を用いて、「休憩」、「会話」、「読書」、「筆記」、「飲食」の5つの状態を推定する(ステップS14)。   FIG. 6 is a diagram illustrating an operation example in which at least five types of user state estimation processing are executed from extracted feature quantities using a decision tree according to the stage estimation method in the user state estimation apparatus according to an embodiment of the present invention. is there. The stage estimation method is an example using a decision tree along a two-stage cluster. A method for estimating a context step by step using a plurality of decision trees built in advance using feature values extracted from sensors as input values. It is. The sound pressure data and acceleration data are acquired by the data monitoring unit 1031 and cut out (step S11), and the feature values of the sound pressure data and acceleration data are extracted by the feature value extraction unit 1032 (step S12), and the user state estimation unit. 1033, first, using the decision tree (acceleration) according to the stage estimation method, the user states of “with motion” and “without motion” are roughly classified (step S13). Using the decision tree (sound pressure data from the microphone) according to the stage estimation method, five states of “rest”, “conversation”, “reading”, “writing”, and “food” are estimated (step S14).

図7(a)に、両方式の最終的に得られた推定正解率を示し、図7(b)に、両方式の最終的に得られた推定正解率の標準偏差を示す。図7(a)の結果から分かるように、一括推定方式は「会話」のコンテキストを除く、残りの全てのコンテキストにおいて高い推定正解率が得られている。これに比し、段階推定方式は動作が無く、音声に特徴がある、「会話」コンテキストの推定には、方式が持つ特性上、良い結果が得られている。   FIG. 7A shows the estimated accuracy rates finally obtained for both formulas, and FIG. 7B shows the standard deviation of the estimated accuracy rates finally obtained for both formulas. As can be seen from the results of FIG. 7A, the collective estimation method obtains a high estimated accuracy rate in all remaining contexts except the “conversation” context. Compared to this, the stage estimation method has no operation, and the “conversation” context, which is characterized by speech, has a good result due to the characteristics of the method.

図7(b)に示す標準偏差値から、全てのコンテキストにおいて一括推定方式の値が小さくなっていることが分かる。これは、言い換えるとユーザによる個人差の影響が小さいことを示しており、煩雑なカスタマイズをすることなく適用できる方式と云える。   It can be seen from the standard deviation value shown in FIG. 7B that the value of the collective estimation method is small in all contexts. In other words, this indicates that the influence of individual differences by the user is small, and it can be said that the method can be applied without complicated customization.

一括推定方式の決定木の例を図8A〜図8Eに示し、段階推定方式の決定木の例を図9A〜図9Kに示す。尚、例示する決定木における記号の説明は、以下のとおりである。   Examples of decision trees for the batch estimation method are shown in FIGS. 8A to 8E, and examples of decision trees for the stage estimation method are shown in FIGS. 9A to 9K. The explanation of symbols in the exemplified decision tree is as follows.

(3軸加速度センサ)
XAve:X軸平均値
YAve:Y軸平均値
ZAve:Z軸平均値
ALLAve:各軸の合成軸平均値
XVar:X軸分散値
YVar:Y軸分散値
ZVar:Z軸分散値
ALLVar:各軸の合成軸分散値
XPow:X軸パワースペクトル
YPow:Y軸パワースペクトル
ZPow:Z軸パワースペクトル
ALLPow:各軸の合成軸パワースペクトル
(マイク)
MAve:音圧の平均値
MVar:音圧の分散値
MPow1:出力されたパワースペクトルの1点目
MPow800:出力されたパワースペクトルの800点目
MPowAve:前半のパワースペクトル800点分の平均値
MPowVar:前半のパワースペクトル800点分の分散値
(推定コンテキスト)
condition=1: 読書
condition=2: 筆記
condition=3: 休憩
condition=4: 飲食
condition=5: 会話
(3-axis acceleration sensor)
XAve: X-axis average value
YAve: Y-axis average value
ZAve: Z-axis average value
ALLAve: Composite axis average value of each axis
XVar: X-axis dispersion value
YVar: Y-axis variance
ZVar: Z-axis dispersion value
ALLVar: Composite axis dispersion value for each axis
XPow: X-axis power spectrum
YPow: Y-axis power spectrum
ZPow: Z-axis power spectrum
ALLPow: Composite axis power spectrum of each axis (microphone)
MAve: Average sound pressure
MVar: Dispersion value of sound pressure
MPow1: First point of the output power spectrum
MPow800: 800th point of output power spectrum
MPowAve: Average value of 800 power spectra in the first half
MPowVar: Dispersion value for 800 power spectra in the first half (estimated context)
condition = 1: Reading
condition = 2: writing
condition = 3: Break
condition = 4: Food and drink
condition = 5: conversation

このように、本発明によれば、着席時のユーザの状態をユーザに負担をかけることなく推定でき、従来に比べてより多くのユーザ状態を推定可能となる。   Thus, according to the present invention, it is possible to estimate the user's state at the time of sitting without burdening the user, and it is possible to estimate more user states than in the past.

このユーザ状態の適用の一例として、着席ユーザへの着信時、推定したユーザ状態に合わせて、ユーザにとって最適な通信手段(例えば、電話やメール等)を選択して着信させることができるようになる。ユーザの状態が細かく推定可能となることにより、行動履歴やライフログへの適用も期待できる。   As an example of the application of this user status, when receiving a call to a seated user, it becomes possible to select an optimal communication means (for example, a telephone or an e-mail) for the user according to the estimated user status and to receive the incoming call. . Since the user's state can be estimated in detail, application to an action history and a life log can be expected.

本発明によれば、多種類のユーザ状態を高精度に自動認識することができるので、ユーザ状態に応じた制御を要する環境設備の用途に有用である。   According to the present invention, since various types of user states can be automatically recognized with high accuracy, the present invention is useful for environmental facilities that require control according to the user state.

10 ユーザ状態推定装置
20 マイク
30 3軸加速度センサ
40 表示装置
50 机上
60 椅子
101,102 インターフェース(I/F)
103 制御部
104 出力部
105 決定木格納部
106 記憶部
1031 データ監視部
1032 特徴量抽出部
1033 ユーザ状態推定部
DESCRIPTION OF SYMBOLS 10 User state estimation apparatus 20 Microphone 30 3-axis acceleration sensor 40 Display apparatus 50 Desktop 60 Chair 101,102 Interface (I / F)
DESCRIPTION OF SYMBOLS 103 Control part 104 Output part 105 Decision tree storage part 106 Storage part 1031 Data monitoring part 1032 Feature-value extraction part 1033 User state estimation part

Claims (4)

椅子に着席するユーザの状態を推定するユーザ状態推定装置であって、
ユーザの動作に起因する音を収音可能な位置に配置されたマイクから音圧データを取得する第1のインターフェースと、
当該椅子に設置された3軸加速度センサから加速度データを取得する第2のインターフェースと、
当該ユーザ状態の推定処理を実行する制御部と、
当該ユーザ状態の推定処理に用いる決定木を格納する決定木格納部とを備え、
前記制御部は、
前記第1のインターフェース及び前記第2のインターフェースを介して得られる加速度データ及び音圧データを監視し、所定の期間の加速度データ及び音圧データを決定するデータ監視部と、
前記所定の期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出する特徴量抽出部と、
前記決定木格納部から決定木を読み出し、当該抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行するユーザ状態推定部と、
を備えることを特徴とするユーザ状態推定装置。
A user state estimation device for estimating a state of a user sitting on a chair,
A first interface for acquiring sound pressure data from a microphone arranged at a position where sound caused by a user's operation can be collected;
A second interface for acquiring acceleration data from a three-axis acceleration sensor installed in the chair;
A control unit that executes the estimation process of the user state;
A decision tree storage unit for storing a decision tree used for the estimation process of the user state,
The controller is
A data monitoring unit that monitors acceleration data and sound pressure data obtained via the first interface and the second interface, and determines acceleration data and sound pressure data for a predetermined period;
A feature amount extraction unit that extracts a plurality of types of parameters as feature amounts from the sound pressure data and acceleration data of the predetermined period;
A user state estimation unit that reads out a decision tree from the decision tree storage unit and executes at least five types of user state estimation processing based on the extracted feature amount;
A user state estimation device comprising:
前記特徴量としての複数種類のパラメータは、
加速度データから得られる各軸の平均値、分散値及びパワースペクトルと、3軸の合成軸の平均値、分散値及びパワースペクトルからなるパラメータと、
音圧データから得られる音圧の平均値、分散値及びパワースペクトルからなるパラメータと、を含むことを特徴とする、請求項1に記載のユーザ状態推定装置。
The plural types of parameters as the feature amount are:
Parameters consisting of the average value, variance value, and power spectrum of each axis obtained from the acceleration data, and the average value, variance value, and power spectrum of the three-axis composite axis,
The user state estimation apparatus according to claim 1, further comprising: a parameter composed of an average value, a variance value, and a power spectrum of sound pressure obtained from the sound pressure data.
前記決定木は、一括推定方式に従う決定木、又は、段階推定方式に従う決定木からなることを特徴とする、請求項2又は3に記載のユーザ状態推定装置。   The user state estimation apparatus according to claim 2 or 3, wherein the decision tree includes a decision tree according to a batch estimation method or a decision tree according to a step estimation method. 椅子に着席するユーザの状態を推定するユーザ状態推定方法であって、
ユーザの動作に起因する音を収音可能な位置に配置されたマイクから音圧データを取得するステップと、
当該椅子に設置された3軸加速度センサから加速度データを取得するステップと、
前記加速度データ及び音圧データを監視し、所定の期間の加速度データ及び音圧データを決定するステップと、
前記所定の期間の音圧データ及び加速度データから、特徴量としての複数種類のパラメータを抽出するステップと、
予め定めた決定木を用いて、当該抽出した特徴量に基づいて、少なくとも5種類のユーザ状態の推定処理を実行するステップと、
を含むことを特徴とするユーザ状態推定方法。
A user state estimation method for estimating a state of a user sitting on a chair,
Obtaining sound pressure data from a microphone arranged at a position where sound caused by the user's action can be collected;
Obtaining acceleration data from a three-axis acceleration sensor installed in the chair;
Monitoring the acceleration data and sound pressure data to determine acceleration data and sound pressure data for a predetermined period;
Extracting a plurality of types of parameters as feature values from the sound pressure data and acceleration data of the predetermined period;
Executing at least five types of user state estimation processing based on the extracted feature quantity using a predetermined decision tree;
The user state estimation method characterized by including.
JP2010197774A 2010-09-03 2010-09-03 User state estimation device and user state estimation method Pending JP2012053829A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010197774A JP2012053829A (en) 2010-09-03 2010-09-03 User state estimation device and user state estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010197774A JP2012053829A (en) 2010-09-03 2010-09-03 User state estimation device and user state estimation method

Publications (1)

Publication Number Publication Date
JP2012053829A true JP2012053829A (en) 2012-03-15

Family

ID=45907035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010197774A Pending JP2012053829A (en) 2010-09-03 2010-09-03 User state estimation device and user state estimation method

Country Status (1)

Country Link
JP (1) JP2012053829A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101654906B1 (en) * 2015-05-28 2016-09-22 경희대학교 산학협력단 Apparatus and method for character motion control
JP2018075357A (en) * 2016-11-02 2018-05-17 国立大学法人 奈良先端科学技術大学院大学 Sitting posture determination device, chair, sitting posture determination method and program
CN110893811A (en) * 2018-09-12 2020-03-20 丰田纺织株式会社 Seat and posture estimation system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101654906B1 (en) * 2015-05-28 2016-09-22 경희대학교 산학협력단 Apparatus and method for character motion control
JP2018075357A (en) * 2016-11-02 2018-05-17 国立大学法人 奈良先端科学技術大学院大学 Sitting posture determination device, chair, sitting posture determination method and program
CN110893811A (en) * 2018-09-12 2020-03-20 丰田纺织株式会社 Seat and posture estimation system

Similar Documents

Publication Publication Date Title
US10228764B2 (en) Automatic haptic effect adjustment system
KR101753509B1 (en) Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context
US20220117515A1 (en) Advanced Consumer Application for Mobile Assessment of Functional Capacity and Falls Risk
JP6941622B2 (en) Optimizing wearable device settings using machine learning
US8132229B2 (en) Governing the transfer of physiological and emotional user data
JP6400445B2 (en) Conversation analyzer, conversation analysis system, conversation analysis method, and conversation analysis program
CN108139988B (en) Information processing system and information processing method
CN102160794A (en) Systems for inducing change in a human physiological characteristic
CN107610698A (en) A kind of method for realizing Voice command, robot and computer-readable recording medium
JP2017151517A (en) Robot control system
EP2892051A2 (en) Apparatus and method for structuring contents of meeting
JP5946364B2 (en) Time-series data processing system and time-series data processing method
JP2012053829A (en) User state estimation device and user state estimation method
JP2019068153A (en) Information processing method, information processing unit and information processing program
US20180173544A1 (en) Information processing device, information processing method, and program
US20120109868A1 (en) Real-Time Adaptive Output
EP3490449A1 (en) System and method for aiding communication
WO2020261977A1 (en) Space proposal system and space proposal method
Stojanović et al. Sensor data fusion and big mobility data analytics for activity recognition
US11443738B2 (en) Electronic device processing user utterance and control method thereof
KR20190011031A (en) Electronic device and metohd for expressing natural language
JP2007087255A (en) Information processing system, information processing method and program
US20220005562A1 (en) Measurement-facilitating device, method, and non-transitory recording medium that records program
JP2021162670A (en) Communication providing device, communication providing system, and program
KR100702140B1 (en) Apparatus and method for controlling unit in response to user state in portable unit