JP2009039466A - Action identification device, action identification system, and action identification method - Google Patents

Action identification device, action identification system, and action identification method Download PDF

Info

Publication number
JP2009039466A
JP2009039466A JP2007210611A JP2007210611A JP2009039466A JP 2009039466 A JP2009039466 A JP 2009039466A JP 2007210611 A JP2007210611 A JP 2007210611A JP 2007210611 A JP2007210611 A JP 2007210611A JP 2009039466 A JP2009039466 A JP 2009039466A
Authority
JP
Japan
Prior art keywords
posture
behavior
motion detection
identification
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007210611A
Other languages
Japanese (ja)
Other versions
JP4992043B2 (en
Inventor
Futoshi Naya
太 納谷
Haruo Noma
春生 野間
Tadashi Omura
廉 大村
Kiyoshi Kogure
潔 小暮
Masakazu Miyamae
雅一 宮前
Masaya Okada
昌也 岡田
Takatoshi Sanehiro
貴敏 實廣
Masahiro Tada
昌裕 多田
Tomoji Toriyama
朋二 鳥山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007210611A priority Critical patent/JP4992043B2/en
Publication of JP2009039466A publication Critical patent/JP2009039466A/en
Application granted granted Critical
Publication of JP4992043B2 publication Critical patent/JP4992043B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an action identification device, an action identification system, and an action identification method, capable of accurately identifying a complicated action of a test subject by identifying actions which can be made in an identified posture. <P>SOLUTION: An action identification system 10 comprises a server 12, which receives acceleration data transmitted from sensor devices 16 and stores the data in a sensor DB 20. A plurality of sensor devices 16 are attached to subject's right and left wrists, ankles and thighs. Each sensor 16 is provided with an acceleration sensor, wherein acceleration data from the acceleration sensor is transmitted to the server 12. The server 12 calculates a posture feature value for detecting the posture of the subject by use of the acceleration data. When identifying the posture of the test subject according to the calculated posture feature value, the server 12 calculates an action feature value for identifying the actions which can be made in the identified posture by use of the acceleration data. Then, on the basis of the action feature value, one of the actions which can be made in the identified posture is identified. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は行動識別装置、行動識別システムおよび行動識別方法に関し、特にたとえば、被験者の行動を識別する、行動識別装置、行動識別システムおよび行動識別方法に関する。   The present invention relates to a behavior identification device, a behavior identification system, and a behavior identification method, and more particularly, to a behavior identification device, a behavior identification system, and a behavior identification method, for example, for identifying a subject's behavior.

従来のこの種の行動識別装置の一例が特許文献1に示されている。この特許文献1の携帯電話装置では、その所有者が登録画面で所望の行動(たとえば、「歩く1」)を指定し、当該行動をしながらキー入力部によりスタートを入力すると、予め指定された時間だけ加速度センサ部が運動加速度を検出し、当該行動の基準行動パターンがパターン格納部に格納される。このような登録の後に、動作モードが起動されると、加速度センサ部は所有者の行動による運動加速度を検出し、行動検出部が基準行動パターンと比較し、当該被験者の現在の行動パターンを識別する。   An example of this type of conventional behavior identification device is disclosed in Patent Document 1. In the cellular phone device disclosed in Patent Document 1, when the owner designates a desired action (for example, “walking 1”) on the registration screen and inputs a start using the key input unit while performing the action, the mobile phone apparatus is designated in advance. The acceleration sensor unit detects the motion acceleration for the time, and the reference behavior pattern of the behavior is stored in the pattern storage unit. When the operation mode is activated after such registration, the acceleration sensor unit detects motion acceleration due to the owner's behavior, and the behavior detection unit compares it with the reference behavior pattern to identify the current behavior pattern of the subject. To do.

また、この種の行動識別装置の他の例が特許文献2に開示されている。この特許文献2の動作情報計測システムでは、ユーザの両手首、上腕部、膝部、腰部、両足首などに装着された動作情報計測装置から動作情報を収集する。この動作情報係計測装置は、加速度センサ或いはジャイロセンサ、或いはその両方から構成され、装着した部位におけるユーザの動作による加速度或いは角速度、或いはその両方を計測する。動作の認識は、動作情報比較認識部が有する動作認識ルールに基づいて行われる。たとえば、腰部に装着された動作情報計測装置からの情報は運動量が小さく、手首に装着された動作情報計測装置からの情報は運動量が大きい場合、静止した状態での動作であることを認識する。逆に、腰部に装着した動作情報計測装置からの運動量が大きい場合には、全身運動であることを認識する。
特開2003−46630号[H04M 1/247, H04Q 7/38] 特開2004−184351号[G01B 21/00, A61B 5/00, A61B 5/0488, A61B 5/11, G06F 3/00]
Another example of this type of behavior identification device is disclosed in Patent Document 2. In the motion information measurement system of Patent Document 2, motion information is collected from a motion information measurement device mounted on the user's wrist, upper arm, knee, waist, both ankles, and the like. This motion information clerk measuring device is composed of an acceleration sensor and / or a gyro sensor, and measures acceleration and / or angular velocity due to the user's motion at the wearing site, or both. The recognition of the action is performed based on the action recognition rule that the action information comparison and recognition unit has. For example, when the information from the motion information measuring device attached to the waist has a small amount of exercise and the information from the motion information measuring device attached to the wrist has a large amount of exercise, it recognizes that the motion is in a stationary state. Conversely, when the amount of exercise from the motion information measuring device attached to the waist is large, it is recognized that the exercise is a whole body exercise.
JP2003-46630 [H04M 1/247, H04Q 7/38] JP 2004-184351 [G01B 21/00, A61B 5/00, A61B 5/0488, A61B 5/11, G06F 3/00]

しかし、特許文献1の技術では、携帯電話装置に設けられた加速度センサ部のX,Y,Z方向の加速度の時間推移によって、「歩く」、「座る」、「立つ」、「乗り物に搭乗」などの行動を識別するようにしてあるが、1の加速度センサを用いるだけであるため、複雑な行動を認識することは困難である。たとえば、携帯電話装置の所有者が座ってコンピュータを操作している場合には、座っていることを識別できたとしても、コンピュータを操作していることまでは識別することができない。   However, in the technique of Patent Document 1, “walking”, “sitting”, “standing”, “boarding a vehicle” are performed according to the time transition of acceleration in the X, Y, and Z directions of the acceleration sensor unit provided in the mobile phone device. However, since only one acceleration sensor is used, it is difficult to recognize complex actions. For example, when the owner of a mobile phone device is sitting and operating a computer, even if the user can identify sitting, it cannot be identified until the computer is operated.

また、特許文献2の技術では、複数の部位に装着された動作情報計測装置からの加速度等のデータから各部位の運動量を検出して、全身運動であるか、静止した状態での動作であるかなど、動作を大別するだけであり、「歩く」、「座る」、「立つ」のような行動を識別することが困難である。当然のことながら、さらに複雑な行動を識別することは困難である。   In the technique of Patent Document 2, the momentum of each part is detected from data such as acceleration from the motion information measuring device attached to a plurality of parts, and the movement is a whole body movement or a movement in a stationary state. It is difficult to identify actions such as “walking”, “sitting”, and “standing”. Of course, it is difficult to identify more complex actions.

それゆえに、この発明の主たる目的は、新規な、行動識別装置、行動識別システムおよび行動識別方法を提供することである。   Therefore, a main object of the present invention is to provide a novel behavior identification device, behavior identification system, and behavior identification method.

この発明の他の目的は、複雑な行動を正確に識別できる、行動識別装置、行動識別システムおよび行動識別方法を提供することである。   Another object of the present invention is to provide a behavior identification device, a behavior identification system, and a behavior identification method that can accurately identify a complex behavior.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、被験者に装着された複数の動作検出センサからの動作検出データを検出する検出手段、検出手段によって検出された動作検出データに基づいて、被験者の姿勢を識別するための姿勢特徴量を算出する姿勢特徴量算出手段、姿勢特徴量算出手段によって算出された姿勢特徴量に基づいて、被験者の姿勢を識別する姿勢識別手段、検出手段によって検出された動作検出データに基づいて、姿勢識別手段によって識別された姿勢の中で取り得る行動を識別するための行動特徴量を算出する行動特徴量算出手段、および行動特徴量算出手段によって算出された行動特徴量に基づいて、姿勢識別手段によって識別された姿勢の中で取り得る複数の行動から被験者の行動を識別する行動識別手段を備える、行動識別装置である。   The first invention is a detection means for detecting motion detection data from a plurality of motion detection sensors attached to a subject, and a posture feature for identifying the posture of the subject based on the motion detection data detected by the detection means. Posture feature amount calculating means for calculating the amount, posture identifying means for identifying the posture of the subject based on the posture feature amount calculated by the posture feature amount calculating means, posture based on the motion detection data detected by the detecting means Action feature amount calculating means for calculating an action feature amount for identifying an action that can be taken in the posture identified by the identification means, and posture identification means based on the action feature amount calculated by the action feature amount calculating means It is an action identification apparatus provided with the action identification means which identifies a test subject's action from the some action which can be taken in the attitude | position identified by.

第1の発明では、被験者には複数の動作検出センサ(32)が装着され、検出手段(12)は、その複数の動作検出センサからの動作検出データを検出する。姿勢特徴量算出手段(12,S53)は、被験者の姿勢(たとえば、立位、座位、歩行)を識別するための姿勢特徴量を算出する。実施例では、姿勢特徴量は、動作検出データに基づいて算出されたベクトルであり、その要素は一定時間窓内における動作検出の平均、標準偏差、エネルギ、周波数領域エントロピおよび相関関係である。行動識別手段(12,S57)は、検出手段によって検出された加速データに基づいて、姿勢識別手段によって識別された姿勢の中で取り得る行動を識別する。行動特徴量算出手段(12,S59)は、検出手段によって検出された動作検出データに基づいて、姿勢識別手段によって識別された姿勢の中で取り得る行動を識別するための行動特徴量を算出する。行動識別手段(12,S61)は、行動特徴量算出手段によって算出された行動特徴量に基づいて、姿勢識別手段によって識別された姿勢の中で取り得る複数の行動から被験者の行動を識別する。   In the first invention, the subject is equipped with a plurality of motion detection sensors (32), and the detection means (12) detects motion detection data from the plurality of motion detection sensors. The posture feature amount calculating means (12, S53) calculates a posture feature amount for identifying the posture of the subject (for example, standing, sitting, walking). In the embodiment, the posture feature amount is a vector calculated based on the motion detection data, and its elements are the average, standard deviation, energy, frequency domain entropy, and correlation of motion detection within a certain time window. The action identifying means (12, S57) identifies actions that can be taken in the posture identified by the posture identifying means based on the acceleration data detected by the detecting means. The behavior feature quantity calculating means (12, S59) calculates a behavior feature quantity for identifying an action that can be taken in the posture identified by the posture identification means, based on the motion detection data detected by the detection means. . The behavior identifying unit (12, S61) identifies the behavior of the subject from a plurality of behaviors that can be taken in the posture identified by the posture identifying unit, based on the behavior feature amount calculated by the behavior feature amount calculating unit.

第1の発明によれば、複数の動作検出センサを用いて被験者の行動を検出し、被験者の姿勢を識別した後に、識別した姿勢の中で取り得る複数の行動の中から1の行動を識別するので、被験者の複雑な行動を正確に識別することができる。   According to 1st invention, after detecting a test subject's action using a some motion detection sensor and identifying a test subject's attitude | position, one action is identified from the some action which can be taken in the identified attitude | position. Therefore, it is possible to accurately identify the complex behavior of the subject.

第2の発明は、第1の発明に従属し、複数の動作検出センサは、被験者の複数の異なる部位に装着され、姿勢特徴量算出手段は、すべての動作検出センサのうち、姿勢識別手段によって識別された姿勢の中で取り得る行動を識別するための、全部のまたは一部の動作検出センサからの動作検出データに基づいて姿勢特徴量を算出する。   The second invention is dependent on the first invention, wherein the plurality of motion detection sensors are attached to a plurality of different parts of the subject, and the posture feature amount calculation means is a posture identification means among all the motion detection sensors. Posture feature values are calculated based on motion detection data from all or some of the motion detection sensors for identifying actions that can be taken in the identified posture.

第2の発明では、複数の動作検出センサは、被験者の複数の異なる部位に装着される。たとえば、動作検出センサは、被験者の左右の手首、左右の腿、左右の足首のような特定の部位に装着される。姿勢特徴量算出手段は、すべての動作検出センサのうち、姿勢識別手段によって識別された姿勢の中で取り得る行動を識別するための、全部または一部の動作検出センサからの動作検出データに基づいて姿勢特徴量を算出する。たとえば、或る姿勢(たとえば、立位,歩行)を識別する場合には、左右の手首と左右の足首とに装着された動作検出センサからの動作検出データを用いるが、他の姿勢(たとえば、立位,座位)を識別する場合には、すべての動作検出センサからの動作検出データを用いる。   In the second invention, the plurality of motion detection sensors are attached to a plurality of different parts of the subject. For example, the motion detection sensor is attached to a specific part such as the left and right wrists, left and right thighs, and left and right ankles of the subject. The posture feature amount calculation means is based on the motion detection data from all or a part of the motion detection sensors for identifying actions that can be taken in the posture identified by the posture identification means among all the motion detection sensors. To calculate the posture feature amount. For example, when identifying a certain posture (for example, standing, walking), motion detection data from motion detection sensors attached to the left and right wrists and the left and right ankles are used, but other postures (for example, When identifying the standing position and the sitting position), motion detection data from all motion detection sensors are used.

第2の発明の発明によれば、識別する姿勢に応じた姿勢特徴量を算出するので、姿勢を正確に識別することができる。つまり、有用な動作検出データのみに基づいて識別することができるのである。   According to the second aspect of the invention, since the posture feature amount corresponding to the posture to be identified is calculated, the posture can be accurately identified. That is, identification can be made based only on useful motion detection data.

第3の発明は、第2の発明に従属し、行動特徴量算出手段は、すべての動作検出センサのうち、識別する行動に応じた、全部のまたは一部の動作検出センサからの動作検出データに基づいて行動特徴量を算出する。   A third invention is dependent on the second invention, and the behavior feature amount calculation means includes motion detection data from all or a part of the motion detection sensors according to the behavior to be identified among all the motion detection sensors. Based on the behavior feature amount is calculated.

第3の発明では、行動特徴量算出手段もまた、姿勢特徴量算出手段と同様に、すべての動作検出センサのうち、識別する行動に応じた、全部のまたは一部の動作検出センサからの動作検出データに基づいて行動特徴量を算出する。したがって、たとえば、立位の姿勢の中で取り得る行動(たとえば、立つ、エレベータの上り、エレベータの下り)を識別する場合には、左右の手首または左右の大腿部に装着された動作検出センサからの動作検出データを用いる。また、たとえば、座位の姿勢の中で取り得る行動(たとえば、座る、座ってコンピュータを操作する、食事)を識別する場合には、左右の手首および左右の足首に装着された動作検出センサからの動作検出データを用いる。   In the third invention, the behavior feature amount calculating means also operates from all or a part of the motion detection sensors according to the behavior to be identified among all the motion detection sensors, similarly to the posture feature amount calculation means. A behavior feature amount is calculated based on the detection data. Therefore, for example, when identifying actions that can be taken in a standing posture (for example, standing, climbing an elevator, descending an elevator), motion detection sensors mounted on left and right wrists or left and right thighs The motion detection data from is used. Also, for example, when identifying actions that can be taken in the sitting position (for example, sitting, operating a computer while sitting, eating), the motion detection sensors attached to the left and right wrists and the left and right ankles Use motion detection data.

第3の発明によれば、識別する行動に応じた行動特徴量を算出するので、行動を正確に識別することができる。   According to the third aspect, the behavior feature amount corresponding to the behavior to be identified is calculated, so that the behavior can be accurately identified.

第4の発明は、第1の発明に従属し、複数の動作検出センサは、被験者の複数の異なる部位に装着され、行動特徴量算出手段は、すべての動作検出センサのうち、識別する行動に応じた、全部のまたは一部の動作検出センサからの動作検出データに基づいて行動特徴量を算出する。   A fourth invention is dependent on the first invention, wherein the plurality of motion detection sensors are attached to a plurality of different parts of the subject, and the behavior feature amount calculating means is configured to identify the behavior among all the motion detection sensors. Based on the motion detection data from all or part of the motion detection sensors, the behavior feature amount is calculated.

第4の発明は、第1の発明に従属する以外は、第3の発明と同様である。   The fourth invention is the same as the third invention except that it depends on the first invention.

第4の発明においても、第3の発明と同様に、行動を正確に識別することができる。   In the fourth invention as well, similar to the third invention, it is possible to accurately identify the behavior.

第5の発明は、被験者に所持ないし装着された携帯端末と行動識別装置とを備える行動識別システムであって、携帯端末は、被験者に装着された複数の動作検出センサからの動作検出データを検出する検出手段、および検出手段によって検出された動作検出データを行動識別装置に送信する送信手段を備え、行動識別装置は、送信手段によって送信された動作検出データを受信する受信手段、受信手段によって受信された動作検出データに基づいて、被験者の姿勢についての姿勢特徴量を算出する姿勢特徴量算出手段、姿勢特徴量算出手段によって算出された姿勢特徴量に基づいて、被験者の姿勢を識別する姿勢識別手段、受信手段によって受信された動作検出データに基づいて、姿勢識別手段によって識別された姿勢の中で取り得る行動を識別するための行動特徴量を算出する行動特徴量算出手段、および行動特徴量算出手段によって算出された行動特徴量に基づいて、姿勢識別手段によって識別された姿勢の中で取り得る複数の行動から被験者の行動を識別する行動識別手段を備える、行動識別システムである。   5th invention is an action identification system provided with the portable terminal possessed or mounted | worn by the test subject, and the action identification apparatus, Comprising: A portable terminal detects the motion detection data from the several motion detection sensor with which the test subject was mounted | worn. Detecting means that transmits the motion detection data detected by the detection means to the action identification device. The action identification device receives the motion detection data transmitted by the transmission means. The reception means receives the motion detection data. Posture feature amount calculating means for calculating a posture feature amount for the posture of the subject based on the motion detection data, posture identification for identifying the posture of the subject based on the posture feature amount calculated by the posture feature amount calculating means Based on the motion detection data received by the means and the receiving means, actions that can be taken in the posture identified by the posture identifying means Based on the behavior feature quantity calculating means for calculating the behavior feature quantity to be separated, and a plurality of actions that can be taken in the posture identified by the posture identification means based on the behavior feature quantity computed by the behavior feature quantity computation means It is an action identification system provided with the action identification means which identifies a test subject's action.

第5の発明では、被験者に所持ないし装着された携帯端末(18)と第1の発明に記載したような行動識別装置(12)とを備える行動識別システム(10)である。携帯端末は、検出手段(50)および送信手段(50,52)を備える。検出手段は、被験者に装着された複数の動作検出センサからの動作検出データを検出する。送信手段は、検出された動作検出データを行動識別装置に送信する。行動識別装置では、受信手段(12の通信手段)によって携帯端末からの動作検出データを受信する。この受信した動作検出データに基づいて、上述したように、姿勢を識別し、さらに、行動を識別するのである。   According to a fifth aspect of the present invention, there is provided a behavior identification system (10) comprising a portable terminal (18) possessed or attached to a subject and a behavior identification device (12) as described in the first aspect. The portable terminal includes a detection unit (50) and a transmission unit (50, 52). The detection means detects motion detection data from a plurality of motion detection sensors attached to the subject. The transmission means transmits the detected motion detection data to the action identification device. In the action identification device, the operation detection data from the portable terminal is received by the receiving means (12 communication means). Based on the received motion detection data, as described above, the posture is identified and the action is further identified.

第5の発明によれば、動作検出センサを装着する被験者に所持ないし装着された携帯端末からその動作検出センサの動作検出データを行動識別装置に送信するので、被験者の行動をオンラインで識別することができる。
第6の発明は、被験者の姿勢および行動を識別するコンピュータの行動識別方法であって、(a)被験者に装着された複数の動作検出センサからの動作検出データを検出し、(b)ステップ(a)によって検出された動作検出データに基づいて、被験者の姿勢についての姿勢特徴量を算出し、(c)ステップ(b)によって算出された姿勢特徴量に基づいて、被験者の姿勢を識別し、(d)ステップ(a)によって検出された動作検出データに基づいて、ステップ(c)によって識別された姿勢の中で取り得る行動を識別するための行動特徴量を算出し、そして(e)ステップ(d)によって算出された行動特徴量に基づいて、ステップ(c)によって識別された姿勢の中で取り得る複数の行動から被験者の行動を識別する、行動識別方法である。
According to the fifth invention, since the motion detection data of the motion detection sensor is transmitted to the behavior identification device from the portable terminal possessed by or attached to the subject wearing the motion detection sensor, the behavior of the subject is identified online. Can do.
A sixth invention is a behavior identification method of a computer for identifying the posture and behavior of a subject, (a) detecting motion detection data from a plurality of motion detection sensors attached to the subject, and (b) step ( Based on the motion detection data detected by a), calculate the posture feature amount for the subject's posture, (c) identify the subject's posture based on the posture feature amount calculated by step (b), (d) Based on the motion detection data detected in step (a), calculate an action feature amount for identifying possible actions in the posture identified in step (c), and (e) step This is a behavior identification method for identifying a subject's behavior from a plurality of behaviors that can be taken in the posture identified in step (c) based on the behavior feature amount calculated in (d).

第6の発明においても、第1の発明と同様に、被験者の複雑な行動を正確に識別することができる。   In the sixth invention, similarly to the first invention, it is possible to accurately identify the complex behavior of the subject.

この発明によれば、複数の動作検出センサを用いて被験者の行動を検出し、被験者の姿勢を識別した後に、識別した姿勢の中で取り得る複数の行動から1の行動を識別するので、被験者の複雑な行動を正確に識別することができる。   According to the present invention, since the behavior of the subject is detected using the plurality of motion detection sensors and the posture of the subject is identified, one behavior is identified from the plurality of behaviors that can be taken in the identified posture. Can accurately identify complex behaviors.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この発明の一実施例である行動識別システム10は、行動識別装置としても機能するサーバ12を含み、或る環境に適用され、その環境内に存在する人物(被験者)の行動を記録し、これを識別する。サーバ12には、複数のデータベース(DB)が接続される。具体的には、サーバ12には、センサDB20、姿勢識別用センサ集合DB22および行動識別用センサ集合DB24が接続される。   Referring to FIG. 1, a behavior identification system 10 according to an embodiment of the present invention includes a server 12 that also functions as a behavior identification device, and is applied to a certain environment and is a person (subject) existing in the environment. Record your actions and identify them. A plurality of databases (DB) are connected to the server 12. Specifically, the server 12 is connected to a sensor DB 20, a posture identification sensor set DB 22, and a behavior identification sensor set DB 24.

センサDB20は、被験者の行動を記録するためのデータベースである。具体的には、センサDB20は、主として、後述するセンサ装置16からの加速度データを時系列に従って記憶する。姿勢識別用センサ集合DB22は、姿勢を識別するためのセンサ集合(センサの組み合わせ)を記憶する。この実施例では、後述するように、姿勢は、「立位」、「座位」および「歩行」の3種類に分類されており、これらの姿勢を識別するために必要な加速度データを出力する複数のセンサ装置16の識別情報がセンサ集合として姿勢識別用センサ集合DB22に記憶される。行動識別用センサ集合DB24は、行動を識別するためのセンサ集合(センサの組み合わせ)を記憶する。この実施例では、行動は、「立位」の姿勢の中で取り得る「立つ」、「エレベータの上り」および「エレベータの下り」と、「座位」の姿勢の中で取り得る「座る」、「コンピュータ作業」、「読書」および「食事」と、「歩行」の姿勢の中で取り得る「歩く」、「階段の上り」および「階段の下り」との10種類である。各姿勢クラスにおける行動を識別するために必要な加速度データを出力する複数のセンサ装置16の識別情報がセンサ集合として行動識別用センサ集合DB24に記憶される。   The sensor DB 20 is a database for recording the behavior of the subject. Specifically, the sensor DB 20 mainly stores acceleration data from the sensor device 16 to be described later in time series. The posture identification sensor set DB 22 stores sensor sets (sensor combinations) for identifying postures. In this embodiment, as described later, postures are classified into three types of “standing position”, “sitting position”, and “walking”, and a plurality of acceleration data necessary for identifying these postures are output. The identification information of the sensor device 16 is stored in the posture identification sensor set DB 22 as a sensor set. The action identification sensor set DB 24 stores a sensor set (a combination of sensors) for identifying actions. In this example, actions can be taken in a “standing” position, “standing”, “elevating the elevator” and “elevating the elevator”, and “sitting” in a “sitting” position, There are ten types of “computer work”, “reading” and “meal” and “walking”, “up stairs” and “down stairs” which can be taken in the posture of “walking”. Identification information of a plurality of sensor devices 16 that output acceleration data necessary for identifying an action in each posture class is stored in the action identification sensor set DB 24 as a sensor set.

なお、姿勢識別用センサ集合DB22および行動識別用センサ集合DB24は、後述するように、予め被験者が行動したときに収集した加速度データを用いて学習することにより、構築される(図19,図20および図21参照)。   Note that the posture identification sensor set DB 22 and the action identification sensor set DB 24 are constructed by learning using acceleration data collected in advance when the subject behaves, as will be described later (FIGS. 19 and 20). And FIG. 21).

また、サーバ12は、有線或いは無線による通信回線(ネットワーク)14を介して被験者が装着ないし所持する中継器18に接続される。この実施例では、被験者は移動することがあるため、ネットワーク14には複数のアクセスポイント(図示せず)が設けられ、いずれかのアクセスポイントを介して中継器18はネットワーク14に接続される。また、中継器18は、被験者に装着された複数のセンサ装置16に通信可能に接続される。   The server 12 is connected to a repeater 18 worn or possessed by the subject via a wired or wireless communication line (network) 14. In this embodiment, since the subject may move, the network 14 is provided with a plurality of access points (not shown), and the repeater 18 is connected to the network 14 via any of the access points. The repeater 18 is communicably connected to a plurality of sensor devices 16 attached to the subject.

図2(A)はセンサ装置16の具体的な構成を示すブロック図であり、センサ装置16はCPU30を含む。CPU30には、加速度センサ32、RAM34およびBluetoothモジュール36が接続される。また、Bluetoothモジュール36には、アンテナ38が接続される。たとえば、加速度センサ32は、多軸(3軸)の加速度センサであり、サンプリング周波数が200Hzであり、加速度は±3G(Gは重力)まで計測可能である。このセンサ装置16では、加速度センサ32で検出される加速度のデータ(加速度データ)がCPU30に与えられる。CPU30は、加速度センサ32からの加速度データをRAM34に記憶(一時記憶)し、一定時間(たとえば、10秒)毎に、その一定時間分の加速度データをBluetoothモジュール36、アンテナ38およびネットワーク14を介して、サーバ12に送信する。   FIG. 2A is a block diagram showing a specific configuration of the sensor device 16, and the sensor device 16 includes a CPU 30. The CPU 30 is connected to an acceleration sensor 32, a RAM 34, and a Bluetooth module 36. An antenna 38 is connected to the Bluetooth module 36. For example, the acceleration sensor 32 is a multi-axis (3-axis) acceleration sensor, has a sampling frequency of 200 Hz, and can measure acceleration up to ± 3 G (G is gravity). In the sensor device 16, acceleration data (acceleration data) detected by the acceleration sensor 32 is supplied to the CPU 30. The CPU 30 stores (temporarily stores) the acceleration data from the acceleration sensor 32 in the RAM 34, and the acceleration data for the predetermined time is transmitted via the Bluetooth module 36, the antenna 38, and the network 14 every predetermined time (for example, 10 seconds). To the server 12.

図2(B)は中継器18の具体的な構成を示すブロック図であり、中継器18はCPU50を含む。CPU50には、インターフェイス52、RAM54およびBluetoothモジュール56が接続される。また、Bluetoothモジュール56には、アンテナ58が接続される。この中継器18では、センサ装置16から送信される加速度データが、アンテナ58およびBluetoothモジュール56を介してCPU50に与えられる。CPU50は、センサ装置16からの加速度データをRAM54に記憶(一時記憶)し、ネットワーク14と接続されるタイミングで、RAM54に記憶された加速度データを、LAN(無線LAN)アダプタのようなインターフェイス52およびネットワーク14を介してサーバ12に送信する。そして、サーバ12は、LANアダプタのようなインターフェイス(図示せず)を介してネットワーク14から加速度データを受信し、受信した加速度データをセンサDB20に記憶(登録)する。   FIG. 2B is a block diagram showing a specific configuration of the repeater 18, and the repeater 18 includes a CPU 50. An interface 52, a RAM 54, and a Bluetooth module 56 are connected to the CPU 50. In addition, an antenna 58 is connected to the Bluetooth module 56. In the repeater 18, acceleration data transmitted from the sensor device 16 is given to the CPU 50 via the antenna 58 and the Bluetooth module 56. The CPU 50 stores (temporarily stores) acceleration data from the sensor device 16 in the RAM 54, and at a timing when connected to the network 14, the CPU 50 converts the acceleration data stored in the RAM 54 into an interface 52 such as a LAN (wireless LAN) adapter. The data is transmitted to the server 12 via the network 14. The server 12 receives acceleration data from the network 14 via an interface (not shown) such as a LAN adapter, and stores (registers) the received acceleration data in the sensor DB 20.

詳細な説明は省略するが、各センサ装置16はそれぞれ被験者のいずれの部位に装着されるか予め決められており、また、各センサ装置16から送信される加速度データには、当該センサ装置16を識別するための識別情報(ID)がラベルとして付されている。たとえば、IDとしては、Bluetoothモジュール36のMACアドレスを用いることができる。ただし、センサ装置16の内部に、CPU30がアクセス可能なROMを設けておき、このROMにIDを記憶しておいてもよい。一方、サーバ12には、その内部に設けられるROM、RAM、ハードディスクなどのメモリ(図示せず)に、センサ装置16のIDに対応して、当該センサ装置16が装着されるべき部位が記述されたテーブルが記憶される。したがって、サーバ12では、加速度データに付されたラベル(ID)およびテーブルを参照することにより、いずれの部位に装着されたセンサ装置16からの加速度データであるかを簡単に識別することができる。   Although detailed explanation is omitted, it is determined in advance which part of the subject each sensor device 16 is to be worn, and the acceleration data transmitted from each sensor device 16 includes the sensor device 16. Identification information (ID) for identification is attached as a label. For example, the MAC address of the Bluetooth module 36 can be used as the ID. However, a ROM that can be accessed by the CPU 30 may be provided inside the sensor device 16, and an ID may be stored in the ROM. On the other hand, in the server 12, in a memory (not shown) such as a ROM, a RAM, and a hard disk provided therein, a part to which the sensor device 16 is to be attached is described corresponding to the ID of the sensor device 16. Table is stored. Therefore, the server 12 can easily identify the acceleration data from the sensor device 16 attached to which part by referring to the label (ID) and the table attached to the acceleration data.

図3に示すように、複数のセンサ装置16(16a,16b,16c,16d,16e,16f)および中継器18は被験者に装着される。具体的には、センサ装置16aは右手首に装着され、センサ装置16bは左手首に装着され、センサ装置16cは右腿に装着され、センサ装置16dは左腿に装着され、センサ装置16eは右足首に装着され、そして、センサ装置16fは左足首に装着される。また、中継器18は、被験者の腰部に装着される。   As shown in FIG. 3, the plurality of sensor devices 16 (16a, 16b, 16c, 16d, 16e, 16f) and the repeater 18 are attached to the subject. Specifically, the sensor device 16a is attached to the right wrist, the sensor device 16b is attached to the left wrist, the sensor device 16c is attached to the right thigh, the sensor device 16d is attached to the left thigh, and the sensor device 16e is attached to the right foot. The sensor device 16f is attached to the left ankle. The repeater 18 is attached to the waist of the subject.

図示は省略するが、各センサ装置16および中継器18はゴムバンドのような固定具で被験者に装着される。ただし、中継器18は被験者が所持するようにしてもよく、被験者が使用する、鞄、ウエストポーチまたはリュックサックに入れておいてもよい。   Although illustration is omitted, each sensor device 16 and the relay 18 are attached to the subject by a fixing tool such as a rubber band. However, the repeater 18 may be carried by the subject or may be put in a bag, a waist pouch or a rucksack used by the subject.

このような行動識別システム10では、上述したように、被験者の行動を記録し、これを識別する。従来、加速度センサを用いた日常行動の識別に関する研究は数多くなされている。加速度センサを用いた行動識別においては、データ収集時における加速度センサの装着位置およびデータのサンプリング周波数などの条件に関する評価が重要である。   In such a behavior identification system 10, as described above, the behavior of the subject is recorded and identified. Conventionally, many studies have been made on identification of daily activities using an acceleration sensor. In behavior identification using an acceleration sensor, it is important to evaluate conditions such as the mounting position of the acceleration sensor and the sampling frequency of data at the time of data collection.

被験者の身体の複数の位置(部位)に加速度センサを装着し、その装着位置に関して識別率との関係を評価した研究としては、「L.Bao and S.S. Insille,: Activity recognition from user-annotated acceleration data, in Proc. of Pervasive 2004, vol. LNCS 3001, A. Ferscha and F. Mattern (Eds.), Springer-Verlag, Berlin Heidelberg, pp. 1-17, 2004.」(参考文献1)および「N. Kern, B.Schiele, and A. Schmidt, “Multi-sensor activity context detection for wearable computing,” in European Symposium on Ambient Intelligence (EUSAI), Eindhoven, The Netherlands, Nov. 2003.」(参考文献2)が挙げられる。   As a study that evaluated the relationship between the sensor and the recognition rate for multiple positions (parts) of the subject's body, “L.Bao and SS Insille ,: Activity recognition from user-annotated acceleration data , in Proc. of Pervasive 2004, vol. LNCS 3001, A. Ferscha and F. Mattern (Eds.), Springer-Verlag, Berlin Heidelberg, pp. 1-17, 2004. (Reference 1) and “N. Kern, B. Schiele, and A. Schmidt, “Multi-sensor activity context detection for wearable computing,” in European Symposium on Ambient Intelligence (EUSAI), Eindhoven, The Netherlands, Nov. 2003. (reference 2) It is done.

前者では、身体の5箇所に非対称に装着した加速度センサを用いて装着位置の評価を行い、右手首と左腿の2箇所だけでも20種類の日常行動の識別に対して約80%の識別結果を得ている。ただし、加速度センサの配置が非対称であり、たとえば手首ならその左右の違いを評価する必要がある。後者では、識別を行う行動ごとに上半身・下半身に分けて識別に用いる加速度センサの装着位置を変え、加速度センサの最適な装着位置の評価を行っている。しかし、加速度センサを左右対称に配し、被験者の利き手や利き足などの違いを考慮した装着位置の全ての組み合わせに関する識別性能に関する評価はなされていない。   In the former, the mounting position is evaluated using acceleration sensors that are mounted asymmetrically on five positions of the body, and about 80% of identification results are obtained with respect to identification of 20 kinds of daily activities in only two positions of the right wrist and left thigh. Have gained. However, the arrangement of the acceleration sensors is asymmetrical. For example, in the case of a wrist, it is necessary to evaluate the difference between left and right. In the latter, the optimum mounting position of the acceleration sensor is evaluated by changing the mounting position of the acceleration sensor used for identification for each action to be identified and dividing the upper body and the lower body. However, the evaluation regarding the identification performance regarding all the combinations of the wearing positions in which the acceleration sensors are arranged symmetrically and the difference between the dominant hand and the dominant foot of the subject is considered has not been made.

また、加速度データを収集する際のサンプリング周波数の値は研究ごとに多様である。多くの研究では、サンプリング周波数を50Hz以上でデータの収集を行っている(参考文献1や参考文献3)。ただし、参考文献3は、「N. Ravi, N. Dandekar, P. Mysore, and M. L. Littman, : Activity recognition from accelerometer data, American association for artificial intelligence(www.aaai.org), July 2005.」である。   Moreover, the value of the sampling frequency when collecting acceleration data varies for each research. In many studies, data is collected at a sampling frequency of 50 Hz or higher (references 1 and 3). However, Reference 3 is “N. Ravi, N. Dandekar, P. Mysore, and ML Littman,: Activity recognition from accelerometer data, American association for artificial intelligence (www.aaai.org), July 2005.” .

また、「C. V. Bouten, K.T. Koekkoek, M. Verduin, R. Kodde, and J. D. Janssen, “A triaxial Accelerometer and portable data processing unit for the assessment of daily physical activity,” IEEE Trans. On Bio-Medical Eng., vol. 44, no. 3, pp 136-147, 1997.」(参考文献4)によれば、「歩く」、「走る」などの人の行動の計測には20Hz以上のサンプリング周波数が必要であるとの評価結果がある。一方、「川原 圭博,森川 博之,青山 友紀,“小型無線センサを用いたコンテキスト推定とそのアプリケーション,”特定非営利活動法人ウェアラブルコンピュータ研究開発機構,ウェアラブルコンピューティング研究会研究報告,vol. 1, no. 3, pp. 2-6, Dec. 2005.」(参考文献5)の研究においては、10Hz以下でサンプリングを行う2軸の加速度センサを1つ用い、100%近い識別率を得ている。しかし、参考文献5が対象としている行動は、「立つ」,「座る」,「歩く」,「走る」といった4種類の比較的識別し易い行動であり、日常におけるより複雑な行動識別に必要なサンプリング周波数の必要条件に関する評価がなされていない。   Also, “CV Bouten, KT Koekkoek, M. Verduin, R. Kodde, and JD Janssen,“ A triaxial Accelerometer and portable data processing unit for the assessment of daily physical activity, ”IEEE Trans. On Bio-Medical Eng., Vol. 44, no. 3, pp 136-147, 1997. (Ref. 4), it is necessary to have a sampling frequency of 20Hz or more to measure human behavior such as “walking” and “running”. There are evaluation results. On the other hand, “Akihiro Kawahara, Hiroyuki Morikawa, Yuki Aoyama,“ Context Estimation Using Small Wireless Sensors and its Applications, ”NPO Wearable Computer Research and Development Organization, Wearable Computing Research Group, Vol. 1, "No. 3, pp. 2-6, Dec. 2005." (Reference 5), a single biaxial acceleration sensor that samples at 10Hz or less is used, and a discrimination rate of nearly 100% is obtained. . However, the actions targeted by Reference 5 are four types of actions such as “standing”, “sitting”, “walking”, and “running” that are relatively easy to identify, and are necessary for more complex action identification in daily life. There has been no assessment of sampling frequency requirements.

そこで、まず、加速度センサ32を用いた日常行動識別におけるデータ収集の条件として、(1)体の各部に対称に配置した最大6個の加速度センサ32を用いた識別性能および最適センサ配置評価と、(2)行動ごとのサンプリング周波数による識別性能評価とについての実験を行った。   Therefore, first, as conditions for data collection in everyday action identification using the acceleration sensor 32, (1) discrimination performance and optimum sensor arrangement evaluation using a maximum of six acceleration sensors 32 arranged symmetrically in each part of the body, (2) An experiment was conducted on the discrimination performance evaluation based on the sampling frequency for each action.

たとえば、加速度からの特徴量の抽出においては、時系列のデータ(加速度データ)を一定時間のスライディング・ウィンドウに分割し、そのウィンドウ毎に特徴量を求める。なお、この特徴量を求める手法は、上記の参考文献1および参考文献3に開示されているため、これらを参照されたい。   For example, in extracting feature values from acceleration, time-series data (acceleration data) is divided into sliding windows of a fixed time, and feature values are obtained for each window. In addition, since the method of calculating | requiring this feature-value is disclosed by said reference 1 and reference 3, please refer to these.

また、この実施例では、加速度データのサンプリング周波数とウィンドウ内のサンプル数のパラメータは、上記参考文献2と同様に設定され、50Hzのデータを行動毎に128サンプルずつ重複する256サンプルのウィンドウで分割する。したがって、1つのウィンドウ長は5.120秒となる。図4にスライディング・ウィンドウに分割する方法を示す。各ウィンドウは点線枠で示される。ただし、図4においては、分かり易くするため、隣接するウィンドウを、縦方向および横方向に少しずらして表示してある。   Further, in this embodiment, the parameters of the sampling frequency of acceleration data and the number of samples in the window are set in the same manner as in Reference Document 2 above, and 50 Hz data is divided into 256 sample windows that overlap by 128 samples for each action. To do. Therefore, one window length is 5.120 seconds. FIG. 4 shows a method of dividing into sliding windows. Each window is indicated by a dotted frame. However, in FIG. 4, for easy understanding, adjacent windows are displayed with a slight shift in the vertical and horizontal directions.

この実施例では、加速度に基づいて、ウィンドウ毎に、平均、標準偏差、エネルギ、周波数領域エントロピおよび相関関係の5種類の特徴量が算出される。これらは、上記の参考文献1および参考文献3の研究において用いられた特徴量である。平均と標準偏差とは、それぞれ、各軸の加速度の平均と標準偏差とである。また、エネルギは、各軸の加速度にFFT(高速フーリエ変換)を行い、振幅の2乗の合計として求めた。ただし、直流成分と折り返しの部分は除く。1つの軸の加速度のFFTの振幅成分をF,F,F,…とすると、エネルギは数1で求められる。ただし、wはウィンドウ内のサンプル数(この実施例では、256)である。 In this embodiment, five types of feature quantities of average, standard deviation, energy, frequency domain entropy, and correlation are calculated for each window based on acceleration. These are the feature quantities used in the studies of the above Reference 1 and Reference 3. The average and standard deviation are the average and standard deviation of the acceleration of each axis, respectively. The energy was obtained as the sum of the square of the amplitude by performing FFT (Fast Fourier Transform) on the acceleration of each axis. However, the DC component and the folded part are excluded. If the FFT amplitude component of the acceleration of one axis is F 1 , F 2 , F 3 ,. Here, w is the number of samples in the window (256 in this embodiment).

[数1]

[Equation 1]

また、周波数領域エントロピ(以下、単に「エントロピ」ということがある)は、確率分布pに基づいて求められる。確率分布pは、数2に示すように、FFT成分Fから直流成分と折り返しの部分を除いたものを、全成分の総和で正規化することによって求められる。 Further, frequency domain entropy (hereinafter sometimes simply referred to as “entropy”) is obtained based on the probability distribution p. As shown in Equation 2, the probability distribution p is obtained by normalizing the FFT component F i excluding the DC component and the folded portion with the sum of all components.

[数2]

[Equation 2]

これより、エントロピは、数3に従って求められる。   Thus, entropy is obtained according to Equation 3.

[数3]

[Equation 3]

また、相関係数は、2軸間の加速度に関する相関係数である。このとき対象とする2軸は、1つの加速度センサ32内の組み合わせだけでなく、任意の2つの加速度センサ32に跨った組み合わせも含まれる。(x,y)を或る軸の加速度を持つベクトルとし、cov(x,y)をxとyとの共分散、σx,σyをx,yそれぞれの標準偏差としたとき、x‐y間の相関係数corr(x,y)は数4で定義される。   The correlation coefficient is a correlation coefficient related to acceleration between two axes. At this time, the target two axes include not only combinations within one acceleration sensor 32 but also combinations straddling arbitrary two acceleration sensors 32. When (x, y) is a vector having an acceleration of a certain axis, cov (x, y) is a covariance of x and y, and σx and σy are standard deviations of x and y, respectively, between xy The correlation coefficient corr (x, y) is defined by Equation 4.

[数4]

[Equation 4]

この実施例では、被験者の日常行動の識別を行うために、上述の手法で抽出した特徴量に対して、識別対象の行動をラベルとする教師あり学習が適用される。クラス分類器としては、周知のSVM(Support Vector Machine),NN(Nearest Neighbor),C4.5の3種類が採用される。   In this embodiment, in order to identify the daily behavior of the subject, supervised learning using the behavior to be identified as a label is applied to the feature amount extracted by the above-described method. As the class classifier, three types of well-known SVM (Support Vector Machine), NN (Nearest Neighbor), and C4.5 are adopted.

また、識別する日常行動としては、上述したように、「立つ」、「座る」、「歩く」、「階段の上り」、「階段の下り」、「コンピュータ作業」、「読書」、「飲食」、「エレベータの上り」、「エレベータの下り」の10種類である。これら10種類の行動は、上述した「立位」、「座位」および「歩行」の3つの姿勢のいずれかに分類することができる。   In addition, as described above, daily activities to be identified include “standing”, “sitting”, “walking”, “up stairs”, “down stairs”, “computer work”, “reading”, “food” , “Elevator up” and “Elevator down”. These ten types of actions can be classified into any of the above-mentioned three postures of “standing position”, “sitting position”, and “walking”.

上述したように、この実施例では、センサ装置16の装着位置は、被験者の左手首、右手首、左腿、右腿、左足首、右足首の6箇所である。装着位置として手首および腿を選んだ理由は、過去の研究において、その有効性が認められているからである。たとえば、上記の参考文献1や「N. Kern, B. Schiele, and A. Schmidt, : Multi-sensor activity context detection for wearable computing, in European Symposium on Ambient Intelligence (EUSAI), Eindhoven, the Netherlands, Nov. 2003.」(参考文献6)に、加速度センサの装着位置の評価を行った研究が紹介されている。さらに、参考文献1および3に紹介される研究では、周期的な行動や上下運動を伴う行動には、足首における加速度パターンが腿の加速度パターン以上に有効であることが分かるため、この実施例では、左右の足首にも加速度センサが装着される。また、加速度センサ32(センサ装置16)を左右対称に配置(装着)するようにしたのは、利き手/利き足と、非利き手/非利き足との比較を含め、全身における装着位置を評価するためである。   As described above, in this embodiment, the sensor device 16 is mounted at six positions: the left wrist, the right wrist, the left thigh, the right thigh, the left ankle, and the right ankle of the subject. The reason for choosing the wrist and thigh as the wearing position is that past studies have confirmed its effectiveness. For example, the above reference 1 and “N. Kern, B. Schiele, and A. Schmidt,: Multi-sensor activity context detection for wearable computing, in European Symposium on Ambient Intelligence (EUSAI), Eindhoven, the Netherlands, Nov. 2003. "(Reference 6) introduces a study that evaluated the mounting position of an acceleration sensor. Furthermore, in the study introduced in References 1 and 3, it can be seen that the acceleration pattern at the ankle is more effective than the acceleration pattern at the thigh for periodic actions and actions involving up and down movements. Acceleration sensors are also attached to the left and right ankles. In addition, the acceleration sensor 32 (sensor device 16) is arranged (mounted) symmetrically in order to evaluate the mounting position in the whole body, including the comparison between the dominant hand / dominant foot and the non-dominant hand / non-dominant foot. Because.

たとえば、データ収集は、クラス分類器の学習に用いるための加速度データのセット(訓練データ)と、識別結果を評価するための加速度データのセット(テストデータ)とを分けて行う。訓練データおよびテストデータは、実験者によって事前に設定された上記の10種類の行動を含むシナリオに沿って被験者が行動したときに得られた加速度データである。ただし、訓練データは、被験者1人あたり約100分の総時間内における加速度によって構成され、テストデータは、被験者1人あたり約30分の総時間内における加速度によって構成される。この訓練データおよびテストデータは3人の被験者に関して収集した。3人の被験者は20〜30代の男性で、いずれも、右手が利き手であり、右足が利き足である。   For example, data collection is performed separately for a set of acceleration data (training data) for use in learning of the classifier and a set of acceleration data (test data) for evaluating the identification results. The training data and the test data are acceleration data obtained when the subject behaves according to the scenario including the above-described ten kinds of behaviors set in advance by the experimenter. However, the training data is composed of acceleration within a total time of about 100 minutes per subject, and the test data is composed of acceleration within a total time of about 30 minutes per subject. This training data and test data were collected for three subjects. Three subjects are men in their twenties and thirties, and each has a right hand and a right foot.

行動に対する行動のラベリングは、実験者が被験者に随伴し、被験者がシナリオに沿った行動を実行する際の各行動の開始時刻と終了時刻とを秒単位で記録することにより、行った。データ収集の終了後に、収集した加速度データからラベリングが施された部分だけを切り出し、上述したウィンドウ毎の特徴量を計算した。ただし、行動の開始時刻・終了時刻の前後5秒間は行動の変化途中と考えて、その間のデータは特徴量の計算から除外した。   The action labeling was performed by recording the start time and end time of each action in seconds when the experimenter accompanies the subject and the subject executes the action according to the scenario. After the data collection was completed, only the labeled part was cut out from the collected acceleration data, and the above-described feature amount for each window was calculated. However, the five seconds before and after the start time and end time of the action are considered to be during the action change, and the data during that time is excluded from the calculation of the feature amount.

上述した手法に従って、全ての加速度センサ32からデータを収集した。次に、全被験者の訓練データを用いて、SVM,NN,C4.5のクラス分類器毎に学習を行い、その後、全被験者の全テストデータを与え、10種類の行動毎の識別性能を求めた。このとき、学習と評価に用いるセンサの組み合わせとして、センサの個数を1〜6個とする全ての組み合わせ(63通り)を比較条件とした。   Data was collected from all acceleration sensors 32 according to the technique described above. Next, using the training data of all subjects, learning is performed for each class classifier of SVM, NN, and C4.5, and then all test data of all subjects is given to determine the discrimination performance for each of the ten types of actions. It was. At this time, as combinations of sensors used for learning and evaluation, all combinations (63 ways) in which the number of sensors is 1 to 6 were used as comparison conditions.

各クラス分類器における、最も高い識別結果を得る加速度センサ32の装着位置の組み合わせと、その識別結果とが図5に示される。ここで、識別率は、全サンプル中における正しく認識できたサンプル数の割合(True Positive Rate)である。クラス分類器としてSVMを用いた場合には、「両手首と両足首」の4箇所のセンサ装置16a,16b,16eおよび16fの加速度センサ32を用いたときに、最も高い識別結果(89.8%)を得た。また、クラス分類器としてNNを用いた場合には、「右手首と両足首」の3箇所のセンサ装置16a,16eおよび16fの加速度センサ32を用いたときに、最も高い識別結果(87.6%)を得た。さらに、クラス分類器としてC4.5を用いた場合には、「右手首と両足首」の3箇所のセンサ装置16a,16eおよび16fの加速度センサ32を用いたときに、最も高い識別結果(83.0%)を得た。   FIG. 5 shows a combination of mounting positions of the acceleration sensor 32 that obtains the highest identification result in each classifier, and the identification result. Here, the identification rate is a ratio (True Positive Rate) of the number of samples correctly recognized in all samples. When SVM is used as the class classifier, the highest identification result (89.8) is obtained when the acceleration sensors 32 of the four sensor devices 16a, 16b, 16e and 16f of “both wrists and both ankles” are used. %). Further, when NN is used as the class classifier, the highest discrimination result (87.6) is obtained when the acceleration sensors 32 of the three sensor devices 16a, 16e and 16f of “right wrist and both ankles” are used. %). Further, when C4.5 is used as the class classifier, the highest discrimination result (83) is obtained when the acceleration sensors 32 of the three sensor devices 16a, 16e and 16f of “right wrist and both ankles” are used. 0.0%).

クラス分類器毎に最も高い識別結果を得る加速度センサ32の組み合わせを求め、その識別結果をプロットして得られた折れ線グラフが図6に示される。図6に示すように、クラス分類器としてSVMを用いることの優位性を確認することができる。したがって、これ以降では、クラス分類器としてSVMを用いた場合についてのみ説明することにする。   FIG. 6 shows a line graph obtained by obtaining a combination of acceleration sensors 32 that obtains the highest identification result for each classifier and plotting the identification results. As shown in FIG. 6, the superiority of using SVM as a classifier can be confirmed. Therefore, hereinafter, only the case where SVM is used as a classifier will be described.

図7は、クラス分類器としてSVMを用いた場合に、利き手(この実施例では、右手)や利き足(この実施例では、右足)が識別結果に及ぼす影響を示す棒グラフである。図7に示すように、最適な加速度センサ32の装着位置である4箇所(16a,16b,16e,16f)から右手首(16a)を除いた場合に大きく識別性能が低下し、右手首に装着されたセンサ装置16aの加速度センサ32の寄与度が高いことが分かる。また、図7には、最適な加速度センサ32の装着位置である4箇所(16a,16b,16e,16f)からどちらか一方の足首(16eまたは16f)を除いた場合では、識別結果が等しく左右の足首の寄与度についての違いを確認することはできなかった。   FIG. 7 is a bar graph showing the influence of the dominant hand (right hand in this embodiment) and the dominant hand (right foot in this embodiment) on the identification result when SVM is used as the class classifier. As shown in FIG. 7, when the right wrist (16a) is removed from the four positions (16a, 16b, 16e, 16f) that are the optimal mounting positions of the acceleration sensor 32, the identification performance is greatly deteriorated, and the right wrist (16a) is worn. It can be seen that the contribution of the acceleration sensor 32 of the sensor device 16a is high. FIG. 7 also shows that the identification result is equally right and left when one of the ankles (16e or 16f) is removed from the four positions (16a, 16b, 16e, and 16f) that are the optimal mounting positions of the acceleration sensor 32. It was not possible to confirm the difference in the contribution of the ankle.

図8は、図6に示したSVMの結果に関して、10種類の行動別に識別結果を示したものである。図8に示すように、識別に用いるセンサ装置16(加速度センサ32)を、全6個から両手首と両足首とに装着した場合の4個(16a,16b,16e,16f)に減らした場合に、「エレベータの上り」以外の全ての行動において識別結果の向上が見られた。各行動に対する識別結果の混同行列が図9および図10に示される。図9および図10を参照して分かるように、識別に用いるセンサ装置16(加速度センサ32)の装着数を両手首と両足首との4つに減らすことによって、誤識別するサンプル数が減少している。   FIG. 8 shows the identification results for each of the ten types of actions with respect to the SVM results shown in FIG. As shown in FIG. 8, when the number of sensor devices 16 (acceleration sensor 32) used for identification is reduced from four to four (16a, 16b, 16e, 16f) when worn on both wrists and both ankles. In addition, the improvement of the identification results was observed in all actions except for “up of the elevator”. A confusion matrix of identification results for each action is shown in FIGS. As can be seen with reference to FIGS. 9 and 10, the number of misidentified samples is reduced by reducing the number of sensors 16 (acceleration sensor 32) used for identification to four, that is, both wrists and both ankles. ing.

この識別性能の向上を正準特徴空間で確認することにする。図11は、両手首、両腿、両足首に装着した全6個のセンサ装置16a,16b,16c,16d,16eおよび16fの加速度センサ32を用いた場合の正準特徴空間における第1,第2変数上での散布図である。また、図12は、両手首と両足首とに装着した4個のセンサ装置16a,16b,16eおよび16fの加速度センサ32を用いた場合の正準特徴空間における第1,第2変数上での散布図である。   This improvement in discrimination performance will be confirmed in the canonical feature space. FIG. 11 shows the first and first in the canonical feature space when the acceleration sensors 32 of all six sensor devices 16a, 16b, 16c, 16d, 16e and 16f attached to both wrists, both thighs and both ankles are used. It is a scatter diagram on two variables. FIG. 12 shows the first and second variables in the canonical feature space when the acceleration sensors 32 of the four sensor devices 16a, 16b, 16e and 16f attached to both wrists and ankles are used. It is a scatter diagram.

ここで、図11および図12の第2変数までの累積寄与度は、それぞれ、84.5%,78.7%である。図11および図12において、10種類の行動が、立つ姿勢を取る行動、座る姿勢を取る行動、歩行を伴う行動の3種類に分布しているのが確認できる。また、図11においては、立つ姿勢を取る3種類の行動と、座る姿勢を取る4種類の行動とがはっきりと分布しているのに対し、図12においては、立つ姿勢を取る3種類の行動と、座る姿勢を取る4種類の行動との境界がはっきりしていない。   Here, the cumulative contributions up to the second variable in FIGS. 11 and 12 are 84.5% and 78.7%, respectively. In FIG. 11 and FIG. 12, it can be confirmed that 10 types of behaviors are distributed in three types: behaviors that take a standing posture, behaviors that take a sitting posture, and behaviors that involve walking. Also, in FIG. 11, three types of actions that take a standing posture and four types of behaviors that take a sitting posture are clearly distributed, whereas in FIG. 12, three types of actions that take a standing posture. And the four types of actions that take a sitting posture are not clear.

また、図11に示す場合には、座る姿勢を取る4種類の行動(「座る」,「コンピュータ作業」,「読書」,「食事」)が右下の領域に密集している。このことより、座る姿勢を取る4種類の行動を正しく識別することが困難であると考えられる。具体的には、座る姿勢を取る4種類の行動に関して、図11および図12における第1,第2変数を用いてクラス内・クラス間分散比を求めると、図11に示す場合(全6個の加速度センサ34a−34fを用いる場合)は4.88であり、図12に示す場合(4個のセンサ装置16a,16b,16eおよび16fの加速度センサ32を用いる場合)は20.04である。これは、両腿のセンサ装置16cおよび16dの加速度センサ32を除いた方が、正準特徴空間上で、座る姿勢を取る4種類の行動のクラスが分離されていることを意味する。たとえば、図13(A),図13(B)および図14には、4個のセンサ装置16a,16b,16e,16fの加速センサ32の加速度データを用いた場合における、各姿勢に応じた正準特徴空間での行動毎の分布が示される。図13(A),図13(B)および図14を見て分かるように、いずれの場合にも、同一の姿勢内における行動が分離され、容易に識別が可能である。   Further, in the case shown in FIG. 11, four types of actions (“sitting”, “computer work”, “reading”, “meal”) taking a sitting posture are concentrated in the lower right area. This suggests that it is difficult to correctly identify the four types of actions that take a sitting posture. Specifically, regarding the four types of actions that take a sitting posture, when the intra-class / inter-class variance ratio is obtained using the first and second variables in FIGS. 11 and 12, the case shown in FIG. Is 4.88, and in the case shown in FIG. 12 (when the acceleration sensors 32 of the four sensor devices 16a, 16b, 16e and 16f are used) is 20.04. This means that the four types of action classes that take a sitting posture are separated in the canonical feature space when the acceleration sensors 32 of the thigh sensor devices 16c and 16d are removed. For example, FIG. 13A, FIG. 13B, and FIG. 14 show the correctness corresponding to each posture when the acceleration data of the acceleration sensors 32 of the four sensor devices 16a, 16b, 16e, and 16f is used. The distribution for each action in the quasi-feature space is shown. As can be seen from FIG. 13A, FIG. 13B, and FIG. 14, in any case, actions in the same posture are separated and can be easily identified.

また、別のサンプルを用いた場合における、姿勢の識別結果および各姿勢クラス(カテゴリ)の中で取り得る行動の識別結果が図15および図16に示される。図15は、全てのセンサ装置16の加速度センサ32からの加速度データに基づいて、姿勢および全ての行動を識別した場合の結果である。一方、図16は、腿部のセンサ装置16を除く4個のセンサ装置16の加速度センサ32からの加速度データに基づいて、姿勢および全ての行動を識別した場合の結果である。ただし、図15および図16では、行動は、立位、座位および歩行のカテゴリで分類して示してある。   Further, FIG. 15 and FIG. 16 show posture identification results and action identification results that can be taken in each posture class (category) when another sample is used. FIG. 15 shows the results when the posture and all actions are identified based on the acceleration data from the acceleration sensors 32 of all the sensor devices 16. On the other hand, FIG. 16 shows the results when the posture and all actions are identified based on the acceleration data from the acceleration sensors 32 of the four sensor devices 16 excluding the thigh sensor device 16. However, in FIG. 15 and FIG. 16, the behavior is classified and shown in the categories of standing, sitting and walking.

図15および図16を参照して、姿勢の識別結果を見ると、全てのセンサ装置16の加速度センサ32からの加速度データに基づいて識別した場合の方が、腿部のセンサ装置16c,16dを除く4つのセンサ装置16の加速度センサ32からの加速度データに基づいて識別した場合よりも、識別率が高いことが分かる。また、立位および歩行のカテゴリに含まれる行動の識別結果を見ると、全てのセンサ装置16の加速度センサ32からの加速度データに基づいて識別した場合と、腿部のセンサ装置16c,16dを除く4つのセンサ装置16の加速度センサ32からの加速度データに基づいて識別した場合とでは、ほとんど識別率が同じであることが分かる。ただし、座位の識別結果を見ると、全てのセンサ装置16の加速度センサ32からの加速度データに基づいて識別した場合よりも、腿部のセンサ装置16c,16dを除く4つのセンサ装置16の加速度センサ32からの加速度データに基づいて識別した場合の方が、識別率がかなり高いことが分かる。   Referring to FIG. 15 and FIG. 16, when the posture identification results are seen, the thigh sensor devices 16 c and 16 d are more clearly identified when the identification is based on the acceleration data from the acceleration sensors 32 of all the sensor devices 16. It can be seen that the identification rate is higher than that in the case of identification based on the acceleration data from the acceleration sensors 32 of the four sensor devices 16 except for the above. Further, when looking at the identification results of the actions included in the standing and walking categories, the case of identification based on the acceleration data from the acceleration sensors 32 of all the sensor devices 16 and the thigh sensor devices 16c and 16d are excluded. It can be seen that the discrimination rate is almost the same in the case of discrimination based on the acceleration data from the acceleration sensors 32 of the four sensor devices 16. However, when the identification result of the sitting position is seen, the acceleration sensors of the four sensor devices 16 excluding the thigh sensor devices 16c and 16d are more than in the case of identifying based on the acceleration data from the acceleration sensors 32 of all the sensor devices 16. It can be seen that the identification rate is considerably higher when the identification is based on the acceleration data from 32.

以上より、両腿に装着されるセンサ装置16cおよび16dは、姿勢の違いを識別するのには有効であるが、似た姿勢を取る行動間、特に座る姿勢を取る行動間の識別には有効でないことが分かる。   As described above, the sensor devices 16c and 16d attached to both thighs are effective for identifying a difference in posture, but are effective for identifying a behavior between similar postures, in particular, a behavior between sitting postures. I understand that it is not.

ここで、上記の例は、両手首、両腿、両足首にセンサ装置16(加速度センサ32)を装着し、10種類の行動を識別するようにしてあるが、使用するセンサ装置16の数や取り付け位置は、行動識別システム10の適用(使用)環境等に応じて様々である。また、識別する姿勢や行動も、行動識別システム10の使用環境等に応じて様々である。したがって、サーバ12では、取得した全ての加速度データ(サンプル)から姿勢の識別に使用する加速度データ(センサ装置16)を抽出し、さらに、識別された姿勢の中で取り得る行動を識別するためのセンサ装置16を姿勢毎に抽出するようにしてある。そして、抽出した姿勢の識別に使用するセンサ装置16の集合(姿勢識別用センサ集合DB22)および行動を識別するためのセンサ装置16の集合(行動識別用センサ集合DB24)を参照して、被験者の姿勢および行動を識別するようにしてある。   Here, in the above example, the sensor device 16 (acceleration sensor 32) is attached to both wrists, both thighs, and both ankles to identify 10 types of actions. The attachment position varies depending on the application (use) environment or the like of the behavior identification system 10. Further, the posture and behavior to be identified vary depending on the usage environment of the behavior identification system 10 and the like. Therefore, the server 12 extracts acceleration data (sensor device 16) used for posture identification from all acquired acceleration data (samples), and further identifies actions that can be taken in the identified posture. The sensor device 16 is extracted for each posture. Then, referring to the set of sensor devices 16 (posture identification sensor set DB22) used for identifying the extracted posture and the set of sensor devices 16 for identifying behavior (behavior identification sensor set DB24), The posture and behavior are identified.

また、他の条件が同じ場合、サンプリング周波数を低く抑えることで、加速度データの収集と伝送の両面で加速度センサの省電力化を計ることができ、電池での駆動時間を延長することができる。長時間の利用に耐え得る日常行動識別システムの実現のため、サンプリング周波数と識別率との関係を評価した。   Further, when other conditions are the same, by suppressing the sampling frequency low, it is possible to save power in the acceleration sensor in both the collection and transmission of acceleration data, and it is possible to extend the battery driving time. In order to realize a daily behavior identification system that can withstand long-term use, the relationship between sampling frequency and identification rate was evaluated.

サンプリング周波数の評価実験では、上述のようにして収集した加速度データを50Hzでサンプリングしたデータが用いられる。この加速度データからダウンサンプリングによって、25Hz,12.5Hz,6.25Hz,3.125Hzの加速度データをそれぞれ生成した。これらのサンプリング周波数の違う5種類に関して、それぞれの場合の識別を求めた。このとき、上述の実験で得られた最適な加速度センサ32の装着位置の組み合わせを踏まえ、学習と評価に用いるセンサデータは「両手首と両足首」4箇所のデータのみとし、クラス分類器もSVMのみを用いた。特徴計算を行う際、サンプリング周波数によってウィンドウ中に含まれるサンプル数が異なるが、ウィンドウサイズ長を一定に保ち、サンプル数を可変としている。   In the sampling frequency evaluation experiment, data obtained by sampling the acceleration data collected as described above at 50 Hz is used. From this acceleration data, acceleration data of 25 Hz, 12.5 Hz, 6.25 Hz, and 3.125 Hz were generated by downsampling. For these five different sampling frequencies, the identification of each case was sought. At this time, based on the combination of the optimal mounting positions of the acceleration sensor 32 obtained in the above-described experiment, the sensor data used for learning and evaluation is only the data of “both wrists and both ankles”, and the class classifier is also SVM. Only was used. When performing feature calculation, the number of samples included in the window varies depending on the sampling frequency, but the window size length is kept constant and the number of samples is variable.

図17には、サンプリング周波数を変化させたときの行動別の識別率を示したグラフが示される。図17に示すグラフを参照すると、全体としてサンプリング周波数を低下させると識別精度が低下する傾向が分かる。一方、これと逆の傾向を示している行動として「コンピュータ作業」が挙げられる。図10に示した50Hzでサンプリングした結果と、図18に示すように、6.25Hzでサンプリングしたときの結果とを比較すると、サンプリング周波数を低下させても、識別率の低下が小さいことが分かる。しかし、「座位」の姿勢では、サンプリング周波数の低下により、「コンピュータ作業」を「食事」と誤識別するサンプル数が減少している。逆に、「食事」は周波数の低下によって「読書」と誤識別するサンプル数が増え、「読書」に関しては周波数の低下により「コンピュータ作業」と誤識別するサンプル数が増加している。これは、サンプリング周波数が6.25Hzの場合には、「座位」の姿勢についての3種類の行動(「コンピュータ作業」,「食事」,「読書」)を正しく識別できていないことを意味する。図17を見ると、「座位」の姿勢における行動の識別には、12.5Hz以上のサンプリング周波数が必要と考えられる。この実施例では、加速度センサ32(センサ装置16)における省電力化を主たる目的とはしないため、サンプリング周波数は50Hzに固定してある。   FIG. 17 shows a graph showing the identification rate for each action when the sampling frequency is changed. Referring to the graph shown in FIG. 17, it can be seen that when the sampling frequency is lowered as a whole, the identification accuracy tends to be lowered. On the other hand, “computer work” can be cited as an action showing the opposite tendency. Comparing the result of sampling at 50 Hz shown in FIG. 10 with the result of sampling at 6.25 Hz as shown in FIG. 18, it can be seen that the reduction in the identification rate is small even when the sampling frequency is lowered. . However, in the “sitting” posture, the number of samples misidentifying “computer work” as “meal” decreases due to a decrease in sampling frequency. On the contrary, “meal” increases the number of samples misidentified as “reading” due to a decrease in frequency, and “reading” increases the number of samples misidentified as “computer work” due to a decrease in frequency. This means that when the sampling frequency is 6.25 Hz, three types of actions (“computer work”, “meal”, and “reading”) regarding the “sitting” posture cannot be correctly identified. Referring to FIG. 17, it is considered that a sampling frequency of 12.5 Hz or more is necessary for identification of actions in the “sitting” posture. In this embodiment, since the main purpose is not to save power in the acceleration sensor 32 (sensor device 16), the sampling frequency is fixed to 50 Hz.

上述したような動作をサーバ12が図19ないし図22に示すフロー図に従って実行する。具体的には、サーバ12は、図19ないし図21に示すフロー図に従って、姿勢・行動識別特徴量学習処理を実行し、図22に示すフロー図に従って、姿勢・行動識別処理を実行する。   The server 12 executes the operation as described above according to the flowcharts shown in FIGS. Specifically, the server 12 executes the posture / behavior identification feature amount learning process according to the flowcharts shown in FIGS. 19 to 21, and executes the posture / behavior identification process according to the flowchart shown in FIG.

図19に示すように、サーバ12は、姿勢・行動識別特徴量学習処理を開始すると、ステップS1で、センサDB20から姿勢識別学習用データセットを読み込む。具体的には、サーバ12は、或る被験者の行動記録として、当該被験者に装着された各センサ装置12で検出された加速度データをセンサDB20から読み込む。ここで、この姿勢識別学習用データセットでは、加速度データに対応して姿勢クラスがラベリングされている。つまり、立位、座位、歩行のいずれかを示す識別情報(ID)が付加されている。ただし、この実施例では、後述する行動識別学習用データセットは、この姿勢学習用データセットと同じであり、したがって、加速度データには、姿勢クラスの識別情報のみならず、行動についての識別情報も付加されている。上述した訓練データと同様に、これらの識別情報は、加速度データの取得時にラベリングすることができる。ただし、被験者の行動をビデオカメラで撮影するなどして記録しておく場合には、その記録に従って事後的にラベリングすることができる。   As illustrated in FIG. 19, when the server 12 starts the posture / action identification feature amount learning process, the server 12 reads a posture identification learning data set from the sensor DB 20 in step S1. Specifically, the server 12 reads acceleration data detected by each sensor device 12 attached to the subject as a behavior record of a subject from the sensor DB 20. Here, in this posture identification learning data set, posture classes are labeled corresponding to the acceleration data. That is, identification information (ID) indicating any of standing, sitting and walking is added. However, in this embodiment, the action identification learning data set to be described later is the same as the attitude learning data set. Therefore, not only the attitude class identification information but also the action identification information is included in the acceleration data. It has been added. Similar to the training data described above, these identification information can be labeled when the acceleration data is acquired. However, if the behavior of the subject is recorded with a video camera or the like, it can be labeled afterwards according to the recording.

続くステップS3では、全センサの集合をセンサ集合Sとして読み出す。次のステップS5では、姿勢識別特徴抽出処理を実行する。ここでは、サーバ12は、姿勢を識別するための特徴量(姿勢識別用特徴量)すなわち特徴ベクトルfpを計算する。この特徴ベクトルfpは数5で示される。上述したように、全ての加速度センサ32で検出された加速度から、ウィンドウ毎に、平均、標準偏差、エネルギ、エントロピおよび相関係数が算出され、これらが特徴ベクトルfpの各要素となる。   In the subsequent step S3, a set of all sensors is read as a sensor set S. In the next step S5, posture identification feature extraction processing is executed. Here, the server 12 calculates a feature amount (posture identification feature amount) for identifying a posture, that is, a feature vector fp. This feature vector fp is expressed by Equation 5. As described above, the average, standard deviation, energy, entropy, and correlation coefficient are calculated for each window from the accelerations detected by all the acceleration sensors 32, and these are the elements of the feature vector fp.

[数5]
fp=F(S)={fp1,fp2,…,fpNp}
続いて、ステップS7では、特徴ベクトルfpを主成分分析し、寄与率が閾値ηpよりも大きい特徴(特徴ベクトルfpr)を選択する。この選択された特徴ベクトルfprは数6で示される。
[Equation 5]
fp = F (S) = {fp1, fp2,..., fpNp}
Subsequently, in step S7, the feature vector fp is subjected to principal component analysis, and a feature (feature vector fpr) having a contribution rate larger than the threshold value ηp is selected. The selected feature vector fpr is expressed by Equation 6.

[数6]
fpr={fpr1,fpr2,…fprk} (rk≦Np)
なお、数6からも分かるように、特徴ベクトルfprは、選択されたrk個の特徴量で表わされる。
[Equation 6]
fpr = {fpr1, fpr2,... fprk} (rk ≦ Np)
As can be seen from Equation 6, the feature vector fpr is represented by the selected rk feature quantities.

ここで、上述したように、特徴量は5種類であるが、各加速度の軸毎に特徴量を求めるとともに、相関係数については、2つの異なる各軸間の全ての組み合わせについての相関を求めることにより、特徴ベクトルfpは求められる。このため、たとえば、4つの加速度センサ32で検出された加速度を用いる場合には、「平均」、「標準偏差」、「エネルギ」および「エントロピ」のそれぞれについては12(3軸×4)個の特徴量が求められ、相関係数については66(12=12×11/2)個の特徴量が求められる。つまり、この場合の特徴ベクトルfpは114次元となる。このとき、変数Np=114となる。ただし、相関係数は、4つの加速度センサ32の各軸の加速度(12軸の加速度)について、他の軸の加速度との相関関係を求めている。 Here, as described above, there are five types of feature amounts, but the feature amount is obtained for each axis of acceleration, and the correlation coefficient is obtained for all combinations between two different axes. Thus, the feature vector fp is obtained. Therefore, for example, when using acceleration detected by the four acceleration sensors 32, 12 (3 axes × 4) pieces of “average”, “standard deviation”, “energy” and “entropy” are used. A feature amount is obtained, and 66 ( 12 C 2 = 12 × 11/2) feature amounts are obtained as correlation coefficients. That is, the feature vector fp in this case has 114 dimensions. At this time, the variable Np = 114. However, the correlation coefficient obtains the correlation between the acceleration of each axis of the four acceleration sensors 32 (the acceleration of 12 axes) and the acceleration of the other axes.

また、特徴ベクトルfpを主成分分析すると、固有値の大きい順で、第1主成分から第Np主成分までの固有値λi(i=1,2,…,Np)が算出される。このとき、寄与率は、各固有値を固有値の合計値で割ったもの(百分率)と定義される。つまり、各固有値λiの寄与率は数7で示される。   When the principal component analysis is performed on the feature vector fp, eigenvalues λi (i = 1, 2,..., Np) from the first principal component to the Np principal component are calculated in descending order of eigenvalues. At this time, the contribution rate is defined as a value (percentage) obtained by dividing each eigenvalue by the total value of the eigenvalues. That is, the contribution ratio of each eigenvalue λi is expressed by Equation 7.

[数7]

[Equation 7]

この寄与率の値が閾値ηpを超えるか否かを判断して、特徴ベクトルfprを求めている。たとえば、閾値ηpは1(%)に決定される。固有値λiが大きいほど、主成分得点の分散が大きく、各固有値λiに対応する(属する)固有ベクトル(元の特徴軸の重み付け合成特徴ベクトル)が全特徴空間を説明する力が大きい(情報量が多い)。しかし、固有値λiが極端に小さい特徴軸は、全特徴空間を説明する力が小さいため、無くても良いと言える。したがって、特徴ベクトルfpから固有値λiの小さい特徴軸(特徴量)を削除することにより、次元の少ない特徴ベクトルfprに圧縮しているのである。   It is determined whether or not the value of the contribution rate exceeds the threshold value ηp, and the feature vector fpr is obtained. For example, the threshold ηp is determined to be 1 (%). The greater the eigenvalue λi, the greater the variance of the principal component scores, and the greater the eigenvector (weighted composite feature vector of the original feature axis) corresponding to (belonging to) each eigenvalue λi is to explain the entire feature space (the amount of information is large). ). However, it can be said that the feature axis having an extremely small eigenvalue λi is not necessary because the force explaining the entire feature space is small. Therefore, by deleting a feature axis (feature amount) having a small eigenvalue λi from the feature vector fp, the feature vector is compressed to a feature vector fpr having a small dimension.

なお、この実施例では、寄与率を用いて、特徴ベクトルfprを求めるようにしてあるが、累積寄与率を用いるようにしてもよい。ここで、累積寄与率は、寄与率を第1主成分から順に累積したものをいう。この場合、たとえば、閾値ηpは95(%)に決定され、第1主成分からこの閾値ηpを超える最小の第k主成分(k≦Np)までを採用した特徴ベクトルfprが生成される。   In this embodiment, the feature vector fpr is obtained using the contribution rate, but the cumulative contribution rate may be used. Here, the cumulative contribution rate means the contribution rate accumulated in order from the first principal component. In this case, for example, the threshold value ηp is determined to be 95 (%), and a feature vector fpr employing the first principal component to the smallest k-th principal component (k ≦ Np) exceeding the threshold value ηp is generated.

図19に戻って、次のステップS9では、特徴ベクトルfprに使用していないセンサ集合Smを求める。つまり、特徴ベクトルfpに特徴量(要素ないし成分)が存在するが、特徴ベクトルfprに特徴量が存在しないセンサ装置16(加速度センサ32)を検出するのである。そして、ステップS11では、センサ集合Smが空集合φであるかどうかを判断する。   Returning to FIG. 19, in the next step S9, a sensor set Sm not used for the feature vector fpr is obtained. That is, the sensor device 16 (acceleration sensor 32) in which the feature quantity (element or component) exists in the feature vector fp but the feature quantity does not exist in the feature vector fpr is detected. In step S11, it is determined whether the sensor set Sm is an empty set φ.

ステップS11で“NO”であれば、つまりセンサ集合Smが空集合φでなければ、ステップS13で、センサ集合Sを更新する(S=S−Sm)。つまり、姿勢の識別に使用するセンサ装置16(加速度センサ32)の数が削減される。その後、ステップS5に戻る。一方、ステップS11で“YES”であれば、つまりセンサ集合Smが空集合φであれば、ステップS15で、姿勢識別用センサ集合Sを、姿勢識別用センサ集合データベースに書き出す。つまり、サーバ12は、センサ集合Sを姿勢識別用センサ集合Spとして、姿勢識別用センサ集合DB22に記憶する。 If “NO” in the step S11, that is, if the sensor set Sm is not the empty set φ, the sensor set S is updated in a step S13 (S = S−Sm). That is, the number of sensor devices 16 (acceleration sensors 32) used for posture identification is reduced. Thereafter, the process returns to step S5. On the other hand, if “YES” in the step S11, that is, if the sensor set Sm is the empty set φ, the posture identifying sensor set S is written in the posture identifying sensor set database in a step S15. That is, the server 12 stores the sensor set S in the posture identification sensor set DB 22 as the posture identification sensor set Sp * .

続いて、図20に示すように、ステップS17では、センサDB20から行動識別学習用データセットを読み込む。ここでは、ステップS1で読み出したデータと同じデータが読み出される。次のステップS19では、姿勢ωpi∈{p1,p2,…,pNp}を選択する。この姿勢ωpiには、全ての姿勢クラスのラベル(識別情報)が記述される。姿勢ωpiは、行動識別システム10の管理者ないし使用者によって予め決定され、図示は省略するが、センサDB20などのDBやサーバ12の内部メモリに記憶されている。そして、ステップS21では、変数iが最大値Npを超えているか(i>Np)を判断する。つまり、姿勢ωpiに含まれる全ての姿勢クラスについて、後述する行動識別用センサ集合Saを求めたかどうかを判断する。 Subsequently, as shown in FIG. 20, in step S <b> 17, a behavior identification learning data set is read from the sensor DB 20. Here, the same data as the data read in step S1 is read. In the next step S19, the posture ωpiε {p1, p2,..., PNp} is selected. In this posture ωpi, labels (identification information) of all posture classes are described. The posture ωpi is determined in advance by an administrator or a user of the behavior identification system 10 and is stored in a DB such as the sensor DB 20 or an internal memory of the server 12 although illustration is omitted. In step S21, it is determined whether the variable i exceeds the maximum value Np (i> Np). That is, it is determined whether or not a behavior identification sensor set Sa * to be described later is obtained for all posture classes included in the posture ωpi.

ステップS21で“YES”であれば、つまり変数iが最大値Npを超えている場合には、そのまま姿勢・行動識別特徴量学習処理を終了する。一方、ステップS21で“NO”であれば、つまり変数iが最大値Np以下であれば、ステップS23で、数8に示すような行動A(ωpi)を読み出す。ここで、行動A(ωpi)は、姿勢ωpiにおいて取り得る行動のラベル(識別情報)、すなわち姿勢ωpiが示す姿勢クラスの中で取り得る行動のラベルである。   If “YES” in the step S21, that is, if the variable i exceeds the maximum value Np, the posture / behavior identification feature amount learning process is ended as it is. On the other hand, if “NO” in the step S21, that is, if the variable i is equal to or less than the maximum value Np, the action A (ωpi) as shown in the equation 8 is read in a step S23. Here, the action A (ωpi) is a label of action (identification information) that can be taken in the posture ωpi, that is, a label of an action that can be taken in the posture class indicated by the posture ωpi.

[数8]
A(ωpi)={a1,a2,…,aNpi}
続くステップS25では、ステップS3と同様に、全センサ集合を集合Sとして読み出す。図21に示すように、次のステップS27では、行動ラベルに対応するセンサデータ(加速度データ)Z(S,A(ωpi))を読み込む。続いて、ステップS29では、センサデータZから特徴量(平均、標準偏差、エネルギ、エントロピ、相関係数)を抽出する。つまり、数9に示すように、m次元の特徴ベクトルXが求められる。
[Equation 8]
A (ωpi) = {a1, a2,..., ANpi}
In subsequent step S25, as in step S3, all sensor sets are read out as set S. As shown in FIG. 21, in the next step S27, sensor data (acceleration data) Z (S, A (ωpi)) corresponding to the action label is read. Subsequently, in step S29, feature amounts (average, standard deviation, energy, entropy, correlation coefficient) are extracted from the sensor data Z. That is, as shown in Equation 9, an m-dimensional feature vector X is obtained.

[数9]
X={x1,x2,…,xm}
続くステップS31では、特徴ベクトルXを主成分分析し、寄与率が閾値τよりも大きい特徴を選択する。この選択された特徴ベクトルXrは数10で示される。これらは、上述の特徴ベクトルfpから特徴ベクトルfprを生成したのと同様である。
[Equation 9]
X = {x1, x2,..., Xm}
In subsequent step S31, the feature vector X is subjected to principal component analysis, and a feature having a contribution rate larger than the threshold value τ is selected. The selected feature vector Xr is expressed by Equation 10. These are the same as generating the feature vector fpr from the above-described feature vector fp.

[数10]
Xr={xr1,xr2,…xrl} (rl<K)
なお、数10からも分かるように、特徴ベクトルXrは、選択されたrl個の特徴量で表わされる。
[Equation 10]
Xr = {xr1, xr2,... Xrl} (rl <K)
As can be seen from Equation 10, the feature vector Xr is represented by the selected rl feature quantities.

次のステップS33では、特徴ベクトルXrに使用していないセンサ集合Snを求める。つまり、特徴ベクトルXに要素が存在するが、特徴ベクトルXrに要素が存在しないセンサ装置16(加速度センサ32)を検出するのである。そして、ステップS35では、センサ集合Snが空集合φであるかどうかを判断する。   In the next step S33, a sensor set Sn that is not used for the feature vector Xr is obtained. That is, the sensor device 16 (acceleration sensor 32) that has an element in the feature vector X but does not have an element in the feature vector Xr is detected. In step S35, it is determined whether the sensor set Sn is an empty set φ.

ステップS35で“NO”であれば、つまりセンサ集合Snが空集合φでなければ、ステップS37で、センサ集合Sを更新する(S=S−Sn)。つまり、行動の識別に使用するセンサ装置16(加速度センサ32)の数が削減される。その後、ステップS27に戻る。一方、ステップS35で“YES”であれば、つまりセンサ集合Snが空集合φであれば、ステップS39で、行動識別用センサ集合Sを、行動識別用センサ集合データベースに書き出して、図20に示したステップ19に戻る。つまり、ステップS39では、サーバ12は、センサ集合Sを姿勢識別用センサ集合Saとして、姿勢識別用センサ集合DB24に記憶する。 If “NO” in the step S35, that is, if the sensor set Sn is not the empty set φ, the sensor set S is updated in a step S37 (S = S−Sn). That is, the number of sensor devices 16 (acceleration sensors 32) used for action identification is reduced. Thereafter, the process returns to step S27. On the other hand, if “YES” in the step S35, that is, if the sensor set Sn is an empty set φ, the action identifying sensor set S is written in the action identifying sensor set database in a step S39 and shown in FIG. Return to step 19. That is, in step S39, the server 12 stores the sensor set S as the posture identification sensor set Sa * in the posture identification sensor set DB 24.

上述したように、図22は、姿勢・行動識別処理を示すフロー図である。図22に示すように、サーバ12は、姿勢・行動識別処理を開始すると、ステップS51で、姿勢識別用センサ集合Spおよび行動識別用センサ集合Saを各データベース(22,24)から読み込む。次のステップS53では、センサ集合Spのデータ(加速度データ)を用いて特徴抽出する。つまり、数11に示すような特徴ベクトルFpが求められる。特徴ベクトルFpの各要素(特徴量)は、上述した特徴ベクトルfpと同様である。 As described above, FIG. 22 is a flowchart showing the posture / behavior identification process. As shown in FIG. 22, when starting the posture / behavior identification process, the server 12 reads the posture identification sensor set Sp * and the behavior identification sensor set Sa * from each database (22, 24) in step S51. In the next step S53, feature extraction is performed using the data (acceleration data) of the sensor set Sp * . That is, a feature vector Fp as shown in Equation 11 is obtained. Each element (feature amount) of the feature vector Fp is the same as the feature vector fp described above.

[数11]
Fp={fp1,fp2,…,fpN}
次にステップS55では、姿勢識別処理を実行する(ωp=classify_posture(Fp))。ここで、姿勢識別処理(姿勢クラスの識別手法)について説明する。姿勢クラスは、上述したように、立位、座位および歩行の3クラスであり、各スライディング・ウィンドウの特徴量として教師あり学習を適用する。各クラスの特徴空間における散布図は、図11または図12に示したようなクラスタを形成する。学習に用いる識別器としては、k近傍法(k−Nearest Neighbor)、線形識別関数、ナイーブベイズ法、決定木学習、サポートベクトルマシン(SVM)などを適用することができる。
[Equation 11]
Fp = {fp1, fp2,..., FpN}
In step S55, posture identification processing is executed (ωp = classify_posture (Fp)). Here, a posture identification process (a method for identifying a posture class) will be described. As described above, the posture classes are the three classes of standing, sitting, and walking, and supervised learning is applied as the feature amount of each sliding window. The scatter diagram in the feature space of each class forms a cluster as shown in FIG. 11 or FIG. As a classifier used for learning, a k-nearest neighbor (k-Nearest Neighbor), a linear discriminant function, a naive Bayes method, a decision tree learning, a support vector machine (SVM), or the like can be applied.

ただし、図11または図12,図13(A),図13(B)および図14に示すような散布図に従うクラスタについてのデータは教師データとして、サーバ12の内部メモリ等に予め記憶されている。ここで、「クラスタについてのデータ」とは、たとえば、各クラスタに対応するクラス(姿勢や行動)を識別可能な情報と、散布図において当該クラスタを示す座標データとを意味する。   However, data on clusters according to the scatter diagrams as shown in FIG. 11 or FIG. 12, FIG. 13 (A), FIG. 13 (B) and FIG. 14 is stored in advance in the internal memory of the server 12 as teacher data. . Here, “data about a cluster” means, for example, information that can identify a class (posture or action) corresponding to each cluster, and coordinate data indicating the cluster in the scatter diagram.

たとえば、識別器として、k近傍法を適用すると、特徴空間(図11,図12)上にマッピングした際に、上記の教師データで規定されるクラスタとのユークリッド距離が近い順からk個のサンプルを選び、そのk個のサンプルの中で最も多いクラス(姿勢クラス)を識別結果とすることができる。   For example, when the k-nearest neighbor method is applied as a discriminator, k samples from the order in which the Euclidean distance from the cluster defined by the teacher data is close when mapping on the feature space (FIGS. 11 and 12). And the class (posture class) with the largest number among the k samples can be used as the identification result.

なお、多クラスのサポートベクトルマシンの構築の際には、各クラスを他の個々のクラスと判別するペアワイズ識別器をクラス数分訓練することで行う。実施例では、SMO(Sequential Minimal Optimization)法を用い、カーネル関数として1次元の多項式カーネルを用いた。ただし、SMO法については、「S. S. Keerthi, S. K, Shevade, C. Bhattacharyya, K. R. K, Murthy :Improvements to Platt’s SMO Algorithm for SVM Classifier Design, Neural Computation, 13(3), pp.637-649, 2001.」(参考文献7)に開示されている。   When constructing a multi-class support vector machine, it is performed by training a pair-wise classifier that discriminates each class from other individual classes for the number of classes. In the embodiment, an SMO (Sequential Minimal Optimization) method is used, and a one-dimensional polynomial kernel is used as a kernel function. However, regarding the SMO method, “SS Keerthi, S. K, Shevade, C. Bhattacharyya, KR K, Murthy: Improvements to Platt's SMO Algorithm for SVM Classifier Design, Neural Computation, 13 (3), pp. 637-649, 2001 "(reference 7).

上記図9,図10,図15および図16に示した識別結果(識別率)は、SMO法をベースにしたSVMを識別器として用いた場合の結果である。   The identification results (identification rates) shown in FIG. 9, FIG. 10, FIG. 15 and FIG. 16 are results when an SVM based on the SMO method is used as a discriminator.

ステップS55で姿勢クラスが識別されると、ステップS57では、識別姿勢ωpに基づいて、行動識別に用いるセンサ集合Sa(ωp)を決定する。つまり、ステップS55で識別された姿勢クラス(ωp)の中で取り得る行動を識別するためのセンサ集合Sa(ωp)が決定されるのである。続くステップS59では、決定したセンサ集合Sa(ωp)のデータを用いて特徴抽出する。つまり、数12に示すような特徴ベクトルFapが求められる。 When the posture class is identified in step S55, in step S57, a sensor set Sa * (ωp) used for action identification is determined based on the identified posture ωp. That is, a sensor set Sa * (ωp) for identifying actions that can be taken in the posture class (ωp) identified in step S55 is determined. In subsequent step S59, feature extraction is performed using the data of the determined sensor set Sa (ωp). That is, a feature vector Fap as shown in Equation 12 is obtained.

[数12]
Fap={fa1,fa2,…,faM}
次にステップS61では、行動識別処理を実行する(ωa=classify_action(Fap))。この行動識別処理は、上述したステップS55の姿勢識別処理と同じであるため、重複した説明は省略する。したがって、ステップS61では、姿勢クラスωpに含まれる複数の行動のうちから、1の行動が識別(特定)される。続くステップS63では、行動識別結果ωaを出力する。たとえば、行動識別結果ωaを、サーバ12に接続されたモニタ(図示せず)にテキスト表示したり、同じくサーバ12に接続されたスピーカ(図示せず)に音声で出力したり、或いはそれら両方の手段で出力したりする。ただし、行動識別結果ωaを他の端末(コンピュータや電話機)に電子メールで送信(出力)するようにしてもよい。また、行動識別結果ωaを単に出力するのみならず、その識別結果(姿勢および行動)を加速度データにラベリングするようにしてもよい。
[Equation 12]
Fap = {fa1, fa2,..., FaM}
Next, in step S61, action identification processing is executed (ωa = classify_action (Fap)). Since this action identification process is the same as the above-described posture identification process in step S55, a duplicate description is omitted. Accordingly, in step S61, one action is identified (specified) from the plurality of actions included in the posture class ωp. In subsequent step S63, the action identification result ωa is output. For example, the action identification result ωa is displayed as text on a monitor (not shown) connected to the server 12, or is output to a speaker (not shown) connected to the server 12 by voice, or both of them. Or output by means. However, the action identification result ωa may be transmitted (output) by e-mail to another terminal (computer or telephone). In addition to simply outputting the action identification result ωa, the identification result (posture and action) may be labeled on the acceleration data.

そして、ステップS65では、姿勢・行動識別処理を終了するかどうかを判断する。ここでは、ユーザからの終了指示が入力されたり、全ての加速度データについての処理を終了したりしたかどうかを判断するのである。ステップS65で“NO”であれば、つまり姿勢・行動識別処理の終了でなければ、そのままステップS53に戻って、次のサンプルについて姿勢・行動識別処理を実行する。一方、ステップS65で“YES”であれば、つまり姿勢・行動識別処理の終了であれば、そのまま姿勢・行動識別処理を終了する。   In step S65, it is determined whether or not the posture / behavior identification process is to be terminated. Here, it is determined whether or not an end instruction from the user is input or whether the processing for all acceleration data is ended. If “NO” in the step S65, that is, if the posture / action identifying process is not ended, the process returns to the step S53 as it is, and the posture / action identifying process is executed for the next sample. On the other hand, if “YES” in the step S65, that is, if the posture / behavior identification processing is ended, the posture / behavior identification processing is ended as it is.

この実施例によれば、姿勢を識別した後に、その姿勢クラスの中で取り得る1の行動を識別するので、被験者の行動を正確に識別することができる。また、姿勢および行動の識別には、それぞれに適切なセンサ集合を用いるので、姿勢および行動の識別をより正確に行うことができる。   According to this embodiment, since one action that can be taken in the posture class is identified after the posture is identified, the behavior of the subject can be accurately identified. In addition, since a proper sensor set is used for posture and action identification, posture and action can be more accurately identified.

なお、この実施例では、携帯端末で加速データを収集して、これをサーバに送信して、サーバが行動を識別するようにしたが、これに限定される必要はない。姿勢パターンや行動パターンのデータを携帯端末の内部メモリに記憶しておけば、携帯端末で行動を識別することもできる。つまり、オンラインとオフラインとに拘わらず、姿勢および行動を識別することができる。   In this embodiment, acceleration data is collected by the mobile terminal and transmitted to the server so that the server identifies the action. However, the present invention is not limited to this. By storing posture pattern and action pattern data in the internal memory of the mobile terminal, the mobile terminal can also identify the action. That is, it is possible to identify postures and actions regardless of online or offline.

また、この実施例では、携帯端末から一定時間毎に加速度データを含む送信データをサーバに送信するようにしたが、すべての加速度データを収集した後に、送信データをサーバに送信するようにしてもよい。ここで、すべての加速度データは、1日における被験者の行動に対する加速度データ、携帯端末のメモリに記憶可能な量の加速度データ、または、携帯端末を駆動する電池の残量で記録可能な量の加速度データを意味する。   In this embodiment, transmission data including acceleration data is transmitted from the mobile terminal to the server at regular intervals. However, after collecting all acceleration data, the transmission data may be transmitted to the server. Good. Here, all the acceleration data is acceleration data for the behavior of the subject in one day, acceleration data that can be stored in the memory of the mobile terminal, or acceleration that can be recorded by the remaining amount of the battery that drives the mobile terminal. Means data.

さらに、この実施例では、携帯端末から中継器を通してサーバに送信データを送信するようにしたが、中継器を通さずに、携帯端末から直接サーバに送信データを送信するようにしてもよい。   Furthermore, in this embodiment, the transmission data is transmitted from the portable terminal to the server through the repeater. However, the transmission data may be transmitted directly from the portable terminal to the server without passing through the repeater.

さらにまた、この実施例では、10種類の行動を3種類の姿勢に分類して、姿勢および行動を識別するようにしたが、姿勢は2種類以上であれば、4種類以上であってもよく、行動の種類は2種類以上であれば、11種類以上であってもよい。つまり、実施例の姿勢や行動に限定されるべきではない。   Furthermore, in this embodiment, 10 types of actions are classified into 3 types of postures to identify postures and behaviors. However, if there are 2 or more postures, 4 or more types may be used. As long as there are two or more types of actions, there may be eleven or more types. That is, it should not be limited to the posture and action of the embodiment.

また、この実施例では、1人の被験者についての行動を識別する場合について説明した。しかし、被験者は複数であってもよい。かかる場合には、被験者毎に、姿勢識別用センサ集合および行動識別用センサ集合を作成し、被験者に対応するセンサ集合を用いて姿勢および行動を識別するようにすればよい。また、各被験者の加速度データの平均を取るようにすれば、すべての被験者に使用可能な姿勢識別用センサ集合および行動識別用センサ集合を作成することができる。かかる場合には、データベースの記憶容量を節約することができる。   Further, in this embodiment, a case has been described in which an action for one subject is identified. However, there may be a plurality of subjects. In such a case, a posture identification sensor set and a behavior identification sensor set may be created for each subject, and the posture and behavior may be identified using the sensor set corresponding to the subject. Further, by taking the average of the acceleration data of each subject, it is possible to create a posture identifying sensor set and a behavior identifying sensor set that can be used for all subjects. In such a case, the storage capacity of the database can be saved.

さらに、この実施例では、被験者の行動(動作)を検出するセンサとして加速度センサを用いた場合についてのみ説明したが、加速度センサに代えて、ジャイロセンサ(3軸)を用いることもできる。この場合には、ジャイロセンサで検出された角速度に基づいて、スライディング・ウィンドウ毎に、平均、標準偏差、エネルギ、周波数領域エントロピおよび相関関係の5種類の特徴量が算出される。   Further, in this embodiment, only the case where the acceleration sensor is used as the sensor for detecting the behavior (motion) of the subject has been described, but a gyro sensor (three axes) can be used instead of the acceleration sensor. In this case, on the basis of the angular velocity detected by the gyro sensor, five types of feature amounts of average, standard deviation, energy, frequency domain entropy, and correlation are calculated for each sliding window.

図1はこの発明の行動識別システムの一例を示す図解図である。FIG. 1 is an illustrative view showing one example of an action identification system of the present invention. 図2は図1のセンサ装置および中継器の電気的な構成を示す図解図である。FIG. 2 is an illustrative view showing an electrical configuration of the sensor device and the repeater of FIG. 図3は図1のセンサ装置および中継器を被験者が装着した様子を示す図解図である。FIG. 3 is an illustrative view showing a state in which the subject wears the sensor device and the repeater of FIG. 図4は右手首の加速度のデータを一定時間のスライディング・ウィンドウで分割する例を示す図解図である。FIG. 4 is an illustrative view showing an example in which right wrist acceleration data is divided by a sliding window of a fixed time. 図5は各クラス分類器における、最も高い識別結果を得る加速度センサの装着位置の組み合わせと、その識別結果とを示す棒グラフである。FIG. 5 is a bar graph showing a combination of acceleration sensor mounting positions for obtaining the highest discrimination result in each classifier and the discrimination result. 図6はクラス分類器毎に最も高い識別結果を得る加速度センサの組み合わせを求め、その識別結果をプロットして得られた折れ線グラフである。FIG. 6 is a line graph obtained by obtaining a combination of acceleration sensors for obtaining the highest discrimination result for each classifier and plotting the discrimination results. 図7はクラス分類器としてSVMを用いた場合に、利き手や利き足が識別結果に及ぼす影響を示す棒グラフである。FIG. 7 is a bar graph showing the effect of dominant hand or dominant foot on the identification result when SVM is used as a classifier. 図8は図6に示したSVMの結果に関して、10種類の行動別に識別結果を示した折れ線グラフである。FIG. 8 is a line graph showing identification results for each of the ten types of actions with respect to the SVM results shown in FIG. 図9は全ての加速度センサを用いた場合の各行動に対する識別結果の混同行列を示す図解図である。FIG. 9 is an illustrative view showing a confusion matrix of identification results for each action when all acceleration sensors are used. 図10は両手首と両足首とに装着された加速度センサを用いた場合の各行動に対する識別結果の混同行列を示す図解図である。FIG. 10 is an illustrative view showing a confusion matrix of identification results for each action when using acceleration sensors attached to both wrists and both ankles. 図11は全ての加速度センサを用いた場合の正準特徴空間における第1,第2変数上での散布図である。FIG. 11 is a scatter diagram on the first and second variables in the canonical feature space when all the acceleration sensors are used. 図12は両手首と両足首とに装着された加速度センサを用いた場合の正準特徴空間における第1,第2変数上での散布図である。FIG. 12 is a scatter diagram on the first and second variables in the canonical feature space when using acceleration sensors attached to both wrists and both ankles. 図13は両手首と両足首とに装着された加速度センサを用いた場合における、歩行および立位の姿勢に応じた正準特徴空間での行動毎の分布を示す図解図である。FIG. 13 is an illustrative view showing a distribution for each action in the canonical feature space according to the posture of walking and standing when using acceleration sensors mounted on both wrists and both ankles. 図14は両手首と両足首とに装着された加速度センサを用いた場合における、座位の姿勢に応じた正準特徴空間での行動毎の分布を示す図解図である。FIG. 14 is an illustrative view showing a distribution for each action in the canonical feature space corresponding to the posture of the sitting position when using acceleration sensors attached to both wrists and both ankles. 図15は全てのセンサ装置を用いた場合における、姿勢の識別結果および各姿勢の中で取り得る行動の識別結果を示す図解図である。FIG. 15 is an illustrative view showing identification results of postures and identification results of actions that can be taken in each posture when all sensor devices are used. 図16は両手首と両足首とに装着された加速度センサを用いた場合における、姿勢の識別結果および各姿勢の中で取り得る行動の識別結果を示す図解図である。FIG. 16 is an illustrative view showing posture identification results and action identification results that can be taken in each posture when using acceleration sensors mounted on both wrists and both ankles. 図17は両手首と両足首とに装着された加速度センサを用いた場合における、サンプリング周波数毎の識別率の変化を示す折れ線グラフである。FIG. 17 is a line graph showing changes in the identification rate for each sampling frequency when using acceleration sensors mounted on both wrists and both ankles. 図18は両手首と両足首とに装着された加速度センサを用いた場合における、サンプリング周波数6.25Hzでの識別結果を示す図解図である。FIG. 18 is an illustrative view showing a discrimination result at a sampling frequency of 6.25 Hz when using acceleration sensors attached to both wrists and both ankles. 図19は図1に示すサーバの姿勢・行動識別特徴量学習処理の一部を示すフロー図である。FIG. 19 is a flowchart showing a part of the server attitude / behavior identification feature amount learning process shown in FIG. 図20は図1に示すサーバの姿勢・行動識別特徴量学習処理の他の一部であって、図19に後続するフロー図である。20 is another part of the server attitude / behavior identification feature amount learning process shown in FIG. 1, and is a flowchart subsequent to FIG. 図21は図1に示すサーバの姿勢・行動識別特徴量学習処理のその他の一部であって、図20に後続するフロー図である。FIG. 21 is another part of the server attitude / behavior identification feature amount learning process shown in FIG. 1, and is a flowchart subsequent to FIG. 図22は図1に示すサーバの姿勢・行動識別処理を示すフロー図である。FIG. 22 is a flowchart showing the server attitude / behavior identification processing shown in FIG.

符号の説明Explanation of symbols

10 …行動識別システム
12 …サーバ
14 …ネットワーク
16(16a,16b,16c,16d,16e,16f) …センサ装置
18 …中継器
20,22,24 …データベース
30,50 …CPU
32 …加速度センサ
34,54 …RAM
36,56 …Bluetoothモジュール
52 …インターフェイス
DESCRIPTION OF SYMBOLS 10 ... Action identification system 12 ... Server 14 ... Network 16 (16a, 16b, 16c, 16d, 16e, 16f) ... Sensor apparatus 18 ... Repeater 20, 22, 24 ... Database 30, 50 ... CPU
32 ... Acceleration sensor 34, 54 ... RAM
36, 56 ... Bluetooth module 52 ... Interface

Claims (6)

被験者に装着された複数の動作検出センサからの動作検出データを検出する検出手段、
前記検出手段によって検出された動作検出データに基づいて、前記被験者の姿勢を識別するための姿勢特徴量を算出する姿勢特徴量算出手段、
前記姿勢特徴量算出手段によって算出された姿勢特徴量に基づいて、前記被験者の姿勢を識別する姿勢識別手段、
前記検出手段によって検出された動作検出データに基づいて、前記姿勢識別手段によって識別された姿勢の中で取り得る行動を識別するための行動特徴量を算出する行動特徴量算出手段、および
前記行動特徴量算出手段によって算出された行動特徴量に基づいて、前記姿勢識別手段によって識別された姿勢の中で取り得る複数の行動から前記被験者の行動を識別する行動識別手段を備える、行動識別装置。
Detection means for detecting motion detection data from a plurality of motion detection sensors attached to the subject;
Posture feature amount calculating means for calculating posture feature amount for identifying the posture of the subject based on the motion detection data detected by the detection portion;
Posture identification means for identifying the posture of the subject based on the posture feature value calculated by the posture feature value calculation means;
An action feature amount calculating means for calculating an action feature amount for identifying an action that can be taken in the posture identified by the posture identifying means based on the motion detection data detected by the detecting means; and the action feature A behavior identification device comprising behavior identification means for identifying the behavior of the subject from a plurality of behaviors that can be taken in the posture identified by the posture identification means based on the behavior feature amount calculated by the amount calculation means.
前記複数の動作検出センサは、前記被験者の複数の異なる部位に装着され、
前記姿勢特徴量算出手段は、すべての前記動作検出センサのうち、前記姿勢識別手段によって識別された姿勢の中で取り得る行動を識別するための、全部のまたは一部の前記動作検出センサからの動作検出データに基づいて前記姿勢特徴量を算出する、請求項1記載の行動識別装置。
The plurality of motion detection sensors are attached to a plurality of different parts of the subject,
The posture feature amount calculating means is configured to detect from all or a part of the motion detection sensors for identifying actions that can be taken in the posture identified by the posture identification means among all the motion detection sensors. The behavior identification device according to claim 1, wherein the posture feature amount is calculated based on motion detection data.
前記行動特徴量算出手段は、前記すべての動作検出センサのうち、識別する行動に応じた、全部のまたは一部の前記動作検出センサからの動作検出データに基づいて前記行動特徴量を算出する、請求項2記載の行動識別装置。   The behavior feature amount calculating means calculates the behavior feature amount based on motion detection data from all or a part of the motion detection sensors according to the behavior to be identified among all the motion detection sensors. The action identification device according to claim 2. 前記複数の動作検出センサは、前記被験者の複数の異なる部位に装着され、
前記行動特徴量算出手段は、すべての前記動作検出センサのうち、識別する行動に応じた、全部のまたは一部の前記動作検出センサからの動作検出データに基づいて前記行動特徴量を算出する、請求項1記載の行動識別装置。
The plurality of motion detection sensors are attached to a plurality of different parts of the subject,
The behavior feature amount calculating means calculates the behavior feature amount based on motion detection data from all or a part of the motion detection sensors according to a behavior to be identified among all the motion detection sensors. The action identification device according to claim 1.
被験者に所持ないし装着された携帯端末と行動識別装置とを備える行動識別システムであって、
前記携帯端末は、
前記被験者に装着された複数の動作検出センサからの動作検出データを検出する検出手段、および
前記検出手段によって検出された動作検出データを前記行動識別装置に送信する送信手段を備え、
前記行動識別装置は、
前記送信手段によって送信された動作検出データを受信する受信手段、
前記受信手段によって受信された動作検出データに基づいて、前記被験者の姿勢を識別するための姿勢特徴量を算出する姿勢特徴量算出手段、
前記姿勢特徴量算出手段によって算出された姿勢特徴量に基づいて、前記被験者の姿勢を識別する姿勢識別手段、
前記受信手段によって受信された動作検出データに基づいて、前記姿勢識別手段によって識別された姿勢の中で取り得る行動を識別するための行動特徴量を算出する行動特徴量算出手段、および
前記行動特徴量算出手段によって算出された行動特徴量に基づいて、前記姿勢識別手段によって識別された姿勢の中で取り得る複数の行動から前記被験者の行動を識別する行動識別手段を備える、行動識別システム。
A behavior identification system comprising a portable terminal possessed or worn by a subject and a behavior identification device,
The portable terminal is
Detection means for detecting motion detection data from a plurality of motion detection sensors attached to the subject, and transmission means for transmitting the motion detection data detected by the detection means to the behavior identification device,
The behavior identification device includes:
Receiving means for receiving motion detection data transmitted by the transmitting means;
Posture feature value calculating means for calculating posture feature value for identifying the posture of the subject based on the motion detection data received by the receiving means;
Posture identification means for identifying the posture of the subject based on the posture feature value calculated by the posture feature value calculation means;
An action feature amount calculating means for calculating an action feature amount for identifying an action that can be taken in the posture identified by the posture identifying means based on the motion detection data received by the receiving means; and the action feature A behavior identification system comprising behavior identification means for identifying the behavior of the subject from a plurality of behaviors that can be taken in the posture identified by the posture identification means based on the behavior feature amount calculated by the quantity calculation means.
被験者の姿勢および行動を識別するコンピュータの行動識別方法であって、
(a)前記被験者に装着された複数の動作検出センサからの動作検出データを検出し、
(b)前記ステップ(a)によって検出された動作検出データに基づいて、前記被験者の姿勢を識別するための姿勢特徴量を算出し、
(c)前記ステップ(b)によって算出された姿勢特徴量に基づいて、前記被験者の姿勢を識別し、
(d)前記ステップ(a)によって検出された動作検出データに基づいて、前記ステップ(c)によって識別された姿勢の中で取り得る行動を識別するための行動特徴量を算出し、そして
(e)前記ステップ(d)によって算出された行動特徴量に基づいて、前記ステップ(c)によって識別された姿勢の中で取り得る複数の行動から前記被験者の行動を識別する、行動識別方法。
A computer behavior identification method for identifying the posture and behavior of a subject,
(a) detecting motion detection data from a plurality of motion detection sensors attached to the subject;
(b) Based on the motion detection data detected by the step (a), calculate a posture feature amount for identifying the posture of the subject,
(c) based on the posture feature amount calculated in step (b), identifying the posture of the subject,
(d) based on the motion detection data detected in the step (a), calculating an action feature amount for identifying an action that can be taken in the posture identified in the step (c); and
(e) A behavior identification method for identifying the behavior of the subject from a plurality of behaviors that can be taken in the posture identified in the step (c) based on the behavior feature amount calculated in the step (d).
JP2007210611A 2007-08-13 2007-08-13 Action identification device, action identification system, and action identification method Expired - Fee Related JP4992043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007210611A JP4992043B2 (en) 2007-08-13 2007-08-13 Action identification device, action identification system, and action identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007210611A JP4992043B2 (en) 2007-08-13 2007-08-13 Action identification device, action identification system, and action identification method

Publications (2)

Publication Number Publication Date
JP2009039466A true JP2009039466A (en) 2009-02-26
JP4992043B2 JP4992043B2 (en) 2012-08-08

Family

ID=40440863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007210611A Expired - Fee Related JP4992043B2 (en) 2007-08-13 2007-08-13 Action identification device, action identification system, and action identification method

Country Status (1)

Country Link
JP (1) JP4992043B2 (en)

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010286344A (en) * 2009-06-11 2010-12-24 Kddi Corp Method and system for estimating moving condition of portable terminal device
JP2011030643A (en) * 2009-07-30 2011-02-17 Npo Jukunen Taiiku Daigaku Research Center Moving form discrimination method, moving form discrimination apparatus, and calorie consumption calculating method
JP2011123832A (en) * 2009-12-14 2011-06-23 Nippon Telegr & Teleph Corp <Ntt> Behavior/state monitoring method and program
JP2011156132A (en) * 2010-02-01 2011-08-18 Nec Corp Mode identification device, mode identification method, and program
JP2011177278A (en) * 2010-02-26 2011-09-15 Tokyo Institute Of Technology Gait disorder automatic analysis system
CN102549624A (en) * 2009-07-29 2012-07-04 莫韦公司 System and method for counting an elementary movement of a person
JP2013031625A (en) * 2011-07-07 2013-02-14 Ricoh Co Ltd Method and system for classifying movement of moving body
JP2013039300A (en) * 2011-08-19 2013-02-28 Toyama Prefecture Patient behavior identification method and patient behavior detection system
WO2013157332A1 (en) * 2012-04-17 2013-10-24 日本電気株式会社 Activity identification device, activity identification system and activity identification program
WO2014030295A1 (en) * 2012-08-24 2014-02-27 パナソニック 株式会社 Body movement-detecting device and electric stimulation device provided with same
JP2014504932A (en) * 2011-02-10 2014-02-27 ドーサヴィ ピーティーワイ. エルティーディー. Apparatus and method for classifying mammalian body orientation
JP2014086038A (en) * 2012-10-26 2014-05-12 System Craft Inc Action recognition system
JP2014128459A (en) * 2012-12-28 2014-07-10 Kddi Corp User interface device, program and method capable of timely presenting behavior correspondence information
JP2014176584A (en) * 2013-03-15 2014-09-25 Fujitsu Ltd Signal processor, signal processing method, and signal processing program
KR101483218B1 (en) 2012-08-08 2015-01-15 한국과학기술원 Activity diagnosis apparatus
JP2015057691A (en) * 2013-08-02 2015-03-26 ノキア コーポレイション Method, apparatus and computer program for activity recognition
JP2015066155A (en) * 2013-09-27 2015-04-13 花王株式会社 Method for analyzing walking characteristic
JP2015097565A (en) * 2013-11-18 2015-05-28 富士通株式会社 Posture classification method, information processing apparatus, and program
JP2015111332A (en) * 2013-12-06 2015-06-18 富士通株式会社 Attitude detection device, attitude detection method, and attitude detection program
WO2016006479A1 (en) * 2014-07-07 2016-01-14 オムロンヘルスケア株式会社 Activity amount measuring device, activity amount measuring method, activity amount measuring program
JP2016035760A (en) * 2015-10-07 2016-03-17 ソニー株式会社 Information processor, information processing method and computer program
WO2016056233A1 (en) * 2014-10-08 2016-04-14 セイコーエプソン株式会社 Motion measuring device, motion measuring method, and motion measuring program
JP2016083063A (en) * 2014-10-23 2016-05-19 国立大学法人 筑波大学 Evaluation value calculation program, evaluation value calculation method, and information processing device
JP2016522049A (en) * 2013-05-31 2016-07-28 ナイキ イノベイト シーブイ Dynamic sampling
JP2016150102A (en) * 2015-02-17 2016-08-22 日本電信電話株式会社 Sequential attitude identification device, autonomic nerve function information acquisition device, method, and program
JP2016531642A (en) * 2013-10-30 2016-10-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Pregnancy monitoring system and method
JP2017084370A (en) * 2012-07-20 2017-05-18 フェイスブック,インク. Method, storage medium and system for adjusting state of mobile device based on user's intention and/or identification information
GB2494356B (en) * 2010-07-09 2017-05-31 Univ California System comprised of sensors, communications, processing and inference on servers and other devices
CN107408151A (en) * 2015-03-27 2017-11-28 英特尔公司 Use the motion tracking of electronic equipment
CN107422327A (en) * 2017-06-20 2017-12-01 何晶 Gun firing position identifying system and method
JP2018000871A (en) * 2016-07-08 2018-01-11 国立大学法人岩手大学 Living body movement identification system and living body movement identification method
KR101827885B1 (en) * 2010-08-06 2018-02-12 삼성전자주식회사 Apparatus and Method for measuring user`s action using mobile terminal
WO2018127947A1 (en) * 2017-01-04 2018-07-12 富士通株式会社 Information processing device, information processing system, and information processing method
JP2019500632A (en) * 2015-09-08 2019-01-10 ブラウン ゲーエムベーハー Determining the user's currently treated body part
JP2019514448A (en) * 2016-03-31 2019-06-06 ゾール メディカル コーポレイションZOLL Medical Corporation System and method for tracking patient movement
WO2019230119A1 (en) * 2018-05-31 2019-12-05 ソニー株式会社 Information processing apparatus, information processing system, information processing method, and program
JP2019535334A (en) * 2016-01-25 2019-12-12 ビーテミア インコーポレイテッド Gait profiler system and method
WO2020049621A1 (en) 2018-09-03 2020-03-12 富士通株式会社 Walking state determination program, walking state determination method, and information processing device
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
JP2020149105A (en) * 2019-03-11 2020-09-17 本田技研工業株式会社 Acquisition device of sensor arrangement mode
JP2020194218A (en) * 2019-05-24 2020-12-03 株式会社日立製作所 Correct answer data creation assisting system and correct answer data creation assisting method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11171904B1 (en) 2020-05-06 2021-11-09 International Business Machines Corporation Message authentication using generative adversarial networks

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08240450A (en) * 1995-03-03 1996-09-17 Japan Aviation Electron Ind Ltd Action pattern obtaining device and momentum analyzer
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2001198110A (en) * 2000-01-18 2001-07-24 Microstone Corp Body action sensing device
JP2004184351A (en) * 2002-12-06 2004-07-02 Toshiba Corp Operation information measuring system and operation information measuring method
JP2005157942A (en) * 2003-11-28 2005-06-16 National Institute Of Advanced Industrial & Technology Moving body motion data segmentation processor
JP2007160076A (en) * 2005-11-15 2007-06-28 Univ Nihon Human posture and motion discrimination apparatus and energy consumption calculation apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08240450A (en) * 1995-03-03 1996-09-17 Japan Aviation Electron Ind Ltd Action pattern obtaining device and momentum analyzer
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2001198110A (en) * 2000-01-18 2001-07-24 Microstone Corp Body action sensing device
JP2004184351A (en) * 2002-12-06 2004-07-02 Toshiba Corp Operation information measuring system and operation information measuring method
JP2005157942A (en) * 2003-11-28 2005-06-16 National Institute Of Advanced Industrial & Technology Moving body motion data segmentation processor
JP2007160076A (en) * 2005-11-15 2007-06-28 Univ Nihon Human posture and motion discrimination apparatus and energy consumption calculation apparatus

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010286344A (en) * 2009-06-11 2010-12-24 Kddi Corp Method and system for estimating moving condition of portable terminal device
CN102549624A (en) * 2009-07-29 2012-07-04 莫韦公司 System and method for counting an elementary movement of a person
JP2013500102A (en) * 2009-07-29 2013-01-07 モベア System and method for counting basic human actions
JP2011030643A (en) * 2009-07-30 2011-02-17 Npo Jukunen Taiiku Daigaku Research Center Moving form discrimination method, moving form discrimination apparatus, and calorie consumption calculating method
JP2011123832A (en) * 2009-12-14 2011-06-23 Nippon Telegr & Teleph Corp <Ntt> Behavior/state monitoring method and program
JP2011156132A (en) * 2010-02-01 2011-08-18 Nec Corp Mode identification device, mode identification method, and program
JP2011177278A (en) * 2010-02-26 2011-09-15 Tokyo Institute Of Technology Gait disorder automatic analysis system
GB2494356B (en) * 2010-07-09 2017-05-31 Univ California System comprised of sensors, communications, processing and inference on servers and other devices
US9999395B2 (en) 2010-08-06 2018-06-19 Samsung Electronics Co., Ltd. Apparatus and method for detecting user action
KR101827885B1 (en) * 2010-08-06 2018-02-12 삼성전자주식회사 Apparatus and Method for measuring user`s action using mobile terminal
JP2014504932A (en) * 2011-02-10 2014-02-27 ドーサヴィ ピーティーワイ. エルティーディー. Apparatus and method for classifying mammalian body orientation
US10126108B2 (en) 2011-02-10 2018-11-13 dorsaVi Ltd Apparatus and method for classifying orientation of a body of a mammal
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
JP2013031625A (en) * 2011-07-07 2013-02-14 Ricoh Co Ltd Method and system for classifying movement of moving body
JP2013039300A (en) * 2011-08-19 2013-02-28 Toyama Prefecture Patient behavior identification method and patient behavior detection system
WO2013157332A1 (en) * 2012-04-17 2013-10-24 日本電気株式会社 Activity identification device, activity identification system and activity identification program
JP2017084370A (en) * 2012-07-20 2017-05-18 フェイスブック,インク. Method, storage medium and system for adjusting state of mobile device based on user's intention and/or identification information
KR101483218B1 (en) 2012-08-08 2015-01-15 한국과학기술원 Activity diagnosis apparatus
JP2014042605A (en) * 2012-08-24 2014-03-13 Panasonic Corp Body-motion detection device, and electro-stimulator having the same
WO2014030295A1 (en) * 2012-08-24 2014-02-27 パナソニック 株式会社 Body movement-detecting device and electric stimulation device provided with same
JP2014086038A (en) * 2012-10-26 2014-05-12 System Craft Inc Action recognition system
JP2014128459A (en) * 2012-12-28 2014-07-10 Kddi Corp User interface device, program and method capable of timely presenting behavior correspondence information
JP2014176584A (en) * 2013-03-15 2014-09-25 Fujitsu Ltd Signal processor, signal processing method, and signal processing program
US10398358B2 (en) 2013-05-31 2019-09-03 Nike, Inc. Dynamic sampling
JP2016522049A (en) * 2013-05-31 2016-07-28 ナイキ イノベイト シーブイ Dynamic sampling
US11103162B2 (en) 2013-08-02 2021-08-31 Nokia Technologies Oy Method, apparatus and computer program product for activity recognition
JP2015057691A (en) * 2013-08-02 2015-03-26 ノキア コーポレイション Method, apparatus and computer program for activity recognition
JP2015066155A (en) * 2013-09-27 2015-04-13 花王株式会社 Method for analyzing walking characteristic
JP2016531642A (en) * 2013-10-30 2016-10-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Pregnancy monitoring system and method
US11246563B2 (en) 2013-10-30 2022-02-15 Koninklijke Philips N.V. Pregnancy monitoring system and method
JP2015097565A (en) * 2013-11-18 2015-05-28 富士通株式会社 Posture classification method, information processing apparatus, and program
JP2015111332A (en) * 2013-12-06 2015-06-18 富士通株式会社 Attitude detection device, attitude detection method, and attitude detection program
WO2016006479A1 (en) * 2014-07-07 2016-01-14 オムロンヘルスケア株式会社 Activity amount measuring device, activity amount measuring method, activity amount measuring program
JP2016016067A (en) * 2014-07-07 2016-02-01 オムロンヘルスケア株式会社 Activity amount measuring device, activity amount measuring method, and activity amount measuring program
WO2016056233A1 (en) * 2014-10-08 2016-04-14 セイコーエプソン株式会社 Motion measuring device, motion measuring method, and motion measuring program
JP2016083063A (en) * 2014-10-23 2016-05-19 国立大学法人 筑波大学 Evaluation value calculation program, evaluation value calculation method, and information processing device
US11350879B2 (en) 2015-02-17 2022-06-07 Nippon Telegraph And Telephone Corporation Device and method for sequential posture identification and autonomic function information acquisition
JP2016150102A (en) * 2015-02-17 2016-08-22 日本電信電話株式会社 Sequential attitude identification device, autonomic nerve function information acquisition device, method, and program
JP2018516099A (en) * 2015-03-27 2018-06-21 インテル コーポレイション Motion tracking using electronic devices
US10799118B2 (en) 2015-03-27 2020-10-13 Intel Corporation Motion tracking using electronic devices
CN107408151A (en) * 2015-03-27 2017-11-28 英特尔公司 Use the motion tracking of electronic equipment
JP2019500632A (en) * 2015-09-08 2019-01-10 ブラウン ゲーエムベーハー Determining the user's currently treated body part
JP2016035760A (en) * 2015-10-07 2016-03-17 ソニー株式会社 Information processor, information processing method and computer program
JP2019535334A (en) * 2016-01-25 2019-12-12 ビーテミア インコーポレイテッド Gait profiler system and method
JP7092674B2 (en) 2016-01-25 2022-06-28 ビーテミア インコーポレイテッド Walking profiler system and method
JP2019514448A (en) * 2016-03-31 2019-06-06 ゾール メディカル コーポレイションZOLL Medical Corporation System and method for tracking patient movement
JP2018000871A (en) * 2016-07-08 2018-01-11 国立大学法人岩手大学 Living body movement identification system and living body movement identification method
WO2018127947A1 (en) * 2017-01-04 2018-07-12 富士通株式会社 Information processing device, information processing system, and information processing method
JPWO2018127947A1 (en) * 2017-01-04 2019-11-07 富士通株式会社 Information processing apparatus, information processing system, and information processing method
CN107422327A (en) * 2017-06-20 2017-12-01 何晶 Gun firing position identifying system and method
WO2019230119A1 (en) * 2018-05-31 2019-12-05 ソニー株式会社 Information processing apparatus, information processing system, information processing method, and program
WO2020049621A1 (en) 2018-09-03 2020-03-12 富士通株式会社 Walking state determination program, walking state determination method, and information processing device
JP2020149105A (en) * 2019-03-11 2020-09-17 本田技研工業株式会社 Acquisition device of sensor arrangement mode
JP7178931B2 (en) 2019-03-11 2022-11-28 本田技研工業株式会社 Acquisition device for sensor arrangement mode
JP2020194218A (en) * 2019-05-24 2020-12-03 株式会社日立製作所 Correct answer data creation assisting system and correct answer data creation assisting method
JP7152357B2 (en) 2019-05-24 2022-10-12 株式会社日立製作所 Correct data creation support system and correct data creation support method

Also Published As

Publication number Publication date
JP4992043B2 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
JP4992043B2 (en) Action identification device, action identification system, and action identification method
Wang et al. Human activity recognition with user-free accelerometers in the sensor networks
Hakim et al. Smartphone based data mining for fall detection: Analysis and design
US9891701B2 (en) Apparatus, system, and method for automatic identification of sensor placement
Mubashir et al. A survey on fall detection: Principles and approaches
Gupta et al. Feature selection and activity recognition system using a single triaxial accelerometer
Riboni et al. Context-aware activity recognition through a combination of ontological and statistical reasoning
Frank et al. Reliable real-time recognition of motion related human activities using MEMS inertial sensors
Andò et al. An event polarized paradigm for ADL detection in AAL context
JP2009134590A (en) Action identification system, action identification method, optimum sensor set determination method and optimum parameter determination method
Ahmed et al. An approach to classify human activities in real-time from smartphone sensor data
Nematallah et al. Logistic model tree for human activity recognition using smartphone-based inertial sensors
Malshika Welhenge et al. Human activity classification using long short-term memory network
Shinmoto Torres et al. Evaluation of wearable sensor tag data segmentation approaches for real time activity classification in elderly
Khokhlov et al. Design of activity recognition systems with wearable sensors
Andreu et al. An evolving machine learning method for human activity recognition systems
Kavuncuoğlu et al. Investigating the performance of wearable motion sensors on recognizing falls and daily activities via machine learning
Wu et al. A multi-sensor fall detection system based on multivariate statistical process analysis
Anceschi et al. SaveMeNow. AI: a Machine Learning based wearable device for fall detection in a workplace
Khatun et al. Human activity recognition using smartphone sensor based on selective classifiers
Thu et al. Real-time wearable-device based activity recognition using machine learning methods
Minh et al. Evaluation of smartphone and smartwatch accelerometer data in activity classification
Uslu et al. Human activity monitoring with wearable sensors and hybrid classifiers
Bashir et al. The effect of window length on accuracy of smartphone-based activity recognition.
Samiei-Zonouz et al. Smartphone-centric human posture monitoring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4992043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees