JP5590301B2 - Behavior determination device, behavior determination system, terminal device, behavior determination method, and program - Google Patents

Behavior determination device, behavior determination system, terminal device, behavior determination method, and program Download PDF

Info

Publication number
JP5590301B2
JP5590301B2 JP2010077109A JP2010077109A JP5590301B2 JP 5590301 B2 JP5590301 B2 JP 5590301B2 JP 2010077109 A JP2010077109 A JP 2010077109A JP 2010077109 A JP2010077109 A JP 2010077109A JP 5590301 B2 JP5590301 B2 JP 5590301B2
Authority
JP
Japan
Prior art keywords
peak
behavior
determination
value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010077109A
Other languages
Japanese (ja)
Other versions
JP2011206274A (en
Inventor
雄樹 千葉
陽司 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010077109A priority Critical patent/JP5590301B2/en
Publication of JP2011206274A publication Critical patent/JP2011206274A/en
Application granted granted Critical
Publication of JP5590301B2 publication Critical patent/JP5590301B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人物等の行動を判定するために用いられる、行動判定装置、行動判定システム、端末装置、行動判定方法、およびプログラムに関する。   The present invention relates to a behavior determination device, a behavior determination system, a terminal device, a behavior determination method, and a program used for determining a behavior of a person or the like.

近年、人物によって携帯または装着されているセンサを用いて、その人物の行動をセンシングし、得られたセンサデータから、測定対象となった人物(対象者)の行動を判定することで、健康管理または情報推薦等を行うサービスが、試みられている。また、このようなサービスの試みは、年々増加している。   In recent years, using a sensor carried or worn by a person, the person's behavior is sensed, and from the obtained sensor data, the behavior of the person to be measured (target person) is determined, thereby managing health. Or, a service for recommending information has been attempted. In addition, such service attempts are increasing year by year.

上述のサービスを行うために利用されるセンサとしては、加速度センサが挙げられる。加速度センサを用いて対象者の行動を判定する場合、加速度センサは、固定された位置で、対象者によって携帯される、または対象者の身体に装着される。そして、行動判定においては、先ず、得られた加速度センサデータから一定時間分のデータが切り出され、切り出されたデータから特徴量が算出される。次に、算出された特徴量と、予め設定された閾値とを比較し、両者の関係から、対象者の実際の行動が判定される。一般的には、「歩行」、「走行」、「階段昇降」といった判定対象となる複数の行動のうち、いずれに当たるかが判定される。以後、「歩行」、「走行」、「階段昇降」といった、移動を伴う行動を総称して「行動」と呼ぶこととする。   An acceleration sensor is mentioned as a sensor utilized in order to perform the above-mentioned service. When determining the behavior of the subject using the acceleration sensor, the acceleration sensor is carried by the subject or attached to the subject's body at a fixed position. In the action determination, first, data for a predetermined time is cut out from the obtained acceleration sensor data, and a feature amount is calculated from the cut out data. Next, the calculated feature amount is compared with a preset threshold value, and the actual action of the subject is determined from the relationship between the two. In general, it is determined which of a plurality of actions to be determined such as “walking”, “running”, and “stairs up / down” corresponds to. Hereinafter, actions involving movement, such as “walking”, “running”, and “step up / down” are collectively referred to as “actions”.

このような一般的な行動を判定するシステムの例を開示する文献として、特許文献1が挙げられる。特許文献1には、対象者の腰部に固定した加速度センサを用いて、対象者の「歩行」または「階段上昇」などの行動を判定するシステムが開示されている。特許文献1に開示されたシステムは、加速度センサデータから、対象者が行動したときに生じる振動の振動強度と重心の移動とを求めることで、対象者の行動を判別する。   Patent document 1 is mentioned as literature which discloses the example of the system which determines such a general action. Patent Document 1 discloses a system for determining an action such as “walking” or “step up” of an object person using an acceleration sensor fixed to the waist part of the object person. The system disclosed in Patent Document 1 determines the behavior of the subject by obtaining the vibration intensity of the vibration generated when the subject acts and the movement of the center of gravity from the acceleration sensor data.

しかしながら、特許文献1に開示されたシステムでは、対象者は、センサを指定された位置に装着するか、または装着位置をシステムの管理者に明示的に申告するか、する必要がある。このように、決められた位置にセンサを装着したり、装着位置を申告したり、することは、対象者にとって不便であり、負担である。   However, in the system disclosed in Patent Document 1, the subject needs to mount the sensor at a designated position, or explicitly declare the mounting position to the system administrator. As described above, it is inconvenient and burdensome for the subject to mount the sensor at a predetermined position or to declare the mounting position.

一方、特許文献1に開示されたシステムにおいて、対象者のセンサ装着位置が不明であると、振動強度と重心の移動とだけから、対象者の行動を判定する必要があり、この場合、行動判定の精度は著しく低下し、判定は困難となる。なぜならば、加速度センサデータの値の大きさは、同じ行動であっても、対象者がセンサを装着する位置に応じて異なるからである。従って、特許文献1に開示されたシステムを用いる場合は、判定精度の点から、対象者のセンサ装着位置を明確にする必要性がある。   On the other hand, in the system disclosed in Patent Document 1, if the subject's sensor mounting position is unknown, it is necessary to determine the behavior of the subject only from the vibration intensity and the movement of the center of gravity. The accuracy of the remarkably decreases, and the determination becomes difficult. This is because the magnitude of the value of the acceleration sensor data varies depending on the position where the subject wears the sensor even if the behavior is the same. Therefore, when using the system disclosed in Patent Document 1, it is necessary to clarify the sensor mounting position of the subject from the viewpoint of determination accuracy.

また、その他、特許文献2は、加速度センサデータのピーク情報を用いて、対象者の上下方向(鉛直方向)における移動を判定するシステムの例を開示している。「ピーク情報」とは、加速度センサデータの山なり形状の頂点に関する情報である。なお、本明細書において、以後、センサデータの山なり形状の頂点を「ピーク」と呼ぶこととする。   In addition, Patent Document 2 discloses an example of a system that determines the movement of a subject in the vertical direction (vertical direction) using peak information of acceleration sensor data. “Peak information” is information relating to the peak of the mountain shape of the acceleration sensor data. In the present specification, the peak of the peak shape of the sensor data is hereinafter referred to as “peak”.

一般に、人が足を一歩踏み出すごとに、身体に装着した加速度センサデータにピークが現われることが知られている。ピーク値の大小は、加速度センサの装着位置によって異なるが、ピークの発生が足の接地を表すことは、装着位置によらない事実である。従って、ピークの発生の有無と、その発生間隔とを用いることにより、足の接地の有無及び接地の周期、即ち、対象者の移動の有無と、その歩調とを、センサの装着位置によらずに得ることができる。   In general, it is known that a peak appears in acceleration sensor data worn on the body every time a person steps one foot. Although the magnitude of the peak value varies depending on the mounting position of the acceleration sensor, it is a fact that the occurrence of the peak represents the grounding of the foot regardless of the mounting position. Therefore, by using the presence / absence of the occurrence of the peak and the occurrence interval thereof, the presence / absence of the grounding of the foot and the period of the grounding, i.e., the presence / absence of the movement of the subject, and the pace thereof are determined regardless of the sensor mounting position. Can get to.

このような原理に基づき、特許文献2に開示されたシステムは、対象者が装着した加速度センサデータのピークを求め、求めたピークとピークとの間における上下方向の加速度を積分する。そして、特許文献2に開示されたシステムは、得られた積分値が、正負のいずれの値を取るかを判断することにより、対象者の上下方向の移動、即ち、階段昇降行動などを判定する。   Based on such a principle, the system disclosed in Patent Document 2 obtains the peak of acceleration sensor data worn by the subject, and integrates the vertical acceleration between the obtained peak. Then, the system disclosed in Patent Document 2 determines whether the obtained integrated value takes a positive or negative value, thereby determining the movement of the subject in the vertical direction, that is, the stair climbing action or the like. .

しかしながら、特許文献2に開示されたシステムには、判定精度が低いという問題がある。なぜならば、対象者の行動に伴って発生する加速度データには、様々な要因で発生するノイズ成分が含まれており、それらの影響を無視することができないからである。つまり、対象者が行動する際に発生するノイズ成分は、加速度センサデータにおいて、上下方向にランダムな偏りを生じさせる。このため、加速度センサデータの上下方向の積分値の正負又はその大小関係だけから、上昇、下降、及び平地移動を区別することは困難であり、判定精度は著しく低下する。   However, the system disclosed in Patent Document 2 has a problem that the determination accuracy is low. This is because the acceleration data generated along with the action of the target person includes noise components generated due to various factors, and the influence thereof cannot be ignored. That is, the noise component generated when the target person acts causes a random bias in the vertical direction in the acceleration sensor data. For this reason, it is difficult to distinguish ascending, descending, and flat ground movement only from the positive / negative integral value in the vertical direction of the acceleration sensor data or the magnitude relationship thereof, and the determination accuracy is significantly reduced.

また、特許文献2に開示されたシステムは、上下方向の移動行動の変化点を検出し、変化点以降はその行動が持続するとみなして、対象者の行動を判定する。これは、特許文献2に開示されたシステムでは、移動中の上下方向の加速度の積分値はほぼ0(ゼロ)に等しい、とみなされているからである。   Further, the system disclosed in Patent Document 2 detects a change point of a moving action in the vertical direction, and determines that the action of the target person is assumed after the change point that the action is continued. This is because, in the system disclosed in Patent Document 2, the integrated value of the vertical acceleration during movement is considered to be substantially equal to 0 (zero).

しかしながら、このような前提は、上下方向の移動が等速運動であるという仮定に等しく、現実の移動行動と必ずしも一致しない。さらに、この前提の下では、変化点の誤検出が起きたときに、それ以降の行動判定が全て誤判定となる。そして、長時間の測定では、このような誤判定の影響が蓄積するため、判定精度を著しく低下させる恐れがある。
(例えば、特許文献1参照。)
However, such a premise is equivalent to the assumption that the movement in the vertical direction is a uniform motion, and does not necessarily match the actual movement behavior. Furthermore, under this assumption, when an erroneous detection of a change point occurs, all subsequent behavior determinations are erroneous determinations. And in the long-time measurement, since the influence of such misjudgment accumulates, there is a possibility that the judgment accuracy is remarkably lowered.
(For example, refer to Patent Document 1.)

特開2007−075428号公報Japanese Patent Application Laid-Open No. 2007-074428 特開2006−170879号公報JP 2006-170879 A

以上のように、特許文献1に開示されたシステムには、センサの取り付け方に制約が存在するため、対象者に不便及び負担を強いるという問題が存在し、更に、この問題の解決を図ろうとすると、判定精度の低下が生じてしまう。また、特許文献2に開示されたシステムには、特に、対象者の上下方向の移動の判定において、ノイズ成分の影響を除去できないために、判定精度が低いという問題が存在している。   As described above, the system disclosed in Patent Document 1 has a problem in that it imposes inconvenience and burden on the subject because there are restrictions on how to attach the sensor, and further attempts to solve this problem. Then, the determination accuracy is lowered. Further, the system disclosed in Patent Document 2 has a problem that the determination accuracy is low because the influence of the noise component cannot be removed particularly in the determination of the movement of the subject in the vertical direction.

本発明の目的は、上記問題を解消し、センサの取り付け方に関して制約を受けず、且つ、判定対象が上下方向に移動する場合であっても精度良く行動判定を行い得る、行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラムを提供することにある。   An object of the present invention is to solve the above-mentioned problems, is not subject to restrictions on how to attach the sensor, and can perform a behavior determination with high accuracy even when the determination target moves in the vertical direction. To provide a determination system, a terminal device, a behavior determination method, and a program.

上記目的を達成するため、本発明における行動判定装置は、加速度センサが出力した時系列のセンサデータに基づいて測定対象の行動を判定する行動判定装置であって、
前記センサデータから、設定された時間長の時間窓データを切り出す、時間窓切出部と、
前記測定対象の行動評価の指標となる特徴量を算出する、特徴量算出部と、
前記特徴量に基づいて、前記測定対象の行動を判定する、行動判定部と、
を備え、
前記特徴量算出部は、前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出し、前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切出し、そして、前記ピーク間データから、前記特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出する、ことを特徴とする。
In order to achieve the above object, an action determination apparatus according to the present invention is an action determination apparatus that determines an action to be measured based on time-series sensor data output from an acceleration sensor,
A time window extraction unit that extracts time window data of a set time length from the sensor data; and
A feature amount calculation unit that calculates a feature amount that serves as an index of behavior evaluation of the measurement target;
An action determination unit for determining an action of the measurement target based on the feature amount;
With
The feature amount calculation unit extracts peak information for specifying a peak included in the time window data from the time window data, specifies one peak and a peak immediately before the peak information based on the peak information, A portion existing between two specified peaks in the sensor data is cut out as peak-to-peak data, and from the peak-to-peak data, the vertical acceleration applied to the measurement object is equal to or less than a set value as the feature amount. The degree of floating indicating the degree of occurrence of the state is calculated.

また、上記目的を達成するため、本発明における行動判定システムは、測定対象の行動に応じて時系列のセンサデータを出力する加速度センサと、前記センサデータに基づいて前記測定対象の行動を判定する行動判定装置とを備え、
前記行動判定装置は、前記センサデータから、設定された時間長の時間窓データを切り出す、時間窓切出部と、前記測定対象の行動評価の指標となる特徴量を算出する、特徴量算出部と、前記特徴量に基づいて、前記測定対象の行動を判定する、行動判定部とを備え、
前記特徴量算出部は、前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出し、前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切出し、そして、前記ピーク間データから、前記特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出する、ことを特徴とする。
In order to achieve the above object, an action determination system according to the present invention determines an action of a measurement object based on an acceleration sensor that outputs time-series sensor data according to the action of the measurement object, and the sensor data. An action determination device,
The behavior determination device is configured to extract, from the sensor data, a time window extraction unit that extracts time window data of a set time length, and a feature amount calculation unit that serves as an index for behavior evaluation of the measurement target. And an action determination unit that determines an action of the measurement target based on the feature amount,
The feature amount calculation unit extracts peak information for specifying a peak included in the time window data from the time window data, specifies one peak and a peak immediately before the peak information based on the peak information, A portion existing between two specified peaks in the sensor data is cut out as peak-to-peak data, and from the peak-to-peak data, the vertical acceleration applied to the measurement object is equal to or less than a set value as the feature amount. The degree of floating indicating the degree of occurrence of the state is calculated.

更に、上記目的を達成するため、本発明における端末装置は、
測定対象の行動に応じて時系列のセンサデータを出力する加速度センサと、
前記センサデータから、設定された時間長の時間窓データを切り出す、時間窓切出部と、
前記測定対象の行動評価の指標となる特徴量を算出する、特徴量算出部と、
前記特徴量に基づいて、前記測定対象の行動を判定する、行動判定部と、
を備え、
前記特徴量算出部は、前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出し、前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切出し、そして、前記ピーク間データから、前記特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出する、ことを特徴とする。
Furthermore, in order to achieve the above object, the terminal device according to the present invention provides:
An acceleration sensor that outputs time-series sensor data according to the behavior of the measurement target;
A time window extraction unit that extracts time window data of a set time length from the sensor data; and
A feature amount calculation unit that calculates a feature amount that serves as an index of behavior evaluation of the measurement target;
An action determination unit for determining an action of the measurement target based on the feature amount;
With
The feature amount calculation unit extracts peak information for specifying a peak included in the time window data from the time window data, specifies one peak and a peak immediately before the peak information based on the peak information, A portion existing between two specified peaks in the sensor data is cut out as peak-to-peak data, and from the peak-to-peak data, the vertical acceleration applied to the measurement object is equal to or less than a set value as the feature amount. The degree of floating indicating the degree of occurrence of the state is calculated.

上記目的を達成するため、本発明における行動判定方法は、加速度センサが出力した時系列のセンサデータに基づいて測定対象の行動を判定するための方法であって、
(a)前記センサデータから、設定された時間長の時間窓データを切り出す、ステップと、
(b)前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出する、ステップと、
(c)前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切り出す、ステップと、
(d)前記ピーク間データから、前記測定対象の行動評価の指標となる特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出する、ステップと、
(e)前記特徴量に基づいて、前記測定対象の行動を判定する、ステップと、
を有することを特徴とする。
In order to achieve the above object, an action determination method in the present invention is a method for determining an action to be measured based on time-series sensor data output from an acceleration sensor,
(A) cutting out time window data of a set time length from the sensor data; and
(B) extracting from the time window data peak information identifying a peak included in the time window data;
(C) identifying one peak and the immediately preceding peak based on the peak information, and cutting out a portion existing between the two specified peaks in the sensor data as inter-peak data;
(D) From the peak-to-peak data, as a feature quantity serving as an index for evaluating the behavior of the measurement target, a degree of float indicating a degree of occurrence of a state in which a vertical acceleration applied to the measurement target is equal to or less than a set value is calculated. Steps,
(E) determining the behavior of the measurement object based on the feature amount; and
It is characterized by having.

また、上記目的を達成するため、本発明におけるプログラムは、コンピュータによって、加速度センサが出力した時系列のセンサデータに基づいた測定対象の行動の判定を実行するためのプログラムであって、
前記コンピュータに、
(a)前記センサデータから、設定された時間長の時間窓データを切り出す、ステップと、
(b)前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出する、ステップと、
(c)前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切り出す、ステップと、
(d)前記ピーク間データから、前記測定対象の行動評価の指標となる特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出する、ステップと、
(e)前記特徴量に基づいて、前記測定対象の行動を判定する、ステップと、
を実行させることを特徴とする。
In order to achieve the above object, a program according to the present invention is a program for executing a determination of an action of a measurement object based on time-series sensor data output from an acceleration sensor by a computer,
In the computer,
(A) cutting out time window data of a set time length from the sensor data; and
(B) extracting from the time window data peak information identifying a peak included in the time window data;
(C) identifying one peak and the immediately preceding peak based on the peak information, and cutting out a portion existing between the two specified peaks in the sensor data as inter-peak data;
(D) From the peak-to-peak data, as a feature quantity serving as an index for evaluating the behavior of the measurement target, a degree of float indicating a degree of occurrence of a state in which a vertical acceleration applied to the measurement target is equal to or less than a set value is calculated. Steps,
(E) determining the behavior of the measurement object based on the feature amount; and
Is executed.

以上のように、本発明によれば、センサの取り付け方に関して制約を受けず、且つ、判定対象が上下方向に移動する場合であっても精度良く行動判定を行うことができる。   As described above, according to the present invention, it is possible to perform behavior determination with high accuracy even when the determination target is not restricted and the determination target moves in the vertical direction.

図1は、人物の移動時における身体に生じる上下動を概略的に示す図であり、図1(a)は人物が平地を歩行している時、図1(b)は人物が階段を昇っている時、図1(c)は人物が階段を降りている時を示している。FIG. 1 is a diagram schematically showing the vertical movement that occurs in the body when a person moves. FIG. 1A shows a case where a person is walking on a flat ground, while FIG. FIG. 1C shows the time when the person is going down the stairs. 図2は、本発明における「浮き度」を説明するための図であり、センサデータの一例を示している。FIG. 2 is a diagram for explaining the “floating degree” in the present invention, and shows an example of sensor data. 図3は、本発明の実施の形態1における行動判定装置及び行動判定システムの構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of the behavior determination apparatus and the behavior determination system according to Embodiment 1 of the present invention. 図4は、特徴量として加速度分散値を用いたときの判定ルールの一例を示す図である。FIG. 4 is a diagram illustrating an example of a determination rule when an acceleration dispersion value is used as a feature amount. 図5は、特徴量としてピーク間隔を用いたときの判定ルールの一例を示す図である。FIG. 5 is a diagram illustrating an example of a determination rule when the peak interval is used as the feature amount. 図6は、特徴量として浮き度(ピーク間深さ面積)を用いたときの判定ルールの一例を示す図である。FIG. 6 is a diagram illustrating an example of a determination rule when the degree of floating (depth area between peaks) is used as the feature amount. 図7は、特徴量として加速度分散値を用いたときの判定ルールの他の例を示す図である。FIG. 7 is a diagram illustrating another example of the determination rule when the acceleration dispersion value is used as the feature amount. 図8は、特徴量としてピーク間隔を用いたときの判定ルールの他の例を示す図である。FIG. 8 is a diagram illustrating another example of the determination rule when the peak interval is used as the feature amount. 図9は、特徴量として浮き度(ピーク間深さ面積)を用いたときの判定ルールの例を示す図である。FIG. 9 is a diagram illustrating an example of a determination rule when the degree of floating (depth area between peaks) is used as the feature amount. 図10は、本発明の実施の形態1における端末装置及び行動判定装置の他の例を示すブロック図である。FIG. 10 is a block diagram illustrating another example of the terminal device and the behavior determination device according to Embodiment 1 of the present invention. 図11は、本発明の実施の形態1における行動判定装置の動作を示す流れ図である。FIG. 11 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 1 of the present invention. 図12は、本発明の実施の形態2における行動判定装置及び行動判定システムの構成を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration of the behavior determination device and the behavior determination system according to Embodiment 2 of the present invention. 図13は、本発明の実施の形態2で用いられる判定ルールの一例を示す図である。FIG. 13 is a diagram illustrating an example of a determination rule used in Embodiment 2 of the present invention. 図14は、本発明の実施の形態2における行動判定装置の動作を示す流れ図である。FIG. 14 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 2 of the present invention. 図15は、本発明の実施の形態3における行動判定装置及び行動判定システムの構成を示すブロック図である。FIG. 15 is a block diagram illustrating a configuration of the behavior determination device and the behavior determination system according to Embodiment 3 of the present invention. 図16は、本発明の実施の形態3における行動判定装置の動作を示す流れ図である。FIG. 16 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 3 of the present invention. 図17は、本発明の実施の形態4における行動判定装置の構成を示すブロック図である。FIG. 17 is a block diagram showing a configuration of the behavior determination apparatus according to Embodiment 4 of the present invention. 図18は、本発明の実施の形態4においてユーザに判定結果の正否の入力を求める際の端末装置の画面の一例を示す図である。FIG. 18 is a diagram illustrating an example of a screen of the terminal device when the user is requested to input whether the determination result is correct in Embodiment 4 of the present invention. 図19は、本発明の実施の形態4において学習後に変更された判定ルールの一例を示す図である。FIG. 19 is a diagram illustrating an example of a determination rule changed after learning in the fourth embodiment of the present invention. 図20は、本発明の実施の形態4における行動判定装置の動作を示す流れ図である。FIG. 20 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 4 of the present invention. 図21は、本発明の実施の形態5における行動判定装置及び行動判定システムの構成を示すブロック図である。FIG. 21 is a block diagram illustrating the configuration of the behavior determination device and the behavior determination system according to the fifth embodiment of the present invention. 図22は、本発明の実施の形態5における行動判定装置の動作を示す流れ図である。FIG. 22 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 5 of the present invention. 図23は、本発明の実施の形態1〜5におけるプログラムを実行可能なコンピュータの一例を示すブロック図である。FIG. 23 is a block diagram illustrating an example of a computer that can execute the program according to the first to fifth embodiments of the present invention. 図24は、実施例1において加速度センサが出力したセンサデータの一例を示す図である。FIG. 24 is a diagram illustrating an example of sensor data output by the acceleration sensor in the first embodiment. 図25は、実施例2において加速度センサが出力したセンサデータの一例を示す図である。FIG. 25 is a diagram illustrating an example of sensor data output from the acceleration sensor in the second embodiment. 図26は、実施例2において用いられる判定ルールの一例を示す図である。FIG. 26 is a diagram illustrating an example of a determination rule used in the second embodiment.

(本発明の概要)
本発明は、測定対象、例えば、人物の一方の足が接地してから、次の一歩によって他方の足が接地するまでの間に加速度センサから出力された、センサデータに現われる特徴を用いる。そして、本発明は、センサデータに現われる特徴から、測定対象に定常的に作用している鉛直方向の加速度(代表的には重力加速度)が、減少している状態を捉え、この状態の発生度合いを用いて行動を判定する。このため、本発明では、加速度センサの取り付け方に関して制約を受けることなく、測定対象が上下方向に移動する場合であっても精度良く行動を判定することができる。
(Outline of the present invention)
The present invention uses a feature that appears in sensor data that is output from an acceleration sensor from the time when one foot of a measurement object, for example, a person touches down, until the other foot touches the ground in the next step. And this invention catches the state where vertical acceleration (typically gravitational acceleration) that is steadily acting on the measurement object is reduced from the features that appear in the sensor data, and the degree of occurrence of this state. Use to determine the action. For this reason, in this invention, even if it is a case where a measuring object moves to an up-down direction, without receiving restrictions regarding how to attach an acceleration sensor, action can be determined with sufficient precision.

ここで、図1及び図2を用いて、本発明の原理について説明する。図1は、人物の移動時における身体に生じる上下動を概略的に示す図であり、図1(a)は人物が平地を歩行している時、図1(b)は人物が階段を昇っている時、図1(c)は人物が階段を降りている時を示している。図2は、本発明における「浮き度」を説明するための図であり、センサデータの一例を示している。   Here, the principle of the present invention will be described with reference to FIGS. FIG. 1 is a diagram schematically showing the vertical movement that occurs in the body when a person moves. FIG. 1A shows a case where a person is walking on a flat ground, while FIG. FIG. 1C shows the time when the person is going down the stairs. FIG. 2 is a diagram for explaining the “floating degree” in the present invention, and shows an example of sensor data.

図1(a)〜(c)に示すように、人物において、移動時には、足の上げ下げに伴う身体の上下動が発生する。そして、階段昇降などの上下方向の移動時(図1(b)及び(c)参照)では、平地歩行時(図1(a))と比較して、足を大きく上げる、又は大きく下ろす動作が発生する。   As shown in FIGS. 1A to 1C, when a person moves, a vertical movement of the body accompanying the raising and lowering of the foot occurs. When moving up and down, such as when going up and down stairs (see FIGS. 1B and 1C), compared to walking on a flat ground (FIG. 1A), there is an action of raising or lowering the foot. Occur.

これらの足の上げ下げ動作の仕方は、階段の昇りによる移動、階段の降りによる移動、平地移動の各動作の間で異なり、この動作間の相違は、一方の足を踏み出してから、次の一歩によって他方の足が地面に着くまでの間に、身体にかかる鉛直方向における加速度の減少の発生度合いで特徴づけることができる。一般に、平地移動、階段の昇りによる移動、階段の降りによる移動の順に、鉛直方向における加速度が減少する度合いが大きい傾向がある。そして、鉛直方向における加速度が減少している状態にあるとき、人物はその重心において浮遊感を感じる。言い換えると、人物は、いわゆる宙に浮いているような感覚となる。   The method of raising and lowering these feet is different between the movements when climbing the stairs, the movements when descending the stairs, and the movement on the flat ground. The difference between these movements is that the next step is taken after one foot is stepped on. Thus, it can be characterized by the degree of occurrence of a decrease in acceleration in the vertical direction applied to the body until the other foot reaches the ground. Generally, there is a tendency that the acceleration in the vertical direction decreases in the order of movement on flat ground, movement due to ascending stairs, and movement due to descending stairs. When the acceleration in the vertical direction is decreasing, the person feels a floating feeling at the center of gravity. In other words, the person feels like floating in the air.

ところで加速度センサには、定常的に鉛直方向において加速度が作用している。定常的に鉛直方向に作用する加速度の代表的なものとして、例えば重力加速度が挙げられる。ここで、定常的に作用する加速度として重力加速度だけを考えた場合、その加速度の大きさは「1G」である。従って、加速度センサが、1G以下の値を示すセンサデータを出力したときは、この加速度センサの測定対象となる人物は浮遊感を感じることになる。つまり、このとき、加速度センサは、宙に浮いている状態とみなすことができる。   By the way, acceleration is constantly applied to the acceleration sensor in the vertical direction. A representative example of acceleration that constantly acts in the vertical direction is gravitational acceleration. Here, when only the gravitational acceleration is considered as the acceleration acting constantly, the magnitude of the acceleration is “1G”. Therefore, when the acceleration sensor outputs sensor data indicating a value of 1 G or less, the person who is the measurement target of this acceleration sensor feels a floating feeling. That is, at this time, the acceleration sensor can be regarded as a state floating in the air.

従って、鉛直方向における加速度が減少している状態の発生度合いは、一方の足が接地してから他方の足が接地するまでの間において、例えば、1G以下のセンサデータが出力された時間がどれだけか、また1Gよりもどの程度小さいのか、によって特徴づけることができる。そして、一歩の踏み出しによる足の接地の時点は、加速度センサからのセンサデータのピークの発生時点とほぼ同期している。   Therefore, the degree of occurrence of the state in which the acceleration in the vertical direction is reduced is, for example, the time during which sensor data of 1G or less is output between the time when one foot is grounded and the other foot is grounded. Or how much smaller than 1G. Then, the point of time when the foot is touched by one step is almost synchronized with the point of time when the peak of the sensor data from the acceleration sensor occurs.

このため、例えば、定常的な加速度として重力だけを考えると、測定対象にかかる鉛直方向の加速度が減少している状態の発生度合いは、図2に示す特徴量(斜線部分)によって表すことができる。具体的には、例えば、図2に示すように、ピーク間の1G以下の領域の面積(図2中の斜線部分の面積)は、測定対象にかかる鉛直方向の加速度が減少している状態の発生度合いを示している。よって、図2中の斜線部分の面積の程度から、測定対象が、階段を昇っているのか、階段を降っているのか、平地を移動しているのかを判定することができる。   For this reason, for example, when only gravity is considered as a steady acceleration, the degree of occurrence of a state in which the vertical acceleration applied to the measurement target is reduced can be represented by the feature amount (shaded portion) shown in FIG. . Specifically, for example, as shown in FIG. 2, the area of the region of 1 G or less between peaks (the area of the hatched portion in FIG. 2) is the state in which the vertical acceleration applied to the measurement object is reduced. The degree of occurrence is shown. Therefore, it can be determined from the degree of the hatched area in FIG. 2 whether the measurement object is going up the stairs, going down the stairs, or moving on the flat ground.

(実施の形態1)
以下、本発明の実施の形態1における、行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラムについて、図1〜図11を参照しながら説明する。最初に、本実施の形態1における行動判定装置及び行動判定システムの構成について図3を用いて説明する。図3は、本発明の実施の形態1における行動判定装置及び行動判定システムの構成を示すブロック図である。
(Embodiment 1)
Hereinafter, a behavior determination device, a behavior determination system, a terminal device, a behavior determination method, and a program according to Embodiment 1 of the present invention will be described with reference to FIGS. Initially, the structure of the action determination apparatus and action determination system in this Embodiment 1 is demonstrated using FIG. FIG. 3 is a block diagram illustrating a configuration of the behavior determination apparatus and the behavior determination system according to Embodiment 1 of the present invention.

図1に示す行動判定装置10は、加速度センサ2が出力した時系列のセンサデータに基づいて測定対象の行動を判定する装置である。行動判定システム100は、行動判定装置10を備えている。図1に示すように、行動判定装置10は、時間窓切出部11と、特徴量算出部12と、行動判定部16とを備えている。   The behavior determination device 10 illustrated in FIG. 1 is a device that determines a measurement target behavior based on time-series sensor data output from the acceleration sensor 2. The behavior determination system 100 includes a behavior determination device 10. As illustrated in FIG. 1, the behavior determination device 10 includes a time window extraction unit 11, a feature amount calculation unit 12, and a behavior determination unit 16.

時間窓切出部11は、センサデータから、設定された時間長の時間窓データの切り出しを行う。特徴量算出部12は、測定対象の行動評価の指標となる特徴量を算出する。また、特徴量算出部12は、特徴量を算出するため、ピーク抽出部13と、ピーク間データ切出部14と、浮き度算出部15とを備えている。   The time window extraction unit 11 extracts time window data having a set time length from the sensor data. The feature amount calculation unit 12 calculates a feature amount that serves as an index for behavior evaluation of a measurement target. The feature amount calculation unit 12 includes a peak extraction unit 13, a peak-to-peak data cutout unit 14, and a floating degree calculation unit 15 in order to calculate a feature amount.

特徴量算出部12において、ピーク抽出部13は、時間窓切出部11が切り出した時間窓データから、時間窓データに含まれるピークを特定するピーク情報を抽出する。ピーク間データ切出部14は、ピーク抽出部13が抽出したピーク情報に基づいて、1のピークとその直前のピークとを特定し、センサデータにおける特定された2つのピークの間に存在する部分を、ピーク間データとして切り出す。   In the feature amount calculation unit 12, the peak extraction unit 13 extracts peak information that identifies a peak included in the time window data from the time window data extracted by the time window extraction unit 11. The peak-to-peak data extraction unit 14 identifies one peak and the peak immediately preceding it based on the peak information extracted by the peak extraction unit 13, and is a portion existing between the two identified peaks in the sensor data Are extracted as peak-to-peak data.

浮き度算出部15は、ピーク間データ切出部14が切り出したピーク間データから、特徴量として、測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを算出する。また、加速度の設定値は、例えば、重力加速度の値(1G)に設定される。但し、加速度の設定値は、1Gに限定されるわけではなく、測定対象の状況等に応じて適宜設定される。   The floating degree calculation unit 15 calculates, from the peak-to-peak data cut out by the peak-to-peak data cutout unit 14, the degree of occurrence of a state in which the vertical acceleration applied to the measurement target is equal to or less than a set value as a feature amount. The set value of acceleration is set to, for example, the value of gravitational acceleration (1G). However, the set value of the acceleration is not limited to 1G, and is set as appropriate according to the condition of the measurement target.

行動判定部16は、特徴量、特には、「測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合い」に基づいて、測定対象の行動を判定する。また、本実施の形態1では、後述するように、行動判定部16は、「測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合い」に加え、それ以外の特徴量も用いて、測定対象の行動を判定することもできる。   The behavior determination unit 16 determines the behavior of the measurement target based on the feature amount, in particular, “the degree of occurrence of a state where the vertical acceleration applied to the measurement target is equal to or less than the set value”. In the first embodiment, as will be described later, the behavior determination unit 16 uses other feature quantities in addition to “the degree of occurrence of a state in which the vertical acceleration applied to the measurement target is equal to or less than the set value”. Thus, the behavior to be measured can also be determined.

このように、行動判定装置10では、特徴量として「測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合い」を用いて、測定対象、例えば、人物の行動を判定することができる。そして、先に述べたように「測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合い」は、測定対象が移動中に浮遊感を感じている状態の発生度合いに相当する。   In this way, the behavior determination apparatus 10 can determine the behavior of a measurement target, for example, a person, using “the degree of occurrence of a state in which the vertical acceleration applied to the measurement target is equal to or less than a set value” as a feature amount. it can. As described above, the “degree of occurrence of a state in which the vertical acceleration applied to the measurement object is equal to or less than the set value” corresponds to the degree of occurrence of a state in which the measurement object feels floating while moving.

従って、行動判定装置10によれば、加速度センサの取り付け方に関して制約を受けることなく、測定対象が上下方向に移動する場合であっても精度良く行動を判定することができる。また、以降において、「測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合い」を「浮き度」と呼ぶ。   Therefore, according to the behavior determination apparatus 10, it is possible to determine the behavior with high accuracy even when the measurement object moves in the vertical direction without being restricted with respect to how to attach the acceleration sensor. Further, hereinafter, “the degree of occurrence of a state in which the vertical acceleration applied to the measurement object is equal to or less than the set value” is referred to as “floating degree”.

ここで、更に具体的に、行動判定装置10及び行動判定システム100の構成について説明する。図1に示すように、本実施の形態1では、行動判定システム100は、行動判定装置10と、端末装置1とを備えている。行動判定装置10は、サーバコンピュータによって構築されている。端末装置1の具体例としては、携帯電話等の人が携行する電子機器が挙げられる。端末装置1は、加速度センサ2と、データ取得部3と、出力装置4とを備えている。なお、図示されていないが、端末装置1には、キーボード、タッチパネル、又は両方といった入力装置も備えられている。   Here, the configurations of the behavior determination device 10 and the behavior determination system 100 will be described more specifically. As shown in FIG. 1, in the first embodiment, the behavior determination system 100 includes a behavior determination device 10 and a terminal device 1. The behavior determination apparatus 10 is constructed by a server computer. A specific example of the terminal device 1 is an electronic device carried by a person such as a mobile phone. The terminal device 1 includes an acceleration sensor 2, a data acquisition unit 3, and an output device 4. Although not shown, the terminal device 1 is also provided with an input device such as a keyboard, a touch panel, or both.

データ取得部3は、加速度センサ2が出力する時系列のセンサデータを取得し、一定量のデータを保持する機能を備えている。また、データ取得部3は、加速度センサ2から取得したセンサデータを、行動判定装置10に送信するための通信機能も備えている。出力装置4は、例えば、ディスプレイ装置といった、行動判定の結果をユーザに示す装置である。   The data acquisition unit 3 has a function of acquiring time-series sensor data output from the acceleration sensor 2 and holding a certain amount of data. The data acquisition unit 3 also has a communication function for transmitting sensor data acquired from the acceleration sensor 2 to the behavior determination device 10. The output device 4 is a device that indicates a result of behavior determination to the user, such as a display device.

このように、本実施の形態1における行動判定システム100では、加速度センサ2は、測定対象となる人物が持つ端末装置1(携帯電話)に搭載され、加速度センサ2が出力したセンサデータは、端末装置1の通信機能を使って行動判定装置10に送信される。そして、行動判定装置10として機能するサーバコンピュータが、行動判定を行い、その結果が、人物の持つ端末装置1に返され、出力装置4によってユーザに通知される。   As described above, in the behavior determination system 100 according to the first embodiment, the acceleration sensor 2 is mounted on the terminal device 1 (mobile phone) held by the person to be measured, and the sensor data output by the acceleration sensor 2 is the terminal It is transmitted to the action determination device 10 using the communication function of the device 1. Then, the server computer functioning as the behavior determination device 10 performs behavior determination, and the result is returned to the terminal device 1 possessed by the person and notified to the user by the output device 4.

また、本実施の形態1では、行動判定装置1は、時間窓切出部11、特徴量算出部12、及び行動判定部16に加えて、出力部17を備えている。出力部17は、行動判定部16による判定の結果を外部(端末装置1)に出力する。本実施の形態11では、出力部17は、端末装置1と通信する機能を備えている。   Moreover, in this Embodiment 1, the action determination apparatus 1 is provided with the output part 17 in addition to the time window extraction part 11, the feature-value calculation part 12, and the action determination part 16. FIG. The output unit 17 outputs the result of determination by the behavior determination unit 16 to the outside (terminal device 1). In the eleventh embodiment, the output unit 17 has a function of communicating with the terminal device 1.

行動判定装置10において、時間窓切出部11は、上述したように、データ取得部3から出力されたセンサデータから、設定された時間長の時間窓データの切り出しを行い、切り出した時間窓データを、ピーク抽出を行うピーク抽出部13に出力する。   In the behavior determination device 10, the time window extraction unit 11 extracts time window data having a set time length from the sensor data output from the data acquisition unit 3 as described above, and extracts the extracted time window data. Is output to the peak extraction unit 13 that performs peak extraction.

また、本実施の形態1では、時間窓切出部11が切り出す時間窓データの時間長(時間窓長さ)は、1秒等のように予め決められている。本実施の形態1において、時間窓切出部11による時間窓データの切出しの仕方は特に限定されるものではない。ここで、時間窓切出部11が、ある特定の時刻において時間窓データを切り出すときに、例えば、時間窓を長さ1秒に設定して切り出す場合を考える。この場合、時間窓切出部11は、ある時刻を中心として、前後0.5秒ずつのデータを切出して、長さ1秒の時間窓データを切出しても良いし、ある時刻を時間窓の終端として、過去1秒分のデータを切出して、長さ1秒の時間窓を切出しても良い。   In the first embodiment, the time length (time window length) of the time window data extracted by the time window extraction unit 11 is determined in advance, such as 1 second. In the first embodiment, the method of extracting time window data by the time window extracting unit 11 is not particularly limited. Here, when the time window cutout unit 11 cuts out time window data at a specific time, for example, consider a case where the time window is set to a length of 1 second and cut out. In this case, the time window extraction unit 11 may extract data of 0.5 seconds before and after the center of a certain time, and may extract time window data having a length of 1 second. As the end, data for the past 1 second may be cut out, and a time window of 1 second in length may be cut out.

更に、データ取得部3が、加速度センサ2から連続的にセンサデータを受信している場合は、時間窓切出部11は、連続的なセンサデータを、決められた長さの時間窓で分割することによって、時間窓データを切り出すこともできる。具体的には、時間窓切出部11は、1つめの時間窓を時刻0秒から時刻1秒に設定し、2つめの時間窓を時刻1秒から時刻2秒に設定し、設定した各時間窓で時間窓データの切り出しを行う。更に、この場合において、時間窓切出部11は、隣り合う時間窓が一定区間の重なり部分を持つように時間窓データを切り出すこともできる。例えば、時間窓切出部11は、1つめの時間窓を時刻0秒から時刻1秒に設定し、2つめの時間窓を時刻0.5秒から時刻1.5秒に設定することもできる。   Further, when the data acquisition unit 3 continuously receives sensor data from the acceleration sensor 2, the time window extraction unit 11 divides the continuous sensor data by a time window of a predetermined length. By doing so, the time window data can also be cut out. Specifically, the time window cutting unit 11 sets the first time window from time 0 second to time 1 second, sets the second time window from time 1 second to time 2 seconds, and sets each time window set. Extract time window data in the time window. Furthermore, in this case, the time window extraction unit 11 can also extract time window data so that adjacent time windows have overlapping portions of a certain interval. For example, the time window cutout unit 11 can set the first time window from time 0 seconds to time 1 second, and can set the second time window from time 0.5 seconds to time 1.5 seconds. .

このように、時間窓切出部11による時間窓データの切出しの仕方には、異なる複数の態様が考えられる。本実施の形態1では、センサデータの状態、長さ等に応じて、適切な切り出し方が採用される。また、後述する他の実施の形態においても、上述した例と同様に、複数の切出しの仕方の中から適切なものが採用される。   As described above, a plurality of different modes can be considered for the method of extracting the time window data by the time window extracting unit 11. In the first embodiment, an appropriate clipping method is adopted according to the state, length, etc. of sensor data. Also, in other embodiments described later, as in the above-described example, an appropriate one of a plurality of cutting methods is employed.

ピーク抽出部13は、上述したように、時間窓切出部11から与えられた時間窓データを用いて、それに含まれるピークを特定するピーク情報を抽出する。本実施の形態1において、例えば、ピーク抽出部13は、1つの時間窓データ内の最大値を示すデータ点をピークと見なすことができる。ピーク情報は、1つの時間窓データ内から複数抽出されてもよく、また、ピークが存在しないときは、ピーク情報そのものが出力されない場合もある。ピーク情報には、ピークにおけるセンサデータの値(出力値)と時刻とが含まれる。   As described above, the peak extraction unit 13 uses the time window data provided from the time window extraction unit 11 to extract peak information that identifies the peak included in the time window data. In the first embodiment, for example, the peak extraction unit 13 can regard a data point indicating the maximum value in one time window data as a peak. A plurality of peak information may be extracted from one time window data, and when no peak exists, the peak information itself may not be output. The peak information includes the sensor data value (output value) at the peak and the time.

また、ピーク抽出部13は、ピークの特定時に以下の条件を付して、ピーク抽出の精度を高めることもできる。例えば、ピーク抽出部13は、時間窓データ内の最大値のデータ点とその前後のデータ点それぞれとを直線で結んで折れ線を作成し、折れ線の形状が、最大値のデータ点を頂点とする上に凸の形状となれば、この最大値のデータ点をピークと見なすことができる。更に、ピーク抽出部13は、時間窓データ内の最大値の加速度が一定値以上となる場合、または時間窓データから算出された加速度分散値が一定値以上となる場合に、最大値のデータ点をピークと見なすこともできる。   Moreover, the peak extraction part 13 can also attach the following conditions at the time of peak specification, and can also improve the precision of peak extraction. For example, the peak extraction unit 13 creates a polygonal line by connecting the data point of the maximum value in the time window data and the data points before and after the data line with a straight line, and the shape of the polygonal line has the data point of the maximum value as a vertex. If the shape is convex upward, the maximum data point can be regarded as a peak. Further, the peak extraction unit 13 determines the maximum value data point when the maximum acceleration in the time window data is a certain value or more, or when the acceleration dispersion value calculated from the time window data is a certain value or more. Can also be considered a peak.

その他、ピーク抽出部13は、時間窓データ内の最大値のデータ点に加えて、2番目に大きい値のデータ点も特定し、得られた2つのデータ点について、上記の条件を適用し、どちらか一方をピークと見なすこともできる。更に、ピーク抽出部13は、得られた2つのデータ点の時間間隔が一定間隔以上離れていることを条件として、2番目に大きい値のデータ点をピークと見なすこともできる。   In addition, the peak extraction unit 13 specifies the second largest data point in addition to the maximum data point in the time window data, and applies the above condition to the two obtained data points. Either one can be regarded as a peak. Furthermore, the peak extraction unit 13 can also regard the data point having the second largest value as a peak on condition that the time interval between the two obtained data points is a predetermined interval or more.

また、本実施の形態1において、ピーク抽出部13におけるピーク抽出の仕方は、上述した態様に限定されるものではなく、測定対象の人物が一歩を踏み出したときの足の接地によって加速度センサデータに現われるピークが、精度良く取得できる仕方であれば良い。更に、後述する他の実施の形態においても、上述した例と同様に、複数の抽出の仕方の中から、適切なものが採用される。   Further, in the first embodiment, the method of peak extraction in the peak extraction unit 13 is not limited to the above-described mode, and the acceleration sensor data is obtained by touching the foot when the person to be measured takes a step. Any method can be used as long as the peak that appears can be acquired with high accuracy. Further, in other embodiments described later, as in the above-described example, an appropriate one is employed from among a plurality of extraction methods.

更に、本実施の形態1では、ピーク抽出部13は、上述した浮き度以外の特徴量を算出する。浮き度以外の特徴量としては、各時間窓データから得られる、平均値及び分散値といった統計量、尖度、歪度、FFTパワースペクトル、特定した2つのピーク間の間隔等が挙げられる。ピーク抽出部13は、浮き度以外の特徴量を算出した場合は、これを行動判定部16に出力する。   Furthermore, in the first embodiment, the peak extraction unit 13 calculates a feature amount other than the above-described float degree. Examples of the feature amount other than the floating degree include statistics such as an average value and a variance value obtained from each time window data, kurtosis, skewness, FFT power spectrum, an interval between two specified peaks, and the like. When the peak extraction unit 13 calculates a feature amount other than the floating degree, it outputs this to the behavior determination unit 16.

ピーク間データ切出部14は、上述したように、ピーク抽出部13から得られたピーク情報に基づき、各ピークの発生時刻から、最新のピークと、その直前のピークとを特定する。そして、ピーク間データ切出部14は、データ取得部3から取得したセンサデータから、特定したピーク間のセンサデータを切り出す。また、ピーク間データ切出部14は、切り出したピーク間データを浮き度算出部15に出力する。   As described above, the peak-to-peak data cutout unit 14 identifies the latest peak and the peak immediately preceding it from the time of occurrence of each peak based on the peak information obtained from the peak extraction unit 13. Then, the peak-to-peak data cutout unit 14 cuts out the identified peak-to-peak sensor data from the sensor data acquired from the data acquisition unit 3. Further, the peak-to-peak data cutout unit 14 outputs the cut-out peak-to-peak data to the floating degree calculation unit 15.

本実施の形態1において、ピーク間データ切出部14におけるピーク間データの切り出しの仕方は、特に限定されるものではない。ここで、データ取得部3が、例えば、一定時間分のセンサデータを記憶する機能を備えている場合を考える。この場合は、ピーク間データ切出部14は、ピーク情報を基にして、データ取得部3から、ピーク間に該当する時間帯のセンサデータを取得することもできる。   In the first embodiment, the method of extracting the peak-to-peak data in the peak-to-peak data extraction unit 14 is not particularly limited. Here, consider a case where the data acquisition unit 3 has a function of storing sensor data for a certain period of time, for example. In this case, the peak-to-peak data extraction unit 14 can also acquire sensor data in a time zone corresponding to the peak from the data acquisition unit 3 based on the peak information.

また、ピーク間データ切出部14は、それ自体がセンサデータを記憶する機能を備えていても良く、その場合は、データ取得部3から与えられた一定時間分のセンサデータを蓄積する。そして、ピーク間データ切出部14は、ピーク抽出部13から最新のピーク情報を取得すると、記憶しているセンサデータから、ピーク間に該当する時間帯のセンサデータの切り出しを行うことができる。更に、後に示す他の実施の形態においても、上述した例と同様に、複数の切出しの仕方の中から適切なものを採用することができる。   Further, the peak-to-peak data cutout unit 14 itself may have a function of storing sensor data. In this case, the sensor data for a certain time given from the data acquisition unit 3 is accumulated. When the latest peak information is acquired from the peak extraction unit 13, the peak-to-peak data extraction unit 14 can extract sensor data in a time zone corresponding to the peak from the stored sensor data. Further, in other embodiments described later, as in the above-described example, an appropriate one of a plurality of cutting methods can be employed.

浮き度算出部15は、上述したように、ピーク間データ切出部14から与えられたピーク間データを用いて、測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合い(浮き度)を算出する。また、浮き度算出部15は、算出した浮き度を行動判定部16に出力する。   As described above, the floating degree calculation unit 15 uses the peak-to-peak data provided from the peak-to-peak data cutout unit 14, and the degree of occurrence of the state in which the vertical acceleration applied to the measurement target is equal to or less than the set value (floating Degree). Further, the floating degree calculation unit 15 outputs the calculated floating degree to the behavior determination unit 16.

ここで、例えば、定常的に作用する加速度成分として重力だけが考えられ、加速度の設定値が重力加速度の値(1G)に設定されているとする。この場合、浮き度としては、図2に示したピーク間における1G以下の領域の面積(斜線部分)が挙げられる。浮き度算出部15は、ピーク間データの設定値以下(1G以下)となった部分を時間によって積分し、ピーク間における設定値以下の領域の面積(以下「ピーク間深さ面積」という。)を算出する。なお、設定値は1Gに限定されず、測定対象が存在する環境等に応じて適宜設定される。また、ピーク間深さ面積の具体的な算出処理については後述する。   Here, for example, it is assumed that only gravitational force is considered as an acceleration component that acts constantly, and the acceleration setting value is set to the value of gravitational acceleration (1G). In this case, as the degree of floating, the area (shaded portion) of a region of 1 G or less between the peaks shown in FIG. The buoyancy calculation unit 15 integrates the portion of the peak-to-peak data that is less than or equal to the set value (1G or less) over time, and the area of the region that is less than or equal to the set value between the peaks (hereinafter referred to as “depth between peaks”). Is calculated. The set value is not limited to 1G, and is set as appropriate according to the environment where the measurement target exists. A specific calculation process of the peak-to-peak depth area will be described later.

また、本実施の形態1では、浮き度は、ピーク間深さ面積に限定されるものではない。ピーク間深さ面積以外の例としては、ピーク間における設定値以下の領域の区間長さ、またはその領域における加速度センサデータの平均値等が挙げられる。更に、定常的に作用する加速度成分として、重力以外の加速度成分が想定されるときは、上述の「設定値」は、この想定される加速度成分を考慮して設定される。   In the first embodiment, the degree of floating is not limited to the peak-to-peak depth area. Examples other than the peak-to-peak depth area include the section length of a region below a set value between peaks, or the average value of acceleration sensor data in that region. Further, when an acceleration component other than gravity is assumed as an acceleration component that acts constantly, the above-described “set value” is set in consideration of the assumed acceleration component.

行動判定部16は、上述したように特徴量算出部12が算出した特徴量、具体的には浮き度に基づいて、測定対象の行動を判定することができる。本実施の形態1では、行動判定部16は、判定ルールに従い、測定対象の行動が予め想定された複数の行動のいずれに該当するかを、判定する。判定ルールとしては、浮き度として用いられるピーク間面積深さの値に、想定される行動毎に、閾値を設定し、閾値に基づいて行動判定部15に行動を判定させるルールが挙げられる(図6参照)。   The behavior determination unit 16 can determine the behavior to be measured based on the feature amount calculated by the feature amount calculation unit 12 as described above, specifically, based on the degree of floating. In the first embodiment, the behavior determination unit 16 determines which of the plurality of behaviors that the behavior to be measured corresponds to in advance according to the determination rule. As a determination rule, a threshold value is set for each assumed behavior in the value of the peak-to-peak area depth used as the floating degree, and the behavior determining unit 15 determines the behavior based on the threshold value (see FIG. 6).

また、浮き度は、上述したように、測定対象が移動中に浮遊感を感じている状態の発生度合いに相当する。従って、浮き度に基づいた判定において想定される行動としては、鉛直方向における移動が大きい行動、例えば、階段の昇り、階段の降り、スキップ、ジャンプ、坂道の昇り、坂道の降り、等が挙げられる。   Further, as described above, the degree of floating corresponds to the degree of occurrence of a state in which the measurement object feels floating while moving. Therefore, the behavior assumed in the determination based on the degree of floating includes behavior with a large movement in the vertical direction, such as climbing stairs, descending stairs, skipping, jumping, climbing hills, descending hills, etc. .

また、本実施の形態1では、行動判定部16は、例えば、特徴量として、「浮き度」と、それ以外の特徴量とを用いて行動判定を行うこともできる。ここで、図4〜図6を用いて、行動判定部16が、「浮き度」、「加速度分散値」及び「ピーク抽出部13抽出した2つのピーク間の間隔(以下「ピーク間隔」とする)」に基づいて行動判定を行う例について説明する。また、以下の例において、予め想定される行動は、「止まる」、「走る」、「歩く」、「階段の昇り」、及び「階段の降り」の5つである。   In the first embodiment, for example, the behavior determination unit 16 can also perform behavior determination using “floating degree” and other feature amounts as feature amounts. Here, with reference to FIGS. 4 to 6, the action determination unit 16 performs “the degree of float”, “the acceleration dispersion value”, and the “interval between two peaks extracted by the peak extraction unit 13 (hereinafter referred to as“ peak interval ”). ) ”Will be described. In the following example, there are five actions that are assumed in advance: “stop”, “run”, “walk”, “up stairs”, and “down stairs”.

図4は、特徴量として加速度分散値を用いたときの判定ルールの一例を示す図である。行動判定部16は、特徴量として加速度分散値を取得すると、これを図4に示す判定ルールに当てはめ、測定対象の行動が「止まる」に該当するかどうかを判定する。図4の例では、分散値が4000[mG・mG]未満である場合に、行動判定部16は、測定対象の行動が「止まる」に該当すると判定する。一方、分散値が4000[mG・mG]以上である場合は、行動判定部16は、測定対象の行動が「移動(止まる以外の全ての行動を含む)」に該当すると判定する。   FIG. 4 is a diagram illustrating an example of a determination rule when an acceleration dispersion value is used as a feature amount. When the behavior determination unit 16 acquires the acceleration variance value as the feature amount, the behavior determination unit 16 applies this value to the determination rule illustrated in FIG. 4 and determines whether the behavior to be measured corresponds to “stop”. In the example of FIG. 4, when the variance value is less than 4000 [mG · mG], the behavior determination unit 16 determines that the behavior to be measured corresponds to “stop”. On the other hand, when the variance value is 4000 [mG · mG] or more, the behavior determination unit 16 determines that the behavior to be measured corresponds to “movement (including all behaviors other than stopping)”.

図5は、特徴量としてピーク間隔を用いたときの判定ルールの一例を示す図である。行動判定部16は、特徴量としてピーク間隔を取得すると、これを図5に示す判定ルールに当てはめ、測定対象の行動が「走る」または「歩く」のいずれに該当するかを判定する。ピーク間隔は、測定対象となる人物の歩調を表しており、ピーク間隔が短くなると歩調も短くなり、人物が走っている可能性が高くなる。よって、図5の例では、ピーク間隔が500[msec]未満である場合に、行動判定部16は、測定対象の行動が「走る」に該当すると判定する。一方、ピーク間隔が500[msec]以上である場合は、行動判定部16は、測定対象の行動が「歩く」に該当すると判定する。   FIG. 5 is a diagram illustrating an example of a determination rule when the peak interval is used as the feature amount. When the behavior determination unit 16 acquires the peak interval as the feature amount, the behavior determination unit 16 applies this to the determination rule illustrated in FIG. 5 and determines whether the behavior to be measured corresponds to “run” or “walk”. The peak interval represents the pace of the person to be measured. When the peak interval is shortened, the pace is shortened and the possibility that the person is running increases. Therefore, in the example of FIG. 5, when the peak interval is less than 500 [msec], the behavior determination unit 16 determines that the behavior to be measured corresponds to “run”. On the other hand, when the peak interval is 500 [msec] or more, the behavior determining unit 16 determines that the behavior to be measured corresponds to “walking”.

図6は、特徴量として浮き度(ピーク間深さ面積)を用いたときの判定ルールの一例を示す図である。図6の例では、浮き度として、図2に示したピーク間深さ面積が用いられている。行動判定部16は、特徴量である浮き度としてピーク間深さ面積を取得すると、これを図6に示す判定ルールに当てはめ、測定対象の行動が「歩く(平地移動)」、「階段の昇り」または「階段の降り」のいずれに該当するかを判定する。   FIG. 6 is a diagram illustrating an example of a determination rule when the degree of floating (depth area between peaks) is used as the feature amount. In the example of FIG. 6, the peak-to-peak depth area shown in FIG. 2 is used as the floating degree. When the behavior determination unit 16 obtains the peak-to-peak depth area as the degree of float that is a feature amount, the behavior determination unit 16 applies this to the determination rule illustrated in FIG. ”Or“ step down ”is determined.

図6の例では、ピーク間深さ面積が70[mG・sec]未満である場合に、行動判定部16は、測定対象の行動が「歩く(平地移動)」に該当すると判定する。また、ピーク間深さ面積が70[mG・sec]以上90[mG・sec]未満である場合に、行動判定部16は、測定対象の行動が「階段昇り」に該当すると判定する。更に、ピーク間深さ面積が90[mG・sec]以上150[mG・sec]未満である場合に、行動判定部16は、測定対象の行動が「階段降り」に該当すると判定する。具体的には、与えられたピーク間深さ面積が、例えば、85[mG・sec]であったとすると、行動判定部16は、図6に示す判定ルールから、測定対象の行動が「階段昇り」であると判定する。   In the example of FIG. 6, when the depth area between peaks is less than 70 [mG · sec], the behavior determination unit 16 determines that the behavior to be measured corresponds to “walking (moving on a flat ground)”. Moreover, when the depth area between peaks is 70 [mG · sec] or more and less than 90 [mG · sec], the action determination unit 16 determines that the action to be measured corresponds to “step up”. Further, when the depth area between the peaks is 90 [mG · sec] or more and less than 150 [mG · sec], the action determination unit 16 determines that the action to be measured corresponds to “step down”. Specifically, if the given peak-to-peak depth area is, for example, 85 [mG · sec], the action determination unit 16 determines that the action to be measured is “step up” from the determination rule shown in FIG. Is determined.

また、本実施の形態1においては、行動判定部16は、測定対象の行動を特定するため、図4〜図6に示した判定ルールを全て用いて、判定を行うこともできる。具体的には、行動判定部16は、先ず、加速度分散値を図4に示した判定ルールに適用する。次に、行動判定部16は、測定対象が止まっておらず、「移動」していると判定したときは、続けて、ピーク間隔を図5に示した判定ルールに適用する。次に、行動判定部16は、測定対象の行動が「歩く」であると判定したときは、続けて、ピーク間深さ面積を図6に示した判定ルールに適用する。   Moreover, in this Embodiment 1, the action determination part 16 can also perform determination using all the determination rules shown in FIGS. 4-6, in order to identify the measurement object action. Specifically, the behavior determination unit 16 first applies the acceleration variance value to the determination rule shown in FIG. Next, when it is determined that the measurement target is not stopped and “moving”, the behavior determination unit 16 continues to apply the peak interval to the determination rule illustrated in FIG. 5. Next, when the action determination unit 16 determines that the action to be measured is “walking”, the action determination unit 16 continues to apply the peak-to-peak depth area to the determination rule illustrated in FIG. 6.

行動判定部16が、図4〜図6に示した判定ルール全てを用いて、上述の処理を行った場合は、予め想定されている複数の行動候補の中から、ただ1つの行動が選択され、行動判定部16は、測定対象の行動が選択された行動であると判定する。その後、行動判定部16は、得られた判定結果を出力部17に出力する。   When the action determination unit 16 performs the above-described processing using all the determination rules shown in FIGS. 4 to 6, only one action is selected from a plurality of action candidates assumed in advance. The action determination unit 16 determines that the action to be measured is the selected action. Thereafter, the behavior determination unit 16 outputs the obtained determination result to the output unit 17.

また、本実施の形態1では、行動判定部16は、図4〜図6に示した判定ルール以外の判定ルールを用いて行動判定を行うこともできる。以下に、図7〜図9を用いて、行動判定部16による行動判定の他の例について説明する。   Moreover, in this Embodiment 1, the action determination part 16 can also perform action determination using determination rules other than the determination rule shown in FIGS. Below, the other example of the action determination by the action determination part 16 is demonstrated using FIGS.

図7〜図9に示す判定ルールが用いられた場合は、行動判定部16は、想定された行動毎に評価値を算出する。評価値は、測定対象の行動が、各ルールに対応する行動に該当する可能性を示している。なお、以下の例においても、予め想定される行動は、「止まる」、「走る」、「歩く」、「階段の昇り」、及び「階段の降り」の5つである。   When the determination rules shown in FIGS. 7 to 9 are used, the behavior determination unit 16 calculates an evaluation value for each assumed behavior. The evaluation value indicates the possibility that the behavior to be measured corresponds to the behavior corresponding to each rule. In the following example, there are five presumed actions: “stop”, “run”, “walk”, “up stairs”, and “down stairs”.

図7は、特徴量として加速度分散値を用いたときの判定ルールの他の例を示す図である。行動判定部16は、特徴量として加速度分散値を取得すると、これを図7に示す判定ルールに当てはめ、測定対象の行動が「止まる」に該当する可能性を示す評価値を算出する。図7に示すルールは、加速度分散値と「止まる」に該当する度合いとの関係を規定している。図7において縦軸の評価値は、測定対象の行動が「走る」に該当している度合いを、0から100までの数値で表している。   FIG. 7 is a diagram illustrating another example of the determination rule when the acceleration dispersion value is used as the feature amount. When the behavior determination unit 16 acquires the acceleration dispersion value as the feature amount, the behavior determination unit 16 applies this value to the determination rule illustrated in FIG. 7 and calculates an evaluation value indicating the possibility that the behavior to be measured corresponds to “stop”. The rule shown in FIG. 7 defines the relationship between the acceleration dispersion value and the degree corresponding to “stop”. In FIG. 7, the evaluation value on the vertical axis represents the degree to which the action to be measured corresponds to “run” by a numerical value from 0 to 100.

図7より、「止まる」に該当する可能性を表す評価値をDs、加速度分散値をVとおくと、加速度分散値Vが0[mmG]以上4000[mmG]未満のとき、評価値Dsは下記の(数1)によって表される。また、Vが4000[mmG]以上のとき、評価値Dsは下記の(数2)によって表される。 From FIG. 7, it is assumed that the evaluation value representing the possibility of being “stopped” is Ds and the acceleration dispersion value is V. When the acceleration dispersion value V is 0 [mmG 2 ] or more and less than 4000 [mmG 2 ], the evaluation value is obtained. Ds is expressed by the following (Equation 1). When V is 4000 [mmG 2 ] or more, the evaluation value Ds is expressed by the following (Equation 2).

(数1)
Ds=−(1/40)×V+100
(Equation 1)
Ds = − (1/40) × V + 100

(数2)
Ds=0
(Equation 2)
Ds = 0

図8は、特徴量としてピーク間隔を用いたときの判定ルールの他の例を示す図である。行動判定部16は、特徴量としてピーク間隔を取得すると、これを図8に示す判定ルールに当てはめ、測定対象の行動が「走る」または「歩く」に該当する可能性を示す評価値を算出する。図8に示すルールは、ピーク間隔と「走る」または「歩く」に該当する度合いとの関係を規定している。図8において縦軸の評価値は、測定対象の行動が「走る」または「歩く」に該当している度合いを0から100までの数値で表している。   FIG. 8 is a diagram illustrating another example of the determination rule when the peak interval is used as the feature amount. When the behavior determination unit 16 acquires the peak interval as the feature amount, the behavior determination unit 16 applies this to the determination rule illustrated in FIG. 8 and calculates an evaluation value indicating the possibility that the behavior to be measured corresponds to “run” or “walk”. . The rule shown in FIG. 8 defines the relationship between the peak interval and the degree corresponding to “run” or “walk”. In FIG. 8, the evaluation value on the vertical axis represents the degree to which the action to be measured corresponds to “running” or “walking” as a numerical value from 0 to 100.

図8より、「歩く」に該当する可能性を示す評価値をDw、ピーク間隔をPとおくと、ピーク間隔Pが600[msec]以上3000[msec]未満のとき、評価値Dwは下記の(数3)によって表される。また、Pが600[msec]未満のとき、評価値Dwは下記の(数4)によって表される。更に、ピーク間隔が3000[msec]以上のとき、評価値Dwは下記の(数5)によって表される。   From FIG. 8, when the evaluation value indicating the possibility of being “walking” is Dw and the peak interval is P, when the peak interval P is 600 [msec] or more and less than 3000 [msec], the evaluation value Dw is as follows: (Expression 3) When P is less than 600 [msec], the evaluation value Dw is expressed by the following (Equation 4). Further, when the peak interval is 3000 [msec] or more, the evaluation value Dw is expressed by the following (Equation 5).

(数3)
Dw=(−1/24)×P+125
(Equation 3)
Dw = (− 1/24) × P + 125

(数4)
Dw=100
(Equation 4)
Dw = 100

(数5)
Dw=0
(Equation 5)
Dw = 0

また、図8より、「走る」に該当する可能性を示す評価値をDrとおくと、「歩く」と同様に、ピーク間隔Pが300[msec]以上500[msec]未満のとき、評価値Drは下記の(数6)によって表される。また、ピーク間隔Pが300[msec]未満のとき、評価値Drは下記の(数7)によって表される。更に、ピーク間隔Pが500[msec]以上のとき、評価値Drは下記の(数8)によって表される。   Further, from FIG. 8, when an evaluation value indicating the possibility of being “running” is set to Dr, the evaluation value is obtained when the peak interval P is not less than 300 [msec] and less than 500 [msec], similarly to “walking”. Dr is expressed by the following (Equation 6). When the peak interval P is less than 300 [msec], the evaluation value Dr is expressed by the following (Equation 7). Furthermore, when the peak interval P is 500 [msec] or more, the evaluation value Dr is expressed by the following (Equation 8).

(数6)
Dr=−(1/2)×P+250
(Equation 6)
Dr = − (1/2) × P + 250

(数7)
Dr=100
(Equation 7)
Dr = 100

(数8)
Dr=0
(Equation 8)
Dr = 0

図9は、特徴量として浮き度(ピーク間深さ面積)を用いたときの判定ルールの例を示す図である。図9の例でも、図6の例と同様に、浮き度として、図2に示したピーク間深さ面積が用いられている。行動判定部16は、特徴量である浮き度としてピーク間深さ面積を取得すると、これを図9に示す判定ルールに当てはめ、測定対象の行動が「階段の昇り」または「階段の降り」のいずれに該当するか、更にはいずれにも該当しないかを判定する。   FIG. 9 is a diagram illustrating an example of a determination rule when the degree of floating (depth area between peaks) is used as the feature amount. In the example of FIG. 9 as well, as in the example of FIG. 6, the peak-to-peak depth area shown in FIG. When the behavior determination unit 16 obtains the peak-to-peak depth area as the floating degree that is the feature amount, this is applied to the determination rule illustrated in FIG. 9, and the behavior to be measured is “step up” or “step down”. It is determined whether it falls under any of the above, or further.

図9に示すルールは、ピーク間深さ面積と、「階段の昇り」または「階段の降り」に該当する度合いとの関係を規定している。図9において縦軸の評価値は、測定対象の行動が「階段の昇り」または「階段の降り」に該当している度合いを0から100までの数値で表している。また、図9に示すルールでは、ピーク間深さ面積が70[mG・sec]未満である場合、行動判定部16は、測定対象の行動が「階段の昇り」または「階段の降り」のいずれにも該当せず、「歩く(平地移動)」に該当すると判定する。   The rule shown in FIG. 9 defines the relationship between the peak-to-peak depth area and the degree corresponding to “step up” or “step down”. In FIG. 9, the evaluation value on the vertical axis represents the degree to which the action to be measured corresponds to “ascending stairs” or “descending stairs” as a numerical value from 0 to 100. Further, according to the rule shown in FIG. 9, when the peak-to-peak depth area is less than 70 [mG · sec], the behavior determination unit 16 determines whether the behavior to be measured is “up stairs” or “down stairs”. It is determined that it corresponds to “walking (moving on flat ground)”.

図9より、「階段を昇る」に該当する可能性を示す評価値をDu、浮き度をFとおくと、浮き度Fが70[mG・sec]以上80[mG・sec]未満のとき、評価値Duは下記の(数9)によって表される。また、浮き度Fが80[mG・sec]以上90[mG・sec]未満のとき、評価値Duは下記の(数10)によって表される。さらに、浮き度Fが70[mG・sec]未満の場合、または90[mG・sec]以上の場合は、評価値Duは下記の(数11)によって表される。   From FIG. 9, when the evaluation value indicating the possibility of being “up the stairs” is Du and the floating degree is F, when the floating degree F is 70 [mG · sec] or more and less than 80 [mG · sec], The evaluation value Du is expressed by the following (Equation 9). When the floating degree F is 80 [mG · sec] or more and less than 90 [mG · sec], the evaluation value Du is expressed by the following (Equation 10). Furthermore, when the floating degree F is less than 70 [mG · sec] or 90 [mG · sec] or more, the evaluation value Du is expressed by the following (Equation 11).

(数9)
Du=10×F−700
(Equation 9)
Du = 10 × F-700

(数10)
Du=−10×F+900
(Equation 10)
Du = −10 × F + 900

(数11)
Du=0
(Equation 11)
Du = 0

また、図9より、同様に「階段を降りる」に該当する可能性を示す評価値をDdとおくと、浮き度Fが90[mG・sec]以上120[mG・sec]未満のとき、評価値Ddは下記の(数12)によって表される。また、浮き度Fが120[mG・sec]以上150[mG・sec]未満のとき、評価値Ddは下記の(数13)によって表される。さらに、浮き度Fが90[mG・sec]未満の場合、または150[mG・sec]以上の場合は、評価値Ddは下記の(数14)によって表される。   Similarly, from FIG. 9, when an evaluation value indicating the possibility of falling down the stairs is Dd, when the floating degree F is 90 [mG · sec] or more and less than 120 [mG · sec], the evaluation is performed. The value Dd is expressed by the following (Equation 12). When the floating degree F is 120 [mG · sec] or more and less than 150 [mG · sec], the evaluation value Dd is represented by the following (Equation 13). Furthermore, when the floating degree F is less than 90 [mG · sec] or 150 [mG · sec] or more, the evaluation value Dd is expressed by the following (Equation 14).

(数12)
Dd=(10/3)×F−300
(Equation 12)
Dd = (10/3) × F−300

(数13)
Dd=−(10/3)×F+500
(Equation 13)
Dd = − (10/3) × F + 500

(数14)
Dd=0
(Equation 14)
Dd = 0

本実施の形態1では、図7〜図9に示す判定ルールが用いられる場合、行動判定部16は、算出した評価値全てを行動判定の結果として出力しても良いし、評価値が例えば80以上の値を示した行動のみを行動判定の結果として出力しても良い。前者の場合は、各行動の度合いが同時に表示される。この場合、例えば、「歩く」と「走る」との度合いがそれぞれ50と50とであるとすると、この判定結果から、ユーザは、測定対象の行動は、「歩く」と「走る」との中間状態であると考えることができる。また、「走る」の度合いと「階段の昇り」の度合いとから、ユーザは、測定対象が走りながら階段を昇っている状況であると判断することもできる。   In the first embodiment, when the determination rules shown in FIGS. 7 to 9 are used, the behavior determination unit 16 may output all the calculated evaluation values as a result of the behavior determination, and the evaluation value is 80, for example. Only actions showing the above values may be output as the result of action determination. In the former case, the degree of each action is displayed simultaneously. In this case, for example, if the degrees of “walking” and “running” are 50 and 50, respectively, based on the determination result, the user can determine that the action to be measured is between “walking” and “running”. Can be considered a state. Further, based on the degree of “running” and the degree of “ascending stairs”, the user can also determine that the measurement target is climbing up the stairs while running.

また、図7〜図9に示す判定ルールが用いられる場合も、図4〜図6に示す判定ルールが用いられた場合と同様に、行動判定部16は、判定結果として、ただ1つの行動を選択することができる。具体的には、行動判定部16は、例えば、各行動の評価値のうち、最も高い評価値を示した行動を特定し、この行動を、行動判定の結果として選択することができる。   Also, when the determination rules shown in FIGS. 7 to 9 are used, the action determination unit 16 selects only one action as the determination result, similarly to the case where the determination rules shown in FIGS. 4 to 6 are used. You can choose. Specifically, for example, the behavior determination unit 16 can identify the behavior showing the highest evaluation value among the evaluation values of each behavior, and can select this behavior as a result of the behavior determination.

なお、以上に述べた、判定ルールは、本実施の形態1のみならず、後に示す他の実施の形態についても、適用できる。他の実施の形態においても、行動判定部16は、上述した判定ルールの中から、目的に応じた適切な判定ルールを選択し、利用することができる。   Note that the determination rule described above can be applied not only to the first embodiment but also to other embodiments described later. Also in other embodiment, the action determination part 16 can select and use the suitable determination rule according to the objective from the determination rules mentioned above.

ところで、上述した例では、行動判定装置10は、加速度センサ2を搭載した端末装置1とは別の装置によって構築されているが、本実施の形態1では、行動判定装置10は、端末装置によって構築されていても良い。この例について図10を用いて説明する。図10は、本発明の実施の形態1における端末装置及び行動判定装置の他の例を示すブロック図である。図10の例では、行動判定装置10は、端末装置101の内部に構築されている。図10に示すように、本例では、図3に示された端末装置1と行動判定装置10との構成が、全て、端末装置101に備えられている。   By the way, in the example mentioned above, although the action determination apparatus 10 is constructed | assembled by the apparatus different from the terminal device 1 which mounts the acceleration sensor 2, in this Embodiment 1, the action determination apparatus 10 is based on a terminal device. It may be built. This example will be described with reference to FIG. FIG. 10 is a block diagram illustrating another example of the terminal device and the behavior determination device according to Embodiment 1 of the present invention. In the example of FIG. 10, the behavior determination device 10 is built inside the terminal device 101. As illustrated in FIG. 10, in this example, the terminal device 101 includes all the configurations of the terminal device 1 and the behavior determination device 10 illustrated in FIG. 3.

また、図3及び図10には図示されていないが、本実施の形態1は、図3に示された行動判定装置10がコンピュータ、特にパーソナルコンピュータによって構築された態様であっても良い。この態様では、更に、出力装置4は、このコンピュータに接続されたディスプレイ装置であっても良い。   Although not shown in FIGS. 3 and 10, the first embodiment may be an embodiment in which the behavior determination device 10 shown in FIG. 3 is constructed by a computer, particularly a personal computer. In this aspect, the output device 4 may be a display device connected to the computer.

そして、このような態様とした場合、測定対象の人物は、加速度センサ2とデータ取得部3とを備えた装置を携帯することとなる。更に、このような態様とした場合、データ取得部3としては、加速度センサからリアルタイムにセンサデータを取得し、取得したセンサデータを行動判定装置10に無線通信によって送信する装置が挙げられる。また、データ取得部3は、加速度センサからのセンサデータを記憶し、測定の終了後に、記憶したセンサデータを行動判定装置10に転送する装置であっても良い。   And when it is set as such an aspect, the person of a measuring object will carry the apparatus provided with the acceleration sensor 2 and the data acquisition part 3. FIG. Furthermore, when it is set as such an aspect, as the data acquisition part 3, the apparatus which acquires sensor data in real time from an acceleration sensor, and transmits the acquired sensor data to the action determination apparatus 10 by radio | wireless communication is mentioned. The data acquisition unit 3 may be a device that stores sensor data from the acceleration sensor and transfers the stored sensor data to the behavior determination device 10 after the measurement is completed.

なお、以上に述べた装置態様は、実施の形態1のみならず、後に示す他の実施の形態についても、適用できる。他の実施の形態においても、行動判定装置10は、端末装置によって構築されていても良いし、コンピュータによって構築されていても良い。   The apparatus aspect described above can be applied not only to the first embodiment but also to other embodiments described later. Also in other embodiment, the action determination apparatus 10 may be constructed | assembled by the terminal device, and may be constructed | assembled by the computer.

次に、本発明の実施の形態1における行動判定装置10の動作について図11を用いて説明する。図11は、本発明の実施の形態1における行動判定装置の動作を示す流れ図である。以下の説明においては、適宜図1〜図9を参酌する。また、本実施の形態1では、行動判定装置10を動作させることによって、行動判定方法が実施される。よって、本実施の形態1における行動判定方法の説明は、以下の行動判定装置10の動作説明に代える。なお、以下の説明は、行動判定装置10が、図1に示したように、サーバコンピュータによって構築されている場合について行う。但し、行動判定装置10が、端末装置、またはサーバコンピュータ以外のコンピュータによって構築されている場合も同様である。   Next, operation | movement of the action determination apparatus 10 in Embodiment 1 of this invention is demonstrated using FIG. FIG. 11 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 1 of the present invention. In the following description, FIGS. Moreover, in this Embodiment 1, the action determination method is implemented by operating the action determination apparatus 10. Therefore, the description of the behavior determination method in the first embodiment is replaced with the following description of the operation of the behavior determination device 10. In addition, the following description is performed about the case where the action determination apparatus 10 is constructed | assembled by the server computer as shown in FIG. However, the same applies to the case where the behavior determination device 10 is constructed by a terminal device or a computer other than the server computer.

先ず、端末装置1のデータ取得部3が、加速度センサが出力した時系列のセンサデータを、時間窓切出部11に出力すると、図11に示すように、時間窓切出部11が、センサデータを取得する(ステップA1)。例えば、測定対象となる人物が、加速度センサ内蔵の携帯電話を携帯し、データ取得部3がその一部であった場合、センサデータは、携帯電話を通じて取得され、行動判定装置(サーバコンピュータ)10の時間窓切出部11へ送信される。また、ステップA1において、時間窓切出部11が取得するセンサデータは、デジタルデータであり、各データ点における出力値の集合によって構成されている。データ点は、一定時間毎に取得されている。   First, when the data acquisition unit 3 of the terminal device 1 outputs the time-series sensor data output from the acceleration sensor to the time window extraction unit 11, as shown in FIG. Data is acquired (step A1). For example, when a person to be measured carries a mobile phone with a built-in acceleration sensor and the data acquisition unit 3 is a part of the mobile phone, the sensor data is acquired through the mobile phone and the behavior determination device (server computer) 10 Are sent to the time window extraction unit 11. In step A1, the sensor data acquired by the time window extraction unit 11 is digital data, and is composed of a set of output values at each data point. Data points are acquired at regular intervals.

次に、時間窓切出部11は、例えば1秒間などの予め決められた時間長さで、取得したセンサデータの切り出しを行い、切り出したセンサデータを、時間窓データとして、ピーク抽出部13に出力する(ステップA2)。   Next, the time window cutout unit 11 cuts out the acquired sensor data for a predetermined time length such as 1 second, for example, and sends the cut out sensor data to the peak extraction unit 13 as time window data. Output (step A2).

次に、ピーク抽出部13は、時間窓切出部12から出力された時間窓データを用いて、時間窓データ内に存在するピークを特定するピーク情報を抽出する(ステップA3)。また、ステップA3では、ピーク抽出部13は、浮き度以外の特徴量、例えば、加速度分散値、及びピーク間隔を算出する。   Next, the peak extraction unit 13 uses the time window data output from the time window extraction unit 12 to extract peak information that identifies a peak existing in the time window data (step A3). In Step A3, the peak extraction unit 13 calculates a feature amount other than the floating degree, for example, an acceleration dispersion value and a peak interval.

続いて、ピーク抽出部13は、ステップA3で抽出したピーク情報から、時間窓データ内に一歩の足の接地に該当するピークが存在しているかどうかを判定する(ステップA4)。ステップA4の判定の結果、存在していない場合は、再度、ステップA2及びA3が実行される。   Subsequently, the peak extraction unit 13 determines from the peak information extracted in step A3 whether or not a peak corresponding to the ground contact of one step exists in the time window data (step A4). If the result of determination in step A4 does not exist, steps A2 and A3 are executed again.

一方、ステップA4の判定の結果、存在している場合は、ピーク抽出部13は、ピーク情報をピーク間データ切出部14に出力し、ピーク間データ切出部14がステップA5を実行する。また、このとき、ピーク抽出部13は、算出した特徴量を行動判定部16に出力する。   On the other hand, if it exists as a result of the determination in step A4, the peak extraction unit 13 outputs peak information to the peak-to-peak data extraction unit 14, and the peak-to-peak data extraction unit 14 executes step A5. At this time, the peak extraction unit 13 outputs the calculated feature amount to the behavior determination unit 16.

ステップA5では、ピーク間データ切出部14は、ピーク抽出部13から出力されたピーク情報に基づいて、最新のピークとその直前のピークとを特定し、これらのピーク間に該当する時間帯のセンサデータの切り出しを行う。また、ピーク間データ切出部14は、切出したピーク間データを、浮き度算出部15に出力する。   In step A5, the peak-to-peak data cutout unit 14 identifies the latest peak and the peak immediately preceding it based on the peak information output from the peak extraction unit 13, and the time zone corresponding to these peaks. Cut out sensor data. Further, the peak-to-peak data extraction unit 14 outputs the extracted peak-to-peak data to the floating degree calculation unit 15.

次に、浮き度算出部15は、ピーク間データ切出部14から出力されたピーク間データを用いて浮き度を算出する(ステップA6)。例えば、浮き度としてピーク間深さ面積が用いられる場合、浮き度算出部15は、ピーク間データの設定値以下となった部分を時間によって積分し、ピーク間深さ面積を算出する。   Next, the floating degree calculation unit 15 calculates the floating degree using the peak-to-peak data output from the peak-to-peak data cutout unit 14 (step A6). For example, when the peak-to-peak depth area is used as the floating degree, the floating-degree calculating unit 15 integrates a portion that is equal to or less than the set value of the peak-to-peak data with time, and calculates the peak-to-peak depth area.

具体的には、本実施の形態1では、上述したようにセンサデータがデジタルデータであることから、浮き度算出部15は、以下の処理によって積分を行う。先ず、浮き度算出部15は、ピーク間データの1G以下の値の各データ点について、データ点の加速度の値と1Gと差を求め、そして、求めた1Gとの差の値全体の和を算出する。算出された和は、積分によって得られるピーク間深さ面積に相当する。また、浮き度算出部15は、算出した浮き度を行動判定部16に出力する。   Specifically, in the first embodiment, since the sensor data is digital data as described above, the floating degree calculation unit 15 performs integration by the following processing. First, the buoyancy degree calculation unit 15 obtains the difference between 1G and the acceleration value of the data point for each data point having a value of 1G or less of the peak-to-peak data, and calculates the sum of the whole difference value from the obtained 1G. calculate. The calculated sum corresponds to the peak-to-peak depth area obtained by integration. Further, the floating degree calculation unit 15 outputs the calculated floating degree to the behavior determination unit 16.

次に、行動判定部16は、ピーク抽出部13から出力された浮き度以外の時間窓特徴量と、浮き度算出部15から出力された浮き度とを用いて、行動判定を行う(ステップS7)。例えば、ピーク抽出部13が、特徴量として加速度分散値とピーク間隔とを算出している場合は、行動判定部16は、図4〜図6に示した判定ルール、または図7〜図9に示した判定ルールを用いて、測定対象の行動判定を行う。また、行動判定部16は、判定結果を出力部17に出力する。   Next, the behavior determination unit 16 performs a behavior determination using the time window feature amount other than the floating degree output from the peak extraction unit 13 and the floating degree output from the floating degree calculation unit 15 (step S7). ). For example, when the peak extraction unit 13 calculates the acceleration dispersion value and the peak interval as the feature amounts, the behavior determination unit 16 determines whether the determination rule shown in FIGS. 4 to 6 or FIGS. The behavior of the measurement target is determined using the indicated determination rule. Further, the behavior determination unit 16 outputs the determination result to the output unit 17.

次に、出力部17は、行動判定部16から出力された判定結果を端末装置1へと送信する(ステップA8)。ステップA8が実行されると、端末装置1において、その出力装置(ディスプレイ装置)4が、送信された判定結果を、例えば、文字情報または画像情報として画面に表示する。また、出力部17は、図3には図示されていないが、行動判定装置10の記憶装置、及び端末装置1の記憶装置のいずれか、または両方に、判定結果を出力しても良い。   Next, the output part 17 transmits the determination result output from the action determination part 16 to the terminal device 1 (step A8). When step A8 is executed, in the terminal device 1, the output device (display device) 4 displays the transmitted determination result on the screen as, for example, character information or image information. Although not shown in FIG. 3, the output unit 17 may output the determination result to either or both of the storage device of the behavior determination device 10 and the storage device of the terminal device 1.

以上のステップA1〜A8の処理は、例えば、1秒間に1回等のように定期的に、またはデータ取得部3から加速度センサデータが新しく出力される度に、等のように決められた間隔で繰り返し実行される。端末装置1のユーザは、行動判定装置10において、ステップA1〜A8の処理が実行される度に、新しい判定結果を得ることができる。   The processing in steps A1 to A8 described above is performed at regular intervals, such as once per second, or every time acceleration sensor data is newly output from the data acquisition unit 3, etc. Will be executed repeatedly. The user of the terminal device 1 can obtain a new determination result every time the processing of steps A1 to A8 is executed in the behavior determination device 10.

また、本発明の実施の形態1におけるプログラムは、サーバコンピュータまたはパーソナルコンピュータといったコンピュータに、図11に示すステップA1〜A8を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における行動判定装置10と行動判定方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、時間窓切出部11、特徴量算出部12、及び行動判定部16として機能し、処理を行なう。また、コンピュータの通信用のインターフェイスが出力部17として機能する。なお、コンピュータの具体的な構成については後述する。   Moreover, the program in Embodiment 1 of this invention should just be a program which makes computers, such as a server computer or a personal computer, perform step A1-A8 shown in FIG. By installing and executing this program on a computer, the behavior determination device 10 and the behavior determination method according to the first embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as the time window extraction unit 11, the feature amount calculation unit 12, and the behavior determination unit 16, and performs processing. The communication interface of the computer functions as the output unit 17. A specific configuration of the computer will be described later.

ここで、本発明の実施の形態1の効果について説明する。実施の形態1によれば、時間窓データから算出した、浮き度をはじめとする各種特徴量を用いて、行動判定を行うことができる。特に、浮き度は、測定対象の上下方向の移動時に現われる身体全体の上下動を特徴づける指標である。本実施の形態1では、このような指標である浮き度を用いて行動判定が行われるので、測定対象における加速度センサの持ち方によらず、階段昇降に代表される上下方向の移動を、高精度に判定することができる。   Here, the effect of the first embodiment of the present invention will be described. According to the first embodiment, it is possible to perform behavior determination using various feature amounts calculated from the time window data, including the degree of floating. In particular, the degree of buoyancy is an index that characterizes the vertical movement of the entire body that appears when the measurement target moves in the vertical direction. In the first embodiment, since the behavior determination is performed using the degree of float that is such an index, the vertical movement represented by the stair ascending / descending is performed regardless of how the acceleration sensor is held in the measurement target. The accuracy can be determined.

(実施の形態2)
次に本発明の実施の形態2における、行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラムについて、図12〜図14を参照しながら説明する。最初に、本実施の形態2における行動判定装置及び行動判定システムの構成について図12を用いて説明する。図12は、本発明の実施の形態2における行動判定装置及び行動判定システムの構成を示すブロック図である。
(Embodiment 2)
Next, a behavior determination device, a behavior determination system, a terminal device, a behavior determination method, and a program according to Embodiment 2 of the present invention will be described with reference to FIGS. Initially, the structure of the action determination apparatus and action determination system in this Embodiment 2 is demonstrated using FIG. FIG. 12 is a block diagram illustrating a configuration of the behavior determination device and the behavior determination system according to Embodiment 2 of the present invention.

図12に示すように、本実施の形態2における行動判定装置20は、特徴量算出部12において正規化処理部18を備えており、この点で、図3に示した実施の形態1における行動判定装置10と異なっている。これ以外の点については、行動判定装置20は、行動判定装置10と同様に構成されている。また、本実施の形態2における行動判定システム102は、図1にも示した端末装置1と、行動判定装置20とを備えている。以下、実施の形態1との相違点を中心に説明する。   As shown in FIG. 12, the behavior determination apparatus 20 in the second embodiment includes a normalization processing unit 18 in the feature amount calculation unit 12, and in this respect, the behavior in the first embodiment shown in FIG. This is different from the determination device 10. About the point other than this, the action determination apparatus 20 is comprised similarly to the action determination apparatus 10. FIG. The behavior determination system 102 according to the second embodiment includes the terminal device 1 and the behavior determination device 20 that are also illustrated in FIG. Hereinafter, the difference from the first embodiment will be mainly described.

正規化処理部18は、浮き度算出部15によって算出された浮き度に対して、浮き度以外の特徴量を用いて正規化を実行する。行動判定部16は、実施の形態1と異なり、正規化された浮き度を用いて行動判定を行う。本実施の形態2において、正規化は、測定対象毎の加速度センサの持ち方及び歩調等の違いに起因した、センサデータの出力の違いを補正するために行われる。   The normalization processing unit 18 performs normalization on the floating degree calculated by the floating degree calculating unit 15 using a feature amount other than the floating degree. Unlike the first embodiment, the behavior determination unit 16 performs behavior determination using the normalized floating degree. In the second embodiment, normalization is performed in order to correct a difference in output of sensor data caused by a difference in how the acceleration sensor is held for each measurement target, a pace, and the like.

本実施の形態2において、正規化の具体的な方法としては、例えば、浮き度としてピーク間深さ面積が用いられる場合であれば、ピーク抽出部13で算出されたピーク間隔の値で、ピーク間深さ面積を除算する方法が挙げられる。この場合、正規化処理部18は、ピーク抽出部13から、算出されたピーク間隔を取得し、正規化処理に利用する。また、正規化処理部18は、ピーク抽出部13からはピーク情報のみを取得し、ピーク情報からピーク間隔を算出し、算出したピーク間隔を用いて正規化処理を行うこともできる。正規化処理部18は、このような正規化処理によって得られた値(正規化済みの浮き度)を行動判定部16に出力する。   In the second embodiment, as a specific method of normalization, for example, when the peak-to-peak depth area is used as the degree of floatation, the peak interval value calculated by the peak extraction unit 13 is used. There is a method of dividing the inter-depth area. In this case, the normalization processing unit 18 acquires the calculated peak interval from the peak extraction unit 13 and uses it for the normalization processing. In addition, the normalization processing unit 18 can acquire only peak information from the peak extraction unit 13, calculate a peak interval from the peak information, and perform normalization processing using the calculated peak interval. The normalization processing unit 18 outputs the value (normalized floating degree) obtained by such normalization processing to the behavior determination unit 16.

また、本実施の形態2において、正規化の具体的な方法は、上述した方法に限られない。この点について以下に説明する。例えば、測定対象の人物が、加速度センサ2を体幹に身に着けたときは、足の接地によるピークの発生は、左右どちらの足が接地した場合であっても、センサデータにおいてほぼ同じピーク形状で現われる。一方、測定対象の人物が、加速度センサ2を体幹以外の位置に身に着けたときは、加速度センサ2が身に付けられた位置が左右のどちら側であるかによって、センサデータに現われるピーク形状は変化する。つまり、右足の接地で発生するピーク形状と、左足の接地で発生するピーク形状とは相違する。なお、本明細書でいう「体幹」とは、首の下から足の付け根までであって、特には身体の重心付近をいう。   In the second embodiment, the specific normalization method is not limited to the method described above. This will be described below. For example, when the person to be measured wears the acceleration sensor 2 on the trunk, the peak due to the grounding of the foot is almost the same peak in the sensor data regardless of whether the left or right foot is grounded. Appears in shape. On the other hand, when the person to be measured wears the acceleration sensor 2 at a position other than the trunk, the peak that appears in the sensor data depends on which side the left side of the acceleration sensor 2 is worn. The shape changes. That is, the peak shape that occurs when the right foot touches is different from the peak shape that occurs when the left foot touches. The “trunk” as used in this specification refers to the region from the bottom of the neck to the base of the foot, and particularly near the center of gravity of the body.

従って、正規化は、ピーク間隔以外に、例えば、ピーク抽出部13で得られたピークの値、またはピーク間における1G以下の区間の長さ(図2参照)を用いて、行うこともできる。その他、正規化は、ピーク抽出部13が算出した加速度分散値等の値を用いて行うこともできる。なお、このような正規化処理を行う場合は、正規化処理部18は、必要に応じて、ピーク抽出部13にアクセスし、必要な情報を取得する。また、正規化処理部18は、上述したこれらの正規化の手法を組み合わせて用いることもできる。   Therefore, normalization can also be performed using, for example, the peak value obtained by the peak extraction unit 13 or the length of a section of 1 G or less between peaks (see FIG. 2) in addition to the peak interval. In addition, normalization can be performed using a value such as an acceleration dispersion value calculated by the peak extraction unit 13. In addition, when performing such a normalization process, the normalization process part 18 accesses the peak extraction part 13 as needed, and acquires required information. The normalization processing unit 18 can also use a combination of these normalization methods described above.

また、本実施の形態2では、行動判定部16は、正規化された浮き度に基づいて行動判定を行うため、例えば、図13に示した判定ルールを用いる。図13は、本発明の実施の形態2で用いられる判定ルールの一例を示す図である。図13の例では、浮き度として、図2に示したピーク間深さ面積が用いられており、ピーク深さ面積がピーク間隔で正規化された場合の判定ルールが示されている。行動判定部16は、正規化されたピーク間深さ面積を取得すると、これを図13に示す判定ルールに当てはめ、測定対象の行動が「歩く(平地移動)」、「階段の昇り」または「階段の降り」のいずれに該当するかを判定する。   Moreover, in this Embodiment 2, since the action determination part 16 performs action determination based on the normalized floating degree, for example, the determination rule shown in FIG. 13 is used. FIG. 13 is a diagram illustrating an example of a determination rule used in Embodiment 2 of the present invention. In the example of FIG. 13, the peak-to-peak depth area shown in FIG. 2 is used as the degree of floating, and a determination rule when the peak depth area is normalized by the peak interval is shown. When the behavior determining unit 16 obtains the normalized peak depth area, it applies this to the determination rule shown in FIG. 13, and the behavior to be measured is “walking (moving on flat ground)”, “rising stairs” or “ It is determined whether it falls under “step down”.

次に、本発明の実施の形態2における行動判定装置20の動作について図14を用いて説明する。図14は、本発明の実施の形態2における行動判定装置の動作を示す流れ図である。以下の説明においては、適宜図12を参酌する。また、本実施の形態2では、行動判定装置20を動作させることによって、行動判定方法が実施される。よって、本実施の形態2における行動判定方法の説明は、以下の行動判定装置20の動作説明に代える。なお、以下の説明は、行動判定装置20が、図12に示したように、サーバコンピュータによって構築されている場合について行う。但し、行動判定装置20が、端末装置、またはサーバコンピュータ以外のコンピュータによって構築されている場合も同様である。   Next, operation | movement of the action determination apparatus 20 in Embodiment 2 of this invention is demonstrated using FIG. FIG. 14 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 2 of the present invention. In the following description, FIG. 12 is taken into consideration as appropriate. In the second embodiment, the behavior determination method is implemented by operating the behavior determination device 20. Therefore, the description of the behavior determination method in the second embodiment is replaced with the following description of the operation of the behavior determination device 20. In addition, the following description is performed about the case where the action determination apparatus 20 is constructed | assembled by the server computer as shown in FIG. However, the same applies to the case where the behavior determination device 20 is constructed by a computer other than the terminal device or the server computer.

図14に示すように、先ず、時間窓切出部11及び特徴量算出部12によってステップA11〜ステップA16が実行され、浮き度が算出される。図14に示すステップA11〜ステップA16は、図11に示したステップA1〜A6と同様のステップである。   As shown in FIG. 14, first, Step A11 to Step A16 are executed by the time window extraction unit 11 and the feature amount calculation unit 12 to calculate the floating degree. Steps A11 to A16 shown in FIG. 14 are the same steps as Steps A1 to A6 shown in FIG.

なお、本実施の形態2では、実施の形態1と異なり、浮き度算出部15は、算出した値を、行動判定部16ではなく、正規化処理部18に出力する。また、ピーク抽出部13は、算出した特徴量を、行動判定部16に加えて、正規化処理部18にも出力する。   In the second embodiment, unlike the first embodiment, the floating degree calculation unit 15 outputs the calculated value to the normalization processing unit 18 instead of the behavior determination unit 16. In addition, the peak extraction unit 13 outputs the calculated feature amount to the normalization processing unit 18 in addition to the behavior determination unit 16.

次に、正規化処理部18は、与えられた浮き度に正規化処理を施す(ステップA17)。具体的には、例えば、浮き度としてピーク間深さ面積が用いられているとすると、ステップA17では、正規化処理部18は、ピーク抽出部13からピーク間隔を取得し、この値でピーク間深さ面積を除算して、正規化処理を行う。また、正規化処理部18は、ピーク抽出部13からはピーク情報のみを取得し、これを基に算出したピーク間隔の値でピーク間深さ面積を除算し、正規化処理を行っても良い。その後、正規化処理部18は、正規化された浮き度を行動判定部16に出力する。   Next, the normalization processing unit 18 performs normalization processing on the given floating degree (step A17). Specifically, for example, assuming that the peak-to-peak depth area is used as the floating degree, in step A17, the normalization processing unit 18 acquires the peak interval from the peak extracting unit 13, and uses this value to determine the peak-to-peak range. The normalization process is performed by dividing the depth area. Further, the normalization processing unit 18 may acquire only peak information from the peak extraction unit 13 and divide the peak-to-peak depth area by the peak interval value calculated based on the peak information to perform normalization processing. . Thereafter, the normalization processing unit 18 outputs the normalized floating degree to the behavior determination unit 16.

次に、行動判定部16は、ピーク抽出部13から出力された浮き度以外の時間窓特徴量と、正規化処理部18によって正規化された浮き度とを用いて、行動判定を行う(ステップS18)。具体的には、行動判定部16は、図13に示した判定ルールを用いて、測定対象の行動が「歩く(平地移動)」、「階段の昇り」または「階段の降り」のいずれに該当するかを判定する。例えば、正規化された浮き度の値が、例えば208[mG]であったとすると、行動判定部16は、このときの行動を、階段の降りであると判定することができる。   Next, the behavior determination unit 16 performs a behavior determination using the time window feature amount other than the floating degree output from the peak extracting unit 13 and the floating degree normalized by the normalization processing unit 18 (step) S18). Specifically, the behavior determination unit 16 uses the determination rule shown in FIG. 13 to determine whether the measurement target behavior is “walking (moving on a flat ground)”, “ascending stairs”, or “descending stairs”. Judge whether to do. For example, if the normalized value of the floating degree is, for example, 208 [mG], the behavior determination unit 16 can determine that the behavior at this time is descending the stairs.

また、本実施の形態2においても、例えば、ピーク抽出部13が、特徴量として加速度分散値とピーク間隔とを算出している場合は、行動判定部16は、図4及び図5に示した判定ルール、または図7及び図8に示した判定ルールを用いた判定を行うこともできる。   Also in the second embodiment, for example, when the peak extraction unit 13 calculates the acceleration dispersion value and the peak interval as the feature amount, the behavior determination unit 16 is illustrated in FIGS. 4 and 5. The determination using the determination rule or the determination rule shown in FIGS. 7 and 8 can also be performed.

その後、行動判定部16が判定結果を出力部17に出力すると、出力部17は、行動判定部16から出力された判定結果を端末装置1へと送信する(ステップA19)。ステップA19は、図11に示したステップA8と同様のステップである。   Thereafter, when the behavior determination unit 16 outputs the determination result to the output unit 17, the output unit 17 transmits the determination result output from the behavior determination unit 16 to the terminal device 1 (step A19). Step A19 is the same as step A8 shown in FIG.

以上のステップA11〜A19の処理は、例えば、1秒間に1回等のように定期的に、またはデータ取得部3から加速度センサデータが新しく出力される度に、等のように決められた間隔で繰り返し実行される。端末装置1のユーザは、行動判定装置20において、ステップA11〜A19の処理が実行される度に、新しい判定結果を得ることができる。   The processing of the above steps A11 to A19 is performed at regular intervals such as once per second, or every time acceleration sensor data is newly output from the data acquisition unit 3, etc. Is executed repeatedly. The user of the terminal device 1 can obtain a new determination result every time the processing of steps A11 to A19 is executed in the behavior determination device 20.

また、本発明の実施の形態2におけるプログラムは、サーバコンピュータまたはパーソナルコンピュータといったコンピュータに、図14に示すステップA11〜A19を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における行動判定装置20と行動判定方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、時間窓切出部11、特徴量算出部12、行動判定部16及び正規化処理部18として機能し、処理を行なう。また、コンピュータの通信用のインターフェイスが出力部17として機能する。なお、コンピュータの具体的な構成については後述する。   Moreover, the program in Embodiment 2 of this invention should just be a program which makes computers, such as a server computer or a personal computer, perform step A11-A19 shown in FIG. By installing and executing this program on a computer, the behavior determination device 20 and the behavior determination method according to the second embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as the time window extraction unit 11, the feature amount calculation unit 12, the behavior determination unit 16, and the normalization processing unit 18 to perform processing. The communication interface of the computer functions as the output unit 17. A specific configuration of the computer will be described later.

ここで、本発明の実施の形態2の効果について説明する。例えば、浮き度としてピーク間深さ面積が用いられた場合、ピーク間深さ面積の値には、歩調が遅くなれば値が大きくなり、歩調が早くなれば値が小さくなる性質があるため、浮き度も歩調の影響を受けてしまう。そのため、歩調が変化すると誤判定が生じる可能性がある。これに対して、得られたピーク間深さ面積を、歩調を表すピーク間隔で除算し、その値を特徴量に用いれば、歩調の変化による影響を除去することができる。つまり、本実施の形態2によれば、浮き度を正規化した値を用いて行動判定を行うことができるため、歩調に影響されない、より高精度な行動判定が可能となる。   Here, the effect of the second embodiment of the present invention will be described. For example, when the peak-to-peak depth area is used as the degree of floatation, the value of the peak-to-peak depth area has a property that the value increases when the pace is slow, and the value decreases when the pace is fast. The degree of floating is also affected by the pace. Therefore, an erroneous determination may occur when the pace changes. On the other hand, if the obtained peak-to-peak depth area is divided by the peak interval representing the pace, and the value is used as the feature amount, the influence due to the change in the pace can be removed. That is, according to the second embodiment, it is possible to perform the action determination using the value obtained by normalizing the floating degree, and thus it is possible to perform the action determination with higher accuracy without being affected by the pace.

(実施の形態3)
次に本発明の実施の形態3における、行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラムについて、図15及び図16を参照しながら説明する。最初に、本実施の形態3における行動判定装置及び行動判定システムの構成について図15を用いて説明する。図15は、本発明の実施の形態3における行動判定装置及び行動判定システムの構成を示すブロック図である。
(Embodiment 3)
Next, a behavior determination device, a behavior determination system, a terminal device, a behavior determination method, and a program according to Embodiment 3 of the present invention will be described with reference to FIGS. 15 and 16. Initially, the structure of the action determination apparatus and action determination system in this Embodiment 3 is demonstrated using FIG. FIG. 15 is a block diagram illustrating a configuration of the behavior determination device and the behavior determination system according to Embodiment 3 of the present invention.

図15に示すように、本実施の形態3における行動判定装置30は、履歴記憶部31を備えており、この点で、図3に示した実施の形態1における行動判定装置10と異なっている。また、履歴記憶部31が備えられているため、行動判定部16における処理も、実施の形態1と異なっている。これら以外の点については、行動判定装置30は、行動判定装置10と同様に構成されている。また、本実施の形態3における行動判定システム103は、図1にも示した端末装置1と、行動判定装置30とを備えている。以下、実施の形態1との相違点を中心に説明する。   As shown in FIG. 15, the action determination device 30 in the third embodiment includes a history storage unit 31, and is different in this respect from the action determination device 10 in the first embodiment shown in FIG. 3. . In addition, since the history storage unit 31 is provided, the processing in the behavior determination unit 16 is also different from that in the first embodiment. About the point other than these, the action determination apparatus 30 is comprised similarly to the action determination apparatus 10. FIG. The action determination system 103 according to the third embodiment includes the terminal device 1 and the action determination device 30 that are also shown in FIG. Hereinafter, the difference from the first embodiment will be mainly described.

実施の形態1においては、浮き度算出部15が、算出した浮き度を、直接、行動判定部16に出力していたが(図3参照)、本実施の形態3では、浮き度算出部15によって算出された浮き度は、先ず、履歴記憶部31に格納される。   In the first embodiment, the floating degree calculating unit 15 outputs the calculated floating degree directly to the action determining unit 16 (see FIG. 3). However, in the third embodiment, the floating degree calculating unit 15 First, the floating degree calculated by is stored in the history storage unit 31.

履歴記憶部31は、特徴量算出部12が算出した特徴量、具体的には、浮き度算出部15が算出した浮き度と、ピーク抽出部13が算出した特徴量とを、設定期間の間、記憶する。また、履歴記憶部31は、その他、過去一定時間分のピーク情報等を記憶していても良い。以下において、履歴記憶部31が記憶している、浮き度をはじめとする各種特徴量を、「履歴情報」と呼ぶ。   The history storage unit 31 calculates the feature amount calculated by the feature amount calculation unit 12, specifically, the float degree calculated by the float degree calculation unit 15 and the feature amount calculated by the peak extraction unit 13 during the set period. ,Remember. In addition, the history storage unit 31 may store peak information for a certain past time. Hereinafter, the various feature quantities including the floating degree stored in the history storage unit 31 are referred to as “history information”.

また、履歴記憶部31は、浮き度算出部15から最新の浮き度が与えられたり、ピーク抽出部13から最新の他の特徴量が与えられると、与えられた最新の値を記憶する。そして、履歴記憶部31は、必要に応じて、既に記憶している履歴情報の中で最も古い履歴情報を消去する等して、履歴情報を更新する。   Further, when the latest float degree is given from the float degree calculating unit 15 or another latest feature amount is given from the peak extracting unit 13, the history storage unit 31 stores the given latest value. Then, the history storage unit 31 updates the history information as necessary, for example, by erasing the oldest history information among the history information already stored.

行動判定部16は、本実施の形態3では、履歴記憶部31にアクセスし、そこに記憶されている最新の履歴情報を取得し、取得した履歴情報を用いて、測定対象の行動判定を行なう。その際、行動判定部16は、履歴情報を用いて、浮き度をはじめとする特徴量の標準値を求め、求めた標準値を用いて、行動判定を行うことができる。   In the third embodiment, the behavior determination unit 16 accesses the history storage unit 31, acquires the latest history information stored therein, and performs the behavior determination of the measurement target using the acquired history information. . At that time, the behavior determination unit 16 can obtain a standard value of the feature quantity including the degree of float using the history information, and can perform behavior judgment using the obtained standard value.

ここで、例として、行動判定に用いる特徴量として、加速度分散値、ピーク間隔、浮き度を考える。この場合、行動判定部16は、これらの標準値として、それぞれの過去一定時間分の平均値を算出する。そして、行動判定部16は、算出した平均値を、図4〜図6に示した判定ルールに当てはめて、測定対象の行動判定を行うことができる。   Here, as an example, an acceleration dispersion value, a peak interval, and a floating degree are considered as feature amounts used for action determination. In this case, the behavior determination unit 16 calculates an average value for each past fixed time as these standard values. And the action determination part 16 can apply the calculated average value to the determination rule shown in FIGS. 4-6, and can perform the action determination of a measuring object.

具体的には、例えば、浮き度としてピーク間深さ面積が算出され、履歴記憶部31が、履歴情報として、最新の3つのピーク間深さ面積を記憶しているとする。この場合、行動判定部16は、これら最新の3つの値の平均値を求め、平均値を使って行動判定を行う。実際のピーク間深さ面積の履歴が、87[mG・sec]、97[mG・sec]、101[mG・sec]であったとすると、行動判定部16は、これらのピーク間深さ面積の平均値を求める。平均値は、95[mG・sec]となる。行動判定部16が、求めた平均値を図6に示す判定ルールに適用すると、測定対象の行動は「階段の降り」であると判定される。行動判定部16は、本実施の形態3においても、判定結果を出力部7に出力する。   Specifically, for example, it is assumed that the peak-to-peak depth area is calculated as the degree of floating, and the history storage unit 31 stores the latest three peak-to-peak depth areas as the history information. In this case, the behavior determination unit 16 obtains an average value of these latest three values, and performs behavior determination using the average value. If the history of the actual peak-to-peak depth area is 87 [mG · sec], 97 [mG · sec], and 101 [mG · sec], the behavior determination unit 16 determines the depth area between these peaks. Find the average value. The average value is 95 [mG · sec]. When the action determination unit 16 applies the obtained average value to the determination rule shown in FIG. 6, the action to be measured is determined to be “step down”. The behavior determination unit 16 outputs the determination result to the output unit 7 also in the third embodiment.

また、本実施の形態3において、標準値は、履歴情報から算出される平均値に限定されるものではない。更に、履歴情報から得られた標準値の利用は、上述した利用に限定されるものではない。例えば、行動判定部16は、求めた標準値を用い、標準値と比較して極端に大きい値、又は極端に小さい値をノイズと見なし、これらを取り除く処理を行うこともできる。このような処理を行った場合は、行動判定結果の精度の更なる向上が図られる。   In the third embodiment, the standard value is not limited to the average value calculated from the history information. Furthermore, the use of the standard value obtained from the history information is not limited to the use described above. For example, the behavior determination unit 16 may use the obtained standard value, consider an extremely large value or an extremely small value as noise compared to the standard value, and perform processing to remove these. When such processing is performed, the accuracy of the action determination result is further improved.

また、行動判定部16は、履歴情報に含まれる特徴量のうち最新の特徴量を除く特徴量について、平均値を算出し、そして、算出した平均値と最新の特徴量との差分を求め、求めた差分の値が閾値以下である場合に、測定対象の行動の判定を中止することもできる。この場合の差分の閾値としては、0(ゼロ)又は0(ゼロ)に近い値が挙げられる。   In addition, the behavior determination unit 16 calculates an average value for the feature amount excluding the latest feature amount among the feature amounts included in the history information, and obtains a difference between the calculated average value and the latest feature amount, When the obtained difference value is equal to or less than the threshold value, the determination of the action to be measured can be stopped. In this case, the threshold value of the difference includes 0 (zero) or a value close to 0 (zero).

このような差分を用いた処理を行った場合は、無駄となる処理が実行されないため、行動判定装置30における負担が軽減される。また、このような処理は、行動判定装置30が、計算資源及び消費電力等の制約が大きい携帯電話等の端末装置1に組み込まれる場合(図10参照)に特に有用である。   When processing using such a difference is performed, unnecessary processing is not executed, and thus the burden on the behavior determination device 30 is reduced. Further, such processing is particularly useful when the behavior determination device 30 is incorporated in the terminal device 1 such as a mobile phone that has large restrictions on calculation resources and power consumption (see FIG. 10).

次に、本発明の実施の形態3における行動判定装置30の動作について図16を用いて説明する。図16は、本発明の実施の形態3における行動判定装置の動作を示す流れ図である。以下の説明においては、適宜図15を参酌する。また、本実施の形態3では、行動判定装置30を動作させることによって、行動判定方法が実施される。よって、本実施の形態3における行動判定方法の説明は、以下の行動判定装置30の動作説明に代える。なお、以下の説明は、行動判定装置30が、図15に示したように、サーバコンピュータによって構築されている場合について行う。但し、行動判定装置30が、端末装置、またはサーバコンピュータ以外のコンピュータによって構築されている場合も同様である。   Next, operation | movement of the action determination apparatus 30 in Embodiment 3 of this invention is demonstrated using FIG. FIG. 16 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 3 of the present invention. In the following description, FIG. 15 is referred to as appropriate. In the third embodiment, the behavior determination method is implemented by operating the behavior determination device 30. Therefore, the description of the behavior determination method in the third embodiment is replaced with the following description of the operation of the behavior determination device 30. In addition, the following description is performed about the case where the action determination apparatus 30 is constructed | assembled by the server computer as shown in FIG. However, the same applies to the case where the behavior determination device 30 is constructed by a computer other than the terminal device or the server computer.

図16に示すように、先ず、時間窓切出部11及び特徴量算出部12によってステップA21〜ステップA26が実行され、浮き度が算出される。図16に示すステップA21〜ステップA26は、図11に示したステップA1〜A6と同様のステップである。   As shown in FIG. 16, first, Step A21 to Step A26 are executed by the time window cutout unit 11 and the feature amount calculation unit 12 to calculate the floating degree. Steps A21 to A26 shown in FIG. 16 are the same as steps A1 to A6 shown in FIG.

なお、本実施の形態3では、実施の形態1と異なり、浮き度算出部15及びピーク抽出部13は、算出した値を、行動判定部16ではなく、履歴記憶部31に出力する。   In the third embodiment, unlike the first embodiment, the floating degree calculation unit 15 and the peak extraction unit 13 output the calculated values to the history storage unit 31 instead of the behavior determination unit 16.

次に、履歴記憶部31は、浮き度算出部15又はピーク抽出部13から、算出された特徴量を受け取ると、それを最新の履歴情報として記憶し、更に履歴情報を更新する(ステップA27)。具体的には、ステップA27では、履歴記憶部31は、浮き度算出部15から最新の浮き度が与えられたり、ピーク抽出部13から最新の他の特徴量が与えられたりすると、与えられた最新の値を記憶する。そして、履歴記憶部31は、必要に応じて、既に記憶している履歴情報の中で最も古い履歴情報を消去する等して、履歴情報を更新する。   Next, when the history storage unit 31 receives the calculated feature amount from the floating degree calculation unit 15 or the peak extraction unit 13, it stores it as the latest history information and further updates the history information (step A27). . Specifically, in step A27, the history storage unit 31 is given when the latest float degree is given from the float degree calculating unit 15 or the latest other feature amount is given from the peak extracting unit 13. Remember the latest value. Then, the history storage unit 31 updates the history information as necessary, for example, by erasing the oldest history information among the history information already stored.

次に、行動判定部16は、履歴記憶部31にアクセスし、最新の履歴情報を取得し、これを用いて行動判定を行なう(ステップA28)。具体的には、行動判定部16は、例えば、加速度分散値、ピーク間隔、浮き度の履歴情報を取得し、これらの過去一定時間分の平均値を算出する。そして、行動判定部16は、算出した各平均値を、図4〜図6に示した判定ルールに当てはめて、測定対象の行動判定を行う。   Next, the behavior determination unit 16 accesses the history storage unit 31, acquires the latest history information, and performs a behavior determination using this (step A28). Specifically, the behavior determination unit 16 acquires, for example, history information on the acceleration dispersion value, the peak interval, and the floating degree, and calculates an average value for these past certain time periods. And the action determination part 16 applies each calculated average value to the determination rule shown in FIGS. 4-6, and performs the action determination of a measuring object.

その後、行動判定部16が判定結果を出力部17に出力すると、出力部17は、行動判定部16から出力された判定結果を端末装置1へと送信する(ステップA29)。ステップA29は、図11に示したステップA8と同様のステップである。   Thereafter, when the behavior determination unit 16 outputs the determination result to the output unit 17, the output unit 17 transmits the determination result output from the behavior determination unit 16 to the terminal device 1 (step A29). Step A29 is the same as step A8 shown in FIG.

以上のステップA21〜A29の処理は、例えば、1秒間に1回等のように定期的に、またはデータ取得部3から加速度センサデータが新しく出力される度に、等のように決められた間隔で繰り返し実行される。端末装置1のユーザは、行動判定装置30において、ステップA21〜A29の処理が実行される度に、新しい判定結果を得ることができる。   The processing of the above steps A21 to A29 is performed at regular intervals, such as once per second, or every time acceleration sensor data is newly output from the data acquisition unit 3, etc. Will be executed repeatedly. The user of the terminal device 1 can obtain a new determination result every time the processing of steps A21 to A29 is executed in the behavior determination device 30.

また、本発明の実施の形態3におけるプログラムは、サーバコンピュータまたはパーソナルコンピュータといったコンピュータに、図16に示すステップA21〜A29を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態3における行動判定装置30と行動判定方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、時間窓切出部11、特徴量算出部12、行動判定部16及び正規化処理部18として機能し、処理を行なう。また、コンピュータの通信用のインターフェイスが出力部17として機能する。更に、コンピュータに備えられた記憶装置が履歴記憶部31として機能する。なお、コンピュータの具体的な構成については後述する。   Moreover, the program in Embodiment 3 of this invention should just be a program which makes computers, such as a server computer or a personal computer, perform step A21-A29 shown in FIG. By installing and executing this program on a computer, the behavior determination device 30 and the behavior determination method according to the third embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as the time window extraction unit 11, the feature amount calculation unit 12, the behavior determination unit 16, and the normalization processing unit 18 to perform processing. The communication interface of the computer functions as the output unit 17. Further, a storage device provided in the computer functions as the history storage unit 31. A specific configuration of the computer will be described later.

ここで、本発明の実施の形態3の効果について説明する。本実施の形態3では、過去の履歴情報に基づいて平均値などの値が算出され、この値に基づいて行動判定が行われる。このため、加速度センサからのセンサデータに突然ノイズが混入した場合であっても、行動判定に用いる特徴量の値が、突然のノイズによって極端に変化してしまう事態の発生が抑制される。この結果、本実施の形態3によれば、突然のノイズによる誤判定の発生を抑制でき、結果として、より高精度な行動判定が可能となる。   Here, the effect of the third embodiment of the present invention will be described. In the third embodiment, a value such as an average value is calculated based on past history information, and behavior determination is performed based on this value. For this reason, even when noise is suddenly mixed in the sensor data from the acceleration sensor, occurrence of a situation in which the value of the feature value used for action determination is extremely changed by the sudden noise is suppressed. As a result, according to the third embodiment, the occurrence of erroneous determination due to sudden noise can be suppressed, and as a result, more accurate action determination can be performed.

また、本実施の形態3は、実施の形態2と組み合わせることができる。具体的には、図15に示した行動判定装置30は、図12に示した正規化処理部18を備えていても良い。この場合は、行動判定装置30においては、履歴記憶部31は、履歴情報として、正規化された浮き度を記憶する。   The third embodiment can be combined with the second embodiment. Specifically, the behavior determination device 30 illustrated in FIG. 15 may include the normalization processing unit 18 illustrated in FIG. In this case, in the behavior determination device 30, the history storage unit 31 stores the normalized floating degree as history information.

(実施の形態4)
次に本発明の実施の形態4における、行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラムについて、図17〜図20を参照しながら説明する。最初に、本実施の形態4における行動判定装置及び行動判定システムの構成について図17を用いて説明する。図17は、本発明の実施の形態4における行動判定装置及び行動判定システムの構成を示すブロック図である。
(Embodiment 4)
Next, a behavior determination device, a behavior determination system, a terminal device, a behavior determination method, and a program according to Embodiment 4 of the present invention will be described with reference to FIGS. Initially, the structure of the action determination apparatus and action determination system in this Embodiment 4 is demonstrated using FIG. FIG. 17 is a block diagram showing the configuration of the behavior determination device and the behavior determination system according to Embodiment 4 of the present invention.

図17に示すように、本実施の形態4における行動判定装置40は、学習部41を備えており、この点で、図3に示した実施の形態1における行動判定装置10と異なっている。また、学習部41が備えられているため、行動判定部16における処理も実施の形態1と異なっている。これら以外の点については、行動判定装置40は、行動判定装置10と同様に構成されている。   As shown in FIG. 17, the behavior determination device 40 according to the fourth embodiment includes a learning unit 41, and is different from the behavior determination device 10 according to the first embodiment shown in FIG. 3 in this respect. In addition, since the learning unit 41 is provided, the processing in the behavior determination unit 16 is also different from that in the first embodiment. About the point other than these, the action determination apparatus 40 is comprised similarly to the action determination apparatus 10. FIG.

また、本実施の形態4における行動判定システム104は、図1にも示した端末装置1と、行動判定装置40とを備えている。なお、図17に示す端末装置では、図3、図10、図12、図15においては図示されていなかった「入力装置5」が図示されている。以下、実施の形態1との相違点を中心に説明する。   Moreover, the action determination system 104 in this Embodiment 4 is provided with the terminal device 1 and the action determination apparatus 40 which were also shown in FIG. In the terminal device shown in FIG. 17, “input device 5” not shown in FIGS. 3, 10, 12, and 15 is shown. Hereinafter, the difference from the first embodiment will be mainly described.

学習部41は、測定対象となる人物の個人差を考慮した行動判定を行うために備えられている。本実施の形態4では、出力部17が端末装置1に判定結果を出力し、出力装置4が判定結果を表示すると、正解行動を知るユーザが、入力装置5を用いて、判定結果の正解不正解を入力することができる。これにより、端末装置1から、行動判定装置40に対して、判定結果の正否を特定する情報(以下「正解行動情報」という。)が出力される。   The learning unit 41 is provided for performing behavior determination in consideration of individual differences between persons to be measured. In the fourth embodiment, when the output unit 17 outputs the determination result to the terminal device 1 and the output device 4 displays the determination result, the user who knows the correct action uses the input device 5 to determine whether the determination result is correct. You can enter the correct answer. As a result, the terminal device 1 outputs information (hereinafter referred to as “correct answer behavior information”) that specifies the correctness of the determination result to the behavior determination device 40.

例えば、端末装置1が携帯電話であるとすると、測定対象となる人物(ユーザ)は、先ず、携帯電話を通じて自分の行動の判定結果を知る。具体的には、図18に示す画面が、出力装置(ディスプレイ装置)4の画面に表示される。図18は、本発明の実施の形態4においてユーザに判定結果の正否の入力を求める際の端末装置の画面の一例を示す図である。   For example, if the terminal device 1 is a mobile phone, a person (user) to be measured first knows the determination result of his / her action through the mobile phone. Specifically, the screen shown in FIG. 18 is displayed on the screen of the output device (display device) 4. FIG. 18 is a diagram illustrating an example of a screen of the terminal device when the user is requested to input whether the determination result is correct in Embodiment 4 of the present invention.

そして、判定結果が正解であったときは、ユーザは、携帯電話のキー又はタッチパネル等によって判定結果が正しかったことを入力する。一方、判定結果が誤りであったときは、ユーザは、携帯電話のキー又はタッチパネル等によって正解行動を入力する。これにより、端末装置1から、ユーザの入力結果に応じた正解行動情報が、行動判定装置40へと送信される。   When the determination result is correct, the user inputs that the determination result is correct using a key of the mobile phone or a touch panel. On the other hand, if the determination result is incorrect, the user inputs the correct action using the key of the mobile phone or the touch panel. Thereby, the correct behavior information corresponding to the user input result is transmitted from the terminal device 1 to the behavior determination device 40.

学習部41は、端末装置1が正解行動情報を送信すると、正解行動情報を受け付け、受け付けた正解行動情報と、先に出力部17が送信した判定の結果とを対比し、対比の結果から、行動判定部16が判定を行う際のルールを更新する。本実施の形態4では、学習部41は、受け付けた正解行動情報に基づいて、図4〜図6に示した判定ルール、又は図7〜図9に示した判定ルールにおいて、設定されている閾値の調整などを行う。   When the terminal device 1 transmits the correct behavior information, the learning unit 41 receives the correct behavior information, compares the received correct behavior information with the determination result transmitted by the output unit 17 earlier, and from the comparison result, The rules when the behavior determination unit 16 performs the determination are updated. In the fourth embodiment, the learning unit 41 sets the threshold value set in the determination rule shown in FIGS. 4 to 6 or the determination rule shown in FIGS. 7 to 9 based on the received correct behavior information. Make adjustments.

例えば、浮き度としてピーク間深さ面積が用いられ、浮き度算出部15が算出したピーク間深さ面積の値が110[mG・sec]の場合、図6に示した判定ルールを適用すると、行動判定部16は「階段降り」と判定する。この場合において、ユーザが正解行動情報として「階段昇り」を入力したとすると、学習部41は、学習を行い、図6に示した判定ルールを、図19に示した判定ルールに更新する。この後、行動判定部16は、更新された判定ルールを用いて、判定処理を実行する。図19は、本発明の実施の形態4において学習後に変更された判定ルールの一例を示す図である。   For example, when the peak-to-peak depth area is used as the floating degree and the value of the peak-to-peak depth area calculated by the floating degree calculating unit 15 is 110 [mG · sec], the determination rule illustrated in FIG. The action determination unit 16 determines “step down”. In this case, if the user inputs “step up” as correct action information, the learning unit 41 performs learning and updates the determination rule illustrated in FIG. 6 to the determination rule illustrated in FIG. Thereafter, the behavior determination unit 16 executes determination processing using the updated determination rule. FIG. 19 is a diagram illustrating an example of a determination rule changed after learning in the fourth embodiment of the present invention.

次に、本発明の実施の形態4における行動判定装置40の動作について図20を用いて説明する。図20は、本発明の実施の形態4における行動判定装置の動作を示す流れ図である。以下の説明においては、適宜図17を参酌する。また、本実施の形態4では、行動判定装置40を動作させることによって、行動判定方法が実施される。よって、本実施の形態4における行動判定方法の説明は、以下の行動判定装置40の動作説明に代える。なお、以下の説明は、行動判定装置40が、図17に示したように、サーバコンピュータによって構築されている場合について行う。但し、行動判定装置40が、端末装置、またはサーバコンピュータ以外のコンピュータによって構築されている場合も同様である。   Next, operation | movement of the action determination apparatus 40 in Embodiment 4 of this invention is demonstrated using FIG. FIG. 20 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 4 of the present invention. In the following description, FIG. 17 is referred to as appropriate. Moreover, in this Embodiment 4, the action determination method is implemented by operating the action determination apparatus 40. FIG. Therefore, the description of the behavior determination method in the fourth embodiment is replaced with the following description of the operation of the behavior determination device 40. In addition, the following description is performed about the case where the action determination apparatus 40 is constructed | assembled by the server computer as shown in FIG. However, the same applies to the case where the behavior determination device 40 is constructed by a computer other than the terminal device or the server computer.

図20に示すように、先ず、時間窓切出部11及び特徴量算出部12によってステップA31〜ステップA36が実行され、浮き度が算出される。図20に示すステップA31〜ステップA36は、図11に示したステップA1〜A6と同様のステップである。   As shown in FIG. 20, first, Step A31 to Step A36 are executed by the time window cutout unit 11 and the feature amount calculation unit 12 to calculate the floating degree. Steps A31 to A36 shown in FIG. 20 are the same steps as steps A1 to A6 shown in FIG.

次に、行動判定部16は、ピーク抽出部13から出力された浮き度以外の時間窓特徴量と、浮き度算出部15から出力された浮き度とを用いて、行動判定を行う(ステップS37)。ステップA37は、図11に示したステップA7と同様のステップであるが、既に、学習部41によって判定ルールの変更が行われている場合は、行動判定部16は、変更後の判定ルール(図19参照)を用いて判定を行う。また、行動判定部16は、行動判定の結果を出力部17に出力する。   Next, the behavior determination unit 16 performs a behavior determination using the time window feature amount other than the floating degree output from the peak extraction unit 13 and the floating degree output from the floating degree calculation unit 15 (step S37). ). Step A37 is the same as step A7 shown in FIG. 11. However, when the determination rule has already been changed by the learning unit 41, the behavior determination unit 16 determines that the determination rule after the change (FIG. 19). Further, the behavior determination unit 16 outputs the result of the behavior determination to the output unit 17.

次に、出力部17は、行動判定部16から出力された判定結果を端末装置1へと送信する(ステップA38)。ステップA38が実行されると、端末装置1において、その出力装置(ディスプレイ装置)4が、送信された判定結果を画面に表示する。   Next, the output part 17 transmits the determination result output from the action determination part 16 to the terminal device 1 (step A38). When step A38 is executed, in the terminal device 1, the output device (display device) 4 displays the transmitted determination result on the screen.

但し、ステップA38では、図11に示したステップA8と異なり、端末装置1の画面には、図18に示したように、ユーザに判定結果の正否の入力を促す画面が表示される。ユーザは、判定結果が正解である場合は正解と入力し、正解でない場合は正しい行動結果を選択して入力する。   However, in step A38, unlike step A8 shown in FIG. 11, the screen of the terminal device 1 displays a screen prompting the user to input whether the determination result is correct or not, as shown in FIG. The user inputs a correct answer when the determination result is correct, and selects and inputs a correct action result when the determination result is not correct.

次に、出力部17による送信が行われた後、学習部41は、端末装置1から正解行動情報が送信されるまで待機状態となり、送信があった場合は、正解行動情報を受け付ける(ステップA39)。   Next, after the transmission by the output unit 17, the learning unit 41 is in a standby state until the correct behavior information is transmitted from the terminal device 1, and when there is a transmission, accepts the correct behavior information (step A39). ).

次に、学習部41は、正解行動情報から、ステップA37での判定結果が正解であったかどうかを判定する(ステップA40)。判定の結果、正解であった場合は、学習部41は、判定ルールの更新を行わず、処理を終了する。一方、判定の結果、正解でなかった場合は、学習部41は、正解行動情報に基づいて学習を行い、判定ルールを更新する(ステップA41)。   Next, the learning unit 41 determines whether or not the determination result in Step A37 is correct from the correct behavior information (Step A40). As a result of the determination, if the answer is correct, the learning unit 41 ends the process without updating the determination rule. On the other hand, if the result of determination is not correct, the learning unit 41 performs learning based on the correct behavior information and updates the determination rule (step A41).

ステップA41の実行後、更に、行動判定部16は、更新された判定ルールを用いて、再度判定処理を行う(ステップA37)。続いて、再度、ステップA38〜A40が実行される。ステップA37〜A40、及びA41は、ユーザが正解であると入力するまで、繰り返し行われる。   After execution of step A41, the behavior determination unit 16 performs the determination process again using the updated determination rule (step A37). Subsequently, steps A38 to A40 are executed again. Steps A37 to A40 and A41 are repeated until the user inputs that the answer is correct.

以上のステップA31〜A41の処理は、例えば、1秒間に1回等のように定期的に、またはデータ取得部3から加速度センサデータが新しく出力される度に、等のように決められた間隔で繰り返し実行される。端末装置1のユーザは、行動判定装置40において、ステップA31〜A41の処理が実行される度に、新しい判定結果を得ることができる。   The processing of the above steps A31 to A41 is performed at regular intervals, such as once per second, or every time acceleration sensor data is newly output from the data acquisition unit 3, etc. Is executed repeatedly. The user of the terminal device 1 can obtain a new determination result every time the processing of steps A31 to A41 is executed in the behavior determination device 40.

また、本発明の実施の形態4におけるプログラムは、サーバコンピュータまたはパーソナルコンピュータといったコンピュータに、図20に示すステップA31〜A41を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態4における行動判定装置40と行動判定方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、時間窓切出部11、特徴量算出部12、行動判定部16及び学習部41として機能し、処理を行なう。また、コンピュータの通信用のインターフェイスが出力部17として機能する。なお、コンピュータの具体的な構成については後述する。   Moreover, the program in Embodiment 4 of this invention should just be a program which makes a computer, such as a server computer or a personal computer, perform step A31-A41 shown in FIG. By installing and executing this program on a computer, the behavior determination device 40 and the behavior determination method according to the fourth embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as the time window extraction unit 11, the feature amount calculation unit 12, the behavior determination unit 16, and the learning unit 41 to perform processing. The communication interface of the computer functions as the output unit 17. A specific configuration of the computer will be described later.

ここで、本発明の実施の形態4の効果について説明する。一般的に、身長が異なる等の理由により、身体の上下動の大きさには違いが生じる。このために、測定対象となる人物の身体的特徴によっては、判定ルールに定められた閾値を用いると、精度良く行動を判定できない場合がある。しかし、本実施の形態4では、正解行動を知る人物からの、正解行動の申告に基づいて判定ルールの更新、具体的には閾値の調整等が行われる。従って、本実施の形態4によれば、正解行動を基に学習を重ねることで各個人に適応した最適な閾値を定めることが可能であるため、どのような人物に対しても精度良く行動を判定することが可能となる。   Here, the effect of the fourth embodiment of the present invention will be described. Generally, there is a difference in the magnitude of vertical movement of the body due to reasons such as different heights. For this reason, depending on the physical characteristics of the person to be measured, if a threshold value set in the determination rule is used, the action may not be accurately determined. However, in the fourth embodiment, the determination rule is updated based on the correct action declaration from the person who knows the correct action, specifically, the threshold value is adjusted. Therefore, according to the fourth embodiment, it is possible to set an optimum threshold value adapted to each individual by repeating learning based on correct behavior, so that any person can be accurately acted on. It becomes possible to judge.

また、図19を用いて説明した、誤判定が生じたときの閾値変更の例では、誤判定が起きたときのピーク間深さ面積の値が、新たな閾値として採用され、判定ルールの更新が行われている。しかし、本実施の形態4において、閾値変更の態様は、上記の例に限定されるものではない。   Further, in the example of the threshold value change when an erroneous determination occurs described with reference to FIG. 19, the value of the peak-to-peak depth area when the erroneous determination occurs is adopted as a new threshold value, and the determination rule is updated. Has been done. However, in the fourth embodiment, the mode of threshold change is not limited to the above example.

例えば、上述したように、階段の昇りを判定するための上限閾値として90[mG・sec]が設定され(図6参照)、一方、算出されたピーク間深さが110[mG・sec]であるにも関わらず、入力された行動が「階段昇り」である場合を考える。このような場合において、本実施の形態4では、例えば、階段の昇りを判定する上限閾値を、従来90[mG・sec]であるのを、91[mG・sec]に変更することができる。つまり、本実施の形態4では、1回の閾値の変更幅を小さくすることができ、変更が加わる度に急激に閾値が変化してしまい、判定精度が不安定になるといった悪影響の発生を抑制することができる。   For example, as described above, 90 [mG · sec] is set as the upper limit threshold for determining the climb of the stairs (see FIG. 6), while the calculated peak-to-peak depth is 110 [mG · sec]. Consider the case where the input action is “up stairs” in spite of being there. In such a case, in the fourth embodiment, for example, the upper limit threshold value for determining the climb of the stairs can be changed from 91 [mG · sec] to 91 [mG · sec]. That is, in the fourth embodiment, it is possible to reduce the change width of one threshold value, and suppress the occurrence of an adverse effect that the threshold value changes abruptly every time a change is made and the determination accuracy becomes unstable. can do.

更に、本実施の形態4は、実施の形態2、及び実施の形態3のいずれかまたは両方と組み合わせることも可能である。特に、本実施の形態4を実施の形態3と組み合わせる場合は、学習部41は、履歴記憶部31(図15参照)に記憶されている履歴情報を用いて判定ルールを更新することもできる。また、この場合は、判定ルールの更新は、例えば、階段の昇り行動について考えると、階段昇り行動時のピーク間深さ面積の分布状況を求める等して行うことができる。具体的には、学習部41は、履歴情報から、階段昇り行動時に現われたピーク間深さ面積の例えば80%以上が含まれる範囲を特定し、特定した範囲の上限と下限とをそれぞれ判定ルールの新しい閾値として設定する。   Furthermore, Embodiment 4 can be combined with either or both of Embodiment 2 and Embodiment 3. In particular, when the fourth embodiment is combined with the third embodiment, the learning unit 41 can also update the determination rule using the history information stored in the history storage unit 31 (see FIG. 15). In this case, the determination rule can be updated by, for example, determining the distribution state of the peak-to-peak depth area during the stair climbing action when considering the stair climbing action. Specifically, the learning unit 41 identifies, from the history information, a range that includes, for example, 80% or more of the peak-to-peak depth area that appears during the stairs climbing action, and determines an upper limit and a lower limit of the identified range, respectively. Set as a new threshold.

(実施の形態5)
次に本発明の実施の形態5における、行動判定装置、行動判定システム、端末装置、行動判定方法、及びプログラムについて、図21及び図22を参照しながら説明する。最初に、本実施の形態5における行動判定装置及び行動判定システムの構成について図21を用いて説明する。図21は、本発明の実施の形態5における行動判定装置及び行動判定システムの構成を示すブロック図である。
(Embodiment 5)
Next, a behavior determination device, a behavior determination system, a terminal device, a behavior determination method, and a program according to Embodiment 5 of the present invention will be described with reference to FIGS. Initially, the structure of the action determination apparatus and action determination system in this Embodiment 5 is demonstrated using FIG. FIG. 21 is a block diagram illustrating the configuration of the behavior determination device and the behavior determination system according to the fifth embodiment of the present invention.

図21に示すように、本実施の形態5における行動判定装置50は、履歴記憶部51及び学習部52を備えており、この点で、図3に示した実施の形態1における行動判定装置10と異なっている。また、履歴記憶部51及び学習部52が備えられているため、行動判定部16における処理も実施の形態1と異なっている。これら以外の点については、行動判定装置50は、行動判定装置10と同様に構成されている。   As shown in FIG. 21, the action determination device 50 according to the fifth embodiment includes a history storage unit 51 and a learning unit 52. In this regard, the action determination device 10 according to the first embodiment shown in FIG. Is different. Further, since the history storage unit 51 and the learning unit 52 are provided, the processing in the behavior determination unit 16 is also different from that in the first embodiment. About the point other than these, the action determination apparatus 50 is comprised similarly to the action determination apparatus 10. FIG.

また、本実施の形態5における行動判定システム105は、図1にも示した端末装置1と、行動判定装置50とを備えている。なお、図21に示す端末装置では、図3、図10、図12、図15においては図示されていなかった「入力装置5」が図示されている。以下、実施の形態1との相違点を中心に説明する。   The action determination system 105 according to the fifth embodiment includes the terminal device 1 and the action determination device 50 shown in FIG. In the terminal device shown in FIG. 21, “input device 5” not shown in FIGS. 3, 10, 12, and 15 is shown. Hereinafter, the difference from the first embodiment will be mainly described.

本実施の形態5では、行動判定部16は、行動判定を行った後、判定に用いた浮き度をはじめとする特徴量と、このときの行動の判定結果とを履歴記憶部51に出力する。履歴記憶部51は、出力された特徴量、判定結果、及び行動判定部16による判定が行われた時刻(判定時刻)を、セットにして、履歴情報として記憶する。また、履歴記憶部51は、履歴情報を、過去一定時間分(設定期間分)、例えば1日分等の予め決められた長さ分記憶し、必要に応じて、既に記憶している履歴情報の中から、最も古い履歴情報を順に消去する等して履歴情報を更新する。   In the fifth embodiment, the behavior determination unit 16 outputs the feature amount including the degree of float used for the determination and the determination result of the behavior at this time to the history storage unit 51 after performing the behavior determination. . The history storage unit 51 stores the output feature value, the determination result, and the time (determination time) at which the determination by the behavior determination unit 16 is performed as a set and stores it as history information. The history storage unit 51 stores history information for a predetermined period of time (for a set period), for example, a predetermined length such as one day, and the history information that has already been stored as necessary. The history information is updated by, for example, sequentially deleting the oldest history information.

また、本実施の形態5では、出力部17は、履歴記憶部51にアクセスして履歴情報を取得し、履歴記憶部51が記憶している、設定期間分の、判定結果と判定時刻とを端末装置1に送信する。これにより、端末装置1の出力装置4は、画面において、設定期間分の判定結果と判定時刻とを表示する。更に、本実施の形態5でも、出力装置4が、出力された履歴情報を表示すると、実施の形態4と同様に、正解行動を知るユーザが、入力装置5を用いて、判定結果の正解不正解を入力することができる。   In the fifth embodiment, the output unit 17 accesses the history storage unit 51 to acquire history information, and the determination result and the determination time for the set period stored in the history storage unit 51 are displayed. It transmits to the terminal device 1. Thereby, the output device 4 of the terminal device 1 displays the determination result and the determination time for the set period on the screen. Further, also in the fifth embodiment, when the output device 4 displays the output history information, the user who knows the correct behavior, as in the fourth embodiment, uses the input device 5 to determine whether the determination result is correct. You can enter the correct answer.

具体的には、出力部17から履歴情報が送信されると、端末装置1では、出力装置4により、設定期間分の判定時刻とそのときの判定結果とを表示する。端末装置1のユーザは、表示された判定結果が、その時刻の真の行動を正しく表しているかどうかを判断し、正否を入力する。これにより、端末装置1から、行動判定装置50に対して、出力部17が出力した判定の結果と判定時刻との正否を特定する情報(以下「正解行動情報」という。)が出力される。   Specifically, when history information is transmitted from the output unit 17, the terminal device 1 displays the determination time for the set period and the determination result at that time on the output device 4. The user of the terminal device 1 determines whether or not the displayed determination result correctly represents the true action at that time, and inputs correctness. As a result, the terminal device 1 outputs information (hereinafter referred to as “correct action information”) that specifies whether the determination result output by the output unit 17 is correct and the determination time to the behavior determination device 50.

例えば、端末装置1が携帯電話であるとすると、測定対象となる人物(ユーザ)は、先ず、携帯電話を通じて、自分の過去の行動の判定結果を知る。そして、判定結果が正解であったときは、ユーザは、携帯電話のキー又はタッチパネル等によって判定結果が正しかったことを入力する。一方、判定結果が誤りであったときは、ユーザは、携帯電話のキー又はタッチパネル等によって正解行動を入力する。これにより、端末装置1から、ユーザの入力結果に応じた正解行動情報が、行動判定装置50へと送信される。   For example, when the terminal device 1 is a mobile phone, a person (user) to be measured first knows the determination result of his past behavior through the mobile phone. When the determination result is correct, the user inputs that the determination result is correct using a key of the mobile phone or a touch panel. On the other hand, if the determination result is incorrect, the user inputs the correct action using the key of the mobile phone or the touch panel. Thereby, the correct behavior information corresponding to the input result of the user is transmitted from the terminal device 1 to the behavior determination device 50.

学習部52は、端末装置1が正解行動情報を送信すると、正解行動情報を受け付け、受け付けた正解行動情報と、先に出力部17が送信した判定の結果及び判定時刻とを対比し、対比の結果から、行動判定部16が判定を行う際のルールを更新する。本実施の形態5においても、実施の形態4と同様に、学習部52は、受け付けた正解行動情報に基づいて、図4〜図6に示した判定ルール、又は図7〜図9に示した判定ルールにおいて、設定されている閾値の調整などを行う。   When the terminal device 1 transmits the correct action information, the learning unit 52 receives the correct action information, compares the received correct action information with the determination result and the determination time transmitted by the output unit 17 earlier, and compares From the result, the rule when the behavior determination unit 16 performs the determination is updated. Also in the fifth embodiment, as in the fourth embodiment, the learning unit 52 performs the determination rule illustrated in FIGS. 4 to 6 or illustrated in FIGS. 7 to 9 based on the accepted correct behavior information. In the determination rule, adjustment of a set threshold is performed.

例えば、浮き度としてピーク間深さ面積が用いられ、浮き度算出部15が算出したピーク間深さ面積の値が110[mG・sec]の場合、図6に示した判定ルールを適用すると、行動判定部16は「階段降り」と判定する。この場合において、ユーザが正解行動情報として「階段昇り」を入力したとすると、学習部52は、学習を行い、図6に示した判定ルールを、図19に示した判定ルールに更新する。この後、行動判定部16は、更新された判定ルールを用いて、判定処理を実行する。   For example, when the peak-to-peak depth area is used as the floating degree and the value of the peak-to-peak depth area calculated by the floating degree calculating unit 15 is 110 [mG · sec], the determination rule illustrated in FIG. The action determination unit 16 determines “step down”. In this case, if the user inputs “step up” as correct action information, the learning unit 52 performs learning and updates the determination rule illustrated in FIG. 6 to the determination rule illustrated in FIG. Thereafter, the behavior determination unit 16 executes determination processing using the updated determination rule.

次に、本発明の実施の形態5における行動判定装置50の動作について図22を用いて説明する。図22は、本発明の実施の形態5における行動判定装置の動作を示す流れ図である。以下の説明においては、適宜図21を参酌する。また、本実施の形態5では、行動判定装置50を動作させることによって、行動判定方法が実施される。よって、本実施の形態5における行動判定方法の説明は、以下の行動判定装置50の動作説明に代える。なお、以下の説明は、行動判定装置50が、図21に示したように、サーバコンピュータによって構築されている場合について行う。但し、行動判定装置50が、端末装置、またはサーバコンピュータ以外のコンピュータによって構築されている場合も同様である。   Next, operation | movement of the action determination apparatus 50 in Embodiment 5 of this invention is demonstrated using FIG. FIG. 22 is a flowchart showing the operation of the behavior determination apparatus according to Embodiment 5 of the present invention. In the following description, FIG. 21 is taken into consideration as appropriate. In the fifth embodiment, the behavior determination method is implemented by operating the behavior determination device 50. Therefore, the description of the behavior determination method in the fifth embodiment is replaced with the following description of the operation of the behavior determination device 50. In addition, the following description is performed about the case where the action determination apparatus 50 is constructed | assembled by the server computer as shown in FIG. However, the same applies to the case where the behavior determination device 50 is constructed by a computer other than the terminal device or the server computer.

図20に示すように、先ず、時間窓切出部11及び特徴量算出部12によってステップA51〜ステップA56が実行され、浮き度が算出される。図22に示すステップA51〜ステップA56は、図11に示したステップA1〜A6と同様のステップである。   As shown in FIG. 20, first, Step A51 to Step A56 are executed by the time window cutout unit 11 and the feature amount calculation unit 12 to calculate the floating degree. Steps A51 to A56 shown in FIG. 22 are the same steps as Steps A1 to A6 shown in FIG.

次に、行動判定部16は、ピーク抽出部13から出力された浮き度以外の時間窓特徴量と、浮き度算出部15から出力された浮き度とを用いて、行動判定を行う(ステップS57)。ステップS57では、既に、学習部52によって判定ルールの変更が行われている場合は、行動判定部16は、変更後の判定ルール(図19参照)を用いて判定を行う。   Next, the behavior determination unit 16 performs a behavior determination using the time window feature amount other than the floating degree output from the peak extraction unit 13 and the floating degree output from the floating degree calculation unit 15 (step S57). ). In step S57, when the learning rule has already been changed by the learning unit 52, the behavior determination unit 16 makes a determination using the changed determination rule (see FIG. 19).

次に、行動判定部16は、判定に用いた浮き度をはじめとする特徴量と、判定結果とを履歴記憶部51に出力し、履歴記憶部51に、出力された特徴量、判定結果、及び判定時刻を、セットにして、履歴情報として記憶させる(ステップA58)。また、このとき、履歴記憶部51は、必要に応じて、履歴情報を更新する。   Next, the behavior determination unit 16 outputs the feature amount including the degree of float used for the determination and the determination result to the history storage unit 51, and outputs the feature amount, the determination result, The determination time is set and stored as history information (step A58). At this time, the history storage unit 51 updates the history information as necessary.

次に、出力部17は、履歴記憶部51にアクセスして履歴情報を取得し、履歴記憶部51が記憶している、設定期間分の判定結果と判定時刻とを端末装置1に送信する(ステップA59)。ステップA59が実行されると、端末装置1において、その出力装置(ディスプレイ装置)4が、送信された設定期間分の判定結果と判定時刻とを画面に表示する。   Next, the output unit 17 accesses the history storage unit 51 to acquire history information, and transmits the determination result and the determination time for the set period stored in the history storage unit 51 to the terminal device 1 ( Step A59). When step A59 is executed, in the terminal device 1, the output device (display device) 4 displays the transmitted determination result and determination time for the set period on the screen.

また、ステップA59では、図20に示したステップA38と同様に、端末装置1の画面には、ユーザに判定結果及び判定時刻の正否の入力を促す画面が表示される。ユーザは、判定結果及び判定時刻が正解である場合は正解と入力し、正解でない場合は正しい行動結果を選択して入力する。   In step A59, as in step A38 shown in FIG. 20, a screen for prompting the user to input the determination result and the determination time is displayed on the screen of the terminal device 1. The user inputs the correct answer when the determination result and the determination time are correct, and selects and inputs the correct action result when the determination result and the determination time are not correct.

次に、出力部17による送信が行われた後、学習部52は、端末装置1から正解行動情報が送信されるまで待機状態となり、送信があった場合は、正解行動情報を受け付ける(ステップA60)。   Next, after the transmission by the output unit 17 is performed, the learning unit 52 enters a standby state until the correct behavior information is transmitted from the terminal device 1, and when there is a transmission, accepts the correct behavior information (step A60). ).

次に、学習部52は、正解行動情報から、履歴記憶部51に記憶されている判定結果が全て正解であったかどうかを判定する(ステップA61)。判定の結果、全て正解であった場合は、学習部52は、判定ルールの更新を行わず、処理を終了する。一方、判定の結果、一つでも正解でなかった場合は、学習部52は、正解行動情報に基づいて学習を行い、判定ルールを更新する(ステップA62)。   Next, the learning unit 52 determines whether or not all the determination results stored in the history storage unit 51 are correct from the correct behavior information (step A61). As a result of the determination, if all the answers are correct, the learning unit 52 ends the process without updating the determination rule. On the other hand, if even one answer is not correct as a result of the determination, the learning unit 52 performs learning based on the correct action information and updates the determination rule (step A62).

ステップA62の実行後、更に、行動判定部16は、履歴情報と、更新された判定ルールとを用いて、再度判定処理を行う(ステップA57)。続いて、再度、ステップA58〜A61が実行される。ステップA57〜A61、及びA62は、ユーザが正解であると入力するまで、繰り返し行われる。   After execution of step A62, the behavior determination unit 16 performs the determination process again using the history information and the updated determination rule (step A57). Subsequently, steps A58 to A61 are executed again. Steps A57 to A61 and A62 are repeated until the user inputs that the answer is correct.

以上のステップA51〜A62の処理は、例えば、1秒間に1回等のように定期的に、またはデータ取得部3から加速度センサデータが新しく出力される度に、等のように決められた間隔で繰り返し実行される。端末装置1のユーザは、行動判定装置50において、ステップA51〜A62の処理が実行される度に、新しい判定結果を得ることができる。   The processing of the above steps A51 to A62 is performed at regular intervals such as once per second, or every time acceleration sensor data is newly output from the data acquisition unit 3, etc. Is executed repeatedly. The user of the terminal device 1 can obtain a new determination result every time the processing of steps A51 to A62 is executed in the behavior determination device 50.

また、本発明の実施の形態5におけるプログラムは、サーバコンピュータまたはパーソナルコンピュータといったコンピュータに、図22に示すステップA51〜A62を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態5における行動判定装置50と行動判定方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、時間窓切出部11、特徴量算出部12、行動判定部16及び学習部52として機能し、処理を行なう。また、コンピュータの通信用のインターフェイスが出力部17として機能する。更に、コンピュータに備えられた記憶装置が履歴記憶部51として機能する。なお、コンピュータの具体的な構成については後述する。   Moreover, the program in Embodiment 5 of this invention should just be a program which makes a computer, such as a server computer or a personal computer, perform step A51-A62 shown in FIG. By installing and executing this program on a computer, the behavior determination device 50 and the behavior determination method in the fifth embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as the time window extraction unit 11, the feature amount calculation unit 12, the behavior determination unit 16, and the learning unit 52 to perform processing. The communication interface of the computer functions as the output unit 17. Furthermore, a storage device provided in the computer functions as the history storage unit 51. A specific configuration of the computer will be described later.

ここで、本発明の実施の形態5の効果について説明する。本実施の形態5においても、実施の形態4と同様に、正解行動を基に学習を重ねることで各個人に適応した最適な閾値を定めることが可能であるため、どのような人物に対しても精度良く行動を判定することが可能となる。   Here, the effect of the fifth embodiment of the present invention will be described. In the fifth embodiment, as in the fourth embodiment, it is possible to determine an optimum threshold value adapted to each individual by repeating learning based on correct behavior, so for any person It is possible to accurately determine the behavior.

特に、本実施の形態5では、測定対象の人物の設定期間分の過去の行動が一度に端末装置1の画面に表示されるので、正解行動を知る人物は、任意のタイミングで効率良く正解行動を入力できる。そのため、本実施の形態5によれば、正解行動を知る人物は、行動判定が行われる度に正解不正解を入力する必要がなく、多くの判定結果について一度に正解不正解を入力する機会を得ることができる。この結果、正解行動を知る人物による正解不正解入力の利便性が向上し、ひいては、判定精度のよりいっそうの向上が期待できる。   In particular, in the fifth embodiment, since the past actions for the set period of the person to be measured are displayed on the screen of the terminal device 1 at once, the person who knows the correct action can efficiently correct the action at an arbitrary timing. Can be entered. Therefore, according to the fifth embodiment, the person who knows the correct action does not need to input the correct incorrect answer every time the action is determined, and has an opportunity to input the correct incorrect answer at once for many determination results. Can be obtained. As a result, the convenience of inputting the correct / incorrect answer by the person who knows the correct action is improved, and as a result, the determination accuracy can be further improved.

また、本実施の形態5においては、実施の形態3と同様に、行動判定部16が、履歴記憶部51に記憶されている履歴情報を用いて判定を行う態様とすることもできる。この場合は、本実施の形態5により、実施の形態3と同様の効果を得ることもできる。   Further, in the fifth embodiment, as in the third embodiment, the behavior determination unit 16 may perform determination using the history information stored in the history storage unit 51. In this case, the fifth embodiment can obtain the same effects as those of the third embodiment.

ここで、実施の形態1〜5におけるプログラムを実行することによって、行動判定装置を実現するコンピュータについて図23を用いて説明する。図23は、本発明の実施の形態1〜5におけるプログラムを実行可能なコンピュータの一例を示すブロック図である。   Here, the computer which implement | achieves an action determination apparatus by running the program in Embodiment 1-5 is demonstrated using FIG. FIG. 23 is a block diagram illustrating an example of a computer that can execute the program according to the first to fifth embodiments of the present invention.

図23に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。   As shown in FIG. 23, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. These units are connected to each other via a bus 121 so that data communication is possible.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。   The CPU 111 performs various calculations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Further, the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。   Specific examples of the storage device 113 include a hard disk and a semiconductor storage device such as a flash memory. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse. The display controller 115 is connected to the display device 119 and controls display on the display device 119. The data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash)及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記憶媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記憶媒体が挙げられる。   Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash) and SD (Secure Digital), magnetic storage media such as a flexible disk, or CD-ROM (Compact Disk). Optical storage media such as Read Only Memory).

なお、行動判定装置が、携帯電話等の端末装置によって構築されている場合は、本実施の形態におけるプログラムは、図23に示したコンピュータではなく、端末装置のメモリに格納され、端末装置のCPUによって実行される。   When the behavior determination device is constructed by a terminal device such as a mobile phone, the program in the present embodiment is stored in the memory of the terminal device instead of the computer shown in FIG. Executed by.

以下、本発明の実施例1における行動判定装置及び行動判定システムについて図24を用いて説明する。また、本実施例1は、実施の形態1に対応し、以下の説明では、適宜、図1〜図11を参酌する。   Hereinafter, the action determination device and the action determination system according to the first embodiment of the present invention will be described with reference to FIG. In addition, Example 1 corresponds to Embodiment 1, and in the following description, FIGS.

実施例1では、測定対象となる人物による行動が、「階段昇り」、「階段降り」、「歩く(平地移動)」という行動のいずれであるかを判定する例について説明する。また、測定対象となる人物は、加速度センサ内蔵の携帯電話を胸ポケットの中に入れており、加速度が出力したセンサデータは、携帯電話を通じて、外部の行動判定装置10へ送信される。更に、行動判定装置10は、携帯電話から得られたセンサデータを用いて、携帯電話を携帯している人物の行動を判定し、その結果を携帯電話へ返す。判定結果は、携帯電話の画面に表示される。   In the first embodiment, an example will be described in which it is determined whether an action by a person to be measured is an action of “step up stairs”, “step down stairs”, or “walking (moving on a flat ground)”. Further, the person to be measured puts a mobile phone with a built-in acceleration sensor in the chest pocket, and the sensor data output by the acceleration is transmitted to the external action determination device 10 through the mobile phone. Further, the behavior determination device 10 determines the behavior of the person carrying the mobile phone using the sensor data obtained from the mobile phone, and returns the result to the mobile phone. The determination result is displayed on the screen of the mobile phone.

携帯電話に内蔵された加速度センサが出力したセンサデータの一例を、図24に示す。図24は、実施例1において加速度センサが出力したセンサデータの一例を示す図である。また、図24に示されたセンサデータは、人物が、加速度センサを内蔵した携帯電話を胸ポケットに入れた状態で、実際に階段を降ったときに得られたセンサデータであり、2秒間分がグラフ化されている。実施例1では、図24に示す、人物が階段を降ったときのセンサデータが、携帯電話の通信機能を通じて、行動判定装置10に送信される。以下、行動判定装置10における動作について説明する。   An example of sensor data output by the acceleration sensor built in the mobile phone is shown in FIG. FIG. 24 is a diagram illustrating an example of sensor data output by the acceleration sensor in the first embodiment. The sensor data shown in FIG. 24 is sensor data obtained when a person actually goes down the stairs in a state where a mobile phone with a built-in acceleration sensor is put in a breast pocket. Is graphed. In the first embodiment, the sensor data when the person goes down the stairs shown in FIG. 24 is transmitted to the behavior determination apparatus 10 through the communication function of the mobile phone. Hereinafter, the operation in the behavior determination apparatus 10 will be described.

[時刻0秒−時刻1秒]
先ず、行動判定装置10において、時間窓切出部11が、端末装置1のデータ取得部3から送信されたセンサデータを受信する。実施例1では、時間窓切出部11は、長さ1秒間で、隣り合う時間窓同士で0.5秒間の重なり区間を持つようにセンサデータの切り出しを実行するとする。
[Time 0 seconds-Time 1 second]
First, in the action determination device 10, the time window extraction unit 11 receives the sensor data transmitted from the data acquisition unit 3 of the terminal device 1. In the first embodiment, it is assumed that the time window cutout unit 11 cuts out sensor data so as to have an overlap period of 0.5 seconds between adjacent time windows in a length of 1 second.

ここで、時間窓切出部11が、図24に示したセンサデータの時刻0秒から時刻1秒までの1秒間の時間窓データを切り出す場合を考える。時間窓切出部11は、切出した時間窓データを、ピーク抽出部13に出力する。   Here, consider a case where the time window extraction unit 11 extracts time window data for 1 second from time 0 seconds to time 1 seconds of the sensor data shown in FIG. The time window extraction unit 11 outputs the extracted time window data to the peak extraction unit 13.

ピーク抽出部13は、時間窓切出部11から出力された時間窓データを用いて、ピークを抽出する。時間窓データは、センサデータの時刻0秒から時刻1秒までであるため、抽出されたピークは1つで、時刻550[msec]に存在している。そして、ピーク抽出部13は、抽出したピークを特定するピーク情報を、ピーク間データ切出部14に出力する。なお、ピーク抽出の方法としては、実施の形態1で述べたいずれかが用いられることとし、ここでの詳細な説明は省略する。   The peak extraction unit 13 extracts peaks using the time window data output from the time window extraction unit 11. Since the time window data is from the time 0 second to the time 1 second of the sensor data, there is one extracted peak, which exists at time 550 [msec]. Then, the peak extraction unit 13 outputs peak information for specifying the extracted peak to the peak-to-peak data extraction unit 14. Note that any of the methods described in the first embodiment is used as the peak extraction method, and a detailed description thereof is omitted here.

ピーク間データ切出部14は、与えられたピーク情報を基に、ピーク間データを切り出す。但し、いま、判定処理開始直後であるため、与えられているピーク情報は1つであり、ピーク間を構成可能な2つのピークは存在していない。従って、後述するように、再度、時間窓切出部11による時間窓データの切り出しが行われる(図11に示したステップA4参照)。   The peak-to-peak data cutout unit 14 cuts out peak-to-peak data based on the given peak information. However, since it is immediately after the start of the determination process, the given peak information is one, and there are no two peaks that can be configured between the peaks. Therefore, as will be described later, time window data is cut out again by the time window cutting unit 11 (see step A4 shown in FIG. 11).

また、本実施例1では、ピーク間のデータを切り出すことができないから、ピーク間データ切出部14は、浮き度算出部15にはピーク間データ切出し不能という結果を通知する。浮き度算出部15は、ピーク間データ切出し不能という結果を与えられたので、浮き度算出不能という結果を行動判定部16へ出力する。更に、行動判定部16は、浮き度算出不能という結果を与えられたので、行動判定不能、またはその他の行動であるという判定結果を、出力部17に送り、出力部17はこの結果を携帯電話に送信する。この結果、携帯電話の画面には、判定不能、またはその他の行動であるという判定結果が、表示される。   In the first embodiment, the peak-to-peak data cannot be cut out. Therefore, the peak-to-peak data cutout unit 14 notifies the floating degree calculation unit 15 of the result that the peak-to-peak data cannot be cut out. The float degree calculation unit 15 is given the result that the peak-to-peak data cannot be cut out, and outputs the result that the float degree cannot be calculated to the behavior determination unit 16. Furthermore, since the behavior determination unit 16 is given a result that the degree of floating cannot be calculated, the behavior determination unit 16 sends a determination result indicating that the behavior cannot be determined or other behavior to the output unit 17, and the output unit 17 sends the result to the mobile phone. Send to. As a result, a determination result indicating that the determination is impossible or other behavior is displayed on the screen of the mobile phone.

[時刻0.5秒−時刻1.5秒]
続いて、時間窓切出部11は、図24に示したセンサデータの時刻0.5秒から時刻1.5秒までの1秒間の時間窓データの切り出しを行う。時間窓切出部11は、切り出した時間窓データを、ピーク抽出部13に出力する。
[Time 0.5 seconds-Time 1.5 seconds]
Subsequently, the time window cutout unit 11 cuts out time window data for 1 second from time 0.5 seconds to time 1.5 seconds of the sensor data shown in FIG. The time window extraction unit 11 outputs the extracted time window data to the peak extraction unit 13.

ピーク抽出部13は、この場合も、時間窓データを用いて、ピークを抽出する。この場合、時間窓データからは、2つのピークが抽出され、1つめは550[msec]に存在し、2つめは時刻1110[msec]に存在する。ピーク抽出部13は、得られたピーク情報を、ピーク間データ切出部14に出力する。   In this case as well, the peak extraction unit 13 extracts peaks using the time window data. In this case, two peaks are extracted from the time window data, the first being at 550 [msec] and the second being at time 1110 [msec]. The peak extraction unit 13 outputs the obtained peak information to the peak-to-peak data extraction unit 14.

ピーク間データ切出部14は、与えられたピーク情報に含まれる2つのピークの発生時刻が、550[msec]と1110[msec]とであったことを受けて、ピーク間データの切出しを行う。新しく得られた2つのピークのうち、550[msec]の位置にあるピークは、前回のピーク抽出処理で抽出されたピークと同一なので、ピーク間データ切出部14は、同一のピークを無視し、1110[msec]で発生したピークを最新のピークとする。   The peak-to-peak data extraction unit 14 extracts the peak-to-peak data in response to the occurrence times of the two peaks included in the given peak information being 550 [msec] and 1110 [msec]. . Of the two newly obtained peaks, the peak at the position of 550 [msec] is the same as the peak extracted in the previous peak extraction process, so the peak-to-peak data extraction unit 14 ignores the same peak. The peak generated at 1110 [msec] is taken as the latest peak.

そして、ピーク間データ切出部4は、最新のピーク(1110[msec]で発生)と、前回のピーク抽出処理によって抽出された、その直前のピーク(550[msec]で発生)との間のセンサデータを、データ取得部3から取得したセンサデータから切り出す。更に、ピーク間データ切出部4は、切り出したセンサデータを、浮き度算出部15に出力する。   Then, the peak-to-peak data extraction unit 4 is between the latest peak (occurring at 1110 [msec]) and the immediately preceding peak (occurring at 550 [msec]) extracted by the previous peak extraction process. The sensor data is cut out from the sensor data acquired from the data acquisition unit 3. Further, the peak-to-peak data extraction unit 4 outputs the extracted sensor data to the floating degree calculation unit 15.

浮き度算出部15は、ピーク間データ切出部14から出力されたピーク間データを用いて、浮き度を算出する。実施例1では、浮き度として、1G以下のピーク間深さ面積が用いられるので、浮き度算出部15は、ピーク間データの中から、1G以下の値を持つデータを特定し、その加速度の値と1Gとの差を求め、更に、求めた各データ点の差分の総和を算出する。算出された総和が、ピーク間深さ面積となる。ここで、実施例1において、算出されたピーク間深さ面積(浮き度)の値は、104[mG・sec]であった。浮き度算出部15は、算出したピーク間深さの値を、行動判定部16に出力する。   The floating degree calculation unit 15 calculates the floating degree using the peak-to-peak data output from the peak-to-peak data cutout unit 14. In Example 1, since the peak-to-peak depth area of 1G or less is used as the degree of floating, the degree-of-floating calculation unit 15 specifies data having a value of 1G or less from the peak-to-peak data, and the acceleration The difference between the value and 1G is obtained, and the sum of the differences between the obtained data points is calculated. The calculated sum is the peak-to-peak depth area. Here, in Example 1, the calculated value of the peak-to-peak depth area (floating degree) was 104 [mG · sec]. The floating degree calculation unit 15 outputs the calculated value of the peak-to-peak depth to the behavior determination unit 16.

行動判定部16は、浮き度算出部15から出力されたピーク間深さ面積に基づき、測定対象の行動が、「階段の昇り」、「階段の降り」、「歩く(平地移動)」のいずれであるかを図6に示した判定ルールを用いて判定する。具体的には、ピーク間深さ面積の値は、104[mG・sec]であるため、行動判定部16は、測定対象の行動は、「階段の降り」であると判定する。その後、出力部17が、判定結果を携帯電話に送信すると、得られた判定結果「階段の下り」が、携帯電話の画面に表示される。   Based on the peak-to-peak depth area output from the floating degree calculation unit 15, the behavior determination unit 16 determines whether the behavior to be measured is “up stairs”, “down stairs”, or “walking (moving on a flat ground)”. Is determined using the determination rule shown in FIG. Specifically, since the value of the depth area between the peaks is 104 [mG · sec], the behavior determination unit 16 determines that the behavior to be measured is “step down”. Thereafter, when the output unit 17 transmits the determination result to the mobile phone, the obtained determination result “down the staircase” is displayed on the screen of the mobile phone.

また、以上の動作は、例えば1秒間に1回などの、決められた間隔で繰り返し実行され、判定結果が新しく得られる度に、新しい判定結果が携帯電話の画面に逐次表示される。このとき、過去の判定履歴を一緒に表示されていても良い。以上のように、本実施例1によれば、加速度センサの取り付け方に関して制約を受けることなく、測定対象が上下方向に移動する場合であっても精度良く行動を判定することができる。   The above operation is repeatedly executed at a predetermined interval, for example, once per second, and new determination results are sequentially displayed on the screen of the mobile phone each time a new determination result is obtained. At this time, the past determination history may be displayed together. As described above, according to the first embodiment, it is possible to accurately determine an action even when the measurement object moves in the vertical direction without being restricted with respect to how to attach the acceleration sensor.

次に、本発明の実施例2における行動判定装置及び行動判定システムについて図25を用いて説明する。また、本実施例2は、実施の形態2に対応し、以下の説明では、適宜、図12〜図14を参酌する。   Next, the action determination apparatus and action determination system in Example 2 of this invention are demonstrated using FIG. In addition, Example 2 corresponds to Embodiment 2, and in the following description, FIGS. 12 to 14 are referred to as appropriate.

実施例2においても、実施例1と同様に、測定対象となる人物による行動が、「階段昇り」、「階段降り」、「歩く(平地移動)」という行動のいずれであるかを判定する例について説明する。但し、実施例2では、実施例1と異なり、測定対象となる人物は、加速度センサ内蔵の携帯電話をズボンの右ポケットに入れているとする。   Also in the second embodiment, as in the first embodiment, it is determined whether the action by the person to be measured is the action of “step climbing”, “step down”, or “walking (moving on flat ground)”. Will be described. However, in the second embodiment, unlike the first embodiment, it is assumed that the person to be measured puts the mobile phone with a built-in acceleration sensor in the right pocket of the pants.

携帯電話に内蔵された加速度センサが出力したデータの一例を、図25に示す。図25は、実施例2において加速度センサが出力したセンサデータの一例を示す図である。図25に示されたセンサデータは、人物が、加速センサを内蔵した携帯電話をズボンの右ポケットに入れた状態で、実際に階段を降ったときに得られた加速度センサデータであり、2秒間分がグラフ化されている。実施例2では、図25に示す、人物が階段を降ったときのセンサデータが、携帯電話の通信機能を通じて、行動判定装置20に送信される。以下、行動判定装置20における動作について説明する。   An example of data output by the acceleration sensor built in the mobile phone is shown in FIG. FIG. 25 is a diagram illustrating an example of sensor data output from the acceleration sensor in the second embodiment. The sensor data shown in FIG. 25 is acceleration sensor data obtained when a person actually goes down the stairs in a state where a mobile phone with a built-in acceleration sensor is put in the right pocket of the pants. Minutes are graphed. In Example 2, the sensor data shown in FIG. 25 when the person steps down the stairs is transmitted to the behavior determination device 20 through the communication function of the mobile phone. Hereinafter, the operation in the behavior determination apparatus 20 will be described.

実施例2においても、時間窓切出部11、ピーク抽出部13、ピーク間データ切出部14、浮き度算出部15は、実施例1と同様に動作する。よって、同一の動作についての説明は省略する。   Also in the second embodiment, the time window extraction unit 11, the peak extraction unit 13, the peak-to-peak data extraction unit 14, and the floating degree calculation unit 15 operate in the same manner as in the first embodiment. Therefore, the description about the same operation is omitted.

実施例2においても、時間窓切出部11が、センサデータの時刻0秒から時刻1秒までの時間窓データと、センサデータの時刻0.5秒から時刻1.5秒までの時間窓データとを切り出すとする。結果、図25に示したセンサデータからは、時刻が520[msec]のときにピークcが抽出され、1030[msec]のときにピークdが抽出される。   Also in the second embodiment, the time window extraction unit 11 performs time window data from time 0 seconds to time 1 seconds of sensor data and time window data from time 0.5 seconds to time 1.5 seconds of sensor data. And cut out. As a result, from the sensor data shown in FIG. 25, the peak c is extracted when the time is 520 [msec], and the peak d is extracted when the time is 1030 [msec].

浮き度算出部15は、実施例1と同様に、浮き度として1G以下のピーク間深さ面積を用いる。結果、ピークcとピークdの間のピーク間深さ面積の値は、101[mG・sec]であった。浮き度算出部15は、算出したピーク間深さを、正規化処理部18に出力する。   The floating degree calculation unit 15 uses a peak-to-peak depth area of 1 G or less as the floating degree as in the first embodiment. As a result, the value of the peak-to-peak depth area between the peak c and the peak d was 101 [mG · sec]. The floating degree calculation unit 15 outputs the calculated peak-to-peak depth to the normalization processing unit 18.

正規化処理部8は、算出された浮き度の正規化処理を行う。実施例2においては、浮き度として与えられたピーク間深さ面積の値は、1G以下の区間長さ(図2参照)の値で割って正規化されるとする。ピーク間データ切出部14からピーク間データを与えられた正規化処理部18は、ピーク間における1G以下の区間長さを求める。その結果、図25に示すセンサデータにおいて、520[msec]と1030[msec]との間で、1G以下の区間長さは390[msec]であった。よって、浮き度算出部15から与えられたピーク間深さ面積の値を、得られた1G以下の区間長さで割った結果は、258[mG]となる。正規化処理部18は、この値を行動判定部16に出力する。   The normalization processing unit 8 performs normalization processing of the calculated float degree. In the second embodiment, it is assumed that the value of the peak-to-peak depth area given as the floating degree is normalized by dividing by the value of the section length (see FIG. 2) of 1G or less. The normalization processing unit 18 given the peak-to-peak data from the peak-to-peak data cutout unit 14 obtains a section length of 1 G or less between peaks. As a result, in the sensor data shown in FIG. 25, the section length of 1G or less was 390 [msec] between 520 [msec] and 1030 [msec]. Therefore, the result of dividing the value of the peak-to-peak depth area given from the floating degree calculation unit 15 by the obtained section length of 1 G or less is 258 [mG]. The normalization processing unit 18 outputs this value to the behavior determination unit 16.

行動判定部16は、図26に示された判定ルールを用いて、行動判定を行う。図26は、実施例2において用いられる判定ルールの一例を示す図である。図26に示された判定ルールでは、ピーク間深さ面積を1G以下の区間長さで割って正規化された値が用いられている。例えば、正規化によって算出された値が、258[mG]であったとすると、行動判定部16は、図26に示された判定ルールを用いて、このときの行動は「階段の降り」であると判定する。そして、行動判定部16は、得られた判定結果を出力部17に出力し、出力部17は、判定結果を携帯電話に送信する。これにより、判定結果「階段の降り」が、携帯電話の画面に表示される。   The behavior determination unit 16 performs behavior determination using the determination rule shown in FIG. FIG. 26 is a diagram illustrating an example of a determination rule used in the second embodiment. In the determination rule shown in FIG. 26, a value normalized by dividing the peak-to-peak depth area by the section length of 1 G or less is used. For example, if the value calculated by normalization is 258 [mG], the behavior determination unit 16 uses the determination rule shown in FIG. 26, and the behavior at this time is “step down”. Is determined. And the action determination part 16 outputs the obtained determination result to the output part 17, and the output part 17 transmits a determination result to a mobile telephone. As a result, the determination result “step down” is displayed on the screen of the mobile phone.

また、以上の動作は、例えば1秒間に1回などの、決められた間隔で繰り返し実行され、判定結果が新しく得られる度に、新しい判定結果が携帯電話の画面に逐次表示される。このとき、過去の判定履歴を一緒に表示されていても良い。   Further, the above operation is repeatedly executed at a predetermined interval, for example, once per second, and new determination results are sequentially displayed on the screen of the mobile phone each time a new determination result is obtained. At this time, the past determination history may be displayed together.

(実施例2の効果説明)
ここで、実施例2の効果を更に詳しく以下に説明する。図25に示したセンサデータにおいて、時間窓切出部11とピーク抽出部13とによって、時刻0.5秒から時刻1.5秒までの時間窓データと、時刻1秒から時刻2秒までの時間窓データとに対して、ピーク抽出が行われたとする。結果、図25に示したセンサデータからは、時刻が1030[msec]のときにピークdが抽出され、1670[msec]のときにピークeが抽出される。
(Explanation of effects of Example 2)
Here, the effect of the second embodiment will be described in more detail below. In the sensor data shown in FIG. 25, the time window extraction unit 11 and the peak extraction unit 13 perform time window data from time 0.5 seconds to time 1.5 seconds and time 1 second to time 2 seconds. It is assumed that peak extraction is performed on the time window data. As a result, from the sensor data shown in FIG. 25, the peak d is extracted when the time is 1030 [msec], and the peak e is extracted when the time is 1670 [msec].

ここで、浮き度算出部15が算出した、ピークdとピークeとの間におけるピーク間深さ面積の値が、54[mG・sec]であったとする。浮き度算出部15は、算出したピーク間深さ面積の値を、正規化処理部18に出力する。   Here, it is assumed that the value of the peak-to-peak depth area between the peak d and the peak e calculated by the floating degree calculation unit 15 is 54 [mG · sec]. The floating degree calculation unit 15 outputs the calculated value of the peak-to-peak depth area to the normalization processing unit 18.

正規化処理部18は、与えられたピーク間深さ面積の値を、1G以下の区間長さの値で割って正規化する処理を行う。先ず、正規化処理部18は、ピーク間における1G以下の区間長さを求める。その結果、1G以下の区間長さは250[msec]であったので、浮き度算出部15が算出したピーク間深さ面積の値を、得られた1G以下の区間長さで割った結果は、216[mG]となる。正規化処理部18は、この値を行動判定部16に出力する。   The normalization processing unit 18 performs a process of normalizing the given peak-to-peak depth area value by dividing the value by the section length value of 1G or less. First, the normalization processing unit 18 obtains a section length of 1 G or less between peaks. As a result, since the section length of 1G or less was 250 [msec], the result of dividing the value of the peak-to-peak depth area calculated by the floating degree calculation unit 15 by the obtained section length of 1G or less is 216 [mG]. The normalization processing unit 18 outputs this value to the behavior determination unit 16.

行動判定部16は、この場合も、図26に示された判定ルールを用いて行動判定を行う。正規化処理部18が算出した値が216[mG]であるため、行動判定部16は、このときの行動は「階段の降り」である、と判定する。そして、行動判定部16は、得られた判定結果を出力部17に出力し、出力部17は、判定結果を携帯電話に送信する。これにより、判定結果「階段の降り」が、携帯電話の画面に表示される。   Also in this case, the behavior determination unit 16 performs the behavior determination using the determination rule shown in FIG. Since the value calculated by the normalization processing unit 18 is 216 [mG], the behavior determination unit 16 determines that the behavior at this time is “step down”. And the action determination part 16 outputs the obtained determination result to the output part 17, and the output part 17 transmits a determination result to a mobile telephone. As a result, the determination result “step down” is displayed on the screen of the mobile phone.

ここで、図25に示した、時刻0秒から時刻1秒までの時間窓データと、時刻0.5秒から時刻1.5秒までの時間窓データとを用いて得られたピーク間深さ領域を、領域aと呼ぶこととする。また同様に、時刻0.5秒から時刻1秒までの時間窓データと、時刻1秒から時刻2秒までの時間窓データとを用いて得られたピーク間深さ領域を、領域bと呼ぶこととする。   Here, the peak-to-peak depth obtained using the time window data from time 0 seconds to time 1 seconds and time window data from time 0.5 seconds to time 1.5 seconds shown in FIG. The area is referred to as area a. Similarly, a peak-to-peak depth region obtained by using time window data from time 0.5 second to time 1 second and time window data from time 1 second to time 2 seconds is referred to as region b. I will do it.

上述したように、図25に示されたセンサデータは、加速度センサを内蔵した携帯電話が、測定対象の人物のズボンの右ポケットに入れられた状態で取得されている。従って、図25において、ピークcとピークeとは、加速度センサを内蔵した携帯電話が入れられたポケットの逆側に位置する左足が接地したときに発生したピークである。一方、ピークdは、加速度センサを内蔵した携帯電話が入れられたポケットと同じ側に位置する右足が接地したときに発生したピークである。   As described above, the sensor data shown in FIG. 25 is acquired in a state where the mobile phone incorporating the acceleration sensor is placed in the right pocket of the pants of the person to be measured. Therefore, in FIG. 25, peak c and peak e are peaks that occur when the left foot located on the opposite side of the pocket in which the mobile phone incorporating the acceleration sensor is put in contact with the ground. On the other hand, the peak d is a peak that occurs when the right foot located on the same side as the pocket in which the mobile phone incorporating the acceleration sensor is placed contacts the ground.

図25に示すように、加速度センサを内蔵した携帯電話が入れられたポケット側の足と、反対側の足とでは、接地の際に発生するピークの形状は異なっている。このため、隣接するピーク間の領域aと領域bとでは、ピーク間深さ面積の値は大きく異なることとなる。実際、領域aの面積は101[mG・sec]であるのに対して、領域bの面積は54[mG・sec]であった。   As shown in FIG. 25, the shape of a peak generated at the time of grounding is different between the foot on the pocket side in which the mobile phone incorporating the acceleration sensor is placed and the foot on the opposite side. For this reason, the value of the depth area between peaks differs greatly between the area | region a and the area | region b between adjacent peaks. Actually, the area of the region a is 101 [mG · sec], whereas the area of the region b is 54 [mG · sec].

このように、加速度センサが、測定対象となる人物等の体幹以外の部位に位置している場合は、ピーク間深さ面積の値が一定しない状態となる。このため、ピーク間深さ面積の値をそのまま用いて行動判定を行うと、判定精度が低下する可能性がある。これに対して、実施例2によれば、上述したように、加速度センサの位置に起因する、左右の足の接地時の違いによってピーク間深さ面積の値が一定しないときでも、正規化処理を行うことで、加速度センサの位置に影響されずに高精度な判定を行うことができる。   Thus, when the acceleration sensor is located in a part other than the trunk of a person or the like to be measured, the value of the peak-to-peak depth area is not constant. For this reason, if the behavior determination is performed using the value of the peak-to-peak depth area as it is, the determination accuracy may be lowered. On the other hand, according to the second embodiment, as described above, the normalization process is performed even when the value of the peak-to-peak depth area is not constant due to the difference in contact between the left and right feet due to the position of the acceleration sensor. By performing the above, it is possible to perform highly accurate determination without being affected by the position of the acceleration sensor.

次に、本発明の実施例3における行動判定装置及び行動判定システムについて説明する。また、本実施例3は、実施の形態3に対応し、以下の説明では、適宜、図15及び図16を参酌する。   Next, an action determination device and an action determination system in Example 3 of the present invention will be described. In addition, Example 3 corresponds to Embodiment 3, and in the following description, FIGS. 15 and 16 are referred to as appropriate.

本実施例3においても、実施例1と同様に、測定対象となる人物による行動が、「階段昇り」、「階段降り」、「歩く(平地移動)」という行動のいずれであるかを判定する例について説明する。また、本実施例3においても、実施例1と同様に、測定対象となる人物が、加速度センサを内蔵した携帯電話を胸ポケットに入れているとする。更に、本実施例3において、時間窓切出部11、ピーク抽出部13、ピーク間データ切出部14、浮き度算出部15は、実施例1と同様に動作する。よって、同一の動作についての説明は省略する。   Also in the third embodiment, as in the first embodiment, it is determined whether the action by the person to be measured is the action of “step up”, “step down”, or “walk (moving on flat ground)”. An example will be described. Also in the third embodiment, as in the first embodiment, it is assumed that a person to be measured has a mobile phone with a built-in acceleration sensor in a chest pocket. Furthermore, in the third embodiment, the time window extraction unit 11, the peak extraction unit 13, the peak-to-peak data extraction unit 14, and the float calculation unit 15 operate in the same manner as in the first embodiment. Therefore, the description about the same operation is omitted.

実施例3においては、行動判定装置30は、履歴記憶部31を備えており、浮き度算出部15は、算出した浮き度(1G以下のピーク間深さ面積)を履歴記憶部31に出力する。履歴記憶部31は、過去一定時間分のピーク間深さの値を記憶しており、浮き度算出部15から最新のピーク間深さ面積の値が出力されると、最新のピーク間深さ面積の値を記憶する。そして、履歴記憶部31は、必要に応じて既に記憶している履歴の中で最も古いピーク間深さ面積の値を消去する等して履歴情報を更新する。行動判定部16は、更新された履歴情報を取得し、行動判定を行う。   In the third embodiment, the behavior determination device 30 includes a history storage unit 31, and the floating degree calculation unit 15 outputs the calculated floating degree (depth area between peaks of 1 G or less) to the history storage unit 31. . The history storage unit 31 stores the value of the peak-to-peak depth for a certain past time, and when the latest value of the peak-to-peak depth area is output from the floating degree calculation unit 15, the latest peak-to-peak depth. Store the area value. Then, the history storage unit 31 updates the history information, for example, by deleting the oldest peak depth area value in the history that has already been stored as necessary. The behavior determination unit 16 acquires updated history information and performs behavior determination.

いま、最新の3つのピーク間深さ面積の値が履歴情報として記憶されており、これらを行動判定部16が取得したとする。実際に記憶されているピーク間深さ面積は、それぞれ87[mG・sec]、97[mG・sec]、101[mG・sec]であったとする。   Now, it is assumed that the latest three peak-to-peak depth area values are stored as history information, and the action determination unit 16 has acquired these values. Assume that the depth areas between peaks actually stored are 87 [mG · sec], 97 [mG · sec], and 101 [mG · sec], respectively.

本実施例3において、行動判定部16は、履歴情報に含まれるピーク間深さ面積の平均値を算出し、平均値を用いて行動判定を行う。履歴情報に含まれるピーク間深さ面積は、上述したように、87[mG・sec]、97[mG・sec]、101[mG・sec]であるので、これらの履歴情報の平均値は、95[mG・sec]となる。従って、図6に示した判定ルールを用いた場合、行動判定部16は、「階段の降り」であると判定することができる。そして、行動判定部16は、得られた判定結果を出力部17に出力し、出力部17は、判定結果を携帯電話に送信する。これにより、判定結果「階段の降り」が、携帯電話の画面に表示される。   In the third embodiment, the behavior determination unit 16 calculates an average value of the peak-to-peak depth areas included in the history information, and performs behavior determination using the average value. Since the peak-to-peak depth area included in the history information is 87 [mG · sec], 97 [mG · sec], and 101 [mG · sec] as described above, the average value of these history information is 95 [mG · sec]. Therefore, when the determination rule shown in FIG. 6 is used, the behavior determination unit 16 can determine that the step is “down the stairs”. And the action determination part 16 outputs the obtained determination result to the output part 17, and the output part 17 transmits a determination result to a mobile telephone. As a result, the determination result “step down” is displayed on the screen of the mobile phone.

また、以上の動作は、例えば1秒間に1回などの、決められた間隔で繰り返し実行され、判定結果が新しく得られる度に、新しい判定結果が携帯電話の画面に逐次表示される。このとき、過去の判定履歴を一緒に表示されていても良い。   Further, the above operation is repeatedly executed at a predetermined interval, for example, once per second, and new determination results are sequentially displayed on the screen of the mobile phone each time a new determination result is obtained. At this time, the past determination history may be displayed together.

このように、本実施例3によれば、履歴情報を用いてピーク間深さ面積の値が平均化されるので、部分的にセンサデータにノイズが混入した場合であっても、ノイズによる誤判定の発生が抑制される。例えば、上述したように、本実施例3では、階段の降りのときに、何らかの理由で、ピーク間深さ面積の値は、87[mG・sec]となっているが、この値だけを取り出して図6に示す判定ルールを適用すると、「階段の昇り」と判定されてしまう。   As described above, according to the third embodiment, since the value of the peak-to-peak depth area is averaged using the history information, even if noise is partially mixed in the sensor data, an error due to noise is caused. The occurrence of determination is suppressed. For example, as described above, in Example 3, the value of the peak-to-peak area is 87 [mG · sec] for some reason when going down the stairs, but only this value is taken out. If the determination rule shown in FIG. 6 is applied, it is determined that “up of the stairs”.

一般に、人の日常行動においては、例えば、他人とすれ違うために進路をずらした場合のように、予期せぬ出来事によって加速度センサデータにノイズが混入する場合は多いと考えられる。そのため、本実施例3のように、過去の履歴を用いて行動判定を行うことは、これらのノイズの混入による影響を抑制する点から有用であり、結果、判定精度の低下を抑制できる。   In general, in human daily behavior, it is considered that noise is often mixed into acceleration sensor data due to an unexpected event, for example, when the course is shifted due to passing each other. Therefore, as in the third embodiment, it is useful to perform the action determination using the past history from the viewpoint of suppressing the influence due to the mixing of these noises, and as a result, it is possible to suppress a decrease in the determination accuracy.

次に、本発明の実施例4における行動判定装置及び行動判定システムについて説明する。また、本実施例4は、実施の形態4に対応し、以下の説明では、適宜、図17〜図20を参酌する。   Next, an action determination device and an action determination system in Example 4 of the present invention will be described. In addition, Example 4 corresponds to Embodiment 4, and FIGS. 17 to 20 are referred to as appropriate in the following description.

本実施例4においても、実施例1と同様に、測定対象となる人物による行動が、「階段昇り」、「階段降り」、「歩く(平地移動)」という行動のいずれであるかを判定する例について説明する。また、本実施例4においても、実施例1と同様に、測定対象となる人物が、加速度センサを内蔵した携帯電話を胸ポケットに入れているとする。更に、本実施例4において、時間窓切出部11、ピーク抽出部13、ピーク間データ切出部14、浮き度算出部15は、実施例1と同様に動作する。よって、同一の動作についての説明は省略する。   Also in the fourth embodiment, as in the first embodiment, it is determined whether the action by the person to be measured is the action of “step up stairs”, “step down stairs”, or “walk (moving on flat ground)”. An example will be described. Also in the fourth embodiment, as in the first embodiment, it is assumed that a person to be measured has a mobile phone with a built-in acceleration sensor in a breast pocket. Further, in the fourth embodiment, the time window extraction unit 11, the peak extraction unit 13, the peak-to-peak data extraction unit 14, and the floating degree calculation unit 15 operate in the same manner as in the first embodiment. Therefore, the description about the same operation is omitted.

ここで、浮き度算出部15が、浮き度としてピーク間深さ面積を算出するとする。そして、浮き度算出部15が実際に算出したピーク間深さ面積の値が、110[mG・sec]であったとする。浮き度算出部15は、算出したピーク間深さ面積の値を、行動判定部16に出力する。   Here, it is assumed that the floating degree calculation unit 15 calculates the peak-to-peak depth area as the floating degree. Then, it is assumed that the value of the peak-to-peak depth area actually calculated by the floating degree calculation unit 15 is 110 [mG · sec]. The floating degree calculation unit 15 outputs the calculated value of the peak-to-peak depth area to the behavior determination unit 16.

行動判定部16は、浮き度算出部15から出力されたピーク間深さ面積の値に基づき、図6の判定ルールを用いて、測定対象の行動が、「階段の昇り」、「階段の降り」、「歩く(平地移動)」のいずれであるかを判定する。具体的には、行動判定部16は、ピーク間深さ面積の値が110[mG・sec]であるとすると、図6に示した判定ルールを適用し、行動が「階段の降り」であると判定する。   The behavior determination unit 16 uses the determination rule of FIG. 6 based on the value of the peak-to-peak depth area output from the floating degree calculation unit 15 to determine whether the behavior to be measured is “up stairs” or “down stairs”. "Or" walking (moving on flat ground) ". Specifically, the behavior determination unit 16 applies the determination rule illustrated in FIG. 6 when the value of the peak-to-peak depth area is 110 [mG · sec], and the behavior is “step down”. Is determined.

そして、行動判定部16は、得られた判定結果を出力部17に出力し、出力部17は、判定結果を携帯電話に送信する。これにより、判定結果「階段の降り」が、携帯電話の画面に表示される。   And the action determination part 16 outputs the obtained determination result to the output part 17, and the output part 17 transmits a determination result to a mobile telephone. As a result, the determination result “step down” is displayed on the screen of the mobile phone.

次に、携帯電話のユーザは、判定結果が実際の行動と同じである場合は、正解である旨を入力する。一方、例えば、判定結果が「階段の降り」であるのに対して、実行の行動が「階段の昇り」である場合は、携帯電話のユーザは、正解の行動を入力する。入力された正解行動情報は、携帯電話を通じて行動判定装置40の学習41に送信される。   Next, when the determination result is the same as the actual action, the user of the mobile phone inputs that the answer is correct. On the other hand, for example, when the determination result is “step down” while the execution action is “up stairs”, the mobile phone user inputs the correct action. The input correct behavior information is transmitted to the learning 41 of the behavior determination device 40 through a mobile phone.

正解行動情報を受信した学習部41は、受け付けた正解行動情報に基づいて、図6に示した判定ルールの閾値を調整する。例えば、上述したように、ピーク間深さ面積の値が110[mG・sec]で、図6に示した判定ルールに基づいた判定結果が「階段の降り」であるとする。そして、携帯電話のユーザから入力された正解行動情報が「階段昇り」であると、学習部41は、図6に示した判定ルールを、図19に示した判定ルールに変更する。その後、行動判定部16は、変更された新しい判定ルールを参照しながら、再度、判定処理を行う。   The learning unit 41 that has received the correct behavior information adjusts the threshold value of the determination rule illustrated in FIG. 6 based on the received correct behavior information. For example, as described above, it is assumed that the value of the depth area between peaks is 110 [mG · sec], and the determination result based on the determination rule shown in FIG. Then, if the correct behavior information input from the user of the mobile phone is “step up”, the learning unit 41 changes the determination rule shown in FIG. 6 to the determination rule shown in FIG. Thereafter, the behavior determination unit 16 performs the determination process again while referring to the changed new determination rule.

このように、実施例4によれば、測定対象となる人物等の体格の違いによって、判定結果に誤差が生じる場合であっても、学習によって閾値の調整が行われるため、精度の高い、行動判定を実行することができる。   As described above, according to the fourth embodiment, the threshold value is adjusted by learning even when an error occurs in the determination result due to a difference in the physique of the person to be measured. Judgment can be performed.

次に、本発明の実施例5における行動判定装置及び行動判定システムについて説明する。また、本実施例5は、実施の形態5に対応し、以下の説明では、適宜、図21及び図22を参酌する。   Next, an action determination device and an action determination system in Example 5 of the present invention will be described. In addition, Example 5 corresponds to Embodiment 5, and in the following description, FIGS. 21 and 22 are referred to as appropriate.

本実施例5においても、実施例1と同様に、測定対象となる人物による行動が、「階段昇り」、「階段降り」、「歩く(平地移動)」という行動のいずれであるかを判定する例について説明する。また、本実施例5においても、実施例1と同様に、測定対象となる人物が、加速度センサを内蔵した携帯電話を胸ポケットに入れているとする。更に、本実施例5において、時間窓切出部11、ピーク抽出部13、ピーク間データ切出部14、浮き度算出部15は、実施例1と同様に動作する。よって、同一の動作についての説明は省略する。   Also in the fifth embodiment, as in the first embodiment, it is determined whether the action by the person to be measured is the action of “step up”, “step down”, or “walk (moving on a flat ground)”. An example will be described. Also in the fifth embodiment, as in the first embodiment, it is assumed that a person to be measured has a mobile phone with a built-in acceleration sensor in a breast pocket. Further, in the fifth embodiment, the time window extraction unit 11, the peak extraction unit 13, the peak-to-peak data extraction unit 14, and the floating degree calculation unit 15 operate in the same manner as in the first embodiment. Therefore, the description about the same operation is omitted.

ここで、浮き度算出部15が、浮き度としてピーク間深さ面積を算出するとする。そして、浮き度算出部15が実際に算出したピーク間深さ面積の値が、110[mG・sec]であったとする。浮き度算出部15は、算出したピーク間深さ面積の値を、行動判定部16に出力する。   Here, it is assumed that the floating degree calculation unit 15 calculates the peak-to-peak depth area as the floating degree. Then, it is assumed that the value of the peak-to-peak depth area actually calculated by the floating degree calculation unit 15 is 110 [mG · sec]. The floating degree calculation unit 15 outputs the calculated value of the peak-to-peak depth area to the behavior determination unit 16.

行動判定部16は、浮き度算出部15から出力されたピーク間深さ面積の値に基づき、図6の判定ルールを用いて、測定対象の行動が、「階段の昇り」、「階段の降り」、「歩く(平地移動)」のいずれであるかを判定する。具体的には、行動判定部16は、ピーク間深さ面積の値が110[mG・sec]であるとすると、図6に示した判定ルールを適用し、行動が「階段の降り」であると判定する。   The behavior determination unit 16 uses the determination rule of FIG. 6 based on the value of the peak-to-peak depth area output from the floating degree calculation unit 15 to determine whether the behavior to be measured is “up stairs” or “down stairs”. "Or" walking (moving on flat ground) ". Specifically, the behavior determination unit 16 applies the determination rule illustrated in FIG. 6 when the value of the peak-to-peak depth area is 110 [mG · sec], and the behavior is “step down”. Is determined.

そして、行動判定部16は、得られた判定結果を履歴記憶部51に出力される。履歴記憶部51は、上述の「階段の降り」という判定結果と、このとき判定に用いたピーク間深さ面積の値である110[mG・sec]と、この判定結果を出力した時刻(判定時刻)とをセットにして記憶する。なお、判定時刻は、午後1時0分0秒であるとする。また、履歴記憶部51は、履歴情報を、過去一定時間分(設定期間分)、例えば1日分等の予め決められた長さ分記憶し、必要に応じて、既に記憶している履歴情報の中から、最も古い履歴情報を順に消去する等して履歴情報を更新する。   Then, the behavior determination unit 16 outputs the obtained determination result to the history storage unit 51. The history storage unit 51 determines the above-described determination result of “step down”, 110 [mG · sec] which is the value of the peak-to-peak depth area used for the determination, and the time when the determination result is output (determination Time) is stored as a set. The determination time is assumed to be 1:00 pm 0 seconds. The history storage unit 51 stores history information for a predetermined period of time (for a set period), for example, a predetermined length such as one day, and the history information that has already been stored as necessary. The history information is updated by, for example, sequentially deleting the oldest history information.

出力部17は、履歴記憶部51にアクセスして履歴情報を取得し、履歴記憶部51が記憶している、設定期間分の、判定結果と判定時刻とを携帯電話に送信する。これにより、携帯電話の画面に、設定期間分の判定結果と判定時刻とが表示される。   The output unit 17 accesses the history storage unit 51 to acquire history information, and transmits the determination result and the determination time for the set period stored in the history storage unit 51 to the mobile phone. Thereby, the determination result and the determination time for the set period are displayed on the screen of the mobile phone.

次に、携帯電話のユーザは、例えば、行動判定の翌日等の任意の時間に、過去の判定結果を閲覧して正解不正解を入力する。携帯電話のユーザは、例えば、昨日の午後1時0分0秒の判定結果が「階段の降り」であったという判定結果を見て、携帯電話を通じて、実際の行動が「階段昇り」であったことを入力する。入力された正解行動情報は、携帯電話を通じて行動判定装置50の学習52に送信される。   Next, the user of the mobile phone, for example, browses past determination results and inputs a correct / incorrect answer at an arbitrary time such as the next day of behavior determination. The user of the mobile phone, for example, sees the determination result that yesterday's 1:00 pm 0 second was “step down”, and the actual action was “step up” through the mobile phone. Enter that. The input correct behavior information is transmitted to learning 52 of the behavior determination device 50 through a mobile phone.

学習部52は、送信された正解行動情報に基づいて、図6に示された判定ルールの閾値の調整を行い、判定ルールを更新する。例えば、上述したように、ピーク間深さ面積の値が110[mG・sec]で、図6に示した判定ルールに基づいた判定結果が「階段の降り」であるとする。そして、携帯電話のユーザから入力された正解行動情報が「階段昇り」であると、学習部52は、図6に示した判定ルールを、図19に示した判定ルールに変更する。その後、行動判定部16は、変更された新しい判定ルールを参照しながら、再度、判定処理を行う。   The learning unit 52 adjusts the threshold value of the determination rule shown in FIG. 6 based on the transmitted correct behavior information, and updates the determination rule. For example, as described above, it is assumed that the value of the depth area between peaks is 110 [mG · sec], and the determination result based on the determination rule shown in FIG. Then, if the correct behavior information input from the user of the mobile phone is “step up”, the learning unit 52 changes the determination rule shown in FIG. 6 to the determination rule shown in FIG. Thereafter, the behavior determination unit 16 performs the determination process again while referring to the changed new determination rule.

このように、本実施例5によれば、携帯電話のユーザは、任意のタイミングで効率良く正解行動を入力できるので、行動判定が行われる度に正解不正解を入力する必要がなく、多くの判定結果について一度に正解不正解を入力する機会を得ることができる。この結果、携帯電話のユーザによる正解不正解入力の利便性が向上し、ひいては、判定精度のよりいっそうの向上が期待できる。   As described above, according to the fifth embodiment, the mobile phone user can efficiently input the correct action at an arbitrary timing. Therefore, it is not necessary to input the correct / incorrect answer every time the action is determined. It is possible to obtain an opportunity to input a correct answer / incorrect answer at a time for the determination result. As a result, the convenience of correct / incorrect answer input by the user of the mobile phone is improved, and as a result, the determination accuracy can be further improved.

以上のように、本発明によれば、例えば、人物の外出時の行動を判定し、その人物の行動に応じた消費カロリー計算を高精度に行ったり、行動記録を用いて健康管理を行ったりすることができる。特に、本発明によれば、人物等の上下方向における移動を判定できるので、フロア移動を検出でき、例えば、屋内ナビゲーションなどに応用することも可能である。   As described above, according to the present invention, for example, a behavior of a person when going out is determined, calorie consumption calculation according to the behavior of the person is performed with high accuracy, or health management is performed using an action record. can do. In particular, according to the present invention, since the movement of a person or the like in the vertical direction can be determined, the floor movement can be detected, and for example, it can be applied to indoor navigation.

1 端末装置
2 加速度センサ
3 データ取得部
4 出力装置
5 入力装置
10 行動判定装置(実施の形態1)
11 時間窓切出部
12 特徴量算出部
13 ピーク抽出部
14 ピーク間データ切出部
15 浮き度算出部
16 行動判定部
17 出力部
18 正規化処理部
20 行動判定装置(実施の形態2)
30 行動判定装置(実施の形態3)
31 履歴記憶部
40 行動判定装置(実施の形態4)
41 学習部
50 行動判定装置(実施の形態5)
51 履歴記憶部
52 学習部
100 行動判定システム(実施の形態1)
101 端末装置
102 行動判定システム(実施の形態2)
103 行動判定システム(実施の形態3)
104 行動判定システム(実施の形態4)
105 行動判定システム(実施の形態5)
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
DESCRIPTION OF SYMBOLS 1 Terminal device 2 Acceleration sensor 3 Data acquisition part 4 Output device 5 Input device 10 Behavior determination apparatus (Embodiment 1)
DESCRIPTION OF SYMBOLS 11 Time window extraction part 12 Feature-value calculation part 13 Peak extraction part 14 Inter-peak data extraction part 15 Floating degree calculation part 16 Action determination part 17 Output part 18 Normalization process part 20 Action determination apparatus (Embodiment 2)
30 Action determination device (Embodiment 3)
31 History storage unit 40 Action determination device (Embodiment 4)
41 learning unit 50 action determination device (Embodiment 5)
51 History Storage Unit 52 Learning Unit 100 Action Determination System (Embodiment 1)
101 terminal apparatus 102 action determination system (Embodiment 2)
103 Action determination system (Embodiment 3)
104 Action determination system (Embodiment 4)
105 Behavior determination system (Embodiment 5)
110 Computer 111 CPU
112 Main Memory 113 Storage Device 114 Input Interface 115 Display Controller 116 Data Reader / Writer 117 Communication Interface 118 Input Device 119 Display Device 120 Recording Medium 121 Bus

Claims (38)

加速度センサが出力した時系列のセンサデータに基づいて測定対象の行動を判定する行動判定装置であって、
前記センサデータから、設定された時間長の時間窓データを切り出す、時間窓切出部と、
前記測定対象の行動評価の指標となる特徴量を算出する、特徴量算出部と、
前記特徴量に基づいて、前記測定対象の行動を判定する、行動判定部と、
を備え、
前記特徴量算出部は、前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出し、前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切出し、そして、前記ピーク間データから、前記特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出し、更に、前記浮き度以外の特徴量として、前記時間窓データ毎の加速度分散値と、前記特定された2つのピークの間の間隔と、を算出し、
前記行動判定部は、前記浮き度、前記加速度分散値、及び前記特定された2つのピークの間の間隔の少なくとも1つに基づいて、前記測定対象の行動が、予め想定された、止まる、走る、歩く、階段の昇り、及び階段の降り、から選ばれる2つ以上の行動のいずれに該当するか、又はこれらの行動の内の1つについて、それに該当するか、を判定する、ことを特徴とする行動判定装置。
An action determination device for determining a measurement target action based on time-series sensor data output by an acceleration sensor,
A time window extraction unit that extracts time window data of a set time length from the sensor data; and
A feature amount calculation unit that calculates a feature amount that serves as an index of behavior evaluation of the measurement target;
An action determination unit for determining an action of the measurement target based on the feature amount;
With
The feature amount calculation unit extracts peak information for specifying a peak included in the time window data from the time window data, specifies one peak and a peak immediately before the peak information based on the peak information, A portion existing between two specified peaks in the sensor data is cut out as peak-to-peak data, and from the peak-to-peak data, the vertical acceleration applied to the measurement object is equal to or less than a set value as the feature amount. The degree of occurrence indicating the degree of occurrence of the state is calculated, and the acceleration dispersion value for each time window data and the interval between the two specified peaks are calculated as feature quantities other than the degree of floating. And
The behavior determination unit stops, runs, the behavior of the measurement target is assumed in advance based on at least one of the floating degree, the acceleration dispersion value, and the interval between the two specified peaks. , walking, climbing stairs, and down the stairs, two or more any in either the appropriate actions selected from, or for one of these behaviors, or corresponds thereto, determining, and wherein An action determination device.
前記特徴量算出部が、前記ピーク間データの前記設定値以下となった部分を時間によって積分し、得られた積分値を前記浮き度とし、
前記行動判定部が、前記測定対象の想定される行動毎に設定された前記積分値の閾値に基づいて、前記測定対象の行動を判定する、請求項1に記載の行動判定装置。
The feature amount calculation unit integrates a portion of the peak-to-peak data that is equal to or less than the set value with time, and the obtained integrated value is set as the floating degree.
The behavior determination apparatus according to claim 1, wherein the behavior determination unit determines the behavior of the measurement target based on a threshold value of the integral value set for each supposed behavior of the measurement target.
前記設定値が、重力加速度の値に設定されている、請求項1または2に記載の行動判定装置。   The behavior determination apparatus according to claim 1, wherein the set value is set to a value of gravitational acceleration. 前記行動判定部が、前記加速度分散値に基づいて、前記測定対象が止まっているかどうかを判定し、止まっていないと判定する場合に、前記特定された2つのピーク間の間隔に基づいて、前記測定対象が走っているか、または歩いているかを判定し、歩いていると判定する場合に、前記浮き度に基づいて、前記測定対象が階段を昇っているか、階段を降りているかを判定する、請求項に記載の行動判定装置。 The behavior determination unit determines whether the measurement target is stopped based on the acceleration dispersion value, and determines that the measurement target is not stopped, based on the interval between the two specified peaks, When determining whether the measurement target is running or walking, and determining that the measurement target is walking, based on the floating degree, determine whether the measurement target is going up the stairs or going down the stairs, The behavior determination apparatus according to claim 1 . 前記行動判定部が、前記加速度分散値に基づいて、前記測定対象が止まっている可能性示す第1の評価値を算出し、前記特定された2つのピーク間の間隔に基づいて、前記測定対象が走っている可能性または歩いている可能性を示す第2の評価値を算出し、前記浮き度に基づいて、前記測定対象が階段を昇っている可能性または階段を降りている可能性を示す第3の評価値を算出する、請求項に記載の行動判定装置。 The behavior determination unit calculates a first evaluation value indicating the possibility that the measurement target is stopped based on the acceleration dispersion value, and the measurement target is calculated based on an interval between the two specified peaks. Calculating a second evaluation value indicating the possibility of running or walking, and based on the degree of floating, the possibility that the measurement object is climbing the stairs or descending the stairs The behavior determination device according to claim 1 , wherein a third evaluation value is calculated. 前記浮き度を、前記浮き度以外の特徴量を用いて正規化する、正規化処理部を、更に備え、
前記行動判定部が、前記浮き度の代わりに、前記正規化処理部による正規化によって算出された値を用いて、前記測定対象の行動を判定する、請求項1〜のいずれかに記載の行動判定装置。
A normalization processing unit that normalizes the floating degree using a feature amount other than the floating degree;
The action determination unit, instead of the floating degree, by using a value calculated by normalization by the normalization processing unit determines the behavior of the measurement object, according to one of claims 1 to 5 Behavior determination device.
前記正規化処理部が、前記浮き度を、前記特定された2つのピークの間の間隔を用いて正規化する、請求項に記載の行動判定装置。 The behavior determination apparatus according to claim 6 , wherein the normalization processing unit normalizes the floating degree using an interval between the specified two peaks. 前記特徴量算出部が算出した前記特徴量を、設定期間の間、履歴情報として記憶する、履歴記憶部を、更に備え、
前記行動判定部が、前記履歴情報を用いて、前記特徴量の標準値を求め、前記標準値を用いて、前記測定対象の行動を判定する、請求項1〜のいずれかに記載の行動判定装置。
A history storage unit for storing the feature amount calculated by the feature amount calculation unit as history information for a set period;
The action determination unit, by using the history information, determining the standard values of the feature amount, using the standard values to determine the behavior of the measurement object, behavior of any of claims 1-7 Judgment device.
前記行動判定部が、前記履歴情報に含まれる前記特徴量の平均値を算出し、算出した前記平均値を前記標準値として用いる、請求項に記載の行動判定装置。 The behavior determination device according to claim 8 , wherein the behavior determination unit calculates an average value of the feature amounts included in the history information, and uses the calculated average value as the standard value. 前記行動判定部が、前記履歴情報に含まれる前記特徴量のうち最新の特徴量を除く特徴量について、平均値を算出し、更に、前記最新の特徴量と前記平均値との差分を求め、求めた前記差分の値が閾値以下である場合に、前記測定対象の行動の判定を中止する、請求項に記載の行動判定装置。 The behavior determining unit calculates an average value for the feature amount excluding the latest feature amount among the feature amounts included in the history information, and further calculates a difference between the latest feature amount and the average value, The behavior determination apparatus according to claim 8 , wherein when the obtained difference value is equal to or less than a threshold value, determination of the behavior of the measurement target is stopped. 前記行動判定部による判定の結果を外部に出力する、出力部と、
出力された前記判定の結果の正否を特定する情報の外部からの入力を受け付け、受け付けた前記情報と、出力された前記判定の結果とを対比し、対比の結果から、前記行動判定部が判定を行う際の判定ルールを更新する、学習部と、を備え、
前記行動判定部が、前記学習部が更新した前記ルールを用いて、前記測定対象の行動を判定する、請求項1〜10のいずれかに記載の行動判定装置。
An output unit for outputting a result of determination by the behavior determination unit to the outside; and
The input from the outside of the information specifying whether the determination result is correct is accepted, the received information is compared with the output determination result, and the action determination unit determines from the comparison result. And a learning unit that updates a determination rule when performing
The action determination unit, by using the rules in which the learning unit has updated, determines the behavior of the measurement object, behavior determining apparatus according to any one of claims 1-10.
前記特徴量算出部が算出した前記特徴量と、前記行動判定部による前記特徴量に基づいた判定の結果と、前記行動判定部による判定が行われた時刻とを、設定期間分、履歴情報として記憶する、履歴記憶部と、
前記履歴記憶部が記憶している、前記設定期間分の、前記判定の結果及び前記時刻を外部に出力する、出力部と、
出力された前記判定の結果と前記時刻との正否を特定する情報の外部からの入力を受け付け、受け付けた前記情報と、出力された前記判定の結果及び前記時刻とを対比し、対比の結果から、前記行動判定部が判定を行う際のルールを更新する、学習部と、を備え、
前記行動判定部が、前記学習部が更新した前記ルールを用いて、前記測定対象の行動を判定する、請求項1〜のいずれかに記載の行動判定装置。
The feature amount calculated by the feature amount calculation unit, the determination result based on the feature amount by the behavior determination unit, and the time when the determination by the behavior determination unit is performed are set as history information for a set period. A history storage unit for storing;
An output unit that outputs the result of the determination and the time for the set period stored in the history storage unit;
Accepting input from the outside of the information specifying the correctness between the determination result and the time output, comparing the received information with the determination result and the time output, from the comparison result A learning unit that updates a rule when the behavior determination unit makes a determination,
The action determination unit, by using the rules in which the learning unit has updated, determines the behavior of the measurement object, behavior determining apparatus according to any one of claims 1-5.
測定対象の行動に応じて時系列のセンサデータを出力する加速度センサと、前記センサデータに基づいて前記測定対象の行動を判定する行動判定装置とを備え、
前記行動判定装置は、前記センサデータから、設定された時間長の時間窓データを切り出す、時間窓切出部と、前記測定対象の行動評価の指標となる特徴量を算出する、特徴量算出部と、前記特徴量に基づいて、前記測定対象の行動を判定する、行動判定部とを備え、
前記特徴量算出部は、前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出し、前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切出し、そして、前記ピーク間データから、前記特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出し、更に、前記浮き度以外の特徴量として、前記時間窓データ毎の加速度分散値と、前記特定された2つのピークの間の間隔と、を算出し、
前記行動判定部は、前記浮き度、前記加速度分散値、及び前記特定された2つのピークの間の間隔の少なくとも1つに基づいて、前記測定対象の行動が、予め想定された、止まる、走る、歩く、階段の昇り、及び階段の降り、から選ばれる2つ以上の行動のいずれに該当するか、又はこれらの行動の内の1つについて、それに該当するか、を判定する、ことを特徴とする行動判定システム。
An acceleration sensor that outputs time-series sensor data according to the behavior of the measurement target; and an action determination device that determines the behavior of the measurement target based on the sensor data;
The behavior determination device is configured to extract, from the sensor data, a time window extraction unit that extracts time window data of a set time length, and a feature amount calculation unit that serves as an index for behavior evaluation of the measurement target. And an action determination unit that determines an action of the measurement target based on the feature amount,
The feature amount calculation unit extracts peak information for specifying a peak included in the time window data from the time window data, specifies one peak and a peak immediately before the peak information based on the peak information, A portion existing between two specified peaks in the sensor data is cut out as peak-to-peak data, and from the peak-to-peak data, the vertical acceleration applied to the measurement object is equal to or less than a set value as the feature amount. The degree of occurrence indicating the degree of occurrence of the state is calculated, and the acceleration dispersion value for each time window data and the interval between the two specified peaks are calculated as feature quantities other than the degree of floating. And
The behavior determination unit stops, runs, the behavior of the measurement target is assumed in advance based on at least one of the floating degree, the acceleration dispersion value, and the interval between the two specified peaks. , walking, climbing stairs, and down the stairs, two or more any in either the appropriate actions selected from, or for one of these behaviors, or corresponds thereto, determining, and wherein A behavior determination system.
測定対象の行動に応じて時系列のセンサデータを出力する加速度センサと、
前記センサデータから、設定された時間長の時間窓データを切り出す、時間窓切出部と、
前記測定対象の行動評価の指標となる特徴量を算出する、特徴量算出部と、
前記特徴量に基づいて、前記測定対象の行動を判定する、行動判定部と、
を備え、
前記特徴量算出部は、前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出し、前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切出し、そして、前記ピーク間データから、前記特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出し、更に、前記浮き度以外の特徴量として、前記時間窓データ毎の加速度分散値と、前記特定された2つのピークの間の間隔と、を算出し、
前記行動判定部は、前記浮き度、前記加速度分散値、及び前記特定された2つのピークの間の間隔の少なくとも1つに基づいて、前記測定対象の行動が、予め想定された、止まる、走る、歩く、階段の昇り、及び階段の降り、から選ばれる2つ以上の行動のいずれに該当するか、又はこれらの行動の内の1つについて、それに該当するか、を判定する、ことを特徴とする端末装置。
An acceleration sensor that outputs time-series sensor data according to the behavior of the measurement target;
A time window extraction unit that extracts time window data of a set time length from the sensor data; and
A feature amount calculation unit that calculates a feature amount that serves as an index of behavior evaluation of the measurement target;
An action determination unit for determining an action of the measurement target based on the feature amount;
With
The feature amount calculation unit extracts peak information for specifying a peak included in the time window data from the time window data, specifies one peak and a peak immediately before the peak information based on the peak information, A portion existing between two specified peaks in the sensor data is cut out as peak-to-peak data, and from the peak-to-peak data, the vertical acceleration applied to the measurement object is equal to or less than a set value as the feature amount. The degree of occurrence indicating the degree of occurrence of the state is calculated, and the acceleration dispersion value for each time window data and the interval between the two specified peaks are calculated as feature quantities other than the degree of floating. And
The behavior determination unit stops, runs, the behavior of the measurement target is assumed in advance based on at least one of the floating degree, the acceleration dispersion value, and the interval between the two specified peaks. , walking, climbing stairs, and down the stairs, two or more any in either the appropriate actions selected from, or for one of these behaviors, or corresponds thereto, determining, and wherein A terminal device.
加速度センサが出力した時系列のセンサデータに基づいて測定対象の行動を判定するための方法であって、
(a)前記センサデータから、設定された時間長の時間窓データを切り出す、ステップと、
(b)前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出する、ステップと、
(c)前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切り出す、ステップと、
(d)前記ピーク間データから、前記測定対象の行動評価の指標となる特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出する、ステップと、
(e)前記特徴量に基づいて、前記測定対象の行動を判定する、ステップと、
(f)前記浮き度以外の特徴量として、前記時間窓データ毎の加速度分散値と、前記特定された2つのピークの間の間隔とを算出する、ステップと、を有し、
前記(e)のステップにおいて、前記浮き度、前記加速度分散値、及び前記特定された2つのピークの間の間隔の少なくとも1つに基づいて、前記測定対象の行動が、予め想定された、止まる、走る、歩く、階段の昇り、及び階段の降り、から選ばれる2つ以上の行動のいずれに該当するか、又はこれらの行動の内の1つについて、それに該当するか、を判定することを特徴とする行動判定方法。
A method for determining an action to be measured based on time-series sensor data output from an acceleration sensor,
(A) cutting out time window data of a set time length from the sensor data; and
(B) extracting from the time window data peak information identifying a peak included in the time window data;
(C) identifying one peak and the immediately preceding peak based on the peak information, and cutting out a portion existing between the two specified peaks in the sensor data as inter-peak data;
(D) From the peak-to-peak data, as a feature quantity serving as an index for evaluating the behavior of the measurement target, a degree of float indicating a degree of occurrence of a state in which a vertical acceleration applied to the measurement target is equal to or less than a set value is calculated. Steps,
(E) determining the behavior of the measurement object based on the feature amount; and
As the feature amount other than (f) the float level, possess the acceleration variance of the time each window data to calculate the distance between the two peaks the specified steps, a,
In the step (e), based on at least one of the floating degree, the acceleration dispersion value, and the interval between the two specified peaks, the action of the measurement target is assumed in advance and stops. , running, walking, climbing stairs, and down the stairs, two or more any in either the appropriate actions selected from, or for one of these behaviors, or corresponds thereto, determining, that An action determination method characterized by
前記(d)のステップにおいて、前記ピーク間データの前記設定値以下となった部分を時間によって積分し、得られた積分値を前記浮き度とし、
前記(e)のステップにおいて、前記測定対象の想定される行動毎に設定された前記積分値の閾値に基づいて、前記測定対象の行動を判定する、請求項15に記載の行動判定方法。
In the step (d), the portion of the peak-to-peak data that is equal to or less than the set value is integrated over time, and the obtained integrated value is defined as the float.
The behavior determination method according to claim 15 , wherein in the step (e), the behavior of the measurement target is determined based on a threshold value of the integral value set for each supposed behavior of the measurement target.
前記(d)のステップにおいて、前記設定値が、重力加速度の値に設定されている、請求項1または1に記載の行動判定方法。 The behavior determination method according to claim 15 or 16 , wherein, in the step (d), the set value is set to a value of gravitational acceleration. 前記(e)のステップにおいて、前記加速度分散値に基づいて、前記測定対象が止まっているかどうかを判定し、止まっていないと判定する場合に、前記特定された2つのピーク間の間隔に基づいて、前記測定対象が走っているか、または歩いているかを判定し、歩いていると判定する場合に、前記浮き度に基づいて、前記測定対象が階段を昇っているか、階段を降りているかを判定する、請求項15に記載の行動判定方法。 In the step (e), based on the acceleration dispersion value, it is determined whether or not the measurement object is stopped. When it is determined that the measurement object is not stopped, based on the interval between the two specified peaks. When determining whether the measurement object is running or walking, and determining that the measurement object is walking, it is determined whether the measurement object is going up the stairs or going down the stairs based on the floating degree. The behavior determination method according to claim 15 . 前記(e)のステップにおいて、前記加速度分散値に基づいて、前記測定対象が止まっている可能性示す第1の評価値を算出し、前記特定された2つのピーク間の間隔に基づいて、前記測定対象が走っている可能性または歩いている可能性を示す第2の評価値を算出し、前記浮き度に基づいて、前記測定対象が階段を昇っている可能性または階段を降りている可能性を示す第3の評価値を算出する、請求項15に記載の行動判定方法。 In the step (e), based on the acceleration dispersion value, a first evaluation value indicating the possibility that the measurement object is stopped is calculated, and based on the interval between the two specified peaks, A second evaluation value indicating the possibility that the measurement target is running or walking is calculated, and the measurement target may be climbing up or down the stairs based on the floating degree The behavior determination method according to claim 15 , wherein a third evaluation value indicating sex is calculated. (g)前記浮き度を、前記浮き度以外の特徴量を用いて正規化する、ステップを、更に有し、
前記(e)のステップにおいて、前記浮き度の代わりに、前記(g)のステップによる正規化によって算出された値を用いて、前記測定対象の行動を判定する、請求項119のいずれかに記載の行動判定方法。
(G) further comprising the step of normalizing the float using a feature quantity other than the float;
In said step of (e), instead of the floating degree, using said values calculated by normalization by step (g), determines the behavior of the measurement object, either of claims 1 5-19 The behavior determination method according to Crab.
前記(g)のステップにおいて、前記浮き度を、前記特定された2つのピークの間の間隔を用いて正規化する、請求項2に記載の行動判定方法。 In said step of (g), the floating degree, normalized with the distance between the two peaks the identified behavior determining method according to claim 2 0. (h)前記(d)のステップで算出した前記特徴量を、設定期間の間、履歴情報として記憶する、ステップを、更に有し、
前記(e)のステップにおいて、前記履歴情報を用いて、前記特徴量の標準値を求め、前記標準値を用いて、前記測定対象の行動を判定する、請求項1〜2のいずれかに記載の行動判定方法。
(H) The method further includes a step of storing the feature amount calculated in the step (d) as history information for a set period.
In said step of (e), using the history information, determining the standard values of the feature amount, using the standard values to determine the behavior of the measurement object, either claim 1 5-2 1 The behavior determination method according to.
前記(e)のステップにおいて、前記履歴情報に含まれる前記特徴量の平均値を算出し、算出した前記平均値を前記標準値として用いる、請求項2に記載の行動判定方法。 In said step of (e), the calculated average value of the feature amount included in the history information, using the calculated the average value as the standard value, behavior determining method according to claim 2 2. 前記(e)のステップにおいて、前記履歴情報に含まれる前記特徴量のうち最新の特徴量を除く特徴量について、平均値を算出し、更に、前記最新の特徴量と前記平均値との差分を求め、求めた前記差分の値が閾値以下である場合に、前記測定対象の行動の判定を中止する、請求項2に記載の行動判定方法。 In the step (e), an average value is calculated for the feature values excluding the latest feature value among the feature values included in the history information, and a difference between the latest feature value and the average value is calculated. sought, if the value of the obtained difference is below the threshold, it stops the determination of behavior of the measurement object, behavior determining method according to claim 2 2. (i)前記(e)のステップによる判定の結果を外部に出力する、ステップと、
(j)前記(i)のステップで出力された、前記判定の結果の正否を特定する情報の入力を受け付ける、ステップと、
(k)前記(j)のステップで受け付けた前記情報と、前記(e)のステップで出力された前記判定の結果とを対比し、対比の結果から、前記(e)のステップで判定を行う際のルールを更新する、ステップと、を更に有し、
前記(i)〜(k)のステップの実行後に新たに実行される前記(e)のステップにおいて、前記(k)のステップで更新した前記ルールを用いて、前記測定対象の行動を判定する、請求項1〜2のいずれかに記載の行動判定方法。
(I) outputting the result of the determination in the step (e) to the outside;
(J) receiving an input of information specifying whether or not the result of the determination is correct output in the step (i);
(K) The information received in the step (j) is compared with the determination result output in the step (e), and the determination is performed in the step (e) from the comparison result. Updating the rules at the time of,
In the step (e) newly executed after the execution of the steps (i) to (k), the action to be measured is determined using the rules updated in the step (k). behavior determining method according to any one of claims 1 to 5, 21 to 24.
(l)前記特徴量と、前記(e)のステップによる前記特徴量に基づいた判定の結果と、前記(e)のステップによる判定が行われた時刻とを、設定期間の間、履歴情報として記憶する、ステップと、
(m)前記(l)のステップで記憶された、前記設定期間分の、前記判定の結果及び前記時刻を外部に出力する、ステップと、
(n)前記(m)のステップで出力された、前記判定の結果と前記時刻との正否を特定する情報の入力を受け付ける、ステップと、
(o)前記(n)のステップで受け付けた前記情報と、前記(m)のステップで出力された前記判定の結果及び前記時刻とを対比し、対比の結果から、前記(e)のステップで判定を行う際のルールを更新する、ステップと、を更に有し、
前記(l)〜(o)のステップの実行後に新たに実行される前記(e)のステップにおいて、前記(o)のステップで更新した前記ルールを用いて、前記測定対象の行動を判定する、請求項119のいずれかに記載の行動判定方法。
(L) The feature amount, the determination result based on the feature amount in the step (e), and the time when the determination in the step (e) is performed are used as history information during a set period. Remember, step,
(M) outputting the determination result and the time for the set period stored in step (l) to the outside;
(N) receiving an input of information specifying whether the determination result and the time are correct or not, which is output in the step (m);
(O) The information received in the step (n) is compared with the determination result and the time output in the step (m). From the comparison result, the information in the step (e) is compared. Updating a rule for making a determination, and
In the step (e) newly executed after the execution of the steps (l) to (o), the action to be measured is determined using the rule updated in the step (o). The behavior determination method according to any one of claims 15 to 19 .
コンピュータによって、加速度センサが出力した時系列のセンサデータに基づいた測定対象の行動の判定を実行するためのプログラムであって、
前記コンピュータに、
(a)前記センサデータから、設定された時間長の時間窓データを切り出す、ステップと、
(b)前記時間窓データから、前記時間窓データに含まれるピークを特定するピーク情報を抽出する、ステップと、
(c)前記ピーク情報に基づいて、1のピークとその直前のピークとを特定し、前記センサデータにおける特定された2つのピークの間に存在する部分をピーク間データとして切り出す、ステップと、
(d)前記ピーク間データから、前記測定対象の行動評価の指標となる特徴量として、前記測定対象にかかる鉛直方向の加速度が設定値以下となる状態の発生度合いを示す浮き度を算出する、ステップと、
(e)前記特徴量に基づいて、前記測定対象の行動を判定する、ステップと、
(f)前記浮き度以外の特徴量として、前記時間窓データ毎の加速度分散値と、前記特定された2つのピークの間の間隔とを算出する、ステップと、を実行させ
前記(e)のステップにおいて、前記浮き度、前記加速度分散値、及び前記特定された2つのピークの間の間隔の少なくとも1つに基づいて、前記測定対象の行動が、予め想定された、止まる、走る、歩く、階段の昇り、及び階段の降り、から選ばれる2つ以上の行動のいずれに該当するか、又はこれらの行動の内の1つについて、それに該当するか、を判定すことを特徴とするプログラム。
A program for executing a determination of an action of a measurement target based on time-series sensor data output from an acceleration sensor by a computer,
In the computer,
(A) cutting out time window data of a set time length from the sensor data; and
(B) extracting from the time window data peak information identifying a peak included in the time window data;
(C) identifying one peak and the immediately preceding peak based on the peak information, and cutting out a portion existing between the two specified peaks in the sensor data as inter-peak data;
(D) From the peak-to-peak data, as a feature quantity serving as an index for evaluating the behavior of the measurement target, a degree of float indicating a degree of occurrence of a state in which a vertical acceleration applied to the measurement target is equal to or less than a set value is calculated. Steps,
(E) determining the behavior of the measurement object based on the feature amount; and
(F) calculating an acceleration dispersion value for each time window data and an interval between the specified two peaks as a feature amount other than the floating degree ; and
In the step (e), based on at least one of the floating degree, the acceleration dispersion value, and the interval between the two specified peaks, the action of the measurement target is assumed in advance and stops. , running, walking, climbing stairs, and down the stairs, two or more any in either the appropriate actions selected from, or for one of these behaviors, or corresponds to it, you determine, A program characterized by that.
前記(d)のステップにおいて、前記ピーク間データの前記設定値以下となった部分を時間によって積分し、得られた積分値を前記浮き度とし、
前記(e)のステップにおいて、前記測定対象の想定される行動毎に設定された前記積分値の閾値に基づいて、前記測定対象の行動を判定する、請求項27に記載のプログラム。
In the step (d), the portion of the peak-to-peak data that is equal to or less than the set value is integrated over time, and the obtained integrated value is defined as the float.
28. The program according to claim 27 , wherein in the step (e), the behavior of the measurement target is determined based on a threshold value of the integral value set for each supposed behavior of the measurement target.
前記(d)のステップにおいて、前記設定値が、重力加速度の値に設定されている、請求項27または28に記載のプログラム。 The program according to claim 27 or 28 , wherein in the step (d), the set value is set to a value of gravitational acceleration. 前記(e)のステップにおいて、前記加速度分散値に基づいて、前記測定対象が止まっているかどうかを判定し、止まっていないと判定する場合に、前記特定された2つのピーク間の間隔に基づいて、前記測定対象が走っているか、または歩いているかを判定し、歩いていると判定する場合に、前記浮き度に基づいて、前記測定対象が階段を昇っているか、階段を降りているかを判定する、請求項27に記載のプログラム。 In the step (e), based on the acceleration dispersion value, it is determined whether or not the measurement object is stopped. When it is determined that the measurement object is not stopped, based on the interval between the two specified peaks. When determining whether the measurement object is running or walking, and determining that the measurement object is walking, it is determined whether the measurement object is going up the stairs or going down the stairs based on the floating degree. The program according to claim 27 . 前記(e)のステップにおいて、前記加速度分散値に基づいて、前記測定対象が止まっている可能性示す第1の評価値を算出し、前記特定された2つのピーク間の間隔に基づいて、前記測定対象が走っている可能性または歩いている可能性を示す第2の評価値を算出し、前記浮き度に基づいて、前記測定対象が階段を昇っている可能性または階段を降りている可能性を示す第3の評価値を算出する、請求項27に記載のプログラム。 In the step (e), based on the acceleration dispersion value, a first evaluation value indicating the possibility that the measurement object is stopped is calculated, and based on the interval between the two specified peaks, A second evaluation value indicating the possibility that the measurement target is running or walking is calculated, and the measurement target may be climbing up or down the stairs based on the floating degree The program according to claim 27 , wherein a third evaluation value indicating sex is calculated. 前記コンピュータに、更に、
(g)前記浮き度を、前記浮き度以外の特徴量を用いて正規化する、ステップを、実行させ、
前記(e)のステップにおいて、前記浮き度の代わりに、前記(g)のステップによる正規化によって算出された値を用いて、前記測定対象の行動を判定する、請求項27〜3のいずれかに記載のプログラム。
In addition to the computer,
(G) performing the step of normalizing the float using a feature quantity other than the float;
In said step of (e), instead of the floating degree, by using the value calculated by the normalization by said step of (g), it determines the behavior of the measurement object, either Claim 27-3 1 The program described in
前記(g)のステップにおいて、前記浮き度を、前記特定された2つのピークの間の間隔を用いて正規化する、請求項3に記載のプログラム。 In said step of (g), the floating degree, normalized with the distance between the two peaks the identified program according to claim 3 2. 前記コンピュータに、更に、
(h)前記(d)のステップで算出した前記特徴量を、設定期間の間、履歴情報として記憶する、ステップを、実行させ、
前記(e)のステップにおいて、前記履歴情報を用いて、前記特徴量の標準値を求め、前記標準値を用いて、前記測定対象の行動を判定する、請求項27〜3のいずれかに記載のプログラム。
In addition to the computer,
(H) storing the feature amount calculated in the step (d) as history information for a set period,
In said step of (e), using the history information, a standard value of said characteristic quantity calculated, by using the standard value to determine the behavior of the measurement target, in any one of claims 27 to 3 3 The program described.
前記(e)のステップにおいて、前記履歴情報に含まれる前記特徴量の平均値を算出し、算出した前記平均値を前記標準値として用いる、請求項34に記載のプログラム。 35. The program according to claim 34 , wherein in the step (e), an average value of the feature amounts included in the history information is calculated, and the calculated average value is used as the standard value. 前記(e)のステップにおいて、前記履歴情報に含まれる前記特徴量のうち最新の特徴量を除く特徴量について、平均値を算出し、更に、前記最新の特徴量と前記平均値との差分を求め、求めた前記差分の値が閾値以下である場合に、前記測定対象の行動の判定を中止する、請求項34に記載のプログラム。 In the step (e), an average value is calculated for the feature values excluding the latest feature value among the feature values included in the history information, and a difference between the latest feature value and the average value is calculated. The program according to claim 34 , wherein the determination of the behavior to be measured is stopped when the obtained difference value is equal to or less than a threshold value. 前記コンピュータに、更に、
(i)前記(e)のステップによる判定の結果を外部に出力する、ステップと、
(j)前記(i)のステップで出力された、前記判定の結果の正否を特定する情報の入力を受け付ける、ステップと、
(k)前記(j)のステップで受け付けた前記情報と、前記(e)のステップで出力された前記判定の結果とを対比し、対比の結果から、前記(e)のステップで判定を行う際のルールを更新する、ステップと、を更に実行させ、
前記(i)〜(k)のステップの実行後に新たに実行される前記(e)のステップにおいて、前記(k)のステップで更新した前記ルールを用いて、前記測定対象の行動を判定する、請求項2736のいずれかに記載のプログラム。
In addition to the computer,
(I) outputting the result of the determination in the step (e) to the outside;
(J) receiving an input of information specifying whether or not the result of the determination is correct output in the step (i);
(K) The information received in the step (j) is compared with the determination result output in the step (e), and the determination is performed in the step (e) from the comparison result. Updating the rules when the process is executed, and
In the step (e) newly executed after the execution of the steps (i) to (k), the action to be measured is determined using the rules updated in the step (k). The program according to any one of claims 27 to 36 .
前記コンピュータに、更に、
(l)前記特徴量と、前記(e)のステップによる前記特徴量に基づいた判定の結果と、前記(e)のステップによる判定が行われた時刻とを、設定期間の間、履歴情報として記憶する、ステップと、
(m)前記(l)のステップで記憶された、前記設定期間分の、前記判定の結果及び前記時刻を外部に出力する、ステップと、
(n)前記(m)のステップで出力された、前記判定の結果と前記時刻との正否を特定する情報の入力を受け付ける、ステップと、
(o)前記(n)のステップで受け付けた前記情報と、前記(m)のステップで出力された前記判定の結果及び前記時刻とを対比し、対比の結果から、前記(e)のステップで判定を行う際のルールを更新する、ステップと、を実行させ、
前記(l)〜(o)のステップの実行後に新たに実行される前記(e)のステップにおいて、前記(o)のステップで更新した前記ルールを用いて、前記測定対象の行動を判定する、請求項27〜3のいずれかに記載のプログラム。
In addition to the computer,
(L) The feature amount, the determination result based on the feature amount in the step (e), and the time when the determination in the step (e) is performed are used as history information during a set period. Remember, step,
(M) outputting the determination result and the time for the set period stored in step (l) to the outside;
(N) receiving an input of information specifying whether the determination result and the time are correct or not, which is output in the step (m);
(O) The information received in the step (n) is compared with the determination result and the time output in the step (m). From the comparison result, the information in the step (e) is compared. Update the rules for making a decision, execute the step,
In the step (e) newly executed after the execution of the steps (l) to (o), the action to be measured is determined using the rule updated in the step (o). The program according to any one of claims 27 to 31 .
JP2010077109A 2010-03-30 2010-03-30 Behavior determination device, behavior determination system, terminal device, behavior determination method, and program Active JP5590301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010077109A JP5590301B2 (en) 2010-03-30 2010-03-30 Behavior determination device, behavior determination system, terminal device, behavior determination method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010077109A JP5590301B2 (en) 2010-03-30 2010-03-30 Behavior determination device, behavior determination system, terminal device, behavior determination method, and program

Publications (2)

Publication Number Publication Date
JP2011206274A JP2011206274A (en) 2011-10-20
JP5590301B2 true JP5590301B2 (en) 2014-09-17

Family

ID=44938060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010077109A Active JP5590301B2 (en) 2010-03-30 2010-03-30 Behavior determination device, behavior determination system, terminal device, behavior determination method, and program

Country Status (1)

Country Link
JP (1) JP5590301B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10504036B2 (en) * 2016-01-06 2019-12-10 International Business Machines Corporation Optimizing performance of event detection by sensor data analytics

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6052278B2 (en) 2012-03-02 2016-12-27 日本電気株式会社 Motion determination device, motion determination system, and motion determination method
WO2014020718A1 (en) * 2012-08-01 2014-02-06 株式会社日立製作所 Gait discrimination system, gait discrimination device, and gait discrimination method
JP6011127B2 (en) * 2012-08-06 2016-10-19 富士ゼロックス株式会社 Action detection program and action detection apparatus
JP5846165B2 (en) * 2013-07-11 2016-01-20 カシオ計算機株式会社 Feature amount extraction apparatus, method, and program
JP6461658B2 (en) * 2015-03-19 2019-01-30 セコム株式会社 Fall detection terminal and program
JP6456202B2 (en) * 2015-03-19 2019-01-23 セコム株式会社 Fall detection terminal and program
JP6158859B2 (en) * 2015-05-13 2017-07-05 ヤフー株式会社 Prediction device, terminal, prediction method, and prediction program
JP6675092B2 (en) * 2016-03-30 2020-04-01 パナソニックIpマネジメント株式会社 Judgment system, judgment method, and judgment program
JP2017228091A (en) * 2016-06-22 2017-12-28 日本電信電話株式会社 Walking state learning method, walking state estimation method, road surface condition comprehension method, device and program
JP6804599B2 (en) * 2019-08-28 2020-12-23 株式会社イトーキ Posture discrimination method, posture discrimination program, activity amount measurement method, and activity amount measurement program.
JP7036154B2 (en) * 2020-06-15 2022-03-15 日本電信電話株式会社 Walking state learning method, walking state estimation method, road surface condition understanding method, device, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02203842A (en) * 1989-02-02 1990-08-13 Sanyo Electric Co Ltd Running form judging device
JP3570163B2 (en) * 1996-07-03 2004-09-29 株式会社日立製作所 Method and apparatus and system for recognizing actions and actions
JP2005278697A (en) * 2004-03-26 2005-10-13 Matsushita Electric Works Ltd Ambulatory azimuth separator, basograph equipped with the same and basograph system
JP2006170879A (en) * 2004-12-17 2006-06-29 Matsushita Electric Ind Co Ltd Vertical movement detector, height detector, navigation system, program, and mobile radio telephone terminal device
JP4877909B2 (en) * 2005-09-15 2012-02-15 シャープ株式会社 Motion measuring device
JP2008173251A (en) * 2007-01-17 2008-07-31 Matsushita Electric Works Ltd Ascending and descending motion detecting apparatus and activity meter using it
JP2008173248A (en) * 2007-01-17 2008-07-31 Matsushita Electric Works Ltd System for sensing ascent and descent movements of human body and physical activity meter
JP2010005033A (en) * 2008-06-25 2010-01-14 Panasonic Electric Works Co Ltd Walking motion analyzer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10504036B2 (en) * 2016-01-06 2019-12-10 International Business Machines Corporation Optimizing performance of event detection by sensor data analytics

Also Published As

Publication number Publication date
JP2011206274A (en) 2011-10-20

Similar Documents

Publication Publication Date Title
JP5590301B2 (en) Behavior determination device, behavior determination system, terminal device, behavior determination method, and program
US10449455B2 (en) Operation information measurement apparatus, game control program, operation information measurement program
CN107209807B (en) Wearable equipment of pain management
US10365120B2 (en) Device, method and system for counting the number of cycles of a periodic movement of a subject
Genovese et al. A smartwatch step counter for slow and intermittent ambulation
AU2017202152A1 (en) Method and system for determining postural balance of a person
US20220022604A1 (en) Receiving feedback based on pressure sensor data and movement data
US20120078594A1 (en) System and method for observing a person's walking activity
JP6052278B2 (en) Motion determination device, motion determination system, and motion determination method
US20180353107A1 (en) Biological Signal Collection Method, Apparatus, And System And Electronic Device
KR101974831B1 (en) Method for Assessing Fall Risk and User Terminal therefor
JP6365031B2 (en) Activity amount measuring device, activity amount measuring method, activity amount measuring program
JP6569233B2 (en) Posture estimation apparatus, posture estimation system, posture estimation method, and program
Straczkiewicz et al. A “one-size-fits-most” walking recognition method for smartphones, smartwatches, and wearable accelerometers
WO2021161314A1 (en) System and method for determining and predicting of a misstep
US20120144916A1 (en) Single gyroscope-based approach to determining spatial gait parameters
US20230124158A1 (en) Assessing walking steadiness of mobile device user
Moon et al. An Internet of Things sensor–based construction workload measurement system for construction process management
JP5522338B2 (en) Situation judging device, situation judging system, method and program thereof
EP3991649A1 (en) Non-obtrusive gait monitoring methods and systems for reducing risk of falling
Luo et al. Pervasive pose estimation for fall detection
KR20230031228A (en) Stress determination and management skills
TW201918225A (en) Method and system for analyzing gait
US11564439B2 (en) System and method for determining foot strike pattern
Chen et al. An accurate crowdsourcing-based adaptive fall detection approach using smart devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140416

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140715

R150 Certificate of patent or registration of utility model

Ref document number: 5590301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150