JP2021126289A - Estimation method - Google Patents

Estimation method Download PDF

Info

Publication number
JP2021126289A
JP2021126289A JP2020022449A JP2020022449A JP2021126289A JP 2021126289 A JP2021126289 A JP 2021126289A JP 2020022449 A JP2020022449 A JP 2020022449A JP 2020022449 A JP2020022449 A JP 2020022449A JP 2021126289 A JP2021126289 A JP 2021126289A
Authority
JP
Japan
Prior art keywords
acceleration
acceleration sensor
sitting
living body
data group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020022449A
Other languages
Japanese (ja)
Inventor
和彦 篠田
Kazuhiko Shinoda
和彦 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020022449A priority Critical patent/JP2021126289A/en
Publication of JP2021126289A publication Critical patent/JP2021126289A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To estimate a mounting direction of a sensor mounted on a living body.SOLUTION: An estimation method is the method for estimating a mounting direction of an acceleration sensor mounted on a trunk of a living body. The estimation method includes: an extraction process for extracting a sitting data group being acceleration data output from the acceleration sensor in a sitting section being a sitting period of a user from an acceleration data group successively output from the acceleration sensor; a specification process for specifying a reference vector from a distribution pattern which appears when acceleration data included in the sitting data group are plotted on a two-dimensional coordinate; and an estimation process for estimating a mounting direction based on an inclination of the specified reference vector on the two-dimensional coordinate.SELECTED DRAWING: Figure 1

Description

本発明は、センサの装着方向を推定する推定方法の技術分野に関する。 The present invention relates to the technical field of an estimation method for estimating the mounting direction of a sensor.

この種の方法に関連する技術として、例えば、加速度センサの出力に基づいて生体の姿勢の角度や体動量を検出する技術が提案されている(特許文献1参照)。 As a technique related to this type of method, for example, a technique for detecting the posture angle and the amount of body movement of a living body based on the output of an acceleration sensor has been proposed (see Patent Document 1).

特開2015−178011号公報Japanese Unexamined Patent Publication No. 2015-178011

装着時の加速度センサの生体に対する方向(以降、適宜“装着方向”と称する)が、加速度センサの検出結果に影響を及ぼすことがある。加速度センサの装着方向が考慮されていない特許文献1に記載の技術では、生体の姿勢を正しく検出できない可能性があるという問題点がある。 The direction of the accelerometer with respect to the living body at the time of wearing (hereinafter, appropriately referred to as "wearing direction") may affect the detection result of the accelerometer. The technique described in Patent Document 1 in which the mounting direction of the acceleration sensor is not taken into consideration has a problem that the posture of the living body may not be detected correctly.

本発明は、上記問題点に鑑みてなされたものであり、センサの装着方向を推定することができる推定方法を提供することを課題とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an estimation method capable of estimating the mounting direction of a sensor.

本発明の一態様に係る推定方法は、生体の体幹に装着された加速度センサの装着方向を推定する推定方法であって、前記加速度センサから逐次出力された加速度データ群から、前記ユーザが座っている期間である座位区間に前記加速度センサから出力された加速度データである座位データ群を抽出する抽出工程と、前記座位データ群に含まれる加速度データが2次元座標上にプロットされたときに現れる分布パターンから基準ベクトルを特定する特定工程と、前記特定された基準ベクトルの前記2次元座標上での傾きに基づいて、前記装着方向を推定する推定工程と、を含むというものである。 The estimation method according to one aspect of the present invention is an estimation method for estimating the mounting direction of an acceleration sensor mounted on the trunk of a living body, and the user sits down from a group of acceleration data sequentially output from the acceleration sensor. It appears when the extraction step of extracting the sitting position data group, which is the acceleration data output from the acceleration sensor, and the acceleration data included in the sitting position data group are plotted on the two-dimensional coordinates in the sitting position section during the period. It includes a specific step of specifying a reference vector from a distribution pattern and an estimation step of estimating the mounting direction based on the inclination of the specified reference vector on the two-dimensional coordinates.

実施形態に係る推定方法を示すフローチャートである。It is a flowchart which shows the estimation method which concerns on embodiment. センサの装着方向の具体例を示す図である。It is a figure which shows the specific example of the mounting direction of a sensor. 加速度データの分布パターンの具体例を示す図である。It is a figure which shows the specific example of the distribution pattern of acceleration data. 基準ベクトルの具体例を示す図である。It is a figure which shows the specific example of a reference vector. センサの装着位置に応じたセンサに加わる重力加速度の違いの一例を示す図である。It is a figure which shows an example of the difference of the gravitational acceleration applied to a sensor according to the mounting position of a sensor. エポックの概念を示す図である。It is a figure which shows the concept of an epoch.

推定方法に係る実施形態について説明する。実施形態に係る推定方法は、例えば人間等の生体の体幹に装着された加速度センサの装着方向を推定する推定方法である。体幹(即ち、胴体部分)における加速度センサの具体的な装着位置としては、例えば腰、胸等が挙げられる。 An embodiment related to the estimation method will be described. The estimation method according to the embodiment is an estimation method for estimating the mounting direction of an acceleration sensor mounted on the trunk of a living body such as a human being. Specific mounting positions of the acceleration sensor on the trunk (that is, the body portion) include, for example, the waist and chest.

加速度センサから出力される一の加速度データは、3軸(例えばx軸、y軸、z軸)の加速度を含んでいる。ここで、加速度センサは、所謂3軸加速度センサであってもよいし、互いに異なる3軸のうち1軸に沿った加速度を夫々検出する3つの加速度センサを含んで構成されていてもよい。尚、以降の説明では、生体の高さ方向を“x軸”、生体の左右方向を“y軸”、生体の前後方向を“z軸”とする。 One acceleration data output from the acceleration sensor includes accelerations of three axes (for example, x-axis, y-axis, and z-axis). Here, the acceleration sensor may be a so-called three-axis acceleration sensor, or may be configured to include three acceleration sensors that detect acceleration along one of the three different axes. In the following description, the height direction of the living body is referred to as "x-axis", the left-right direction of the living body is referred to as "y-axis", and the anteroposterior direction of the living body is referred to as "z-axis".

加速度センサから逐次出力された時系列の加速度データは、加速度データ群として蓄積される。当該推定方法は、上記加速度データ群から、生体が座っている期間である座位区間に、加速度センサから出力された加速度データである座位データ群を抽出する抽出工程を含む。この抽出工程では、例えば機械学習や、加速度に係る閾値等を用いた既存の技術により、生体が座っている期間である座位区間が特定されてよい。そして、抽出工程では、時系列の加速度データ(即ち、加速度データ群)から、座位区間に該当する時系列の加速度データが、座位データ群として抽出される。 The time-series acceleration data sequentially output from the acceleration sensor is accumulated as an acceleration data group. The estimation method includes an extraction step of extracting a sitting position data group which is acceleration data output from an acceleration sensor in a sitting position section which is a period in which a living body is sitting from the acceleration data group. In this extraction step, a sitting section, which is a period in which the living body is sitting, may be specified by, for example, machine learning or an existing technique using a threshold value related to acceleration. Then, in the extraction step, the time-series acceleration data corresponding to the sitting section is extracted as the sitting data group from the time-series acceleration data (that is, the acceleration data group).

当該推定方法は、上記抽出された座位データ群に含まれる加速度データが2次元座標上にプロットされたときに現れる分布パターンから基準ベクトルを特定する特定工程を含む。ここで、本願発明者は、座位データ群に含まれる複数の加速度データが2次元座標上にプロットされると、ある方向に延びる直線のまわりに分布することを見出した。加えて、本願発明者は、該直線が延びる方向が、加速度センサの装着方向に応じて変化することも見出した。特定工程では、上記直線が延びる方向に沿うベクトルが、基準ベクトルとして特定される。 The estimation method includes a specific step of specifying a reference vector from a distribution pattern that appears when the acceleration data included in the extracted sitting data group is plotted on two-dimensional coordinates. Here, the inventor of the present application has found that when a plurality of acceleration data included in a sitting position data group are plotted on two-dimensional coordinates, they are distributed around a straight line extending in a certain direction. In addition, the inventor of the present application has also found that the direction in which the straight line extends changes depending on the mounting direction of the acceleration sensor. In the specific step, a vector along the direction in which the straight line extends is specified as a reference vector.

当該推定方法は、上記特定された基準ベクトルの2次元座標上での傾きに基づいて、装着方向を推定する推定工程を含む。基準ベクトルの向きは、上述の如く、加速度センサの装着方向に応じて変化する。このため、基準ベクトルの2次元座標上での傾き(言い換えれば、基準ベクトルの向き)から、装着方向を推定することができる。従って、当該推定方法によれば、加速度センサの装着方向を推定することができる。 The estimation method includes an estimation step of estimating the mounting direction based on the inclination of the specified reference vector on the two-dimensional coordinates. As described above, the orientation of the reference vector changes according to the mounting direction of the acceleration sensor. Therefore, the mounting direction can be estimated from the inclination of the reference vector on the two-dimensional coordinates (in other words, the direction of the reference vector). Therefore, according to the estimation method, the mounting direction of the acceleration sensor can be estimated.

実施形態に係る推定方法について、図1のフローチャートを参照して説明を加える。図1において、先ず、加速度センサから逐次出力された加速度データが逐次取得される(ステップS101)。この結果、上述した加速度データ群(即ち、時系列の加速度データ)が得られる。尚、ステップS101の処理は、後述するステップS102以降の処理と並行して常時行われていてよい。 The estimation method according to the embodiment will be described with reference to the flowchart of FIG. In FIG. 1, first, the acceleration data sequentially output from the acceleration sensor is sequentially acquired (step S101). As a result, the above-mentioned acceleration data group (that is, time-series acceleration data) is obtained. The process of step S101 may be performed at all times in parallel with the processes of steps S102 and subsequent steps described later.

次に、加速度データ群に基づいて、生体が座っている期間である座位区間が検出される(ステップS102)。このステップS102の処理の結果を参照して、加速度データ群から座位データ群が抽出される。 Next, based on the acceleration data group, the sitting section, which is the period during which the living body is sitting, is detected (step S102). The sitting data group is extracted from the acceleration data group with reference to the result of the process in step S102.

ここで、座位データ群について図2及び図3を参照して具体的に説明する。図2において、楕円は、生体(ここでは、人間)の横断面を表している。図2(a)では、加速度センサが、生体の中央に装着されている(例えば、正中線にセンサが重なるように装着されている)。図2(b)では、加速度センサが、生体の中央より左側に装着されている。図2(c)では、加速度センサが、生体の中央より右側に装着されている。尚、図2のy軸は、生体の左右方向に対応しており、z軸は、生体の前後方向に対応している。 Here, the sitting position data group will be specifically described with reference to FIGS. 2 and 3. In FIG. 2, the ellipse represents a cross section of a living body (here, a human). In FIG. 2A, the accelerometer is mounted in the center of the living body (for example, the sensor is mounted so as to overlap the midline). In FIG. 2B, the acceleration sensor is mounted on the left side of the center of the living body. In FIG. 2C, the acceleration sensor is mounted on the right side of the center of the living body. The y-axis of FIG. 2 corresponds to the left-right direction of the living body, and the z-axis corresponds to the front-back direction of the living body.

座位データ群に含まれる複数の加速度データが、y−z平面上にプロットされると、例えば図3に示されるような分布パターンが現れる。尚、図3における複数の黒丸が、夫々、座位データ群に含まれる複数の加速度データに対応している。 When a plurality of acceleration data included in the sitting data group are plotted on the yz plane, a distribution pattern as shown in FIG. 3, for example, appears. The plurality of black circles in FIG. 3 correspond to the plurality of acceleration data included in the sitting position data group, respectively.

図2(a)に示すように、加速度センサが生体の中央に装着されている場合の座位データ群に含まれる複数の加速度データは、z軸まわりに分布する。図2(b)に示すように、加速度センサが生体の中央より左側に装着されている場合の座位データ群に含まれる複数の加速度データは、y軸とz軸との間を左斜め方向に延びるように分布する。図2(c)に示すように、加速度センサが生体の中央より右側に装着されている場合の座位データ群に含まれる複数の加速度データは、y軸とz軸との間を右斜め方向に延びるように分布する。 As shown in FIG. 2A, a plurality of acceleration data included in the sitting position data group when the acceleration sensor is mounted in the center of the living body are distributed around the z-axis. As shown in FIG. 2B, when the acceleration sensor is mounted on the left side of the center of the living body, the plurality of acceleration data included in the sitting position data group are obliquely left between the y-axis and the z-axis. It is distributed so as to extend. As shown in FIG. 2C, when the acceleration sensor is mounted on the right side of the center of the living body, the plurality of acceleration data included in the sitting position data group are obliquely to the right between the y-axis and the z-axis. It is distributed so as to extend.

図2(b)及び(c)に示すように、加速度センサが生体の中央より左側又は右側に装着されている場合、生体表面の丸みに起因して、加速度センサが、例えばz軸に対して傾く。このため、生体が座っている状態で、例えば前後方向に(即ち、z軸方向に)揺れると、加速度センサにより検出されるz軸方向の加速度は、加速度センサが生体の中央に装着されている場合に比べて小さくなる一方、加速度センサにより検出されるy軸方向の加速度は、加速度センサが生体の中央に装着されている場合に比べて大きくなる。この結果、例えば図3に示すような分布パターンが現れるのである。 As shown in FIGS. 2 (b) and 2 (c), when the accelerometer is mounted on the left side or the right side of the center of the living body, the accelerometer may be attached to the z-axis, for example, due to the roundness of the surface of the living body. Tilt. Therefore, when the living body is sitting and sways in the front-back direction (that is, in the z-axis direction), the acceleration in the z-axis direction detected by the acceleration sensor is obtained by mounting the acceleration sensor in the center of the living body. On the other hand, the acceleration in the y-axis direction detected by the acceleration sensor is larger than that in the case where the acceleration sensor is mounted in the center of the living body. As a result, for example, the distribution pattern shown in FIG. 3 appears.

図1に戻り、例えば図3に示すような分布パターンから、基準ベクトルが算出(特定)される(ステップS103)。ここで、基準ベクトルは、例えば座位データ群に含まれる複数の加速度データに基づいて主成分分析を行い、その第1主成分を特定することにより求められてよい。ステップS103の処理の結果、例えば図4に示すような、ベクトルa、a又はaが算出される。 Returning to FIG. 1, the reference vector is calculated (specified) from the distribution pattern as shown in FIG. 3, for example (step S103). Here, the reference vector may be obtained, for example, by performing principal component analysis based on a plurality of acceleration data included in the sitting data group and specifying the first principal component thereof. As a result of the processing in step S103, for example, the vectors a 1 , a 2 or a 3 as shown in FIG. 4 are calculated.

ベクトルaは、加速度センサが生体の中央に装着されている場合の基準ベクトルの一例である。ベクトルaは、加速度センサが生体の中央より左側に装着されている場合の基準ベクトルの一例である。ベクトルaは、加速度センサが生体の中央より右側に装着されている場合の基準ベクトルの一例である。 Vector a 1 is an example of a reference vector when the acceleration sensor is mounted in the center of the living body. The vector a 2 is an example of a reference vector when the acceleration sensor is mounted on the left side of the center of the living body. Vector a 3 is an example of a reference vector when the acceleration sensor is mounted on the right side from the center of the living body.

次に、基準ベクトルの傾き(例えばz軸に対する傾き)から、加速度センサの装着方向が推定される(ステップS104)。ここで、基準ベクトルの傾きと、加速度センサの具体的な装着方向との関係は、実験やシミュレーションによって求められてよい。そして、該求められた関係に基づいて、基準ベクトルの傾きから、装着方向が推定されてよい。 Next, the mounting direction of the acceleration sensor is estimated from the inclination of the reference vector (for example, the inclination with respect to the z-axis) (step S104). Here, the relationship between the inclination of the reference vector and the specific mounting direction of the acceleration sensor may be obtained by experiments or simulations. Then, based on the obtained relationship, the mounting direction may be estimated from the inclination of the reference vector.

(技術的効果)
当該推定方法では、座位データ群に含まれる複数の加速度データが2次元座標上にプロットされたときに現れる分布パターンが、装着方向に応じて変化することに着目し、該分布パターンから基準ベクトルが特定される。そして、当該推定方法では、該特定された基準ベクトルの傾きから、加速度センサの装着方向が推定される。従って、当該推定方法によれば、センサの装着方向を推定することができる。
(Technical effect)
In the estimation method, attention is paid to the fact that the distribution pattern that appears when a plurality of acceleration data included in the sitting data group is plotted on the two-dimensional coordinates changes according to the mounting direction, and the reference vector is obtained from the distribution pattern. Be identified. Then, in the estimation method, the mounting direction of the acceleration sensor is estimated from the inclination of the specified reference vector. Therefore, according to the estimation method, the mounting direction of the sensor can be estimated.

<応用例1>
上述した推定方法の応用例について説明する。ここでは、加速度センサを用いたユーザの寝姿勢判定に上述した推定方法を適用する例について説明する。ユーザの寝姿勢の判定は、例えば加速度センサの前後方向軸とユーザに加わる重力加速度の向きとのなす角を加速度センサの出力から特定することにより行われる。尚、「寝姿勢」とは、ユーザが寝ているときの体の向き(例えば仰向け、うつ伏せ、横向き等)を意味する。
<Application example 1>
An application example of the above-mentioned estimation method will be described. Here, an example of applying the above-mentioned estimation method to the determination of the sleeping posture of the user using the acceleration sensor will be described. The determination of the user's sleeping posture is performed, for example, by specifying the angle formed by the anteroposterior axis of the acceleration sensor and the direction of the gravitational acceleration applied to the user from the output of the acceleration sensor. The "sleeping posture" means the orientation of the body when the user is sleeping (for example, lying on his back, prone, sideways, etc.).

例えば図5(a)に示すように、加速度センサがユーザの中央より左側に装着されていると、ユーザが仰向けに寝ていたとしても、重力加速度の向き(即ち、鉛直方向)(図5(a)の符号g参照)は、加速度センサの前後方向軸(図5(a)の点線参照)とは異なってしまう。ここで、鉛直方向(即ち、z軸)と加速度センサの前後方向軸とがなす角を“θlie”とする。 For example, as shown in FIG. 5A, when the accelerometer is mounted on the left side of the center of the user, the direction of gravitational acceleration (that is, the vertical direction) even if the user is lying on his back (FIG. 5 (a). The reference numeral g in a) is different from the anteroposterior axis of the acceleration sensor (see the dotted line in FIG. 5A). Here, the angle formed by the vertical direction (that is, the z-axis) and the front-back direction axis of the acceleration sensor is defined as “θ lie ”.

他方で、例えば図5(b)に示すように、加速度センサがユーザの中央に装着されていると、ユーザが仰向けに寝ている場合、鉛直方向と加速度センサの前後方向軸とは一致する(即ち、“θlie=0”)。このように、重力加速度の向きに基づいてユーザの寝姿勢が判定される場合、加速度センサの装着方向に起因して寝姿勢を正しく判定できない可能性がある。 On the other hand, when the accelerometer is mounted in the center of the user, for example, as shown in FIG. 5B, the vertical axis coincides with the anteroposterior axis of the accelerometer when the user lies on his back ( That is, “θ lie = 0”). In this way, when the sleeping posture of the user is determined based on the direction of the gravitational acceleration, the sleeping posture may not be correctly determined due to the mounting direction of the acceleration sensor.

そこで、上述した推定方法を用いて特定された基準ベクトルに基づいて上記“θlie”を補正すれば(言い換えれば、加速度センサの検出結果に対する装着位置の影響を補正すれば)、ユーザの寝姿勢を適切に判定することができる。 Therefore, if the above "θ lie " is corrected based on the reference vector specified by using the above estimation method (in other words, if the influence of the mounting position on the detection result of the acceleration sensor is corrected), the sleeping posture of the user is corrected. Can be appropriately determined.

ここでは、時間的に連続する加速度データが加速度センサから出力されるものとして、具体的な説明を行う。先ず、座位区間(即ち、ユーザが座っている期間)の時間的に連続する加速度データが「エポック」という単位に分割される。「エポック」は、平均加速度を求める際の単位である。 Here, a specific description will be given assuming that time-continuous acceleration data is output from the acceleration sensor. First, the time-continuous acceleration data of the sitting section (that is, the period during which the user is sitting) is divided into units called "epochs". "Epoch" is a unit for calculating the average acceleration.

例えば4秒を1エポックとすると、4秒間(即ち、1エポック)に出力された時間的に連続する加速度データから、その期間の平均加速度が求められる。時間的に連続する加速度データの平均加速度が、例えば2秒毎に算出されるとすると、図6に示すように、一のエポックと、それに続く他のエポックとが重複する期間が生じる。 For example, assuming that 4 seconds is 1 epoch, the average acceleration during that period can be obtained from the time-continuous acceleration data output for 4 seconds (that is, 1 epoch). Assuming that the average acceleration of the acceleration data that is continuous in time is calculated every 2 seconds, for example, as shown in FIG. 6, there is a period in which one epoch overlaps with the other epochs that follow.

エポック毎に、例えばy軸及びz軸各々の平均加速度が算出された後、該算出された平均加速度に基づいて(即ち、y−z平面上の平均加速度の分布パターンに基づいて)主成分分析が行われる。そして、主成分分析の結果から第1主成分を特定して基準ベクトルが求められる。ここで、座位区間の基準ベクトルを“pc=(pc,pc”とする。 For each epoch, for example, after the average acceleration of each of the y-axis and z-axis is calculated, principal component analysis is performed based on the calculated average acceleration (that is, based on the distribution pattern of the average acceleration on the yz plane). Is done. Then, the reference vector is obtained by specifying the first principal component from the result of the principal component analysis. Here, the reference vector of the sitting section is set to "pc = (pc y , pc z ) T ".

同様にして、臥位区間(即ち、ユーザが寝ている期間)の時間的に連続する加速度データがエポックという単位に分割される。尚、臥位区間も、座位区間と同様に、例えば機械学習や、加速度に係る閾値等を用いた既存の技術により特定されてよい。 Similarly, the time-continuous acceleration data of the recumbent position section (that is, the period during which the user is sleeping) is divided into units called epochs. The lying position section may also be specified by, for example, machine learning or an existing technique using a threshold value related to acceleration, as in the sitting position section.

そして、臥位区間についてエポック毎に、例えばy軸及びz軸各々の平均加速度が算出される。ここで、臥位区間の一のエポックについての平均加速度を(lie,lie)とする。 Then, for each epoch in the recumbent position section, for example, the average acceleration of each of the y-axis and the z-axis is calculated. Here, let the average acceleration for one epoch in the recumbent position be (lie y , lie z ).

臥位区間の一のエポックについての平均加速度を成分とするベクトルlie(lie,lie)とz軸とのなす角θlieは、“θlie=sign(lie)・arccos(lie)”という式により求められる。 The angle θ lie formed by the vector lie (lie y , lie z ) and the z-axis, which is composed of the average acceleration for one epoch in the recumbent position, is “θ lie = sign (lie y ) · arccos (lie z )). It is calculated by the formula.

同様に、座位区間の基準ベクトルpcとz軸とのなす角θpcは、“θpc=sign(pc)・arccos(pc)”という式により求められる。ここで、“θpc”は、加速度センサの装着方向に対応している。 Similarly, the angle θ pc formed by the reference vector pc of the sitting interval and the z-axis is obtained by the formula “θ pc = sign (pc y ) · arccos (pc z)”. Here, “θ pc ” corresponds to the mounting direction of the acceleration sensor.

そして、θlieからθpcを引いた値であるθ lieに基づいて、ユーザの寝姿勢を判定すれば、ユーザの寝姿勢を正しく判定することができる。 Then, based on the θ * lie is a value obtained by subtracting the θ pc from θ lie, if it is determined the sleeping posture of the user, it is possible to determine the posture of the user correctly.

<応用例2>
他の応用例として、加速度センサを用いたユーザのBMI(Body Mass Index:体格指数)の推定に上述した推定方法を適用する例について説明する。
<Application example 2>
As another application example, an example in which the above-mentioned estimation method is applied to the estimation of the user's BMI (Body Mass Index) using the acceleration sensor will be described.

BMIは、腹部の傾きと相関があることが本願発明者の研究により判明している。このため、ユーザの腹部に装着された加速度センサから出力される3軸の加速度データから腹部の傾きを特定することで、ユーザのBMIを推定することができる。尚、加速度センサを用いたユーザのBMIの推定方法の詳細については、例えば特願2019−038747を参照されたい。 BMI has been found to correlate with abdominal tilt in a study by the inventor of the present application. Therefore, the user's BMI can be estimated by specifying the inclination of the abdomen from the three-axis acceleration data output from the acceleration sensor mounted on the user's abdomen. For details of the method of estimating the user's BMI using the acceleration sensor, refer to, for example, Japanese Patent Application No. 2019-038747.

ところで、腹部の傾きは、正面と、わき腹(即ち、側腹部)とで異なる可能性がある。例えばBMIと、体の正面の腹部の傾きとの相関関係と、加速度センサの出力から特定された腹部の傾きとからBMIが推定される場合に、加速度センサが、ユーザの中央(正面)より左又は右側に装着されていると、BMIが正しく推定されない可能性がある。 By the way, the inclination of the abdomen may be different between the front side and the flank (that is, the flank). For example, when BMI is estimated from the correlation between BMI and the inclination of the abdomen in front of the body and the inclination of the abdomen identified from the output of the accelerometer, the accelerometer is to the left of the center (front) of the user. Or if it is mounted on the right side, BMI may not be estimated correctly.

そこで、例えばBMIと正面の腹部の傾きとの相関関係、BMIとわき腹の傾きとの相関関係、等、BMIと、加速度センサが装着される可能性のある部位との相関関係を規定する複数のテーブル又は回帰式を予め用意する。そして、上述した推定方法により推定された加速度センサの装着方向に基づいて、例えば上記複数のテーブルから一のテーブルを選択し、加速度センサの出力から特定された腹部の傾きと、該選択された一のテーブルとからBMIを推定すれば、BMIを正しく推定することができる。 Therefore, for example, the correlation between the BMI and the inclination of the front abdomen, the correlation between the BMI and the inclination of the flank, etc. Prepare a table or regression equation in advance. Then, based on the mounting direction of the acceleration sensor estimated by the above-mentioned estimation method, for example, one table is selected from the plurality of tables, the inclination of the abdomen specified from the output of the acceleration sensor, and the selected one. If the BMI is estimated from the table of, the BMI can be estimated correctly.

以上に説明した実施形態から導き出される発明の各種態様を以下に説明する。 Various aspects of the invention derived from the embodiments described above will be described below.

発明の一態様に係る推定方法は、生体の体幹に装着された加速度センサの装着方向を推定する推定方法であって、前記加速度センサから逐次出力された加速度データ群から、前記ユーザが座っている期間である座位区間に前記加速度センサから出力された加速度データである座位データ群を抽出する抽出工程と、前記座位データ群に含まれる加速度データが2次元座標上にプロットされたときに現れる分布パターンから基準ベクトルを特定する特定工程と、前記特定された基準ベクトルの前記2次元座標上での傾きに基づいて、前記装着方向を推定する推定工程と、を含むというものである。 The estimation method according to one aspect of the invention is an estimation method for estimating the mounting direction of an acceleration sensor mounted on the trunk of a living body, in which the user sits down from a group of acceleration data sequentially output from the acceleration sensor. An extraction process that extracts a sitting data group that is acceleration data output from the acceleration sensor in the sitting section during the period, and a distribution that appears when the acceleration data included in the sitting data group is plotted on two-dimensional coordinates. It includes a specific step of specifying a reference vector from a pattern and an estimation step of estimating the mounting direction based on the inclination of the specified reference vector on the two-dimensional coordinates.

本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う推定方法もまた本発明の技術的範囲に含まれるものである。 The present invention is not limited to the above-described embodiment, and can be appropriately modified within the scope of claims and within a range not contrary to the gist or idea of the invention that can be read from the entire specification, and an estimation method accompanied by such modification is also possible. It is also included in the technical scope of the present invention.

Claims (1)

生体の体幹に装着された加速度センサの装着方向を推定する推定方法であって、
前記加速度センサから逐次出力された加速度データ群から、前記ユーザが座っている期間である座位区間に前記加速度センサから出力された加速度データである座位データ群を抽出する抽出工程と、
前記座位データ群に含まれる加速度データが2次元座標上にプロットされたときに現れる分布パターンから基準ベクトルを特定する特定工程と、
前記特定された基準ベクトルの前記2次元座標上での傾きに基づいて、前記装着方向を推定する推定工程と、
を含むことを特徴とする推定方法。
It is an estimation method that estimates the mounting direction of the accelerometer mounted on the trunk of a living body.
An extraction step of extracting the sitting position data group, which is the acceleration data output from the acceleration sensor, in the sitting position section, which is the period in which the user is sitting, from the acceleration data group sequentially output from the acceleration sensor.
A specific step of identifying a reference vector from a distribution pattern that appears when the acceleration data included in the sitting position data group is plotted on two-dimensional coordinates, and
An estimation step of estimating the mounting direction based on the inclination of the specified reference vector on the two-dimensional coordinates, and an estimation step.
An estimation method characterized by including.
JP2020022449A 2020-02-13 2020-02-13 Estimation method Pending JP2021126289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020022449A JP2021126289A (en) 2020-02-13 2020-02-13 Estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020022449A JP2021126289A (en) 2020-02-13 2020-02-13 Estimation method

Publications (1)

Publication Number Publication Date
JP2021126289A true JP2021126289A (en) 2021-09-02

Family

ID=77487231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020022449A Pending JP2021126289A (en) 2020-02-13 2020-02-13 Estimation method

Country Status (1)

Country Link
JP (1) JP2021126289A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008513A1 (en) 2021-07-30 2023-02-02 日本製鉄株式会社 Non-oriented electrical steel sheet, iron core, iron core manufacturing method, and motor manufacturing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008513A1 (en) 2021-07-30 2023-02-02 日本製鉄株式会社 Non-oriented electrical steel sheet, iron core, iron core manufacturing method, and motor manufacturing method

Similar Documents

Publication Publication Date Title
EP3205269B1 (en) System and method for analyzing gait and postural balance of a person
JP5399630B2 (en) Method and apparatus for determining human behavior
US9804189B2 (en) Upper body motion measurement system and upper body motion measurement method
EP2437662B1 (en) Motion determination apparatus
JP6080078B2 (en) Posture and walking state estimation device
KR101169533B1 (en) Face posture estimating device, face posture estimating method, and computer readable recording medium recording face posture estimating program
JP2010502244A5 (en)
US20220198834A1 (en) Skeleton recognition method, storage medium, and information processing device
KR101802780B1 (en) Method and Apparatus for detecting smoking behavior based on acceleration sensor
JP2010134649A5 (en)
TWI595858B (en) A detection and noise elimination method for contactless detection of physiological and physical activity informations
JP5915112B2 (en) Status detection device, electronic device, and program
JP2021126289A (en) Estimation method
WO2017158569A1 (en) Kinect based balance analysis using single leg stance (sls) exercise
JP2020146103A (en) Mounting posture estimation method of inertial sensor
WO2018180503A1 (en) Body direction estimation device and body direction estimation program
US20180103895A1 (en) Apnea detecting apparatus
US11854214B2 (en) Information processing apparatus specifying a relationship between a sensor and an object included in image data, and method and non-transitory computer-readable storage medium
US20210343028A1 (en) Analysis device, analysis method, non-transient computer-readable recording medium stored with program, and calibration method
Gawsalyan et al. Upper limb analysis using wearable sensors for cricket
US10755597B2 (en) Method and apparatus for calculating meal period
CN106456051A (en) Respiratory monitoring apparatus, method and device
JP6700546B2 (en) Load detection method, load detection device, and load detection program
JP7216222B2 (en) Information processing device, control method for information processing device, and program
Daab et al. Feature Space Exploration for Motion Classification Based on Multi-Modal Sensor Data for Lower Limb Exoskeletons