JP2022148871A - Determination device - Google Patents
Determination device Download PDFInfo
- Publication number
- JP2022148871A JP2022148871A JP2021050713A JP2021050713A JP2022148871A JP 2022148871 A JP2022148871 A JP 2022148871A JP 2021050713 A JP2021050713 A JP 2021050713A JP 2021050713 A JP2021050713 A JP 2021050713A JP 2022148871 A JP2022148871 A JP 2022148871A
- Authority
- JP
- Japan
- Prior art keywords
- values
- time
- subject
- sensors
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010801 machine learning Methods 0.000 claims abstract description 40
- 230000037396 body weight Effects 0.000 claims abstract description 11
- 210000000689 upper leg Anatomy 0.000 claims description 7
- 238000007637 random forest analysis Methods 0.000 claims description 6
- 238000003066 decision tree Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 9
- 238000006073 displacement reaction Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 17
- 230000005484 gravity Effects 0.000 description 13
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 238000000034 method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000004743 Polypropylene Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- -1 polypropylene Polymers 0.000 description 2
- 229920001155 polypropylene Polymers 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本発明は、特定装置に関し、例えばシートに着座した着座者を特定する特定装置に関する。 TECHNICAL FIELD The present invention relates to an identification device, and for example, to an identification device that identifies a person sitting on a seat.
シートに着座した着座者を特定する特定装置が知られている(例えば特許文献1~3)。シートに複数の圧力センサを設け、畳み込みニューラルネットワークを用い、着座者が着座したときの重心の位置および圧力の極大値の位置等の身体的特徴を演算し、リカエントニューラルネットワークを用い、重心の位置の移動および極大値の位置の移動等の行動的特徴を演算することで、着座者を特定する特定装置が知られている(例えば特許文献1)。 An identification device that identifies a person seated on a seat is known (for example, Patent Documents 1 to 3). A plurality of pressure sensors are installed on the seat, and a convolutional neural network is used to calculate physical characteristics such as the position of the center of gravity and the position of the maximum value of pressure when the seated person is seated. An identification device is known that identifies a seated person by calculating behavioral features such as movement of position and movement of the position of the maximum value (for example, Patent Document 1).
特許文献1では、畳み込みニューラルネットワークを用い特徴量を抽出し、リカレントユーラルネットワークを用い時系列的な特徴量を抽出する。このため、多くの教師データが必要となり、演算処理に膨大な時間を要する。 In Patent Document 1, a convolutional neural network is used to extract feature amounts, and a recurrent neural network is used to extract time-series feature amounts. For this reason, a large amount of teacher data is required, and an enormous amount of time is required for arithmetic processing.
本発明は、上記課題に鑑みなされたものであり、短時間で処理可能な特定装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a specific device capable of processing in a short time.
本発明は、対象者が体重の少なくとも一部を加える対象物が備える起歪体に設けられ前記起歪体の歪み量を検出する複数のセンサがそれぞれ出力する複数の出力値を取得する取得部と、前記対象者が前記対象物に前記体重の少なくとも一部を加えた時刻から第1時間経過後の前記複数の出力値である複数の第1値と、前記時刻から前記第1時間より長い第2時間経過後の前記複数の出力値である複数の第2値と、のそれぞれ対応する差である複数の第3値を特徴量とし、前記対象者を特定するための機械学習を行った学習済みのモデルに、前記取得部が取得した前記出力値から算出された前記複数の第3値を入力することで、前記対象者を特定する特定部と、を備える特定装置である。 The present invention provides an acquisition unit that acquires a plurality of output values respectively output by a plurality of sensors that are provided in a strain body provided in an object to which a subject applies at least part of the body weight and that detects the strain amount of the strain body. and a plurality of first values that are the plurality of output values after a first time has passed since the subject applied at least part of the body weight to the object, and a plurality of first values longer than the first time from the time A plurality of third values, which are the respective differences between the plurality of second values, which are the plurality of output values after the passage of the second time, and the plurality of third values, which are respectively corresponding differences, are used as feature amounts, and machine learning is performed to identify the subject. and a specifying unit that specifies the target person by inputting the plurality of third values calculated from the output values acquired by the acquiring unit into a learned model.
上記構成において、前記複数のセンサは、上方からみて三角形の頂点に相当する位置に設けられた3つのセンサを含む構成とすることができる。 In the above configuration, the plurality of sensors may include three sensors provided at positions corresponding to vertices of a triangle when viewed from above.
上記構成において、前記対象物はシートであり、前記対象者は前記対象物に着座する構成とすることができる。 In the above configuration, the object may be a seat, and the object may be seated on the object.
上記構成において、前記複数のセンサは、前記対象者が着座したときに、前記対象者を基準に前方または後方に設けられる第1センサ、前記対象者を基準に右に設けられる第2センサおよび前記対象者を基準に左に設けられる第3センサを含む構成とすることができる。 In the above configuration, the plurality of sensors include, when the subject is seated, a first sensor provided in front or rear with respect to the subject, a second sensor provided on the right with respect to the subject, and the It can be configured to include a third sensor provided on the left with respect to the subject.
上記構成において、前記複数のセンサは、前記対象者が着座したときに、前記対象者の右太ももに重なる第4センサおよび前記対象者の左太ももに重なる第5センサを含む構成とすることができる。 In the above configuration, the plurality of sensors may include a fourth sensor that overlaps the subject's right thigh and a fifth sensor that overlaps the subject's left thigh when the subject is seated. .
上記構成において、前記複数のセンサは、前記対象者が着座したときに、前記対象者の背部に重なる第6センサを含む構成とすることができる。 In the above configuration, the plurality of sensors may include a sixth sensor that overlaps the back of the subject when the subject is seated.
上記構成において、前記モデルは、前記複数のセンサに対応する複数の前記第1値と前記複数のセンサに対応する複数の前記第2値との少なくとも一方の複数の値と、前記複数のセンサに対応する複数の前記第3値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記少なくとも一方の複数の値と前記複数の第3値とを入力することで、前記対象者を特定する構成とすることができる。 In the above configuration, the model includes a plurality of values of at least one of the plurality of first values corresponding to the plurality of sensors and the plurality of second values corresponding to the plurality of sensors, and A model in which machine learning is performed to identify the subject using a plurality of corresponding third values as feature amounts, and the identifying unit calculates from the plurality of output values acquired by the acquiring unit. By inputting the plurality of values of the at least one and the plurality of third values respectively corresponding to the plurality of sensors obtained, the subject can be specified.
上記構成において、前記モデルは、前記少なくとも一方の複数の値と、前記複数の第3値と、前記複数の第1値の合計値と前記複数の第2値の合計値との少なくとも一方の合計値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記少なくとも一方の複数の値と、前記複数の第3値と、前記少なくとも一方の合計値と、を入力することで、前記対象者を特定する構成とすることができる。 In the above configuration, the model is the sum of at least one of the plurality of values of the at least one, the plurality of third values, and the sum of the plurality of first values and the sum of the plurality of second values. is a model that performs machine learning for identifying the target person, with a value and a feature amount, and the identifying unit is a model that performs machine learning on the plurality of sensors calculated from the plurality of output values acquired by the acquiring unit. By inputting a plurality of values of the at least one, a plurality of third values, and a total value of the at least one, which correspond to each other, the target person can be specified.
上記構成において、前記モデルは、前記複数の第1値と、前記複数の第2値と、前記複数の第3値と、前記複数の第1値の合計値と、前記複数の第2値の合計値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記複数の第1値と、前記複数の第2値と、前記複数の第3値と、前記複数の第1値の合計値と、前記複数の第2値の合計値と、を入力することで、前記対象者を特定する構成とすることができる。 In the above configuration, the model includes the plurality of first values, the plurality of second values, the plurality of third values, the sum of the plurality of first values, and the plurality of second values. and a total value are used as feature amounts, and machine learning is performed to identify the subject, and the identifying unit includes the plurality of sensors calculated from the plurality of output values obtained by the obtaining unit. the plurality of first values, the plurality of second values, the plurality of third values, the sum of the plurality of first values, and the sum of the plurality of second values, respectively corresponding to , can be configured to specify the target person.
上記構成において、前記機械学習は、決定木またはランダムフォレストを用いた機械学習である構成とすることができる。 In the above configuration, the machine learning may be machine learning using a decision tree or random forest.
上記構成において、前記対象者と前記第3値を特徴量とし、前記対象者を特定するための機械学習を行う機械学習部を備える構成とすることができる。 The above configuration may include a machine learning unit that performs machine learning for specifying the target person using the target person and the third value as feature amounts.
本発明は、対象者が体重の少なくとも一部を加える対象物が備える起歪体に設けられ前記起歪体の歪み量を検出するセンサが出力する出力値を取得する取得部と、前記対象者が前記対象物に前記体重の少なくとも一部を加えた負荷時刻から第1時間経過後の第1時刻の前記出力値である第1値と、前記負荷時刻から前記第1時間より長い第2時間経過後の第2時刻の前記出力値である第2値と、のそれぞれ対応する差である第3値を特徴量とし、前記対象者を特定するための機械学習を行った学習済みのモデルに、前記取得部が取得した前記出力値から算出された前記第3値を入力することで、前記対象者を特定する特定部と、を備え、前記第1時刻は、同じ対象者が複数回前記体重の少なくとも一部を加えたときの前記出力値の各時刻におけるばらつきが、オーバーシュートした後の時刻である特定装置である。 The present invention comprises an acquisition unit that acquires an output value output by a sensor that is provided in a straining body provided in an object to which a subject applies at least part of the body weight and that detects the strain amount of the straining body, and the subject: a first value that is the output value at a first time after a first time has passed since the loading time when at least part of the body weight is added to the object, and a second time that is longer than the first time from the loading time A trained model that has undergone machine learning for identifying the subject using the second value that is the output value at the second time after the lapse of time and the third value that is the corresponding difference between them as a feature amount. and a specifying unit that specifies the target person by inputting the third value calculated from the output value acquired by the acquiring unit, and the first time is the same target person a plurality of times. The specific device, wherein the variation at each time of the output value when at least part of the body weight is applied is the time after overshooting.
本発明によれば、短時間で処理可能な特定装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the specific apparatus which can process in a short time can be provided.
以下、図面を参照し実施例について説明する。 An embodiment will be described below with reference to the drawings.
図1(a)は、実施例1における特定装置を配置したシートを示す模式図、図1(b)および図1(c)は、起歪体の平面図である。図1(b)は、起歪体20を上方から見た図であり、図1(c)は、起歪体20を下方からみた図である。着座者28がシート25に着座したときに正面方向を+X方向、左方向を+Y方向、右方向を-Y方向、上方向をZ方向とする。
FIG. 1(a) is a schematic diagram showing a sheet on which a specific device in Example 1 is arranged, and FIGS. 1(b) and 1(c) are plan views of strain bodies. FIG. 1(b) is a view of the
図1(a)に示すように、シート25は、起歪体20および支持体21を備えている。支持体21は、例えばシート25の脚に相当し、起歪体20を支持する。着座者28は起歪体20上に着座する。支持体21は剛体であり起歪体20は着座者28の着座より撓む材料である。起歪体20と着座者28との間にはクッション材が設けられていてもよい。起歪体20の下面にはセンサ10が設けられている。センサ10は起歪体20の側面に設けられていてもよい。このように、センサ10は起歪体20の表面に設けられていてもよい。センサ10が起歪体20の変位量を検出できれば、センサ10は起歪体20の表面に別部材を介し設けられていてもよい。センサ10は起歪体20の変位量を検出することで、起歪体20の歪み量(すなわち撓み)を検出する。センサ10は、例えば歪ゲージまたは圧力センサ等の起歪体20の変位量を検出できるセンサでもよく、振動センサでもよい。センサ10に振動センサを用いる場合、検出される速度成分または加速度成分を1回または2回積分すれば変位量が算出できる。起歪体20は、樹脂または金属であり、圧力が加わることで歪む(すなわち撓む)材料であればよい。起歪体20の具体的な材料は、例えばポリプロピレン樹脂である。起歪体20に用いる材料は硬質なプラスチックが好ましく、起歪体20の弾性率は500MPa~10000MPaが好ましい。
As shown in FIG. 1( a ), the
図1(b)および図1(c)に示すように、センサ10a~10cは起歪体20の下面に複数設けられている。センサ10aは、着座者28の重心23に対し前方に設けられている。センサ10bは、重心23に対し右に設けられている。センサ10cは、重心23に対し左に設けられている。センサ10a~10cは、起歪体20の上面に設けられていてもよいし、起歪体20内に設けられていてもよい。センサは1個のみ設けられていてもよいし、2個または4個以上設けられていてもよい。
As shown in FIGS. 1(b) and 1(c), a plurality of
図2は、実施例1における特定装置の機能ブロック図である。図2に示すように、特定装置11は、取得部12、抽出部13、演算部14、特定部16、機械学習部17および記憶部18を備えている。センサ10の出力値は取得部12に入力する。特定部16から特定の結果が出力される。演算部14、特定部16、機械学習部17および記憶部18の少なくとも一部は、特定装置11外に設けられていてもよく、例えばクラウド上で実行される機能でもよい。また、センサ10は特定装置11内に設けられていてもよい。
FIG. 2 is a functional block diagram of a specific device according to the first embodiment; As shown in FIG. 2 , the
図3は、実施例1における特定装置のブロック図である。特定装置11は、例えばマイクロコンピュータを含む。図3に示すように、特定装置11は、プロセッサ30、メモリ32、インターフェース34および内部バス36を備えている。プロセッサ30は、CPU(Central Processing Unit)等の処理部であり、ソフトウエアと協働し取得部12、抽出部13、演算部14、特定部16および機械学習部17として機能する。メモリ32は、揮発性メモリまたは不揮発性メモリであり、プロセッサ30が実行するプログラムおよびデータ等を記憶する。また、メモリ32は、記憶部18として機能する。インターフェース34はデータ等を入出力し、例えばセンサ10が出力するデータを入力し、プロセッサ30の処理結果を出力する。内部バス36は、プロセッサ30、メモリ32およびインターフェース34間に接続されており、これらの間にデータ等を伝送する。
FIG. 3 is a block diagram of a specific device in Example 1. FIG. The
図4(a)および図4(b)は、実施例1におけるプロセッサの処理を示すフローチャートである。図4(a)は、着座者の特定を行うときのフローチャートであり、図4(b)は、機械学習を用いモデルを作成するときのフローチャートである。 4(a) and 4(b) are flowcharts showing the processing of the processor in the first embodiment. FIG. 4(a) is a flow chart for identifying a seated person, and FIG. 4(b) is a flow chart for creating a model using machine learning.
まず、図2および図4(a)を参照し、特定装置11が、シート25に着座した着座者28を特定する処理について説明する。取得部12は、センサ10a~10cから出力信号を取得する(ステップS10)。センサ10の出力信号は、起歪体20の時系列の変位量A(t)である。抽出部13は、時系列の変位量A(t)から着座者28が着座した負荷時刻t0から第1時間T1経過後の第1時刻t1の変位量A1(第1値)と第2時間T2経過後の第2時刻t2の変位量A2(第2値)を抽出する(ステップS12)。第2時間T2は第1時間T1より長い。演算部14は、抽出部13が抽出した変位量A1およびA2を演算する(ステップS14)。例えば、演算部14は、変位量A1とA2の差に相当する起歪体20のクリープ値ΔA(第3値)=A2-A1を演算する。また、複数のセンサ10a~10cにおける変位量A1の合計に対応する合計値SA1および変位量A2の合計に対応する合計値SA2を演算する。なお、クリープは起歪体20に一定の持続応力が加わったときに時間の経過とともに起歪体20の歪が増加する現象である。実施例1では、着座者28がシート25に着座した後、起歪体20に加わる応力の分布が時間とともに変化することもありうる。クリープ値ΔAには、クリープ現象における歪の変化に加え、起歪体20への応力分布の時間変化による歪の変化も含まれる。
First, with reference to FIGS. 2 and 4(a), the process of identifying the seated
特定部16は、記憶部18に格納されたモデルを用い、変位量A1、A2、クリープ値ΔA、合計値SA1およびSA2を特徴量とし、着座者28を特定する(ステップS16)。例えば、特定部16は、モデルを用い変位量A1、A2、クリープ値ΔA、合計値SA1およびSA2を特徴量とし、個人識別率スコアを算出する。特定部16は、算出された個人識別率スコアが、登録された着座者の識別スコアより高ければ登録された着座者と特定する。登録された着座者が複数の場合、複数の着座者の識別スコアと算出された個人識別率スコアとを比較し、登録された複数の着座者から着座者を特定する。その後、終了する。
The specifying
次に、図2および図4(b)を用い、特定装置11が学習済みモデルを作成する処理について説明する。変位量A1、A2、クリープ値ΔA、合計値SA1およびSA2を1つのセットとし、複数の特定の着座者に対し各々複数のセットを準備する。機械学習部17は、複数の特定の着座者に対する複数のセットを取得する(ステップS15)。複数のセットは、図4(a)のステップS10~S14と同様に取得してもよいし、予め取得した複数のセットをメモリ32または外部のメモリに格納させておき、機械学習部17は、メモリ32または外部のメモリから複数のセットを取得してもよい。機械学習部17は、複数のセットを教師データとして、機械学習を行い、機械学習済のモデルを作成する(ステップS18)。機械学習部17は、作成したモデルを記憶部18に格納する(ステップS20)。その後、終了する。
Next, a process of creating a learned model by the identifying
[実験]
便座に着座する着座者を特定する実験を行った。図5(a)は、実験に用いた便器および便座の側面図、図5(b)は、便座の平面図でありセンサの配置Wを示す図である。図5(a)に示すように、便器24上に起歪体として便座22が設けられている。便座22に着座者28が着座する。便座22の材料はポリプロピレン樹脂である。図5(b)に示すように、便座22の下面(-Z側の面)には3個のセンサ10a~10cが設けられている。センサ10a~10cは、便座22の歪を検出する歪ゲージである。センサ10aは、便座22の内の前(+X)に、センサ10bおよび10cはそれぞれ便座22の内の右(-Y)および左(+Y)に設けられている。図5(a)のセンサ10a~10cの配置を配置Wとする。
[experiment]
An experiment was conducted to identify a person sitting on a toilet seat. FIG. 5(a) is a side view of the toilet bowl and toilet seat used in the experiment, and FIG. 5(b) is a plan view of the toilet seat showing the arrangement W of the sensors. As shown in FIG. 5(a), a
5名の着座者について、センサ10a~10cの出力値を測定した。図6(a)から図6(d)は、各着座者A~Dの時間に対する出力値を示す図である。縦軸は、センサ10a~10cの出力値であり、単位は任意座標[a.u.]である。センサ10a~10cの出力値の大きさは歪ゲージが検出する便座22の歪み量であり、便座22の変位量に相関する。横軸は時間であり、矢印で示した10秒において着座者が着座した。4名の着座者A~Dの測定データを示している。5人目の着座者の時間に対する出力値は着座者AとBとの間の傾向を有しているが、図示していない。
The output values of the
図6(a)から図6(d)に示すように、着座者AおよびBは、センサ10cの出力値がセンサ10aおよび10bより大きい。着座者CおよびDは、センサ10a~10cの出力値が同程度である。このことから着座者AおよびBは左側に重心が位置することがわかる。このように、センサ10a~10cの出力値により、着座したときの重心の位置がわかる。また、センサ10a~10cの出力値を合計することにより、着座者A~Dの体重に相当する変位量がわかる。
As shown in FIGS. 6(a) to 6(d), the output values of the
着座者A、BおよびDでは、センサ10aは着座した後の出力値の増加は小さく、センサ10bおよび10cの出力値の増加は大きい。このことから、着座者A、BおよびDは、前屈みに座り、重心が前方に位置してから時間とともに後方に重心が移動していることがわかる。着座者Cはセンサ10bおよび10cの出力値の時間に対する増加が小さい。このことから、着座者Cは、前屈みに着座しない傾向があることがわかる。このように、センサ10a~10cの出力値(すなわち便座22の変位量)の時間に対する傾向により着座者の座り方の特徴がわかる。
For the seated persons A, B, and D, the increase in the output value of the
図7は、各着座者の時間に対する出力値を示す図である。縦軸は、センサ10bの出力値である。図7に示すように、着座した負荷時刻t0から一定時間T1経過後の時刻t1の出力値を変位量A1とし、一定時間T2経過後の時刻t2の出力値を変位量A2とする。ΔA=A2-A1は、便座22のクリープ値に対応する。クリープ値ΔAを機械学習の特徴量に含めることを検討した。
FIG. 7 is a diagram showing the output value for each seated person's time. The vertical axis is the output value of the
5名の着座者について、各々50回着座し、センサ10a~10cの出力値を取得した。使用した特徴量は、時間T1およびT2をそれぞれ10秒および40秒とし、3個のセンサ10a~10cの各々の変位量A1、A2およびクリープ値ΔA、3個のセンサ10a~10cのA1の合計値SA1およびA2の合計値SA2である。3個のA1、3個のA2、3個のΔA、SA1およびSA2を1セットとする。5各の着座者について、各々50セットのデータを準備した。5×50セットのデータのうち5×40セットを教師データとし、機械学習させ、モデルを作成した。残りの5×10セットのデータを検証データとして用い、着座者を特定させたときに着座者を正答する割合を正答率とした。交差検証として、50セットのデータから教師データと検証データの組み合わせを20条件で行った。機械学習の手法として決定木とランダムフォレストを用いた。木の深さを5とした。
Each of the five seated persons was seated 50 times, and the output values of the
表1は、センサ10a~10cの配置Wのとき、交差検証を20条件で行ったときの正答率の平均を示す表である。
「ΔAあり」は、3個のA1、3個のA2、3個のΔA、SA1およびSA2を特徴量として機械学習したときの正答率である。「ΔAなし」は、3個のA1、3個のA2、SA1およびSA2を特徴量として機械学習したときの正答率である。「ΔAのみ」は、3個のΔAのみを特徴量として機械学習したときの正答率である。機械学習の手法として決定木およびランダムフォレストを用いた場合の正答率を示している。 "With ΔA" is the correct answer rate when machine learning is performed using three A1, three A2, three ΔA, SA1 and SA2 as feature amounts. “No ΔA” is the correct answer rate when machine learning is performed using three A1s, three A2s, SA1s and SA2s as feature amounts. "Only ΔA" is the percentage of correct answers when machine learning is performed using only three ΔAs as feature amounts. It shows the correct answer rate when using decision trees and random forests as machine learning methods.
表1に示すように、決定木を用いるよりランダムフォレストを用いる方が高い正答率となる。ΔAのみを特徴量としても60%以上の正答率を確保できる。ΔAなしにΔAを特徴量に加えると、正答率が向上し、約80%となる。このように、ΔAを特徴量とすることで、着座者を特定できる。A1、A2、SA1およびSA2にΔAを加え特徴量とすることで、正答率がより向上する。 As shown in Table 1, the correct answer rate is higher when random forest is used than when decision tree is used. A correct answer rate of 60% or more can be ensured even if only ΔA is used as a feature amount. When ΔA is added to the feature amount without ΔA, the correct answer rate is improved to about 80%. Thus, by using ΔA as a feature amount, the seated person can be specified. By adding ΔA to A1, A2, SA1 and SA2 and using it as a feature quantity, the correct answer rate is further improved.
センサの配置を変え正答率を調べた。図8(a)から図8(c)は、それぞれ配置X、YおよびZにおけるセンサの配置を示す図である。図8(a)に示すように、配置Xでは、5個のセンサ10a~10c、10fおよび10gを配置した。センサ10a~10cの配置は図5(b)の配置Wと同じである。センサ10fおよび10gをそれぞれ右側後方および左側後方に配置した。図8(b)に示すように、配置Yでは、5個のセンサ10a~10eを配置した。センサ10a~10cの配置は図5(b)の配置Wと同じである。センサ10dおよび10eを図8(a)の配置Xのセンサ10fおよび10gより前方(+X方向)に配置した。図8(c)に示すように、配置Zでは、7個のセンサ10a~10gを配置した。センサ10a~10gの配置は図8(a)の配置Xおよび図8(b)の配置Yを組み合わせた配置である。
The correct answer rate was examined by changing the arrangement of the sensors. Figures 8(a) to 8(c) show the placement of the sensors in locations X, Y and Z, respectively. As shown in FIG. 8(a), in arrangement X, five
配置W~Zについて正答率を求めた。表2は、配置W~Zの正答率を示す表である。
上段の正答率は交差検証20条件の平均の正答率であり、下段の括弧内の正答率は交差検証20条件のうち最も低い正答率である。センサが5個のときの特徴量は5個のA1、5個のA2、5個のΔA、SA1およびSA2であり、センサが7個のときの特徴量は7個のA1、7個のA2、7個のΔA、SA1およびSA2である。 The correct answer rate in the upper row is the average correct answer rate of the 20 cross-validated conditions, and the correct answer rate in parentheses in the lower row is the lowest correct answer rate among the 20 cross-validated conditions. When there are 5 sensors, the feature amounts are 5 A1, 5 A2, 5 ΔA, SA1 and SA2, and when there are 7 sensors, the feature amounts are 7 A1 and 7 A2. , seven ΔA, SA1 and SA2.
表2に示すように、センサの個数が増えると正答率が向上する。センサが7個の配置Zのランダムフォレストでは、正答率の平均は90%であり、最も低い正答率も80%である。5個の配置XとYでは、配置Yの正答率が高い。図8(a)と図8(b)のように、センサ10gおよび10fは、センサ10dおよび10eに比べ着座者28の体重が加わり難い。このため、配置Xは配置Yより正答率が低いと考えられる。
As shown in Table 2, the correct answer rate improves as the number of sensors increases. In the random forest of configuration Z with 7 sensors, the average correct answer rate is 90%, and the lowest correct answer rate is 80%. Among five placements X and Y, the rate of correct answers for placement Y is high. As shown in FIGS. 8(a) and 8(b), the weight of the seated
実施例1によれば、特定部16は、クリープ値ΔAを特徴量とし、着座者28を特定するための機械学習を行った学習済みのモデルに、取得部12が取得した変位量から算出されたクリープ値ΔAを入力することで、着座者28を特定する。これにより、表1のΔAのみのように、着座者を特定することができる。特許文献1のように膨大な教師データが不要なため、短時間で処理が可能となる。
According to the first embodiment, the
センサは1個でもよいが複数設けられることが好ましい。複数のセンサ10a~10gにそれぞれ対応する複数のクリープ値ΔAを特徴量とし、着座者28を特定することにより、特定精度をより向上できる。センサの個数は3個以上が好ましく、5個以上がより好ましい。特徴量として、複数のセンサ10a~10gのクリープ値の合計を用いてもよい。
Although one sensor may be provided, it is preferable to provide a plurality of sensors. By using a plurality of creep values ΔA corresponding to the plurality of
配置W~Yのように、センサ10a~10gは、上方からみて三角形の頂点に相当する位置に設けられた3つのセンサを含むことが好ましい。これにより、着座者の着座するときの重心の移動の特徴に基づき着座者を特定できる。
Like arrangements W-Y,
センサ10a~10gは、着座者28が着座したとき、着座者28を基準にシートの前方または後方に設けられるセンサ10a、10gまたは10f(第1センサ)、右に設けられるセンサ10bまたは10d(第2センサ)、左に設けられるセンサ10cまたは10e(第3センサ)を含むことが好ましい。これにより、着座者28が着座する行動の特徴として、前屈みか否か、左右のいずれかに重心があるか、などの着座者28の着座の行動の特徴に基づき、着座者28を特定できる。配置XとYとを比較すると、配置Xのようにセンサ10fおよび10gを着座者28の後ろに配置しても、回答率が低い。これは、配置Xのセンサ10fおよび10gの位置には着座者28の荷重があまり加わらないためと考えられる。このように、センサ10a~10gは着座者28の荷重が大きい位置に配置することが好ましい。
When the seated
センサ10a~10gは、着座者28を基準に右に設けられるセンサ10d(第2センサ)、左に設けられるセンサ10e(第3センサ)に加え、着座者28の右太ももに重なるセンサ10b(第4センサ)および左太ももに重なるセンサ10c(第5センサ)を含むことが好ましい。これにより、太ももから起歪体20に加わる体重変化の特徴に基づき着座者28を特定できる。
The
複数のセンサ10a~10gに対応する複数の変位量A1、A2およびクリープ値ΔAを特徴量とし、着座者28を特定する。これにより、着座者28が着座したときの重心の位置などの特徴に基づき着座者28を特定できる。よって、着座者28の特定精度をより向上できる。重心の位置などの特徴を機械学習に反映させるためには、変位量A1とA2の少なくとも一方を特徴量としてもよい。
A seated
さらに、複数のセンサ10a~10gに対応する複数のクリープ値ΔA、合計値SA1およびSA2を特徴量とし、着座者28を特定する。これにより、着座者28の体重などの特徴に基づき着座者28を特定できる。よって、着座者28の特定精度をさらに向上できる。着座者28の体重などの特徴を機械学習に反映させるためには、合計値SA1とSA2の少なくとも一方を特徴量としてもよい。
Furthermore, a plurality of creep values ΔA corresponding to a plurality of
着座者28の重心の位置と着座者28の体重の両方を機械学習に反映させるためには、複数のセンサ10a~10gに対応する複数の変位量A1、A2、複数のクリープ値ΔA、合計値SA1およびSA2を特徴量とし、着座者28を特定することが好ましい。
In order to reflect both the position of the center of gravity of the seated
[実施例1の変形例1]
図9(a)は、実施例1の変形例1における起歪体の配置を示すシートの斜視図、図9(b)は、起歪体の斜視図である。図9(a)に示すように、4輪車両内のカーシート41として、台座42、シートクッション44およびシートバック46が設けられている。台座42は例えば金属部材である。シートクッション44およびシートバック46はクッション材である。シートクッション44内に3個の起歪体20a、シートバック46内に2個の起歪体20bが設けられている。起歪体20aは着座者の重心の前方、右および左に設けられている。起歪体20aには、主に着座者の臀部から荷重が加わる。起歪体20bは、下方の左右に設けられている。起歪体20bには、主に着座者の背部から荷重が加わる。図9(b)に示すように、起歪体20aおよび20bの歪を検出するセンサ10は起歪体20aおよび20bに設けられている。
[Modification 1 of Embodiment 1]
FIG. 9(a) is a perspective view of a sheet showing the arrangement of strain bodies in Modification 1 of Example 1, and FIG. 9(b) is a perspective view of the strain bodies. As shown in FIG. 9A, a
実施例1の変形例1のように、起歪体20aおよび20bが設けられるシートはカーシート41でもよい。起歪体20は、ソファー、事務所用椅子など着座者が着座するシートに設けられていればよい。起歪体20bを着座者の背部が接触する箇所に設けることで、着座者の特定精度がより向上する。このように、センサ10(第6センサ)を、着座者が着座したときに、着座者の背部に重なる配置してもよい。
As in Modification 1 of Embodiment 1, the seat on which the strain-generating
[実施例1の変形例2]
実施例1の変形例2は、抽出部13が着座した時刻t0を判定する方法の例である。図10(a)は、図7の着座した時刻付近の拡大図、図10(b)は、図7の出力値の一次微分を示す図である。図10(a)に示すように、着座者AおよびCでは、出力値が上昇し始める時刻(矢印の時間であり横軸が10秒の時刻)後に出力値がオーバーシュートする。着座者BおよびDでは、オーバーシュートしない。また、出力値の立ち上がりは着座者A~Dにより異なる。図10(b)に示すように、出力値の一次微分は出力値が上昇し始める時刻(矢印)後にオーバーシュートする。オーバーシュートのピークは着座者A~Dにより異なる。
[Modification 2 of Embodiment 1]
Modification 2 of Example 1 is an example of a method of determining the time t0 at which the
着座者28がシートに着座した時刻としては、着座者28の一部がシートに触れた瞬間、着座後安定したときにシートに加わる着座者28の体重の所定割合がシートに加わった時刻など、様々な定義が考えられる。そこで、抽出部13は、図10(a)において、出力値が所定の閾値Thとなった時刻を着座者28が着座した時刻t0と判定する。図10(a)では、着座者Cの出力値において閾値Thとなる時刻をt0としている。着座者が子供など体重の軽い場合、出力値が閾値Thに達しない場合もある。そこで、図10(b)に示すように、抽出部13は、出力値の一次微分が所定の閾値Thとなった時刻を着座者28が着座した時刻t0と判定してもよい。図10(b)では、着座者Cの出力値の一次微分において閾値Thとなる時刻をt0としている。また、抽出部13は、出力値の一次微分のピークとなった時刻を着座者28が着座した時刻t0と判定してもよい。抽出部13は、出力値のデータを取得するたびに、時刻t0を決定する。
The time when the seated
[実施例1の変形例3]
実施例1の変形例3は、着座者が着座した時刻t0から第1時間T1経過後の時刻t1を決定する方法の例である。複数回の着座データのばらつきを調査した。図11(a)および図12(a)は、それぞれ着座者CおよびDの複数回のデータを示す図、図11(b)および図12(b)は、それぞれ図11(a)および図12(a)の各時間において出力値のMax-Minを示す図、図11(c)および図12(c)は、それぞれ図11(b)および図12(b)の拡大図である。なお、Max-Minは、各時刻における出力値の最大値-出力値の最小値である。図11(c)および図12(c)のドットはMax-Minを算出した点を示し、直線はドットをつなぐ線である。
[Modification 3 of Embodiment 1]
Modification 3 of Example 1 is an example of a method of determining time t1 after the first time T1 has elapsed from time t0 at which the seated person sat down. We investigated the variability of the sitting data for multiple times. FIGS. 11(a) and 12(a) are diagrams showing multiple data of seated persons C and D, respectively, FIGS. 11(b) and 12(b) are respectively FIGS. FIGS. 11(c) and 12(c), which show the Max-Min output values at each time in (a), are enlarged views of FIGS. 11(b) and 12(b), respectively. Max-Min is the maximum output value minus the minimum output value at each time. Dots in FIGS. 11(c) and 12(c) indicate points for which Max-Min is calculated, and straight lines are lines connecting the dots.
図11(a)および図12(a)に示すように、出力値のデータはばらついている。着座者Cでは、ほぼ全てのデータで出力値がオーバーシュートしているのに対し、着座者Dでは、ほぼ全てのデータで出力値がオーバーシュートしていない。図11(b)および図12(b)に示すように、着座者CおよびDともに、Max-Minは、時間経過にともない極大値M1となり、その後極小値M2となる。このように、Max-Minはオーバーシュートしている。着座者Cのオーバーシュートは着座者Dのオーバーシュートより大きい。 As shown in FIGS. 11(a) and 12(a), the output value data varies. In the seated person C, the output value overshoots in almost all the data, while in the seated person D, the output value does not overshoot in almost all the data. As shown in FIGS. 11(b) and 12(b), Max-Min for both seated persons C and D becomes a maximum value M1 with the lapse of time, and then becomes a minimum value M2. Thus, Max-Min is overshooting. Seated person C's overshoot is larger than seated person's D overshoot.
第1時刻t1として、Max-Minが大きい時刻を用いると着座者を特定する精度が落ちる。そこで、第1時刻t1は、出力値が安定した後とする。具体的には、第1時刻t1は、同じ着座者が複数回着座したときの出力値の各時刻におけるMax-Min(ばらつき)が、オーバーシュートした後の時刻とする。例えば、複数の着座者が各々複数回着座したときの出力値に基づき、全ての着座者について、第1時刻t1が出力値のばらつきのオーバーシュート後となるように、第1時刻t1を決定する。第1時刻t1の決定は、抽出部13が行ってもよいし、予め第1時刻t1を設定しておいてもよい。第1時刻t1および第2時刻t2を決定すると、その後は複数の着座者に対し同じ第1時刻t1および第2時刻t2を用いる。
If a time with a large Max-Min value is used as the first time t1, the accuracy of identifying the seated person will drop. Therefore, the first time t1 is set after the output value is stabilized. Specifically, the first time t1 is set to the time after the Max-Min (variation) of the output value at each time when the same seated person sits on the seat a plurality of times overshoots. For example, the first time t1 is determined so that the first time t1 is after the output value variation overshoots for all of the seated persons, based on the output values obtained when each of the plurality of seated persons is seated a plurality of times. . The determination of the first time t1 may be performed by the
オーバーシュートした後の時刻は、Max-Minのピーク以降の時刻であればよいが、例えば、Kを0以上かつ1未満としたとき、Max-MinがM1-K×(M1-M2)となった時刻を時刻t1としてもよい。Kは例えば0.5以上が好ましく、0.8以上がより好ましい。複数の着座者に対し、時刻t1を求め、最も遅い時刻t1を第1時刻t1としてもよい。各時間におけるばらつきは、Max-Min以外にも標準偏差等を用いてもよい。着座者がシートに着座する場合、出力値が安定するため、第1時間T1は4秒以上が好ましく5秒以上がより好ましい。第1時間T1が長すぎると出力値が飽和してしまう。よって、第1時間T1は20秒以下が好ましい。第2時間T2と第1時間T1との差(すなわちt2-t1)が小さすぎると、出力値があまり変化しない。よって、第2時間T2と第1時間T1との差は10秒以上が好ましい。第2時間T2が長すぎると出力値が飽和してしまう。よって、第2時間T2と第1時間T1との差は100秒以下が好ましい。 The time after the overshoot may be the time after the Max-Min peak. For example, when K is 0 or more and less than 1, Max-Min becomes M1-K×(M1-M2). The time t1 may be set as the time when the time is reached. For example, K is preferably 0.5 or more, more preferably 0.8 or more. Time t1 may be obtained for a plurality of seated persons, and the latest time t1 may be set as the first time t1. Standard deviation or the like may be used as the variation at each time in addition to Max-Min. When the seated person sits on the seat, the first time T1 is preferably 4 seconds or longer, more preferably 5 seconds or longer, in order to stabilize the output value. If the first time T1 is too long, the output value will be saturated. Therefore, the first time T1 is preferably 20 seconds or less. If the difference between the second time T2 and the first time T1 (that is, t2-t1) is too small, the output value will not change much. Therefore, the difference between the second time T2 and the first time T1 is preferably 10 seconds or more. If the second time T2 is too long, the output value will be saturated. Therefore, the difference between the second time T2 and the first time T1 is preferably 100 seconds or less.
実施例1およびその変形例では、特定装置11がシート25に着座する着座者を特定する例を説明したが、特定装置11は、対象物に体重の少なくとも一部を加える対象者を特定してもよい。図1(a)では対象物はシート25であり、図5(a)では対象物は便座22である。対象物は、例えば対象者が横たわるベッド、または対象者が立った状態で乗る体重計でもよい。
In the first embodiment and its modification, an example was described in which the identifying
以上、本発明の実施例について詳述したが、本発明はかかる特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and variations can be made within the scope of the gist of the present invention described in the scope of claims. Change is possible.
10,10a~10g センサ
11 特定装置
12 取得部
16 特定部
17 機械学習部
20、20a、20b 起歪体
22 便座
10, 10a to
Claims (12)
前記対象者が前記対象物に前記体重の少なくとも一部を加えた時刻から第1時間経過後の前記複数の出力値である複数の第1値と、前記時刻から前記第1時間より長い第2時間経過後の前記複数の出力値である複数の第2値と、のそれぞれ対応する差である複数の第3値を特徴量とし、前記対象者を特定するための機械学習を行った学習済みのモデルに、前記取得部が取得した前記出力値から算出された前記複数の第3値を入力することで、前記対象者を特定する特定部と、
を備える特定装置。 an acquisition unit that acquires a plurality of output values respectively output by a plurality of sensors that are provided in a strain body included in an object to which a subject applies at least part of the body weight and that detects the strain amount of the strain body;
a plurality of first values, which are the plurality of output values after a first time has passed since the subject added at least part of the body weight to the object; and a second value longer than the first time from the time. A plurality of second values, which are the plurality of output values after the lapse of time, and a plurality of third values, which are respectively corresponding differences, are used as feature amounts, and machine learning is performed to identify the subject. a specifying unit that specifies the target person by inputting the plurality of third values calculated from the output values acquired by the acquiring unit into the model of
A specific device with
前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記少なくとも一方の複数の値と前記複数の第3値とを入力することで、前記対象者を特定する請求項1から6のいずれか一項に記載の特定装置。 The model includes a plurality of values of at least one of a plurality of first values corresponding to the plurality of sensors and a plurality of second values corresponding to the plurality of sensors, and a plurality of values corresponding to the plurality of sensors. A model that performs machine learning for identifying the subject using the third value as a feature amount,
The specifying unit inputs at least one of the plurality of values and the plurality of third values respectively corresponding to the plurality of sensors calculated from the plurality of output values acquired by the acquisition unit, The specifying device according to any one of claims 1 to 6, which specifies the target person.
前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記少なくとも一方の複数の値と、前記複数の第3値と、前記少なくとも一方の合計値と、を入力することで、前記対象者を特定する請求項7に記載の特定装置。 The model includes a plurality of values of the at least one, a plurality of third values, and a sum of at least one of a sum of the plurality of first values and a sum of the plurality of second values. A model that has been subjected to machine learning for identifying the subject as a feature amount,
The specifying unit is configured to provide at least one of the plurality of values, the plurality of third values, and at least one of the plurality of values corresponding to the plurality of sensors calculated from the plurality of output values acquired by the acquisition unit. The identification device according to claim 7, wherein the target person is identified by inputting a total value.
前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記複数の第1値と、前記複数の第2値と、前記複数の第3値と、前記複数の第1値の合計値と、前記複数の第2値の合計値と、を入力することで、前記対象者を特定する請求項8に記載の特定装置。 The model includes the plurality of first values, the plurality of second values, the plurality of third values, the sum of the plurality of first values, the sum of the plurality of second values, and is a feature quantity, and a machine learning model for identifying the subject,
The identifying unit is configured to configure the plurality of first values, the plurality of second values, and the plurality of third values corresponding to the plurality of sensors calculated from the plurality of output values acquired by the acquiring unit. The identification device according to claim 8, wherein the target person is identified by inputting a value, a total value of the plurality of first values, and a total value of the plurality of second values.
前記対象者が前記対象物に前記体重の少なくとも一部を加えた負荷時刻から第1時間経過後の第1時刻の前記出力値である第1値と、前記負荷時刻から前記第1時間より長い第2時間経過後の第2時刻の前記出力値である第2値と、のそれぞれ対応する差である第3値を特徴量とし、前記対象者を特定するための機械学習を行った学習済みのモデルに、前記取得部が取得した前記出力値から算出された前記第3値を入力することで、前記対象者を特定する特定部と、
を備え、
前記第1時刻は、同じ対象者が複数回前記体重の少なくとも一部を加えたときの前記出力値の各時刻におけるばらつきが、オーバーシュートした後の時刻である特定装置。
an acquisition unit that acquires an output value output by a sensor that is provided in a strain body included in an object to which a subject applies at least part of the body weight and that detects the strain amount of the strain body;
a first value that is the output value at a first time after a first time has elapsed since the time when the subject applied at least part of the body weight to the object; A third value, which is the difference between the second value, which is the output value at the second time after the second time has elapsed, and the third value, which is the corresponding difference, is used as a feature amount, and machine learning is performed to identify the subject. a specifying unit that specifies the target person by inputting the third value calculated from the output value acquired by the acquiring unit into the model of
with
The specific device, wherein the first time is a time after the variation in the output value at each time overshoots when the same subject applies at least part of the weight a plurality of times.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021050713A JP2022148871A (en) | 2021-03-24 | 2021-03-24 | Determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021050713A JP2022148871A (en) | 2021-03-24 | 2021-03-24 | Determination device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022148871A true JP2022148871A (en) | 2022-10-06 |
Family
ID=83462497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021050713A Pending JP2022148871A (en) | 2021-03-24 | 2021-03-24 | Determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022148871A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024024165A1 (en) * | 2022-07-25 | 2024-02-01 | パナソニックIpマネジメント株式会社 | Measurement data management device, measurement data management method, program and measurement system |
-
2021
- 2021-03-24 JP JP2021050713A patent/JP2022148871A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024024165A1 (en) * | 2022-07-25 | 2024-02-01 | パナソニックIpマネジメント株式会社 | Measurement data management device, measurement data management method, program and measurement system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6609054B2 (en) | Vehicle occupant classification system and method | |
US20110269601A1 (en) | Sensor based exercise control system | |
KR101388856B1 (en) | Posture Warning Sheet and Posture Warning Chair | |
JP6556405B2 (en) | Registration device, authentication device, personal authentication system, personal authentication method, program, and recording medium | |
JP2022148871A (en) | Determination device | |
EP3369610A1 (en) | System to determine the posture and weight of an occupant of a seat | |
JP4959198B2 (en) | Apparatus and method for measuring frictional force | |
JP6558328B2 (en) | Biological information output device and chair provided with biological information output device | |
US20150088038A1 (en) | Standup assistance apparatus and method | |
Zenk et al. | Objectifying the comfort of car seats | |
Gust et al. | Intelligent seating system with haptic feedback for active health support | |
CN206132288U (en) | Seat pressure distribution detection device | |
US20060150756A1 (en) | Method and device for determining the sitting comfort a seat cushion, which is perceived by a person | |
Beck et al. | Variations in rear seat cushion properties and the effects on submarining | |
US20240173191A1 (en) | Training device for carrying out muscle training for a muscle | |
JP3538623B2 (en) | Contact sensation evaluation method | |
JP2000314667A (en) | Method and device for evaluating sitting posture compatibility | |
JP2010210367A (en) | Sitting-state analyzer and sitting-state analysis method | |
JP7475622B2 (en) | Motor function evaluation device, motor function evaluation method, and program | |
CN118155191A (en) | Method and device for detecting sitting postures of vehicle occupants and electronic equipment | |
KR101937773B1 (en) | Posture detection apparatus and sitting cushion for posture correction with the same | |
KR20230064297A (en) | Real-time driver posture monitoring system | |
JPH11248409A (en) | Method for measuring shape of seat when person is seated in it | |
JP2023017630A (en) | Estimation device, estimation method, estimation program, and learning model generation device | |
He | Detecting passenger postures by pressure sensors under the cushion of an aircraft seat |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240221 |