JP2022148871A - Determination device - Google Patents

Determination device Download PDF

Info

Publication number
JP2022148871A
JP2022148871A JP2021050713A JP2021050713A JP2022148871A JP 2022148871 A JP2022148871 A JP 2022148871A JP 2021050713 A JP2021050713 A JP 2021050713A JP 2021050713 A JP2021050713 A JP 2021050713A JP 2022148871 A JP2022148871 A JP 2022148871A
Authority
JP
Japan
Prior art keywords
values
time
subject
sensors
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021050713A
Other languages
Japanese (ja)
Inventor
勲 松田
Isao Matsuda
冬樹 宮澤
Fuyuki Miyazawa
洋一 青木
Yoichi Aoki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taiyo Yuden Co Ltd
Original Assignee
Taiyo Yuden Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taiyo Yuden Co Ltd filed Critical Taiyo Yuden Co Ltd
Priority to JP2021050713A priority Critical patent/JP2022148871A/en
Publication of JP2022148871A publication Critical patent/JP2022148871A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To provide a determination device capable of performing processing in a short time.SOLUTION: The determination device comprises: an acquisition part acquiring a plurality of output values respectively outputted by a plurality of sensors provided on a straining body included in an object on which at least part of body weight of an object person is applied, and detecting a strain amount of the straining body; and a determination part that sets, as feature quantity, a plurality of third values as differences corresponding to a plurality of first values as the plurality of output values after first time elapsed from clock time at which at least part of the body weight is applied on the object by the object person, and a plurality of second values as the plurality of output values after second time longer than the first time elapsed from the clock time, and determines the object person by inputting the plurality of third values calculated from the output value acquired by the acquisition part to a learned model obtained by performing machine learning for determining the object person.SELECTED DRAWING: Figure 1

Description

本発明は、特定装置に関し、例えばシートに着座した着座者を特定する特定装置に関する。 TECHNICAL FIELD The present invention relates to an identification device, and for example, to an identification device that identifies a person sitting on a seat.

シートに着座した着座者を特定する特定装置が知られている(例えば特許文献1~3)。シートに複数の圧力センサを設け、畳み込みニューラルネットワークを用い、着座者が着座したときの重心の位置および圧力の極大値の位置等の身体的特徴を演算し、リカエントニューラルネットワークを用い、重心の位置の移動および極大値の位置の移動等の行動的特徴を演算することで、着座者を特定する特定装置が知られている(例えば特許文献1)。 An identification device that identifies a person seated on a seat is known (for example, Patent Documents 1 to 3). A plurality of pressure sensors are installed on the seat, and a convolutional neural network is used to calculate physical characteristics such as the position of the center of gravity and the position of the maximum value of pressure when the seated person is seated. An identification device is known that identifies a seated person by calculating behavioral features such as movement of position and movement of the position of the maximum value (for example, Patent Document 1).

国際公開第2018/179325号WO2018/179325 特開2012-133683号公報JP 2012-133683 A 特開2007-179474号公報JP 2007-179474 A

特許文献1では、畳み込みニューラルネットワークを用い特徴量を抽出し、リカレントユーラルネットワークを用い時系列的な特徴量を抽出する。このため、多くの教師データが必要となり、演算処理に膨大な時間を要する。 In Patent Document 1, a convolutional neural network is used to extract feature amounts, and a recurrent neural network is used to extract time-series feature amounts. For this reason, a large amount of teacher data is required, and an enormous amount of time is required for arithmetic processing.

本発明は、上記課題に鑑みなされたものであり、短時間で処理可能な特定装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a specific device capable of processing in a short time.

本発明は、対象者が体重の少なくとも一部を加える対象物が備える起歪体に設けられ前記起歪体の歪み量を検出する複数のセンサがそれぞれ出力する複数の出力値を取得する取得部と、前記対象者が前記対象物に前記体重の少なくとも一部を加えた時刻から第1時間経過後の前記複数の出力値である複数の第1値と、前記時刻から前記第1時間より長い第2時間経過後の前記複数の出力値である複数の第2値と、のそれぞれ対応する差である複数の第3値を特徴量とし、前記対象者を特定するための機械学習を行った学習済みのモデルに、前記取得部が取得した前記出力値から算出された前記複数の第3値を入力することで、前記対象者を特定する特定部と、を備える特定装置である。 The present invention provides an acquisition unit that acquires a plurality of output values respectively output by a plurality of sensors that are provided in a strain body provided in an object to which a subject applies at least part of the body weight and that detects the strain amount of the strain body. and a plurality of first values that are the plurality of output values after a first time has passed since the subject applied at least part of the body weight to the object, and a plurality of first values longer than the first time from the time A plurality of third values, which are the respective differences between the plurality of second values, which are the plurality of output values after the passage of the second time, and the plurality of third values, which are respectively corresponding differences, are used as feature amounts, and machine learning is performed to identify the subject. and a specifying unit that specifies the target person by inputting the plurality of third values calculated from the output values acquired by the acquiring unit into a learned model.

上記構成において、前記複数のセンサは、上方からみて三角形の頂点に相当する位置に設けられた3つのセンサを含む構成とすることができる。 In the above configuration, the plurality of sensors may include three sensors provided at positions corresponding to vertices of a triangle when viewed from above.

上記構成において、前記対象物はシートであり、前記対象者は前記対象物に着座する構成とすることができる。 In the above configuration, the object may be a seat, and the object may be seated on the object.

上記構成において、前記複数のセンサは、前記対象者が着座したときに、前記対象者を基準に前方または後方に設けられる第1センサ、前記対象者を基準に右に設けられる第2センサおよび前記対象者を基準に左に設けられる第3センサを含む構成とすることができる。 In the above configuration, the plurality of sensors include, when the subject is seated, a first sensor provided in front or rear with respect to the subject, a second sensor provided on the right with respect to the subject, and the It can be configured to include a third sensor provided on the left with respect to the subject.

上記構成において、前記複数のセンサは、前記対象者が着座したときに、前記対象者の右太ももに重なる第4センサおよび前記対象者の左太ももに重なる第5センサを含む構成とすることができる。 In the above configuration, the plurality of sensors may include a fourth sensor that overlaps the subject's right thigh and a fifth sensor that overlaps the subject's left thigh when the subject is seated. .

上記構成において、前記複数のセンサは、前記対象者が着座したときに、前記対象者の背部に重なる第6センサを含む構成とすることができる。 In the above configuration, the plurality of sensors may include a sixth sensor that overlaps the back of the subject when the subject is seated.

上記構成において、前記モデルは、前記複数のセンサに対応する複数の前記第1値と前記複数のセンサに対応する複数の前記第2値との少なくとも一方の複数の値と、前記複数のセンサに対応する複数の前記第3値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記少なくとも一方の複数の値と前記複数の第3値とを入力することで、前記対象者を特定する構成とすることができる。 In the above configuration, the model includes a plurality of values of at least one of the plurality of first values corresponding to the plurality of sensors and the plurality of second values corresponding to the plurality of sensors, and A model in which machine learning is performed to identify the subject using a plurality of corresponding third values as feature amounts, and the identifying unit calculates from the plurality of output values acquired by the acquiring unit. By inputting the plurality of values of the at least one and the plurality of third values respectively corresponding to the plurality of sensors obtained, the subject can be specified.

上記構成において、前記モデルは、前記少なくとも一方の複数の値と、前記複数の第3値と、前記複数の第1値の合計値と前記複数の第2値の合計値との少なくとも一方の合計値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記少なくとも一方の複数の値と、前記複数の第3値と、前記少なくとも一方の合計値と、を入力することで、前記対象者を特定する構成とすることができる。 In the above configuration, the model is the sum of at least one of the plurality of values of the at least one, the plurality of third values, and the sum of the plurality of first values and the sum of the plurality of second values. is a model that performs machine learning for identifying the target person, with a value and a feature amount, and the identifying unit is a model that performs machine learning on the plurality of sensors calculated from the plurality of output values acquired by the acquiring unit. By inputting a plurality of values of the at least one, a plurality of third values, and a total value of the at least one, which correspond to each other, the target person can be specified.

上記構成において、前記モデルは、前記複数の第1値と、前記複数の第2値と、前記複数の第3値と、前記複数の第1値の合計値と、前記複数の第2値の合計値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記複数の第1値と、前記複数の第2値と、前記複数の第3値と、前記複数の第1値の合計値と、前記複数の第2値の合計値と、を入力することで、前記対象者を特定する構成とすることができる。 In the above configuration, the model includes the plurality of first values, the plurality of second values, the plurality of third values, the sum of the plurality of first values, and the plurality of second values. and a total value are used as feature amounts, and machine learning is performed to identify the subject, and the identifying unit includes the plurality of sensors calculated from the plurality of output values obtained by the obtaining unit. the plurality of first values, the plurality of second values, the plurality of third values, the sum of the plurality of first values, and the sum of the plurality of second values, respectively corresponding to , can be configured to specify the target person.

上記構成において、前記機械学習は、決定木またはランダムフォレストを用いた機械学習である構成とすることができる。 In the above configuration, the machine learning may be machine learning using a decision tree or random forest.

上記構成において、前記対象者と前記第3値を特徴量とし、前記対象者を特定するための機械学習を行う機械学習部を備える構成とすることができる。 The above configuration may include a machine learning unit that performs machine learning for specifying the target person using the target person and the third value as feature amounts.

本発明は、対象者が体重の少なくとも一部を加える対象物が備える起歪体に設けられ前記起歪体の歪み量を検出するセンサが出力する出力値を取得する取得部と、前記対象者が前記対象物に前記体重の少なくとも一部を加えた負荷時刻から第1時間経過後の第1時刻の前記出力値である第1値と、前記負荷時刻から前記第1時間より長い第2時間経過後の第2時刻の前記出力値である第2値と、のそれぞれ対応する差である第3値を特徴量とし、前記対象者を特定するための機械学習を行った学習済みのモデルに、前記取得部が取得した前記出力値から算出された前記第3値を入力することで、前記対象者を特定する特定部と、を備え、前記第1時刻は、同じ対象者が複数回前記体重の少なくとも一部を加えたときの前記出力値の各時刻におけるばらつきが、オーバーシュートした後の時刻である特定装置である。 The present invention comprises an acquisition unit that acquires an output value output by a sensor that is provided in a straining body provided in an object to which a subject applies at least part of the body weight and that detects the strain amount of the straining body, and the subject: a first value that is the output value at a first time after a first time has passed since the loading time when at least part of the body weight is added to the object, and a second time that is longer than the first time from the loading time A trained model that has undergone machine learning for identifying the subject using the second value that is the output value at the second time after the lapse of time and the third value that is the corresponding difference between them as a feature amount. and a specifying unit that specifies the target person by inputting the third value calculated from the output value acquired by the acquiring unit, and the first time is the same target person a plurality of times. The specific device, wherein the variation at each time of the output value when at least part of the body weight is applied is the time after overshooting.

本発明によれば、短時間で処理可能な特定装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the specific apparatus which can process in a short time can be provided.

図1(a)は、実施例1における特定装置を配置したシートを示す模式図、図1(b)および図1(c)は、起歪体の平面図である。FIG. 1(a) is a schematic diagram showing a sheet on which a specific device in Example 1 is arranged, and FIGS. 1(b) and 1(c) are plan views of strain bodies. 図2は、実施例1における特定装置の機能ブロック図である。FIG. 2 is a functional block diagram of a specific device according to the first embodiment; 図3は、実施例1における特定装置のブロック図である。FIG. 3 is a block diagram of a specific device in Example 1. FIG. 図4(a)および図4(b)は、実施例1におけるプロセッサの処理を示すフローチャートである。4(a) and 4(b) are flowcharts showing the processing of the processor in the first embodiment. 図5(a)は、実験に用いた便器および便座の側面図、図5(b)は、便座の平面図でありセンサの配置Wを示す図である。FIG. 5(a) is a side view of the toilet bowl and toilet seat used in the experiment, and FIG. 5(b) is a plan view of the toilet seat showing the arrangement W of the sensors. 図6(a)から図6(d)は、各着座者A~Dの時間に対する出力値を示す図である。FIGS. 6(a) to 6(d) are diagrams showing the output values with respect to time for each seated person A to D. FIG. 図7は、各着座者の時間に対する出力値を示す図である。FIG. 7 is a diagram showing the output value for each seated person's time. 図8(a)から図8(c)は、それぞれ配置X,YおよびZにおけるセンサの配置を示す図である。Figures 8(a) to 8(c) show the placement of the sensors in locations X, Y and Z, respectively. 図9(a)は、実施例1の変形例1における起歪体の配置を示すシートの斜視図、図9(b)は、起歪体の斜視図である。FIG. 9(a) is a perspective view of a sheet showing the arrangement of strain bodies in Modification 1 of Example 1, and FIG. 9(b) is a perspective view of the strain bodies. 図10(a)は、図7の着座した時刻付近の拡大図、図10(b)は、図7の出力値の一次微分を示す図である。FIG. 10(a) is an enlarged view of FIG. 7 near the time when the user is seated, and FIG. 10(b) is a diagram showing first-order differentiation of the output value of FIG. 図11(a)は、着座者Cの複数回のデータを示す図、図11(b)は、図11(a)の各時間において出力値のMax-Minを示す図、図11(c)は、図11(b)の拡大図である。FIG. 11(a) is a diagram showing the data of the seated person C multiple times, FIG. 11(b) is a diagram showing Max-Min output values at each time in FIG. 11(a), and FIG. 11(c) is an enlarged view of FIG. 11(b). 図12(a)は、着座者Dの複数回のデータを示す図、図12(b)は、図12(a)の各時間において出力値のMax-Minを示す図、図12(c)は、図12(b)の拡大図である。FIG. 12(a) is a diagram showing the data of the seated person D multiple times, FIG. 12(b) is a diagram showing Max-Min output values at each time in FIG. 12(a), and FIG. 12(c) is an enlarged view of FIG. 12(b).

以下、図面を参照し実施例について説明する。 An embodiment will be described below with reference to the drawings.

図1(a)は、実施例1における特定装置を配置したシートを示す模式図、図1(b)および図1(c)は、起歪体の平面図である。図1(b)は、起歪体20を上方から見た図であり、図1(c)は、起歪体20を下方からみた図である。着座者28がシート25に着座したときに正面方向を+X方向、左方向を+Y方向、右方向を-Y方向、上方向をZ方向とする。 FIG. 1(a) is a schematic diagram showing a sheet on which a specific device in Example 1 is arranged, and FIGS. 1(b) and 1(c) are plan views of strain bodies. FIG. 1(b) is a view of the strain body 20 viewed from above, and FIG. 1(c) is a view of the strain body 20 viewed from below. When the seated person 28 is seated on the seat 25, the front direction is the +X direction, the left direction is the +Y direction, the right direction is the -Y direction, and the upward direction is the Z direction.

図1(a)に示すように、シート25は、起歪体20および支持体21を備えている。支持体21は、例えばシート25の脚に相当し、起歪体20を支持する。着座者28は起歪体20上に着座する。支持体21は剛体であり起歪体20は着座者28の着座より撓む材料である。起歪体20と着座者28との間にはクッション材が設けられていてもよい。起歪体20の下面にはセンサ10が設けられている。センサ10は起歪体20の側面に設けられていてもよい。このように、センサ10は起歪体20の表面に設けられていてもよい。センサ10が起歪体20の変位量を検出できれば、センサ10は起歪体20の表面に別部材を介し設けられていてもよい。センサ10は起歪体20の変位量を検出することで、起歪体20の歪み量(すなわち撓み)を検出する。センサ10は、例えば歪ゲージまたは圧力センサ等の起歪体20の変位量を検出できるセンサでもよく、振動センサでもよい。センサ10に振動センサを用いる場合、検出される速度成分または加速度成分を1回または2回積分すれば変位量が算出できる。起歪体20は、樹脂または金属であり、圧力が加わることで歪む(すなわち撓む)材料であればよい。起歪体20の具体的な材料は、例えばポリプロピレン樹脂である。起歪体20に用いる材料は硬質なプラスチックが好ましく、起歪体20の弾性率は500MPa~10000MPaが好ましい。 As shown in FIG. 1( a ), the sheet 25 has a strain body 20 and a support 21 . The support 21 corresponds to, for example, the leg of the seat 25 and supports the strain body 20 . A seated person 28 sits on the strain body 20 . The support 21 is a rigid body and the strain generating body 20 is a material that flexes when the seated person 28 is seated. A cushion material may be provided between the strain generating body 20 and the seated person 28 . A sensor 10 is provided on the lower surface of the strain generating body 20 . The sensor 10 may be provided on the side surface of the strain-generating body 20 . Thus, the sensor 10 may be provided on the surface of the strain body 20. FIG. If the sensor 10 can detect the amount of displacement of the strain body 20, the sensor 10 may be provided on the surface of the strain body 20 via another member. The sensor 10 detects the amount of strain (that is, deflection) of the strain body 20 by detecting the amount of displacement of the strain body 20 . The sensor 10 may be a sensor capable of detecting the amount of displacement of the strain generating body 20, such as a strain gauge or a pressure sensor, or may be a vibration sensor. When a vibration sensor is used as the sensor 10, the amount of displacement can be calculated by integrating the detected velocity component or acceleration component once or twice. The strain-generating body 20 is resin or metal, and may be any material that is distorted (that is, bends) when pressure is applied. A specific material for the strain generating body 20 is, for example, polypropylene resin. The material used for the strain-generating body 20 is preferably hard plastic, and the elastic modulus of the strain-generating body 20 is preferably 500 MPa to 10000 MPa.

図1(b)および図1(c)に示すように、センサ10a~10cは起歪体20の下面に複数設けられている。センサ10aは、着座者28の重心23に対し前方に設けられている。センサ10bは、重心23に対し右に設けられている。センサ10cは、重心23に対し左に設けられている。センサ10a~10cは、起歪体20の上面に設けられていてもよいし、起歪体20内に設けられていてもよい。センサは1個のみ設けられていてもよいし、2個または4個以上設けられていてもよい。 As shown in FIGS. 1(b) and 1(c), a plurality of sensors 10a to 10c are provided on the lower surface of the strain generating body 20. FIG. The sensor 10 a is provided in front of the center of gravity 23 of the seated person 28 . Sensor 10b is provided to the right of center of gravity 23 . Sensor 10c is provided to the left of center of gravity 23 . The sensors 10 a to 10 c may be provided on the upper surface of the strain body 20 or may be provided inside the strain body 20 . Only one sensor may be provided, or two or four or more sensors may be provided.

図2は、実施例1における特定装置の機能ブロック図である。図2に示すように、特定装置11は、取得部12、抽出部13、演算部14、特定部16、機械学習部17および記憶部18を備えている。センサ10の出力値は取得部12に入力する。特定部16から特定の結果が出力される。演算部14、特定部16、機械学習部17および記憶部18の少なくとも一部は、特定装置11外に設けられていてもよく、例えばクラウド上で実行される機能でもよい。また、センサ10は特定装置11内に設けられていてもよい。 FIG. 2 is a functional block diagram of a specific device according to the first embodiment; As shown in FIG. 2 , the identification device 11 includes an acquisition unit 12 , an extraction unit 13 , a calculation unit 14 , an identification unit 16 , a machine learning unit 17 and a storage unit 18 . The output value of the sensor 10 is input to the acquisition unit 12 . A specified result is output from the specifying unit 16 . At least part of the calculation unit 14, the identification unit 16, the machine learning unit 17, and the storage unit 18 may be provided outside the identification device 11, and may be functions executed on the cloud, for example. Further, the sensor 10 may be provided inside the specific device 11 .

図3は、実施例1における特定装置のブロック図である。特定装置11は、例えばマイクロコンピュータを含む。図3に示すように、特定装置11は、プロセッサ30、メモリ32、インターフェース34および内部バス36を備えている。プロセッサ30は、CPU(Central Processing Unit)等の処理部であり、ソフトウエアと協働し取得部12、抽出部13、演算部14、特定部16および機械学習部17として機能する。メモリ32は、揮発性メモリまたは不揮発性メモリであり、プロセッサ30が実行するプログラムおよびデータ等を記憶する。また、メモリ32は、記憶部18として機能する。インターフェース34はデータ等を入出力し、例えばセンサ10が出力するデータを入力し、プロセッサ30の処理結果を出力する。内部バス36は、プロセッサ30、メモリ32およびインターフェース34間に接続されており、これらの間にデータ等を伝送する。 FIG. 3 is a block diagram of a specific device in Example 1. FIG. The identification device 11 includes, for example, a microcomputer. As shown in FIG. 3, the specific device 11 comprises a processor 30, a memory 32, an interface 34 and an internal bus . The processor 30 is a processing unit such as a CPU (Central Processing Unit) and functions as the acquisition unit 12, the extraction unit 13, the calculation unit 14, the identification unit 16, and the machine learning unit 17 in cooperation with software. The memory 32 is a volatile memory or a non-volatile memory, and stores programs executed by the processor 30, data, and the like. Also, the memory 32 functions as the storage unit 18 . The interface 34 inputs and outputs data and the like, for example, inputs data output by the sensor 10 and outputs processing results of the processor 30 . The internal bus 36 is connected between the processor 30, the memory 32 and the interface 34 and transmits data and the like between them.

図4(a)および図4(b)は、実施例1におけるプロセッサの処理を示すフローチャートである。図4(a)は、着座者の特定を行うときのフローチャートであり、図4(b)は、機械学習を用いモデルを作成するときのフローチャートである。 4(a) and 4(b) are flowcharts showing the processing of the processor in the first embodiment. FIG. 4(a) is a flow chart for identifying a seated person, and FIG. 4(b) is a flow chart for creating a model using machine learning.

まず、図2および図4(a)を参照し、特定装置11が、シート25に着座した着座者28を特定する処理について説明する。取得部12は、センサ10a~10cから出力信号を取得する(ステップS10)。センサ10の出力信号は、起歪体20の時系列の変位量A(t)である。抽出部13は、時系列の変位量A(t)から着座者28が着座した負荷時刻t0から第1時間T1経過後の第1時刻t1の変位量A1(第1値)と第2時間T2経過後の第2時刻t2の変位量A2(第2値)を抽出する(ステップS12)。第2時間T2は第1時間T1より長い。演算部14は、抽出部13が抽出した変位量A1およびA2を演算する(ステップS14)。例えば、演算部14は、変位量A1とA2の差に相当する起歪体20のクリープ値ΔA(第3値)=A2-A1を演算する。また、複数のセンサ10a~10cにおける変位量A1の合計に対応する合計値SA1および変位量A2の合計に対応する合計値SA2を演算する。なお、クリープは起歪体20に一定の持続応力が加わったときに時間の経過とともに起歪体20の歪が増加する現象である。実施例1では、着座者28がシート25に着座した後、起歪体20に加わる応力の分布が時間とともに変化することもありうる。クリープ値ΔAには、クリープ現象における歪の変化に加え、起歪体20への応力分布の時間変化による歪の変化も含まれる。 First, with reference to FIGS. 2 and 4(a), the process of identifying the seated person 28 seated on the seat 25 by the identifying device 11 will be described. The acquisition unit 12 acquires output signals from the sensors 10a to 10c (step S10). The output signal of the sensor 10 is the time-series displacement amount A(t) of the strain body 20 . From the time-series displacement amount A(t), the extraction unit 13 extracts a displacement amount A1 (first value) at a first time t1 after the first time T1 has passed since the load time t0 at which the seated person 28 sat down, and a second time T2. A displacement amount A2 (second value) at the second time t2 after the elapse is extracted (step S12). The second time T2 is longer than the first time T1. The calculation unit 14 calculates the displacement amounts A1 and A2 extracted by the extraction unit 13 (step S14). For example, the computing unit 14 computes the creep value ΔA (third value) of the strain body 20 corresponding to the difference between the displacement amounts A1 and A2=A2−A1. Further, a total value SA1 corresponding to the sum of the displacement amounts A1 and a total value SA2 corresponding to the sum of the displacement amounts A2 of the plurality of sensors 10a to 10c are calculated. Creep is a phenomenon in which the strain of the strain-generating body 20 increases over time when a constant sustained stress is applied to the strain-generating body 20 . In Example 1, after the seated person 28 is seated on the seat 25, the distribution of the stress applied to the strain-generating body 20 may change over time. The creep value ΔA includes not only the change in strain due to the creep phenomenon, but also the change in strain due to the time change of the stress distribution to the strain generating body 20 .

特定部16は、記憶部18に格納されたモデルを用い、変位量A1、A2、クリープ値ΔA、合計値SA1およびSA2を特徴量とし、着座者28を特定する(ステップS16)。例えば、特定部16は、モデルを用い変位量A1、A2、クリープ値ΔA、合計値SA1およびSA2を特徴量とし、個人識別率スコアを算出する。特定部16は、算出された個人識別率スコアが、登録された着座者の識別スコアより高ければ登録された着座者と特定する。登録された着座者が複数の場合、複数の着座者の識別スコアと算出された個人識別率スコアとを比較し、登録された複数の着座者から着座者を特定する。その後、終了する。 The specifying unit 16 uses the model stored in the storage unit 18 to specify the seated person 28 using the displacement amounts A1 and A2, the creep value ΔA, and the total values SA1 and SA2 as feature amounts (step S16). For example, the specifying unit 16 uses the model to calculate the individual identification rate score using the displacement amounts A1 and A2, the creep value ΔA, and the total values SA1 and SA2 as feature amounts. The identification unit 16 identifies the registered seated person if the calculated individual identification rate score is higher than the identification score of the registered seated person. When there are multiple registered occupants, the identification scores of the multiple occupants are compared with the calculated personal identification rate score to identify the occupant from the multiple registered occupants. Then exit.

次に、図2および図4(b)を用い、特定装置11が学習済みモデルを作成する処理について説明する。変位量A1、A2、クリープ値ΔA、合計値SA1およびSA2を1つのセットとし、複数の特定の着座者に対し各々複数のセットを準備する。機械学習部17は、複数の特定の着座者に対する複数のセットを取得する(ステップS15)。複数のセットは、図4(a)のステップS10~S14と同様に取得してもよいし、予め取得した複数のセットをメモリ32または外部のメモリに格納させておき、機械学習部17は、メモリ32または外部のメモリから複数のセットを取得してもよい。機械学習部17は、複数のセットを教師データとして、機械学習を行い、機械学習済のモデルを作成する(ステップS18)。機械学習部17は、作成したモデルを記憶部18に格納する(ステップS20)。その後、終了する。 Next, a process of creating a learned model by the identifying device 11 will be described with reference to FIGS. 2 and 4(b). The displacement amounts A1 and A2, the creep value ΔA, and the total values SA1 and SA2 are regarded as one set, and a plurality of sets are prepared for each of a plurality of specific seated persons. The machine learning unit 17 acquires a plurality of sets for a plurality of specific seated persons (step S15). A plurality of sets may be acquired in the same manner as steps S10 to S14 in FIG. Multiple sets may be obtained from memory 32 or an external memory. The machine learning unit 17 performs machine learning using a plurality of sets as teacher data, and creates a machine-learned model (step S18). The machine learning unit 17 stores the created model in the storage unit 18 (step S20). Then exit.

[実験]
便座に着座する着座者を特定する実験を行った。図5(a)は、実験に用いた便器および便座の側面図、図5(b)は、便座の平面図でありセンサの配置Wを示す図である。図5(a)に示すように、便器24上に起歪体として便座22が設けられている。便座22に着座者28が着座する。便座22の材料はポリプロピレン樹脂である。図5(b)に示すように、便座22の下面(-Z側の面)には3個のセンサ10a~10cが設けられている。センサ10a~10cは、便座22の歪を検出する歪ゲージである。センサ10aは、便座22の内の前(+X)に、センサ10bおよび10cはそれぞれ便座22の内の右(-Y)および左(+Y)に設けられている。図5(a)のセンサ10a~10cの配置を配置Wとする。
[experiment]
An experiment was conducted to identify a person sitting on a toilet seat. FIG. 5(a) is a side view of the toilet bowl and toilet seat used in the experiment, and FIG. 5(b) is a plan view of the toilet seat showing the arrangement W of the sensors. As shown in FIG. 5(a), a toilet seat 22 is provided on a toilet bowl 24 as a strain-generating body. A seated person 28 sits on the toilet seat 22 . The material of the toilet seat 22 is polypropylene resin. As shown in FIG. 5B, three sensors 10a to 10c are provided on the lower surface of the toilet seat 22 (surface on the -Z side). The sensors 10a-10c are strain gauges that detect the strain of the toilet seat 22. FIG. Sensor 10a is located at the front (+X) of toilet seat 22, and sensors 10b and 10c are located at the right (-Y) and left (+Y) of toilet seat 22, respectively. Layout W is the layout of the sensors 10a to 10c in FIG.

5名の着座者について、センサ10a~10cの出力値を測定した。図6(a)から図6(d)は、各着座者A~Dの時間に対する出力値を示す図である。縦軸は、センサ10a~10cの出力値であり、単位は任意座標[a.u.]である。センサ10a~10cの出力値の大きさは歪ゲージが検出する便座22の歪み量であり、便座22の変位量に相関する。横軸は時間であり、矢印で示した10秒において着座者が着座した。4名の着座者A~Dの測定データを示している。5人目の着座者の時間に対する出力値は着座者AとBとの間の傾向を有しているが、図示していない。 The output values of the sensors 10a to 10c were measured for five seated persons. FIGS. 6(a) to 6(d) are diagrams showing the output values with respect to time for each seated person A to D. FIG. The vertical axis represents the output values of the sensors 10a to 10c, and the unit is arbitrary coordinates [a. u. ]. The magnitude of the output values of the sensors 10a to 10c is the strain amount of the toilet seat 22 detected by the strain gauges, and correlates with the displacement amount of the toilet seat 22. FIG. The horizontal axis is time, and the seated person sat down at 10 seconds indicated by the arrow. Measurement data of four seated persons A to D are shown. The output value versus time for the fifth occupant has a trend between occupants A and B, but is not shown.

図6(a)から図6(d)に示すように、着座者AおよびBは、センサ10cの出力値がセンサ10aおよび10bより大きい。着座者CおよびDは、センサ10a~10cの出力値が同程度である。このことから着座者AおよびBは左側に重心が位置することがわかる。このように、センサ10a~10cの出力値により、着座したときの重心の位置がわかる。また、センサ10a~10cの出力値を合計することにより、着座者A~Dの体重に相当する変位量がわかる。 As shown in FIGS. 6(a) to 6(d), the output values of the sensors 10c of the seated persons A and B are larger than those of the sensors 10a and 10b. Seated persons C and D have similar output values from sensors 10a to 10c. From this, it can be seen that the centers of gravity of the seated persons A and B are located on the left side. In this way, the position of the center of gravity when the user is seated can be known from the output values of the sensors 10a to 10c. Further, by summing the output values of the sensors 10a to 10c, the amount of displacement corresponding to the weight of the seated persons A to D can be obtained.

着座者A、BおよびDでは、センサ10aは着座した後の出力値の増加は小さく、センサ10bおよび10cの出力値の増加は大きい。このことから、着座者A、BおよびDは、前屈みに座り、重心が前方に位置してから時間とともに後方に重心が移動していることがわかる。着座者Cはセンサ10bおよび10cの出力値の時間に対する増加が小さい。このことから、着座者Cは、前屈みに着座しない傾向があることがわかる。このように、センサ10a~10cの出力値(すなわち便座22の変位量)の時間に対する傾向により着座者の座り方の特徴がわかる。 For the seated persons A, B, and D, the increase in the output value of the sensor 10a after being seated is small, and the increase in the output values of the sensors 10b and 10c is large. From this, it can be seen that the seated persons A, B, and D sit slouching forward, and the center of gravity moves backward over time after being positioned forward. Seated person C has a small increase in the output values of the sensors 10b and 10c over time. From this, it can be seen that the seated person C does not tend to sit in a slouched position. In this way, the tendency of the output values of the sensors 10a to 10c (that is, the amount of displacement of the toilet seat 22) with respect to time indicates the characteristics of the sitting manner of the seated person.

図7は、各着座者の時間に対する出力値を示す図である。縦軸は、センサ10bの出力値である。図7に示すように、着座した負荷時刻t0から一定時間T1経過後の時刻t1の出力値を変位量A1とし、一定時間T2経過後の時刻t2の出力値を変位量A2とする。ΔA=A2-A1は、便座22のクリープ値に対応する。クリープ値ΔAを機械学習の特徴量に含めることを検討した。 FIG. 7 is a diagram showing the output value for each seated person's time. The vertical axis is the output value of the sensor 10b. As shown in FIG. 7, the output value at time t1 after a certain period of time T1 has passed since the load time t0 when the user was seated is defined as a displacement amount A1, and the output value at time t2 after a certain period of time T2 has passed is defined as a displacement amount A2. ΔA=A2−A1 corresponds to the toilet seat 22 creep value. A study was made to include the creep value ΔA in the feature quantity for machine learning.

5名の着座者について、各々50回着座し、センサ10a~10cの出力値を取得した。使用した特徴量は、時間T1およびT2をそれぞれ10秒および40秒とし、3個のセンサ10a~10cの各々の変位量A1、A2およびクリープ値ΔA、3個のセンサ10a~10cのA1の合計値SA1およびA2の合計値SA2である。3個のA1、3個のA2、3個のΔA、SA1およびSA2を1セットとする。5各の着座者について、各々50セットのデータを準備した。5×50セットのデータのうち5×40セットを教師データとし、機械学習させ、モデルを作成した。残りの5×10セットのデータを検証データとして用い、着座者を特定させたときに着座者を正答する割合を正答率とした。交差検証として、50セットのデータから教師データと検証データの組み合わせを20条件で行った。機械学習の手法として決定木とランダムフォレストを用いた。木の深さを5とした。 Each of the five seated persons was seated 50 times, and the output values of the sensors 10a to 10c were obtained. The features used were the times T1 and T2 of 10 seconds and 40 seconds, respectively, the displacement amounts A1 and A2 and the creep value ΔA of each of the three sensors 10a to 10c, and the sum of A1 of the three sensors 10a to 10c. It is the sum SA2 of the values SA1 and A2. Let 3 A1, 3 A2, 3 ΔA, SA1 and SA2 be one set. 50 sets of data were prepared for each seated person. Of the 5×50 sets of data, 5×40 sets were used as teacher data, machine learning was performed, and a model was created. The remaining 5×10 sets of data were used as verification data, and the correct answer rate was defined as the rate at which the seated person answered correctly when the seated person was identified. As cross-validation, combinations of training data and verification data from 50 sets of data were performed under 20 conditions. Decision trees and random forests were used as machine learning methods. The depth of the tree was set to 5.

表1は、センサ10a~10cの配置Wのとき、交差検証を20条件で行ったときの正答率の平均を示す表である。

Figure 2022148871000002
Table 1 is a table showing the average percentage of correct answers when cross-validation is performed under 20 conditions at the placement W of the sensors 10a to 10c.
Figure 2022148871000002

「ΔAあり」は、3個のA1、3個のA2、3個のΔA、SA1およびSA2を特徴量として機械学習したときの正答率である。「ΔAなし」は、3個のA1、3個のA2、SA1およびSA2を特徴量として機械学習したときの正答率である。「ΔAのみ」は、3個のΔAのみを特徴量として機械学習したときの正答率である。機械学習の手法として決定木およびランダムフォレストを用いた場合の正答率を示している。 "With ΔA" is the correct answer rate when machine learning is performed using three A1, three A2, three ΔA, SA1 and SA2 as feature amounts. “No ΔA” is the correct answer rate when machine learning is performed using three A1s, three A2s, SA1s and SA2s as feature amounts. "Only ΔA" is the percentage of correct answers when machine learning is performed using only three ΔAs as feature amounts. It shows the correct answer rate when using decision trees and random forests as machine learning methods.

表1に示すように、決定木を用いるよりランダムフォレストを用いる方が高い正答率となる。ΔAのみを特徴量としても60%以上の正答率を確保できる。ΔAなしにΔAを特徴量に加えると、正答率が向上し、約80%となる。このように、ΔAを特徴量とすることで、着座者を特定できる。A1、A2、SA1およびSA2にΔAを加え特徴量とすることで、正答率がより向上する。 As shown in Table 1, the correct answer rate is higher when random forest is used than when decision tree is used. A correct answer rate of 60% or more can be ensured even if only ΔA is used as a feature amount. When ΔA is added to the feature amount without ΔA, the correct answer rate is improved to about 80%. Thus, by using ΔA as a feature amount, the seated person can be specified. By adding ΔA to A1, A2, SA1 and SA2 and using it as a feature quantity, the correct answer rate is further improved.

センサの配置を変え正答率を調べた。図8(a)から図8(c)は、それぞれ配置X、YおよびZにおけるセンサの配置を示す図である。図8(a)に示すように、配置Xでは、5個のセンサ10a~10c、10fおよび10gを配置した。センサ10a~10cの配置は図5(b)の配置Wと同じである。センサ10fおよび10gをそれぞれ右側後方および左側後方に配置した。図8(b)に示すように、配置Yでは、5個のセンサ10a~10eを配置した。センサ10a~10cの配置は図5(b)の配置Wと同じである。センサ10dおよび10eを図8(a)の配置Xのセンサ10fおよび10gより前方(+X方向)に配置した。図8(c)に示すように、配置Zでは、7個のセンサ10a~10gを配置した。センサ10a~10gの配置は図8(a)の配置Xおよび図8(b)の配置Yを組み合わせた配置である。 The correct answer rate was examined by changing the arrangement of the sensors. Figures 8(a) to 8(c) show the placement of the sensors in locations X, Y and Z, respectively. As shown in FIG. 8(a), in arrangement X, five sensors 10a to 10c, 10f and 10g are arranged. The arrangement of the sensors 10a to 10c is the same as arrangement W in FIG. 5(b). Sensors 10f and 10g were placed on the right rear and left rear, respectively. As shown in FIG. 8B, in arrangement Y, five sensors 10a to 10e are arranged. The arrangement of the sensors 10a to 10c is the same as arrangement W in FIG. 5(b). The sensors 10d and 10e were arranged in front (+X direction) of the sensors 10f and 10g in the arrangement X of FIG. 8(a). As shown in FIG. 8(c), in arrangement Z, seven sensors 10a to 10g are arranged. The arrangement of the sensors 10a to 10g is a combination of the arrangement X of FIG. 8(a) and the arrangement Y of FIG. 8(b).

配置W~Zについて正答率を求めた。表2は、配置W~Zの正答率を示す表である。

Figure 2022148871000003
The percentage of correct answers was calculated for the placements W to Z. Table 2 is a table showing the percentage of correct answers for placements W to Z.
Figure 2022148871000003

上段の正答率は交差検証20条件の平均の正答率であり、下段の括弧内の正答率は交差検証20条件のうち最も低い正答率である。センサが5個のときの特徴量は5個のA1、5個のA2、5個のΔA、SA1およびSA2であり、センサが7個のときの特徴量は7個のA1、7個のA2、7個のΔA、SA1およびSA2である。 The correct answer rate in the upper row is the average correct answer rate of the 20 cross-validated conditions, and the correct answer rate in parentheses in the lower row is the lowest correct answer rate among the 20 cross-validated conditions. When there are 5 sensors, the feature amounts are 5 A1, 5 A2, 5 ΔA, SA1 and SA2, and when there are 7 sensors, the feature amounts are 7 A1 and 7 A2. , seven ΔA, SA1 and SA2.

表2に示すように、センサの個数が増えると正答率が向上する。センサが7個の配置Zのランダムフォレストでは、正答率の平均は90%であり、最も低い正答率も80%である。5個の配置XとYでは、配置Yの正答率が高い。図8(a)と図8(b)のように、センサ10gおよび10fは、センサ10dおよび10eに比べ着座者28の体重が加わり難い。このため、配置Xは配置Yより正答率が低いと考えられる。 As shown in Table 2, the correct answer rate improves as the number of sensors increases. In the random forest of configuration Z with 7 sensors, the average correct answer rate is 90%, and the lowest correct answer rate is 80%. Among five placements X and Y, the rate of correct answers for placement Y is high. As shown in FIGS. 8(a) and 8(b), the weight of the seated person 28 is less likely to be applied to the sensors 10g and 10f than to the sensors 10d and 10e. Therefore, placement X is considered to have a lower percentage of correct answers than placement Y.

実施例1によれば、特定部16は、クリープ値ΔAを特徴量とし、着座者28を特定するための機械学習を行った学習済みのモデルに、取得部12が取得した変位量から算出されたクリープ値ΔAを入力することで、着座者28を特定する。これにより、表1のΔAのみのように、着座者を特定することができる。特許文献1のように膨大な教師データが不要なため、短時間で処理が可能となる。 According to the first embodiment, the identification unit 16 uses the creep value ΔA as a feature amount, and the learned model that has performed machine learning for identifying the seated person 28 is calculated from the displacement amount acquired by the acquisition unit 12. The seated person 28 is specified by inputting the creep value ΔA. As a result, the seated person can be identified as shown by ΔA in Table 1 only. Since a huge amount of teaching data as in Patent Document 1 is not required, processing can be performed in a short time.

センサは1個でもよいが複数設けられることが好ましい。複数のセンサ10a~10gにそれぞれ対応する複数のクリープ値ΔAを特徴量とし、着座者28を特定することにより、特定精度をより向上できる。センサの個数は3個以上が好ましく、5個以上がより好ましい。特徴量として、複数のセンサ10a~10gのクリープ値の合計を用いてもよい。 Although one sensor may be provided, it is preferable to provide a plurality of sensors. By using a plurality of creep values ΔA corresponding to the plurality of sensors 10a to 10g as feature amounts to identify the seated person 28, the identification accuracy can be further improved. The number of sensors is preferably 3 or more, more preferably 5 or more. A sum of creep values of a plurality of sensors 10a to 10g may be used as the feature quantity.

配置W~Yのように、センサ10a~10gは、上方からみて三角形の頂点に相当する位置に設けられた3つのセンサを含むことが好ましい。これにより、着座者の着座するときの重心の移動の特徴に基づき着座者を特定できる。 Like arrangements W-Y, sensors 10a-10g preferably include three sensors provided at positions corresponding to the vertices of a triangle when viewed from above. Thereby, the seated person can be specified based on the characteristics of the movement of the center of gravity when the seated person sits down.

センサ10a~10gは、着座者28が着座したとき、着座者28を基準にシートの前方または後方に設けられるセンサ10a、10gまたは10f(第1センサ)、右に設けられるセンサ10bまたは10d(第2センサ)、左に設けられるセンサ10cまたは10e(第3センサ)を含むことが好ましい。これにより、着座者28が着座する行動の特徴として、前屈みか否か、左右のいずれかに重心があるか、などの着座者28の着座の行動の特徴に基づき、着座者28を特定できる。配置XとYとを比較すると、配置Xのようにセンサ10fおよび10gを着座者28の後ろに配置しても、回答率が低い。これは、配置Xのセンサ10fおよび10gの位置には着座者28の荷重があまり加わらないためと考えられる。このように、センサ10a~10gは着座者28の荷重が大きい位置に配置することが好ましい。 When the seated person 28 is seated, the sensors 10a to 10g are sensors 10a, 10g, or 10f (first sensor) provided in front or rear of the seat with respect to the seated person 28, and sensors 10b or 10d (first sensor) provided to the right of the seat. 2 sensor), preferably including sensor 10c or 10e (third sensor) provided to the left. Thereby, the seated person 28 can be identified based on the characteristics of the seating behavior of the seated person 28, such as whether the seated person 28 is bending forward or not, and whether the center of gravity is on either side. Comparing Arrangements X and Y, even if the sensors 10f and 10g are arranged behind the seated person 28 as in Arrangement X, the response rate is low. It is considered that this is because the load of the seated person 28 is not so much applied to the positions of the sensors 10f and 10g of the arrangement X. Thus, it is preferable to arrange the sensors 10a to 10g at positions where the load of the seated person 28 is large.

センサ10a~10gは、着座者28を基準に右に設けられるセンサ10d(第2センサ)、左に設けられるセンサ10e(第3センサ)に加え、着座者28の右太ももに重なるセンサ10b(第4センサ)および左太ももに重なるセンサ10c(第5センサ)を含むことが好ましい。これにより、太ももから起歪体20に加わる体重変化の特徴に基づき着座者28を特定できる。 The sensors 10a to 10g include a sensor 10d (second sensor) provided on the right side of the seated person 28, a sensor 10e (third sensor) provided on the left side, and a sensor 10b (third sensor) that overlaps the right thigh of the seated person 28. 4 sensor) and sensor 10c (fifth sensor) overlying the left thigh. Thereby, the seated person 28 can be identified based on the characteristics of the weight change applied to the strain body 20 from the thighs.

複数のセンサ10a~10gに対応する複数の変位量A1、A2およびクリープ値ΔAを特徴量とし、着座者28を特定する。これにより、着座者28が着座したときの重心の位置などの特徴に基づき着座者28を特定できる。よって、着座者28の特定精度をより向上できる。重心の位置などの特徴を機械学習に反映させるためには、変位量A1とA2の少なくとも一方を特徴量としてもよい。 A seated person 28 is specified using a plurality of displacement amounts A1 and A2 and a creep value ΔA corresponding to a plurality of sensors 10a to 10g as feature amounts. Thereby, the seated person 28 can be identified based on characteristics such as the position of the center of gravity when the seated person 28 is seated. Therefore, the accuracy of specifying the seated person 28 can be further improved. In order to reflect features such as the position of the center of gravity in machine learning, at least one of the displacement amounts A1 and A2 may be used as a feature amount.

さらに、複数のセンサ10a~10gに対応する複数のクリープ値ΔA、合計値SA1およびSA2を特徴量とし、着座者28を特定する。これにより、着座者28の体重などの特徴に基づき着座者28を特定できる。よって、着座者28の特定精度をさらに向上できる。着座者28の体重などの特徴を機械学習に反映させるためには、合計値SA1とSA2の少なくとも一方を特徴量としてもよい。 Furthermore, a plurality of creep values ΔA corresponding to a plurality of sensors 10a to 10g and total values SA1 and SA2 are used as feature amounts to identify the seated person . Thereby, the seated person 28 can be identified based on characteristics such as the weight of the seated person 28 . Therefore, the accuracy of specifying the seated person 28 can be further improved. In order to reflect features such as the weight of the seated person 28 in machine learning, at least one of the total values SA1 and SA2 may be used as a feature amount.

着座者28の重心の位置と着座者28の体重の両方を機械学習に反映させるためには、複数のセンサ10a~10gに対応する複数の変位量A1、A2、複数のクリープ値ΔA、合計値SA1およびSA2を特徴量とし、着座者28を特定することが好ましい。 In order to reflect both the position of the center of gravity of the seated person 28 and the weight of the seated person 28 in machine learning, a plurality of displacement amounts A1 and A2 corresponding to a plurality of sensors 10a to 10g, a plurality of creep values ΔA, a total value It is preferable to identify the seated person 28 using SA1 and SA2 as feature amounts.

[実施例1の変形例1]
図9(a)は、実施例1の変形例1における起歪体の配置を示すシートの斜視図、図9(b)は、起歪体の斜視図である。図9(a)に示すように、4輪車両内のカーシート41として、台座42、シートクッション44およびシートバック46が設けられている。台座42は例えば金属部材である。シートクッション44およびシートバック46はクッション材である。シートクッション44内に3個の起歪体20a、シートバック46内に2個の起歪体20bが設けられている。起歪体20aは着座者の重心の前方、右および左に設けられている。起歪体20aには、主に着座者の臀部から荷重が加わる。起歪体20bは、下方の左右に設けられている。起歪体20bには、主に着座者の背部から荷重が加わる。図9(b)に示すように、起歪体20aおよび20bの歪を検出するセンサ10は起歪体20aおよび20bに設けられている。
[Modification 1 of Embodiment 1]
FIG. 9(a) is a perspective view of a sheet showing the arrangement of strain bodies in Modification 1 of Example 1, and FIG. 9(b) is a perspective view of the strain bodies. As shown in FIG. 9A, a pedestal 42, a seat cushion 44, and a seat back 46 are provided as a car seat 41 in a four-wheeled vehicle. The pedestal 42 is, for example, a metal member. The seat cushion 44 and the seat back 46 are cushion materials. Three strain-generating bodies 20 a are provided in the seat cushion 44 and two strain-generating bodies 20 b are provided in the seat back 46 . The strain bodies 20a are provided on the front, right and left sides of the center of gravity of the seated person. A load is applied to the strain body 20a mainly from the buttocks of the seated person. The strain-generating bodies 20b are provided on the lower left and right sides. A load is mainly applied to the strain body 20b from the back of the seated person. As shown in FIG. 9(b), the sensors 10 for detecting the strain of the strain-generating bodies 20a and 20b are provided on the strain-generating bodies 20a and 20b.

実施例1の変形例1のように、起歪体20aおよび20bが設けられるシートはカーシート41でもよい。起歪体20は、ソファー、事務所用椅子など着座者が着座するシートに設けられていればよい。起歪体20bを着座者の背部が接触する箇所に設けることで、着座者の特定精度がより向上する。このように、センサ10(第6センサ)を、着座者が着座したときに、着座者の背部に重なる配置してもよい。 As in Modification 1 of Embodiment 1, the seat on which the strain-generating bodies 20a and 20b are provided may be a car seat 41. FIG. The strain-generating body 20 may be provided on a seat, such as a sofa or an office chair, on which a person sits. By providing the strain-generating body 20b at a location where the back of the seated person contacts, the accuracy of specifying the seated person is further improved. In this way, the sensor 10 (sixth sensor) may be arranged to overlap the back of the seated person when the seated person is seated.

[実施例1の変形例2]
実施例1の変形例2は、抽出部13が着座した時刻t0を判定する方法の例である。図10(a)は、図7の着座した時刻付近の拡大図、図10(b)は、図7の出力値の一次微分を示す図である。図10(a)に示すように、着座者AおよびCでは、出力値が上昇し始める時刻(矢印の時間であり横軸が10秒の時刻)後に出力値がオーバーシュートする。着座者BおよびDでは、オーバーシュートしない。また、出力値の立ち上がりは着座者A~Dにより異なる。図10(b)に示すように、出力値の一次微分は出力値が上昇し始める時刻(矢印)後にオーバーシュートする。オーバーシュートのピークは着座者A~Dにより異なる。
[Modification 2 of Embodiment 1]
Modification 2 of Example 1 is an example of a method of determining the time t0 at which the extraction unit 13 is seated. FIG. 10(a) is an enlarged view of FIG. 7 near the time when the user is seated, and FIG. 10(b) is a diagram showing first-order differentiation of the output value of FIG. As shown in FIG. 10(a), for seated persons A and C, the output value overshoots after the time when the output value starts to rise (the time indicated by the arrow and the time when the horizontal axis is 10 seconds). Seated persons B and D do not overshoot. Also, the rise of the output value differs depending on the seated persons AD. As shown in FIG. 10(b), the first derivative of the output value overshoots after the time (arrow) when the output value begins to rise. The overshoot peak differs depending on the seated persons AD.

着座者28がシートに着座した時刻としては、着座者28の一部がシートに触れた瞬間、着座後安定したときにシートに加わる着座者28の体重の所定割合がシートに加わった時刻など、様々な定義が考えられる。そこで、抽出部13は、図10(a)において、出力値が所定の閾値Thとなった時刻を着座者28が着座した時刻t0と判定する。図10(a)では、着座者Cの出力値において閾値Thとなる時刻をt0としている。着座者が子供など体重の軽い場合、出力値が閾値Thに達しない場合もある。そこで、図10(b)に示すように、抽出部13は、出力値の一次微分が所定の閾値Thとなった時刻を着座者28が着座した時刻t0と判定してもよい。図10(b)では、着座者Cの出力値の一次微分において閾値Thとなる時刻をt0としている。また、抽出部13は、出力値の一次微分のピークとなった時刻を着座者28が着座した時刻t0と判定してもよい。抽出部13は、出力値のデータを取得するたびに、時刻t0を決定する。 The time when the seated person 28 is seated on the seat includes the moment when a part of the seated person 28 touches the seat, the time when a predetermined percentage of the seated person's 28 weight, which is added to the seat when the seated person 28 is stabilized after sitting, is added to the seat, and the like. Various definitions are possible. Therefore, in FIG. 10A, the extraction unit 13 determines the time when the output value reaches the predetermined threshold value Th as the time t0 when the seated person 28 is seated. In FIG. 10A, the time when the output value of the seated person C reaches the threshold value Th is t0. If the seated person is light, such as a child, the output value may not reach the threshold Th. Therefore, as shown in FIG. 10(b), the extraction unit 13 may determine the time when the first derivative of the output value reaches a predetermined threshold value Th as the time t0 when the seated person 28 is seated. In FIG. 10(b), the time at which the first derivative of the output value of the seated person C reaches the threshold value Th is t0. Further, the extraction unit 13 may determine the time when the first derivative of the output value peaks as the time t0 when the seated person 28 is seated. The extracting unit 13 determines the time t0 each time it acquires output value data.

[実施例1の変形例3]
実施例1の変形例3は、着座者が着座した時刻t0から第1時間T1経過後の時刻t1を決定する方法の例である。複数回の着座データのばらつきを調査した。図11(a)および図12(a)は、それぞれ着座者CおよびDの複数回のデータを示す図、図11(b)および図12(b)は、それぞれ図11(a)および図12(a)の各時間において出力値のMax-Minを示す図、図11(c)および図12(c)は、それぞれ図11(b)および図12(b)の拡大図である。なお、Max-Minは、各時刻における出力値の最大値-出力値の最小値である。図11(c)および図12(c)のドットはMax-Minを算出した点を示し、直線はドットをつなぐ線である。
[Modification 3 of Embodiment 1]
Modification 3 of Example 1 is an example of a method of determining time t1 after the first time T1 has elapsed from time t0 at which the seated person sat down. We investigated the variability of the sitting data for multiple times. FIGS. 11(a) and 12(a) are diagrams showing multiple data of seated persons C and D, respectively, FIGS. 11(b) and 12(b) are respectively FIGS. FIGS. 11(c) and 12(c), which show the Max-Min output values at each time in (a), are enlarged views of FIGS. 11(b) and 12(b), respectively. Max-Min is the maximum output value minus the minimum output value at each time. Dots in FIGS. 11(c) and 12(c) indicate points for which Max-Min is calculated, and straight lines are lines connecting the dots.

図11(a)および図12(a)に示すように、出力値のデータはばらついている。着座者Cでは、ほぼ全てのデータで出力値がオーバーシュートしているのに対し、着座者Dでは、ほぼ全てのデータで出力値がオーバーシュートしていない。図11(b)および図12(b)に示すように、着座者CおよびDともに、Max-Minは、時間経過にともない極大値M1となり、その後極小値M2となる。このように、Max-Minはオーバーシュートしている。着座者Cのオーバーシュートは着座者Dのオーバーシュートより大きい。 As shown in FIGS. 11(a) and 12(a), the output value data varies. In the seated person C, the output value overshoots in almost all the data, while in the seated person D, the output value does not overshoot in almost all the data. As shown in FIGS. 11(b) and 12(b), Max-Min for both seated persons C and D becomes a maximum value M1 with the lapse of time, and then becomes a minimum value M2. Thus, Max-Min is overshooting. Seated person C's overshoot is larger than seated person's D overshoot.

第1時刻t1として、Max-Minが大きい時刻を用いると着座者を特定する精度が落ちる。そこで、第1時刻t1は、出力値が安定した後とする。具体的には、第1時刻t1は、同じ着座者が複数回着座したときの出力値の各時刻におけるMax-Min(ばらつき)が、オーバーシュートした後の時刻とする。例えば、複数の着座者が各々複数回着座したときの出力値に基づき、全ての着座者について、第1時刻t1が出力値のばらつきのオーバーシュート後となるように、第1時刻t1を決定する。第1時刻t1の決定は、抽出部13が行ってもよいし、予め第1時刻t1を設定しておいてもよい。第1時刻t1および第2時刻t2を決定すると、その後は複数の着座者に対し同じ第1時刻t1および第2時刻t2を用いる。 If a time with a large Max-Min value is used as the first time t1, the accuracy of identifying the seated person will drop. Therefore, the first time t1 is set after the output value is stabilized. Specifically, the first time t1 is set to the time after the Max-Min (variation) of the output value at each time when the same seated person sits on the seat a plurality of times overshoots. For example, the first time t1 is determined so that the first time t1 is after the output value variation overshoots for all of the seated persons, based on the output values obtained when each of the plurality of seated persons is seated a plurality of times. . The determination of the first time t1 may be performed by the extraction unit 13, or the first time t1 may be set in advance. After determining the first time t1 and the second time t2, the same first time t1 and second time t2 are used for a plurality of seated persons.

オーバーシュートした後の時刻は、Max-Minのピーク以降の時刻であればよいが、例えば、Kを0以上かつ1未満としたとき、Max-MinがM1-K×(M1-M2)となった時刻を時刻t1としてもよい。Kは例えば0.5以上が好ましく、0.8以上がより好ましい。複数の着座者に対し、時刻t1を求め、最も遅い時刻t1を第1時刻t1としてもよい。各時間におけるばらつきは、Max-Min以外にも標準偏差等を用いてもよい。着座者がシートに着座する場合、出力値が安定するため、第1時間T1は4秒以上が好ましく5秒以上がより好ましい。第1時間T1が長すぎると出力値が飽和してしまう。よって、第1時間T1は20秒以下が好ましい。第2時間T2と第1時間T1との差(すなわちt2-t1)が小さすぎると、出力値があまり変化しない。よって、第2時間T2と第1時間T1との差は10秒以上が好ましい。第2時間T2が長すぎると出力値が飽和してしまう。よって、第2時間T2と第1時間T1との差は100秒以下が好ましい。 The time after the overshoot may be the time after the Max-Min peak. For example, when K is 0 or more and less than 1, Max-Min becomes M1-K×(M1-M2). The time t1 may be set as the time when the time is reached. For example, K is preferably 0.5 or more, more preferably 0.8 or more. Time t1 may be obtained for a plurality of seated persons, and the latest time t1 may be set as the first time t1. Standard deviation or the like may be used as the variation at each time in addition to Max-Min. When the seated person sits on the seat, the first time T1 is preferably 4 seconds or longer, more preferably 5 seconds or longer, in order to stabilize the output value. If the first time T1 is too long, the output value will be saturated. Therefore, the first time T1 is preferably 20 seconds or less. If the difference between the second time T2 and the first time T1 (that is, t2-t1) is too small, the output value will not change much. Therefore, the difference between the second time T2 and the first time T1 is preferably 10 seconds or more. If the second time T2 is too long, the output value will be saturated. Therefore, the difference between the second time T2 and the first time T1 is preferably 100 seconds or less.

実施例1およびその変形例では、特定装置11がシート25に着座する着座者を特定する例を説明したが、特定装置11は、対象物に体重の少なくとも一部を加える対象者を特定してもよい。図1(a)では対象物はシート25であり、図5(a)では対象物は便座22である。対象物は、例えば対象者が横たわるベッド、または対象者が立った状態で乗る体重計でもよい。 In the first embodiment and its modification, an example was described in which the identifying device 11 identifies a person sitting on the seat 25. good too. The object is the seat 25 in FIG. 1(a), and the toilet seat 22 in FIG. 5(a). The object may be, for example, a bed on which the subject lies, or a weight scale on which the subject stands.

以上、本発明の実施例について詳述したが、本発明はかかる特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications and variations can be made within the scope of the gist of the present invention described in the scope of claims. Change is possible.

10,10a~10g センサ
11 特定装置
12 取得部
16 特定部
17 機械学習部
20、20a、20b 起歪体
22 便座
10, 10a to 10g sensor 11 identification device 12 acquisition unit 16 identification unit 17 machine learning unit 20, 20a, 20b strain body 22 toilet seat

Claims (12)

対象者が体重の少なくとも一部を加える対象物が備える起歪体に設けられ前記起歪体の歪み量を検出する複数のセンサがそれぞれ出力する複数の出力値を取得する取得部と、
前記対象者が前記対象物に前記体重の少なくとも一部を加えた時刻から第1時間経過後の前記複数の出力値である複数の第1値と、前記時刻から前記第1時間より長い第2時間経過後の前記複数の出力値である複数の第2値と、のそれぞれ対応する差である複数の第3値を特徴量とし、前記対象者を特定するための機械学習を行った学習済みのモデルに、前記取得部が取得した前記出力値から算出された前記複数の第3値を入力することで、前記対象者を特定する特定部と、
を備える特定装置。
an acquisition unit that acquires a plurality of output values respectively output by a plurality of sensors that are provided in a strain body included in an object to which a subject applies at least part of the body weight and that detects the strain amount of the strain body;
a plurality of first values, which are the plurality of output values after a first time has passed since the subject added at least part of the body weight to the object; and a second value longer than the first time from the time. A plurality of second values, which are the plurality of output values after the lapse of time, and a plurality of third values, which are respectively corresponding differences, are used as feature amounts, and machine learning is performed to identify the subject. a specifying unit that specifies the target person by inputting the plurality of third values calculated from the output values acquired by the acquiring unit into the model of
A specific device with
前記複数のセンサは、上方からみて三角形の頂点に相当する位置に設けられた3つのセンサを含む請求項1に記載の特定装置。 The identification device according to claim 1, wherein the plurality of sensors includes three sensors provided at positions corresponding to vertices of a triangle when viewed from above. 前記対象物はシートであり、前記対象者は前記対象物に着座する請求項1または2に記載の特定装置。 3. The identification device according to claim 1, wherein the object is a seat, and the object is seated on the object. 前記複数のセンサは、前記対象者が着座したときに、前記対象者を基準に前方または後方に設けられる第1センサ、前記対象者を基準に右に設けられる第2センサおよび前記対象者を基準に左に設けられる第3センサを含む請求項3に記載の特定装置。 When the subject is seated, the plurality of sensors includes a first sensor provided in front or rear of the subject, a second sensor provided on the right of the subject, and the subject. 4. The identification device of claim 3, including a third sensor located to the left of the . 前記複数のセンサは、前記対象者が着座したときに、前記対象者の右太ももに重なる第4センサおよび前記対象者の左太ももに重なる第5センサを含む請求項4に記載の特定装置。 5. The identification device according to claim 4, wherein the plurality of sensors includes a fourth sensor that overlaps the subject's right thigh and a fifth sensor that overlaps the subject's left thigh when the subject is seated. 前記複数のセンサは、前記対象者が着座したときに、前記対象者の背部に重なる第6センサを含む請求項3から5のいずれか一項に記載の特定装置。 The identification device according to any one of claims 3 to 5, wherein the plurality of sensors includes a sixth sensor that overlaps the back of the subject when the subject is seated. 前記モデルは、前記複数のセンサに対応する複数の前記第1値と前記複数のセンサに対応する複数の前記第2値との少なくとも一方の複数の値と、前記複数のセンサに対応する複数の前記第3値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、
前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記少なくとも一方の複数の値と前記複数の第3値とを入力することで、前記対象者を特定する請求項1から6のいずれか一項に記載の特定装置。
The model includes a plurality of values of at least one of a plurality of first values corresponding to the plurality of sensors and a plurality of second values corresponding to the plurality of sensors, and a plurality of values corresponding to the plurality of sensors. A model that performs machine learning for identifying the subject using the third value as a feature amount,
The specifying unit inputs at least one of the plurality of values and the plurality of third values respectively corresponding to the plurality of sensors calculated from the plurality of output values acquired by the acquisition unit, The specifying device according to any one of claims 1 to 6, which specifies the target person.
前記モデルは、前記少なくとも一方の複数の値と、前記複数の第3値と、前記複数の第1値の合計値と前記複数の第2値の合計値との少なくとも一方の合計値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、
前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記少なくとも一方の複数の値と、前記複数の第3値と、前記少なくとも一方の合計値と、を入力することで、前記対象者を特定する請求項7に記載の特定装置。
The model includes a plurality of values of the at least one, a plurality of third values, and a sum of at least one of a sum of the plurality of first values and a sum of the plurality of second values. A model that has been subjected to machine learning for identifying the subject as a feature amount,
The specifying unit is configured to provide at least one of the plurality of values, the plurality of third values, and at least one of the plurality of values corresponding to the plurality of sensors calculated from the plurality of output values acquired by the acquisition unit. The identification device according to claim 7, wherein the target person is identified by inputting a total value.
前記モデルは、前記複数の第1値と、前記複数の第2値と、前記複数の第3値と、前記複数の第1値の合計値と、前記複数の第2値の合計値と、を特徴量とし、前記対象者を特定するための機械学習を行ったモデルであり、
前記特定部は、前記取得部が取得した前記複数の出力値から算出された前記複数のセンサにそれぞれ対応する、前記複数の第1値と、前記複数の第2値と、前記複数の第3値と、前記複数の第1値の合計値と、前記複数の第2値の合計値と、を入力することで、前記対象者を特定する請求項8に記載の特定装置。
The model includes the plurality of first values, the plurality of second values, the plurality of third values, the sum of the plurality of first values, the sum of the plurality of second values, and is a feature quantity, and a machine learning model for identifying the subject,
The identifying unit is configured to configure the plurality of first values, the plurality of second values, and the plurality of third values corresponding to the plurality of sensors calculated from the plurality of output values acquired by the acquiring unit. The identification device according to claim 8, wherein the target person is identified by inputting a value, a total value of the plurality of first values, and a total value of the plurality of second values.
前記機械学習は、決定木またはランダムフォレストを用いた機械学習である請求項1から9のいずれか一項に記載の特定装置。 The specific device according to any one of claims 1 to 9, wherein the machine learning is machine learning using a decision tree or random forest. 前記対象者と前記第3値を特徴量とし、前記対象者を特定するための機械学習を行う機械学習部を備える請求項1から10のいずれか一項に記載の特定装置。 The specifying device according to any one of claims 1 to 10, further comprising a machine learning unit that performs machine learning for specifying the target person using the target person and the third value as feature amounts. 対象者が体重の少なくとも一部を加える対象物が備える起歪体に設けられ前記起歪体の歪み量を検出するセンサが出力する出力値を取得する取得部と、
前記対象者が前記対象物に前記体重の少なくとも一部を加えた負荷時刻から第1時間経過後の第1時刻の前記出力値である第1値と、前記負荷時刻から前記第1時間より長い第2時間経過後の第2時刻の前記出力値である第2値と、のそれぞれ対応する差である第3値を特徴量とし、前記対象者を特定するための機械学習を行った学習済みのモデルに、前記取得部が取得した前記出力値から算出された前記第3値を入力することで、前記対象者を特定する特定部と、
を備え、
前記第1時刻は、同じ対象者が複数回前記体重の少なくとも一部を加えたときの前記出力値の各時刻におけるばらつきが、オーバーシュートした後の時刻である特定装置。
an acquisition unit that acquires an output value output by a sensor that is provided in a strain body included in an object to which a subject applies at least part of the body weight and that detects the strain amount of the strain body;
a first value that is the output value at a first time after a first time has elapsed since the time when the subject applied at least part of the body weight to the object; A third value, which is the difference between the second value, which is the output value at the second time after the second time has elapsed, and the third value, which is the corresponding difference, is used as a feature amount, and machine learning is performed to identify the subject. a specifying unit that specifies the target person by inputting the third value calculated from the output value acquired by the acquiring unit into the model of
with
The specific device, wherein the first time is a time after the variation in the output value at each time overshoots when the same subject applies at least part of the weight a plurality of times.
JP2021050713A 2021-03-24 2021-03-24 Determination device Pending JP2022148871A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021050713A JP2022148871A (en) 2021-03-24 2021-03-24 Determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021050713A JP2022148871A (en) 2021-03-24 2021-03-24 Determination device

Publications (1)

Publication Number Publication Date
JP2022148871A true JP2022148871A (en) 2022-10-06

Family

ID=83462497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021050713A Pending JP2022148871A (en) 2021-03-24 2021-03-24 Determination device

Country Status (1)

Country Link
JP (1) JP2022148871A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024024165A1 (en) * 2022-07-25 2024-02-01 パナソニックIpマネジメント株式会社 Measurement data management device, measurement data management method, program and measurement system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024024165A1 (en) * 2022-07-25 2024-02-01 パナソニックIpマネジメント株式会社 Measurement data management device, measurement data management method, program and measurement system

Similar Documents

Publication Publication Date Title
US6609054B2 (en) Vehicle occupant classification system and method
US20110269601A1 (en) Sensor based exercise control system
KR101388856B1 (en) Posture Warning Sheet and Posture Warning Chair
JP6556405B2 (en) Registration device, authentication device, personal authentication system, personal authentication method, program, and recording medium
JP2022148871A (en) Determination device
EP3369610A1 (en) System to determine the posture and weight of an occupant of a seat
JP4959198B2 (en) Apparatus and method for measuring frictional force
JP6558328B2 (en) Biological information output device and chair provided with biological information output device
US20150088038A1 (en) Standup assistance apparatus and method
Zenk et al. Objectifying the comfort of car seats
Gust et al. Intelligent seating system with haptic feedback for active health support
CN206132288U (en) Seat pressure distribution detection device
US20060150756A1 (en) Method and device for determining the sitting comfort a seat cushion, which is perceived by a person
Beck et al. Variations in rear seat cushion properties and the effects on submarining
US20240173191A1 (en) Training device for carrying out muscle training for a muscle
JP3538623B2 (en) Contact sensation evaluation method
JP2000314667A (en) Method and device for evaluating sitting posture compatibility
JP2010210367A (en) Sitting-state analyzer and sitting-state analysis method
JP7475622B2 (en) Motor function evaluation device, motor function evaluation method, and program
CN118155191A (en) Method and device for detecting sitting postures of vehicle occupants and electronic equipment
KR101937773B1 (en) Posture detection apparatus and sitting cushion for posture correction with the same
KR20230064297A (en) Real-time driver posture monitoring system
JPH11248409A (en) Method for measuring shape of seat when person is seated in it
JP2023017630A (en) Estimation device, estimation method, estimation program, and learning model generation device
He Detecting passenger postures by pressure sensors under the cushion of an aircraft seat

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240221