WO2021260836A1 - 学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2021260836A1
WO2021260836A1 PCT/JP2020/024792 JP2020024792W WO2021260836A1 WO 2021260836 A1 WO2021260836 A1 WO 2021260836A1 JP 2020024792 W JP2020024792 W JP 2020024792W WO 2021260836 A1 WO2021260836 A1 WO 2021260836A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
sweating
feature amount
learning model
machine learning
Prior art date
Application number
PCT/JP2020/024792
Other languages
English (en)
French (fr)
Inventor
剛範 辻川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022531311A priority Critical patent/JPWO2021260836A5/ja
Priority to PCT/JP2020/024792 priority patent/WO2021260836A1/ja
Publication of WO2021260836A1 publication Critical patent/WO2021260836A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state

Definitions

  • the present invention relates to a stress estimation device and a stress estimation method for estimating a stress level from biological data, a learning model generation device and a learning model generation method used for these, and further records a program for realizing these.
  • a stress estimation device and a stress estimation method for estimating a stress level from biological data a learning model generation device and a learning model generation method used for these, and further records a program for realizing these.
  • computer-readable recording media Regarding computer-readable recording media.
  • Patent Document 1 discloses a method of acquiring heartbeat data as biometric data, obtaining a heartbeat interval as a feature amount from the acquired heartbeat data, and estimating human stress based on the obtained heartbeat interval.
  • Patent Document 2 discloses a method of acquiring sweating data as biological data, obtaining a sweating feature from the acquired sweating data, and estimating a person's stress level based on the obtained sweating feature. There is.
  • human autonomic nerves include sympathetic nerves that work when awake and nervous, and parasympathetic nerves that work when sleeping and relaxing. Since it is the sympathetic nerve that is related to stress, in order to accurately estimate the stress level, it is sufficient to extract the feature amount showing the influence of the sympathetic nerve from the biological data.
  • the sweating data is not easily affected by the parasympathetic nerve, and the method disclosed in Patent Document 2 can be more accurate than the method disclosed in Patent Document 1.
  • the sweating sensor for acquiring sweating data has a smaller number and number than the heartbeat sensor for acquiring heartbeat data, and is expensive. Therefore, in order to carry out the method disclosed in Patent Document 2, there is a problem that it is costly to obtain a sensor.
  • An example of the object of the present invention is a learning model generator, a stress estimation device, and a learning model generation method that can solve the above-mentioned problems and improve the estimation accuracy when estimating the stress level using biological data other than sweating data.
  • a stress estimation method, and a computer-readable recording medium are examples of the object of the present invention.
  • the learning model generator in one aspect of the present invention is A training data acquisition unit that acquires sweating data simultaneously measured in a living body and biological data other than the sweating data as training data.
  • Machine learning that machine-learns the sweating data that is the training data and the biometric data other than the sweating data that is the training data, and generates a machine learning model that correlates the sweating data with the biometric data other than the sweating data.
  • Model generator and It is characterized by having.
  • the stress estimation device in one aspect of the present invention is A biometric data acquisition unit that acquires biometric data other than sweating data in the subject to be stress-estimated,
  • the training data the sweating data measured simultaneously in the living body and the biological data other than the sweating data are used, and the sweating data as the training data and the biological data other than the sweating data as the training data are obtained by machine learning.
  • Sweating data estimation in which the biometric data acquired by the biometric data acquisition unit is input to the machine learning model that correlates the sweating data with the biometric data other than the sweating data, and the sweating data in the subject is estimated.
  • Department and A stress estimation unit that estimates the level of stress in the subject from the estimated sweating data in the subject, and It is characterized by having.
  • the learning model generation method in one aspect of the present invention is: A training data acquisition step for acquiring sweating data simultaneously measured in a living body and biological data other than the sweating data as training data. Machine learning that machine-learns the sweating data that is the training data and the biometric data other than the sweating data that is the training data, and generates a machine learning model that correlates the sweating data with the biometric data other than the sweating data. Model generation steps and It is characterized by having.
  • the stress estimation method in one aspect of the present invention is used.
  • a biometric data acquisition step for acquiring biometric data other than sweating data in a subject to be stress-estimated As the training data, the sweating data measured simultaneously in the living body and the biological data other than the sweating data are used, and the sweating data as the training data and the biological data other than the sweating data as the training data are obtained by machine learning.
  • Sweating data estimation in which the biometric data acquired by the biometric data acquisition step is input to the machine learning model that correlates the sweating data with the biometric data other than the sweating data, and the sweating data in the subject is estimated.
  • Steps and A stress estimation step for estimating the level of stress in the subject from the estimated sweating data in the subject, and It is characterized by having.
  • the first computer-readable recording medium in one aspect of the present invention is On the computer A training data acquisition step for acquiring sweating data simultaneously measured in a living body and biological data other than the sweating data as training data.
  • Machine learning that machine-learns the sweating data that is the training data and the biometric data other than the sweating data that is the training data, and generates a machine learning model that correlates the sweating data with the biometric data other than the sweating data.
  • Model generation steps and It is characterized in that it records a program, including instructions to execute.
  • the second computer-readable recording medium in one aspect of the present invention is On the computer A biometric data acquisition step for acquiring biometric data other than sweating data in a subject to be stress-estimated,
  • the training data the sweating data measured simultaneously in the living body and the biological data other than the sweating data are used, and the sweating data as the training data and the biological data other than the sweating data as the training data are obtained by machine learning.
  • Sweating data estimation in which the biometric data acquired by the biometric data acquisition step is input to the machine learning model that correlates the sweating data with the biometric data other than the sweating data, and the sweating data in the subject is estimated.
  • Steps and A stress estimation step for estimating the level of stress in the subject from the estimated sweating data in the subject, and It is characterized in that it records a program, including instructions to execute.
  • FIG. 1 is a block diagram showing a schematic configuration of a learning model generator according to the first embodiment.
  • FIG. 2 is a block diagram specifically showing the configuration of the learning model generator according to the first embodiment.
  • FIG. 3 is a diagram showing an example of sweating data and non-sweat data used as training data in the first embodiment.
  • FIG. 4 is a flow chart showing the operation of the learning model generator according to the first embodiment.
  • FIG. 5 is a block diagram showing the configuration of the stress estimation device according to the second embodiment.
  • FIG. 6 is a flow chart showing the operation of the stress estimation device according to the second embodiment.
  • FIG. 7 is a block diagram showing an example of a computer that realizes a learning model generation device or a stress estimation device.
  • FIG. 1 is a block diagram showing a schematic configuration of a learning model generator according to the first embodiment.
  • the learning model generation device 10 is a device that generates a learning model that correlates sweating data with biological data other than sweating data. As shown in FIG. 1, the learning model generation device 10 includes a training data acquisition unit 11 and a machine learning model generation unit 12.
  • the training data acquisition unit 11 acquires the sweating data simultaneously measured in the living body and the biological data other than the sweating data as training data.
  • the machine learning model generation unit 12 machine-learns the sweating data as training data and the biological data as training data, and generates a machine learning model that correlates the sweating data with the biological data other than the sweating data.
  • a machine learning model that correlates sweating data with other biometric data is generated. Therefore, according to the first embodiment, when the sweating data cannot be acquired, the numerical value of the sweating data can be estimated from the other biological data. As a result, the estimation accuracy when estimating the stress level using biological data other than the sweating data can be improved.
  • FIG. 2 is a block diagram specifically showing the configuration of the learning model generator according to the first embodiment.
  • the learning model generation device 10 further includes a feature amount extraction unit 13 in addition to the training data acquisition unit 11 and the machine learning model generation unit 12 described above.
  • non-sweating data biological data other than sweating data
  • electrocardiographic data heartbeat data
  • pulse wave data respiratory data
  • pupil data blood pressure data
  • brain wave data biological data other than sweating data
  • non-sweat data electrocardiographic data
  • the non-sweat data may be only one of these, or may be a combination of two or more.
  • the training data acquisition unit 11 acquires sweating data and non-sweat data measured at the same time as training data.
  • the training data acquisition destination may be an external device of the learning model generation device 10 or a storage device provided in the learning model generation device.
  • the feature amount extraction unit 13 extracts a first feature amount (hereinafter referred to as “sweating feature amount”) from sweating data as training data, and a second feature amount (hereinafter referred to as “sweating feature amount”) from non-sweat data as training data. It is expressed as "non-sweat feature amount”.) Is extracted.
  • the machine learning model generation unit 12 performs machine learning using the sweating feature amount and the non-sweating feature amount extracted by the feature amount extraction unit 13. Then, the machine learning model generation unit 12 generates a machine learning model that estimates the sweating feature amount of the corresponding sweating data from the non-sweating data by this machine learning.
  • FIG. 3 is a diagram showing an example of sweating data and non-sweat data used as training data in the first embodiment.
  • pulse wave data is used as the non-sweat data.
  • the feature amount extraction unit 13 first separates the sweating data as training data and the pulse wave data (non-sweating data) as training data by the same plurality of time windows.
  • the time window is set in chronological order with a width of, for example, 5 seconds to 5 minutes. Further, the time window and the time window may be separated from each other, or the adjacent time windows may overlap each other (for example, the overlap rate is 50%).
  • the feature amount extraction unit 13 extracts the sweating feature amount for each time window from the sweating data, and extracts the non-sweating feature amount for each time window from the non-sweating data.
  • the sweating features include statistics (mean, median, variance, etc.), number of peaks, peak height, peak time width, time-series data histogram, and frequency spectrum. Be done. Further, the feature amount extraction unit 13 may extract only one of the above-mentioned sweating feature amounts for each time window, or may extract two or more sweating feature amounts as a feature amount vector.
  • the feature amount extraction unit 13 can obtain the non-sweating feature amount by, for example, inputting non-sweating data into a convolutional neural network or a deep neural network and causing the neural network to extract the feature amount (hereinafter,). Now, let's take a convolutional neural network as an example). In the convolutional neural network, values obtained by temporarily processing non-sweat data such as statistics (mean value, median, variance value, etc.) and frequency spectrum of non-sweat data are input. You may. When the sweating feature amount is extracted as the feature amount vector, the non-sweat feature amount is also extracted as the feature amount vector.
  • the machine learning model generation unit 12 executes machine learning so that the error between the sweating feature amount and the non-sweating feature amount for each time window is reduced, and the machine learning model (here, the feature amount extraction unit 13 does not sweat). Learn the parameters of a convolutional neural network that inputs data.
  • the machine learning model generation unit 12 executes machine learning so that the error between the feature amount vectors is reduced.
  • FIG. 4 is a flow chart showing the operation of the learning model generator according to the first embodiment.
  • FIGS. 1 to 3 will be referred to as appropriate.
  • the learning model generation method is implemented by operating the learning model generation device 10. Therefore, the description of the learning model generation method in the first embodiment is replaced with the following operation description of the learning model generation device 10.
  • the training data acquisition unit 11 acquires the sweating data and the non-sweat data measured at the same time as training data (step A1).
  • the feature amount extraction unit 13 sets a plurality of the same time windows for the sweating data as training data and the pulse wave data (non-sweating data) as training data (step A2).
  • the feature amount extraction unit 13 extracts the sweating feature amount for each time window from the sweating data which is the training data (step A3).
  • the feature amount extraction unit 13 extracts the non-sweat feature amount for each time window from the non-sweat data that is the training data (step A4).
  • the machine learning model generation unit 12 executes machine learning to generate a machine learning model so that the error between the sweating feature amount extracted in step A3 and the non-sweating feature amount extracted in step A4 is small. (Step A5).
  • a machine learning model that correlates sweating data with other biometric data is generated. Further, since the machine learning model is generated by dividing by a time window and using the feature amount of the time window, it is possible to correlate sweating data with other biometric data with high accuracy.
  • the program in the first embodiment may be any program as long as it causes a computer to execute steps A1 to A5 shown in FIG.
  • the learning model generation device 10 and the learning model generation method according to the first embodiment can be realized.
  • the computer processor functions as a training data acquisition unit 11, a machine learning model generation unit 12, and a feature quantity extraction unit 13 to perform processing.
  • examples of computers include smartphones and tablet terminal devices.
  • the program in the first embodiment may be executed by a computer system constructed by a plurality of computers.
  • each computer may function as any of the training data acquisition unit 11, the machine learning model generation unit 12, and the feature amount extraction unit 13.
  • FIG. 5 is a block diagram showing the configuration of the stress estimation device according to the second embodiment.
  • the stress estimation device 20 in the second embodiment shown in FIG. 5 is a device that estimates the stress level of the subject 31 from the non-sweat data of the subject 31.
  • the stress estimation device 20 includes a biological data acquisition unit 21, a sweating data estimation unit 22, and a stress estimation unit 23.
  • the biological data acquisition unit 21 acquires non-sweat data in the subject 31 that is the target of stress estimation.
  • the sweating data estimation unit 22 inputs the biological data acquired by the biological data acquisition unit 21 into a machine learning model that correlates the sweating data with the non-sweating data, and estimates the sweating data in the subject.
  • the machine learning model is obtained by using sweating data and non-sweating data simultaneously measured in a living body as training data, and machine-learning sweating data as training data and non-sweating data as training data.
  • the stress estimation unit 23 estimates the stress level in the subject from the sweat data in the subject estimated by the sweat data estimation unit 22.
  • the numerical value of the sweating data is estimated from the non-sweat data by the machine learning model that correlates the sweating data and the non-sweat data, and the stress of the subject is based on the numerical value of the non-sweat data.
  • the level is estimated. According to the second embodiment, even when the non-sweat data is used, the stress level can be estimated with the same accuracy as when the sweat data is used.
  • the stress estimation device 20 is connected to the terminal device 30 of the subject 31 so as to be capable of data communication.
  • the subject 31 transmits its own non-sweat data to the stress estimation device 20 via the terminal device 30.
  • the stress estimation device 20 further includes a machine learning model storage unit 24.
  • examples of the non-sweating data include electrocardiographic data, heartbeat data, pulse wave data, respiratory data, pupil data, blood pressure data, and electroencephalogram data. Further, the non-sweat data may be only one of these, or may be a combination of two or more.
  • the machine learning model generated in the first embodiment is used as the machine learning model. That is, in the second embodiment, the machine learning model is obtained by machine learning the sweating features extracted from the sweating data as training data and the non-sweating features extracted from the non-sweating data as training data. ing.
  • the machine learning model is a model that estimates the features of the corresponding sweating data from the non-sweat data.
  • the machine learning model is stored in the machine learning model storage unit 24.
  • the sweating data estimation unit 22 inputs the biological data acquired by the biological data acquisition unit 21 into the machine learning model, and estimates the feature amount of the sweating data in the subject.
  • the stress estimation unit 23 estimates the stress level in the subject 31 from the feature amount of the sweat data in the subject estimated by the sweat data estimation unit 22.
  • the stress estimation unit 23 uses, for example, a learning model obtained by machine learning the relationship between the stress level and the feature amount of sweating data in advance, and the feature amount estimated by the sweating data estimation unit 22. Estimate the stress level by entering.
  • the learning model include a linear regression model and a support vector machine.
  • the stress estimation unit 23 transmits the estimated stress level of the subject 31 to the terminal device 30 of the subject 31.
  • the estimated stress level is displayed on the screen of the terminal device 30, so that the subject 31 can know his / her own stress level.
  • FIG. 6 is a flow chart showing the operation of the stress estimation device according to the second embodiment.
  • FIG. 5 will be referred to as appropriate.
  • the stress estimation method is implemented by operating the stress estimation device 20. Therefore, the description of the stress estimation method in the second embodiment is replaced with the following operation description of the stress estimation device 20.
  • the biological data acquisition unit 21 acquires the non-sweat data of the subject 31 to be stress-estimated from the terminal device 30 of the subject 31 (step B1).
  • the sweating data estimation unit 22 inputs the biological data acquired in step B1 into the machine learning model, and estimates the feature amount of the sweating data in the subject 31 (step B2).
  • the stress estimation unit 23 estimates the stress level in the subject 31 from the feature amount of the sweating data in the subject 31 estimated in step B2 (step B3).
  • the stress estimation unit 23 transmits the estimated stress level of the subject 31 to the terminal device 30 of the subject 31 (step B4).
  • the estimated stress level is displayed on the screen of the terminal device 30, so that the subject 31 can know his / her own stress level.
  • the feature amount of the corresponding sweating data is estimated from the non-sweat data using the machine learning model generated in the first embodiment, and the feature amount of the estimated sweating data is estimated.
  • the final stress level is estimated based on. That is, according to the second embodiment, the stress level can be estimated with the same high accuracy as the case of using the sweating data by using only the non-sweat data acquired from the subject.
  • the program in the second embodiment may be any program as long as it causes a computer to execute steps B1 to B4 shown in FIG.
  • the computer processor functions as a biological data acquisition unit 21, a sweat data estimation unit 22, and a stress estimation unit 23, and performs processing.
  • the machine learning model storage unit 24 may be realized by storing the data files constituting the machine learning model storage unit 24 in a storage device such as a hard disk provided in the computer, or another computer. It may be realized by the storage device of. Examples of the computer include a smartphone and a tablet-type terminal device in addition to a general-purpose PC.
  • the program in the second embodiment may be executed by a computer system constructed by a plurality of computers.
  • each computer may function as any of the biological data acquisition unit 21, the sweat data estimation unit 22, and the stress estimation unit 23, respectively.
  • FIG. 7 is a block diagram showing an example of a computer that realizes a learning model generation device or a stress estimation device.
  • the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. And prepare. Each of these parts is connected to each other via a bus 121 so as to be capable of data communication.
  • CPU Central Processing Unit
  • the computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) in addition to the CPU 111 or in place of the CPU 111.
  • the GPU or FPGA can execute the program in the embodiment.
  • the CPU 111 performs various operations by expanding the program stored in the storage device 113 in the embodiment composed of the code group to the main memory 112 and executing the codes in a predetermined order.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program in the embodiment is provided in a state of being stored in a computer-readable recording medium 120.
  • the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the storage device 113 include a semiconductor storage device such as a flash memory in addition to a hard disk drive.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and mouse.
  • the display controller 115 is connected to the display device 119 and controls the display on the display device 119.
  • the data reader / writer 116 mediates the data transmission between the CPU 111 and the recording medium 120, reads the program from the recording medium 120, and writes the processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include a general-purpose semiconductor storage device such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), a magnetic recording medium such as a flexible disk, or a CD-.
  • CF Compact Flash
  • SD Secure Digital
  • a magnetic recording medium such as a flexible disk
  • CD- Compact Disk Read Only Memory
  • optical recording media such as ROM (Compact Disk Read Only Memory).
  • the learning model generation device 10 in the first embodiment and the stress estimation device 20 in the second embodiment can be realized by using the hardware corresponding to each part instead of the computer in which the program is installed. Further, the learning model generation device 10 in the first embodiment and the stress estimation device 20 in the second embodiment may be partially realized by a program and the rest by hardware.
  • a training data acquisition unit that acquires sweating data simultaneously measured in a living body and biological data other than the sweating data as training data.
  • Machine learning that machine-learns the sweating data that is the training data and the biometric data other than the sweating data that is the training data, and generates a machine learning model that correlates the sweating data with the biometric data other than the sweating data.
  • Model generator and A learning model generator characterized by being equipped with.
  • Appendix 2 The learning model generator according to Appendix 1, Further provided with a feature amount extraction unit, which extracts a first feature amount from the sweating data which is the training data and extracts a second feature amount from biological data other than the sweating data which is the training data.
  • the machine learning model generation unit machine-learns the extracted first feature amount and the second feature amount, and estimates the feature amount of the corresponding sweating data from the biological data other than the sweating data. , Generate the machine learning model, A learning model generator characterized by this.
  • the learning model generator according to Appendix 2,
  • the feature amount extraction unit separates the sweating data which is the training data and the biological data other than the sweating data which is the training data into the same plurality of time windows, and the first feature amount and the first feature amount are divided for each time window. Extract the feature amount of 2 and
  • the machine learning model generation unit performs machine learning so that the error between the first feature amount and the second feature amount for each time window is reduced, and generates the machine learning model.
  • a learning model generator characterized by this.
  • Biometric data other than sweating data is at least one of electrocardiographic data, heart rate data, pulse wave data, respiratory data, pupil data, blood pressure data, and brain wave data.
  • a biometric data acquisition unit that acquires biometric data other than sweating data in the subject to be stress-estimated
  • the training data the sweating data measured simultaneously in the living body and the biological data other than the sweating data are used, and the sweating data as the training data and the biological data other than the sweating data as the training data are obtained by machine learning.
  • Sweating data estimation in which the biometric data acquired by the biometric data acquisition unit is input to the machine learning model that correlates the sweating data with the biometric data other than the sweating data, and the sweating data in the subject is estimated.
  • Department and A stress estimation unit that estimates the level of stress in the subject from the estimated sweating data in the subject, and A stress estimator, characterized by being equipped with.
  • the stress estimation device (Appendix 6)
  • the machine learning model machine-learns the first feature amount extracted from the sweating data which is the training data and the second feature amount extracted from the biological data other than the sweating data which is the training data. It is a model that estimates the feature amount of the corresponding sweating data from the biometric data other than the sweating data.
  • the sweating data estimation unit inputs the biometric data acquired by the biometric data acquisition unit into the machine learning model, and estimates the feature amount of the sweating data in the subject.
  • the stress estimation unit estimates the stress level in the subject from the estimated feature amount of the sweating data in the subject. A stress estimator characterized by this.
  • Biometric data other than sweating data is at least one of electrocardiographic data, heart rate data, pulse wave data, respiratory data, pupil data, blood pressure data, and brain wave data. A stress estimator characterized by this.
  • Machine learning that machine-learns the sweating data that is the training data and the biometric data other than the sweating data that is the training data, and generates a machine learning model that correlates the sweating data with the biometric data other than the sweating data.
  • the learning model generation method described in Appendix 8 It further has a feature amount extraction step of extracting a first feature amount from the sweating data serving as the training data and extracting a second feature amount from biological data other than the sweating data serving as the training data.
  • the extracted first feature amount and the second feature amount are machine-learned, and the feature amount of the corresponding sweating data is estimated from the biological data other than the sweating data.
  • Generate the machine learning model A learning model generation method characterized by this.
  • Biometric data other than sweating data is at least one of electrocardiographic data, heart rate data, pulse wave data, respiratory data, pupil data, blood pressure data, and brain wave data.
  • a biometric data acquisition step for acquiring biometric data other than sweating data in a subject to be stress-estimated As the training data, the sweating data measured simultaneously in the living body and the biological data other than the sweating data are used, and the sweating data as the training data and the biological data other than the sweating data as the training data are obtained by machine learning. Sweating data estimation, in which the biometric data acquired by the biometric data acquisition step is input to the machine learning model that correlates the sweating data with the biometric data other than the sweating data, and the sweating data in the subject is estimated. Steps and A stress estimation step for estimating the level of stress in the subject from the estimated sweating data in the subject, and A stress estimation method, characterized in that it has.
  • the stress estimation method described in Appendix 12 The machine learning model machine-learns the first feature amount extracted from the sweating data which is the training data and the second feature amount extracted from the biological data other than the sweating data which is the training data. It is a model that estimates the feature amount of the corresponding sweating data from the biometric data other than the sweating data.
  • the biometric data acquired by the biometric data acquisition step is input to the machine learning model, and the feature amount of the sweating data in the subject is estimated.
  • the stress estimation step the stress level in the subject is estimated from the estimated feature amount of the sweating data in the subject. A stress estimation method characterized by this.
  • Biometric data other than sweating data is at least one of electrocardiographic data, heart rate data, pulse wave data, respiratory data, pupil data, blood pressure data, and brain wave data. A stress estimation method characterized by this.
  • Machine learning that machine-learns the sweating data that is the training data and the biometric data other than the sweating data that is the training data, and generates a machine learning model that correlates the sweating data with the biometric data other than the sweating data.
  • Appendix 16 The computer-readable recording medium according to Appendix 15, wherein the recording medium is readable.
  • the program is on the computer Further including an instruction to execute a feature amount extraction step of extracting a first feature amount from the sweating data serving as the training data and extracting a second feature amount from biological data other than the sweating data serving as the training data.
  • the extracted first feature amount and the second feature amount are machine-learned, and the feature amount of the corresponding sweating data is estimated from the biological data other than the sweating data.
  • Generate the machine learning model A computer-readable recording medium.
  • Appendix 17 The computer-readable recording medium according to Appendix 16, wherein the recording medium is readable.
  • the feature amount extraction step the sweating data as the training data and the biological data other than the sweating data as the training data are separated by the same plurality of time windows, and the first feature amount and the first feature amount are divided for each time window. Extract the feature amount of 2 and
  • machine learning model generation step machine learning is performed so that the error between the first feature amount and the second feature amount for each time window is reduced, and the machine learning model is generated.
  • Biometric data other than sweating data is at least one of electrocardiographic data, heart rate data, pulse wave data, respiratory data, pupil data, blood pressure data, and brain wave data.
  • a computer-readable recording medium is at least one of electrocardiographic data, heart rate data, pulse wave data, respiratory data, pupil data, blood pressure data, and brain wave data.
  • a biometric data acquisition step for acquiring biometric data other than sweating data in a subject to be stress-estimated As the training data, the sweating data measured simultaneously in the living body and the biological data other than the sweating data are used, and the sweating data as the training data and the biological data other than the sweating data as the training data are obtained by machine learning. Sweating data estimation, in which the biometric data acquired by the biometric data acquisition step is input to the machine learning model that correlates the sweating data with the biometric data other than the sweating data, and the sweating data in the subject is estimated. Steps and A stress estimation step for estimating the level of stress in the subject from the estimated sweating data in the subject, and A computer-readable recording medium recording a program, including instructions to execute.
  • Appendix 20 The computer-readable recording medium according to Appendix 19, wherein the recording medium is readable.
  • the machine learning model machine-learns the first feature amount extracted from the sweating data which is the training data and the second feature amount extracted from the biological data other than the sweating data which is the training data. It is a model that estimates the feature amount of the corresponding sweating data from the biometric data other than the sweating data.
  • the sweating data estimation step the biometric data acquired by the biometric data acquisition step is input to the machine learning model, and the feature amount of the sweating data in the subject is estimated.
  • the stress estimation step the stress level in the subject is estimated from the estimated feature amount of the sweating data in the subject.
  • Appendix 21 A computer-readable recording medium according to Appendix 19 or 20, wherein the recording medium is readable.
  • Biometric data other than sweating data is at least one of electrocardiographic data, heart rate data, pulse wave data, respiratory data, pupil data, blood pressure data, and brain wave data.
  • a computer-readable recording medium is at least one of electrocardiographic data, heart rate data, pulse wave data, respiratory data, pupil data, blood pressure data, and brain wave data.
  • the present invention it is possible to improve the estimation accuracy when estimating the stress level using biological data other than sweating data.
  • the present invention is useful for systems that estimate human stress levels.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physics & Mathematics (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biomedical Technology (AREA)
  • Educational Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

学習モデル生成装置10は、生体において同時に測定された発汗データ及び発汗データ以外の生体データを、訓練データとして取得する、訓練データ取得部11と、訓練データとなる発汗データと訓練データとなる発汗データ以外の生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、機械学習モデル生成部12と、を備えている。

Description

学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、生体データからストレスレベルを推定するための、ストレス推定装置及びストレス推定方法、これらに用いられる学習モデル生成装置及び学習モデル生成方法に関し、更には、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 人には、通常、外部からの様々な刺激によって、ストレスがかかっている。そして、ストレスが大きすぎると、人の能力は低下してしまい、労働生産性の維持及び向上が困難となる。このため、近年においては、人のストレスレベルを測定する試みがなされている。
 ストレスレベルの測定方法としては、生体データを用いた方法が一般的である。例えば、特許文献1は、生体データとして心拍データを取得し、取得した心拍データから、特徴量として心拍間隔を求め、求めた心拍間隔に基づいて、人のストレスを推定する方法を開示している。また、特許文献2は、生体データとして発汗データを取得し、取得した発汗データから発汗の特徴量を求め、求めた発汗の特徴量に基づいて、人のストレスレベルを推定する方法を開示している。
特開2018-202130号公報 国際公開第2017/221504号
 ところで人の自律神経には、起きている時及び緊張している時に働く交感神経と、寝ている時及びリラックスしている時に働く副交感神経と、がある。そして、ストレスに関係しているのは交感神経であるので、ストレスレベルを正確に推定するためには、生体データから、交感神経による影響を示す特徴量を抽出すれば良い。
 しかしながら、心拍は、交感神経による影響だけでは無く、副交感神経による影響も受けるため、生体データとして心拍データを用いる上記特許文献1に開示された方法には、上記特許文献2に開示された方法に比べて、精度が低いという問題がある。
 一方、発汗データは副交感神経による影響を受けにくく、上記特許文献2に開示された方法によれば、上記特許文献1に開示された方法よりも精度を高めることができる。しかし、発汗データを取得するための発汗センサは、心拍データを取得するための心拍センサに比べて種類・数が少なく、高価である。このため、上記特許文献2に開示された方法を実施するためには、センサの入手にコストがかかってしまうという問題がある。
 本発明の目的の一例は、上記問題を解消し、発汗データ以外の生体データを用いてストレスレベルを推定する際の推定精度を向上させ得る、学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面における学習モデル生成装置は、
 生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得する、訓練データ取得部と、
 前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、機械学習モデル生成部と、
を備えている、ことを特徴とする。
 上記目的を達成するため、本発明の一側面におけるストレス推定装置は、
 ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得する、生体データ取得部と、
 訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、前記生体データ取得部によって取得された前記生体データを入力して、前記被験者における発汗データを推定する、発汗データ推定部と、
 推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定する、ストレス推定部と、
を備えている、ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面における学習モデル生成方法は、
 生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得する、訓練データ取得ステップと、
 前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、機械学習モデル生成ステップと、
を有する、ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面におけるストレス推定法は、
 ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得する、生体データ取得ステップと、
 訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、前記生体データ取得ステップによって取得された前記生体データを入力して、前記被験者における発汗データを推定する、発汗データ推定ステップと、
 推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定する、ストレス推定ステップと、
を有する、ことを特徴とする。
 更に、上記目的を達成するため、本発明の一側面における第1のコンピュータ読み取り可能な記録媒体は、
コンピュータに、
 生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得する、訓練データ取得ステップと、
 前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、機械学習モデル生成ステップと、
を実行させる命令を含む、プログラムを記録している、ことを特徴とする。
 更に、上記目的を達成するため、本発明の一側面における第2のコンピュータ読み取り可能な記録媒体は、
コンピュータに、
 ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得する、生体データ取得ステップと、
 訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、前記生体データ取得ステップによって取得された前記生体データを入力して、前記被験者における発汗データを推定する、発汗データ推定ステップと、
 推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定する、ストレス推定ステップと、
を実行させる命令を含む、プログラムを記録している、ことを特徴とする。
 以上のように本発明によれば、発汗データ以外の生体データを用いてストレスレベルを推定する際の推定精度を向上することができる。
図1は、実施の形態1における学習モデル生成装置の概略構成を示すブロック図である。 図2は、実施の形態1における学習モデル生成装置の構成を具体的に示すブロック図である。 図3は、実施の形態1において訓練データとして用いられる発汗データと非発汗データとの一例を示す図である。 図4は、実施の形態1における学習モデル生成装置の動作を示すフロー図である。 図5は、実施の形態2におけるストレス推定装置の構成を示すブロック図である。 図6は、実施の形態2におけるストレス推定装置の動作を示すフロー図である。 図7は、学習モデル生成装置又はストレス推定装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態1)
 以下、実施の形態1における、学習モデル生成装置、学習モデル生成方法、及びプログラムについて、図1~図4を参照しながら説明する。
[装置構成]
 最初に、実施の形態1における学習モデル生成装置の概略構成について図1を用いて説明する。図1は、実施の形態1における学習モデル生成装置の概略構成を示すブロック図である。
 図1に示す、実施の形態1における学習モデル生成装置10は、発汗データと発汗データ以外の生体データとを相関させる学習モデルを生成する装置である。図1に示すように、学習モデル生成装置10は、訓練データ取得部11と、機械学習モデル生成部12とを備えている。
 訓練データ取得部11は、生体において同時に測定された発汗データ及び発汗データ以外の生体データを、訓練データとして取得する。機械学習モデル生成部12は、訓練データとなる発汗データと訓練データとなる生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する。
 実施の形態1では、発汗データとそれ以外の生体データとを相関させる機械学習モデルが生成される。よって、実施の形態1によれば、発汗データが取得できない場合に、それ以外の生体データから発汗データの数値を推定できるようになる。この結果、発汗データ以外の生体データを用いてストレスレベルを推定する際の推定精度の向上が図られる。
 続いて、図2を用いて、実施の形態1における学習モデル生成装置10の構成及び機能について具体的に説明する。図2は、実施の形態1における学習モデル生成装置の構成を具体的に示すブロック図である。
 図2に示すように、実施の形態1では、学習モデル生成装置10は、上述した訓練データ取得部11及び機械学習モデル生成部12に加えて、更に、特徴量抽出部13を備えている。
 実施の形態1において、発汗データ以外の生体データ(以下「非発汗データ」と表記する)としては、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データが挙げられる。更に、非発汗データは、これらのうちの1つのみであっても良いし、2つ以上の組合せであっても良い。
 訓練データ取得部11は、訓練データとして、同時に測定された発汗データと非発汗データとを取得する。実施の形態1において、訓練データの取得先は、学習モデル生成装置10の外部の装置であっても良いし、学習モデル生成装置に備えられた記憶装置であっても良い。
 特徴量抽出部13は、訓練データとなる発汗データから第1の特徴量(以下「発汗特徴量」と表記する。)を抽出し、訓練データとなる非発汗データから第2の特徴量(以下「非発汗特徴量」と表記する。)を抽出する。
 機械学習モデル生成部12は、実施の形態1では、特徴量抽出部13によって抽出された発汗特徴量と非発汗特徴量とを用いて機械学習する。そして、機械学習モデル生成部12は、この機械学習により、非発汗データから、それに対応する発汗データの発汗特徴量を推定する、機械学習モデルを生成する。
 ここで、図3を用いて、機械学習モデルの生成処理についてより具体的に説明する。図3は、実施の形態1において訓練データとして用いられる発汗データと非発汗データとの一例を示す図である。図3の例では、非発汗データとしては、脈波データが用いられている。
 図3に示すように、特徴量抽出部13は、まず、訓練データとなる発汗データと訓練データとなる脈波データ(非発汗データ)とを同じ複数の時間窓で区切る。具体的には、時間窓は、例えば5秒~5分の幅で、時系列に沿って設定される。また、時間窓と時間窓との間は離れていても良いし、隣接する時間窓同士は重複していても良い(例えば、重複率50%)。
 次いで、特徴量抽出部13は、発汗データから時間窓毎に発汗特徴量を抽出し、非発汗データから時間窓毎に非発汗特徴量を抽出する。具体的には、発汗特徴量としては、統計量(平均値、中央値、分散値など)、ピークの数、ピークの高さ、ピークの時間幅、時系列データのヒストグラム、及び周波数スペクトラムが挙げられる。また、特徴量抽出部13は、時間窓毎に、上述したうちの1つの発汗特徴量のみを抽出しても良いし、2つ以上の発汗特徴量を特徴量ベクトルとして抽出しても良い。
 また、特徴量抽出部13は、非発汗特徴量については、例えば、畳み込みニューラルネットワーク又は深層ニューラルネットワークに非発汗データを入力し、それらニューラルネットワークに特徴量を抽出させることによって得ることができる(以下では、畳み込みニューラルネットワークを例に説明する)。なお、畳み込みニューラルネットワークには非発汗データの統計量(平均値、中央値、分散値など)、周波数スペクトラムなど、非発汗データに対して一時的な処理が行われて得られた値が入力されてもよい。また、発汗特徴量が、特徴量ベクトルとして抽出されている場合は、非発汗特徴量も、特徴量ベクトルとして抽出される。
 機械学習モデル生成部12は、時間窓毎の発汗特徴量と非発汗特徴量との誤差が少なくなるように、機械学習を実行して、機械学習モデル(ここでは特徴量抽出部13で非発汗データを入力する畳み込みニューラルネットワーク)のパラメータを学習する。また、発汗特徴量及び非発汗特徴量が、共に、特徴量ベクトルとして抽出されている場合は、機械学習モデル生成部12は、特徴量ベクトル間の誤差が少なくなるように機械学習を実行する。
[装置動作]
 次に、実施の形態1における学習モデル生成装置の動作について図4を用いて説明する。図4は、実施の形態1における学習モデル生成装置の動作を示すフロー図である。以下の説明においては、適宜図1~図3を参照する。また、実施の形態1では、学習モデル生成装置10を動作させることによって、学習モデル生成方法が実施される。よって、実施の形態1における学習モデル生成方法の説明は、以下の学習モデル生成装置10の動作説明に代える。
 図4に示すように、最初に、訓練データ取得部11が、訓練データとして、同時に測定された発汗データと非発汗データとを取得する(ステップA1)。
 次に、特徴量抽出部13は、訓練データとなる発汗データと訓練データとなる脈波データ(非発汗データ)とに、同じ時間窓を複数設定する(ステップA2)。
 次に、特徴量抽出部13は、訓練データとなる発汗データから、時間窓毎に、発汗特徴量を抽出する(ステップA3)。
 次に、特徴量抽出部13は、訓練データとなる非発汗データから、時間窓毎に、非発汗特徴量を抽出する(ステップA4)。
 次に、機械学習モデル生成部12は、ステップA3で抽出した発汗特徴量とステップA4で抽出した非発汗特徴量との誤差が少なくなるように、機械学習を実行して、機械学習モデルを生成する(ステップA5)。
 以上のように、本実施の形態1では、発汗データとそれ以外の生体データとを相関させる機械学習モデルが生成される。また、機械学習モデルの生成は、時間窓で区切り、時間窓の特徴量を用いて行うため、発汗データとそれ以外の生体データとを高精度に相関させることができる。
[プログラム]
 実施の形態1におけるプログラムは、コンピュータに、図4に示すステップA1~A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、実施の形態1における学習モデル生成装置10と学習モデル生成方法とを実現することができる。この場合、コンピュータのプロセッサは、訓練データ取得部11、機械学習モデル生成部12、及び特徴量抽出部13として機能し、処理を行なう。また、コンピュータとしては、汎用のPCの他に、スマートフォン、タブレット型端末装置が挙げられる。
 実施の形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、訓練データ取得部11、機械学習モデル生成部12、及び特徴量抽出部13のいずれかとして機能しても良い。
(実施の形態2)
 次に、実施の形態2では、ストレス推定装置、ストレス推定方法、及びプログラムについて、図5及び図6を参照しながら説明する。
[装置構成]
 最初に、実施の形態2におけるストレス推定装置の概略構成について図5を用いて説明する。図5は、実施の形態2におけるストレス推定装置の構成を示すブロック図である。
 図5に示す、実施の形態2におけるストレス推定装置20は、被験者31の非発汗データから被験者31のストレスレベルを推定する装置である。図5に示すように、ストレス推定装置20は、生体データ取得部21と、発汗データ推定部22と、ストレス推定部23とを備えている。
 生体データ取得部21は、ストレス推定の対象となる被験者31における、非発汗データを取得する。発汗データ推定部22は、発汗データと非発汗データとを相関させる機械学習モデルに、生体データ取得部21によって取得された生体データを入力して、被験者における発汗データを推定する。
 機械学習モデルは、訓練データとして、生体において同時に測定された発汗データ及び非発汗データを用い、訓練データとなる発汗データと、訓練データとなる非発汗データとを機械学習して得られている。
 ストレス推定部23は、発汗データ推定部22によって推定された被験者における発汗データから、被験者におけるストレスのレベルを推定する。
 このように、実施の形態2では、発汗データと非発汗データとを相関させる機械学習モデルによって、非発汗データから、発汗データの数値が推定され、非発汗データの数値に基づいて、被験者のストレスレベルが推定される。実施の形態2によれば、非発汗データを用いた場合であっても、発汗データを用いた場合と同様の精度で、ストレスレベルを推定することができる。
 また、図5に示すように、実施の形態2では、ストレス推定装置20は、被験者31の端末装置30とデータ通信可能に接続されている。被験者31は、端末装置30を介して、ストレス推定装置20に自身の非発汗データを送信する。また、実施の形態2では、ストレス推定装置20は、更に、機械学習モデル格納部24も備えている。
 実施の形態2においても、非発汗データとしては、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データが挙げられる。更に、非発汗データは、これらのうちの1つのみであっても良いし、2つ以上の組合せであっても良い。
 また、実施の形態2では、機械学習モデルとしては、実施の形態1で生成される機械学習モデルが用いられる。つまり、実施の形態2では、機械学習モデルは、訓練データとなる発汗データから抽出された発汗特徴量と訓練データとなる非発汗データから抽出された非発汗特徴量とを機械学習して得られている。機械学習モデルは、非発汗データから、それに対応する発汗データの特徴量を推定する、モデルである。機械学習モデルは、機械学習モデル格納部24に格納されている。
 発汗データ推定部22は、実施の形態2では、生体データ取得部21によって取得された生体データを機械学習モデルに入力して、被験者における発汗データの特徴量を推定する。
 ストレス推定部23は、実施の形態2では、発汗データ推定部22によって推定された被験者における発汗データの特徴量から、被験者31におけるストレスのレベルを推定する。
 具体的には、ストレス推定部23は、例えば、予め、ストレスレベルと発汗データの特徴量との関係を機械学習することによって得られた学習モデルに、発汗データ推定部22によって推定された特徴量を入力することによって、ストレスレベルを推定する。学習モデルとしては、線形回帰モデル、サポートベクトルマシン等が挙げられる。
 また、ストレス推定部23は、推定した被験者31のストレスレベルを、被験者31の端末装置30に送信する。これにより、端末装置30の画面には、推定されたストレスレベルが表示されるので、被験者31は、自身のストレスレベルを知ることができる。
[装置動作]
 次に、実施の形態2におけるストレス推定装置20の動作について図6を用いて説明する。図6は、実施の形態2におけるストレス推定装置の動作を示すフロー図である。以下の説明においては、適宜図5を参照する。また、実施の形態2では、ストレス推定装置20を動作させることによって、ストレス推定方法が実施される。よって、実施の形態2におけるストレス推定方法の説明は、以下のストレス推定装置20の動作説明に代える。
 図6に示すように、最初に、生体データ取得部21は、ストレス推定の対象となる被験者31の非発汗データを、被験者31の端末装置30から取得する(ステップB1)。
 次に、発汗データ推定部22は、ステップB1で取得された生体データを機械学習モデルに入力して、被験者31における発汗データの特徴量を推定する(ステップB2)。
 次に、ストレス推定部23は、ステップB2によって推定された被験者31における発汗データの特徴量から、被験者31におけるストレスのレベルを推定する(ステップB3)。
 次に、ストレス推定部23は、推定した被験者31のストレスレベルを、被験者31の端末装置30に送信する(ステップB4)。これにより、端末装置30の画面には、推定されたストレスレベルが表示されるので、被験者31は、自身のストレスレベルを知ることができる。
 以上のように、実施の形態2では、実施の形態1で生成された機械学習モデルを用いて、非発汗データから、対応する発汗データの特徴量が推定され、推定された発汗データの特徴量に基づいて、最終的なストレスレベルが推定される。つまり、実施の形態2によれば、被験者から取得した非発汗データのみを用いて、発汗データを用いた場合と同程度の高い精度でストレスレベルを推定することができる。
[プログラム]
 実施の形態2におけるプログラムは、コンピュータに、図6に示すステップB1~B4を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、実施の形態2におけるストレス推定装置20とストレス推定方法とを実現することができる。この場合、コンピュータのプロセッサは、生体データ取得部21、発汗データ推定部22、及びストレス推定部23として機能し、処理を行なう。
 また、実施の形態2では、機械学習モデル格納部24は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって実現されていても良いし、別のコンピュータの記憶装置によって実現されていても良い。コンピュータとしては、汎用のPCの他に、スマートフォン、タブレット型端末装置が挙げられる。
 実施の形態2におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、生体データ取得部21、発汗データ推定部22、及びストレス推定部23のいずれかとして機能しても良い。
(物理構成)
 ここで、実施の形態1及び2におけるプログラムを実行することによって、学習モデル生成装置又はストレス推定装置を実現するコンピュータについて図7を用いて説明する。図7は、学習モデル生成装置又はストレス推定装置を実現するコンピュータの一例を示すブロック図である。
 図7に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
 また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。この態様では、GPU又はFPGAが、実施の形態におけるプログラムを実行することができる。
 CPU111は、記憶装置113に格納された、コード群で構成された実施の形態におけるプログラムをメインメモリ112に展開し、各コードを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。
 また、実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
 なお、実施の形態1における学習モデル生成装置10及び実施の形態2におけるストレス推定装置20は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、実施の形態1における学習モデル生成装置10及び実施の形態2におけるストレス推定装置20は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記21)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得する、訓練データ取得部と、
 前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、機械学習モデル生成部と、
を備えている、ことを特徴とする、学習モデル生成装置。
(付記2)
付記1に記載の学習モデル生成装置であって、
 前記訓練データとなる発汗データから第1の特徴量を抽出し、前記訓練データとなる前記発汗データ以外の生体データから第2の特徴量を抽出する、特徴量抽出部を更に備え、
 前記機械学習モデル生成部が、抽出された前記第1の特徴量と前記第2の特徴量とを機械学習して、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、前記機械学習モデルを生成する、
ことを特徴とする、学習モデル生成装置。
(付記3)
付記2に記載の学習モデル生成装置であって、
 前記特徴量抽出部が、前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の生体データとを同じ複数の時間窓で区切り、時間窓毎に前記第1の特徴量と前記第2の特徴量とを抽出し、
 前記機械学習モデル生成部が、時間窓毎の前記第1の特徴量と前記第2の特徴量との誤差が少なくなるように、機械学習を行って、前記機械学習モデルを生成する、
ことを特徴とする、学習モデル生成装置。
(付記4)
付記1~3のいずれかに記載の学習モデル生成装置であって、
 発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
ことを特徴とする、学習モデル生成装置。
(付記5)
 ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得する、生体データ取得部と、
 訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、前記生体データ取得部によって取得された前記生体データを入力して、前記被験者における発汗データを推定する、発汗データ推定部と、
 推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定する、ストレス推定部と、
を備えている、ことを特徴とする、ストレス推定装置。
(付記6)
付記5に記載のストレス推定装置であって、
 前記機械学習モデルが、前記訓練データとなる発汗データから抽出された第1の特徴量と前記訓練データとなる前記発汗データ以外の生体データから抽出された第2の特徴量とを機械学習して得られており、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、モデルであり、
 前記発汗データ推定部が、前記生体データ取得部によって取得された前記生体データを前記機械学習モデルに入力して、前記被験者における発汗データの特徴量を推定し、
 前記ストレス推定部が、推定された前記被験者における発汗データの特徴量から、前記被験者におけるストレスのレベルを推定する、
ことを特徴とする、ストレス推定装置。
(付記7)
付記5または6に記載のストレス推定装置であって、
 発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
ことを特徴とする、ストレス推定装置。
(付記8)
 生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得する、訓練データ取得ステップと、
 前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、機械学習モデル生成ステップと、
を有する、ことを特徴とする、学習モデル生成方法。
(付記9)
付記8に記載の学習モデル生成方法であって、
 前記訓練データとなる発汗データから第1の特徴量を抽出し、前記訓練データとなる前記発汗データ以外の生体データから第2の特徴量を抽出する、特徴量抽出ステップを更に有し、
 前記機械学習モデル生成ステップにおいて、抽出された前記第1の特徴量と前記第2の特徴量とを機械学習して、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、前記機械学習モデルを生成する、
ことを特徴とする、学習モデル生成方法。
(付記10)
付記9に記載の学習モデル生成方法であって、
 前記特徴量抽出ステップにおいて、前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の生体データとを同じ複数の時間窓で区切り、時間窓毎に前記第1の特徴量と前記第2の特徴量とを抽出し、
 前記機械学習モデル生成ステップにおいて、時間窓毎の前記第1の特徴量と前記第2の特徴量との誤差が少なくなるように、機械学習を行って、前記機械学習モデルを生成する、
ことを特徴とする、学習モデル生成方法。
(付記11)
付記8~10のいずれかに記載の学習モデル生成方法であって、
 発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
ことを特徴とする、学習モデル生成方法。
(付記12)
 ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得する、生体データ取得ステップと、
 訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、前記生体データ取得ステップによって取得された前記生体データを入力して、前記被験者における発汗データを推定する、発汗データ推定ステップと、
 推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定する、ストレス推定ステップと、
を有する、ことを特徴とする、ストレス推定方法。
(付記13)
付記12に記載のストレス推定方法であって、
 前記機械学習モデルが、前記訓練データとなる発汗データから抽出された第1の特徴量と前記訓練データとなる前記発汗データ以外の生体データから抽出された第2の特徴量とを機械学習して得られており、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、モデルであり、
 前記発汗データ推定ステップにおいて、前記生体データ取得ステップによって取得された前記生体データを前記機械学習モデルに入力して、前記被験者における発汗データの特徴量を推定し、
 前記ストレス推定ステップにおいて、推定された前記被験者における発汗データの特徴量から、前記被験者におけるストレスのレベルを推定する、
ことを特徴とする、ストレス推定方法。
(付記14)
付記12または13に記載のストレス推定方法であって、
 発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
ことを特徴とする、ストレス推定方法。
(付記15)
コンピュータに、
 生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得する、訓練データ取得ステップと、
 前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、機械学習モデル生成ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記16)
付記15に記載のコンピュータ読み取り可能な記録媒体であって、
前記プログラムが、前記コンピュータに、
 前記訓練データとなる発汗データから第1の特徴量を抽出し、前記訓練データとなる前記発汗データ以外の生体データから第2の特徴量を抽出する、特徴量抽出ステップを実行させる命令を更に含み、
 前記機械学習モデル生成ステップにおいて、抽出された前記第1の特徴量と前記第2の特徴量とを機械学習して、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、前記機械学習モデルを生成する、
ことを特徴とする、コンピュータ読み取り可能な記録媒体。
(付記17)
付記16に記載のコンピュータ読み取り可能な記録媒体であって、
 前記特徴量抽出ステップにおいて、前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の生体データとを同じ複数の時間窓で区切り、時間窓毎に前記第1の特徴量と前記第2の特徴量とを抽出し、
 前記機械学習モデル生成ステップにおいて、時間窓毎の前記第1の特徴量と前記第2の特徴量との誤差が少なくなるように、機械学習を行って、前記機械学習モデルを生成する、
ことを特徴とする、コンピュータ読み取り可能な記録媒体。
(付記18)
付記15~17のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
 発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
ことを特徴とする、コンピュータ読み取り可能な記録媒体。
(付記19)
コンピュータに、
 ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得する、生体データ取得ステップと、
 訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、前記生体データ取得ステップによって取得された前記生体データを入力して、前記被験者における発汗データを推定する、発汗データ推定ステップと、
 推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定する、ストレス推定ステップと、
を実行させる命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
(付記20)
付記19に記載のコンピュータ読み取り可能な記録媒体であって、
 前記機械学習モデルが、前記訓練データとなる発汗データから抽出された第1の特徴量と前記訓練データとなる前記発汗データ以外の生体データから抽出された第2の特徴量とを機械学習して得られており、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、モデルであり、
 前記発汗データ推定ステップにおいて、前記生体データ取得ステップによって取得された前記生体データを前記機械学習モデルに入力して、前記被験者における発汗データの特徴量を推定し、
 前記ストレス推定ステップにおいて、推定された前記被験者における発汗データの特徴量から、前記被験者におけるストレスのレベルを推定する、
ことを特徴とする、コンピュータ読み取り可能な記録媒体。
(付記21)
付記19または20に記載のコンピュータ読み取り可能な記録媒体であって、
 発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
ことを特徴とする、コンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 以上のように本発明によれば、発汗データ以外の生体データを用いてストレスレベルを推定する際の推定精度を向上することができる。本発明は、人のストレスレベルを推定するシステムに有用である。
 10 学習モデル生成装置
 11 訓練データ取得部
 12 機械学習モデル生成部
 13 特徴量抽出部
 20 ストレス推定装置
 21 生体データ取得部
 22 発汗データ推定部
 23 ストレス推定部
 24 機械学習モデル格納部
 30 端末装置
 31 被験者
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (21)

  1.  生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得する、訓練データ取得手段と、
     前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、機械学習モデル生成手段と、
    を備えている、ことを特徴とする、学習モデル生成装置。
  2. 請求項1に記載の学習モデル生成装置であって、
     前記訓練データとなる発汗データから第1の特徴量を抽出し、前記訓練データとなる前記発汗データ以外の生体データから第2の特徴量を抽出する、特徴量抽出手段を更に備え、
     前記機械学習モデル生成手段が、抽出された前記第1の特徴量と前記第2の特徴量とを機械学習して、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、前記機械学習モデルを生成する、
    ことを特徴とする、学習モデル生成装置。
  3. 請求項2に記載の学習モデル生成装置であって、
     前記特徴量抽出手段が、前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の生体データとを同じ複数の時間窓で区切り、時間窓毎に前記第1の特徴量と前記第2の特徴量とを抽出し、
     前記機械学習モデル生成手段が、時間窓毎の前記第1の特徴量と前記第2の特徴量との誤差が少なくなるように、機械学習を行って、前記機械学習モデルを生成する、
    ことを特徴とする、学習モデル生成装置。
  4. 請求項1~3のいずれかに記載の学習モデル生成装置であって、
     発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
    ことを特徴とする、学習モデル生成装置。
  5.  ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得する、生体データ取得手段と、
     訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、前記生体データ取得手段によって取得された前記生体データを入力して、前記被験者における発汗データを推定する、発汗データ推定手段と、
     推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定する、ストレス推定手段と、
    を備えている、ことを特徴とする、ストレス推定装置。
  6. 請求項5に記載のストレス推定装置であって、
     前記機械学習モデルが、前記訓練データとなる発汗データから抽出された第1の特徴量と前記訓練データとなる前記発汗データ以外の生体データから抽出された第2の特徴量とを機械学習して得られており、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、モデルであり、
     前記発汗データ推定手段が、前記生体データ取得手段によって取得された前記生体データを前記機械学習モデルに入力して、前記被験者における発汗データの特徴量を推定し、
     前記ストレス推定手段が、推定された前記被験者における発汗データの特徴量から、前記被験者におけるストレスのレベルを推定する、
    ことを特徴とする、ストレス推定装置。
  7. 請求項5または6に記載のストレス推定装置であって、
     発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
    ことを特徴とする、ストレス推定装置。
  8.  生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得し、
     前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成する、
    ことを特徴とする、学習モデル生成方法。
  9. 請求項8に記載の学習モデル生成方法であって、
     更に、前記訓練データとなる発汗データから第1の特徴量を抽出し、前記訓練データとなる前記発汗データ以外の生体データから第2の特徴量を抽出し、
     前記機械学習モデルの生成において、抽出された前記第1の特徴量と前記第2の特徴量とを機械学習して、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、前記機械学習モデルを生成する、
    ことを特徴とする、学習モデル生成方法。
  10. 請求項9に記載の学習モデル生成方法であって、
     前記特徴量の抽出において、前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の生体データとを同じ複数の時間窓で区切り、時間窓毎に前記第1の特徴量と前記第2の特徴量とを抽出し、
     前記機械学習モデルの生成において、時間窓毎の前記第1の特徴量と前記第2の特徴量との誤差が少なくなるように、機械学習を行って、前記機械学習モデルを生成する、
    ことを特徴とする、学習モデル生成方法。
  11. 請求項8~10のいずれかに記載の学習モデル生成方法であって、
     発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
    ことを特徴とする、学習モデル生成方法。
  12.  ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得し、
     訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、取得された前記生体データを入力して、前記被験者における発汗データを推定し、
     推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定する、
    ことを特徴とする、ストレス推定方法。
  13. 請求項12に記載のストレス推定方法であって、
     前記機械学習モデルが、前記訓練データとなる発汗データから抽出された第1の特徴量と前記訓練データとなる前記発汗データ以外の生体データから抽出された第2の特徴量とを機械学習して得られており、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、モデルであり、
     前記発汗データの推定において、取得された前記生体データを前記機械学習モデルに入力して、前記被験者における発汗データの特徴量を推定し、
     前記ストレスの推定において、推定された前記被験者における発汗データの特徴量から、前記被験者におけるストレスのレベルを推定する、
    ことを特徴とする、ストレス推定方法。
  14. 請求項12または13に記載のストレス推定方法であって、
     発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
    ことを特徴とする、ストレス推定方法。
  15. コンピュータに、
     生体において同時に測定された発汗データ及び前記発汗データ以外の生体データを、訓練データとして取得させ、
     前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の前記生体データとを機械学習して、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルを生成させる、
    命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
  16. 請求項15に記載のコンピュータ読み取り可能な記録媒体であって、
    前記プログラムが、前記コンピュータに、
     前記訓練データとなる発汗データから第1の特徴量を抽出し、前記訓練データとなる前記発汗データ以外の生体データから第2の特徴量を更に抽出させ、
     前記機械学習モデルの生成において、抽出された前記第1の特徴量と前記第2の特徴量とを機械学習して、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、前記機械学習モデルを生成する、
    ことを特徴とする、コンピュータ読み取り可能な記録媒体。
  17. 請求項16に記載のコンピュータ読み取り可能な記録媒体であって、
     前記特徴量の抽出において、前記訓練データとなる発汗データと前記訓練データとなる前記発汗データ以外の生体データとを同じ複数の時間窓で区切り、時間窓毎に前記第1の特徴量と前記第2の特徴量とを抽出し、
     前記機械学習モデルの生成において、時間窓毎の前記第1の特徴量と前記第2の特徴量との誤差が少なくなるように、機械学習を行って、前記機械学習モデルを生成する、
    ことを特徴とする、コンピュータ読み取り可能な記録媒体。
  18. 請求項15~17のいずれかに記載のコンピュータ読み取り可能な記録媒体であって、
     発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
    ことを特徴とする、コンピュータ読み取り可能な記録媒体。
  19. コンピュータに、
     ストレス推定の対象となる被験者における、発汗データ以外の生体データを取得させ、
     訓練データとして、生体において同時に測定された発汗データ及び発汗データ以外の生体データを用い、前記訓練データとなる発汗データと、前記訓練データとなる前記発汗データ以外の生体データとを機械学習して得られた、発汗データと発汗データ以外の生体データとを相関させる機械学習モデルに、取得された前記生体データを入力して、前記被験者における発汗データを推定させ、
     推定された前記被験者における発汗データから、前記被験者におけるストレスのレベルを推定させる、
    命令を含む、プログラムを記録しているコンピュータ読み取り可能な記録媒体。
  20. 請求項19に記載のコンピュータ読み取り可能な記録媒体であって、
     前記機械学習モデルが、前記訓練データとなる発汗データから抽出された第1の特徴量と前記訓練データとなる前記発汗データ以外の生体データから抽出された第2の特徴量とを機械学習して得られており、発汗データ以外の生体データから、それに対応する発汗データの特徴量を推定する、モデルであり、
     前記発汗データの推定において、取得された前記生体データを前記機械学習モデルに入力して、前記被験者における発汗データの特徴量を推定し、
     前記ストレスの推定において、推定された前記被験者における発汗データの特徴量から、前記被験者におけるストレスのレベルを推定する、
    ことを特徴とする、コンピュータ読み取り可能な記録媒体。
  21. 請求項19または20に記載のコンピュータ読み取り可能な記録媒体であって、
     発汗データ以外の生体データが、心電データ、心拍データ、脈波データ、呼吸データ、瞳孔データ、血圧データ、及び脳波データのうちの少なくとも1つである、
    ことを特徴とする、コンピュータ読み取り可能な記録媒体。
PCT/JP2020/024792 2020-06-24 2020-06-24 学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体 WO2021260836A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022531311A JPWO2021260836A5 (ja) 2020-06-24 学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びプログラム
PCT/JP2020/024792 WO2021260836A1 (ja) 2020-06-24 2020-06-24 学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/024792 WO2021260836A1 (ja) 2020-06-24 2020-06-24 学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2021260836A1 true WO2021260836A1 (ja) 2021-12-30

Family

ID=79282084

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/024792 WO2021260836A1 (ja) 2020-06-24 2020-06-24 学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体

Country Status (1)

Country Link
WO (1) WO2021260836A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023139646A1 (ja) * 2022-01-18 2023-07-27 株式会社大島造船所 学習装置及び学習方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245171A (ja) * 2008-03-31 2009-10-22 Kurita Water Ind Ltd 飲料水供給装置
WO2017221504A1 (ja) * 2016-06-20 2017-12-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2018163558A1 (ja) * 2017-03-08 2018-09-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019096116A (ja) * 2017-11-24 2019-06-20 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
WO2019135403A1 (ja) * 2018-01-05 2019-07-11 国立大学法人九州工業大学 ラベル付与装置、ラベル付与方法、及びプログラム
WO2019166613A1 (en) * 2018-03-02 2019-09-06 Consorcio Centro de Investigación Biomédica en Red, M.P. Methods and systems for measuring a stress indicator, and for determining a level of stress in an individual

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009245171A (ja) * 2008-03-31 2009-10-22 Kurita Water Ind Ltd 飲料水供給装置
WO2017221504A1 (ja) * 2016-06-20 2017-12-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2018163558A1 (ja) * 2017-03-08 2018-09-13 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019096116A (ja) * 2017-11-24 2019-06-20 株式会社東芝 情報処理装置、情報処理方法、およびプログラム
WO2019135403A1 (ja) * 2018-01-05 2019-07-11 国立大学法人九州工業大学 ラベル付与装置、ラベル付与方法、及びプログラム
WO2019166613A1 (en) * 2018-03-02 2019-09-06 Consorcio Centro de Investigación Biomédica en Red, M.P. Methods and systems for measuring a stress indicator, and for determining a level of stress in an individual

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YANAGI, KEISUKE: "Development of warning application of hert stroke by Android operating system", IEICE TECHNICAL REPORT, THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. 117, no. 390, 2018, pages 89 - 92, ISSN: 0913-5685 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023139646A1 (ja) * 2022-01-18 2023-07-27 株式会社大島造船所 学習装置及び学習方法

Also Published As

Publication number Publication date
JPWO2021260836A1 (ja) 2021-12-30

Similar Documents

Publication Publication Date Title
US9946942B2 (en) Method, apparatus and system for biometric identification
US11562222B2 (en) Systems and methods of identity analysis of electrocardiograms
US11006874B2 (en) Real-time stress determination of an individual
JP6122884B2 (ja) 作業覚醒度推定装置、方法およびプログラム
WO2012037610A1 (en) Composite brain function monitoring and display system
US10349896B2 (en) Epsilon-tube filter for blunt noise removal
US20200074281A1 (en) Computer-readable recording medium, abnormality determination method, and abnormality determination device
US20210090740A1 (en) State estimation apparatus, state estimation method, and non-transitory recording medium
WO2021260836A1 (ja) 学習モデル生成装置、ストレス推定装置、学習モデル生成方法、ストレス推定方法、及びコンピュータ読み取り可能な記録媒体
JP2023089729A (ja) 計算機システム及び情動推定方法
JP7136341B2 (ja) ストレス推定装置、ストレス推定方法およびプログラム
JP7211441B2 (ja) 覚醒度推定装置、覚醒度推定方法、及びプログラム
Aggarwal et al. Eye gaze–induced mental stress alters the heart rate variability analysis
WO2021230775A1 (ru) Способ определения фазы сна в длительной записи ээг
JP6707015B2 (ja) 状態推定装置、方法およびプログラム
JP7347822B2 (ja) 心身状態推定装置、心身状態推定方法、及びプログラム
WO2022101990A1 (ja) 疲労度推定装置、疲労度推定方法、及びコンピュータ読み取り可能な記録媒体
CN109567749B (zh) 睡眠数据处理方法、装置、计算机设备和存储介质
JP7327417B2 (ja) 状態推定装置、状態推定方法、及びプログラム
JP2015029609A6 (ja) 嗜好性評価方法、嗜好性評価装置およびプログラム
JP2015029609A (ja) 嗜好性評価方法、嗜好性評価装置およびプログラム
US20220160243A1 (en) Pulse determination apparatus, stress determination apparatus, pulse determination method, and computer-readable recording medium
Quer et al. A Bayesian model of heart rate to reveal real-time physiological information
US20220409075A1 (en) Physiological condition monitoring system and method thereof
WO2022215239A1 (ja) 情報処理装置、特徴量抽出方法、教師データ生成方法、推定モデル生成方法、ストレス度の推定方法、および、特徴量抽出プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20941566

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022531311

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20941566

Country of ref document: EP

Kind code of ref document: A1