WO2021090402A1 - ストレス推定装置、ストレス推定方法、及び、記録媒体 - Google Patents

ストレス推定装置、ストレス推定方法、及び、記録媒体 Download PDF

Info

Publication number
WO2021090402A1
WO2021090402A1 PCT/JP2019/043491 JP2019043491W WO2021090402A1 WO 2021090402 A1 WO2021090402 A1 WO 2021090402A1 JP 2019043491 W JP2019043491 W JP 2019043491W WO 2021090402 A1 WO2021090402 A1 WO 2021090402A1
Authority
WO
WIPO (PCT)
Prior art keywords
stress
arousal
feature amount
degree
alertness
Prior art date
Application number
PCT/JP2019/043491
Other languages
English (en)
French (fr)
Inventor
祥史 大西
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/771,876 priority Critical patent/US20220370009A1/en
Priority to JP2021554468A priority patent/JP7279812B2/ja
Priority to PCT/JP2019/043491 priority patent/WO2021090402A1/ja
Publication of WO2021090402A1 publication Critical patent/WO2021090402A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4884Other medical applications inducing physiological or psychological stress, e.g. applications for stress testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation

Definitions

  • the present invention relates to a technique for estimating stress.
  • Patent Document 1 proposes a method of detecting a subject's body movement, respiration, pulse wave, etc. during sleep to determine the degree of stress during sleep.
  • human body information such as face image data and voice data of the target person is detected by using a camera or a microphone, and the stress amount of the target person is associated with the stress amount detected by a sensor or the like in advance.
  • One of the objects of the present invention is to quantitatively estimate stress without imposing a burden on the subject.
  • the stress estimation device is used.
  • the arousal level acquisition unit that acquires the arousal level of the target person,
  • a feature amount calculation unit that calculates the acquired feature amount of alertness, and It is provided with a stress estimation unit that estimates stress from calculated features using a stress model.
  • the stress estimation method Obtain the subject's alertness and Calculate the acquired arousal feature amount and The stress is estimated from the calculated features using the stress model.
  • the recording medium is: Obtain the subject's alertness and Calculate the acquired arousal feature amount and Using the stress model, record a program that causes a computer to execute a process of estimating stress from the calculated features.
  • a schematic configuration of the stress estimation device according to the first embodiment of the present invention is shown.
  • the hardware configuration of the stress estimation device according to the first embodiment is shown.
  • the functional configuration of the stress estimation device according to the first embodiment is shown.
  • An example of the configuration of the alertness generation unit is shown. It is a graph which shows the example of the arousal degree. It is a graph which shows the correlation between the value based on arousalness and stress. It is a graph which shows the relationship between the value based on arousalness and the level of stress. It is a flowchart of stress estimation processing. It is a graph which shows the evaluation result of stress estimation. It is a figure explaining the feature amount in 2nd Embodiment.
  • the functional configuration of the stress estimation device according to the third embodiment is shown.
  • FIG. 1 shows a schematic configuration of a stress estimation device according to a first embodiment of the present invention.
  • the stress estimation device 1 is connected to the camera 2.
  • the camera 2 photographs the face of the stress estimation target person (hereinafter, simply referred to as “target person”), and transmits the captured image D1 to the stress estimation device 1.
  • target person typically, a so-called webcam, an infrared camera, or the like provided in a PC (Personal Computer) used by the subject for desk work can be used.
  • the example of the camera 2 is not limited to this, and for example, a device provided on glasses worn by the subject and detecting the movement (opening and closing) of the eyelids of the subject by measuring the electro-oculography may be used. Good.
  • the stress estimation device 1 analyzes the captured image D1 to estimate the stress of the subject, and outputs the stress estimation result.
  • the stress estimation result is supplied to various devices that utilize it. For example, in a system that manages the work and health of employees, the stress estimation results of each employee are monitored by a server, and if it is determined that the stress of an employee is high, the display of the PC used by that employee is displayed. You can display a message prompting you to take a break.
  • FIG. 2 is a block diagram showing the hardware configuration of the stress estimation device 1. As shown in the figure, the stress estimation device 1 includes an interface 11, a processor 12, a memory 13, and a recording medium 14.
  • Interface 11 exchanges data with and from camera 2. The interface 11 is used when receiving the captured image generated by the camera 2. Further, the interface 11 is used when the stress estimation device 1 outputs the stress estimation result to the device that uses the stress estimation result.
  • the processor 12 is a computer such as a CPU (Central Processing Unit), and controls the entire stress estimation device 1 by executing a program prepared in advance.
  • the memory 13 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the memory 13 stores various programs executed by the processor 12.
  • the memory 13 is also used as a working memory during execution of various processes by the processor 12.
  • the recording medium 14 is a non-volatile, non-temporary recording medium such as a disk-shaped recording medium or a semiconductor memory, and is configured to be detachable from the stress estimation device 1.
  • the recording medium 14 records various programs executed by the processor 12. When the stress estimation device 1 executes the stress estimation process, the program recorded in the recording medium 14 is loaded into the memory 13 and executed by the processor 12.
  • FIG. 3 is a block diagram showing the functional configuration of the stress estimation device 1.
  • the stress estimation device 1 functionally includes an alertness generation unit 21, a feature amount calculation unit 22, a stress estimation unit 23, and a stress model storage unit 24.
  • the alertness generation unit 21, the feature amount calculation unit 22, and the stress estimation unit 23 are realized by the processor 12 executing the program, and the stress model storage unit 24 is realized by the memory 13.
  • the arousal level generation unit 21 generates the arousal level D3 from the captured image D1 supplied from the camera 2.
  • the arousal level is a value indicating the degree of awakening of a person.
  • a state of high arousal is a state in which a person is awake and his eyes are closed, and a state of low arousal is a state in which a person is sleepy.
  • the arousal level generation unit 21 analyzes the photographed image D1 of the subject's face, calculates the arousal level D3 of the target person, and supplies it to the feature amount calculation unit 22.
  • FIG. 4 is a block diagram showing a configuration example of the alertness generation unit 21.
  • the alertness generation unit 21 includes an eye opening degree detection unit 21a and a filtering unit 21b.
  • the eye-opening degree detection unit 21a processes the captured image D1 to detect the eye-opening degree of the subject, and outputs a time-series signal D2 of the eye-opening degree to the filtering unit 21b.
  • the "eye opening degree” is a value indicating the degree to which the subject's eyes are open, and is calculated by analysis of the captured image D1. As the degree of eye opening, one of the left and right eyes of the subject may be used, or the average value of the degree of opening of the left and right eyes may be used.
  • the filtering unit 21b performs filtering for removing the change in the signal caused by the blink of the subject from the time-series signal D2 of the degree of eye opening.
  • the blinking time of a human is about 0.1 to 0.15 seconds, so the frequency is about 10 to 6.7 Hz. Therefore, the filtering unit 21b outputs a signal obtained by removing the signal of the frequency band from the time-series signal D2 of the eye opening degree as the alertness degree D3.
  • the alertness becomes a time-series signal indicating the opening and closing of the eyes other than blinking among the eyes of the human eye.
  • the arousal level is not due to blinking, which is a physiological phenomenon, but is a numerical value of the state in which the subject's eyes open and close due to drowsiness.
  • the arousal degree is generated by using the eye opening degree of the subject in the captured image, but the arousal degree generation unit 21 may generate the arousal degree by another method.
  • the arousal level generation unit 21 may generate the arousal level by using the method described in the following document. Tsujikawa, Y. Onishi, Y. Kiuchi, T. Ogatsu, A. Nishino, S. Hashimoto, “Drowsiness Estimate from Low-Frame-Rate Facial Videos using Eyelid Variability Features,” Conf Proc IEEE Eng Med Biol Soc. 2018 Jul; 2018: 5203-5206., 2018.
  • the feature amount calculation unit 22 calculates the ratio of the time change of the arousal degree D3, which is a time-series signal, within a predetermined range as the feature amount D4. Specifically, the feature amount calculation unit 22 calculates the first-order derivative or the second-order derivative of the arousal degree D3 supplied from the arousal degree generation unit 21 as a time change, and the value becomes less than a predetermined threshold value. The ratio is supplied to the stress estimation unit 23 as the feature amount D4. The reason for using such a value as a feature amount will be described later.
  • the stress estimation unit 23 estimates the stress from the feature amount using the stress model.
  • the stress model is a stress learning model generated in advance by machine learning. For example, the feature amount obtained from the arousal degree is used as training data, and the stress value at that time obtained by a questionnaire or the like is used as a teacher label to train the model in advance to generate a stress model.
  • the stress model becomes a regression model, and for example, support vector regression (SCR: Support Vector Regression) or a deep learning neural network can be used.
  • SCR Support Vector Regression
  • a neural network or the like.
  • Stress model information D5 Information about the stress model (hereinafter, also referred to as stress model information) D5 is stored in advance in the stress model storage unit 24.
  • the stress estimation unit 23 acquires the feature amount D4 based on the arousal degree in the situation where the stress is estimated, the stress estimation unit 23 estimates the stress from the feature amount D4 using the stress model and outputs it as the stress estimation result.
  • the feature amount calculated by the feature amount calculation unit 22 is a value that is an input when estimating stress using a stress model, and therefore needs to be a value that has a correlation with the level and amount of stress. Therefore, as candidates for the feature amount, among the values based on the arousal degree, (a) the average arousal degree, (b) the ratio where the arousal degree is less than the threshold, and (c) the ratio where the first derivative of the arousal degree is less than the threshold. , (D) Consider the rate at which the second derivative of alertness is less than the threshold.
  • FIG. 5A is a graph showing an example of an arousal degree time-series signal generated by the arousalness degree generation unit 21.
  • the horizontal axis represents time and the vertical axis represents the value of alertness.
  • the example of FIG. 5 (A) shows the change in the arousal level in 3 hours from a certain measurement start time (“00: 00”).
  • the arousal degree is a discrete value (digital value) at a predetermined time interval (for example, about 10 seconds), and takes a value of "0 to 100”.
  • An arousal level "100" indicates a wakefulness state, and an arousal level "0” indicates a sleep state. The larger the alertness value, the more awakened the subject, and the smaller the alertness value, the drowsy the subject.
  • FIG. 5B is a graph showing the first derivative of alertness.
  • the first derivative is a difference value.
  • the horizontal axis shows the elapsed time from the measurement start time
  • the vertical axis shows the first derivative of the arousal degree (also referred to as “ ⁇ arousal degree”).
  • ⁇ Arousalness indicates a change in the arousal level of the subject, that is, a change in the drowsiness of the subject.
  • the state in which the drowsiness fluctuates greatly is a state in which the person becomes sleepy and awakens repeatedly.
  • FIG. 5C is a graph showing the second derivative of alertness.
  • the horizontal axis shows the elapsed time from the measurement start time
  • the vertical axis shows the second derivative of the arousal degree (also referred to as “ ⁇ arousal degree”).
  • the ⁇ arousal level is a value indicating a rapid change in the arousal level of the subject, that is, a rapid change in the drowsiness of the subject.
  • FIG. 6A is a graph showing the relationship between the average alertness and PSS (Perceed Stress Scale).
  • PSS is a stress value calculated based on the results of the questionnaire.
  • the vertical axis represents PSS and takes a value of “0 to 40”.
  • "40" is the maximum value of PSS, which corresponds to the state of maximum stress.
  • the horizontal axis is the average arousal level, that is, the average value of the arousal level.
  • the facial image of the subject in the work environment was taken for a predetermined period (1 month) to calculate the arousal level, and the average arousal level was calculated.
  • each point shows the relationship between the average value of one subject and PSS.
  • the straight line in the figure is a regression line calculated based on the data of each subject, and the gray area in the figure indicates the confidence interval of the regression line. From the graph of FIG. 6 (A), it can be seen that there is almost no correlation between the average arousal level and the PSS, and the average arousal level is not appropriate as a feature amount.
  • FIG. 6C shows the relationship between the rate at which the first derivative ( ⁇ al alertness) of the alertness is less than the threshold value (denoted as “% ( ⁇ al alertness ⁇ threshold value)”) and PSS.
  • % ( ⁇ alertness ⁇ threshold value) (Total time when ⁇ arousal is below the threshold) / (predetermined period) (2)
  • the threshold value is determined in advance to an appropriate value as in the threshold value THb in FIG. 5 (B). From the graph of FIG. 6C, it can be seen that there is a correlation between the first derivative of alertness and PSS. Therefore,% ( ⁇ al alertness ⁇ threshold value) is considered to be appropriate as a feature amount.
  • FIG. 7 (A) shows the high and low stress when the PSS is divided into two classes, a high stress (H) class and a low stress (L) class, using a certain threshold value, and% ( ⁇ alertness ⁇ threshold value). Show the relationship.
  • the vertical axis of FIG. 7A shows% ( ⁇ alertness ⁇ threshold value), and the horizontal axis shows the level of stress (H / L).
  • the rectangle 40 drawn on the two graphs of FIG. 7A shows the distribution of subjects with low stress, and the rectangle 50 shows the distribution of the number of subjects with high stress.
  • the lower end 40d of the rectangle is the number of the subjects from the smaller value of% ( ⁇ al alertness ⁇ threshold value) to 1/4 of the total number of subjects in the distribution of the subjects. Indicates the corresponding position.
  • the upper end 40u of the rectangle indicates a position corresponding to 1/4 of the total number of subjects in the distribution of the subjects from the one with the larger value of% ( ⁇ al alertness ⁇ threshold value).
  • the line segment 40c in the rectangle indicates a position corresponding to the median value of% ( ⁇ al alertness ⁇ threshold value) in the distribution of the subjects.
  • the meanings of the lower end 50d, the upper end 50u, and the line segment 50c are the same for the rectangle 50 in the graph of the stress “H” in FIG. 7 (A).
  • FIG. 7B shows the high and low stress (H / L) and% ( ⁇ ) when the PSS is divided into two classes, a high stress (H) class and a low stress (L) class, using a certain threshold value.
  • the relationship with alertness ⁇ threshold value) is shown.
  • the vertical axis of FIG. 7B shows% ( ⁇ alertness ⁇ threshold value), and the horizontal axis shows the level of stress.
  • the rectangles drawn on the two graphs of FIG. 7 (B) show the distribution of the number of subjects as in FIG. 7 (A). The meanings of the upper end, the lower end, and the line segment of each rectangle are the same as those in FIG. 7 (A).
  • a subject having a high stress and a subject having a low stress regardless of which of% ( ⁇ al alertness ⁇ threshold value) and% ( ⁇ alertness ⁇ threshold value) is used. It turns out that the person has a different distribution.
  • the p value of the ratio "% ( ⁇ arousal degree ⁇ threshold)" at which the first derivative of the arousal degree is less than the threshold value is "0.03".
  • the p-value of the ratio "% ( ⁇ arousal degree ⁇ threshold)" at which the second derivative of the arousal degree was less than the threshold value was "0.019".
  • the simple average arousal level and the rate at which the arousal level is less than the threshold value have a low correlation with the stress value and are not effective as a feature amount used for stress estimation.
  • the ratio of the arousal level based on the first derivative and the second derivative has a high correlation with the stress value, and it can be seen that it is effective as a feature amount used for stress estimation. Therefore, in the present embodiment, the ratio at which the time change of the arousal degree is within a predetermined range, specifically, the ratio at which the first derivative and the second derivative of the arousal degree are less than the threshold value is used as the feature amount.
  • FIG. 8 is a flowchart of the stress estimation process. This process is realized by the processor 12 shown in FIG. 1 executing a program prepared in advance and functioning as each element shown in FIG.
  • the arousal level generation unit 21 acquires the captured image D1 from the camera 2 (step S11) and calculates the arousal level D3 (step S12).
  • the feature amount calculation unit 22 calculates the feature amount D4 from the arousal level D3 (step S13).
  • the feature amount D4 as described above, the ratio that the time change of the arousal degree is within a predetermined range, specifically, the ratio that the first derivative or the second derivative of the arousal degree is less than the threshold value is calculated.
  • the stress estimation unit 23 acquires the stress model information D5 stored in the stress model storage unit 24, inputs the feature amount D4 to the stress model, and estimates the stress (step S14). Then, the stress estimation unit 23 outputs the stress estimation result to an external device or the like (step S15). In this way, the stress estimation process is completed.
  • the PSS was divided into two classes according to high and low (L / H), and the above stress estimation was performed using the stress model as a two-class classification model.
  • As the feature amount "% ( ⁇ alertness ⁇ threshold value)" was used.
  • a stress model was learned from the data of 36 of the 37 subjects, and the remaining 1 model was used for evaluation.
  • FIG. 9 shows the ROC (Receiving Operating Characteristic Curver) curve obtained as an evaluation result.
  • the second embodiment of the present invention will be described.
  • the second embodiment is the same as the first embodiment in that the feature amount used for stress estimation is different from that of the first embodiment. Therefore, the same matters as in the first embodiment will not be described in duplicate.
  • the ratio at which the first derivative or the second derivative of the arousal degree is less than the threshold value that is, "% ( ⁇ arousal degree ⁇ threshold value)" or "% ( ⁇ arousal degree ⁇ threshold value)" is used as a feature quantity. I am using it.
  • a histogram of the first-order derivative or the second-order derivative value of the arousal degree is used as a feature amount.
  • FIG. 10 is a diagram for explaining the feature amount in the second embodiment.
  • FIG. 10A shows an example in which a histogram is generated based on the value of the first derivative of alertness
  • FIG. 10B shows an example in which a histogram is generated based on the value of the second derivative of alertness.
  • the frequency in the histogram is normalized.
  • the width and number of a plurality of bins constituting the histogram are appropriately determined in advance.
  • a known neural network that automatically adjusts the width and number of bins in the histogram may be used.
  • the information defining the histogram generated in this way specifically, the width and number of bins, the frequency in each bin, the shape of the histogram itself, and the like are used as feature quantities.
  • the information that defines the histogram is used as training data for training, and a stress model is generated in advance. Then, the stress estimation unit 23 uses a stress model generated in advance, and estimates the stress from the feature amount calculated by the feature amount calculation unit 22, that is, the information defining the histogram.
  • FIG. 11 is a block diagram showing a functional configuration of the stress estimation device according to the third embodiment.
  • the stress estimation device 70 includes an alertness acquisition unit 71, a feature amount calculation unit 72, and a stress estimation unit 73.
  • the arousal level acquisition unit 71 acquires the arousal level of the target person. Specifically, the arousal level acquisition unit 71 may generate an arousal level based on a photographed image of the subject's face, or may simply receive the arousal level generated by an external device. ..
  • the feature amount calculation unit 72 calculates the feature amount of the acquired arousal degree.
  • the feature amount of the arousal degree is the ratio that the time change of the arousal degree falls within a predetermined range, the information that defines the histogram showing the distribution of the time change of the arousal degree, and the like.
  • the stress estimation unit 73 estimates stress from the calculated features using a stress model prepared in advance.
  • the stress is estimated using the arousal level of the subject, but an index indicating the drowsiness of the subject may be acquired or generated, and this may be used as the arousal level.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychology (AREA)
  • Physiology (AREA)
  • Educational Technology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

ストレス推定装置は、対象者の覚醒度を取得し、取得された覚醒度の特徴量を算出する。覚醒度の特徴量は、例えば、覚醒度の時間変化が所定の範囲となる割合、覚醒度の時間変化の分布を示すヒストグラムを規定する情報などである。そして、ストレス推定装置は、ストレスモデルを用いて、算出された特徴量からストレスを推定する。

Description

ストレス推定装置、ストレス推定方法、及び、記録媒体
 本発明は、ストレスを推定する技術に関する。
 現代はストレス社会と言われ、人々は職場、家庭など様々な環境でストレスにさらされている。このため、人間のストレスを判定、推定するための各種の手法が提案されている。例えば、特許文献1は、対象者の睡眠中の体動、呼吸、脈波などを検出し、睡眠中のストレス度を判定する手法を提案している。特許文献2は、カメラやマイクを用いて対象者の顔画像データや音声データ等の人体情報を検出し、センサなどにより検出したストレス量と予め関連付けておくことにより、人体情報から対象者のストレス状態を推定する手法を提案している。
特開2016-107095号公報 特開2011-167323号公報
 職場における作業中に労働者が感じるストレスは、作業の効率や安全性の低下などにつながり、労働者の健康にも影響を与えることが知られている。よって、作業効率の改善や労働者の健康管理などの観点から、労働者のストレスをモニタリングすることが求められている。
 本発明の目的の1つは、対象者に負担をかけずに、ストレスを定量的に推定することにある。
 上記の課題を解決するため、本発明の一つの観点では、ストレス推定装置は、
 対象者の覚醒度を取得する覚醒度取得部と、
 取得された覚醒度の特徴量を算出する特徴量算出部と、
 ストレスのモデルを用いて、算出された特徴量からストレスを推定するストレス推定部と、を備える。
 本発明の他の観点では、ストレス推定方法は、
 対象者の覚醒度を取得し、
 取得された覚醒度の特徴量を算出し、
 ストレスのモデルを用いて、算出された特徴量からストレスを推定する。
 本発明のさらに他の観点では、記録媒体は、
 対象者の覚醒度を取得し、
 取得された覚醒度の特徴量を算出し、
 ストレスのモデルを用いて、算出された特徴量からストレスを推定する処理をコンピュータに実行させるプログラムを記録する。
 本発明によれば、対象者に負担をかけずに、ストレスを定量的に推定することが可能となる。
本発明の第1実施形態に係るストレス推定装置の概略構成を示す。 第1実施形態に係るストレス推定装置のハードウェア構成を示す。 第1実施形態に係るストレス推定装置の機能構成を示す。 覚醒度生成部の構成例を示す。 覚醒度の例を示すグラフである。 覚醒度に基づく値とストレスとの相関を示すグラフである。 覚醒度に基づく値とストレスの高低との関係を示すグラフである。 ストレス推定処理のフローチャートである。 ストレス推定の評価結果を示すグラフである。 第2実施形態における特徴量を説明する図である。 第3実施形態に係るストレス推定装置の機能構成を示す。
 以下、図面を参照して本発明の好適な実施形態について説明する。
 [第1実施形態]
 (構成)
 図1は、本発明の第1実施形態に係るストレス推定装置の概略構成を示す。ストレス推定装置1は、カメラ2に接続される。カメラ2は、ストレス推定の対象者(以下、単に「対象者」と呼ぶ。)の顔を撮影し、撮影画像D1をストレス推定装置1に送信する。カメラ2は、典型的には、デスクワークで対象者が使用するPC(Personal Computer)に設けられる、いわゆるウェブカメラや赤外線カメラなどを使用することができる。但し、カメラ2の例はこれには限られず、例えば、対象者が装着するメガネなどに設けられ、眼電位の測定により対象者のまぶたの動き(開閉)を検出するデバイスなどを使用してもよい。
 ストレス推定装置1は、撮影画像D1を分析して対象者のストレスを推定し、ストレス推定結果を出力する。ストレス推定結果は、それを利用する各種の装置に供給される。例えば、社員の業務管理や健康管理を行うシステムにおいては、各社員のストレス推定結果をサーバで監視し、ある社員のストレスが高いと判断された場合、その社員が使用しているPCのディスプレイに休憩をとるよう促すメッセージを表示したりすることができる。
 図2は、ストレス推定装置1のハードウェア構成を示すブロック図である。図示のように、ストレス推定装置1は、インタフェース(Interface)11と、プロセッサ12と、メモリ13と、記録媒体14と、を備える。
 インタフェース11は、カメラ2との間でデータの授受を行う。インタフェース11は、カメラ2が生成した撮影画像を受信する際に使用される。また、インタフェース11は、ストレス推定装置1が、ストレス推定結果を利用する装置にストレス推定結果を出力する際に使用される。
 プロセッサ12は、CPU(Central Processing Unit)などのコンピュータであり、予め用意されたプログラムを実行することにより、ストレス推定装置1の全体を制御する。メモリ13は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ13は、プロセッサ12により実行される各種のプログラムを記憶する。また、メモリ13は、プロセッサ12による各種の処理の実行中に作業メモリとしても使用される。
 記録媒体14は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、ストレス推定装置1に対して着脱可能に構成される。記録媒体14は、プロセッサ12が実行する各種のプログラムを記録している。ストレス推定装置1がストレス推定処理を実行する際には、記録媒体14に記録されているプログラムがメモリ13にロードされ、プロセッサ12により実行される。
 図3は、ストレス推定装置1の機能構成を示すブロック図である。ストレス推定装置1は、機能的には、覚醒度生成部21と、特徴量算出部22と、ストレス推定部23と、ストレスモデル記憶部24と、を備える。なお、覚醒度生成部21、特徴量算出部22及びストレス推定部23は、プロセッサ12がプログラムを実行することにより実現され、ストレスモデル記憶部24は、メモリ13により実現される。
 覚醒度生成部21は、カメラ2から供給される撮影画像D1から、覚醒度D3を生成する。覚醒度とは、人が覚醒している度合いを示す値である。覚醒度が高い状態は、人が起きていて目がさえている状態であり、覚醒度が低い状態は人が眠い状態である。覚醒度生成部21は、対象者の顔の撮影画像D1を分析し、その対象者の覚醒度D3を算出して特徴量算出部22へ供給する。
 図4は、覚醒度生成部21の構成例を示すブロック図である。この例では、覚醒度生成部21は、開眼度検出部21aと、フィルタリング部21bとを備える。開眼度検出部21aは、撮影画像D1を画像処理して対象者の開眼度を検出し、開眼度の時系列信号D2をフィルタリング部21bに出力する。「開眼度」は、対象者の眼が開いている程度を示す値であり、撮影画像D1の分析により算出される。なお、開眼度としては、対象者の左右の眼の一方の開眼度を用いてもよく、左右の眼の開眼度の平均値などを用いても良い。
 フィルタリング部21bは、開眼度の時系列信号D2から、対象者の瞬きにより生じる信号の変化分を除去するフィルタリングを行う。一般的に、人間の瞬きの時間は0.1~0.15秒程度であるので、その周波数は10~6.7Hz程度である。よって、フィルタリング部21bは、開眼度の時系列信号D2から、その周波数帯域の信号を除去した信号を覚醒度D3として出力する。これにより、覚醒度は、人間の眼の開眼度のうち、瞬き以外の眼の開閉を示す時系列信号となる。言い換えると、覚醒度は、生理現象であるの瞬きによるものではなく、眠気によって対象者の眼が開閉する状態を数値化した値となる。なお、図4の例では、撮影画像における対象者の開眼度を用いて覚醒度を生成しているが、覚醒度生成部21はこれ以外の手法により覚醒度を生成してもよい。
 例えば、覚醒度生成部21は、以下の文献に記載の手法を用いて覚醒度を生成してもよい。
       Tsujikawa, Y. Onishi, Y. Kiuchi, T. Ogatsu, A. Nishino , S. Hashimoto,“Drowsiness Estimation from Low-Frame-Rate Facial Videos using Eyelid Variability Features, ” Conf Proc IEEE Eng Med Biol Soc. 2018 Jul;2018:5203-5206., 2018.
 特徴量算出部22は、時系列信号である覚醒度D3の時間変化が所定の範囲となる割合を特徴量D4として算出する。具体的には、特徴量算出部22は、覚醒度生成部21から供給された覚醒度D3の1階微分又は2階微分を時間変化として算出し、その値が予め決められた閾値未満となる割合を特徴量D4としてストレス推定部23へ供給する。なお、特徴量としてこのような値を使用する理由については後述する。
 ストレス推定部23は、ストレスモデルを用いて、特徴量からストレスを推定する。ストレスモデルは、機械学習により予め生成されたストレスの学習モデルである。例えば、覚醒度から求めた特徴量を訓練データとし、アンケートなどにより得られたそのときのストレス値を教師ラベルとして事前にモデルの学習を行い、ストレスモデルを生成しておく。なお、ストレス値を連続値として取り扱う場合、ストレスモデルは回帰モデルとなり、例えばサポートベクター回帰(SCR:Support Vector Regression)や深層学習のニューラルネットワークなどを使用することができる。また、ストレス値を離散クラスとする場合、ストレスモデルはクラス分類モデルとなり、サポートベクターマシン(SVM:Support Vector Machine)やニューラルネットワークなどを使用することができる。
 ストレスモデルに関する情報(以下、ストレスモデル情報」とも呼ぶ。)D5は、ストレスモデル記憶部24に予め記憶されている。ストレス推定部23は、ストレス推定を行う状況において覚醒度に基づく特徴量D4を取得すると、ストレスモデルを用いて特徴量D4からストレスを推定し、ストレス推定結果として出力する。
 (特徴量)
 次に、特徴量算出部22が算出する特徴量について詳しく説明する。上記のように、特徴量は、ストレスモデルを用いてストレスを推定する際の入力となる値であるので、ストレスのレベルや量などと相関を有する値とする必要がある。そこで、特徴量の候補として、覚醒度に基づく値のうち、(a)平均覚醒度、(b)覚醒度が閾値未満である割合、(c)覚醒度の1階微分が閾値未満である割合、(d)覚醒度の2階微分が閾値未満である割合について検討する。
 図5(A)は、覚醒度生成部21で生成された覚醒度の時系列信号の例を示すグラフである。図5(A)のグラフにおいて、横軸は時間を示し、縦軸は覚醒度の値を示す。図5(A)の例は、ある測定開始時刻(「00:00」とする。)からの3時間における覚醒度の変化を示している。なお、本例では、覚醒度は所定の時間間隔(例えば10秒程度)の離散値(デジタル値)であり、「0~100」の値をとる。覚醒度「100」は覚醒状態を示し、覚醒度「0」は睡眠状態を示す。覚醒度の値が大きいほど対象者は覚醒しており、覚醒度の値が小さいほど対象者は眠気を有していることになる。
 図5(B)は、覚醒度の1階微分を示すグラフである。なお、この例では覚醒度が離散値であるので、1階微分は差分値となる。図5(B)のグラフにおいて、横軸は測定開始時刻からの経過時間を示し、縦軸は覚醒度の1階微分(「Δ覚醒度」とも記す。)を示す。Δ覚醒度は、対象者の覚醒度の変動、即ち、対象者の眠気の変動を示す。Δ覚醒度が「0」付近のときは対象者の眠気の変動は小さく、Δ覚醒度の正負の値、即ち、絶対値が大きくなると、対象者の眠気の変動が大きくなる。なお、眠気の変動が大きい状態とは、眠りそうになったり、覚醒したりを繰り返す状態である。
 図5(C)は、覚醒度の2階微分を示すグラフである。図5(C)のグラフにおいて、横軸は測定開始時刻からの経過時間を示し、縦軸は覚醒度の2階微分(「ΔΔ覚醒度」とも記す。)を示す。ΔΔ覚醒度は、対象者の覚醒度の急激な変動、即ち、対象者の眠気の急激な変動を示す値となる。ΔΔ覚醒度が「0」付近のときは対象者の眠気の急激な変動は小さく、ΔΔ覚醒度の正負の値、即ち、絶対値が大きくなると、対象者の眠気の急激な変動が大きくなる。
 さて、一般的に、日中や勤務中などにおいては、人間は眠気が大きいほどストレスが大きいと言われている。この考えによれば、例えば、図5(A)に示すようにある適切な閾値THaを設定すると、覚醒度が閾値THa以下であるとき、対象者は眠い状態、即ち、ストレスの大きい状態と推測することができる。そこで、まず、人間のストレスと、(a)平均覚醒度、及び、(b)覚醒度が閾値THa以下となる割合との関係を検討してみた。
 図6(A)は、平均覚醒度とPSS(Perceived Stress Scale)との関係を示すグラフである。なお、PSSはアンケート結果に基づいて算出したストレス値である。図6(A)において、縦軸はPSSを示し、「0~40」の値をとる。本例では「40」がPSSの最大値であり、ストレスが最大の状態に相当する。横軸は平均覚醒度、即ち、覚醒度の平均値である。本例では、所定期間(1か月)にわたり、職場環境における対象者の顔画像を撮影して覚醒度を算出し、平均覚醒度を算出した。また、その所定期間の経過後にアンケートを行い、アンケート結果に基づいてPSSを算出した。図6(A)において、各点は1人の対象者の平均値とPSSの関係を示す。図中の直線は各対象者のデータに基づいて算出した回帰直線であり、図中のグレーの領域は回帰直線の信頼区間を示す。図6(A)のグラフから、平均覚醒度とPSSにはほとんど相関が無く、平均覚醒度は、特徴量として適当でないことがわかる。
 図6(B)は、覚醒度がある閾値未満となった割合(「%(覚醒度<閾値)」と記す。)と、PSSとの関係を示す。具体的に、%(覚醒度<閾値)は以下のように算出される。
 %(覚醒度<閾値)
  =(覚醒度が閾値未満である時間の合計)/(所定期間) (1)
なお、閾値は、例えば図5(A)における閾値THaのように、予め適切な値に決められる。図6(B)のグラフから、覚醒度が閾値未満となった割合とPSSにはほとんど相関が無く、覚醒度が閾値未満となった割合は、特徴量として適当でないことがわかる。
 次に、覚醒度の1階微分又は2階微分に基づく値とPSSとの関係を検討する。図6(C)は、覚醒度の1階微分(Δ覚醒度)が閾値未満となった割合(「%(Δ覚醒度<閾値)」と記す。)とPSSとの関係を示す。具体的に、%(Δ覚醒度<閾値)は以下のように算出される。
 %(Δ覚醒度<閾値)
  =(Δ覚醒度が閾値未満である時間の合計)/(所定期間) (2)
なお、閾値は、図5(B)における閾値THbのように、予め適切な値に決められる。図6(C)のグラフから、覚醒度の1階微分とPSSとの間には相関があることがわかる。よって、%(Δ覚醒度<閾値)は、特徴量として適当と考えられる。
 図6(D)は、覚醒度の2階微分(ΔΔ覚醒度)が閾値未満となった割合(「%(ΔΔ覚醒度<閾値)」と記す。)とPSSとの関係を示す。具体的に、%(ΔΔ覚醒度<閾値)は以下のように算出される。
 %(ΔΔ覚醒度<閾値)
 =(ΔΔ覚醒度が閾値未満である時間の合計)/(所定期間) (3)
なお、閾値は、図5(C)における閾値THcのように、予め適切な値に決められる。図6(D)のグラフから、覚醒度の2階微分とPSSとの間には相関があることがわかる。よって、%(ΔΔ覚醒度<閾値)は、特徴量として適当と考えられる。
 図7(A)は、ある閾値を用いてPSSをストレスの高い(H)クラスと低い(L)クラスの2クラスに分割した場合のストレスの高低と、%(Δ覚醒度<閾値)との関係を示す。図7(A)の縦軸は%(Δ覚醒度<閾値)を示し、横軸はストレスの高低(H/L)を示す。図7(A)の2つのグラフ上に描いた矩形40はストレスが低い対象者の分布を示し、矩形50はストレスが高い対象者数の分布を示す。図7(A)のストレス「L」のグラフにおいて、矩形の下端40dは、対象者の分布において、%(Δ覚醒度<閾値)の値が小さい方から対象者総数の1/4の数に相当する位置を示す。矩形の上端40uは、対象者の分布において、%(Δ覚醒度<閾値)の値が大きい方から対象者総数の1/4の数に相当する位置を示す。矩形内の線分40cは、対象者の分布において、%(Δ覚醒度<閾値)の値の中央値に対応する位置を示す。図7(A)のストレス「H」のグラフにおける矩形50についても、下端50d、上端50u、線分50cの意味は同様である。
 また、図7(B)は、ある閾値を用いてPSSをストレスの高い(H)クラスと低い(L)クラスの2クラスに分割した場合のストレスの高低(H/L)と、%(ΔΔ覚醒度<閾値)との関係を示す。図7(B)の縦軸は%(ΔΔ覚醒度<閾値)を示し、横軸はストレスの高低を示す。図7(B)の2つのグラフ上に描いた矩形は、図7(A)と同様に対象者数の分布を示す。各矩形の上端、下端、線分の意味も図7(A)と同様である。
 図7(A)及び7(B)に示すように、%(Δ覚醒度<閾値)及び%(ΔΔ覚醒度<閾値)のいずれを用いた場合でも、ストレスの高い対象者とストレスの低い対象者は、異なる分布になることがわかる。実際に、統計上の有意確率(p値)を求めると、覚醒度の1階微分が閾値未満となる割合「%(Δ覚醒度<閾値)」のp値は「0.03」であり、覚醒度の2階微分が閾値未満となる割合「%(ΔΔ覚醒度<閾値)」のp値は「0.019」となった。いずれも一般的な基準値「0.05」より小さい値であるため、「%(Δ覚醒度<閾値)」及び「%(ΔΔ覚醒度<閾値)」を用いた分類結果は有意差を有すると認められる。特に、「%(Δ覚醒度<閾値)」のp値(0.03)より、「%(ΔΔ覚醒度<閾値)」のp値(0.019)の方が小さいため、ストレスのクラス分類には、覚醒度の2階微分が閾値未満となる割合の方がより適していると考えられる。
 このように、単純な平均覚醒度や覚醒度が閾値未満となる割合は、ストレス値との相関が低く、ストレス推定に使用する特徴量としては有効でないことがわかる。これに対し、覚醒度の1階微分や2階微分に基づく割合は、ストレス値と相関が高く、ストレス推定に使用する特徴量として有効であることがわかる。そこで、本実施形態では、覚醒度の時間変化が所定の範囲となる割合、具体的には覚醒度の1階微分や2階微分が閾値未満となる割合を特徴量として使用する。
 (ストレス推定処理)
 次に、ストレス推定装置1により実行されるストレス推定処理について説明する。図8は、ストレス推定処理のフローチャートである。この処理は、図1に示すプロセッサ12が予め用意されたプログラムを実行し、図3に示す各要素として機能することにより実現される。
 まず、覚醒度生成部21は、カメラ2から撮影画像D1を取得し(ステップS11)、覚醒度D3を算出する(ステップS12)。次に、特徴量算出部22は、覚醒度D3から特徴量D4を算出する(ステップS13)。特徴量D4としては、上述のように、覚醒度の時間変化が所定範囲となる割合、具体的には、覚醒度の1階微分又は2階微分が閾値未満となる割合が算出される。
 次に、ストレス推定部23は、ストレスモデル記憶部24に記憶されているストレスモデル情報D5を取得し、ストレスモデルに対して特徴量D4を入力して、ストレスを推定する(ステップS14)。そして、ストレス推定部23は、ストレス推定結果を外部の装置などに出力する(ステップS15)。こうして、ストレス推定処理は終了する。
 (ストレス推定結果の評価例)
 次に、上記のストレス推定結果の評価例を説明する。PSSを高低(L/H)で2クラスに分割し、ストレスモデルを2クラス分類モデルとして上記のストレス推定を行った。対象者として37名のデータがあり、そのうち21名はストレスが「L」、16名はストレスが「H」であり、チャンスレベルは0.56であった。特徴量としては、「%(ΔΔ覚醒度<閾値)」を用いた。37名のうち、36名のデータでストレスモデルを学習し、残りの1名のモデルで評価を行った。図9は、評価結果として得られたROC(Receiver Operating Characteristic Curver)曲線を示す。このROC曲線において、AUC(Area under an ROC curve)は「0.67」と算出され、適切な分類性能が得られていることがわかった。このように、本実施形態では、対象者の覚醒度に基づいてストレスを推定するので、対象者に負担をかけずにストレスを推定することが可能となる。
 [第2実施形態]
 次に、本発明の第2実施形態について説明する。第2実施形態は、ストレス推定に用いる特徴量が第1実施形態と異なるが、それ以外の点は第1実施形態と同様である。よって、第1実施形態と同様である事項については、重複した説明は行わない。第1実施形態では、覚醒度の1階微分又は2階微分が閾値未満である割合、即ち、「%(Δ覚醒度<閾値)」又は「%(ΔΔ覚醒度<閾値)」を特徴量として用いている。これに対し、第2実施形態では、覚醒度の1階微分又は2階微分の値のヒストグラムを特徴量として使用する。
 図10は、第2実施形態における特徴量を説明する図である。図10(A)は覚醒度の1階微分の値に基づいてヒストグラムを生成した例を示し、図10(B)は覚醒度の2階微分の値に基づいてヒストグラムを生成した例を示す。なお、ヒストグラムにおける頻度は正規化されている。ヒストグラムを構成する複数のビンの幅や数は予め適切に決定される。なお、ヒストグラムにおけるビンの幅及び数を自動調整する既知のニューラルネットワークなどを用いてもよい。第2実施形態では、このようにして生成したヒストグラムを規定する情報、具体的にはビンの幅や数、各ビンにおける頻度、ヒストグラムの形状そのものなどを特徴量として使用する。具体的には、ヒストグラムを規定する情報を訓練データとして学習を行い、ストレスモデルを予め生成しておく。そして、ストレス推定部23は、予め生成されたストレスモデルを使用し、特徴量算出部22が算出した特徴量、即ち、ヒストグラムを規定する情報からストレスを推定する。
 [第3実施形態]
 次に、本発明の第3実施形態について説明する。図11は、第3実施形態に係るストレス推定装置の機能構成を示すブロック図である。図示のように、ストレス推定装置70は、覚醒度取得部71と、特徴量算出部72と、ストレス推定部73と、を備える。覚醒度取得部71は、対象者の覚醒度を取得する。具体的には、覚醒度取得部71は、対象者の顔の撮影画像に基づいて覚醒度を生成しても良いし、外部装置により生成された覚醒度を単に受信するものであってもよい。特徴量算出部72は、取得された覚醒度の特徴量を算出する。覚醒度の特徴量は、覚醒度の時間変化が所定の範囲となる割合、覚醒度の時間変化の分布を示すヒストグラムを規定する情報などである。ストレス推定部73は、予め用意されたストレスモデルを用いて、算出された特徴量からストレスを推定する。
 [変形例]
 上記の実施形態では、対象者の覚醒度を用いてストレス推定を行っているが、対象者の眠気を示す指標を取得又は生成し、これを覚醒度として使用しても良い。但し、通常、眠気を示す指標は、眠気が大きいときに値が大きくなり、眠気が小さいときに値が小さくなるものである場合が多い。よって、その場合には、特徴量としては、覚醒度(=眠気)の1階微分又は2階微分が所定の閾値より大きい割合を使用すればよい。
 以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 1、70 ストレス推定装置
 2 カメラ
 12 プロセッサ
 13 メモリ
 14 記録媒体
 21 覚醒度生成部
 22 特徴量算出部
 23 ストレス推定部
 24 ストレスモデル記憶部

Claims (9)

  1.  対象者の覚醒度を取得する覚醒度取得部と、
     取得された覚醒度の特徴量を算出する特徴量算出部と、
     ストレスのモデルを用いて、算出された特徴量からストレスを推定するストレス推定部と、
     を備えるストレス推定装置。
  2.  前記覚醒度は時系列信号であり、
     前記特徴量は、前記覚醒度の時間変化が所定の範囲となる割合である請求項1に記載のストレス推定装置。
  3.  前記覚醒度は時系列信号であり、
     前記特徴量は、前記覚醒度の時間変化の分布を示すヒストグラムを規定する情報である請求項1に記載のストレス推定装置。
  4.  前記覚醒度の時間変化は、前記覚醒度の1階微分又は2階微分である請求項2又は3に記載のストレス推定装置。
  5.  前記覚醒度取得部は、対象者の覚醒中の覚醒度を取得する請求項1に記載のストレス推定装置。
  6.  前記覚醒度取得部は、対象者の顔の撮影画像を取得し、前記撮影画像を分析して前記対象者の開眼度を検出し、検出された開眼度に基づいて前記覚醒度を算出する請求項1乃至5のいずれか一項に記載のストレス推定装置。
  7.  前記ストレスのモデルは、前記特徴量を訓練データとし、当該特徴量における対象者のストレス値を教師ラベルとして予め学習により生成されたモデルである請求項1乃至6のいずれか一項に記載のストレス推定装置。
  8.  対象者の覚醒度を取得し、
     取得された覚醒度の特徴量を算出し、
     ストレスのモデルを用いて、算出された特徴量からストレスを推定するストレス推定方法。
  9.  対象者の覚醒度を取得し、
     取得された覚醒度の特徴量を算出し、
     ストレスのモデルを用いて、算出された特徴量からストレスを推定する処理をコンピュータに実行させるプログラムを記録した記録媒体。
PCT/JP2019/043491 2019-11-06 2019-11-06 ストレス推定装置、ストレス推定方法、及び、記録媒体 WO2021090402A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/771,876 US20220370009A1 (en) 2019-11-06 2019-11-06 Stress estimation device, stress estimation method, and recording media
JP2021554468A JP7279812B2 (ja) 2019-11-06 2019-11-06 ストレス推定装置、ストレス推定装置の作動方法、及び、プログラム
PCT/JP2019/043491 WO2021090402A1 (ja) 2019-11-06 2019-11-06 ストレス推定装置、ストレス推定方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/043491 WO2021090402A1 (ja) 2019-11-06 2019-11-06 ストレス推定装置、ストレス推定方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2021090402A1 true WO2021090402A1 (ja) 2021-05-14

Family

ID=75848805

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/043491 WO2021090402A1 (ja) 2019-11-06 2019-11-06 ストレス推定装置、ストレス推定方法、及び、記録媒体

Country Status (3)

Country Link
US (1) US20220370009A1 (ja)
JP (1) JP7279812B2 (ja)
WO (1) WO2021090402A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238574A1 (ja) * 2022-06-09 2023-12-14 株式会社村田製作所 疲労ストレス分析装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001198113A (ja) * 2000-01-18 2001-07-24 Toyota Central Res & Dev Lab Inc 疲労度演算装置
JP2009095387A (ja) * 2007-10-12 2009-05-07 Kagoshima Univ 測定システム及び測定方法
JP2009261516A (ja) * 2008-04-23 2009-11-12 Toyota Motor Corp 覚醒度推定装置
US20170071523A1 (en) * 2015-07-16 2017-03-16 Samsung Electronics Company, Ltd. Continuous Stress Measurement with Built-In Alarm Fatigue Reduction Features
JP2018005343A (ja) * 2016-06-28 2018-01-11 パナソニックIpマネジメント株式会社 運転支援装置及び運転支援方法
US20180310841A1 (en) * 2017-05-01 2018-11-01 Samsung Electronics Company, Ltd. Determining Artery Location Using Camera-Based Sensing
WO2019146123A1 (ja) * 2018-01-29 2019-08-01 日本電気株式会社 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001198113A (ja) * 2000-01-18 2001-07-24 Toyota Central Res & Dev Lab Inc 疲労度演算装置
JP2009095387A (ja) * 2007-10-12 2009-05-07 Kagoshima Univ 測定システム及び測定方法
JP2009261516A (ja) * 2008-04-23 2009-11-12 Toyota Motor Corp 覚醒度推定装置
US20170071523A1 (en) * 2015-07-16 2017-03-16 Samsung Electronics Company, Ltd. Continuous Stress Measurement with Built-In Alarm Fatigue Reduction Features
JP2018005343A (ja) * 2016-06-28 2018-01-11 パナソニックIpマネジメント株式会社 運転支援装置及び運転支援方法
US20180310841A1 (en) * 2017-05-01 2018-11-01 Samsung Electronics Company, Ltd. Determining Artery Location Using Camera-Based Sensing
WO2019146123A1 (ja) * 2018-01-29 2019-08-01 日本電気株式会社 覚醒度推定装置、覚醒度推定方法、及びコンピュータ読み取り可能な記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238574A1 (ja) * 2022-06-09 2023-12-14 株式会社村田製作所 疲労ストレス分析装置

Also Published As

Publication number Publication date
JP7279812B2 (ja) 2023-05-23
JPWO2021090402A1 (ja) 2021-05-14
US20220370009A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
Soukupova et al. Eye blink detection using facial landmarks
US6511424B1 (en) Method of and apparatus for evaluation and mitigation of microsleep events
Feuz et al. Automated detection of activity transitions for prompting
JP4638041B2 (ja) アクティグラフのデータを使って人の認知能力を予測する方法及びシステム
JP4204866B2 (ja) 人の認知能力を予測する方法、プログラム、記憶媒体および装置
JP4113434B2 (ja) アクティグラフからのデータを使って人の認知能力を予測する方法、プログラム、記憶媒体および装置
Kurylyak et al. Detection of the eye blinks for human's fatigue monitoring
US11406323B2 (en) Method and system for monitoring sleep quality
WO2015103558A1 (en) Automated sleep staging using wearable sensors
JP6999905B2 (ja) 注意力低下状態の推定のためのシステム、方法、プログラム、及びプログラムを記憶した記憶媒体
Kim et al. IoT-based unobtrusive sensing for sleep quality monitoring and assessment
Toivanen et al. A probabilistic real-time algorithm for detecting blinks, saccades, and fixations from EOG data
Srinivasan et al. Activity recognition using actigraph sensor
JP6935774B2 (ja) 推定システム、学習装置、学習方法、推定装置及び推定方法
Riztiane et al. Driver drowsiness detection using visual information on android device
WO2021090402A1 (ja) ストレス推定装置、ストレス推定方法、及び、記録媒体
JP6791361B2 (ja) 情報処理装置と方法とプログラム
JP2012223511A (ja) 心身状態回復促進装置およびこれを用いた心身状態回復システム
JP7211441B2 (ja) 覚醒度推定装置、覚醒度推定方法、及びプログラム
JP6604266B2 (ja) 眠気検知装置
Fernando et al. Unsupervised Blink Detection Using Eye Aspect Ratio Values
Liao et al. iWakeUp: A video‐based alarm clock for smart bedrooms
EP4358092A1 (en) Notification handling dependent upon user state
Peng et al. A distributed multimodality sensor system for home-used sleep condition inference and monitoring
Avramoni et al. Detection of Pill Intake Associated Gestures Using Smart Wearables and Machine Learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19951290

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021554468

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19951290

Country of ref document: EP

Kind code of ref document: A1