WO2020122227A1 - うつ状態を推定する装置、方法及びそのためのプログラム - Google Patents

うつ状態を推定する装置、方法及びそのためのプログラム Download PDF

Info

Publication number
WO2020122227A1
WO2020122227A1 PCT/JP2019/048904 JP2019048904W WO2020122227A1 WO 2020122227 A1 WO2020122227 A1 WO 2020122227A1 JP 2019048904 W JP2019048904 W JP 2019048904W WO 2020122227 A1 WO2020122227 A1 WO 2020122227A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
subject
estimating
unit time
estimation model
Prior art date
Application number
PCT/JP2019/048904
Other languages
English (en)
French (fr)
Inventor
泰士郎 岸本
雄基 田澤
國經 梁
卓仙 藤田
道孝 吉村
桃子 北沢
將 三村
Original Assignee
学校法人慶應義塾
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 学校法人慶應義塾 filed Critical 学校法人慶應義塾
Priority to US17/413,476 priority Critical patent/US20220059226A1/en
Priority to CN201980082589.5A priority patent/CN113164163A/zh
Priority to JP2020559336A priority patent/JPWO2020122227A1/ja
Priority to CA3123192A priority patent/CA3123192A1/en
Publication of WO2020122227A1 publication Critical patent/WO2020122227A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Definitions

  • the present invention relates to an apparatus, method and program for estimating a depressive state, and more specifically, an apparatus, method and method for estimating the depression state of depression or manic depression based on biometric data. Regarding the program.
  • Mood disorders are broadly classified into “depressive disorders” only for depressive episodes and “bipolar disorders” with symptoms called “manic episodes”.
  • Patent Document 1 a predetermined conditional expression based on the amount of activity and pulsation interval of the subject is provided. Techniques for determining bipolar disorder when satisfied are disclosed.
  • An object of the present invention is to provide a new apparatus, method, and program for estimating a depression state using a wearable device.
  • a first aspect of the present invention is a method of estimating a depression state of a subject based on biometric data, in which biometric data including a plurality of data types, A step of converting into unit time data of a predetermined time unit, a step of extracting one or a plurality of feature amounts based on the unit time data, and a predetermined number of at least a part of the one or a plurality of feature amounts as inputs Estimating the depression state using the estimated model.
  • a second aspect of the present invention is characterized in that, in the first aspect, the biometric data is data measured by a wearable device worn by the subject or data corresponding thereto.
  • a third aspect of the present invention is characterized in that, in the first or second aspect, the biometric data is data measured over a period of 48 hours or more or data corresponding thereto.
  • a fourth aspect of the present invention is characterized in that, in any one of the first to third aspects, the predetermined time is 1 hour.
  • a fifth aspect of the present invention is characterized in that, in any one of the first to fourth aspects, the plurality of data types includes skin temperature.
  • a sixth aspect of the present invention in the fifth aspect, wherein the plurality of data types further include at least one of steps, energy consumption, body movement, heart rate, sleep state, and ultraviolet ray level. Is characterized by.
  • a seventh aspect of the present invention is characterized in that, in any one of the first to sixth aspects, the one or more feature amounts are the quantile of the unit time data of each data type, the quantile of each unit of the data type. It is characterized in that it includes at least one of a standard deviation of unit time data and a correlation coefficient of each combination of a plurality of data types.
  • An eighth aspect of the present invention is characterized in that, in any one of the first to seventh aspects, the at least a part of the one or more feature amounts is selected by regularization.
  • a ninth aspect of the present invention is characterized in that, in any one of the first to eighth aspects, the estimation model is a model for estimating the presence or absence of a depressive state generated by machine learning.
  • a tenth aspect of the present invention is characterized in that, in any of the first to eighth aspects, the estimation model is a model for estimating the severity of a depression state generated by machine learning. ..
  • the eleventh aspect of the present invention is characterized in that, in the tenth aspect, the severity is a HAMD score.
  • a twelfth aspect of the present invention is characterized in that, in the tenth or eleventh aspect, the biometric data is data measured over a period of 72 hours or more or data corresponding thereto.
  • a thirteenth aspect of the present invention is a program for causing a computer to execute a method for estimating a depression state of a subject based on biometric data, wherein the method stores biometric data including a plurality of data types. For each data type, a step of converting into unit time data of a predetermined time unit, a step of extracting one or more characteristic amounts from the unit time data, and an input of at least a part of the one or more characteristic amounts , Estimating a depression state using a predetermined estimation model.
  • a fourteenth aspect of the present invention is a device for estimating a depression state of a subject based on biometric data, wherein biometric data including a plurality of data types is unit time data of a predetermined time unit for each data type. And extracting one or a plurality of feature quantities from the unit time data, inputting at least a part of the one or a plurality of feature quantities, and estimating a depression state using a predetermined estimation model.
  • a fifteenth aspect of the present invention is a method of generating an estimation model for estimating a depression state based on biometric data of a plurality of subjects, wherein biometric data including a plurality of data types is data for each subject. For each type, a step of converting into unit time data of a predetermined time unit, a step of extracting one or more characteristic amounts from the unit time data for each subject, and a step of extracting the one or more characteristic amounts of each subject. And a step of generating the estimation model by machine learning using teacher data in which at least a part of the input vector is used as a label and a diagnosis result by an expert for each subject is used as a label.
  • a sixteenth aspect of the present invention is characterized in that, in the fifteenth aspect, the machine learning is ensemble learning.
  • a seventeenth aspect of the present invention is based on the fifteenth or sixteenth aspect, wherein the one or more characteristic amounts are quantiles of the unit time data of each data type, and the unit time data of each data type. Standard deviation and/or correlation coefficient of each combination of a plurality of data types.
  • the eighteenth aspect of the present invention is characterized in that, in any one of the fifteenth to seventeenth aspects, at least a part of the one or more feature amounts is selected by regularization.
  • a nineteenth aspect of the present invention is a program for causing a computer to execute a method for generating an estimation model for estimating a depression state based on biological data of a plurality of subjects, wherein the generation method comprises: A step of converting biometric data including a plurality of data types for each subject into unit time data of a predetermined time unit for each data type; and extracting one or a plurality of feature quantities from the unit time data for each subject And a step of generating the estimation model by machine learning using at least a part of the one or more feature amounts of each subject as input and using teacher data with a diagnosis result by an expert for each subject as a label. It is characterized by including and.
  • a twentieth aspect of the present invention is a device that generates an estimation model for estimating a depression state based on biometric data of a plurality of subjects, and obtains biometric data including a plurality of data types for each subject. For each data type, it is converted into unit time data of a predetermined time unit, one or more characteristic quantities are extracted from the unit time data for each subject, and at least a part of the one or more characteristic quantities of each subject is extracted. Is input, and the estimation model is generated by machine learning using teacher data in which a diagnosis result by an expert for each subject is used as a label.
  • biometric data including a plurality of data types is acquired using a wearable device, and a depression state is estimated by one or a plurality of feature amounts based on the biometric data, thereby estimating a conventional estimation technique. Can be improved.
  • a wristband type product called Silmee (registered trademark) W20 including an acceleration sensor, a pulse sensor, an ultraviolet sensor and a temperature sensor is used.
  • the acceleration sensor obtains biological data regarding the number of steps, energy consumption, body movements and sleep state
  • the ultraviolet sensor obtains an ultraviolet level
  • the temperature sensor obtains biological data relating to the skin temperature.
  • the biological data regarding the sleep state obtained from the acceleration sensor has a predetermined value calculated from the acceleration in each axis direction of the triaxial acceleration sensor, as in the method known as actigraphy. It can be obtained by determining that it is awake if it exceeds the threshold of, and by determining that it is sleeping if it does not exceed.
  • the sleep state at each time or each time when the value of the acceleration sensor is recorded is represented by 1 if the sleeping state is a sleep state, and is represented by 0 if the awake state is awake state. It is possible to evaluate the time when the state in which 1 is 1 is continuous as the sleep time and evaluate the start time and the end time as the bedtime and the wakeup time, respectively. Further, as an example, in the sleep state evaluation, a value such as a heart rate other than the value of the acceleration sensor may be reflected.
  • the biological data relating to the skin temperature (skin temperature) obtained from the temperature sensor can be obtained, more specifically, by measuring the skin temperature of a part such as a wrist on which the wearable device 110 is worn.
  • Accurate body temperature is called core temperature and is obtained by measuring rectal temperature, axillary temperature, etc.
  • the skin temperature measured in this embodiment does not impose a burden on the subject for measurement, and continuous data is obtained. Makes it possible to obtain
  • FIG. 1 shows an apparatus according to this embodiment.
  • the apparatus 100 is connected to the wearable device 110 in a wired or wireless manner and receives biometric data obtained by the wearable device 110.
  • the wearable device 110 is connected to a mobile terminal such as a smartphone and receives data via the mobile terminal, or the wearable device 110 is not connected to the Internet via the wearable device 110, instead of directly receiving the biometric data as illustrated.
  • It may be connected to a server on the IP network such as, and receive data via the server, or input the obtained biometric data to the apparatus 100 via the USB cradle.
  • the apparatus 100 includes a processing unit 101 such as a processor and a CPU, a storage unit 102 including a storage device or a storage medium such as a memory and a hard disk, and a communication unit 103 such as a communication interface for communicating with other devices in a wired or wireless manner. And a program for performing each process is executed by the processing unit 101.
  • the device 100 may include one or a plurality of devices, a computer or a server, the program may include one or a plurality of programs, and the program may be recorded in a computer-readable storage medium. Can be a sex program product.
  • an estimation model for estimating the presence/absence of a depressed state is generated by machine learning. Then, a new subject's depression state is estimated using the estimation model.
  • the generation of the estimation model and the estimation using the estimation model will be described separately. Although both are described as processing in the apparatus 100, it is assumed that the generation of the estimation model and the estimation using the estimation model can be performed by different computers.
  • the method according to the present embodiment is useful for screening for a depressed state, and can be particularly used for medical examinations in industrial health.
  • the biometric data for m days (m is a positive number) from 1 person (l is a positive integer) for each data type is a predetermined time unit data such as one hour (hereinafter, “unit time data ( (unit time data)”)) (S201).
  • the data types included in the biometric data include steps, energy consumption, body movement, heart rate, sleep state, skin temperature, and ultraviolet ray level.
  • the data type may also be referred to as a modality.
  • the number of steps, energy consumption, body movement, and sleep state, that is, sleep time is a value accumulated over a predetermined time period
  • heart rate, skin temperature, and UV level are the average values at the predetermined time period. It can be time data. Further, it may be a value obtained by integrating the heart rate, the skin temperature, and the ultraviolet ray level over a predetermined time.
  • the case where the unit time data is one hour is taken as an example.
  • the standard deviation of the distribution of the obtained 24 m sample data is calculated for each subject and for each data type (S203).
  • a correlation coefficient such as a Pearson correlation coefficient is calculated for each combination of data types (S204). If there are seven data types as described above, there are 21 combinations. Although the order of the quantile, standard deviation, and Pearson correlation coefficient is described here, they can be performed in any order.
  • the feature quantities such as quantiles, standard deviations, and correlation coefficients extracted from the biometric data of each subject in this way are input or input vectors, and the presence or absence of depression state by a specialist such as a doctor for each subject (presence). or absense) is used as a label, and the estimation model for the classification problem of whether or not the patient is depressed is trained by machine learning using the results of l-1 persons as teacher data (S206).
  • the generated estimation model is stored in the storage unit 102 of the device 100 that performs estimation using the estimation model or a storage medium or a storage device accessible from the device 100.
  • the subset that is a part of the extracted feature amount may be selected by, for example, L1 regularization, L2 regularization, which is one of the regularization methods, or Elastic Net that combines these (S205), and this may be used as the input vector.
  • machine learning can be performed by ensemble learning such as XGBoost, which is one method of gradient boosting.
  • k-fold cross validation is a method of repeating verification k times using any one set of data obtained by dividing teacher data by k. Since the verification method affects the data used for learning and thus the accuracy of the estimation model to be generated, the k-divided cross verification generally mitigates the problem of overfitting as compared with LOOCV.
  • the biometric data of m′ days (m′ is a positive number) of the subject for whom the presence/absence of depression is determined is converted into unit time data for each data type (S301).
  • the conversion to the unit time data is performed by further converting the biometric data measured by the wearable device 110 or the data corresponding to the biometric data processed by the wearable device 110 or the apparatus 100 into 1-minute data.
  • Various methods can be used, such as conversion into time unit data. This point is the same when the prediction model is generated. However, it is desirable that the unit time at the time of estimation and the unit time at the time of generation are the same.
  • the feature amount is extracted and stored for each data type (S302). If necessary, a subset of the feature amount is selected, and the presence or absence of the depression state is estimated using the estimation model generated in advance using the feature amount or the subset as an input or an input vector (S303).
  • the specific product is given as an example of the wearable device, but any device that includes an acceleration sensor, a pulse sensor, an ultraviolet sensor, and a temperature sensor may be used, and it greatly contributes to the high accuracy of the prediction model. It is preferable that the wearable device includes at least a temperature sensor considered to be.
  • method etc. has an aspect of performing an operation different from the operation described in this specification, each of the present invention
  • the aspect is intended for the same operation as any one of the operations described in the present specification, and the existence of an operation different from the operation described in the present specification means that the method etc. It is added that it does not fall outside the scope of the embodiment.
  • Example 1-1 Biological data for two or more days for 62 subjects were acquired using Silveree W20, and an estimation model was generated by the method according to the present embodiment. The estimation model was verified by leave-one-out cross-validation. The following table shows the result of comparison between the estimation result of the presence/absence of a depression state using the estimation model and the diagnosis result by the doctor.
  • the biometric data two or more days out of the six days before the diagnosis date are used, and subset selection by Elastic Net and machine learning by XGBoost are performed.
  • the unit time data is a value in units of 1 hour.
  • HAMD Hamilton Rating Scale
  • the depression state is estimated with high accuracy, and that it is possible to screen a healthy person and a depressed patient.
  • the biometric data includes two or more data types including the skin temperature and at least one of the number of steps, energy, body movement, heart rate, sleep state, and ultraviolet ray level.
  • Example 1-2 Under the same conditions as in Example 1-1, biometric data for three or more days out of six days before the diagnosis date was acquired for 55 subjects, and the estimation model generation and the depression state were performed by the method according to the present embodiment.
  • the following table shows the results of the estimation.
  • the accuracy rate was 0.855, the sensitivity was 0.862, and the specificity was 0.846.
  • the depression state is estimated with high accuracy, but no significant improvement in precision is observed as compared with the estimation of the presence or absence of the depression state performed on the biometric data for two days. It can be said that the method according to the present embodiment can obtain sufficiently high accuracy by using biometric data for 2 days or 48 hours. This leads to a reduction in the period in which the subject has to wear the wearable device 110, and a short wearing time and a small burden on the subject promote the spread of screening for early detection of depression.
  • Example 1-3 Biological data for three or more days for 86 test subjects were acquired using Silveree W20, and the estimation model was generated by the method according to the present embodiment. The estimation model was verified by 10-fold cross validation. The following table shows the result of comparison between the estimation result of the presence/absence of a depression state using the estimation model and the diagnosis result by the doctor.
  • As the biometric data 228 sample data obtained for 86 people were divided into 10. Here, the data of the same test subject was made to fit in the same set (fold). In addition, we obtained multiple datasets from some subjects. Machine selection by XGBoost is performed without selecting a subset.
  • the unit time data is a value in units of 1 hour.
  • the accuracy rate was 0.737, the sensitivity was 0.661, and the specificity was 0.807. It is considered that the relaxation of overfitting caused by changing the verification method from LOOCV to 10-fold cross verification causes a slight decrease in the accuracy rate, etc., but the estimation is still performed with high accuracy.
  • the following table shows the result of calculating the importance of each feature amount indicating which feature amount contributes significantly to the estimation result.
  • the importance of each feature is estimated by calculating how much the model accuracy improves when is changed, and the service "Azure Machine Learning (trademark)" provided by Microsoft was used. The importance is 1 when all feature quantities are summed up.
  • the correlation coefficient between sleep state and skin temperature, the 50th percentile of skin temperature, and the standard deviation of body movement are highly important feature values, and it is confirmed that the contribution of skin temperature is large. It was Further, the contribution of the correlation coefficient between the skin temperature and the sleep state is large, and it can be said that it is preferable that the biological data includes the sleep state in addition to the skin temperature.
  • the second embodiment of the present invention makes it possible to estimate not only the presence/absence of a depressive state, but also the presence/absence of a depressive state in order to estimate the severity of depression.
  • an estimation model for estimating the severity of a depressive state is generated by machine learning. Then, the severity of the new subject's depressed state is estimated using the estimation model.
  • the generation of the estimation model in this embodiment is similar to that described with reference to FIG. 2 in the first embodiment, and the diagnosis result of the doctor used in machine learning is not the presence/absence of depression but the depression. It differs in that it is a score of severity and that the algorithm used in machine learning is not an algorithm suitable for a classification problem but an algorithm suitable for a regression problem.
  • the estimation using the estimation model in the present embodiment is the same as that described in the first embodiment with reference to FIG. 3, and the output is not the presence or absence of the depression but the severity of the depression. Different.
  • the Hamilton Rating Scale HAMD can be used for the severity of depression. There are several versions of HAMD17, and experts such as doctors evaluate 17 items, and there are 3 to 5 points for each item, for example, 7 points are normal, 8 to 13 points are mild, 14 A diagnosis of 18 to 18 is moderate, 19 to 22 is severe, and 23 or more is most severe.
  • the method of the present embodiment since it is possible to determine the severity of the depression state, it is possible to contribute to the precise determination necessary for treatment, such as the determination of the treatment policy for the depression state, the change of the prescription drug, etc. Highly useful in assisting diagnostic treatment in psychiatry.
  • Example 2-1 Biological data for two or more days for 62 subjects were acquired using Silveree W20, and an estimation model was generated by the method according to the present embodiment. The estimation model was verified by leave-one-out cross-validation.
  • FIG. 4 shows the result of comparison between the estimation result of the presence/absence of a depression state using the estimation model and the diagnosis result by the doctor.
  • the biometric data two or more days out of the six days before the diagnosis date are used, and subset selection by Elastic Net and machine learning by XGBoost are performed.
  • the unit time data is a value in units of 1 hour.
  • the average absolute error was 4.11, the correlation coefficient was 0.604, and the p-value was 2.04 ⁇ 10 ⁇ 7 .
  • R 2 is 0.341.
  • Example 2-2 Under the same conditions as in Example 2-1, biometric data of 55 subjects for 3 days or more were acquired, and an estimation model was generated and the severity of depression was estimated by the method according to the present embodiment. The result is shown in FIG.
  • the average absolute error was 3.29, the correlation coefficient was 0.763, and the p-value was 1.22 ⁇ 10 -11 .
  • R 2 is 0.570.
  • This result shows a higher correlation coefficient than that of Example 2-1, and it is necessary to wear it for 3 days or 72 hours or more in order to obtain a high estimation accuracy exceeding 0.700 in severity estimation. It turns out that there is a high possibility that This means that, in contrast to Examples 1-1 and 1-2, the model for estimating the severity of the depressive state is longer than the model for estimating the presence/absence of the depressive state in the biological data measured. It means that it is preferable to generate by using.
  • Example 2-3 Biological data for 7 or more days for 86 test subjects were acquired using Silveree W20, and the estimation model was generated by the method according to the present embodiment. The estimation model was verified by 10-fold cross validation. Then, FIG. 6 shows a result of comparison between the estimation result of the presence or absence of the depression state using the estimation model and the diagnosis result by the doctor.
  • the biometric data 236 sample data obtained for 86 people were divided into 10 parts. Here, the data of the same test subject was made to fit in the same set (fold). In addition, we obtained multiple datasets from some subjects. Machine selection by XGBoost is performed without selecting a subset. The unit time data is a value in units of 1 hour.
  • the average absolute error was 4.94
  • the correlation coefficient was 0.610
  • the p-value was 2.20 ⁇ 10 -16 .
  • R 2 is 0.372.
  • the following table shows the results of calculating the importance of each feature amount that indicates which feature amount contributes significantly to the estimation result. Specifically, this is provided by Microsoft. The service “Azure Machine Learning (trademark)" was used. The importance is 1 when all feature quantities are summed up.
  • the 95th percentile of the skin temperature, the correlation coefficient between the sleep state and the skin temperature, and the 50th percentile of the skin temperature were found to be the features of high importance, Similarly, it was confirmed that the contribution of skin temperature was large. Further, as in Example 1-3, the contribution of the correlation coefficient between the skin temperature and the sleep state is large, and it can be said that it is preferable that the biological data includes the sleep state in addition to the skin temperature.
  • apparatus 101 processing unit 102 storage unit 103 communication unit 110 wearable device

Abstract

ウェアラブルデバイスを用いてうつ状態を推定するための新たな方法を提供する。複数の被験者からの数日分の生体データをデータタイプごとに、1時間等のあらかじめ定めた時間単位のデータに変換する(S201)。次に、被験者ごと、かつ、データタイプごとに、得られたサンプルデータの分布の分位数を定める(S202)。また、被験者ごと、かつ、データタイプごとに、得られたサンプルデータの分布の標準偏差を算出する(S203)。そして、被験者ごとに、データタイプの各組合せについて、ピアソン相関係数を算出する(S204)。次いで、こうして各被験者の生体データから抽出された分位数、標準偏差及びピアソン相関係数という特徴量を入力ベクトル、各被験者についての医師等の専門家によるうつ状態の有無の評価をラベルとする教師データを用いた機械学習により、うつ状態か否かの分類問題の推定モデルを訓練する(S206)。 <u/>

Description

うつ状態を推定する装置、方法及びそのためのプログラム
 本発明は、うつ状態(depressive state)を推定する装置、方法及びそのためのプログラムに関し、より詳細には、生体データに基づいてうつ病又は躁うつ病のうつ状態を推定する装置、方法及びそのためのプログラムに関する。
 近年、先進国で精神疾患の有病者が増加しており、気分障害の一類型であるうつ病又は躁うつ病の患者数が特に多い。気分障害は、大きくうつ病エピソード(depressive episode)のみの「うつ病性障害」と「躁病エピソード」と呼ばれる症状を伴う「双極性障害」に大別される。
 うつ病又は躁うつ病によりうつ状態になると一般に気力が減退し、活動的でなくなることが言われており、特許文献1には、被験者の活動量と拍動間隔に基づいて所定の条件式が満たされる場合に双極性障害であると判定する技術が開示されている。
特開2018-33795号公報
 発明者らは、今後普及が見込まれるウェアラブルデバイスを活用することで、うつ状態の判定技術を改善可能であることを見出した。本発明の目的は、ウェアラブルデバイスを用いてうつ状態を推定するための新たな装置、方法及びそのためのプログラムを提供することにある。
 このような目的を達成するために、本発明の第1の態様は、生体データに基づいて被験者のうつ状態を推定する方法であって、複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換するステップと、前記単位時間データに基づいて1又は複数の特徴量を抽出するステップと、前記1又は複数の特徴量の少なくとも一部を入力として、あらかじめ定めた推定モデルを用いてうつ状態を推定するステップとを含むことを特徴とする。
 また、本発明の第2の態様は、第1の態様において、前記生体データは、前記被験者が身に付けたウェアラブルデバイスにより計測されたデータ又はそれに対応するデータであることを特徴とする。
 また、本発明の第3の態様は、第1又は第2の態様において、前記生体データは、48時間以上の期間にわたり計測されたデータ又はそれに対応するデータであることを特徴とする。
 また、本発明の第4の態様は、第1から第3のいずれかの態様において、前記所定の時間は1時間であることを特徴とする。
 また、本発明の第5の態様は、第1から第4のいずれかの態様において、前記複数のデータタイプは、肌温度を含むことを特徴とする。
 また、本発明の第6の態様は、第5の態様において、前記複数のデータタイプは、歩数、消費エネルギー、体動、心拍数、睡眠状態及び紫外線レベルのうちの少なくともいずれかをさらに含むことを特徴とする。
 また、本発明の第7の態様は、第1から第6のいずれかの態様において、前記1又は複数の特徴量は、各データタイプの前記単位時間データの分位数、各データタイプの前記単位時間データの標準偏差、及び複数のデータタイプの各組合せの相関係数の少なくともいずれかを含むことを特徴とする。
 また、本発明の第8の態様は、第1から第7のいずれかの態様において、前記1又は複数の特徴量の前記少なくとも一部は、正則化によって選択することを特徴とする。
 また、本発明の第9の態様は、第1から第8のいずれかの態様において、前記推定モデルは、機械学習により生成されたうつ状態の有無を推定するモデルであることを特徴とする。
 また、本発明の第10の態様は、第1から第8のいずれかの態様において、前記推定モデルは、機械学習により生成されたうつ状態の重症度を推定するモデルであることを特徴とする。
 また、本発明の第11の態様は、第10の態様において、前記重症度は、HAMDのスコアであることを特徴とする。
 また、本発明の第12の態様は、第10又は第11の態様において、前記生体データは、72時間以上の期間にわたり計測されたデータ又はそれに対応するデータであることを特徴とする。
 また、本発明の第13の態様は、コンピュータに、生体データに基づいて被験者のうつ状態を推定する方法を実行させるためのプログラムであって、前記方法は、複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換するステップと、前記単位時間データから1又は複数の特徴量を抽出するステップと、前記1又は複数の特徴量の少なくとも一部を入力として、あらかじめ定めた推定モデルを用いてうつ状態を推定するステップとを含むことを特徴とする。
 また、本発明の第14の態様は、生体データに基づいて被験者のうつ状態を推定する装置であって、複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換し、前記単位時間データから1又は複数の特徴量を抽出し、前記1又は複数の特徴量の少なくとも一部を入力として、あらかじめ定めた推定モデルを用いてうつ状態を推定することを特徴とする。
 また、本発明の第15の態様は、複数の被験者の生体データに基づいてうつ状態を推定するための推定モデルの生成方法であって、被験者ごとに、複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換するステップと、被験者ごとに、前記単位時間データから1又は複数の特徴量を抽出するステップと、各被験者の前記1又は複数の特徴量の少なくとも一部を入力ベクトルとし、各被験者についての専門家による診断結果をラベルとする教師データを用いた機械学習により、前記推定モデルを生成するステップとを含むことを特徴とする。
 また、本発明の第16の態様は、第15の態様において、前記機械学習は、アンサンブル学習であることを特徴とする。
 また、本発明の第17の態様は、第15又は第16の態様において、前記1又は複数の特徴量は、各データタイプの前記単位時間データの分位数、各データタイプの前記単位時間データの標準偏差、及び複数のデータタイプの各組合せの相関係数の少なくともいずれかを含むことを特徴とする。
 また、本発明の第18の態様は、第15から第17のいずれかの態様において、前記1又は複数の特徴量の前記少なくとも一部は、正則化によって選択することを特徴とする。
 また、本発明の第19の態様は、コンピュータに、複数の被験者の生体データに基づいてうつ状態を推定するための推定モデルの生成方法を実行させるためのプログラムであって、前記生成方法は、被験者ごとに、複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換するステップと、被験者ごとに、前記単位時間データから1又は複数の特徴量を抽出するステップと、各被験者の前記1又は複数の特徴量の少なくとも一部を入力とし、各被験者についての専門家による診断結果をラベルとする教師データを用いた機械学習により、前記推定モデルを生成するステップとを含むことを特徴とする。
 また、本発明の第20の態様は、複数の被験者の生体データに基づいてうつ状態を推定するための推定モデルを生成する装置であって、被験者ごとに、複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換し、被験者ごとに、前記単位時間データから1又は複数の特徴量を抽出し、各被験者の前記1又は複数の特徴量の少なくとも一部を入力とし、各被験者についての専門家による診断結果をラベルとする教師データを用いた機械学習により、前記推定モデルを生成することを特徴とする。
 本発明の一態様によれば、複数のデータタイプを含む生体データをウェアラブルデバイスを用いて取得し、当該生体データに基づく1又は複数の特徴量によりうつ状態を推定することによって、従来の推定技術を改善することができる。
本発明の第1の実施形態にかかる装置を示す図である。 本発明の第1の実施形態にかかる推定モデルの生成プロセスを説明するための図である。 本発明の第1の実施形態にかかる推定モデルを用いた推定プロセスを説明するための図である。 本発明の実施例2-1の推定結果の精度を示す図である。 本発明の実施例2-2の推定結果の精度を示す図である。 本発明の実施例2-3の推定結果の精度を示す図である。
 以下、図面を参照して本発明の実施形態を詳細に説明する。
 (第1の実施形態) 
 本発明の第1の実施形態では、ウェアラブルデバイスとして、リストバンド型で加速度センサ、脈拍センサ、紫外線センサ及び温度センサを備えるSilmee(登録商標)W20という製品を用いた。加速度センサから歩数、消費エネルギー、体動及び睡眠状態に関する生体データが得られ、紫外線センサからは紫外線レベルが得られ、温度センサから肌温度に関する生体データが得られる。
 加速度センサから得られる睡眠状態(sleep state)に関する生体データは、より具体的には、アクチグラフィーとして知られる手法と同様に、三軸加速度センサの各軸の方向における加速度から算出される値が所定の閾値を超えていれば起きている状態と判定し、越えていなければ寝ている状態と判定することによって得ることができる。一例として、加速度センサの値が記録される各時刻又は各時点における睡眠状態を寝ている状態(sleeping state)であれば1、起きている状態(awake state)であれば0によって表現し、値が1である状態が連続する時間を睡眠時間として評価し、その開始時刻及び終了時刻を就寝時刻及び起床時刻とそれぞれ評価することが可能である。また、一例として、睡眠状態の評価において、加速度センサの値以外の心拍数等の値も反映させることが挙げられる。
 温度センサから得られる肌温度(skin temperature)に関する生体データは、より具体的には、ウェアラブルデバイス110が着用される手首等の部位の肌温度を測定することによって得ることができる。正確な体温は、中核体温(core temperature)と呼ばれ、直腸温、腋窩温等の測定により得られるが、本実施形態において測定する肌温度は、被験者における測定の負担が小さく、継続的なデータの取得を現実的に可能にする。
 図1に、本実施形態にかかる装置を示す。装置100は、ウェアラブルデバイス110と有線又は無線で接続され、ウェアラブルデバイス110により得られる生体データを受け取る。装置100は、図示のように直接的に生体データを受信するのではなく、ウェアラブルデバイス110がスマートフォンなどの携帯端末と接続され、当該携帯端末を介してデータを受信したり、ウェアラブルデバイス110がインターネットなどのIPネットワーク上のサーバと接続され、当該サーバを介してデータを受信したり、得られた生体データをUSBクレードルを通じて装置100に入力したりしてもよい。
 装置100は、プロセッサ、CPU等の処理部101と、メモリ、ハードディスク等の記憶装置又は記憶媒体を含む記憶部102と、有線又は無線で他のデバイスと通信するための通信インターフェースなどの通信部103とを備え、各処理を行うためのプログラムを処理部101において実行することによって構成することができる。装置100は、1又は複数の装置、コンピュータないしサーバを含むことがあり、また当該プログラムは、1又は複数のプログラムを含むことがあり、また、コンピュータ読み取り可能な記憶媒体に記録して非一過性のプログラムプロダクトとすることができる。
 本実施形態においては、まず、複数の被験者からウェアラブルデバイス110により得られる生体データを用いて、うつ状態の有無を推定するための推定モデルを機械学習によって生成する。そして、当該推定モデルを用いて新たな被験者のうつ状態の推定を行う。以下では、推定モデルの生成と推定モデルを用いた推定に分けて説明する。共に装置100における処理として説明するが、推定モデルの生成と推定モデルを用いた推定が異なるコンピュータにおいて行われ得ることが想定されている。本実施形態にかかる手法は、うつ状態のスクリーニングに有用であり、特に産業保健での健康診断などで活用可能である。
 推定モデルの生成 
 l人(lは正の整数)の被験者からのm日分(mは正の数)の生体データをデータタイプごとに、1時間等のあらかじめ定めた時間単位のデータ(以下「単位時間データ(unit time data)」と呼ぶ。)に変換する(S201)。生体データに含まれるデータタイプとして、歩数、消費エネルギー、体動、心拍数、睡眠状態、肌温度及び紫外線レベルが挙げられる。データタイプは、モダリティ(modality)とも呼ぶことがある。一例として、歩数、消費エネルギー、体動、及び睡眠状態、すなわち睡眠時間については、あらかじめ定めた時間にわたって積算した値、心拍数、肌温度及び紫外線レベルについては、あらかじめ定めた時間における平均値を単位時間データとすることができる。また、心拍数、肌温度及び紫外線レベルについて、あらかじめ定めた時間にわたって積算した値としてもよい。
 次に、被験者ごと、かつ、データタイプごとに、得られた24mのサンプルデータの分布のn個(nは正の整数)の分位数を定める(S202)。たとえばn=5として、第5百分位数、第25百分位数、第50百分位数、第75百分位数、第95百分位数の5個の分位数を記憶する。ここでは、単位時間データが1時間単位である場合を例としている。
 また、被験者ごと、かつ、データタイプごとに、得られた24mのサンプルデータの分布の標準偏差を算出する(S203)。
 そして、被験者ごとに、データタイプの各組合せについて、ピアソン相関係数等の相関係数を算出する(S204)。データタイプが上述の7個であれば21通りの組合せがある。ここでは分位数、標準偏差、そしてピアソン相関係数の順序で説明したが、これらは順不同で行うことができる。
 次いで、こうして各被験者の生体データから抽出された分位数、標準偏差及び相関係数という特徴量(feature)を入力ないし入力ベクトル、各被験者についての医師等の専門家によるうつ状態の有無(presence or absence)の評価をラベルとして、l-1人の結果を教師データとして用いた機械学習により、うつ状態か否かの分類問題の推定モデルを訓練する(S206)。生成された推定モデルは、当該推定モデルを用いた推定を行う装置100の記憶部102又は装置100からアクセス可能な記憶媒体又は記憶装置に記憶される。
 抽出した特徴量の一部であるサブセットをたとえば正則化の一手法であるL1正則化、L2正則化、これらを組み合わせたElastic Netなどによって選択して(S205)、これを入力ベクトルとしてもよい。また、機械学習は、勾配ブースティングの一手法であるXGBoostなどのアンサンブル学習によって行うことができる。
 教師データから除いた1人の結果を用いて、生成した推定モデルの交差検証(cross validation)を行う。推定モデルの妥当性の検証はこうしたleave-one-out交差検証(LOOCV)に必ずしも限るものではないことを付言する。具体例として、k分割交差検証(k-fold cross validation)が挙げられ、これは、教師データをk分割して分割されたいずれか1組のデータを用いる検証をk回繰り返す手法である。検証の手法は、学習に用いるデータに影響を与えるため、生成される推定モデルの精度にも影響を及ぼすところ、k分割交差検証は一般に、LOOCVと比較してオーバーフィッティングの問題を緩和する。
 推定モデルを用いた推定 
 うつ状態の有無の判定を行う被験者のm’日分(m’は正の数)の生体データをデータタイプごとに単位時間データに変換する(S301)。単位時間データへの変換は、ウェアラブルデバイス110が測定した生体データ又はそれに対してウェアラブルデバイス110若しくは装置100において処理を施した当該生体データに対応するデータを1分単位のデータに変換した後にさらに1時間単位のデータに変換して行うなど、さまざまな手法を用いることができる。この点は、予測モデルの生成時においても同様である。ただし、推定時の単位時間と生成時の単位時間は等しいことが望ましい。
 そして、データタイプごとに、特徴量を抽出して記憶する(S302)。必要に応じて特徴量のサブセットを選択し、特徴量又はそのサブセットを入力ないし入力ベクトルとして、あらかじめ生成された推定モデルを用いてうつ状態の有無を推定する(S303)。
 上述の説明では、特定の製品をウェアラブルデバイスの例として挙げたが、加速度センサ、脈拍センサ、紫外線センサ及び温度センサを備えるものであればよく、また、予測モデルの高精度に大きく寄与していると考えられる温度センサを少なくとも備えるウェアラブルデバイスとするのが好ましい。
 なお、「××のみに基づいて」、「××のみに応じて」、「××のみの場合」というように「のみ」との記載がなければ、本明細書においては、付加的な情報も考慮し得ることが想定されていることに留意されたい。また、一例として、「aの場合にbする」という記載は、明示した場合を除き、「aの場合に常にbする」ことを必ずしも意味しないことに留意されたい。
 また、念のため、なんらかの方法、プログラム、端末、装置、サーバ又はシステム(以下「方法等」)において、本明細書で記述された動作と異なる動作を行う側面があるとしても、本発明の各態様は、本明細書で記述された動作のいずれかと同一の動作を対象とするものであり、本明細書で記述された動作と異なる動作が存在することは、当該方法等を本発明の各態様の範囲外とするものではないことを付言する。
 実施例1-1 
 62人の被験者について2日分以上の生体データをSilmee W20を用いて取得し、本実施形態にかかる手法によって推定モデルを生成した。推定モデルの検証は、leave-one-out交差検証により行った。そして、当該推定モデルを用いたうつ状態の有無の推定結果と医師による診断結果と比較した結果が以下の表である。生体データは、診断日前の6日間のうちの2日分以上を用いており、Elastic Netによるサブセットの選択及びXGBoostによる機械学習がなされている。単位時間データは、1時間単位の値である。
Figure JPOXMLDOC01-appb-T000001
 医師によるうつ病の診断は、うつ病の一般的な診断指標であるハミルトン評価尺度HAMDを用いており、本実施例においてはHAMD17のカットオフを7とし、スコアが7を超える場合にうつ病と判断した。正解率(accuracy)は0.854、感度(recall)は0.906、特異度(specificity)は0.800であった。
 本実施例によれば、高い精度でうつ状態の推定がなされており、健常者とうつ病患者とをスクリーニング可能であることが分かる。発明者らの知る限り従来うつ状態の推定に有益であると指摘された例のない肌温度を、これまで指摘されている心拍数などに組み合わせることが高い精度の実現に寄与しているものと考えられる。したがって、生体データとしては、肌温度と、歩数、エネルギー、体動、心拍数、睡眠状態及び紫外線レベルの少なくともいずれかとを含む2以上のデータタイプを含むことが好ましい。
 実施例1-2 
 実施例1-1と同様の条件下で、55人の被験者について診断日前の6日間のうちの3日分以上の生体データを取得し、本実施形態にかかる手法によって推定モデルの生成及びうつ状態の推定を行った結果が以下の表である。
Figure JPOXMLDOC01-appb-T000002
 正解率は0.855、感度は0.862、特異度は0.846であった。
 本実施例によれば、高い精度でうつ状態の推定がなされていることが分かるが、2日分の生体データで行ったうつ状態の有無の推定と比較して顕著な精度向上はみられず、本実施形態にかかる手法が、2日分又は48時間分の生体データを用いれば十分に高い精度を得られるものであると言える。このことは、被験者がウェアラブルデバイス110を着用しなければならない期間の短縮につながり、着用時間が短く被験者の負担が小さいことは、うつ病早期発見のためのスクリーニングの普及を促す。
 実施例1-3 
 86人の被験者について3日分以上の生体データをSilmee W20を用いて取得し、本実施形態にかかる手法によって推定モデルを生成した。推定モデルの検証は、10-fold交差検証により行った。そして、当該推定モデルを用いたうつ状態の有無の推定結果と医師による診断結果と比較した結果が以下の表である。生体データは、86人について得られた228個のサンプルデータを10分割した。ここで、同一の被験者のデータは同一の組(fold)に収まるようにした。また、一部の被験者からは複数のデータセットを取得している。サブセットの選択は行わず、XGBoostによる機械学習がなされている。単位時間データは、1時間単位の値である。
Figure JPOXMLDOC01-appb-T000003
 正解率は0.737、感度は0.661、特異度は0.807であった。検証手法をLOOCVから10-fold交差検証に変えたことによるオーバーフィッティングの緩和が正解率等の若干の低下を招いていると考えられるが、依然として高い精度での推定がなされている。
 生成された推定モデルにおいて、いずれの特徴量が推定結果に大きく寄与しているかを示す各特徴量の重要度(importance)を計算した結果が以下の表であり、具体的には、ある特徴量を変化させた時にどれくらいモデル精度が改善するかを計算することで特徴量ごとの重要度を推定しており、マイクロソフトが提供するサービス「Azure Machine Learning(商標)」を用いた。すべての特徴量について合計すると重要度は1となる。
Figure JPOXMLDOC01-appb-T000004
 睡眠状態と肌温度との相関係数、肌温度の第50百分位数、そして体動の標準偏差が重要度の高い特徴量であることが分かり、肌温度の寄与が大きいことが確認された。また、肌温度と睡眠状態との相関係数の寄与も大きく、生体データとして、肌温度に加えて睡眠状態を含むことが好ましいと言える。
 (第2の実施形態) 
 本発明の第2の実施形態は、うつ状態の有無のみならず、あるいはうつ状態の有無に代替して、うつ状態の重症度(severity)を推定可能とする。まず、複数の被験者からウェアラブルデバイス110により得られる生体データを用いて、うつ状態の重症度を推定するための推定モデルを機械学習によって生成する。そして、当該推定モデルを用いて新たな被験者のうつ状態の重症度を推定する。
 本実施形態における推定モデルの生成は、第1の実施形態において図2を参照して説明したものと同様であり、機械学習の際に用いる医師の診断結果がうつ状態の有無ではなくうつ状態の重症度のスコアである点と、機械学習で用いるアルゴリズムが分類問題に適したアルゴリズムではなく回帰問題に適したアルゴリズムである点で異なる。
 また、本実施形態における推定モデルを用いた推定は、第1の実施形態において図3を参照して説明したものと同様であり、出力がうつ状態の有無ではなくうつ状態の重症度である点で異なる。
 うつ状態の重症度には、ハミルトン評価尺度HAMDを用いることができる。いくつかのバージョンがあり、HAMD17は、医師等の専門家が17項目を評価していき、各項目について3~5点まであり、たとえば、7点までが正常、8~13点が軽症、14~18点が中等症、19~22点は重症、23点以上は最重症のように診断が行われる。
 本実施形態の手法によれば、うつ状態の重症度を判定可能であるため、うつ状態の治療方針の判断、処方薬の変更など、治療上必要な緻密な判断にまで寄与することができ、精神科臨床における診断治療補助において有益性が高い。
 実施例2-1 
 62人の被験者について2日分以上の生体データをSilmee W20を用いて取得し、本実施形態にかかる手法によって推定モデルを生成した。推定モデルの検証は、leave-one-out交差検証により行った。そして、当該推定モデルを用いたうつ状態の有無の推定結果と医師による診断結果と比較した結果が図4である。生体データは、診断日前の6日間のうちの2日分以上を用いており、Elastic Netによるサブセットの選択及びXGBoostによる機械学習がなされている。単位時間データは、1時間単位の値である。
 平均絶対誤差(mean absolute error)は4.11で、相関係数(correlation coefficient)は0.604、p値は2.04×10-7という結果となった。R2は0.341である。
 実施例2-2 
 実施例2-1と同様の条件下で、55人の被験者について3日分以上の生体データを取得し、本実施形態にかかる手法によって推定モデルの生成及びうつ状態の重症度の推定を行った結果が図5である。
 平均絶対誤差は3.29で、相関係数は0.763、p値は1.22×10-11という結果となった。R2は0.570である。この結果は、実施例2-1と比較して高い相関係数を示しており、重症度推定においては、0.700を超える高い推定精度を得るには3日間又は72時間程度又は以上の着用が必要である可能性が高いということが分かる。このことは、実施例1-1及び1-2と対比すれば、うつ状態の重症度を推定するためのモデルは、うつ状態の有無を推定するためのモデルよりも長期間計測された生体データを用いて生成することが好ましいことを意味する。
 実施例2-3 
 86人の被験者について7日分以上の生体データをSilmee W20を用いて取得し、本実施形態にかかる手法によって推定モデルを生成した。推定モデルの検証は、10-fold交差検証により行った。そして、当該推定モデルを用いたうつ状態の有無の推定結果と医師による診断結果と比較した結果が図6である。生体データは、86人について得られた236個のサンプルデータを10分割した。ここで、同一の被験者のデータは同一の組(fold)に収まるようにした。また、一部の被験者からは複数のデータセットを取得している。サブセットの選択は行わず、XGBoostによる機械学習がなされている。単位時間データは、1時間単位の値である。
 平均絶対誤差は4.94で、相関係数は0.610、p値は2.20×10-16という結果となった。R2は0.372である。検証手法をLOOCVから10-fold交差検証に変えたことによるオーバーシューティングの緩和が相関係数等の若干の低下を招いていると考えられるが、依然として高い精度での推定がなされている。
 生成された推定モデルにおいて、いずれの特徴量が推定結果に大きく寄与しているかを示す各特徴量の重要度(importance)を計算した結果が以下の表であり、具体的にはマイクロソフトが提供するサービス「Azure Machine Learning(商標)」を用いた。すべての特徴量について合計すると重要度は1となる。
Figure JPOXMLDOC01-appb-T000005
 肌温度の第95百分位数、睡眠状態と肌温度との相関係数、そして肌温度の第50百分位数が重要度の高い特徴量であることが分かり、実施例1-3と同様に、肌温度の寄与が大きいことが確認された。また、実施例1-3と同様に、肌温度と睡眠状態との相関係数の寄与も大きく、生体データとして、肌温度に加えて睡眠状態を含むことが好ましいと言える。
 100 装置
 101 処理部
 102 記憶部
 103 通信部
 110 ウェアラブルデバイス

Claims (20)

  1.  被験者が身に付けたウェアラブルデバイスにより計測された生体データに基づいて被験者のうつ状態を推定する方法であって、
     複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換するステップと、
     前記単位時間データに基づいて1又は複数の特徴量を抽出するステップと、
     前記1又は複数の特徴量の少なくとも一部を入力として、あらかじめ定めた推定モデルを用いてうつ状態を推定するステップと
    を含み、
     前記1又は複数の特徴量は、各データタイプの前記単位時間データの分位数及び複数のデータタイプの各組合せの相関係数を含むことを特徴とする方法。
  2.  前記所定の時間単位は1時間単位であることを特徴とする1に記載の方法。
  3.  前記複数のデータタイプは、肌温度を含むことを特徴とする請求項1から4のいずれかに記載の方法。
  4.  前記1又は複数の特徴量は、肌温度の分位数を含むことを特徴とする請求項3に記載の方法。
  5.  前記複数のデータタイプは、睡眠状態を含むことを特徴とする請求項3又は4に記載の方法。
  6.  前記1又は複数の特徴量は、肌温度と睡眠状態との相関係数を含むことを特徴とする請求項5に記載の方法。
  7.  前記1又は複数の特徴量は、各データタイプの前記単位時間データの標準偏差をさらに含むことを特徴とする請求項1から6のいずれかに記載の方法。
  8.  前記1又は複数の特徴量の前記少なくとも一部は、正則化によって選択することを特徴とする請求項1から7のいずれかに記載の方法。
  9.  前記推定モデルは、機械学習により生成されたうつ状態の有無を推定するモデルであることを特徴とする請求項1から8のいずれかに記載の方法。
  10.  前記推定モデルは、機械学習により生成されたうつ状態の重症度を推定するモデルであることを特徴とする請求項1から8のいずれかに記載の方法。
  11.  前記重症度は、HAMDのスコアであることを特徴とする請求項10に記載の方法。
  12.  前記推定モデルは、機械学習により生成されたうつ状態の有無を推定する第1のモデル及び機械学習により生成されたうつ状態の重症度を推定する第2のモデルを含み、
     前記第2のモデルは生成に用いる生体データは、前記第1のモデルの生成に用いる生体データよりも長期間計測されたものであることを特徴とする請求項1から8のいずれかに記載の方法。
  13.  コンピュータに、被験者が身に付けたウェアラブルデバイスにより計測された生体データに基づいて被験者のうつ状態を推定する方法を実行させるためのプログラムであって、前記方法は、
     複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換するステップと、
     前記単位時間データから1又は複数の特徴量を抽出するステップと、
     前記1又は複数の特徴量の少なくとも一部を入力として、あらかじめ定めた推定モデルを用いてうつ状態を推定するステップと
    を含み、
     前記1又は複数の特徴量は、各データタイプの前記単位時間データの分位数及び複数のデータタイプの各組合せの相関係数を含むことを特徴とする方法。
  14.  被験者が身に付けたウェアラブルデバイスにより計測された生体データに基づいて被験者のうつ状態を推定する装置であって、
     複数のデータタイプを含む生体データをデータタイプごとに、所定の時間単位の単位時間データに変換し、
     前記単位時間データから1又は複数の特徴量を抽出し、
     前記1又は複数の特徴量の少なくとも一部を入力として、あらかじめ定めた推定モデルを用いてうつ状態を推定し、
     前記1又は複数の特徴量は、各データタイプの前記単位時間データの分位数及び複数のデータタイプの各組合せの相関係数を含むことを特徴とする装置。
  15.  複数の被験者の生体データに基づいてうつ状態を推定するための推定モデルの生成方法であって、
     被験者ごとに、複数のデータタイプを含む各被験者が身に付けたウェアラブルデバイスにより計測された生体データをデータタイプごとに、所定の時間単位の時間単位データに変換するステップと、
     被験者ごとに、前記時間単位データから1又は複数の特徴量を抽出するステップと、
     各被験者の前記1又は複数の特徴量の少なくとも一部を入力ベクトルとし、各被験者についての専門家による診断結果をラベルとする教師データを用いた機械学習により、前記推定モデルを生成するステップと
    を含み、
     前記1又は複数の特徴量は、各データタイプの前記単位時間データの分位数及び複数のデータタイプの各組合せの相関係数を含むことを特徴とする生成方法。
  16.  前記機械学習は、アンサンブル学習であることを特徴とする請求項15に記載の方法。
  17.  前記1又は複数の特徴量は、各データタイプの前記時間単位データの標準偏差をさらに含むことを特徴とする請求項15又は16に記載の方法。
  18.  前記1又は複数の特徴量の前記少なくとも一部は、正則化によって選択することを特徴とする請求項15から17のいずれかに記載の方法。
  19.  コンピュータに、複数の被験者の生体データに基づいてうつ状態を推定するための推定モデルの生成方法を実行させるためのプログラムであって、前記生成方法は、
     被験者ごとに、複数のデータタイプを含む各被験者が身に付けたウェアラブルデバイスにより計測された生体データをデータタイプごとに、所定の時間単位の単位時間データに変換するステップと、
     被験者ごとに、前記単位時間データから1又は複数の特徴量を抽出するステップと、
     各被験者の前記1又は複数の特徴量の少なくとも一部を入力とし、各被験者についての専門家による診断結果をラベルとする教師データを用いた機械学習により、前記推定モデルを生成するステップと
    を含み、
     前記1又は複数の特徴量は、各データタイプの前記単位時間データの分位数及び複数のデータタイプの各組合せの相関係数を含むことを特徴とするプログラム。
  20.  複数の被験者の生体データに基づいてうつ状態を推定するための推定モデルを生成する装置であって、
     被験者ごとに、複数のデータタイプを含む各被験者が身に付けたウェアラブルデバイスにより計測された生体データをデータタイプごとに、所定の時間単位の単位時間データに変換し、
     被験者ごとに、前記単位時間データから1又は複数の特徴量を抽出し、
     各被験者の前記1又は複数の特徴量の少なくとも一部を入力とし、各被験者についての専門家による診断結果をラベルとする教師データを用いた機械学習により、前記推定モデルを生成し、 前記1又は複数の特徴量は、各データタイプの前記単位時間データの分位数及び複数のデータタイプの各組合せの相関係数を含むことを特徴とする装置。
PCT/JP2019/048904 2018-12-14 2019-12-13 うつ状態を推定する装置、方法及びそのためのプログラム WO2020122227A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/413,476 US20220059226A1 (en) 2018-12-14 2019-12-13 Device and Method for Inferring Depressive State and Program for Same
CN201980082589.5A CN113164163A (zh) 2018-12-14 2019-12-13 推断抑郁状态的装置、方法及其程序
JP2020559336A JPWO2020122227A1 (ja) 2018-12-14 2019-12-13 うつ状態を推定する装置、方法及びそのためのプログラム
CA3123192A CA3123192A1 (en) 2018-12-14 2019-12-13 Device and method for inferring depressive state and program for same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018234966 2018-12-14
JP2018-234966 2018-12-14

Publications (1)

Publication Number Publication Date
WO2020122227A1 true WO2020122227A1 (ja) 2020-06-18

Family

ID=71075648

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/048904 WO2020122227A1 (ja) 2018-12-14 2019-12-13 うつ状態を推定する装置、方法及びそのためのプログラム

Country Status (5)

Country Link
US (1) US20220059226A1 (ja)
JP (1) JPWO2020122227A1 (ja)
CN (1) CN113164163A (ja)
CA (1) CA3123192A1 (ja)
WO (1) WO2020122227A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220164149A (ko) * 2021-06-04 2022-12-13 연세대학교 원주산학협력단 인공지능 모델을 이용한 우울증 발생 예측방법 및 이를 기록한 컴퓨터 판독 가능한 기록매체
WO2023033286A1 (ko) * 2021-09-03 2023-03-09 삼성전자 주식회사 정신 건강 관리를 위한 전자 장치 및 이의 제어 방법
WO2023224085A1 (ja) * 2022-05-19 2023-11-23 塩野義製薬株式会社 情報処理システムおよび情報処理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115496105B (zh) * 2022-09-28 2023-10-24 广东省新黄埔中医药联合创新研究院 睡眠预测模型训练方法、睡眠状况预测方法及相关装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016163698A (ja) * 2015-02-27 2016-09-08 公立大学法人首都大学東京 精神状態判定方法及び精神状態判定プログラム
US20170238858A1 (en) * 2015-07-30 2017-08-24 South China University Of Technology Depression assessment system and depression assessment method based on physiological information
JP2018015327A (ja) * 2016-07-28 2018-02-01 株式会社リコー 診断装置、診断方法、プログラム
JP2018524137A (ja) * 2015-06-15 2018-08-30 メディバイオ リミテッドMedibio Limited 心理状態を評価するための方法およびシステム
KR101911516B1 (ko) * 2017-12-26 2018-10-24 (주)에프앤아이 사용자의 심리 상태 데이터를 획득하고 사용자의 심리 상태를 판단하고 피드백을 제공하는 방법 및 이를 이용한 서버
CN108888281A (zh) * 2018-08-16 2018-11-27 华南理工大学 精神状态评估方法、设备及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011109716A2 (en) * 2010-03-04 2011-09-09 Neumitra LLC Devices and methods for treating psychological disorders
WO2011159945A2 (en) * 2010-06-16 2011-12-22 Afraxis, Inc. Methods for treating neurological conditions
EP2661225A1 (fr) * 2011-01-04 2013-11-13 Jabourian, Artin Pascal Systeme automatise de mesure du degre de motivation chez un individu et procede associe
WO2014071281A1 (en) * 2012-11-02 2014-05-08 The Johns Hopkins University Dna methylation biomarkers of post-partum depression risk
WO2016031650A1 (ja) * 2014-08-26 2016-03-03 東洋紡株式会社 うつ状態判定方法、及びうつ状態判定装置
CN106175800A (zh) * 2016-07-10 2016-12-07 北京工业大学 一种基于人体运动状态数据的心境状态量化评估方法
AU2017314831C1 (en) * 2016-08-26 2023-01-05 Akili Interactive Labs, Inc. Cognitive platform coupled with a physiological component
JP6784368B2 (ja) * 2016-09-01 2020-11-11 東洋紡株式会社 うつ状態判別方法及びうつ状態判定装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016163698A (ja) * 2015-02-27 2016-09-08 公立大学法人首都大学東京 精神状態判定方法及び精神状態判定プログラム
JP2018524137A (ja) * 2015-06-15 2018-08-30 メディバイオ リミテッドMedibio Limited 心理状態を評価するための方法およびシステム
US20170238858A1 (en) * 2015-07-30 2017-08-24 South China University Of Technology Depression assessment system and depression assessment method based on physiological information
JP2018015327A (ja) * 2016-07-28 2018-02-01 株式会社リコー 診断装置、診断方法、プログラム
KR101911516B1 (ko) * 2017-12-26 2018-10-24 (주)에프앤아이 사용자의 심리 상태 데이터를 획득하고 사용자의 심리 상태를 판단하고 피드백을 제공하는 방법 및 이를 이용한 서버
CN108888281A (zh) * 2018-08-16 2018-11-27 华南理工大学 精神状态评估方法、设备及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220164149A (ko) * 2021-06-04 2022-12-13 연세대학교 원주산학협력단 인공지능 모델을 이용한 우울증 발생 예측방법 및 이를 기록한 컴퓨터 판독 가능한 기록매체
KR102608408B1 (ko) * 2021-06-04 2023-11-30 주식회사 커넥티드인 인공지능 모델을 이용한 우울증 발생 예측방법 및 이를 기록한 컴퓨터 판독 가능한 기록매체
WO2023033286A1 (ko) * 2021-09-03 2023-03-09 삼성전자 주식회사 정신 건강 관리를 위한 전자 장치 및 이의 제어 방법
WO2023224085A1 (ja) * 2022-05-19 2023-11-23 塩野義製薬株式会社 情報処理システムおよび情報処理方法

Also Published As

Publication number Publication date
CN113164163A (zh) 2021-07-23
US20220059226A1 (en) 2022-02-24
CA3123192A1 (en) 2020-06-18
JPWO2020122227A1 (ja) 2021-12-16

Similar Documents

Publication Publication Date Title
WO2020122227A1 (ja) うつ状態を推定する装置、方法及びそのためのプログラム
Boursalie et al. M4CVD: Mobile machine learning model for monitoring cardiovascular disease
Mohino-Herranz et al. Assessment of mental, emotional and physical stress through analysis of physiological signals using smartphones
US20150148621A1 (en) Methods and systems for creating a preventative care plan in mental illness treatment
KR20230137869A (ko) 기계 학습 보조 인지 평가 및 치료를 위한 시스템들 및 방법들
Hong et al. Prediction of cardiac arrest in the emergency department based on machine learning and sequential characteristics: model development and retrospective clinical validation study
Kelly et al. Automatic prediction of health status using smartphone-derived behavior profiles
Ho et al. Imputation-enhanced prediction of septic shock in ICU patients
Pinto-Bernal et al. A data-driven approach to physical fatigue management using wearable sensors to classify four diagnostic fatigue states
Kheirkhahan et al. Actigraphy features for predicting mobility disability in older adults
Ali et al. Multitask deep learning for cost-effective prediction of patient's length of stay and readmission state using multimodal physical activity sensory data
Ko et al. Predicting sarcopenia of female elderly from physical activity performance measurement using machine learning classifiers
Chen et al. Artificial Intelligence‐Based Medical Sensors for Healthcare System
Cosoli et al. Methods for the metrological characterization of wearable devices for the measurement of physiological signals: state of the art and future challenges
Eom et al. Deep learning-based optimal smart shoes sensor selection for energy expenditure and heart rate estimation
JP2020513274A (ja) バランスを定量化するための多重パラメータ法
Wu et al. Personal sleep pattern visualization using sequence-based kernel self-organizing map on sound data
JP5911840B2 (ja) 診断データ生成装置および診断装置
Fonseca et al. A computationally efficient algorithm for wearable sleep staging in clinical populations
CN116019429A (zh) 基于生理指标的健康监测方法、装置、设备及存储介质
Tsiouris et al. Mining motor symptoms UPDRS data of Parkinson's disease patients for the development of Hoehn and Yahr estimation decision support system
WO2022216220A1 (en) Method and system for personalized prediction of infection and sepsis
JP2021189093A (ja) 自己免疫性水疱症の診断装置
Wang et al. A convenient non-harm cervical spondylosis intelligent identity method based on machine learning
JP2012228492A (ja) 生体状態診断方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19897220

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020559336

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3123192

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19897220

Country of ref document: EP

Kind code of ref document: A1