WO2021040025A1 - ストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、プログラム及び学習済モデル - Google Patents

ストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、プログラム及び学習済モデル Download PDF

Info

Publication number
WO2021040025A1
WO2021040025A1 PCT/JP2020/032763 JP2020032763W WO2021040025A1 WO 2021040025 A1 WO2021040025 A1 WO 2021040025A1 JP 2020032763 W JP2020032763 W JP 2020032763W WO 2021040025 A1 WO2021040025 A1 WO 2021040025A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature amount
coping
learning
subject
stress
Prior art date
Application number
PCT/JP2020/032763
Other languages
English (en)
French (fr)
Inventor
野澤 昭雄
孝輔 大岩
研一 中野
Original Assignee
株式会社東書エステート
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東書エステート filed Critical 株式会社東書エステート
Priority to US17/638,944 priority Critical patent/US20220296162A1/en
Priority to CN202080068209.5A priority patent/CN114466618A/zh
Priority to KR1020227010268A priority patent/KR20220056210A/ko
Priority claimed from JP2020144666A external-priority patent/JP6896925B2/ja
Publication of WO2021040025A1 publication Critical patent/WO2021040025A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4884Other medical applications inducing physiological or psychological stress, e.g. applications for stress testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/029Measuring or recording blood output from the heart, e.g. minute volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4029Detecting, measuring or recording for evaluating the nervous system for evaluating the peripheral nervous systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Definitions

  • the present invention relates to a technique for determining a subject's stress coping mode in a non-contact state.
  • Patent Document 1 describes a technique for estimating a psychological change of a subject by measuring the amount of heat radiated from the face.
  • Patent Document 2 describes a technique for measuring the level of the psychological state of a subject based on facial image information. According to these techniques, it is possible to detect that a subject has some psychological change in a non-contact state, and to quantitatively analyze the psychological state of a subject in a non-contact state.
  • Patent Documents 1 and 2 since the type of stress felt by the subject cannot be grasped, it is not possible to perform a qualitative analysis on the stress of the subject.
  • the present invention presents a stress coping style determination system capable of determining a subject's stress coping style in a non-contact state, a stress coping style determination method, a learning device, a learning method, and a program and learning for realizing them using a computer. Provide a completed model.
  • the stress coping style determination system of claim 1 is based on a biological information acquisition unit that acquires biological information of a subject in a non-contact state, and the biological information and a response pattern specified in advance. It has a determination unit for determining the stress coping mode of the subject, and the response pattern is specified by a hemodynamic parameter.
  • This stress coping style determination system acquires the biometric information of the subject in a non-contact state, and based on the biometric information and the response pattern specified by the hemodynamic parameters, the stress coping style of the subject is not determined. Judgment is made based on the contact state.
  • the stress coping style determination system according to claim 2 is the stress coping style determination system according to claim 1, wherein the blood circulation dynamics parameters are average blood pressure, heart rate, cardiac output, stroke volume and all. It is characterized by including a plurality of parameters of peripheral resistance.
  • hemodynamics is a subdivision of circulatory physiology that targets blood circulation, and is a research division that applies the theories of mechanics, elastic body mechanics, and fluid mechanics to biological systems. Specifically, it studies the internal pressure of the heart, pulsation, workload, stroke, elasticity of blood vessels and myocardium, pulse, blood flow velocity, and viscosity of blood.
  • the "hematological parameter” means a numerical parameter such as internal pressure of the heart, pulsation, workload, pumping volume, elasticity of blood vessels and myocardium, pulse, blood flow velocity, and blood viscosity.
  • This stress coping mode determination system acquires the biological information of the subject in a non-contact state, and the biological information and a plurality of the average blood pressure, heart rate, cardiac output, stroke volume, and total peripheral resistance. The stress coping mode of the subject is determined based on the response pattern specified by the parameter of. Also, hemodynamic parameters can generally be identified by a continuous sphygmomanometer.
  • the stress coping style determination system according to claim 3 is the stress coping style determination system according to claim 2, wherein the biological information is a facial image.
  • This stress coping style determination system acquires a face image of a subject in a non-contact state, and determines the stress coping style of the subject based on the face image and the response pattern.
  • the stress coping style determination system according to claim 4 is the stress coping style determination system according to claim 3, wherein the facial image is a facial thermal image or a facial visible image.
  • This stress coping style determination system acquires a face heat image or face visible image of a subject in a non-contact state, and based on the face heat image or face visible image and the response pattern, the stress of the subject. Determine the coping style.
  • the "visible face image” is an image obtained by photographing the face of the subject with a generally widely used camera, that is, a device having an optical system for forming an image and taking an image. is there. In this case, a color image is preferred.
  • the "facial thermal image” is an image in which infrared rays radiated from the face of the subject are analyzed and the heat distribution is represented as a diagram, and is obtained by taking an image by infrared thermography.
  • the stress coping style determination system is the stress coping style determination system according to claim 3, wherein the determination unit observes the stress response of a specific part of the face included in the facial image. It is characterized in that the stress coping mode of the subject is determined by.
  • This stress coping style determination system determines the stress coping style of the subject based on the stress response of a specific part of the subject's face and the response pattern.
  • the stress coping style determination system of claim 6 is characterized in that the response pattern includes three types of patterns including "active coping”, “passive coping” and “no coping”.
  • This stress coping style determination system acquires the biometric information of the subject in a non-contact state, and based on the biometric information, the stress coping style of the subject is "active coping” or “passive coping”. And, it is determined which of the response patterns of "no action" is shown.
  • the stress coping style determination system is the stress coping style determination system according to claim 6, wherein the determination unit is a spatial feature corresponding to "active coping" and "passive coping". It has a determination feature amount storage unit that stores the corresponding spatial feature amount and the spatial feature amount corresponding to "no action”, and is stored in the biological information and the determination feature amount storage unit. Based on each spatial feature amount, it is characterized in that it is determined which of the "active coping", “passive coping", and “no coping” response patterns is exhibited in the stress coping mode. There is.
  • This stress coping style determination system stores the spatial features corresponding to "active coping", the spatial features corresponding to “passive coping”, and the spatial features corresponding to “no coping”, and is subject to stress. Based on the examiner's biometric information and each spatial feature, the subject's stress coping mode shows any response pattern of "active coping", “passive coping", and "no coping”. Determine if it is a style.
  • the spatial feature amount stored in the determination feature amount storage unit is extracted by the machine learning unit. It is a spatial feature, and the machine learning unit stores a plurality of learning facial images labeled corresponding to each of "active coping", "passive coping", and "no coping".
  • This stress coping style determination system uses the machine learning unit to determine the spatial features corresponding to "active coping", the spatial features corresponding to "passive coping", and the spatial features corresponding to “no coping”. Extract by.
  • the machine learning unit stores a plurality of learning facial images labeled corresponding to "active coping", “passive coping", and “no coping", and from the learning facial image to the subject's facial image.
  • the spatial feature amount of the subject's facial image is extracted using the trained model, and based on the relationship between the extraction result and the label attached to the learning facial image targeted for extraction. Change the network parameters of the trained model so that the extraction accuracy of is high.
  • the spatial feature amount is a fractal dimension calculated based on a facial image of a subject. It is characterized by.
  • the program of claim 10 is a program for making a computer function as a means for determining a stress coping mode of a subject, and is a spatial feature corresponding to "active coping", "passive coping".
  • Each spatial feature memorized by the judgment feature amount storage step for storing the spatial feature amount corresponding to the above and the spatial feature amount corresponding to "no coping", and the facial image of the subject and the judgment feature amount storage step.
  • a determination step for determining whether the stress coping style of the subject is a style showing a response pattern of "active coping", “passive coping", and "no coping” based on the feature amount.
  • the response pattern is characterized by being specified by a hemodynamic parameter.
  • This program is installed and executed on multiple computers that work in cooperation with one or more computers, so that the system consisting of the one or more computers is subjected to the spatial feature "passive” corresponding to "active coping". Based on the spatial feature amount corresponding to "target coping", the spatial feature amount corresponding to "no coping", and the facial image of the subject, the stress coping style of the subject is “active coping” and “active coping”. It functions as a means for determining which response pattern of "passive coping" and "no coping” is exhibited.
  • the program of claim 11 provides a plurality of learning facial images labeled corresponding to "active coping", “passive coping", and “no coping” in the program of claim 10.
  • the learning data storage step to be stored the feature amount extraction step of extracting the spatial feature amount of the learning facial image using the trained model, the extraction result by the feature amount extraction step, and the extraction target.
  • the determination feature amount storage step is characterized in that it is a step of storing the spatial feature amount extracted by the feature amount extraction step.
  • This program is installed and executed on multiple computers that work in cooperation with one or more computers, so that the system consisting of the one or more computers is "actively dealt with”, “passively dealt with” and “no action taken”.
  • a plurality of learning facial images labeled corresponding to each of the above were stored, and the spatial features of the learning facial images were extracted using the trained model, and the extraction results and their extraction targets were used.
  • the program of claim 12 is characterized in that, in the program of claim 10 or 11, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject.
  • the stress coping of the subject is based on the biometric information acquisition step of acquiring the biometric information of the subject in a non-contact state and the biometric information and the response pattern specified in advance. It has a determination step for determining the mode, and the response pattern is specified by a hemodynamic parameter.
  • the subject's biological information is acquired in a non-contact state, and the stress coping style of the subject is determined based on the biological information and the response pattern specified by the hemodynamic parameters. To do.
  • the learning device includes a learning data storage unit that stores a plurality of learning facial images labeled according to a response pattern specified by a blood circulation dynamics parameter, and the learning facial image. It is attached to the feature amount extraction unit that extracts the spatial feature amount of the subject's facial image from the subject using the trained model, the extraction result by the feature amount extraction unit, and the learning facial image that is the extraction target. It is characterized by having a feature quantity learning unit that changes the network parameters of the trained model so that the extraction accuracy of the spatial feature quantity by the feature quantity extraction unit is high based on the relationship with the label. ..
  • This learning device stores a plurality of learning facial images labeled according to the response patterns specified by the hemodynamic parameters, and learns the spatial features of the subject's facial image from the learning facial image as a trained model. Based on the relationship between the extraction result and the label attached to the learning facial image to be extracted, the accuracy of extracting the spatial feature amount of the subject's facial image is increased. Change the network parameters of the trained model.
  • the learning device of claim 15 is characterized in that the spatial feature amount of the learning device of claim 14 is a fractal dimension calculated based on a facial image of a subject.
  • the learning method of claim 16 includes a learning data storage step for storing a plurality of learning facial images labeled according to a response pattern specified by a blood circulation dynamics parameter, and a subject from the learning facial image.
  • a feature amount extraction step for extracting the spatial feature amount of the facial image of the above using a trained model, an extraction result by the feature amount extraction step, and a label attached to the learning facial image to be extracted. Based on the above relationship, the feature amount learning step of changing the network parameters of the trained model so that the extraction accuracy of the spatial feature amount by the feature amount extraction step becomes high is provided.
  • This learning method stores a plurality of learning facial images labeled according to the response patterns specified by the hemodynamic parameters, and learns the spatial features of the subject's facial image from the learning facial images. Extraction is performed using the completed model, and the accuracy of extracting the spatial feature amount of the subject's facial image is improved based on the relationship between the extraction result and the label attached to the learning facial image to be extracted. Change the network parameters of the trained model so that.
  • the learning method of claim 17 is characterized in that, in the learning method of claim 16, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject.
  • the program of claim 18 is a program for making a computer function as a means for learning a spatial feature amount of a facial image, and is a plurality of programs labeled according to a response pattern specified by a hemodynamic parameter.
  • a learning data storage step for storing a learning face image, a feature amount extraction step for extracting a spatial feature amount of a subject's face image from the learning face image using a trained model, and a feature amount extraction step. Based on the relationship between the extraction result by the above and the label attached to the learning facial image as the extraction target, the learning has been completed so that the extraction accuracy of the spatial feature amount by the feature amount extraction step is high.
  • a program characterized by having a feature amount learning step that changes the network parameters of a model.
  • This program is installed and executed on multiple computers that work in tandem with one or more of them, thereby transforming the system of one or more computers into a response pattern specified by hemodynamic parameters.
  • a plurality of learning facial images labeled correspondingly are stored, the spatial features of the subject's facial image are extracted from the learning facial images using a trained model, and the extraction result and its extraction target are extracted. It functions as a learning device that changes the network parameters of the trained model so that the extraction accuracy of the spatial features of the subject's facial image is high based on the relationship with the label attached to the learning facial image. Let me.
  • the program of claim 19 is characterized in that, in the program of claim 18, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject.
  • a plurality of learning facial images labeled corresponding to the response patterns specified by the hemodynamic parameters are used as teacher data, and the spatial features of the facial image of the subject are used. It is characterized by being generated by machine learning.
  • This trained model inputs the facial image of the subject and outputs the spatial feature amount of the facial image of the subject.
  • the trained model of claim 21 is characterized in that, in the program of claim 18, the spatial feature amount is a fractal dimension calculated based on a facial image of a subject.
  • the biometric information of the subject is acquired in a non-contact state, and the subject's biometric information is based on the response pattern specified by the hemodynamic parameter. Since the stress coping mode can be determined in a non-contact state, it is possible to grasp the type of stress felt by the subject without imposing behavioral restrictions on the subject. In general, the word "stress” is widely used, but psychologically, “stress” is "a general term for non-specific reactions that occur to external stimuli (stressors) that act on living organisms.” (Psychologist Dr. Hans Selye).
  • the present invention by classifying and grasping the types of stress according to the subject, it is possible to grasp the relationship between the stressor and the stress response by the subject in more detail.
  • the relationship between humans and the social environment, which is a stressor can be analyzed and examined more accurately, and it can be applied to various social environment fields to solve problems. It is possible to apply it to various industrial fields, improve production efficiency, and promote industrial activities.
  • the face image of the subject is acquired in a non-contact state, and based on the face image and the response pattern specified by the hemodynamic parameter, the subject Since the stress coping mode does not use a continuous sphygmomanometer as in the conventional case, the subject can be quickly determined without restraining the subject and without imposing a physical burden.
  • the facial thermal image or facial visible image of the subject is acquired in a non-contact state, and the response pattern specified by the facial thermal image or facial visible image and the hemodynamic parameter is obtained.
  • the stress coping mode of the subject can be determined based on psychophysiology.
  • the stress coping style of the subject is easily and accurately determined based on the state of a specific part of the face of the subject and the response pattern specified by the hemodynamic parameters. can do.
  • the biological information of the subject is acquired in a non-contact state, and the stress coping style of the subject is "active coping" based on the biological information. It is possible to determine which of the "passive coping" and "no coping" response patterns is exhibited. Therefore, since the stress coping style can be classified into the three types of response patterns of "active coping", “passive coping” and “no coping", analysis is performed based on this response pattern and the analysis results are various. It can be applied to personnel management work, quality control work, etc. in the industrial field and contribute to quality improvement of various work.
  • the spatial feature amount corresponding to "active coping”, the spatial feature amount corresponding to "passive coping”, and the spatial feature amount corresponding to "no coping” The stress coping mode of the subject is either “active coping", “passive coping” or “no coping” based on the subject's biological information and each spatial feature. It can be determined whether the format shows the response pattern of.
  • the network parameters of the trained model can be changed so that the extraction accuracy of the spatial features of the facial image of the subject is high.
  • the stress coping style determination system of claim 9 since the spatial feature amount can be quantified with high accuracy by the fractal dimension, the stress coping style of the subject can be determined with high accuracy in a non-contact state.
  • the spatial feature amount corresponding to "active coping”, the spatial feature amount corresponding to "passive coping", the spatial feature amount corresponding to "no coping", and the subject Based on the facial image of the subject, a system for determining whether the stress coping style of the subject is a style showing a response pattern of "active coping", “passive coping", and "no coping". , One or a plurality of computers working in cooperation with each other.
  • a plurality of learning facial images labeled corresponding to "active coping", “passive coping”, and “no coping” are stored, and the learning facial images are stored.
  • the spatial feature quantity is extracted using the trained model, and the extraction accuracy of the spatial feature quantity is high based on the relationship between the extraction result and the label attached to the learning facial image to be extracted. It is possible to realize a system for storing the extracted spatial features while changing the network parameters of the trained model so as to be obtained by using one computer or a plurality of computers working in cooperation with each other.
  • the spatial features can be quantified with high accuracy by the fractal dimension
  • a system capable of determining the stress coping mode of the subject with higher accuracy in a non-contact state can be described.
  • it can be realized by using a plurality of computers that work in cooperation with each other.
  • the biological information of the subject is acquired in a non-contact state, and based on the biological information and the response pattern specified by the hemodynamic parameter, the subject Since the stress coping mode can be determined in a non-contact state, it is possible to grasp the type of stress felt by the subject without imposing behavioral restrictions on the subject.
  • the network parameters of the trained model can be changed so that the extraction accuracy of the spatial features of the facial image of the subject is high.
  • the network parameters of the trained model so that the extraction accuracy of the spatial features of the facial image of the subject is higher. Can be changed.
  • the network parameters of the trained model can be changed so that the extraction accuracy of the spatial features of the facial image of the subject is high.
  • the network parameters of the trained model so that the extraction accuracy of the spatial features of the facial image of the subject becomes higher. Can be changed.
  • the trained model is designed so that the extraction accuracy of the spatial features of the facial image of the subject is improved.
  • a learning device that changes network parameters is realized.
  • the spatial features can be quantified with high accuracy by the fractal dimension. Therefore, by installing and executing this program on one computer or a plurality of computers working in cooperation with each other, a facial image of a subject is obtained. A learning device that changes the network parameters of the trained model so that the extraction accuracy of the spatial features of the above is higher is realized.
  • the spatial feature amount of the facial image of the subject can be extracted.
  • the spatial features can be quantified with high accuracy by the fractal dimension. Therefore, by inputting the facial image of the subject into the trained model, the spatial image of the subject is spatially. Features can be extracted with high accuracy.
  • FIG. 1 It is a block diagram of one Embodiment of the stress coping style determination system which concerns on this invention.
  • A is an explanatory diagram conceptually illustrating a group of learning facial images labeled as "active coping”.
  • B is an explanatory diagram conceptually illustrating a group of learning facial images labeled as "passive coping”.
  • C is an explanatory diagram conceptually exemplifying a learning facial image group labeled as “no action”.
  • It is a flowchart which shows the processing content of the learning apparatus which comprises the stress coping style determination system of FIG.
  • It is a table which shows the hemodynamic pattern reaction of the previous study of Experimental Example 1.
  • the stress coping style determination system 100 of one embodiment shown in FIG. 1 includes a biological information acquisition device (biological information acquisition unit) 110, a determination device (determination unit) 120, and a learning device (machine learning unit) 130. ..
  • the biological information acquisition device 110 is a device for acquiring the biological information of the subject P in a non-contact state.
  • the most preferable example of the biological information is a facial image IF.
  • the facial image IF is used as the biological information will be described.
  • the facial image IF may be a facial thermal image or a facial visible image.
  • the facial image IF is a facial thermal image
  • infrared thermography is used as the biological information acquisition device 110.
  • the facial image IF is a visible facial image
  • a so-called camera as a visible image imaging device is used as the biological information acquisition device 110.
  • the "visible face image” is obtained by photographing the face of a subject with a generally widely used camera, that is, a device having an optical system for forming an image and taking an image. It is a color image.
  • the "facial thermal image” is an image in which infrared rays radiated from the face of the subject are analyzed and the heat distribution is represented as a diagram, and is obtained by taking an image by infrared thermography.
  • the image taken by the camera it is due to visible light (wavelength of 380 nm to 800 nm), while the heat distribution image by infrared thermography is due to infrared rays (wavelength of 800 nm or more).
  • both infrared thermography and a general camera can be used as the biological information acquisition device 110.
  • the determination device 120 is realized by installing and executing the program according to the present invention on a general-purpose computer.
  • the determination device 120 is a device having a function of determining the stress coping mode of the subject based on the facial image IF acquired by the biological information acquisition device 110 and the response pattern specified in advance.
  • the response pattern includes three types of patterns consisting of "active coping” (pattern I), "passive coping” (pattern II) and “no coping” (pattern III).
  • the response pattern is specified by hemodynamic parameters. Hemodynamic parameters include multiple parameters of mean blood pressure (MBP), heart rate (HR), cardiac output (CO), stroke volume (SV) and total peripheral resistance (TPR).
  • the determination device 120 includes a determination feature amount storage unit 121, a specific site reaction detection unit 122, and a response pattern determination unit 123.
  • the determination feature amount storage unit 121 stores the spatial feature amount corresponding to "active coping", the spatial feature amount corresponding to "passive coping", and the spatial feature amount corresponding to "no coping". It is a functional block.
  • the spatial feature amount stored in the determination feature amount storage unit 121 is the spatial feature amount extracted by the learning device 130.
  • the facial image IF is a facial thermal image
  • the facial skin temperature distribution can be mentioned as an example of the spatial feature amount.
  • the specific site reaction detection unit 122 is a functional block that detects the stress response of the anatomical specific site of the subject P included in the facial image IF.
  • An anatomical specific site is one or more sites identified from anatomical findings as a site that is relatively small depending on individual differences.
  • An example of an anatomically specific site is the crown of the nose.
  • the stress coping mode of the subject P is set based on the stress response detected by the specific site reaction detection unit 122 and each spatial feature amount stored in the determination feature amount storage unit 121. It is a functional block that determines which of the response patterns of "active coping" (pattern I), "passive coping” (pattern II), and “no coping” (pattern III) is exhibited.
  • the learning device 130 has a learning data storage unit 131, a feature amount extraction unit 132, and a feature amount learning unit 133.
  • the learning device 130 is realized by installing and executing the program according to the present invention on a general-purpose computer.
  • the learning data storage unit 131 is a functional block that stores a plurality of learning facial image LGs labeled corresponding to each of "active coping", “passive coping", and "no coping". ..
  • FIG. 2 conceptually illustrates the learning facial image LG.
  • LGA1, LGA2, LGA3, ... Shown in FIG. 2 (A) are a group of facial images for learning labeled as "active coping”.
  • LGB1, LGB2, LGB3, ... Shown in FIG. 2B are a group of facial images for learning labeled as "passive coping”.
  • LGC1, LGC2, LGC3, ... Shown in FIG. 2C are a group of facial images for learning labeled as "no action”.
  • the feature amount extraction unit 132 is a functional block that extracts the spatial feature amount of the face image from the learning face image LG using the trained model 134.
  • the trained model 134 uses a plurality of learning facial images LG labeled corresponding to the response patterns specified by the hemodynamic parameters as the teacher data, and includes the facial image of the subject P included in the learning facial image LG. It is generated by machine learning the spatial features of.
  • the feature amount learning unit 133 is based on the relationship between the extraction result by the feature amount extraction unit 132 and the label attached to the learning facial image LG as the extraction target, and the spatial feature amount by the feature amount extraction unit 132. This is a functional block that changes the network parameters of the trained model 134 so that the extraction accuracy of the model 134 is high.
  • the determination device 120 executes the determination feature amount storage process S1, the specific site reaction detection process S2, and the response pattern determination process S3.
  • the determination feature amount storage process S1 is a spatial feature amount extracted by the learning device 130, that is, a spatial feature amount corresponding to "active coping", a spatial feature amount corresponding to "passive coping", and "coping". This is a process of storing the spatial feature amount corresponding to “none” in the determination feature amount storage unit 121.
  • the specific site reaction detection process S2 is a process for detecting the stress response of the anatomical specific site of the subject P included in the facial image IF captured by the biological information acquisition device 110.
  • the stress coping mode of the subject P is set based on the stress response detected by the specific site reaction detection process S2 and each spatial feature amount stored in the determination feature amount storage unit 121. It is a process of determining which of the response patterns of "active coping", “passive coping", and “no coping” is shown.
  • the learning device 130 executes the learning data storage process S11, the feature amount extraction process S12, and the feature amount learning process S13.
  • the learning data storage process S11 stores a plurality of learning facial image LGs labeled corresponding to each of "active coping", “passive coping", and “no coping” in the learning data storage unit 131. It is a process to do.
  • the feature amount extraction process S12 is a process of extracting the spatial feature amount of the subject's face image included in the learning face image LG from the learning face image LG by using the learned model 134.
  • the feature amount learning process S13 extracts the feature amount by the feature amount extraction process S12 based on the relationship between the extraction result by the feature amount extraction process S12 and the label attached to the learning facial image LG as the extraction target. This is a process of changing the network parameters of the trained model 134 so as to increase the accuracy.
  • the fractal dimension calculated based on the facial image IF can be used as the spatial feature amount.
  • the spatial features can be easily and highly accurately quantified.
  • the method of finding the fractal dimension as a spatial feature is arbitrary.
  • the fractal dimension is obtained by executing a series of processes including clustering processing S21, image extraction processing S22, edge extraction processing S23, and fractal analysis processing S24.
  • the clustering process S21 is a process of clustering the facial image IF with respect to the temperature distribution.
  • the clustering method is arbitrary, the Fuzzy-c-means method can be mentioned as a method suitable for this embodiment.
  • the Fuzzy-c-means method does not consider the alternative question of whether or not a certain data group belongs to a cluster, but other than the situation where the data completely belongs to a single cluster (k-means method).
  • it is a method that vaguely indicates the degree of belonging (attribution) of data to a cluster, assuming that it belongs to a plurality of clusters to some extent.
  • FIG. 40 shows an example in which the number of clusters is set to 12 and the input image (face image IF) is clustered.
  • cluster1 belongs to the lowest temperature distribution and cluster12 belongs to the highest temperature distribution.
  • the image extraction process S22 is a process of extracting an image of a cluster having a temperature distribution in a temperature region equal to or higher than a predetermined temperature from an image of a plurality of clusters obtained by the clustering process S21.
  • the images of clusters 8 to 12 which are attribution images including the temperature of the face region, are extracted.
  • the edge extraction process S23 is a process of detecting an edge portion of the image extracted by the image extraction process S22 and generating an edge figure composed of a line segment represented by the edge portion.
  • the edge detection method is arbitrary, the Canny method can be mentioned as a method suitable for this embodiment.
  • the canny method uses a Gaussian filter for noise removal processing, a Sobel filter for brightness gradient (edge) extraction processing, non-maximum suppression processing for removing parts other than the part where the edge strength is maximized, and whether or not the edge is correct. This is a method of detecting an edge through a hysteresis threshold value determination based on a threshold value using hysteresis.
  • the edge portions of the images of clusters 8 to 12 are detected by the canny method, and an edge figure composed of a line segment represented by the edge portions is generated.
  • the fractal analysis process S24 is a process for obtaining the fractal dimension of the edge figure generated by the edge extraction process S23.
  • the fractal dimension is an index that quantitatively expresses the self-similarity and complexity of figures and phenomena, and is generally a non-integer value.
  • the method of fractal analysis is arbitrary, but a box counting method can be mentioned as a method suitable for this embodiment. In the box counting method, when the figure to be analyzed is divided into square boxes (lattice), the slope of the straight line when the relationship between the size of the box and the total number of boxes including the figure is linearly approximated on a log-log graph. This is a method of finding the fractal dimension from the absolute value of.
  • the formula for calculating the fractal dimension (D) is expressed by the following formula. r is the size of the box and N (r) is the number of boxes.
  • FIG. 42 shows an example of calculating the fractal dimension of the edge figure of cluster 12 in FIG. 41.
  • r is varied in the range of 2 to 128, and r and N (r) are plotted on a log-log graph to obtain a value of 1.349.
  • the facial image IF of the subject P is imaged by the biological information acquisition device 110.
  • the captured facial image IF is input to the determination device 120.
  • the determination device 120 receives the input facial image IF and a response pattern specified by any of the hemodynamic parameters, that is, mean blood pressure, heart rate, cardiac output, stroke volume, and total peripheral resistance. Based on the patterns I, II and III), it is determined which of the patterns I, II and III the stress coping mode of the subject P is.
  • the stress coping style of the subject P can be determined in a non-contact state based on the facial image IF of the subject P, so that the subject P is given a behavioral constraint. It is possible to grasp the type of stress felt by the subject P without having to do so.
  • the stress coping mode determination system 100 is based on the reaction and response pattern (patterns I, II and III) of the anatomically specific part of the face included in the facial image IF of the subject P, and the subject P is Judge the stress coping style of.
  • An anatomical specific site is one or more sites identified from anatomical findings as a site that is relatively small depending on individual differences.
  • a general-purpose system for determining the stress coping style can be constructed.
  • the stress coping style determination system 100 extracts the feature amount corresponding to "active coping", the feature amount corresponding to "passive coping", and the feature amount corresponding to "no coping” by the learning device 130. ..
  • the learning device 130 stores a plurality of learning facial image LGs labeled corresponding to "active coping", “passive coping", and “no coping", and from the learning facial image LGs.
  • the spatial features of the facial image are extracted using the trained model 134, and the spatial features of the facial image are spatially based on the relationship between the extraction result and the label attached to the learning facial image LG as the extraction target.
  • the network parameters of the trained model LG are changed so that the extraction accuracy of the feature amount becomes high. As the learning of the trained model LG progresses, the accuracy of extracting the spatial features of the facial image improves, and the accuracy of the spatial features stored in the determination feature storage unit 121 also improves.
  • the determination accuracy of the stress coping style can be improved as the learning of the trained model LG in the learning device 130 progresses.
  • the determination accuracy of the stress coping style can be further improved by quantifying the spatial features by the fractal dimension.
  • the stress coping style determination system 100 includes the learning device 130, but the learning device 130 can be omitted.
  • the learning device 130 is omitted, the spatial feature amount extracted or generated by means other than the learning device 130 is stored in the determination feature amount storage unit 121 of the determination device 120.
  • the hemodynamic parameters were mean blood pressure (MBP), heart rate (HR), cardiac output (CO), and total peripheral resistance (TPR).
  • Infrared thermography (TVS-200EX, AVIONICS) was installed at an angle of view that can measure the entire face to measure facial thermal images at a position 1.2 m in front, and the shooting interval was 1 fps.
  • the experiment was conducted in the time divisions of resting eyes closed 60s (Rest1) before Task, active task 60s (Task1), no action task 60s (Task2), passive task 60s (Task3), and resting eyes closed 60s (Rest2) after Task. It is composed.
  • Mental arithmetic tasks were performed for active tasks, mirror drawing tasks for passive tasks, and resting eyes closed for tasks without stress coping.
  • double-digit addition was performed every 4 seconds on the computer screen. I didn't announce the correctness of mental arithmetic each time.
  • the mirror drawing task he was taught to reproduce the star-shaped figure (see Fig.
  • Figure 8 shows the time-series changes in the normalized MBP of subject A.
  • the range with a value greater than or equal to baseline + 2 ⁇ ( ⁇ : standard deviation of each hemodynamic parameter at Rest1) is defined as “+”, and the range with a value below baseline ⁇ 2 ⁇ is defined as “-”.
  • each hemodynamic parameter was determined to be "Pattern I” (active coping) or “Pattern II” (passive coping), and "no coping" when neither was applicable.
  • the thermal images taken between Tasks 1 to 3 were labeled based on the discrimination of hemodynamic parameters.
  • the facial thermal image was created by trimming the facial part with 151 ⁇ 171 pixels and grayscale it.
  • random cropping, white Gaussian noise addition, and contrast adjustment were performed to expand the data.
  • CNN convolutional neural network
  • the composition of CNN consists of three convolutional layers for extracting features, three pooling layers, and one fully connected layer for discrimination.
  • the structure of the CNN is shown in FIG. 9, and the filter parameters of the convolutional layer and the pooling layer are shown in FIGS. 10 and 11.
  • the feature analysis related to the stress coping mode was performed based on the feature map, which is the weight of the convolutional layer of CNN.
  • FIG. 12 shows a feature map of the second convolutional layer when facial thermal images of each stress coping mode were input to CNN for each subject.
  • Nishigaki states that he is far from a "concentrated viewer", such as always turning on the TV switch while doing chores and operating a mobile phone at the same time (1) .
  • new added value such as adjusting mood, feelings, and behavior in the desired direction by TV content design.
  • Fujiwara and Saito conducted an opinion poll, and Ohno conducted a questionnaire survey.
  • the reasons for watching TV were "killing time”, “enjoying interesting programs”, “enhancing education and gaining knowledge”, “somehow by habit”, Reasons such as "to escape from the troublesome reality”, “to change the mood", “BGM”, and “to help the family” are given (2) (3) .
  • Takahashi et al. Classify the time to watch TV into “breakfast”, “commuting”, “doing housework”, “relaxing at home on weekdays”, etc. (4).
  • Tomomune et al. Changed the TV viewing mode to “dedicated viewing” in which "the head and body are concentrated on the TV” and “while watching this program while doing other things”. It is categorized into “dedicated switching viewing” and “time-comfortable viewing” in which "the body concentrates on the TV, although there is nothing I want to see” (5) .
  • viewing modes vary and change depending on factors such as time, place, and mood.
  • the taste for TV images may also be one of the factors that change the viewing style.
  • most of the studies that discriminate these viewing modes use psychological responses such as opinion polls and introspection evaluations after the fact, and there are no studies that classify viewing patterns using physiological responses.
  • cardiovascular index cardiovascular measurement by continuous sphygmomanometer, non-contact facial skin temperature measurement by infrared thermography device, digital biological amplifier
  • central nervous system activity and the autonomic nervous system activity were evaluated by measuring the electrocardiogram and brain waves.
  • the subject was sitting and using an LCD TV (55 inches, HX850, BRAVIA, made by SONY) installed 2 m in front of him, 10 kinds of video contents (news, sports, documentary, music, horror, etc.) for 5 minutes. Watch laughter, drama, anime, cooking, shopping).
  • the video content was played on a DVD player (SCPH-3900, made by SONY).
  • SCPH-3900 made by SONY
  • the video content to be viewed will not be published until the subject views it.
  • the order of the video contents to be viewed is random.
  • VAS subjective sensation of "preference” was measured using VAS.
  • a pair of adjectives are placed at both ends of a line segment, and the subject can measure the psychophysical quantity of the subject by checking an arbitrary position on the line segment.
  • the words placed at both ends of the scale were "very disliked"-"very liked”.
  • the immersive feeling in the video was measured on a 5-point scale (1: I could't immerse at all-5: I was quite immersive).
  • Fig. 14 shows the average of all subjects in the taste and immersiveness of 10 types of content. Error bars in the figure represent standard errors in taste and immersiveness.
  • the tastes and immersive feelings of 20 subjects in news and horror which had a large individual difference among the 10 types of contents, are shown. Looking at the taste and immersive feeling of each content from the left of FIG. 14, the average taste and immersive feeling are in a direct proportional relationship.
  • N 20.
  • Video content with an immersive feeling of 4 or more and a preference of 0.4 or more is the most preferred video content (hereinafter abbreviated as "Positive"), and an immersive feeling of 2 or less and a preference of 0.4 or less.
  • the video content with the lowest preference was defined as negative preference (hereinafter abbreviated as "Negative"). Therefore, there are three types of video content to watch: “Positive,””Negative,” and “horror.”
  • FIG. 15 shows the arrangement of the measurement system and EEG measurement electrodes.
  • the subject was sitting and wearing a continuous sphygmomanometer, an EEG derivation electrode, and an ECG derivation electrode.
  • a continuous sphygmomanometer (Finometer model2, manufactured by Finapres Medical Systems B.V.) was equipped with a cuff on the second joint of the middle finger of the left arm and recorded on a PC at a sampling frequency of 200 Hz.
  • An infrared thermography device (TVS-200X) was installed at an angle that can measure the face at a position 0.7 m in front of the subject.
  • EEG was measured by the reference electrode method with the left ear (A1) as a reference.
  • the EEG derivation electrode position was set to 1 point (Pz) based on the international 10-20 law, and the electrode contact resistance was set to 10 k ⁇ or less.
  • Electrodes for ECG measurement were attached to the supternal green part (+) and apex (-) according to the NASA induction method in order to minimize the mixing of myoelectric potentials.
  • the ground electrode is the crown (Cz) common to EEG and ECG.
  • the EEG signal and ECG signal were amplified by a digital biological amplifier (5102, manufactured by NF ELECTRONIC INSTRUMENTS) and recorded on a PC via a processor box (5101, NF ELECTRONIC INSTRUMENTS) at a sampling frequency of 200 Hz.
  • a digital biological amplifier (5102, manufactured by NF ELECTRONIC INSTRUMENTS)
  • a processor box (5101, NF ELECTRONIC INSTRUMENTS) at a sampling frequency of 200 Hz.
  • Physiological indicators are mean blood pressure (hereinafter abbreviated as MP), heart rate (hereinafter abbreviated as HR), stroke volume (hereinafter abbreviated as SV), and cardiac output (hereinafter abbreviated as SV).
  • TPR Total peripheral resistance
  • NST Nasal skin temperature
  • ECG electrocardiograms
  • ECG brain waves
  • EEG Electroencephalograms
  • the frequency component of EEG from 8 Hz to 13 Hz is called an ⁇ wave, and it is known that it is conspicuously expressed at rest, eyes closed, and awake, and is attenuated when any of the conditions is impaired (8) .
  • Fourier transform (FFT) was performed on 1024 sample points every 10 seconds for the EEG time series sampled at 200 Hz, and the ⁇ wave power spectrum was obtained every 10 seconds.
  • the average ⁇ -wave power in each of the R1 and R2 sections in FIG. 13 is calculated, and the average ⁇ -wave power ratio in the R2 section based on the average ⁇ -wave power in the R1 section is used as an index of alertness fluctuation before and after watching TV. did.
  • NST is known as an indicator of sympathetic nervous system activity that controls peripheral blood flow. Since the enhancement / suppression of the sympathetic nervous system and the temporal fluctuation of NST correlate well, in this study, the fluctuation of NST every 10 seconds was used as a quantitative index of the sympathetic nervous system activity related to video viewing. A positive value means suppression of sympathetic nervous system activity, and a negative value means increased sympathetic nervous system activity.
  • the spatial average temperature at 10 ⁇ 10 pixels of the nasal part was calculated and used as the NST time series.
  • HF is a high-frequency component of the heart rate variability spectrum from 0.15 Hz to 0.4 Hz and is known as a respiratory arrhythmia component (7) .
  • HF is used as an index of parasympathetic nervous system activity, and increases or decreases as the parasympathetic nerve increases or decreases.
  • the time series of R wave peak intervals is obtained from the ECG sample by threshold processing, and after third-order spline interpolation, resampling is performed at 20 Hz.
  • FFT processing is performed on the resampled data every 1s to obtain the time series of the heart rate variability power spectrum.
  • the number of data for FFT processing was 512 points.
  • the integral value in the 0.15 Hz to 0.4 Hz band was obtained and used as the HF time series.
  • Hemodynamic parameters MP, HR, SV, CO, TPR
  • Pattern II characteristic response patterns in response to external stress, and cardiovascular physiology to stress. It is an important concept in understanding the reaction.
  • pattern I is characterized by an increase in myocardial contractile activity and an increase in blood volume to skeletal muscle due to vasodilation, which can be said to be an energy-consuming reaction (active coping).
  • pattern II is characterized by the contraction of peripheral blood vessels, and the heart rate is also generally reduced, which can be said to be an energy-saving reaction (passive coping) (7) .
  • the psychological indicators were the multifaceted emotional state scale MMS and VAS.
  • MMS describes depression / anxiety (hereinafter abbreviated as DA), hostility (hereinafter abbreviated as H), malaise (hereinafter abbreviated as F), and temporary mood and emotional states that change depending on the conditions placed on the subject.
  • A active pleasure
  • I inactive pleasure
  • AF affinity
  • D concentration
  • S startle
  • the immersive feeling in the image was measured on a 5-point scale (1: I could not immerse at all-5: I was quite immersive).
  • a paired t-test was used to test the difference between each psychological index before and after video viewing, and Wilcoxon signed rank test was used for the amount of change in the entire TEST section for each physiological index.
  • N 14 in FIG. 16
  • N 14 in FIG. 17
  • the averages of all subjects in “pleasure / discomfort”, “awakening”, “vitality”, “preference” and “immersion” of immersive feeling are shown in FIGS. 20 to 23.
  • FIG. 24 shows the temporal variation of the average of each physiological index between subjects.
  • N 14. From the top, NST, alpha wave, HF, MP, HR, SV, CO, TPR. The beginning of the TEST section is 0. The error bars in the figure represent the standard error every 10s.
  • NST, MP, HR, SV, CO, TPR and immersive feeling are standardized with the baseline of the R1 section set to 0, and alpha waves and HF are standardized with the baseline of the R1 section set to 1, and the displacement of the entire TEST section from the baseline.
  • the significance probability p of Wilcoxon signed rank test for is shown in FIG. 25 (+: p ⁇ 0.11, *: p ⁇ 0.05, **: p ⁇ 0.01).
  • P means a positive response to each index
  • N means a negative response.
  • N 14.
  • FIG. 26 shows the temporal variation of the average between subjects of each physiological index of the horror image.
  • N 14.
  • the sympathetic nerve was enhanced in "Horror (N)” because the NST was lowered. No significant results were obtained for either alpha wave.
  • HF decreased significantly in “Horror (C)” and increased significantly in “Horror (N)”.
  • HF did not agree with the above-mentioned interpretation in NST in "Horror (N)”. This is thought to be due to the difference in mechanism.
  • “Horror (N)” indicates a passive coping characterized by an increase in TPR. As a result, it is considered that the blood flow in the peripheral part decreased and the NST decreased.
  • “Horror (N)” has no significant change in HR, but is characterized by a significant increase in TPR and MP. This is a typical pattern II response (passive coping), primarily with increased MP due to increased peripheral vasoconstriction. From this, it was clarified that when stress coping is not shown, the preference is usually low and the person is not absorbed in the TV video content, but passive coping is shown for horror video. In other words, it was clarified that the viewing mode cannot be determined only by the preference for TV images, and the viewing mode can be classified according to the stress coping style.
  • Huzita “Television viewing and simultaneous use of new media: anethnographic study of young people in Japan”, Institute for Media and Communication Research Keio University, Vol.59, No.1 , pp.131-140 (2009) (inJapanese) Yuko Shiki, Akira Murayama, Yuko Fujita: "Young people watching TV and using media in parallel – From Audience Ethnography Survey of University Students", Keio University Media Bulletin of Communication Research Institute, Vol.59, No.1, pp.131-140 (2009) (4) S. Nomura, Y. Kurosawa, N. Ogawa, CM Althaff Irfan, K. Yajima, S. Handri, T.
  • Yamagishi, KTNakahira, and Y. Fukumura “Psysiological Evaluation of a student in E-learning Sessions by Hemodynamic Response ”, IEEJ Trans. EIS, Vol.131, No.1, pp.146-151 (2011) (in Japanese) Nomura Shusaku, Irfan CM Althaff, Takao Yamagishi, Yoshimasa Kurosawa, Kuniaki Yajima, Katsuko Nakahira ⁇ Nobuyuki Ogawa ⁇ HANDRI Santoso ⁇ Yoshimi Fukumura: "Physiological evaluation study of e-learning students by hemodynamic parameters", Denkiron C, Vol.131, No.1, pp.146-151 (2011) (5) T.
  • Watanuki and A. Nozawa “Visualization of a feeling of concentration for TV contents”, Bulletin of Institute of Electrical and Electronic Engineers of measurement, Vol.IM-12, No.63, pp.19-25 ( 2012) (in Japanese) Takuya Watanuki and Akio Nozawa: "Visualization of Immersiveness in TV Content", Institute of Electrical and Electronic Engineering, Vol.IM-12, No.63, pp.19-25 (2012) (6) K. Mori, C. Ono, Y. Motomura, H. Asoh, and A.
  • Sakurai “Empirical Analysis of User Preference Models for Movie Recommendation”, IEIC Technical Report.NC.neurocomputing, Vol.104, No.759 , pp.77-82 (2005) (in Japanese) Shigeru Kurokawa, Tomohiro Ono, Yoichi Motomura, Hideki Asoh, Akito Sakurai: "Experimental Evaluation of User Preference Model for Recommendation of Movie Content", Technical Report .. NC.
  • the stress coping style based on the hemodynamic parameters and the heart rate may be able to classify the physiological and psychological states of TV viewers such as preference and immersion for contents. Therefore, the purpose of this study is to experimentally examine the estimation of the physiological and psychological state of the viewer regarding the above-mentioned television viewing by the cardiovascular index. Feature vectors were extracted from cardiovascular indicators, and estimation models for TV video content preference, viewing mode, and excitement-sedation were created and evaluated.
  • the cardiovascular system was measured with a continuous sphygmomanometer when viewing the experimental TV video content. After that, by performing pattern recognition using a hierarchical neural network based on the hemodynamic parameters, we estimated the preference, viewing mode, and excitement-sedation when watching TV video content.
  • this experiment consists of 5 minutes of video viewing and 1 minute of rest / eye closure R1 and R2 before and after that. From the Visual Analogue Scale (hereinafter abbreviated as VAS) before and after watching the video and the immersive feeling survey after watching the video, the preference and immersive feeling for each video content were evaluated. In addition, the subjective excitement-sedation fluctuations felt by the subject were recorded in real time during video viewing.
  • VAS Visual Analogue Scale
  • the subjects were 14 healthy students (age: 19-22, average age: 21.4, male: 7, female: 7) enrolled in a Japanese university. The subjects were fully informed in advance of the content, purpose, and subject of the experiment, both verbally and in writing, and their consent to the cooperation of the experiment was confirmed by signature.
  • the measurement was performed in a convection-free shielded room at room temperature of 26.0 ⁇ 1.6 ° C, and one experimenter was present in the same room to switch video content and check the physiological measurement status. The experiment was conducted 20 minutes or more after the subject entered the room in order to adjust the body surface temperature to room temperature.
  • the subject was sitting, using an LCD TV (55 inches, HX850, BRAVIA, made by SONY) installed 2 m in front of him, and had positive taste and highly immersive video content (hereinafter abbreviated as "Positive”), negative.
  • Watch three types of video content low-preference / low-immersive video content (hereinafter abbreviated as "Negative"), and horror video that shows unique results that there are large individual differences in low-preference but immersive feeling.
  • the video content was played on a DVD player (SCPH-3900, made by SONY).
  • Measurement system The measurement system is shown in FIG.
  • the subject was sitting and wearing a continuous sphygmomanometer.
  • a continuous sphygmomanometer (Finometer model2, manufactured by Finapres Medical Systems B.V.) was equipped with a cuff on the second joint of the middle finger of the left arm and recorded on a PC at a sampling frequency of 200 Hz.
  • a keyboard (K270, made by Logitech) is installed in front of you, and software is used to input the subjective excitement-sedation fluctuations that the subject feels in real time from the up and down keys of the keyboard, and it is sequential and relative.
  • Excitement-sedation was recorded.
  • Physiological indicators are mean blood pressure Mean pressure (hereinafter abbreviated as MP), heart rate (hereinafter abbreviated as HR), stroke volume (hereinafter abbreviated as SV), cardiac output (hereinafter abbreviated as Cardiac output). CO) and total peripheral resistance (hereinafter abbreviated as TPR). Hemodynamic parameters (MP, HR, SV, CO, TPR) are known to exhibit characteristic response patterns (Pattern I, Pattern II) in response to external stress, and cardiovascular physiology to stress. It is an important concept in understanding the reaction.
  • MP blood pressure Mean pressure
  • HR heart rate
  • SV stroke volume
  • Cardiac output cardiac output
  • TPR total peripheral resistance
  • Hemodynamic parameters MP, HR, SV, CO, TPR
  • pattern I is characterized by increased contractile activity of the myocardium and increased blood volume to skeletal muscle due to vasodilation, which can be said to be an energy-consuming reaction (active coping).
  • pattern II is characterized by the contraction of peripheral blood vessels, and the heart rate is also generally reduced, which can be said to be an energy-saving reaction (passive coping) (7) .
  • MP, HR, SV, CO, and TPR were standardized with the baseline of the R1 section set to 0.
  • Each VAS was prepared on an independent page, and it was taught to record by hand without recursive reference. Furthermore, after the experiment was completed, the immersive feeling in the image was measured on a 5-point scale (1: I could not immerse at all-5: I was quite immersive). A paired t-test was used to test the difference between each psychological index before and after video viewing, and Wilcoxon signed rank test was used for the amount of change in the entire TEST section for each physiological index. Excitement-sedation was normalized based on the maximum value of integration.
  • Pattern recognition by a hierarchical neural network was used to create a preference and viewing mode classification model and derive the discrimination rate, and to create an excitement-sedation estimation model and derive estimated values for each subject.
  • the structure of the hierarchical neural network is shown in FIG.
  • the learning rule is the error back propagation method, and the output function is the sigmoid function.
  • Cross-validation was used to estimate the accuracy of the model.
  • the discrimination time t d is assumed for the time-dependent fluctuation of each index.
  • t d is 300s while watching the video.
  • Preference classification model Heart rate was used as a feature, and 10s, 20s, 30s, 40s, 50s, and 60s were examined as ⁇ t i.
  • the total learning data had 28 patterns including the preferences (Positive, Negative) of 14 subjects, of which 27 patterns were used as learning data and the remaining 1 pattern was used as unknown data to evaluate the accuracy of the preference classification model.
  • the accuracy of the preference classification model was evaluated by inputting unknown data.
  • the output layer consists of two elements, "Positive” and "Negative”.
  • the hemodynamic parameters were used as the features of the viewing mode classification model, and 10s, 20s, 30s, 40s, 50s, and 60s were examined as ⁇ t i.
  • the output layer consists of three elements: active coping, passive coping, and no stress coping.
  • both “Negative” and “Horror (N)” have low immersiveness and taste. However, their physiological responses are different. In other words, in “Negative”, TPR and HR decreased, but MP did not change. This is neither active coping nor passive coping, and it is considered that stress coping is not done.
  • “Horror (N)” is characterized by a significant increase in TPR and MP, although there is no significant change in HR. This is a typical pattern II response (passive coping) with an increase in MP due to increased peripheral vasoconstriction.
  • FIGS. 34 and 35 show the results of the discrimination rate when the preference and the viewing mode are discriminated from the estimation model constructed by using the neural network.
  • the positive discrimination rate of preference was 83.3%
  • the positive discrimination rate of viewing mode was 75%, which were higher than those of other ⁇ t i.
  • FIG. 36 shows measured excitement-sedation and predicted excitement-sedation when excitement-sedation was estimated.
  • FIG. 36 shows the results of subject A with the smallest error between measured excitement-sedation and predicted excitement-sedation. In “Positive” on FIG. 36, the predicted excitement-sedation increased along with the measured excitement-sedation.
  • FIG. 37 shows the average error of each subject when the absolute value of the difference between the measured excitement-sedation and the predicted excitement sedation is taken as the error.
  • the average error of “, Positive” was 0.10 to 0.37
  • the average error of “Negative” was 0.11 to 0.29
  • the average of the average errors among all subjects was 0.17.
  • predicted excitement-sedation was estimated with an error of about 17% on average.
  • FIG. 38 shows a series of measured excitement-sedation and predicted excitement-sedation relationships taken at intervals of 10 s for all subjects. In FIG. 38, the correlation coefficient was 0.89, which was a high correlation. In addition, it can be seen from FIG. 38 that the distributions of measured excitement-sedation and predicted excitement-sedation are almost uniform regardless of the magnitude of the values.
  • the stress coping style determination system of the present invention can qualitatively analyze the stress of a subject in a non-contact state, it is a means for grasping the stress state of a worker working in a factory or the like, while driving a car. It can be used in a wide range of technical fields, such as a means for grasping the stress state of a driver in a car, a means for grasping the stress state of a student in class, and the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • Hematology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Human Computer Interaction (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Vascular Medicine (AREA)
  • Neurology (AREA)

Abstract

【課題】被験者のストレス対処様式を非接触状態で判定することができるシステムを提供する。 【解決手段】被検者の生体情報を非接触状態で取得する生体情報取得部と、前記生体情報と予め特定した応答パターンとに基づいて被験者のストレス対処様式を判定する判定部と、を有する。前記応答パターンは、血行力学パラメータにより特定される。

Description

ストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、プログラム及び学習済モデル
 本発明は、被験者のストレス対処様式を非接触状態で判定する技術に関するものである。
 被験者のストレス状態を把握する技術は公知である。たとえば、特許文献1には、顔面熱放射熱量を測定することにより被験者の心理的変化を推定する技術が記載されている。
 また、特許文献2には、顔画像情報に基づいて被験者の心理状態のレベル計測を行う技術が記載されている。これらの技術によれば、被験者に何らかの心理的変化があったことを非接触状態で検知したり、被験者の心理状態を非接触状態で量的に分析したりすることができる。
 しかし、特許文献1及び2の技術では、被験者が感じているストレスの種類を把握することができないため、被験者のストレスについて質的分析を行うことはできない。
特開平6-54836号公報 特開2007-68620号公報
 ところで、人間はストレス刺激に直面した時に心臓血管系が身体各組織からの代謝要求を満たすという目的を達すべく、特徴的な反応パターンを示すことが知られている。即ち、能動的対処を示すパターン、受動的対処を示すパターン及び、ストレスに対して特定の対処をしないパターンである。これらは「ストレス対処様式」と呼ばれ、能動的対処のパターンが現れているときには、その被験者は良いストレス状態にあると推定し得る。反対に、受動的対処のパターンが現れているときには、その被験者は悪いストレス状態にあると推定し得る。
 すなわち、被験者のストレス対処様式を判定することにより、被験者が感じているストレスの種類を把握することが可能になる。
 本発明は、被験者のストレス対処様式を非接触状態で判定することができるストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、それらをコンピュータを用いて実現するためのプログラム及び学習済モデルを提供する。
 上記課題を解決するために、請求項1のストレス対処様式判定システムは、被検者の生体情報を非接触状態で取得する生体情報取得部と、前記生体情報と予め特定した応答パターンとに基づいて被験者のストレス対処様式を判定する判定部と、を有し、前記応答パターンは、血行力学パラメータにより特定されることを特徴としている。
 このストレス対処様式判定システムは、被検者の生体情報を非接触状態で取得し、その生体情報と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を非接触状態で判定する。
 また、請求項2のストレス対処様式判定システムは、請求項1に記載のストレス対処様式判定システムにおいて、前記血行力学パラメータは、平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちの複数のパラメータを含むことを特徴とする。
 ここで「血行力学」(hemodynamics)とは、血液循環を対象とする循環生理学の一分科のことであり、力学、弾性体力学、流体力学の理論を生体系に応用した研究部門である。
 具体的には、心臓の内圧,拍動,仕事量,拍出量,血管や心筋の弾性,脈拍,血流速度,血液の粘性などを研究するものである。従って、本発明において「血行力学パラメータ」とは、心臓の内圧,拍動,仕事量,拍出量,血管や心筋の弾性,脈拍,血流速度,血液の粘性等の数値の媒介変数の意味である。
 このストレス対処様式判定システムは、被検者の生体情報を非接触状態で取得し、その生体情報と平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちの複数のパラメータにより特定される応答パターンとに基づいて、その被検者のストレス対処様式を判定する。また、血行力学パラメータは一般的には連続血圧計によって同定することができる。
 また、請求項3のストレス対処様式判定システムは、請求項2に記載のストレス対処様式判定システムにおいて、前記生体情報は、顔面画像であることを特徴とする。
 このストレス対処様式判定システムは、被検者の顔面画像を非接触状態で取得し、その顔面画像と前記応答パターンとに基づいて、その被検者のストレス対処様式を判定する。
 また、請求項4のストレス対処様式判定システムは、請求項3に記載のストレス対処様式判定システムにおいて、前記顔面画像は、顔面熱画像または顔面可視画像であることを特徴とする。
 このストレス対処様式判定システムは、被検者の顔面熱画像または顔面可視画像を非接触状態で取得し、その顔面熱画像または顔面可視画像と前記応答パターンとに基づいて、その被検者のストレス対処様式を判定する。
 この場合、「顔面可視画像」は一般に広く使用されているカメラ、即ち、結像するための光学系を有し映像を撮影するための装置により被検者の顔面を撮影して得られる画像である。この場合、カラー画像が好ましい。また、「顔面熱画像」とは、被検者の顔面から放射される赤外線を分析し、熱分布を図として表した画像であり、赤外線サーモグラフィにより撮影して得られるものである。
 また、請求項5のストレス対処様式判定システムは、請求項3または4に記載のストレス対処様式判定システムにおいて、前記判定部は、前記顔面画像に含まれる顔面の特定部位のストレス応答を観察することにより被験者のストレス対処様式を判定することを特徴とする。
 このストレス対処様式判定システムは、被験者の顔面の特定部位のストレス応答と前記応答パターンとに基づいて、その被検者のストレス対処様式を判定する。
 また、請求項6のストレス対処様式判定システムは、前記応答パターンには、「能動的対処」、「受動的対処」及び「対処なし」からなる三種類のパターンが含まれることを特徴とする。
 このストレス対処様式判定システムは、被検者の生体情報を非接触状態で取得し、その生体情報に基づいて、その被検者のストレス対処様式が、「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する。
 また、請求項7のストレス対処様式判定システムは、請求項6に記載のストレス対処様式判定システムにおいて、前記判定部は、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶している判定用特徴量記憶部とを有し、前記生体情報と前記判定用特徴量記憶部に記憶されている各空間的特徴量とに基づいて、前記ストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定することを特徴としている。
 このストレス対処様式判定システムは、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶し、被検者の生体情報と各空間的特徴量とに基づいて、その被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する。
 また、請求項8のストレス対処様式判定システムは、請求項7記載のストレス対処様式判定システムにおいて、前記判定用特徴量記憶部に記憶されている空間的特徴量は、機械学習部により抽出された空間的特徴量であり、前記機械学習部は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶している学習用データ記憶部と、前記学習用顔面画像から前記顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出部と、前記特徴量抽出部による抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出部による前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習部と、を有することを特徴としている。
 このストレス対処様式判定システムは、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を、機械学習部により抽出する。
 機械学習部は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶し、学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果と抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する。
 また、請求項9のストレス対処様式判定システムは、請求項7又は8のストレス対処様式判定システムにおいて、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴としている。
 また、請求項10のプログラムは、コンピュータを被検者のストレス対処様式を判定する手段として機能させるためのプログラムであって、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶する判定用特徴量記憶ステップと、被検者の顔面画像と前記判定用特徴量記憶ステップにより記憶した各空間的特徴量とに基づいて、被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する判定ステップと、を有し、前記応答パターンは、血行力学パラメータにより特定されることを特徴としている。
 このプログラムは、これが一又は互いに連携して働く複数のコンピュータにインストールされ実行されることにより、当該一又は複数のコンピュータからなるシステムを、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量と被検者の顔面画像と、に基づいて、被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する手段として機能させる。
 また、請求項11のプログラムは、請求項10記載のプログラムにおいて、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、前記学習用顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する学習ステップと、を有し、前記判定用特徴量記憶ステップは、前記特徴量抽出ステップにより抽出した空間的特徴量を記憶するステップであることを特徴としている。
 このプログラムは、これが一又は互いに連携して働く複数のコンピュータにインストールされ実行されることにより、当該一又は複数のコンピュータからなるシステムを、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶し、学習用顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更すると共に、抽出した空間的特徴量を記憶する手段として機能させる。
 また、請求項12のプログラムは、請求項10又は11のプログラムにおいて、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴としている。
 また、請求項13のストレス対処様式判定方法は、被検者の生体情報を非接触状態で取得する生体情報取得ステップと、前記生体情報と予め特定された応答パターンとに基づいて被験者のストレス対処様式を判定する判定ステップと、を有し、前記応答パターンは、血行力学パラメータにより特定されることを特徴としている。
 このストレス対処様式判定方法は、被検者の生体情報を非接触状態で取得し、その生体情報と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を判定する。
 また、請求項14の学習装置は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶している学習用データ記憶部と、前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出部と、前記特徴量抽出部による抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出部による前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習部と、を有することを特徴としている。
 この学習装置は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶し、学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する。
 また、請求項15の学習装置は、請求項14の学習装置において、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴としている。
 また、請求項16の学習方法は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を有することを特徴としている。
 この学習方法は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶し、それらの学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する。
 また、請求項17の学習方法は、請求項16の学習方法において、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴としている。
 また、請求項18のプログラムは、コンピュータを顔面画像の空間的特徴量を学習する手段として機能させるためのプログラムであって、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を有することを特徴とするプログラム。
 このプログラムは、これが一又は互いに連携して働く互いに連携して働く複数のコンピュータにインストールされ実行されることにより、当該一又は複数のコンピュータからなるシステムを、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶し、それらの学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する学習装置として機能させる。
 また、請求項19のプログラムは、請求項18のプログラムにおいて、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴としている。
 また、請求項20の学習済モデルは、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を教師データに用いて、被験者の顔面画像の空間的特徴量を機械学習することにより生成されることを特徴としている。
 この学習済モデルは、被験者の顔面画像を入力とし、当該被験者の顔面画像の空間的特徴量を出力とする。
 また、請求項21の学習済モデルは、請求項18のプログラムにおいて、前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴としている。
 請求項1のストレス対処様式判定システムによれば、被検者の生体情報を非接触状態で取得し、その生体情報と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を非接触状態で判定することができるので、被験者に行動的制約を与えることなく、被験者が感じているストレスの種類を把握することが可能になる。
 一般に、「ストレス」という語は広く用いられているが、心理学上、「ストレス」とは「生体に作用する外からの刺激(ストレッサ―)に対して生じる非特異的反応の総称である」(心理学者ハンス・セリエ博士)とされている。
 人間の生存に基づき様々なストレッサーが存在し、近年特に、社会的環境の中でのストレッサーが多く、生体に様々な影響を及ぼしていることが知られており、場合によっては、疾患の原因ともなることが医学的に判明している。
 しかしながら、ストレスは全てが人間存在にとって悪いものではなく、仮にストレスを受けた場合であっても、ストレスに対処しようとした場合には生体が活性化し、プラスの効果をもたらす場合もあることが知られている。このような観点から、セリエ博士は受け手側の生体条件の差やストレスの程度等によって、良いストレス(enstress)と悪いストレス(distress)になりうる旨を明らかにしている。
 従って、このような心理学の視点から、ストレスを考慮する場合にはストレス一般をすべて悪いものとして把握するのではなく、上記のように生体にとってのストレスの種類を分類して考えることが必要であり、また、このような観点により、現代における様々な社会活動の中でどのようにストレス管理を行い、例えば、生産効率、作業効率を上げるか、について社会的、産業的に、かつポジティブに考えることが可能となる。
 しかしながら、上記のように、被験者のストレス状態を把握する技術及び特許発明は公知であるが、従来のような手法によれば被験者が感じているストレスを総体的に捉え、被験者が感じているストレスの種類に基づいた質的分析を行うことはできない。
 本願発明によれば、被検者に応じてストレスの種類を分類して把握することにより、ストレッサーと被検者によるストレス反応との関係を、より詳細に把握することが可能となる。その結果、ストレッサーとなっている社会的環境等と人間との関係性をより正確に分析、検討することができ、様々な社会的環境分野へ適用して問題解決を図ることができると共に、様々な産業分野へ適用し、生産効率の向上、産業活動の促進を促すことが可能となる。
 請求項2のストレス対処様式判定システムによれば、被検者の生体情報と平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちのいずれかにより特定される応答パターンとに基づいて、その被検者のストレス対処様式を詳細かつ正確に判定することができる。
 請求項3のストレス対処様式判定システムによれば、被検者の顔面画像を非接触状態で取得し、その顔面画像と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を、従来のように連続血圧計を使用することないため、被験者を拘束せず身体的負担をかけることなく、かつ迅速に判定することができる。
 請求項4のストレス対処様式判定システムによれば、被検者の顔面熱画像または顔面可視画像を非接触状態で取得し、その顔面熱画像または顔面可視画像と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を心理生理学に基づいて判定することができる。
 請求項5のストレス対処様式判定システムによれば、被験者の顔面の特定部位の状態と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を容易かつ正確に判定することができる。
 請求項6のストレス対処様式判定システムによれば、被検者の生体情報を非接触状態で取得し、その生体情報に基づいて、その被検者のストレス対処様式が、「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定することができる。
 従って、ストレス対処様式を、前記「能動的対処」、「受動的対処」及び「対処なし」の3種類の応答パターンに分類できることから、この応答パターンに基づき分析を行い、その分析結果を様々な産業分野の人事管理業務、品質管理業務等に適用し、様々な業務の品質向上に寄与することが可能となる。
 請求項7のストレス対処様式判定システムによれば、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶し、被検者の生体情報と各空間的特徴量とに基づいて、その被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定することができる。
 請求項8のストレス対処様式判定システムによれば、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更することができる。
 請求項9のストレス対処様式判定システムによれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、被検者のストレス対処様式を非接触状態で高精度に判定することができる。
 請求項10のプログラムによれば、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量と被検者の顔面画像と、に基づいて、被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定するシステムを、一又は互いに連携して働く複数のコンピュータを用いて実現することができる。
 請求項11のプログラムによれば、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶し、学習用顔面画像の空間的特徴量を学習済モデルを用いて抽出し、その抽出結果とその抽出対象とされた学習用顔面画像に付されているラベルとの関係に基づいて、空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更するとともに、抽出した空間的特徴量を記憶するシステムを、一又は互いに連携して働く複数のコンピュータを用いて実現することができる。
 請求項12のプログラムによれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、被検者のストレス対処様式を非接触状態でより高精度に判定することができるシステムを、一又は互いに連携して働く複数のコンピュータを用いて実現することができる。
 請求項13のストレス対処様式判定方法によれば、被検者の生体情報を非接触状態で取得し、その生体情報と血行力学パラメータにより特定された応答パターンとに基づいて、その被検者のストレス対処様式を非接触状態で判定することができるので、被験者に行動的制約を与えることなく、被験者が感じているストレスの種類を把握することが可能になる。
 請求項14の学習装置によれば、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更することができる。
 請求項15の学習装置によれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、被験者の顔面画像の空間的特徴量の抽出精度がより高くなるように学習済モデルのネットワークパラメータを変更することができる。
 請求項16の学習方法によれば、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更することができる。
 請求項17の学習方法によれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、被験者の顔面画像の空間的特徴量の抽出精度がより高くなるように学習済モデルのネットワークパラメータを変更することができる。
 請求項18のプログラムによれば、これを一又は互いに連携して働く複数のコンピュータにインストールし実行することにより、被験者の顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルのネットワークパラメータを変更する学習装置が実現される。
 請求項19のプログラムによれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、このプログラムを一又は互いに連携して働く複数のコンピュータにインストールし実行することにより、被験者の顔面画像の空間的特徴量の抽出精度がより高くなるように学習済モデルのネットワークパラメータを変更する学習装置が実現される。
 請求項20の学習済モデルによれば、これに被験者の顔面画像を入力することにより、当該被験者の顔面画像の空間的特徴量を抽出することができる。
 請求項21の学習済モデルによれば、空間的特徴量をフラクタル次元により高精度に数値化できるので、この学習済モデルに被験者の顔面画像を入力することにより、当該被験者の顔面画像の空間的特徴量を高精度に抽出することができる。
本発明に係るストレス対処様式判定システムの一実施形態のブロック図である。 (A)は「能動的対処」のラベルが付された学習用顔面画像群を概念的に例示する説明図である。(B)は「受動的対処」のラベルが付された学習用顔面画像群を概念的に例示する説明図である。(C)は「対処なし」のラベルが付された学習用顔面画像群を概念的に例示する説明図である。 図1のストレス対処様式判定システムを構成する判定装置の処理内容を示すフローチャートである。 図1のストレス対処様式判定システムを構成する学習装置の処理内容を示すフローチャートである。 実験例1の先行研究の血行力学パターン反応を示す表である。 計測システムを示す概念図である。 鏡描写課題を示す概念図である。 MBP(平均血圧)の時系列変化を示すグラフである。 CNN(畳込みニューラルネットワーク)の構造を示す模式図である。 畳み込み層のフィルタサイズ、ストライド、フィルタ枚数を示す表である。 プーリング層のフィルタサイズ、ストライドを示す表である。 各被検者の能動的対処、受動的対処、及び対処なしの各場合における顔面の特徴を示し、熱画像と顔面の特徴マップを対比して示す図である。 実験例2の実験プロトコルを示す概念図である。 嗜好度と集中度の関係を示すグラフである。 被検者への脳波電極配置状態と計測システムとを示す図である。 「ポジティブ」コンテンツに対する多面的感情尺度の変動を示す表である。 「ネガティブ」コンテンツに対する多面的感情尺度の変動を示す表である。 「ホラー(集中)」コンテンツに対する多面的感情尺度の変動を示す表である。 「ホラー(非集中)」コンテンツに対する多面的感情尺度の変動を示す表である。 「ポジティブ」コンテンツに対する主観的心理指標の変動を示す表である。 「ネガティブ」コンテンツに対する主観的心理指標の変動を示すグラフである。 「ホラー(集中)」コンテンツに対する主観的心理指標の変動を示す表である。 「ホラー(非集中)」コンテンツに対する主観的心理指標の変動を示すグラフである。 「ポジティブ」「ネガティブ」コンテンツ視聴に対する生理指標の時系列変動を示す表である。 各コンテンツに対する生理指標の評価を示す表である。 「ホラー(集中)」及び「ホラー(非集中)」コンテンツ視聴に対する生理指標の時系列変動を示すグラフである。 TVコンテンツに対する嗜好と視聴様態の関係を示すグラフである。 実験例3の実験プロトコルを示す概念図である。 実験プロトコルを示す概念図である。 「興奮-鎮静」「ストレス対処様態」「嗜好」の推定に用いたニューラルネットワークの構造を示す表である。 特徴ベクトルの抽出方法を示すグラフである。 各コンテンツに対する主観的心理指標の評価を示す表である。 各コンテンツに対する生理指標の評価を示す表である。 TVコンテンツに対する嗜好と視聴様態の正判別率を示す表である。 TVコンテンツに対する嗜好および視聴様態の正判別率を示すグラフである。 「興奮-鎮静」状態の実測値と推定値の時間的変動を示すグラフである。 「興奮-鎮静」状態の推定誤差を示すグラフである。 「興奮-鎮静」状態の実測値と推定値の関係を示すグラフである。 空間的特徴量としてフラクタル次元を求める方法を例示するフローチャートである。 図39中のクラスタリング処理の実施例を示す説明図である。 図39中の画像抽出処理及びエッジ抽出処理の実施例を示す説明図である。 図39中のフラクタル解析処理の実施例を示す説明図である。
 以下、添付図面を参照して、本発明の一実施形態について説明する。
[構成]
 図1に示す一実施形態のストレス対処様式判定システム100は、生体情報取得装置(生体情報取得部)110と、判定装置(判定部)120と、学習装置(機械学習部)130と、を有する。
 生体情報取得装置110は、被検者Pの生体情報を非接触状態で取得するための装置である。
 生体情報の最も好適な例として、顔面画像IFを挙げることができる。以下の説明では、生体情報として顔面画像IFを用いた場合について説明する。
 顔面画像IFは、顔面熱画像であっても顔面可視画像であってもよい。顔面画像IFが顔面熱画像である場合には、生体情報取得装置110として、赤外線サーモグラフィが用いられる。顔面画像IFが顔面可視画像である場合には、生体情報取得装置110として、可視画像撮像装置としての、いわゆるカメラが用いられる。
 上記のように、「顔面可視画像」は一般に広く使用されているカメラ、即ち、結像するための光学系を有し映像を撮影するための装置により被検者の顔面を撮影して得られるカラー画像である。また、「顔面熱画像」とは、被検者の顔面から放射される赤外線を分析し、熱分布を図として表した画像であり、赤外線サーモグラフィにより撮影して得られるものである。
 この場合、カメラにより撮影される映像の場合には可視光(380nm~800nmの波長)によるものであり、一方、赤外線サーモグラフィによる熱分布画像は赤外線(800nm以上の波長)によるものであることから、いずれの場合も単に波長の相違のみであることから、赤外線サーモグラフィであってもまた一般のカメラであっても、生体情報取得装置110として使用することができる。
 判定装置120は、本発明に係るプログラムを汎用のコンピュータにインストールし実行することにより実現される。
 判定装置120は、生体情報取得装置110により取得した顔面画像IFと予め特定した応答パターンとに基づいて被験者のストレス対処様式を判定する機能を有する装置である。応答パターンには、「能動的対処」(パターンI)、「受動的対処」(パターンII)及び「対処なし」(パターンIII)からなる三種類のパターンが含まれる。応答パターンは、血行力学パラメータにより特定される。血行力学パラメータは、平均血圧(MBP)、心拍数(HR)、心拍出量(CO)、一回拍出量(SV)及び全末梢抵抗(TPR)のうちの複数のパラメータを含む。
 判定装置120は、判定用特徴量記憶部121と、特定部位反応検出部122と、応答パターン判定部123と、を有する。
 判定用特徴量記憶部121は、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶している機能ブロックである。判定用特徴量記憶部121に記憶されている空間的特徴量は、学習装置130により抽出された空間的特徴量である。顔面画像IFが顔面熱画像の場合、空間的特徴量の例として、顔面皮膚温度分布を挙げることができる。
 特定部位反応検出部122は、顔面画像IFに含まれる被験者Pの顔面の解剖学的特定部位のストレス応答を検出する機能ブロックである。解剖学的特定部位は、個人差に依るところが比較的小さい部位として解剖学的所見から特定される一又は複数の部位である。解剖学的特定部位の例として、鼻頂部を挙げることができる。
 応答パターン判定部123は、特定部位反応検出部122により検出されたストレス応答と判定用特徴量記憶部121に記憶されている各空間的特徴量とに基づいて、被験者Pのストレス対処様式が「能動的対処」(パターンI)、「受動的対処」(パターンII)及び「対処なし」(パターンIII)のうちのいずれの応答パターンを示す様式であるか判定する機能ブロックである。
 学習装置130は、学習用データ記憶部131と、特徴量抽出部132と、特徴量学習部133と、を有する。学習装置130は、本発明に係るプログラムを汎用のコンピュータにインストールし実行することにより実現される。
 学習用データ記憶部131は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像LGを記憶している機能ブロックである。図2には、学習用顔面画像LGが概念的に例示されている。図2(A)に示すLGA1、LGA2、LGA3、・・・は、「能動的対処」のラベルが付された学習用顔面画像群である。図2(B)に示すLGB1、LGB2、LGB3、・・・は、「受動的対処」のラベルが付された学習用顔面画像群である。また、図2(C)に示すLGC1、LGC2、LGC3、・・・は、「対処なし」のラベルが付された学習用顔面画像群である。
 特徴量抽出部132は、学習用顔面画像LGから顔面画像の空間的特徴量を学習済モデル134を用いて抽出する機能ブロックである。学習済モデル134は、血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像LGを教師データに用いて、学習用顔面画像LGに含められる被験者Pの顔面画像の空間的特徴量を機械学習することにより生成される。
 特徴量学習部133は、特徴量抽出部132による抽出結果とその抽出対象とされた学習用顔面画像LGに付されているラベルとの関係に基づいて、特徴量抽出部132による空間的特徴量の抽出精度が高くなるように学習済モデル134のネットワークパラメータを変更する機能ブロックである。
[動作]
 つぎに、上記のように構成されたストレス対処様式判定システム100の判定装置120及び学習装置130における処理の流れを、図3及び図4のフローチャートに従って説明する。
 判定装置120は、図2に示すように、判定用特徴量記憶処理S1、特定部位反応検出処理S2及び応答パターン判定処理S3を実行する。
 判定用特徴量記憶処理S1は、学習装置130により抽出された空間的特徴量すなわち、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を判定用特徴量記憶部121に記憶する処理である。
 特定部位反応検出処理S2は、生体情報取得装置110により撮像された顔面画像IFに含まれる被験者Pの顔面の解剖学的特定部位のストレス応答を検出する処理である。
 応答パターン判定処理S3は、特定部位反応検出処理S2により検出されたストレス応答と判定用特徴量記憶部121に記憶されている各空間的特徴量とに基づいて、被験者Pのストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する処理である。
 学習装置130は、図4に示すように、学習用データ記憶処理S11、特徴量抽出処理S12及び特徴量学習処理S13を実行する。
 学習用データ記憶処理S11は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像LGを学習用データ記憶部131に記憶する処理である。
 特徴量抽出処理S12は、学習用顔面画像LGから、学習用顔面画像LGに含まれる被験者の顔面画像の空間的特徴量を学習済モデル134を用いて抽出する処理である。
 特徴量学習処理S13は、特徴量抽出処理S12による抽出結果とその抽出対象とされた学習用顔面画像LGに付されているラベルとの関係に基づいて、特徴量抽出処理S12による特徴量の抽出精度が高くなるように学習済モデル134のネットワークパラメータを変更する処理である。
[空間的特徴量]
 本実施例では、空間的特徴量として、顔面画像IFに基づいて算出されるフラクタル次元を用いることができる。フラクタル次元を用いることにより、空間的特徴量を容易に且つ高確度に数値化することができる。
 空間的特徴量としてのフラクタル次元を求める方法は任意である。図39に例示する処理フローでは、クラスタリング処理S21、画像抽出処理S22、エッジ抽出処理S23及びフラクタル解析処理S24からなる一連の処理を実行することによりフラクタル次元を求めている。
 クラスタリング処理S21は、顔面画像IFを温度分布に関してクラスタリングする処理である。クラスタリングの手法は任意であるが、本実施形態に好適な手法として、Fuzzy-c-means法を挙げることができる。Fuzzy-c-means法は、あるデータ群がクラスタに属するか否かの二者択一の問題を考えるのではなく、データが唯一のクラスタに完全に属するという状況(k-means法)の他にも、複数のクラスタにある程度ずつ属していると仮定し、データのクラスタへの所属の度合(帰属度)をあいまいに示す手法である。図40には、クラスタ数を12に設定して入力画像(顔面画像IF)をクラスタリングした例が示されている。図40の例では、cluster1は最も低い温度分布に帰属し、cluster12は最も高い温度分布に帰属する。
 画像抽出処理S22は、クラスタリング処理S21により得られた複数のクラスタの画像から所定の温度以上の温度領域の温度分布のクラスタの画像を抽出する処理である。図41の例では、図40に例示したcluster1~12の画像のうち、顔領域の温度を含んだ帰属度画像であるcluster8~12の画像が抽出されている。
 エッジ抽出処理S23は、画像抽出処理S22により抽出された画像のエッジ部分を検出し、当該エッジ部分により表わされる線分からなるエッジ図形を生成する処理である。エッジ検出の手法は任意であるが、本実施形態に好適な手法として、Canny法を挙げることができる。canny法は、ガウシアンフィルタによるノイズ除去処理、ソーベルフィルタによる輝度勾配(エッジ)抽出処理、エッジの強さが極大になる部分以外の部位を除去する非極大抑制処理、及び、正しいエッジかどうかをヒステリシスを使った閾値により判定するヒステリシス閾値処理を経てエッジを検出する手法である。図41の例では、cluster8~12の画像のエッジ部分がcanny法により検出され、エッジ部分により表わされる線分からなるエッジ図形が生成されている。
 フラクタル解析処理S24は、エッジ抽出処理S23により生成されたエッジ図形のフラクタル次元を求める処理である。フラクタル次元は、図形や現象の自己相似性や複雑性を定量的に表す指標であり、一般的に非整数値になる。フラクタル解析の手法は任意であるが、本実施形態に好適な手法として、ボックスカウンティング法を挙げることができる。ボックスカウンティング法は、解析対象の図形を正方形のボックス(格子状)に分割したときに、ボックスの大きさと図形を含むボックスの総数との関係を両対数グラフ上で直線近似したときの直線の傾きの絶対値からフラクタル次元を求める方法である。
 フラクタル次元(D)の計算式は、下記の式で表される。rはボックスの大きさであり、N(r)はボックスの個数である。
Figure JPOXMLDOC01-appb-M000001
 図42には、図41中のcluster12のエッジ図形のフラクタル次元の算出例が示されている。この例では、cluster12のエッジ図形について、rを2~128の範囲で変動させ、rとN(r)を両対数グラフ上にプロットすることにより、1.349という値が得られている。
[作用・効果]
 上記のように構成されたストレス対処様式判定システム100においては、被験者Pの顔面画像IFが生体情報取得装置110により撮像される。撮像された顔面画像IFは、判定装置120に入力される。判定装置120は、入力された顔面画像IFと、血行力学パラメータすなわち、平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちのいずれかにより特定される応答パターン(パターンI、II及びIII)と、に基づいて、その被検者Pのストレス対処様式がパターンI、II及びIIIのうちのどのパターンを示す様式であるか判定する。
 したがって、このストレス対処様式判定システム100によれば、被験者Pの顔面画像IFに基づいて、非接触状態で、被験者Pのストレス対処様式を判定することができるので、被験者Pに行動的制約を与えることなく、被験者Pが感じているストレスの種類を把握することができる。
 また、このストレス対処様式判定システム100は、被験者Pの顔面画像IFに含まれる顔面の解剖学的特定部位の反応と応答パターン(パターンI、II及びIII)とに基づいて、その被検者Pのストレス対処様式を判定する。解剖学的特定部位は、個人差に依るところが比較的小さい部位として解剖学的所見から特定される一又は複数の部位である。
 したがって、このストレス対処様式判定システム100によれば、ストレス対処様式判定のための汎用システムを構築することができる。
 また、このストレス対処様式判定システム100は、「能動的対処」に対応する特徴量、「受動的対処」に対応する特徴量及び「対処なし」に対応する特徴量を、学習装置130により抽出する。学習装置130は、「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像LGを記憶し、それらの学習用顔面画像LGから顔面画像の空間的特徴量を学習済モデル134を用いて抽出し、その抽出結果と抽出対象とされた学習用顔面画像LGに付されているラベルとの関係に基づいて、顔面画像の空間的特徴量の抽出精度が高くなるように学習済モデルLGのネットワークパラメータを変更する。学習済モデルLGの学習が進むにつれて、顔面画像の空間的特徴量の抽出精度が向上し、判定用特徴量記憶部121に記憶される空間的特徴量の精度も向上する。
 したがって、このストレス対処様式判定システム100によれば、学習装置130における学習済モデルLGの学習が進むにつれて、ストレス対処様式の判定精度を向上させることができる。
 また、このストレス対処様式判定システムによれば、空間的特徴量をフラクタル次元により数値化することで、ストレス対処様式の判定精度をより向上させることができる。
 なお、本発明は上記実施形態に限定されない。たとえば、上記実施形態では、ストレス対処様式判定システム100が学習装置130を備えているが、学習装置130は省略可能である。学習装置130を省略した場合、学習装置130以外の手段により抽出或いは生成した空間的特徴量が判定装置120の判定用特徴量記憶部121に記憶される。
 <実験例1>
 以下に、本実施の形態に係る判定用特徴量記憶部121に記憶されている特徴量のデータを収集するための一実験例を示す。
1.実験方法
 実験は25。0±1。5℃のシールドルーム内で行い,被験者は18~21歳の健常成人男性8名で実施した。計測システムを図6に示す。被験者は着座し,左手中指第二関節に連続血圧・血行力学動態測定器(Finometer model2,Finapres Medical Systems B。V社製)の測定カフを装着した。
 血行力学パラメータは平均血圧(MBP),心拍数(HR),心拍出量(CO),全末梢抵抗(TPR)を測定した。顔面熱画像を測定するために顔面全体が計測できる画角で赤外線サーモグラフィ(TVS-200EX,AVIONICS社)を前方1.2mの位置に設置し,撮影間隔は1fpsとした。顔面皮膚温度を測定する際に背もたれ椅子に座らせて,コンピュータの画面をプロジェクターで壁に向けて1.55mの距離で映し出した。
 実験は,Task前の安静閉眼60s(Rest1),能動的課題60s(Task1)、対処なし課題60s(Task2)、受動的課題60s(Task3)、Task後の安静閉眼60s(Rest2)の時間区分で構成される。能動的課題では暗算課題,受動的課題では鏡映描写課題,ストレス対処なし課題では安静閉眼を行わせた。暗算課題では4秒ごとの2ケタの足し算でありコンピュータのスクリーン上で行った。暗算の正誤はその都度告知しなかった。また,鏡映描写課題ではコンピュータ上で再現し,スクリーン上に表示された星型図形(図7参照)を右手でマウスを使い線と線の間を通るように教示した。マウスの動きと画面上のカーソルの動きは,上下左右反転させた。
 星形図形にはカーソルとカーソルの軌跡を表示させ、はみ出した場合にカーソルを最初の位置に戻し軌跡をすべて消した。周回開始位置は星型の最上部とした。対処なしの課題としては安静開眼を用いた。血行力学パラメータにおけるRest1の平均値をベースラインとして減算し規格化を行った。
2.解析方法
2-1 血行力学パラメータの判別
 図8に被験者Aの規格化したMBPの時系列変化を示す。各血行力学パラメータに関して、ベースライン+2σ(σ:Rest1における各血行力学パラメータの標準偏差)以上の値となった範囲を“+”,ベースライン-2σ以下の値となった範囲を“-”と定義した。各血行力学パラメータを表1のパターン反応に基づき、“パターンI”(能動的対処),“パターンII”(受動的対処)、どちらにも当てはまらない場合を“対処なし”に判別した。また,Task1~3間で撮影した熱画像を血行力学パラメータの判別に基づきラベル付けを行った。
2-2 入力データの作成
 ラベル付けした熱画像を機械学習に用いるために,顔面の部分を151×171pixelでトリミングを行い、グレイスケール化を行うことで顔面熱画像を作成した。また、各ストレス対処にラベル付けされた顔面熱画像(入力データ)の枚数を合わせるために、ランダムクロップ,ホワイトガウスノイズの付加,コントラスト調整を行いデータ拡張した。
2-3 CNNを用いた機械学習
 本実験では、畳込みニューラルネットワーク(CNN)を用いて、顔面皮膚温度分布に基づくストレス対処様式の個人判別モデルの構築と、ストレス対処様式に関連する特徴量の抽出を行った。
 CNNの構成は特徴量の抽出を行う畳込み層3層、プーリング層3層及び判別を行う全結合層1層からなる。CNNの構造を図9に,畳み込み層及びプーリング層のフィルタのパラメータを図10、11に示す。ストレス対処様式に関連する特徴解析は,CNNの畳込み層の重みである特徴マップを基に行った。
3.結果及び考察
 CNNに各ストレス対処様式の顔面熱画像を入力した際の2層目の畳み込み層の特徴マップを被験者ごとに図12に示す。
 被験者内での対処様式ごとの特徴マップを観測した結果,特に,被験者Bでは能動的対処及びストレス対処なしの時には左頬に,受動的対処時には右頬に特徴が認められるなど,各ストレス対処様式間で表出される特徴部位が異なることが示された。被験者間で特徴マップを見た結果,大半の被験者では鼻部に特徴が表出していたが,各被験者で特徴表出部位に個人差が認められた。
 各被験者間で特徴表出部位に個人差が認められた要因として,血管や脂肪の構造に差異が考えられる。しかし,解剖学的に意味づけられる特徴部位を特定することにより,ストレス対処判別のための一般モデルの構築の道筋をつけることができると考えられる。
4.総括
 本実験では,CNNを用いることで,顔面皮膚温度分布よるストレス対処様式の判別及び,ストレス対処様式に関連する特徴の抽出を試みた。結果,ストレス対処様式で顔面皮膚温度分布に表出される特徴分布が変わり,さらに個人間でストレス対処様式に関連する特徴分布に個人差が認められた。
参考文献
[1] 澤田幸展:新 生理心理学(宮田洋監修),第10章,北大路書房,pp.172-195,(1998)
[2] 長野 祐一郎:「競争型鏡映描写課題における心臓血管反応」, 生理心理学と精神生理学, Vol.22,No3,pp.237-246,(2004)
[3] 坂東 靜,浅野 裕俊,野澤 昭雄:「読書の表示媒体に関する生理的影響の分析」,電気学会論文誌C(電子・情報・システム部門誌),Vol.135,No.5,pp.520-525,(2015)
[4] 綿貫 卓也, 野澤 昭雄:「ストレス対処様式に基づくTV視聴様態の分析」, 電気学会論文誌C(電子・情報・システム部門誌),Vol.134,No.2,pp.205-211,(2014)
[5] 日沖 求,野澤 昭雄,水野 統太,井出 英人:「時間的圧迫状況下におけるメンタルワークロードの生理心理評価」,電気学会論文誌C(電子・情報・システム部門誌), Vol.127 ,No.7,pp.1000-1006,(2007)
[6] Hiroki Ito,ShizukaBando,Kosuke Oiwa,AkioNozawa:”Evaluation of Variations in Autonomic NervousSystem’s Activity During the Day Based on Facial ThermalImages UsingIndependent Component Analysis”,IEEJTransactions onElectronics, Information and Systems,Vol.138,No.7,pp.1-10,(2018)
[7] 松村 健太,澤田 幸展:「2種類の暗算課題遂行時における心血管反応」,心理学研究,Vo79,No.6,pp. 473-480,(2008)
 また、以下に、本発明に係るストレス対処様式判定システムの基礎研究となる、本願発明者による2つの実験研究例を、本件発明の一適用例(実施例)として示す。
 これらの実験例は、本発明におけるように「被験者の生体情報を非接触状態で取得する」ものではなく連続血圧計を用い被検者にカフを装着して行ったものであるが、本件発明と同様に、血行力学パラメータに基づきテレビ映像コンテンツを視聴した際の視聴者の生理心理状態の分析、分類、評価を行ったものである。従って、本願発明は、例えば、このような事態における被検者のストレス様式判定に適用することができるものである。
<実験例2>
 実験の主旨
 現代,身の回りは多くの情報機器で溢れている。その中でもテレビはその発明以来,家庭のリビングルーム等に設置され,ニュースメディアや娯楽メディアの中心的存在として認知されてきた。しかしながら近年のIT技術の進展による小型化・高性能化された情報通信機器の普及,および,情報ネットワーク環境の発達に伴い,情報メディアの在り方が大きく変容し,今日ではテレビの視聴様態も大きく変容してきている。
 西垣は,テレビのスイッチを常にオンにしながら,同時に雑用をこなしたり携帯電話を操作したりなど,およそ『集中した視聴者』からはほど遠い,と述べている(1)。しかし,その変容している視聴様態を把握することが出来れば,TV コンテンツデザインによって気分・気持ち・行動を望ましい方向へ整えるなど,新たな付加価値をテレビに備えることが可能になる。
 藤原・齋藤は世論調査,および,大野はアンケート調査を行い,テレビを視聴する理由として「ひまつぶし」,「おもしろい番組を楽しむため」,「教養を高め知識を得るため」,「習慣でなんとなく」,「わずらわしい現実から逃れるため」,「気分転換のため」,「BGM」,「一家団らんのため」などの理由を挙げている (2)(3)
 また,高橋らはテレビを視聴する時間について,「朝食の時」,「通勤時」,「家事をしているとき」,「平日自宅でくつろぐ時」などに分類している(4)。さらに,友宗らはテレビの視聴様態を,“頭も体もテレビに集中”という状態の「専念視聴」,“この番組はみたいが,他のことをしながら見る”という状態の「ながら&専念スイッチング視聴」,“とくに見たいものがあるわけではないが,体はテレビに集中”という状態の「時間快適化視聴」などに分類している(5)
 このように,視聴様態は様々であり,時間・場所・気分などの要因によって変容することが明らかとなっている。TV映像に対する嗜好も視聴様態が変容する一因であろう。しかし,嗜好によって視聴様態を分類している研究はない。さらに,これらの視聴様態を判別する研究は世論調査や事後の内省評価などの心理的な応答を用いたものがほとんどで,生理的な応答を用いて視聴様態を分類する研究はない。
 テレビの映像と音声は生体に対する視聴覚刺激であるため,それ自体がストレッサーとみなされる。ストレッサーは生体にストレス対処を促し,ストレス応答として生理・心理的変化をもたらす。テレビの種々のコンテンツをストレッサーとみなせば,コンテンツに対する対処,すなわち視聴様態によってその生理的ストレス応答は異なる事が予想される。野村らは,心臓血管系指標によって,e ラーニングコンテンツへの対処様態を分類している(6)
 そこで,本研究は心臓血管系指標によって,テレビコンテンツに対する視聴様態を分析する事を目的として,連続血圧計による心臓血管系計測,および,赤外線サーモグラフィ装置による非接触状態顔面皮膚温計測,ディジタル生体アンプによる心電図・脳波計測を行い,中枢神経系活性および自律神経系活性の評価を行った。特に,血行力学的パラメータを用いたストレス対処様式,およびTV 映像に対する嗜好によって,TV 映像視聴時における視聴様態の分析を行った。
2.要因抽出実験
 視聴様態は映像コンテンツ,および,それに対する個人的嗜好に影響されると考え,予備実験により要因の分類を行った。
〈2・1〉実験条件 被験者は大学に在籍する健常な学生20名(年齢:19-22,平均年齢:21。1,男性:11名,女性9名)である。被験者には予め実験内容・目的・調査対象を口頭および書面にて十分説明し,署名により実験協力に対する同意を確認した。計測は室温26。0±1。6℃の対流のないシールドルームで行い,室外からの温度入力はないものとした。
 被験者は座位にて,前方2mの位置に設置された液晶テレビ(55インチ,HX850,BRAVIA,SONY製)を用いて,5分間の10種の映像コンテンツ(ニュース・スポーツ・ドキュメンタリー・音楽・ホラー・お笑い・ドラマ・アニメ・料理・ショッピング)を視聴する。映像コンテンツはDVDプレイヤー(SCPH-3900,SONY製)で再生した。視聴する映像コンテンツは被験者が視聴するまで公表しない。また,順序効果を除外するため,視聴する映像コンテンツの順番をランダム順とした。
〈2・2〉実験手順 本実験は,図13に示すように,5 分間の映像視聴,およびその前後の1分間の安静・閉眼状態R1,R2により構成される。また,Visual Analogue Scale(以下,VASと略記する),没入感調査によりそれぞれの映像コンテンツへの嗜好および没入感評価を行った。
〈2・3〉評価法 実験終了時に「嗜好」の主観的感覚量をVASを用いて計測した。VASは,対となる形容詞を線分の両端に配置し,被験者が線分上の任意の位置にチェックをすることにより被験者の心理物理量を計測することが可能である。スケールの両端に配置した語句については「とても嫌い」-「とても好き」とした。加えて,映像に対する没入感を5ポイントスケール(1:全く没入できなかった-5:かなり没入した)で計測した。
〈2・4〉要因抽出実験の結果および考察
 図14の左に、10種のコンテンツの嗜好および没入感における全被験者の平均を示す。図中のエラーバーは嗜好及び没入感の標準誤差を表す。図14の右に,10 種のコンテンツの内,特に個人差の大きかったニュースおよびホラーにおける被験者20 人分の嗜好および没入感を示す。図14の左より各コンテンツの嗜好および没入感を眺めると,平均的な嗜好および没入感は正比例の関係である。図14においてN=20である。
 ホラーに関しては嗜好は低いが没入感が高いという特異な結果を示した。これは,嫌いだが好奇心に駆られてかえって視聴したくなる,いわゆる「恐いもの見たさ」によるものと考えられる。図14の右より被験者毎に嗜好および没入感は異なるため,個人差が大きいことがわかる。よって,生理計測実験においては上述の要因分類実験を元に,被験者毎に高没入・正嗜好(嗜好の高い)の映像コンテンツと低没入・負嗜好(嗜好の低い)の映像コンテンツ,および負嗜好だが。高没入あるいは低没入に分かれるという特異な結果を示したホラー映像に分け,提示することとした。
3.生理計測実験
 要因抽出実験により抽出された要因を元に,再度,同じ被験者で別の映像を用いて生理計測を実施した。
〈3・1〉実験条件 被験者は日本の大学に在籍する健常な学生14名(年齢:19-22,平均年齢:21。4,男性:7名,女性7名)である。2。1と同様のシールドルーム内で実験を行い,映像コンテンツの切り替えおよび生理計測状況の確認のために,同じ部屋に実験実施者一名が同席した。体表面温度の室温への馴化を図る為,実験は被験者入室後から20分以上経過後に実施した。正嗜好,負嗜好の映像コンテンツは要因抽出実験の結果に基づいて被験者毎に設定した。没入感が4以上かつ嗜好が0。6以上の中で最も嗜好の高かった映像コンテンツを正嗜好(以降,「Positive」と略記),没入感が2以下かつ嗜好が0。4以下の中で最も嗜好の低かった映像コンテンツを負嗜好(以降,「Negative」と略記)とした。よって,視聴する映像コンテンツは「Positive」,「Negative」,「ホラー」の3種である。
〈3・2〉実験手順 要因抽出実験と同様に,図13より構成される。また,VAS,Multiple mood scale(以下 MMS と略記),没入感調査により,それぞれの映像コンテンツに対する感性変動,嗜好および没入感評価を行った。
〈3・3〉計測システム 計測システムおよびEEG計測電極の配置を図15に示す。被験者は座位にて,連続血圧計,EEG導出用電極,ECG導出用電極を装着した。連続血圧計(Finometer model2,Finapres Medical Systems B。V。製)は左腕の中指第二関節にカフを装着し,サンプリング周波数200HzでPCに記録した。被験者の前方0。7mの位置に,顔面が測定できる角度で赤外線サーモグラフィー装置(TVS-200X)を設置した。皮膚放射率はε=0。98,温度分解能0。1°C以下とし,サンプリング周波数1HzでPCに記録した。EEGは左耳(A1)をリファレンスとした基準電極法にて計測した。EEG導出用電極位置は,国際10-20法に基づく1点(Pz)とし,電極接触抵抗は10kΩ以下とした。
 一般にα波はO1,O2にて記録するが,本研究では大脳活動の定常的指標としてのα波パワーに着目し,専らその減衰比の算出を目的としている為,左右差や局在性よりもむしろ電極の装着の簡便性,および,被験者への計測ストレスの低減を重視して,近傍のPzを計測した。ECG測定用の電極は,筋電位の混入を最小限にする為,NASA誘導法に従い,胸骨上緑部(+)および心尖部(-)に装着した。接地電極はEEGとECG共通で頭頂部(Cz)とした。EEG信号およびECG信号は,ディジタル生体アンプ(5102, NF ELECTRONICINSTRUMENTS製)にて増幅され,プロセッサボックス(5101,NF ELECTRONIC INSTRUMENTS製)を介してPCにサンプリング周波数200Hzで記録した。
〈3・4〉評価法
 本研究では生理指標,心理指標の相関性を解析した。生理指標は,平均血圧(Mean pressure,以下MPと略記),心拍数(Heart rate,以下HRと略記),一回拍出量(Stroke Volume,以下 SV とする),心拍出量(Cardiac output,以下COと略記),全末梢抵抗(Total peripheral resistance,以下TPRと略記),鼻部皮膚温度(Nasal skin temperature,以下NSTと略記),心電図(Electrocardiograms,以下ECGと略記),および,脳波(Electroencephalograms,以下EEGと略記)とした。EEGの8Hzから13Hzの周波数成分はα波と呼ばれ,安静,閉眼,覚醒時に目立って発現し,何れかの条件が損なわれると減衰する事が知られている(8)。本研究では200HzでサンプリングされたEEG時系列に対して,10秒毎に1024サンプル点に対してフーリエ変換(FFT)を行い,10秒毎のα波パワースペクトルを求めた。さらに,図13のR1区間およびR2区間各々における平均α波パワーを算出し,R1区間の平均α波パワーを基準としたR2区間の平均α波パワー比をテレビ視聴前後の覚醒度変動の指標とした。
 NSTは末梢部血流を支配する交感神経系活動の指標として知られる。交感神経系の亢進・抑制とNSTの時間的変動量はよく相関するため,本研究では10秒毎のNSTの変動量を映像視聴に関する交感神経系活動動能の定量的指標として利用した。正値は交感神経系活動の抑制,負値は交感神経系活動の亢進を意味する。計測された鼻部熱画像時系列の各加増において,鼻部の10×10pixelにおける空間平均温度を求め,NST時系列とした。HFは心拍変動スペクトルの0。15Hz~0。4Hzの高周波成分であり,呼吸性不整脈成分として知られる(7)
 HFは副交感神経系活動の指標とされ,副交感神経の亢進・抑制に応じて増加・減少する。ECGサンプルから閾値処理によりR波ピーク間隔の時系列を求め,3次スプライン補間後,20Hzでリサンプリングを行う。リサンプリング済みデータに対して1s毎にFFT処理を行い,心拍変動パワースペクトルの時系列を得る。FFT処理のデータ数は512点とした。時系列の心拍変動パワースペクトルにおいて,0。15Hz~0。4Hz帯域の積分値を求め,HF時系列とした。血行力学的パラメーター(MP,HR,SV,CO,TPR)は外界のストレスに応じて特徴的な反応パターン(パターンI,パターンII)を示すことが知られており,ストレスに対する心臓血管系の生理反応を理解する上で重要な概念となっている。
 具体的にはパターンIは心筋の収縮活動の亢進や血管拡張による骨格筋への血液量の増大に特徴づけられ,これはいわば,エネルギー消費型の反応(能動的対処)といえる。一方パターンIIは末梢血管の収縮に特徴づけられ,また,心拍数もおおむね減少し,これはいわば,エネルギー節約型の反応(受動的対処)といえる(7)
 また,心理指標は多面的感情状態尺度MMS,および,VASとした。MMSは,対象者がおかれた条件により変化する一時的な気分や感情の状態について,抑鬱・不安(以下,D-A略記),敵意(以下,Hと略記),倦怠(以下Fと略記),活動的快(以下,Aと略記),非活動的快(以下,Iと略記),親和(以下,AFと略記),集中(以下,Dと略記),驚愕(以下,Sと略記)からなる8種類の感情状態尺度により指標化する(9)。実験開始前,および実験終了時には,「覚醒感」「快・不快感」「疲労感」「嗜好」4種類の主観的感覚量をVASを用いて計測した。
 「快・不快感」,および,「覚醒感」はラッセルの情動二元論における基本成分として,本研究における心理評価の項目に選択した(10)。VASは,対となる形容詞を線分の両端に配置し,被験者が線分上の任意の位置にチェックをすることにより被験者の心理物理量を計測することが可能である。スケールの両端に配置した語句については,覚醒感は「とても眠い」-「はっきり目覚めている」,快・不快感は「非常に不快」-「非常に快適」,元気さは「とても疲れている」-「とても元気」,嗜好は「とても嫌い」-「とても好き」とした。各VASは独立した紙面にて用意し,順次,再帰参照なく自筆により記録するよう教示した。さらに,実験終了後に映像に対する没入感を5ポイントスケール(1:全く没入できなかった-5:かなり没入した)で計測した。なお,統計的分析方法として,各心理指標の映像視聴前後の差の検定には対応のあるt検定を用い,各生理指標におけるTEST区間全体の変化量についてはWilcoxonの符号順位検定を用いた。
〈3・5〉結果および考察心理指標について統計的分析を行い,TV映像視聴時およびTV映像視聴前後における心理応答を議論する。なお,ホラー映像刺激に対して,全被験者の嗜好は0。4以下であったので,没入感にのみ着目する。ホラー映像視聴後の5段階の没入感評価において,4あるいは5ならHorror(Concentration)(以下「Horror(C)」と略記),1あるいは2ならHorror(Notconcentration)(以下「Horror(N)」と略記) として分類した。以降,結果は,「Positive」,「Negative」,「Horror(C)」,「Horror(N)」の分類によって表記する。「Horror(C)」の人数は10人,「Horror(N)」の人数は4人である。MMSの各気分尺度における全被験者の平均を図16~19に示す。
 図16ではN=14、図17ではN=14、図18ではN=10、図19ではN=4である。没入感の「快・不快感」,「覚醒感」,「活力」,「嗜好」および「没入感」における全被験者の平均を図20~23に示す。図20ではN=14、図21ではN=14、図22ではN=10、図23ではN=4である。
 「Positive」は図16より,A,AFにおいて有意に増加し,Fにおいて有意に減少した。一方「Negative」は図17より,H,Fにおいて有意に増加した。これは,それぞれ正嗜好および負嗜好の映像コンテンツを視聴する行為と整合する。「Horror(C)」は図18において,A,および,Iの有意な減少を示しており,総じて不快情動が喚起されたものと推測できる。また,図19より図18の方が有意差のあった尺度が多い。
 これより,ホラーは没入していない時と比べて,没入している方が感情の変化が大きいと推測できる。図20より「Positive」は快・不快感,覚醒感および活力において有意に増加した。これより,正嗜好の映像コンテンツは被験者に対して‘爽快感’や‘快適性’を伴う積極的快適性をもたらしたと考えられる。
 逆に,図21より「Negative」は快・不快感,覚醒感および活力において有意に減少していることから,負嗜好の映像コンテンツは被験者に対して‘鬱屈’や‘不快感’を伴う消極的不快感をもたらしたと考えられる。また,図22より「Horror(C)」は覚醒感において有意に増加し,快・不快感および活力において有意に減少していることから‘覚醒感’や‘不快感’を伴う積極的不快感をもたらしたと考えられる。
 続いて,TV映像視聴時およびTV映像視聴前後における生理応答を議論する。各生理指標の被験者間平均の時間的変動を図24に示す。図24においてN=14である。上段からNST,α波,HF,MP,HR,SV,CO,TPRである。TEST区間の始まりを0としている。図中のエラーバーは10s毎の標準誤差を表す。また,NST,MP,HR,SV,CO,TPRおよび没入感はR1区間のベースラインを0,α波およびHFはR1区間のベースラインを1として規格化し,TEST区間全体のベースラインからの変位に関するWilcoxonの符号順位検定の有意確率pを図25に示す(+:p<0。1,*:p<0。05,**:p<0。01)。表中のPは各指標に対する正の応答,Nは負の応答を意味する。図25においてN=14である。
 図24より各指標毎の時系列変化を眺めると,NSTについては「Positive」,および「Negative」共にTEST区間開始とともに下降しているため,交感神経が亢進したことが推測される。α波はいずれも有意な変化は見られなかった。HFは図25より,「Positive」では有意な変化は見られなかったが,「Negative」は有意に減少したことがわかる。HFは副交感神経系活動の指標とされ,副交感神経の亢進・抑制に応じて増加・減少するため,「Negative」は副交感神経が抑制されていると考えられる。これは前述のNSTにおける解釈と一致している。
 ホラー映像の各生理指標の被験者間平均の時間的変動を図26に示す。図26においてN=14である。図26より,「Horror(N)」はNSTが下降しているため,交感神経が亢進したことが推測される。α波についてはどちらにも有意な結果は得られなかった。HFは「Horror(C)」で有意に減少し,「Horror(N)」では有意に上昇していることがわかる。HFは「Horror(N)」においては,前述のNSTにおける解釈と一致しなかった。これは,メカニズムの違いによるものと考えられる。後記に示すように「Horror(N)」はTPRの上昇を特徴とした受動的対処を示している。結果として,末梢部の血流量が減少して,NSTが低下したものと考えられる。
 次に,「Positive」,「Negative」,「Horror(C)」および「Horror(N)」を,没入感と嗜好のパターンによってカテゴライズし,血行力学応答を比較検討する。結果として,図27のようにストレス対処様式と嗜好の軸で纏めることができる。図27においてN=14である。
 「Positive」と「Horror(C)」は共に没入感は高いが,「Positive」は正嗜好,「Horror(C)」は負嗜好である。しかしながら,双方とも MP,HR,SV および CO の増加,TPR の減少が見られる。これは心筋収縮活動の増大を主とする典型的なパターン I の反応(能動的対処)である。
 つまり,能動的対処のときは嗜好に関わらず,TV 映像コンテンツに没入している事が明らかとなった。また,要因抽出実験の結果から類推すると,生理計測実験のホラー映像に対しても同様に嗜好が高い被験者は没入感も共に高くなり,図27の右上領域に位置することが予想されるが,該当者はいなかった。一方,「Negative」と「Horror(N)」は共に没入感および嗜好は低い。しかしながらその生理応答は異なっている。すなわち,「Negative」では TPR,HR の減少が見られたものの,MP の変化は見られなかった。これは,能動的対処,受動的対処どちらでもなく,ストレス対処していないと考えられる。なお、図27においてN=14である。
 これに対して,「Horror(N)」はHRに有意な変動が無いものの,TPR,MPの有意な増加が特徴的である。これは末梢血管収縮の増大によるMPの増加を主とする典型的なパターンIIの反応(受動的対処)である。これより,ストレス対処を示さない時,通常は嗜好が低く,TV映像コンテンツに没入していないが,ホラー映像に関しては受動的対処を示すことが明らかとなった。つまり,TV映像に対する嗜好だけで視聴様態は定まらず,ストレス対処様式によって視聴様態を分類できることが明らかとなった。
4.まとめ
 本研究では,嗜好の異なる映像コンテンツを視聴した時の生理心理計測を実施し,生理学的に論拠のあるストレス対処様式によって視聴様態の分類を試みた。心臓血管系指標として血行力学的パラメーター(MP,HR,SV,CO,TPR),中枢神経系指標としてEEGのα波パワースペクトル,自律神経系指標として鼻部皮膚温度および心拍変動HF成分を計測し,同時計測した映像に対する嗜好,および心理アンケートも含め,生理心理状態に関する統計的分析を行い,映像コンテンツを視聴した時の生理心理効果を定量的に評価した。
 その結果,本研究における嗜好に関する心理指標による分類は,先行研究においては全く評価されていないため,本研究のストレス対処および嗜好を組み合わせる事で,テレビ視聴に対する新たな分類が得られた。結論として,能動的対処の時,TV映像は「Positive」および「Horror(C)」,受動的対処の時,TV映像は「Horror(N)」,ストレス対処を行っていない時,TV映像は「Negative」であった。つまり,TV映像に対する嗜好だけで視聴様態は判別できないが,血行力学的パラメーターによるストレス応答によって,視聴様態を判別できることが明らかとなった。
<参考文献>
(1)平田明裕・諸藤絵美・荒牧央:「テレビ視聴とメディア利用の現在(2)~「日本人とテレビ2010」調査から~」,放送研究と調査,pp.2-27(2010)
(2)荒牧央・増田智子・中野佐知子:「テレビは20代にどう向き合ってゆくのか」,放送研究と調査,pp.2-21(2008)
(3)Y. Siki, Y. Murakami, and Y. Huzita: “Television viewing and simultaneous use of new media: anethnographic study of young people in Japan”, Institute for Media andCommunication Research Keio University, Vol.59, No.1, pp.131-140 (2009) (inJapanese) 志岐裕子・村山 陽・藤田結子:「若者のテレビ視聴とメディア並行利用行動&#8211;大学生のオーディエンス・エスノグラフィ調査から」,慶応義塾大学メディア・コミュニケーション研究所紀要,Vol.59, No.1, pp.131-140 (2009)
(4)S. Nomura, Y. Kurosawa, N. Ogawa, C.M. Althaff Irfan, K. Yajima, S. Handri, T. Yamagishi, K.T.Nakahira, and Y. Fukumura:“Psysiological Evaluation of a student in E-learning Sessions by Hemodynamic Response”, IEEJ Trans. EIS,Vol.131, No.1, pp.146-151 (2011) (in Japanese) 野村収作・Irfan C. M. Althaff・山岸隆雄・黒澤儀将・矢島邦昭・中平勝子・小川信之・HANDRI Santoso・福村好美:「血行力学的パラメーターによるeラーニング受講者の生理評価研究」,電学論 C,Vol.131,No.1,pp.146-151 (2011)
(5)T. Watanuki and A. Nozawa: “Visualization of a feeling of concentration for TV contents”,Bulletin of Institute of Electrical and Electronic Engineers of measurement, Vol.IM-12, No.63,pp.19-25 (2012) (in Japanese) 綿貫卓也・野澤昭雄:「TV コンテンツに対する没入感の可視化」,電気電子学会計測研資,Vol.IM-12, No.63, pp.19-25 (2012)
(6)K. Mori, C. Ono, Y. Motomura, H. Asoh, and A. Sakurai: “Empirical Analysis of User Preference Models forMovie Recommendation”, IEIC Technical Report.NC.neurocomputing, Vol.104,No.759, pp.77-82 (2005)(in Japanese) 黒川茂莉・小野智弘・本村陽一・麻生英樹・櫻井彰人:「映画コンテンツ推薦のためのユーザ嗜好性モデルの実験的評価」,信学会技報。NC. ニューロコンピューティング,Vol.104, No.759,pp.77-82(2005)
(7)澤田幸展:「血行力学的反応;新生理心理学 I 巻 (藤澤清,柿木昇治,山崎勝男編)」,北大路書房,第 10 章,p.187(1998)
(8)J.A. Russell: “A circumplex model of affect”, J. Personality and Social Psychology, Vol.39, pp.1161-1178(1980)
<実験例3>
1.実験の主旨
 近年,テレビ放送のデジタル・多チャンネル化が進んでいる。しかし,IT 技術の進展による小型化・高性能化された情報通信機器の普及,および,情報ネットワーク環境の発達に伴い,娯楽としてのテレビ離れが加速し,テレビの視聴理由が多様化している。平田らはテレビを視聴する理由として,「世の中の出来事や動きを知るため」,「疲れを休めたり,くつろぐため」,「人とのつきあいを深めたり,広めたりするため」などの理由を挙げている(1)。また,テレビの視聴理由だけでなく視聴様態においても,テレビ離れに伴い,漠然とした視聴態度や視聴習慣の弱まりなど,関与の薄い見方へと変わっている(2)。志岐らは,テレビを集中して視聴する「専念視聴」,家事,飲食,勉強など,他の生活活動と並行しながら視聴する「ながら視聴」,ザッピングしながらなんとなくいろいろな番組を視聴する「漠然視聴」などの視聴様態を挙げている(3)。このように,視聴様態は様々であり,時間・場所・気分などの要因によって変容することが明らかとなっている。
 しかし,これらの視聴様態を分類する研究は世論調査や事後の内省評価などの心理的な応答を用いたものがほとんどで,生理的な応答を用いて視聴様態を分類した研究はない。テレビの映像と音声は生体に対する視聴覚刺激であるため,それ自体がストレッサーとみなされる。ストレッサーは生体にストレス対処を促し,ストレス応答として生理・心理的変化をもたらす。
 テレビの種々のコンテンツをストレッサーとみなせば,コンテンツに対する対処,すなわち視聴様態によってその生理的ストレス応答は異なる事が予想される。野村らは,心臓血管系指標によって,e ラーニングコンテンツへの対処様態を分類している (4)
 そこで,これまで,心臓血管系指標による TV 映像コンテンツに対する視聴様態や嗜好の分類を試みてきた (5)。また,分類だけでなく推定モデルを構築する研究もされている。
 黒川らは,ナイーブベイズ,決定木,ベイジアンネットワーク,ニューラルネットワークを用いて,映像コンテンツに対するユーザ嗜好性モデルを構築し,コンテンツ評価に対する予測精度と重要変数を抽出した(6)。しかし,この研究も心理的な応答のみを用いたモデルであり,生理的な応答を用いて嗜好や視聴様態の推定モデルを構築している研究はない。
 これまでの研究の結果,血行力学的パラメーターに基づくストレス対処様式,および,心拍数によって,コンテンツに対する嗜好や没入など,テレビ視聴者の生理心理状態を分類できる可能性が示唆されている。そこで本研究は,心臓血管系指標による上記のテレビ視聴に関する視聴者の生理心理状態推定の実験的検討を目的とする。心臓血管系指標から特徴ベクトルを抽出し,テレビ映像コンテンツに対する嗜好,視聴様態,および,興奮-鎮静の各推定モデルの作成,および,評価を行った。
2.実験
 TV映像コンテンツ視聴時の,連続血圧計による心臓血管系計測を行った。その後,血行力学的パラメーターを元に階層型ニューラルネットワークを用いたパターン認識を行うことで,TV映像コンテンツ視聴時における嗜好,視聴様態,および,興奮-鎮静の推定を行った。
〈2・1〉実験手順 
 本実験は、図28に示すように,5分間の映像視聴,およびその前後の1分間の安静・閉眼状態R1,R2により構成される。映像視聴前後のVisual Analogue Scale(以下,VASと略記),映像視聴後の没入感調査より,それぞれの映像コンテンツへの嗜好および没入感評価を行った。また,映像視聴中にはリアルタイムに被験者が感じている主観的興奮-鎮静の変動を記録した。
〈2・2〉実験条件
 被験者は日本の大学に在籍する健常な学生14名(年齢:19-22,平均年齢:21。4,男性:7名,女性7名)である。被験者には予め実験内容・目的・調査対象を口頭および書面にて十分説明し,署名により実験協力に対する同意を確認した。計測は室温26。0±1。6℃の対流のないシールドルームで行い,映像コンテンツの切り替え,および,生理計測状況の確認のために,同じ部屋に実験実施者1名が同席した。体表面温度の室温への馴化を図る為,実験は被験者入室後から20分以上経過後に実施した。
 被験者は座位にて,前方2mの位置に設置された液晶テレビ(55インチ,HX850,BRAVIA,SONY製)を用いて,正嗜好・高没入の映像コンテンツ(以降,「Positive」と略記),負嗜好・低没入の映像コンテンツ(以降,「Negative」と略記),および,低嗜好だが没入感に大きく個人差があるという特異な結果を示したホラー映像の3種を視聴する。映像コンテンツはDVDプレイヤー(SCPH-3900,SONY製)で再生した。
〈2・3〉計測システム
 計測システムを図29に示す。被験者は座位にて,連続血圧計を装着した。連続血圧計(Finometer model2, Finapres Medical Systems B。V。製)は左腕の中指第二関節にカフを装着し,サンプリング周波数200HzでPCに記録した。また,目の前にキーボード(K270,Logicool製)を設置し,キーボードの上下キーよりリアルタイムに被験者が感じている主観的興奮-鎮静の変動を入力するソフトウェアを用いて,逐次的かつ相対的な興奮-鎮静を記録した。
〈2・4〉評価法 
 生理指標は,平均血圧Mean pressure,以下MPと略記),心拍数(Heartrate,以下HRと略記),一回拍出量(Stroke Volume,以下SVと略記),心拍出量(Cardiac output,以下COと略記),全末梢抵抗(Totalperipheral resistance,以下TPRと略記)とした。血行力学的パラメーター(MP,HR,SV,CO,TPR)は外界のストレスに応じて特徴的な反応パターン(パターンI,パターンII)を示すことが知られており,ストレスに対する心臓血管系の生理反応を理解する上で重要な概念となっている。具体的にはパターンIは心筋の収縮活動の亢進や血管拡張による骨格筋への血液量の増大に特徴づけられ,これはいわば,エネルギー消費型の反応(能動的対処)といえる。一方パターンIIは末梢血管の収縮に特徴づけられ,また,心拍数もおおむね減少し,これはいわば,エネルギー節約型の反応(受動的対処)といえる(7)。MP,HR,SV,CO,TPRはR1区間のベースラインを0として規格化した。
 また,心理指標として,実験開始前,および実験終了時に,「覚醒感」「快・不快感」「活力」「嗜好」4種類の主観的感覚量をVASを用いて計測した。「快・不快感」,および,「覚醒感」はラッセルの情動二元論における基本成分として,本研究における心理評価の項目に選択した(8)。VASは,対となる形容詞を線分の両端に配置し,被験者が線分上の任意の位置にチェックをすることにより被験者の心理物理量を計測することが可能である。スケールの両端に配置した語句については,覚醒感は「とても眠い」-「はっきり目覚めている」,快・不快感は「非常に不快」-「非常に快適」,活力は「とても疲れている」-「とても元気」,嗜好は「とても嫌い」-「とても好き」とした。
 各VASは独立した紙面にて用意し,順次,再帰参照なく自筆により記録するよう教示した。さらに,実験終了後に映像に対する没入感を5ポイントスケール(1:全く没入できなかった-5:かなり没入した)で計測した。なお,各心理指標の映像視聴前後の差の検定には対応のあるt検定を用い,各生理指標におけるTEST区間全体の変化量についてはWilcoxonの符号順位検定を用いた。興奮-鎮静は,積算の最大値を基準にして規格化を行った。
 嗜好,視聴様態分類モデルの作成・判別率の導出,および,各被験者毎の興奮-鎮静推定モデルの作成・推定値の導出は,階層型ニューラルネットワークによるパターン認識を用いた。
 階層型ニューラルネットワークの構造を図30に示す。学習則は誤差逆伝搬法,出力関数はシグモイド関数とした。階層は,入力層,中間層,出力層の3階層となる。モデルの精度の推定には交差検証法を用いた。また,図31に示すように,各指標の時経変動に対して判別時間tdを想定する。tdは映像視聴中の300sである。それぞれのモデルは,td区間内の各特徴量時系列において,Δti当たりの傾きに着目し,10s間隔毎の一連の傾きを特徴ベクトルSとする。Sの要素数は30となる。これに合わせて,本稿のニューラルネットワークでは,入力層の素子数は30,中間層の素子数は16とした。
〈2・4・1〉嗜好分類モデル 特徴量として心拍数を使用し,Δtiとして10s,20s,30s,40s,50s,60sを検討した。全学習データは被験者14人の各嗜好(Positive,Negative)を合わせた28パターンあり,そのうち27パターンを学習データ,残りの1パターンを未知データとして嗜好分類モデルの精度を評価した。「Positive」,「Negative」の時における特徴ベクトルSを学習させた後,未知のデータを入力することで嗜好分類モデルの精度を評価した。出力層は「Positive」,「Negative」の2素子である。
〈2・4・2〉視聴様態分類モデル特徴量として血行力学的パラメーターを使用し,Δtiとして10s,20s,30s,40s,50s,60sを検討した。全学習データは被験者14人の各ストレス対処様式(能動的対処,受動的対処,ストレス対処無し)を合わせた42パターンあり,そのうち41パターンを学習データ,残りの1パターンを未知データとして嗜好分類モデルの精度を評価した。出力層は能動的対処,受動的対処,ストレス対処無しの3素子である。
〈2・4・3〉興奮-鎮静 推定モデル特徴量として血行力学的パラメーターを使用し,Δtiは30sとした。全学習データは被験者14人の各嗜好(Positive,Negative)における興奮-鎮静値を合わせた28パターンあり,そのうち27パターンを学習データ,残りの1パターンを未知データとして嗜好分類モデルの精度を評価した。出力層は興奮-鎮静値の1素子である。
〈2・5〉結果および考察VASにおいて,各気分尺度における全被験者平均の映像視聴前と映像視聴後の差を図32(+:p<0.1,*:p<0.05,**:p<0.01)に示す。図32においてN=14である。図32より,ホラー映像刺激に対しては,全被験者が低嗜好であった。そこで,ホラー映像視聴後の5段階の没入感評価において,4あるいは5ならHorror(Concentration)(以下「Horror(C)」と略記),1あるいは2ならHorror(No-concentration)(以下「Horror(N)」と略記)として分類した。以降の結果は,「Positive」,「Negative」,「Horror(C)」,「Horror(N)」に分類する。また,「Horror(C)」の人数は10人,「Horror(N)」の人数は4人である。
 MP,HR,SV,CO,TPRの,TEST区間全体のベースラインからの変位に関するWilcoxonの符号順位検定の有意確率pを図33に示す(+:p<0。1,*:p<0。05,**:p<0。01)。表中のPは各指標に対する正の応答,Nは負の応答を意味する。図33においてN=14である。
 図33より,TV映像視聴時における視聴様態の分類を行う。「Positive」と「Horror(C)」は共に没入感は高いが,「Positive」は正嗜好,「Horror(C)」は負嗜好である。
しかしながら,双方ともMP,HR,SVおよびCOの増加,TPRの減少が見られる。これは心筋収縮活動の増大を主とする典型的なパターンIの反応(能動的対処)である。つまり,能動的対処のときは嗜好に関わらず,TV映像コンテンツに没入している事が明らかとなった。
 一方,「Negative」と「Horror(N)」は共に没入感および嗜好は低い。しかしながらその生理応答は異なっている。すなわち,「Negative」ではTPR,HRの減少が見られたものの,MPの変化は見られなかった。これは,能動的対処,受動的対処どちらでもなく,ストレス対処していないと考えられる。これに対して,「Horror(N)」はHRに有意な変動が無いものの,TPR,MPの有意な増加が特徴的である。これは末梢血管収縮の増大によるMPの増加を主とする典型的なパターンIIの反応(受動的対処)である。
 これより,ストレス対処を示さない時,通常は嗜好が低く,TV映像コンテンツに没入していないが,ホラー映像に関しては受動的対処を示すことが明らかとなった。つまり,TV映像に対する嗜好だけで視聴様態は定まらず,ストレス対処様式によって視聴様態を分類できることが明らかとなった。また,図33において,HRは「Positive」において有意に増加,「Negative」において有意に減少した。
 次に,ニューラルネットワークを用いて構築した推定モデルから,嗜好,視聴様態の判別を行った時の判別率の結果を図34,および,図35に示す。図34,図35において,Δti50sの時,嗜好の正判別率は83。3%,視聴様態の正判別率は75%と,他のΔtiと比べて高い正判別率を示した。
 また,興奮-鎮静の推定を行った時の,実測興奮-鎮静と予測興奮-鎮静を図36に示す。
 図36は実測興奮-鎮静と予測興奮-鎮静の誤差が最も少ない被験者Aの結果を示している。図36上の「Positive」において,実測興奮-鎮静の増加と共に予測興奮-鎮静も増加している。
 また,図36下の「Negative」において,実測興奮-鎮静の減少と共に予測興奮-鎮静も減少している。次に,実測興奮-鎮静と予測興奮鎮静の差の絶対値を誤差とした時の各被験者の平均誤差を図37に示す。図37において「,Positive」の平均誤差は0。10~0。37,「Negative」の平均誤差は0。11~0。29,平均誤差の全被験者間平均は0。17となった。つまり,予測興奮-鎮静は平均して,17%程度の誤差で推定された。また,全被験者の10s間隔毎にとった一連の実測興奮-鎮静,および,予測興奮-鎮静の関係を示した図を図38に示す。図38において,相関係数は0。89と高い相関が得られた。また,図38から,実測興奮-鎮静,および,予測興奮-鎮静の分布は値の大小に依らずほぼ均一であることがわかる。
3.まとめ
 本研究は,ニューラルネットワークを用いた,テレビ映像コンテンツに対する視聴様態,嗜好,興奮-鎮静の推定を目的として,心臓血管系指標から特徴ベクトルを抽出し,テレビ映像コンテンツ視聴時における嗜好,視聴様態,および,興奮-鎮静の推定モデル作成・評価を行った。
 結果として,正嗜好・高没入の「Positive」,および,負嗜好・高没入の「Horror(C)」では能動的対処,不嗜好・高没入の「Horror(N)」は受動的対処,負嗜好・低没入の「Negative」ではストレス対処していない,と分類できた。さらに「,Positive」と「Negative」では心拍数が有意に異なり,心拍応答の一般的特性にならった結果が得られた。また,推定モデルを用いて,嗜好,および,視聴様態の判別を行った時の正判別率は最大で,嗜好は83。3%,視聴様態は75%となった。
 各被験者毎に興奮-鎮静を推定した結果,実測興奮-鎮静と予測興奮-鎮静の平均誤差は,「Positive」において10~37%,「Negative」において11~29%,全被験者間平均は17%となった。さらに,実測興奮-鎮静,および,予測興奮-鎮静は相関係数0。89と強い正の相関が見られた。以上より,血行力学的パラメーター,および,心拍数によって,テレビ映像コンテンツ視聴時の嗜好,視聴様態,および,興奮-鎮静を推定できる可能性が示唆された。今後は,他生理指標や,その他識別器との比較・検討によって更なる精度向上を目指す予定である。
<参考文献>
(1)西垣 通:「テレビはネットで蘇るか」,月間民放(2001)
(2)藤原功達・斉藤由美子:「世論調査リポートテレビに対する評価と期待-「テレビの役割」調査の結果から-」,NHK 放送研究と調査 6 月号,pp.2-15 (1989)
(3)大野木裕明:「第 9 章女子大学生のテレビ視聴態度および 2,3 の要因:視聴者のパーソナリティ特性,番組内容への関心,テレビ視聴の目的に関する予備的な調査から(番組分析と視聴学習行動の研究:放送教育番組のタクソノミーの開発を目指して)」,研究報告,Vol.18, pp.153-172 (1990)
(4)Y. Takahashi and S. John: “Recommendation Models of TelevisionProgram Genre, Based on Survey and Analysis of Behaviour in WatchingTelevision: Toward Human Content Interface Design (2)”, Bulletin of Japanese SocietyforScience of Design, Vol.46, No.133, pp.71-80 (1999) (in japanese)
 高橋 靖・シャクルトンジョン:「テレビ視聴行動の調査分析に基づく番組ジャンル推薦モデル:ヒューマン・コンテンツ・インタフェースデザインに向けて(2)」,デザイン学研究,Vol.46, No.133, pp.71-80(1999)
(5)友宗由美子・原由美子:「「時間快適化装置」としてのテレビ-視聴態度と番組総バラエティー化の関係-」,放送研究と調査,Vol.51, pp.2-17(2001)
(6)S. Nomura, Y. Kurosawa, N. Ogawa, C.M. Althaff Irfan, K. Yajima, S.Handri,T.Yamagishi, K.T. Nakahira, and Y. Fukumura: “Psysiological Evaluationof a student in E-learning Sessions by Hemodynamic Response”, IEEJ Trans. EIS, Vol.131, No.1, pp.146-151 (2011)
 野村収作・Irfan C. M. Althaff・山岸隆雄・黒澤儀将・矢島邦昭・中平勝子・小川信之・HANDRI Santoso・福村好美:「血行力学的パラメーターによるeラーニング受講者の生理評価研究」,電学論 C,Vol.131,No.1, pp.146-151 (2011)
(7)澤田幸展:「血行力学的反応;新生理心理学 I 巻 (藤澤清,柿木昇治,山崎勝男編)」,北大路書房,第 10 章,pp.187 (1998)
(8)A. Michimori: “Relationship between the alpha attenuationtest,subjective sleepiness and performance test”, 10th Symposium on HumanInterface, Vol.10, No.1413, pp.233-236 (1992)
(9)M. Terasaki, Y. Kishimoto, and A. Koga: “Construction of a multiple mood scale”, The japanesejournal of psychology, Vol.62, No.6,pp.350-356 (1992) 寺崎正治・岸本陽一・古賀愛人:「多面的感情状態尺度の作成」,心理学研究論文誌,Vol.62, No.6, pp.350-356 (1992)
(10)J.A. Russell: “A circumplex model of affect”, J. Personality and SocialPsychology, Vol.39, pp.1161-1178 (1980)
 本発明のストレス対処様式判定システムは、被験者のストレスを非接触状態で質的に分析することができるので、工場などで作業中の労働者のストレス状態を把握するための手段、自動車を運転中のドライバのストレス状態を把握するための手段、授業中の生徒のストレス状態を把握するための手段、等、幅広い技術分野における利用可能性がある。
100 ストレス対処様式判定システム
110 生体情報取得装置(生体情報取得部)
120 判定装置(判定部)
121 判定用特徴量記憶部
122 特定部位反応検出部
123 応答パターン判定部
130 学習装置(機械学習部)
131 学習用データ記憶部
132 特徴量抽出部
133 特徴量学習部
134 学習済モデル
P 被検者
IF 顔面画像
S1 判定用特徴量記憶処理(判定用特徴量記憶ステップ)
S2 特定部位反応検出処理(特定部位反応検出ステップ)
S3 応答パターン判定処理(応答パターン判定ステップ)
S11 学習用データ記憶処理(学習用データ記憶ステップ)
S12 特徴量抽出処理(特徴量抽出ステップ)
S13 特徴量学習処理(特徴量学習ステップ)
S21 クラスタリング処理(クラスタリングステップ)
S22 画像抽出処理(画像抽出ステップ)
S23 エッジ抽出処理(エッジ抽出ステップ)
S24 フラクタル解析処理(フラクタル解析ステップ)

Claims (21)

  1.  被検者の生体情報を非接触状態で取得する生体情報取得部と、
     前記生体情報と予め特定された応答パターンとに基づいて被験者のストレス対処様式を判定する判定部と、を有し、
     前記応答パターンは、血行力学パラメータにより特定されることを特徴とするストレス対処様式判定システム。
  2.  前記血行力学パラメータは、平均血圧、心拍数、心拍出量、一回拍出量及び全末梢抵抗のうちの複数のパラメータを含むことを特徴とする請求項1に記載のストレス対処様式判定システム。
  3.  前記生体情報は、顔面画像であることを特徴とする請求項1または2に記載のストレス対処様式判定システム。
  4.  前記顔面画像は、顔面熱画像または顔面可視画像であることを特徴とする請求項3に記載のストレス対処様式判定システム。
  5.  前記判定部は、前記顔面画像に含まれる顔面の特定部位のストレス応答を観察することにより被験者のストレス対処様式を判定することを特徴とする請求項3または4に記載のストレス対処様式判定システム。
  6.  前記応答パターンには、「能動的対処」、「受動的対処」及び「対処なし」の三種類のパターンが含まれることを特徴とする、請求項5に記載のストレス対処様式判定システム。
  7.  前記判定部は、「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶している判定用特徴量記憶部を有し、
     前記生体情報と前記判定用特徴量記憶部に記憶されている各空間的特徴量とに基づいて、前記ストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれのパターンを示す様式であるか判定することを特徴とする、請求項6に記載のストレス対処様式判定システム。
  8.  前記判定用特徴量記憶部に記憶されている特徴量は、機械学習部により抽出された特徴量であり、
     前記機械学習部は、
     「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶している学習用データ記憶部と、
     前記学習用顔面画像から前記顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出部と、
     前記特徴量抽出部による抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出部による前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習部と、を有することを特徴とする請求項7に記載のストレス対処様式判定システム。
  9.  前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項7又は8に記載のストレス対処様式判定システム。
  10.  コンピュータを被検者のストレス対処様式を判定する手段として機能させるためのプログラムであって、
     「能動的対処」に対応する空間的特徴量、「受動的対処」に対応する空間的特徴量及び「対処なし」に対応する空間的特徴量を記憶する判定用特徴量記憶ステップと、
     被検者の顔面画像と前記判定用特徴量記憶ステップにより記憶した各空間的特徴量とに基づいて、被検者のストレス対処様式が「能動的対処」、「受動的対処」及び「対処なし」のうちのいずれの応答パターンを示す様式であるか判定する判定ステップと、を有し、
     前記応答パターンは、血行力学パラメータにより特定されることを特徴とするプログラム。
  11.  「能動的対処」、「受動的対処」及び「対処なし」のそれぞれに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、
     前記学習用顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、
     前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する学習ステップと、を有し、
     前記判定用特徴量記憶ステップは、前記特徴量抽出ステップにより抽出した前記空間的特徴量を記憶するステップであることを特徴とする、請求項9に記載のプログラム。
  12.  前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項10又は11に記載のプログラム。
  13.  被検者の生体情報を非接触状態で取得する生体情報取得ステップと、
     前記生体情報と予め特定された応答パターンとに基づいて被験者のストレス対処様式を判定する判定ステップと、を有し、
     前記応答パターンは、血行力学パラメータにより特定されることを特徴とするストレス対処様式判定方法。
  14.  血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶している学習用データ記憶部と、
     前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出部と、
     前記特徴量抽出部による抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出部による前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習部と、を有することを特徴とする学習装置。
  15.  前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項14に記載の学習装置。
  16.  血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、
     前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、
     前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を有することを特徴とする学習方法。
  17.  前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項16に記載の学習方法。
  18.  コンピュータを被験者の顔面画像の空間的特徴量を学習する手段として機能させるためのプログラムであって、
     血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を記憶する学習用データ記憶ステップと、
     前記学習用顔面画像から被験者の顔面画像の空間的特徴量を学習済モデルを用いて抽出する特徴量抽出ステップと、
     前記特徴量抽出ステップによる抽出結果とその抽出対象とされた前記学習用顔面画像に付されているラベルとの関係に基づいて、前記特徴量抽出ステップによる前記空間的特徴量の抽出精度が高くなるように前記学習済モデルのネットワークパラメータを変更する特徴量学習ステップと、を有することを特徴とするプログラム。
  19.  前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項18に記載のプログラム。
  20.  血行力学パラメータにより特定される応答パターンに対応してラベル付けされた複数の学習用顔面画像を教師データに用いて、被験者の顔面画像の空間的特徴量を機械学習することにより生成されることを特徴とする学習済モデル。
  21.  前記空間的特徴量は、被検者の顔面画像に基づいて算出されるフラクタル次元であることを特徴とする、請求項20に記載の学習済モデル。
PCT/JP2020/032763 2019-08-30 2020-08-28 ストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、プログラム及び学習済モデル WO2021040025A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/638,944 US20220296162A1 (en) 2019-08-30 2020-08-28 Stress coping style determination system, stress coping style determination method, learning device, learning method, program, and learned model
CN202080068209.5A CN114466618A (zh) 2019-08-30 2020-08-28 压力应对方式判定系统及方法、学习装置及方法、程序及学习完毕模型
KR1020227010268A KR20220056210A (ko) 2019-08-30 2020-08-28 스트레스 대처 양식 판정 시스템, 스트레스 대처 양식 판정 방법, 학습 장치, 학습 방법, 프로그램 및 학습 완료 모델

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019-158134 2019-08-30
JP2019158134 2019-08-30
JP2020144666A JP6896925B2 (ja) 2019-08-30 2020-08-28 ストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、コンピュータを被検者のストレス対処様式を判定する手段として機能させるプログラム、コンピュータを被験者の顔面画像の空間的特徴量を学習する手段として機能させるプログラム及び学習済モデル
JP2020-144666 2020-08-28

Publications (1)

Publication Number Publication Date
WO2021040025A1 true WO2021040025A1 (ja) 2021-03-04

Family

ID=74683485

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/032763 WO2021040025A1 (ja) 2019-08-30 2020-08-28 ストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、プログラム及び学習済モデル

Country Status (3)

Country Link
US (1) US20220296162A1 (ja)
KR (1) KR20220056210A (ja)
WO (1) WO2021040025A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2868192B2 (ja) 1991-07-30 1999-03-10 学校法人帝京平成大学 人の心理的変化の推定方法及び装置
JP2007068620A (ja) 2005-09-05 2007-03-22 Konica Minolta Holdings Inc 心理状態計測装置
US10736517B2 (en) * 2014-10-09 2020-08-11 Panasonic Intellectual Property Management Co., Ltd. Non-contact blood-pressure measuring device and non-contact blood-pressure measuring method
CN108135491B (zh) * 2015-10-15 2022-01-28 大金工业株式会社 生理状态判定装置及生理状态判定方法
EP3424408B1 (en) * 2016-02-29 2022-05-11 Daikin Industries, Ltd. Fatigue state determination device and fatigue state determination method
TWI658815B (zh) * 2018-04-25 2019-05-11 國立交通大學 非接觸式心跳量測系統、非接觸式心跳量測方法以及非接觸式心跳量測裝置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ASANO, HIROTOSHI: "Stress Evaluation while Prolonged Driving Operation Using the Facial Skin Temperature", TRANSACTIONS OF THE SOCIETY OF INSTRUMENT AND CONTROL ENGINEERS, vol. 47, no. 1, 19 December 2011 (2011-12-19), pages 2 - 7, XP055796192 *
NOMURA, SHUSAKU: "Physiological Evaluation of a Student in E-learning Sessions by Hemodynamic Responses", IEEJ TRANSACTIONS ON ELECTRONICS, INFORMATION AND SYSTEMS, vol. 131, no. 1, 1 January 2011 (2011-01-01), pages 146 - 151 *
NOZAWA, AKIO: "Estimation Method of Information Understanding in Communication by Nasal Skin Thermogram", IEEJ TRANSACTIONS ON FUNDAMENTALS AND MATERIALS, vol. 126, no. 9, 1 December 2006 (2006-12-01), pages 909 - 914, XP055796194 *
WATANUKI, TAKUYA: "Estimation of Mode of Viewing TV and Preference of TV Contents by Autonomic Nervous System Index", IEEJ TRANSACTIONS ON ELECTRONICS, INFORMATION AND SYSTEMS, vol. 134, no. 10, 1 October 2014 (2014-10-01), pages 1551 - 1556 *

Also Published As

Publication number Publication date
US20220296162A1 (en) 2022-09-22
KR20220056210A (ko) 2022-05-04

Similar Documents

Publication Publication Date Title
Bota et al. A review, current challenges, and future possibilities on emotion recognition using machine learning and physiological signals
López-Gil et al. Method for improving EEG based emotion recognition by combining it with synchronized biometric and eye tracking technologies in a non-invasive and low cost way
Greco et al. Advances in electrodermal activity processing with applications for mental health
Selvaraj et al. Classification of emotional states from electrocardiogram signals: a non-linear approach based on hurst
Katsis et al. An integrated system based on physiological signals for the assessment of affective states in patients with anxiety disorders
Goulart et al. Emotion analysis in children through facial emissivity of infrared thermal imaging
Nacke An introduction to physiological player metrics for evaluating games
Gaskin et al. Using wearable devices for non-invasive, inexpensive physiological data collection
Baghdadi et al. Dasps: a database for anxious states based on a psychological stimulation
Ramzan et al. Emotion recognition by physiological signals
Kappeler-Setz Multimodal emotion and stress recognition
JP6896925B2 (ja) ストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、コンピュータを被検者のストレス対処様式を判定する手段として機能させるプログラム、コンピュータを被験者の顔面画像の空間的特徴量を学習する手段として機能させるプログラム及び学習済モデル
Koelstra Affective and Implicit Tagging using Facial Expressions and Electroencephalography.
Nagasawa et al. Continuous estimation of emotional change using multimodal responses from remotely measured biological information
WO2021040025A1 (ja) ストレス対処様式判定システム、ストレス対処様式判定方法、学習装置、学習方法、プログラム及び学習済モデル
Ivonin et al. Automatic recognition of the unconscious reactions from physiological signals
Cheng et al. Enhancing Positive Emotions through Interactive Virtual Reality Experiences: An EEG-Based Investigation
JP2022153232A (ja) 生体情報処理装置および生体情報処理システム
Hossain et al. Emotion recognition using brian signals based on time-frequency analysis and supervised learning algorithm
Hamrouni Emotion Recognition Using Various Measures and Computational Methods
Tasooji Determining Correlation Between Video Stimulus and Electrodermal Activity
WO2022209498A1 (ja) 生体情報処理装置および生体情報処理システム
Alzoubi Automatic affect detection from physiological signals: Practical issues
Polo Multimodal assessment of emotional responses by physiological monitoring: novel auditory and visual elicitation strategies in traditional and virtual reality environments
Bilgin Study of mental state recognition using physiological signals in virtual environment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20857227

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20227010268

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20857227

Country of ref document: EP

Kind code of ref document: A1