WO2022065446A1 - 感情判定装置、感情判定方法及び感情判定プログラム - Google Patents

感情判定装置、感情判定方法及び感情判定プログラム Download PDF

Info

Publication number
WO2022065446A1
WO2022065446A1 PCT/JP2021/035163 JP2021035163W WO2022065446A1 WO 2022065446 A1 WO2022065446 A1 WO 2022065446A1 JP 2021035163 W JP2021035163 W JP 2021035163W WO 2022065446 A1 WO2022065446 A1 WO 2022065446A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
heart rate
subject
unit
state
Prior art date
Application number
PCT/JP2021/035163
Other languages
English (en)
French (fr)
Inventor
秀樹 清水
Original Assignee
シチズン時計株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シチズン時計株式会社 filed Critical シチズン時計株式会社
Priority to US18/246,503 priority Critical patent/US20230363680A1/en
Priority to JP2022552078A priority patent/JPWO2022065446A1/ja
Priority to CN202180065263.9A priority patent/CN116322496A/zh
Publication of WO2022065446A1 publication Critical patent/WO2022065446A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • A61B5/02427Details of sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/12Healthy persons not otherwise provided for, e.g. subjects of a marketing survey

Definitions

  • the present invention relates to an emotion determination device for determining an emotion of a subject, an emotion determination method, and an emotion determination program.
  • Patent Document 1 describes an emotion analysis means for analyzing the emotion of the other party during communication, a storage means for storing the emotion data analyzed by the emotion analysis means in correspondence with the other party who performed the emotion analysis, and a memory.
  • Communication including a notification means that performs notification based on emotion data stored in the means, and a control means that reads emotion data corresponding to the other party from the storage means and notifies the notification by the notification means when the other party is selected.
  • the device is disclosed.
  • Patent Document 2 describes an image data acquisition unit that acquires image data obtained by photographing a plurality of conference participants, and a face image detection unit that detects a face image of each conference participant from the image data acquired by the image data acquisition unit.
  • An image composition unit that cuts out the detected face image and reconstructs it into one image, an emotion estimation unit that estimates the emotions of each participant based on the detected face image, and each participant based on the estimated emotions.
  • An image processing apparatus including a display mode changing unit for changing the display mode of a face image of the above is disclosed.
  • An object of the present invention is to provide an emotion determination device, an emotion determination method, and an emotion determination program that can detect the emotion of the other party in a non-contact manner.
  • the emotion determination device is a detection unit that detects heart rate information including the heart rate of the subject, and the emotion of the subject is a negative emotion or a positive emotion based on the heart rate information.
  • An emotional judgment unit that determines whether or not the emotion has occurred, and a counting unit that counts the number of heart rate fluctuations that have transitioned from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period.
  • the emotional state of the subject is determined, and the emotional determination unit that can use the determination result by the emotional determination unit to determine the emotional state and the emotional determination unit output the determination result. It is characterized by having an output unit.
  • the above emotion determination device further has a photographing unit for photographing the face of the subject, and the detecting unit may detect the heartbeat information based on the change in the image data acquired by the photographing unit.
  • the psychological state is a first psychological state that can be determined based on the number of heart rate fluctuations regardless of whether it is a positive or negative emotion, and either a positive or negative emotion and a heart rate.
  • the emotional determination unit may use, at least, the determination result by the emotion determination unit when determining the second psychological state, including the second psychological state that can be determined based on the number of fluctuations.
  • a predetermined period is repeatedly set, and the emotion determination unit may make a determination for each predetermined period.
  • the photographing unit can photograph the faces of a plurality of subjects, further identifies each face from the screen on which the plurality of subjects are displayed, and measures each identified face. It has a measurement site specifying means for specifying a site, and the detection unit may acquire heartbeat information based on a change in an image of the measurement site of each face.
  • the subject is a student who takes a lecture
  • the emotion judgment unit is an ideal psychological state for taking a lecture based on the number of heart rate fluctuations and the judgment result of the emotion judgment unit. It may be determined whether or not.
  • a stimulus capable of sensuously recognizing the presence or absence of occurrence by sight or hearing, a stimulus capable of understanding the content of information given by sight or hearing, and an image or voice of a specific person It has a stimulus generating part that includes at least one of the above, and the stimulus generating part repeatedly generates the same kind of stimulus during a plurality of predetermined periods with a rest period, and the emotional determination part is at least.
  • the psychological state of the subject may be determined during a plurality of predetermined periods.
  • the negative emotion may be an emotion in which the subject feels at least one of brain fatigue, anxiety, and depression.
  • the psychological state of the subject determined by the emotion determination unit may include any of a stable state, a surprised state, an inspiring state, and an infuriated state.
  • the emotion determination unit may determine that the psychological state is in a surprised state.
  • the emotion determination unit determines. It may be determined that the psychological state is an emotional state.
  • the emotion determination unit determines. It may be determined that the psychological state is a state of indignation.
  • the emotion determination unit when the number of heart rate fluctuations counted by the counting unit is 0 and the state where the heart rate is lower than the average heart rate is maintained for a predetermined period, the emotion determination unit is used.
  • the psychological state may be determined to be a stable state.
  • the emotion determination unit when the number of heart rate fluctuations counted by the counting unit is 0 and the state where the heart rate is equal to or higher than the average heart rate is maintained for a predetermined period, the emotion determination unit is used. , It may be determined that the emotional state cannot be determined and the emotional state cannot be determined.
  • the step of detecting the heart rate information including the heart rate of the subject and whether the subject's emotion is a negative emotion or a positive emotion based on the heart rate information and a step of counting the number of heart rate fluctuations that transitioned from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period, and a heart rate. It is characterized in that the psychological state of the subject is determined based on the number of fluctuations, and a computer is made to execute a step of using the determination result for determining the psychological state and a step of outputting the determination result of the psychological state.
  • the detection unit detects the heartbeat information including the subject's heart rate, and the emotion determination unit determines whether the subject's emotion is a negative emotion based on the heartbeat information. Or, it is determined whether the emotion is positive, and the counting unit changes the heart rate from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period. The number of times is counted, the emotion judgment unit determines the psychological state of the subject based on the number of heart rate fluctuations, the judgment result by the emotion judgment unit is used for the judgment of the psychological state, and the output unit determines the emotion judgment unit. It is characterized by outputting the result.
  • the emotion of the other party can be detected without contact.
  • FIG. 1 It is a perspective view which shows the use state of the emotion determination apparatus which concerns on embodiment of this disclosure. It is a block diagram of the emotion determination device which concerns on embodiment of this disclosure.
  • (A) to (C) are graphs for explaining the principle of determining a negative emotion from a pulse wave.
  • (A) to (C) are graphs for explaining the principle of determining emotions from fluctuations in heart rate during a predetermined period.
  • (A) and (B) are graphs showing an example of a case where it is difficult to determine emotions from fluctuations in heart rate during a predetermined period.
  • It is a flowchart which shows the operation example of the emotion determination apparatus which concerns on embodiment of this disclosure. It is a figure which shows the display example of the screen in the Web conference using the emotion determination apparatus which concerns on Example 1.
  • FIG. 1 It is a block diagram of the emotion determination device which concerns on Example 1.
  • FIG. 2 It is a figure which shows the display example of the screen of the emotion determination apparatus which concerns on Example 2.
  • FIG. It is a block diagram of the emotion determination device which concerns on Example 2.
  • FIG. 3 is a schematic configuration diagram of a marketing research system using the emotion determination device according to the third embodiment. It is a block diagram of the emotion determination device which concerns on Example 3.
  • FIG. FIG. 3 is a schematic configuration diagram of a machine control system using the emotion determination device according to the fourth embodiment. It is a block diagram of the emotion determination device which concerns on Example 4.
  • FIG. It is a block diagram of the lecture holding side PC which is an emotion determination device which concerns on Example 5.
  • (A) is an output example of a feature coordinate fitting method for extracting feature coordinates from a face image
  • (B) is an output example of a method for detecting the position between eyebrows from a photographed face image.
  • This is a configuration example for executing image capture using HDMI (registered trademark) output.
  • This is an example of causes and countermeasures that impede communication between the elderly and caregivers.
  • This is an example of visual stimulation and acoustic stimulation for determining each of the three categories of communication-inhibiting factors of compatibility, visual acuity / hearing, and mental illness.
  • It is a block diagram of the subject state determination apparatus which is the communication obstruction cause determination apparatus which concerns on Example 6.
  • a temporal change in the emotions of an elderly person who is a subject when a beat sound of a predetermined frequency is periodically heard as a first stimulus whose generation can be recognized by hearing As a second stimulus containing predetermined information that can be visually understood, the change over time in the emotions of the elderly subject, when a deception picture that surprises or laughs when the meaning is understood is shown periodically. This is an example.
  • FIG. 1 is a perspective view showing a usage state of the emotion determination device 1 according to the embodiment of the present disclosure.
  • the emotion determination device 1 includes an imaging unit 10 and an information terminal 5.
  • the image pickup unit 10 is a mobile terminal such as a smart phone
  • the information terminal 5 is a notebook personal computer (PC) provided with a display unit 41.
  • the present invention is not limited to such an example, and a tablet terminal, a digital camera, or the like may be used as the image pickup unit 10, and a tablet terminal, a desktop PC, a dedicated processing device, or the like may be used as the information terminal 5.
  • the image pickup unit 10 and the information terminal 5 may be integrated.
  • FIG. 1 shows a state in which the image pickup unit 10 is installed on the stand 90 that holds the image pickup unit 10.
  • the image pickup unit 10 includes an image pickup element 11 and a touch panel 19 with a display unit for setting the operation of the image pickup unit 10.
  • the emotion determination device 1 uses an image pickup unit 10 having an image pickup element (camera) 11 so that the measurement itself does not cause stress, and the exposed portion of the skin of the subject (for example, a portion such as the forehead or cheek of the face). To shoot. Then, the emotion determination device 1 extracts the luminance change synchronized with the blood flow from the obtained image, so that the subject is not in contact with the subject and the subject is unconscious, and the pulse wave signal which is the heartbeat information of the subject is obtained. Is automatically detected.
  • an image pickup unit 10 having an image pickup element (camera) 11 so that the measurement itself does not cause stress, and the exposed portion of the skin of the subject (for example, a portion such as the forehead or cheek of the face). To shoot. Then, the emotion determination device 1 extracts the luminance change synchronized with the blood flow from the obtained image, so that the subject is not in contact with the subject and the subject is unconscious, and the pulse wave signal which is the heartbeat information of the subject is obtained. Is automatically detected.
  • the image sensor 11 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) type or CCD (Charge Coupled Device) type image sensor.
  • the image pickup device 11 automatically takes a plurality of images Gr of the measurement frame Sa in the forehead of the subject HK in succession without the operation of the subject, as shown in FIG.
  • the imaging unit 10 has a function of automatically tracking the measurement frame Sa of the forehead of the subject HK by the built-in face recognition application program. As a result, even if the subject HK moves around in the installation area of the imaging unit 10, it is possible to capture the pulse wave of the subject HK.
  • the image pickup unit 10 transmits the image data of the photographed subject HK to the information terminal 5 via the radio wave RW by the built-in wireless communication function.
  • FIG. 2 is a block diagram of the emotion determination device 1.
  • the information terminal 5 of the emotion determination device 1 includes an emotion detection unit 20, a determination unit 30, a notification unit 40, and a timekeeping unit 50.
  • the emotion detection unit 20 includes a face recognition unit 21, a pulse wave extraction unit 22, an interval detection unit 23, a pulse wave memory 24, a chaos analysis unit 25, and a counting unit 26.
  • the determination unit 30 includes an emotion determination unit 31 and an emotion determination unit 32.
  • the notification unit 40 includes a display unit 41 and a transmission unit 42.
  • the pulse wave memory 24 may be composed of a hard disk, a semiconductor memory, or the like
  • the display unit 41 may be composed of a liquid crystal display, or the like
  • the clock unit 50 may be composed of a known clock circuit.
  • Other elements are realized as software (program) by a computer in the information terminal 5 including a CPU, ROM, RAM, and the like.
  • the face recognition unit 21 analyzes the appearance of the face using the contour detection algorithm or the feature point extraction algorithm for the image Gr of the subject HK taken by the image sensor 11, and identifies the exposed skin portion such as the forehead as the measurement site. ..
  • the face recognition unit 21 outputs a time-series signal E1 which is data indicating the skin color at the measurement site to the pulse wave extraction unit 22.
  • the pulse wave extraction unit 22 extracts the pulse wave signal of the subject HK from the time series signal E1 and outputs the signal to the interval detection unit 23. Since the capillaries are concentrated inside the measurement frame Sa on the forehead of the subject HK, the image Gr contains a luminance change component synchronized with the blood flow of the subject HK. In particular, since the pulse wave (change in blood flow) is most reflected in the brightness change component of the green light of the image Gr, the pulse wave extraction unit 22 has approximately 0.5 to 3 [Hz] of the human pulse wave. A pulse wave signal is extracted from the luminance change component of the green light of the time-series signal E1 by using a bandpass filter that passes the frequency.
  • the imaging unit 10, the face recognition unit 21, and the pulse wave extraction unit 22 are examples of detection units that detect the heartbeat information of the subject.
  • the functions of the detection unit do not necessarily have to be divided into the image pickup unit 10 and the information terminal 5.
  • the image pickup unit 10 may have the functions of the face recognition unit 21 and the pulse wave extraction unit 22 for imaging.
  • the unit 10 may be included in the information terminal 5.
  • FIGS. 3 (A) to 3 (C) are graphs for explaining the principle of determining negative emotions from pulse waves.
  • FIG. 3A shows a waveform example of the pulse wave signal PW, where the horizontal axis t is the time (milliseconds) and the vertical axis A is the intensity of the pulse wave amplitude.
  • the pulse wave signal PW has a triangular wave shape reflecting the fluctuation of blood flow due to the beating of the heart, and is a peak point having a strong amplitude intensity of the pulse wave indicating the largest blood flow.
  • the interval between P1 and P (n + 1) is defined as the pulse wave interval d1 to dn.
  • the interval detection unit 23 detects peak points P1 to P (n + 1) of the pulse wave signal PW of the subject HK, calculates the pulse wave intervals d1 to dn in milliseconds using the timekeeping unit 50, and further, the pulse wave interval. Time-series data of pulse wave interval is generated from d1 to dn.
  • the pulse wave memory 24 stores the pulse wave intervals d1 to dn detected by the interval detection unit 23 as time-series data of the pulse wave intervals.
  • the time series data of the pulse interval is plotted on the top. Since it is known that the degree of variation of the dots R in the graph of FIG. 3 (B) reflects the degree of brain fatigue of the subject HK, if the data scatter diagram of FIG. 3 (B) is displayed on the display unit 41, the subject It is also possible to simply monitor the degree of brain fatigue during HK measurement.
  • the chaos analysis unit 25 uses the time-series data of the pulse wave interval stored in the pulse wave memory 24, that is, the coordinates (dn, dn-1) in the Lorentz plot of FIG. 3 (B), and the following equation (1). ) To calculate the maximum Lyapunov exponent ⁇ .
  • M is the total sample time at the pulse wave intervals d1 to dn
  • d is the inter-pattern distance between the time k and the time k-1 of the time series data (distance on the two-dimensional plane in the Lorentz plot).
  • the interval detection unit 23 and the chaos analysis unit 25 are examples of calculation units that calculate the maximum Lyapunov exponent indicating the degree of fluctuation of the heartbeat interval from the heartbeat information.
  • the heart of mammals is the same as a machine, and if it moves at regular intervals, certain parts will be exhausted and fragile. In order to keep driving for a long period of time, it usually avoids exhaustion due to fluctuations in complex systems. This is the role of the autonomic nerves.
  • the autonomic nerves concentrate on dealing with the stressor, and the fluctuation of the complex system cannot be produced.
  • the degree of fluctuation with a complex system correlates with positive and negative emotions (autonomic nerves), not simply with or without fluctuations in the complex system (chaos).
  • the graph becomes a circle or an ellipse, and in this case, there is no fluctuation of the complex system. Therefore, if the maximum Lyapunov exponent is positive, there is fluctuation in the complex system, indicating that the subject has positive emotions. On the other hand, when the maximum Lyapunov exponent is negative, there is no fluctuation of the complex system, indicating that the subject has negative emotions. In this way, by using the maximum Lyapunov exponent as an index, the degree of fluctuation of the complex system can be quantified, and it is possible to determine whether the subject has positive emotions or negative emotions. can. This is the principle of emotion sensing using the maximum Lyapunov exponent.
  • the LF / HF method may be used instead of using the maximum Lyapunov exponent.
  • the LF / HF method evaluates autonomic nervous activity from heart rate variability, and uses the ratio of low frequency component (LF: Low frequency) to high frequency component (HF: High frequency) (LF / HF) as a sympathetic nerve index. The method.
  • LF Low frequency
  • HF High frequency
  • the LF / HF is less than 2.0.
  • the LF / HF method requires a measurement time of about 3 minutes in order to accurately measure the low frequency component of LF.
  • FIG. 3C is a graph showing the relationship between the maximum Lyapunov exponent, which indicates the degree of fluctuation of the heartbeat or pulse wave interval, and negative emotions.
  • This graph is a questionnaire survey of 10 adult men and women to answer how much they feel tired and whether they feel tired as brain fatigue, anxiety or depression, and pulse for the same subject.
  • the maximum Lyapunov exponent ⁇ of the wave interval is measured, and the relationship between the obtained answer and the value of ⁇ is summarized.
  • F0 is "not tired”
  • F1 is “aged tired”
  • F2 is “temporarily tired”
  • F3 is “chronic tired”
  • F4 is "negative emotion”
  • the vertical axis of the graph is the maximum Lyapunov exponent ⁇ .
  • the maximum Lyapunov exponent ⁇ is a small value with an absolute value close to 0 in a mere tired state, but it becomes a negative value with a large absolute value when there is a negative emotion.
  • the threshold value of the maximum Lyapunov exponent for whether or not they feel negative emotions can be set to about -0.6 in consideration of the variation in measurement.
  • the emotion determination unit 31 determines that the subject has negative emotions, and ⁇ uses the equation (2). If it is not satisfied, it is determined that the subject does not have any negative emotions. ⁇ t ⁇ ⁇ ⁇ (2)
  • the threshold value ⁇ t is ⁇ 0.6, but other values may be used depending on the characteristics required for the emotion determination device 1.
  • the emotion determination unit 31 determines whether the subject's emotion is a negative emotion that feels at least one of brain fatigue, anxiety, and depression, or the subject's emotion is brain fatigue, anxiety, based on the maximum Riapnov index. This is an example of an emotional determination unit that determines whether or not the emotion is a positive emotion that neither the anxiety nor the depression is felt.
  • the counting unit 26 counts the number of heart rate fluctuations that transition from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above the predetermined value in a predetermined period.
  • 4 (A) to 4 (C) are graphs for explaining the principle of determining emotions from fluctuations in heart rate during a predetermined period.
  • the vertical axis shows heart rate and the horizontal axis shows time.
  • b ave indicates the average heart rate of the subject HK. If the average heart rate of the subject HK is unknown, the average value of 65 [bpm] may be used.
  • the region where the heart rate is equal to or higher than the average heart rate be ave is called the "emotional region", and the region where the heart rate is less than the average heart rate be ave is called the "rest region".
  • the heart rate fluctuates with time.
  • the heart rate in a predetermined period changes from the rest area to the emotional area, that is, from a state of less than the average heart rate beave to a state of more than the average heart rate beave , and the heart rate at that time.
  • the number of heart rate fluctuations in which the fluctuation range ⁇ s of is larger than a predetermined value is counted.
  • the predetermined period may be 30 [sec] and the predetermined value may be 10 [bpm].
  • the predetermined period 30 [sec] corresponds to the minimum period during which the accuracy of the Lyapunov analysis can be maintained.
  • the present invention is not limited to these numerical values, and a predetermined period and a predetermined value can be appropriately set according to the degree of change in the heart rate of the subject due to the change in emotion.
  • FIG. 4A shows an example in which the heart rate in a predetermined period is less than the average heart rate beave .
  • the curve L1 representing the heart rate in the predetermined period is in the resting region, and the counting unit 26 sets the number of heart rate fluctuations from the state where the heart rate is lower than the average heart rate to the state where the heart rate is higher than the average heart rate 0 times. And count.
  • FIG. 4B shows an example in which the heart rate fluctuates significantly only once.
  • the heart rate s1 is less than the average heart rate beave
  • the heart rate s2 is more than or equal to the average heart rate beave .
  • the counting unit 26 increases the heart rate by the predetermined value or more in the predetermined period from the state of being less than the average heart rate to the average heart rate or more. The number of heart rate fluctuations that have transitioned to the above state is counted as one.
  • FIG. 4C shows an example in which the heart rate fluctuates a plurality of times.
  • the heart rates s1, s3, and s5 are less than the average heart rate beave
  • the heart rates s2, s4, and s6 are more than the average heart rate beave .
  • the counting unit 26 may exceed the predetermined value in the predetermined period.
  • the number of heart rate fluctuations that transition from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate is counted as 3 times.
  • FIG. 4C shows an example in which the number of heart rate fluctuations is three, but the present invention is not limited to such an example, and the counting unit 26 may be used even when the number of heart rate fluctuations is two or four or more. , It is judged that the number of heart rate fluctuations is multiple times.
  • the emotional determination unit 32 determines the psychological state of the subject HK based on the determination result by the emotion determination unit 31 and the number of heart rate fluctuations counted by the counting unit 26.
  • the predetermined period may be repeatedly set.
  • the emotional determination unit may make a determination for each predetermined period.
  • the psychological state of the subject HK includes a stable state, a surprised state, an inspiring state, and an infuriated state. Therefore, the emotional determination unit 32 is in a state where the psychological state of the subject HK is stable, surprised, and impressed based on the determination result by the emotion determination unit 31 and the number of heart rate fluctuations counted by the counting unit 26.
  • the emotional determination unit 32 is the subject. It is determined that the psychological state of HK is a stable state. Since the heart rate is lower than the average heart rate and never higher than the average heart rate in the predetermined period, the heart rate is in the resting region, and the emotional determination unit 32 is in a state where the psychological state of the subject HK is stable. It can be determined that there is.
  • the emotional determination unit 32 determines that the psychological state is in a surprised state.
  • the psychological state of the subject HK is in a state of surprise, it is considered that the heart rate fluctuates only once in a predetermined period and is not continuous. Further, the subject HK may be in a surprised state in both the case where the subject HK's emotion is a positive emotion and the case where the subject HK's emotion is a negative emotion. Therefore, when the number of heart rate fluctuations counted by the counting unit 26 is one, the emotion determination unit 32 determines whether the emotion of the subject HK determined by the emotion determination unit 31 is a positive emotion or a negative emotion. Regardless, it can be determined that the psychological state of the subject HK is a surprised state.
  • the emotion determination unit 32 of the subject HK It is determined that the psychological state is an emotional state. If the emotion of the subject HK is a positive emotion, the subject HK is considered to be in a pleasant psychological state. Furthermore, when the video, etc. viewed by the subject HK becomes an inspiring psychological state such as being funny and laughing, the heart rate fluctuates from the rest area below the average value to the emotional area above the average value, and this fluctuation continues to some extent. It is thought that.
  • the emotion determination unit 32 is the subject. It can be determined that the psychological state of HK is an emotional state.
  • the emotion determination unit 32 of the subject HK It is determined that the psychological state is a state of indignation. If the emotion of the subject HK is a negative emotion, the subject HK is considered to be in an unpleasant psychological state. Furthermore, when the subject HK becomes angry with a person who dislikes it, the heart rate fluctuates from the rest area below the average value to the emotional area above the average value, and this fluctuation is considered to continue to some extent. Be done.
  • the emotion determination unit 32 is the subject. It can be determined that the psychological state of HK is a state of indignation.
  • the emotion determination unit 32 is the subject. It is determined that the emotional state cannot be determined because the psychological state of HK cannot be determined.
  • 5 (A) and 5 (B) are graphs showing an example of a case where it is difficult to determine emotions from fluctuations in heart rate during a predetermined period.
  • FIG. 5A shows a state in which the curve L4 representing the heart rate is stable in the emotional region in a predetermined period
  • FIG. 5B shows a state in which the curve L5 representing the heart rate fluctuates greatly in the emotional region in the predetermined period. Is shown.
  • the heart rate is in the emotional region and is always above the average heart rate for a predetermined period. This is considered to be a state in which the body of the subject HK is in a state of being tired or in a state of performing vigorous exercise, and it is considered that it is difficult to appropriately perform an emotional determination. Therefore, when the number of heart rate fluctuations counted by the counting unit 26 is 0 and the state where the heart rate of the subject HK is equal to or higher than the average heart rate is maintained for a predetermined period, the emotion determination unit 32 , It can be determined that the emotional state cannot be determined because the psychological state of the subject HK cannot be determined.
  • Table 1 shows a list of the psychological states of the subject HK determined by the emotion determination unit 32 based on the emotion determination result of the subject HK by the emotion determination unit 31 and the heart rate fluctuation frequency counted by the counting unit 26.
  • the emotional determination unit 32 is the psychological state of the subject regardless of whether the determination result of the emotional determination unit 31 is a positive emotion or a negative emotion. Is determined to be in a "stable" state, and when the number of heart rate fluctuations is one, the subject regardless of whether the determination result of the emotion determination unit 31 is a positive emotion or a negative emotion.
  • the psychological state of is determined to be a "surprise" state.
  • the emotional determination unit 32 determines from the number of heart rate variability regardless of whether the result of the emotion determination is a positive emotion or a negative emotion.
  • the psychological state of the subject can be determined.
  • the emotional determination unit 32 determines that the psychological state of the subject is "impressed" when the determination result of the emotional determination unit 31 is a positive emotion. However, when the determination result of the emotion determination unit 31 is a negative emotion, it is determined that the psychological state of the subject is "indignation". As described above, when the number of heart rate variability is a plurality of times, the emotion determination unit 32 determines the psychological state of the subject based on either the positive emotion or the negative emotion which is the result of the emotion determination and the number of heart rate variability. It can be determined.
  • a psychological state that can be determined based on either positive or negative emotions and the number of heart rate fluctuations is referred to as a "second psychological state”.
  • the psychological state of the subject includes the first psychological state and the second psychological state.
  • the emotional determination unit 32 determines whether the second psychological state is "impressed” or “indignated” when the number of heart rate fluctuations is a plurality of times.
  • the determination result of whether the subject's emotion determined by the emotion determination unit 31 is a positive emotion or a negative emotion is used. That is, the emotional determination unit 32 uses at least the determination result by the emotional determination unit 31 when determining the second psychological state.
  • the emotional determination unit 32 can use the determination result by the emotion determination unit 31 for the determination of the psychological state according to the psychological state to be determined.
  • the emotion determination unit 32 may determine a psychological state (for example, a more detailed psychological state) using the determination result by the emotion determination unit 31. good.
  • the emotional determination unit 32 is an example in which the determination result by the emotional determination unit 31 can be used for determining the psychological state.
  • the notification unit 40 causes the display unit 41 to display the determination result of the emotion of the subject HK by the emotion determination unit 32.
  • the notification unit 40 causes the display unit 41 to display the determination result of the emotion of the subject HK by the emotion determination unit 32, and transmits the result to the outside via the transmission unit 42.
  • the notification unit 40 is an example of an output unit that outputs the determination result of the emotion determination unit 32.
  • FIG. 6 is a flowchart showing the operation of the emotion determination device 1.
  • the image pickup unit 10 photographs the image Gr of the measurement frame Sa of the subject HK by the image pickup element 11, and transmits the image data to the information terminal 5.
  • the face recognition unit 21 identifies the measurement site from the image data of the subject HK.
  • step S102 the pulse wave extraction unit 22 extracts the pulse wave signal of the subject HK from the time-series signal E1 of the skin color of the measurement site specified by the face recognition unit 21.
  • the interval detection unit 23 calculates the pulse wave interval from the pulse wave signal, generates the time-series data, and stores the time-series data in the pulse wave memory 24.
  • step S103 the chaos analysis unit 25 calculates the maximum Lyapunov exponent ⁇ of the pulse wave interval based on the time series data of the pulse wave interval stored in S102.
  • step S104 the counting unit 26 determines whether or not there is a heart rate fluctuation of a predetermined value or more in a predetermined period based on the temporal change of the heart rate extracted from the pulse wave signal.
  • step S105 it is determined whether or not the heart rate of the subject HK in the predetermined period is less than the average heart rate.
  • the emotional determination unit 32 determines in step S106 that the emotion of the subject HK is in a stable state.
  • the emotion determination unit 32 determines in step S107 that the emotion determination of the subject HK cannot be performed. do.
  • step S108 the counting unit 26 determines whether or not the number of heart rate fluctuations of the subject HK in the predetermined period is only once. do.
  • step S109 the emotion determination unit 32 determines that the emotion of the subject HK is in a state of being surprised.
  • step S108 when the number of heart rate fluctuations of the subject HK in a predetermined period is not only once, that is, a plurality of times, the maximum Lyapunov exponent ⁇ calculated by the emotion determination unit 31 in step S103 in step S110. Is compared with the threshold value ⁇ t to determine whether the subject HK has a positive emotion or a negative emotion.
  • step S111 the emotion determination unit 32 determines that the subject HK's emotion is in a state of being impressed.
  • step S112 the emotion determination unit 32 determines that the subject HK's emotion is in a state of indignation.
  • the emotional state of the subject HK is a stable state, a surprised state, and an inspiring state. And it can be determined in a non-contact manner whether it is in an infuriated state.
  • the emotion determination device it is possible to grasp the emotions of a person who cannot communicate well, for example, in a nursing care facility. That is, it is possible to determine whether the elderly or the like are pleased (impressed) or angry (indignated) with the care act given to the elderly or the like. Therefore, it is possible for the caregiver to determine what kind of care should be performed next for the elderly or the like according to the discrimination result.
  • the emotional rhythm of a subject such as an elderly person in the same action in the same time zone may be memorized every day so that the emotional rhythm in the same action in the same time zone can be seen. By knowing the emotional rhythm in the same action in the same time zone, it is possible to indirectly grasp the change in the physical condition of the subject.
  • the automatic training device determines the emotions of the elderly and the like for the elderly and the like having poor emotional expression and facial expressions.
  • training can be conducted while giving appropriate advice to the elderly and the like.
  • FIG. 7 is a schematic configuration diagram of a Web conferencing system using an information terminal provided with the emotion determination device according to the first embodiment.
  • the emotion determination device determines the emotion of the other party from the image information of the other party transmitted from the other party in a Web conference or the like.
  • the first emotion determination device 101 installed in front of the first subject HK1 and the second emotion determination device 201 installed in front of the second subject HK2 are connected by the Internet 100, and a Web conference is held between them. It shall be possible to do.
  • the first emotion determination device 101 includes a first information terminal 105, a camera 111, and a microphone 112.
  • the camera 111 captures an image of the first subject HK1 and transmits the sound data collected by the microphone 112 to the second information terminal 205 of the second subject HK2 via the Internet 100.
  • the camera 111 captures an image of the measurement frame Sa1 of the first subject HK1, and the first information terminal 105 transmits the image captured by the camera 111 to the second information terminal 205.
  • the display unit 241 of the second information terminal 205 displays real-time data of the heart rate b1 of the first subject HK1 together with the image of the first subject HK1.
  • the second information terminal 205 can compare the heart rate b1 of the first subject HK1 with the average heart rate be ave1 and determine the emotion of the first subject HK1 from the temporal change of the heart rate b1 in a predetermined period.
  • the emotion determination result for example, positive emotion
  • the emotion determination result may be displayed in the emotion determination area 243 of the display unit 241, or the emotion determination result (for example, a stable state) may be displayed in the emotion display area 244. can.
  • the second emotion determination device 201 has a second information terminal 205, a camera 211, and a microphone 212.
  • the camera 211 captures an image of the second subject HK2 and transmits the sound data collected by the microphone 212 to the first information terminal 105 of the first subject HK1 via the Internet 100.
  • the camera 211 captures an image of the measurement frame Sa2 of the second subject HK2, and the second information terminal 205 transmits the image captured by the camera 211 to the first information terminal 105.
  • the display unit 141 of the first information terminal 105 displays real-time data of the heart rate b2 of the second subject HK2 together with the image of the second subject HK2.
  • the first information terminal 105 can compare the heart rate b2 of the second subject HK2 with the average heart rate be ave2 , and can determine the emotion of the second subject HK2 from the temporal change of the heart rate b2 in a predetermined period. Further, the emotion determination result (for example, positive emotion) may be displayed in the emotion determination area 143 of the display unit 141, or the emotion determination result (for example, an impressed state) may be displayed in the emotion display area 144. can.
  • the emotion determination result for example, positive emotion
  • the emotion determination result for example, an impressed state
  • FIG. 7 shows an example of conducting a web conference between two subjects using an emotion determination device, but similarly, a web conference is held between two or more subjects using the emotion determination device. Can be done.
  • FIG. 8 is a block diagram of the emotion determination device according to the first embodiment.
  • the configuration of the first information terminal 105 and the second information terminal 205 includes a receiving unit (191, 291) and a voice reproducing unit (145, 245). And a voice determination unit (127, 227) and a transmission unit (192, 292).
  • the transmission unit (192, 292) transmits the image information and the audio information of the first subject HK1 or the second subject HK2 acquired by the camera (111, 211) and the microphone (112, 212), respectively, via the Internet 100. Then, the sound is transmitted to the receiving unit 291 of the second information terminal 205 and the receiving unit 191 of the first information terminal 105, which are the terminals on the other side.
  • the receiving units (191 and 291) receive image information and audio information of the second subject HK2 and the first subject HK1 transmitted from the transmitting unit 292 of the second information terminal 205 and the transmitting unit 192 of the first information terminal 105, respectively. Receive.
  • the audio reproduction unit (145, 245) reproduces the audio data included in the information received by the reception unit (191, 291), respectively.
  • a speaker can be used for the audio reproduction unit (145, 245).
  • either the first subject HK1 or the second subject HK2 becomes the speaker or the listener from the duration of the voice information based on the voice information received by the reception units (191 and 291), respectively. Judge if it is.
  • the speaker side may not be able to make an accurate emotional judgment due to emotions caused by the act of speaking. Therefore, when the relationship between the speaker and the listener continues for a certain period of time (for example, 10 seconds or more), the voice determination unit (127, 227) determines the listener's emotions and emotions, and displays the information terminal on the speaker side. In addition, the determination result of the listener's emotion may be displayed at any time. By doing so, it is possible for the speaker to understand what kind of emotion the listener has when listening to the speaker's conversation.
  • the emotion determination device calculates the heart rate (pulse) from the acquired video information, the frame rate of the video becomes the sampling rate as it is. Therefore, the transmission rate of the received video may be monitored and the emotion determination may be performed only when the transmission rate is within an appropriate range.
  • the image information of the other party cannot be acquired at an appropriate timing due to the limitation of the capacity of the communication line.
  • a method of determining emotions on the speaker side after transmitting the image information of the listener acquired in advance to the speaker (first method).
  • a method (second method) of transmitting the result of determining the emotion on the listener side to the speaker side can be considered.
  • the first method is considered to increase the amount of image information to be transmitted.
  • the second method it is necessary to adjust the communication format in order to add the determination result data to the image information. Therefore, it is preferable to appropriately switch between the first method and the second method according to the transmission rate.
  • the emotional determination result may be indirectly fed back, such as changing the color of the border of the image of the subject on the transmitting side according to the determination result.
  • the color of the curve of the graph of the measurement frame (Sa1, Sa2) and the heart rate (b1, b2) may be changed.
  • the emotion may be displayed in the color of the measurement frame (Sa1, Sa2), and the emotion may be displayed in the color of the curve of the graph of the heart rate (b1, b2).
  • the emotion determination device it is possible to determine the emotion of the listener listening to the speaker in a Web conference or the like.
  • FIG. 9 is a diagram showing a display example of the screen of the emotion determination device according to the second embodiment.
  • the emotion determination device according to the second embodiment performs emotion determination on a moving image displayed on the moving image display device 300 on a ready-made software such as a dedicated Web conferencing software, a moving image playback application, and a moving image player.
  • the emotion determination device uses a video RAM (VRAM) to display an image of existing software on the screen instead of acquiring an image of a subject using an image pickup element. It is taken in from 301 and the emotion judgment is executed.
  • the image of the subject HK captured from the video RAM 301 is displayed on the display unit 41 of the information terminal 5, and the temporal change of the heart rate b from the pulse wave in the measurement frame Sa is displayed on the display unit 41 together with the average heart rate beave .
  • the emotion determination result for example, negative emotion
  • the emotion determination result for example, an indignant state
  • the emotion display area 44 for example, an indignant state
  • FIG. 10 is a block diagram of the emotion determination device 102 according to the second embodiment.
  • the emotion determination device 102 includes a moving image display device 300 and an information terminal 5.
  • the information terminal 5 includes a video acquisition unit 28 and an audio reproduction unit 45 instead of the transmission unit.
  • the video acquisition unit 28 automatically shoots a plurality of images of the measurement frame Sa of the subject HK in succession.
  • the image acquisition unit 28 has a function of automatically tracking the measurement frame Sa of the forehead of the subject HK by the built-in face recognition application program. As a result, even if the measurement frame Sa position of the subject HK moves within the display area in the display unit 41, it is possible to capture the pulse wave of the subject HK.
  • the audio reproduction unit 45 reproduces the audio data included in the information acquired by the video acquisition unit 28.
  • a speaker can be used for the audio reproduction unit 45.
  • the image of the subject was captured by the camera, but in the emotion determination device according to the second embodiment, the existing image is used without acquiring the image again.
  • the person included in the above can be used as a subject to determine the emotion of this person. Therefore, for example, it is possible to determine the emotion of a person displayed in a video uploaded to a video sharing service. Specifically, for example, when the video of an apology interview of a certain person is uploaded to the moving image display device 300, the image data of the person is taken into the video acquisition unit 28 from the video RAM 301, and the emotion is determined to apologize. It is possible to determine what the emotions of the person were at the time of the interview.
  • the image of the other party making a video call is displayed using the video display device 300
  • the image of the other party is taken into the video acquisition unit 28 from the video RAM 301, and the emotion is determined to make a video call. It is possible to determine in real time what the feelings of the other party are.
  • the video software such as a movie or drama
  • the image of the actor appearing in the movie or drama is taken into the video acquisition unit 28 from the video RAM 301, and the emotion is determined. Therefore, it is possible to determine what the emotions of the actor performing the acting were.
  • the emotion determination device it is possible to determine the emotions of the speaker at an apology conference or the like, or to watch a video while analyzing the emotions of a performer such as a drama. can.
  • FIG. 11 is a schematic configuration diagram of a marketing research system using the emotion determination device according to the third embodiment.
  • the emotion determination device 103 according to the third embodiment includes an information terminal 5 and an image pickup unit 10.
  • Subject HK observes the image of the product displayed on the display 400.
  • the image sensor 11 of the image sensor 10 captures an image of the measurement frame Sa of the subject HK, and the image sensor 10 transmits the image of the subject HK captured by the image sensor 11 to the information terminal 5.
  • the information terminal 5 determines the emotion when the subject HK observes the product displayed on the display 400, and transmits the determination result to the statistical analysis server 500 via the Internet 100.
  • the statistical analysis server 500 can analyze emotions when a plurality of subjects observe the same product, and can analyze the appeal effect of the product to a subject who is a consumer.
  • FIG. 12 is a block diagram of the emotion determination device according to the third embodiment.
  • the emotion determination result of the subject HK is transmitted from the transmission unit 42 to the statistical analysis server 500 via the Internet 100, and the statistical analysis server 500 analyzes the emotion determination result of the subject HK. Therefore, since it is not necessary to display the emotion determination result of the subject HK on the information terminal 5, it is not necessary to have a display unit.
  • the emotion determination device 103 can extract only the emotion determination data of the consumer (subject) for a certain product, it is possible to conduct marketing research without handling personal information.
  • FIG. 13 is a schematic configuration diagram of a machine control system using the emotion determination device according to the fourth embodiment.
  • the emotion determination device 104 according to the fourth embodiment has an information terminal 5 and an image pickup unit 10.
  • the information terminal 5 determines the emotion of the subject HK performing the machine operation, and the information terminal 5 transmits a control signal to the machine 2 based on the result, so that the subject HK can safely machine the machine. It enables you to operate.
  • the image sensor 11 of the image pickup unit 10 installed in the machine 2 acquires an image of the measurement frame Sa of the subject HK who is the operator of the machine 2 and transmits it to the information terminal 5.
  • the information terminal 5 determines the emotion of the subject HK from the received image data, and transmits a control signal for controlling the machine 2 to the receiving unit 220 of the machine 2 based on the determination result.
  • the receiving unit 220 inputs the received control signal to the control unit 210, and the control unit 210 controls the machine 2 according to the control signal.
  • the information terminal 5 refers to the machine 2 with respect to the machine 2.
  • a control signal for forcibly stopping the machine 2 may be transmitted.
  • a signal for issuing a warning to return the subject HK's emotions to a stable state is transmitted. May be good.
  • FIG. 14 is a block diagram of the emotion determination device 104 according to the fourth embodiment.
  • the information terminal 5 constituting the emotion determination device 104 according to the fourth embodiment includes a control signal generation unit 46 that generates a signal for controlling the machine 2.
  • the control signal generation unit 46 generates a control signal for controlling the machine 2 based on the result of the emotion determination of the subject HK determined by the emotion determination unit 32. For example, if the emotion of the subject HK operating the machine 2 is stable or inspiring, it can be determined that there is no problem even if the operation of the machine 2 is continued as it is, so that the control for the machine 2 is controlled. No signal is generated. Alternatively, in this case, since it is determined that the subject HK can continue the operation of the machine 2 without any problem, a signal for continuing the control of the machine 2 may be generated.
  • the control signal is used.
  • the generation unit 46 generates a signal for forcibly stopping the machine 2 or a signal for issuing a warning to the operator based on the emotion determination result of the emotion determination unit 32.
  • the control signal for the machine 2 generated by the control signal generation unit 46 is transmitted to the reception unit 220 of the machine 2 via the transmission unit 42.
  • the receiving unit 220 of the machine 2 inputs the received control signal to the control unit 210, and the control unit 210 controls the machine 2 based on the control signal.
  • the control signal generation unit 46 changes the emotion of the emotional determination unit 32. Based on the result of the determination, a signal for resuming the operation of the machine 2 may be generated and transmitted to the machine 2.
  • the information terminal 5 transmits a control signal to the machine 2 based on the emotion determination result of the operator (subject) by the information terminal 5 is shown, but the example is not limited to such an example. ..
  • the emotion determination result of the operator determined by the information terminal 5 may be transmitted to the management center that manages the plurality of machines 2, and the control signal for the machine 2 may be transmitted from the management center side.
  • the management center can grasp the emotion determination result of the operator, so that the health management of the operator can be performed at the same time.
  • the emotion determination device is a so-called hiyari hat sensor. Can function as.
  • the emotion determination device is realized by an information terminal
  • the example is not limited to such an example.
  • the control board may be incorporated in the display device.
  • a camera can be installed on the display device, the result of the emotion determination executed on the control board can be transmitted to the server, and statistical analysis can be performed on the server side.
  • a line-of-sight camera is used as an image pickup section in order to capture an image of an elderly person who is a subject while providing long-term care at a nursing care facility or the like.
  • the face of the elderly or the like may be recognized, and the emotional determination may be performed based on the image acquired when the caregiver looks at the elderly or the like.
  • the result of the emotion determination may be notified by voice. Specifically, for example, the result of emotion determination may be notified by voice from an earphone worn by a caregiver or a speaker of a tablet terminal.
  • the voice notification of the emotion determination result may be performed by another embodiment, in particular, a machine control system using the emotion determination device according to the fourth embodiment.
  • a machine control system using the emotion determination device according to the fourth embodiment.
  • a camera provided in the smart watch may be used as the image sensor.
  • the image captured by the smartwatch may be emotionally determined by the smartwatch itself, or the captured image may be transmitted to another terminal and the emotional determination may be performed by the receiving terminal.
  • Example 5 Simultaneous measurement by multiple people
  • Web conferencing include, for example, a company giving a presentation to a plurality of customers via the Internet, a teacher giving a lesson to a plurality of students via the Internet, and the like.
  • a company or a teacher multiple students such as multiple customers and multiple students are listening intensively, or presentations and classes are good. It is preferable to know whether or not it was possible to do it in the state. Since the lecture participants are participants in the lecture, the "students" will be referred to as "participants” below.
  • the lecturer does not directly visually recognize the faces of a plurality of participants, but a plurality of them via the screen.
  • the objects presented to the participants by the organizer of the Web conference may be referred to as "presentation”, “class”, “seminar”, etc., but in the present specification, these are referred to as "lecture”. And.
  • the emotion determination device is intended to grasp the state in which a plurality of participants listened even if there are a plurality of participants.
  • the emotional determination device analyzes the emotions of one subject, whereas the emotional determination device according to the fifth embodiment of the present disclosure simultaneously analyzes the emotions of a plurality of subjects. It is characterized by the point of execution. Further, the emotion determination device according to the fifth embodiment of the present disclosure calculates the optimum listening time representing the time when the participant is listening in an ideal state as described later, and in what state the participant is listening. It is characterized by the point of determining whether or not it was done.
  • FIG. 15 shows a block diagram of the lecture-holding side PC600, which is the emotion determination device according to the fifth embodiment of the present disclosure.
  • the lecture host PC600 is a terminal A (500a), a terminal B (500b), ..., A terminal used by each of a plurality of participants A, participants B, ..., Participant N to listen to the lecture. Data is transmitted to and received from N (500n) via the Internet 100.
  • the terminal A (500a) includes a camera 501, a microphone 502, a transmission / reception unit 503, and a display unit 504.
  • the camera 501 captures an image of the face of participant A.
  • the microphone 502 collects the voice of the participant A.
  • the camera 501 and the microphone 502 may be built in the terminal A (500a) or may be externally attached.
  • the transmission / reception unit 503 transmits / receives data to / from the lecture organizer PC 600 via the Internet 100.
  • the display unit 504 displays information about the lecture transmitted from the lecture organizer PC600.
  • the display unit 504 may display an image of the face of the lecturer who hosts the lecture, an image of the face of the participant A himself, and the like.
  • the configuration of the terminal B (500b), the terminal N (500n), and the like is the same as the configuration of the terminal A (500a).
  • the lecture organizer PC600 includes a content distribution unit 601, a transmission / reception unit 602, an all-participant face recognition unit 603, each participant image cutting unit 604, and a participant emotion analysis unit (605a, 605b, ... , 605n), each participant individual log storage unit 611, and a display / notification unit 612.
  • the content distribution unit 601 distributes contents such as images and videos used for the lecture by the lecturer who holds the lecture over a predetermined time.
  • the content may be distributed in real time by the instructor, or may be distributed by playing a video or the like prepared in advance.
  • the transmission / reception unit 602 includes images of the faces of participants A, B, ..., N from the terminal A (500a), the terminal B (500b), ..., The terminal N (500n) via the Internet 100. Receive data. For example, when there are four participants in the lecture, images (41a to 41d) of each participant are displayed on the screen of the display / notification unit 612 as shown in FIG. FIG. 16 shows a case where there are four participants, but the case is not limited to such an example.
  • the face recognition unit 603 of all participants recognizes the images of the faces of all the plurality of participants. That is, the face recognition unit 603 of all participants is an example of the photographing unit, and can photograph the faces of a plurality of subjects.
  • Web conferencing application software used for lectures usually does not have a function to recognize where a participant's face is projected on the screen, and it is unknown how many participants there are. For example, even if the terminal (500a, 500b, ..., 500n) is connected to the lecture host PC600, if the image of the participant's face is not sent, the participant is listening. It cannot be recognized. Therefore, the face recognition unit 603 of all participants captures the image displayed by the application software, first scans the rough face position, and grasps how many participants there are. In addition, the face recognition unit 603 of all participants acquires the face position coordinates of each of the plurality of participants. The face recognition method will be described later.
  • Each participant image cutting unit 604 cuts out an image used for pulse wave analysis from the acquired image of the participant. This is because when there are a plurality of participants, the amount of data to be image-processed becomes large and it becomes difficult to process in parallel, so that the amount of data to be image-processed is reduced.
  • FIG. 17 shows an example of cutting out a part of the image from the image of the participant's face.
  • Each participant image cutting unit 604 cuts out a part 41a'of the image 41a of the participant A, for example, as shown in the upper left of FIG.
  • each participant image cutting unit 604 cuts out a part (41b', 41c', 41d') of the images (41b, 41c, 41d) of the other participants B to D.
  • Participant A emotion analysis unit 605a includes an individual face recognition unit 606, a pulse wave extraction image processing unit 607, an RRI Riapnov emotion determination unit 608, a pulse rate emotion determination unit 609, and an optimum listening time determination unit 610. Have.
  • the individual face recognition unit 606 of the participant A sentiment analysis unit 605a recognizes the face of the participant A. Further, the individual face recognition unit 606 cuts out a region for extracting a pulse wave from the image 41a'of the face of the participant A. For example, a part 412a of the image 41a'of the participant A shown in the upper left of FIG. 17 is cut out. The cut out image 412a may be displayed in the upper left of the image 41a'of the participant A, for example (412a'). Similarly, the individual face recognition unit 606 of the emotion analysis unit (605b, 605c, 605d) of the other participants (B, C, D) performs face recognition of the other participants (B, C, D), respectively. ..
  • the individual face recognition unit 606 of the emotion analysis unit (605b, 605c, 605d) of the other participants (B, C, D) has an image (41b') of the face of the other participants (B, C, D). , 41c', 41d'), and a region for extracting a pulse wave is cut out. For example, a part (412b, 412c, 412d) of an image (41b', 41c', 41d') of another participant (B, C, D) is cut out.
  • the clipped image (412b, 412c, 412d) may be displayed in the upper left of the image (41b', 41c', 41d') of another participant (B, C, D) (412b', 412c').
  • the pulse wave extraction image processing unit 607 is an example of the detection unit, and the image 412a of the predetermined range of the face image 41a'of the participant A cut out by the individual face recognition unit 606 is used to obtain the participant A who is the subject. Detects heart rate information, including heart rate.
  • the pulse wave extraction image processing unit 607 also has a function as a counting unit described in the first embodiment, and the average heart rate is changed from a state of less than the average heart rate with an increase in the heart rate of a predetermined value or more in a predetermined period. The number of heart rate fluctuations that have transitioned to the above state is counted.
  • the RRI Riapnov emotion determination unit 608 is an example of the emotion determination unit, and the emotion of the participant A who is the subject is a negative emotion or a positive emotion based on the heartbeat information detected by the pulse wave extraction image processing unit 607. Determine if it is an emotion.
  • RRI is an abbreviation for RR Interval and indicates the interval between heartbeats and pulse waves.
  • the RRI Lyapunov emotion determination unit 608 corresponds to the five blocks of the pulse wave extraction unit 22, the interval detection unit 23, the pulse wave memory 24, the chaos analysis unit 25, and the emotion determination unit 31 in FIG. 2 of the first embodiment. ..
  • the performance of the participants who listen to the lecture is maximized when the participants are psychologically "moderately tense" and listening with "normal mind".
  • the state in which the participants do not feel stress is not always the best, and the state in which they have a certain degree of "moderate tension” is preferable.
  • the state in which the participant has “moderate tension” means that the participant has "slightly negative emotions", that is, the participant has "slightly unpleasant feelings”. It is in a state.
  • the RRI Lyapunov emotional determination unit 608 determines whether or not the participant has "slightly negative emotions", that is, whether or not the participant has "slightly unpleasant emotions", that is, participation. It is possible to judge whether or not a person has "moderate tension".
  • FIG. 18 shows the relationship between the maximum Lyapunov exponent and the subjective exercise intensity RPE (Rating of Perceived Exertion).
  • FIG. 18 shows, as an example, for five subjects, the maximum Lyapunov exponent and the heart rate difference were measured from the heart rate information at various degrees of fatigue, and the RPE at that time was determined and plotted.
  • RPE is an index that numerically expresses the subjective tightness / fatigue of training and exercise.
  • the Borg scale which expresses the strength with a number of 6 to 20, is generally used. From FIG.
  • Figure 19 shows the Borg scale.
  • the subject feels “slightly tight” when the RPE is 12 to 15, and this is the state in which the lecture participant who is the subject has "moderate tension". it is conceivable that.
  • the subject feels “the most comfortable”, and when the RPE is 6 to 7, the subject feels “very easy”. It is considered that the participants of the lecture feel “sleepy”.
  • the subject feels “quite easy”, and when the RPE is 10 to 11, the subject feels “easy”. In these cases, the subject feels "easy”. Lecture participants are considered to be “pleasant”.
  • the pulse rate emotion determination unit 609 determines the emotions of the participants based on whether or not the extracted pulse wave is within a predetermined range from the average rest pulse rate.
  • FIG. 20 shows an example of a temporal change in the pulse rate when the pulse wave is within a predetermined range from the average rest pulse rate.
  • the above-mentioned state in which the participant has a "normal heart” is considered to be a state in which the pulse wave is settled within a predetermined range from the average rest pulse rate. For example, if the participant's pulse is centered on the average rest pulse rate, for example, within the range of plus or minus 5 [bpm], it may be determined that the participant has a normal heart.
  • the average rest pulse rate may be 65 [bpm], which is the average value of the Japanese rest pulse rate, or the average rest pulse rate of individual participants may be used.
  • the emotional analysis may be analyzed every 30 to 40 seconds in accordance with this timing.
  • the optimum listening time determination unit 610 is an example of an emotion determination unit, and determines the psychological state of a participant who is a subject based on the number of heart rate fluctuations counted by the pulse wave extraction image processing unit 607, and also determines the emotion determination unit. It is possible to use the determination result by the RRI Riapnov emotion determination unit 608 for the determination of the psychological state.
  • the optimal listening time determination unit 610 which is an emotion determination unit, determines whether or not the patient is in an ideal psychological state for taking a lecture based on the number of heart rate fluctuations and the determination result of the RRI Lyapunov emotion determination unit 608, which is an emotion determination unit. judge.
  • the participant is judged to be in an ideal psychological state.
  • the time during which the participants are listening to the lecture in an ideal psychological state is accumulated, and this cumulative time is set as the optimum listening time.
  • the optimal listening time can be calculated individually for each participant. The average value obtained by dividing the total value of the optimum listening times of a plurality of participants by the number of participants may be calculated.
  • the optimum listening time may be used as an index showing the ability of the instructor.
  • Participant B sentiment analysis unit 605b, participant N sentiment analysis unit 605n, etc. have the same configuration as participant A sentiment analysis unit 605a.
  • Each participant's individual log storage unit 611 stores the emotions and emotions of the participants in chronological order from the start time to the end time or the time of leaving the lecture for each of the plurality of participants.
  • the log it is possible to know at what time during the lecture the participants were listening in the ideal condition.
  • the log it is possible to know at what point during the lecture the participants were sleepy, so it is possible to know after the lecture which part of the lecture was likely to be sleepy. be able to.
  • the display / notification unit 612 is an example of an output unit, and outputs the determination results of the RRI Lyapunov emotion determination unit 608 and the pulse rate emotion determination unit 609.
  • the positive / negative emotion determination results 411a to 411d by the RRI Riapnov emotion determination unit 608 are displayed in characters at the bottom of each facial image of the plurality of participants, and the facial images of the plurality of participants are displayed.
  • the emotional determination results 413a to 413d by the pulse rate emotional determination unit 609 can be displayed in a rectangular frame in the periphery.
  • the emotion of the participant A is “unpleasant”
  • the emotion of the participant B is “slightly unpleasant”
  • the emotion of the participant C is “slightly unpleasant”. It is “pleasant”
  • the emotion of Participant D is “sleep”.
  • the colors of the characters may be different depending on the positive and negative emotions. For example, when listening to a lecture, it is normal to be a little nervous, so the expression of positive and negative emotions is to express "slightly negative emotions" in the safe color "green letters” and “negative emotions” in the warning color “red”. It may be expressed by "character”. In addition, since extreme positive emotions induce drowsiness, they may be expressed by "black letters" of "sleep".
  • the pulse of the participant is within a predetermined range based on the average rest pulse rate or exceeds the upper limit of the predetermined range. , Or it can be displayed whether it is less than the lower limit of a predetermined range.
  • the frame of the emotional determination result 413a may be displayed in, for example, “green”. In this case, the lecture organizer can recognize that the participant A is "normal mind" based on the emotional determination result 413a being green.
  • the frame of the emotional determination result 413b When the pulse of the participant B is less than the lower limit of the rest pulse rate range, the frame of the emotional determination result 413b may be displayed in, for example, "black”. Further, when the pulse of the participant C exceeds the upper limit of the rest pulse rate range, the frame of the emotional determination result 413c may be displayed in, for example, “red”. Further, when the pulse of the participant D is within the range of the resting pulse rate, the frame of the emotional determination result 413d may be displayed in, for example, “green”. The color of the frame of these emotional determination results 413a to 413d may be a single color or an intermediate color depending on the pulse rate.
  • the above-mentioned method for displaying positive / negative emotions and emotions is an example, and the positive / negative emotions and emotions may be displayed by other display methods.
  • the determination result of positive / negative emotion may be displayed by a face mark or the like corresponding to the emotion.
  • the emotional determination result may be displayed by characters, numbers, or the like according to the pulse rate. The organizer of the lecture can easily judge how each participant is listening to the lecture by referring to the judgment result of these positive and negative emotions and the judgment result of emotions. ..
  • the participants can easily grasp their own listening status.
  • the optimum listening time is calculated for each participant, the optimum listening time for all participants is totaled, and the average value is calculated by dividing by the participants who have listened to the lecture.
  • the listening time can be calculated.
  • the optimum listening time is divided by the lecture holding time and calculated as the standard value per unit time. You may. For example, if the cumulative value of the optimum listening time is 12 minutes for a 60-minute lecture, the optimum listening time can be calculated as 20% with respect to the total time of the lecture.
  • FIG. 21 shows a flowchart for explaining the operation procedure of the lecture-holding side PC600, which is the emotion determination device according to the fifth embodiment.
  • step S201 a program for executing emotion sensing is started to acquire a web conference screen.
  • images of multiple participants are displayed on the screen of the PC of the organizer of the Web conference.
  • the material may be displayed on the entire screen and the face of the participant may not be displayed.
  • the software for executing the Web conference may have a function capable of adding a screen different from the screen of the PC displaying the material to have two screens. By using this function, it is possible to display facial images of a plurality of participants on one screen and display a shared screen on the other screen. By displaying a plurality of participants side by side on one screen, it is possible to execute the Web conference while checking the facial expressions of the plurality of participants.
  • step S202 the entire face image is recognized, the number of participants' faces on the screen is counted, and the coordinate position of each face is calculated.
  • the screen on which all the participants are displayed is captured, and the entire face image is first recognized.
  • the facial images of all the participants are recognized in a predetermined period, for example, a period of about 1 minute.
  • recognizing the face images of all the participants means counting the number of recognized face images and calculating the coordinate position where the face is recognized in the screen.
  • the coordinate position of the face image the coordinate position of the eyes and the nose may be calculated, and the coordinate position of a predetermined coordinate position in the face image, for example, the coordinate of the position between the eyebrows may be set as the standard position of each participant.
  • the position of the face actually moves slightly, so by performing the image for a predetermined period, for example, one minute, XY is predetermined on the XY coordinates.
  • a range in which participants exist within the number of pixels for example, 300 pixels
  • the coordinates of the face image fluctuate within that range they can be regarded as the same person.
  • each individual face peripheral image is cut out from the entire image starting from each glabellar coordinate.
  • a range considering the fluctuation of the position of the participant's face starting from the position of the coordinates between the eyebrows for example, a range of plus or minus 300 pixels in the XY direction around the coordinate position between the eyebrows. Is cut out, and the cut out image is used as an image for judging emotions and emotions.
  • step S204 the image around the face of the participant A is captured and image recognition is performed.
  • step S205 it is determined whether or not the face image can be recognized in real time.
  • the emotion / emotion determination is executed in step S206, the optimum listening time is accumulated in step S207, and then the face image is returned to step S205 in real time.
  • step S208 If the face image of the participant A could not be recognized in step S205, it is determined in step S208 whether or not the face image could not be recognized for a certain period of time. If the face image can be recognized within a predetermined time in step S208, the process returns to step S205 to determine whether or not the face image can be recognized in real time.
  • step S208 if the face image cannot be recognized within a predetermined time (for example, 3 minutes) in step S208, it can be determined that the participant A has left, and therefore it is determined that the participant A has left in step S209. Then, the optimum listening time, the emotional judgment result, and the emotional judgment result log are saved.
  • the reason why the face image of the participant A cannot be recognized is that the terminal A connected to the lecture organizer's PC for the participant A to hold a Web conference maintains the connection state, while the participant A is the terminal A. This includes not only the case of leaving the front but also the case where the connection between the terminal A of the participant A and the PC of the lecture organizer is cut off, and the case where the lecture is completed.
  • step S210 the calculation of the optimum listening time for the participant A is completed.
  • the process from step S204 to S210 is a step of calculating the optimum listening time for the participant A, but the other participants are also subjected to parallel processing at the same time to calculate the optimum listening time.
  • the optimum listening time of the participant N is calculated by executing the steps of steps S211 to S217. The same applies to other participants such as Participant B.
  • FIG. 22A shows an output example of the feature coordinate fitting method for extracting feature coordinates from the face image
  • FIG. 22B shows an output example of the method for detecting the position between the eyebrows from the captured face image.
  • FIG. 22A is for extracting the coordinate positions of the eyebrows 701, eyes 702, nose muscle 703, nose 704, mouth 705, and facial contour 706 from the facial image of the subject, and performing emotional determination and emotional determination.
  • This is an example in which the image to be cut out is a predetermined area 710 of the cheek.
  • This method is effective when the subject does not wear a mask or the like, but when the subject wears a mask or the like, a part of the contour of the mouth, nose and face is hidden and the coordinate position cannot be measured accurately. There is a problem.
  • the eyes and face of the subject HK's face image 720 are shown.
  • Image recognition by deep learning may be performed on the contour image 721, and a predetermined region 722 extending from the eyebrows to the temples may be cut out as an image for performing emotion determination and emotion determination.
  • the part of the face for image recognition is not limited to the eyes and contours, but may be other parts, but the part not covered by the mask 723 is not covered by the mask 723 so that the image recognition can be performed even while wearing the mask 723. preferable.
  • the area to be cut out for performing the emotion determination and the emotion determination is not limited to the area around the eyebrows, and may be the forehead or the like. Therefore, the lecture host PC 600, which is an emotion determination device, may have a measurement site specifying means for identifying each face from a screen on which a plurality of people are displayed and specifying a measurement site for each identified face. preferable.
  • Each participant image cutout portion 604 is an example of a measurement site specifying means.
  • the pulse wave extraction image processing unit 607 (see FIG. 15), which is a detection unit, can acquire heartbeat information based on changes in the image of the measurement site of each face.
  • the amount of calculation processing increases when a specific area is extracted by deep learning from images such as eyes and facial contours included in the face image, which imposes a burden on the processor that controls the lecture host PC 600, which is an emotion determination device. May occur. Therefore, in order to reduce the processing amount of the processor of the lecture host PC 600, the image processing by deep learning may be executed on the back end to increase the speed.
  • FIG. 23 shows a configuration example for executing image capture using HDMI output. It is assumed that the Web conferencing PC 620 is connected to the intranet.
  • the HDMI output of the Web conferencing PC 620 is input to the HDMI distribution unit 801.
  • the HDMI distribution unit 801 distributes and outputs the HDMI signal input from the Web conferencing PC 620 to "HDMI 1" and "HDMI 2".
  • the HDMI 1 is input to the HDMI input unit 802, is input to the emotion sensing PC 600, and the emotion sensing is executed.
  • the emotion sensing PC 600 is not connected to the intranet (non-intranet).
  • the emotion sensing PC 600 can execute emotion sensing without connecting to an intranet by using the face image data of the subject included in the HDMI output.
  • the HDMI 2 is input to the projector and can display the image of the PC 620 for Web conferencing.
  • an example is shown in which only the Web conference video is taken from the HDMI output of the Web conference PC 620, which is an intranet PC, to the emotion sensing PC 600, which is a non-intra PC, and emotion analysis is performed on the emotion sensing PC 600.
  • the emotion sensing may be executed by using the HDMI output on the Web conference PC 620 that executes the Web conference.
  • an example of using HDMI output as an example of extracting a video output from a PC connected to an intranet to a non-intranet PC not connected to the intranet has been described, but the present invention is not limited to such an example. That is, an output method other than HDMI output may be used as an output for extracting video output from a PC connected to the intranet to a non-intranet PC.
  • Example 6 (Determining the cause of communication obstruction for the elderly) Communication problems may occur between the elderly and the caregiver. It is considered that this trouble is caused by the caregiver's inability to determine the cause of obstructing communication with the elderly.
  • FIG. 24 shows an example of causes and countermeasures that impede communication between the elderly and the caregiver. As the causes of communication obstruction in the elderly, the causes (1) to (3) can be considered in order from the one with the lowest severity.
  • the first cause is that the elderly dislike the caregiver's personality, that is, the incompatibility between the elderly and the caregiver is the cause. be. As a countermeasure against this first cause, it is conceivable to change the caregiver who cares for the elderly to another caregiver.
  • the second cause is a simple deterioration of eyesight / hearing, and it is conceivable that the color cannot be identified due to the deterioration of eyesight, or the sound cannot be heard due to the deterioration of hearing.
  • individual methods of communication are made by supplementing eyesight by using eyeglasses, supplementing hearing by using hearing aids, or communicating with fingers. It is conceivable to take measures.
  • the third cause is a mental illness such as dementia, and it is conceivable that the elderly can see things and hear sounds, but cannot recognize the meaning. As a countermeasure against this third cause, it is conceivable to take measures by a specialist.
  • the first and third causes may be included only by performing a normal visual acuity / hearing evaluation, and it is not possible to accurately identify the cause that hinders communication. Therefore, in order to accurately identify the first to third causes, three categories of video stimuli and acoustic stimuli as shown in FIG. 25 are periodically given to the subject, and emotions or positive and negative emotions are synchronized with the cycle. The cause can be estimated by whether or not it has changed.
  • compatibility which is the first cause, is a cause of communication obstruction
  • a "specific caregiver” is, for example, a caregiver who is in charge of caring for the elderly who have communication problems.
  • FIG. 26 shows a block diagram of the subject state determination device 1000, which is a communication inhibition cause determination device.
  • the communication obstruction cause determination device and the subject state determination device are examples of the emotion determination device.
  • the subject state determination device 1000 which is a communication obstruction cause determination device, includes a display unit 1001, a periodic stimulation image generation unit 1002, a speaker or headphones 1003, a periodic stimulation sound generation unit 1004, a stimulation type switching unit 1005, and the like.
  • the periodic stimulus image generation unit 1002 and the periodic stimulus sound generation unit 1004 are examples of the stimulus generation unit, and the visual or auditory stimulus of the subject is stimulated to the same type in a plurality of predetermined periods with a rest period in between. Occurs repeatedly. There are three types of stimuli, a first stimulus, a second stimulus, and a third stimulus, which will be described later.
  • the first stimulus is repeatedly generated as the same type of stimulus. However, each stimulus that occurs repeatedly may be different as long as it is classified as the first stimulus.
  • the display unit 1001 displays an image generated by the periodic stimulation image generation unit 1002 that serves as an image stimulus for the elderly subject.
  • a liquid crystal display device, an organic EL display device, a projector, or the like can be used as the display unit 1001 .
  • the speaker or headphone 1003 outputs a voice that is an acoustic stimulus to the elderly generated by the periodic stimulus sound generation unit 1004.
  • the stimulus type switching unit 1005 switches whether the stimulus given to the elderly subject is a visual stimulus or an acoustic stimulus.
  • Camera 1006 captures an image of the face of an elderly person who is a subject.
  • the face recognition unit 1007 recognizes a face image from the image captured by the camera 1006.
  • the pulse wave extraction image processing unit 1008 is an example of a detection unit, and detects heart rate information including the heart rate of an elderly person who is a subject.
  • the RRI Riapnov emotion determination unit 1009 is an example of a counting unit, and is a heart rate transition from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value at predetermined periods. Count the number of fluctuations.
  • the pulse rate emotion determination unit 1010 is an example of the emotion determination unit, and determines whether or not the subject has emotions corresponding to the stimulus at predetermined intervals based on the number of heart rate fluctuations.
  • the synchrony analysis unit 1011 analyzes whether or not there is synchrony between a plurality of periods and the timing of the presence or absence of emotions determined by the emotion determination unit.
  • the cause determination unit 1012 is an example of the inhibition factor determination unit, and determines the subject regarding the inhibition factor of communication with others based on the analysis result of the synchronization analysis unit 1011.
  • the determination result notification unit 1013 outputs the determination result of the communication obstruction factor determined by the cause determination unit 1012.
  • the cause determination unit 1012 determines whether or not there is a visual or auditory abnormality.
  • the first stimulus may be a sensory stimulus that stimulates the visual or auditory sense and the occurrence is recognized.
  • the "sensory stimulus” includes a stimulus that can be sensuously recognized whether or not it is generated by sight or hearing.
  • a moving image may be used as an example of a stimulus including an image or a sound.
  • FIG. 27 shows an example of temporal changes in the emotions of an elderly subject as a subject when a color stimulus, which is a visual autonomic nervous reaction color such as red, is periodically shown as a first stimulus whose occurrence can be visually recognized. Is shown.
  • the display unit 1001 is arranged so that the elderly person who is the subject can visually recognize the image, and the image 901 such as red is displayed on the display unit 1001 for a predetermined period (for example, 30 sec) from the time t1 to t2. do.
  • the white image 902 containing no color stimulus is displayed on the display unit 1001 for a predetermined period (for example, 30 sec) from the time t2 to t3.
  • a predetermined period for example, 30 sec
  • the image including the color stimulus and the image without the color stimulus (non-stimulation) are alternately repeated and displayed on the display unit 1001. This switching between color stimulation and non-stimulation is performed by the periodic stimulation image generation unit 1002.
  • a facial image of an elderly subject to whom color stimulation and non-stimulation were applied is imaged using a camera 1006.
  • the pulse wave extraction image processing unit 1008 is an example of a detection unit, and detects heartbeat information including the heart rate of the elderly person from the image of the elderly person who is the subject captured by the camera 1006.
  • the RRI Riapnov emotion determination unit 1009 is an example of the emotion determination unit, and determines whether the emotion of the elderly subject, who is the subject, is a negative emotion or a positive emotion based on the heartbeat information.
  • the pulse wave extraction image processing unit 1008 also has a function as a counting unit, and changes from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period. Count the number of heart rate fluctuations.
  • the pulse rate emotion determination unit 1010 which is an emotion determination unit, determines the psychological state of the subject, for example, the presence or absence of emotion, based on the number of heart rate fluctuations.
  • the synchrony analysis unit 1011 analyzes whether or not there is synchrony between a plurality of periods of color stimulation and no stimulation and the timing of the presence or absence of emotion determined by the emotion determination unit.
  • the cause determination unit 1012 determines whether or not there is a visual abnormality based on whether or not the timing of color stimulation and the timing of emotion generation are synchronized. For example, in the example shown in FIG. 27, the emotion of the elderly is detected when the image 901 containing the color stimulus is displayed from time t1 to t2, and the color stimulus is not included from time t2 to t3. When the white image 902 is displayed, the emotion of the elderly is not detected. That is, the emotion is detected at the timing of displaying the image 901 including the color stimulus. In this case, it can be determined that the elderly subject is aware of the color, and it can be determined that there is no visual abnormality.
  • FIG. 28 shows an example of temporal changes in the emotions of an elderly subject as a subject when a beat sound of a predetermined frequency (for example, 500 Hz) is periodically heard as a first stimulus whose generation can be recognized by hearing.
  • a beat sound of a predetermined frequency for example, 500 Hz
  • the beat sound of 500 Hz is output from the speaker or the headphone 1003 over a predetermined period (for example, 30 sec) from the time t1 to t2.
  • no sound is output from the speaker or the headphone 1003 (silence) for a predetermined period (for example, 30 sec) from the time t2 to t3.
  • the output of the beat sound of 500 Hz and the silence are alternately repeated.
  • the switching between the beat sound of 500 Hz and the silence is executed by the periodic stimulation sound generation unit 1004.
  • a face image of an elderly person who is a subject to which a beat sound of 500 Hz and silence are added is imaged using a camera 1006.
  • the pulse wave extraction image processing unit 1008 is an example of a detection unit, and detects heartbeat information including the heart rate of the elderly person from the image of the elderly person who is the subject captured by the camera 1006.
  • RRI Riapnov emotion determination unit 1009 determines whether the emotion of the elderly subject, who is the subject, is a negative emotion or a positive emotion based on the heartbeat information.
  • the pulse wave extraction image processing unit 1008 also has a function as a counting unit, and changes from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period. Count the number of heart rate fluctuations.
  • the pulse rate emotion determination unit 1010 which is an emotion determination unit, determines the psychological state of the subject, for example, the presence or absence of emotion, based on the number of heart rate fluctuations.
  • the synchrony analysis unit 1011 analyzes whether or not there is synchrony between a plurality of periods of acoustic stimulation and no stimulation and the timing of the presence or absence of emotion determined by the emotion determination unit.
  • the cause determination unit 1012 determines whether or not there is an abnormality in hearing based on whether or not the timing of the output of the beat sound of 500 Hz and the timing of the occurrence of emotions are synchronized. For example, in the example shown in FIG. 28, when the emotion of an elderly person is detected when a beat sound of 500 Hz is output from time t1 to t2, and no sound is generated from time t2 to t3. The emotions of the elderly have not been detected. That is, the emotion is detected at the timing of outputting the beat sound of 500 Hz. In this case, it can be determined that the elderly subject is aware of the sound, and it can be determined that there is no abnormality in hearing.
  • the stimulus may be the first stimulus whose occurrence can be recognized only by the visual or auditory sensation. That is, the first stimulus is a stimulus that does not require recognition of the information contained in the stimulus and can be recognized (sensory) only by the visual sense or the auditory sense.
  • the first stimulus includes some information in the stimulus, and the presence or absence of the stimulus is sensuously recognized to generate an emotion, and further, by recognizing the information in the stimulus, an emotion is generated or is generated. It may be a stimulus.
  • the stimulus is a second stimulus containing predetermined information capable of understanding the content of the information given by sight or hearing, and the inhibitory factor determination unit may determine the presence or absence of a mental abnormality of the subject.
  • the second stimulus may be a cognitive stimulus accompanied by recognition of predetermined information. For example, as a second stimulus, even if the image itself has no stimulus, such as a deception picture, the meaning of the deception picture can be understood by recognizing an unusual form hidden in the deception picture. You may use a video containing content that easily reacts to such cases. Alternatively, as the second stimulus, for example, even if the sound itself has no stimulus, a voice containing content that easily reacts when the meaning of the word can be understood may be used.
  • FIG. 29 shows the emotions of the elderly subject, who periodically show a deception picture that surprises or laughs when the meaning is understood, as a second stimulus containing predetermined information whose contents can be visually understood.
  • An example of temporal change is shown.
  • the image 903 in which the shape of the elephant's ear is the shape of a human profile is displayed on the display unit 1001 for a predetermined period (for example, 30 sec) from the time t1 to t2.
  • the white image 902 containing no deception is displayed on the display unit 1001 for a predetermined period (for example, 30 sec) from the time t2 to t3.
  • the image 904 in which the hand holding the can, which should be the right hand, is the left hand is displayed on the display unit 1001 for a predetermined period (for example, 30 sec) from the time t3 to t4.
  • the white image 902 containing no deception is displayed on the display unit 1001 for a predetermined period from t4 to t5 (for example, 30 sec).
  • the image 905 in which the shape of the boundary between the shades of color represented on the ground is the shape of a human profile is displayed on the display unit 1001 for a predetermined period (for example, 30 sec) from the time t5.
  • the switching between the image including the deception picture and the image not including the deception picture is executed by the periodic stimulation image generation unit 1002.
  • an image of the face of an elderly person who has seen an image including a deception picture and an image not including a deception picture is taken.
  • the pulse wave extraction image processing unit 1008 is an example of a detection unit, and detects heartbeat information including the heart rate of the elderly person from the image of the elderly person who is the subject captured by the camera 1006.
  • the RRI Riapnov emotion determination unit 1009 is an example of the emotion determination unit, and determines whether the emotion of the elderly subject, who is the subject, is a negative emotion or a positive emotion based on the heartbeat information.
  • the pulse wave extraction image processing unit 1008 also has a function as a counting unit, and changes from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period. Count the number of heart rate fluctuations.
  • the pulse rate emotion determination unit 1010 which is an emotion determination unit, determines the psychological state of the subject, for example, the presence or absence of emotion, based on the number of heart rate fluctuations.
  • the cause determination unit 1012 which is an obstruction factor determination unit, determines the presence or absence of a mental abnormality based on whether or not the timing of displaying an image including a deception picture and the timing of emotion occurrence are synchronized. For example, in the example shown in FIG. 29, the emotion is detected when the images 903, 904, and 905 including the deception picture are displayed, and the emotion is not detected when the image 902 not including the deception picture is displayed. That is, the emotion is detected at the timing of displaying the images 903, 904, and 905 including the deception picture. In this case, it can be determined that the elderly subject is aware of the meaning of the deception picture, and it can be determined that there is no mental abnormality.
  • FIG. 30 shows the emotional time of the elderly subject, when a voice that surprises or laughs when the meaning is understood is periodically heard as a second stimulus containing predetermined information whose contents can be understood by hearing.
  • a predetermined period for example, 30 sec
  • no sound is output (silence) for a predetermined period (for example, 30 sec) from the time t2 to t3.
  • the voice "a fire has occurred” is output from the speaker or the headphone 1003 once or multiple times over a predetermined period (for example, 30 sec) from the time t3 to t4.
  • no sound is output (silence) for a predetermined period (for example, 30 sec) from the time t4 to t5.
  • the voice "an earthquake has occurred” is output from the speaker or the headphone 1003 once or multiple times over a predetermined period (for example, 30 sec) from the time t5.
  • This switching between sound output and silence is executed by the periodic stimulation image generation unit 1002.
  • the face image of the elderly subject who is the subject when the voice having a specific meaning is output and when the voice is not output is captured by using the camera 1006.
  • the pulse wave extraction image processing unit 1008 is an example of a detection unit, and detects heartbeat information including the heart rate of the elderly person from the image of the elderly person who is the subject captured by the camera 1006.
  • the RRI Riapnov emotion determination unit 1009 is an example of the emotion determination unit, and determines whether the emotion of the elderly subject, who is the subject, is a negative emotion or a positive emotion based on the heartbeat information.
  • the pulse wave extraction image processing unit 1008 also has a function as a counting unit, and changes from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period. Count the number of heart rate fluctuations.
  • the pulse rate emotion determination unit 1010 which is an emotion determination unit, determines the psychological state of the subject, for example, the presence or absence of emotion, based on the number of heart rate fluctuations.
  • the synchrony analysis unit 1011 analyzes whether or not there is synchrony between a plurality of periods of acoustic stimulation and no stimulation and the timing of the presence or absence of emotion determined by the emotion determination unit.
  • the cause determination unit 1012 determines the presence or absence of a mental disorder based on whether or not the timing at which the voice is output and the timing at which the emotion occurs are synchronized. For example, in the example shown in FIG. 30, the emotion is detected when the voice having a specific meaning is output, and the emotion is not detected when the voice is not output. That is, the emotion is detected at the timing when the voice having a specific meaning is output. In this case, it can be determined that the elderly subject is aware of the meaning of the word, and it can be determined that there is no mental abnormality.
  • the pulse wave extraction image processing unit 1008 also functions as a calculation unit for calculating the complexity of changes in heartbeat interval fluctuations from heartbeat information.
  • the pulse wave extraction image processing unit 1008 can calculate the complexity of the fluctuation of the heartbeat interval from the heartbeat information, for example, by using the maximum Lyapunov exponent as an index.
  • the RRI Lyapunov emotion determination unit 1009 also functions as an emotion determination unit that determines whether the subject's emotion is a negative emotion or a positive emotion based on the complexity.
  • the RRI Lyapunov emotion determination unit 1009 may determine, for example, whether the subject's emotion is a negative emotion or a positive emotion based on the maximum Lyapunov exponent calculated by the pulse wave extraction image processing unit 1008. ..
  • the stimulus given by the stimulus generator to the elderly subject may be a third stimulus that includes at least one of an image or sound of a specific person.
  • the cause determination unit 1012 which is an inhibitory factor determination unit, may determine whether or not the subject is compatible with a specific person.
  • FIG. 31 shows the temporal changes in the emotions and positive and negative emotions of the elderly subject, when the image of the caregiver is periodically shown to the elderly subject as the third stimulus including the image of a specific person.
  • the image 906 of the caregiver is displayed on the display unit 1001 over a predetermined period (for example, 30 sec) from the time t1 to t2.
  • the white image 902 that does not include the image of the caregiver is displayed on the display unit 1001 for a predetermined period (for example, 30 sec) from the time t2 to t3.
  • the image 906 of the caregiver and the white image 902 not including the image of the caregiver are alternately repeated and displayed on the display unit 1001.
  • the switching between the caregiver image 906 and the white image 902 not including the caregiver image is executed by the periodic stimulation image generation unit 1002.
  • the image 906 of the caregiver and the face image of the elderly subject who saw the white image 902 not including the image of the caregiver are captured by using the camera 1006.
  • the pulse wave extraction image processing unit 1008 is an example of a detection unit, and detects heartbeat information including the heart rate of the elderly person from the image of the elderly person who is the subject captured by the camera 1006.
  • the RRI Riapnov emotion determination unit 1009 is an example of the emotion determination unit, and determines whether the emotion of the elderly subject, who is the subject, is a negative emotion or a positive emotion based on the heartbeat information.
  • the RRI Riapnov emotion determination unit 1009 determines that the emotions of the elderly subject are negative emotions, based on the complexity of changes in the fluctuation of the heartbeat interval calculated by the pulse wave extraction image processing unit 1008 from the heartbeat information. It may be determined whether it is a positive emotion.
  • the pulse wave extraction image processing unit 1008 also has a function as a counting unit, and changes from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period. Count the number of heart rate fluctuations.
  • the pulse rate emotion determination unit 1010 which is an emotion determination unit, determines the psychological state of the elderly person who is the subject corresponding to the stimulus, for example, the presence or absence of emotion, at predetermined intervals based on the number of heart rate fluctuations.
  • the synchronization analysis unit 1011 displays a plurality of periods for displaying the image 906 of the caregiver and the white image 902 not including the image of the caregiver, the timing of the presence or absence of emotion determined by the emotion determination unit, and the positive and negative emotions of the elderly. Analyze whether there is synchronization with the timing.
  • the cause determination unit 1012 which is an inhibitory factor determination unit, is a subject based on whether or not the timing of displaying the caregiver's image 906 and the timing of emotional occurrence are synchronized, and whether positive or negative emotions appear. Determine if the compatibility between an elderly person and a caregiver is good or bad.
  • the cause determination unit 1012 determines whether the compatibility between the elderly and the caregiver is good or bad, using the determination result (positive / negative emotion) by the RRI Lyapunov emotion determination unit 1009.
  • the cause determination unit 1012 indicates that the elderly person personalizes the caregiver. It can be determined that the elderly and the caregiver are compatible with each other.
  • the cause determination unit 1012 indicates that the elderly have a personality of the caregiver. It can be determined that the elderly and the caregiver are incompatible with each other.
  • the cause determination unit 1012 also has a function as an emotion determination unit, and the determination result (positive / negative emotion) by the emotion determination unit RRI Lyapunov emotion determination unit 1009 is used to determine the psychological state (good or bad compatibility). It can be used.
  • the pulse rate emotion determination unit 1010 and the cause determination unit 1012 have a function as an emotion determination unit.
  • the good or bad of compatibility is that the subject is unconscious to the subject, such as the psychological state that causes the elderly (for example, likes or dislikes the subject). Or, it is caused by the psychological state that you have consciously. Therefore, as described above, the emotional determination unit determines whether the compatibility is good or bad as a psychological state.
  • emotions are detected at the timing of displaying the image 906 of the caregiver, and negative emotions are detected.
  • the elderly subject is not compatible with the caregiver, it can be determined that the compatibility between the elderly and the caregiver is poor.
  • FIG. 32 shows the temporal changes in the emotions and positive and negative emotions of the elderly subject, when the voice of the caregiver is periodically heard to the elderly subject as the third stimulus including the voice of a specific person.
  • the caregiver himself utters his name "I am OO" from the speaker or headphones 1003 once or multiple times over a predetermined period (for example, 30 sec) from time t1 to t2. Output.
  • the audio output is stopped (silence) for a predetermined period (for example, 30 sec) from the time t2 to t3.
  • time t3 After time t3, the state in which the caregiver's own voice is output and the state in which there is no sound are alternately repeated.
  • the switching between the state in which the caregiver's own voice is output and the silent state is executed by the periodic stimulation sound generation unit 1004.
  • the caregiver himself used the camera 1006 to capture a voice such as "I am ⁇ " and the facial image of the elderly person who was the subject who heard it periodically.
  • the pulse wave extraction image processing unit 1008 is an example of a detection unit, and detects heartbeat information including the heart rate of the elderly person from the image of the elderly person who is the subject captured by the camera 1006.
  • the RRI Riapnov emotion determination unit 1009 is an example of the emotion determination unit, and determines whether the emotion of the elderly subject, who is the subject, is a negative emotion or a positive emotion based on the heartbeat information.
  • the emotion of the elderly subject is a negative emotion, or the emotion of the elderly subject is negative, based on the complexity of the change in the fluctuation of the heartbeat interval calculated by the pulse wave extraction image processing unit 1008 from the heartbeat information. It may be determined whether it is a positive emotion.
  • the pulse wave extraction image processing unit 1008 also has a function as a counting unit, and changes from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above a predetermined value in a predetermined period. Count the number of heart rate fluctuations.
  • the pulse rate emotion determination unit 1010 which is an emotion determination unit, determines the psychological state of the elderly person who is the subject corresponding to the stimulus, for example, the presence or absence of emotion, at predetermined intervals based on the number of heart rate fluctuations.
  • the synchrony analysis unit 1011 determines whether or not there is synchrony between a plurality of periods of acoustic stimulation and no stimulation, the timing of presence / absence of emotion determined by the emotion determination unit, and the timing of appearance of positive / negative emotions of the elderly. To analyze.
  • the cause determination unit 1012 which is an obstruction factor determination unit, determines whether or not the timing at which the caregiver outputs a voice such as "I am ⁇ " and the timing at which emotions occur are synchronized, and whether the caregiver is positive or negative. Based on which of the emotions is present, it is determined whether the elderly person who is the subject and the caregiver are compatible with each other.
  • the cause determination unit 1012 determines whether the compatibility between the elderly and the caregiver is good or bad, using the determination result (positive / negative emotion) by the RRI Lyapunov emotion determination unit 1009.
  • the cause determination unit 1012 indicates that the elderly personalize the caregiver. It can be determined that the elderly and the caregiver are compatible with each other.
  • the cause determination unit 1012 indicates that the elderly have a personality of the caregiver. It can be determined that the elderly and the caregiver are incompatible with each other.
  • the cause determination unit 1012 also has a function as an emotion determination unit, and the determination result (positive / negative emotion) by the emotion determination unit RRI Lyapunov emotion determination unit 1009 is used to determine the psychological state (good or bad compatibility). It can be used.
  • the pulse rate emotion determination unit 1010 and the cause determination unit 1012 have a function as an emotion determination unit.
  • the good or bad of compatibility is that the subject is unconscious to the subject, such as the psychological state that causes the elderly (for example, likes or dislikes the subject). Or, it is caused by the psychological state that you have consciously. Therefore, as described above, the emotional determination unit determines whether the compatibility is good or bad as a psychological state.
  • emotions are detected and negative emotions are detected at the timing when the caregiver himself outputs a voice such as "I am OO". .. In this case, it can be determined that the compatibility between the elderly subject and the caregiver is poor.
  • the pulse rate emotion determination unit 1010 determines that the subject has emotions when the number of heart rate fluctuations is 2 or more during each stimulus generation period and each stimulus rest period (both correspond to predetermined periods). .. This is because one emotion may occur even if the stimulus is not generated, depending on the switching of the screen or the like between the stimulus generation period and the stimulus rest period.
  • this emotion is an emotion other than the first to third stimuli, and should be excluded from the determination of the presence or absence of the emotion by the first to third stimuli.
  • the first to third stimuli generated by the periodic stimulus image generation unit 1002 and the periodic stimulus sound generation unit 1004 are stimuli that generate emotions at least twice or more. This is not for the purpose of testing reflexive reactions such as surprises, which are determined by the number of heart rate variability of each stimulus, but whether or not there is a change in psychological state determined by the number of heart rate variability of two or more times. It also depends on the purpose of trying.
  • the cause determination unit 1012 which is an inhibitory factor determination unit, can make a plurality of determinations of whether or not there is a visual or auditory abnormality, whether or not the subject has a mental abnormality, and whether or not the compatibility with a specific person is good or bad.
  • the factor it is possible to further determine which of the plurality of determinations the obstructive factor possessed by the subject is caused by.
  • FIG. 33 shows an example of determining the cause of obstructing communication among the elderly.
  • an elderly person is determined to be in a normal state. If there is a reaction to the elderly when the first stimulus for visual acuity / hearing determination is given, it can be determined that the elderly have no abnormality in visual acuity and hearing. In addition, if there is a reaction when the second stimulus for determining mental illness is given to the elderly, it can be determined that the elderly does not have a mental disorder. Furthermore, if the elderly do not respond or respond positively (positive emotions) when the third stimulus for determining compatibility is given, the compatibility between the elderly and the caregiver is It can be judged that it is not bad.
  • an elderly person is determined to be in a state of mental illness. If there is a reaction to the elderly when the first stimulus for visual acuity / hearing determination is given, it can be determined that the elderly have no abnormality in visual acuity and hearing. In addition, if there is no response when the second stimulus for determining mental illness is given to the elderly, the meaning of the video and audio contained in the second stimulus cannot be understood, and the elderly are in a state of mental illness. It can be judged that. Furthermore, if the elderly do not respond or respond positively (positive emotions) when the third stimulus for determining compatibility is given, the compatibility between the elderly and the caregiver is It can be judged that it is not bad.
  • an elderly person is determined to have a hearing abnormality. If there is a reaction to the elderly when the first stimulus for visual acuity determination is given, it can be determined that the elderly have no abnormality in their visual acuity. If there is no response when the first stimulus for hearing determination is given to the elderly person, it can be determined that the elderly person is in a state of hearing abnormality. When the hearing of the elderly is abnormal, the presence or absence of the mental disorder cannot be determined from the presence or absence of a reaction even if the elderly is given a second stimulus including a voice for determining a mental illness.
  • the compatibility between the elderly and the caregiver is It can be judged that it is not bad.
  • the compatibility between the elderly and the caregiver is shown, but the elderly may have hearing abnormality and the compatibility with the caregiver may not be good.
  • an elderly person is determined to be in a visual state. If there is a reaction to the elderly when the first stimulus for hearing determination is given, it can be determined that the elderly have no abnormality in hearing. If there is no response when the first stimulus for visual acuity determination is given to the elderly person, it can be determined that the elderly person is in a state of visual acuity abnormality. When the elderly have an abnormality in their visual acuity, the presence or absence of the mental disorder cannot be determined from the presence or absence of a reaction even if the elderly is given a second stimulus including an image for determining a mental illness.
  • the compatibility between the elderly and the caregiver is It can be judged that it is not bad.
  • the compatibility between the elderly and the caregiver is shown, but the elderly may have hearing abnormality and the compatibility with the caregiver may not be good.
  • a negative reaction appears when at least one of a video stimulus and an acoustic stimulus is given to the elderly as a third stimulus for determining compatibility
  • the compatibility between the elderly and the caregiver is poor. May be determined.
  • a positive reaction positive emotion
  • FIG. 34 (A) shows an example of the true value of the reaction that appears when the stimulus is periodically applied.
  • a predetermined period for example, 30 sec
  • a stimulation rest period in which the subject is not stimulated.
  • the subject is not expected to show any reaction, so the true value is set to "0”.
  • a predetermined period for example, 30 sec
  • a stimulus generation period for stimulating the subject.
  • the subject is expected to show a reaction, so the true value is set to "1”.
  • FIG. 34 (B) shows an example of determining emotion when a subject is stimulated at the timing shown in FIG. 34 (A).
  • the emotion is "absent", which is expressed as "0". Since the true value at this time is "0" from FIG. 34 (A), the emotion during this stimulation rest period is in agreement with the true value.
  • the emotion is "presence", and this is expressed as "1”. Since the true value at this time is "1" from FIG. 34 (A), the emotion during this stimulus generation period is in agreement with the true value.
  • the stimulus rest period and the stimulus generation period are periodically repeated from time t3 to t11, and the emotion is judged in a total of 10 periods.
  • the emotion becomes "none" ("0").
  • the true value in this period is "1”
  • the emotional determination result and the true value do not match.
  • the synchronization rate is calculated to be 90% because the emotional judgment result and the true value match. ..
  • the synchronization analysis unit 1011 determines based on the rate at which the presence or absence of emotion is synchronized between the stimulus generation period and the stimulus rest period, that is, whether or not the synchronization rate is equal to or higher than a predetermined value. For example, when the predetermined value is 70% and the calculated synchronization rate is 90%, it exceeds the predetermined value of 70%, so that it can be determined that the emotion is synchronized with the stimulus.
  • the synchronization rate of the presence or absence of emotion is calculated and determined for a plurality of periods in which a stimulus is given and a stimulus rest period, but the example is not limited to such an example. That is, when the number of times of stimulation generation and the number of times of stimulation pause are fixed, the synchronization rate (synchronization rate) is used even when the determination is made based on whether or not the number of synchronizations is equal to or more than a predetermined number without calculating the synchronization rate. It may be regarded as a judgment. For example, as shown in FIGS.
  • the total period of the stimulus generation period and the stimulus rest period is fixed to 10 periods, and the number of times of synchronization between the stimulus generation period and the stimulus rest period is a predetermined number of times (for example, in the case of 7 times or more, it may be determined that the synchronization rate is 70% higher than the predetermined value and the synchronization is performed.
  • the subject condition determination device 1000 which is a communication obstruction cause determination device
  • an inspection can be performed on the first day when an elderly person moves into a long-term care facility, and the type of the elderly person who moves in can be identified.
  • the inspection may be performed after about one month.
  • Example 6 is a specific example of the invention described in each of the following appendices.
  • a stimulus generator that generates visual or auditory stimuli for the subject at a plurality of predetermined predetermined periods with a rest period in between.
  • a detector that detects heart rate information including the subject's heart rate,
  • a counting unit that counts the number of heart rate fluctuations that transition from a state below the average heart rate to a state above the average heart rate with an increase in the heart rate above the predetermined value for each predetermined period.
  • An emotional determination unit that determines the presence or absence of emotions of the subject corresponding to the stimulus at each predetermined period based on the number of heart rate fluctuations.
  • a synchrony analysis unit that analyzes whether or not there is synchrony between the plurality of periods and the timing of the presence or absence of emotions determined by the emotion determination unit.
  • the subject has an obstruction factor determination unit that determines the obstruction factor of communication with others based on the analysis result of the synchronization determination unit.
  • a subject state determination device characterized in that.
  • a device for determining a communication obstruction factor As a device for determining a communication obstruction factor known so far, a device for determining the presence or absence of an abnormality in visual / auditory or cognitive ability by the visual / auditory sense of a subject is known.
  • the conventional device when judging from the response of the subject or the reaction such as pressing a button, there is a case that the reaction action itself is difficult and the judgment cannot be made.
  • a device for determining a communication-inhibiting factor from a subject's brain wave or the like is known. However, since such a device is large-scale, there is a problem that a large place is required as a place to install the device.
  • the stimulus is a first stimulus whose generation can be sensuously recognized by sight or hearing.
  • the inhibitory factor determination unit determines the presence or absence of the visual or auditory abnormality.
  • the subject state determination device according to Appendix 1.
  • the stimulus may be a first stimulus whose occurrence can be recognized only by a visual or auditory sensation.
  • the stimulus is a second stimulus containing predetermined information whose contents can be understood.
  • the inhibitory factor determination unit determines the presence or absence of a mental abnormality of the subject.
  • the subject condition determination device according to Appendix 1 or 2.
  • a calculation unit that calculates the complexity of changes in heartbeat interval fluctuations from the heartbeat information, It has an emotion determination unit for determining whether the subject's emotion is a negative emotion or a positive emotion based on the complexity.
  • the stimulus is a third stimulus that includes at least one of the images or sounds of a particular person.
  • the inhibitory factor determination unit determines whether or not the subject is compatible with the specific person.
  • the subject state determination device according to any one of Supplementary note 1 to 3.
  • the inhibitory factor determination unit It is possible to make a plurality of judgments as to whether or not there is a visual or auditory abnormality, whether or not the subject has a mental abnormality, and whether or not the person is compatible with the specific person. As a determination regarding the inhibitory factor, it is further determined which of the plurality of determinations the inhibitory factor possessed by the subject is caused by.
  • the subject state determination device according to Appendix 4.
  • the stimulus generating unit generates at least one of the first to third stimuli after each predetermined period, and then generates a different stimulus from the first to third stimuli.
  • the subject state determination device according to Appendix 4, which repeats until the third three stimuli are generated.
  • the synchronization analysis unit determines one of the appendices 1 to 6 based on whether or not the ratio of the presence or absence of the emotion synchronized with the stimulus generation period and the stimulus rest period is equal to or higher than a predetermined value.
  • the number of times of stimulation generation is fixed, and the number of synchronizations is also included in the case of a predetermined number of times or more.

Abstract

感情判定装置は、被験者の心拍数を含む心拍情報を検出する検出部と、前記心拍情報に基づいて、前記被験者の感情が負の感情であるか、又は正の感情であるかを判定する感情判定部と、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する計数部と、前記心拍数変動回数に基づいて、前記被験者の心理状態を判定するとともに、前記感情判定部による判定結果を前記心理状態の判定に用いることが可能な情動判定部と、前記情動判定部の判定結果を出力する出力部と、を有する。

Description

感情判定装置、感情判定方法及び感情判定プログラム
 本発明は、対象者の感情を判定する感情判定装置、感情判定方法及び感情判定プログラムに関する。
 高齢者を介護する場面において、介護者が高齢者に対して施した介護行為に対して、高齢者がどのような感情を持っているのかを介護者が把握することは、その後の介護方針を決めるうえで非常に重要である。しかしながら、高齢者は老化によって表情が乏しくなり、また会話が困難になる場合もあるため、高齢者の表情や雰囲気、あるいは会話内容から感情を読み取ることが難しいという問題がある。
 また、ビデオ通話やテレビ会議を行う場面において、話し手が話した言葉に対して、聞き手がどのような感情を持って聞いているのかを話し手が把握することは、会話を進めるうえで非常に重要である。しかしながら、テレビ会議等では聞き手の表情を映す画像はカメラで撮像した画像に限定されるため、聞き手の表情や雰囲気から感情を読み取ることが難しいという問題がある。一般に、通信回線を介してモニタを使用して行う会議の呼称として、使用する場面に応じて、「テレビ会議」や「Web会議」、または、他の会議名が用いられることがあるが、本明細書においては、これらを総称して、「Web会議」と記載する。
 特許文献1には、通信時の相手先の感情を解析する感情解析手段と、感情解析手段により解析した感情データを、当該感情解析を行った相手先に対応させて記憶する記憶手段と、記憶手段に記憶された感情データに基づく報知を行う報知手段と、相手先が選択されたとき、当該相手先に対応する感情データを記憶手段から読み出し、報知手段によって報知させる制御手段とを備えた通信装置が開示されている。
 特許文献2には、複数の会議参加者を撮影した画像データを取得する画像データ取得部と、画像データ取得部で取得した画像データから、各会議参加者の顔画像を検出する顔画像検出部と、検出した顔画像を切り出して1つの画像に再構成する画像構成部と、検出した顔画像に基づいて各参加者の感情を推定する感情推定部と、推定した感情に基づいて各参加者の顔画像の表示態様を変更する表示態様変更部と、を備えた画像処理装置が開示されている。
 特許文献1に記載の発明では、通話相手の音声を分析し、感情を判定しているため、相手が発話する必要があり、会話の少ない対象者や会議の聞き手には適用できない。また、特許文献2に記載の発明では、会議参加者の顔画像から表情を推定し、推定した表情に基づいて感情を推定しているが、表情が乏しい参加者の感情を推定することは難しいという問題がある。
特開2005-311915号公報 特開2020-48149号公報
 本発明は、非接触で相手の感情を検出することができる感情判定装置、感情判定方法及び感情判定プログラムを提供することを目的とする。
 本開示の実施形態に係る感情判定装置は、被験者の心拍数を含む心拍情報を検出する検出部と、心拍情報に基づいて、被験者の感情が負の感情であるか、又は正の感情であるかを判定する感情判定部と、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する計数部と、心拍数変動回数に基づいて、被験者の心理状態を判定するとともに、感情判定部による判定結果を心理状態の判定に用いることが可能な情動判定部と、情動判定部の判定結果を出力する出力部と、を有することを特徴とする。
 上記の感情判定装置は、さらに、被験者の顔を撮影する撮影部を有し、検出部は、撮影部が取得した画像データの変化に基づいて心拍情報を検出してよい。
 上記の感情判定装置において、心理状態は、正または負の感情のいずれかにかかわらず、心拍数変動回数に基づいて判定可能な第1心理状態と、正または負の感情のいずれかと、心拍数変動回数とに基づいて判定可能な第2心理状態とを含み、情動判定部は、少なくとも、第2心理状態の判定を行う場合に、感情判定部による判定結果を用いてよい。
 上記の感情判定装置において、所定期間は繰り返し設定され、情動判定部は、各所定期間毎に判定を行ってよい。
 上記の感情判定装置において、撮影部は、複数人の被験者の顔が撮影可能であり、さらに、複数人が表示される画面から、それぞれの顔を特定し、特定したそれぞれの顔に対して測定部位を特定する測定部位特定手段を有し、検出部は、それぞれの顔の測定部位の画像の変化に基づいて心拍情報を取得してよい。
 上記の感情判定装置において、被験者は、講義を受講する受講者であり、情動判定部は、心拍数変動回数と感情判定部の判定結果とに基づいて、講義の受講における理想的な心理状態か否かを判定してよい。
 上記の感情判定装置において、視覚または聴覚によって発生の有無を感覚的に認識可能な刺激と、視覚または聴覚によって与えられる情報の内容を理解することが可能な刺激と、特定の人物の画像または音声の少なくともいずれかを含む刺激と、を発生する刺激発生部を有し、刺激発生部は、休止期間を挟む予め定められた複数の期間に同種の刺激を繰り返し発生し、情動判定部は、少なくとも、予め定められた複数の期間の間に、被験者の心理状態を判定してよい。
 上記の感情判定装置において、負の感情は、被験者が、脳疲労、不安、及び抑うつのうちの少なくとも1つを感じる感情であってよい。
 上記の感情判定装置において、情動判定部が判定する被験者の心理状態は、安定している状態、驚いている状態、感激している状態、及び憤激している状態のいずれかを含んでよい。
 上記の感情判定装置において、計数部が計数した心拍数変動回数が1回の場合は、情動判定部は、心理状態は驚いている状態であると判定してよい。
 上記の感情判定装置において、計数部が計数した心拍数変動回数が複数回の場合であって、かつ、感情判定部が判定した被験者の感情が正の感情である場合は、情動判定部は、心理状態は感激している状態であると判定してよい。
 上記の感情判定装置において、計数部が計数した心拍数変動回数が複数回の場合であって、かつ、感情判定部が判定した被験者の感情が負の感情である場合は、情動判定部は、心理状態は憤激している状態であると判定してよい。
 上記の感情判定装置において、計数部が計数した心拍数変動回数が0回の場合であって、かつ、心拍数が平均心拍数未満の状態が所定期間において維持された場合は、情動判定部は、心理状態は安定している状態であると判定してよい。
 上記の感情判定装置において、計数部が計数した心拍数変動回数が0回の場合であって、かつ、心拍数が平均心拍数以上の状態が所定期間において維持された場合は、情動判定部は、心理状態を判定することができない情動判定不能状態と判定してよい。
 本開示の実施形態に係る感情判定プログラムは、被験者の心拍数を含む心拍情報を検出するステップと、心拍情報に基づいて、被験者の感情が負の感情であるか、又は正の感情であるかを判定するステップと、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数するステップと、心拍数変動回数に基づいて、被験者の心理状態を判定するとともに、判定結果を心理状態の判定に用いるステップと、心理状態の判定結果を出力するステップと、をコンピュータに実行させることを特徴とする。
 本開示の実施形態に係る感情判定方法は、検出部が、被験者の心拍数を含む心拍情報を検出し、感情判定部が、心拍情報に基づいて、被験者の感情が負の感情であるか、又は正の感情であるかを判定し、計数部が、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数し、情動判定部が、心拍数変動回数に基づいて、被験者の心理状態を判定するとともに、感情判定部による判定結果を心理状態の判定に用い、出力部が、情動判定部の判定結果を出力することを特徴とする。
 本開示の実施形態に係る感情判定装置、感情判定方法及び感情判定プログラムによれば、非接触で相手の感情を検出することができる。
本開示の実施形態に係る感情判定装置の使用状態を示す斜視図である。 本開示の実施形態に係る感情判定装置のブロック図である。 (A)~(C)は、脈波から負の感情を判定する原理を説明するためのグラフである。 (A)~(C)は、所定期間における心拍数の変動から、感情を判定する原理を説明するためのグラフである。 (A)及び(B)は、所定期間における心拍数の変動からは、感情を判定することが難しい場合の例を示すグラフである。 本開示の実施形態に係る感情判定装置の動作例を示すフローチャートである。 実施例1に係る感情判定装置を用いたWeb会議における画面の表示例を示す図である。 実施例1に係る感情判定装置のブロック図である。 実施例2に係る感情判定装置の画面の表示例を示す図である。 実施例2に係る感情判定装置のブロック図である。 実施例3に係る感情判定装置を用いたマーケティング調査システムの構成概略図である。 実施例3に係る感情判定装置のブロック図である。 実施例4に係る感情判定装置を用いた機械制御システムの構成概略図である。 実施例4に係る感情判定装置のブロック図である。 実施例5に係る感情判定装置である講義開催側PCのブロック図である。 参加者が複数の場合における参加者の画像の表示例である。 複数の参加者の顔の画像から、それぞれ一部の画像を切り出す場合の画像の表示例である。 最大リアプノフ指数と主観的運動強度RPEとの関係を示すグラフである。 RPEとトレーニングや運動の主観的なきつさ・疲労度との関係を表すボルグスケールである。 脈波が平均安静脈拍数から所定の範囲内に入っている場合の脈拍数の時間的変化の例である。 実施例5に係る感情判定装置の動作手順を説明するためのフローチャートである。 (A)は、顔画像から特徴座標を抽出する特徴座標フィッティング方式の出力例であり、(B)は、撮影した顔の画像から眉間の位置を検出する方式の出力例である。 HDMI(登録商標)出力を利用した画像取り込みを実行するための構成例である。 高齢者と介護者との間のコミュニケーションを阻害している原因と対策方法の例である。 相性、視力・聴力、及び精神疾患の3つのカテゴリーのコミュニケーション阻害要因のそれぞれを判定するための映像刺激及び音響刺激の例である。 実施例6に係るコミュニケーション阻害原因判定装置である被験者状態判定装置のブロック図である。 視覚によって発生が認識可能な第1刺激として、赤色等の視覚自律神経反応色である色刺激を周期的に見せた場合における、被験者である高齢者の情動の時間的変化の例である。 聴覚によって発生が認識可能な第1刺激として、所定の周波数のビート音を周期的に聞かせた場合における、被験者である高齢者の情動の時間的変化の例である。 視覚によって内容の理解が可能な所定情報を含む第2刺激として、意味が理解できると驚いたり笑ったりする騙し絵を周期的に見せた場合における、被験者である高齢者の情動の時間的変化の例である。 聴覚によって内容の理解が可能な所定情報を含む第2刺激として、意味が理解できると驚いたり笑ったりする音声を周期的に聞かせた場合における、被験者である高齢者の情動の時間的変化の例である。 特定の人物の画像を含む第3刺激として、介護者の画像を被験者である高齢者に周期的に見せた場合における、被験者である高齢者の情動及び正負感情の時間的変化の例である。 特定の人物の音声を含む第3刺激として、介護者の音声を被験者である高齢者に周期的に聞かせた場合における、被験者である高齢者の情動及び正負感情の時間的変化の例である。 高齢者のコミュニケーションを阻害する原因の判定例である。 (A)は、刺激を周期的に与えたときに現れる反応の真値の例であり、(B)は、(A)で示したタイミングに合わせて被験者に刺激を与えたときの情動の判定例である。
 以下、図面を参照して、本発明に係る感情判定装置、感情判定方法及び感情判定プログラムについて説明する。ただし、本発明の技術的範囲はそれらの実施の形態には限定されず、請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。
 図1は、本開示の実施形態に係る感情判定装置1の使用状態を示す斜視図である。図1に示すように、感情判定装置1は、撮像部10と、情報端末5と、を備える。図示した例では、撮像部10はスマートホンなどの携帯端末であり、情報端末5は表示部41を備えたノート型パーソナルコンピュータ(PC)である。ただし、このような例には限定されず、撮像部10としてタブレット端末又はデジタルカメラ等を用いてもよく、情報端末5としてタブレット端末、デスクトップ型PC、または専用の処理装置等を用いてもよい。撮像部10及び情報端末5は一体化されていてもよい。
 図1では、撮像部10を保持するスタンド90に撮像部10が設置された状態を示している。図1に示すように、撮像部10は、撮像素子11と、撮像部10の動作を設定するための表示部付タッチパネル19とを備える。
 特に高齢者の中には、測定に対する恐怖感を抱く人や、測定時のセンサ装着などの測定行為そのものに抵抗を感じる人、測定説明を聞いただけで一時的に負の感情が現れる人などが存在し、適正に負の感情が測定できないことがある。そこで、感情判定装置1は、測定自体がストレスにならないように、撮像素子(カメラ)11を有する撮像部10を用いて、被験者の皮膚の露出部分(例えば、顔の額又は頬などの部位)を撮影する。そして、感情判定装置1は、得られた画像から血流に同期した輝度変化を抽出することで、被験者に対して非接触で、かつ被験者が無意識のまま、被験者の心拍情報である脈波信号を自動的に検出する。
 撮像素子11は、例えば、CMOS(Complementary Metal Oxide Semiconductor)型又はCCD(Charge Coupled Device)型のイメージセンサである。撮像素子11は、測定の度に、図1に示すように、例えば被験者HKの額における測定枠Saの画像Grを、被験者の操作によらずに連続して複数枚、自動撮影する。撮像部10は、内蔵する顔認識のアプリケーションプログラムによって、被験者HKの額の測定枠Saを自動的に追尾する機能を有している。これにより、被験者HKが撮像部10の設置領域内で動き回っても、被験者HKの脈波を捉えることが可能である。図1に示すように、撮像部10は、撮影した被験者HKの画像データを、内蔵する無線通信機能により電波RWを介して情報端末5に送信する。
 図2は、感情判定装置1のブロック図である。図1に示すように、感情判定装置1の情報端末5は、感情検出部20と、判定部30と、報知部40と、計時部50と、を備える。感情検出部20は、顔認識部21と、脈波抽出部22と、間隔検出部23と、脈波メモリ24と、カオス解析部25と、計数部26と、を備える。判定部30は、感情判定部31と、情動判定部32と、を備える。報知部40は、表示部41と、送信部42と、を備える。このうち、脈波メモリ24はハードディスク又は半導体メモリ等で構成され、表示部41は液晶表示ディスプレイ等で構成され、計時部50は公知の時計回路で構成されてよい。その他の要素は、CPU、ROM及びRAMなどを含む情報端末5内のコンピュータにより、ソフトウエア(プログラム)として実現される。
 顔認識部21は、撮像素子11が撮影した被験者HKの画像Grに対して輪郭検知アルゴリズム又は特徴点抽出アルゴリズムを用いて顔の様態を分析し、額などの皮膚露出部分を測定部位として特定する。顔認識部21は、その測定部位における皮膚色を示すデータである時系列信号E1を、脈波抽出部22に出力する。
 脈波抽出部22は、時系列信号E1から被験者HKの脈波信号を抽出し、その信号を間隔検出部23に出力する。被験者HKの額における測定枠Saの内部には毛細動脈が集中しているので、画像Grには被験者HKの血流に同期した輝度変化成分が含まれている。特に、画像Grの緑色光の輝度変化成分に脈波(血流変化)が最も反映されているので、脈波抽出部22は、人の脈波が有する略0.5~3[Hz]の周波数を通過させるバンドパスフィルタを用いて、時系列信号E1の緑色光の輝度変化成分から脈波信号を抽出する。
 撮像部10、顔認識部21及び脈波抽出部22は、被験者の心拍情報を検出する検出部の一例である。ただし、検出部の機能は必ずしも撮像部10と情報端末5に分かれていなくてもよく、例えば、顔認識部21と脈波抽出部22の機能を撮像部10に持たせてもよいし、撮像部10を情報端末5に含めてもよい。
 図3(A)~(C)は、脈波から負の感情を判定する原理を説明するためのグラフである。このうち、図3(A)は脈波信号PWの波形例を示し、横軸tは時間(ミリ秒)、縦軸Aは脈波の振幅の強さである。図3(A)に示すように、脈波信号PWは、心臓の拍動による血流量の変動を反映した三角波状であり、最も血流量が多いことを示す脈波の振幅強度が強いピーク点P1~P(n+1)の間隔を脈波間隔d1~dnとする。
 間隔検出部23は、被験者HKの脈波信号PWのピーク点P1~P(n+1)を検出し、計時部50を用いて脈波間隔d1~dnをミリ秒単位で算出し、さらに脈波間隔d1~dnから脈波間隔の時系列データを生成する。
 脈波メモリ24は、間隔検出部23により検出された脈波間隔d1~dnを脈波間隔の時系列データとして記憶する。
 図3(B)は、脈波間隔の揺らぎ度の例を示すグラフである。このグラフはローレンツプロットと呼ばれ、横軸を脈波間隔dn、縦軸を脈波間隔dn-1(ともに単位はミリ秒)とし、n=1,2,・・・について座標(dn,dn-1)上に脈拍間隔の時系列データをプロットしたものである。図3(B)のグラフにおけるドットRのバラつき度合いが被験者HKの脳疲労度を反映することが知られているので、表示部41に図3(B)のデータ散布図を表示すれば、被験者HKの測定中の脳疲労度を簡易的にモニタすることも可能である。
 カオス解析部25は、脈波メモリ24に記憶された脈波間隔の時系列データ、すなわち、図3(B)のローレンツプロットにおける座標(dn,dn-1)を用いて、以下の式(1)により最大リアプノフ指数λを算出する。
Figure JPOXMLDOC01-appb-M000001
 ここで、Mは脈波間隔d1~dnにおける総サンプル時間、dは時系列データの時刻kと時刻k-1とのパターン間距離(ローレンツプロットにおける2次元平面上の距離)である。間隔検出部23及びカオス解析部25は、心拍情報から心拍間隔の揺らぎ度を示す最大リアプノフ指数を算出する算出部の一例である。
 最大リアプノフ指数について簡単に説明する。人間を含む哺乳類の心臓は機械と同じで一定周期で動いていると、特定部分が疲弊して壊れやすくなる。長期間駆動し続けるために通常時は複雑系のゆらぎで疲弊をかわしてしている。これが自律神経の役割である。ここにストレスや精神的なダメージがかかると、自律神経がストレッサーの対処に集中してしまうため、複雑系の揺らぎが出せなくなる。単に複雑系(カオス性)の揺らぎの有無では無く、複雑系を有する揺らぎの度合いが正負感情(自律神経)と相関する。例えば、揺らぎが特定の周期性を持つものは、そのグラフが円や楕円になり、この場合は複雑系の揺らぎは無い。従って、最大リアプノフ指数がプラスの場合は、複雑系の揺らぎがあることとなり、被験者は正感情を有していることを示す。一方、最大リアプノフ指数がマイナスの場合は、複雑系の揺らぎが無いこととなり、被験者は負感情を有していることを示す。このようにして、最大リアプノフ指数を指標とすることにより、複雑系の揺らぎの度合いを数値化することができ、被験者が正の感情及び負の感情のいずれを有しているかを判定することができる。これが最大リアプノフ指数を利用した感情センシングの原理である。
 なお、感情判定を行うにあたって、最大リアプノフ指数を用いる代わりに、LF/HF法を用いてもよい。LF/HF法は、心拍変動から自律神経活動を評価するものであり、低周波成分(LF:Low frequency)と高周波成分(HF:High frequency)の比(LF/HF)を交感神経指標として用いる方法である。心拍または脈波間隔の揺らぎを周波数分析し、LFを0.04~0.15Hzのパワースペクトルとし、HFを0.15~0.4Hzのパワースペクトルとしたとき、LF/HFが2.0未満の場合は「正感情」と判定し、2.0以上5.0未満の場合は「やや負感情」と判定し、5.0以上の場合は「負感情」と判定することができる。ただし、最大リアプノフ指数は30秒間の脈波の揺らぎでも解析できるのに対して、LF/HF法はLFの低い周波数成分を正確に計測するために3分間程度の計測時間が必要である。
 図3(C)は、心拍又は脈波の間隔の揺らぎ度を示す最大リアプノフ指数と負の感情との関係を示すグラフである。このグラフは、成人男女10人を対象に問診アンケートを行って、疲れをどの程度感じるか、及び疲れが脳疲労、不安又は抑うつと感じる状態であるか否かを回答させるとともに、同じ被験者について脈波間隔の最大リアプノフ指数λを測定し、得られた回答内容とλの値との関係をまとめたものである。F0は「疲れなし」に、F1は「年齢相当の疲れあり」に、F2は「一時的な疲れあり」に、F3は「慢性的な疲れあり」に、F4は「負の感情あり」にそれぞれ相当する。グラフの縦軸は最大リアプノフ指数λである。
 図3(C)から、最大リアプノフ指数λは、単なる疲れの状態では0に近い絶対値の小さい値であるが、負の感情があるとマイナスで絶対値の大きな値となることが分かる。当該成人男女10名に関しては、測定のばらつきを考慮して、負の感情を感じるか否かの最大リアプノフ指数の閾値を-0.6程度に設定することができる。
 感情判定部31は、カオス解析部25から取得した最大リアプノフ指数λが以下の式(2)を満たす場合に、被験者に負の感情が発生していると判定し、λが式(2)を満たさない場合には、被験者に負の感情が発生していないと判定する。
    λ≦λt                    ・・・(2)
 ここで、閾値λtは-0.6であるが、感情判定装置1に求められる特性によっては他の値を用いることがある。感情判定部31は、最大リアプノフ指数に基づいて、被験者の感情が脳疲労、不安、及び抑うつのうちの少なくとも1つを感じる負の感情であるか、あるいは、被験者の感情が脳疲労、不安、及び抑うつのいずれも感じない正の感情であるかを判定する感情判定部の一例である。
 計数部26は、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する。図4(A)~(C)は、所定期間における心拍数の変動から、感情を判定する原理を説明するためのグラフである。縦軸は心拍数を示し、横軸は時間を示す。baveは被験者HKの平均心拍数を示す。被験者HKの平均心拍数が未知の場合は平均的な値である65[bpm]を用いてもよい。心拍数が平均心拍数bave以上の領域を「情動領域」といい、心拍数が平均心拍数bave未満の領域を「安静領域」という。
 図4(A)~(C)に示すように、心拍数は時間と共に変動する。計数部26は、所定期間における心拍数が、安静領域から情動領域へ遷移、即ち、平均心拍数bave未満の状態から平均心拍数bave以上の状態に遷移し、かつ、その際の心拍数の変動幅Δsが所定値より大きくなっている心拍数変動回数を計数する。例えば、所定期間を30[sec]、所定値を10[bpm]としてもよい。所定期間30[sec]は、リアプノフ分析の精度を維持できる最小期間に符合させている。ただし、これらの数値には限定されず、感情の変化に伴う被験者の心拍数の変化の度合いに応じて所定期間及び所定値を適宜設定することができる。
 図4(A)は、所定期間における心拍数が平均心拍数bave未満の例を示す。この場合は、所定期間において心拍数を表す曲線L1は安静領域にあり、計数部26は、心拍数が平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を0回と計数する。
 図4(B)は、心拍数が1回のみ大きく変動した例を示す。図4(B)に示すように、心拍数を表す曲線L2において、心拍数s1は平均心拍数bave未満であり、心拍数s2は平均心拍数bave以上である。さらに、s1とs2の差であるΔsが所定値以上である場合、計数部26は、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を1回と計数する。
 図4(C)は、心拍数が複数回変動した例を示す。図4(C)に示すように、心拍数を表す曲線L3において、心拍数s1、s3、s5は平均心拍数bave未満であり、心拍数s2、s4、s6は平均心拍数bave以上である。さらに、s1とs2の差であるΔs1、s3とs4の差であるΔs2、及びs5とs6の差であるΔs3が全て所定値以上である場合、計数部26は、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を3回と計数する。図4(C)では、心拍数変動回数が3回の例を示したが、このような例には限られず、心拍数変動回数が2回または4回以上の場合においても、計数部26は、心拍数変動回数は複数回と判断する。
 情動判定部32は、感情判定部31による判定結果及び計数部26が計数した心拍数変動回数に基づいて、被験者HKの心理状態を判定する。図4(A)~(C)においては、所定期間として、最初に設定された期間である30[sec]の期間のみを示しているが、所定期間は繰り返し設定されてよい。また、情動判定部は、各所定期間毎に判定を行ってよい。ここで、被験者HKの心理状態には、安定している状態、驚いている状態、感激している状態、及び憤激している状態が含まれる。従って、情動判定部32は、感情判定部31による判定結果及び計数部26が計数した心拍数変動回数に基づいて、被験者HKの心理状態が、安定している状態、驚いている状態、感激している状態、及び憤激している状態のいずれであるかを判定する。なお、「感激」は、強く心に感じて、気持ちがたかぶることを意味し、心を動かされる「感動」、心で衝撃を受けて感動する「感銘」、心で驚いたり納得したりする「感心」や「喜び」等、他の同義語の意味を含む。また、「憤激」は、いきどおることを意味し、「怒り」等、他の同義語の意味を含む。
 計数部26が計数した心拍数変動回数が0回の場合であって、かつ、被験者HKの心拍数が平均心拍数未満の状態が所定期間において維持された場合は、情動判定部32は、被験者HKの心理状態は安定している状態であると判定する。所定期間において心拍数が平均心拍数未満であり一度も平均心拍数以上となっていないため、心拍数は安静領域にあり、情動判定部32は、被験者HKの心理状態は安定している状態であると判定することができる。
 計数部26が計数した心拍数変動回数が1回の場合は、情動判定部32は、心理状態は驚いている状態であると判定する。被験者HKの心理状態が驚いている状態である場合、心拍数は所定期間において1回のみ変動し、連続しないと考えられる。また、被験者HKが驚いた状態となるのは、被験者HKの感情が正の感情である場合も負の感情である場合も両方ありうる。そこで、計数部26が計数した心拍数変動回数が1回の場合は、情動判定部32は、感情判定部31が判定した被験者HKの感情が正の感情であるか負の感情であるかに関わらず、被験者HKの心理状態は驚いている状態であると判定することができる。
 計数部26が計数した心拍数変動回数が複数回の場合であって、かつ、感情判定部31が判定した被験者HKの感情が正の感情である場合は、情動判定部32は、被験者HKの心理状態は感激している状態であると判定する。被験者HKの感情が正の感情である場合は、被験者HKは快い心理状態にあると考えられる。さらに、被験者HKが鑑賞した映像等が面白くて笑ったりしたような感激した心理状態になると、心拍数が平均値未満の安静領域から、平均値以上の情動領域に変動し、この変動はある程度持続すると考えられる。従って、計数部26が計数した心拍数変動回数が複数回の場合であって、かつ、感情判定部31が判定した被験者HKの感情が正の感情である場合は、情動判定部32は、被験者HKの心理状態は感激している状態であると判定することができる。
 計数部26が計数した心拍数変動回数が複数回の場合であって、かつ、感情判定部31が判定した被験者HKの感情が負の感情である場合は、情動判定部32は、被験者HKの心理状態は憤激している状態であると判定する。被験者HKの感情が負の感情である場合は、被験者HKは不快な心理状態にあると考えられる。さらに、被験者HKが嫌いな人に怒られたりしたような憤激した心理状態になると、心拍数が平均値未満の安静領域から、平均値以上の情動領域に変動し、この変動はある程度持続すると考えられる。従って、計数部26が計数した心拍数変動回数が複数回の場合であって、かつ、感情判定部31が判定した被験者HKの感情が負の感情である場合は、情動判定部32は、被験者HKの心理状態は憤激している状態であると判定することができる。
 計数部26が計数した心拍数変動回数が0回の場合であって、かつ、被験者HKの心拍数が平均心拍数以上の状態が所定期間において維持された場合は、情動判定部32は、被験者HKの心理状態を判定することができない情動判定不能状態と判定する。図5(A)及び(B)は、所定期間における心拍数の変動からは、感情を判定することが難しい場合の例を示すグラフである。図5(A)は所定期間において心拍数を表す曲線L4が情動領域で安定した状態を示し、図5(B)は所定期間において心拍数を表す曲線L5が情動領域で大きく変動している状態を示している。ただし、これらの場合は、心拍数は情動領域にあり、所定期間において常に平均心拍数以上となっている。これは、被験者HKの身体が疲労している状態にあるか、激しい運動を行っている状態にあると考えられ、情動判定を適切に行うことは難しい状態であると考えられる。従って、計数部26が計数した心拍数変動回数が0回の場合であって、かつ、被験者HKの心拍数が平均心拍数以上の状態が所定期間において維持された場合は、情動判定部32は、被験者HKの心理状態を判定することができない情動判定不能状態と判定することができる。
 表1に、情動判定部32が、感情判定部31による被験者HKの感情の判定結果及び計数部26が計数した心拍数変動回数に基づいて判定する被験者HKの心理状態の一覧を示す。
Figure JPOXMLDOC01-appb-T000002
 上述したように、情動判定部32は、心拍変動回数が0回の場合は、感情判定部31の判定結果が正の感情であるか、負の感情であるかに関わらず、被験者の心理状態は「安定」している状態であると判定し、心拍変動回数が1回の場合は、感情判定部31の判定結果が正の感情であるか、負の感情であるかに関わらず、被験者の心理状態は「驚き」の状態であると判定する。このように、心拍変動回数が0回、または1回の場合は、情動判定部32は、感情判定の結果が正の感情であるか、負の感情であるかに関わらず、心拍変動回数から被験者の心理状態を判定することができる。ここで、正または負の感情のいずれかにかかわらず、心拍数変動回数に基づいて判定可能な心理状態を「第1心理状態」とする。
 一方、心拍変動回数が複数回の場合は、情動判定部32は、感情判定部31の判定結果が正の感情である場合は、被験者の心理状態は「感激」している状態であると判断し、感情判定部31の判定結果が負の感情である場合は、被験者の心理状態は「憤慨」している状態であると判断する。このように、心拍変動回数が複数回の場合は、情動判定部32は、感情判定の結果である正の感情または負の感情のいずれかと、心拍変動回数とに基づいて、被験者の心理状態を判定することができる。ここで、正または負の感情のいずれかと、心拍数変動回数とに基づいて判定可能な心理状態を「第2心理状態」とする。このように、被験者の心理状態は、第1心理状態と、第2心理状態とを含む。情動判定部32は、心拍変動回数が複数回の場合に、第2心理状態が「感激」している状態であるのか、または、「憤慨」している状態であるのかの判定を行う場合に、感情判定部31によって判定された被験者の感情が正の感情であるか、または、負の感情であるかの判定結果を用いる。即ち、情動判定部32は、少なくとも、第2心理状態の判定を行う場合に、感情判定部31による判定結果を用いる。
 このように、情動判定部32は、判定する心理状態に応じて、感情判定部31による判定結果を、心理状態の判定に用いることが可能である。
 但し、情動判定部32は、心拍変動回数が0回および1回の場合であっても、感情判定部31による判定結果を用いて心理状態(例えば、より詳細な心理状態)を判定してもよい。この場合も、情動判定部32は、感情判定部31による判定結果を、心理状態の判定に用いることが可能な例である。
 報知部40は、情動判定部32による被験者HKの感情の判定結果を表示部41に表示させる。特に、報知部40は、情動判定部32による被験者HKの感情の判定結果を表示部41に表示させるとともに、送信部42を介して外部に送信する。報知部40は、情動判定部32の判定結果を出力する出力部の一例である。
 図6は感情判定装置1の動作を示すフローチャートである。まず、ステップS101において、撮像部10が撮像素子11によって被験者HKの測定枠Saの画像Grを撮影し、その画像データを情報端末5に送信する。続いて、顔認識部21は被験者HKの画像データから測定部位を特定する。
 次に、ステップS102において、脈波抽出部22が、顔認識部21が特定した測定部位の皮膚色の時系列信号E1から被験者HKの脈波信号を抽出する。間隔検出部23は、脈波信号から脈波間隔を算出してその時系列データを生成し、その時系列データを脈波メモリ24に記憶させる。
 次に、ステップS103において、カオス解析部25が、S102で記憶された脈波間隔の時系列データに基づいて脈波間隔の最大リアプノフ指数λを算出する。
 次に、ステップS104において、計数部26が、脈波信号から抽出した心拍数の時間的変化に基づいて、所定期間において、所定値以上の心拍数変動があるか否かを判断する。所定値以上の心拍数変動がない場合は、ステップS105において、所定期間における被験者HKの心拍数が平均心拍数未満であるか否かを判断する。
 被験者HKの心拍数が平均心拍数未満の状態が所定期間において維持された場合は、ステップS106において、情動判定部32が、被験者HKの感情は安定している状態であると判定する。一方、被験者HKの心拍数が平均心拍数以上の状態が所定期間において維持された場合は、ステップS107において、情動判定部32が、被験者HKの情動判定は行うことができない情動判定不能状態と判定する。
 ステップS104において、所定値以上の心拍数変動があると判断された場合は、ステップS108において、計数部26が、所定期間における被験者HKの心拍数変動回数が1回のみであるか否かを判断する。被験者HKの心拍数変動回数が1回のみである場合は、ステップS109において、情動判定部32が、被験者HKの感情は驚いている状態であると判定する。
 一方、ステップS108において、所定期間における被験者HKの心拍数変動回数が1回のみではない、即ち複数回である場合は、ステップS110において、感情判定部31が、ステップS103において算出した最大リアプノフ指数λを閾値λtと比較し、被験者HKが正の感情であるか、あるいは、負の感情であるかを判断する。
 被験者HKが正の感情であると判断した場合は、ステップS111において、情動判定部32が、被験者HKの感情は感激している状態であると判定する。一方、被験者HKが負の感情であると判断した場合は、ステップS112において、情動判定部32が、被験者HKの感情は憤激している状態であると判定する。
 以上のように、本開示の実施形態に係る感情判定装置によれば、被験者HKの画像情報から、被験者HKの心理状態が、安定している状態、驚いている状態、感激している状態、及び憤激している状態のいずれであるかを非接触で判定することができる。
 本開示の実施形態に係る感情判定装置を用いることにより、例えば介護施設等においてうまくコミュニケーションが取れない人の感情を把握することができる。即ち、高齢者等に施した介護行為に対して高齢者等が喜んでいるのか(感激)、怒っているのか(憤激)を判別することができる。そのため、判別結果に応じて介護士が高齢者等に対して次にどのような介護行為を行うべきかを決定することができる。また、毎日、同一時間帯の同一行為における高齢者等の被験者の感情リズムを記憶するようにし、同一時間帯の同一行為における感情リズムを見ることができるようにしても良い。同一時間帯の同一行為における感情リズムを知る事で、被験者の体調変化を間接的に把握することができる。さらに、本開示の実施形態に係る感情判定装置を高齢者等に対する自動トレーニング装置に組み込むことにより、感情表現や表情が乏しい高齢者等に対して、自動トレーニング装置が高齢者等の感情を判定したうえで、高齢者等に対して適切な助言を行いながらトレーニングを行うことができる。
[実施例1]
 次に、実施例1に係る感情判定装置について説明する。図7は実施例1に係る感情判定装置を備えた情報端末を用いたWeb会議システムの概略構成図である。
 Web会議等のビデオ通話では、表示画面に表示された相手の表情から感情を読み取ることが難しいという問題がある。実施例1に係る感情判定装置は、Web会議等において相手側から送信された相手の画像情報から相手の感情を判定するものである。
 第1被験者HK1の前に設置された第1感情判定装置101と、第2被験者HK2の前に設置された第2感情判定装置201とは、インターネット100で接続され、両者の間でWeb会議を行うことができるものとする。第1感情判定装置101は、第1情報端末105と、カメラ111と、マイク112と、を有する。カメラ111は、第1被験者HK1の画像を撮像し、マイク112が集音した音声データと共にインターネット100を介して第2被験者HK2の第2情報端末205に送信される。特に、カメラ111は、第1被験者HK1の測定枠Sa1の画像を撮像し、第1情報端末105は、カメラ111が撮像した画像を第2情報端末205に送信する。第2情報端末205の表示部241には第1被験者HK1の画像と共に第1被験者HK1の心拍数b1のリアルタイムのデータが表示される。第2情報端末205は、第1被験者HK1の心拍数b1を平均心拍数bave1と比較し、所定期間における心拍数b1の時間的変化から第1被験者HK1の感情を判定することができる。また、表示部241の感情判定領域243に感情の判定結果(例えば、正の感情)を表示したり、情動表示領域244に情動の判定結果(例えば、安定した状態)を表示したりすることができる。
 同様に、第2感情判定装置201は、第2情報端末205と、カメラ211と、マイク212と、を有する。カメラ211は、第2被験者HK2の画像を撮像し、マイク212が集音した音声データと共にインターネット100を介して第1被験者HK1の第1情報端末105に送信される。特に、カメラ211は、第2被験者HK2の測定枠Sa2の画像を撮像し、第2情報端末205は、カメラ211が撮像した画像を第1情報端末105に送信する。第1情報端末105の表示部141には第2被験者HK2の画像と共に第2被験者HK2の心拍数b2のリアルタイムのデータが表示される。第1情報端末105は、第2被験者HK2の心拍数b2を平均心拍数bave2と比較し、所定期間における心拍数b2の時間的変化から第2被験者HK2の感情を判定することができる。また、表示部141の感情判定領域143に感情の判定結果(例えば、正の感情)を表示したり、情動表示領域144に情動の判定結果(例えば、感激した状態)を表示したりすることができる。
 図7には、2人の被験者の間で感情判定装置を用いてWeb会議を行う例を示しているが、2人以上の被験者の間でも同様に感情判定装置を用いてWeb会議を行うことができる。
 図8は実施例1に係る感情判定装置のブロック図である。第1情報端末105及び第2情報端末205の構成は、図2に示した実施形態に係る情報端末5の構成に加えて、受信部(191、291)と、音声再生部(145、245)と、音声判定部(127、227)と、送信部(192、292)と、を備えている。
 送信部(192、292)は、それぞれ、カメラ(111、211)及びマイク(112、212)によって取得された、第1被験者HK1または第2被験者HK2の画像情報及び音声情報を、インターネット100を介して、相手側の端末である第2情報端末205の受信部291及び第1情報端末105の受信部191に送信する。
 受信部(191、291)は、それぞれ、第2情報端末205の送信部292及び第1情報端末105の送信部192から送信された第2被験者HK2及び第1被験者HK1の画像情報及び音声情報を受信する。
 音声再生部(145、245)は、それぞれ、受信部(191、291)が受信した情報に含まれる音声データを再生する。音声再生部(145、245)にはスピーカを用いることができる。
 音声判定部(127、227)は、それぞれ、受信部(191、291)が受信した音声情報に基づいて、音声情報の継続時間から第1被験者HK1及び第2被験者HK2のどちらが話し手、または聞き手になっているかを判断する。
 話し手側は自分が話す行為自体によって情動が生じてしまい、正確な感情判定を行うことができない場合がありうる。そこで、音声判定部(127、227)によって、一定時間(例えば、10秒以上)話し手と聞き手の関係が継続する場合に、聞き手の感情判定及び情動判定を行い、話し手側の情報端末の表示部に、聞き手の感情の判定結果を随時表示するようにしてもよい。このようにすることにより、聞き手がどのような感情を持って話し手の会話を聞いているのかを話し手側で把握することができる。
 上述した実施例では、送り手側から送信された画像情報に基づいて受け手側で感情を分析する例を示している。実施例1に係る感情判定装置は、取得した映像情報から心拍数(脈拍)を算出しているため、映像のフレームレートがそのままサンプリングレートになる。従って、受信映像の伝送レートを監視して、伝送レートが適正範囲の場合にのみ感情判定を行うようにしてもよい。
 また、Web会議等で複数人が同時に会議に参加すると、通信回線の容量の制限から適切なタイミングで相手側の画像情報を取得できない場合も考えられる。そのような場合には、伝送レート値に合わせて、感情判定を送信側で行うか受信側で行うかを切り換えるようにしてもよい。具体的には、リアルタイムで送信される画像情報に基づいて感情を判定する代わりに、予め取得した聞き手の画像情報を話し手に送信した後に、話し手側で感情を判定する方法(第1の方法)と、聞き手側で感情を判定した結果を話し手側に送信する方法(第2の方法)が考えられる。第1の方法は、送信する画像情報の量が多くなると考えられる。一方、第2の方法は、判定結果のデータを画像情報に加えるため通信フォーマットを調整する必要がある。そこで、第1の方法と第2の方法を伝送レートに応じて適宜切り替えるようにすることが好ましい。
 また、送信側が憤激している場合等、感情の判定結果を直接的に伝達すると相手の心証を害する場合も考えられる。そのような場合には、判定結果に応じて、送信側の被験者の映像の縁取りの色を変えるなど、感情の判定結果を間接的にフィードバックさせるようにしてもよい。被験者の映像の縁取りの色を変えるほか、測定枠(Sa1、Sa2)や心拍数(b1、b2)のグラフの曲線の色を変えても良い。例えば、測定枠(Sa1、Sa2)の色で情動を表示し、心拍数(b1、b2)のグラフの曲線の色で感情を表示するようにしてもよい。
 実施例1に係る感情判定装置によれば、Web会議等において、話し手の話を聞いている聞き手の感情を判定することができる。
[実施例2]
 次に、実施例2に係る感情判定装置について説明する。図9は実施例2に係る感情判定装置の画面の表示例を示す図である。実施例2に係る感情判定装置は、専用のWeb会議ソフトや動画再生アプリ、動画プレーヤーなど、既成ソフト上で動画表示装置300に表示される動画に対して、感情判定を行うものである。
 実施例2に係る感情判定装置は、実施例1に係る感情判定装置とは異なり、撮像素子を用いて被験者の画像を取得する代わりに、画面上の既存ソフトの表示映像をビデオRAM(VRAM)301から取り込んで感情判定を実行する。ビデオRAM301から取り込んだ被験者HKの画像は情報端末5の表示部41に表示され、測定枠Saにおける脈波から心拍数bの時間的変化が平均心拍数baveとともに表示部41に表示される。さらに、表示部41の感情判定領域43に感情の判定結果(例えば、負の感情)を表示したり、情動表示領域44に情動の判定結果(例えば、憤激した状態)を表示したりすることができる。
 図10は、実施例2に係る感情判定装置102のブロック図である。感情判定装置102は、動画表示装置300と、情報端末5と、を備えている。情報端末5は、図2に示した実施形態に係る情報端末5の構成に加えて、映像取得部28を備え、送信部の代わりに音声再生部45を備えている。
 映像取得部28は、被験者HKの測定枠Saの画像を、連続して複数枚、自動撮影する。映像取得部28は、内蔵する顔認識のアプリケーションプログラムによって、被験者HKの額の測定枠Saを自動的に追尾する機能を有している。これにより、被験者HKの測定枠Sa位置が表示部41における表示領域内で移動しても、被験者HKの脈波を捉えることが可能である。
 音声再生部45は、映像取得部28が取得した情報に含まれる音声データを再生する。音声再生部45にはスピーカを用いることができる。
 実施例1に係る感情判定装置においては、被験者の画像をカメラで撮像していたが、実施例2に係る感情判定装置においては、改めて画像を取得することなく、既存の映像を利用して映像に含まれる人物を被検者として、この人物の感情判定を行うことができる。従って、例えば、動画共有サービスにアップロードされた映像に映し出された人物の感情判定を行うことができる。具体的には、例えば、ある人物の謝罪会見の映像が動画表示装置300にアップロードされていた場合、その人物の画像データをビデオRAM301から映像取得部28に取り込み、感情判定を行うことにより、謝罪会見時における当該人物の感情がどのようなものであったのかを判定することができる。
 あるいは、動画表示装置300を用いてビデオ通話を行う相手の画像を表示させた場合は、通話相手の画像をビデオRAM301から映像取得部28に取り込み、感情判定を行うことにより、ビデオ通話を行っている相手の感情がどのようなものであるのかをリアルタイムで判定することができる。
 さらに、動画表示装置300を用いて映画やドラマ等の映像ソフトを表示させた場合は、映画やドラマに出演している役者の画像をビデオRAM301から映像取得部28に取り込み、感情判定を行うことにより、演技を行っている役者の感情がどのようなものであったのかを判定することができる。
 以上説明したように、実施例2に係る感情判定装置によれば、謝罪会見等における話者の感情を判定したり、ドラマ等の出演者の感情を分析しながら動画を鑑賞したりすることができる。
[実施例3]
 次に、実施例3に係る感情判定装置について説明する。図11は、実施例3に係る感情判定装置を用いたマーケティング調査システムの構成概略図である。実施例3に係る感情判定装置103は、情報端末5と、撮像部10と、を有する。被験者HKは、ディスプレイ400に表示された商品の画像を観察する。撮像部10の撮像素子11は、被験者HKの測定枠Saの画像を撮像し、撮像部10は撮像素子11が撮像した被験者HKの画像を情報端末5に送信する。情報端末5は、被験者HKがディスプレイ400に表示された商品を観察した時の感情を判定し、判定結果を、インターネット100を介して、統計分析サーバ500に送信する。統計分析サーバ500は複数の被験者が同じ商品を観察した時の感情を分析し、消費者である被験者に対する、その商品の訴求効果を分析することができる。
 図12は、実施例3に係る感情判定装置のブロック図である。被験者HKの感情判定結果は、送信部42からインターネット100を介して統計分析サーバ500に送信され、統計分析サーバ500において被験者HKの感情判定結果を分析する。従って、情報端末5に被験者HKの感情判定結果を表示する必要がないため、表示部を備えていなくてもよい。
 実施例3に係る感情判定装置103を、デジタルサイネージを利用したマーケティング調査に適用して被験者(消費者)の感情判定結果から、ある商品が好意的に見られているのか否かを分析することができる。例えば、デジタルサイネージ等の情報表示装置と感情判定装置103とを組み合わせて、商品展示を行うことにより、ある商品に対する消費者(被験者)の感情をリアルタイムで観察し、正の感情で情動の頻度が高かったりした場合には、当該商品は消費者に好まれていると判断できるというように、マーケッティング調査に活用することができる。
 さらに、感情判定装置103は、ある商品に対する消費者(被験者)の感情判定データのみを抽出することができるため、個人情報を扱わずにマーケティング調査を行うことができる。
[実施例4]
 次に、実施例4に係る感情判定装置について説明する。図13は、実施例4に係る感情判定装置を用いた機械制御システムの構成概略図である。実施例4に係る感情判定装置104は、情報端末5と、撮像部10と、を有する。感情判定装置104は、機械操作を行う被験者HKの感情を情報端末5が判定し、その結果に基づいて情報端末5が機械2に対して制御信号を送信することにより、被験者HKが安全に機械を操作することができるようにするものである。機械2に設置された撮像部10の撮像素子11は、機械2の操作者である被験者HKの測定枠Saの画像を取得し、情報端末5に送信する。情報端末5は、受信した画像データから被験者HKの感情を判定し、判定結果に基づいて機械2を制御する制御信号を機械2の受信部220に送信する。受信部220は受信した制御信号を制御部210に入力し、制御部210は制御信号に従って機械2を制御する。例えば、操作者である被験者HKの感情が憤激している状態にあり、操作者は機械2を正常に操作することができない状態にあると判断した場合には、情報端末5は機械2に対して機械2を強制的に停止する制御信号を送信するようにしてもよい。また、機械2を強制的に停止させると却って被験者HKを危険にさらす可能性がある場合には、被験者HKの感情を安定した状態に戻すように警告を発するための信号を送信するようにしてもよい。
 図14は、実施例4に係る感情判定装置104のブロック図である。実施例4に係る感情判定装置104を構成する情報端末5は、機械2を制御するための信号を生成する制御信号生成部46を備えている。
 制御信号生成部46は、情動判定部32が判定した被験者HKの感情判定の結果に基づいて、機械2を制御するための制御信号を生成する。例えば、機械2を操作する被験者HKの感情が、安定している状態、または感激している状態の場合は、そのまま機械2の操作を継続しても問題ないと判断できるため、機械2に対する制御信号は生成しない。あるいは、この場合は、被験者HKは機械2の操作を継続しても問題ないと判断されるため、機械2の制御を継続させる信号を生成するようにしてもよい。
 一方、情動判定部32が判定した被験者HKの感情が憤激している状態であって、そのまま機械2の操作を継続すると操作者(被験者)の安全を維持できない恐れがある場合には、制御信号生成部46は、情動判定部32の感情判定結果に基づいて、機械2を強制的に停止する信号、または操作者に対して警告を発するための信号を生成する。
 制御信号生成部46が生成した機械2に対する制御信号は送信部42を介して機械2の受信部220に送信される。機械2の受信部220は、受信した制御信号を制御部210に入力し、制御部210は制御信号に基づいて機械2を制御する。
 また、情動判定部32は、操作者(被験者)の感情を継続して判定した結果、憤激した状態から、安定した状態に変化した場合には、制御信号生成部46は情動判定部32の感情判定の結果に基づいて、機械2の操作を再開させる信号を生成し、機械2に送信するようにしてもよい。
 上記の例では情報端末5による操作者(被験者)の感情判定結果に基づいて、情報端末5が機械2に対して制御信号を送信する例を示したが、このような例には限られない。例えば、情報端末5が判定した操作者の感情判定結果を複数の機械2を管理する管理センターに送信し、管理センター側から機械2に対する制御信号を送信するようにしてもよい。このようにすることで、管理センターは、操作者の感情判定結果を把握することができるため、操作者の健康管理も同時に行うことができる。
 実施例4に係る感情判定装置を用いて操作者の感情の判定結果に基づいて機械の制御を行うようにすることにより、操作者の安全を確保することができ、感情判定装置をいわゆるヒヤリハットセンサとして機能させることができる。
 以上説明した実施例においては感情判定装置を情報端末で実現した例を示したがこのような例には限られない。例えば、感情判定装置の動作を制御基板上で実現し、デジタルサイネージに適用する場合には、表示装置に制御基板を組み込むようにしてもよい。この場合、表示装置にカメラを設置し、制御基板上で実行された感情判定の結果をサーバに送信し、サーバ側で統計分析を行うことができる。
 また、撮像部としてスマートホン等の携帯端末を用いた例を示したが、介護施設等で介護をしながら被験者である高齢者等の画像を撮像するために、撮像部として目線カメラを使って高齢者等の顔を認識して、介護士が高齢者等を見た時に取得した画像に基づいて感情判定を行うようにしてもよい。また、感情判定の結果を音声で報知するようにしてもよい。具体的には、例えば、介護士が身に着けたイヤホンや、タブレット端末のスピーカから音声で感情判定の結果を報知するようにしてもよい。目線カメラを用いた場合、目線先が測定対象になり、目線カメラの画面上で感情判定の結果を確認することが難しい場合も想定されるが、そのような場合であっても音声によって感情判定の結果を認識することができる。目線カメラを撮像素子として用いた場合は、目線カメラは小型であって携帯には便利ではあるものの、処理能力が十分ではない場合もあるため、取得した映像を無線で他の端末に送信し、受信した端末側で感情判定を行うようにしてもよい。
 なお、感情判定の結果の音声による報知は、他の実施例、特に、実施例4に係る感情判定装置を用いた機械制御システムにて実施するようにしてもよい。感情判定の結果や警告を音声で報知することにより、機械の操作者が作業に集中し、制御画面を注視していないような場合であっても、感情判定の結果や警告を音声によって認識することができる。
 あるいは、撮像素子としてスマートウォッチに設けられたカメラを用いるようにしてもよい。スマートウォッチで撮像した画像はスマートウォッチ本体で感情判定を行ってもよく、撮像した画像を他の端末に送信し、受信した端末側で感情判定を行うようにしてもよい。
[実施例5]
(複数人同時測定)
 近年、インターネットやイントラネットを介したWeb会議を行う機会が増えている。Web会議の例として、例えば、企業がインターネットを介して複数の顧客に対してプレゼンテーションを行う場合や、教師が複数の生徒に対してインターネットを介して授業を行う場合等がある。このとき、企業や教師等のWeb会議を主催する側は、複数の顧客や複数の生徒等の複数の受講者が、話を集中して聴講しているか、あるいは、プレゼンテーションや授業等が良好な状態で行うことができたか否かを把握することが好ましい。講義の受講者は、講義への参加者であるため、以下、「受講者」を「参加者」と称する。
 しかしながら、Webを利用したセミナー等の場合においても、実施例2のWeb会議の場合と同様であり、講師は、複数の参加者の顔を直接的に視認するのではなく、画面を介して複数の参加者の顔を見るため、セミナー主催者が、各参加者がどのような状態で聴講しているのかを把握することが難しいという問題がある。ここで、Web会議の主催者側が参加者に対して提示する対象を「プレゼンテーション」、「授業」、「セミナー」等と称することがあるが、本明細書では、これらを「講義」と称するものとする。
 本開示の実施例5に係る感情判定装置は、参加者が複数の場合であっても、複数の参加者がどのような状態で聴講したかを把握することを目的としている。本開示の実施例1に係る感情判定装置は、1人の被験者の感情分析を行っているのに対して、本開示の実施例5に係る感情判定装置は、複数の被験者の感情分析を同時に実行する点を特徴としている。さらに、本開示の実施例5に係る感情判定装置は、後述するように参加者が理想的な状態で聴講している時間を表す最適聴講時間を算出し、参加者がどのような状態で聴講していたかを判定する点を特徴としている。
 一例として、講義主催者が複数の参加者に対して講義を行う場合を例にとって、本開示の実施例5に係る感情判定装置について説明する。即ち、被験者は、講義を受講する受講者(参加者)である。図15に本開示の実施例5に係る感情判定装置である講義開催側PC600のブロック図を示す。講義開催側PC600は、複数の参加者A、参加者B、・・・、参加者Nのそれぞれが講義を聴講する際に用いる端末A(500a)、端末B(500b)、・・・、端末N(500n)との間で、インターネット100を介してデータを送受信する。
 端末A(500a)は、カメラ501と、マイク502と、送受信部503と、表示部504と、を備えている。カメラ501は参加者Aの顔の画像を撮像する。マイク502は、参加者Aの音声を集音する。カメラ501及びマイク502は、端末A(500a)に内蔵されていてもよく、外付けであってもよい。送受信部503は、講義開催者側PC600との間でインターネット100を介してデータを送受信する。表示部504は、講義開催者側PC600から送信された講義に関する情報を表示する。表示部504は、講義を主催する講師の顔の画像や、参加者A自身の顔の画像等を表示してもよい。端末B(500b)及び端末N(500n)等の構成は端末A(500a)の構成と同様である。
 講義開催者側PC600は、コンテンツ配信部601と、送受信部602と、全参加者顔認識部603と、各参加者画像切出部604と、参加者感情分析部(605a、605b、・・・、605n)と、各参加者個別ログ記憶部611と、表示/報知部612と、を有する。
 コンテンツ配信部601は、講義を開催する講師が講義に用いる画像や映像等のコンテンツを所定の時間に渡って配信する。コンテンツは講師がリアルタイムで配信してもよく、予め用意した動画等を再生することにより配信してもよい。
 送受信部602は、端末A(500a)、端末B(500b)、・・・、端末N(500n)からインターネット100を介して、参加者A、B、・・・、Nの顔の画像を含むデータを受信する。例えば、講義の参加者が4人の場合は、図16に示すように、表示/報知部612の画面にそれぞれの参加者の画像(41a~41d)が表示される。図16には、参加者が4人の場合を示したが、このような例には限られない。
 全参加者顔認識部603は、複数の参加者全員の顔の画像を認識する。即ち、全参加者顔認識部603は、撮影部の一例であり、複数人の被験者の顔が撮影可能である。講義に用いるWeb会議用のアプリケーションソフトは、画面のどこに参加者の顔が映し出されているかを認識する機能は備わっていないのが通常であり、参加者が何人いるのかも不明である。例えば、端末(500a、500b、・・・、500n)が講義開催側PC600に接続されていたとしても、参加者の顔の画像が送られてこない状態では、参加者が聴講していることを認識することはできない。そこで、全参加者顔認識部603は、アプリケーションソフトによって表示されている画像を取り込み、まず大まかな顔の位置をスキャンして参加者が何人いるかを把握する。また、全参加者顔認識部603は、複数の参加者のそれぞれの顔位置座標を取得する。顔認識の方法については後述する。
 各参加者画像切出部604は、取得した参加者の画像から脈波の分析に利用する画像を切り出す。これは参加者が複数の場合は、画像処理を行うデータ量が多くなり、同時並行的に処理することが難しくなるため、画像処理を行うデータ量を少なくするためである。図17に参加者の顔の画像から一部の画像を切り出す例を示す。各参加者画像切出部604は、例えば、図17の左上に示すように参加者Aの画像41aの一部41a´を切り出す。同様に、各参加者画像切出部604は、他の参加者B~Dの画像(41b、41c、41d)の一部(41b´、41c´、41d´)を切り出す。
 参加者A感情分析部605aは、個別顔認識部606と、脈波抽出画像処理部607と、RRIリアプノフ感情判定部608と、脈拍数情動判定部609と、最適聴講時間判定部610と、を有する。
 参加者A感情分析部605aの個別顔認識部606は、参加者Aの顔認識を行う。また、個別顔認識部606は、参加者Aの顔の画像41a´から脈波を抽出するための領域を切り出す。例えば、図17の左上に示した参加者Aの画像41a´の一部412aを切り出す。切り出した画像412aは、例えば、参加者Aの画像41a´の左上に表示させてよい(412a´)。同様に、他の参加者(B、C、D)の感情分析部(605b、605c、605d)の個別顔認識部606は、それぞれ他の参加者(B、C、D)の顔認識を行う。また、他の参加者(B、C、D)の感情分析部(605b、605c、605d)の個別顔認識部606は、他の参加者(B、C、D)の顔の画像(41b´、41c´、41d´)から脈波を抽出するための領域を切り出す。例えば、他の参加者(B、C、D)の画像(41b´、41c´、41d´)の一部(412b、412c、412d)を切り出す。切り出した画像(412b、412c、412d)は、例えば、他の参加者(B、C、D)の画像(41b´、41c´、41d´)の左上に表示させてよい(412b´、412c´、412d´)。画像の切り出し方法については後述する。参加者の画像全体のうち、所定の一部の画像(例えば、顔の部分の画像)を切り出して、画像処理を行うことにより、画像処理を行う際のデータ処理量を少なくすることができる。
 脈波抽出画像処理部607は、検出部の一例であり、個別顔認識部606が切り出した参加者Aの顔画像41a´の所定の範囲の画像412aを用いて、被験者である参加者Aの心拍数を含む心拍情報を検出する。
 脈波抽出画像処理部607は、実施例1で説明した計数部としての機能も有し、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する。
 RRIリアプノフ感情判定部608は、感情判定部の一例であり、脈波抽出画像処理部607が検出した心拍情報に基づいて、被験者である参加者Aの感情が負の感情であるか、又は正の感情であるかを判定する。RRIは、R-R Intervalの省略であり、心拍や脈波の間隔を示す。また、RRIリアプノフ感情判定部608は、実施例1の図2における、脈波抽出部22、間隔検出部23、脈波メモリ24、カオス解析部25、感情判定部31の5つのブロックに対応する。ここで、一般的に、講義を聴講する参加者のパフォーマンスが最大となるのは、参加者が心理学的に「適度な緊張感」を持ったうえで、「平常心」で聞いているときであると言われている。即ち、参加者がストレスを感じていない状態が必ずしも最良であるというわけではなく、ある程度の「適度な緊張感」を持っている状態が好ましいとされている。参加者が「適度な緊張感」を有している状態とは、参加者が「やや負の感情」を有している状態、即ち、参加者が「やや不快の感情」を有している状態である。RRIリアプノフ感情判定部608は、参加者が「やや負の感情」を有しているか否かを判断することにより、参加者が「やや不快な感情」を有しているか否か、即ち、参加者が「適度な緊張感」を有しているか否かを判断することができる。
 図18に最大リアプノフ指数と主観的運動強度RPE(Rating of Perceived Exertion)との関係を示す。図18は、一例として、5人の被験者について、各自が色々な疲労度のときの心拍情報から最大リアプノフ指数と心拍数差を測定し、そのときのRPEを判定してプロットしたものである。RPEとは、トレーニングや運動の主観的なきつさ・疲労度を数字で表した指数である。RPEを数値化するために6~20の数字できつさを表すボルグスケールが一般的に用いられる。図18から、最大リアプノフ指数とRPEとの間には相関関係があり、RRIリアプノフ感情判定部608が算出した最大リアプノフ指数から、RPEの値を求めることができる。例えば、最大リアプノフ指数が0のときに、RPEは12であり、最大リアプノフ指数が-0.7のときに、RPEは15である。
 図19にボルグスケールを示す。ボルグスケールではRPEが12~15のときに被験者は、「ややきつい」と感じるものとされており、この状態が、被験者である講義参加者が「適度な緊張感」を持っている状態であると考えられる。なお、RPEが5以下の場合は、被験者が「最高に楽である」と感じ、RPEが6~7の場合は、被験者が「非常に楽である」と感じるとされており、これらの場合は、講義の参加者は、「眠気」を感じるものと考えられる。また、RPEが8~9の場合は、被験者が「かなり楽である」と感じ、RPEが10~11の場合は、被験者が「楽である」と感じるとされており、これらの場合は、講義の参加者は、「快」的であると感じるものと考えられる。また、RPEが15~16の場合は、被験者が「きつい」と感じ、RPEが17~18の場合は、被験者が「かなりきつい」と感じ、RPEが19~20の場合は、被験者が「非常にきつい」と感じるとされており、これらの場合は、講義の参加者は、「不快」であると感じるものと考えられる。
 脈拍数情動判定部609は、抽出した脈波が、平均安静脈拍数から所定の範囲内にあるか否かに基づいて、参加者の情動を判定する。図20に、脈波が平均安静脈拍数から所定の範囲内に入っている場合の脈拍数の時間的変化の例を示す。上述した、参加者が「平常心」を持っている状態とは、脈波が平均安静脈拍数から所定の範囲内に落ち着いている状態であると考えられる。例えば、参加者の脈拍が平均安静脈拍数を中心に、例えば、プラスマイナス5[bpm]の範囲内にある場合に、参加者が平常心を持っていると判断してよい。平均安静脈拍数は、日本人の安静脈拍数の平均値である65[bpm]としてもよいし、個々の参加者の平均安静脈拍数を用いてもよい。
 ここで、感情及び情動の分析は、講義の聴講期間中に継続して分析することが好ましい。感情分析のためのリアプノフ指数の更新を例えば30秒から40秒ごとに行う場合には、情動の分析もこのタイミングに合わせて、30秒から40秒ごとに分析してよい。
 最適聴講時間判定部610は、情動判定部の一例であり、脈波抽出画像処理部607が計数した心拍数変動回数に基づいて、被験者である参加者の心理状態を判定するとともに、感情判定部であるRRIリアプノフ感情判定部608による判定結果を心理状態の判定に用いることが可能である。情動判定部である最適聴講時間判定部610は、心拍数変動回数と感情判定部であるRRIリアプノフ感情判定部608の判定結果とに基づいて、講義の受講における理想的な心理状態か否かを判定する。即ち、参加者が「適度な緊張感」を有していることを示す、正負感情が「やや不快」の状態であるという第1条件と、参加者の情動が「平常心」であることを示す、脈拍が「平均脈拍から所定の範囲内」であるという第2条件の両者を満たしている場合に、参加者が理想的な心理状態であると判断する。このように、参加者が理想的な心理状態で講義を聴講している時間を積算し、この累積時間を最適聴講時間とする。最適聴講時間が長い程、参加者は理想的な状態で講義を聴講している時間が長いことが分かる。最適聴講時間は、参加者のそれぞれについて個別に算出することができる。複数の参加者の最適聴講時間の合計値を参加者の人数で除算した平均値を算出してもよい。最適聴講時間は、講師による講義の内容が参加者の興味を引く内容であれば最適聴講時間が長くなるものと考えられるため、最適聴講時間を講師の力量を表す指標としてもよい。
 参加者B感情分析部605b及び参加者N感情分析部605n等は、参加者A感情分析部605aと同様の構成を有する。
 各参加者個別ログ記憶部611は、複数の参加者のそれぞれについて、講義の開始時点から終了時点あるいは退席時点までにおける、参加者の感情及び情動を時系列に記憶する。ログを参照することにより、参加者が講義中のどの時間帯に理想的な状態で聴講していたかを知ることができる。あるいは、ログを参照することにより、講義中のどの時点で参加者が眠い状態になっていたかを知ることができるため、講義中のどの部分で眠くなりそうな説明を行ったかを講義の後に知ることができる。
 表示/報知部612は、出力部の一例であり、RRIリアプノフ感情判定部608及び脈拍数情動判定部609の判定結果を出力する。例えば、図17に示すように、複数の参加者のそれぞれの顔画像の下部にRRIリアプノフ感情判定部608による正負感情の判定結果411a~411dを文字で表示し、複数の参加者の顔画像の周辺に脈拍数情動判定部609による情動の判定結果413a~413dを四角形の枠で表示することができる。
 図17に示した例では、正負感情の判定結果411a~411dから、参加者Aの感情は「不快」であり、参加者Bの感情は「やや不快」であり、参加者Cの感情は「快」であり、参加者Dの感情は「眠」である例を示している。また、これらの文字表示を行う際に、正負感情に応じて文字の色を異ならせるようにしてもよい。例えば、講義聴講時はやや緊張気味になるのが普通であるため、正負感情の表現は「やや負感情」を安全色の「緑文字」で表現し、「負感情」を警告色の「赤文字」で表現してよい。また、極度の正感情は眠気を誘発するため「眠」の「黒文字」で表現してよい。
 また、図17に示した例では、情動の判定結果413a~413dから、参加者の脈拍が、平均安静脈拍数を基準にした所定の範囲に入っているか、所定の範囲の上限を超えているか、あるいは所定の範囲の下限未満であるかを表示することができる。例えば、参加者Aの脈拍が安静脈拍数範囲(平均脈拍±5[bpm])内である場合は、情動の判定結果413aの枠を例えば「緑色」で表示するようにしてよい。この場合、講義の主催者は情動の判定結果413aが緑色であることに基づいて、参加者Aが「平常心」であることを認識することができる。また、参加者Bの脈拍が安静脈拍数範囲の下限未満である場合は、情動の判定結果413bの枠を例えば「黒色」で表示してよい。また、参加者Cの脈拍が安静脈拍数範囲の上限を超えている場合は、情動の判定結果413cの枠を例えば「赤色」で表示してよい。また、参加者Dの脈拍が安静脈拍数範囲内である場合は、情動の判定結果413dの枠を例えば「緑色」で表示するようにしてよい。これらの情動の判定結果413a~413dの枠の色は、単色としてもよく、脈拍数に応じて中間色としてもよい。
 上記の正負感情及び情動の判定結果の表示方法は一例であって、他の表示方法により正負感情及び情動の判定結果を表示してもよい。例えば、正負感情の判定結果を感情に対応した顔のマーク等で表示するようにしてもよい。また、情動の判定結果を脈拍数に応じた文字や数字等により表示するようにしてもよい。講義の主催者は、これらの正負感情の判定結果及び、情動の判定結果を参照することにより、それぞれの参加者がどのような状態で講義を聴講しているのかを容易に判断することができる。
 また、各参加者の最適聴講時間を個別に算出し、参加者に提示することにより、参加者は自身の聴講状態を容易に把握することができる。また、最適聴講時間を個々の参加者に対して算出し、参加者全員の最適聴講時間を合計し、講義を聴講した参加者で除算することにより平均値を算出することにより、講義全体の最適聴講時間を算出することができる。また、講義の開催時間は、1時間あるいは2時間等、所定の時間に渡って行われるものであるため、最適聴講時間を講義開催時間で除算した、単位時間当たりの規格値として算出するようにしてもよい。例えば、60分間の講義に対して、最適聴講時間の累積値が12分間だった場合は、講義の全体の時間に対する最適聴講時間は20%と算出することができる。
 図21に実施例5に係る感情判定装置である講義開催側PC600の動作手順を説明するためのフローチャートを示す。まず、ステップS201において、感情センシングを実行するためのプログラムを起動し、Web会議画面を取得する。ここでは、Web会議に複数の参加者が参加する場合について説明する。Web会議の主催者のPCの画面に複数の参加者の画像を表示させる。例えば、Web会議用のソフトウエアを用いて、参加者全員の顔だけを資料を表示させるモニタとは別のモニタに映すことができる。Web会議において資料を画面共有して説明をしている場合、資料が画面全体に表示され、参加者の顔を表示させることができなくなる場合がある。参加者の表情が見えない場合、Web会議主催者が説明していても参加者の反応が見えないため、話している内容を参加者が理解できているのか否かを判断することができない。そこで、Web会議を実行するソフトウエアには、資料を表示するPCの画面とは別の画面を追加して、画面を2つにすることが可能な機能を備えている場合がある。この機能を利用することにより、1つの画面には複数の参加者の顔画像を表示し、もう1つの画面には共有された画面を表示させることができる。1つの画面に複数の参加者を並べて表示することにより、複数の参加者の表情を確認しながらWeb会議を実行することができる。
 次にステップS202において、全体の顔画像の認識を行い、画面内の参加者の顔の数を計数し、各顔の座標位置を算出する。上述したように、参加者全員が表示されている画面を取り込み、最初に全体の顔画像の認識を行う。ここで、各参加者は画面内で位置を変える場合があるため、所定の期間、例えば、1分間程度の期間で参加者全員の顔画像を認識する。ここで、参加者全員の顔画像を認識することとは、認識された顔画像の数を計数し、画面内における顔が認識された座標位置を算出することをいう。顔画像の座標位置として、目や鼻の座標位置を算出し、顔画像における所定の座標位置、例えば、眉間の位置の座標を各参加者の標準位置としてよい。また、カメラで参加者の顔を撮像したときに、実際には顔の位置は微妙に動いているため、所定の期間、例えば、1分間撮像を行うことにより、XY座標上でXYそれぞれ所定の画素数(例えば、300画素)以内に参加者が存在している範囲を定義し、その範囲内で顔画像の座標が変動したとしても同一人物とみなすことができる。
 次にステップS203において、各眉間座標を起点に全体画像から各個々の顔周辺画像を切り出す。例えば、図17に示すように、眉間の座標の位置を起点にして、参加者の顔の位置の変動を考慮した範囲、例えば、眉間の座標位置を中心にXY方向にプラスマイナス300画素の範囲を切り出し、この切り出した画像を感情及び情動を判定するための画像とする。
 次に、ステップS204において、参加者Aの顔周辺画像を取り込み、画像認識を行う。
 次にステップS205において、リアルタイムで顔画像を認識できたか否かを判断する。参加者Aの顔画像を認識することができた場合は、ステップS206において、感情・情動判定を実行し、ステップS207において、最適聴講時間を積算し、その後、ステップS205に戻ってリアルタイムで顔画像の認識できたか否かを判断する。ここで、感情判定を行うための最大リアプノフ指数の算出には所定の期間、例えば、60秒程度を要し、情動判定も同時に実行しているため、最適聴講時間は、例えば60秒ごとに算出される。
 ステップS205において、参加者Aの顔画像が認識できなかった場合は、ステップS208において、一定時間顔画像の認識ができなかったか否かを判断する。ステップS208において、所定時間以内に顔画像を認識できた場合はステップS205に戻ってリアルタイムで顔画像の認識ができるか否かを判断する。
 一方、ステップS208において、所定時間(例えば、3分間)以内に顔画像を認識できなかった場合は、参加者Aは退席したものと判断できるため、ステップS209において、参加者Aは退席したと判断し、最適聴講時間及び感情判定結果及び情動判定結果のログを保存する。ここで、参加者Aの顔画像が認識できないのは、参加者AがWeb会議を行うために講義主催者側PCと接続した端末Aは接続状態を維持しながら、参加者Aが端末Aの前を離れた場合だけでなく、参加者Aの端末Aと講義主催者側PCとの接続が遮断された場合、及び講義が終了した場合を含む。
 次に、ステップS210において、参加者Aについての最適聴講時間の算出を終了する。ステップS204からS210までの工程は、参加者Aについて最適聴講時間を算出する工程であるが、他の参加者についても同時に並行処理を行って、最適聴講時間を算出する。例えば、参加者Nについて、ステップS211からS217の工程を実行することにより、参加者Nの最適聴講時間を算出する。参加者B等の他の参加者についても同様である。
 上記の説明においては、複数の参加者のそれぞれが講義を聴講しているか退席したかを判断し、退席した段階で最適聴講時間を算出する例について説明したが、このような例には限られず、Web会議が終了した時点で参加者全員の顔画像が認識できなくなったものとみなして、その時点で最適聴講時間の累積時間を算出するようにしてもよい。
 (顔画像認識)
 次に、被験者の顔画像の認識方法について説明する。図22(A)に顔画像から特徴座標を抽出する特徴座標フィッティング方式の出力例を示し、図22(B)に撮影した顔の画像から眉間の位置を検出する方式の出力例を示す。
 図22(A)は、被験者の顔画像から、眉毛701、目702、鼻筋703、鼻704、口705、及び顔の輪郭706のそれぞれの座標位置を抽出し、感情判定及び情動判定を行うために切り出す画像を頬の所定の領域710とする例である。この方法は被験者がマスク等を着用しない場合には有効であるがマスク等を着用する場合には、口、鼻及び顔の輪郭の一部が隠れてしまい、座標位置を正確に測ることができないという問題がある。
 そこで、マスクを着用しているか否かに関わらず、被験者の顔の画像の特定の領域を切り出す方法として、図22(B)に示すように、被験者HKの顔画像720のうち、目と顔の輪郭の画像721に対してディープラーニングによる画像認識を行い、眉間からこめかみに渡る所定の領域722を感情判定及び情動判定を行うために切り出す画像とするようにしてよい。画像認識を行うための顔の部位は、目及び輪郭には限られず、他の部位でもよいが、マスク723を着用した状態でも画像認識を行うことできるように、マスク723によって覆われない部位が好ましい。また、感情判定及び情動判定を行うために切り出す領域は眉間周辺には限られず、額等であってもよい。そこで、感情判定装置である講義開催側PC600は、複数人が表示される画面から、それぞれの顔を特定し、特定したそれぞれの顔に対して測定部位を特定する測定部位特定手段を有することが好ましい。各参加者画像切出部604は、測定部位特定手段の一例である。検出部である脈波抽出画像処理部607(図15参照)は、それぞれの顔の測定部位の画像の変化に基づいて心拍情報を取得することができる。
 ここで、顔画像に含まれる目及び顔の輪郭等の画像からディープラーニングにより特定の領域を抽出する際に計算処理量が増大し、感情判定装置である講義開催側PC600を制御するプロセッサに負担が生じることが考えられる。そこで、講義開催側PC600のプロセッサの処理量を軽減するために、ディープラーニングによる画像処理をバックエンドで実行することにより、高速化するようにしてもよい。
(HDMIによる画像の取り込み)
 上記のような被験者の画像を用いた感情判定を実行するWeb会議と連動したソフトウエアが使われる場合、イントラ内の業務用途での使用が多く、セキュリティ上、Web会議用PC上で感情センシングを実行出来ない場合がある。例えば、感情判定のプログラムでは、映像情報を直接取り込んだり、Web会議の画面をそのまま取得したりしているので、イントラ上のパソコンで実行すると、ウィルスに感染したり、違法アクセスがされたものと同様に認識される場合がある。ここで、イントラネットの制約を受けない画像出力方法としてHDMI出力がある。そこで、PCからプロジェクタにHDMI出力を行うように、HDMIの映像出力をイントラから出力することができるため、HDMI出力を利用して被験者の顔画像のデータをイントラパソコンに取り込んで感情判定を実行することができる。
 図23にHDMI出力を利用した画像取り込みを実行するための構成例を示す。Web会議用PC620はイントラネットに接続されているものとする。Web会議用PC620のHDMI出力をHDMI分配ユニット801に入力する。HDMI分配ユニット801は、Web会議用PC620から入力されたHDMI信号を「HDMI1」と「HDMI2」に分配して出力する。HDMI1はHDMI入力部802に入力され、感情センシング用PC600に入力され、感情センシングが実行される。感情センシング用PC600はイントラネットに接続されていない(非イントラ)。感情センシング用PC600は、HDMI出力に含まれる被験者の顔画像データを利用することにより、イントラネットに接続することなく感情センシングを実行することができる。一方、HDMI2は、プロジェクタに入力され、Web会議用PC620の画像を表示することができる。
 上記の例では、イントラ上PCであるWeb会議用PC620のHDMI出力から、非イントラPCである感情センシング用PC600にWeb会議映像だけを取り込み、感情センシング用PC600において感情分析を実行する例を示したが、このような例には限られない。即ち、Web会議を実行するWeb会議用PC620上でHDMI出力を利用して感情センシングを実行するようにしてもよい。また、イントラネットに接続されたPCから、イントラネットに接続されていない非イントラネットのPCに対して映像出力を取り出す例としてHDMI出力を利用する例について説明したが、このような例には限られない。即ち、イントラネットに接続されたPCから、非イントラネットのPCに対して映像出力を取り出す出力としてHDMI出力以外の他の出力方法を利用してもよい。
[実施例6]
(高齢者コミュニケーション阻害原因判定)
 高齢者と介護者との間にコミュニケーション上のトラブルが生じる場合がある。このトラブルは、介護者が、高齢者とのコミュニケーションを阻害している原因を判定することができないことによるものと考えられる。図24に、高齢者と介護者との間のコミュニケーションを阻害している原因と対策方法の例を示す。高齢者のコミュニケーション阻害原因としては、大まかに重篤性が低いものから順に(1)~(3)の原因が考えられる。
 (1)第1の原因は、高齢者が介護者に対して抱く性格的に嫌いであることが原因の場合、即ち、高齢者と介護士との間の相性が悪いことが原因の場合である。この第1の原因に対する対策として、高齢者を介護する介護士を他の介護士に変更すること等が考えられる。
 (2)第2の原因は、単純な視力・聴力の低下が原因の場合であり、視力の低下により色が識別できない場合や、聴力の低下により音が聴こえない場合等が考えらえる。この第2の原因に対する対策として、眼鏡を使用することにより視力を補ったり、補聴器を利用することにより、聴力を補ったり、あるいは、図指によりコミュニケーションを取るようにしたりすることにより伝え方の個別対策を行うことが考えられる。
 (3)第3の原因は、認知症などの精神疾患が原因の場合であり、高齢者は物が見え、音が聴こえるものの、その意味を認知出来ない場合等が考えられる。この第3の原因に対する対策として、専門医による対応を行うことが考えられる。
 例えば、第2の原因については、通常の視力・聴力評価を行うのみでは、第1及び第3の原因が含まれている場合があり、コミュニケーションを阻害する原因を正確に特定することができない。そこで、第1~第3の原因を正確に見分けるため、図25に示すような3つのカテゴリーの映像刺激及び音響刺激を被験者に周期的に与え、情動、又は、正負感情がその周期に同期して変化しているかどうかで原因を推定することができる。
 第1の原因である相性がコミュニケーションの阻害原因となっているか否かを判断するために、映像刺激として特定の介護士の映像等を高齢者に見せることが考えられ、音響刺激として特定の介護士の音声等を高齢者に聞かせることが考えられる。「特定の介護士」は、例えば、コミュニケーションに問題がある高齢者の介護を担当している介護士である。
 第2の原因である視力・聴力がコミュニケーションの阻害原因となっているか否かを判断するために、映像刺激として色のみの映像等を高齢者に見せることが考えられ、音響刺激として特定周波数のビート音等を高齢者に聞かせることが考えられる。
 第3の原因である精神疾患がコミュニケーションの阻害原因となっているか否かを判断するために、映像刺激として騙し絵の映像や、色刺激を含まない恐怖映像等を高齢者に見せることが考えられ、音響刺激として意味のある言葉等を高齢者に聞かせることが考えられる。
 図26にコミュニケーション阻害原因判定装置である被験者状態判定装置1000のブロック図を示す。コミュニケーション阻害原因判定装置及び被験者状態判定装置は、感情判定装置の一例である。コミュニケーション阻害原因判定装置である被験者状態判定装置1000は、表示部1001と、周期的刺激映像発生部1002と、スピーカ又はヘッドフォン1003と、周期的刺激音発生部1004と、刺激種類切換え部1005と、カメラ1006と、顔認識部1007と、脈波抽出画像処理部1008と、RRIリアプノフ感情判定部1009と、脈拍数情動判定部1010と、同期性解析部1011と、原因判定部1012と、判定結果報知部1013と、を有する。
 周期的刺激映像発生部1002及び周期的刺激音発生部1004は、刺激発生部の一例であり、被験者の視覚または聴覚への刺激を、休止期間を挟む予め定められた複数の期間に同種の刺激を繰り返し発生する。刺激は、後述する第1刺激、第2刺激、第3刺激の3種類があり、例えば、同種の刺激として、第1刺激を繰り返し発生する。但し、繰り返し発生するそれぞれの刺激は、第1刺激に分類されるものであれば、異なっていても良い。
 表示部1001は、周期的刺激映像発生部1002が生成した、被験者である高齢者に対して映像刺激となる映像を表示する。表示部1001として、液晶表示装置や有機EL表示装置、あるいはプロジェクタ等を用いることができる。
 スピーカ又はヘッドフォン1003は、周期的刺激音発生部1004が生成した高齢者に対して音響刺激となる音声を出力する。
 刺激種類切換え部1005は、被験者である高齢者に与える刺激を映像刺激とするか音響刺激とするかを切り替える。
 カメラ1006は、被験者である高齢者の顔の画像を撮像する。
 顔認識部1007は、カメラ1006が撮像した画像から顔の画像を認識する。
 脈波抽出画像処理部1008は、検出部の一例であり、被験者である高齢者の心拍数を含む心拍情報を検出する。
 RRIリアプノフ感情判定部1009は、計数部の一例であり、所定期間毎に、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動の回数を計数する。
 脈拍数情動判定部1010は、情動判定部の一例であり、心拍数変動回数に基づいて、所定期間毎に、刺激に対応する被験者の情動の有無を判定する。
 同期性解析部1011は、複数の期間と情動判定部が判定した情動の有無のタイミングとの間に、同期性が存在するか否かを解析する。
 原因判定部1012は、阻害要因判定部の一例であり、被験者について、同期性解析部1011の解析結果に基づき、他者とのコミュニケーションの阻害要因に関する判定を行う。
 判定結果報知部1013は、原因判定部1012によって判定された、コミュニケーションの阻害要因の判定結果を出力する。
 刺激発生部である周期的刺激映像発生部1002及び周期的刺激音発生部1004が発生する刺激は、視覚または聴覚によって発生が感覚的に認識可能な第1刺激であり、阻害要因判定部である原因判定部1012は、視覚または聴覚の異常の有無を判定する。第1刺激は、視覚または聴覚を刺激して、発生が認識される感覚刺激であってよい。ここで、「感覚刺激」には、視覚または聴覚によって発生の有無を感覚的に認識可能な刺激が含まれる。なお、画像または音声を含む刺激の例として動画でもよい。
 第1刺激が、視覚によって発生が認識可能な刺激である場合の例について説明する。図27に、視覚によって発生が認識可能な第1刺激として、赤色等の視覚自律神経反応色である色刺激を周期的に見せた場合における、被験者である高齢者の情動の時間的変化の例を示す。まず、被験者である高齢者が画像を視認できるように表示部1001を配置し、赤色等の画像901を時刻t1からt2までの所定の期間(例えば、30sec)に渡って、表示部1001に表示する。次に、時刻t2からt3までの所定の期間(例えば、30sec)に渡って、色刺激を含まない白い画像902を表示部1001に表示する。時刻t3以降は色刺激を含む画像と、色刺激を含まない画像(無刺激)を交互に繰り返して表示部1001に表示する。この色刺激と無刺激の切替は、周期的刺激映像発生部1002により実行される。
 色刺激及び無刺激が加えられた被験者である高齢者の顔画像を、カメラ1006を用いて撮像する。
 脈波抽出画像処理部1008は、検出部の一例であり、カメラ1006が撮像した被験者である高齢者の画像から、高齢者の心拍数を含む心拍情報を検出する。
 RRIリアプノフ感情判定部1009は、感情判定部の一例であり、心拍情報に基づいて、被験者である高齢者の感情が負の感情であるか、又は正の感情であるかを判定する。
 脈波抽出画像処理部1008は、計数部としての機能も備えており、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する。
 情動判定部である脈拍数情動判定部1010は、心拍数変動回数に基づいて、被験者の心理状態、例えば、情動の有無を判定する。
 同期性解析部1011は、色刺激及び無刺激の複数の期間と情動判定部が判定した情動の有無のタイミングとの間に、同期性が存在するか否かを解析する。
 阻害要因判定部である原因判定部1012は、色刺激のタイミングと情動が生じるタイミングとが同期しているか否かに基づいて視覚の異常の有無を判定する。例えば、図27に示した例では、時刻t1からt2に渡って、色刺激を含む画像901を表示したときに高齢者の情動が検出され、時刻t2からt3に渡って、色刺激を含まない白い画像902を表示したときに高齢者の情動が検出されていない。即ち、色刺激を含む画像901を表示するタイミングに合わせて情動が検出されている。この場合は、被験者である高齢者は色を認識していると判断することができ、視覚に異常はないものと判定することができる。
 次に、第1刺激が、聴覚によって発生が認識可能な刺激である場合の例について説明する。図28に、聴覚によって発生が認識可能な第1刺激として、所定の周波数(例えば、500Hz)のビート音を周期的に聞かせた場合における、被験者である高齢者の情動の時間的変化の例を示す。まず、500Hzのビート音を時刻t1からt2までの所定の期間(例えば、30sec)に渡って、スピーカまたはヘッドフォン1003から出力する。次に、時刻t2からt3までの所定の期間(例えば、30sec)に渡って、スピーカまたはヘッドフォン1003から音を出力しない(無音)。時刻t3以降は500Hzのビート音の出力と無音を交互に繰り返す。この500Hzのビート音と無音の切替は、周期的刺激音発生部1004により実行される。
 500Hzのビート音と無音が加えられた被験者である高齢者の顔画像を、カメラ1006を用いて撮像する。
 脈波抽出画像処理部1008は、検出部の一例であり、カメラ1006が撮像した被験者である高齢者の画像から、高齢者の心拍数を含む心拍情報を検出する。
 RRIリアプノフ感情判定部1009、及び感情判定部の一例であり、心拍情報に基づいて、被験者である高齢者の感情が負の感情であるか、又は正の感情であるかを判定する。
 脈波抽出画像処理部1008は、計数部としての機能も備えており、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する。
 情動判定部である脈拍数情動判定部1010は、心拍数変動回数に基づいて、被験者の心理状態、例えば、情動の有無を判定する。
 同期性解析部1011は、音響刺激及び無刺激の複数の期間と情動判定部が判定した情動の有無のタイミングとの間に、同期性が存在するか否かを解析する。
 阻害要因判定部である原因判定部1012は、500Hzのビート音の出力のタイミングと情動が生じるタイミングとが同期しているか否かに基づいて聴覚の異常の有無を判定する。例えば、図28に示した例では、時刻t1からt2に渡って、500Hzのビート音を出力したときに高齢者の情動が検出され、時刻t2からt3に渡って、音を発生させなかったときに高齢者の情動が検出されていない。即ち、500Hzのビート音を出力するタイミングに合わせて情動が検出されている。この場合は、被験者である高齢者は音を認識していると判断することができ、聴覚に異常はないものと判定することができる。
 上記の被験者状態判定装置1000において、刺激は、視覚または聴覚の感覚によってのみ、発生が認識可能な第1刺激であってよい。即ち、第1刺激は、刺激に含まれる情報の認識を要せず、視覚の感覚だけで、または、聴覚の感覚だけで(感覚的に)発生が認識可能な刺激である。第1刺激は、刺激に何等かの情報も含まれていて、刺激の有無を感覚的に認識して情動が生じ、さらにその中の情報を認識することにより、情動を生じる、または、生じることがある刺激であってもよい。
 刺激は、視覚または聴覚によって与えられる情報の内容を理解することが可能な所定情報を含む第2刺激であり、阻害要因判定部は、被験者の精神の異常の有無を判定してよい。第2刺激は、所定情報の認知をともなう認知刺激であってよい。例えば、第2刺激として、例えば、騙し絵のように、色自体には刺激が無い映像であっても、騙し絵に隠された通常ではありえない形態等を認識し、騙し絵の意味が理解できた場合に反応しやすいコンテンツを含む映像を用いてよい。あるいは、第2刺激として、例えば、音自体には刺激が無い場合であっても、言葉の意味が理解できた場合に反応しやすいコンテンツを含む音声を用いてよい。
 まず、第2刺激として内容の理解が可能な所定情報を含む映像を利用する場合について説明する。図29に、視覚によって内容の理解が可能な所定情報を含む第2刺激として、意味が理解できると驚いたり笑ったりする騙し絵を周期的に見せた場合における、被験者である高齢者の情動の時間的変化の例を示す。まず、象の耳の形状が人間の横顔の形状となっている画像903を時刻t1からt2までの所定の期間(例えば、30sec)に渡って、表示部1001に表示する。次に、時刻t2からt3までの所定の期間(例えば、30sec)に渡って、騙し絵を含まない白い画像902を表示部1001に表示する。次に、右手であるべき缶を握る手が左手になっている画像904を時刻t3からt4までの所定の期間(例えば、30sec)に渡って、表示部1001に表示する。次に、t4からt5までの所定の期間(例えば、30sec)に渡って、騙し絵を含まない白い画像902を表示部1001に表示する。次に、地面に表された色の濃淡の境界の形状が人間の横顔の形状になっている画像905を時刻t5から所定の期間(例えば、30sec)に渡って、表示部1001に表示する。この騙し絵を含む画像と騙し絵を含まない画像の切替は、周期的刺激映像発生部1002により実行される。
 騙し絵を含む画像及び騙し絵を含まない画像を見た被験者である高齢者の顔画像を、カメラ1006を用いて撮像する。
 脈波抽出画像処理部1008は、検出部の一例であり、カメラ1006が撮像した被験者である高齢者の画像から、高齢者の心拍数を含む心拍情報を検出する。
 RRIリアプノフ感情判定部1009は、感情判定部の一例であり、心拍情報に基づいて、被験者である高齢者の感情が負の感情であるか、又は正の感情であるかを判定する。
 脈波抽出画像処理部1008は、計数部としての機能も備えており、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する。
 情動判定部である脈拍数情動判定部1010は、心拍数変動回数に基づいて、被験者の心理状態、例えば、情動の有無を判定する。
 同期性解析部1011は、騙し絵を含む画像及び騙し絵を含まない画像を表示する複数の期間と情動判定部が判定した情動の有無のタイミングとの間に、同期性が存在するか否かを解析する。
 阻害要因判定部である原因判定部1012は、騙し絵を含む画像を表示したタイミングと情動が生じるタイミングが同期しているか否かに基づいて精神異常の有無を判定する。例えば、図29に示した例では、騙し絵を含む画像903、904、905を表示したときに情動が検出され、騙し絵を含まない画像902を表示したときに情動が検出されていない。即ち、騙し絵を含む画像903、904、905を表示するタイミングに合わせて情動が検出されている。この場合は、被験者である高齢者は騙し絵の意味を認識していると判断することができ、精神異常はないものと判定することができる。
 なお、騙し絵のような画像はその意味を理解することが難しい場合があるため、複数の騙し絵の画像を表示したときに、全ての騙し絵の画像に対して情動が検出される場合に限られず、一部の騙し絵に対しては情動が検出されず、他の騙し絵に対して情動が検出された場合であっても精神異常はないものと判定してよい。そこで、第2刺激として、内容の理解が可能な所定情報を含む映像に、コンテンツの内容が異なる複数種類の画像を選択してよい。
 次に、第2刺激として内容の理解が可能な所定情報を含む音声を利用する場合について説明する。図30に、聴覚によって内容の理解が可能な所定情報を含む第2刺激として、意味が理解できると驚いたり笑ったりする音声を周期的に聞かせた場合における、被験者である高齢者の情動の時間的変化の例を示す。まず、「ガス漏れしています」という音声を時刻t1からt2までの所定の期間(例えば、30sec)に渡って、1回または複数回、スピーカまたはヘッドフォン1003から出力する。次に、時刻t2からt3までの所定の期間(例えば、30sec)に渡って、音を出力しない(無音)。次に、「火災が発生しました」という音声を時刻t3からt4までの所定の期間(例えば、30sec)に渡って、1回または複数回、スピーカまたはヘッドフォン1003から出力する。次に、時刻t4からt5までの所定の期間(例えば、30sec)に渡って、音を出力しない(無音)。次に、「地震が発生しました」という音声を時刻t5から所定の期間(例えば、30sec)に渡って、1回または複数回、スピーカまたはヘッドフォン1003から出力する。この音声の出力と無音の切替は、周期的刺激映像発生部1002により実行される。
 特定の意味を有する音声を出力した場合と音声を出力しない場合における被験者である高齢者の顔画像を、カメラ1006を用いて撮像する。
 脈波抽出画像処理部1008は、検出部の一例であり、カメラ1006が撮像した被験者である高齢者の画像から、高齢者の心拍数を含む心拍情報を検出する。
 RRIリアプノフ感情判定部1009は、感情判定部の一例であり、心拍情報に基づいて、被験者である高齢者の感情が負の感情であるか、又は正の感情であるかを判定する。
 脈波抽出画像処理部1008は、計数部としての機能も備えており、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する。
 情動判定部である脈拍数情動判定部1010は、心拍数変動回数に基づいて、被験者の心理状態、例えば、情動の有無を判定する。
 同期性解析部1011は、音響刺激及び無刺激の複数の期間と情動判定部が判定した情動の有無のタイミングとの間に、同期性が存在するか否かを解析する。
 阻害要因判定部である原因判定部1012は、音声を出力したタイミングと情動が生じるタイミングとが同期しているか否かに基づいて精神異常の有無を判定する。例えば、図30に示した例では、特定の意味を有する音声を出力したときに情動が検出され、音声を出力しないときに情動が検出されていない。即ち、特定の意味を有する音声を出力したタイミングに合わせて情動が検出されている。この場合は、被験者である高齢者は言葉の意味を認識していると判断することができ、精神異常はないものと判定することができる。
 脈波抽出画像処理部1008は、心拍情報から心拍間隔の揺らぎの変化の複雑さを算出する算出部としても機能する。脈波抽出画像処理部1008は、例えば、最大リアプノフ指数を指標とすることにより、心拍情報から心拍間隔の揺らぎの変化の複雑さを算出することができる。RRIリアプノフ感情判定部1009は、複雑さに基づいて、被験者の感情が負の感情であるか、または正の感情であるかを判定する感情判定部としても機能する。RRIリアプノフ感情判定部1009は、例えば、脈波抽出画像処理部1008が算出した最大リアプノフ指数に基づいて、被験者の感情が負の感情であるか、または正の感情であるかを判定してよい。刺激発生部が、被験者である高齢者に与える刺激は、特定の人物の画像または音声の少なくともいずれかを含む第3刺激であってよい。阻害要因判定部である原因判定部1012は、被験者における特定の人物との相性の良否を判定してよい。
 まず、第3刺激が、特定の人物の画像を含む刺激である場合の例について説明する。図31に、特定の人物の画像を含む第3刺激として、介護者の画像を被験者である高齢者に周期的に見せた場合における、被験者である高齢者の情動及び正負感情の時間的変化の例を示す。まず、介護者の画像906を時刻t1からt2までの所定の期間(例えば、30sec)に渡って、表示部1001に表示する。次に、時刻t2からt3までの所定の期間(例えば、30sec)に渡って、介護者の画像を含まない白い画像902を表示部1001に表示する。時刻t3以降は、介護者の画像906と、介護者の画像を含まない白い画像902を交互に繰り返して表示部1001に表示する。この介護者の画像906と介護者の画像を含まない白い画像902の切替は、周期的刺激映像発生部1002により実行される。
 介護者の画像906と、介護者の画像を含まない白い画像902とを見た被験者である高齢者の顔画像を、カメラ1006を用いて撮像する。
 脈波抽出画像処理部1008は、検出部の一例であり、カメラ1006が撮像した被験者である高齢者の画像から、高齢者の心拍数を含む心拍情報を検出する。
 RRIリアプノフ感情判定部1009は、感情判定部の一例であり、心拍情報に基づいて、被験者である高齢者の感情が負の感情であるか、又は正の感情であるかを判定する。RRIリアプノフ感情判定部1009は、脈波抽出画像処理部1008が心拍情報から算出した心拍間隔の揺らぎの変化の複雑さに基づいて、被験者である高齢者の感情が負の感情であるか、または正の感情であるかを判定してよい。
 脈波抽出画像処理部1008は、計数部としての機能も備えており、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する。
 情動判定部である脈拍数情動判定部1010は、心拍数変動回数に基づいて、所定期間毎に、刺激に対応する被験者である高齢者の心理状態、例えば、情動の有無を判定する。
 同期性解析部1011は、介護者の画像906と介護者の画像を含まない白い画像902を表示する複数の期間と、情動判定部が判定した情動の有無のタイミング及び高齢者の正負感情が現れるタイミングとの間に、同期性が存在するか否かを解析する。
 阻害要因判定部である原因判定部1012は、介護者の画像906を表示するタイミングと情動が生じるタイミングが同期しているか否か、及び、正負感情のいずれが現れているかに基づいて、被験者である高齢者と介護者との間の相性が良いか悪いかを判定する。
 ここで、被験者である高齢者に介護者の画像を見せた時に高齢者と介護者との間の相性が良い場合にも悪い場合にも情動が現れると考えられる。そのため、高齢者に介護者の画像を見せた時に情動が現れた場合、高齢者が介護者に対して何らかの感情を抱いていることは判定できる。しかしながら、情動の有無だけでは、高齢者と介護者との間の相性が良いか悪いかのいずれであるかは判定できない。
 そこで、原因判定部1012は、高齢者と介護者との間の相性が良いか悪いかのいずれであるかを、RRIリアプノフ感情判定部1009による判定結果(正負感情)を用いて判定する。
 例えば、高齢者に介護者の画像を見せた時に情動が現れ、それと同じタイミングで、高齢者に正の感情が現れている場合には、原因判定部1012は、高齢者は介護者を性格的に好きである、即ち、高齢者と介護者との相性は良いと判定することができる。
 一方、高齢者に介護者の画像を見せた時に情動が現れ、それと同じタイミングで、高齢者に負の感情が現れている場合には、原因判定部1012は、高齢者は介護者を性格的に嫌いである、即ち、高齢者と介護者との相性は悪いと判定することができる。
 このように、原因判定部1012は、情動判定部としての機能も有し、感情判定部であるRRIリアプノフ感情判定部1009による判定結果(正負感情)を心理状態(相性の良し悪し)の判定に用いることが可能である。
 即ち、この場合は、脈拍数情動判定部1010と原因判定部1012とが、情動判定部としての機能を担っている。
 また、相性の良し悪しは、被検者である高齢者が、その原因となる心理状態(例えば、対象者を好きである、または、嫌いであるといった、被験者が対象者に対して、無意識的に、あるいは、意識的に有している心理状態)によって引き起こされるものである。従って、前述のように、情動判定部は、相性の良し悪しを心理状態として判定する。
 例えば、図31に示した例では、介護者の画像906を表示するタイミングに合わせて情動が検出され、かつ、負の感情が検出されている。この場合は、少なくとも、被験者である高齢者は介護者に対する相性が悪いため、高齢者と介護者との間の相性は悪いものと判定することができる。
 次に、第3刺激が、特定の人物の音声を含む刺激である場合の例について説明する。図32に、特定の人物の音声を含む第3刺激として、介護者の音声を被験者である高齢者に周期的に聞かせた場合における、被験者である高齢者の情動及び正負感情の時間的変化の例を示す。まず、介護者自身が自分の名前を発する「私は〇〇です」といった音声を時刻t1からt2までの所定の期間(例えば、30sec)に渡って、1回または複数回、スピーカまたはヘッドフォン1003から出力する。次に、時刻t2からt3までの所定の期間(例えば、30sec)に渡って、音声の出力を停止する(無音)。時刻t3以降は介護者自身の音声を出力した状態と無音状態を交互に繰り返す。この介護者自身の音声を出力した状態と無音状態の切替は、周期的刺激音発生部1004により実行される。
 介護者自身が自分の名前を発する「私は〇〇です」といった音声と周期的に聞かせた被験者である高齢者の顔画像を、カメラ1006を用いて撮像する。
 脈波抽出画像処理部1008は、検出部の一例であり、カメラ1006が撮像した被験者である高齢者の画像から、高齢者の心拍数を含む心拍情報を検出する。
 RRIリアプノフ感情判定部1009は、感情判定部の一例であり、心拍情報に基づいて、被験者である高齢者の感情が負の感情であるか、又は正の感情であるかを判定する。RRIリアプノフ感情判定部1009は、脈波抽出画像処理部1008が心拍情報から算出した心拍間隔の揺らぎの変化の複雑さに基づいて、被験者である高齢者の感情が負の感情であるか、または正の感情であるかを判定してよい。
 脈波抽出画像処理部1008は、計数部としての機能も備えており、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する。
 情動判定部である脈拍数情動判定部1010は、心拍数変動回数に基づいて、所定期間毎に、刺激に対応する被験者である高齢者の心理状態、例えば、情動の有無を判定する。
 同期性解析部1011は、音響刺激及び無刺激の複数の期間と、情動判定部が判定した情動の有無のタイミング及び高齢者の正負感情が現れるタイミングとの間に、同期性が存在するか否かを解析する。
 阻害要因判定部である原因判定部1012は、介護者自身が自分の名前を発する「私は〇〇です」といった音声を出力するタイミングと情動が生じるタイミングが同期しているか否か、及び、正負感情のいずれが現れているかに基づいて、被験者である高齢者と介護者との間の相性が良いか悪いかを判定する。
 ここで、被験者である高齢者に介護者の音声を聞かせた時に高齢者と介護者との間の相性が良い場合にも悪い場合にも情動が現れると考えられる。そのため、高齢者に介護者の音声を聞かせた時に情動が現れた場合、高齢者が介護者に対して何らかの感情を抱いていることは判定できる。しかしながら、情動の有無だけでは、高齢者と介護者との間の相性が良いか悪いかのいずれであるかは判定できない。
 そこで、原因判定部1012は、高齢者と介護者との間の相性が良いか悪いかのいずれであるかを、RRIリアプノフ感情判定部1009による判定結果(正負感情)を用いて判定する。
 例えば、高齢者に介護者の音声を聞かせた時に情動が現れ、それと同じタイミングで、高齢者に正の感情が現れている場合には、原因判定部1012は、高齢者は介護者を性格的に好きである、即ち、高齢者と介護者との相性は良いと判定することができる。
 一方、高齢者に介護者の音声を聞かせた時に情動が現れ、それと同じタイミングで、高齢者に負の感情が現れている場合には、原因判定部1012は、高齢者は介護者を性格的に嫌いである、即ち、高齢者と介護者との相性は悪いと判定することができる。
 このように、原因判定部1012は、情動判定部としての機能も有し、感情判定部であるRRIリアプノフ感情判定部1009による判定結果(正負感情)を心理状態(相性の良し悪し)の判定に用いることが可能である。
 即ち、この場合は、脈拍数情動判定部1010と原因判定部1012とが、情動判定部としての機能を担っている。
 また、相性の良し悪しは、被検者である高齢者が、その原因となる心理状態(例えば、対象者を好きである、または、嫌いであるといった、被験者が対象者に対して、無意識的に、あるいは、意識的に有している心理状態)によって引き起こされるものである。従って、前述のように、情動判定部は、相性の良し悪しを心理状態として判定する。
 例えば、図32に示した例では、介護者自身が自分の名前を発する「私は〇〇です」といった音声を出力するタイミングに合わせて情動が検出され、かつ、負の感情が検出されている。この場合は、被験者である高齢者と介護者との間の相性は悪いものと判定することができる。
 刺激発生部である周期的刺激映像発生部1002及び周期的刺激音発生部1004は、第1~第3のうちのいずれかの刺激を所定期間毎に発生した後、第1~第3のうちの異なる刺激を発生する動作を、少なくとも、第1~第3の3つの刺激を発生するまで繰り返す。尚、脈拍数情動判定部1010は、各刺激発生期間と各刺激休止期間(いずれも所定期間に該当)に、心拍数変動回数が2回以上の場合に被検者の情動が有ると判定する。これは、刺激発生期間と刺激休止期間の画面等の切り替わりに応じて、刺激を発生しなくても、1回の情動が生じることがあるためである。すなわち、この情動は、第1~第3刺激以外による情動であり、第1~第3刺激による情動の有無の判定から除外すべきである。周期的刺激映像発生部1002及び周期的刺激音発生部1004によって発生する第1~第3刺激は、少なくとも、2回以上の情動を生じさせる刺激である。これは、各刺激が、1回の心拍変動回数によって判定される驚きなどの反射的な反応を試すことが目的ではなく、2回以上の心拍変動回数によって判定される心理状態の変化の有無を試すことを目的とすることにもよる。
 第1、第2刺激を高齢者に与えたときの高齢者の情動の有無を判定すること、及び、第3刺激を高齢者に与えたときの高齢者の正負感情及び情動の有無を判定することにより、高齢者のコミュニケーションを阻害する原因を判定することができる。即ち、阻害要因判定部である原因判定部1012は、視覚または聴覚の異常の有無、被験者の精神の異常の有無、および、特定の人物との相性の良否の複数の判定が可能であり、阻害要因に関する判定として、さらに、被験者が有する阻害要因が、複数の判定のうちのいずれに起因するものであるのかを判定することができる。図33に、高齢者のコミュニケーションを阻害する原因の判定例を示す。
 まず、高齢者が正常な状態であると判定される例について説明する。高齢者に対して、視力・聴力判定用の第1刺激を与えたときに反応がある場合、高齢者は視力及び聴力に異常がないと判定できる。また、高齢者に精神疾患判定用の第2刺激を与えたときに反応がある場合は、高齢者は精神異常を有していない状態であると判断できる。さらに、高齢者に相性判定用の第3刺激を与えたときに、反応しないか、あるいは反応しても正の反応(正感情)を示す場合は、高齢者と介護者との間の相性は悪くないと判定できる。
 次に、高齢者が精神異常の状態であると判定される例について説明する。高齢者に対して、視力・聴力判定用の第1刺激を与えたときに反応がある場合、高齢者は視力及び聴力に異常がないと判定できる。また、高齢者に精神疾患判定用の第2刺激を与えたときに反応が無い場合は、第2刺激に含まれる映像や音声の意味を理解できない状態であるため、高齢者は精神異常の状態であると判断できる。さらに、高齢者に相性判定用の第3刺激を与えたときに、反応しないか、あるいは反応しても正の反応(正感情)を示す場合は、高齢者と介護者との間の相性は悪くないと判定できる。
 次に、高齢者が聴力異常の状態であると判定される例について説明する。高齢者に対して、視力判定用の第1刺激を与えたときに反応がある場合、高齢者は視力に異常がないと判定できる。高齢者に対して、聴力判定用の第1刺激を与えたときに反応が無い場合、高齢者は聴力異常の状態であると判定できる。高齢者の聴力に異常がある場合、高齢者に精神疾患判定用の音声を含む第2刺激を与えても、反応の有無から精神異常の有無は判定できない。従って、音声を含む第2刺激に対する音響反応の有無に関わらず、聴力異常と判定するため、図33に示した表では「無/有」と表記している。さらに、高齢者に相性判定用の第3刺激を与えたときに、反応しないか、あるいは反応しても正の反応(正感情)を示す場合は、高齢者と介護者との間の相性は悪くないと判定できる。図33に示した例では、高齢者と介護者との間の相性が良い場合を示したが、高齢者が聴力異常であり、かつ、介護者との相性もよくない場合もあり得る。
 次に、高齢者が視覚の状態であると判定される例について説明する。高齢者に対して、聴力判定用の第1刺激を与えたときに反応がある場合、高齢者は聴力に異常がないと判定できる。高齢者に対して、視力判定用の第1刺激を与えたときに反応が無い場合、高齢者は視力異常の状態であると判定できる。高齢者の視力に異常がある場合、高齢者に精神疾患判定用の映像を含む第2刺激を与えても、反応の有無から精神異常の有無は判定できない。従って、映像を含む第2刺激に対する映像反応の有無に関わらず、視力異常と判定するため、図33に示した表では「無/有」と表記している。さらに、高齢者に相性判定用の第3刺激を与えたときに、反応しないか、あるいは反応しても正の反応(正感情)を示す場合は、高齢者と介護者との間の相性は悪くないと判定できる。図33に示した例では、高齢者と介護者との間の相性が良い場合を示したが、高齢者が聴力異常であり、かつ、介護者との相性もよくない場合もあり得る。
 次に、高齢者の相性の良し悪しを判定する例について説明する。高齢者に対して、視力・聴力判定用の第1刺激を与えたときに反応がある場合、高齢者は視力及び聴力に異常がないと判定できる。また、高齢者に精神疾患判定用の第2刺激を与えたときに反応がある場合は、高齢者は精神異常を有していない状態であると判断できる。さらに、高齢者に相性判定用の第3刺激を与えたときに、反応が有り、かつ、負の反応(負感情)を示す場合は、高齢者と介護者との間の相性は悪いと判定できる。なお、高齢者に相性判定用の第3刺激として、映像刺激及び音響刺激の少なくともいずれか一方を与えたときに負反応が現れた場合には、高齢者と介護者との間の相性は悪いと判定してよい。なお、図33に示した場合とは異なり、高齢者に相性判定用の第3刺激を与えたときに、反応が有り、かつ、正の反応(正感情)を示す場合は、高齢者と介護者との間の相性は良いと判定できる。
 次に、情動の有無の判定方法について説明する。図34(A)に刺激を周期的に与えたときに現れる反応の真値の例を示す。まず、時刻t1からt2までの所定の期間(例えば、30sec)を被験者に刺激を与えない刺激休止期間とする。このときに被験者は反応を示さないと予測されるため、真値を「0」とする。次に、時刻t2からt3までの所定の期間(例えば、30sec)を被験者に刺激を与える刺激発生期間とする。このときに被験者は反応を示すと予測されるため、真値を「1」とする。時刻t3以降において、刺激休止期間と刺激発生期間を周期的に繰り返した場合、これに応じて刺激休止期間における真値「0」と刺激発生期間における真値「1」が周期的に繰り返される。
 図34(B)に図34(A)で示したタイミングに合わせて被験者に刺激を与えたときの情動の判定例を示す。例えば、時刻t1からt2を刺激休止期間として、被験者に刺激を与えなかった場合に情動が検出されなかった場合は、情動は「無」であり、これを「0」と表す。このときの真値は図34(A)から「0」であるため、この刺激休止期間における情動は真値と一致していることになる。次に、時刻t2からt3を刺激発生期間として、被験者に刺激を与えた場合に情動が検出された場合は、情動は「有」であり、これを「1」と表す。このときの真値は図34(A)から「1」であるため、この刺激発生期間における情動は真値と一致していることになる。
 時刻t3からt11まで、刺激休止期間と刺激発生期間とを周期的に繰り返し、合計10の期間で情動を判定したものとする。このとき、時刻t6からt7の刺激発生期間において情動が検出されなかった場合は、情動は「無」(「0」)となる。しかしながら、この期間における真値は「1」であるため、情動の判定結果と真値とは一致していないことになる。t1からt11までの合計10期間のうち、t6からt7までの期間を除いた他の9期間では、情動の判定結果と真値とが一致しているため、同期率は90%と算出される。同期性解析部1011は、刺激発生期間と刺激休止期間に、情動の有無が同期する割合、すなわち、同期率が、所定値以上か否かに基づいて判定する。例えば、所定値を70%とした場合、算出された同期率が90%の場合は、所定値である70%を超えているため、情動は刺激に同期していると判定することができる。
 上記の例では、刺激を与える複数の期間と刺激休止期間とに対して情動の有無の同期率を算出して判定する例を示したが、このような例には限られない。即ち、刺激発生回数と刺激休止回数とが固定の場合には、同期率を算出しなくても、同期する回数が所定回数以上か否かで判定を行う場合も同期率(同期した割合)による判定と見做してよい。例えば、図34(A)及び図34(B)に示すように、刺激発生期間と刺激休止期間の合計期間を10期間に固定し、刺激発生期間と刺激休止期間において同期した回数が所定回数(例えば、7回)以上の場合に、同期率が所定値の70%上であると見做して同期しているものと判定するようにしてもよい。
 コミュニケーション阻害原因判定装置である被験者状態判定装置1000を用いることにより、例えば、高齢者が介護施設に入居する最初の日に検査を行い、入居する高齢者がどのタイプかを見分けることができる。また、高齢者と介護士との間の相性を判定する場合には、所定の期間、介護士と高齢者とが関わっていないと判定できない場合があるため、例えば、高齢者が介護施設に入居して1か月程度経てから検査を行ってもよい。高齢者と介護者との間のコミュニケーションを阻害する原因を判定することにより、コミュニケーションを図るための対策を適切にとることができる。
 [付記]
 上述の実施例6は、以下に示す各付記に記載の発明の具体的な例示である。
 (付記1)
 被験者の視覚または聴覚への刺激を、休止期間を挟む予め定められた複数の所定期間毎に発生する刺激発生部と、
 被験者の心拍数を含む心拍情報を検出する検出部と、
 前記所定期間毎に、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動の回数を計数する計数部と、
 前記心拍数変動回数に基づいて、前記所定期間毎に、刺激に対応する前記被験者の情動の有無を判定する情動判定部と、
 前記複数の期間と前記情動判定部が判定した情動の有無のタイミングに、同期性が存在するか否かを解析する同期性解析部と、
 前記被験者について、前記同期性判定部の解析結果に基づき、他者とのコミュニケーションの阻害要因に関する判定を行う阻害要因判定部を有する、
 ことを特徴とする、被験者状態判定装置。
 これまでに知られているコミュニケーション阻害要因を判定する装置として、被験者の視覚・聴覚によって、視覚・聴覚や認知能力の異常の有無を判定する装置が知られている。しかしながら、従来の装置は、被験者の回答や、ボタン押しなどの反応から判定する場合、反応行為自体に難があって判定ができない場合があった。また、被験者の脳波等からコミュニケーション阻害要因を判定する装置が知られている。しかしながら、このような装置は、大がかりであるため、装置を設置する場所として広い場所が必要であるという問題がある。さらに、このような装置は、高度な解析手段を必要とするため、装置を扱うことができる人も限られるという問題がある。
 そこで、被験者のコミュニケーション阻害要因を、簡単な構成で容易に、また、設置場所や扱える人の制限を軽減可能に実現することが好ましい。
 付記に記載した被験者状態判定装置によれば、「平均心拍数以上の状態に遷移した心拍数変動の回数」及び「情動の有無のタイミングに、同期性を有するか否かを解析」することに基づいて、「阻害要因に関する判定を行う」ため、装置構成が簡単であり、設置場所の制限を軽減することができ、さらに、被験者のコミュニケーション阻害要因を簡単なテストで判定することができるため、扱える人の制限も軽減できる。
 (付記2)
 前記刺激は、視覚または聴覚によって発生が感覚的に認識可能な第1刺激であり、
 前記阻害要因判定部は、前記視覚または聴覚の異常の有無を判定する、
 付記1に記載の被験者状態判定装置。
 付記2に記載の被験者状態判定装置において、前記刺激は、視覚または聴覚の感覚によってのみ、発生が認識可能な第1刺激であってよい。
 (付記3)
 前記刺激は、内容の理解が可能な所定情報を含む第2刺激であり、
 前記阻害要因判定部は、前記被験者の精神の異常の有無を判定する、
 付記1または2に記載の被験者態判定装置。
 (付記4)
 さらに、前記心拍情報から心拍間隔の揺らぎの変化の複雑さを算出する算出部と、
 前記複雑さに基づいて、前記被験者の感情が負の感情であるか、または正の感情であるかを判定する感情判定部と、を有し、
 前記刺激は、特定の人物の画像または音声の少なくともいずれかを含む第3刺激であり、
 前記阻害要因判定部は、前記被験者における前記特定の人物との相性の良否を判定する、
 付記1~3のいずれか1つに記載の被験者状態判定装置。
 (付記5)
 前記阻害要因判定部は、
  視覚または聴覚の異常の有無、前記被験者の精神の異常の有無、および、前記特定の人物との相性の良否の複数の判定が可能であり、
  前記阻害要因に関する判定として、さらに、前記被験者が有する阻害要因が、前記複数の判定のうちのいずれに起因するものであるのかを判定する、
 付記4に記載の被験者状態判定装置。
 (付記6)
 前記刺激発生部は、前記第1~第3のうちのいずれかの刺激を前記所定期間毎に発生した後、前記第1~第3のうちの異なる刺激を発生する動作を、少なくとも、第1~第3の3つの刺激を発生するまで繰り返す、付記4に記載の被験者状態判定装置。
 (付記7)
 前記同期性解析部は、前記刺激の発生期間と刺激休止期間に、前記情動の有無が同期する割合が、所定値以上か否かに基づいて判定する、付記1~6のいずれか1つに記載の被験者状態判定装置。
 付記7に記載の被験者状態判定装置において、刺激発生回数が固定で、同期する回数が所定回数以上の場合も含む。
 (付記8)
 前記第1刺激は、視覚または聴覚を刺激して、発生が認識される感覚刺激である、付記1~7のいずれか1つに記載の被験者状態判定装置。
 (付記9)
 前記第2刺激は、所定情報の認知をともなう認知刺激である、付記3~8のいずれか1つに記載の被験者状態判定装置。

Claims (16)

  1.  被験者の心拍数を含む心拍情報を検出する検出部と、
     前記心拍情報に基づいて、前記被験者の感情が負の感情であるか、又は正の感情であるかを判定する感情判定部と、
     所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数する計数部と、
     前記心拍数変動回数に基づいて、前記被験者の心理状態を判定するとともに、前記感情判定部による判定結果を前記心理状態の判定に用いることが可能な情動判定部と、
     前記情動判定部の判定結果を出力する出力部と、
     を有することを特徴とする感情判定装置。
  2.  さらに、被験者の顔を撮影する撮影部を有し、
     前記検出部は、前記撮影部が取得した画像データの変化に基づいて前記心拍情報を検出する、
     請求項1に記載の感情判定装置。
  3.  前記心理状態は、前記正または負の感情のいずれかにかかわらず、前記心拍数変動回数に基づいて判定可能な第1心理状態と、前記正または負の感情のいずれかと、前記心拍数変動回数とに基づいて判定可能な第2心理状態とを含み、
     前記情動判定部は、少なくとも、前記第2心理状態の判定を行う場合に、前記感情判定部による判定結果を用いる、
     請求項1または2に記載の感情判定装置。
  4.  前記所定期間は繰り返し設定され、
     前記情動判定部は、各所定期間毎に判定を行う、請求項1乃至3のいずれか一項に記載の感情判定装置。
  5.  前記撮影部は、複数人の被験者の顔が撮影可能であり、
     さらに、複数人が表示される画面から、それぞれの顔を特定し、特定したそれぞれの顔に対して測定部位を特定する測定部位特定手段を有し、
     前記検出部は、前記それぞれの顔の測定部位の画像の変化に基づいて前記心拍情報を取得する、
     請求項2に記載の感情判定装置。
  6.  前記被験者は、講義を受講する受講者であり、
     前記情動判定部は、前記心拍数変動回数と前記感情判定部の判定結果とに基づいて、前記講義の受講における理想的な心理状態か否かを判定する、
     請求項1乃至5のいずれか一項に記載の感情判定装置。
  7.  視覚または聴覚によって発生の有無を感覚的に認識可能な刺激と、
     視覚または聴覚によって与えられる情報の内容を理解することが可能な刺激と、
     特定の人物の画像または音声の少なくともいずれかを含む刺激と、を発生する刺激発生部を有し、
     前記刺激発生部は、休止期間を挟む予め定められた複数の期間に同種の刺激を繰り返し発生し、
     前記情動判定部は、少なくとも、前記予め定められた複数の期間の間に、前記被験者の心理状態を判定する、
     請求項1乃至6のいずれか一項に記載の感情判定装置。
  8.  前記負の感情は、前記被験者が、脳疲労、不安、及び抑うつのうちの少なくとも1つを感じる感情である、請求項1に記載の感情判定装置。
  9.  前記情動判定部が判定する前記被験者の心理状態は、安定している状態、驚いている状態、感激している状態、及び憤激している状態のいずれかを含む、請求項1乃至3のいずれか一項に記載の感情判定装置。
  10.  前記計数部が計数した前記心拍数変動回数が1回の場合は、
     前記情動判定部は、前記心理状態は驚いている状態であると判定する、請求項1乃至4のいずれか一項に記載の感情判定装置。
  11.  前記計数部が計数した前記心拍数変動回数が複数回の場合であって、かつ、前記感情判定部が判定した前記被験者の感情が正の感情である場合は、
     前記情動判定部は、前記心理状態は感激している状態であると判定する、請求項1乃至5のいずれか一項に記載の感情判定装置。
  12.  前記計数部が計数した前記心拍数変動回数が複数回の場合であって、かつ、前記感情判定部が判定した前記被験者の感情が負の感情である場合は、
     前記情動判定部は、前記心理状態は憤激している状態であると判定する、請求項1乃至6のいずれか一項に記載の感情判定装置。
  13.  前記計数部が計数した前記心拍数変動回数が0回の場合であって、かつ、前記心拍数が前記平均心拍数未満の状態が前記所定期間において維持された場合は、
     前記情動判定部は、前記心理状態は安定している状態であると判定する、請求項1乃至7のいずれか一項に記載の感情判定装置。
  14.  前記計数部が計数した前記心拍数変動回数が0回の場合であって、かつ、前記心拍数が前記平均心拍数以上の状態が前記所定期間において維持された場合は、
     前記情動判定部は、前記心理状態を判定することができない情動判定不能状態と判定する、請求項1乃至8のいずれか一項に記載の感情判定装置。
  15.  被験者の心拍数を含む心拍情報を検出するステップと、
     前記心拍情報に基づいて、前記被験者の感情が負の感情であるか、又は正の感情であるかを判定するステップと、
     所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数するステップと、
     前記心拍数変動回数に基づいて、前記被験者の心理状態を判定するとともに、判定結果を前記心理状態の判定に用いるステップと、
     前記心理状態の判定結果を出力するステップと、
     をコンピュータに実行させることを特徴とする感情判定プログラム。
  16.  検出部が、被験者の心拍数を含む心拍情報を検出し、
     感情判定部が、前記心拍情報に基づいて、前記被験者の感情が負の感情であるか、又は正の感情であるかを判定し、
     計数部が、所定期間において、所定値以上の心拍数の増加を伴って、平均心拍数未満の状態から平均心拍数以上の状態に遷移した心拍数変動回数を計数し、
     情動判定部が、前記心拍数変動回数に基づいて、前記被験者の心理状態を判定するとともに、前記感情判定部による判定結果を前記心理状態の判定に用い、
     出力部が、前記情動判定部の判定結果を出力する、
     ことを特徴とする感情判定方法。
PCT/JP2021/035163 2020-09-24 2021-09-24 感情判定装置、感情判定方法及び感情判定プログラム WO2022065446A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/246,503 US20230363680A1 (en) 2020-09-24 2021-09-24 Emotion assessment apparatus, emotion assessment method and emotion assessment program
JP2022552078A JPWO2022065446A1 (ja) 2020-09-24 2021-09-24
CN202180065263.9A CN116322496A (zh) 2020-09-24 2021-09-24 感情判定装置、感情判定方法以及感情判定程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020159837 2020-09-24
JP2020-159837 2020-09-24

Publications (1)

Publication Number Publication Date
WO2022065446A1 true WO2022065446A1 (ja) 2022-03-31

Family

ID=80846659

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035163 WO2022065446A1 (ja) 2020-09-24 2021-09-24 感情判定装置、感情判定方法及び感情判定プログラム

Country Status (4)

Country Link
US (1) US20230363680A1 (ja)
JP (1) JPWO2022065446A1 (ja)
CN (1) CN116322496A (ja)
WO (1) WO2022065446A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023243469A1 (ja) * 2022-06-15 2023-12-21 京セラ株式会社 電子機器、電子機器の制御方法及び制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005198828A (ja) * 2004-01-15 2005-07-28 Seiko Epson Corp 生体情報解析装置、生体情報解析方法、制御プログラムおよび記録媒体
EP3263024A1 (en) * 2016-06-30 2018-01-03 Cal-Comp Electronics & Communications Company Limited Emotion analysis method and electronic apparatus thereof
JP2019130344A (ja) * 2016-10-21 2019-08-08 シチズン時計株式会社 検出装置
JP2020126645A (ja) * 2019-01-31 2020-08-20 株式会社ジオネクサス 情報処理方法、端末装置及び情報処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005198828A (ja) * 2004-01-15 2005-07-28 Seiko Epson Corp 生体情報解析装置、生体情報解析方法、制御プログラムおよび記録媒体
EP3263024A1 (en) * 2016-06-30 2018-01-03 Cal-Comp Electronics & Communications Company Limited Emotion analysis method and electronic apparatus thereof
JP2019130344A (ja) * 2016-10-21 2019-08-08 シチズン時計株式会社 検出装置
JP2020126645A (ja) * 2019-01-31 2020-08-20 株式会社ジオネクサス 情報処理方法、端末装置及び情報処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023243469A1 (ja) * 2022-06-15 2023-12-21 京セラ株式会社 電子機器、電子機器の制御方法及び制御プログラム

Also Published As

Publication number Publication date
US20230363680A1 (en) 2023-11-16
CN116322496A (zh) 2023-06-23
JPWO2022065446A1 (ja) 2022-03-31

Similar Documents

Publication Publication Date Title
CN111758229B (zh) 基于生物特征传感器数据数字地表示用户参与定向内容
JP6101684B2 (ja) 患者を支援する方法及びシステム
CN101969841B (zh) 修改对象的心理生理状态
US20150099987A1 (en) Heart rate variability evaluation for mental state analysis
JP7036046B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7322227B2 (ja) 検出装置
JP2002034936A (ja) 通信装置および通信方法
US20210118323A1 (en) Method and apparatus for interactive monitoring of emotion during teletherapy
JP2024041931A (ja) 脳波データ分析システム、情報処理端末、電子機器、及び認知症検査のための情報の呈示方法
US20220067353A1 (en) System and method for reading and analysing behaviour including verbal, body language and facial expressions in order to determine a person's congruence
US11779275B2 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
WO2022065446A1 (ja) 感情判定装置、感情判定方法及び感情判定プログラム
KR102442425B1 (ko) 심리 상태 분류 방법, 심리 상태 분류 서버 및 컴퓨팅 장치
Arndt Neural correlates of quality during perception of audiovisual stimuli
Bowers et al. Gaze aversion to stuttered speech: a pilot study investigating differential visual attention to stuttered and fluent speech
KR102122021B1 (ko) 가상현실을 이용한 인지 개선 장치 및 방법
JP2021194476A (ja) 情報処理方法、情報処理システムおよびプログラム
Hercegfi Improved temporal resolution heart rate variability monitoring—pilot results of non-laboratory experiments targeting future assessment of human-computer interaction
US20190173683A1 (en) Information processing apparatus and information processing system
Bellodi et al. Dialogue support for memory impaired people
Conrey et al. An ideal observer analysis of variability in visual-only speech
WO2023074589A1 (ja) 情報処理装置、情報処理システム、及びプログラム
WO2023145351A1 (ja) 情報処理方法、情報処理システムおよびプログラム
WO2022064622A1 (ja) 感情解析システム
WO2022230067A1 (ja) 動画像分析システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872575

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022552078

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21872575

Country of ref document: EP

Kind code of ref document: A1