WO2014091766A1 - 人間の心的状態の評価装置 - Google Patents

人間の心的状態の評価装置 Download PDF

Info

Publication number
WO2014091766A1
WO2014091766A1 PCT/JP2013/007352 JP2013007352W WO2014091766A1 WO 2014091766 A1 WO2014091766 A1 WO 2014091766A1 JP 2013007352 W JP2013007352 W JP 2013007352W WO 2014091766 A1 WO2014091766 A1 WO 2014091766A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
subjects
relationship
evaluation
signals
Prior art date
Application number
PCT/JP2013/007352
Other languages
English (en)
French (fr)
Inventor
三宅 美博
Original Assignee
国立大学法人東京工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東京工業大学 filed Critical 国立大学法人東京工業大学
Priority to JP2014551900A priority Critical patent/JP6249490B2/ja
Priority to EP13861653.7A priority patent/EP2932899A4/en
Priority to US14/652,376 priority patent/US20150327802A1/en
Priority to KR1020157018830A priority patent/KR20150097632A/ko
Publication of WO2014091766A1 publication Critical patent/WO2014091766A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change

Definitions

  • the present invention relates to a technique for evaluating a human mental state.
  • this type of evaluation includes (i) a questionnaire, (ii) measurement of physiological responses such as the subject's brain wave, heart rate, blood pressure, sweating, respiration, temperature, etc. And what uses it is known.
  • physiology information obtained from brain waves and heart rate, observation information obtained from non-verbal information (sigh, whisper, voice tone, etc.) and subjective evaluation data such as questionnaires are learned and observed.
  • a method for estimating a mental state from information has also been proposed (see Patent Document 1).
  • the questionnaire method still had problems in terms of quantitativeness and real-time characteristics. Moreover, in the method of measuring a physiological response, it is necessary to adhere a sensor to the body of the subject, which causes a problem in handling.
  • a feeling of whereabouts is blended into the place, or a live feeling is a feeling of being at the place.
  • Patent Document 3 discloses a synchronism detecting device that detects synchrony of dialogue. This apparatus measures the physiological index for each of the first speaker and the second speaker for a predetermined time and convolves them to detect synchrony. This device is based on the premise that the shorter the shift on the time axis of the physiological indices of the two speakers, the higher the synchrony, and the longer the shift, the lower the synchrony.
  • FIGS. 1A and 1B are waveform diagrams illustrating examples of raw data of physiological indices obtained from two subjects.
  • S1a and S1b schematically show raw data of physiological indices obtained primarily from the first speaker and the second speaker, respectively.
  • the present invention has been made in such a situation, and one of the exemplary purposes of an aspect thereof is to provide a technique for evaluating a relationship between a plurality of individuals in real time using a different approach.
  • An aspect of the present invention relates to an evaluation apparatus that evaluates a relationship between subjects in communication between a plurality of subjects.
  • the evaluation apparatus observes each of a plurality of subjects, and for each of the plurality of subjects, a non-linguistic information measurement unit that generates a first signal that is a time-series signal obtained by digitizing non-language information obtained from each of the subjects, and a plurality of subjects Based on the first signal obtained for each of the plurality of subjects, a waveform analysis unit that generates a second signal that is an amount related to the characteristic as the rhythm of each of the plurality of subjects, and a plurality of subjects corresponding to each of the subjects.
  • a relationship evaluation unit that generates a third signal that is an index indicating a mental state related to the relationship among a plurality of subjects based on the relative relationship of the second signal.
  • the present inventor for each of a plurality of subjects, the relative relationship of non-linguistic information time series signals obtained in association with the behavior of each subject, particularly the amount related to the characteristic as the rhythm (referred to as rhythm related amount) However, it was found to change depending on the mental state related to the relationship between subjects. According to this aspect, the mental state related to the relationship between the subjects is evaluated based on the third signal obtained for the plurality of subjects based on the relative relationship of the rhythm-related amounts of the plurality of non-linguistic information. Can do.
  • the relationship between a plurality of subjects can be evaluated.
  • FIGS. 1A and 1B are waveform diagrams illustrating examples of raw data of physiological indices obtained from two subjects. It is a figure which shows the evaluation apparatus which concerns on embodiment. It is a figure which shows the specific structure of an evaluation apparatus.
  • 4A and 4B are waveform diagrams of the first signal and the second signal obtained in the experiment of Example 1.
  • FIG. FIG. 5A is a waveform diagram of the second signal acquired in the experiment of Example 1
  • FIGS. 5B and 5C are correlation diagrams of the second signal in different time slots.
  • FIGS. 6A and 6B are diagrams illustrating the second signal in the second embodiment.
  • FIG. 7A is a waveform diagram of the second signal obtained by the experiment of Example 2
  • FIG. 7B is a waveform diagram of the third signal.
  • FIG. 9A is a waveform diagram of the first signal in the second embodiment
  • FIG. 9B is a waveform diagram of the second signal
  • FIG. 9C is a correlation diagram of the second signal
  • FIG. 9D is a correlation diagram of the first signal.
  • FIG. 10 is a histogram of a third signal obtained in the experiment of Example 3.
  • FIG. FIG. 6 is a waveform diagram of a first signal and a second signal obtained in an experiment of Example 4. It is a figure explaining the 3rd signal in Example 4.
  • FIG. FIG. 14A is a waveform diagram of the second signal in the fifth embodiment
  • FIG. 14B is a synchronization rate histogram. It is a figure which shows the evaluation apparatus which concerns on the modification 5.
  • FIG. 2 is a diagram showing the evaluation apparatus 100 according to the embodiment.
  • the evaluation device 100 evaluates the mental state of each subject 2a, 2b in communication between a plurality of humans (subjects) 2a, 2b.
  • the mental state here can be classified into an individual aspect and an interpersonal aspect.
  • the main purpose of the evaluation apparatus 100 is to evaluate the latter interpersonal aspect.
  • the mental state here is not limited to the evaluation of the intellectual activity state, and may include a human potential state such as emotion, empathy, and unity.
  • the present inventor has described that the individual aspect of the mental state (also referred to as the personal aspect of the mental state in this specification) is the amplitude, frequency, etc. of the dynamics of non-verbal information obtained from each subject.
  • the aspect of human relations also referred to as the relational aspect of mental state
  • the evaluation apparatus 100 evaluates mental states of the plurality of subjects 2 based on such knowledge.
  • the evaluation apparatus 100 evaluates a relationship between subjects in interpersonal communication by a plurality of subjects 2a and 2b.
  • the relationship between subjects that is, the mental state related to the relationship between subjects is exemplified by empathy, trust, sense of unity, sense of location, live feeling, consensus, consent, conviction, etc. Evaluate one or any combination.
  • the mental state relating to the relationship between the subjects is distinguished from individual mental states, for example, emotions that each person has in the partner.
  • Subjects 2a and 2b face each other in the same space, for example, and are communicating.
  • the type of communication is not particularly limited, and includes various things such as daily conversation, discussion, presentation, and lecture.
  • the subjects 2a and 2b are not necessarily required to be present in the same space, and the evaluation apparatus 100 can be used even when communicating via a telephone or a video conference system.
  • the evaluation apparatus 100 monitors non-linguistic information that can be observed visually, audibly, or similar from the outside of the subject, not the physiological information of the subjects 2a and 2b.
  • Non-verbal information that can be observed includes non-linguistic information related to whispering movements, gestures, hand gestures, trunk movements, gaze dwelling time, voice tone, sigh, and turn taking (speech length, pause length, speech rate, etc. Utterance timing, etc.), or non-linguistic information related to utterance such as voice pitch and intonation.
  • the non-linguistic information measuring unit 10 includes a camera, a microphone, a sensor related to motion measurement (acceleration sensor, velocity sensor, gyroscope), a sensor related to position measurement in space, and other sensors, and is obtained from each subject 2a, 2b.
  • the non-linguistic information S0a, S0b is observed, and a time series signal (hereinafter referred to as the first signal S1) in which the non-linguistic information is digitized is generated.
  • the type of the non-language information measuring unit 10 may be selected according to the non-language information S0 to be observed. It should be noted that the first signal S1 corresponds to the physiological index referred to in Patent Document 3.
  • the signal processing unit 20 generates a third signal S3 that is an index of the mental state among the plurality of subjects 2 based on the plurality of first signals S1a and S1b. Further, the signal processing unit 20 generates fourth signals S4a and S4b indicating the mental states of the plurality of subjects 2 based on the first signal S1.
  • the above is the outline of the evaluation apparatus 100.
  • FIG. 3 is a diagram illustrating a specific configuration of the evaluation apparatus 100.
  • the evaluation device 100 includes a non-linguistic information measurement unit 10, a waveform analysis unit 22, a relationship evaluation unit 24, and a personal evaluation unit 26.
  • the non-linguistic information measurement unit 10 observes non-linguistic information obtained from each of the plurality of subjects 2a and 2b, and uses a time-series signal obtained by quantifying the non-linguistic information for each of the plurality of subjects 2a and 2b. A certain first signal S1a, S1b is generated.
  • the signal processing unit 20 in FIG. 2 includes a waveform analysis unit 22, a relationship evaluation unit 24, and a personal evaluation unit 26.
  • the first signal S1 obtained by quantifying the behavior of the subject is rarely suitable for evaluating the mental state of the subject 2 as it is. Therefore, the waveform analysis unit 22 generates the second signal S2 based on the first signal S1.
  • the second signal S2 is a time-series signal (rhythm-related amount) related to the characteristic as the rhythm of the non-language information.
  • 2nd signal S2 which is the rhythm relevant quantity of non-language information.
  • the second signal may be generated by calculating or filtering the average, variance, and standard deviation of the first signal.
  • Time-series signal obtained by coarse-graining the first signal S1 The second signal S2 in this case is exemplified by an envelope of the first signal S1.
  • (Iv) Time series signal related to information indicating the waveform of the first signal S1 Specifically, (iv-1) Waveform type, (iv-2) Spectrum, (iv-3) Frequency, (iv-4) Duty ratio (Iv-5) Amplitude, (iv-6) Extraction of geometric features of waveform pattern, etc.
  • the second signal S2 is data including information that can express such a rhythm difference among the signals exemplified in (i) to (iv).
  • the second signal S2 is: (A) Time-series data of frequency information of the first signal S1 (b) Time-series data of phase information of the first signal S1 (c)
  • One of the combinations of (a) and (b) is suitable.
  • (A) includes (a-1) time-series data of the intensity (amplitude or power spectrum) of the frequency component when focusing on a specific frequency, or (a-2) the frequency component taking the maximum intensity. Series data, etc. are preferred.
  • (B) includes (b-1) time-series data of a phase of a specific frequency (or frequency band), or (b-2) time-series of a phase in which a predetermined event grasped from the first signal S1 occurs. Data and the like are preferred.
  • the method for generating the second signal S2 may be selected according to the type of the second signal S2, and is not particularly limited.
  • the relationship evaluation unit 24 is an index indicating a mental state between the plurality of subjects 2a and 2b based on the relative relationship between the plurality of second signals S2a and S2b corresponding to the plurality of subjects 2a and 2b, respectively.
  • a third signal S3 is generated.
  • the relative relationship between the plurality of second signals S2a and S2b is (i) degree of synchronization, (ii) phase difference, (iii) correlation, (iv) frequency relationship, and (v) phase relationship. , (Vi) amplitude relationship, (vii) geometric feature amount relationship as a waveform pattern, or any combination thereof.
  • the phase difference of the rhythm-related amount of each subject is stable, or the frequency (frequency) is close Alternatively, it has been confirmed by prior verification that the strength of their correlation is increased.
  • the correspondence between the relative relationship between the plurality of second signals S2a and S2b and the mental state between the plurality of subjects can be learned in advance through experiments and verifications and stored in the database. Good. In actual operation of the evaluation apparatus 100, the newly obtained correspondence may be learned and stored in the database.
  • the third signal S3 is an indicator of the mental state among individuals, such as empathy, trust, sense of unity, feeling of whereabouts, live feeling, consensus, consent, and satisfaction, and is a binary value of 1, 0 or many It is acquired as value data or as a vector quantity.
  • the type of the first signal that is non-linguistic information, the type of the second signal that is the rhythm-related amount obtained therefrom, and the type of relative relationship between the plurality of second signals are the plurality of subjects 2a to be finally evaluated, It is selected and determined according to the kind of mental state between 2b, and these are determined in consideration of the results of prior experiments and verifications.
  • the personal evaluation unit 26 is a fourth signal that is an index indicating the mental state of each of the plurality of subjects 2a and 2b.
  • S4a and S4b are generated.
  • the second signals S2a ′ and S2b ′ input to the personal evaluation unit 26 may be the same signals as S2a and S2b input to the relationship evaluation unit 24, or have undergone different signal processing by the waveform analysis unit 22. It may be a signal.
  • the above is the configuration of the evaluation apparatus 100.
  • the case where the agreement degree between them is evaluated as a mental state between a plurality of subjects will be described.
  • the non-linguistic information measuring unit 10 measures the whirling motion of each of the plurality of subjects 2a and 2b, that is, the jaw movement, and generates first signals S1a and S1b that are digitized.
  • the non-linguistic information measuring unit 10 can be configured by a combination of a camera and an image processing device.
  • a camera may be provided for each subject, and a single camera may be used to collectively observe the movements of a plurality of subjects. If the situation permits, the whirling movements S0a and S0b may be measured by attaching speed sensors and acceleration sensors to the subjects 2a and 2b.
  • a position sensor may be provided in consideration of the spatial positional relationship between a plurality of subjects 2a and 2b.
  • the waveform analyzer 22 receives the first signals S1a and S1b obtained for each of the plurality of subjects 2a and 2b, and performs predetermined signal processing.
  • predetermined signal processing Forinafter, specific examples of signal processing will be described based on some examples.
  • the first signals S1a and S1b are obtained by measuring and digitizing a whirling movement in a situation where two subjects 2 are actually having a face-to-face conversation.
  • the waveform analysis unit 22 generates the second signal S2 by time-averaging the amplitude of the first signal S1.
  • Example 1 An experiment was conducted to verify the validity of Example 1.
  • one of the subjects is a teacher role and the other is a student role, and the subject role 2a explains the predetermined theme, and the student role subject 2b understands it. Only teachers are allowed to speak.
  • the experiment was conducted with 20 male students in 12 men and 8 females, and 10 pairs were paired as 2 people.
  • a three-dimensional acceleration sensor is attached to the subjects 2a and 2b. More specifically, when the X-axis is taken in the vertical direction and the Z-axis is taken in the line-of-sight direction, the acceleration x (t) in the X direction and the acceleration z (t) in the Z direction are measured, and their norm ⁇ (x 2 (t) + z 2 (t)) is defined as the first signal S1.
  • FIG. 4 is a waveform diagram showing the first signal S1 obtained by Experiment 1 and the second signal S2 obtained from the first signal S1 in the first embodiment.
  • the second signals S2a and S2b are generated by calculating the standard deviation (SD) every 0.6 seconds of the first signals S1a and S1b obtained by the non-linguistic information measuring unit 10. .
  • SD standard deviation
  • the post-verification when focusing on the second signals S2a and S2b obtained for the two subjects 2a and 2b, in the period T1 where the degree of consensus is low, the two second signals S2a and S2b, that is, the amplitude of the whispering motion Not synchronized.
  • the second half period T2 where the degree of consensus is high the amplitudes of the two second signals S2a and S2b, that is, the whirling movement are synchronized compared to the period T1. That is, in the consensus building process, it is suggested that the time waveform of the amplitude of the whirling movements of a plurality of subjects may change from an unsynchronized state to a synchronized state.
  • the relationship evaluation unit 24 determines the relationship between the subjects 2a and 2b based on the relative relationship between the second signals S2a and S2b obtained for the two subjects 2a and 2b, specifically, the presence or absence of synchronization.
  • a third signal S3 that is an index to be generated is generated.
  • a known technique may be used as a method for evaluating the degree of tuning and synchronization between them and is not particularly limited in the present invention.
  • the degree of correlation between two waveforms may be calculated, or a difference waveform between two signals may be simply calculated, and the degree of tuning and synchronization of the two signals may be evaluated based on the difference waveform. .
  • the relationship evaluation unit 24 calculates the correlation coefficient r of the second signals S2a and S2b for each time slot TS.
  • FIG. 5A is a waveform diagram of the second signal S2 obtained in the experiment of Example 1
  • FIGS. 5B and 5C are correlation diagrams of the second signal S2 in different time slots. .
  • the length of the time slot is 15 seconds.
  • the correlation coefficient r is as small as 0.007, and in the time slot TS2, the correlation coefficient r is 0.345 (p ⁇ 0.001), indicating a strong correlation. Further, when the p value, which is an index of statistical significance, is calculated, the p value is ⁇ 0.001 in the time slot TS2, and it can be seen that the statistical significance is high.
  • the relationship evaluation unit 24 may output the correlation coefficient r as the third signal S3, or may output the correlation coefficient r as a discrete value.
  • the time waveform of the amplitude of the whirling motion is used as the second signal S2, and the degree of synchronization of the second signal S2 obtained for each of the plurality of subjects 2 is evaluated.
  • the degree of consent can be estimated as an index indicating the relationship among the target states.
  • Example 2 In this embodiment, attention is paid to the frequency component of the first signal S1 when the second signal S2 that is a rhythm-related quantity is generated.
  • the first signal S1 is the whirling motion, more specifically the norm of the acceleration in the X direction and the Z direction, as in the first embodiment.
  • the waveform analysis unit 22 converts the first signal S1 into frequency domain data. For this, a fast Fourier transform or the like can be used.
  • FIGS. 6A and 6B are diagrams illustrating the second signal S2 in the second embodiment.
  • FIG. 6A shows the first signal S1
  • FIG. 6B shows frequency domain data F (t, f) obtained by Fourier transforming the first signal S1.
  • the horizontal axis represents time
  • the vertical axis represents frequency
  • the shading represents the intensity (power spectrum) of the frequency domain data F (t, f).
  • the whirling movement is dominated by frequency components of 2 to 4 Hz. Therefore, in FIG. 6B, the second signal S2 that is a rhythm-related amount may be generated by integrating energy (power) in the frequency band of 2 to 4 Hz in the frequency direction.
  • S2 (t) ⁇ F (t, f) df
  • Example 2 In order to verify the validity of Example 2, the following experiment was performed. In this experiment, two subjects cooperate to solve one problem. The two subjects are allowed to talk freely and are different from the experiment in Example 1 in that two-way communication is performed. The problem is that two subjects collaborate to estimate the rent in a situation where a floor plan of a condominium and other information are given. The experiment was conducted on 20 male students of 6 males and 4 females, and 5 pairs were performed as a pair.
  • FIG. 7A is a waveform diagram showing the second signals S2a and S2b obtained through experiments in Example 2, and FIG. 7B is a waveform diagram showing the third signal S3.
  • the third signal S3 calculates the correlation coefficient r for each predetermined time interval of the second signals S2a and S2b, and determines the threshold value to determine the interpersonal mental state from the tuning state (1). This is represented by the binary value of the tuning state (0).
  • FIG. 8 is a waveform diagram showing the relationship between the third signal S3 and the mental state.
  • the mental state is an average value of two subjects who evaluated the degree of consensus in each time zone on a scale of 1 to 5 by a post-survey.
  • the frequency at which the third signal S3 becomes 1 is low in the first half (1 to 6 minutes) in which the degree of agreement is relatively low.
  • the frequency at which the third signal S3 becomes 1 is high in the second half (10 to 15 minutes) in which the degree of agreement is relatively high. Therefore, it can be said that the third signal S3 itself or a numerical value obtained by averaging the third signal S3 represents an interpersonal mental state among the plurality of subjects 2.
  • FIG. 9A is a waveform diagram showing the first signals S1a and S1b in the second embodiment
  • FIG. 9B is a waveform diagram showing the second signals S2a and S2b
  • FIG. 9D is a correlation diagram of the two signals S2a and S2b
  • FIG. 9D is a correlation diagram of the first signals S1a and S1b.
  • the evaluation apparatus 100 after converting the second signals S2a and S2b, which are rhythm-related quantities, to detect the relationship between them, it is possible to detect synchronization, agreement, and the like. it can.
  • Example 3 In this embodiment, attention is paid to the phase component of the first signal S1 when the second signal S2 that is a rhythm-related quantity is generated.
  • the first signal S1 is the norm of the whirling movement, more specifically the acceleration in the X direction and the Z direction, as in the first and second embodiments.
  • the waveform analysis unit 22 uses, as the second signal S2, the phase at which a predetermined event grasped from the first signal S1 occurs as the phase information. Specifically, the waveform analysis unit 22 detects a clear whirling motion by taking a moving average over a predetermined interval for each of the first signals S1a and S1b and comparing the moving average with a predetermined threshold value. After a clear whispering motion is detected, the moving average is continuously monitored to detect the occurrence time (phase) of the whispering peak. In the third embodiment, the occurrence of a whispering peak is regarded as an event, and the occurrence time of the event is set as the second signal S2.
  • Example 3 An experiment was conducted to verify the validity of Example 3.
  • one of the subjects is a teacher role and the other is a student role, and the subject role 2a explains the predetermined theme, and the student role subject 2b understands it.
  • Lectures are performed via a television monitor, and a unilateral explanation is given from a subject who is a teacher to a subject who is a student.
  • the experiment was conducted with 20 male students in 12 men and 8 females, and 10 pairs were paired as 2 people.
  • FIG. 10 is a waveform diagram illustrating the first signal S1 and the second signal S2 in the third embodiment.
  • the relationship evaluation unit 24 sets the phase difference between the second signals S2a and S2b as the third signal S3.
  • This third signal S3 corresponds to the phase difference of the rhythm of the whirling operation.
  • FIG. 11 is a histogram of the third signal S3.
  • the timing of whispering is also synchronized, so the histogram has a peak at a certain value (0 ms in this example) as shown by the solid line (i) in FIG. It is distributed around it.
  • tuning is not occurring, the timing of whirling varies randomly, so that the histogram is averaged without a peak, as shown by the broken line (ii) in FIG.
  • the interpersonal mental state can be evaluated by paying attention to the phase information as the rhythm-related quantity.
  • Example 4 This embodiment is common to the second embodiment in that attention is paid to the frequency component of the first signal S1 when the second signal S2 that is a rhythm related quantity is generated.
  • attention is paid to the movement of the subject's body instead of the whirling movement, and the X direction, the Y direction (the body left-right direction), and the Z direction obtained from the acceleration sensor attached to the subject's body. This is the norm of acceleration.
  • S1 ⁇ (X 2 (t) + Y 2 (t) + Z 2 (t))
  • the waveform analysis unit 22 converts the first signal S1 into frequency domain data. For example, the waveform analyzer 22 measures the number of times that the first signal S1 crosses its own time average value in a predetermined time interval (for example, 10 seconds), and indicates the frequency (frequency) based on the measured value.
  • the second signal S2 may be acquired.
  • the second signal S2 is an average value over one minute of the frequency measured every 10 seconds.
  • FIG. 12 is a waveform diagram illustrating the first signal S1 and the second signal S2 in the fourth embodiment. In the fourth embodiment, when acquiring the second signal S2, fast Fourier transform may be used.
  • the relationship evaluation unit 24 evaluates the mental state between the plurality of subjects based on the second signal S2 corresponding to the vibration frequency ⁇ of the subject's body movement.
  • FIG. 13 is a diagram illustrating the third signal S3 in the fourth embodiment.
  • attention is focused on the difference ⁇ ij (t) between the frequency ⁇ i (t) of the i-th subject and the frequency ⁇ j (t) of the j-th subject. According to the experiments by the present inventors, it has been found that the smaller the frequency difference ⁇ ij (t), the higher the degree of tuning.
  • the interpersonal mental state can be evaluated by paying attention to the frequency information as the rhythm-related amount, more specifically, the frequency difference of the body movement.
  • Example 5 In this embodiment, as in the fourth embodiment, attention is paid to the frequency information of the body movement, and the frequency ⁇ (t) of the body movement of the subject is used as the second signal S2.
  • the relationship evaluation unit 24 the vibration number ⁇ i (t), in place of the difference [Delta] [omega ij of ⁇ j (t) (t) , vibration frequency omega i (t), paying attention to the variation direction of the omega j (t) To assess the mental state between subjects.
  • the synchronization rate S ij represented by the following equation (1) is defined as an index indicating the degree of synchronization of the i-th and j-th subjects.
  • S ij ⁇ t ⁇ Tij g ( ⁇ x i (t) ⁇ ⁇ x j (t)) /
  • x i (t k) is the amount of change of x i (t k) of the i-th subject is x i (t k) -x i (t k + 1). This can also be grasped as a differential value.
  • the function g (a) is a function that returns +1 when a> 0 and returns ⁇ 1 when a ⁇ 0.
  • T ij represents a time interval.
  • the number vibration is the second signal S2 ⁇ i (t) is utilized, ⁇ x i (t k) corresponds to a frequency change.
  • Example 5 An experiment was conducted to verify the validity of Example 5. In this experiment, a large number of subjects freely communicate with an arbitrary partner. The synchronization rate S ij can be calculated for all subject pairs.
  • FIG. 14A is a waveform diagram showing the second signal S2 in the fifth embodiment
  • FIG. 14B is a histogram of the synchronization rate Sij
  • the first half period T ij NF in FIG. 14A shows a state where the subjects do not face each other
  • the latter half period T ij F shows a state where the subjects face each other
  • FIG. 14B shows a histogram of the synchronization rate S ij NF obtained in the period T ij NF and a histogram of the synchronization rate S ij F obtained in the period T ij F.
  • the second signals S2 i and S2 j change randomly.
  • the synchronization rate S ij approaches zero, so the histogram obtained from multiple subject pairs has a peak near zero.
  • the synchronization rate S ij becomes non-zero, and the peak of the histogram takes a non-zero value.
  • a significant difference between the facing state and the non-facing state is recognized in the histogram of the synchronization rate Sij defined by the equation (1). This indicates that the synchronization rate S ij is useful as the third signal S3 representing the interpersonal mental state.
  • the interpersonal mental state can be evaluated by paying attention to the frequency fluctuation as the rhythm-related amount.
  • the evaluation apparatus 100 can evaluate communication quality for communication between humans and use it for improvement. For example, it can be used to evaluate the activity level of human communication activities in meetings and the like, and to obtain evaluation indices for group activities, and to improve the activity process and environment.
  • the present invention can be used for various purposes, such as evaluation of educational effects between teachers and students, evaluation of satisfaction in presentations, evaluation of confidence in counseling, evaluation of empathy in consensus building.
  • it can be used for monitoring such as isolation in elderly facilities.
  • Mode 1 In the embodiment, the case where attention is paid to the whirling exercise as non-linguistic information reflecting the mental state of the subject has been described in detail, but the present invention is not limited to this.
  • various non-language information reflecting a mental state can be used. Specifically, things that can be visually grasped from the outside of the subject, such as matching, blinking, gaze dwell time, gesture, hand gesture, head swing, trunk swing, gaze movement, A combination of sighs, tone of voice, non-linguistic information related to speech, etc. that can be grasped audibly from the outside of the subject may be used.
  • Modification 2 In the embodiment, the case has been described in which the amplitude of the whirling motion is extracted by taking the time average value of the amplitude of the first signal and the mental state is evaluated, but the present invention is not limited thereto.
  • an individual's evaluation may be an amplitude of a motion rhythm, a frequency, a type of waveform, a frequency spectrum, or the like.
  • the time scale can also be considered in multiple layers, and a rhythm composed of an envelope of a certain rhythm can be regarded as a higher-order rhythm. Therefore, the waveform analysis unit 22 may generate the second signals S2a ′ and S2b ′ reflecting these pieces of information from the first signal S1.
  • the relation including the spatial positional relation of the plurality of subjects 2 may be taken into consideration. For example, consider the case where a plurality of people hold a meeting or a meeting. There is a tendency to gather together when communicating closely, and to sit in the center when a person wants to argue. Furthermore, in the case of clerical communication, the conversation is often performed at a certain distance in a state of facing from the front. However, when a close relationship such as a friend is established, the conversations are arranged side by side in close proximity. Therefore, the spatial positional relationship of the plurality of subjects 2 can be reflected in the evaluation result of the mental state among the plurality of subjects.
  • the circadian rhythm (24-day diurnal rhythm) of the subject 2 may be reflected in the evaluation of the relational and personal aspects of the mental state.
  • the daily activity rhythm of an individual is often synchronized. Some may be forced to synchronize in the middle, such as at work or school, while others may spontaneously synchronize, such as at home.
  • By similarly evaluating the rhythm of such life it is possible to evaluate the mental state related to the relationship between human beings. This is not limited to a 24-hour diurnal rhythm, but can also be applied to a weekly, monthly, or even yearly activity rhythm.
  • Modification 3 In the embodiment, the case where a signal obtained from the same non-linguistic information is used for evaluating the relationship between a plurality of subjects 2 has been described, but the present invention is not limited thereto.
  • the first non-linguistic information for example, whispering movement
  • the first non-linguistic information is obtained for the other subject 2b.
  • second non-verbal information for example, movement of the line of sight
  • a plurality of subjects may communicate through a communication system.
  • a communication system such as a video phone system, a voice phone system, a smart phone, and a tablet terminal.
  • Data obtained by the evaluation device 100 can be used for evaluation of a voice telephone system and a videophone system.
  • Modification 5 In the embodiment, the case where the mental state is evaluated for communication between humans has been described. However, the present invention is not limited to this, and the design and evaluation of media interacting with humans and the evaluation of television media programs Various applications are assumed. Examples of the media include television broadcasting, software such as a DVD, and an electronic learning system.
  • FIG. 15 is a diagram illustrating an evaluation apparatus 100a according to the fifth modification.
  • the subject 2b of the evaluation apparatus 100 of FIG. 2 is replaced with a multimedia device 3 such as a computer, a television, or a tablet.
  • the non-linguistic information measuring unit 10b monitors information dynamics provided from the multimedia device 3 to the subject 2a, for example, an audio signal or an image signal, and generates a first signal S1b corresponding thereto.
  • the evaluation apparatus 100a For example, let us consider a case in which teaching material software used in an educational field is evaluated by the evaluation apparatus 100a.
  • attention can be paid to the volume of the audio signal output from the multimedia device 3.
  • the degree of understanding of the subject 2a and the like can be evaluated from the relative relationship between the dynamics of the volume and the non-linguistic information reflecting the mental information of the subject 2a.
  • the evaluation device can be used as an evaluation system for TV media and other media. Furthermore, by using such evaluation as an index, it can be used for the development of multimedia devices such as TV.
  • DESCRIPTION OF SYMBOLS 100 ... Evaluation apparatus, 2 ... Test subject, 10 ... Non-language information measurement part, 20 ... Signal processing part, 22 ... Waveform analysis part, 24 ... Relationship evaluation part, 26 ... Individual evaluation part.
  • the present invention can be used for a human mental state evaluation technique.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

 評価装置100は、複数の被験者2間のコミュニケーションにおける、被験者2間の関係を評価する。非言語情報測定部10は、複数の被験者2a、2bそれぞれの非言語情報S0a、S0bを観測し、複数の被験者それぞれについて、非言語情報を数値化した時系列信号である第1信号S1a、S1bを生成する。波形解析部22は、複数の被験者それぞれについて得られた第1信号S1a、S1bにもとづいて、複数の被験者2a、2bそれぞれの非言語情報のリズムとしての特性に関連する量である第2信号S2a、S2bを生成する。関係評価部24は、複数の被験者それぞれに対応する複数の第2信号S2a、S2bの相対的な関係にもとづき、複数の被験者の間の関係にかかわる心的状態を示す指標である第3信号S3を生成する。

Description

人間の心的状態の評価装置
 本発明は、人間の心的状態の評価技術に関する。
 人間の心的、精神状態などを、ある指標にもとづいて客観的に、または定量的に評価する技術が求められている。従来、この種の評価(心的状態の評価という)の手法としては、(i)アンケートによるもの、(ii)被験者の脳波、心拍数、血圧、発汗、呼吸、温度、等の生理反応を測定し、それを利用するもの、が知られている。そのほか、(iii)脳波や心拍数などから得られる生理情報や、非言語情報(ため息、頷き、声の調子など)から得られる観測情報と、アンケートなどの主観評価データと、を学習させ、観測情報から心的状態を推定する方法も提案されている(特許文献1参照)。
特開2010-22649号公報 特開2007-97668号公報 特開2013-52049号公報
 しかしながら、アンケートによる手法は、定量性やリアルタイム性の点で問題が残されていた。また、生理反応を測定する手法では、被験者の身体にセンサを接着する必要があり、取り扱い上の問題がある。
 特許文献1、2に記載の技術では、ある被験者の心的状態を評価するために、その被験者自身の状態(生理情報、観測情報などを含む)のみを観測するにとどまっていた。コミュニケーションにおいて個人の心的状態は「人間関係」の中で大きく変化する。その意味で「関係」の評価は重要であるが、従来ではコミュニケーションにおける「関係」まで含めて評価するには至っていなかった。ここでいう「関係」とは、複数の個人(被験者)の間の関係にかかわる心的状態として把握され、コミュニケーションの基盤にあるコンテクスト共有に関わる感覚や情報が対応する。具体的には、共感、信頼感、一体感、居場所感、ライブ感、合意や同意、納得感などが含まれる。これは、個人の心的状態である、相手に対する好悪、興味、認知、不同意(異論)、妥協、理解不能(聞き流し)、疑問(疑惑)などとは区別されるものである。居場所感とは、その場に溶け込んでいるか、ライブ感とは、その場にいることの実感である。
 特許文献3には、対話の同調性を検出する同調性検出装置が開示される。この装置は、第1話者と第2話者それぞれについて生理指標を所定時間測定し、それらを畳み込みすることで、同調性を検出する。この装置は、2人の話者の生理指標の時間軸上のずれが短いほど同調性が高く、そのずれが長いほど同調性が低いことを前提としている。
 本発明者は、特許文献3に記載の技術について検討した結果、以下の課題を認識するに至った。
 図1(a)、(b)は、二人の被験者から得られる生理指標の生データの例を示す波形図である。S1a、S1bは、第1話者、第2話者それぞれから1次的に得られる生理指標の生データを模式的に示す。特許文献3に記載の技術では、図1(a)のケースの方が、図1(b)のケースよりも、同調性が高いと判定される。
 しかしながら本発明者が検討を行ったところ、複数の話者(被験者)の心的状態に着目したとき、必ずしも図1(a)のように生理指標の時間軸上のずれがゼロのときに同調性が高いとは限らず、図1(b)のように、時間軸上のずれは大きくても、波形が近い方が同調性が高いと言える場合もある。このように特許文献3の評価方法では、必ずしも、複数の被験者間の心的状態を反映した指標を得ることができないケースがある。
 本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、従来とは異なるアプローチにより、リアルタイムで複数の個人間の関係を評価する技術の提供にある。
 本発明のある態様は、複数の被験者間のコミュニケーションにおける、被験者間の関係を評価する評価装置に関する。評価装置は、複数の被験者それぞれを観測し、複数の被験者それぞれについて、それぞれから得られる非言語情報を数値化した時系列信号である第1信号を生成する非言語情報測定部と、複数の被験者それぞれについて得られた第1信号にもとづいて、複数の被験者それぞれの非言語情報のリズムとしての特性に関連する量である第2信号を生成する波形解析部と、複数の被験者それぞれに対応する複数の第2信号の相対的な関係にもとづき、複数の被験者の間の関係にかかわる心的状態を示す指標である第3信号を生成する関係評価部と、を備える。
 本発明者は、複数の被験者それぞれについて、各被験者の行動に対応づけて得られる非言語情報の時系列信号、特にそのリズムとしての特性に関連する量(リズム関連量という)の相対的な関係が、被験者間の関係にかかわる心的状態に依存して変化することを見いだした。この態様によれば、複数の被験者について得られる、複数の非言語情報のリズム関連量の相対的な関係に応じた第3信号にもとづいて、被験者間の関係にかかわる心的状態を評価することができる。
 なお、以上の構成要素を任意に組み合わせたもの、あるいは本発明の表現を、方法、装置などの間で変換したものもまた、本発明の態様として有効である。
 本発明のある態様によれば、複数の被験者間の関係を評価できる。
図1(a)、(b)は、二人の被験者から得られる生理指標の生データの例を示す波形図である。 実施の形態に係る評価装置を示す図である。 評価装置の具体的な構成を示す図である。 図4(a)、(b)は、実施例1の実験で得られた第1信号および第2信号の波形図である。 図5(a)は、実施例1の実験で取得された第2信号の波形図であり、図5(b)、(c)は、異なるタイムスロットにおける第2信号の相関図である。 図6(a)、(b)は、実施例2における第2信号を説明する図である。 図7(a)は、実施例2の実験により得られた第2信号の波形図であり、図7(b)は、第3信号の波形図である。 実施例2における第3信号および心的状態の関係を示す波形図である。 図9(a)は、実施例2における第1信号の波形図、図9(b)は、第2信号の波形図であり、図9(c)は、第2信号の相関図であり、図9(d)は、第1信号の相関図である。 実施例3における第1信号と第2信号の波形図である。 実施例3の実験で得られた第3信号のヒストグラムである。 実施例4の実験で得られた第1信号と第2信号の波形図である。 実施例4における第3信号を説明する図である。 図14(a)は、実施例5における第2信号の波形図であり、図14(b)は同期レートのヒストグラムである。 変形例5に係る評価装置を示す図である。
 以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
 本発明者が検討を行ったところ、人間の興味や感情などの心理的な活動、すなわち心的状態は、人間の行動、すなわち非言語(ノンバーバル)情報のダイナミクスに反映される。たとえば相づちや頷きなどコミュニケーション時に発生するリズムは身近な現象であるが、本発明はそのような非言語情報のダイナミクスに注目し、そのリズムを解析し、心的状態を推定する。
 図2は、実施の形態に係る評価装置100を示す図である。評価装置100は、複数の人間(被験者)2a、2b間のコミュニケーションにおける、各被験者2a、2bの心的状態を評価する。ここでいう心的状態とは、個人としての側面と、人間関係としての側面に分類することができ、評価装置100は、後者の人間関係の側面を評価することを主たる目的とする。また、ここでの心的状態は、知的活動状態の評価に限定されるものではなく、感情や共感、一体感など、人間の潜在的状態も含みうる。
 さらに本発明者は、心的状態のうち、個人としての側面(本明細書において、心的状態の個人的側面ともいう)は、各被験者から得られる非言語情報のダイナミクスの振幅、振動数などに反映され、人間関係の側面(心的状態の関係的側面ともいう)は、複数の被験者2について得られる複数の非言語情報の相対的な関係、特に、リズムとして把握される量同士の関係に反映される傾向が強いことを見いだした。実施の形態に係る評価装置100は、かかる知見にもとづいて、複数の被験者2の心的状態を評価する。
 具体的には評価装置100は、複数の被験者2a、2bによる対人コミュニケーションにおける、被験者間の関係を評価する。被験者間の関係、すなわち被験者間の関係にかかわる心的状態とは、共感、信頼感、一体感、居場所感、ライブ感、合意や同意、納得感などが例示され、評価装置100はそれらのうちのひとつ、あるいは任意の組み合わせを評価する。被験者間の関係にかかわる心的状態は、個々の心的状態、たとえば各人が相手に抱く感情とは区別されるものである。
 本実施の形態では、理解の容易化と説明の簡素化のため、被験者が2名の場合を例に説明をする。
 被験者2a、2bは、たとえば同じ空間で対面しており、コミュニケーションを行っている。コミュニケーションの種類は特に限定されず、たとえば、日常会話、ディスカッション、プレゼンテーション、レクチャー、など、さまざまなものが含まれる。
 また、必ずしも被験者2a、2bは、同じ空間に存在することは要求されず、電話やテレビ会議システムを介してコミュニケーションを行う場合にも、評価装置100は利用可能である。
 実施の形態に係る評価装置100は、被験者2a、2bの生理情報ではなく、被験者の外部から視覚的、聴覚的に、あるいはそれらに類して観測可能な非言語情報を監視する。観測可能な非言語情報とは、頷き動作、身振り、手振り、体幹の動き、視線の滞留時間、声の調子、ため息、ターンテーキングに関わる非言語情報(発話長やポーズ長、発話速度や発話タイミングなど)、あるいは声のピッチやイントネーションなど発話に関する非言語情報等が例示される。
 非言語情報測定部10は、カメラやマイク、運動計測にかかわるセンサ(加速度センサ、速度センサ、ジャイロスコープ)、空間での位置計測にかかわるセンサ、その他のセンサを含み、各被験者2a、2bから得られる非言語情報S0a、S0bを観測し、非言語情報を数値化した時系列信号(以下、第1信号S1と称する)を生成する。非言語情報測定部10の種類は、観測すべき非言語情報S0に応じて選択すればよい。この第1信号S1は、特許文献3でいうところの生理指標に相当することに留意されたい。
 信号処理部20は、複数の第1信号S1a、S1bにもとづいて、複数の被験者2の間の心的状態の指標となる第3信号S3を生成する。また、信号処理部20は、第1信号S1にもとづいて、複数の被験者2それぞれの心的状態を示す第4信号S4a、S4bを生成する。以上が評価装置100の概要である。
 図3は、評価装置100の具体的な構成を示す図である。
 評価装置100は、非言語情報測定部10、波形解析部22、関係評価部24、個人評価部26を備える。
 上述したように、非言語情報測定部10は、複数の被験者2a、2bそれぞれから得られる非言語情報を観測し、複数の被験者2a、2bそれぞれについて、非言語情報を数値化した時系列信号である第1信号S1a、S1bを生成する。
 図2の信号処理部20は、波形解析部22、関係評価部24、個人評価部26を含む。被験者の行動を数値化した第1信号S1がそのまま、被験者2の心的状態を評価するために適していることは稀である。そこで波形解析部22は、第1信号S1にもとづいて、第2信号S2を生成する。第2信号S2は、非言語情報のリズムとしての特性に関連する時系列信号(リズム関連量)である。
 非言語情報のリズム関連量である第2信号S2としては、以下が例示される。
 (i)第1信号S1を区間ごとに統計処理、信号処理した時系列信号
 たとえば、第1信号を、平均や分散、標準偏差を計算し、あるいはフィルタリングすることで第2信号を生成してもよい。
 (ii)第1信号S1を時間微分、時間積分した時系列信号
 たとえば、第1信号が速度のディメンジョンを有する場合、第2信号S2は、加速度や変位のディメンジョンを有する。
 (iii)第1信号S1を粗視化した時系列信号
 この場合の第2信号S2としては、第1信号S1の包絡線などが例示される。
 (iv)第1信号S1の波形を示す情報に関する時系列信号
 具体的には(iv-1)波形の種類、(iv-2)スペクトル、(iv-3)周波数、(iv-4)デューティ比、(iv-5)振幅、(iv-6)波形パターンの幾何学的特徴の抽出、などが例示される。
 たとえば、「タン、タン、タン」というリズムと、「タタタ」というリズムは異なって認識される。第2信号S2は、(i)~(iv)に例示した信号のうち、このようなリズムの相違を表現しうる情報を含むデータとなる。本発明者が得た知見によれば、第2信号S2としては、
 (a) 第1信号S1の周波数情報の時系列データ
 (b) 第1信号S1の位相情報の時系列データ
 (c) (a)、(b)の組み合わせ
のいずれかが好適である。
 (a)としては、(a-1)特定の周波数に着目したときの、その周波数成分の強度(振幅あるいはパワースペクトル)の時系列データ、あるいは(a-2)最大強度をとる周波数成分の時系列データ、などが好適である。
 (b)としては、(b-1)特定の周波数(あるいは周波数帯域)の位相の時系列データ、あるいは(b-2)第1信号S1から把握される所定のイベントが発生する位相の時系列データなどが好適である。
 当業者であれば、ここに例示される以外にも、リズム関連量として利用可能な信号が存在することが理解され、それらも本発明の範囲に含まれる。また、第2信号S2の生成方法(信号処理方法)は、第2信号S2の種類に応じて選択すればよく、特に限定されない。
 関係評価部24は、複数の被験者2a、2bそれぞれに対応する複数の第2信号S2a、S2bの相対的な関係にもとづいて、複数の被験者2a、2bの間の心的状態を示す指標である第3信号S3生成する。ここで、複数の第2信号S2a、S2bの相対的な関係は、(i)同期の程度、(ii)位相差、(iii)相関関係、(iv)周波数の関係、(v)位相の関係、(vi)振幅の関係、(vii)波形パターンとしての幾何学的特徴量の関係のいずれか、またはそれらの任意の組み合わせを含む。詳しくは、後述するように、複数の被験者がコミュニケーションをとる際には、合意が形成される過程においては、各被験者のリズム関連量の位相差が安定し、あるいは、振動数(周波数)が近接し、あるいは、それらの相関強度が強くなることが事前検証によって確認されている。
 たとえば、複数の第2信号S2a、S2bの相対的関係と、複数の被験者の間の心的状態との対応は、事前の実験、検証によりあらかじめ学習しておき、それをデータベースに蓄積してもよい。また評価装置100を実際に運用するに当たり、新たに得られた対応を学習し、データベースに蓄積してもよい。
 第3信号S3は、共感、信頼感、一体感、居場所感、ライブ感、合意や同意、納得感などの、個人の間の心的状態の指標であり、1、0の2値、あるいは多値データとして、あるいはベクトル量として取得される。
 非言語情報である第1信号の種類、それから得られるリズム関連量である第2信号の種類、複数の第2信号の相対的な関係の種類は、最終的に評価すべき複数の被験者2a、2bの間の心的状態の種類に応じて選択、決定され、これらは事前の実験、検証の結果を考慮して定めることになる。
 個人評価部26は、複数の被験者2a、2bそれぞれについて得られた第2信号S2a’、S2b’にもとづき、複数の被験者2a、2bそれぞれについて、それぞれの心的状態を示す指標である第4信号S4a、S4bを生成する。個人評価部26に入力される第2信号S2a’、S2b’は、関係評価部24に入力されるS2a、S2bと同じ信号であってもよいし、波形解析部22によって異なる信号処理を受けた信号であってよい。
 以上が評価装置100の構成である。
 以下、複数の被験者の間の心的状態として、それらの間の合意度を評価する場合について説明する。
 本発明者が検討したところ、合意度を評価する場合、非言語情報測定部10が測定する非言語情報S0として、被験者2の頷き動作が有用であることを独自に認識した。
 非言語情報測定部10は、複数の被験者2a、2bそれぞれの頷き運動、すなわち顎の動きを測定し、それを数値化した第1信号S1a、S1bを生成する。非言語情報測定部10は、カメラと画像処理装置の組み合わせで構成することができる。カメラは、被験者ごとに設けてもよいし、1台のカメラで複数の被験者の頷き動作をまとめて観測してもよい。また状況が許容する場合、被験者2a、2bに速度センサや加速度センサを取り付けることにより、頷き運動S0a、S0bを測定してもよい。
 なお、後述するように、複数の被験者2a、2bの空間的な位置関係を考慮する場合、位置センサを設けてもよい。
 波形解析部22は、複数の被験者2a、2bそれぞれについて得られた第1信号S1a、S1bを受け、所定の信号処理を施す。以下、信号処理の具体例について、いくつかの実施例をもとに説明する。
(実施例1)
 第1信号S1a、S1bは、現実に2人の被験者2が対面対話を行う状況において、頷き運動を測定して数値化したものである。実施例1において、波形解析部22は、第1信号S1の振幅を時間平均することにより、第2信号S2を生成する。
 実施例1の妥当性を検証するために実験を行った。この実験では、被験者の一方が教師役、他方が生徒役となり、教師役の被験者2aが所定のテーマに関する説明を行い、生徒役の被験者2bがそれを理解する。教師役のみの発話が許可されている。実験は男性12名、女性8名の20代学生を対象として行い、2人一組として10ペアについて行った。
 この実験では、3次元加速度センサが被験者2a、2bには取り付けられる。より詳しくは、鉛直方向にX軸を、視線方向にZ軸をとったときに、X方向の加速度x(t)と、Z方向の加速度z(t)を測定し、それらのノルム√(x(t)+z(t))を第1信号S1とした。
 図4は、実施例1において、実験1により得られた第1信号S1と、第1信号S1から得られる第2信号S2を示す波形図である。
 実施例1において、第2信号S2a、S2bは、非言語情報測定部10によって得られた第1信号S1a、S1bの、0.6秒ごとの標準偏差(SD)を計算することにより生成される。これは頷きの振幅に相当する量であり、頷きが発生する時間区間においては、加速度の変化が大きくなるため、第2信号S2は、頷き運動のリズム関連量となる。
 事後検証によれば、2人の被験者2a、2bについて得られた第2信号S2a、S2bに着目すると、合意度が低い期間T1では、2つの第2信号S2a、S2b、つまり頷き運動の振幅が同調していない。一方、合意度が高い後半の期間T2では、2つの第2信号S2a、S2b、すなわち頷き運動の振幅が期間T1に比べて同調している。すなわち合意形成プロセスにおいては、複数の被験者の頷き運動の振幅の時間波形が、非同調状態から同調状態に変化する可能性が示唆される。
 関係評価部24は、2人の被験者2a、2bについて得られた第2信号S2a、S2bの相対的な関係、具体的には、同調の有無にもとづいて、被験者2a、2bの間の関係を示す指標である第3信号S3を生成する。
 2つの時系列信号が与えられたときに、それらの同調、同期の程度を評価する手法については公知の技術を用いればよく、本発明において特に限定されない。たとえば2つの波形の相関度(相関係数r)を計算したり、単純に2つの信号の差分波形を計算し、差分波形にもとづいて2つの信号の同調、同期の程度を評価してもよい。
 本実施例において関係評価部24は、時間スロットTSごとに第2信号S2a、S2bの相関係数rを計算する。
 図5(a)は、実施例1の実験で取得された第2信号S2の波形図であり、図5(b)、(c)は、異なるタイムスロットにおける第2信号S2の相関図である。タイムスロットの長さは15秒である。
 タイムスロットTS1では、相関係数rは0.007と小さく、タイムスロットTS2では、相関係数rは0.345(p<0.001)であり、強い相関がみられる。
 また、統計的有意性の指標であるp値を計算すると、タイムスロットTS2ではp値は<0.001となり、統計的有意性が高いことがわかる。
 実験の後に、被験者2a、2bに対するヒアリング検証を行った。生徒役の理解の状態を評価することにより、タイムスロットごとに共感度を評価したところ、第2信号S2a、S2b(つまり頷きの振幅)が大きくなるタイムスロットではそれらの相関が強くなり、さらに相関係数rが大きなタイムスロットにおいて、共感的なコミュニケーションが成立する傾向があることが見いだされた。つまり、この実施例で得られる相関係数rは、被験者間のインターパーソナルな心的状態を表す指標であることが裏付けられる。そこで関係評価部24は、相関係数rを、第3信号S3として出力してもよいし、相関係数rを離散値化して出力してもよい。
 以上をまとめると、頷き運動の振幅の時間波形を、第2信号S2として利用し、複数の被験者2それぞれについて得られる第2信号S2の同調の程度を評価することにより、複数の被験者2の心的状態のうち関係性を示す指標として、同意の程度を推定することができる。
(実施例2)
 この実施例では、リズム関連量である第2信号S2を生成する際に、第1信号S1の周波数成分に着目する。第1信号S1は、実施例1と同様に頷き運動、より具体的にはX方向およびZ方向の加速度のノルムである。波形解析部22は、第1信号S1を周波数領域のデータに変換する。これには高速フーリエ変換などが利用できる。
 図6(a)、(b)は、実施例2における第2信号S2を説明する図である。図6(a)には、第1信号S1が、図6(b)には、第1信号S1をフーリエ変換した周波数領域データF(t,f)が示される。図6(b)は、横軸が時間、縦軸が周波数であり、濃淡が周波数領域データF(t,f)の強度(パワースペクトル)を示す。頷き運動は、2~4Hzの周波数成分が支配的である。そこで、図6(b)において、2~4Hzの周波数帯域のエネルギー(パワー)を周波数方向に積分することにより、リズム関連量である第2信号S2を生成してもよい。
 S2(t)=∫F(t,f)df
 実施例2の妥当性を検証するために、以下の実験を行った。この実験は、2人の被験者が協力することにより、ひとつの課題を解決するというものである。2人の被験者は自由に会話することが許されており、双方的なコミュニケーションが行われる点で、実施例1における実験と異なっている。課題としては、あるマンションの見取り図やその他の情報が与えられた状況下で、2人の被験者が協力してその家賃を推定するというものである。実験は男性6名、女性4名の20代学生を対象として行い、2人一組として5ペアについて行った。
 図7(a)は、実施例2において実験により得られた第2信号S2a、S2bを示す波形図であり、図7(b)は、第3信号S3を示す波形図である。第3信号S3は、第2信号S2a、S2bの所定の時間区間ごとに相関係数rを計算し、それを閾値判定することにより、インターパーソナルな心的状態を、同調状態(1)と非同調状態(0)の2値で表したものである。
 図8は、第3信号S3および心的状態の関係を示す波形図である。心的状態は、事後アンケートにより、2人の被験者が各時間帯の合意度を1~5の5段階で評価した値の平均値である。約15分のディスカッションにおいて、合意度が相対的に低い前半(1~6分)の5分間では、第3信号S3が1となる頻度が低い。これに対して合意度が相対的に高くなる後半(10~15分)の5分間では、第3信号S3が1となる頻度が高い。したがって、第3信号S3そのもの、あるいはそれを時間的に平均して得られる数値は、複数の被験者2の間のインターパーソナルな心的状態を表しているといえる。
 ここで、特許文献3に記載される従来技術に対する、実施の形態に係る評価装置100の利点を説明する。
 図9(a)は、実施例2における第1信号S1a、S1bを示す波形図、図9(b)は、第2信号S2a、S2bを示す波形図であり、図9(c)は、第2信号S2a、S2bの相関図であり、図9(d)は、第1信号S1a、S1bの相関図である。図9(d)から計算した相関係数はr=0.05であり、2つの信号の間に相関関係は認められない。すなわち従来技術では、被験者から1次的に得られた生データである第1信号S1a、S1bの相関に着目するに過ぎないため、同調や合意が生じている場合においても、それを検出できない場合がある。これに対して実施の形態に係る評価装置100によれば、リズム関連量である第2信号S2a、S2bに変換した後に、それらの関係性を評価するため、同調や合意などを検出することができる。
(実施例3)
 この実施例では、リズム関連量である第2信号S2を生成する際に、第1信号S1の位相成分に着目する。第1信号S1は、実施例1、2と同様に頷き運動、より具体的にはX方向およびZ方向の加速度のノルムである。
 リズムは、周波数情報のみでなく、位相情報としても把握することができる。実施例3において波形解析部22は、位相情報として、第1信号S1から把握される所定のイベントが発生する位相を第2信号S2として利用する。具体的には波形解析部22は、第1信号S1a、S1bそれぞれについて、所定区間にわたる移動平均をとり、移動平均を所定のしきい値と比較することにより、明確な頷き運動を検出する。そして、明確な頷き運動が検出された後、移動平均を継続的に監視することにより、頷きのピークの発生時刻(位相)を検出する。実施例3では、頷きのピークの発生をイベントとしてとらえ、当該イベントの発生時刻を第2信号S2とする。
 実施例3の妥当性を検証するために実験を行った。この実験では、被験者の一方が教師役、他方が生徒役となり、教師役の被験者2aが所定のテーマに関する説明を行い、生徒役の被験者2bがそれを理解する。レクチャはテレビモニタを介して行われ、教師役の被験者から、生徒役の被験者に対して一方的に説明が行われる。実験は男性12名、女性8名の20代学生を対象として行い、2人一組として10ペアについて行った。
 図10は、実施例3における第1信号S1と第2信号S2を示す波形図である。
 関係評価部24は、第2信号S2a、S2bの位相差を第3信号S3とする。この第3信号S3は、頷き動作のリズムの位相差に相当する。図11は、第3信号S3のヒストグラムである。二人の被験者間にインターパーソナルな同調が生じている場合、頷きのタイミングもシンクロすることから、図11に実線(i)で示すように、ヒストグラムはある値(この例では0ms)にピークをもち、それを中心として分布する。これに対して同調が生じていない場合、頷きのタイミングはランダムに変動することから、図11に破線(ii)で示すように、ヒストグラムはピークをもたずに平均化される。
 このように実施例3によれば、リズム関連量として位相情報に着目することにより、インターパーソナルな心的状態を評価できる。
(実施例4)
 この実施例では、リズム関連量である第2信号S2を生成する際に第1信号S1の周波数成分に着目する点で実施例2と共通する。第1信号S1としては、頷き運動に代えて、被験者の体の動きに着目しており、被験者の体に取り付けられた加速度センサから得られるX方向、Y方向(体左右方向)、Z方向の加速度のノルムである。
 S1=√(X(t)+Y(t)+Z(t))
 波形解析部22は、第1信号S1を周波数領域のデータに変換する。たとえば波形解析部22は、所定の時間区間(たとえば10秒)において、第1信号S1が、それ自身の時間平均値とクロスする回数を測定し、測定値にもとづいて振動数(周波数)を示す第2信号S2を取得してもよい。たとえば第2信号S2は、10秒ごとに測定される振動数の、1分間にわたる平均値である。図12は、実施例4における第1信号S1と第2信号S2を示す波形図である。なお、実施例4において第2信号S2を取得する際に、高速フーリエ変換を利用してもよい。
 関係評価部24は、被験者の体の動きの振動数ωに応じた第2信号S2にもとづいて、複数の被験者間の心的状態を評価する。図13は、実施例4における第3信号S3を説明する図である。この実施例4では、i番目の被験者の振動数ω(t)と、j番目の被験者の振動数ω(t)の差Δωij(t)に着目する。本発明者の実験によれば、振動数差Δωij(t)が小さいほど、同調度が高いという知見が得られている。
 このように実施例4によれば、リズム関連量として周波数情報、より具体的には体の動きの周波数の差分に着目することにより、インターパーソナルな心的状態を評価できる。
(実施例5)
 この実施例においても、実施例4と同様に、体の動きの周波数情報に着目し、第2信号S2として、被験者の体の動きの振動数ω(t)を利用する。
 そして関係評価部24は、振動数ω(t)、ω(t)の差Δωij(t)に代えて、振動数ω(t)、ω(t)の変動方向に着目して、被験者間の心的状態を評価する。
 本実施例では、i番目とj番目の被験者の同調度を示す指標として、以下の式(1)で表される同期レートSijを定義した。
 Sij=Σt∈Tij g(Δx(t)・Δx(t))/|Tij|  …(1)
 x(t)はi番目の被験者から得られた第2信号であり、サンプリング周期をΔtとすれば、t=k×Δtである。Δx(t)は、i番目の被験者のx(t)の変動量であり、x(t)-x(tk+1)である。これは微分値とも把握できる。関数g(a)は、a>0のとき+1を、a<0のとき-1を返す関数である。Tijは、時間区間を表す。x(t)として、第2信号S2である振動数ω(t)が利用され、Δx(t)は、振動数変動に相当する。
 実施例5の妥当性を検証するために実験を行った。この実験は、多数の被験者が、任意の相手と自由にコミュニケーションをとる。同期レートSijは、すべての被験者のペアついて計算することができる。
 図14(a)は、実施例5における第2信号S2を示す波形図であり、図14(b)は同期レートSijのヒストグラムである。図14(a)の前半の期間Tij NFは、被験者同士が対面していない状態を、後半の期間Tij は、被験者同士が対面した状態を示す。図14(b)には、期間Tij NFにおいて得られた同期レートSij NFのヒストグラムと、期間Tij において得られた同期レートSij のヒストグラムと、が示される。
 i番目とj番目の被験者が非対面の状態では、第2信号S2、S2はランダムに変化する。したがって同期レートSijはゼロに近づき、したがって複数の被験者のペアから得られるヒストグラムはゼロ付近にピークを有する。一方、対面状態では、第2信号S2、S2が同調して変化する傾向が強まるため、同期レートSijは非ゼロとなり、ヒストグラムのピークは非ゼロの値をとる。図14(b)から明らかなように、式(1)で定義される同期レートSijのヒストグラムには、対面状態と非対面状態とで有意な差が認められる。このことは、同期レートSijがインターパーソナルな心的状態を表す第3信号S3として有用であることを示している。
 このように実施例5によれば、リズム関連量として周波数変動に着目することにより、インターパーソナルな心的状態を評価できる。
 実施の形態に係る評価装置100は、人間同士のコミュニケーションを対象として、そのコミュニケーションの質を評価し、その改善に役立てることができる。たとえば、会議などにおける人間のコミュニケーション活動の活性度評価や、グループ活動の評価指標を求め、その活動プロセスや環境の改善に使用できる。あるいは、教師と生徒のあいだでの教育効果の評価や、プレゼンにおける納得の評価、カウンセリングにおける信頼感の評価、合意形成における共感の評価など、本発明の用途は多岐にわたる。さらに、高齢者施設における孤立防止など見守りにも活用可能である。
 以上、本発明について、実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。以下、こうした変形例について説明する。
(変形例1)
 実施の形態では、被験者の心的状態を反映する非言語情報として、頷き運動に着目する場合について詳細に説明したが、本発明はそれには限定されない。着目する第1信号としては、心的状態が反映されるさまざまな非言語情報が利用できる。具体的には、相づち、まばたき、視線の滞留時間、身振り、手振り、首振り、体幹の揺れ、視線の動き、など、被験者の外部から視覚的に把握できるものや、会話のターンテーキング、ため息、声の調子、発話に関する非言語情報など、被験者の外部から聴覚的に把握できるもの、それらの組み合わせを利用してもよい。当業者によれば、事前の実験、検証から得られた経験則、学習にもとづいて、いずれの非言語情報に被験者のどのような心的状態が反映されるかを把握することができ、したがって、評価すべき心的状態に応じて、適切な非言語情報を選択すればよいことが理解される。
(変形例2)
 実施の形態では、第1信号の振幅の時間平均値をとることにより頷き運動の振幅を抽出し、心的状態を評価する場合を説明したが、本発明はそれには限定されない。波形解析部22によるリズム解析には様々な可能性がある。具体的には、個人の評価としては運動リズムの振幅や振動数や波形の種類、周波数スペクトルなどが考えられる。また時間スケールも重層的に考えることが可能であり、あるリズムの包絡線から構成されるリズムも高次のリズムとみなすことが可能である。したがって波形解析部22によって、第1信号S1から、これらの情報が反映された第2信号S2a’、S2b’を生成してもよい。
 また、心的状態の関係的側面の評価においては、リズムの同調関係や位相関係に加えて、複数の被験者2の空間的な位置関係なども含めた関係性を考慮してもよい。
 たとえば複数の人間が会議、打ち合わせを行う場合を考察する。コミュニケーションを密にとる場合には寄せ集まり、ある人間が主張したい場合には中央に座る、共感すると、相互の距離は近くなり、反感すると相互の距離は離れるといった傾向がある。さらに、事務的なコミュニケーションの場合は正面から対面する状態で一定距離離れて会話することが多いが、友人など親しい関係になると側面方向に並び近接して会話することになる。
そこで、複数の被験者2の空間的な位置関係を、複数の被験者の間の心的状態の評価結果に反映させることができる。
 さらに心的状態の関係的側面、個人的側面の評価においては、被験者2の概日リズム(24時間の日周リズム)などを反映させてもよい。社会生活の中で、個々人の一日の生活活動リズムは同調することが多くなる。職場や学校のように半ば強制的に同期させられる場合もあれば、家庭のように自発的に同調することもある。このような生活のリズムに関しても同様に評価することで、人間のあいだの関係に関わる心的状態を評価することができる。これは24時間の日周リズムに限られず、1週間や1か月、さらには年単位の活動リズムに関しても適用可能である。
(変形例3)
 実施の形態では、複数の被験者2の関係の評価に、同一の非言語情報から得られる信号を利用する場合を説明したが、本発明はそれには限定されない。たとえば、一方の被験者2aの心的状態を評価するに当たり、その被験者2aについては第1の非言語情報(たとえば、頷き運動)を観測し、別の被験者2bについては、第1の非言語情報とは異なる第2の非言語情報(たとえば、視線の動き)を観測し、それぞれで得られた第2信号S2a、S2bの相対的な関係にもとづいて、心的状態の関係的側面を評価してもよい。
(変形例4)
 実施例3で説明したように、複数の被験者は、通信システムを介してコミュニケーションをとってもよい。近年、ビジネスや教育の分野においても、遠隔地の人間同士が、テレビ電話システムや音声電話システム、スマートホン、タブレット端末などの通信システムを通じてコミュニケーションをとることが頻繁に行われている。評価装置100により得られるデータは、音声電話システムや、テレビ電話システムの評価に役立てることもできる。
(変形例5)
 実施の形態では、人間同士のコミュニケーションを対象として、心的状態を評価する場合を説明したが、本発明はそれには限定されず、人間と相互作用するメディアの設計・評価やテレビメディア番組の評価など多様な応用が想定される。メディアは、テレビ放送や、DVDなどのソフト、電子学習システムなどが例示される。
 図15は、変形例5に係る評価装置100aを示す図である。
 図15の評価装置100aでは、図2の評価装置100の被験者2bがコンピュータやテレビ、タブレットなどのマルチメディアデバイス3に置換される。そして、非言語情報測定部10bは、マルチメディアデバイス3から被験者2aに提供される情報のダイナミクス、たとえば音声信号や画像信号を監視し、それに応じた第1信号S1bを生成する。
 たとえば教育現場で使用される教材ソフトを評価装置100aによって評価する場合を考える。この場合、たとえばマルチメディアデバイス3から出力される音声信号の音量に着目することができる。この場合、音量のダイナミクスと、被験者2aの心的情報が反映される非言語情報を測定することで、それらの相対的な関係から、被験者2aの理解度などを評価しうる。
 このように、評価装置は、TVメディアやその他のメディアに対する評価システムとして用いることができる。さらに、このような評価を指標とすることで、TVなどマルチメディアデバイスの開発にも活用できる。
 実施の形態にもとづき、具体的な語句を用いて本発明を説明したが、実施の形態は、本発明の原理、応用を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
100…評価装置、2…被験者、10…非言語情報測定部、20…信号処理部、22…波形解析部、24…関係評価部、26…個人評価部。
 本発明は、人間の心的状態の評価技術に利用できる。

Claims (6)

  1.  複数の被験者間のコミュニケーションにおける、被験者間の関係を評価する評価装置であって、
     前記複数の被験者それぞれを観測し、前記複数の被験者それぞれについて、それぞれから得られる非言語情報を数値化した時系列信号である第1信号を生成する非言語情報測定部と、
     前記複数の被験者それぞれについて得られた前記第1信号にもとづいて、前記複数の被験者それぞれの前記非言語情報のリズムとしての特性に関連する量である第2信号を生成する波形解析部と、
      前記複数の被験者それぞれに対応する複数の第2信号の相対的な関係にもとづき、前記複数の被験者の間の関係にかかわる心的状態を示す指標である第3信号を生成する関係評価部と、
     を備えることを特徴とする評価装置。
  2.  前記第2信号は、前記第1信号の周波数情報および/または位相情報にもとづいて生成されることを特徴とする請求項1に記載の評価装置。
  3.  前記複数の第2信号の相対的な関係は、(i)同期の程度、(ii)位相差、(iii)相関関係、(iv)周波数の関係、(v)位相の関係、(vi)振幅の関係、(vii)波形パターンとしての幾何学的特徴量の関係のいずれか、またはそれらの任意の組み合わせを含むことを特徴とする請求項1または2に記載の評価装置。
  4.  前記関係評価部は、共感、信頼感、一体感、居場所感、ライブ感、合意や同意、納得感のいずれかを評価することを特徴とする請求項1から3のいずれかに記載の評価装置。
  5.  前記関係評価部は、前記複数の第2信号の相対的な関係に加えて、前記複数の被験者の空間的な位置関係にもとづいて、前記第3信号を生成することを特徴とする請求項1から4のいずれかに記載の評価装置。
  6.  前記複数の被験者それぞれについて得られた第2信号にもとづき、前記複数の被験者それぞれについて、各被験者の心的状態を示す指標である第4信号を生成する個人評価部をさらに備えることを特徴とする請求項1から5のいずれかに記載の評価装置。
PCT/JP2013/007352 2012-12-15 2013-12-13 人間の心的状態の評価装置 WO2014091766A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014551900A JP6249490B2 (ja) 2012-12-15 2013-12-13 人間の心的状態の評価装置
EP13861653.7A EP2932899A4 (en) 2012-12-15 2013-12-13 APPARATUS FOR EVALUATING A HUMAN MENTAL CONDITION
US14/652,376 US20150327802A1 (en) 2012-12-15 2013-12-13 Evaluation apparatus for mental state of human being
KR1020157018830A KR20150097632A (ko) 2012-12-15 2013-12-13 인간의 심적 상태의 평가 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012274147 2012-12-15
JP2012-274147 2012-12-15

Publications (1)

Publication Number Publication Date
WO2014091766A1 true WO2014091766A1 (ja) 2014-06-19

Family

ID=50934072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/007352 WO2014091766A1 (ja) 2012-12-15 2013-12-13 人間の心的状態の評価装置

Country Status (5)

Country Link
US (1) US20150327802A1 (ja)
EP (1) EP2932899A4 (ja)
JP (1) JP6249490B2 (ja)
KR (1) KR20150097632A (ja)
WO (1) WO2014091766A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5799351B1 (ja) * 2014-12-09 2015-10-21 株式会社センタン 評価装置および評価方法
JP2016039842A (ja) * 2014-08-12 2016-03-24 国立大学法人大阪大学 会話評価装置、会話評価システム、及び、会話評価方法
JP2017162100A (ja) * 2016-03-08 2017-09-14 富士通株式会社 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置
CN108028051A (zh) * 2015-09-15 2018-05-11 雅马哈株式会社 评估装置和记录介质
JP2018143318A (ja) * 2017-03-02 2018-09-20 大学共同利用機関法人自然科学研究機構 環境共有レベル判定装置
JP2018147063A (ja) * 2017-03-02 2018-09-20 マツダ株式会社 情報制御装置
WO2018174088A1 (ja) * 2017-03-21 2018-09-27 国立大学法人東京工業大学 コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置
CN108601567A (zh) * 2016-02-09 2018-09-28 Pst株式会社 推测方法、推测程序、推测装置及推测系统
JP2019040525A (ja) * 2017-08-28 2019-03-14 パナソニックIpマネジメント株式会社 相性分析システム、相性分析装置、相性分析方法、及びプログラム
JP2019072371A (ja) * 2017-10-18 2019-05-16 株式会社日立製作所 システム及び意思疎通を図るために行うアクションの評価方法
JP2019200475A (ja) * 2018-05-14 2019-11-21 富士通株式会社 活性度評価プログラム、装置、及び方法
JP2022120787A (ja) * 2021-02-05 2022-08-18 ダイキン工業株式会社 学習装置および評価情報出力装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10368792B2 (en) * 2015-06-02 2019-08-06 The Charles Stark Draper Laboratory Inc. Method for detecting deception and predicting interviewer accuracy in investigative interviewing using interviewer, interviewee and dyadic physiological and behavioral measurements
JP6689215B2 (ja) * 2017-01-25 2020-04-28 株式会社日立製作所 システム及び対話情報の出力方法
US20190102737A1 (en) * 2017-10-03 2019-04-04 International Business Machines Corporation Methods and systems for receiving feedback
WO2019226557A1 (en) 2018-05-22 2019-11-28 Boston Scientific Neuromodulation Corporation Adjustment of analgesic stimulation parameters based on trust dynamic measurements
WO2019246239A1 (en) 2018-06-19 2019-12-26 Ellipsis Health, Inc. Systems and methods for mental health assessment
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
WO2022230068A1 (ja) * 2021-04-27 2022-11-03 株式会社I’mbesideyou 動画像分析プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097668A (ja) 2005-09-30 2007-04-19 Fujifilm Corp 状態識別装置、プログラムおよび方法
JP2010016796A (ja) * 2008-06-06 2010-01-21 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP2010022649A (ja) 2008-07-22 2010-02-04 Nippon Telegr & Teleph Corp <Ntt> 指標選択装置及び方法ならびにコンピュータプログラム
JP2011008393A (ja) * 2009-06-24 2011-01-13 Nec Corp グループ管理支援装置、グループ管理支援方法およびプログラム
JP2012079265A (ja) * 2010-10-06 2012-04-19 Nec Corp 関係性判定装置、関係性判定システム、関係性判定方法および関係性判定プログラム
JP2012128882A (ja) * 2012-03-22 2012-07-05 Hitachi Ltd 組織コミュニケーション可視化システム
JP2013052049A (ja) 2011-09-02 2013-03-21 National Institute Of Information & Communication Technology 対人コミュニケーションにおける同調性検出装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004007539A (ja) * 2002-04-19 2004-01-08 Sumitomo Electric Ind Ltd ビジュアル情報の記録/再生方法、その装置及び通信システム
US9514436B2 (en) * 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US20100004977A1 (en) * 2006-09-05 2010-01-07 Innerscope Research Llc Method and System For Measuring User Experience For Interactive Activities
US20080183525A1 (en) * 2007-01-31 2008-07-31 Tsuji Satomi Business microscope system
CN101917898A (zh) * 2007-10-31 2010-12-15 埃姆申塞公司 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法
JP2009129338A (ja) * 2007-11-27 2009-06-11 Sony Corp 対人関係評価装置、対人関係評価方法、対人関係評価システム、端末装置
US8615479B2 (en) * 2007-12-13 2013-12-24 The Invention Science Fund I, Llc Methods and systems for indicating behavior in a population cohort
US20090318773A1 (en) * 2008-06-24 2009-12-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Involuntary-response-dependent consequences
WO2010113614A1 (ja) * 2009-04-03 2010-10-07 株式会社日立製作所 コミュニケーション支援装置、コミュニケーション支援システム、及びコミュニケーション支援方法
CN102237081B (zh) * 2010-04-30 2013-04-24 国际商业机器公司 语音韵律评估方法与系统
US20130189661A1 (en) * 2010-06-07 2013-07-25 Affectiva, Inc. Scoring humor reactions to digital media
KR20130122535A (ko) * 2010-06-07 2013-11-07 어펙티바,아이엔씨. 웹서비스들을 이용한 심리 상태 분석
US20120077160A1 (en) * 2010-06-25 2012-03-29 Degutis Joseph Computer-implemented interactive behavioral training technique for the optimization of attention or remediation of disorders of attention
WO2012149517A2 (en) * 2011-04-29 2012-11-01 Ufaceme, Inc. Learning tool and method of recording, reviewing, and analyzing face-to-face human interaction
US20130019187A1 (en) * 2011-07-15 2013-01-17 International Business Machines Corporation Visualizing emotions and mood in a collaborative social networking environment
US10176725B2 (en) * 2011-08-29 2019-01-08 Worcester Polytechnic Institute System and method of pervasive developmental disorder interventions
US9478147B2 (en) * 2012-05-17 2016-10-25 The University Of Connecticut Methods and apparatus for interpersonal coordination analysis and training
CA2878374C (en) * 2012-07-11 2021-07-27 Duquesne University Of The Holy Spirit Kinetic-based tool for biometric identification, verification, validation and profiling
US9734730B2 (en) * 2013-01-31 2017-08-15 Sri International Multi-modal modeling of temporal interaction sequences
JP6094131B2 (ja) * 2012-10-05 2017-03-15 日本電気株式会社 教育現場改善支援システム、教育現場改善支援方法、情報処理装置、通信端末およびその制御方法と制御プログラム
WO2014059234A1 (en) * 2012-10-11 2014-04-17 The Research Foundation Of The City University Of New York Predicting response to stimulus
US9361705B2 (en) * 2013-03-15 2016-06-07 Disney Enterprises, Inc. Methods and systems for measuring group behavior
US9443144B2 (en) * 2013-03-15 2016-09-13 Disney Enterprises, Inc. Methods and systems for measuring group behavior
EP2833340A1 (en) * 2013-08-01 2015-02-04 The Provost, Fellows, Foundation Scholars, and The Other Members of Board, of The College of The Holy and Undivided Trinity of Queen Elizabeth Method and system for measuring communication skills of team members
JP6126540B2 (ja) * 2014-02-06 2017-05-10 ヤフー株式会社 関係性推定装置、関係性推定方法およびプログラム
US10446055B2 (en) * 2014-08-13 2019-10-15 Pitchvantage Llc Public speaking trainer with 3-D simulation and real-time feedback
US9639770B2 (en) * 2015-03-26 2017-05-02 Konica Minolta Laboratory U.S.A., Inc. System and method for improving communication productivity

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097668A (ja) 2005-09-30 2007-04-19 Fujifilm Corp 状態識別装置、プログラムおよび方法
JP2010016796A (ja) * 2008-06-06 2010-01-21 Sony Corp 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP2010022649A (ja) 2008-07-22 2010-02-04 Nippon Telegr & Teleph Corp <Ntt> 指標選択装置及び方法ならびにコンピュータプログラム
JP2011008393A (ja) * 2009-06-24 2011-01-13 Nec Corp グループ管理支援装置、グループ管理支援方法およびプログラム
JP2012079265A (ja) * 2010-10-06 2012-04-19 Nec Corp 関係性判定装置、関係性判定システム、関係性判定方法および関係性判定プログラム
JP2013052049A (ja) 2011-09-02 2013-03-21 National Institute Of Information & Communication Technology 対人コミュニケーションにおける同調性検出装置
JP2012128882A (ja) * 2012-03-22 2012-07-05 Hitachi Ltd 組織コミュニケーション可視化システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2932899A4 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039842A (ja) * 2014-08-12 2016-03-24 国立大学法人大阪大学 会話評価装置、会話評価システム、及び、会話評価方法
WO2016093168A1 (ja) * 2014-12-09 2016-06-16 株式会社センタン 評価装置および評価方法
GB2549864A (en) * 2014-12-09 2017-11-01 Centan Inc Evaluation device and evaluation method
JP5799351B1 (ja) * 2014-12-09 2015-10-21 株式会社センタン 評価装置および評価方法
CN108028051A (zh) * 2015-09-15 2018-05-11 雅马哈株式会社 评估装置和记录介质
CN108601567A (zh) * 2016-02-09 2018-09-28 Pst株式会社 推测方法、推测程序、推测装置及推测系统
JP2017162100A (ja) * 2016-03-08 2017-09-14 富士通株式会社 応対品質評価プログラム、応対品質評価方法及び応対品質評価装置
JP2018143318A (ja) * 2017-03-02 2018-09-20 大学共同利用機関法人自然科学研究機構 環境共有レベル判定装置
JP2018147063A (ja) * 2017-03-02 2018-09-20 マツダ株式会社 情報制御装置
WO2018174088A1 (ja) * 2017-03-21 2018-09-27 国立大学法人東京工業大学 コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置
JPWO2018174088A1 (ja) * 2017-03-21 2020-01-23 国立大学法人東京工業大学 コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置
JP7002143B2 (ja) 2017-03-21 2022-01-20 国立大学法人東京工業大学 コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置
JP2019040525A (ja) * 2017-08-28 2019-03-14 パナソニックIpマネジメント株式会社 相性分析システム、相性分析装置、相性分析方法、及びプログラム
JP2019072371A (ja) * 2017-10-18 2019-05-16 株式会社日立製作所 システム及び意思疎通を図るために行うアクションの評価方法
JP2019200475A (ja) * 2018-05-14 2019-11-21 富士通株式会社 活性度評価プログラム、装置、及び方法
JP7139680B2 (ja) 2018-05-14 2022-09-21 富士通株式会社 活性度評価プログラム、装置、及び方法
JP2022120787A (ja) * 2021-02-05 2022-08-18 ダイキン工業株式会社 学習装置および評価情報出力装置
JP7260826B2 (ja) 2021-02-05 2023-04-19 ダイキン工業株式会社 学習装置および評価情報出力装置

Also Published As

Publication number Publication date
JPWO2014091766A1 (ja) 2017-01-05
EP2932899A4 (en) 2016-08-10
US20150327802A1 (en) 2015-11-19
KR20150097632A (ko) 2015-08-26
EP2932899A1 (en) 2015-10-21
JP6249490B2 (ja) 2017-12-20

Similar Documents

Publication Publication Date Title
JP6249490B2 (ja) 人間の心的状態の評価装置
US11759135B2 (en) Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience
US8600100B2 (en) Method of assessing people&#39;s self-presentation and actions to evaluate personality type, behavioral tendencies, credibility, motivations and other insights through facial muscle activity and expressions
Bond et al. New findings in non‐verbal lie detection
Dowling et al. Experiences of counsellors providing online chat counselling to young people
WO2018174088A1 (ja) コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置
Griffioen et al. Changes in behavioural synchrony during dog‐assisted therapy for children with autism spectrum disorder and children with Down syndrome
Lucas et al. Towards an affective interface for assessment of psychological distress
Reuzel et al. Conversational synchronization in naturally occurring settings: A recurrence-based analysis of gaze directions and speech rhythms of staff and clients with intellectual disability
Kwon et al. Detection of nonverbal synchronization through phase difference in human communication
Stanley Measuring attention using microsoft kinect
Whyatt et al. The social-dance: decomposing naturalistic dyadic interaction dynamics to the'micro-level'
Samad et al. A pilot study to identify autism related traits in spontaneous facial actions using computer vision
Reuzel et al. Verbal interactional dominance and coordinative structure of speech rhythms of staff and clients with an intellectual disability.
DiSalvo et al. Reading the room: Automated, momentary assessment of student engagement in the classroom: Are we there yet?
Dafoulas et al. Understanding collaboration in global software engineering (GSE) teams with the use of sensors: Introducing a multi-sensor setting for observing social and human aspects in project management
Artiran et al. Measuring social modulation of gaze in autism spectrum condition with virtual reality interviews
Desmet et al. Multimodal analysis of synchronization data from patients with dementia
Aliakbaryhosseinabadi et al. The effects of noise and simulated conductive hearing loss on physiological response measures during interactive conversations
Yamanaka et al. Assessing the communication attitude of the elderly using prosodic information and head motions
JP2019101872A (ja) 情報処理装置、及びプログラム
Gomi et al. Analysis of Speech Dialogue to Detect Active Conversation and Lapse in Conversation toward Development of Conversation Support Robot after Co-occurrence and Mutual Assistance Matching
Smit et al. Enhancing social–emotional functioning in adolescents with developmental language disorder or deaf or hard of hearing through a Theory of Mind intervention
Javed et al. Group Dynamics: Survey of Existing Multimodal Models and Considerations for Social Mediation
KR101706740B1 (ko) 인체 미동에 의한 hrc 기반 사회 관계성 온라인 측정 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13861653

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014551900

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14652376

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2013861653

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013861653

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20157018830

Country of ref document: KR

Kind code of ref document: A