WO2020170645A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2020170645A1
WO2020170645A1 PCT/JP2020/000666 JP2020000666W WO2020170645A1 WO 2020170645 A1 WO2020170645 A1 WO 2020170645A1 JP 2020000666 W JP2020000666 W JP 2020000666W WO 2020170645 A1 WO2020170645 A1 WO 2020170645A1
Authority
WO
WIPO (PCT)
Prior art keywords
analysis
facial expression
information
unit
light
Prior art date
Application number
PCT/JP2020/000666
Other languages
English (en)
French (fr)
Inventor
紗也加 小川
耕太 相澤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN202080014402.0A priority Critical patent/CN113423334A/zh
Priority to US17/430,869 priority patent/US20220084196A1/en
Publication of WO2020170645A1 publication Critical patent/WO2020170645A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/022Measuring pressure in heart or blood vessels by applying pressure to close blood vessels, e.g. against the skin; Ophthalmodynamometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program. More specifically, the present invention relates to an information processing apparatus, an information processing method, and a program that perform human facial expression analysis and biological analysis.
  • a process of analyzing a person's facial expression for example, a process of analyzing a captured image of a camera and analyzing whether or not a person is smiling is known.
  • a conventional technique that discloses a technique for analyzing facial expressions from a camera-captured image there is, for example, Japanese Patent Laid-Open No. 2008-131405.
  • Japanese Patent Laid-Open No. 2013-150772 discloses a biological analysis processing configuration based on an optical signal.
  • the present disclosure has been made in view of the above problems, for example, and an information processing device and an information processing device capable of concurrently performing facial expression analysis processing and biometric analysis processing based on detection information of one sensor. It is intended to provide a method and a program.
  • the first aspect of the present disclosure is A light-receiving unit that receives the reflected light of the irradiation light on the user's face, A light receiving signal analyzing unit for analyzing a light receiving signal of the light receiving unit, The received light signal analysis unit, A facial expression analysis unit that generates facial expression analysis information based on the reflected light; A biosignal analysis unit that generates bioanalysis information based on the reflected light, An information processing device having
  • the second aspect of the present disclosure is An information processing method executed by an information processing device, The information processing device, A light-receiving unit that receives the reflected light of the irradiation light on the user's face, A light receiving signal analyzing unit for analyzing a light receiving signal of the light receiving unit, The received light signal analysis unit, Facial expression analysis processing for generating facial expression analysis information based on the reflected light, An information processing method for executing a biological signal analysis process for generating biological analysis information based on the reflected light.
  • the third aspect of the present disclosure is A program for executing information processing in an information processing device, The information processing device, A light-receiving unit that receives the reflected light of the irradiation light on the user's face, A light receiving signal analyzing unit for analyzing a light receiving signal of the light receiving unit, The program, the received light signal analysis unit, Facial expression analysis processing for generating facial expression analysis information based on the reflected light, A program for executing a biomedical signal analysis process for generating biometric analysis information based on the reflected light.
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • a program that can be provided by a storage medium or a communication medium provided in a computer-readable format to an information processing device or a computer system that can execute various program codes.
  • system in this specification is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of the respective configurations are in the same housing.
  • a configuration is realized in which the reflected light of the irradiation light on the face of the user is analyzed to perform both the facial expression analysis and the biological signal analysis.
  • it has a light receiving unit that receives the reflected light of the irradiation light to the face of the user, and a light receiving signal analysis unit that analyzes the light receiving signal of the light receiving unit.
  • the received light signal analysis unit includes a facial expression analysis unit that analyzes reflected light from the user's skin surface to generate facial expression analysis information, and a biometric signal analysis unit that analyzes reflected light inside the skin to generate biometric analysis information.
  • the received light signal of the light receiving unit includes the reflected light of the skin surface and the reflected light of the living tissue inside the skin
  • the facial expression analysis unit extracts the low frequency component from the received light signal and acquires the reflected light of the skin surface to analyze the facial expression.
  • Execute. The biological signal analysis unit extracts a high frequency component from the received light signal, acquires reflected light of biological tissue inside the skin, and executes a biological signal analysis process. With this configuration, it is possible to realize a configuration in which the reflected light of the irradiation light on the user's face is analyzed and both facial expression analysis and biological signal analysis are executed. It should be noted that the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • composition of an information processor of this indication It is a figure explaining an example of composition of an information processor of this indication. It is a figure explaining a process which an information processor of this indication performs. It is a figure explaining an example of composition of an information processor of this indication. It is a figure explaining an example of composition of a received light signal analysis part of an information processor of this indication. It is a figure explaining a process which a received light signal analysis part of an information processor of this indication performs. It is a figure explaining an example of living body information measurement using a plurality of sensors. It is a figure explaining a process which an information processor of this indication performs. It is a figure explaining an example of sensor composition of an information processor of this indication. It is a figure explaining an example of sensor composition of an information processor of this indication. It is a figure explaining an example of sensor composition of an information processor of this indication.
  • FIG. 20 is a diagram illustrating a hardware configuration example of an information processing device of the present disclosure.
  • the information processing device 100 of the present disclosure has the configuration illustrated in FIG. 1.
  • the information processing device 100 includes a light emission control unit 101, a light emitting unit 102, a light receiving sensor 103, and a light receiving signal analysis unit 104.
  • the light emission control unit 101 controls light emission of the light emitting unit 102.
  • the output light of the light emitting unit 102 is, for example, infrared light.
  • the output light of the light emitting unit 102 is applied to the skin of the face of the user (analysis target person) 10. A part of the irradiation light on the skin of the face of the user (analysis target person) 10 is reflected on the skin surface and is received by the light receiving unit 103. Further, a part of the output light of the light emitting unit 102 reaches a living tissue inside the skin, for example, a blood vessel, and the light reflected (scattered) by the blood flowing through the blood vessel is received by the light receiving unit 103.
  • the light receiving signal of the light receiving unit 103 includes the following two signal components.
  • First signal component of received light signal skin surface reflected light
  • Second signal component of received light signal skin internal tissue reflected light (scattered light)
  • the reflected light (scattered light) by the blood flowing through the blood vessel changes according to the change in the blood volume at the light irradiation site due to blood circulation. From this change, the heart rate can be analyzed. Further, the intensity of the reflected light changes according to the blood oxygen concentration.
  • a biological signal such as a pulse or blood oxygen concentration.
  • the light receiving unit 103 receives a mixed signal of the following two types of reflected light. (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light) The optical signal received by the light receiving unit 103 is output to the received light signal analysis unit 104.
  • the received light signal analysis unit 104 analyzes the optical signal received by the received light unit 103.
  • the received light signal analysis unit 104 executes the following two processes.
  • the facial expression analysis of the user (analysis target person) 10 is executed by analyzing the reflected light component on the skin surface, and facial expression analysis information 21 is generated and output.
  • the facial expression analysis information 21 indicating that the facial expression of the user (analysis target person) 10 is a smiling face, a sad face, or an angry facial expression is generated and output.
  • the biometric analysis information 122 of the user (analysis target person) 10 is generated and output.
  • the bioanalysis information 122 such as the blood flow rate, blood flow velocity, pulse wave, blood pressure, heartbeat, heartbeat variability, blood oxygen concentration, arterial oxygen saturation of the user (analysis target person) 10 is generated and output.
  • the information processing apparatus 100 shown in FIG. 1 can be configured in, for example, a head mounted display (HMD) worn by the user 10. That is, as shown in FIG. 3, it can be configured in the head mounted display (HMD) 20 worn by the user (analysis target person) 10.
  • HMD head mounted display
  • a sensor including a pair of a plurality of light emitting units and light receiving units is configured in the head mounted display (HMD) 20, and the detection information at different positions of the face of the user (analysis target person) 10 is acquired and analyzed. ..
  • HMD head mounted display
  • FIG. 4 is a block diagram showing a detailed configuration of the received light signal analysis unit 104 of the information processing apparatus 100 shown in FIG.
  • the received light signal analysis unit 104 includes an input unit 201, a facial expression analysis unit 210, and a biological signal analysis unit 220.
  • the facial expression analysis unit 210 includes a low frequency component extraction unit 211, an A/D conversion unit 212, a facial expression analysis result generation unit 213, and a facial expression analysis information storage unit 214.
  • the biological signal analysis unit 220 includes a high-pass filter (high-frequency component extraction unit) 221, an amplification unit 222, an A/D conversion unit 223, a noise removal unit 224, a biological signal analysis result generation unit 225, and a biological signal analysis information storage unit. 226.
  • the input unit 201 outputs the received light signal of the light receiving unit 103 to the facial expression analysis unit 210 and the biological signal analysis unit 220 in parallel.
  • This output signal is a signal in which the following two types of reflected light are mixed. (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light)
  • the facial expression analysis unit 210 performs a process of selectively extracting “(1) reflected light on the skin surface” from the signal in which the two types of signals are mixed, performs facial expression analysis of the user, and performs facial expression analysis as an analysis result.
  • the information 121 is generated and output.
  • the biological signal analysis unit 220 performs a process of selectively extracting “(2) reflected light (scattered light) of biological tissue inside the skin” from a signal in which the above-described two types of signals are mixed to perform biological information of the user.
  • the analysis is executed, and the biometric analysis information 122 is generated and output as the analysis result.
  • the low frequency component extraction unit 211 executes a process of selectively extracting a low frequency component signal from the signal input from the input unit 201.
  • the low frequency component extraction processing executed by the low frequency component extraction unit 211 is performed by the following two signal components included in the light receiving unit 103: (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light) From the mixed signal of these two optical signals, only the "(1) reflected light on the skin surface" component is selectively extracted.
  • FIG. 5 shows the following three signals.
  • A Input signal (photodetector detection signal)
  • B Expression analysis signal (low-frequency component in the light-receiving section detection signal)
  • C Biological signal (high-frequency component in the detection signal of the light receiving section)
  • the light receiving signal of the light receiving unit 103 is a signal shown in FIG. 5A, and is a mixed signal of a signal component having a small time change, that is, a low frequency component and a signal component having a large time change, that is, a high frequency component.
  • the low frequency component included in the light reception signal of the light receiving unit 103 corresponds to the signal component associated with the facial expression change of the user (analysis target person) 10. That is, it is a signal that reflects the movement of the skin of the face caused by laughing.
  • the high frequency component included in the light reception signal of the light receiving unit 103 corresponds to a signal component that reflects a periodic fluctuation generated by the blood flow in the blood vessel inside the skin of the user (analysis target person) 10.
  • the low frequency component included in the light receiving signal of the light receiving unit 103 is a signal that reflects the movement of the skin of the face and can be used for facial expression analysis.
  • the high frequency component included in the light reception signal of the light receiving unit 103 is a signal that reflects the state of blood flowing in the blood vessel inside the face, and can be used for biometric information analysis.
  • the low frequency component extraction unit 211 of the facial expression analysis unit 210 shown in FIG. 4 extracts the low frequency component included in the light reception signal of the light reception unit 103. That is, the reflected light for facial expression analysis, which is a signal reflecting the movement of the skin of the face of the user (analysis target person) 10, is extracted.
  • the facial expression analysis signal (the low frequency component in the light receiving unit detection signal) extracted by the low frequency component extraction unit 211 of the facial expression analysis unit 210 shown in FIG. 4 is input to the A/D conversion unit 212.
  • the A/D conversion unit 212 performs A/D conversion of the facial expression analysis signal (low frequency component in the light receiving unit detection signal) extracted by the low frequency component extraction unit 211 to convert an analog signal into a digital signal. It is input to the facial expression analysis result generation unit 213.
  • the facial expression analysis signal extracted by the low frequency component extraction unit 211 is a signal that reflects the movement of the skin of the face of the user (analysis target person) 10.
  • the movement of the skin of the face is different depending on the facial expression, that is, the expression such as laughter, anger, and sadness.
  • the facial expression analysis information storage unit 214 stores registration information of typical data patterns of the movement of the skin of the face according to various facial expressions of a person, that is, facial expressions such as laughter, anger, and sadness. Specifically, a learning model (facial expression model) having correspondence data between facial expression labels corresponding to a plurality of different facial expressions and feature data of a reflected light signal on the skin surface that reflects movement of the skin surface is stored.
  • facial expression model facial expression model having correspondence data between facial expression labels corresponding to a plurality of different facial expressions and feature data of a reflected light signal on the skin surface that reflects movement of the skin surface is stored.
  • the reflected light acquired by the combination of the light emitting unit and the light receiving unit is different in a plurality of different positions on the face of the user (analysis target person) 10, for example, between the eyebrows, around the eyes, and cheeks. It is a plurality of reflected light signals obtained from a position.
  • the facial expression analysis information storage unit 214 records skin movement information corresponding to various facial expressions corresponding to various positions of the face.
  • the body wave noise is largely contained in the pulse wave, but the body movement noise can be suppressed by introducing the body movement suppressing technique for the blood flow rate. Therefore, the pulse wave information can be complemented by using the blood flow rate information. Further, when a strong blink occurs, body movement noise is added to the pulse wave detected by the sensor Sb on the face center side of the lower part of the eye shown in FIG. 6, so the pulse detected by the sensor Sc near the cheek on the outer lower part of the eye. It is possible to perform processing such as complementing with waves.
  • the facial expression analysis result generation unit 213 detects the facial expression analysis signal extracted by the low frequency component extraction unit 211 (low frequency component in the light receiving unit detection signal) and various facial expressions registered in the facial expression analysis information storage unit 214, that is, By comparing and collating with a typical data pattern of facial skin movements according to facial expressions such as laughter, anger, sadness, etc., the facial expression of the user (analysis target person) 10 shows throat, anger, sadness, etc. Determine if there is. The result of this determination is output as facial expression analysis information 121.
  • the high-pass filter (high-frequency component extraction unit) 221 executes a process of selectively extracting a high-frequency component, that is, a high-frequency component signal from the signal input from the input unit 201.
  • the high-frequency component extraction processing executed by the high-pass filter (high-frequency component extraction unit) 221 is the following two signal components included in the light-receiving unit 103, that is, (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light) From the mixed signal of these two optical signals, only the “(2) reflected light (scattered light) of living tissue inside the skin” component is selectively extracted.
  • the light receiving signal of the light receiving unit 103 is the signal shown in FIG. 5A, and is a signal component with a small time change, that is, a low frequency component corresponding to a low frequency component.
  • a signal component having a large time change that is, a mixed signal of high frequency components.
  • the low frequency component included in the light reception signal of the light receiving unit 103 corresponds to the signal component associated with the facial expression change of the user (analysis target person) 10. That is, it is a signal that reflects the movement of the skin of the face caused by laughing.
  • the high frequency component included in the light reception signal of the light receiving unit 103 corresponds to a signal component that reflects a periodic fluctuation generated by the blood flow in the blood vessel inside the skin of the user (analysis target person) 10.
  • the high-frequency component included in the light-receiving signal of the light-receiving unit 103 is a signal that reflects periodic fluctuations caused by blood flow in blood vessels inside the skin, and can be used for biological information analysis.
  • the high-pass filter (high-frequency component extraction unit) 221 of the biological signal analysis unit 210 shown in FIG. 4 extracts high-frequency components included in the light-reception signal of the light-reception unit 103. That is, the reflected light for biological information analysis, which is a signal reflecting the blood state such as the blood flow inside the skin of the user (analysis target person) 10, is extracted.
  • the biological information analysis signal (high-frequency component in the light-receiving unit detection signal) extracted by the high-pass filter (high-frequency component extraction unit) 221 shown in FIG. 4 is amplified by the amplification unit 222 and further input to the A/D conversion unit 223. , Converted to digital signals.
  • the digital signal is subjected to noise removal processing in the noise removal unit 224, and then input to the biological signal analysis result generation unit 225.
  • the biological information analysis signal (high-frequency component in the light-receiving unit detection signal) extracted by the high-pass filter (high-frequency component extraction unit) 221 is a signal that reflects the blood state inside the skin of the user (analysis target person) 10. Is. Specifically, it includes information capable of analyzing biological information such as blood flow rate, blood flow velocity, pulse wave, blood pressure, heartbeat, heartbeat fluctuation, blood oxygen concentration, and oxygen saturation of arterial blood.
  • the bio-signal analysis information storage unit 226 stores various bio-information of a person, that is, blood flow rate, blood flow velocity, pulse wave, blood pressure, heart rate, heart rate variability, blood oxygen concentration, and arterial blood oxygen saturation.
  • the characteristic data is stored. Specifically, the characteristics of the reflected light signal inside the skin corresponding to a plurality of different biological conditions (blood flow rate, blood flow velocity, pulse wave, blood pressure, heartbeat, heartbeat variability, blood oxygen concentration, arterial oxygen saturation, etc.)
  • a learning model having data corresponding to the data is stored.
  • the bio-signal analysis result generation unit 225 includes a bio-information analysis signal (high-frequency component in the light-receiving unit detection signal) extracted by the high-pass filter (high-frequency component extraction unit) 221, registration data of the bio-signal analysis information storage unit 226, That is, data corresponding to each state such as blood flow rate, blood flow velocity, pulse wave, blood pressure, heartbeat, heartbeat fluctuation, blood oxygen concentration, arterial oxygen saturation, etc. is compared and collated, and the user (analysis target person) 10
  • the biometric analysis information 122 is generated and output.
  • the information processing apparatus 100 acquires a light reception signal that reflects the movement of the skin at different positions of the face of the user (analysis target) 10 and performs facial expression analysis. Execute.
  • FIG. 7 is a diagram illustrating an example of setting of measurement points at which the information processing apparatus 100 of the present disclosure acquires reflected light.
  • FIG. 7 the following three muscles are shown as typical muscles that greatly change according to facial expressions among many muscles inside the face. Wrinkle eye muscle 301, Orbicularis muscle 302, Great zygomaticus muscle 303, These muscles generate large movements as the facial expression changes.
  • FIG. 7 shows the following three points.
  • A Points Pa, 311 that undulate when the wrinkle eyebrow muscle 301 contracts
  • B The movement of the orbicularis muscle 302, that is, the points Pb, 312 that greatly move according to the movement of the eyes
  • C Points Pc, 313 that undulate when the greater zygomatic muscle 303 contracts
  • FIG. 8A is a diagram showing a plurality of measurement points (five circles shown in FIG. 8A) for analyzing the facial expression of the person beyond the facial expression described with reference to FIG. 7 with high accuracy. ..
  • FIG. 8B is a diagram showing a specific sensor setting example for irradiating light to the positions of the skin corresponding to the five measurement points shown in FIG. 8A and acquiring the reflected light.
  • FIG. 8B shows a head mounted display (HMD) 20 worn by the user.
  • HMD head mounted display
  • FIG. 8( b ) A diagram in which the user wears the HMD 20 is shown in the upper part of FIG. 8( b ).
  • the surface on the side where the HMD 20 is mounted that is, the surface that contacts the eyes of the user is shown.
  • L is the display area of the image observed by the left eye of the user
  • R is observed by the right eye of the user. It is a display area of an image.
  • a plurality of sensors that is, a sensor including a light emitting element and a light receiving element, is provided on the user-mounting surface of the HMD.
  • Five white circles shown in the figure of the HMD user wearing surface in the middle of FIG. 8B are sensors.
  • Each sensor has a pair of a light emitting element 341 and a light receiving element 342, as shown in the lower part of FIG. 8B.
  • the light emitting element 341 and the light receiving element 342 correspond to the light emitting section 102 and the light receiving section 103 of the information processing apparatus 100 shown in FIG.
  • the light output from the light emitting element 341 is reflected on the user's skin and the living tissue (blood vessel etc.) inside the skin, the reflected light is detected by the light receiving element 342, and the detected reflected light signal is analyzed by the light emitting signal analysis unit 104. To be done.
  • an undulating point measuring sensor (Sa) 321 at the time of wrinkle muscle contraction Left eye movement measurement sensor (SbL) 322L, Right eye movement measurement sensor (SbR) 322R, Left zygomatic muscle contraction undulation point measurement sensor (ScL) 323L, Right zygomatic muscle contraction undulation point measurement sensor (ScR) 323R,
  • these five sensors are provided in association with the position of the skin that makes a large movement according to the facial expression of the person (the facial expression such as laughter, anger, and sadness). is there.
  • the facial expression of a person can be analyzed with high accuracy.
  • the characteristic data of the reflected light associated with the facial expression change at these five points is acquired by the learning process or the like executed in advance and is already stored in the facial expression analysis information storage unit 214.
  • the facial expression analysis result generation unit 213 shown in FIG. 4 is registered in the facial expression analysis information storage unit 214 and the five signals (skin reflected light signals) acquired by the five sensors of the HMD worn by the user who is the measurement target.
  • Various facial expressions that is, typical data patterns of facial skin movements corresponding to facial expressions such as laughter, anger, and sadness are compared and collated, and the facial expression of the user (analysis target person) 10 laughs, angers, The facial expression such as sadness is determined.
  • the result of this determination is output as facial expression analysis information 121.
  • the mounting position of the sensor shown in FIG. 8 is an example, and more sensors may be provided.
  • the example shown in FIG. 9 is an HMD having the following sensors in addition to the five sensors shown in FIG. Left inner ear motion measurement sensor (SdL) 324L, Right inner ear motion measurement sensor (SdL) 324R, Left temple movement measurement sensor (SeL) 325L, Right temple movement measurement sensor (SeR) 325R, Left zygomatic muscle contraction undulation second point measurement sensor (SfL) 326L, Right zygomatic muscle contraction second point measurement sensor (SfR) 326R, Further, although a configuration example using an HMD will be described here, the present disclosure is not limited to the HMD, and is also applicable to a configuration using all wearable devices to be worn on the face (headphones, earphones, etc.).
  • the change data of reflected light at these points is also acquired in advance by learning processing and stored in the facial expression analysis information storage unit 214.
  • the facial expression analysis result generation unit 213 illustrated in FIG. 4 includes signals (skin reflected light signals) acquired by each sensor of the HMD worn by the user who is the measurement target, and various facial expression analysis information storage units 214.
  • the facial expression of the user (analysis target person) 10 laughs by comparing and collating with the characteristic data of the facial skin movement, that is, a typical data pattern, according to the facial expression, that is, the facial expression such as laughter, anger, and sadness.
  • the facial expression such as anger or sadness is determined.
  • the result of this determination is output as facial expression analysis information 121.
  • an infrared laser may be used as a light source
  • a sensor may be used to measure the blood flow rate and blood flow velocity together with facial expression information.
  • a sensor that measures arterial blood oxygen saturation together with facial expression information can be used.
  • the facial expression analysis result generation unit 213 illustrated in FIG. 4 includes the signal (skin reflected light signal) acquired by the sensor of the HMD worn by the user who is the measurement target and the facial expression analysis information storage unit 214.
  • the facial expression of the user (analysis target person) 10 laughs by comparing and collating with various typical facial expressions registered in the above, ie, typical data patterns of facial skin movements corresponding to facial expressions such as laughter, anger, and sadness. , Anger, sadness, etc. are determined.
  • the result of this determination is output as facial expression analysis information 121.
  • the facial expression analysis information storage unit 214 stores reflected light feature data associated with facial expression changes, that is, a learning model.
  • the data in the facial expression analysis information storage unit 214 is model data acquired by a learning process executed in advance and stored in the facial expression analysis information storage unit 214.
  • a learning model facial expression model having correspondence data between facial expression labels corresponding to a plurality of different facial expressions and feature data of a reflected light signal on the skin surface that reflects movement of the skin surface is stored.
  • FIG. 10 shows an example of signals acquired to generate a learning model to be stored in the facial expression analysis information storage unit 214.
  • the data shown in FIG. 10 is data showing the input signal from the sensor attached to each position of the HMD along the time axis. Time passes from left to right.
  • FIG. 10 shows time-series data of the following seven signals S1 to S7.
  • Signal S1 Signal between the eyebrows (signal for measuring undulation points during wrinkle contraction)
  • Signal S2 Left eyebrow signal (left temple movement measurement signal)
  • Signal S3 Right eyebrow head signal (right temple movement measurement signal)
  • Signal S4 Left nose lateral signal (left eye movement measurement signal)
  • Signal S5 Right nose lateral signal (right eye movement measurement signal)
  • Signal S6 Left cheek signal (left zygomatic muscle contraction undulation point measurement signal)
  • Signal S7 Right cheek signal (signal for measuring undulation points when the right greater zygomatic muscle contracts)
  • Each of these signals changes according to the facial expression (laugh, anger, sadness, etc.) of the user (analysis target person) 10. For example, A smiley face from time t1 to t2, An angry face from time t3 to t4, The smiley face from time t5 to t6, An angry face from time t7 to t8, Is.
  • the signals S1 to S7 show similar signal changes during the period of the laughing face at times t1 to t2 and times t5 to t6, for example. Further, for example, the same signal change is shown during the period of the angry face at time t3 to t4 and time t7 to t8.
  • the normalization process (Normalization) of the acquired data is executed.
  • An example of data after normalization is shown in FIG.
  • the normalization process is executed as a process of setting each signal (S1 to S7) of the true face state of the user to the baseline (for example, output 0).
  • a user wearing the HMD may make a true face, and calibration may be executed to set an output value acquired from each sensor at that time to a baseline (for example, output 0).
  • a baseline for example, output 0
  • the detection value at this time is set as the baseline (for example, output 0) You may go.
  • a hidden Markov model for example, can be used as a machine learning method for constructing a learning model.
  • the learning model can be constructed as a model corresponding to each individual, or a general-purpose model that does not specify a user can be generated.
  • the learning model is generated as a model in which, for example, a facial expression of the user, for example, a facial expression unit label such as a straight face, a smiling face, an angry face, or a sad face is associated with the signal feature.
  • the time series signal shown in FIG. 12 is a normalized signal of the signal shown in FIG. 10, that is, a signal similar to the signal shown in FIG. Smile from time t1 to t2, An angry face from time t3 to t4, Smile from time t5 to t6, An angry face from time t7 to t8, Is.
  • the detection signal of the sensor changes greatly during the time when the face turns into a smile and when the face turns into an angry face.
  • the detection signal of the sensor greatly changes during the time when the smile returns to the true face and the time when the angry face returns to the true face.
  • onset time The time and section from a straight face to a smile or from a straight face to an angry face.
  • offset time and offset section the time to return from a smiling face to a true face or the time to return from an angry face to a true face and a section.
  • FIG. 13 is a diagram showing an execution sequence of a learning model construction process by the learning process and a facial expression analysis process using the constructed learning model.
  • A At the time of learning, it is the figure which showed the sequence of the construction process of the learning model by a learning process.
  • (B) is a diagram showing an execution sequence of the facial expression analysis processing using the constructed learning model when the facial expression analysis processing is executed.
  • Light-receiving unit output time-series data (multi-channel: S1, S2,... ) is time-series data of output signals from the sensor mounted on the HMD. That is, the data of the signals S1 to S7 and the like described above with reference to FIG. “(2) Facial expression label (1: true face, 2: smile, 3: angry face... )” is a label for each facial expression defined in advance. The feature data corresponding to the label is associated with the learning model.
  • the learning device 401 executes a learning process based on these input data. That is, the process of associating the characteristic data of the signal with each label is executed.
  • a facial expression model shown as an output during learning in FIG. 13A that is, a facial expression model that is a learning model is generated and stored in the facial expression analysis information storage unit 214.
  • the facial expression analysis information storage unit 214 stores a learning model (facial expression model) associated with characteristic data corresponding to facial expression labels (1: true face, 2: smile, 3: angry face... ). Become. Note that the feature data of this model also includes the signal change data of the onset and offset timing described above with reference to FIG.
  • FIG. 1 shows the execution sequence of the facial expression analysis process using the constructed learning model at the time of performing (B) facial expression analysis process shown in FIG.
  • the input data when executing this (B) facial expression analysis processing is (1) Time-series data output from the light-receiving unit (multi-channel: S1, S2,%) Is.
  • This input data is input to the received light signal analysis unit 104.
  • the facial expression analysis unit 210 of the received light signal analysis unit 104 described with reference to FIG. 4 uses the learning model recorded in the facial expression analysis information storage unit 214, that is, the facial expression label (1: true face, 2: smile, 3: anger). Face...)
  • the facial expression associated with the feature data is selected by referring to the learning model (facial expression model) associated with the corresponding feature data and selecting the feature data determined to be most similar to the input signal. Select a label (1: straight face, 2: smile, 3: angry face%) and output.
  • the output data when this (B) facial expression analysis processing is executed is (1) Facial expression label (1: straight face, 2: smile, 3: angry face%) Is.
  • the learning model generated in advance that is, the learning model (facial expression) associated with the feature data corresponding to the facial expression label (1: true face, 2: smile, 3: angry face etc.
  • the facial expression analysis of the user is performed using the model).
  • FIG. 14 is a diagram illustrating a specific example of the learning model generation process.
  • FIG. 14 shows an example of a learning model generation process using a hidden Markov model (HMM). The processing is executed in the procedure of (step S01) and (step S02) shown in FIG. The processing of each step will be described.
  • HMM hidden Markov model
  • Step S01 First, in step S01, the onset section is automatically or manually cut out and labeled.
  • a system information processing device
  • an operator instructs a user who is a learning model generation target, “Please make a smile from now”.
  • the system analyzes the sensor detection value associated with the change in the facial expression of the user according to this instruction.
  • the example shown in the figure is a process in which the user turns from a straight face to a smile, that is, an example of analysis of sensor acquisition values in the onset section.
  • the example shown in the figure is an example of analyzing time-series data of detection values of sensors attached to three different positions of the user's face.
  • the change of the signal is analyzed in a unit of a predetermined period (for example, 0.2 seconds). Specifically, when the variance for a predetermined period (for example, 0.2 seconds) exceeds a predetermined threshold, it is considered that the facial expression has changed from a true face to a smiling face, and this section is cut out as an onset section.
  • Step S02 The process of step S01 is repeatedly executed to obtain a plurality of data, common feature data obtained from the plurality of data, such as an average value, is obtained and recorded as feature data corresponding to a smile.
  • the learning model may be configured to build a learning model for individuals, and a general-purpose learning model applicable to various users is built based on data obtained from a plurality of subjects. It is also possible.
  • the data collected in step S02 is the data of the specific individual.
  • the data collected in step S02 is data obtained from various different subjects.
  • a general-purpose learning model is constructed by applying machine learning by a DNN (Deep Neural Network) that is a multilayer neural network. Is possible.
  • DNN Deep Neural Network
  • FIG. 15 is a diagram illustrating a specific example of facial expression analysis processing using a learning model (hidden Markov model) generated according to the processing shown in FIG.
  • the information processing apparatus that executes the facial expression analysis of the user first acquires the acquisition signal of the sensor that detects the reflected light from the skin of the user's face. Further, the data of the section estimated to be the onset section is cut out based on the analysis data for the acquired signal, for example, the variance. Further, the likelihood between the cut out data and the feature data corresponding to each facial expression label of the learning model (facial expression model) is calculated. Finally, the facial expression label set corresponding to the feature data with high likelihood (high similarity) is determined to be the facial expression of the user. Through these processes, the facial expression of the user is analyzed.
  • facial expression analysis processing In the facial expression analysis processing described with reference to FIG. 15, only the type of facial expression (smile) of the user is discriminated, but in order to analyze the strength of a smiling face, that is, the strength of a facial expression such as a strong smile or a weak smile. It is also possible to calculate the intensity of the facial expression of the user by generating the learning model of and applying the learning model.
  • FIG. 16 An example of facial expression strength calculation processing will be described with reference to FIG. 16.
  • the example illustrated in FIG. 16 is an example of a smile intensity estimation process.
  • the biological signal analysis unit 220 of the received light signal analysis unit 104 illustrated in FIG. 4 uses the received light signal of the light receiving unit 103 to reflect the reflected light (scattered light) of the biological tissue inside the skin. Is selected and extracted, the biometric information analysis of the user is performed, and biometric analysis information 122 is generated and output as the analysis result.
  • the high-frequency component included in the light-reception signal of the light-receiving unit 103 is a signal that reflects periodic fluctuations caused by blood flow in blood vessels inside the skin, and can be used for biometric information analysis.
  • the biological signal analysis unit 220 analyzes the high frequency component included in the light reception signal of the light reception unit 103, and, for example, blood flow rate, blood flow velocity, pulse wave, blood pressure, heartbeat, heart rate variability, blood oxygen concentration, arterial oxygen saturation level. Analyze biological information such as.
  • FIG. 17 shows time transition data of heartbeat intervals (RRI (ms)) in the following two user states.
  • RRI heartbeat intervals
  • biological information such as blood flow, pulse wave, and oxygen saturation is affected by autonomic nerve activity. That is, it changes according to the internal state of the user such as tension, excitement, and stress. Therefore, for example, by observing the fluctuation of the heartbeat interval of the user, it is possible to determine the internal state of the user, that is, whether the user is stressed or relaxed.
  • the flowchart shown in FIG. 18 is a flowchart for explaining one processing sequence example of the biological information analysis processing executed by the biological signal analysis section 220 of the received light signal analysis section 104 shown in FIG.
  • the processing according to the flowcharts shown in FIG. 18 and subsequent figures can be executed according to a program stored in the storage unit of the information processing apparatus 100. For example, it can be performed as a program execution process by a processor such as a CPU having a program execution function.
  • a processor such as a CPU having a program execution function.
  • the processing of each step of the flow will be sequentially described.
  • the flow shown in FIG. 18 is a sequence of processing executed by the biological signal analysis result generation unit 225 in the biological signal analysis unit 220 of the received light signal analysis unit 104 shown in FIG.
  • Step S101 First, the biological signal analysis result generation unit 225 of the biological signal analysis unit 220 acquires time-series data such as a pulse wave and a blood flow rate by analyzing the high frequency component included in the received light signal of the light receiving unit 103.
  • the biological signal analysis result generation unit 225 uses the biological information analysis signal (high frequency component in the light receiving unit detection signal) extracted by the high-pass filter (high frequency component extraction unit) 221. , Registration data of the biological signal analysis information storage unit 226, that is, data corresponding to each state such as blood flow rate, blood flow velocity, pulse wave, blood pressure, heartbeat, heartbeat variability, blood oxygen concentration, arterial oxygen saturation. By comparing and collating, time-series data such as biometric information of the user (analysis target person) 10, for example, a pulse wave and a blood flow rate is generated.
  • Steps S111 to S113 The processing of the next steps S111 to S113 and the processing of steps S121 to S122 are processings that are executed either or in parallel in the biological signal analysis result generation unit 225. First, the processing of steps S111 to S113 will be described.
  • step S111 a peak, an average value, a variance, etc. are calculated from the time series change data of the pulse wave and the blood flow.
  • step S112 heartbeat variability time series data is generated from the data acquired in step S111.
  • the heartbeat variability time series data is, for example, the data shown in FIG.
  • the stress index value is a stress index value calculated based on heart rate variability time series data.
  • LH/HF is a sympathetic nerve (LF) and parasympathetic nerve (HF) balance value, and a user's stress level is determined based on this balance value.
  • the calculation process of the stress index value (LH/HF) based on the heartbeat variability time-series data is a conventionally known technology.
  • Steps S121 to S122 Next, the processing of steps S121 to S122 will be described.
  • step S122 the fluctuation amount from the baseline of the pulse wave and the blood flow is calculated from the time series change data of the pulse wave and the blood flow.
  • the baseline in this case corresponds to the state values of the pulse wave and the blood flow in the normal state.
  • step S122 the user's emotions (pleasure, surprise, anger, sadness, fear, disgust, etc.) are estimated based on the amount of fluctuation of the pulse wave and blood flow from the baseline, and this is used as the biometric analysis information 122. Output.
  • this emotion estimation processing is executed by applying the learning model generated by the previously executed learning processing. Specifically, the detected biometric information of the user is compared with the feature data corresponding to each emotion (joy, surprise, anger, sadness, fear, disgust, etc.) label registered in the learning model, and the likelihood (similarity) is calculated. Select the label corresponding to the high feature data.
  • the biological signal analysis unit 220 of the received light signal analysis unit 104 illustrated in FIG. 4 selects the reflected light (scattered light) of the biological tissue inside the skin from the received light signal of the light receiving unit 103. Extract and perform biometric information analysis of the user. As one of the biometric information analysis processes, it is possible to analyze the user's emotions (joy, surprise, anger, sadness, fear, aversion, etc.).
  • the example described below is an example of further performing highly accurate emotion analysis. Specifically, not only the analysis information of the biological signal analysis unit 220 of the received light signal analysis unit 104 illustrated in FIG. 4 but also the analysis result of the facial expression analysis unit 210 is used to execute a highly accurate emotion analysis.
  • FIG. 19 is a diagram illustrating a configuration example of the received light signal analysis unit 104 according to the second embodiment.
  • the light reception signal analysis unit 104 of the second embodiment shown in FIG. 19 has a high precision emotion analysis unit 230 and a high precision emotion analysis information storage unit 231 added to the light reception signal analysis unit 104 shown in FIG. 4 described above. It is a composition.
  • the high-precision emotion analysis unit 230 inputs the facial expression analysis information 121 that is the analysis result of the facial expression analysis unit 210 and the biometric analysis information 122 that is the analysis result of the biosignal analysis unit 220 to generate high-precision emotion analysis information 123. Output.
  • the high-accuracy emotion analysis information storage unit 231 stores a learning model (emotional model) generated by a previously executed learning process. Specifically, the characteristic data corresponding to each emotion (labels of delight, surprise, anger, sadness, fear, disgust, etc.) is stored.
  • the high precision emotion analysis information storage unit 231 stores a learning model in which characteristic data corresponding to a plurality of different emotional states are associated with each other.
  • the feature data includes feature data of each of facial expression information and biometric information.
  • the high-precision emotion analysis unit 230 uses the front-side analysis information 121 that is the analysis result of the facial expression analysis unit 210, the analysis result that uses the biometric analysis information 122 that is the analysis result of the bio-signal analysis unit 220, and the high-precision emotion analysis unit. By the collation process with the emotion model stored in the information storage unit 231, the high-precision emotion analysis information 123 is generated and output.
  • the emotion is estimated in consideration of not only the biometric information of the user but also facial expression information.
  • An emotion estimation processing method using facial expressions will be described with reference to FIG. FIG. 20 shows the Russell ring model.
  • Russell's ring model describes the emotional state of human beings (rejoice, surprise, anger, sadness, fear, disgust, etc.) (1) Arousal level, (2) Emotional balance (Valence) (positive/negative), It is data expressed by these two axes.
  • the vertical axis represents the A value indicating the arousal level (Arousal), and the horizontal axis represents the V value indicating the emotional balance (Valence) (positive/negative).
  • the AV value which is a combination of the A value and the V value, it is possible to quantify and show the emotion (state of delight, surprise, anger, sadness, fear, disgust, etc.) that is the emotional state of a person.
  • the emotional balance (Valence) (positive/negative) can be estimated with high accuracy by using not only biometric information but also facial expression information.
  • FIG. 21 is a diagram illustrating a learning model construction process by a learning process executed by the information processing apparatus 100 according to the second embodiment, and an emotion analysis process execution sequence using the constructed learning model.
  • A At the time of learning, it is the figure which showed the sequence of the construction process of the learning model by a learning process.
  • (B) is a diagram showing an execution sequence of the emotion analysis process using the constructed learning model when the emotion analysis process is executed.
  • Facial expression analysis information facial expression label (1: straight face, 2: smile, 3: angry face
  • Biometric information biometric information feature amount
  • User's AV value User's AV value
  • Facial expression analysis information (facial expression label (1: straight face, 2: smile, 3: angry face%) is information obtained as an analysis result in the facial expression analysis unit 210.
  • the biometric analysis information (biometric information feature amount) is bioanalysis information obtained as an analysis result in the biometric signal analysis unit 220. Specifically, the blood flow rate, blood flow velocity, pulse wave, blood pressure, heartbeat, heartbeat. It is biological information such as fluctuation, blood oxygen concentration, and arterial oxygen saturation.
  • the AV value of the user is the A value indicating the arousal level (Arousal) and the V value indicating the emotional balance (Valence) (positive/negative) in the Russell ring model described with reference to FIG. This is combination data with a value. This data is acquired, for example, from the answer result to the question regarding the emotional state of the user.
  • Facial expression analysis information (facial expression label (1: straight face, 2: smile, 3: angry face%)
  • Biometric information biometric information feature amount
  • User's AV value (facial expression label (1: straight face, 2: smile, 3: angry face).
  • the learning device 421 executes a learning process based on these input data. Specifically, for the AV value of the user, (1) Facial expression analysis information (facial expression label (1: straight face, 2: smile, 3: angry face%)) (2) Biometric information (biometric information feature amount) Processing for associating these characteristic data is executed.
  • Facial expression analysis information facial expression label (1: straight face, 2: smile, 3: angry face
  • Biometric information biometric information feature amount
  • the high-precision emotion analysis information storage unit 231 stores emotion labels (labels for delight, surprise, anger, sadness, fear, disgust, etc.) or the Russell ring model described with reference to FIG. Characteristic data is recorded in association with the AV value.
  • the feature data includes facial expression analysis information (facial expression label) and biometric analysis information (biometric information feature amount).
  • FIG. 23 is a diagram showing an execution sequence of the emotion analysis process using the constructed learning model when the (B) emotion analysis process shown in FIG. 21 is executed.
  • the input data when this (B) emotion analysis processing is executed is (1) Facial expression analysis information (facial expression label (1: straight face, 2: smile, 3: angry face%)) (2) Biometric information (biometric information feature amount) Is.
  • This input data is input to the high-precision emotion analysis unit 230 of the received light signal analysis unit 104.
  • the facial expression analysis information 121 which is the analysis result of the facial expression analysis unit 210
  • the biometric analysis information 122 which is the analysis result of the biometric signal analysis unit 220
  • the facial expression analysis information 121 which is the analysis result of the facial expression analysis unit 210 corresponds to the above-mentioned input “(1) facial expression analysis information (facial expression label (1: true face, 2: smile, 3: angry face... )”. Further, the biometric analysis information 122 that is the analysis result of the biometric signal analysis unit 220 corresponds to the above-mentioned input “(2) biometric analysis information (biometric information feature amount)”.
  • the high-precision emotion analysis unit 230 compares the feature quantities (facial expression label and biometric feature quantity) of these input information with the feature data corresponding to the learning model recorded in the emotion analysis information storage unit 231, and inputs
  • the feature data that is most likely to be a signal, that is, is determined to be similar, is selected, and emotional information associated with the feature data, such as (joy, surprise, anger, sadness, fear, aversion, etc.)
  • the emotion information or the AV value which is an index value corresponding to the emotion is selected and output.
  • the user's high-precision emotion analysis is executed using the learning model (emotion model) that was generated in advance.
  • Step S201 a light reception signal of the light receiving unit 103 is input.
  • the light receiving signal of the light receiving unit 103 is a signal in which the following two types of reflected light are mixed. (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light)
  • Steps S211 to S212 are processes executed by the facial expression analysis unit 210 shown in FIG.
  • the facial expression analysis unit 210 executes a process of selectively extracting “(1) reflected light from the skin surface” from a signal in which the above-described two types of signals are mixed to execute the facial expression analysis of the user, and the facial expression analysis is performed as an analysis result.
  • the information 121 is generated and output.
  • Steps S221 to S222 are processes executed by the biological signal analysis unit 220 shown in FIG.
  • the biological signal analysis unit 220 performs a process of selectively extracting “(2) reflected light (scattered light) of biological tissue inside the skin” from a signal in which the above-described two types of signals are mixed to analyze the biological information of the user. It is executed to generate and output the biometric analysis information 122 as the analysis result.
  • Steps S231 to S232 are processes executed by the high precision emotion analysis unit 230 shown in FIG.
  • the high-precision emotion analysis unit 230 inputs the facial expression analysis information 121 that is the analysis result of the facial expression analysis unit 210 and the biometric analysis information 122 that is the analysis result of the biosignal analysis unit 220 to generate high-precision emotion analysis information 123. Output.
  • the high-precision emotion analysis unit 230 uses the front-side analysis information 121 that is the analysis result of the facial expression analysis unit 210, the analysis result that uses the biometric analysis information 122 that is the analysis result of the bio-signal analysis unit 220, and the high-precision emotion analysis unit.
  • the high-precision emotion analysis information 123 is generated and output.
  • the high-precision emotion analysis information storage unit 231 stores emotion labels (labels for delight, surprise, anger, sadness, fear, disgust, etc.) or the Russell ring model described with reference to FIG. Characteristic data is recorded in association with the AV value.
  • the feature data includes facial expression analysis information (facial expression label) and biometric analysis information (biometric information feature amount).
  • FIG. 23 is a flowchart illustrating the processing sequence of this processing example. The processing of each step of the flowchart shown in FIG. 23 will be described. Note that each process of steps S201, S211, S221, and S231 of the flowchart shown in FIG. 23 is the same as the process of steps S201, S211, S221, and S231 in the flow described above with reference to FIG. .. However, the user who is the emotion analysis target here is the user who is executing the game.
  • step S201 the light receiving signal of the light receiving unit 103 is input.
  • the light receiving signal of the light receiving unit 103 is a signal in which the following two types of reflected light are mixed. (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light)
  • Step S211 is a process executed by the facial expression analysis unit 210 shown in FIG.
  • the facial expression analysis unit 210 executes a process of selectively extracting “(1) reflected light from the skin surface” from a signal in which the above-described two types of signals are mixed to perform facial expression analysis of the user, and the facial expression analysis is performed as an analysis result.
  • the information 121 is generated and output to the high precision emotion analysis unit 230.
  • Step S221 is a process executed by the biological signal analysis unit 220 shown in FIG.
  • the biological signal analysis unit 220 performs a process of selectively extracting “(2) reflected light (scattered light) of biological tissue inside the skin” from a signal in which the above-described two types of signals are mixed to analyze the biological information of the user. It is executed to generate the biometric analysis information 122 as an analysis result and output it to the high precision emotion analysis unit 230.
  • Step S231 is a process executed by the high precision emotion analysis unit 230 shown in FIG.
  • the high-precision emotion analysis unit 230 inputs the facial expression analysis information 121 that is the analysis result of the facial expression analysis unit 210 and the biometric analysis information 122 that is the analysis result of the biometric signal analysis unit 220 to generate the high-precision emotion analysis information 123. ..
  • Step S240 is a process using the high precision emotion analysis information 123 generated by the high precision emotion analysis unit 230, and is a process executed by the game control unit in this processing example.
  • the game control unit inputs the high-precision emotion analysis information 123 generated by the high-precision emotion analysis unit 230 and executes the processing of steps S241 to S243 shown in the figure.
  • Step S241 First, in step S241, the game control unit inputs the emotion analysis result of the game executing user and determines the degree of concentration of the user in the game based on the input emotion analysis result.
  • Step S242 it is determined whether or not the user is tired of the game as a result of the game concentration degree determination processing in step S241.
  • the process returns to step S241, and the determination of the degree of concentration of the user in the game based on the emotion analysis result of the user is continued.
  • the process proceeds to step S243.
  • Step S243 If it is determined in step S242 that the user is tired of the game, the process proceeds to step S233.
  • the game control unit executes control to generate a new event in the game. For example, event occurrence processing such as stage change and appearance of a new character is performed.
  • An analysis result of the facial expression of the user is obtained by the facial expression analysis processing. For example, it is possible to obtain a determination such as a smile. However, this smile may be a smirk that is different from the true emotion of the user.
  • the processing example described below is an example of processing for distinguishing such a smirk from a real laugh, that is, determining whether the user's facial expression is a true facial expression reflecting the user's emotion.
  • FIG. 24 is a flowchart illustrating the processing sequence of this processing example. The processing of each step of the flowchart shown in FIG. 24 will be described. Note that each processing of steps S201, S211, S212, S221, and S231 of the flowchart shown in FIG. 24 is the same as the processing of steps S201, S211, S212, S221, and S231 in the flow described above with reference to FIG. Processing.
  • step S201 the light receiving signal of the light receiving unit 103 is input.
  • the light receiving signal of the light receiving unit 103 is a signal in which the following two types of reflected light are mixed. (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light)
  • Steps S211 to S212 are processes executed by the facial expression analysis unit 210 shown in FIG.
  • the facial expression analysis unit 210 executes a process of selectively extracting “(1) reflected light from the skin surface” from a signal in which the above-described two types of signals are mixed to perform facial expression analysis of the user, and the facial expression analysis is performed as an analysis result.
  • the information 121 is generated and output to the high-precision emotion analysis unit 230, and further output to the facial expression true/false determination unit that executes the process of step S250.
  • Step S221 is a process executed by the biological signal analysis unit 220 shown in FIG.
  • the biological signal analysis unit 220 performs a process of selectively extracting “(2) reflected light (scattered light) of biological tissue inside the skin” from a signal in which the above-described two types of signals are mixed to analyze the biological information of the user. It is executed to generate the biometric analysis information 122 as an analysis result and output it to the high precision emotion analysis unit 230.
  • Step S231 is a process executed by the high precision emotion analysis unit 230 shown in FIG.
  • the high-precision emotion analysis unit 230 inputs the facial expression analysis information 121 that is the analysis result of the facial expression analysis unit 210 and the biometric analysis information 122 that is the analysis result of the biometric signal analysis unit 220 to generate the high-precision emotion analysis information 123. ..
  • Step S250 is a process that uses the facial expression analysis information 121 generated by the facial expression analysis unit 210 and the high precision emotion analysis information 123 generated by the high precision emotion analysis unit 230. In this processing example, the authenticity of the user facial expression is verified. This is a process executed by the facial expression authenticity determining unit.
  • the facial expression authenticity determination unit inputs the facial expression analysis information 121 generated by the facial expression analysis unit 210 and the high precision emotion analysis information 123 generated by the high precision emotion analysis unit 230, and performs the processing of steps S251 to S253 shown in the figure. Execute.
  • Step S251 First, in step S251, the facial expression authenticity determination unit compares the facial expression analysis information 121 generated by the facial expression analysis unit 210 with the high precision emotion analysis information 123 generated by the high precision emotion analysis unit 230.
  • Step S252 it is determined whether or not the comparison results in step S251 match.
  • the process proceeds to step S253.
  • the process proceeds to step S254.
  • Step S253 when the facial expression analysis information 121 generated by the facial expression analysis unit 210 and the high precision emotion analysis information 123 generated by the high precision emotion analysis unit 230 match, the process proceeds to step S253.
  • the facial expression authenticity determination unit determines in step S253 that the facial expression of the user is a true facial expression that reflects the emotion of the user.
  • Step S254 when the facial expression analysis information 121 generated by the facial expression analysis unit 210 and the high precision emotion analysis information 123 generated by the high precision emotion analysis unit 230 do not match, the process proceeds to step S254.
  • the facial expression authenticity determination unit determines in step S ⁇ b>254 that the facial expression of the user is a false facial expression that does not reflect the emotion of the user.
  • FIG. 25 is a flowchart illustrating the processing sequence of this processing example. The processing of each step of the flowchart shown in FIG. 25 will be described.
  • the emotional analysis target user is a user who is training the facial expression muscle.
  • Step S301 First, in step S301, the user is instructed to start specific facial muscle training. Specifically, an instruction is given to move one facial muscle.
  • step S302 the light receiving signal of the light receiving unit 103 is input.
  • the light receiving signal of the light receiving unit 103 is a signal in which the following two types of reflected light are mixed. (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light)
  • Steps S311 to S312 are processes executed by the facial expression analysis unit 210 shown in FIG.
  • the facial expression analysis unit 210 executes a process of selectively extracting “(1) reflected light from the skin surface” from a signal in which the above-described two types of signals are mixed to perform facial expression analysis of the user, and the facial expression analysis is performed as an analysis result.
  • the information 121 is generated and output to the facial muscle training state analysis unit.
  • Steps SS321 to S322 are processes executed by the biological signal analysis unit 220 shown in FIG.
  • the biological signal analysis unit 220 performs a process of selectively extracting “(2) reflected light (scattered light) of biological tissue inside the skin” from a signal in which the above-described two types of signals are mixed to analyze the biological information of the user.
  • the biological analysis information 122 is generated as an analysis result, and is output to the facial muscle training state analysis unit.
  • Step S313 is processing executed by the facial muscle training state analysis unit.
  • the facial expression muscle training state analysis unit analyzes the facial expression analysis information 121 input from the facial expression analysis unit 210 and determines whether or not the user is moving the facial expression muscle as instructed. That is, it is determined whether the movement of the skin is sufficient. When it is determined that the movement of the skin is not sufficient, the process returns to step S301 and the operation instruction of the same facial muscle is continued. On the other hand, when it is determined that the movement of the skin is sufficient, the process proceeds to step S331.
  • Step S323 is also a process executed by the facial muscle training state analysis unit.
  • the facial expression muscle training state analysis unit analyzes the biometric analysis information 122 input from the biological signal analysis unit 220, and determines whether or not the blood circulation inside the skin at the facial expression muscle position designated by the user is improved. When it is determined that the improvement has not been made, the process returns to step S301 and the operation instruction of the same facial muscle is continued. On the other hand, when it is determined that the blood circulation inside the skin at the designated facial muscle position is improved, the process proceeds to step S331.
  • Step S331 is executed when Yes is determined in Steps S313 and S323, that is, when it is determined that the movement of the skin is sufficient and that the blood circulation inside the skin at the designated facial muscle position is improved. Processing.
  • the facial expression muscle training state analysis unit performs the next step, for example, the operation instruction of different facial expression muscles.
  • This processing example is an example of processing for displaying an avatar that reflects the user's facial expression and emotion.
  • FIG. 26 is a flowchart illustrating the processing sequence of this processing example. The processing of each step of the flowchart shown in FIG. 26 will be described. Note that each processing of steps S201, S211, S212, S221, and S231 of the flowchart shown in FIG. 26 is the same as the processing of steps S201, S211, S212, S221, and S231 in the flow described above with reference to FIG. Processing.
  • step S201 the light receiving signal of the light receiving unit 103 is input.
  • the light receiving signal of the light receiving unit 103 is a signal in which the following two types of reflected light are mixed. (1) Reflected light from the skin surface (2) Reflected light from living tissue inside the skin (scattered light)
  • Steps S211 to S212 are processes executed by the facial expression analysis unit 210 shown in FIG.
  • the facial expression analysis unit 210 executes a process of selectively extracting “(1) reflected light from the skin surface” from a signal in which the above-described two types of signals are mixed to perform facial expression analysis of the user, and the facial expression analysis is performed as an analysis result.
  • the information 121 is generated and output to the high-precision emotion analysis unit 230, and further output to the facial expression true/false determination unit that executes the process of step S250.
  • Step S221 is a process executed by the biological signal analysis unit 220 shown in FIG.
  • the biological signal analysis unit 220 performs a process of selectively extracting “(2) reflected light (scattered light) of biological tissue inside the skin” from a signal in which the above-described two types of signals are mixed to analyze the biological information of the user. It is executed to generate the biometric analysis information 122 as an analysis result and output it to the high precision emotion analysis unit 230.
  • Step S231 is a process executed by the high precision emotion analysis unit 230 shown in FIG.
  • the high-precision emotion analysis unit 230 inputs the facial expression analysis information 121 that is the analysis result of the facial expression analysis unit 210 and the biometric analysis information 122 that is the analysis result of the biometric signal analysis unit 220 to generate the high-precision emotion analysis information 123. ..
  • Step S260 is a process using the facial expression analysis information 121 generated by the facial expression analysis unit 210 and the high precision emotion analysis information 123 generated by the high precision emotion analysis unit 230.
  • the avatar of the user is used. This is a process executed by the avatar control unit that performs control.
  • the avatar control unit inputs the facial expression analysis information 121 generated by the facial expression analysis unit 210 and the high precision emotion analysis information 123 generated by the high precision emotion analysis unit 230, and corresponds to the user displayed on the PC or the smartphone by the user. Performs processing to change the facial expression of the avatar. For example, when the user is smiling and is in a state of delight as emotions, an avatar with a smile and having fun is displayed. On the other hand, when the user has a sad face and is emotionally sad, the avatar with the sad face is displayed.
  • This process example is a process example of determining the user's spirit based on the user's facial expression and emotion.
  • this processing example is executed, it is necessary to construct a model that is capable of determining a spirit as a learning model.
  • FIG. 27 is a diagram showing a construction process of a learning model (a spirit model) by the learning process and an execution sequence of a spirit analysis process using the constructed learning model.
  • A At the time of learning, it is the figure which showed the sequence of the construction process of the learning model by a learning process.
  • FIG. 9B is a diagram showing an execution sequence of the sentiment analysis processing using the constructed learning model when the sentiment analysis processing is executed.
  • Light-receiving unit output time-series data (multi-channel: S1, S2,... )” is, for example, time-series data of output signals from a sensor mounted on the HMD. That is, the data of the signals S1 to S7 and the like described above with reference to FIG.
  • the received light signal analysis unit 104 generates and outputs the facial expression analysis result and the biological information analysis result based on the input data. These results are input to the learning device (spirit model generation unit) 450.
  • the learning device (the spirit model generation unit) 450 inputs the facial expression analysis result and the biometric information analysis result, generates a spirit model which is a learning model in which the spirit level and these pieces of information are associated, and the spirit analysis is performed. This is stored in the business information storage unit 470.
  • FIG. 1 shows the execution sequence of the facial expression analysis process using the constructed learning model (the spirit model) at the time of performing the (B) spirit analysis process shown in FIG.
  • the input data at the time of executing the (B) sentiment analysis processing is (1) Time-series data output from the light-receiving unit (multi-channel: S1, S2,%) Is.
  • This input data is input to the received light signal analysis unit 104.
  • the received light signal analysis unit 104 generates and outputs the facial expression analysis result and the biological information analysis result based on the input data. These results are input to the spirit determination unit 480.
  • the spirit determination unit 480 refers to the learning model recorded in the spirit analysis information storage unit 470, that is, the learning model (the spirit model) in which the facial expression information and the feature data of the biometric information are associated with various spirit levels. , The feature data that is determined to be most similar to the input signal is selected, and the spirit level associated with the feature data is selected and output.
  • the output data when this (B) facial expression analysis processing is executed is (1) Data indicating the presence or absence of spirit or the level of spirit.
  • FIG. 27 is a configuration example in which a user's spirit level is determined by using a learning model (a spirit model) in which facial expression information and biometric information feature data are associated with each other for various spirit levels.
  • a learning model a spirit model
  • biometric information feature data are associated with each other for various spirit levels.
  • FIG. 28 is a diagram illustrating a hardware configuration example of the information processing device.
  • a CPU (Central Processing Unit) 501 functions as a data processing unit that executes various processes according to a program stored in a ROM (Read Only Memory) 502 or a storage unit 508. For example, the processing according to the sequence described in the above embodiment is executed.
  • a RAM (Random Access Memory) 503 stores programs and data executed by the CPU 501.
  • the CPU 501, ROM 502, and RAM 503 are connected to each other by a bus 504.
  • the CPU 501 is connected to an input/output interface 505 via a bus 504.
  • the input/output interface 505 includes various switches, a keyboard, a touch panel, a mouse, a microphone, an input unit 506 including a status data acquisition unit such as a sensor, and a display.
  • An output unit 507 including a speaker and the like is connected.
  • the CPU 501 inputs a command, status data, and the like input from the input unit 506, executes various types of processing, and outputs the processing result to, for example, the output unit 507.
  • the storage unit 508 connected to the input/output interface 505 includes, for example, a hard disk, and stores programs executed by the CPU 501 and various data.
  • the communication unit 509 functions as a transmission/reception unit for data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • a drive 510 connected to the input/output interface 505 drives a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and records or reads data.
  • a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • the technology disclosed in this specification may have the following configurations.
  • a light receiving unit that receives reflected light of irradiation light on the face of the user,
  • a light receiving signal analyzing unit for analyzing a light receiving signal of the light receiving unit, The received light signal analysis unit,
  • a facial expression analysis unit that generates facial expression analysis information based on the reflected light;
  • a biosignal analysis unit that generates bioanalysis information based on the reflected light,
  • An information processing apparatus having.
  • the received light signal of the light receiving unit includes reflected light from the skin surface and reflected light from living tissue inside the skin.
  • the facial expression analysis unit is From the light-receiving signal of the light-receiving unit, a low-frequency component is extracted to obtain reflected light on the skin surface, and facial expression analysis is performed.
  • the biological signal analysis unit The information processing apparatus according to (1), wherein a high-frequency component is extracted from the light-receiving signal of the light-receiving unit, reflected light of living tissue inside the skin is acquired, and biological signal analysis processing is executed.
  • the facial expression analysis unit The information processing apparatus according to (1) or (2), which executes the facial expression analysis process with reference to the learning model stored in the storage unit.
  • the biological signal analysis unit The information processing apparatus according to any one of (1) to (4), which executes a biological analysis process with reference to a learning model stored in a storage unit.
  • the biological signal analysis unit The reflected light from the inside of the user's skin is analyzed to generate biometric information of at least one of blood flow rate, blood flow velocity, pulse wave, blood pressure, heartbeat, heart rate variability, blood oxygen concentration, arterial oxygen saturation.
  • the information processing device according to any one of (1) to (6).
  • the received light signal analysis unit is The information processing apparatus according to any one of (1) to (8), which analyzes reflected light from a plurality of positions on the user's face that are different from each other.
  • the received light signal analysis unit is Performing analysis of reflected light from a plurality of different positions of the user's face,
  • the information processing apparatus according to any one of (1) to (9), which acquires different biometric analysis information according to a position.
  • the received light signal analysis unit is Performing analysis of reflected light from a plurality of different positions of the user's face,
  • the information processing apparatus according to any one of (1) to (9), which obtains highly accurate biometric analysis information by complementarily using information obtained from a plurality of different positions.
  • the information processing device further includes Facial expression analysis information generated by the facial expression analysis unit, Input the biometric information generated by the biosignal analysis unit, (1) to (11), further comprising a high-precision emotion analysis unit that uses the input facial expression analysis information and the biometric analysis information to generate high-precision emotion information indicating a highly accurate emotion of the user.
  • Information processing device further includes Facial expression analysis information generated by the facial expression analysis unit, Input the biometric information generated by the biosignal analysis unit, (1) to (11), further comprising a high-precision emotion analysis unit that uses the input facial expression analysis information and the biometric analysis information to generate high-precision emotion information indicating a highly accurate emotion of the user.
  • Information processing device further includes Facial expression analysis information generated by the facial expression analysis unit, Input the biometric information generated by the biosignal analysis unit, (1) to (11), further comprising a high-precision emotion analysis unit that uses the input facial expression analysis information and the biometric analysis information to generate high-precision emotion information indicating a highly accurate emotion of the user.
  • the high-precision emotion analysis unit is The information processing apparatus according to (12), which executes emotion analysis processing with reference to the learning model stored in the storage unit.
  • the learning model is a model in which feature data corresponding to a plurality of different emotional states are associated with each other, and the feature data includes feature data of facial expression information and biometric information.
  • Information processing device is a model in which feature data corresponding to a plurality of different emotional states are associated with each other, and the feature data includes feature data of facial expression information and biometric information.
  • the information processing device further includes The information processing device according to any one of (12) to (14), further including a game control unit that executes game control based on the high-precision emotion information.
  • the information processing device further includes The information processing apparatus according to any one of (12) to (14), further including a facial expression authenticity determination unit that performs facial expression authenticity determination based on the high-precision emotion information.
  • the information processing device further includes The information processing apparatus according to any one of (1) to (16), further including an avatar control unit that executes avatar control based on the facial expression analysis information and the biometric analysis information.
  • An information processing method executed by an information processing device executed by an information processing device, The information processing device, A light-receiving unit that receives the reflected light of the irradiation light on the user's face, A light receiving signal analyzing unit for analyzing a light receiving signal of the light receiving unit, The received light signal analysis unit, Facial expression analysis processing for generating facial expression analysis information based on the reflected light, An information processing method for performing biomedical signal analysis processing for generating biometric analysis information based on the reflected light.
  • a program for executing information processing in an information processing device The information processing device, A light-receiving unit that receives the reflected light of the irradiation light on the user's face, A light receiving signal analyzing unit for analyzing a light receiving signal of the light receiving unit, The program, the received light signal analysis unit, Facial expression analysis processing for generating facial expression analysis information based on the reflected light, A program for executing a biological signal analysis process for generating biological analysis information based on the reflected light.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • the program in which the processing sequence is recorded is installed in the memory in the computer incorporated in the dedicated hardware and executed, or the program is stored in the general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be recorded in a recording medium in advance.
  • the program can be received via a network such as LAN (Local Area Network) or the Internet and installed in a recording medium such as a built-in hard disk.
  • system in the present specification is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of the respective configurations are in the same housing.
  • a configuration that analyzes reflected light of irradiation light on a user's face and performs both facial expression analysis and biological signal analysis is realized. .. Specifically, for example, it has a light receiving unit that receives the reflected light of the irradiation light to the face of the user, and a light receiving signal analysis unit that analyzes the light receiving signal of the light receiving unit.
  • the received light signal analysis unit includes a facial expression analysis unit that analyzes reflected light from the user's skin surface to generate facial expression analysis information, and a biometric signal analysis unit that analyzes reflected light inside the skin to generate biometric analysis information.
  • the received light signal of the light receiving unit includes the reflected light of the skin surface and the reflected light of the living tissue inside the skin
  • the facial expression analysis unit extracts the low frequency component from the received light signal and acquires the reflected light of the skin surface to analyze the facial expression.
  • Execute. The biological signal analysis unit extracts a high frequency component from the received light signal, acquires reflected light of biological tissue inside the skin, and executes a biological signal analysis process. With this configuration, it is possible to realize a configuration in which the reflected light of the irradiation light on the user's face is analyzed and both facial expression analysis and biological signal analysis are executed.

Abstract

ユーザの顔に対する照射光の反射光を解析して表情解析と生体信号解析の双方を併せて実行する構成を実現する。ユーザの顔に対する照射光の反射光を受光する受光部と、受光部の受光信号を解析する受光信号解析部を有する。受光信号解析部は、ユーザ皮膚表面の反射光を解析して表情解析情報を生成する表情解析部と、皮膚内部の反射光を解析して生体解析情報を生成する生体信号解析部を有する。受光部の受光信号は、皮膚表面の反射光と皮膚内部の生体組織の反射光を含み、表情解析部は受光信号から低周波成分を抽出して皮膚表面の反射光を取得して表情解析を実行する。生体信号解析部は、受光信号から高周波成分を抽出して皮膚内部の生体組織の反射光を取得して生体信号の解析処理を実行する。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、および情報処理方法、並びにプログラムに関する。さらに詳細には、人の表情解析と生体解析を実行する情報処理装置、および情報処理方法、並びにプログラムに関する。
 人の表情を解析する処理として、例えばカメラの撮影画像を解析して笑顔であるか否かを解析する処理が知られている。
 なお、カメラ撮影画像から、顔の表情を解析する技術を開示した従来技術として例えば特許文献1(特開2008-131405号公報)がある。
 さらに、人の血管の血流状態や成分等を解析して人の生体解析、いわゆるバイタルセンシングを行う技術も知られている。
 例えば、特許文献2(特開2013-150772号公報)には、光信号に基づく生体解析処理構成について開示している。
 このように、表情解析処理や生体解析処理については、それぞれ従来から様々な研究がなされているが、これら2つの解析処理を1つのセンサの検出情報に基づいて併せて実行する構成を開示したものはない。
特開2008-131405号公報 特開2013-150772号公報
 上記の従来技術を組み合わせて使用する場合、表情情報と生体情報の両方を取得するためには複数のセンサを配置する必要があり、物理形状や重さ、消費電力など観点でウェアラブルな装置の実現が困難になるという課題があった。また、顔面の一か所から表情情報と生体情報の両方を取得しようとすると、両者を取得するためのセンサ同士が干渉しあい、適切なセンシングが困難になるという課題もあった。
 本開示は、例えば上記問題点に鑑みてなされたものであり、1つのセンサの検出情報に基づいて表情解析処理や生体解析処理を併せて実行することを可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 ユーザの顔に対する照射光の反射光を受光する受光部と、
 前記受光部の受光信号を解析する受光信号解析部を有し、
 前記受光信号解析部は、
 前記反射光に基づいて表情解析情報を生成する表情解析部と、
 前記反射光に基づいて生体解析情報を生成する生体信号解析部と、
を有する情報処理装置にある。
 さらに、本開示の第2の側面は、
 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、
 ユーザの顔に対する照射光の反射光を受光する受光部と、
 前記受光部の受光信号を解析する受光信号解析部を有し、
 前記受光信号解析部が、
 前記反射光に基づいて表情解析情報を生成する表情解析処理と、
 前記反射光に基づいて生体解析情報を生成する生体信号解析処理を実行する情報処理方法にある。
 さらに、本開示の第3の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、
 ユーザの顔に対する照射光の反射光を受光する受光部と、
 前記受光部の受光信号を解析する受光信号解析部を有し、
 前記プログラムは、前記受光信号解析部に、
 前記反射光に基づいて表情解析情報を生成する表情解析処理と、
 前記反射光に基づいて生体解析情報を生成する生体信号解析処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、ユーザの顔に対する照射光の反射光を解析して表情解析と生体信号解析の双方を併せて実行する構成が実現される。
 具体的には、例えば、ユーザの顔に対する照射光の反射光を受光する受光部と、受光部の受光信号を解析する受光信号解析部を有する。受光信号解析部は、ユーザ皮膚表面の反射光を解析して表情解析情報を生成する表情解析部と、皮膚内部の反射光を解析して生体解析情報を生成する生体信号解析部を有する。受光部の受光信号は、皮膚表面の反射光と皮膚内部の生体組織の反射光を含み、表情解析部は受光信号から低周波成分を抽出して皮膚表面の反射光を取得して表情解析を実行する。生体信号解析部は、受光信号から高周波成分を抽出して皮膚内部の生体組織の反射光を取得して生体信号の解析処理を実行する。
 本構成により、ユーザの顔に対する照射光の反射光を解析して表情解析と生体信号解析の双方を併せて実行する構成が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の情報処理装置の構成例について説明する図である。 本開示の情報処理装置が実行する処理について説明する図である。 本開示の情報処理装置の構成例について説明する図である。 本開示の情報処理装置の受光信号解析部の構成例について説明する図である。 本開示の情報処理装置の受光信号解析部が実行する処理について説明する図である。 複数のセンサを用いた生体情報計測の一例について説明する図である。 本開示の情報処理装置が実行する処理について説明する図である。 本開示の情報処理装置のセンサ構成例について説明する図である。 本開示の情報処理装置のセンサ構成例について説明する図である。 本開示の情報処理装置の受光信号解析部が実行する処理について説明する図である。 本開示の情報処理装置の受光信号解析部が実行する処理について説明する図である。 本開示の情報処理装置の受光信号解析部が実行する処理について説明する図である。 本開示の情報処理装置の実行する学習処理と解析処理について説明する図である。 本開示の情報処理装置の実行する学習処理と解析処理について説明する図である。 本開示の情報処理装置の実行する学習処理と解析処理について説明する図である。 本開示の情報処理装置の実行する学習処理と解析処理について説明する図である。 本開示の情報処理装置の実行する生体信号解析処理例について説明する図である。 本開示の情報処理装置の実行する生体信号解析処理のシーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置の受光信号解析部の構成例について説明する図である。 ラッセルの円環モデルについて説明する図である。 本開示の情報処理装置の実行する学習処理と解析処理について説明する図である。 本開示の情報処理装置が実行する処理シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置が実行する処理シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置が実行する処理シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置が実行する処理シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置が実行する処理シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置の実行する学習処理と解析処理について説明する図である。 本開示の情報処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の情報処理装置の実行する処理の概要について
 2.受光信号解析部の詳細構成と処理について
 3.反射光計測ポイントの設定例とセンサの具体的構成例について
 4.高精度な表情解析処理を実現するための構成と処理について
 5.生体情報の解析処理の具体例について
 6.高精度な情動推定処理を実行する実施例について
 7.本開示の情報処理装置の解析結果の利用例について
 7-(1)ゲームイベントの制御に利用する処理例
 7-(2)ユーザの表情の真偽の判定に利用する処理例
 7-(3)ユーザの表情筋トレーニングに利用する処理例
 7-(4)アバターの制御に利用する処理例
 7-(5)ユーザの気合判定に利用する処理例
 8.情報処理装置のハードウェア構成例について
 9.本開示の構成のまとめ
  [1.本開示の情報処理装置の実行する処理の概要について]
 まず、図1以下を参照して本開示の情報処理装置の実行する処理の概要について説明する。
 本開示の情報処理装置100は、図1に示す構成を有する。
 情報処理装置100は、発光制御部101、発光部102、受光センサ103、受光信号解析部104を有する。
 発光制御部101は、発光部102の発光制御を実行する。発光部102の出力光は例えば赤外光である。
 発光部102の出力光は、ユーザ(解析対象者)10の顔の皮膚に対して照射される。ユーザ(解析対象者)10の顔の皮膚に対する照射光は、一部が皮膚表面で反射し受光部103によって受光される。
 さらに、発光部102の出力光の一部は、皮膚内部の生体組織、例えば血管に到達し、血管を流れる血液によって反射(散乱)された光が受光部103によって受光される。
 すなわち、図2に示すように、受光部103の受光信号には、以下の2つの信号成分が含まれる。
 (1)受光信号の第1信号成分=皮膚表面反射光
 (2)受光信号の第2信号成分=皮膚内部組織反射光(散乱光)
 受光信号の第2信号成分=皮膚内部組織反射光(散乱光)は、例えば血管を流れる血液による反射光(散乱光)である。血管を流れる血液による反射光(散乱光)は、血液循環による光照射部位の血液量の変動に応じて変化する。この変化から心拍数の解析ができる。また、反射光の強度は、血中酸素濃度に応じて変化する。
 このように皮膚表面から光を照射し、その反射光の時間変異を計測することで脈拍や血中酸素濃度等の生体信号を得ることができる。
 このように、受光部103は、以下の2種類の反射光の混在信号を受光する。
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
 受光部103が受光した光信号は、受光信号解析部104に出力される。
 受光信号解析部104は、受光部103が受光した光信号の解析を実行する。
 受光信号解析部104は、以下の2つの処理を実行する。
 (1)皮膚表面の反射光成分の解析により、ユーザ(解析対象者)10の表情解析を実行して、表情解析情報21を生成して出力する。
 例えばユーザ(解析対象者)10の表情が笑顔である、あるいは悲しい顔をしている、あるいは怒った表情であるといった表情解析情報21を生成して出力する。
 さらに、
 (2)皮膚内部の生体組織の反射光(散乱光)の解析により、ユーザ(解析対象者)10の生体解析情報122を生成して出力する。
 例えば、ユーザ(解析対象者)10の血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度等の生体解析情報122を生成して出力する。
 なお、図1に示す情報処理装置100は、例えばユーザ10の装着するヘッドマウントディスプレイ(HMD)内に構成することが可能である。
 すなわち、図3に示すように、ユーザ(解析対象者)10が装着するヘッドマウントディスプレイ(HMD)20内に構成することが可能である。
 なお、ヘッドマウントディスプレイ(HMD)20内には、複数の発光部と受光部のペアからなるセンサが構成され、ユーザ(解析対象者)10の顔の異なる位置における検出情報を取得して解析する。
 このセンサ設定位置と解析処理の具体例については後段で詳細に説明する。
  [2.受光信号解析部の詳細構成と処理について]
 次に、図1に示す情報処理装置100の受光信号解析部104の詳細構成と実行する処理について説明する。
 図4は、図1に示す情報処理装置100の受光信号解析部104の詳細構成を示すブロック図である。
 図4に示すように、受光信号解析部104は、入力部201と、表情解析部210と生体信号解析部220を有する。
 表情解析部210は、低周波成分抽出部211、A/D変換部212、表情解析結果生成部213、表情解析用情報記憶部214を有する。
 一方、生体信号解析部220は、ハイパスフィルタ(高周波成分抽出部)221、増幅部222、A/D変換部223、ノイズ除去部224、生体信号解析結果生成部225、生体信号解析用情報記憶部226を有する。
 入力部201は、受光部103の受光信号を、表情解析部210と、生体信号解析部220に並列出力する。
 この出力信号は、以下の2種類の反射光が混在する信号である。
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
 表情解析部210は、この2種類の信号が混在した信号から、「(1)皮膚表面の反射光」を選択抽出する処理を実行してユーザの表情解析を実行して、解析結果として表情解析情報121を生成して出力する。
 一方、生体信号解析部220は、上記2種類の信号が混在した信号から、「(2)皮膚内部の生体組織の反射光(散乱光)」を選択抽出する処理を実行してユーザの生体情報解析を実行して、解析結果として生体解析情報122を生成して出力する。
 まず、表情解析部210の実行する処理について説明する。
 低周波成分抽出部211は、入力部201から入力する信号から低周波成分信号を選択抽出する処理を実行する。
 この低周波成分抽出部211が実行する低周波成分抽出処理が、受光部103に含まれる以下の2つの信号成分、すなわち、
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
 これらの2つの光信号の混在信号から、「(1)皮膚表面の反射光」成分のみを選択抽出する処理となる。
 図5を参照してこの処理について説明する。
 図5には以下の3つの信号を示している。
 (a)入力信号(受光部検出信号)
 (b)表情解析用信号(受光部検出信号中の低周波成分)
 (c)生体信号(受光部検出信号中の高周波成分)
 受光部103の受光信号は、図5(a)に示す信号であり、時間変化の少ない信号成分、すなわち低周波成分と、時間変化の大きい信号成分、すなわち高周波成分の混在信号である。
 受光部103の受光信号に含まれる低周波成分は、ユーザ(解析対象者)10の表情変化に伴う信号成分に相当する。すなわち笑ったりすることによって発生する顔の皮膚の動きを反映した信号である。
 一方、受光部103の受光信号に含まれる高周波成分は、ユーザ(解析対象者)10の皮膚内部の血管における血流によって発生する周期的な変動を反映した信号成分に相当する。
 このように、受光部103の受光信号に含まれる低周波成分は、顔の皮膚の動きを反映した信号であり、表情解析に用いることができる。
 一方、受光部103の受光信号に含まれる高周波成分は、顔内部の血管を流れる血液の状態を反映した信号であり、生体情報解析に用いることができる。
 図4に示す表情解析部210の低周波成分抽出部211は、受光部103の受光信号に含まれる低周波成分を抽出する。すなわち、ユーザ(解析対象者)10の顔の皮膚の動きを反映した信号である表情解析用反射光を抽出する。
 図4に示す表情解析部210の低周波成分抽出部211が抽出した表情解析用信号(受光部検出信号中の低周波成分)は、A/D変換部212に入力される。
 A/D変換部212は、低周波成分抽出部211が抽出した表情解析用信号(受光部検出信号中の低周波成分)のA/D変換を実行してアナログ信号をデジタル信号に変換して表情解析結果生成部213に入力する。
 前述したように低周波成分抽出部211が抽出した表情解析用信号(受光部検出信号中の低周波成分)は、ユーザ(解析対象者)10の顔の皮膚の動きを反映した信号である。
 顔の皮膚の動きは、顔の表情、すなわち、笑い、怒り、悲しみ等の表情に応じて異なる動きとなる。
 表情解析用情報記憶部214には、人の様々な表情、すなわち笑い、怒り、悲しみ等の表情に応じた顔の皮膚の動きの典型的データパターンの登録情報が格納されている。具体的には、複数の異なる表情に対応する表情ラベルと、皮膚表面の動きを反映した皮膚表面の反射光信号の特徴データとの対応データを有する学習モデル(表情モデル)が格納されている。
 なお、後段で詳細に説明するが、発光部と受光部の組み合わせによって取得する反射光は、ユーザ(解析対象者)10の顔の異なる位置、例えば眉間、目の周囲、頬等、複数の異なる位置から得られる複数の反射光信号である。
 表情解析用情報記憶部214には、これら、顔の様々な位置に対応する様々な表情に応じた皮膚の動き情報が記録されている。
 なお、眉間、目の周囲、頬等、複数の異なる位置から得られる複数の生体情報を組み合わせることで、情動などの内的状態推定精度を向上させることができる。また、複数のセンサを用いることで体動時のノイズを除去することも可能となる。
 センサ位置に応じて取得される情報は様々であり、各センサの検出情報に応じた様々な異なる内的状態推定処理が可能となる。
 たとえば、図6に示すように、額の血流量は情動を反映しやすいので、額の眉間近辺のセンサSaを用いてにより血流量を計測し、他のセンサでは脈波を計測し、血流量と脈波情報から内的状態推定を行うことができる。
 また、体動発生時、脈波には大きく体動ノイズがのってしまうが、血流量は体動抑制技術を導入することで体動ノイズを抑制できる。そのため血流量情報を使って脈波情報を補完できる。
 また、強く瞬きをすると、図6に示す目の下部の顔中央側のセンサSbの検出した脈波には体動ノイズがのってしまうので、目の下部外側の頬附近のセンサScが検出した脈波で補完するといった処理が可能である。
 表情解析結果生成部213は、低周波成分抽出部211が抽出した表情解析用信号(受光部検出信号中の低周波成分)と、表情解析用情報記憶部214に登録された様々な表情、すなわち笑い、怒り、悲しみ等の表情に応じた顔の皮膚の動きの典型的データパターンとを比較照合して、ユーザ(解析対象者)10の顔の表情が笑い、怒り、悲しみ等のどの表情であるかを判別する。この判別結果を表情解析情報121として出力する。
 次に、図4に示す受光信号解析部104の生体信号解析部220の実行する処理について説明する。
 ハイパスフィルタ(高周波成分抽出部)221は、入力部201から入力する信号から高周波成分、すなわち高周波成分信号を選択抽出する処理を実行する。
 このハイパスフィルタ(高周波成分抽出部)221が実行する高周波成分抽出処理が、受光部103に含まれる以下の2つの信号成分、すなわち、
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
 これらの2つの光信号の混在信号から、「(2)皮膚内部の生体組織の反射光(散乱光)」成分のみを選択抽出する処理となる。
 先に図5を参照して説明したように、受光部103の受光信号は、図5(a)に示す信号であり、時間変化の少ない信号成分、すなわち低周波成分に相当する低周波成分と、時間変化の大きい信号成分、すなわち高周波成分の混在信号である。
 受光部103の受光信号に含まれる低周波成分は、ユーザ(解析対象者)10の表情変化に伴う信号成分に相当する。すなわち笑ったりすることによって発生する顔の皮膚の動きを反映した信号である。
 一方、受光部103の受光信号に含まれる高周波成分は、ユーザ(解析対象者)10の皮膚内部の血管における血流によって発生する周期的な変動を反映した信号成分に相当する。
 このように、受光部103の受光信号に含まれる高周波成分は、皮膚内部の血管における血流によって発生する周期的な変動を反映した信号であり、生体情報解析に用いることができる。
 図4に示す生体信号解析部210のハイパスフィルタ(高周波成分抽出部)221は、受光部103の受光信号に含まれる高周波成分を抽出する。すなわち、ユーザ(解析対象者)10の皮膚内部の血流等の血液状態を反映した信号である生体情報解析用の反射光を抽出する。
 図4に示すハイパスフィルタ(高周波成分抽出部)221が抽出した生体情報解析用信号(受光部検出信号中の高周波成分)は、増幅部222において増幅され、さらにA/D変換部223に入力され、デジタル信号に変換される。
 このデジタル信号はノイズ除去部224においてノイズ除去処理が施された後、生体信号解析結果生成部225に入力される。
 前述したようにハイパスフィルタ(高周波成分抽出部)221が抽出した生体情報解析用信号(受光部検出信号中の高周波成分)は、ユーザ(解析対象者)10の皮膚内部の血液状態を反映した信号である。
 具体的には、血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度等の生体情報を解析可能な情報が含まれる。
 生体信号解析用情報記憶部226には、人の様々な生体情報、すなわち血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度の各状態に応じた特徴データが格納されている。具体的には、複数の異なる生体状態(血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度等)に対応する皮膚内部の反射光信号の特徴データとの対応データを有する学習モデルが格納されている。
 生体信号解析結果生成部225は、ハイパスフィルタ(高周波成分抽出部)221が抽出した生体情報解析用信号(受光部検出信号中の高周波成分)と、生体信号解析用情報記憶部226の登録データ、すなわち血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度等の各状態に応じたデータとを比較照合して、ユーザ(解析対象者)10の生体解析情報122を生成して出力する。
  [3.反射光計測ポイントの設定例とセンサの具体的構成例について]
 次に、反射光計測ポイントの設定例とセンサの具体的構成例について説明する。
 人の顔の表情を高精度に解析するためには、顔の異なる位置の皮膚の動きを解析することが必要となる。
 前述したように、ユーザ(解析対象者)10の顔の異なる位置、例えば眉間、目の周囲、頬等、複数の異なる位置の皮膚の動きを解析することで、ユーザ(解析対象者)10が笑っている、悲しんでいる、怒っている等の表情を高精度に解析できる。
 本開示の情報処理装置100は、高精度な顔の表情の解析を実現するため、ユーザ(解析対象者)10の顔の異なる位置において皮膚の動きを反映した受光信号を取得して表情解析を実行する。
 図7を参照して計測ポイントの設定例について説明する。
 図7に示す例は、本開示の情報処理装置100が反射光を取得する計測ポイントの一設定例を示す図である。
 図7には顔内部にある多数の筋肉中、表情に応じて大きく変化する代表的な筋肉として、以下の3つの筋肉を示している。
 皺眉筋301、
 眼輪筋302、
 大頬骨筋303、
 これらの筋肉は、顔の表情の変化に伴い大きな動きを発生させる。
 さらに、これらの筋肉の動きに応じて顔の表面、すなわち皮膚が大きく動くポイントがある。図7には、以下の3つのポイントを示している。
 (a)皺眉筋301の収縮時に起伏するポイントPa,311、
 (b)眼輪筋302の動き、すなわち目の動きに応じて大きく動くポイントPb,312、
 (c)大頬骨筋303の収縮時に起伏するポイントPc,313、
 なお、ポイントPb,Pcは左右に1つずつ、存在する。
 これらのポイントPa,Pb,Pcを反射光計測ポイントとして設定し、その反射光を解析することで、ユーザの表情(笑い、怒り、悲しみ等)を高精度に解析することができる。
 図8を参照して、これら複数の計測ポイントの皮膚に光を照射しその反射光を取得するための具体的構成例について説明する。
 図8(a)は図7を参照して説明した人の顔の表情を超え精度に解析するための複数の計測ポイント(図8(a)に示す5つの○印)を示した図である。
 図8(b)は、図8(a)に示す5つの計測ポイントに対応する皮膚の位置に光を照射しその反射光を取得するための具体的なセンサの設定例を示す図である。
 図8(b)にはユーザが装着するヘッドマウントディスプレイ(HMD)20を示している。
 図8(b)の上部にはユーザがHMD20を装着した図を示している。中段には、HMD20の装着側の面、すなわちユーザの眼に当接する側の面を示している。図8(b)の中段に示す図の中央2つの白い矩形領域(L,R)はそれぞれLがユーザの左眼によって観察される画像の表示領域であり、Rがユーザの右眼によって観察される画像の表示領域である。
 このHMDのユーザ装着面に複数のセンサ、すなわち発光素子と受光素子から構成されるセンサを設ける。
 図8(b)の中段のHMDユーザ装着面の図中に示す5つの白丸がセンサである。
 各センサは、図8(b)の下段に示すように、発光素子341と受光素子342のペアを持つ構成である。
 発光素子341、受光素子342は、図1に示す情報処理装置100の発光部102と受光部103に相当する。
 発光素子341から出力された光がユーザの皮膚、および皮膚内部の生体組織(血管等)に反射し、反射光を受光素子342によって検出し、検出した反射光信号が発光信号解析部104において解析される。
 図8(b)中段のHMDユーザ装着面に示すように、HMDには、以下の5つのセンサが設けられている。
 皺眉筋収縮時起伏ポイント計測センサ(Sa)321、
 左目動き計測センサ(SbL)322L,
 右目動き計測センサ(SbR)322R,
 左大頬骨筋収縮時起伏ポイント計測センサ(ScL)323L、
 右大頬骨筋収縮時起伏ポイント計測センサ(ScR)323R、
 これら5つのセンサは、先に図7を参照して説明したように人の表情(笑い、怒り、悲しみ等の表情)に応じて大きな動きを示す皮膚の位置に対応付けて設けられたものである。
 これらの複数のセンサの皮膚反射光を解析することで、人の表情を高精度に解析することができる。
 なお、これらの5つのポイントにおける表情変化に伴う反射光の特徴データは、予め実行された学習処理等により取得され表情解析用情報記憶部214に格納済みである。
 図4に示す表情解析結果生成部213は、計測対象者であるユーザの装着したHMDの5つのセンサが取得した5つの信号(皮膚反射光信号)と、表情解析用情報記憶部214に登録された様々な表情、すなわち笑い、怒り、悲しみ等の表情に応じた顔の皮膚の動きの典型的データパターンとを比較照合して、ユーザ(解析対象者)10の顔の表情が笑い、怒り、悲しみ等のどの表情であるかを判別する。この判別結果を表情解析情報121として出力する。
 なお、図8に示すセンサの取り付け位置は、一例であり、さらに多くのセンサを設ける構成としてもよい。例えば図9に示す例は、図8に示す5つのセンサに加え、以下のセンサを持つHMDである。
 左内耳部動き計測センサ(SdL)324L、
 右内耳部動き計測センサ(SdL)324R、
 左こめかみ動き計測センサ(SeL)325L、
 右こめかみ動き計測センサ(SeR)325R、
 左大頬骨筋収縮時起伏第2ポイント計測センサ(SfL)326L、
 右大頬骨筋収縮時起伏第2ポイント計測センサ(SfR)326R、
 また、ここではHMDを用いた構成例について説明するが、本開示は、HMDに限らず、顔に装着するウェアラブル機器全般(ヘッドホン、イヤホン等)を利用した構成にも適用可能である
 例えば、これらのポイントの反射光の変化データついても、予め学習処理によって取得し、表情解析用情報記憶部214に格納しておく。
 図4に示す表情解析結果生成部213は、計測対象者であるユーザの装着したHMDの各センサが取得した信号(皮膚反射光信号)と、表情解析用情報記憶部214に登録された様々な表情、すなわち笑い、怒り、悲しみ等の表情に応じた顔の皮膚の動きの特徴データ、すなわち典型的なデータパターンとを比較照合して、ユーザ(解析対象者)10の顔の表情が笑い、怒り、悲しみ等のどの表情であるかを判別する。この判別結果を表情解析情報121として出力する。
 このようにセンサ位置を多く設けることで、より高精度な表情解析が可能となる。
 なお、本開示の構成では、1つのセンサの検出情報に基づいて表情解析処理や生体解析処理を併せて実行することを可能としているが、さらに、以下のような構成としてもよい。例えば光源に赤外線レーザーを使用して表情情報と併せて血流量・血流速度を測定するセンサを利用した構成としてもよい。具体的には、例えば2波長のLEDを光源にすることで、表情情報と併せて動脈血酸素飽和度を測定するセンサを利用した構成が可能である。
  [4.高精度な表情解析処理を実現するための構成と処理について]
 次に、本開示の情報処理装置100において、ユーザ(解析対象者)10の表情解析を高精度に実行するための構成と処理について説明する。
 先に説明したように、図4に示す表情解析結果生成部213は、計測対象者であるユーザの装着したHMDのセンサが取得した信号(皮膚反射光信号)と、表情解析用情報記憶部214に登録された様々な表情、すなわち笑い、怒り、悲しみ等の表情に応じた顔の皮膚の動きの典型的データパターンとを比較照合して、ユーザ(解析対象者)10の顔の表情が笑い、怒り、悲しみ等のどの表情であるかを判別する。この判別結果を表情解析情報121として出力する。
 表情解析用情報記憶部214には、表情変化に伴う反射光の特徴データ、すなわち学習モデルが格納されている。表情解析用情報記憶部214のデータは、予め実行された学習処理等により取得され表情解析用情報記憶部214に格納されたモデルデータである。具体的には、複数の異なる表情に対応する表情ラベルと、皮膚表面の動きを反映した皮膚表面の反射光信号の特徴データとの対応データを有する学習モデル(表情モデル)が格納される。
 以下、この学習処理の一例について説明する。
 図10は、表情解析用情報記憶部214に格納する学習モデルを生成するために取得した信号の例を示している。
 図10に示すデータは、HMDの各位置に取り付けられたセンサからの入力信号を時間軸に沿って示したデータである。
 左から右に時間が経過する。
 図10には、以下の7つの信号S1~S7の時系列データを示している。
 信号S1:眉間部信号(皺眉筋収縮時起伏ポイント計測信号)
 信号S2:左眉頭部信号(左こめかみ動き計測信号)
 信号S3:右眉頭部信号(右こめかみ動き計測信号)
 信号S4:左小鼻横部信号(左目動き計測信号)
 信号S5:右小鼻横部信号(右目動き計測信号)
 信号S6:左頬部信号(左大頬骨筋収縮時起伏ポイント計測信号)
 信号S7:右頬部信号(右大頬骨筋収縮時起伏ポイント計測信号)
 これらの各信号は、ユーザ(解析対象者)10の顔の表情(笑い、怒り、悲しみ等)に応じて変化する。
 例えば、
 時間t1~t2が笑い顔、
 時間t3~t4が怒り顔、
 時間t5~t6が笑い顔、
 時間t7~t8が怒り顔、
 である。
 信号S1~S7は、例えば時間t1~t2と時間t5~t6の笑い顔の期間は同じような信号変化を示している。
 また、例えば時間t3~t4と時間t7~t8の怒り顔の期間は同じような信号変化を示している。
 このように信号変化の特徴からユーザの表情を解析することが可能となる。
 このためには、これらの特徴データを有する学習モデルを構築することが必要となる。
 この学習モデルの生成処理について説明する。
 まず、図10に示すようなデータを取得し、取得データの正規化処理(Nornalization)を実行する。正規化後のデータ例を図11に示す。
 正規化処理は、ユーザの真顔状態の各信号(S1~S7)をベースライン(例えば出力0)に設定する処理として実行される。
 例えば、HMDを装着したユーザに真顔を作ってもらい、そのとき各センサから取得される出力値をベースライン(例えば出力0)に設定するキャリブレーションを実行すればよい。
 なお、HMDの装着ズレ等に由来するベースラインの変動を抑制するため、一定時間センサ信号の変動がなければ真顔とみなして、この時の検出値をベースライン(例えば出力0)に設定する処理を行ってもよい。
 この正規化データに基づく学習モデルの生成処理の一例について図12以下を参照して説明する。
 学習モデルを構築するための機械学習処理の手法としては、例えば隠れマルコフモデルが利用可能である。
 学習モデルは各個人対応のモデルとして構築することも可能であり、ユーザを特定しない汎用的なモデルを生成することも可能である。なお、汎用モデルを構築する場合には、学習に適用するためのサンプルデータを多数取得してモデル構築を行うことが好ましい。
 学習モデルは、例えば、ユーザの表情、例えば真顔、笑顔、怒り顔、悲しい顔等の表情単位のラベルを、信号特徴に対応付けたモデルとして生成される。
 図12に示す時系列信号は、図10の信号の正規化信号、すなわち図11に示す信号と同様の信号である。
 時間t1~t2が笑顔、
 時間t3~t4が怒り顔、
 時間t5~t6が笑顔、
 時間t7~t8が怒り顔、
 である。
 なお、真顔から笑顔になる時間や、真顔から怒り顔になる時間においてセンサの検出信号が大きく変化する。同様に、笑顔から真顔に戻る時間や怒り顔から真顔に戻る時間にもセンサの検出信号が大きく変化する。
 真顔から笑顔になる時間や、真顔から怒り顔になる時間や区間をオンセット時間、オンセット区間と呼ぶ。
 一方、笑顔から真顔に戻る時間や怒り顔から真顔に戻る時間や区間をオフセット時間、オフセット区間と呼ぶ。
 図12の下段に示すように、笑顔、真顔、怒り顔の各表情の変化の間にはオンセット区間、またはオフセット区間が必ず存在する。
 このオンセット区間やオフセット区間の信号変化の特徴データを解析すれば、
 ユーザの表情の変化をより確実に解析することが可能となる。
 図13は、学習処理による学習モデルの構築処理と、構築した学習モデルを利用した表情解析処理の実行シーケンスを示す図である。
 (A)学習時は、学習処理による学習モデルの構築処理のシーケンスを示した図である。
 (B)表情解析処理実行時は、構築した学習モデルを利用した表情解析処理の実行シーケンスを示す図である。
 まず、(A)学習時は、
 入力データとして、以下のデータを入力する。
 (1)受光部出力時系列データ(多チャンネル:S1,S2,・・・・)
 (2)表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・)
 「(1)受光部出力時系列データ(多チャンネル:S1,S2,・・・・)」とは、HMDに装着されたセンサからの出力信号の時系列データである。すなわち、先に図10を参照して説明した信号S1~S7等のデータである。
 「(2)表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・)」とは予め規定した表情単位のラベルである。学習モデルにはこのラベル対応の特徴データが対応付けられることになる。
 学習器401にこれらの入力データ、すなわち以下のデータを入力する。
 (1)受光部出力時系列データ(多チャンネル:S1,S2,・・・・)
 (2)表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・)
 学習器401は、これらの入力データに基づく学習処理を実行する。すなわち、各ラベルに対して信号の特徴データを対応付ける処理を実行する。
 この学習処理によって、図13(A)学習時の出力として示す表情モデル、すなわち、学習モデルである表情モデルが生成され、表情解析用情報記憶部214に格納される。
 表情解析用情報記憶部214には、表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・)対応の特徴データが対応付けられた学習モデル(表情モデル)が格納されることになる。
 なお、このモデルの特徴データには、先に図12を参照して説明したオンセットやオフセットタイミングの信号変化データも含まれる。
 図13に示す(B)表情解析処理実行時は、構築した学習モデルを利用した表情解析処理の実行シーケンスを示す図である。
 この(B)表情解析処理実行時の入力データは、
 (1)受光部出力時系列データ(多チャンネル:S1,S2,・・・・)
 である。
 この入力データが、受光信号解析部104に入力される。
 図4を参照して説明した受光信号解析部104の表情解析部210は、表情解析用情報記憶部214に記録された学習モデル、すなわち、表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・)対応の特徴データが対応付けられた学習モデル(表情モデル)を参照して、入力信号に最も類似すると判定される特徴データを選択して、その特徴データに対応付けられた表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・)を選択して、出力する。
 この(B)表情解析処理実行時の出力データは、
 (1)表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・)
 である。
 このように、表情解析処理実行時には、事前に生成した学習モデル、すなわち表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・)対応の特徴データが対応付けられた学習モデル(表情モデル)を利用して、ユーザの表情解析が実行される。
 図14は、学習モデルの生成処理の具体例を説明する図である。
 図14は、隠れマルコフモデル(HMM)を利用した学習モデル生成処理の一例を示している。
 図14に示す(ステップS01),(ステップS02)の手順で処理を実行する。
 各ステップの処理について説明する。
  (ステップS01)
 まず、ステップS01において、オンセット区間を自動または手動で切り出してラベル付けを行う。
 例えば学習モデル生成対象となるユーザに、システム(情報処理装置)、またはオペレータが「今から笑顔を作ってください」と指示を行う。
 システム(情報処理装置)は、この指示に応じたユーザの表情変化に伴うセンサ検出値を解析する。
 図に示す例は、ユーザが真顔から笑顔になる過程、すなわちオンセット区間のセンサ取得値の解析例である。
 図に示す例は、ユーザの顔の3個所の異なる位置に取り付けたセンサの検出値の時系列データを解析した例である。
 例えば、予め規定した期間(例えば0.2秒間)単位で、信号の変化を解析する。具体的には、予め規定した期間(例えば0.2秒間)の分散が予め規定した閾値を超えたとき、真顔から笑顔への表情変化があったとみなし、この区間をオンセット区間として切り出す。
  (ステップS02)
 ステップS01の処理を繰り返し実行して、複数のデータを取得し、複数データから得られる共通の特徴データ、例えば平均値等を取得して笑顔対応の特徴データとして記録する。
 なお、前述したように学習モデルは、個人対応の学習モデルを構築する構成としもよく、また、複数の被験者から得たデータに基づいて様々なユーザに適用可能な汎用的な学習モデルを構築することも可能である。
 個人対応の学習モデルを生成する場合は、ステップS02で収集するデータはその特定個人のデータである。
 一方、汎用的な学習モデルを生成する場合は、ステップS02で収集するデータは様々な異なる被験者から得たデータとする。
 例えば、多数の被験者から多数のデータ、すなわち大規模データが収集可能な場合は、多層型のニューラルネットワークであるDNN(Deap Neural Network)による機械学習を適用して汎用的な学習モデルを構築することが可能である。
 図15は、図14に示す処理に従って生成した学習モデル(隠れマルコフモデル)を利用した表情解析処理の具体例について説明する図である。
 図15(処理)に示すように、ユーザの表情解析を実行する情報処理装置は、まず、ユーザの顔の皮膚の反射光を検出するセンサの取得信号を取得する。
 さらに、取得信号に対する解析データ、例えば分散などに基づき、オンセット区間と推定される区間のデータを切り出す。
 さらに、切り出したデータと、学習モデル(表情モデル)の各表情ラベル対応の特徴データとの尤度を算出する。
 最後に、尤度の高い(類似度の高い)特徴データに対応して設定された表情ラベルを、ユーザの表情であると判定する。
 これらの処理によって、ユーザの表情の解析が実行される。
 なお、図15を参照して説明した表情解析処理では、ユーザの表情の種類(笑顔)のみを判別しているが、笑顔の強度、すなわち強い笑顔や弱い笑顔等、表情の強度を解析するための学習モデルを生成して、その学習モデルを適用することでユーザの表情の強度を算出することも可能である。
 図16を参照して、表情強度の算出処理例について説明する。
 図16に示す例は、笑顔の強度の推定処理例である。学習処理時にユーザから得られる信号値中、ベースライン(真顔時)からのかい離度が最も大きい信号値(ラインa)を笑顔の最大値(笑顔度=100%)として学習モデルに記録する。
 ユーザ表情解析時に得られるデータ(計測信号)について、笑顔の最大値(笑顔度=100%)を示すラインaに対する比率を算出することで、ユーザの笑顔の強度を算出することができる。
 図に示すポイントpaでは笑顔強度=80%であり、ポイントpbでは笑顔強度=20%と推定することができる。
 なお、図14~図16では、笑顔解析についてのみ説明したが、怒り顔や悲しい顔等も特徴データが異なるのみであり、処理手順は同様のものとなる。
  [5.生体情報の解析処理の具体例について]
 次に、図4に示す受光信号解析部104の生体信号解析部220が実行する生体情報の解析処理の具体例について説明する。
 先に図4を参照して説明したように、図4に示す受光信号解析部104の生体信号解析部220は、受光部103の受光信号から、皮膚内部の生体組織の反射光(散乱光)を選択抽出してユーザの生体情報解析を実行して、解析結果として生体解析情報122を生成して出力する。
 受光部103の受光信号に含まれる高周波成分は、皮膚内部の血管における血流によって発生する周期的な変動を反映した信号であり、生体情報解析に用いることができる。
 生体信号解析部220は、受光部103の受光信号に含まれる高周波成分を解析して、例えば血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度等の生体情報を解析する。
 図17には、以下の2つのユーザ状態における心拍間隔(RRI(ms))の時間推移データを示している。
 (a)ストレスのある状態
 (b)リラックスした状態
 図に示すように、各状態に応じて、ユーザの心拍間隔の時間推移に伴う変化は、明らかに異なる特徴を有する。
 これらの各状態に応じた特徴データを学習データとして記録し、この学習データを用いた解析処理を行うことでユーザの状態を推定することが可能となる。
 このように、血流量や脈波や酸素飽和度などの生体情報は自律神経活動の影響を受ける。すなわち、緊張や、興奮、ストレスなどのユーザの内的状態に応じて変化する。
 従って、例えばユーザの心拍間隔の変動を観測することでユーザの内的状態、すなわち、ユーザがストレスを感じているか、リラックスしているかを判定することができる。
 図18に示すフローチャートは、図4に示す受光信号解析部104の生体信号解析部220が実行する生体情報の解析処理の一つの処理シーケンス例を説明するフローチャートである。
 なお、図18以下に示すフローチャートに従った処理は、情報処理装置100の記憶部に格納されたプログラムに従って実行することが可能である。例えばプログラム実行機能を有するCPU等のプロセッサによるプログラム実行処理として行うことができる。
 以下、フローの各ステップの処理について、順次、説明する。
 なお、図18に示すフローは、図4に示す受光信号解析部104の生体信号解析部220内の生体信号解析結果生成部225が実行する処理のシーケンスである。
  (ステップS101)
 まず、生体信号解析部220の生体信号解析結果生成部225は、受光部103の受光信号に含まれる高周波成分の解析処理により、脈波、血流量等の時系列データを取得する。
 先に図4を参照して説明したように、生体信号解析結果生成部225は、ハイパスフィルタ(高周波成分抽出部)221が抽出した生体情報解析用信号(受光部検出信号中の高周波成分)と、生体信号解析用情報記憶部226の登録データ、すなわち血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度等の各状態に応じたデータとを比較照合して、ユーザ(解析対象者)10の生体情報、例えば脈波、血流量等の時系列データを生成する。
  (ステップS111~S113)
 次のステップS111~S113の処理と、ステップS121~S122の処理は、生体信号解析結果生成部225において、いずれか一方、あるいは並列に実行される処理である。
 まず、ステップS111~S113の処理について説明する。
 ステップS111では、脈波、血流量の時系列変化データからピーク、平均値、分散等を算出する。
 次にステップS112において、ステップS111で取得したデータから、心拍変動時系列データを生成する。心拍変動時系列データとは、例えば図17に示すデータである。
 最後に、ステップS113において、心拍変動時系列データに基づいて、ストレス指標値(LH/HF(=(Low Frequency)/(High Frequency))を算出して、これを生体解析情報122として出力する。
 ストレス指標値(LH/HF)とは、心拍変動時系列データに基づいて算出されるストレス指標値である。(LH/HF)は、交感神経(LF)、副交感神経(HF)のパランス値であり、このバランス値に基づいてユーザのストレス度を判定する。
 なお、心拍変動時系列データに基づくストレス指標値(LH/HF)の算出処理自体は従来から知られた既存技術である。
  (ステップS121~S122)
 次に、ステップS121~S122の処理について説明する。
 ステップS122において、脈波、血流量の時系列変化データから、脈波、血流量のベースラインからの変動量を算出する。
 なお、この場合のベースラインとは、正常時における脈波、血流量の状態値に相当する。
 次に、ステップS122において、脈波、血流量のベースラインからの変動量に基づいてユーザの情動(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等)を推定し、これを生体解析情報122として出力する。
 なお、この情動推定処理は、予め実行した学習処理によって生成した学習モデルを適用して実行する。具体的には、検出したユーザの生体情報と学習モデルに登録された各情動(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等)ラベル対応の特徴データとを比較し、尤度(類似度)の高い特徴データに対応するラベルを選択する。
  [6.高精度な情動推定処理を実行する実施例について]
 次に、実施例2として、高精度な情動推定処理を実行する実施例について説明する。
 図18を参照して説明したように、図4に示す受光信号解析部104の生体信号解析部220は、受光部103の受光信号から、皮膚内部の生体組織の反射光(散乱光)を選択抽出してユーザの生体情報解析を実行する。
 この生体情報解析処理の一つとして、ユーザの情動(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等)の解析を行うことができる。
 以下に説明する実施例は、さらに、高精度な情動解析を行う実施例である。具体的には、図4に示す受光信号解析部104の生体信号解析部220の解析情報のみならず、表情解析部210の解析結果も利用して高精度な情動解析実行する。
 図19は、本実施例2の受光信号解析部104の構成例を示す図である。
 図19に示す本実施例2の受光信号解析部104は、先に説明した図4に示す受光信号解析部104に高精度情動解析部230と、高精度情動解析用情報記憶部231を追加した構成である。
 高精度情動解析部230は、表情解析部210の解析結果である表情解析情報121と、生体信号解析部220の解析結果である生体解析情報122を入力して高精度情動解析情報123を生成して出力する。
 高精度情動解析用情報記憶部231には予め実行された学習処理によって生成された学習モデル(情動モデル)が格納されている。具体的には、各情動(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等のラベル)対応の特徴データが格納されている。
 高精度情動解析用情報記憶部231には、複数の異なる情動状態に対応する特徴データを対応付けた学習モデルが格納される。特徴データには、表情情報と生体情報各々の特徴データが含まれる。
 高精度情動解析部230は、表情解析部210の解析結果である表上解析情報121と、生体信号解析部220の解析結果である生体解析情報122を用いた解析結果と、高精度情動解析用情報記憶部231に格納された情動モデルとの照合処理により、高精度情動解析情報123を生成して出力する。
 本実施例2は、ユーザの生体情報のみにならず、表情情報も考慮して情動推定する。
 表情を利用した情動推定処理手法について、参照して説明する。
 図20には、ラッセル(Russel)の円環モデルを示している。
 ラッセル(Russel)の円環モデルは、人の感情の状態である情動(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等)を、
 (1)覚醒度(Arousal)、
 (2)感情バランス(Valence)(ポジティブ/ネガティブ)、
 これらの2軸で表現したデータである。
 縦軸が覚醒度(Arousal)を示すA値、横軸が感情バランス(Valence)(ポジティブ/ネガティブ)を示すV値である。
 A値とV値の組み合わせであるAV値を用いることで、人の感情の状態である情動(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等)を数値化して示すことができる。
 例えば、生体情報(バイタルデータ)から情動を推定する場合、このAV値の正規化値)が用いられる。しかし、生体情報(バイタルデータ)のみから情動を推定すると必ずしも正しい情報が得られない場合がある。
 その理由の1つは、生体情報は、情動以外にも様々な要因が影響することである。
 さらに、図20を参照して説明した情動モデル(Russellの円環モデル)において、覚醒度(Arousal)は生体情報から推定しやすいが、感情バランス(Valence)(ポジティブ/ネガティブ)は、生体情報のみから推定することが困難であるという理由もある。
 感情バランス(Valence)(ポジティブ/ネガティブ)は、生体情報のみではなく、表情情報を利用することで、高精度に推定することが可能となる。
 以下において説明する実施例2は、生体情報のみならず、表情情報も利用してユーザの情動を高精度に解析する実施例である。
 図21は、本実施例2の情報処理装置100が実行する学習処理による学習モデルの構築処理と、構築した学習モデルを利用した情動解析処理の実行シーケンスを示す図である。
 (A)学習時は、学習処理による学習モデルの構築処理のシーケンスを示した図である。
 (B)情動解析処理実行時は、構築した学習モデルを利用した情動解析処理の実行シーケンスを示す図である。
 まず、(A)学習時は、
 入力データとして、以下のデータを入力する。
 (1)表情解析情報(表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・))
 (2)生体解析情報(生体情報特徴量)
 (3)ユーザのAV値
 (1)表情解析情報(表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・))は、表情解析部210における解析結果として得られる情報である。
 (2)生体解析情報(生体情報特徴量)は、生体信号解析部220における解析結果として得られる生体解析情報である具体的には、血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度等の生体情報である。
 (3)ユーザのAV値は、図20を参照して説明したラッセル(Russel)の円環モデルにおける覚醒度(Arousal)を示すA値と、感情バランス(Valence)(ポジティブ/ネガティブ)を示すV値との組み合わせデータである。
 このデータは、例えばユーザに対する感情状態に対する質問に対する回答結果から取得する。
 学習器421にこれらの入力データ、すなわち以下のデータを入力する。
 (1)表情解析情報(表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・))
 (2)生体解析情報(生体情報特徴量)
 (3)ユーザのAV値
 学習器421は、これらの入力データに基づく学習処理を実行する。具体的には、ユーザのAV値に対して、
 (1)表情解析情報(表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・))
 (2)生体解析情報(生体情報特徴量)
 これらの特徴データを対応付ける処理を実行する。
 この学習処理によって、図21(A)学習時の出力として示す情動モデル、すなわち、学習モデルである情動モデルが生成され、高精度情動解析用情報記憶部231に格納される。
 高精度情動解析用情報記憶部231には、情動ラベル(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等のラベル)、あるいは、図20を参照して説明したラッセル(Russel)の円環モデルにおけるAV値に特徴データが対応付けて記録されている。
 特徴データには、表情解析情報(表情ラベル)と、生体解析情報(生体情報特徴量)が含まれる。
 図21に示す(B)情動解析処理実行時は、構築した学習モデルを利用した情動解析処理の実行シーケンスを示す図である。
 この(B)情動解析処理実行時の入力データは、
 (1)表情解析情報(表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・))
 (2)生体解析情報(生体情報特徴量)
 である。
 この入力データが、受光信号解析部104の高精度情動解析部230に入力される。
 図19を参照して説明したように、表情解析部210の解析結果である表情解析情報121と、生体信号解析部220の解析結果である生体解析情報122を入力して高精度情動解析情報123を生成して出力する。
 表情解析部210の解析結果である表情解析情報121が上記の入力「(1)表情解析情報(表情ラベル(1:真顔、2:笑顔、3:怒り顔・・・))」に対応する。
 また、生体信号解析部220の解析結果である生体解析情報122が上記の入力「(2)生体解析情報(生体情報特徴量)」に対応する。
 高精度情動解析部230は、これらの入力情報の有する特徴量(表情ラベルと生体特徴量)と、情動解析用情報記憶部231に記録された学習モデル対応の特徴データとを比較して、入力信号に最も尤度の高い、すなわち類似すると判定される特徴データを選択して、その特徴データに対応付けられた情動情報、例えば、(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等)等の情動情報、あるいは情動対応の指標値であるAV値を選択して出力する。
 このように、高精度情動解析処理実行時には、事前に生成した学習モデル(情動モデル)を利用して、ユーザの高精度な情動解析が実行される。
 次に、図19に示す受光信号解析部104が実行する処理のシーケンスについて図22に示すフローチャートを参照して説明する。
 図22に示すフローチャートの各ステップの処理について、順次、説明する。
  (ステップS201)
 まず、ステップS201において、受光部103の受光信号を入力する。なお、先に説明したように、受光部103の受光信号は、以下の2種類の反射光が混在する信号である。
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
  (ステップS211~S212)
 ステップS211~S212は、図19に示す表情解析部210が実行する処理である。
 表情解析部210は、上記2種類の信号が混在した信号から、「(1)皮膚表面の反射光」を選択抽出する処理を実行してユーザの表情解析を実行して、解析結果として表情解析情報121を生成して出力する。
  (ステップS221~S222)
 ステップS221~S222は、図19に示す生体信号解析部220が実行する処理である。
 生体信号解析部220は、上記2種類の信号が混在した信号から、「(2)皮膚内部の生体組織の反射光(散乱光)」を選択抽出する処理を実行してユーザの生体情報解析を実行して、解析結果として生体解析情報122を生成して出力する。
  (ステップS231~S232)
 ステップS231~S232は、図19に示す高精度情動解析部230が実行する処理である。高精度情動解析部230は、表情解析部210の解析結果である表情解析情報121と、生体信号解析部220の解析結果である生体解析情報122を入力して高精度情動解析情報123を生成して出力する。
 この処理は、先に図21(B)を参照して説明した処理である。
 高精度情動解析部230は、表情解析部210の解析結果である表上解析情報121と、生体信号解析部220の解析結果である生体解析情報122を用いた解析結果と、高精度情動解析用情報記憶部231に格納された情動モデルとの照合処理により、高精度情動解析情報123を生成して出力する。
 高精度情動解析用情報記憶部231には、情動ラベル(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等のラベル)、あるいは、図20を参照して説明したラッセル(Russel)の円環モデルにおけるAV値に特徴データが対応付けて記録されている。
 特徴データには、表情解析情報(表情ラベル)と、生体解析情報(生体情報特徴量)が含まれる。
 高精度情動解析部230は、表情解析部210の解析結果である表上解析情報121と、生体信号解析部220の解析結果である生体解析情報122の特徴量にもっととも近い特徴量を持つラベル(=情動ラベル(歓喜、驚き、怒り、悲しみ、恐怖、嫌悪等のラベル))、あるいはAV値を選択して、これを高精度情動解析情報123として出力する。
  [7.本開示の情報処理装置の解析結果の利用例について]
 次に、本開示の情報処理装置の解析結果の利用例について説明する。
 以下の複数の処理例について説明する。
 (1)ゲームイベントの制御に利用する処理例
 (2)ユーザの表情の真偽の判定に利用する処理例
 (3)ユーザの表情筋トレーニングに利用する処理例
 (4)アバターの制御に利用する処理例
 (5)ユーザの気合判定に利用する処理例
  [7-(1)ゲームイベントの制御に利用する処理例]
 まず、本開示の情報処理装置の解析結果をゲームイベントの制御に利用する処理例について説明する。
 図23は、本処理例の処理シーケンスを説明するフローチャートである。
 図23に示すフローチャートの各ステップの処理について説明する。なお、図23に示すフローチャートのステップS201,S211,S221,S231の各処理は、先に図22を参照して説明したフロー中のステップS201,S211,S221,S231の処理と同様の処理である。
 ただし、ここで情動解析対象となるユーザは、ゲームを実行中のユーザである。
  (ステップS201~S231)
 ステップS201において、受光部103の受光信号を入力する。なお、先に説明したように、受光部103の受光信号は、以下の2種類の反射光が混在する信号である。
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
 ステップS211は、図19に示す表情解析部210が実行する処理である。
 表情解析部210は、上記2種類の信号が混在した信号から、「(1)皮膚表面の反射光」を選択抽出する処理を実行してユーザの表情解析を実行して、解析結果として表情解析情報121を生成して高精度情動解析部230に出力する。
 ステップS221は、図19に示す生体信号解析部220が実行する処理である。
 生体信号解析部220は、上記2種類の信号が混在した信号から、「(2)皮膚内部の生体組織の反射光(散乱光)」を選択抽出する処理を実行してユーザの生体情報解析を実行して、解析結果として生体解析情報122を生成して高精度情動解析部230に出力する。
 ステップS231は、図19に示す高精度情動解析部230が実行する処理である。高精度情動解析部230は、表情解析部210の解析結果である表情解析情報121と、生体信号解析部220の解析結果である生体解析情報122を入力して高精度情動解析情報123を生成する。
  (ステップS240)
 ステップS240は、高精度情動解析部230が生成した高精度情動解析情報123を利用した処理であり、本処理例では、ゲーム制御部が実行する処理である。
 ゲーム制御部は、高精度情動解析部230が生成した高精度情動解析情報123を入力して、図に示すステップS241~S243の処理を実行する。
  (ステップS241)
 まず、ゲーム制御部は、ステップS241において、ゲーム実行ユーザの情動解析結果を入力し、入力した情動解析結果に基づいてユーザのゲームに対する集中度を判定する。
  (ステップS242)
 ステップS242では、ステップS241におけるゲーム集中度判定処理の結果として、ユーザがゲームに飽きているか否かを判定する。
 ユーザがゲームに飽きていないと判定した場合はステップS241に戻り、ユーザの情動解析結果に基づくユーザのゲームに対する集中度判定を継続する。
 一方、ユーザがゲームに飽きていると判定した場合はステップS243に進む。
  (ステップS243)
 ステップS242において、ユーザがゲームに飽きていると判定した場合はステップS233に進む。
 ステップS243では、ゲーム制御部が、ゲームにおける新たなイベントを発生させる制御を実行する。
 例えばステージの変更、新たなキャラクタの出現等のイベント発生処理を行う。
 このようにゲーム実行ユーザの情動に基づくゲーム制御を行うことで、ユーザを飽きさせないゲーム展開を行うことが可能となる。
  [7-(2)ユーザの表情の真偽の判定に利用する処理例]
 次に、本開示の情報処理装置の解析結果をユーザの表情の真偽の判定に利用する処理例について説明する。
 ユーザの表情は、表情解析処理によって解析結果が得られる。例えば笑顔であるとの判定等が得られる。しかし、この笑顔がユーザの本当の感情とは異なる作り笑いである場合もある。
 以下に説明する処理例は、このような作り笑いと本当の心からの笑い等の区別、すなわちユーザ表情がユーザの感情を反映した真の表情であるか否かを判定する処理例である。
 図24は、本処理例の処理シーケンスを説明するフローチャートである。
 図24に示すフローチャートの各ステップの処理について説明する。なお、図24に示すフローチャートのステップS201,S211,S212,S221,S231の各処理は、先に図22を参照して説明したフロー中のステップS201,S211,S212,S221,S231の処理と同様の処理である。
  (ステップS201~S231)
 ステップS201において、受光部103の受光信号を入力する。なお、先に説明したように、受光部103の受光信号は、以下の2種類の反射光が混在する信号である。
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
 ステップS211~S212は、図19に示す表情解析部210が実行する処理である。
 表情解析部210は、上記2種類の信号が混在した信号から、「(1)皮膚表面の反射光」を選択抽出する処理を実行してユーザの表情解析を実行して、解析結果として表情解析情報121を生成して高精度情動解析部230に出力し、さらに、ステップS250の処理を実行する表情真偽判定部にも出力する。
 ステップS221は、図19に示す生体信号解析部220が実行する処理である。
 生体信号解析部220は、上記2種類の信号が混在した信号から、「(2)皮膚内部の生体組織の反射光(散乱光)」を選択抽出する処理を実行してユーザの生体情報解析を実行して、解析結果として生体解析情報122を生成して高精度情動解析部230に出力する。
 ステップS231は、図19に示す高精度情動解析部230が実行する処理である。高精度情動解析部230は、表情解析部210の解析結果である表情解析情報121と、生体信号解析部220の解析結果である生体解析情報122を入力して高精度情動解析情報123を生成する。
  (ステップS250)
 ステップS250は、表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123を利用した処理であり、本処理例では、ユーザ表情の真偽を判定する表情真偽判定部が実行する処理である。
 表情真偽判定部は、表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123を入力して、図に示すステップS251~S253の処理を実行する。
  (ステップS251)
 まず、表情真偽判定部は、ステップS251において、表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123を比較する。
  (ステップS252)
 ステップS252では、ステップS251における比較結果の一致、不一致判定を行う。
 表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123が一致する場合は、ステップS253に進む。
 一方、表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123が一致しない場合は、ステップS254に進む。
  (ステップS253)
 ステップS252において、表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123が一致する場合は、ステップS253に進む。
 表情真偽判定部は、ステップS253において、ユーザの表情がユーザの情動を反映した真の表情であると判定する。
  (ステップS254)
 一方、ステップS252において、表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123が一致しない場合は、ステップS254に進む。
 表情真偽判定部は、ステップS254において、ユーザの表情がユーザの情動を反映していない偽の表情であると判定する。
 このようにユーザの表情と情動を比較することで、ユーザの表情が心の状態を反映した真の表情であるか否かを判定することが可能となる。
  [7-(3)ユーザの表情筋トレーニングに利用する処理例]
 次に、本開示の情報処理装置の解析結果をユーザの表情筋トレーニングに利用する処理例について説明する。
 図25は、本処理例の処理シーケンスを説明するフローチャートである。
 図25に示すフローチャートの各ステップの処理について説明する。なお、ここで情動解析対象となるユーザは、表情筋をトレーニング中のユーザである。
  (ステップS301)
 まず、ステップS301において、ユーザに対して特定の表情筋トレーニング開始を指示する。
 具体的にはある1つの表情筋を動かすように指示を行う。
  (ステップS302~S322)
 ステップS302において、受光部103の受光信号を入力する。なお、先に説明したように、受光部103の受光信号は、以下の2種類の反射光が混在する信号である。
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
 ステップS311~S312は、図19に示す表情解析部210が実行する処理である。
 表情解析部210は、上記2種類の信号が混在した信号から、「(1)皮膚表面の反射光」を選択抽出する処理を実行してユーザの表情解析を実行して、解析結果として表情解析情報121を生成して、表情筋トレーニング状態解析部に出力する。
 ステップSS321~S322は、図19に示す生体信号解析部220が実行する処理である。
 生体信号解析部220は、上記2種類の信号が混在した信号から、「(2)皮膚内部の生体組織の反射光(散乱光)」を選択抽出する処理を実行してユーザの生体情報解析を実行して、解析結果として生体解析情報122を生成して、表情筋トレーニング状態解析部に出力する。
  (ステップS313)
 ステップS313は、表情筋トレーニング状態解析部の実行する処理である。
 表情筋トレーニング状態解析部は、表情解析部210から入力する表情解析情報121を解析し、ユーザが表情筋を指示通りに動かしているか否かを判定する。
 すなわち皮膚の動きが十分であるか否かを判定する。
 皮膚の動きが十分でないと判定した場合は、ステップS301に戻り、同じ表情筋の動作指示を継続する。
 一方、皮膚の動きが十分であると判定した場合は、ステップS331に進む。
  (ステップS323)
 ステップS323も、表情筋トレーニング状態解析部の実行する処理である。
 表情筋トレーニング状態解析部は、生体信号解析部220から入力する生体解析情報122を解析し、ユーザに指定した表情筋位置の皮膚内部の血行が改善しているか否かを判定する。
 改善していないと判定した場合は、ステップS301に戻り、同じ表情筋の動作指示を継続する。
 一方、指定した表情筋位置の皮膚内部の血行が改善していると判定した場合は、ステップS331に進む。
  (ステップS331)
 ステップS331は、ステップS313とS323においてYesの判定、すなわち、皮膚の動きが十分であると判定され、かつ、指定した表情筋位置の皮膚内部の血行が改善していると判定した場合に実行する処理である。
 この場合、表情筋トレーニング状態解析部は、次のステップ、例えば異なる表情筋の動作指示を行う。
 このように表情筋トレーニングユーザの表情と生体の双方を解析することで、確実な表情筋トレーニングを実行させることが可能となる。
 なお、表情筋トレーニングに限らず、所定の筋肉を動かす指示を行うことで、所定の顔の表情、例えば笑顔を作るといった表情を作るための効果的な指示を行うことも可能となる。
  [7-(4)アバターの制御に利用する処理例]
 次に、本開示の情報処理装置の解析結果をアバターの制御に利用する処理例について説明する。
 本処理例は、ユーザの表情や感情を反映させたアバターを表示する制御を行う処理例である。
 図26は、本処理例の処理シーケンスを説明するフローチャートである。
 図26に示すフローチャートの各ステップの処理について説明する。なお、図26に示すフローチャートのステップS201,S211,S212,S221,S231の各処理は、先に図22を参照して説明したフロー中のステップS201,S211,S212,S221,S231の処理と同様の処理である。
  (ステップS201~S231)
 ステップS201において、受光部103の受光信号を入力する。なお、先に説明したように、受光部103の受光信号は、以下の2種類の反射光が混在する信号である。
 (1)皮膚表面の反射光
 (2)皮膚内部の生体組織の反射光(散乱光)
 ステップS211~S212は、図19に示す表情解析部210が実行する処理である。
 表情解析部210は、上記2種類の信号が混在した信号から、「(1)皮膚表面の反射光」を選択抽出する処理を実行してユーザの表情解析を実行して、解析結果として表情解析情報121を生成して高精度情動解析部230に出力し、さらに、ステップS250の処理を実行する表情真偽判定部にも出力する。
 ステップS221は、図19に示す生体信号解析部220が実行する処理である。
 生体信号解析部220は、上記2種類の信号が混在した信号から、「(2)皮膚内部の生体組織の反射光(散乱光)」を選択抽出する処理を実行してユーザの生体情報解析を実行して、解析結果として生体解析情報122を生成して高精度情動解析部230に出力する。
 ステップS231は、図19に示す高精度情動解析部230が実行する処理である。高精度情動解析部230は、表情解析部210の解析結果である表情解析情報121と、生体信号解析部220の解析結果である生体解析情報122を入力して高精度情動解析情報123を生成する。
  (ステップS260)
 ステップS260は、表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123を利用した処理であり、本処理例では、ユーザが利用するアバターの制御を行うアバター制御部が実行する処理である。
 アバター制御部は、表情解析部210が生成した表情解析情報121と、高精度情動解析部230が生成した高精度情動解析情報123を入力して、ユーザがPCやスマホ上に表示するユーザ対応のアバターの表情等を変更する処理を行う。
 例えば、ユーザが笑顔で情動として歓喜の状態にある場合は、笑顔で楽しそうなアバターを表示する。
 一方、ユーザが悲しい顔で、情動としても悲しい状態にある場合は、悲しい顔の沈んだアバターを表示する。
 さらに、以下のような処理を行うことも可能である。
 笑顔を検出した際に、情動が強い興奮の状態にあれば歓喜の表情で飛び跳ねる表現でアバターを表示する。一方笑顔を検出した際に情動が比較的落ち着いた状態であれば穏やかなしぐさでほほ笑むアバターを表示する。
 このように表情の検出だけでは実現できない多様なユーザの状態を表現することが可能になる。
 このように、本処理例では、ユーザの表情と情動を反映したアバターを表示させることが可能となる。
  [7-(5)ユーザの気合判定に利用する処理例]
 次に、本開示の情報処理装置の解析結果をユーザの気合判定に利用する処理例について説明する。
 本処理例は、ユーザの表情や感情に基づいてユーザの気合を判定する処理例である。
 本処理例を実行する場合、学習モデルとして気合判定を行うことが可能なモデルを構築することが必要となる。
 図27は、学習処理による学習モデル(気合モデル)の構築処理と、構築した学習モデルを利用した気合解析処理の実行シーケンスを示す図である。
 (A)学習時は、学習処理による学習モデルの構築処理のシーケンスを示した図である。
 (B)気合解析処理実行時は、構築した学習モデルを利用した気合解析処理の実行シーケンスを示す図である。
 まず、(A)学習時は、
 入力データとして、以下のデータを入力する。
 (1)受光部出力時系列データ(多チャンネル:S1,S2,・・・・)
 「(1)受光部出力時系列データ(多チャンネル:S1,S2,・・・・)」は、例えばHMDに装着されたセンサからの出力信号の時系列データである。すなわち、先に図10を参照して説明した信号S1~S7等のデータである。
 受光信号解析部104は、この入力データに基づいて、表情解析結果と、生体情報解析結果を生成して出力する。
 これらの結果は、学習器(気合モデル生成部)450に入力される。
 学習器(気合モデル生成部)450は、表情解析結果と、生体情報解析結果を入力して、気合レベルと、これらの情報とを対応付けた学習モデルである気合モデルを生成して、気合解析用情報記憶部470に格納する。
 図27に示す(B)気合解析処理実行時は、構築した学習モデル(気合モデル)を利用した表情解析処理の実行シーケンスを示す図である。
 この(B)気合解析処理実行時の入力データは、
 (1)受光部出力時系列データ(多チャンネル:S1,S2,・・・・)
 である。
 この入力データが、受光信号解析部104に入力される。
 受光信号解析部104は、この入力データに基づいて、表情解析結果と、生体情報解析結果を生成して出力する。
 これらの結果は、気合判定部480に入力される。
 気合判定部480は、気合解析用情報記憶部470に記録された学習モデル、すなわち、様々な気合レベルに表情情報と生体情報の特徴データが対応付けられた学習モデル(気合モデル)を参照して、入力信号に最も類似すると判定される特徴データを選択して、その特徴データに対応付けられた気合レベルを選択して、出力する。
 この(B)表情解析処理実行時の出力データは、
 (1)気合の有無、または気合のレベルを示すデータとなる。
 なお、図27に示す例は、様々な気合レベルに対して、表情情報と生体情報の特徴データを対応付けた学習モデル(気合モデル)を利用して、ユーザの気合レベルを判定する構成例について説明したが、利用する学習モデルを変更することで、気合レベルに限らず、様々なユーザの状態を判定することが可能となる。
 例えば、興奮レベル、歓喜レベル、悲しみレベル、落ち込みレベル等、様々なユーザの状態レベルに対して、表情情報と生体情報の特徴データを対応付けた学習モデルを生成して利用することで、様々なユーザ状態の判定が可能となる。
  [8.情報処理装置のハードウェア構成例について]
 次に、本開示の情報処理装置100のハードウェア構成例について説明する。
 図28は、情報処理装置のハードウェア構成例を示す図である。
 CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、または記憶部508に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。
 RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータなどが記憶される。これらのCPU501、ROM502、およびRAM503は、バス504により相互に接続されている。
 CPU501はバス504を介して入出力インタフェース505に接続され、入出力インタフェース505には、各種スイッチ、キーボード、タッチパネル、マウス、マイク、さらに、センサ等の状況データ取得部などよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507が接続されている。
 CPU501は、入力部506から入力される指令や状況データ等を入力し、各種の処理を実行し、処理結果を例えば出力部507に出力する。
 入出力インタフェース505に接続されている記憶部508は、例えばハードディスク等からなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア511を駆動し、データの記録あるいは読み取りを実行する。
  [9.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) ユーザの顔に対する照射光の反射光を受光する受光部と、
 前記受光部の受光信号を解析する受光信号解析部を有し、
 前記受光信号解析部は、
 前記反射光に基づいて表情解析情報を生成する表情解析部と、
 前記反射光に基づいて生体解析情報を生成する生体信号解析部と、
を有する情報処理装置。
 (2) 前記受光部の受光信号は、皮膚表面の反射光と、皮膚内部の生体組織の反射光と、
を含み、
 前記表情解析部は、
 前記受光部の受光信号から、低周波成分を抽出して皮膚表面の反射光を取得して表情解析を実行し、
 前記生体信号解析部は、
 前記受光部の受光信号から、高周波成分を抽出して皮膚内部の生体組織の反射光を取得して生体信号の解析処理を実行する(1)に記載の情報処理装置。
 (3) 前記表情解析部は、
 記憶部に格納した学習モデルを参照して、表情解析処理を実行する(1)または(2)記載の情報処理装置。
 (4) 前記学習モデルは、複数の異なる表情に対応する表情ラベルと、皮膚表面の動きを反映した皮膚表面の反射光信号の特徴データとの対応データを有する(3)に記載の情報処理装置。
 (5) 前記生体信号解析部は、
 記憶部に格納した学習モデルを参照して、生体解析処理を実行する(1)~(4)いずれかに記載の情報処理装置。
 (6) 前記学習モデルは、複数の異なる生体状態に対応する皮膚内部の状態を反映した皮膚内部の反射光信号の特徴データとの対応データを有する(5)に記載の情報処理装置。
 (7) 前記生体信号解析部は、
 ユーザの皮膚内部からの反射光を解析して、血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度、少なくともいずれかの生体解析情報を生成する(1)~(6)いずれかに記載の情報処理装置。
 (8) 前記受光部は、ヘッドマウントディスプレイの複数の位置に装着されている(1)~(7)いずれかに記載の情報処理装置。
 (9) 前記受光信号解析部は、
 前記ユーザの顔の異なる複数の位置からの反射光の解析を実行する(1)~(8)いずれかに記載の情報処理装置。
 (10) 前記受光信号解析部は、
 前記ユーザの顔の異なる複数の位置からの反射光の解析を実行し、
 位置に応じた異なる生体解析情報を取得する(1)~(9)いずれかに記載の情報処理装置。
 (11) 前記受光信号解析部は、
 前記ユーザの顔の異なる複数の位置からの反射光の解析を実行し、
 複数の異なる位置から取得される情報を補完的に用いて高精度な生体解析情報を取得する(1)~(9)いずれかに記載の情報処理装置。
 (12) 前記情報処理装置は、さらに、
 前記表情解析部の生成した表情解析情報と、
 前記生体信号解析部の生成した生体解析情報を入力し、
 入力した前記表情解析情報と、前記生体解析情報を利用して高精度なユーザの感情を示す高精度情動情報を生成する高精度情動解析部を有する(1)~(11)いずれかに記載の情報処理装置。
 (13) 前記高精度情動解析部は、
 記憶部に格納した学習モデルを参照して、情動解析処理を実行する(12)に記載の情報処理装置。
 (14) 前記学習モデルは、複数の異なる情動状態に対応する特徴データを対応付けたモデルであり、前記特徴データには、表情情報と生体情報各々の特徴データが含まれる(13)に記載の情報処理装置。
 (15) 前記情報処理装置は、さらに、
 前記高精度情動情報に基づくゲーム制御を実行するゲーム制御部を有する(12)~(14)いずれかに記載の情報処理装置。
 (16) 前記情報処理装置は、さらに、
 前記高精度情動情報に基づく表情真偽判定を実行する表情真偽判定部を有する(12)~(14)いずれかに記載の情報処理装置。
 (17) 前記情報処理装置は、さらに、
 前記表情解析情報と、前記生体解析情報に基づくアバター制御を実行するアバター制御部を有する(1)~(16)いずれかに記載の情報処理装置。
 (18) 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、
 ユーザの顔に対する照射光の反射光を受光する受光部と、
 前記受光部の受光信号を解析する受光信号解析部を有し、
 前記受光信号解析部が、
 前記反射光に基づいて表情解析情報を生成する表情解析処理と、
 前記反射光に基づいて生体解析情報を生成する生体信号解析処理を実行する情報処理方法。
 (19) 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、
 ユーザの顔に対する照射光の反射光を受光する受光部と、
 前記受光部の受光信号を解析する受光信号解析部を有し、
 前記プログラムは、前記受光信号解析部に、
 前記反射光に基づいて表情解析情報を生成する表情解析処理と、
 前記反射光に基づいて生体解析情報を生成する生体信号解析処理を実行させるプログラム。
 なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 また、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、ユーザの顔に対する照射光の反射光を解析して表情解析と生体信号解析の双方を併せて実行する構成が実現される。
 具体的には、例えば、ユーザの顔に対する照射光の反射光を受光する受光部と、受光部の受光信号を解析する受光信号解析部を有する。受光信号解析部は、ユーザ皮膚表面の反射光を解析して表情解析情報を生成する表情解析部と、皮膚内部の反射光を解析して生体解析情報を生成する生体信号解析部を有する。受光部の受光信号は、皮膚表面の反射光と皮膚内部の生体組織の反射光を含み、表情解析部は受光信号から低周波成分を抽出して皮膚表面の反射光を取得して表情解析を実行する。生体信号解析部は、受光信号から高周波成分を抽出して皮膚内部の生体組織の反射光を取得して生体信号の解析処理を実行する。
 本構成により、ユーザの顔に対する照射光の反射光を解析して表情解析と生体信号解析の双方を併せて実行する構成が実現される。
  10 ユーザ
 100 情報処理装置
 101 発光制御部
 102 発光部
 103 受光部
 104 受光信号解析部
 201 入力部
 210 表情解析部
 211 低周波成分抽出部
 212 A/D変換部
 213 表情解析結果生成部
 214 表情解析用情報記憶部
 220 生体信号解析部
 221 ハイパスフィルタ(高周波成分抽出部)
 222 増幅部
 223 A/D変換部
 224 ノイズ除去部
 225 生体信号解析結果生成部
 226 生体信号解析用情報記憶部
 230 高精度情動解析部
 231 高精度情動解析用情報記憶部
 401 学習器
 421 学習器
 450 学習器
 470 気合解析用情報記憶部
 480 気合判定部
 501 CPU
 502 ROM
 503 RAM
 504 バス
 505 入出力インタフェース
 506 入力部
 507 出力部
 508 記憶部
 509 通信部
 510 ドライブ
 511 リムーバブルメディア

Claims (19)

  1.  ユーザの顔に対する照射光の反射光を受光する受光部と、
     前記受光部の受光信号を解析する受光信号解析部を有し、
     前記受光信号解析部は、
     前記反射光に基づいて表情解析情報を生成する表情解析部と、
     前記反射光に基づいて生体解析情報を生成する生体信号解析部と、
    を有する情報処理装置。
  2.  前記受光部の受光信号は、皮膚表面の反射光と、皮膚内部の生体組織の反射光と、
    を含み、
     前記表情解析部は、
     前記受光部の受光信号から、低周波成分を抽出して皮膚表面の反射光を取得して表情解析を実行し、
     前記生体信号解析部は、
     前記受光部の受光信号から、高周波成分を抽出して皮膚内部の生体組織の反射光を取得して生体信号の解析処理を実行する請求項1に記載の情報処理装置。
  3.  前記表情解析部は、
     記憶部に格納した学習モデルを参照して、表情解析処理を実行する請求項1に記載の情報処理装置。
  4.  前記学習モデルは、複数の異なる表情に対応する表情ラベルと、皮膚表面の動きを反映した皮膚表面の反射光信号の特徴データとの対応データを有する請求項3に記載の情報処理装置。
  5.  前記生体信号解析部は、
     記憶部に格納した学習モデルを参照して、生体解析処理を実行する請求項1に記載の情報処理装置。
  6.  前記学習モデルは、複数の異なる生体状態に対応する皮膚内部の状態を反映した皮膚内部の反射光信号の特徴データとの対応データを有する請求項5に記載の情報処理装置。
  7.  前記生体信号解析部は、
     ユーザの皮膚内部からの反射光を解析して、血流量、血流速度、脈波、血圧、心拍、心拍変動、血中酸素濃度、動脈血酸素飽和度、少なくともいずれかの生体解析情報を生成する請求項1に記載の情報処理装置。
  8.  前記受光部は、ヘッドマウントディスプレイの複数の位置に装着されている請求項1に記載の情報処理装置。
  9.  前記受光信号解析部は、
     前記ユーザの顔の異なる複数の位置からの反射光の解析を実行する請求項1に記載の情報処理装置。
  10.  前記受光信号解析部は、
     前記ユーザの顔の異なる複数の位置からの反射光の解析を実行し、
     位置に応じた異なる生体解析情報を取得する請求項1に記載の情報処理装置。
  11.  前記受光信号解析部は、
     前記ユーザの顔の異なる複数の位置からの反射光の解析を実行し、
     複数の異なる位置から取得される情報を補完的に用いて高精度な生体解析情報を取得する請求項1に記載の情報処理装置。
  12.  前記情報処理装置は、さらに、
     前記表情解析部の生成した表情解析情報と、
     前記生体信号解析部の生成した生体解析情報を入力し、
     入力した前記表情解析情報と、前記生体解析情報を利用して高精度なユーザの感情を示す高精度情動情報を生成する高精度情動解析部を有する請求項1に記載の情報処理装置。
  13.  前記高精度情動解析部は、
     記憶部に格納した学習モデルを参照して、情動解析処理を実行する請求項12に記載の情報処理装置。
  14.  前記学習モデルは、複数の異なる情動状態に対応する特徴データを対応付けたモデルであり、前記特徴データには、表情情報と生体情報各々の特徴データが含まれる請求項13に記載の情報処理装置。
  15.  前記情報処理装置は、さらに、
     前記高精度情動情報に基づくゲーム制御を実行するゲーム制御部を有する請求項12に記載の情報処理装置。
  16.  前記情報処理装置は、さらに、
     前記高精度情動情報に基づく表情真偽判定を実行する表情真偽判定部を有する請求項12に記載の情報処理装置。
  17.  前記情報処理装置は、さらに、
     前記表情解析情報と、前記生体解析情報に基づくアバター制御を実行するアバター制御部を有する請求項1に記載の情報処理装置。
  18.  情報処理装置において実行する情報処理方法であり、
     前記情報処理装置は、
     ユーザの顔に対する照射光の反射光を受光する受光部と、
     前記受光部の受光信号を解析する受光信号解析部を有し、
     前記受光信号解析部が、
     前記反射光に基づいて表情解析情報を生成する表情解析処理と、
     前記反射光に基づいて生体解析情報を生成する生体信号解析処理を実行する情報処理方法。
  19.  情報処理装置において情報処理を実行させるプログラムであり、
     前記情報処理装置は、
     ユーザの顔に対する照射光の反射光を受光する受光部と、
     前記受光部の受光信号を解析する受光信号解析部を有し、
     前記プログラムは、前記受光信号解析部に、
     前記反射光に基づいて表情解析情報を生成する表情解析処理と、
     前記反射光に基づいて生体解析情報を生成する生体信号解析処理を実行させるプログラム。
PCT/JP2020/000666 2019-02-22 2020-01-10 情報処理装置、および情報処理方法、並びにプログラム WO2020170645A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080014402.0A CN113423334A (zh) 2019-02-22 2020-01-10 信息处理设备、信息处理方法和程序
US17/430,869 US20220084196A1 (en) 2019-02-22 2020-01-10 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-030102 2019-02-22
JP2019030102 2019-02-22

Publications (1)

Publication Number Publication Date
WO2020170645A1 true WO2020170645A1 (ja) 2020-08-27

Family

ID=72144095

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000666 WO2020170645A1 (ja) 2019-02-22 2020-01-10 情報処理装置、および情報処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20220084196A1 (ja)
CN (1) CN113423334A (ja)
WO (1) WO2020170645A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113380A1 (ja) * 2020-11-26 2022-06-02 パナソニックIpマネジメント株式会社 感情判定システム、感情判定方法及びプログラム
JP7435965B2 (ja) 2022-02-28 2024-02-21 株式会社Csイノベーション 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11908478B2 (en) 2021-08-04 2024-02-20 Q (Cue) Ltd. Determining speech from facial skin movements using a housing supported by ear or associated with an earphone
US20240070251A1 (en) * 2021-08-04 2024-02-29 Q (Cue) Ltd. Using facial skin micromovements to identify a user
WO2024018400A2 (en) * 2022-07-20 2024-01-25 Q (Cue) Ltd. Detecting and utilizing facial micromovements

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005512248A (ja) * 2001-12-11 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ムード対応バーチャル写真アルバム
WO2017006872A1 (ja) * 2015-07-03 2017-01-12 学校法人慶應義塾 顔表情識別システム、顔表情識別方法及び顔表情識別プログラム
JP2017021737A (ja) * 2015-07-15 2017-01-26 Kddi株式会社 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム
US20180107275A1 (en) * 2015-04-13 2018-04-19 Empire Technology Development Llc Detecting facial expressions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005512248A (ja) * 2001-12-11 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ムード対応バーチャル写真アルバム
US20180107275A1 (en) * 2015-04-13 2018-04-19 Empire Technology Development Llc Detecting facial expressions
WO2017006872A1 (ja) * 2015-07-03 2017-01-12 学校法人慶應義塾 顔表情識別システム、顔表情識別方法及び顔表情識別プログラム
JP2017021737A (ja) * 2015-07-15 2017-01-26 Kddi株式会社 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113380A1 (ja) * 2020-11-26 2022-06-02 パナソニックIpマネジメント株式会社 感情判定システム、感情判定方法及びプログラム
JP7435965B2 (ja) 2022-02-28 2024-02-21 株式会社Csイノベーション 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム

Also Published As

Publication number Publication date
CN113423334A (zh) 2021-09-21
US20220084196A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
WO2020170645A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
CN110612056B (zh) 使用基于相机的感测来确定动脉位置
Sabour et al. Ubfc-phys: A multimodal database for psychophysiological studies of social stress
US9031293B2 (en) Multi-modal sensor based emotion recognition and emotional interface
US20200090392A1 (en) Method of Facial Expression Generation with Data Fusion
JP2017144222A (ja) 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
EP3062697A1 (en) Method and system for screening of atrial fibrillation
KR101689021B1 (ko) 센싱장비를 이용한 심리상태 판단 시스템 및 그 방법
JPWO2018088358A1 (ja) 脈波検出装置、画像解析装置および生体情報生成システム
KR20200049930A (ko) 생체 신호 분석 시스템 및 이를 이용한 생체 신호 분석 방법
JP2009101057A (ja) 生体情報処理装置、生体情報処理方法及びプログラム
KR101307783B1 (ko) 사회성 훈련 장치 및 그 방법
KR102243017B1 (ko) 얼굴 피부 영상을 이용한 우울증 지수 측정 및 진단 방법
CN113313795A (zh) 虚拟化身脸部表情生成系统和虚拟化身脸部表情生成方法
JP2018205616A (ja) 対話システム、対話システムの制御方法、及び装置
Dinculescu et al. Novel approach to face expression analysis in determining emotional valence and intensity with benefit for human space flight studies
JP7021488B2 (ja) 情報処理装置、及びプログラム
Sripian et al. Study of empathy on robot expression based on emotion estimated from facial expression and biological signals
TWI646438B (zh) 情緒偵測系統及方法
CN115137336A (zh) 处理方法、系统及存储介质
Bevilacqua et al. Proposal for non-contact analysis of multimodal inputs to measure stress level in serious games
CN113040773A (zh) 一种数据采集处理方法
Whang et al. A physiological approach to affective computing
KR20200007162A (ko) 근전도 신호를 이용하는 감정 인식 방법 및 장치
Thannoon et al. A survey on deceptive detection systems and technologies

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20759429

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20759429

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP