WO2019176535A1 - ユーザの心理状態を推定するためのシステム、記録媒体、および方法 - Google Patents

ユーザの心理状態を推定するためのシステム、記録媒体、および方法 Download PDF

Info

Publication number
WO2019176535A1
WO2019176535A1 PCT/JP2019/007430 JP2019007430W WO2019176535A1 WO 2019176535 A1 WO2019176535 A1 WO 2019176535A1 JP 2019007430 W JP2019007430 W JP 2019007430W WO 2019176535 A1 WO2019176535 A1 WO 2019176535A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
user
stimulus
pulsed light
value
Prior art date
Application number
PCT/JP2019/007430
Other languages
English (en)
French (fr)
Inventor
雅登 鈴木
貴真 安藤
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP19767745.3A priority Critical patent/EP3766425A4/en
Priority to JP2020505744A priority patent/JP7308430B2/ja
Priority to CN201980009787.9A priority patent/CN111655149A/zh
Publication of WO2019176535A1 publication Critical patent/WO2019176535A1/ja
Priority to US16/985,261 priority patent/US11557148B2/en
Priority to US18/064,621 priority patent/US11963772B2/en
Priority to JP2023101732A priority patent/JP2023126820A/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6891Furniture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • the present disclosure relates to a system, a recording medium, and a method for estimating a user's psychological state.
  • Non-Patent Document 1 discloses that the pattern of facial blood flow changes according to the emotion of the subject.
  • the pattern of facial blood flow is obtained by imaging the blood flow distribution of the entire face with a laser speckle hematometer.
  • Non-Patent Document 2 discloses a method of determining depression from the state of cerebral blood flow including blood flow of the scalp in the frontal region using near-infrared spectroscopy (Near-Infrared Spectroscopy).
  • This disclosure provides a novel technique for acquiring information on the skin blood flow and cerebral blood flow of a user and estimating a psychological state such as emotion.
  • a system detects a light source that emits pulsed light that irradiates a user's head, and at least part of reflected pulsed light that has returned from the head, and the at least part of the reflected pulsed light is detected.
  • a photodetector that outputs one or more signals in accordance with a part of the intensity; and an electric that controls the light source and the photodetector to process the one or more signals output from the photodetector
  • a circuit and a first memory that stores an emotion model indicating a relationship between the one or more signals and a plurality of emotions.
  • the electrical circuit selects at least one emotion from the plurality of emotions by referring to the emotion model based on a change in the one or more signals.
  • the one or more signals include a first signal corresponding to an intensity of the first portion of the reflected pulsed light and a second signal corresponding to an intensity of a second portion different from the first part of the reflected pulsed light. 2 signals.
  • the first portion includes a portion before the start of a falling period that is a period from when the intensity of the reflected pulse light starts to decrease to when it ends, and the second portion includes the falling period. Including at least a portion.
  • the comprehensive or specific aspect of the present disclosure may be realized by a system, an apparatus, a method, an integrated circuit, a computer program, or a recording medium. Alternatively, it may be realized by any combination of a system, an apparatus, a method, an integrated circuit, a computer program, and a recording medium.
  • FIG. 1A is a schematic diagram illustrating a system according to an embodiment of the present disclosure.
  • FIG. 1B is a diagram illustrating an example of a temporal change in the intensity of light reaching the photodetector.
  • FIG. 1C is a diagram in which the horizontal axis represents the width of the input pulse light and the vertical axis represents the amount of light detected by the photodetector 30.
  • FIG. 1D is a diagram illustrating an example of a schematic configuration of one pixel of the photodetector.
  • FIG. 1E is a diagram illustrating an example of a configuration of a photodetector.
  • FIG. 1F is a diagram illustrating an example of an operation within one frame.
  • FIG. 1G is a flowchart showing an outline of the operation of the control circuit.
  • FIG. 2 is a diagram for explaining a method for detecting an internal scattering component of pulsed light.
  • FIG. 3A is a diagram illustrating an example of a timing chart when a surface reflection component is detected.
  • FIG. 3B is a diagram illustrating an example of a timing chart for detecting an internal scattering component.
  • FIG. 4 is a flowchart illustrating an example of processing for estimating the state of the user before measurement.
  • FIG. 5 is a diagram schematically showing a Russell's annular model.
  • FIG. 6 is a diagram schematically showing an emotion / wakefulness map.
  • FIG. 7 is a flowchart illustrating an example of processing for classifying a user's emotion into one of four emotion groups.
  • FIG. 8 is a flowchart illustrating an example of processing for estimating a user's emotion during execution of a task.
  • FIG. 9 is a diagram schematically illustrating a configuration example of a plurality of biological measurement systems and a server computer.
  • FIG. 10 is a diagram illustrating an application example in a vehicle.
  • FIG. 11 is a diagram illustrating an application example of the mental health check.
  • FIG. 12 is a diagram schematically illustrating the head mount device.
  • FIG. 13 is a diagram schematically illustrating a smartphone.
  • all or part of a circuit, unit, device, member, or part, or all or part of a functional block in a block diagram is, for example, a semiconductor device, a semiconductor integrated circuit (IC), or an LSI (large scale integration).
  • LSI or IC may be integrated on one chip or may be configured by combining a plurality of chips.
  • the functional blocks other than the memory element may be integrated on one chip.
  • LSI or IC it is called LSI or IC, but the name changes depending on the degree of integration, and may be called system LSI, VLSI (very large scale integration), or ULSI (ultra large scale integration).
  • a Field Programmable Gate Array (FPGA), which is programmed after the manufacture of the LSI, or a reconfigurable logic device that can reconfigure the connection relationship inside the LSI or set up the circuit partition inside the LSI can be used for the same purpose.
  • FPGA Field Programmable Gate Array
  • the software is recorded on a non-transitory recording medium such as one or more ROMs, optical disks, hard disk drives, etc., and when the software is executed by a processor, the functions specified by the software are recorded. It is executed by a processor and peripheral devices.
  • the system or apparatus may comprise one or more non-transitory recording media on which software is recorded, a processor, and required hardware devices such as interfaces.
  • FIG. 1A is a schematic diagram showing a biological measurement system 100 according to the present embodiment.
  • the biological measurement system 100 includes a stimulation device 10, a light source 20, a photodetector 30, an output device 40, an input device 50, a control circuit 60, and a signal processing circuit 70.
  • the control circuit 60 and the signal processing circuit 70 are examples of the electric circuit in the present disclosure.
  • the stimulation device 10 provides stimulation to the user 1.
  • the light source 20 emits pulsed light that irradiates the head of the user 1.
  • the photodetector 30 detects at least part of the pulsed light that has returned from the head of the user 1.
  • the output device 40 outputs a result based on the processing of the signal processing circuit 70 to the user 1.
  • the input device 50 receives input from the user 1.
  • the control circuit 60 controls the stimulation device 10, the light source 20, the photodetector 30, the output device 40, and the input device 50.
  • the signal processing circuit 70 processes the signal output from the photodetector 30.
  • control circuit 60 includes a stimulation control unit 61 that controls the stimulation device 10, a light source control unit 62 that controls the light source 20, a sensor control unit 63 that controls the photodetector 30, and the output device 40.
  • An output control unit 64 for controlling and an input control unit 65 for controlling the input device 50 are included.
  • the stimulus control unit 61 controls at least one of the hue, saturation, and luminance of the video provided as the stimulus 12, or at least one of the sound quality and size of the sound.
  • the light source control unit 62 controls the intensity, pulse width, emission timing, and / or wavelength of the pulsed light emitted from the light source 20.
  • the sensor control unit 63 controls the signal accumulation timing in each pixel of the photodetector 30.
  • the output control unit 64 controls at least one of the hue, saturation, and luminance of the output video, or at least one of the sound quality and size of the sound.
  • the input control unit 65 controls the start and end of acceptance of input.
  • the “biological reaction” means a change in the biological information of the user 1 that occurs when the stimulus 12 is provided.
  • Biological information means the measurable amount of a living body that changes due to the stimulus 12.
  • Biological information includes, for example, blood flow, blood pressure, heart rate, pulse rate, respiratory rate, body temperature, electroencephalogram, oxygenated hemoglobin concentration in blood, deoxygenated hemoglobin concentration in blood, blood oxygen saturation, Various quantities are included, such as a reflection spectrum. Part of the biological information is sometimes called vital sign. Below, each component of the biological measurement system 100 is demonstrated.
  • the stimulation device 10 provides a stimulation 12 to the user 1.
  • the stimulus 12 causes the biological reaction of the user 1.
  • the stimulation apparatus 10 may include, for example, at least one of a display and a speaker.
  • the stimulation apparatus 10 provides the user 1 with at least one stimulation 12 of video and audio, for example.
  • the video is a stimulus for vision
  • the voice is a stimulus for hearing.
  • FIG. 1A schematically shows a situation where the stimulating device 10 having a display provides an image as a stimulus 12 to the user 1.
  • This visual stimulus may be a variety of tasks, such as, for example, computational problems, language problems, puzzles, quizzes, or games.
  • the stimulation device 10 may output a sound corresponding to the task simultaneously with the presentation of the task.
  • the visual stimulus may be a change in lighting brightness or color in the room.
  • a stimulus 12 for touch, smell or taste may be provided.
  • the stimulation apparatus 10 has a different structure and function depending on the type of stimulation given to the user 1. For example, when a tactile stimulus is given to the user 1, the stimulating device 10 may be a device that generates vibration or heat. When giving the user 1 an olfactory sensation, the stimulation device 10 may be a device that generates an odor.
  • the light source 20 irradiates light on the head (for example, forehead) of the user 1.
  • the light emitted from the light source 20 and reaching the user 1 is divided into a surface reflection component I1 reflected on the surface of the user 1 and an internal scattering component I2 scattered inside the user 1.
  • the internal scattering component I2 is a component that is reflected or scattered once or multiple scattered inside the living body.
  • the internal scattering component I2 refers to a component that reaches the back of the forehead from about 8 mm to 16 mm, for example, the brain, and returns to the biological measurement system 100 again.
  • the surface reflection component I1 includes three components: a direct reflection component, a diffuse reflection component, and a scattering reflection component.
  • the direct reflection component is a reflection component having the same incident angle and reflection angle.
  • the diffuse reflection component is a component that is diffused and reflected by the uneven shape of the surface.
  • the scattering reflection component is a component that is scattered and reflected by the internal tissue in the vicinity of the surface. When irradiating the user's 1 forehead with light, the scattered reflection component is a component that is scattered and reflected inside the epidermis.
  • the surface reflection component I1 reflected on the surface of the user 1 is assumed to include these three components.
  • the surface reflection component I ⁇ b> 1 and the internal scattering component I ⁇ b> 2 change their traveling directions due to reflection or scattering, and part of them reach the photodetector 30.
  • the light source 20 repeatedly generates pulsed light at a predetermined time interval or at a predetermined timing.
  • the pulsed light generated by the light source 20 may be, for example, a rectangular wave whose falling period is close to zero.
  • the “falling period” is a period from when the intensity of pulsed light starts to decrease until the decrease ends.
  • light incident on the user 1 propagates through the user 1 through various paths and is emitted from the surface of the user 1 with a time difference. For this reason, the rear end of the internal scattering component I2 of the pulsed light has a spread.
  • the falling period of the pulsed light can be set to 2 ns or less, for example, half or less.
  • the falling period may be 1 ns or less, which is half of that.
  • the rising period of the pulsed light generated by the light source 20 is arbitrary.
  • the “rising period” is a period from when the intensity of pulsed light starts to increase until the increase ends. This is because the detection of the internal scattering component I2 in the present embodiment uses the falling portion of the pulsed light and does not use the rising portion.
  • the rising portion of the pulsed light can be used for detecting the surface reflection component I1.
  • the light source 20 can be, for example, a laser such as an LD whose falling portion of pulsed light is close to a right angle with respect to the time axis, that is, the time response characteristic is abrupt.
  • the wavelength of the light emitted from the light source 20 may be any wavelength included in the wavelength range of, for example, 650 nm or more and 950 nm or less. This wavelength range is included in the wavelength range from red to near infrared.
  • the term “light” is used not only for visible light but also for infrared rays.
  • the above wavelength range is called a “biological window” and has a property that it is relatively hardly absorbed by moisture and skin in the living body. When a living body is a detection target, detection sensitivity can be increased by using light in the above-described wavelength range.
  • the light used is mainly absorbed by oxygenated hemoglobin (HbO 2 ) and deoxygenated hemoglobin (Hb). Conceivable.
  • the wavelength dependence of light absorption differs between oxygenated hemoglobin and deoxygenated hemoglobin.
  • the concentration of oxygenated hemoglobin and deoxygenated hemoglobin changes, so that the degree of light absorption also changes. Therefore, when the blood flow changes, the amount of light detected also changes with time.
  • the light source 20 may emit light having two or more wavelengths included in the above wavelength range. Such light of a plurality of wavelengths may be emitted from a plurality of light sources, respectively.
  • the light source 20 designed in consideration of the influence on the retina can be used.
  • a light source 20 that satisfies Class 1 of the laser safety standard established in each country can be used.
  • the user 1 is irradiated with light with low illuminance such that the exposure limit (AEL) is less than 1 mW.
  • the light source 20 itself does not have to satisfy Class 1.
  • a diffuser plate or an ND filter may be installed in front of the light source 20 so that light is diffused or attenuated so that the laser safety standard class 1 may be satisfied.
  • a streak camera has been used to distinguish and detect information such as absorption coefficient or scattering coefficient at different locations in the depth direction inside the living body.
  • Japanese Patent Laid-Open No. 4-189349 discloses an example of such a streak camera.
  • ultrashort pulse light having a pulse width of femtosecond or picosecond is used for measurement with a desired spatial resolution.
  • the biological measurement system 100 of the present disclosure can detect the surface reflection component I1 and the internal scattering component I2 separately. Therefore, the pulsed light emitted from the light source 20 does not have to be ultrashort pulsed light, and the pulse width can be arbitrarily selected.
  • the amount of the internal scattering component I2 becomes a very small value of about one thousandth to tens of thousands of the amount of light of the surface reflection component I1. obtain. Furthermore, in consideration of laser safety standards, the amount of light that can be irradiated becomes extremely small, and detection of the internal scattering component I2 becomes very difficult. Even in such a case, if the light source 20 generates pulsed light having a relatively large pulse width, the integrated amount of the internal scattering component I2 with a time delay can be increased. Thereby, the detected light quantity can be increased and the SN ratio can be improved.
  • the light source 20 emits pulsed light having a pulse width of 3 ns or more, for example.
  • the temporal spread of light scattered in a living tissue such as the brain is about 4 ns.
  • FIG. 1B shows an example of a temporal change in the amount of light reaching the photodetector 30 when the width of the input pulse light is 0 ns, 3 ns, and 10 ns. As shown in FIG. 1B, as the width of the pulsed light from the light source 20 is increased, the amount of the internal scattering component I2 that appears at the rear end of the pulsed light returned from the user 1 increases.
  • FIG. 1B shows an example of a temporal change in the amount of light reaching the photodetector 30 when the width of the input pulse light is 0 ns, 3 ns, and 10 ns.
  • FIG. 1C is a diagram in which the horizontal axis represents the width of the input pulse light and the vertical axis represents the amount of light detected by the photodetector 30.
  • the photodetector 30 includes an electronic shutter.
  • the result of FIG. 1C was obtained under the condition that the electronic shutter was opened after 1 ns had elapsed from the time when the rear end of the pulsed light was reflected by the surface of the user 1 and reached the photodetector 30.
  • the reason for selecting this condition is that the ratio of the surface reflection component I1 to the internal scattering component I2 is high immediately after the trailing edge of the pulsed light arrives.
  • the pulse width of the pulsed light emitted from the light source 20 is 3 ns or more, the amount of light detected by the photodetector 30 can be maximized.
  • the light source 20 may emit pulsed light having a pulse width of 5 ns or more, and further 10 ns or more. On the other hand, even if the pulse width is too large, light that is not used increases and is wasted. Therefore, the light source 20 generates pulsed light having a pulse width of 50 ns or less, for example. Alternatively, the light source 20 may emit pulsed light having a pulse width of 30 ns or less, and further 20 ns or less.
  • the irradiation pattern of the light source 20 may be a pattern having a uniform intensity distribution in the irradiation region, for example.
  • the present embodiment is different from the conventional biological measurement apparatus disclosed in, for example, Japanese Patent Application Laid-Open No. 11-164826.
  • the detector and the light source are separated by about 3 cm to spatially separate the surface reflection component from the internal scattering component. For this reason, it must be discrete light irradiation.
  • the living body measurement system 100 of the present embodiment can reduce the surface reflection component I1 by temporally separating the surface reflection component I1 from the internal scattering component I2. For this reason, the light source 20 having an irradiation pattern having a uniform intensity distribution can be used.
  • the irradiation pattern having a uniform intensity distribution may be formed by diffusing light emitted from the light source 20 with a diffusion plate.
  • the internal scattering component I2 can be detected even immediately under the irradiation point of the user 1.
  • the measurement resolution can be increased.
  • the photodetector 30 detects at least a part of the reflected pulsed light that has returned from the head of the user 1.
  • the photodetector 30 outputs one or more signals corresponding to the detected light intensity.
  • the one or more signals are a signal corresponding to the intensity included in at least a part of the rising period and a signal corresponding to the intensity included in at least a part of the falling period of the reflected pulse light.
  • the photodetector 30 includes a plurality of photoelectric conversion elements 32 and a plurality of charge storage units 34. Specifically, the photodetector 30 has a plurality of photodetector cells arranged two-dimensionally, and acquires the two-dimensional information of the user 1 at a time. In this specification, the light detection cell is also referred to as a “pixel”.
  • the photodetector 30 is an arbitrary imaging element such as a CCD image sensor or a CMOS image sensor. More generally, the photodetector 30 includes at least one photoelectric conversion element 32 and at least one charge storage unit 34.
  • the photodetector 30 has an electronic shutter.
  • the electronic shutter is a circuit that controls imaging timing.
  • the sensor control unit 63 in the control circuit 60 has a function of an electronic shutter.
  • the electronic shutter controls a signal accumulation period in which received light is converted into an effective electrical signal and accumulated, and a period in which signal accumulation is stopped.
  • the signal accumulation period can also be referred to as “exposure period” or “photographing period”.
  • the width of the exposure period may be referred to as “shutter width”.
  • the time from the end of one exposure period to the start of the next exposure period may be referred to as a “non-exposure period”.
  • the exposure state may be referred to as “OPEN”, and the exposure stop state may be referred to as “CLOSE”.
  • the photodetector 30 can adjust the exposure period and the non-exposure period in a sub-nanosecond range, for example, in the range of 30 ps to 1 ns by an electronic shutter.
  • a conventional TOF camera intended for distance measurement detects all the light emitted from the light source 20 and reflected back by the subject in order to correct the influence of the brightness of the subject. Therefore, in the conventional TOF camera, the shutter width needs to be larger than the pulse width of light.
  • the shutter width need not be larger than the pulse width. Therefore, the shutter width can be set to a value of 1 ns to 30 ns, for example. According to the living body measurement system 100 of the present embodiment, since the shutter width can be reduced, the influence of the dark current included in the detection signal can be reduced.
  • the internal light attenuation rate is very large.
  • the emitted light can be attenuated to about 1 / 1,000,000 with respect to the incident light.
  • the amount of light may be insufficient with only one pulse irradiation.
  • the amount of light is particularly weak in laser safety standard class 1 irradiation.
  • the light source 20 emits the pulsed light a plurality of times, and the light detector 30 is also exposed a plurality of times by the electronic shutter, whereby the detection signals can be integrated to improve the sensitivity.
  • the photodetector 30 can include a plurality of pixels arranged two-dimensionally on the imaging surface.
  • Each pixel may include a photoelectric conversion element 32 such as a photodiode and one or a plurality of charge storage units 34.
  • each pixel has a photoelectric conversion element 32 that generates a signal charge corresponding to the amount of received light by photoelectric conversion, a charge storage unit 34 that stores the signal charge generated by the surface reflection component I1 of the pulsed light, An example provided with a charge storage unit 34 that stores signal charges generated by the scattering component I2 will be described.
  • control circuit 60 causes the photodetector 30 to detect the surface reflection component I1 by detecting the part of the pulsed light returned from the head of the user 1 before the start of falling.
  • the control circuit 60 also causes the photodetector 30 to detect the internal scattering component I2 by detecting the part of the pulsed light returned from the head of the user 1 after the start of falling.
  • the light source 20 emits light of two types of wavelengths.
  • FIG. 1D is a diagram illustrating a schematic configuration example of one pixel 201 of the photodetector 30.
  • FIG. 1D schematically shows the configuration of one pixel 201 and does not necessarily reflect the actual structure.
  • the pixel 201 in this example includes a photodiode 203 that performs photoelectric conversion, first to fourth floating diffusion layers (floating diffusion) 204, 205, 206, and 207 that are charge storage units, and a drain 202 that discharges signal charges. Including.
  • the photons that have entered each pixel due to the emission of one pulsed light are converted by the photodiode 203 into signal electrons that are signal charges.
  • the converted signal electrons are discharged to the drain 202 or distributed to any one of the first to fourth floating diffusion layers 204, 205, 206, and 207 according to a control signal input from the control circuit 60.
  • the discharge of the signal charge to the drain 202 is repeatedly performed in this order. This repeated operation is fast, and can be repeated, for example, tens of thousands to hundreds of millions of times within one frame of a moving image (for example, about 1/30 second).
  • the pixel 201 finally generates and outputs four image signals based on the signal charges accumulated in the first to fourth floating diffusion layers 204, 205, 206, and 207.
  • the control circuit 60 in this example causes the light source 20 to repeatedly emit the first pulsed light having the first wavelength and the second pulsed light having the second wavelength in order.
  • the state of the user 1 can be analyzed. For example, a wavelength longer than 805 nm may be selected as the first wavelength, and a wavelength shorter than 805 nm may be selected as the second wavelength. This makes it possible to detect changes in the oxygenated hemoglobin concentration and the deoxygenated hemoglobin concentration in the blood of the user 1.
  • the control circuit 60 first causes the light source 20 to emit the first pulsed light.
  • the control circuit 60 accumulates signal charges in the first floating diffusion layer 204 during the first period in which the surface reflection component I1 of the first pulsed light is incident on the photodiode 203.
  • the control circuit 60 accumulates signal charges in the second floating diffusion layer 205 during the second period in which the internal scattering component I2 of the first pulsed light is incident on the photodiode 203.
  • the control circuit 60 causes the light source 20 to emit the second pulsed light.
  • the control circuit 60 accumulates signal charges in the third floating diffusion layer 206 during the third period in which the surface reflection component I1 of the second pulsed light is incident on the photodiode 203.
  • the control circuit 60 accumulates signal charges in the fourth floating diffusion layer 207 during the fourth period in which the internal scattering component I2 of the second pulsed light is incident on the photodiode 203.
  • the control circuit 60 leaves the first floating diffusion layer 204 and the second floating diffusion layer 205 from the photodiode 203 with a predetermined time difference. Signal charges are accumulated sequentially. Thereafter, the control circuit 60 starts the emission of the second pulse light, and then sends the signal from the photodiode 203 to the third floating diffusion layer 206 and the fourth floating diffusion layer 207 with a predetermined time difference. Charge is sequentially accumulated. The above operation is repeated several times. In order to estimate the amount of disturbance light and ambient light, a period for accumulating signal charges in another floating diffusion layer (not shown) with the light source 20 turned off may be provided. By subtracting the signal charge amount of the other floating diffusion layer from the signal charge amount of the first to fourth floating diffusion layers 204, 205, 206, and 207, a signal from which disturbance light and ambient light components are removed is obtained. Can do.
  • the number of charge storage units is four, but it may be designed to be a plurality of two or more according to the purpose. For example, when only one type of wavelength is used, the number of charge storage units may be two. Further, in an application in which one type of wavelength is used and the surface reflection component I1 is not detected, the number of charge storage units for each pixel may be one. Even when two or more types of wavelengths are used, the number of charge storage units may be one if imaging using each wavelength is performed in different frames. Further, as will be described later, if the detection of the surface reflection component I1 and the detection of the internal scattering component I2 are performed in different frames, the number of charge storage units may be one.
  • FIG. 1E is a diagram illustrating an example of the configuration of the photodetector 30.
  • a region surrounded by a two-dot chain line corresponds to one pixel 201.
  • the pixel 201 includes one photodiode. Although only four pixels arranged in 2 rows and 2 columns are shown in FIG. 1E, a larger number of pixels may actually be arranged.
  • the pixel 201 includes first to fourth floating diffusion layers 204, 205, 206, and 207. Signals accumulated in the first to fourth floating diffusion layers 204, 205, 206, and 207 are handled as if they were signals of four pixels of a general CMOS image sensor, and are output from the photodetector 30.
  • Each pixel 201 has four signal detection circuits.
  • Each signal detection circuit includes a source follower transistor 309, a row selection transistor 308, and a reset transistor 310.
  • the reset transistor 310 corresponds to the drain 202 shown in FIG. 1D
  • the pulse input to the gate of the reset transistor 310 corresponds to the drain discharge pulse.
  • Each transistor is, for example, a field effect transistor formed on a semiconductor substrate, but is not limited thereto.
  • one of the input and output terminals of the source follower transistor 309 typically the source
  • one of the input and output terminals of the row select transistor 308 typically the drain It is connected.
  • a gate which is a control terminal of the source follower transistor 309 is connected to the photodiode 203.
  • Signal charges (that is, holes or electrons) generated by the photodiode 203 are accumulated in a floating diffusion layer that is a charge accumulation portion between the photodiode 203 and the source follower transistor 309.
  • the first to fourth floating diffusion layers 204, 205, 206, and 207 are connected to the photodiode 203.
  • a switch may be provided between the photodiode 203 and the first to fourth floating diffusion layers 204, 205, 206, and 207. This switch switches the conduction state between the photodiode 203 and each of the first to fourth floating diffusion layers 204, 205, 206, and 207 in response to a signal accumulation pulse from the control circuit 60. Thereby, the start and stop of the accumulation of signal charges in each of the first to fourth floating diffusion layers 204, 205, 206, and 207 are controlled.
  • the electronic shutter in this embodiment has a mechanism for such exposure control.
  • the signal charges stored in the first to fourth floating diffusion layers 204, 205, 206, and 207 are read by turning on the gate of the row selection transistor 308 by the row selection circuit 302. At this time, the current flowing from the source follower power supply 305 to the source follower transistor 309 and the source follower load 306 is amplified according to the signal potentials of the first to fourth floating diffusion layers 204, 205, 206, and 207.
  • An analog signal by this current read from the vertical signal line 304 is converted into digital signal data by an analog-digital conversion circuit 307 connected for each column.
  • the digital signal data is read for each column by the column selection circuit 303 and output from the photodetector 30.
  • the row selection circuit 302 and the column selection circuit 303 read out one row, then read out the next row, and similarly read signal charge information of floating diffusion layers in all rows.
  • the control circuit 60 resets all floating diffusion layers by turning on the gate of the reset transistor 310 after reading all signal charges. Thereby, the imaging of one frame is completed. Similarly, by repeating high-speed imaging of frames, imaging of a series of frames by the photodetector 30 is completed.
  • the photodetector 30 may be another type of image sensor.
  • the photodetector 30 may be, for example, a CCD type, a single photon counting element, or an amplification type image sensor (for example, EMCCD or ICCD).
  • FIG. 1F is a diagram illustrating an example of operation within one frame in the present embodiment.
  • the emission of the first pulsed light and the emission of the second pulsed light may be alternately switched a plurality of times within one frame. In this way, the time difference between the detection timings of the detected images with the two types of wavelengths can be reduced, and even the user 1 who is moving can shoot with the first and second pulse lights almost simultaneously.
  • the photodetector 30 detects both the surface reflection component I1 and the internal scattering component I2 of the pulsed light.
  • the first biological information of the user 1 can be acquired from the temporal or spatial change of the surface reflection component I1.
  • the first biological information can be, for example, the pulse of the user 1.
  • the brain activity information which is the second biological information of the user 1, can be acquired from the temporal or spatial change of the internal scattering component I2.
  • the first biological information may be acquired by a method different from the method for detecting the surface reflection component I1.
  • the first biological information may be obtained using another type of detector different from the photodetector 30. In that case, the photodetector 30 detects only the internal scattering component I2.
  • Other types of detectors may be, for example, radar or thermography.
  • the first biological information can be, for example, at least one of the pulse, sweating, breathing, and body temperature of the user 1.
  • the first biological information is biological information other than the brain activity information obtained by detecting the internal scattering component I2 of the pulsed light irradiated on the head of the user 1.
  • “other than brain activity information” does not mean that the first biological information does not include any information resulting from brain activity.
  • the first biological information includes biological information resulting from biological activity different from brain activity.
  • the first biological information is, for example, biological information resulting from autonomous or reflective biological activity.
  • first biological signal a signal indicating the first biological information
  • biological signal a signal indicating brain activity information
  • brain activity signal a signal indicating brain activity information
  • the output device 40 includes, for example, at least one of a display and a speaker.
  • the output device 40 outputs a result based on the biological reaction. If the stimulation device 10 includes a display or speaker, they may function as the output device 40.
  • the output device 40 may be a device equipped with a display, such as a head mounted device or a smartphone.
  • the input device 50 receives input from the user 1.
  • the input of the user 1 is a response to the result output by the output device 40, for example.
  • the input device 50 may be a touch panel mounted on, for example, a smartphone or a tablet computer.
  • the control circuit 60 causes the stimulator 10 to provide a stimulus 12 such as video or audio.
  • the control circuit 60 may control at least one of the hue, saturation, and luminance of the video, or at least one of the sound quality and size of the sound.
  • the control circuit 60 adjusts the time difference between the pulsed light emission timing of the light source 20 and the shutter timing of the photodetector 30.
  • the time difference may be referred to as “phase” or “phase delay”.
  • the “light emission timing” of the light source 20 is a timing at which the pulsed light emitted from the light source 20 starts to rise.
  • “Shutter timing” is a timing at which exposure is started.
  • the control circuit 60 may adjust the phase by changing the light emission timing, or may adjust the phase by changing the shutter timing.
  • the control circuit 60 may be configured to remove the offset component from the signal detected by each pixel of the photodetector 30.
  • the offset component is a signal component due to ambient light such as sunlight or a fluorescent lamp, or disturbance light.
  • the light detector 30 detects a signal, whereby an offset component due to ambient light and disturbance light is estimated.
  • the control circuit 60 determines at least one emotion from a plurality of emotions included in the predefined emotion model based on the measurement result of the biological reaction obtained by the signal processing circuit 70. Details of the emotion determination method will be described later.
  • the control circuit 60 causes the output device 40 to output at least one of an image and sound associated with one determined emotion group.
  • the control circuit 60 may control at least one of hue, saturation, and luminance of the image, or at least one of sound quality and volume of the sound.
  • the control circuit 60 records data based on the input to the input device 50 of the user 1 in the memory.
  • the memory may be built in the biological measurement system 100 or may be provided outside.
  • the control circuit 60 can be, for example, a combination of a processor and a memory, or an integrated circuit such as a microcontroller incorporating the processor and the memory.
  • the control circuit 60 performs adjustment of light emission timing and shutter timing, estimation of an offset component, removal of an offset component, and the like, for example, when a processor executes a program recorded in a memory.
  • the signal processing circuit 70 is a circuit that processes the image signal output from the photodetector 30.
  • the signal processing circuit 70 performs arithmetic processing such as image processing.
  • the signal processing circuit 70 is, for example, a digital signal processor (DSP), a programmable logic device (PLD) such as a field programmable gate array (FPGA), or a central processing unit (CPU) or an arithmetic processor for image processing (GPU) and a computer program It can be realized by a combination.
  • the control circuit 60 and the signal processing circuit 70 may be a single integrated circuit, or may be separate individual circuits.
  • the signal processing circuit 70 may be a component of an external device such as a server computer provided in a remote place.
  • an external device such as a server computer includes communication means, and transmits and receives data to and from the light source 20, the photodetector 30, and the control circuit 60.
  • the signal processing circuit 70 in the present embodiment can generate moving image data indicating temporal changes in blood flow on the skin surface and cerebral blood flow based on the signal output from the photodetector 30.
  • the signal processing circuit 70 is not limited to such moving image data, and may generate other information.
  • biological information such as blood flow in the brain, blood pressure, blood oxygen saturation, or heart rate may be generated by synchronizing with other devices.
  • the psychological state of the user 1 includes, for example, mood (for example, comfort and discomfort), emotion (for example, relief, anxiety, sadness, resentment, etc.), health state (for example, wellness, fatigue), temperature sensation (for example, hot, Cold, muggy, etc.)
  • an index representing the degree of brain activity for example, skill level, proficiency level, and concentration level, is also included in the psychological state.
  • the signal processing circuit 70 may estimate a psychological state such as the degree of concentration of the user 1 based on a change in the cerebral blood flow, and may output a signal indicating the estimation result.
  • FIG. 1G is a flowchart showing an outline of operations related to the light source 20 and the photodetector 30 by the control circuit 60.
  • the control circuit 60 schematically performs the operation shown in FIG. 1G. Here, the operation when only the detection of the internal scattering component I2 is performed will be described.
  • step S101 the control circuit 60 first causes the light source 20 to emit pulsed light for a predetermined time. At this time, the electronic shutter of the photodetector 30 is in a state where exposure is stopped. The control circuit 60 causes the electronic shutter to stop exposure until a period in which a part of the pulsed light is reflected by the surface of the user 1 and reaches the photodetector 30 is completed.
  • step S102 the control circuit 60 causes the electronic shutter to start exposure at a timing when another part of the pulsed light scatters inside the user 1 and reaches the photodetector 30.
  • step S103 the control circuit 60 causes the electronic shutter to stop exposure.
  • step S104 the control circuit 60 determines whether or not the number of executions of the signal accumulation has reached a predetermined number. If this determination is No, steps S101 to S103 are repeated until it is determined Yes. If it is determined Yes in step S104, in step S105, the control circuit 60 causes the photodetector 30 to generate and output a signal indicating an image based on the signal charge accumulated in each floating diffusion layer.
  • the light component scattered inside the measurement object can be detected with high sensitivity. Note that multiple times of light emission and exposure are not essential, and are performed as necessary.
  • the biological measurement system 100 may include an imaging optical system that forms a two-dimensional image of the user 1 on the light receiving surface of the photodetector 30.
  • the optical axis of the imaging optical system is substantially orthogonal to the light receiving surface of the photodetector 30.
  • the imaging optical system may include a zoom lens. When the position of the zoom lens changes, the magnification rate of the two-dimensional image of the user 1 changes and the resolution of the two-dimensional image on the photodetector 30 changes. Therefore, even if the distance to the user 1 is far, it is possible to enlarge and observe in detail the area to be measured.
  • the biological measurement system 100 may include a band-pass filter that allows only a wavelength band emitted from the light source 20 or light in the vicinity thereof to pass between the user 1 and the photodetector 30. Thereby, the influence of disturbance components, such as environmental light, can be reduced.
  • the band pass filter is constituted by a multilayer filter or an absorption filter. Considering the temperature of the light source 20 and the band shift associated with the oblique incidence on the filter, the bandwidth of the bandpass filter may have a width of about 20 to 100 nm.
  • the biological measurement system 100 may include a polarizing plate between the light source 20 and the user 1 and between the photodetector 30 and the user 1.
  • the polarization direction of the polarizing plate disposed on the light source 20 side and the polarizing plate disposed on the photodetector 30 side has a relationship of orthogonal Nicols.
  • the biological measurement system 100 of the present disclosure can detect the internal scattering component I2 by distinguishing it from the surface reflection component I1.
  • the signal intensity due to the internal scattering component I2 to be detected becomes very small.
  • the scattering and absorption of light by the scalp, cerebrospinal fluid, skull, gray matter, white matter and blood flow are large.
  • the change in the signal intensity due to the change in the blood flow volume or the component in the blood flow during the brain activity corresponds to a magnitude of several tenths and becomes very small. Therefore, in the present embodiment, imaging is performed without mixing as much as possible the surface reflection component I1 that is several thousand to several tens of thousands times the signal component to be detected.
  • a surface reflection component I1 and an internal scattering component I2 are generated. Part of the surface reflection component I1 and the internal scattering component I2 reaches the photodetector 30. Since the internal scattering component I2 is emitted from the light source 20 and passes through the inside of the user 1 before reaching the photodetector 30, the optical path length is longer than the surface reflection component I1. Therefore, the internal scattering component I2 delays on average on the time to reach the photodetector 30 with respect to the surface reflection component I1.
  • FIG. 2 is a diagram illustrating an optical signal in which rectangular pulse light is emitted from the light source 20 and light returned from the user 1 reaches the photodetector 30.
  • the horizontal axis represents time (t) in waveforms (a) to (d), the vertical axis represents intensity in waveforms (a) to (c), and the state of OPEN or CLOSE of the electronic shutter in waveform (d).
  • Waveform (a) shows the surface reflection component I1.
  • Waveform (b) shows the internal scattering component I2.
  • a waveform (c) shows a sum component of the surface reflection component I1 (a) and the internal scattering component I2 (b). As shown in the waveform (a), the surface reflection component I1 remains rectangular.
  • the internal scattering component I2 is the sum of the light having passed through various optical path lengths, it exhibits characteristics such that the tail is pulled at the rear end of the pulsed light. That is, the internal scattering component I2 has a longer falling period than the surface reflection component I1.
  • the electronic shutter may start exposure after that. This shutter timing is adjusted by the control circuit 60.
  • the living body measurement system 100 of the present disclosure only needs to distinguish and detect the surface reflection component I1 and the internal scattering component I2 reaching the target depth, and thus the emission pulse width and the shutter width are arbitrary. Therefore, unlike a method using a conventional streak camera, it can be realized with a simple configuration and the cost can be greatly reduced.
  • the rear end of the surface reflection component I1 falls vertically. In other words, the time from the start of falling of the surface reflection component I1 to the end thereof is zero.
  • the falling part of the waveform of the pulsed light itself emitted from the light source 20 is not completely vertical, the surface of the user 1 has fine irregularities, or the surface reflection component is scattered due to scattering in the epidermis.
  • the rear end of I1 may not fall vertically. Further, since the user 1 is an opaque object, the surface reflection component I1 has a much larger amount of light than the internal scattering component I2.
  • the control circuit 60 may slightly delay the shutter timing of the electronic shutter immediately after the fall of the surface reflection component I1. For example, it may be delayed by about 0.5 ns to 5 ns. Note that the control circuit 60 may adjust the light emission timing of the light source 20 instead of adjusting the shutter timing of the electronic shutter.
  • the control circuit 60 adjusts the time difference between the shutter timing of the electronic shutter and the light emission timing of the light source 20.
  • the shutter timing may be kept near the rear end of the surface reflection component I1. Since the time delay due to the scattering of the user 1 is 4 ns, the maximum amount of delay of the shut timing is about 4 ns.
  • the light source 20 may emit pulsed light a plurality of times, and the light quantity detected by the internal scattering component I2 may be amplified by exposing each pulsed light a plurality of times at the same phase shutter timing.
  • the control circuit 60 takes an image with the same exposure time without causing the light source 20 to emit light, thereby causing an offset component. May be estimated. The estimated offset component is subtracted from the signal detected by each pixel of the photodetector 30. Thereby, the dark current component generated on the photodetector 30 can be removed.
  • the internal scattering component I2 includes internal characteristic information of the user 1, for example, cerebral blood flow information.
  • a change occurs in the amount of light absorbed by the blood in accordance with the temporal variation of the cerebral blood flow of the user 1, and the amount of light detected by the photodetector 30 increases or decreases accordingly. Therefore, it is possible to estimate the brain activity state from the change in the cerebral blood flow of the user 1 by monitoring the internal scattering component I2.
  • the signal indicating the internal scattering component I2 may be referred to as a “brain activity signal”.
  • the brain activity signal may include increase / decrease information of cerebral blood flow of the user 1.
  • the surface reflection component I1 includes surface characteristic information of the user 1, for example, blood flow information of the face and scalp.
  • the photodetector 30 detects the surface reflection component I1 in the optical signal in which the pulsed light emitted from the light source 20 reaches the user 1 and returns to the photodetector 30 again.
  • FIG. 3A shows an example of a timing chart when the surface reflection component I1 is detected.
  • the shutter is opened before the pulsed light reaches the photodetector 30, and the shutter is opened before the trailing edge of the pulsed light reaches. It may be closed.
  • the mixing of the internal scattering component I2 can be reduced.
  • the proportion of light that has passed near the surface of the user 1 can be increased.
  • the timing of the shutter close may be immediately after the light reaches the photodetector 30. In this way, signal detection with an increased ratio of the surface reflection component I1 having a relatively short optical path length is possible.
  • the photodetector 30 may acquire the entire pulsed light, or may be detected by irradiating continuous light from the light source 20.
  • FIG. 3B shows an example of a timing chart when the internal scattering component I2 is detected.
  • the signal of the internal scattering component I2 can be acquired by opening the shutter during the period when the rear end portion of the pulse reaches the photodetector 30.
  • the surface reflection component I1 may be detected by a device other than the biological measurement system 100 that acquires the internal scattering component I2.
  • another device it is used in consideration of timing synchronization between devices, optical interference, and alignment of detection points. If time-division imaging with the same camera or the same sensor is performed as in the present embodiment, temporal and spatial deviations are unlikely to occur.
  • the components acquired for each frame may be switched as shown in FIGS. 3A and 3B.
  • components acquired at high speed within one frame may be alternately switched. In that case, the detection time difference between the surface reflection component I1 and the internal scattering component I2 can be reduced.
  • the respective signals of the surface reflection component I1 and the internal scattering component I2 may be acquired using light of two wavelengths. For example, pulsed light having two wavelengths of 750 nm and 850 nm may be used. By doing so, it is possible to calculate the oxygenated hemoglobin concentration change and the deoxygenated hemoglobin concentration change from the change in the detected light quantity at each wavelength.
  • a method of switching four types of charge accumulation at high speed within one frame is used as described with reference to FIGS. 1D to 1F, for example. Can be done. By such a method, the time lag of the detection signal can be reduced.
  • the biological measurement system 100 irradiates the forehead of the user 1 with pulsed near-infrared light or visible light, and detects the change or pulse of oxygenated hemoglobin in the scalp or face from the temporal change of the surface reflection component I1. Can be detected.
  • the light source 20 for acquiring the surface reflection component I1 emits near infrared light or visible light. Near-infrared light can be measured day and night. When measuring a pulse, visible light with higher sensitivity may be used. In the daytime, solar radiation or indoor light source which is disturbance light may be used instead of illumination. If the amount of light is insufficient, it may be reinforced with a dedicated light source.
  • the internal scattering component I2 includes a light component that reaches the brain. By measuring the temporal change of the internal scattering component I2, it is possible to measure the temporal increase or decrease in cerebral blood flow.
  • the signal processing circuit 70 may perform a process of subtracting the surface reflection component I1 from the internal scattering component I2 detected by the photodetector 30. In this way, pure cerebral blood flow information excluding blood flow information of the scalp and face can be acquired.
  • the subtraction method for example, a method of subtracting a value obtained by multiplying the signal of the surface reflection component I1 by one or more coefficient determined in consideration of the optical path length difference from the signal of the internal scattering component I2 can be used. This coefficient can be calculated by simulation or experiment based on, for example, an average value of general human head optical constants.
  • Such a subtraction process can be performed particularly easily when measurement is performed using light of the same wavelength using the same camera or sensor. This is because temporal and spatial deviations can be easily reduced, and the scalp blood flow component included in the internal scattering component I2 can easily match the characteristics of the surface reflection component I1.
  • the two-dimensional distribution of cerebral blood flow and the two-dimensional distribution of scalp and facial blood flow are independent. Therefore, based on the signal detected by the photodetector 30, the two-dimensional distribution of the internal scattering component I2 and the two-dimensional distribution of the surface reflection component I1 are separated using a statistical technique such as independent component analysis or principal component analysis. May be.
  • the signal processing circuit 70 calculates the scalp blood flow B1 and the cerebral blood flow B2 of the user 1 from the surface reflection component I1 and the internal scattering component I2, respectively.
  • the scalp blood flow is adjusted by the change in flow velocity due to the expansion and contraction of blood vessels in the scalp.
  • the expansion and contraction of blood vessels is controlled by the autonomic nerve.
  • Autonomic nerves are mainly sympathetic nerves. Sympathetic nerves are activated during emotional responses, sleepiness, or stress responses and regulate facial blood flow.
  • the signal processing circuit 70 estimates the state derived from the autonomic nerve of the user 1 from the surface reflection component I1 that is blood flow information derived from the scalp, and from the internal scattering component I2 that is brain blood flow information derived from the brain. Estimate cranial nerve-derived condition. The signal processing circuit 70 further estimates the state of the user 1 from these two pieces of information.
  • cranial nerves are activated to control brain functions such as cognition, judgment, and emotion.
  • the blood flow in the brain changes. Therefore, it is considered that the cerebral blood flow, particularly the cerebral blood flow in the forehead corresponding to the prefrontal cortex region, reflects the state of concentration.
  • the two pieces of information on the blood flow volume of the face and the brain reflect different human states.
  • the state of the human mind and body is estimated based on these two pieces of information.
  • the state of the user 1 may be determined by referring to the scalp blood flow before the measurement.
  • FIG. 4 is a flowchart showing an example of processing for determining the state of the user 1 before measurement in the present embodiment.
  • step S201 the control circuit 60 causes the light source 20 to irradiate the forehead portion of the user 1 with pulsed light, and causes the photodetector 30 to measure the surface reflection component I1. At that time, the control circuit 60 records the number of times of measurement.
  • step S202 the control circuit 60 uses the signal processing circuit 70 to calculate the scalp blood flow B1 from the value of the surface reflection component I1.
  • step S ⁇ b> 203 the control circuit 60 determines whether the number of measurements is equal to or less than a predetermined value N.
  • step S204 the control circuit 60 compares the calculated B1 with the range of scalp blood flow in the average resting state of the user 1 stored in advance as a database on the recording medium.
  • step S205 in order to evaluate the cognitive function, the control circuit 60 presents a task by the stimulating device 10 and starts measuring the cognitive function.
  • step S204 the control circuit 60 repeats steps S201 to S204.
  • step S206 the control circuit 60 determines whether or not the Nth B1 falls within the range of the average value ⁇ standard deviation of N ⁇ 1 times B1 measured so far. to decide. If the Nth B1 falls within the range, the control circuit 60 presents a task by the stimulating device 10 in step S205. If the Nth B1 does not fall within the range in step S206, the control circuit 60 determines that the user 1 cannot measure. In that case, in step S207, the control circuit 60 outputs an announcement urging deep breathing or relaxation to the user 1 by the output device 40, and stops the measurement.
  • Facial blood flow is controlled by the autonomic nervous system present on the face. Facial blood flow plays an important role in temperature regulation.
  • the autonomic nervous system is regulated in particular by the hypothalamus in the brain.
  • the hypothalamus receives information from the limbic system and regulates the autonomic nerve suitable for that information. It has been reported that the amygdala contained in the limbic system is activated by negative emotions. Therefore, it is expected that emotional responses can be measured as changes in facial blood flow via autonomic control.
  • Non-patent document 1 discloses that a change in facial blood flow of a subject is measured while the subject is watching a video. The video induces emotions such as surprise, sadness, fear, and excitement. A laser speckle blood flow meter is used for the measurement. According to Non-Patent Document 1, the facial blood flow of the user 1 is significantly reduced by viewing the moving image. Non-Patent Document 3 discloses measuring changes in facial blood flow, focusing on the feeling of “anger”. According to Non-Patent Document 3, facial blood flow increases by about 10% when the expression of “anger” is expressed. Thus, the emotion of the user 1 can be estimated by detecting a change in facial blood flow.
  • emotions such as anger or surprise increase facial blood flow, and discomfort, sadness, or fear decrease facial blood flow.
  • Russell's ring model which is often used as an index for classifying emotions, will be described.
  • FIG. 5 is a diagram schematically showing the Russell's annular model.
  • emotions are classified into four quadrants based on two axes: comfort-discomfort and arousal-sedation arousal.
  • the cerebral blood flow in the prefrontal area increases when cognition, intention or emotion is controlled.
  • a method such as fNIRS or fMRI that blood flow in the prefrontal cortex increases when a task for examining cognitive functions is performed.
  • the task for examining the cognitive function is, for example, a language fluency task or an N-Back task. It is determined that the greater the increase in cerebral blood flow, the more the user 1 is working on the problem.
  • the attitude to tackle the problem that is, the degree of concentration can be grasped by the increase or decrease in cerebral blood flow.
  • the degree of concentration on the task is high due to the increase in cerebral blood flow, and it can be estimated that sleepiness is diffused with respect to the task due to the decrease in cerebral blood flow.
  • the emotion of the user 1 is estimated based on the facial blood flow, and the degree of approach to the problem of the user 1 is evaluated using the cerebral blood flow.
  • the emotion estimated by the increase or decrease of the blood flow change does not correspond to the four quadrants in the Russell's annular model shown in FIG. Therefore, in the present embodiment, the emotion of the user 1 is estimated by a classification different from the Russell's annular model, in which the increase / decrease in facial blood flow and the increase / decrease in cerebral blood flow are two axes.
  • FIG. 6 is a diagram schematically showing an emotion / wakefulness map in the present embodiment.
  • the “emotion / wakefulness map” means four emotion groups classified by increase / decrease in facial blood flow and increase / decrease in cerebral blood flow.
  • the horizontal axis represents the increase or decrease in facial blood flow, and the vertical axis represents the increase or decrease in cerebral blood flow.
  • the emotion / wakefulness map is an example of an emotion model in the present disclosure.
  • the excitement, anger, or surprise in the first quadrant is the first emotion group.
  • Excitement, anger, and surprise correspond to active emotions.
  • Disgust, fear, sadness, or tension (referred to as “passive emotion”) in the second quadrant is defined as the second emotion group.
  • Disgust, fear, sadness and tension correspond to passive emotions.
  • Boredness or drowsiness in the fourth quadrant is the fourth emotion group.
  • the classification of four emotion groups in the first to fourth quadrants is referred to as an “emotion / wakefulness map”.
  • FIG. 7 is a flowchart showing an example of processing for classifying the emotion of the user 1 into one of four emotion groups.
  • step S301 the control circuit 60 presents the task to the user 1 by the stimulation device 10.
  • step S302 the control circuit 60 causes the light source 20 to irradiate the user 1 with pulsed light when presenting the task, and causes the photodetector 30 to measure the surface reflection component I1 and the internal scattering component I2 at regular intervals.
  • step S303 when the presentation of the assignment is finished, the control circuit 60 stops the irradiation of the pulsed light and finishes the measurement.
  • step S304 the control circuit 60 causes the signal processing circuit 70 to calculate the scalp blood flow B1 and the cerebral blood flow B2 at each time from I1 and I2 at each time.
  • the time zone during which the load is applied to the user 1 is defined as “at the time of stimulation” as the task is being presented.
  • a time zone in which the user 1 is encouraged to rest without providing a stimulus is defined as “rest time”.
  • the scalp blood flow and the cerebral blood flow at rest are defined as B1 Rest and B2 Rest , respectively.
  • the scalp blood flow and cerebral blood flow at the time of stimulation are set to B1 stimuli and B2 stimuli , respectively.
  • B1 Rest , B2 Rest , B1 stimuli , and B2 stimuli all represent representative values of blood flow in each time zone.
  • the method of taking the representative value can be arbitrarily selected depending on the measurement object or the type of task. For example, the average value of all the time zones may be used, or the median value, the maximum value, or the minimum value may be used.
  • the control circuit 60 classifies the emotions of the user 1 into one of the following four emotion groups based on whether ⁇ B1 is positive or negative and ⁇ B2 is positive or negative. In other words, the control circuit 60 determines one emotion group based on the combination of ⁇ B1 and ⁇ B2.
  • step S306 the control circuit 60 determines whether ⁇ B2 is positive. If ⁇ B2 is positive, in step S307, the control circuit determines whether ⁇ B1 is positive. If ⁇ B1 is positive, in step S308, the control circuit 60 classifies the emotion of the user 1 into the first emotion group. If ⁇ B1 is not positive, in step S309, the control circuit 60 classifies the emotion of the user 1 into the second emotion group.
  • step S306 if ⁇ B2 is not positive, in step S310, the control circuit 60 determines whether ⁇ B1 is positive. If ⁇ B1 is positive, in step S311, the control circuit 60 classifies the emotion of the user 1 into the fourth emotion group. If ⁇ B1 is not positive, in step S312, the control circuit 60 classifies the emotion of the user 1 into the third emotion group.
  • step S313 the control circuit 60 displays the classification result by the output device 40.
  • control circuit 60 classifies the emotions of the user 1 by the positive / negative of ⁇ B1 and the positive / negative of ⁇ B2, but this is not limitative.
  • the classification may be performed as follows.
  • control circuit 60 classifies the emotion of the user 1 into the first emotion group.
  • C11 and C12 are values larger than zero.
  • control circuit 60 classifies the emotion of the user 1 into the second emotion group.
  • C21 is a value smaller than 0, and C22 is a value larger than 0.
  • the control circuit 60 classifies the emotion of the user 1 into the third emotion group.
  • C31 and C32 are values smaller than zero.
  • the control circuit 60 classifies the emotions of the user 1 into the fourth emotion group.
  • C41 is a value larger than 0, and C42 is a value smaller than 0.
  • FIG. 8 is a flowchart showing an example of a process for estimating the emotion of the user 1 when the task is executed.
  • step S401 the control circuit 60 causes the stimulation apparatus 10 to present a problem to the user 1, and causes the photodetector 30 to measure the surface reflection component I1 and the internal scattering component I2.
  • the control circuit 60 further causes the signal processing circuit 70 to calculate the scalp blood flow B1 and the cerebral blood flow B2.
  • the processing in step S401 is the same as the processing in steps S301 to S305 shown in FIG.
  • step S402 the control circuit 60 classifies the emotion of the user 1 based on the emotion / wakefulness map shown in FIG.
  • the processing in step S402 is the same as the processing in steps S306 to S312 shown in FIG.
  • step S403 the control circuit 60 displays the classification result.
  • the process in step S403 is the same as the process in step S313 shown in FIG.
  • the control circuit 60 inquires the user 1 for subjective evaluation using the output device 40.
  • the subjective evaluation is, for example, an evaluation as to whether at least one emotion classified into the determined emotion group corresponds to the actual emotion of the user 1.
  • the control circuit 60 causes the output device 40 to output an image and / or sound for making the above inquiry.
  • step S404 the control circuit 60 causes the output device 40 to display a question for causing the user 1 to perform subjective evaluation.
  • the content of the question may be, for example, a question about whether it is a positive emotion or a negative emotion, such as “Are your emotions at the time of executing the task positive or negative?”.
  • step S405 the control circuit 60 causes the output device 40 to display an image indicating that the emotion of the user 1 at the time of executing the task is “excitement / surprise”.
  • the process proceeds to step S406.
  • step S406 the control circuit 60 causes the output device 40 to display an image indicating that the emotion of the user 1 at the time of executing the task is “anger”. Instead of asking whether it is a positive emotion or a negative emotion, in step S404, the control circuit 60 causes the output device 40 to display an option for selecting one of “excitement”, “surprise”, and “anger”. May be.
  • step S407 the control circuit 60 causes the output device 40 to display the choices of “disgust”, “tension”, “fear”, and “sadness”.
  • the user 1 performs subjective evaluation and selects any emotion.
  • the user 1 inputs the selected emotion using the input device 50.
  • step S408 the control circuit 60 causes the output device 40 to display the emotion selected by the user 1.
  • step S409 the control circuit 60 causes the output device 40 to display a message that prompts the user to concentrate on the task.
  • step S410 the control circuit 60 displays on the output device 40 an image for inquiring the user whether or not to remeasure. In the case of remeasurement, the control circuit 60 executes step S401 again.
  • the control circuit 60 may associate the stimulus 12 with the emotion of the user 1 based on the subjective evaluation result of the user 1. For example, when the user 1 performs the subjective evaluation using the input device 50, the control circuit 60 may record data indicating the relationship between the stimulus 12 and the at least one emotion in a memory. . For example, an identifier indicating the subjective evaluation of the user 1 may be attached to data indicating the stimulus 12. When the stimulus 12 is video or audio content, information indicating the result of subjective evaluation of the user 1 may be added to the content data and recorded.
  • the aforementioned biometric measurement system 100 can be used in a system that provides video or audio content via a network such as the Internet, for example.
  • a system may include, for example, a server computer operated by a business operator and various computers such as a personal computer, a smartphone, or a tablet owned by the user.
  • a computer such as a smartphone to request content distribution from the server computer.
  • the server computer delivers the requested content to the user.
  • the server computer causes the biological measurement system 100 to acquire blood flow information of the user who is viewing the content and estimate the emotion.
  • the server computer collects data relating to the estimated emotion for each content, and accumulates data indicating the relationship between the content and the emotion. In this way, the server computer can record individual contents in association with emotions caused by the contents to the user.
  • FIG. 9 is a diagram schematically showing a configuration example of such a system.
  • This system includes a plurality of biological measurement systems 100 and a server computer 200.
  • the server computer 200 is connected to a plurality of biological measurement systems 100 via a network.
  • three biological measurement systems 100 are illustrated, but a larger number of biological measurement systems 100 can be connected to the server computer 200.
  • Each biological measurement system 100 includes a communication circuit 80 in addition to the components shown in FIG. 1A. In FIG. 9, only the stimulation device 10, the control circuit 60, and the communication circuit 80 are illustrated among the components of each living body measurement system 100.
  • the control circuit 60 in each of the plurality of biological measurement systems 100 transmits data indicating the relationship between the stimulus and the user's emotion to the server computer 200 via the communication circuit 80. For example, data in which the content viewed by the user is associated with the emotion of the user being viewed is transmitted.
  • the server computer 200 collects data indicating the relationship for a plurality of users and records it in the memory 210. For example, the server computer 200 records the user ID, the content ID, and the emotion ID in the database in association with each other.
  • the server computer 200 can determine a stimulus (content in this example) that causes a user to have a specific emotion based on the data collected from many users. For example, for each content, the server computer 200 counts the feelings felt by the user who has viewed the content in the past.
  • the server computer 200 adds and records an identifier indicating the emotion felt by the most users to each content data.
  • the association between content and emotion can be updated as new information accumulates.
  • the server computer 200 transmits the data of the content to the biological measurement system 100. At this time, the server computer 200 selects one or more other contents that cause an emotion similar to the emotion associated with the content from among the plurality of contents, and notifies the control circuit 60 of the information.
  • the control circuit 60 causes the stimulation apparatus 10 to provide one or more selected contents in accordance with an instruction from the server computer 200. For example, content that causes excitement or surprise emotions may be provided to the user.
  • the stimulus may be content related to entertainment such as a movie, game, or music.
  • the stimulus may be another stimulus.
  • the technology of the present disclosure may be applied to control of a device that stimulates at least a part of human senses such as light, vibration, heat, smell, and the like. You may apply the technique of this indication to the system which controls an illuminating device.
  • the lighting device has a function of adjusting illuminance or color temperature.
  • the control circuit of the system estimates the user's emotion each time the setting of illuminance or color temperature is changed, and accumulates data indicating the relationship between the illuminance and color temperature and the emotion. Based on the accumulated data, the illuminance and color temperature that the user feels most comfortable may be determined and automatically set to the illuminance and color temperature.
  • FIG. 10 is a diagram illustrating a state in which the living body measurement system 100 detects the psychological state of the driver of the vehicle that is the subject 500.
  • the biological measurement system 100 measures the surface blood flow state of the driver based on the surface reflection component I1, and measures the change in the cerebral blood flow of the driver based on the internal scattering component I2. Based on the acquired surface blood flow data and cerebral blood flow data, it is determined whether the driver can drive or whether driving assistance is required.
  • cerebral blood flow measurement the driver compares the driver's cerebral blood flow or cerebral blood flow distribution database during normal driving or the driver's accumulated cerebral blood flow or cerebral blood flow distribution database with the measured data, Determine brain activity status. From the surface blood flow measurement, emotional psychological states such as driver tension and anxiety are determined.
  • a voice message to that effect or a message to that effect on the display, or an announcement to relax Play music and increase the effectiveness of the driving assist function installed in the vehicle.
  • a vehicle may be stopped on the road shoulder.
  • FIG. 11 shows an example in which the living body measurement system 100 is installed in a home or office to be used for a mental health check in the home or office.
  • the biological measurement system 100 can acquire biological information and brain activity information in a non-contact manner, it can be installed, for example, behind the mirror of a washstand.
  • the mirror is coated with an interference film so as to reflect visible light and transmit near-infrared light (for example, light having a wavelength of 700 nm or more).
  • near-infrared light for example, light having a wavelength of 700 nm or more
  • the mirror transmits near-infrared light, it becomes possible to irradiate the measurement light toward the user through the mirror. Therefore, since the user is not conscious of the presence of the camera, the user can measure biological information and cerebral blood flow under a natural mental state. In addition, measurement from the front of the user is possible, and the forehead can be measured efficiently. Furthermore, since the bangs are often fastened with a hair band or the like at the time of washing the face, there is no need to give an instruction to raise the bangs that will be a shield, and the user's hand is not bothered. In addition, since the user stands in front of the mirror in the washstand, measurement can be performed at a constant distance and at a short distance, and the measurement stability becomes high.
  • a human sensor such as a pyroelectric sensor may be installed in the vicinity of the biological measurement system 100.
  • a human sensor When a person is detected by the human sensor, a signal is transmitted to the biological measurement system 100, and measurement of the person by the biological measurement system 100 is started.
  • the human sensor By cooperating with the human sensor, it is possible to stop driving the light source and the electric circuit in the biological measurement system 100 when there is no person, so that power consumption can be reduced.
  • emotional information such as the user's tension state and anxiety state can be acquired.
  • mental condition data such as a concentration state, a feeling of a head, or a feeling of depression based on cerebral blood flow information acquired simultaneously by detecting a rear end portion of pulsed light.
  • cerebral blood flow information a part of the surface blood flow information is also superimposed on the signal acquired at the rear end of the pulsed light. Therefore, by separately detecting the surface reflection component I1, the user's tension state and Noise components such as anxiety can be eliminated, and a more accurate mental health check is possible.
  • measurement by the biological measurement system 100 may be performed and the acquired data may be accumulated. From the relative change information obtained by comparing the accumulated daily data, it is possible to detect a change in the mental state of a certain day with respect to the user's daily normal state. In addition, by accumulating daily time-series data measurements and applying temporal moving average processing to these time-series data, high-frequency components representing temporary and irregular mental changes are removed, and several years of units are removed. Can monitor low-frequency components representing long-term changes in mental status.
  • the system detects a change in physical condition, the estimated mental health status of the user is displayed on the display installed on the washstand or the display provided on the reflection mirror.
  • measurement data is transmitted to the user's smartphone or tablet terminal via Wi-Fi (registered trademark), Wi-Fi Direct (registered trademark), BLUETOOTH (registered trademark), or the cloud, etc. You may display on a tablet terminal.
  • the biological measurement system 100 may be installed in a hospital, a school, a health care room, etc. in addition to installation in a home or office.
  • FIG. 12 is a diagram schematically showing the head mount device 300.
  • the head mount device 300 includes a display 150.
  • the display 150 in this example functions as a stimulator and an output device.
  • the display 150 displays images such as content videos or tasks.
  • the display 150 also displays an image showing the estimation result of the user's emotion. For example, the emotion group classification result determined in step S313 shown in FIG. 7 may be displayed.
  • the head mount device 300 has both functions of a stimulation device and an output device.
  • the input device may be an operation button, a touch screen, or a voice input device provided in the head mount device 300.
  • the surface blood flow state of the user is measured based on the surface reflection component I1, and the change in the user's cerebral blood flow is measured based on the internal scattering component I2.
  • User emotion information such as tension, anxiety, pleasure and excitement can be detected from the surface blood flow state.
  • reason information of the user such as recognition, working memory, concentration state, etc. from the cerebral blood flow information.
  • FIG. 13 is a diagram schematically showing the smartphone 400.
  • the smartphone 400 includes a display 150.
  • the display 150 presents an image as the stimulating device 10.
  • the speaker built in the smartphone 400 provides sound as a stimulus.
  • the display 150 also functions as the output device 40.
  • the display 150 displays the emotion group classification result in step S313 shown in FIG.
  • the display 150 includes a touch screen and also functions as the input device 50. Therefore, the smartphone 400 has the functions of the stimulation device 10, the output device 40, and the input device 50.
  • the present disclosure also includes a method of operation executed by the control circuit 60 and a computer program that defines the operation executed by the control circuit 60.
  • a computer program is stored in a recording medium and causes the control circuit 60 to perform the above-described operation.
  • the present disclosure includes the following system, computer program, recording medium, and method.
  • a system detects a light source that emits pulsed light that irradiates a user's head, and at least part of reflected pulsed light that has returned from the head, and the at least part of the reflected pulsed light is detected.
  • a photodetector that outputs one or more signals in accordance with a part of the intensity; and an electric that controls the light source and the photodetector to process the one or more signals output from the photodetector
  • a circuit and a first memory that stores an emotion model indicating a relationship between the one or more signals and a plurality of emotions.
  • the electrical circuit selects at least one emotion from the plurality of emotions by referring to the emotion model based on a change in the one or more signals.
  • the one or more signals include a first signal corresponding to an intensity of the first portion of the reflected pulsed light and a second signal corresponding to an intensity of a second portion different from the first part of the reflected pulsed light. 2 signals.
  • the first portion includes a portion before the start of a falling period that is a period from when the intensity of the reflected pulse light starts to decrease to when it ends, and the second portion includes the falling period. Including at least a portion.
  • the user's head is irradiated with pulsed light, and the reflected pulsed light is detected.
  • At least one emotion is selected from an emotion model including a plurality of predefined emotions based on a change in one or more signals according to the detected light intensity.
  • the one or more signals include first and second signals.
  • the first signal includes information on the user's facial blood flow.
  • the second signal includes information on the cerebral blood flow of the user.
  • the system according to one aspect of the present disclosure further includes a stimulator that provides the user with at least one stimulus, the electrical circuit causing the stimulator to provide the at least one stimulus, and the at least one emotion is , Based on a change in the one or more signals generated in response to the at least one stimulus, may be selected by referring to the emotion model.
  • the user's head is irradiated with pulsed light, and the reflected pulsed light is detected.
  • At least one emotion is determined from an emotion model including a plurality of predefined emotions based on a change in one or more signals according to the detected light intensity. Thereby, a user's emotion can be estimated more correctly.
  • the emotion model includes a plurality of emotion groups, and in the emotion model, each of the plurality of emotions is classified into one of the plurality of emotion groups,
  • the electrical circuit indicates a difference between the first signal when the user is provided with the at least one stimulus and the first signal when the user is not provided with the at least one stimulus.
  • selecting at least one emotion group from the plurality of emotion groups by referring to the emotion model based on a combination of second values indicating It may be.
  • a first value indicating the amount of change in the user's facial blood flow during rest and stimulation and a second value indicating the amount of change in the user's cerebral blood flow during rest and stimulation.
  • At least one emotion group can be determined from the emotion model based on the combination.
  • the emotion model includes first to fourth emotion groups, and in the emotion model, each of the plurality of emotions is any of the first to fourth emotion groups.
  • the electrical circuit selects the first emotion group when the first value is greater than a first threshold and the second value is greater than a second threshold. , When the first value is less than or equal to the first threshold and the second value is greater than the second threshold, the second emotion group is selected, and the first value is the first threshold When the second value is less than or equal to the second threshold, the third emotion group is selected, and the first value is greater than the first threshold, When the value of 2 is less than or equal to the second threshold, the fourth emotion group It may be selected.
  • the emotion model includes first to fourth emotion groups. Based on the magnitude relationship between the first value and the first threshold, and the magnitude relationship between the second value and the second threshold, the user's emotion is classified into one of the first to fourth emotion groups. .
  • the electrical circuit includes at least one selected from the group consisting of an image and a sound that inquires the user whether the at least one emotion corresponds to the actual emotion of the user.
  • the output device may output, and the output device may include at least one selected from the group consisting of a display and a speaker.
  • the system according to an aspect of the present disclosure further includes an input device that receives an input from the user, and the electric circuit uses the input device as the user, and the at least one emotion is converted into an actual emotion of the user.
  • data indicating a relationship between the at least one stimulus and the at least one emotion may be recorded in the second memory.
  • the user makes a response using the input device that at least one emotion corresponds to the user's actual emotion.
  • data indicating the relationship between the stimulus and at least one emotion can be recorded in the second memory.
  • the stimulation device is configured to be able to provide the user with the at least one stimulation selected from a plurality of stimulations
  • the electric circuit includes the first circuit.
  • the server computer Connected to a server computer including two memories via a network, the server computer notifying the electrical circuit to select the at least one stimulus based on the data, the electrical circuit comprising: Based on the notification from the server computer, the stimulator may be configured to provide the user with the at least one stimulus selected from the plurality of stimuli.
  • the external server computer collects data indicating the relationship between the stimuli recorded for a plurality of users and at least one emotion.
  • the external server computer sends an instruction to the system via the network based on the collected data. Based on the instructions, stimuli are provided to individual users. Thereby, a specific emotion can be caused to cause an individual user.
  • the at least one stimulus may include at least one selected from the group consisting of video and audio.
  • a program detects a light source that emits pulsed light that is applied to a user's head, and at least part of the reflected pulsed light that has returned from the head
  • a computer-executable program for use in a system comprising a photodetector that outputs one or more signals corresponding to at least a part of the intensity, and causing the light source to emit the pulsed light And causing the photodetector to detect the reflected pulsed light and outputting the one or more signals, and based on a change in the one or more signals, the one or more signals and a plurality of emotions.
  • the one or more signals include a first signal corresponding to an intensity of the first portion of the reflected pulsed light and a second signal corresponding to an intensity of a second portion different from the first part of the reflected pulsed light. 2 signals.
  • the first portion includes a portion before the start of a falling period that is a period from when the intensity of the reflected pulse light starts to decrease to when it ends, and the second portion includes the falling period. Including at least a portion.
  • the system may further include a stimulation device that provides at least one stimulation to the user.
  • the program according to an aspect of the present disclosure further includes causing the stimulator to provide the at least one stimulus, wherein the selecting causes the at least one emotion to occur in response to the at least one stimulus. Further, the selection may be made by referring to the emotion model based on a change in the one or more signals.
  • the emotion model may include a plurality of emotion groups, and in the emotion model, each of the plurality of emotions may be classified into one of the plurality of emotion groups.
  • the program according to an aspect of the present disclosure includes the first signal when the at least one stimulus is provided to the user and the first signal when the at least one stimulus is not provided to the user. A first value indicative of a difference from a signal, and the second signal when the user is provided with the at least one stimulus and the second value when the user is not provided with the at least one stimulus.
  • the method may further include selecting at least one emotion group from the plurality of emotion groups by referring to the emotion model based on a combination of second values indicating a difference from the two signals. .
  • the emotion model includes first to fourth emotion groups, and in the emotion model, each of the plurality of emotions is any of the first to fourth emotion groups. It may be classified.
  • the program according to an aspect of the present disclosure selects the first emotion group when the first value is greater than a first threshold value and the second value is greater than a second threshold value. , When the first value is less than or equal to the first threshold and the second value is greater than the second threshold, selecting the second emotion group and the first value is Selecting the third emotion group when the second threshold is less than or equal to the first threshold and the second value is less than the second threshold; and the first value is less than the first threshold
  • the method may further include selecting the fourth emotion group when the second value is less than or equal to the second threshold value.
  • a program causes an output device to output at least one selected from the group consisting of an image and a sound that inquires the user whether the at least one emotion corresponds to the actual emotion of the user
  • the output device may include at least one selected from the group consisting of a display and a speaker.
  • the system may further include an input device that receives an input from the user.
  • the program according to one aspect of the present disclosure includes the at least one stimulus and the The method may further include recording data indicating a relationship with at least one emotion in a memory.
  • a computer-readable recording medium detects a light source that emits pulsed light that is irradiated to a user's head, and at least part of reflected pulsed light that returns from the head
  • a computer-readable recording medium storing a program used in a system comprising: a photodetector that outputs one or more signals corresponding to the intensity of at least a part of the reflected pulsed light; When executed by the computer, causing the light source to emit the pulsed light, causing the photodetector to detect the reflected pulsed light, and outputting the one or more signals,
  • an emotion model that indicates a relationship between the one or more signals and a plurality of emotions based on changes in the one or more signals, Selecting at least one emotion, it is executed.
  • the one or more signals include a first signal corresponding to an intensity of the first portion of the reflected pulsed light and a second signal corresponding to an intensity of a second portion different from the first part of the reflected pulsed light. 2 signals.
  • the first portion includes a portion before the start of a falling period that is a period from when the intensity of the reflected pulse light starts to decrease to when it ends, and the second portion includes the falling period. Including at least a portion.
  • the system may further include a stimulation device that provides at least one stimulation to the user.
  • the stimulating device when the program is executed by the computer, the stimulating device is further provided to provide the at least one stimulus, and the selection is performed.
  • the at least one emotion may be selected by referring to the emotion model based on a change in the one or more signals generated in response to the at least one stimulus.
  • the emotion model includes a plurality of emotion groups, and in the emotion model, each of the plurality of emotions is classified into one of the plurality of emotion groups. May be.
  • the computer-readable recording medium according to an aspect of the present disclosure includes the first signal and the user when the user is provided with the at least one stimulus when the program is executed by the computer. A first value indicating a difference from the first signal when the at least one stimulus is not provided, and the second signal when the user is provided with the at least one stimulus; By referring to the emotion model based on a combination of second values indicating a difference from the second signal when the user is not provided with the at least one stimulus, Selecting at least one emotion group from
  • the emotion model includes first to fourth emotion groups, and in the emotion model, each of the plurality of emotions includes the first to fourth. It may be classified into any of the emotion groups.
  • the first value is greater than a first threshold value
  • the second value is a second value.
  • a computer-readable recording medium includes an image that inquires the user whether the at least one emotion corresponds to an actual emotion of the user when the program is executed by the computer, and It is further executed to cause the output device to output at least one selected from the group consisting of audio, and the output device may include at least one selected from the group consisting of a display and a speaker.
  • the system may further include an input device that receives an input from the user.
  • an input device that receives an input from the user.
  • the user uses the input device to convert the at least one emotion into the user's actual emotion.
  • it may be further performed to record data indicating a relationship between the at least one stimulus and the at least one emotion in a memory.
  • a method includes a light source that emits pulsed light that is applied to a user's head, and at least a part of the reflected pulsed light that has returned from the head.
  • a photodetector that outputs one or more signals according to at least a part of the intensity, the method comprising: causing the light source to emit the pulsed light; and the photodetector And detecting the reflected pulsed light to output the one or more signals, and an emotion indicating a relationship between the one or more signals and a plurality of emotions based on a change in the one or more signals Selecting at least one emotion from the plurality of emotions by referring to the model.
  • the one or more signals include a first signal corresponding to an intensity of the first portion of the reflected pulsed light and a second signal corresponding to an intensity of a second portion different from the first part of the reflected pulsed light. 2 signals.
  • the first portion includes a portion before the start of a falling period that is a period from when the intensity of the reflected pulse light starts to decrease to when it ends, and the second portion includes the falling period. Including at least a portion.
  • the system may further include a stimulation device that provides at least one stimulation to the user.
  • the method according to one aspect of the present disclosure further includes causing the stimulator to provide the at least one stimulus, wherein in the selecting, the at least one emotion occurs in response to the at least one stimulus. Further, the selection may be made by referring to the emotion model based on a change in the one or more signals.
  • the emotion model may include a plurality of emotion groups, and in the emotion model, each of the plurality of emotions may be classified into one of the plurality of emotion groups.
  • the method according to an aspect of the present disclosure includes the first signal when the user is provided with the at least one stimulus and the first signal when the user is not provided with the at least one stimulus. A first value indicative of a difference from a signal, and the second signal when the user is provided with the at least one stimulus and the second value when the user is not provided with the at least one stimulus.
  • the method may further include selecting at least one emotion group from the plurality of emotion groups by referring to the emotion model based on a combination of second values indicating a difference from the two signals. .
  • the emotion model includes first to fourth emotion groups, and in the emotion model, each of the plurality of emotions is any of the first to fourth emotion groups. It may be classified.
  • a method according to an aspect of the present disclosure includes selecting the first emotion group when the first value is greater than a first threshold and the second value is greater than a second threshold. , When the first value is less than or equal to the first threshold and the second value is greater than the second threshold, selecting the second emotion group and the first value is Selecting the third emotion group when the second threshold is less than or equal to the first threshold and the second value is less than the second threshold; and the first value is less than the first threshold The method may further include selecting the fourth emotion group when the second value is less than or equal to the second threshold value.
  • a method causes an output device to output at least one selected from the group consisting of an image and a sound that inquires the user whether the at least one emotion corresponds to the actual emotion of the user.
  • the output device may include at least one selected from the group consisting of a display and a speaker.
  • the system may further include an input device that receives an input from the user.
  • the at least one stimulus and the The method may further include recording data indicating a relationship with at least one emotion in a memory.
  • a system detects a light source that emits pulsed light applied to a user's head, and at least a part of reflected pulsed light that returns from the head, and the reflected pulse
  • a photodetector that outputs one or more signals according to the intensity of at least a portion of the light, the light source, and the one or more signals output from the photodetector that control the photodetector
  • the electrical circuit causes the light source to emit the pulsed light, and causes the photodetector to detect and output an internal scattered component scattered in the user's brain of the reflected pulsed light as a brain activity signal.
  • the photodetector detects and outputs a surface reflection component of the reflected pulse light reflected from the surface of the user's skin as a facial blood flow signal.
  • the signal processing circuit generates and outputs a signal indicating the psychological state of the user based on the facial blood flow signal and the brain activity signal.
  • the electrical circuit causes the photodetector to detect the first portion of the reflected pulsed light, thereby detecting the surface reflection component, and the reflected pulsed light.
  • the internal scattering component is detected, and the first part starts and ends after the intensity of the reflected pulse light starts decreasing.
  • the second part may include at least a part of the falling period, including a part of the period before the start of the falling period.
  • the system, the recording medium, and the method according to the present disclosure are useful for, for example, a camera or a measurement device that acquires internal information of a user without contact.

Abstract

本開示のある実施形態におけるシステムは、ユーザの頭部に照射されるパルス光を出射する光源と、前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、前記光源および前記光検出器を制御し、前記光検出器から出力された前記1つ以上の信号を処理する電気回路と、前記1つ以上の信号と複数の感情との関係を示す感情モデルを記憶するメモリと、を備える。前記電気回路は、前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択する。前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含む。前記第1の部分は立ち下り期間の開始前の部分を含み、前記第2の部分は立ち下り期間の少なくとも一部を含む。

Description

ユーザの心理状態を推定するためのシステム、記録媒体、および方法
 本開示は、ユーザの心理状態を推定するためのシステム、記録媒体、および方法に関する。
 人の感情の変化により、皮膚血流および脳血流が変化することが知られている。非特許文献1は、顔面血流のパターンが被検者の感情に応じて変化することを開示している。顔面血流のパターンは、レーザースペックル血液計による顔面全体の血流分布のイメージングによって得られる。非特許文献2は、近赤外線分光法(Near-Infrared Spectroscopy)を用いて、前頭部における頭皮の血流を含む脳血流の状態からうつ病を判定する方法を開示している。
「32.顔面皮膚血流の非接触計測を利用したヒトの情動センシング」上原記念生命科学財団研究報告集、26(2012) 「「抑うつ状態の鑑別診断補助」としての光トポグラフィー検査」、精神神経学雑誌、第117巻 第2号、pp.79-93(2015) Peter D. Drummondet al. "The effect of expressing anger on cardiovascular reactivity and facial blood flow in Chinese and Caucasians"Psychophysiol., 38 : 190-196, 2001
 本開示は、ユーザの皮膚血流および脳血流の情報を取得して感情等の心理状態を推定する新規な技術を提供する。
 本開示の一態様に係るシステムは、ユーザの頭部に照射されるパルス光を出射する光源と、前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、前記光源、および前記光検出器を制御し、前記光検出器から出力された前記1つ以上の信号を処理する電気回路と、前記1つ以上の信号と複数の感情との関係を示す感情モデルを記憶する第1のメモリと、を備える。前記電気回路は、前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択する。前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含む。前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、前記第2の部分は、前記立ち下り期間の少なくとも一部を含む。
 本開示の包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体によって実現されてもよい。あるいは、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意の組み合わせによって実現されてもよい。
 本開示の技術によれば、ユーザの感情等の心理状態をより正確に推定することができる。
図1Aは、本開示の実施形態に係るシステムを示す模式図である。 図1Bは、光検出器に到達する光の強度の時間変化の例を示す図である。 図1Cは、入力パルス光の幅を横軸に、光検出器30で検出される光の光量を縦軸に表した図である。 図1Dは、光検出器の1つの画素の概略的な構成の例を示す図である。 図1Eは、光検出器の構成の一例を示す図である。 図1Fは、1フレーム内の動作の例を示す図である。 図1Gは、制御回路による動作の概略を示すフローチャートである。 図2は、パルス光の内部散乱成分の検出方法を説明するための図である。 図3Aは、表面反射成分を検出する場合のタイミングチャートの一例を示す図である。 図3Bは、内部散乱成分を検出する場合のタイミングチャートの一例を示す図である。 図4は、計測前のユーザの状態を推定する処理の一例を示すフローチャートである。 図5は、ラッセルの円環モデルを模式的に示す図である。 図6は、感情・覚醒度マップを模式的に示す図である。 図7は、ユーザの感情を4つの感情グループのいずれかに分類する処理の一例を示すフローチャートである。 図8は、課題の実行時におけるユーザの感情を推定する処理の一例を示すフローチャートである。 図9は、複数の生体計測システムと、サーバコンピュータとの構成例を模式的に示す図である。 図10は、車載での応用例を示す図である。 図11は、メンタルヘルスチェックの応用例を示す図である。 図12は、ヘッドマウント装置を模式的に示す図である。 図13は、スマートフォンを模式的に示す図である。
 以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置などは、一例であり、本開示の技術を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 本開示において、回路、ユニット、装置、部材または部の全部または一部、またはブロック図における機能ブロックの全部または一部は、例えば、半導体装置、半導体集積回路(IC)、またはLSI(large scale integration)を含む1つまたは複数の電子回路によって実行され得る。LSIまたはICは、1つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、1つのチップに集積されてもよい。ここでは、LSIまたはICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、もしくはULSI(ultra large scale integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、Field Programmable Gate Array(FPGA)、またはLSI内部の接合関係の再構成またはLSI内部の回路区画のセットアップができるreconfigurable logic deviceも同じ目的で使うことができる。
 さらに、回路、ユニット、装置、部材または部の全部または一部の機能または操作は、ソフトウェア処理によって実行することが可能である。この場合、ソフトウェアは1つまたは複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウェアが処理装置(processor)によって実行されたときに、そのソフトウェアで特定された機能が処理装置(processor)および周辺装置によって実行される。システムまたは装置は、ソフトウェアが記録されている1つまたは複数の非一時的記録媒体、処理装置(processor)、および必要とされるハードウェアデバイス、例えばインターフェースを備えていてもよい。
 以下、実施の形態について、図面を参照しながら具体的に説明する。以下の説明において、同一または類似する構成要素には同一の符号を付す。
 (実施の形態)
 [1.システム]
 図1Aから図3Bを参照して、本開示の例示的な実施形態に係る生体計測システム100の構成を説明する。
 図1Aは、本実施形態に係る生体計測システム100を示す模式図である。生体計測システム100は、刺激装置10と、光源20と、光検出器30と、出力装置40と、入力装置50と、制御回路60と、信号処理回路70とを備える。制御回路60および信号処理回路70が、本開示における電気回路の一例である。
 刺激装置10は、ユーザ1に刺激を提供する。光源20は、ユーザ1の頭部に照射されるパルス光を出射する。光検出器30は、ユーザ1の頭部から戻ってきたパルス光の少なくとも一部を検出する。出力装置40は、信号処理回路70の処理に基づいた結果をユーザ1に出力する。入力装置50は、ユーザ1の入力を受け付ける。制御回路60は、刺激装置10、光源20、光検出器30、出力装置40、および入力装置50を制御する。信号処理回路70は、光検出器30から出力された信号を処理する。
 本実施形態では、制御回路60は、刺激装置10を制御する刺激制御部61と、光源20を制御する光源制御部62と、光検出器30を制御するセンサ制御部63と、出力装置40を制御する出力制御部64と、入力装置50を制御する入力制御部65とを含む。
 刺激制御部61は、刺激12として提供される映像の色相、彩度、および輝度の少なくとも1つ、または音声の音質および大きさの少なくとも1つを制御する。光源制御部62は、光源20から出射されるパルス光の強度、パルス幅、出射タイミング、および/または波長を制御する。センサ制御部63は、光検出器30の各画素における信号蓄積のタイミングを制御する。出力制御部64は、出力する映像の色相、彩度、および輝度の少なくとも1つ、または音声の音質および大きさの少なくとも1つを制御する。入力制御部65は、入力の受付の開始および終了を制御する。
 本明細書において、「生体反応」とは、刺激12が提供されたときに生じるユーザ1の生体情報の変化を意味する。「生体情報」とは、刺激12によって変化する生体の計測可能な量を意味する。生体情報には、例えば、血流量、血圧、心拍数、脈拍数、呼吸数、体温、脳波、血液中の酸素化ヘモグロビン濃度、血液中の脱酸素化ヘモグロビン濃度、血中酸素飽和度、皮膚の反射スペクトルなどの、種々の量が含まれる。生体情報の一部は、バイタルサインと呼ばれることがある。以下に、生体計測システム100の各構成要素を説明する。
 [1-1.刺激装置]
 刺激装置10は、ユーザ1に刺激12を提供する。刺激12は、ユーザ1の生体反応を引き起こす。刺激装置10は、例えば、ディスプレイおよびスピーカの少なくとも一方を含み得る。刺激装置10は、例えば、ユーザ1に映像および音声の少なくとも一方の刺激12を提供する。映像は視覚に対する刺激であり、音声は聴覚に対する刺激である。図1Aには、ディスプレイを備えた刺激装置10が、刺激12として映像をユーザ1に提供している状況が模式的に示されている。この視覚的な刺激は、例えば、計算問題、言語の問題、パズル、クイズ、またはゲームなどの、種々の課題であってもよい。刺激装置10は、課題の提示と同時に、課題に応じた音声を出力してもよい。映像または音声のコンテンツの他に、視覚的な刺激は、室内における照明の明るさ、または色の変化であってもよい。
 視覚または聴覚に対する刺激12以外に、触覚、嗅覚、または味覚に対する刺激12が提供されてもよい。刺激装置10は、ユーザ1に与える刺激の種類に応じて異なる構造および機能を有する。例えば、ユーザ1に触覚刺激を与える場合、刺激装置10は、振動または熱を発生させる装置であり得る。ユーザ1に嗅覚を与える場合、刺激装置10は、匂いを発生させる装置であり得る。
 [1-2.光源]
 光源20は、ユーザ1の頭部(例えば額)に光を照射する。光源20から出射されてユーザ1に到達した光は、ユーザ1の表面で反射される表面反射成分I1と、ユーザ1の内部で散乱される内部散乱成分I2とに分かれる。内部散乱成分I2は、生体内部で1回反射もしくは散乱、または多重散乱する成分である。ユーザ1の額に光を照射する場合、内部散乱成分I2は、額の表面から奥に8mmから16mmほどの部位、例えば脳に到達し、再び生体計測システム100に戻る成分を指す。表面反射成分I1は、直接反射成分、拡散反射成分、および散乱反射成分の3つの成分を含む。直接反射成分は、入射角と反射角とが等しい反射成分である。拡散反射成分は、表面の凹凸形状によって拡散して反射する成分である。散乱反射成分は、表面近傍の内部組織によって散乱して反射する成分である。ユーザ1の額に光を照射する場合、散乱反射成分は、表皮内部で散乱して反射する成分である。以降、本開示では、ユーザ1の表面で反射する表面反射成分I1は、これら3つの成分を含むものとする。表面反射成分I1および内部散乱成分I2は、反射または散乱によって進行方向が変化し、その一部が光検出器30に到達する。
 まず、内部散乱成分I2の取得方法について説明する。光源20は、制御回路60からの指示に従い、パルス光を所定の時間間隔または所定のタイミングで複数回繰り返し発生させる。光源20が発生させるパルス光は、例えば立ち下り期間がゼロに近い矩形波であり得る。本明細書において、「立ち下り期間」とは、パルス光の強度が減少を開始してから減少が終了するまでの期間である。一般に、ユーザ1に入射した光は、様々な経路でユーザ1内を伝搬し、時間差を伴ってユーザ1の表面から出射する。このため、パルス光の内部散乱成分I2の後端は広がりを有する。被検部が額である場合、内部散乱成分I2の後端の広がりは、4ns程度である。このことを考慮すると、パルス光の立ち下がり期間は、例えばその半分以下である2ns以下に設定され得る。立ち下り期間は、さらにその半分の1ns以下であってもよい。光源20が発生させるパルス光の立ち上り期間は任意である。本明細書において、「立ち上り期間」とは、パルス光の強度が増加を開始してから増加が終了するまでの期間である。本実施形態における内部散乱成分I2の検出では、パルス光の立ち下り部分を使用し、立ち上り部分を使用しないためである。パルス光の立ち上がり部分は、表面反射成分I1の検出には用いられ得る。光源20は、例えば、パルス光の立ち下り部分が時間軸に対して直角に近い、つまり時間応答特性が急進な、LDなどのレーザであり得る。
 光源20が発する光の波長は、例えば650nm以上950nm以下の波長範囲に含まれる任意の波長であり得る。この波長範囲は、赤色から近赤外線の波長範囲に含まれる。本明細書では、可視光のみならず赤外線についても「光」の用語を使用する。上記の波長範囲は、「生体の窓」と呼ばれており、生体内の水分および皮膚に比較的吸収されにくいという性質を有する。生体を検出対象にする場合、上記の波長範囲の光を使用することにより、検出感度を高くすることができる。本実施形態のように、ユーザ1の皮膚および脳の血流変化を検出する場合、使用される光は、主に酸素化ヘモグロビン(HbO)および脱酸素化ヘモグロビン(Hb)に吸収されると考えられる。酸素化ヘモグロビンと脱酸素化ヘモグロビンとで、光吸収の波長依存性が異なる。一般に、血流に変化が生じると、酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの濃度が変化するため、光の吸収度合いも変化する。したがって、血流が変化すると、検出される光量も時間的に変化する。
 光源20は、上記の波長範囲に含まれる2つ以上の波長の光を出射してもよい。そのような複数波長の光は、複数の光源からそれぞれ出射されてもよい。
 本実施形態の生体計測システム100では、非接触でユーザ1を測定するため、網膜への影響を考慮して設計された光源20が用いられ得る。例えば、各国で策定されているレーザ安全基準のクラス1を満足する光源20が用いられ得る。クラス1が満足されている場合、被爆放出限界(AEL)が1mWを下回るほどの低照度の光がユーザ1に照射される。なお、光源20自体はクラス1を満たしていなくてもよい。例えば、拡散板またはNDフィルタなどが光源20の前に設置されて光が拡散あるいは減衰されることによってレーザ安全基準のクラス1が満たされていてもよい。
 従来、生体内部の深さ方向において異なる場所における吸収係数または散乱係数などの情報を区別して検出するために、ストリークカメラが使用されていた。例えば、特開平4-189349は、そのようなストリークカメラの一例を開示している。これらのストリークカメラでは、所望の空間分解能で測定するために、パルス幅がフェムト秒またはピコ秒の極超短パルス光が用いられていた。
 これに対し、本開示の生体計測システム100は、表面反射成分I1と内部散乱成分I2とを区別して検出することができる。したがって、光源20が発するパルス光は、極超短パルス光である必要は無く、パルス幅を任意に選択できる。
 脳血流を計測するために額に光を照射する場合、内部散乱成分I2の光量は、表面反射成分I1の光量の数千分の1から数万分の1程度の非常に小さい値になり得る。さらに、レーザの安全基準を考慮すると、照射できる光の光量が極めて小さくなり、内部散乱成分I2の検出は非常に難しくなる。その場合でも、光源20が、比較的パルス幅の大きいパルス光を発生させれば、時間遅れを伴う内部散乱成分I2の積算量を増加させることができる。それにより、検出光量を増やし、SN比を向上させることができる。
 光源20は、例えばパルス幅が3ns以上のパルス光を発する。一般に、脳などの生体組織内で散乱された光の時間的な広がりは4ns程度である。図1Bは、入力パルス光の幅が0ns、3ns、および10nsのそれぞれの場合において、光検出器30に到達する光量の時間変化の例を示している。図1Bに示すように、光源20からのパルス光の幅を広げるにつれて、ユーザ1から戻ったパルス光の後端部に現れる内部散乱成分I2の光量が増加する。図1Cは、入力パルス光の幅を横軸に、光検出器30で検出される光の光量を縦軸に表した図である。光検出器30は、電子シャッタを備える。図1Cの結果は、パルス光の後端がユーザ1の表面で反射されて光検出器30に到達した時刻から1ns経過した後に電子シャッタを開いた条件で得られた。この条件を選択した理由は、パルス光の後端が到達した直後は、内部散乱成分I2に対する表面反射成分I1の比率が高いためである。図1Cに示すように、光源20が発するパルス光のパルス幅を3ns以上にすると、光検出器30で検出される光の光量を最大化することができる。
 光源20は、パルス幅5ns以上、さらには10ns以上のパルス光を発光してもよい。一方、パルス幅が大きすぎても使用しない光が増えて無駄となる。よって、光源20は、例えば、パルス幅50ns以下のパルス光を発生させる。あるいは、光源20は、パルス幅30ns以下、さらには20ns以下のパルス光を発光してもよい。
 光源20の照射パターンは、例えば、照射領域内において、均一な強度分布をもつパターンであってもよい。この点で、本実施形態は、例えば特開平11-164826号公報等に開示された従来の生体計測装置とは異なる。特開平11-164826号公報に開示された装置では、検出器と光源とを3cm程度離し、空間的に表面反射成分を内部散乱成分から分離する。このため、離散的な光照射とせざるを得ない。これに対し、本実施形態の生体計測システム100は、時間的に表面反射成分I1を内部散乱成分I2から分離することにより、表面反射成分I1を低減できる。このため、均一な強度分布をもつ照射パターンの光源20を用いることができる。均一な強度分布をもつ照射パターンは、光源20が発する光を拡散板により拡散することによって形成しても良い。
 本実施形態では、従来技術とは異なり、ユーザ1の照射点直下においても内部散乱成分I2を検出できる。ユーザ1を空間的に広い範囲にわたって光で照射することにより、測定解像度を高めることもできる。
 [1-3.光検出器]
 光検出器30は、ユーザ1の頭部から戻った反射パルス光の少なくとも一部を検出する。光検出器30は、検出した光の強度に応じた1つ以上の信号を出力する。1つ以上の信号は、反射パルス光のうち、立ち上り期間の少なくとも一部に含まれる強度に応じた信号と、立ち下り期間の少なくとも一部に含まれる強度に応じた信号である。
 光検出器30は、複数の光電変換素子32と、複数の電荷蓄積部34とを含む。具体的には、光検出器30は、2次元に配置された複数の光検出セルを有し、ユーザ1の2次元情報を一度に取得する。本明細書において、光検出セルを「画素」とも称する。光検出器30は、例えば、CCDイメージセンサまたはCMOSイメージセンサなどの任意の撮像素子である。より一般的には、光検出器30は、少なくとも1つの光電変換素子32と、少なくとも1つの電荷蓄積部34とを含む。
 光検出器30は、電子シャッタを有する。電子シャッタは、撮像のタイミングを制御する回路である。本実施形態では、制御回路60におけるセンサ制御部63が、電子シャッタの機能を有する。電子シャッタは、受光した光を有効な電気信号に変換して蓄積する1回の信号蓄積の期間と、信号蓄積を停止する期間とを制御する。信号蓄積期間は、「露光期間」または「撮影期間」と称することもできる。以下の説明において、露光期間の幅を、「シャッタ幅」と称することがある。1回の露光期間が終了し次の露光期間が開始するまでの時間を、「非露光期間」と称することがある。以下、露光している状態を「OPEN」、露光を停止している状態を「CLOSE」と称することがある。
 光検出器30は、電子シャッタによって露光期間および非露光期間をサブナノ秒、例えば、30psから1nsの範囲で調整できる。距離測定を目的としている従来のTOFカメラは、被写体の明るさの影響を補正するため、光源20から出射され被写体で反射されて戻ってきた光の全てを検出する。したがって、従来のTOFカメラでは、シャッタ幅が光のパルス幅よりも大きい必要があった。これに対し、本実施形態の生体計測システム100では、被写体の光量を補正する必要が無い。このため、シャッタ幅がパルス幅よりも大きい必要はない。よって、シャッタ幅を、例えば、1ns以上30ns以下の値に設定できる。本実施形態の生体計測システム100によれば、シャッタ幅を縮小できるため、検出信号に含まれる暗電流の影響を低減することができる。
 ユーザ1の額を光で照射して脳血流などの情報を検出する場合、内部での光の減衰率が非常に大きい。例えば、入射光に対して出射光が、100万分の1程度にまで減衰し得る。このため、内部散乱成分I2を検出するには、1パルスの照射だけでは光量が不足する場合がある。レーザ安全性基準のクラス1での照射では特に光量が微弱である。この場合、光源20がパルス光を複数回発光し、それに応じて光検出器30も電子シャッタによって複数回露光することにより、検出信号を積算して感度を向上することができる。
 以下、光検出器30の構成例を説明する。
 光検出器30は、撮像面上に2次元的に配列された複数の画素を備え得る。各画素は、例えばフォトダイオードなどの光電変換素子32と、1つまたは複数の電荷蓄積部34とを備え得る。以下、各画素が、光電変換によって受光量に応じた信号電荷を発生させる光電変換素子32と、パルス光の表面反射成分I1によって生じた信号電荷を蓄積する電荷蓄積部34と、パルス光の内部散乱成分I2によって生じた信号電荷を蓄積する電荷蓄積部34とを備える例を説明する。以下の例では、制御回路60は、光検出器30に、ユーザ1の頭部から戻ってきたパルス光中の立ち下り開始前の部分を検出させることにより、表面反射成分I1を検出させる。制御回路60はまた、光検出器30に、ユーザ1の頭部から戻ってきたパルス光中の立ち下り開始後の部分を検出させることにより、内部散乱成分I2を検出させる。光源20は2種類の波長の光を出射するものとする。
 図1Dは、光検出器30の1つの画素201の概略的な構成例を示す図である。なお、図1Dは、1つの画素201の構成を模式的に示しており、実際の構造を必ずしも反映していない。この例における画素201は、光電変換を行うフォトダイオード203と、電荷蓄積部である第1から第4の浮遊拡散層(Floating Diffusion)204、205、206、207と、信号電荷を排出するドレイン202とを含む。
 1回のパルス光の出射に起因して各画素に入射したフォトンは、フォトダイオード203によって信号電荷である信号エレクトロンに変換される。変換された信号エレクトロンは、制御回路60から入力される制御信号に従って、ドレイン202に排出されるか、第1から第4の浮遊拡散層204、205、206、207のいずれかに振り分けられる。
 光源20からのパルス光の出射と、第1の浮遊拡散層204、第2の浮遊拡散層205、第3の浮遊拡散層206、および第4の浮遊拡散層207への信号電荷の蓄積と、ドレイン202への信号電荷の排出が、この順序で繰り返し行われる。この繰り返し動作は高速であり、例えば動画像の1フレームの時間(例えば約1/30秒)内に数万回から数億回繰り返され得る。画素201は、最終的に、第1から第4の浮遊拡散層204、205、206、207に蓄積された信号電荷に基づく4つの画像信号を生成して出力する。
 この例における制御回路60は、光源20に、第1の波長をもつ第1のパルス光と、第2の波長をもつ第2のパルス光とを、順に繰り返し出射させる。第1の波長および第2の波長として、ユーザ1の内部組織に対する吸収率が異なる2波長を選択することで、ユーザ1の状態を分析することができる。例えば、第1の波長として805nmよりも長い波長を選択し、第2の波長として805nmよりも短い波長を選択してもよい。これにより、ユーザ1の血液中の酸素化ヘモグロビン濃度および脱酸素化ヘモグロビン濃度のそれぞれの変化を検出することが可能になる。
 制御回路60は、まず、光源20に、第1のパルス光を出射させる。制御回路60は、第1のパルス光の表面反射成分I1がフォトダイオード203に入射している第1の期間に、第1の浮遊拡散層204に信号電荷を蓄積させる。続いて、制御回路60は、第1のパルス光の内部散乱成分I2がフォトダイオード203に入射している第2の期間に、第2の浮遊拡散層205に信号電荷を蓄積させる。次に、制御回路60は、光源20に、第2のパルス光を出射させる。制御回路60は、第2のパルス光の表面反射成分I1がフォトダイオード203に入射している第3の期間に、第3の浮遊拡散層206に信号電荷を蓄積させる。続いて、制御回路60は、第2のパルス光の内部散乱成分I2がフォトダイオード203に入射している第4の期間に、第4の浮遊拡散層207に信号電荷を蓄積させる。
 このように、制御回路60は、第1のパルス光の発光を開始した後、所定の時間差を空けて、第1の浮遊拡散層204および第2の浮遊拡散層205に、フォトダイオード203からの信号電荷を順次蓄積させる。その後、制御回路60は、第2のパルス光の発光を開始した後、上記所定の時間差を空けて、第3の浮遊拡散層206および第4の浮遊拡散層207に、フォトダイオード203からの信号電荷を順次蓄積させる。以上の動作を複数回繰り返す。外乱光および環境光の光量を推定するために、光源20を消灯した状態で不図示の他の浮遊拡散層に信号電荷を蓄積する期間を設けてもよい。第1から第4の浮遊拡散層204、205、206、207の信号電荷量から、上記他の浮遊拡散層の信号電荷量を差し引くことで、外乱光および環境光成分を除去した信号を得ることができる。
 なお、本実施形態では、電荷蓄積部の数を4としているが、目的に応じて2以上の複数の数に設計してよい。例えば、1種類の波長のみを用いる場合には、電荷蓄積部の数は2であってよい。また、使用する波長が1種類で、表面反射成分I1を検出しない用途では、画素ごとの電荷蓄積部の数は1であってもよい。また、2種類以上の波長を用いる場合であっても、それぞれの波長を用いた撮像を別のフレームで行えば、電荷蓄積部の数は1であってもよい。また、後述するように、表面反射成分I1の検出と内部散乱成分I2の検出とをそれぞれ別のフレームで行えば、電荷蓄積部の数は1であってもよい。
 図1Eは、光検出器30の構成の一例を示す図である。図1Eにおいて、二点鎖線の枠で囲まれた領域が1つの画素201に相当する。画素201には1つのフォトダイオードが含まれる。図1Eでは2行2列に配列された4画素のみを示しているが、実際にはさらに多数の画素が配置され得る。画素201は、第1から第4の浮遊拡散層204、205、206、207を含む。第1から第4の浮遊拡散層204、205、206、207に蓄積される信号は、あたかも一般的なCMOSイメージセンサの4画素の信号のように取り扱われ、光検出器30から出力される。
 各画素201は、4つの信号検出回路を有する。各信号検出回路は、ソースフォロワトランジスタ309と、行選択トランジスタ308と、リセットトランジスタ310とを含む。この例では、リセットトランジスタ310が図1Dに示すドレイン202に対応し、リセットトランジスタ310のゲートに入力されるパルスがドレイン排出パルスに対応する。各トランジスタは、例えば半導体基板に形成された電界効果トランジスタであるが、これに限定されない。図示されるように、ソースフォロワトランジスタ309の入力端子および出力端子の一方(典型的にはソース)と、行選択トランジスタ308の入力端子および出力端子のうちの一方(典型的にはドレイン)とが接続されている。ソースフォロワトランジスタ309の制御端子であるゲートは、フォトダイオード203に接続されている。フォトダイオード203によって生成された信号電荷(すなわち正孔または電子)は、フォトダイオード203とソースフォロワトランジスタ309との間の電荷蓄積部である浮遊拡散層に蓄積される。
 図1Eには示されていないが、第1から第4の浮遊拡散層204、205、206、207はフォトダイオード203に接続される。フォトダイオード203と第1から第4の浮遊拡散層204、205、206、207との間には、スイッチが設けられ得る。このスイッチは、制御回路60からの信号蓄積パルスに応じて、フォトダイオード203と第1から第4の浮遊拡散層204、205、206、207の各々との間の導通状態を切り替える。これにより、第1から第4の浮遊拡散層204、205、206、207の各々への信号電荷の蓄積の開始と停止とが制御される。本実施形態における電子シャッタは、このような露光制御のための機構を有する。
 第1から第4の浮遊拡散層204、205、206、207に蓄積された信号電荷は、行選択回路302によって行選択トランジスタ308のゲートがONにされることにより、読み出される。この際、第1から第4の浮遊拡散層204、205、206、207の信号電位に応じて、ソースフォロワ電源305からソースフォロワトランジスタ309およびソースフォロワ負荷306へ流入する電流が増幅される。垂直信号線304から読み出されるこの電流によるアナログ信号は、列毎に接続されたアナログ-デジタル変換回路307によってデジタル信号データに変換される。このデジタル信号データは、列選択回路303によって列ごとに読み出され、光検出器30から出力される。行選択回路302および列選択回路303は、1つの行の読出しを行った後、次の行の読み出しを行い、以下同様に、全ての行の浮遊拡散層の信号電荷の情報を読み出す。制御回路60は、全ての信号電荷を読み出した後、リセットトランジスタ310のゲートをオンにすることで、全ての浮遊拡散層をリセットする。これにより、1つのフレームの撮像が完了する。以下同様に、フレームの高速撮像を繰り返すことにより、光検出器30による一連のフレームの撮像が完結する。
 本実施の形態では、CMOS型の光検出器30の例を説明したが、光検出器30は他の種類の撮像素子であってもよい。光検出器30は、例えば、CCD型であっても、単一光子計数型素子であっても、増幅型イメージセンサ(例えば、EMCCDまたはICCD)であっても構わない。
 図1Fは、本実施形態における1フレーム内の動作の例を示す図である。図1Fに示すように、1フレーム内で、第1のパルス光の発光と第2のパルス光の発光とを交互に複数回切り替えてもよい。このようにすると、2種類の波長による検出画像の取得タイミングの時間差を低減でき、動きがあるユーザ1であっても、ほぼ同時に第1および第2のパルス光での撮影が可能である。
 本実施形態では、光検出器30が、パルス光の表面反射成分I1と内部散乱成分I2の両方を検出する。表面反射成分I1の時間的または空間的な変化から、ユーザ1の第1の生体情報を取得することができる。第1の生体情報は、例えば、ユーザ1の脈拍であり得る。一方、内部散乱成分I2の時間的または空間的な変化から、ユーザ1の第2の生体情報である脳活動情報を取得することができる。
 第1の生体情報は、表面反射成分I1を検出する方法とは異なる方法によって取得してもよい。例えば、光検出器30とは異なる他の種類の検出器を利用して、第1の生体情報を取得してもよい。その場合、光検出器30は、内部散乱成分I2のみを検出する。他の種類の検出器は、例えばレーダまたはサーモグラフィであってもよい。第1の生体情報は、例えば、ユーザ1の脈拍、発汗、呼吸、体温の少なくとも1つであり得る。第1の生体情報は、ユーザ1の頭部に照射されたパルス光の内部散乱成分I2を検出することにより得られる脳活動情報以外の生体情報である。ここで、「脳活動情報以外」とは、第1の生体情報中に脳活動に起因する情報が一切含まれないことを意味するものではない。第1の生体情報は、脳活動とは別の生体活動に起因する生体情報が含まれている。第1の生体情報は、例えば、自律的または反射的な生体活動に起因する生体情報である。
 本明細書において、第1の生体情報を示す信号を「第1の生体信号」または単に「生体信号」と称することがある。また、脳活動情報を示す信号を「脳活動信号」と称することがある。
 [1-4.出力装置]
 出力装置40は、例えばディスプレイおよびスピーカの少なくとも一方を含む。出力装置40は、生体反応に基づいた結果を出力する。刺激装置10がディスプレイまたはスピーカを含む場合、それらが出力装置40として機能してもよい。出力装置40は、例えばヘッドマウント装置、またはスマートフォンなどの、ディスプレイを備えた装置であり得る。
 [1-5.入力装置]
 入力装置50は、ユーザ1の入力を受け付ける。ユーザ1の入力は、例えば、出力装置40が出力した結果に対する応答である。入力装置50は、例えばスマートフォンまたはタブレットコンピュータに搭載されたタッチパネルであり得る。
 [1-6.制御回路および信号処理回路]
 制御回路60は、刺激装置10に、映像または音声などの刺激12を提供させる。制御回路60は、映像の色相、彩度、および輝度の少なくとも1つ、または音声の音質および大きさの少なくとも1つを制御してもよい。
 制御回路60は、光源20のパルス光発光タイミングと、光検出器30のシャッタタイミングとの時間差を調整する。以下、当該時間差を「位相」または「位相遅れ」と称することがある。光源20の「発光タイミング」とは、光源20が発光するパルス光が立ち上りを開始するタイミングである。「シャッタタイミング」とは、露光を開始するタイミングである。制御回路60は、発光タイミングを変化させて位相を調整しても良いし、シャッタタイミングを変化させて位相を調整しても良い。
 制御回路60は、光検出器30の各画素によって検出された信号からオフセット成分を取り除くように構成されてもよい。オフセット成分は、太陽光もしくは蛍光灯などの環境光、または外乱光による信号成分である。光源20が発光しない状態、つまり光源20の駆動をOFFにした状態で、光検出器30が信号を検出することで環境光、外乱光によるオフセット成分が見積もられる。
 制御回路60は、信号処理回路70によって得られた生体反応の計測結果に基づいて、予め定義された感情モデルに含まれる複数の感情の中から少なくとも1つの感情を決定する。感情の決定方法の詳細については後述する。
 制御回路60は、出力装置40に、決定した1つの感情グループに関連付けられた画像および音声の少なくとも一方を出力させる。制御回路60は、画像の色相、彩度、および輝度の少なくとも1つ、または音声の音質および大きさの少なくとも1つを制御してもよい。
 制御回路60は、ユーザ1の入力装置50への入力に基づいたデータをメモリに記録する。メモリは、生体計測システム100に内蔵されてもよいし、外部に設けられてもよい。
 制御回路60は、例えばプロセッサおよびメモリの組み合わせ、またはプロセッサおよびメモリを内蔵するマイクロコントローラ等の集積回路であり得る。制御回路60は、例えばプロセッサがメモリに記録されたプログラムを実行することにより、発光タイミングとシャッタタイミングとの調整、オフセット成分の見積り、およびオフセット成分の除去等を行う。
 信号処理回路70は、光検出器30から出力された画像信号を処理する回路である。信号処理回路70は、画像処理等の演算処理を行う。信号処理回路70は、例えばデジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)等のプログラマブルロジックデバイス(PLD)、または中央演算処理装置(CPU)もしくは画像処理用演算プロセッサ(GPU)とコンピュータプログラムとの組み合わせによって実現され得る。なお、制御回路60および信号処理回路70は、統合された1つの回路であってもよいし、分離された個別の回路であってもよい。また、信号処理回路70は、例えば遠隔地に設けられたサーバコンピュータなどの外部の装置の構成要素であってもよい。この場合、サーバコンピュータなどの外部の装置は通信手段を備え、光源20、光検出器30、および制御回路60と相互にデータの送受信を行う。
 本実施形態における信号処理回路70は、光検出器30から出力された信号に基づき、皮膚表面の血流および脳血流の時間変化を示す動画像データを生成することができる。信号処理回路70は、そのような動画像データに限らず、他の情報を生成してもよい。例えば、他の機器と同期させることで、脳における血流量、血圧、血中酸素飽和度、または心拍数などの生体情報を生成してもよい。
 脳血流量またはヘモグロビンなどの血液内成分の変化と、人間の神経活動との間には密接な関係があることが知られている。例えば、人間の感情の変化に応じて神経細胞の活動が変化することにより、脳血流量または血液内の成分が変化する。したがって、脳血流量または血液内成分の変化などの生体情報を計測できれば、ユーザ1の心理状態を推定することができる。ユーザ1の心理状態とは、例えば、気分(例えば、快、不快)、感情(例えば、安心、不安、悲しみ、憤りなど)、健康状態(例えば、元気、倦怠)、温度感覚(例えば、暑い、寒い、蒸し暑い)などを意味する。また、これに派生して、脳活動の程度を表す指標、例えば熟練度、習熟度、および集中度なども心理状態に含まれる。信号処理回路70は、脳血流量などの変化に基づいて、ユーザ1の集中度などの心理状態を推定し、推定結果を示す信号を出力してもよい。
 図1Gは、制御回路60による光源20および光検出器30に関する動作の概略を示すフローチャートである。制御回路60は、概略的には図1Gに示す動作を実行する。なお、ここでは内部散乱成分I2の検出のみを行う場合の動作を説明する。ステップS101において、制御回路60は、まず、光源20に所定時間だけパルス光を発光させる。このとき、光検出器30の電子シャッタは露光を停止した状態にある。制御回路60は、パルス光の一部がユーザ1の表面で反射されて光検出器30に到達する期間が完了するまで、電子シャッタに露光を停止させる。次に、ステップS102において、制御回路60は、当該パルス光の他の一部がユーザ1の内部を散乱して光検出器30に到達するタイミングで、電子シャッタに露光を開始させる。所定時間経過後、ステップS103において、制御回路60は、電子シャッタに露光を停止させる。続いて、ステップS104において、制御回路60は、上記の信号蓄積を実行した回数が所定の回数に達したか否かを判定する。この判定がNoの場合、Yesと判定するまで、ステップS101からS103を繰り返す。ステップS104においてYesと判定すると、ステップS105において、制御回路60は、各浮遊拡散層に蓄積された信号電荷に基づく画像を示す信号を光検出器30に生成させて出力させる。
 以上の動作により、測定対象の内部で散乱された光の成分を高い感度で検出することができる。なお、複数回の発光および露光は必須ではなく、必要に応じて行われる。
 [1-7.その他]
 生体計測システム100は、ユーザ1の2次元像を光検出器30の受光面上に形成する結像光学系を備えてもよい。結像光学系の光軸は、光検出器30の受光面に対して略直交する。結像光学系は、ズームレンズを含んでいてもよい。ズームレンズの位置が変化するとユーザ1の2次元像の拡大率が変更し、光検出器30上の2次元像の解像度が変化する。したがって、ユーザ1までの距離が遠くても測定したい領域を拡大して詳細に観察することが可能となる。
 また、生体計測システム100は、ユーザ1と光検出器30の間に光源20から発する波長の帯域またはその近傍の光のみを通過させる帯域通過フィルタを備えてもよい。これにより、環境光などの外乱成分の影響を低減することができる。帯域通過フィルタは、多層膜フィルタまたは吸収フィルタによって構成される。光源20の温度およびフィルタへの斜入射に伴う帯域シフトを考慮して、帯域通過フィルタの帯域幅は20から100nm程度の幅を持たせてもよい。
 また、生体計測システム100は、光源20とユーザ1との間、および光検出器30とユーザ1との間にそれぞれ偏光板を備えてもよい。この場合、光源20側に配置される偏光板と光検出器30側に配置される偏光板の偏光方向は直交ニコルの関係である。これにより、ユーザ1の表面反射成分I1のうち正反射成分、すなわち入射角と反射角が同じ成分が光検出器30に到達することを防ぐことができる。つまり、表面反射成分I1が光検出器30に到達する光量を低減させることができる。
 [2.光源および光検出器の動作]
 本開示の生体計測システム100は、表面反射成分I1から内部散乱成分I2を区別して検出することができる。ユーザ1を人とし、被検部を額とした場合、検出したい内部散乱成分I2による信号強度は非常に小さくなる。前述のように、レーザ安全基準を満たす非常に小さな光量の光が照射されることに加えて、頭皮、脳髄液、頭蓋骨、灰白質、白質および血流による光の散乱および吸収が大きいためである。さらに、脳活動時の血流量または血流内成分の変化による信号強度の変化は、さらに数十分の1の大きさに相当し非常に小さくなる。したがって、本実施形態では、検出したい信号成分の数千倍から数万倍である表面反射成分I1をできるだけ混入させずに撮影される。
 以下、本実施の形態における生体計測システム100における光源20および光検出器30の動作の例を説明する。
 図1Aに示すように、光源20がユーザ1にパルス光を照射すると、表面反射成分I1および内部散乱成分I2が発生する。表面反射成分I1および内部散乱成分I2はその一部が光検出器30に到達する。内部散乱成分I2は、光源20から発せられて光検出器30に到達するまでにユーザ1の内部を通過するため光路長が表面反射成分I1に比べて長くなる。したがって、内部散乱成分I2は、光検出器30に到達する時間が表面反射成分I1に対して平均的に遅れる。
 図2は、光源20から矩形パルス光が発せられてユーザ1から戻ってきた光が光検出器30に到達する光信号を表す図である。横軸は波形(a)から(d)においていずれも時間(t)を表し、縦軸は波形(a)から(c)においては強度、波形(d)においては電子シャッタのOPENまたはCLOSEの状態を表す。波形(a)は、表面反射成分I1を示す。波形(b)は、内部散乱成分I2を示す。波形(c)は表面反射成分I1(a)と内部散乱成分I2(b)の合算成分を示す。波形(a)に示すように、表面反射成分I1は矩形を維持する。一方、波形(b)に示すように、内部散乱成分I2はさまざまな光路長を経た光の合算であるため、パルス光の後端で尾を引いたような特性を示す。すなわち、内部散乱成分I2は表面反射成分I1よりも立ち下り期間が長くなる。波形(c)の光信号から内部散乱成分I2の割合を高めて抽出するためには、波形(d)に示すとおり、表面反射成分I1の後端以降、すなわち表面反射成分I1が立ち下がった時またはその後に、電子シャッタが露光を開始すれば良い。このシャッタタイミングは、制御回路60によって調整される。上述したとおり、本開示の生体計測システム100は表面反射成分I1と対象深部に到達した内部散乱成分I2とを区別して検出できれば良いため、発光パルス幅およびシャッタ幅は任意である。したがって、従来のストリークカメラを使用した方法と異なり簡便な構成で実現できコストを大幅に低下させることができる。
 図2における波形(a)では、表面反射成分I1の後端が垂直に立ち下がっている。言い換えると、表面反射成分I1が立ち下りを開始してから終了するまでの時間がゼロである。しかし、現実的には光源20が照射するパルス光自体の波形の立ち下り部分が完全な垂直で無かったり、ユーザ1の表面に微細な凹凸があったり、表皮内での散乱により、表面反射成分I1の後端が垂直に立ち下がらないことがある。また、ユーザ1は不透明な物体であることから、表面反射成分I1は内部散乱成分I2よりも非常に光量が大きくなる。したがって、表面反射成分I1の後端が垂直な立ち下り位置からわずかにはみ出した場合であっても、内部散乱成分I2が表面反射成分I1の後端部分に埋もれてしまう可能性がある。また、電子シャッタの読み出し期間中の電子移動に伴う時間遅れにより、図2における波形(d)に示すような理想的なバイナリな読み出しが実現できないことがある。したがって、制御回路60は電子シャッタのシャッタタイミングを表面反射成分I1の立ち下り直後よりやや遅らせても良い。例えば、0.5nsから5ns程度遅らせてもよい。尚、電子シャッタのシャッタタイミングを調整する代わりに、制御回路60は光源20の発光タイミングを調整しても良い。制御回路60は、電子シャッタのシャッタタイミングと光源20の発光タイミングとの時間差を調整する。非接触で脳活動時の血流量または血流内成分の変化を計測する場合は、あまりにもシャッタタイミングを遅らせすぎると、もともと小さい内部散乱成分I2がさらに減少してしまう。このため、表面反射成分I1の後端近傍にシャッタタイミングを留めておいてもよい。ユーザ1の散乱による時間遅れが4nsであるため、シャッタイミングの最大の遅らせ量は4ns程度である。
 光源20がパルス光を複数回発光し、各パルス光に対して同じ位相のシャッタタイミングで複数回露光することで、内部散乱成分I2の検出光量を増幅しても良い。
 なお、ユーザ1と光検出器30の間に帯域通過フィルタを配置することに替えて、またはそれに加えて、制御回路60が、光源20を発光させない状態で同じ露光時間で撮影することによってオフセット成分を見積もってもよい。見積もったオフセット成分は、光検出器30の各画素によって検出された信号から差分除去される。これによって光検出器30上で発生する暗電流成分を除去することができる。
 内部散乱成分I2には、ユーザ1の内部特性情報、例えば、脳血流情報が含まれる。ユーザ1の脳血流量の時間的な変動に応じて血液に吸収される光の量に変化が生じ、光検出器30による検出光量も相応に増減する。したがって、内部散乱成分I2をモニタリングすることでユーザ1の脳血流量の変化から脳活動状態を推定することが可能となる。本明細書において、光検出器30から出力される信号のうち、内部散乱成分I2を示す信号を、「脳活動信号」と称することがある。脳活動信号は、ユーザ1の脳血流の増減情報を含み得る。
 次に、表面反射成分I1の検出方法の例を説明する。表面反射成分I1には、ユーザ1の表面特性情報、例えば、顔および頭皮の血流情報が含まれる。光検出器30は、光源20が発するパルス光がユーザ1に到達し、再び光検出器30に戻る光信号のうち、表面反射成分I1を検出する。
 図3Aは、表面反射成分I1を検出する場合のタイミングチャートの一例を示している。表面反射成分I1の検出のために、例えば、図3Aに示すように、パルス光が光検出器30に到達する前にシャッタをOpenにし、パルス光の後端が到達するよりも前にシャッタをcloseにしてもよい。このようにシャッタを制御することで、内部散乱成分I2の混入を少なくすることができる。ユーザ1の表面近傍を通過した光の割合を大きくすることができる。特に、シャッタcloseのタイミングを、光検出器30への光の到達直後にしてもよい。このようにすることで、光路長が比較的短い表面反射成分I1の割合を高めた信号検出が可能となる。表面反射成分I1の信号を取得することで、ユーザ1の脈拍、または顔血流の酸素化度を検出することが可能となる。他の表面反射成分I1の取得方法として、光検出器30がパルス光全体を取得したり、光源20から連続光を照射して検出したりしてもよい。
 図3Bは、内部散乱成分I2を検出する場合のタイミングチャートの一例を示している。パルスの後端部分が光検出器30に到達する期間にシャッタをOpenにすることで、内部散乱成分I2の信号を取得することができる。
 表面反射成分I1は、内部散乱成分I2を取得する生体計測システム100以外の装置によって検出してもよい。内部散乱成分I2を取得する装置とは別体の装置、または脈波計もしくはドップラ血流計といった別デバイスを用いても良い。別デバイスを用いる場合、デバイス間のタイミング同期、光の干渉、および検出箇所の合わせこみを考慮して使用することになる。本実施形態のように、同一カメラまたは同一センサによる時分割撮像を行えば、時間的および空間的なずれが発生しにくい。同一のセンサで表面反射成分I1および内部散乱成分I2の両方の信号を取得する場合、図3Aおよび図3Bに示すように、1フレームごとに取得する成分を切り替えてもよい。あるいは、図1Dから図1Fを参照して説明したように、1フレーム内で高速に取得する成分を交互に切り替えてもよい。その場合、表面反射成分I1と内部散乱成分I2の検出時間差を低減できる。
 さらに、表面反射成分I1と内部散乱成分I2のそれぞれの信号を、2つの波長の光を用いて取得してもよい。例えば、750nmと850nmの2波長のパルス光を利用してもよい。このようにすることで、それぞれの波長での検出光量の変化から、酸素化ヘモグロビンの濃度変化および脱酸素化ヘモグロビンの濃度変化を算出することができる。表面反射成分I1と内部散乱成分I2を、それぞれ2波長で取得する場合、例えば図1Dから図1Fを参照して説明したように、4種類の電荷蓄積を1フレーム内で高速に切り替える方法が利用され得る。そのような方法により、検出信号の時間的なずれを低減できる。
 生体計測システム100は、ユーザ1の額に向けてパルス状の近赤外光または可視光を照射し、表面反射成分I1の時間的変化から、頭皮または顔の酸素化ヘモグロビン量の変化または脈拍を検出することができる。表面反射成分I1を取得するための光源20は、近赤外光または可視光を出射する。近赤外光であれば昼夜問わず計測が可能である。脈拍を計測する場合、より感度が高い可視光を用いてもよい。日中であれば外乱光である日射または室内光源を照明代わりに使用してもよい。光量が不足する場合は専用の光源で補強してもよい。内部散乱成分I2は、脳まで到達した光成分を含む。内部散乱成分I2の時間変化を計測することで、脳血流の時間的な増減を計測できる。
 脳まで到達した光は、頭皮および顔表面も通過するため、頭皮および顔の血流の変動も重畳されて検出される。その影響を除去または低減するために、信号処理回路70は、光検出器30によって検出された内部散乱成分I2から表面反射成分I1を減算する処理を行ってもよい。このようにすることで、頭皮および顔の血流情報を除いた純粋な脳血流情報を取得することができる。減算方法には、例えば、内部散乱成分I2の信号から、光路長差を考慮して決定された1以上のある係数を表面反射成分I1の信号に掛けた値を減算する方法が用いられ得る。この係数は、例えば、一般的な人の頭部光学定数の平均値に基づいて、シミュレーションまたは実験によって算出され得る。このような減算処理は、同一のカメラまたはセンサを用いて、同一の波長の光を用いて計測する場合に特に容易にできる。これは、時間的および空間的なずれを低減し易く、内部散乱成分I2に含まれる頭皮血流成分と、表面反射成分I1の特性とを一致させ易いからである。
 脳と頭皮との間には頭蓋骨が存在する。このため、脳血流の2次元分布と頭皮および顔の血流の2次元分布とは独立である。したがって、光検出器30で検出される信号に基づいて、内部散乱成分I2の2次元分布と表面反射成分I1の2次元分布とを、独立成分分析または主成分分析などの統計手法を用いて分離してもよい。
 [3.計測前のユーザの状態の判定]
 次に、上記の生体計測システム100を用いてユーザ1の感情を推定する方法の例を説明する。
 前述したように、信号処理回路70は、表面反射成分I1および内部散乱成分I2から、それぞれ、ユーザ1の頭皮血流量B1および脳血流量B2を算出する。頭皮血流量は、頭皮の血管の拡張・収縮による流速の変化によって調整される。血管の拡張・収縮は、自律神経によって制御される。自律神経は、主に交感神経である。交感神経は、情動的な応答、眠気、またはストレス応答時に活性化され、顔面血流量を調節する。
 本実施形態では、信号処理回路70は、頭皮由来の血流情報である表面反射成分I1からユーザ1の自律神経由来の状態を推定し、脳由来の脳血流情報である内部散乱成分I2から脳神経由来の状態を推定する。信号処理回路70は、さらに、これらの2つの情報からユーザ1の状態を推定する。
 自律神経の活性は、ヒトの感情、ストレス、および体調などの心身の状態によって制御される。したがって、顔面の血流量は、ヒトの心身の状態を表すと考えられる。
 一方、脳神経は、認知、判断、情動などの脳の機能を制御するために活性化する。脳神経の活性に伴い、脳の血流量が変化する。そのため、脳血流、特に脳前頭前野領域に相当する額部の脳血流は、集中の状態を反映していると考えられる。
 すなわち、顔面および脳の血流量の2つの情報は、ヒトの異なる状態を反映していると考えられる。本実施形態では、これら2つの情報に基づいて、ヒトの心身の状態が推定される。
 脳認知機能の計測において前頭葉の脳血流を計測する場合、計測前に、頭皮血流を参照してユーザ1の状態を判定する場合がある。
 図4は、本実施形態における、計測前のユーザ1の状態を判定する処理の一例を示すフローチャートである。
 ステップS201において、制御回路60は、光源20にパルス光でユーザ1の額部を照射させ、光検出器30に表面反射成分I1を計測させる。その際、制御回路60は、計測回数を記録する。ステップS202において、制御回路60は、信号処理回路70によって表面反射成分I1の値から頭皮血流量B1を算出する。ステップS203において、制御回路60は、計測回数が既定値N以下であるかを判断する。ステップS204において、制御回路60は、算出したB1を、予めデータベースとして記録媒体に蓄積されたユーザ1の平均的な安静状態での頭皮血流量の範囲と比較する。制御回路60は、B1が当該範囲内に入っていれば、ユーザ1は安静状態にあると判断する。その場合、ステップS205において、制御回路60は、認知機能を評価するために、刺激装置10によって課題を提示し、認知機能の計測を開始する。一方、ステップS204においてB1が当該範囲内に収まっていない場合、制御回路60は、ステップS201からS204を繰り返す。
 ステップS203において計測回数がNに到達した場合、ステップS206において、制御回路60は、N番目のB1が、これまで計測したN-1回のB1の平均値±標準偏差の範囲内に収まるかを判断する。N番目のB1が当該範囲内に収まれば、制御回路60は、ステップS205において、刺激装置10によって課題を提示する。ステップS206においてN番目のB1が当該範囲内に収まらなければ、制御回路60は、ユーザ1が計測できる状態ではないと判断する。その場合、ステップS207において、制御回路60は、出力装置40により、深呼吸またはリラクゼーションを促すアナウンスをユーザ1に出力し、計測を中止する。
 [4.感情・覚醒度マップの作成]
 顔面血流は、顔面に存在する自律神経系によって制御される。顔面血流は、体温調節において重要な役割を果たしている。自律神経系は、特に脳内の視床下部によって調節される。同時に、視床下部は、大脳辺縁系から情報を受け、当該情報に適する自律神経を調節する。大脳辺縁系に含まれる扁桃体は、特に負の情動によって活性化することが報告されている。そのため、情動反応を、自律神経制御を介して顔面血流の変化として計測できることが期待される。
 非特許文献1は、被検者が動画を視聴している最中に、被検者の顔面血流の変化を計測することを開示している。当該動画は、驚き、悲しみ、恐怖、および興奮などの感情を誘発させる。計測には、レーザースペックル血流計が用いられている。非特許文献1によれば、当該動画の視聴により、ユーザ1の顔面血流は優位に減少する。また、非特許文献3は、「怒り」の感情に着目して顔面血流の変化を計測することを開示している。非特許文献3によれば、「怒り」の感情の表出時に、顔面血流が10%程度増加する。このように、顔面血流の変化を検出することにより、ユーザ1の感情を推定することができる。
 以上の先行研究の結果をまとめると、怒りまたは驚きなどの感情は顔面血流を増加させ、不快、悲しみ、または恐怖は顔面血流を減少させる。
 次に、感情を分類する指標としてよく用いられるラッセルの円環モデルを説明する。
 図5は、ラッセルの円環モデルを模式的に示す図である。ラッセルの円環モデルでは、感情は、快-不快と、覚醒-沈静の覚醒度との二軸によって4つの象限に分類されている。
 図5に示すラッセルの円環モデルと、顔面血流の変化によって推定された感情とを重ね合わせると、以下の結果が得られる。顔面血流を減少させる感情のうち、「驚き」および「興奮」は第1象限に存在し、「恐怖」は第2象限に存在し、「悲しみ」は第3象限に存在する。一方、顔面血流を増加させる「怒り」は、第2象限に存在する。このように、顔面血流の増減による推定可能な感情は、ラッセルの円環モデルにおける4つの象限に対応していない。
 一方、前頭前野領域の脳血流は、認知、意思、または感情の制御の際に増加することが知られている。例えば、認知機能を調べる課題の実行時に前頭前野領域の血流が増加することが、fNIRSまたはfMRIなどの方法によって確認されている。認知機能を調べる課題とは、例えば、言語流暢性課題、またはN-Back課題である。脳血流の増加が大きいほど、ユーザ1が課題に集中して取り組んでいると判断される。
 一方で、同様の認知課題を繰り返すと、認知課題の成績は向上するが、脳血流が減少することが指摘されている。これは、以下の理由によると考えられている。課題を繰り返し実行することによって課題を効率的に実行する手段が習得される。さらに、脳内の活動領域に変化が生じ前頭前野領域にあまり負荷がかからなくなる脳機能局在が生じる。
 逆に、脳血流の減少は、眠気によって生じることが報告されている。
 上記の結果を踏まえると、脳血流の増減により、課題へ取り組む姿勢、すなわち集中度を捉えることができる。具体的には、脳血流の増加により、課題への集中度が高いと推定することができ、脳血流の減少により、課題に対して眠気を覚え散漫であると推定することができる。
 本実施形態における生体計測システム100では、顔面血流によってユーザ1の情動が推定され、脳血流によってユーザ1の課題に対する取り組み度が評価される。
 前述したように、血流変化の増減によって推定される感情は、図5に示すラッセルの円環モデルにおける4つの象限と対応していない。そこで、本実施形態では、顔面血流の増減および脳血流の増減を2つの軸とした、ラッセルの円環モデルとは異なる分類によってユーザ1の感情が推定される。
 図6は、本実施形態における、感情・覚醒度マップを模式的に示す図である。「感情・覚醒度マップ」とは、顔面血流の増減および脳血流の増減によって分類された4つの感情グループを意味する。横軸が顔面血流の増減を表し、縦軸が脳血流の増減を表している。感情・覚醒度マップは、本開示における感情モデルの一例である。
 第1象限における興奮、怒り、または驚きを、第1の感情グループとする。興奮、怒り、および驚きは、activeな感情に相当する。第2象限における嫌悪、恐怖、悲しみ、または緊張(「passiveな感情」と称する。)を、第2の感情グループとする。嫌悪、恐怖、悲しみ、および緊張は、passiveな感情に相当する。第3象限におけるリラックスまたは散漫を、第3の感情グループとする。第4象限における退屈または眠気を、第4の感情グループとする。本明細書では、第1から第4象限における4つの感情グループの分類を、「感情・覚醒度マップ」と称する。
 次に、ユーザ1の感情を4つの感情グループのいずれかに分類する手順を説明する。
 図7は、ユーザ1の感情を4つの感情グループのいずれかに分類する処理の一例を示すフローチャートである。
 ステップS301において、制御回路60は、刺激装置10によってユーザ1に課題を提示する。ステップS302において、制御回路60は、課題の提示時に光源20にパルス光でユーザ1を照射させ、一定時間ごとに光検出器30に表面反射成分I1および内部散乱成分I2を計測させる。ステップS303において、制御回路60は、課題の提示を終了すると、パルス光の照射を中止し、計測を終了する。ステップS304において、制御回路60は、信号処理回路70に、各時間におけるI1およびI2から、各時間の頭皮血流量B1および脳血流量B2を算出させる。
 課題を提示中のように、ユーザ1に負荷を与える時間帯を「刺激時」と定義する。ユーザ1に刺激を提供せずに安静を促す時間帯を「レスト時」と定義する。レスト時における頭皮血流量および脳血流量をそれぞれB1Rest、B2Restとする。刺激時における頭皮血流および脳血流量をそれぞれB1stimuli、B2stimuliとする。レスト時から刺激時への頭皮血流および脳血流の変化量を、それぞれΔB1=B1stimuli-B1RestおよびΔB2=B2stimuli-B2Restとする。B1Rest、B2Rest、B1stimuli、およびB2stimuliは、いずれも各時間帯における血流量の代表値を表している。当該代表値のとり方は、計測対象または課題の種類によって任意に選択することができる。例えば、それぞれの全時間帯の平均値でもよいし、中央値、最大値、または最小値でもよい。制御回路60は、ΔB1の正負およびΔB2の正負によって、ユーザ1の感情を次の4つの感情グループのいずれかに分類する。言い換えれば、制御回路60は、ΔB1およびΔB2の組み合わせに基づき、1つの感情グループを決定する。
 ステップS306において、制御回路60は、ΔB2が正であるかを判断する。ΔB2が正であれば、ステップS307において、制御回路は、ΔB1が正であるかを判断する。ΔB1が正であれば、ステップS308において、制御回路60は、ユーザ1の感情を第1の感情グループに分類する。ΔB1が正でなければ、ステップS309において、制御回路60は、ユーザ1の感情を第2の感情グループに分類する。
 ステップS306において、ΔB2が正でなければ、ステップS310において、制御回路60は、ΔB1が正であるかを判断する。ΔB1が正であれば、ステップS311において、制御回路60は、ユーザ1の感情を第4の感情グループに分類する。ΔB1が正でなければ、ステップS312において、制御回路60は、ユーザ1の感情を第3の感情グループに分類する。
 ステップS313において、制御回路60は、出力装置40によって分類の結果を表示する。
 上記の例では、制御回路60は、ΔB1の正負およびΔB2の正負によってユーザ1の感情を分類しているが、これに限定されない。例えば、以下のように分類してもよい。
 ΔB1>C11かつΔB2>C12の場合、制御回路60は、ユーザ1の感情を第1の感情グループに分類する。ここで、C11およびC12は、0よりも大きい値である。
 ΔB1<C21かつΔB2>C22の場合、制御回路60は、ユーザ1の感情を第2の感情グループに分類する。ここで、C21は0よりも小さい値であり、C22は0よりも大きい値である。
 ΔB1<C31かつΔB2<C32の場合、制御回路60は、ユーザ1の感情を第3の感情グループに分類する。ここで、C31およびC32は、0よりも小さい値である。
 ΔB1>C41かつΔB2<C42の場合、制御回路60は、ユーザ1の感情を第4の感情グループに分類する。ここで、C41は0よりも大きい値であり、C42は0よりも小さい値である。
 上記の4つの分類のいずれにも属さないときは、ΔB1の変化量の絶対値、および/または、ΔB2の変化量の絶対値が小さいと判断して再計測してもよい。
 [5.感情の主観的な評価]
 次に、ユーザ1の主観的な評価によって課題の実行時におけるユーザ1の感情を推定する方法を説明する。
 図8は、課題の実行時におけるユーザ1の感情を推定する処理の一例を示すフローチャートである。
 ステップS401において、制御回路60は、刺激装置10にユーザ1に課題を提示させ、光検出器30に表面反射成分I1および内部散乱成分I2を計測させる。制御回路60は、さらに、信号処理回路70に頭皮血流量B1および脳血流量B2を算出させる。ステップS401における処理は、図7に示すステップS301からS305における処理と同じである。
 ステップS402において、制御回路60は、図6に示す感情・覚醒度マップに基づいてユーザ1の感情を分類する。ステップS402における処理は、図7に示すステップS306からS312における処理と同じである。
 ステップS403において、制御回路60は、分類の結果を表示する。ステップS403における処理は、図7に示すステップS313における処理と同じである。
 ユーザ1の感情がいずれかの感情グループに分類された場合、制御回路60は、出力装置40を用いて、ユーザ1に主観的な評価を問い合わせる。主観的な評価とは、例えば、決定した感情グループに分類される少なくとも1つの感情が、ユーザ1の実際の感情に該当するかについての評価である。制御回路60は、上記の問い合わせを行うための画像および/または音声を出力装置40に出力させる。
 ステップS403においてユーザ1の感情が第1の感情グループに分類された場合、ステップS404に進む。ステップS404において、制御回路60は、出力装置40に、主観的な評価をユーザ1に実行させるための質問を表示させる。質問の内容は、例えば、「課題の実行時におけるあなたの感情はpositiveでしたか?negativeでしたか?」のような正の感情か負の感情かを問う程度でよい。ユーザ1がpositiveすなわち正の感情と答えた場合、ステップS405に進む。ステップS405において、制御回路60は、課題の実行時におけるユーザ1の感情が「興奮・驚き」であったことを示す画像を出力装置40に表示させる。ユーザ1がnegativeすなわち負の感情と答えた場合、ステップS406に進む。ステップS406において、制御回路60は、課題の実行時におけるユーザ1の感情が「怒り」であったことを示す画像を出力装置40に表示させる。正の感情か負の感情かを問う代わりに、ステップS404において、制御回路60は、出力装置40に「興奮」、「驚き」、および「怒り」のいずれかを選択させるための選択肢を表示させてもよい。
 ステップS403においてユーザ1の感情が第2の感情グループに分類された場合、ステップS407に進む。ステップS407において、制御回路60は、出力装置40に「嫌悪」、「緊張」、「恐怖」、および「悲しみ」の選択肢を表示させる。ユーザ1は、主観的な評価を行い、いずれかの感情を選択する。ユーザ1は、選択した感情を、入力装置50を用いて入力する。ステップS408において、制御回路60は、出力装置40にユーザ1が選択した感情を表示させる。
 ステップS403においてユーザ1の感情が第3または第4の感情グループに分類された場合、ステップS409に進む。この場合、課題の実行時において、ユーザ1は、リラックス、散漫、退屈、または眠気の状態にあったと推定することができる。よって、ステップS409において、制御回路60は、出力装置40に課題への集中を促すメッセージを表示させる。続いて、ステップS410において、制御回路60は、出力装置40に、再計測するか否かをユーザに問い合わせる画像を表示する。再計測する場合、制御回路60は、再びステップS401を実行する。
 以上の処理により、顔面血流および脳血流の2つの情報から、ユーザ1の課題への取り組み姿勢と、その時のユーザ1の感情を精度良く推定することが可能になる。
 制御回路60は、ユーザ1の主観的な評価の結果に基づき、刺激12とユーザ1の感情とを関連付けてもよい。例えば、ユーザ1が入力装置50を用いて上記の主観的な評価を行ったとき、制御回路60は、刺激12と上記の少なくとも1つの感情との関連を示すデータをメモリに記録してもよい。例えば、ユーザ1の主観的な評価を示す識別子を、刺激12を示すデータに付してもよい。刺激12が映像または音声のコンテンツである場合、コンテンツのデータに、ユーザ1の主観的な評価の結果を示す情報を付加して記録してもよい。
 [6.コンテンツを提供するシステム]
 前述の生体計測システム100は、例えば映像または音声のコンテンツを、インターネットなどのネットワークを介して提供するシステムにおいて用いられ得る。そのようなシステムは、例えば、事業者が運営するサーバコンピュータと、ユーザが保有するパーソナルコンピュータ、スマートフォン、またはタブレットなどの各種のコンピュータとを含み得る。例えば世界中に多数のユーザが存在し得る。それらのユーザの各々が、前述の感情を推定する生体計測システム100を利用する。各ユーザは、例えばスマートフォンなどのコンピュータを用いて、サーバコンピュータにコンテンツの配信を要求する。サーバコンピュータは、要求されたコンテンツをそのユーザに配信する。サーバコンピュータは、コンテンツを配信するとき、上記の生体計測システム100に、そのコンテンツを視聴中のユーザの血流情報を取得させ、感情を推定させる。サーバコンピュータは、推定された感情に関するデータをコンテンツごとに収集し、そのコンテンツと感情との関連を示すデータを蓄積する。このようにして、サーバコンピュータは、個々のコンテンツと、そのコンテンツがユーザに引き起こす感情とを関連付けて記録することができる。
 図9は、このようなシステムの構成例を模式的に示す図である。このシステムは、複数の生体計測システム100と、サーバコンピュータ200とを含む。サーバコンピュータ200は、複数の生体計測システム100にネットワークを介して接続されている。図9では、3つの生体計測システム100が例示されているが、さらに多数の生体計測システム100がサーバコンピュータ200に接続され得る。
 各生体計測システム100は、図1Aに示す構成要素に加え、通信回路80を備える。図9では、各生体計測システム100の構成要素のうち、刺激装置10、制御回路60、および通信回路80のみが例示されている。
 複数の生体計測システム100の各々における制御回路60は、通信回路80を介して、刺激とユーザの感情との関連を示すデータをサーバコンピュータ200に送信する。例えば、ユーザが視聴したコンテンツと、視聴中のユーザの感情とを関連付けたデータを送信する。
 サーバコンピュータ200は、複数のユーザについての当該関連を示すデータを収集し、メモリ210に記録する。サーバコンピュータ200は、例えば、ユーザIDと、コンテンツIDと、感情IDとを関連付けてデータベースに記録する。サーバコンピュータ200は、多くのユーザから収集した当該データに基づいて、ユーザに特定の感情を引き起こさせる刺激(この例ではコンテンツ)を決定することができる。例えば、サーバコンピュータ200は、各コンテンツについて、そのコンテンツを過去に視聴したユーザが感じた感情を集計する。サーバコンピュータ200は、各コンテンツのデータに、最も多くのユーザが感じた感情を示す識別子を付加して記録する。コンテンツと感情との関連付けは、新たな情報の蓄積に伴い、更新され得る。
 ユーザが、あるコンテンツの視聴を要求したとき、サーバコンピュータ200は、そのコンテンツのデータを生体計測システム100に送信する。このとき、サーバコンピュータ200は、そのコンテンツに関連付けられた感情に類似する感情を引き起こす他の1つ以上のコンテンツを複数のコンテンツの中から選択して制御回路60にその情報を通知する。
 制御回路60は、サーバコンピュータ200からの指示に従い、選択された1つ以上のコンテンツを刺激装置10に提供させる。例えば、興奮または驚きの感情を引き起こすようなコンテンツがユーザに提供され得る。
 [7.他の実施形態]
 図9に示す例では、刺激は、映画、ゲーム、または音楽などの娯楽に関するコンテンツであり得る。刺激は、他の刺激であってもよい。例えば、光、振動、熱、匂い、その他の、人間の五感の少なくとも一部を刺激する装置の制御に、本開示の技術が適用されてもよい。照明装置を制御するシステムに本開示の技術を適用してもよい。ある実施形態において、照明装置は、照度または色温度を調整する機能を有する。当該システムの制御回路は、照度または色温度の設定が変更される度に、ユーザの感情を推定し、照度および色温度と感情との関連を示すデータを蓄積する。蓄積されたデータに基づいて、そのユーザが最も快適に感じる照度および色温度を決定し、自動でその照度および色温度に設定してもよい。
 図10は、生体計測システム100により、被検者500である車両のドライバの心理状態を検出する様子を示す図である。生体計測システム100は、表面反射成分I1をもとにドライバの表面血流状態を計測し、内部散乱成分I2をもとにドライバの脳血流の変化を計測する。取得した表面血流データ、および脳血流データをもとに、ドライバが運転できる状態か、ドライビングアシストが必要な状態か等を判定する。脳血流計測においては、平常運転時のドライバの脳血流量または脳血流分布のデータベース、あるいは日々蓄積したドライバの脳血流量または脳血流分布のデータベースと、計測データとを比較し、ドライバの脳活動状態を判定する。表面血流計測からはドライバの緊張、不安などの情動的な心理状態を判定する。脳血流計測データおよび表面血流計測データから、ドライバに運転させると危険と判断した場合は、その旨を音声で出力したり、またはその旨をディスプレイに表示したり、リラックスさせるためのアナウンスまたは音楽を流したり、車両に搭載されたドライビングアシスト機能の効力を高めたりする。運転中の場合には、車両を路肩に停止させる処置をしてもよい。
 図11は、家庭内あるいはオフィス内に生体計測システム100を設置することで、家庭あるいはオフィスでのメンタルヘルスチェックに用いる例を示している。生体計測システム100は非接触で生体情報および脳活動情報を取得できるため、例えば洗面台の鏡の裏に設置し得る。鏡は可視光を反射し、近赤外光(例えば、700nm以上の波長の光)を透過するように干渉膜コーティングがなされている。可視光を反射させる干渉膜をコーティングすることで、鏡として、被検者500であるユーザの姿を反射させるが、鏡の裏に設置されたカメラはユーザには見えない。一方、鏡が近赤外光を透過することで、測定光を鏡越しにユーザに向けて照射することが可能となる。したがって、カメラの存在をユーザに意識させないため、ユーザが自然な精神状態の下で、生体情報の測定および脳血流の測定を実施できる。また、ユーザの正面からの測定が可能となり、前頭部を効率的に計測できる。さらに、洗顔時では、ヘアバンド等で前髪を留めることが多いため、遮蔽物となる前髪を上げる指示をする必要が無く、ユーザの手を煩わさなくて済む。また、洗面台ではユーザは鏡の前に立つため、一定距離かつ近距離で測定が可能となり、測定の安定性が高くなる環境となる。
 生体計測システム100の近傍には焦電センサ等の人感センサを設置しておいても良い。人感センサで人を検知すると、生体計測システム100に信号を送信し、生体計測システム100による人の計測が開始する。人感センサと連携することで、人がいないときは生体計測システム100中の光源及び電気回路の駆動を停止させることができるため、消費電力を低減することができる。
 生体計測システム100により計測した表面血流変化から、ユーザの緊張状態および不安状態等の情動的情報を取得できる。また、パルス光の後端部を検出することで同時に取得された脳血流情報により、集中状態、頭の冴え具合、あるいは気分の落ち込み等のメンタル的な体調データを検出することが可能である。パルス光の後端で取得した信号には、脳血流情報のほかに一部表面血流情報も重畳されているため、表面反射成分I1を別途検出しておくことにより、ユーザの緊張状態および不安状態などノイズとなる成分を排除することができ、より正確なメンタルヘルスチェックが可能となる。
 ユーザが鏡の前に立つ度に生体計測システム100による計測を行い、取得したデータを蓄積してもよい。蓄積された日々のデータを比較して得られる相対的な変化情報から、ユーザの日常的な平常状態に対する、ある日のメンタル状態の異変を検出し得る。また、日常的な時系列のデータの測定を積み重ね、これら時系列データに時間的な移動平均処理を施すことで、一時的でイレギュラーなメンタル変化を表す高周波成分を除去し、数年単位の長期的な精神状態の変化を表す低周波成分のモニタリングができる。
 システムが体調の変化を検出した場合は、洗面台に設置されたディスプレイ、あるいは反射ミラー上に設けられたディスプレイに、推定したユーザのメンタルヘルス状態を表示する。また、日々の測定結果をグラフとして出力することで、健康の改善具合を可視化し、ユーザのヘルスケアに対する改善取り組みのモチベーションを高めることが可能となる。別のデータ表示方法として、測定データをWi-Fi(登録商標)、Wi-Fi Direct(登録商標)、BLUETOOTH(登録商標)、あるいはクラウド経由等でユーザのスマートフォンあるいはタブレット端末に送信し、スマートフォンあるいはタブレット端末上に表示させても良い。また、生体計測システム100は、家庭またはオフィス内での設置のほかに、病院、学校、健康管理室等に設置しても良い。
 次に、刺激装置10、出力装置40、および入力装置50の具体例を説明する。
 図12は、ヘッドマウント装置300を模式的に示す図である。ヘッドマウント装置300は、ディスプレイ150を備える。この例におけるディスプレイ150は、刺激装置かつ出力装置として機能する。ディスプレイ150は、コンテンツの映像またはタスクなどの画像を表示する。ディスプレイ150はまた、ユーザの感情の推定結果を示す画像を表示する。例えば、図7に示すステップS313において決定された感情グループの分類の結果が表示され得る。このように、ヘッドマウント装置300は、刺激装置および出力装置の両方の機能を有する。この例では、入力装置は、ヘッドマウント装置300が備える操作用のボタン、タッチスクリーン、または音声入力装置であり得る。表面反射成分I1をもとにユーザの表面血流状態を計測し、内部散乱成分I2をもとにユーザの脳血流の変化を計測する。表面血流状態から緊張、不安、快楽、興奮等、ユーザの情動情報を検出し得る。また、脳血流情報から認知、作業記憶、集中状態等、ユーザの理性情報を検出し得る。これらユーザの情動情報、理性情報を組み合わせることで、より複雑なユーザの心理状態を推定することが可能となる。判定の結果、ユーザの心理状態に応じて、コンテンツの映像、音声、ストーリ等を適宜変更しても良い。
 図13は、スマートフォン400を模式的に示す図である。スマートフォン400は、ディスプレイ150を備える。ディスプレイ150は、刺激装置10として、映像を提示する。スマートフォン400に内蔵されているスピーカは、刺激として音声を提供する。ディスプレイ150は、出力装置40としても機能する。例えば、ディスプレイ150は、図7に示すステップS313において感情グループの分類の結果を表示する。ディスプレイ150は、タッチスクリーンを備え、入力装置50としても機能する。したがって、スマートフォン400は、刺激装置10、出力装置40、および入力装置50の機能を有する。
 本開示は、制御回路60が実行する動作の方法、および制御回路60が実行する動作を規定するコンピュータプログラムも含む。そのようなコンピュータプログラムは、記録媒体に格納され、制御回路60に前述の動作を実行させる。
 本開示は、以下に記載のシステム、コンピュータプログラム、記録媒体、および方法を含む。
 本開示の一態様に係るシステムは、ユーザの頭部に照射されるパルス光を出射する光源と、前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、前記光源、および前記光検出器を制御し、前記光検出器から出力された前記1つ以上の信号を処理する電気回路と、前記1つ以上の信号と複数の感情との関係を示す感情モデルを記憶する第1のメモリと、を備える。前記電気回路は、前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択する。前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含む。前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、前記第2の部分は、前記立ち下り期間の少なくとも一部を含む。
 このシステムでは、ユーザの頭部がパルス光で照射され、その反射パルス光が検出される。検出された光の強度に応じた1つ以上の信号の変化に基づいて、予め定義された複数の感情を含む感情モデルから、少なくとも1つの感情が選択される。これにより、ユーザの感情をより正確に推定することができる。また、このシステムでは、1つ以上の信号は、第1および第2の信号を含む。第1の信号は、ユーザの顔面血流の情報を含む。第2の信号は、ユーザの脳血流の情報を含む。
 本開示の一態様に係るシステムは、前記ユーザに少なくとも1つの刺激を提供する刺激装置をさらに備え、前記電気回路は、前記刺激装置に前記少なくとも1つの刺激を提供させ、前記少なくとも1つの感情は、前記少なくとも1つの刺激に応答して生じた前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、選択されてもよい。
 このシステムでは、ユーザに刺激が提供されているときに、ユーザの頭部がパルス光で照射され、その反射パルス光が検出される。検出された光の強度に応じた1つ以上の信号の変化に基づいて、予め定義された複数の感情を含む感情モデルから、少なくとも1つの感情が決定される。これにより、ユーザの感情をより正確に推定することができる。
 本開示の一態様に係るシステムにおいて、前記感情モデルは、複数の感情グループを含み、前記感情モデルにおいて、前記複数の感情の各々は、前記複数の感情グループのいずれかに分類されており、前記電気回路は、前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第1の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第1の信号との差を示す第1の値、および前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第2の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第2の信号との差を示す第2の値の組み合わせに基づき、前記感情モデルを参照することにより、前記複数の感情グループの中から少なくとも1つの感情グループを選択してもよい。
 このシステムでは、レスト時と刺激時とにおけるユーザの顔面血流の変化量を示す第1の値と、レスト時と刺激時とにおけるユーザの脳血流の変化量を示す第2の値との組み合わせに基づいて、感情モデルから少なくとも1つの感情グループを決定することができる。
 本開示の一態様に係るシステムにおいて、前記感情モデルは、第1から第4の感情グループを含み、前記感情モデルにおいて、前記複数の感情の各々は、前記第1から第4の感情グループのいずれかに分類されており、前記電気回路は、前記第1の値が第1の閾値よりも大きく、前記第2の値が第2の閾値よりも大きいとき、前記第1の感情グループを選択し、前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも大きいとき、前記第2の感情グループを選択し、前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値以下であるとき、前記第3の感情グループを選択し、前記第1の値が前記第1の閾値よりも大きく、前記第2の値が前記第2の閾値以下であるとき、前記第4の感情グループを選択してもよい。
 このシステムでは、感情モデルは、第1から第4の感情グループを含む。第1の値と第1の閾値との大小関係、および第2の値と第2の閾値との大小関係から、ユーザの感情が、第1から第4の感情グループのいずれかに分類される。
 本開示の一態様に係るシステムにおいて、前記電気回路は、前記少なくとも1つの感情が前記ユーザの実際の感情に該当するかを前記ユーザに問い合わせる画像および音声からなる群から選択される少なくとも一方を、出力装置に出力させ、前記出力装置は、ディスプレイおよびスピーカからなる群から選択される少なくとも一方を含んでいてもよい。
 このシステムでは、選択された少なくとも1つの感情がユーザの実際の感情に該当するかを、出力装置によってユーザに問い合わせることができる。
 本開示の一態様に係るシステムは、前記ユーザの入力を受け付ける入力装置をさらに備え、前記電気回路は、前記ユーザが前記入力装置を用いて、前記少なくとも1つの感情が前記ユーザの実際の感情に該当する旨の入力を行ったとき、前記少なくとも1つの刺激と前記少なくとも1つの感情との関連を示すデータを第2のメモリに記録してもよい。
 このシステムでは、ユーザは、入力装置を用いて少なくとも1つの感情がユーザの実際の感情に該当する旨の応答を行う。これにより、刺激と少なくとも1つの感情との関連を示すデータを第2のメモリに記録することができる。
 本開示の一態様に係るシステムにおいて、前記刺激装置は、複数の刺激の中から選択された前記少なくとも1つの刺激を前記ユーザに提供することができるように構成され、前記電気回路は、前記第2のメモリを含むサーバコンピュータに、ネットワークを介して接続されており、前記サーバコンピュータは前記データに基づいて前記少なくとも1つの刺激を選択するように前記電気回路に通知し、前記電気回路は、前記サーバコンピュータからの通知に基づき、前記刺激装置に、前記複数の刺激の中から選択された前記少なくとも1つの刺激を前記ユーザに対して提供させてもよい。
 このシステムでは、外部のサーバコンピュータは、複数のユーザについて記録された刺激と少なくとも1つの感情との関連を示すデータを収集する。外部のサーバコンピュータは、収集したデータに基づいて、ネットワークを介してシステムに指示を送る。当該指示に基づいて、個々のユーザに刺激が提供される。これにより、個々のユーザに特定の感情を引き起こさせることができる。
 本開示の一態様に係るシステムにおいて、前記少なくとも1つの刺激は、映像および音声からなる群から選択される少なくとも1つを含んでいてもよい。
 また、本開示の一態様に係るプログラムは、ユーザの頭部に照射されるパルス光を出射する光源と、前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、を備えたシステムにおいて用いられる、コンピュータで実行されるプログラムであって、前記光源に前記パルス光を出射させることと、前記光検出器に、前記反射パルス光を検出させて、前記1つ以上の信号を出力させることと、前記1つ以上の信号の変化に基づき、前記1つ以上の信号と複数の感情との関係を示す感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択することと、を含む。前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含む。前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、前記第2の部分は、前記立ち下り期間の少なくとも一部を含む。
 本開示の一態様に係るプログラムにおいて、前記システムは、前記ユーザに少なくとも1つの刺激を提供する刺激装置をさらに備えてもよい。本開示の一態様に係るプログラムは、前記刺激装置に前記少なくとも1つの刺激を提供させることをさらに含み、前記選択することにおいて、前記少なくとも1つの感情は、前記少なくとも1つの刺激に応答して生じた前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、選択されてもよい。
 本開示の一態様に係るプログラムにおいて、前記感情モデルは、複数の感情グループを含み、前記感情モデルにおいて、前記複数の感情の各々は、前記複数の感情グループのいずれかに分類されてもよい。本開示の一態様に係るプログラムは、前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第1の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第1の信号との差を示す第1の値、および前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第2の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第2の信号との差を示す第2の値の組み合わせに基づき、前記感情モデルを参照することにより、前記複数の感情グループの中から少なくとも1つの感情グループを選択することをさらに含んでいてもよい。
 本開示の一態様に係るプログラムにおいて、前記感情モデルは、第1から第4の感情グループを含み、前記感情モデルにおいて、前記複数の感情の各々は、前記第1から第4の感情グループのいずれかに分類されていてもよい。本開示の一態様に係るプログラムは、前記第1の値が第1の閾値よりも大きく、前記第2の値が第2の閾値よりも大きいとき、前記第1の感情グループを選択することと、前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも大きいとき、前記第2の感情グループを選択することと、前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも小さいとき、前記第3の感情グループを選択することと、前記第1の値が前記第1の閾値よりも大きく、前記第2の値が前記第2の閾値以下であるとき、前記第4の感情グループを選択することと、をさらに含んでいてもよい。
 本開示の一態様に係るプログラムは、前記少なくとも1つの感情が前記ユーザの実際の感情に該当するかを前記ユーザに問い合わせる画像および音声からなる群から選択される少なくとも一方を、出力装置に出力させることをさらに含み、前記出力装置は、ディスプレイおよびスピーカからなる群から選択される少なくとも一方を含んでいてもよい。
 本開示の一態様に係るプログラムにおいて、前記システムは、前記ユーザの入力を受け付ける入力装置をさらに備えていてもよい。本開示の一態様に係るプログラムは、前記ユーザが前記入力装置を用いて、前記少なくとも1つの感情が前記ユーザの実際の感情に該当する旨の入力を行った場合、前記少なくとも1つの刺激と前記少なくとも1つの感情との関連を示すデータをメモリに記録することをさらに含んでいてもよい。
 また、本開示の一態様に係るコンピュータ読み取り可能な記録媒体は、ユーザの頭部に照射されるパルス光を出射する光源と、前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、を備えたシステムにおいて用いられるプログラムを格納したコンピュータ読み取り可能な記録媒体であって、前記プログラムが前記コンピュータによって実行されるときに、前記光源に前記パルス光を出射させることと、前記光検出器に、前記反射パルス光を検出させて、前記1つ以上の信号を出力させることと、前記1つ以上の信号の変化に基づき、前記1つ以上の信号と複数の感情との関係を示す感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択することと、が実行される。前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含む。前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、前記第2の部分は、前記立ち下り期間の少なくとも一部を含む。
 本開示の一態様に係るコンピュータ読み取り可能な記録媒体において、前記システムは、前記ユーザに少なくとも1つの刺激を提供する刺激装置をさらに備えていてもよい。本開示の一態様に係るコンピュータ読み取り可能な記録媒体は、前記プログラムが前記コンピュータによって実行されるときに、前記刺激装置に前記少なくとも1つの刺激を提供させることがさらに実行され、前記選択することにおいて、前記少なくとも1つの感情は、前記少なくとも1つの刺激に応答して生じた前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、選択されてもよい。
 本開示の一態様に係るコンピュータ読み取り可能な記録媒体において、前記感情モデルは、複数の感情グループを含み、前記感情モデルにおいて、前記複数の感情の各々は、前記複数の感情グループのいずれかに分類されていてもよい。本開示の一態様に係るコンピュータ読み取り可能な記録媒体は、前記プログラムが前記コンピュータによって実行されるときに、前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第1の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第1の信号との差を示す第1の値、および前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第2の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第2の信号との差を示す第2の値の組み合わせに基づき、前記感情モデルを参照することにより、前記複数の感情グループの中から少なくとも1つの感情グループを選択することがさらに実行されてもよい。
 本開示の一態様に係るコンピュータ読み取り可能な記録媒体において、前記感情モデルは、第1から第4の感情グループを含み、前記感情モデルにおいて、前記複数の感情の各々は、前記第1から第4の感情グループのいずれかに分類されていてもよい。本開示の一態様に係るコンピュータ読み取り可能な記録媒体は、前記プログラムが前記コンピュータによって実行されるときに、前記第1の値が第1の閾値よりも大きく、前記第2の値が第2の閾値よりも大きいとき、前記第1の感情グループを選択することと、前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも大きいとき、前記第2の感情グループを選択することと、前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも小さいとき、前記第3の感情グループを選択することと、前記第1の値が前記第1の閾値よりも大きく、前記第2の値が前記第2の閾値以下であるとき、前記第4の感情グループを選択することと、がさらに実行されてもよい。
 本開示の一態様に係るコンピュータ読み取り可能な記録媒体は、前記プログラムが前記コンピュータによって実行されるときに、前記少なくとも1つの感情が前記ユーザの実際の感情に該当するかを前記ユーザに問い合わせる画像および音声からなる群から選択される少なくとも一方を、出力装置に出力させることがさらに実行され、前記出力装置は、ディスプレイおよびスピーカからなる群から選択される少なくとも一方を含んでいてもよい。
 本開示の一態様に係るコンピュータ読み取り可能な記録媒体において、前記システムは、前記ユーザの入力を受け付ける入力装置をさらに備えていてもよい。本開示の一態様に係るコンピュータ読み取り可能な記録媒体は、前記プログラムが前記コンピュータによって実行されるときに、前記ユーザが前記入力装置を用いて、前記少なくとも1つの感情が前記ユーザの実際の感情に該当する旨の入力を行った場合、前記少なくとも1つの刺激と前記少なくとも1つの感情との関連を示すデータをメモリに記録することがさらに実行されてもよい。
 また、本開示の一態様に係る方法は、ユーザの頭部に照射されるパルス光を出射する光源と、前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、を備えたシステムにおいて用いられる方法であって、前記光源に前記パルス光を出射させることと、前記光検出器に、前記反射パルス光を検出させて、前記1つ以上の信号を出力させることと、前記1つ以上の信号の変化に基づき、前記1つ以上の信号と複数の感情との関係を示す感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択することと、を含む。前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含む。前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、前記第2の部分は、前記立ち下り期間の少なくとも一部を含む。
 本開示の一態様に係る方法において、前記システムは、前記ユーザに少なくとも1つの刺激を提供する刺激装置をさらに備えてもよい。本開示の一態様に係る方法は、前記刺激装置に前記少なくとも1つの刺激を提供させることをさらに含み、前記選択することにおいて、前記少なくとも1つの感情は、前記少なくとも1つの刺激に応答して生じた前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、選択されてもよい。
 本開示の一態様に係る方法において、前記感情モデルは、複数の感情グループを含み、前記感情モデルにおいて、前記複数の感情の各々は、前記複数の感情グループのいずれかに分類されていてもよい。本開示の一態様に係る方法は、前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第1の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第1の信号との差を示す第1の値、および前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第2の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第2の信号との差を示す第2の値の組み合わせに基づき、前記感情モデルを参照することにより、前記複数の感情グループの中から少なくとも1つの感情グループを選択することをさらに含んでいてもよい。
 本開示の一態様に係る方法において、前記感情モデルは、第1から第4の感情グループを含み、前記感情モデルにおいて、前記複数の感情の各々は、前記第1から第4の感情グループのいずれかに分類されていてもよい。本開示の一態様に係る方法は、前記第1の値が第1の閾値よりも大きく、前記第2の値が第2の閾値よりも大きいとき、前記第1の感情グループを選択することと、前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも大きいとき、前記第2の感情グループを選択することと、前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも小さいとき、前記第3の感情グループを選択することと、前記第1の値が前記第1の閾値よりも大きく、前記第2の値が前記第2の閾値以下であるとき、前記第4の感情グループを選択することと、をさらに含んでいてもよい。
 本開示の一態様に係る方法は、前記少なくとも1つの感情が前記ユーザの実際の感情に該当するかを前記ユーザに問い合わせる画像および音声からなる群から選択される少なくとも一方を、出力装置に出力させることをさらに含み、前記出力装置は、ディスプレイおよびスピーカからなる群から選択される少なくとも一方を含んでいてもよい。
 本開示の一態様に係る方法において、前記システムは、前記ユーザの入力を受け付ける入力装置をさらに備えていてもよい。本開示の一態様に係る方法は、前記ユーザが前記入力装置を用いて、前記少なくとも1つの感情が前記ユーザの実際の感情に該当する旨の入力を行ったとき、前記少なくとも1つの刺激と前記少なくとも1つの感情との関連を示すデータをメモリに記録することをさらに含んでいてもよい。
 また、本開示の他の一態様に係るシステムは、ユーザの頭部に照射されるパルス光を出射する光源と、前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、前記光源、および前記光検出器を制御し、前記光検出器から出力された前記1つ以上の信号を処理する電気回路と、を備える。前記電気回路は、前記光源に前記パルス光を出射させ、前記光検出器に、前記反射パルス光のうち、前記ユーザの脳内で散乱された内部散乱成分を、脳活動信号として検出および出力させ、前記光検出器に、前記反射パルス光のうち、前記ユーザの皮膚の表面で反射された表面反射成分を、顔面血流信号として検出および出力させる。前記信号処理回路は、前記顔面血流信号と前記脳活動信号とに基づいて、前記ユーザの心理状態を示す信号を生成して出力する。
 本開示の他の一態様に係るシステムにおいて、前記電気回路は、前記光検出器に、前記反射パルス光の第1の部分を検出させることにより、前記表面反射成分を検出させ、前記反射パルス光の前記第1の部分と異なる第2の部分を検出させることにより、前記内部散乱成分を検出させ、前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、前記第2の部分は、前記立ち下り期間の少なくとも一部を含んでいてもよい。
 本開示におけるシステム、記録媒体、および方法は、例えば、非接触でユーザの内部情報を取得するカメラまたは測定機器に有用である。
 1   ユーザ
 I1  表面反射成分
 I2  内部散乱成分
 10  刺激装置
 20  光源
 30  光検出器
 32  光電変換素子
 34  電荷蓄積部
 40  出力装置
 50  入力装置
 60  制御回路
 61  刺激制御部
 62  光源制御部
 63  センサ制御部
 64  出力制御部
 65  入力制御部
 70  信号処理回路
 100 生体計測システム
 200 サーバコンピュータ
 300 ヘッドマウント装置
 400 スマートフォン

Claims (22)

  1.  ユーザの頭部に照射されるパルス光を出射する光源と、
     前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、
     前記光源、および前記光検出器を制御し、前記光検出器から出力された前記1つ以上の信号を処理する電気回路と、
     前記1つ以上の信号と複数の感情との関係を示す感情モデルを記憶する第1のメモリと、
    を備え、
     前記電気回路は、前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択し、
     前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含み、
     前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、
     前記第2の部分は、前記立ち下り期間の少なくとも一部を含む、
     システム。
  2.  前記ユーザに少なくとも1つの刺激を提供する刺激装置をさらに備え、
     前記電気回路は、前記刺激装置に前記少なくとも1つの刺激を提供させ、
     前記少なくとも1つの感情は、前記少なくとも1つの刺激に応答して生じた前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、選択される、
     請求項1に記載のシステム。
  3.  前記感情モデルは、複数の感情グループを含み、
     前記感情モデルにおいて、前記複数の感情の各々は、前記複数の感情グループのいずれかに分類されており、
     前記電気回路は、前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第1の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第1の信号との差を示す第1の値、および前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第2の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第2の信号との差を示す第2の値の組み合わせに基づき、前記感情モデルを参照することにより、前記複数の感情グループの中から少なくとも1つの感情グループを選択する、
     請求項2に記載のシステム。
  4.  前記感情モデルは、第1から第4の感情グループを含み、
     前記感情モデルにおいて、前記複数の感情の各々は、前記第1から第4の感情グループのいずれかに分類されており、
     前記電気回路は、
      前記第1の値が第1の閾値よりも大きく、前記第2の値が第2の閾値よりも大きいとき、前記第1の感情グループを選択し、
      前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも大きいとき、前記第2の感情グループを選択し、
      前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値以下であるとき、前記第3の感情グループを選択し、
      前記第1の値が前記第1の閾値よりも大きく、前記第2の値が前記第2の閾値以下であるとき、前記第4の感情グループを選択する、
     請求項3に記載のシステム。
  5.  前記電気回路は、前記少なくとも1つの感情が前記ユーザの実際の感情に該当するかを前記ユーザに問い合わせる画像および音声からなる群から選択される少なくとも一方を、出力装置に出力させ、
     前記出力装置は、ディスプレイおよびスピーカからなる群から選択される少なくとも一方を含む、
     請求項2から4のいずれかに記載のシステム。
  6.  前記ユーザの入力を受け付ける入力装置をさらに備え、
     前記電気回路は、前記ユーザが前記入力装置を用いて、前記少なくとも1つの感情が前記ユーザの実際の感情に該当する旨の入力を行ったとき、前記少なくとも1つの刺激と前記少なくとも1つの感情との関連を示すデータを第2のメモリに記録する、
     請求項5に記載のシステム。
  7.  前記刺激装置は、複数の刺激の中から選択された前記少なくとも1つの刺激を前記ユーザに提供することができるように構成され、
     前記電気回路は、前記第2のメモリを含むサーバコンピュータに、ネットワークを介して接続されており、
     前記サーバコンピュータは前記データに基づいて前記少なくとも1つの刺激を選択するように前記電気回路に通知し、
     前記電気回路は、前記サーバコンピュータからの通知に基づき、前記刺激装置に、前記複数の刺激の中から選択された前記少なくとも1つの刺激を前記ユーザに対して提供させる、
     請求項6に記載のシステム。
  8.  前記少なくとも1つの刺激は、映像および音声からなる群から選択される少なくとも1つを含む、
     請求項2から7のいずれかに記載のシステム。
  9.  ユーザの頭部に照射されるパルス光を出射する光源と、
     前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、
    を備えたシステムにおいて用いられるプログラムを格納したコンピュータ読み取り可能な記録媒体であって、
     前記プログラムが前記コンピュータによって実行されるときに、
      前記光源に前記パルス光を出射させることと、
      前記光検出器に、前記反射パルス光を検出させて、前記1つ以上の信号を出力させることと、
      前記1つ以上の信号の変化に基づき、前記1つ以上の信号と複数の感情との関係を示す感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択することと、
     が実行され、
     前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含み、
     前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、
     前記第2の部分は、前記立ち下り期間の少なくとも一部を含む、
     コンピュータ読み取り可能な記録媒体。
  10.  前記システムは、前記ユーザに少なくとも1つの刺激を提供する刺激装置をさらに備え、
     前記プログラムが前記コンピュータによって実行されるときに、
      前記刺激装置に前記少なくとも1つの刺激を提供させることがさらに実行され、
     前記選択することにおいて、
     前記少なくとも1つの感情は、前記少なくとも1つの刺激に応答して生じた前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、選択される、
     請求項9に記載のコンピュータ読み取り可能な記録媒体。
  11.  前記感情モデルは、複数の感情グループを含み、
     前記感情モデルにおいて、前記複数の感情の各々は、前記複数の感情グループのいずれかに分類されており、
     前記プログラムが前記コンピュータによって実行されるときに、
      前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第1の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第1の信号との差を示す第1の値、および前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第2の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第2の信号との差を示す第2の値の組み合わせに基づき、前記感情モデルを参照することにより、前記複数の感情グループの中から少なくとも1つの感情グループを選択することがさらに実行される、
     請求項10に記載のコンピュータ読み取り可能な記録媒体。
  12.  前記感情モデルは、第1から第4の感情グループを含み、
     前記感情モデルにおいて、前記複数の感情の各々は、前記第1から第4の感情グループのいずれかに分類されており、
     前記プログラムが前記コンピュータによって実行されるときに、
      前記第1の値が第1の閾値よりも大きく、前記第2の値が第2の閾値よりも大きいとき、前記第1の感情グループを選択することと、
      前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも大きいとき、前記第2の感情グループを選択することと、
      前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも小さいとき、前記第3の感情グループを選択することと、
      前記第1の値が前記第1の閾値よりも大きく、前記第2の値が前記第2の閾値以下であるとき、前記第4の感情グループを選択することと、
    がさらに実行される、
     請求項10に記載のコンピュータ読み取り可能な記録媒体。
  13.  前記プログラムが前記コンピュータによって実行されるときに、
      前記少なくとも1つの感情が前記ユーザの実際の感情に該当するかを前記ユーザに問い合わせる画像および音声からなる群から選択される少なくとも一方を、出力装置に出力させることがさらに実行され、
     前記出力装置は、ディスプレイおよびスピーカからなる群から選択される少なくとも一方を含む、
     請求項10から12のいずれかに記載のコンピュータ読み取り可能な記録媒体。
  14.  前記システムは、前記ユーザの入力を受け付ける入力装置をさらに備え、
     前記プログラムが前記コンピュータによって実行されるときに、
      前記ユーザが前記入力装置を用いて、前記少なくとも1つの感情が前記ユーザの実際の感情に該当する旨の入力を行った場合、前記少なくとも1つの刺激と前記少なくとも1つの感情との関連を示すデータをメモリに記録することがさらに実行される、
     請求項13に記載のコンピュータ読み取り可能な記録媒体。
  15.  ユーザの頭部に照射されるパルス光を出射する光源と、
     前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、
    を備えたシステムにおいて用いられる方法であって、
      前記光源に前記パルス光を出射させることと、
      前記光検出器に、前記反射パルス光を検出させて、前記1つ以上の信号を出力させることと、
      前記1つ以上の信号の変化に基づき、前記1つ以上の信号と複数の感情との関係を示す感情モデルを参照することにより、前記複数の感情の中から少なくとも1つの感情を選択することと、
    を含み、
     前記1つ以上の信号は、前記反射パルス光の第1の部分の強度に応じた第1の信号と、前記反射パルス光の前記第1の部分と異なる第2の部分の強度に応じた第2の信号とを含み、
     前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、
     前記第2の部分は、前記立ち下り期間の少なくとも一部を含む、
     方法。
  16.  前記システムは、前記ユーザに少なくとも1つの刺激を提供する刺激装置をさらに備え、
     前記刺激装置に前記少なくとも1つの刺激を提供させることをさらに含み、
     前記選択することにおいて、
     前記少なくとも1つの感情は、前記少なくとも1つの刺激に応答して生じた前記1つ以上の信号の変化に基づき、前記感情モデルを参照することにより、選択される、
     請求項15に記載の方法。
  17.  前記感情モデルは、複数の感情グループを含み、
     前記感情モデルにおいて、前記複数の感情の各々は、前記複数の感情グループのいずれかに分類されており、
     前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第1の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第1の信号との差を示す第1の値、および前記ユーザに前記少なくとも1つの刺激が提供されているときの前記第2の信号と前記ユーザに前記少なくとも1つの刺激が提供されていないときの前記第2の信号との差を示す第2の値の組み合わせに基づき、前記感情モデルを参照することにより、前記複数の感情グループの中から少なくとも1つの感情グループを選択することをさらに含む、
    請求項16に記載の方法。
  18.  前記感情モデルは、第1から第4の感情グループを含み、
     前記感情モデルにおいて、前記複数の感情の各々は、前記第1から第4の感情グループのいずれかに分類されており、
     前記第1の値が第1の閾値よりも大きく、前記第2の値が第2の閾値よりも大きいとき、前記第1の感情グループを選択することと、
     前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも大きいとき、前記第2の感情グループを選択することと、
     前記第1の値が前記第1の閾値以下であり、前記第2の値が前記第2の閾値よりも小さいとき、前記第3の感情グループを選択することと、
     前記第1の値が前記第1の閾値よりも大きく、前記第2の値が前記第2の閾値以下であるとき、前記第4の感情グループを選択することと、
    をさらに含む、
     請求項16に記載の方法。
  19.  前記少なくとも1つの感情が前記ユーザの実際の感情に該当するかを前記ユーザに問い合わせる画像および音声からなる群から選択される少なくとも一方を、出力装置に出力させることをさらに含み、
     前記出力装置は、ディスプレイおよびスピーカからなる群から選択される少なくとも一方を含む、
     請求項16から18のいずれかに記載の方法。
  20.  前記システムは、前記ユーザの入力を受け付ける入力装置をさらに備え、
     前記ユーザが前記入力装置を用いて、前記少なくとも1つの感情が前記ユーザの実際の感情に該当する旨の入力を行ったとき、前記少なくとも1つの刺激と前記少なくとも1つの感情との関連を示すデータをメモリに記録することをさらに含む、
     請求項19に記載の方法。
  21.  ユーザの頭部に照射されるパルス光を出射する光源と、
     前記頭部から戻った反射パルス光の少なくとも一部を検出し、前記反射パルス光の前記少なくとも一部の強度に応じた1つ以上の信号を出力する光検出器と、
     前記光源、および前記光検出器を制御し、前記光検出器から出力された前記1つ以上の信号を処理する電気回路と、
    を備え、
     前記電気回路は、
      前記光源に前記パルス光を出射させ、
      前記光検出器に、前記反射パルス光のうち、前記ユーザの脳内で散乱された内部散乱成分を、脳活動信号として検出および出力させ、
      前記光検出器に、前記反射パルス光のうち、前記ユーザの皮膚の表面で反射された表面反射成分を、顔面血流信号として検出および出力させ、
     前記信号処理回路は、前記顔面血流信号と前記脳活動信号とに基づいて、前記ユーザの心理状態を示す信号を生成して出力する、
     システム。
  22.  前記電気回路は、前記光検出器に、
     前記反射パルス光の第1の部分を検出させることにより、前記表面反射成分を検出させ、
     前記反射パルス光の前記第1の部分と異なる第2の部分を検出させることにより、前記内部散乱成分を検出させ、
     前記第1の部分は、前記反射パルス光の強度が減少を開始してから終了するまでの期間である立ち下り期間の開始前の部分を含み、
     前記第2の部分は、前記立ち下り期間の少なくとも一部を含む、
     請求項21に記載のシステム。
PCT/JP2019/007430 2018-03-15 2019-02-27 ユーザの心理状態を推定するためのシステム、記録媒体、および方法 WO2019176535A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP19767745.3A EP3766425A4 (en) 2018-03-15 2019-02-27 SYSTEM, RECORDING MEDIA, AND METHOD FOR ESTIMATING THE PSYCHOLOGICAL STATE OF A USER
JP2020505744A JP7308430B2 (ja) 2018-03-15 2019-02-27 ユーザの心理状態を推定するためのシステム、記録媒体、および方法
CN201980009787.9A CN111655149A (zh) 2018-03-15 2019-02-27 用于推断用户的心理状态的系统、记录介质以及方法
US16/985,261 US11557148B2 (en) 2018-03-15 2020-08-05 System, computer-readable non-transitory recording medium, and method for estimating psychological state of user
US18/064,621 US11963772B2 (en) 2018-03-15 2022-12-12 System, computer-readable non-transitory recording medium, and method for estimating psychological state of user
JP2023101732A JP2023126820A (ja) 2018-03-15 2023-06-21 ユーザの心理状態を推定するためのシステム、および方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018047811 2018-03-15
JP2018-047811 2018-03-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/985,261 Continuation US11557148B2 (en) 2018-03-15 2020-08-05 System, computer-readable non-transitory recording medium, and method for estimating psychological state of user

Publications (1)

Publication Number Publication Date
WO2019176535A1 true WO2019176535A1 (ja) 2019-09-19

Family

ID=67906609

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/007430 WO2019176535A1 (ja) 2018-03-15 2019-02-27 ユーザの心理状態を推定するためのシステム、記録媒体、および方法

Country Status (5)

Country Link
US (2) US11557148B2 (ja)
EP (1) EP3766425A4 (ja)
JP (2) JP7308430B2 (ja)
CN (1) CN111655149A (ja)
WO (1) WO2019176535A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023105790A1 (ja) * 2021-12-10 2023-06-15 日本電気株式会社 ストレス推定方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111655149A (zh) * 2018-03-15 2020-09-11 松下知识产权经营株式会社 用于推断用户的心理状态的系统、记录介质以及方法
CN112190235B (zh) * 2020-12-08 2021-03-16 四川大学 一种基于不同情况下欺骗行为的fNIRS数据处理方法
EP4132224A1 (en) * 2021-08-04 2023-02-08 Koninklijke Philips N.V. Adjusting lighting conditions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004024879A (ja) * 2002-06-26 2004-01-29 Samsung Electronics Co Ltd 情緒誘導装置及び情緒誘導方法
JP2005056205A (ja) * 2003-08-05 2005-03-03 Sony Corp コンテンツ再生装置及びコンテンツ再生方法
JP2009042671A (ja) * 2007-08-10 2009-02-26 Kao Corp 感情を判定するための方法
WO2011065237A1 (ja) * 2009-11-27 2011-06-03 株式会社日立製作所 生体光計測装置
JP2017220926A (ja) * 2016-06-07 2017-12-14 パナソニックIpマネジメント株式会社 撮像装置

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3162070B2 (ja) 1990-11-22 2001-04-25 オリンパス光学工業株式会社 被検体内部情報観察装置
US5305759A (en) 1990-09-26 1994-04-26 Olympus Optical Co., Ltd. Examined body interior information observing apparatus by using photo-pulses controlling gains for depths
US5995857A (en) * 1996-07-01 1999-11-30 Toomim; I. Hershel Biofeedback of human central nervous system activity using radiation detection
JPH11164826A (ja) 1997-12-04 1999-06-22 Hitachi Ltd 生体光計測装置
US5994857A (en) * 1998-02-11 1999-11-30 Deere & Company Lawn and garden tractor interlock circuit
US7120482B2 (en) * 2002-11-18 2006-10-10 Honda Motor Co., Ltd. Optical measuring apparatus and method
US7388971B2 (en) * 2003-10-23 2008-06-17 Northrop Grumman Corporation Robust and low cost optical system for sensing stress, emotion and deception in human subjects
EP1871219A4 (en) * 2005-02-22 2011-06-01 Health Smart Ltd METHODS AND SYSTEMS FOR PSYCHOPHYSIOLOGICAL AND PHYSIOLOGICAL CONTROL AND USES THEREOF
JP2006136742A (ja) * 2006-01-16 2006-06-01 Sharp Corp 通信装置
JP4506795B2 (ja) * 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
US20090157751A1 (en) * 2007-12-13 2009-06-18 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying an avatar
JP5319960B2 (ja) * 2008-05-28 2013-10-16 株式会社日立製作所 生体光計測装置
US20090318773A1 (en) * 2008-06-24 2009-12-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Involuntary-response-dependent consequences
US20150099987A1 (en) * 2010-06-07 2015-04-09 Affectiva, Inc. Heart rate variability evaluation for mental state analysis
US20120130203A1 (en) 2010-11-24 2012-05-24 Fujitsu Limited Inductively-Powered Ring-Based Sensor
US9204831B2 (en) * 2011-12-21 2015-12-08 Mitsunori MINAMI Brain state support apparatus and program
US20140267281A1 (en) * 2013-03-13 2014-09-18 Ericom Software Ltd. Method for displaying a remote desktop on a portable touch screen device
JP6594620B2 (ja) * 2013-12-20 2019-10-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 光脳機能計測装置
US9734685B2 (en) * 2014-03-07 2017-08-15 State Farm Mutual Automobile Insurance Company Vehicle operator emotion management system and method
US9531708B2 (en) * 2014-05-30 2016-12-27 Rovi Guides, Inc. Systems and methods for using wearable technology for biometric-based recommendations
JP2016008818A (ja) * 2014-06-20 2016-01-18 ソニー株式会社 検出装置および方法、並びにプログラム
CN112969030B (zh) * 2015-06-17 2023-04-28 松下知识产权经营株式会社 摄像装置
US10285634B2 (en) * 2015-07-08 2019-05-14 Samsung Electronics Company, Ltd. Emotion evaluation
JP2017068810A (ja) * 2015-10-04 2017-04-06 国立大学法人金沢大学 静脈可視化システム、静脈可視化方法、及び、静脈可視化プログラム
JP6985005B2 (ja) * 2015-10-14 2021-12-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
CN108135498B (zh) * 2015-10-15 2020-12-18 大金工业株式会社 有用信息呈现装置
US20170112381A1 (en) * 2015-10-23 2017-04-27 Xerox Corporation Heart rate sensing using camera-based handheld device
JP6703893B2 (ja) * 2015-12-01 2020-06-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 体調推定装置、及び、体調推定システム
EP3175786A1 (en) 2015-12-01 2017-06-07 Panasonic Intellectual Property Corporation of America Estimation of physical conditions
JP6763719B2 (ja) * 2015-12-07 2020-09-30 パナソニック株式会社 生体情報測定装置、生体情報測定方法及びプログラム
JP6928906B2 (ja) 2016-01-07 2021-09-01 パナソニックIpマネジメント株式会社 生体情報計測装置
CN107088071B (zh) * 2016-02-17 2021-10-15 松下知识产权经营株式会社 生物体信息检测装置
WO2017150576A1 (ja) * 2016-02-29 2017-09-08 ダイキン工業株式会社 判定結果出力装置、判定結果提供装置、及び判定結果出力システム
JP6579014B2 (ja) * 2016-03-29 2019-09-25 株式会社デンソー 自動ブレーキ制御装置及びコンピュータプログラム
JP6465077B2 (ja) 2016-05-31 2019-02-06 トヨタ自動車株式会社 音声対話装置および音声対話方法
GB2551201A (en) * 2016-06-10 2017-12-13 Polar Electro Oy Multi-sensor system for estimating blood pulse wave characteristics
CN114795151A (zh) * 2016-06-30 2022-07-29 松下知识产权经营株式会社 方法及系统
JP6622662B2 (ja) 2016-07-04 2019-12-18 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN108209867B (zh) 2016-12-15 2022-03-18 松下知识产权经营株式会社 摄像装置
JP6790856B2 (ja) * 2017-01-18 2020-11-25 株式会社デンソー 電子情報処理システム及びコンピュータプログラム
US10939833B2 (en) * 2017-05-01 2021-03-09 Samsung Electronics Company, Ltd. Determining artery location using camera-based sensing
JP7178614B2 (ja) * 2017-06-23 2022-11-28 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置、および情報処理システム
WO2018235466A1 (ja) * 2017-06-23 2018-12-27 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置、および情報処理システム
CN109247931A (zh) * 2017-07-12 2019-01-22 松下知识产权经营株式会社 计测装置
CN109247945A (zh) * 2017-07-12 2019-01-22 松下知识产权经营株式会社 计测装置
WO2019124023A1 (ja) * 2017-12-19 2019-06-27 パナソニックIpマネジメント株式会社 生体計測装置、生体計測方法、及び判定装置
JP7080657B2 (ja) * 2018-02-07 2022-06-06 株式会社デンソー 感情識別装置
CN111655149A (zh) * 2018-03-15 2020-09-11 松下知识产权经营株式会社 用于推断用户的心理状态的系统、记录介质以及方法
CN112188866A (zh) * 2018-08-30 2021-01-05 松下知识产权经营株式会社 生物体计测装置及生物体计测方法
JP7417867B2 (ja) * 2018-12-10 2024-01-19 パナソニックIpマネジメント株式会社 光計測装置
JP2020111202A (ja) * 2019-01-11 2020-07-27 株式会社リコー 表示制御装置、表示装置、表示システム、移動体、プログラム、画像生成方法
CN112446243A (zh) * 2019-08-29 2021-03-05 鸿富锦精密电子(郑州)有限公司 电子装置及基于情绪的内容推送方法
WO2021182018A1 (ja) * 2020-03-09 2021-09-16 パナソニックIpマネジメント株式会社 計測装置および計測装置を制御する方法
WO2021256165A1 (ja) * 2020-06-15 2021-12-23 パナソニックIpマネジメント株式会社 計測装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004024879A (ja) * 2002-06-26 2004-01-29 Samsung Electronics Co Ltd 情緒誘導装置及び情緒誘導方法
JP2005056205A (ja) * 2003-08-05 2005-03-03 Sony Corp コンテンツ再生装置及びコンテンツ再生方法
JP2009042671A (ja) * 2007-08-10 2009-02-26 Kao Corp 感情を判定するための方法
WO2011065237A1 (ja) * 2009-11-27 2011-06-03 株式会社日立製作所 生体光計測装置
JP2017220926A (ja) * 2016-06-07 2017-12-14 パナソニックIpマネジメント株式会社 撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023105790A1 (ja) * 2021-12-10 2023-06-15 日本電気株式会社 ストレス推定方法

Also Published As

Publication number Publication date
JP7308430B2 (ja) 2023-07-14
US11963772B2 (en) 2024-04-23
US11557148B2 (en) 2023-01-17
JPWO2019176535A1 (ja) 2021-03-11
CN111655149A (zh) 2020-09-11
US20200364445A1 (en) 2020-11-19
JP2023126820A (ja) 2023-09-12
US20230111721A1 (en) 2023-04-13
EP3766425A1 (en) 2021-01-20
EP3766425A4 (en) 2021-06-23

Similar Documents

Publication Publication Date Title
JP7386440B2 (ja) 生体計測装置、生体計測装置の作動方法、及び判定装置
WO2019176535A1 (ja) ユーザの心理状態を推定するためのシステム、記録媒体、および方法
JP7386438B2 (ja) 生体計測装置、生体計測方法、コンピュータ読み取り可能な記録媒体、およびプログラム
JP2020103879A (ja) 生体計測方法、地図データ生成方法、プログラム、コンピュータ読み取り可能な記録媒体、および生体計測装置
JP7065421B2 (ja) 撮像装置および対象物の内部の情報を取得する方法
Wilcox et al. Hemodynamic response to featural changes in the occipital and inferior temporal cortex in infants: a preliminary methodological exploration
JP2024016142A (ja) コンピュータにおける情報処理方法および生体計測システム
JP5663423B2 (ja) 生体計測システム
Weder et al. Cortical processing related to intensity of a modulated noise stimulus—a functional near-infrared study
Radel et al. The long and winding road: effects of exercise intensity and type upon sustained attention
Balconi et al. Does aesthetic judgment on face attractiveness affect neural correlates of empathy for pain? A fNIRS study
Swanson et al. Brief report: Broad autism phenotype in adults is associated with performance on an eye-tracking measure of joint attention
De Winkel et al. Neural correlates of decision making on whole body yaw rotation: an fNIRS study
Tsujii et al. Effects of sedative and non-sedative H 1 antagonists on cognitive tasks: Behavioral and near-infrared spectroscopy (NIRS) examinations
WO2020137352A1 (ja) 生体計測方法、地図データ生成方法、プログラム、コンピュータ読み取り可能な記録媒体、および生体計測装置
Glicksohn et al. Time production and EEG alpha revisited
WO2022202057A1 (ja) ユーザの感情状態を推定する方法および装置
WO2020137276A1 (ja) 撮像装置
WO2020121704A1 (ja) 光計測装置
Wass et al. Physiological stress, sustained attention and cognitive engagement in 12-month-old infants from urban environments.
WO2022138063A1 (ja) 生体計測装置、生体計測方法、及び、コンピュータプログラム
Volodymyr et al. Emotional burnout as a moderator of TV news impact on young adult audience: EEG study
Karami et al. Brain waves and landscape settings: emotional responses to attractiveness
Bonnstetter et al. Electroencephalography microstates in relation to emotional decision-making
Pisch A longitudinal study of infant sleep and its effects on cognitive development

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19767745

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2020505744

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2019767745

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2019767745

Country of ref document: EP

Effective date: 20201015