WO2021182018A1 - 計測装置および計測装置を制御する方法 - Google Patents

計測装置および計測装置を制御する方法 Download PDF

Info

Publication number
WO2021182018A1
WO2021182018A1 PCT/JP2021/005395 JP2021005395W WO2021182018A1 WO 2021182018 A1 WO2021182018 A1 WO 2021182018A1 JP 2021005395 W JP2021005395 W JP 2021005395W WO 2021182018 A1 WO2021182018 A1 WO 2021182018A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
light pulse
generated
light
period
Prior art date
Application number
PCT/JP2021/005395
Other languages
English (en)
French (fr)
Inventor
俊輔 今井
貴真 安藤
仁志 富永
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN202180013265.3A priority Critical patent/CN115052530A/zh
Priority to JP2022505859A priority patent/JPWO2021182018A1/ja
Publication of WO2021182018A1 publication Critical patent/WO2021182018A1/ja
Priority to US17/820,266 priority patent/US20220400964A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/04Arrangements of multiple sensors of the same type
    • A61B2562/046Arrangements of multiple sensors of the same type in a matrix array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Definitions

  • the present disclosure relates to a measuring device and a method of controlling the measuring device.
  • Patent Document 1 discloses an example of an imaging device that acquires information indicating a change over time in the cerebral blood flow of a subject without contacting the object.
  • the present disclosure provides a technique that enables acquisition of shallow and deep information in a measurement target with a higher time resolution than before.
  • the measuring device is a sensor including a light source that emits a first light pulse toward an object and a plurality of light detection cells including a first light detection cell and a second light detection cell. And an electronic circuit that controls the light source and the sensor and processes a signal output from the sensor.
  • the electronic circuit causes the light source to emit a first light pulse, and causes the first light detection cell to receive a first reflected light pulse from the object caused by the first light pulse.
  • the first exposure period which includes at least a part of the period from when the intensity starts to increase to when the intensity starts to decrease, the first signal is generated by detecting the first reflected light pulse, and the first signal is generated.
  • the first reflection In the second exposure period in which the light detection cell 2 includes at least a part of the falling period from the start of the decrease in the intensity of the first reflected light pulse to the end of the decrease, the first reflection.
  • a second signal is generated by detecting an optical pulse, and based on the first signal, first data indicating the state of the surface of the object is generated and output, and based on the second signal. , Generates and outputs second data indicating the internal state of the object.
  • the present disclosure may be implemented in recording media such as systems, devices, methods, integrated circuits, computer programs or computer readable recording disks, systems, devices, methods, integrated circuits, etc. It may be realized by any combination of a computer program and a recording medium.
  • the computer-readable recording medium may include a non-volatile recording medium such as a CD-ROM (Compact Disc-Read Only Memory).
  • the device may consist of one or more devices. When the device is composed of two or more devices, the two or more devices may be arranged in one device, or may be separately arranged in two or more separated devices.
  • "device" can mean not only one device, but also a system of multiple devices.
  • the measuring device of the present disclosure it is possible to acquire information on a shallow part and a deep part of a measurement target with a higher time resolution than before.
  • FIG. 1 is a schematic view showing a measuring device according to the first embodiment.
  • FIG. 2A is a diagram showing an example in which the emission pulse has an impulse waveform.
  • FIG. 2B is a diagram showing an example in which the emission pulse has a rectangular waveform.
  • FIG. 3 is a diagram showing an example of the configuration of the image sensor.
  • FIG. 4A is a diagram showing an example of operation within one frame.
  • FIG. 4B is a diagram showing another example of the detection operation using light of two kinds of wavelengths.
  • FIG. 5 is a schematic diagram for explaining the relationship between the timing of the emission pulse and the reflected light pulse and each exposure period.
  • FIG. 6A is a diagram showing an example of an arrangement pattern of two types of pixels having different exposure periods in the image sensor.
  • FIG. 6A is a diagram showing an example of an arrangement pattern of two types of pixels having different exposure periods in the image sensor.
  • FIG. 6B is a diagram showing another example of an arrangement pattern of two types of pixels having different exposure periods in the image sensor.
  • FIG. 6C is a diagram showing still another example of the arrangement pattern of two types of pixels having different exposure periods in the image sensor.
  • FIG. 6D is a diagram showing still another example of the arrangement pattern of two types of pixels having different exposure periods in the image sensor.
  • FIG. 7 is a flowchart showing an outline of the operation in the first embodiment.
  • FIG. 8 is a schematic diagram for explaining the relationship between the timing of the light emission pulse and the reflected light pulse in the first embodiment and each exposure period.
  • FIG. 9A is a diagram showing an example of an arrangement pattern of three types of pixels having different exposure periods in the image sensor.
  • FIG. 9B is a diagram showing another example of an arrangement pattern of three types of pixels having different exposure periods in the image sensor.
  • FIG. 9C is a diagram showing still another example of an arrangement pattern of three types of pixels having different exposure periods in the image sensor.
  • FIG. 9D is a diagram showing still another example of an arrangement pattern of three types of pixels having different exposure periods in the image sensor.
  • FIG. 10 is a flowchart showing an outline of the operation in the second embodiment.
  • FIG. 11 is a timing chart showing a modified example of the second embodiment.
  • FIG. 12 is a timing chart showing another modification of the second embodiment.
  • FIG. 13 is a diagram for explaining the principle of distance calculation.
  • FIG. 14 is a diagram showing still another modification.
  • FIG. 15 is a diagram showing an example of time change of the three types of generated images.
  • FIG. 10 is a flowchart showing an outline of the operation in the second embodiment.
  • FIG. 11 is a timing chart showing a modified example of the second embodiment.
  • FIG. 12
  • FIG. 16 is a diagram showing an example of a distance image.
  • FIG. 17 is a diagram schematically showing a flow of an operation for generating a correction value image used in the correction processing.
  • FIG. 18 is a diagram schematically showing a correction process using a correction value image.
  • FIG. 19 is a diagram showing a measurement operation according to still another modification.
  • all or part of a circuit, unit, device, member or part, or all or part of a functional block in a block diagram is, for example, a semiconductor device, a semiconductor integrated circuit (IC), or an LSI (range scale integration). ) Can be performed by one or more electronic circuits.
  • the LSI or IC may be integrated on one chip, or may be configured by combining a plurality of chips.
  • functional blocks other than the storage element may be integrated on one chip.
  • it is called LSI or IC, but the name changes depending on the degree of integration, and it may be called system LSI, VLSI (very large scale integration), or ULSI (ultra large scale integration).
  • Field Programmable Gate Array (FPGA) which is programmed after the LSI is manufactured, or reconfigurable logistic device, which can reconfigure the junction relationship inside the LSI or set up the circuit partition inside the LSI, can also be used for the same purpose.
  • FPGA Field Programmable Gate Array
  • circuits, units, devices, members or parts can be performed by software processing.
  • the software is recorded on a non-temporary recording medium such as one or more ROMs, optical disks, hard disk drives, etc., and when the software is executed by a processor, the functions identified by the software It is executed by a processor and peripheral devices.
  • the system or device may include one or more non-temporary recording media on which the software is recorded, a processor, and the required hardware devices, such as an interface.
  • a measuring device comprises a light source that emits a first light pulse toward an object and a plurality of light detection cells including a first light detection cell and a second light detection cell.
  • the sensor includes the light source and an electronic circuit that controls the sensor and processes a signal output from the sensor.
  • the electronic circuit executes the following operations (a) to (e).
  • the electronic circuit causes the light source to emit a first light pulse.
  • the electronic circuit decreases after the intensity of the first reflected light pulse from the object generated due to the first light pulse starts to increase in the first light detection cell. In the first exposure period including at least a part of the period until the start of the above, the first signal is generated by detecting the first reflected light pulse.
  • the electronic circuit includes, in the second light detection cell, at least a part of a falling period from the start of the decrease in the intensity of the first reflected light pulse to the end of the decrease.
  • a second signal is generated by detecting the first reflected light pulse during the exposure period of.
  • the electronic circuit generates and outputs first data indicating the state of the surface of the object based on the first signal.
  • the electronic circuit generates and outputs second data indicating an internal state of the object based on the second signal.
  • the "object” can be a living body such as a human head.
  • Light pulses from a light source can be emitted, for example, towards the human forehead.
  • the reflected light pulse includes a surface reflection component reflected on the surface of the object and an internal scattering component scattered inside the object.
  • the sensor receives the reflected light pulse in the first photodetection cell during the first exposure period, and generates a first signal according to the amount of light received.
  • the sensor also receives the reflected light pulse in the second photodetection cell during the second exposure period and generates a second signal according to the amount of received light.
  • the first signal reflects the intensity of the light component reflected or scattered near the surface of the object and returned.
  • the second signal reflects the intensity of the light component scattered and returned in the deeper internal tissue of the object.
  • the electronic circuit generates first data that reflects the state of the surface of the object based on the first signal. In the following description, the first data may be referred to as "surface layer data”.
  • the electronic circuit also generates a second data based on the second signal that reflects the internal state of the object. In the following description, the second data may be referred to as "deep data”.
  • the electronic circuit may output the first signal itself as the first data, or may output the data newly generated by the calculation using the first signal as the first data.
  • the electronic circuit may output the second signal itself as the second data, or may output the signal newly generated by the calculation using the second signal as the second data. ..
  • the second data depends on, for example, the state of human brain activity.
  • the senor detects the component of the reflected light pulse that returns relatively early in the first photodetection cell, and the component that returns relatively late in the second photodetection cell. Can be detected. Therefore, the time resolution can be increased as compared with the case where these two components are detected by one photodetection cell.
  • the second exposure period may start after the start of the fall period of the first reflected light pulse. According to such a configuration, it is possible to acquire deeper information of the object with higher accuracy.
  • the first exposure period may include at least a part of a rising period from the start of the increase in the intensity of the first reflected light pulse to the end of the increase. According to such a configuration, information on the surface layer of the object can be acquired with higher accuracy.
  • the first exposure period may end before the start of the fall period. According to such a configuration, the overlap between the first exposure period and the second exposure period can be reduced, so that the information on the surface layer and the information on the deep part can be acquired with higher accuracy.
  • the "rising period” of an optical pulse refers to the period from the time when the intensity of the optical pulse starts to increase to the time when the increase ends at the position of the light receiving surface of the sensor. More precisely, the “rising period” is defined as the period from the time when the intensity of the optical pulse exceeds the preset lower limit value to the time when the preset upper limit value is reached.
  • the lower limit value can be set to a value of, for example, 10% of the peak value of the intensity of the optical pulse
  • the upper limit value can be set to a value of, for example, 90% of the peak value.
  • the “falling period” of the optical pulse refers to the period from the time when the intensity of the optical pulse starts to decrease to the time when the decrease ends at the position of the light receiving surface of the sensor. More precisely, the “falling period” means the period from the time when the intensity of the optical pulse falls below the preset upper limit value to the time when the preset lower limit value is reached. Also for the fall period, the upper limit value can be set to a value of, for example, 90% of the peak value of the intensity of the optical pulse, and the lower limit value can be set to a value of, for example, 10% of the peak value.
  • the plurality of photodetection cells may include a plurality of first photodetection cells including the first photodetection cell and a plurality of second photodetection cells including the second photodetection cell. good.
  • the electronic circuit may perform the following operations.
  • B1 The electronic circuit causes each of the plurality of first photodetection cells to generate the first signal by detecting the first reflected light pulse in the first exposure period.
  • C1 The electronic circuit causes each of the plurality of second photodetection cells to generate the second signal by detecting the first reflected light pulse during the second exposure period.
  • the electronic circuit generates and outputs the first data based on a plurality of first signals including the first signal output from each of the plurality of first photodetection cells. .. (E1) The electronic circuit generates and outputs the second data based on a plurality of second signals including the second signal output from each of the plurality of second photodetection cells. ..
  • the number of the plurality of first photodetected cells may be smaller, larger, or the same as the number of the plurality of second photodetected cells.
  • the sensor may be an image sensor.
  • the plurality of photodetection cells may be arranged in a matrix.
  • the electronic circuit may generate image data based on the plurality of first signals as the first data, and may generate image data based on the plurality of second signals as the second data. According to such a configuration, it is possible to output image data showing the state of the surface layer of the object and image data showing the state inside the object. By displaying an image based on the image data on the display, it is possible to visualize the surface layer and the internal state of the object.
  • the arrangement pattern of a plurality of photodetector cells arranged in a matrix can be considered for the arrangement pattern of a plurality of photodetector cells arranged in a matrix.
  • the rows or columns composed of the plurality of first photodetected cells and the rows or columns composed of the plurality of second photodetected cells may be arranged alternately.
  • the plurality of first photodetection cells and the plurality of second photodetection cells may be arranged in a checkerboard pattern.
  • the first data may indicate the appearance of a face on the head.
  • the second data may indicate the state of cerebral blood flow in the head. According to such a configuration, a facial image and an image showing the state of cerebral blood flow can be generated and displayed.
  • the plurality of photodetection cells may further include a third photodetection cell.
  • the electronic circuit receives the first reflection on the first light detection cell or the third light detection cell during a third exposure period different from the first exposure period and the second exposure period.
  • a third signal may be further generated by detecting an optical pulse.
  • the electronic circuit may further generate and output a third piece of data based on the third signal.
  • the third data may indicate, for example, the state of scalp blood flow. According to such a configuration, for example, three types of data are provided: a first data showing the appearance of the face, a second data showing the state of cerebral blood flow, and a third data showing the state of scalp blood flow. Can be generated.
  • the electronic circuit causes the first photodetection cell to generate the third signal during the third exposure period, and based on the first signal and the third signal, the target from the sensor. Data indicating the distance to an object may be generated and output. According to such a configuration, not only the surface layer information and the internal information of the object but also the distance information can be acquired.
  • the light source may further emit a second light pulse towards the object.
  • the electronic circuit may further perform the following operations.
  • A2) The electronic circuit causes the light source to emit the first light pulse and then emits the second light pulse.
  • B2) The electronic circuit decreases after the intensity of the second reflected light pulse from the object generated due to the second light pulse starts to decrease in the first light detection cell.
  • a third signal is generated by detecting the second reflected light pulse in the third exposure period including at least a part of the fall-down period until the end of.
  • the length from the start time of emission of the first light pulse to the start time of the first exposure period is from the start time of emission of the second light pulse to the start time of the third exposure period. It may be different from the length of.
  • the electronic circuit includes at least a part of the falling period of the second reflected light pulse in the second light detection cell, and in a fourth exposure period different from the third exposure period.
  • a fourth signal is generated by detecting the second reflected light pulse.
  • the electronic circuit generates and outputs data indicating a distance from the sensor to the object based on the first signal and the third signal.
  • the data indicating the distance may be generated as the above-mentioned "first data”, or may be generated as data independent of the above-mentioned "first data”.
  • the electronic circuit When the object includes a person's head, the electronic circuit generates and outputs data indicating the person's psychological state or physical state based on the first signal and the second signal. You may.
  • the data may indicate, for example, a state of interest, emotion, drowsiness, concentration, or fatigue of the person. For example, by combining the facial expression information indicated by the first signal and the brain activity information indicated by the second signal, the psychological state or physical state of a person can be estimated.
  • the electronic circuit may generate the third signal and the fourth signal in addition to the first signal and the second signal. Further, it may be used to generate data indicating the psychological state or physical state of the person. For example, when the third signal indicates the state of scalp blood flow, the psychological state or the body can be used by using the information indicating the state of scalp blood flow in addition to the information indicating the state of human facial expression and cerebral blood flow. The state can be estimated with higher accuracy.
  • the light source may further emit a second light pulse towards the object.
  • the wavelength of the second light pulse may be different from the wavelength of the first light pulse.
  • the first exposure period may be started when the first time elapses from the time when the first light pulse is emitted.
  • the electronic circuit may further perform the following operations. (A3) The electronic circuit causes the light source to emit the first optical pulse and the second optical pulse in each of the first measurement period and the second measurement period. (B3) The electronic circuit causes the first light detection cell to detect the first reflected light pulse in the first exposure period included in the first measurement period, and causes the first light detection cell to detect the first reflected light pulse.
  • the second light pulse from the object is generated due to the second light pulse.
  • the first signal is generated by detecting the reflected light pulse of 2.
  • the electronic circuit starts a fourth exposure to the first light detection cell when a third time elapses from the start time of emission of the first light pulse in the second measurement period.
  • the third signal is generated by detecting the second reflected light pulse.
  • the electronic circuit generates data indicating a distance from the sensor to the object based on the first signal and the third signal.
  • the third time may be different from the first time
  • the fourth time may be different from the second time
  • the electronic circuit may repeatedly generate a distance image based on the first signal and the third signal and an image based on the second signal.
  • the first measurement period and the second measurement period may be referred to as a first frame period and a second frame period, respectively.
  • the electronic circuit may perform the following operations.
  • A4) The electronic circuit causes the light source to emit one or more light pulses.
  • B4) The electronic circuit detects a first component of one or more reflected light pulses from a living body caused by the one or more light pulses in the first photodetection cell of the sensor. The first signal is generated by causing the signal to be generated.
  • C4 The electronic circuit causes the second photodetection cell in the sensor to generate a second signal by detecting a second component of the one or more reflected light pulses.
  • D4) The electronic circuit causes the first photodetection cell in the sensor to generate a third signal by detecting a third component of the one or more reflected light pulses.
  • E4) The electronic circuit generates first data indicating the distance from the sensor to the living body based on the first signal and the third signal.
  • F4) Based on the second signal, second data indicating the state of blood flow in the living body is generated.
  • the first data indicating the distance and the second data indicating the state of blood flow in the living body can be generated with high resolution.
  • the electronic circuit may correct the second data based on the first data. By performing such correction, even if the living body moves during the measurement, the blood flow information of the living body can be acquired with high accuracy.
  • the electronic circuit may correct the second data based on the data showing the spatial distribution of the illuminance of the one or more light pulses and the first data.
  • Data showing the spatial distribution of illuminance can be prepared in advance before measurement and stored in a storage medium.
  • FIG. 15 shows details of a method of correcting the second data indicating the blood flow state of the living body based on the first data indicating the distance from the sensor to the object and the data indicating the spatial distribution of illuminance. Will be described later with reference to FIG.
  • a method is a method of controlling a measuring device including a light source and a sensor including a plurality of light detection cells including a first light detection cell and a second light detection cell. Emitting a light pulse to the light source and causing the first light detection cell to start increasing the intensity of the reflected light pulse from the object caused by the light pulse until the intensity of the reflected light pulse starts to decrease. In the first exposure period including at least a part of the period, the first signal is generated by detecting the reflected light pulse, and the intensity of the reflected light pulse is transmitted to the second light detection cell.
  • the second signal is generated by detecting the reflected light pulse, and the first signal is generated.
  • First data indicating the state of the surface of the object is generated and output based on the signal of, and second data indicating the state of the inside of the object is generated based on the second signal. And output, including.
  • a method is a method of controlling a measuring device including a light source and a sensor including a plurality of light detection cells including a first light detection cell and a second light detection cell. Therefore, the light source emits one or more light pulses, and the first light detection cell receives one or more reflected light pulses from a living body caused by the one or more light pulses.
  • the second signal is generated by detecting the first component and causing the second light detection cell to detect the second component of the one or more reflected light pulses.
  • To generate a third signal by causing the first light detection cell to detect a third component of the one or more reflected light pulses. Based on the third signal, the first data indicating the distance from the sensor to the living body is generated, and based on the second signal, the second data indicating the state of blood flow of the living body is generated. Including to do.
  • the device includes one or more processors and a storage medium for storing a computer program executed by the one or more processors.
  • the processor may execute the function of the electronic circuit in any of the above examples by executing the computer program.
  • the present disclosure includes a computer program that defines the functions of the above-mentioned electronic circuit, and a control method executed by the above-mentioned electronic circuit.
  • FIG. 1 is a schematic view showing a measuring device 100 according to an exemplary first embodiment of the present disclosure.
  • the measuring device 100 includes a light source 110, an image sensor 120, and an electronic circuit 130.
  • the image sensor 120 includes a plurality of photodetection cells.
  • Each photodetector cell includes a photoelectric conversion unit 122 and one or more charge storage units 124.
  • the electronic circuit 130 includes a control circuit 132, a signal processing circuit 134, and a storage medium such as a memory 136.
  • FIG. 1 also shows the head of the subject 50, which is the object of measurement by the measuring device 100.
  • the object is not limited to the human head.
  • the object may be a non-human animal or other type of organism such as a plant.
  • the object may be an object other than a living body.
  • a scatterer such as a liquid, a gas, or a food may be an object.
  • the measuring device 100 of the present embodiment can acquire information indicating the state of the scalp blood flow and the cerebral blood flow of the subject 50 to be observed in a non-contact manner.
  • the measuring device 100 may generate data of a two-dimensional image showing the concentration distribution of at least one of oxygenated hemoglobin and deoxygenated hemoglobin in the brain of the subject 50, for example.
  • the measuring device 100 may generate other types of data that fluctuate due to the brain activity of the subject 50.
  • the plurality of photodetection cells in the image sensor 120 include a first photodetection cell and a second photodetection cell.
  • the photodetector cell may be referred to as a "pixel”
  • the first photodetector cell may be referred to as a "first pixel P1”
  • the second photodetector cell may be referred to as a "second pixel P2".
  • the image sensor 120 can acquire information on the appearance of the face or scalp blood flow of the subject 50 by the first light detection cell, and can acquire information on cerebral blood flow by the second light detection cell.
  • the signal processing circuit 134 can execute a process of generating surface layer data indicating the appearance of the face of the subject 50 or the state of scalp blood flow and deep data indicating the state of cerebral blood flow with high time resolution. ..
  • the light source 110 is arranged so as to emit light toward the head of the subject 50, for example, the target portion including the forehead.
  • the light emitted from the light source 110 and reaching the subject 50 is divided into a surface reflection component I1 reflected on the surface of the subject 50 and an internal scattering component I2 scattered inside the subject 50.
  • the internal scattering component I2 is a component that is reflected once, scattered, or multiple scattered inside the living body.
  • the internal scattering component I2 reaches a portion of about 8 mm to 16 mm behind the surface of the forehead, for example, the brain, and the measuring device 100 again. Refers to the component that returns to.
  • the surface reflection component I1 contains three components, a direct reflection component, a diffuse reflection component, and a scattering reflection component.
  • the direct reflection component is a reflection component in which the incident angle and the reflection angle are equal.
  • the diffuse reflection component is a component that diffuses and reflects due to the uneven shape of the surface.
  • the diffuse reflection component is a component that is scattered and reflected by the internal structure near the surface. When light is emitted toward the human head, the diffuse reflection component is a component that is scattered and reflected inside the epidermis.
  • the surface reflection component I1 may include these three components.
  • the traveling direction of the surface reflection component I1 and the internal scattering component I2 changes due to reflection or scattering, and a part of the surface reflection component I1 and the internal scattering component I2 reach the image sensor 120.
  • the surface reflective component I1 includes surface information of the subject 50, for example, blood flow information of the face and scalp.
  • the internal scattering component I2 includes internal information of the subject 50, for example, cerebral blood flow information.
  • the surface reflection component I1 and the internal scattering component I2 are detected in the reflected light returning from the head of the subject 50.
  • the surface reflective component I1 reflects the appearance of the face of the subject 50 or the state of scalp blood flow. Therefore, it is possible to estimate the change in the appearance of the face or the state of scalp blood flow of the subject 50 by analyzing the change with time of the surface reflection component I1.
  • the intensity of the internal scattering component I2 fluctuates reflecting the brain activity of the subject 50. Therefore, the state of brain activity of the subject 50 can be estimated by analyzing the change with time of the internal scattering component I2.
  • the light source 110 repeatedly emits an optical pulse a plurality of times at a predetermined time interval or a predetermined timing according to an instruction from the control circuit 132.
  • the light pulse emitted from the light source 110 can be, for example, a square wave having a fall period close to zero, which is a period from the start to the end of the decrease in the intensity of the light pulse.
  • the light incident on the head of the subject 50 propagates in the head by various routes and is emitted from the surface with a time lag. Therefore, the temporally trailing end portion of the internal scattering component I2 of the light pulse has a temporal spread.
  • the temporal spread of the internal scattering component I2 is about 4 ns.
  • the length of the fall period which is the period from the start to the end of the decrease in the intensity of the optical pulse, can be set to, for example, 2 ns or less, which is less than half of the period.
  • the fall period may be less than half of that, 1 ns or less.
  • the length of the rising period of the light pulse emitted from the light source 110 is arbitrary.
  • the falling portion of the optical pulse which is the portion where the intensity falls, is used, and the rising portion, which is the portion where the intensity rises, is not used.
  • the rising portion of the light pulse is used to detect the surface reflection component I1.
  • the light source 110 may include, for example, a laser element such as a laser diode (LD).
  • the light emitted from the laser element can be adjusted to have a steep time response characteristic in which the falling portion of the optical pulse is substantially perpendicular to the time axis.
  • the light source 110 may include a drive circuit that controls the drive current of the LD.
  • the drive circuit may include an enhancement mode power transistor such as a field effect transistor (GaN FET) including a gallium nitride (GaN) semiconductor, for example.
  • GaN FET field effect transistor
  • GaN gallium nitride
  • the wavelength of the light emitted from the light source 110 can be, for example, any wavelength included in the wavelength range of 650 nm or more and 950 nm or less. This wavelength range is included in the wavelength range from red to near infrared rays.
  • the above wavelength range is called a "window of a living body" and has a property that light is relatively difficult to be absorbed by water and skin in the living body.
  • the detection sensitivity can be increased by using light in the above wavelength range.
  • the light used is mainly absorbed by oxygenated hemoglobin (HbO 2 ) and oxygenated hemoglobin (Hb).
  • the wavelength dependence of light absorption differs between oxygenated hemoglobin and deoxygenated hemoglobin.
  • changes in blood flow change the concentration of oxygenated and deoxygenated hemoglobin.
  • the degree of light absorption also changes. Therefore, when the blood flow changes, the amount of light detected also changes with time.
  • the light source 110 may emit light having a single wavelength included in the above wavelength range, or may emit light having two or more wavelengths. Light of a plurality of wavelengths may be emitted from a plurality of light sources.
  • the light source 110 may be configured to emit light having a wavelength of 650 nm or more and less than 805 nm (for example, about 750 nm) and light having a wavelength longer than 805 nm and 950 nm or less (for example, about 850 nm).
  • the light intensity of the internal scattering component I2 due to the light having a wavelength of about 750 nm and the light intensity of the internal scattering component I2 due to the light having a wavelength of about 850 nm are measured.
  • the light source 110 may include a first light emitting element that emits light having a wavelength of 650 nm or more and less than 805 nm, and a second light emitting element that emits light having a wavelength of more than 805 nm and 950 nm or less.
  • the signal processing circuit 134 solves a predetermined simultaneous equation based on the signal value of the light intensity input for each pixel, thereby changing the concentration of HbO 2 and Hb in the blood from the initial value. Can be sought.
  • the measuring device 100 in the present embodiment measures the cerebral blood flow of the subject 50 in a non-contact manner. Therefore, a light source 110 designed in consideration of the influence on the retina can be used. For example, a light source 110 that satisfies Class 1 of the laser safety standard established in each country can be used. When Class 1 is satisfied, the subject 50 is irradiated with light having a low illuminance such that the exposure limit (AEL) is less than 1 mW.
  • the light source 110 itself does not have to satisfy class 1.
  • a diffuser or ND filter may be placed between the light source 110 and the subject 50 to diffuse or attenuate the light, thereby satisfying Class 1 of the laser safety standard.
  • a streak camera has been used to distinguish and detect information such as an absorption coefficient or a scattering coefficient at different locations in the depth direction inside a living body.
  • Japanese Patent Application Laid-Open No. 4-189349 discloses an example of such a streak camera.
  • ultrashort optical pulses with a pulse width of femtoseconds or picoseconds are used to measure with the desired spatial resolution.
  • the measuring device 100 of the present embodiment can detect the surface reflection component I1 and the internal scattering component I2 separately. Therefore, the optical pulse emitted by the light source 110 does not have to be an ultrashort optical pulse, and the pulse width can be arbitrarily selected.
  • the amount of light of the internal scattering component I2 is very small, about one-thousandth to one-tens of thousands of the amount of light of the surface reflection component I1. Can be a value. Further, considering the safety standard of the laser, the amount of light that can be irradiated is extremely small. Therefore, it is very difficult to detect the internal scattering component I2. Even in that case, if the light source 110 emits an optical pulse having a relatively large pulse width, the integrated amount of the internal scattering component I2 with a time delay can be increased. Thereby, the amount of detected light can be increased and the signal-to-noise (SN) ratio can be improved.
  • SN signal-to-noise
  • FIGS. 2A and 2B are diagrams showing an example of time-dependent changes in the intensities of the emission pulse Ie, the surface reflection component I1 and the internal scattering component I2 in the reflected light pulse.
  • FIG. 2A shows an example of each waveform when the emission pulse Ie has an impulse waveform.
  • FIG. 2B shows an example of each waveform when the emission pulse Ie has a rectangular waveform.
  • the internal scattering component I2 is actually weak, the intensity of the internal scattering component I2 is emphasized and shown in FIGS. 2A and 2B.
  • the surface reflection component I1 has an impulse waveform similar to that of the light pulse Ie, and the internal scattering component I2 is an impulse delayed from the surface reflection component I1. It has a response waveform. This is because the internal scattering component I2 corresponds to a combination of light rays that have passed through various paths inside the skin.
  • the surface reflection component I1 has a rectangular waveform similar to the light pulse Ie
  • the internal scattering component I2 has a large number of impulse response waveforms. Has a superimposed waveform.
  • the present inventors have confirmed that by superimposing a large number of impulse response waveforms, the amount of light of the internal scattering component I2 detected by the image sensor 120 can be amplified as compared with the case where the optical pulse Ie has an impulse waveform.
  • the internal scattering component I2 can be effectively detected by starting the opening of the electronic shutter after the timing at which the intensity of the reflected light pulse starts to fall.
  • the shutter opening period in which the electronic shutter of the image sensor 120 is released.
  • This shutter opening period is also referred to as an "exposure period".
  • the pulse width of the rectangular pulse is on the order of 1 ns to 10 ns, the light source 110 can be driven with a relatively low voltage, and the measuring device 100 can be miniaturized and the cost can be reduced.
  • the exposure is started after the timing at which the intensity of the surface reflection component I1 reaching the image sensor 120 starts to fall.
  • the light source 110 may include, for example, a light emitting element using a general-purpose semiconductor laser.
  • a general-purpose semiconductor laser When driving a general-purpose semiconductor laser at a low voltage, if the pulse width is made too short, it becomes difficult to follow the driving of turning on and off the light. For this reason, the emission waveform is different for each pulse emission, and it is easy to show unstable behavior, and it is easy to cause variation in the distance measurement result.
  • the light source 110 can be controlled so as to emit an optical pulse having a pulse width of, for example, 3 ns or more.
  • the light source 110 may emit an optical pulse having a pulse width of 5 ns or more and further 10 ns or more.
  • the pulse width is too large, the light outflow to the charge storage unit 124 at the time of shutter off, that is, the parasitic light sensitivity (PLS) becomes large, which may cause a measurement error. Therefore, the light source 110 can be controlled to generate, for example, an optical pulse having a pulse width of 50 ns or less.
  • the light source 110 may emit an optical pulse having a pulse width of 30 ns or less and further 20 ns or less.
  • the irradiation pattern of the light source 110 for example, a pattern having a uniform intensity distribution in the irradiation region can be selected.
  • the subject 50 can be irradiated with light with spatially equivalent illuminance, and it is easy to keep the intensity of the detection signal within the dynamic range in any pixel of the image sensor 120.
  • the image sensor 120 receives the light emitted from the light source 110 and reflected from the subject 50.
  • the image sensor 120 has a plurality of photodetection cells arranged two-dimensionally, and can acquire two-dimensional information of the subject 50 at one time.
  • the image sensor 120 can be any image sensor, such as a CCD image sensor or a CMOS image sensor.
  • the image sensor 120 is an example of the sensor in the present disclosure.
  • the sensor in the present disclosure is not limited to a sensor having a plurality of light detection cells arranged two-dimensionally, and may be, for example, a sensor having a plurality of light detection cells arranged one-dimensionally.
  • a photodetector having a single photodetector element such as a photodetector may be used as a sensor.
  • the technique of the present disclosure can be applied by using two adjacent photodetector elements as a "first photodetector cell” and a "second photodetector cell”, respectively.
  • the image sensor 120 in this embodiment includes an electronic shutter.
  • the electronic shutter is a circuit that controls the timing of exposure.
  • the electronic shutter controls one signal storage period in which the received light is converted into an effective electric signal and stored, and a period in which the signal storage is stopped.
  • the signal storage period is referred to as an "exposure period”.
  • the time from the end of one exposure period to the start of the next exposure period is referred to as a "non-exposure period”.
  • the exposed state may be referred to as “OPEN”, and the state in which the exposure is stopped may be referred to as “CLOSE”.
  • the image sensor 120 can adjust the exposure period and the non-exposure period with an accuracy of sub-nanoseconds, for example, 30 ps to 1 ns by using an electronic shutter.
  • Each exposure period can be set to a value of 1 ns or more and 30 ns or less, for example.
  • the control circuit 132 causes the light source 110 to emit light pulses a plurality of times, and in synchronization with this, exposes each light detection cell of the image sensor 120 a plurality of times. As a result, the signals can be integrated a plurality of times to improve the sensitivity.
  • the image sensor 120 includes a plurality of pixels two-dimensionally arranged on the imaging surface. Each pixel includes a photoelectric conversion element such as a photodiode and one or more charge storage units.
  • FIG. 3 is a diagram showing an example of the configuration of the image sensor 120.
  • the area surrounded by the alternate long and short dash line frame corresponds to one pixel 201.
  • Pixel 201 includes a photoelectric conversion element such as a photodiode (not shown). Although only 8 pixels arranged in 2 rows and 4 columns are shown in FIG. 3, a larger number of pixels can be actually arranged.
  • Each pixel 201 includes a first floating diffusion layer 204 and a second floating diffusion layer 206, which are charge storage units.
  • the light source 110 emits a first light pulse having a wavelength of 650 nm or more and less than 805 nm and a second light pulse having a wavelength of more than 805 nm and 950 nm or less.
  • the first floating diffusion layer 204 accumulates the electric charge generated by receiving the reflected light pulse by the first light pulse.
  • the second floating diffusion layer 206 accumulates the electric charge generated by receiving the reflected light pulse by the second light pulse.
  • the signal stored in the first floating diffusion layer 204 and the second floating diffusion layer 206 is treated as if it were a two-pixel signal of a general CMOS image sensor, and is output from the image sensor 120.
  • each pixel 201 includes a single charge storage unit. You may. Further, even in a configuration in which the light source 110 emits light having a single wavelength, each pixel 201 may include a single charge storage unit. In the present embodiment, one of the two adjacent pixels 201 detects the surface reflection component I1 of the reflected light pulse, and the other detects the internal scattering component I2 of the reflected light pulse.
  • each pixel 201 has two signal detection circuits.
  • Each signal detection circuit includes a source follower transistor 309, a row selection transistor 308, and a reset transistor 310.
  • Each transistor is, for example, a field effect transistor formed on a semiconductor substrate, but is not limited thereto.
  • one of the input terminal and the output terminal of the source follower transistor 309 and one of the input terminal and the output terminal of the row selection transistor 308 are connected.
  • One of the input terminal and the output terminal of the source follower transistor 309 is typically a source.
  • One of the input and output terminals of the row selection transistor 308 is typically a drain.
  • the gate which is the control terminal of the source follower transistor 309, is connected to the photodiode.
  • the signal charge due to holes or electrons generated by the photodiode is accumulated in the floating diffusion layer, which is a charge storage portion between the photodiode and the source follower transistor 309.
  • the first floating diffusion layer 204 and the second floating diffusion layer 206 are connected to a photodiode (not shown).
  • a switch may be provided between the photodiode and each of the first floating diffusion layer 204 and the second floating diffusion layer 206. This switch switches the conduction state between the photodiode and each of the first floating diffusion layer 204 and the second floating diffusion layer 206 in response to a control signal from the control circuit 132. Thereby, the start and stop of the accumulation of the signal charge in each of the first floating diffusion layer 204 and the second floating diffusion layer 206 are controlled.
  • the electronic shutter in this embodiment has a mechanism for such exposure control.
  • the signal charge accumulated in each floating diffusion layer is read out when the gate of the row selection transistor 308 is turned on by the row selection circuit 302. At this time, the current flowing from the source follower power supply 305 to the source follower transistor 309 and the source follower load 306 is amplified according to the signal potential of the floating diffusion layer.
  • the analog signal due to this current read from the vertical signal line 304 is converted into digital signal data by the analog-to-digital (AD) conversion circuit 307 connected for each column.
  • This digital signal data is read out for each column by the column selection circuit 303 and output from the image sensor 120.
  • the row selection circuit 302 and the column selection circuit 303 read out one row, then read the next row, and similarly, read out the signal charge information of the floating diffusion layer in all the rows.
  • control circuit 132 After reading out all the signal charges, the control circuit 132 resets all the floating diffusion layers by turning on the gate of the reset transistor 310. This completes the imaging of one frame. Similarly, by repeating the high-speed imaging of the frame, the imaging of the series of frames by the image sensor 120 is completed.
  • the image sensor 120 may be another type of image sensor.
  • the image sensor 120 may be, for example, a CCD type, a single photon counting type element, or an amplified image sensor such as an EMCCD or an ICCD.
  • a sensor in which a plurality of light detection cells are arranged two-dimensionally may be used instead of the image sensor 120 in which a plurality of light detection cells are arranged two-dimensionally.
  • multiple sensors, each with a single photodetector cell may be used.
  • biometric measurement is possible for only one point, but high-speed rate measurement is possible.
  • FIG. 4A is a diagram showing an example of operation within one frame.
  • the light emission of the first light pulse and the light emission of the second light pulse may be alternately switched a plurality of times within one frame. By doing so, it is possible to reduce the time difference in the acquisition timing of the detected images due to the two types of wavelengths, and even when the subject 50 is moving, imaging with the first and second optical pulses can be performed almost at the same time. It is possible.
  • FIG. 4B is a diagram showing another example of the detection operation using light of two kinds of wavelengths.
  • the detection of the reflected light pulse by the first light pulse and the detection of the reflected light pulse by the second light pulse may be switched for each frame.
  • Such an operation can be performed, for example, by switching between light emission of the first light pulse and light emission of the second light pulse for each frame.
  • each pixel 201 may include a single charge storage unit. According to such a configuration, the number of charge storage portions of each pixel 201 can be reduced, so that the size of each pixel 201 can be increased and the sensitivity can be improved.
  • the wavelength of the light emitted by the light source 110 may be one type. Even in that case, the approximate state of brain activity can be estimated.
  • the electronic circuit 130 includes a control circuit 132, a signal processing circuit 134, and a memory 136.
  • the control circuit 132 adjusts the time difference between the emission timing of the light pulse from the light source 110 and the shutter timing of the image sensor 120.
  • the time difference may be referred to as "phase difference”.
  • the “emission timing” of the light source 110 refers to the timing at which the light pulse emitted from the light source 110 starts to rise.
  • Shutter timing refers to the timing at which exposure is started.
  • the control circuit 132 may be configured to remove an offset component from the signal detected by each pixel of the image sensor 120.
  • the offset component is a signal component due to ambient light such as sunlight or a fluorescent lamp, or ambient light.
  • the offset component due to ambient light or ambient light is estimated by detecting a signal with the image sensor 120 in a state where the drive of the light source 110 is turned off and no light is emitted from the light source 110.
  • the control circuit 132 may be, for example, a processor such as a central processing unit (CPU), or an integrated circuit such as a microcontroller having a built-in processor and memory.
  • the control circuit 132 adjusts the emission timing and the shutter timing by, for example, the processor executing a computer program recorded in the memory 136.
  • the signal processing circuit 134 is a circuit that processes the image signal output from the image sensor 120.
  • the signal processing circuit 134 performs arithmetic processing such as image processing.
  • the signal processing circuit 134 is realized by a programmable logic device (PLD) such as a digital signal processor (DSP) or a field programmable gate array (FPGA), or a central processing unit (CPU) or an image processing arithmetic processor (GPU). obtain.
  • PLD programmable logic device
  • DSP digital signal processor
  • FPGA field programmable gate array
  • CPU central processing unit
  • GPU image processing arithmetic processor
  • the control circuit 132 and the signal processing circuit 134 may be one integrated circuit or separate separate circuits.
  • the signal processing circuit 134 may be a component of an external device such as a server provided at a remote location.
  • an external device such as a server transmits / receives data to / from a measuring device including a light source 110, an image sensor 120, and a control circuit 132 by wireless communication or wired communication.
  • the signal processing circuit 134 generates a surface layer signal reflecting the surface reflection component I1 and a deep signal reflecting the internal scattering component I2 based on the signal output from the image sensor 120.
  • the signal processing circuit 70 may estimate the offset component due to the ambient light and remove the offset component.
  • the plurality of pixels in the image sensor 120 include a plurality of first pixels P1 and a plurality of second pixels P2.
  • the control circuit 132 causes each first pixel P1 to detect the temporal front end portion of the reflected light pulse in the first exposure period.
  • the control circuit 132 also causes each second pixel P2 to detect the temporal trailing edge of the reflected light pulse during the second exposure period.
  • detecting the front end portion means detecting at least a part of the components of the reflected light pulse during the rising period.
  • detecting the rear end portion means detecting at least a part of the components of the reflected light pulse during the falling period.
  • the first pixel P1 acquires information on a relatively shallow portion of the head
  • the second pixel P2 acquires information on a relatively deep portion of the head.
  • FIG. 5 is a schematic diagram for explaining the relationship between the timing of the emission pulse and the reflected light pulse and the first exposure period and the second exposure period.
  • Part (a) of FIG. 5 shows an example of the waveform of the emission pulse from the light source 110.
  • Part (b) of FIG. 5 shows an example of the waveform of the reflected light pulse reaching the image sensor 120.
  • Part (c) of FIG. 5 shows an example of a first exposure period in which the shutter of the first pixel P1 is released.
  • Part (d) of FIG. 5 shows an example of a second exposure period in which the shutter of the second pixel P2 is released.
  • the start timing of the rise of the reflected light pulse is later than the start timing of the rise of the emission pulse of the light source 110.
  • the start timing of the rise of the reflected light pulse changes according to the distance between the subject 50 and the image sensor 120.
  • the intensity of the reflected light pulse during the falling period is gradually reduced by superimposing the impulse response waveform as described above.
  • the later the shutter timing the higher the ratio of the internal scattering component I2 contained in the entire acquired signal.
  • the internal scattering component I2 mainly contains a scalp blood flow component I2-1 containing a large amount of information on the scalp blood flow in the shallow part of the forehead and a cerebral blood flow component I2-2 containing a large amount of information on the cerebral blood flow in the deep part of the forehead. ..
  • the pixel P1 is exposed in a phase containing a large amount of the scalp blood flow component I2-1 and the pixel P2 is exposed to the cerebral blood flow component I2-. It is exposed in a phase containing a large amount of 2.
  • the second exposure period starts.
  • the first exposure period is set to include at least a part of the rising period of the reflected light pulse reaching the image sensor 120 when the object is located at a preset distance from the measuring device 100.
  • the first exposure period may be set to include the entire rising period of the reflected light pulse, or may be set to include only a part of the rising period.
  • the first exposure period can be set, for example, to start before the end of the rising period of the reflected light pulse and end before the start of the falling period.
  • the second exposure period is set to include at least a part of the falling period of the reflected light pulse reaching the image sensor 120 when the object is located at a preset distance from the measuring device 100.
  • the second exposure period can be set to start, for example, after the start of the fall period of the reflected light pulse and before the end of the fall period.
  • the first exposure period and the second exposure period may partially overlap.
  • 6A to 6D are diagrams showing an example of an arrangement pattern of the first pixel P1 and the second pixel P2, which are two types of pixels having different exposure periods in the image sensor 120. By changing the sequence pattern, the optimum information can be obtained according to the purpose of measurement.
  • FIG. 6A shows an example of an arrangement pattern in which rows consisting of the first pixel P1 and rows consisting of the second pixel P2 are alternately arranged.
  • the phases of the exposure period are different between the even-numbered rows and the odd-numbered rows.
  • This arrangement is useful when you want to capture abrupt changes in the lateral direction.
  • the sequence of FIG. 6A is effective when it is desired to compare the difference between the left and right signals of the forehead, such as when the left brain is activated but the right brain is not changed.
  • FIG. 6B shows an example of an arrangement pattern in which a row consisting of the first pixel P1 and a row consisting of the second pixel P2 are alternately arranged.
  • the phases of the exposure period are different between the even-numbered columns and the odd-numbered columns.
  • This arrangement is useful when you want to capture abrupt changes in the vertical direction.
  • the arrangement of FIG. 6B is effective when it is desired to compare the difference between the signals above and below the forehead, for example, when it is desired to detect an event in which a change in a different tendency occurs between the cerebral blood flow and a part of the skin blood flow of the face. be.
  • FIG. 6C shows an example in which a plurality of first pixels P1 and a plurality of second pixels P2 are arranged in a checkerboard pattern. With this arrangement pattern, the signal of the entire forehead can be evaluated evenly in both the vertical direction and the horizontal direction.
  • the array pattern of the plurality of pixels P1 and P2 may be a repeating pattern having a pixel block of N rows ⁇ M columns (N and M are arbitrary natural numbers) as a constituent unit.
  • N and M are arbitrary natural numbers
  • a repeating pattern having pixels of 2 rows ⁇ 2 columns as a constituent unit may be adopted.
  • the number of the second pixel P2 is three times the number of the first pixel P1.
  • the signal of the internal scattering component I2 is weak. Therefore, the SN ratio can be improved by increasing the number of the second pixels P2 to be larger than the number of the first pixels P1 and calculating the average of the signal values of the second pixels P2.
  • first pixel P1 and the second pixel P2 in the example shown in FIG. 6D may be interchanged.
  • the number of the first pixels P1 is larger than the number of the second pixels P2. Since the first pixel P1 contains a lot of surface layer information of the subject 50 such as the appearance of the face, it is possible to improve the accuracy of processing such as analysis of facial expression or line of sight or estimation of size or speed of body movement.
  • FIG. 7 is a flowchart showing an outline of the operation by the electronic circuit 130 in the present embodiment.
  • the light source 110 emits light having one type of wavelength.
  • the control circuit 132 causes the light source 110 to emit an optical pulse for a predetermined time (step S101).
  • the control circuit 132 causes the image sensor 120 to start charge accumulation in each first pixel P1 at the first timing (step S102).
  • the control circuit 132 causes the image sensor 120 to stop the charge accumulation in each of the first pixels P1 at the second timing (step S103).
  • the period from the first timing to the second timing is the first exposure period.
  • steps S102 and S103 a charge corresponding to the intensity of the front end portion of the reflected light pulse is accumulated in each first pixel P1.
  • the control circuit 132 causes the image sensor 120 to start charge accumulation in each of the second pixels P2 at the third timing (step S104).
  • the control circuit 132 causes the image sensor 120 to stop the charge accumulation in each of the second pixels P2 at the fourth timing (step S105).
  • the period from the third timing to the fourth timing is the second exposure period.
  • step S106 determines whether or not the number of times the above charge accumulation has been executed reaches a predetermined number of times. If this determination is No, the operations of steps S101 to S105 are repeated until it is determined to be Yes. If it is determined to be Yes in step S106, the signal processing circuit 134 reads out the signal of the electric charge accumulated in each pixel of the image sensor 120. The signal processing circuit 134 generates a first intensity map based on the charges stored in the plurality of first pixels P1 and a second intensity map based on the charges stored in the plurality of second pixels P2. And output (step S107).
  • the signal processing circuit 134 extracts and integrates the data of the same type of pixels from the image data acquired by the image sensor 120 based on the arrangement pattern as illustrated in FIGS. 6A to 6D. Generate image data of intensity map. Specifically, the signal processing circuit 134 extracts only the data of the first pixel P1 from the acquired image data to generate the first intensity map, and extracts only the data of the second pixel P2. To generate a second intensity map. For example, in the example of FIG. 6A, the first intensity map is generated from the data of the first pixel P1 in the odd-numbered rows, and the second intensity map is generated from the data of the second pixel P2 in the even-numbered rows.
  • the first intensity map is an example of surface layer data, and may be, for example, image data showing the appearance of the face of the subject 50 or the distribution of scalp blood flow.
  • the second intensity map is an example of deep data, and may be, for example, image data showing the distribution of cerebral blood flow in the subject 50.
  • the signal processing circuit 134 may remove the component of the scalp blood flow, which is an artifact, by performing an operation for separating the feature of the intensity map of the surface layer and the feature of the intensity map of the deep part. By this processing, information on the time course of the cerebral blood flow of the subject 50 can be acquired with high accuracy and high time resolution.
  • each pixel in each of the first intensity map and the second intensity map has a value of the reflected light intensity by the first light pulse (hereinafter referred to as "first value”) and a second value. It has a value of reflected light intensity due to an optical pulse (hereinafter, "second value").
  • the signal processing circuit 134 calculates the amount of change from the initial value of the concentrations of oxygenated hemoglobin (HbO 2) and deoxygenated hemoglobin (Hb) from each intensity map. Specifically, the signal processing circuit 134 solves a predetermined simultaneous equation using the first value and the second value of each pixel in the first intensity map to obtain HbO 2 in the surface layer. The amount of change ⁇ [HbO 2 ] _surface layer from the initial value of the concentration and the amount of change ⁇ [Hb] _surface layer of the concentration of Hb in the surface layer from the initial value are calculated.
  • the signal processing circuit 134 uses the first value and the second value of each pixel in the second intensity map to solve a predetermined system of equations to obtain the concentration of HbO 2 in the deep part.
  • the amount of change ⁇ [HbO 2 ] _deep part from the initial value and the amount of change ⁇ [Hb] _deep part of the concentration of Hb in the deep part from the initial value are calculated.
  • the signal processing circuit 134 uses the following formula to calculate the amount of change ⁇ [HbO 2 ] _cerebral blood flow and ⁇ [Hb] _cerebral blood flow from the initial values of the respective concentrations of HbO 2 and Hb in the cerebral blood flow. calculate.
  • the coefficient k is a known value calculated in advance using a model (phantom) imitating a human.
  • the electronic circuit 130 may generate moving image data by repeating this series of operations a plurality of times. It should be noted that a plurality of times of light emission and charge accumulation are not essential, and are performed as necessary.
  • the signal processing circuit 134 in the present embodiment generates moving image data showing the time change of cerebral blood flow and moving image data showing the time change of the appearance of the face based on the image data output from the image sensor 120 for each frame. can do.
  • the signal processing circuit 134 is not limited to such moving image data, and may generate other information.
  • biometric information such as blood flow, blood pressure, blood oxygen saturation, or heart rate in the brain may be generated by synchronizing with other devices.
  • biological information such as skin blood flow rate, heart rate, or sweating amount may be generated based on the surface reflection component I1 detected by each pixel included in the image sensor 120.
  • cerebral blood flow or blood components such as hemoglobin and human neural activity.
  • the activity of nerve cells changes according to the degree of interest of human beings, so that the cerebral blood flow or the components in the blood change. Therefore, if biological information such as cerebral blood flow or facial appearance information can be measured, the psychological state or physical state of the user can be estimated.
  • the user's psychological state can be, for example, mood, emotion, health, or temperature sensation.
  • Moods can include, for example, pleasant or unpleasant moods.
  • Emotions can include, for example, feelings of security, anxiety, sadness, or resentment.
  • Health status can include, for example, a condition of good health or malaise.
  • the temperature sensation can include, for example, a sensation of being hot, cold, or sultry.
  • indicators of the degree of brain activity such as interest, proficiency, proficiency, and concentration, may also be included in the psychological state.
  • physical conditions such as the degree of fatigue, drowsiness, or the degree of sickness due to drinking are also included in the estimation by the signal processing circuit 134.
  • the signal processing circuit 134 estimates the user's psychological or physical state based on at least one of a change in cerebral blood flow state, a change in scalp blood flow state, and a change in facial appearance, and estimates the estimation result.
  • the indicated signal can be output.
  • the plurality of pixels of the image sensor 120 include a first pixel P1, a second pixel P2, and a third pixel P3, which are three types of pixels. Different exposure periods are set for the first pixel P1, the second pixel P2, and the third pixel P3. According to this embodiment, it is possible to acquire information on the appearance of the subject 50, the scalp blood flow, and the cerebral blood flow over time with high time resolution.
  • FIG. 8 is a schematic diagram for explaining the relationship between the timing of the emission pulse and the reflected light pulse in the present embodiment and the first to third exposure periods.
  • Part (a) of FIG. 8 shows an example of the waveform of the emission pulse from the light source 110.
  • Part (b) of FIG. 8 shows an example of the waveform of the reflected light pulse reaching the image sensor 120.
  • Part (c) of FIG. 8 shows an example of a first exposure period in which the shutter of the first pixel P1 is released.
  • Part (d) of FIG. 8 shows an example of a second exposure period in which the shutter of the second pixel P2 is released.
  • Part (e) of FIG. 8 shows an example of a third exposure period in which the shutter of the third pixel P3 is released.
  • the first pixel P1 is exposed in a phase containing a large amount of the surface reflection component I1.
  • the second pixel P2 is exposed in a phase containing a large amount of the cerebral blood flow component I2-2.
  • the third pixel P3 is exposed in a phase containing a large amount of the scalp blood flow component I2-1.
  • 9A to 9D are diagrams showing an example of an arrangement pattern of the first pixel P1, the second pixel P2, and the third pixel P3, which are three types of pixels having different exposure periods in the image sensor 120. Also in this embodiment, the optimum information can be obtained according to the purpose of measurement by changing the sequence pattern.
  • FIG. 9A shows an example of an array pattern in which a row consisting of the first pixel P1, a row consisting of the second pixel P2, and a row consisting of the third pixel P3 are repeated in order. This arrangement is useful when you want to capture abrupt changes in the lateral direction.
  • the sequence of FIG. 9A is effective when it is desired to compare the difference between the left and right signals of the forehead, such as when the left brain is activated but the right brain is not changed.
  • FIG. 9B shows an example of an array pattern in which a row consisting of the first pixel P1, a row consisting of the second pixel P2, and a row consisting of the third pixel P3 are sequentially repeated.
  • This arrangement is useful when you want to capture abrupt changes in the vertical direction.
  • the arrangement of FIG. 9B is effective when it is desired to compare the difference between the signals above and below the forehead, for example, when it is desired to detect an event in which a change in a different tendency occurs between the cerebral blood flow and a part of the skin blood flow of the face. be.
  • FIG. 9C shows an example in which a plurality of first pixels P1, a plurality of second pixels P2, and a plurality of third pixels P3 are arranged in a checkerboard pattern. With this arrangement pattern, the signal of the entire forehead can be evaluated evenly in both the vertical direction and the horizontal direction.
  • the arrangement pattern of the first pixel P1, the second pixel P2, and the third pixel P3 uses a pixel block of N rows ⁇ M columns (N and M are arbitrary natural numbers) as a constituent unit. It may be a repeating pattern.
  • FIG. 10 is a flowchart showing an outline of the operation by the electronic circuit 130 in the second embodiment.
  • the control circuit 132 causes the light source 110 to emit an optical pulse for a predetermined time (step S201).
  • the control circuit 132 causes the image sensor 120 to start accumulating charges in each first pixel P1 (step S202).
  • the control circuit 132 causes the image sensor 120 to start accumulating charges in each third pixel P3 (step S203).
  • the control circuit 132 causes the image sensor 120 to stop the charge accumulation in each first pixel P1 (step S204).
  • step S205 When the time corresponding to the third exposure period elapses from step S203, the control circuit 132 causes the image sensor 120 to stop the charge accumulation in each third pixel P3 (step S205). After a lapse of a predetermined time from step S204, the control circuit 132 causes the image sensor 120 to start charge accumulation in each second pixel P2 (step S206). When the time corresponding to the second exposure period elapses from step S206, the control circuit 132 causes the image sensor 120 to stop the charge accumulation in each second pixel P2 (step S207).
  • the control circuit 132 determines whether or not the number of times the above charge accumulation has been executed reaches a predetermined number of times (step S208). If this determination is No, the operations of steps S201 to S207 are repeated until it is determined to be Yes. If it is determined to be Yes in step S208, the signal processing circuit 134 reads out the signal of the electric charge accumulated in each pixel of the image sensor 120.
  • the signal processing circuit 134 includes a first intensity map based on the charges accumulated in the plurality of first pixels P1, a second intensity map based on the charges accumulated in the plurality of second pixels P2, and a plurality of second intensity maps. A third intensity map based on the electric charge accumulated in the third pixel P3 is generated and output (step S209).
  • the electronic circuit 130 may generate moving image data by repeating this series of operations a plurality of times. Also in this embodiment, a plurality of times of light emission and charge accumulation are not essential, and are performed as necessary.
  • appearance information, scalp blood flow information, and cerebral blood flow information can be acquired with high time resolution.
  • the third exposure period is started before the first exposure period ends.
  • the third exposure period may be started after the first exposure period is finished. Further, the third exposure period and the second exposure period may partially overlap.
  • FIG. 11 is a timing chart showing a modified example of this embodiment.
  • the third pixel P3 is not provided, and the first pixel P1 is exposed in the first exposure period and the third exposure period. Therefore, each first pixel P1 includes a plurality of charge storage units as shown in the example shown in FIG. A first exposure period and a third exposure period are assigned to the first charge storage unit and the second charge storage unit in each first pixel P1, respectively.
  • the arrangement of the first pixel P1 and the second pixel P2 may be the arrangement shown in any of FIGS. 6A to 6D, for example. It is possible to measure with higher spatial resolution than when three types of pixels are set.
  • FIG. 12 is a timing chart showing still another modification of the present embodiment.
  • the third exposure period is started just before the start of the falling period of the reflected light pulse.
  • the first exposure period starts before the start of the rising period of the reflected light pulse and ends immediately after the end of the rising period, as in the example of FIG.
  • the signal processing circuit 134 in this example includes a first signal based on the electric charge accumulated in the first charge storage portion of the first pixel P1 in the first exposure period and the first pixel in the third exposure period. Based on the third signal based on the electric charge accumulated in the second electric charge storage unit of P1, data indicating the distance from the image sensor 120 to the subject 50 is generated and output.
  • FIG. 13 is a diagram for explaining the principle of distance calculation.
  • FIG. 13 illustrates an emission pulse Ie, a reflected light pulse Ir, a first exposure period, a second exposure period, and a third exposure period.
  • T0 be the time width of the light emission pulse and the reflected light pulse.
  • the time from when the light source 110 starts emitting the light pulse to the end of the first exposure period is t1, and the time from when the light source 110 starts emitting the light pulse to when the third exposure period is started.
  • t2 In this example, 0 ⁇ t2-t1 ⁇ T0 holds.
  • the first exposure period the charge generated by the exposure of the front end portion of the reflected light pulse is accumulated.
  • the electric charge generated by the exposure of the rear end portion of the reflected light pulse is accumulated.
  • S1 be a signal indicating the amount of electric charge accumulated in the first exposure period
  • S3 be a signal indicating the amount of electric charge accumulated in the third exposure period.
  • the intensities of the signals S1 and S3 vary depending on the distance z between the subject 50 and the image sensor 120.
  • the distance z can be calculated using the following (Equation 1).
  • Equation 1 c ( ⁇ 3.0 ⁇ 10 8 m / s) represents a speed of light.
  • the signal processing circuit 134 can obtain the distance z from the signals S1 and S3 based on (Equation 1).
  • FIG. 14 is a diagram showing still another modified example.
  • the control circuit 132 causes the light source 110 to emit the first light pulse 141 and then the second light pulse 142. With respect to the first reflected light 143 generated by the first light pulse 141, charges are accumulated in the first charge storage portion of each first pixel P1 during the first exposure period, and the second exposure Charges are accumulated in the charge storage portion of each second pixel P2 during the period.
  • the signal S1 is output from the first charge storage unit of each first pixel P1
  • the signal S2 is output from the charge storage unit of each second pixel P2.
  • the signal processing circuit 134 With respect to the second reflected light 144 generated by the second light pulse 142, charges are accumulated in the second charge storage portion of each first pixel P1 during the third exposure period, and the fourth exposure Charges are accumulated in the charge storage portion of each second pixel P2 during the period.
  • the signal S3 is output from the second charge storage unit of each first pixel P1
  • the signal S2 is output from the charge storage unit of each second pixel P2.
  • the length ta from the start time of emission of the first light pulse 141 to the start time of the first exposure period is from the start time of emission of the second light pulse 142 to the start time of the third exposure period. It is shorter than the length tb.
  • the signal processing circuit 134 generates and outputs data indicating the distance z from the image sensor 120 to the object based on the above (Equation 1) from the signals S1 and S3.
  • the distance from the image sensor 120 to the object can be calculated for each pixel by the method shown in FIG. 13 or FIG.
  • the electronic circuit 130 continuously repeats the operation of acquiring the distance information and the cerebral blood flow information of each pixel to obtain moving image data showing the two-dimensional distance distribution and the cerebral blood flow distribution over time. Can be generated.
  • the electronic circuit 130 can adjust the timing of the first to fourth exposure periods in the next measurement for each pixel based on the distance information of each pixel acquired in each measurement. With such adjustment, the signal of cerebral blood flow can be acquired with higher accuracy.
  • the electronic circuit 130 may correct the cerebral blood flow information by using the distance information acquired by the above method.
  • the light emitted from the light source 110 has a unique illuminance distribution according to the characteristics of the light source 110.
  • the level of the acquired cerebral blood flow signal varies depending on the position of the measurement point.
  • the electronic circuit 130 can measure the distance in parallel with the cerebral blood flow measurement, and correct the cerebral blood flow signal at each measurement point based on the distance from the measurement device 100 to each measurement point. can.
  • the "cerebral blood flow signal” means a signal indicating the state of cerebral blood flow of a subject, and processes a signal indicating the intensity of an internally scattered component of light from a measured portion or a signal thereof. It is a signal generated by this.
  • FIG. 15 is a diagram showing an example of time change of three types of images generated by the electronic circuit 130.
  • the electronic circuit 130 performs the operation shown in FIG. 13 or 14 to perform the first image (a), the third image (b), and the third image (b), which are the three types of images shown in FIG.
  • the operation of generating the image (c) of 2 is repeated.
  • FIG. 15 illustrates three types of images in the initial frame and three types of images in the current frame. With the passage of time, the movement (that is, body movement) of the subject 50 and the fluctuation of the blood flow in the scalp and the brain occur, and due to these influences, the brightness distribution of each image may fluctuate.
  • the control circuit 132 in the electronic circuit 130 has two types of pixels (that is, the first pixel P1 and the second pixel P2) in the image sensor 120, and three types shown in FIG. 13 or FIG.
  • the exposure is performed during the exposure period.
  • the pixel arrangement can be, for example, any of those shown in FIGS. 6A to 6D.
  • the signal processing circuit 134 in the electronic circuit 130 is a signal of the first charge storage unit of each first pixel P1 and a signal of the second charge storage unit of each first pixel P1 from the signal acquired from the image sensor 120.
  • the signals of the charge storage part of each second pixel P2 are extracted, and the first image (a), the third image (b), and the second image (c) are generated based on those signals. ..
  • the first charge storage unit of each first pixel P1 detects the front end portion of the reflected light pulse during the first exposure period and generates a first signal.
  • the signal processing circuit 134 generates a first image (a) based on those first signals.
  • the second charge storage unit of each first pixel P1 detects a component from immediately before the start of the falling period of the reflected light pulse to the end of the falling period in the third exposure period, and generates a third signal. ..
  • the signal processing circuit 134 generates a third image (b) based on those third signals.
  • the charge storage unit of each second pixel P2 detects the rear end portion of the reflected light pulse during the second exposure period and generates a second signal.
  • the signal processing circuit 134 generates a second image (c) based on those second signals.
  • the second image (c) shows the two-dimensional distribution of the internal scattering components scattered in the brain blood of the subject 50.
  • the signal processing circuit 134 calculates the distance for each pixel by performing the calculation shown in (Equation 1) above from the first signal and the third signal in each pixel.
  • the signal processing circuit 134 generates a distance image based on the calculated distance of each pixel. Further, the signal processing circuit 134 corrects the second image (c) based on the distance image.
  • FIG. 16 is a diagram schematically showing an example of a distance image generated based on the first image (a) and the third image (b).
  • the signal processing circuit 134 corrects the second image (c) based on such a distance image. More specifically, the signal processing circuit 134 generates a correction value image for correcting the second image (c) based on the distance image and the data showing the illuminance distribution of the light source 110 prepared in advance. do.
  • the signal processing circuit 134 uses the correction value image to perform correction to remove the influence of body movement from the second image (c).
  • FIG. 17 is a diagram schematically showing an operation flow for generating a correction value image used for correction processing by the signal processing circuit 134.
  • information indicating the illuminance distribution of the light source 110 acquired in advance by calibration is used. The calibration is performed before the measurement of the subject 50 is performed.
  • the information indicating the illuminance distribution represents the spatial illuminance distribution of the light emitted by the light source 110, and is given by the following (Equation 2).
  • I cor represents the brightness at a position (x, y, z) in space.
  • (X, y) represents the position of the pixel in the image, and z represents the distance calculated by (Equation 1).
  • an object such as a white plate is targeted for measurement, and exposure is performed at the timing shown in FIG. It is desirable to use a flat plate phantom whose absorption coefficient and scattering coefficient are close to those of humans as the measurement target.
  • the distance between the measuring device 100 and the white plate is changed, and a distance image and a second image (c) are acquired at a plurality of distances.
  • information on the distance z and the brightness Icor at the pixel positions (x, y) of the distance image and the second image (c) is acquired.
  • the function of (Equation 2) is obtained by the acquired data of the distance z and the brightness I cor, and the interpolation and extrapolation between the data points.
  • Interpolation between data points is not limited to interpolation and extrapolation, and various regression methods can be applied.
  • the acquisition of this illuminance distribution may be performed every time the subject is measured, or may be performed only once at the beginning.
  • the function shown in (Equation 2) may be recorded in a storage medium such as a memory 136 in the form of a table.
  • the signal processing circuit 134 can generate a correction value image as shown in the lower right of FIG. 17 by inputting the information of the distance image acquired from the subject 50 by the above method into the function of (Equation 2). can.
  • FIG. 18 is a diagram schematically showing a process of correcting the second image (c) using the correction value image.
  • the signal processing circuit 134 corrects the second image (c) by dividing the value of each pixel of the second image (c) by the value of the corresponding pixel in the correction value image.
  • the influence of the brightness fluctuation of the second image (c) due to the illuminance distribution of the light source 110 can be removed.
  • the influence of the body movement can be suppressed and the region 52 in which the cerebral blood flow changes can be clearly captured.
  • the influence of the luminance fluctuation caused by the body movement of the subject 50 can be suppressed, and the state of human cerebral blood flow can be obtained with high time resolution. It can be acquired with high accuracy.
  • FIG. 19 is a diagram showing a measurement operation according to another modification.
  • FIG. 19 shows the relationship between the two types of emission pulses and reflected light pulses having different wavelengths in this modification and the exposure periods of the two charge storage portions in each of the first pixel P1 and the second pixel P2. It is a timing chart shown.
  • the emission of the first optical pulse having the first wavelength of 650 nm or more and less than 805 nm and the second wavelength of more than 805 nm and 950 nm or less are provided within the period of each frame.
  • the emission of the second light pulse is repeated alternately.
  • the operations of the first frame and the second frame shown in FIG. 19 are alternately repeated at a predetermined frame rate.
  • the exposure periods of the two charge storage portions in each of the first pixels P1 are different between the first frame and the second frame.
  • the front end portions of the reflected light pulses of the first wavelength and the second wavelength are detected, respectively. It is controlled to be exposed in a certain exposure period.
  • the exposure period starts before the start of the rising period of the reflected light pulse and ends immediately after the end of the rising period.
  • the first charge storage unit and the second charge storage unit in each of the first pixels P1 are the rear end portions of the reflected light pulses of the first wavelength and the second wavelength, respectively.
  • the components containing the above are controlled to be exposed during the detection period.
  • the exposure period starts immediately before the start of the falling period of the reflected light pulse and ends in the middle of the falling period or after the end of the falling period.
  • the rear end portions of the reflected light pulses of the first wavelength and the second wavelength are detected in the first charge storage portion and the second charge storage portion in each second pixel P2, respectively. It is controlled to be exposed in a certain exposure period.
  • the exposure period starts after the start of the falling period of the reflected light pulse and ends after the end of the falling period.
  • the period during which the measurement operation of the first frame is performed is referred to as the "first measurement period”
  • the period during which the measurement operation of the second frame is performed is referred to as the "second measurement period”.
  • the exposure period of the first charge storage portion of the first pixel P1 is defined as the "first exposure period”
  • the exposure period of the second charge storage portion of the first pixel P1 is defined as the "first exposure period”.
  • the exposure period of 3 is defined in the second measurement period.
  • the exposure period of the first charge storage portion of the first pixel P1 is defined as the "fourth exposure period”
  • the exposure period of the second charge storage portion of the first pixel P1 is set to "second exposure period”.
  • the exposure period of 5 is set to "second exposure period”.
  • each of the exposure periods of each charge storage portion of the second pixel is referred to as a “second exposure period”.
  • the first exposure period starts when the first time t1 elapses from the time when the first optical pulse is emitted in the first measurement period.
  • the third exposure period starts when the second time t2 elapses from the time when the second light pulse is emitted in the first measurement period.
  • the fourth exposure period starts when a third time t3 elapses from the time when the first optical pulse is emitted in the second measurement period.
  • the fifth exposure period starts when the fourth time t4 elapses from the time when the second light pulse is emitted in the second measurement period.
  • the third time t3 is different from the first time t1, and the fourth time t4 is different from the second time t2.
  • the first time t1 and the second time t2 are equal, and the third time t3 and the fourth time t4 are equal.
  • the first time t1 and the second time t2 may be different, and the third time t3 and the fourth time t4 may be different.
  • the signal processing circuit 134 uses the signal of the first charge storage unit of each first pixel acquired in the first exposure period and the fourth exposure period, and / or the third exposure period and the fifth exposure. From the measuring device 100 to the measuring point corresponding to the pixel by performing the calculation based on the above (Equation 1) based on the signal of the second charge storage unit of each first pixel acquired in the period. You can find the distance. Further, the signal processing circuit 134 indicates the state of cerebral blood flow based on the signals of the first charge storage portion and the second charge storage portion of each second pixel acquired in the second exposure period. Generate blood flow information. The signal processing circuit 134 may correct the cerebral blood flow information based on the distance information by the above-mentioned method.
  • the time difference between the acquisition timings of the images of each wavelength is shortened, and the information of the two types of wavelengths can be acquired with high time resolution. This makes it possible to capture more subtle changes in cerebral blood flow.
  • the measuring device in the present disclosure is particularly useful for biological sensing for humans because it can measure in a non-contact manner and with high time resolution.
  • Target person 100 Measuring device 110
  • Light source 120
  • Image sensor 122
  • Photoelectric conversion unit 124
  • Charge storage unit 130
  • Electronic circuit 132
  • Control circuit 134

Abstract

計測装置は、光源と、第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、電子回路とを備える。前記電子回路は、前記光源に光パルスを出射させ、第1の光検出セルに、前記光パルスに起因して生じた対象物からの反射光パルスの強度が増加を開始してから減少を開始するまでの期間の少なくとも一部を含む第1の露光期間において、前記反射光パルスを検出させることによって第1の信号を生成させ、前記第2の光検出セルに、前記反射光パルスの強度が減少を開始してから減少を終了するまでの立ち下がり期間の少なくとも一部を含む第2の露光期間において、前記反射光パルスを検出させることによって第2の信号を生成させる。前記電子回路は、前記第1の信号に基づき前記対象物の表面の状態を示す第1のデータを生成して出力し、前記第2の信号に基づき前記対象物の内部の状態を示す第2のデータを生成して出力する。

Description

計測装置および計測装置を制御する方法
 本開示は、計測装置および計測装置を制御する方法に関する。
 対象者の脳活動に起因する生体信号を計測する種々の方法が開発されている。例えば特許文献1は、対象物に接触しない状態で、対象者の脳血流の経時変化を示す情報を取得する撮像装置の例を開示している。
特開2017―009584号公報
 本開示は、計測対象における浅部および深部の情報を、従来よりも高い時間分解能で取得することを可能にする技術を提供する。
 本開示の一態様に係る計測装置は、対象物に向けて第1の光パルスを出射する光源と、第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、前記光源および前記センサを制御し、前記センサから出力された信号を処理する電子回路と、を備える。前記電子回路は、前記光源に第1の光パルスを出射させ、前記第1の光検出セルに、前記第1の光パルスに起因して生じた前記対象物からの第1の反射光パルスの強度が増加を開始してから減少を開始するまでの期間の少なくとも一部を含む第1の露光期間において、前記第1の反射光パルスを検出させることによって第1の信号を生成させ、前記第2の光検出セルに、前記第1の反射光パルスの強度が減少を開始してから減少を終了するまでの立ち下がり期間の少なくとも一部を含む第2の露光期間において、前記第1の反射光パルスを検出させることによって第2の信号を生成させ、前記第1の信号に基づき、前記対象物の表面の状態を示す第1のデータを生成して出力し、前記第2の信号に基づき、前記対象物の内部の状態を示す第2のデータを生成して出力する。
 本開示の包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能な記録ディスク等の記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意の組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD-ROM(Compact Disc‐Read Only Memory)等の不揮発性の記録媒体を含み得る。装置は、1つ以上の装置で構成されてもよい。装置が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されてもよく、分離した2つ以上の機器内に分かれて配置されてもよい。本明細書および特許請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
本開示の計測装置によれば、計測対象における浅部および深部の情報を、従来よりも高い時間分解能で取得することが可能になる。
図1は、実施形態1による計測装置を示す模式図である。 図2Aは、発光パルスがインパルス波形を有する例を示す図である。 図2Bは、発光パルスが矩形状の波形を有する例を示す図である。 図3は、イメージセンサの構成の一例を示す図である。 図4Aは、1フレーム内の動作の例を示す図である。 図4Bは、2種類の波長の光による検出動作の他の例を示す図である。 図5は、発光パルスおよび反射光パルスのタイミングと、各露光期間との関係を説明するための模式図である。 図6Aは、イメージセンサにおける露光期間の異なる2種類の画素の配列パターンの例を示す図である。 図6Bは、イメージセンサにおける露光期間の異なる2種類の画素の配列パターンの他の例を示す図である。 図6Cは、イメージセンサにおける露光期間の異なる2種類の画素の配列パターンのさらに他の例を示す図である。 図6Dは、イメージセンサにおける露光期間の異なる2種類の画素の配列パターンのさらに他の例を示す図である。 図7は、実施形態1における動作の概略を示すフローチャートである。 図8は、実施形態1における発光パルスおよび反射光パルスのタイミングと、各露光期間との関係を説明するための模式図である。 図9Aは、イメージセンサにおける露光期間の異なる3種類の画素の配列パターンの例を示す図である。 図9Bは、イメージセンサにおける露光期間の異なる3種類の画素の配列パターンの他の例を示す図である。 図9Cは、イメージセンサにおける露光期間の異なる3種類の画素の配列パターンのさらに他の例を示す図である。 図9Dは、イメージセンサにおける露光期間の異なる3種類の画素の配列パターンのさらに他の例を示す図である。 図10は、実施形態2における動作の概略を示すフローチャートである。 図11は、実施形態2の変形例を示すタイミングチャートである。 図12は、実施形態2の他の変形例を示すタイミングチャートである。 図13は、距離演算の原理を説明するための図である。 図14は、さらに他の変形例を示す図である。 図15は、生成される3種類の画像の時間変化の例を示す図である。 図16は、距離画像の例を示す図である。 図17は、補正処理に用いられる補正値画像を生成する動作の流れを模式的に示す図である。 図18は、補正値画像を用いた補正処理を模式的に示す図である。 図19は、さらに他の変形例による計測動作を示す図である。
 以下で説明される実施形態は、いずれも包括的または具体的な例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、およびステップの順序は、一例であり、本開示の技術を限定する趣旨ではない。以下の実施形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。各図は模式図であり、必ずしも厳密に図示されたものではない。さらに、各図において、実質的に同一または類似の構成要素には同一の符号が付されている。重複する説明は省略または簡略化されることがある。
 本開示において、回路、ユニット、装置、部材または部の全部または一部、またはブロック図における機能ブロックの全部または一部は、例えば、半導体装置、半導体集積回路(IC)、またはLSI(large scale integration)を含む1つまたは複数の電子回路によって実行され得る。LSIまたはICは、1つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、1つのチップに集積されてもよい。ここでは、LSIまたはICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、もしくはULSI(ultra large scale integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、Field Programmable Gate Array(FPGA)、またはLSI内部の接合関係の再構成またはLSI内部の回路区画のセットアップができるreconfigurable logic deviceも同じ目的で使うことができる。
 さらに、回路、ユニット、装置、部材または部の全部または一部の機能または操作は、ソフトウェア処理によって実行することが可能である。この場合、ソフトウェアは1つまたは複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウェアが処理装置(processor)によって実行されたときに、そのソフトウェアで特定された機能が処理装置(processor)および周辺装置によって実行される。システムまたは装置は、ソフトウェアが記録されている1つまたは複数の非一時的記録媒体、処理装置(processor)、および必要とされるハードウェアデバイス、例えばインターフェースを備えていてもよい。
 まず、本開示の実施形態の概要を説明する。
 本開示の例示的な実施形態による計測装置は、対象物に向けて第1の光パルスを出射する光源と、第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、前記光源および前記センサを制御し、前記センサから出力された信号を処理する電子回路とを備える。前記電子回路は、以下の(a)から(e)の動作を実行する。
(a)前記電子回路は、前記光源に第1の光パルスを出射させる。
(b)前記電子回路は、前記第1の光検出セルに、前記第1の光パルスに起因して生じた前記対象物からの第1の反射光パルスの強度が増加を開始してから減少を開始するまでの期間の少なくとも一部を含む第1の露光期間において、前記第1の反射光パルスを検出させることによって第1の信号を生成させる。
(c)前記電子回路は、前記第2の光検出セルに、前記第1の反射光パルスの強度が減少を開始してから減少を終了するまでの立ち下がり期間の少なくとも一部を含む第2の露光期間において、前記第1の反射光パルスを検出させることによって第2の信号を生成させる。
(d)前記電子回路は、前記第1の信号に基づき、前記対象物の表面の状態を示す第1のデータを生成して出力する。
(e)前記電子回路は、前記第2の信号に基づき、前記対象物の内部の状態を示す第2のデータを生成して出力する。
 ここで、「対象物」は、例えば人間の頭部などの生体であり得る。光源からの光パルスは、例えば人間の額部に向けて出射され得る。光パルスが額部に入射すると、その表面および内部で反射または散乱が生じ、反射光パルスが生じる。反射光パルスは、対象物の表面で反射される表面反射成分と、対象物の内部で散乱される内部散乱成分とを含む。センサは、反射光パルスを、第1の露光期間において第1の光検出セルで受光し、受光量に応じた第1の信号を生成する。センサはまた、当該反射光パルスを第2の露光期間において第2の光検出セルで受光し、受光量に応じた第2の信号を生成する。第1の信号は、対象物の表面付近で反射または散乱されて戻ってきた光の成分の強度を反映する。第2の信号は、対象物のより深部の内部組織で散乱されて戻ってきた光の成分の強度を反映する。電子回路は、第1の信号に基づき、対象物の表面の状態を反映した第1のデータを生成する。以下の説明において、第1のデータを「表層データ」と称することがある。電子回路はまた、第2の信号に基づき、対象物の内部の状態を反映した第2のデータを生成する。以下の説明において、第2のデータを「深部データ」と称することがある。電子回路は、第1の信号そのものを第1のデータとして出力してもよいし、第1の信号を用いた演算によって新たに生成したデータを第1のデータとして出力してもよい。同様に、電子回路は、第2の信号そのものを第2のデータとして出力してもよいし、第2の信号を用いた演算によって新たに生成した信号を第2のデータとして出力してもよい。計測対象部位が人間の額部である場合、第2のデータは、例えば人間の脳活動の状態に依存する。
 上記の構成によれば、センサは、反射光パルスのうち、比較的早期に戻ってくる成分を第1の光検出セルで検出し、比較的遅く戻ってくる成分を第2の光検出セルで検出することができる。このため、1つの光検出セルでこれらの2つの成分を検出する場合と比較して、時間分解能を高くすることができる。
 前記第2の露光期間は、前記第1の反射光パルスの前記立ち下がり期間の開始よりも後に開始してもよい。そのような構成によれば、対象物のより深部の情報をより高い精度で取得することができる。
 前記第1の露光期間は、前記第1の反射光パルスの強度が増加を開始してから増加を終了するまでの立ち上がり期間の少なくとも一部を含んでいてもよい。そのような構成によれば、対象物のより表層の情報をより高い精度で取得することができる。
 前記第1の露光期間は、前記立ち下がり期間の開始よりも前に終了してもよい。そのような構成によれば、第1の露光期間と第2の露光期間との重なりを少なくすることができるため、表層の情報と深部の情報とをより高い精度で取得することができる。
 本明細書において、光パルスの「立ち上がり期間」は、センサの受光面の位置において、当該光パルスの強度が増加を開始する時点から増加を終了する時点までの期間を指す。より厳密には、「立ち上がり期間」は、当該光パルスの強度が予め設定された下限値を越えた時点から予め設定された上限値に達した時点までの期間として定義される。下限値は当該光パルスの強度のピーク値の例えば10%の値に設定され、上限値は当該ピーク値の例えば90%の値に設定され得る。一方、光パルスの「立ち下がり期間」は、センサの受光面の位置において、当該光パルスの強度が減少を開始する時点から減少を終了する時点までの期間を指す。より厳密には、「立ち下がり期間」は、当該光パルスの強度が予め設定された上限値を下回った時点から予め設定された下限値に達した時点までの期間を意味する。立ち下がり期間についても、上限値は当該光パルスの強度のピーク値の例えば90%の値に設定され、下限値は当該ピーク値の例えば10%の値に設定され得る。
 前記複数の光検出セルは、前記第1の光検出セルを含む複数の第1の光検出セルと、前記第2の光検出セルを含む複数の第2の光検出セルとを含んでいてもよい。その場合、前記電子回路は、以下の動作を実行してもよい。
(b1)前記電子回路は、前記複数の第1の光検出セルの各々に、前記第1の露光期間において、前記第1の反射光パルスを検出させることによって前記第1の信号を生成させる。
(c1)前記電子回路は、前記複数の第2の光検出セルの各々に、前記第2の露光期間において、前記第1の反射光パルスを検出させることによって前記第2の信号を生成させる。
(d1)前記電子回路は、前記複数の第1の光検出セルの各々から出力された前記第1の信号を含む複数の第1の信号に基づき、前記第1のデータを生成して出力する。
(e1)前記電子回路は、前記複数の第2の光検出セルの各々から出力された前記第2の信号を含む複数の第2の信号に基づき、前記第2のデータを生成して出力する。
 上記の構成によれば、対象物の表層の情報と深部の情報とを、より広い範囲にわたって取得することができる。
 前記複数の第1の光検出セルの数は、前記複数の第2の光検出セルの数よりも少なくてもよいし、多くてもよいし、同数であってもよい。
 前記センサはイメージセンサであってもよい。前記複数の光検出セルは、行列状に配列されていてもよい。前記電子回路は、前記複数の第1の信号に基づく画像データを前記第1のデータとして生成し、前記複数の第2の信号に基づく画像データを前記第2のデータとして生成してもよい。そのような構成によれば、対象物の表層の状態を示す画像データと、対象物の内部の状態を示す画像データとを出力することができる。それらの画像データに基づく画像をディスプレイに表示することにより、対象物の表層および内部の状態を可視化することができる。
 行列状に配列された複数の光検出セルの配列パターンには様々な形態が考えられる。例えば、前記複数の第1の光検出セルからなる行または列と、前記複数の第2の光検出セルからなる行または列とが、交互に並んでいてもよい。あるいは、前記複数の第1の光検出セルおよび前記複数の第2の光検出セルは、市松(checkerboard)状に配列されていてもよい。
 前記対象物が人間の頭部を含む場合、前記第1のデータは、前記頭部における顔の外観を示していてもよい。また、前記第2のデータは、前記頭部の脳血流の状態を示していてもよい。そのような構成によれば、顔画像と脳血流の状態を示す画像とを生成し、表示することができる。
 前記複数の光検出セルは第3の光検出セルをさらに含んでいてもよい。前記電子回路は、前記第1の露光期間および前記第2の露光期間とは異なる第3の露光期間において、前記第1の光検出セルまたは前記第3の光検出セルに、前記第1の反射光パルスを検出させることによって第3の信号をさらに生成させてもよい。電子回路は、第3の信号に基づく第3のデータをさらに生成し出力してもよい。第3のデータは、例えば頭皮血流の状態を示していてもよい。そのような構成によれば、例えば顔の外観を示す第1のデータと、脳血流の状態を示す第2のデータと、頭皮血流の状態を示す第3のデータという3種類のデータを生成することができる。
 前記電子回路は、前記第3の露光期間において、前記第1の光検出セルに前記第3の信号を生成させ、前記第1の信号と前記第3の信号とに基づき、前記センサから前記対象物までの距離を示すデータを生成して出力してもよい。そのような構成によれば、対象物の表層の情報および内部の情報だけでなく、距離の情報も取得することができる。
 前記光源は、前記対象物に向けて第2の光パルスをさらに出射してもよい。前記電子回路は、さらに、以下の動作を実行してもよい。
(a2)前記電子回路は、前記光源に、前記第1の光パルスを出射させた後、前記第2の光パルスを出射させる。
(b2)前記電子回路は、前記第1の光検出セルに、前記第2の光パルスに起因して生じた前記対象物からの第2の反射光パルスの強度が減少を開始してから減少を終了するまでの立ち下り期間の少なくとも一部を含む第3の露光期間において、前記第2の反射光パルスを検出させることによって第3の信号を生成させる。ここで、前記第1の光パルスの出射開始時点から前記第1の露光期間の開始時点までの長さは、前記第2の光パルスの出射開始時点から前記第3の露光期間の開始時点までの長さとは異なっていてもよい。
(c2)前記電子回路は、前記第2の光検出セルに、前記第2の反射光パルスの立ち下がり期間の少なくとも一部を含み、第3の露光期間とは異なる第4の露光期間において、前記第2の反射光パルスを検出させることによって第4の信号を生成させる。
(d2)前記電子回路は、前記第1の信号および前記第3の信号に基づき、前記センサから前記対象物までの距離を示すデータを生成して出力する。
 ここで、距離を示すデータを前述の「第1のデータ」として生成してもよいし、前述の「第1のデータ」とは独立したデータとして生成してもよい。
 前記対象物が人の頭部を含む場合、前記電子回路は、前記第1の信号と前記第2の信号とに基づいて、前記人の心理状態または身体状態を示すデータを生成して出力してもよい。前記データは、例えば、前記人の興味、感情、眠気、集中度、または疲労などの状態を示していてもよい。例えば第1の信号が示す表情の情報と、第2の信号が示す脳活動の情報とを組み合わせることにより、人の心理状態または身体状態を推定することができる。
 前記センサが前記第3の信号および前記第4の信号を生成する場合、前記電子回路は、前記第1の信号および前記第2の信号に加え、前記第3の信号および前記第4の信号をさらに利用して、前記人の心理状態または身体状態を示すデータを生成してもよい。例えば、前記第3の信号が頭皮血流の状態を示す場合、人の表情および脳血流の状態を示す情報に加え、頭皮血流の状態を示す情報を利用することにより、心理状態または身体状態をより高い精度で推定することができる。
 前記光源は、前記対象物に向けて第2の光パルスをさらに出射してもよい。前記第2の光パルスの波長は、前記第1の光パルスの波長と異なっていてもよい。前記第1の露光期間は、前記第1の光パルスの出射開始時点から第1の時間が経過したときに開始してもよい。前記電子回路は、さらに以下の動作を実行してもよい。
(a3)前記電子回路は、第1の計測期間および第2の計測期間のそれぞれにおいて、前記光源に、前記第1の光パルスと、前記第2の光パルスとを出射させる。
(b3)前記電子回路は、前記第1の光検出セルに、前記第1の計測期間に含まれる前記第1の露光期間において、前記第1の反射光パルスを検出させ、かつ前記第1の計測期間における前記第2の光パルスの出射開始時点から第2の時間が経過したときに開始する第3の露光期間において、前記第2の光パルスに起因して生じた前記対象物からの第2の反射光パルスを検出させることによって前記第1の信号を生成させる。
(c3)前記電子回路は、前記第1の光検出セルに、前記第2の計測期間における前記第1の光パルスの出射開始時点から第3の時間が経過したときに開始する第4の露光期間において、前記第1の反射光パルスを検出させ、かつ前記第2の計測期間における前記第2の光パルスの出射開始時点から第4の時間が経過したときに開始する第5の露光期間において、前記第2の反射光パルスを検出させることによって第3の信号を生成させる。
(d3)前記電子回路は、前記第1の信号と前記第3の信号に基づいて、前記センサから前記対象物までの距離を示すデータを生成する。
 この例において、前記第3の時間は、前記第1の時間と異なり、前記第4の時間は、前記第2の時間と異なっていてもよい。
 上記の動作により、後に図19を参照して説明するように、センサから対象物までの距離を示すデータを2つの連続する計測期間ごとに生成することができる。センサがイメージセンサである場合、前記電子回路は、第1の信号および第3の信号に基づく距離画像と、第2の信号に基づく画像とを繰り返し生成してもよい。その場合、第1の計測期間および第2の計測期間を、それぞれ第1のフレーム期間および第2のフレーム期間と称することがある。
 前記電子回路は、以下の動作を実行してもよい。
(a4)前記電子回路は、前記光源に1つ以上の光パルスを出射させる。
(b4)前記電子回路は、前記センサにおける前記第1の光検出セルに、前記1つ以上の光パルスに起因して生じた生体からの1つ以上の反射光パルスの第1の成分を検出させることによって第1の信号を生成させる。
(c4)前記電子回路は、前記センサにおける前記第2の光検出セルに、前記1つ以上の反射光パルスの第2の成分を検出させることによって第2の信号を生成させる。
(d4)前記電子回路は、前記センサにおける前記第1の光検出セルに、前記1つ以上の反射光パルスの第3の成分を検出させることによって第3の信号を生成させる。
(e4)前記電子回路は、前記第1の信号および前記第3の信号に基づき、前記センサから前記生体までの距離を示す第1のデータを生成する。
(f4)前記第2の信号に基づき、前記生体の血流の状態を示す第2のデータを生成する。
 このような動作により、距離を示す第1のデータと、生体の血流の状態を示す第2のデータとを、高い分解能で生成することができる。
 前記電子回路は、前記第1のデータに基づいて、前記第2のデータを補正してもよい。そのような補正を行うことにより、計測中に生体が動いた場合であっても、生体の血流情報を高い精度で取得することができる。
 前記電子回路は、前記1つ以上の光パルスの照度の空間分布を示すデータ、および前記第1のデータに基づいて、前記第2のデータを補正してもよい。照度の空間分布を示すデータは、計測前に予め用意され、記憶媒体に格納され得る。前記センサから対象物までの距離を示す第1のデータと、照度の空間分布を示すデータとに基づいて、生体の血流状態を示す第2のデータを補正する方法の詳細については、図15から図18を参照して後述する。
 本開示の一態様に係る方法は、光源と、第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、を備える計測装置を制御する方法であって、前記光源に光パルスを出射させることと、前記第1の光検出セルに、前記光パルスに起因して生じた対象物からの反射光パルスの強度が増加を開始してから減少を開始するまでの期間の少なくとも一部を含む第1の露光期間において、前記反射光パルスを検出させることによって第1の信号を生成させることと、前記第2の光検出セルに、前記反射光パルスの強度が減少を開始してから減少を終了するまでの立ち下がり期間の少なくとも一部を含む第2の露光期間において、前記反射光パルスを検出させることによって第2の信号を生成させることと、前記第1の信号に基づき、前記対象物の表面の状態を示す第1のデータを生成して出力することと、前記第2の信号に基づき、前記対象物の内部の状態を示す第2のデータを生成して出力することと、を含む。
 本開示の他の一態様に係る方法は、光源と、第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、を備える計測装置を制御する方法であって、前記光源に1つ以上の光パルスを出射させることと、前記第1の光検出セルに、前記1つ以上の光パルスに起因して生じた生体からの1つ以上の反射光パルスの第1の成分を検出させることによって第1の信号を生成させることと、前記第2の光検出セルに、前記1つ以上の反射光パルスの第2の成分を検出させることによって第2の信号を生成させることと、前記第1の光検出セルに、前記1つ以上の反射光パルスの第3の成分を検出させることによって第3の信号を生成させることと、前記第1の信号および前記第3の信号に基づき、前記センサから前記生体までの距離を示す第1のデータを生成することと、前記第2の信号に基づき、前記生体の血流の状態を示す第2のデータを生成することと、を含む。
 本開示の他の実施形態による装置は、1つ以上のプロセッサと、前記1つ以上のプロセッサによって実行されるコンピュータプログラムを格納する記憶媒体とを備える。前記プロセッサは、前記コンピュータプログラムを実行することにより、前述のいずれかの例における電子回路の機能を実行してもよい。
 本開示は、前述の電子回路の機能を規定するコンピュータプログラム、および前述の電子回路が実行する制御方法を含む。
 以下、図面を参照しながら、本開示の例示的な実施形態をより具体的に説明する。
 (実施形態1)
 [1.計測装置100]
 図1は、本開示の例示的な第1の実施形態による計測装置100を示す模式図である。この計測装置100は、光源110と、イメージセンサ120と、電子回路130とを備える。イメージセンサ120は、複数の光検出セルを備える。各光検出セルは、光電変換部122と、1つ以上の電荷蓄積部124とを含む。電子回路130は、制御回路132と、信号処理回路134と、メモリ136などの記憶媒体とを含む。
 図1には、計測装置100による計測の対象物である対象者50の頭部も示されている。なお、対象物は、人の頭部に限られない。対象物は、人間以外の動物または植物などの他の種類の生体であってもよい。用途によっては、対象物は、生体以外の物体であってもよい。例えば、液体、気体、食品などの散乱体を対象物にしてもよい。
 本実施形態の計測装置100は、観測すべき対象者50の頭皮血流および脳血流の状態を示す情報を非接触で取得することができる。計測装置100は、例えば、対象者50の脳内の酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの少なくとも一方の濃度分布を示す2次元画像のデータを生成してもよい。あるいは、計測装置100は、対象者50の脳活動に起因して変動する他の種類のデータを生成してもよい。
 イメージセンサ120における複数の光検出セルは、第1の光検出セルと、第2の光検出セルとを含む。以下の説明において、光検出セルを「画素」と称し、第1の光検出セルを「第1の画素P1」と称し、第2の光検出セルを「第2の画素P2」と称することがある。イメージセンサ120は、例えば、第1の光検出セルによって対象者50の顔の外観または頭皮血流に関する情報を取得し、第2の光検出セルによって脳血流に関する情報を取得することができる。信号処理回路134は、対象者50の顔の外観または頭皮血流の状態を示す表層データと、脳血流の状態を示す深部データとを生成する処理を、高い時間分解能で実行することができる。
 以下、各構成要素の詳細を説明する。
 [1-1.光源110]
 光源110は、対象者50の頭部、例えば額を含む対象部に向けて光を出射するように配置される。光源110から出射されて対象者50に到達した光は、対象者50の表面で反射される表面反射成分I1と、対象者50の内部で散乱される内部散乱成分I2とに分かれる。内部散乱成分I2は、生体内部で1回反射もしくは散乱、または多重散乱される成分である。本実施形態のように人の額部に向けて光が出射される場合、内部散乱成分I2は、額部の表面から奥に8mmから16mmほどの部位、例えば脳に到達し、再び計測装置100に戻る成分を指す。表面反射成分I1は、直接反射成分、拡散反射成分、および散乱反射成分の3つの成分を含む。直接反射成分は、入射角と反射角とが等しい反射成分である。拡散反射成分は、表面の凹凸形状によって拡散して反射する成分である。散乱反射成分は、表面近傍の内部組織によって散乱して反射する成分である。人の頭部に向けて光を出射する場合、散乱反射成分は、表皮内部で散乱して反射する成分である。表面反射成分I1は、これらの3つの成分を含み得る。表面反射成分I1および内部散乱成分I2は、反射または散乱によって進行方向が変化し、その一部がイメージセンサ120に到達する。表面反射成分I1は、対象者50の表面情報、例えば、顔および頭皮の血流情報を含む。内部散乱成分I2は、対象者50の内部情報、例えば、脳血流情報を含む。
 本実施形態では、対象者50の頭部から戻って来る反射光のうち、表面反射成分I1および内部散乱成分I2が検出される。表面反射成分I1は、対象者50の顔の外観または頭皮血流の状態を反映する。このため、表面反射成分I1の経時変化を解析することによって対象者50の顔の外観または頭皮血流の状態の変化を推定することができる。一方、内部散乱成分I2は、対象者50の脳活動を反映してその強度が変動する。このため、内部散乱成分I2の経時変化を解析することによって対象者50の脳活動の状態を推定することができる。
 内部散乱成分I2の取得方法について説明する。光源110は、制御回路132からの指示に従い、光パルスを所定の時間間隔または所定のタイミングで複数回繰り返し出射する。光源110から出射される光パルスは、例えば、光パルスの強度の減少の開始から終了までの期間である立ち下がり期間の長さがゼロに近い矩形波であり得る。一般に、対象者50の頭部に入射した光は、様々な経路で頭部内を伝搬し、時間差を伴ってその表面から出射する。このため、光パルスの内部散乱成分I2の時間的な後端部分は、時間的な広がりを有する。対象部が額である場合、内部散乱成分I2の時間的な後端の広がりは、4ns程度である。このことを考慮すると、光パルスの強度の減少の開始から終了までの期間である立ち下がり期間の長さは、例えばその半分以下である2ns以下に設定され得る。立ち下がり期間は、さらにその半分の1ns以下であってもよい。光源110から出射される光パルスの立ち上がり期間の長さは任意である。本実施形態における内部散乱成分I2の検出では、光パルスのうち強度が立ち下がる部分である立ち下がり部分が使用され、強度が立ち上がる部分である立ち上がり部分は使用されない。光パルスの立ち上がり部分は、表面反射成分I1の検出に用いられる。
 光源110は、例えば、レーザダイオード(LD)などのレーザ素子を含み得る。レーザ素子から出射される光は、光パルスの立ち下がり部分が時間軸に略直角である、急峻な時間応答特性を有するように調整され得る。光源110は、LDの駆動電流を制御する駆動回路を含んでいてもよい。駆動回路は、例えば窒化ガリウム(GaN)半導体を含む電界効果トランジスタ(GaN FET)などのエンハンスメントモードパワートランジスタを含み得る。そのような駆動回路を用いることで、LDから出力される光パルスの立ち下がりを急峻にすることができる。
 光源110から出射される光の波長は、例えば650nm以上950nm以下の波長範囲に含まれる任意の波長であり得る。この波長範囲は、赤色から近赤外線の波長範囲に含まれる。上記の波長範囲は、「生体の窓」と呼ばれており、光が生体内の水分および皮膚に比較的吸収されにくいという性質を有する。生体を検出対象にする場合、上記の波長範囲の光を使用することにより、検出感度を高くすることができる。本実施形態のように、人の脳の血流変化を検出する場合、使用される光は、主に酸素化ヘモグロビン(HbO)および脱酸素化ヘモグロビン(Hb)に吸収されると考えられる。酸素化ヘモグロビンと脱酸素化ヘモグロビンとでは、光吸収の波長依存性が異なる。一般に、血流に変化が生じると、酸素化ヘモグロビンおよび脱酸素化ヘモグロビンの濃度が変化する。この変化に伴い、光の吸収度合いも変化する。したがって、血流が変化すると、検出される光量も時間的に変化する。
 光源110は、上記の波長範囲に含まれる単一の波長の光を出射してもよいし、2つ以上の波長の光を出射してもよい。複数の波長の光は、複数の光源からそれぞれ出射されてもよい。
 一般に、生体組織は波長に応じて吸収特性および散乱特性が異なる。このため、内部散乱成分I2による光信号の波長依存性を検出することで測定対象のより詳細な成分分析が可能になる。例えば、生体組織においては、波長が650nm以上805nm未満のとき、脱酸素化ヘモグロビンによる光吸収係数が、酸素化ヘモグロビンによる光吸収係数よりも大きい。波長が805nmよりも長く950nm以下であるとき、酸素化ヘモグロビンによる光吸収係数が、脱酸素化ヘモグロビンによる光吸収係数よりも大きい。
 したがって、光源110は、650nm以上805nm未満(例えば約750nm)の波長の光と、805nmよりも長く950nm以下(例えば約850nm)の波長の光とを出射するように構成されていてもよい。この場合、例えば約750nmの波長の光による内部散乱成分I2の光強度と、例えば約850nmの波長の光による内部散乱成分I2の光強度とが計測される。光源110は、650nm以上805nm未満の波長の光を出射する第1発光素子と、805nm超950nm以下の波長の光を出射する第2発光素子とを含んでいてもよい。信号処理回路134は、画素ごとに入力された光強度の信号値に基づいて、予め定められた連立方程式を解くことにより、血液中のHbOとHbの各濃度の、初期値からの変化量を求めることができる。
 本実施形態における計測装置100では、非接触で対象者50の脳血流が計測される。このため、網膜への影響を考慮して設計された光源110が用いられ得る。例えば、各国で策定されているレーザ安全基準のクラス1を満足する光源110が用いられ得る。クラス1が満足されている場合、被爆放出限界(AEL)が1mWを下回るほどの低照度の光が、対象者50に照射される。なお、光源110自体はクラス1を満たしていなくてもよい。例えば、拡散板またはNDフィルタを光源110と対象者50との間に配置して光を拡散または減衰させることにより、レーザ安全基準のクラス1が満たされていてもよい。
 従来、生体内部の深さ方向において異なる場所における吸収係数または散乱係数などの情報を区別して検出するために、ストリークカメラが使用されている。例えば、特開平4-189349は、そのようなストリークカメラの一例を開示している。これらのストリークカメラでは、所望の空間分解能で測定するために、パルス幅がフェムト秒またはピコ秒の極超短光パルスが用いられる。
 これに対し、本実施形態の計測装置100は、表面反射成分I1と内部散乱成分I2とを区別して検出することができる。したがって、光源110が発する光パルスは、極超短光パルスである必要はなく、パルス幅を任意に選択できる。
 脳血流を計測するために人の頭部を光で照射する場合、内部散乱成分I2の光量は、表面反射成分I1の光量の数千分の1から数万分の1程度の非常に小さい値になり得る。さらに、レーザの安全基準を考慮すると、照射できる光の光量は、極めて小さくなる。したがって、内部散乱成分I2の検出は非常に難しい。その場合でも、光源110が、比較的パルス幅の大きい光パルスを出射すれば、時間遅れを伴う内部散乱成分I2の積算量を増加させることができる。それにより、検出光量を増やし、信号対ノイズ(SN)比を向上させることができる。
 図2Aおよび図2Bは、発光パルスIe、反射光パルスにおける表面反射成分I1および内部散乱成分I2の強度の時間変化の例を示す図である。図2Aは、発光パルスIeがインパルス波形を有する場合における各波形の例を示している。図2Bは、発光パルスIeが矩形状の波形を有する場合における各波形の例を示している。内部散乱成分I2は、実際には微弱であるが、図2Aおよび図2Bにおいては、内部散乱成分I2の強度が強調されて示されている。
 図2Aに示すように、発光パルスIeがインパルス波形を有する場合、表面反射成分I1は、光パルスIeと同様のインパルス波形を有し、内部散乱成分I2は、表面反射成分I1よりも遅延するインパルス応答波形を有する。これは、内部散乱成分I2が皮膚内部の様々な経路を通過した光線の組み合わせに相当するからである。
 図2Bに示すように、光パルスIeが矩形形状の波形を有する場合、表面反射成分I1は、光パルスIeと同様の矩形状の波形を有し、内部散乱成分I2は、多数のインパルス応答波形が重畳された波形を有する。本発明者らは、多数のインパルス応答波形の重畳により、光パルスIeがインパルス波形を有する場合と比較して、イメージセンサ120が検出する内部散乱成分I2の光量を増幅できることを確認した。反射光パルスの強度の立ち下がりが開始するタイミング以降で電子シャッタの開放を開始することにより、内部散乱成分I2を効果的に検出することができる。図2Bの右側のグラフにおける破線枠は、イメージセンサ120の電子シャッタが開放されるシャッタ開放期間の例を表す。このシャッタ開放期間を「露光期間」とも称する。矩形パルスのパルス幅が1nsから10nsのオーダであれば、光源110を比較的低い電圧で駆動することができ、計測装置100の小型化および低コスト化が可能である。内部散乱成分I2を効果的に検出するために、本実施形態では、イメージセンサ120に到達する表面反射成分I1の強度の立ち下がりが開始するタイミング以降に露光が開始される。
 光源110は、例えば汎用の半導体レーザによる発光素子を含み得る。汎用の半導体レーザを低電圧で駆動する場合、パルス幅を短くしすぎると光の点灯および消灯の駆動が追随しにくくなる。このため、パルス発光ごとに異なる発光波形となり、不安定な挙動を示しやすくなり、測距結果のばらつきを引き起こしやすくなる。汎用的な半導体レーザを用いて安定した波形を得るために、例えばパルス幅が3ns以上の光パルスを発光するように光源110が制御され得る。あるいは、さらに安定させるために、光源110は、パルス幅5ns以上、さらには10ns以上の光パルスを発光してもよい。一方、パルス幅が大きすぎると、シャッタオフ時の電荷蓄積部124への光流出、つまり、寄生光感度(Parasitic Light Sensitivity:PLS)が大きくなり、計測誤差を引き起こす可能性がある。そこで、光源110は、例えば、パルス幅50ns以下の光パルスを発生させるように制御され得る。あるいは、光源110は、パルス幅30ns以下、さらには20ns以下の光パルスを発光してもよい。
 光源110の照射パターンとして、例えば、照射領域内において均一な強度分布であるパターンが選択され得る。その場合、空間的に同等の照度で対象者50に光を照射することができ、イメージセンサ120のいずれの画素においても検出信号の強度をダイナミックレンジ内に収めることが容易である。
 [1-2.イメージセンサ120]
 イメージセンサ120は、光源110から出射され対象者50から反射された光を受光する。イメージセンサ120は、2次元的に配置された複数の光検出セルを有し、対象者50の2次元情報を一度に取得し得る。イメージセンサ120は、例えば、CCDイメージセンサまたはCMOSイメージセンサなどの任意の撮像素子であり得る。イメージセンサ120は、本開示におけるセンサの一例である。本開示におけるセンサは、2次元的に配列された複数の光検出セルを有するセンサに限らず、例えば1次元的に配列された複数の光検出セルを有するセンサであってもよい。また、1点の情報のみを取得できれば十分な用途では、フォトディテクタなどの単一の光検出素子を有する光検出器をセンサとして利用してもよい。その場合、隣り合う2つの光検出素子を、それぞれ「第1の光検出セル」および「第2の光検出セル」として、本開示の技術を適用することができる。
 本実施形態におけるイメージセンサ120は、電子シャッタを備える。電子シャッタは、露光のタイミングを制御する回路である。電子シャッタは、受光した光を有効な電気信号に変換して蓄積する1回の信号蓄積期間と、信号蓄積を停止する期間とを制御する。信号蓄積期間を、「露光期間」と称する。1回の露光期間が終了し次の露光期間が開始するまでの時間を、「非露光期間」と称する。以下、露光している状態を「OPEN」、露光を停止している状態を「CLOSE」と表現することがある。
 イメージセンサ120は、電子シャッタにより、露光期間および非露光期間を、サブナノ秒、例えば30psから1nsの精度で調整することができる。各露光期間は、例えば、1ns以上30ns以下の値に設定され得る。
 対象者50の額を光で照射して脳血流などの情報を取得する場合、生体内部での光の減衰率が非常に大きい。例えば、入射光に対して出射光が、100万分の1程度にまで減衰し得る。このため、内部散乱成分I2を検出するには、1パルスの照射だけでは光量が不足する場合がある。レーザ安全性基準のクラス1での照射では特に光量が微弱である。この場合、制御回路132は、光源110に光パルスを複数回発光させ、これに同期してイメージセンサ120の各光検出セルに、複数回露光させる。これにより、信号を複数回にわたって積算し、感度を向上させることができる。
 以下、イメージセンサ120の構成例を説明する。
 イメージセンサ120は、撮像面上に2次元的に配列された複数の画素を備える。各画素は、例えばフォトダイオードなどの光電変換素子と、1つ以上の電荷蓄積部とを備える。
 図3は、イメージセンサ120の構成の一例を示す図である。図3において、二点鎖線の枠で囲まれた領域が1つの画素201に相当する。画素201には不図示のフォトダイオードなどの光電変換素子が含まれる。図3には2行4列に配列された8画素のみが示されているが、実際にはさらに多数の画素が配置され得る。各画素201は、電荷蓄積部である第1の浮遊拡散層204および第2の浮遊拡散層206を含む。ここでは、光源110が、650nm以上805nm未満の波長の第1の光パルスと、805nm超950nm以下の波長の第2の光パルスを出射するものとする。第1の浮遊拡散層204は、第1の光パルスによる反射光パルスの受光によって生じた電荷を蓄積する。第2の浮遊拡散層206は、第2の光パルスによる反射光パルスの受光によって生じた電荷を蓄積する。第1の浮遊拡散層204および第2の浮遊拡散層206に蓄積される信号は、あたかも一般的なCMOSイメージセンサの2画素の信号のように取り扱われ、イメージセンサ120から出力される。なお、第1の光パルスによる反射光パルスの検出と、第2の光パルスによる反射光パルスの検出とをフレームごとに切替えて行う構成においては、各画素201は単数の電荷蓄積部を含んでいてもよい。また、光源110が単一の波長の光を出射する構成においても、各画素201が単数の電荷蓄積部を含んでいてもよい。本実施形態では、隣り合う2つの画素201の一方は、反射光パルスの表面反射成分I1を検出し、他方は、反射光パルスの内部散乱成分I2を検出する。
 図3に示す例では、各画素201は、2つの信号検出回路を有する。各信号検出回路は、ソースフォロワトランジスタ309と、行選択トランジスタ308と、リセットトランジスタ310とを含む。各トランジスタは、例えば半導体基板に形成された電界効果トランジスタであるが、これに限定されない。図示されるように、ソースフォロワトランジスタ309の入力端子および出力端子の一方と、行選択トランジスタ308の入力端子および出力端子のうちの一方とが接続されている。ソースフォロワトランジスタ309の入力端子および出力端子の上記一方は、典型的にはソースである。行選択トランジスタ308の入力端子および出力端子の上記一方は、典型的にはドレインである。ソースフォロワトランジスタ309の制御端子であるゲートは、フォトダイオードに接続されている。フォトダイオードによって生成された正孔または電子による信号電荷は、フォトダイオードとソースフォロワトランジスタ309との間の電荷蓄積部である浮遊拡散層に蓄積される。
 図3には示されていないが、第1の浮遊拡散層204および第2の浮遊拡散層206は、不図示のフォトダイオードに接続される。フォトダイオードと、第1の浮遊拡散層204および第2の浮遊拡散層206の各々との間には、スイッチが設けられ得る。このスイッチは、制御回路132からの制御信号に応じて、フォトダイオードと第1の浮遊拡散層204および第2の浮遊拡散層206の各々との間の導通状態を切り替える。これにより、第1の浮遊拡散層204および第2の浮遊拡散層206の各々への信号電荷の蓄積の開始と停止とが制御される。本実施形態における電子シャッタは、このような露光制御のための機構を有する。
 各浮遊拡散層に蓄積された信号電荷は、行選択回路302によって行選択トランジスタ308のゲートがONにされることにより、読み出される。この際、当該浮遊拡散層の信号電位に応じて、ソースフォロワ電源305からソースフォロワトランジスタ309およびソースフォロワ負荷306へ流入する電流が増幅される。垂直信号線304から読み出されるこの電流によるアナログ信号は、列ごとに接続されたアナログ-デジタル(AD)変換回路307によってデジタル信号データに変換される。このデジタル信号データは、列選択回路303によって列ごとに読み出され、イメージセンサ120から出力される。行選択回路302および列選択回路303は、1つの行の読出しを行った後、次の行の読み出しを行い、以下同様に、全ての行の浮遊拡散層の信号電荷の情報を読み出す。制御回路132は、全ての信号電荷を読み出した後、リセットトランジスタ310のゲートをオンにすることにより、全ての浮遊拡散層をリセットする。これにより、1つのフレームの撮像が完了する。以下同様に、フレームの高速撮像を繰り返すことにより、イメージセンサ120による一連のフレームの撮像が完結する。
 本実施形態では、CMOS型のイメージセンサ120の例を説明したが、イメージセンサ120は、他の種類の撮像素子であってもよい。イメージセンサ120は、例えば、CCD型であっても、単一光子計数型素子であっても、EMCCDまたはICCDなどの増幅型イメージセンサであってもよい。また、複数の光検出セルが2次元的に配列されたイメージセンサ120の代わりに、複数の光検出セルが1次元的に配列されたセンサを用いてもよい。あるいは、各々が単数の光検出セルを備える複数のセンサを用いてもよい。単画素のセンサを用いた場合、生体計測は1点についてのみ可能となるが、高速なレートの計測が可能である。
 図4Aは、1フレーム内の動作の例を示す図である。図4Aに示すように、1フレーム内で、第1の光パルスの発光と第2の光パルスの発光とを交互に複数回切り替えてもよい。このようにすることで、2種類の波長による検出画像の取得タイミングの時間差を低減でき、対象者50に動きがある場合であっても、ほぼ同時に第1および第2の光パルスでの撮像が可能である。
 図4Bは、2種類の波長の光による検出動作の他の例を示す図である。図4Bに示すように、第1の光パルスによる反射光パルスの検出と第2の光パルスによる反射光パルスの検出とを、フレームごとに切り替えてもよい。このような動作は、例えば、第1の光パルスの発光と、第2の光パルスの発光とをフレームごとに切り替えることによって行われ得る。その場合、各画素201は単数の電荷蓄積部を備えていてもよい。そのような構成によれば、各画素201の電荷蓄積部の数を低減できるため、各画素201のサイズを大きくでき、感度を向上させることができる。
 なお、光源110が出射する光の波長は1種類であってもよい。その場合であっても、脳活動のおおよその状態を推定することができる。
 [1-3.電子回路130]
 電子回路130は、制御回路132と、信号処理回路134と、メモリ136とを含む。制御回路132は、光源110からの光パルスの出射タイミングと、イメージセンサ120のシャッタタイミングとの時間差を調整する。本明細書では、当該時間差を「位相差」と称することがある。光源110の「出射タイミング」は、光源110から出射される光パルスが立ち上がりを開始するタイミングを指す。「シャッタタイミング」は、露光を開始するタイミングを指す。
 制御回路132は、イメージセンサ120の各画素によって検出された信号からオフセット成分を取り除くように構成されてもよい。オフセット成分は、太陽光もしくは蛍光灯などの環境光、または外乱光による信号成分である。光源110の駆動をオフにして光源110から光が出射されない状態で、イメージセンサ120によって信号を検出することにより、環境光または外乱光によるオフセット成分が見積もられる。
 制御回路132は、例えば中央演算処理装置(CPU)などのプロセッサ、またはプロセッサおよびメモリを内蔵するマイクロコントローラなどの集積回路であり得る。制御回路132は、例えばプロセッサがメモリ136に記録されたコンピュータプログラムを実行することにより、出射タイミングとシャッタタイミングとの調整を行う。
 信号処理回路134は、イメージセンサ120から出力された画像信号を処理する回路である。信号処理回路134は、画像処理などの演算処理を行う。信号処理回路134は、例えばデジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)などのプログラマブルロジックデバイス(PLD)、または中央演算処理装置(CPU)もしくは画像処理用演算プロセッサ(GPU)によって実現され得る。信号処理回路134は、プロセッサがメモリ136に格納されたコンピュータプログラムを実行することにより、後述する処理を実行する。
 制御回路132および信号処理回路134は、統合された1つの回路であってもよいし、分離された個別の回路であってもよい。信号処理回路134は、例えば遠隔地に設けられたサーバなどの外部の装置の構成要素であってもよい。この場合、サーバなどの外部の装置は、無線通信または有線通信により、光源110、イメージセンサ120、および制御回路132を備える計測装置と相互にデータの送受信を行う。信号処理回路134は、イメージセンサ120から出力された信号に基づき、表面反射成分I1を反映した表層信号と、内部散乱成分I2を反映した深部信号とを生成する。信号処理回路70は、この処理の前に、外乱光によるオフセット成分の見積り、およびオフセット成分の除去を行ってもよい。
 [2.動作例]
 次に、本実施形態の動作の例を説明する。
 本実施形態では、イメージセンサ120における複数の画素は、複数の第1の画素P1と複数の第2の画素P2とを含む。制御回路132は、各第1の画素P1に、第1の露光期間で反射光パルスの時間的な前端部分を検出させる。制御回路132はまた、各第2の画素P2に、第2の露光期間で反射光パルスの時間的な後端部分を検出させる。ここで、「前端部分を検出する」とは、立ち上がり期間における反射光パルスの少なくとも一部の成分を検出することを意味する。一方、「後端部分を検出する」とは、立ち下がり期間における反射光パルスの少なくとも一部の成分を検出することを意味する。これにより、第1の画素P1は、頭部の比較的浅い部分の情報を取得し、第2の画素P2は、頭部の比較的深い部分の情報を取得する。このような構成により、1つの画素で浅部の情報と深部の情報とを取得する場合と比較して、高い時間分解能で生体信号を生成することができる。
 図5は、発光パルスおよび反射光パルスのタイミングと、第1の露光期間および第2の露光期間との関係を説明するための模式図である。図5の部分(a)は、光源110からの発光パルスの波形の例を示している。図5の部分(b)は、イメージセンサ120に到達する反射光パルスの波形の例を示している。図5の部分(c)は、第1の画素P1のシャッタが開放される第1の露光期間の例を示している。図5の部分(d)は、第2の画素P2のシャッタが開放される第2の露光期間の例を示している。
 反射光パルスの立ち上がりの開始タイミングは、光源110の発光パルスの立ち上がりの開始タイミングよりも遅くなる。反射光パルスの立ち上がりの開始タイミングは、対象者50とイメージセンサ120との距離に応じて変化する。反射光パルスの立ち下がり期間における強度は、前述したとおりインパルス応答波形の重畳により、なだらかに減少する。シャッタタイミングが遅いほど、取得した信号の全体に含まれる内部散乱成分I2の割合が高くなる。内部散乱成分I2は、額浅部の頭皮血流の情報を多く含む頭皮血流成分I2―1と、額深部の脳血流の情報を多く含む脳血流成分I2―2とを主に含む。本実施形態では、図5の部分(c)および(d)に示すように、画素P1は、頭皮血流成分I2―1を多く含む位相で露光され、画素P2は、脳血流成分I2―2を多く含む位相で露光される。
 本実施形態では、第1の露光期間が終了した後、第2の露光期間が開始される。第1の露光期間は、計測装置100から予め設定された距離に対象物が位置する場合に、イメージセンサ120に到達する反射光パルスの立ち上がり期間の少なくとも一部を含むように設定される。第1の露光期間は、反射光パルスの立ち上がり期間の全体が含まれるように設定されてもよいし、立ち上がり期間の一部のみが含まれるように設定されてもよい。第1の露光期間は、例えば、反射光パルスの立ち上がり期間の終了よりも前に開始し、立ち下がり期間の開始よりも前に終了するように設定され得る。第2の露光期間は、計測装置100から予め設定された距離に対象物が位置する場合に、イメージセンサ120に到達する反射光パルスの立ち下がり期間の少なくとも一部を含むように設定される。第2の露光期間は、例えば、反射光パルスの立ち下がりの期間の開始後、立ち下がり期間の終了までの間に開始されるように設定され得る。第1の露光期間と第2の露光期間とが部分的に重なっていてもよい。
 図6Aから図6Dは、イメージセンサ120における露光期間の異なる2種類の画素である第1の画素P1および第2の画素P2の配列パターンの例を示す図である。配列パターンを変更することで、測定の目的に応じて最適な情報を取得することができる。
 図6Aは、第1の画素P1からなる行と、第2の画素P2からなる行とが交互に並ぶ配列パターンの例を示している。この場合、偶数行と奇数行とで、露光期間の位相が異なる。この配列は、横方向における急峻な変化を捉えたい場合に有用である。例えば、左脳は活性化するが右脳は変化しないといった事象を検出したい場合のように、額の左右の信号の差異を比較したい場合に図6Aの配列は有効である。
 図6Bは、第1の画素P1からなる列と、第2の画素P2からなる列とが交互に並ぶ配列パターンの例を示している。この場合、偶数列と奇数列とで、露光期間の位相が異なる。この配列は、縦方向における急峻な変化を捉えたい場合に有用である。例えば、脳血流と顔面の一部の皮膚血流とで異なる傾向の変化が生じる事象を検出したい場合のように、額の上下の信号の差異を比較したい場合に図6Bの配列は有効である。
 図6Cは、複数の第1の画素P1および複数の第2の画素P2が、市松(checkerboard)状に配列されている例を示している。この配列パターンでは、額全体の信号を、上下方向および左右方向のいずれについても均等に評価することができる。
 複数の画素P1およびP2の配列パターンは、N行×M列(N、Mは任意の自然数)の画素ブロックを構成単位とした繰り返しパターンでもよい。例えば図6Dに示すような、2行×2列の画素を構成単位とした繰り返しパターンを採用してもよい。図6Dの例では、第2の画素P2の数が第1の画素P1の数の3倍である。前述のように内部散乱成分I2の信号は微弱である。このため、第2の画素P2の数を第1の画素P1の数よりも多くし、第2の画素P2の信号値の平均を算出することでSN比を向上させることができる。
 また、図6Dに示す例における第1の画素P1と第2の画素P2とを入れ替えてもよい。その場合、第1の画素P1の数が第2の画素P2の数よりも多くなる。第1の画素P1は、顔の外観といった対象者50の表層情報を多く含むため、表情または視線の分析、または体の動きの大きさもしくは速度の推定などの処理の精度を高めることができる。
 図7は、本実施形態における電子回路130による動作の概略を示すフローチャートである。ここでは簡単のため、光源110が1種類の波長の光を出射する構成を想定する。制御回路132は、まず、光源110に所定時間だけ光パルスを出射させる(ステップS101)。制御回路132は、イメージセンサ120に、第1のタイミングで各第1の画素P1への電荷蓄積を開始させる(ステップS102)。次に、制御回路132は、イメージセンサ120に、第2のタイミングで各第1の画素P1への電荷蓄積を停止させる(ステップS103)。第1のタイミングから第2のタイミングまでの期間が第1の露光期間である。ステップS102およびS103の動作により、各第1の画素P1に反射光パルスの前端部分の強度に応じた電荷が蓄積される。続いて、制御回路132は、イメージセンサ120に、第3のタイミングで各第2の画素P2への電荷蓄積を開始させる(ステップS104)。次に、制御回路132は、イメージセンサ120に、第4のタイミングで各第2の画素P2への電荷蓄積を停止させる(ステップS105)。第3のタイミングから第4のタイミングまでの期間が第2の露光期間である。ステップS104およびS105の動作により、各第2の画素P2に反射光パルスの後端部分の強度に応じた電荷が蓄積される。
 続いて、制御回路132は、上記の電荷蓄積を実行した回数が所定の回数に達したか否かを判定する(ステップS106)。この判定がNoの場合、Yesと判定するまで、ステップS101からS105の動作を繰り返す。ステップS106においてYesと判定すると、信号処理回路134は、イメージセンサ120の各画素に蓄積された電荷の信号を読み出す。信号処理回路134は、複数の第1の画素P1に蓄積された電荷に基づく第1の強度マップと、複数の第2の画素P2に蓄積された電荷に基づく第2の強度マップとを生成して出力する(ステップS107)。
 ステップS107において、信号処理回路134は、図6Aから6Dに例示されるような配列パターンに基づき、イメージセンサ120によって取得された画像データから同種の画素のデータを抽出して統合することにより、各強度マップの画像データを生成する。具体的には、信号処理回路134は、取得された画像データから、第1の画素P1のデータだけを抽出して第1の強度マップを生成し、第2の画素P2のデータだけを抽出して第2の強度マップを生成する。例えば図6Aの例では、奇数行の第1の画素P1のデータから第1の強度マップが生成され、偶数行の第2の画素P2のデータから第2の強度マップが生成される。このとき、データがない画素については、周囲の画素のデータに基づいて補間してもよい。第1の強度マップは、表層データの一例であり、例えば対象者50の顔の外観または頭皮血流の分布を示す画像データであり得る。第2の強度マップは、深部データの一例であり、例えば対象者50の脳血流の分布を示す画像データであり得る。信号処理回路134は、表層の強度マップの特徴と、深部の強度マップの特徴とを分離する演算を行うことで、アーチファクトである頭皮血流の成分を除去してもよい。この処理により、対象者50の脳血流の経時変化の情報を、高い精度かつ高い時間分解能で取得することができる。
 以下、表層の強度マップの特徴と、深部の強度マップの特徴とを分離する演算の一例を説明する。ここでは、ステップS101からS106の電荷蓄積動作が、650nm以上805nm未満の波長を有する第1の光パルスと、805nm超950nm以下の波長を有する第2の光パルスのそれぞれについて行われる場合の例を説明する。その場合、第1の強度マップおよび第2の強度マップのそれぞれにおける各画素は、第1の光パルスによる反射光強度の値(以下、「第1の値」と称する。)と、第2の光パルスによる反射光強度の値(以下、「第2の値」)とを有する。信号処理回路134は、各強度マップから、酸素化ヘモグロビン(HbO)および脱酸素化ヘモグロビン(Hb)の濃度の、初期値からの変化量を計算する。具体的には、信号処理回路134は、第1の強度マップにおける各画素の第1の値と第2の値とを用いて、予め定められた連立方程式を解くことにより、表層におけるHbOの濃度の初期値からの変化量Δ[HbO]_表層と、表層におけるHbの濃度の初期値からの変化量Δ[Hb]_表層とを計算する。同様に、信号処理回路134は、第2の強度マップにおける各画素の第1の値と第2の値とを用いて、予め定められた連立方程式を解くことにより、深部におけるHbOの濃度の初期値からの変化量Δ[HbO]_深部と、深部におけるHbの濃度の初期値からの変化量Δ[Hb]_深部とを計算する。信号処理回路134は、以下の計算式により、脳血流におけるHbOおよびHbのそれぞれの濃度の初期値からの変化量Δ[HbO]_脳血流およびΔ[Hb]_脳血流を計算する。
 Δ[HbO]_脳血流 = Δ[HbO]_深部 - kΔ[HbO]_表層
 Δ[Hb]_脳血流 = Δ[Hb]_深部 - kΔ[Hb]_表層
ここで、係数kは、事前にヒトを模したモデル(ファントム)を用いて計算された既知の値である。係数kは、「表層の頭皮血流成分の大きさ」に対する「深部の頭皮血流成分の大きさ」の比である。すなわち、k=(深部の頭皮血流成分の大きさ)/(表層の頭皮血流成分の大きさ)である。
 図7に示す動作により、フレームごとに、表層と深部の2種類の画像データを生成することができる。電子回路130は、この一連の動作を複数回繰り返すことで動画像のデータを生成してもよい。なお、複数回の発光および電荷蓄積は必須ではなく、必要に応じて行われる。
 本実施形態における信号処理回路134は、イメージセンサ120からフレームごとに出力された画像データに基づき、脳血流の時間変化を示す動画像データおよび顔の外観の時間変化を示す動画像データを生成することができる。信号処理回路134は、そのような動画像データに限らず、他の情報を生成してもよい。例えば、他の機器と同期させることにより、脳における血流量、血圧、血中酸素飽和度、または心拍数などの生体情報を生成してもよい。また、イメージセンサ120に含まれる各画素によって検出された表面反射成分I1をもとに皮膚血流量、心拍数、あるいは発汗量などの生体情報を生成してもよい。
 脳血流量またはヘモグロビンなどの血液内成分の変化と、人間の神経活動との間には密接な関係があることが知られている。例えば、人間の興味度に応じて神経細胞の活動が変化することにより、脳血流量または血液内の成分が変化する。したがって、脳血流量または顔の外観情報などの生体情報を計測できれば、ユーザの心理状態または身体状態を推定することができる。ユーザの心理状態は、例えば、気分、感情、健康状態、または温度感覚であり得る。気分は、例えば、快、または不快といった気分を含み得る。感情は、例えば、安心、不安、悲しみ、または憤りといった感情を含み得る。健康状態は、例えば、元気、または倦怠といった状態を含み得る。温度感覚は、例えば、暑い、寒い、または蒸し暑いといった感覚を含み得る。これらに派生して、脳活動の程度を表す指標、例えば興味度、熟練度、習熟度、および集中度も、心理状態に含まれ得る。さらに、疲労度、眠気、または飲酒による酔いの程度などの身体状態も、信号処理回路134による推定の対象に含まれる。信号処理回路134は、脳血流状態の変化、頭皮血流状態の変化、および顔の外観の変化のうちの少なくとも1つに基づいて、ユーザの心理状態または身体状態を推定し、推定結果を示す信号を出力することができる。
 (実施形態2)
 次に、本開示の例示的な第2の実施形態を説明する。本実施形態では、イメージセンサ120の複数の画素が、3種類の画素である第1の画素P1、第2の画素P2、第3の画素P3を含む。これらの第1の画素P1、第2の画素P2、第3の画素P3で、異なる露光期間が設定される。本実施形態によれば、対象者50の外観、頭皮血流、および脳血流の経時変化に関する情報を、高い時間分解能で取得することができる。
 以下、実施形態1と異なる点を中心に説明し、重複する事項の説明は省略する。
 図8は、本実施形態における発光パルスおよび反射光パルスのタイミングと、第1から第3の露光期間との関係を説明するための模式図である。図8の部分(a)は、光源110からの発光パルスの波形の例を示している。図8の部分(b)は、イメージセンサ120に到達する反射光パルスの波形の例を示している。図8の部分(c)は、第1の画素P1のシャッタが開放される第1の露光期間の例を示している。図8の部分(d)は、第2の画素P2のシャッタが開放される第2の露光期間の例を示している。図8の部分(e)は、第3の画素P3のシャッタが開放される第3の露光期間の例を示している。
 第1の画素P1は、表面反射成分I1を多く含む位相で露光される。第2の画素P2は、脳血流成分I2―2を多く含む位相で露光される。第3の画素P3は、頭皮血流成分I2―1を多く含む位相で露光される。
 図9Aから図9Dは、イメージセンサ120における露光期間の異なる3種類の画素である第1の画素P1、第2の画素P2、第3の画素P3の配列パターンの例を示す図である。本実施形態においても、配列パターンを変更することで、測定の目的に応じて最適な情報を取得することができる。
 図9Aは、第1の画素P1からなる行と、第2の画素P2からなる行と、第3の画素P3からなる行とが順に繰り返される配列パターンの例を示している。この配列は、横方向における急峻な変化を捉えたい場合に有用である。例えば、左脳は活性化するが右脳は変化しないといった事象を検出したい場合のように、額の左右の信号の差異を比較したい場合に図9Aの配列は有効である。
 図9Bは、第1の画素P1からなる列と、第2の画素P2からなる列と、第3の画素P3からなる列とが順に繰り返される配列パターンの例を示している。この配列は、縦方向における急峻な変化を捉えたい場合に有用である。例えば、脳血流と顔面の一部の皮膚血流とで異なる傾向の変化が生じる事象を検出したい場合のように、額の上下の信号の差異を比較したい場合に図9Bの配列は有効である。
 図9Cは、複数の第1の画素P1、複数の第2の画素P2、および複数の第3の画素P3が、市松(checkerboard)状に配列されている例を示している。この配列パターンでは、額全体の信号を、上下方向および左右方向のいずれについても均等に評価することができる。
 図9Dに示すように、第1の画素P1、第2の画素P2、第3の画素P3の配列パターンは、N行×M列(N、Mは任意の自然数)の画素ブロックを構成単位とした繰り返しパターンでもよい。
 図10は、本実施形態2における電子回路130による動作の概略を示すフローチャートである。ここでも簡単のため、使用される光の波長が1種類である例を説明する。制御回路132は、まず、光源110に所定時間だけ光パルスを発光させる(ステップS201)。制御回路132は、イメージセンサ120に、各第1の画素P1への電荷蓄積を開始させる(ステップS202)。次に、制御回路132は、イメージセンサ120に、各第3の画素P3への電荷蓄積を開始させる(ステップS203)。ステップS202から第1の露光期間に相当する時間が経過すると、制御回路132は、イメージセンサ120に、各第1の画素P1への電荷蓄積を停止させる(ステップS204)。ステップS203から第3の露光期間に相当する時間が経過すると、制御回路132は、イメージセンサ120に、各第3の画素P3への電荷蓄積を停止させる(ステップS205)。ステップS204から所定時間経過後、制御回路132は、イメージセンサ120に、各第2の画素P2への電荷蓄積を開始させる(ステップS206)。ステップS206から第2の露光期間に相当する時間が経過すると、制御回路132は、イメージセンサ120に、各第2の画素P2への電荷蓄積を停止させる(ステップS207)。
 続いて、制御回路132は、上記の電荷蓄積を実行した回数が所定の回数に達したか否かを判定する(ステップS208)。この判定がNoの場合、Yesと判定するまで、ステップS201からS207の動作を繰り返す。ステップS208においてYesと判定すると、信号処理回路134は、イメージセンサ120の各画素に蓄積された電荷の信号を読み出す。信号処理回路134は、複数の第1の画素P1に蓄積された電荷に基づく第1の強度マップと、複数の第2の画素P2に蓄積された電荷に基づく第2の強度マップと、複数の第3の画素P3に蓄積された電荷に基づく第3の強度マップとを生成して出力する(ステップS209)。
 図10に示す動作により、1フレームごとに、表面反射成分I1、頭皮血流成分I2-1、脳血流成分I2-2の強度分布をそれぞれ反映した3種類の画像データを生成することができる。電子回路130は、この一連の動作を複数回繰り返すことで動画像のデータを生成してもよい。なお、本実施形態においても、複数回の発光および電荷蓄積は必須ではなく、必要に応じて行われる。
 以上のように、本実施形態によれば、外観情報、頭皮血流情報、および脳血流情報を、高い時間分解能で取得することができる。
 図8および図10の例では、第1の露光期間が終了する前に第3の露光期間が開始される。このような例に限らず、例えば、第1の露光期間が終了した後、第3の露光期間が開始されてもよい。また、第3の露光期間と第2の露光期間とが部分的に重なっていてもよい。
 図11は、本実施形態の変形例を示すタイミングチャートである。この変形例では、第3の画素P3が設けられず、第1の画素P1が第1の露光期間および第3の露光期間で露光される。このため、各第1の画素P1は、図3に示す例のように、複数の電荷蓄積部を備える。各第1の画素P1における第1の電荷蓄積部および第2の電荷蓄積部に、第1の露光期間および第3の露光期間がそれぞれ割り当てられる。これにより、2種類の画素を用いて3種類の生体信号を取得することができる。この場合、第1の画素P1と第2の画素P2の配置は、例えば図6Aから図6Dのいずれかに示す配置であってよい。3種類の画素を設定する場合よりも高い空間分解能で計測可能である。
 図12は、本実施形態のさらに他の変形例を示すタイミングチャートである。この例では、図11の例とは異なり、第3の露光期間が、反射光パルスの立ち下がり期間の開始の直前に開始される。第1の露光期間は、図11の例と同様、反射光パルスの立ち上がり期間の開始前に開始され、立ち上がり期間の終了直後に終了する。この例における信号処理回路134は、第1の露光期間において第1の画素P1の第1の電荷蓄積部に蓄積された電荷に基づく第1の信号と、第3の露光期間において第1の画素P1の第2の電荷蓄積部に蓄積された電荷に基づく第3の信号とに基づいて、イメージセンサ120から対象者50までの距離を示すデータを生成して出力する。
 図13は、距離演算の原理を説明するための図である。図13には、発光パルスIeと、反射光パルスIrと、第1の露光期間と、第2の露光期間と、第3の露光期間とが例示されている。発光パルスおよび反射光パルスの時間幅をT0とする。光源110が光パルスの出射を開始してから第1の露光期間が終了するまでの時間をt1、光源110が光パルスの出射を開始してから第3の露光期間が開始されるまでの時間をt2とする。この例では、0<t2-t1<T0が成立する。第1の露光期間では、反射光パルスの前端部分の露光によって生じた電荷が蓄積される。一方、第3の露光期間では、反射光パルスの後端部分の露光によって生じた電荷が蓄積される。第1の露光期間で蓄積された電荷量を示す信号をS1とし、第3の露光期間で蓄積された電荷量を示す信号をS3とする。信号S1およびS3のそれぞれの強度は、対象者50とイメージセンサ120との間の距離zに応じて変動する。距離zは、以下の(数1)を用いて計算できる。
Figure JPOXMLDOC01-appb-M000001
ここで、c(≒3.0×10m/s)は光速を表す。
 信号処理回路134は、(数1)に基づいて、信号S1およびS3から、距離zを求めることができる。
 図14は、さらに他の変形例を示す図である。この例では、制御回路132は、光源110に、第1の光パルス141を出射させた後、第2の光パルス142を出射させる。第1の光パルス141に起因して生じた第1の反射光143については、第1の露光期間で各第1の画素P1の第1の電荷蓄積部に電荷が蓄積され、第2の露光期間で各第2の画素P2の電荷蓄積部に電荷が蓄積される。これにより、各第1の画素P1の第1の電荷蓄積部から信号S1が出力され、各第2の画素P2の電荷蓄積部から信号S2が出力される。第2の光パルス142に起因して生じた第2の反射光144については、第3の露光期間で各第1の画素P1の第2の電荷蓄積部に電荷が蓄積され、第4の露光期間で各第2の画素P2の電荷蓄積部に電荷が蓄積される。これにより、各第1の画素P1の第2の電荷蓄積部から信号S3が出力され、各第2の画素P2の電荷蓄積部から信号S2が出力される。ここで、第1の光パルス141の出射開始時点から第1の露光期間の開始時点までの長さtaは、第2の光パルス142の出射開始時点から第3の露光期間の開始時点までの長さtbよりも短い。信号処理回路134は、信号S1およびS3から、上記の(数1)に基づき、イメージセンサ120から対象物までの距離zを示すデータを生成して出力する。
 図13または図14に示す方法により、イメージセンサ120から対象物までの距離を画素ごとに計算することができる。電子回路130は、各画素の距離情報および脳血流情報を取得する動作を連続的に繰り返すことにより、2次元的な距離分布および脳血流分布のそれぞれの経時変化を示す動画像のデータを生成することができる。電子回路130は、各回の計測によって取得した各画素の距離情報に基づいて、次の計測における第1から第4の露光期間のタイミングを画素ごとに調整することができる。そのような調整により、脳血流の信号をより高い精度で取得することができる。
 電子回路130は、上記の方法で取得した距離情報を用いて、脳血流情報を補正してもよい。光源110から出射される光は、光源110の特性に応じた固有の照度分布を有する。光源110が発する光の空間的な照度分布に依存して、取得される脳血流信号のレベルが、計測点の位置によって異なる。また、計測装置100が対象者50の脳血流信号を繰り返し取得している最中に対象者50が動いた場合、計測装置100から計測点までの距離が変動するため、取得される脳血流の信号のレベルが変動する。良好な計測結果を得るためには、この変動の影響を抑制することが重要である。そこで、電子回路130は、脳血流計測と並行して距離計測を行い、計測装置100から計測された各計測点までの距離に基づいて、各計測点における脳血流信号を補正することができる。
 以下、図15から図17を参照して、距離に基づいて脳血流信号を補正する動作を説明する。本明細書において「脳血流信号」とは、対象者の脳血流の状態を示す信号を意味し、被計測部からの光の内部散乱成分の強度を示す信号、またはその信号を処理することによって生成された信号である。
 図15は、電子回路130によって生成される3種類の画像の時間変化の例を示す図である。この例では、電子回路130は、図13または図14に示す動作を実行することにより、図15に示す3種類の画像である第1の画像(a)、第3の画像(b)、第2の画像(c)を生成する動作を繰り返す。図15には、初期フレームにおける3種類の画像と、現フレームにおける3種類の画像とが例示されている。時間の経過により、対象者50の動き(すなわち体動)と、頭皮および脳内の血流の変動が生じ、それらの影響により、各画像の輝度分布に変動が生じ得る。
 図15に示す例では、電子回路130における制御回路132は、イメージセンサ120における2種類の画素(すなわち第1の画素P1および第2の画素P2)に、図13または図14に示す3種類の露光期間において露光を実行させる。画素の配置は、例えば図6Aから図6Dに示すいずれかであり得る。電子回路130における信号処理回路134は、イメージセンサ120から取得した信号から、各第1の画素P1の第1の電荷蓄積部の信号、各第1の画素P1の第2の電荷蓄積部の信号、および各第2の画素P2の電荷蓄積部の信号を抽出し、それらの信号に基づいて第1の画像(a)、第3の画像(b)、第2の画像(c)を生成する。各第1の画素P1の第1の電荷蓄積部は、第1の露光期間において反射光パルスの前端部分を検出し、第1の信号を生成する。信号処理回路134は、それらの第1の信号に基づいて第1の画像(a)を生成する。各第1の画素P1の第2の電荷蓄積部は、第3の露光期間において反射光パルスの立ち下がり期間の開始直前から立ち下がり期間終了までの成分を検出し、第3の信号を生成する。信号処理回路134は、それらの第3の信号に基づいて第3の画像(b)を生成する。各第2の画素P2の電荷蓄積部は、第2の露光期間において反射光パルスの後端部分を検出し、第2の信号を生成する。信号処理回路134は、それらの第2の信号に基づいて第2の画像(c)を生成する。第2の画像(c)は、対象者50の脳血液中で散乱される内部散乱成分の二次元分布を示す。
 信号処理回路134は、各画素における第1の信号および第3の信号から、前述の(数1)に示す計算を行うことにより、画素ごとに距離を計算する。信号処理回路134は、計算した各画素の距離に基づいて距離画像を生成する。さらに、信号処理回路134は、距離画像に基づいて第2の画像(c)を補正する。
 図16は、第1の画像(a)と第3の画像(b)とに基づいて生成される距離画像の例を模式的に示す図である。信号処理回路134は、このような距離画像に基づいて、第2の画像(c)を補正する。より具体的には、信号処理回路134は、距離画像と、予め用意された光源110の照度分布を示すデータとに基づいて、第2の画像(c)を補正するための補正値画像を生成する。信号処理回路134は、補正値画像を用いて第2の画像(c)から体動による影響を除去する補正を行う。
 図17は、信号処理回路134による補正処理に用いられる補正値画像を生成する動作の流れを模式的に示す図である。補正には、予めキャリブレーションによって取得された光源110の照度分布を示す情報が用いられる。キャリブレーションは、対象者50の計測を行う前に実施される。照度分布を示す情報は、光源110が発する光が有する空間的な照度分布を表し、以下の(数2)で与えられる。
Figure JPOXMLDOC01-appb-M000002
ここで、Icorは空間内の位置(x,y,z)における輝度を表す。(x,y)は画像における画素の位置を表し、zは(数1)によって計算された距離を表す。キャリブレーションでは、例えば白板などの物体を計測対象として、図12に示すタイミングで露光が行われる。計測対象には、吸収係数および散乱係数が人に近い値を有する平板ファントムを使用することが望ましい。計測装置100と白板との距離を変化させ、複数の距離で距離画像および第2の画像(c)が取得される。各距離で、距離画像および第2の画像(c)の画素位置(x,y)における距離zと輝度Icorの情報が取得される。距離zと輝度Icorの、取得されたデータと、データ点間の内挿および外挿とによって(数2)の関数が得られる。データ点間の補間は、内挿および外挿に限らず、種々の回帰方法が適用され得る。この照度分布の取得は、対象者の計測ごとに毎回行ってもよいし、最初に一度のみ行ってもよい。(数2)に示す関数は、テーブルの形式でメモリ136などの記憶媒体に記録されていてもよい。
 信号処理回路134は、前述の方法によって対象者50から取得した距離画像の情報を(数2)の関数に入力することにより、図17の右下に示すような補正値画像を生成することができる。
 図18は、補正値画像を用いて第2の画像(c)を補正する処理を模式的に示す図である。信号処理回路134は、第2の画像(c)の各画素の値を補正値画像における対応する画素の値で除算することにより、第2の画像(c)を補正する。この処理により、光源110の照度分布による第2の画像(c)の輝度変動の影響を除去することができる。以上の計測および演算処理により、体動が発生した場合でも、体動の影響を抑制し、脳血流が変化する領域52を明瞭に捉えることが可能になる。
 以上のように、複数の画素で異なる情報を同一フレーム内で取得することにより、対象者50の体動に起因する輝度変動の影響を抑制し、人の脳血流の状態を高い時間分解能かつ高い精度で取得することができる。
 次に、計測装置100による計測動作のさらに他の変形例を説明する。
 図19は、他の変形例による計測動作を示す図である。図19は、本変形例における波長の異なる2種類の発光パルスおよび反射光パルスと、第1の画素P1および第2の画素P2の各々における2つの電荷蓄積部のそれぞれの露光期間との関係を示すタイミングチャートである。本変形例では、図4Aに示す例と同様、各フレームの期間内で、650nm以上805nm未満の第1の波長を有する第1の光パルスの出射と805nm超950nm以下の第2の波長を有する第2の光パルスの出射とが交互に繰り返される。図19に示す第1のフレームと第2のフレームの動作は、所定のフレームレートで交互に繰り返される。この形態では、第1のフレームと第2のフレームとで、各第1の画素P1における2つの電荷蓄積部の露光期間が異なる。第1のフレームにおいては、各第1の画素P1における第1の電荷蓄積部および第2の電荷蓄積部は、それぞれ、第1の波長および第2の波長の反射光パルスの前端部分が検出される露光期間で露光するように制御される。当該露光期間は、反射光パルスの立ち上がり期間の開始前に開始し、立ち上がり期間の終了直後に終了する。一方、第2のフレームにおいては、各第1の画素P1における第1の電荷蓄積部および第2の電荷蓄積部は、それぞれ、第1の波長および第2の波長の反射光パルスの後端部分を含む成分が検出される露光期間で露光するように制御される。当該露光期間は、反射光パルスの立ち下がり期間の開始直前に開始し、立ち下がり期間の途中または立ち下がり期間の終了後に終了する。いずれのフレームにおいても、各第2の画素P2における第1の電荷蓄積部および第2の電荷蓄積部は、それぞれ、第1の波長および第2の波長の反射光パルスの後端部分が検出される露光期間で露光するように制御される。当該露光期間は、反射光パルスの立ち下がり期間の開始後に開始し、立ち下がり期間の終了後に終了する。
 図19の例において、第1のフレームの計測動作が行われる期間を「第1の計測期間」と称し、第2のフレームの計測動作が行われる期間を「第2の計測期間」と称する。第1の計測期間において、第1の画素P1の第1の電荷蓄積部の露光期間を「第1の露光期間」とし、第1の画素P1の第2の電荷蓄積部の露光期間を「第3の露光期間」とする。第2の計測期間において、第1の画素P1の第1の電荷蓄積部の露光期間を「第4の露光期間」とし、第1の画素P1の第2の電荷蓄積部の露光期間を「第5の露光期間」とする。なお、各計測期間において、第2の画素の各電荷蓄積部の露光期間のそれぞれを「第2の露光期間」とする。第1の露光期間は、第1の計測期間における第1の光パルスの出射時点から第1の時間t1が経過したときに開始する。第3の露光期間は、第1の計測期間における第2の光パルスの出射時点から第2の時間t2が経過したときに開始する。第4の露光期間は、第2の計測期間における第1の光パルスの出射時点から第3の時間t3が経過したときに開始する。第5の露光期間は、第2の計測期間における第2の光パルスの出射時点から第4の時間t4が経過したときに開始する。第3の時間t3は、第1の時間t1とは異なり、第4の時間t4は、第2の時間t2とは異なる。図19の例では、第1の時間t1と第2の時間t2とが等しく、第3の時間t3と第4の時間t4とが等しい。第1の時間t1と第2の時間t2とが異なっていてもよく、第3の時間t3と第4の時間t4とが異なっていてもよい。
 信号処理回路134は、第1の露光期間と第4の露光期間で取得された各第1の画素の第1の電荷蓄積部の信号、および/または、第3の露光期間と第5の露光期間で取得された各第1の画素の第2の電荷蓄積部の信号に基づいて、上記の(数1)に基づく演算を行うことにより、計測装置100からその画素に対応する計測点までの距離を求めることができる。また、信号処理回路134は、第2の露光期間で取得された各第2の画素の第1の電荷蓄積部および第2の電荷蓄積部の信号に基づいて、脳血流の状態を示す脳血流情報を生成する。信号処理回路134は、前述の方法により、距離情報に基づいて脳血流情報を補正してもよい。
 本変形例における露光タイミングで計測を行うことにより、各波長の画像の取得タイミングの時間差が短くなり、2種類の波長の情報を高い時間分解能で取得することができる。これにより、脳血流のより機微な変化を捉えることが可能となる。
 本開示における計測装置は、非接触かつ高い時間分解能で計測できるため、特に人を対象とした生体センシングに有用である。
 50  対象者
 100 計測装置
 110 光源
 120 イメージセンサ
 122 光電変換部
 124 電荷蓄積部
 130 電子回路
 132 制御回路
 134 信号処理回路

Claims (22)

  1.  対象物に向けて第1の光パルスを出射する光源と、
     第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、
     前記光源および前記センサを制御し、前記センサから出力された信号を処理する電子回路と、
    を備え、
     前記電子回路は、
      前記光源に第1の光パルスを出射させ、
      前記第1の光検出セルに、前記第1の光パルスに起因して生じた前記対象物からの第1の反射光パルスの強度が増加を開始してから減少を開始するまでの期間の少なくとも一部を含む第1の露光期間において、前記第1の反射光パルスを検出させることによって第1の信号を生成させ、
      前記第2の光検出セルに、前記第1の反射光パルスの強度が減少を開始してから減少を終了するまでの立ち下がり期間の少なくとも一部を含む第2の露光期間において、前記第1の反射光パルスを検出させることによって第2の信号を生成させ、
      前記第1の信号に基づき、前記対象物の表面の状態を示す第1のデータを生成して出力し、
      前記第2の信号に基づき、前記対象物の内部の状態を示す第2のデータを生成して出力する、
     計測装置。
  2.  前記第2の露光期間は、前記第1の反射光パルスの前記立ち下がり期間の開始よりも後に開始する、
     請求項1に記載の計測装置。
  3.  前記第1の露光期間は、前記第1の反射光パルスの強度が増加を開始してから増加を終了するまでの立ち上がり期間の少なくとも一部を含む、
     請求項1または2に記載の計測装置。
  4.  前記第1の露光期間は、前記立ち下がり期間の開始よりも前に終了する、
     請求項1から3のいずれかに記載の計測装置。
  5.  前記複数の光検出セルは、前記第1の光検出セルを含む複数の第1の光検出セルと、前記第2の光検出セルを含む複数の第2の光検出セルとを含み、
     前記電子回路は、
      前記複数の第1の光検出セルの各々に、前記第1の露光期間において、前記第1の反射光パルスを検出させることによって前記第1の信号を生成させ、
      前記複数の第2の光検出セルの各々に、前記第2の露光期間において、前記第1の反射光パルスを検出させることによって前記第2の信号を生成させ、
      前記複数の第1の光検出セルの各々から出力された前記第1の信号を含む複数の第1の信号に基づき、前記第1のデータを生成して出力し、
      前記複数の第2の光検出セルの各々から出力された前記第2の信号を含む複数の第2の信号に基づき、前記第2のデータを生成して出力する、
     請求項1から4のいずれかに記載の計測装置。
  6.  前記複数の第1の光検出セルの数は、前記複数の第2の光検出セルの数よりも少ない、
     請求項5に記載の計測装置。
  7.  前記複数の第1の光検出セルの数は、前記複数の第2の光検出セルの数よりも多い、
     請求項5に記載の計測装置。
  8.  前記センサはイメージセンサであり、
     前記複数の光検出セルは、行列状に配列され、
     前記電子回路は、
      前記複数の第1の信号に基づく画像データを前記第1のデータとして生成し、
      前記複数の第2の信号に基づく画像データを前記第2のデータとして生成する、
     請求項5から7のいずれかに記載の計測装置。
  9.  前記複数の光検出セルは、行列状に配列され、
     前記複数の第1の光検出セルからなる行または列と、前記複数の第2の光検出セルからなる行または列とが、交互に並んでいる、
     請求項5から8のいずれかに記載の計測装置。
  10.  前記複数の光検出セルは、行列状に配列され、
     前記複数の第1の光検出セルおよび前記複数の第2の光検出セルは、市松状に配列されている、
     請求項5から8のいずれかに記載の計測装置。
  11.  前記対象物は人間の頭部を含み、
     前記第1のデータは、前記頭部における顔の外観を示す、
     請求項5から10のいずれかに記載の計測装置。
  12.  前記対象物は人間の頭部を含み、
     前記第2のデータは、前記頭部の脳血流の状態を示す、
     請求項1から11のいずれかに記載の計測装置。
  13.  前記複数の光検出セルは第3の光検出セルをさらに含み、
     前記電子回路は、前記第1の露光期間および前記第2の露光期間とは異なる第3の露光期間において、前記第1の光検出セルまたは前記第3の光検出セルに、前記第1の反射光パルスを検出させることによって第3の信号を生成させる、
     請求項1から12のいずれかに記載の計測装置。
  14.  前記電子回路は、
      前記第3の露光期間において、前記第1の光検出セルに前記第3の信号を生成させ、
      前記第1の信号と前記第3の信号とに基づき、前記センサから前記対象物までの距離を示すデータを生成して出力する、
     請求項13に記載の計測装置。
  15.  前記光源は、前記対象物に向けて第2の光パルスをさらに出射し、
     前記電子回路は、
      前記光源に、前記第1の光パルスを出射させた後、前記第2の光パルスを出射させ、
      前記第1の光検出セルに、前記第2の光パルスに起因して生じた前記対象物からの第2の反射光パルスの強度が減少を開始してから減少を終了するまでの立ち下がり期間の少なくとも一部を含む第3の露光期間において、前記第2の反射光パルスを検出させることによって第3の信号を生成させ、
      前記第2の光検出セルに、前記第2の反射光パルスの前記立ち下がり期間の少なくとも一部を含み、第3の露光期間とは異なる第4の露光期間において、前記第2の反射光パルスを検出させることによって第4の信号を生成させ、
      前記第1の信号および前記第3の信号に基づき、前記センサから前記対象物までの距離を示すデータを生成して出力する、
     請求項1から12のいずれかに記載の計測装置。
  16.  前記対象物は人の頭部を含み、
     前記電子回路は、前記第1の信号と前記第2の信号とに基づいて、前記人の心理状態または身体状態を示すデータを生成して出力する、
     請求項1から15のいずれかに記載の計測装置。
  17.  前記光源は、前記対象物に向けて第2の光パルスをさらに出射し、
     前記第2の光パルスの波長は、前記第1の光パルスの波長と異なり、
     前記第1の露光期間は、前記第1の光パルスの出射開始時点から第1の時間が経過したときに開始し、
     前記電子回路は、
      第1の計測期間および第2の計測期間のそれぞれにおいて、前記光源に、前記第1の光パルスと前記第2の光パルスとを出射させ、
      前記第1の光検出セルに、前記第1の計測期間に含まれる前記第1の露光期間において、前記第1の反射光パルスを検出させ、かつ前記第1の計測期間における前記第2の光パルスの出射開始時点から第2の時間が経過したときに開始する第3の露光期間において、前記第2の光パルスに起因して生じた前記対象物からの第2の反射光パルスを検出させることによって前記第1の信号を生成させ、
      前記第1の光検出セルに、前記第2の計測期間における前記第1の光パルスの出射開始時点から第3の時間が経過したときに開始する第4の露光期間において、前記第1の反射光パルスを検出させ、かつ前記第2の計測期間における前記第2の光パルスの出射開始時点から第4の時間が経過したときに開始する第5の露光期間において、前記第2の反射光パルスを検出させることによって第3の信号を生成させ、
      前記第1の信号と前記第3の信号に基づいて、前記センサから前記対象物までの距離を示すデータを生成し、
     前記第3の時間は、前記第1の時間と異なり、
     前記第4の時間は、前記第2の時間と異なる、
     請求項1から12のいずれかに記載の計測装置。
  18.  生体に向けて1つ以上の光パルスを出射する光源と、
     第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、
     電子回路と、
    を備え、
     前記電子回路は、
      前記光源に前記1つ以上の光パルスを出射させ、
      前記第1の光検出セルに、前記1つ以上の光パルスに起因して生じた前記生体からの1つ以上の反射光パルスの第1の成分を検出させることによって第1の信号を生成させ、
      前記第2の光検出セルに、前記1つ以上の反射光パルスの第2の成分を検出させることによって第2の信号を生成させ、
      前記第1の光検出セルに、前記1つ以上の反射光パルスの第3の成分を検出させることによって第3の信号を生成させ、
      前記第1の信号および前記第3の信号に基づき、前記センサから前記生体までの距離を示す第1のデータを生成し、
      前記第2の信号に基づき、前記生体の血流の状態を示す第2のデータを生成する、
    計測装置。
  19.  前記電子回路は、前記第1のデータに基づいて、前記第2のデータを補正する、
     請求項18に記載の計測装置。
  20.  前記電子回路は、前記1つ以上の光パルスの照度の空間分布を示すデータ、および前記第1のデータに基づいて、前記第2のデータを補正する、
     請求項18または19に記載の計測装置。
  21.  光源と、第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、を備える計測装置を制御する方法であって、
     前記光源に光パルスを出射させることと、
     前記第1の光検出セルに、前記光パルスに起因して生じた対象物からの反射光パルスの強度が増加を開始してから減少を開始するまでの期間の少なくとも一部を含む第1の露光期間において、前記反射光パルスを検出させることによって第1の信号を生成させることと、
     前記第2の光検出セルに、前記反射光パルスの強度が減少を開始してから減少を終了するまでの立ち下がり期間の少なくとも一部を含む第2の露光期間において、前記反射光パルスを検出させることによって第2の信号を生成させることと、
     前記第1の信号に基づき、前記対象物の表面の状態を示す第1のデータを生成して出力することと、
     前記第2の信号に基づき、前記対象物の内部の状態を示す第2のデータを生成して出力することと、
    を含む方法。
  22.  光源と、第1の光検出セルおよび第2の光検出セルを含む複数の光検出セルを含むセンサと、を備える計測装置を制御する方法であって、
     前記光源に1つ以上の光パルスを出射させることと、
     前記第1の光検出セルに、前記1つ以上の光パルスに起因して生じた生体からの1つ以上の反射光パルスの第1の成分を検出させることによって第1の信号を生成させることと、
     前記第2の光検出セルに、前記1つ以上の反射光パルスの第2の成分を検出させることによって第2の信号を生成させることと、
     前記第1の光検出セルに、前記1つ以上の反射光パルスの第3の成分を検出させることによって第3の信号を生成させることと、
     前記第1の信号および前記第3の信号に基づき、前記センサから前記生体までの距離を示す第1のデータを生成することと、
     前記第2の信号に基づき、前記生体の血流の状態を示す第2のデータを生成することと、
    を含む方法。
PCT/JP2021/005395 2020-03-09 2021-02-15 計測装置および計測装置を制御する方法 WO2021182018A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180013265.3A CN115052530A (zh) 2020-03-09 2021-02-15 计测装置以及对计测装置进行控制的方法
JP2022505859A JPWO2021182018A1 (ja) 2020-03-09 2021-02-15
US17/820,266 US20220400964A1 (en) 2020-03-09 2022-08-17 Measurement apparatus and method for controlling measurement apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020039728 2020-03-09
JP2020-039728 2020-03-09
JP2021-012027 2021-01-28
JP2021012027 2021-01-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/820,266 Continuation US20220400964A1 (en) 2020-03-09 2022-08-17 Measurement apparatus and method for controlling measurement apparatus

Publications (1)

Publication Number Publication Date
WO2021182018A1 true WO2021182018A1 (ja) 2021-09-16

Family

ID=77672257

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/005395 WO2021182018A1 (ja) 2020-03-09 2021-02-15 計測装置および計測装置を制御する方法

Country Status (4)

Country Link
US (1) US20220400964A1 (ja)
JP (1) JPWO2021182018A1 (ja)
CN (1) CN115052530A (ja)
WO (1) WO2021182018A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3766425A4 (en) * 2018-03-15 2021-06-23 Panasonic Intellectual Property Management Co., Ltd. SYSTEM, RECORDING MEDIA, AND METHOD FOR ESTIMATING THE PSYCHOLOGICAL STATE OF A USER

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002415A1 (ja) * 2012-06-28 2014-01-03 パナソニック株式会社 撮像装置
JP2017144225A (ja) * 2016-02-17 2017-08-24 パナソニックIpマネジメント株式会社 生体情報検出装置
WO2019188348A1 (ja) * 2018-03-29 2019-10-03 パナソニックIpマネジメント株式会社 距離情報取得装置、マルチパス検出装置およびマルチパス検出方法
WO2020044854A1 (ja) * 2018-08-30 2020-03-05 パナソニックIpマネジメント株式会社 生体計測装置、及び生体計測方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002415A1 (ja) * 2012-06-28 2014-01-03 パナソニック株式会社 撮像装置
JP2017144225A (ja) * 2016-02-17 2017-08-24 パナソニックIpマネジメント株式会社 生体情報検出装置
WO2019188348A1 (ja) * 2018-03-29 2019-10-03 パナソニックIpマネジメント株式会社 距離情報取得装置、マルチパス検出装置およびマルチパス検出方法
WO2020044854A1 (ja) * 2018-08-30 2020-03-05 パナソニックIpマネジメント株式会社 生体計測装置、及び生体計測方法

Also Published As

Publication number Publication date
JPWO2021182018A1 (ja) 2021-09-16
CN115052530A (zh) 2022-09-13
US20220400964A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
JP7065421B2 (ja) 撮像装置および対象物の内部の情報を取得する方法
JP6887097B2 (ja) 撮像装置
JP6399373B2 (ja) 撮像装置
US20190017932A1 (en) Measuring device including light source that emits at least one light pulse group, photodetector, and control circuit
JP2020103879A (ja) 生体計測方法、地図データ生成方法、プログラム、コンピュータ読み取り可能な記録媒体、および生体計測装置
WO2020044854A1 (ja) 生体計測装置、及び生体計測方法
JP7308430B2 (ja) ユーザの心理状態を推定するためのシステム、記録媒体、および方法
JPWO2020121705A1 (ja) 撮像装置
JP7186376B2 (ja) 計測装置
WO2021182018A1 (ja) 計測装置および計測装置を制御する方法
JP7417867B2 (ja) 光計測装置
JP2019020394A (ja) 計測装置
WO2022138063A1 (ja) 生体計測装置、生体計測方法、及び、コンピュータプログラム
WO2020137352A1 (ja) 生体計測方法、地図データ生成方法、プログラム、コンピュータ読み取り可能な記録媒体、および生体計測装置
WO2020137276A1 (ja) 撮像装置
WO2023090188A1 (ja) 光検出システム、処理装置、光検出システムを制御する方法、およびプログラム
JP2021141949A (ja) 測定装置、およびプログラム
CN110891481B (zh) 生物体计测装置及头戴式显示器装置
CN117377431A (zh) 推定用户的情绪状态的方法及装置
JP2020032105A (ja) 生体計測装置、生体計測システム、制御方法、およびコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21768222

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022505859

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21768222

Country of ref document: EP

Kind code of ref document: A1