WO2020054122A1 - 情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
WO2020054122A1
WO2020054122A1 PCT/JP2019/017339 JP2019017339W WO2020054122A1 WO 2020054122 A1 WO2020054122 A1 WO 2020054122A1 JP 2019017339 W JP2019017339 W JP 2019017339W WO 2020054122 A1 WO2020054122 A1 WO 2020054122A1
Authority
WO
WIPO (PCT)
Prior art keywords
pulse wave
phase
wave source
coincidence
measurement
Prior art date
Application number
PCT/JP2019/017339
Other languages
English (en)
French (fr)
Inventor
雄大 中村
内藤 正博
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201980057449.2A priority Critical patent/CN112638244B/zh
Priority to US17/269,263 priority patent/US20210186346A1/en
Priority to JP2020500925A priority patent/JP6727469B1/ja
Priority to DE112019004512.1T priority patent/DE112019004512T5/de
Publication of WO2020054122A1 publication Critical patent/WO2020054122A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • A61B5/7485Automatic selection of region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • G06F2218/10Feature extraction by analysing the shape of a waveform, e.g. extracting parameters relating to peaks

Definitions

  • the present invention relates to an information processing device, a program, and an information processing method.
  • information on heart rate or heart rate variability is often used as an index indicating the state of the autonomic nervous system, and is important information for managing the health of the driver.
  • information on heartbeat or heartbeat variability it is necessary to attach an electrode or the like for measuring an electrocardiogram to the chest to measure the activity of the heart, which imposes a heavy burden on the driver.
  • a contact type device such as a pulse oximeter is attached to a fingertip or an earlobe and a pulse wave is obtained from a change in volume of a blood vessel. Even in this method, it is still necessary to always attach the device to the fingertip or the earlobe, which imposes a heavy burden on the driver, and is not practical during vehicle operation.
  • Non-Patent Document 1 As a method of non-contactly estimating a pulse wave without imposing a burden on a subject, for example, as described in Non-Patent Document 1, a face of the subject is imaged with a camera, and a minute luminance change on the face of the subject is performed. There is a method of estimating a pulse wave from a pulse wave.
  • a plurality of measurement regions are set on a face image of a subject, and a frequency power spectrum of a luminance signal acquired in each measurement region is calculated.
  • a pulse wave is synthesized according to the peak frequency of the frequency power spectrum calculated in each region, and the pulse rate is estimated from the peak of the frequency power spectrum of the synthesized pulse wave.
  • an object of one or more aspects of the present invention is to enable a pulse wave to be accurately estimated from a video frame even when a human face moves.
  • An information processing device includes a skin region detection unit that detects a skin region that is a region including human skin from each of a plurality of frames showing video in a predetermined period, A measurement region setting unit that sets a plurality of measurement regions, and extracting a pulse wave source signal indicating a change in luminance during the predetermined period from each of the plurality of measurement regions, thereby obtaining the plurality of measurement regions.
  • a program includes a computer configured to control a computer to detect a skin region that is a region including human skin from each of a plurality of frames showing video in a predetermined period, A measurement region setting unit that sets a plurality of measurement regions, from each of the plurality of measurement regions, by extracting a pulse wave source signal indicating a change in luminance during the predetermined period, the number of the plurality of measurement regions A pulse wave source signal extraction unit that extracts a plurality of the pulse wave source signals respectively corresponding to each, a phase of each of a plurality of base components constituting each of the plurality of pulse wave source signals, the corresponding base components
  • a phase coincidence calculator that calculates a plurality of phase coincidences respectively corresponding to each of the plurality of pulse wave source signals, and the plurality of Phase coincidence Among them, a pulse wave estimating unit that specifies the highest degree of phase coincidence in which the phases coincide with each other and estimates a pulse wave of the person
  • An information processing method detects a skin region that is a region including human skin from each of a plurality of frames showing video in a predetermined period, and includes a plurality of measurement regions in the skin region.
  • a skin region that is a region including human skin from each of a plurality of frames showing video in a predetermined period
  • includes a plurality of measurement regions in the skin region By setting, from each of the plurality of measurement areas, by extracting a pulse wave source signal indicating a change in luminance in the predetermined period, a plurality of the plurality of each corresponding to each of the plurality of measurement areas Extracting a pulse wave source signal, and calculating a phase matching degree indicating the degree to which the phase of each of the plurality of base components constituting each of the plurality of pulse wave source signals matches between corresponding base components.
  • a pulse wave can be accurately estimated from a video frame even when a human face moves.
  • FIG. 3 is a block diagram schematically showing a configuration of a pulse wave estimation device according to Embodiments 1, 2, and 4.
  • (A)-(c) is the schematic which shows the example which sets a measurement area by face organ detection.
  • FIG. 7 is a schematic diagram for explaining a specific method of setting a measurement area.
  • FIG. 3 is a block diagram schematically showing a configuration of a phase coincidence calculating unit according to the first embodiment.
  • (A) and (b) are schematic diagrams showing an example of a hardware configuration.
  • 5 is a flowchart showing an operation of the pulse wave estimation device according to the first embodiment.
  • FIG. 2 is a schematic diagram illustrating a positional relationship among a subject's face, an imaging device, and a light source of ambient light according to the first embodiment.
  • FIG. 15 is a block diagram schematically showing a configuration of a phase matching degree calculation unit in Embodiments 2 and 4.
  • FIG. 13 is a block diagram schematically showing a configuration of a pulse wave estimating device according to Embodiment 3.
  • FIG. 15 is a block diagram schematically showing a configuration of a phase matching degree calculation unit according to Embodiment 3.
  • FIG. 13 is a schematic diagram showing a positional relationship among a subject's face, an imaging device, and a light source of ambient light in a third embodiment.
  • (A)-(c) is a schematic diagram showing an example of an image obtained by imaging a subject's face by an imaging device in the third embodiment.
  • (A)-(f) is a graph showing a change in average luminance value in a measurement region when a subject's face moves in the third embodiment.
  • FIG. 1 is a block diagram schematically showing a configuration of a pulse wave estimation device 100 as an information processing device according to Embodiment 1.
  • Pulse wave estimating apparatus 100 is an apparatus that can execute a pulse wave estimating method that is the information processing method according to the first embodiment. As shown in FIG. 1, pulse wave estimating apparatus 100 includes skin area detecting section 110, measurement area setting section 120, pulse wave source signal extracting section 130, phase matching degree calculating section 140, and pulse wave estimating section. 150.
  • the pulse wave estimating apparatus 100 receives image data of a video including a series of frames Im (k) representing a captured image of a space including a skin region of a subject at a predetermined frame rate Fr.
  • k indicates a frame number assigned to each frame.
  • the pulse wave estimating apparatus 100 outputs a pulse wave estimation result P (t) from a series of frames Im (k ⁇ Tp + 1) to Im (k) for each specific number of frames Tp.
  • t indicates an output number assigned for each specific number of frames Tp.
  • the pulse wave estimation result given at the next timing after the pulse wave estimation result P (t) is the pulse wave estimation result P (t + 1).
  • the frame number k and the output number t are integers of 1 or more.
  • the frame number Tp is an integer of 2 or more. It should be noted that the number of test subjects who are included in the image data may be one or more. For the sake of simplicity, the description below assumes that the number of subjects included in the image data is one.
  • the frame rate Fr is preferably, for example, 30 frames per second.
  • the image data is, for example, a color image, a gray scale image, or a distance image.
  • the image data is a grayscale image having a width of 640 pixels and a height of 480 pixels and an 8-bit gradation is described.
  • the number of frames Tp can be an arbitrary numerical value, for example, the number of frames corresponding to 10 seconds, and 300 frames is preferable in the above-described example.
  • the skin region detection unit 110 detects and detects a skin region, which is a region including the skin of the subject, from a frame Im (k) included in image data given as input information from an imaging device described later as an imaging unit. Then, skin area information S (k) indicating the damaged skin area is generated. The generated skin region information S (k) is provided to the measurement region setting unit 120.
  • the skin region in the first embodiment is a region corresponding to the face of the subject.
  • the skin region may be other than the subject's face.
  • the skin region may be a region corresponding to a part belonging to the face, such as the eyes, eyebrows, nose, mouth, forehead, cheek, or chin.
  • the skin region may be a region corresponding to a body part other than the face, such as the head, shoulders, hands, neck, or feet.
  • the skin region may be a plurality of regions.
  • Skin region information S (k) can include information indicating the presence or absence of detection of a skin region, and the position and size of the detected skin region on an image.
  • the skin area information S (k) is information indicating a rectangular area representing the position and size of the face on the image.
  • the skin area information S (k) includes, for example, whether or not the face of the subject is detected and the center coordinates Fc (Fcx, Fcx, Fcy) and the width Fcw and height Fch of this rectangle.
  • the presence / absence of the face detection is, for example, “1” when the face is detected, and “0” when the face is not detected.
  • the center coordinates of the rectangle are expressed in the coordinate system of the frame Im (k), the origin is at the upper left of the frame Im (k), the rightward direction of the frame Im (k) is the positive direction of the x-axis, and the frame Im (k) Is defined as the positive direction of the y-axis.
  • ⁇ ⁇ Detection of the subject's face can be realized by using known means. For example, a rectangular area surrounding the subject's face can be extracted using a cascaded face detector using Haar-like feature values.
  • the measurement area setting unit 120 receives the frame Im (k) and the skin area information S (k), and stores the pulse wave signal in the image area corresponding to the skin area indicated by the skin area information S (k). A plurality of measurement regions to be extracted are set, and measurement region information R (k) indicating the set plurality of measurement regions is generated. The generated measurement region information R (k) is provided to the pulse wave source signal extraction unit 130.
  • the measurement area information R (k) can include information indicating the positions and sizes of Rn (positive integers) measurement areas on the image.
  • the measurement region ri (k) is described as a quadrilateral, and the position and size of the measurement region ri (k) are the coordinates of the four vertices of the quadrilateral in the image.
  • the measurement region setting unit 120 sets the facial organs (the outer corners of the eyes, as shown in FIG. 2A or FIG. 2B) in the skin region sr indicated by the skin region information S (k).
  • Ln positive integer landmarks of the inner corner, nose, mouth, etc.
  • L (k) a vector storing the coordinate values of each landmark is defined as L (k).
  • FIGS. 2A and 2B landmarks are indicated by circles.
  • Face organ detection can be realized using known means. For example, using a model called Constrained Local Model (CLM), it is possible to detect the coordinate values of landmarks of the face organ.
  • CLM Constrained Local Model
  • the number Ln of landmarks is not particularly limited, 66 points shown in FIG. 2A or 29 points shown in FIG. 2B are preferable.
  • the larger the number of landmarks the more stable the detection result and the larger the processing amount. Therefore, it is desirable to determine the number of landmarks according to hardware such as a CPU.
  • the description will be made on the assumption that the number Ln of landmarks is 66 points.
  • the measurement area setting unit 120 sets the vertex coordinates of the quadrilateral of the measurement area ri (k) based on the detected landmark. For example, the measurement region setting unit 120 sets the vertex coordinates of the quadrilateral as shown in FIG. 2C, and sets Rn measurement regions ri (k).
  • Rn the number of measurement areas Rn is 12.
  • the measurement area setting unit 120 selects a landmark A1 of the contour of the face and a landmark A2 of the nose. For example, the measurement area setting unit 120 first selects the landmark A2 of the nose, and then selects the landmark A1 of the face contour closest to the landmark A2 of the nose.
  • the measurement area setting unit 120 sets the auxiliary landmarks a1, a2, and a3 so as to divide the line segment between the landmark A1 and the landmark A2 into four equal parts.
  • the measurement area setting unit 120 selects the landmark B1 of the contour of the face and the landmark B2 of the nose, and assists to divide the line segment between the landmark B1 and the landmark B2 into four equal parts.
  • the landmarks b1, b2, b3 are set.
  • the landmark B1 may be selected, for example, from a nose landmark adjacent to the landmark A1.
  • the landmark B2 may be selected from landmarks of the face adjacent to the landmark A2.
  • the measurement region setting unit 120 defines a quadrilateral region surrounded by the auxiliary landmarks a1, b1, b2, and a2 as one measurement region R1.
  • the auxiliary landmarks a1, b1, b2, and a2 are vertex coordinates corresponding to the measurement region R1.
  • the measurement region setting unit 120 defines a quadrilateral region surrounded by the auxiliary landmarks a2, b2, b3, and a3 as one measurement region R2.
  • the auxiliary landmarks a2, b2, b3, a3 are vertex coordinates corresponding to the measurement region R2.
  • the measurement area setting unit 120 sets the vertex coordinates of the quadrilateral of the measurement area ri (k) by executing the same processing on the other part of the cheek and the part corresponding to the chin. Then, the measurement region setting unit 120 generates information including the coordinates of the four vertices of each measurement region ri (k) as measurement region information R (k), and uses the measurement region information R (k) as a pulse wave source signal. This is given to the extraction unit 130
  • the measurement area setting unit 120 detects the coordinates of the landmark using the CLM, but the present invention is not limited to this.
  • the measurement area setting unit 120 may use a tracking technique such as a Kanade-Lukas-Tomasi (KLT) tracker.
  • KLT Kanade-Lukas-Tomasi
  • the measurement area setting unit 120 detects the coordinates of the landmark by the CLM for the first frame Im (1), and tracks the landmark coordinates by the KLT tracker after the next frame Im (2).
  • Landmark coordinates for each frame Im (k) may be calculated.
  • the measurement area setting unit 120 may execute CLM once every several frames and perform reset processing such as resetting the coordinate position of the landmark.
  • the position of the measurement area is not limited to 12 areas as shown in FIG.
  • a forehead portion may be included, and a nose tip region may be included.
  • the measurement area setting unit 120 may change the setting area depending on the subject. For example, for a subject whose bangs hang on the forehead, the measurement area setting unit 120 may detect this and exclude the forehead area from the measurement area. If the subject wears spectacles with thick edges, the measurement area setting unit 120 may detect the position of the spectacles and exclude that area from the measurement area. In addition, if the subject has a beard, the measurement area setting unit 120 may exclude the beard area from the measurement area. Further, the measurement area may overlap with another measurement area.
  • the pulse wave source signal extraction unit 130 receives the frame Im (k) and the measurement area information R (k), and receives a plurality of measurement areas ri (k) indicated by the measurement area information R (k). , A pulse wave source signal indicating a change in luminance during a period corresponding to the number of frames Tp included in a predetermined period is extracted, and pulse wave source signal information W indicating the extracted pulse wave source signal is extracted. (T) is generated.
  • the pulse wave source signal is a signal that is a source of a pulse wave.
  • the generated pulse wave source signal information W (t) is provided to the phase matching degree calculation unit 140 and the pulse wave estimation unit 150.
  • Pulse wave source signal information W (t) can include information indicating the pulse wave source signal wi (t) extracted in the measurement region ri (k).
  • the pulse wave source signal wi (t) is time-series data for Tp, and includes, for example, frames Im (k ⁇ Tp + 1), Im (k ⁇ Tp + 2),. It is extracted based on the measurement area information R (k ⁇ Tp + 1), R (k ⁇ Tp + 2),..., R (k).
  • the luminance feature value Gi (j) is a value calculated based on the luminance value on the frame Im (j) for each measurement region ri (j), and is included in the measurement region ri (j), for example. This is the average or variance of the luminance value of the pixel.
  • the luminance feature value Gi (j) is the average of the luminance values of the pixels included in the measurement region ri (j).
  • ⁇ Pulse wave source signal extraction unit 130 generates pulse wave source signal information W (t) in which pulse wave source signals wi (t) in each measurement region ri (k) are combined.
  • the generated pulse wave source signal information W (t) is provided to the phase matching degree calculation unit 140 and the pulse wave estimation unit 150.
  • the pulse wave source signal wi (t) includes various noise components in addition to the pulse wave component and the face movement component described above.
  • the noise component for example, there is noise due to an element defect of the imaging device described later.
  • filter processing it is desirable to perform filter processing as preprocessing on the pulse wave source signal wi (t).
  • the pulse wave source signal wi (t) is processed using, for example, a low-pass filter, a high-pass filter, or a band-pass filter.
  • a band-pass filter for example, a Butterworth filter or the like can be used.
  • the cutoff frequency of the bandpass filter for example, the lower cutoff frequency is desirably 0.5 Hz, and the higher cutoff frequency is desirably 5.0 Hz.
  • the type of filter processing is not limited to the above-described Butterworth filter. Also, the cutoff frequency is not limited to these. The type of filter processing and the cutoff frequency may be set according to the state or situation of the subject.
  • the phase coincidence degree calculation unit 140 receives the pulse wave source signal information W (t), and the phases of a plurality of base components included in the pulse wave source signal information W (t) match between corresponding base components.
  • the degree of phase matching indicating the degree of occurrence is calculated, and phase matching degree information C (t) indicating the degree of phase matching for each base component is generated.
  • the phase matching degree information C (t) is provided to the pulse wave estimation unit 150.
  • the phase matching degree calculation unit 140 is an attribute matching degree calculation unit.
  • the phase matching degree calculation unit 140 selects two pairs of pulse wave source signals from a plurality of pulse wave source signals indicated by the pulse wave source signal information W (t).
  • the selected pair of the two pulse wave source signals is a first pulse wave source signal and a second pulse wave source signal.
  • the phase coincidence calculating section 140 calculates a corresponding base between each of the plurality of base components forming the first pulse wave source signal and each of the plurality of base components forming the second pulse wave source signal.
  • a plurality of degrees of coincidence indicating the degree of phase coincidence between components are calculated.
  • the phase matching degree calculation unit 140 specifies a plurality of attribute matching degrees according to the calculated plurality of matching degrees.
  • each of the plurality of attribute coincidences corresponds to each of the plurality of base components.
  • the phase matching degree calculation unit 140 may select one pair, or may select two or more pairs. When a plurality of pairs are selected, the phase coincidence calculating unit 140 sets a plurality of values obtained by summing the plurality of coincidences calculated for the plurality of pairs for each corresponding base component as a plurality of phase coincidences. It should be specified. Further, the phase coincidence calculating section 140 may select one pair and specify a plurality of coincidences calculated by the one pair as a plurality of phase coincidences. Hereinafter, the description will be given on the assumption that the phase matching degree calculation unit 140 selects a plurality of pairs.
  • FIG. 4 is a block diagram schematically showing a configuration of phase matching degree calculating section 140.
  • the phase matching degree calculating section 140 includes a two-region phase matching degree calculating section 141 and a phase matching degree totaling section 142.
  • the two-region phase coincidence degree calculation unit 141 selects two of the plurality of measurement regions ri (k) used for calculating the pulse wave source signal wi (t). A pair of the measurement regions ru (k) and rv (k) is selected, and two pulse wave source signals wu (t) and wv (t) corresponding to the two pairs of the measurement regions ru (k) and rv (k). Select a pair. Then, the two-region phase coincidence calculation unit 141 calculates the two-region phase coincidence cuv that is the degree of coincidence of the phase of the base component in the selected pair of the pulse wave source signals wu (t) and wv (t). (T) is calculated.
  • the two-region phase coincidence calculation unit 141 provides the combined two-region phase coincidence cuv (t) to the phase coincidence summation unit 142 as two-region phase coincidence information N (t).
  • the two-region phase coincidence calculator 141 decomposes the pulse wave source signal wi (t) into base components.
  • the base component is a signal component constituting the pulse wave source signal wi (t), and is a signal component that can express the pulse wave source signal when the base component is given as an argument of an arbitrary function. It is.
  • the two-region phase matching degree calculation unit 141 decomposes the pulse wave source signal wi (t) of each measurement region ri (k) included in the pulse wave source signal information W (t) into frequency components.
  • FFT fast Fourier transform
  • the pulse wave source signal wi (t) which is time-series data, can be decomposed into frequency component data (magnitude (power) and phase of each frequency component).
  • the two-region phase coincidence calculating unit 141 calculates two measurement regions ru (k) and rv (k) from the plurality of measurement regions ri (k) used for calculating the pulse wave source signal wi (t). ) Is selected, and the phase coincidence cuv (t) between the two regions, which is the degree of phase coincidence of the base component (frequency component) in the pair of the two measurement regions ru (k) and rv (k), is calculated.
  • the phase coincidence cuv (t) between the two regions is calculated, for example, as an absolute value of a difference between the phase ⁇ Fv (f, t) of the measurement region u and the phase ⁇ Fv (f, t) of the measurement region v. .
  • the degree of phase matching in each frequency component can be calculated.
  • the degree of phase coincidence for each frequency component is calculated, and the arrangement is defined as the phase coincidence cuv (t) between the two regions.
  • the two-region phase coincidence calculation unit 141 generates the two-region phase coincidence information N (t) by collecting the two-region phase coincidence cuv (t) for each frequency component.
  • the two-region phase matching degree calculation unit 141 does not need to calculate the phase matching degree for all frequency components, and may calculate it only for frequency components that satisfy a specific condition. For example, when the power (magnitude) of the frequency component is extremely small, it can be regarded as a noise component instead of a pulse wave component. Is not calculated. Alternatively, assuming that the degree of phase coincidence is low in a pseudo manner, the two-region phase coincidence calculating section 141 may give a constant to the degree of phase coincidence of the corresponding frequency component.
  • the phase matching degree summation unit 142 is provided with the phase matching degree information N (t) between the two regions, adds the phase matching degree cuv (t) between the two regions for each base component, and calculates the sum between the measurement regions ri (k).
  • Phase matching degree information C (t) indicating the phase matching degree for each base component is generated.
  • the phase matching degree information C (t) is provided to the pulse wave estimation unit 150.
  • the phase coincidence information C (t) is calculated, for example, by adding the phase coincidence cuv (t) between the two regions included in the phase coincidence information N (t) between the two regions for each frequency component.
  • the method of calculating the phase matching degree information C (t) is not limited to the addition for each component, and multiplication or the like may be used.
  • the two-measurement area ru (k) and rv (k) are used by the two-area phase coincidence degree calculation section 141 from the plurality of measurement areas ri (k) used for calculating the pulse wave source signal wi (t).
  • the phase matching degree summing unit 142 converts the phase matching degree information N (t) between the two regions into the phase matching degree information C What is necessary is just to give to the pulse-wave estimation part 150 as (t).
  • pulse wave estimating section 150 estimates a pulse wave based on pulse wave source signal information W (t) and phase coincidence degree information C (t), and outputs a pulse indicating the estimated pulse wave.
  • the pulse wave information may be, for example, time-series data of the estimated pulse wave or a pulse rate.
  • the pulse wave information indicates a pulse rate (number of foils per minute).
  • the pulse wave estimating unit 150 sets the base having the highest phase matching degree among the phase matching degree information C (t) for each frequency component.
  • a frequency component as a component is specified, and a pulse wave is estimated based on the specified frequency component.
  • pulse wave estimating section 150 assumes that the frequency component having the highest phase coincidence corresponds to the pulse wave, and outputs the frequency of the frequency component corresponding to the pulse wave as the pulse rate.
  • the memory 1 and a processor 2 such as a CPU (Central Processing Unit) that executes a program stored in the memory 1 can be used.
  • a program may be provided through a network, or may be provided by being recorded on a recording medium. That is, such a program may be provided as a program product, for example.
  • Part or all of the skin region detection unit 110, the measurement region setting unit 120, the pulse wave source signal extraction unit 130, the phase matching degree calculation unit 140, and the pulse wave estimation unit 150 are, for example, shown in FIG.
  • a processing circuit 3 such as a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuits) or an FPGA (Field Programmable Gate Array) can also be used. .
  • FIG. 6 is a flowchart showing an operation of pulse wave estimating apparatus 100 according to Embodiment 1.
  • the operation shown in FIG. 6 is performed every frame in which a captured image is input, that is, once in one frame period.
  • the skin area detection unit 110 detects a skin area of a subject from a frame Im (k) given as input information from an imaging device described later, and generates skin area information S (k) indicating the detected skin area. It is generated (S10).
  • the generated skin region information S (k) is provided to the measurement region setting unit 120.
  • measurement region setting section 120 receives frame Im (k) and skin region information S (k), and extracts a pulse wave signal from the skin region indicated by skin region information S (k).
  • a plurality of measurement areas ri (k) are set, and measurement area information R (k) indicating the set measurement areas ri (k) is generated (S11).
  • the generated measurement region information R (k) is provided to the pulse wave source signal extraction unit 130.
  • the pulse wave source signal extraction unit 130 receives the frame Im (k) and the measurement region information R (k), and sets the luminance in each measurement region ri (k) indicated by the measurement region information R (k). Based on the value, a pulse wave source signal wi (t) as a source of the pulse wave is extracted, and pulse wave source signal information W (t) indicating the extracted pulse wave source signal wi (t) is generated (S12). ). The generated pulse wave source signal information W (t) is provided to the phase matching degree calculation unit 140 and the pulse wave estimation unit 150.
  • the phase matching degree calculation unit 140 receives the pulse wave source signal information W (t), and calculates a base component included in the pulse wave source signal wi (t) indicated by the pulse wave source signal information W (t). The degree of phase coincidence between the measurement regions ri (k) is calculated, and phase coincidence information C (t) indicating the degree of phase coincidence for each base component is generated (S13). The phase matching degree information C (t) is provided to the pulse wave estimation unit 150.
  • pulse wave estimating section 150 estimates a pulse wave based on pulse wave source signal information W (t) and phase coincidence degree information C (t), and estimates a pulse wave indicating the estimated pulse wave.
  • the result P (t) is output (S14).
  • FIG. 7 is a schematic diagram showing the positional relationship between the subject's face, the imaging device 160, and the light source 161 for ambient light. As shown in FIG. 7, it is assumed that a measurement area A and a measurement area B are arranged in the skin area of the subject's face.
  • FIGS. 8A to 8C show examples of images obtained by imaging the subject's face by the imaging device 160 shown in FIG.
  • the image shown in FIG. 8A is an example when the face of the subject is located at the center of the imaging device 160. Such a position is set as a reference position.
  • the image illustrated in FIG. 8B is an example in which the subject's face is located on the right side of the center of the imaging device 160. Such a position is defined as a right position.
  • the image shown in FIG. 8C is an example when the subject's face is located on the left side of the center of the imaging device 160. Such a position is defined as a left position.
  • the measurement area A is brighter than the reference position when the face is at the right position, and darker than the reference position when the face is at the left position.
  • the measurement area B is darker than the reference position when the face is at the right position, and is brighter than the reference position when the face is at the left position.
  • FIGS. 9A to 9D show the measurement area A when the subject's face moves in the order of the reference position, the right position, the reference position, the left position, the reference position, the right position, the reference position, and the left position.
  • B show changes in average luminance value.
  • FIG. 9A illustrates a change in the average luminance value of the face motion component in the measurement area A when the subject's face moves as described above
  • FIG. 9B illustrates a case where the subject's face moves as described above
  • 7 shows a change in the average luminance value of the pulse wave component of the face in the measurement area A in the case of moving to
  • FIG. 9C shows a change in the average luminance value of the face motion component in the measurement area B when the subject's face moves as described above
  • FIG. 7 shows a change in the average luminance value of the pulse wave component of the face in the measurement area B when the movement has been made.
  • the average luminance value in the measurement area changes accordingly.
  • the frequency of the luminance value change of the face motion component is closer to the measurement region, but the phase is different.
  • the timing of brightening and the timing of darkening are different. In other words, when the measurement area A is bright. Since the measurement area B becomes dark, the phase of each frequency component is different when the change in luminance value is viewed as a signal component.
  • the frequency and the phase of the luminance value change of the pulse wave component are close values in any measurement area. That is, since there is a difference between a phase change and a phase change between the luminance value change due to the face movement and the luminance value change due to the pulse wave, the degree of coincidence of the phase of the base component in each measurement region should be compared. Thus, it is possible to discriminate the component of the luminance value change due to the face movement from the component of the luminance value change due to the pulse wave. In particular, by selecting a base component having a high degree of phase coincidence as a pulse wave component, it is possible to suppress the influence of face movement and accurately estimate a pulse wave.
  • the pulse wave estimation device 100 uses the pulse wave source signal extracted between the measurement regions for the base component. By estimating the pulse wave based on the degree of phase coincidence, it is possible to suppress a decrease in accuracy due to the movement of the face and accurately estimate the pulse wave.
  • a pair of two regions is generated from the plurality of measurement regions, and the degree of coincidence of the base component is calculated and added to each pair, thereby calculating the degree of phase coincidence of the base component between the plurality of measurement regions. Therefore, the pulse wave can be estimated with higher accuracy.
  • the image data is described as a grayscale image, but the image data is not limited to this.
  • an RGB image may be used as image data.
  • the above-described grayscale image may be image data acquired by an imaging device that can receive near-infrared light (for example, light having a wavelength of 850 nm or 940 nm).
  • the subject can be illuminated and imaged using the near-infrared light illuminating device, and the pulse wave can be estimated by the pulse wave estimating device 100 according to the first embodiment even at night.
  • ambient light is illuminated from above, but the present invention is not limited to this.
  • ambient light may be illuminated from the side.
  • the pulse wave estimation result P (t) is described as a pulse rate, but is not limited to this.
  • the pulse wave estimating unit 150 determines, for example, that the component having the highest phase coincidence among the phase coincidence information C (t) for each component corresponds to the pulse wave, and performs inverse processing using the data of the corresponding frequency component.
  • the pulse wave may be synthesized by performing Fourier transform.
  • the number of subjects included in the image data is one, but is not limited thereto.
  • a pulse wave may be estimated for each subject.
  • pulse wave estimating apparatus 200 includes a skin region detecting unit 110, a measurement region setting unit 120, a pulse wave source signal extracting unit 130, a phase matching degree calculation Unit 240 and a pulse wave estimating unit 150.
  • the skin region detection unit 110, the measurement region setting unit 120, the pulse wave source signal extraction unit 130, and the pulse wave estimation unit 150 The same as the skin region detection unit 110, the measurement region setting unit 120, the pulse wave source signal extraction unit 130, and the pulse wave estimation unit 150 of the estimation device 100.
  • pulse wave estimating apparatus 200 is an apparatus that can execute a pulse wave estimating method, which is an information processing method according to Embodiment 2.
  • ⁇ Phase coincidence calculating section 240 in the second embodiment selects a plurality of pairs of two pulse wave source signals from a plurality of pulse wave source signals indicated by pulse wave source signal information W (t). Then, similarly to the first embodiment, phase coincidence calculating section 240 calculates, from each of the selected pairs, a plurality of coincidences indicating the degree to which the corresponding base components are in phase. . Then, the phase matching degree calculation unit 240 sets a weighting coefficient for each of the plurality of pairs, weights the plurality of matching degrees calculated for each of the plurality of pairs using the weighting coefficient, and The value summed for each base component is specified as a plurality of phase coincidences.
  • the phase matching degree calculation unit 240 sets the weighting coefficient such that the greater the degree of phase matching is included in the plurality of matching degrees calculated from each of the plurality of pairs, the greater the weight is. Can be set.
  • the phase matching degree calculation unit 240 may set the weight coefficient such that the weight increases as the distance between the two measurement areas ru (k) and rv (k) corresponding to each of the plurality of pairs increases. it can.
  • FIG. 10 is a block diagram schematically showing a configuration of phase matching degree calculating section 240 according to the second embodiment.
  • the phase matching degree calculating section 240 includes a two-region phase matching degree calculating section 141, a phase matching degree totaling section 242, and a weight coefficient calculating section 243.
  • the phase matching calculating section 141 between the two regions of the phase matching calculating section 240 according to the second embodiment is the same as the phase matching calculating section 141 between the two areas of the phase matching calculating section 140 according to the first embodiment.
  • the two-region phase matching degree calculation unit 141 in the second embodiment provides the two-region phase matching degree information N (t) to the phase matching degree summation unit 242 and the weight coefficient calculation unit 243.
  • the weight coefficient calculation unit 243 receives the two-region phase coincidence information N (t), and the weight coefficient duv for each two-region phase coincidence cuv (t) indicated by the two-region phase coincidence information N (t). (T) is calculated, and weight information D (t) indicating the calculated weight coefficient duv (t) is generated.
  • the weight information D (t) is provided to the phase matching degree summation unit 242.
  • the weight information D (t) can include a weight coefficient duv (t) for each of the two-region phase coincidence cuv (t) included in the two-region phase coincidence information N (t).
  • the weight coefficient duv (t) takes a value between “0” and “1”, for example. For example, when the weight coefficient duv (t) is “0”, the weight for the corresponding two-region phase coincidence cuv (t) is small, and when the weight coefficient duv (t) is “1”, the corresponding two The weight for the inter-region phase coincidence cuv (t) is large. When the weighting factor duv (t) is “0.5”, the weight is approximately intermediate between “0” and “1”.
  • the weight coefficient duv (t) is determined based on, for example, the phase matching degree cuv (t) between the two regions.
  • the phase coincidence cuv (t) when the absolute value of the phase difference of the base component acquired in each measurement region ri (k) is used as the phase coincidence cuv (t) between the two regions, the phase coincidence cuv ( Each element of t) has a smaller value as the phase of the base component matches between the two measurement regions ru (k) and rv (k). Therefore, as the degree of phase coincidence cuv (t) between the two regions includes a smaller value, there is a base component whose phase is more consistent between the two measurement regions ru (k) and rv (k). Become.
  • the two measurement regions ru (k) including the pulse wave component are set. Using the information of the pair of rv (k), it is possible to calculate the degree of phase coincidence between the measurement regions ri (k).
  • the corresponding weight coefficient duv (t) is determined based on the minimum value of the phase matching cuv (t) between the two regions. It is desirable to do.
  • a method of determining the weighting factor duv (t) a method using the minimum value of the phase coincidence cuv (t) between the two regions will be described.
  • c max be the maximum possible value of the phase matching degree cuv (t) between the two regions
  • c min be the minimum value. Further, assuming that the corresponding minimum value in the phase matching degree cuv (t) between the two regions is cuv min (t), the weight coefficient duv (t) is calculated by the following equation (1).
  • duv (t) 1.0- (cuv min (t) -c min ) / (c max -c min ) (1)
  • duv (t) By calculating the weight coefficient duv (t) by the above equation, the more the phases match, in other words, the smaller the corresponding degree of phase matching cuv (t) between the two regions includes a smaller value, the more the weight coefficient becomes. duv (t) can be set large.
  • the weighting factor calculation unit 243 collects the weighting factors duv (t) calculated for the phase matching degrees cuv (t) between the two regions, and generates weighting information D (t) indicating them.
  • the weight information D (t) is provided to the phase matching degree summation unit 242.
  • the phase matching degree summation unit 242 receives the phase matching degree information N (t) between the two regions and the weight information D (t), and generates phase matching degree information C (t) for each base component between the measurement regions. , And the generated phase coincidence information C (t) to the pulse wave estimating unit 150.
  • the phase matching degree summation unit 242 converts the two-region phase matching degree cuv (t) indicated by the two-region phase matching degree information N (t) into the corresponding weight information D ( Weighting is performed using a weighting factor duv (t) indicated by t), and the weighting is performed.
  • the weighted addition is performed as shown by the following equation (2). ⁇ u, v (duv (t) ⁇ cuv (t)) (2)
  • the phase matching degree summation unit 242 calculates the weight information corresponding to the two-area phase matching degree cuv (t) indicated by the two-area phase matching degree information N (t). D (t) is multiplied and added for each base component, thereby generating phase matching information C (t) indicating the degree of phase matching for each base component between the measurement regions ri (k). The phase matching degree information C (t) is provided to the pulse wave estimation unit 150.
  • Embodiment 2 calculating weight coefficient duv (t) based on the minimum value of phase coincidence cuv (t) between the two regions, in other words, By calculating so that the smaller the minimum value of the phase coincidence cuv (t) between the two regions is, the larger the weighting factor duv (t) is, the more weight is placed on the pair of the measurement regions ri (k) with more uniform phases. Thus, the degree of phase matching between the measurement regions ri (k) can be calculated. For this reason, Embodiment 2 can estimate a pulse wave with higher accuracy.
  • the weight coefficient duv (t) is calculated based on the minimum value of the phase matching degree cuv (t) between the two regions.
  • the method of calculating the weight coefficient duv (t) is as follows. The method is not limited to this.
  • the corresponding weight coefficient duv (t) may be determined according to the distance between the two measurement areas ru (k) and rv (k). As for the face motion component included in the change in the average brightness value, the phase difference is more likely to occur when the distance between the two regions used for calculating the phase coincidence cuv (t) between the two regions is larger.
  • the weighting factor calculation unit 243 calculates the distance between the two measurement regions ru (k) and rv (k) from the position of the measurement region ri (k) on the image, and calculates the weight according to the calculated distance.
  • the coefficient duv (t) is set.
  • the weighting factor calculation unit 243 sets the weighting factor duv (t) such that the larger the distance, the larger the value.
  • the weight coefficient duv (t) may be calculated using a method other than the one weight coefficient calculation method, or the weight coefficient duv (t) may be determined comprehensively by combining a plurality of methods.
  • FIG. 11 is a block diagram schematically showing a configuration of pulse wave estimating apparatus 300 as an information processing apparatus according to Embodiment 3.
  • Pulse wave estimation apparatus 300 is an apparatus that can execute a pulse wave estimation method that is an information processing method according to the third embodiment. As shown in FIG. 11, pulse wave estimating apparatus 300 includes skin area detecting section 110, measurement area setting section 120, pulse wave source signal extracting section 130, phase matching degree calculating section 340, and pulse wave estimating section. 150 and a fluctuation information acquisition unit 370.
  • the skin region detection unit 110, the measurement region setting unit 120, the pulse wave source signal extraction unit 130, and the pulse wave estimation unit 150 of the pulse wave estimation device 300 according to the third embodiment The same as the skin region detection unit 110, the measurement region setting unit 120, the pulse wave source signal extraction unit 130, and the pulse wave estimation unit 150 of the estimation device 100.
  • the fluctuation information acquisition unit 370 specifies the fluctuation of each measurement area ri (k) from the measurement area information R (k), and generates fluctuation information M (t) indicating the specified fluctuation.
  • the variation information M (t) is provided to the phase matching degree calculation unit 340.
  • the variation information M (t) can include element information mi (t) indicating a motion, a change in size, a change in shape, or the like of each measurement region ri (k) on an image.
  • the motion on the image includes, for example, the position on the image of the measurement region ri (e) in the e-th frame Im (e), and the e ⁇ 1-th frame Im (e ⁇ 1) Is a two-dimensional vector indicating the difference from the position of the corresponding measurement area ri (e-1) on the image in the above.
  • the positions of the measurement areas ri (e) and ri (e-1) on the image can be, for example, the positions of the centers of gravity of the measurement areas ri (e) and ri (e-1).
  • the barycentric coordinates of the four vertices forming the measurement regions ri (e) and ri (e-1) may be used as the barycentric position.
  • the size change is caused by the area of the measurement area ri (e) in the e-th frame Im (e) and the area of the corresponding measurement area ri (e-1) in the (e-1) -th frame Im (e-1). This is the difference from the area.
  • the shape change is, for example, a ratio of the length of each side to the total length of the four sides of the measurement region ri (e) in the e-th frame Im (e) (four values because there are four sides). ) And the ratio of the length of each side to the total length of the four sides of the corresponding measurement region ri (e-1) in the (k-1) th frame Im (e-1). It is a dimensional vector.
  • the element information mi (t) is, for example, time-series data for the above information Tp, for example, measurement area information R (k ⁇ Tp), R (k ⁇ Tp + 1),. , R (k).
  • the element information mi (t) is time-series data for Tp composed of two-dimensional vectors indicating the movement of the center of gravity of each measurement area ri (k), and the variation information M (t) is assumed to be information that summarizes them. Note that the element information mi (t) does not need to be time-series data for Tp, and may be composed of an arbitrary number of data.
  • the phase coincidence calculating section 340 also selects a plurality of pairs of two pulse wave source signals, and determines the phase between the corresponding base components from each pair. A plurality of coincidences indicating the degree of coincidence are calculated. Then, the phase matching degree calculation unit 340 sets a weight coefficient for each of the plurality of pairs, weights the plurality of matching degrees calculated for each of the plurality of pairs using the weight coefficient, and corresponds to the weight. The value summed for each base component is specified as a plurality of phase coincidences.
  • two measurement areas ru (k) and rv (k) corresponding to each of a plurality of pairs are arranged in the phase coincidence calculating section 340 based on the variation information M (t).
  • the weighting factor can be set such that the closer the direction is to the direction in which the subject moves, the heavier the weight.
  • the phase matching degree calculation unit 340 determines that the closer the size of the two measurement areas ru (k) and rv (k) corresponding to each of the plurality of pairs changes, the closer the change is.
  • the weighting factor can be set so that the weight becomes heavier.
  • the phase matching degree calculation unit 340 determines that the closer the way of changing the shape of the two measurement areas ru (k) and rv (k) corresponding to each of the plurality of pairs, the closer ,
  • the weighting factor can be set so that the weight becomes heavier.
  • FIG. 12 is a block diagram schematically showing a configuration of phase matching degree calculation section 340.
  • the phase matching degree calculating section 340 includes a two-region phase matching degree calculating section 141, a phase matching degree totaling section 242, and a weight coefficient calculating section 343.
  • the phase matching calculating section 141 between the two regions of the phase matching calculating section 340 according to the third embodiment is similar to the phase matching calculating section 141 between the two areas of the phase matching calculating section 140 according to the first embodiment.
  • the two-region phase coincidence calculating unit 141 in the third embodiment provides the two-region phase coincidence information N (t) to the phase coincidence summation unit 242 and the weight coefficient calculation unit 343.
  • phase matching degree summing unit 242 of the phase matching degree calculating unit 340 according to the third embodiment is the same as the phase matching degree summing unit 242 of the phase matching degree calculation unit 240 according to the second embodiment. However, the phase matching degree summation unit 242 in the third embodiment acquires the weight information D (t) from the weight coefficient calculation unit 343.
  • the weighting coefficient calculation unit 343 receives the two-region phase matching information N (t) and the variation information M (t), and receives the two-region phase matching information indicated by the two-region phase matching information N (t).
  • a weight coefficient duv (t) for the degree cuv (t) is calculated using the variation information M (t), and weight information D (t) indicating the calculated weight coefficient duv (t) is generated.
  • the weight information D (t) is provided to the phase matching degree summation unit 242.
  • FIG. 13 is a schematic diagram illustrating the positional relationship between the subject's face, the imaging device 160, and the light source 161 for ambient light. As shown in FIG. 13, it is assumed that a measurement area A, a measurement area B, and a measurement area C are arranged in the skin area of the subject's face.
  • FIGS. 14A to 14C show examples of images obtained by imaging a subject's face by the imaging device 160 shown in FIG.
  • the image illustrated in FIG. 14A is an example when the face of the subject is located at the center of the imaging device 160. Such a position is set as a reference position.
  • the image illustrated in FIG. 14B is an example in which the subject's face is located on the right side of the center of the imaging device 160. Such a position is defined as a right position.
  • the image shown in FIG. 14C is an example when the subject's face is located on the left side of the center of the imaging device 160. Such a position is defined as a left position.
  • the measurement area A and the measurement area C are brighter than the reference position when the face is at the right position, and darker than the reference position when the face is at the left position.
  • the measurement area B is darker than the reference position when the face is at the right position, and is brighter than the reference position when the face is at the left position.
  • FIGS. 15A to 15F show measurement areas A when the subject's face moves in the order of the reference position, the right position, the reference position, the left position, the reference position, the right position, the reference position, and the left position.
  • B, and C show changes in the average luminance value.
  • FIG. 15A shows a change in the average brightness value of the face motion component in the measurement area A when the subject's face moves as described above
  • FIG. 7 shows a change in the average luminance value of the pulse wave component of the face in the measurement area A in the case of moving to.
  • FIG. 15C shows a change in the average brightness value of the face motion component in the measurement area B when the subject's face moves as described above
  • FIG. 7 shows a change in the average luminance value of the pulse wave component of the face in the measurement area B when the movement has been made.
  • FIG. 15E shows a change in the average brightness value of the face motion component in the measurement area C when the subject's face moves as described above
  • FIG. 9 shows a change in the average brightness value of the pulse wave component of the face in the measurement area C when the measurement area C moves.
  • the weighting factor calculation unit 343 calculates the weighting factor duv (t) based on the variation information M (t) using the above-described characteristics. Specifically, when the pair of the measurement regions ru (k) and rv (k) has a positional relationship in the same direction as the two-dimensional vector included in the variation information M (t), the phase matching degree between the two regions The weight coefficient duv (t) for cuv (t) is set large. On the other hand, when the pair of the measurement areas ru (k) and rv (k) has a vertical positional relationship, the weight coefficient duv (t) is set to be small.
  • the weight coefficient calculation unit 343 calculates a representative vector Ms (t) (a two-dimensional vector) which is a representative motion vector included in the variation information M (t). To identify.
  • the weighting factor calculation unit 343 may specify, for example, the maximum value of the two-dimensional vector included in the variation information M (t) as the representative vector Ms (t).
  • the weight coefficient calculation unit 343 calculates the average value m_ave (t) of the element information mi (t) of each of the Rn measurement regions included in the variation information M (t). ) (Data having Tp two-dimensional vectors). Next, the weight coefficient calculation unit 343 selects a two-dimensional vector having the largest vector length from the two-dimensional vectors included in the average value m_ave (t), and sets the selected two-dimensional vector as a selected vector M_max (t). Then, the weighting factor calculation unit 343 sets a value obtained by converting the selected vector M_max (t) into a unit vector (a vector having a length of 1) as a representative vector Ms (t).
  • the weight coefficient calculation unit 343 calculates a two-dimensional vector puv (t) indicating the relative positional relationship between the measurement regions corresponding to the phase coincidence cuv (t) between the two regions.
  • the two-dimensional vector puv (t) is, for example, a two-dimensional vector obtained by calculating a difference between coordinate values between two measurement regions ru (k) and rv (k) that is a source of the phase coincidence cuv (t) between the two regions.
  • puv_t (t) is converted into a unit vector.
  • the weight coefficient calculation unit 343 calculates the weight coefficient duv (t) from the two-dimensional vector puv (t) and the representative vector Ms (t).
  • the weight coefficient duv (t) is calculated, for example, as the absolute value of the inner product of the two-dimensional vector puv (t) and the representative vector Ms (t).
  • the weighting factor calculation unit 343 provides the sum of the weighting factors duv (t) calculated for the respective two-region phase matching degrees cuv (t) to the phase matching degree summation unit 242 as weighting information D (t).
  • the degree of phase shift of the motion component changes according to the positional relationship between the face motion direction and measurement region ri (k). Therefore, by calculating the weight coefficient based on the motion vector of the measurement region ri (k), it is possible to estimate a pulse wave from which a motion component has been further removed.
  • the element information mi (t) is a two-dimensional vector indicating the movement of the center of gravity of each measurement region ri (k).
  • the present invention is not limited to this. As described above, the movement of the four vertices of the measurement region ri (k) may be used, the size or shape of the measurement region ri (k) may be changed, or a combination thereof may be used. You may.
  • the weighting factor calculation unit 343 determines that the weighting factor duv (t) is high when the size of the measurement areas ru (k) and rv (k) included in the variation information M (t) is similar. Is set to be large, and the weight coefficient duv (t) may be set to be small if the size changes are not similar.
  • the dissimilarity in the manner in which the sizes change is that each of the measurement areas ru (k) and rv (k) behaves differently. Therefore, when the manners of changing the sizes are not similar, the degree of phase shift of the motion component becomes large, and it becomes easy to discriminate between the pulse wave component and the motion component.
  • the weighting factor calculation unit 343 specifies how the size of the measurement area in the subsequent frame changes. For example, the weighting factor calculation unit 343 indicates that the transition from “1”, “0.9”, “0.8”, “0.8”, and “0.9” has been made over the first to fifth frames. Identify time series data.
  • the weighting factor calculation unit 343 specifies these time series data in each measurement area ri (k), and calculates a correlation value of these time series data in a pair of the measurement areas ru (k) and rv (k). calculate.
  • the correlation value takes a value from “-1" to "1” so that the change is "1" if the changes are similar and "-1" otherwise.
  • the weight coefficient duv (t) is preferably set to be larger as the correlation value is smaller, and set smaller as the correlation value is larger. Therefore, the weight coefficient calculator 343 calculates the weight coefficient duv (t) by, for example, the following equation (4). ) Is calculated.
  • Weight coefficient duv (t) 1 ⁇ (correlation value of two measurement areas ru (k), rv (k)) (4)
  • the weighting factor calculation unit 343 determines that the weighting factor duv (t) is high when the shape of the measurement areas ru (k) and rv (k) included in the variation information M (t) is similar. Is set to be large, and if the shapes do not change in a similar manner, the weight coefficient duv (t) may be set to be small. Whether or not the shape changes are similar is determined based on the similarity, and the similarity is time-series data of a change in a four-dimensional vector indicating a change in the shape of the measurement areas ru (k) and rv (k). Is determined using
  • the weight coefficient calculation unit 343 calculates a correlation value from each element of a four-dimensional vector indicating a change in the shape of each of the measurement areas ru (k) and rv (k).
  • the weighting factor calculation unit 343 calculates, for example, the average value of the “weighting factor calculated based on the change in size” and the “weighting factor calculated based on the shape change” in the measurement areas ru (k) and rv (k).
  • the final weight coefficient duv (t) for the pair may be used.
  • pulse wave estimating apparatus 400 includes skin area detecting section 110, measurement area setting section 120, pulse wave source signal extracting section 130, and phase matching degree calculation. And a pulse wave estimating unit 150.
  • the skin region detection unit 110, the measurement region setting unit 120, the pulse wave source signal extraction unit 130, and the pulse wave estimation unit 150 of the pulse wave estimation device 400 according to the fourth embodiment This is the same as the skin region detection unit 110, the measurement region setting unit 120, the pulse wave source signal extraction unit 130, and the pulse wave estimation unit 150 of the estimation device 100.
  • pulse wave estimating apparatus 400 is an apparatus that can execute a pulse wave estimating method that is an information processing method according to Embodiment 4.
  • the phase coincidence calculation unit 440 selects a plurality of pairs of two pulse wave source signals from the plurality of pulse wave source signals indicated by the pulse wave source signal information W (t). Then, similarly to the first embodiment, phase coincidence calculating section 440 calculates, from each of the selected pairs, a plurality of coincidences indicating the degree to which the corresponding base components are in phase with each other. . Then, the phase matching degree calculation unit 440 sets a weighting coefficient for each of the plurality of pairs, weights the plurality of matching degrees calculated for each of the plurality of pairs using the weighting coefficient, and corresponds to the weighting coefficient. The value summed for each base component is specified as a plurality of phase coincidences.
  • the phase coincidence calculating section 440 sets the weights such that the weight of the coincidence corresponding to the measurement region having a high degree of phase coincidence among the plurality of coincidences calculated from each of the plurality of pairs is increased. Coefficients can be set. Further, according to the magnitude of the amplitude of the pulse wave source signal wi (t), it is possible to set a weight coefficient of the degree of coincidence corresponding to the measurement region ri.
  • the phase matching degree calculating section 440 according to Embodiment 4 includes a two-region phase matching degree calculating section 141, a phase matching degree totaling section 242, and a weight coefficient calculating section 443. .
  • the phase matching calculating section 141 between the two regions of the phase matching calculating section 440 according to the fourth embodiment is similar to the phase matching calculating section 141 between the two areas of the phase matching calculating section 140 according to the first embodiment.
  • the two-region phase matching degree calculation unit 141 in the fourth embodiment provides the two-region phase matching degree information N (t) to the phase matching degree summation unit 242 and the weight coefficient calculation unit 443.
  • the weight coefficient calculation unit 443 receives the two-region phase matching information N (t), and weights the duv for each two-region phase matching cuv (t) indicated by the two-region phase matching information N (t). (T) is calculated, and weight information D (t) indicating the calculated weight coefficient duv (t) is generated. The weight information D (t) is provided to the phase matching degree summation unit 242.
  • the weight information D (t) can include a weight coefficient duv (t) for each of the two-region phase coincidence cuv (t) included in the two-region phase coincidence information N (t).
  • the weight coefficient duv (t) takes a value between “0” and “1”, for example. For example, when the weight coefficient duv (t) is “0”, the weight for the corresponding two-region phase coincidence cuv (t) is small, and when the weight coefficient duv (t) is “1”, the corresponding two The weight for the inter-region phase coincidence cuv (t) is large. When the weighting factor duv (t) is “0.5”, the weight is approximately intermediate between “0” and “1”.
  • the representative value eu (t) of the two-region phase coincidence related to the measurement region ru is, for example, an average value of the two-region phase coincidence cui (t) related to the measurement region ru.
  • the average value of the phase coincidence degrees for each frequency component is calculated as the measurement area ru. Is a representative value eu (t) of the degree of phase matching between the two regions.
  • the pulse wave signal component contained in the pulse wave source signal wu (t) in the measurement region ru is strong, the phase coincidence cui between the two regions related to the measurement region ru is the phase coincidence between any frequency components. Becomes larger.
  • the phase coincidence cui between the two regions related to the measurement region ru has a phase difference of any frequency component. Becomes smaller. That is, when the representative value eu (t) related to the measurement region ru is large, the weight coefficient dui corresponding to the measurement region ru is set large, and when the representative value eu (t) is small, the weight coefficient dui corresponds to the measurement region ru.
  • the weighting factor dui By setting the weighting factor dui to a small value, it is possible to give more weight to a measurement region having a strong component of the pulse wave signal, in other words, a measurement region having a component whose phase matches that of another measurement region.
  • the weighting factor duv (t) is calculated from the representative value eu (t) of the phase matching between the two regions related to the measurement region ru and the representative value ev (t) of the phase matching between the two regions related to the measurement region ru. calculate.
  • the weight coefficient du (t) for the measurement area ru and the weight coefficient dv (t) for the measurement area rv are calculated. Since the calculation method of the weight coefficients du (t) and dv (t) is the same, the calculation method of du (t) will be described here.
  • the maximum value that can be taken by the representative value eu (t) of the degree of phase matching between two regions is e max , and the minimum value is e min .
  • the weight coefficient du (t) is calculated by the following equation (6). The maximum value e max and the minimum value e min are predetermined.
  • du (t) 1.0 ⁇ (eu (t) ⁇ e min ) / (e max ⁇ e min ) (6)
  • duv (t) min (du (t), dv (t)).
  • a large weight coefficient is set for the measurement region having a strong component of the pulse wave signal, in other words, a measurement region having a component in phase with another measurement region. be able to.
  • phase coincidence calculating section 440 uses the plurality of coincidences calculated from each of the plurality of pairs to include the plurality of pairs in the pair.
  • the representative value of the two measurement areas is calculated, and the weight coefficient can be set such that the higher the representative value, the heavier the weight.
  • the representative value of each measurement region for the plurality of coincidences calculated from each of the plurality of pairs is, for example, the representative value eu (t) of the phase coincidence cui (t) between the two regions related to the measurement region ru.
  • Embodiment 4 can estimate a pulse with higher accuracy.
  • the weighting factor calculation unit 443 combines the weighting factors duv (t) calculated for each of the two regions' phase coincidence cuv (t), and generates weighting information D (t) indicating them.
  • the weight information D (t) is provided to the phase matching degree summation unit 242.
  • the phase matching degree summation unit 242 receives the phase matching degree information N (t) between the two regions and the weight information D (t), and generates phase matching degree information C (t) for each base component between the measurement regions. , And the generated phase coincidence information C (t) to the pulse wave estimating unit 150.
  • the phase matching degree summation unit 242 multiplies the two-region phase matching degree cuv (t) indicated by the two-region phase matching degree information N (t) by the corresponding weight information D (t), and , Phase coincidence information C (t) indicating the degree of coincidence of the phase of each base component between the measurement regions ri (k) is generated.
  • the phase matching degree information C (t) is provided to the pulse wave estimation unit 150.
  • the pulse wave estimating unit 150 estimates a pulse wave based on the pulse wave source signal information W (t) and the phase matching degree information C (t), and the pulse wave information is pulse wave information indicating the estimated pulse wave.
  • the wave estimation result P (t) is output. For example, when the pulse rate is output as the pulse wave estimation result P (t), the pulse wave estimating unit 150 sets the base having the highest phase matching degree among the phase matching degree information C (t) for each frequency component. A frequency component as a component is specified, and a pulse wave is estimated based on the specified frequency component. Specifically, pulse wave estimating section 150 assumes that the frequency component having the highest phase coincidence corresponds to the pulse wave, and outputs the frequency of the frequency component corresponding to the pulse wave as the pulse rate.
  • the representative value eu (t) of the phase matching between the two regions related to the measurement region ru is set to the average value of the phase matching cui (t) between the two regions related to the measurement region ru.
  • a median value or a minimum value may be used, or the number of times that the degree of phase matching exceeds the threshold value for each frequency component.
  • the degree of weight for each measurement region is determined based on only the degree of phase matching between the two regions.
  • the present invention is not limited to this.
  • each measurement is performed based on the difference between the maximum value and the minimum value of the pulse wave source signal wi (t) or the SNR (Signal-Noise-Ratio) in the power spectrum.
  • a weighting coefficient for the region may be calculated, or a combination thereof.
  • an average value of the weight coefficient calculated based on the SNR in the power spectrum and the weight coefficient calculated based on the degree of phase matching between the two areas is calculated as the weight coefficient du for the measurement area. (T).
  • the frequency component having the highest phase coincidence corresponds to the pulse wave, and the frequency of the frequency component corresponding to the pulse wave is output as the pulse rate. If the amplitude of the signal is larger or smaller than expected, the corresponding frequency component may be removed, and the frequency component with the highest degree of phase matching may be output as the pulse rate.
  • the amplitude of the frequency component corresponding to the pulse wave changes according to the brightness (luminance value) of the skin region in the frame Im (t), or the tone, thickness, or blood flow of the subject's skin. Among them, the influence of the brightness of the skin region in the frame Im (t) is large, and the amplitude of the frequency component corresponding to the pulse wave can be estimated based on the brightness of the skin region.
  • a frequency component having the highest degree of phase matching is specified for only frequency components equal to or greater than the threshold value ⁇ H and equal to or less than the threshold value ⁇ L.
  • the pulse rate can be estimated with higher accuracy by estimating the pulse rate from the frequency components whose amplitude is within the predetermined range.
  • 100, 200, 300, 400 pulse wave estimation device ⁇ 110 ⁇ skin region detection unit, ⁇ 120 ⁇ measurement region setting unit, ⁇ 130 ⁇ pulse wave original signal extraction unit, ⁇ 140, 240, 340, 440 ⁇ phase coincidence calculation unit, ⁇ 141 ⁇ phase between two regions Coincidence calculation unit, ⁇ 142,242 ⁇ phase coincidence summation unit, ⁇ 243,343,443 ⁇ weight coefficient calculation unit, ⁇ 150 ⁇ pulse wave estimation unit, ⁇ 160 ⁇ imaging device, ⁇ 161 ⁇ light source, ⁇ 370 ⁇ fluctuation information acquisition unit.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Vascular Medicine (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

予め定められた期間における複数のフレームの各々から、人の肌領域を検出する肌領域検出部(110)と、肌領域に複数の計測領域を設定する計測領域設定部(120)と、複数の計測領域の各々から、輝度の変化を示す複数の脈波元信号を抽出する脈波元信号抽出部(130)と、複数の脈波元信号の各々を構成する複数の基底成分の各々の位相が、対応する基底成分同士において一致している程度を示す複数の位相一致度を算出する位相一致度算出部(140)と、位相が一致している程度が最も高い位相一致度を特定し、特定された位相一致度に対応する基底成分に基づいて、人の脈波を推定する脈波推定部(150)とを備える。

Description

情報処理装置、プログラム及び情報処理方法
 本発明は、情報処理装置、プログラム及び情報処理方法に関する。
 普段の生活において、被験者の健康を管理及び維持することは重要である。普段の生活の中でも、特に車両運転中のドライバーの健康の管理及び維持は、事故の予防に対し特に重要である。ドライバーの健康を管理及び維持する上では、心拍数、心拍変動、呼吸数又は発汗等の生体情報を常時取得することが有効である。
 生体情報の中では、心拍数又は心拍変動に関する情報は、自律神経の状態を表す指標として用いられることが多く、ドライバーの健康を管理する上で重要な情報である。心拍又は心拍変動に関する情報を直接取得するには、心電図を測定するための電極等を胸部に取り付けて心臓の活動を計測する必要があり、ドライバーへの負担が大きい。
 そのため、心臓の活動を直接計測する代わりに、パルスオキシメータ等の接触式のデバイスを指先又は耳たぶに取り付け、血管の容積変化から脈波を取得する手法がある。この手法においてもなお、常に指先又は耳たぶにデバイスを取り付ける必要があり、ドライバーへの負担が大きく、車両運転中の装着は現実的ではない。
 被験者に負担を掛けず、非接触に脈波を推定する手法として、例えば、非特許文献1に記載されているように、カメラで被験者の顔を撮像し、被験者の顔表面の微小な輝度変化から脈波を推定する手法がある。非特許文献1においては、被験者の顔画像上に複数の計測領域を設定し、各計測領域で取得された輝度信号の周波数パワースペクトルが算出される。各領域で算出された周波数パワースペクトルのピーク周波数に応じて脈波を合成し、合成した脈波の周波数パワースペクトルのピークから脈拍数が推定される。
Mayank Kumar, et al.,"DistancePPG: Robust non-contact vital signs monitoring using a camera",Biomedical optics express,6(5),1565-1588,2015
 しかしながら、従来技術においては、被験者の顔が動くと脈波の推定精度が低下する問題がある。被験者の顔が動くと、顔の動きに相当する成分が周波数パワースペクトルのピークとして出現するため、脈波に相当する周波数成分ではなく、顔の動きに相当する成分を脈波として誤検出してしまうためである。
 車両運転中には、車両の振動によりドライバーの顔が動くシーンが容易に想定されるため、被験者の顔が動いても精度良く脈波を推定することが必要である。
 そこで、本発明の1又は複数の態様は、人の顔が動いた場合でも、映像のフレームから精度良く脈波を推定できるようにすることを目的とする。
 本発明の1態様に係る情報処理装置は、予め定められた期間における映像を示す複数のフレームの各々から、人の肌を含む領域である肌領域を検出する肌領域検出部と、前記肌領域に複数の計測領域を設定する計測領域設定部と、前記複数の計測領域の各々から、前記予め定められた期間における輝度の変化を示す脈波元信号を抽出することで、前記複数の計測領域の各々に各々が対応する複数の前記脈波元信号を抽出する脈波元信号抽出部と、前記複数の脈波元信号の各々を構成する複数の基底成分の各々の位相が、対応する基底成分同士において一致している程度を示す位相一致度を算出することで、前記複数の脈波元信号の各々に各々が対応する複数の位相一致度を算出する位相一致度算出部と、前記複数の位相一致度の内、前記位相が一致している程度が最も高い位相一致度を特定し、前記特定された位相一致度に対応する基底成分に基づいて、前記人の脈波を推定する脈波推定部と、を備えることを特徴とする。
 本発明の1態様に係るプログラムは、コンピュータを、予め定められた期間における映像を示す複数のフレームの各々から、人の肌を含む領域である肌領域を検出する肌領域検出部、前記肌領域に複数の計測領域を設定する計測領域設定部、前記複数の計測領域の各々から、前記予め定められた期間における輝度の変化を示す脈波元信号を抽出することで、前記複数の計測領域の各々に各々が対応する複数の前記脈波元信号を抽出する脈波元信号抽出部、前記複数の脈波元信号の各々を構成する複数の基底成分の各々の位相が、対応する基底成分同士において一致している程度を示す位相一致度を算出することで、前記複数の脈波元信号の各々に各々が対応する複数の位相一致度を算出する位相一致度算出部、及び、前記複数の位相一致度の内、前記位相が一致している程度が最も高い位相一致度を特定し、前記特定された位相一致度に対応する基底成分に基づいて、前記人の脈波を推定する脈波推定部、として機能させることを特徴とする。
 本発明の1態様に係る情報処理方法は、予め定められた期間における映像を示す複数のフレームの各々から、人の肌を含む領域である肌領域を検出し、前記肌領域に複数の計測領域を設定し、前記複数の計測領域の各々から、前記予め定められた期間における輝度の変化を示す脈波元信号を抽出することで、前記複数の計測領域の各々に各々が対応する複数の前記脈波元信号を抽出し、前記複数の脈波元信号の各々を構成する複数の基底成分の各々の位相が、対応する基底成分同士において一致している程度を示す位相一致度を算出することで、前記複数の脈波元信号の各々に各々が対応する複数の位相一致度を算出し、前記複数の位相一致度の内、前記位相が一致している程度が最も高い位相一致度を特定し、前記特定された位相一致度に対応する基底成分に基づいて、前記人の脈波を推定することを特徴とする。
 本発明の1又は複数の態様によれば、人の顔が動いた場合でも、映像のフレームから精度良く脈波を推定することができる。
実施の形態1、2及び4に係る脈波推定装置の構成を概略的に示すブロック図である。 (a)~(c)は、顔器官検出により計測領域を設定する例を示す概略図である。 計測領域の具体的な設定方法を説明するための概略図である。 実施の形態1における位相一致度算出部の構成を概略的に示すブロック図である。 (a)及び(b)は、ハードウエア構成例を示す概略図である。 実施の形態1に係る脈波推定装置の動作を示すフローチャートである。 実施の形態1における、被験者の顔、撮像装置、及び、環境光の光源の位置関係を示す概略図である。 (a)~(c)は、実施の形態1において、撮像装置によって被験者の顔を撮像して得られた画像の例を示す概略図である。 (a)~(d)は、実施の形態1において、被験者の顔が動いた場合の計測領域における輝度値平均の変化を示すグラフである。 実施の形態2及び4における位相一致度算出部の構成を概略的に示すブロック図である。 実施の形態3に係る脈波推定装置の構成を概略的に示すブロック図である。 実施の形態3における位相一致度算出部の構成を概略的に示すブロック図である。 実施の形態3における、被験者の顔、撮像装置、及び、環境光の光源の位置関係を示す概略図である。 (a)~(c)は、実施の形態3において、撮像装置によって被験者の顔を撮像して得られた画像の例を示す概略図である。 (a)~(f)は、実施の形態3において、被験者の顔が動いた場合の計測領域における輝度値平均の変化を示すグラフである。
実施の形態1.
 図1は、実施の形態1に係る情報処理装置としての脈波推定装置100の構成を概略的に示すブロック図である。
 脈波推定装置100は、実施の形態1に係る情報処理方法である脈波推定方法を実行することができる装置である。
 図1に示されるように、脈波推定装置100は、肌領域検出部110と、計測領域設定部120と、脈波元信号抽出部130と、位相一致度算出部140と、脈波推定部150とを備える。
 まず、脈波推定装置100の概要を説明する。脈波推定装置100は、被験者の肌領域を含む空間を予め定められたフレームレートFrで撮像した、その空間の撮像画像を表す一連のフレームIm(k)からなる映像の画像データを受け取る。ここで、kは、それぞれフレームに割り当てられるフレーム番号を示す。例えば、フレームIm(k)の次のタイミングで与えられるフレームは、フレームIm(k+1)である。そして、脈波推定装置100は、ある特定のフレーム数Tp毎に、一連のフレームIm(k-Tp+1)~Im(k)から脈波推定結果P(t)を出力する。ここで、tは、特定のフレーム数Tp毎に割り当てられる出力番号を示す。例えば、脈波推定結果P(t)の次のタイミングで与えられる脈波推定結果は、脈波推定結果P(t+1)である。
 ここで、フレーム番号k及び出力番号tは、1以上の整数である。フレーム数Tpは、2以上の整数である。
 なお、画像データに含まれる人である被験者の数は、1人であっても複数人であってもよい。説明を簡単にするため、以下では、画像データに含まれる被験者の数は、1人であるものとして説明する。
 フレームレートFrは、例えば、1秒間に30フレームが好ましい。画像データは、例えば、カラー画像、グレースケール画像、又は距離画像である。以降では、説明を簡潔にするため、画像データが、幅640画素、高さ480画素の8bit階調のグレースケール画像の場合を説明する。また、フレーム数Tpは、任意の数値とすることができるが、例えば、10秒に相当するフレーム数であり、上述の例では300フレームが好適である。
 以下、脈波推定装置100を構成する各部について説明する。
 肌領域検出部110は、撮像部としての後述する撮像装置から入力情報として与えられた画像データに含まれるフレームIm(k)から、被験者の肌を含む領域である肌領域を検出し、検出された肌領域を示す肌領域情報S(k)を生成する。生成された肌領域情報S(k)は、計測領域設定部120に与えられる。
 実施の形態1における肌領域は、被験者の顔に対応する領域であるものとして説明する。しかし、肌領域は、被験者の顔以外であってもよい。例えば、肌領域は、目、眉、鼻、口、おでこ、頬又は顎等のような、顔に属する部位に対応する領域であってもよい。また、肌領域は、頭、肩、手、首又は足等のような、顔以外の身体部位に対応する領域であってもよい。なお、肌領域は、複数の領域であってもよい。
 肌領域情報S(k)は、肌領域の検出の有無と、検出された肌領域の画像上における位置及びサイズとを示す情報を含むことができる。ここでは、肌領域情報S(k)は、画像上における顔の位置及びサイズを表す矩形領域を示す情報であるものとして説明する。
 具体的には、肌領域が被験者の顔に対応する領域である場合、肌領域情報S(k)は、例えば、被験者の顔の検出の有無と、顔を囲む矩形の中心座標Fc(Fcx,Fcy)と、この矩形の幅Fcw及び高さFchとを示す。
 顔の検出の有無は、例えば、検出できた場合は「1」、検出できなかった場合は「0」とする。
 また、矩形の中心座標は、フレームIm(k)の座標系で表現し、フレームIm(k)の左上を原点とし、フレームIm(k)の右向きをx軸の正方向、フレームIm(k)の下向きをy軸の正方向とする。
 被験者の顔の検出は、公知の手段を利用して実現することができる。例えば、Haar-like特徴量を使用したカスケード型の顔検出器を使用して、被験者の顔を囲う矩形領域を抽出することができる。
 計測領域設定部120は、フレームIm(k)と、肌領域情報S(k)とを受け取り、肌領域情報S(k)で示される肌領域に対応する画像領域の中に、脈波信号を抽出するための複数の計測領域を設定し、設定された複数の計測領域を示す計測領域情報R(k)を生成する。生成された計測領域情報R(k)は、脈波元信号抽出部130に与えられる。
 計測領域情報R(k)は、Rn(正の整数)個の計測領域の画像上における位置及びサイズを示す情報を含むことができる。各計測領域は、計測領域ri(k)(i=1,2,・・・,Rn)とする。ここでは、計測領域ri(k)は、四辺形とし、計測領域ri(k)の位置及びサイズは、画像における、四辺形の4つの頂点の座標値であるものとして説明する。
 以下では、計測領域ri(k)の設定方法の一例として、顔器官検出を用いる例を、図2を参照して説明する。
 まず、計測領域設定部120は、肌領域情報S(k)で示されている肌領域srにおいて、図2(a)又は図2(b)に示されているような、顔器官(目尻、目頭、鼻及び口等)のランドマークをLn(正の整数)個検出し、各ランドマークの座標値を格納したベクトルをL(k)とする。図2(a)及び図2(b)では、ランドマークを丸で示している。
 顔器官検出は、公知の手段を利用して実現することができる。例えば、Constrained Local Model(CLM)と呼ばれるモデルを用いて、顔器官のランドマークの座標値を検出することができる。ランドマークの数Lnは特に限定しないが、図2(a)に示されている66点、又は、図2(b)に示されている29点が好適である。ランドマーク数が多い方が、検出結果が安定する一方で、処理量が増えるため、CPU等のハードウエアに応じてランドマーク数を決めるのが望ましい。以下では、ランドマーク数Lnを66点として説明する。
 続いて、計測領域設定部120は、検出されたランドマークを基準にして計測領域ri(k)の四辺形の頂点座標を設定する。例えば、計測領域設定部120は、図2(c)に示されているような四辺形の頂点座標を設定し、Rn個の計測領域ri(k)を設定する。ここでは、一例として、計測領域数Rnを12として説明する。
 計測領域ri(k)の具体的な設定方法について、図3を用いて説明する。
 ここでは、肌領域srの頬に対応する部分に、計測領域ri(k)を設定する場合を説明する。
 まず、計測領域設定部120は、顔の輪郭のランドマークA1と、鼻のランドマークA2とを選択する。例えば、計測領域設定部120は、まず、鼻のランドマークA2を選択し、その鼻のランドマークA2から最も近い顔の輪郭のランドマークA1を選択すればよい。
 そして、計測領域設定部120は、ランドマークA1とランドマークA2との間の線分を4等分するように補助ランドマークa1、a2、a3を設定する。
 同様に、計測領域設定部120は、顔の輪郭のランドマークB1と、鼻のランドマークB2とを選択し、ランドマークB1とランドマークB2との間の線分を4等分するように補助ランドマークb1、b2、b3を設定する。なお、ランドマークB1は、例えば、ランドマークA1に隣接する鼻のランドマークから選択されればよい。ランドマークB2も、ランドマークA2に隣接する顔のランドマークから選択されればよい。
 次に、計測領域設定部120は、補助ランドマークa1、b1、b2、a2で囲まれる四辺形領域を一つの計測領域R1として定義する。補助ランドマークa1、b1、b2、a2は、計測領域R1に対応する頂点座標となる。
 同様に、計測領域設定部120は、補助ランドマークa2、b2、b3、a3で囲まれる四辺形領域を一つの計測領域R2として定義する。補助ランドマークa2、b2、b3、a3は、計測領域R2に対応する頂点座標となる。
 計測領域設定部120は、同様の処理を、頬の他の部分、及び、あごに対応する部分に対して実行することで、計測領域ri(k)の四辺形の頂点座標を設定する。
 そして、計測領域設定部120は、各計測領域ri(k)の4つの頂点の座標を含む情報を計測領域情報R(k)として生成し、その計測領域情報R(k)を脈波元信号抽出部130に与える。
 なお、上述した例では、計測領域設定部120は、CLMによってランドマークの座標を検出しているが、これに限るものではない。例えば、計測領域設定部120は、Kanade-Lucas-Tomasi(KLT)トラッカー等のトラッキング技術を用いてもよい。具体的には、計測領域設定部120は、最初のフレームIm(1)に対しCLMによってランドマークの座標を検出し、次のフレームIm(2)以降は、KLTトラッカーによりランドマーク座標をトラッキングし、各フレームIm(k)に対するランドマーク座標を算出してもよい。トラッキングを行うことで、各フレームIm(k)に対しCLMを行わなくてよくなるため、処理量を削減することができる。この場合、トラッキングによる検出誤差が蓄積するため、計測領域設定部120は、数フレームに一回CLMを実行し、ランドマークの座標位置をリセットする等のリセット処理を行ってもよい。
 なお、計測領域の位置は図2(c)に示すような12領域に限るものではない。例えば、額部分が含まれてもよく、鼻先領域が含まれてもよい。また、計測領域設定部120は、被験者によって設定領域を変更してもよい。例えば、前髪が額に掛かっている被験者については、計測領域設定部120は、それを検出して額領域を計測領域から除外してもよい。また、太い縁の眼鏡を装着している被験者であれば、計測領域設定部120は、眼鏡の位置を検出して、その領域を計測領域から除外してもよい。その他、髭を生やしている被験者であれば、計測領域設定部120は、髭の領域を計測領域から除外してもよい。更には、計測領域は他の計測領域と重なっていてもよい。
 図1に戻り、脈波元信号抽出部130は、フレームIm(k)と、計測領域情報R(k)とを受け取り、計測領域情報R(k)で示される複数の計測領域ri(k)の各々から、予め定められた期間に含まれているフレーム数Tpに対応する期間における輝度の変化を示す脈波元信号を抽出し、抽出された脈波元信号を示す脈波元信号情報W(t)を生成する。なお、脈波元信号は、脈波の元となる信号である。生成された脈波元信号情報W(t)は、位相一致度算出部140及び脈波推定部150に与えられる。
 脈波元信号情報W(t)は、計測領域ri(k)で抽出された脈波元信号wi(t)を示す情報を含むことができる。脈波元信号wi(t)は、Tp分の時系列データであり、例えば、過去Tp分のフレームIm(k-Tp+1),Im(k-Tp+2),・・・,Im(k)と、計測領域情報R(k-Tp+1),R(k-Tp+2),・・・,R(k)とに基づいて抽出される。
 抽出するにあたっては、脈波元信号抽出部130は、各フレームIm(k)に対して、各計測領域ri(k)の輝度特徴量Gi(j)(j=k-Tp+1,k-Tp+2,・・・,k)を算出する。輝度特徴量Gi(j)は、各計測領域ri(j)に対し、フレームIm(j)上の輝度値に基づいて算出される値であり、例えば、計測領域ri(j)内に含まれる画素の輝度値の平均又は分散等である。ここでは、輝度特徴量Gi(j)は、計測領域ri(j)に含まれる画素の輝度値の平均であるものとして説明をする。各フレームIm(k)に対し算出したGi(j)を時系列に並べたものを脈波元信号wi(t)とする。すなわち、脈波元信号wi(t)=[Gi(k-Tp+1),Gi(k-Tp+2),・・・,Gi(k)]とする。
 そして、脈波元信号抽出部130は、各計測領域ri(k)における脈波元信号wi(t)をまとめたものを脈波元信号情報W(t)として生成する。生成された脈波元信号情報W(t)は、位相一致度算出部140及び脈波推定部150に与えられる。
 なお、脈波元信号wi(t)は、前述した脈波成分及び顔の動き成分以外にも様々なノイズ成分を含む。ノイズ成分としては、例えば、後述する撮像装置の素子欠陥によるノイズ等がある。これらのノイズ成分を除去するためには、脈波元信号wi(t)に対する前処理としてフィルタ処理を行うのが望ましい。
 フィルタ処理では、脈波元信号wi(t)に対して、例えば、ローパスフィルタ、ハイパスフィルタ又はバンドパスフィルタを用いて、処理が施される。以下の説明では、バンドパスフィルタが施されたものとして説明する。
 バンドパスフィルタとしては、例えば、バターワースフィルタ等を用いることができる。バンドパスフィルタのカットオフ周波数としては、例えば、低い方のカットオフ周波数は、0.5Hz、高い方のカットオフ周波数は5.0Hzが望ましい。
 なお、フィルタ処理の種類は、上述したバターワースフィルタに限るものではない。また、カットオフ周波数についても、これらに限るものではない。被験者の状態又は状況に応じて、フィルタ処理の種類及びカットオフ周波数が設定されればよい。
 位相一致度算出部140は、脈波元信号情報W(t)を受け取り、脈波元信号情報W(t)に含まれる複数の基底成分の各々の位相が、対応する基底成分同士において一致している程度を示す位相一致度を算出し、基底成分毎の位相一致度を示す位相一致度情報C(t)を生成する。位相一致度情報C(t)は、脈波推定部150に与えられる。ここで、位相は基底成分の属性であるため、位相の一致度は、属性の一致度であり、位相一致度は、属性一致度であるといえる。このため、位相一致度算出部140は、属性一致度算出部であるともいえる。
 具体的には、位相一致度算出部140は、脈波元信号情報W(t)で示される複数の脈波元信号から二つの脈波元信号のペアを選択する。ここで、選択されたペアである二つの脈波元信号を、第1の脈波元信号及び第2の脈波元信号とする。位相一致度算出部140は、第1の脈波元信号を構成する複数の基底成分の各々と、第2の脈波元信号を構成する複数の基底成分の各々との間で、対応する基底成分同士において位相が一致している程度を示す複数の一致度を算出する。そして、位相一致度算出部140は、算出された複数の一致度に従って、複数の属性一致度を特定する。ここで、複数の属性一致度の各々は、複数の基底成分の各々に対応する。
 なお、位相一致度算出部140は、一つのペアを選択してもよく、二つ以上のペアを選択してもよい。
 位相一致度算出部140は、複数のペアを選択した場合には、複数のペアにおいて算出された複数の一致度を、対応する基底成分毎に合算した複数の値を、複数の位相一致度として特定すればよい。
 また、位相一致度算出部140は、一つのペアを選択した、その一つのペアで算出された複数の一致度を複数の位相一致度として特定すればよい。
 以下では、位相一致度算出部140は、複数のペアを選択するものとして説明する。
 図4は、位相一致度算出部140の構成を概略的に示すブロック図である。
 位相一致度算出部140は、二領域間位相一致度算出部141と、位相一致度合算部142とを備える。
 二領域間位相一致度算出部141は、脈波元信号情報W(t)に基づいて、脈波元信号wi(t)の算出に使用した複数の計測領域ri(k)の中から二つの計測領域ru(k)、rv(k)のペアを選択し、二つの計測領域ru(k)、rv(k)のペアに対応する二つの脈波元信号wu(t)、wv(t)のペアを選択する。そして、二領域間位相一致度算出部141は、選択された二つの脈波元信号wu(t)、wv(t)のペアにおける基底成分の位相の一致度である二領域間位相一致度cuv(t)を算出する。なお、u,v=1,2,・・・,Rnの中でu≠vを満たすものとする。
 なお、このようなペアは、少なくとも1つ生成されればよく、複数のペアが生成されて、複数の二領域間位相一致度cuv(t)が算出されてもよい。二領域間位相一致度算出部141は、生成された二領域間位相一致度cuv(t)をまとめたものを二領域間位相一致度情報N(t)として位相一致度合算部142に与える。
 二領域間位相一致度算出部141で行われる基底成分の位相の一致度の算出動作について詳しく説明する。
 基底成分の位相の一致度を算出するにあたっては、まず、二領域間位相一致度算出部141は、脈波元信号wi(t)を基底成分に分解する。以下では、基底成分として、周波数成分を使用した場合を例として説明する。なお、基底成分は、脈波元信号wi(t)を構成する信号成分のことであり、基底成分を任意の関数の引数として与えたときに脈波元信号を表現できるような信号成分のことである。
 まず、二領域間位相一致度算出部141は、脈波元信号情報W(t)に含まれる各計測領域ri(k)の脈波元信号wi(t)を周波数成分に分解する。脈波元信号wi(t)を周波数成分に分解するには、例えば、高速フーリエ変換(以下、FFT)が用いられる。FFTにより、時系列データである脈波元信号wi(t)を周波数成分のデータ(各周波数成分の大きさ(パワー)と位相)に分解することができる。時系列データである脈波元信号wi(t)にFFTを行った際の各周波数成分fに対する大きさを|Fi(f,t)|、位相を∠Fi(f,t)とする。なお、FFTを行う場合、ナイキスト周波数(サンプリング周波数の半分)を境にエイリアスが発生するため、f=0,Δf,2×Δf,・・・,Sr×Δf/2とする。ここで、Δfは時系列データの長さであるTpフレームによって決定される値であり、Tpフレーム=Ts秒とすると、Δf=1/Tsである。
 次に、二領域間位相一致度算出部141は、脈波元信号wi(t)の算出に使用した複数の計測領域ri(k)の中から二つの計測領域ru(k)、rv(k)のペアを選択し、二つの計測領域ru(k)、rv(k)のペアにおける基底成分(周波数成分)の位相の一致度である二領域間位相一致度cuv(t)を算出する。二領域間位相一致度cuv(t)は、例えば、計測領域uの位相∠Fu(f,t)と、計測領域vの位相∠Fv(f,t)との差の絶対値として算出される。周波数成分毎に位相差の絶対値を求めることで、各周波数成分における位相の一致度を算出することができる。
 なお、この場合、位相差の絶対値が小さいほど位相の一致度が高く、位相差の絶対値が大きいほど位相の一致度は低くなる。周波数成分毎の位相の一致度を算出し、並べたものを二領域間位相一致度cuv(t)とする。
 そして、二領域間位相一致度算出部141は、周波数成分毎の二領域間位相一致度cuv(t)をまとめることにより、二領域間位相一致度情報N(t)を生成する。
 なお、二領域間位相一致度算出部141は、全ての周波数成分に対して位相の一致度を算出しなくてもよく、特定の条件を満たす周波数成分に対してのみそれを算出してもよい。例えば、周波数成分のパワー(大きさ)が極端に小さい場合は、脈波成分ではなくノイズ成分とみなすことができるため、二領域間位相一致度算出部141は、該当する周波数成分については、位相の一致度を算出しないようにする。もしくは、疑似的に位相の一致度が低いものとして、二領域間位相一致度算出部141は、該当する周波数成分の位相の一致度に定数を与えてもよい。
 位相一致度合算部142は、二領域間位相一致度情報N(t)が与えられ、二領域間位相一致度cuv(t)を基底成分毎に合算して、計測領域ri(k)間における基底成分毎の位相一致度を示す位相一致度情報C(t)を生成する。位相一致度情報C(t)は、脈波推定部150に与えられる。位相一致度情報C(t)は、例えば、二領域間位相一致度情報N(t)に含まれる二領域間位相一致度cuv(t)を周波数成分毎に足し算することで算出される。
 なお、位相一致度情報C(t)の算出方法は成分毎の足し算に限るものではなく、掛け算等が使用されてもよい。
 また、二領域間位相一致度算出部141が、脈波元信号wi(t)の算出に使用した複数の計測領域ri(k)の中から二つの計測領域ru(k)、rv(k)からなる一つのペアのみを選択する場合には、位相一致度合算部142を設ける必要はなく、位相一致度合算部142は、二領域間位相一致度情報N(t)を位相一致度情報C(t)として脈波推定部150に与えればよい。
 図1に戻り、脈波推定部150は、脈波元信号情報W(t)と、位相一致度情報C(t)とに基づいて、脈波を推定し、推定された脈波を示す脈波情報である脈波推定結果P(t)を出力する。脈波情報とは、例えば、推定した脈波の時系列データであってもよいし、脈拍数であってもよい。ここでは、説明を簡便にするため、脈波情報は、脈拍数(1分間当たりのはく数)を示すものとする。
 例えば、脈波推定結果P(t)として、脈拍数を出力する場合は、脈波推定部150は、周波数成分毎の位相一致度情報C(t)のうち、最も位相の一致度が高い基底成分である周波数成分を特定し、特定された周波数成分に基づいて、脈波を推定する。具体的には、脈波推定部150は、最も位相の一致度が高い周波数成分が脈波に相当するものとし、脈波に相当する周波数成分の周波数を脈拍数として出力する。
 以上に記載された肌領域検出部110、計測領域設定部120、脈波元信号抽出部130、位相一致度算出部140及び脈波推定部150の一部又は全部は、例えば、図5(a)に示されているように、メモリ1と、メモリ1に格納されているプログラムを実行するCPU(Central Processing Unit)等のプロセッサ2とにより構成することができる。このようなプログラムは、ネットワークを通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。
 また、肌領域検出部110、計測領域設定部120、脈波元信号抽出部130、位相一致度算出部140及び脈波推定部150の一部又は全部は、例えば、図5(b)に示されているように、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuits)又はFPGA(Field Programmable Gate Array)等の処理回路3で構成することもできる。
 図6は、実施の形態1に係る脈波推定装置100の動作を示すフローチャートである。
 図6に示されている動作は、撮像画像が入力される1フレーム毎に、すなわち1フレーム期間に一度行われる。
 まず、肌領域検出部110は、後述する撮像装置から入力情報として与えられたフレームIm(k)から、被験者の肌領域を検出し、検出された肌領域を示す肌領域情報S(k)を生成する(S10)。生成された肌領域情報S(k)は、計測領域設定部120に与えられる。
 次に、計測領域設定部120は、フレームIm(k)と、肌領域情報S(k)とを受け取り、肌領域情報S(k)で示される肌領域の中から、脈波信号を抽出するための複数の計測領域ri(k)を設定し、設定された計測領域ri(k)を示す計測領域情報R(k)を生成する(S11)。生成された計測領域情報R(k)は、脈波元信号抽出部130に与えられる。
 次に、脈波元信号抽出部130は、フレームIm(k)と、計測領域情報R(k)とを受け取り、計測領域情報R(k)で示される各計測領域ri(k)内の輝度値に基づいて、脈波の元となる脈波元信号wi(t)を抽出し、抽出された脈波元信号wi(t)を示す脈波元信号情報W(t)を生成する(S12)。生成された脈波元信号情報W(t)は、位相一致度算出部140と、脈波推定部150とに与えられる。
 次に、位相一致度算出部140は、脈波元信号情報W(t)を受け取り、脈波元信号情報W(t)で示される脈波元信号wi(t)に含まれる基底成分について、計測領域ri(k)間における位相の一致度を算出し、基底成分毎の位相の一致度を示す位相一致度情報C(t)を生成する(S13)。位相一致度情報C(t)は、脈波推定部150に与えられる。
 次に、脈波推定部150は、脈波元信号情報W(t)と、位相一致度情報C(t)とに基づいて、脈波を推定し、推定された脈波を示す脈波推定結果P(t)を出力する(S14)。
 続いて、実施の形態1に係る脈波推定装置100による効果を、図7~図9を用いて説明する。
 図7は、被験者の顔、撮像装置160、及び、環境光の光源161の位置関係を示す概略図である。
 図7に示されているように、被験者の顔の肌領域に、計測領域A及び計測領域Bが配置されているものとする。
 図8(a)~(c)は、図7に示されている撮像装置160によって被験者の顔を撮像して得られた画像の例を示している。
 図8(a)に示されている画像は、被験者の顔が撮像装置160の中心に位置している時の例である。このような位置を基準位置とする。
 図8(b)に示されている画像は、被験者の顔が撮像装置160の中心よりも右側に位置している時の例である。このような位置を右位置とする。
 図8(c)に示されている画像は、被験者の顔が撮像装置160の中心よりも左側に位置している時の例である。このような位置を左位置とする。
 計測領域Aは、顔が右位置の場合は基準位置と比べて明るくなり、顔が左位置の場合は基準位置と比べて暗くなる。
 計測領域Bは、顔が右位置の場合は基準位置と比べて暗くなり、左位置の場合は基準位置と比べて明るくなる。
 図9(a)~(d)は、被験者の顔が、基準位置、右位置、基準位置、左位置、基準位置、右位置、基準位置、及び、左位置の順に動いた場合の計測領域A、Bにおける輝度値平均の変化を示している。
 図9(a)は、被験者の顔が上記のように動いた場合の計測領域Aの顔の動き成分の輝度値平均の変化を示し、図9(b)は、被験者の顔が上記のように動いた場合の計測領域Aの顔の脈波成分の輝度値平均の変化を示している。
 図9(c)は、被験者の顔が上記のように動いた場合の計測領域Bの顔の動き成分の輝度値平均の変化を示し、図9(d)は、被験者の顔が上記のように動いた場合の計測領域Bの顔の脈波成分の輝度値平均の変化を示している。
 図9(a)~(d)に示すように、被験者の顔が動くと、それに応じて計測領域における輝度値平均が変化する。その際、顔の動き成分の輝度値変化の周波数は、計測領域によって近い値となるが、位相は異なる。
 例えば、図9(a)及び(c)に示されているように、計測領域Aと計測領域Bとでは、明るくなるタイミングと暗くなるタイミングとが異なる、言い換えると、計測領域Aが明るいときに、計測領域Bは暗くなるため、輝度値変化を信号成分として見たときに、各周波数成分の位相が異なる。
 一方、図9(b)及び(d)に示されているように、脈波成分の輝度値変化の周波数及び位相は、どの計測領域であっても近い値となる。
 すなわち、顔の動きによる輝度値変化と脈波による輝度値変化とについて、位相が異なるか、近い値となるかの違いがあるため、各計測領域における基底成分の位相の一致度を比較することで、顔の動きによる輝度値変化の成分と、脈波による輝度値変化の成分とを弁別することができる。
 特に、位相の一致度が高い基底成分を脈波成分として選定することで、顔の動きの影響を抑制し、精度良く脈波を推定することができる。
 計測領域における輝度値変化においては、上述のような特徴があることから、実施の形態1に係る脈波推定装置100によれば、計測領域間で抽出された脈波元信号の基底成分に対し位相の一致度に基づいて脈波を推定することで、顔の動きによる精度低下を抑制し、精度良く脈波を推定できる。
 また、複数の計測領域から二つの領域のペアを生成し、各ペアに対し基底成分の一致度を算出及び合算していくことで、複数の計測領域間における基底成分の位相一致度を算出することができることから、より高精度に脈波を推定することができる。
 なお、実施の形態1では、画像データをグレースケール画像として説明したが、画像データはこれに限るものではない。例えば、RGB画像を画像データとして用いてもよい。また、前述のグレースケール画像は、近赤外光(例えば、光の波長850nmや940nm等)を受光できる撮像装置によって取得された画像データであってもよい。この場合、近赤外光の照明装置を使って被験者を照らし、撮像することで夜間でも、実施の形態1に係る脈波推定装置100により脈波を推定することができる。
 なお、実施の形態1では、図7に示されているように、環境光が上から照らされるものとして説明したが、これに限るものではない。例えば、環境光は横から照らされるものとしてもよい。
 なお、実施の形態1では、脈波推定結果P(t)は、脈拍数であるものとして説明したが、これに限るものではない。脈波推定部150は、例えば、成分毎の位相一致度情報C(t)のうち、最も位相の一致度が高い成分が脈波に相当するものとし、該当する周波数成分のデータを用いて逆フーリエ変換し、脈波を合成してもよい。
 なお、実施の形態1では、画像データに含まれる被験者の数を1人としたが、これに限るものではない。2人以上の場合には、各被験者に対して、脈波を推定すればよい。
実施の形態2.
 図1に示されているように、実施の形態2に係る脈波推定装置200は、肌領域検出部110と、計測領域設定部120と、脈波元信号抽出部130と、位相一致度算出部240と、脈波推定部150とを備える。
 実施の形態2に係る脈波推定装置200の、肌領域検出部110、計測領域設定部120、脈波元信号抽出部130、及び、脈波推定部150は、実施の形態1に係る脈波推定装置100の、肌領域検出部110、計測領域設定部120、脈波元信号抽出部130、及び、脈波推定部150と同様である。
 なお、脈波推定装置200は、実施の形態2に係る情報処理方法である脈波推定方法を実行することができる装置である。
 実施の形態2における位相一致度算出部240は、脈波元信号情報W(t)で示される複数の脈波元信号から二つの脈波元信号のペアを複数ペア選択する。そして、位相一致度算出部240は、実施の形態1と同様に、選択された複数のペアの各々から、対応する基底成分同士において位相が一致している程度を示す複数の一致度を算出する。そして、位相一致度算出部240は、複数のペアの各々に重み係数を設定し、複数のペアの各々で算出された複数の一致度を、その重み係数を用いて重み付けをして、対応する基底成分毎に合算した値を、複数の位相一致度として特定する。
 ここで、位相一致度算出部240は、複数のペアの各々から算出された複数の一致度に、位相の一致の程度の高いものが含まれているほど、重みが重くなるように重み係数を設定することができる。
 また、位相一致度算出部240は、複数のペアの各々に対応する二つの計測領域ru(k)、rv(k)の距離が長いほど、重みが重くなるように重み係数を設定することもできる。
 図10は、実施の形態2における位相一致度算出部240の構成を概略的に示すブロック図である。
 位相一致度算出部240は、二領域間位相一致度算出部141と、位相一致度合算部242と、重み係数算出部243とを備える。
 実施の形態2における位相一致度算出部240の二領域間位相一致度算出部141は、実施の形態1における位相一致度算出部140の二領域間位相一致度算出部141と同様である。但し、実施の形態2における二領域間位相一致度算出部141は、二領域間位相一致度情報N(t)を、位相一致度合算部242と、重み係数算出部243とに与える。
 重み係数算出部243は、二領域間位相一致度情報N(t)を受け取り、二領域間位相一致度情報N(t)で示される各二領域間位相一致度cuv(t)に対する重み係数duv(t)を算出し、算出された重み係数duv(t)を示す重み情報D(t)を生成する。重み情報D(t)は、位相一致度合算部242に与えられる。
 重み情報D(t)は、二領域間位相一致度情報N(t)に含まれる各二領域間位相一致度cuv(t)に対する重み係数duv(t)を含むことができる。重み係数duv(t)は、例えば、「0」から「1」の間の値をとる。例えば、重み係数duv(t)が「0」のときは、該当する二領域間位相一致度cuv(t)に対する重みは小さく、重み係数duv(t)が「1」のときは、該当する二領域間位相一致度cuv(t)に対する重みは大きい。重み係数duv(t)が「0.5」のときは、「0」と「1」との中間程度の重みである。
 重み係数duv(t)は、例えば、二領域間位相一致度cuv(t)に基づいて決定される。上述したように、二領域間位相一致度cuv(t)として、各計測領域ri(k)で取得された基底成分の位相差の絶対値が用いられた場合、二領域間位相一致度cuv(t)の各要素は、二つの計測領域ru(k)、rv(k)間で基底成分の位相が一致している程小さい値となる。そのため、二領域間位相一致度cuv(t)が小さい値を含んでいる程、二つの計測領域ru(k)、rv(k)間で位相がより一致している基底成分が存在することになる。すなわち、二領域間位相一致度cuv(t)が小さい値を含んでいる程、対応する重み係数duv(t)を大きく設定することで、脈波成分を含む二つの計測領域ru(k)、rv(k)のペアの情報を用いて計測領域ri(k)間の位相の一致度を算出することができる。
 以上を踏まえると、位相が一致している程、重みを大きく設定するには、例えば、二領域間位相一致度cuv(t)の最小値に基づいて、対応する重み係数duv(t)を決定するのが望ましい。
 以下では、重み係数duv(t)を決定する方法として、二領域間位相一致度cuv(t)の最小値を用いる方法について説明する。
 二領域間位相一致度cuv(t)が取り得る最大値をcmax、最小値をcminとする。また、対応する二領域間位相一致度cuv(t)における最小値をcuvmin(t)とすると、重み係数duv(t)は、下記の(1)式で算出される。
 duv(t)=1.0-(cuvmin(t)-cmin)/(cmax-cmin
                              (1)
 上述の式で重み係数duv(t)を計算することで、位相が一致している程、言い換えると、対応する二領域間位相一致度cuv(t)が小さい値を含んでいる程、重み係数duv(t)を大きく設定することができる。
 重み係数算出部243は、各二領域間位相一致度cuv(t)に対して算出した重み係数duv(t)をまとめて、それらを示す重み情報D(t)を生成する。重み情報D(t)は、位相一致度合算部242に与えられる。
 位相一致度合算部242は、二領域間位相一致度情報N(t)と、重み情報D(t)とを受け取り、計測領域間における基底成分毎の位相一致度情報C(t)を生成し、生成された位相一致度情報C(t)を脈波推定部150に与える。
 具体的には、位相一致度合算部242は、二領域間位相一致度情報N(t)で示される二領域間位相一致度cuv(t)を、基底成分毎に、対応する重み情報D(t)で示される重み係数duv(t)を用いて重み付けを行って、加算する。
 重みづけ加算は、下記の(2)式で示されるように行われる。
 Σu, v (duv(t)×cuv(t))        (2)
 (2)式で示されているように、位相一致度合算部242は、二領域間位相一致度情報N(t)で示される二領域間位相一致度cuv(t)に、対応する重み情報D(t)を乗算して、基底成分毎に加算することで、計測領域ri(k)間における基底成分毎の位相の一致度を示す位相一致度情報C(t)を生成する。位相一致度情報C(t)は、脈波推定部150に与えられる。
 以上のように、実施の形態2に係る脈波推定装置200によれば、二領域間位相一致度cuv(t)の最小値に基づいて重み係数duv(t)を計算すること、言い換えると、二領域間位相一致度cuv(t)の最小値が小さいほど、重み係数duv(t)が大きくなるように計算することで、より位相の揃った計測領域ri(k)のペアに重きを置いて計測領域ri(k)間における位相一致度を算出できる。このため、実施の形態2は、より高精度に脈波を推定することができる。
 なお、実施の形態2では、重み係数duv(t)は、二領域間位相一致度cuv(t)の最小値に基づいて算出されたが、重み係数duv(t)の算出方法は、このような方法に限るものではない。例えば、二つの計測領域ru(k)、rv(k)間の距離に応じて、対応する重み係数duv(t)が決定されてもよい。輝度値平均の変化に含まれる、顔の動き成分については、二領域間位相一致度cuv(t)の算出に用いた二領域間の距離の大きい方が、位相の違いが出やすくなる。そのため、重み係数算出部243は、計測領域ri(k)の画像上の位置から、二つの計測領域ru(k)、rv(k)間の距離を算出し、算出された距離に応じて重み係数duv(t)を設定する。その際、重み係数算出部243は、距離が大きいほど大きい値となるように重み係数duv(t)を設定する。
 上述した、二領域間位相一致度cuv(t)の最小値に基づいて算出する方法、又は、二つの計測領域ru(k)、rv(k)間の距離に応じて算出する方法といった、二つの重み係数算出方法以外の方法を用いて重み係数duv(t)が算出されてもよく、又は、複数の方法を組み合わせて、総合的に重み係数duv(t)が決定されてもよい。
実施の形態3.
 図11は、実施の形態3に係る情報処理装置としての脈波推定装置300の構成を概略的に示すブロック図である。
 脈波推定装置300は、実施の形態3に係る情報処理方法である脈波推定方法を実行することができる装置である。
 図11に示されるように、脈波推定装置300は、肌領域検出部110と、計測領域設定部120と、脈波元信号抽出部130と、位相一致度算出部340と、脈波推定部150と、変動情報取得部370とを備える。
 実施の形態3に係る脈波推定装置300の、肌領域検出部110、計測領域設定部120、脈波元信号抽出部130、及び、脈波推定部150は、実施の形態1に係る脈波推定装置100の、肌領域検出部110、計測領域設定部120、脈波元信号抽出部130、及び、脈波推定部150と同様である。
 変動情報取得部370は、計測領域情報R(k)から各計測領域ri(k)の変動を特定し、特定された変動を示す変動情報M(t)を生成する。変動情報M(t)は、位相一致度算出部340に与えられる。
 変動情報M(t)は、各計測領域ri(k)の画像上の動き、サイズの変化又は形状の変化等を示す要素情報mi(t)を含むことができる。
 画像上の動きは、例えば、e(eは2以上の整数)番目のフレームIm(e)における計測領域ri(e)の画像上の位置と、e-1番目のフレームIm(e-1)における対応する計測領域ri(e-1)の画像上の位置との差を示した2次元ベクトルである。
 計測領域ri(e)、ri(e-1)の画像上の位置は、例えば、計測領域ri(e)、ri(e-1)の重心位置を用いることができる。重心位置を用いる場合は、計測領域ri(e)、ri(e-1)を構成する4つの頂点の重心座標を重心位置として用いればよい。
 サイズの変化は、例えば、e番目のフレームIm(e)における計測領域ri(e)の面積と、e-1番目のフレームIm(e-1)における対応する計測領域ri(e-1)の面積との差である。
 形状の変化は、例えば、e番目のフレームIm(e)における計測領域ri(e)の4つの辺の合計の長さに対する各辺の長さの比(4辺あるため、4つの値となる)と、k-1番目のフレームIm(e-1)における対応する計測領域ri(e-1)の4つの辺の合計の長さに対する各辺の長さの比との差を示した4次元ベクトルである。
 要素情報mi(t)は、例えば、上記のような情報のTp分の時系列データであり、例えば、過去Tp+1分の計測領域情報R(k-Tp)、R(k-Tp+1),・・・,R(k)に基づいて抽出される。
 説明を簡便にするため、以下の説明では、要素情報mi(t)は各計測領域ri(k)の重心の動きを示した2次元ベクトルで構成されたTp分の時系列データとし、変動情報M(t)は、それらをまとめた情報であるものとする。
 なお、要素情報mi(t)は、Tp分の時系列データである必要はなく、任意の数のデータで構成されていてもよい。
 実施の形態3における位相一致度算出部340も、実施の形態2と同様に、二つの脈波元信号からなるペアを複数ペア選択して、各々のペアから、対応する基底成分同士において位相が一致している程度を示す複数の一致度を算出する。そして、位相一致度算出部340は、複数のペアの各々に重み係数を設定し、複数のペアの各々で算出された複数の一致度を、その重み係数を用いて重み付けをして、対応する基底成分毎に合算した値を、複数の位相一致度として特定する。
 実施の形態3では、位相一致度算出部340は、変動情報M(t)に基づいて、複数のペアの各々に対応する二つの計測領域ru(k)、rv(k)が配置されている方向が、被験者が動く方向に近いほど、重みが重くなるように重み係数を設定することができる。
 また、位相一致度算出部340は、変動情報M(t)に基づいて、複数のペアの各々に対応する二つの計測領域ru(k)、rv(k)のサイズの変化の仕方が近いほど、重みが重くなるように重み係数を設定することもできる。
 さらに、位相一致度算出部340は、変動情報M(t)に基づいて、複数のペアの各々に対応する二つの計測領域ru(k)、rv(k)の形状の変化の仕方が近いほど、重みが重くなるように重み係数を設定することもできる。
 図12は、位相一致度算出部340の構成を概略的に示すブロック図である。
 位相一致度算出部340は、二領域間位相一致度算出部141と、位相一致度合算部242と、重み係数算出部343とを備える。
 実施の形態3における位相一致度算出部340の二領域間位相一致度算出部141は、実施の形態1における位相一致度算出部140の二領域間位相一致度算出部141と同様である。但し、実施の形態3における二領域間位相一致度算出部141は、二領域間位相一致度情報N(t)を、位相一致度合算部242と、重み係数算出部343とに与える。
 実施の形態3における位相一致度算出部340の位相一致度合算部242は、実施の形態2における位相一致度算出部240の位相一致度合算部242と同様である。但し、実施の形態3における位相一致度合算部242は、重み係数算出部343から重み情報D(t)を取得する。
 重み係数算出部343は、二領域間位相一致度情報N(t)と、変動情報M(t)とを受け取り、二領域間位相一致度情報N(t)で示される各二領域間位相一致度cuv(t)に対する重み係数duv(t)を、変動情報M(t)を用いて算出し、算出された重み係数duv(t)を示す重み情報D(t)を生成する。重み情報D(t)は、位相一致度合算部242に与えられる。
 変動情報M(t)に基づいて重み係数duv(t)を算出する方法を、図13~図14を用いて説明する。
 図13は、被験者の顔、撮像装置160、及び、環境光の光源161の位置関係を示す概略図である。
 図13に示されているように、被験者の顔の肌領域に、計測領域A、計測領域B及び計測領域Cが配置されているものとする。
 図14(a)~(c)は、図13に示されている撮像装置160によって被験者の顔を撮像して得られた画像の例を示している。
 図14(a)に示されている画像は、被験者の顔が撮像装置160の中心に位置している時の例である。このような位置を基準位置とする。
 図14(b)に示されている画像は、被験者の顔が撮像装置160の中心よりも右側に位置している時の例である。このような位置を右位置とする。
 図14(c)に示されている画像は、被験者の顔が撮像装置160の中心よりも左側に位置している時の例である。このような位置を左位置とする。
 計測領域A及び計測領域Cは、顔が右位置の場合は基準位置と比べて明るく、顔が左位置の場合は基準位置と比べて暗くなる。
 計測領域Bは、顔が右位置の場合は基準位置と比べて暗くなり、左位置の場合は基準位置と比べて明るくなる。
 図14(a)~(c)に示されているように、顔の位置が左右に変化した場合、計測領域A及び計測領域Bのように、画像における横方向の位置関係にある計測領域では、輝度の変化の仕方に違いが生じる。
 一方、計測領域A及び計測領域Cのように、画像における縦方向の位置関係にある計測領域では、輝度の変化の仕方が似ている。
 すなわち、顔の移動方向と同じ方向の位置関係にある計測領域では輝度の変化の仕方が異なり、顔の移動方向と垂直方向の位置関係にある計測領域では輝度の変化の仕方が似ている。
 図15(a)~(f)は、被験者の顔が、基準位置、右位置、基準位置、左位置、基準位置、右位置、基準位置、及び、左位置の順に動いた場合の計測領域A、B、Cにおける輝度値平均の変化を示している。
 図15(a)は、被験者の顔が上記のように動いた場合の計測領域Aの顔の動き成分の輝度値平均の変化を示し、図15(b)は、被験者の顔が上記のように動いた場合の計測領域Aの顔の脈波成分の輝度値平均の変化を示している。
 図15(c)は、被験者の顔が上記のように動いた場合の計測領域Bの顔の動き成分の輝度値平均の変化を示し、図15(d)は、被験者の顔が上記のように動いた場合の計測領域Bの顔の脈波成分の輝度値平均の変化を示している。
 図15(e)は、被験者の顔が上記のように動いた場合の計測領域Cの顔の動き成分の輝度値平均の変化を示し、図15(f)は、被験者の顔が上記のように動いた場合の計測領域Cの顔の脈波成分の輝度値平均の変化を示している。
 顔の位置が左右に変化した場合、図15(a)及び図15(c)に示されているように、画像における横方向の位置関係にある計測領域(計測領域Aと計測領域B)では、輝度値平均に含まれる顔の動き成分の位相は異なっている。
 一方、図15(a)及び図15(e)に示されているように、画像における縦方向の位置関係にある計測領域(計測領域Aと計測領域C)では、輝度値平均に含まれる顔の動き成分の位相は近くなる。
 図12に戻り、重み係数算出部343は、上述した特徴を用いて、変動情報M(t)に基づいて重み係数duv(t)を算出する。具体的には、計測領域ru(k)、rv(k)のペアが、変動情報M(t)に含まれる2次元ベクトルと同じ方向の位置関係にある場合には、二領域間位相一致度cuv(t)に対する重み係数duv(t)を大きく設定する。一方、計測領域ru(k)、rv(k)のペアが、垂直方向の位置関係にある場合には、重み係数duv(t)を小さく設定する。
 重み係数duv(t)を算出するにあたっては、まず、重み係数算出部343は、変動情報M(t)に含まれている代表的な動きベクトルである代表ベクトルMs(t)(2次元ベクトル)を特定する。例えば、重み係数算出部343は、代表ベクトルMs(t)として、例えば、変動情報M(t)に含まれている2次元ベクトルの最大値を特定すればよい。
 代表ベクトルMs(t)を算出するためには、まず、重み係数算出部343は、変動情報M(t)に含まれるRn個の各計測領域の要素情報mi(t)について平均値m_ave(t)(Tp個の2次元ベクトルを持つデータ)を算出する。次に、重み係数算出部343は、平均値m_ave(t)に含まれる2次元ベクトルの中から、最もベクトルの長さが大きい2次元ベクトルを選択し、選択ベクトルM_max(t)とする。そして、重み係数算出部343は、選択ベクトルM_max(t)を単位ベクトル(長さ1のベクトル)に変換したものを代表ベクトルMs(t)とする。
 続いて、重み係数算出部343は、各二領域間位相一致度cuv(t)に対応する計測領域間の相対的な位置関係を示す2次元ベクトルpuv(t)を算出する。2次元ベクトルpuv(t)は、例えば、二領域間位相一致度cuv(t)の元となる2つの計測領域ru(k)、rv(k)間の座標値の差を計算した2次元ベクトルpuv_t(t)を、単位ベクトルに変換したものである。
 最後に、重み係数算出部343は、2次元ベクトルpuv(t)と、代表ベクトルMs(t)とから重み係数duv(t)を算出する。重み係数duv(t)は、例えば、2次元ベクトルpuv(t)と、代表ベクトルMs(t)との内積の絶対値として算出される。具体的には、次の(3)式で、重み係数ベクトルduv(t)が算出される。
 duv(t)=|puv(t)・Ms(t)|        (3)
 (3)式中の「・」はベクトルの内積を表している。内積の絶対値は、同じ長さのベクトル同士の内積の絶対値であれば、2つのベクトルが垂直関係に近ければ0に近い値となり、平行関係に近ければ正の方向に大きな値となる。ここで、2次元ベクトルpuv(t)と、代表ベクトルMs(t)とは、共に長さ1の単位ベクトルであるため、その内積は、垂直関係に近ければ「0」に近い値となり、平行関係に近ければ「1」に近い値となる。
 このため、(3)式によれば、代表ベクトルMs(t)と、同じ位置関係に計測領域ru(k)、rv(k)がある場合、すなわち、代表ベクトルMs(t)と、2次元ベクトルpuv(t)とが平行に近い場合は、重み係数duv(t)が大きくなる。一方で、これらが垂直に近い関係にある場合は、重み係数duv(t)が小さくなる。
 重み係数算出部343は、各二領域間位相一致度cuv(t)に対し算出した重み係数duv(t)をまとめたものを、重み情報D(t)として位相一致度合算部242に与える。
 以上のように、実施の形態3に係る脈波推定装置300によれば、顔の動き方向と、計測領域ri(k)との位置関係に応じて、動き成分の位相のずれ度合いが変化するため、計測領域ri(k)の動きベクトルに基づいて重み係数を算出することで、より動き成分を除去した脈波を推定することができる。
 なお、実施の形態3では、要素情報mi(t)を各計測領域ri(k)の重心の動きを示す2次元ベクトルとしたが、これに限るものではない。上述したように、計測領域ri(k)の4つの頂点の動きを使用してもよいし、計測領域ri(k)のサイズ又は形状の変化を用いてもよいし、それらを組み合わせて使用してもよい。
 例えば、重み係数算出部343は、変動情報M(t)に含まれている計測領域ru(k)、rv(k)のサイズの変化の仕方が類似していれば、重み係数duv(t)を大きくなるように設定し、それらのサイズの変化の仕方が類似していなければ、重み係数duv(t)を小さく設定すればよい。それらのサイズの変化の仕方が類似していないということは、計測領域ru(k)、rv(k)の各々が異なる動き方をしているということである。従って、それらのサイズの変化の仕方が類似していない場合には、動き成分の位相のずれ度合いが大きくなり、脈波成分と動き成分との弁別が付き易くなる。
 なお、それらのサイズの変化の仕方が類似しているか否かは、類似度を用いて判断すればよい。類似度は、計測領域ru(k)、rv(k)の各々のサイズ変化の時系列データを使って判断される。例えば、重み係数算出部343は、あるフレームのサイズを「1」としたときに、後続のフレームにおける計測領域のサイズがどのように遷移しているかを特定する。例えば、重み係数算出部343は、1フレーム目から5フレーム目に掛けて「1」、「0.9」、「0.8」、「0.8」及び「0.9」と遷移したという時系列データを特定する。
 そして、重み係数算出部343は、これらの時系列データを各計測領域ri(k)で特定し、計測領域ru(k)、rv(k)のペアで、これらの時系列データの相関値を計算する。相関値は、変化が類似していれば「1」、類似していなければ「-1」となるように、「-1」から「1」の値を取る。重み係数duv(t)は、相関値が小さいほど大きく、相関値が大きいほど小さく設定するのがよいため、重み係数算出部343は、例えば、下記の(4)式で、重み係数duv(t)を算出する。
 重み係数duv(t)=1-(二つの計測領域ru(k)、rv(k)の相関値)
                             (4)
 また、重み係数算出部343は、変動情報M(t)に含まれている計測領域ru(k)、rv(k)の形状の変化の仕方が類似していれば、重み係数duv(t)を大きくなるように設定し、それらの形状の変化の仕方が類似していなければ、重み係数duv(t)を小さくなるように設定すればよい。形状の変化の仕方が類似しているか否かは、類似度により判断され、類似度は、計測領域ru(k)、rv(k)の形状の変化を示す4次元ベクトルの変化の時系列データを使って判断される。
 例えば、重み係数算出部343は、計測領域ru(k)、rv(k)の各々の形状の変化を示す4次元ベクトルの各々の要素から、相関値を算出する。ここでは、4つの相関値が算出されるため、重み係数算出部343は、算出された4つの相関値を平均値を用いて、下記の(5)式により、重み係数duv(t)を算出する。
 重み係数duv(t)=1-(二つの計測領域ru(k)、rv(k)の平均相関値)
                             (5)
 なお、重み係数算出部343は、例えば、「サイズの変化に基づき算出した重み係数」と「形状変化に基づき算出した重み係数」の平均値を、計測領域ru(k)、rv(k)のペアに対する最終的な重み係数duv(t)としてもよい。
実施の形態4.
 図1に示されているように、実施の形態4に係る脈波推定装置400は、肌領域検出部110と、計測領域設定部120と、脈波元信号抽出部130と、位相一致度算出部440と、脈波推定部150とを備える。
 実施の形態4に係る脈波推定装置400の、肌領域検出部110、計測領域設定部120、脈波元信号抽出部130、及び、脈波推定部150は、実施の形態1に係る脈波推定装置100の、肌領域検出部110、計測領域設定部120、脈波元信号抽出部130、及び、脈波推定部150と同様である。
 なお、脈波推定装置400は、実施の形態4に係る情報処理方法である脈波推定方法を実行することができる装置である。
 実施の形態4における位相一致度算出部440は、脈波元信号情報W(t)で示される複数の脈波元信号から二つの脈波元信号のペアを複数ペア選択する。そして、位相一致度算出部440は、実施の形態1と同様に、選択された複数のペアの各々から、対応する基底成分同士において位相が一致している程度を示す複数の一致度を算出する。そして、位相一致度算出部440は、複数のペアの各々に重み係数を設定し、複数のペアの各々で算出された複数の一致度を、その重み係数を用いて重み付けをして、対応する基底成分毎に合算した値を、複数の位相一致度として特定する。
 ここで、位相一致度算出部440は、複数のペアの各々から算出された複数の一致度の中で、位相の一致の程度の高い計測領域に対応する一致度の重みが大きくなるように重み係数を設定することができる。また、脈波元信号wi(t)の振幅の大きさに応じて、計測領域riに対応する一致度の重み係数を設定することができる。
 図10に示されているように、実施の形態4における位相一致度算出部440は、二領域間位相一致度算出部141と、位相一致度合算部242と、重み係数算出部443とを備える。
 実施の形態4における位相一致度算出部440の二領域間位相一致度算出部141は、実施の形態1における位相一致度算出部140の二領域間位相一致度算出部141と同様である。但し、実施の形態4における二領域間位相一致度算出部141は、二領域間位相一致度情報N(t)を、位相一致度合算部242と、重み係数算出部443とに与える。
 重み係数算出部443は、二領域間位相一致度情報N(t)を受け取り、二領域間位相一致度情報N(t)で示される各二領域間位相一致度cuv(t)に対する重み係数duv(t)を算出し、算出された重み係数duv(t)を示す重み情報D(t)を生成する。重み情報D(t)は、位相一致度合算部242に与えられる。
 重み情報D(t)は、二領域間位相一致度情報N(t)に含まれる各二領域間位相一致度cuv(t)に対する重み係数duv(t)を含むことができる。重み係数duv(t)は、例えば、「0」から「1」の間の値をとる。例えば、重み係数duv(t)が「0」のときは、該当する二領域間位相一致度cuv(t)に対する重みは小さく、重み係数duv(t)が「1」のときは、該当する二領域間位相一致度cuv(t)に対する重みは大きい。重み係数duv(t)が「0.5」のときは、「0」と「1」との中間程度の重みである。
 重み係数duv(t)は、例えば、計測領域ruに関連する二領域間位相一致度cui(t)の代表値eu(t)と、計測領域rvに関連する二領域間位相一致度cvi(t)の代表値ev(t)に基づいて決定される(i=1、2、・・・、Rn)。計測領域ruに関連する二領域間位相一致度の代表値eu(t)は、例えば、計測領域ruに関連する二領域間位相一致度cui(t)の平均値とする。具体的には、二領域間位相一致度cu1(t)、cu2(t)、・・・、cuRn(t)について、周波数成分毎の位相の一致度の平均値を算出したものを計測領域ruに関連する二領域間位相一致度の代表値eu(t)とする。計測領域ruの脈波元信号wu(t)に含まれる脈波信号の成分が強い時には、計測領域ruに関連する二領域間位相一致度cuiは、いずれの周波数成分においても、位相の一致度は大きくなる。一方で、計測領域ruの脈波元信号wu(t)に含まれる脈波信号の成分が弱い時には、計測領域ruに関連する二領域間位相一致度cuiは、いずれの周波数成分においても、位相の一致度は小さくなる。すなわち、計測領域ruに関連する代表値eu(t)が大きい場合は、計測領域ruに対応する重み係数duiを大きく設定し、代表値eu(t)が小さい場合は、計測領域ruに対応する重み係数duiを小さく設定することで、脈波信号の成分の強い、言い換えれば、他の計測領域と位相の一致する成分を持つ計測領域に重きをおくことができる。
 重み係数duv(t)は、計測領域ruに関連する二領域間位相一致度の代表値eu(t)と、計測領域ruに関連する二領域間位相一致度の代表値ev(t)とから算出する。
 重み係数duv(t)を算出するにあたっては、まず、計測領域ruに対する重み係数du(t)と計測領域rvに対する重み係数dv(t)を算出する。重み係数du(t)とdv(t)の算出方法は同様のため、ここでは、du(t)の算出方法を説明する。
 二領域間位相一致度の代表値eu(t)が取り得る最大値をemax、最小値をeminとする。重み係数du(t)は下記の(6)式で算出される。最大値をemax及び最小値をeminは、予め定められているものとする。
 du(t)=1.0-(eu(t)-emin)/(emax-emin
                              (6)
 同様にdv(t)を算出したのち、重み係数duv(t)はdu(t)とdv(t)との最小値として算出する。すなわち、duv(t)=min(du(t),dv(t))とする。
 上述の式で重み係数duv(t)を計算することで、脈波信号の成分の強い、言い換えれば、他の計測領域と位相の一致する成分を持つ計測領域に関連する重み係数を大きく設定することができる。
 以上のように、実施の形態4に係る脈波推定装置400によれば、位相一致度算出部440が、複数のペアの各々から算出された複数の一致度を用いて、そのペアに含まれている二つの計測領域の代表値を算出し、その代表値が高いほど、重みが重くなるように重み係数を設定することができる。なお、複数のペアの各々から算出された複数の一致度に対する各計測領域の代表値とは、例えば、計測領域ruに関連する二領域間位相一致度cui(t)の代表値eu(t)であり、計測領域rvに関連する二領域間位相一致度cvi(t)の代表値ev(t)である。このため、実施の形態4は、より高精度に脈拍を推定することができる。
 重み係数算出部443は、各二領域間位相一致度cuv(t)に対して算出した重み係数duv(t)をまとめて、それらを示す重み情報D(t)を生成する。重み情報D(t)は、位相一致度合算部242に与えられる。
 位相一致度合算部242は、二領域間位相一致度情報N(t)と、重み情報D(t)とを受け取り、計測領域間における基底成分毎の位相一致度情報C(t)を生成し、生成された位相一致度情報C(t)を脈波推定部150に与える。
 位相一致度合算部242は、二領域間位相一致度情報N(t)で示される二領域間位相一致度cuv(t)に、対応する重み情報D(t)を乗算して、基底成分毎に加算することで、計測領域ri(k)間における基底成分毎の位相の一致度を示す位相一致度情報C(t)を生成する。位相一致度情報C(t)は、脈波推定部150に与えられる。
 脈波推定部150は、脈波元信号情報W(t)と、位相一致度情報C(t)とに基づいて、脈波を推定し、推定された脈波を示す脈波情報である脈波推定結果P(t)を出力する。例えば、脈波推定結果P(t)として、脈拍数を出力する場合は、脈波推定部150は、周波数成分毎の位相一致度情報C(t)のうち、最も位相の一致度が高い基底成分である周波数成分を特定し、特定された周波数成分に基づいて、脈波を推定する。具体的には、脈波推定部150は、最も位相の一致度が高い周波数成分が脈波に相当するものとし、脈波に相当する周波数成分の周波数を脈拍数として出力する。
 なお、実施の形態4においては、計測領域ruに関連する二領域間位相一致度の代表値eu(t)を計測領域ruに関連する二領域間位相一致度cui(t)の平均値としたがこれに限ることではない。例えば、中央値や最小値を用いても良いし、周波数成分毎に位相の一致度が閾値を上回った回数としても良い。
 なお、実施の形態4においては、二領域間位相一致度のみに基づいて、各計測領域に対する重みの程度を決定したが、これに限ることではない。例えば、非特許文献1に記載されているように、脈波元信号wi(t)の最大値と最小値との差、又は、パワースペクトルにおけるSNR(Signal-Noise-Ratio)に基づいて各計測領域に対する重み係数を算出しても良いし、これらを組み合わせても良い。組み合わせる方法としては、例えば、計測領域ruに対して、パワースペクトルにおけるSNRによって算出した重み係数と、二領域間位相一致度に基づいて算出した重み係数との平均値を、計測領域に対する重み係数du(t)とする。
 なお、実施の形態4においては、最も位相の一致度が高い周波数成分が脈波に相当するものとし、脈波に相当する周波数成分の周波数を脈拍数として出力したが、位相が一致していても、信号の振幅が想定よりも大きい場合又は小さい場合には、対応する周波数成分を除いた上で、最も位相の一致度が高い周波数成分を脈拍数として出力しても良い。
 脈波に相当する周波数成分の振幅は、フレームIm(t)における肌領域の明るさ(輝度値)、又は、被験者の肌のトーン、厚さ若しくは血流量に応じて変化する。その中でも、フレームIm(t)における肌領域の明るさの影響が大きく、肌領域の明るさに基づいて、脈波に相当する周波数成分の振幅を推測することができる。例えば、全計測領域の平均輝度値Iave(t)に基づいて決定される周波数成分の振幅に対する閾値θH(Iave(t))とθL(Iave(t))とを用いて、振幅が閾値θH以上かつ閾値θL以下の周波数成分のみを対象に、最も位相の一致度が高い周波数成分を特定する。
 このように、振幅が所定の範囲内の周波数成分から脈拍数を推定することで、より高精度に脈拍数を推定することができる。
 100,200,300,400 脈波推定装置、 110 肌領域検出部、 120 計測領域設定部、 130 脈波元信号抽出部、 140,240,340,440 位相一致度算出部、 141 二領域間位相一致度算出部、 142,242 位相一致度合算部、 243,343,443 重み係数算出部、 150 脈波推定部、 160 撮像装置、 161 光源、 370 変動情報取得部。

Claims (14)

  1.  予め定められた期間における映像を示す複数のフレームの各々から、人の肌を含む領域である肌領域を検出する肌領域検出部と、
     前記肌領域に複数の計測領域を設定する計測領域設定部と、
     前記複数の計測領域の各々から、前記予め定められた期間における輝度の変化を示す脈波元信号を抽出することで、前記複数の計測領域の各々に各々が対応する複数の前記脈波元信号を抽出する脈波元信号抽出部と、
     前記複数の脈波元信号の各々を構成する複数の基底成分の各々の位相が、対応する基底成分同士において一致している程度を示す位相一致度を算出することで、前記複数の脈波元信号の各々に各々が対応する複数の位相一致度を算出する位相一致度算出部と、
     前記複数の位相一致度の内、前記位相が一致している程度が最も高い位相一致度を特定し、前記特定された位相一致度に対応する基底成分に基づいて、前記人の脈波を推定する脈波推定部と、を備えること
     を特徴とする情報処理装置。
  2.  前記位相一致度算出部は、前記複数の脈波元信号から第1の脈波元信号及び第2の脈波元信号として用いる一つのペアを選択し、前記第1の脈波元信号を構成する前記複数の基底成分の各々と、前記第2の脈波元信号を構成する前記複数の基底成分の各々との間で、対応する基底成分同士において前記位相が一致している程度を示す一致度を算出することで、前記複数の基底成分の各々に各々が対応する複数の前記一致度を算出し、算出された前記複数の一致度を前記複数の位相一致度とすること
     を特徴とする請求項1に記載の情報処理装置。
  3.  前記位相一致度算出部は、前記複数の脈波元信号から第1の脈波元信号及び第2の脈波元信号として用いる複数のペアを選択し、前記複数のペアの各々において、前記第1の脈波元信号を構成する前記複数の基底成分の各々と、前記第2の脈波元信号を構成する前記複数の基底成分の各々との間で、対応する基底成分同士において前記位相が一致している程度を示す一致度を算出することで、前記複数の基底成分の各々に各々が対応する複数の前記一致度を算出し、前記複数のペアにおいて算出された前記複数の一致度を、対応する基底成分毎に合算することで、前記複数の位相一致度を算出すること
     を特徴とする請求項1に記載の情報処理装置。
  4.  前記位相一致度算出部は、前記複数の脈波元信号から第1の脈波元信号及び第2の脈波元信号として用いる複数のペアを選択し、前記複数のペアの各々に重み係数を設定し、前記複数のペアの各々において、前記第1の脈波元信号を構成する前記複数の基底成分の各々と、前記第2の脈波元信号を構成する前記複数の基底成分の各々との間で、対応する基底成分同士において前記位相が一致している程度を示す一致度を算出することで、前記複数の基底成分の各々に各々が対応する複数の前記一致度を算出し、前記複数のペアにおいて算出された前記複数の一致度を、前記重み係数を用いて重み付けをして、対応する基底成分毎に合算することで、前記複数の位相一致度を算出すること
     を特徴とする請求項1に記載の情報処理装置。
  5.  前記位相一致度算出部は、前記複数のペアの各々から算出された前記複数の一致度に前記程度の高いものが含まれているほど、重みが重くなるように前記重み係数を設定すること
     を特徴とする請求項4に記載の情報処理装置。
  6.  前記位相一致度算出部は、前記複数のペアの各々に対応する二つの前記計測領域の距離が長いほど、重みが重くなるように前記重み係数を設定すること
     を特徴とする請求項4に記載の情報処理装置。
  7.  前記位相一致度算出部は、前記複数のペアの各々に対応する二つの前記計測領域が配置されている方向が、前記人が動く方向に近いほど、重みが重くなるように前記重み係数を設定すること
     を特徴とする請求項4に記載の情報処理装置。
  8.  前記位相一致度算出部は、前記複数のペアの各々に対応する二つの前記計測領域のサイズの変化の仕方が近いほど、重みが重くなるように前記重み係数を設定すること
     を特徴とする請求項4に記載の情報処理装置。
  9.  前記位相一致度算出部は、前記複数のペアの各々に対応する二つの前記計測領域の形状の変化の仕方が近いほど、重みが重くなるように前記重み係数を設定すること
     を特徴とする請求項4に記載の情報処理装置。
  10.  前記位相一致度算出部は、前記複数のペアの各々から算出された前記複数の一致度を用いて、前記複数のペアの各々に含まれる前記二つの計測領域の各々の代表値を算出し、前記代表値が高いほど、重みが重くなるように前記重み係数を設定すること
     を特徴とする請求項4に記載の情報処理装置。
  11.  前記基底成分は、前記脈波元信号の周波数成分であること
     を特徴とする請求項1から10の何れか一項に記載の情報処理装置。
  12.  前記基底成分は、前記脈波元信号の周波数成分であり、
     前記一致度は、前記第1の脈波元信号を構成する前記周波数成分と、前記第2の脈波元信号を構成する対応する前記周波数成分との位相差の絶対値であること
     を特徴とする請求項2から10の何れか一項に記載の情報処理装置。
  13.  コンピュータを、
     予め定められた期間における映像を示す複数のフレームの各々から、人の肌を含む領域である肌領域を検出する肌領域検出部、
     前記肌領域に複数の計測領域を設定する計測領域設定部、
     前記複数の計測領域の各々から、前記予め定められた期間における輝度の変化を示す脈波元信号を抽出することで、前記複数の計測領域の各々に各々が対応する複数の前記脈波元信号を抽出する脈波元信号抽出部、
     前記複数の脈波元信号の各々を構成する複数の基底成分の各々の位相が、対応する基底成分同士において一致している程度を示す位相一致度を算出することで、前記複数の脈波元信号の各々に各々が対応する複数の位相一致度を算出する位相一致度算出部、及び、
     前記複数の位相一致度の内、前記位相が一致している程度が最も高い位相一致度を特定し、前記特定された位相一致度に対応する基底成分に基づいて、前記人の脈波を推定する脈波推定部、として機能させること
     を特徴とするプログラム。
  14.  予め定められた期間における映像を示す複数のフレームの各々から、人の肌を含む領域である肌領域を検出し、
     前記肌領域に複数の計測領域を設定し、
     前記複数の計測領域の各々から、前記予め定められた期間における輝度の変化を示す脈波元信号を抽出することで、前記複数の計測領域の各々に各々が対応する複数の前記脈波元信号を抽出し、
     前記複数の脈波元信号の各々を構成する複数の基底成分の各々の位相が、対応する基底成分同士において一致している程度を示す位相一致度を算出することで、前記複数の脈波元信号の各々に各々が対応する複数の位相一致度を算出し、
     前記複数の位相一致度の内、前記位相が一致している程度が最も高い位相一致度を特定し、前記特定された位相一致度に対応する基底成分に基づいて、前記人の脈波を推定すること
     を特徴とする情報処理方法。
PCT/JP2019/017339 2018-09-10 2019-04-24 情報処理装置、プログラム及び情報処理方法 WO2020054122A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980057449.2A CN112638244B (zh) 2018-09-10 2019-04-24 信息处理装置、计算机能读取的存储介质和信息处理方法
US17/269,263 US20210186346A1 (en) 2018-09-10 2019-04-24 Information processing device, non-transitory computer-readable medium, and information processing method
JP2020500925A JP6727469B1 (ja) 2018-09-10 2019-04-24 情報処理装置、プログラム及び情報処理方法
DE112019004512.1T DE112019004512T5 (de) 2018-09-10 2019-04-24 Informationsverarbeitungseinrichtung, programm undinformationsverarbeitungsverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018168453 2018-09-10
JP2018-168453 2018-09-10

Publications (1)

Publication Number Publication Date
WO2020054122A1 true WO2020054122A1 (ja) 2020-03-19

Family

ID=69778575

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/017339 WO2020054122A1 (ja) 2018-09-10 2019-04-24 情報処理装置、プログラム及び情報処理方法

Country Status (5)

Country Link
US (1) US20210186346A1 (ja)
JP (1) JP6727469B1 (ja)
CN (1) CN112638244B (ja)
DE (1) DE112019004512T5 (ja)
WO (1) WO2020054122A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201505A1 (ja) * 2021-03-26 2022-09-29 三菱電機株式会社 脈波検出装置及び脈波検出方法
WO2023214457A1 (ja) * 2022-05-06 2023-11-09 三菱電機株式会社 脈波推定装置及び脈波推定方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11471083B2 (en) * 2017-10-24 2022-10-18 Nuralogix Corporation System and method for camera-based stress determination
WO2020157972A1 (en) * 2019-02-01 2020-08-06 Nec Corporation Estimation apparatus, method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006027A1 (ja) * 2014-07-07 2016-01-14 富士通株式会社 脈波検出方法、脈波検出プログラム及び脈波検出装置
JP2016055129A (ja) * 2014-09-12 2016-04-21 富士通株式会社 情報処理装置、脈波計測プログラムおよび脈波計測方法
JP2016140373A (ja) * 2015-01-29 2016-08-08 シャープ株式会社 脈波計測装置、および脈波計測方法
JP2017000625A (ja) * 2015-06-15 2017-01-05 フォスター電機株式会社 信号処理方法、生体信号処理方法、信号処理装置及び生体信号処理装置
WO2017085894A1 (ja) * 2015-11-20 2017-05-26 富士通株式会社 脈波分析装置、脈波分析方法、および脈波分析プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5842539B2 (ja) * 2011-10-28 2016-01-13 オムロンヘルスケア株式会社 測定装置、測定装置の作動方法および測定プログラム
US20160228011A1 (en) * 2013-09-26 2016-08-11 Sharp Kabushiki Kaisha Bio-information acquiring device and bio-information acquiring method
JP6417697B2 (ja) * 2014-04-08 2018-11-07 富士通株式会社 情報処理装置、脈波計測プログラムおよび脈波計測方法
JP6495153B2 (ja) * 2015-11-25 2019-04-03 日本電信電話株式会社 同一性判定システム及び同一性判定方法
JP6817782B2 (ja) * 2016-10-31 2021-01-20 三星電子株式会社Samsung Electronics Co.,Ltd. 脈拍検出装置及び脈拍検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016006027A1 (ja) * 2014-07-07 2016-01-14 富士通株式会社 脈波検出方法、脈波検出プログラム及び脈波検出装置
JP2016055129A (ja) * 2014-09-12 2016-04-21 富士通株式会社 情報処理装置、脈波計測プログラムおよび脈波計測方法
JP2016140373A (ja) * 2015-01-29 2016-08-08 シャープ株式会社 脈波計測装置、および脈波計測方法
JP2017000625A (ja) * 2015-06-15 2017-01-05 フォスター電機株式会社 信号処理方法、生体信号処理方法、信号処理装置及び生体信号処理装置
WO2017085894A1 (ja) * 2015-11-20 2017-05-26 富士通株式会社 脈波分析装置、脈波分析方法、および脈波分析プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022201505A1 (ja) * 2021-03-26 2022-09-29 三菱電機株式会社 脈波検出装置及び脈波検出方法
WO2023214457A1 (ja) * 2022-05-06 2023-11-09 三菱電機株式会社 脈波推定装置及び脈波推定方法

Also Published As

Publication number Publication date
US20210186346A1 (en) 2021-06-24
JPWO2020054122A1 (ja) 2020-10-22
JP6727469B1 (ja) 2020-07-22
DE112019004512T5 (de) 2021-06-24
CN112638244B (zh) 2024-01-02
CN112638244A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
WO2020054122A1 (ja) 情報処理装置、プログラム及び情報処理方法
Tasli et al. Remote PPG based vital sign measurement using adaptive facial regions
EP3057487B1 (en) Device and method for obtaining a vital sign of a subject
KR101738278B1 (ko) 영상을 이용한 감정 인식 방법
JP6521845B2 (ja) 心拍に連動する周期的変動の計測装置及び計測方法
JP6957929B2 (ja) 脈波検出装置、脈波検出方法、及びプログラム
EP3308702B1 (en) Pulse estimation device, and pulse estimation method
KR102285999B1 (ko) 얼굴 색상과 떨림을 이용한 카메라 기반 심박 측정 방법 및 시스템
JP6717424B2 (ja) 心拍推定装置
Rumiński Reliability of pulse measurements in videoplethysmography
Dosso et al. Eulerian magnification of multi-modal RGB-D video for heart rate estimation
Huang et al. A motion-robust contactless photoplethysmography using chrominance and adaptive filtering
Alnaggar et al. Video-based real-time monitoring for heart rate and respiration rate
Slapnicar et al. Contact-free monitoring of physiological parameters in people with profound intellectual and multiple disabilities
Ahmedt-Aristizabal et al. Motion signatures for the analysis of seizure evolution in epilepsy
JP6201520B2 (ja) 生理指標を用いる視線分析システムおよび方法
Karmuse et al. A robust rppg approach for continuous heart rate measurement based on face
WO2023055862A9 (en) Systems and methods for platform-agnostic, real-time physiologic vital sign detection from video stream data
US20240138692A1 (en) Method and system for heart rate extraction from rgb images
Sacramento et al. A real-time software to the acquisition of heart rate and photoplethysmography signal using two region of interest simultaneously via webcam
Malacarne et al. Improved remote estimation of heart rate in face videos
Yang et al. Estimating two-dimensional blood flow velocities from videos
Malasinghe et al. Remote heart rate extraction using microsoft kinecttm V2. 0
Malini Non-Contact Heart Rate Monitoring System using Deep Learning Techniques
JP2019058258A (ja) 心身状態推定装置、心身状態推定方法およびプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020500925

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19859392

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19859392

Country of ref document: EP

Kind code of ref document: A1