WO2022070802A1 - 生体情報計測装置 - Google Patents

生体情報計測装置 Download PDF

Info

Publication number
WO2022070802A1
WO2022070802A1 PCT/JP2021/032826 JP2021032826W WO2022070802A1 WO 2022070802 A1 WO2022070802 A1 WO 2022070802A1 JP 2021032826 W JP2021032826 W JP 2021032826W WO 2022070802 A1 WO2022070802 A1 WO 2022070802A1
Authority
WO
WIPO (PCT)
Prior art keywords
biometric information
component
signals
signal
measuring device
Prior art date
Application number
PCT/JP2021/032826
Other languages
English (en)
French (fr)
Inventor
勝 村山
裕和 山本
直哉 大上
涼 志村
Original Assignee
住友理工株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友理工株式会社 filed Critical 住友理工株式会社
Priority to DE112021000580.4T priority Critical patent/DE112021000580T5/de
Priority to CN202180051402.2A priority patent/CN115968271A/zh
Priority to JP2022553735A priority patent/JPWO2022070802A1/ja
Publication of WO2022070802A1 publication Critical patent/WO2022070802A1/ja
Priority to US17/868,755 priority patent/US20220354434A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7239Details of waveform analysis using differentiation including higher order derivatives
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7246Details of waveform analysis using correlation, e.g. template matching or determination of similarity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/726Details of waveform analysis characterised by using transforms using Wavelet transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency

Definitions

  • the present invention relates to a biometric information measuring device.
  • Patent Document 1 describes a measuring device that simultaneously detects a body pressure distribution and a pulse wave of a subject.
  • Patent Document 2 describes that biometric information such as heart rate and respiratory rate is calculated based on a value detected by a pressure sensor cell generated by a subject.
  • the average of each light wavelength component is calculated from the image data captured by the subject based on the time series data of a plurality of light wavelength components, and the independent component analysis is applied to the average to obtain a plurality of independent components. It is described that a signal is obtained and the heart rate and the respiratory rate are detected from a plurality of obtained independent signals.
  • the blood pressure corresponding to the characteristic amount of the biological information is the predetermined blood pressure.
  • the discriminating means is used for multiple different predetermined blood pressures with respect to the feature amount of biometric information obtained by measurement using a plurality of discriminating means for binarizing whether it is less than or more than, and when estimating blood pressure.
  • a blood pressure measuring device including a binarization discriminating means for discriminating binarization is described.
  • Patent Document 5 describes that principal component analysis is performed on time-series data of detection signals from a plurality of pressure sensors to calculate a mode vector corresponding to the reception gain of a breathing signal.
  • Patent Document 6 describes that analysis processing such as independent component analysis, principal component analysis, and singular value decomposition is performed on a plurality of extracted data extracted under a plurality of extraction conditions.
  • Patent Document 7 uses a neural network in which a measured pulse wave signal is input and trained to reproduce a pulse wave having an amplitude peak synchronized with the heartbeat of a living body, and a pulse reproduced by the neural network is used. It is described that the pulse rate is calculated from the wave.
  • Patent Document 8 describes that the biometric information of the subject is acquired by inputting into a pre-learned trained model for acquiring the biometric information representing the state of the subject from the measurement information.
  • the present invention has been made in view of the above problems, and provides a biometric information measuring device capable of measuring biometric information with high accuracy by performing a process capable of distinguishing biometric information from noise information. It is something to try.
  • One aspect of the present invention is Multiple sensors that acquire base signals including biometric information and noise information, respectively.
  • a processing device that acquires biometric information based on the plurality of base signals, and Equipped with The processing device is A component analysis unit that performs predetermined component analysis based on a plurality of the base signals and generates a plurality of component signals constituting the plurality of base signals.
  • a biometric information acquisition unit that determines whether or not the component signal is the biometric information, It is in the biometric information measuring device.
  • the component analysis unit of the processing device performs a predetermined component analysis based on a plurality of base signals to generate a plurality of component signals constituting the plurality of base signals. That is, a part of the generated plurality of component signals becomes a signal mainly composed of biometric information, and the other part becomes a signal mainly composed of noise information. That is, even if the base signal contains noise information in addition to the biological information, the plurality of component signals are signals in which the biological information and the noise information are separated.
  • the biometric information acquisition unit of the processing device determines whether or not the component signal is biometric information. That is, the biometric information acquisition unit determines which component signal among the plurality of component signals is the signal mainly composed of biometric information by making a determination for each of the plurality of component signals. Therefore, the biometric information measuring device can measure biometric information with high accuracy.
  • the configuration of the biological information measuring device 1 (hereinafter referred to as a measuring device) will be described with reference to FIGS. 1 to 3.
  • the measuring device 1 measures the biological information of the occupant seated on the seat of the vehicle regardless of whether the vehicle is running or not.
  • the measuring device 1 is useful in that it can measure biometric information while the vehicle is traveling.
  • vibrations associated with the running occur. That is, the measuring device 1 can measure the biological information of the occupant even when it is subjected to the vibration generated by the traveling of the vehicle.
  • the measuring device 1 can measure biometric information while the vehicle is stopped.
  • the measuring device 1 measures the biological information of the body given to the sensor unit 10 formed in the surface shape (equal to the sheet shape and the film shape).
  • the measuring device 1 measures at least one of a heart rate and a respiratory rate as biological information.
  • the measuring device 1 includes a sensor unit 10, a power supply device 20, switch circuits 41 and 42, a switching control device 50, and a processing device 60.
  • the case where the sensor unit 10 is composed of a plurality of capacitance sensors will be taken as an example.
  • the sensor unit 10 can use other sensors such as a piezoelectric sensor and a Doppler sensor.
  • a measuring device may be configured according to each sensor.
  • the sensor unit 10 is arranged inside, for example, in front of the seat surface 71 of the seat 70. Specifically, the sensor unit 10 is arranged on the back surface side of the front skin of the seat surface 71. That is, the sensor unit 10 is affected by the pulse wave of the femoral artery of the occupant, the respiratory component, and the like.
  • the sensor unit 10 may be arranged in the rear of the seat surface 71, the back surface 72, or the headrest 73 in addition to the front of the seat surface 71 of the seat 70.
  • the sensor unit 10 receives body pressure from the occupant's buttocks and is affected by arterial pulse waves and respiratory components in the occupant's buttocks.
  • the sensor unit 10 receives body pressure from the back of the occupant and is affected by the pulse wave of the artery and the respiratory component in the back of the occupant.
  • the sensor unit 10 is arranged on the headrest 73, the sensor unit 10 receives body pressure from the head of the occupant and is affected by, for example, arterial pulse waves and respiratory components in the neck.
  • the sensor unit 10 has, for example, flexibility and is formed in a surface shape (equal to a sheet shape and a film shape).
  • the sensor unit 10 can be compressed and deformed in the direction normal to the surface.
  • the sensor unit 10 includes four rows of first electrodes 11, eight rows of second electrodes 12, and a dielectric layer 13.
  • the number of rows of the first electrode 11 and the second electrode 12 can be changed as appropriate.
  • the dielectric layer 13 is formed in an elastically deformable planar shape, and is sandwiched and arranged between the first electrode 11 and the plurality of second electrodes 12.
  • Each first electrode 11 is formed in a band shape and is arranged parallel to each other.
  • the extending direction of the first electrode 11 coincides with the left-right direction of the sheet 70 in FIG.
  • the second electrode 12 is arranged in the plane normal direction of the sensor unit 10 at a distance from the first electrode 11.
  • Each second electrode 12 is formed in a band shape and is arranged parallel to each other.
  • the extending direction of the second electrode 12 coincides with the front-rear direction of the sheet 70 in FIG. That is, on the seat surface 71 of the seat 70, the second electrodes 12 are arranged in four rows on each of the left and right sides.
  • the second electrode 12 in the left four rows is located at a position corresponding to the left thigh of the occupant, and the second electrode 12 in the right four rows is located at a position corresponding to the right thigh of the occupant. Then, the extending direction of each second electrode 12 coincides with the extending direction of the thigh portion, and by extension, the extending direction of the femoral artery.
  • the first electrode 11 and the second electrode 12 are molded by blending a conductive filler in the elastomer.
  • the first electrode 11 and the second electrode 12 have a flexible property and have a stretchable property.
  • the dielectric layer 13 is molded from an elastomer and has a flexible and stretchable property.
  • the facing positions of the first electrode 11 and the second electrode 12 are located in a matrix.
  • the sensor unit 10 includes a pressure sensor cell 10a that functions as a capacitance sensor at a plurality of (32 locations) facing positions arranged in a matrix. As described above, the sensor unit 10 includes 32 pressure sensor cells 10a arranged in 4 rows vertically and 8 rows horizontally. Then, 32 pressure sensor cells 10a are arranged in a plane.
  • the pressure sensor cell 10a in the left four rows receives pressure from the left thigh of the occupant
  • the pressure sensor cell 10a in the right four rows receives pressure from the right thigh of the occupant.
  • the number of rows of the first electrode 11 and the second electrode 12 can be freely changed.
  • the dielectric layer 13 is compressed and deformed, so that the separation distance between the first electrode 11 and the second electrode 12 becomes shorter. That is, the capacitance between the first electrode 11 and the second electrode 12 becomes large.
  • the power supply device 20 generates a predetermined voltage and applies a predetermined voltage to the first electrode 11 of the sensor unit 10.
  • the switch circuit 41 is composed of a plurality of switches. One end of each switch in the switch circuit 41 is connected to the power supply device 20, and the other end of each switch is connected to the corresponding first electrode 11. In FIG. 1, the switch corresponding to the first electrode 11 in the first row from the upper side is turned on, and the others are turned off.
  • the switch circuit 42 is composed of a plurality of switches. One end of each switch of the switch circuit 42 is connected to the corresponding second electrode 12, and the other end of each switch is connected to a processing device 60 described later. In FIG. 1, the switch corresponding to the second electrode 12 in the first row from the left side is turned on, and the others are turned off.
  • the changeover control device 50 executes ON / OFF switching of each switch of the switch circuits 41 and 42. Then, the switching control device 50 connects the pressure sensor cell 10a to be measured to the power supply device 20 and the processing device 60.
  • the processing device 60 acquires the heart rate and the respiratory rate, which are biological information, by performing arithmetic processing based on the detected value by the pressure sensor cell 10a to be measured. Specifically, the processing device 60 calculates the heart rate and the respiratory rate based on the change in the capacitance of the pressure sensor cell 10a.
  • Each of the 32 pressure sensor cells 10a functions as a sensor for measuring capacitance. Therefore, in the following, each of the 32 pressure sensor cells 10a will be referred to as sensors S1 to S32. That is, the sensor unit 10 has 32 channels (ch) of sensors S1 to S32.
  • each of the sensors S1 to S32 detects the base signals A1 to A32 including the biological information and the noise information.
  • the amplitude of biometric information is very small.
  • the noise information includes vibration accompanying the running of the vehicle. Therefore, the amplitude of the biological information is smaller than that of the noise information. Therefore, the base signals A1 to A32 include biological information having a relatively small amplitude and noise information having a relatively large amplitude.
  • each of the base signals A1 to A32 is a signal representing a change in capacitance with a predetermined sampling time length. That is, each of the base signals A1 to A32 has data for a predetermined sampling time with respect to the magnitude of the change in capacitance at time t.
  • FIG. 4 shows some of the base signals A1 to A4.
  • the base signals A1 to A32 are waveform data for a predetermined sampling time length.
  • the configuration of the measuring device 1 will be described with reference to FIGS. 5 to 13.
  • the measuring device 1 in FIG. 5 shows a functional block configuration diagram for a component including the sensors S1 to S32 and the processing device 60.
  • the sensors S1 to S32 acquire the base signals A1 to A32 including the biological information and the noise information.
  • the processing device 60 acquires biometric information by performing the arithmetic processing described below based on a plurality of (32 channels) base signals A1 to A32.
  • the processing device 60 includes a pre-processing unit 61, a component analysis unit 62, a frequency analysis unit 63, a post-processing unit 64, a feature amount extraction unit 65, a discrimination condition storage unit 66, and a biological information acquisition unit 67.
  • the pretreatment unit 61 will be described with reference to FIGS. 5 and 6. As shown in FIG. 5, the preprocessing unit 61 acquires a plurality of (32 channels) base signals A1 to A32 as input signals. The preprocessing unit 61 performs predetermined preprocessing on a plurality of base signals A1 to A32 as preprocessing for a predetermined component analysis by the component analysis unit 62, and performs a plurality of (16 channels) preprocessed signals B1 to B16. To generate.
  • the preprocessing unit 61 has integral processing 81, trend removal processing 82, data extraction processing 83, first high-pass filter 84, first low-pass filter 85, as predetermined preprocessing.
  • the second high-pass filter 86, the second low-pass filter 87, and the channel selection process 88 (partial signal selection process) are executed.
  • the preprocessing unit 61 generates a plurality of (16 channels) preprocessed signals B1 to B16 by executing all the above processes 81 to 88.
  • the preprocessing unit 61 may execute only a part of the above-mentioned plurality of processes 81 to 88, or may execute the processes in a different order.
  • the pretreatment unit 61 may perform a phase difference adjustment process as a predetermined preprocess.
  • the phase difference adjustment process is a process of adjusting a plurality of signals having different phases so that they can be treated as the same type of signal.
  • the preprocessing unit 61 makes noise information as small as possible from a plurality of base signals A1 to A32. Further, the preprocessing unit 61 selects a signal of a part of channels greatly affected by biometric information from a plurality of (32 channels) base signals A1 to A32. In this example, the pre-processing unit 61 selects half of the 16-channel signals and generates 16-channel pre-processed signals B1 to B16.
  • the base signals A1 to A32 acquired by the sensors S1 to S32 are measured at a predetermined sampling cycle. Therefore, the time required to measure all of the base signals A1 to A32 for 32 channels once is 32 times that time.
  • the integration process 81 batch-integrates a predetermined plurality of times in each of the base signals A1 to A32. For example, for the base signal A1, 16 consecutive base signals A1 are added.
  • the trend removal process 82 is a process for removing a changing DC component.
  • the base signals A1 to A32 of the sensors S1 to S32 may change due to the influence of the change in the posture of the occupant.
  • the effect of changes in the occupant's posture is not biometric information and should be removed.
  • the trend removing process 82 can, for example, remove the influence of a change in the posture of the occupant.
  • the data cutting process 83 cuts out the signal obtained by the trend removing process 82 for a predetermined time.
  • the data cutting process 83 cuts out data for a predetermined time as one unit.
  • the signal obtained by the data cutting process 83 is a signal obtained by summarizing the signals obtained by the trend removing process 82 for a predetermined time.
  • the first high-pass filter 84, the first low-pass filter 85, the second high-pass filter 86, and the second low-pass filter 87 as frequency filters apply different cutoff frequencies.
  • the first filter and the second filter may be different types of filters.
  • the cutoff frequency in the frequency filters 84 to 87 is set so that at least the frequency band including the heart rate and the respiratory rate remains.
  • the cutoff frequency may be set so that the frequency band of the heart rate remains, and the frequency band of the respiratory rate may be cut.
  • the cutoff frequency may be set so that the frequency band of the respiratory rate remains, and the frequency band of the heart rate may be cut.
  • the order and the number of the frequency filter can be set arbitrarily.
  • Noise information can be removed and biometric information can be extracted by the integration process 81, the trend removal process 82, the data extraction process 83, and the frequency filters 84 to 87.
  • the channel selection process 88 selects some channels with high pressure from the signals obtained by the frequency filters 84 to 87.
  • the channel selection process 88 selects 16 channels, which are a part of the 32 channels.
  • the processing of the integration processing 81 to the second low-pass filter 87 reduces the noise information and generates a signal in which the biological information is relatively larger than the noise information. Therefore, the channel selection process 88 selects the signals of some of the 32 channels to which the biometric information is more affected.
  • the average value, maximum value, and minimum value of the base signals A1 to A32 may be detected, and some channels having high values may be selected.
  • the component analysis unit 62 performs a predetermined component analysis based on the plurality of preprocessed signals B1 to B16 generated by the pretreatment unit 61, and performs a predetermined component analysis, and the plurality of component signals C1 to C16. To generate.
  • one of the principal component analysis, the independent component analysis, and the singular value decomposition is performed based on the plurality of preprocessed signals B1 to B16, and the plurality of component signals are performed. Generates C1 to C16.
  • the predetermined component analysis the principal component analysis is suitable.
  • FIG. 8 shows some component signals C1 to C4.
  • the component signals C1 to C16 are waveform data for a predetermined time length.
  • Principal component analysis is one of the multivariate analysis, and is a method of searching for components common to multivariate data and creating a kind of synthetic variable (principal component).
  • Independent Component Analysis is an analysis method that expresses data as a plurality of additive components.
  • the principal component analysis can generate the separated component signals C1 to C16 and acquire the component ranks of the component signals C1 to C16.
  • the component order is higher as the component affects the input preprocessed signals B1 to B16.
  • the component rank can be obtained from the relationship with the base signals A1 to A32.
  • the component analysis unit 62 can separate the component signals into the same number as the number of input signals. That is, in the component analysis unit 62, the relationship between the number of components actually included in the preprocessed signals B1 to B16 as input signals and the number of preprocessed signals B1 to B16 as input signals is an important factor. Become. Further, the more the component to be separated is contained in many of the preprocessed signals B1 to B16 which are input signals, the more the component signal to be separated can be acquired.
  • the frequency analysis unit 63 will be described with reference to FIGS. 5 and 9. As shown in FIG. 5, the frequency analysis unit 63 acquires a plurality of (16 components) component signals C1 to C16 as input signals. The frequency analysis unit 63 generates a plurality of power spectra D1 to D16 by performing FFT processing on each of the plurality of component signals C1 to C16. Other frequency analysis such as time series modeling, autocorrelation, and wavelet transform may be performed.
  • the power spectrum D1 is the result of frequency analysis on the component signal C1, and the same applies to the others. Some of the 16 power spectra D1 to D4 are as shown in FIG.
  • the power spectra D1 to D16 represent the signal strength (power) with respect to the frequency. In the power spectra D1 to D16, the maximum signal strength (power) is 1.
  • the frequency analysis unit 63 acquires the respective main frequencies F1 to F16 of the component signals C1 to C16 based on the respective power spectra D1 to D16.
  • the main frequencies F1 to F16 are the primary candidates for biometric information. That is, the frequency analysis unit 63 acquires a plurality of main frequencies F1 to F16 as primary candidates for biometric information.
  • the frequencies having the maximum signal strength are the primary candidates F1 to F16.
  • the primary candidate F1 of the component signal C1 is about 1.3 Hz.
  • the main frequencies F1 to F16 are not limited to the frequencies having the maximum signal strength, and may be a spectral band having a predetermined width including the maximum signal strength.
  • the post-processing unit 64 will be described with reference to FIGS. 5 and 7. As shown in FIG. 5, the post-processing unit 64 acquires a plurality of (16 components) component signals C1 to C16 as input signals. The post-processing unit 64 performs predetermined post-processing on a plurality of component signals C1 to C16 as post-processing of a predetermined component analysis by the component analysis unit 62, and a large number of post-processed signals Ea1 to Ea16 and Eb1 to Eb16. , ... are generated. The predetermined post-processing by the post-processing unit 64 is a process of generating data used for extracting a feature amount described later.
  • the post-processing unit 64 further acquires a plurality of (16) pre-processed signals B1 to B16 as input signals.
  • the post-processing unit 64 generates data used for extracting the feature amount for the pre-processed signals B1 to B16.
  • the post-processing unit 64 may not use the pre-processed signals B1 to B16.
  • the post-processing unit 64 performs additional processing 91 for the component signals C1 to C16 and differential processing 92 (first-order differential processing) for the component signals C1 to C16 as predetermined post-processing. At least one of the additional processing 93 for the first-order differential signal 93, the differential processing 94 for the first-order differential signal (second-order differential processing), and the additional processing 95 for the second-order differential signal is performed.
  • the additional process 91 includes at least one of frequency analysis process (FFT, etc.), time series modeling, wavelet transform process, integral process, correlation process (including autocorrelation and cross-correlation), and frequency filter process.
  • FFT frequency analysis process
  • time series modeling wavelet transform process
  • integral process integral process
  • correlation process including autocorrelation and cross-correlation
  • frequency filter process frequency filter process.
  • the differential processing 92 performs differential processing on the component signals C1 to C16 to generate a first-order differential signal.
  • the additional processing 93 performs the same processing as the above-mentioned additional processing 91 on the first-order differential signal generated by the differential processing 92.
  • the differential processing 94 performs differential processing on the first-order differential signal to generate a second-order differential signal.
  • the additional processing 95 performs the same processing as the above-mentioned additional processing 91 on the second-order differential signal generated by the differential processing 94.
  • the additional processing 91, the differential processing 92 (first-order differential processing), the additional processing 93, the differential processing 94 (second-order differential processing), and the additional processing 95 in the post-processing unit 64 refer to the preprocessed signals B1 to B16. Do the same.
  • the feature amount extraction unit 65 uses a plurality of preprocessed signals B1 to B16, a plurality of component signals C1 to C16, a plurality of post-processed signals D1 to D16, Ea1 to Ea16, Eb1 to Eb16, ... Extract the features for acquiring biometric information. That is, the feature amount is used as information for extracting biological information from a plurality of primary candidates F1 to F16. In particular, the feature amount extraction unit 65 extracts the feature amounts related to the component signals C1 to C16. In particular, in this example, the feature amount extraction unit 65 extracts the feature amount related to the primary candidates F1 to F16 generated by the frequency analysis unit 63.
  • the feature amount is used for machine learning for extracting biological information from a plurality of primary candidates F1 to F16. That is, the feature amount is used in the learning process of the discriminant model that defines the discriminant condition in the learning phase of machine learning, and is also used in the inference process using the discriminant model in the inference phase of machine learning.
  • the feature amount is the data used for the process.
  • the feature amounts are the values obtained from the preprocessed signals B1 to B16, the values obtained from the component signals C1 to C16, and the post-processed signals D1 to D16, Ea1 to Ea16, Eb1 to Eb16. Includes values obtained from ,.
  • FIGS. 10 to 13 there are various candidates for the feature amount. As the feature amount, one selected from these many candidates can be used. In FIGS. 10 and 11, it is shown that the feature amount is a feature element with respect to the reference data.
  • the preprocessed signals B1 to B16 are used as reference data, and the maximum value, minimum value, average, median value, variance, standard deviation, kurtosis, skewness, etc. in the reference data are shown. , Indicates that it is a feature quantity.
  • the feature amount extraction unit 65 inputs the preprocessed signals B1 to B16 generated by the preprocessing unit 61, and performs processing on the input signal.
  • the first-order differential signals of the preprocessed signals B1 to B16 are used as reference data, and the maximum value, minimum value, average, median value, variance, standard deviation, and kurtosis in the reference data are used. , Skewness, etc. indicate that they are feature quantities.
  • the feature amount extraction unit 65 inputs the signal generated by the differential processing 92 of the post-processing unit 64 and performs processing on the input signal. Generate features.
  • each second-order differential signal of the preprocessed signals B1 to B16 is used as reference data, and the maximum value, minimum value, average, median value, variance, standard deviation, and kurtosis in the reference data are used. , Skewness, etc. indicate that they are feature quantities.
  • the feature amount extraction unit 65 inputs the signal generated by the differential processing 94 of the post-processing unit 64 and performs processing on the input signal. Generate features.
  • the m-th order derivative (m is 3 or more) of the preprocessed signals B1 to B16 can also be used as reference data.
  • the reference data includes the component signals C1 to C16, the first-order differential signals of the component signals C1 to C16, and the second-order differential signals of the component signals C1 to C16 as reference data. It is shown that the maximum value, the minimum value, the average value, the median value, the variance, the standard deviation, the kurtosis, the skewness, etc. in are the feature quantities.
  • the feature amount extraction unit 65 inputs the signal generated by the differential processing 92 and 94 of the component analysis unit 62 and the post-processing unit 64, and inputs the signal to the input signal. By performing the processing, the feature amount is generated.
  • the m-th order derivative (m is 3 or more) of the component signals C1 to C16 can also be used as reference data. Further, although not shown, base signals A1 to A32 may be applied as reference data of the feature amount.
  • the result information FFT (B1) to FFT (B16) obtained by frequency analysis of the preprocessed signals B1 to B16 is used as reference data, and the maximum peak frequency, the average signal strength, and the center of the reference data are used. It is shown that the value, dispersion, standard deviation, kurtosis, skewness, etc. are feature quantities.
  • the feature amount extraction unit 65 inputs the signal generated by the additional processing 91 of the post-processing unit 64 and performs processing on the input signal. Generate features.
  • the result information FFT (d (B1) / dt) to FFT (d (B16) / dt) obtained by frequency analysis of the first-order differential signals of the preprocessed signals B1 to B16 is used as reference data.
  • the maximum peak frequency, the average signal strength, the median value, the dispersion, the standard deviation, the kurtosis, the skewness, etc. in the reference data are the feature quantities.
  • the feature amount extraction unit 65 inputs the signal generated by the additional processing 93 of the post-processing unit 64 and performs processing on the input signal. Generate features.
  • the feature amount extraction unit 65 inputs the signal generated by the additional processing 95 of the post-processing unit 64 and performs processing on the input signal. Generate features.
  • the result information of the frequency analysis for the m-th order derivative (m is 3 or more) of the preprocessed signals B1 to B16 can also be used as reference data.
  • the maximum peak frequency, the average signal strength, and the median value in the reference data are used as reference data as the result information FFT (C1) to FFT (C16) obtained by frequency analysis of the component signals C1 to C16. Dispersion, standard deviation, kurtosis, skewness, etc. indicate that they are feature quantities.
  • the result information FFT (d (C1) / dt) to FFT (d (C16) / dt) obtained by frequency analysis of the first-order differential signals of the component signals C1 to C16 are used as reference data. It is shown that the maximum peak frequency, the average signal strength, the median value, the dispersion, the standard deviation, the kurtosis, the skewness, etc. in the reference data are feature quantities.
  • the maximum peak frequency, the average signal strength, the median value, the dispersion, the standard deviation, the kurtosis, the skewness, etc. in the reference data are feature quantities.
  • the result information of the frequency analysis for the m-th order derivative (m is 3 or more) of the component signals C1 to C16 can also be used as reference data.
  • the feature amount extraction unit 65 inputs the signal generated by the additional processing 91, 93, 95 and inputs the signal to the input signal. By performing the processing on the subject, the feature amount is generated.
  • the component order n of the component signals C1 to C16 and the main frequencies (corresponding to the component frequencies) of the component signals C1 to C16 may be applied as feature quantities.
  • the component order n is particularly effective when the principal component analysis is performed.
  • the correlation coefficient for the two types of signals is a feature amount.
  • the second column of FIG. 13 shows that the correlation coefficient between the component signals C1 to C16 and the first-order differential signals of the preprocessed signals B1 to B16 is a feature quantity.
  • the third column of FIG. 13 shows that the correlation coefficient between the component signals C1 to C16 and the second-order differential signals of the preprocessed signals B1 to B16 is a feature quantity.
  • the correlation coefficient between the first-order differential signals of the component signals C1 to C16 and the preprocessed signals B1 to B16 is a feature quantity.
  • the correlation coefficient between the first-order differential signals of the component signals C1 to C16 and the first-order differential signals of the preprocessed signals B1 to B16 is a feature quantity.
  • the correlation coefficient between the first-order differential signals of the component signals C1 to C16 and the second-order differential signals of the preprocessed signals B1 to B16 is a feature quantity.
  • the correlation coefficient between the second-order differential signals of the component signals C1 to C16 and the preprocessed signals B1 to B16 is a feature quantity.
  • the eighth column of FIG. 13 shows that the correlation coefficient between the second-order differential signals of the component signals C1 to C16 and the first-order differential signals of the preprocessed signals B1 to B16 is a feature quantity.
  • the ninth column of FIG. 13 shows that the correlation coefficient between the second-order differential signals of the component signals C1 to C16 and the second-order differential signals of the preprocessed signals B1 to B16 is a feature quantity.
  • the feature amount extraction unit 65 has the preprocessed signals B1 to B16 generated by the preprocessing unit 61 and the component signals C1 to C1 generated by the component analysis unit 62.
  • the feature amount is generated by inputting signals generated by C16, differential processing 92, 94 of the post-processing unit 64, and additional processing 91, 93, 95, and performing processing on the input signals. ..
  • the correlation coefficients related to the component signals C1 to C16 and the preprocessed signals B1 to B16 were used.
  • the correlation coefficient relating to the component signals C1 to C16 and the post-processed signals Ea1 to Ea16, Eb1 to Eb16, ... May be used as the feature quantity.
  • the discrimination condition storage unit 66 of the measuring device 1 stores the discrimination condition.
  • the discrimination condition is a condition for determining whether or not each of the component signals C1 to C16 is biometric information.
  • the discrimination condition is a condition for performing the above determination based on the component signals C1 to C16 and the feature amount.
  • the discrimination condition is a condition for determining whether or not each of the primary candidates F1 to F16, which are the main frequencies, is biometric information.
  • the discrimination condition is, for example, a condition for making the above determination based on the primary candidates F1 to F16, which are the main frequencies generated by the frequency analysis unit 63, and the corresponding feature amount.
  • the discrimination condition storage unit 66 stores the discrimination model that defines the discrimination condition.
  • the discriminant model is a model learned by machine learning. For example, the discrimination model outputs a value indicating whether or not it is biometric information when a large number of feature quantities corresponding to the primary candidates F1 to F16 and the primary candidates F1 to F16 are used as input data. do.
  • the value indicating whether or not it is biometric information may be a binary value that can distinguish between biometric information and non-biological information, or as a value corresponding to the probability of biometric information (discrimination score). Is also good.
  • the discriminant model uses a model that can output the discriminant score.
  • the discriminant model applies, for example, a random forest or a support vector machine.
  • the discrimination model is generated by performing machine learning in advance using the above input data and a teacher label indicating whether or not the primary candidates F1 to F16 are biometric information as a training data set.
  • the teacher label in this case includes at least one of correct answer information which is biometric information and incorrect answer information which is not biometric information.
  • the biological information acquisition unit 67 acquires frequencies that are biological information by using a plurality of primary candidates F1 to F16 generated by the frequency analysis unit 63.
  • the biometric information acquisition unit 67 applies machine learning to acquire frequencies that are biometric information.
  • the biological information acquisition unit 67 executes a machine learning inference phase using a discriminant model using a plurality of primary candidates F1 to F16 and feature quantities as input data. Then, the biometric information acquisition unit 67 determines whether or not each of the plurality of primary candidates F1 to F16 is biometric information.
  • the biometric information acquisition unit 67 is determined to output a discriminant score which is a determination value of whether or not it is biometric information by executing the inference phase of machine learning, and one biometric information is output using the discriminant score. decide.
  • the biometric information acquisition unit 67 determines whether or not the biometric information is correct or incorrect by executing the inference phase of machine learning, and determines the primary candidate determined to be the biometric information as the biometric information. You can also. Further, the biometric information acquisition unit 67 may determine the primary candidate as biometric information according to a predetermined rule without applying machine learning. The detailed processing of the biological information acquisition unit 67 will be described later.
  • the biological information acquisition unit 67 determines whether or not the primary candidates F1 to F16 are updated (ST1). If the primary candidates F1 to F16 are not updated (ST1: No), the biometric information acquisition unit 67 continues the process until the primary candidates F1 to F16 are updated. On the other hand, if the primary candidates F1 to F16 are updated (ST1: Yes), the process proceeds to the next process. That is, the biological information acquisition unit 67 proceeds to the next process when the primary candidates F1 to F16 at the new time T are generated.
  • the biometric information acquisition unit 67 acquires the primary candidates F1 to F16 at the new time T (ST2). Subsequently, the biological information acquisition unit 67 determines whether or not the primary candidates F1 to F16 for the latest predetermined time range ⁇ T have been acquired (ST3). If the minutes in the predetermined time range ⁇ T have not been acquired (ST3: No), the process returns to ST1 again and the process is repeated. That is, the primary candidates F1 to F16 at the new time T are continuously acquired until the primary candidates F1 to F16 for the latest predetermined time range ⁇ T are acquired.
  • the biological information acquisition unit 67 acquires the primary candidates F1 to F16 for the predetermined time range ⁇ T (ST3: Yes)
  • the biological information acquisition unit 67 acquires a plurality of feature quantities extracted by the feature quantity extraction unit 65. (ST4).
  • the biological information acquisition unit 67 uses the discrimination model stored in the discrimination condition storage unit 66 as input data of the plurality of primary candidates F1 to F16 and the plurality of feature quantities at each time T, and uses the machine. Execute the inference phase of learning (ST5). Then, the biometric information acquisition unit 67 outputs a determination value indicating whether or not each of the plurality of primary candidates F1 to F16 is biometric information at each time T.
  • the determination value may be a binary value that can distinguish between biometric information and non-biological information, or may be a value corresponding to the probability of biometric information (discrimination score).
  • the discrimination score is determined in a range having a predetermined upper and lower limit values. The larger the value of the discrimination score, that is, the closer to the upper limit value, the higher the probability of biometric information.
  • the primary candidate F_n (F_n corresponds to F1 to F16) determined to be biometric information as a result of executing the inference phase of machine learning is the secondary candidate.
  • Fa_m a natural number. In this case, the number of secondary candidates Fa_m is smaller than the number of primary candidates F1 to F16.
  • the secondary candidate Fa_m when the latter discrimination score is output, all of them may be designated as the secondary candidate Fa_m, or only those whose discrimination score is larger than the predetermined value may be designated as the secondary candidate Fa_m. Therefore, when all are the secondary candidate Fa_m, the number of the secondary candidate Fa_m is the same as that of the primary candidate F_n. On the other hand, when only those having a discrimination score larger than a predetermined value are used as the secondary candidate Fa_m, the number of the secondary candidate Fa_m is smaller than the number of the primary candidate F_n.
  • each of the plurality of primary candidates F1 to F16 has biometric information at each time T based on the input data and the discrimination condition, so-called rule base. It is determined whether or not it is.
  • the biological information acquisition unit 67 determines whether or not there are a plurality of secondary candidates Fa_m at the same time T (ST6). If there are multiple secondary candidate Fa_m at the same time T (ST6: Yes), one secondary candidate Fa at the same time T is used by using the plurality of secondary candidate Fa_m at the same time T. Is determined (ST7). On the other hand, when the biometric information acquisition unit 67 determines that only one secondary candidate Fa_1 is biometric information at the same time T (ST6: No), the biometric information acquisition unit 67 proceeds to the next process (ST8).
  • the determination of one secondary candidate Fa in step ST7 can be selected from, for example, the following four ways.
  • the biometric information acquisition unit 67 calculates the arithmetic mean of a plurality of secondary candidates Fa_m, and sets the arithmetic mean as one secondary candidate Fa. decide.
  • the arithmetic mean Av1 is expressed by the equation (1).
  • Xn is a data value
  • n is the number of data.
  • Av1 ⁇ (Xn) / n ... (1)
  • the biometric information acquisition unit 67 calculates a weighted average (also referred to as a weighted average) in consideration of the discrimination score, and the weighted average is used as one secondary. Determined as a candidate Fa.
  • the weighted average Av2 is expressed by the equation (2).
  • Xn is a data value
  • n is a number of data
  • Wn is a weight.
  • Av2 ⁇ (Wn ⁇ Xn) / ⁇ Wn ⁇ ⁇ ⁇ (2)
  • the weight Wn is a value obtained in consideration of the discrimination score. Specifically, the weight Wn is a value obtained by multiplying the discrimination score by the softmax function.
  • the softmax function is as shown in FIG. As described above, the larger the value of the discrimination score, that is, the closer to the upper limit value, the higher the probability of biometric information. Therefore, the weight Wn becomes a larger value as the probability of being biometric information is higher, and becomes almost zero when the probability of being biometric information is low.
  • the biometric information acquisition unit 67 selects one primary candidate F_n having the maximum discrimination score among the plurality of primary candidates F1 to F16. Determined as the second candidate Fa.
  • the biometric information acquisition unit 67 determines the component order of the component signals in the principal component analysis or the independent component analysis by the component analysis unit 62 for the plurality of secondary candidate Fa_m.
  • One secondary candidate Fa is determined based on the weighted average considered.
  • the weighted average is as shown in the above equation (2).
  • the weight Wn is a value according to the component order. For example, the weight Wn is set so that the higher the component order, the larger the value.
  • the secondary candidate Fa was determined based on a plurality of primary candidates F_n by applying machine learning.
  • the secondary candidate Fa may be the primary candidate F_n determined to be biometric information without applying machine learning.
  • the secondary candidate Fa may select one or a plurality from a plurality of primary candidates F_n without relying on machine learning.
  • the secondary candidate Fa may be selected from a plurality of primary candidates F_n according to a preset rule, or may be randomly selected.
  • the method for selecting the secondary candidate Fa is not limited to the above.
  • the biometric information acquisition unit 67 plots the secondary candidate Fa for the predetermined time range ⁇ T on a two-dimensional graph (ST8).
  • the first axis horizontal axis
  • the second axis vertical axis
  • FIGS. 16 and 17 are graphs when the heart rate is targeted as biological information.
  • the human respiratory rate and heart rate fluctuate with time.
  • the secondary candidate Fa as the heart rate fluctuates in the range of 70 bpm to 85 bpm depending on the time.
  • the biometric information acquisition unit 67 may perform data interpolation processing, for example, when there is a data omission. For example, the biometric information acquisition unit 67 generates data at the time when there is a data omission, using the data at the time before and after.
  • the biometric information acquisition unit 67 generates a continuous line V1 by linearly connecting the secondary candidate Fas at adjacent times in the plotted two-dimensional graph (ST9).
  • the continuous line V1 is as shown in FIGS. 18 and 19.
  • the biometric information acquisition unit 67 generates the post-filter continuous line V2 by subjecting the continuous line V1 to a process by a predetermined frequency filter, for example, a low-pass filter process (ST10).
  • the continuous line V2 after the filter is shown by the solid line in FIGS. 20 and 21.
  • the biometric information acquisition unit 67 determines the biometric information at each time T by the continuous line V2 after the filter (ST11). That is, the values located on the lines of FIGS. 20 and 21 are the biometric information at each time T.
  • the actual heart rate is shown by the broken line V3.
  • the actual heart rate is the result measured by attaching the heart rate sensor to the occupant.
  • the filtered continuous line V2 matches the actual heart rate very well.
  • the biological information acquisition unit 67 performs processing such as FFT, time series modeling, autocorrelation, wavelet transform, etc. on the acquired component signal corresponding to the secondary candidate Fa_m, and obtains the biological information.
  • a certain heart rate or the like may be calculated.
  • the calculated heart rate or the like may be used as the data value Xn for performing the arithmetic mean or the weighted average in step ST7.
  • the measuring device 1 can acquire biometric information with high accuracy.
  • the component analysis unit 62 of the processing device 60 performs predetermined component analysis based on the plurality of base signals A1 to A32 to generate a plurality of component signals C1 to C16 constituting the plurality of base signals A1 to A32. do. That is, a part of the generated plurality of component signals C1 to C16 becomes a signal mainly composed of biometric information, and the other part becomes a signal mainly composed of noise information. That is, even if the base signals A1 to A32 include noise information in addition to the biological information, the plurality of component signals C1 to C16 are signals in which the biological information and the noise information are separated.
  • the biological information acquisition unit 67 of the processing device 60 determines whether or not the component signals C1 to C16 are biological information. That is, the biological information acquisition unit 67 determines which of the plurality of component signals C1 to C16 is the signal mainly composed of the biological information by making a determination for each of the plurality of component signals C1 to C16. judge. Therefore, the measuring device 1 can measure the biological information with high accuracy.
  • the preprocessing unit 61 of the measuring device 1 performs a process of reducing noise information and a process of selecting a signal having a large influence of biological information.
  • the component analysis unit 62 uses the preprocessed signals B1 to B16 thus obtained, the component analysis unit 62 generates the component signals C1 to C16. Therefore, the component analysis unit 62 can generate the component signals C1 to C16 in which the biological information and the noise information are separated with high accuracy.
  • a discrimination condition stored in the discrimination condition storage unit 66 is used for determining which component signal among the component signals C1 to C16 is biometric information.
  • the biometric information acquisition unit 67 A discriminant model, which is a machine learning model that defines discriminant conditions, is used to determine whether or not the main frequencies F1 to F16 of the component signals C1 to C16 are biometric information.
  • the discrimination model is a model for making the above judgment based on the component signals C1 to C16 and a large number of feature quantities.
  • the discrimination model is a model for determining whether or not the main frequencies F1 to F16 are biometric information based on the main frequencies F1 to F16 of the component signals C1 to C16 and the feature amount. That is, the discrimination model is a model using features related to the main frequencies F1 to F16 in addition to the main frequencies F1 to F16.
  • the biological information can be performed with higher accuracy.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Power Engineering (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

生体情報計測装置(1)は、生体情報およびノイズ情報を含むベース信号(A1~A32)をそれぞれ取得する複数のセンサ(S1~S32)と、複数のベース信号(S1~S32)に基づいて、生体情報を取得する処理装置(60)とを備える。処理装置(60)は、複数のベース信号(A1~A32)に基づいて所定の成分分析を行い、複数のベース信号(A1~A32)を構成する複数の成分信号(C1~C16)を生成する成分分析部(62)と、成分信号(C1~C16)が生体情報であるか否かの判定を行う生体情報取得部(67)とを備える。

Description

生体情報計測装置
 本発明は、生体情報計測装置に関する。
 特許文献1には、対象者の体圧分布と脈波を同時に検出する計測装置が記載されている。特許文献2には、対象者によって生じる圧力センサセルによる検出値に基づいて、心拍数や呼吸数などの生体情報を演算することが記載されている。
 特許文献3には、対象者が撮像された画像データから複数の光波長成分の時系列データをもとに各光波長成分の平均を算出し、平均に独立成分分析を適用して複数の独立信号を求め、求めた複数の独立信号から心拍数、呼吸数を検出することが記載されている。
 特許文献4には、所定の血圧毎に事前学習によって得られた生体情報の特徴量と血圧との関係に基づいて、生体情報の特徴量に対し、その特徴量に対応する血圧が所定の血圧未満か以上かを二値化判別する複数の識別手段と、血圧の推定を行う場合に、識別手段を用い、測定によって得られた生体情報の特徴量に対し、複数の異なる所定の血圧について、それぞれ二値化判別を行う二値化判別手段とを備える血圧測定装置が記載されている。
 特許文献5には、複数の圧力センサからの検出信号の時系列データに対して主成分分析を行って、呼吸信号の受信利得に相当するモードベクトルを算出することが記載されている。特許文献6には、複数の抽出条件で抽出された複数の抽出データに対して、独立成分分析、主成分分析、特異値分解などの分析処理を行うことが記載されている。
 特許文献7には、計測された脈波信号を入力して、生体の心拍に同期する振幅のピークを持つ脈波を再生するように学習させたニューラルネットワークを用い、ニューラルネットワークで再生された脈波から脈拍数を算出することが記載されている。特許文献8には、計測情報から被験者の状態を表す生体情報を取得するための予め学習された学習済みモデルへ入力して、被験者の生体情報を取得することが記載されている。
特開2017-176498号公報 特開2017-176499号公報 特許第5672144号公報 特許第5218139号公報 特開2017-140187号公報 国際公開第2019-208388号 特許第4320925号公報 特開2020-48674号公報
 ところで、車両の乗員の生体情報を計測する場合には、車両自身の振動がノイズとして検出されるため、生体情報を精度よく計測することが容易ではない。特に、車両が走行している際には、走行に伴う振動の周波数帯が、人間の生体情報の周波数帯と一部分において共通するため、周波数フィルタ(バンドパスフィルタなど)によって生体情報とノイズ情報とを分けることができない。
 本発明は、かかる課題に鑑みてなされたものであり、生体情報とノイズ情報とを区別することができる処理を行うことにより、高精度に生体情報を計測することができる生体情報計測装置を提供しようとするものである。
 本発明の一態様は、
 生体情報およびノイズ情報を含むベース信号をそれぞれ取得する複数のセンサと、
 複数の前記ベース信号に基づいて、生体情報を取得する処理装置と、
 を備え、
 前記処理装置は、
  複数の前記ベース信号に基づいて所定の成分分析を行い、複数の前記ベース信号を構成する複数の成分信号を生成する成分分析部と、
  前記成分信号が前記生体情報であるか否かの判定を行う生体情報取得部と、
 を備える、生体情報計測装置にある。
 処理装置の成分分析部が、複数のベース信号に基づいて所定の成分分析を行うことによって、複数のベース信号を構成する複数の成分信号を生成する。つまり、生成された複数の成分信号の一部は、生体情報を主とする信号となり、他の一部は、ノイズ情報を主とする信号などとなる。つまり、ベース信号が生体情報の他にノイズ情報を含んでいるとしても、複数の成分信号は、生体情報とノイズ情報とを分けた信号となる。
 そして、処理装置の生体情報取得部が、成分信号が生体情報であるか否かの判定を行う。つまり、生体情報取得部は、複数の成分信号のそれぞれについて判定を行うことにより、複数の成分信号のうちでどの成分信号が生体情報を主とする信号であるかを判定する。従って、生体情報計測装置は、高精度に生体情報を計測することができる。
生体情報計測装置の全体構成図である。 センサユニットの取付位置の説明図である。 センサユニットの分解斜視図である。 ベース信号Aを示すグラフである。 生体情報計測装置の機能ブロック構成図である。 生体情報計測装置を構成する前処理部の機能ブロック構成図である。 生体情報計測装置を構成する後処理部の機能ブロック構成図である。 成分信号Cを示すグラフである。 成分信号CのパワースペクトルDを示すグラフである。 特徴量の候補を示す図である。 特徴量の候補を示す図である。 特徴量の候補を示す図である。 特徴量の候補を示す図である。 生体情報計測装置を構成する生体情報取得部の処理を示すフローチャートである。 ソフトマックス関数を示す図である。 所定の時間範囲において、各時刻の第二次候補をプロットしたグラフである。 図16のグラフにおける時刻200msecから300msecの範囲を拡大したグラフである。 所定の時間範囲において、各プロット点を接続した連続線を示すグラフである。 図18のグラフにおける時刻200msecから300msecの範囲を拡大したグラフである。 所定の時間範囲において、フィルタ後連続線を示すグラフである。 図20のグラフにおける時刻200msecから300msecの範囲を拡大したグラフである。
 (1.生体情報計測装置1の構成)
 生体情報計測装置1(以下、計測装置と称する)の構成について、図1~図3を参照して説明する。計測装置1は、車両が走行中であるか否かに関わらず、車両のシートに着座した乗員の生体情報を計測する。特に、計測装置1は、車両が走行中に、生体情報を計測することができる点において有用である。ここで、車両の走行中において、走行に伴う振動が発生する。つまり、計測装置1は、車両の走行により生じる振動を受けている場合であっても、乗員の生体情報を計測することができる。なお、計測装置1は、当然に、車両が停止中において、生体情報を計測することができる。
 計測装置1は、面形状(シート形状、膜形状に等しい)に形成されたセンサユニット10に付与された身体の生体情報を計測する。計測装置1は、生体情報として、心拍数および呼吸数の少なくとも1つを計測する。図1に示すように、計測装置1は、センサユニット10、電源装置20、スイッチ回路41,42、切替制御装置50、および、処理装置60を備える。
 本例においては、センサユニット10が、複数の静電容量センサで構成される場合を例にあげる。なお、センサユニット10は、圧電センサ、ドップラーセンサなどの他のセンサを用いることができ、この場合、各センサに応じて、計測装置を構成すれば良い。
 センサユニット10は、図2に示すように、例えば、シート70の座面71の前方の内部に配置される。詳細には、センサユニット10は、座面71の前方の表皮の裏面側に配置される。つまり、センサユニット10は、乗員の大腿動脈の脈波や呼吸成分などの影響を受ける。
 なお、センサユニット10は、シート70の座面71の前方の他に、座面71の後方、背面72やヘッドレスト73に配置しても良い。センサユニット10が座面71の後方に配置される場合は、センサユニット10は、乗員の臀部により体圧を受け、乗員の臀部における動脈の脈波や呼吸成分などの影響を受ける。また、センサユニット10が背面72に配置される場合には、センサユニット10は、乗員の背部により体圧を受け、乗員の背部における動脈の脈波や呼吸成分の影響を受ける。また、センサユニット10がヘッドレスト73に配置される場合には、センサユニット10は、乗員の頭部により体圧を受け、例えば首部における動脈の脈波や呼吸成分などの影響を受ける。
 センサユニット10の詳細構成について、図1および図3を参照して説明する。センサユニット10は、例えば、可撓性を有し、面形状(シート形状、膜形状に等しい)に形成される。センサユニット10は、面法線方向に、圧縮変形可能である。例えば、センサユニット10は、4列の第一電極11と、8列の第二電極12と、誘電層13とを備える。なお、第一電極11と第二電極12の列数は、適宜変更可能である。誘電層13は、弾性変形可能な面状に形成され、第一電極11と複数の第二電極12との間に挟まれて配置される。
 各第一電極11は、帯状に形成され、相互に平行に配列される。第一電極11の延在方向は、図2におけるシート70の左右方向に一致する。第二電極12は、センサユニット10の面法線方向に、第一電極11に対して距離を隔てて配置される。各第二電極12は、帯状に形成され、相互に平行に配列される。第二電極12の延在方向は、図2におけるシート70の前後方向に一致する。つまり、シート70の座面71において、左右それぞれ4列ずつの第二電極12が配列されている。左4列の第二電極12が、乗員の左大腿部に対応する位置に位置し、右4列の第二電極12が、乗員の右大腿部に対応する位置に位置する。そして、各第二電極12の延在方向が、大腿部の延在方向、ひいては、大腿動脈の延在方向に一致する。
 第一電極11および第二電極12は、エラストマー中に導電性フィラーを配合させることにより成形される。第一電極11および第二電極12は、可撓性を有し、伸縮自在な性質を有する。誘電層13は、エラストマーにより成形され、可撓性を有し且つ伸縮自在な性質を有する。
 従って、各第一電極11と各第二電極12との対向位置が、マトリックス状に位置する。本例においては、マトリックス状の対向位置は、32(=4×8)箇所となる。センサユニット10は、マトリックス状に配列された複数(32箇所)の対向位置において、静電容量センサとして機能する圧力センサセル10aを備える。このように、センサユニット10は、縦4列、横8列に配列された32個の圧力センサセル10aを備える。そして、32個の圧力センサセル10aが、面状に配列されている。
 本例においては、左4列の圧力センサセル10aが、乗員の左大腿部から圧力を受け、右4列の圧力センサセル10aが、乗員の右大腿部から圧力を受ける。なお、第一電極11および第二電極12の列数は、自由に変更することができる。
 そして、センサユニット10が面法線方向に圧縮する力を受けた場合には、誘電層13が圧縮変形することにより、第一電極11と第二電極12の離間距離が短くなる。つまり、第一電極11と第二電極12との間の静電容量が大きくなる。
 電源装置20は、所定の電圧を発生し、センサユニット10の第一電極11に対して所定電圧を印加する。スイッチ回路41は、複数のスイッチにより構成される。スイッチ回路41の各スイッチの一端は、電源装置20に接続され、各スイッチの他端は、対応する第一電極11に接続される。図1においては、上側から1列目の第一電極11に対応するスイッチがONされ、他はOFFされている。
 スイッチ回路42は、複数のスイッチにより構成される。スイッチ回路42の各スイッチの一端は、対応する第二電極12に接続され、各スイッチの他端は、後述する処理装置60に接続される。図1においては、左側から1列目の第二電極12に対応するスイッチがONされ、他はOFFされている。切替制御装置50は、スイッチ回路41,42の各スイッチのON/OFFの切替を実行する。そして、切替制御装置50は、計測対象とする圧力センサセル10aを、電源装置20および処理装置60に接続させる。
 処理装置60は、計測対象の圧力センサセル10aによる検出値に基づいて、演算処理を行うことにより、生体情報である心拍数および呼吸数を取得する。具体的には、処理装置60は、圧力センサセル10aの静電容量の変化に基づいて、心拍数および呼吸数を演算する。
 (2.センサユニット10の処理上の構成)
 上述したように、センサユニット10は、32(=4×8)箇所のマトリックス状の圧力センサセル10aを有する。32個の圧力センサセル10aのそれぞれが、静電容量を計測するセンサとして機能する。そこで、以下において、32個の圧力センサセル10aのそれぞれを、センサS1~S32と称する。つまり、センサユニット10は、32チャネル(ch)のセンサS1~S32を有する。
 ここで、各センサS1~S32は、生体情報およびノイズ情報を含むベース信号A1~A32を検出する。生体情報は、振幅が非常に小さい。一方、ノイズ情報は、車両の走行に伴う振動を含む。そのため、生体情報は、ノイズ情報に比べて振幅が小さい。従って、ベース信号A1~A32は、相対的に小さな振幅である生体情報を含むと共に、相対的に大きな振幅であるノイズ情報を含む。
 また、ベース信号A1~A32のそれぞれは、所定のサンプリング時間の長さにおける静電容量の変化を表す信号である。つまり、ベース信号A1~A32のそれぞれは、時刻tにおける静電容量の変化の大きさについて、所定のサンプリング時間の長さ分のデータを有する。図4には、一部のベース信号A1~A4を示す。ベース信号A1~A32は、所定のサンプリング時間の長さ分についての波形データである。
 (3.計測装置1の構成)
 計測装置1の構成について、図5~図13を参照して説明する。ただし、図5における計測装置1は、センサS1~S32、および、処理装置60を含む構成部分についての機能ブロック構成図を示す。図5に示すように、センサS1~S32は、生体情報およびノイズ情報を含むベース信号A1~A32を取得する。
 処理装置60は、複数(32チャネル)のベース信号A1~A32に基づいて以下に説明する演算処理を行うことにより生体情報を取得する。処理装置60は、前処理部61、成分分析部62、周波数解析部63、後処理部64、特徴量抽出部65、判別条件記憶部66、および、生体情報取得部67を備える。
 前処理部61について、図5および図6を参照して説明する。前処理部61は、図5に示すように、複数(32チャネル)のベース信号A1~A32を入力信号として取得する。前処理部61は、成分分析部62による所定の成分分析の前処理として、複数のベース信号A1~A32に対して所定の前処理を行い、複数(16チャネル)の前処理済み信号B1~B16を生成する。
 本例においては、図6に示すように、前処理部61は、所定の前処理として、積分処理81、トレンド除去処理82、データ切り出し処理83、第一ハイパスフィルタ84、第一ローパスフィルタ85、第二ハイパスフィルタ86、第二ローパスフィルタ87、チャネル選択処理88(一部信号選択処理)を実行する。
 本例においては、前処理部61は、上記全ての処理81~88を実行することにより、複数(16チャネル)の前処理済み信号B1~B16を生成する。ただし、前処理部61は、上記の複数の処理81~88のうちの一部のみを実行しても良く、また、処理の順序を入れ替えて実行しても良い。さらに、前処理部61は、上記に加えて、所定の前処理として、位相差調整処理を行うようにしても良い。位相差調整処理とは、位相が異なる複数の信号を同種の信号と取り扱うことができるように調整する処理である。
 前処理部61は、複数のベース信号A1~A32から、できるだけノイズ情報を小さくする。さらに、前処理部61は、複数(32チャネル)のベース信号A1~A32の中から、生体情報の影響を大きく受けた一部のチャネルの信号を選択する。本例においては、前処理部61は、半分の16チャネルの信号を選択し、16チャネルの前処理済み信号B1~B16を生成する。
 以下に、前処理部61の各処理81~88について説明する。ここで、センサS1~S32により取得されたベース信号A1~A32は、所定のサンプリング周期で計測される。従って、32チャネル分のベース信号A1~A32全てを1回ずつ計測するために要する時間は、その32倍となる。
 積分処理81は、ベース信号A1~A32のそれぞれにおいて、所定の複数回分をバッチ積分する。例えば、ベース信号A1については、連続する16回分のベース信号A1を加算する。
 トレンド除去処理82は、変化するDC成分を除去する処理である。例えば、乗員の姿勢の変化の影響を受けて、センサS1~S32のベース信号A1~A32が変化することがある。乗員の姿勢の変化の影響は、生体情報ではないため、除去するのが良い。トレンド除去処理82は、例えば、乗員の姿勢の変化の影響分を除去することができる。
 データ切り出し処理83は、トレンド除去処理82により得られた信号を、所定時間分切り出す。例えば、データ切り出し処理83は、所定時間分のデータを1ユニットとして切り出す。データ切り出し処理83により得られる信号は、トレンド除去処理82により得られた信号所定時間分をまとめた信号となる。
 周波数フィルタとしての、第一ハイパスフィルタ84、第一ローパスフィルタ85、第二ハイパスフィルタ86、および、第二ローパスフィルタ87は、異なるカットオフ周波数を適用する。なお、第一フィルタと第二フィルタを異なる種類のフィルタとしても良い。
 周波数フィルタ84~87におけるカットオフ周波数は、少なくとも心拍数および呼吸数を含む周波数帯域が残るように設定されている。なお、計測対象を心拍数のみとする場合には、カットオフ周波数は、心拍数の周波数帯域が残るように設定されれば良く、呼吸数の周波数帯域がカットされるようにしても良い。また、計測対象を呼吸数のみとする場合には、カットオフ周波数は、呼吸数の周波数帯域が残るように設定され、心拍数の周波数帯域がカットされるようにしても良い。また、周波数フィルタの次数や数は、任意に設定することができる。
 積分処理81、トレンド除去処理82、データ切り出し処理83、周波数フィルタ84~87により、ノイズ情報を除去することができ、生体情報を抽出することができる。
 チャネル選択処理88は、周波数フィルタ84~87により得られた信号の中から、圧力の高い一部のチャネルを選択する。本例では、チャネル選択処理88は、32チャネルのうち、一部である16チャネルを選択する。上述したように、積分処理81~第二ローパスフィルタ87の処理により、ノイズ情報が小さくなり、生体情報がノイズ情報に比べて相対的に大きくされた信号が生成される。従って、チャネル選択処理88により、32チャネルの中で、生体情報がより影響を受けた一部のチャネルの信号を選択する。なお、ベース信号A1~A32の平均値、最大値、最小値を検出し、それらの値が高い一部のチャネルを選択するようにしても良い。
 次に、図5に示すように、成分分析部62は、前処理部61により生成された複数の前処理済み信号B1~B16に基づいて所定の成分分析を行い、複数の成分信号C1~C16を生成する。
 成分分析部62が行う所定の成分分析は、複数の前処理済み信号B1~B16に基づいて、主成分分析、独立成分分析、および、特異値分解のいずれか1つを行い、複数の成分信号C1~C16を生成する。なお、所定の成分分析としては、主成分分析が好適である。図8には、一部の成分信号C1~C4を示す。成分信号C1~C16は、所定時間の長さ分についての波形データである。
 主成分分析(PCA:Principle Component Analysis)は、多変量解析の一つであり、多変量データに共通な成分を探って、一種の合成変数(主成分)を作り出す手法である。独立成分分析(ICA:Independent Component Analysis)は、データを複数の加法的な成分として表現する分析手法である。
 特に、主成分分析は、分離された成分信号C1~C16を生成すると共に、各成分信号C1~C16の成分順位を取得することができる。成分順位は、入力される前処理済み信号B1~B16に影響を及ぼす成分ほど上位となる。なお、独立成分分析の場合は、ベース信号A1~A32との関係性から成分順位を取得することができる。
 なお、成分分析部62は、入力される信号数と同数の成分信号に分離することができる。つまり、成分分析部62において、入力信号である前処理済み信号B1~B16に実際に含まれる成分数と、入力信号である前処理済み信号B1~B16の数との関係が、重要な要素となる。さらに、分離させたい成分が、入力信号である前処理済み信号B1~B16の多くに含まれているほど、分離させたい成分信号を取得することができる。
 周波数解析部63について、図5および図9を参照して説明する。周波数解析部63は、図5に示すように、複数(16成分)の成分信号C1~C16を入力信号として取得する。周波数解析部63は、複数の成分信号C1~C16のそれぞれに対して、FFT処理を行うことにより複数のパワースペクトルD1~D16を生成する。なお、時系列モデリング、自己相関、ウェーブレット変換などの他の周波数解析を行っても良い。
 パワースペクトルD1は、成分信号C1に対して周波数解析を行った結果であり、その他も同様である。16個のうちの一部のパワースペクトルD1~D4は、図9に示すとおりである。パワースペクトルD1~D16は、周波数に対する信号強度(パワー)を表す。パワースペクトルD1~D16は、最大の信号強度(パワー)を1とする。
 さらに、周波数解析部63は、それぞれのパワースペクトルD1~D16に基づいて、成分信号C1~C16のそれぞれの主要周波数F1~F16を取得する。主要周波数F1~F16が、生体情報の第一次候補となる。つまり、周波数解析部63は、複数の主要周波数F1~F16を、生体情報の第一次候補として取得する。
 図9において、最大の信号強度となる周波数が、第一次候補F1~F16となる。例えば、図9によれば、成分信号C1の第一次候補F1は、約1.3Hzとなる。なお、主要周波数F1~F16は、最大の信号強度となる周波数に限らず、最大信号強度を含む所定幅のスペクトル帯としても良い。
 後処理部64について、図5および図7を参照して説明する。後処理部64は、図5に示すように、複数(16成分)の成分信号C1~C16を入力信号として取得する。後処理部64は、成分分析部62による所定の成分分析の後処理として、複数の成分信号C1~C16に対して所定の後処理を行い、多数の後処理済み信号Ea1~Ea16,Eb1~Eb16,・・・を生成する。後処理部64による所定の後処理は、後述する特徴量の抽出のために用いるデータを生成する処理である。
 本例においては、後処理部64は、さらに、複数(16個)の前処理済み信号B1~B16を入力信号として取得する。後処理部64は、前処理済み信号B1~B16に対して、特徴量の抽出のために用いるデータを生成する。ただし、後処理部64は、前処理済み信号B1~B16を用いないようにしても良い。
 本例においては、図7に示すように、後処理部64は、所定の後処理として、成分信号C1~C16に対する追加処理91、成分信号C1~C16に対する微分処理92(1階微分処理)、1階微分信号に対する追加処理93、1階微分信号に対する微分処理94(2階微分処理)、2階微分信号に対する追加処理95の少なくとも1つを行う。
 追加処理91は、周波数解析処理(FFTなど)、時系列モデリング、ウェーブレット変換処理、積分処理、相関処理(自己相関、相互相関を含む)、および、周波数フィルタ処理の少なくとも1つを含む。追加処理91が、複数の成分信号C1~C16に対して周波数解析を行うと、上記の周波数解析部63にて説明したように、図9に示すようなパワースペクトルD1~D16が生成される。なお、パワースペクトルD1~D16は、上述したように、周波数に対する信号強度(パワー)を表す。パワースペクトルD1~D16は、最大の信号強度(パワー)を1とする。
 微分処理92は、成分信号C1~C16に対する微分処理を行い、1階微分信号を生成する。追加処理93は、微分処理92により生成された1階微分信号に対して、上記の追加処理91と同様の処理を行う。微分処理94は、1階微分信号に対する微分処理を行い、2階微分信号を生成する。追加処理95は、微分処理94により生成された2階微分信号に対して、上記の追加処理91と同様の処理を行う。
 さらに、後処理部64における追加処理91、微分処理92(1階微分処理)、追加処理93、微分処理94(2階微分処理)、追加処理95は、前処理済み信号B1~B16に対しても同様に行う。
 特徴量抽出部65は、複数の前処理済み信号B1~B16、複数の成分信号C1~C16、複数の後処理済み信号D1~D16,Ea1~Ea16,Eb1~Eb16,・・・を用いて、生体情報を取得するための特徴量を抽出する。つまり、特徴量は、複数の第一次候補F1~F16の中から生体情報を抽出するための情報として用いられる。特に、特徴量抽出部65は、成分信号C1~C16に関連する特徴量を抽出する。特に、本例においては、特徴量抽出部65は、周波数解析部63により生成された第一次候補F1~F16に関連する特徴量を抽出する。
 例えば、特徴量は、複数の第一次候補F1~F16の中から生体情報を抽出するための機械学習に用いられる。つまり、特徴量は、機械学習の学習フェーズにおいて判別条件を定義する判別モデルの学習処理に用いられると共に、機械学習の推論フェーズにおいて判別モデルを用いた推論処理に用いられる。ただし、生体情報が機械学習とは異なる処理により取得される場合には、特徴量は、当該処理に用いるデータとなる。
 特徴量は、図7に示すように、前処理済み信号B1~B16から得られた値、成分信号C1~C16から得られた値、後処理済み信号D1~D16,Ea1~Ea16,Eb1~Eb16,・・・から得られた値などを含む。特徴量の候補は、図10~図13に示すように、多種存在する。特徴量は、これらの多数の候補の中から選択されたものを用いることができる。図10および図11においては、特徴量が、参照データに対する特徴要素であることを示す。
 例えば、図10の第1欄には、前処理済み信号B1~B16を参照データとして、当該参照データにおける最大値、最小値、平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。この場合、特徴量抽出部65は、前処理部61により生成された前処理済み信号B1~B16を入力して、当該入力された信号に対して処理を行う。
 図10の第2欄には、前処理済み信号B1~B16のそれぞれの1階微分信号を参照データとして、当該参照データにおける最大値、最小値、平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。この場合、図7に示すように、特徴量抽出部65は、後処理部64の微分処理92により生成された信号を入力して、当該入力された信号に対して処理を行うことにより、当該特徴量を生成する。
 図10の第3欄には、前処理済み信号B1~B16のそれぞれの2階微分信号を参照データとして、当該参照データにおける最大値、最小値、平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。この場合、図7に示すように、特徴量抽出部65は、後処理部64の微分処理94により生成された信号を入力して、当該入力された信号に対して処理を行うことにより、当該特徴量を生成する。なお、前処理済み信号B1~B16のm階微分(mは3以上)を参照データとすることもできる。
 図10の第4欄から第6欄には、成分信号C1~C16、成分信号C1~C16の1階微分信号、および、成分信号C1~C16の2階微分信号を参照データとして、当該参照データにおける最大値、最小値、平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。これらの場合、図7に示すように、特徴量抽出部65は、成分分析部62、後処理部64の微分処理92,94により生成された信号を入力して、当該入力された信号に対して処理を行うことにより、当該特徴量を生成する。なお、成分信号C1~C16のm階微分(mは3以上)を参照データとすることもできる。また、図示しないが、特徴量の参照データとして、ベース信号A1~A32を適用しても良い。
 図11の第1欄には、前処理済み信号B1~B16を周波数解析した結果情報FFT(B1)~FFT(B16)を参照データとして、当該参照データにおける最大ピーク周波数、信号強度の平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。この場合、図7に示すように、特徴量抽出部65は、後処理部64の追加処理91により生成された信号を入力して、当該入力された信号に対して処理を行うことにより、当該特徴量を生成する。
 図11の第2欄には、前処理済み信号B1~B16の1階微分信号を周波数解析した結果情報FFT(d(B1)/dt)~FFT(d(B16)/dt)を参照データとして、当該参照データにおける最大ピーク周波数、信号強度の平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。この場合、図7に示すように、特徴量抽出部65は、後処理部64の追加処理93により生成された信号を入力して、当該入力された信号に対して処理を行うことにより、当該特徴量を生成する。
 図11の第3欄には、前処理済み信号B1~B16の2階微分信号を周波数解析した結果情報FFT(d(B1)/dt)~FFT(d(B16)/dt)を参照データとして、当該参照データにおける最大ピーク周波数、信号強度の平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。この場合、図7に示すように、特徴量抽出部65は、後処理部64の追加処理95により生成された信号を入力して、当該入力された信号に対して処理を行うことにより、当該特徴量を生成する。なお、前処理済み信号B1~B16のm階微分(mは3以上)についての周波数解析の結果情報を参照データとすることもできる。
 図11の第4欄には、成分信号C1~C16を周波数解析した結果情報FFT(C1)~FFT(C16)を参照データとして、当該参照データにおける最大ピーク周波数、信号強度の平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。図11の第5欄には、成分信号C1~C16の1階微分信号を周波数解析した結果情報FFT(d(C1)/dt)~FFT(d(C16)/dt)を参照データとして、当該参照データにおける最大ピーク周波数、信号強度の平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。
 図11の第6欄には、成分信号C1~C16の2階微分信号を周波数解析した結果情報FFT(d(C1)/dt)~FFT(d(C16)/dt)を参照データとして、当該参照データにおける最大ピーク周波数、信号強度の平均、中央値、分散、標準偏差、尖度、歪度などが、特徴量であることを示す。なお、成分信号C1~C16のm階微分(mは3以上)についての周波数解析の結果情報を参照データとすることもできる。
 図11の第4欄~第6欄の場合、図7に示すように、特徴量抽出部65は、追加処理91,93,95により生成された信号を入力して、当該入力された信号に対して処理を行うことにより、当該特徴量を生成する。
 図12に示すように、成分信号C1~C16の成分順位n、成分信号C1~C16の主要周波数(成分周波数に相当する)を、特徴量として適用しても良い。なお、成分順位nは、特に、主成分分析を行った場合に有効である。
 図13に示すように、さらに、2種の信号に関する相関係数を、特徴量として適用すると良い。例えば、図13の第1欄には、成分信号C1~C16と前処理済み信号B1~B16のそれぞれとの相関係数が、特徴量であることを示す。図13の第2欄には、成分信号C1~C16と前処理済み信号B1~B16の1階微分信号のそれぞれとの相関係数が、特徴量であることを示す。図13の第3欄には、成分信号C1~C16と前処理済み信号B1~B16の2階微分信号のそれぞれとの相関係数が、特徴量であることを示す。
 また、図13の第4欄には、成分信号C1~C16の1階微分信号と前処理済み信号B1~B16のそれぞれとの相関係数が、特徴量であることを示す。図13の第5欄には、成分信号C1~C16の1階微分信号と前処理済み信号B1~B16の1階微分信号のそれぞれとの相関係数が、特徴量であることを示す。図13の第6欄には、成分信号C1~C16の1階微分信号と前処理済み信号B1~B16の2階微分信号のそれぞれとの相関係数が、特徴量であることを示す。
 また、図13の第7欄には、成分信号C1~C16の2階微分信号と前処理済み信号B1~B16のそれぞれとの相関係数が、特徴量であることを示す。図13の第8欄には、成分信号C1~C16の2階微分信号と前処理済み信号B1~B16の1階微分信号のそれぞれとの相関係数が、特徴量であることを示す。図13の第9欄には、成分信号C1~C16の2階微分信号と前処理済み信号B1~B16の2階微分信号のそれぞれとの相関係数が、特徴量であることを示す。
 図13の各欄の場合、図7に示すように、特徴量抽出部65は、前処理部61により生成された前処理済み信号B1~B16、成分分析部62により生成された成分信号C1~C16、後処理部64の微分処理92,94および追加処理91,93,95により生成された信号を入力して、当該入力された信号に対して処理を行うことにより、当該特徴量を生成する。
 なお、上記の特徴量の抽出に際して、成分信号C1~C16と前処理済み信号B1~B16とに関する相関係数を用いた。上記に加えて、または、上記に代えて、成分信号C1~C16と後処理済み信号Ea1~Ea16,Eb1~Eb16,・・・とに関する相関係数を特徴量としても良い。
 図5に戻り、計測装置1の構成について説明する。計測装置1の判別条件記憶部66は、判別条件を記憶する。判別条件は、成分信号C1~C16のそれぞれが生体情報であるか否かの判定を行うための条件である。そして、判別条件は、成分信号C1~C16および特徴量に基づいて、上記判定を行うための条件である。
 特に、本例においては、判別条件は、主要周波数である第一次候補F1~F16のそれぞれが生体情報であるか否かの判定を行うための条件である。この場合に、判別条件は、例えば、周波数解析部63により生成された主要周波数である第一次候補F1~F16および対応する特徴量に基づいて、上記判定を行うための条件となる。
 本例においては、判別条件記憶部66は、判別条件を定義する判別モデルを記憶する。判別モデルは、機械学習により学習されたモデルである。例えば、判別モデルは、第一次候補F1~F16、および、第一次候補F1~F16に対応する多数の特徴量を入力データとした場合に、生体情報であるか否かを表す値を出力する。生体情報であるか否かを表す値としては、生体情報であることと生体情報でないことを区別することができる二値としても良いし、生体情報である確率に相当する値(判別スコア)としても良い。本例では、判別モデルは、判別スコアを出力することができるモデルを用いる。ここで、判別モデルは、例えば、ランダムフォレストやサポートベクターマシーンを適用する。
 判別モデルは、上記入力データと、第一次候補F1~F16が生体情報であるか否かを表す教師ラベルとを訓練データセットとして、予め機械学習を行っておくことにより生成される。この場合の教師ラベルは、生体情報である正解情報、および、生体情報でない不正解情報の少なくとも一方を含む。
 生体情報取得部67は、周波数解析部63により生成された複数の第一次候補F1~F16を用いて、生体情報である周波数を取得する。本例においては、生体情報取得部67は、機械学習を適用して、生体情報である周波数を取得する。具体的には、生体情報取得部67は、複数の第一次候補F1~F16および特徴量を入力データとして、判別モデルを用いて、機械学習の推論フェーズを実行する。そして、生体情報取得部67は、複数の第一次候補F1~F16のそれぞれが生体情報であるか否かを判定する。
 ここで、生体情報取得部67は、機械学習の推論フェーズの実行により、生体情報であるか否かの判定値である判別スコアを出力することとし、判別スコアを用いて、1つの生体情報を決定する。ただし、生体情報取得部67は、機械学習の推論フェーズの実行により生体情報であるか否かの正誤判定を行い、生体情報であると判定された第一次候補を、生体情報として決定することもできる。また、生体情報取得部67は、機械学習を適用することなく、予め定められた規則に従って、第一次候補を生体情報として決定するようにしても良い。生体情報取得部67の詳細な処理については、後述する。
 (4.生体情報取得部67の処理)
 生体情報取得部67の詳細な処理について、図14~図21を参照して説明する。図14に示すように、生体情報取得部67は、第一次候補F1~F16の更新の有無を判定する(ST1)。第一次候補F1~F16の更新がなければ(ST1:No)、生体情報取得部67は、第一次候補F1~F16が更新されるまで処理を継続する。一方、第一次候補F1~F16が更新されれば(ST1:Yes)、次の処理に進む。すなわち、生体情報取得部67は、新たな時刻Tにおける第一次候補F1~F16が生成された場合に次の処理に進む。
 続いて、生体情報取得部67は、新たな時刻Tにおける第一次候補F1~F16を取得する(ST2)。続いて、生体情報取得部67は、最新の所定の時間範囲ΔTの分の第一次候補F1~F16を取得したか否かを判定する(ST3)。所定の時間範囲ΔTの分を取得していなければ(ST3:No)、再びST1に戻り、処理を繰り返す。つまり、最新の所定の時間範囲ΔTの分の第一次候補F1~F16を取得するまで、新たな時刻Tにおける第一次候補F1~F16を取得し続ける。
 続いて、生体情報取得部67は、所定の時間範囲ΔTの分の第一次候補F1~F16を取得すると(ST3:Yes)、特徴量抽出部65により抽出された複数の特徴量を取得する(ST4)。
 続いて、生体情報取得部67は、各時刻Tにおける複数の第一次候補F1~F16および複数の特徴量を入力データとして、判別条件記憶部66に記憶されている判別モデルを用いて、機械学習の推論フェーズを実行する(ST5)。そうすると、生体情報取得部67は、各時刻Tにおいて、複数の第一次候補F1~F16のそれぞれが生体情報であるか否かを表す判定値を出力する。
 当該判定値は、生体情報であることと生体情報でないことを区別することができる二値としても良いし、生体情報である確率に相当する値(判別スコア)としても良い。判別スコアは、所定の上下限値を持った範囲で決定される。判別スコアの値が大きいほど、すなわち上限値に近いほど、生体情報である確率が高いことを意味する。
 前者の二値が出力される場合には、機械学習の推論フェーズの実行の結果、生体情報であると判定される第一次候補F_n(F_nは、F1~F16に相当)を第二次候補Fa_mとする。mは、自然数である。この場合、第二次候補Fa_mは、第一次候補F1~F16の数よりも少なくなる。
 一方、後者の判別スコアが出力される場合には、全てを第二次候補Fa_mとすることもできるし、判別スコアが所定値より大きいもののみを第二次候補Fa_mとすることもできる。従って、全てを第二次候補Fa_mとする場合には、第二次候補Fa_mは、第一次候補F_nと同数となる。一方、判別スコアが所定値より大きいもののみを第二次候補Fa_mとする場合には、第二次候補Fa_mは、第一次候補F_nの数よりも少なくなる。
 なお、生体情報取得部67が、機械学習を適用しない場合には、入力データと判別条件とから、いわゆるルールベースにより、各時刻Tにおいて、複数の第一次候補F1~F16のそれぞれが生体情報であるか否かを判定する。
 続いて、生体情報取得部67は、同一時刻Tに、第二次候補Fa_mが複数あるか否かを判定する(ST6)。同一時刻Tに複数の第二次候補Fa_mが存在する場合には(ST6:Yes)、同一時刻Tにおける複数の第二次候補Fa_mを用いて、当該同一時刻Tで1つの第二次候補Faを決定する(ST7)。一方、生体情報取得部67は、同一時刻Tに1つの第二次候補Fa_1のみが生体情報であると判定された場合には(ST6:No)、次の処理(ST8)に進む。
 ここで、ステップST7における1つの第二次候補Faの決定は、例えば、以下の4通りの中から選択することができる。第一番目の1つの第二次候補Faの決定方法として、生体情報取得部67は、複数の第二次候補Fa_mの相加平均を算出し、相加平均を1つの第二次候補Faとして決定する。相加平均Av1は、式(1)にて表される。式(1)において、Xnは、データ値であって、nは、データ数である。
  Av1=Σ(Xn)/n ・・・ (1)
 第二番目の1つの第二次候補Faの決定方法として、生体情報取得部67は、判別スコアを考慮した重み付き平均(加重平均とも称する)を算出し、重み付き平均を1つの第二次候補Faとして決定する。重み付き平均Av2は、式(2)にて表される。式(2)において、Xnは、データ値であり、nは、データ数であり、Wnは、重みである。
  Av2=Σ(Wn・Xn)/ΣWn ・・・ (2)
 重みWnが、判別スコアを考慮して得られた値である。詳細には、重みWnは、判別スコアにソフトマックス関数を乗算した値とする。ソフトマックス関数は、図15に示すとおりである。上述したように、判別スコアの値が大きいほど、すなわち上限値に近いほど、生体情報である確率が高いことを意味する。従って、重みWnは、生体情報である確率が高いほど、より大きな値となり、生体情報である確率が低い場合には、ほぼゼロとなる。
 第三番目の1つの第二次候補Faの決定方法として、生体情報取得部67は、複数の第一次候補F1~F16の中で判別スコアが最大となる第一次候補F_nを、1つの第二次候補Faとして決定する。
 第四番目の1つの第二次候補Faの決定方法として、生体情報取得部67は、複数の第二次候補Fa_mについて成分分析部62による主成分分析または独立成分分析における成分信号の成分順位を考慮した重み付き平均に基づいて、1つの第二次候補Faを決定する。重み付き平均は、上記の式(2)に示したとおりである。この場合、重みWnは、成分順位に応じた値となる。例えば、重みWnは、成分順位が高いほど大きな値となるように設定される。
 上記ステップST5~ST7においては、第二次候補Faは、機械学習を適用して、複数の第一次候補F_nに基づいて決定した。この他に、第二次候補Faは、機械学習を適用することなく、生体情報であると判定される第一次候補F_nとすることもできる。例えば、第二次候補Faは、機械学習によらずに、複数の第一次候補F_nから1つをまたは複数を選択することもできる。第二次候補Faは、複数の第一次候補F_nから、予め設定された規則に従って選択されたり、無作為に選択されたりするようにしても良い。第二次候補Faの選択方法は、上記に限定されるものではない。
 続いて、生体情報取得部67は、図16および図17に示すように、所定の時間範囲ΔTの分の第二次候補Faを、二次元グラフにプロットする(ST8)。二次元グラフは、第一軸(横軸)を時刻とし、第二軸(縦軸)を、生体情報を表す第二次候補Faとする。なお、図16および図17は、生体情報として、心拍数を対象とした場合のグラフである。ここで、人間の呼吸数および心拍数は、時刻によって変動するものである。そして、図16および図17においては、心拍数としての第二次候補Faが、時刻によって、70bpmから85bpmの範囲で変動している。
 ここで、生体情報取得部67は、例えば、データ抜けが存在する場合などに、データ補間処理を行うようにしても良い。例えば、生体情報取得部67は、データ抜けが存在する時刻において、前後時刻のデータを用いて、当該時刻のデータを生成する。
 続いて、生体情報取得部67は、プロットされた二次元グラフにおいて、隣り合う時刻の第二次候補Faを直線接続することにより連続線V1を生成する(ST9)。連続線V1は、図18および図19に示すようになる。
 続いて、生体情報取得部67は、連続線V1に対して所定の周波数フィルタによる処理、例えば、ローパスフィルタ処理を施すことにより、フィルタ後連続線V2を生成する(ST10)。フィルタ後連続線V2は、図20および図21の実線にて示すようになる。そして、生体情報取得部67は、フィルタ後連続線V2により、各時刻Tの生体情報を決定する(ST11)。つまり、図20および図21の線上に位置する値が、各時刻Tの生体情報となる。
 ここで、図20および図21には、破線V3にて、実際の心拍数を示している。実際の心拍数は、乗員に心拍センサを装着して計測した結果である。図20および図21によれば、フィルタ後連続線V2が、実際の心拍数に非常によく一致していることが分かる。
 生体情報取得部67は、上記実施形態に替えて、取得した第二次候補Fa_mに対応する成分信号に対して、FFT、時系列モデリング、自己相関、ウェーブレット変換などの処理を行い、生体情報である心拍数などを算出しても良い。また、複数の第二次候補Fa_mがある場合は、ステップST7において、相加平均や重み付き平均を行うデータ値Xnとして、算出した心拍数などを用いても良い。
 (5.効果)
 上記のとおり、計測装置1は、生体情報を高精度に取得することができることが分かる。高精度な生体情報を取得できる理由について説明する。まず、処理装置60の成分分析部62が、複数のベース信号A1~A32に基づいて所定の成分分析を行うことによって、複数のベース信号A1~A32を構成する複数の成分信号C1~C16を生成する。つまり、生成された複数の成分信号C1~C16の一部は、生体情報を主とする信号となり、他の一部は、ノイズ情報を主とする信号などとなる。つまり、ベース信号A1~A32が生体情報の他にノイズ情報を含んでいるとしても、複数の成分信号C1~C16は、生体情報とノイズ情報とを分けた信号となる。
 ただし、複数の成分信号C1~C16のうちどの成分信号が、生体情報に関する信号であるかを判定する必要がある。そこで、処理装置60の生体情報取得部67が、成分信号C1~C16が生体情報であるか否かの判定を行う。つまり、生体情報取得部67は、複数の成分信号C1~C16のそれぞれについて判定を行うことにより、複数の成分信号C1~C16のうちでどの成分信号が生体情報を主とする信号であるかを判定する。従って、計測装置1は、高精度に生体情報を計測することができる。
 さらに、計測装置1の前処理部61が、ノイズ情報を小さくする処理を行うと共に、生体情報の影響が大きな信号を選択する処理を行っている。このようにして得られた前処理済み信号B1~B16を用いて、成分分析部62が、成分信号C1~C16を生成している。従って、成分分析部62は、高精度に、生体情報とノイズ情報とを分けた成分信号C1~C16を生成できる。
 また、成分信号C1~C16のうちどの成分信号が生体情報であるか否かの判定には、判別条件記憶部66に記憶される判別条件が用いられている。特に、生体情報取得部67は、
成分信号C1~C16の主要周波数F1~F16が生体情報であるか否かの判定には、判別条件を定義する機械学習モデルである判別モデルを用いている。
 判別モデルは、成分信号C1~C16および多数の特徴量に基づいて、上記判定を行うためのモデルである。特に、判別モデルは、成分信号C1~C16の主要周波数F1~F16および特徴量に基づいて、主要周波数F1~F16が生体情報であるか否かの判定を行うためのモデルである。つまり、判別モデルは、主要周波数F1~F16の他に、主要周波数F1~F16に関連する特徴量を用いたモデルである。
 従って、成分信号C1~C16または主要周波数F1~F16のみを用いる場合に比べて、成分信号C1~C16または主要周波数F1~F16に加えて、特徴量を用いることで、より高精度に、生体情報の判定が可能となる。つまり、複数の成分信号C1~C16または主要周波数F1~F16を活用することにより、生体情報が高精度に取得される。

Claims (27)

  1.  生体情報およびノイズ情報を含むベース信号をそれぞれ取得する複数のセンサと、
     複数の前記ベース信号に基づいて、生体情報を取得する処理装置と、
     を備え、
     前記処理装置は、
      複数の前記ベース信号に基づいて所定の成分分析を行い、複数の前記ベース信号を構成する複数の成分信号を生成する成分分析部と、
      前記成分信号が前記生体情報であるか否かの判定を行う生体情報取得部と、
     を備える、生体情報計測装置。
  2.  前記処理装置は、さらに、前記所定の成分分析の前処理として複数の前記ベース信号に対して所定の前処理を行い、複数の前処理済み信号を生成する前処理部を備え、
     前記成分分析部は、複数の前記前処理済み信号に基づいて、複数の前記成分信号を生成する、請求項1に記載の生体情報計測装置。
  3.  前記所定の前処理は、積分処理、トレンド除去処理、データ切り出し処理、周波数フィルタ処理、位相差調整処理、および、一部信号選択処理の少なくとも1つである、請求項2に記載の生体情報計測装置。
  4.  前記所定の前処理は、トレンド除去処理、および、データ切り出し処理を含む、請求項3に記載の生体情報計測装置。
  5.  前記成分分析部は、複数の前記ベース信号に基づいて、主成分分析、独立成分分析、および、特異値分解のいずれか1つを行い、複数の前記成分信号を生成する、請求項1~4のいずれか1項に記載の生体情報計測装置。
  6.  前記成分分析部は、複数の前記前処理済み信号に基づいて、主成分分析、独立成分分析、および、特異値分解のいずれか1つを行い、複数の前記成分信号を生成する、請求項2~4のいずれか1項に記載の生体情報計測装置。
  7.  前記処理装置は、さらに、前記所定の成分分析の後処理として複数の前記成分信号に対して所定の後処理を行い、複数の後処理済み信号を生成する後処理部を備える、請求項1~6のいずれか1項に記載の生体情報計測装置。
  8.  前記所定の後処理は、微分処理、周波数解析処理、ウェーブレット変換処理、積分処理、相関処理、および、周波数フィルタ処理の少なくとも1つである、請求項7に記載の生体情報計測装置。
  9.  前記処理装置は、さらに、前記ベース信号および前記成分信号の少なくとも1つに基づいて、前記成分信号に関連する特徴量を抽出する特徴量抽出部を備え、
     前記生体情報取得部は、前記成分信号および前記特徴量に基づいて、前記成分信号が前記生体情報であるか否かの判定を行う、請求項1~8のいずれか1項に記載の生体情報計測装置。
  10.  前記処理装置は、さらに、前記前処理済み信号および前記成分信号の少なくとも1つに基づいて、前記成分信号に関連する特徴量を抽出する特徴量抽出部を備え、
     前記生体情報取得部は、前記成分信号および前記特徴量に基づいて、前記成分信号が前記生体情報であるか否かの判定を行う、請求項2~4、6のいずれか1項に記載の生体情報計測装置。
  11.  前記処理装置は、さらに、前記ベース信号、前記成分信号、および、前記後処理済み成分信号の少なくとも1つに基づいて、前記成分信号に関連する特徴量を抽出する特徴量抽出部を備え、
     前記生体情報取得部は、前記成分信号および前記特徴量に基づいて、前記成分信号が前記生体情報であるか否かの判定を行う、請求項7または8に記載の生体情報計測装置。
  12.  前記処理装置は、さらに、
      前記所定の成分分析の後処理として複数の前記成分信号に対して所定の後処理を行い、複数の後処理済み信号を生成する後処理部と、
      前記前処理済み信号および前記後処理済み信号の少なくとも1つに基づいて、前記成分信号に関連する特徴量を抽出する特徴量抽出部と、
     を備え、
     前記生体情報取得部は、前記成分信号および前記特徴量に基づいて、前記成分信号が前記生体情報であるか否かの判定を行う、請求項2~4、6のいずれか1項に記載の生体情報計測装置。
  13.  前記処理装置は、さらに、前記成分信号および前記特徴量に基づいて前記成分信号が前記生体情報であるか否かの判定を行う判別条件を記憶する判別条件記憶部を備え、
     前記生体情報取得部は、前記成分信号、前記特徴量、および、前記判別条件に基づいて、前記成分信号が前記生体情報であるか否かの判定を行う、請求項9~12のいずれか1項に記載の生体情報計測装置。
  14.  前記処理装置は、さらに、複数の前記成分信号に対して周波数解析を行うことによりパワースペクトルを生成し、前記パワースペクトルに基づいて前記成分信号のそれぞれの主要周波数を、前記生体情報の候補として取得する周波数解析部を備え、
     前記生体情報取得部は、複数の前記主要周波数の中から前記生体情報を選択する、請求項13に記載の生体情報計測装置。
  15.  前記特徴量は、特徴量抽出に用いる信号における最大値、最小値、平均、中央値、分散、標準偏差、尖度、歪度の少なくとも1つである、請求項9~14のいずれか1項に記載の生体情報計測装置。
  16.  前記特徴量は、特徴量抽出に用いる信号におけるn階微分(nは自然数)の最大値、最小値、平均、中央値、分散、標準偏差、尖度、歪度の少なくとも1つである、請求項9~15のいずれか1項に記載の生体情報計測装置。
  17.  前記特徴量は、前記ベース信号と前記成分信号との相関係数、前記ベース信号のn階微分(nは自然数)と前記成分信号、前記ベース信号と前記成分信号のn階微分(nは自然数)、前記ベース信号と前記成分信号とのそれぞれのn階微分(nは自然数)同士の相関係数の少なくともいずれか1つである、請求項9~16のいずれか1項に記載の生体情報計測装置。
  18.  前記特徴量は、主成分分析または独立成分分析における前記成分信号の成分順位である、請求項9~17のいずれか1項に記載の生体情報計測装置。
  19.  前記特徴量は、前記成分信号のそれぞれについての主成分分析または独立成分分析における成分周波数である、請求項9~18のいずれか1項に記載の生体情報計測装置。
  20.  前記特徴量は、前記パワースペクトルにおける前記主要周波数の信号強度に基づいて得られる値である、請求項14に記載の生体情報計測装置。
  21.  前記特徴量抽出部は、前記ベース信号、前記成分信号、前記ベース信号のn階微分(nは自然数)、および、前記成分信号のn階微分(nは自然数)の少なくとも1つに対して周波数解析を行うことによりパワースペクトルを生成し、
     前記特徴量は、前記パワースペクトルの最大ピーク周波数、前記パワースペクトルの信号強度の平均、中央値、分散、標準偏差、尖度、歪度の少なくとも1つである、請求項9~20のいずれか1項に記載の生体情報計測装置。
  22.  前記生体情報取得部は、前記生体情報であると判定された前記成分信号が複数ある場合には、前記生体情報であると判定された複数の前記生体情報の相加平均に基づいて1つの前記生体情報を決定する、請求項1~21のいずれか1項に記載の生体情報計測装置。
  23.  前記判別条件記憶部は、前記判別条件を定義する判別モデルであって、複数の前記成分信号のそれぞれが前記生体情報であるか否かの判定値である判別スコアを出力する前記判別モデルを記憶し、
     前記生体情報取得部は、複数の前記成分信号のそれぞれの前記判別スコアを考慮した重み付き平均に基づいて、1つの前記生体情報を決定する、請求項13に記載の生体情報計測装置。
  24.  前記重み付き平均において、前記判別スコアにソフトマックス関数を乗算した値を重みとする、請求項23に記載の生体情報計測装置。
  25.  前記判別条件記憶部は、前記判別条件を定義する判別モデルであって、複数の前記成分信号のそれぞれが前記生体情報であるか否かの判定値である判別スコアを出力する前記判別モデルを記憶し、
     前記生体情報取得部は、前記判別スコアが最大となる前記成分信号を1つの前記生体情報として決定する、請求項13に記載の生体情報計測装置。
  26.  前記生体情報取得部は、前記生体情報であると判定された前記成分信号が複数ある場合には、前記生体情報であると判定された複数の前記成分信号についての主成分分析または独立成分分析における前記成分信号の成分順位を考慮した重み付き平均に基づいて、1つの前記生体情報を決定する、請求項1~21のいずれか1項に記載の生体情報計測装置。
  27.  前記センサは、静電容量センサ、圧電センサ、ドップラーセンサのいずれか1つである、請求項1~26のいずれか1項に記載の生体情報計測装置。
PCT/JP2021/032826 2020-09-30 2021-09-07 生体情報計測装置 WO2022070802A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112021000580.4T DE112021000580T5 (de) 2020-09-30 2021-09-07 Biologische informationsmessvorrichtung
CN202180051402.2A CN115968271A (zh) 2020-09-30 2021-09-07 生物体信息测量装置
JP2022553735A JPWO2022070802A1 (ja) 2020-09-30 2021-09-07
US17/868,755 US20220354434A1 (en) 2020-09-30 2022-07-19 Biological information measuring device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020164428 2020-09-30
JP2020-164428 2020-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/868,755 Continuation US20220354434A1 (en) 2020-09-30 2022-07-19 Biological information measuring device

Publications (1)

Publication Number Publication Date
WO2022070802A1 true WO2022070802A1 (ja) 2022-04-07

Family

ID=80950189

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/032826 WO2022070802A1 (ja) 2020-09-30 2021-09-07 生体情報計測装置

Country Status (5)

Country Link
US (1) US20220354434A1 (ja)
JP (1) JPWO2022070802A1 (ja)
CN (1) CN115968271A (ja)
DE (1) DE112021000580T5 (ja)
WO (1) WO2022070802A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143609A (ja) * 2003-11-12 2005-06-09 Hitachi Medical Corp 光計測装置
JP2006280421A (ja) * 2005-03-31 2006-10-19 Shimadzu Corp 脳機能情報モニタリング装置
JP2013535283A (ja) * 2010-08-04 2013-09-12 コーニンクレッカ フィリップス エヌ ヴェ 運動中のバイタルボディ信号の監視
JP2016506840A (ja) * 2013-02-15 2016-03-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 対象の呼吸情報を取得する装置
US20190029604A1 (en) * 2016-01-21 2019-01-31 Oxehealth Limited Method and apparatus for estimating breathing rate
WO2019218008A1 (en) * 2018-05-14 2019-11-21 Respia Technologies Pty Ltd Method and apparatus for determining potential onset of an acute medical condition
US20200250816A1 (en) * 2019-01-02 2020-08-06 Oxehealth Limited Method and Apparatus for Monitoring of a Human or Animal Subject

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5218139B1 (ja) 1971-02-18 1977-05-19
JP5672144B2 (ja) 2011-05-20 2015-02-18 富士通株式会社 心拍数・呼吸数検出装置,方法およびプログラム
JP2017140187A (ja) 2016-02-09 2017-08-17 株式会社デンソーアイティーラボラトリ 運転者用呼吸モニタ装置
JP6608320B2 (ja) 2016-03-30 2019-11-20 住友理工株式会社 生体情報計測装置
JP2017176498A (ja) 2016-03-30 2017-10-05 住友理工株式会社 体圧分布及び生体情報の計測装置
JP2020048674A (ja) 2018-09-25 2020-04-02 三井化学株式会社 生体情報取得方法、生体情報取得モデル学習方法、装置、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005143609A (ja) * 2003-11-12 2005-06-09 Hitachi Medical Corp 光計測装置
JP2006280421A (ja) * 2005-03-31 2006-10-19 Shimadzu Corp 脳機能情報モニタリング装置
JP2013535283A (ja) * 2010-08-04 2013-09-12 コーニンクレッカ フィリップス エヌ ヴェ 運動中のバイタルボディ信号の監視
JP2016506840A (ja) * 2013-02-15 2016-03-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 対象の呼吸情報を取得する装置
US20190029604A1 (en) * 2016-01-21 2019-01-31 Oxehealth Limited Method and apparatus for estimating breathing rate
WO2019218008A1 (en) * 2018-05-14 2019-11-21 Respia Technologies Pty Ltd Method and apparatus for determining potential onset of an acute medical condition
US20200250816A1 (en) * 2019-01-02 2020-08-06 Oxehealth Limited Method and Apparatus for Monitoring of a Human or Animal Subject

Also Published As

Publication number Publication date
JPWO2022070802A1 (ja) 2022-04-07
CN115968271A (zh) 2023-04-14
US20220354434A1 (en) 2022-11-10
DE112021000580T5 (de) 2022-12-01

Similar Documents

Publication Publication Date Title
Reaz et al. Techniques of EMG signal analysis: detection, processing, classification and applications
US6129681A (en) Apparatus and method for analyzing information relating to physical and mental condition
Halder et al. Online artifact removal for brain‐computer interfaces using support vector machines and blind source separation
Enshaeifar et al. Quaternion singular spectrum analysis of electroencephalogram with application in sleep analysis
Sobahi Denoising of EMG signals based on wavelet transform
EP2523637A1 (en) Method to determine an artificial limb movement from an electroencephalographic signal
WO2022070802A1 (ja) 生体情報計測装置
Azami et al. Automatic signal segmentation based on singular spectrum analysis and imperialist competitive algorithm
Elgharabawy et al. Decoding of finger movement using kinematic model classification and regression model switching
Zakaria et al. Walking analysis: Empirical relation between kurtosis and degree of cyclostationarity
KR101911506B1 (ko) 뇌신호 기반 3차원 상지운동 외부 보조기기 제어를 위한 가상 뇌파 생성장치와 시뮬레이션 장치 및 방법
Cecotti et al. Suboptimal sensor subset evaluation in a p300 brain-computer interface
Barmpakos et al. Classification of neuromuscular disorders using features extracted in the wavelet domain of sEMG signals: a case study
Biju et al. Classification of ictal EEG using modeling based spectral and temporal features on instantaneous amplitude-frequency components of IMFs
Ramaswamy et al. Single feature spatio-temporal architecture for EEG Based cognitive load assessment
Ten Bosch et al. Phase synchronization between EEG signals as a function of differences between stimuli characteristics
Ince et al. ECoG based brain computer interface with subset selection
Roussel et al. A new cyclostationarity-based blind approach for motor unit's firing rate automated detection in electromyographic signals
Severini et al. Effect of SNR normalization on the estimation of muscle synergies from EMG datasets
Naik et al. Addressing source separation and identification issues in surface EMG using blind source separation
CN106037725A (zh) 基于小波包变换的生物电脑部信号分析方法
Gu et al. Novel feature generation and classification for a 2-state Self-paced Brain Computer Interface system
US20240207612A1 (en) Diagnosis system for sarcopenia and functional electrical stimulation therapy system using electromyography signal
WO2019025016A1 (en) METHOD AND SYSTEM FOR DETERMINING USER INTENTION OF A VEHICLE TO BRAKE OR ACCELERATE
Caune et al. EEG/SEEG Signal Modelling using Frequency and Fractal Analysis.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21875104

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022553735

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 21875104

Country of ref document: EP

Kind code of ref document: A1