WO2020246615A1 - 判定システム - Google Patents

判定システム Download PDF

Info

Publication number
WO2020246615A1
WO2020246615A1 PCT/JP2020/022516 JP2020022516W WO2020246615A1 WO 2020246615 A1 WO2020246615 A1 WO 2020246615A1 JP 2020022516 W JP2020022516 W JP 2020022516W WO 2020246615 A1 WO2020246615 A1 WO 2020246615A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
body surface
change information
unit
determination system
Prior art date
Application number
PCT/JP2020/022516
Other languages
English (en)
French (fr)
Inventor
後藤 尚志
英希 橋詰
喬弘 平山
聡 松原
潤一郎 新井
Original Assignee
ダイキン工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイキン工業株式会社 filed Critical ダイキン工業株式会社
Priority to EP20818867.2A priority Critical patent/EP3981324A4/en
Priority to CN202080042000.1A priority patent/CN113939226A/zh
Priority to US17/616,943 priority patent/US20220322951A1/en
Publication of WO2020246615A1 publication Critical patent/WO2020246615A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/022Measuring pressure in heart or blood vessels by applying pressure to close blood vessels, e.g. against the skin; Ophthalmodynamometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1032Determining colour for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4029Detecting, measuring or recording for evaluating the nervous system for evaluating the peripheral nervous systems
    • A61B5/4035Evaluating the autonomic nervous system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • A61B5/6826Finger
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate

Definitions

  • the determination system of the first viewpoint includes a face change information acquisition unit, a motion detection unit, and a physiological state determination unit.
  • the face change information acquisition unit acquires body surface change information indicating a time-series change of body surface data obtained from a part of the body surface of the subject.
  • the motion detection unit detects the motion of the target person.
  • the physiological state determination unit determines the mental or physical physiological state of the subject based on the body surface data when the movement of the subject is detected.
  • the judgment system of the second viewpoint is the judgment system of the first viewpoint
  • the body surface data is the data obtained from the face of the subject.
  • the judgment system of the third viewpoint is the judgment system of the first viewpoint, and the body surface data is the data related to the complexion of the subject.
  • the judgment system of the fourth viewpoint is the judgment system of the first viewpoint, and the body surface data is the data obtained from the surface of the fingertip of the subject.
  • the judgment system of the fifth viewpoint is a judgment system of the first viewpoint, and further includes a first shooting unit that shoots a part of the body surface without touching the target person.
  • the body surface data is the first photographed image data photographed by the first photographing unit.
  • This judgment system can reduce the burden on the measurer and the target person.
  • the judgment system of the sixth viewpoint is any of the judgment systems from the first viewpoint to the fifth viewpoint, and the body surface change information acquisition unit performs a color separation process for decomposing the body surface change information into predetermined components. It has a color space processing unit.
  • the judgment system of the seventh viewpoint is the judgment system of the sixth viewpoint, and the color space processing unit receives the body surface change information in the color separation processing into three color components of R component, G component, and B component. Disassemble into.
  • the judgment system of the eighth viewpoint is the judgment system of the sixth or seventh viewpoint, and the body surface change information acquisition unit is based on the color components contained in the body surface change information that has been color-separated by the color space processing unit. , The component that shows the characteristics of the physiological state, and / or the converted value is acquired.
  • the judgment system of the ninth viewpoint is the judgment system of the first viewpoint, and the movement of the target person is a movement including a change in the height of the head or the like of the target person.
  • the tenth viewpoint determination system is a first viewpoint determination system, and further includes a second photographing unit that photographs the target person without touching the target person.
  • the motion detection unit detects the motion of the target person based on the second captured image data captured by the second photographing unit.
  • the determination system of the eleventh viewpoint is any of the determination systems from the first viewpoint to the fifth viewpoint, and the motion detection unit detects the movement of the target person based on the body surface data.
  • the judgment system of the twelfth viewpoint is the judgment system of the first viewpoint, and the physiological state includes the blood pressure, pulse, heartbeat, and decrease or increase of the autonomic nervous system of the subject.
  • This judgment system can judge various physiological states.
  • Diagram showing the judgment system Diagram showing the operation of the target person in the processing of the control unit Flowchart showing the processing flow of the control unit
  • the figure which shows an example of the measurement result The figure which shows an example of the measurement result
  • the figure which shows an example of the measurement result The figure which shows an example of the measurement result
  • Flowchart showing the processing flow of the control unit The figure which shows an example of the measurement result Diagram showing other examples of measurement results Diagram showing other examples of measurement results Diagram showing other examples of measurement results Diagram showing other examples of measurement results Diagram showing other examples of measurement results
  • FIG. 1 shows the determination system 1 according to the first embodiment.
  • the determination system 1 determines the mental or physical physiological state using image data (body surface data) obtained from a part of the body surface of the subject to be determined.
  • the determination system 1 includes a control unit 100, a face recording camera 200, and a face position recording camera 300.
  • the control unit 100 includes a face change information acquisition unit 110, a motion detection unit 120, and a physiological state determination unit 130.
  • control unit 100 can be realized by a computer including a control arithmetic unit and a storage device (both not shown).
  • the control arithmetic unit is a processor such as a CPU or GPU.
  • the control arithmetic unit reads the control program stored in the storage device and performs each process according to the control program. Further, the control arithmetic unit can write the arithmetic result to the storage device and read the information stored in the storage device according to the control program.
  • the first captured image data is input from the face recording camera 200 to the face change information acquisition unit 110.
  • the second captured image data is input from the face position recording camera 300 to the motion detection unit 120.
  • the face change information acquisition unit 110 is a body surface change information acquisition unit that acquires face change information indicating time-series changes in the face data of the subject.
  • the facial change information acquisition unit 110 sometimes uses the first captured image data, which is a captured image of the subject captured by the face recording camera 200, as facial data, which is body surface data related to the complexion of the subject.
  • the facial change information which is the body surface change information indicating the time-series change of the facial data, is acquired by recording along the series.
  • the face change information acquisition unit 110 may use the image data around the paranasal sinuses of the subject and / or the forehead portion included in the first captured image data as the face data.
  • the face change information acquisition unit 110 has a color space processing unit 140.
  • the color space processing unit 140 performs color separation processing for decomposing facial change information into three color components, R component, G component, and B component.
  • the face change information acquisition unit 110 acquires a component showing the characteristics of the physiological state and / or a converted value from the color component included in the face change information that has been color-separated by the color space processing unit 140.
  • the motion detection unit 120 detects the movement of the target person based on the height and movement of the feature points of the predetermined portion included in the second captured image data.
  • the movement of the subject is a change in the height of the head when the relative height of the heart and the head does not change (for example, from a sitting position to a standing position), and the movement in which the relative height of the heart and the head changes. In the case of (for example, a head-up tilt test with a fixed head), it is a change in the height of the heart.
  • the feature points of the subject's face included in the second captured image data move and stand still. It is detected that the subject has stood up due to the change in the height of the subject's head.
  • the physiological state determination unit 130 determines the mental or physical physiological state of the subject based on the facial data when the motion detection unit 120 detects the movement of the subject. More specifically, the physiological state determination unit 130 determines the mental or physical physiological state of the subject based on the component showing the characteristics of the physiological state acquired by the facial change information acquisition unit 110 and / or the converted value. To do. Physiological conditions include a subject's blood pressure, pulse, heart rate, and decreased or increased autonomic nervous system.
  • the face recording camera 200 is a first photographing unit that photographs the target person without touching (non-contacting) the target person.
  • the face recording camera 200 inputs the captured first captured image data to the face change information acquisition unit 110.
  • the face position recording camera 300 is a second photographing unit that photographs the target person without touching (non-contacting) the target person.
  • the face position recording camera 300 inputs the captured first captured image data to the face change information acquisition unit 110.
  • FIG. 2A shows an example of the operation of the target person who makes a determination by the determination system 1.
  • the determination process performed by the determination system 1 will be described by taking the case where the subject performs the operation shown in FIG. 2A as an example.
  • the subject sits in a chair and rests for 30 seconds (sitting position).
  • the measurer gives an instruction to stand up to the subject
  • the subject stands up in about 3 seconds (standing motion).
  • the subject is left standing and rested for 60 seconds (standing position).
  • FIG. 2B shows the processing flow of the control unit 100.
  • the subject At the start of processing of the control unit 100, the subject is sitting on a chair placed in front of the face recording camera 200 and the face position recording camera 300 (sitting position).
  • the control unit 100 starts the process, the first captured image data of the face of the target person is input from the face recording camera 200 to the face change information acquisition unit 110.
  • the second captured image data of the subject is input from the face position recording camera 300 to the motion detection unit 120.
  • the motion detection unit 120 detects the movement of the subject based on the second captured image data input from the face position recording camera 300 to the motion detection unit 120. Detect (step S111).
  • the face change information acquisition unit 110 outputs the face change information indicating the time-series change of the face data of the target person. Acquire (step S112).
  • the face change information acquisition unit 110 uses, for example, image data around the paranasal sinuses of the subject and / or the forehead portion included in the first captured image data as the face data.
  • the color space processing unit 140 of the face change information acquisition unit 110 converts the face change information into three color components such as an R component (Red component), a G component (Green component), and a B component (Blue component). Performs color separation processing to separate.
  • the face change information acquisition unit 110 analyzes the acquired face change information (step S113).
  • the facial change information acquisition unit 110 includes a G component that shows the characteristics of the physiological state, and / or an erythema index, a hemoglobin component, and the like from the color components contained in the facial change information that has been color-separated by the color space processing unit 140. Get the converted value of.
  • the erythema index is an index expressing the degree of "redness" of the skin using the absorbance of the skin, and is an index obtained from RGB information by the formula shown in Equation 1 below.
  • the hemoglobin component is a value linked to the amount of hemoglobin estimated from the RGB information of the skin when the skin is assumed to be a two-layer model of a melanin layer and a hemoglobin layer.
  • the physiological state determination unit 130 determines the physiological state of the target person based on the facial data when the movement of the target person is detected (step S114).
  • the physiological state determination unit 130 determines the blood pressure of the subject based on the component showing the characteristics of the physiological state acquired from the facial data by the facial change information acquisition unit 110 before and after the movement of the subject and / or the converted value. It is possible to determine the physiological state of the subject's mind or body, such as pulse, heart rate, and decrease or increase of the autonomic nervous system.
  • control unit 100 outputs the determination result of the mental or physical physiological state of the subject by the physiological state determination unit 130 to the output unit (not shown) (step S115), and ends the process.
  • the control unit 100 included in the determination system 1 includes a face change information acquisition unit 110, a motion detection unit 120, and a physiological state determination unit 130.
  • the face change information acquisition unit 110 acquires face change information indicating a time-series change of the face data of the target person.
  • the motion detection unit 120 detects the motion of the target person.
  • the physiological state determination unit 130 determines the mental or physical physiological state of the subject based on the facial data when the movement of the subject is detected.
  • the physiological state of the subject's mind or body can be easily determined. Further, in this determination system, for example, it is possible to inexpensively determine the mental or physical physiological state of the subject without using an expensive device such as a continuous blood pressure monitor.
  • the facial change information acquisition unit 110 acquires image data of the area around the paranasal sinuses of the subject and / or the forehead portion as facial data.
  • the physiological state of the subject's mind or body can be easily determined by acquiring the data of the region where a particularly large blood vessel exists on the face.
  • the facial data is data related to the complexion of the subject.
  • the face change information acquisition unit 110 performs color space processing that decomposes the face change information of the target person into three color components, R component, G component, and B component. It has a part 140.
  • the physiological state of the subject's mind or body can be determined.
  • the face change information acquisition unit 110 converts the G component and / or the conversion value such as the erythema index and the hemoglobin component from the color component contained in the color-separated face change information. get.
  • the physiological state of the subject's mind or body can be easily determined by using the color component of the photographed image data that makes it easy to detect the change in the subject's complexion.
  • the movement of the target person is a movement including a change in the height of the head or the like of the target person.
  • the movement of the subject can be easily detected, so that the physiological state of the subject's mind or body can be easily determined.
  • the face recording camera 200 captures the subject in a non-contact manner.
  • the physiological state includes a decrease or increase in blood pressure, pulse, heart rate, and autonomic nervous system of the subject.
  • This determination system 1 can determine various physiological states.
  • Modification example (5-1) Modification example 1A
  • the first captured image data and the second captured image data were obtained by using two cameras, a face recording camera 200 and a face position recording camera 300, but one camera May be used to obtain the first captured image data and the second captured image data.
  • the face recording camera 200 may be an infrared camera.
  • the first captured image data can be obtained regardless of the brightness of the external environment.
  • the process proceeds to step S113 without executing step S112.
  • the color space processing unit 140 transmits the facial change information to one or more predetermined wavelength band components included in the infrared wavelength band. Perform a decomposition process that decomposes into.
  • step S113 the face change information acquisition unit 110 acquires a component that shows the characteristics of the physiological state from the predetermined wavelength band component included in the face change information generated by the decomposition process.
  • step S114 the blood pressure, pulse, heart rate, and autonomic nervous system of the subject are lowered based on the components showing the characteristics of the physiological state acquired from the facial data by the facial change information acquisition unit 110 before and after the movement of the subject.
  • the determination system 1 further includes a guide unit capable of maintaining a constant distance between the face recording camera 200 and at least one of the face position recording camera 300 and the subject by contacting the subject. You may. As a result, the subject can be photographed at a constant distance, so that the determination accuracy of the determination system 1 is improved.
  • FIG. 6 is a diagram showing the determination system 2.
  • the difference between the determination system 1 and the determination system 2 is that the determination system 2 uses image data on the surface of the fingertip of the subject to determine the physiological state of the subject or body.
  • the same reference numerals are given to the configurations corresponding to each embodiment, and the description thereof will be omitted.
  • the determination system 2 includes a control unit 101 and a fingertip recording camera 400.
  • the control unit 101 includes a fingertip change information acquisition unit 111, a motion detection unit 121, and a physiological state determination unit 130.
  • the fingertip recording camera 400 captures an image of the surface of the fingertip of the target person and inputs it to the fingertip change information acquisition unit 111 and the motion detection unit 121 as the third captured image data.
  • the fingertip change information acquisition unit 111 is a body surface change information acquisition unit that acquires fingertip change information indicating a time-series change of the fingertip data of the target person. Specifically, the fingertip change information acquisition unit 111 uses the third captured image data captured by the fingertip recording camera 400 as fingertip data which is body surface data relating to the color of the fingertip surface of the subject in chronological order. The fingertip change information, which is the fingertip change information indicating the time-series change of the fingertip data, is acquired by recording.
  • the fingertip change information acquisition unit 111 has a color space processing unit 140 like the face change information acquisition unit 110.
  • the color space processing unit 140 performs color separation processing for decomposing fingertip change information into three color components, R component, G component, and B component.
  • the fingertip change information acquisition unit 111 acquires a component showing the characteristics of the physiological state and / or a conversion value from the color component included in the fingertip change information that has been color-separated by the color space processing unit 140.
  • the motion detection unit 121 detects the movement of the target person based on the third captured image data. Specifically, the motion detection unit 121 includes a predetermined pattern indicating the movement of the target person in the color component and / or the conversion value that shows the characteristics of the physiological state acquired by the fingertip change information acquisition unit 111. Whether or not it is detected, and when a predetermined pattern is detected, it is determined that the subject has moved.
  • the motion detection unit 121 can use, for example, a pattern in which the R component decreases by a predetermined amount or more within a predetermined time. This pattern indicates that a phenomenon in which the blood flow at the fingertips physically decreases before the autonomic nerves act with the standing motion occurs.
  • the motion detection unit 121 can determine that the subject has moved (standing motion) by detecting this pattern from the R component.
  • the physiological state determination unit 130 determines the mental or physical physiological state of the subject based on the fingertip data when the movement detection unit 121 detects the movement of the subject. More specifically, the physiological state determination unit 130 determines the mental or physical physiological state of the subject based on the component showing the characteristic of the physiological state acquired by the fingertip change information acquisition unit 111 and / or the converted value. To do. Physiological conditions include a subject's blood pressure, pulse, heart rate, and decreased or increased autonomic nervous system.
  • the fingertip recording camera 400 is a third photographing unit that photographs the surface of the fingertip of the subject.
  • the fingertip recording camera 400 includes a sensor 401, a lens 402, and an illumination 403.
  • the sensor 401 acquires an image of the fingertip surface via the lens 402.
  • the fingertip recording camera 400 inputs the image acquired by the sensor 401 to the fingertip change information acquisition unit 111 and the motion detection unit 121.
  • the illumination 403 irradiates the subject's finger with light when taking an image.
  • the lens 402 and the illumination 403 are arranged adjacent to each other so that the fingertips can come into contact with each other at the same time.
  • FIG. 7 is a schematic view showing a state in which the surface of the fingertip of the subject is photographed by the fingertip recording camera 400.
  • the fingertip recording camera 400 acquires the third captured image data
  • the subject brings the fingertip surface into contact with the lens 402 and the illumination 403 as shown in FIG. 7.
  • the light emitted from the illumination 403 passes through the surface of the fingertip and is acquired by the sensor 401 via the lens 402.
  • a digital camera with a flash (lighting) attached to a smartphone may be used as the fingertip recording camera 400.
  • the flash is used as the illumination 403.
  • FIG. 8 shows the processing flow of the control unit 101.
  • the subject At the start of processing of the control unit 101, the subject is sitting on a chair with the fingertip surface in contact with the fingertip recording camera 400 (sitting position).
  • the control unit 101 starts processing, the third captured image data is input from the fingertip recording camera 400 to the fingertip change information acquisition unit 111 and the motion detection unit 121.
  • the motion detection unit 121 detects the motion of the target person (step S211).
  • the fingertip change information acquisition unit 111 outputs the fingertip change information indicating the time-series change of the fingertip data of the target person.
  • Acquire step S212.
  • the color space processing unit 140 of the fingertip change information acquisition unit 111 performs color separation processing for decomposing the fingertip change information into three color components such as R component, G component, and B component.
  • the fingertip change information acquisition unit 111 analyzes the acquired fingertip change information (step S213).
  • the fingertip change information acquisition unit 111 includes an R component that shows the characteristics of the physiological state, and / or an erythema index, a hemoglobin component, and the like from the color components contained in the fingertip change information that has been color-separated by the color space processing unit 140. Get the converted value of.
  • the physiological state determination unit 130 determines the physiological state of the target person based on the fingertip data when the movement of the target person is detected (step S214). Specifically, the physiological state determination unit 130 is based on a component showing the characteristic of the physiological state acquired from the fingertip data by the fingertip change information acquisition unit 111 before and after the movement of the subject, and / or a conversion value. It is possible to determine the physiological state of the subject's mind or body, such as blood pressure, pulse, heartbeat, and decrease or increase of the autonomic nervous system.
  • control unit 101 outputs the determination result of the mental or physical physiological state of the subject by the physiological state determination unit 130 to the output unit (not shown) (step S215), and ends the process.
  • the body surface data is data obtained from the surface of the subject's fingertips.
  • the determination result of the physiological state of the mind or body can be obtained by a simple operation.
  • fingertip data can be acquired by bringing the fingertip recording camera 400 into contact with the fingertip.
  • the influence of ambient light and the movement of the target person or the like can be suppressed, and fingertip data can be obtained by a simple operation.
  • the motion detection unit 121 detects the motion of the target person based on the fingertip data.
  • the judgment system 2 does not require a camera for recording the position of the target person, the structure is simple and the manufacturing cost is suppressed.
  • the color component acquired from the fingertip change information by the fingertip change information acquisition unit 111 in step S213 is an R component. This is because the R component has the property of easily transmitting through the living body and being easily detected by the sensor 401 even when the amount of light of the illumination 403 is insufficient.
  • the color component acquired by the fingertip change information acquisition unit 111 from the fingertip change information is the R component. It may be a G component or a B component other than the above.
  • the fingertip recording camera 400 may be an infrared camera like the face recording camera 200.
  • the subject was made to perform the operation shown in FIG. 2A, and the physiological state was determined by the determination system 1 according to the first embodiment.
  • the blood pressure and the heart rate were measured simultaneously by the continuous sphygmomanometer.
  • Finapres' BP Monitor Ohmeda was used as the measuring device for the continuous sphygmomanometer.
  • a digital oscilloscope DL1640 manufactured by Yokogawa Electric was used as the recording device.
  • For the face recording camera 200 a Panasonic camera A1H was used.
  • a Watec camera WAT-01U2 was used as the face position recording camera 300.
  • the continuous sphygmomanometer is a contact type.
  • FIGS. 3A to 3D show an example of the measurement results of this test.
  • the target person is a healthy person whose age is 34 years old and whose gender is male.
  • FIG. 3A shows the result of measuring the blood pressure of the subject with a continuous sphygmomanometer.
  • the vertical axis represents blood pressure (mmHg) and the horizontal axis represents time (seconds).
  • FIG. 3B shows the result of estimating the heart rate of the subject from the pulse rate.
  • the vertical axis shows the heart rate (times / minute), and the horizontal axis shows the time (seconds).
  • FIG. 3C shows the change in the complexion of the subject obtained by the control unit 100.
  • the vertical axis shows the Green component obtained by color-separating the facial change information obtained from the first captured image data input from the face recording camera 200.
  • the vertical axis shows the Green component included in the facial data
  • the horizontal axis shows the time (seconds).
  • the Green component is the average of the pixel values (gradations) of the Green component in a plurality of pixels included in a predetermined range of the first captured image data.
  • FIG. 3D shows the change in the height of the subject's face obtained by the determination system 100.
  • the vertical axis shows the height coordinates of the face in the second captured image data taken by the face position recording camera 300 in the second captured image data with 0 seconds as the origin.
  • the horizontal axis indicates time (seconds).
  • the sitting time is 0 seconds and the face height is 0.
  • the height of the face remains 0 because the subject sits in a chair and rests for 0 to 30 seconds.
  • the height of the face becomes about 900 pixels.
  • the height of the face remains about 900 pixels for 30 to 90 seconds.
  • the vertical line about 30 seconds after the start of measurement indicates the timing when the subject stands up from the state of sitting on the chair.
  • the subject stood up 30 seconds after the start of measurement, and the blood pressure decreased within 30 to 40 seconds. After that, the blood pressure increased between 40 seconds and 50 seconds, and returned to the same level as the blood pressure when sitting for 0 to 30 seconds.
  • the Green component of the complexion decreased once and increased again within 40 to 50 seconds.
  • the green component of the complexion returns to the same level as in the sitting position for 0 to 30 seconds.
  • the blood pressure, heart rate, and complexion changed at the timing when the subject's face height changed in this way.
  • the determination system 1 of the present embodiment is effective for detecting, for example, non-contact and inexpensive orthostatic hypotension.
  • the physiological state determination unit 130 determines the time from the increase of the green component of the complexion due to the standing motion of the subject to the return to the same level as the sitting position based on the facial change information. And compare this with a given reference time.
  • the physiological state determination unit 130 can determine that the subject may have orthostatic hypotension when the time required for the green component of the complexion to return to the same level as the sitting position is longer than the reference time.
  • FIGS. 4A to 4D show other examples of the measurement results of this test.
  • the target person is a healthy person whose age is 33 years old and whose gender is male.
  • the measurement results of the subjects of FIGS. 4A to 4D were almost the same as those of FIGS. 3A to 3D.
  • FIGS. 5A to 5D show other examples of the measurement results of this test.
  • the target person is a healthy person whose age is 52 years old and whose gender is male.
  • the measurement results of the subjects of FIGS. 5A to 5D were almost the same as those of FIGS. 3A to 3D.
  • the physiological state was determined by the determination system 2 according to the second embodiment. At the same time, blood pressure was measured by a continuous sphygmomanometer for the evaluation of the determination system 2.
  • the subject sits in a chair and rests for 60 seconds (sitting position), and when the measurer gives an instruction to stand up, the subject stands up and rests for 60 seconds (standing position). The operation was performed 5 times. Between each round, the subject took a sufficient break.
  • BP Monitor Ohmeda manufactured by Finapres was used as a continuous sphygmomanometer as a measuring device.
  • a digital oscilloscope DL1640 manufactured by Yokogawa Electric was used as the recording device.
  • the digital camera attached to the Apple iPhone (registered trademark) 6s was used.
  • the continuous sphygmomanometer is a contact type.
  • the front of the fingertip recording camera 400 next to the lens was turned on.
  • the camera application installed as standard on the iPhone 6s was used for shooting with the fingertip recording camera 400.
  • the fingertip recording camera 400 was held by the subject at heart level during the determination.
  • the erythema index was obtained from the formula shown in Equation 1 using the R component, the G component, and the B component.
  • the target person is a healthy person whose age is 34 years old and whose gender is male.
  • FIGS. 9A-9E show blood pressure, R component, G component, B component, and erythema index in order from the top.
  • Blood pressure is the result of measuring the blood pressure of the subject with a continuous sphygmomanometer, and the vertical axis indicates blood pressure (mmHg) and the horizontal axis indicates time (seconds).
  • the R component, G component, and B component are values obtained by the fingertip change information acquisition unit 111 from the fingertip data obtained by the fingertip recording camera 400, and the vertical axis represents each color component and the horizontal axis represents time (seconds). ) Is shown.
  • Each color component is the average of the pixel values (gradations) of each color component in a plurality of pixels included in a predetermined range of the third captured image data.
  • the erythema index is a value obtained from the R component, the G component, and the B component by the fingertip change information acquisition unit 111, and the vertical axis represents the erythema index and the horizontal axis represents the time (seconds).
  • Example 4 By the test of Example 4, it was confirmed that the data based on the fingertip data obtained by the fingertip recording camera 400 and the data obtained by measuring the blood pressure by the contact method match. Further, it was confirmed that the determination system 2 can also be used to determine the orthostatic hypotension as in the determination system 1.
  • the detected value of the G component was close to zero except for the second test shown in FIG. 9B. It is considered that this is because the G component other than the R component and the B component do not easily pass through the living body, and a sufficient amount of light did not reach the sensor 401.
  • Control unit 110 Face change information acquisition unit (body surface change information acquisition unit) 111 Fingertip change information acquisition unit (body surface change information acquisition unit) 120 Motion detection unit 130 Physiological condition determination unit 140 Color space processing unit 200 Face recording camera (first imaging unit) 300 Face position recording camera (2nd shooting section) 400 Fingertip recording camera

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Neurology (AREA)
  • Vascular Medicine (AREA)
  • Psychiatry (AREA)
  • Neurosurgery (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Pulmonology (AREA)
  • Hospice & Palliative Care (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

血圧のような身体の生理状態を簡易に判定することが求められている。判定システム(1)では、体表面変化情報取得部(110)と、動き検知部(120)と、生理状態判定部(130)と、を備える。体表面変化情報取得部(110)は、対象者の体表面データの時系列変化を示す体表面変化情報を取得する。動き検知部(120)は、対象者の動きを検知する。生理状態判定部(130)は、対象者の動きを検知した時の体表面データに基づいて、対象者の精神又は身体の生理状態を判定する。

Description

判定システム
 判定システムに関する。
 起立性低血圧を検出するためには体位変化時の血圧の変化を測定する必要があり、従来、接触式の装置で血圧を測定していた(特許文献1(実用新案登録3121842号公報)参照)。また、その他に、接触式で血圧の変化を時系列で測定できる連続血圧計などがある。
 体位変化時の血圧の変化を測定するのは測定作業が煩雑であり、測定作業を簡便にすることが求められているという課題がある。また、連続血圧計は高価なため、心拍数変化の測定で代替されているという課題がある。このように、血圧のような身体の生理状態を簡易に判定することが求められている。
 第1観点の判定システムは、顔面変化情報取得部と、動き検知部と、生理状態判定部と、を備える。顔面変化情報取得部は、対象者の体表面の一部から得られる体表面データの時系列変化を示す体表面変化情報を取得する。動き検知部は、対象者の動きを検知する。生理状態判定部は、対象者の動きを検知した時の体表面データに基づいて、対象者の精神又は身体の生理状態を判定する。
 この判定システムでは、対象者の精神又は身体の生理状態を簡易に判定することができる。
 第2観点の判定システムは、第1観点の判定システムであって、体表面データは、前記対象者の顔面から得られるデータである。
 第3観点の判定システムは、第1観点の判定システムであって、体表面データは、対象者の顔色に関するデータである。
 第4観点の判定システムは、第1観点の判定システムであって、体表面データは、対象者の指先の表面から得られるデータである。
 第5観点の判定システムは、第1観点の判定システムであって、対象者に接することなく体表面の一部を撮影する第1撮影部をさらに備える。体表面データは、第1撮影部が撮影した第1撮影画像データである。
 この判定システムでは、測定者及び対象者の負担を軽減できる。
 第6観点の判定システムは、第1観点から第5観点のいずれかの判定システムであって、体表面変化情報取得部は、体表面変化情報を、所定の成分に分解する色分解処理を行う色空間処理部を有する。
 この判定システムでは、非接触で対象者の精神又は身体の生理状態を判定することができる。
 第7観点の判定システムは、第6観点の判定システムであって、色空間処理部は、色分解処理において、体表面変化情報を、R成分、G成分、および、B成分の3つの色成分に分解する。
 第8観点の判定システムは、第6または第7観点の判定システムであって、体表面変化情報取得部は、色空間処理部により色分解処理をされた体表面変化情報に含まれる色成分から、前記生理状態の特徴が表れる成分、および/または、変換値を取得する。
 第9観点の判定システムは、第1観点の判定システムであって、対象者の動きは、対象者の頭部等の高さ変化を含む動きである。
 第10観点の判定システムは、第1観点の判定システムであって、対象者に接することなく対象者を撮影する第2撮影部をさらに備える。動き検知部は、第2撮影部が撮影した第2撮影画像データに基づいて対象者の動きを検知する。
 第11観点の判定システムは、第1観点から第5観点のいずれかの判定システムであって、動き検知部は、体表面データに基づいて前記対象者の動きを検知する。
 第12観点の判定システムは、第1観点の判定システムであって、生理状態は、対象者の血圧、脈拍、心拍、自律神経系の低下又は亢進を含む。
 この判定システムでは、様々な生理状態を判定できる。
判定システムを示す図 制御部の処理における対象者の動作を示す図 制御部の処理の流れを示すフローチャート 測定結果の一例を示す図 測定結果の一例を示す図 測定結果の一例を示す図 測定結果の一例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 判定システムを示す図 体表面記録用カメラにより対象者の指先表面を撮影する様子を示す概略図 制御部の処理の流れを示すフローチャート 測定結果の一例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図 測定結果の他の例を示す図
 <第1実施形態>
 (1)全体構成
 第1実施形態に係る判定システム1を図1に示す。
 判定システム1は、判定対象である対象者の体表面の一部から得られる画像データ(体表面データ)を用いて、精神又は身体の生理状態を判定する。判定システム1は、制御部100と、顔面記録用カメラ200と、顔位置記録用カメラ300とを備えている。制御部100は、顔面変化情報取得部110と、動き検知部120と、生理状態判定部130とを備えている。
 なお、制御部100は、制御演算装置と、記憶装置と(いずれも不図示)、を備えるコンピュータにより実現することができる。制御演算装置は、CPU又はGPUといったプロセッサである。制御演算装置は、記憶装置に記憶されている制御プログラムを読み出し、この制御プログラムに従って各処理を行う。さらに、制御演算装置は、制御プログラムに従って、演算結果を記憶装置に書き込んだり、記憶装置に記憶されている情報を読み出したりすることができる。
 顔面記録用カメラ200から顔面変化情報取得部110に、第1撮影画像データが入力される。顔位置記録用カメラ300から動き検知部120に、第2撮影画像データが入力される。
 (2)詳細構成
 (2-1)顔面変化情報取得部
 顔面変化情報取得部110は、対象者の顔面データの時系列変化を示す顔面変化情報を取得する体表面変化情報取得部である。具体的には、顔面変化情報取得部110は、顔面記録用カメラ200により撮影された対象者の撮影画像である第1撮影画像データを、対象者の顔色に関する体表面データである顔面データとして時系列に沿って記録し、顔面データの時系列変化を示す体表面変化情報である顔面変化情報を取得する。
 また、顔面変化情報取得部110は、顔面データとして、第1撮影画像データに含まれる対象者の副鼻腔周辺、および/または、前額部の画像データを用いてもよい。
 また、顔面変化情報取得部110は、色空間処理部140を有する。色空間処理部140は、顔面変化情報を、R成分、G成分及びB成分の3つの色成分に分解する色分解処理を行う。
 顔面変化情報取得部110は、色空間処理部140により色分解処理をされた顔面変化情報に含まれる色成分から、生理状態の特徴が表れる成分、および/または、変換値を取得する。
 (2-2)動き検知部
 動き検知部120は、第2撮影画像データに含まれる所定の部位の特徴点の高さと動きに基づいて、対象者の動きを検知する。対象者の動きとは、心臓と頭部の相対高さが変わらない動き(例えば坐位から立位)の場合には頭部の高さ変化であり、心臓と頭部の相対高さが変わる動き(例えば頭部固定型のヘッドアップティルト試験(Head-up tilt test))の場合には心臓の高さ変化である。
 たとえば対象者が椅子に座った状態から立ち上がると、第2撮像画像データに含まれる対象者の顔面の特徴点が動いて静止する。対象者の頭部の高さが変化したことで、対象者が立ち上がったことが検知される。
 (2-3)生理状態判定部
 生理状態判定部130は、動き検知部120が対象者の動きを検知した時の顔面データに基づいて、対象者の精神又は身体の生理状態を判定する。より詳細には、生理状態判定部130は、顔面変化情報取得部110が取得した生理状態の特徴が表れる成分、および/または、変換値に基づいて、対象者の精神又は身体の生理状態を判定する。生理状態は、対象者の血圧、脈拍、心拍、自律神経系の低下又は亢進を含む。
 (2-4)顔面記録用カメラ
 顔面記録用カメラ200は、対象者に接することなく(非接触で)対象者を撮影する第1撮影部である。顔面記録用カメラ200は、撮影した第1撮影画像データを顔面変化情報取得部110に入力する。
 (2-5)顔位置記録用カメラ
 顔位置記録用カメラ300は、対象者に接することなく(非接触で)対象者を撮影する第2撮影部である。顔位置記録用カメラ300は、撮影した第1撮影画像データを顔面変化情報取得部110に入力する。
 (3)全体動作
 図2Aは、判定システム1が判定を行う対象者の動作の一例を示す。以下では、対象者が図2Aに示した動作をした場合を例に、判定システム1が行う判定処理について説明する。まず、対象者が椅子に座り、30秒間安静にする(坐位)。次に、測定者が対象者に起立指示をすると、対象者は約3秒間で起立する(起立動作)。次に、対象者は立ったまま、60秒間安静にする(立位)。
 図2Bは、制御部100の処理の流れを示す。
 制御部100の処理開始時に、対象者は、顔面記録用カメラ200と顔位置記録用カメラ300の前に置かれた椅子に座っている(坐位)。制御部100が処理を開始すると、顔面記録用カメラ200から顔面変化情報取得部110に、対象者の顔面の第1撮影画像データが入力される。顔位置記録用カメラ300から動き検知部120に、対象者の第2撮影画像データが入力される。
 対象者が椅子に座った状態から立ち上がると(起立動作)、顔位置記録用カメラ300から動き検知部120に入力される第2撮影画像データに基づき、動き検知部120が、対象者の動きを検知する(ステップS111)。
 次に、顔面記録用カメラ200から顔面変化情報取得部110に入力される第1撮影画像データに基づき、顔面変化情報取得部110が、対象者の顔面データの時系列変化を示す顔面変化情報を取得する(ステップS112)。この際、顔面変化情報取得部110は、顔面データとして、例えば、第1撮影画像データに含まれる対象者の副鼻腔周辺、及び/又は、前額部の画像データを用いる。また、顔面変化情報取得部110の色空間処理部140は、顔面変化情報を、R成分(Red成分)、G成分(Green成分)、および、B成分(Blue成分)の3つの色成分等に分解する色分解処理を行う。
 次に、顔面変化情報取得部110は、取得された顔面変化情報を解析する(ステップS113)。顔面変化情報取得部110は、色空間処理部140により色分解処理をされた顔面変化情報に含まれる色成分から、前記生理状態の特徴が表れるG成分、および/または、紅斑指数、ヘモグロビン成分などの変換値を取得する。
 紅斑指数とは、皮膚の“赤み”の程度を皮膚の吸光率を用いて表した指数であり、たとえばRGB情報から以下の数1に示した計算式で求められる指数である。
Figure JPOXMLDOC01-appb-M000001
 ヘモグロビン成分とは、皮膚をメラニン層とヘモグロビン層の2層モデルと仮定した際に、皮膚のRGB情報から推定したヘモグロビン量と連動する値である。
 次に、対象者の動きを検知した時の顔面データに基づいて、生理状態判定部130が、対象者の生理状態を判定する(ステップS114)。生理状態判定部130は、対象者の動きの前後における、顔面変化情報取得部110が顔面データから取得した生理状態の特徴が表れる成分、および/または、変換値に基づいて、対象者の血圧、脈拍、心拍、自律神経系の低下又は亢進などの、対象者の精神又は身体の生理状態を判定することができる。
 次に、制御部100は、生理状態判定部130による対象者の精神又は身体の生理状態の判定結果を出力部(不図示)に出力して(ステップS115)、処理を終了する。
 (4)特徴
 (4-1)
 本実施形態に係る判定システム1に含まれる制御部100は、顔面変化情報取得部110と、動き検知部120と、生理状態判定部130と、を備える。顔面変化情報取得部110は、対象者の顔面データの時系列変化を示す顔面変化情報を取得する。動き検知部120は、対象者の動きを検知する。生理状態判定部130は、対象者の動きを検知した時の顔面データに基づいて、対象者の精神又は身体の生理状態を判定する。
 この判定システム1では、対象者の精神又は身体の生理状態を簡易に判定することができる。また、この判定システムでは、例えば、高価な連続血圧計などの機器を使用しなくても、安価に対象者の精神又は身体の生理状態を判定することができる。
 (4-2)
 本実施形態に係る判定システム1では、顔面変化情報取得部110は、顔面データとして、対象者の副鼻腔周辺、および/または、前額部の画像データを取得する。
 この判定システム1では、顔面で特に大きな血管が存在する領域のデータを取得することで、対象者の精神又は身体の生理状態を簡易に判定することができる。
 (4-3)
 本実施形態に係る判定システム1では、顔面データは、対象者の顔色に関するデータである。
 この判定システム1では、対象者の顔色がわかることで、対象者の精神又は身体の生理状態を簡易に判定することができる。
 (4-4)
 本実施形態に係る判定システム1では、顔面変化情報取得部110は、対象者の顔面変化情報を、R成分、G成分及びB成分の3つの色成分に分解する色分解処理を行う色空間処理部140を有する。
 この判定システム1では、対象者の精神又は身体の生理状態を判定することができる。
 (4-5)
 本実施形態に係る判定システム1では、顔面変化情報取得部110は、色分解処理をした顔面変化情報に含まれる色成分から、G成分、および/または、紅斑指数、ヘモグロビン成分などの変換値を取得する。
 この判定システム1では、対象者の顔色の変化を検出しやすい撮影画像データの色成分を用いることで、対象者の精神又は身体の生理状態を簡易に判定することができる。
 (4-6)
 本実施形態に係る判定システム1では、対象者の動きは、対象者の頭部等の高さ変化を含む動きである。
 この判定システム1では、対象者の動作が検知しやすくなることで、対象者の精神又は身体の生理状態を簡易に判定することができる。
 (4-7)
 本実施形態に係る判定システム1では、顔面記録用カメラ200は、非接触で対象者を撮影する。
 この判定システム1では、測定者及び対象者の負担を軽減できる。
 (4-8)
 本実施形態に係る判定システム1では、生理状態は、対象者の血圧、脈拍、心拍、自律神経系の低下又は亢進を含む。
 この判定システム1では、様々な生理状態を判定できる。
 (5)変形例
 (5-1)変形例1A
 判定システム1では、顔面記録用カメラ200と、顔位置記録用カメラ300との2台のカメラを用いて第1撮影画像データ、および、第2撮影画像データを得ていたが、1台のカメラを用いて第1撮影画像データ、および、第2撮影画像データを得るようにしてもよい。
 (5-2)変形例1B
 本実施形態において顔面記録用カメラ200は赤外線カメラであっても良い。これにより外部環境の明暗によらずに、第1撮影画像データを得ることができる。この場合、赤外線カメラからのデータは、波長帯が一つなので、ステップS112は実行せずに、ステップS113に進む。なお、赤外線カメラが、複数波長カメラの場合は、波長帯が複数なので、ステップS112において、色空間処理部140は、顔面変化情報を、赤外線波長帯に含まれる1つ以上の所定の波長帯成分に分解する分解処理を行う。
 そして、ステップS113において、顔面変化情報取得部110は、分解処理により生成された、顔面変化情報に含まれる所定の波長帯成分から、前記生理状態の特徴が表れる成分を取得する。
 さらにステップS114において、対象者の動きの前後における、顔面変化情報取得部110が顔面データから取得した生理状態の特徴が表れる成分に基づいて、対象者の血圧、脈拍、心拍、自律神経系の低下又は亢進などの、対象者の精神又は身体の生理状態を判定することができる。
 (5-3)変形例1C
 判定システム1は、顔面記録用カメラ200、および、顔位置記録用カメラ300の少なくともいずれかと、対象者と、に接触することで、両者の距離を一定に保つことができるガイド部をさらに備えていてもよい。これにより、対象者を一定の距離で撮影することができるため、判定システム1の判定精度が向上する。
 <第2実施形態>
 次に、第2実施形態に係る判定システム2について、判定システム1との相違を中心に説明をする。図6は、判定システム2を示す図である。判定システム1と判定システム2との相違点は、判定システム2が、精神又は身体の生理状態の判定に、対象者の指先表面の画像データを用いる点である。なお、各実施形態の間で対応する構成には、同一の参照符号を付して説明を省略する。
 (1)全体構成
 判定システム2は、制御部101と、指先記録用カメラ400とを備えている。制御部101は、指先変化情報取得部111と、動き検知部121と、生理状態判定部130とを備えている。
 指先記録用カメラ400は、対象者の指先の表面の画像を撮影し、第3撮影画像データとして指先変化情報取得部111、および、動き検知部121に入力する。
 (2)詳細構成
 (2-1)指先変化情報取得部
 指先変化情報取得部111は、対象者の指先データの時系列変化を示す指先変化情報を取得する体表面変化情報取得部である。具体的には、指先変化情報取得部111は、指先記録用カメラ400により撮影された第3撮影画像データを、対象者の指先表面の色に関する体表面データである指先データとして時系列に沿って記録し、指先データの時系列変化を示す指先変化情報である指先変化情報を取得する。
 また、指先変化情報取得部111は、顔面変化情報取得部110と同様に色空間処理部140を有する。色空間処理部140は、指先変化情報を、R成分、G成分、および、B成分の3つの色成分に分解する色分解処理を行う。
 指先変化情報取得部111は、色空間処理部140により色分解処理をされた指先変化情報に含まれる色成分から、生理状態の特徴が表れる成分、および/または、変換値を取得する。
 (2-2)動き検知部
 動き検知部121は、第3撮影画像データに基づいて対象者の動きを検知する。具体的には、動き検知部121は、指先変化情報取得部111が取得した生理状態の特徴が表れる色成分、および/または、変換値に、対象者の動きを示す所定のパターンが含まれるか否か検知し、所定のパターンが検知された場合に対象者の動きがあったものと判断する。
 ここで、対象者の動きを示す所定のパターンとして、動き検知部121は、例えば、所定時間内でR成分が所定量以上の減少するパターンを用いることができる。このパターンは、起立動作にともない自律神経が作用する前に物理的に指先の血流量が減少する現象が発生したことを示すものである。動き検知部121は、このパターンがR成分から検知されることにより、対象者の動き(起立動作)があったものと判断できる。
 (2-3)生理状態判定部
 生理状態判定部130は、動き検知部121が対象者の動きを検知した時の指先データに基づいて、対象者の精神又は身体の生理状態を判定する。より詳細には、生理状態判定部130は、指先変化情報取得部111が取得した生理状態の特徴が表れる成分、および/または、変換値に基づいて、対象者の精神又は身体の生理状態を判定する。生理状態は、対象者の血圧、脈拍、心拍、自律神経系の低下又は亢進を含む。
 (2-4)指先記録用カメラ
 指先記録用カメラ400は、対象者の指先表面を撮影する第3撮影部である。指先記録用カメラ400は、センサ401と、レンズ402と、照明403と、を備える。
 センサ401は、レンズ402を介して指先表面の画像を取得する。指先記録用カメラ400は、センサ401により取得された画像を指先変化情報取得部111、および、動き検知部121に入力する。照明403は、画像撮影に際して、対象者の指に光を照射する。レンズ402と照明403とは、指先が同時に接触できる位置に隣接して配置される。
 図7は、指先記録用カメラ400により対象者の指先表面を撮影する様子を示す概略図である。指先記録用カメラ400が第3撮影画像データを取得する際には、対象者は、図7に示されるように、指先表面をレンズ402、および、照明403に接触させる。これにより、照明403から照射された光は、指先表面を透過した後、レンズ402を介してセンサ401により取得される。
 スマートフォンに付属するフラッシュ(照明)付きのデジタルカメラが、指先記録用カメラ400として用いられてもよい。この場合、フラッシュが、照明403として用いられる。
 (3)全体動作
 図2Aに示した対象者の動作を例にして制御部101の処理について説明する。
 図8は、制御部101の処理の流れを示す。
 制御部101の処理開始時に、対象者は、指先表面を指先記録用カメラ400に接触させた状態で椅子に座っている(坐位)。制御部101が処理を開始すると、指先記録用カメラ400から指先変化情報取得部111、および、動き検知部121に第3撮影画像データが入力される。
 指先表面を指先記録用カメラ400に接触させた状態のまま、対象者が椅子に座った状態から立ち上がると(起立動作)、指先記録用カメラ400から動き検知部121に入力される第3撮影画像データに基づき、動き検知部121が、対象者の動きを検知する(ステップS211)。
 次に、指先記録用カメラ400から指先変化情報取得部111に入力される第3撮影画像データに基づき、指先変化情報取得部111が、対象者の指先データの時系列変化を示す指先変化情報を取得する(ステップS212)。指先変化情報取得部111の色空間処理部140は、指先変化情報を、R成分、G成分及びB成分の3つの色成分等に分解する色分解処理を行う。
 次に、指先変化情報取得部111は、取得された指先変化情報を解析する(ステップS213)。指先変化情報取得部111は、色空間処理部140により色分解処理をされた指先変化情報に含まれる色成分から、前記生理状態の特徴が表れるR成分、および/または、紅斑指数、ヘモグロビン成分などの変換値を取得する。
 次に、対象者の動きを検知した時の指先データに基づいて、生理状態判定部130が、対象者の生理状態を判定する(ステップS214)。具体的には、生理状態判定部130は、対象者の動きの前後における、指先変化情報取得部111が指先データから取得した生理状態の特徴が表れる成分、および/または、変換値に基づいて、対象者の血圧、脈拍、心拍、自律神経系の低下又は亢進などの、対象者の精神又は身体の生理状態を判定することができる。
 次に、制御部101は、生理状態判定部130による対象者の精神又は身体の生理状態の判定結果を出力部(不図示)に出力して(ステップS215)、処理を終了する。
 (4)特徴
 (4-1)
 判定システム2では、体表面データは、対象者の指先の表面から得られるデータである。
 このため、判定システム2では、簡単な操作により精神又は身体の生理状態の判定結果を得ることができる。
 (4-2)
 判定システム2では、指先記録用カメラ400を指先に接触させることで指先データを取得することができる。
 このため、判定システム2では、環境光や対象者等の動きの影響を抑制でき、簡単な操作により指先データを得ることができる。
 (4-3)
 判定システム2では、動き検知部121は、指先データに基づいて対象者の動きを検知する。
 判定システム2は、対象者の位置記録用のカメラが不要であるため、構造がシンプルとなり、製造コストが抑制される。
 (5)変形例
 (5-1)変形例2A
 判定システム2では、ステップS213において、指先変化情報取得部111が指先変化情報から取得する色成分は、R成分とした。これは、R成分が、生体を透過しやすく、照明403の光量が十分でない場合でもセンサ401での検出がしやすいという性質を有するためである。
 このため、光量を十分に確保できるといった、R成分を用いなくてもセンサ401での検出が可能である場合には、指先変化情報取得部111が指先変化情報から取得する色成分は、R成分以外のG成分やB成分であってもよい。
 (5-2)変形例2B
 指先記録用カメラ400は、顔面記録用カメラ200と同様に赤外線カメラであってもよい。
 図2Aに示した動作を対象者に行わせて、第1実施形態に係る判定システム1により、生理状態の判定を行った。あわせて、判定システム1の評価のために、連続血圧計による血圧、および、心拍数の測定を同時に行った。
 今回のテストでは、測定機器として、連続血圧計には、Finapres製のBP Monitor Ohmedaを使用した。記録装置には、横河電気製のデジタルオシロDL1640を使用した。顔面記録用カメラ200には、Panasonic製 カメラ A1Hを使用した。顔位置記録用カメラ300には、Watec製 カメラ WAT-01U2を使用した。連続血圧計は接触式である。
 なお、連続血圧計は、今回のテストで用いているが、図1の全体システムの構成要件ではない。
 図3A~図3Dは、今回のテストの測定結果の一例を示す。
 対象者は、年齢が34歳、性別が男性の健常者である。
 図3Aは、連続血圧計で対象者の血圧を測定した結果を示す。縦軸が血圧(mmHg)、横軸が時間(秒)を示す。
 図3Bは、脈拍数から対象者の心拍数を推定した結果を示す。縦軸が心拍数(回/分)、横軸が時間(秒)を示す。
 図3Cは、制御部100により得られた対象者の顔色の変化を示す。縦軸が、顔面記録用カメラ200から入力された第1撮影画像データから得た顔面変化情報を色分解処理することにより得られたGreen成分を示す。縦軸が顔面データに含まれるGreen成分、横軸が時間(秒)を示す。Green成分は、第1撮影画像データの所定範囲に含まれる複数の画素における、Green成分の画素値(階調)の平均である。
 図3Dは、判定システム100により得られた対象者の顔の高さの変化を示す。縦軸が、顔位置記録用カメラ300が撮影した第2撮像画像データにおける顔の、0秒を原点とした第2撮像画像データ中の高さ座標を示す。横軸が時間(秒)を示す。
 図3Dに示すように、坐位時間が0秒で顔の高さは0である。次に測定が開始されると、時間0~30秒まで対象者が椅子に座り安静にしているので、顔の高さは0のままである。測定が開始されて30秒後に、対象者が起立動作をすると、顔の高さは約900画素になる。その後、対象者は立ったまま60秒間安静にしているので、時間30~90秒の間、顔の高さは約900画素のままである。
 図3A~図3Cで、測定開始後30秒前後の縦線は、対象者が椅子に座った状態から立ち上がったタイミングを示す。
 図3Aに示すように、対象者が測定開始から30秒経過後に立ち上がって、時間30~40秒までの間に血圧が低下している。その後40秒から50秒の間に血圧が上昇し、時間0~30秒の坐位の時の血圧と同程度に戻っている。
 図3Bに示すように、対象者が測定開始から30秒経過後に立ち上がって、時間30~50秒までの間に心拍数が上昇している。その後測定開始から50秒経過後に心拍数が減少し、時間0~30秒の坐位の時の心拍数と同程度に戻っている。
 図3Cに示すように、対象者が測定開始から30秒経過後に立ち上がって、時間30~40秒までの間に顔色のGreen成分が増加方向に変化している。これは、対象者が椅子に座った状態から立ち上がると、血圧が低下して、顔色が青くなっていることを示す。その後40秒から50秒の間に顔色のGreen成分が一旦減少し、再度増加している。測定開始から50秒以上経過すると、顔色のGreen成分は時間0~30秒の坐位の時と同程度に戻っている。
 このように対象者の顔の高さが変化したタイミングで、血圧、心拍数、顔色が変化している。
 今回のテストで、顔面記録用カメラ200で得られた顔面データに基づく顔色に関するデータと、血圧や心拍数を接触式で測定したデータとが合致することが確認された。
 図3Cに示すように、健常者は椅子に座った状態から立ち上がると、顔色のGreen成分が増加して顔色が変化するが、その後すぐに顔色のGreen成分が減少して顔色が元に戻っている。
 ここで、起立性低血圧の検出では、体位変化時の血圧の変化を測定する必要がある。健常者では体位変化によって、血圧は一時的に低下し短時間で元に戻る。この生理的な反応によりいわゆる「立ちくらみ」が防止される。また心拍数は逆に上昇し徐々に元に戻る。それに対して顔色は血圧とほぼ同じ変化をするので、本実施形態の判定システム1は、例えば、非接触で安価な起立性低血圧の検出として有効である。具体的には、判定システム1では、生理状態判定部130は、顔面変化情報に基づいて、顔色のGreen成分が対象者の起立動作により増加してから坐位と同程度へ戻るまでの時間を求めて、これを所定の基準時間と比較する。生理状態判定部130は、顔色のGreen成分が坐位と同程度へ戻るまでの時間が、基準時間よりも長い場合に、対象者に起立性低血圧のおそれがあることを判定ができる。
 図4A~図4Dは、今回のテストの測定結果の他の例を示す。
 対象者は、年齢が33歳、性別が男性の健常者である。図4A~図4Dの対象者の測定結果は、図3A~図3Dとほぼ同じ測定結果が得られた。
 図5A~図5Dは、今回のテストの測定結果の他の例を示す。
 対象者は、年齢が52歳、性別が男性の健常者である。図5A~図5Dの対象者の測定結果は、図3A~図3Dとほぼ同じ測定結果が得られた。
 第2実施形態に係る判定システム2により、生理状態の判定を行った。あわせて、判定システム2の評価のために、連続血圧計による血圧の測定を同時に行った。
 判定システム2の判定で、対象者は、椅子に座り60秒間安静にし(坐位)、測定者が起立指示をすると、起立動作を経た後、立った状態で60秒間安静にする(立位)という動作を5回行った。それぞれの回の間では、対象者は十分な休憩をとった。
 実施例4に係るテストでは、測定機器として、連続血圧計には、Finapres製のBP Monitor Ohmedaを使用した。記録装置には、横河電気製のデジタルオシロDL1640を使用した。指先記録用カメラ400には、Apple製 iPhone(登録商標) 6sに付属するデジタルカメラを使用した。連続血圧計は接触式である。
 撮影時は、指先記録用カメラ400のレンズ横の正面をONとした。また、指先記録用カメラ400での撮影には、iPhone 6sに標準でインストールされているカメラアプリを用いた。撮影条件は720p、240fpsとし、コーデックはH.264(可逆圧縮)とした。指先記録用カメラ400は、判定の間、対象者が心臓の高さに保持した。
 実施例4に係る判定システム2では、R成分、G成分、および、B成分を用いて数1に示した式から紅斑指数を求めた。
 なお、連続血圧計は、今回のテストで用いているが、判定システム2の構成要件ではない。 図9A~9Eは、実施例4のテストの1~5回目の測定結果を示す。
 対象者は、年齢が34歳、性別が男性の健常者である。
 図9A~9Eはそれぞれ、上から順に、血圧、R成分、G成分、B成分、紅斑指数を示す。
 血圧は、連続血圧計で対象者の血圧を測定した結果であり、縦軸が血圧(mmHg)、横軸が時間(秒)を示す。
 R成分、G成分、および、B成分は、指先記録用カメラ400で得られた指先データから指先変化情報取得部111により得られた値であり、縦軸が各色成分、横軸が時間(秒)を示す。各色成分は、第3撮影画像データの所定範囲に含まれる複数の画素における、各色成分の画素値(階調)の平均である。
 紅斑指数は、R成分、G成分、および、B成分から指先変化情報取得部111により得られた値であり、縦軸が紅斑指数、横軸が時間(秒)を示す。
 図9A~9Eに示されるように、対象者が測定開始から60秒経過後に立ち上がると、血圧は、時間60~70秒までの間に低下している。その後、血圧は、70秒~80秒の間に上昇し、時間0~60秒の坐位の時と同程度に戻っている。
 図9A~9Eに示されるように、対象者が測定開始から60秒経過後に立ち上がって、時間60~70秒までの間にR成分が増加方向に変化している。これは、対象者が椅子に座った状態から立ち上がると、血圧が低下して、指先の色が赤くなっていることを示す。その後70秒から80秒の間にR成分が一旦減少し、再度増加している。測定開始から90秒を経過すると、R成分は時間0~60秒の坐位の時と同程度に戻っている。そして、R成分、G成分、および、B成分から得られた紅斑指数についても同様の傾向がみられた。
 実施例4のテストにより、指先記録用カメラ400で得られた指先データに基づくデータと、血圧を接触式で測定したデータとが合致することが確認された。また、これにより、判定システム2を用いても、判定システム1と同様に、起立性低血圧の判定が可能であることが確認された。
 なお、実施例4のテストでは、図9Bに示された、第2回のテストを除いてG成分の検出値がゼロに近い値となった。これは、R成分以外のG成分、および、B成分が生体を透過しにくく、十分な量の光がセンサ401まで達しなかったためと考えられる。
 以上、本開示の実施形態を説明したが、特許請求の範囲に記載された本開示の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
1、2 判定システム
100、101 制御部
110 顔面変化情報取得部(体表面変化情報取得部)
111 指先変化情報取得部(体表面変化情報取得部)
120 動き検知部
130 生理状態判定部
140 色空間処理部
200 顔面記録用カメラ(第1撮影部)
300 顔位置記録用カメラ(第2撮影部)
400 指先記録用カメラ
実用新案登録3121842号公報

Claims (12)

  1.  対象者の体表面の一部から得られる体表面データの時系列変化を示す体表面変化情報を取得する体表面変化情報取得部(110)と、
     前記対象者の動きを検知する動き検知部(120)と、
     前記対象者の動きを検知した時の体表面データに基づいて、前記対象者の精神又は身体の生理状態を判定する生理状態判定部(130)と、
     を備える判定システム(1)。
  2.  前記体表面データは、前記対象者の顔面から得られるデータである、
    請求項1に記載の判定システム。
  3.  前記体表面データは、前記対象者の顔色に関するデータである、
    請求項1に記載の判定システム。
  4.  前記体表面データは、前記対象者の指先の表面から得られるデータである、
    請求項1に記載の判定システム。
  5.  前記対象者に接することなく前記体表面を撮影する第1撮影部(200)をさらに備え、
     前記体表面データは、前記第1撮影部が撮影した第1撮影画像データである、
    請求項1に記載の判定システム。
  6.  前記体表面変化情報取得部は、前記体表面変化情報を、所定の色成分に分解する色分解処理を行う色空間処理部(140)を有する、
    請求項1から5のいずれかに記載の判定システム。
  7.  前記色空間処理部は、前記色分解処理において、前記体表面変化情報を、R成分、G成分、および、B成分の3つの色成分に分解する、
    請求項6に記載の判定システム。
  8.  前記体表面変化情報取得部は、前記色空間処理部により前記色分解処理をされた前記体表面変化情報に含まれる色成分から、前記生理状態の特徴が表れる成分、および/または、変換値を取得する、
    請求項6または7に記載の判定システム。
  9.  前記対象者の動きは、前記対象者の頭部または心臓の高さ変化を含む動きである、
    請求項1に記載の判定システム。
  10.  前記対象者に接することなく前記対象者を撮影する第2撮影部(300)をさらに備え、
     前記動き検知部は、前記第2撮影部が撮影した第2撮影画像データに基づいて前記対象者の動きを検知する、
    請求項1に記載の判定システム。
  11.  前記動き検知部は、前記体表面データに基づいて前記対象者の動きを検知する、
    請求項1から5のいずれかに記載の判定システム。
  12.  前記生理状態は、前記対象者の血圧、脈拍、心拍、自律神経系の低下又は亢進を含む、
    請求項1に記載の判定システム。
PCT/JP2020/022516 2019-06-07 2020-06-08 判定システム WO2020246615A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20818867.2A EP3981324A4 (en) 2019-06-07 2020-06-08 RATING SYSTEM
CN202080042000.1A CN113939226A (zh) 2019-06-07 2020-06-08 判定系统
US17/616,943 US20220322951A1 (en) 2019-06-07 2020-06-08 Determination system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019107501 2019-06-07
JP2019-107501 2019-06-07

Publications (1)

Publication Number Publication Date
WO2020246615A1 true WO2020246615A1 (ja) 2020-12-10

Family

ID=73652566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022516 WO2020246615A1 (ja) 2019-06-07 2020-06-08 判定システム

Country Status (5)

Country Link
US (1) US20220322951A1 (ja)
EP (1) EP3981324A4 (ja)
JP (1) JP6943319B2 (ja)
CN (1) CN113939226A (ja)
WO (1) WO2020246615A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3121842U (ja) 2006-02-09 2006-06-01 テルモ株式会社 血圧測定装置
JP2015506186A (ja) * 2011-12-20 2015-03-02 コーニンクレッカ フィリップス エヌ ヴェ ユーザの圧受容器反射をモニタリングする方法及び装置
JP2015054223A (ja) * 2013-09-13 2015-03-23 旭化成株式会社 血圧情報出力装置、血圧情報出力プログラム、媒体、血圧情報出力方法
WO2018163361A1 (ja) * 2017-03-09 2018-09-13 株式会社資生堂 携帯端末、香り発生装置、サーバ、香り決定方法およびプログラム
KR20190050725A (ko) * 2017-11-03 2019-05-13 주식회사 딥메디 모바일 단말을 이용한 맥파 신호 및 스트레스 측정 방법 및 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140121540A1 (en) * 2012-05-09 2014-05-01 Aliphcom System and method for monitoring the health of a user
JP6167614B2 (ja) * 2013-03-29 2017-07-26 富士通株式会社 血流指標算出プログラム、血流指標算出装置および血流指標算出方法
WO2015045554A1 (ja) * 2013-09-26 2015-04-02 シャープ株式会社 生体情報取得装置および生体情報取得方法
JP6024728B2 (ja) * 2014-08-08 2016-11-16 カシオ計算機株式会社 検出装置、検出方法及びプログラム
JP6493680B2 (ja) * 2014-10-09 2019-04-03 パナソニックIpマネジメント株式会社 非接触血圧測定装置、及び、非接触血圧測定方法
JP6467966B2 (ja) * 2015-02-13 2019-02-13 オムロン株式会社 健康管理補助装置及び健康管理補助方法
JP6308161B2 (ja) * 2015-03-31 2018-04-11 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
WO2016163019A1 (ja) * 2015-04-10 2016-10-13 株式会社日立製作所 生体情報分析システム
JP6481635B2 (ja) * 2016-02-15 2019-03-13 オムロン株式会社 接触判定装置、制御装置、接触判定システム、接触判定方法及び接触判定プログラム
CN110248591B (zh) * 2017-01-04 2022-05-31 皇家飞利浦有限公司 用于感测对象的生理信息的传感器设备和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3121842U (ja) 2006-02-09 2006-06-01 テルモ株式会社 血圧測定装置
JP2015506186A (ja) * 2011-12-20 2015-03-02 コーニンクレッカ フィリップス エヌ ヴェ ユーザの圧受容器反射をモニタリングする方法及び装置
JP2015054223A (ja) * 2013-09-13 2015-03-23 旭化成株式会社 血圧情報出力装置、血圧情報出力プログラム、媒体、血圧情報出力方法
WO2018163361A1 (ja) * 2017-03-09 2018-09-13 株式会社資生堂 携帯端末、香り発生装置、サーバ、香り決定方法およびプログラム
KR20190050725A (ko) * 2017-11-03 2019-05-13 주식회사 딥메디 모바일 단말을 이용한 맥파 신호 및 스트레스 측정 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3981324A4

Also Published As

Publication number Publication date
US20220322951A1 (en) 2022-10-13
JP6943319B2 (ja) 2021-09-29
CN113939226A (zh) 2022-01-14
EP3981324A4 (en) 2023-05-24
JP2020199259A (ja) 2020-12-17
EP3981324A1 (en) 2022-04-13

Similar Documents

Publication Publication Date Title
US9854976B2 (en) Pulse wave velocity measurement method
JP2021045600A (ja) 生体情報検出装置
JP7068339B2 (ja) 血圧測定装置、および、血圧測定方法
CN106456071A (zh) 用于确定对象的血液中的物质的浓度的设备、系统和方法
EP3226765A1 (en) Device and method for skin detection
JP6620999B2 (ja) 生体情報計測装置、生体情報計測プログラム、及び生体情報計測方法
JP2006084425A (ja) マルチスペクトル画像処理方法及びマルチスペクトル皮膚画像による診断方法
JP2019097757A5 (ja)
JP7051083B2 (ja) 心理状態判定方法、判定装置、判定システムおよび判定プログラム
KR101647883B1 (ko) 액션 트레머 진단을 위한 손 떨림 측정 장치 및 방법
WO2019173283A1 (en) Method and apparatus for non-invasive hemoglobin level prediction
WO2019145142A1 (en) Device, system and method for determining at least one vital sign of a subject
EP3422931B1 (en) Device, system and method for determining a vital sign of a subject
WO2020246615A1 (ja) 判定システム
CN111820870B (zh) 生物影像处理方法以及生理信息检测装置
JP6607259B2 (ja) 脈波分析装置、脈波分析方法、および脈波分析プログラム
KR102243017B1 (ko) 얼굴 피부 영상을 이용한 우울증 지수 측정 및 진단 방법
KR101135067B1 (ko) 레이노 현상 검사 장치 및 방법
Sacramento et al. A real-time software to the acquisition of heart rate and photoplethysmography signal using two region of interest simultaneously via webcam
WO2015068494A1 (ja) 器官画像撮影装置
WO2022064825A1 (ja) 電子装置、電子装置の制御プログラム及び電子装置の制御方法
KR102473744B1 (ko) 가림 안가림 검사 중 획득한 안구 이미지 분석을 통한 사시진단방법
JP7387802B2 (ja) 検査装置、検査方法及びプログラム
JP7487124B2 (ja) 血流分析装置、生体情報分析システム
JP7106126B2 (ja) 自律神経系活動評価装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20818867

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2020818867

Country of ref document: EP