WO2022065847A1 - 광학 센서의 오차 보정 방법 및 장치와, 생체정보 추정 장치 - Google Patents

광학 센서의 오차 보정 방법 및 장치와, 생체정보 추정 장치 Download PDF

Info

Publication number
WO2022065847A1
WO2022065847A1 PCT/KR2021/012886 KR2021012886W WO2022065847A1 WO 2022065847 A1 WO2022065847 A1 WO 2022065847A1 KR 2021012886 W KR2021012886 W KR 2021012886W WO 2022065847 A1 WO2022065847 A1 WO 2022065847A1
Authority
WO
WIPO (PCT)
Prior art keywords
light source
standard
detector
optical sensor
error
Prior art date
Application number
PCT/KR2021/012886
Other languages
English (en)
French (fr)
Inventor
문현석
김상규
김윤재
박진영
안성모
엄근선
정명훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority claimed from KR1020210124943A external-priority patent/KR20220041750A/ko
Publication of WO2022065847A1 publication Critical patent/WO2022065847A1/ko
Priority to US18/126,156 priority Critical patent/US20230233084A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1495Calibrating or testing of in-vivo probes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors

Definitions

  • the present invention relates to a technology for correcting an error of an optical sensor, and more particularly, to a technology for correcting a distance error between a light source and a detector of an optical sensor.
  • a technology for estimating various biometric information non-invasively using an optical sensor has been developed.
  • a spectrum is measured from a sample to be analyzed through an optical sensor, and biometric information including an antioxidant index can be estimated using the absorbance of the measured spectrum.
  • the optical sensor is precisely designed so that the distance between the light source and the detector is constant. If an error of 0.1 mm occurs in the distance between the light source of the optical sensor and the detector, the absorbance may change by about 5%. As such, when there is a difference in the distance between the light source and the detector for each device on which the optical sensor is mounted, a difference may occur in the accuracy of the biometric information estimation value for each device.
  • a method of correcting a distance error by measuring a physical distance between a light source of an optical sensor and a detector is known.
  • An apparatus and method for correcting an error of an optical sensor by using a difference in the amount of light between two points obtained from a standard material through the optical sensor or image gradation are provided.
  • the error correction method of an optical sensor including a light source and a detector includes the steps of adjusting the brightness of the light source to standard brightness, irradiating light to a standard material through the light source, and obtaining standard material data through the detector , using the obtained standard material data to correct a distance error between the light source and the detector of the optical sensor based on the difference in the amount of light between at least two points or the gradation of the image.
  • the step of correcting the error may include detecting a change in the distance between the light source and the detector compared to the standard distance, and correcting the distance error between the light source and the detector based on the change in the detected distance.
  • the step of correcting the error may include calculating a slope between standard points predefined in the detector, and detecting a change in the distance between the light source and the detector based on the calculated slope and the standard slope.
  • the first slope between the X coordinate points of the standard points and the second slope between the Y coordinate points are calculated, and a change in the distance between the light source and the detector is detected based on the calculated first slope and the second slope.
  • Correcting the error may reset the coordinates of the detector detection area with respect to the light source based on the change in the detected distance.
  • step of irradiating light another light source irradiating light of the same wavelength as the light source is simultaneously driven, and in the step of correcting the error, the contour line at the position of the standard contour line is detected from the standard material data, and the contour slope between the detected contour lines is calculated. and a change in the distance between the light source and the detector may be detected based on the calculated contour slope and the standard contour slope.
  • the step of correcting the error may include detecting a vector between the light source and another light source, and moving the coordinates of the detection area of the detector with respect to the light source based on the change in the distance between the light source and the detector on the detected vector.
  • an apparatus for correcting an error of an optical sensor including a light source and a detector includes a processor, the processor adjusts the brightness of the light source to standard brightness, and a sensor control unit that drives the light source to irradiate light to a standard material, and a detector; and an error correcting unit for correcting a distance error between a light source and a detector of the optical sensor based on a difference in the amount of light between at least two points or a gradation of an image using the standard material data obtained by .
  • the error correction device of the optical sensor includes at least one of standard brightness of the light source of the standard optical sensor, positional information of standard points, standard slope between standard points, standard contour slope of standard points, and standard distance between the light source and the image sensor It may further include a storage unit for storing standard information including.
  • the error correcting unit may detect a change in the distance between the light source and the detector compared to the standard distance, and correct the distance error between the light source and the detector based on the change in the detected distance.
  • the error correcting unit may calculate a slope between standard points predefined in the detector, and detect a change in the distance between the light source and the detector based on the calculated slope and the standard slope.
  • the error correcting unit may calculate a first inclination between the X coordinate points of the standard points and a second inclination between the Y coordinate points, and detect a change in the distance between the light source and the detector based on the calculated first and second inclinations.
  • the error correcting unit may reset the coordinates of the detector detection area with respect to the light source based on the change in the detected distance.
  • the sensor control unit simultaneously drives another light source irradiating light of the same wavelength as the light source, and the error correction unit detects a contour line at a standard contour position from the standard material data, calculates a contour slope between the detected contour lines, and calculates the calculated contour slope
  • a change in the distance between the light source and the detector may be detected based on a slope of a standard contour line.
  • the error correcting unit may detect a vector between the light source and another light source, and move the coordinates of the detection area of the detector with respect to the light source on the detected vector based on a change in the distance between the light source and the detector.
  • the method of correcting an error of an optical sensor including a light source and a first detector and a second detector includes irradiating light to a standard material through a light source, such that the measured value of the first detector becomes the first measured value. adjusting the brightness of the light source, obtaining a second measured value from the second detector, calculating a gradient based on a difference between the first measured value and the second measured value, and a light source based on the calculated gradient - It may include correcting a distance error between the second detectors.
  • Correcting the error may include obtaining a correction coefficient of the second measured value based on the calculated slope.
  • the correcting of the error may include determining an optical path length between the light source and the second detector, and obtaining a correction coefficient of the second measured value based on the determined optical path length.
  • Correcting the error may include calculating a distance between the light source and the second detector based on the calculated slope, and determining the optical path length based on the calculated distance.
  • the correcting of the error may include calculating a ratio between the standard inclination of the standard optical sensor and the calculated inclination, and determining the optical path length based on the calculated ratio.
  • the error correction device includes a processor, the processor irradiates light to a standard material through the light source, and the first The sensor control unit that adjusts the brightness of the light source so that the measured value of the detector becomes the first measured value, and a second measured value are obtained from the second detector, and the slope is calculated based on the difference between the first measured value and the second measured value and may include an error correction unit for correcting a distance error between the light source and the second detector based on the calculated slope.
  • the apparatus for estimating biometric information uses an optical sensor including a light source and a detector, a sensor controller driving the light source, and a standard material to correct a distance error or a light source state between the light source and the detector of the optical sensor, and after correction
  • a processor for estimating biometric information using the subject data obtained through an optical sensor wherein the processor drives the light source to irradiate light to a standard material by adjusting the brightness of the light source to a standard brightness, and is obtained by a detector
  • the distance error between the light source and the detector of the optical sensor may be corrected based on the difference in the amount of light or the image gradation between at least two points using the standard material data.
  • the processor may correct the state of the light source so that the brightness of the light source becomes the standard brightness.
  • the processor may correct the biometric information estimation model based on the correction result, and estimate the biometric information using the corrected biometric information estimation model.
  • the processor may estimate the biometric information by using data obtained from the reset detection area as a result of error correction of the optical sensor.
  • the processor may estimate biometric information by applying a correction coefficient obtained as a result of error correction of the optical sensor to data obtained from the subject.
  • An error of the optical sensor may be corrected using the standard material data obtained through the optical sensor. Through this, it is possible to improve the accuracy of bioinformation estimation including antioxidant indicators.
  • FIG. 1 is a block diagram of an error correction apparatus according to an exemplary embodiment.
  • FIG. 2 is a flowchart of an error correction method according to an exemplary embodiment.
  • 3A and 3B are diagrams for explaining an embodiment of correcting an error of an optical sensor.
  • FIG. 4 is a flowchart of an error correction method according to another exemplary embodiment.
  • 5A to 5C are diagrams for explaining an embodiment of correcting an error of an optical sensor.
  • FIG. 6 is a flowchart of an error correction method according to another exemplary embodiment.
  • FIGS 7A to 7C are diagrams for explaining an embodiment of correcting an error of an optical sensor.
  • FIG. 8 is a flowchart of an error correction method according to another exemplary embodiment.
  • 9A to 9C are diagrams for explaining an embodiment of correcting an error of an optical sensor.
  • FIG. 10 is a block diagram of an apparatus for estimating biometric information according to an embodiment.
  • 11 is a flowchart of a method for estimating biometric information according to an embodiment.
  • FIG. 12 illustrates a wearable device including a biometric information estimation device.
  • FIG. 13 illustrates a mobile device including a biometric information estimation device.
  • FIG. 14 is a view illustrating a state in which the wearable device is mounted on a charger coated with a reflective material.
  • FIG. 1 is a block diagram of an apparatus for correcting an error of an optical sensor according to an exemplary embodiment.
  • the optical sensor 10 includes a light source 11 and a detector 12 .
  • the light source 11 is formed of one or more light emitting materials, and includes, for example, a light emitting diode (LED), a laser diode (LD), a phosphor, and the like, but is not limited thereto.
  • the detector 12 is a device that detects light and converts it into an electrical signal, and may output a signal by accumulating charges in response to light and detecting a potential change due to the accumulated charges.
  • the detector 12 may be a complementary metal-oxide semiconductor (CMOS) image sensor, a photodiode array, or one or more photodiodes, but is not limited thereto.
  • CMOS complementary metal-oxide semiconductor
  • the optical sensor 10 may be mounted on devices for estimating various bio-information including antioxidant indicators.
  • the light source 11 and the detector 12 of the optical sensor 10 have various shapes and a certain standard distance depending on the size of the form factor of the devices, the measurement site of the subject, the type of biometric information to be analyzed, etc. can be arranged to have.
  • the distance between the light source 11 and the detector 12 may slightly deviate from the standard distance, which may reduce the accuracy of the signal measured by the optical sensor 10 .
  • the error correcting apparatus 100 of the optical sensor 10 may correct a distance deviation between the light source 11 and the detector 12 .
  • the error correction apparatus 100 may include a processor 110 , a storage unit 120 , and a display unit 130 .
  • the processor 110 , the storage unit 120 , and the display unit 130 of the error correction apparatus 100 may be integrated into one hardware configuration, or may be separately formed on two or more different pieces of hardware.
  • the processor 110 is directly or wirelessly connected to the optical sensor 10 to be calibrated and uses a signal output from the sensor controller 111 to control the driving of the optical sensor 10 and the optical sensor 10 .
  • An error correction unit 112 for correcting an error of the optical sensor 10 may be included.
  • the sensor controller 111 may drive the light source 11 to be corrected of the optical sensor 10 to irradiate the standard material with light.
  • the standard material may be a reflective mirror that reflects the light of the light source 11 or a reflector on which a reflective material is applied.
  • the reflective material may be a diffuse reflection material having a reflectivity of 1% to 99%, and may include, for example, barium sulfate (BaSo4) and Teflon (PTEF), but is not limited thereto.
  • the present invention is not limited thereto, and it may be pure water or a solution simulated similarly to the component of the subject, solid or semi-solid.
  • the sensor control unit 111 corresponds to the light source 11 to be corrected with reference to the storage unit 120 in order to prevent the light path from being changed according to the brightness of the light source 11 when the light source 11 to be corrected is driven. to obtain standard brightness information of the light source of the standard optical sensor, and adjust the brightness of the light source 11 to be corrected based on the standard brightness information.
  • the standard brightness information stored in the storage unit 120 may include a standard current intensity, a standard duration, and a standard amount of light.
  • the sensor controller 111 may drive a light source to be corrected with a standard current strength.
  • the sensor controller 111 may adjust the current intensity of the light source 11 to be driven so that the amount of light measured at the standard point of the detector 12 becomes the standard amount of light measured at the standard point of the standard optical sensor detector. In this case, when the brightness of the light source 11 to be corrected cannot be adjusted to the standard brightness, the sensor controller 111 may output an error message for the light source 11 through the display unit 130 .
  • the error correction unit 112 receives the standard material data from the detector 12 when the light reflected by the standard material irradiated by the light source 11 to be corrected is detected by the detector 12 and data is generated, A distance error between the light source 11 and the detector 12 may be corrected using the received standard material data. For example, the error correcting unit 112 determines that the distance between the light source 11 and the detector 12 is the standard distance between the light source and the detector of the standard optical sensor using the difference in the amount of light between at least two points or the image gradation using the standard material data.
  • the contrast change amount is calculated, and the coordinates of the detector 12 detection area with respect to the light source 11 are reset based on the calculated change amount of the distance between the light source 11 and the detector 12, or the measurement measured by the detector 120 A value, for example, a correction coefficient for correcting absorbance for each wavelength may be determined.
  • the storage unit 120 may store standard information necessary for error correction.
  • the standard information may include standard brightness information of a light source of a standard optical sensor, for example, information such as a standard amount of light, a standard current strength, and/or a standard duration.
  • location information of standard points on the detector of the standard optical sensor eg, pixel coordinates of standard points
  • standard slope between standard points, standard contour position, standard contour slope between standard contour lines, and/or light source of standard optical sensor -Can include standard distance between detectors, etc.
  • the present invention is not limited thereto.
  • the storage unit 120 includes a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), a RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read Only Memory), PROM (Programmable Read Only Memory), magnetic memory, magnetic disk, optical disk It may include a storage medium such as, but is not limited thereto.
  • a storage medium such as, but is not limited thereto.
  • the display unit 130 may visually provide information processed by the processor 110 .
  • the display unit 130 may visually display the image gradation of the standard material, the position of the detector detection region before error correction with respect to the light source, and/or the position of the detector detection region reset after error correction or the coordinate axes before and after correction.
  • the display unit 230 may include a display, a hologram device, or a projector, and a touch circuitry configured to sense a touch and/or a sensor circuit configured to measure the intensity of a force generated by a touch, for example, pressure It may include a sensor and the like.
  • the error correction apparatus 100 corrects the error of the optical sensor 10 including the plurality of LEDs 310 and the image sensor 320 will be described with reference to FIGS. 2 to 7C .
  • the present invention is not limited thereto and may be applied to other types of light sources and/or optical sensors formed of photodiode arrays.
  • FIG. 2 is a flowchart of an error correction method according to an exemplary embodiment.
  • 3A and 3B are diagrams for explaining an embodiment of correcting an error of an optical sensor.
  • the sensor controller 111 may select a light source to be corrected and calibrate the brightness of the selected light source ( 210 ).
  • an image sensor 320 may be disposed in the center of the optical sensor, and a plurality of LEDs 310 may be disposed around the image sensor 320 .
  • the plurality of LEDs 310 may be arranged to have a predetermined shape around the image sensor 320 .
  • a plurality of LEDs LED1, LED2, LED3, LED4 are disposed on one side of the image sensor 320, and a plurality of LEDs (LED1', LED2', LED3', on the other side of the image sensor 320) LED4') can be arranged.
  • each of the plurality of LEDs (LED1, LED2, LED3, LED4) disposed on one side of the image sensor 320 may be irradiated with light of different wavelengths.
  • a plurality of LEDs (LED1', LED2', LED3', LED4') disposed on the other side of the image sensor 320 irradiate light of different wavelengths, but LED1 and LED1', LED2 and LED2', LED3 and LED3' and LED4 and LED4' may be irradiated with light having the same wavelength as each other.
  • Each LED 310 is arranged to have a standard distance from the image sensor 320 , that is, a distance between the LED of the standard optical sensor and the image sensor, but may be slightly different from the standard distance due to various manufacturing reasons.
  • the sensor control unit 111 selects an LED to be corrected, such as LED1, to correct an error caused by a minute change in distance between each LED 310 and the image sensor 320, and has the same optical path as LED1 of the standard optical sensor.
  • the brightness of the selected LED1 can be adjusted to the standard brightness of the LED1 of the standard optical sensor.
  • the sensor controller 111 may irradiate light to the standard material by driving the LED 310 calibrated to the standard brightness ( 220 ).
  • the error correcting unit 112 is driven using the difference in the amount of light between at least two points or the image gradation using the obtained standard material data.
  • a distance error between the LED and the image sensor may be corrected ( 240 ).
  • the image data of the standard material obtained by the image sensor 320 includes, for example, data on the amount of light received by each pixel of the image sensor 320, and the amount of light for each pixel may be expressed as an image gradation of the standard material.
  • a slight change in the position of the LED 310 is a factor causing a change in the gradation of the standard material image obtained by the image sensor 320 .
  • the slope (S1,S2) between the two points (d1,d2) of the image sensor in the standard optical sensor (SD) and the optical sensor (ND) to be corrected It can be seen that is different as the position of the LED changes.
  • the error correcting unit 112 calculates the slope between the standard points on the image sensor 320 designated for each LED 310 as described above, and calculates the calculated slope with the standard slope between the standard points of the standard optical sensor. By comparison, a change in the distance between the light source and the image sensor can be detected.
  • Equation 1 is an example of an equation for calculating the distance change between the light source and the image sensor using the slope between the standard points and the calculated slope.
  • d 1 and d 2 represent standard distances from the light source of the standard optical sensor to the position of the standard point of the image sensor, for example, pixel coordinates (x 1 ,y 1 ) and (x 2 ,y 2 ).
  • the standard points may be set for each LED of the light source.
  • d' 1 and d' 2 represent the distances from the light source of the optical sensor to be corrected to the position of the standard point of the image sensor, eg, pixel coordinates (x 1 ,y 1 ) and (x 2 ,y 2 ). That is, the standard point position is the same pixel position on the image sensor of the standard optical sensor and the optical sensor to be corrected, and the distance from the LED position to the standard points varies according to the change in the LED position.
  • G L1 and G' L1 represent the slopes between the standard points of the standard optical sensor and the optical sensor to be calibrated, respectively.
  • I(d 1 ) and I(d 2 ) represent the intensity of light received at the standard point location of the standard optical sensor or the absorbance at the standard point location
  • I(d' 1 ) and I(d' 2 ) are the optical It represents the intensity of light received at the standard point position of the sensor or the absorbance at the standard point position.
  • denotes the absorption coefficient obtained in advance for the standard material.
  • the absorbance may be obtained by Lambert-Beer's law.
  • the error correction unit 112 sequentially calculates the distance change ( ⁇ ) between the LED and the image sensor for all LEDs of the light source of the optical sensor to be corrected compared to the standard optical sensor, and can adjust the detection area of the image sensor for each LED. . For example, it is possible to reset the coordinate axis of the image sensor for each LED by the distance change ( ⁇ ), or to move the detection area set in the image sensor for each LED.
  • FIG. 4 is a flowchart of an error correction method according to another exemplary embodiment.
  • 5A to 5C are diagrams for explaining an embodiment of correcting an error of an optical sensor.
  • the sensor control unit 111 adjusts the brightness of the light source to be corrected to the standard brightness of the light source of the standard optical sensor (410), and drives the light source to irradiate light to the standard material (420), and the detector It is possible to obtain standard material data through (430).
  • the error correcting unit 112 may calculate a first slope between the X coordinate points of the standard points by using the standard material data ( 440 ), and calculate a second slope between the Y coordinate points of the standard points. (450).
  • FIG. 5A is a standard optical sensor, wherein the LED1 510S of the standard optical sensor is disposed apart from the coordinate axis SC of the image sensor 520S by a standard distance D1.
  • FIG. 5B illustrates that LED1 510 as an optical sensor to be corrected is shifted more toward the image sensor 520 compared to a standard optical sensor and disposed apart by a distance D2.
  • the standard detection area SA for the LED 510S of the standard optical sensor is set around the standard point positions (d 1x ,d 1y ), (d 2x ,d 2y ) as shown in FIG. 5A .
  • the standard detection area SA must also be shifted.
  • the error correcting unit 112 appropriately shifts the detection area SA of the image sensor for each light source according to the change in the position of the light source, so that the light intensity of the X coordinate points d1x, d2x of the standard point position.
  • the error correcting unit 112 calculates the distance change of the X-axis and the distance change of the Y-axis individually through Equation 1 above using the first and second inclinations respectively calculated with respect to the X-axis and the Y-axis.
  • the coordinate axes may be reset based on the change in the distance on the X-axis and the change in the distance on the Y-axis ( 480 ).
  • Figure 5c illustrates that the coordinate axis (NC) is reset with respect to the LED1 (510) to be corrected.
  • the new coordinate axis (NC) is the standard distance between the LED1 (510) to be corrected and the image sensor 520 and the new coordinate axis It may be reset to have a distance D3 equal to D1) or within a predetermined threshold.
  • FIG. 6 is a flowchart of an error correction method according to another exemplary embodiment.
  • 7A to 7C are diagrams for explaining an embodiment of correcting an error of an optical sensor.
  • the sensor controller 111 adjusts the brightness of the first light source to be corrected to the standard brightness of the light source of the standard optical sensor ( 610 ), and drives the first light source to irradiate light to the standard material. (620).
  • the sensor controller 111 may simultaneously drive the first light source to be corrected and the other second light source.
  • the second light source may be a light source disposed at a position facing the first light source with respect to the image sensor.
  • the second light source may be a light source irradiating light having the same wavelength as the first light source.
  • the error correcting unit 112 may detect a vector between the first light source and the second light source ( 640 ).
  • the vector may be detected based on the arrangement positions of the first light source and the second light source.
  • FIG. 7A illustrates driving the first LED 711S of the standard optical sensor and the second LED 712S located opposite the image sensor 720S.
  • FIG. 7A illustrates driving the first LED 711S of the standard optical sensor and the second LED 712S located opposite the image sensor 720S.
  • contour lines may be more clearly generated on the image. Referring to FIG. 7A , between the standard contour lines d1, d2 and the standard contour lines d1, d2 when the first LED 711S of the standard optical sensor is spaced apart by a standard distance D1 from the coordinate axis of the image sensor 720 A standard contour slope of may be preset.
  • the error correcting unit 112 may detect contour lines (d 1 and d 2 in FIG. 7b ) corresponding to the standard contour lines (d 1 and d 2 in FIG. 7A ) in the standard material image obtained in step 630 ). .
  • a contour slope between the detected contour lines (d 1 and d 2 in FIG. 7B ) may be calculated ( 650 ).
  • the slope between the points where the contour line ( d 1 and d 2 in FIG. 7B ) and the vector detected in step 640 intersect through Equation 1 may be calculated as the contour slope.
  • the present invention is not limited thereto, and various known methods for detecting a contour line in an image and detecting a slope between the contour lines may be used.
  • a change in the distance between the light source and the image sensor may be detected based on the calculated contour slope ( 670 ).
  • the distance change may be detected by comparing the standard contour slope between the standard contour lines calculated through the standard optical sensor with the contour slope calculated in operation 650 .
  • the detection area or the coordinate axis may be moved in the vector direction detected in operation 640 based on the calculated distance change ( 680 ).
  • 7C illustrates that the detection area SA for the first LED 711 is moved.
  • FIGS. 9A and 9C are diagrams for explaining an embodiment of correcting an error of the optical sensor.
  • the optical sensor has barrier ribs PW located on both sides thereof, and one or more LEDs L1 and L2 and a photodiode P1 for monitoring the state of the light sources L1 and L2 between the barrier ribs PW. ) may be arranged one or more.
  • one or more photodiodes P21 and P22 to be used when estimating biometric information may be disposed outside the barrier rib PW. The error correction of the optical sensor to be described below may be performed for all the light sources L1 and L2 and all the photodiodes P21 and P22.
  • a plurality of LEDs, a barrier rib, and a photodiode for estimating biometric information may be arranged in a concentric circle shape around the photodiode P1 for monitoring the state of the light source.
  • the sensor controller 111 may select and drive the LED L1 to be corrected ( 810 ), and adjust the brightness of the selected LED L1 to the standard brightness ( 820 ).
  • the sensor controller 111 may drive the LED (L1) to be corrected, and adjust the brightness of the LED (L1) to be corrected to a standard brightness using, for example, a measurement value of the first photodiode P1. .
  • the current intensity of the LED L1 may be adjusted so that the amount of light measured by the first photodiode P1 becomes the standard light amount of the standard optical sensor.
  • the standard material RM may be measured through the second photodiode P21 ( 830 ).
  • the error correcting unit 112 determines the first measurement value of the first photodiode P1 measured in a state in which the brightness of the LED L1 becomes the standard brightness, that is, the standard light amount and the second photodiode P21.
  • a slope may be calculated using the second measured value ( 840 ).
  • the slope may be calculated based on the difference between the first measured value and the second measured value.
  • I 1 represents the first measured value of the first photodiode P1
  • I 2 represents the second measured value of the second photodiode P21
  • d ref represents the standard distance between the LED and the photodiode of the standard optical sensor. indicates.
  • the error correcting unit 112 may correct a distance error between the LED L1 and the second photodiode P21 based on the calculated slope ( 850 ). For example, a correction factor for correcting an error in the second measurement value according to a change in the distance between the LED L1 and the second photodiode PD21 of the optical sensor to be corrected compared to the standard distance of the standard optical sensor may be obtained. there is.
  • the error correcting unit 112 calculates the distance between the LED (L1) and the second photodiode PD21 through Equation 3, and based on the calculated distance change compared to the standard distance, the LED (L1) and the The optical path length between the second photodiodes PD21 is determined, and a correction coefficient may be obtained based on the determined optical path length variation with respect to the standard optical path length of the standard optical sensor.
  • d new represents the distance between the LED L1 and the second photodiode PD21
  • ⁇ and c represent the molar absorption coefficient and concentration for the standard material, respectively, and are preset values.
  • d ref represents the standard distance of the standard optical sensor
  • const represents the standard light amount of the standard optical sensor
  • Sm represents the calculated slope.
  • the optical path length determination model representing the relationship between the distance between the light source and the detector and the optical path length is expressed as an equation or lookup table. It can be predefined.
  • the error corrector 112 may determine the optical path length by using the optical path length determination model.
  • 9C is an example showing the change in absorbance for each wavelength according to the different optical path lengths PL1, PL2, and PL3.
  • the optical path A correction coefficient acquisition model indicating the relationship between the length change amount and the absorbance correction coefficient for each wavelength may be predefined in the form of an equation or a lookup table.
  • the error correcting unit 112 may obtain a correction coefficient by using a correction coefficient acquisition model.
  • the error correcting unit 112 may obtain a ratio (Sm/Sref) between the calculated slope Sm and the standard slope Sref of the standard optical sensor and determine the amount of change in the distance of the optical sensor to be corrected.
  • a distance variation acquisition model representing the relationship between the gradient ratio and the distance variation may be predefined in the form of an equation or a lookup table, and the distance variation may be acquired using the distance variation acquisition model.
  • the error correcting unit 112 determines the optical path length between the LED L1 and the second photodiode PD21 as described above, and based on the determined optical path length variation compared to the standard optical path length. A correction factor can be obtained.
  • FIG. 10 is a block diagram of an apparatus for estimating biometric information according to an embodiment.
  • the biometric information estimation apparatus 1000 may include an optical sensor 1010 , a processor 1020 , an input unit 1030 , a storage unit 1040 , an output unit 1050 , and a communication unit 1060 . there is.
  • Each of the components may be integrally formed on one piece of hardware, or may be distributed on two or more physically separate pieces of hardware.
  • the optical sensor 1010 includes a light source 1011 and a detector 1012 , and when light irradiated to the subject by the light source 1011 is scattered or reflected from the subject, the light is scattered or reflected through the detector 1012 . By detecting the light, it is possible to obtain a biosignal such as spectral data of the light or a pulse wave signal.
  • the light source 1011 includes one or more light-emitting bodies such as LEDs and LDs, and each light-emitting body may be formed to have a different wavelength.
  • the detector 1012 may be a CMOS image sensor, one or more photodiodes, or a photodiode array, but is not limited thereto.
  • the processor 1020 may be connected to each component 1010 , 1030 , 1040 , 1050 , and 1060 of the biometric information estimation apparatus 1000 to generate a control command for controlling each component and transmit it to each component, and each component It can receive data from and process the received data. It is also possible to transmit the processed data to other components to perform operations required by the other components.
  • the processor 1020 Before using the biometric information estimation apparatus 1000 , for example, the processor 1020 uses a standard material at the manufacturing time of the apparatus 1000 or the first use by the user, the light source 1011 and the detector of the optical sensor 1010 . The distance error between (1012) can be corrected.
  • the processor 1020 adjusts the brightness of the light source 1011 to be corrected based on the standard brightness information of the standard optical sensor, and uses the measurement data of the detector 1012 to determine the light quantity difference between at least two points or the light source based on the image gradation.
  • a distance error between (1011)-detector 1012 may be corrected. For example, by driving the light source 1011 with the standard current intensity in the standard brightness information, or by adjusting the current intensity of the light source 1011 so that the amount of light measured at the standard point of the detector 1012 becomes the standard light amount in the standard brightness information
  • the brightness of the light source 1011 may be adjusted.
  • the standard point of the detector may mean a pixel at a predetermined position among a plurality of pixels in the case of an image sensor or a photodiode array, and may mean a predefined monitoring detector in the case of a plurality of detectors.
  • an error message may be output through the output unit 1050 . Since various embodiments of error correction have been described in detail above, the following will be omitted.
  • the processor 1020 may be corrected based on a user request, a preset period, an environment change (eg, temperature, humidity, etc.)
  • the state of the light source 1011 is corrected so that the brightness of the light source 1011 becomes the standard brightness using the standard material whenever the light source state correction condition is satisfied, such as when the optical sensor is in contact with the standard material. can do.
  • an error message may be output through the output unit 1050 .
  • the processor 1020 determines the standard point of the detector 1012, for example, if the detector is an image sensor or a photodiode array, a pixel at a predetermined position, and if there are a plurality of detectors, the amount of light measured by a predefined monitoring detector is the standard light amount
  • the current intensity of the light source 1011 may be adjusted as much as possible, and the adjusted current intensity may be stored in the storage unit 1040 as a standard current intensity for the corresponding light source 1011 .
  • the processor 1020 may guide the user through the output unit 1050 to position the biometric information estimating apparatus 1000 in the standard material.
  • the standard material may be a charger that supplies power to the biometric information estimating apparatus 1000 , and when the biometric information estimating apparatus 1000 is mounted on the charger, the optical sensor 1010 contacts or faces the optical sensor 1010 .
  • a reflective material may be placed or applied at the viewing location.
  • the processor 1020 may visually or voice guide the body of the biometric information estimation apparatus 1000 to be mounted on the charger through the output unit 850 .
  • the processor 1020 controls the optical sensor 1010 using a correction result of the light source state, for example, the adjusted current intensity of the light source to obtain, for example, absorbance data for each wavelength from the subject, optical Biometric information may be estimated using a result of correction of a distance error and/or a light source state of the sensor 1010 and/or a biometric information estimation model.
  • a correction result of the light source state for example, the adjusted current intensity of the light source to obtain, for example, absorbance data for each wavelength from the subject
  • optical Biometric information may be estimated using a result of correction of a distance error and/or a light source state of the sensor 1010 and/or a biometric information estimation model.
  • biometric information includes antioxidant substances such as carotenoids, blood glucose, urea, uric acid, lactate, triglyceride, calories, protein ), cholesterol, moisture, chromohpore, ethanol, blood pressure, vascular age, arteriosclerosis, aortic pressure waveform, vascular elasticity, stress index, fatigue, skin age and skin elasticity may include, but is not limited to.
  • antioxidant substances such as carotenoids, blood glucose, urea, uric acid, lactate, triglyceride, calories, protein ), cholesterol, moisture, chromohpore, ethanol, blood pressure, vascular age, arteriosclerosis, aortic pressure waveform, vascular elasticity, stress index, fatigue, skin age and skin elasticity may include, but is not limited to.
  • the processor 1020 may estimate the biometric information by using absorbance data for each wavelength obtained in the detection area reset as a result of the distance error correction of the optical sensor 1010 .
  • the absorbance correction coefficient for each wavelength obtained according to the distance error correction of the optical sensor 1010 is applied to the absorbance data for each wavelength obtained from the optical sensor 1010 to correct the absorbance data for each wavelength, and the corrected absorbance data for each wavelength can be used to estimate biometric information.
  • the processor 1020 may correct the biometric information estimation model when the distance error between the light source 1011 and the detector 1012 or the light source state is corrected.
  • the biometric information estimation model indicates the correlation between the absorbance by wavelength and the biometric information, and the absorbance by wavelength and the correct biometric information measurement values obtained from a plurality of users are used as learning data and are linear through machine learning, neural network, artificial intelligence, etc. / It can be created as a non-linear function expression, etc.
  • the processor 1020 determines the amount of change in the distance between the light source 1011 and the detector 1012 of the optical sensor 1010 compared to the standard distance of the standard optical sensor and/or the degree of correction of the light source state and each variable of the biometric information estimation model.
  • the biometric information estimation model may be corrected based on the correlation between the coefficients and/or the offset. For example, an equation representing the correlation between the distance change amount and/or light source state correction degree and the coefficient and/or offset of each variable of the biometric information estimation model may be predefined, and the coefficient of the biometric information estimation model using the equation and/or correct the offset.
  • Equation 4 exemplifies a linear function formula that simply defines a biometric information estimation model.
  • this is only an example and is not limited thereto.
  • y denotes an estimated value of biometric information to be obtained
  • x denotes, for example, absorbance
  • a is the absorbance coefficient
  • b is the offset
  • a predefined value e.g., the offset b according to the correction of the distance error may be corrected by using a linear relational expression indicating the correlation between the offset b and the distance change amount.
  • the biometric information estimation model may be predefined for each step according to the distance change amount between the light source and the detector, and biometric information may be estimated by selecting the biometric information estimation model of the step corresponding to the distance change amount.
  • the input unit 1030 may receive commands and/or data to be used for each component of the biometric information estimation apparatus 1000 , for example, the processor 1020 from a user or an external device.
  • the input unit 1030 may include, but is not limited to, a microphone, a mouse, a keyboard, a touch screen, and/or a digital pen (eg, a stylus pen).
  • the storage unit 1040 includes standard information for error correction of the optical sensor 1010, error correction information of the optical sensor 1010 (eg, reset coordinate information for each light source, brightness for each light source, correction coefficient), biometric information Reference information for estimation, for example, user characteristic information such as the user's health state, gender, and age, and information such as a biometric information estimation model, and a relational expression for correcting the biometric information estimation model may be stored.
  • data generated and/or processed by various components of the apparatus 1000 for estimating biometric information may be stored.
  • the storage unit 1040 includes a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (eg, SD or XD memory).
  • Random Access Memory RAM
  • Static Random Access Memory SRAM
  • Read Only Memory ROM
  • Electrically Erasable Programmable Read Only Memory EEPROM
  • PROM Programmable Read Only Memory
  • magnetic memory It may include a storage medium such as a magnetic disk, an optical disk, but is not limited thereto.
  • the output unit 1050 may output data generated or processed by various components of the biometric information estimation apparatus 1000 to the outside.
  • the output unit 1050 may include a sound output device that outputs a sound signal to the outside.
  • the sound output module may include a speaker and/or a receiver.
  • the output unit 1050 may include a display device that visually provides data to the outside.
  • the display device may include a display, a hologram device, or a projector.
  • the display device may include a touch circuitry configured to sense a touch and/or a sensor circuitry configured to measure the intensity of a force generated by the touch (such as a pressure sensor).
  • the output unit 1050 may include a haptic module for outputting data by touch or vibration.
  • the haptic module may convert an electrical signal into a mechanical stimulus (vibration, movement, etc.) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module may include a motor, a piezoelectric element, and/or an electrical stimulation device.
  • the communication unit 1060 communicates with an external device to transmit data generated and/or processed by each component of the biometric information estimating apparatus 1000 to the external device, and to be utilized in the biometric information estimating apparatus 1000 from the external device. data can be received.
  • the external device may include an information processing device such as a smart phone, a tablet PC, a desktop PC, or a notebook PC.
  • Communication unit 860 is Bluetooth (Bluetooth) communication, BLE (Bluetooth Low Energy) communication, near field communication (Near Field Communication, NFC), WLAN communication, Zigbee (Zigbee) communication, infrared (Infrared Data Association, IrDA) communication, WFD (Wi-Fi Direct) communication, UWB (ultra-wideband) communication, Ant+ communication, WIFI communication, RFID (Radio Frequency Identification) communication, 3G communication, 4G communication, 5G communication, etc. It can communicate with the device. However, the present invention is not limited thereto.
  • 11 is a flowchart of a method for estimating biometric information according to an embodiment.
  • 11 is an embodiment of a method for estimating biometric information performed by the apparatus 1000 for estimating biometric information.
  • a distance error of the mounted optical sensor may be corrected ( 1110 ). Correcting the distance error of the optical sensor ( 1110 ) is performed at least once before using the biometric information estimating apparatus 1000 , and, if necessary, may be performed even after using the biometric information estimating apparatus 1000 . When the correction of the distance error of the optical sensor is completed, an operation 1140 of correcting the biometric information estimation model may be performed.
  • the light source state correction and biometric information estimation can be performed whenever a corresponding condition is satisfied without delay. For example, it is determined whether the correction condition of the light source state is satisfied ( 1120 ), if the correction condition is satisfied, the light source brightness is corrected using a standard material ( 1130 ), and based on the error correction result of the optical sensor and/or the light source brightness correction result to correct the biometric information estimation model ( 1140 ).
  • a biometric information estimation request is received (1150)
  • absorbance data is obtained from the subject through an optical sensor (1160)
  • biometric information can be estimated using the optical sensor error correction result and the biometric information estimation model ( 1170).
  • the accuracy of biometric information estimation can be improved by frequently correcting the light source state and/or the biometric information estimation model before and after the biometric information estimation.
  • the wearable device 1200 may be a smart watch that a user can wear.
  • the wearable device 900 may include a smart band, a smart necklace, a smart ring, an ear-type wearable device, and the like.
  • the wearable device 1200 may include various embodiments of the biometric information estimation apparatus 1000 described above.
  • the wearable device 1200 includes a body 1210 and a strap 1230 .
  • the body 1210 may be worn on the user's wrist by the strap 1230 .
  • the main body 1210 may include the apparatus 1000 for estimating biometric information of the wearable device 1200 and a configuration for performing other functions.
  • a battery for supplying power may be embedded in the body 1210 or the strap 1230 .
  • the strap 1230 may be formed to be flexible so that it can be bent in a shape surrounding the user's wrist.
  • the strap 1230 may include a first strap and a second strap separated from each other. One end of the first strap and the second strap are respectively connected to both sides of the main body 1210, and may be fastened to each other using coupling means formed at the other end of the first strap and the second strap.
  • the coupling means may be formed in a manner such as magnetic coupling, velcro coupling, pin coupling, and the like, but is not limited thereto.
  • the strap 1230 may be formed integrally without being separated from each other like a band.
  • the optical sensor 1220 may be mounted on one surface of the body 1210 , and a processor disposed inside the body 1210 may be disposed to be electrically connected to the optical sensor 1220 .
  • the optical sensor 1220 includes a light source and a detector, and the light source includes an LED, and the detector may include an image sensor, one or more photodiodes, a photodiode array, and the like.
  • the processor may estimate biometric information using absorbance data obtained from the subject through the optical sensor 1220 .
  • the processor may correct the distance error between the light source and the detector of the optical sensor 1220 before the use of the wearable device 1200, and may be applied to the biometric information before estimating, in a predetermined period, at the user's request, or in a standard material.
  • a preset condition such as when in contact (eg, when mounted on a charger coated with a standard material)
  • the state of the light source such as the brightness of the light source can be corrected using the standard material, and the biometric information estimation model can be corrected.
  • a storage unit for storing data generated and/or processed by the wearable device 1200 and a communication unit for transmitting and receiving data to and from an external device may be mounted inside the main body 1210 .
  • a manipulation unit 1240 for receiving a user's control command and transmitting it to the processor may be mounted on one side of the main body 1210 .
  • the manipulation unit 1240 may include a power button for inputting a command for turning on/off the power of the wearable device 1200 .
  • a display unit for outputting information to a user may be mounted on the front surface of the main body 1210 , and the display unit may include a touch screen capable of a touch input.
  • the display unit may receive a user's touch input, transmit it to the processor, and display the processing result of the processor.
  • the mobile device 1300 may be a smartphone, but is not limited thereto and may include a tablet PC and the like.
  • the mobile device 1300 may include various embodiments of the biometric information estimation apparatus 1000 described above.
  • an optical sensor 1330 may be mounted on the rear surface of the main body 1310 .
  • the optical sensor 1030 may include a light source formed of an LED or the like and a detector formed of an image sensor or a photodiode array.
  • a processor is disposed inside the main body 1310 of the mobile device 1300, and the processor is electrically connected to the optical sensor 1330 to estimate biometric information using the absorbance data of the subject received from the optical sensor 1330.
  • the processor may correct the distance error between the light source and the detector of the optical sensor 1330 before the mobile device 1300 is used as described above, and before estimating biometric information, a predetermined period, a user's request, or a standard material ( When a preset condition is met, such as when it is mounted on a charger), the state of the light source such as the brightness of the light source can be corrected using a standard material, and the biometric information estimation model can be corrected.
  • the camera module 1320 may be disposed on the rear side of the main body 1310 of the mobile device 1300 .
  • the camera module 1320 may capture a still image or a moving image.
  • the camera module 1320 may include a lens assembly including one or more lenses, image sensors, image signal processors, and/or flashes.
  • a display unit may be mounted on the front of the main body 1310 of the mobile device 1300 .
  • the display unit may visually output various data generated and/or processed by the mobile device 1300 , and may receive a touch input including a touch screen.
  • FIG. 14 is a diagram illustrating a state in which the wearable device is mounted on a charger.
  • the main body of the charger 1400 may have a circular shape and a flat top surface may be implemented. However, without being limited thereto, it can be implemented in various shapes such as a rectangle, a pentagon, a triangle, and a hexagon, and when the upper surface of the wearable device 1200 is mounted, it can be naturally positioned as a chargeable area of the wearable device 1200. may be implemented as
  • a reflective material may be disposed or coated on the upper surface 1410 of the charger 1400 , that is, a surface that the wearable device 1200 contacts when the wearable device 1200 is mounted.
  • the reflective material is a diffuse reflection material having a reflectivity of 1% to 99%, and may include barium sulfate (BaSo4), Teflon (PTEF), and the like.
  • An optical sensor is disposed on the rear surface of the wearable device 1200 , that is, on a surface in contact with the upper surface 1410 of the charger 1400 , and the processor of the wearable device 1200 performs a user request, a predetermined period, a predetermined time period, and biometric information estimation.
  • the error correction time comes upon request, it is checked whether the wearable device 1200 is mounted on the charger 1400 , and if it is mounted on the charger 1410 , the error of the optical sensor is corrected as described above, otherwise the wearable device Visual information guiding the device to be mounted on the charger may be output to the display, or voice information may be output using a voice output device.
  • the present embodiments can be implemented as computer-readable codes on a computer-readable recording medium.
  • the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored.
  • Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. include
  • the computer-readable recording medium is distributed in a computer system connected to a network, so that the computer-readable code can be stored and executed in a distributed manner.
  • functional programs, codes, and code segments for implementing the present embodiments can be easily inferred by programmers in the technical field to which the present invention pertains.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Cardiology (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Chemical & Material Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

광원과 디텍터를 포함한 광학 센서의 오차 보정 방법이 개시된다. 일 실시예에 따른 오차 보정 방법은 광원의 밝기를 표준 밝기로 조절하는 단계, 광원을 통해 표준 물질에 광을 조사하는 단계, 디텍터를 통해 표준 물질 데이터를 획득하는 단계, 획득된 표준 물질 데이터를 이용하여 적어도 두 지점 간의 광량 차이나 이미지의 그라데이션을 기초로 광학 센서의 광원-디텍터 간 거리 오차를 보정하는 단계를 포함할 수 있다.

Description

광학 센서의 오차 보정 방법 및 장치와, 생체정보 추정 장치
광학 센서의 오차 보정 기술에 관한 것으로, 보다 구체적으로 광학 센서의 광원과 검출기 간의 거리 오차를 보정하는 기술에 관한 것이다.
최근 광학 센서를 이용하여 비침습적으로 다양한 생체정보를 추정하는 기술이 개발되고 있다. 일반적으로 광학 센서를 통해 분석하고자 하는 샘플로부터 스펙트럼을 측정하고, 측정된 스펙트럼의 흡광도를 이용하여 항산화 지표를 비롯한 생체정보를 추정할 수 있다. 광학 센서는 광원과 검출기 간의 거리가 일정하도록 정밀하게 설계된다. 광학 센서의 광원과 검출기 간의 거리가 0.1 mm 오차가 발생하는 경우 흡광도가 약 5% 정도 변화할 수 있다. 이와 같이, 광학 센서를 탑재한 기기별로 광원과 검출기 간의 거리 편차가 존재하는 경우 기기별 생체정보 추정값의 정확성에 차이가 발생할 수 있다. 일반적으로 광학 센서의 광원과 검출기 간의 물리적 거리를 측정하여 거리 오차를 보정하는 방법이 알려져 있다.
광학 센서를 통해 표준 물질로부터 획득된 두 지점 간의 광량 차이나 이미지 그라데이션(gradation)을 이용하여 광학 센서의 오차를 보정하는 장치 및 방법이 제시된다.
일 양상에 따르면, 광원과 디텍터를 포함한 광학 센서의 오차 보정 방법은 광원의 밝기를 표준 밝기로 조절하는 단계, 광원을 통해 표준 물질에 광을 조사하는 단계, 디텍터를 통해 표준 물질 데이터를 획득하는 단계, 획득된 표준 물질 데이터를 이용하여 적어도 두 지점 간의 광량 차이나 이미지의 그라데이션을 기초로 광학 센서의 광원-디텍터 간 거리 오차를 보정하는 단계를 포함할 수 있다.
오차를 보정하는 단계는 표준 거리 대비 광원-디텍터 간 거리의 변화를 검출하고, 상기 검출된 거리의 변화를 기초로 광원-디텍터 간 거리 오차를 보정할 수 있다.
오차를 보정하는 단계는 디텍터에서 미리 정의된 표준점들 사이의 기울기를 산출하고, 산출된 기울기 및 표준 기울기를 기초로 상기 광원-디텍터 간 거리의 변화를 검출할 수 있다.
오차를 보정하는 단계는 표준점들의 X 좌표 지점 간의 제1 기울기 및 Y 좌표 지점 간의 제2 기울기를 산출하고, 산출된 제1 기울기 및 제2 기울기를 기초로 광원-디텍터 간 거리의 변화를 검출할 수 있다.
오차를 보정하는 단계는 검출된 거리의 변화를 기초로 광원에 대한 디텍터 검출 영역의 좌표를 재설정할 수 있다.
광을 조사하는 단계는 광원과 동일한 파장의 광을 조사하는 다른 광원을 동시에 구동하고, 오차를 보정하는 단계는 표준 물질 데이터에서 표준 등고선 위치의 등고선을 검출하여 검출된 등고선들 사이의 등고선 기울기를 산출하고, 산출된 등고선 기울기와 표준 등고선 기울기를 기초로 상기 광원-디텍터 간의 거리의 변화를 검출할 수 있다.
오차를 보정하는 단계는 광원과 다른 광원 사이의 벡터를 검출하고, 광원-디텍터 간의 거리의 변화를 기초로 광원에 대한 디텍터의 검출 영역의 좌표를 상기 검출된 벡터 상에서 이동할 수 있다.
일 양상에 따르면 광원과 디텍터를 포함한 광학 센서의 오차 보정 장치는 프로세서를 포함하고, 프로세서는 광원의 밝기를 표준 밝기로 조절하고, 표준 물질에 광을 조사하도록 상기 광원을 구동하는 센서 제어부 및, 디텍터에 의해 획득된 표준 물질 데이터를 이용하여 적어도 두 지점 간의 광량 차이나 이미지의 그라데이션을 기초로 상기 광학 센서의 광원-디텍터 간 거리 오차를 보정하는 오차 보정부를 포함할 수 있다.
또한, 광학 센서의 오차 보정 장치는 표준 광학 센서의 광원의 표준 밝기, 표준점들의 위치 정보, 표준점들 사이의 표준 기울기, 표준점들의 표준 등고선 기울기, 및 광원-이미지 센서 간 표준 거리 중의 하나 이상을 포함하는 표준 정보를 저장하는 저장부를 더 포함할 수 있다.
오차 보정부는 표준 거리 대비 상기 광원-디텍터 간 거리의 변화를 검출하고, 검출된 거리의 변화를 기초로 상기 광원-디텍터 간 거리 오차를 보정할 수 있다.
오차 보정부는 디텍터에서 미리 정의된 표준점들 사이의 기울기를 산출하고, 산출된 기울기 및 표준 기울기를 기초로 상기 광원-디텍터 간 거리의 변화를 검출할 수 있다.
오차 보정부는 표준점들의 X 좌표 지점 간의 제1 기울기 및 Y 좌표 지점 간의 제2 기울기를 산출하고, 산출된 제1 기울기 및 제2 기울기를 기초로 광원-디텍터 간 거리의 변화를 검출할 수 있다.
오차 보정부는 검출된 거리의 변화를 기초로 광원에 대한 디텍터 검출 영역의 좌표를 재설정할 수 있다.
센서 제어부는 광원과 동일한 파장의 광을 조사하는 다른 광원을 동시에 구동하고, 오차 보정부는 표준 물질 데이터에서 표준 등고선 위치의 등고선을 검출하여 검출된 등고선들 사이의 등고선 기울기를 산출하고, 산출된 등고선 기울기와 표준 등고선 기울기를 기초로 상기 광원-디텍터 간의 거리의 변화를 검출할 수 있다.
오차 보정부는 광원과 다른 광원 사이의 벡터를 검출하고, 광원-디텍터 간의 거리의 변화를 기초로 상기 광원에 대한 디텍터의 검출 영역의 좌표를 검출된 벡터 상에서 이동할 수 있다.
일 양상에 따르면, 광원과 제1 디텍터 및 제2 디텍터를 포함한 광학 센서의 오차 보정 방법은, 광원을 통해 표준 물질에 광을 조사하는 단계, 제1 디텍터의 측정값이 제1 측정값이 되도록 상기 광원의 밝기를 조절하는 단계, 제2 디텍터에서 제2 측정값을 획득하는 단계, 제1 측정값과 제2 측정값 사이의 차이를 기초로 기울기를 산출하는 단계 및 상기 산출된 기울기를 기초로 광원-제2 디텍터 사이의 거리 오차를 보정하는 단계를 포함할 수 있다.
오차를 보정하는 단계는 산출된 기울기를 기초로 상기 제2 측정값의 보정계수를 획득할 수 있다.
오차를 보정하는 단계는 광원과 제2 디텍터 사이의 광 경로 길이를 결정하고, 상기 결정된 광 경로 길이를 기초로 상기 제2 측정값의 보정계수를 획득할 수 있다.
오차를 보정하는 단계는 산출된 기울기를 기초로 상기 광원-제2 디텍터 사이의 거리를 산출하고, 산출된 거리를 기초로 상기 광 경로 길이를 결정할 수 있다.
오차를 보정하는 단계는 표준 광학 센서의 표준 기울기와 상기 산출된 기울기 사이의 비율을 산출하고, 산출된 비율을 기초로 상기 광 경로 길이를 결정할 수 있다.
일 양상에 따르면, 광원과 제1 디텍터 및 제2 디텍터를 포함한 광학 센서의 오차 보정 장치에 있어서, 상기 오차 보정 장치는 프로세서를 포함하고, 프로세서는 광원을 통해 표준 물질에 광을 조사하고, 제1 디텍터의 측정값이 제1 측정값이 되도록 상기 광원의 밝기를 조절하는 센서 제어부 및 제2 디텍터에서 제2 측정값을 획득하고, 제1 측정값과 제2 측정값 사이의 차이를 기초로 기울기를 산출하며, 산출된 기울기를 기초로 광원-제2 디텍터 사이의 거리 오차를 보정하는 오차 보정부를 포함할 수 있다.
일 양상에 따르면, 생체정보 추정 장치는 광원과 디텍터를 포함한 광학 센서 및, 광원을 구동하는 센서 제어부, 표준 물질을 이용하여 상기 광학 센서의 광원-디텍터 간 거리 오차 또는 광원 상태를 보정하고, 보정 후 광학 센서를 통해 획득된 피검체 데이터를 이용하여 생체정보를 추정하는 프로세서를 포함하고, 프로세서는 광원의 밝기를 표준 밝기로 조절하여 표준 물질에 광을 조사하도록 상기 광원을 구동하며, 디텍터에 의해 획득된 표준 물질 데이터를 이용하여 적어도 두 지점 간의 광량 차이나 이미지 그라데이션을 기초로 광학 센서의 광원-디텍터 간 거리 오차를 보정할 수 있다.
프로세서는 광원 상태 보정 조건을 만족하면, 광원의 밝기가 표준 밝기가 되도록 광원의 상태를 보정할 수 있다.
프로세서는 광원-디텍터 간 거리 오차 또는 광원 상태를 보정하면, 보정 결과를 기초로 생체정보 추정 모델을 보정하고, 보정된 생체정보 추정 모델을 이용하여 생체정보를 추정할 수 있다.
프로세서는 광학 센서의 오차 보정 결과 재설정된 검출영역에서 획득된 데이터를 이용하여 생체정보를 추정할 수 있다.
프로세서는 광학 센서의 오차 보정 결과 획득된 보정계수를 피검체로부터 획득된 데이터에 적용하여 생체정보를 추정할 수 있다.
광학 센서를 통해 획득된 표준 물질 데이터를 이용하여 광학 센서의 오차를 보정할 수 있다. 이를 통해 항산화 지표를 비롯한 생체정보 추정의 정확성을 향상시킬 수 있다.
도 1은 일 실시예에 따른 오차 보정 장치의 블록도이다.
도 2는 일 실시예에 따른 오차 보정 방법의 흐름도이다.
도 3a 및 도 3b는 광학 센서의 오차를 보정하는 일 실시예를 설명하기 위한 도면이다.
도 4는 다른 실시예에 따른 오차 보정 방법의 흐름도이다.
도 5a 내지 도 5c는 광학 센서의 오차를 보정하는 일 실시예를 설명하기 위한 도면이다.
도 6은 다른 실시예에 따른 오차 보정 방법의 흐름도이다.
도 7a 내지 도 7c는 광학 센서의 오차를 보정하는 일 실시예를 설명하기 위한 도면이다.
도 8은 다른 실시예에 따른 오차 보정 방법의 흐름도이다.
도 9a 내지 도 9c는 광학 센서의 오차를 보정하는 일 실시예를 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 생체정보 추정 장치의 블록도이다.
도 11은 일 실시예에 따른 생체정보 추정 방법의 흐름도이다.
도 12는 생체정보 추정 장치를 포함한 웨어러블 기기를 도시한 것이다.
도 13은 생체정보 추정 장치를 포함한 모바일 기기를 도시한 것이다.
도 14는 웨어러블 디바이스가 반사 물질이 도포된 충전기에 거치된 상태를 도시한 도면이다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 기재된 기술의 이점 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하, 광학 센서의 오차 보정 장치 및 방법의 다양한 실시예들을 도면들을 참고하여 자세히 설명한다.
도 1은 일 실시예에 따른 광학 센서의 오차 보정 장치의 블록도이다.
광학 센서(10)는 광원(11)과 디텍터(12)를 포함한다. 광원(11)은 하나 이상의 발광체로 형성되며, 예컨대 LED(light emitting diode), LD(laser diode), 형광체 등을 포함하나 이에 제한되는 것은 아니다. 디텍터(12)는 광을 검출하여 전기 신호로 변환하는 소자로서, 광에 반응하여 전하를 축적하고 축적된 전하에 의한 전위 변화를 감지하여 신호를 출력할 수 있다. 예를 들어, 디텍터(12)는 CMOS(complementary metal-oxide semiconductor) 이미지센서, 포토다이오드(photodiode) 어레이 또는 하나 이상의 포토다이오드일 수 있으나 이에 제한되는 것은 아니다.
광학 센서(10)는 항산화 지표를 비롯한 다양한 생체정보를 추정하는 장치들에 탑재될 수 있다. 광학 센서(10)의 광원(11)과 디텍터(12)는 그 장치들의 폼팩터(form factor)의 사이즈, 피검체의 측정 부위나, 분석하고자 하는 생체정보의 종류 등에 따라 다양한 형태 및 일정한 표준 거리를 갖도록 배치될 수 있다. 하지만 광학 센서(10)를 제작할 때 광원(11)과 디텍터 (12) 간의 거리는 미세하게 표준 거리와 편차가 발생할 수 있으며 이는 광학 센서(10)에 의해 측정되는 신호의 정확성을 감소시킬 수 있다. 이를 위해 광학 센서(10)의 오차 보정 장치(100)는 광원(11)과 디텍터(12) 간의 거리 편차를 보정할 수 있다.
도 1을 참조하면, 오차 보정 장치(100)는 프로세서(110), 저장부(120) 및 표시부(130)를 포함할 수 있다. 오차 보정 장치(100)의 프로세서(110), 저장부(120) 및 표시부(130)는 하나의 하드웨어 구성에 통합되거나, 서로 다른 둘 이상의 하드웨어에 분리 형성될 수 있다.
프로세서(110)는 보정하고자 하는 광학 센서(10)와 직접 또는 무선 통신으로 연결되어 광학 센서(10)의 구동을 제어하는 센서 제어부(111)와, 광학 센서(10)에서 출력된 신호를 이용하여 광학 센서(10)의 오차를 보정하는 오차 보정부(112)를 포함할 수 있다.
센서 제어부(111)는 광학 센서(10)의 보정할 광원(11)을 구동하여 표준 물질에 광을 조사하도록 할 수 있다. 이때, 표준 물질은 광원(11)의 광을 반사시키는 반사 미러이거나 반사 물질이 전면에 도포된 반사체일 수 있다. 반사 물질은 1% ~ 99% 의 반사율을 가지는 확산 반사 물질(diffuse reflection material)일 수 있으며, 예컨대 황산바륨(BaSo4) 및 테프론(PTEF) 등을 포함할 수 있으나 이에 제한되지 않는다. 다만, 이에 제한되는 것은 아니며 순수한 물 또는 피검체의 성분과 유사하게 모사한 용액, 고체 또는 반고체일 수도 있다.
센서 제어부(111)는 보정하고자 하는 광원(11)을 구동할 때 광원(11)의 밝기에 따라 광 경로가 달라지는 것을 방지하기 위해, 저장부(120)를 참조하여 보정할 광원(11)에 대응하는 표준 광학 센서 광원의 표준 밝기 정보를 획득하고, 표준 밝기 정보를 기초로 보정할 광원(11)의 밝기를 조절할 수 있다. 이때, 저장부(120)에 저장된 표준 밝기 정보는 표준 전류 세기, 표준 지속 시간, 표준 광량 등을 포함할 수 있다. 일 예로, 센서 제어부(111)는 보정할 광원을 표준 전류 세기로 구동할 수 있다. 다른 예로, 센서 제어부(111)는 디텍터(12)의 표준 지점에서 측정된 광량이 표준 광학 센서 디텍터의 표준 지점에서 측정된 표준 광량이 되도록 구동할 광원(11)의 전류 세기를 조절할 수 있다. 이때, 센서 제어부(111)는 보정할 광원(11)의 밝기를 표준 밝기로 조절이 불가능한 경우 광원(11)에 대한 에러 메시지를 표시부(130)를 통해 출력할 수 있다.
오차 보정부(112)는 보정할 광원(11)에 의해 조사되어 표준 물질에 의해 반사된 광이 디텍터(12)에 의해 검출되어 데이터가 생성되면, 디텍터(12)로부터 표준 물질 데이터를 수신하고, 수신된 표준 물질 데이터를 이용하여 광원(11)- 디텍터(12) 간 거리 오차를 보정할 수 있다. 예를 들어, 오차 보정부(112)는 표준 물질 데이터를 이용하여 적어도 두 지점 간의 광량 차이나 이미지 그라데이션을 이용하여 광원(11)- 디텍터(12) 간 거리가 표준 광학 센서의 광원과 디텍터 간의 표준 거리 대비 변화량을 산출하고, 산출된 광원(11)-디텍터(12) 간 거리의 변화량을 기초로 광원(11)에 대한 디텍터(12) 검출 영역의 좌표를 재설정하거나, 디텍터(120)에서 측정된 측정값 예컨대 파장별 흡광도를 보정하는 보정계수를 결정할 수 있다.
저장부(120)는 오차 보정을 위해 필요한 표준 정보를 저장할 수 있다. 예를 들어, 표준 정보는 표준 광학 센서의 광원의 표준 밝기 정보, 예컨대, 표준 광량, 표준 전류 세기, 및/또는 표준 지속 시간 등의 정보를 포함할 수 있다. 또한, 표준 광학 센서의 디텍터 상의 표준점들의 위치 정보(예컨대, 표준점들의 픽셀 좌표), 표준점들 사이의 표준 기울기, 표준 등고선 위치, 표준 등고선 사이의 표준 등고선 기울기 및/또는 표준 광학 센서의 광원-디텍터 간 표준 거리 등을 포함할 수 있다. 다만, 이에 제한되지 않는다.
저장부(120)는 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예컨대, SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory), 자기 메모리, 자기 디스크, 광디스크 등의 저장매체를 포함할 수 있으나 이에 제한되지 않는다.
표시부(130)는 프로세서(110)에 의해 처리된 정보를 시각적으로 제공할 수 있다. 표시부(130)는 표준 물질의 이미지 그라데이션, 광원에 대한 오차 보정 전의 디텍터 검출 영역의 위치, 및/또는 오차 보정 후 재설정된 디텍터 검출 영역의 위치 또는 보정 전후의 좌표축을 시각적으로 표시할 수 있다. 표시부(230)는 디스플레이, 홀로그램 장치, 또는 프로젝터 등을 포함할 수 있으며, 터치를 감지하도록 설정된 터치 회로(Touch Circuitry) 및/또는 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로, 예컨대 압력 센서 등을 포함할 수 있다.
이하, 도 2 내지 도 7c를 참조하여 오차 보정 장치(100)가 복수의 LED(310)와 이미지센서(320)로 이루어 진 광학 센서(10)의 오차를 보정하는 다양한 실시예들을 설명한다. 다만 이에 제한되지 않으며 그 밖의 다른 종류의 광원 및/또는 포토다이오드 어레이로 형성된 광학 센서의 경우에도 적용될 수 있다.
도 2는 일 실시예에 따른 오차 보정 방법의 흐름도이다. 도 3a 및 도 3b는 광학 센서의 오차를 보정하는 일 실시예를 설명하기 위한 도면이다.
도 2를 참조하면, 센서 제어부(111)는 보정할 광원을 선택하고, 선택된 광원의 밝기를 캘리브레이션할 수 있다(210).
도 3a을 참조하면, 광학 센서는 중앙에 이미지센서(320)가 배치되고, 복수의 LED(310)가 그 이미지센서(320) 주위에 배치될 수 있다. 이때, 복수의 LED(310)가 이미지센서(320) 주위에 소정 형태를 갖도록 배치될 수 있다. 예컨대 도시된 바와 같이 이미지센서(320)의 일측에 복수의 LED(LED1, LED2, LED3, LED4)가 배치되고, 이미지센서(320)의 타측에 복수의 LED(LED1', LED2', LED3', LED4')가 배치될 수 있다. 이때, 이미지센서(320)의 일측에 배치된 복수의 LED(LED1, LED2, LED3, LED4) 각각은 서로 다른 파장의 광을 조사할 수 있다. 또한, 이미지센서(320)의 타측에 배치된 복수의 LED(LED1', LED2', LED3', LED4')는 서로 다른 파장의 광을 조사하되, LED1과 LED1', LED2와 LED2', LED3와 LED3' 및 LED4와 LED4'는 서로 동일한 파장의 광을 조사할 수 있다. 각 LED(310)는 이미지센서(320)와 표준 거리 즉, 표준 광학 센서의 LED와 이미지센서 간의 거리를 갖도록 배치되나, 제작상의 다양한 원인으로 인해 표준 거리와 미세하게 달라질 수 있다.
센서 제어부(111)는 각 LED(310)와 이미지센서(320) 사이의 미세한 거리 변화로 인한 오차를 보정하기 위해 보정할 LED 예컨대 LED1을 선택하고, 표준 광학 센서의 LED1과 동일한 광 경로를 갖도록 한 상태에서 거리 오차를 보정하기 위하여 선택된 LED1의 밝기를 표준 광학 센서의 LED1의 표준 밝기로 조절할 수 있다.
그 다음, 센서 제어부(111)는 표준 밝기로 캘리브레이션 된 LED(310)를 구동하여 표준 물질에 광을 조사할 수 있다(220).
그 다음, 오차 보정부(112)는 이미지센서(320)를 통해 표준 물질 데이터가 획득되면(230), 획득된 표준 물질 데이터를 이용하여 적어도 두 지점 사이의 광량 차이 또는 이미지 그라데이션을 이용하여 구동된 LED와 이미지센서 간의 거리 오차를 보정할 수 있다(240). 이미지센서(320)에 의해 획득된 표준 물질의 이미지 데이터는 예컨대 이미지센서(320) 각 픽셀에 수광된 광량에 관한 데이터를 포함하며, 각 픽셀별 광량은 표준 물질의 이미지 그라데이션으로 표현될 수 있다.
광학 센서를 제작할 때 LED(310) 위치의 미세한 변화는 이미지센서(320)에 의해 획득된 표준 물질 이미지 그라데이션의 변화를 가져오는 요인이 된다. 예를 들어, 도 3a 및 도 3b에 도시된 바와 같이 표준 광학 센서(SD)와 보정하고자 하는 광학 센서(ND)에서 이미지센서의 두 지점(d1,d2) 사이의 기울기(S1,S2)는 LED의 위치가 변화함에 따라 서로 달라짐을 알 수 있다.
따라서, 오차 보정부(112)는 이와 같이 각 LED(310)별로 지정된 이미지센서(320) 상의 표준점들 사이의 기울기를 산출하고, 산출된 기울기를 표준 광학 센서의 표준점들 사이의 표준 기울기와 비교하여 광원-이미지센서 사이의 거리 변화를 검출할 수 있다.
아래의 수학식 1은 표준점들 사이의 기울기 및 산출된 기울기를 이용하여 광원-이미지센서 간 거리 변화를 산출하는 식의 예이다.
Figure PCTKR2021012886-appb-M000001
Figure PCTKR2021012886-appb-I000001
Figure PCTKR2021012886-appb-I000002
Figure PCTKR2021012886-appb-I000003
Figure PCTKR2021012886-appb-I000004
여기서, d1 및 d2는 표준 광학 센서의 광원으로부터 이미지센서의 표준점 위치 예컨대 픽셀 좌표 (x1,y1) 및 (x2,y2)까지의 표준 거리를 나타낸 것이다. 표준점들은 광원의 각 LED별로 설정될 수 있다. d'1 및 d'2는 보정할 광학 센서의 광원으로부터 이미지센서의 표준점 위치 예컨대 픽셀 좌표 (x1,y1) 및 (x2,y2)까지의 거리를 나타낸다. 즉, 표준점 위치는 표준 광학 센서와 보정할 광학 센서의 이미지센서 상에서 동일한 픽셀 위치이며, LED 위치의 변화에 따라 LED 위치로부터 표준점들까지의 거리가 변화하는 것을 의미한다. GL1과 G'L1은 각각 표준 광학 센서와 보정할 광학 센서의 표준점들 사이의 기울기를 나타낸다. I(d1) 및 I(d2)는 표준 광학 센서의 표준점 위치에서 수광된 광의 세기 또는 표준점 위치의 흡광도를 나타내며, I(d'1) 및 I(d'2)는 보정할 광학 센서의 표준점 위치에서 수광된 광의 세기 또는 표준점 위치의 흡광도를 나타낸다. μ는 표준 물질에 대하여 미리 획득된 흡수계수를 나타낸다. 여기서, 흡광도는 램버트 비어 법칙(Lambert-Beer's law)에 의해 획득될 수 있다.
오차 보정부(112)는 표준 광학 센서 대비 보정할 광학 센서의 광원의 모든 LED에 대하여 순차적으로 LED와 이미지센서 간의 거리 변화(Δ)를 계산하고, 각 LED별로 이미지센서의 검출 영역을 조절할 수 있다. 예를 들어, 각 LED별로 이미지센서의 좌표축을 거리 변화(Δ)만큼 이동하는 방식으로 재설정하거나, 각 LED별로 이미지센서에 설정된 검출 영역을 이동할 수 있다.
도 4는 다른 실시예에 따른 오차 보정 방법의 흐름도이다. 도 5a 내지 도 5c는 광학 센서의 오차를 보정하는 일 실시예를 설명하기 위한 도면이다.
도 4를 참조하면, 센서 제어부(111)는 보정할 광원의 밝기를 표준 광학 센서의 광원의 표준 밝기로 조절하고(410), 광원을 구동하여 표준 물질에 광을 조사하여(420), 디텍터를 통해 표준 물질 데이터를 획득할 수 있다(430).
그 다음, 오차 보정부(112)는 표준 물질 데이터를 이용하여 표준점들의 X 좌표 지점들 간의 제1 기울기를 산출하고(440), 표준점들의 Y 좌표 지점들 간의 제2 기울기를 산출할 수 있다(450).
도 5a는 표준 광학 센서로서, 표준 광학 센서의 LED1(510S)은 이미지센서(520S)의 좌표축(SC)으로부터 표준 거리(D1)만큼 떨어져 배치된다. 도 5b는 보정할 광학 센서로서 LED1(510)은 표준 광학 센서 대비 이미지센서(520) 쪽으로 좀 더 시프트 되어 거리(D2)만큼 떨어져 배치된 것을 예시하고 있다. 도 5a에 도시된 바와 같이 표준 광학 센서의 LED(510S)에 대한 표준 검출 영역(SA)이 표준점 위치 (d1x,d1y), (d2x,d2y)를 중심으로 설정된다고 가정할 때, 동일한 LED1를 통해 동일한 표준 물질에서 일정한 신호를 측정하기 위해서는 보정할 광학 센서의 LED(510)의 위치가 시프트 됨에 따라 표준 검출 영역(SA) 역시 시프트 되어야 한다.
오차 보정부(112)는 이와 같이 각 광원에 대한 이미지센서의 검출 영역(SA)을 광원의 위치 변화에 따라 적절하게 시프트해 주기 위해 표준점 위치의 X 좌표 지점들(d1x,d2x)의 광 세기의 변화를 통해 전술한 수학식 1을 통해 X 축 상의 제1 기울기와, 표준점 위치의 Y 좌표 지점들(d1y,d2y)의 광 세기의 변화를 통해 Y 축 상의 제2 기울기를 개별적으로 산출할 수 있다.
그 다음, 오차 보정부(112)는 X축 및 Y축에 대하여 개별적으로 산출된 제1 기울기 및 제2 기울기를 이용하여 X축의 거리 변화와 Y축의 거리 변화를 위 수학식 1을 통해 개별적으로 산출할 수 있다(460,470).
그 다음, X축의 거리 변화와 Y축의 거리 변화를 기초로 좌표축을 재설정할 수 있다(480). 도 5c는 보정할 LED1(510)에 대하여 좌표축(NC)이 재설정된 것을 예시한 것으로, 이와 같이 새로운 좌표축(NC)은 보정할 LED1(510)과 이미지센서(520) 새로운 좌표축 사이가 표준 거리(D1)와 동일하거나 소정 임계치 이내의 거리(D3)를 갖도록 재설정될 수 있다.
도 6은 다른 실시예에 따른 오차 보정 방법의 흐름도이다. 도 7a 내지 도 7c는 광학 센서의 오차를 보정하는 일 실시예를 설명하기 위한 도면이다.
도 6을 참조하면, 센서 제어부(111)는 보정할 제1 광원의 밝기를 표준 광학 센서의 광원의 표준 밝기로 조절하고(610), 제1 광원을 구동하여 표준 물질에 광을 조사할 수 있다(620). 이때, 센서 제어부(111)는 보정할 제1 광원과 다른 제2 광원을 동시에 구동할 수 있다. 이때, 제2 광원은 이미지센서를 중심으로 제1 광원과 서로 마주보는 위치에 배치된 광원일 수 있다. 또한, 제2 광원은 제1 광원과 동일한 파장의 광을 조사하는 광원일 수 있다.
그 다음, 오차 보정부(112)는 이미지센서에 의해 표준 물질 이미지 데이터가 획득되면(630), 제1 광원과 제2 광원 사이의 벡터를 검출할 수 있다(640). 이때, 제1 광원과 제2 광원의 배치 위치를 기초로 벡터를 검출할 수 있다.
그 다음, 단계(630)에서 획득된 표준 물질 이미지에서 표준점 등고선 위치의 등고선을 검출할 수 있다(650). 예를 들어, 도 7a는 표준 광학 센서의 제1 LED(711S)와 이미지센서(720S)의 맞은 편에 위치한 제2 LED(712S)를 구동한 것을 예시하고 있다. 이와 같이 서로 맞은 편에 위치한 광원(711S,712S)을 구동함에 따라 이미지 상에서 등고선이 더욱 명확하게 생성될 수 있다. 도 7a를 참조하면 표준 광학 센서의 제1 LED(711S)가 이미지센서(720)의 좌표축으로부터 표준 거리(D1) 만큼 떨어져 있을 때의 표준 등고선(d1,d2)과 표준 등고선(d1,d2) 사이의 표준 등고선 기울기가 미리 설정될 수 있다. 도 7b는 보정할 광학 센서의 제1 LED(711)가 표준 광학 센서 대비 이미지센서(720) 방향으로 시프트 되어 이미지센서(720)와 거리(D2)만큼 떨어져 있는 예시하고 있다. 오차 보정부(112)는 단계(630)에서 획득된 표준 물질 이미지에서 표준 등고선(도 7a의 d1 및 d2) 위치에 해당하는 등고선(도 7b의 d1 및 d2)을 검출할 수 있다.
그 다음, 검출된 등고선(도 7b의 d1 및 d2)사이의 등고선 기울기를 산출할 수 있다(650). 예를 들어, 수학식 1을 통해 등고선(도 7b의 d1 및 d2)과 단계(640)에서 검출된 벡터가 교차하는 지점들 사이의 기울기를 등고선 기울기로 산출할 수 있다. 다만, 이에 제한되지 않으며 이미지에서 등고선 검출 및 등고선 사이의 기울기를 검출하는 이미 알려진 다양한 방법들이 활용될 수 있다.
그 다음, 산출된 등고선 기울기를 기초로 광원-이미지센서 간 거리 변화를 검출할 수 있다(670). 예를 들어, 표준 광학 센서를 통해 산출된 표준 등고선 사이의 표준 등고선 기울기와 단계(650)에서 산출된 등고선 기울기를 비교하여 거리 변화를 검출할 수 있다.
그 다음, 산출된 거리 변화를 기초로 단계(640)에서 검출된 벡터 방향으로 검출 영역 또는 좌표축을 이동할 수 있다(680). 도 7c는 제1 LED(711)에 대한 검출 영역(SA)이 이동한 것을 예시한 것이다.
도 8은 다른 실시예에 따른 오차 보정 방법의 흐름도이다. 도 9a는 하나 이상의 LED와 복수의 포토다이오드로 이루어진 광학 센서의 단면을 도시한 것이고, 도 9b 및 도 9c는 그 광학 센서의 오차를 보정하는 일 실시예를 설명하기 위한 도면이다.
도 9a에 도시된 바와 같이 광학 센서는 양 측면에 격벽(PW)이 위치하고, 격벽(PW) 사이에 하나 이상의 LED(L1, L2)와 광원(L1, L2) 상태를 모니터링하기 위한 포토다이오드(P1)가 하나 이상 배치될 수 있다. 또한, 격벽(PW) 바깥쪽에 생체정보를 추정할 때 사용할 하나 이상의 포토다이오드(P21,P22)가 배치될 수 있다. 이하, 설명되는 광학 센서의 오차 보정은 모든 광원(L1,L2)과 모든 포토다이오드(P21,P22)에 대해 수행될 수 있다.
일 실시예에 따르면, 광원 상태 모니터링을 위한 포토다이오드(P1)를 중심으로, 복수의 LED, 격벽, 생체정보 추정용 포토다이오드가 동심원 형태로 배치될 수 있다.
먼저, 센서 제어부(111)는 보정할 LED(L1)을 선택 및 구동하고(810), 선택된 LED(L1)의 밝기를 표준 밝기로 조절할 수 있다(820).
예를 들어, 센서 제어부(111)는 예컨대 보정할 LED(L1)을 구동하고, 예컨대 제1 포토다이오드(P1)의 측정값을 이용하여 보정할 LED(L1)의 밝기를 표준 밝기로 조절할 수 있다. 예컨대, 제1 포토다이오드(P1)에서 측정된 광량이 표준 광학 센서의 표준 광량이 되도록 LED(L1)의 전류 세기를 조절할 수 있다.
그 다음, LED(L1)의 밝기가 표준 밝기가 된 상태에서 예컨대 제2 포토다이오드(P21)를 통해 표준 물질(RM)을 측정할 수 있다(830).
그 다음, 오차 보정부(112)는 LED(L1)의 밝기가 표준 밝기가 된 상태에서 측정된 제1 포토다이오드(P1)의 제1 측정값 즉, 표준 광량과 제2 포토다이오드(P21)의 제2 측정값을 이용하여 기울기를 계산할 수 있다(840).
예를 들어, 수학식 2와 같이 제1 측정값과 제2 측정값 사이의 차이를 기초로 기울기를 계산할 수 있다.
Figure PCTKR2021012886-appb-M000002
여기서, Sm은 구하고자 하는 기울기를 나타낸다. I1은 제1 포토다이오드(P1)의 제1 측정값, I2는 제2 포토다이오드(P21)의 제2 측정값을 나타내며, dref는 표준 광학 센서의 LED와 포토다이오드 사이의 표준 거리를 나타낸다.
그 다음, 오차 보정부(112)는 산출된 기울기를 기초로 LED(L1)와 제2 포토다이오드(P21) 사이의 거리 오차를 보정할 수 있다(850). 예를 들어, 표준 광학 센서의 표준 거리 대비 보정할 광학 센서의 LED(L1)와 제2 포토다이오드(PD21) 사이의 거리 변화에 따른 제2 측정값의 오차를 보정하기 위한 보정계수를 획득할 수 있다.
일 예로, 오차 보정부(112)는 수학식 3을 통해 LED(L1)과 제2 포토다이오드(PD21) 사이의 거리를 계산하고, 표준 거리 대비 상기 계산된 거리 변화량을 기초로 LED(L1)과 제2 포토다이오드(PD21) 사이의 광 경로 길이를 결정하며, 표준 광학 센서의 표준 광 경로 길이 대비 결정된 광 경로 길이 변화량을 기초로 보정계수를 획득할 수 있다.
Figure PCTKR2021012886-appb-M000003
여기서, dnew는 LED(L1)과 제2 포토다이오드(PD21) 사이의 거리를 나타내고, ε 및 c는 각각 표준 물질에 대한 몰 흡수계수 및 농도를 나타내고 미리 설정된 값이다. dref는 표준 광학 센서의 표준 거리, const는 표준 광학 센서의 표준 광량을 나타내며, Sm은 산출된 기울기를 나타낸다.
도 9b는 광원과 디텍터 사이의 거리와 광 경로 길이 사이의 관계를 보여주는 일 예로, 이와 같이 광원과 디텍터 사이의 거리와 광 경로 길이 사이의 관계를 나타내는 광 경로 길이 결정 모델이 수학식 또는 룩업 테이블로 미리 정의될 수 있다. 오차 보정부(112)는 광 경로 길이 결정 모델을 이용하여 광 경로 길이를 결정할 수 있다.
도 9c는 서로 다른 광 경로 길이(PL1,PL2,PL3)에 따른 파장별 흡광도의 변화를 보여주는 일 예로, 이와 같이 표준 광 경로 길이 대비 광 경로 길이 변화량 및 파장별 흡광도 변화량의 분석을 통해, 광 경로 길이 변화량과 파장별 흡광도 보정계수 사이의 관계를 나타내는 보정계수 획득 모델이 수학식 또는 룩업 테이블 형식으로 미리 정의될 수 있다. 오차 보정부(112)는 보정계수 획득 모델을 이용하여 보정계수를 획득할 수 있다.
다른 예로, 오차 보정부(112)는 산출된 기울기(Sm)와 표준 광학 센서의 표준 기울기(Sref) 사이의 비율(Sm/Sref)을 구하고, 보정할 광학 센서의 거리 변화량을 결정할 수 있다. 이때, 기울기 비율과 거리 변화량 사이의 관계를 나타내는 거리 변화량 획득 모델이 수학식 또는 룩업 테이블 형태로 미리 정의될 수 있으며, 거리 변화량 획득 모델을 이용하여 거리 변화량을 획득할 수 있다. 오차 보정부(112)는 거리 변화량이 획득되면 전술한 바와 같이 LED(L1)과 제2 포토다이오드(PD21) 사이의 광 경로 길이를 결정하고, 표준 광 경로 길이 대비 결정된 광 경로 길이 변화량을 기초로 보정계수를 획득할 수 있다.
도 10은 일 실시예에 따른 생체정보 추정 장치의 블록도이다.
도 10을 참조하면, 생체정보 추정 장치(1000)는 광학 센서(1010), 프로세서(1020), 입력부(1030), 저장부(1040), 출력부(1050) 및 통신부(1060)를 포함할 수 있다. 각 구성들은 하나의 하드웨어에 일체로 형성되거나, 둘 이상의 물리적으로 분리된 하드웨어에 분산 배치될 수 있다.
광학 센서(1010)는 광원(1011)과 디텍터(1012)를 포함하며, 광원(1011)에 의해 피검체에 조사된 광이 피검체로부터 산란 또는 반사될 때 디텍터(1012)를 통해 산란 또는 반사된 광을 검출하여 광의 스펙트럼 데이터나 맥파신호 등의 생체신호를 획득할 수 있다. 광원(1011)은 하나 이상의 LED, LD 등의 발광체를 포함하며, 각 발광체는 서로 다른 파장을 갖도록 형성될 수 있다. 디텍터(1012)는 CMOS 이미지센서, 하나 이상의 포토다이오드 또는 포토다이오드 어레이일 수 있으나 이에 제한되지 않는다.
프로세서(1020)는 생체정보 추정 장치(1000)의 각 구성(1010,1030,1040,1050,1060)들과 연결되어 각 구성들을 제어하는 제어 명령을 생성하여 각 구성들에 전달할 수 있으며, 각 구성들로부터 데이터를 수신하고, 수신된 데이터를 처리할 수 있다. 또한, 처리된 데이터를 다른 구성들로 송신하여 다른 구성들에 의해 필요한 동작을 수행하도록 할 수 있다.
프로세서(1020)는 생체정보 추정 장치(1000)를 사용하기 전, 예컨대 장치(1000)의 제작 시점 또는 사용자가 최초로 사용하는 시점에 표준 물질을 이용하여 광학 센서(1010)의 광원(1011)과 디텍터(1012) 사이의 거리 오차를 보정할 수 있다.
프로세서(1020)는 표준 광학 센서의 표준 밝기 정보를 기초로 보정할 광원(1011)의 밝기를 조절하고, 디텍터(1012)의 측정 데이터를 이용하여 적어도 두 지점 간의 광량 차이 또는 이미지 그라데이션을 기초로 광원(1011)-디텍터(1012) 간 거리 오차를 보정할 수 있다. 예를 들어, 표준 밝기 정보 중의 표준 전류 세기로 광원(1011)을 구동하거나, 디텍터(1012)의 표준점에서 측정된 광량이 표준 밝기 정보 중의 표준 광량이 되도록 광원(1011)의 전류 세기를 조절하여 광원(1011)의 밝기를 조절할 수 있다. 이때, 디텍터의 표준점은 이미지센서 또는 포토다이오드 어레이인 경우 복수의 픽셀 중의 소정 위치의 픽셀을 의미하며, 디텍터가 복수인 경우 미리 정의된 모니터링 디텍터를 의미할 수 있다. 광원(1011)의 밝기가 표준 밝기로 조절되지 않는 경우 에러 메시지를 출력부(1050)를 통해 출력할 수 있다. 오차 보정의 다양한 실시예들을 앞에서 자세히 설명한 바 있으므로 이하 생략한다.
또한, 프로세서(1020)는 생체정보 추정 장치(1000)를 사용하는 과정에서 광원 밝기 등의 광원 상태가 변화하므로, 사용자 요청, 미리 설정된 주기, 환경 변화(예: 온도, 습도 등) 기준, 보정 가능 상태(예: 광학 센서가 표준 물질에 접촉되어 있는 경우)인 경우 등 광원 상태 보정 조건을 만족할 때마다 표준 물질을 이용하여 광원(1011)의 밝기가 표준 밝기가 되도록 광원(1011)의 상태를 보정할 수 있다. 이때, 광원(1011)의 밝기가 표준 밝기로 조절되지 않는 경우 에러 메시지를 출력부(1050)를 통해 출력할 수 있다
예를 들어, 프로세서(1020)는 디텍터(1012)의 표준점 예컨대 디텍터가 이미지센서 또는 포토다이오드 어레이인 경우 소정 위치의 픽셀, 디텍터가 복수인 경우 미리 정의된 모니터링 디텍터에서 측정된 광량이 표준 광량이 되도록 광원(1011)의 전류 세기를 조절하고, 조절된 전류 세기를 해당 광원(1011)에 대한 표준 전류 세기로 저장부(1040)에 저장할 수 있다.
한편, 프로세서(1020)는 광원 상태 보정 조건을 만족하면 생체정보 추정 장치(1000)를 표준 물질에 위치하도록 출력부(1050)를 통해 사용자에게 가이드 할 수 있다.
예컨대, 표준 물질은 생체정보 추정 장치(1000)에 전원을 공급하는 충전기일 수 있으며, 생체정보 추정 장치(1000)가 충전기에 거치될 때 광학 센서(1010)가 접촉하거나 광학 센서(1010)에 마주보는 위치에 반사 물질이 배치 또는 도포될 수 있다. 프로세서(1020)는 생체정보 추정 장치(1000)의 본체를 충전기에 거치하도록 출력부(850)를 통해 시각적으로, 또는 음성으로 가이드 할 수 있다.
프로세서(1020)는 생체정보 추정 요청이 수신되면, 광원 상태의 보정 결과 예컨대, 조절된 광원의 전류 세기를 이용하여 광학 센서(1010)를 제어하여 피검체로부터 예컨대 파장별 흡광도 데이터를 획득하고, 광학 센서(1010)의 거리 오차 및/또는 광원 상태의 보정 결과 및/또는 생체정보 추정 모델을 이용하여 생체정보를 추정할 수 있다. 이때, 생체정보는 카로테노이드(carotenoid)와 같은 항산화 물질, 혈당(blood glucose), 요소(urea), 요산(uric acid), 젖산(lactate), 중성지방(triglyceride), 칼로리(calorie), 단백질(protein), 콜레스테롤(cholesterol), 수분, 크로모포어(chromohpore), 에탄올(ethanol), 혈압, 혈관 나이, 동맥경화도, 대동맥압 파형, 혈관 탄성도, 스트레스 지수, 피로도, 피부 나이 및 피부 탄력도 등을 포함할 수 있으나 이에 제한되는 것은 아니다.
예를 들어, 프로세서(1020)는 광학 센서(1010)의 거리 오차 보정 결과 재설정된 검출 영역에서 획득된 파장별 흡광도 데이터를 이용하여 생체정보를 추정할 수 있다. 또는, 광학 센서(1010)의 거리 오차 보정에 따라 획득된 파장별 흡광도 보정계수를 광학 센서(1010)에서 획득된 파장별 흡광도 데이터에 적용하여 파장별 흡광도 데이터를 보정하고, 보정된 파장별 흡광도 데이터를 이용하여 생체정보를 추정할 수 있다.
한편, 프로세서(1020)는 광원(1011)-디텍터(1012) 간 거리 오차 또는 광원 상태가 보정되면 생체정보 추정 모델을 보정할 수 있다. 이때, 생체정보 추정 모델은 파장별 흡광도와 생체정보 사이의 상관관계를 나타내며 복수의 사용자들로부터 획득된 파장별 흡광도와 정답 생체정보 측정값들을 학습데이터로 기계 학습, 신경망, 인공 지능 등을 통해 선형/비선형 함수식 등으로 생성될 수 있다.
일 예로, 프로세서(1020)는 표준 광학 센서의 표준 거리 대비 광학 센서(1010)의 광원(1011)-디텍터(1012) 간 거리의 변화량 및/또는 광원 상태 보정 정도와 생체정보 추정 모델의 각 변수의 계수 및/또는 오프셋 간의 상관관계를 기초로 생체정보 추정 모델을 보정할 수 있다. 예컨대, 거리의 변화량 및/또는 광원 상태 보정 정도와 생체정보 추정 모델의 각 변수의 계수 및/또는 오프셋 간의 상관관계를 나타내는 수학식이 미리 정의될 수 있으며, 수학식을 이용하여 생체정보 추정 모델의 계수 및/또는 오프셋을 보정할 수 있다.
예컨대, 아래의 수학식 4는 생체정보 추정 모델을 간단하게 정의한 선형 함수식을 예시한 것이다. 다만 이는 일 예에 불과한 것으로 이에 제한되는 것은 아니다.
Figure PCTKR2021012886-appb-M000004
여기서, y는 구하고자 하는 생체정보 추정값을 의미하고, x는 예컨대 흡광도를 나타낸다. a는 흡광도의 계수, b는 오프셋을 나타내며, 미리 정의된 값이다. 예컨대, 오프셋(b)과 거리 변화량 사이에 상관관계를 나타내는 선형 관계식을 이용하여 거리 오차의 보정에 따른 오프셋(b)을 보정할 수 있다.
다른 예로, 생체정보 추정 모델은 광원과 디텍터 간 거리 변화량에 따라 단계별로 미리 정의될 수 있으며, 거리 변화량에 해당하는 단계의 생체정보 추정 모델을 선택하여 생체정보를 추정할 수 있다.
입력부(1030)는 생체정보 추정 장치(1000)의 각 구성요소 예컨대 프로세서(1020)에 사용될 명령 및/또는 데이터를 사용자 또는 외부 기기로부터 수신할 수 있다. 입력부(1030)는 마이크, 마우스, 키보드, 터치 스크린, 및/또는 디지털 펜(스타일러스 펜 등)을 포함할 수 있으나 이에 제한되는 것은 아니다.
저장부(1040)는 광학 센서(1010)의 오차 보정을 위한 표준 정보, 광학 센서(1010)의 오차 보정 정보(예: 각 광원별 재설정된 좌표 정보 등, 광원별 밝기, 보정계수), 생체정보 추정을 위한 기준 정보 예컨대, 사용자의 건강 상태나 성별, 나이 등의 사용자 특성 정보, 생체정보 추정 모델, 생체정보 추정 모델을 보정하기 위한 관계식 등의 정보를 저장할 수 있다. 또한, 생체정보 추정 장치(1000)의 각종 구성들에 의해 생성 및/또는 처리된 데이터를 저장할 수 있다. 저장부(1040)는 전술한 바와 같이 플래시 메모리 타입(flash memory type), 하드 디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예컨대, SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory), 자기 메모리, 자기 디스크, 광디스크 등의 저장매체를 포함할 수 있으나 이에 제한되지 않는다.
출력부(1050)는 생체정보 추정 장치(1000)의 각종 구성들에 의해 생성 또는 처리된 데이터를 외부에 출력할 수 있다. 예를 들어, 출력부(1050)는 외부로 음향 신호를 출력하는 음향 출력 장치를 포함할 수 있다. 음향 출력 모듈은 스피커 및/또는 리시버를 포함할 수 있다.
또한, 출력부(1050)는 데이터를 시각적으로 외부에 제공하는 표시 장치를 포함할 수 있다. 표시 장치는 디스플레이, 홀로그램 장치, 또는 프로젝터 등을 포함할 수 있다. 표시 장치는 터치를 감지하도록 설정된 터치 회로(Touch Circuitry) 및/또는 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(압력 센서 등)를 포함할 수 있다.
또한, 출력부(1050)는 데이터를 촉감이나 진동 등으로 출력하는 햅틱 모듈을 포함할 수 있다. 햅틱 모듈은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(진동, 움직임 등) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈은 모터, 압전 소자, 및/또는 전기 자극 장치를 포함할 수 있다.
통신부(1060)는 외부 기기와 통신하여 생체정보 추정 장치(1000)의 각 구성들에 의해 생성 및/또는 처리된 데이터를 외부 기기로 송신하고, 외부 기기로부터 생체정보 추정 장치(1000)에서 활용될 데이터를 수신할 수 있다. 외부 기기는 스마트폰, 태블릿 PC, 데스크탑 PC, 노트북 PC 등의 정보 처리 장치를 포함할 수 있다.
통신부(860)는 블루투스(Bluetooth) 통신, BLE(Bluetooth Low Energy) 통신, 근거리 무선 통신(Near Field Communication, NFC), WLAN 통신, 지그비(Zigbee) 통신, 적외선(Infrared Data Association, IrDA) 통신, WFD(Wi-Fi Direct) 통신, UWB(ultra-wideband) 통신, Ant+ 통신, WIFI 통신, RFID(Radio Frequency Identification) 통신, 3G 통신, 4G 통신 및 5G 통신 등을 포함하는 다양한 유무선 통신 기술을 이용하여 외부 기기와 통신할 수 있다. 다만, 이에 한정되는 것은 아니다.
도 11은 일 실시예에 따른 생체정보 추정 방법의 흐름도이다.
도 11은 생체정보 추정 장치(1000)에 의해 수행되는 생체정보 추정 방법의 일 실시예로 앞에서 상술하였으므로 이하 간단하게 설명한다.
먼저, 탑재된 광학 센서의 거리 오차를 보정할 수 있다(1110). 광학 센서의 거리 오차를 보정하는 단계(1110)는 생체정보 추정 장치(1000)를 사용하기 전에 적어도 1회 수행되며, 필요한 경우 생체정보 추정 장치(1000)를 사용한 이후에도 수행될 수 있다. 광학 센서의 거리 오차의 보정이 완료되면, 생체정보 추정 모델을 보정하는 단계(1140)가 수행될 수 있다.
광학 센서의 오차 보정이 일단 완료되면 이후 광원 상태 보정과 생체정보 추정이 시간의 선후 없이 해당 조건을 만족할 때마다 수행될 수 있다. 예컨대, 광원 상태의 보정 조건을 만족하는지 판단하여(1120), 보정 조건을 만족하면 표준 물질을 이용하여 광원 밝기를 보정하고(1130), 광학 센서의 오차 보정 결과 및/또는 광원 밝기 보정 결과를 기초로 생체정보 추정 모델을 보정할 수 있다(1140). 또한, 생체정보 추정 요청이 수신되면(1150), 광학 센서를 통해 피검체로부터 흡광도 데이터를 획득하고(1160), 광학 센서 오차 보정 결과 및 생체정보 추정 모델을 이용하여 생체정보를 추정할 수 있다(1170). 이와 같이 생체정보 추정 전후에 수시로 광원 상태 및/또는 생체정보 추정 모델을 보정함으로써 생체정보 추정의 정확성을 향상시킬 수 있다.
도 12는 생체정보 추정 장치를 포함한 웨어러블 기기를 도시한 것이다. 도시된 바와 같이 일 실시예의 웨어러블 기기(1200)는 사용자가 착용할 수 있는 스마트 워치(smart watch)일 수 있다. 다만, 이에 제한되지 않으며 웨어러블 기기(900)는 스마트밴드, 스마트 목걸이, 스마트 반지, 이어 타입 웨어러블 기기 등을 포함할 수 있다. 웨어러블 기기(1200)는 전술한 생체정보 추정 장치(1000)의 다양한 실시예들을 포함할 수 있다.
도 12를 참조하면, 웨어러블 기기(1200)는 본체(1210)와 스트랩(1230)을 포함한다. 본체(1210)는 스트랩(1230)에 의해 사용자의 손목에 착용될 수 있다. 본체(1210)는 웨어러블 기기(1200)의 생체정보 추정 장치(1000)와 그 밖의 기능을 수행하는 구성을 포함할 수 있다.
본체(1210) 또는 스트랩(1230)의 내부에는 전원을 공급하는 배터리가 내장될 수 있다. 스트랩(1230)은 사용자의 손목을 감싸는 형태로 구부려질 수 있도록 플렉시블(flexible)하게 형성될 수 있다. 스트랩(1230)은 서로 분리된 제1 스트랩과 제2 스트랩으로 구성될 수 있다. 제1 스트랩과 제2 스트랩의 일단부는 각각 본체(1210)의 양측에 연결되고, 제1 스트랩과 제2 스트랩의 타단부에 형성된 결합수단을 이용하여 서로 체결될 수 있다. 이때, 결합수단은 자석 결합, 벨크로(velcro) 결합, 핀 결합 등의 방식으로 형성될 수 있으며 이에 제한되는 것은 아니다. 또한, 스트랩(1230)은 밴드와 같이 서로 분리되지 않는 일체로 형성될 수도 있다.
본체(1210)의 일면에 광학 센서(1220)가 장착되고, 본체(1210) 내부에 배치된 프로세서가 배치되어 광학 센서(1220)와 전기적으로 연결될 수 있다. 광학 센서(1220)는 광원과 디텍터로 이루어지고, 광원은 LED 등을 포함하며, 디텍터는 이미지센서 또는, 하나 이상의 포토다이오드, 포토다이오드 어레이 등을 포함할 수 있다. 프로세서는 광학 센서(1220)를 통해 피검체로부터 획득된 흡광도 데이터를 이용하여 생체정보를 추정할 수 있다.
또한, 프로세서는 전술한 바와 같이 웨어러블 기기(1200)의 사용 전에 광학 센서(1220)의 광원-디텍터 간 거리 오차를 보정할 수 있으며, 생체정보 추정 전, 소정 주기, 사용자의 요청, 또는 표준 물질에 접촉되어 있는 경우(예: 표준 물질이 도포된 충전기에 거치되어 있는 경우) 등 미리 설정된 조건이 되면 표준 물질을 이용하여 광원의 밝기 등 광원 상태를 보정하고, 생체정보 추정 모델을 보정할 수 있다.
또한, 본체(1210) 내부에 웨어러블 기기(1200)에 의해 생성 및/또는 처리된 데이터를 저장하는 저장부, 데이터를 외부 기기와 송수신하는 통신부가 장착될 수 있다.
본체(1210)에 일측면에 사용자의 제어 명령을 수신하여 프로세서로 전달하는 조작부(1240)가 장착될 수 있다. 조작부(1240)는 웨어러블 기기(1200)의 전원을 온/오프시키는 명령을 입력하기 위한 전원 버튼을 포함할 수 있다.
또한, 본체(1210)의 전면에 사용자에게 정보를 출력하는 표시부가 장착될 수 있으며, 표시부는 터치 입력이 가능한 터치 스크린을 포함할 수 있다. 표시부는 사용자의 터치 입력을 수신하여 프로세서에 전달하고 프로세서의 처리 결과를 표시할 수 있다.
도 13은 생체정보 추정 장치를 포함한 모바일 기기를 도시한 것이다. 도시된 바와 같이 모바일 기기(1300)는 스마트폰 일 수 있으나, 이에 제한되지 않으며 태블릿 PC 등을 포함할 수 있다. 모바일 기기(1300)는 전술한 생체정보 추정 장치(1000)의 다양한 실시예들을 포함할 수 있다.
모바일 기기(1300)는 본체(1310)의 후면에 광학 센서(1330)가 장착될 수 있다. 광학 센서(1030)는 LED 등으로 이루어진 광원과 이미지센서 또는 포토다이오드 어레이 등으로 형성된 디텍터를 포함할 수 있다.
모바일 기기(1300)의 본체(1310) 내부에는 프로세서가 배치되며, 프로세서는 광학 센서(1330)와 전기적으로 연결되어 광학 센서(1330)로부터 수신된 피검체의 흡광도 데이터를 이용하여 생체정보를 추정할 수 있다.
또한, 프로세서는 전술한 바와 같이 모바일 기기(1300)의 사용 전에 광학 센서(1330)의 광원-디텍터 간 거리 오차를 보정할 수 있으며, 생체정보 추정 전, 소정 주기, 사용자의 요청, 또는 표준 물질(예: 충전기)에 거치되어 있는 경우 등 미리 설정된 조건이 되면, 표준 물질을 이용하여 광원의 밝기 등 광원 상태를 보정하고, 생체정보 추정 모델을 보정할 수 있다.
모바일 기기(1300)의 본체(1310)의 후면에 카메라 모듈(1320)이 배치될 수 있다. 카메라 모듈(1320)은 정지 영상 또는 동영상을 촬영할 수 있다. 카메라 모듈(1320)은 하나 이상의 렌즈를 포함하는 렌즈 어셈블리, 이미지센서들, 이미지 시그널 프로세서들 및/또는 플래시들을 포함할 수 있다.
모바일 기기(1300) 본체(1310)의 전면에 표시부가 장착될 수 있다. 표시부는 모바일 기기(1300)에 의해 생성 및/또는 처리되는 각종 데이터를 시각적으로 출력할 수 있으며, 터치 스크린을 포함하여 터치 입력을 수신할 수 있다.
도 14는 웨어러블 디바이스가 충전기에 거치된 상태를 도시한 도면이다.
도 14을 참조하면, 충전기(1400)의 본체는 원형으로서 상부면이 평면으로 구현될 수 있다. 다만, 이에 제한됨이 없이 사각형, 오각형, 삼각형, 육각형 등 다양한 모양으로 구현될 수 있으며, 상부면이 웨어러블 디바이스(1200)가 올려지게 되면 자연스럽게 웨어러블 디바이스(1200)의 충전 가능 영역으로 위치될 수 있는 구조로 구현될 수도 있다.
충전기(1400)는 상부면(1410), 즉 웨어러블 디바이스(1200)의 거치시 웨어러블 디바이스(1200)가 접촉하는 면에 반사 물질이 배치 또는 도포될 수 있다. 이때, 반사 물질은 1% ~ 99% 의 반사율을 가지는 확산 반사 물질(diffuse reflection material)로서, 황산바륨(BaSo4) 및 테프론(PTEF) 등을 포함할 수 있다.
웨어러블 기기(1200)의 후면 즉 충전기(1400)의 상부면(1410)에 접촉하는 면에 광학 센서가 배치되며, 웨어러블 기기(1200)의 프로세서는 사용자의 요청, 소정 주기, 소정 시간대, 생체정보 추정 요청시 등 오차 보정 시점이 되면, 웨어러블 기기(1200)가 충전기(1400)에 거치되어 있는지 확인하여, 충전기(1410)에 거치되어 있으면 전술한 바와 같이 광학 센서의 오차를 보정하고, 그렇지 않으면 웨어러블 기기를 충전기에 거치하도록 유도하는 시각적 정보를 디스플레이에 출력하거나, 음성 정보를 음성 출력 장치를 이용하여 출력할 수 있다.
한편, 본 실시 예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 개시된 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (26)

  1. 광원과 디텍터를 포함한 광학 센서의 오차 보정 방법에 있어서,
    상기 광원의 밝기를 표준 밝기로 조절하는 단계;
    상기 광원을 통해 표준 물질에 광을 조사하는 단계;
    상기 디텍터를 통해 표준 물질 데이터를 획득하는 단계;
    상기 획득된 표준 물질 데이터를 이용하여 적어도 두 지점 간의 광량 차이나 이미지 그라데이션(gradation)을 기초로 상기 광학 센서의 광원-디텍터 간 거리 오차를 보정하는 단계를 포함하는 광학 센서의 오차 보정 방법.
  2. 제1항에 있어서,
    상기 오차를 보정하는 단계는
    표준 거리 대비 상기 광원-디텍터 간 거리의 변화를 검출하고, 상기 검출된 거리의 변화를 기초로 상기 광원-디텍터 간 거리 오차를 보정하는 광학 센서의 오차 보정 방법.
  3. 제2항에 있어서,
    상기 오차를 보정하는 단계는
    상기 디텍터에서 미리 정의된 표준점들 사이의 기울기를 산출하고, 산출된 기울기 및 표준 기울기를 기초로 상기 광원-디텍터 간 거리의 변화를 검출하는 광학 센서의 오차 보정 방법.
  4. 제3항에 있어서,
    상기 오차를 보정하는 단계는
    상기 표준점들의 X 좌표 지점 간의 제1 기울기 및 Y 좌표 지점 간의 제2 기울기를 산출하고, 산출된 제1 기울기 및 제2 기울기를 기초로 상기 광원-디텍터 간 거리의 변화를 검출하는 광학 센서의 오차 보정 방법.
  5. 제2항에 있어서,
    상기 오차를 보정하는 단계는
    상기 검출된 거리의 변화를 기초로 상기 광원에 대한 디텍터 검출 영역의 좌표를 재설정하는 광학 센서의 오차 보정 방법.
  6. 제2항에 있어서,
    상기 광을 조사하는 단계는
    상기 광원과 동일한 파장의 광을 조사하는 다른 광원을 동시에 구동하고,
    상기 오차를 보정하는 단계는
    상기 표준 물질 데이터에서 표준 등고선 위치의 등고선을 검출하여 검출된 등고선들 사이의 등고선 기울기를 산출하고, 산출된 등고선 기울기와 표준 등고선 기울기를 기초로 상기 광원-디텍터 간의 거리의 변화를 검출하는 광학 센서의 오차 보정 방법.
  7. 제6항에 있어서,
    상기 오차를 보정하는 단계는
    상기 광원과 다른 광원 사이의 벡터를 검출하고, 상기 광원-디텍터 간의 거리의 변화를 기초로 상기 광원에 대한 디텍터 검출 영역의 좌표를 상기 검출된 벡터 상에서 이동하는 광학 센서의 오차 보정 방법.
  8. 광원과 디텍터를 포함한 광학 센서의 오차 보정 장치에 있어서, 상기 오차 보정 장치는 프로세서를 포함하고,
    상기 프로세서는
    상기 광원의 밝기를 표준 밝기로 조절하고, 표준 물질에 광을 조사하도록 상기 광원을 구동하는 센서 제어부; 및
    상기 디텍터에 의해 획득된 표준 물질 데이터를 이용하여 적어도 두 지점 간의 광량 차이나 이미지 그라데이션(gradation)을 기초로 상기 광학 센서의 광원-디텍터 간 거리 오차를 보정하는 오차 보정부를 포함하는 광학 센서의 오차 보정 장치.
  9. 제8항에 있어서,
    표준 광학 센서의 광원의 표준 밝기, 표준점들의 위치 정보, 표준점들 사이의 표준 기울기, 표준점들의 표준 등고선 기울기, 및 광원-디텍터 간 표준 거리 중의 하나 이상을 포함하는 표준 정보를 저장하는 저장부를 더 포함하는 광학 센서의 오차 보정 장치.
  10. 제8항에 있어서,
    상기 오차 보정부는
    표준 거리 대비 상기 광원-디텍터 간 거리의 변화를 검출하고, 검출된 거리의 변화를 기초로 상기 광원-디텍터 간 거리 오차를 보정하는 광학 센서의 오차 보정 장치.
  11. 제10항에 있어서,
    상기 오차 보정부는
    상기 디텍터에서 미리 정의된 표준점들 사이의 기울기를 산출하고, 산출된 기울기 및 표준 기울기를 기초로 상기 광원-디텍터 간 거리의 변화를 검출하는 광학 센서의 오차 보정 장치.
  12. 제11항에 있어서,
    상기 오차 보정부는
    상기 표준점들의 X 좌표 지점 간의 제1 기울기 및 Y 좌표 지점 간의 제2 기울기를 산출하고, 산출된 제1 기울기 및 제2 기울기를 기초로 상기 광원-디텍터 간 거리의 변화를 검출하는 광학 센서의 오차 보정 장치.
  13. 제10항에 있어서,
    상기 오차 보정부는
    상기 검출된 거리의 변화를 기초로 상기 광원에 대한 디텍터 검출 영역의 좌표를 재설정하는 광학 센서의 오차 보정 장치.
  14. 제10항에 있어서,
    상기 센서 제어부는
    상기 광원과 동일한 파장의 광을 조사하는 다른 광원을 동시에 구동하고,
    상기 오차 보정부는
    상기 표준 물질 데이터에서 표준 등고선 위치의 등고선을 검출하여 검출된 등고선들 사이의 등고선 기울기를 산출하고, 산출된 등고선 기울기와 표준 등고선 기울기를 기초로 상기 광원-디텍터 간의 거리의 변화를 검출하는 광학 센서의 오차 보정 장치.
  15. 제14항에 있어서,
    상기 오차 보정부는
    상기 광원과 다른 광원 사이의 벡터를 검출하고, 상기 광원-디텍터 간의 거리의 변화를 기초로 상기 광원에 대한 디텍터의 검출 영역의 좌표를 상기 검출된 벡터 상에서 이동하는 광학 센서의 오차 보정 장치.
  16. 광원과 제1 디텍터 및 제2 디텍터를 포함한 광학 센서의 오차 보정 방법에 있어서,
    광원을 통해 표준 물질에 광을 조사하는 단계;
    제1 디텍터의 측정값이 제1 측정값이 되도록 상기 광원의 밝기를 조절하는 단계;
    제2 디텍터에서 제2 측정값을 획득하는 단계;
    상기 제1 측정값과 제2 측정값 사이의 차이를 기초로 기울기를 산출하는 단계; 및
    상기 산출된 기울기를 기초로 광원-제2 디텍터 사이의 거리 오차를 보정하는 단계를 포함하는 광학 센서의 오차 보정 방법.
  17. 제16항에 있어서,
    상기 오차를 보정하는 단계는
    상기 산출된 기울기를 기초로 상기 제2 측정값의 보정계수를 획득하는 광학 센서의 오차 보정 방법.
  18. 제17항에 있어서,
    상기 오차를 보정하는 단계는
    상기 광원과 상기 제2 디텍터 사이의 광 경로 길이를 결정하고, 상기 결정된 광 경로 길이를 기초로 상기 제2 측정값의 보정계수를 획득하는 광학 센서의 오차 보정 방법.
  19. 제18항에 있어서,
    상기 산출된 기울기를 기초로 상기 광원-제2 디텍터 사이의 거리를 산출하고, 산출된 거리를 기초로 상기 광 경로 길이를 결정하는 광학 센서의 오차 보정 방법.
  20. 제18항에 있어서,
    상기 오차를 보정하는 단계는
    표준 광학 센서의 표준 기울기와 상기 산출된 기울기 사이의 비율을 산출하고, 산출된 비율을 기초로 상기 광 경로 길이를 결정하는 광학 센서의 오차 보정 방법.
  21. 광원과 제1 디텍터 및 제2 디텍터를 포함한 광학 센서의 오차 보정 장치에 있어서, 상기 오차 보정 장치는 프로세서를 포함하고,
    상기 프로세서는
    광원을 통해 표준 물질에 광을 조사하고, 제1 디텍터의 측정값이 제1 측정값이 되도록 상기 광원의 밝기를 조절하는 센서 제어부; 및
    제2 디텍터에서 제2 측정값을 획득하고, 제1 측정값과 제2 측정값 사이의 차이를 기초로 기울기를 산출하며, 산출된 기울기를 기초로 광원-제2 디텍터 사이의 거리 오차를 보정하는 오차 보정부를 포함하는 광학 센서의 오차 보정 장치.
  22. 광원과 디텍터를 포함한 광학 센서; 및
    표준 물질을 이용하여 상기 광학 센서의 광원-디텍터 간 거리 오차 또는 광원 상태를 보정하고, 보정 후 광학 센서를 통해 획득된 피검체 데이터를 이용하여 생체정보를 추정하는 프로세서를 포함하고,
    상기 프로세서는
    상기 광원의 밝기를 표준 밝기로 조절하여 표준 물질에 광을 조사하도록 상기 광원을 구동하며, 상기 디텍터에 의해 획득된 표준 물질 데이터를 이용하여 적어도 두 지점 간의 광량 차이나 이미지 그라데이션을 기초로 상기 광학 센서의 광원-디텍터 간 거리 오차를 보정하는, 생체정보 추정 장치.
  23. 제22항에 있어서,
    상기 프로세서는
    광원 상태 보정 조건을 만족하면, 상기 광원의 밝기가 상기 표준 밝기가 되도록 상기 광원의 상태를 보정하는 생체정보 추정 장치.
  24. 제23항에 있어서,
    상기 프로세서는
    상기 광원-디텍터 간 거리 오차 또는 광원 상태를 보정하면, 보정 결과를 기초로 생체정보 추정 모델을 보정하고, 보정된 생체정보 추정 모델을 이용하여 생체정보를 추정하는 생체정보 추정 장치.
  25. 제22항에 있어서,
    상기 프로세서는
    상기 광학 센서의 오차 보정 결과 재설정된 검출영역에서 획득된 데이터를 이용하여 생체정보를 추정하는 생체정보 추정 장치.
  26. 제22항에 있어서,
    상기 프로세서는
    상기 광학 센서의 오차 보정 결과 획득된 보정계수를 상기 피검체로부터 획득된 데이터에 적용하여 생체정보를 추정하는 생체정보 추정 장치.
PCT/KR2021/012886 2020-09-25 2021-09-17 광학 센서의 오차 보정 방법 및 장치와, 생체정보 추정 장치 WO2022065847A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/126,156 US20230233084A1 (en) 2020-09-25 2023-03-24 Method and apparatus for correcting error of optical sensor, and apparatus for estimating biometric information

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2020-0124753 2020-09-25
KR20200124753 2020-09-25
KR10-2021-0124943 2021-09-17
KR1020210124943A KR20220041750A (ko) 2020-09-25 2021-09-17 광학 센서의 오차 보정 방법 및 장치와, 생체정보 추정 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/126,156 Continuation US20230233084A1 (en) 2020-09-25 2023-03-24 Method and apparatus for correcting error of optical sensor, and apparatus for estimating biometric information

Publications (1)

Publication Number Publication Date
WO2022065847A1 true WO2022065847A1 (ko) 2022-03-31

Family

ID=80845652

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/012886 WO2022065847A1 (ko) 2020-09-25 2021-09-17 광학 센서의 오차 보정 방법 및 장치와, 생체정보 추정 장치

Country Status (2)

Country Link
US (1) US20230233084A1 (ko)
WO (1) WO2022065847A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006226851A (ja) * 2005-02-18 2006-08-31 Keyence Corp 位置検出型光電センサーとその基準距離設定方法
US20130258353A1 (en) * 2010-10-15 2013-10-03 Scopis Gmbh Method and device for calibrating an optical system, distance determining device, and optical system
JP2020008531A (ja) * 2018-07-12 2020-01-16 ファナック株式会社 距離補正機能を有する測距装置
WO2020084955A1 (ja) * 2018-10-24 2020-04-30 ソニーセミコンダクタソリューションズ株式会社 測距センサ、検出センサ、測距方法及び電子機器
KR20200055933A (ko) * 2018-11-14 2020-05-22 삼성전자주식회사 생체 정보 검출을 위한 방법, 전자 장치 및 저장 매체

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006226851A (ja) * 2005-02-18 2006-08-31 Keyence Corp 位置検出型光電センサーとその基準距離設定方法
US20130258353A1 (en) * 2010-10-15 2013-10-03 Scopis Gmbh Method and device for calibrating an optical system, distance determining device, and optical system
JP2020008531A (ja) * 2018-07-12 2020-01-16 ファナック株式会社 距離補正機能を有する測距装置
WO2020084955A1 (ja) * 2018-10-24 2020-04-30 ソニーセミコンダクタソリューションズ株式会社 測距センサ、検出センサ、測距方法及び電子機器
KR20200055933A (ko) * 2018-11-14 2020-05-22 삼성전자주식회사 생체 정보 검출을 위한 방법, 전자 장치 및 저장 매체

Also Published As

Publication number Publication date
US20230233084A1 (en) 2023-07-27

Similar Documents

Publication Publication Date Title
WO2020105841A1 (en) Electronic device for obtaining blood pressure value using pulse wave velocity algorithm and method for obtaining blood pressure value
WO2016204432A1 (ko) 전자 디바이스
WO2012067423A2 (ko) 적외선 어레이 센서를 이용한 휴대용 온도측정장치
WO2020106060A1 (en) Electronic device and method for obtaining information regarding blood glucose of user
WO2020116756A1 (en) Method for guiding measurement of biological signal in wearable device
US10987008B2 (en) Device, method and computer program product for continuous monitoring of vital signs
WO2022131657A1 (ko) 운동 가이드를 제공하는 전자 장치 및 그 동작 방법
WO2022124647A1 (ko) 수면 무호흡을 검출하기 위한 방법 및 이를 지원하는 전자 장치
WO2019039698A1 (ko) 외부 광에 기반하여 이미지를 처리하는 방법 및 이를 지원하는 전자 장치
WO2021101073A1 (ko) 생체 데이터를 획득하는 장치 및 그 방법
WO2020009496A1 (ko) 생체 정보 측정 장치 및 방법
CN113613553A (zh) 测量血压的电子设备和测量血压的方法
WO2022065847A1 (ko) 광학 센서의 오차 보정 방법 및 장치와, 생체정보 추정 장치
KR20190049025A (ko) 복수의 발광부 및 복수의 수광부를 포함하는 전자 장치
WO2021187884A1 (ko) 생체 정보를 감지하는 웨어러블 전자 장치
KR101805076B1 (ko) 주변광 센서 테스트 장치
WO2021241925A1 (ko) 혈압 측정 방법 및 전자 장치
AU2019208949A1 (en) Apparatus and method for determining calibration timing for blood pressure measurement in electronic device
KR20220041750A (ko) 광학 센서의 오차 보정 방법 및 장치와, 생체정보 추정 장치
CN114847880A (zh) 用于检测睡眠信息的智能设备和方法
WO2024111918A1 (ko) 산소포화도 측정 가이드 방법 및 그 웨어러블 장치
KR20220075759A (ko) 분석물의 성분 추정 장치 및 방법
WO2024010369A1 (ko) 생체 정보를 획득하기 위한 전자 장치 및 방법
WO2019143056A1 (en) Apparatus and method for determining calibration timing for blood pressure measurement in electronic device
US20170112394A1 (en) Measurement apparatus and measurement method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21872875

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21872875

Country of ref document: EP

Kind code of ref document: A1