KR20210144356A - 웨어러블 기기 및 생체정보 추정 방법 - Google Patents

웨어러블 기기 및 생체정보 추정 방법 Download PDF

Info

Publication number
KR20210144356A
KR20210144356A KR1020200061606A KR20200061606A KR20210144356A KR 20210144356 A KR20210144356 A KR 20210144356A KR 1020200061606 A KR1020200061606 A KR 1020200061606A KR 20200061606 A KR20200061606 A KR 20200061606A KR 20210144356 A KR20210144356 A KR 20210144356A
Authority
KR
South Korea
Prior art keywords
finger
measurement position
fingerprint image
contact
sensor unit
Prior art date
Application number
KR1020200061606A
Other languages
English (en)
Inventor
이종욱
박상윤
고병훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200061606A priority Critical patent/KR20210144356A/ko
Priority to US16/951,059 priority patent/US11354933B2/en
Publication of KR20210144356A publication Critical patent/KR20210144356A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • A61B5/6826Finger
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • A61B5/02116Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics of pulse wave amplitude
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • A61B5/02125Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics of pulse wave propagation time
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/022Measuring pressure in heart or blood vessels by applying pressure to close blood vessels, e.g. against the skin; Ophthalmodynamometers
    • A61B5/02225Measuring pressure in heart or blood vessels by applying pressure to close blood vessels, e.g. against the skin; Ophthalmodynamometers using the oscillometric method
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6843Monitoring or controlling sensor contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6844Monitoring or controlling distance between sensor and tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • A61B5/706Indicia not located on the patient, e.g. floor marking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04146Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position using pressure sensitive conductive elements delivering a boolean signal and located between crossing sensing lines, e.g. located between X and Y sensing line layers
    • G06K9/00006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0233Special features of optical sensors or probes classified in A61B5/00
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0252Load cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Vascular Medicine (AREA)
  • General Engineering & Computer Science (AREA)
  • Dermatology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pulmonology (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

웨어러블 기기는 본체 측면부에 배치된 용두에 형성되고 사용자의 손가락이 접촉할 때 제1 지문 이미지를 획득하는 센서부와, 획득된 제1 지문 이미지와 그 손가락으로부터 미리 획득된 제2 지문 이미지를 기초로 손가락의 최적 측정 위치에서 맥파신호가 획득되도록 가이드하는 프로세서를 포함할 수 있다.

Description

웨어러블 기기 및 생체정보 추정 방법{WEARAGLE DEVICE AND, METHOD FOR ESTIMATING BIO-INFORMATION}
웨어러블 기기 및 그 웨어러블 기기에서 생체정보를 추정하는 기술과 관련된다.
최근 스마트폰 및 웨어러블 기기가 보편화되고 이를 이용한 건강 지표 측정이 많은 관심을 받고 있다. 일반적으로 가속도 센서를 이용하여 걸음수, 활동량 등을 측정하거나, 심박 센서를 이용하여 심박수를 측정하는 것이 주된 응용이었으나, 최근에는 심전도 센서를 이용하여 부정맥, 혈압, 혈당 등과 같이 보다 의료적으로 중요성을 갖는 지표들에 대한 관심이 고조되고 있다.
스마트폰이나 웨어러블 기기를 이용하여 혈압을 추정하는 방법에는 크게 PPG(Photoplethysmograph, 광용적맥파)의 형태를 분석하는 방법(PWA, Pulse Wave Analysis), PTT(Pulse Transit Time) 또는 PAT(Pulse Arrival Time)를 이용하여 맥파의 속도를 측정하고 이를 이용해서 혈압을 추정하는 방법, 측정 부위 전체 또는 일부분을 가압하면서 맥파의 크기를 측정하는 오실로메트리(Oscillometry) 방법 등이 있다. 일반적으로 PWA, PTT, PAT 등을 이용하여 혈압을 추정하는 방법은 주기적으로 캘리브레이션을 해 주어야 하기 때문에 주로 추세 추적(trend tracking)에 적용된다. 이에 반해, 오실로메트리 방법은 절대적인 혈압값을 추정할 수 있다는 장점이 있다.
일반적으로 손가락이 상완(Upper arm)과 유사한 구성으로 이루어져 있어 오실로메트리 방식으로 혈압을 추정하기에 효과적이라는 점은 이미 알려져 있다. 하지만 넓은 면적의 상완과는 달리 손가락은 좁은 면적에 피부, 지방, 뼈, 혈관 등이 복잡하게 위치해 있어서 오실로메트리 수행시 센서의 위치 및 방향을 정확히 맞추는 것이 중요하다
손가락의 지문을 이용하여 손가락의 최적 측정 위치 및 접촉 방향을 가이드하고 이를 통해 생체정보를 정확하게 추정하는 웨어러블 기기 및 그 생체정보 추정 방법이 제시된다.
일 양상에 따르면 웨어러블 기기는 본체, 본체 측면부에 배치된 용두에 형성되고, 사용자의 손가락이 접촉할 때 상기 손가락의 부분 지문 이미지를 획득하는 센서부 및, 상기 획득된 부분 지문 이미지와 상기 손가락의 전체 지문 이미지를 기초로, 상기 센서부에 손가락의 최적 측정 위치가 접촉되도록 가이드하는 프로세서를 포함할 수 있다.
센서부는 손가락이 접촉하는 핑거 접촉면, 핑거 접촉면에 접촉한 손가락에 광을 조사하는 광원 및 상기 손가락으로 산란 또는 반사된 광을 검출하는 수광부를 포함하는 광센서 및 손가락과 핑거 접촉면 사이에 작용하는 접촉힘을 측정하는 힘센서를 포함할 수 있다.
또한, 웨어러블 기기는 본체의 일면에 배치되는 표시부를 더 포함하고, 프로세서는 표시부에 손가락의 전체 지문 이미지를 표시하고, 상기 표시된 전체 지문 이미지 상에 손가락의 최적 측정 위치를 나타내는 마커를 표시할 수 있다.
프로세서는 전체 지문 이미지 및 상기 부분 이미지를 기초로 손가락의 최적 측정 위치가 센서부에 접촉되었는지 판단하고, 손가락의 최적 측정 위치가 센서부에 접촉되지 않은 것으로 판단되면 상기 표시부에 표시된 전체 지문 이미지 상에 손가락의 현재 측정 위치를 나타내는 마커를 더 표시할 수 있다.
프로세서는 전체 지문 이미지에서 상기 부분 지문 이미지와 매칭되는 위치를 결정하고, 결정된 위치의 지문과 상기 최적 측정 위치를 나타내는 마커 위치의 지문을 비교하여 손가락의 최적 측정 위치가 센서부에 접촉되었는지 판단할 수 있다.
프로세서는 손가락의 최적 측정 위치가 센서부에 접촉된 것으로 판단되면 상기 표시부를 통해 손가락과 센서부 사이의 접촉압력을 가이드할 수 있다.
프로세서는 센서부를 통해 손가락의 복수의 타겟 측정 위치에서 맥파신호를 획득하고, 획득된 맥파신호를 기초로 손가락의 최적 측정 위치를 결정할 수 있다.
프로세서는 표시부에 상기 전체 지문 이미지를 표시하고, 상기 표시된 전체 지문 이미지 상에 손가락의 타겟 측정 위치를 나타내는 마커를 표시할 수 있다.
일 양상에 따르면, 웨어러블 기기는 본체의 일면에 배치되며 지문 센서를 포함하는 표시부를 더 포함하고, 프로세서는 표시부의 지문 센서를 이용하여 상기 손가락의 전체 지문 이미지를 획득할 수 있다.
프로세서는 사용자가 손가락을 지문 센서에 접촉시키도록 상기 표시부에 상기 지문 센서의 영역을 나타내는 마커를 표시할 수 있다.
프로세서는 손가락이 상기 지문 센서의 영역을 나타내는 마커 위치에 접촉되면, 상기 손가락의 기준 측정 위치를 특정하기 위한 마커를 표시부에 더 표시할 수 있다.
프로세서는 사용자가 상기 손가락의 기준 측정 위치를 특정하기 위한 마커를 손가락의 기준 측정 위치로 이동시키면, 상기 전체 지문 이미지를 획득하기 위해 손가락을 미세하게 움직이도록 가이드하는 텍스트를 상기 표시부에 더 표시할 수 있다.
또한, 웨어러블 기기는 외부 기기에 의해 상기 사용자의 손가락으로부터 미리 획득된 전체 지문 이미지를 외부 기기로부터 수신하는 통신부를 더 포함할 수 있다.
프로세서는 센서부에 의해 손가락의 최적 측정 위치로부터 맥파신호 및 접촉힘이 획득되면, 획득된 맥파신호 및 접촉힘을 기초로 생체정보를 추정할 수 있다.
이때, 생체정보는 혈압, 혈관 나이, 동맥경화도, 대동맥압 파형, 혈관 탄성도, 스트레스 지수 및 피로도 중의 하나 이상을 포함할 수 있다.
일 양상에 따르면, 웨어러블 기기는 본체, 본체 측면부에 배치된 용두에 형성되고, 사용자의 손가락이 접촉할 때 손가락의 부분 지문 이미지를 획득하는 센서부, 본체에 실장되는 통신부 및, 외부 기기가 부분 지문 이미지 및 손가락의 전체 지문 이미지를 기초로 손가락의 측정 위치를 가이드하도록 상기 통신부를 통해 외부 기기에 상기 부분 지문 이미지를 전송하고, 상기 외부 기기의 가이드에 따라 상기 손가락의 최적 측정 위치가 센서부에 접촉되면 맥파신호를 획득하도록 상기 센서부를 제어할 수 있다.
프로세서는 센서부에 의해 손가락의 최적 측정 위치로부터 맥파신호 및 접촉힘이 획득되면, 획득된 맥파신호 및 접촉힘을 기초로 생체정보를 추정할 수 있다.
일 양상에 따르면, 생체정보 추정 방법은 웨어러블 기기 본체의 측면 용두에 형성된 센서부에 사용자의 손가락이 접촉할 때 손가락의 부분 지문 이미지를 획득하는 단계 및 손가락의 부분 지문 이미지와 상기 손가락의 전체 지문 이미지를 기초로, 센서부에 손가락의 최적 측정 위치가 접촉되도록 가이드하는 단계를 포함할 수 있다.
또한, 생체정보 추정 방법은 웨어러블 기기의 표시부에 상기 전체 지문 이미지 및 상기 손가락의 최적 측정 위치를 나타내는 마커를 표시하는 단계를 더 포함할 수 있다.
가이드하는 단계는 전체 지문 이미지 및 상기 부분 이미지를 기초로 손가락의 최적 측정 위치가 센서부에 접촉되었는지 판단하는 단계 및 손가락의 최적 측정 위치가 센서부에 접촉되지 않은 것으로 판단되면, 상기 표시부에 표시된 전체 지문 이미지 상에 손가락의 현재 측정 위치를 나타내는 마커를 표시하는 단계를 포함할 수 있다.
판단하는 단계는 전체 지문 이미지에서 부분 지문 이미지와 매칭되는 위치를 결정하는 단계 및, 결정된 위치의 지문과 상기 최적 측정 위치를 나타내는 마커 위치의 지문을 비교하는 단계를 포함할 수 있다.
또한, 생체정보 추정 방법은 손가락의 최적 측정 위치가 센서부에 접촉된 것으로 판단되면, 손가락과 센서부 사이의 접촉압력을 사용자에게 가이드하는 단계를 더 포함할 수 있다.
또한, 생체정보 추정 방법은 손가락의 복수의 타겟 측정 위치에서 획득된 맥파신호를 기초로 상기 손가락의 최적 측정 위치를 결정하는 단계를 더 포함할 수 있다.
또한, 생체정보 추정 방법은 손가락의 전체 지문 이미지를 획득하는 단계를 더 포함할 수 있다.
또한, 센서부가 손가락의 최적 측정 위치로부터 맥파신호 및 접촉힘을 획득하는 단계 및 획득된 맥파신호 및 접촉힘을 기초로 생체정보를 추정하는 단계를 더 포함할 수 있다.
웨어러블 기기에서 손가락의 지문을 이용하여 최적 측정 위치를 효과적으로 가이드할 수 있다. 이를 통해, 손가락의 최적 측정 위치에서 생체정보를 정확하게 추정할 수 있다.
도 1은 일 실시예에 따른 웨어러블 기기를 도시한 것이다.
도 2a 내지 도 2c는 웨어러블 기기의 센서부 구조의 일 실시예이다.
도 3은 일 실시예에 따른 웨어러블 기기의 블록도이다
도 4는 손가락 측정 위치를 가이드하는 일 실시예이다.
도 5a 내지 도 5c는 손가락의 전체 지문 이미지를 획득하는 일 실시예이다.
도 6a 내지 도 6c는 손가락의 최적 측정 위치 결정 및 가이드하는 일 실시예이다.
도 7a 및 도 7b는 오실로메트리 기반 혈압 측정을 설명하기 위한 도면이다.
도 8은 다른 실시예에 따른 웨어러블 기기의 블록도이다.
도 9a 및 도 9b는 손가락의 최적 측정 위치를 결정하는 다른 실시예이다.
도 10은 일 실시예에 따른 생체정보 추정 방법의 흐름도이다.
도 11은 다른 실시예에 따른 생체정보 추정 방법의 흐름도이다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 기재된 기술의 이점 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
도 1은 일 실시예에 따른 웨어러블 기기를 도시한 것이다. 도 2a 내지 도 2c는 웨어러블 기기의 센서부 구조의 일 실시예이다. 웨어러블 기기(100)의 실시예들은 스마트 워치(smart watch) 또는 스마트 밴드(smart band) 형태로 제작될 수 있다. 다만, 이에 제한되는 것은 아니다.
도 1을 참조하면, 웨어러블 기기(100)는 본체(MB) 및 스트랩(ST)을 포함한다.
본체(MB)는 웨어러블 기기(100)의 다양한 기능들을 수행하는 각종 모듈을 포함할 수 있다. 본체(MB) 또는 스트랩(ST)의 내부에는 각종 모듈에 전원을 공급하는 배터리가 내장될 수 있다. 스트랩(ST)은 본체(MB)에 연결될 수 있다. 스트랩(ST)은 사용자의 손목을 감싸는 형태로 구부려질 수 있도록 플렉시블(flexible)하게 형성될 수 있다. 스트랩(ST)은 서로 분리된 제1 스트랩과 제2 스트랩으로 구성될 수 있다. 제1 스트랩과 제2 스트랩의 일단부는 각각 본체(MB)의 양측에 연결되고, 제1 스트랩과 제2 스트랩의 타단부에 형성된 결합수단을 이용하여 서로 체결될 수 있다. 이때, 결합수단은 자석 결합, 벨크로(velcro) 결합, 핀 결합 등의 방식으로 형성될 수 있으며 이에 제한되는 것은 아니다. 또한, 스트랩(ST)은 밴드와 같이 서로 분리되지 않는 일체로 형성될 수도 있다.
본체(MB)의 일면에는 다양한 정보를 시각적으로 표시하는 표시부(DP)가 배치될 수 있다. 표시부(DP)는 사용자의 터치 입력이 가능한 터치 스크린 패널을 포함할 수 있다. 또한, 표시부(DP)는 사용자의 지문 인식을 수행하는 온-스크린(On-Screen) 지문 센서를 포함할 수 있다.
본체(MB)의 측면에 버튼 형태로 배치된 용두에 사용자의 손가락으로부터 각종 신호를 측정하는 센서부(10)가 형성될 수 있다. 센서부(10)는 프로세서의 제어에 따라 생체정보 추정 모드와 일반 모드로 동작할 수 있다. 생체정보 추정 모드로 동작시 센서부(10)는 손가락이 접촉할 때 손가락으로부터 반사 또는 산란되는 광을 검출하여 손가락으로부터 맥파신호를 획득할 수 있다. 또한, 센서부(10)는 손가락이 접촉하여 가하는 힘 정보를 획득할 수 있다. 일반 모드로 동작할 때 센서부(10)는 웨어러블 기기(100)의 일반적인 기능 예컨대, 애플리케이션의 선택/실행, 디스플레이(DP)의 GUI 조정 등을 제어하기 위한 사용자 인터페이스 기능을 수행할 수 있다.
도 2a를 참조하면, 센서부(10)는 하우징(HS)을 포함할 수 있다. 센서부(10)는 하우징(HS)의 내부 또는 하우징(HS)의 하단에 배치되는 광센서(20) 및 힘센서(30)를 포함할 수 있다.
하우징(HS)은 일부분이 버튼 형태로 본체(MB)의 측면을 통해 외부로 노출된다. 일 예로 본체(MB) 내부에서 지지체(SP)가 하우징(HS)의 주변과 하단 중 적어도 한 곳에서 하우징(HS)을 지지할 수 있다. 도 2a의 실시예에서 지지체(SP)가 본체(MB) 내부에서 하우징(HS)을 감싸도록 도시되어 있으나 이는 일 예일 뿐 이에 제한되지 않는다. 도 2a에 도시되어 있지는 않으나 하우징(HS)이 본체(MB) 외부로 이탈되지 않도록 하기 위한 추가 구조물이 하우징(HS) 또는 본체(MB) 내부에 더 포함될 수 있다.
하우징(HS)은 손가락이 올려져 접촉되는 핑거 접촉면(11)을 포함할 수 있다. 도 2b는 도 2a의 센서부(10)를 핑거 접촉면(11)에 수직한 방향(Z 방향)에서 바라보았을 때, 핑거 접촉면(11)의 형상(이하 '평면도'라 함)을 도시한 일 실시예이다. 핑거 접촉면(11)의 평면도는 핑거 접촉면(11)의 중심을 가로지르는 제1축이 장축, 제1축과 다른 방향으로 핑거 접촉면(11)의 중심을 가로지르는 제2축이 단축인 구조로 형성될 수 있다. 제1축과 제2축은 서로 수직할 수 있다. 도시하지는 않았지만, 다른 예로 핑거 접촉면(11)의 평면도는 제1축과 제2축의 길이가 동일한 구조로 형성되는 것도 가능하다. 또한, 도 2b에서 핑거 접촉면(11)의 평면도는 모서리가 둥근 사각형 형상으로 도시되어 있으나, 핑거 접촉면(11)의 평면도는 직사각형, 정사각형, 타원형, 원형 등 다른 형상을 가질 수도 있다.
도 2c는 센서부(10)의 분해 사시도이다. 핑거 접촉면(11)의 제1축(A-A') 단면은 본체(MB)의 바깥쪽 방향으로 볼록하게 곡률진 형태일 수 있다.
일 예로, 핑거 접촉면(11)의 제1축 단면(A-A' 단면)은 핑거 접촉면(11)의 중심에서 멀어질수록 단면의 높이가 점점 낮아지는 형상일 수 있다. 예컨대, 핑거 접촉면(11)의 제1축 단면은 원형 또는 타원형의 일부분과 동일하거나 유사한 형태를 가질 수 있다.
다른 예로, 핑거 접촉면(11)의 제1축 단면은 상부의 중심에서 일정 범위는 수평하고 그 이후부터는 중심에서 멀어질수록 단면의 높이가 점점 낮아지는 형상일 수 있다. 예컨대, 상부 중심으로부터 일정 범위 이후에서 곡선 형태로 점차 낮아지거나 일직선 형태로 낮아지는 형상을 가질 수 있다. 이때, 핑거 접촉면(11)의 상부에서 곡선 또는 일직선으로 점차 낮아지다 일정 부분 이후부터 하단까지 수직으로 낮아지는 형태를 갖거나, 상부에서 하단까지 계속해서 곡선 또는 일직선으로 낮아지는 형태를 가질 수 있다.
또 다른 예로, 핑거 접촉면(11)의 제1축 단면은 평면으로 형성될 수도 있다. 예컨대, 핑거 접촉면(11)의 제1축 단면은 수평하고, 좌우측 끝부분이 직각인 형상을 가질 수 있다.
핑거 접촉면(11)의 제1축 단면의 형상에 대한 실시예는 제2축 단면(B-B' 단면)의 형상의 실시예로도 적용될 수 있다. 제1축 단면과 제2축 단면은 동일한 형상을 가질 수도 있고, 상이한 형상을 가질 수도 있다. 핑거 접촉면(11)이 곡면을 이루게 되면 평면을 이루는 것보다 동일한 힘으로 손가락을 누를 때 손가락의 변형이 더 깊게 이루어질 수 있다. 따라서, 사용자는 손가락의 변형이 동일한 기준으로 더 작은 힘을 핑거 접촉면(11)에 가하는 것이 가능하다.
다시 도 2c를 참조하면, 핑거 접촉면(11)은 일부분에 형성된 제1 투광영역(12a)과, 제1 투광영역(12a)으로부터 이격되어 다른 일부분에 형성된 제2 투광영역(12b) 및, 제1 투광영역(12a) 및 제2 투광영역(12b) 사이에 형성된 제3 투광영역(12c)을 포함할 수 있다. 핑거 접촉면(11)의 나머지 영역은 불투광영역일 수 있다. 제1투광영역(12a), 제2투광영역(12b) 및 제3 투광영역(12c)은 각각 원형, 타원형 또는 다각형 등으로 형성된 홀(hole)을 포함할 수 있다. 또한, 각 홀에는 광이 투과할 수 있도록 투명 재질의 커버 예컨대 유리, 플라스틱 등으로 밀폐될 수 있다. 이때, 각 홀 별로 별개의 커버로 밀폐되거나, 일체로 형성된 하나의 커버가 3개의 홀을 모두 밀폐하도록 형성될 수 있다. 제1 투광영역(12a), 제2 투광영역(12b), 제3 투광영역(12c)은 제1 축상에 배치될 수 있다.
광센서(20)는 하우징(HS)의 내부에 배치될 수 있다. 다만, 이에 제한되는 것은 아니며 하우징(HS) 외부의 하단에 배치되는 것도 가능하다.
광센서(20)는 손가락이 핑거 접촉면(11)에 올려져 접촉할 때 손가락에 광을 조사하는 광원(21a,21b)과, 광원(21a,21b)에 의해 조사된 광이 손가락 표면 또는 손가락 내부의 조직에 의해 산란 또는 반사된 광을 검출하는 수광부(22)를 포함할 수 있다.
광원(21a,21b)은 도시된 바와 같이 광센서(20) 기판 상의 양측에 제1 광원(21a) 및 제2 광원(21b)이 배치될 수 있다. 다만, 광원의 개수는 제한되지 않는다. 이때, 광원(21a,21b)은 LED(light emitting diode), 레이저 다이오드(laser diode) 및 형광체 중의 적어도 하나를 포함할 수 있으나 이에 한정되지 않는다.
제1 광원(21a) 및 제2 광원(21b)은 서로 다른 파장의 광을 조사하도록 형성될 수 있다. 예를 들어, 제1 광원(21a) 및 제2 광원(21b)는 모두 적외(IR) 파장 또는 녹색(Green) 파장 대역을 조사할 수 있다. 또는, 제1 광원(21a) 및 제2 광원(21b) 중의 하나는 적외 파장이고 다른 하나는 녹색 파장 대역을 조사할 수 있다. 또한, 각 광원(21a,21b)은 복수의 LED를 포함할 수 있으며, 복수의 LED가 모두 동일한 파장을 조사하거나 일부가 다른 파장을 조사하도록 형성될 수 있다. 일 예로, 광원(21a)은 적외선 파장 대역의 IR LED와 녹색 파장 대역의 Green LED를 포함할 수 있고, 광원 21b도 IR LED와 Green LED를 포함할 수 있다.
수광부(22)는 광센서(20) 기판의 제1 광원(21a)과 제2 광원(21b) 사이에 배치될 수 있다. 수광부(22)는 CMOS(complementary metal-oxide semiconductor) 이미지 센서일 수 있으나, 이에 제한되지 않으며 포토다이오드(photodiode), 포토트랜지스터(photo transistor, PTr), CCD(charge-coupled device) 이미지 센서 등을 포함할 수 있다. 수광부(22)는 손가락에 의해 산란 또는 반사된 광을 검출하면, 광의 세기를 전기적인 디지털 광 신호 데이터로 변환하여 프로세서(미도시)에 전달할 수 있다.
또한, 힘센서(30)는 하우징(HS)의 내부 또는 하우징(HS)의 외부 하단에 배치될 수 있다. 힘센서(30)는 광센서(20)의 하단 또는 상단에 적층될 수 있다. 힘센서(30)는 손가락이 핑거 접촉면(11)에 접촉한 상태에서 누르는 힘을 측정할 수 있다. 일 예로, 힘센서(30)는 스트레인 게이지를 포함할 수 있으며, 사용자가 센서부(10)를 누르는 힘의 크기를 측정할 수 있다.
도 3은 일 실시예에 따른 웨어러블 기기의 블록도이다.
도 3을 참조하면, 웨어러블 기기(300)는 센서부(310), 표시부(320) 및 프로세서(330)를 포함한다.
센서부(310)는 광센서(311) 및 힘센서(312)를 포함할 수 있다.
광센서(311)는 핑거 접촉면에 손가락이 접촉할 때 손가락에 광을 조사하는 하나 이상의 광원과, 광원에 의해 손가락에 조사된 광이 손가락의 표면 및/또는 손가락 내부 조직에 의해 산란 또는 반사되는 광을 검출하는 수광부를 포함할 수 있다.
광센서(311)는 사용자가 손가락을 센서부(310)에 접촉시키면, 센서부(310)에 현재 접촉한 손가락의 영역(이하, '손가락의 현재 측정 위치'라 함)의 부분 지문 이미지를 획득할 수 있다.
또한, 광센서(311)는 사용자의 손가락이 센서부(310)에 접촉할 때 소정 시간 동안 맥파신호를 획득할 수 있다. 획득된 맥파신호는 생체정보 추정 및 그 밖의 다양한 동작을 위해 프로세서(330)에 의해 처리될 수 있다.
힘센서(312)는 사용자가 손가락을 핑거 접촉면에 접촉한 상태에서 누르는 힘을 증가 또는 감소시킬 때 센서부(310)에 가해지는 힘을 측정할 수 있다.
표시부(320)는 프로세서(330)의 처리 결과를 출력하여 사용자에게 필요한 정보를 시각적으로 제공할 수 있다. 표시부(320)는 터치 입력이 가능한 터치 스크린을 포함하고, 사용자 손가락으로부터 지문 인식을 수행하는 온-스크린 지문 센서를 포함할 수 있다.
프로세서(330)는 광센서(311)에 의해 손가락의 현재 측정 위치에서 부분 지문 이미지가 획득되면, 획득된 부분 지문 이미지와 사용자의 그 손가락으로부터 미리 획득된 전체 지문 이미지를 이용하여 손가락의 최적 측정 위치가 센서부(310)에 접촉될 수 있도록 표시부(320)를 통해 사용자에게 가이드할 수 있다. 이때, 손가락의 최적 측정 위치는 손가락의 특정 영역이 센서부(310)에 접촉할 때 최적의 맥파신호가 획득되는 그 손가락의 특정 영역을 의미할 수 있으며, 복수의 사용자들을 대상으로 미리 결정된 범용 측정 위치이거나 사용자별로 미리 결정되는 개인화된 측정 위치일 수 있다.
프로세서(330)는 손가락 측정 위치의 가이드에 따라 손가락의 최적 측정 위치가 센서부(310)에 접촉되어 맥파신호가 획득되면 획득된 맥파신호를 이용하여 생체정보를 추정할 수 있다. 이때, 생체정보는 혈압, 혈관 나이, 동맥경화도, 대동맥압 파형, 혈관 탄성도, 스트레스 지수 및 피로도 중의 하나 이상을 포함할 수 있으나 이에 제한되는 것은 아니다. 또한, 프로세서(330)는 생체정보 추정 이외에 지문 인증 등의 다양한 기능을 수행할 수 있다. 프로세서(330)는 미리 정의된 사용자에 대해서 지문 인증이 성공한 경우 그 사용자가 센서부(310)를 통해 원하는 동작 예컨대 특정 애플리케이션 실행 등을 수행하도록 할 수 있다.
한편, 프로세서(330)는 사용자의 손가락으로부터 전체 지문 이미지를 미리 획득하거나, 사용자 손가락의 최적 측정 측정 위치를 미리 결정할 수 있다.
또한, 프로세서(330)는 손가락의 최적 측정 위치가 센서부(310)에 접촉하는지 판단하고, 손가락의 최적 측정 위치가 센서부(310)에 접촉되면, 센서부(310)를 제어하여 맥파신호를 획득하도록 할 수 있다. 이때, 프로세서(330)는 오실로메트리 맥파를 획득하기 위해 사용자가 손가락으로 센서부(310)를 누르는 힘을 변화시키도록 표시부(320)를 통해 접촉압력을 가이드할 수 있다.
이하, 도 4 내지 도 7b를 참조하여 생체정보를 추정하기까지의 일련의 과정을 설명한다.
도 4는 웨어러블 기기(300)가 손가락 측정 위치를 가이드하는 일 실시예이다.
도 4의 (1)은 사용자별로 손가락의 전체 지문 이미지를 획득하는 과정을 설명하기 위한 도면이다. 사용자 손가락의 전체 지문 이미지를 획득하는 과정은 웨어러블 기기(300)에 사용자를 등록하는 시점에 수행될 수 있다. 또는, 미리 정의된 주기나 사용자의 요청에 따라 캘리브레이션 시점에 수행될 수 있다. 전체 지문 이미지(420)는 맥파신호를 측정하고자 하는 손가락에 대해 수행되며, 사용자별로 복수의 손가락에 대한 전체 지문 이미지를 획득할 수도 있다.
도 4의 (1)을 참조하면, 웨어러블 기기(300)는 손가락(410)이 표시부(320)에 접촉되면 표시부(320)에 탑재된 온-스크린 지문 센서를 통해 접촉된 손가락(410)의 전체 지문 이미지(420)를 획득할 수 있다.
도 5a 내지 도 5c는 웨어러블 기기가 손가락의 전체 지문 이미지를 획득하는 일 실시예이다.
도 5a를 참조하면, 프로세서(330)는 표시부(320)에 지문 센서의 영역을 나타내는 마커(511)를 표시할 수 있다. 이때, 사용자가 지문 센서의 영역을 나타내는 마커(511) 위치에 손가락(410)을 접촉하도록, 예컨대, '손가락을 아래의 지문 측정 위치에 똑바로 올려 주세요'와 같은 텍스트(512)를 더 표시할 수 있다.
도 5b의 좌측 도면을 참조하면, 사용자가 손가락(410)을 지문 센서의 영역을 나타내는 마커(511) 위치에 올려 놓으면, 프로세서(330)는 손가락(410)의 접촉 방향과 기준 측정 위치를 특정하기 위한 마커(521)를 표시부(320)에 표시할 수 있다. 이때, 손가락(410)의 기준 측정 위치는 손가락(410)의 지문 중심점 또는 손톱 아래 중앙부를 의미할 수 있다. 마커(521)는 도시된 바와 같이 'ㅗ' 형태로 이루어질 수 있다. 다만, 그 형태에 특별히 제한되지 않는다. 또한, 프로세서(330)는 기준 측정 위치를 특정하기 위한 마커(521)를 전후 좌우로 움직일 수 있도록 그 마커(521) 주위에 전후 화살표(523) 및/또는 좌우 화살표(524)를 표시할 수 있다. 또한, 프로세서(330)는 사용자가 마커(521)를 움직여 손가락(410)의 기준 측정 위치와 접촉 방향을 특정하도록 '선을 움직여서 손톱 아래선 중앙에 맞추고 확인 버튼을 눌러 주세요'와 같은 텍스트(522)를 표시부(320)에 표시할 수 있다.
사용자가 도 5b의 우측 도면과 같이 마커(521)를 이동하여 마커(521)의 하단선을 손톱의 표시 위치(411)에 일치시켜 기준 측정 위치를 특정하고 마커(521)의 하단선에 수직한 선을 손가락의 접촉 방향에 일치시키면, 도 5c와 같이 프로세서(330)는 손가락(410) 전체에서 골고루 지문이 획득되도록 '손가락을 조금씩 움직이면서 지문을 측정해 주세요'와 같은 텍스트(531)를 표시할 수 있다. 이때, 손가락(410)의 전체 지문 이미지가 획득되는 정도를 나타내는 텍스트(532)를 더 표시할 수 있다. 프로세서(330)는 손가락(410)의 전체 지문 이미지가 획득되면 '측정이 완료되었습니다'와 같은 텍스트(533)를 표시하여 전체 지문 이미지 획득이 완료되었음을 나타낼 수 있다.
다시 도 4를 참조하면 (2)는 사용자별로 손가락의 최적 측정 위치를 결정하고, 결정된 최적 측정 위치가 센서부에 접촉되었는지 여부를 판단하는 과정을 설명하기 위한 도면이다. 이때, 손가락의 최적 측정 위치를 결정하는 과정은 웨어러블 기기(300)에 사용자를 등록하는 시점, 또는 미리 정의된 주기나 사용자의 요청에 따라 수행될 수 있다. 또한, 최적 측정 위치가 센서부에 접촉되었는지 판단하는 과정은 생체정보를 추정하는 시점에 수행될 수 있다.
도 4의 (2)를 참조하면, 프로세서(330)는 획득된 손가락(410)의 전체 지문 이미지(420)를 표시부(320)에 표시하고, 사용자가 손가락(410)의 최적 측정 위치를 센서부(310)에 접촉할 수 있도록 전체 지문 이미지(420) 위에 손가락(410)의 최적 측정 위치를 나타내는 마커(431)를 중첩하여 표시할 수 있다.
프로세서(330)는 사용자가 최적 측정 위치를 나타내는 마커(431)에 따라 손가락(410)을 센서부(310)에 접촉하면, 센서부(310)는 손가락(410)의 현재 측정 위치의 부분 지문 이미지를 획득할 수 있다.
프로세서(330)는 전체 지문 이미지(420)와 현재 측정 위치의 부분 지문 이미지를 비교하여 현재 측정 위치가 최적 측정 위치와 일치하는지 판단할 수 있다. 프로세서(330)는 센서부(310)에 의해 현재 측정 위치의 부분 지문 이미지가 획득된 이후 또는, 판단 결과 일치하지 않으면 손가락(431)의 현재 측정 위치를 나타내는 마커(432)를 전체 지문 이미지(420) 상에 중첩하여 표시할 수 있다.
도 6a 내지 도 6c는 손가락의 최적 측정 위치 결정 및 가이드하는 일 실시예이다.
도 6a를 참조하면 프로세서(330)는 사용자별로 손가락(410)의 복수의 타겟 측정 위치에서 맥파신호를 획득하고, 각 타겟 측정 위치의 맥파신호를 기초로 손가락(410)의 최적 측정 위치를 결정할 수 있다. 예를 들어, (1) 프로세서(330)는 표시부(310)에 전체 지문 이미지(420)를 표시하고, 전체 지문 이미지(420) 위에 제1 타겟 측정 위치를 나타내는 마커(611)를 표시할 수 있다. 사용자가 제1 타겟 측정 위치를 확인하고 손가락(410)을 센서부(310)에 접촉하면 센서부(310)는 손가락(310)으로부터 제1 맥파신호를 획득할 수 있다. 이때, 프로세서(330)는 손가락(410)이 접촉한 현재 측정 위치를 나타내는 마커(612)를 전체 지문 이미지(420)에 표시할 수 있다.
그 다음, (2) 프로세서(330)는 전체 지문 이미지(420) 위에 제2 타겟 위치를 나타내는 마커(621)를 표시하고, 이에 따라 손가락(410)이 센서부(310)에 접촉하면 센서부(310)는 제2 맥파신호를 획득할 수 있다. 이때, 프로세서(330)는 손가락(410)의 현재 측정 위치를 나타내는 마커(622)를 전체 지문 이미지(420)에 표시할 수 있다. 마찬가지로, (3) 프로세서(330)는 전체 지문 이미지(420) 위에 제3 타겟 위치를 나타내는 마커(631)를 표시하고, 이에 따라 손가락(410)이 센서부(310)에 접촉할 때 센서부(310)는 제3 맥파신호를 획득할 수 있다. 이때, 프로세서(330)는 손가락(410)의 현재 측정 위치를 나타내는 마커(632)를 전체 지문 이미지(420)에 표시할 수 있다.
도 6b는 사용자의 손가락(410)으로부터 각 타겟 측정 위치에서 획득된 맥파신호를 예시한 것이다. 프로세서(330)는 복수의 타겟 측정 위치에서 획득된 각 맥파신호(1,2,3)를 이용하여 최적 측정 위치를 결정할 수 있다. 예컨대, 도 6b에서 제2 맥파신호(2)를 최적의 맥파신호로 가정하는 경우 제2 맥파신호(2)가 획득된 제2 타겟 측정 위치를 최적 측정 위치로 결정할 수 있다.
한편, 프로세서(330)는 일 예로 각 맥파신호(1,2,3)의 파형과 미리 획득된 기준 맥파신호의 파형을 비교하여 가장 유사한 맥파신호가 획득된 타겟 측정 위치를 최적 측정 위치로 결정할 수 있다. 이때, 기준 맥파신호는 보다 정확한 맥파신호 측정 장치를 이용하여 사용자의 손가락으로부터 획득되거나, 복수의 사용자들로부터 획득된 맥파신호일 수 있다. 다른 예로, 각 맥파신호(1,2,3)에서 특징점 예컨대 진폭의 최대점(MX)을 추출하고, 추출된 최대 진폭값과 기저점의 진폭, 최대 진폭값과 최대점(MX)의 직전 지점의 진폭 또는 직후 지점의 진폭 사이의 차이와 소정 임계치의 비교, 최대 기울기와 소정 임계치와의 비교 등을 통해 결정할 수 있다. 다만, 추출된 특징점의 예, 판단 기준 등은 여기 예시된 바에 특별히 제한되는 것은 아니며 사용자별로 전처리를 통해 다양하게 미리 정의될 수 있다.
도 6c는 손가락(410)이 최적 측정 위치에 접촉되었는지를 판단하는 과정을 설명하기 위한 도면이다. 도 6c의 (1)은 최적 측정 위치의 부분 지문 즉, 전체 지문 이미지(620)의 최적 측정 위치를 나타내는 마커(641) 위치의 지문을 나타낸다. (2)는 손가락의 현재 측정 위치의 부분 지문, 즉 센서부에 접촉한 손가락 접촉 위치의 실제 부분 지문을 나타낸다. (3)은 전체 지문 이미지(420)에서 탐색된 현재 측정 위치의 부분 지문과 유사한 부분 지문 즉, 좌측의 전체 지문 이미지(420)에서 현재 측정 위치를 나타내는 마커(642) 위치의 지문을 나타낸다.
사용자가 표시부(320)에 표시된 전체 지문 이미지(420)와 그 전체 지문 이미지 상에 최적 측정 위치를 나타내는 마커(6410)를 참조하여 센서부(310)에 손가락을 접촉시키면, 센서부(310)는 손가락의 현재 측정 위치의 부분 지문 이미지(2)를 획득한다.
프로세서(330)는 지문 패턴 분석을 통해 전체 지문 이미지(420)에서 센서부(310)에 의해 획득된 현재 측정 위치의 부분 지문 이미지와 유사한 지문 형태를 갖는 위치를 탐색할 수 있다. 프로세서(330)는 탐색된 위치의 부분 지문과 최적 측정 위치의 부분 지문을 비교하여 손가락의 현재 측정 위치가 최적 측정 위치와 일치하는지 즉, 손가락의 최적 측정 위치가 센서부(310)에 접촉되었는지를 판단할 수 있다. 이때, 현재 측정 위치와 최적 측정 위치의 일치 여부는 서로 완전히 일치하는 경우만을 의미하는 것이 아니고 소정 기준을 만족하는 경우 서로 일치하는 것으로 판단할 수 있다. 예를 들어, 현재 측정 위치의 부분 지문과 최적 측정 위치의 부분 지문 패턴의 유사도가 임계치 이상인 경우 및/또는 최적 측정 위치의 마커(641)의 영역과 현재 측정 위치의 마커(642)의 영역이 겹치는 정도가 소정 임계치 이상이면 일치한 것으로 판단할 수 있다. 다만, 일치 여부의 판단 기준은 다양하게 정의될 수 있다.
프로세서(330)는 현재 측정 위치의 부분 지문 이미지와 유사한 지문 형태를 갖는 위치를 탐색한 직후 또는 현재 측정 위치와 최적 측정 위치가 일치하지 않은 것으로 판단한 경우 전체 지문 이미지(420) 상에 현재 측정 위치를 나타내는 마커(642)를 표시하여 사용자가 손가락의 위치를 최적 측정 위치로 이동시키도록 가이드 할 수 있다.
다시 도 4의 (3)을 참조하면, 손가락(410)의 최적 측정 위치가 센서부(310)에 접촉된 것으로 판단되면, 손가락(410)으로부터 오실로메트리 맥파신호 획득을 위해 소정 시간 동안 손가락(410)과 센서부(310의 접촉압력의 변화를 가이드할 수 있다. 예를 들어, 프로세서(330)는 도시된 바와 같이 손가락(410)이 센서부(310)에 가해야 하는 기준 접촉 압력의 상한을 나타내는 마커(441)와 하한을 나타내는 마커(442)를 표시부(320)에 표시할 수 있다. 이에 따라, 사용자가 손가락(410)으로 센서부(310)에 힘을 가하면, 센서부(310)의 광센서(311)는 맥파신호를 획득하고, 센서부의 힘센서(312)는 손가락(410)이 센서부(310)에 작용하는 접촉힘을 측정할 수 있다. 프로세서(330)는 접촉힘을 기초로 접촉 압력을 획득하고 획득된 실제 접촉 압력을 나타내는 마커(443)를 표시부(320)에 표시할 수 있다.
프로세서(330)는 이와 같이 손가락의 최적 측정 위치에서 맥파신호 및 접촉힘이 측정되면, 측정된 맥파신호 및 접촉힘을 기초로 생체정보를 추정할 수 있다. 예를 들어, 프로세서(330)는 센서부(330)의 핑거 접촉면의 면적을 기초로 접촉힘을 접촉압력으로 변환할 수 있으며, 맥파신호와 접촉압력을 기초로 오실로메트리 기반으로 혈압을 추정할 수 있다.
도 7a 및 도 7b는 오실로메트리 기반 혈압 측정을 설명하기 위한 도면이다.
도 7a는 사용자가 손가락을 핑거 접촉면에 접촉한 상태에서 힘을 점차 증가시키면서 측정한 맥파신호를 도시한 것이다. 도 7b는 오실로메트리 맥파신호의 진폭과 접촉압력 간의 관계를 도시한 오실로메트리 포락선(OW) 그래프이다. 예컨대, 프로세서(330)는 각 측정 시점에서 맥파신호 파형 엔벨로프(in1)의 플러스(+) 지점의 진폭값(in2)에서 마이너스(-) 지점의 진폭값(in3)을 빼서 피크-투-피크 지점을 추출하고, 각 측정 시점의 피크-투-피크 지점의 진폭을 대응하는 시점의 접촉압력을 기준으로 플롯(plot)하여 오실로메트릭 포락선(OW)을 획득할 수 있다.
프로세서(330)는 획득된 오실로메트릭 포락선(OW)으로부터 특징점을 검출하고, 획득된 특징점을 이용하여 혈압을 추정할 수 있다. 예를 들어, 오실로메트릭 포락선(OW)에서 최대 피크 지점의 접촉 압력값(MP)을 기초로 평균 혈압을 결정할 수 있다. 또한, 최대 피크 지점의 좌측에서 최대 진폭값(MA)의 제1 비율(예: 0.5~0.7)에 해당하는 진폭값을 갖는 지점의 접촉압력(DP)을 기초로 이완기 혈압을 결정하고, 최대 피크 지점의 우측에서 최대 진폭값(MA)의 제2 비율(예: 0.5~0.7)에 해당하는 진폭값을 갖는 지점의 접촉압력(SP)을 기초로 수축기 혈압을 결정할 수 있다. 일 예로, 각 접촉압력값(MP,DP,SP)을 각각 평균 혈압, 수축기 혈압 및 이완기 혈압으로 결정할 수 있으며, 다른 예로 각 접촉압력값(MP,DP,SP)과 혈압 간의 관계를 정의한 혈압 추정 모델을 이용하여 평균 혈압, 이완기 혈압 및 수축기 혈압을 추정할 수 있다.
다시 도 3을 참조하면, 프로세서(330)는 생체정보가 추정되면 생체정보 추정값을 표시부(320)에 표시하여 사용자에게 제공할 수 있다. 프로세서(330)는 표시부(320)를 둘 이상의 영역으로 분리하고 제1 영역에 생체정보 추정에 이용된 맥파 신호, 접촉압력 등의 정보를 그래프 형태로 출력하고, 제2 영역에 생체정보 추정값, 경고 정보 등을 출력할 수 있다.
도 8은 일 실시예에 따른 웨어러블 기기의 블록도이다. 도 9a 및 도 9b는 손가락의 최적 측정 위치를 결정하는 다른 실시예이다.
도 8을 참조하면, 웨어러블 기기(800)는 센서부(810), 표시부(820), 프로세서(830), 저장부(840) 및 통신부(850)를 포함할 수 있다. 센서부(810), 표시부(820) 및 프로세서(830)는 도 3을 통해 상술한 바 있으므로 이하 간단하게 설명한다.
센서부(810)는 광센서(811)와 힘센서(812)를 포함할 수 있다. 광센서(811)는 손가락이 센서부(810)에 접촉하면 손가락의 부분 지문 이미지 및 맥파신호를 획득할 수 있다. 힘센서(812)는 손가락과 센서부(810) 사이에 작용하는 접촉힘을 측정할 수 있다.
프로세서(830)는 센서부(810)를 통해 획득된 맥파신호 및 접촉힘을 이용하여 생체정보를 추정할 수 있다.
저장부(840)는 센서부(810)에 의해 측정된 맥파신호, 부분 지문 이미지 및 접촉힘 등의 정보를 저장할 수 있다. 또한, 프로세서(830)에 의해 생체정보가 추정되면 생체정보 추정 결과를 저장할 수 있다. 또한, 생체정보 추정에 필요한 기본 정보 예컨대, 사용자의 나이, 성별, 건강 상태 등의 사용자 정보, 생체정보 추정 모델, 기준 접촉압력, 전체 지문 이미지, 손가락의 최적 측정 이미지 등을 저장할 수 있다.
이때, 저장부(840)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어, SD 또는 XD 메모리 등), 램(Random Access Memory: RAM) SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 등의 저장매체를 포함하며, 이에 제한되는 것은 아니다.
통신부(850)는 통신 기술을 이용하여 외부 기기와 통신하고, 각종 데이터를 송수신할 수 있다. 예를 들어, 생체정보 추정 결과를 외부 기기에 전송할 수 있다. 또한, 외부 기기로부터 생체정보 추정에 필요한 기본 정보를 수신할 수 있다. 이때, 외부 기기는 스마트폰, 태블릿 PC, 데스크탑 PC 및 노트북 PC 등의 정보 처리 장치를 포함할 수 있다. 이때, 통신 기술은 블루투스(bluetooth) 통신, BLE(Bluetooth Low Energy) 통신, 근거리 무선 통신(Near Field Communication, NFC), WLAN 통신, 지그비(Zigbee) 통신, 적외선(Infrared Data Association, IrDA) 통신, WFD(Wi-Fi Direct) 통신, UWB(ultra-wideband) 통신, Ant+ 통신, WIFI 통신, RFID(Radio Frequency Identification) 통신, 3G 통신, 4G 통신 및 5G 통신 등을 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.
프로세서(830)는 표시부(820)를 통해 사용자에게 손가락 측정 위치와 관련된 가이드 및/또는 생체정보 추정 결과를 사용자에게 제공할 수 있다. 또한, 프로세서(830)는 표시부(820)에 온-스크린 지문 센서가 탑재되어 있지 않은 경우, 웨어러블 기기(800)의 컴퓨팅 성능이 상대적으로 낮은 경우, 그 밖에 사용자의 요청이 있는 경우 등 필요에 따라 통신부(850)를 통해 외부 기기와 협업하여 손가락의 전체 지문 이미지 획득, 손가락의 최적 측정 위치 결정, 센서부(810)에 손가락의 최적 측정 위치가 접촉되었는지 판단 등의 작업을 수행할 수 있다.
일 예로, 도 9a의 (1)을 참조하면 사용자의 스마트폰(900)을 통해 손가락(910)의 전체 지문 이미지를 획득할 수 있다. 예컨대, 프로세서(830)는 사용자를 등록하는 시점에 통신부(850)를 통해 스마트폰(900)으로부터 전체 지문 이미지를 수신할 수 있다. 스마트폰(900)은 웨어러블 기기(800)의 요청이 있는 경우 또는 사용자가 스마트폰(900)에 직접 요청한 경우, 스마트폰(900)의 표시부(911)를 이용하여 도 5a 내지 도 5c와 같은 방식으로 손가락의 전체 지문 이미지를 획득하고 획득된 전체 지문 이미지를 웨어러블 기기(800)에 전송할 수 있다.
도 9a의 (2) 및 (3)을 참조하면, 프로세서(830)는 도 4의 (2) 및 (3)을 통해 설명한 바와 같이 표시부(820)에 전체 지문 이미지(920) 표시, 최적 측정 위치를 나타내는 마커(931), 손가락(910)의 현재 측정 위치를 나타내는 마커(932)를 표시할 수 있으며, 손가락(910)의 최적 측정 위치가 센서부(810)에 접촉한 것으로 판단되면 접촉압력을 가이드하는 마커(941,942,943)를 표시부(820)에 표시할 수 있다.
다른 예로, 도 9b를 참조하면, 도 9a의 (2) 과정은 도시된 바와 같이 스마트폰(900)과 연계하여 수행될 수 있다. 예컨대, 프로세서(830)는 통신부(850)를 통해 스마트폰(900)에 요청하여 전체 지문 이미지(920) 및 최적 측정 위치를 나타내는 마커(931)를 표시부(911)에 표시하도록 할 수 있다.
또한, 사용자가 스마트폰(900)에 표시된 최적 측정 위치를 참조하여 손가락을 센서부(810)에 접촉하면, 통신부(850)는 센서부(810)를 통해 획득된 현재 측정 위치의 부분 지문 이미지를 스마트폰(900)에 전송한다. 스마트폰(900)은 통신부(850)로부터 현재 측정 위치의 부분 지문 이미지를 수신하면, 전술한 바와 같이 최적 측정 위치의 부분 지문과 현재 측정 위치의 부분 지문을 비교하여 일치 여부를 판단할 수 있다. 스마트폰(900)은 판단 결과 일치하지 않으면 현재 측정 위치를 나타내는 마커(932)를 표시하고, 사용자가 손가락의 측정 위치를 조절하여 센서부(810)에 다시 접촉하면 위 과정을 반복할 수 있다.
프로세서(830)는 손가락의 현재 측정 위치와 최적 측정 위치가 일치하는지 판단한 결과를 수신하고, 일치하면 도 9b의 (3) 과정을 수행할 수 있다.
도 10은 일 실시예에 따른 생체정보 추정 방법의 흐름도이다.
도 10은 도 3의 실시예에 따른 웨어러블 기기에 의해 수행되며 앞에서 상술하였으므로 이하 간단하게 설명한다.
먼저, 웨어러블 기기(300)는 손가락의 전체 지문 이미지를 획득한다(1010). 사용자별로 복수의 손가락으로부터 전체 지문 이미지를 획득할 수 있다. 웨어러블 기기(300)는 전체 지문 이미지 획득을 위한 가이드 정보를 시각적으로 사용자에게 제공할 수 있다.
그 다음, 손가락의 최적 측정 위치를 결정할 수 있다(1020). 손가락의 최적 측정 위치는 복수의 타겟 측정 위치에서 맥파신호를 측정하고, 측정된 맥파신호 중에서 최적의 맥파신호가 획득된 타겟 측정 위치를 최적 측정 위치로 결정할 수 있다.
그 다음, 생체정보 추정 요청에 따라 손가락의 최적 측정 위치가 센서부에 접촉하도록 가이드하고, 손가락의 최적 측정 위치에서 획득된 맥파신호 및 힘센서를 이용하여 생체정보를 추정할 수 있다(1030).
예를 들어, 단계(1010)에서 획득된 전체 지문 이미지를 기초로 손가락의 최적 측정 위치를 표시할 수 있다(1031). 그 다음, 센서부에 접촉한 손가락의 부분 지문 이미지를 획득할 수 있다(1032).
그 다음, 획득된 손가락의 부분 지문 이미지를 기초로 손가락의 최적 측정 위치가 센서부에 접촉되었는지 판단할 수 있다(1033). 전술한 바와 같이 획득된 부분 지문 이미지와 전체 지문 이미지에서 최적 측정 위치에 해당하는 지문 이미지를 비교하여 일치 여부를 판단할 수 있다.
판단 결과(1033) 손가락의 최적 측정 위치가 센서부에 접촉되지 않은 것으로 판단되면 현재 측정 위치를 나타내는 마커를 표시하거나 손가락이 이동해야 하는 방향을 나타내는 마커 등을 표시하여 사용자가 손가락의 측정 위치를 조정하도록 가이드할 수 있다(1034).
판단 결과(1033) 손가락의 최적 측정 위치가 센서부에 접촉된 것으로 판단되면 센서부는 손가락의 최적 측정 위치로부터 맥파신호 및 접촉힘을 획득할 수 있다(1035). 이때, 웨어러블 기기는 사용자가 손가락과 센서부 사이의 접촉압력을 가이드할 수 있다.
그 다음, 맥파신호 및 접촉힘을 기초로 생체정보를 추정하고(1036), 생체정보 추정 결과를 출력할 수 있다(1037). 예를 들어, 접촉힘을 기초로 접촉압력을 획득하고, 접촉압력과 맥파신호를 이용하여 오실로메트리 기반으로 혈압을 추정할 수 있다.
도 11은 다른 실시예에 따른 생체정보 추정 방법의 흐름도이다.
도 11은 도 8을 참조하여 설명한 바와 같이 웨어러블 기기(800)와 외부 기기(900)의 협업에 의해 수행될 수 있다.
먼저, 외부 기기(900)는 사용자의 요청 또는 웨어러블 기기(800)의 요청에 따라 손가락의 전체 지문 이미지를 획득할 수 있다(1110).
그 다음, 외부 기기(900)는 사용자의 요청 또는 웨어러블 기기(800)의 요청에 따라 전체 지문 이미지 및 손가락의 타겟 측정 위치를 표시하고(1121), 웨어러블 기기(800)는 각 타겟 측정 위치의 가이드에 따라 손가락이 센서부에 접촉할 때 각 타겟 측정 위치에 대응하는 맥파신호를 획득하여 손가락의 최적 측정 위치를 결정할 수 있다(1122).
그 다음, 웨어러블 기기(800)는 생체정보 측정 요청이 수신되면 외부 기기(900)와 협업하여 손가락의 측정 위치를 가이드하고 생체정보를 추정할 수 있다(1130).
예를 들어, 웨어러블 기기(800)는 생체정보 측정 요청이 수신되면 외부 기기(900)에 손가락의 측정 위치를 가이드하도록 요청하고, 외부 기기(900)는 요청에 따라 전체 지문 이미지 및 손가락의 최적 측정 위치를 표시할 수 있다(1131).
그 다음, 웨어러블 기기(800)는 센서부를 통해 손가락의 부분 지문 이미지를 획득하고(1132), 획득된 부분 지문 이미지를 외부 기기(900)에 전송할 수 있다.
그 다음, 외부 기기(900)는 웨어러블 기기(800)로부터 수신된 손가락의 현재 측정 위치의 부분 지문 이미지와 최적 측정 위치의 지문을 비교하여 센서부에 손가락의 최적 측정 위치가 접촉되었는지 판단할 수 있다(1133). 외부 기기(900)는 손가락의 최적 측정 위치가 센서부에 접촉되지 않은 것으로 판단되면 사용자가 손가락의 측정 위치를 조정하도록 가이드할 수 있다(1134). 외부 기기(900)는 손가락의 최적 측정 위치가 센서부에 접촉된 것으로 판단되면 판단 결과를 웨어러블 기기(800)에 전송할 수 있다.
그 다음, 웨어러블 기기(800)는 손가락의 최적 측정 위치로부터 맥파신호 및 접촉힘을 획득하고(1135), 맥파신호 및 접촉힘을 기초로 생체정보를 추정하며(1136), 생체정보 추정 결과를 출력하여 사용자에게 제공할 수 있다(1137).
한편, 본 실시 예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 개시된 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 웨어러블 기기 10: 센서부
MB: 본체 DP: 표시부
ST: 스트랩 HS: 하우징
11: 핑거 접촉면 12a: 제1 투광영역
12b: 제2 투광영역 12c: 제3 투광영역
13a: 제1 광 경로 13b: 제2 광 경로
13c: 제3 광 경로 20: 광센서
21a: 제1 광원 21b: 제2 광원
22: 수광부 30: 힘센서
300,800: 웨어러블 기기 310,810: 센서부
311,811: 광센서 312,812: 힘센서
320,820: 표시부 330,830: 프로세서
840: 저장부 850: 통신부

Claims (25)

  1. 본체;
    상기 본체 측면부에 배치된 용두에 형성되고, 사용자의 손가락이 접촉할 때 상기 손가락의 부분 지문 이미지를 획득하는 센서부; 및
    상기 획득된 부분 지문 이미지와 상기 손가락의 전체 지문 이미지를 기초로, 상기 센서부에 손가락의 최적 측정 위치가 접촉되도록 가이드하는 프로세서를 포함하는 웨어러블 기기.
  2. 제1항에 있어서,
    상기 센서부는
    손가락이 접촉하는 핑거 접촉면;
    상기 핑거 접촉면에 접촉한 손가락에 광을 조사하는 광원 및 상기 손가락으로 산란 또는 반사된 광을 검출하는 수광부를 포함하는 광센서; 및
    상기 손가락과 핑거 접촉면 사이에 작용하는 접촉힘을 측정하는 힘센서를 포함하는 웨어러블 기기.
  3. 제1항에 있어서,
    상기 본체의 일면에 배치되는 표시부를 더 포함하고,
    상기 프로세서는
    상기 표시부에 손가락의 전체 지문 이미지를 표시하고, 상기 표시된 전체 지문 이미지 상에 손가락의 최적 측정 위치를 나타내는 마커를 표시하는 웨어러블 기기.
  4. 제3항에 있어서,
    상기 프로세서는
    상기 전체 지문 이미지 및 상기 부분 이미지를 기초로 손가락의 최적 측정 위치가 센서부에 접촉되었는지 판단하고,
    손가락의 최적 측정 위치가 센서부에 접촉되지 않은 것으로 판단되면 상기 표시부에 표시된 전체 지문 이미지 상에 손가락의 현재 측정 위치를 나타내는 마커를 더 표시하는 웨어러블 기기.
  5. 제4항에 있어서,
    상기 프로세서는
    상기 전체 지문 이미지에서 상기 부분 지문 이미지와 매칭되는 위치를 결정하고, 결정된 위치의 지문과 상기 최적 측정 위치를 나타내는 마커 위치의 지문을 비교하여 손가락의 최적 측정 위치가 센서부에 접촉되었는지 판단하는 웨어러블 기기.
  6. 제4항에 있어서,
    상기 프로세서는
    손가락의 최적 측정 위치가 센서부에 접촉된 것으로 판단되면 상기 표시부를 통해 손가락과 센서부 사이의 접촉압력을 가이드하는 웨어러블 기기.
  7. 제1항에 있어서,
    상기 프로세서는
    센서부를 통해 손가락의 복수의 타겟 측정 위치에서 맥파신호를 획득하고, 획득된 맥파신호를 기초로 손가락의 최적 측정 위치를 결정하는 웨어러블 기기.
  8. 제7항에 있어서,
    상기 프로세서는
    표시부에 상기 전체 지문 이미지를 표시하고, 상기 표시된 전체 지문 이미지 상에 손가락의 타겟 측정 위치를 나타내는 마커를 표시하는 웨어러블 기기.
  9. 제1항에 있어서,
    상기 본체의 일면에 배치되며 지문 센서를 포함하는 표시부를 더 포함하고,
    상기 프로세서는
    상기 표시부의 지문 센서를 이용하여 상기 손가락의 전체 지문 이미지를 획득하는 웨어러블 기기.
  10. 제9항에 있어서,
    상기 프로세서는
    사용자가 손가락을 지문 센서에 접촉시키도록 상기 표시부에 상기 지문 센서의 영역을 나타내는 마커를 표시하는 웨어러블 기기.
  11. 제10항에 있어서,
    상기 프로세서는
    손가락이 상기 지문 센서의 영역을 나타내는 마커 위치에 접촉되면, 상기 손가락의 기준 측정 위치를 특정하기 위한 마커를 표시부에 더 표시하는 웨어러블 기기.
  12. 제11항에 있어서,
    상기 프로세서는
    사용자가 상기 손가락의 기준 측정 위치를 특정하기 위한 마커를 손가락의 기준 측정 위치로 이동시키면, 상기 전체 지문 이미지를 획득하기 위해 손가락을 미세하게 움직이도록 가이드하는 텍스트를 상기 표시부에 더 표시하는 웨어러블 기기.
  13. 제1항에 있어서,
    외부 기기에 의해 상기 사용자의 손가락으로부터 미리 획득된 전체 지문 이미지를 상기 외부 기기로부터 수신하는 통신부를 더 포함하는 웨어러블 기기.
  14. 제1항에 있어서,
    상기 프로세서는
    센서부에 의해 손가락의 최적 측정 위치로부터 맥파신호 및 접촉힘이 획득되면, 획득된 맥파신호 및 접촉힘을 기초로 생체정보를 추정하는 웨어러블 기기.
  15. 제14항에 있어서,
    상기 생체정보는
    혈압, 혈관 나이, 동맥경화도, 대동맥압 파형, 혈관 탄성도, 스트레스 지수 및 피로도 중의 하나 이상을 포함하는 웨어러블 기기.
  16. 본체;
    상기 본체 측면부에 배치된 용두에 형성되고, 사용자의 손가락이 접촉할 때 손가락의 부분 지문 이미지를 획득하는 센서부;
    상기 본체에 실장되는 통신부; 및
    외부 기기가 상기 부분 지문 이미지 및 상기 손가락의 전체 지문 이미지를 기초로 손가락의 측정 위치를 가이드하도록 상기 통신부를 통해 외부 기기에 상기 부분 지문 이미지를 전송하고, 상기 외부 기기의 가이드에 따라 상기 손가락의 최적 측정 위치가 센서부에 접촉되면 맥파신호를 획득하도록 상기 센서부를 제어하는 웨어러블 기기.
  17. 제15항에 있어서,
    상기 프로세서는
    센서부에 의해 손가락의 최적 측정 위치로부터 맥파신호 및 접촉힘이 획득되면, 획득된 맥파신호 및 접촉힘을 기초로 생체정보를 추정하는 웨어러블 기기.
  18. 웨어러블 기기가 생체정보를 추정하는 방법에 있어서,
    상기 웨어러블 기기 본체의 측면 용두에 형성된 센서부에 사용자의 손가락이 접촉할 때 손가락의 부분 지문 이미지를 획득하는 단계; 및
    상기 손가락의 부분 지문 이미지와 상기 손가락의 전체 지문 이미지를 기초로, 센서부에 손가락의 최적 측정 위치가 접촉되도록 가이드하는 단계를 포함하는 생체정보 추정 방법.
  19. 제18항에 있어서,
    상기 웨어러블 기기의 표시부에 상기 전체 지문 이미지 및 상기 손가락의 최적 측정 위치를 나타내는 마커를 표시하는 단계를 더 포함하는 생체정보 추정 방법.
  20. 제19항에 있어서,
    상기 가이드하는 단계는
    상기 전체 지문 이미지 및 상기 부분 이미지를 기초로 손가락의 최적 측정 위치가 센서부에 접촉되었는지 판단하는 단계; 및
    손가락의 최적 측정 위치가 센서부에 접촉되지 않은 것으로 판단되면, 상기 표시부에 표시된 전체 지문 이미지 상에 손가락의 현재 측정 위치를 나타내는 마커를 표시하는 단계를 포함하는 생체정보 추정 방법.
  21. 제20항에 있어서,
    상기 판단하는 단계는
    상기 전체 지문 이미지에서 상기 부분 지문 이미지와 매칭되는 위치를 결정하는 단계; 및
    상기 결정된 위치의 지문과 상기 최적 측정 위치를 나타내는 마커 위치의 지문을 비교하는 단계를 포함하는 생체정보 추정 방법.
  22. 제20항에 있어서,
    손가락의 최적 측정 위치가 센서부에 접촉된 것으로 판단되면, 손가락과 센서부 사이의 접촉압력을 사용자에게 가이드하는 단계를 더 포함하는 생체정보 추정 방법.
  23. 제18항에 있어서,
    상기 손가락의 복수의 타겟 측정 위치에서 획득된 맥파신호를 기초로 상기 손가락의 최적 측정 위치를 결정하는 단계를 더 포함하는 생체정보 추정 방법.
  24. 제18항에 있어서,
    상기 손가락의 전체 지문 이미지를 획득하는 단계를 더 포함하는 생체정보 추정 방법.
  25. 제18항에 있어서,
    센서부가 손가락의 최적 측정 위치로부터 맥파신호 및 접촉힘을 획득하는 단계; 및
    상기 획득된 맥파신호 및 접촉힘을 기초로 생체정보를 추정하는 단계를 더 포함하는 생체정보 추정 방법.


KR1020200061606A 2020-05-22 2020-05-22 웨어러블 기기 및 생체정보 추정 방법 KR20210144356A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200061606A KR20210144356A (ko) 2020-05-22 2020-05-22 웨어러블 기기 및 생체정보 추정 방법
US16/951,059 US11354933B2 (en) 2020-05-22 2020-11-18 Wearable device and method for estimating bio-information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200061606A KR20210144356A (ko) 2020-05-22 2020-05-22 웨어러블 기기 및 생체정보 추정 방법

Publications (1)

Publication Number Publication Date
KR20210144356A true KR20210144356A (ko) 2021-11-30

Family

ID=78608081

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200061606A KR20210144356A (ko) 2020-05-22 2020-05-22 웨어러블 기기 및 생체정보 추정 방법

Country Status (2)

Country Link
US (1) US11354933B2 (ko)
KR (1) KR20210144356A (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10866619B1 (en) * 2017-06-19 2020-12-15 Apple Inc. Electronic device having sealed button biometric sensing system
US12080106B2 (en) 2022-07-25 2024-09-03 Samsung Electronics Co., Ltd. Electronic device and method for preventing fingerprint theft using external device

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6632550B1 (en) 1997-08-21 2003-10-14 United States Gypsum Company Gypsum-containing product having increased resistance to permanent deformation and method and composition for producing it
ID21641A (id) 1997-08-21 1999-07-08 United States Gypsum Co Produk yang mengandung gypsum dengan peningkatan ketahanan terhadap deformasi tetap dan metode serta komposisi untuk memproduksinya
US6342284B1 (en) 1997-08-21 2002-01-29 United States Gysum Company Gypsum-containing product having increased resistance to permanent deformation and method and composition for producing it
US8913801B2 (en) * 2012-06-29 2014-12-16 Apple Inc. Enrollment using synthetic fingerprint image and fingerprint sensing systems
TWI530884B (zh) * 2013-11-12 2016-04-21 茂丞科技股份有限公司 具有小寬幅生物感測器之分段式導引功能的電子設備及其導引方法
US9412002B2 (en) * 2013-12-26 2016-08-09 Intel Corporation Wearable electronic device having a fingerprint identification display
KR102185166B1 (ko) * 2014-02-21 2020-12-01 삼성전자주식회사 생체 정보를 인식하기 위한 전자 장치 및 방법
JP2017070630A (ja) 2015-10-09 2017-04-13 株式会社デンソー 血圧測定装置
US10398324B2 (en) 2016-03-03 2019-09-03 Board Of Trustees Of Michigan State University Method and apparatus for cuff-less blood pressure measurement in a mobile device
US11457824B2 (en) * 2016-03-07 2022-10-04 Fitbit, Inc. Blood pressure sensors
CN106127129A (zh) * 2016-06-17 2016-11-16 北京小米移动软件有限公司 指纹录入提示方法和装置
KR102497477B1 (ko) * 2016-09-12 2023-03-15 삼성전자주식회사 개인 정보를 보호하기 위한 방법 및 그 전자 장치
KR102020638B1 (ko) * 2016-09-20 2019-11-04 삼성전자주식회사 가이드를 통해 지문 정보를 입력받는 장치 및 방법
KR102655738B1 (ko) * 2016-12-27 2024-04-05 삼성전자주식회사 접촉형 혈압 측정 장치
US10866619B1 (en) * 2017-06-19 2020-12-15 Apple Inc. Electronic device having sealed button biometric sensing system
CN107550481A (zh) 2017-08-24 2018-01-09 京东方科技集团股份有限公司 一种便携设备及血压测量方法
KR102630393B1 (ko) 2017-09-13 2024-01-30 삼성전자주식회사 생체정보 측정 장치 및 방법
CN109480805B (zh) 2017-09-13 2023-08-15 三星电子株式会社 生物信息测量设备和生物信息测量方法
CN108186002A (zh) 2018-01-30 2018-06-22 江苏鹿得医疗电子股份有限公司 智能指纹式分组测量电子血压计
KR102517692B1 (ko) 2018-02-05 2023-04-03 삼성전자주식회사 혈압 측정 장치 및 방법
US11281886B2 (en) * 2018-02-12 2022-03-22 Huawei Technologies Co., Ltd. Fingerprint enrollment method and terminal
KR102544668B1 (ko) 2018-03-12 2023-06-16 삼성전자주식회사 혈압 측정 장치 및 방법
KR102526951B1 (ko) 2018-04-06 2023-04-28 삼성전자 주식회사 전자 장치에서 생체 정보 측정 방법 및 장치
EP3813653A4 (en) 2018-06-28 2022-04-13 Board of Trustees of Michigan State University MOBILE DEVICE APPLICATIONS TO MEASURE BLOOD PRESSURE
KR102590026B1 (ko) 2018-07-12 2023-10-13 삼성전자주식회사 신호 측정 장치 및 방법과, 생체정보 측정 장치

Also Published As

Publication number Publication date
US11354933B2 (en) 2022-06-07
US20210365664A1 (en) 2021-11-25

Similar Documents

Publication Publication Date Title
KR102590026B1 (ko) 신호 측정 장치 및 방법과, 생체정보 측정 장치
KR102631707B1 (ko) 생체정보 측정 장치 및 방법
EP3456251B1 (en) Bio-information measuring apparatus and bio-information measuring method
KR102655675B1 (ko) 생체정보 추정 장치 및 방법
KR102655676B1 (ko) 혈압 추정 장치 및 방법과, 혈압 추정 지원 장치
KR20190119414A (ko) 생체정보 측정 장치 및 방법
KR102630393B1 (ko) 생체정보 측정 장치 및 방법
CN111166311A (zh) 电子装置
KR20210144356A (ko) 웨어러블 기기 및 생체정보 추정 방법
KR20220030089A (ko) 생체정보 추정 장치 및 방법
KR102605900B1 (ko) 생체정보 추정 장치 및 방법
US11712206B2 (en) Apparatus and method for estimating bio-information, and bio-signal measuring sensor
KR20200040563A (ko) 혈압 추정 장치 및 방법
KR102655741B1 (ko) 생체정보 추정 장치 및 방법
KR102677450B1 (ko) 광학 기반 힘 추정 장치 및 방법
KR102553032B1 (ko) 생체정보 추정 장치, 다중신호 측정센서
US11490822B2 (en) Apparatus and method for estimating bio-information
KR20220012582A (ko) 생체정보 추정 장치 및 방법
KR102622725B1 (ko) 생체정보 추정 장치 및 방법
KR102649910B1 (ko) 생체정보 추정 장치 및 방법
KR20220012581A (ko) 생체정보 추정 장치 및 방법
US20210244301A1 (en) Electronic device and method for estimating bio-information
KR102716673B1 (ko) 생체정보 추정 장치 및 방법
KR20210101112A (ko) 전자 장치 및 생체정보 추정 방법
KR20220009181A (ko) 생체정보 추정 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination