KR20190141348A - 전자 장치에서 생체 정보 제공 방법 및 장치 - Google Patents

전자 장치에서 생체 정보 제공 방법 및 장치 Download PDF

Info

Publication number
KR20190141348A
KR20190141348A KR1020180067987A KR20180067987A KR20190141348A KR 20190141348 A KR20190141348 A KR 20190141348A KR 1020180067987 A KR1020180067987 A KR 1020180067987A KR 20180067987 A KR20180067987 A KR 20180067987A KR 20190141348 A KR20190141348 A KR 20190141348A
Authority
KR
South Korea
Prior art keywords
user
information
electronic device
biometric information
place
Prior art date
Application number
KR1020180067987A
Other languages
English (en)
Other versions
KR102606689B1 (ko
Inventor
김은선
김효길
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180067987A priority Critical patent/KR102606689B1/ko
Priority to PCT/KR2019/007142 priority patent/WO2019240513A1/ko
Priority to US17/059,647 priority patent/US20210212581A1/en
Publication of KR20190141348A publication Critical patent/KR20190141348A/ko
Application granted granted Critical
Publication of KR102606689B1 publication Critical patent/KR102606689B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14532Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring glucose, e.g. by tissue impedance measurement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Emergency Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • Vascular Medicine (AREA)
  • Pulmonology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 다양한 실시 예들은 전자 장치에서 사용자의 생체 정보를 측정하고, 생체 정보에 관련된 정보를 제공하는 방법 및 장치에 관하여 개시한다. 본 발명의 다양한 실시 예들에 따르면, 전자 장치에 있어서, 센서 모듈, 표시 장치, 및 프로세서를 포함하고, 상기 프로세서는, 상기 센서 모듈에 기반하여 사용자의 생체 정보와 사용자에 관련된 장소 정보를 획득하고, 상기 생체 정보와 상기 장소 정보를 매칭하고, 상기 표시 장치를 통해 일정 기간의 생체 정보를 포함하는 인터페이스를 표시하고, 상기 인터페이스에서 사용자로부터 선택된 영역의 장소와 상기 장소에 대응하는 구간을 판단하고, 상기 인터페이스에서 상기 구간을 특정하여 상기 구간 내의 생체 정보를 강조하여 표시할 수 있다. 다양한 실시 예들이 가능하다.

Description

전자 장치에서 생체 정보 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING BIOMETRIC INFORMATION IN ELECTRONIC DEVICE}
본 발명의 다양한 실시 예들은 전자 장치에서 사용자의 생체 데이터(biometric data)를 획득(또는 측정)하고, 획득된 생체 데이터를 이용하여 사용자에 관련된 생체 정보를 제공하는 방법 및 장치에 관하여 개시한다.
디지털 기술의 발달과 함께 이동통신 단말기, 스마트폰(smart phone), 태블릿(tablet) PC(personal computer), 노트북(notebook), PDA(personal digital assistant), 웨어러블 장치(wearable device), 또는 디지털 카메라(digital camera) 등과 같은 다양한 유형의 전자 장치가 널리 사용되고 있다.
최근에는, 전자 장치를 이용하여 사용자의 헬스 케어(health care)를 위한 다양한 서비스(또는 기능)가 제공되고 있다. 예를 들면, 전자 장치는 사용자의 헬스 케어에 관련된 생체 데이터를 획득하고, 획득된 생체 데이터에 기반하여 사용자에게 다양한 헬스 정보(예: 심박 정보, 스트레스 정보 등)를 제공하거나, 또는 생체 데이터에 따른 운동 코칭(exercise coaching)을 제공할 수 있다.
일반적으로, 전자 장치에서 생체 정보 측정은, 사용자의 의지를 기반으로 수행 되거나, 또는 사용자의 의지와 상관 없이 수행될 수 있다. 일 예를 들면, 사용자는 전자 장치에서 생체 데이터를 측정할 수 있는 어플리케이션(예: 헬스 케어 어플리케이션)을 실행하고, 사용자의 생체 데이터를 측정하기 위한 준비(예: 측정하고자 하는 생체 데이터에 관련된 센서에 생체 인식을 위한 준비 자세)를 수행하고, 해당 생체 데이터를 획득하기 위해 설정된 측정 시간 동안 연속적인 측정이 이루어지도록 고정된 자세를 유지하는 등의 동작을 수행할 수 있다. 다른 예를 들면, 전자 장치는 사용자의 신체의 일부(예: 손목 등)에 착용될 수 있고, 착용 상태에서 주기적으로 상시 측정, 사용자 요청에 따른 측정, 또는 설정된 인터럽트 검출에 측정에 적어도 일부 기반하여 생체 데이터를 측정할 수 있다.
전자 장치는 전술한 바와 같이 측정된 생체 데이터를 기반으로 하는 다양한 헬스 정보(예: 심박 정보, 스트레스 정보)를 사용자에게 제공할 수 있다. 일 예로, 전자 장치는 생체 데이터를 기반으로 생성된 사용자의 헬스 정보(예: 심박 정보)를 제공하기 위한 시각적인 인터페이스(예: UI, user interface)를 디스플레이를 통해 표시할 수 있다. 하지만, 전자 장치에서 제공하는 헬스 정보는 단순히 시간적 개념만을 포함할 수 있다. 예를 들면, 사용자가 헬스 정보를 요하는 시점에서 측정된 생체 데이터, 또는 바로 직전에 측정된 생체 데이터를 이용하여 관련된 생체 정보를 제공하거나, 또는 사용자에게 현재까지 제공된 생체 정보에 관련된 누적 정보들을 제공하는 것과 같이, 시간적인 요소에만 기반하여, 단순한 생체 정보만을 제공하고 있다.
다양한 실시 예들에서는, 사용자의 공간적인 장소(place)(예: 집, 사무실, 자동차, 공연장 등)에 연관지어 생체 정보를 제공할 수 있는 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는, 사용자와 관련된 장소(place)에 적어도 연관지어 생체 정보를 획득하고, 생체 정보에 기반하여 해당 장소에서 사용자 상황에 관련된 코칭(coaching)을 제공할 수 있는 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는, 생체 데이터에 대해 장소 별 구간으로 구분하고, 사용자 입력(예: 터치)에 대응하는 장소의 생체 데이터에 관련된 생체 정보를 시각적 효과로 특정하여 사용자에게 제공할 수 있는 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는, 복수의 전자 장치들에서 수집된 생체 데이터를 다양한 상황 정보(예: 때, 장소, 장치 사용 로그 등)에 기반하여 분석하여 관련 인사이트 정보를 저장하고, 사용자의 상황을 인지하여 해당 상황에 적합한 인사이트 정보를 통해 사용자에게 코칭할 수 있는 방법 및 장치에 관하여 개시한다.
본 발명의 다양한 실시 예들에 따른 전자 장치는, 센서 모듈, 표시 장치, 및 프로세서를 포함하고, 상기 프로세서는, 상기 센서 모듈에 기반하여 사용자의 생체 정보와 사용자에 관련된 장소 정보를 획득하고, 상기 생체 정보와 상기 장소 정보를 매칭하고, 상기 표시 장치를 통해 일정 기간의 생체 정보를 포함하는 인터페이스를 표시하고, 상기 인터페이스에서 사용자로부터 선택된 영역의 장소와 상기 장소에 대응하는 구간을 판단하고, 상기 인터페이스에서 상기 구간을 특정하여 상기 구간 내의 생체 정보를 강조하여 표시할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 동작 방법은, 센서 모듈에 기반하여 사용자의 생체 정보와 사용자에 관련된 장소 정보를 획득하는 동작, 상기 생체 정보와 상기 장소 정보를 매칭하는 동작, 표시 장치를 통해 일정 기간의 생체 정보를 포함하는 인터페이스를 표시하는 동작, 상기 인터페이스에서 사용자로부터 선택된 영역의 장소와 상기 장소에 대응하는 구간을 판단하는 동작, 상기 인터페이스에서 상기 구간을 특정하여 상기 구간 내의 생체 정보를 강조하여 표시하는 동작을 포함할 수 있다.
상기와 같은 과제를 해결하기 위하여 본 발명의 다양한 실시 예들에서는, 상기 방법을 프로세서에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
다양한 실시 예들에 따른 전자 장치 및 그의 동작 방법에 따르면, 전자 장치는 사용자의 지리적(또는 지역적) 위치가 아닌 공간적인 장소(place)(예: 집, 사무실, 자동차, 공연장 등)와 연관지어 생체 정보 및 생체 정보에 기반한 코칭(coaching)을 제공할 수 있다. 다양한 실시 예들에 따르면, 전자 장치는 사용자와 관련된 장소(place)에 연관지어 생체 정보를 획득하고, 생체 정보에 기반하여 해당 장소에서 사용자 상황에 관련된 코칭을 통해 예방 의학적인 효과를 제공할 수 있다. 다양한 실시 예들에 따르면, 전자 장치는 생체 데이터에 대해 장소 별 구간으로 구분하고, 사용자 입력(예: 터치)에 대응하는 장소의 생체 데이터에 관련된 생체 정보를 시각적 효과로 특정하여 사용자에게 보다 직관적으로 제공할 수 있다. 다양한 실시 예들에 따르면, 복수의 전자 장치들에서 수집된 생체 데이터를 다양한 상황 정보(예: 때, 장소, 장치 사용 로그 등)에 기반하여 분석하여 관련 인사이트 정보를 저장하고, 사용자의 상황을 인지하여 해당 상황에 적합한 인사이트 정보를 통해 사용자에게 코칭할 수 있다. 다양한 실시 예들에 따르면, 전자 장치의 활용성(또는 사용성)을 높일 수 있다.
도 1은 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시 예들에 따른 표시 장치의 블록도이다.
도 3은 다양한 실시 예들에 따른 전자 장치에서 기능 처리 모듈의 예를 도시하는 도면이다.
도 4는 다양한 실시 예들에 따른 전자 장치에서 헬스 센싱 모듈의 예를 설명하기 위한 도면이다.
도 5는 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 추정하는 예를 설명하기 위한 도면이다.
도 6은 다양한 실시 예들에 따른 단일 전자 장치에 기반하여 생체 정보를 제공하는 예를 설명하기 위한 개략 도면이다.
도 7은 다양한 실시 예들에 따른 복수의 전자 장치들에 기반하여 생체 정보를 제공하는 예를 설명하기 위한 개략 도면이다.
도 8은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 9는 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 제공하는 화면 예를 도시하는 도면이다.
도 10은 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 제공하는 화면 예를 도시하는 도면이다.
도 11은 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 제공하는 화면 예를 도시하는 도면이다.
도 12는 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 13은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 14는 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 15는 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 16은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 17A 및 도 17B는 다양한 실시 예들에 따른 전자 장치에서 인사이트를 제공하는 화면 예를 도시하는 도면들이다.
도 18은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 19 내지 도 23은 다양한 실시 예들에 따른 전자 장치에서 사용자 기반의 장소를 설정하는 화면 예를 도시하는 도면들이다.
도 24는 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 제공하는 화면 예를 도시하는 도면이다.
도 25는 다양한 실시 예들에 따른 복수의 전자 장치들에 기반하여 생체 정보를 제공하는 예를 설명하기 위한 도면이다.
도 26은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 27은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 28, 도 29 및 도 30은 다양한 실시 예들에 따른 전자 장치에서 장소 별 생체 정보를 제공하는 화면 예를 도시하는 도면들이다.
도 1은 다양한 실시 예들에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성 요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성 요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드(embedded)된 채 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성 요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(volatile memory)(132)에 로드(load)하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(non-volatile memory)(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치(CPU, central processing unit) 또는 어플리케이션 프로세서(AP, application processor)), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치(GPU, graphic processing unit), 이미지 시그널 프로세서(ISP, image signal processor), 센서 허브 프로세서(sensor hub processor), 또는 커뮤니케이션 프로세서(CP, communication processor))를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(inactive)(예: 슬립(sleep)) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(active)(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성 요소들 중 적어도 하나의 구성 요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))과 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(OS, operating system)(142), 미들 웨어(middleware)(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성 요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 또는 키보드 등을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커(speaker) 또는 리시버(receiver)를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서(pressure sensor))를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서(gesture sensor), 자이로 센서(gyro sensor), 기압 센서(barometer sensor), 마그네틱 센서(magnetic sensor), 가속도 센서(acceleration sensor), 그립 센서(grip sensor), 근접 센서(proximity sensor), 컬러 센서(color sensor)(예: RGB(red, green, blue) 센서), IR(infrared) 센서, 생체 센서(biometric sensor), 온도 센서(temperature sensor), 습도 센서(humidity sensor), 또는 조도 센서(illuminance sensor) 등을 포함할 수 있다.
인터페이스(177)는 전자 장치(101)의 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜(protocol)들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD(secure digital) 카드 인터페이스, 또는 오디오 인터페이스 등을 포함할 수 있다.
연결 단자(connection terminal)(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터) 등을 포함할 수 있다.
햅틱 모듈(haptic module)(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터(motor), 압전 소자(piezoelectric element), 또는 전기 자극 장치(electrical stimulation device) 등을 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지(fuel cell)를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, Wi-Fi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN(wide area network))와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다.
무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI, international mobile subscriber identity))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나, 수신될 수 있다.
상기 구성 요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고, 신호(예: 명령 또는 데이터)를 상호 간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다.
일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104 또는 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들(102, 104)에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들(102, 104)은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅(cloud computing), 분산 컴퓨팅(distributed computing), 또는 클라이언트-서버 컴퓨팅(client-server computing) 기술이 이용될 수 있다.
도 2는 다양한 실시 예들에 따른 표시 장치(160)의 블록도(200)이다.
도 2를 참조하면, 표시 장치(160)는 디스플레이(210), 및 이를 제어하기 위한 디스플레이 드라이버 IC(DDI, display driver IC)(230)를 포함할 수 있다. DDI(230)는 인터페이스 모듈(231), 메모리(233)(예: 버퍼 메모리), 이미지 처리 모듈(235), 또는 맵핑 모듈(237)을 포함할 수 있다.
DDI(230)는, 예를 들면, 영상 데이터, 또는 상기 영상 데이터를 제어하기 위한 명령에 대응하는 영상 제어 신호를 포함하는 영상 정보를 인터페이스 모듈(231)을 통해 전자 장치(101)의 다른 구성 요소로부터 수신할 수 있다. 예를 들면, 영상 정보는 프로세서(120)(예: 메인 프로세서(121)(예: 어플리케이션 프로세서) 또는 메인 프로세서(121)의 기능과 독립적으로 운영되는 보조 프로세서(123)(예: 그래픽 처리 장치))로부터 수신될 수 있다. DDI(230)는 터치 회로(250) 또는 센서 모듈(176) 등과 상기 인터페이스 모듈(231)을 통하여 커뮤니케이션 할 수 있다. 또한, DDI(230)는 상기 수신된 영상 정보 중 적어도 일부를 메모리(233)에, 예를 들면, 프레임 단위로 저장할 수 있다.
이미지 처리 모듈(235)은, 예를 들면, 상기 영상 데이터의 적어도 일부를 상기 영상 데이터의 특성 또는 디스플레이(210)의 특성에 적어도 기반하여 전처리(pre-processing) 또는 후처리(post-processing)(예: 해상도, 밝기, 또는 크기 조정 등)를 수행할 수 있다.
맵핑 모듈(237)은 이미지 처리 모듈(235)을 통해 전처리 또는 후처리된 상기 영상 데이터에 대응하는 전압 값 또는 전류 값을 생성할 수 있다. 일 실시 예에 따르면, 전압 값 또는 전류 값의 생성은, 예를 들면, 디스플레이(210)의 픽셀(pixel)들의 속성(예: 픽셀들의 배열(RGB stripe 또는 pentile 구조), 또는 서브 픽셀들 각각의 크기)에 적어도 일부 기반하여 수행될 수 있다. 디스플레이(210)의 적어도 일부 픽셀들은, 예를 들면, 상기 전압 값 또는 전류 값에 적어도 일부 기반하여 구동됨으로써 상기 영상 데이터에 대응하는 시각적 정보(예: 텍스트, 이미지, 또는 아이콘)가 디스플레이(210)를 통해 표시될 수 있다.
일 실시 예에 따르면, 표시 장치(160)는 터치 회로(250)를 더 포함할 수 있다. 터치 회로(250)는 터치 센서(251) 및 이를 제어하기 위한 터치 센서 IC(253)를 포함할 수 있다. 터치 센서 IC(253)는, 예를 들면, 디스플레이(210)의 특정 위치에 대한 터치 입력 또는 호버링(hovering) 입력을 감지하기 위해 터치 센서(251)를 제어할 수 있다. 예를 들면, 터치 센서 IC(253)는 디스플레이(210)의 특정 위치에 대한 신호(예: 전압, 광량, 저항, 또는 전하량 등)의 변화를 측정함으로써 터치 입력 또는 호버링 입력을 감지할 수 있다. 터치 센서 IC(253)는 감지된 터치 입력 또는 호버링 입력에 관한 정보(예: 위치, 면적, 압력, 또는 시간 등)를 프로세서(120)에 제공할 수 있다. 일 실시 예에 따르면, 터치 회로(250)의 적어도 일부(예: 터치 센서 IC(253))는 DDI(230), 또는 디스플레이(210)의 일부로, 또는 표시 장치(160)의 외부에 배치된 다른 구성 요소(예: 보조 프로세서(123))의 일부로 포함될 수 있다.
일 실시 예에 따르면, 표시 장치(160)는 센서 모듈(176)의 적어도 하나의 센서(예: 지문 센서, 홍채 센서, 압력 센서 또는 조도 센서 등), 또는 이에 대한 제어 회로를 더 포함할 수 있다. 이 경우, 상기 적어도 하나의 센서 또는 이에 대한 제어 회로는 표시 장치(160)의 일부(예: 디스플레이(210) 또는 DDI(230)) 또는 터치 회로(250)의 일부에 임베디드될 수 있다. 예를 들면, 표시 장치(160)에 임베디드된 센서 모듈(176)이 생체 센서(예: 지문 센서)를 포함할 경우, 상기 생체 센서는 디스플레이(210)의 일부 영역을 통해 터치 입력과 연관된 생체 정보(예: 지문 이미지)를 획득할 수 있다. 다른 예를 들면, 표시 장치(160)에 임베디드된 센서 모듈(176)이 압력 센서를 포함할 경우, 상기 압력 센서는 디스플레이(210)의 일부 또는 전체 영역을 통해 터치 입력과 연관된 압력 정보를 획득할 수 있다. 일 실시 예에 따르면, 터치 센서(251) 또는 센서 모듈(176)은 디스플레이(210)의 픽셀 레이어(pixel layer)의 픽셀들 사이에, 또는 상기 픽셀 레이어의 위에 또는 아래에 배치될 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치(101)는 다양한 형태의 장치가 될 수 있다. 전자 장치(101)는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치(wearable device), 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치(101)는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경(modifications), 균등물(equivalents), 또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다.
본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", “A 또는 B 중 적어도 하나”, "A, B 또는 C", "A, B 및 C 중 적어도 하나" 및 “A, B, 또는 C 중 적어도 하나”와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성 요소를 다른 해당 구성 요소와 구분하기 위해 사용될 수 있으며, 해당 구성 요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성 요소가 다른(예: 제2) 구성 요소에 "기능적으로” 또는 “통신적으로"라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성 요소가 상기 다른 구성 요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성 요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어(firmware)로 구현된 유닛(unit)을 포함할 수 있으며, 예를 들면, 로직(logic), 논리 블록(logic block), 부품(component), 또는 회로(circuit) 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101))에 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들(instructions)을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러(compiler) 생성된 코드 또는 인터프리터(interpreter)에 의해 실행될 수 있는 코드(code)를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: CD-ROM, compact disc read only memory)의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성 요소들의 각각의 구성 요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성 요소들 중 하나 이상의 구성 요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성 요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성 요소들(예: 모듈 또는 프로그램)은 하나의 구성 요소로 통합될 수 있다. 이런 경우, 통합된 구성 요소는 상기 복수의 구성 요소들 각각의 구성 요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성 요소들 중 해당 구성 요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱(heuristic)하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
다양한 실시 예들에서, “연속” 또는 “연속적으로”라는 용어와 함께 또는 이런 용어 없이, “측정”, “수집” 또는 “센싱”이라고 언급된 경우, 그것은 사용자가 생체 측정을 위한 직접적인 의지(intent)(예: 생체 측정과 관련된 어플리케이션 실행 및 생체 측정에 관련된 일련의 동작 수행)없이, 또는 사용자의 직접적인 의지를 통해 전자 장치(101)를 이용하여 생체 정보에 필요한 최소한의 생체 데이터를 획득할 수 있다는 것을 의미할 수 있다.
다양한 실시 예들에서, 생체 데이터(예: 생체 정보에 관련된 데이터)는, 예를 들면, 원시 데이터(raw data)를 나타낼 수 있고, 전자 장치의 생체 센서를 통해 전자 장치가 받아들일 수 있는 데이터를 나타낼 수 있다. 예를 들면, 생체 데이터는 사용자가 인지 가능한 생체 정보로 가공되기 이전의(또는 처리되지 않은) 데이터를 포함할 수 있다.
다양한 실시 예들에서, “장소(place)”라는 용어는, 사용자가 머무르는 공간적인 위치(또는 공간)를 의미할 수 있다. 다양한 실시 예들에 따르면, “장소”는 지리적인 위치에 기반한 고정된 장소(예: 집, 사무실1, 사무실2, 공원 등)와 공간적인 위치에 기반한 고정되지 않은 장소(예: 자동차1, 자동차2 등)를 포함할 수 있다.
다양한 실시 예들은, 전자 장치에서 수집된 생체 데이터(예: 스트레스 데이터)를 장소, 체류 시간 또는 전자 장치의 사용 로그 중 적어도 하나를 분석하여, 각 상황 별로 사용자 상태(예: 스트레스)의 수준을 표시하여 제공할 수 있다. 다양한 실시 예들은, 전자 장치의 사용 로그 분석을 통하여 사용자 상태(예: 스트레스)의 수준이 좋아질 수 있는 인사이트(insight)(또는 인사이트 카드)를 제공할 수 있다.
다양한 실시 예들에 따르면, 전자 장치는 전자 장치에서 수집된 생체 데이터(예: 스트레스, HR, 산소포화도, 혈압, 혈당, 걸음 수 등)를 장소와 시간 정보를 함께 저장하여, 장소 별 체류 시간 및 생체 데이터의 수준을 표시할 수 있고, 생체 데이터의 수준을 컬러(color)로 구분하여 표시할 수 있다. 다양한 실시 예들에 따르면, 제1 전자 장치(예: 웨어러블 장치)와 제2 전자 장치(예: 스마트폰)에서 수집된 생체 데이터를 시간과 장소를 함께 표시하고, 사용자가 해당 장소에 진입하거나, 또는 머무르는 동안 사용자에게 도움을 주는 인사이트를 제공할 수 있다.
도 3은 다양한 실시 예들에 따른 전자 장치에서 기능 처리 모듈의 예를 도시하는 도면이다.
도 3에 도시한 바와 같이, 도 3은 다양한 실시 예들에서 사용자의 생체 정보와 관련된 데이터를 추정하여(estimating) 사용자에게 제공하는 것과 관련된 기능을 실행하는 모듈(예: 기능 처리 모듈(300))의 예를 나타낼 수 있다. 예를 들면, 도 3은 다양한 실시 예들에서 생체 데이터를 수집하고, 수집된 생체 데이터를 장소(또는 체류 시간, 사용 로그(usage log)) 기반으로 구분하여, 장소 별 생체 정보 제공, 사용자의 다양한 상태에 관련된 코칭(coaching)(또는 인사이트(insight))를 제공하는 것에 관련된 기능 처리 모듈(300)의 예를 나타낼 수 있다. 다양한 실시 예들에서, 기능 처리 모듈(300)은 프로세싱 회로(processing circuitry)를 포함하는 프로세서(예: 도 1의 프로세서(120))에 하드웨어 모듈(hardware module)로 포함되거나, 또는 소프트웨어 모듈(software module)로 포함될 수 있다.
도 3을 참조하면, 기능 처리 모듈(300)은 상황 인지 모듈(310), 추정 모듈(320), 정보 가공 모듈(330), 및 계정 관리 모듈(340) 등을 포함할 수 있다.
다양한 실시 예들에서, 상황 인지 모듈(310)은 상황 인지(context awareness) 기술에 기반하여 전자 장치(101)(또는 사용자)에 관련된 다양한 상황을 인지할 수 있다. 상황 인지 기술은 사용자, 전자 장치(101) 및 환경으로 이루어진 현실 공간에서 일어나는 동적(dynamic), 내적(individual), 정적(static) 등의 상황을 포함하는 각종 상황 정보들을 추사황하여 가상공간 안으로 주입시킨 후, 상황 정보들을 활용하여 사용자의 상황에 맞는 맞춤형 정보나 지능화된 서비스를 제공하는 기술을 나타낼 수 있다. 일 실시 예에 따라, 상황 인지 모듈(310)은 사용자의 직무, 감정, 및 위치를 인지하여 사용자가 직접 입력하지 않아도 전자 장치(101)가 알아서 해주는 것을 의미할 수 있다.
다양한 실시 예들에서, 상황 인지 모듈(310)은 다양한 센서(예: 도 1의 센서 모듈(176))로부터 입력되는 데이터(또는 정보)를 분석하여 상황을 판단할 수 있다. 일 실시 예에 따르면, 상황 인지 모듈(310)은 전자 장치(101)에서 어플리케이션(예: 콜 수행을 위한 어플리케이션, 음악 재생을 위한 어플리케이션, 동영상 재생을 위한 어플리케이션, 위치 기반 서비스에 관련된 어플리케이션, 또는 인터넷 서비스를 위한 어플리케이션 등)이 실행되는 것을 감지할 수 있다. 상황 인지 모듈(310)은 어플리케이션 실행을 감지하는 것에 응답하여, 생체 정보의 측정 시작에 관련된 정보(예: 트리거 신호)를 추정 모듈(320)에 전달할 수 있다. 다양한 실시 예들에서, 상황 인지 모듈(310)은 어플리케이션 실행과 같은 내적인 상황 외에도, 사용자가 위치되는 장소, 체류 시간, 또는 기타 등등의 다양한 상황을 인지하고, 생체 정보의 측정 시작에 관련된 정보를 추정 모듈(320)에 전달할 수 있다.
다양한 실시 예들에서, 추정 모듈(520)은 적어도 하나의 센서(예: 도 1의 센서 모듈(176))에 기반하여 수집된 생체 데이터와 상황 인지 모듈(310)에 기반하여 판단된 상황에 적어도 기반하여 사용자 상태를 추정할 수 있다. 일 실시 예에 따라, 상황 인지 모듈(310)은 적어도 하나의 센서를 모니터링 하고, 적어도 하나의 센서로부터의 생체 정보의 획득 여부를 판단할 수 있다. 일 실시 예에 따르면, 적어도 하나의 센서는 사용자의 상태(예: 얼굴 영상, 눈 영상)를 획득할 수 있는 센서(예: 이미지 센서(image sensor)(또는 카메라 모듈, 적외선 카메라), 홍채(또는 망막) 센서 등) 또는 사용자의 생체 정보를 직접적으로 획득할 수 있는 생체 센서(예: 지문 센서, 또는 전극(Electrode) 등)를 포함할 수 있다.
다양한 실시 예들에서, 생체 센서는, 예를 들면, PPG 센서, ECG 센서를 포함할 수 있다. 일 실시 예에 따라, PPG 센서는 IR(Infrared)이나 가시광(Red, Green, Blue)을 신체 부위에 쏘고 반사되는 신호를 포토다이오드(Photodiode)를 통해 측정하여 신호 패턴의 모양이나 시간에 따른 변화에 기반하여 생체 상태(예: 심박)를 측정할 수 있다. 일 실시 예에 따라, 전극(Electrode)을 이용한 ECG 센서는, 예를 들면, PPG 센서와 방식은 다르지만 동일하게 사용자의 심박을 측정할 수 있다. 전극은 전자 장치(101)의 전면, 후면 또는 측면 중 적어도 일부에 위치할 수 있고, 디스플레이(720) 상에 투명 전극(730)으로 구성되어 스크린 상에서 생체 측정이 가능하도록 할 수 있다.
다양한 실시 예들에 따르면, 카메라(예: 이미지 센서)를 이용하여 생체 정보의 측정이 가능할 수 있다. 예를 들면, 전면 카메라를 활성화 시 사용자의 눈에는 보이지 않지만 얼굴의 혈관이 흐르는 패턴을 카메라로 촬영할 수 있고, 이를 기반으로 심박을 측정할 수도 있다.
다양한 실시 예들에서, 생체 센서는 전자 장치(101)의 종류(또는 형태)에 따라, 사용자의 신체의 일부(예: 손목 등)가 접촉될 수 있는 전자 장치(101)의 후면 위치, 사용자가 전자 장치(101)를 파지할 시 사용자의 손가락이 접촉될 수 있는 전자 장치(101)의 전면 위치 또는 후면 위치, 전자 장치(101)의 전면의 표시 장치(160) 내부의 위치, 또는 전자 장치(101)의 측면 위치 중 적어도 하나의 위치에 배치될 수 있다. 다양한 실시 예들에서, 생체 센서는, 전자 장치(101) 내에 포함된 센서 외에, 다른 전자 장치(예: 웨어러블 장치, 센서를 포함하는 전자 장치)에 포함된 센서를 포함할 수 있다. 예를 들면, 전자 장치(101)가 스마트폰인 경우, 전자 장치(101)는 사용자의 신체에 착용된 웨어러블 장치를 통해 측정된 생체 정보를 통신 모듈을 통해 수신하여 사용자에게 제공할 수 있다.
다양한 실시 예들에서, 추정 모듈(320)은 적어도 하나의 센서로부터 측정되는 생체 데이터를 수집할 수 있다. 추정 모듈(320)은 수집되는 생체 데이터에 기반하여 생체 정보(예: 생체 데이터에 기반하여 사용자가 인지 가능한 형태로 가공된 정보)를 추정할 수 있다. 예를 들면, 추정 모듈(320)은 생체 데이터에 적어도 일부 기반하여 제1 생체 정보(예: HR, SpO2)를 추정하고, 생체 데이터에 적어도 일부 기반하여 제2 생체 정보(예: 스트레스)를 추정할 수 있다. 예를 들면, 추정 모듈(320)은 제1 생체 정보와 제2 생체 정보의 각각에 필요한 측정 조건(또는 측정 시간 또는 측정 데이터 양)에 기반하여, 각각의 생체 정보를 추정할 수 있다. 일 실시 예에 따라, 추정 모듈(320)은 현재 측정되는 생체 데이터에 더하여, 이전에 누적 저장된 생체 데이터를 통합하여, 생체 정보를 추정할 수 있다. 예를 들면, 추정 모듈(320)은 생체 정보에 관련된 비연속적 측정 데이터를 통합하여 생체 정보를 추정할 수 있다.
다양한 실시 예들에서, 정보 가공 모듈(330)(또는 후처리 모듈)은, 생체 정보를 사용자에게 제공(또는 표시)하기 위한 후처리를 수행할 수 있다. 일 실시 예에 따르면, 정보 가공 모듈(540)은 추정된 생체 정보를 장소 별로 연관지어, 생체 정보가 표현될 영역을 선별할 수 있다. 정보 가공 모듈(330)은 해당 생체 정보가 표시된 경우, 표시된 생체 정보를 증강(또는 업데이트)하여 사용자에게 제공되도록 후처리 할 수 있다.
다양한 실시 예들에 따라, 생체 센서는 생체의 물리적 변화 또는 화학적 변화 중 적어도 하나를 측정할 수 있는 다양한 센서들을 포함하는 것으로, 예를 들면, 광학 센서, 전기신호 측정 센서, 압력 센서 등이 포함될 수 있다.
다양한 실시 예들에 따르면, 생체 센서는 사용자의 생체로부터 측정된 신호를 기반으로 관련 생체 데이터를 획득 가능한 헬스 센싱 모델(health sensing model)을 포함할 수 있다. 예를 들어, 생체 센서는 하나의 PPG 센서로부터 다양한 파장(wavelength)에서의 신호를 추출할 수 있고, 이를 기반으로 각 파장의 LED가 반사되는 특성에 기반하여 다양한 생체 데이터를 추출할 수 있다.
다양한 실시 예들에 따르면, 사용자의 신체의 일부가 전자 장치(101)의 센서에 접촉되어 있는 동안(또는 전자 장치(101)가 사용자의 신체의 일부에 착용된 동안), 전자 장치(101)는 생체 센서로부터 사용자의 생체 데이터를 측정 또는 수집할 수 있다.
다양한 실시 예들에서, 생체 센서로부터 측정 가능한 생체 정보는, 예를 들면, 아래 <표 1>에 예시한 바와 같이, 심박(HR, heart rate), 심박 변이도(HRV, heart rate variation), 산소포화도(SpO2, oxygen saturation), 혈압(BP, blood pressure), 혈당(BG, blood glucose), 스트레스(stress), 감정(emotion), 또는 피부 수화도 등이 포함될 수 있다. 다양한 실시 예들에 따르면, 전자 장치(101)(또는 전자 장치(101)의 센서)는 상기와 같은 생체 정보의 측정에 관련된 헬스 센싱 모델을 포함할 수 있다.
다양한 실시 예들에서, 생체 센서를 통해 측정할 수 있는 생체 정보는, 아래 <표 1>의 예시와 같이 다양할 수 있으며, 각 생체 정보(예: 측정 항목)는 생체 정보 마다 조건(예: 측정을 위한 필요 시간, 또는 측정을 위한 필요 데이터 양)이 다를 수 있으며, 일부 생체 정보는 동일 또는 유사한 조건을 포함할 수 있다.
측정항목 내용 최초 측정을 위한 필요 시간
Heart Rate - 1분당 심장 박동 수
- PPG, ECG 및 카메라로도 측정 가능
5~20초
SpO2 - 혈중산소포화도- PPG 센서(복수의 파장)로 측정 가능 5~20초
Heart Rate Variation - 심박 변이도- PPG, ECG 및 카메라로도 측정 가능 5~20초
Blood pressure - 수축기압(SBP), 이완기압(DBP), 평균동맥압(MAP)- PPG 신호의 파형 분석, 혹은 복수의 센서를 활용하여 맥파전달시간(pulse transition time) 측정을 통한 혈압 추정 30초~1분
Stress - PPG, ECG의 심박, 심박 변이도 기반으로 측정- 혈압 등 정보가 추가시 정확도 향상 20초~1분
Blood Glucose - 혈액 속에 함유되어 있는 포도당의 농도 측정- PPG 센서를 이용해 측정 가능 30초~1분
Body Composition - 체성분을 정량적으로 제공- 전극을 이용해 측정 가능 (생체전기 임피던스법) 5~20초
Skin - 카메라를 이용해 피부톤, 주름, 홍반, 여드름 검출 5초 이내
Emotion - 센서(PPG, ECG 등)으로부터 측정된 정보와 카메라로부터 획득된 얼굴의 특징점을 분석하여 감정상태 측정 1분 이상
다양한 실시 예들에서, 계정 관리 모듈(340)은 사용자 계정(user account)을 설정 및/또는 관리할 수 있다. 일 실시 예에 따라, 계정 관리 모듈(340)은 사용자 계정에 기반하여 서버에 접속하고, 서버로부터 사용자 계정에 관련된 정보를 제공할 수 있다. 일 실시 예에 따라, 계정 관리 모듈(340)은 사용자 계정 기반으로 사용자에 관한 다양한 정보(예: 사용자 개인 정보)를 서버(603)에 설정할 수 있다. 일 실시 예에 따라, 사용자 개인 정보는, 예를 들면, 사용자의 프로필에 관한 프로필 정보, 사용자의 디바이스(또는 전자 장치)에 관한 디바이스 정보, 사용자의 헬스에 관한 헬스 정보, 사용자가 등록하는 장소에 관한 장소 정보, 또는 어플리케이션에 관한 어플리케이션 정보 등을 포함할 수 있다.
도 4는 다양한 실시 예들에 따른 전자 장치에서 헬스 센싱 모델의 예를 설명하기 위한 도면이다.
도 4를 참조하면, 생체 센서(예: 광학 센서)의 헬스 센싱 모델(400)은, 예를 들면, 심박 엔진(heart rate engine)(410), 심박 변이도 엔진(heart rate variability engine)(420), 산소포화도 엔진(SpO2 engine)(430), 혈압 엔진(blood pressure engine)(440), 혈당 엔진(blood glucose engine)(450), 스킨 엔진(skin engine)(460), 체성분 엔진(body composition engine)(470), 스트레스 엔진(stress engine)(480), 또는 감정 엔진(emotion engine)(490) 등을 포함할 수 있다.
다양한 실시 예들에서, 생체 센서(예: 광학 센서 또는 PPG 센서)의 헬스 센싱 모델(400)에 기반하여 생체 데이터를 측정하는 예를 살펴보면 다음과 같다.
일 실시 예에 따라, 심박과 심박 변이도(HR/HRV)는, 심박 엔진(410)과 심박 변이도 엔진(420)에서, 생체 센서로부터 측정된 신호를 통해 측정할 수 있다. 일 실시 예에 따라, SpO2는, 두 개 이상의 파장에서 측정이 가능한 생체 센서의 사용을 통해 산소포화도 엔진(430)에서 측정할 수 있다.
일 실시 예에 따라, 혈압(BP)은, 혈압 엔진(440)에서, 생체 센서로부터 측정된 신호의 파형 분석(PWA, pulse wave analysis)을 통해 추정할 수 있다. 예를 들면, 측정된 파형으로부터 여러 특징점(feature points)을 추출하고, 미리 정해진 모델(예: 혈압 엔진(440))에 해당 특징점 값을 대입하여 혈압(BP)을 추정할 수 있다. 또한, 일 실시 예에 따르면, 카메라(예: 전면 카메라)로부터 획득되는 이미지에서 얼굴 색의 미세한 변화를 측정하여 실시간으로 파형을 추출하고, 생체 센서로부터 측정된 신호와의 전달 시간(예: 맥파 전달 시간(PTT, pulse transit time)) 차이를 측정하여 혈압(BP)을 추정할 수 있다. 또한, 상기 두 가지 방법을 같이 이용하여 혈압(BP)을 추정하는 것도 가능할 수 있다.
일 실시 예에 따라, 혈당(BG)은, 혈당 엔진(450)에서, 두 개 이상의 파장에서 측정이 가능한 생체 센서로부터 측정된 신호의 흡수 정도 및 특징점을 추출하여 혈액 내의 글루코스(glucose) 농도 변화를 추정할 수 있다.
일 실시 예에 따라, 스킨(skin)은, 스킨 엔진(460)에서, 카메라(예: 전면 카메라)로부터 획득된 사용자의 얼굴 영상(예: 셀피 이미지)을 분석하여, 피부톤, 주름, 홍반, 또는 여드름 등을 실시간으로 정량화 할 수 있다.
일 실시 예에 따라, 체성분(예: 체수분, 체지방, 근육량 등)은, 체성분 엔진(470)을 통해, 전극으로부터 측정된 생체 전기 저항을 분석하여 추정할 수 있다. 예를 들면, 전류가 신체의 다양한 부분을 지나갈 때, 전압 강하가 발생하는데, 측정된 전압 강하의 정도를 통해 해당 부분의 물리적 특성에 대한 간접적 정보를 획득할 수 있고, 이를 통해, 체수분, 지방량 등을 정량화 할 수 있다.
일 실시 예에 따라, 스트레스(stress)는, 스트레스 엔진(480)을 통해, 기 측정된 HR/HRV을 활용하여 일정 시간 동안의 변화 양상을 분석하여 추정할 수 있다, 일 실시 예에 따르면, 일정 시간 동안의 변화 양상에, BP 정보도 함께 반영하여 스트레스의 추정 정확도를 향상시킬 수 있다.
일 실시 예에 따라, 감정(emotion)은, 감정 엔진(490)을 통해, 측정된 생체 데이터에 더하여, 카메라로부터 획득된 영상(예: 셀피 이미지)으로부터 사용자 얼굴 표정의 특징을 추출하여, 사용자에 관련된 행복, 슬픔, 분노, 또는 흥분 등의 감정을 미리 정해진 모델로부터 추정하여 수치화할 수 있다. 일 실시 예에 따르면, 감정 엔진(490)은 스트레스 및/또는 심박에 관한 측정 정보를 이용하여 사용자의 특정 감정(예: 긴장, 흥분 등)을 검출할 수도 있다.
다양한 실시 예들에 따르면, 전자 장치(101)는 사용자의 신체가 생체 센서에 접촉되어 있는 동안 생체 데이터를 측정할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 제1 시간(예: 짧은 시간) 동안 측정 가능한 생체 정보는 먼저 처리하고, 이후 순차적으로 가능한 생체 정보를 증강(augmented)해서 처리할 수 있다. 일 예로, 심박(HR) 또는 산소포화도(SpO2)의 경우 짧은 시간(예: 약 5~20초)에 추정이 가능할 수 있다. 일 예로, 제1 시간을 경과한 제2 시간(예: 제1 시간 보다 긴 시간) 동안 생체 데이터를 더 측정하면, 예를 들어, 심박 변이도(HRV), 스트레스, 혈압(BP), 또는 혈당(BG) 등이 시간 순에 따라 순차적으로(또는 복수의 생체 정보가 대체적으로 동시에) 추정될 수 있다. 일 예로, 제2 시간을 경과한 제3 시간(예: 제2 시간 보다 긴 시간) 동안 생체 데이터를 더 측정하면, 예를 들어, 감정 정보가 추정될 수 있다.
이하에서는, 다양한 실시 예들에서 전술한 예시와 같은 헬스 센싱 모델에 기반하여 생체 정보를 추정하는 것에 관련된 트리거(또는 이벤트)에 따라 생체 정보를 추정하는 예를 설명한다.
도 5는 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 추정하는 예를 설명하기 위한 도면이다.
도 5를 참조하면, 도 5는 도 4에 예시한 바와 같은 헬스 센싱 모델(400)에 기반하여 각 생체 정보를 위한 측정 이벤트가 발생되는 일 예를 나타낼 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 N개의 생체 센서(예: PPG 센서, 전극(electrode), 이미지 센서(예: 카메라(camera)), 가속도(accelerometer) 센서 등)로부터 M개의 생체 정보(예: 심박(HR), 스트레스(stress), 혈당(BG), 혈압(BP), 감정(emotion) 등)를 추출할 수 있다. 일 실시 예에 따라, 하나의 생체 센서에 기반하여 측정 가능한 생체 정보는 복수 개일 수 있으며, 예를 들면, 생체 정보의 개수 M은 생체 센서의 개수 N보다 크거나 같은 수를 포함할 수 있다(예: M ≥ N).
다양한 실시 예들에 따르면, 전자 장치(101)는 동시에 여러 모델들을 추출할 수 있으며, 이를 위해 여려 개의 엔진들(예: 심박 엔진(420), 혈압 엔진(440), 혈당 엔진(450), 스트레스 엔진(480), 및 감정 엔진(490) 등)이 동시에 동작할 수 있다. 다양한 실시 예들에 따르면, 각 엔진들의 입력 신호(input signal)는 동일할 수 있지만, 처리 엔진은 독립적으로 구동되기 때문에 결과 이벤트가 다른 타이밍(timing)에 전송될 수 있다. 예를 들면, 생체 센서(500)(예: PPG 센서)를 통해 입력되는 입력 신호(예: 이벤트(event)(501))는 하나일 수 있고, 생체 센서(500)에 의한 입력 신호에 기반하여 동작 가능한 엔진은 복수(예: 심박 엔진(410), 산소포화도(SpO2) 엔진(430), 스트레스 엔진(480), 혈압 엔진(440), 혈당 엔진(450), 감정 엔진(490) 등)일 수 있다. 다양한 실시 예들에서, 복수의 엔진들은 독립적으로 구동될 수 있고, 해당 생체 정보를 추정하기 위해 필요한 기준 시간(또는 최소 시간)에 적어도 기반하여 각각의 타이밍에 측정 이벤트를 발생할 수 있다.
도 5에 도시한 바와 같이, 일 실시 예에 따르면, 전자 장치(101)는 먼저, 제1 타이밍(510)에서, 심박 엔진(410)에 기반하여, 심박(HR) 정보에 관련된 이벤트를 발생할 수 있다. 다양한 실시 예들에 따르면, 심박 정보는 계속하여 실시간 모니터링을 수행해야하므로, 심박 엔진(410)은 최초 이벤트 이후에도 지속적으로 관련 이벤트를 프로세서(120)에 전달할 수 있다. 일 실시 예에 따르면, 심박 변이도와 산소포화도는 심박 정보와 대체적으로 동일(또는 유사)한 측정 시간을 가질 수 있다. 일 실시 예에 따라, 제1 타이밍(510)에서, 산소포화도 엔진(430)에 의해 산소포화도 정보에 관련된 이벤트와, 심박 변이도 엔진(420)(도 5에서 미도시)에 의해 심박 변이도 정보에 관련된 이벤트도 대체적으로 동시에 발생될 수 있다. 일 실시 예에 따라, 심박 변이도는 오랜 시간 관찰할수록 정확해지기 때문에, 심박보다 이벤트 전달 타이밍이 늦을 수도 있다. 예를 들면, 심박 변이도는 계산을 위해 수집하는 생체 데이터가 많을수록 정확할 수 있으므로, 적절한 신뢰도를 주기 위한 결정 타이밍이 심박보다 늦어질 수 있다.
일 실시 예에 따르면, 전자 장치(101)는, 제2 타이밍(520)에서, 스트레스 엔진(480)에 기반하여, 스트레스 정보에 관련된 이벤트를 발생할 수 있다. 다양한 실시 예들에서, 스트레스 엔진(480)은 심박 변이도를 기반으로 스테레스를 측정할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 생체 정보에 관련된 정보(또는 객체)를 출력(예: 표시)할 때, 해당 생체 정보에 대한 정확한 숫자(예: quantitative value)를 표시하는 것이 아니라, 해당 생체 정보를 사용자에게 가이드(또는 코칭(coaching)) 하는 용도로서 생체 정보에 대한 추세(trend)(예: qualitative value)를 제공할 수 있다. 예를 들면, 생체 정보의 가이드의 경우, 생체 정보의 정확도나 신뢰도에 대해 받아들이는 사용자의 민감도가 적을 수 있기 때문에 짧은 측정 시간에도 해당 생체 정보에 대한 표시가 가능할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는, 제3 타이밍(530)에서, 혈압 엔진(440)에 기반하여, 혈압 정보에 관련된 이벤트를 발생할 수 있다. 일 실시 예에 따라, 전자 장치(101)는, 제3 타이밍(530)에서, 혈당 엔진(450)에 기반하여, 혈당 정보에 관련된 이벤트를 함께 발생할 수도 있다. 일 실시 예에 따라, 혈압의 경우 최적의 신호 파형을 추출하는 것이 중요할 수 있으며, 이를 위해 복수의 파형의 획득을 통한 파형의 ‘대표성’ 혹은 ‘통계적 신뢰성’을 높여야 하고, 그 여부에 따라서 측정 시간(예: 이벤트 발생 타이밍)이 매우 짧을 수도 있고, 길어질 수도 있다.
일 실시 예에 따르면, 전자 장치(101)는, 제4 타이밍(540)에서, 감정 엔진(490)에 기반하여, 감정 정보에 관련된 이벤트를 발생할 수 있다. 일 실시 예에 따라, 감정의 경우 스트레스와 연관성을 가질 수 있으므로, 스트레스 값에 기반하여 이벤트를 제공할 수도 있다. 일 실시 예에 따라, 전자 장치(101)는 사용자의 음성이나 얼굴 표정 정보를 합쳐서 단편적인 감정 상태가 아니라 복잡하고 정밀한 감정을 표현할 수 있다. 예를 들면, 셀피 모드에서는 이미지 센서(예: 카메라)를 통해 이미지 정보(예: 카메라 이미지(550))가 획득될 수 있고, 획득된 이미지 정보와 생체 센서(500)에 의한 생체 정보(예: 스트레스 정보)를 기반으로 사용자의 감정 상태를 결정할 수 있고, 통화 중에서는 음성 정보와 생체 정보를 기반으로 사용자의 감정 상태를 결정할 수도 있다.
다양한 실시 예들에 따르면, 도 4 및 도 5에 예시한 바와 같은 사용자의 생체 정보 측정에 관련된 다양한 측정 엔진들은, 각 측정 엔진들의 측정 방식과 측정에 요구되는 조건(예: 측정 필요 시간 등)이 다를 수 있다. 따라서, 도 5에서 각 측정 엔진들에 관한 측정 이벤트는 측정 엔진들 마다 조건이 만족되는(갖추어지는) 순서대로 발생할 수 있고, 측정 이벤트가 발생되는 시점 역시 상황 별로 달라질 수 있다.
일 실시 예에 따르면, 심박 또는 심박 변이도의 경우, 측정 시 샘플링 데이터가 많을수록 정확도가 향상될 수 있으므로 일정 시간을 필요로 하는 방식을 포함할 수 있다. 일 실시 예에 따르면, 산소포화도(SpO2)의 경우, IR(infrared) 광과 레드(Red) 광의 2가지 광에 대한 생체 변화를 모두 감지해야 하는 방식을 포함할 수 있다. 예를 들면, 심박, 심박 변이도, 또는 산소포화도의 경우 순차적으로 측정해야 하는 기본 시간이 존재할 수 있다. 일 실시 예에 따르면, 혈압 또는 혈당의 경우, 완전한(또는 깨끗한(예: 잡음(noise)이 포함되지 않은)) 하나의 파형을 필요로 하는 방식이지만, 측정 상황에 따라 한 번에 완전한 파형이 획득되지 않을 수 있다. 이와 같이, 각 측정 엔진들 마다 측정에 요구되는 최소 시간과 최대 시간이 상황에 따라 달라질 있다. 따라서 각 측정 엔진에 관련된 측정 이벤트는 측정 환경이나, 또는 미리 측정된 신호 파형과의 정합 여부 등 여러 상황에 따라 다르게 발생할 수 있다. 이상에서 도 5에서는, 생체 데이터를 측정하여 생체 정보에 관련된 각각의 측정 이벤트를 설정된 해당 타이밍에 발생하는 예를 설명하였다. 다양한 실시 예들에 따르면, 생체 센서를 통해 획득(또는 측정)하는 생체 데이터(예: 원시 데이터(raw data), 또는 소스 데이터(source data))를 누적(또는 저장)하여 관리할 수 있고, 측정 이벤트를 발생할 때, 누적 데이터를 이용하여 관련 생체 정보의 측정 이벤트를 발생하는 타이밍을 단축할 수 있다. 예를 들면, 다양한 실시 예들에서는, 비연속적 측정 데이터를 통합하여 생체 정보에 관련된 이벤트를 발생할 수 있다.
도 6은 다양한 실시 예들에 따른 단일 전자 장치에 기반하여 생체 정보를 제공하는 예를 설명하기 위한 개략 도면이다.
도 6에 도시한 바와 같이, 도 6에서는 단일 전자 장치(101)에 기반하여 사용자에 관련된 생체 정보를 제공하는 예를 나타낼 수 있다. 도 6에서는 전자 장치(101)가 웨어러블 장치(601)인 것을 예로 하며, 웨어러블 장치(601)에서 사용자의 장소에 기반하여 생체 정보를 제공하는 예를 나타낼 수 있다. 이에 한정하지 않으며, 도 6에 대응하는 동작은 스마트폰과 같은 전자 장치에 의해서도 동작할 수 있다. 다양한 실시 예들에 따르면, 웨어러블 장치(601)는 도 1의 전자 장치(101)의 일부 또는 전체를 포함할 수 있다.
일 실시 예에 따라, 서버(603)는 사용자 계정(user account) 기반으로, 사용자에 관한 다양한 정보(예: 사용자 개인 정보)를 제어하고 관리할 수 있는 서버를 나타낼 수 있다. 예를 들면, 서버(603)는 계정 서버(account server)를 포함할 수 있다. 다양한 실시 예들에서, 사용자에 관한 다양한 정보는, 사용자에 의해 서버(603)에 사용자 계정 기반으로 등록되는 정보로, 예를 들면, 사용자의 프로필에 관한 프로필 정보, 사용자의 디바이스(또는 전자 장치)에 관한 디바이스 정보, 사용자의 헬스에 관한 헬스 정보, 사용자가 등록하는 장소에 관한 장소 정보, 또는 어플리케이션에 관한 어플리케이션 정보 등을 포함할 수 있다.
일 실시 예에 따라, 웨어러블 장치(601)는 사용자의 신체에 착용 가능하고, 사용자의 신체에 착용된 상태에서 상시적으로 사용자의 생체 데이터를 측정 가능할 수 있다. 웨어러블 장치(601)는 측정된 생체 데이터에 적어도 기반하여 관련 생체 정보를 사용자에게 제공할 수 있다.
다양한 실시 예들에 따르면, 웨어러블 장치(601)는 통신 모듈(예: 도 1의 통신 모듈(190))을 이용하여 서버(603)와 통신할 수 있고, 사용자 계정에 기반하여 서버(603)에 접속할 수 있다. 일 실시 예에 따르면, 사용자는 웨어러블 장치(601)를 설정된 통신 방식으로 서버(603)와 통신 연결하고, 서버(603)에 사용자 계정으로 로그인(login)하도록 할 수 있다. 웨어러블 장치(601)는 서버(603)에 접속하여, 사용자 계정 설정과 관련된 인터페이스(또는 화면)를 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시할 수 있다. 사용자는 표시된 인터페이스에 기반하여, 사용자 정의의(또는 사용자가 즐겨 찾는) 장소를 서버(603)에 설정 및 등록할 수 있다. 다양한 실시 예들에서, 장소는 사용자가 머무르는 공간적인 위치(또는 공간)를 의미하는 것으로, 예를 들면, 지리적인 위치에 기반한 고정된 장소(예: 집, 사무실1, 사무실2, 공원 등)와 공간적인 위치에 기반한 고정되지 않은 장소(예: 자동차1, 자동차2 등)를 포함할 수 있다.
도 6을 참조하여, 다양한 실시 예들에 따른 웨어러블 장치(601)에서 생체 정보를 제공하는 동작을 살펴보면 다음과 같다.
참조번호(610)에 나타낸 바와 같이, 사용자는 웨어러블 장치(601)를 이용하여 서버(603)에 사용자의 장소를 등록할 수 있다.
참조번호(620)에 나타낸 바와 같이, 서버(603)는 사용자에 의해 등록된 장소에 관한 장소 정보(예: 위치 정보)를 웨어러블 장치(601)와 동기화 할 수 있다. 일 실시 예에 따르면, 서버(603)는 장소 정보를 웨어러블 장치(601)에 주기적으로 전송(예: 푸시(push) 방식)할 수 있다. 예를 들면, 서버(603)는 웨어러블 장치(601)에 의하지 않고 서버(603)의 작용에 의해서 서버(603) 상에 있는 장소 정보를 웨어러블 장치(601)로 자동 전송할 수 있다. 일 실시 예에 따르면, 서버(603)는 웨어러블 장치(601)의 요청에 응답하여 장소 정보를 웨어러블 장치(601)에 전송(예: 풀(pull) 방식)할 수 있다. 예를 들면, 서버(603)는 웨어러블 장치(601)가 사용자 계정으로 서버(603)에 접속하는 것에 응답하여, 또는 접속하여 장소 정보를 요청하는 것에 응답하여 서버(603) 상에 있는 장소 정보를 웨어러블 장치(601)로 전송할 수 있다.
참조번호(630)에 나타낸 바와 같이, 웨어러블 장치(601)는 사용자에 관련된 생체 데이터를 획득(또는 센싱)하고, 획득된 생체 데이터를 저장할 수 있다. 다양한 실시 예들에 따르면, 웨어러블 장치(601)는 생체 데이터를 저장할 때, 생체 데이터가 획득된 장소에 관한 장소 정보(또는 시간 정보도 포함)와 함께(또는 매칭하여) 저장할 수 있다.
다양한 실시 예들에 따르면, 웨어러블 장치(601)는 사용자에 의해 생체 정보를 표시하도록 하는 요청을 감지하거나, 또는 생체 데이터에 기반하여 적어도 하나의 생체 정보가 생성 가능한 경우, 생체 정보를 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시하여 사용자에게 제공할 수 있다. 다양한 실시 예들에 따라, 웨어러블 장치(601)는 생체 정보를 제공할 때, 장소 별 구간으로 구분하여 제공할 수 있다. 일 실시 예에 따르면, 웨어러블 장치(601)는 생체 정보를 측정된 시간(또는 언제) 및/또는 장소(또는 어디에서)에 따라 구분하여 제공함으로써, 사용자가 해당 결과가 언제/어디에서 측정된 결과인지를 인지하도록 할 수 있다.
다양한 실시 예들에 따르면, 웨어러블 장치(601)는 사용자에 관련된 특정 장소(예: 집, 사무실, 또는 자동차 등)에 진입을 감지할 시, 해당 장소에서의 이전 생체 정보(예: 스트레스 정보)에 기반하여, 사용자에게 관련 인사이트를 제공할 수 있다. 다양한 실시 예들에서, 사용자 상황을 인지하여 해당 상황에 적합한 인사이트를 제공하는 것과 관련하여 후술하는 도면들을 참조하여 상세히 설명된다.
참조번호(640)에 나타낸 바와 같이, 웨어러블 장치(601)는 사용자가 웨어러블 장치(601)의 사용과 관련된 다양한 사용 로그(usage log)를 인지(예: 상황 인지) 및 기록할 수 있다. 일 실시 예에 따르면, 웨어러블 장치(601)는 사용자가 웨어러블 장치(601)를 이용하여 사용하는 어플리케이션(예: 통화(call), 달력(calendar), 음악(music), 동영상(video), 또는 인터넷(internet) 등의 어플리케이션) 또는 어플리케이션을 통해 이용된 컨텐츠(예: 통화 로그(call log), 일정, 음악 재생 목록(또는 항목), 동영상 재생 목록(또는 항목), 웹 브라우징 히스토리(web browsing history) 등)를 모니터링 하고, 이를 기록할 수 있다. 일 실시 예에 따라, 웨어러블 장치(601)는 사용 로그를 모니터링 시에, 사용자의 생체 데이터를 획득할 수 있고, 생체 데이터(또는 생체 데이터에 의한 생체 정보)를 해당 사용 로그와 함께(또는 연관지어, 매핑하여) 저장할 수 있다.
다양한 실시 예들에 따르면, 웨어러블 장치(601)는 생체 정보를 위한 연속 측정 생체 데이터와, 생체 정보의 평균 변화량에 기반하여, 사용자 상황이 인사이트가 필요한 지 여부를 판단할 수 있다. 일 실시 예에 따라, 웨어러블 장치(601)는 스트레스 정보를 위한 연속 측정 생체 데이터와, 스트레스 정보의 평균 변화량(또는 스트레스 지수(stress index))에 기반하여, 사용자 상황이 마인드 컨트롤(mind control)이 필요하다고 판단하는 경우(예: 스트레스 지수가 기준 스트레스 지수보다 높은 경우), 적절한 인사이트를 제공할 수 있다. 다양한 실시 예들에 따르면, 웨어러블 장치(601)는 사용자에게 네거티브 스트레스(negative stress)가 발생하는 상황들에 대해 사용자가 어떻게 대처할 지에 대한 인사이트를 제공할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(601)는 사용자에게 긍정적인 작용을 한 대상(또는 대상물)을 사용자에게 추천할 수 있다. 일 실시 예에 따르면, 웨어러블 장치(601)는 사용자에게 긍정적인 작용을 한 다른 사용자(예: 가족, 친구, 또는 사용자가 통화 시 사용자의 스트레스 지수가 낮아진 통화 상대 등)와 통화를 시도하라는 인사이트(또는 추천, 팁(tips))를 제공할 수 있다. 일 실시 예에 따르면, 웨어러블 장치(601)는 사용자에게 긍정적인 작용을 한 아이템(예: 어플리케이션, 컨텐츠, 또는 이벤트 등)을 사용하도록 유도하는 인사이트(또는 추천, 팁)를 제공할 수 있다. 다양한 실시 예들에서, 사용자 상황을 인지하여 해당 상황에 적합한 인사이트를 제공하는 것과 관련하여 후술하는 도면들을 참조하여 상세히 설명된다.
도 7은 다양한 실시 예들에 따른 복수의 전자 장치들에 기반하여 생체 정보를 제공하는 예를 설명하기 위한 개략 도면이다.
도 7에 도시한 바와 같이, 도 7에서는 복수의 전자 장치들(예: 제1 전자 장치(701)와 제2 전자 장치(702))의 연동에 기반하여 사용자에 관련된 생체 정보를 제공하는 예를 나타낼 수 있다. 예를 들면, 도 7에서는 제1 전자 장치(701)가 웨어러블 장치이고, 제2 전자 장치(702)가 스마트폰인 것을 예로 하며, 제1 전자 장치(701)에서 사용자의 장소에 기반하여 생체 데이터를 측정하고, 제2 전자 장치(702)에서 사용자의 장소에 기반하여 생체 정보를 제공하는 예를 나타낼 수 있다. 다양한 실시 예들에 따르면, 제1 전자 장치(701)와 제2 전자 장치(702)는 도 1의 전자 장치(101)의 일부 또는 전체를 포함할 수 있다.
일 실시 예에 따라, 서버(703)는 사용자 계정 기반으로, 사용자에 관한 다양한 정보(예: 사용자 개인 정보)를 제어하고 관리할 수 있는 서버를 나타낼 수 있다. 예를 들면, 서버(703)는 계정 서버(account server)를 포함할 수 있다. 다양한 실시 예들에서, 사용자에 관한 다양한 정보는, 사용자에 의해 서버(703)에 사용자 계정 기반으로 등록되는 정보(예: 프로필 정보, 디바이스 정보, 헬스 정보, 장소 정보, 또는 어플리케이션 정보 등)를 포함할 수 있다.
일 실시 예에 따라, 제1 전자 장치(701)는 도 6을 참조한 설명 부분에서 설명한 웨어러블 장치(601)에서 실행되는 동작들의 전부 또는 일부를 포함할 수 있다. 예를 들면, 제1 전자 장치(701)는 사용자의 신체에 착용된 상태에서 상시적으로 사용자의 생체 데이터를 측정 가능할 수 있다. 제1 전자 장치(701)는 측정된 생체 데이터에 적어도 기반하여 관련 생체 정보를 사용자에게 제공할 수 있다.
다양한 실시 예들에 따르면, 제1 전자 장치(701)는 통신 모듈(예: 도 1의 통신 모듈(190))을 이용하여 서버(703)와 통신할 수 있고, 사용자 계정에 기반하여 서버(703)에 접속할 수 있다. 일 실시 예에 따르면, 제1 전자 장치(701)는 사용자 계정으로 서버(703)에 접속하여, 사용자 계정 설정과 관련된 인터페이스(또는 화면)를 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시할 수 있다. 제1 전자 장치(701)는 사용자 정의의(또는 사용자가 즐겨 찾는) 장소를 서버(703)에 설정 및 등록할 수 있다. 다양한 실시 예들에서, 장소는 사용자가 머무르는 공간적인 위치(또는 공간)를 의미하는 것으로, 예를 들면, 지리적인 위치에 기반한 고정된 장소(예: 집, 사무실1, 사무실2, 공원 등)와 공간적인 위치에 기반한 고정되지 않은 장소(예: 자동차1, 자동차2 등)를 포함할 수 있다.
다양한 실시 예들에 따르면, 제2 전자 장치(702)는 통신 모듈(예: 도 1의 통시 모듈(190))을 이용하여 서버(703)와 통신할 수 있고, 사용자 계정에 기반하여 서버(703)에 접속할 수 있다. 일 실시 예에 따르면, 제2 전자 장치(703)는 사용자 계정으로 서버(703)에 접속하여, 사용자 계정 설정과 관련된 인터페이스(또는 화면)를 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시할 수 있다. 제2 전자 장치(702)는 사용자 정의(또는 사용자가 즐겨 찾는)의 장소를 서버(703)에 설정 및 등록할 수 있다.
다양한 실시 예들에 따르면, 제1 전자 장치(701) 또는 제2 전자 장치(703)의 각각에서 서버(703)에 설정 및 등록하는 사용자 정의의 장소는, 서버(703)를 통해 사용자 계정으로 관리될 수 있고, 사용자 계정으로 관리되는 장소는 서버(703)를 통해 제1 전자 장치(701)와 제2 전자 장치(702)에 동기화 될 수 있다.
도 7을 참조하여, 다양한 실시 예들에 따른 제1 전자 장치(701)와 제2 전자 장치(703)의 연동에 기반하여 생체 정보를 제공하는 동작을 살펴보면 다음과 같다.
참조번호(710)와 참조번호(720)에 나타낸 바와 같이, 사용자는 제1 전자 장치(701) 또는 제2 전자 장치(702)에 적어도 하나를 이용하여 서버(703)에 사용자의 장소를 등록할 수 있다.
참조번호(730)와 참조번호(740)에 나타낸 바와 같이, 서버(703)는 사용자에 의해 등록된 장소에 관한 장소 정보(예: 위치 정보)를 제1 전자 장치(701) 및 제2 전자 장치(702)와 동기화 할 수 있다. 일 실시 예에 따르면, 서버(703)는 장소 정보를 제1 전자 장치(701)와 제2 전자 장치(702)에 주기적으로 전송(예: 푸시 방식)할 수 있다. 예를 들면, 서버(603)는 제1 전자 장치(701) 또는 제2 전자 장치(702)에 의하지 않고 서버(703)의 작용에 의해서 서버(703) 상에 있는 장소 정보를 제1 전자 장치(701) 및/또는 제2 전자 장치(702)로 자동 전송할 수 있다. 일 실시 예에 따르면, 서버(703)는 제1 전자 장치(701) 또는 제2 전자 장치(702)의 요청에 응답하여 장소 정보를 제1 전자 장치(701) 또는 제2 전자 장치(702)에 전송(예: 풀 방식)할 수 있다. 예를 들면, 서버(703)는 제1 전자 장치(601) 또는 제2 전자 장치(703)가 사용자 계정으로 서버(703)접속하는 것에 응답하여, 또는 접속하여 장소 정보를 요청하는 것에 응답하여 서버(703) 상에 있는 장소 정보를 해당 전자 장치로 전송할 수 있다. 서버(703)는 제1 전자 장치(701) 또는 제2 전자 장치(703)로부터 새로운 장소가 추가되는 경우, 사용자 계정에 기반하여 다른 전자 장치에게 새로운 장소가 동기화 할 수 있다.
참조번호(750)에 나타낸 바와 같이, 제1 전자 장치(701)는 사용자에 관련된 생체 데이터를 획득(또는 센싱)하고, 획득된 생체 데이터를 저장할 수 있다. 다양한 실시 예들에 따르면, 제1 전자 장치(701)는 생체 데이터를 저장할 때, 생체 데이터가 획득된 장소에 관한 장소 정보(또는 시간 정보도 포함)와 함께(또는 매칭하여) 저장할 수 있다.
참조번호(760)에 나타낸 바와 같이, 제1 전자 장치(701)는 저장된 데이터를 제2 전자 장치(702)에 전송(또는 공유)할 수 있다. 예를 들면, 제1 전자 장치(701)는 장소 정보와 연속적으로 측정된 생체 데이터(또는 연속 측정 데이터)를 제2 전자 장치(702)로 전송할 수 있다. 일 실시 예에 따라, 제1 전자 장치(701)는 연속 측정 데이터를 획득하고, 연속 측정 데이터를 획득하는 시점마다, 연속 측정 데이터와 장소 정보(또는 시간 정보도 포함)를 제2 전자 장치(702)로 전송할 수 있다. 일 실시 예에 따라, 제1 전자 장치(701)는 설정된 장소에서 연속 측정 데이터를 획득하는 시점에, 연속 측정 데이터와 장소 정보(또는 시간 정보도 포함)를 제2 전자 장치(702)로 전송할 수 있다.
다양한 실시 예들에 따르면, 제1 전자 장치(701)는 사용자에 의해 생체 정보를 표시하도록 하는 요청을 감지하거나, 또는 생체 데이터에 기반하여 적어도 하나의 생체 정보가 생성 가능한 경우, 생체 정보를 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시하여 사용자에게 제공할 수 있다. 다양한 실시 예들에 따라, 제1 전자 장치(701)는 생체 정보를 제공할 때, 장소 별 구간으로 구분하여 제공할 수 있다. 일 실시 예에 따르면, 제1 전자 장치(701)는 생체 정보를 측정된 시간(또는 언제) 및/또는 장소(또는 어디에서)에 따라 구분하여 제공함으로써, 사용자가 해당 결과가 언제/어디에서 측정된 결과인지를 인지할 수 있도록 할 수 있다.
다양한 실시 예들에 따르면, 제1 전자 장치(701)는 사용자에 관련된 특정 장소(예: 집, 사무실, 또는 자동차 등)에 진입을 감지할 시, 해당 장소에서의 이전 생체 정보(예: 스트레스 정보)에 기반하여, 사용자에게 관련 인사이트를 제공할 수 있다. 다양한 실시 예들에서, 사용자 상황을 인지하여 해당 상황에 적합한 인사이트를 제공하는 것과 관련하여 후술하는 도면들을 참조하여 상세히 설명된다.
다양한 실시 예들에 따르면, 제2 전자 장치(702)는 사용자에 의해 생체 정보를 표시하도록 하는 요청을 감지하거나, 제1 전자 장치(701)로부터 생체 정보를 수신하거나, 또는 제1 전자 장치(701)로부터 수신된 생체 데이터에 기반하여 적어도 하나의 생체 정보가 생성 가능한 경우, 생체 정보를 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시하여 사용자에게 제공할 수 있다.
다양한 실시 예들에 따르면, 제2 전자 장치(702)는 생체 정보를 제공할 때, 제1 전자 장치(701)로부터 획득된 데이터(예: 동기화 데이터)(771), 제2 전자 장치(702)에 의해 측정된 생체 데이터(772), 또는 제2 전자 장치(702)의 사용과 관련된 다양한 사용 로그(773)에 적어도 기반하여 제공할 수 있다.
다양한 실시 예들에 따라, 제2 전자 장치(702)는 생체 정보를 제공할 때, 장소 별 구간으로 구분하여 제공할 수 있다. 일 실시 예에 따르면, 제2 전자 장치(702)는 생체 정보를 측정된 시간 및/또는 장소에 따라 구분하여 제공함으로써, 사용자가 해당 결과가 언제/어디에서 측정된 결과인지를 인지하도록 할 수 있다.
다양한 실시 예들에 따르면, 제2 전자 장치(702)는 사용자에 관련된 특정 장소(예: 집, 사무실, 또는 자동차 등)에 진입을 감지할 시, 해당 장소에서의 이전 생체 정보(예: 스트레스 정보)에 기반하여, 사용자에게 관련 인사이트를 제공할 수 있다. 다양한 실시 예들에서, 사용자 상황을 인지하여 해당 상황에 적합한 인사이트를 제공하는 것과 관련하여 후술하는 도면들을 참조하여 상세히 설명된다.
참조번호(770)에 나타낸 바와 같이, 제2 전자 장치(702)는 사용자가 제2 전자 장치(702)의 사용과 관련된 다양한 사용 로그를 인지(예: 상황 인지) 및 기록할 수 있다. 일 실시 예에 따르면, 제2 전자 장치(702)는 사용자가 제2 전자 장치(702)를 이용하여 사용하는 어플리케이션(예: 통화, 달력, 음악, 동영상, 또는 인터넷 등의 어플리케이션) 또는 어플리케이션을 통해 이용된 컨텐츠(예: 통화 로그, 일정, 음악 재생 목록(또는 항목), 동영상 재생 목록(또는 항목), 웹 브라우징 히스토리 등)를 모니터링 하고, 이를 기록할 수 있다. 일 실시 예에 따라, 제2 전자 장치(702)는 사용 로그를 모니터링 시에, 사용자의 생체 데이터를 획득할 수 있고, 생체 데이터(또는 생체 데이터에 의한 생체 정보)를 해당 사용 로그와 함께(또는 연관지어, 매핑하여) 저장할 수 있다.
다양한 실시 예들에 따르면, 제1 전자 장치(701) 또는 제2 전자 장치(702)의 적어도 하나는 생체 정보를 위한 연속 측정 생체 데이터와, 생체 정보의 평균 변화량에 기반하여, 사용자 상황이 인사이트가 필요한 지 여부를 판단할 수 있다. 일 실시 예에 따라, 제1 전자 장치(701) 또는 제2 전자 장치(702)의 적어도 하나는 스트레스 정보를 위한 연속 측정 생체 데이터와, 스트레스 정보의 평균 변화량(또는 스트레스 지수)에 기반하여, 사용자 상황이 마인드 컨트롤이 필요하다고 판단하는 경우(예: 스트레스 지수가 기준 스트레스 지수보다 높은 경우), 적절한 인사이트를 제공할 수 있다. 다양한 실시 예들에 따르면, 제1 전자 장치(701) 또는 제2 전자 장치(702)의 적어도 하나는 사용자에게 네거티브 스트레스가 발생하는 상황들에 대해 사용자가 어떻게 대처할 지에 대한 인사이트를 제공할 수 있다.
일 실시 예에 따르면, 제1 전자 장치(701) 또는 제2 전자 장치(702)의 적어도 하나는 사용자에게 긍정적인 작용을 한 대상(또는 대상물)을 사용자에게 추천할 수 있다. 일 실시 예에 따르면, 제1 전자 장치(701) 또는 제2 전자 장치(702)의 적어도 하나는 사용자에게 긍정적인 작용을 한 다른 사용자(예: 가족, 친구, 또는 사용자가 통화 시 사용자의 스트레스 지수가 낮아진 통화 상대 등)와 통화를 시도하라는 인사이트를 제공할 수 있다. 일 실시 예에 따르면, 제1 전자 장치(701) 또는 제2 전자 장치(702)의 적어도 하나는 사용자에게 긍정적인 작용을 한 아이템(예: 어플리케이션, 컨텐츠, 또는 이벤트 등)을 사용하도록 유도하는 인사이트(또는 추천, 팁)를 제공할 수 있다. 다양한 실시 예들에서, 사용자 상황을 인지하여 해당 상황에 적합한 인사이트를 제공하는 것과 관련하여 후술하는 도면들을 참조하여 상세히 설명된다.
이상에서 살펴본 바와 같이, 다양한 실시 예들에 따른 전자 장치(101)는, 센서 모듈(176), 표시 장치(160), 및 프로세서(120)를 포함하고, 상기 프로세서(120)는, 상기 센서 모듈(176)에 기반하여 사용자의 생체 정보와 사용자에 관련된 장소 정보를 획득하고, 상기 생체 정보와 상기 장소 정보를 매칭하고, 상기 표시 장치(160)를 통해 일정 기간의 생체 정보를 포함하는 인터페이스를 표시하고, 상기 인터페이스에서 사용자로부터 선택된 영역의 장소와 상기 장소에 대응하는 구간을 판단하고, 상기 인터페이스에서 상기 구간을 특정하여 상기 구간 내의 생체 정보를 강조하여 표시하도록 구성할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서(120)는, 상기 전자 장치(101)의 사용 로그를 분석하고, 상기 사용 로그와 상기 사용 로그에 관련된 생체 정보를 매칭할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서(120)는, 상기 생체 정보와 상기 장소 정보에 기반하여 사용자 상황을 판단하고, 상기 사용자 상황에 관련된 인사이트를 출력할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서(120)는, 상기 생체 정보와 상기 사용 로그에 기반하여 사용자 상황을 판단하고, 상기 사용자 상황에 관련된 인사이트를 출력할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서(120)는, 상기 생체 정보, 상기 장소 정보, 또는 상기 사용 로그에 적어도 기반하여 사용자의 상황을 판단하고, 상기 사용자의 상황이 설정된 조건에 포함되는 경우, 상기 사용자의 상황에 관련된 인사이트를 출력할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서(120)는, 사용자에 관련된 특정 상황에서 생체 정보에 기반하여 사용자 상태를 추정하고, 상기 사용자 상태에 기반하여 상기 사용자 상황에 관련된 상황 데이터를 생성하고, 상기 상황 데이터를 저장할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서(120)는, 생체 정보를 분석하고, 상기 생체 정보에 따른 사용자 상태가 설정된 조건에 포함되는지 여부를 판단하고, 상기 사용자 상태가 상기 설정된 조건에 포함되는 경우, 상기 사용자 상태에 관련된 인사이트를 추출하고, 상기 인사이트를 출력할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서(120)는, 생체 정보의 수집 시에 상황 인지를 수행하고, 상기 상황 인지에 따른 상황 정보와 생체 정보에 따른 사용자 상태에 기반하여 관련된 인사이트를 출력할 수 있다.
다양한 실시 예들에 따라, 상기 사용자에 관련된 장소 정보는 사용자 계정에 기반하여 서버에 등록된 정보를 포함할 수 있다.
다양한 실시 예들에 따라, 상기 프로세서(120)는, 상기 인터페이스를 통해 장소 별 생체 정보를 구분하고, 상기 장소 별로 일정 기간의 생체 정보의 평균을 컬러에 기반하여 표시할 수 있다.
도 8은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 8을 참조하면, 동작(801)에서, 전자 장치(101)의 프로세서(120)(예: 프로세싱 회로를 포함하는 적어도 하나의 프로세서)(또는 도 3의 기능 처리 모듈(300))는 사용자 장소를 등록할 수 있다. 일 실시 예에 따라, 프로세서(120)는 사용자 입력에 대응하여 서버(예: 계정 서버)에 사용자 계정으로 접속할 수 있다. 프로세서(120)는 사용자 계정으로 서버에 접속하는 것에 응답하여, 서버로부터 수신되는 계정 화면을 표시 장치(160)를 통해 표시하도록 할 수 있다. 프로세서(120)는 계정 화면에서 사용자 장소를 입력 받을 수 있고, 입력된 사용자 장소를 서버에 전송하여, 서버를 통해 사용자 계정에 장소 정보를 설정 및 등록할 수 있다. 일 실시 예에 따라, 프로세서(120)는 사용자 계정에 사용자 장소를 등록할 때, 관련 장소 정보를 전자 장치(101)에도 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 전자 장치(101)에서 사용자 계정에 로그인 되거나, 또는 로그인 상태인 경우, 사용자 계정으로부터 사용자 장소에 대한 장소 정보를 확인할 수도 있다.
동작(803)에서, 프로세서(120)는 사용자 장소를 모니터링 할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 전자 장치(101)의 다양한 센서들에 기반하여 상황 인지를 수행할 수 있고, 상황 인지의 하나로서 전자 장치(101)(또는 사용자)가 머무르는 장소를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 위치 정보, 위치 정보의 변화량, 가속도 정보, 또는 움직임 정보 등에 적어도 기반하여, 전자 장치(101)의 현재 위치가 장소1(예: 집), 장소2(예: 사무실), 또는 장소3(예: 자동차) 등에 대응하는지 모니터링 할 수 있다.
동작(805)에서, 프로세서(120)는 사용자의 생체 데이터를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 센서를 통해 사용자의 생체 데이터를 상시적으로 측정하도록 하고, 연속 측정된 생체 데이터를 획득하도록 할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 센서를 통해 특정 인터럽트(예: 사용자 요청 감지, 또는 설정된 장소 진입 감지 등)에 기반하여 사용자의 생체 데이터를 측정하도록 하고, 연속 측정된 생체 데이터를 획득하도록 할 수 있다. 다양한 실시 예들에서, 동작(803)과 동작(805)는 순차적으로, 병렬적으로, 또는 역순차적으로 동작할 수 있다.
동작(807)에서, 프로세서(120)는 생체 데이터와 장소를 매칭하여 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 연속 측정된 생체 데이터와, 연속 측정 데이터가 측정된 장소를 매칭하여 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 데이터가 측정되는 장소가, 예를 들면, 사용자에 의해 설정된 특정 장소(예: 집, 사무실, 또는 자동차 등)인 경우, 해당 장소 항목에 측정된 생체 데이터를 업데이트할 수 있다. 예를 들면, 프로세서(120)는 해당 장소 항목에 이전(또는 다른 시간대)에 측정된 생체 데이터가 존재할 수 있으므로, 해당 장소 항목에서 이전에 측정된 생체 데이터에 시간 순에 따라 현재 측정된 데이터를 추가할 수 있다.
동작(809)에서, 프로세서(120)는 장소 별로 생체 정보를 제공할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 정보 확인을 위한 사용자 입력을 감지하면, 생체 데이터에 기반하여 사용자가 인지 가능한 생체 정보로 구성하여 표시 장치(160)를 통해 표시할 수 있다. 일 실시 예에 따라, 프로세서(120)는 생체 정보를 표시할 때, 시간 순서에 따라 관련 정보를 표시할 수 있고, 생체 정보를 장소 별 구간으로 구분하여 나타낼 수 있다. 다양한 실시 예들에서, 장소 별로 생체 정보를 제공하는 예시가 도 9a 및 도 9b에 도시된다.
도 9는 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 제공하는 화면 예를 도시하는 도면이다.
다양한 실시 예들에서, 도 9는 전자 장치(101)의 표시 장치(예: 도 1의 표시 장치(160))의 크기가 상대적으로 작은 웨어러블 장치(901)의 형태일 수 있고, 웨어러블 장치에서 생체 정보(예: 스트레스 정보)를 제공하는 예를 나타낼 수 있다.
도 9를 참조하면, 예시(A)는 웨어러블 장치(901)에서 측정된 생체 데이터(또는 사용자 계정의 다른 전자 장치(예: 스마트폰)와 동기화된 생체 데이터)에 기반하여 생성된 생체 정보가 스트레스 정보이고, 스트레스 정보가 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시되는 화면 예를 나타낼 수 있다. 일 실시 예에 따라, 도 9에서 표시된 스트레스 정보는 이전에 연속 측정된 생체 데이터로 생성된 정보이거나, 또는 현재 연속 측정된 생체 데이터로 생성된 정보일 수 있다. 일 실시 예에 따라, 스트레스 정보는 측정된 생체 데이터(예: 사용자의 스트레스 상태)에 따라 다양한 스트레스 값(또는 스트레스 지수)이 산출될 수 있다. 다양한 실시 예들에서, 스트레스는 신체적 또는 심리적 긴장으로 인한 증상을 나타낼 수 있다. 일 실시 예에 따르면, 웨어러블 장치(901)는 심장 박동 사이 간격의 변화(예: 심박변이(HRV))를 측정하고, 사용자의 심박변이 데이터를 사용자의 나이대의 건강한 사람 그룹의 데이터와 비교하여 사용자의 스트레스 수준을 제공할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(901)에서 스트레스 정보를 제공하는 인터페이스는, 예를 들면, 생체 정보의 종류(또는 항목)를 나타내는 객체(910A), 제공되는 생체 정보의 측정 시기를 나타내는 객체(910B), 생체 정보에 관련된 값(또는 지표)을 나타내기 위한 객체(910C), 측정된 생체 데이터에 기반한 사용자의 생체 정보(예: 스트레스 정보)(또는 측정 값)을 나타내는 객체(910D), 생체 정보에 관한 평균 값(예: 사용자의 나이대의 건강한 사람 그룹의 데이터 평균)을 나타내는 객체(910E), 사용자의 생체 정보의 정도(예: 낮음(low), 높음(high))를 사용자가 식별할 수 있도록 기준을 나타내는 객체(910F, 910G) 등을 포함할 수 있다. 일 실시 예에 따르면, 전술한 객체들은 해당 객체가 나타내고자 하는 정보의 표현 방식(예: 수치, 이미지, 텍스트 등)에 따라 텍스트, 아이콘, 이미지, 차트, 또는 그래픽 등에 적어도 기반하여 다양하게 구성할 수 있다.
도 9를 참조하면, 예시(B)는 다양한 실시 예들에 따라, 장소 별로 생체 정보를 제공하는 인터페이스의 예를 나타낼 수 있다. 예시(B)에서는 생체 정보가 스트레스 정보인 것을 예시로 할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(901)는 예시(A)와 같은 인터페이스(이하, ‘제1 인터페이스’라 한다)를 통해 사용자에 관한 생체 정보를 표시하는 중에, 사용자 입력(또는 터치)(예: 상세 정보 표시 요청에 관련된 입력)을 감지하면, 제1 인터페이스에서 예시(B)와 같은 인터페이스(이하, ‘제2 인터페이스’라 한다)로 전환하여 표시할 수 있다.
예시(B)에 도시한 바와 같이, 제2 인터페이스는, 예를 들면, 장소를 식별하기 위한 장소 객체(920A, 920B, 920C, 920D)와 해당 장소에 관련된 생체 정보를 상태를 나타내는 상태 객체(930A, 930B, 930C, 930D)를 포함할 수 있다. 일 실시 예에 따라, 예시(B)를 참조하면, 상태 객체는 사용자가 사용자 계정에 기반하여 등록한 장소들(예: 집(Home), 사무실1(예: Office_Woomyun), 사무실2(예: Office_Suwon), 자동차(Car) 등)에 따라 제공될 수 있다. 예시(B)에서는 4개의 장소들을 예시로 나타내었으나, 사용자가 등록하는 장소의 개수에 따라 대응하는 개수의 객체를 통해 장소에 관한 정보가 제공될 수 있다.
다양한 실시 예들에 따르면, 웨어러블 장치(901)는 사용자에 관한 생체 정보(예: 스트레스 정보)에 대해, 관련 생체 데이터가 획득(또는 측정)된 장소 별로 구분하여 제공할 수 있다. 예시(B)를 참조하면, 웨어러블 장치(901)는, 예를 들면, 하루 동안 현재까지 획득된 특정(또는 하나의) 생체 정보(예: 스트레스 정보)를, 각 장소 별로 구분(또는 분할)하여 제공할 수 있다. 일 실시 예에 따르면, 웨어러블 장치(901)는 제1 장소(920A)(예: 집)와 관련하여 누적된 제1 생체 정보, 제2 장소(920B)(예: 사무실1)와 관련하여 누적된 제2 생체 정보, 제3 장소(920C)(예: 사무실2)와 관련하여 누적된 제3 생체 정보, 및 제4 장소(920D)(예: 자동차)와 관련하여 누적된 제4 생체 정보로 구분할 수 있고, 각 장소에 따른 생체 정보들에 대응하여 각각의 상태 객체(930A, 930B, 930C, 930D)로 제공할 수 있다.
일 실시 예에 따르면, 제1 생체 정보, 제2 생체 정보, 제3 생체 정보, 및 제4 생체 정보는 관련 생체 데이터가 획득(또는 측정)된 시간대에 관계 없이 해당 장소에서 연속적 또는 비연속적(예: 측정 시간대 별)으로 획득된 적어도 하나의 생체 정보(예: 개별 스트레스 정보)를 나타낼 수 있다. 웨어러블 장치(901)는 장소 별로 생체 정보를 누적(또는 취합)할 수 있고, 누적된 생체 정보들의 평균으로 산출하여 각 장소에 대응하는 상태 객체(930A, 930B, 930C, 930D)를 제공할 수 있다. 예를 들어, 예시(B)를 참조하면, 웨어러블 장치(901)는 사용자가 제1 장소(920A)(예: 집)에 머무르는 동안 획득된 생체 정보의 평균을 산출하여 제1 생체 정보에 관한 상태 객체(930A)를 제공할 수 있다.
일 실시 예에 따르면, 상태 객체(930A, 930B, 930C, 930D)는 산출된 생체 정보의 값(예: 스트레스 지수)에 따라 상이한 컬러(color)로 제공하며, 장소 별 생체 정보의 값에 따라 각 장소마다 동일하거나 다른 컬러로 제공할 수 있다. 예를 들면, 상태 객체(930A, 930B, 930C, 930D)는, 참조번호 940에 예시한 바와 같이, 스트레스 지수에 따라 8단계의 컬러로 표현할 수 있다. 이러한 예가 참조번호 940에 도시된다. 일 실시 예에 따르면, 스트레스 지수를 제1 상태(예: 가장 좋음) 내지 제8 상태(예: 가장 나쁨)로 구분하고, 제1 상태 내지 제8 상태에 대응하여 제1 컬러(예: 초록) 내지 제8 컬러(예: 주황)로 표현할 수 있다.
일 실시 예에 따르면, 상태 객체(930A, 930B, 930C, 930D)는 사용자가 해당 장소에서 머무른 시간에 관한 시간 정보를 포함하여 제공할 수 있다. 예를 들어, 예시(B)를 참조하면, 사용자가 제1 장소(920A)(예: 집)에서는 4시간 28분(4h 28m)을 머무른 경우를 나타내고, 제2 장소(920B)(예: 사무실1)에서는 8시간 13분(8h 13m)을 머무른 경우를 나타내고, 제3 장소(920C)(예: 사무실2)에서는 2시간(2h)을 머무른 경우를 나타내고, 제4 장소(920D)(예: 자동차)에서는 4시간(4h)을 머무른 경우를 나타낼 수 있다. 일 실시 예에 따라, 사용자가 각 장소에서 머무른 시간은 연속적으로 머무른 시간이거나, 또는 비연속적으로 머무른 시간들이 합해진 시간일 수 있다.
도 10은 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 제공하는 화면 예를 도시하는 도면이다.
다양한 실시 예들에서, 도 10은 전자 장치(101)의 표시 장치(예: 도 1의 표시 장치(160))의 크기가 상대적으로 큰 스마트폰(또는 태블릿 PC)(1001)의 형태일 수 있고, 스마트폰에서 생체 정보를 제공하는 예를 나타낼 수 있다.
도 10을 참조하면, 도 10은 스마트폰(1001)에서 측정된 생체 데이터(또는 사용자 계정의 다른 전자 장치(예: 웨어러블 장치)와 동기화된 생체 데이터)에 기반하여 생성된 생체 정보가 스트레스 정보이고, 스트레스 정보가 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시되는 화면 예를 나타낼 수 있다.
일 실시 예에 따르면, 스마트폰(1001)에서 스트레스 정보를 제공하는 인터페이스는, 예를 들면, 생체 정보의 종류(또는 항목)를 나타내는 영역(1010), 제공되는 생체 정보의 측정 시기(예: Thur, 20 November)와 해당 측정 시기에서의 생체 정보의 평균(예: 하루 평균(Daily average))에 관한 정보를 나타내는 영역(1020), 생체 정보에 관련된 상세 정보를 나타내는 영역(1030) 등을 포함할 수 있다. 일 실시 예에 따르면, 도 10에서는 도시하지 않았으나, 인터페이스는 전술된 영역에 보다 많은 영역들을 포함할 수 있다. 예를 들면, 스마트폰(1001)은 사용자 입력(예: 스크롤 입력)에 대응하여, 표시된 화면을 스크롤링(scrolling) 하여 표시할 수 있고, 스크롤링에 따라 새로운 정보가 나타날 수 있다.
일 실시 예에 따르면, 생체 정보에 관련된 상세 정보를 나타내는 영역(1030)(또는 인터페이스)은 측정 시기 동안(예: 하루 동안) 측정된 누적 생체 정보(예: 누적 스트레스 정보)를 차트(또는 그래프)로 제공하는 차트 영역(1040), 차트 영역(1040)에서 사용자에 의해 선택(또는 터치)된 영역(또는 구간)에 관련된 장소 정보와 시간 정보를 제공하는 구간 정보 영역(1050), 측정 시기 동안 측정된 누적 생체 정보를 장소 별로 구분하여 제공하는 장소 정보 영역(1060) 등을 포함할 수 있다. 일 실시 예에 따르면, 영역(1030)은 생체 정보의 출처에 관한 정보(예: Gear S4, 20/11 8:59pm)를 제공하는 출처 영역(1070)을 포함할 수 있다. 일 실시 예에 따라, 출처에 관한 정보는, 예를 들면, 생체 정보가 획득된 디바이스(예: 웨어러블 장치)에 관한 정보와, 해당 디바이스로부터 생체 정보가 획득된 시기(또는 동기화 시기 등)에 관한 시간 정보 등을 포함할 수 있다.
일 실시 예에 따르면, 장소 정보 영역(1060)은 전술한 도 9의 예시(B)를 참조한 제2 인터페이스를 설명한 부분에서 설명한 바에 대응할 수 있으며, 구체적인 설명은 생략한다.
일 실시 예에 따르면, 스마트폰(1001)은 차트 영역(1040)에서 사용자 입력(또는 선택)에 대응하여 구간 정보 영역(1050)을 제공할 수 있다. 다양한 실시 예들에 따르면, 스마트폰(1001)은 차트 영역(1040)에서 사용자 입력을 감지하면, 사용자 입력에 대응하는 장소를 판단할 수 있고, 판단된 장소에 관련된 생체 정보를 구간 정보 영역(1050)으로 제공할 수 있다. 이에 대한 상세한 예시가 도 11에 도시된다.
도 11은 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 제공하는 화면 예를 도시하는 도면이다.
도 11을 참조하면, 도 11에서, 화면 예시(A) 내지 화면 예시(E)는 도 10을 참조한 설명 부분에서 설명한 차트 영역(1040)과 구간 정보 영역(1050)을 나타낼 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 사용자에 관련된 장소 별 구간을 나누어 해당 장소의 생체 정보만을 강조하여 표시함으로써, 사용자가 해당 장소에서의 생체 정보에 대해 보다 직관적이고 효과적으로 인지하도록 할 수 있다.
화면 예시(A)를 참조하면, 차트 영역(1040)은 측정 시기 동안(예: 하루 동안) 측정된 누적 생체 정보(예: 누적 스트레스 정보)를 그래프(1110)로 표현할 수 있다. 차트 영역(1040)에서 X축은 시간(예: 12AM ~ 현재(now)까지의 시간)을 나타낼 수 있고, Y축은 스트레스 지수(또는 스트레스 측정 값)를 나타낼 수 있다. 일 실시 예에 따르면, 화면 예시(A)에 도시한 바와 같이, 전자 장치(101)는 차트 영역(1040)을 표시할 때, 차트 영역(1040)을 음영 처리하여 나타낼 수 있다. 예를 들면, 전자 장치(101)는 차트 영역(1040)을 표시할 때, 차트 영역(1040)에서 그래프(1110)를 강조하면서, 전체 영역에 명암도(brightness)나 색채를 적용하여 나타낼 수 있다. 다양한 실시 예들에서, 그래프(1110)는, 예를 들면, 전술한 8단계의 컬러에 기반하여 제공될 수 있다. 다양한 실시 예들에서, 차트 영역(1040)의 음영 처리에 의한 표시 동작은, 전자 장치(101)의 설정에 따라 선택적으로 수행될 수 있다.
화면 예시(A)의 경우, 측정 시기 중 사용자의 슬립(sleep)(또는 수면) 상태에 대응하는 슬립 구간이 선택(또는 활성화)되고, 그에 따라 구간 정보 영역(1101)이 슬립 구간에 관련된 정보로 제공되는 예를 나타낼 수 있다. 일 실시 예에 따르면, 사용자가 슬립 상태에서는 스트레스가 없거나, 또는 무의미할 수 있으므로, 슬립 구간에서는 스트레스 정보를 제공하지 않을 수 있다. 따라서, 구간 정보 영역(1101)에서는 해당 구간이 사용자의 상태가 슬립 상태인 것을 나타내고, 슬립 상태에 관련된 시간 정보(예: 슬립 시작 시간, 슬립 종료 시간, 총 슬립 시간(또는 총 수면 시간) 등)를 포함하여 제공할 수 있다. 또한, 구간 정보 영역(1101)은 사용자의 다양한 슬립 상태에 관한 상세 정보(예: 뒤척임 정도, 수면 효율, 칼로리 소모량 등)를 확인(또는 상세 정보로 진입)할 수 있는 아이템(예: VIEW DETALS)을 더 포함할 수 있다. 일 실시 예에 따라, 슬립 상태에 관한 상세 정보는, 예를 들면, 사용자의 수면 효율, 실제 수면 시간, 뒤척임 없음 시간, 뒤척임 적음 시간, 뒤척임 많음 시간, 칼로리 소모량 등의 항목 별로 수치적 정보로 제공할 수 있다.
화면 예시(B) 내지 화면 예시(E)를 참조하면, 화면 예시(B) 내지 화면 예시(E)는, 사용자가 차트 영역(1040)에서 어느 일 영역을 선택(또는 터치)하는 경우에 장소 별 구간을 구분하여 생체 정보를 제공하는 예를 나타낼 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 차트 영역(1040)에서 사용자가 어느 일 영역을 선택하는 것에 응답하여, 선택된 영역에 대응하는 장소(또는 장소 구간)를 판단할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 차트 영역(1040)에서, 판단된 장소(또는 장소 구간)에 대응하는 영역을 하이라이팅(highlighting) 하여 해당 장소에서의 생체 정보 그래프를 직관적으로 나타내고, 구간 정보 영역(1103, 1104, 1105, 1106)을 통해 해당 장소에서의 생체 정보에 관련된 상세 정보를 제공할 수 있다.
다양한 실시 예들에서, 장소(또는 장소 구간)에 대응하는 영역의 하이라이팅은, 예를 들면, 차트 영역(1040)의 음영 처리된 영역(예: 차트 영역(1040)의 전체 영역)에서, 선택된 장소(또는 장소 구간)에 대응하는 구간(예: 차트 영역(1040)의 일부 영역)만을 강조하는 방식일 수 있다. 예를 들면, 전자 장치(101)는 차트 영역(1040)에서 선택된 장소(예: 집, 사무실, 자동차, 또는 공연장 등)에 대응하는 해당 구간(예: 선택된 장소에서 연속적인 측정 데이터로 이루어진 구간(또는 시구간))을 추출하고, 추출된 구간에 대응하는 범위(예: 시작 지점부터 종료 지점까지의 범위)를 결정하고, 결정된 범위를 하이라이팅 할 수 있다. 일 실시 예에 따라, 하이라이팅은, 예를 들면, 차트 영역(1040)에서 사용자 선택에 대응하는 장소에서의 생체 정보를 강조(또는 직관적으로 제공)하기 위한 것으로, 강조해야 할 곳을 명멸시키거나, 굵은 선으로 표시하거나, 콘트라스트를 세게 하거나, 역 비디오(예: 화면의 흑백 부분을 반전) 시키거나, 또는 컬러를 표시하는 등의 다양한 방식을 포함할 수 있다.
일 실시 예에 따라, 화면 예시(B)에 도시한 바와 같이, 화면 예시(B)는 사용자가 차트 영역(1040)에서 영역(1130)을 선택(예: 터치)하는 예를 나타낼 수 있다. 전자 장치(101)는 선택된 영역(1130)에 대응하는 장소(예: 집)를 판단하고, 판단된 장소에서 사용자가 머무르는 동안의 측정 데이터(예: 연속적인 측정 데이터)를 판단할 수 있다. 전자 장치(101)는 측정 데이터에 기반하여 판단된 장소에 대응하는 구간을 결정하고, 결정된 구간을 하이라이팅 할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 구간 정보 영역(1103)를 통해 선택된 영역(1130)에 대한 구간 정보를 사용자에게 제공할 수 있다. 일 예로, 전자 장치(101)는 선택된 영역(1130)에 대응하는 장소에 관한 정보(예: Home)와, 해당 장소에서 사용자가 머무른 시간(또는 해당 장소에서 측정 시간)에 관한 제1 정보(예: 시각 정보로, 6:30AM - 7:40AM)와 제2 정보(예: 총 머무른 시간 합 정보로, 1hrs 10mins)를 표시할 수 있다.
일 실시 예에 따라, 화면 예시(C)에 도시한 바와 같이, 화면 예시(C)는 사용자가 차트 영역(1040)에서 영역(1140)을 선택(예: 터치)하는 예를 나타낼 수 있다. 전자 장치(101)는 선택된 영역(1140)에 대응하는 장소(예: 사무실)를 판단하고, 판단된 장소에서 사용자가 머무르는 동안의 측정 데이터(예: 연속적인 측정 데이터)를 판단할 수 있다. 전자 장치(101)는 측정 데이터에 기반하여 판단된 장소에 대응하는 구간을 결정하고, 결정된 구간을 하이라이팅 할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 구간 정보 영역(1104)를 통해 선택된 영역(1140)에 대한 구간 정보를 사용자에게 제공할 수 있다. 일 예로, 전자 장치(101)는 선택된 영역(1140)에 대응하는 장소에 관한 정보(예: Work)와, 해당 장소에서 사용자가 머무른 시간(또는 해당 장소에서 측정 시간)에 관한 제1 정보(예: 8:00AM - 6:00PM)와 제2 정보(예: 10hrs)를 표시할 수 있다.
일 실시 예에 따라, 화면 예시(D)에 도시한 바와 같이, 화면 예시(D)에 도시한 바와 같이, 화면 예시(D)는 사용자가 차트 영역(1040)에서 영역(1150)을 선택(예: 터치)하는 예를 나타낼 수 있다. 전자 장치(101)는 선택된 영역(1150)에 대응하는 장소(예: 운동 장소)를 판단하고, 판단된 장소에서 사용자가 머무르는 동안의 측정 데이터(예: 연속적인 측정 데이터)를 판단할 수 있다. 전자 장치(101)는 측정 데이터에 기반하여 판단된 장소에 대응하는 구간을 결정하고, 결정된 구간을 하이라이팅 할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 구간 정보 영역(1105)를 통해 선택된 영역(1150)에 대한 구간 정보를 사용자에게 제공할 수 있다. 일 예로, 전자 장치(101)는 선택된 영역(1150)에 대응하는 장소에 관한 정보(예: Exercise)와, 해당 장소에서 사용자가 머무른 시간(또는 해당 장소에서 측정 시간)에 관한 제1 정보(예: 5:30PM - 6:30PM)와 제2 정보(예: 1hrs)를 표시할 수 있다. 일 실시 예에 따르면, 화면 예시(C)와 화면 예시(D)에 도시한 바와 같이, 차트 영역(1040) 중 특정 장소에 대한 구간은 일부 중첩될 수도 있다. 예를 들면, 화면 예시(C)의 구간 중 일부가 다른 장소의 구간으로 구분될 수도 있다. 예를 들면, 사용자가 사무실에서 머무르는 동안 사무실에서 특정 장소(예: 동일 건물 내에서 다른 층 등)의 헬스 공간에서 운동을 수행할 수 있다. 이러한 경우, 사용자가 머무르는 장소는 사무실이 될 수 있고, 사무실이라는 장소에서 별도로 운동 장소(또는 구간)가 구분되어 제공될 수 있다.
일 실시 예에 따라, 화면 예시(E)에 도시한 바와 같이, 화면 예시(E)에 도시한 바와 같이, 화면 예시(E)는 사용자가 차트 영역(1040)에서 영역(1160)을 선택(예: 터치)하는 예를 나타낼 수 있다. 전자 장치(101)는 선택된 영역(1160)에 대응하는 장소(예: 집)를 판단하고, 판단된 장소에서 사용자가 머무르는 동안의 측정 데이터(예: 연속적인 측정 데이터)를 판단할 수 있다. 전자 장치(101)는 측정 데이터에 기반하여 판단된 장소에 대응하는 구간을 결정하고, 결정된 구간을 하이라이팅 할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 구간 정보 영역(1106)를 통해 선택된 영역(1160)에 대한 구간 정보를 사용자에게 제공할 수 있다. 일 예로, 전자 장치(101)는 선택된 영역(1160)에 대응하는 장소에 관한 정보(예: Home)와, 해당 장소에서 사용자가 머무른 시간(또는 해당 장소에서 측정 시간)에 관한 제1 정보(예: 6:30PM - 9:12PM)와 제2 정보(예: 2hrs 42mins)를 표시할 수 있다. 일 실시 예에 따라, 화면 예시(E)는 선택된 영역(1160)에 대응하는 장소에서 사용자가 현재 시점까지 머무르고 있는 상태일 수 있다. 전자 장치(101)는 사용자가 해당 장소에서 머무르기 시작한 시간부터 현재(예: NOW)까지의 구간을 하이라이팅 하여 나타낼 수 있다.
도 12는 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 12를 참조하면, 동작(1201)에서, 전자 장치(101)의 프로세서(120)는 인터페이스를 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자 요청에 기반하여 도 9 내지 도 11)에 예시한 바와 같은 생체 정보를 제공하는 인터페이스를 표시 장치(160)를 통해 표시할 수 있다.
동작(1203)에서, 프로세서(120)는 인터페이스를 통해 장소 별 생체 정보 확인을 위한 입력을 감지할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 도 11에 예시한 바와 같이, 사용자가 차트 영역(1040)에서 어느 일 영역을 선택(예: 터치)하는 사용자 입력을 감지할 수 있다.
동작(1205)에서, 프로세서(120)는 입력에 대응하는 장소 및 장소에 대응하는 구간을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 차트 영역(1040)에서 사용자가 어느 일 영역을 선택하는 것에 응답하여, 선택된 영역에 대응하는 장소와 해당 장소를 포함하는 장소 구간(또는 범위)를 판단할 수 있다.
동작(1207)에서, 프로세서(120)는 구간을 특정하여 구간 내의 생체 정보를 직관적으로 강조(예: 하이라이팅)하여 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 도 11에 예시한 바와 같이, 차트 영역(1040) 중에서 판단된 장소(또는 장소 구간)에 대응하는 영역을 하이라이팅 하여, 해당 장소에서의 생체 정보 그래프를 직관적으로 나타내고, 구간 정보 영역을 통해 해당 장소에서의 생체 정보에 관련된 상세 정보를 제공할 수 있다.
도 13은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 13을 참조하면, 동작(1301)에서, 전자 장치(101)의 프로세서(120)는 상황 인지를 수행할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상황 인지 기술에 기반하여 전자 장치(101)(또는 사용자)에 관련된 다양한 상황을 인지(또는 모니터링)할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 다양한 센서(예: 도 1의 센서 모듈(176))로부터 입력되는 데이터(또는 정보)를 분석하여 상황을 판단할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 전자 장치(101)에서 실행하는 어플리케이션, 사용자의 상태(예: 감정)에 관련된 이벤트(Event), 사용자가 위치되는 장소, 또는 체류 시간 등의 다양한 상황을 인지할 수 있다.
동작(1303)에서, 프로세서(120)는 사용자에 관한 생체 데이터를 수집할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 센서를 통해 사용자의 생체 데이터를 상시적으로 측정하도록 하고, 연속 측정된 생체 데이터를 획득하도록 할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 센서를 통해 특정 인터럽트(예: 사용자 요청 감지, 또는 설정된 장소 진입 감지 등)에 기반하여 사용자의 생체 데이터를 측정하도록 하고, 연속 측정된 생체 데이터를 획득하도록 할 수 있다. 다양한 실시 예들에서, 동작(1301)과 동작(1303)은 순차적으로, 병렬적으로, 또는 역순차적으로 동작할 수 있다.
동작(1305)에서, 프로세서(120)는 생체 정보를 생성할 수 있다. 일 실시 예에 따라, 프로세서(120)는 수집된 생체 데이터에 기반하여, 생체 정보에 필요한 조건(예: 측정 시간 또는 측정 데이터 양)이 만족하는 적어도 하나의 생체 정보를 생성할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 일정 시간의 연속적인 생체 데이터를 이용하여 스트레스 정보를 생성할 수 있다. 다른 실시 예에 따르면, 프로세서(120)는 일정 시간의 연속적인 생체 데이터를 이용하여 감정 정보를 생성할 수 있다.
동작(1307)에서, 프로세서(120)는 상황 추정을 수행할 수 있다. 일 실시 예에 따라, 프로세서(120)는 상황 인지의 결과를 추정할 수 있고, 또한 생체 정보에 따른 사용자의 상태를 추정할 수 있다. 일 예로, 프로세서(120)는 상황 인지의 결과로, 사용자가 현재 위치된 장소를 추정할 수 있다. 일 예로, 프로세서(120)는 상황 인지의 결과로, 전자 장치(101)에 의해 실행된 어플리케이션을 추정할 수 있다. 일 예로, 프로세서(120)는 상황 인지의 결과로, 어플리케이션을 통해 사용된(또는 수행된) 컨텐츠(Contents)를 추정할 수 있다. 일 예로, 프로세서(120)는 생체 정보에 기반하여 사용자의 스트레스 정도(예: 스트레스 높음, 스트레스 보통, 스트레스 낮음 등)(또는 감정 상태)를 추정할 수 있다. 다양한 실시 예들에 따르면, 프로세서(120)는 현재 장소에서 사용자의 스트레스(또는 감정)가 좋은지 또는 나쁜지(예: 특정 기준에 의해 상대적으로 좋고 나쁨의 정도)를 판단할 수 있다. 다양한 실시 예들에 따르면, 프로세서(120)는 사용자가 현재 어플리케이션 사용자에 따른 스트레스가 좋은지 또는 나쁜지를 판단할 수 있다. 다양한 실시 예들에 따르면, 프로세서(120)는 상황 인지와 생체 정보에 기반하여, 사용자에 관하여 어떠한 상황에서 어떠한 스트레스(또는 감정)을 가지는지 추정할 수 있다. 예를 들면, 프로세서(120)는 사용자의 상황에 따른 상태 변화를 추정하고, 각각의 상황 별로 사용자 상태를 구분할 수 있다. 이에 대한 예시가 아래 <표 2>를 참조하여 설명된다.
동작(1309)에서, 프로세서(120)는 추정 결과를 조합할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상황 추정에 따른 적어도 하나의 결과를 상황 데이터(또는 조합 데이터)로 생성할 수 있다. 일 예로, 프로세서(120)는 현재 사용자의 장소 정보와 스트레스 정보를 매칭할 수 있다. 일 예로, 프로세서(120)는 어플리케이션이 실행된 경우 어플리케이션의 어플리케이션 정보와 스트레스 정보를 매칭할 수 있다. 일 예로, 프로세서(120)는 현재 사용자의 장소 정보, 어플리케이션 정보, 및 스트레스 정보를 매칭할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 장소 정보, 어플리케이션 정보, 및 스트레스 정보에 적어도 기반하여 사용자의 상황 별 상태를 구분하여 매칭할 수 있다.
동작(1311)에서, 프로세서(120)는 상황 데이터(또는 정보)를 저장할 수 있다. 다양한 실시 예들에서, 상황 데이터(또는 정보)는 아래 <표 2>의 예시와 같이, 전자 장치(101)(또는 사용자)에 관한 상황과 측정하는 생체 정보를 분석하여, 사용자의 스트레스(또는 감정)에 영향(예: 좋은 영향, 나쁜 영향 등)을 주는 데이터를 추출 및 구분하여 매칭될 수 있다.
No. 이용 데이터 추출 데이터 방법
1 Body sensing data: HR, Stress
Phone usage: Call log
사용자를 심장 뛰게 하는 사람은?
: Contact1, Contact2, Contact3 ...
통화 시작에서 통화 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자 평균 HR보다 올라가는 사람을 추출
2 사용자를 편안하게(안정되게) 해주는 사람은?
: Contact4, Contact5, Contact6 ...
통화 시작에서 통화 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자 평균 HR, Stress보다 값이 내려가는 사람을 추출
3 사용자를 힘들게 하는 사람은?: Contact7, Contact8, Contact9 ... 통화 시작에서 통화 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자 평균 HR, Stress보다 올라가는 사람을 추출
4 Body sensing data: HR, Stress
Phone usage: Music, Video, Internet
사용자를 심장 뛰게 하는 Music, Video 등의 Contents는?
: Music1, Music2, Music3 ...
: Video1, Video2, Video3 ...
Contents의 재생 시작에서 재생 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자 평균 HR보다 올라가는 Contents을 추출
5 사용자를 안정 시키는 Music, Video 등의 Contents는?
: Music4, Music5, Music6 ...
: Video4, Video5, Video6 ...
Contents의 재생 시작에서 재생 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자 평균 HR, Stress 값 보다 내려가는 Contents을 추출
6 사용자를 불편하게 하는 Music, Video 등의 Contents는?: Music1, Music2, Music3 ...
: Video1, Video2, Video3 ...
Contents의 재생 시작에서 재생 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자 평균 HR, Stress값 보다 올라가는 Contents을 추출
7 Body sensing data: HR, Stress
Phone usage: All apps
사용자를 즐겁게 해 주는 App은?
: App1, App2, App3 ...
App 사용 시작에서 종료 시간 동안 측정된 HR, Stress 값을 확인하여, Positive Stress 값이 올라가는 앱 추출
8 사용자를 편안하게 해 주는 App은?
: App4, App5, App6 ...
App 사용 시작에서 종료 시간 동안 측정된 HR, Stress 값을 확인하여, HR Stress 값이 안정된 쪽으로 가는 앱 추출
9 사용자를 불편하게 해 주는 App은?: App7, App8, App9 ... App 사용 시작에서 종료 시간 동안 측정된 HR, Stress 값을 확인하여, Negative Stress 값이 올라가는 앱 추출
10 Body sensing data: HR, Stress
Phone usage: Calendar
사용자를 심장 뛰게 했던 Event는?
: 생일 파티, OOO회의 ...
Calendar에 등록된 Event 시간 동안 측정된 HR, Stress 값을 확인 하여, 평균 심장 박동 수 보다 올라가고, Positive Stress가 측정된 Event 추출
11 사용자가 평온하게 지낸 Event는?
: 사내 힐링 캠프 참석, BB모임 ...
Calendar에 등록된 Event 시간 동안 측정된 HR, Stress 값을 확인 하여, 안정시 심박수에 가깝고, 고요한(Calm) Stress가 측정된 Event 추출
12 사용자가 불편하게 지낸 Event는?: ㅁㅁㅁ회의, AA모임, 시험 ... Calendar에 등록된 Event 시간 동안 측정된 HR, Stress 값을 확인 하여, 안정시 심박수와 차이가 크고, Negative Stress 데이터가 올라가는 Event 추출
<표 2>에 예시한 바와 같이, <표 2>는 다양한 실시 예들에 따라, 추출 데이터(예: 상황 인지 데이터, 측정 생체 데이터 등)를 활용하는 예를 나타낼 수 있다. 일 예로, <표 2>에서 항목1, 항목2, 항목3을 예시로 살펴보면, 생체 데이터를 기반으로 획득한 생체 정보(예: HR, Stress)와 전자 장치(101)의 사용 로그(예: Call log)를 조합하여, 사용자를 제1 상태(예: 사용자의 기분 좋은 흥분 상태)로 만든(예: 심장을 뛰게 한) 사용자(예: Contact 1, Contact 2, Contact 3 등), 사용자를 제2 상태(예: 사용자가 편안한(또는 안정된) 상태)로 만든 사용자(예: Contact 4, Contact 5, Contact 6 등), 및 사용자를 제3 상태(예: 사용자가 힘든 상태)로 만든 사용자(예: Contact 7, Contact 8, Contact 9 등)로 추정하여 설정한 예를 나타낼 수 있다. 일 실시 예에 따르면, 항목1의 경우, 예를 들면, 통화 시작에서 통화 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자의 평균 HR 보다 올라가는 대상 사용자를 추정할 수 있다. 일 실시 예에 따르면, 항목2의 경우, 통화 시작에서 통화 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자의 평균 HR, Stress 보다 값이 내려가는 대상 사용자를 추정할 수 있다. 항목3의 경우, 통화 시작에서 통화 종료 시간 동안 측정된 HR, Stress 값을 확인하여, 사용자의 평균 HR, Stress 보다 값이 올라가는 대상 사용자를 추정할 수 있다.
다양한 실시 예들에 따르면, 프로세서(120)는 <표 2>의 예시와 같이 구성한 정보에 기반하여 사용자에게 다양한 피드백(feedback)을 제공할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 스트레스 연속 측정 데이터와 스트레스 평균 변화 량을 분석하고, 사용자가 마인드 컨트롤(mind control)을 필요로 할 때, 사용자에게 긍정적인 작용을 했던 사람(예: 다른 사용자), 어플리케이션(또는 앱), 컨텐츠, 또는 이벤트 등을 추천할 수 있다. 다양한 실시 예들에 따르면, 프로세서(120)는 사용자가 네거티브 스트레스(negative stress)가 발생하는 상황들에 대해 사용자가 어떻게 대처해야 하는지에 대한 인사이트(또는 가이드, 팁tip))를 제공할 수 있다.
도 14는 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 14에 도시한 바와 같이, 도 14는 전술한 <표 2>에 예시한 바와 같은 상황 데이터를 생성하는 동작 예를 나타낼 수 있다.
도 14를 참조하면, 동작(1401)에서, 전자 장치(101)의 프로세서(120)는 생체 데이터 수집 및 사용자 상황을 모니터링 할 수 있다.
동작(1403)에서, 프로세서(120)는 생체 데이터에 기반하여 사용자 상태를 추정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자가 기분 좋은 흥분 상태인지, 기분 나쁜 흥분 상태인지, 슬픔 상태인지, 또는 화난 상태인지 등을 추정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 데이터로부터 획득 가능한 적어도 하나의 생체 정보(예: 스트레스, HR, 산소포화도, 감정 등)에 적어도 기반하여, 사용자의 상태를 추정할 수 있다. 일 실시 예에 따라, <표 2>의 예시를 참조하면, 프로세서(120)는 사용자가 통화 중이거나, 또는 음악 청취 중에 사용자의 HR이 평균 HR보다 올라가는 경우, 사용자가 기분 좋은 흥분 상태인 것으로 추정할 수 있다.
동작(1405)에서, 프로세서(120)는 사용자 상태에 기반하여 사용자 상황에 대한 상황 데이터를 생성할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 통화 중인 상대 사용자를, 사용자를 심장 뛰게 하는 사용자로 매칭하고, 관련 상황(예: <표 2>의 이용 데이터(예: HR, Stress, Call log))을 함께 매칭하여 상황 데이터를 생성할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 청취 중인 음악(또는 컨텐츠)을, 사용자를 심장 뛰게 하는 컨텐츠로 매칭하고, 관련 상황(예: <표 2>의 이용 데이터(예: HR, Stress, Music))을 함께 매칭하여 상황 데이터를 생성할 수 있다.
동작(1407)에서, 프로세서(120)는 상황 데이터를 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 <표 2>에 예시한 바와 같은 상황 데이터를 전자 장치(101)의 메모리(130)에 저장할 수 있다. <표 2>에 예시한 바와 같은 상황 데이터는 사용자에 관한 상태에 따라 업데이트 되거나, 새로운 항목이 추가되거나, 또는 삭제가 가능할 수 있다.
도 15는 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 15를 참조하면, 동작(1501)에서, 전자 장치(101)의 프로세서(120)는 상황 인지에 따른 상황을 추정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 전자 장치(101)(또는 사용자)에 관련된 다양한 상황을 인지(또는 모니터링)할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 다양한 센서(예: 도 1의 센서 모듈(176))로부터 입력되는 데이터(또는 정보)를 분석하여 상황을 판단할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 전자 장치(101)에서 실행하는 어플리케이션, 사용자의 상태(예: 감정)에 관련된 이벤트, 사용자가 위치되는 장소, 또는 체류 시간 등의 다양한 상황을 인지할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 동작(1501)에 병렬적으로 또는 순차적으로, 생체 센서에 기반하여 생체 데이터를 획득(수집)하는 동작을 더 포함할 수 있다.
동작(1503)에서, 프로세서(120)는 추정된 상황과 생체 데이터를 매칭할 수 있다.
동작(1505)에서, 프로세서(120)는 추정된 상황에 관련된 데이터(예: <표 2>에서 추출 데이터)를 판단할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 전술한 <표 2>의 예시와 같은 상황 데이터에서 추정된 상황에 대응하는 항목과 해당 항목에 관련된 추출 데이터를 확인할 수 있다.
동작(1507)에서, 프로세서(120)는 추정된 상황에 관련된 데이터가 존재하는지 판단할 수 있다.
동작(1507)에서, 프로세서(120)는 추정된 상황에 관련된 데이터가 존재하면(동작(1507)의 예), 동작(1509)에서, 상황 데이터에서 추정된 상황에 관련된 상황 데이터를 업데이트 할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상황 데이터에서 추출 데이터를 업데이트 할 수 있다. 일 예로, <표 2>를 참조하면, 프로세서(120)는 추정된 상황이 항목1에 대응하면, 항목1에서 추출 데이터에 대상 사용자(예: Contact X)를 추가하여 상황 데이터를 업데이트 할 수 있다. 다른 예로, <표 2>를 참조하면, 프로세서(120)는 추출 데이터에서 대상 사용자(예: Contact 3)가 포함되지만, 추정된 상황이 항목1에 대응하지 않으면, 항목1의 추출 데이터에서 대상 사용자(예: Contact 3)를 삭제하여 상황 데이터를 업데이트 할 수 있다.
동작(1507)에서, 프로세서(120)는 추정된 상황에 관련된 데이터가 존재하지 않으면(동작(1507)의 아니오), 동작(1511)에서, 관련 상황 데이터를 생성할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상황 데이터에 새로운 항목과 관련 추출 데이터를 생성할 수 있다.
도 16은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 16을 참조하면, 동작(1601)에서, 전자 장치(101)의 프로세서(120)는 사용자에 관한 생체 정보를 수집할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자의 신체에 착용된 상태에서 상시적으로 사용자의 생체 데이터를 수집할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자의 신체에 착용된 다른 전자 장치로부터 상시적으로(또는 푸시(push) 또는 풀(pull) 방식으로) 생체 데이터를 수집할 수 있다.
동작(1603)에서, 프로세서(120)는 생체 데이터에 따른 생체 정보를 분석할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 수집된 생체 데이터를 기반으로 생체 정보를 획득할 수 있고, 획득된 생체 정보를 분석하여 생체 정보에 따른 특정 값(예: 스트레스 지수 등)을 판단할 수 있다. 예를 들면, 프로세서(120)는 생체 정보의 정도를 판단하기 위해 미리 설정된 기준 정보(또는 사용자 평균 생체 정보(예: 평균 스트레스 정보), 또는 사용자의 나이대의 건강한 사람 그룹의 데이터 평균 등)와 비교하여, 생체 정보의 정도(예: 스트레스 지수의 높음 또는 낮음 등)를 판단할 수 있다.
동작(1605)에서, 프로세서(120)는 생체 정보가 설정된 조건에 포함되는지 여부를 판단할 수 있다. 일 실시 예에 따라, 설정된 조건은 사용자의 생체 정보에 따라 인사이트의 출력 여부를 결정하기 위한 기준을 나타낼 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 정보가 설정된 조건보다 높은지 또는 낮은지를 판단할 수 있다. 예를 들면, 프로세서(120)는 생체 정보(예: 스트레스 지수)가 설정된 조건(예: 기준 정보 이상의 조건)에 포함되는 경우 스트레스가 높은 것으로 판단할 수 있고, 생체 정보가 설정된 조건에 포함되지 않은 경우 스트레스가 낮은 것으로 판단할 수 있다. 다양한 실시 예들에 따르면, 프로세서(120)는 생체 정보가 설정된 조건에 포함되는지 여부에 따라 관련 인사이트의 출력 여부를 결정할 수 있다.
동작(1605)에서, 프로세서(120)는 생체 정보가 설정된 조건에 포함되지 않으면(동작(1605)의 아니오), 동작(1607)에서 해당 동작을 수행할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 정보를 사용자에게 출력하거나, 또는 생체 정보에 대한 출력 없이 내부적으로 관리(예: 생체 정보 누적)할 수 있다. 일 실시 예에 따라, 프로세서(120)는 생체 정보를 현재 장소와 매칭하여 관리할 수 있다.
동작(1605)에서, 프로세서(120)는 생체 정보가 설정된 조건에 포함되면(동작(1605)의 예), 동작(1609)에서, 사용자 상태에 관련된 인사이트(예: 가이드 또는 팁 등)를 추출할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 정보와 상황 정보에 적어도 기반하여 관련된 인사이트를 추출할 수 있다. 예를 들면, 프로세서(120)는 생체 정보 수집 시에 상황 인지를 수행할 수 있고, 상황 인지에 따른 상황 정보(예: 장소 정보)와 생체 정보의 정도(예: 스트레스 지수)에 대응하는 인사이트를 추출할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 관련 인사이트가 존재하지 않을 시, 상황 정보와 생체 정보에 대응하여 인사이트를 생성하는 동작을 더 포함할 수 있다.
동작(1611)에서, 프로세서(120)는 인사이트를 출력할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 추출된 인사이트를 표시 장치(160)를 통해 시각적인 정보로 표시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 추출된 인사이트에 관련된 오디오 데이터를 음향 출력 장치(155)(예: 스피커)를 통해 청각적인 정보로 출력할 수 있다. 다양한 실시 예들에 따르면, 프로세서(120)는 시각적인 정보와 청각적인 정보를 함께 출력할 수 있고, 이에 더하여, 촉각적인 정보(예: 인사이트 출력을 알람하는 진동 등)를 더 포함하여 출력할 수도 있다.
도 16에서는 전자 장치(101)가 사용자의 생체 정보의 수집 시마다 설정된 조건에 기반하여 실시간으로 인사이트를 제공하는 예를 나타내지만, 다양한 실시 예들이 이에 한정되지 않는다. 다양한 실시 예들에 따르면, 전자 장치(101)는 설정된 주기(예: 시간 단위, 일 단위, 주 단위, 또는 특정 시기(예: 아침, 점심, 저녁 등) 단위, 주 단위 등)에 따라, 누적된 생체 정보에 기반하여 인사이트를 제공할 수도 있다. 다양한 실시 예들에 따르면, 전자 장치(101)는 생체 정보(또는 누적 생체 정보)가 설정된 기준에 포함(예: 측정된 스트레스 정보 또는 누적된 스트레스 정보가 설정된 스트레스 지수보다 높은 경우)되는 것을 검출하는 경우에 관련 인사이트를 제공할 수도 있다. 다양한 실시 예들에 따르면, 전자 장치(101)는 기존 이력에 기반하여 사용자의 스트레스가 높았던 장소에 진입을 판단하고, 해당 장소에 진입 시에 인사이트를 제공할 수도 있다.
도 17A 및 도 17B는 다양한 실시 예들에 따른 전자 장치에서 인사이트를 제공하는 화면 예를 도시하는 도면들이다.
도 17A 및 도 17B를 참조하면, 도 17A 및 도 17B는, 다양한 실시 예들에서, 주간 동안 누적된 생체 정보에 기반하여 관련 인사이트(또는 인사이트 카드)를 사용자에게 제공하는 예를 나타낼 수 있다. 다양한 실시 예들은 이에 한정하지 않으며, 실시간, 시간 단위, 또는 장소 단위 등에 따라 관련 생체 정보에 기반하여 인사이트를 사용자에게 제공할 수도 있다.
도 17A 및 도 17B에 도시한 바와 같이, 도 17A 및 도 17B는, 예를 들면, 스트레스 주간 인사이트가 제공되는 화면 예시들을 나타낼 수 있다.
다양한 실시 예들에 따르면, 인사이트(또는 인사이트 카드)는 가이드 영역(1710A, 1710B), 알림 영역(1720A, 1720B), 및 추천 영역(1730A, 1730B)을 포함할 수 있다.
일 실시 예에 따라, 가이드 영역(1710A, 1710B)은 사용자의 스트레스에 관하여 안내하는 정보(예: 문구)를 제공하는 영역을 나타낼 수 있다. 일 실시 예에 따라, 가이드 영역(1710A, 1710B)은 사용자에게 알리려고 하는 내용(또는 가이드 또는 팁)과 그 목적을 포함하여 제공될 수 있다. 일 실시 예에 따라, 가이드 영역(1710A, 1710B)은 사용자의 여러 가지 스트레스 상황에서 사용될 수 있는 다양한 안내 문구들 중 사용자 상황에 적절한 어느 하나의 안내 문구가 선택되어 제공될 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 사용자자의 상황(또는 스트레스 정도)에 따라 필요한(또는 적절한) 안내 문구를 찾아 가이드 영역(1710A, 1710B)에 표시되도록 할 수 있다. 또는 전자 장치(101)는 안내 문구를 랜덤(random)하게 선택하여 가이드 영역(1710A, 1710B)에 표시되도록 할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 기본적인 안내 문구에 필요한 내용을 추가 및 수정하여 제공할 수도 있다. 다양한 실시 예들에 따르면, 가이드 영역(1710A, 1710B)을 통한 안내를 통해, 사용자가 단순히 정보를 확인하도록 하는 것 외에도, 해당 정보를 접하는 사용자로 하여금 해당되는 사항을 선택하고 의사를 결정하게 하는 계기를 제공하여 관련 행동을 유발하도록 할 수 있다. 일 실시 예에 따르면, 가이드 영역(1710A, 1710B)은 안내 문구에 상황에 따라 이미지(또는 이모티콘, 아이콘 등)를 첨부하여 사용자의 이해를 도울 수 있도록 할 수 있다.
일 실시 예에 따라, 알림 영역(1720A, 1720B)은 사용자에 관한 생체 정보를 직관적으로 제공하는 영역을 나타낼 수 있다. 일 실시 예에 따르면, 알림 영역(1720A, 1720B)은 생체 정보(또는 누적된 생체 정보(예: 누적 스트레스 정보))의 범위를 컬러 기반의 그래프(또는 차트)와, 그래프에서 사용자의 생체 정보(또는 평균 생체 정보)에 대응하는 위치에 마커(marker)(또는 인디케이터(indicator))(예: 말풍선, 화살표, 이모티콘 등)를 포함하여 제공할 수 있다. 사용자는 알림 영역(1720A, 1720B)의 그래프와 마커에 적어도 기반하여, 사용자의 생체 정보(예: 스트레스 정보)를 직관적으로 인지 또는 확인할 수 있다.
일 실시 예에 따라, 추천 영역(1730A, 1730B)은 사용자가 스트레스를 해소하는 것에 관련된 행동을 수행하도록 유도 및 관련 기능 객체를 제공하는 영역을 나타낼 수 있다. 일 실시 예에 따르면, 추천 영역(1730A, 1730B)은 가이드 영역(1710A, 1710B0을 통해 제공(또는 표시)된 안내 문구에 관련된 기능 객체가 제공될 수 있다.
일 예를 들면, 도 17A의 경우, 가이드 영역(1710A)의 가이드가 음악 청취에 관한 것이고, 그에 대응하여 음악 재생에 관련된 기능 객체(1740)가 제공되는 예를 나타낼 수 있다. 예를 들면, 전자 장치(101)가 가이드 영역(1710A)의 가이드에 따라 사용자에게 유용한 음악 재생을 유도하는 기능 객체(1740)를 제공하는 예를 나타낼 수 있다. 도 17A에 도시된 바와 같이, 전자 장치(101)는 가이드 영역(1710A)의 안내 문구에 기반하여, 사용자가 평소 들을 때 스트레스와 HR이 안정한 상태, 또는 그에 가까웠던 음악을 재생하도록 유도하는 기능 개체(1740)를 제공할 수 있다. 일 실시 예에 따라, 기능 객체(1740)는 해당 음악을 바로 재생할 수 있는 어플리케이션(예: Music player)과 연결될 수 있다. 전자 장치(101)는 사용자의 기능 객체(1740)의 선택(예: 터치)에 응답하여 어플리케이션을 실행(또는 백그라운드 실행)하고, 추천된 음악을 재생하여 사용자에게 제공할 수 있다.
일 예를 들면, 도 17B의 경우, 가이드 영역(1710B)의 가이드가 다른 사용자와 대화에 관한 것이고, 그에 대응하여 통화 연결에 관련된 기능 객체(1751, 1753, 1755, 1760)가 제공되는 예를 나타낼 수 있다. 예를 들면, 전자 장치(101)가 가이드 영역(1710B)의 가이드에 따라 사용자에게 유용한 대화 상태와 통화를 유도하는 기능 객체(1751, 1753, 1755, 1760)를 제공하는 예를 나타낼 수 있다. 도 17B에 도시된 바와 같이, 전자 장치(101)는 가이드 영역(1710B)의 안내 문구에 기반하여, 사용자가 통화 중일 때 스트레스와 HR이 안정한 상태, 또는 그에 가까웠던 대화 상대(예: 연락처(contact information) 기반의 다른 사용자)와 통화를 수행하도록 유도하는 기능 객체(1751, 1753, 1755, 1760)를 제공할 수 있다. 일 실시 예에 따라, 기능 객체(1751, 1753, 1755, 1760)는 사용자에게 긍정적인 영향을 준 다른 사용자와 통화를 바로 수행할 수 있는 어플리케이션(예: 전화 어플리케이션)과 연결될 수 있다. 전자 장치(101)는 사용자의 기능 객체(1751, 1753, 1755, 1760)의 선택(예: 터치)에 응답하여 어플리케이션을 실행(또는 백그라운드 실행)하고, 선택된 기능 객체(1751, 1753, 1755, 1760)의 사용자의 전자 장치로 통화 연결을 시도할 수 있다.
일 실시 예에 따라, 기능 객체(1751, 1753, 1755, 1760)는 전자 장치(101)에 의해 추천되는 사용자에 관련된 적어도 하나의 객체(1751, 1753, 1755)와, 사용자가 연락처에 기반하여 대화 상대(또는 통화 상대)를 직접 선택할 수 있도록 하는 연락처 객체(1760)를 포함할 수 있다. 일 실시 예에 따라, 추천 사용자에 관련된 기능 객체(1751, 1753, 1755)는 추천 가능한 사용자들 중 우선순위가 높은 사용자들에 기반하여 제공될 수 있고, 추천 가능한 사용자 수에 대응하는 객체가 제공될 수 있다. 전자 장치(101)는 추천 가능한 사용자가 없는 경우 연락처 객체(1760)만 제공하도록 할 수도 있다.
도 18은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 18을 참조하면, 동작(1801)에서, 전자 장치(101)의 프로세서(120)는 상황 인지에 기반하여 사용자 상황을 모니터링 할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상황 인지를 통해 수집된 생체 정보에 기반하여 사용자의 스트레스(또는 감정) 상태를 판단(또는 체크)할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상황 인지를 통해 수집된 위치 정보에 기반하여 사용자가 위치하는 장소를 판단할 수 있다.
동작(1803)에서, 프로세서(120)는 조건을 만족하는 상황을 감지할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 모니터링 하는 결과에 기반하여 사용자의 상황이 설정된 어느 하나의 조건에 포함되는지 여부를 판단할 수 있다. 일 예로, 프로세서(120)는 사용자의 스트레스(또는 감정) 상태가 설정된 기준보다 높다고 판단하는 경우 조건을 만족하는 상황으로 판단할 수 있다. 일 예로, 프로세서(120)는 사용자가 설정된 장소에 진입하는 경우, 조건을 만족하는 상황으로 판단할 수 있다.
동작(1805)에서, 프로세서(120)는 상황에 관련된 인사이트(또는 인사이트 카드)를 추출할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상황 인지에 기반하여 사용자의 현재 상황에서 사용자를 가이드 하기에 적합한 인사이트를 추출할 수 있다. 일 예로, 프로세서(120)는 사용자가 스트레스가 높았던 장소에 진입 시 사용자의 마인드 컨트롤을 유도하는 것과 관련된 어느 하나의 인사이트를 추출할 수 있다. 일 예로, 프로세서(120)는 사용자의 현재 스트레스가 증가하는 경우 사용자가 안정 상태로 전환을 위해 관련 행동을 수행하도록 유도하는 것과 관련된 어느 하나의 인사이트(예: 도 17A 또는 도 17B의 예시와 같은 기능 실행을 유도 가능한 인사이트)를 추출할 수 있다.
동작(1807)에서, 프로세서(120)는 추출된 인사이트를 출력할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 상황 인지에 기반하여 사용자의 현재 상황에서 가장 전달이 용이한 방식을 판단하고, 판단하는 결과에 기반하여 촉각적, 시각적, 또는 청각적 요소의 적어도 하나에 기반하여 인사이트를 출력할 수 있다.
도 19 내지 도 23은 다양한 실시 예들에 따른 전자 장치에서 사용자 기반의 장소를 설정하는 화면 예를 도시하는 도면들이다.
다양한 실시 예들에서, 도 19 내지 도 23에 예시한 바와 같은 장소 설정과 관련된 인터페이스는, 웨어러블 장치의 형태 또는 스마트폰의 형태에 모두에서 구현될 수 있으며, 전자 장치(101)의 형태에 대응하는 인터페이스로 구현될 수 있다. 다양한 실시 예들에서는, 설명의 편의를 위하여, 전자 장치(101)가 스마트폰의 형태에서 인터페이스가 제공되는 예를 나타낼 수 있다. 다양한 실시 예들에 따르면, 사용자는 전자 장치(101)의 인터페이스를 이용하여, 사용자 계정 기반으로 사용자의 장소를 설정(또는 등록)할 수 있다. 사용자에 의해 설정되는 장소는, 예를 들면, 서버(예: 도 6의 서버(603))를 통해 사용자 계정에 기반으로 등록될 수 있다.
도 19를 참조하면, 도 19는 사용자 계정 기반으로 등록된 장소가 없거나, 또는 사용자가 사용자 장소를 등록하기 위한 초기의(또는 최초의) 설정 인터페이스의 예를 나타낼 수 있다. 도 19에 도시한 바와 같이, 설정 인터페이스의 경우, 사용자가 장소로 설정(또는 추가) 가능한 기본적인 템플릿(template)(1900)이 제공될 수 있다. 예를 들면, 템플릿(1900)은 사용자가 등록 가능한 장소의 카테고리(예: “Home”, “Work”, “Car”)를 각각의 탭(tap)으로 구분하여 제공하고, 주어진 카테고리 외의 사용자 장소를 등록할 수 있도록 “Other” 탭을 포함하여 제공할 수 있다. 다양한 실시 예들에 따르면, 템플릿(1900)에 기반하여, 사용자의 장소 등록에 편의성을 제공할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 템플릿(1900)의 각 탭에 대한 선택(예: 터치)에 대응하여, 선택된 탭에 대응하는 장소를 상세 설정할 수 있는 인터페이스로 전환하여 사용자에게 제공할 수 있다.
일 실시 예에 따르면, 설정 인터페이스에서, 사용자가 등록한 장소들 중 사용자가 선호하는(또는 즐겨 찾는) 선호 장소(또는 선호 공간(favorite place))를 직관적으로 제공하기 위한 선호 영역(1910)을 포함할 수 있다. 도 19의 예시에서는 사용자에 의해 등록된 장소가 없는 상태임에 따라 선호 영역(1910)에 관련 장소가 표시되지 않고, 사용자 장소의 등록 및 선호 장소를 추가에 대한 가이드가 제공될 수 있다.
도 20을 참조하면, 도 20은 사용자 계정 기반으로 등록된 적어도 하나의 장소에 관한 정보를 제공하는 인터페이스의 예를 나타낼 수 있다. 도 20에 도시한 바와 같이, 도 20에서는 사용자에 의해 5개의 장소가 등록된 경우의 예를 나타낼 수 있다. 예를 들면, 사용자가 “Home”, “Work”, “Samsung_Suwon”, “Car1”, “Car2”을 등록한 예를 나타낼 수 있다. 도 20의 예시와 같이, 인터페이스는 각각의 항목 별로, 장소 이름(2010), 장소의 카테고리를 나타내는 장소 아이콘(2020), 장소에 대응하는 상세 주소(2030)를 포함하여 구성할 수 있다. 일 실시 예에 따라, 인터페이스는 장소를 추가할 수 있는 추가 탭(2040)을 포함할 수 있다. 전자 장치(101)는 추가 탭(2040)이 선택되는 경우, 도 19에 예시한 바와 같은 템플릿(1900)을 포함하는 인터페이스로 전환하여 표시할 수 있다.
도 21을 참조하면, 도 21은 특정 장소를 상세 설정할 수 있는 설정 인터페이스의 예를 나타낼 수 있다. 일 실시 예에 따르면, 도 21의 설정 인터페이스는, 예를 들면, 도 19의 템플릿(1900)에서 “Home” 탭이 선택되거나, 또는 도 20에서 “Home” 탭이 선택되는 경우에 제공될 수 있다. 도 21에 도시된 바와 같이, 설정 인터페이스는 사용자에 의해 선택된 장소에 대한 카테고리를 나타내기 위한 제1 정보(2110)(예: 장소 이름) 및 제2 정보(2120)(예: 장소 아이콘)를 포함하는 카테고리 영역(2101), 장소에 대한 상세 위치(또는 주소) 설정에 관련된 설정 영역(2103), 네트워크 연결 또는 설정(예: Wi-Fi 연결)에 관련된 안내를 제공하는 네트워크 영역(2105)을 포함할 수 있다.
일 실시 예에 따라, 설정 영역(2103)은 장소에 대한 상세 위치(또는 주소)를 검색할 수 있는 검색 영역(2130)(또는 검색 창)을 포함할 수 있다. 검색 영역(2130)은 상세 위치 검색과 관련하여 텍스트 입력 기반의 검색 방식과 음성 입력 기반의 검색 방식을 제공할 수 있다. 일 실시 예에 따르면, 사용자는 검색 영역(2130)에서 마이크 객체(2140)를 선택(예: 터치)(또는 마이크 객체(2140)를 누르고 있는 상태에서)하여 음성 입력 기능을 활성화 하고, 음성 입력 기반으로 상세 위치를 검색할 수 있다. 일 실시 예에 따르면, 설정 영역(2103)은 검색 영역(2130)에서 검색된 상세 위치에 대한 지도를 표시할 수 있는 지도 영역(2150)을 포함할 수 있다. 다양한 실시 예들에 따르면, 사용자는 지도 영역(2150)에서 지도를 표시하도록 호출하고, 표시된 지도의 내비게이트(navigate)를 통해 상세 위치를 검색할 수도 있다.
도 22를 참조하면, 도 22는 특정 장소를 상세 설정할 수 있는 설정 인터페이스의 다른 예를 나타낼 수 있다. 일 실시 예에 따르면, 도 22의 설정 인터페이스는, 예를 들면, 도 19의 템플릿(1900)에서 “Car” 탭이 선택되거나, 또는 도 20에서 “Car” 탭이 선택되는 경우에 제공될 수 있다. 도 22에 도시된 바와 같이, 설정 인터페이스는 사용자에 의해 선택된 장소에 대한 카테고리를 나타내는 제1 정보(2210)(예: 장소 이름) 및 제2 정보(2220)(예: 장소 아이콘)를 포함하는 카테고리 영역(2201)과 장소를 검출하는 방식을 설정하기 위한 설정 영역(2203)을 포함할 수 있다.
일 실시 예에 따라, 설정 영역(2203)은, 예를 들면, 장소에 대한 카테고리가 “Car”에 해당하는 경우, 해당 장소(예: 사용자의 자동차)를 검출(또는 식별)할 수 있는 방식을 설정하는 영역을 나타낼 수 있다. 예를 들면, 전자 장치(101)는 자동차에 구비된 통신 모듈과 설정된 통신 방식(예: 블루투스 통신, 또는 직접 통신(예: 유선 통신))으로 연결할 수 있다. 전자 장치(101)는 자동차와 통신 연결 시 획득되는 자동차에 관련된 식별 정보에 기반하여, 사용자가 자동차에 탑승하는 것을 인지할 수 있고, “Car” 카테고리의 장소를 검출할 수 있다.
도 23을 참조하면, 도 23은 특정 장소를 상세 설정할 수 있는 설정 인터페이스의 다른 예를 나타낼 수 있다. 일 실시 예에 따르면, 도 23의 설정 인터페이스는, 예를 들면, 도 19의 템플릿(1900)에서 “Other” 탭이 선택되는 경우에 제공될 수 있다. 예를 들면, 도 23의 설정 인터페이스는, 템플릿(1900)에 따른 카테고리 외에, 사용자 정의에 따른 카테고리(또는 장소)의 설정을 지원하기 위한 인터페이스의 예를 나타낼 수 있다. 도 23에 도시된 바와 같이, 설정 인터페이스는 사용자에 의해 정의될 장소에 대한 카테고리를 설정할 수 있는 카테고리 영역(2301), 장소에 대한 상세 위치(또는 주소) 설정에 관련된 설정 영역(2303), 네트워크 연결 또는 설정(예: Wi-Fi 연결)에 관련된 안내를 제공하는 네트워크 영역(2305)을 포함할 수 있다.
일 실시 예에 따라, 카테고리 영역(2301)은 제1 정보(예: 장소 이름)을 입력할 수 있는 제1 영역(2310)과 제2 정보(예: 장소 아이콘)를 입력할 수 있는 제2 영역(2320)을 포함할 수 있다. 일 실시 예에 따라, 제2 영역(2320)의 제2 정보는 다양한 종류의 객체(예: 이미지, 아이콘, 또는 사진 등)에 기반하여 설정될 수 있다. 일 실시 예에 따라, 전자 장치(101)는 제2 영역(2320)이 사용자에 의해 선택되는 경우, 객체(예: 이미지, 아이콘, 또는 사진 등)를 선택할 수 있는 객체 인터페이스(예: 팝업 윈도우 등)를 제공하고, 객체 인터페이스에서 사용자에 의해 선택되는 객체를 제2 정보(예: 장소 아이콘)로 제2 영역(2320)에 표시할 수 있다.
도 24는 다양한 실시 예들에 따른 전자 장치에서 생체 정보를 제공하는 화면 예를 도시하는 도면이다.
도 24를 참조하면, 도 24는 사용자가 전자 장치(101)를 이용하여 생체 데이터를 측정한 후, 사용자 상태에 관한 정보와 장소에 관한 정보를 직접 선택(또는 입력)할 수 있는 메뉴를 포함하는 인터페이스의 예를 나타낼 수 있다. 일 실시 예에 따르면, 사용자는 전자 장치(101)의 자동 위치 정보를 이용하지 않고 장소에 관하여 수동으로 입력할 수 있으며, 생체 데이터를 측정하는 시점에서 사용자의 상태(예: 감정, 기분)를 사용자가 직접 입력이 가능할 수 있다.
도 24에 도시한 바와 같이, 인터페이스는 생체 데이터를 기반으로 획득된 생체 정보를 제공하는 정보 영역(2410), 생체 정보와 관련하여 사용자의 현재 상태에 관한 정보와 장소에 관한 정보를 선택(또는 입력)할 수 있는 설정 영역(2420)을 포함할 수 있다. 일 실시 예에 따라, 설정 영역(2420)은 사용자 상태를 설정하기 위한 상태 설정 영역(2430)과 장소를 설정하기 위한 장소 설정 영역(2440)을 포함할 수 있다.
일 실시 예에 따라, 상태 설정 영역(2430)은 사용자의 상태를 사용자가 직접 선택할 수 있도록 상태(예: 감정, 기분)에 관련된 다양한 감정 객체(예: 이모티콘, 아이콘 등)를 제공할 수 있다. 일 실시 예에 따르면, 감정 객체는, 예를 들면, 뉴트럴(Neutral), 해피(Happy), 새드(Sad), 타이어드(Tired), 익사이티드(Excited) 등에 대응하는 이모티콘과 텍스트(예: 명칭)로 제공될 수 있다. 사용자는 감정 객체 중, 현재 사용자 상태에 대응하는 어느 하나의 감정 객체를 선택할 수 있고, 전자 장치(101)는 선택된 감정 객체에 대응하는 사용자 상태와 생체 정보를 매칭할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 감정 객체를 제공할 때, 사용자의 생체 정보에 기반하여 사용자의 상태를 추정할 수 있고, 추정된 상태에 대응하는 감정 객체를 선택(또는 활성화, 하이라이팅)하여 제공할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 사용자에 의해 선택된 감정 객체를 선택(또는 활성화, 하이라이팅)하여 제공할 수 있다.
일 실시 예에 따라, 장소 설정 영역(2440)은 생체 정보가 획득된 장소(또는 현재 장소)를 사용자가 직접 설정할 수 있도록 장소 객체(예: 아이콘 등)를 제공할 수 있다. 일 실시 예에 따르면, 장소 객체는, 예를 들면, 집(Home), 사무실(Work), 현재 위치(Current location) 등을 설정(또는 지정)할 수 있는 아이콘과 텍스트(예: 명칭)로 제공될 수 있다. 사용자는 장소 객체 중, 현재 사용자 장소에 대응하는 또는 사용자가 희망의 장소 설정을 위한 장소 객체를 선택할 수 있고, 전자 장치(101)는 선택된 장소 객체에 대응하는 장소와 생체 정보를 매칭할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 생체 정보, 사용자 상태, 및 장소를 매칭하여 저장할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 장소 객체를 제공할 때, 사용자의 위치 정보에 기반하여 사용자의 장소를 추정할 수 있고, 추정된 장소에 대응하는 장소 객체를 선택(또는 활성화, 하이라이팅)하여 제공할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 사용자가 미리 지정한 장소(또는 위치)가 검출되는 경우, 해당 장소 객체를 선택(또는 활성화, 하이라이팅)하여 제공할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 사용자에 의해 선택된 장소 객체를 선택(또는 활성화, 하이라이팅)하여 제공할 수 있다.
도 25는 다양한 실시 예들에 따른 복수의 전자 장치들에 기반하여 생체 정보를 제공하는 예를 설명하기 위한 도면이다.
도 25에 도시한 바와 같이, 도 25에서는 복수의 전자 장치들(예: 제1 전자 장치(2510)와 제2 전자 장치(2520))의 연동에 기반하여 사용자에 관련된 다양한 상황(예: 장소) 별 생체 정보를 설정하는 예를 나타낼 수 있다. 예를 들면, 도 25에서는 제1 전자 장치(2510)가 웨어러블 장치이고, 제2 전자 장치(2520)가 스마트폰인 것을 예로 하며, 제1 전자 장치(2510)에서 사용자의 장소에 기반하여 사용자의 생체 데이터를 측정하고, 제2 전자 장치(2520)에서 제1 전자 장치(2510)로부터 생체 데이터를 수신하고, 사용자 장소 별 또는 사용자 상황 별 생체 정보를 제공하는 예를 나타낼 수 있다. 다양한 실시 예들에 따르면, 제1 전자 장치(2510)와 제2 전자 장치(2520)는 도 1의 전자 장치(101)의 일부 또는 전체를 포함할 수 있다.
다양한 실시 예들에 따라, 서버(2530)는 사용자 계정 기반으로, 사용자에 관한 다양한 정보(예: 사용자 개인 정보)를 제어하고 관리할 수 있는 서버를 나타낼 수 있다. 예를 들면, 서버(2530)는 계정 서버를 포함할 수 있다. 다양한 실시 예들에서, 사용자에 관한 다양한 정보는, 사용자에 의해 서버(2530)에 사용자 계정 기반으로 등록되는 정보(예: 프로필 정보, 디바이스 정보, 헬스 정보, 장소 정보, 또는 어플리케이션 정보 등)를 포함할 수 있다.
도 25를 참조하면, 동작(2501)에서, 제1 전자 장치(2510)와 제2 전자 장치(2520)는 서버(703)와 통신하여, 사용자 계정 기반으로 사용자 장소를 등록할 수 있다. 일 실시 예에 따르면, 사용자는 제1 전자 장치(2510) 또는 제2 전자 장치(2520) 중 적어도 하나를 이용하여 사용자 장소를 서버(2530)에 사용자 장소를 등록할 수 있다. 다양한 실시 예들에 따르면, 제1 전자 장치(2510) 또는 제2 전자 장치(2520)의 각각에서 서버(2530)에 설정 및 등록하는 사용자 정의의 장소는, 서버(2530)를 통해 사용자 계정으로 관리될 수 있고, 사용자 계정으로 관리되는 장소는 서버(2530)를 통해 제1 전자 장치(2510)와 제2 전자 장치(2520)에 동기화 될 수 있다.
동작(2503)에서, 서버(2530)는 제1 전자 장치(2510)와 제2 전자 장치(2520)에게 사용자 장소에 관한 정보를 제공할 수 있다. 일 실시 예에 따르면, 서버(2530)는 사용자 계정으로 관리되는 장소에 관하여 제1 전자 장치(2510)와 제2 전자 장치(2520)에게 전달하여, 제1 전자 장치(2510)와 제2 전자 장치(2520)가 동일한 사용자 장소에 관한 정보를 가지도록 동기화 할 수 있다. 일 실시 예에 따르면, 서버(2530)는 제1 전자 장치(2510) 또는 제2 전자 장치(2520)로부터 사용자 장소에 관한 정보를 요청하는 것에 대응하여, 적어도 하나의 전자 장치(2510, 2520)에게 제공할 수 있다.
동작(2505)에서, 제1 전자 장치(2510)는, 예를 들면, 사용자의 신체에 착용된 상태에서 상시적으로 사용자의 생체 데이터를 수집하는 상태일 수 있다. 일 실시 예에 따르면, 제1 전자 장치(2510)는 사용자에 관련된 생체 데이터를 획득(또는 센싱)하고, 획득된 생체 데이터를 저장할 수 있다. 일 실시 예에 따르면, 제1 전자 장치(2510)는 측정된 생체 데이터에 적어도 기반하여 관련 생체 정보를 사용자에게 제공할 수 있다.
동작(2507)에서, 제2 전자 장치(2520)는 다양한 상황 정보를 수집하는 상태일 수 있다.
동작(2509)에서, 제1 전자 장치(2510)는 생체 데이터를 제2 전자 장치(2520)에 전송(또는 공유)할 수 있다. 일 실시 예에 따르면, 제1 전자 장치(2510)는 생체 데이터를 제공할 때, 생체 데이터가 측정된 장소에 관한 정보를 함께 제공할 수 있다. 예를 들면, 제1 전자 장치(2510)는 장소 정보와 연속적으로 측정된 생체 데이터(또는 연속 측정 데이터)를 제2 전자 장치(2520)로 전송할 수 있다. 일 실시 예에 따라, 제1 전자 장치(2510)는 연속 측정 데이터를 획득하고, 연속 측정 데이터를 획득하는 시점마다, 연속 측정 데이터와 장소 정보(또는 시간 정보도 포함)를 제2 전자 장치(2520)로 전송할 수 있다. 일 실시 예에 따라, 제1 전자 장치(2510)는 설정된 장소에서 연속 측정 데이터를 획득하는 시점에, 연속 측정 데이터와 장소 정보(또는 시간 정보도 포함)를 제2 전자 장치(2520)로 전송할 수 있다.
동작(2511)에서, 제2 전자 장치(2520)는 상황 별 생체 정보를 제공할 수 있다. 일 실시 예에 따르면, 제2 전자 장치(2520)는 생체 정보를 제공할 때, 장소 별 구간으로 구분하여 제공할 수 있다. 일 실시 예에 따르면, 제2 전자 장치(2520)는 생체 정보를 측정된 시간 및/또는 장소에 따라 구분하여 제공함으로써, 사용자가 해당 결과가 언제/어디에서 측정된 결과인지를 인지하도록 할 수 있다.
일 실시 예에 따르면, 제2 전자 장치(2520)는 제1 전자 장치(2510)로부터 수신된 생체 데이터, 제2 전자 장치(2520)에 의해 측정된 생체 데이터, 또는 제2 전자 장치(2520)의 사용과 관련된 다양한 상황(예: 사용 로그)에 적어도 기반하여 제공할 수 있다. 일 실시 예에 따르면, 제2 전자 장치(2520)는 사용자가 제2 전자 장치(2520)의 사용과 관련된 다양한 사용 로그를 인지(예: 상황 인지) 및 기록할 수 있다. 일 실시 예에 따르면, 제2 전자 장치(2520)는 사용자가 제2 전자 장치(2520)를 이용하여 사용하는 어플리케이션(예: 통화, 달력, 음악, 동영상, 또는 인터넷 등의 어플리케이션) 또는 어플리케이션을 통해 이용된 컨텐츠(예: 통화 로그, 일정, 음악 재생 목록(또는 항목), 동영상 재생 목록(또는 항목), 웹 브라우징 히스토리 등)를 모니터링 하고, 이를 기록할 수 있다. 일 실시 예에 따라, 제2 전자 장치(2520)는 사용 로그를 모니터링 시의 생체 데이터(또는 생체 데이터에 의한 생체 정보)를 해당 사용 로그와 함께(또는 연관지어, 매핑하여) 저장할 수 있다.
도 26은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
다양한 실시 예들에서, 도 26은 도 25에서 제1 전자 장치(2510)의 동작 예를 나타낼 수 있다.
도 26을 참조하면, 동작(2601)에서, 전자 장치(2510)의 프로세서(예: 도 1의 전자 장치(101)의 프로세서(120))는 계정 기반으로 사용자 장소를 등록할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 통신 모듈(예: 도 1의 통신 모듈(190))을 이용하여 서버(예: 도 26의 서버(2630))와 통신할 수 있고, 사용자 계정에 기반하여 서버(2630)에 접속하여, 사용자 정의의 장소를 서버(2630)에 등록할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 도 19 내지 도 23을 참조한 설명 부분에서 설명한 바와 같은 인터페이스를 사용자에게 제공하고, 인터페이스를 통한 사용자 입력에 대응하여 장소를 설정 및 등록할 수 있다.
동작(2603)에서, 프로세서(120)는 생체 데이터를 수집할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 데이터를 수집 시에 해당 시점에서의 장소와 시간에 관한 정보를 판단하는 동작을 포함할 수 있다.
동작(2605)에서, 프로세서(120)는 수집된 생체 데이터와 장소 정보(또는 시간 정보도 포함)를 함께 저장할 수 있다.
동작(2607)에서, 프로세서(120)는 장소 별 생체 데이터를 설정된 외부 장치와 공유할 수 있다. 일 실시 예에 따르면, 설정된 외부 장치는, 전자 장치(2510)와 사용자 계정으로 등록된 사용자의 다른 전자 장치(예: 도 25의 제2 전자 장치(2520))를 포함할 수 있다.
도 27은 다양한 실시 예들에 따른 전자 장치의 동작 방법을 도시하는 흐름도이다.
다양한 실시 예들에서, 도 27은 도 25에서 제2 전자 장치(2520)의 동작 예를 나타낼 수 있다.
도 27을 참조하면, 동작(2701)에서, 전자 장치(2520)의 프로세서(예: 도 1의 전자 장치(101)의 프로세서(120))는 계정 기반으로 사용자 장소를 등록할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 통신 모듈(예: 도 1의 통신 모듈(190))을 이용하여 서버(예: 도 26의 서버(2630))와 통신할 수 있고, 사용자 계정에 기반하여 서버(2630)에 접속하여, 사용자 정의의 장소를 서버(2630)에 등록할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 도 19 내지 도 23을 참조한 설명 부분에서 설명한 바와 같은 인터페이스를 사용자에게 제공하고, 인터페이스를 통한 사용자 입력에 대응하여 장소를 설정 및 등록할 수 있다.
동작(2703)에서, 프로세서(120)는 생체 데이터를 수집할 수 있다. 일 실시 예에 따라, 생체 데이터는, 사용자 계정으로 등록된 외부 장치(예: 도 25의 제1 전자 장치(2510))로부터 수신된 생체 데이터, 또는 전자 장치(2510)에서 수집하는 생체 데이터 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 외부 장치로부터의 제1 생체 데이터와 전자 장치(2510)에 의한 제2 생체 데이터가 함께 수집되는 경우, 제1 생체 데이터와 제2 생체 데이터를 동기화 할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제1 생체 데이터와 제2 생체 데이터가 동일한 종류의 생체 데이터인 경우, 이들 간에 데이터(예: 타이밍, 파형 등)의 동기를 맞추어 하나의 연속된 생체 데이터로 구성(또는 결합)할 수 있다. 예를 들면, 프로세서(120)는 파형의 특징점(예: 피크(peak), 골(valley), 또는 변곡점(inflection point) 등)에 기반하여 생체 데이터들을 비교하여 유사성을 검증할 수 있고, 유사성이 검증되는 경우 동일한 종류의 생체 데이터인 것으로 보고 이들을 결합(또는 통합)하여 하나의 연속된 생체 데이터로 구성할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 외부 장치로부터 생체 데이터와 함께 전송되는 장소 정보를 획득할 수 있다.
동작(2705)에서, 프로세서(120)는 장소 별 생체 데이터를 분석하여 그 결과를 제공할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자에 의해 생체 정보를 표시하도록 하는 요청을 감지하거나, 또는 생체 데이터에 기반하여 적어도 하나의 생체 정보가 생성 가능한 경우, 생체 정보를 표시 장치(예: 도 1의 표시 장치(160))를 통해 표시하여 사용자에게 제공할 수 있다. 다양한 실시 예들에 따라, 프로세서(120)는 생체 정보를 제공할 때, 장소 별 구간으로 구분하여 제공할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 생체 정보를 측정된 시간(또는 언제) 및/또는 장소(또는 어디에서)에 따라 구분하여 제공함으로써, 사용자가 해당 결과가 언제/어디에서 측정된 결과인지를 인지할 수 있도록 할 수 있다.
동작(2707)에서, 프로세서(120)는 상황 인지에 기반하여 사용자 상황을 모니터링 할 수 있다.
동작(2709)에서, 프로세서(120)는 사용자 상황에 따른 생체 데이터를 분석할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자의 생체 데이터를 수집하고, 수집된 생체 데이터의 변화량 등을 판단하여 사용자 상황에 따른 사용자 상태를 추정할 수 있다.
동작(2711)에서, 프로세서(120)는 사용자 상황에 기반하여 인사이트를 제공할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자에게 네거티브 스트레스가 발생하는 상황에 대해 해당 상황에 적절한 인사이트를 제공할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자에게 긍정적인 작용을 한 대상(또는 대상물)을 사용자에게 추천할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자에게 긍정적인 작용을 한 다른 사용자(예: 가족, 친구, 또는 사용자가 통화 시 사용자의 스트레스 지수가 낮아진 통화 상대 등)와 통화를 시도하라는 인사이트를 제공할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 사용자에게 긍정적인 작용을 한 아이템(예: 어플리케이션, 컨텐츠, 또는 이벤트 등)을 사용하도록 유도하는 인사이트(또는 추천, 팁)를 제공할 수 있다.
도 28, 도 29 및 도 30은 다양한 실시 예들에 따른 전자 장치에서 장소 별 생체 정보를 제공하는 화면 예를 도시하는 도면들이다.
도 28, 도 29 및 도 30은 생체 정보를 장소 별로 구분하여 제공하는 인터페이스의 예를 나타낸 것으로, 장소 별 생체 정보를 일간(Daily)(도 28), 주간(Weekly)(도 29), 또는 월간(Monthly)(도 30)의 정렬 기준에 따라 제공하는 예를 나타낼 수 있다.
도 28, 도 29 및 도 30에 도시된 바와 같이, 인터페이스는, 생체 정보의 차트를 나타내는 제1 영역(2810, 2910, 3010), 생체 정보가 측정된 장소를 나타내는 제2 영역(2820, 2920, 3020), 장소 별 생체 정보의 평균을 컬러로 나타내는 제3 영역(2830, 2930, 3030), 장소 별 생체 정보에 관한 시간 및 상태 정보를 나타내는 제4 영역(2840, 2940, 3040)을 포함할 수 있다.
다양한 실시 예들에 따르면, 제1 영역(2810, 2910, 3010)은, 정렬 기준(예: Days, Weeks, Months)을 선택할 수 있는 메뉴를 포함하고, 선택된 정렬 기준에 따라 생체 정보에 관련된 차트(예: 일간 차트, 주간 차트, 월간 차트)가 제공될 수 있다. 일 실시 예에 따르면, 제1 영역(2810, 2910, 3010)은 정렬 기준에 따라 차트와 차트에 관련된 시기 정보(예: 날짜 정보, 주 구분 정보, 월 정보)가 변경되어 제공될 수 있다. 일 실시 예에 따라, 사용자는 제1 영역(2810, 2910, 3010)에서 각 정렬 기준 별로 사용자가 확인하고자 하는 시기(예: 날짜, 주차, 월)를 선택하여 변경할 수 있다.
다양한 실시 예들에 따르면, 제2 영역(2820, 2920, 3020)은, 정렬 기준에 따른 장소 정보와 생체 정보의 평균을 제공할 수 있다. 일 실시 예에 따르면, 제2 영역(2820, 2920, 3020)은 생체 정보의 전체 구간을 나타내는 그래프(예: 막대 그래프) 상에 정렬 기준에 따른 생체 정보의 평균(예: 일 평균(Daily average), 주 평균(Weekly average), 월 평균(Monthly average))에 대응하는 위치에 정보(예: 마커)를 제공할 수 있다. 일 실시 예에 따르면, 제2 영역(2820, 2920, 3020)은 그래프와 인접하는 위치에 장소를 나타내는 장소 객체를 포함할 수 있다.
일 실시 예에 따라, 장소 객체는 그래프 상에서 각 장소의 생체 정보의 평균을 인지 가능한 위치에 제공될 수 있다. 일 실시 예에 따라, 장소 객체는 생체 정보가 획득된 장소를 나타낼 수 있으며, 일간, 주간, 또는 월간에 따라 장소 객체의 수가 상이할 수 있다. 예를 들면, 하루 동안 생체 정보가 획득된 장소보다 주간 동안 생체 정보가 획득된 장소가 많을 수 있다. 일 예로, 사용자는 월요일은 등록된 장소인 자동차를 이용하여, 등록된 장소인 집과 사무실1 간에 이동할 수 있고, 화요일은 등록된 장소인 자동차를 이용하지 않고, 등록된 장소인 집, 사무실1, 사무실2 간에 이동할 수 있다. 전자 장치(101)는 사용자에 의해 등록된 각 장소에서 생체 정보를 획득하고, 해당 장소와 해당 생체 정보를 매칭하여 저장할 수 있다. 일 실시 예에 따라, 제2 영역(2820, 2920, 3020)은 사용자의 호흡 운동(Breathing exercise)에 관한 정보를 더 포함하여 제공할 수 있다.
다양한 실시 예들에 따르면, 제3 영역(2830, 2930, 3030)은, 정렬 기준에 따른 각 장소에서의 생체 정보의 평균을 컬러에 기반하여 제공할 수 있다. 다양한 실시 예들에 따르면, 생체 정보의 정도(또는 값)에 따라, 소정 단계(예: 도 9에 예시한 바와 같은 8단계 중 어느 일 단계)의 컬러로 표현할 수 있다. 다양한 실시 예들에 따르면, 장소 별 생체 정보 평균에 대응하는 컬러는 해당 장소에서 수집된 생체 정보의 정도에 따라 동일하거나 다른 컬러로 표현될 수 있다.
일 실시 예에 따라, 도 28은 하루 동안 생체 정보가 수집된 장소가 집(예: Home)과 사무실(예: Work)이고, 집에서의 일 평균에 대응하는 컬러(예: 녹색)와 사무실에서의 일 평균에 대응하는 컬러(예: 주황색)로 구분하여 나타낸 예일 수 있다.
일 실시 예에 따라, 도 29는 주간 동안 생체 정보가 수집된 장소가 집(예: Home), 사무실1(예: Work), 사무실2(예: Suwon), 및 자동차(예: Load)이고, 각 장소에서의 요일 별 생체 정보 평균을 컬러로 구분하여 나타낸 예일 수 있다. 일 실시 예에 따라, 도 29에서, 특정 장소에서 컬러를 나타내는 객체가 없는(또는 공백인) 요일의 경우, 사용자가 해당 장소로 진입하지 않은 경우로, 해당 요일에서 해당 장소에서 수집된 생체 정보가 없는 상태를 나타낼 수 있다.
일 실시 예에 따라, 도 30은 월간 동안 생체 정보가 수집된 장소가 집(예: Home), 사무실1(예: Work), 자동차(예: Car), 사무실2(예: Suwon), 및 다른 장소(예: Other)이고, 각 장소에서의 월간 생체 정보 평균을 각각 컬러로 구분하여 나타낸 예일 수 있다.
다양한 실시 예들에 따르면, 제4 영역(2840, 2940, 3040)은, 각 장소에서의 생체 정보에 관한 획득 시기(예: 시간, 날짜)별 상세 정보와, 각 생체 정보에 대응하는 사용자의 상태 정보(예: 감정, 기분)를 제공할 수 있다. 일 실시 예에 따라, 상태 정보는 생체 정보를 획득하는 시점에서 사용자의 상태(예: 감정, 기분)를 나타내는 감정 객체를 포함할 수 있다. 일 실시 예에 따라, 제4 영역(2840, 2940, 3040)은 정렬 기준에 따라 상세 정보를, 시간 기준, 날 기준으로 제공할 수 있다. 일 예로, 도 28의 일간 단위의 경우 생체 정보를 시간에 따라 구분하여 제공하고, 도 29의 주간 단위와 도 30의 월간 단위의 경우 생체 정보를 날짜(또는 요일)에 따라 구분하여 제공하는 예를 나타낼 수 있다.
이상에서 살펴본 바와 같이, 다양한 실시 예들에 따른 전자 장치(101)의 동작 방법은, 센서 모듈(176)에 기반하여 사용자의 생체 정보와 사용자에 관련된 장소 정보를 획득하는 동작, 상기 생체 정보와 상기 장소 정보를 매칭하는 동작, 표시 장치(160)를 통해 일정 기간의 생체 정보를 포함하는 인터페이스를 표시하는 동작, 상기 인터페이스에서 사용자로부터 선택된 영역의 장소와 상기 장소에 대응하는 구간을 판단하는 동작, 상기 인터페이스에서 상기 구간을 특정하여 상기 구간 내의 생체 정보를 강조하여 표시하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 매칭하는 동작은, 상기 전자 장치(101)의 사용 로그를 분석하는 동작, 상기 사용 로그와 상기 사용 로그에 관련된 생체 정보를 매칭하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 전자 장치(101)의 동작 방법은, 상기 생체 정보에 기반한 사용자 상태에 대응하는 인사이트를 출력하는 동작을 더 포함할 수 있다.
다양한 실시 예들에 따라, 상기 인사이트를 출력하는 동작은, 상기 생체 정보와 상기 장소 정보에 기반하여 사용자 상황을 판단하는 동작, 상기 사용자 상황에 관련된 인사이트를 출력하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 인사이트를 출력하는 동작은, 상기 생체 정보와 상기 사용 로그에 기반하여 사용자 상황을 판단하는 동작, 상기 사용자 상황에 관련된 인사이트를 출력하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 인사이트를 출력하는 동작은, 상기 생체 정보, 상기 장소 정보, 또는 상기 사용 로그에 적어도 기반하여 사용자의 상황을 판단하는 동작, 상기 사용자의 상황이 설정된 조건에 포함되는 경우, 상기 사용자의 상황에 관련된 인사이트를 출력하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 전자 장치(101)의 동작 방법은, 사용자에 관련된 특정 상황에서 생체 정보에 기반하여 사용자 상태를 추정하는 동작, 상기 사용자 상태에 기반하여 상기 사용자 상황에 관련된 상황 데이터를 생성하는 동작, 상기 상황 데이터를 저장하는 동작을 더 포함할 수 있다.
다양한 실시 예들에 따라, 상기 인사이트를 출력하는 동작은, 생체 정보를 분석하는 동작, 상기 생체 정보에 따른 사용자 상태가 설정된 조건에 포함되는지 여부를 판단하는 동작, 상기 사용자 상태가 상기 설정된 조건에 포함되는 경우, 상기 사용자 상태에 관련된 인사이트를 추출하는 동작, 상기 인사이트를 출력하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 인사이트를 출력하는 동작은, 생체 정보의 수집 시에 상황 인지를 수행하는 동작, 상기 상황 인지에 따른 상황 정보와 생체 정보에 따른 사용자 상태에 기반하여 관련된 인사이트를 출력하는 동작을 포함할 수 있다.
다양한 실시 예들에 따라, 상기 전자 장치(101)는, 상기 인터페이스를 통해 장소 별 생체 정보를 구분하고, 상기 장소 별로 일정 기간의 생체 정보의 평균을 컬러에 기반하여 표시하는 것을 포함하고, 상기 장소는 사용자 계정에 기반하여 서버에 등록된 정보를 포함할 수 있다.
본 명세서와 도면에 개시된 본 발명의 다양한 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
101: 전자 장치
120: 프로세서
160: 표시 장치
176: 센서 모듈
210: 디스플레이
500: 기능 처리 모듈

Claims (20)

  1. 전자 장치에 있어서,
    센서 모듈;
    표시 장치; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 센서 모듈에 기반하여 사용자의 생체 정보와 사용자에 관련된 장소 정보를 획득하고,
    상기 생체 정보와 상기 장소 정보를 매칭하고,
    상기 표시 장치를 통해 일정 기간의 생체 정보를 포함하는 인터페이스를 표시하고,
    상기 인터페이스에서 사용자로부터 선택된 영역의 장소와 상기 장소에 대응하는 구간을 판단하고,
    상기 인터페이스에서 상기 구간을 특정하여 상기 구간 내의 생체 정보를 강조하여 표시하도록 설정된 전자 장치.
  2. 제1항에 있어서, 상기 프로세서는,
    상기 전자 장치의 사용 로그를 분석하고,
    상기 사용 로그와 상기 사용 로그에 관련된 생체 정보를 매칭하도록 설정된 전자 장치.
  3. 제2항에 있어서, 상기 프로세서는,
    상기 생체 정보와 상기 장소 정보에 기반하여 사용자 상황을 판단하고,
    상기 사용자 상황에 관련된 인사이트를 출력하도록 설정된 전자 장치.
  4. 제2항에 있어서, 상기 프로세서는,
    상기 생체 정보와 상기 사용 로그에 기반하여 사용자 상황을 판단하고,
    상기 사용자 상황에 관련된 인사이트를 출력하도록 설정된 전자 장치.
  5. 제2항에 있어서, 상기 프로세서는,
    상기 생체 정보, 상기 장소 정보, 또는 상기 사용 로그에 적어도 기반하여 사용자의 상황을 판단하고,
    상기 사용자의 상황이 설정된 조건에 포함되는 경우, 상기 사용자의 상황에 관련된 인사이트를 출력하도록 설정된 전자 장치.
  6. 제2항에 있어서, 상기 프로세서는,
    사용자에 관련된 특정 상황에서 생체 정보에 기반하여 사용자 상태를 추정하고,
    상기 사용자 상태에 기반하여 상기 사용자 상황에 관련된 상황 데이터를 생성하고,
    상기 상황 데이터를 저장하도록 설정된 전자 장치.
  7. 제2항에 있어서, 상기 프로세서는,
    생체 정보를 분석하고,
    상기 생체 정보에 따른 사용자 상태가 설정된 조건에 포함되는지 여부를 판단하고,
    상기 사용자 상태가 상기 설정된 조건에 포함되는 경우, 상기 사용자 상태에 관련된 인사이트를 추출하고,
    상기 인사이트를 출력하도록 설정된 전자 장치.
  8. 제7항에 있어서, 상기 프로세서는,
    생체 정보의 수집 시에 상황 인지를 수행하고,
    상기 상황 인지에 따른 상황 정보와 생체 정보에 따른 사용자 상태에 기반하여 관련된 인사이트를 출력하도록 설정된 전자 장치.
  9. 제2항에 있어서,
    상기 사용자에 관련된 장소 정보는 사용자 계정에 기반하여 서버에 등록된 정보를 포함하는 전자 장치.
  10. 제2항에 있어서, 상기 프로세서는,
    상기 인터페이스를 통해 장소 별 생체 정보를 구분하고, 상기 장소 별로 일정 기간의 생체 정보의 평균을 컬러에 기반하여 표시하도록 설정된 전자 장치.
  11. 전자 장치의 동작 방법에 있어서,
    센서 모듈에 기반하여 사용자의 생체 정보와 사용자에 관련된 장소 정보를 획득하는 동작,
    상기 생체 정보와 상기 장소 정보를 매칭하는 동작,
    표시 장치를 통해 일정 기간의 생체 정보를 포함하는 인터페이스를 표시하는 동작,
    상기 인터페이스에서 사용자로부터 선택된 영역의 장소와 상기 장소에 대응하는 구간을 판단하는 동작,
    상기 인터페이스에서 상기 구간을 특정하여 상기 구간 내의 생체 정보를 강조하여 표시하는 동작을 포함하는 방법.
  12. 제11항에 있어서, 상기 매칭하는 동작은,
    상기 전자 장치의 사용 로그를 분석하는 동작,
    상기 사용 로그와 상기 사용 로그에 관련된 생체 정보를 매칭하는 동작을 포함하는 방법.
  13. 제12항에 있어서,
    상기 생체 정보에 기반한 사용자 상태에 대응하는 인사이트를 출력하는 동작을 더 포함하는 방법.
  14. 제13항에 있어서, 상기 인사이트를 출력하는 동작은,
    상기 생체 정보와 상기 장소 정보에 기반하여 사용자 상황을 판단하는 동작,
    상기 사용자 상황에 관련된 인사이트를 출력하는 동작을 포함하는 방법.
  15. 제13항에 있어서, 상기 인사이트를 출력하는 동작은,
    상기 생체 정보와 상기 사용 로그에 기반하여 사용자 상황을 판단하는 동작,
    상기 사용자 상황에 관련된 인사이트를 출력하는 동작을 포함하는 방법.
  16. 제13항에 있어서, 상기 인사이트를 출력하는 동작은,
    상기 생체 정보, 상기 장소 정보, 또는 상기 사용 로그에 적어도 기반하여 사용자의 상황을 판단하는 동작,
    상기 사용자의 상황이 설정된 조건에 포함되는 경우, 상기 사용자의 상황에 관련된 인사이트를 출력하는 동작을 포함하는 방법.
  17. 제13항에 있어서,
    사용자에 관련된 특정 상황에서 생체 정보에 기반하여 사용자 상태를 추정하는 동작,
    상기 사용자 상태에 기반하여 상기 사용자 상황에 관련된 상황 데이터를 생성하는 동작,
    상기 상황 데이터를 저장하는 동작을 더 포함하는 방법.
  18. 제13항에 있어서, 상기 인사이트를 출력하는 동작은,
    생체 정보를 분석하는 동작,
    상기 생체 정보에 따른 사용자 상태가 설정된 조건에 포함되는지 여부를 판단하는 동작,
    상기 사용자 상태가 상기 설정된 조건에 포함되는 경우, 상기 사용자 상태에 관련된 인사이트를 추출하는 동작,
    상기 인사이트를 출력하는 동작을 포함하는 방법.
  19. 제13항에 있어서, 상기 인사이트를 출력하는 동작은,
    생체 정보의 수집 시에 상황 인지를 수행하는 동작,
    상기 상황 인지에 따른 상황 정보와 생체 정보에 따른 사용자 상태에 기반하여 관련된 인사이트를 출력하는 동작을 포함하는 방법.
  20. 제12항에 있어서,
    상기 인터페이스를 통해 장소 별 생체 정보를 구분하고, 상기 장소 별로 일정 기간의 생체 정보의 평균을 컬러에 기반하여 표시하고,
    상기 장소는 사용자 계정에 기반하여 서버에 등록된 정보를 포함하는 방법.
KR1020180067987A 2018-06-14 2018-06-14 전자 장치에서 생체 정보 제공 방법 및 장치 KR102606689B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180067987A KR102606689B1 (ko) 2018-06-14 2018-06-14 전자 장치에서 생체 정보 제공 방법 및 장치
PCT/KR2019/007142 WO2019240513A1 (ko) 2018-06-14 2019-06-13 전자 장치에서 생체 정보 제공 방법 및 장치
US17/059,647 US20210212581A1 (en) 2018-06-14 2019-06-13 Method and apparatus for providing biometric information by electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180067987A KR102606689B1 (ko) 2018-06-14 2018-06-14 전자 장치에서 생체 정보 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20190141348A true KR20190141348A (ko) 2019-12-24
KR102606689B1 KR102606689B1 (ko) 2023-11-28

Family

ID=68843505

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180067987A KR102606689B1 (ko) 2018-06-14 2018-06-14 전자 장치에서 생체 정보 제공 방법 및 장치

Country Status (3)

Country Link
US (1) US20210212581A1 (ko)
KR (1) KR102606689B1 (ko)
WO (1) WO2019240513A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160019360A1 (en) 2013-12-04 2016-01-21 Apple Inc. Wellness aggregator
DK180241B1 (en) 2018-03-12 2020-09-08 Apple Inc User interfaces for health monitoring
KR102580881B1 (ko) * 2018-11-08 2023-09-20 삼성전자주식회사 전자 장치, 그의 개인 정보 제공 방법 및 이를 기록한 컴퓨터 판독 가능 기록매체
DK201970532A1 (en) 2019-05-06 2021-05-03 Apple Inc Activity trends and workouts
US11152100B2 (en) 2019-06-01 2021-10-19 Apple Inc. Health application user interfaces
US12002588B2 (en) 2019-07-17 2024-06-04 Apple Inc. Health event logging and coaching user interfaces
DK181037B1 (en) * 2020-06-02 2022-10-10 Apple Inc User interfaces for health applications
US11978090B2 (en) * 2021-02-05 2024-05-07 The Toronto-Dominion Bank Method and system for sending biometric data based incentives
WO2023184039A1 (en) * 2022-04-01 2023-10-05 Lucid Inc. Method, system, and medium for measuring, calibrating and training psychological absorption
CN117708231A (zh) * 2023-05-15 2024-03-15 荣耀终端有限公司 一种压力值同步方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070185390A1 (en) * 2003-08-19 2007-08-09 Welch Allyn, Inc. Information workflow for a medical diagnostic workstation
US20160232317A1 (en) * 2015-02-05 2016-08-11 Samsung Electronics Co., Ltd. Apparatus for and method of providing biological information
US20170042485A1 (en) * 2015-08-12 2017-02-16 Samsung Electronics Co., Ltd. Method for detecting biometric information and electronic device using same
KR20170093470A (ko) 2016-02-05 2017-08-16 삼성전자주식회사 스트레스 관리 서비스를 제공하기 위한 방법 및 그 전자 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101570430B1 (ko) * 2014-08-11 2015-11-20 엘지전자 주식회사 웨어러블 디바이스 및 그것의 동작 방법
KR101809131B1 (ko) * 2015-11-26 2017-12-14 엘지전자 주식회사 웨어러블 디바이스 및 그것의 동작방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070185390A1 (en) * 2003-08-19 2007-08-09 Welch Allyn, Inc. Information workflow for a medical diagnostic workstation
US20160232317A1 (en) * 2015-02-05 2016-08-11 Samsung Electronics Co., Ltd. Apparatus for and method of providing biological information
KR20160096455A (ko) * 2015-02-05 2016-08-16 삼성전자주식회사 생체정보 제공장치 및 방법
US20170042485A1 (en) * 2015-08-12 2017-02-16 Samsung Electronics Co., Ltd. Method for detecting biometric information and electronic device using same
KR20170019745A (ko) * 2015-08-12 2017-02-22 삼성전자주식회사 생체 정보 검출 방법 및 그 방법을 처리하는 전자 장치
KR20170093470A (ko) 2016-02-05 2017-08-16 삼성전자주식회사 스트레스 관리 서비스를 제공하기 위한 방법 및 그 전자 장치

Also Published As

Publication number Publication date
US20210212581A1 (en) 2021-07-15
WO2019240513A1 (ko) 2019-12-19
KR102606689B1 (ko) 2023-11-28

Similar Documents

Publication Publication Date Title
KR102606689B1 (ko) 전자 장치에서 생체 정보 제공 방법 및 장치
CN103561652B (zh) 用于辅助患者的方法和系统
KR102322034B1 (ko) 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
EP3321787B1 (en) Method for providing application, and electronic device therefor
CN109460752B (zh) 一种情绪分析方法、装置、电子设备及存储介质
KR20200017249A (ko) 전자 장치에서 사용자 의도 확인을 위한 피드백 제공 방법 및 장치
US7904507B2 (en) Determination of extent of congruity between observation of authoring user and observation of receiving user
KR102401774B1 (ko) 전자 장치 및 그의 스트레스 측정 방법
KR102399533B1 (ko) 사용자의 활동에 대응하는 스트레스 지수를 제공하는 방법 및 전자 장치
WO2011158965A1 (ja) 感性評価システム、感性評価方法、およびプログラム
KR20170096904A (ko) 사용자의 피부 유형에 따른 콘텐트를 제공하기 위한 전자 장치 및 방법
KR20190030140A (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
JP2013120468A (ja) 電子機器、情報処理方法およびプログラム
KR102431817B1 (ko) 사용자 발화를 처리하는 전자 장치 및 서버
WO2013128715A1 (ja) 電子機器
CN113287175A (zh) 互动式健康状态评估方法及其系统
US9361316B2 (en) Information processing apparatus and phrase output method for determining phrases based on an image
US9161715B2 (en) Determination of extent of congruity between observation of authoring user and observation of receiving user
US11596764B2 (en) Electronic device and method for providing information for stress relief by same
US20210012130A1 (en) Method and device for measuring biometric information in electronic device
JP2021157609A (ja) 情報処理装置、情報処理方法、およびプログラム
CN112074804A (zh) 信息处理系统、信息处理方法和记录介质
CN113764099A (zh) 基于人工智能的心理状态分析方法、装置、设备及介质
Zhang et al. A survey on mobile affective computing
US11233953B2 (en) Image editing method and electronic device supporting same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right