KR20240031818A - 사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법 - Google Patents

사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법 Download PDF

Info

Publication number
KR20240031818A
KR20240031818A KR1020220119668A KR20220119668A KR20240031818A KR 20240031818 A KR20240031818 A KR 20240031818A KR 1020220119668 A KR1020220119668 A KR 1020220119668A KR 20220119668 A KR20220119668 A KR 20220119668A KR 20240031818 A KR20240031818 A KR 20240031818A
Authority
KR
South Korea
Prior art keywords
user
state
processor
wearable device
data
Prior art date
Application number
KR1020220119668A
Other languages
English (en)
Inventor
최성수
김성오
여형석
김범수
김지현
문종원
프루신스키 발레리
염동현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/009111 priority Critical patent/WO2024048948A1/ko
Publication of KR20240031818A publication Critical patent/KR20240031818A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/291Bioelectric electrodes therefor specially adapted for particular uses for electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/297Bioelectric electrodes therefor specially adapted for particular uses for electrooculography [EOG]: for electroretinography [ERG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Abstract

일 실시 예에 따르면, 웨어러블 장치는, 온도 센서, 동공 인식 센서, 뇌파 센서, 카메라, 메모리, 통신 회로, 및 프로세서를 포함하고, 상기 프로세서는, 상기 웨어러블 장치와 접촉된 사용자의 머리(head)에 대한 온도를 나타내는 제1 데이터를 획득하고, 제1 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 응급 상태로 인식하고, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 제1 콘텐트 및 사용자의 의식 상태에 대한 정보를 저장하고, 상기 제1 기준 범위와 다른 제2 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 위험 모니터링 상태로 인식하고, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 제2 콘텐트를 저장하도록 설정된다.

Description

사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법 {WEARABLE DEVICE AND METHOD FOR OBTAINING DATA RELATED TO USER}
아래의 설명들은, 사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법에 관한 것이다.
웨어러블 장치를 통해 다양한 서비스가 제공되고 있다. 웨어러블 장치는 사용자의 신체의 일부에 착용되어 동작할 수 있다. 웨어러블 장치는 사용자의 신체의 일부에 착용된 상태에서 사용자의 생체 정보를 식별하고, 사용자의 생체 정보에 기반하여 서비스를 제공할 수 있다. 예를 들어, 웨어러블 장치는 복수의 센서들을 이용하여 사용자의 생체 정보를 식별할 수 있다. 웨어러블 장치는 식별된 사용자의 생체 정보에 기반하여, 사용자의 다양한 활동 상태를 식별할 수 있다.
일 실시 예에 따르면, 웨어러블 장치는, 온도 센서, 동공 인식 센서, 뇌파 센서, 카메라, 메모리, 통신 회로, 및 상기 온도 센서, 동공 인식 센서, 뇌파 센서, 상기 카메라, 및 상기 메모리와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 웨어러블 장치와 접촉된 사용자의 머리(head)에 대한 온도를 나타내는 제1 데이터를 상기 온도 센서를 통해 획득하도록 설정될 수 있다. 상기 프로세서는, 제1 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 응급 상태로 인식하도록 설정될 수 있다. 상기 프로세서는, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 상기 카메라를 통해 상기 사용자의 상태가 상기 응급 상태로 인식된 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터, 상기 제1 시점에서 상기 미리 정의된 시간 이후인 제3 시점까지 획득된 제1 콘텐트 및 상기 응급 상태의 상기 인식에 응답하여 활성화된, 상기 동공 인식 센서 및 상기 뇌파 센서를 이용하여 상기 제1 시점으로부터 상기 제3 시점까지 획득된 사용자의 의식 상태에 대한 정보를 상기 메모리 내에 저장하고, 상기 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 손목과 접촉된 제2 웨어러블 장치에게 송신하고, 상기 사용자의 상기 응급 상태를 나타내는 정보 및 상기 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신하라는 제2 요청을 제1 외부 전자 장치에게 송신하도록 설정될 수 있다. 상기 프로세서는, 상기 제1 기준 범위와 다른 제2 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 위험 모니터링 상태로 인식하도록 설정될 수 있다. 상기 프로세서는, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 카메라를 통해 상기 사용자의 상태가 상기 위험 모니터링 상태로 인식된 제4 시점으로부터, 상기 제4 시점에서 상기 미리 정의된 시간 이후의 제5 시점까지 획득된 제2 콘텐트를 상기 메모리 내에 저장하고, 발생 가능한 위험을 경고함을 나타내는 정보를 제공하고, 상기 제1 요청을 상기 제2 웨어러블 장치에게 송신하고, 상기 제1 요청에 대한 응답으로 상기 제2 데이터를 상기 제2 웨어러블 장치로부터 수신하고, 상기 제1 데이터 및 상기 제2 데이터를 이용하여, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경되는지 여부를 식별하도록 설정될 수 있다.
일 실시 예에 따르면, 웨어러블 장치의 방법은, 상기 웨어러블 장치와 접촉된 사용자의 머리(head)에 대한 온도를 나타내는 제1 데이터를 상기 웨어러블 장치의 온도 센서를 통해 획득하는 동작을 포함할 수 있다. 상기 방법은, 제1 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 응급 상태로 인식하는 동작을 포함할 수 있다. 상기 방법은, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 상기 웨어러블 장치의 카메라를 통해 상기 사용자의 상태가 상기 응급 상태로 인식된 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터, 상기 제1 시점에서 상기 미리 정의된 시간 이후인 제3 시점까지 획득된 제1 콘텐트 및 상기 응급 상태의 상기 인식에 응답하여 활성화된, 상기 웨어러블 장치의 동공 인식 센서 및 상기 웨어러블 장치의 뇌파 센서를 이용하여 상기 제1 시점으로부터 상기 제3 시점까지 획득된 사용자의 의식 상태에 대한 정보를 상기 웨어러블 장치의 메모리 내에 저장하고, 상기 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 손목과 접촉된 제2 웨어러블 장치에게 송신하고, 상기 사용자의 상기 응급 상태를 나타내는 정보 및 상기 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신하라는 제2 요청을 제1 외부 전자 장치에게 송신하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 기준 범위와 다른 제2 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 위험 모니터링 상태로 인식하는 동작을 포함할 수 있다. 상기 방법은, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 카메라를 통해 상기 사용자의 상태가 상기 위험 모니터링 상태로 인식된 제4 시점으로부터, 상기 제4 시점에서 상기 미리 정의된 시간 이후의 제5 시점까지 획득된 제2 콘텐트를 상기 메모리 내에 저장하고, 발생 가능한 위험을 경고함을 나타내는 정보를 제공하고, 상기 제1 요청을 상기 제2 웨어러블 장치에게 송신하고, 상기 제1 요청에 대한 응답으로 상기 제2 데이터를 상기 제2 웨어러블 장치로부터 수신하고, 상기 제1 데이터 및 상기 제2 데이터를 이용하여, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경되는지 여부를 식별하는 동작을 포함할 수 있다.
도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는, 일 실시 예에 따른, 웨어러블 장치를 도시하는 투시도의 예이다.
도 3은, 일 실시 예에 따른, 웨어러블 장치의 간소화된 블록도(simplified block diagram)이다.
도 4는, 일 실시 예에 따른, 웨어러블 장치의 센서의 구체적인 예를 도시한다.
도 5a는 일 실시 예에 따른, 웨어러블 장치가 동작되는 환경의 예를 도시한다.
도 5b는 일 실시 예에 따른, 웨어러블 장치가 동작되는 환경의 예를 도시한다.
도 6은 일 실시 예에 따른, 웨어러블 장치 내의 데이터 처리 과정의 예를 도시한다.
도 7a는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 7b는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 7c는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 7d는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 8은, 일 실시 예에 따른 웨어러블 장치의 동작을 도시하는 흐름도이다.
도 9a는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 9b는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 10은, 일 실시 예에 따른 웨어러블 장치의 동작을 도시하는 흐름도이다.
도 11은, 일 실시 예에 따른 웨어러블 장치의 동작을 도시하는 흐름도이다.
도 12는, 일 실시 예에 따른 웨어러블 장치의 동작을 도시하는 흐름도이다.
도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나 와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는, 일 실시 예에 따른, 웨어러블 장치를 도시하는 투시도의 예이다.
도 2를 참조하면, 웨어러블 장치(200)는 도 1의 전자 장치(101)에 포함된 구성들 중 적어도 일부를 포함할 수 있다.
일 실시 예에서, 웨어러블 장치(200)의 프레임(270)은, 사용자의 신체의 일부 상에 착용되는 물리적 구조를 가질 수 있다. 예를 들면, 프레임(270)은, 웨어러블 장치(200)가 착용될 시, 디스플레이(240) 내의 제1 디스플레이(240-1)가 사용자의 우안 앞에 위치되고 디스플레이(240) 내의 제2 디스플레이(240-2)가 사용자의 좌안 앞에 위치되도록, 구성될 수 있다.
일 실시예에서, 제1 디스플레이(240-1) 및 제2 디스플레이(240-2)를 포함하는 디스플레이(240)는, LCD(liquid crystal display), DMD(digital mirror device), LCoS(liquid crystal on silicon), OLED(organic light emitting diode), 또는 마이크로 LED를 포함할 수 있다. 일 실시예에서, 디스플레이(240)가 LCD, DMD, 또는 LCoS로 구성되는 경우, 웨어러블 장치(200)는 디스플레이(240)의 표시 영역을 향해 빛을 방출하는(emit) 광원(도 2b 내에서 미도시)을 포함할 수 있다. 일 실시예에서, 디스플레이(240)가 OLED 또는 마이크로 LED로 구성되는 경우, 웨어러블 장치(200)는, 광원을 포함하지 않을 수 있다. 하지만, 이에 제한되지 않는다.
일 실시예에서, 웨어러블 장치(200)는, 제1 투명 부재(280-1) 및 제2 투명 부재(280-2)를 더 포함할 수 있다. 예를 들면, 제1 투명 부재(280-1) 및 제2 투명 부재(280-2) 각각은, 글래스 플레이트, 플라스틱 플레이트, 또는 폴리머로 형성될 수 있다. 예를 들면, 제1 투명 부재(280-1) 및 제2 투명 부재(280-2) 각각은, 투명하거나 반투명할 수 있다.
일 실시예에서, 웨어러블 장치(200)는, 웨이브가이드(waveguide)(272)를 포함할 수 있다. 예를 들면, 웨이브가이드(272)는 디스플레이(240)에 의해 생성된 광원을 웨어러블 장치(200)를 착용한 사용자의 눈으로 전달하기 위해, 이용될 수 있다. 예를 들면, 웨이브가이드(272)는, 글래스, 플라스틱, 또는 폴리머로 형성될 수 있다. 예를 들면, 웨이브가이드(272)는, 다각형 또는 곡면 형상의 격자 구조로 구성되는(configured with) 나노 패턴을 웨이브가이드(272) 내에서 또는 웨이브가이드(272)의 표면에서 포함할 수 있다. 예를 들면, 웨이브가이드(272)의 일 단으로 입사된 광은, 상기 나노 패턴을 통해 사용자에게 제공될 수 있다. 일 실시예에서, 웨이브가이드(272)는 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 예를 들면, 적어도 하나의 회절 요소 또는 반사 요소는, 광을 사용자의 눈으로 유도하기 위해 이용될 수 있다. 일 실시예에서, 상기 적어도 하나의 회절 요소는, 입력 광학 부재 및/또는 출력 광학 부재를 포함할 수 있다. 일 실시예에서, 입력 광학 부재는 광의 입력단으로 이용되는 입력 그레이팅 영역(input grating area)를 의미할 수 있으며, 출력 광학 부재는 광의 출력단으로 이용되는 출력 그레이팅 영역(output grating area)를 의미할 수 있다. 일 실시예에서, 반사 요소는 전반사(total internal reflection, TIR)를 위한 전반사 광학 소자 또는 전반사 웨이브가이드를 포함할 수 있다.
일 실시예에서, 웨어러블 장치(200) 내의 카메라(230)는, 제1 카메라(230-1), 제2 카메라(230-2), 및/또는 제3 카메라(230-3)를 포함할 수 있다. 예를 들어, 제1 카메라(230-1), 제2 카메라(230-2), 및/또는 제3 카메라(230-3)는 각각 적어도 하나의 카메라로 구성될 수 있다.
일 실시예에서, 제1 카메라(230-1)는, HR(high resolution) 또는 PV(photo video) 카메라로 참조되고, AF(auto focusing) 기능 또는 OIS(optical image stablilization) 기능을 제공할 수 있다. 일 실시예에서, 제1 카메라(230-1)는 GS 카메라 또는 RS(remote shutter) 카메라로 구성될 수 있다.
일 실시예에서, 제2 카메라(230-2)는, 3DoF(three degrees of freedom) 또는 6DoF(six degrees of freedom)의 움직임 인식 또는 공간 인식을 위해 이용될 수 있다. 예를 들면, 제2 카메라(230-2)는 헤드 트랙킹(head tracking) 또는 손 검출(hand detection)을 위해 이용될 수 있다. 예를 들면, 제2 카메라(230-2)는 GS(global shutter) 카메라로 구성될 수 있다. 예를 들면, 제2 카메라(230-2)는 스테레오 카메라로 구성될 수 있다. 예를 들면, 제2 카메라(230-2)는 제스처 인식을 위해 이용될 수 있다. 예를 들면, 제2 카메라(230-2)는 사용자의 신체의 일부(예를 들어, 입)에 대한 정보를 식별할 수 있다. 일 예로, 제2 카메라(230-2)는 사용자의 신체의 일부의 움직임에 대한 정보를 식별할 수 있다.
일 실시예에서, 제3 카메라(230-3)는, 눈동자(pupil)를 검출하고 추적하기 위해 이용될 수 있다. 예를 들면, 제3 카메라(230-3)는 GS 카메라로 구성될 수 있다. 예를 들면, 제3 카메라(230-3)는 사용자의 시선에 의해 정의되는 사용자 입력을 식별하기 위해 이용될 수 있다.
일 실시예에서, 웨어러블 장치(200)는, LED 부(274)를 더 포함할 수 있다. 예를 들면, LED 부(274)는 제3 카메라(230-3)를 통해 눈동자를 추적하는 것을 보조하기 위해, 이용될 수 있다. 예를 들면, LED 부(274)는, IR LED로 구성될 수 있다. 예를 들면, LED 부(274)는, 웨어러블 장치(200) 주변의 조도가 낮을 시, 밝기를 보상하기 위해 이용될 수 있다.
일 실시예에서, 웨어러블 장치(200)는, 제1 PCB(276-1) 및 제2 PCB(276-2)를 더 포함할 수 있다. 예를 들면, 제1 PCB(276-1) 및 제2 PCB(276-2) 각각은, 카메라(230) 또는 디스플레이(240)와 같은 웨어러블 장치(200)의 구성 요소에게 전기 신호를 전달하기 위해 이용될 수 있다. 일 실시예에서, 웨어러블 장치(200)는, 제1 PCB(276-1) 및 제2 PCB(276-2) 사이에 배치되는 인터포저(interposer)를 더 포함할 수 있다. 하지만, 이에 제한되지 않는다.
일 실시 예에 따르면, 웨어러블 장치(예를 들어, 도 2의 웨어러블 장치(200))는 다양한 형태(예: 시계, 안경, 밴드)로 사용자에게 착용됨으로써, 사용자의 생체 신호를 모니터링할 수 있다. 웨어러블 장치는 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 웨어러블 장치는 사용자의 생체 신호에 대한 데이터에 기반하여 사용자의 다양한 상태들을 식별할 수 있다. 웨어러블 장치는 사용자의 다양한 상태에 따라 지정된 동작을 수행하거나, 외부 전자 장치의 동작을 제어할 수 있다. 이하 명세서에서는, 사용자의 다양한 상태를 식별하고, 이에 따른 동작을 수행하기 위한 웨어러블 장치의 동작의 예가 설명될 것이다.
도 3은, 일 실시 예에 따른, 웨어러블 장치의 간소화된 블록도(simplified block diagram)이다.
도 3을 참조하면, 웨어러블 장치(300)는 도 1의 전자 장치(101) 및/또는 도 2의 전자 장치(200)에 상응할 수 있다. 웨어러블 장치(300)는 프로세서(310), 센서(320), 카메라(330), 메모리(340), 및/또는 통신 회로(350)를 포함할 수 있다. 실시 예에 따라, 웨어러블 장치(300)는 프로세서(310), 센서(320), 카메라(330), 메모리(340), 및 통신 회로(350) 중 적어도 하나를 포함할 수 있다. 예를 들어, 프로세서(310), 센서(320), 카메라(330), 메모리(340), 및 통신 회로(350) 중 적어도 일부는 실시 예에 따라 생략될 수 있다.
일 실시 예에 따르면, 프로세서(310)는 도 1의 프로세서(120)에 상응할 수 있다. 프로세서(310)는 센서(320), 카메라(330), 메모리(340), 및 통신 회로(350)와 작동적으로(operatively 또는 operably) 결합하거나(coupled with), 연결될(connect with) 수 있다. 프로세서(310)가 센서(320), 카메라(330), 메모리(340), 및 통신 회로(350)와 작동적으로 결합하거나, 연결된다는 것은, 프로세서(410)가 센서(320), 카메라(330), 메모리(340), 및 통신 회로(350)를 제어할 수 있음을 의미할 수 있다. 예를 들어, 센서(320), 카메라(330), 메모리(340), 및 통신 회로(350)는 프로세서(310)에 의해 제어될 수 있다.
일 실시 예에 따르면, 프로세서(310)는 적어도 하나의 프로세서로 구성될 수 있다. 프로세서(310)는 적어도 하나의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(310)는 고성능의 처리를 수행하는 메인 프로세서 및 저전력의 처리를 수행하는 보조 프로세서로 구성될 수 있다. 센서(320) 중 적어도 일부는 보조 프로세서에 연결될 수 있다. 보조 프로세서에 연결된 센서 중 적어도 일부는 24 시간 동안 사용자에 대한 데이터를 획득할 수 있다. 일 실시 예에 따르면, 웨어러블 장치(300)의 상태 및/또는 동작에 따라, 메인 프로세서 및 보조 프로세서 중 하나가 활성화될 수 있다. 예를 들어, 웨어러블 장치(300)의 배터리가 부족한 상태에서, 보조 프로세서가 활성화될 수 있다. 예를 들어, 사용자에 관한 정확한 데이터가 요구되는 상태에서, 메인 프로세서가 활성화될 수 있다.
일 실시 예에 따르면, 프로세서(310)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPGA(field programmable gate array) 및/또는 CPU(central processing unit)를 포함할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는 센서(320)를 포함할 수 있다. 센서(320)는 사용자에 관한 다양한 정보를 획득하기 위해 사용될 수 있다. 센서(320)는 사용자의 신체에 관한 데이터를 획득하기 위해 사용될 수 있다. 예를 들어, 센서(320)는 사용자의 체온에 관한 데이터, 사용자의 모션에 관한 데이터, 동공의 움직임에 관한 데이터, 및/또는 뇌파에 관한 데이터를 획득하기 위해 사용될 수 있다. 예를 들어, 센서(320)는 적어도 하나의 센서로 구성될 수 있다. 센서(320)는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서(320)는 도 1의 센서 모듈(176)에 상응할 수 있다.
예를 들어, 센서(320)는 온도 센서(또는 체온 센서), 동공 인식 센서, 뇌파 센서, 및 관성 센서 중 적어도 하나를 포함할 수 있다. 온도 센서, 동공 인식 센서, 뇌파 센서, 및 관성 센서를 포함하는 센서(320)의 구체적인 예가 도 4에서 후술될 것이다.
일 실시 예에 따르면, 웨어러블 장치(300)는 카메라(330)를 포함할 수 있다. 예를 들어, 카메라(330)는 적어도 하나의 카메라를 포함할 수 있다. 적어도 하나의 카메라 중 제1 카메라는 외부 환경에 대한 콘텐트(예: 영상 또는 이미지)를 획득하기 위해 사용될 수 있다. 제1 카메라는 도 2에 도시된 제1 카메라(230-1)에 상응할 수 있다. 적어도 하나의 카메라 중 제2 카메라는 사용자의 신체의 일부(예를 들어, 안면 또는 손)에 대한 이미지를 획득하기 위해 사용될 수 있다. 적어도 하나의 카메라 중 제2 카메라는 도 2에 도시된 제2 카메라(230-2)에 상응할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는 메모리(340)를 포함할 수 있다. 메모리(340)는 정보 또는 데이터를 저장하기 위해 사용될 수 있다. 예를 들어, 메모리(340)는 사용자로부터 획득된 데이터를 저장하기 위해 사용될 수 있다. 예를 들어, 메모리(340)는 도 1의 메모리(130)에 상응할 수 있다. 예를 들어, 메모리(340)는 휘발성 메모리 유닛 또는 유닛들일 수 있다. 예를 들어, 메모리(340)는 비휘발성 메모리 유닛 또는 유닛들일 수 있다. 예를 들어, 메모리(340)는 자기 또는 광학 디스크와 같이, 다른 형태의 컴퓨터 판독가능 매체일 수 있다. 예를 들어, 메모리(340)는 프로세서(410)에서 수행되는 동작(예를 들어, 알고리즘 수행 동작)에 기반하여 획득된 데이터를 저장할 수 있다. 예를 들어, 메모리(340)는 센서(430)에서 획득된 데이터를 저장할 수 있다. 일 실시 예에 따르면, 메모리(340)는 버퍼를 포함할 수 있다. 프로세서(310)는 지정된 시간동안 획득된 데이터를 임시적으로 메모리(340) 내에 구성된 버퍼에 저장할 수 있다. 프로세서(310)는 버퍼에 저장된 데이터가 필요한 경우, 저장된 데이터를 사용하거나, 필요하지 않은 경우 버퍼에 저장된 데이터를 삭제할 수 있다. 예를 들어, 버퍼에 저장된 데이터는 일정한 시간이 경과한 후, 삭제되도록 설정될 수 있다.
웨어러블 장치(300)는 통신 회로(350)를 포함할 수 있다. 통신 회로(350)는 도 1의 통신 모듈(190)의 적어도 일부에 상응할 수 있다. 예를 들어, 통신 회로(350)는 다양한 RAT(radio access technology)을 위해 사용될 수 있다. 예를 들어, 통신 회로(350)는 블루투스(bluetooth) 통신 또는 무선 랜(wireless local area network, WLAN) 통신을 수행하기 위해 사용될 수 있다. 예를 들어, 통신 회로(350)는 셀룰러 통신을 수행하기 위해 사용될 수 있다. 예를 들어, 프로세서(310)는 통신 회로(350)를 통해 외부 전자 장치와 연결을 수립할 수 있다.
도 4는, 일 실시 예에 따른, 웨어러블 장치의 센서의 구체적인 예를 도시한다.
도 4를 참조하면, 센서(320)는 온도 센서(401), 동공 인식 센서(402), 뇌파 센서(403), 및/또는 관성 센서(404)를 포함할 수 있다.
예를 들어, 온도 센서(401)는 사용자의 체온을 식별하기 위해 사용될 수 있다. 온도 센서(401)는 비접촉식 IR(infrared radiation) 온도 센서 또는 접촉식 온도 센서를 포함할 수 있다. 프로세서(310)는 접촉식 온도 센서가 사용자의 신체의 일부(예를 들어, 관자 놀이(temple))에 접촉한 상태에서, 사물 또는 피부 온도를 측정할 수 있다. 접촉식 온도 센서는 써모 커플(thermocouple), 저항 온도 감지기(resistance temperature detector), 및 써미스터(thermistor)를 포함할 수 있다. 프로세서(310)는 사용자의 신체의 일부와 이격되어 배치된 비접촉식 IR 온도 센서를 통해, 적외선 광에 기반하여 온도를 측정할 수 있다.
예를 들어, 동공 인식 센서(402)는 사용자의 동공에 대한 데이터를 획득하기 위해 사용될 수 있다. 동공 인식 센서(402)는 사용자의 시선 또는 동공 크기를 식별하기 위해 이용되는 카메라 및/또는 홍채 인식을 위한 센서를 포함할 수 있다. 예를 들어, 동공 인식 센서(402)는 도 2의 제3 카메라(230-3)에 상응할 수 있다.
예를 들어, 뇌파 센서(403)(또는 EEG(electroencephalogram) 센서)는 사용자의 뇌파(electroencephalogram)를 전기적으로 검출하기 위해 사용될 수 있다. 뇌파 센서(403)는 적어도 하나의 전극을 포함할 수 있다. 예를 들어, 뇌파 센서(403)의 적어도 하나의 전극은 사용자의 머리(또는 관자놀이)에 접촉될 수 있다. 프로세서(310)는 뇌파 센서(403)를 이용하여, 사용자의 뇌의 활동 상태에 따라 일어나는 전위 변화를 식별할 수 있다.
예를 들어, 관성 센서(404)는 가속도 센서 및/또는 자이로 센서를 포함할 수 있다. 예를 들어, 관성 센서(404)는 x축, y축, 및 z축의 3 방향으로 웨어러블 장치(300)의 가속도를 식별(또는 측정(measure), 감지(detect))함으로써, 웨어러블 장치(300)(또는 사용자)의 모션을 식별할 수 있다. 예를 들어, 관성 센서(404)는 x축, y축, 및 z축의 3 방향으로 웨어러블 장치(300)의 각속도를 식별(또는 측정, 감지)함으로써, 웨어러블 장치(300)(또는 사용자)의 모션을 식별할 수 있다.
도 4에 도시된 센서들(예: 온도 센서(401), 동공 인식 센서(402), 뇌파 센서(403), 관성 센서(404))은 예시적인 것이며, 센서(320)는 사용자의 생체 데이터를 획득하기 위한 센서들을 더 포함할 수 있다. 센서(320)는 혈압, 심전도, HRV(heart rate variability), HRM(heart rate monitor), PPG(photoplethysmography), 수면 구간, 피부 온도, 심박, 혈류량, 혈당, 산소포화도, 맥파, 및 ECG(electrocardiogram) 중 적어도 하나를 식별(또는 검출)하기 위해 사용될 수 있다. 예를 들어, 프로세서(310)는 센서(320)를 통해, PPG 또는 ECG에 기반하여, 생체 신호의 파형을 획득할 수 있다. 예를 들어, 생체 신호는 광맥파, 맥파, 또는 심전도를 포함할 수 있다. 프로세서(310)는 생체 신호의 파형에 기반하여, 혈압, HRV, HRM, 피부 온도, 혈류량, 혈당, 산소 포화도 중 적어도 하나를 식별할 수 있다.
도 5a는 일 실시 예에 따른, 웨어러블 장치가 동작되는 환경의 예를 도시한다.
도 5b는 일 실시 예에 따른, 웨어러블 장치가 동작되는 환경의 예를 도시한다.
도 5a를 참조하면, 웨어러블 장치(300)는 외부 전자 장치(예: 제2 웨어러블 장치)와 연결(또는 연동)되지 않은 상태에서, 독립적으로 동작할 수 있다. 예를 들어, 웨어러블 장치(300)의 프로세서(310)는 관성 신호 검출 모듈(361)(예: 관성 센서(404))를 이용하여, 웨어러블 장치(300)(또는 사용자)의 모션에 대한 데이터를 획득할 수 있다. 웨어러블 장치(300)의 프로세서(310)는 생체 신호 검출 모듈(364)(예: 온도 센서(401), 동공 인식 센서(402), 뇌파 센서(403))를 이용하여, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 프로세서(310)는 웨어러블 장치(300)의 모션에 대한 데이터 및 사용자의 생체 신호에 대한 데이터를 메모리(340)에 저장할 수 있다. 프로세서(310)는 웨어러블 장치(300)의 모션에 대한 데이터 및 사용자의 모션에 대한 데이터에 기반하여, 미리 정의된 동작을 수행할 수 있다. 일 예로, 프로세서(310)는 웨어러블 장치(300)의 모션에 대한 데이터 및 사용자의 모션에 대한 데이터에 기반하여, 네트워크를 통해 외부 전자 장치와 통신을 수행할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는 관성 신호 검출 모듈(361), 음성 신호 입출력(I/O) 모듈(362), 영상 신호 입출력 모듈(363), 및/또는 생체 신호 검출 모듈(364)을 포함할 수 있다. 예를 들어, 관성 신호 검출 모듈(361)은 관성 센서(404)를 포함할 수 있다. 음성 신호 입출력 모듈(362)은 마이크 및/또는 스피커를 포함할 수 있다. 영상 신호 입출력 모듈(363)은 카메라 및/또는 디스플레이를 포함할 수 있다. 생체 신호 검출 모듈(364)은 온도 센서(401), 동공 인식 센서(402), 뇌파 센서(403), PPG(photoplethysmography) 센서, 및/또는 안구 전도(electro-ocular graph, EOG) 센서를 포함할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 관성 신호 처리 모듈(311), 음성 신호 처리 모듈(312), 영상 신호 처리 모듈(313), 및/또는 생체 신호 처리 모듈(314)을 포함할 수 있다. 프로세서(310)는 관성 신호 처리 모듈(311)을 이용하여, 관성 신호 검출 모듈(361)로부터 획득된 데이터를 처리할 수 있다. 프로세서(310)는 음성 신호 처리 모듈(312)을 이용하여, 음성 신호 입출력 모듈(362)로부터 획득된 데이터를 처리할 수 있다. 프로세서(310)는 영상 신호 처리 모듈(313)을 이용하여, 영상 신호 입출력 모듈(363)로부터 획득된 데이터를 처리할 수 있다. 프로세서(310)는 생체 신호 처리 모듈(314)을 이용하여, 생체 신호 검출 모듈(364)로부터 획득된 데이터를 처리할 수 있다.
예를 들어, 프로세서(310)는, 사용자의 상태들 중, 정상 상태(normal state)와 응급 상태(예: 사용자에게 낙상이 발생한 상태)를, 관성 센서(404)를 통해 획득된 가속도에 관한 데이터에 기반하여, 구분할 수 있다. 프로세서(310)는 관성 센서(404)를 통해 획득된 각속도에 관한 데이터에 기반하여, 사용자의 보행이 지속되는 상태와 낙상 후 움직임이 정지된 상태를 구분할 수 있다.
예를 들어, 프로세서(310)는 생체 신호 검출 모듈(364)로부터 EOG에 관한 데이터, EEG에 관한 데이터, 및/또는 PPG에 관한 데이터를 획득할 수 있다. 프로세서(310)는, EOG 센서를 이용하여, EOG 센서와 관련된 전극이 사용자의 안구의 주변의 피부에 접촉된 상태에서 EOG에 관한 데이터를 획득할 수 있다. 프로세서(310)는 뇌파 센서(403)를 이용하여, 뇌파 센서(403)와 관련된 전극이 사용자의 이마 또는 관자놀이 부위의 피부에 접촉된 상태에서, EEG에 관한 데이터를 획득할 수 있다. 프로세서(310)는 PPG 센서를 이용하여, PPG에 관한 데이터를 획득할 수 있다. 예를 들어, PPG 센서는 사용자의 귀(또는 귓볼)에서의 PPG에 관한 데이터를 획득하기 위해, 미리 정의된 파장의 빛을 방출(emit)하기 위한 발광부 및 반사된 빛을 검출(detect)하기 위한 수광부를 포함하는 이어팁 유닛(ear tip unit)을 포함할 수 있다.
도 5b를 참조하면, 웨어러블 장치(300)(예: 제 1 웨어러블 전자 장치)는 외부 전자 장치(520), 및 제2 웨어러블 장치(510)와 연결될 수 있다. 웨어러블 장치(300)는 도 5a에서 도시된 웨어러블 장치(300)와 달리, 외부 전자 장치(예: 외부 전자 장치(520), 제2 웨어러블 장치(510))와 연결(또는 연동)된 상태에서 동작할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는 음성 신호 입출력(I/O) 모듈(362) 및/또는 영상 신호 입출력 모듈(363)을 포함할 수 있다. 음성 신호 입출력 모듈(362)은 마이크 및/또는 스피커를 포함할 수 있다. 영상 신호 입출력 모듈(363)은 카메라 및/또는 디스플레이를 포함할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 음성 신호 처리 모듈(312) 및/또는 영상 신호 처리 모듈(313)을 포함할 수 있다. 프로세서(310)는 음성 신호 처리 모듈(312)을 이용하여, 음성 신호 입출력 모듈(362)로부터 획득된 데이터를 처리할 수 있다. 프로세서(310)는 영상 신호 처리 모듈(313)을 이용하여, 영상 신호 입출력 모듈(363)로부터 획득된 데이터를 처리할 수 있다.
일 실시 예에 따르면, 제2 웨어러블 장치(510)는 사용자의 신체의 일부(예: 손 또는 손목)에 착용된 상태로 동작할 수 있다. 제2 웨어러블 장치(510)는 심박수에 대한 데이터, 혈압에 대한 데이터 및/또는 심전도에 대한 데이터를 획득할 수 있다. 제2 웨어러블 장치(510)는 관성 센서를 포함할 수 있다. 제2 웨어러블 장치(510)는 제2 웨어러블 장치(510)에 포함된 관성 센서를 이용하여, 제2 웨어러블 장치(510)의 모션에 대한 데이터를 획득할 수 있다. 제2 웨어러블 장치(510)는 심박수에 대한 데이터, 혈압에 대한 데이터, 심전도에 대한 데이터, 제2 웨어러블 장치(510)의 모션에 대한 데이터 중 적어도 하나를 웨어러블 장치(300)에게 송신할 수 있다.
일 실시 예에 따르면, 외부 전자 장치(520)는 제2 외부 전자 장치(예: 서버)와 연결될 수 있다. 예를 들어, 외부 전자 장치(520)는 셀룰러 통신을 이용하여, 제2 외부 전자 장치와 연결될 수 있다. 외부 전자 장치(520)는 웨어러블 장치(300)로부터 사용자의 응급 상태를 나타내는 정보 및/또는 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신하라는 요청을 수신할 수 있다. 외부 전자 장치(520)는 수신된 요청에 기반하여, 사용자의 응급 상태를 나타내는 정보 및/또는 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)의 프로세서(310)는 웨어러블 장치(300)에 포함되지 않은 다양한 데이터를 제2 웨어러블 장치(510) 및/또는 외부 전자 장치(520)으로부터 수신할 수 있다. 예를 들어, 웨어러블 장치(300)에 관성 센서(404)가 포함되지 않은 경우, 관성 센서를 포함하는 제2 웨어러블 장치(510)으로부터 제2 웨어러블 장치(510)(또는 사용자)의 모션에 대한 데이터를 수신할 수 있다. 프로세서(310)는 제2 웨어러블 장치(510) 및/또는 외부 전자 장치(520)로부터 수신된 데이터를 저장하고, 수신된 데이터에 기반하여, 사용자의 상태를 식별(또는 인식)할 수 있다.
도 5a 및 도 5b를 참조하면, 프로세서(310)는 웨어러블 장치(300)(또는 사용자)의 가속도에 대한 데이터에 기반하여, 가속도에 대한 트렌드(또는 그래프)를 식별할 수 있다. 프로세서(310)는 미리 정의된 진폭 이상이고, 불규칙한 패턴으로 구성된 가속도에 대한 트렌드를 식별할 수 있다. 프로세서(310)는 미리 정의된 진폭 이상이고, 불규칙한 패턴으로 구성된 가속도에 대한 트렌드에 기반하여, 사용자의 상태가 응급 상태(또는 사용자에게 낙상이 발생된 상태)임을 식별할 수 있다. 또한, 프로세서(310)는 웨어러블 장치(300)(또는 사용자)의 가속도에 대한 데이터 뿐만 아니라, 음성 신호에 대한 데이터 및/또는 영상 신호에 대한 데이터에 기반하여, 사용자의 상태가 응급 상태임을 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 복수의 파라미터들에 의해 지시되는 미리 정의된 모델의 입력 값으로, 가속도에 대한 데이터, 음성 신호에 대한 데이터 및 영상 신호에 대한 데이터 중 적어도 하나를 설정함으로써, 사용자의 상태를 식별할 수 있다. 예를 들어, 미리 정의된 모델은, 뉴럴 네트워크와 관련된 복수의 파라미터들에 의해 지시될 수 있다. 미리 정의된 모델은 뉴럴 네트워크와 관련된 파라미터들의 집합을 포함할 수 있다. 뉴럴 네트워크는, 많은 수의 인공 뉴런(또는, 노드)들을 이용하여 생물학적인 시스템의 계산 능력을 모방하는 소프트웨어나 하드웨어로 구현된 인식 모델이다. 뉴럴 네트워크는 인공 뉴런들을 통해 인간의 인지 작용이나 학습 과정을 수행할 수 있다. 예를 들어, 뉴럴 네트워크와 관련된 파라미터들은, 뉴럴 네트워크에 포함된 복수의 노드들 및/또는 상기 복수의 노드들 사이의 연결에 할당되는(assigned) 가중치를 나타낼 수 있다.
도 6은 일 실시 예에 따른, 웨어러블 장치 내의 데이터 처리 과정의 예를 도시한다.
도 6을 참조하면, 프로세서(310)는, 웨어러블 장치(300) 및 외부 전자 장치(610)의 다양한 컴포넌트들을 통해 획득된 데이터를 처리할 수 있다. 도 6에 도시된 웨어러블 장치(300) 및 외부 전자 장치(610)의 구성은 예시적인 것이며, 실시 예에 따라, 웨어러블 장치(300) 및 외부 전자 장치(610)가 다르게 구성될 수 있다.
일 실시 예에 따르면, 프로세서(310)는 영상 신호 처리 모듈(313)을 이용하여, 웨어러블 장치(300)에 포함된 카메라(330)를 통해 획득된 영상 신호에 대한 데이터 및/또는 외부 전자 장치(610)(예: 도 5b의 제2 웨어러블 장치(510), 외부 전자 장치(520))에 포함된 카메라(미도시)를 통해 획득된 영상 신호에 대한 데이터를 처리할 수 있다. 예를 들어, 프로세서(310)는 영상 신호 처리 모듈(313)을 이용하여, 사용자의 행동을 식별할 수 있다. 일 예로, 프로세서(310)는 영상 신호 처리 모듈(313)을 이용하여, 사용자가 걷고 있음을 식별할 수 있다. 일 예로, 프로세서(310)는 영상 신호 처리 모듈(313)을 이용하여, 사용자가 쉬고 있음을 식별할 수 있다. 일 예로, 프로세서(310)는 영상 신호 처리 모듈(313)을 이용하여, 사용자가 넘어졌음을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 식별된 사용자의 행동에 관한 정보, 카메라(330)를 통해 획득된 영상 신호에 대한 데이터, 및/또는 카메라(미도시)를 통해 획득된 영상 신호에 대한 데이터를 버퍼(620)에 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 음성 신호 처리 모듈(312)을 이용하여, 웨어러블 장치(300)에 포함된 마이크(601)를 통해 획득된 음성 신호에 대한 데이터 및/또는 외부 전자 장치(610)에 포함된 마이크(611)를 통해 획득된 음성 신호에 대한 데이터를 처리할 수 있다. 프로세서(310)는 음성 신호 처리 모듈(312)을 이용하여, 사용자의 음성 상태를 식별할 수 있다. 예를 들어, 프로세서(310)는 음성 신호 처리 모듈(312)을 이용하여, 사용자의 음성이 정상적인 상태임을 식별할 수 있다. 예를 들어, 프로세서(310)는 음성 신호 처리 모듈(312)을 이용하여, 사용자의 음성이 비정상적인 상태임을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 사용자의 음성 상태에 대한 정보, 마이크(601)를 통해 획득된 음성 신호에 대한 데이터 및 마이크(611)를 통해 획득된 음성 신호에 대한 데이터를 버퍼(620)에 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 관성 신호 처리 모듈(311)을 이용하여, 웨어러블 장치(300)에 포함된 관성 센서(404)를 통해 획득된 웨어러블 장치(300)(또는 사용자)의 모션(또는 관성 신호)에 대한 데이터 및/또는 외부 전자 장치(610)에 포함된 관성 센서(612)를 통해 획득된 외부 전자 장치(610)(또는 사용자)의 모션에 대한 데이터를 처리할 수 있다. 예를 들어, 프로세서(310)는 관성 신호 처리 모듈(311)을 이용하여, 사용자의 행동을 식별할 수 있다. 일 예로, 프로세서(310)는 관성 신호 처리 모듈(311)을 이용하여, 사용자가 걷고 있음을 식별할 수 있다. 일 예로, 프로세서(310)는 관성 신호 처리 모듈(311)을 이용하여, 사용자가 쉬고 있음을 식별할 수 있다. 일 예로, 프로세서(310)는 관성 신호 처리 모듈(311)을 이용하여, 사용자가 넘어졌음을 식별할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 식별된 사용자의 행동에 관한 정보, 관성 센서(404)를 통해 획득된 웨어러블 장치(300)(또는 사용자)의 모션에 대한 데이터 및 관성 센서(612)를 통해 획득된 외부 전자 장치(610)(또는 사용자)의 모션에 대한 데이터를 버퍼(620)에 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 웨어러블 장치(300)에 포함된 GPS 회로(602)를 통해 획득된 웨어러블 장치(300)의 위치에 대한 데이터 및/또는 외부 전자 장치(610)에 포함된 GPS 회로(613)를 통해 획득된 외부 전자 장치의 위치에 대한 데이터를 버퍼(620)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 웨어러블 장치(300)에 포함된 뇌파 센서(403)를 통해 획득된 사용자의 뇌파에 대한 데이터를 버퍼(620)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 외부 전자 장치(610)에 포함된 PPG 센서(614)를 통해 획득된 사용자의 심박에 대한 데이터를 버퍼(620)에 저장할 수 있다.
일 실시 예에 따르면, 영상 신호 처리 모듈(313), 음성 신호 처리 모듈(312), 관성 신호 처리 모듈(311), 및 버퍼(620)는 웨어러블 장치(300)의 프로세서(310) 내에 포함될 수 있다. 일 실시 예에 따르면, 영상 신호 처리 모듈(313), 음성 신호 처리 모듈(312), 관성 신호 처리 모듈(311), 및 버퍼(620) 중 적어도 일부는 제2 외부 전자 장치(예: 서버)에 포함될 수 있다.
일 실시 예에 따르면, 프로세서(310)는 버퍼(620)에 저장된 데이터를 미리 지정된 시간이 경과한 뒤 삭제할 수 있다. 프로세서(310)는 미리 지정된 시간 내에 사용되지 않은 데이터를 삭제할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 버퍼(620)에 저장된 데이터를 이용하여, 상시 모니터링(continuous monitoring) 동작을 수행할 수 있다. 예를 들어, 프로세서(310)는 버퍼(620)에 저장된 영상 신호에 대한 데이터, 버퍼(620)에 저장된 음성 신호에 대한 데이터, 버퍼(620)에 저장된 모션(또는 관성 신호)에 대한 데이터를 이용하여, 상시 모니터링 동작을 수행할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 버퍼(620)에 저장된 데이터를 이용하여, 주기적 모니터링(periodic monitoring) 동작을 수행할 수 있다. 예를 들어, 프로세서(310)는 사용자의 생체 데이터(예: 뇌파에 대한 데이터, 심박에 대한 데이터)를 이용하여, 주기적 모니터링(periodic monitoring) 동작을 수행할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 버퍼(620)에 저장된 데이터를 이용하여, 수동 모니터링(manual monitoring) 동작을 수행할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 모니터링 동작(예: 상시 모니터링 동작, 주기적 모니터링 동작, 수동 모니터링 동작)을 수행함으로써, 사용자의 상태를 정상 상태, 위험 모니터링 상태, 및 응급 상태 중 하나로 식별할 수 있다. 예를 들어, 정상 상태는, 사용자가 일상 생활을 수행하는 동안, 특별한 문제(또는 이벤트)가 발생되지 않은 상태를 의미할 수 있다. 위험 모니터링 상태는, 사용자에게 긴급함이 요구되는 응급 상태는 아니나, 위험이 예상되는 증상 또는 이벤트가 식별되는 상황을 의미할 수 있다. 응급 상태는, 사용자의 의지와 무관하게 낙상, 심 정지 등의 돌발적인 위험(accidental risk)이 식별된 상태를 의미할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 관성 센서(404)를 통해 획득된 모션(또는 관성 신호)에 대한 데이터를 이용하여, 복수의 파라미터들에 의해 지시되는 미리 정의된 모델을 학습시킬 수 있다. 예를 들어, 미리 정의된 모델은, 뉴럴 네트워크와 관련된 복수의 파라미터들에 의해 지시될 수 있다. 미리 정의된 모델은 뉴럴 네트워크와 관련된 파라미터들의 집합을 포함할 수 있다. 예를 들어, 뉴럴 네트워크와 관련된 파라미터들은, 뉴럴 네트워크에 포함된 복수의 노드들 및/또는 상기 복수의 노드들 사이의 연결에 할당되는(assigned) 가중치를 나타낼 수 있다.
상기 학습(또는 기계 학습)에 따라 프로세서(310)에 의해 식별되는 사용자의 상태의 신뢰도가 향상될 수 있다. 일 실시 예에 따르면, 프로세서(310)는 관성 센서(404)(예: 가속도 센서, 자이로 센서)를 이용하여, 사용자의 급격한 행동 변화에 대한 이벤트를 식별할 수 있다. 예를 들어, 프로세서(310)는 관성 센서(404)를 이용하여, 사용자가 앉은 상태에서 일어서는 이벤트, 일어선 상태에서 걷기 시작하는 이벤트 및 걷는 상태에서 뛰기 시작하는 이벤트를 식별할 수 있다. 실시 예에 따라, 프로세서(310)는 사용자의 급격한 행동 변화에 대한 이벤트를 식별하기 위해, 기본적으로 가속도 센서를 이용하고, 상보적으로, 자이로 센서를 이용할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 웨어러블 장치(300)의 다양한 컴포넌트들(예: 센서(320), 카메라(330))를 이용하여 획득된 데이터에 기반하여, 사용자의 상태를 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태와 관련된 이벤트가 발생함을 식별할 수 있다. 프로세서(310)는 발생된 이벤트에 대해, 생체 신호 및/또는 식별(검출) 가능한 데이터들을 모니터링할 수 있다. 프로세서(310)는 발생된 이벤트에 대한 시각 신호를 모니터링하고, 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태가 정상 상태임을 식별할 수 있다. 사용자의 상태가 정상 상태인 동안, 프로세서(310)는 관성 센서(404) 중 가속도 센서를 이용하여, 사용자의 상태와 관련된 이벤트의 발생 시점을 식별할 수 있다. 또한, 프로세서(310)는 정적 동작의 미세 변화를 감지하기 위해 자이로 센서를 이용하여, 사용자의 행동 상태 및 상기 이벤트를 모니터링할 수 있다. 예를 들어, 프로세서(310)는 이벤트의 발생 시점에서, 사용자의 생체 신호(예: 체온, 심박수, 혈압) 및 시각 신호를 식별하고 저장(또는 기록(recording))할 수 있다. 프로세서(310)는 사용자의 생체 신호가 제1 기준 범위 또는 제2 기준 범위 내인지 여부를 식별함으로써, 사용자의 상태가 위험 모니터링 상태 및 응급 상태 중 하나로 변경됨을 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 체온이 정상 범위(예: 35.5 도 이상 및 37.5 도 이하) 이내인 것에 기반하여, 사용자의 상태가 정상 상태임을 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 심박수가 정상 범위(예: 50 이상 및 120 이하) 내인 것에 기반하여, 사용자의 상태가 정상 상태임을 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 혈압이 정상 범위(예: 80 [mmHg] 이상 및 120 [mmHg]이하) 이내 인 것에 기반하여, 사용자의 상태가 정상 상태임을 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태가 위험 모니터링 상태임을 식별할 수 있다. 프로세서(310)는 사용자의 생체 신호가 제2 기준 범위 내인지 여부를 식별하는 것에 기반하여, 사용자의 상태가 위험 모니터링 상태임을 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 체온이 정상 범위를 이탈함을 식별하는 것에 기반하여, 사용자의 상태가 위험 모니터링 상태임을 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 심박수가 정상 범위를 이탈함을 식별하는 것에 기반하여, 사용자의 상태가 위험 모니터링 상태임을 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 혈압이 정상 범위를 이탈함을 식별하는 것에 기반하여, 사용자의 상태가 위험 모니터링 상태임을 식별할 수 있다. 프로세서(310)는 사용자의 생체 신호가 제2 기준 범위 이내 인 것을 식별한 제1 시점으로부터 미리 정의된 시간 이전의 제2 시점으로부터, 상기 시점으로부터 미리 정의된 시간 이후의 제3 시점까지의, 사용자의 생체 신호(예: 체온, 심박수, 혈압) 및 시각 신호를 식별하고 저장(또는 기록(recording))할 수 있다.
실시 예에 따라, 프로세서(310)는 시각 신호에 기반하여, 외부 객체가 사용자에게 접근하는 중임을 식별할 수 있다. 프로세서(310)는 외부 객체의 크기 및 속도에 대한 정보를 식별할 수 있다. 프로세서(310)는 외부 객체가 사용자에게 빠른 속도로 다가옴을 식별할 수 있다. 프로세서(310)는 사용자에게 발생가능한 위험을 식별할 수 있다. 실시 예에 따라, 프로세서(310)는 음성 신호에 기반하여, 기준 소음 크기보다 큰 소음이 발생함을 식별할 수 있다. 프로세서(310)는 음성 신호에 기반하여, 사용자에게 발생 가능한 위험을 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태가 응급 상태임을 식별할 수 있다. 예를 들어, 프로세서(310)는 위험 모니터링 상태에서, 생체 신호가 제2 기준 범위로부터 제1 기준 범위로 변경되거나, 제1 기준 범위로 변경된 횟수 또는 시간이 지정된 조건을 만족하는 것에 기반하여, 사용자의 상태를 응급 상태로 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자에게 낙상 또는 충격이 발생하였음을 식별하는 것에 기반하여, 사용자의 상태를 응급 상태로 식별할 수 있다.
예를 들어, 프로세서(310)는 시각 신호 및/또는 음성 신호에 기반하여, 기준 움직임의 크기 이상의 사용자의 모션(예: 넘어짐) 및/또는 기준 크기 이상의 소음의 발생됨 식별하는 것에 기반하여, 사용자의 상태를 응급 상태로 식별할 수 있다.
예를 들어, 프로세서(310)는 사용자의 상태가 응급 상태임에 기반하여, 응급 상태에 관한 이벤트에 대한 데이터를 식별하고 저장할 수 있다. 프로세서(310)는 사용자가 응급 상태임을 나타내는 정보를 외부 전자 장치에게 송신할 수 있다. 프로세서(310)는 사용자가 응급 상태임을 알리기 위한 알림을 제공할 수 있다.
일 실시 예에 따르면, 상술한 사용자의 상태를 식별하기 위한 제1 기준 범위 및 제2 기준 범위는 사용자의 성별, 연령, BMI(body mass index)에 기반하여 설정될 수 있다. 프로세서(310)는 웨어러블 장치(300)의 사용 후 지정된 시간동안 획득된 데이터의 크기가 기계학습을 수행하기에 적절한 경우, 사용자에 대한 데이터에 기반하여, 기계 학습을 이용하여, 제1 기준 범위 및 제2 기준 범위를 설정(또는 업데이트)할 수 있다.
도 7a는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 7b는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 7c는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 7d는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 7a를 참조하면, 웨어러블 장치(300)는 외부 전자 장치와 연결되지 않은 상태에서 독립적으로 동작할 수 있다. 예를 들어, 웨어러블 장치(300)는 네트워크를 통해 외부 전자 장치(예: 서버)와 연결될 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는 온도 센서(401), 카메라(330), 동공 인식 센서(402), 관성 센서(404), 및/또는 PPG 센서를 포함할 수 있다. 예를 들어, 온도 센서(401)와 관련된 적어도 하나의 전극은 웨어러블 장치(300)의 프레임에 배치될 수 있다. 예를 들어, PPG 센서의 이어팁 유닛은 사용자의 귀(또는 귓볼)에 접촉될 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태가 정상 상태인 동안, 관성 센서(404)(예: 가속도 센서, 자이로 센서)를 이용하여, 사용자의 모션(또는 관성 신호)에 대한 데이터를 식별할 수 있다. 프로세서(310)는 사용자의 행동 변화에 대한 이벤트를 식별할 수 있다. 프로세서(310)는 식별된 이벤트의 발생 시점의 사용자의 생체 신호(예: 체온, PPG, 심박수)를 모니터링할 수 있다. 프로세서(310)는 사용자의 생체 신호(예: 체온, PPG, 심박수)가 제1 기준 범위 이내 인 것을 식별하는 것에 기반하여, 사용자의 상태를 응급 상태로 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 생체 신호가 제1 기준 범위로 변경된 횟수 또는 시간이 지정된 조건을 만족하는 것에 기반하여, 사용자의 상태를 응급 상태로 식별할 수 있다. 예를 들어, 프로세서(310)는 관성 센서(404)를 통해 획득된 모션(또는 관성 신호)에 대한 데이터에 기반하여, 사용자에게 낙상이 발생하였음을 식별할 수 있다. 프로세서(310)는 사용자에게 낙상이 발생하였음을 식별하는 것에 기반하여, 사용자의 상태를 응급 상태로 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태를 응급 상태로 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태가 응급 상태인 동안, 응급 상태로의 변경을 야기한 이벤트가 발생된 제1 시점을 식별할 수 있다. 프로세서(310)는 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터 제1 시점에서 미리 정의된 시간 이후인 제3 시점까지, 카메라(330)를 이용하여 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다. 예를 들어, 프로세서(310)는 응급 상황에 대한 경고를 나타내는 정보를 제공할 수 있다. 프로세서(310)는 응급 상황에 대한 경고를 나타내는 정보를 통신 회로(350)를 이용하여, 외부 전자 장치(예: 서버)에 송신할 수 있다. 프로세서(310)는 응급 상황에 대한 경고를 나타내는 정보를 사용자에게 제공할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 생체 신호가 제2 기준 범위 내로 변경됨을 식별하는 것에 기반하여, 사용자의 상태를 위험 모니터링 상태로 식별할 수 있다. 프로세서(310)는 사용자의 상태가 위험 예상 상태인 동안, 위험 예상 상태로의 변경을 야기한 이벤트가 발생된 제4 시점을 식별할 수 있다. 프로세서(310)는 제4 시점에서 미리 정의된 시간 이전인 제5 시점으로부터 제1 시점에서 미리 정의된 시간 이후인 제6 시점까지, 카메라(330)를 이용하여 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다. 실시 예에 따라, 프로세서(310)는 제4 시점으로부터 제6 시점가지, 카메라(330)를 이용하여 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태가 위험 예상 상태인 동안, 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경되는지 여부를 식별할 수 있다. 프로세서(310)는 PPG 센서를 이용하여, 사용자의 심박수 및/또는 심박 변이도를 모니터링함으로써, 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경되는지 여부를 식별할 수 있다. 프로세서(310)는 동공 인식 센서(402)를 이용하여 동공 반응 검사 및/또는 동공 수축/이완 검사를 수행함으로써, 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경되는지 여부를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태를 식별(또는 인식)하기 위해, 웨어러블 장치(300)에 포함된 컴포넌트들을 이용할 수 있다. 프로세서(310)는 사용자의 상태에 따라, 신호(예: 생체 신호, 관성 신호, 시각 신호)의 검출 주기를 변경할 수 있다. 예를 들어, 프로세서(310)는 위험 예상 상태로의 변경을 야기한 이벤트의 전후에 식별된 사용자에 대한 데이터(예: 생체 신호에 대한 데이터, 모션(또는 관성 신호)에 대한 데이터, 시각 신호에 대한 데이터)를 식별하고 저장할 수 있다. 예를 들어, 프로세서(310)는 응급 상태로의 변경을 야기한 이벤트의 전후에 식별된 사용자에 대한 데이터(예: 생체 신호에 대한 데이터, 모션(또는 관성 신호)에 대한 데이터, 시각 신호에 대한 데이터)를 식별하고 저장할 수 있다.
일 실시 예에 따르면, 사용자의 상태에 따른 웨어러블 장치(300)의 컴포넌트들의 동작의 예가 표 1과 같이 설정될 수 있다.
도 7b를 참조하면, 웨어러블 장치(300)는 외부 전자 장치(520)와 연결된 상태에서 동작할 수 있다. 예를 들어, 외부 전자 장치(520)는 사용자의 모션을 식별하기 위한 관성 센서를 포함할 수 있다. 웨어러블 장치(300)의 프로세서(310)는 외부 전자 장치(520)로부터 사용자의 모션에 대한 데이터를 수신할 수 있다. 프로세서(310)는 사용자의 모션에 대한 데이터에 기반하여, 사용자의 상태를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태를 정상 상태로 식별할 수 있다. 프로세서(310)는 사용자의 상태가 정상 상태인 동안, 사용자의 생체 신호를 모니터링할 수 있다. 프로세서(310)는 사용자의 상태가 정상 상태인 동안, 외부 전자 장치(520)를 이용하여, 사용자의 모션에 대한 데이터를 식별할 수 있다. 프로세서(310)는 사용자의 모션에 대한 데이터를 수신함으로써, 사용자의 행동 변화에 대한 이벤트를 식별할 수 있다. 실시 예에 따라, 프로세서(310)는 외부 전자 장치(520)로부터 사용자의 행동 변화에 대한 이벤트가 발생된 시점에 관한 정보를 수신할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태를 응급 상태로 식별할 수 있다. 예를 들어, 사용자의 상태가 응급 상태인 동안의 웨어러블 장치(300)의 동작은 도 7a의 웨어러블 장치(300)의 동작에 상응할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 식별할 수 있다. 예를 들어, 사용자의 상태가 위험 모니터링 상태인 동안의 웨어러블 장치(300)의 동작은 도 7a의 웨어러블 장치(300)의 동작에 상응할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는 외부 전자 장치(520)에 포함된 관성 센서를 이용하여, 사용자의 모션에 대한 데이터를 식별할 수 있다. 프로세서(310)는 사용자의 모션에 대한 데이터를 식별하기 위해 외부 전자 장치(520)를 사용함으로써, 웨어러블 장치(300)의 전력 소모를 감소시킬 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)의 프로세서(310)는 외부 전자 장치(520)에 포함된 컴포넌트들의 동작을 제어함으로써, 사용자의 상태를 식별할 수 있다. 예를 들어, 프로세서(310)는 웨어러블 장치(300)에 포함된 컴포넌트가 외부 전자 장치(520)에도 포함되는 경우, 웨어러블 장치(300)에 포함된 상기 컴포넌트 및 외부 전자 장치(520)에 포함된 상기 컴포넌트 중 적어도 하나를 이용하여, 사용자에 대한 데이터를 식별할 수 있다. 일 예로, 경우, 웨어러블 장치(300)에 포함된 상기 컴포넌트 및 외부 전자 장치(520)에 포함된 상기 컴포넌트가 모두 사용되는 경우, 프로세서(310)는 외부 전자 장치(520) 및 웨어러블 장치(300)에서 각각 획득된 데이터를 결합(또는 비교)함으로써, 더 정확한 데이터를 획득할 수 있다.
일 실시 예에 따르면, 외부 전자 장치(520)는 웨어러블 장치(300)에 비해 대용량의 배터리 및 다양한 센서들을 포함할 수 있다. 따라서, 웨어러블 장치(300)가 외부 전자 장치(520)와 연결(또는 연동)된 상태에서 동작하는 경우, 웨어러블 장치(300)의 소모 전력을 줄이고, 사용자의 상태를 식별할 수 있다. 예를 들어, 외부 전자 장치(520)는 관성 센서 및 조도 센서가 항상 켜진 상태로 동작할 수 있다. 따라서, 사용자가 외부 전자 장치(520)를 휴대하는 동안, 웨어러블 장치(300)를 착용하는 경우, 외부 전자 장치(520)는 사용자의 모션을 실시간으로 감지할 수 있다. 프로세서(310)는, 사용자의 모션에 기반하여 지정된 이벤트가 발생될 경우에만, 웨어러블 장치(300)의 카메라(330)를 활성화하고, 지정된 이벤트 전후의 시각 신호에 대한 데이터를 식별(또는 모니터링)하고, 저장(또는 기록)할 수 있다.
예를 들어, 사용자의 상태에 따른 외부 전자 장치(520)의 컴포넌트들의 동작의 예가 표 2와 같이 설정될 수 있다.
도 7c를 참조하면, 웨어러블 장치(300)는 제2 웨어러블 장치(510)와 연결된 상태에서 동작할 수 있다. 예를 들어, 제2 웨어러블 장치(510)는 생체 신호(예: PPG, 심박수, 체온, 및/또는 혈압)를 식별하기 위한 다양한 컴포넌트들을 포함할 수 있다. 웨어러블 장치(300)의 프로세서(310)는 제2 웨어러블 장치(510)로부터 생체 신호에 대한 데이터를 수신할 수 있다. 프로세서(310)는 생체 신호에 대한 데이터에 기반하여, 사용자의 상태를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태를 정상 상태로 식별할 수 있다. 웨어러블 장치(300) 및 제2 웨어러블 장치(510)는 각각 관성 센서를 이용하여, 사용자의 모션에 대한 데이터를 식별할 수 있다. 웨어러블 장치(300)의 프로세서(310)는 제2 웨어러블 장치(510)으로부터 사용자의 모션에 대한 데이터를 수신할 수 있다. 프로세서(310)는 웨어러블 장치(300)에서 식별된 사용자의 모션에 대한 데이터 및 제2 웨어러블 장치(510)로부터 수신된 사용자의 모션에 대한 데이터에 기반하여, 사용자의 행동 변화에 대한 이벤트를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태를 응급 상태로 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태가 응급 상태인 동안, 응급 상태로의 변경을 야기한 이벤트가 발생된 제1 시점을 식별할 수 있다. 프로세서(310)는 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터 제1 시점에서 미리 정의된 시간 이후인 제3 시점까지, 카메라(330)를 이용하여 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다. 예를 들어, 프로세서(310)는 응급 상황에 대한 경고를 나타내는 정보를 제공할 수 있다. 프로세서(310)는 응급 상황에 대한 경고를 나타내는 정보를 통신 회로(350)를 이용하여, 외부 전자 장치(예: 서버)에 송신할 수 있다. 프로세서(310)는 응급 상황에 대한 경고를 나타내는 정보를 사용자에게 제공할 수 있다.
예를 들어, 제2 웨어러블 장치(510)는 사용자의 상태가 응급 상태인 동안, 제2 시점으로부터 제3 시점까지 사용자의 생체 신호를 식별하기 위한 센서(예: 온도 센서, PPG 센서)를 이용하여, 생체 신호에 대한 데이터를 식별할 수 있다. 제2 웨어러블 장치(510)는 웨어러블 장치(300)에게 생체 신호에 대한 데이터를 송신할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 생체 신호가 제2 기준 범위 내로 변경됨을 식별하는 것에 기반하여, 사용자의 상태를 위험 모니터링 상태로 식별할 수 있다. 프로세서(310)는 사용자의 상태가 위험 예상 상태인 동안, 위험 예상 상태로의 변경을 야기한 이벤트가 발생된 제4 시점을 식별할 수 있다. 프로세서(310)는 제4 시점에서 미리 정의된 시간 이전인 제5 시점으로부터 제1 시점에서 미리 정의된 시간 이후인 제6 시점까지, 카메라(330)를 이용하여 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다.
예를 들어, 제2 웨어러블 장치(510)는 사용자의 상태가 응급 상태인 동안, 제5 시점으로부터 제6 시점까지 사용자의 생체 신호를 식별하기 위한 센서(예: 온도 센서, PPG 센서)를 이용하여, 생체 신호에 대한 데이터를 식별할 수 있다. 제2 웨어러블 장치(510)는 웨어러블 장치(300)에게 생체 신호에 대한 데이터를 송신할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는 사용자의 신체의 제1 부분(예: 머리)에 착용될 수 있다. 제2 웨어러블 장치(510)는 사용자의 신체의 제2 부분(예: 손목)에 착용될 수 있다. 예를 들어, 모션(또는 관성 신호)에 대한 데이터는 웨어러블 장치(300) 및 제2 웨어러블 장치(510)에서 모두 획득될 수 있다. 웨어러블 장치(300)의 프로세서(310)는 연산 동작의 효율성을 증가시키기 위해, 제2 웨어러블 장치(510)에서 모션(또는 관성 신호)에 대한 데이터 및 생체 신호에 대한 데이터를 획득하도록 설정할 수 있다. 프로세서(310)는, 제2 웨어러블 장치(510)에서 모션(또는 관성 신호)에 대한 데이터 및 생체 신호에 대한 데이터가 획득되는 동안, 시간 신호에 대한 데이터를 획득할 수 있다. 프로세서(310)는, 제2 웨어러블 장치(510)가 모션(또는 관성 신호)에 대한 데이터 및 생체 신호에 대한 데이터를 획득하도록 설정함으로써, 소모 전력을 감소 시킬 수 있다.
예를 들어, 사용자의 상태에 따른 제2 웨어러블 장치(510)의 컴포넌트들의 동작의 예가 표 3과 같이 설정될 수 있다.
도 7d를 참조하면, 웨어러블 장치(300)는 제2 웨어러블 장치(510) 및 외부 전자 장치(520)와 연결된 상태에서 동작할 수 있다.
제2 웨어러블 장치(510)는 생체 신호(예: PPG, 심박수, 체온, 및/또는 혈압)를 식별하기 위한 다양한 컴포넌트들을 포함할 수 있다. 웨어러블 장치(300)의 프로세서(310)는 제2 웨어러블 장치(510)로부터 생체 신호에 대한 데이터를 수신할 수 있다. 외부 전자 장치(520)는 사용자의 모션을 식별하기 위한 관성 센서를 포함할 수 있다. 웨어러블 장치(300)의 프로세서(310)는 외부 전자 장치(520)로부터 사용자의 모션에 대한 데이터를 수신할 수 있다. 프로세서(310)는 제2 웨어러블 장치(510)로부터 수신된 생체 신호에 대한 데이터 및 외부 전자 장치(520)로부터 수신된 사용자의 모션에 대한 데이터에 기반하여, 사용자의 상태를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)가 도 7a에 도시된 웨어러블 장치(300)에서 수행되는 동작의 일부를 제2 웨어러블 장치(510) 및 외부 전자 장치(520)가 수행하도록 설정함으로써, 사용자에 대한 데이터 모니터링 동작이 효율적으로 수행될 수 있다.
도 8은, 일 실시 예에 따른 웨어러블 장치의 동작을 도시하는 흐름도이다.
도 8을 참조하면, 동작 810에서, 프로세서(310)는 센서(320)를 이용하여, 사용자의 생체 신호의 모니터링을 시작할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자 입력에 응답하여, 사용자의 생체 신호의 모니터링을 시작할 수 있다. 프로세서(310)는 사용자의 생체 신호를 모니터링 할 것을 지시하는 사용자 입력을 수신할 수 있다. 프로세서(310)는 수신된 사용자 입력에 응답하여, 사용자의 생체 신호의 모니터링을 시작할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 지정된 이벤트가 발생함을 식별하는 것에 기반하여, 사용자의 생체 신호의 모니터링을 시작할 수 있다.
동작 820에서, 프로세서(310)는 웨어러블 장치(300)가 상시 모니터링 모드로 동작하는지 여부를 식별할 수 있다. 예를 들어, 웨어러블 장치(300)는 상시 모니터링 모드 및 주기적 모니터링 모드 중 하나로 동작할 수 있다.
예를 들어, 프로세서(310)는 상시 모니터링 모드로 동작함으로써, 갑작스런 응급 상태로 사용자의 상태가 변경될 수 있는 고령자 및/또는 중증 심혈관 질환자를 위해, 연속적으로 생체 신호를 모니터링할 수 있다.
예를 들어, 프로세서(310)는 주기적 모니터링 모드로 동작함으로써, 만성 성인병(예: 당뇨, 고혈압) 질환을 가지는 사용자를 위해, 주기적으로 생체 신호(예: 체온, 혈압 , 심박변이)를 모니터링할 수 있다.
동작 830에서, 웨어러블 장치(300)가 상시 모니터링 모드로 동작하는 경우, 프로세서(310)는 상시 모니터링 모드에 따라, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 예를 들어, 프로세서(310)는 연속적으로(또는 24 시간 동안) 사용자의 생체 신호가 정상 범위 내인지 여부를 식별할 수 있다.
동작 840에서, 웨어러블 장치(300)가 주기적 모니터링 모드로 동작하는 경우, 프로세서(310)는 주기적 모니터링 모드에 따라, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 프로세서(310)는 지정된 시간 간격(예: 24 시간)에 기반하여, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다.
도 9a는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 9b는, 일 실시 예에 따른, 웨어러블 장치의 동작의 예를 도시한다.
도 9a를 참조하면, 프로세서(310)(또는 웨어러블 장치(300))는, 웨어러블 장치(300)를 사용자 입력에 응답하여 사용자에 대한 데이터를 획득하기 위한 수동 모니터링(manual monitoring) 모드 및 미리 정의된 조건을 만족하는 것에 기반하여, 사용자에 대한 데이터를 획득하기 위한 자동 모니터링(automatic monitoring) 모드 중 하나로 동작할 수 있다.
예를 들어, 수동 모니터링 모드 및 자동 모니터링 모드는, 사용자 입력이 수신되는지 여부에 따라 구분될 수 있다. 예를 들어, 상시 모니터링 모드 및 주기적 모니터링 모드는, 사용자에 대한 데이터의 획득(또는 측정) 주기에 따라 구분될 수 있다.
일 실시 예에 따르면, 프로세서(310)(또는 웨어러블 장치(300))는 수동 모니터링 모드로 동작할 수 있다. 프로세서(310)는 사용자 입력에 기반하여, 상시 모니터링 모드 및 주기적 모니터링 모드 중 하나로 동작할 수 있다. 프로세서(310)는 사용자 입력에 기반하여 상시 모니터링 모드 및 주기적 모니터링 모드 중 하나로 동작함으로써, 사용자에 대한 데이터를 획득할 수 있다. 프로세서(310)는 사용자 입력에 기반하여, 사용자에 대한 데이터(예: 생체 신호에 대한 데이터, 모션(또는 관성 신호)에 대한 데이터)를 획득함으로써, 전력 소모를 감소시킬 수 있다.
예를 들어, 프로세서(310)는 시점(901)에서, 자신의 상태에 대한 이상 증상을 느낀 사용자로부터, 사용자에 대한 데이터를 획득하기 위한 제1 사용자 입력을 수신할 수 있다. 프로세서(310)는 제1 사용자 입력에 기반하여, 사용자의 상태를 위험 모니터링 상태로 인식할 수 있다. 프로세서(310)는 제1 사용자 입력에 기반하여, 생체 신호(예: 심전도, 혈압, 체온)에 대한 데이터를 획득하고, 저장(또는 기록)할 수 있다. 예를 들어, 제1 사용자 입력은, 웨어러블 장치(300)의 하우징에 포함된 버튼에 대한 입력, 음성 인식을 통한 입력, 및 웨어러블 장치(300)의 디스플레이에 대한 터치 입력 중 하나로 설정될 수 있다.
예를 들어, 프로세서(310)는 시점(901)부터, 시점(901)에서 미리 정의된 시간 이후인 시점(903)까지, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 시점(901)부터 제1 사용자 입력과 구별되는 다른 사용자 입력이 수신될 때까지 사용자의 생체 신호에 대한 데이터를 획득할 수 있다.
일 실시 예에 따르면, 프로세서(310)는, 사용자의 상태가 정상 상태 또는 위험 모니터링 상태로부터 응급 상태로 변경됨을 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자에게 낙상이 발생하였음을 식별하는 것에 기반하여, 사용자의 상태를 응급 상태로 인식할 수 있다. 일 실시 예에 따르면, 프로세서(310)는, 사용자의 상태를 응급 상태로 인식한 후, 시점(902)에서, 제2 사용자 입력을 수신할 수 있다. 프로세서(310)는 시점(902)에서 수신된 제2 사용자 입력에 응답하여, 시점(902)로부터 미리 정의된 시간 이후인 시점(904)까지, 사용자의 생체 신호에 대한 데이터 및 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다. 예를 들어, 프로세서(310)는 제2 사용자 입력에 기반하여, 사용자의 상태가 응급 상태로 변경됨을 식별하는 것에 응답하여 활성화된 동공 인식 센서(402) 및 뇌파 센서(403)를 이용하여, 시점(902)로부터 시점(904)까지 사용자의 의식 상태에 대한 정보를 식별하고, 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)(또는 웨어러블 장치(300))는 자동 모니터링 모드로 동작할 수 있다. 프로세서(310)는 미리 정의된 조건을 만족하는 것에 기반하여, 상시 모니터링 모드 및 주기적 모니터링 모드 중 하나로 동작할 수 있다. 프로세서(310)는 미리 정의된 조건을 만족하는 것에 기반하여 상시 모니터링 모드 및 주기적 모니터링 모드 중 하나로 동작함으로써, 사용자에 대한 데이터를 획득할 수 있다. 예를 들어, 프로세서(310)는 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것에 기반하여, 사용자에 대한 데이터를 획득할 수 있다. 예를 들어, 프로세서(310)는, 사용자의 이상 증상을 지속적으로 모니터링해야 하는 경우, 자동 모니터링 모드로 동작할 수 있다.
예를 들어, 프로세서(310)는 시점(901)에서, 프로세서(310)는 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것을 식별할 수 있다. 프로세서(310)는 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것을 식별하는 것에 기반하여, 생체 신호(예: 심전도, 혈압, 체온)에 대한 데이터를 획득하고, 저장(또는 기록)할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 시점(901)부터, 시점(901)에서 미리 정의된 시간 이후인 시점(903)까지, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 시점(901)부터 미리 정의된 다른 조건을 만족할 때까지 사용자의 생체 신호에 대한 데이터를 획득할 수 있다.
예를 들어, 프로세서(310)는 시점(902)에서, 사용자의 상태가 정상 상태 또는 위험 모니터링 상태로부터 응급 상태로 변경됨을 식별할 수 있다. 프로세서(310)는, 사용자의 상태가 응급 상태로 변경됨을 식별하는 것에 응답하여, 시점(902)로부터 미리 정의된 시간 이후인 시점(904)까지, 사용자의 생체 신호에 대한 데이터 및 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태가 응급 상태로 변경됨을 식별하는 것에 응답하여 활성화된 동공 인식 센서(402) 및 뇌파 센서(403)를 이용하여, 시점(902)로부터 시점(904)까지 사용자의 의식 상태에 대한 정보를 식별하고, 저장할 수 있다.
도 9b를 참조하면, 프로세서(310)(또는 웨어러블 장치(300))는 수동 모니터링 모드로 동작할 수 있다. 예를 들어, 프로세서(310)는 시점(901)에서, 자신의 상태에 대한 이상 증상을 느낀 사용자로부터, 사용자에 대한 데이터를 획득하기 위한 제1 사용자 입력을 수신할 수 있다. 프로세서(310)는 제1 사용자 입력에 기반하여, 사용자의 상태를 위험 모니터링 상태로 인식할 수 있다. 프로세서(310)는 제1 사용자 입력에 기반하여, 생체 신호(예: 심전도, 혈압, 체온)에 대한 데이터를 획득하고, 저장(또는 기록)할 수 있다.
예를 들어, 프로세서(310)는 시점(901)에서 미리 정의된 시간 이전인 시점(913)부터, 시점(901)에서 미리 정의된 시간 이후인 시점(914)까지, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 예를 들어, 프로세서(310)는 시점(913)부터 시점(901)까지, 생체 신호에 대한 데이터를 획득하고, 획득된 생체 신호에 대한 데이터를 메모리(340) 내에 구성된 버퍼에 저장할 수 있다. 프로세서(310)는 시점(901)에서 제1 사용자 입력을 수신하는 것에 기반하여, 시점(901)부터 시점(914)까지 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 프로세서(310)는 버퍼에 저장된 시점(913)부터 시점(901)까지의 생체 신호에 대한 데이터 및 시점(901)부터 시점(914)까지 사용자의 생체 신호에 대한 데이터를 결합함으로써, 시점(913)부터 시점(914)까지의 사용자의 생체 신호에 대한 데이터를 획득할 수 있다.
예를 들어, 프로세서(310)는, 사용자의 상태가 정상 상태 또는 위험 모니터링 상태로부터 응급 상태로 변경됨을 식별할 수 있다. 프로세서(310)는, 사용자의 상태를 응급 상태로 인식한 후, 시점(902)에서, 제2 사용자 입력을 수신할 수 있다. 프로세서(310)는 시점(902)에서 수신된 제2 사용자 입력에 응답하여, 시점(902)에서 미리 정의된 시간 이전인 시점(915)로부터, 시점(902)에서 미리 정의된 시간 이후인 시점(916)까지, 사용자의 생체 신호에 대한 데이터 및 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다. 예를 들어, 프로세서(310)는 제2 사용자 입력에 기반하여, 사용자의 상태가 응급 상태로 변경됨을 식별하는 것에 응답하여 활성화된 동공 인식 센서(402) 및 뇌파 센서(403)를 이용하여, 시점(915)로부터 시점(916)까지 사용자의 의식 상태에 대한 정보를 식별하고, 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)(또는 웨어러블 장치(300))는 자동 모니터링 모드로 동작할 수 있다. 프로세서(310)는 미리 정의된 조건을 만족하는 것에 기반하여, 상시 모니터링 모드 및 주기적 모니터링 모드 중 하나로 동작할 수 있다. 예를 들어, 프로세서(310)는 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것에 기반하여, 사용자에 대한 데이터를 획득할 수 있다.
예를 들어, 프로세서(310)는 시점(901)에서, 프로세서(310)는 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것을 식별할 수 있다. 프로세서(310)는 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것을 식별하는 것에 기반하여, 시점(901)에서 미리 정의된 시간 이전인 시점(913)부터, 시점(901)에서 미리 정의된 시간 이후인 시점(914)까지, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 예를 들어, 프로세서(310)는 시점(913)부터 시점(901)까지, 생체 신호에 대한 데이터를 획득하고, 획득된 생체 신호에 대한 데이터를 메모리(340) 내에 구성된 버퍼에 저장할 수 있다. 프로세서(310)는 시점(901)에서 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것에 기반하여, 시점(901)부터 시점(914)까지 사용자의 생체 신호에 대한 데이터를 획득할 수 있다. 프로세서(310)는 버퍼에 저장된 시점(913)부터 시점(901)까지 획득된 생체 신호에 대한 데이터 및 시점(901)부터 시점(914)까지 사용자의 생체 신호에 대한 데이터를 결합함으로써, 시점(913)부터 시점(914)까지 획득된 사용자의 생체 신호에 대한 데이터를 획득할 수 있다.
예를 들어, 프로세서(310)는, 사용자의 상태가 정상 상태 또는 위험 모니터링 상태로부터 응급 상태로 변경됨을 식별할 수 있다. 프로세서(310)는, 시점(902)에서, 사용자의 행동 또는 상태가 미리 정의된 다른 조건을 만족함을 식별할 수 있다. 프로세서(310)는 시점(902)에서 사용자의 행동 또는 상태가 미리 정의된 다른 조건을 만족함을 식별하는 것에 응답하여, 사용자의 상태를 응급 상태로 인식할 수 있다.
예를 들어, 프로세서(310)는 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것을 식별하는 것에 기반하여, 시점(902)에서 미리 정의된 시간 이전인 시점(915)로부터, 시점(902)에서 미리 정의된 시간 이후인 시점(916)까지, 사용자의 생체 신호에 대한 데이터 및 시각 신호에 대한 데이터를 식별하고, 저장할 수 있다. 예를 들어, 프로세서(310)는 사용자의 행동 또는 상태가 미리 정의된 조건을 만족하는 것을 식별하는 것에 기반하여, 사용자의 상태가 응급 상태로 변경됨을 식별하는 것에 응답하여 활성화된 동공 인식 센서(402) 및 뇌파 센서(403)를 이용하여, 시점(915)로부터 시점(916)까지 사용자의 의식 상태에 대한 정보를 식별하고, 저장할 수 있다.
도 9a 및 도 9b를 참조하면, 프로세서(310)는 사용자의 상태가 응급 상태인 동안 획득될 사용자에 대한 데이터를 설정할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태가 응급 상태인 동안, 시각 신호에 대한 데이터 및 뇌파 신호에 대한 데이터를 획득하도록 설정할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 웨어러블 장치(300)에 포함된 컴포넌트들에 기반하여, 사용자의 상태에 따라 획득되는 사용자에 대한 데이터를 결정할 수 있다. 예를 들어, 웨어러블 장치(300)가 외부 전자 장치와 연결(또는 연동)되지 않은 상태에서 독립적으로 동작하도록 설정된 경우, 프로세서(310)는 모션(또는 관성 신호)에 대한 데이터, 사용자의 생체 신호에 대한 데이터를 획득할 수 있다.
예를 들어, 웨어러블 장치(300)가 제2 웨어러블 장치(510), 및 외부 전자 장치(520)와 연결된 상태에서 동작하도록 설정된 경우, 프로세서(310)는 외부 전자 장치(520)에 포함된 관성 센서를 이용하여 모션(또는 관성 신호)에 대한 데이터를 획득하도록 외부 전자 장치(520)를 제어할 수 있다. 프로세서(310)는 제2 웨어러블 장치(510)에 포함된 생체 신호를 감지하기 위한 센서를 이용하여 생체 신호에 대한 데이터를 획득하도록, 제2 웨어러블 장치(510)를 제어할 수 있다. 프로세서(310)는, 모션(또는 관성 신호)에 대한 데이터 및 생체 신호에 대한 데이터가 획득되는 동안, 카메라(330)를 이용하여, 시각 신호에 대한 데이터를 획득할 수 있다.
도 10은, 일 실시 예에 따른 웨어러블 장치의 동작을 도시하는 흐름도이다.
도 10을 참조하면, 동작 1010에서, 프로세서(310)는 웨어러블 장치(300)의 착용을 감지할 수 있다. 예를 들어, 프로세서(310)는, 웨어러블 장치(300)에 포함된 전극(예: ECG 센서와 관련된 전극)의 임피던스의 변화를 식별하는 것에 기반하여, 웨어러블 장치(300)의 착용을 감지할 수 있다. 예를 들어, 프로세서(310)는, 동공 인식 센서(402)를 이용하여, 사용자의 동공을 식별하는 것에 기반하여, 웨어러블 장치(300)의 착용을 감지할 수 있다.
동작 1020에서, 프로세서(310)는 웨어러블 장치(300)의 연결 상태에 따라 활성화할 센서들을 결정할 수 있다. 프로세서(310)는 웨어러블 장치(300)와 연결된 외부 전자 장치(예: 제2 웨어러블 장치(510), 외부 전자 장치(520))를 식별할 수 있다. 프로세서(310)는 웨어러블 장치(300)와 연결된 외부 전자 장치에 포함된 센서들을 식별할 수 있다. 프로세서(310)는 외부 전자 장치에 포함된 센서들을 식별하는 것에 기반하여, 활성화할 센서들을 결정할 수 있다. 예를 들어, 프로세서(310)는 사용자의 손목에 착용되어 동작하고, PPG 센서를 포함하는 외부 전자 장치를 식별할 수 있다. 프로세서(310)는 외부 전자 장치에 포함된 PPG 센서를 이용하여, 사용자의 심박에 대한 데이터를 획득하도록, 외부 전자 장치를 야기할 수 있다. 예를 들어, 프로세서(310)는 웨어러블 장치(300)에 포함된 적어도 하나의 센서가 외부 전자 장치에도 포함된 경우, 웨어러블 장치(300)의 적어도 하나의 센서를 비활성화하고, 외부 전자 장치에 포함된 적어도 하나의 센서를 활성화할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 웨어러블 장치(300)에서 소모 전력이 낮은 센서들(예: 동공 인식 센서(402))을 이용하여, 사용자의 상태를 모니터링할 수 있다. 프로세서(310)는 사용자의 상태가 지정된 조건을 만족하는 것에 기반하여, 소모 전력이 높은 센서들(예: 뇌파 센서(403))을 추가적으로 활성화할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태가 위험 모니터링 상태 및/또는 응급 상태로 인식되는 것에 기반하여, 소모 전력이 높은 센서들(예: 뇌파 센서(403))을 추가적으로 활성화할 수 있다. 예를 들어, 프로세서(310)는 소모 전력이 낮은 센서들을 이용하여 획득된 데이터에 기반하여, 비정상적인 패턴이 발생하는지 여부 또는 획득된 데이터가 임계 범위를 벗어나는지 여부를 식별할 수 있다. 일 예로, 프로세서(310)는 획득된 데이터에서 비정상적인 패턴이 발생함을 식별하는 것에 기반하여, 소모 전력이 높은 센서들을 추가적으로 활성화할 수 있다. 일 예로, 프로세서(310)는 획득된 데이터가 임계 범위를 벗어남을 식별하는 것에 기반하여, 소모 전력이 높은 센서들을 추가적으로 활성화할 수 있다.
동작 1030에서, 프로세서(310)는 활성화할 센서들에 대한 권한이 획득되었는지 여부를 식별할 수 있다. 프로세서(310)는, 웨어러블 장치(300)에 포함된 센서들 뿐만 아니라, 웨어러블 장치(300)와 연결된 외부 전자 장치에 포함된 센서들에 대한 권한이 획득되었는지 여부를 식별할 수 있다. 예를 들어, 프로세서(310)는 웨어러블 장치(300) 또는 웨어러블 장치(300)와 연결된 외부 전자 장치를 이용하여, 사용자에게 활성화할 센서에 대한 권한을 요청할 수 있다.
동작 1040에서, 활성화할 센서들에 대한 권한이 획득되지 않은 경우, 프로세서(310)는 모니터링 동작을 중단할 수 있다. 예를 들어, 프로세서(310)는 활성화할 센서들에 대한 권한이 획득되지 않음을 식별하는 것에 기반하여, 사용자에 대한 데이터를 획득하기 위한 모니터링 동작을 중단할 수 있다. 예를 들어, 프로세서(310)는 사용자에 대한 데이터를 획득하기 위한 모니터링 동작을 삼갈 수 있다.
동작 1050에서, 프로세서(310)는 활성화할 센서들에 대한 권한이 획득된 경우, 프로세서(310)는 사용자의 상태가 정상 상태인 동안, 사용자에 대한 데이터를 모니터링할 수 있다. 예를 들어, 프로세서(310)는 활성화할 센서들에 대한 권한이 획득되었음을 식별하는 것에 기반하여, 사용자에 대한 데이터를 모니터링할 수 있다. 예를 들어, 프로세서(310)는, 웨어러블 장치(300) 또는 웨어러블 장치(300)와 연결된 외부 전자 장치에 포함된 관성 센서를 이용하여, 모션(또는 관성 신호)에 대한 데이터를 획득할 수 있다. 프로세서(310)는 모션(또는 관성 신호)에 대한 데이터를 획득함으로써, 사용자의 모션에 대한 데이터를 획득할 수 있다.
동작 1060에서, 프로세서(310)는 사용자의 상태가 변경되는지 여부를 식별할 수 있다. 프로세서(310)는 사용자에 대한 데이터를 모니터링하는 동안, 사용자의 상태가 변경되는지 여부를 식별할 수 있다. 일 실시 예에 따르면, 프로세서(310)는 사용자의 상태가 변경되지 않는 경우, 동작 1050을 다시 수행할 수 있다.
예를 들어, 프로세서(310)는 사용자의 상태가 정상 상태로부터 위험 모니터링 상태로 변경되는지 여부를 식별할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태가 정상 상태로부터 응급 상태로 변경되는지 여부를 식별할 수 있다.
동작 1070에서, 프로세서(310)는 사용자의 상태가 변경된 경우, 프로세서(310)는 사용자에 대한 데이터를 저장(또는 기록)할 수 있다. 예를 들어, 사용자의 상태가 변경되었음을 식별하는 것에 기반하여, 프로세서(310)는 사용자에 대한 데이터를 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태가 정상 상태로부터 위험 모니터링 상태 또는 응급 상태로 변경됨을 식별하는 것에 기반하여, 사용자에 대한 데이터를 저장할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태가 정상 상태로부터 위험 모니터링 상태 또는 응급 상태로 변경된 시점을 식별할 수 있다. 프로세서(310)는 식별된 시점 전후의 사용자에 대한 데이터를 식별할 수 있다. 일 예로, 프로세서(310)는 식별된 시점 전후에 획득된 콘텐트(예: 영상, 이미지, 음성, 통화 기록(또는 내용), 웨어러블 장치(300)의 위치 정보, 실행 중인 어플리케이션에 대한 정보)를 저장할 수 있다. 일 예로, 프로세서(310)는 식별된 시점 전후에 획득된 사용자의 생체 신호에 대한 데이터를 저장할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 식별된 시점 전후의 사용자에 대한 데이터를 지정된 연락처 또는 응급 기관에 공유할지 여부를 나타내는 알림을 사용자에게 제공할 수 있다. 프로세서(310)는 상기 알림이 제공된 후, 사용자 입력에 따라, 사용자에 대한 데이터를 지정된 연락처 또는 응급 기관에 공유하거나, 사용자에 대한 데이터를 메모리(340) 내에 저장할 수 있다.
도 11은, 일 실시 예에 따른 웨어러블 장치의 동작을 도시하는 흐름도이다.
도 11을 참조하면, 동작 1110에서, 프로세서(310)는 사용자의 신체 일부분 (예: 머리)에 대한 온도를 나타내는 제1 데이터를 획득할 수 있다. 예를 들어, 프로세서(310)는 웨어러블 장치(300)와 접촉된 사용자의 머리에 대한 온도를 나타내는 제1 데이터를 온도 센서(401)를 통해 획득할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는 사용자의 머리에 착용될 수 있다. 웨어러블 장치(300)의 일부(예: 전극)는 사용자의 머리에 접촉될 수 있다. 프로세서(310)는 웨어러블 장치(300)가 사용자에게 착용됨을 식별하는 것에 기반하여, 사용자의 머리에 대한 온도를 나타내는 제1 데이터를 온도 센서(401)를 통해 획득할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 제1 시간 간격에 기반하여, 제1 데이터를 획득할 수 있다. 예를 들어, 제1 시간 간격은 사용자에 의해 설정될 수 있다.
동작 1120에서, 프로세서(310)는 사용자의 상태가 응급 상태인지 여부를 식별할 수 있다. 예를 들어, 프로세서(310)는 제1 기준 범위 내의 온도를 나타내는 제1 데이터에 기반하여, 사용자의 상태가 응급 상태인지 여부를 식별할 수 있다.
예를 들어, 프로세서(310)는 미리 정의된 시간 자원 내에서 제1 시간 간격에 기반하여 획득된 온도가, 제1 기준 범위 내로 식별된 횟수를 나타내는 제1 값을 식별할 수 있다. 프로세서(310)는 제1 값이 미리 정의된 값 이상인지 여부에 따라, 사용자의 상태가 응급 상태인지 여부를 식별할 수 있다.
동작 1130에서, 프로세서(310)는 사용자의 상태가 응급 상태로 식별(또는 인식)되는 것에 기반하여, 제1 콘텐트(예: 영상, 이미지, 음성, 통화 기록(또는 내용), 웨어러블 장치(300)의 위치 정보, 실행 중인 어플리케이션에 대한 정보) 및 사용자의 의식 상태에 대한 정보를 저장하고, 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 제2 웨어러블 장치에게 송신하고, 사용자의 응급 상태를 나타내는 정보 및 상기 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치(예: 서버)에게 송신하라는 제2 요청을 제1 외부 전자 장치에게 송신할 수 있다.
예를 들어, 프로세서(310)는 제1 기준 범위 내로 식별된 횟수를 나타내는 제1 값이 미리 정의된 값 이상임을 식별하는 것에 기반하여, 사용자의 상태가 응급 상태임을 식별할 수 있다.
예를 들어, 프로세서(310)는 사용자의 상태가 응급 상태로 식별(또는 인식)된 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터, 제1 시점에서 미리 정의된 시간 이후인 제3 시점까지 획득된 제1 콘텐트(예: 영상, 이미지, 음성, 통화 기록(또는 내용), 웨어러블 장치(300)의 위치 정보, 실행 중인 어플리케이션에 대한 정보)를 식별할 수 있다. 프로세서(310)는 카메라(330)를 이용하여, 제2 시점으로부터 제3 시점까지 획득된 제1 콘텐트를 획득할 수 있다. 프로세서(310)는 획득된 제1 콘텐트를 메모리(340)에 저장할 수 있다. 예를 들어, 프로세서(310)는 제2 시점으로부터 제1 시점까지 카메라(330)를 이용하여 획득된 제3 콘텐트(예: 영상, 이미지, 음성, 통화 기록(또는 내용), 웨어러블 장치(300)의 위치 정보, 실행 중인 어플리케이션에 대한 정보)를 메모리(340) 내에 구성된 버퍼에 저장할 수 있다. 프로세서(310)는 사용자의 상태를 응급 상태로 인식하는 것에 응답하여, 제1 시점으로부터 제3 시점까지 제4 콘텐트(예: 영상, 이미지, 음성, 통화 기록(또는 내용), 웨어러블 장치(300)의 위치 정보, 실행 중인 어플리케이션에 대한 정보)를 획득할 수 있다. 프로세서(310)는 버퍼에 저장된 제3 콘텐트 및 제4 콘텐트를 결합함으로써, 제1 콘텐트를 획득할 수 있다. 예를 들어, 제3 콘텐트는 제2 시점으로부터 제1 시점까지 획득된 사용자의 주변 환경에 대한 제1 영상일 수 있다. 제4 콘텐트는 제1 시점으로부터 제3 시점까지 획득된 사용자의 주변 환경에 대한 제2 영상일 수 있다. 프로세서(310)는 제1 시점을 기준으로 제1 영상 및 제2 영상을 이어 붙임(splice)으로써, 제3 영상을 획득할 수 있다. 프로세서(310)는 제2 시점으로부터 제3 시점까지의 제3 영상을 획득함으로써, 제1 콘텐트를 획득할 수 있다.
예를 들어, 프로세서(310)는 응급 상태의 식별(또는 인식)에 응답하여, 동공 인식 센서(402) 및 뇌파 센서(403)를 활성화할 수 있다. 프로세서(310)는 활성화된 동공 인식 센서(402) 및 뇌파 센서(403)를 이용하여, 사용자의 상태가 응급 상태로 식별(또는 인식)된 제1 시점으로부터, 제1 시점에서 미리 정의된 시간 이후인 제3 시점까지 획득된 사용자의 의식 상태에 대한 정보를 획득할 수 있다. 프로세서(310)는 획득된 제1 시점으로부터 제3 시점까지 획득된 사용자의 의식 상태에 대한 정보를 메모리(340)에 저장할 수 있다.
예를 들어, 프로세서(310)는 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 사용자의 손목과 접촉된 제2 웨어러블 장치에게 송신할 수 있다. 프로세서(310)는 제2 웨어러블 장치가 PPG 센서를 포함함을 식별할 수 있다. 프로세서(310)는 제2 웨어러블 장치에게 제1 요청을 송신함으로써, 사용자의 심박에 대한 제2 데이터를 획득하도록 제어할 수 있다.
예를 들어, 프로세서(310)는 사용자의 응급 상태를 나타내는 정보 및 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신하라는 제2 요청을 제1 외부 전자 장치에게 송신할 수 있다. 예를 들어, 제1 외부 전자 장치와 웨어러블 장치(300)는 제1 RAT(radio access technology)(예: 블루투스 통신)에 기반하여 연결될 수 있다. 제1 외부 전자 장치는 제2 외부 전자 장치와 제2 RAT(예: 셀룰러 통신)에 기반하여 연결될 수 있다. 프로세서(310)는 제2 RAT을 통해 제1 외부 전자 장치와 연결된 제2 외부 전자 장치(예: 구조 요청을 위한 서버)에게 사용자의 응급 상태를 나타내는 정보 및 사용자의 의식 상태에 대한 정보를 송신하기 위해, 제2 요청을 제1 외부 전자 장치에게 송신할 수 있다. 실시 예에 따라, 프로세서(310)는 제1 외부 전자 장치(예: 구조 요청을 위한 서버)에게 사용자의 응급 상태를 나타내는 정보 및 사용자의 의식 상태에 대한 정보를 송신할 수도 있다.
일 실시 예에 따르면, 프로세서(310)는, 사용자의 상태가 정상 상태인 동안, 제1 시간 간격에 기반하여, 제1 데이터를 획득할 수 있다. 예를 들어, 제1 데이터는 사용자의 신체 일부분 (예: 머리)에 대한 온도를 나타낼 수 있다. 따라서, 프로세서(310)는 제2 시점으로부터 제1 시점까지, 제1 시간 간격에 기반하여, 제1 데이터를 획득할 수 있다. 프로세서(310)는 사용자의 상태를 응급 상태로 식별(또는 인식)하는 것에 응답하여, 사용자의 상태가 응급 상태로 식별(또는 인식)된 제1 시점으로부터, 제1 시점에서 미리 정의된 시간 이후인 제3 시점까지, 제1 시간 간격보다 짧은 제2 시간 간격에 기반하여, 제1 데이터를 획득할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 가속도 센서 및 자이로 센서를 포함하는 제2 웨어러블 장치로부터, 사용자의 모션에 대한 제3 데이터를 수신할 수 있다. 프로세서(310)는 제1 데이터 및 제3 데이터에 기반하여, 사용자에게 낙상이 발생하였음을 식별할 수 있다. 프로세서(310)는 사용자에게 낙상이 발생하였음을 식별하는 것에 응답하여, 사용자의 상태를 응급 상태로 인식할 수 있다.
동작 1140에서, 프로세서(310)는 사용자의 상태가 응급 상태로 식별(또는 인식)되지 않은 것에 기반하여, 사용자의 상태가 위험 모니터링 상태인지 여부를 식별할 수 있다. 예를 들어, 프로세서(310)는 제1 기준 범위와 다른 제2 기준 범위 내의 온도를 나타내는 제1 데이터에 기반하여, 사용자의 상태가 위험 모니터링 상태인지 여부를 식별할 수 있다.
예를 들어, 프로세서(310)는 미리 정의된 시간 자원 내에서 제1 시간 간격에 기반하여 획득된 온도가 제2 기준 범위 내로 식별된 횟수를 나타내는 제2 값을 식별할 수 있다. 프로세서(310)는 제2 값이 미리 정의된 값 이상인지 여부에 따라, 사용자의 상태가 위험 모니터링 상태인지 여부를 식별할 수 있다.
동작 1150에서, 사용자의 상태가 위험 모니터링 상태가 아닌 경우, 프로세서(310)는 정상 상태에 따른 동작을 수행할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태가 위험 모니터링 상태가 아님을 식별하는 것에 기반하여, 정상 상태에 따른 동작을 수행할 수 있다. 예를 들어, 프로세서(310)는 사용자의상태가 응급 상태 및 위험 모니터링 상태가 아님을 식별하는 것에 기반하여, 사용자의 상태를 정상 상태로 식별할 수 있다. 프로세서(310)는 정상 상태에 따른 동작을 수행할 수 있다. 일 예로, 프로세서(310)는 사용자의 상태가 정상 상태인 동안, 관성 센서를 이용하여, 모션(또는 관성 신호)에 대한 데이터를 획득할 수 있다. 상기 관성 센서는, 웨어러블 장치(300), 제2 웨어러블 장치, 및 제1 외부 전자 장치 중 하나에 포함될 수 있다.
동작 1160에서, 사용자의 상태가 위험 모니터링 상태인 경우, 프로세서(310)는 제2 콘텐트(예: 영상, 이미지, 음성, 통화 기록(또는 내용), 웨어러블 장치(300)의 위치 정보, 실행 중인 어플리케이션에 대한 정보)를 메모리 내에 저장하고, 발생 가능한 위험을 경고함을 나타내는 정보를 제공하고, 제1 요청을 제2 웨어러블 장치에게 송신할 수 있다.
예를 들어, 프로세서(310)는 미리 정의된 시간 자원 내에서 제1 시간 간격에 기반하여 획득된 온도가 제2 기준 범위 내로 식별된 횟수를 나타내는 제2 값을이 미리 정의된 값 이상임을 식별하는 것에 기반하여, 사용자의 상태가 위험 모니터링 상태임을 식별할 수 있다.
예를 들어, 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 인식하는 것에 기반하여, 카메라(330)를 통해 사용자의 상태가 위험 모니터링 상태로 인식된 제4 시점으로부터, 제4 시점에서 미리 정의된 시간 이후의 제5 시점까지, 제2 콘텐트(예: 영상, 이미지, 음성, 통화 기록(또는 내용), 웨어러블 장치(300)의 위치 정보, 실행 중인 어플리케이션에 대한 정보)를 획득할 수 있다. 프로세서(310)는 제4 시점부터 제5 시점까지 획득된 제2 콘텐트를 저장할 수 있다. 예를 들어, 프로세서(310)는 제4 시점에서 미리 정의된 시간 이전의 제6 시점으로부터 제4 시점까지 제5 콘텐트를 획득할 수 있다. 프로세서(310)는 제5 콘텐트를 메모리(340) 내에 구성된 버퍼에 저장할 수 있다. 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 인식하는 것에 기반하여, 버퍼에 저장된 제5 콘텐트를 삭제할 수 있다. 프로세서(310)는 제5 콘텐트를 삭제하고, 제4 시점으로부터 제5 시점까지 카메라(330)를 이용하여, 제2 콘텐트를 획득하고, 저장할 수 있다. 예를 들어, 프로세서(310)는, 사용자의 상태가 위험 모니터링 상태로 인식된 시점(예: 제4 시점)부터 미리 정의된 시간까지 획득된 콘텐트(예: 제2 콘텐트)를 저장할 수 있다. 따라서, 버퍼는 사용자의 상태가 위험 모니터링 상태로 인식된 시점의 이전 시점으로부터 획득된 콘텐트(예: 제5 콘텐트)를 저장하고 있으므로, 제5 콘텐트를 버퍼에서 삭제할 수 있다. 프로세서(310)는 제5 콘텐트를 삭제함으로써 버퍼의 용량을 확보할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 인식하는 것에 기반하여, 발생 가능한 위험을 경고함을 나타내는 정보를 제공할 수 있다. 프로세서(310)는 발생 가능한 위험을 식별할 수 있다. 프로세서(310)는 발생 가능한 위험을 경고함을 나타내는 정보를 소리 및/또는 화면을 통해 제공할 수 있다. 예를 들어, 프로세서(310)는 카메라(330)를 이용하여, 외부 객체가 사용자에게 접근하는 중임을 식별할 수 있다. 프로세서(310)는 사용자에게 접근하는 외부 객체의 크기 및 속도에 대한 정보를 카메라(330)를 이용하여 식별할 수 있다. 프로세서(310)는 외부 객체의 크기 및 속도에 대한 정보에 기반하여, 사용자에게 발생 가능한 위험을 식별할 수 있다. 프로세서(310)는 사용자에게 발생 가능한 위험을 식별하는 것에 응답하여, 사용자의 상태를 위험 모니터링 상태로 인식할 수 있다. 프로세서(310)는 외부 객체가 접근하여 충돌이 발생할 수 있음을 나타내는 정보를 제공할 수 있다.
일 실시 예에 따르면, 프로세서(310)는, 사용자의 상태가 정상 상태인 동안, 제1 시간 간격에 기반하여, 제1 데이터를 획득할 수 있다. 예를 들어, 제1 데이터는 사용자의 신체 일부분 (예: 머리)에 대한 온도를 나타낼 수 있다. 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 식별(또는 인식)하는 것에 응답하여, 사용자의 상태가 위험 모니터링 상태로 식별(또는 인식)된 제4 시점으로부터, 제4 시점에서 미리 정의된 시간 이후인 제5 시점까지, 제2 시간 간격 보다 긴 제3 시간 간격에 기반하여, 제1 데이터를 획득할 수 있다. 예를 들어, 제2 시간 간격은, 사용자의 상태가 응급 상태인 동안 프로세서(310)에 의해 제1 데이터가 획득되는 간격일 수 있다. 따라서, 프로세서(310)는 사용자의 상태가 정상 상태인 동안 제1 시간 간격에 기반하여 제1 데이터를 획득할 수 있다. 프로세서(310)는 사용자의 상태가 위험 모니터링 상태인 동안, 제3 시간 간격에 기반하여 제1 데이터를 획득할 수 있다. 프로세서(310)는 사용자의 상태가 응급 상태인 동안, 제2 시간 간격에 기반하여 제1 데이터를 획득할 수 있다. 제1 시간 간격은 제2 시간 간격보다 크게 설정될 수 있다. 제2 시간 간격은 제3 시간 간격보다 크게 설정될 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 인식하는 것에 기반하여, 동공 인식 센서(402) 및 뇌파 센서(403)의 비활성화 상태를 유지할 수 있다. 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 인식하는 것에 기반하여, 제1 외부 전자 장치에게 제2 요청을 송신하는 것을 삼갈 수 있다.
예를 들어, 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 인식하는 것에 기반하여, 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 제2 웨어러블 장치에게 송신할 수 있다. 프로세서(310)는 제2 웨어러블 장치에게 제1 요청을 송신함으로써, 사용자의 심박에 대한 제2 데이터를 획득하도록 제어할 수 있다.
동작 1170에서, 프로세서(310)는 제1 요청에 대한 응답으로 제2 데이터를 제2 웨어러블 장치로부터 수신할 수 있다. 예를 들어, 프로세서(310)는 제1 요청에 대한 응답으로 사용자의 심박에 대한 제2 데이터를 제2 웨어러블 장치로부터 수신할 수 있다.
동작 1180에서, 프로세서(310)는 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경되는지 여부를 식별할 수 있다. 예를 들어, 프로세서(310)는 제2 데이터에 기반하여, 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경되는지 여부를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 제1 데이터 및 제2 데이터를 메모리(340)에 저장된 복수의 파라미터들에 의해 지시되는 미리 정의된 모델의 입력 값으로 설정할 수 있다. 예를 들어, 제1 데이터는 사용자의 신체 일부분 (예: 머리)에 대한 온도를 나타낼 수 있다. 제2 데이터는 사용자의 심박을 나타낼 수 있다. 예를 들어, 미리 정의된 모델은, 뉴럴 네트워크와 관련된 복수의 파라미터들에 의해 지시될 수 있다. 미리 정의된 모델은 뉴럴 네트워크와 관련된 파라미터들의 집합을 포함할 수 있다. 예를 들어, 뉴럴 네트워크와 관련된 파라미터들은, 뉴럴 네트워크에 포함된 복수의 노드들 및/또는 상기 복수의 노드들 사이의 연결에 할당되는(assigned) 가중치를 나타낼 수 있다.
프로세서(310)는 미리 정의된 모델의 출력 값을 식별함으로써, 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경되는지 여부를 식별할 수 있다. 실시 예에 따라, 프로세서(310)는 제1 데이터 및 제2 데이터에 기반하여, 미리 정의된 모델을 학습시킬 수도 있다.
예를 들어, 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경되는 경우, 프로세서(310) 동작 1130에 따라 동작할 수 있다. 예를 들어, 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경되지 않는 경우, 프로세서(310)는 동작 1150에 따라 동작할 수 있다. 일 예로, 프로세서(310)는 사용자의 상태가 지정된 시간 동안 위험 모니터링 상태로 유지됨을 식별하는 것에 기반하여, 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로부터 정상 상태로 변경할 수 있다. 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로부터 정상 상태로 변경한 뒤, 동작 1150에 따라 동작할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자의 체온에 관한 트렌드(또는 그래프)를 식별할 수 있다. 프로세서(310)는 사용자의 체온에 관한 트렌드에 기반하여, 제1 기준 범위 및 제2 기준 범위를 결정할 수 있다. 사용자의 나이, BMI, 및 성별 중 적어도 하나에 따라 사용자의 체온에 관한 트렌드가 변경될 수 있다. 따라서, 프로세서(310)는 사용자의 체온에 관한 트렌드를 식별하고, 식별된 트렌드에 기반하여, 응급 상태를 식별하기 위한 제1 기준 범위 및 위험 모니터링 상태를 식별하기 위한 제2 기준 범위를 결정할 수 있다.
일 실시 예에 따르면, 프로세서(310)는 사용자 입력에 따라 사용자의 상태를 인식할 수 있다.
예를 들어, 프로세서(310)는 제1 사용자 입력에 기반하여, 사용자의 상태를 위험 모니터링 상태로 인식할 수 있다. 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 인식하는 것에 기반하여, 웨어러블 장치(300), 제2 웨어러블 장치, 및 제1 외부 전자 장치와 관련된 모드를 제1 모드로 설정할 수 있다. 제1 모드는 웨어러블 장치(300), 제2 웨어러블 장치, 및 제1 외부 전자 장치에 포함된 복수의 센서들(또는 컴포넌트들) 중 발생 가능한 위험을 식별하기 위해 사용되는 제1 세트의 센서들이 활성화되도록 설정되는 모드를 포함할 수 있다.
예를 들어, 프로세서(310)는 제2 사용자 입력에 기반하여, 사용자의 상태를 응급 상태로 인식할 수 있다. 프로세서(310)는 사용자의 상태를 응급 상태로 인식하는 것에 기반하여, 웨어러블 장치(300), 제2 웨어러블 장치, 및 제1 외부 전자 장치와 관련된 모드를 제2 모드로 설정할 수 있다. 제2 모드는 웨어러블 장치(300), 제2 웨어러블 장치, 및 제1 외부 전자 장치에 포함된 복수의 센서들(또는 컴포넌트들) 중 제1 세트의 센서들 및 사용자의 의식 상태에 대한 정보를 획득하기 위해 사용되는 제2 세트의 센서들이 활성화되도록 설정되는 모드를 포함할 수 있다.
도 12는, 일 실시 예에 따른 웨어러블 장치의 동작을 도시하는 흐름도이다.
도 12를 참조하면, 동작 1210에서, 프로세서(310)는 동공 인식 센서(402) 및 뇌파 센서(403)의 사용에 대한 권한 및 제2 웨어러블 장치에 포함된 심박 센서의 사용에 대한 권한을 요청할 수 있다. 예를 들어, 프로세서(310)는 사용자의 상태를 위험 모니터링 상태로 인식하는 것에 기반하여, 동공 인식 센서(402) 및 뇌파 센서(403)의 사용에 대한 권한 및 제2 웨어러블 장치에 포함된 심박 센서의 사용에 대한 권한을 요청할 수 있다.
예를 들어, 프로세서(310)는 웨어러블 장치(300) 및 제2 웨어러블 장치 중 적어도 하나를 이용하여, 웨어러블 장치(300)에 포함된 동공 인식 센서(402) 및 뇌파 센서(403)와 제2 웨어러블 장치에 포함된 심박 센서의 사용에 대한 권한을 요청할 수 있다. 일 예로, 프로세서(310)는 웨어러블 장치(300)를 이용하여, 제2 웨어러블 장치에 포함된 심박 센서의 사용에 대한 권한을 요청할 수 있다. 일 예로, 프로세서(310)는 제2 웨어러블 장치를 이용하여, 웨어러블 장치(300)에 포함된 동공 인식 센서(402) 및 뇌파 센서(403)의 사용에 대한 권한을 요청할 수 있다.
동작 1220에서, 프로세서(310)는 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경됨을 식별할 수 있다. 예를 들어, 프로세서(310)는 웨어러블 장치(300)에 포함된 동공 인식 센서(402) 및 뇌파 센서(403)의 사용에 대한 권한 및 제2 웨어러블 장치에 포함된 심박 센서의 사용에 대한 권한을 획득한 뒤, 사용자의 상태가 위험 모니터링 상태로부터 응급 상태로 변경됨을 식별할 수 있다.
동작 1230에서, 프로세서(310)는 동공 인식 센서(402) 및 뇌파 센서(403)를 비활성화 상태로부터 활성화 상태로 변경하고, 제2 웨어러블 장치에 포함된 심박 센서를 활성화하도록 제어하기 위한 신호를 제2 웨어러블 장치에게 송신할 수 있다.
예를 들어, 프로세서(310)는 동공 인식 센서(402) 및 뇌파 센서(403)의 사용에 대한 권한에 기반하여, 동공 인식 센서(402) 및 뇌파 센서(403)를 비활성화 상태로부터 활성화 상태로 변경할 수 있다.
예를 들어, 프로세서(310)는 제2 웨어러블 장치에 포함된 심박 센서의 사용에 대한 권한에 기반하여, 제2 웨어러블 장치에 포함된 심박 센서를 활성화하도록 제어하기 위한 신호를 제2 웨어러블 장치에게 송신할 수 있다. 제2 웨어러블 장치는 상기 신호에 기반하여, 심박 센서를 비활성화 상태로부터 활성화 상태로 변경할 수 있다. 제2 웨어러블 장치는 심박 센서를 이용하여, 사용자의 심박에 대한 제2 데이터를 획득할 수 있다. 제2 웨어러블 장치는 사용자의 심박에 대한 제2 데이터를 웨어러블 장치(300)에게 송신할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는, 온도 센서(401), 동공 인식 센서(402), 뇌파 센서(403), 카메라(330), 메모리(340), 통신 회로(350), 및 상기 온도 센서(401), 동공 인식 센서(402), 뇌파 센서(403), 상기 카메라(330), 및 상기 메모리(340)와 작동적으로 결합된 프로세서(310)를 포함할 수 있다. 상기 프로세서(310)는, 상기 웨어러블 장치(300)와 접촉된 사용자의 머리(head)에 대한 온도를 나타내는 제1 데이터를 상기 온도 센서(401)를 통해 획득하도록 설정될 수 있다. 상기 프로세서(310)는, 제1 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 응급 상태로 인식하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 상기 카메라(330)를 통해 상기 사용자의 상태가 상기 응급 상태로 인식된 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터, 상기 제1 시점에서 상기 미리 정의된 시간 이후인 제3 시점까지 획득된 제1 콘텐트 및 상기 응급 상태의 상기 인식에 응답하여 활성화된, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)를 이용하여 상기 제1 시점으로부터 상기 제3 시점까지 획득된 사용자의 의식 상태에 대한 정보를 상기 메모리(340) 내에 저장하고, 상기 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 손목과 접촉된 제2 웨어러블 장치(510)에게 송신하고, 상기 사용자의 상기 응급 상태를 나타내는 정보 및 상기 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신하라는 제2 요청을 제1 외부 전자 장치에게 송신하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 제1 기준 범위와 다른 제2 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 위험 모니터링 상태로 인식하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 카메라(330)를 통해 상기 사용자의 상태가 상기 위험 모니터링 상태로 인식된 제4 시점으로부터, 상기 제4 시점에서 상기 미리 정의된 시간 이후의 제5 시점까지 획득된 제2 콘텐트를 상기 메모리(340) 내에 저장하고, 발생 가능한 위험을 경고함을 나타내는 정보를 제공하고, 상기 제1 요청을 상기 제2 웨어러블 장치(510)에게 송신하고, 상기 제1 요청에 대한 응답으로 상기 제2 데이터를 상기 제2 웨어러블 장치(510)로부터 수신하고, 상기 제1 데이터 및 상기 제2 데이터를 이용하여, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경되는지 여부를 식별하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 제2 시점으로부터 상기 제1 시점까지, 제1 시간 간격에 기반하여, 상기 제1 데이터를 획득하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 응답하여, 상기 제1 시점으로부터 상기 제3 시점까지 상기 제1 시간 간격보다 짧은 제2 시간 간격에 기반하여, 상기 제1 데이터를 획득하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 응답하여, 상기 제4 시점으로부터 상기 제5 시점까지 상기 제1 시간 간격보다 짧고, 상기 제2 시간 간격보다 긴, 제3 시간 간격에 기반하여, 상기 제1 데이터를 획득하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 제1 데이터에 기반하여, 상기 사용자의 체온에 관한 트렌드를 식별하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 체온에 관한 트렌드에 기반하여, 상기 제1 기준 범위 및 상기 제2 기준 범위를 결정하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)의 비활성화 상태를 유지하고, 상기 제1 외부 전자 장치에게 상기 제2 요청을 송신하는 것을 삼가도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 제2 시점으로부터 상기 제1 시점까지 상기 카메라(330)를 이용하여 획득된 제3 콘텐트를 상기 메모리(340) 내에 구성된 버퍼에 저장하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 응답하여, 상기 제1 시점으로부터 상기 제3 시점까지 획득된 제4 콘텐트와, 상기 버퍼에 저장된 상기 제3 콘텐트를 결합(combine)함으로써, 상기 제1 콘텐트를 획득하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 제4 시점에서 상기 미리 정의된 시간 이전의 제6 시점으로부터 상기 제4 시점까지 획득된 제5 콘텐트를 상기 메모리(340) 내에 구성된 버퍼에 저장하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 버퍼에 저장된 상기 제5 콘텐트를 삭제하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 제4 시점으로부터 상기 제5 시점까지 상기 카메라(330)를 이용하여 상기 제2 콘텐트를 획득하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)의 사용에 대한 권한 및 상기 제2 웨어러블 장치(510)에 포함된 심박 센서의 사용에 대한 권한을 요청하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)의 사용에 대한 권한 및 상기 제2 웨어러블 장치(510)에 포함된 상기 심박 센서의 사용에 대한 권한을 획득한 뒤, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경됨을 식별하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경됨을 식별하는 것에 응답하여, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)를 비활성화 상태로부터 활성화 상태로 변경하고, 상기 제2 웨어러블 장치(510)에 포함된 상기 심박 센서를 활성화하도록 제어하기 위한 신호를 상기 제2 웨어러블 장치(510)에게 송신하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 제1 사용자 입력에 기반하여, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 웨어러블 장치(300), 상기 제2 웨어러블 장치(510), 및 상기 제1 외부 전자 장치와 관련된 모드를 제1 모드로 설정하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 웨어러블 장치(300)가 상기 제1 모드로 동작하는 동안, 상기 제1 사용자 입력과 구별되는 제2 사용자 입력에 기반하여, 상기 사용자의 상태를 상기 응급 상태로 인식하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 상기 모드를 제1 모드와 구별되는 제2 모드로 설정하도록 설정될 수 있다. 상기 제1 모드는, 상기 웨어러블 장치(300), 상기 제2 웨어러블 장치(510), 및 상기 제1 외부 전자 장치에 포함된 복수의 센서들 중, 상기 발생 가능한 위험을 식별하기 위해 사용되는 제1 세트의 센서들이 활성화되도록 설정되는 모드를 포함할 수 있다. 상기 제2 모드는, 상기 복수의 센서들 중, 상기 제1 세트의 센서들 및 상기 사용자의 의식 상태에 대한 정보를 획득하기 위해 사용되는 제2 세트의 센서들이 활성화되도록 설정되는 모드를 포함할 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 제1 데이터 및 상기 제2 데이터를, 상기 메모리(340)에 저장된, 복수의 파라미터들에 의해 지시되는 미리 정의된 모델의 입력 값으로 설정(set)하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 미리 정의된 모델의 출력 값을 식별함으로써, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경되는지 여부를 식별하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 상기 제1 데이터 및 상기 제2 데이터에 기반하여, 상기 미리 정의된 모델을 학습시키도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 미리 정의된 시간 자원 내에서 제1 시간 간격에 기반하여 획득된, 상기 온도가 상기 제1 기준 범위 내로 식별된 횟수를 나타내는 제1 값을 식별하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 제1 값이 미리 정의된 값 이상임을 식별하는 것에 응답하여, 상기 사용자의 상태를 상기 응급 상태로 인식하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 미리 정의된 시간 자원 내에서 상기 제1 시간 간격에 기반하여 획득된, 상기 온도가 상기 제2 기준 범위 내로 식별된 횟수를 나타내는 제2 값을 식별하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 제2 값이 상기 미리 정의된 값 이상임을 식별하는 것에 응답하여, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 카메라(330)는, 상기 사용자의 시선에 대응하도록 배치될 수 있다. 상기 프로세서(310)는, 상기 카메라(330)를 이용하여, 상기 외부 객체가 상기 사용자에게 접근하는 중임을 식별하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자에게 접근하는 상기 외부 객체의 크기 및 속도에 대한 정보를, 상기 카메라(330)를 이용하여, 식별하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 외부 객체의 크기 및 속도에 대한 정보에 기반하여, 상기 사용자에게 상기 발생 가능한 위험을 식별하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자에게 상기 발생 가능한 위험을 식별하는 것에 응답하여, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 프로세서(310)는, 가속도 센서 및 자이로 센서를 포함하는 상기 제2 웨어러블 장치(510)로부터, 상기 사용자의 모션에 대한 제3 데이터를 수신하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 제1 데이터 및 상기 제3 데이터에 기반하여, 상기 사용자에게 낙상이 발생하였음을 식별하도록 설정될 수 있다. 상기 프로세서(310)는, 상기 사용자에게 낙상이 발생하였음을 식별하는 것에 응답하여, 상기 사용자의 상태를 상기 응급 상태로 인식하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 제1 콘텐트는, 영상, 이미지, 음성, 통화 기록, 웨어러블 장치(300)의 위치 정보, 및 실행 중인 어플리케이션에 대한 정보 중 적어도 하나를 포함할 수 있다. 상기 제2 콘텐트는, 영상, 이미지, 음성, 통화 기록, 웨어러블 장치(300)의 위치 정보, 및 실행 중인 어플리케이션에 대한 정보 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)의 방법은, 상기 웨어러블 장치(300)와 접촉된 사용자의 머리(head)에 대한 온도를 나타내는 제1 데이터를 상기 웨어러블 장치(300)의 온도 센서(401)를 통해 획득하는 동작을 포함할 수 있다. 상기 동작은, 제1 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 응급 상태로 인식하는 동작을 포함할 수 있다. 상기 동작은, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 상기 웨어러블 장치(300)의 카메라(330)를 통해 상기 사용자의 상태가 상기 응급 상태로 인식된 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터, 상기 제1 시점에서 상기 미리 정의된 시간 이후인 제3 시점까지 획득된 제1 콘텐트 및 상기 응급 상태의 상기 인식에 응답하여 활성화된, 상기 웨어러블 장치(300)의 동공 인식 센서(402) 및 상기 웨어러블 장치(300)의 뇌파 센서(403)를 이용하여 상기 제1 시점으로부터 상기 제3 시점까지 획득된 사용자의 의식 상태에 대한 정보를 상기 웨어러블 장치(300)의 메모리(340) 내에 저장하고, 상기 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 손목과 접촉된 제2 웨어러블 장치(510)에게 송신하고, 상기 사용자의 상기 응급 상태를 나타내는 정보 및 상기 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신하라는 제2 요청을 제1 외부 전자 장치에게 송신하는 동작을 포함할 수 있다. 상기 동작은, 상기 제1 기준 범위와 다른 제2 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 위험 모니터링 상태로 인식하는 동작을 포함할 수 있다. 상기 동작은, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 카메라(330)를 통해 상기 사용자의 상태가 상기 위험 모니터링 상태로 인식된 제4 시점으로부터, 상기 제4 시점에서 상기 미리 정의된 시간 이후의 제5 시점까지 획득된 제2 콘텐트를 상기 메모리(340) 내에 저장하고, 발생 가능한 위험을 경고함을 나타내는 정보를 제공하고, 상기 제1 요청을 상기 제2 웨어러블 장치(510)에게 송신하고, 상기 제1 요청에 대한 응답으로 상기 제2 데이터를 상기 제2 웨어러블 장치(510)로부터 수신하고, 상기 제1 데이터 및 상기 제2 데이터를 이용하여, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경되는지 여부를 식별하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 제2 시점으로부터 상기 제1 시점까지, 제1 시간 간격에 기반하여, 상기 제1 데이터를 획득하는 동작을 포함할 수 있다. 상기 동작은, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 응답하여, 상기 제1 시점으로부터 상기 제3 시점까지 상기 제1 시간 간격보다 짧은 제2 시간 간격에 기반하여, 상기 제1 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 응답하여, 상기 제4 시점으로부터 상기 제5 시점까지 상기 제1 시간 간격보다 짧고, 상기 제2 시간 간격보다 긴, 제3 시간 간격에 기반하여, 상기 제1 데이터를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)의 비활성화 상태를 유지하고, 상기 제1 외부 전자 장치에게 상기 제2 요청을 송신하는 것을 삼가하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 제2 시점으로부터 상기 제1 시점까지 상기 카메라(330)를 이용하여 획득된 제3 콘텐트를 상기 메모리(340) 내에 구성된 버퍼에 저장하는 동작을 포함할 수 있다. 상기 동작은, 상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 응답하여, 상기 제1 시점으로부터 상기 제3 시점까지 획득된 제4 콘텐트와, 상기 버퍼에 저장된 상기 제3 콘텐트를 결합(combine)함으로써, 상기 제1 콘텐트를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 방법은, 상기 제4 시점에서 상기 미리 정의된 시간 이전의 제6 시점으로부터 상기 제4 시점까지 획득된 제5 콘텐트를 상기 메모리(340) 내에 구성된 버퍼에 저장하는 동작을 포함할 수 있다. 상기 동작은, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 버퍼에 저장된 상기 제5 콘텐트를 삭제하는 동작을 포함할 수 있다. 상기 동작은, 상기 제4 시점으로부터 상기 제5 시점까지 상기 카메라(330)를 이용하여 상기 제2 콘텐트를 획득하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 웨어러블 장치(300)는, 적어도 하나의 센서(320), 카메라(330), 메모리(340) 및 프로세서(310)를 포함하고, 상기 프로세서는, 상기 웨어러블 장치(300)와 접촉된 사용자의 신체의 제1 부분에서 획득된 사용자의 신체에 대한 제1 데이터를, 상기 적어도 하나의 센서(320)를 통해 획득하고, 상기 제1 데이터가 제1 조건을 만족하는 것에 기반하여, 상기 사용자의 상태를 응급 상태인 제1 상태로 인식하고, 상기 제1 상태를 상기 제1 상태로 인식하는 것에 기반하여, 상기 카메라(330)를 통해 상기 사용자의 상태가 상기 응급 상태로 인식된 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터, 상기 제1 시점에서 상기 미리 정의된 시간 이후인 제3 시점까지 획득된 제1 콘텐트를 상기 메모리(340) 내에 저장하고, 상기 제1 조건과 다른 제2 조건을 만족하는 상기 제1 데이터에 기반하여, 상기 상태를 상기 응급 상태로의 변경을 식별하는 제2 상태로 인식하고, 상기 상태를 상기 제2 상태로 인식하는 것에 기반하여, 상기 카메라(330)를 통해 상기 사용자의 상태가 상기 위험 모니터링 상태로 인식된 제4 시점으로부터, 상기 제4 시점에서 상기 미리 정의된 시간 이후의 제5 시점까지 획득된 제2 콘텐트를 상기 메모리(340) 내에 저장하도록 설정될 수 있다.
상술한 실시 예들에 따르면, 웨어러블 장치(300)를 이용하여 획득되는 사용자에 대한 데이터의 정확도를 높일 수 있는 효과가 있다. 상술한 실시 예들에 따르면, 웨어러블 장치(300)의 착용으로 인해 발생되는 사용자의 주변 인지 감각을 높일 수 있는 효과가 있다. 상술한 실시 예들에 따르면, 웨어러블 장치(300)로 위험 상황을 미리 식별하고 사용자에게, 발생 가능한 위험에 대한 알림을 제공할 수 있는 효과가 있다. 상술한 실시 예들에 따르면, 웨어러블 장치(300) 뿐만 아니라 웨어러블 장치(300)와 연결된 제2 외부 전자 장치에서 획득된 사용자에 대한 데이터에 기반하여, 사용자의 상태를 식별할 수 있는 효과가 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시 예들에서, 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: CD-ROM(compact disc read only memory))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (20)

  1. 웨어러블 장치(300)에 있어서,
    온도 센서(401);
    동공 인식 센서(402);
    뇌파 센서(403);
    카메라(330);
    메모리(340);
    통신 회로(350); 및
    상기 온도 센서(401), 동공 인식 센서(402), 뇌파 센서(403), 상기 카메라(330), 및 상기 메모리(340)와 작동적으로 결합된 프로세서(310)를 포함하고, 상기 프로세서(310)는,
    상기 웨어러블 장치(300)와 접촉된 사용자의 머리(head)에 대한 온도를 나타내는 제1 데이터를 상기 온도 센서(401)를 통해 획득하고,
    제1 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 응급 상태로 인식하고,
    상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 상기 카메라(330)를 통해 상기 사용자의 상태가 상기 응급 상태로 인식된 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터, 상기 제1 시점에서 상기 미리 정의된 시간 이후인 제3 시점까지 획득된 제1 콘텐트 및 상기 응급 상태의 상기 인식에 응답하여 활성화된, 상기 동공 인식 센서(402) 또는 상기 뇌파 센서(403)를 이용하여 상기 제1 시점으로부터 상기 제3 시점까지 획득된 사용자의 의식 상태에 대한 정보를 상기 메모리(340) 내에 저장하고, 상기 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 손목과 접촉된 제2 웨어러블 장치에게 송신하고, 상기 사용자의 상기 응급 상태를 나타내는 정보 및 상기 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신하라는 제2 요청을 제1 외부 전자 장치에게 송신하고,
    상기 제1 기준 범위와 다른 제2 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 위험 모니터링 상태로 인식하고,
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 카메라(330)를 통해 상기 사용자의 상태가 상기 위험 모니터링 상태로 인식된 제4 시점으로부터, 상기 제4 시점에서 상기 미리 정의된 시간 이후의 제5 시점까지 획득된 제2 콘텐트를 상기 메모리(340) 내에 저장하고, 발생 가능한 위험을 경고함을 나타내는 정보를 제공하고, 상기 제1 요청을 상기 제2 웨어러블 장치에게 송신하고, 상기 제1 요청에 대한 응답으로 상기 제2 데이터를 상기 제2 웨어러블 장치로부터 수신하고, 상기 제1 데이터 및 상기 제2 데이터를 이용하여, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경되는지 여부를 식별하도록 설정된
    웨어러블 장치(300).
  2. 제1 항에 있어서, 상기 프로세서(310)는,
    상기 제2 시점으로부터 상기 제1 시점까지, 제1 시간 간격에 기반하여, 상기 제1 데이터를 획득하고,
    상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 응답하여, 상기 제1 시점으로부터 상기 제3 시점까지 상기 제1 시간 간격보다 짧은 제2 시간 간격에 기반하여, 상기 제1 데이터를 획득하도록 더 설정된
    웨어러블 장치(300).
  3. 제2 항에 있어서, 상기 프로세서(310)는,
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 응답하여, 상기 제4 시점으로부터 상기 제5 시점까지 상기 제1 시간 간격보다 짧고, 상기 제2 시간 간격보다 긴, 제3 시간 간격에 기반하여, 상기 제1 데이터를 획득하도록 더 설정된
    웨어러블 장치(300).
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    상기 제1 데이터에 기반하여, 상기 사용자의 체온에 관한 트렌드를 식별하고,
    상기 사용자의 체온에 관한 트렌드에 기반하여, 상기 제1 기준 범위 및 상기 제2 기준 범위를 결정하도록 더 설정된
    웨어러블 장치(300).
  5. 제1 항 내지 제4 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)의 비활성화 상태를 유지하고, 상기 제1 외부 전자 장치에게 상기 제2 요청을 송신하는 것을 삼가도록 더 설정된
    웨어러블 장치(300).
  6. 제1 항 내지 제5 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    상기 제2 시점으로부터 상기 제1 시점까지 상기 카메라(330)를 이용하여 획득된 제3 콘텐트를 상기 메모리(340) 내에 구성된 버퍼에 저장하고,
    상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 응답하여, 상기 제1 시점으로부터 상기 제3 시점까지 획득된 제4 콘텐트와, 상기 버퍼에 저장된 상기 제3 콘텐트를 결합(combine)함으로써, 상기 제1 콘텐트를 획득하도록 더 설정된
    웨어러블 장치(300).
  7. 제1 항 내지 제6 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    상기 제4 시점에서 상기 미리 정의된 시간 이전의 제6 시점으로부터 상기 제4 시점까지 획득된 제5 콘텐트를 상기 메모리(340) 내에 구성된 버퍼에 저장하고,
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 버퍼에 저장된 상기 제5 콘텐트를 삭제하고,
    상기 제4 시점으로부터 상기 제5 시점까지 상기 카메라(330)를 이용하여 상기 제2 콘텐트를 획득하도록 더 설정된
    웨어러블 장치(300).
  8. 제1 항 내지 제7 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)의 사용에 대한 권한 및 상기 제2 웨어러블 장치(510)에 포함된 심박 센서의 사용에 대한 권한을 요청하고,
    상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)의 사용에 대한 권한 및 상기 제2 웨어러블 장치(510)에 포함된 상기 심박 센서의 사용에 대한 권한을 획득한 뒤, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경됨을 식별하고,
    상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경됨을 식별하는 것에 응답하여, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)를 비활성화 상태로부터 활성화 상태로 변경하고, 상기 제2 웨어러블 장치(510)에 포함된 상기 심박 센서를 활성화하도록 제어하기 위한 신호를 상기 제2 웨어러블 장치(510)에게 송신하도록 더 설정된
    웨어러블 장치(300).
  9. 제1 항 내지 제8 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    제1 사용자 입력에 기반하여, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하고,
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 웨어러블 장치(300), 상기 제2 웨어러블 장치(510), 및 상기 제1 외부 전자 장치와 관련된 모드를 제1 모드로 설정하고,
    상기 웨어러블 장치(300)가 상기 제1 모드로 동작하는 동안, 상기 제1 사용자 입력과 구별되는 제2 사용자 입력에 기반하여, 상기 사용자의 상태를 상기 응급 상태로 인식하고,
    상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 상기 모드를 제1 모드와 구별되는 제2 모드로 설정하도록 설정되고,
    상기 제1 모드는,
    상기 웨어러블 장치(300), 상기 제2 웨어러블 장치(510), 및 상기 제1 외부 전자 장치에 포함된 복수의 센서들 중, 상기 발생 가능한 위험을 식별하기 위해 사용되는 제1 세트의 센서들이 활성화되도록 설정되는 모드를 포함하고,
    상기 제2 모드는,
    상기 복수의 센서들 중, 상기 제1 세트의 센서들 및 상기 사용자의 의식 상태에 대한 정보를 획득하기 위해 사용되는 제2 세트의 센서들이 활성화되도록 설정되는 모드를 포함하는
    웨어러블 장치(300).
  10. 제1 항 내지 제9 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    상기 제1 데이터 및 상기 제2 데이터를, 상기 메모리(340)에 저장된, 복수의 파라미터들에 의해 지시되는 미리 정의된 모델의 입력 값으로 설정하고,
    상기 미리 정의된 모델의 출력 값을 식별함으로써, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경되는지 여부를 식별하도록 더 설정된
    웨어러블 장치(300).
  11. 제10 항에 있어서, 상기 프로세서(310)는,
    상기 제1 데이터 및 상기 제2 데이터에 기반하여, 상기 미리 정의된 모델을 학습시키도록 더 설정된
    웨어러블 장치(300).
  12. 제1 항 내지 제11 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    미리 정의된 시간 자원 내에서 제1 시간 간격에 기반하여 획득된, 상기 온도가 상기 제1 기준 범위 내로 식별된 횟수를 나타내는 제1 값을 식별하고,
    상기 제1 값이 미리 정의된 값 이상임을 식별하는 것에 응답하여, 상기 사용자의 상태를 상기 응급 상태로 인식하고,
    상기 미리 정의된 시간 자원 내에서 상기 제1 시간 간격에 기반하여 획득된, 상기 온도가 상기 제2 기준 범위 내로 식별된 횟수를 나타내는 제2 값을 식별하고,
    상기 제2 값이 상기 미리 정의된 값 이상임을 식별하는 것에 응답하여, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하도록 더 설정된
    웨어러블 장치(300).
  13. 제1 항 내지 제12 항 중 어느 한 항에 있어서, 상기 카메라(330)는,
    상기 사용자의 시선에 대응하도록 배치되고,
    상기 프로세서(310)는,
    상기 카메라(330)를 이용하여, 상기 외부 객체가 상기 사용자에게 접근하는 중임을 식별하고,
    상기 사용자에게 접근하는 상기 외부 객체의 크기 및 속도에 대한 정보를, 상기 카메라(330)를 이용하여, 식별하고,
    상기 외부 객체의 크기 및 속도에 대한 정보에 기반하여, 상기 사용자에게 상기 발생 가능한 위험을 식별하고,
    상기 사용자에게 상기 발생 가능한 위험을 식별하는 것에 응답하여, 상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하도록 더 설정된
    웨어러블 장치(300).
  14. 제1 항 내지 제13 항 중 어느 한 항에 있어서, 상기 프로세서(310)는,
    가속도 센서 및 자이로 센서를 포함하는 상기 제2 웨어러블 장치(510)로부터, 상기 사용자의 모션에 대한 제3 데이터를 수신하고,
    상기 제1 데이터 및 상기 제3 데이터에 기반하여, 상기 사용자에게 낙상이 발생하였음을 식별하고,
    상기 사용자에게 낙상이 발생하였음을 식별하는 것에 응답하여, 상기 사용자의 상태를 상기 응급 상태로 인식하도록 더 설정된
    웨어러블 장치(300).
  15. 제1 항 내지 제14 항 중 어느 한 항에 있어서, 상기 제1 콘텐트 및 상기 제2 콘텐트는,
    영상, 이미지, 음성, 통화 기록, 웨어러블 장치(300)의 위치 정보, 및 실행 중인 어플리케이션에 대한 정보 중 적어도 하나를 포함하는
    웨어러블 장치(300)
  16. 웨어러블 장치(300)의 방법에 있어서,
    상기 웨어러블 장치(300)와 접촉된 사용자의 머리(head)에 대한 온도를 나타내는 제1 데이터를 상기 웨어러블 장치(300)의 온도 센서(401)를 통해 획득하는 동작;
    제1 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 응급 상태로 인식하는 동작;
    상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 기반하여, 상기 웨어러블 장치(300)의 카메라(330)를 통해 상기 사용자의 상태가 상기 응급 상태로 인식된 제1 시점에서 미리 정의된 시간 이전인 제2 시점으로부터, 상기 제1 시점에서 상기 미리 정의된 시간 이후인 제3 시점까지 획득된 제1 콘텐트 및 상기 응급 상태의 상기 인식에 응답하여 활성화된, 상기 웨어러블 장치(300)의 동공 인식 센서(402) 및 상기 웨어러블 장치(300)의 뇌파 센서(403)를 이용하여 상기 제1 시점으로부터 상기 제3 시점까지 획득된 사용자의 의식 상태에 대한 정보를 상기 웨어러블 장치(300)의 메모리(340) 내에 저장하고, 상기 사용자의 심박에 대한 제2 데이터를 획득하라는 제1 요청을 손목과 접촉된 제2 웨어러블 장치(510)에게 송신하고, 상기 사용자의 상기 응급 상태를 나타내는 정보 및 상기 사용자의 의식 상태에 대한 정보를 제2 외부 전자 장치에게 송신하라는 제2 요청을 제1 외부 전자 장치에게 송신하는 동작;
    상기 제1 기준 범위와 다른 제2 기준 범위 내의 상기 온도를 나타내는 상기 제1 데이터에 기반하여, 상기 사용자의 상태를 위험 모니터링 상태로 인식하는 동작; 및
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 카메라(330)를 통해 상기 사용자의 상태가 상기 위험 모니터링 상태로 인식된 제4 시점으로부터, 상기 제4 시점에서 상기 미리 정의된 시간 이후의 제5 시점까지 획득된 제2 콘텐트를 상기 메모리(340) 내에 저장하고, 발생 가능한 위험을 경고함을 나타내는 정보를 제공하고, 상기 제1 요청을 상기 제2 웨어러블 장치(510)에게 송신하고, 상기 제1 요청에 대한 응답으로 상기 제2 데이터를 상기 제2 웨어러블 장치(510)로부터 수신하고, 상기 제1 데이터 및 상기 제2 데이터를 이용하여, 상기 사용자의 상태가 상기 위험 모니터링 상태로부터 상기 응급 상태로 변경되는지 여부를 식별하는 동작을 포함하는
    방법.
  17. 제16 항에 있어서, 상기 방법은,
    상기 제2 시점으로부터 상기 제1 시점까지, 제1 시간 간격에 기반하여, 상기 제1 데이터를 획득하는 동작; 및
    상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 응답하여, 상기 제1 시점으로부터 상기 제3 시점까지 상기 제1 시간 간격보다 짧은 제2 시간 간격에 기반하여, 상기 제1 데이터를 획득하는 동작을 더 포함하는
    방법.
  18. 제17 항에 있어서, 상기 방법은,
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 응답하여, 상기 제4 시점으로부터 상기 제5 시점까지 상기 제1 시간 간격보다 짧고, 상기 제2 시간 간격보다 긴, 제3 시간 간격에 기반하여, 상기 제1 데이터를 획득하는 동작을 더 포함하는
    방법.
  19. 제16 항 내지 제18 항 중 어느 한 항에 있어서, 상기 방법은,
    상기 사용자의 상태를 상기 위험 모니터링 상태로 인식하는 것에 기반하여, 상기 동공 인식 센서(402) 및 상기 뇌파 센서(403)의 비활성화 상태를 유지하고, 상기 제1 외부 전자 장치에게 상기 제2 요청을 송신하는 것을 삼가하는 동작을 더 포함하는
    방법.
  20. 제16 항 내지 제19 항 중 어느 한 항에 있어서, 상기 방법은,
    상기 제2 시점으로부터 상기 제1 시점까지 상기 카메라(330)를 이용하여 획득된 제3 콘텐트를 상기 메모리(340) 내에 구성된 버퍼에 저장하는 동작; 및
    상기 사용자의 상태를 상기 응급 상태로 인식하는 것에 응답하여, 상기 제1 시점으로부터 상기 제3 시점까지 획득된 제4 콘텐트와, 상기 버퍼에 저장된 상기 제3 콘텐트를 결합(combine)함으로써, 상기 제1 콘텐트를 획득하는 동작을 더 포함하는
    방법.
KR1020220119668A 2022-08-29 2022-09-21 사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법 KR20240031818A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/009111 WO2024048948A1 (ko) 2022-08-29 2023-06-29 사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220108769 2022-08-29
KR1020220108769 2022-08-29

Publications (1)

Publication Number Publication Date
KR20240031818A true KR20240031818A (ko) 2024-03-08

Family

ID=90236084

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220119668A KR20240031818A (ko) 2022-08-29 2022-09-21 사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20240031818A (ko)

Similar Documents

Publication Publication Date Title
US11638550B2 (en) Systems and methods for stroke detection
US20200323489A1 (en) Wearable electronic device including biometric sensor and wireless charging module
EP3220815B1 (en) Apparatus for measuring bioelectrical signals
KR20160086102A (ko) 웨어러블 디바이스 및 그 제어 방법
US11883172B2 (en) Electronic device for generating health information on basis of plurality of biosignals and operation method therefor
WO2018165307A1 (en) Mitigation of head-mounted-display impact via biometric sensors and language processing
US20200297256A1 (en) Electronic device and method for notification of biometric information by electronic device
WO2022025678A1 (en) Electronic device for evaluating sleep quality and method for operation in the electronic device
JP2018005512A (ja) プログラム、電子機器、情報処理装置及びシステム
KR20240031818A (ko) 사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법
KR20220016715A (ko) 위험 정보를 감지하는 전자 장치 및 방법
US20230000353A1 (en) Electronic device and method of measuring oxygen saturation based on user context in the electronic device
KR20200061864A (ko) 생체 센서 모듈 및 이를 포함하는 전자 장치
WO2023054912A1 (ko) 전자 장치 및 전자 장치에서의 생체 정보 알림 방법
US20230074565A1 (en) Electronic device and method for detecting tremor in electronic device
WO2024048948A1 (ko) 사용자에 대한 데이터를 획득하기 위한 웨어러블 장치 및 방법
WO2023282437A1 (ko) 전자 장치 및 전자 장치에서 사용자 컨텍스트 기반 산소 포화도 측정 방법
WO2023033304A1 (ko) 전자 장치 및 전자 장치에서 트레머 증상 검출 방법
KR20230046168A (ko) 획득된 데이터에 기반하여 화면을 표시하기 위한 전자 장치 및 방법
KR20230027986A (ko) 사용자의 건강 지수를 측정하기 위한 방법 및 이를 지원하는 전자 장치
KR20240028888A (ko) 생체 정보를 측정하는 전자 장치 및 이의 동작 방법
KR20230114151A (ko) 체온 측정을 위한 전자 장치 및 그의 동작 방법
KR20230035182A (ko) 정신 건강 관리를 위한 전자 장치 및 이의 제어 방법
KR20230075320A (ko) 수분을 감지하기 위한 전자 장치
KR20220091141A (ko) 센서 어레이를 포함하는 전자 장치 및 그 제어 방법