KR20230078038A - Method for providing a user interface for dementia prevention and device for performing the same - Google Patents

Method for providing a user interface for dementia prevention and device for performing the same Download PDF

Info

Publication number
KR20230078038A
KR20230078038A KR1020210165387A KR20210165387A KR20230078038A KR 20230078038 A KR20230078038 A KR 20230078038A KR 1020210165387 A KR1020210165387 A KR 1020210165387A KR 20210165387 A KR20210165387 A KR 20210165387A KR 20230078038 A KR20230078038 A KR 20230078038A
Authority
KR
South Korea
Prior art keywords
data
dementia
user
sleep
activity
Prior art date
Application number
KR1020210165387A
Other languages
Korean (ko)
Inventor
허석재
신진희
Original Assignee
주식회사 에스오엠씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스오엠씨 filed Critical 주식회사 에스오엠씨
Priority to KR1020210165387A priority Critical patent/KR20230078038A/en
Publication of KR20230078038A publication Critical patent/KR20230078038A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/14Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of gyroscopes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Neurology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Physiology (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Neurosurgery (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은, 치매 예방을 위한 사용자 인터페이스 제공 방법으로서, 상기 방법은, 사용자의 활동 데이터(Activity), 수면 데이터(Sleep) 및 상기 활동 데이터와 상기 수면 데이터를 기초로 생성되는 요약 데이터를 획득하는 단계, 활동 데이터, 수면 데이터 및 요약 데이터를 입력으로 하여 치매 단계를 예측하도록 학습된 치매 예측 모델에, 획득된 활동 데이터, 수면 데이터 및 요약 데이터를 입력하여 사용자의 치매 단계를 예측하는 단계, 상기 사용자의 치매 단계와 관련된 이미지와 함께 상기 활동 데이터 또는 상기 수면 데이터의 획득 결과가 포함된 제1 모니터링 인터페이스 화면을 제공하는 단계를 포함하도록 구성된다. The present invention is a method for providing a user interface for preventing dementia, comprising the steps of acquiring activity data (Activity), sleep data (Sleep) of a user, and summary data generated based on the activity data and the sleep data. , Predicting the user's dementia stage by inputting the acquired activity data, sleep data, and summary data into a dementia prediction model learned to predict the dementia stage by taking the activity data, sleep data, and summary data as inputs, and providing a first monitoring interface screen including an image related to the stage of dementia and a result of acquiring the activity data or the sleep data.

Figure P1020210165387
Figure P1020210165387

Description

치매 예방을 위한 사용자 인터페이스 제공 방법 및 이를 수행하는 디바이스{METHOD FOR PROVIDING A USER INTERFACE FOR DEMENTIA PREVENTION AND DEVICE FOR PERFORMING THE SAME}Method for providing a user interface for preventing dementia and a device performing the same

본 발명은 치매 예방을 위한 사용자 인터페이스 제공 방법 및 이를 수행하는 디바이스에 관한 것이다. The present invention relates to a method for providing a user interface for preventing dementia and a device performing the same.

뇌 질환 중의 하나인 치매는 점진적인 기억력 장애, 인지력 장애를 유발하여 일상적인 생활을 어렵게 한다. 일반적으로 치매는 노화에 따라 수반되는 질환으로, 50세 이상의 장년, 노년층은 치매에 대한 지속적인 관심이 필요하다. Dementia, one of the brain diseases, causes progressive memory and cognitive impairment, making daily life difficult. In general, dementia is a disease that accompanies aging, and the elderly over 50 years of age require continuous attention to dementia.

최근 치매에 대한 사회적 관심이 증가하면서, 치매 원인을 규명하고 치매 관련 위험인자를 예측 및 예방하고자 하는 연구가 증가하고 있다. Recently, as social interest in dementia increases, studies to identify the cause of dementia and to predict and prevent dementia-related risk factors are increasing.

기존의 치매의 조기 예측은 뇌 영상(MRI)이나 뇌파에 대한 바이오마커를 이용하여 수행되었으나, 이러한 방법은 비전문가인 사용자가 쉽게 해석할 수 없는 데이터인 바, 전문가를 통한 주기적인 진단을 필요로 한다. Conventional early prediction of dementia has been performed using biomarkers for brain imaging (MRI) or brain waves, but these methods require periodic diagnosis through experts as they are data that can not be easily interpreted by non-expert users. .

발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The background description of the invention has been prepared to facilitate understanding of the present invention. It should not be construed as an admission that matters described in the background art of the invention exist as prior art.

이에, 일상 생활 속에서 개개인의 치매 발병의 위험률과 이를 낮추기 위한 새로운 방법이 요구된다. Accordingly, there is a need for a new method for lowering the risk of developing dementia in individuals in daily life.

그 결과, 본 발명의 발명자들은, 사용자가 착용한 웨어러블 디바이스를 통해 사용자의 평상 시 활동에 따른 생체 데이터를 획득하고, 생체 데이터를 이용하여 사용자의 치매 발병 위험 확률을 예측할 수 있는 방법 및 이를 수행하는 디바이스를 개발하고자 하였다. As a result, the inventors of the present invention obtained biometric data according to the user's usual activities through a wearable device worn by the user, and using the biometric data, a method for predicting the user's risk probability of developing dementia, and a method for performing the same device to be developed.

특히, 본 발명의 발명자들은, 개인 별로 치매 위험을 낮추거나 높이는 요인을 파악하고, 사용자 인터페이스를 통해 해당 요인들을 관리할 수 있는 방법 및 이를 수행하는 디바이스를 개발하기에 이르렀다. In particular, the inventors of the present invention have come to develop a method capable of identifying factors that lower or increase the risk of dementia for each individual and managing the corresponding factors through a user interface, and a device for performing the same.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 치매 예방을 위한 사용자 인터페이스 제공 방법이 제공된다. 상기 방법은, 사용자의 활동 데이터(Activity), 수면 데이터(Sleep) 및 상기 활동 데이터와 상기 수면 데이터를 기초로 생성되는 요약 데이터를 획득하는 단계, 활동 데이터, 수면 데이터 및 요약 데이터를 입력으로 하여 치매 단계를 예측하도록 학습된 치매 예측 모델에, 획득된 활동 데이터, 수면 데이터 및 요약 데이터를 입력하여 사용자의 치매 단계를 예측하는 단계 및 상기 사용자의 치매 단계와 관련된 이미지와 함께 상기 활동 데이터 또는 상기 수면 데이터의 획득 결과가 포함된 제1 모니터링 인터페이스 화면을 제공하는 단계를 포함하도록 구성된다. In order to solve the above problems, a method for providing a user interface for preventing dementia according to an embodiment of the present invention is provided. The method includes obtaining activity data (Activity), sleep data (Sleep) of a user, and summary data generated based on the activity data and the sleep data, using the activity data, sleep data, and summary data as inputs to treat dementia. Predicting the user's dementia stage by inputting the acquired activity data, sleep data, and summary data into the dementia prediction model learned to predict the stage, and the activity data or the sleep data together with an image related to the user's dementia stage and providing a first monitoring interface screen including the acquisition result of .

본 발명의 특징에 따르면, 상기 활동 데이터는, 가속도 센서, 속도 센서 및 자이로스코프 센서 중 적어도 하나를 통해 측정된 데이터이고, 상기 데이터를 획득하는 단계는, 상기 활동 데이터를 이용하여 상기 수면 데이터를 계산하는 단계를 더 포함할 수 있다. According to a feature of the present invention, the activity data is data measured through at least one of an acceleration sensor, a speed sensor, and a gyroscope sensor, and the obtaining of the data includes calculating the sleep data using the activity data. It may further include steps to do.

본 발명의 다른 특징에 따르면, 상기 사용자의 치매 단계를 예측하는 단계는, 정상, 경도 인지 장애 및 치매 단계 별 상대적인 확률 값을 결정하는 단계와 상기 정상, 경도 인지 장애 및 치매에 대한 상대적인 확률 값 중 가장 큰 값을 사용자의 치매 단계로 결정하는 단계를 더 포함할 수 있다. According to another feature of the present invention, the step of predicting the dementia stage of the user may include determining a relative probability value for each stage of normal, mild cognitive impairment, and dementia, and a relative probability value for normal, mild cognitive impairment, and dementia. The method may further include determining the largest value as the dementia level of the user.

본 발명의 또 다른 특징에 따르면, 상기 치매 단계를 예측하는 단계 이전에, 활동 데이터를 입력하여 활동 데이터 피처를 추출하도록 구성된 제1 피처 모델에 상기 활동 데이터를 입력하여 사용자의 활동 데이터 피처를 추출하고, 수면 데이터를 입력하여 수면 데이터 피처를 추출하도록 구성된 제2 피처 모델에 상기 수면 데이터를 입력하여 사용자의 수면 데이터 피처를 추출하는 단계를 더 포함할 수 있다. According to another feature of the present invention, prior to the step of predicting the dementia stage, activity data is input to a first feature model configured to extract activity data features by inputting activity data to extract activity data features of a user, , extracting sleep data features of the user by inputting the sleep data to a second feature model configured to extract the sleep data features by inputting the sleep data.

본 발명의 또 다른 특징에 따르면, 상기 치매 예측 모델은, 상기 활동 데이터 피처, 상기 수면 데이터 피처 및 상기 요약 데이터에 기초하여 사용자의 치매 단계를 출력하도록 학습된 모델일 수 있다.According to another feature of the present invention, the dementia prediction model may be a model learned to output a dementia stage of a user based on the activity data feature, the sleep data feature, and the summary data.

본 발명의 또 다른 특징에 따르면, 상기 제1 모니터링 인터페이스 화면을 제공하는 단계는, 상기 사용자의 치매 단계를 기준으로 상기 요약 데이터에 포함된 복수의 파라미터가 치매 위험 감소 인자인지 치매 위험 증가 인자인지 결정하는 단계와 상기 복수의 파라미터 각각의 치매 위험 인자 정보를 포함하는 제2 모니터링 인터페이스 화면을 제공하는 단계를 더 포함할 수 있다. According to another feature of the present invention, the providing of the first monitoring interface screen may include determining whether a plurality of parameters included in the summary data are dementia risk reducing factors or dementia risk increasing factors based on the dementia stage of the user. The method may further include providing a second monitoring interface screen including dementia risk factor information of each of the plurality of parameters.

본 발명의 또 다른 특징에 따르면, 상기 요약 데이터에 포함된 복수의 파라미터는, 사용자의 하루 평균 MET(Metabolic Equivalent Task), 활동 칼로리, 사용 칼로리, 걸음수, 활동 시간, 고강도 활동 시간, 중강도 활동 시간, 저강도 활동 시간 및 휴식 시간 중 적어도 하나와 사용자의 총 수면 시간, 수면 효율, 수면 중 깬 시간, 렘(REM) 수면 시간, 얕은 수면 시간, 깊은 수면 시간 및 평균 심박수 중 적어도 하나를 포함할 수 있다. According to another feature of the present invention, the plurality of parameters included in the summary data, the user's daily average MET (Metabolic Equivalent Task), activity calories, calories used, number of steps, activity time, high-intensity activity time, medium-intensity activity time, at least one of time of low-intensity activity, and rest time, and at least one of the user's total sleep time, sleep efficiency, time awake during sleep, REM sleep time, light sleep time, deep sleep time, and average heart rate. can

본 발명의 또 다른 특징에 따르면, 상기 제2 모니터링 인터페이스 화면을 제공하는 단계는, 상기 사용자의 치매 단계를 기준으로 상기 복수의 파라미터 각각의 영향도를 계산하는 단계를 더 포함하고, 상기 제2 모니터링 인터페이스는, 상기 영향도 및 상기 치매 위험 감소 인자 또는 상기 치매 위험 증가 인자 결정 결과에 따라 상기 복수의 파라미터가 서로 다른 이미지로 표시될 수 있다. According to another feature of the present invention, the providing of the second monitoring interface screen further comprises calculating the degree of influence of each of the plurality of parameters based on the dementia stage of the user, and the second monitoring interface screen is further included. The interface may display the plurality of parameters as different images according to the degree of influence and the determination result of the dementia risk reduction factor or the dementia risk increase factor.

본 발명의 또 다른 특징에 따르면, 상기 제2 모니터링 인터페이스 화면은, 상기 복수의 파라미터와 관련된 사용자의 활동 목표, 현재 활동량, 사용자 그룹의 활동 데이터 및 사용자의 위치 데이터 중 적어도 하나가 표시되는 영역을 포함하도록 구성될 수 있다. According to another feature of the present invention, the second monitoring interface screen includes an area displaying at least one of a user's activity goal, current activity amount, user group activity data, and user location data related to the plurality of parameters. can be configured to

본 발명의 또 다른 특징에 따르면, 상기 제1 모니터링 인터페이스 화면은, 상기 복수의 파라미터에 대한 변화 값에 따라, 상기 사용자의 치매 단계와 관련된 상이한 이미지를 표시하도록 구성될 수 있다. According to another feature of the present invention, the first monitoring interface screen may be configured to display different images related to the dementia stage of the user according to the change values of the plurality of parameters.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 다른 실시예에 따른 사용자 디바이스가 제공된다. 상기 디바이스는, 통신 인터페이스, 메모리 및 상기 통신 인터페이스 상기 메모리와 동작 가능하게 연결된 프로세서를 포함하고, 상기 프로세서는, 사용자의 활동 데이터(Activity), 수면 데이터(Sleep) 및 상기 활동 데이터와 상기 수면 데이터를 기초로 생성되는 요약 데이터를 획득하고, 활동 데이터, 수면 데이터 및 요약 데이터를 입력으로 하여 치매 단계를 예측하도록 학습된 치매 예측 모델에, 획득된 활동 데이터, 수면 데이터 및 요약 데이터를 입력하여 사용자의 치매 단계를 예측하는 단계, 상기 사용자의 치매 단계와 관련된 이미지와 함께 상기 활동 데이터 또는 상기 수면 데이터의 획득 결과가 포함된 제1 모니터링 인터페이스 화면을 제공하도록 구성된다. In order to solve the above problems, a user device according to another embodiment of the present invention is provided. The device includes a communication interface, a memory, and a processor operatively connected to the communication interface and the memory, wherein the processor is configured to store user activity data (Activity), sleep data (Sleep), and the activity data and the sleep data. Acquiring summary data generated on the basis of the activity data, sleep data, and summary data as inputs, inputting the acquired activity data, sleep data, and summary data into a dementia prediction model that has been trained to predict the dementia stage, thereby predicting the user's dementia and providing a first monitoring interface screen including an image related to the stage of dementia of the user and a result of acquiring the activity data or the sleep data.

기타 실시예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other embodiment specifics are included in the detailed description and drawings.

본 발명은 사용자의 모션 데이터, 수면 데이터 및 하루 동안의 활동 데이터와 같이 웨어러블 디바이스에서 수집 가능한 데이터, 비정형 데이터들을 이용하여 사용자의 치매 발병 확률을 예측할 수 있다. The present invention can predict the user's dementia onset probability using data collectable by a wearable device, such as the user's motion data, sleep data, and daily activity data, and atypical data.

또한, 본 발명은 치매 발병 확률을 수치적으로 계산하는 것에 더하여, 사용자 별로 어떠한 활동 파라미터들이 치매 위험을 높이는 파라미터인지 혹은, 치매 위험을 낮추는 파라미터인지 분석할 수 있다. In addition to numerically calculating the probability of onset of dementia, the present invention may analyze which activity parameters for each user are parameters that increase the risk of dementia or parameters that decrease the risk of dementia.

또한, 본 발명은 사용자 별로 치매 발병 위험을 예측하는 것에서 나아가, 예측 결과를 토대로 치매를 예방하기 위한, 개인에게 최적화된 생활 패턴, 운동 활동 등을 추천해 줄 수 있다. 특히, 본 발명은 생활 패턴, 운동 활동에 대한 목표 값을 사용자가 이해하기 쉬운 그래픽 화면으로 제공해 줄 수 있다. In addition, the present invention can go beyond estimating the risk of developing dementia for each user and recommend a life pattern, exercise activity, etc. optimized for the individual to prevent dementia based on the prediction result. In particular, the present invention can provide target values for life patterns and exercise activities on a graphic screen that is easy for users to understand.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.Effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present invention.

도 1은 본 발명의 일 실시예에 따른 치매 예방 시스템의 개략도이다.
도 2는 본 발명의 일 실시예에 따른 사용자 디바이스의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 치매 예방을 위한 사용자 인터페이스 제공 방법에 대한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 치매 예측을 위한 모델을 설명하기 위한 개략도이다.
도 5 내지 도 14는 본 발명의 일 실시예에 따른 사용자 인터페이스 화면을 설명하기 위한 개략도이다.
1 is a schematic diagram of a dementia prevention system according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a user device according to an embodiment of the present invention.
3 is a flowchart of a method for providing a user interface for preventing dementia according to an embodiment of the present invention.
4 is a schematic diagram for explaining a model for predicting dementia according to an embodiment of the present invention.
5 to 14 are schematic views illustrating user interface screens according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various forms different from each other, only these embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the person who has the scope of the invention, and the present invention is only defined by the scope of the claims. In connection with the description of the drawings, like reference numerals may be used for like elements.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has," "may have," "includes," or "may include" indicate the existence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as “A or B,” “at least one of A and/and B,” or “one or more of A or/and B” may include all possible combinations of the items listed together. . For example, “A or B,” “at least one of A and B,” or “at least one of A or B” (1) includes at least one A, (2) includes at least one B, Or (3) may refer to all cases including at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as “first,” “second,” “first,” or “second,” used in this document may modify various elements, regardless of order and/or importance, and refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of rights described in this document, a first element may be named a second element, and similarly, the second element may also be renamed to the first element.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, third components) do not exist between the other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression "configured to" means "suitable for," "having the capacity to," depending on the circumstances. ," "designed to," "adapted to," "made to," or "capable of." The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware. Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or configured) to perform A, B, and C" may include a dedicated processor (e.g., embedded processor) to perform those operations, or by executing one or more software programs stored in a memory device. , may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted as having the same or similar meaning as the meaning in the context of the related art, and unless explicitly defined in this document, an ideal or excessively formal meaning. not be interpreted as In some cases, even terms defined in this document cannot be interpreted to exclude the embodiments of this document.

본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each feature of the various embodiments of the present invention can be partially or entirely combined or combined with each other, and as those skilled in the art can fully understand, various interlocking and driving operations are possible, and each embodiment can be implemented independently of each other. It may be possible to implement together in an association relationship.

본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다. For clarity of interpretation of this specification, terms used in this specification will be defined below.

도 1은 본 발명의 일 실시예에 따른 치매 예방 시스템의 개략도이다.1 is a schematic diagram of a dementia prevention system according to an embodiment of the present invention.

도 1을 참조하면, 치매 예방 시스템(1000)은 웨어러블 디바이스(100) 및 사용자 디바이스(200)를 포함할 수 있다.Referring to FIG. 1 , a dementia prevention system 1000 may include a wearable device 100 and a user device 200.

치매 예방 시스템(1000)은 사용자의 일상 생활에서 획득되는 생체 데이터를 이용하여, 현재 사용자의 치매 위험도와 치매를 예방하기 위한 생활 패턴, 습관들을 제안해 줄 수 있는 시스템일 수 있다. The dementia prevention system 1000 may be a system capable of suggesting the current user's risk of dementia and lifestyle patterns and habits for preventing dementia, using biometric data acquired in the user's daily life.

그에 따라, 치매 예방 시스템(1000)은 웨어러블 디바이스(100) 및 이와 연결된 사용자 디바이스(200)를 소지한 사용자의 현 상태를 진단하고 치매를 예방하거나 치매 경과를 늦출 수 있는 각종 데이터를 제공할 수 있다. Accordingly, the dementia prevention system 1000 can diagnose the current state of the user who has the wearable device 100 and the user device 200 connected thereto, and provide various data capable of preventing dementia or delaying the progression of dementia. .

웨어러블 디바이스(100)는 사용자의 신체 일 영역에 장착되어 사용자의 생체 데이터를 획득할 수 있다. 웨어러블 디바이스(100)는 가속도 센서, 속도 센서 및 자이로스코프 센서를 포함할 수 있으며, 이를 통해 사용자의 움직임과 관련된 활동 데이터를 측정할 수 있다. The wearable device 100 may acquire the user's biometric data by being worn on one area of the user's body. The wearable device 100 may include an acceleration sensor, a speed sensor, and a gyroscope sensor, through which activity data related to a user's movement may be measured.

또한, 웨어러블 디바이스(100)는 심박 센서 또는 광학 센서를 포함할 수 있으며, 이를 통해 사용자의 심장 박동과 관련된 심박수 데이터, 혈류량 데이터를 측정할 수 있다. In addition, the wearable device 100 may include a heart rate sensor or an optical sensor, through which heart rate data and blood flow data related to a user's heart rate may be measured.

다양한 실시예에서, 웨어러블 디바이스(100)는 생체 데이터를 기초로 사용자의 수면 활동 데이터(수면 데이터)를 획득할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 사용자의 활동 데이터 또는 심박수/혈류량 데이터를 이용하여 사용자의 현재 수면 단계를 분석할 수 있다. 여기서, 수면 단계는 수면 중 깬 상태(1단계), 렘(REM) 수면(2단계), 얕은 수면(3단계), 깊은 수면(4단계)로 구분될 수 있으며, 필요에 따라 세부적인 단계로 구분될 수도 있다. In various embodiments, the wearable device 100 may obtain sleep activity data (sleep data) of the user based on biometric data. For example, the wearable device 100 may analyze the user's current sleep stage by using the user's activity data or heart rate/blood flow data. Here, the sleep stage can be divided into a state of awakening during sleep (stage 1), REM sleep (stage 2), light sleep (stage 3), and deep sleep (stage 4). may be distinguished.

다양한 실시예에서, 웨어러블 디바이스(100)는 주기적인 시간 간격(예. 1분, 5분) 마다 사용자의 생체 데이터를 측정하고, 측정된 활동 로그를 사용자 디바이스(200)로 송신할 수 있다. 구체적으로, 웨어러블 디바이스(100)는 가속도계를 통해 획득한 활동 데이터만을 사용자 디바이스(200)로 송신하거나, 활동 데이터 및 수면 데이터를 사용자 디바이스(200)로 송신할 수 있다. 여기서, 활동 데이터만을 송신하는 경우, 사용자 디바이스(100)는 활동 데이터를 이용하여 수면 데이터를 자체적으로 획득할 수 있으며, 이에 대한 구체적인 설명은 후술하도록 한다. In various embodiments, the wearable device 100 may measure the user's biometric data at regular time intervals (eg, 1 minute, 5 minutes) and transmit the measured activity log to the user device 200 . Specifically, the wearable device 100 may transmit only activity data obtained through an accelerometer to the user device 200 or may transmit activity data and sleep data to the user device 200 . Here, when only activity data is transmitted, the user device 100 may acquire sleep data by itself using the activity data, and a detailed description thereof will be described later.

사용자 디바이스(200)는 웨어러블 디바이스(100)에서 제공한 사용자 고유의 생체 데이터를 토대로 치매에 대한 위험도를 예측할 수 있는 디바이스로, PC, 태블릿 PC, 스마트 폰 등의 전자 장치를 포함할 수 있다. 구체적으로, 사용자 디바이스(200)는 사용자의 활동 데이터와 수면 데이터를 이용하여 사용자의 현재 치매 단계를 예측하고, 사용자의 상태를 관리할 수 있는 인터페이스 화면을 표시할 수 있다. The user device 200 is a device capable of predicting the risk of dementia based on the user's unique biometric data provided by the wearable device 100, and may include electronic devices such as a PC, tablet PC, and smart phone. Specifically, the user device 200 may predict the user's current dementia stage by using the user's activity data and sleep data, and display an interface screen capable of managing the user's condition.

다양한 실시예에서, 사용자 디바이스(200)는 주기적인 시간 간격마다 측정된 활동 데이터를 통해 분당 신진대사 해당치(MET, Metabolic Equivalent Task)를 계산할 수 있다. 예를 들어, 사용자 디바이스(200)는 활동 데이터를 기초로 사용자가 휴식을 취하고 있는지, 저강도/중강도/고강도 운동 중 어느 강도의 운동을 수행하고 있는지 결정할 수 있다. 여기서, 활동 데이터는 시간에 따른 변화량을 나타낸 1차원 데이터일 수 있다. In various embodiments, the user device 200 may calculate a metabolic equivalent task (MET) per minute through activity data measured at each periodic time interval. For example, the user device 200 may determine whether the user is resting or performing an exercise of which intensity among low-intensity/medium-intensity/high-intensity exercise based on the activity data. Here, the activity data may be one-dimensional data representing a change over time.

다양한 실시예에서, 사용자 디바이스(200)는 활동 데이터 또는 광혈류 데이터를 전처리 및 분석하여 사용자의 수면 데이터를 획득할 수 있다. 예를 들어, 수면 데이터는 수면 중 깬 상태(1단계), 렘(REM) 수면(2단계), 얕은 수면(3단계), 깊은 수면(4단계)로 구분되는 수면 단계를 포함할 수 있다. 여기서, 수면 데이터도 역시 시간에 따른 수면 단계 변화를 나타낸 1차원 데이터일 수 있다. In various embodiments, the user device 200 may obtain the user's sleep data by pre-processing and analyzing the activity data or light blood flow data. For example, the sleep data may include sleep stages divided into an awake state during sleep (stage 1), REM sleep (stage 2), light sleep (stage 3), and deep sleep (stage 4). Here, the sleep data may also be one-dimensional data representing a change in sleep stage over time.

다양한 실시예에서, 사용자 디바이스(200)는 웨어러블 디바이스(100)에서 제공한 생체 데이터를 이용하여 사용자의 치매 단계를 결정하기 위한 치매 예측 모델을 학습할 수 있다. 구체적으로, 치매 예측 모델은 사용자의 활동 데이터, 수면 데이터 및 활동 데이터와 수면 데이터를 기초로 생성된 요약 데이터를 입력으로 하여 사용자의 치매 단계를 예측하도록 학습된 모델일 수 있다. 여기서의 “치매 단계”는 정상, 경도 인지 장애, 치매의 3단계로 구분될 수 있으며, 사용자 디바이스(200)는 치매 예측 모델에서 각각의 치매 단계에 대한 상대적인 가능성(확률 값)을 출력하고, 이를 기초로 사용자의 치매 단계를 결정할 수 있다. In various embodiments, the user device 200 may learn a dementia prediction model for determining the dementia stage of the user using biometric data provided by the wearable device 100 . Specifically, the dementia prediction model may be a model learned to predict the dementia stage of the user by taking as inputs the user's activity data, sleep data, and summary data generated based on the activity data and sleep data. The “dementia stage” here can be divided into three stages: normal, mild cognitive impairment, and dementia, and the user device 200 outputs a relative probability (probability value) for each stage of dementia in the dementia prediction model, Based on this, the user's dementia stage may be determined.

지금까지 본 발명의 일 실시예에 따른 치매 예방 시스템(1000)에 대하여 설명하였다. 본 발명에 따르면, 사용자는 웨어러블 디바이스(100)를 장착하는 것만으로도 이와 연결된 자신의 디바이스(사용자 디바이스(200))를 통해서 치매 진단 결과를 확인하고, 자신의 상태를 관리할 수 있는 서비스를 제공받을 수 있다. So far, the dementia prevention system 1000 according to an embodiment of the present invention has been described. According to the present invention, a user can check a dementia diagnosis result through his/her own device (user device 200) connected therewith just by wearing the wearable device 100, and provide a service capable of managing his/her own condition can receive

이하에서는, 웨어러블 디바이스(100)에서 측정하는 가장 기본적인 활동 데이터를 이용하여 사용자의 치매 단계를 예측할 수 있는 사용자 디바이스(200)에 대하여 설명하도록 한다. Hereinafter, the user device 200 capable of predicting the dementia stage of the user using the most basic activity data measured by the wearable device 100 will be described.

도 2는 본 발명의 일 실시예에 따른 사용자 디바이스의 구성을 나타낸 블록도이다.2 is a block diagram showing the configuration of a user device according to an embodiment of the present invention.

도 2를 참조하면, 사용자 디바이스(200)는 메모리 인터페이스(210), 하나 이상의 프로세서(220) 및 주변 인터페이스(230)를 포함할 수 있다. 사용자 디바이스(200) 내의 다양한 컴포넌트들은 하나 이상의 통신 버스 또는 신호 라인에 의해 연결될 수 있다.Referring to FIG. 2 , a user device 200 may include a memory interface 210 , one or more processors 220 and a peripheral interface 230 . The various components within user device 200 may be connected by one or more communication buses or signal lines.

메모리 인터페이스(210)는 메모리(250)에 연결되어 프로세서(220)로 다양한 데이터를 전할 수 있다. 여기서, 메모리(250)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드, 블록체인 데이터베이스 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory interface 210 may be connected to the memory 250 and transfer various data to the processor 220 . Here, the memory 250 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage storage, cloud , It may include at least one type of storage medium among blockchain databases.

다양한 실시예에서, 메모리(250)는 운영 체제(251), 통신 모듈(252), 그래픽 사용자 인터페이스 모듈(GUI)(253), 센서 처리 모듈(254), 전화 모듈(255) 및 애플리케이션 모듈(256) 중 적어도 하나 이상을 저장할 수 있다. 구체적으로, 운영 체제(251)는 기본 시스템 서비스를 처리하기 위한 명령어 및 하드웨어 작업들을 수행하기 위한 명령어를 포함할 수 있다. 통신 모듈(252)은 다른 하나 이상의 디바이스, 컴퓨터 및 서버 중 적어도 하나와 통신할 수 있다. 그래픽 사용자 인터페이스 모듈(GUI)(253)은 그래픽 사용자 인터페이스를 처리할 수 있다. 센서 처리 모듈(254)은 센서 관련 기능(예를 들어, 하나 이상의 마이크(292)를 통해 수신된 음성 입력을 처리함)을 처리할 수 있다. 전화 모듈(255)은 전화 관련 기능을 처리할 수 있다. 애플리케이션 모듈(256)은 사용자 애플리케이션의 다양한 기능들, 예컨대 전자 메시징, 웹 브라우징, 미디어 처리, 탐색, 이미징, 기타 프로세스 기능을 수행할 수 있다. 아울러, 사용자 디바이스(200)는 메모리(250)에 어느 한 종류의 서비스와 연관된 하나 이상의 소프트웨어 애플리케이션(256-1, 256-2)(예. 치매 예방 어플리케이션)을 저장할 수 있다.In various embodiments, memory 250 includes operating system 251 , communication module 252 , graphical user interface module (GUI) 253 , sensor processing module 254 , telephony module 255 , and application module 256 . ) At least one or more of them may be stored. Specifically, the operating system 251 may include instructions for processing basic system services and instructions for performing hardware tasks. The communication module 252 may communicate with at least one of one or more other devices, computers, and servers. A graphical user interface module (GUI) 253 may process a graphical user interface. Sensor processing module 254 may process sensor-related functions (eg, process voice input received through one or more microphones 292 ). The phone module 255 may process phone-related functions. The application module 256 may perform various functions of a user application, such as electronic messaging, web browsing, media processing, navigation, imaging, and other processing functions. In addition, the user device 200 may store one or more software applications 256 - 1 and 256 - 2 (eg, a dementia prevention application) associated with any one type of service in the memory 250 .

다양한 실시예에서, 메모리(250)는 디지털 어시스턴트 클라이언트 모듈(257)(이하, DA 클라이언트 모듈)을 저장할 수 있으며, 그에 따라 디지털 어시스턴트의 클라이언트 측의 기능을 수행하기 위한 명령어 및 다양한 사용자 데이터(258)(예. 사용자 맞춤형 어휘 데이터, 선호도 데이터, 사용자의 전자 주소록 등과 같은 기타 데이터)를 저장할 수 있다. In various embodiments, the memory 250 may store a digital assistant client module 257 (hereinafter referred to as a DA client module), thereby storing instructions and various user data 258 for performing client-side functions of the digital assistant. (eg user-customized vocabulary data, preference data, other data such as the user's electronic address book, etc.).

다양한 실시예에서, 메모리(250)는 웨어러블 디바이스(100)를 통해 측정된 활동 데이터, 웨어러블 디바이스(100)를 통해 측정되거나, 프로세서(220)에 의해 계산된 수면 데이터, 프로세서(220)에 의해 생성된 요약 데이터를 저장할 수 있다. In various embodiments, memory 250 may store activity data measured via wearable device 100, sleep data measured via wearable device 100 or calculated by processor 220, and generated by processor 220. summarized data can be saved.

또한, 메모리(250)는 수면 데이터를 획득하기 위해 미리 설정된 수면 데이터 산출 알고리즘, 사용자의 치매 단계를 예측하기 위해 학습된 치매 예측 모델, 활동 데이터 이미지를 입력하여 활동 데이터 피처를 추출하도록 학습된 제1 피처 모델, 그리고 수면 데이터 이미지를 입력하여 수면 데이터 피처를 추출하도록 학습된 제2 피처 모델을 저장할 수 있다. In addition, the memory 250 includes a sleep data calculation algorithm set in advance to obtain sleep data, a dementia prediction model learned to predict the user's dementia stage, and a first activity data feature learned to extract activity data features by inputting an activity data image. A feature model and a second feature model trained to extract a sleep data feature by inputting a sleep data image may be stored.

한편, DA 클라이언트 모듈(257)은 사용자 디바이스(200)에 구비된 다양한 사용자 인터페이스(예. I/O 서브시스템(240))를 통해 사용자의 음성 입력, 텍스트 입력, 터치 입력 및/또는 제스처 입력을 획득할 수 있다. Meanwhile, the DA client module 257 receives a user's voice input, text input, touch input, and/or gesture input through various user interfaces (eg, the I/O subsystem 240) provided in the user device 200. can be obtained

또한, DA 클라이언트 모듈(257)은 시청각적, 촉각적 형태의 데이터를 출력할 수 있다. 예를 들어, DA 클라이언트 모듈(257)은 음성, 소리, 알림, 텍스트 메시지, 메뉴, 그래픽, 비디오, 애니메이션 및 진동 중 적어도 둘 하나 이상의 조합으로 이루어진 데이터를 출력할 수 있다. 아울러, DA 클라이언트 모듈(257)은 통신 서브시스템(280)을 이용하여 디지털 어시스턴트 서버(미도시)와 통신할 수 있다.In addition, the DA client module 257 may output audio-visual and tactile data. For example, the DA client module 257 may output data consisting of a combination of at least two of voice, sound, notification, text message, menu, graphic, video, animation, and vibration. In addition, the DA client module 257 may communicate with a digital assistant server (not shown) using the communication subsystem 280 .

다양한 실시예에서, DA 클라이언트 모듈(257)은 사용자 입력과 연관된 상황(context)을 구성하기 위하여 다양한 센서, 서브시스템 및 주변 디바이스로부터 사용자 디바이스(200)의 주변 환경에 대한 추가 정보를 수집할 수 있다. 예를 들어, DA 클라이언트 모듈(257)은 사용자 입력과 함께 상황 정보를 디지털 어시스턴트 서버에 제공하여 사용자의 의도를 추론할 수 있다. 여기서, 사용자 입력에 동반될 수 있는 상황 정보는 센서 정보, 예를 들어, 광(lighting), 주변 소음, 주변 온도, 주변 환경의 이미지, 비디오 등을 포함할 수 있다. 다른 예를 들어, 상황 정보는 사용자 디바이스(200)의 물리적 상태(예. 디바이스 배향, 디바이스 위치, 디바이스 온도, 전력 레벨, 속도, 가속도, 모션 패턴, 셀룰러 신호 강도 등)을 포함할 수 있다. 또 다른 예를 들어, 상황 정보는 사용자 디바이스(200)의 소프트웨어 상태에 관련된 정보(예. 사용자 디바이스(200)에서 실행 중인 프로세스, 설치된 프로그램, 과거 및 현재 네트워크 활동성, 백그라운드 서비스, 오류 로그, 리소스 사용 등)를 포함할 수 있다. In various embodiments, the DA client module 257 may collect additional information about the surrounding environment of the user device 200 from various sensors, subsystems, and peripheral devices in order to construct a context associated with the user input. . For example, the DA client module 257 may infer the user's intention by providing context information together with the user input to the digital assistant server. Here, the situational information that may accompany the user input may include sensor information, eg, lighting, ambient noise, ambient temperature, image of the surrounding environment, video, and the like. For another example, the contextual information may include the physical state of the user device 200 (eg, device orientation, device location, device temperature, power level, speed, acceleration, motion pattern, cellular signal strength, etc.). For another example, the contextual information is information related to the state of the software of the user device 200 (eg, processes running on the user device 200, installed programs, past and present network activity, background services, error logs, and resource usage). etc.) may be included.

다양한 실시예에서, 메모리(250)는 추가 또는 삭제된 명령어를 포함할 수 있으며, 나아가 사용자 디바이스(200)도 도 2에 도시된 구성 외에 추가 구성을 포함하거나, 일부 구성을 제외할 수도 있다. In various embodiments, the memory 250 may include added or deleted commands, and the user device 200 may also include additional components other than those shown in FIG. 2 or may exclude some components.

프로세서(220)는 사용자 디바이스(200)의 전반적인 동작을 제어할 수 있으며, 메모리(250)에 저장된 어플리케이션 또는 프로그램을 구동하여 치매 예방을 위한 사용자 인터페이스를 구현하기 위한 다양한 명령들을 수행할 수 있다. The processor 220 may control overall operations of the user device 200 and may execute various commands for implementing a user interface for preventing dementia by driving an application or program stored in the memory 250 .

프로세서(220)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(220)는 NPU(Neural Processing Unit)과 같은 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다. 또한, 프로세서(220)는 NPU(Neural Processing Unit)과 같이 인공 신경망 모델을 계산하기 위한 모듈을 포함할 수 있다.The processor 220 may correspond to an arithmetic device such as a central processing unit (CPU) or an application processor (AP). In addition, the processor 220 may be implemented in the form of an integrated chip (IC) such as a System on Chip (SoC) in which various computing devices such as a Neural Processing Unit (NPU) are integrated. Also, the processor 220 may include a module for calculating an artificial neural network model, such as a Neural Processing Unit (NPU).

다양한 실시예에서, 프로세서(220)는 웨어러블 디바이스(100)의 가속도계를 통해 측정한 활동 데이터에서 파생된 각종 데이터를 토대로 사용자 개개인의 치매 위험도를 예측할 수 있으며, 이하 도 3 및 4를 참조하여 설명하도록 한다. In various embodiments, the processor 220 may predict the risk of dementia of each user based on various data derived from activity data measured through the accelerometer of the wearable device 100, which will be described with reference to FIGS. 3 and 4 below. do.

도 3은 본 발명의 일 실시예에 따른 치매 예방을 위한 사용자 인터페이스 제공 방법에 대한 순서도이고, 도 4는 본 발명의 일 실시예에 따른 치매 예측을 위한 모델을 설명하기 위한 개략도이다. 3 is a flowchart of a method for providing a user interface for preventing dementia according to an embodiment of the present invention, and FIG. 4 is a schematic diagram illustrating a model for predicting dementia according to an embodiment of the present invention.

도 3을 참조하면, 프로세서(220) 사용자의 활동 데이터(Activity), 수면 데이터(Sleep) 및 상기 활동 데이터와 상기 수면 데이터를 기초로 생성되는 요약 데이터를 획득할 수 있다(S110). 구체적으로, 프로세서(220)는 통신 모듈(252)을 통해 웨어러블 디바이스(100)로부터 활동 데이터를 획득할 수 있다. 여기서, 활동 데이터는 가속도 센서, 속도 센서 및 자이로스코프 센서 중 적어도 하나를 통해 측정된 데이터일 수 있다. Referring to FIG. 3 , the processor 220 may obtain user activity data (Activity), sleep data (Sleep), and summary data generated based on the activity data and the sleep data (S110). In detail, the processor 220 may obtain activity data from the wearable device 100 through the communication module 252 . Here, the activity data may be data measured through at least one of an acceleration sensor, a speed sensor, and a gyroscope sensor.

다양한 실시예에서, 프로세서(220)는 활동 데이터를 통해 분당 신진대사 해당치(MET, Metabolic Equivalent Task)를 계산할 수 있다. 프로세서(220)는 계산된 MET을 아래 표와 같은 기준을 참고하여, 사용자가 휴식을 취하고 있는지, 저강도/중강도/고강도 운동 중 어느 강도의 운동을 수행하고 있는지 결정할 수 있다.In various embodiments, the processor 220 may calculate a Metabolic Equivalent Task (MET) per minute through the activity data. The processor 220 may determine whether the user is taking a break or performing an exercise of which intensity among low-intensity/medium-intensity/high-intensity exercise, by referring to the calculated MET as shown in the table below.

Activity LevelActivity Level DefinitionDefinition SedentarySedentary ≤ 1.5 METs≤ 1.5 METs LightLight 1.6~2.9 METs1.6-2.9 METs ModerateModerate 3.0~5.9 METs3.0 to 5.9 METs VigorousVigorous ≥ 6.0 METs≥ 6.0 METs

다양한 실시예에서, 프로세서(220)는 통신 모듈(252)을 통해 웨어러블 디바이스(100)로부터 수면 데이터를 획득하거나, 앞서 획득된 활동 데이터를 이용하여 수면 데이터를 계산할 수 있다. 구체적으로, 프로세서(220)는 활동 데이터를 전처리하고, 전처리된 활동 데이터와 광혈류 데이터 또는 심박수 데이터를 미리 설정된 수면 데이터 산출 알고리즘에 대입할 수 있다. 그에 따라, 프로세서(220)는 시간의 변화에 따라 사용자가 4 가지의 수면 단계(수면 중 깬 상태(1단계), 렘(REM) 수면(2단계), 얕은 수면(3단계), 깊은 수면(4단계))가 어떻게 변화하는지 계산할 수 있다. In various embodiments, the processor 220 may obtain sleep data from the wearable device 100 through the communication module 252 or may calculate sleep data using previously obtained activity data. In detail, the processor 220 may pre-process the activity data and substitute the pre-processed activity data and the light blood flow data or heart rate data into a preset sleep data calculation algorithm. Accordingly, the processor 220 allows the user to perform four sleep stages according to the change in time (a state awake during sleep (stage 1), REM sleep (stage 2), light sleep (stage 3), and deep sleep ( You can calculate how step 4)) changes.

또한, 프로세서(240)는 총 수면 시간과, 단계의 지속 시간을 이용하여 하루의 수면 점수를 계산할 수도 있다. Also, the processor 240 may calculate a sleep score for the day using the total sleep time and the duration of the phase.

다양한 실시예에서, 프로세서(220)는 활동 데이터와 수면 데이터를 요약한 요약 데이터를 획득할 수 있다. 구체적으로, 프로세서(220)는 사용자의 움직임을 정의할 수 있는 복수의 파라미터를 결정함으로써, 하루 단위의 요약 데이터를 획득할 수 있다. 예를 들어, 요약 데이터에 포함된 복수의 파라미터는, 사용자의 하루 평균 MET(Metabolic Equivalent Task), 활동 칼로리, 사용 칼로리, 걸음수, 활동 시간, 고강도 활동 시간, 중강도 활동 시간, 저강도 활동 시간 및 휴식 시간, 사용자의 총 수면 시간, 수면 효율, 수면 중 깬 시간, 렘(REM) 수면 시간, 얕은 수면 시간, 깊은 수면 시간 및 평균 심박수를 포함할 수 있다. In various embodiments, processor 220 may obtain summary data summarizing activity data and sleep data. Specifically, the processor 220 may obtain daily summary data by determining a plurality of parameters that may define the user's movement. For example, the plurality of parameters included in the summary data include the user's daily average Metabolic Equivalent Task (MET), active calories, calories used, number of steps, active time, high-intensity activity time, moderate-intensity activity time, and low-intensity activity time. and rest time, total sleep time of the user, sleep efficiency, time awake during sleep, REM sleep time, light sleep time, deep sleep time, and average heart rate.

S110 단계 이후, 프로세서(220)는 활동 데이터, 수면 데이터 및 요약 데이터를 입력으로 하여 치매 단계를 예측하도록 학습된 치매 예측 모델에, 획득된 활동 데이터, 수면 데이터 및 요약 데이터를 입력하여 사용자의 치매 단계를 예측할 수 있다(S120). After step S110, the processor 220 inputs the acquired activity data, sleep data, and summary data to the dementia prediction model trained to predict the dementia stage by taking the activity data, sleep data, and summary data as inputs to determine the user's dementia stage can be predicted (S120).

관련하여, 도 4를 참조하면, 웨어러블 디바이스(100)를 기반으로 획득된 1. 활동 데이터, 2. 수면 데이터, 3. 요약 데이터 세 가지를 치매 예측 모델의 입력 데이터로 이용할 수 있다. 이 중 1. 활동 데이터와 2. 수면 데이터는 소정의 데이터 정제 과정을 거칠 수 있으며, 치매 예측 모델은 이를 통해 사용자의 치매 단계를 예측할 수 있다. 보다 구체적으로, 프로세서(220)는 치매 예측 모델을 통해 우선적으로 사용자가 치매인지, 경도 인지 장애인지, 치매인지에 대한 상대적인 확률 값을 예측할 수 있으며, 프로세서(220)는 상대적인 확률 값을 토대로 사용자의 치매 단계를 결정할 수 있다. 예를 들어, 프로세서(220)는 치매 예측 모델을 통해 제1 사용자의 질환에 대한 상대적인 확률 값(정상(0.5), 경도 인지 장애(0.3), 치매(0.2))을 출력할 수 있으며, 그 중 가장 큰 값을 제1 사용자의 치매 단계(정상)로 결정할 수 있다. In this regard, referring to FIG. 4 , three types of 1. activity data, 2. sleep data, and 3. summary data acquired based on the wearable device 100 may be used as input data of the dementia prediction model. Among them, 1. activity data and 2. sleep data may undergo a predetermined data purification process, and the dementia prediction model may predict the user's dementia stage through this. More specifically, the processor 220 may first predict a relative probability value of whether the user has dementia, mild cognitive impairment, or dementia through the dementia prediction model, and the processor 220 may predict the user's level of dementia based on the relative probability value. Dementia stage can be determined. For example, the processor 220 may output relative probability values (normal (0.5), mild cognitive impairment (0.3), and dementia (0.2)) of the disease of the first user through the dementia prediction model, among which The largest value may be determined as the dementia level (normal) of the first user.

치매 예측 모델의 입력 데이터인 1. 활동 데이터와 2. 수면 데이터의 경우, 주기적인 시간 간격(예. 1분, 5분) 마다 측정/획득된 데이터이기 때문에, 하루 동안 누적 획득된 양이 요약 데이터에 비해 상당히 많을 수 있다. 그에 따라, 기계학습된 모델을 통해 치매 단계를 예측하려고 하더라도, 빠르게 그 결과를 얻을 수 있다. In the case of 1. activity data and 2. sleep data, which are the input data of the dementia prediction model, since they are data measured/acquired at regular time intervals (e.g. 1 minute, 5 minutes), the cumulatively acquired amount during the day is summary data. can be considerably larger than that of Accordingly, even if one tries to predict the stage of dementia through a machine-learned model, the result can be quickly obtained.

그에 따라, 프로세서(220)는 치매 예측 모델의 입력 데이터인 1. 활동 데이터와 2. 수면 데이터는 피처 추출 과정을 거칠 수 있다. 구체적으로, 프로세서(220)는 활동 데이터를 입력하여 활동 데이터 피처를 추출하도록 구성된 제1 피처 모델에 S110 단계에서 획득한 활동 데이터를 입력하여 사용자의 활동 데이터 피처를 추출하고, 수면 데이터를 입력하여 수면 데이터 피처를 추출하도록 구성된 제2 피처 모델에 S110 단계에서 획득한 수면 데이터를 입력하여 사용자의 수면 데이터 피처를 추출할 수 있다. 여기서, 제1 피처 모델 및 제2 피처 모델은 1차원 데이터를 입력 데이터로 활용하는 바, 1차원의 컨볼루션 레이어(convolutional layer)와 1차원의 풀링 레이어(pooling layer)를 포함할 수 있으며, 두 개의 레이어가 복수 개 구성될 수 있다. Accordingly, the processor 220 may perform a feature extraction process on 1. activity data and 2. sleep data, which are input data of the dementia prediction model. In detail, the processor 220 inputs the activity data acquired in step S110 to the first feature model configured to extract the activity data features by inputting the activity data to extract the user's activity data features, and inputs the sleep data to enter sleep data. The user's sleep data features may be extracted by inputting the sleep data obtained in step S110 to the second feature model configured to extract the data features. Here, the first feature model and the second feature model use one-dimensional data as input data, and may include a one-dimensional convolutional layer and a one-dimensional pooling layer. A plurality of layers may be configured.

다양한 실시예에서, 제1 및 제2 피처 모델은 커널 사이즈가 3(kernel size=3)인 1차원의 컨볼루션 레이어와 커널 사이즈가 2(kernel size=2)인 1차원의 어버레지 풀링 레이어 4쌍이 반복 구성될 수 있다. 프로세서(220)는 제1 및 제2 피처 모델을 통해 32개의 활동 데이터 피처와 32개의 수면 데이터 피처를 획득할 수 있다. In various embodiments, the first and second feature models include a one-dimensional convolution layer with a kernel size of 3 (kernel size=3) and a one-dimensional average pooling layer with a kernel size of 2 (kernel size=2) 4 Pairs may be repeated. The processor 220 may obtain 32 activity data features and 32 sleep data features through the first and second feature models.

즉, 치매 예측 모델은 활동 데이터 피처, 수면 데이터 피처 및 요약 데이터에 기초하여 사용자의 치매 단계를 출력하도록 학습된 모델일 수 있다. 치매 예측 모델은 각각 32개의 활동 데이터 피처, 수면 데이터 피처와 16개의 복수의 파라미터(요약 데이터)를 입력할 수 있는 128 노드 사이즈의 레이어층(FC(Fully Connected) layer)을 포함할 수 있으며, 이때, 레이어층의 개수는 2~3개일 수 있다. 또한, 치매 예측 모델에서 프로세서(220)는 레이어층을 통해 추출된 데이터들을 활성화 함수에 적용하여, 최종 3개의 출력 데이터를 획득할 수 있는데, 여기서의, 활성화 함수는 예를 들어, 소프트맥스 (softmax) 활성화 함수일 수 있다. That is, the dementia prediction model may be a model learned to output the dementia stage of the user based on the activity data feature, sleep data feature, and summary data. The dementia prediction model may include a layer (Fully Connected (FC) layer) with a size of 128 nodes into which 32 activity data features, sleep data features, and 16 multiple parameters (summary data) can be input, respectively. , The number of layers may be 2 to 3. In addition, in the dementia prediction model, the processor 220 may obtain the final three output data by applying the data extracted through the layers to the activation function, where the activation function is, for example, softmax (softmax). ) can be an activation function.

치매 예측 모델을 활용하기 전에, 프로세서(220)는 사용자 별 생체 데이터(활성 데이터, 수면 데이터, 요약 데이터)들을 토대로 기계적 학습을 충분히 수행할 수 있다. 일 예로, 프로세서(240)는 손실 함수(cross entropy loss)와 옵티마이저(예. Adam optimizer)를 통해 치매 예측 모델의 기계적 학습을 수행할 수 있다. Before utilizing the dementia prediction model, the processor 220 may sufficiently perform machine learning based on biometric data (activity data, sleep data, summary data) for each user. For example, the processor 240 may perform machine learning of the dementia prediction model through a cross entropy loss and an optimizer (eg, Adam optimizer).

그에 따라, 본 발명의 471명에 대한 사용자 데이터를 토대로 성능 평가 결과 0.8613 정확도 값(macro F1 score)을 가지는, 높은 신뢰성의 치매 예측 모델을 이용하여, 사용자 개개인의 치매 단계를 예측할 수 있다.Accordingly, it is possible to predict the dementia stage of each user by using a highly reliable dementia prediction model having an accuracy value (macro F1 score) of 0.8613 as a result of performance evaluation based on the user data of 471 people of the present invention.

다시 도 3을 참조하면, S120 단계 이후, 프로세서(220)는 사용자의 치매 단계와 관련된 이미자와 함께 활동 데이터 또는 수면 데이터의 획득 결과가 포함된 제1 모니터링 인터페이스 화면을 제공할 수 있다(S130). 구체적으로, 제1 모니터링 인터페이스 화면은 활동 데이터를 기반으로 획득된 데이터들과 치매 예측 모델을 통해 출력된 사용자의 치매 단계 정보와 같은 사용자의 현재 상태 진단 결과를 포함할 수 있다. Referring back to FIG. 3 , after step S120, the processor 220 may provide a first monitoring interface screen including an image related to the dementia stage of the user and a result of acquiring activity data or sleep data (S130). In detail, the first monitoring interface screen may include data obtained based on activity data and results of diagnosis of the current state of the user, such as information about the user's dementia stage output through a dementia prediction model.

관련하여, 도 5 내지 도 14는 본 발명의 일 실시예에 따른 사용자 인터페이스 화면을 설명하기 위한 개략도이다. 5 to 14 are schematic diagrams for explaining user interface screens according to an embodiment of the present invention.

도 5를 참조하면, 프로세서(220)는 치매와 관련된 다양한 정보를 제공할 수 있는 항목(11) 중 메인 항목에서 사용자의 현재 상태 진단 결과를 포함하는 제1 모니터링 인터페이스 화면(11')을 제공할 수 있다. Referring to FIG. 5 , the processor 220 may provide a first monitoring interface screen 11' including a diagnosis result of the current state of the user in the main item among items 11 capable of providing various information related to dementia. can

제1 모니터링 인터페이스 화면은 사용자의 치매 단계에 대응되는 이미지(12)를 포함할 수 있으며, 웨어러블 디바이스(100)에서 측정한 사용자의 활동 데이터(13), 프로세서(220)가 계산한 수면 데이터(14)를 포함할 수 있다. The first monitoring interface screen may include an image 12 corresponding to the user's dementia stage, the user's activity data 13 measured by the wearable device 100, and the sleep data 14 calculated by the processor 220 ) may be included.

다양한 실시예에서, 치매 단계에 대응되는 이미지(12)는 요약 데이터에 포함된 복수의 파라미터의 변화 값에 따라 상이할 수 있다. 여기서, 복수의 파라미터는 사용자의 하루 단위의 활동 데이터, 수면 데이터 지표를 의미할 수 있다. 예를 들어, 사용자의 깊은 수면 시간이 증가하거나, 걸음수가 증가하여, 치매 예측 모델에 출력된 치매에 대한 상대적인 확률 값이 낮아진 경우, 치매 단계에 대응되는 이미지(12)를 무표정에서 웃는 표정으로 변화시킬 수 있다. In various embodiments, the image 12 corresponding to the stage of dementia may be different according to change values of a plurality of parameters included in the summary data. Here, the plurality of parameters may mean the user's daily activity data and sleep data indicators. For example, when the user's deep sleep time increases or the number of steps increases, and the relative probability value for dementia output to the dementia prediction model decreases, the image 12 corresponding to the dementia stage is changed from expressionless to smiling. can make it

아울러, 도 6 및 도 7을 참조하면, 프로세서(220)는 제1 모니터링 인터페이스 화면을 통해 요약 데이터들(15)(16)을 그래프 형태로 제공하거나, 요약 데이터들(18)(19)을 합산 숫자 형태로 제공할 수 있다. 아울러, 프로세서(220)는 제1 모니터링 인터페이스 화면에서 사용자의 선택에 따라, 일, 주, 월 단위의 요약 데이터를 제공할 수도 있다. In addition, referring to FIGS. 6 and 7 , the processor 220 provides summary data 15 and 16 in the form of a graph through the first monitoring interface screen, or sums the summary data 18 and 19. It can be provided in numeric form. In addition, the processor 220 may provide summary data on a daily, weekly, or monthly basis according to the user's selection on the first monitoring interface screen.

다양한 실시예에서, 프로세서(220)는 사용자에게 현재 상태 진단 결과 외에도 사용자 개개인의 활동 개선 방향을 알려주기 위한 인터페이스 화면을 제공할 수 있다. 구체적으로, 프로세서(220)는 사용자의 치매 단계를 기준으로 요약 데이터에 포함된 복수의 파라미터가 치매 위험 감소 인자인지 치매 위험 증가 인자인지 결정할 수 있으며, 복수의 파라미터 각각의 치매 위험 인자 정보를 포함하는 제2 모니터링 인터페이스 화면을 제공할 수 있다. In various embodiments, the processor 220 may provide an interface screen for notifying the user of a direction for improving each user's activity in addition to the current state diagnosis result. Specifically, the processor 220 may determine whether the plurality of parameters included in the summary data are dementia risk reducing factors or dementia risk increasing factors based on the user's dementia stage, and include dementia risk factor information for each of the plurality of parameters. A second monitoring interface screen may be provided.

또한, 프로세서(220)는 사용자의 치매 단계를 기준으로 상기 복수의 파라미터 각각의 영향도를 계산할 수 있다. 여기서, 복수의 파라미터 각각의 영향도를 구분하는 방법은 SHAP(SHapley Additive exPlanations) 모델을 활용할 수 있다. 다만, 이에 제한되지 않으며 다양한 모델을 통해 복수의 파라미터를 그 영향도에 따라 구분할 수 있다. In addition, the processor 220 may calculate the degree of influence of each of the plurality of parameters based on the dementia stage of the user. Here, a SHAP (SHapley Additive exPlanations) model may be utilized as a method of classifying the degree of influence of each of a plurality of parameters. However, it is not limited thereto, and a plurality of parameters may be classified according to their influence through various models.

도 8을 참조하면, 프로세서(220)는 복수의 파라미터 중 예를 들어, 수면 효율과 수면 시간, 고강도 활동 시간 파라미터가 치매 위험 증가 인자인 것으로 결정하고, 중강도 활동 시간, 걸음 수가 치매 위험 감소 인자인 것으로 결정한 뒤, 제2 모니터링 인터페이스 화면 상에서 이들을 서로 다른 이미지(예. 치매 위험 증가 인자-빗금 배경, 치매 위험 감소 인자-흑색 배경)로 표시할 수 있다. Referring to FIG. 8 , the processor 220 determines that, among a plurality of parameters, for example, sleep efficiency, sleep time, and high-intensity activity time parameters are dementia risk increasing factors, and moderate-intensity activity time and number of steps are dementia risk reducing factors. After determining that , they may be displayed as different images (eg, a dementia risk increasing factor-hatched background, a dementia risk reducing factor-black background) on the second monitoring interface screen.

아울러, 프로세서(220)는 복수의 파라미터 각각을 치매 위험 증가 인자 또는 치매 위험 감소 인자로 구분하고, 그 영향도를 계산한 결과, 사용자의 현재 상태가 어느 쪽에 가까운지를 그래픽 이미지(19)로 표시할 수 있다. In addition, the processor 220 divides each of the plurality of parameters into a dementia risk increasing factor or a dementia risk reducing factor, and as a result of calculating the degree of influence, the graphic image 19 displays which side the current state of the user is close to. can

또한, 프로세서(220)는 복수의 파라미터 각각을 인자의 종류(치매 위험 증가 인자/치매 위험 감소 인자) 및 영향도에 따라 개별적으로 나열하거나(20a), 하나의 그래프 안에서 상대적인 비율에 맞게 표시할 수 있다(20c). 또한, 프로세서(220)는 사용자가 정렬 아이콘(22b)을 선택할 경우, 치매 위험을 증가, 감소시키는 파라미터 순으로 나열할 수 있다. 이 외에도, 프로세서(220)는 사용자의 선택에 따라, 제2 인터페이스 화면에 제공될 복수의 파라미터의 개수를 조정할 수 있다. In addition, the processor 220 may individually list each of the plurality of parameters according to the type of factor (dementia risk increasing factor/dementia risk reducing factor) and influence (20a), or may display them in a relative ratio in one graph. Yes (20c). Also, when the user selects the sorting icon 22b, the processor 220 may list parameters in order of increasing or decreasing the risk of dementia. In addition to this, the processor 220 may adjust the number of parameters to be provided on the second interface screen according to the user's selection.

다양한 실시예에서, 프로세서(220)는 복수의 파라미터와 관련된 사용자의 활동 목표, 현재 활동량, 사용자 그룹의 활동 데이터 및 사용자의 위치 데이터 중 적어도 하나가 표시되는 영역을 포함하는 제2 모니터링 인터페이스 화면을 제공할 수 있다. In various embodiments, the processor 220 provides a second monitoring interface screen including an area displaying at least one of a user's activity goal related to a plurality of parameters, a current activity amount, user group activity data, and user location data. can do.

도 9 및 도 10을 참조하면, 프로세서(220)는 치매와 관련된 다양한 정보를 제공할 수 있는 항목(21) 중 메인 항목에서 사용자의 활동 개선 방향을 알려주기 위한 제2 모니터링 인터페이스 화면(21')을 제공할 수 있다. Referring to FIGS. 9 and 10 , the processor 220 displays a second monitoring interface screen 21' for informing the user's activity improvement direction in the main item among items 21 capable of providing various information related to dementia. can provide.

제2 모니터링 인터페이스 화면은 복수의 파라미터와 관련된 사용자의 일일 활동 목표(22), 주간 활동 목표(23)를 포함할 수 있으며, 프로세서(220)는 현재 활동량을 그래프 형태로 제공할 수 있다. The second monitoring interface screen may include a user's daily activity goal 22 and weekly activity goal 23 related to a plurality of parameters, and the processor 220 may provide the current activity amount in the form of a graph.

아울러, 도 11 및 12를 참조하면, 프로세서(220)는 제2 모니터링 인터페이스 화면(21')을 통해 사용자의 그룹 별 활동 데이터(25)를, 치매 예방 어플리케이션에 가입한 사용자들가의 대화를 위한 게시판(26)을 제공할 수 있다. 여기서, 활동 데이터는 그룹 내 사용자들의 인지 단계와 대응되는 이미지, 활동 데이터, 수면 데이터, 활동 목표 성취도 등의 요약된 데이터들을 포함할 수 있으며, 사용자가 어느 하나의 사용자를 선택할 경우, 해당 사용자의 상세한 활동 데이터가 제1 모니터링 인터페이스 화면과 같이 제공될 수 있다. In addition, referring to FIGS. 11 and 12, the processor 220 transmits activity data 25 for each group of users through a second monitoring interface screen 21', a bulletin board for conversation between users who have subscribed to the dementia prevention application. (26) can be provided. Here, the activity data may include summarized data such as images corresponding to the cognitive stages of users in the group, activity data, sleep data, activity goal achievement, and the like. When a user selects one user, the user's detailed Activity data may be provided as the first monitoring interface screen.

또한, 사용자가 포함된 그룹은 가족, 친구일 수 있으며, 프로세서(220)는 제2 모니터링 인터페이스 화면(21')에서 사용자가 포함된 그룹을 선택할 수 있는 아이콘(24)을 제공할 수 있다. In addition, the group including the user may be a family member or a friend, and the processor 220 may provide an icon 24 for selecting a group including the user on the second monitoring interface screen 21'.

이 외에도, 도 13 및 도 14을 참조하면, 프로세서(220)는 그룹 내 사용자의 위치 정보(27)를 제공할 수 있으며, 그룹 내 사용자들 간에 통화 서비스를 제공할 수 있다. 예를 들어, 프로세서(220)는 사용자와 대응되는 이미지 아이콘(28)을 선택할 경우, 전화 연결 시도를 확인하기 위한 알림창(29)을 제공할 수 있다. In addition to this, referring to FIGS. 13 and 14 , the processor 220 may provide location information 27 of users within the group and may provide a call service between users within the group. For example, when the image icon 28 corresponding to the user is selected, the processor 220 may provide a notification window 29 for confirming a phone connection attempt.

다시 도 2를 참조하면, 주변 인터페이스(230)는 다양한 센서, 서브 시스템 및 주변 디바이스와 연결되어, 사용자 디바이스(200)가 다양한 기능을 수행할 수 있도록 데이터를 제공해 줄 수 있다. 여기서, 사용자 디바이스(200)가 어떠한 기능을 수행한다는 것은 프로세서(220)에 의해 수행되는 것으로 이해될 수 있다. Referring back to FIG. 2 , the peripheral interface 230 is connected to various sensors, subsystems, and peripheral devices to provide data so that the user device 200 can perform various functions. Here, that the user device 200 performs a certain function may be understood as being performed by the processor 220 .

주변 인터페이스(230)는 모션 센서(260), 조명 센서(광 센서)(261) 및 근접 센서(262)로부터 데이터를 제공받을 수 있으며, 이를 통해, 사용자 디바이스(200)는 배향, 광, 및 근접 감지 기능 등을 수행할 수 있다. 다른 예를 들어, 주변 인터페이스(230)는 기타 센서들(263)(포지셔닝 시스템-GPS 수신기, 온도 센서, 생체인식 센서)로부터 데이터를 제공받을 수 있으며, 이를 통해 사용자 디바이스(200)가 기타 센서들(263)과 관련된 기능들을 수행할 수 있다.Perimeter interface 230 may receive data from motion sensor 260, light sensor (light sensor) 261, and proximity sensor 262, through which user device 200 may receive orientation, light, and proximity. sensing function, etc. For another example, peripheral interface 230 may receive data from other sensors 263 (positioning system-GPS receiver, temperature sensor, biometric sensor), through which the user device 200 may receive data from other sensors. Functions related to (263) can be performed.

다양한 실시예에서, 사용자 디바이스(200)는 주변 인터페이스(230)와 연결된 카메라 서브시스템(270) 및 이와 연결된 광학 센서(271)를 포함할 수 있으며, 이를 통해 사용자 디바이스(200)는 사진 촬영 및 비디오 클립 녹화 등의 다양한 촬영 기능을 수행할 수 있다. In various embodiments, the user device 200 may include a camera subsystem 270 coupled to the peripheral interface 230 and an optical sensor 271 coupled thereto, through which the user device 200 may take pictures and video Various shooting functions such as clip recording can be performed.

다양한 실시예에서, 사용자 디바이스(200)는 주변 인터페이스(230)와 연결된 통신 서브시스템(280)을 포함할 수 있다. 통신 서브시스템(280)은 하나 이상의 유/무선 네트워크로 구성되며, 다양한 통신 포트, 무선 주파수 송수신기, 광학 송수신기를 포함할 수 있다.In various embodiments, user device 200 may include a communication subsystem 280 coupled with peripherals interface 230 . The communication subsystem 280 is composed of one or more wired/wireless networks, and may include various communication ports, radio frequency transceivers, and optical transceivers.

다양한 실시예에서, 사용자 디바이스(200)는 주변 인터페이스(230)와 연결된 오디오 서브 시스템(290)을 포함하며, 이러한 오디오 서브 시스템(290)은 하나 이상의 스피커(291) 및 하나 이상의 마이크(292)를 포함함으로써, 사용자 디바이스(200)는 음성 작동형 기능, 예컨대 음성 인식, 음성 복제, 디지털 녹음, 및 전화 기능 등을 수행할 수 있다.In various embodiments, user device 200 includes an audio subsystem 290 coupled with peripherals interface 230, which audio subsystem 290 includes one or more speakers 291 and one or more microphones 292. By including, user device 200 may perform voice-activated functions, such as voice recognition, voice replication, digital recording, and telephony functions.

다양한 실시예에서, 사용자 디바이스(200)는 주변 인터페이스(230)와 연결된 I/O 서브시스템(240)을 포함할 수 있다. 예를 들어, I/O 서브시스템(240)은 사용자 디바이스(200)의 입출력 인터페이스로, 터치 스크린 제어기(241)를 통해 사용자 디바이스(200)에 포함된 터치 스크린(243)을 제어할 수 있다. In various embodiments, user device 200 may include I/O subsystem 240 coupled with peripherals interface 230 . For example, the I/O subsystem 240 is an input/output interface of the user device 200, and may control the touch screen 243 included in the user device 200 through the touch screen controller 241.

예를 들어, 터치 스크린 제어기(241)는 정전용량형, 저항형, 적외형, 표면 탄성파 기술, 근접 센서 어레이 등과 같은 복수의 터치 감지 기술 중 어느 하나의 기술을 사용하여 사용자의 접촉 및 움직임 또는 접촉 및 움직임의 중단을 검출할 수 있다. 다른 예를 들어, I/O 서브시스템(240)은 기타 입력 제어기(들)(242)를 통해 사용자 디바이스(200)에 포함된 기타 입력/제어 디바이스(244)를 제어할 수 있다. 일 예로서, 기타 입력 제어기(들)(242)은 하나 이상의 버튼, 로커 스위치(rocker switches), 썸 휠(thumb-wheel), 적외선 포트, USB 포트 및 스타일러스 등과 같은 포인터 디바이스를 제어할 수 있다.For example, the touch screen controller 241 uses any one of a plurality of touch sensing technologies such as capacitive, resistive, infrared, surface acoustic wave technology, proximity sensor array, and the like to touch and move or touch the user. and cessation of movement. For another example, I/O subsystem 240 may control other input/control devices 244 included in user device 200 via other input controller(s) 242 . As an example, other input controller(s) 242 may control one or more buttons, rocker switches, thumb-wheels, infrared ports, USB ports, and pointer devices such as styluses and the like.

지금까지 본 발명의 일 실시예에 따른 사용자 디바이스(200)에 대하여 설명하였다. 본 발명에 따르면, 사용자 별로 치매 발병 위험을 예측하는 것에서 나아가, 예측 결과를 토대로 치매를 예방하기 위한, 개인에게 최적화된 생활 패턴, 운동 활동 등을 추천해 줄 수 있다. 특히, 본 발명은 생활 패턴, 운동 활동에 대한 목표 값을 사용자가 이해하기 쉬운 그래픽 화면으로 제공해 줄 수 있다. So far, the user device 200 according to an embodiment of the present invention has been described. According to the present invention, in addition to predicting the risk of developing dementia for each user, it is possible to recommend a life pattern, exercise activity, etc. optimized for each individual to prevent dementia based on the prediction result. In particular, the present invention can provide target values for life patterns and exercise activities on a graphic screen that is easy for users to understand.

참조하여 본 발명의 일 실시예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although one embodiment of the present invention has been described in more detail with reference, the present invention is not necessarily limited to these embodiments, and may be variously modified and implemented without departing from the technical spirit of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

1000: 치매 예방 시스템
100: 웨어러블 디바이스
200: 사용자 디바이스
210: 메모리 인터페이스 220: 프로세서
230: 주변 인터페이스 240: I/O 서브 시스템
241: 터치 스크린 제어기 242: 기타 입력 제어기
243: 터치 스크린
244: 기타 입력 제어 디바이스
250: 메모리 251: 운영 체제
252: 통신 모듈 253: GUI 모듈
254: 센서 처리 모듈 255: 전화 모듈
256: 애플리케이션들
256-1, 256-2: 애플리케이션
257: 디지털 어시스턴트 클라이언트 모듈
258: 사용자 데이터
260: 모션 센서 261: 조명 센서
262: 근접 센서 263: 기타 센서
270: 카메라 서브 시스템 271: 광학 센서
280: 통신 서브 시스템
290: 오디오 서브 시스템
291: 스피커 292: 마이크
1000: dementia prevention system
100: wearable device
200: user device
210: memory interface 220: processor
230 Peripheral Interface 240 I/O Subsystem
241: touch screen controller 242: other input controller
243: touch screen
244: other input control devices
250 memory 251 operating system
252: communication module 253: GUI module
254: sensor processing module 255: phone module
256: applications
256-1, 256-2: application
257: digital assistant client module
258: user data
260 motion sensor 261 light sensor
262 Proximity sensor 263 Other sensors
270 camera subsystem 271 optical sensor
280: communication subsystem
290: audio subsystem
291: speaker 292: microphone

Claims (11)

사용자의 활동 데이터(Activity), 수면 데이터(Sleep) 및 상기 활동 데이터와 상기 수면 데이터를 기초로 생성되는 요약 데이터를 획득하는 단계;
활동 데이터, 수면 데이터 및 요약 데이터를 입력으로 하여 치매 단계를 예측하도록 학습된 치매 예측 모델에, 획득된 활동 데이터, 수면 데이터 및 요약 데이터를 입력하여 사용자의 치매 단계를 예측하는 단계; 및
상기 사용자의 치매 단계와 관련된 이미지와 함께 상기 활동 데이터 또는 상기 수면 데이터의 획득 결과가 포함된 제1 모니터링 인터페이스 화면을 제공하는 단계; 를 포함하는 치매 예방을 위한 사용자 인터페이스 제공 방법.
obtaining user activity data (Activity), sleep data (Sleep), and summary data generated based on the activity data and the sleep data;
predicting a dementia stage of a user by inputting the acquired activity data, sleep data, and summary data into a dementia prediction model trained to predict a dementia stage by taking the activity data, sleep data, and summary data as inputs; and
providing a first monitoring interface screen including an image related to the dementia stage of the user and a result of acquiring the activity data or the sleep data; A user interface providing method for preventing dementia comprising a.
제1항에 있어서,
상기 활동 데이터는,
가속도 센서, 속도 센서 및 자이로스코프 센서 중 적어도 하나를 통해 측정된 데이터이고,
상기 데이터를 획득하는 단계는,
상기 활동 데이터를 이용하여 상기 수면 데이터를 계산하는 단계, 를 더 포함하는 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 1,
The activity data,
Data measured through at least one of an acceleration sensor, a speed sensor, and a gyroscope sensor,
Acquiring the data is
The method of providing a user interface for preventing dementia, further comprising calculating the sleep data using the activity data.
제1항에 있어서,
상기 사용자의 치매 단계를 예측하는 단계는,
정상, 경도 인지 장애 및 치매 단계 별 상대적인 확률 값을 결정하는 단계, 와
상기 정상, 경도 인지 장애 및 치매에 대한 상대적인 확률 값 중 가장 큰 값을 사용자의 치매 단계로 결정하는 단계, 를 더 포함하는 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 1,
The step of predicting the dementia stage of the user,
Determining relative probability values for each stage of normal, mild cognitive impairment and dementia, and
Determining the largest value among the relative probability values for the normal, mild cognitive impairment and dementia as the user's dementia stage;
제1항에 있어서,
상기 치매 단계를 예측하는 단계 이전에,
활동 데이터를 입력하여 활동 데이터 피처를 추출하도록 구성된 제1 피처 모델에 상기 활동 데이터를 입력하여 사용자의 활동 데이터 피처를 추출하고,
수면 데이터를 입력하여 수면 데이터 피처를 추출하도록 구성된 제2 피처 모델에 상기 수면 데이터를 입력하여 사용자의 수면 데이터 피처를 추출하는 단계, 를 더 포함하는 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 1,
Prior to the step of predicting the stage of dementia,
inputting the activity data to extract activity data features of the user by inputting the activity data into a first feature model configured to extract activity data features;
A method of providing a user interface for preventing dementia, further comprising extracting sleep data features of a user by inputting the sleep data to a second feature model configured to extract the sleep data features by inputting the sleep data.
제4항에 있어서,
상기 치매 예측 모델은,
상기 활동 데이터 피처, 상기 수면 데이터 피처 및 상기 요약 데이터에 기초하여 사용자의 치매 단계를 출력하도록 학습된 모델인, 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 4,
The dementia prediction model,
A method for providing a user interface for preventing dementia, wherein the model is learned to output a stage of dementia of a user based on the activity data feature, the sleep data feature, and the summary data.
제1항에 있어서,
상기 제1 모니터링 인터페이스 화면을 제공하는 단계는,
상기 사용자의 치매 단계를 기준으로 상기 요약 데이터에 포함된 복수의 파라미터가 치매 위험 감소 인자인지 치매 위험 증가 인자인지 결정하는 단계, 와
상기 복수의 파라미터 각각의 치매 위험 인자 정보를 포함하는 제2 모니터링 인터페이스 화면을 제공하는 단계, 를 더 포함하는 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 1,
Providing the first monitoring interface screen,
Determining whether a plurality of parameters included in the summary data are dementia risk reducing factors or dementia risk increasing factors based on the dementia stage of the user, and
The method of providing a user interface for preventing dementia, further comprising providing a second monitoring interface screen including dementia risk factor information of each of the plurality of parameters.
제6항에 있어서,
상기 요약 데이터에 포함된 복수의 파라미터는,
사용자의 하루 평균 MET(Metabolic Equivalent Task), 활동 칼로리, 사용 칼로리, 걸음수, 활동 시간, 고강도 활동 시간, 중강도 활동 시간, 저강도 활동 시간 및 휴식 시간 중 적어도 하나와
사용자의 총 수면 시간, 수면 효율, 수면 중 깬 시간, 렘(REM) 수면 시간, 얕은 수면 시간, 깊은 수면 시간 및 평균 심박수 중 적어도 하나를 포함하는, 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 6,
A plurality of parameters included in the summary data,
At least one of the user's average Metabolic Equivalent Task (MET), active calories, calories used, steps, active minutes, high-intensity activity minutes, moderate-intensity activity hours, low-intensity activity minutes, and rest times; and
A method of providing a user interface for preventing dementia, comprising at least one of a user's total sleep time, sleep efficiency, time awake during sleep, REM sleep time, light sleep time, deep sleep time, and average heart rate.
제6항에 있어서,
상기 제2 모니터링 인터페이스 화면을 제공하는 단계는,
상기 사용자의 치매 단계를 기준으로 상기 복수의 파라미터 각각의 영향도를 계산하는 단계, 를 더 포함하고,
상기 제2 모니터링 인터페이스는,
상기 영향도 및 상기 치매 위험 감소 인자 또는 상기 치매 위험 증가 인자 결정 결과에 따라 상기 복수의 파라미터가 서로 다른 이미지로 표시되는, 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 6,
Providing the second monitoring interface screen,
Further comprising calculating the degree of influence of each of the plurality of parameters based on the dementia stage of the user,
The second monitoring interface,
The method of providing a user interface for preventing dementia, wherein the plurality of parameters are displayed as different images according to the degree of influence and the determination result of the dementia risk reduction factor or the dementia risk increasing factor.
제6항에 있어서,
상기 제2 모니터링 인터페이스 화면은,
상기 복수의 파라미터와 관련된 사용자의 활동 목표, 현재 활동량, 사용자 그룹의 활동 데이터 및 사용자의 위치 데이터 중 적어도 하나가 표시되는 영역을 포함하도록 구성되는, 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 6,
The second monitoring interface screen,
A user interface providing method for preventing dementia, configured to include an area in which at least one of a user's activity goal, current activity amount, activity data of a user group, and location data of a user related to the plurality of parameters is displayed.
제6항에 있어서,
상기 제1 모니터링 인터페이스 화면은,
상기 복수의 파라미터에 대한 변화 값에 따라, 상기 사용자의 치매 단계와 관련된 상이한 이미지를 표시하도록 구성되는, 치매 예방을 위한 사용자 인터페이스 제공 방법.
According to claim 6,
The first monitoring interface screen,
According to the change values of the plurality of parameters, a user interface providing method for preventing dementia configured to display different images related to the dementia stage of the user.
통신 인터페이스;
메모리; 및
상기 통신 인터페이스 및 상기 메모리와 동작 가능하게 연결된 프로세서; 를 포함하고,
상기 프로세서는,
사용자의 활동 데이터(Activity), 수면 데이터(Sleep) 및 상기 활동 데이터와 상기 수면 데이터를 기초로 생성되는 요약 데이터를 획득하고, 활동 데이터, 수면 데이터 및 요약 데이터를 입력으로 하여 치매 단계를 예측하도록 학습된 치매 예측 모델에, 획득된 활동 데이터, 수면 데이터 및 요약 데이터를 입력하여 사용자의 치매 단계를 예측하는 단계, 상기 사용자의 치매 단계와 관련된 이미지와 함께 상기 활동 데이터 또는 상기 수면 데이터의 획득 결과가 포함된 제1 모니터링 인터페이스 화면을 제공하도록 구성되는, 사용자 디바이스.
communication interface;
Memory; and
a processor operably connected with the communication interface and the memory; including,
the processor,
Acquiring the user's activity data (Activity), sleep data (Sleep), and summary data generated based on the activity data and the sleep data, and learning to predict the dementia stage using the activity data, sleep data, and summary data as inputs Predicting the user's dementia stage by inputting the acquired activity data, sleep data, and summary data into the dementia prediction model, including an image related to the user's dementia stage and a result of acquiring the activity data or the sleep data A user device configured to provide a first monitoring interface screen.
KR1020210165387A 2021-11-26 2021-11-26 Method for providing a user interface for dementia prevention and device for performing the same KR20230078038A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210165387A KR20230078038A (en) 2021-11-26 2021-11-26 Method for providing a user interface for dementia prevention and device for performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210165387A KR20230078038A (en) 2021-11-26 2021-11-26 Method for providing a user interface for dementia prevention and device for performing the same

Publications (1)

Publication Number Publication Date
KR20230078038A true KR20230078038A (en) 2023-06-02

Family

ID=86755776

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210165387A KR20230078038A (en) 2021-11-26 2021-11-26 Method for providing a user interface for dementia prevention and device for performing the same

Country Status (1)

Country Link
KR (1) KR20230078038A (en)

Similar Documents

Publication Publication Date Title
JP6761837B2 (en) User's psychological state judgment device and method
US8781991B2 (en) Emotion recognition apparatus and method
KR102363794B1 (en) Information providing method and electronic device supporting the same
CN108701495B (en) Method for integrating and providing data collected from a plurality of devices and electronic device for implementing the method
CN107784357B (en) Personalized intelligent awakening system and method based on multi-mode deep neural network
US9983775B2 (en) Dynamic user interfaces based on multiple data sources
US11026613B2 (en) System, device and method for remotely monitoring the well-being of a user with a wearable device
CN107209807B (en) Wearable equipment of pain management
US20170293727A1 (en) Intelligent blood pressure monitoring
US20160063874A1 (en) Emotionally intelligent systems
CN105955973B (en) User information processing method and electronic device supporting the same
US10559387B2 (en) Sleep monitoring from implicitly collected computer interactions
KR20170096904A (en) Electronic device and method for providing content according to skin type of user
KR102276415B1 (en) Apparatus and method for predicting/recognizing occurrence of personal concerned context
CN106462832B (en) Invoking actions in response to co-presence determination
WO2020207317A1 (en) User health assessment method and apparatus, and storage medium and electronic device
KR20180081922A (en) Method for response to input voice of electronic device and electronic device thereof
WO2019132772A1 (en) Method and system for monitoring emotions
WO2016068795A1 (en) System and method for providing an indication of the well-being of an individual
CN110741439A (en) Providing suggested behavior modifications for relevance
CN114127801A (en) System and method for using people identifiability across device networks
CN108837271B (en) Electronic device, output method of prompt message and related product
KR20230078038A (en) Method for providing a user interface for dementia prevention and device for performing the same
KR102569998B1 (en) Method for managing notifications of applications and an electronic device thereof
KR102599840B1 (en) System for providing diabetes risk prediction, method, and program for the same