KR20230173823A - Method and system for sensing motion signals and biological signals of elderly and weak people - Google Patents

Method and system for sensing motion signals and biological signals of elderly and weak people Download PDF

Info

Publication number
KR20230173823A
KR20230173823A KR1020220074562A KR20220074562A KR20230173823A KR 20230173823 A KR20230173823 A KR 20230173823A KR 1020220074562 A KR1020220074562 A KR 1020220074562A KR 20220074562 A KR20220074562 A KR 20220074562A KR 20230173823 A KR20230173823 A KR 20230173823A
Authority
KR
South Korea
Prior art keywords
elderly
motion
sensing unit
sensing
elderly person
Prior art date
Application number
KR1020220074562A
Other languages
Korean (ko)
Inventor
엄준형
Original Assignee
주식회사 지앤플렉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지앤플렉스 filed Critical 주식회사 지앤플렉스
Priority to KR1020220074562A priority Critical patent/KR20230173823A/en
Publication of KR20230173823A publication Critical patent/KR20230173823A/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4005Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/08Elderly
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Neurology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Data Mining & Analysis (AREA)
  • Neurosurgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 노약자의 동작 및 생체 신호 센싱 시스템에 관한 것으로서, 상기 노약자의 움직임을 센싱하여 동작 데이터를 획득하는 제1 센싱부; 상기 노약자의 생체 신호를 센싱하여 생체 데이터를 획득하는 제2 센싱부; 및 상기 제1 센싱부가 획득한 동작 데이터 및 상기 제2 센싱부가 획득한 생체 데이터를 기초로 상기 노약자의 현재 상태를 판단하는 단말을 포함하는, 노약자의 동작 및 생체 신호 센싱 시스템에 관한 것이다.The present invention relates to a system for sensing motion and biological signals of the elderly and vulnerable, comprising: a first sensing unit that acquires motion data by sensing the movement of the elderly and vulnerable; a second sensing unit that acquires biometric data by sensing biosignals of the elderly person; and a terminal that determines the current state of the elderly and vulnerable based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit.

Description

노약자의 동작 및 생체 신호 센싱 방법 및 시스템{METHOD AND SYSTEM FOR SENSING MOTION SIGNALS AND BIOLOGICAL SIGNALS OF ELDERLY AND WEAK PEOPLE}Method and system for sensing motion and biological signals of the elderly {METHOD AND SYSTEM FOR SENSING MOTION SIGNALS AND BIOLOGICAL SIGNALS OF ELDERLY AND WEAK PEOPLE}

본 발명은 노약자의 동작 및 생체 신호 센싱 방법 및 그 시스템에 관한 것으로서, 보다 상세하게는, 노약자가 수행하는 동작과 노약자의 생체 신호를 센싱하여 데이터화하는 방법과 시스템에 관한 것이다.The present invention relates to a method and system for sensing the movements and biological signals of the elderly and vulnerable, and more specifically, to a method and system for sensing the movements performed by the elderly and the biological signals of the elderly and the weak and converting them into data.

최근 사회 전반에 고령화가 가속화됨에 따라, 노인인구 부양에 대한 사회적 부담이 증가하고 있다.Recently, as aging has accelerated throughout society, the social burden of supporting the elderly population is increasing.

통계에 의하면 생산 나이 인구 100명당 고령인구 부양비는 2019년 20.4명에서 2067년 102.4명으로 급증할 것으로 파악되며, 이러한 노인 인구의 증가는 생활능력에 직접적인 영향을 줄 수 있는 치매와 같은 뇌 질환에 대한 대비책을 요구한다.According to statistics, the dependency ratio of the elderly population per 100 people of working age is expected to rapidly increase from 20.4 in 2019 to 102.4 in 2067, and this increase in the elderly population is expected to increase the risk of brain diseases such as dementia, which can directly affect living ability. Request for preparedness.

따라서, 노약자의 운동능력과 인지능력을 직관적으로 파악할 수 있는 센싱 방법 과 시스템의 필요성이 대두되고 있다.Therefore, the need for sensing methods and systems that can intuitively identify the motor and cognitive abilities of the elderly is emerging.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 노약자의 동작 및 생체 신호 센싱 방법 및 그 시스템을 통하여 노약자가 수행하는 동작을 이미지 기반으로 센싱하고 동작이 수행될 때 발생하는 힘을 센싱하는 것을 목적으로 한다.The present invention is intended to solve the problems of the prior art described above, and uses a method and system for sensing the motion and biological signals of the elderly and the weak, which senses the motion performed by the elderly and the weak based on images and senses the force generated when the motion is performed. The purpose is to

또한, 상술한 과정을 통해 센싱된 정보를 기 설정된 알고리즘에 따라 데이터화 함으로써, 해당 데이터가 노약자의 치매 질환 진단에 활용될 수 있도록 하는 것을 목적으로 한다.In addition, the purpose is to convert the information sensed through the above-described process into data according to a preset algorithm so that the data can be used to diagnose dementia disease in the elderly.

본 발명이 해결하려는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood from the description below.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시 예에 따르는 노약자의 동작 및 생체 신호 센싱 시스템은, 상기 노약자의 움직임을 센싱하여 동작 데이터를 획득하는 제1 센싱부; 상기 노약자의 생체 신호를 센싱하여 생체 데이터를 획득하는 제2 센싱부; 및 상기 제1 센싱부가 획득한 동작 데이터 및 상기 제2 센싱부가 획득한 생체 데이터를 기초로 상기 노약자의 현재 상태를 판단하는 단말을 포함하는 것일 수 있다.As a technical means for achieving the above-described technical problem, a system for sensing motion and biological signals of the elderly and vulnerable according to an embodiment of the present invention includes: a first sensing unit that acquires motion data by sensing the movement of the elderly and vulnerable; a second sensing unit that acquires biometric data by sensing biosignals of the elderly person; And it may include a terminal that determines the current state of the elderly person based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit.

또한, 상기 제1 센싱부는, 3차원 카메라, 적외선 센서 및 관절 인식 카메라 중 적어도 하나 이상을 포함하는 것이고, 상기 노약자의 움직임을 인식하여 데이터화한 상기 동작 데이터를 상기 노약자의 현재 상태를 판단하는 단말로 전송하는 것일 수 있다.In addition, the first sensing unit includes at least one of a three-dimensional camera, an infrared sensor, and a joint recognition camera, and recognizes the movement of the elderly person and converts the motion data into data to a terminal that determines the current state of the elderly person. It may be transmitting.

또한, 상기 제2 센싱부는, 상기 노약자가 착용하는 웨어러블 기기, 자이로 센서 및 가속도 센서 중 적어도 하나 이상을 포함하는 것이고, 상기 노약자가 움직일 때 발생하는 힘을 인식하여 데이터화한 상기 생체 데이터를 상기 노약자의 현재 상태를 판단하는 단말로 전송하는 것일 수 있다.In addition, the second sensing unit includes at least one of a wearable device worn by the elderly and infirm, a gyro sensor and an acceleration sensor, and recognizes the force generated when the elderly and infirm moves and converts the converted biometric data into data of the elderly and infirm. It may be transmitted to a terminal that determines the current status.

또한, 상기 노약자의 현재 상태를 판단하는 단말은, 제1 센싱부가 획득한 동작 데이터 및 제2 센싱부가 획득한 생체 데이터를 기반으로, 기 설정된 알고리즘에 따라 상기 노약자의 현재 상태를 걷기 및 뛰기 중 어느 하나의 상태로 판단하고, 상기 노약자의 현재 상태를 피로한 상태 및 피로하지 않은 상태 중 어느 하나의 상태로 판단하고, 상기 노약자의 현재 상태를 멀미를 겪는 상태 및 멀미를 겪지 않는 상태 중 어느 하나의 상태로 판단하는 것일 수 있다.In addition, the terminal for determining the current state of the elderly and vulnerable determines the current state of the elderly and vulnerable according to a preset algorithm based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit. Determine one state, determine the current state of the elderly person as one of a fatigued state and a non-fatigued state, and determine the current state of the elderly person as one of a state suffering from motion sickness and a state not suffering from motion sickness. It may be judged by this.

또한, 상기 노약자의 현재 상태를 판단하는 단말은, 제1 센싱부가 획득한 동작 데이터 및 제2 센싱부가 획득한 생체 데이터를 기반으로, 상기 동작 데이터 및 생체 데이터 중 적어도 하나 이상이 기 설정된 수치 이상인 경우, 상기 노약자가 피로한 상태 또는 멀미를 겪는 상태로 판단하는 것일 수 있다.In addition, the terminal that determines the current state of the elderly person is based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit, when at least one of the motion data and biometric data is greater than a preset value. , it may be determined that the elderly person is tired or suffering from motion sickness.

본 발명의 일 실시 예에 따르는 단말에 의해 수행되는, 노약자의 동작 및 생체 신호 센싱 방법은, (a) 제1 센싱부로부터 노약자의 움직임을 센싱하여 획득한 동작 데이터를 제공받는 단계; (b) 제2 센싱부로부터 상기 노약자의 생체 신호를 센싱하여 획득한 생체 데이터를 제공받는 단계; 및 (c) 상기 제1 센싱부가 획득한 동작 데이터 및 상기 제2 센싱부가 획득한 생체 데이터를 기초로 상기 노약자의 현재 상태를 판단하는 단계;를 포함할 수 있다.A method for sensing motion and biological signals of an elderly person, performed by a terminal according to an embodiment of the present invention, includes the steps of: (a) receiving motion data obtained by sensing the movement of an elderly person from a first sensing unit; (b) receiving biometric data obtained by sensing the biosignal of the elderly person from a second sensing unit; and (c) determining the current state of the elderly person based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit.

또한, 상기 (a)단계는, (a-1) 상기 제1 센싱부가 3차원 카메라, 적외선 센서 및 관절 인식 카메라 중 적어도 하나 이상을 통해 상기 노약자의 움직임이 인식하는 단계; 및 (a-2) 인식된 움직임을 데이터화하여 동작 데이터를 생성하고 상기 동작 데이터를 노약자의 현재 상태를 판단하는 단말로 전송하는 단계;를 포함할 수 있다.In addition, step (a) includes: (a-1) the first sensing unit recognizing the movement of the elderly person through at least one of a three-dimensional camera, an infrared sensor, and a joint recognition camera; And (a-2) converting the recognized movement into data to generate motion data and transmitting the motion data to a terminal that determines the current state of the elderly person.

또한, 상기 (b)단계는, (b-1) 상기 제2 센싱부가 상기 노약자가 착용하는 웨어러블 기기, 자이로 센서 및 가속도 센서 중 적어도 하나 이상을 통해 상기 노약자가 움직일 때 발생하는 힘을 인식하는 단계; 및 (b-2) 인식된 힘을 데이터화하여 생체 데이터를 생성하고, 상기 생체 데이터를 상기 노약자의 현재 상태를 판단하는 단말로 전송하는 단계;를 포함할 수 있다.In addition, step (b) includes (b-1) the second sensing unit recognizing the force generated when the elderly and vulnerable person moves through at least one of a wearable device worn by the elderly and vulnerable person, a gyro sensor, and an acceleration sensor. ; and (b-2) converting the recognized force into data to generate biometric data, and transmitting the biometric data to a terminal that determines the current state of the elderly person.

또한, 상기 (c)단계는, (c-1) 노약자의 현재 상태를 판단하는 단말이 제1 센싱부가 획득한 동작 데이터 및 제2 센싱부가 획득한 생체 데이터를 기반으로, 기 설정된 알고리즘에 따라 상기 노약자의 현재 상태를 걷기 및 뛰기 중 어느 하나의 상태로 판단하는 단계; (c-2) 상기 노약자의 현재 상태를 피로한 상태 및 피로하지 않은 상태 중 어느 하나의 상태와 상기 노약자의 현재 상태를 멀미를 겪는 상태 및 멀미를 겪지 않는 상태 중 어느 하나의 상태로 판단하는 단계;를 포함할 수 있다.In addition, in step (c), (c-1) the terminal that determines the current state of the elderly person is based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit, according to a preset algorithm. Determining the current state of the elderly person as either walking or running; (c-2) determining that the current state of the elderly person is one of a fatigued state and a non-fatigued state, and that the current state of the elderly person is one of a state suffering from motion sickness and a state not suffering from motion sickness; may include.

또한, 상기 (c-2) 단계는, 상기 상기 노약자의 현재 상태를 판단하는 단말이 상기 제1 센싱부가 획득한 동작 데이터 및 제2 센싱부가 획득한 생체 데이터를 기반으로, 상기 동작 데이터 및 생체 데이터 중 적어도 하나 이상이 기 설정된 수치 이상인 경우, 상기 노약자가 피로한 상태 또는 멀미를 겪는 상태로 판단하는 것일 수 있다.In addition, in step (c-2), the terminal that determines the current state of the elderly person is based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit. If at least one of the values is greater than or equal to a preset value, it may be determined that the elderly person is fatigued or suffering from motion sickness.

본 발명은 노약자가 수행하는 동작과 노약자의 생체 신호를 센싱하여 데이터화하는 노약자의 동작 및 생체 신호 센싱 방법 및 시스템을 제공할 수 있다.The present invention can provide a method and system for sensing the motions and biological signals of an elderly and weak person, which senses the motions performed by the elderly and the vital signals of the elderly and the weak and converts them into data.

또한, 노약자가 특정 행동을 수행하는 동작과 해당 동작에서 발생하는 힘을 각각 센싱하고 동작 데이터와 생체 데이터로 수집하여 데이터화할 수 있으며, 이를 통해, 수집한 데이터를 기반으로 노약자의 치매 질환 진단에 활용할 수 있다.In addition, the movements in which the elderly perform specific actions and the force generated from those movements can be sensed, collected into motion data and biometric data, and converted into data. Through this, based on the collected data, it can be used to diagnose dementia disease in the elderly. You can.

도1은 본 발명의 일 실시 예에 따르는, 치매 진단 시스템에 대한 구조도 이다.
도2는 본 발명의 일 실시 예에 따르는, 서버의 내부구성을 나타내는 블록도 이다.
도3은 본 발명의 일 실시 예에 따르는, 센싱부의 내부 구성을 나타내는 블록도 이다.
도4는 본 발명의 일 실시 예에 따르는, 웨어러블 장치 형태의 제2 센싱부에 대한 예시도 이다.
도5는 본 발명의 일 실시 예에 따르는, 센싱부로부터 수집된 동작 데이터 및 생체 데이터에 관한 예시도 이다.
도6은 본 발명의 일 실시 예에 따르는, 노약자의 동작 및 생체 신호 센싱 방법의 수행순서에 관한 순서도 이다.
도7은 본 발명의 일 실시 예에 따르는, 콘텐츠 실행 기기의 구성을 나타낸 블록도 이다.
도8은 본 발명의 일 실시 예에 따르는, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 시스템에 대한 구조도 이다.
도9는 본 발명의 일 실시 예에 따르는, 행동 학습 콘텐츠에 대한 예시도 이다.
도10은 본 발명의 일 실시 예에 따르는, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 방법의 수행순서에 관한 순서도 이다.
도11은 본 발명의 일 실시 예에 따르는, 인공지능 기반의 치매 진단 방법의 수행순서에 관한 순서도 이다.
Figure 1 is a structural diagram of a dementia diagnosis system according to an embodiment of the present invention.
Figure 2 is a block diagram showing the internal configuration of a server according to an embodiment of the present invention.
Figure 3 is a block diagram showing the internal configuration of a sensing unit according to an embodiment of the present invention.
Figure 4 is an illustration of a second sensing unit in the form of a wearable device according to an embodiment of the present invention.
Figure 5 is an example of motion data and biometric data collected from a sensing unit according to an embodiment of the present invention.
Figure 6 is a flowchart of the execution order of a method for sensing the motion and biological signals of an elderly person, according to an embodiment of the present invention.
Figure 7 is a block diagram showing the configuration of a content execution device according to an embodiment of the present invention.
Figure 8 is a structural diagram of an operating system for an immersive learning content platform for the elderly and vulnerable, according to an embodiment of the present invention.
Figure 9 is an example of behavioral learning content according to an embodiment of the present invention.
Figure 10 is a flowchart of the execution order of a method of operating a realistic learning content platform for the elderly and vulnerable, according to an embodiment of the present invention.
Figure 11 is a flowchart of the execution sequence of an artificial intelligence-based dementia diagnosis method according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware. Meanwhile, '~ part' is not limited to software or hardware, and '~ part' may be configured to reside in an addressable storage medium or may be configured to reproduce one or more processors. Therefore, as an example, '~ part' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functions provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or may be further separated into additional components and 'parts'. Additionally, components and 'parts' may be implemented to regenerate one or more CPUs within a device or a secure multimedia card.

이하에서 언급되는 "단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), VR HMD(예를 들어, HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR 등)등을 포함할 수 있다. 여기서, VR HMD 는 PC용 (예를 들어, HTC VIVE, Oculus Rift, FOVE, Deepon 등)과 모바일용(예를 들어, GearVR, DayDream, 폭풍마경, 구글 카드보드 등) 그리고 콘솔용(PSVR)과 독립적으로 구현되는 Stand Alone 모델(예를 들어, Deepon, PICO 등) 등을 모두 포함한다. 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 스마트폰(smart phone), 태블릿 PC, 웨어러블 디바이스뿐만 아니라, 블루투스(BLE, Bluetooth Low Energy), NFC, RFID, 초음파(Ultrasonic), 적외선, 와이파이(WiFi), 라이파이(LiFi) 등의 통신 모듈을 탑재한 각종 디바이스를 포함할 수 있다. 또한, "네트워크"는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다.The “terminal” mentioned below may be implemented as a computer or portable terminal that can connect to a server or other terminal through a network. Here, the computer is, for example, a laptop equipped with a web browser, a desktop, a laptop, a VR HMD (e.g., HTC VIVE, Oculus Rift, GearVR, DayDream, PSVR, etc.), etc. may include. Here, VR HMD is for PC (e.g. HTC VIVE, Oculus Rift, FOVE, Deepon, etc.), mobile (e.g. GearVR, DayDream, Storm Magic, Google Cardboard, etc.), and console (PSVR). Includes independently implemented Stand Alone models (e.g. Deepon, PICO, etc.). Portable terminals are, for example, wireless communication devices that ensure portability and mobility, including smart phones, tablet PCs, and wearable devices, as well as Bluetooth (BLE, Bluetooth Low Energy), NFC, RFID, and ultrasonic devices. , may include various devices equipped with communication modules such as infrared, WiFi, and LiFi. In addition, “network” refers to a connection structure that allows information exchange between nodes such as terminals and servers, including a local area network (LAN), a wide area network (WAN), and the Internet. (WWW: World Wide Web), wired and wireless data communication network, telephone network, wired and wireless television communication network, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi, Bluetooth communication, infrared communication, and ultrasound. This includes, but is not limited to, communication, Visible Light Communication (VLC), LiFi, etc.

본 발명은 각종 센서를 통하여 노약자 또는 고령자의 동작 데이터 및 생체 데이터를 수집하고, 추가로 노약자가 수행할 수 있는 실감형 학습 콘텐츠를 제공하여 해당 학습 콘텐츠가 수행됨에 따라 발생하는 학습 성과 데이터를 수집하여 이를 기반으로 대상 노약자의 치매 진행도를 진단하는 인공지능 학습모델을 구축하는 기술이다.The present invention collects motion data and biometric data of the elderly or the elderly through various sensors, provides realistic learning content that the elderly can perform, and collects learning performance data generated as the learning content is performed. Based on this, it is a technology to build an artificial intelligence learning model that diagnoses the progression of dementia in the elderly.

따라서, 본 발명은 크게 노약자의 동작 및 생체 신호 센싱 시스템, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 시스템 및 인공지능 기반의 치매 진단 장치와 그 방법들을 포함할 수 있다.Therefore, the present invention can broadly include a motion and biosignal sensing system for the elderly, a realistic learning content platform operating system for the elderly, and an artificial intelligence-based dementia diagnosis device and methods.

먼저, 도1을 참조하여 본 발명의 일 실시 예에 따르는 전체 시스템에 대하여 설명하도록 한다.First, the entire system according to an embodiment of the present invention will be described with reference to Figure 1.

도1을 참조하면, 본 발명의 일 실시 예에 따르는 전체 시스템은 서버(100), 노약자 단말(200), 콘텐츠 실행 기기(300) 및 센싱부(400)를 포함할 수 있으며, 노약자의 동작 및 생체 신호 센싱 시스템(미도시), 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 시스템(미도시) 및 인공지능 기반의 치매 진단 장치(미도시)가 더 포함될 수 있다.Referring to Figure 1, the entire system according to an embodiment of the present invention may include a server 100, an elderly person terminal 200, a content execution device 300, and a sensing unit 400, and the elderly and vulnerable person's operation and It may further include a biological signal sensing system (not shown), a realistic learning content platform operating system for the elderly (not shown), and an artificial intelligence-based dementia diagnosis device (not shown).

도2를 참조하면, 본 발명의 일 실시 예에 따르는 서버(100)는 노약자의 동작 및 생체 신호 센싱 방법, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 방법 및 인공지능 기반의 치매 진단 방법을 중 적어도 하나 이상을 수행하는 프로그램(또는 애플리케이션)이 저장된 메모리와 위 프로그램을 실행하는 프로세서를 포함하여 구성될 수 있다. 여기서 프로세서는 메모리에 저장된 프로그램의 실행에 따라 다양한 기능을 수행할 수 있다.Referring to Figure 2, the server 100 according to an embodiment of the present invention includes at least one of a method for sensing motion and biosignals of the elderly, a method for operating a realistic learning content platform for the elderly, and an artificial intelligence-based dementia diagnosis method. It may be configured to include a memory in which a program (or application) that performs the above is stored and a processor that executes the above program. Here, the processor can perform various functions depending on the execution of the program stored in the memory.

노약자 단말(200)은 통신망과 유무선으로 연결되어 서버(100) 또는 외부기기와 통신할 수 있는 것으로서, 스마트폰, 태블릿PC, 랩 탑 및 데스크 탑 등을 포함할 수 있으며, 노약자의 동작 및 생체 신호 센싱 방법, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 방법 및 인공지능 기반의 치매 진단 방법을 중 적어도 하나 이상을 수행하는 프로그램(또는 애플리케이션)이 설치된 것일 수 있다.The elderly terminal 200 is connected to a communication network wired or wirelessly and can communicate with the server 100 or an external device, and may include a smartphone, tablet PC, laptop, and desktop, and may include motion and biological signals of the elderly. A program (or application) that performs at least one of a sensing method, a method of operating a realistic learning content platform for the elderly, and an artificial intelligence-based dementia diagnosis method may be installed.

콘텐츠 실행 기기(300)는, 특정 행동 학습 콘텐츠를 제공하고 제공된 행동 학습 콘텐츠를 표시하며 학습 콘텐츠의 실행에 따른 노약자의 행동을 인식하여 데이터화하여 노약자 단말(200)로 전송하는 것일 수 있다.The content execution device 300 may provide specific behavior learning content, display the provided behavior learning content, recognize the behavior of the elderly and vulnerable people according to the execution of the learning content, convert it into data, and transmit it to the elderly and disabled terminal 200.

다음으로, 센싱부(400)는 노약자의 움직임을 센싱하여 동작 데이터를 획득하고, 노약자의 생체 신호를 센싱하여 생체 데이터를 획득하는 것일 수 있다.Next, the sensing unit 400 may acquire motion data by sensing the movement of the elderly and vulnerable person, and obtain biometric data by sensing the biological signal of the elderly and vulnerable person.

본 발명의 또 다른 실시 예에 따르면, 콘텐츠 실행 기기(300)는 상기 센싱부(400)를 포함하여 구성될 수 있으나, 센싱부(400)와 별도로 콘텐츠 실행에 따른 동작 데이터 및 생체 데이터만을 별도로 획득하는 별도의 모션 센싱부(330)를 포함할 수도 있다.According to another embodiment of the present invention, the content execution device 300 may be configured to include the sensing unit 400, but separately acquires only motion data and biometric data according to content execution separately from the sensing unit 400. It may also include a separate motion sensing unit 330.

상술한 시스템의 구성요소에 대한 자세한 동작 및 구현에 관한 설명은 추후 자세히 설명하도록 한다.Detailed operations and implementation of the components of the above-mentioned system will be described in detail later.

이하에서, 본 발명의 일 실시 예에 따르는, 노약자의 동작 및 생체 신호 센싱 시스템에 대하여 설명하도록 한다.Hereinafter, a system for sensing the motion and biological signals of the elderly and weak, according to an embodiment of the present invention, will be described.

본 발명의 일 실시 예에 따르는, 노약자의 동작 및 생체 신호 센싱 시스템은 노약자로부터 소정의 정보를 센싱하여 획득하는 센싱부(400)를 포함할 수 있다.According to an embodiment of the present invention, a system for sensing motion and biological signals of the elderly and vulnerable may include a sensing unit 400 that senses and obtains predetermined information from the elderly and vulnerable.

도3을 참조하면, 센싱부(400)는 제1 센싱부(410)와 제2 센싱부(420)로 구성될 수 있다.Referring to Figure 3, the sensing unit 400 may be composed of a first sensing unit 410 and a second sensing unit 420.

본 발명의 일 실시 예에 따르는 제1 센싱부(410)는, 노약자의 움직임을 센싱하여 동작 데이터를 획득하는 것으로서, 3차원 카메라, 적외선 센서 및 관절 인식 카메라 중 적어도 하나 이상을 포함하는 것이고, 노약자의 움직임을 인식하여 데이터화한 동작 데이터를 노약자의 현재 상태를 판단하는 단말로 전송할 수 있다.The first sensing unit 410 according to an embodiment of the present invention acquires motion data by sensing the movement of the elderly and vulnerable, and includes at least one of a 3D camera, an infrared sensor, and a joint recognition camera, and The motion data converted into data by recognizing the movement of the elderly person can be transmitted to a terminal that determines the current state of the elderly person.

따라서, 동작 데이터는 촬영된 영상 정보, 적외선 정보, 관절 정보를 포함할 수 있으며 이때, 제1 센싱부(410)는 3차원 카메라(예를 들어, MS Kinect 장비)의 경우, 촬영된 영상을 기반으로 노약자의 모션을 센싱하여 노약자의 다양한 운동능력과 신체의 움직임을 3D카메라영상만으로 측정하는 것일 수 있다.Therefore, the motion data may include captured image information, infrared information, and joint information, and in this case, the first sensing unit 410, in the case of a 3D camera (e.g., MS Kinect equipment), based on the captured image. By sensing the motion of the elderly and the weak, the various motor skills and body movements of the elderly can be measured using only 3D camera images.

또한, 관절 인식 카메라는 기 설정된 알고리즘에 따라 신체의 각 연결부위(Joint)를 인식하는 Joint Tracking 기술을 활용하여 노약자가 특정 모션을 수행하였을 때 해당 모션을 인식할 수 있으며 촬영된 영상 내에서 노약자의 신체 부위를 파악하고, 파악한 신체부위 중 관절에 대응하는 부분의 관절가동범위(ROM) 측정하는 것일 수 있다.In addition, the joint recognition camera utilizes Joint Tracking technology, which recognizes each joint of the body according to a preset algorithm, and can recognize the motion when an elderly person performs a specific motion. This may be identifying body parts and measuring the range of motion (ROM) of the parts corresponding to the joints among the identified body parts.

예를 들어, 노약자가 大형태로 양팔을 수평으로 벌리고 양 다리를 수평으로 넓힌 자세를 취했을 때, 제1 센싱부(410)는 노약자가 大형태(이 경우, 특정 모션에 해당)을 수행하였음을 인식할 수 있으며, 촬영된 이미지로부터 노약자의 팔꿈치, 무릎, 겨드랑이, 사타구니 및 목에 대응하는 부분의 신체 부위를 파악하고, 파악한 각부분의 관절이 어느 정도 벌어졌는지 측정하여 각 관절의 관절가동범위를 측정할 수 있다.For example, when an elderly person takes a posture with both arms spread horizontally and both legs spread horizontally in a large shape, the first sensing unit 410 detects that the elderly person has performed a large shape (in this case, corresponding to a specific motion). It can recognize the body parts corresponding to the elderly person's elbows, knees, armpits, groin, and neck from the captured images, and measure the extent to which the joints of each identified part are opened to determine the range of motion of each joint. It can be measured.

다음으로, 제2 센싱부(420)는, 노약자의 생체 신호를 센싱하여 생체 데이터를 획득하는 것으로서, 신체에 착용가능한 웨어러블 기기, 자이로 센서 및 가속도 센서 중 적어도 하나 이상을 포함하는 것이고, 노약자가 움직일 때 발생하는 힘을 인식하여 데이터화한 생체 데이터를 노약자의 현재 상태를 판단하는 단말로 전송할 수 있다.Next, the second sensing unit 420 acquires biometric data by sensing biosignals of the elderly and vulnerable, and includes at least one of a wearable device that can be worn on the body, a gyro sensor, and an acceleration sensor, and monitors the elderly and the vulnerable when they move. It is possible to recognize the force generated and transmit the converted biometric data to a terminal that determines the current condition of the elderly and infirm.

도4를 참조하면, 제2 센싱부(420)는, 다양한 실시 예로 구성될 수 있되, 웨어러블 기기 형태인 경우, 도시된 바와 같이 노약자의 신체 중 가는 부위(예를 들어 팔목, 발목 및 목 등)에 착용할 수 있도록 구현될 수 있다.Referring to Figure 4, the second sensing unit 420 may be configured in various embodiments, but in the case of a wearable device, as shown, the second sensing unit 420 is used to detect thin parts of the elderly person's body (for example, wrists, ankles, neck, etc.). It can be implemented so that it can be worn.

또한, 신체에 고정되는 부위와 프로세서가 탑재된 기기부위가 탈부착형으로 형성되고 ECG(Electrocardiogram: 심전도) 센서, EMG(Electromyography: 근전도) 센서, 온도 센서, 자이로 센서, 가속도 센서를 포함하여 구성될 수 있으며, 추가로 블루투스 송 수신기 및 기 설정된 자체 신호 분석 MCU 및 펌웨어가 설치된 것일 수 있다.In addition, the part fixed to the body and the device part equipped with the processor are detachable and can be configured to include an ECG (Electrocardiogram) sensor, EMG (Electromyography) sensor, temperature sensor, gyro sensor, and acceleration sensor. Additionally, a Bluetooth transmitter/receiver and a preset own signal analysis MCU and firmware may be installed.

따라서 제2 센싱부(420)가 수집할 수 있는 생체 데이터는 착용 노약자의 심전도 정보, 근전도 정보, 체온 정보 및 운동정보를 포함할 수 있으며, 이외에도 산소포화도를 더 포함하고, 제2 센싱부(420)의 각 센서에 의해 측정되어 노약자의 현재 상태를 판단하는 단말로 제공되는 것일 수 있다.Therefore, the biometric data that can be collected by the second sensing unit 420 may include electrocardiogram information, electromyogram information, body temperature information, and exercise information of the elderly person wearing the wearer, and may further include oxygen saturation, and the second sensing unit 420 ) may be measured by each sensor and provided as a terminal that determines the current condition of the elderly.

도5를 참조하면, 각 센싱부(400)로부터 수집된 동작 데이터 및 생체 데이터는 도시된 바와 같이 수집된 데이터 중 3차원 카메라로 수집된 영상 정보 위에 표시되어 서버(100) 또는 노약자 단말(200)로 제공될 수 있다.Referring to Figure 5, the motion data and biometric data collected from each sensing unit 400 are displayed on the image information collected by the 3D camera among the collected data as shown and displayed on the server 100 or the elderly terminal 200. It can be provided as .

이때, 동작 데이터 중 관절로 인식된 부분은 원 형태로 표시도리 수 있으며 복수의 관절로 인식된 부분이 직선으로 연결되어 표시될 수 있다.At this time, the part of the motion data recognized as a joint may be displayed in a circular shape, and the parts recognized as a plurality of joints may be displayed connected by straight lines.

또한, 각각의 관절로 인식된 부분의 옆에 자이로 센서와 가속도 센서를 통해 수집된 힘의 값이 수치로 함께 제공될 수 있다.Additionally, the force value collected through the gyro sensor and acceleration sensor can be provided as a numerical value next to the part recognized as each joint.

상술한 바와 같이 수집된 생체 데이터 및 동작 데이터를 수신하는 노약자의 현재 상태를 판단하는 단말 본 발명의 일 실 시 예에 따르면, 서버(100) 또는 서버(100)와는 별도로 구비되는 단말일 수 있다.According to one embodiment of the present invention, a terminal that determines the current state of the elderly and infirm receiving the biometric data and motion data collected as described above may be the server 100 or a terminal provided separately from the server 100.

본 발명의 일 실시 예에 따르는 노약자의 현재 상태를 판단하는 단말은, 제1 센싱부(410)가 획득한 동작 데이터 및 제2 센싱부(420)가 획득한 생체 데이터를 기반으로, 기 설정된 알고리즘에 따라 노약자의 현재 상태를 정지 상태 또는 걷기 및 뛰기 중 어느 하나의 상태로 판단할 수 있다.A terminal that determines the current state of an elderly person according to an embodiment of the present invention uses a preset algorithm based on the motion data acquired by the first sensing unit 410 and the biometric data acquired by the second sensing unit 420. Depending on this, the current state of the elderly person can be judged as either stationary or walking or running.

예를 들어, 걷기 및 뛰기의 경우, 제1 센싱부(410)가 획득한 동작 데이터를 통해 단말은 노약자가 달리거나 걷는 사람형태(이 경우, 특정 모션에 해당)을 수행하였음을 인식할 수 있으며, 촬영된 이미지로부터 노약자의 팔꿈치, 무릎, 겨드랑이, 사타구니 및 목에 대응하는 부분의 신체 부위를 파악하고, 파악한 각부분의 관절이 어느 정도 벌어졌는지 측정하여 각 관절의 관절가동범위가 달리거나 걷는 사람의 가동범위에 해당하는 지 여부를 판단할 수 있다.For example, in the case of walking and running, the terminal can recognize that the elderly person has performed a running or walking human form (in this case, corresponding to a specific motion) through the motion data acquired by the first sensing unit 410. , From the captured images, the body parts corresponding to the elbows, knees, armpits, groin, and neck of the elderly and infirm are identified, and the extent to which the joints of each identified part are opened is measured to determine the range of motion of each joint in a person who runs or walks. It can be determined whether it falls within the range of motion.

추가로, 3축 자이로센서 및 가속도 센서에서 수집되는 운동 데이터를 참고하여 상기 제1 센싱부(410)에서 획득한 동작 데이터가 단순히 노약자가 달리는 모션만을 취하고 실제로 달리지는 않는 정지상태인지, 달리는 모션을 취하며 실제로 달리는 상태인지 여부 또한 판단할 수 있다.Additionally, referring to the motion data collected from the 3-axis gyro sensor and the acceleration sensor, whether the motion data obtained from the first sensing unit 410 simply takes the running motion of the elderly and the weak and is not actually running, but is a stationary state or a running motion You can also determine whether you are actually running while drunk.

이때, 판단된 상태가 걷기 또는 뛰기 상태가 기 설정된 시간 이상 지속된 경우, 노약자의 현재 상태를 피로한 상태로 판단할 수 있으며, 정지 상태가 기 설정된 시간 이상 지속된 경우에는 노약자의 상태를 피로하지 않은 상태로 판단할 수 있다.At this time, if the determined state of walking or running continues for more than a preset time, the current state of the elderly person can be determined to be a fatigued state, and if the stopping state continues for more than a preset time, the elderly person's current state can be judged as not fatigued. It can be judged by the condition.

또한, 제1 센싱부(410)가 획득한 동작 데이터 및 제2 센싱부(420)가 획득한 생체 데이터를 기반으로, 단말은 동작 데이터 및 생체 데이터 중 적어도 하나 이상이 기 설정된 수치 이상인 경우, 상기 노약자가 피로한 상태 또는 멀미를 겪는 상태로 판단할 수 있다.In addition, based on the motion data acquired by the first sensing unit 410 and the biometric data acquired by the second sensing unit 420, the terminal detects the It can be judged that the elderly or weak are in a state of fatigue or motion sickness.

예를 들어, 자이로 센서로부터 수집된 각속도 정보가 기 설정된 시간 동안 통상의 인간이 균형감각을 잃을 정도로 변동하는 경우, 노약자의 현재 상태를 멀미를 겪는 상태로 판단하고, 반대의 경우 멀미를 겪지 않는 상태로 판단할 수 있다.For example, if the angular velocity information collected from the gyro sensor fluctuates enough for a normal human to lose their sense of balance during a preset period of time, the current state of the elderly person is judged to be suffering from motion sickness, and in the opposite case, the state is not suffering from motion sickness. It can be judged as follows.

도6을 참조하여, 이하에서 단말에 의해 수행되는, 노약자의 동작 및 생체 신호 센싱 방법의 수행 순서에 대하여 설명하도록 한다.Referring to FIG. 6, the following will describe the execution order of the elderly and weak person's motion and bio-signal sensing method performed by the terminal.

먼저, 단말이 제1 센싱부(410)로부터 노약자의 움직임을 센싱하여 획득한 동작 데이터를 수신한다(S101).First, the terminal receives motion data obtained by sensing the movement of the elderly person from the first sensing unit 410 (S101).

이와 동시 또는 이후에, 제2 센싱부(420)로부터 노약자의 생체 신호를 센싱하여 획득한 생체 데이터를 수신한다(S102).At the same time or after this, biometric data obtained by sensing the biosignal of the elderly person is received from the second sensing unit 420 (S102).

이후, 제1 센싱부(410)가 획득한 동작 데이터 및 제2 센싱부(420)가 획득한 생체 데이터를 기초로 노약자의 현재 상태를 판단한다(S103).Thereafter, the current state of the elderly person is determined based on the motion data acquired by the first sensing unit 410 and the biometric data acquired by the second sensing unit 420 (S103).

다음으로 이하에서, 본 발명의 일 실시 예에 따르는, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 시스템과 그 방법에 대하여 설명하도록 한다.Next, the operating system and method of an immersive learning content platform for the elderly and the weak, according to an embodiment of the present invention, will be described below.

본 발명의 일 실시 예에 따르는, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 시스템은 콘텐츠 정보를 수신하고 특정 행동 학습 콘텐츠를 선택하고, 노약자의 치매 진행도를 수신하는 단말(200)(이하, 노약자 단말), 노약자 단말(200)에 의해 선택된 상기 특정 행동 학습 콘텐츠를 실행하는 콘텐츠 실행 기기(300), 노약자 단말(200)에 의해 선택된 상기 특정 행동 학습 콘텐츠를 상기 콘텐츠 실행 기기(300)의 표시부의 터치 스크린에 표시하는 빔프로젝터 및 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 방법을 수행하는 서버(100)를 포함할 수 있다.According to an embodiment of the present invention, a realistic learning content platform operating system for the elderly and vulnerable includes a terminal 200 (hereinafter referred to as the elderly and infirm terminal) that receives content information, selects specific behavioral learning content, and receives the progress of dementia of the elderly and the infirm. ), a content execution device 300 that executes the specific behavior learning content selected by the elderly terminal 200, and a touch of the display portion of the content execution device 300 to display the specific behavior learning content selected by the elderly terminal 200. It may include a beam projector that displays on a screen and a server 100 that performs a method of operating a realistic learning content platform for the elderly and the weak.

본 발명의 일 실시 예에 따르는, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 방법은 서버(100), 노약자 단말(200) 및 콘텐츠 실행 기기(300)의 통신 연결을 통하여 수행될 수 있다.According to an embodiment of the present invention, the method of operating a realistic learning content platform for the elderly and vulnerable can be performed through communication connection between the server 100, the elderly and vulnerable terminal 200, and the content execution device 300.

먼저 서버(100)는, 노약자를 대상으로 하는 하나 이상의 행동 학습 콘텐츠에 대한 정보를 포함하는 콘텐츠 정보를 노약자 단말(200)로 전송한다. First, the server 100 transmits content information including information about one or more behavioral learning contents targeting the elderly and the vulnerable to the elderly and the vulnerable terminal 200.

이때, 행동 학습 콘텐츠는 치매 예방 콘텐츠 및 뇌인지장애 진단 콘텐츠를 포함하는 것일 수 있으며, 노약자에게 특정 행동을 수행하도록 유발하는 영상 콘텐츠, 게임 콘텐츠 또는 재활 콘텐츠를 더 포함할 수 있다.At this time, the behavioral learning content may include dementia prevention content and brain cognitive disorder diagnosis content, and may further include video content, game content, or rehabilitation content that induces the elderly to perform specific actions.

상술한 복수의 콘텐츠는 각각 기억력, 판단력, 시공간인지력 및 계산력을 필요로 하는 인지기능, 상지근육, 하지근육, 체간근육 및 미세운동의 단순 동작부터 체조 나 댄스 등의 복합동작을 필요로 하는 운동기능, 정지 시 균형 능력을 필요로하는 균형 기능, 보행 시 안정적 보행능력을 필요로 하는 보행기능 및 읽기, 쓰기 및 말하기능력을 필요로 하는 언어기능을 요구하는 소정의 미션형 콘텐츠로, 추후 도면을 예시로 더 자세히 설명하도록 한다.The plurality of contents described above include cognitive functions that require memory, judgment, visuospatial awareness, and calculation ability, and motor functions that require simple movements of upper and lower limb muscles, trunk muscles, and fine motor skills, as well as complex movements such as gymnastics and dance. , a certain mission-type content that requires a balance function that requires balance ability when stationary, a walking function that requires stable walking ability when walking, and a language function that requires reading, writing, and speaking skills, as shown in the drawings later. Let us explain in more detail.

상기 전송과정을 위하여 노약자 단말(200)에서 노약자에 대한 개인 정보가 입력되고 입력된 개인 정보는 서버(100)로 제공된다.For the above transmission process, personal information about the elderly and infirm is inputted in the elderly and infirm terminal 200, and the input personal information is provided to the server 100.

이때, 노약자의 개인정보는 노약자의 생년월일 정보, 앓고 있거나 앓았던 경험이 있는 질병 내역 정보 중 뇌질환 또는 치매 이력 정보, 특정 질병에 대한 가족력 정보, 선호 학습 정보 및 학습 역량 정보 및 성별 정보를 포함하는 것일 수 있다.At this time, the personal information of the elderly and infirm includes the elderly and infirm's date of birth, information on the history of brain disease or dementia among the diseases that the elderly or infirm has suffered from or have suffered from, family history information on specific diseases, preferred learning information, learning competency information, and gender information. It could be.

서버(100)는, 노약자 단말(200)로부터 전송 받은 노약자의 개인 정보를 기 설정된 알고리즘에 따라 분석하여 개인 정보에 대응되는 하나 이상의 행동 학습 콘텐츠를 포함하는 콘텐츠 정보를 노약자 단말(200)로 전송한다.The server 100 analyzes the personal information of the elderly and infirm received from the elderly and infirm terminal 200 according to a preset algorithm and transmits content information including one or more behavioral learning contents corresponding to the personal information to the elderly and infirm terminal 200. .

노약자 단말(200)로 전송되는 콘텐츠 정보는 하나 이상의 행동 학습 콘텐츠 각각에 대한 학습 이미지 정보, 학습 구성 정보, 학습 가중치 정보, 학습 시간 정보, 학습 레벨 정보, 추천 학습 기준 연령 정보, 추천 학습 기준 역량 정보 및 학습 효과 정보 중 적어도 하나 이상의 정보를 포함하는 것일 수 있으며, 노약자 단말(200)의 화면에 표시되고, 노약자에 의해 복수의 콘텐츠 정보에 포함된 하나 이상의 행동 학습 콘텐츠 중 특정 행동 학습 콘텐츠가 선택되어 입력될 수 있다.Content information transmitted to the elderly terminal 200 includes learning image information, learning configuration information, learning weight information, learning time information, learning level information, recommended learning standard age information, and recommended learning standard competency information for each of one or more behavioral learning contents. and learning effect information, and is displayed on the screen of the elderly and vulnerable person terminal 200, and a specific action learning content is selected by the elderly and vulnerable person among one or more action learning contents included in the plurality of content information. can be entered.

서버(100)는 노약자(사용자)에 의해 선택된 행동 학습 콘텐츠를 콘텐츠 실행 기기(300)를 통해 실행한다.The server 100 executes the behavioral learning content selected by the elderly (user) through the content execution device 300.

도7을 참조하면, 본 발명의 일 실시 예에 따르는 콘텐츠 실행 기기(300)는 콘텐츠 제공부(310), 콘텐츠 표시부(320) 및 모션 센싱부(330)를 포함할 수 있다.Referring to Figure 7, the content execution device 300 according to an embodiment of the present invention may include a content providing unit 310, a content display unit 320, and a motion sensing unit 330.

콘텐츠 제공부(310)는 특정 행동 학습 콘텐츠를 제공하는 것으로서, 복수의 행동 학습 콘텐츠가 저장되어 있으며 각각의 행동 학습 콘텐츠를 실행하는 프로그램이 설치되어 프로세서를 통해 행동 학습 콘텐츠를 실행하는 것일 수 있다.The content provider 310 provides specific action learning content. A plurality of action learning contents are stored, and a program for executing each action learning content is installed to execute the action learning content through a processor.

도8을 참조하면, 콘텐츠 표시부(320)는 콘텐츠 제공부(310)로부터 제공된 특정 행동 학습 콘텐츠를 표시하는 것으로서, 콘텐츠 실행 기기(300)의 화면 역할을 수행하여 노약자에게 현재 실행 중인 행동 학습 콘텐츠를 보여줄 수 있다.Referring to Figure 8, the content display unit 320 displays specific behavioral learning content provided from the content providing unit 310, and serves as a screen of the content execution device 300 to display currently running behavioral learning content to the elderly and infirm. I can show you.

본 발명의 또 다른 실시 예에 따르면, 콘텐츠 표시부(320)는 본 발명이 실시되는 공간의 벽면에 적어도 하나 이상 설치되어 빔 프로젝터가 표시하는 화면이 선명하게 표시되도록 하는 스크린을 포함하도록 구성될 수 있다.According to another embodiment of the present invention, the content display unit 320 may be configured to include at least one screen installed on the wall of the space in which the present invention is implemented so that the screen displayed by the beam projector is displayed clearly. .

모션 센싱부(330)는 특정 행동 학습 콘텐츠의 실행에 따른 상기 노약자의 행동을 인식하여 데이터화한 행동 학습 데이터를 상기 단말로 전송하는 것으로서, 상술한 센싱부(400)에 포함되어 형성되거나 센싱부(400)와는 별도로 본 발명이 실시되는 공간 일측에 빔프로젝터가 콘텐츠 표시부(320)로 영사하는 콘텐츠를 가리지 않도록 비치될 수 있다.The motion sensing unit 330 recognizes the behavior of the elderly and infirm according to the execution of specific behavior learning content and transmits converted behavior learning data to the terminal. It is formed by being included in the above-described sensing unit 400 or is formed as a sensing unit ( Separately from 400), a beam projector may be placed on one side of the space where the present invention is practiced so as not to obscure the content projected onto the content display unit 320.

빔 프로젝터는 콘텐츠 실행 기기(300)에 설치되거나 본 발명이 실시되는 공간의 천장 중앙에 설치되어 콘텐츠 실행 기기(300)가 서버(100)에 의해, 선택된 특정 행동 학습 콘텐츠가 빔 프로젝터를 통해 콘텐츠 실행 기기(300)의 콘텐츠 표시부(320)에 표시되도록 제어될 수 있다.The beam projector is installed in the content execution device 300 or in the center of the ceiling of the space where the present invention is implemented, and the content execution device 300 executes the content through the beam projector by selecting specific behavior learning content selected by the server 100. It can be controlled to be displayed on the content display unit 320 of the device 300.

도9를 참조하면, 본 발명의 일 실시 예에 따르는 행동 학습 콘텐츠는 도시된 바와 같이, 복수의 콘텐츠 중 어느 하나가 제공되는 것일 수 있으며, 상점 가판대에서 특정 물건을 선택하는 구성: 행동 학습 콘텐츠A (310a), 키오스크 화면에서 특정 금액을 입력하는 구성: 행동 학습 콘텐츠B(310b), 테이블 위에 놓인 카드 중 같은 문자 또는 숫자를 표시하는 카드 쌍을 선택하는 구성: 행동 학습 콘텐츠C(310c) 및 테이블 위에 놓인 퍼즐을 결합하는 구성: 행동 학습 콘텐츠D(310d) 등을 포함할 수 있으며, 특정 혹은 여러 인지영역을 개선할 할 수 있도록 반복적으로 시행될 수 있다.Referring to Figure 9, the action learning content according to an embodiment of the present invention may be one of a plurality of contents provided as shown, and consists of selecting a specific item from a store stand: Action learning content A (310a), Configuration of entering a specific amount on the kiosk screen: Action learning content B (310b), Configuration of selecting a pair of cards showing the same letter or number among cards placed on the table: Action learning content C (310c) and table Composition that combines the above puzzles: It may include behavioral learning content D (310d), etc., and can be implemented repeatedly to improve specific or multiple cognitive areas.

노약자는 행동 학습 콘텐츠를 통해 제공되는 임무를 콘텐츠 실행 기기(300)의 콘텐츠 표시부(320)를 조작하여 수행할 수 있으며, 특정 행동 학습 콘텐츠의 실행 및 노약자의 임무 수행에 의해 따른 노약자의 행동을 모션 센싱부(330)의 레이저 센서, 적외선 카메라 및 관절 인식 카메라를 통해 인식하여 데이터화하고, 이를 행동 학습 데이터로 생성할 수 있다.The elderly and infirm can perform tasks provided through action learning content by manipulating the content display unit 320 of the content execution device 300, and the elderly and infirm's actions according to the execution of the specific behavior learning content and the elderly and infirm's mission performance can be performed through motion. It can be recognized and converted into data through the laser sensor, infrared camera, and joint recognition camera of the sensing unit 330, and generated as behavioral learning data.

본 발명의 추가 실시 예에 따르면, 노약자가 행동 학습 콘텐츠를 수행하는 수단은 콘텐츠 실행 기기(300) 외에도 컨트롤러 없이 이용자의 신체를 이용하여 콘텐츠를 수행할 수 있는 주변기기(예를 들어 KINECT)를 통해 노약자가 수행하는 특정 동작으로 수행될 수도 있다.According to a further embodiment of the present invention, the means for the elderly and the weak to perform behavioral learning content is, in addition to the content execution device 300, the elderly and the weak through a peripheral device (for example, KINECT) that can perform the content using the user's body without a controller. It may also be performed as a specific operation performed by .

예를 들어, 노약자가 상점 가판대에서 특정 물건을 선택하는 구성의 행동 학습 콘텐츠A(310a)를 수행한다고 가정하면, 노약자는 콘텐츠 실행 기기(300)의 표시부를 조작하는 것이 아니라, 손을 위로 움직여 화면에 표시되는 커서를 조작하고 움켜쥐는 동작을 수행하여 화면에 표시된 특정 물건을 선택하는 동작을 수행할 수 있다.For example, assuming that an elderly person performs action learning content A (310a) that consists of selecting a specific item from a store stall, the elderly person does not manipulate the display unit of the content execution device 300, but moves his/her hand upwards on the screen. You can select a specific object displayed on the screen by manipulating the cursor displayed in and performing a grasping motion.

상술한 동작의 수행을 위해, 본 발명의 추가 실시 예에 따르는 모션 센싱부(330)는 융합형 MR 디바이스인 BeaMR과 모션센서, 상황인지엔진, IR센서 및 Kinnect 장비를 더 포함할 수 있다.To perform the above-described operation, the motion sensing unit 330 according to an additional embodiment of the present invention may further include BeaMR, a convergence-type MR device, a motion sensor, a context recognition engine, an IR sensor, and Kinnect equipment.

또한, 본 발명은 HMD(Head Mounted Display)방식이 아닌 현실적인 가상체험공간 제공할 수 있으며 이를 통해 VR(Virtual Reality) 환경과는 차별화된 현실공간에서의 인지중재치료를 제공할 수 있다.In addition, the present invention can provide a realistic virtual experience space rather than a HMD (Head Mounted Display) method, and through this, it is possible to provide cognitive intervention therapy in a real space that is differentiated from a VR (Virtual Reality) environment.

즉, 기존에 VR환경에서 HMD를 착용하여 사용자 시점에서 폐쇄적 가상현실에서 발생하는 감각 충돌과 자세 불안정, VR멀미, 어지러움증, 낙상에 대한 위험을 해결하여, 보다 편안하고 안전한 인지재활 방식을 제공할 수 있다.In other words, by wearing an HMD in an existing VR environment, it is possible to provide a more comfortable and safer cognitive rehabilitation method by solving the risk of sensory conflict, postural instability, VR motion sickness, dizziness, and falls that occur in closed virtual reality from the user's perspective. there is.

상술한 과정을 통해 수집되는 노약자의 행동 학습 데이터는 노약자가 상기 특정 행동 학습 콘텐츠를 수행함에 따라 기 설정된 행동 임계치 이상으로 노약자가 총 행동한 횟수 및 총 행동한 시간, 상기 특정 행동 학습 콘텐츠가 제공하는 미션 정보에 대응한 상기 노약자의 최대 반응 속도 및 평균 반응 속도, 특정 행동 학습 콘텐츠가 제공하는 미션 정보에 대응한 노약자의 성공 횟수 및 실패 횟수, 그리고, 상기 특정 행동 학습 콘텐츠가 제공하는 미션 정보에 대응한 상기 노약자의 최대 행동 범위 및 평균 행동 범위의 데이터를 포함할 수 있으며 상술한 데이터는 센싱부(400)에 의해 수집되는 것일 수 있다.The behavioral learning data of the elderly and vulnerable collected through the above-described process includes the total number of actions taken by the elderly and the vulnerable beyond the preset behavioral threshold as the elderly and vulnerable perform the specific behavioral learning content, the total time of the behavioral learning, and the total number of behavioral learning data provided by the specific behavioral learning content. The maximum reaction speed and average reaction speed of the elderly and vulnerable in response to mission information, the number of successes and failures of the elderly and vulnerable in response to mission information provided by specific action learning content, and the mission information provided by the specific action learning content. It may include data on the maximum behavioral range and average behavioral range of the elderly person, and the above-described data may be collected by the sensing unit 400.

수집된 행동 학습 데이터는 노약자 단말(200)로 제공되고, 노약자 단말(200)의 화면에 표시될 수 있으며, 이후, 서버(100)로 전송될 수 있다.The collected behavioral learning data is provided to the elderly and infirm terminal 200, can be displayed on the screen of the elderly and infirm terminal 200, and can then be transmitted to the server 100.

서버(100)는 전송 받은 행동 학습 데이터를 분석하여 학습 성과 분석 정보를 생성하고, 학습 성과 분석 정보를 기반으로 산출한 노약자의 치매 진행도를 노약자 단말(200)로 전송할 수 있다.The server 100 may analyze the received behavioral learning data to generate learning performance analysis information, and transmit the elderly person's dementia progression calculated based on the learning performance analysis information to the elderly person's terminal 200.

이때, 서버(100)는, 행동 학습 데이터와 서버(100)에 기 저장된 복수의 노약자들에 대한 누적된 행동 학습 데이터를 비교 분석하여, 노약자의 학습 성취도를 수치화한 정보를 포함하는 상기 학습 성과 분석 정보를 생성한다.At this time, the server 100 compares and analyzes the behavioral learning data and the accumulated behavioral learning data for a plurality of elderly and vulnerable people previously stored in the server 100, and analyzes the learning performance including information that quantifies the learning achievement of the elderly and weak. generate information.

노약자의 행동 학습 데이터는, 특정 시간을 기준으로 구분되는 이전 행동 학습 데이터와 현재 행동 학습 데이터를 포함하여, 노약자가 기 설정된 시간 내에 선택한 콘텐츠를 모두 수행하였는지 여부와 해당 콘텐츠를 수행하는데 소모된 시간을 파악할 수 있도록 한다.The behavioral learning data of the elderly and vulnerable includes previous behavioral learning data and current behavioral learning data classified based on a specific time, and determines whether the elderly and vulnerable have performed all of the selected content within a preset time and the time spent performing the content. Make it understandable.

이러한 행동 학습 데이터를 통해 산출되는 학습 성과 분석 정보는, 서버(100)가 노약자의 행동 학습 데이터와 서버(100)에 기 저장된 복수의 사용자, 즉, 또 다른 복수의 노약자에 대한 누적된 행동 학습 데이터를 기 설정된 알고리즘에 따라 비교 분석하는 것일 수 있으며, 선정된 콘텐츠 1종에 대하여 기 설정된 인원 수에 대한 콘텐츠 사용 전과 사용 중 데이터 평균을 대응 표본 T-검정 수행하는 것일 수 있다.The learning performance analysis information calculated through this behavioral learning data is the behavioral learning data of the elderly and the weak and the accumulated behavioral learning data of a plurality of users already stored in the server 100, that is, a plurality of other elderly and weak people. It may be a comparative analysis according to a preset algorithm, and a paired sample T-test may be performed on the average of data before and during use of the content for a preset number of people for one type of selected content.

이때, 학습 성과 분석 정보는, 대응표본 T-검정 수행 결과의 P<0.05에 해당하는 콘텐츠별 유효변인을 각 콘텐츠별 전체 인원수의 데이터에 대한 Min-Max Threshold 구간을 구하고, 해당 구간에 대한 기 설정된 범위 구간을 선정하여 각 구간 별로 설정된 점수 및 가중치에 따라 선정되는 것일 수 있다.At this time, the learning performance analysis information is calculated by calculating the Min-Max Threshold interval for the data of the total number of people for each content, using the valid variables for each content corresponding to P<0.05 in the results of the paired-sample T-test, and calculating the Min-Max Threshold interval for the data of the total number of people for each content. Range sections may be selected and selected according to the scores and weights set for each section.

또한, 학습 성과 분석 정보는, 노약자와 복수의 사용자를 포함하는 기 저장된 실감형 학습 콘텐츠 플랫폼의 전체 사용자를 기준으로 설정되는 노약자의 순위 정보, 그리고 노약자의 이전 행동 학습 데이터와 노약자의 현재 행동 학습 데이터를 비교 분석하여 상기 노약자의 기간별 행동 학습 데이터 변화 정보를 포함하는 것으로서, 노약자의 학습 성취도를 수치화 한 것일 수 있다.In addition, the learning performance analysis information includes the ranking information of the elderly and the weak, which is set based on all users of the realistic learning content platform that is already stored, including the elderly and the weak and multiple users, and the previous behavior learning data of the elderly and the weak and the current behavior learning data of the elderly and the weak. It includes information on changes in behavioral learning data for each period of the elderly and infirm by comparative analysis, and may be a quantification of the learning achievement of the elderly and infirm.

상술한 과정을 통해 산출된 노약자의 학습 성취도를 기반으로 서버(100)는 기 설정된 학습 성취도 수치 테이블(미도시)에 따라, 상기 노약자의 치매 위험도를 초기, 중기 및 말기로 구분하여 치매 진행도를 파악할 수 있다. Based on the learning achievement of the elderly and weak calculated through the above-described process, the server 100 divides the dementia risk of the elderly and weak into early, middle and late stages according to a preset learning achievement numerical table (not shown) and determines the progression of dementia. It can be figured out.

예를 들어, 기 설정된 학습 성취도 수치 테이블이 구간 별로 10~30인 경우, 초기, 31~60인 경우 중기, 61~100인 경우 말기로 가정하면, 특정 콘텐츠에 대한 노약자의 학습 성취도가 상기 학습 성취도 수치 테이블에 따라 치매 진행도와 매칭되는 것일 수 있다.For example, assuming that the preset learning achievement numerical table is 10 to 30 for each section, the early stage, 31 to 60 for the middle stage, and 61 to 100 for the late stage, the learning achievement of the elderly and weak for specific content is the above learning achievement. Depending on the numerical table, it may be matched to the progress of dementia.

다음으로, 서버(100)는 각 콘텐츠 별로, 노약자의 순위 정보 및 노약자의 기간별 행동학습 데이터 변화 정보를 그래프 형태로 생성하여 치매 진행도와 함께 상기 단말에 제공한다.Next, the server 100 generates ranking information for the elderly and the elderly and behavioral learning data change information for each period for each content in the form of a graph and provides them to the terminal along with the progress of dementia.

도10을 참조하면, 노약자 대상의 실감형 학습 콘텐츠 플랫폼 운영 방법의 수행 순서는 다음과 같다.Referring to Figure 10, the execution sequence of the method of operating a realistic learning content platform for the elderly and vulnerable is as follows.

먼저, 서버(100)가 노약자를 대상으로 하는 행동 학습 콘텐츠 정보를 노약자 단말(200)로 전송한다(S201).First, the server 100 transmits behavioral learning content information targeting the elderly and vulnerable to the elderly and vulnerable terminal 200 (S201).

노약자 단말(200)에 의해 하나 이상의 행동 학습 콘텐츠 중 특정 행동 학습 콘텐츠가 선택된다(S202).A specific action learning content is selected from one or more action learning contents by the elderly terminal 200 (S202).

노약자 단말(200)에 의해 선택된 특정 행동 학습 콘텐츠가 콘텐츠 실행 기기(300)를 통해 실행된다(S203).Specific behavior learning content selected by the elderly terminal 200 is executed through the content execution device 300 (S203).

노약자가 행동 학습 콘텐츠를 수행하고, 콘텐츠 실행 기기(300)가 획득한 노약자에 대한 행동 학습 데이터를 단말이 전달 받아 서버(100)로 전송한다(S204).The elderly and infirm perform behavioral learning content, and the terminal receives behavioral learning data for the elderly and infirm acquired by the content execution device 300 and transmits it to the server 100 (S204).

이후, 서버(100)가 전송 받은 행동 학습 데이터를 분석하여 학습 성과 분석 정보를 생성하고, 학습 성과 분석 정보를 기반으로 산출한 노약자의 치매 진행도를 노약자 단말(200)로 전송한다(S205).Thereafter, the server 100 analyzes the received behavioral learning data to generate learning performance analysis information, and transmits the elderly person's dementia progression calculated based on the learning performance analysis information to the elderly person's terminal 200 (S205).

상기 S205과정은 본 발명의 일 실시 예에 따르는 인공지능 기반의 치매 진단 장치에 의해 수행될 수 있다.The S205 process may be performed by an artificial intelligence-based dementia diagnosis device according to an embodiment of the present invention.

이하에서, 본 발명의 일 실시 예에 따르는 인공지능 기반의 치매 진단 장치 및 방법에 대하여 설명하도록 한다.Below, an artificial intelligence-based dementia diagnosis device and method according to an embodiment of the present invention will be described.

본 발명의 일 실시 예에 따르는, 인공지능 기반의 치매 진단 장치는, 외부 기기와의 정보 송수신을 수행하는 통신모듈, 인공지능 기반의 치매 진단 프로그램을 저장하는 메모리, 상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하여 구성될 수 있으며, 다양한 실시 예에서, 인공지능 기반의 치매 진단 장치는 본 발명의 일 실시 예에 따르는 서버(100), 또는 서버(100)와는 별도로 구비되는 장치일 수도 있다.According to an embodiment of the present invention, an artificial intelligence-based dementia diagnosis device includes a communication module that transmits and receives information with an external device, a memory that stores an artificial intelligence-based dementia diagnosis program, and a device that executes the program stored in the memory. It may be configured to include a processor, and in various embodiments, the artificial intelligence-based dementia diagnosis device may be the server 100 according to an embodiment of the present invention, or a device provided separately from the server 100.

이하에서는, 서버(100)와는 별도로 구비되는 장치를 가정하여 설명하도록 한다.Hereinafter, the description will be made assuming that a device is provided separately from the server 100.

장치의 프로세서는 치매 진단 모델을 이용하여 노약자의 단말로부터 제공받은 복수의 데이터를 기초로 노약자의 치매 진행도를 판단하도록 구성되고, 치매 진단 모델은 노약자의 움직임을 센싱하여 획득한 동작 데이터, 노약자의 생체 신호 및 움직임에서 발생한 힘을 센싱하여 획득한 생체 데이터, 노약자가 수행한 행동 학습 콘텐츠의 학습 성과 분석 정보 및 상기 노약자의 치매 이력 데이터를 기초로 상기 노약자의 치매 진행도를 추론하도록 학습된 것일 수 있다.The processor of the device is configured to determine the progress of dementia of the elderly person based on a plurality of data provided from the elderly person's terminal using a dementia diagnosis model, and the dementia diagnosis model includes motion data obtained by sensing the movement of the elderly person and the elderly person's It may be learned to infer the progression of dementia of the elderly person based on biometric data acquired by sensing the force generated from biological signals and movements, learning performance analysis information of behavioral learning content performed by the elderly person, and dementia history data of the elderly person. there is.

또한, 노약자의 움직임을 센싱하여 획득한 동작 데이터, 노약자의 생체 신호를 센싱하여 획득한 생체 데이터, 노약자가 수행한 행동 학습 콘텐츠의 결과 데이터 및 상기 노약자의 치매 이력 데이터가 노약자 별로 매칭되어 저장된 데이터베이스를 더 포함하여 복수의 데이터를 저장할 수 있다.In addition, a database is stored in which motion data obtained by sensing the movements of the elderly and vulnerable, biometric data obtained by sensing the vital signs of the elderly and vulnerable, result data of behavioral learning content performed by the elderly and the dementia history data of the elderly and vulnerable are matched and stored for each elderly and vulnerable person. In addition, a plurality of data can be stored.

상술한 복수의 데이터는 각각 센싱부(400)의 센서들로부터 인식되어 수집되는 것일 수 있으며, 이 중, 노약자가 수행한 행동 학습 콘텐츠의 결과 데이터는, 콘텐츠 정보를 노약자의 단말로 전송하고, 단말에 의해 특정 행동 학습 콘텐츠가 선택되고, 선택된 특정 행동 학습 콘텐츠가 콘텐츠 실행 기기(300)를 통해 실행됨에 따라 노약자에 의해 수행된 행동 학습 데이터를 통해 수집되는 것일 수 있다.The plurality of data described above may be recognized and collected from the sensors of the sensing unit 400, and among these, the result data of behavioral learning content performed by the elderly and vulnerable transmits content information to the terminal of the elderly and vulnerable, and transmits the data to the terminal of the elderly and vulnerable. Specific action learning content is selected, and as the selected specific action learning content is executed through the content execution device 300, action learning data performed by the elderly and infirm may be collected.

치매 진단 모델이 구축되는 데 활용되는 데이터 중 노약자의 치매 이력 데이터는, 장치가 외부 의료기관 서버(100)에 접속하여 노약자의 인적사항에 대응하는 의료 이력 정보를 수집한 것일 수 있다.Among the data used to build a dementia diagnosis model, the elderly person's dementia history data may be collected by the device connecting to an external medical institution server 100 and collecting medical history information corresponding to the elderly person's personal information.

이때, 장치는 의료 이력 정보 외에도 노약자와 기 설정된 촌수 이내의 친인척의 의료 이력 정보를 기반으로, 친인척의 의료 이력 정보에 치매 질환을 앓은 기록이 존재하는 경우, 해당 노약자의 치매 이력 데이터에 가족력 가중치를 부여하여 상기 치매 진단 모델 학습 시 학습 데이터로 활용할 수 있다.At this time, in addition to the medical history information, the device is based on the medical history information of the elderly person and their relatives within a preset number of relatives. If there is a record of suffering from a dementia disease in the relative's medical history information, the device records the family history in the dementia history data of the elderly person. By assigning weights, it can be used as learning data when learning the dementia diagnosis model.

치매 진단 모델은, 기 구축된 데이터베이스에 저장된 정보 중, 동작 데이터, 생체 데이터, 행동 학습 콘텐츠의 결과 데이터와 치매 이력 데이터를 매칭한 데이터 쌍을 학습데이터 중 입력 값으로 하고, 치매 진행도를 학습 데이터 중 출력 값으로 학습하여, 동작 데이터, 생체 데이터, 행동 학습 콘텐츠의 결과 데이터 중 적어도 하나 이상이 입력되었을 때, 치매 진행도가 출력되어 해당 노약자의 치매 여부를 추론하도록 학습되는 것일 수 있다.The dementia diagnosis model uses data pairs that match the result data of motion data, biometric data, and behavioral learning content and dementia history data among the information stored in the existing database as input values among the learning data, and the dementia progression is the learning data. By learning with the middle output value, when at least one of motion data, biometric data, and result data of behavior learning content is input, the dementia progress may be output and learned to infer whether the elderly person has dementia.

본 발명의 치매 진단 모델은 다양한 실시예에 따라 ANN(Artificial Neural Network), CNN(Convolution Neural Network) 및 DNN(Deep Neural Network)방식 등 다양한 방식으로 구현될 수 있으며, 학습 방식 또한 비지도학습 및 지도학습을 포함할 수 있는 것으로서, 상술한 내용은 종래 기술에 해당하므로 본 명세서에서는 자세히 설명하지 않는다.The dementia diagnosis model of the present invention can be implemented in various ways, such as ANN (Artificial Neural Network), CNN (Convolution Neural Network), and DNN (Deep Neural Network), according to various embodiments, and learning methods can also be unsupervised learning and supervised learning. As it may include learning, the above-described content corresponds to prior art and will not be described in detail in this specification.

다음으로, 구축된 치매 진단 모델을 기반으로, 장치의 프로세서는 노약자의 치매 위험도를 초기, 중기 및 말기로 구분하여 치매 진행도를 산출할 수 있으며, 치매 진단 모델로부터 추론된 상기 노약자의 치매 진행도에 따라 초기, 중기 및 말기별로 상이한 치매 예방법, 치료법, 의료장비를 추천할 수 있다.Next, based on the constructed dementia diagnosis model, the processor of the device can calculate the dementia progression rate by dividing the elderly person's dementia risk into early, middle, and late stages, and the elderly person's dementia progression inferred from the dementia diagnosis model. Depending on the condition, different dementia prevention methods, treatments, and medical equipment can be recommended for the early, middle, and late stages.

이때, 노약자의 치매 진행도가 초기인 경우, 외부 의료기관 서버(100)로부터 수신한 치매 예방법을 제공하고, 상기 노약자의 치매 진행도가 중기 또는 말기인 경우, 외부 의료기관 서버(100)로부터 수신한 각 진행도 별 맞춤형 의료장비, 치료법 및 생활 습관을 제공할 수 있다.At this time, if the elderly person's dementia progress is in the early stage, the dementia prevention method received from the external medical institution server 100 is provided, and if the elderly person's dementia progress is in the middle or terminal stage, each dementia prevention method received from the external medical institution server 100 is provided. We can provide customized medical equipment, treatments, and lifestyle habits depending on the patient's progress.

따라서 본 발명의 일 실시 예에 따르면, 치매 진단 모델은 대상 노약자의 치매 진행 정도를 추론할 뿐만 아니라 증상의 진행 정도에 따라 적합한 치료 또는 예방 및 재활 방법을 노약자 단말(200)로 제공하여 표시할 수 있다.Therefore, according to an embodiment of the present invention, the dementia diagnosis model can not only infer the degree of dementia progression of the target elderly person, but also provide and display appropriate treatment or prevention and rehabilitation methods according to the degree of symptom progression to the elderly person terminal 200. there is.

도11을 참조하면, 본 발명의 일 실시 예에 따르는 장치 또는 서버(100)에 의해 수행되는 인공지능 기반의 치매 진단 방법은 다음과 같은 순서로 수행될 수 있다.Referring to FIG. 11, the artificial intelligence-based dementia diagnosis method performed by the device or server 100 according to an embodiment of the present invention may be performed in the following order.

센싱부(400)가 노약자의 움직임을 센싱하여 획득한 동작 데이터를 수집한다(S301).The sensing unit 400 collects motion data obtained by sensing the movement of the elderly and weak (S301).

센싱부(400)가 노약자의 생체 신호를 센싱하여 획득한 생체 데이터를 수집한다(S302).The sensing unit 400 collects biometric data obtained by sensing the biosignals of the elderly and weak (S302).

콘텐츠 실행 기기(300)가 행동 학습 콘텐츠를 제공하고, 서버(100)가 노약자가 수행한 행동 학습 콘텐츠의 학습 성과 분석 정보를 수신한다(S303).The content execution device 300 provides behavioral learning content, and the server 100 receives learning performance analysis information of the behavioral learning content performed by the elderly and infirm (S303).

이후, 서버(100) 또는 장치가 노약자의 단말로부터 제공받은 복수의 데이터를 기반으로 치매 진단 모델을 구축하고, 치매 진단 모델을 이용하여 노약자의 치매 진행도를 판단하고 이를 노약자의 단말로 제공한다(S304).Afterwards, the server 100 or the device builds a dementia diagnosis model based on a plurality of data provided from the elderly person's terminal, uses the dementia diagnosis model to determine the progress of dementia of the elderly person, and provides this to the elderly person's terminal ( S304).

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. One embodiment of the present invention may also be implemented in the form of a recording medium containing instructions executable by a computer, such as program modules executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include all computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with respect to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

100: 서버 200: 노약자 단말
300: 콘텐츠 실행 기기 310: 콘텐츠 제공부
310a: 행동 학습 콘텐츠A 310b: 행동 학습 콘텐츠B
310c: 행동 학습 콘텐츠C 310d: 행동 학습 콘텐츠D
320: 콘텐츠 표시부 330: 모션 센싱부
400: 센싱부 410: 제1 센싱부
420: 제2 센싱부 500: 빔 프로젝터
100: Server 200: Terminal for the elderly and infirm
300: Content execution device 310: Content provision unit
310a: Action learning content A 310b: Action learning content B
310c: Action learning content C 310d: Action learning content D
320: Content display unit 330: Motion sensing unit
400: Sensing unit 410: First sensing unit
420: second sensing unit 500: beam projector

Claims (10)

노약자의 동작 및 생체 신호 센싱 시스템에 있어서,
상기 노약자 또는 고령자의 움직임을 센싱하여 동작 데이터를 획득하는 제1 센싱부;
상기 노약자의 생체 신호를 센싱하여 생체 데이터를 획득하는 제2 센싱부; 및
상기 제1 센싱부가 획득한 동작 데이터 및 상기 제2 센싱부가 획득한 생체 데이터를 기초로 상기 노약자의 현재 상태를 판단하는 단말을 포함하는 것인, 노약자의 동작 및 생체 신호 센싱 시스템.
In the motion and vital signal sensing system of the elderly,
A first sensing unit that acquires motion data by sensing the movement of the elderly or elderly person;
a second sensing unit that acquires biometric data by sensing biosignals of the elderly person; and
A motion and biosignal sensing system for the elderly and vulnerable, comprising a terminal that determines the current state of the elderly and vulnerable based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit.
제1항에 있어서,
상기 제1 센싱부는,
3차원 카메라, 적외선 센서 및 관절 인식 카메라 중 적어도 하나 이상을 포함하는 것이고, 상기 노약자의 움직임을 인식하여 데이터화한 상기 동작 데이터를 상기 노약자의 현재 상태를 판단하는 단말로 전송하는 것인, 노약자의 동작 및 생체 신호 센싱 시스템.
According to paragraph 1,
The first sensing unit,
An operation of an elderly person, which includes at least one of a three-dimensional camera, an infrared sensor, and a joint recognition camera, and transmits the motion data converted into data by recognizing the movement of the elderly person to a terminal that determines the current state of the elderly person. and biosignal sensing system.
제1항에 있어서,
상기 제2 센싱부는,
상기 노약자가 착용하는 웨어러블 기기, 자이로 센서 및 가속도 센서 중 적어도 하나 이상을 포함하는 것이고, 상기 노약자가 움직일 때 발생하는 힘을 인식하여 데이터화한 상기 생체 데이터를 상기 노약자의 현재 상태를 판단하는 단말로 전송하는 것인, 노약자의 동작 및 생체 신호 센싱 시스템.
According to paragraph 1,
The second sensing unit,
It includes at least one of a wearable device worn by the elderly person, a gyro sensor, and an acceleration sensor, and transmits the biometric data converted into data by recognizing the force generated when the elderly person moves to a terminal that determines the current state of the elderly person. A motion and vital signal sensing system for the elderly.
제1항에 있어서,
상기 노약자의 현재 상태를 판단하는 단말은,
제1 센싱부가 획득한 동작 데이터 및 제2 센싱부가 획득한 생체 데이터를 기반으로, 기 설정된 알고리즘에 따라 상기 노약자의 현재 상태를 나타내되,
i) 걷기 및 뛰기 중 어느 하나의 상태, ii) 피로한 상태 및 피로하지 않은 상태 중 어느 하나의 상태나, iii)멀미를 겪는 상태 및 멀미를 겪지 않는 상태
중 적어도 하나로 나타내는 것인, 노약자의 동작 및 생체 신호 센싱 시스템.
According to paragraph 1,
The terminal that determines the current status of the elderly person,
Based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit, the current state of the elderly person is displayed according to a preset algorithm,
i) either walking or running, ii) either tired or not tired, or iii) suffering from motion sickness or not suffering from motion sickness.
A motion and vital signal sensing system for the elderly and the weak, which represents at least one of the following.
제4항에 있어서,
상기 노약자의 현재 상태를 판단하는 단말은,
제1 센싱부가 획득한 동작 데이터 및 제2 센싱부가 획득한 생체 데이터를 기반으로, 상기 동작 데이터 및 생체 데이터 중 적어도 하나가 기 설정된 수치 이상인 경우, 상기 노약자가 피로한 상태 또는 멀미를 겪는 상태로 판단하는 것인, 노약자의 동작 및 생체 신호 센싱 시스템.
According to paragraph 4,
The terminal that determines the current status of the elderly person,
Based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit, if at least one of the motion data and biometric data is greater than a preset value, it is determined that the elderly person is in a state of fatigue or suffering from motion sickness. A motion and vital signal sensing system for the elderly.
단말에 의해 수행되는, 노약자의 동작 및 생체 신호 센싱 방법에 있어서,
(a) 제1 센싱부로부터 노약자의 움직임을 센싱하여 획득한 동작 데이터를 제공받는 단계;
(b) 제2 센싱부로부터 상기 노약자의 생체 신호를 센싱하여 획득한 생체 데이터를 제공받는 단계; 및
(c) 상기 제1 센싱부가 획득한 동작 데이터 및 상기 제2 센싱부가 획득한 생체 데이터를 기초로 상기 노약자의 현재 상태를 판단하는 단계;를 포함하는, 노약자의 동작 및 생체 신호 센싱 방법.
In a method for sensing the movements and biological signals of the elderly and the weak, which is performed by a terminal,
(a) receiving motion data obtained by sensing the movement of an elderly person from a first sensing unit;
(b) Receiving biometric data obtained by sensing biosignals of the elderly person from a second sensing unit; and
(c) determining the current state of the elderly person based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit.
제6항에 있어서,
상기 (a)단계는,
(a-1) 상기 제1 센싱부가 3차원 카메라, 적외선 센서 및 관절 인식 카메라 중 적어도 하나 이상을 통해 상기 노약자의 움직임을 인식하는 단계; 및
(a-2) 인식된 움직임을 데이터화하여 동작 데이터를 생성하고 상기 동작 데이터를 노약자의 현재 상태를 판단하는 단말로 전송하는 단계;를 포함하는, 노약자의 동작 및 생체 신호 센싱 방법.
According to clause 6,
In step (a),
(a-1) the first sensing unit recognizing the movement of the elderly person through at least one of a 3D camera, an infrared sensor, and a joint recognition camera; and
(a-2) generating motion data by converting the recognized movement into data and transmitting the motion data to a terminal that determines the current state of the elderly and vulnerable; comprising a method for sensing motion and biological signals of the elderly and vulnerable.
제6항에 있어서,
상기 (b)단계는,
(b-1) 상기 제2 센싱부가 상기 노약자가 착용하는 웨어러블 기기, 자이로 센서 및 가속도 센서 중 적어도 하나 이상을 통해 상기 노약자가 움직일 때 발생하는 힘을 인식하는 단계; 및
(b-2) 인식된 힘을 데이터화하여 생체 데이터를 생성하고, 상기 생체 데이터를 상기 노약자의 현재 상태를 판단하는 단말로 전송하는 단계;를 포함하는, 노약자의 동작 및 생체 신호 센싱 방법.
According to clause 6,
In step (b),
(b-1) the second sensing unit recognizing a force generated when the elderly or vulnerable person moves through at least one of a wearable device worn by the elderly and vulnerable person, a gyro sensor, and an acceleration sensor; and
(b-2) converting the recognized force into data to generate biometric data, and transmitting the biometric data to a terminal that determines the current state of the elderly and vulnerable person.
제6항에 있어서,
상기 (c)단계는,
(c-1) 노약자의 현재 상태를 판단하는 단말이 제1 센싱부가 획득한 동작 데이터 및 제2 센싱부가 획득한 생체 데이터를 기반으로, 기 설정된 알고리즘에 따라 상기 노약자의 현재 상태를 걷기 및 뛰기 중 어느 하나의 상태로 판단하는 단계;
(c-2) 상기 노약자의 현재 상태를 피로한 상태 및 피로하지 않은 상태 중 어느 하나의 상태와 상기 노약자의 현재 상태를 멀미를 겪는 상태 및 멀미를 겪지 않는 상태 중 어느 하나의 상태로 판단하는 단계;를 포함하는, 노약자의 동작 및 생체 신호 센싱 방법.
According to clause 6,
In step (c),
(c-1) A terminal that determines the current state of an elderly person is walking or running according to a preset algorithm based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit. A step of determining a certain state;
(c-2) determining that the current state of the elderly person is one of a fatigued state and a non-fatigued state, and that the current state of the elderly person is one of a state suffering from motion sickness and a state not suffering from motion sickness; Including, a method for sensing the motion and biological signals of the elderly.
제9항에 있어서,
상기 (c-2) 단계는,
상기 상기 노약자의 현재 상태를 판단하는 단말이 상기 제1 센싱부가 획득한 동작 데이터 및 제2 센싱부가 획득한 생체 데이터를 기반으로, 상기 동작 데이터 및 생체 데이터 중 적어도 하나 이상이 기 설정된 수치 이상인 경우, 상기 노약자가 피로한 상태 또는 멀미를 겪는 상태로 판단하는 것인, 노약자의 동작 및 생체 신호 센싱 방법.
According to clause 9,
In step (c-2),
When the terminal that determines the current state of the elderly person is based on the motion data acquired by the first sensing unit and the biometric data acquired by the second sensing unit, at least one of the motion data and biometric data is greater than a preset value, A method for sensing motion and vital signals of an elderly person, which determines that the elderly person is in a state of fatigue or suffering from motion sickness.
KR1020220074562A 2022-06-20 2022-06-20 Method and system for sensing motion signals and biological signals of elderly and weak people KR20230173823A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220074562A KR20230173823A (en) 2022-06-20 2022-06-20 Method and system for sensing motion signals and biological signals of elderly and weak people

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220074562A KR20230173823A (en) 2022-06-20 2022-06-20 Method and system for sensing motion signals and biological signals of elderly and weak people

Publications (1)

Publication Number Publication Date
KR20230173823A true KR20230173823A (en) 2023-12-27

Family

ID=89377818

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220074562A KR20230173823A (en) 2022-06-20 2022-06-20 Method and system for sensing motion signals and biological signals of elderly and weak people

Country Status (1)

Country Link
KR (1) KR20230173823A (en)

Similar Documents

Publication Publication Date Title
US10568570B1 (en) Methods and systems for providing a preferred fitness state of a user
Avola et al. An interactive and low-cost full body rehabilitation framework based on 3D immersive serious games
Halbig et al. A systematic review of physiological measurements, factors, methods, and applications in virtual reality
KR20220033507A (en) Electronic arrangements and related methods for therapeutic intervention utilizing virtual or augmented reality
KR102425479B1 (en) System And Method For Generating An Avatar With User Information, Providing It To An External Metaverse Platform, And Recommending A User-Customized DTx(Digital Therapeutics)
Muñoz et al. The biocybernetic loop engine: an integrated tool for creating physiologically adaptive videogames
KR102453304B1 (en) A system that provides virtual reality content for dementia prevention and self-diagnosis
Rechy-Ramirez et al. Impact of commercial sensors in human computer interaction: a review
Colantonio et al. Computer vision for ambient assisted living: Monitoring systems for personalized healthcare and wellness that are robust in the real world and accepted by users, carers, and society
Rahman Multimedia environment toward analyzing and visualizing live kinematic data for children with hemiplegia
KR102445133B1 (en) System That Creates An Avatar, Provides It To An External Metaverse Platforms, And Updates The Avatar, And Method Thereof
KR102425481B1 (en) Virtual reality communication system for rehabilitation treatment
KR102429630B1 (en) A system that creates communication NPC avatars for healthcare
Halbig et al. A systematic review of physiological measurements, factors, methods, and applications in virtual reality. Front
Kushnir et al. STASISM: A Versatile Serious Gaming Multi-Sensor Platform for Personalized Telerehabilitation and Telemonitoring
Davids et al. Artificial Intelligence for Physiotherapy and Rehabilitation
KR102437583B1 (en) System And Method For Providing User-Customized Color Content For Preferred Colors Using Biosignals
CN117095789A (en) Systems and methods for providing rehabilitation guidance in a virtual environment
KR102429627B1 (en) The System that Generates Avatars in Virtual Reality and Provides Multiple Contents
KR20230173823A (en) Method and system for sensing motion signals and biological signals of elderly and weak people
Rahman i-Therapy: a non-invasive multimedia authoring framework for context-aware therapy design
KR20230173835A (en) Dementia diagnosis device and method based on artificial intelligence
KR20230173831A (en) System and method for operation of realistic learning content platform for elderly
KR102543337B1 (en) System And Method For Providing User-Customized Color Healing Content Based On Biometric Information Of A User Who has Created An Avatar
KR102432251B1 (en) Virtual reality rehabilitation system performed on social servers

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application