KR20220122121A - 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법 - Google Patents
음성 및 시선 추적을 이용한 치매 진단 장치 및 방법 Download PDFInfo
- Publication number
- KR20220122121A KR20220122121A KR1020210026336A KR20210026336A KR20220122121A KR 20220122121 A KR20220122121 A KR 20220122121A KR 1020210026336 A KR1020210026336 A KR 1020210026336A KR 20210026336 A KR20210026336 A KR 20210026336A KR 20220122121 A KR20220122121 A KR 20220122121A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- dementia
- voice
- subject
- eye
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/162—Testing reaction times
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7445—Display arrangements, e.g. multiple display units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G06N3/0427—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Theoretical Computer Science (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Neurology (AREA)
- Data Mining & Analysis (AREA)
- Epidemiology (AREA)
- Social Psychology (AREA)
- Educational Technology (AREA)
- Primary Health Care (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
Abstract
음성 및 시선 추적을 이용한 치매 진단 장치 및 방법을 개시한다. 본 발명은 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선할 수 있다.
Description
본 발명은 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법에 관한 발명으로서, 더욱 상세하게는 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선한 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법에 관한 것이다.
고령화 사회에 접어들면서 치매 환자들의 증가에 따른 사회적 대처의 심각성이 이슈화 되고 있다.
특히, 가정이나 환자 관리 기관에서 이들만을 위한 치매 환자 전용의 치매 징후 인지 및 보호, 관리를 위한 치매 환자의 보호 관리 시스템은 전무한 상태이다.
따라서, 가정이나 치매 환자 관리 기관에서 활용할 수 있는 치매환자들만을 위한 치매 발병 징후 인지, 치매 증상 진행 상태 인지 기술에 필요성이 대두되는 상태이다.
한국 공개 특허 제 2010-0026302호는 휴대용 단말기를 이용한 노약자 관리 시스템에 대하여 개시하고 있다.
특히, 노약자의 위치 정보를 포함하는 노약자 정보를 모니터링하고, 노약자 정보를 전문가의 단말기에 전송하고, 전문가의 지시사항을 수신하여 노약자의 단말기에 전송하는 기술에 대하여 기재하고 있지만, 치매 환자의 관리를 여전히 전문가에게 의존해야 하며, 치매 환자의 치매 증상을 자동으로 인지하지 못하고 있는 문제점이 있다.
한편, 현대 기술의 발달로 많은 기술분야에서는, 딥 러닝(Deep Learning), 머신 러닝(Machine Learning), SVM(Support Vector Machine), 신경망(Neural Network)과 같은 기계학습 모델을 적용하는 사례들이 늘어나고 있다.
종래에도 이와 같은, 기계학습 모델을 이용하여 사람의 목소리를 인식하거나, 인식한 목소리를 분석하는 기술은 존재하였다.
증상이 비교적 가벼운 인지저하에서부터, 일상생활에 영향을 미치는 경도인지장애, 치매, 알츠하이머와 같은 정신질환을 앓는 환자들은 점점 증가하고 있으며, 이와 같은 뇌질환을 가진 환자들이 겪는 증상 중 하나는 언어장애를 손꼽을 수 있다.
이들은 하고 싶은 표현이 금방 나오지 않고, 머뭇거린다거나 물건 이름을 금방 대지 못하는 경우가 흔히 관찰된다. 그러나, 이러한 뇌질환을 가지고 있는 환자들의 보호자들은 항상 환자의 옆에서 대기하며, 환자의 상태를 돌볼 수 있는 환경적 요건을 갖추기가 힘들고, 초기의 미약한 증상일 경우, 환자 본인이나 보호자들이 대수롭지 않게 넘겨 초기의 발견하지 못할 가능성이 크다.
뇌질환은 적절한 진단 및 치료 시기를 놓치는 경우 진행속도가 빨라지거나 심각한 후유장애를 얻을 수 있기 때문에 일상에서 뇌질환 초기 증상을 파악하고, 환자에게 인지시켜주는 것이 필요하다.
이러한 문제점을 해결하기 위하여, 본 발명은 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선한 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법을 제공하는 것을 목적으로 한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 음성 및 시선 추적을 이용한 치매 진단 장치로서, 서버로부터 치매 진단 지표를 수신하고, 피검자에게 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하되, 상기 출력되는 단어에 대하여 피검자의 발화 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하고, 상기 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석한 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 서버로 전송하는 측정 단말을 포함하여 구성될 수 있다.
또한, 상기 실시 예는 측정 단말로부터 수신된 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 기반으로 치매 진단 결과를 추정하되, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 인공지능 모델을 이용하여 분석한 결과, 치매가 예상되면 상기 분석 결과가 반영된 치매 진단 지표를 생성하는 서버;를 더 포함하여 구성될 수 있다
또한, 상기 실시 예에 따른 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 측정 단말은 서버와 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신하는 데이터 통신부; 상기 치매 진단 지표에 기반하여 미리 설정된 단어를 출력하는 스피커; 상기 출력된 단어에 대하여 피검자가 발화하는 단어의 음성 데이터를 수신하는 마이크; 상기 출력된 단어에 대하여 피검자의 눈동자를 포함한 촬영 이미지를 출력하는 카메라; 상기 치매 진단 지표에 기반하여 출력되는 단어를 화면을 통해 디스플레이하는 디스플레이부; 및 스피커와 디스플레이부를 통해 상기 서버로부터 수신된 치매 진단 지표에 기반한 단어를 음향과 화면을 통해 출력하도록 제어하고, 상기 출력되는 단어에 대하여 피검자가 발화한 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석하여 치매 가능성 정보를 산출하고, 상기 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터는 상기 서버로 전송되도록 제어하는 단말 제어부;를 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 서버는 측정 단말과 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신하는 데이터 통신부; 상기 피검자의 음성 데이터를 미리 설정된 분석 포맷으로 변환하는 음성 분석부; 상기 피검자의 눈동자 시선 추적 데이터로부터 눈동자 이동 반응 속도 데이터를 산출하는 시선 추적부; 상기 피검자의 음성 데이터와 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석하되, 치매 진단이 예측되면 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신하고, 미리 설정된 사용자 단말 및 병원 관리자 단말로 치매 진단 결과를 전송하는 인공지능 분석부; 및 상기 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표, 치매 진단 결과를 저장하는 데이터 저장부;를 포함하는 것을 특징으로 한다.
또한, 본 발명의 일 실시 예는 음성 및 시선 추적을 이용한 치매 진단 방법으로서, a) 측정 단말이 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하는 단계; b) 상기 측정 단말이 출력된 단어에 대하여 피검자의 발화 음성 데이터를 획득하고, 획득한 상기 피검자의 발화 음성 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석하는 단계; c) 상기 측정 단말이 출력된 단어에 대하여 피검자의 눈동자 시선 추적 데이터를 획득하고, 획득한 상기 피검자의 눈동자 시선 추적 데이터를 치매 진단 지표하여 치매 가능성을 분석하는 단계; 및 d) 상기 측정 단말이 분석 결과에 따른 피검자의 치매 가능성을 음향 및 화면을 통해 출력하고, 결과를 저장하는 단계;를 포함한다.
또한, 본 발명의 실시 예는 e) 상기 측정 단말로부터 피검자의 음성 데이터와 눈동자 시선 추적 데이터가 수신되면, 서버가 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터에 기반한 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석하되, 치매 진단이 예측되면 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신하고, 미리 설정된 사용자 단말 및 병원 관리자 단말로 치매 진단 결과를 전송하는 단계;를 더 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 한다.
본 발명은 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선할 수 있는 장점이 있다.
도1은 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치를 나타낸 예시도.
도2는 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 측정 단말 구성을 나타낸 블록도.
도3은 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 서버 구성을 나타낸 블록도.
도4는 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 방법을 설명하기 위해 나타낸 흐름도.
도2는 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 측정 단말 구성을 나타낸 블록도.
도3은 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 서버 구성을 나타낸 블록도.
도4는 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 방법을 설명하기 위해 나타낸 흐름도.
이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다.
또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.
본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.
또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다.
또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시 예에 따라 변경가능하다 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법의 바람직한 실시예를 상세하게 설명한다.
도1은 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치를 나타낸 예시도이고, 도2는 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 측정 단말 구성을 나타낸 블록도이며, 도3은 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 서버 구성을 나타낸 블록도이다.
도1 내지 도3을 참조하면, 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치는 측정 단말(100)과, 네트워크를 통해 연결된 서버(200)를 포함하여 구성될 수 있다.
상기 측정 단말(100)은 서버(200)로부터 치매 진단 지표를 수신하고, 피검자에게 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하되, 상기 출력되는 단어에 대하여 피검자의 발화 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하고, 상기 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석한 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 서버(200)로 전송하는 구성으로서, 데이터 통신부(110)와, 스피커(120)와, 마이크(130)와, 카메라(140)와, 디스플레이부(150)와, 단말 제어부(160)를 포함하여 구성될 수 있다.
또한, 상기 측정 단말(100)은 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 태블릿 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
한편, 본 실시 예에서는 설명의 편의를 위해 애플리케이션 프로그램의 설치가 가능한 스마트 폰을 실시 예로 설명하지만, 이에 한정되는 것은 아니다.
또한, 네트워크는 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5th Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
상기 데이터 통신부(110)는 서버(200)와 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신한다.
상기 스피커(120)는 측정 단말(100)에 저장된 치매 진단 지표에 기반하여 미리 설정된 단어를 음향 신호로 출력한다.
상기 마이크(130)는 스피커(120)를 통해 출력된 단어에 대하여 피검자가 발화하는 단어의 음성 데이터를 수신한다.
상기 카메라(140)는 화면을 통해 출력된 단어에 대하여 피검자의 눈동자를 포함한 촬영 이미지를 출력하는 구성으로서, CCD 센서, CMOS 센서 또는 임의의 광전변환 센서로 구성된 촬영수단일 수 있다.
상기 디스플레이부(150)는 치매 진단 지표에 기반하여 출력되는 단어와, 치매 가능성 정보 등을 화면을 통해 출력하는 구성으로서, LCD 또는 LED 등의 디스플레이 패널로 구성될 수 있다.
상기 단말 제어부(160)는 스피커(120)와 디스플레이부(150)를 통해 서버(200)로부터 수신된 치매 진단 지표에 기반한 단어를 음향과 화면을 통해 출력하도록 제어한다.
또한, 상기 단말 제어부(160)는 음향 및 화면을 통해 출력되는 단어에 대하여 피검자가 발화한 음성 데이터를 획득하고, 획득한 상기 피검자의 발화 음성 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석한다.
또한, 상기 단말 제어부(160)는 카메라(140)를 통해 획득한 이미지로부터 피검자의 눈동자 시선 추적 데이터를 획득하며, 상기 눈동자 시선 추적 데이터에서 눈동자 이동 반응 속도 데이터를 산출한 후, 산출된 상기 눈동자 이동 반응 속도 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석한다.
또한, 상기 단말 제어부(160)는 피검자의 음성 데이터 및 눈동자 시선 추적 데이터을 기반으로 산출된 치매 가능성에 대한 결과 정보를 디스플레이부(150)의 화면을 통해 출력되도록 제어한다.
또한, 상기 단말 제어부(160)는 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 서버(200)로 전송하도록 제어한다.
상기 서버(200)는 측정 단말(100)로부터 수신된 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 기반으로 치매 진단 결과를 추정하되, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 인공지능 모델을 이용하여 분석한 결과, 치매가 예상되면 상기 분석 결과가 반영된 치매 진단 지표를 생성하는 구성으로서, 데이터 통신부(210)와, 음성 분석부(220)와, 시선 추적부(230)와, 인공지능 분석부(240)와, 데이터 저장부(250)를 포함하여 구성될 수 있다.
상기 데이터 통신부(210)는 측정 단말(100)과 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신한다.
상기 음성 분석부(220)는 데이터 통신부(210)를 통해 수신된 피검자의 음성 데이터를 미리 설정된 분석 포맷으로 변환하여 출력한다.
상기 시선 추적부(230)는 피검자의 눈동자 시선 추적 데이터로부터 눈동자 이동 반응 속도 데이터를 산출한다.
상기 인공지능 분석부(240)는 음성 분석부(220)에서 변환된 피검자의 음성 데이터와, 시선 추적부(230)에서 산출된 피검자의 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석한다.
또한, 상기 인공지능 분석부(240)는 피검자의 정상적인 음성 분석 데이터 또는 일반적인 정상인의 음성 분석 데이터를 기반으로 치매 진단 지표를 생성하고, 상기 피검자가 발화한 음성 분석 데이터를 정상적인 음성 분석 데이터 또는 치매 진단 지표와 비교하여 치매 진단을 예측할 수 있다.
또한, 상기 인공지능 분석부(240)는 비정상적인 음성 분석 데이터, 예를 들어 치매 환자에 의한 어눌한 음성 분석 데이터를 기반으로 생성된 치매 진단 지표와 피검자가 발화한 음성 분석 데이터와 비정상적인 음성 분석 데이터를 비교한 결과를 치매 진단 지표와 비교하여 치매 진단을 예측할 수 있다.
또한, 상기 인공지능 분석부(240)는 정상적인 눈동자 이동 반응 속도와 비정상적인 눈동자 이동 반응 속도를 이용한 시선 추적 치매 진단 지표를 생성하고, 측정 단말(100)로부터 획득한 피검자의 눈동자 이동 반응 속도를 정상적인 눈동자 이동 반응 속도 및 비정상적인 눈동자 이동 반응 속도와 비교하여 치매 진단을 예측할 수 있다.
또한, 상기 인공지능 분석부(240)는 인공지능 모델의 분석 결과, 치매 진단이 예측되면 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신되도록 한다.
또한, 상기 인공지능 분석부(240)는 치매 진단이 예측되면 피검자와 관련하여 미리 설정된 사용자 단말이나 병원 관리자 단말 또는 미리 설정된 치매 관리 센서 서버로 치매 진단 결과를 전송한다.
또한, 상기 인공지능 분석부(240)는 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와 인공지능 모델인 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용한 비교를 통해 치매를 진단한다.
또한, 상기 인공지능 분석부(240)는 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와 인공지능 모델인 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용한 비교를 통해 치매를 진단한다.
상기 데이터 저장부(250)는 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표, 치매 진단 결과를 저장한다.
다음은 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 방법을 도1 내지 도4를 참조하여 설명한다.
도1 내지 도4에 나타낸 바와 같이, 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 방법은 측정 단말(100)이 적어도 하나 이상의 단어를 스피커(120)의 음향과 디스플레이부(150)의 화면을 통해 출력(S100)한다.
상기 S100 단계에서 음향을 통해 출력된 단어에 대하여 측정 단말(100)이 마이크(130)를 통해 피검자의 발화 음성 데이터를 획득(S200)하고, 상기 S200 단계에서 획득한 피검자의 발화 음성 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석(S300)한다.
또한, 상기 측정 단말(100)은 카메라(140)를 통해 획득한 이미지로부터 피검자의 눈동자를 추적하여 눈동자 시선 추적 데이터를 획득(S400)한다.
또한, 상기 측정 단말(100)은 S400 단계에서 획득한 눈동자 시선 추적 데이터에서 눈동자 이동 반응 속도 데이터를 산출하고, 상기 산출된 눈동자 이동 반응 속도 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석(S500)한다.
계속해서, 상기 측정 단말(100)은 S300 단계와 S500 단계에서 분석한 분석 결과에 따른 피검자의 치매 가능성 결과를 스피커(12)을 이용한 음향 데이토와 디스플레이부(150)를 이용한 화면을 통해 출력하고, 그 결과를 저장(S600)한다.
또한, 상기 S600 단계에서 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터는 측정 단말(100)에서 서버(200)로 송신될 수 있다.
상기 서버(200)는 측정 단말(100)로부터 피검자의 음성 데이터와 눈동자 시선 추적 데이터가 수신되면, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터에 기반한 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석한다.
상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단할 수 있다.
또한, 상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단할 수 있다.
또한, 상기 서버(200)는 피검자의 정상적인 음성 분석 데이터 또는 일반적인 정상인의 음성 분석 데이터를 기반으로 생성한 치매 진단 지표와, 상기 피검자가 발화한 음성 분석 데이터를 정상적인 음성 분석 데이터 또는 치매 진단 지표와 비교하여 치매 진단 결과를 예측할 수 있다.
또한, 상기 서버(200)는 비정상적인 음성 분석 데이터 또는 상기 비정상적인 음성 분석 데이터를 기반으로 생성된 치매 진단 지표와 피검자가 발화한 음성 분석 데이터를 비교하여 치매 진단 결과를 예측할 수 있다.
또한, 상기 서버(200)는 정상적인 눈동자 이동 반응 속도와 비정상적인 눈동자 이동 반응 속도를 이용하여 생성한 시선 추적 치매 진단 지표 또는 정상적인 눈동자 이동 반응 속도 및 비정상적인 눈동자 이동 반응 속도와, 측정 단말(100)로부터 획득한 피검자의 눈동자 이동 반응 속도를 비교하여 치매 진단 결과를 예측할 수 있다.
한편, 상기 서버(200)는 인공지능 모델의 분석 결과로 치매 진단 또는 초기 치매 진단이 예측되면, 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신되도록 하고, 인공지능 모델의 학습 데이터로 활용될 수 있도록 한다.
또한, 상기 서버(200)는 치매 진단이 예측되면, 피검자와 관련하여 미리 설정된 사용자 단말이나 병원 관리자 단말 또는 미리 설정된 치매 관리 센서 서버로 치매 진단 결과를 전송할 수 있다.
따라서, 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선할 수 있다.
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다.
또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.
100 : 측정 단말
110 : 데이터 통신부
120 : 스피커
130 : 마이크
140 : 카메라
150 : 디스플레이부
160 : 단말 제어부
200 : 서버
210 : 데이터 통신부
220 : 음성 분석부
230 : 시선 추적부
240 : 인공지능 분석부
250 : 데이터 저장부
110 : 데이터 통신부
120 : 스피커
130 : 마이크
140 : 카메라
150 : 디스플레이부
160 : 단말 제어부
200 : 서버
210 : 데이터 통신부
220 : 음성 분석부
230 : 시선 추적부
240 : 인공지능 분석부
250 : 데이터 저장부
Claims (10)
- 서버(200)로부터 치매 진단 지표를 수신하고, 피검자에게 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하되, 상기 출력되는 단어에 대하여 피검자의 발화 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하고, 상기 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석한 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 서버(200)로 전송하는 측정 단말(100)을 포함하는 음성 및 시선 추적을 이용한 치매 진단 장치.
- 제 1 항에 있어서,
상기 측정 단말(100)로부터 수신된 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 기반으로 치매 진단 결과를 추정하되, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 인공지능 모델을 이용하여 분석한 결과, 치매가 예상되면 상기 분석 결과가 반영된 치매 진단 지표를 생성하는 서버(200);를 더 포함하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치. - 제 2 항에 있어서,
상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치. - 제 2 항에 있어서,
상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치. - 제 1 항에 있어서,
상기 측정 단말(100)은 서버(200)와 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신하는 데이터 통신부(110);
상기 치매 진단 지표에 기반하여 미리 설정된 단어를 출력하는 스피커(120);
상기 출력된 단어에 대하여 피검자가 발화하는 단어의 음성 데이터를 수신하는 마이크(130);
상기 출력된 단어에 대하여 피검자의 눈동자를 포함한 촬영 이미지를 출력하는 카메라(140);
상기 치매 진단 지표에 기반하여 출력되는 단어를 화면을 통해 디스플레이하는 디스플레이부(150); 및
스피커(120)와 디스플레이부(150)를 통해 상기 서버(200)로부터 수신된 치매 진단 지표에 기반한 단어를 음향과 화면을 통해 출력하도록 제어하고, 상기 출력되는 단어에 대하여 피검자가 발화한 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석하여 치매 가능성 정보를 산출하고, 상기 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터는 상기 서버(200)로 전송되도록 제어하는 단말 제어부(160);를 포함하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치. - 제 2 항에 있어서,
상기 서버(200)는 측정 단말(100)과 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신하는 데이터 통신부(210);
상기 피검자의 음성 데이터를 미리 설정된 분석 포맷으로 변환하는 음성 분석부(220);
상기 피검자의 눈동자 시선 추적 데이터로부터 눈동자 이동 반응 속도 데이터를 산출하는 시선 추적부(230);
상기 피검자의 음성 데이터와 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석하되, 치매 진단이 예측되면 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신하고, 미리 설정된 사용자 단말 및 병원 관리자 단말로 치매 진단 결과를 전송하는 인공지능 분석부(240); 및
상기 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표, 치매 진단 결과를 저장하는 데이터 저장부(250);를 포함하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치. - a) 측정 단말(100)이 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하는 단계;
b) 상기 측정 단말(100)이 출력된 단어에 대하여 피검자의 발화 음성 데이터를 획득하고, 획득한 상기 피검자의 발화 음성 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석하는 단계;
c) 상기 측정 단말(100)이 출력된 단어에 대하여 피검자의 눈동자 시선 추적 데이터를 획득하고, 획득한 상기 피검자의 눈동자 시선 추적 데이터를 치매 진단 지표하여 치매 가능성을 분석하는 단계; 및
d) 상기 측정 단말(100)이 분석 결과에 따른 피검자의 치매 가능성을 음향 및 화면을 통해 출력하고, 결과를 저장하는 단계;를 포함하는 음성 및 시선 추적을 이용한 치매 진단 방법. - 제 7 항에 있어서,
e) 상기 측정 단말(100)로부터 피검자의 음성 데이터와 눈동자 시선 추적 데이터가 수신되면, 서버(200)가 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터에 기반한 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석하되, 치매 진단이 예측되면 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신하고, 미리 설정된 사용자 단말 및 병원 관리자 단말로 치매 진단 결과를 전송하는 단계;를 더 포함하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 방법. - 제 8 항에 있어서,
상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 방법. - 제 8 항에 있어서,
상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210026336A KR102508262B1 (ko) | 2021-02-26 | 2021-02-26 | 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210026336A KR102508262B1 (ko) | 2021-02-26 | 2021-02-26 | 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220122121A true KR20220122121A (ko) | 2022-09-02 |
KR102508262B1 KR102508262B1 (ko) | 2023-03-09 |
Family
ID=83281219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210026336A KR102508262B1 (ko) | 2021-02-26 | 2021-02-26 | 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102508262B1 (ko) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180108954A (ko) * | 2017-03-23 | 2018-10-05 | 사회복지법인 삼성생명공익재단 | 가상현실을 이용한 신경질환 진단 장치 및 방법 |
KR20190081626A (ko) | 2017-12-29 | 2019-07-09 | 동국대학교 산학협력단 | 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템 |
KR102165590B1 (ko) * | 2019-11-15 | 2020-10-14 | 가천대학교 산학협력단 | 경도인지장애 치료를 위한 소셜 가상현실 시스템 및 소셜 가상현실을 제공하는 방법 |
-
2021
- 2021-02-26 KR KR1020210026336A patent/KR102508262B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180108954A (ko) * | 2017-03-23 | 2018-10-05 | 사회복지법인 삼성생명공익재단 | 가상현실을 이용한 신경질환 진단 장치 및 방법 |
KR20190081626A (ko) | 2017-12-29 | 2019-07-09 | 동국대학교 산학협력단 | 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템 |
KR102165590B1 (ko) * | 2019-11-15 | 2020-10-14 | 가천대학교 산학협력단 | 경도인지장애 치료를 위한 소셜 가상현실 시스템 및 소셜 가상현실을 제공하는 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102508262B1 (ko) | 2023-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11363953B2 (en) | Methods and systems for managing medical anomalies | |
Bourouis et al. | An intelligent mobile based decision support system for retinal disease diagnosis | |
RU2613580C2 (ru) | Способ и система для оказания помощи пациенту | |
US20200322301A1 (en) | Message delivery and presentation methods, systems and devices using receptivity | |
US20160314784A1 (en) | System and method for assessing the cognitive style of a person | |
Parra et al. | Multimedia sensors embedded in smartphones for ambient assisted living and e-health | |
US20240041382A1 (en) | Electroencephalographic data analysis system, information processing terminal, electronic device, and method of presenting information for dementia examination | |
US20160285800A1 (en) | Processing Method For Providing Health Support For User and Terminal | |
US10698983B2 (en) | Wireless earpiece with a medical engine | |
US10045096B2 (en) | Social media modification of behavior and mobile screening for impairment | |
Patel et al. | NXTGeUH: LoRaWAN based NEXT generation ubiquitous healthcare system for vital signs monitoring & falls detection | |
JP2012059107A (ja) | 感情推定装置、感情推定方法およびプログラム | |
EP3420713B1 (en) | Devices, system and methods for determining a priority level and/or conversation duration of a call | |
US20200375544A1 (en) | System, method and computer program product for detecting a mobile phone user's risky medical condition | |
US11747902B2 (en) | Machine learning configurations modeled using contextual categorical labels for biosignals | |
US20190096000A1 (en) | System and Method for Sharing User Information with an Insurer Utilizing Wireless Earpieces | |
KR20190136706A (ko) | 개인 관심상황 발생 예측/인지 장치 및 방법 | |
KR102066225B1 (ko) | 인공지능 기능의 스마트 진단 장치, 시스템 및 방법 | |
US20180122025A1 (en) | Wireless earpiece with a legal engine | |
JP2022502804A (ja) | バイオリズムデータを収集し、分析し、ユーザ間で共有するためのシステム及び方法 | |
US20190198171A1 (en) | Interactive physiology monitoring and sharing system | |
Szydło et al. | Mobile devices in the open and universal system for remote patient monitoring | |
JP6943490B1 (ja) | 見守り支援装置、見守り支援システム、見守り支援方法及びプログラム | |
KR102508262B1 (ko) | 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법 | |
KR20160053391A (ko) | 글라스형 웨어러블 디바이스를 이용한 외부디바이스 내 콘텐츠 관리 시스템, 방법 및 글라스형 웨어러블 디바이스용 어플리케이션 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |