KR20220122121A - 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법 - Google Patents

음성 및 시선 추적을 이용한 치매 진단 장치 및 방법 Download PDF

Info

Publication number
KR20220122121A
KR20220122121A KR1020210026336A KR20210026336A KR20220122121A KR 20220122121 A KR20220122121 A KR 20220122121A KR 1020210026336 A KR1020210026336 A KR 1020210026336A KR 20210026336 A KR20210026336 A KR 20210026336A KR 20220122121 A KR20220122121 A KR 20220122121A
Authority
KR
South Korea
Prior art keywords
data
dementia
voice
subject
eye
Prior art date
Application number
KR1020210026336A
Other languages
English (en)
Other versions
KR102508262B1 (ko
Inventor
김의선
Original Assignee
(주)블라우비트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)블라우비트 filed Critical (주)블라우비트
Priority to KR1020210026336A priority Critical patent/KR102508262B1/ko
Publication of KR20220122121A publication Critical patent/KR20220122121A/ko
Application granted granted Critical
Publication of KR102508262B1 publication Critical patent/KR102508262B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Neurology (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Primary Health Care (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)

Abstract

음성 및 시선 추적을 이용한 치매 진단 장치 및 방법을 개시한다. 본 발명은 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선할 수 있다.

Description

음성 및 시선 추적을 이용한 치매 진단 장치 및 방법{APPARATUS AND METHOD FOR DIAGNOSING DEMENTIA USING VOICE AND EYE TRACKING}
본 발명은 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법에 관한 발명으로서, 더욱 상세하게는 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선한 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법에 관한 것이다.
고령화 사회에 접어들면서 치매 환자들의 증가에 따른 사회적 대처의 심각성이 이슈화 되고 있다.
특히, 가정이나 환자 관리 기관에서 이들만을 위한 치매 환자 전용의 치매 징후 인지 및 보호, 관리를 위한 치매 환자의 보호 관리 시스템은 전무한 상태이다.
따라서, 가정이나 치매 환자 관리 기관에서 활용할 수 있는 치매환자들만을 위한 치매 발병 징후 인지, 치매 증상 진행 상태 인지 기술에 필요성이 대두되는 상태이다.
한국 공개 특허 제 2010-0026302호는 휴대용 단말기를 이용한 노약자 관리 시스템에 대하여 개시하고 있다.
특히, 노약자의 위치 정보를 포함하는 노약자 정보를 모니터링하고, 노약자 정보를 전문가의 단말기에 전송하고, 전문가의 지시사항을 수신하여 노약자의 단말기에 전송하는 기술에 대하여 기재하고 있지만, 치매 환자의 관리를 여전히 전문가에게 의존해야 하며, 치매 환자의 치매 증상을 자동으로 인지하지 못하고 있는 문제점이 있다.
한편, 현대 기술의 발달로 많은 기술분야에서는, 딥 러닝(Deep Learning), 머신 러닝(Machine Learning), SVM(Support Vector Machine), 신경망(Neural Network)과 같은 기계학습 모델을 적용하는 사례들이 늘어나고 있다.
종래에도 이와 같은, 기계학습 모델을 이용하여 사람의 목소리를 인식하거나, 인식한 목소리를 분석하는 기술은 존재하였다.
증상이 비교적 가벼운 인지저하에서부터, 일상생활에 영향을 미치는 경도인지장애, 치매, 알츠하이머와 같은 정신질환을 앓는 환자들은 점점 증가하고 있으며, 이와 같은 뇌질환을 가진 환자들이 겪는 증상 중 하나는 언어장애를 손꼽을 수 있다.
이들은 하고 싶은 표현이 금방 나오지 않고, 머뭇거린다거나 물건 이름을 금방 대지 못하는 경우가 흔히 관찰된다. 그러나, 이러한 뇌질환을 가지고 있는 환자들의 보호자들은 항상 환자의 옆에서 대기하며, 환자의 상태를 돌볼 수 있는 환경적 요건을 갖추기가 힘들고, 초기의 미약한 증상일 경우, 환자 본인이나 보호자들이 대수롭지 않게 넘겨 초기의 발견하지 못할 가능성이 크다.
뇌질환은 적절한 진단 및 치료 시기를 놓치는 경우 진행속도가 빨라지거나 심각한 후유장애를 얻을 수 있기 때문에 일상에서 뇌질환 초기 증상을 파악하고, 환자에게 인지시켜주는 것이 필요하다.
한국공개특허 제10-2019-0081626호 (발명의 명칭:인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템)
이러한 문제점을 해결하기 위하여, 본 발명은 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선한 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법을 제공하는 것을 목적으로 한다.
상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 음성 및 시선 추적을 이용한 치매 진단 장치로서, 서버로부터 치매 진단 지표를 수신하고, 피검자에게 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하되, 상기 출력되는 단어에 대하여 피검자의 발화 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하고, 상기 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석한 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 서버로 전송하는 측정 단말을 포함하여 구성될 수 있다.
또한, 상기 실시 예는 측정 단말로부터 수신된 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 기반으로 치매 진단 결과를 추정하되, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 인공지능 모델을 이용하여 분석한 결과, 치매가 예상되면 상기 분석 결과가 반영된 치매 진단 지표를 생성하는 서버;를 더 포함하여 구성될 수 있다
또한, 상기 실시 예에 따른 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 측정 단말은 서버와 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신하는 데이터 통신부; 상기 치매 진단 지표에 기반하여 미리 설정된 단어를 출력하는 스피커; 상기 출력된 단어에 대하여 피검자가 발화하는 단어의 음성 데이터를 수신하는 마이크; 상기 출력된 단어에 대하여 피검자의 눈동자를 포함한 촬영 이미지를 출력하는 카메라; 상기 치매 진단 지표에 기반하여 출력되는 단어를 화면을 통해 디스플레이하는 디스플레이부; 및 스피커와 디스플레이부를 통해 상기 서버로부터 수신된 치매 진단 지표에 기반한 단어를 음향과 화면을 통해 출력하도록 제어하고, 상기 출력되는 단어에 대하여 피검자가 발화한 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석하여 치매 가능성 정보를 산출하고, 상기 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터는 상기 서버로 전송되도록 제어하는 단말 제어부;를 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 서버는 측정 단말과 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신하는 데이터 통신부; 상기 피검자의 음성 데이터를 미리 설정된 분석 포맷으로 변환하는 음성 분석부; 상기 피검자의 눈동자 시선 추적 데이터로부터 눈동자 이동 반응 속도 데이터를 산출하는 시선 추적부; 상기 피검자의 음성 데이터와 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석하되, 치매 진단이 예측되면 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신하고, 미리 설정된 사용자 단말 및 병원 관리자 단말로 치매 진단 결과를 전송하는 인공지능 분석부; 및 상기 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표, 치매 진단 결과를 저장하는 데이터 저장부;를 포함하는 것을 특징으로 한다.
또한, 본 발명의 일 실시 예는 음성 및 시선 추적을 이용한 치매 진단 방법으로서, a) 측정 단말이 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하는 단계; b) 상기 측정 단말이 출력된 단어에 대하여 피검자의 발화 음성 데이터를 획득하고, 획득한 상기 피검자의 발화 음성 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석하는 단계; c) 상기 측정 단말이 출력된 단어에 대하여 피검자의 눈동자 시선 추적 데이터를 획득하고, 획득한 상기 피검자의 눈동자 시선 추적 데이터를 치매 진단 지표하여 치매 가능성을 분석하는 단계; 및 d) 상기 측정 단말이 분석 결과에 따른 피검자의 치매 가능성을 음향 및 화면을 통해 출력하고, 결과를 저장하는 단계;를 포함한다.
또한, 본 발명의 실시 예는 e) 상기 측정 단말로부터 피검자의 음성 데이터와 눈동자 시선 추적 데이터가 수신되면, 서버가 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터에 기반한 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석하되, 치매 진단이 예측되면 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신하고, 미리 설정된 사용자 단말 및 병원 관리자 단말로 치매 진단 결과를 전송하는 단계;를 더 포함하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 한다.
또한, 상기 실시 예에 따른 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 한다.
본 발명은 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선할 수 있는 장점이 있다.
도1은 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치를 나타낸 예시도.
도2는 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 측정 단말 구성을 나타낸 블록도.
도3은 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 서버 구성을 나타낸 블록도.
도4는 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 방법을 설명하기 위해 나타낸 흐름도.
이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 발명의 기술적 요지와 직접적 관련이 없는 구성에 대해서는 본 발명의 기술적 요지를 흩뜨리지 않는 범위 내에서 생략하였음에 유의하여야 할 것이다.
또한, 본 명세서 및 청구범위에 사용된 용어 또는 단어는 발명자가 자신의 발명을 최선의 방법으로 설명하기 위해 적절한 용어의 개념을 정의할 수 있다는 원칙에 입각하여 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.
본 명세서에서 어떤 부분이 어떤 구성요소를 "포함"한다는 표현은 다른 구성요소를 배제하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
또한, "‥부", "‥기", "‥모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어, 또는 그 둘의 결합으로 구분될 수 있다.
또한, "적어도 하나의" 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다.
또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시 예에 따라 변경가능하다 할 것이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치 및 방법의 바람직한 실시예를 상세하게 설명한다.
도1은 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치를 나타낸 예시도이고, 도2는 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 측정 단말 구성을 나타낸 블록도이며, 도3은 도1의 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치의 서버 구성을 나타낸 블록도이다.
도1 내지 도3을 참조하면, 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 장치는 측정 단말(100)과, 네트워크를 통해 연결된 서버(200)를 포함하여 구성될 수 있다.
상기 측정 단말(100)은 서버(200)로부터 치매 진단 지표를 수신하고, 피검자에게 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하되, 상기 출력되는 단어에 대하여 피검자의 발화 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하고, 상기 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석한 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 서버(200)로 전송하는 구성으로서, 데이터 통신부(110)와, 스피커(120)와, 마이크(130)와, 카메라(140)와, 디스플레이부(150)와, 단말 제어부(160)를 포함하여 구성될 수 있다.
또한, 상기 측정 단말(100)은 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 태블릿 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
한편, 본 실시 예에서는 설명의 편의를 위해 애플리케이션 프로그램의 설치가 가능한 스마트 폰을 실시 예로 설명하지만, 이에 한정되는 것은 아니다.
또한, 네트워크는 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5th Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
상기 데이터 통신부(110)는 서버(200)와 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신한다.
상기 스피커(120)는 측정 단말(100)에 저장된 치매 진단 지표에 기반하여 미리 설정된 단어를 음향 신호로 출력한다.
상기 마이크(130)는 스피커(120)를 통해 출력된 단어에 대하여 피검자가 발화하는 단어의 음성 데이터를 수신한다.
상기 카메라(140)는 화면을 통해 출력된 단어에 대하여 피검자의 눈동자를 포함한 촬영 이미지를 출력하는 구성으로서, CCD 센서, CMOS 센서 또는 임의의 광전변환 센서로 구성된 촬영수단일 수 있다.
상기 디스플레이부(150)는 치매 진단 지표에 기반하여 출력되는 단어와, 치매 가능성 정보 등을 화면을 통해 출력하는 구성으로서, LCD 또는 LED 등의 디스플레이 패널로 구성될 수 있다.
상기 단말 제어부(160)는 스피커(120)와 디스플레이부(150)를 통해 서버(200)로부터 수신된 치매 진단 지표에 기반한 단어를 음향과 화면을 통해 출력하도록 제어한다.
또한, 상기 단말 제어부(160)는 음향 및 화면을 통해 출력되는 단어에 대하여 피검자가 발화한 음성 데이터를 획득하고, 획득한 상기 피검자의 발화 음성 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석한다.
또한, 상기 단말 제어부(160)는 카메라(140)를 통해 획득한 이미지로부터 피검자의 눈동자 시선 추적 데이터를 획득하며, 상기 눈동자 시선 추적 데이터에서 눈동자 이동 반응 속도 데이터를 산출한 후, 산출된 상기 눈동자 이동 반응 속도 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석한다.
또한, 상기 단말 제어부(160)는 피검자의 음성 데이터 및 눈동자 시선 추적 데이터을 기반으로 산출된 치매 가능성에 대한 결과 정보를 디스플레이부(150)의 화면을 통해 출력되도록 제어한다.
또한, 상기 단말 제어부(160)는 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 서버(200)로 전송하도록 제어한다.
상기 서버(200)는 측정 단말(100)로부터 수신된 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 기반으로 치매 진단 결과를 추정하되, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 인공지능 모델을 이용하여 분석한 결과, 치매가 예상되면 상기 분석 결과가 반영된 치매 진단 지표를 생성하는 구성으로서, 데이터 통신부(210)와, 음성 분석부(220)와, 시선 추적부(230)와, 인공지능 분석부(240)와, 데이터 저장부(250)를 포함하여 구성될 수 있다.
상기 데이터 통신부(210)는 측정 단말(100)과 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신한다.
상기 음성 분석부(220)는 데이터 통신부(210)를 통해 수신된 피검자의 음성 데이터를 미리 설정된 분석 포맷으로 변환하여 출력한다.
상기 시선 추적부(230)는 피검자의 눈동자 시선 추적 데이터로부터 눈동자 이동 반응 속도 데이터를 산출한다.
상기 인공지능 분석부(240)는 음성 분석부(220)에서 변환된 피검자의 음성 데이터와, 시선 추적부(230)에서 산출된 피검자의 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석한다.
또한, 상기 인공지능 분석부(240)는 피검자의 정상적인 음성 분석 데이터 또는 일반적인 정상인의 음성 분석 데이터를 기반으로 치매 진단 지표를 생성하고, 상기 피검자가 발화한 음성 분석 데이터를 정상적인 음성 분석 데이터 또는 치매 진단 지표와 비교하여 치매 진단을 예측할 수 있다.
또한, 상기 인공지능 분석부(240)는 비정상적인 음성 분석 데이터, 예를 들어 치매 환자에 의한 어눌한 음성 분석 데이터를 기반으로 생성된 치매 진단 지표와 피검자가 발화한 음성 분석 데이터와 비정상적인 음성 분석 데이터를 비교한 결과를 치매 진단 지표와 비교하여 치매 진단을 예측할 수 있다.
또한, 상기 인공지능 분석부(240)는 정상적인 눈동자 이동 반응 속도와 비정상적인 눈동자 이동 반응 속도를 이용한 시선 추적 치매 진단 지표를 생성하고, 측정 단말(100)로부터 획득한 피검자의 눈동자 이동 반응 속도를 정상적인 눈동자 이동 반응 속도 및 비정상적인 눈동자 이동 반응 속도와 비교하여 치매 진단을 예측할 수 있다.
또한, 상기 인공지능 분석부(240)는 인공지능 모델의 분석 결과, 치매 진단이 예측되면 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신되도록 한다.
또한, 상기 인공지능 분석부(240)는 치매 진단이 예측되면 피검자와 관련하여 미리 설정된 사용자 단말이나 병원 관리자 단말 또는 미리 설정된 치매 관리 센서 서버로 치매 진단 결과를 전송한다.
또한, 상기 인공지능 분석부(240)는 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와 인공지능 모델인 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용한 비교를 통해 치매를 진단한다.
또한, 상기 인공지능 분석부(240)는 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와 인공지능 모델인 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용한 비교를 통해 치매를 진단한다.
상기 데이터 저장부(250)는 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표, 치매 진단 결과를 저장한다.
다음은 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 방법을 도1 내지 도4를 참조하여 설명한다.
도1 내지 도4에 나타낸 바와 같이, 본 발명의 일 실시 예에 따른 음성 및 시선 추적을 이용한 치매 진단 방법은 측정 단말(100)이 적어도 하나 이상의 단어를 스피커(120)의 음향과 디스플레이부(150)의 화면을 통해 출력(S100)한다.
상기 S100 단계에서 음향을 통해 출력된 단어에 대하여 측정 단말(100)이 마이크(130)를 통해 피검자의 발화 음성 데이터를 획득(S200)하고, 상기 S200 단계에서 획득한 피검자의 발화 음성 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석(S300)한다.
또한, 상기 측정 단말(100)은 카메라(140)를 통해 획득한 이미지로부터 피검자의 눈동자를 추적하여 눈동자 시선 추적 데이터를 획득(S400)한다.
또한, 상기 측정 단말(100)은 S400 단계에서 획득한 눈동자 시선 추적 데이터에서 눈동자 이동 반응 속도 데이터를 산출하고, 상기 산출된 눈동자 이동 반응 속도 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석(S500)한다.
계속해서, 상기 측정 단말(100)은 S300 단계와 S500 단계에서 분석한 분석 결과에 따른 피검자의 치매 가능성 결과를 스피커(12)을 이용한 음향 데이토와 디스플레이부(150)를 이용한 화면을 통해 출력하고, 그 결과를 저장(S600)한다.
또한, 상기 S600 단계에서 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터는 측정 단말(100)에서 서버(200)로 송신될 수 있다.
상기 서버(200)는 측정 단말(100)로부터 피검자의 음성 데이터와 눈동자 시선 추적 데이터가 수신되면, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터에 기반한 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석한다.
상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단할 수 있다.
또한, 상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단할 수 있다.
또한, 상기 서버(200)는 피검자의 정상적인 음성 분석 데이터 또는 일반적인 정상인의 음성 분석 데이터를 기반으로 생성한 치매 진단 지표와, 상기 피검자가 발화한 음성 분석 데이터를 정상적인 음성 분석 데이터 또는 치매 진단 지표와 비교하여 치매 진단 결과를 예측할 수 있다.
또한, 상기 서버(200)는 비정상적인 음성 분석 데이터 또는 상기 비정상적인 음성 분석 데이터를 기반으로 생성된 치매 진단 지표와 피검자가 발화한 음성 분석 데이터를 비교하여 치매 진단 결과를 예측할 수 있다.
또한, 상기 서버(200)는 정상적인 눈동자 이동 반응 속도와 비정상적인 눈동자 이동 반응 속도를 이용하여 생성한 시선 추적 치매 진단 지표 또는 정상적인 눈동자 이동 반응 속도 및 비정상적인 눈동자 이동 반응 속도와, 측정 단말(100)로부터 획득한 피검자의 눈동자 이동 반응 속도를 비교하여 치매 진단 결과를 예측할 수 있다.
한편, 상기 서버(200)는 인공지능 모델의 분석 결과로 치매 진단 또는 초기 치매 진단이 예측되면, 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신되도록 하고, 인공지능 모델의 학습 데이터로 활용될 수 있도록 한다.
또한, 상기 서버(200)는 치매 진단이 예측되면, 피검자와 관련하여 미리 설정된 사용자 단말이나 병원 관리자 단말 또는 미리 설정된 치매 관리 센서 서버로 치매 진단 결과를 전송할 수 있다.
따라서, 치매 의심 이상 행동자의 다양한 신체 정보 데이터를 분석하여 선별 정확도와 민감도를 개선할 수 있다.
상기와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만 해당 기술 분야의 숙련된 당업자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
또한, 본 발명의 특허청구범위에 기재된 도면번호는 설명의 명료성과 편의를 위해 기재한 것일 뿐 이에 한정되는 것은 아니며, 실시예를 설명하는 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한, 상술된 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있으므로, 이러한 용어들에 대한 해석은 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
또한, 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다.
또한, 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.
100 : 측정 단말
110 : 데이터 통신부
120 : 스피커
130 : 마이크
140 : 카메라
150 : 디스플레이부
160 : 단말 제어부
200 : 서버
210 : 데이터 통신부
220 : 음성 분석부
230 : 시선 추적부
240 : 인공지능 분석부
250 : 데이터 저장부

Claims (10)

  1. 서버(200)로부터 치매 진단 지표를 수신하고, 피검자에게 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하되, 상기 출력되는 단어에 대하여 피검자의 발화 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하고, 상기 획득한 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석한 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 서버(200)로 전송하는 측정 단말(100)을 포함하는 음성 및 시선 추적을 이용한 치매 진단 장치.
  2. 제 1 항에 있어서,
    상기 측정 단말(100)로부터 수신된 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 기반으로 치매 진단 결과를 추정하되, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 인공지능 모델을 이용하여 분석한 결과, 치매가 예상되면 상기 분석 결과가 반영된 치매 진단 지표를 생성하는 서버(200);를 더 포함하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치.
  3. 제 2 항에 있어서,
    상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치.
  4. 제 2 항에 있어서,
    상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치.
  5. 제 1 항에 있어서,
    상기 측정 단말(100)은 서버(200)와 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신하는 데이터 통신부(110);
    상기 치매 진단 지표에 기반하여 미리 설정된 단어를 출력하는 스피커(120);
    상기 출력된 단어에 대하여 피검자가 발화하는 단어의 음성 데이터를 수신하는 마이크(130);
    상기 출력된 단어에 대하여 피검자의 눈동자를 포함한 촬영 이미지를 출력하는 카메라(140);
    상기 치매 진단 지표에 기반하여 출력되는 단어를 화면을 통해 디스플레이하는 디스플레이부(150); 및
    스피커(120)와 디스플레이부(150)를 통해 상기 서버(200)로부터 수신된 치매 진단 지표에 기반한 단어를 음향과 화면을 통해 출력하도록 제어하고, 상기 출력되는 단어에 대하여 피검자가 발화한 음성 데이터와 상기 피검자의 눈동자 시선 추적 데이터를 획득하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 상기 치매 진단 지표와 비교 분석하여 치매 가능성 정보를 산출하고, 상기 치매 가능성 정보를 화면으로 출력하며, 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터는 상기 서버(200)로 전송되도록 제어하는 단말 제어부(160);를 포함하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치.
  6. 제 2 항에 있어서,
    상기 서버(200)는 측정 단말(100)과 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표를 송수신하는 데이터 통신부(210);
    상기 피검자의 음성 데이터를 미리 설정된 분석 포맷으로 변환하는 음성 분석부(220);
    상기 피검자의 눈동자 시선 추적 데이터로부터 눈동자 이동 반응 속도 데이터를 산출하는 시선 추적부(230);
    상기 피검자의 음성 데이터와 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석하되, 치매 진단이 예측되면 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신하고, 미리 설정된 사용자 단말 및 병원 관리자 단말로 치매 진단 결과를 전송하는 인공지능 분석부(240); 및
    상기 피검자의 음성 데이터, 눈동자 시선 추적 데이터, 치매 진단 지표, 치매 진단 결과를 저장하는 데이터 저장부(250);를 포함하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 장치.
  7. a) 측정 단말(100)이 적어도 하나 이상의 단어를 음향과 화면을 통해 출력하는 단계;
    b) 상기 측정 단말(100)이 출력된 단어에 대하여 피검자의 발화 음성 데이터를 획득하고, 획득한 상기 피검자의 발화 음성 데이터를 치매 진단 지표와 비교하여 치매 가능성을 분석하는 단계;
    c) 상기 측정 단말(100)이 출력된 단어에 대하여 피검자의 눈동자 시선 추적 데이터를 획득하고, 획득한 상기 피검자의 눈동자 시선 추적 데이터를 치매 진단 지표하여 치매 가능성을 분석하는 단계; 및
    d) 상기 측정 단말(100)이 분석 결과에 따른 피검자의 치매 가능성을 음향 및 화면을 통해 출력하고, 결과를 저장하는 단계;를 포함하는 음성 및 시선 추적을 이용한 치매 진단 방법.
  8. 제 7 항에 있어서,
    e) 상기 측정 단말(100)로부터 피검자의 음성 데이터와 눈동자 시선 추적 데이터가 수신되면, 서버(200)가 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터에 기반한 눈동자 이동 반응 속도 데이터를 인공지능 모델을 이용하여 분석하되, 치매 진단이 예측되면 상기 피검자의 음성 데이터와 눈동자 시선 추적 데이터를 치매 진단 지표에 반영하여 갱신하고, 미리 설정된 사용자 단말 및 병원 관리자 단말로 치매 진단 결과를 전송하는 단계;를 더 포함하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 방법.
  9. 제 8 항에 있어서,
    상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 음성 데이터를 정상 음성 분석 데이터 및 비정상 음성 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 방법.
  10. 제 8 항에 있어서,
    상기 인공지능 모델은 CNN(Convolutional Neural Network) 기반의 딥러닝 모델을 이용하여 피검자의 눈동자 시선 추적 데이터를 정상 눈동자 이동 반응 속도 데이터 및 비정상 눈동자 이동 반응 속도 분석 데이터와의 비교를 통해 치매를 진단하는 것을 특징으로 하는 음성 및 시선 추적을 이용한 치매 진단 방법.
KR1020210026336A 2021-02-26 2021-02-26 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법 KR102508262B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210026336A KR102508262B1 (ko) 2021-02-26 2021-02-26 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210026336A KR102508262B1 (ko) 2021-02-26 2021-02-26 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법

Publications (2)

Publication Number Publication Date
KR20220122121A true KR20220122121A (ko) 2022-09-02
KR102508262B1 KR102508262B1 (ko) 2023-03-09

Family

ID=83281219

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210026336A KR102508262B1 (ko) 2021-02-26 2021-02-26 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법

Country Status (1)

Country Link
KR (1) KR102508262B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180108954A (ko) * 2017-03-23 2018-10-05 사회복지법인 삼성생명공익재단 가상현실을 이용한 신경질환 진단 장치 및 방법
KR20190081626A (ko) 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
KR102165590B1 (ko) * 2019-11-15 2020-10-14 가천대학교 산학협력단 경도인지장애 치료를 위한 소셜 가상현실 시스템 및 소셜 가상현실을 제공하는 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180108954A (ko) * 2017-03-23 2018-10-05 사회복지법인 삼성생명공익재단 가상현실을 이용한 신경질환 진단 장치 및 방법
KR20190081626A (ko) 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
KR102165590B1 (ko) * 2019-11-15 2020-10-14 가천대학교 산학협력단 경도인지장애 치료를 위한 소셜 가상현실 시스템 및 소셜 가상현실을 제공하는 방법

Also Published As

Publication number Publication date
KR102508262B1 (ko) 2023-03-09

Similar Documents

Publication Publication Date Title
US11363953B2 (en) Methods and systems for managing medical anomalies
Bourouis et al. An intelligent mobile based decision support system for retinal disease diagnosis
RU2613580C2 (ru) Способ и система для оказания помощи пациенту
US20200322301A1 (en) Message delivery and presentation methods, systems and devices using receptivity
US20160314784A1 (en) System and method for assessing the cognitive style of a person
Parra et al. Multimedia sensors embedded in smartphones for ambient assisted living and e-health
US20240041382A1 (en) Electroencephalographic data analysis system, information processing terminal, electronic device, and method of presenting information for dementia examination
US20160285800A1 (en) Processing Method For Providing Health Support For User and Terminal
US10698983B2 (en) Wireless earpiece with a medical engine
US10045096B2 (en) Social media modification of behavior and mobile screening for impairment
Patel et al. NXTGeUH: LoRaWAN based NEXT generation ubiquitous healthcare system for vital signs monitoring & falls detection
JP2012059107A (ja) 感情推定装置、感情推定方法およびプログラム
EP3420713B1 (en) Devices, system and methods for determining a priority level and/or conversation duration of a call
US20200375544A1 (en) System, method and computer program product for detecting a mobile phone user's risky medical condition
US11747902B2 (en) Machine learning configurations modeled using contextual categorical labels for biosignals
US20190096000A1 (en) System and Method for Sharing User Information with an Insurer Utilizing Wireless Earpieces
KR20190136706A (ko) 개인 관심상황 발생 예측/인지 장치 및 방법
KR102066225B1 (ko) 인공지능 기능의 스마트 진단 장치, 시스템 및 방법
US20180122025A1 (en) Wireless earpiece with a legal engine
JP2022502804A (ja) バイオリズムデータを収集し、分析し、ユーザ間で共有するためのシステム及び方法
US20190198171A1 (en) Interactive physiology monitoring and sharing system
Szydło et al. Mobile devices in the open and universal system for remote patient monitoring
JP6943490B1 (ja) 見守り支援装置、見守り支援システム、見守り支援方法及びプログラム
KR102508262B1 (ko) 음성 및 시선 추적을 이용한 치매 진단 장치 및 치매 정보 제공 방법
KR20160053391A (ko) 글라스형 웨어러블 디바이스를 이용한 외부디바이스 내 콘텐츠 관리 시스템, 방법 및 글라스형 웨어러블 디바이스용 어플리케이션

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant