KR102161638B1 - 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체 - Google Patents

기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체 Download PDF

Info

Publication number
KR102161638B1
KR102161638B1 KR1020200044594A KR20200044594A KR102161638B1 KR 102161638 B1 KR102161638 B1 KR 102161638B1 KR 1020200044594 A KR1020200044594 A KR 1020200044594A KR 20200044594 A KR20200044594 A KR 20200044594A KR 102161638 B1 KR102161638 B1 KR 102161638B1
Authority
KR
South Korea
Prior art keywords
voice
data
words
feature information
user
Prior art date
Application number
KR1020200044594A
Other languages
English (en)
Inventor
이영호
강석환
권현진
박진혁
강민
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020200044594A priority Critical patent/KR102161638B1/ko
Application granted granted Critical
Publication of KR102161638B1 publication Critical patent/KR102161638B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Neurology (AREA)
  • Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Physiology (AREA)

Abstract

본 발명은 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체에 관한 것으로서, 보다 상세하게는 언어능력 진단에 관련된 컨텐츠를 제공하고, 해당 컨텐츠에 대한 사용자의 음성을 인식하여 암기, 표현, 추론, 해석 등의 종합적인 언어능력을 분석함으로써, 사용자의 치매정도에 대한 판별정보를 제공하는 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체에 관한 것이다.

Description

기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체{Method, System and Computer-Readable Mediums thereof for determining the degree of dementia Based on Voice Recognition Using Machine Learning Model}
본 발명은 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체에 관한 것으로서, 보다 상세하게는 언어능력 진단에 관련된 컨텐츠를 제공하고, 해당 컨텐츠에 대한 사용자의 음성을 인식하여 암기, 표현, 추론, 해석 등의 종합적인 언어능력을 분석함으로써, 사용자의 치매정도에 대한 판별정보를 제공하는 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체에 관한 것이다.
현대 기술의 발달로 많은 기술분야에서는, 딥 러닝(Deep Learning), 머신 러닝(Machine Learning), SVM(Support Vector Machine), 신경망(Neural Network)과 같은 기계학습 모델을 적용하는 사례들이 늘어나고 있다. 종래에도 이와 같은, 기계학습 모델을 이용하여 사람의 목소리를 인식하거나, 인식한 목소리를 분석하는 기술은 존재하였다.
한편, 증상이 비교적 가벼운 인지저하에서부터, 일상생활에 영향을 미치는 경도인지장애, 치매, 알츠하이머와 같은 정신질환을 앓는 환자들은 점점 증가하고 있으며, 이와 같은 뇌질환을 가진 환자들이 겪는 증상 중 하나는 언어장애를 손꼽을 수 있다. 이들은 하고 싶은 표현이 금방 나오지 않고, 머뭇거린다거나 물건 이름을 금방 대지 못하는 경우가 흔히 관찰된다. 그러나, 이러한 뇌질환을 가지고 있는 환자들의 보호자들은 항상 환자의 옆에서 대기하며, 환자의 상태를 돌볼 수 있는 환경적 요건을 갖추기가 힘들고, 초기의 미약한 증상일 경우, 환자 본인이나 보호자들이 대수롭지 않게 넘겨 초기의 발견하지 못할 가능성이 크다. 뇌질환은 적절한 진단 및 치료시기를 놓치는 경우 진행속도가 빨라지거나 심각한 후유장애를 얻을 수 있기 때문에 일상에서 뇌질환 초기 증상을 파악하고, 환자에게 인지시켜주는 것이 필요하다. 이와 같은 문제점을 해결하기 위하여, 일상생활에서 사용자의 음성을 인식하여 치매정도를 진단하고, 진단결과를 사용자 혹은 보호자에게 전달할 수 있는 기술에 대한 요구가 있었다.
한편, 이와 같은 본 발명의 배경이 되는 기술은, 한국공개특허 제10-2019-0081626호 (인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템, 2019년 7월 9일 공개)에서 개시하고 있고, 사용자의 평소 음성을 녹음하여 수집하고, 음성의 음도, 발화속도, 또는 특정 단어의 사용 빈도 등을 분석하여 정신겅강 관련 질환을 또는 이상 징후를 예측 또는 판별하는 기술에 대해 개시하고 있다.
삭제
한국공개특허 제10-2019-0081626호 (인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템, 2019년 7월 9일 공개)
본 발명의 목적은 언어능력 진단에 관련된 컨텐츠를 제공하고, 해당 컨텐츠에 대한 사용자의 음성을 인식하여 암기, 표현, 추론, 해석 등의 종합적인 언어능력을 분석함으로써, 사용자의 치매정도에 대한 판별정보를 제공하는 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체를 제공하는 것이다.
상기와 같은 과제를 해결하기 위하여, 본 발명은 1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅 시스템에서 수행되는 치매정도 판별방법으로서, 사용자에게 2 이상의 단어를 개별적으로 시각적으로 제시하고, 사용자로부터 각각의 단어에 대해 순차적으로 제1음성데이터를 입력 받고, 상기 제1음성데이터로부터 제1특성데이터를 추출하는 제1판별단계; 사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트되어 포함된 문장을 시각적으로 제시하고, 사용자로부터 상기 문장에 대해 제2음성데이터를 입력 받고, 상기 제2음성데이터로부터 제2특성데이터를 추출하는 제2판별단계; 및 상기 제1특성데이터 및 상기 제2특성데이터를 포함한 판별기초데이터를 기계학습된 추론모델에 입력하여, 사용자의 치매정도판별정보를 도출하는 판별정보도출단계;를 포함하는, 치매정도 판별방법을 제공한다.
본 발명의 일 실시예에서는, 상기 제1판별단계는, 상기 2 이상의 단어 각각에 대하여, 기설정된 시간동안 시각적으로 제공하는 단계; 상기 단어의 시각적 제공을 종료하는 단계; 및 제1음성데이터를 수신하는 단계;를 수행하는 제1음성데이터를 입력받는 단계; 및 상기 2 이상의 단어 각각에 대한 제1음성데이터가 모두 수신된 경우, 혹은 기설정된 시간이 경과한 경우, 수신된 상기 제1음성데이터에 기초하여 상기 제1특성데이터를 추출하는 단계;를 포함할 수 있다.
본 발명의 일 실시예에서는, 상기 제1특성데이터를 추출하는 단계는, 상기 제1음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간 추출하고 노이즈를 제거하여 제1전처리음성데이터를 도출하는 제1전처리단계; 제공한 단어 및 상기 제1전처리음성데이터에 대한 단어의 일치여부를 판별하여 제1정확도판별정보를 도출하는 단계; 상기 제1전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 도출하는 단계; 및 상기 제1전처리음성데이터 구간 사이의 시간간격에 기초하여 제1음성인터벌을 도출하는 단계;를 포함하고, 상기 판별기초데이터는 상기 제1정확도판별정보, 상기 제1음성특징정보, 및 제1음성인터벌을 포함할 수 있다.
본 발명의 일 실시예에서는, 상기 제2판별단계는, 상기 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트되어 포함된 문장을 시각적으로 제공하는 단계; 상기 문장의 시각적 제공을 종료하는 단계; 제2음성데이터를 수신하는 단계;를 수행하는 제2음성데이터를 입력받는 단계; 상기 문장에 대한 제2음성데이터로부터 상기 제1판별단계에서의 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 제2전처리음성데이터를 도출하는 제2전처리단계; 상기 문장에 포함된 상기 2 이상의 단어 및 상기 제2전처리음성데이터에 대한 단어의 일치여부를 판별하여 제2정확도판별정보를 도출하는 단계; 및 상기 제2전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 도출하는 단계;를 포함하고, 상기 판별기초데이터는 상기 제2정확도판별정보, 및 상기 제2음성특징정보를 포함할 수 있다.
본 발명의 일 실시예에서는, 상기 제1특성데이터는, 상기 2 이상의 단어에 상응하는 구간의 제1음성데이터의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 포함하고, 상기 제2특성데이터는, 상기 문장에 포함된 2 이상의 단어에 상응하는 구간의 제2음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 포함하고, 상기 판별정보도출단계는, 상기 제1음성특징정보 및 상기 제2음성특징정보의 차이에 기초하여 제1델타음성특징정보를 도출하고, 상기 판별기초데이터는 상기 제1델타음성특징정보를 포함할 수 있다.
본 발명의 일 실시예에서는, 상기 치매정도 판별방법은, 사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 표현이 된 그림이미지 및 상기 2 이상의 단어에 상응하는 부분이 빈칸으로 표시되고, 상기 그림이미지를 표현하는 해석문장을 제시하고, 사용자로부터 상기 2 이상의 단어 가 포함된 해석문장에 대한 제3음성데이터를 입력 받고, 상기 제3음성데이터로부터 상기 제3특성데이터를 추출하는 제3판별단계;를 더 포함하고, 상기 판별기초데이터는 상기 제3음성데이터를 더 포함할 수 있다.
본 발명의 일 실시예에서는, 상기 제3판별단계는, 상기 제3음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 제3전처리음성데이터를 도출하는 제3전처리단계; 기저장된 상기 빈칸의 단어 및 상기 제3전처리음성데이터에 대한 단어의 일치여부를 판별하여 제3정확도판별정보를 도출하는 단계; 및 상기 제3전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제3음성특징정보를 도출하는 단계;를 포함할 수 있다.
본 발명의 일 실시예에서는, 상기 제1특성데이터는, 상기 2 이상의 단어에 상응하는 구간의 제1음성데이터의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 포함하고, 상기 제3특성데이터는, 상기 해석문장에 포함된 2 이상의 단어에 상응하는 구간의 제3음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제3음성특징정보를 포함하고, 상기 판별정보도출단계는, 상기 제1음성특징정보, 및 상기 제3음성특징정보의 차이에 기초하여 제2델타음성특징정보를 도출하고, 상기 판별기초데이터는 상기 제2델타음성특징정보를 포함할 수 있다.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅 시스템에서 구현되는 치매정도 판별 시스템으로서, 사용자에게 2 이상의 단어를 개별적으로 시각적으로 제시하고, 사용자로부터 각각의 단어에 대해 순차적으로 제1음성데이터를 입력 받고, 상기 제1음성데이터로부터 제1특성데이터를 추출하는 제1특성데이터추출부; 사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트된 문장을 시각적으로 제시하고, 사용자로부터 상기 문장에 대해 제2음성데이터를 입력 받고, 상기 제2음성데이터로부터 제2특성데이터를 추출하는 제2특성데이터추출부; 및 상기 제1특성데이터 및 상기 제2특성데이터를 포함한 판별기초데이터를 기계학습된 추론모델에 입력하여, 사용자의 치매정도판별정보를 도출하는 판별정보도출부;를 포함하는, 치매정도 판별 시스템을 제공한다.
상기와 같은 과제를 해결하기 위하여, 본 발명의 일 실시예에서는, 치매정도 판별방법을 구현하기 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 사용자에게 2 이상의 단어를 개별적으로 시각적으로 제시하고, 사용자로부터 각각의 단어에 대해 순차적으로 제1음성데이터를 입력 받고, 상기 제1음성데이터로부터 제1특성데이터를 추출하는 제1판별단계; 사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트된 문장을 시각적으로 제시하고, 사용자로부터 상기 문장에 대해 제2음성데이터를 입력 받고, 상기 제2음성데이터로부터 제2특성데이터를 추출하는 제2판별단계; 및 상기 제1특성데이터 및 상기 제2특성데이터를 포함한 판별기초데이터를 기계학습된 추론모델에 입력하여, 사용자의 치매정도판별정보를 도출하는 판별정보도출단계;를 포함하는, 컴퓨터-판독가능 매체를 제공한다.
본 발명의 일 실시예에 따르면, 음성을 분석하는 기계학습된 모델에 의하여 사용자의 치매정도에 대한 판별정보를 도출할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 기계학습된 모델에 의하여 사용자의 언어의 장애 정도를 판별하여 치매정도에 대한 판별정보를 도출함으로써 경도인지장애 혹은 치매와 같은 뇌질환의 조기 예측과 진행속도를 파악할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 일회성의 컨텐츠를 제공하는 것이 아닌, 단어, 문장, 그림 등과 같이 다양한 형태의 컨텐츠를 제공함으로써, 단어암기능력, 문장구사능력, 언어추론능력 등의 종합적인 언어능력을 평가함으로써 보다 정확한 치매정도에 대한 진단을 할 수 있는 효과를 발휘할 수 있다.
본 발명의 일 실시예에 따르면, 동일한 단어를 다양한 형태로 제공하여 획득한 사용자의 음성정보의 차이에 따라 기계학습된 추론모델을 이용하여 치매정도에 대한 진단을 수행함으로써 보다 정확한 치매정도에 대한 진단을 할 수 있는 효과를 발휘할 수 있다.
도 1은 본 발명의 일 실시예에 따른 치매정도 판별 시스템의 동작환경을 개략적으로 도시한다.
도 2는 본 발명의 일 실시예에 따른 제1특성데이터도출부의 동작에 따른 제1판별단계의 수행 단계를 개략적으로 도시한다.
도 3은 본 발명의 일 실시예에 따른 제1특성데이터도출부에 의하여 제공되는 사용자단말기에서의 화면을 개략적으로 도시한다.
도 4는 본 발명의 일 실시예에 따른 제1특성데이터를 도출하는 단계의 수행 과정을 개략적으로 도시한다.
도 5는 본 발명의 일 실시예에 따른 특성데이터도출부의 동작을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 특성데이터도출부의 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 특성데이터도출부의 동작을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 제2특성데이터도출부의 동작에 따른 제2판별단계의 수행 단계를 개략적으로 도시한다.
도 9는 본 발명의 일 실시예에 따른 제2특성데이터도출부에 의하여 제공되는 사용자단말기에서의 화면을 개략적으로 도시한다.
도 10은 본 발명의 일 실시예에 따른 제1음성특징정보 및 제2음성특징정보에 기초하여 제1델타음성특징정보를 도출하는 판별정보도출부의 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따른 제3특성데이터도출부의 동작에 따른 제3판별단계의 수행 단계를 개략적으로 도시한다.
도 12는 본 발명의 일 실시예에 따른 제3특성데이터도출부에 의하여 제공되는 사용자단말기에서의 화면을 개략적으로 도시한다.
도 13은 본 발명의 일 실시예에 따른 제1음성특징정보 및 제3음성특징정보에 기초하여 제2델타음성특징정보를 도출하는 판별정보도출부의 동작을 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.
이하에서는, 다양한 실시예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.
또한, 다양한 양상들 및 특징들이 다수의 디바이스들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있는 시스템에 의하여 제시될 것이다. 다양한 시스템들이, 추가적인 장치들, 컴포넌트들 및/또는 모듈들 등을 포함할 수 있다는 점 그리고/또는 도면들과 관련하여 논의된 장치들, 컴포넌트들, 모듈들 등 전부를 포함하지 않을 수도 있다는 점 또한 이해되고 인식되어야 한다.
본 명세서에서 사용되는 "실시예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다. 아래에서 사용되는 용어들 '~부', '컴포넌트', '모듈', '시스템', '인터페이스' 등은 일반적으로 컴퓨터 관련 엔티티(computer-related entity)를 의미하며, 예를 들어, 하드웨어, 하드웨어와 소프트웨어의 조합, 소프트웨어를 의미할 수 있다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.
또한, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
또한, 본 발명의 실시예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 일 실시예에 따른 치매정도 판별 시스템의 동작환경을 개략적으로 도시한다.
구체적으로, 상기 치매정도 판별 시스템(1000)은, 도 1의 (a)에 도시된 바와 같이 사용자단말기(1100) 및 서버(1200)를 포함할 수 있다. 상기 사용자단말기(1100) 및 서버(1200)는 1 이상의 메모리 및 1 이상의 프로세스를 포함하고, 상기 사용자단말기(1100)는 상기 서버(1200)와 통신을 수행할 수 있다. 상기 서버(1200)는 상기 사용자단말기(1100)와의 통신으로 데이터를 수신하고, 수신한 데이터에 기초하여 치매정도판별정보를 도출할 수 있다.
상기 사용자단말기(1100)는 사용자의 음성데이터를 획득하기 위해 기설정된 단어, 문장, 그림이미지 및 그림이미지에 따른 해석문장과 같은 복수의 컨텐츠를 제공할 수 있다. 사용자는 사용자단말기(1100)를 통해 제공된 단어를 암기하여 말하거나, 제공된 문장을 읽거나, 그림이미지에 대한 추론을 통해 해당 그림이미지에 대해 해석하여 설명할 수 있다.
본 발명의 일 실시예에 따르면, 도 1의 (b)에 도시된 바와 같이 상기 사용자단말기(1100)는 사용자의 음성데이터를 입력 받고, 음성데이터에 기초하여 특성데이터를 도출할 수 있다. 구체적으로, 상기 음성데이터는, 사용자단말기(1100)에서 제공한 단어, 문장, 혹은 그림이미지와 같은 각각의 제공 컨텐츠에 따라 입력 받는 제1음성데이터, 제2음성데이터 및 제3음성데이터를 포함할 수 있다. 사용자단말기(1100)는, 제1특성데이터도출부(1110), 제2특성데이터도출부(1120) 및 제3특성데이터도출부(1130)를 포함하고, 각각의 특성데이터추출부는 상기 제1음성데이터, 제2음성데이터 및 제3음성데이터에 기초하여 제1특성데이터, 제2특성데이터 및 제3특성데이터를 도출할 수 있다.
상기 제1특성데이터도출부(1110), 상기 제2특성데이터도출부(1120) 및 상기 제3특성데이터도출부(1130)는 기계학습된 모델에 의하여 각각의 음성데이터로부터 특징정보를 도출할 수 있고, 도출된 특징정보에 기초하여 상기 제1특성데이터, 제2특성데이터 및 제3특성데이터를 도출할 수 있다.
상기 제1특성데이터도출부(1110)는, 제1음성데이터에 기초하여 제1정확도판별정보, 제1음성특징정보, 및 제1음성인터벌을 포함하는 제1특성데이터를 도출하고, 제2특성데이터도출부(1120)는, 제2음성데이터에 기초하여 제2정확도판별정보 및 제2음성특징정보를 포함하는 제2특성데이터를 도출하고, 제3특성데이터도출부(1130)는 상기 제3음성데이터에 기초하여 제3정확도판별정보, 제3음성특징정보를 포함하는 제3특성데이터를 도출한다.
바람직하게는, 상기 제1특성데이터는, 상기 2 이상의 단어에 상응하는 구간의 제1음성데이터의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 포함하고, 상기 제2특성데이터는, 상기 문장에 포함된 2 이상의 단어에 상응하는 구간의 제2음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 포함하고, 상기 제3특성데이터는, 상기 해석문장에 포함된 2 이상의 단어에 상응하는 구간의 제3음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제3음성특징정보를 포함한다.
이후, 사용자단말기(1100)는, 도출한 상기 제1특성데이터, 제2특성데이터, 및 제3특성데이터를 서버(1200)로 송신하고, 서버(1200)의 판별정보도출부(1210)는, 도 1의 (c)에 도시된 바와 같이 상기 제1특성데이터, 제2특성데이터, 및 제3특성데이터를 포함하는 판단기초데이터에 기초하여 기계학습된 추론모델에 의하여 치매정도판별정보를 도출할 수 있다. 상기 추론모델은, 제공한 컨텐츠에 대한 다른 사용자들의 특성데이터를 포함하는 학습데이터에 의하여 기계학습되고, 이와 같은 학습데이터는 치매질환을 갖는 환자, 치매를 앓고 있지 않은 정상인 등 다양한 학습대상의 음성데이터에 기초하여 도출된 특성데이터를 포함할 수 있다.
상기 서버(1200)에 의하여 도출된 사용자에 대한 치매정도판별정보는, 사용자의 언어구사능력에 따라 치매질환의 여부를 판단하고, 그 단계를 구분하여 정상인지상태, 주관적인지저하(SCD), 경도인지장애(MCI), 치매(Dementia) 등과 같이 사용자의 치매질환의 정도에 대해 세부적으로 판별하고, 이를 수치 혹은 레벨, 경도 등으로 표시하여 제공할 수 있다.
예를 들어, 상기 치매로 인해 나타나는 언어장애의 증상의 정도가 가장 낮을 때를 1로하고, 증상의 정도가 가장 높을 때를 10으로 하여, 치매의 정도를 표현할 수 있다. 이와 같이 본 발명에서는, 사용자의 음성데이터를 기초로 치매의 증상에 대한 정도를 나타내는 치매정도판별정보를 도출할 수 있고, 상기 치매정도판별정보는 사용자단말기(1100)로 송신되어 사용자 혹은 보호자에게 제공될 수 있다.
도 2는 본 발명의 일 실시예에 따른 제1특성데이터도출부(1110)의 수행 단계를 개략적으로 도시하고, 도 3은 본 발명의 일 실시예에 따른 제1특성데이터도출부(1110)에 의하여 제공되는 사용자단말기(1100)에서의 화면을 개략적으로 도시한다.
구체적으로, 사용자단말기(1100)는, 기계학습된 추론모델에 의하여 음성데이터로부터 특성데이터를 도출할 수 있는 제1특성데이터도출부(1110), 제2특성데이터도출부(1120) 및 제3특성데이터도출부(1130)를 포함한다. 상기 제1특성데이터도출부(1110)는, 사용자에게 2 이상의 단어를 개별적으로 시각적으로 제시하고, 사용자로부터 각각의 단어에 대해 순차적으로 제1음성데이터를 입력 받고, 상기 제1음성데이터로부터 제1특성데이터를 추출하는 제1판별단계를 수행한다.
상기 제1판별단계는, 도 2에 도시된 바와 같이, 상기 2 이상의 단어 각각에 대하여, 기설정된 시간동안 시각적으로 제공하는 단계(S11); 상기 단어의 시각적 제공을 종료하는 단계(S12); 및 제1음성데이터를 수신하는 단계(S13);를 수행하는 제1음성데이터를 입력 받는 단계(S110); 및 상기 2 이상의 단어 각각에 대한 제1음성데이터가 모두 수신된 경우, 혹은 기설정된 시간이 경과한 경우, 수신된 상기 제1음성데이터에 기초하여 상기 제1특성데이터를 추출하는 단계(S120);를 포함한다.
S11단계에서는, 제1특성데이터도출부(1110)는, 사용자단말기(1100)를 통해 사용자에게 2 이상의 단어를 개별적으로 시각적으로 제공한다. 도 3의 (a), (b) 및 (c)에 도시된 바와 같이, 사용자단말기(1100)에는 사용자에게 제공될 2 이상의 단어가 디스플레이되어 시각적으로 제공될 수 있다.
S12단계에서는, 사용자단말기(1100)를 통해 제공된 상기 단어의 시각적 제공을 종료한다. 본 발명의 일 실시예에서 도 3의 (d)에 도시된 바와 같이, 상기 S11단계에서 사용자단말기(1100)에 디스플레이된 단어를 숨기거나 혹은 가림으로써, 사용자가 제공된 단어를 읽는 것이 아닌, 단어를 암기하여 말한 음성데이터를 수신할 수 있다.
S13단계에서는, S12단계가 수행된 후, 상기 S11단계에서 제공된 단어에 대한 사용자의 제1음성데이터를 수신한다. 바람직하게는, 상기 제1특성데이터도출부(1110)는, 사용자단말기(1100)에 포함된 마이크를 통해 입력 받은 사용자의 제1음성데이터를 수신할 수 있고, 상기 마이크는 상기 단어의 시각적 제공이 종료된 시간구간에서만 작동하여 상기 제1음성데이터를 수신할 수 있다. 제1판별단계는 사용자가 읽은 단어를 암기하여 얼마나 정확하게 말하는 가에 대한 평가를 함으로써 치매정도를 진단하기 위한 목적으로 수행된다.
바람직하게는, 사용자의 제1음성데이터를 입력받는 단계(S110)는, 상기 S11, S12 및 S13단계를 포함하고, 다음과 같은 순서로 수행될 수 있다. 본 발명의 일 실시예에서 단어를 제공하는 기설정된 시간이 2초라고 가정할 때, 도 3의 (a)와 같이 “모자”가 디스플레이된 화면이 사용자단말기(1100)를 통해 2초동안 제공되고, 이후, 도 3의 (d)와 같은 화면이 제공되면서 사용자단말기(1100)의 마이크가 작동하여 “모자”를 말하는 사용자의 제1음성데이터를 수신한다. 이후, “모자”에 대한 제1음성데이터가 수신되면, 도 3의 (b)에 도시된 바와 같이 다음 단어인 “책상”이 디스플레이된 화면이 사용자단말기(1100)를 통해 2초동안 제공된다. 이후, 도 3의 (d)와 같은 화면이 제공되면서 사용자단말기(1100)의 마이크가 작동하여 “책상”을 말하는 사용자의 제1음성데이터를 수신한다. 이후, “책상”에 대한 제1음성데이터가 수신되면, 도 3의 (c)에 도시된 바와 같이 다음 단어인 “책”이 디스플레이된 화면이 사용자단말기(1100)를 통해 2초동안 제공되고, 다시 도 3의 (d)와 같은 화면이 제공되어, “책”에 대한 제1음성데이터를 수신할 수 있다. 이와 같은 방식으로, 제1특성데이터도출부(1110)는, 제1음성데이터를 입력받는 단계(S110)를 수행할 수 있다.
이후, S120단계에서는, 제1특성데이터도출부(1110)는, 상기 2 이상의 단어 각각에 대한 제1음성데이터가 모두 수신된 경우, 혹은 기설정된 시간이 경과한 경우, 수신된 상기 제1음성데이터에 기초하여 상기 제1특성데이터를 추출한다. 상기 일 실시예에서 “모자”, “책상”, 및 “책”에 대한 제1음성데이터가 수신된 경우, 혹은, 마지막으로 제공된 “책”에 대한 제1음성데이터가 일정시간 이상 수신되지 않은 경우에, 사용자단말기(1100)의 스피커의 작동을 종료하고, 수신된 제1음성데이터에 기초하여 상기 제1특성데이터를 도출한다.
이하에서는, 상기 제1특성데이터를 도출하는 단계에 대하여 보다 구체적으로 설명하도록 한다.
도 4는 본 발명의 일 실시예에 따른 제1특성데이터를 도출하는 단계의 수행 과정을 개략적으로 도시하고, 도 5, 도 6, 및 도7 은 본 발명의 일 실시예에 따른 제1특성데이터도출부(1110)의 동작을 설명하기 위한 도면이다.
구체적으로, 상기 제1특성데이터도출부(1110)는, 제1특성데이터를 추출하는 단계;를 수행하고, 상기 제1특성데이터를 추출하는 단계는, 상기 제1음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간 추출하고 노이즈를 제거하여 제1전처리음성데이터를 도출하는 제1전처리단계(S21); 제공한 단어 및 상기 제1전처리음성데이터에 대한 단어의 일치여부를 판별하여 제1정확도판별정보를 도출하는 단계(S22); 상기 제1전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 도출하는 단계(S23); 및 상기 제1전처리음성데이터 구간 사이의 시간간격에 기초하여 제1음성인터벌을 도출하는 단계(S24);를 포함하고, 상기 판별기초데이터는 상기 제1정확도판별정보, 상기 제1음성특징정보, 및 제1음성인터벌을 포함한다.
구체적으로, 전처리단계(S21)에서는, 상기 제1음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 제1전처리음성데이터를 도출한다. 상기 제1음성데이터는 도 5의 (a)에 도시된 바와 같이 복수의 단어를 읽은 사용자의 음성이 수집될 수 있다. 상기 제1특성데이터도출부(1110)는, 이와 같은 제1음성데이터에 기초하여 사용자에게 제공된 상기 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 상기 제1전처리음성데이터를 도출한다.
S22단계에서는, 상기 제1음성데이터를 입력받는 단계(S110)에서 제공한 2 이상의 단어 및 상기 제1음성데이터로부터 추출된 상기 제1전처리음성데이터에 대한 단어의 일치여부를 판별하여 제1정확도판별정보를 도출한다. 바람직하게는, 상기 제1특성데이터도출부(1110)는, STT(Speech To Text)모듈을 포함하고, 상기 S22단계에서는, 상기 STT모듈에 의하여 상기 제1전처리음성데이터가 텍스트로 변환될 수 있다. 도 5의 (a)에 도시된 바에 따르면 제1특성데이터도출부(1110)에 의하여 2 이상의 단어에 상응하는 제1음성데이터가 제1전처리단계를 통하여 제1전처리음성데이터가 도출되었고, 제1전처리음성데이터는 STT모듈의 동작에 의하여 “모자”, “책상” 및 “신문”의 텍스트로 변환되었다. 이후, 제1특성데이터도출부(1110)는 상기 S110단계에서 제공한 단어 및 텍스트로 변환된 상기 제1전처리음성데이터에 대한 단어의 일치여부를 판별하여 제1정확도판별정보를 도출한다. 본 발명의 일 실시예에서는, 상기 제1정확도판별정보는 S110단계에서 제공된 단어 및 상기 제1전처리음성데이터에 대한 단어 일치하는 경우에는 1, 일치하지 않는 경우에는 0으로 도출하여 도 5의 (b)에 도시된 바와 같이 벡터형태의 데이터를 도출할 수 있다.
S23단계에서는, 상기 제1특성데이터도출부(1110)는, 상기 제1전처리단계(S21)에서 도출된 제1전처리음성데이터에 기초하여 음성의 세기, 속도, 강세 중 1 이상을 포함하는 제1음성특징정보를 도출한다. 상기 제1특성데이터도출부(1110)는, 딥러닝된 인공신경망을 포함할 수 있고, 인공신경망에 의하여 도 6에 도시된 바와 같이 제1음성데이터의 제1구간, 제2구간, 및 제3구간에 해당하는 제1전처리음성데이터를 도출하여 제1전처리음성데이터의 진폭, 길이 및 패턴 중 1 이상을 포함하는 주파수특성에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 도출할 수 있다.
S24단계에서는, 상기 제1전처리단계(S21)에서 도출된 각각의 제1전처리음성데이터의 구간 사이의 시간간격에 기초하여 제1음성인터벌을 도출한다. 본 발명의 일 실시예에서는, 도 7에 도시된 바와 같이 제1음성데이터 중 2 이상의 단어에 상응하는 구간인 제1구간 및 제2구간 사이의 시간간격 t1, 제2구간 및 제3구간사이의 시간간격 t2를 제1음성인터벌로 도출할 수 있다. 상기 상기 S110단계에서 제공한 2 이상의 단어에 대하여 순차적으로 제1음성데이터를 입력 받는 과정에서 사용자는, 기설정된 시간동안 제공된 단어를 정확하게 암기한 경우에는, 시간의 지체없이 암기한 단어를 말할 수 있고, 사용자가 정확하게 암기하지 못한 경우에는, 머뭇거리거나, 일정 시간이 경과한 후 단어를 말할 수도 있다. 이와 같이 사용자의 단어의 암기능력 혹은 언어능력에 따라 제1음성데이터를 입력 받는 과정에서 발생하는 시간간격을 측정하여 사용자가 제공된 단어를 얼마나 정확하고 신속하게 암기했는지 여부를 판별할 수 있다.
이와 같은 방식으로, 사용자에게 2 이상의 단어를 개별적으로 시각적으로 제공하고, 제공한 단어에 대한 사용자의 암기 능력 및 언어 능력을 평가하기 위하여 제1음성데이터를 입력받아, 제1음성데이터에 대한 상기 제1정확도판별정보, 제1음성특징정보 및 제1음성인터벌을 도출한다. 바람직하게는, 상기 판별기초데이터는 상기 제1정확도판별정보, 상기 제1음성특징정보, 및 제1음성인터벌을 포함한다. 이후, 서버(1200)의 판별정보도출부(1210)에 의하여 상기 판별기초데이터는 상기 서버(1200)의 판별정보도출부(1210)의 기계학습된 추론모델에 입력하여, 사용자의 치매정도판별정보를 도출하는데 기초가 된다.
도 8은 본 발명의 일 실시예에 따른 제2특성데이터도출부(1120)의 동작에 따른 제2판별단계의 수행 단계를 개략적으로 도시한다.
구체적으로, 상기 사용자단말기(1100)는, 기계학습된 추론모델을 통해 음성데이터로부터 특성데이터를 도출할 수 있는 제1특성데이터도출부(1110), 제2특성데이터도출부(1120) 및 제3특성데이터도출부(1130)를 포함한다. 상기 제2특성데이터도출부(1120)는, 사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트되어 포함된 문장을 시각적으로 제시하고, 사용자로부터 상기 문장에 대해 제2음성데이터를 입력 받고, 상기 제2음성데이터로부터 제2특성데이터를 추출하는 제2판별단계를 수행할 수 있다.
상기 제2판별단계는, 도 8에 도시된 바와 같은 단계들을 포함할 수 있다. 구체적으로, 본 발명의 상기 제2판별단계는, 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트되어 포함된 문장을 시각적으로 제시하는 단계(S31); 상기 문장의 시각적 제공을 종료하는 단계(S32); 제2음성데이터를 수신하는 단계(S33);를 수행하는 제2음성데이터를 입력받는 단계(S210); 상기 문장에 대한 제2음성데이터로부터 상기 제1판별단계에서의 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하는 제2전처리단계(S220); 상기 문장에 포함된 상기 2 이상의 단어 및 상기 제2음성데이터로부터 추출된 단어의 일치여부를 판별하여 제2정확도판별정보를 도출하는 단계(S230); 및 상기 제2전처리단계에서 추출된 구간의 제2음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 도출하는 단계(S240);를 포함한다.
S31단계에서는, 제2특성데이터도출부(1120)는, 사용자단말기(1100)를 통해 상기 2 이상의 단어가 하이라이트되어 포함된 문장을 시각적으로 제공한다. 도 9의 (a)에 도시된 바와 같이, 사용자단말기(1100)에는 상기 제1판별단계에서의 상기 2 이상의 단어인 “모자”, “책상”, 및 “책”이 하이라이트되어 포함된 문장이 디스플레이되어 시각적으로 제공될 수 있다.
S32단계에서는, 사용자단말기(1100)를 통해 제공된 상기 문장의 시각적 제공을 종료한다. 본 발명의 일 실시예에서, 도 7의 (b)에 도시된 바와 같이 상기 S31단계에서 사용자단말기(1100)에 디스플레이된 문장 숨기거나 혹은 가림으로써, 사용자가 제공된 문장을 읽는 것이 아닌, 문장을 암기하여 말한 음성데이터를 수신할 수 있다. 혹은 디스플레이된 문장에서 상기 제1판별단계에서 제공된 2 이상의 단어만을 숨기거나 혹은 가림으로써, 사용자가 제공된 문장에 포함된 단어를 암기하고 문장을 말하도록 하여 제2음성데이터를 입력 받을 수 있다.
S33단계에서는, S32단계가 수행된 후, 상기 S31단계에서 제공된 문장에 대한 사용자의 제2음성데이터를 수신한다.
바람직하게는, 상기 제2특성데이터도출부(1120)는, 사용자단말기(1100)에 포함된 마이크를 통해 입력받은 사용자의 제2음성데이터를 수신할 수 있고, 상기 마이크는 상기 단어의 시각적 제공이 종료된 후에만 작동하여 상기 제2음성데이터를 수신할 수 있다. 제2판별단계는, 사용자가 읽은 문장을 암기하여 얼마나 정확하게 말하는 가에 대한 평가를 함으로써 치매정도를 진단하기 위한 목적으로 수행된다.
바람직하게는, 사용자의 제2음성데이터를 입력받는 단계(S210)는, 상기 S31, S32, 및 S32를 포함하고, 다음과 같은 순서로 수행될 수 있다. 도 9의 (a)에 도시된 바에 따르면 “모자를 쓰고 책상에서 을 읽었다.”와 같은 문장이 디스플레이된 화면이 사용자단말기(1100)를 통해 제공된다. 이후, 도 9의 (b)와 같은 화면이 제공되면서 사용자단말기(1100)의 마이크가 작동하여 “모자를 쓰고 책상에서 을 읽었다.”를 말하는 사용자의 제2음성데이터를 수신한다. 언어장애의 증상이 나타나는 치매환자의 경우, 다양한 형태의 증상이 나타날 수 있다. 일 예로, 단어의 의미를 알고는 있으나, 스스로 말하기가 어렵고 문법적인 오류가 다수 관찰될 수 있다. '볼펜'을 '골펜'과 같이 바꾸어 말하는 음소착어를 보이며, 말더듬을 수도 있고, 이에 비해 말의 유창함은 비교적 유지되지만 단어나 사물에 개념이 없는 경우로 초기부터 단어의 명칭을 말하기도 어려운 의미치매의 경우도 존재한다. 한편으로는, 언어이해력도 유창성도 비교적 잘 유지되지만 물건의 이름을 떠올리기 어려워하는 경우 또한 있다. 이와 같이 다양한 형태로 언어장애의 증상이 나타남으로 이를 정확하게 판단하기 위하여, 단어를 암기하고 말하는 능력을 판별할 뿐 아니라, 사용자로 하여금 동일한 단어가 포함된 문장을 말하는 능력을 판별함으로써 정확한 치매정도판별정보를 도출할 수 있다.
이와 같은 방식으로, 상기 제2특성데이터도출부(1120)는, 제2음성데이터를 입력받는 단계(S210)을 수행할 수 있다.
이후, 제2전처리단계(S220)에서는, 상기 문장에 대한 상기 제2음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 제2전처리음성데이터를 도출한다. 제2전처리단계(S220)는 상기 도 5에서 설명한 제1전처리단계(S110)와 동일한 방식으로 제2음성데이터에 기초하여 수행될 수 있고, 앞서 설명한 바 구체적인 설명은 생략하도록 한다.
S230단계에서는, 상기 제2음성데이터를 입력받는 단계(S210)에서 제공한 상기 문장에 포함된 상기 2 이상의 단어 및 상기 제2전처리음성데이터에 대한 단어의 일치여부를 판별하여 제2정확도판별정보를 도출한다. 바람직하게는, 상기 제2특성데이터도출부(1120)는, STT(Speech To Text)모듈을 포함하고 S230단계 역시 상기 도 5에서 설명한 S22단계와 동일한 방식으로 제2전처리음성데이터에 기초하여 수행될 수 있고, 앞서 설명한 바 구체적인 설명은 생략하도록 한다.
S240단계에서는, 상기 제2특성데이터도출부(1120)는, 상기 제2전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 도출한다. 상기 제2특성데이터도출부(1120)는, 딥러닝된 인공신경망을 포함할 수 있고, S240단계는 상기 도 6에서 설명한 S23단계와 동일한 방식으로 제2전처리음성데이터에 기초하여 수행될 수 있고, 앞서 설명한 바 구체적인 설명은 생략하도록 한다.
이와 같은 방식으로, 사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트되어 포함된 문장을 시각적으로 제시하고, 사용자로부터 상기 문장에 대해 제2음성데이터를 입력 받아, 제2음성데이터에 대한 상기 제2정확도판별정보 및 제2음성특징정보를 도출한다. 바람직하게는, 판별기초데이터는, 상기 제2정확도판별정보 및 제2음성특징정보를 포함한다. 이후, 서버(1200)의 판별정보도출부(1210)에 의하여 상기 판별기초데이터는 상기 서버(1200)의 판별정보도출부(1210)의 기계학습된 추론모델에 입력되어, 사용자의 치매정도판별정보를 도출하는데 기초가 된다.
도 10은 본 발명의 일 실시예에 따른 제1음성특징정보 및 제2음성특징정보에 기초하여 제1델타음성특징정보를 도출하는 판별정보도출부(1210)의 동작을 설명하기 위한 도면이다.
본 발명의 일 실시예에 따르면, 상기 제1특성데이터는, 상기 2 이상의 단어에 상응하는 구간의 제1음성데이터의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 포함하고, 상기 제2특성데이터는, 상기 문장에 포함된 2 이상의 단어에 상응하는 구간의 제2음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 포함하고, 상기 판별정보도출부(1210)는, 상기 제1음성특징정보 및 상기 제2음성특징정보의 차이에 기초하여 제1델타음성특징정보를 도출하고, 상기 판별기초데이터는 상기 제1델타음성특징정보를 포함한다. 도 10은 상기 도 10의 (a)는 제1음성특징정보를 나타내고, 도 10의 (b)는 제2음성특징정보를 나타낸다. 상기 서버(1200)의 판별정보도출부(1210)는, 상기 제1음성특징정보 및 상기 제2음성특징정보의 차이에 기초하여 제1델타음성특징정보를 도출할 수 있다. 이후, 기계학습된 추론모델에 의하여 상기 제1델타음성특징정보에 기초하여 치매정도판별정보를 도출할 수 있다. 이와 같은 방식으로, 본 발명에서는, 단순히 음성특징정보에 기초하여 치매정도판별정도를 도출할 뿐만 아니라, 사용자가 단어를 말한 음성, 문장을 말한 음성, 추론을 통해 말한 음성의 차이값을 델타음성특징정보로 도출하여 이와 같은 정보가 기계학습된 추론모델에 의하여 치매정도판별정보를 도출함으로써 보다 정확하게 치매정도판별정보를 도출할 수 있는 효과를 발휘할 수 있다.
도 11은 본 발명의 일 실시예에 따른 제3특성데이터도출부(1130)의 동작에 따른 제3판별단계의 수행 단계를 개략적으로 도시하고, 도 12는 본 발명의 일 실시예에 따른 제3특성데이터도출부(1130)에 의하여 제공되는 사용자단말기(1100)에서의 화면을 개략적으로 도시한다.
구체적으로, 상기 사용자단말기(1100)는, 기계학습된 추론모델을 통해 음성데이터로부터 특성데이터를 도출할 수 있는 제1특성데이터도출부(1110), 제2특성데이터도출부(1120) 및 제3특성데이터도출부(1130)를 포함한다. 상기 제3특성데이터도출부(1130)는, 사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 표현이 된 그림이미지 및 상기 2 이상의 단어에 상응하는 부분이 빈칸으로 표시되고, 상기 그림이미지를 표현하는 해석문장을 제시하고, 사용자로부터 상기 2 이상의 단어가 포함된 해석문장에 대한 제3음성데이터를 입력 받고, 상기 제3음성데이터로부터 상기 제3특성데이터를 추출하는 제3판별단계를 수행할 수 있다.
상기 제3판별단계는, 도 11에 도시된 바와 같은 단계들을 포함할 수 있다. 구체적으로, 본 발명의 상기 제3판별단계는, 사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 표현이 된 그림이미지 및 상기 2 이상의 단어에 상응하는 부분이 빈칸으로 표시되고, 상기 그림이미지를 표현하는 해석문장을 제시하는 단계(S41); 상기 2 이상의 단어가 포함된 해석문장에 대한 제3음성데이터를 수신하는 단계(S42);를 수행하는 제3음성데이터를 입력받는 단계(S310); 상기 제3음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 제3전처리음성데이터를 도출하는 제3전처리단계(S320); 저장된 상기 빈칸의 단어 및 상기 제3전처리음성데이터에 대한 단어의 일치여부를 판별하여 제3정확도판별정보를 도출하는 단계(S330); 상기 제3전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제3음성특징정보를 도출하는 단계(S340);를 포함한다.
S41단계에서는, 제3특성데이터도출부(1130)는, 사용자단말기(1100)를 통해 상기 제1판별단계에서의 상기 2 이상의 단어가 표현이 된 그림이미지 및 상기 2 이상의 단어에 상응하는 부분이 빈칸으로 표시되고, 상기 그림이미지를 표현하는 해석문장을 제공한다. 도 12에 도시된 바와 같이, 모자를 쓰고 책상에서 책을 읽는 사람이 표현된 그림이미지가 디스플레이 되고, 그 아래에는 “모자”, “책상”, 및 “책”에 해당하는 부분이 빈칸으로 표시된 문장을 제시할 수 있다.
S42단계에서는, S41단계가 수행된 후 상기, S41단계에서 제공된 문장에 대한 사용자의 제3음성데이터를 수신한다. 앞서 설명한 바와 같이, 치매환자에게 나타날 수 있는 언어장애증상은 다양한 형태로 나타날 수 있기 때문에, 그림을 보고 해당 상황을 추론하고 이를 설명할 수 있는 능력을 판별함으로써, 보다 정확한 치매정도판별정보를 도출할 수 있다. 이와 같이, 상기 제3특성데이터도출부(1130)는, 제3음성데이터를 입력받는 단계(S310)를 수행할 수 있다.
이후, 제3전처리단계(S320)에서는, 상기 제3음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 제3전처리음성데이터를 도출한다. 제3전처리단계(S320)는 상기 도 5에서 설명한 제1전처리단계(S110)와 동일한 방식으로 제3음성데이터에 기초하여 수행될 수 있고, 앞서 설명한 바 구체적인 설명은 생략하도록 한다.
S330단계에서는, 기저장된 상기 빈칸에 정답에 해당하는 단어 및 상기 제3전처리음성데이터에 대한 단어의 일치여부를 판별하여 제3정확도판별정보를 도출한다. 바람직하게는, 상기 제3특성데이터도출부(1130)는, STT(Speech To Text)모듈을 포함하고 S330단계 역시 상기 도 5에서 설명한 S22단계와 동일한 방식으로 제3전처리음성데이터에 기초하여 수행될 수 있고, 앞서 설명한 바 구체적인 설명은 생략하도록 한다.
S340단계에서는, 상기 제3특성데이터도출부(1130)는, 상기 제3전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제3음성특징정보를 도출한다. 상기 제3특성데이터도출부(1130)는, 딥러닝된 인공신경망을 포함할 수 있고, S340단계는 상기 도 6에서 설명한 S23단계와 동일한 방식으로 제3전처리음성데이터에 기초하여 수행될 수 있고, 앞서 설명한 바 구체적인 설명은 생략하도록 한다.
이와 같은 방식으로, 상기 제1판별단계에서의 상기 2 이상의 단어가 표현이 된 그림이미지 및 상기 2 이상의 단어에 상응하는 부분이 빈칸으로 표시되고, 상기 그림이미지를 표현하는 해석문장을 제공하고, 사용자로부터 상기 해석문장에 대해 제3음성데이터를 입력 받아, 제3음성데이터에 대한 상기 제3정확도판별정보 및 제3음성특징정보를 도출한다. 바람직하게는, 판별기초데이터는, 상기 제3정확도판별정보 및 제3음성특징정보를 포함한다. 이후, 서버(1200)의 판별정보도출부(1210)에 의하여 상기 판별기초데이터는 상기 서버(1200)의 판별정보도출부(1210)의 기계학습된 추론모델에 입력되어, 사용자의 치매정도판별정보를 도출하는데 기초가 된다.
도 13은 본 발명의 일 실시예에 따른 제1음성특징정보 및 제3음성특징정보에 기초하여 제1델타음성특징정보를 도출하는 판별정보도출부(1210)의 동작을 설명하기 위한 도면이다.
본 발명의 일 실시예에 따르면, 상기 제1특성데이터는, 상기 2 이상의 단어에 상응하는 구간의 제1음성데이터의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 포함하고, 상기 제3특성데이터는, 상기 문장에 포함된 2 이상의 단어에 상응하는 구간의 제3음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제3음성특징정보를 포함하고, 상기 판별정보도출단계는, 상기 제1음성특징정보 및 상기 제3음성특징정보의 차이에 기초하여 제2델타음성특징정보를 도출하고, 상기 판별기초데이터는 상기 제2델타음성특징정보를 포함한다. 도 13의 (a)는 제1음성특징정보를 나타내고, 도 13의 (b)는 제3음성특징정보를 나타낸다. 상기 서버(1200)는, 상기 제1음성특징정보 및 상기 제3음성특징정보의 차이에 기초하여 제2델타음성특징정보를 도출할 수 있다. 이후, 기계학습된 추론모델에 의하여 상기 제2델타음성특징정보에 기초하여 치매정도판별정보를 도출할 수 있다. 이와 같은 방식으로, 본 발명에서는, 단순히 음성특징정보에 기초하여 치매정도판별정도를 도출할 뿐만 아니라, 사용자가 단어를 말한 음성, 문장을 말한 음성, 추론을 통해 말한 음성의 차이값을 델타음성특징정보로 도출하여 이와 같은 정보가 기계학습된 추론모델에 의하여 치매정도판별정보를 도출함으로써 보다 정확하게 치매정도판별정보를 도출할 수 있는 효과를 발휘할 수 있다.
도 14는 본 발명의 일 실시예에 따른 컴퓨팅장치의 내부 구성을 예시적으로 도시한다.
도 14에 도시한 바와 같이, 컴퓨팅 장치(11000)은 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/Osubsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(11000)는 상기 치매정도 판별 시스템(1000)의 서버(1200) 혹은 사용자단말기(1100)에 해당할 수 있다.
메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(11000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 학습된 임베딩모델에 포함하는 그밖에 다양한 데이터를 포함할 수 있다.
이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다.
주변장치 인터페이스(11300)는 컴퓨팅 장치(11000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(11000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.
입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.
전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.
통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.
또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.
이러한 도 14의 실시예는, 컴퓨팅 장치(11000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 14에 도시된 일부 컴포넌트가 생략되거나, 도 14에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 14에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(11000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 특히, 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (10)

1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅 시스템에서 수행되는 치매정도 판별방법으로서,
사용자에게 2 이상의 단어를 개별적으로 시각적으로 제시하고, 사용자로부터 각각의 단어에 대해 순차적으로 제1음성데이터를 입력 받고, 상기 제1음성데이터로부터 제1특성데이터를 추출하는 제1판별단계;
사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트되어 포함된 문장을 시각적으로 제시하고, 사용자로부터 상기 문장에 대해 제2음성데이터를 입력 받고, 상기 제2음성데이터로부터 제2특성데이터를 추출하는 제2판별단계; 및
상기 제1특성데이터 및 상기 제2특성데이터를 포함한 판별기초데이터를 기계학습된 추론모델에 입력하여, 사용자의 치매정도판별정보를 도출하는 판별정보도출단계;를 포함하고,
상기 제1특성데이터는,
상기 2 이상의 단어에 상응하는 구간의 제1음성데이터의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 포함하고,
상기 제2특성데이터는,
상기 문장에 포함된 2 이상의 단어에 상응하는 구간의 제2음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 포함하고,
상기 판별정보도출단계는,
상기 제1음성특징정보 및 상기 제2음성특징정보의 차이에 기초하여 제1델타음성특징정보를 도출하고, 상기 판별기초데이터는 상기 제1델타음성특징정보를 포함하는, 치매정도 판별방법.
청구항 1에 있어서,
상기 제1판별단계는,
상기 2 이상의 단어 각각에 대하여, 기설정된 시간동안 시각적으로 제공하는 단계; 상기 단어의 시각적 제공을 종료하는 단계; 및 제1음성데이터를 수신하는 단계;를 수행하는 제1음성데이터를 입력받는 단계; 및
상기 2 이상의 단어 각각에 대한 제1음성데이터가 모두 수신된 경우, 혹은 기설정된 시간이 경과한 경우, 수신된 상기 제1음성데이터에 기초하여 상기 제1특성데이터를 추출하는 단계;를 포함하는, 치매정도 판별방법.
청구항 2에 있어서,
상기 제1특성데이터를 추출하는 단계는,
상기 제1음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간 추출하고 노이즈를 제거하여 제1전처리음성데이터를 도출하는 제1전처리단계;
제공한 단어 및 상기 제1전처리음성데이터에 대한 단어의 일치여부를 판별하여 제1정확도판별정보를 도출하는 단계;
상기 제1전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 도출하는 단계; 및
상기 제1전처리음성데이터 구간 사이의 시간간격에 기초하여 제1음성인터벌을 도출하는 단계;를 포함하고,
상기 판별기초데이터는 상기 제1정확도판별정보, 상기 제1음성특징정보, 및 제1음성인터벌을 포함하는, 치매정도 판별방법.
청구항 1에 있어서,
상기 제2판별단계는,
상기 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트되어 포함된 문장을 시각적으로 제공하는 단계; 상기 문장의 시각적 제공을 종료하는 단계; 제2음성데이터를 수신하는 단계;를 수행하는 제2음성데이터를 입력받는 단계;
상기 문장에 대한 제2음성데이터로부터 상기 제1판별단계에서의 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 제2전처리음성데이터를 도출하는 제2전처리단계;
상기 문장에 포함된 상기 2 이상의 단어 및 상기 제2전처리음성데이터에 대한 단어의 일치여부를 판별하여 제2정확도판별정보를 도출하는 단계; 및
상기 제2전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 도출하는 단계;를 포함하고,
상기 판별기초데이터는 상기 제2정확도판별정보, 및 상기 제2음성특징정보를 포함하는, 치매정도 판별방법.
삭제
청구항 1에 있어서,
상기 치매정도 판별방법은,
사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 표현이 된 그림이미지 및 상기 2 이상의 단어에 상응하는 부분이 빈칸으로 표시되고, 상기 그림이미지를 표현하는 해석문장을 제시하고, 사용자로부터 상기 2 이상의 단어 가 포함된 해석문장에 대한 제3음성데이터를 입력 받고, 상기 제3음성데이터로부터 제3특성데이터를 추출하는 제3판별단계;를 더 포함하고,
상기 판별기초데이터는 상기 제3특성데이터를 더 포함하는, 치매정도 판별방법.
청구항 6에 있어서,
상기 제3판별단계는,
상기 제3음성데이터에 기초하여 상기 2 이상의 단어에 상응하는 구간을 추출하고 노이즈를 제거하여 제3전처리음성데이터를 도출하는 제3전처리단계;
기저장된 상기 빈칸의 단어 및 상기 제3전처리음성데이터에 대한 단어의 일치여부를 판별하여 제3정확도판별정보를 도출하는 단계; 및
상기 제3전처리음성데이터에 기초하여 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제3음성특징정보를 도출하는 단계;를 포함하는, 치매정도 판별방법.
청구항 6에 있어서,
상기 제3특성데이터는,
상기 해석문장에 포함된 2 이상의 단어에 상응하는 구간의 제3음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제3음성특징정보를 포함하고,
상기 판별정보도출단계는,
상기 제1음성특징정보, 및 상기 제3음성특징정보의 차이에 기초하여 제2델타음성특징정보를 도출하고, 상기 판별기초데이터는 상기 제2델타음성특징정보를 포함하는, 치매정도 판별방법.
1 이상의 메모리 및 1 이상의 프로세서를 포함하는 컴퓨팅 시스템에서 구현되는 치매정도 판별 시스템으로서,
사용자에게 2 이상의 단어를 개별적으로 시각적으로 제시하고, 사용자로부터 각각의 단어에 대해 순차적으로 제1음성데이터를 입력 받고, 상기 제1음성데이터로부터 제1특성데이터를 추출하는 제1특성데이터추출부;
사용자에게 상기 제1특성데이터추출부에 의하여 제시된 상기 2 이상의 단어가 하이라이트된 문장을 시각적으로 제시하고, 사용자로부터 상기 문장에 대해 제2음성데이터를 입력 받고, 상기 제2음성데이터로부터 제2특성데이터를 추출하는 제2특성데이터추출부; 및
상기 제1특성데이터 및 상기 제2특성데이터를 포함한 판별기초데이터를 기계학습된 추론모델에 입력하여, 사용자의 치매정도판별정보를 도출하는 판별정보도출부;를 포함하고,
상기 제1특성데이터는,
상기 2 이상의 단어에 상응하는 구간의 제1음성데이터의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 포함하고,
상기 제2특성데이터는,
상기 문장에 포함된 2 이상의 단어에 상응하는 구간의 제2음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 포함하고,
상기 판별정보도출부는,
상기 제1음성특징정보 및 상기 제2음성특징정보의 차이에 기초하여 제1델타음성특징정보를 도출하고, 상기 판별기초데이터는 상기 제1델타음성특징정보를 포함하는, 치매정도 판별 시스템.
치매정도 판별방법을 구현하기 위한 컴퓨터-판독가능 매체로서, 상기 컴퓨터-판독가능 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며,
상기 단계들은:
사용자에게 2 이상의 단어를 개별적으로 시각적으로 제시하고, 사용자로부터 각각의 단어에 대해 순차적으로 제1음성데이터를 입력 받고, 상기 제1음성데이터로부터 제1특성데이터를 추출하는 제1판별단계;
사용자에게 상기 제1판별단계에서의 상기 2 이상의 단어가 하이라이트된 문장을 시각적으로 제시하고, 사용자로부터 상기 문장에 대해 제2음성데이터를 입력 받고, 상기 제2음성데이터로부터 제2특성데이터를 추출하는 제2판별단계; 및
상기 제1특성데이터 및 상기 제2특성데이터를 포함한 판별기초데이터를 기계학습된 추론모델에 입력하여, 사용자의 치매정도판별정보를 도출하는 판별정보도출단계;를 포함하고,
상기 제1특성데이터는,
상기 2 이상의 단어에 상응하는 구간의 제1음성데이터의 세기, 속도, 및 강세 중 1 이상을 포함하는 제1음성특징정보를 포함하고,
상기 제2특성데이터는,
상기 문장에 포함된 2 이상의 단어에 상응하는 구간의 제2음성데이터의 음성의 세기, 속도, 및 강세 중 1 이상을 포함하는 제2음성특징정보를 포함하고,
상기 판별정보도출단계는,
상기 제1음성특징정보 및 상기 제2음성특징정보의 차이에 기초하여 제1델타음성특징정보를 도출하고, 상기 판별기초데이터는 상기 제1델타음성특징정보를 포함하는, 컴퓨터-판독가능 매체.

KR1020200044594A 2020-04-13 2020-04-13 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체 KR102161638B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200044594A KR102161638B1 (ko) 2020-04-13 2020-04-13 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200044594A KR102161638B1 (ko) 2020-04-13 2020-04-13 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체

Publications (1)

Publication Number Publication Date
KR102161638B1 true KR102161638B1 (ko) 2020-10-06

Family

ID=72826287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200044594A KR102161638B1 (ko) 2020-04-13 2020-04-13 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체

Country Status (1)

Country Link
KR (1) KR102161638B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102376543B1 (ko) * 2021-08-09 2022-03-22 주식회사 이모코그 통신수단을 이용한 치매 진단 방법
KR102376540B1 (ko) * 2021-08-09 2022-03-22 주식회사 이모코그 스토리 기반 음성 추출을 이용한 치매 진단 시스템
KR102376541B1 (ko) * 2021-08-09 2022-03-22 주식회사 이모코그 스토리 기반 음성 추출을 이용한 치매 진단 방법
KR102376542B1 (ko) * 2021-08-09 2022-03-22 주식회사 이모코그 통신수단을 이용한 치매 진단 시스템
WO2022092443A1 (ko) * 2020-10-26 2022-05-05 주식회사 알파코 통합감각자극 쿠션형 치매예방 인공지능 스피커
KR102472910B1 (ko) * 2022-08-05 2022-12-02 주식회사 실비아헬스 인지 장애와 연관된 정보를 제공하는 방법 및 장치
KR20230151197A (ko) 2022-04-25 2023-11-01 그래이스 정은 신 음성 데이터를 이용한 ai 기반의 질병 진단 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6337362B1 (ja) * 2017-11-02 2018-06-06 パナソニックIpマネジメント株式会社 認知機能評価装置、及び、認知機能評価システム
KR20190081626A (ko) 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6337362B1 (ja) * 2017-11-02 2018-06-06 パナソニックIpマネジメント株式会社 認知機能評価装置、及び、認知機能評価システム
KR20190081626A (ko) 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092443A1 (ko) * 2020-10-26 2022-05-05 주식회사 알파코 통합감각자극 쿠션형 치매예방 인공지능 스피커
KR102376543B1 (ko) * 2021-08-09 2022-03-22 주식회사 이모코그 통신수단을 이용한 치매 진단 방법
KR102376540B1 (ko) * 2021-08-09 2022-03-22 주식회사 이모코그 스토리 기반 음성 추출을 이용한 치매 진단 시스템
KR102376541B1 (ko) * 2021-08-09 2022-03-22 주식회사 이모코그 스토리 기반 음성 추출을 이용한 치매 진단 방법
KR102376542B1 (ko) * 2021-08-09 2022-03-22 주식회사 이모코그 통신수단을 이용한 치매 진단 시스템
KR20230151197A (ko) 2022-04-25 2023-11-01 그래이스 정은 신 음성 데이터를 이용한 ai 기반의 질병 진단 방법 및 장치
KR102472910B1 (ko) * 2022-08-05 2022-12-02 주식회사 실비아헬스 인지 장애와 연관된 정보를 제공하는 방법 및 장치
WO2024029799A1 (ko) * 2022-08-05 2024-02-08 주식회사 실비아헬스 인지 장애와 연관된 정보를 제공하는 방법 및 장치

Similar Documents

Publication Publication Date Title
KR102161638B1 (ko) 기계학습 모델을 이용한 음성인식 기술에 기반한 치매정도 판별방법, 시스템, 및 컴퓨터-판독가능매체
US11545173B2 (en) Automatic speech-based longitudinal emotion and mood recognition for mental health treatment
Mirheidari et al. Dementia detection using automatic analysis of conversations
Narayanan et al. Behavioral signal processing: Deriving human behavioral informatics from speech and language
US11881221B2 (en) Health monitoring system and appliance
McKechnie et al. Automated speech analysis tools for children’s speech production: A systematic literature review
Sultana et al. SUST Bangla Emotional Speech Corpus (SUBESCO): An audio-only emotional speech corpus for Bangla
Bakhtiar et al. Lexico-semantic effects on word naming in Persian: Does age of acquisition have an effect?
Chandler et al. Machine learning for ambulatory applications of neuropsychological testing
US11114113B2 (en) Multilingual system for early detection of neurodegenerative and psychiatric disorders
WO2019146753A1 (ja) 脳活動を利用した語学能力評価装置、及び語学能力評価システム
KR20220128976A (ko) 말 장애 평가 장치, 방법 및 프로그램
Tasnim et al. Depac: a corpus for depression and anxiety detection from speech
Wiegersma et al. Recognizing hotspots in Brief Eclectic Psychotherapy for PTSD by text and audio mining
Krueger et al. The influence of misarticulations on children's word identification and processing
Ambrazaitis Nuclear intonation in Swedish: Evidence from experimental-phonetic studies and a comparison with German
Teferra et al. Predicting generalized anxiety disorder from impromptu speech transcripts using context-aware transformer-based neural networks: model evaluation study
Lee et al. An engineering view on emotions and speech: From analysis and predictive models to responsible human-centered applications
EP3809411A1 (en) Multi-lingual system for early detection of alzheimer's disease
Nixon et al. Acoustic cue variability affects eye movement behaviour during non-native speech perception: a GAMM model.
Jo et al. Diagnosis of depression based on four-stream model of bi-LSTM and CNN from audio and text information
Clark et al. Evidence-based multifactorial assessment of preschool-age children who stutter
McTear et al. Affective conversational interfaces
CN114913974A (zh) 一种谵妄评估方法、装置、电子设备及存储介质
Mrozek et al. Comparison of Speech Recognition and Natural Language Understanding Frameworks for Detection of Dangers with Smart Wearables

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant