KR20220007275A - 음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법 - Google Patents

음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법 Download PDF

Info

Publication number
KR20220007275A
KR20220007275A KR1020200085300A KR20200085300A KR20220007275A KR 20220007275 A KR20220007275 A KR 20220007275A KR 1020200085300 A KR1020200085300 A KR 1020200085300A KR 20200085300 A KR20200085300 A KR 20200085300A KR 20220007275 A KR20220007275 A KR 20220007275A
Authority
KR
South Korea
Prior art keywords
patient
information
mood
emotional state
diagnosing
Prior art date
Application number
KR1020200085300A
Other languages
English (en)
Other versions
KR102533467B1 (ko
Inventor
이건석
김석현
조정기
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020200085300A priority Critical patent/KR102533467B1/ko
Publication of KR20220007275A publication Critical patent/KR20220007275A/ko
Application granted granted Critical
Publication of KR102533467B1 publication Critical patent/KR102533467B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법이 개시된다. 일 실시예에 따른 기분삽화 진단을 위한 정보 제공 방법은, 환자의 정서 상태 데이터를 이용하여 기분삽화 진단을 위한 진단 모델을 학습시키는 단계; 환자의 기분삽화 진단을 위하여 제공된 문구 정보의 낭독을 통해 음성 데이터를 획득하는 단계; 상기 기분삽화 진단을 위하여 학습된 진단 모델에 상기 획득된 음성 데이터를 입력하여 환자의 현재 정서 상태를 판단하는 단계; 및 상기 판단된 환자의 현재 감정 상태에 기초하여 환자의 기분삽화를 진단하는 단계를 포함할 수 있다.

Description

음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법{INFORMATION PROVISION METHOD FOR DIAGNOSING MOOD EPISODE(DEPRESSIVE, MANIC) USING ANALYSIS OF VOICE ACTIVITY}
아래의 설명은 정서 평가 기술에 관한 것으로, 양극성 장애 환자로부터 지속적인 음성낭독 기록을 통해 정서 상태를 측정하고 일자별 종합하여 기분 상태의 확인, 기분삽화의 발생 또는 악화 여부에 대해 확인하는 방법 및 시스템에 관한 것이다.
양극성 장애는 서로 다른 극성의 우울과 조증 삽화가 경한 수준에서부터 심한 수준까지 다양한 형태와 빈도로 반복되어 나타나는 질환이다. 양극성 장애 환자들을 장기간 추적 관찰한 연구에 의하면 환자들은 전체 관찰기간의 절반 정도에서 기분 증상을 경험한다고 한다. 다양한 양극성 장애의 경과를 체계적이고 정확하게 파악하기 위해서는 기분 증상들을 연속적으로 평가하는 것이 중요하다.
환자의 기분 증상을 평가하기 위하여 흔히 사용되는 방법으로는 면담과 척도(설문지)를 이용한 평가방법이 있다. 하지만, 이러한 도구들은 환자의 상태 변화를 연속적으로 평가하기에는 적합하지 않다. 특히, 기분 변동이 급작스럽게 발생하는 경우에는 이를 적절하게 반영하기 어렵다. 따라서, 기분 증상 평가도구의 한계를 보완하고 다양하게 변화하는 기분 증상을 잘 기록하고 평가하기 위한 목적으로 기분기록지가 도입되었다. 하지만, 이 역시 환자의 주관적 정서를 기록하는 방법으로 조증 상태에 있는 환자들은 동반된 기능장애를 없는 것으로 평가하는 경향이 있고, 일자별 기록에 따른 불편함, 주관적 지표의 결여 등이 제한점으로 제시되고 있다.
이에, 음성 분석 기술을 이용하여 기분삽화 증상의 평가하고, 이를 종합하여 기분삽화의 정서상태 및 진단에까지 이를 수 있는 도구가 개발될 필요가 있다.
환자의 음성활동 평가를 이용한 기분삽화를 진단하는 방법 및 시스템을 제공할 수 있다.
환자로부터 지속적인 음성 기록을 획득하여 정서 상태를 측정하고 종합하여 기분 상태의 확인, 기분 삽화의 발생 또는 악화 여부에 대하여 확인하는 방법 및 시스템을 설명하기로 한다.
기분삽화 진단을 위한 정보 제공 방법은, 환자의 정서 상태 데이터를 이용하여 기분삽화 진단을 위한 진단 모델을 학습시키는 단계; 환자의 기분삽화 진단을 위하여 제공된 문구 정보의 낭독을 통해 음성 데이터를 획득하는 단계; 기분삽화 진단을 위하여 학습된 진단 모델에 상기 획득된 음성 데이터를 입력하여 환자의 현재 정서 상태를 판단하는 단계; 및 상기 판단된 환자의 현재 감정 상태에 기초하여 환자의 기분삽화를 진단하는 단계를 포함할 수 있다.
상기 문구 정보는, 환자의 기분삽화 진단을 위하여 환자로부터 따라 읽도록 하기 위한 텍스트로 구성된 표준 문구를 의미하고, 상기 획득하는 단계는, 환자의 기분삽화 진단의 서비스 실행을 위한 푸시를 통해 표준 문구를 제공하고, 상기 제공된 표준 문구에 대한 낭독을 통해 입력되는 환자의 음성 데이터를 획득하는 단계를 포함할 수 있다.
상기 획득하는 단계는, 상기 푸시에 설정된 주기마다 환자로부터 입력된 음성 데이터, 설문 정보, 수면 정보 또는 활동량 정보를 포함하는 현재 감정 데이터를 획득하는 단계를 포함하고, 상기 현재 정서 상태를 판단하는 단계는, 상기 학습된 진단 모델에 상기 획득된 현재 감정 데이터를 입력하여 환자의 현재 정서 상태 정보를 기 설정된 단계의 정서 상태로 구분하는 단계를 포함할 수 있다.
상기 현재 정서 상태를 판단하는 단계는, 상기 음성 데이터로부터 추출된 톤, 발화 속도, 발화 크기, 리듬, 피치, 실수 정보를 포함하는 복수 개의 특징 정보의 변화 유무를 통해 환자의 현재 정서 상태 정보를 판단하는 단계를 포함할 수 있다.
상기 환자의 기분삽화를 진단하는 단계는, 기 설정된 기간 동안의 판단된 현재 감정 상태에 기초하여 기분삽화 여부를 확인하고, 상기 진단된 기분삽화가 기 설정된 기간 이상 지속될 경우, 경고 메시지를 전달하고, 상기 전달된 경고 메시지를 통하여 진료를 권유하는 단계를 포함할 수 있다.
상기 환자의 기분삽화를 진단하는 단계는, 상기 판단된 현재 감정 상태가 4일 이상 경조상태일 경우, 경조 삽화, 5일 이상 조증 상태일 경우, 조증 삽화, 14일 이상 기분저하 상태일 경우, 우울 삽화로 진단하는 단계를 포함할 수 있다.
상기 학습시키는 단계는, 전자 기기를 이용하여 문구 정보의 낭독을 통하여 획득된 환자의 음성 데이터를 인식하고, 상기 인식된 환자의 음성 데이터와 환자의 정서 상태에 대한 설문 정보를 포함하는 환자의 정서 상태 데이터를 이용하여 진단 모델을 학습시키는 단계를 포함할 수 있다.
전산화된 정서 기록을 통하여 양극성 장애 재발을 방지하고 환자의 삶의 질을 향상시킬 수 있다.
스마트 기기를 이용한 정서 기록을 통하여 객관화된 정서 상태를 획득, 평가 및 치료 기술 향상에 기여할 수 있다.
도 1은 일 실시예에 따른 정보 제공 시스템에서 음성활동 평가를 이용한 기분삽화 조기 진단을 위한 개괄적인 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 정보 제공 시스템의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 정보 제공 시스템에서 음성활동 평가를 이용한 기분삽화 조기 진단을 위한 정보 제공 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 따른 정보 제공 시스템에서 문구 정보를 제공하는 것을 설명하기 위한 예이다.
도 5는 일 실시예에 따른 정보 제공 시스템에서 설문 정보를 제공하는 것을 설명하기 위한 예이다.
도 6은 일 실시예에 따른 정보 제공 시스템에서 기분삽화를 진단한 것을 설명하기 위한 예이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
실시예에서는 환자(예를 들면, 양극성장애 환자, 주요우울장애 환자) 개별의 기본 정서 상태 정보를 먼저 학습해두고, 학습된 기본 정서 상태 정보에 기초하여 음성활동 평가를 이용하여 환자 맞춤형 정서 상태(기분삽화)를 판단하는 방법 및 시스템을 설명하기로 한다.
도 1은 일 실시예에 따른 정보 제공 시스템에서 음성활동 평가를 이용한 기분삽화 조기 진단을 위한 개괄적인 동작을 설명하기 위한 도면이다.
정보 제공 시스템(100)은 전자 기기 내에서 기분삽화 진단을 위한 플랫폼 형태로 동작되거나, 어플리케이션 형태로 동작될 수 있다. 예를 들면, 전자 기기는 컴퓨터 시스템으로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 전자 기기의 예를 들면, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등이 있다.
정보 제공 시스템(100)은 환자의 정서 상태 데이터를 이용하여 기분삽화 진단을 위한 진단 모델을 학습시킬 수 있다. 예를 들면, 동일한 상황 또는 평소에 대하여 환자마다 각각 느끼는 감정 상태가 다를 수 있으며, 동일한 감정일지라도 각각의 성향, 어투 등에 따라 음성 데이터가 다를 수 있다. 정보 제공 시스템(100)은 사전에 환자 개별의 기본 정서 상태 정보를 먼저 학습해놓을 수 있다. 예를 들면, 기 설정된 기간 동안(예를 들면, 1달)의 환자의 기본 정서 상태를 학습해놓을 수 있다. 기본 정서 상태 정보란, 환자의 평상시/보통의 정서 상태를 의미할 수 있다.
정보 제공 시스템(100)은 전자 기기를 이용하여 제공된 문구 정보가 낭독됨에 따라 환자의 음성 데이터를 인식하고, 인식된 환자의 음성 데이터를 이용하여 진단 모델을 학습시킬 수 있다. 이때, 음성 데이터를 진단 모델에 학습시키기 전에 전처리 과정이 수행될 수 있다. 예를 들면, 전처리 과정은 음성 데이터에 잡음이 포함되어 있을 수 있기 때문에 잡음을 제거하거나, 음성 데이터를 이용하여 보다 정확하게 진단하기 위하여 특정 주파수 대역으로 변환하거나, FFT(Fast fourier transform) 등의 특정 처리 과정을 의미할 수 있다. 또한, 인식된 환자의 음성 데이터와 환자의 정서 상태에 대한 설문 정보를 포함하는 환자의 정서 상태 데이터를 이용하여 진단 모델을 학습시킬 수 있다. 예를 들면, 전자 기기에 구성된 스피커를 통하여 문구 정보가 안내될 수 있고, 안내되는 문구 정보가 환자로부터 전자 기기에 구성된 마이크를 이용하여 낭독될 수 있다. 이때, 문구 정보는 스피커를 통하여 음성으로 안내될 뿐만 아니라, 동시에 디스플레이를 통하여 문구 정보가 텍스트로 표시될 수 있다. 일례로, 정보 제공 시스템(100)은 전자 기기를 통해 제공된 문구 정보를 이용하여 낭독된 음성 데이터를 구성하는 적어도 하나 이상의 신호 특징을 추출할 수 있다. 예를 들면, 정보 제공 시스템(100)은 음성 데이터로부터 톤, 발화 속도, 발화 크기, 리듬, 피치, 실수 정보 등의 신호 특징을 추출하고, 추출된 신호 특징을 이용하여 진단 모델을 학습시킬 수 있다. 정보 제공 시스템(100)은 낭독을 통해 환자의 기본 음성 데이터를 인식할 수 있다. 또한, 정보 제공 시스템(100)은 환자의 기본 상태 정보를 판단하기 위하여 정서 상태에 대한 설문 정보(기분기록지 포함)를 제공할 수 있다. 환자는 설문 정보에 응답함으로써 환자 정서의 주관적인 정보가 입력될 수 있다. 정보 제공 시스템은 설문 정보에 대한 응답을 진단 모델을 학습시킬 수 있다. 진단 모델은 기 설정된 크기를 갖는 음성 데이터를 입력으로 하고, 진단 결과를 출력으로 하는 컨볼루션 신경망 기반의 레이어로 구성될 수 있다. 이때, 진단 모델은 음성 이외의 다른 복수의 데이터(예를 들면, 이미지, 생체 신호 등)를 입력으로 받을 수도 있다. 예를 들면, 음성 데이터가 진단 모델에 구성된 컨볼루션 뉴럴 네트워크에 입력됨에 따라 각 음성 데이터의 신호 특징이 추출되고, 추출된 신호 특징 값에 기초하여 환자의 음성 데이터에 따른 감정이 분류될 추정값이 산출될 수 있다. 이외에도, 진단 모델은 LSTM, RNN 등 다양한 형태로 구성될 수 있다.
정보 제공 시스템(100)은 전자 기기에게 기분삽화 진단을 위한 푸시를 발생시킬 수 있다. 이때, 정보 제공 시스템은 특정 동안에 기 설정 횟수만큼 기분삽화 진단을 위한 환자 정보를 획득하기 위하여 주기적으로 푸시를 발생시킬 수 있다. 정보 제공 시스템(100)은 환자의 기분삽화 진단을 위한 서비스 실행을 위한 푸시를 통해 표준 문구를 제공할 수 있다. 예를 들면, 하루에 3번 주기적으로 기 설정된 시각에 푸시를 발생시킬 수 있다. 또한, 환자가 푸시를 확인하여 기분삽화 진단을 위한 서비스를 실행할 때까지 기 설정된 시간 동안 알림을 통보할 수도 있다. 환자는 전자 기기에 발생된 푸시를 통하여 기분삽화 진단을 위한 서비스를 선택함에 따라 기분삽화 진단 서비스가 실행시킬 수 있다. 또는, 정보 제공 시스템은 환자의 기분삽화 진단을 위한 푸시를 발생시킴에 따라 자동으로 기분삽화 진단을 위한 서비스를 실행시킬 수 있다. 이에, 환자는 기분삽화 진단을 실시할 수 있다.
도 4를 참고하면, 정보 제공 시스템은 전자 기기를 통해 문구 정보를 제공할 수 있다. 이때, 문구 정보는 환자의 기분삽화 진단을 위하여 환자로부터 따라 읽도록 하기 위한 텍스트로 구성된 표준 문구를 의미한다. 예를 들면, 표준 문구는 모든 환자에게 동일하게 제공되는 텍스트 데이터일 수 있으며, 표준 문구의 낭독을 통해 환자 개인의 기분상태의 변화를 판단하기 위한 것일 수 있다. 이러한, 표준 문구는 기 설정된 기간 동안 사용된 후, 다른 문구로 변경될 수 있다.
일례로, 정보 제공 시스템은 전자 기기를 통하여 표준 문구를 텍스트로 표시할 수 있고, 음성으로 안내할 수 있다. 조증삽화와 우울삽화에 대한 설명문이 표준 문구로 개시될 수 있다. 이러한, 설명문은 주기적으로(예를 들면, 주 1회) 환자에 의해 반복적으로 낭독될 수 있다. 예를 들면, 설명문은 각 문장씩 음성 데이터/텍스트 데이터로 안내될 수 있으며, 환자는 각 문장을 따라 읽을 수 있다. <양극성 장애의 특징은 조증과 우울증이 번갈아가며 혹은 동시에 나타나는 것으로, 조증 시기에는 비정상적인 흥분, 고양, 불안, 불면, 과대망상 등의 증세가 나타나며 우울 시기에는 비정상적인 우울감, 무기력, 자책감, 수면장애, 피해망상 등이 나타납니다. 조증삽화는 조증의 증상이 나타나 비정상적인 기분의 고양과 함께 흥분, 충동, 불안, 과대망상 등이 나타나며, 경우에 따라 환청 등의 정신증적 증상을 겪기도 한다. 감정의 극단적 고양이 특징으로, 환자는 수면시간이 크게 줄어듦에도 별다른 피로를 느끼지 못하는 수면이상을 겪는 경우가 많고, 사고가 빨라져 가만히 있지 못하고 횡설수설 말하기도 합니다. 갑자기 집단에서 뛰쳐 나가거나 상황에 어울리지 않는 옷과 장신구를 걸치는 등 충동적 일탈을 저지르기도 하며, 이에 따라 도박이나 성적 행위 등 위험이 수반되는 행위에 중독되기도 합니다. 이 시기에는 과대한 계획을 세우고 이에 몰두하여 자신만만해지는데, 이때 자신이 유명인이 되거나 신적인 존재가 되는 등의 과대망상을 하기도 합니다. 그러나 자신의 계획이 흐트러지거나 좌절될 경우 신경질적으로 행동하여 사소한 것에 분노를 표출하고 폭력을 휘두르거나 자해할 수도 있습니다. 우울증 삽화는 우울증 증세를 겪음에 따라 지속적이고 극심한 우울감, 이유 없는 불안함과 초조함, 무기력, 절망감 등을 겪습니다. 조증의 과장된 미래 설계와는 반대로 미래를 부정적으로 여기고 행동하게 됩니다. 걱정과 불안이 많아지며 매사에 자신이 없고 조그만 일에도 지치고 절망합니다. 자기 비하가 심해지며, 이에 따라 죽고 싶은 생각이 들기도 합니다. 이 시기에는 조증과는 반대로 사고가 느려지고 주의력이 흐트러져 작업에 집중하지 못하며, 타인과의 소통에 관심이 없어지고 모든 것에 흥미를 느끼지 못하는데 이러한 현상은 타인으로부터의 소외로 이어집니다. 대부분 수면장애를 호소하는데, 수면이 크게 늘어나기도, 줄어들기도 합니다. 그 외에도 우울감은 신체 증상으로 느껴지기도 하는데 사람에 따라 두통, 소화불량, 근육통, 수면이나 식욕 이상 등을 호소합니다.>라는 설명문이 환자로부터 낭독됨에 따라 정보 제공 시스템은 환자의 음성 데이터를 획득할 수 있다. 이때, 환자로부터 각 문장이 낭독될 때마다 음성 데이터가 실시간으로 녹음될 수 있고, 또는, 모든 문장의 낭독이 완료되면 음성 데이터가 저장될 수 있다. 이와 같이, 조증삽화와 우울삽화에 대한 설명문을 낭독하도록 함으로써 환자의 증상을 피드백해줄 수 있다.
또한, 환자의 음성 데이터 이외에도 정보 제공 시스템(100)은 푸시에 설정된 주기마다 설문 정보, 수면 정보, 또는, 활동량 정보를 포함하는 현재 감정 데이터를 획득할 수 있다. 도 5를 참고하면, 정보 제공 시스템(100)은 환자의 현재 기분 상태를 질의하는 설문 정보를 제공할 수 있다. 환자는 전자 기기에 제공된 설문 정보에 대한 응답 정보(답변)을 입력할 수 있다. 정보 제공 시스템은 환자 정서의 주관적 평가 정보를 입력받을 수 있다. 예를 들면, 설문 정보는 환자가 각 질문에 대하여 기 설정된 범위(예를 들면, 0부터 10 사이)의 점수를 입력할 수 있도록 구성될 수 있다. 또한, 정보 제공 시스템은 전자 기기의 움직임 및 앱 사용 빈도 등을 통하여 환자의 활동량 데이터를 획득할 수 있다. 또한, 정보 제공 시스템은 수면의 질을 자가 보고식으로 평가하도록 할 수 있다. 예를 들면, 환자는 환자의 수면의 질을 1점(잘 못잠) 내지 10점(잘 잠) 사이의 점수를 매길 수 있다.
정보 제공 시스템(100)은 학습된 진단 모델에 획득된 현재 감정 데이터를 입력하여 환자의 현재 정서 상태 정보를 분석할 수 있다. 정보 제공 시스템(100)은 학습된 진단 모델에 획득된 현재 감정 데이터에 입력하여 환자의 현재 정서 상태 정보를 기 설정된 단계의 정서 상태로 구분할 수 있다. 예를 들면, 정보제공 시스템은 환자의 현재 정서 상태 정보를 조증, 경조, 기본, 기분저하, 우울 등의 5단계의 정서 상태로 분류할 수 있다. 정보 제공 시스템(100)은 환자 개별의 기본 정서 상태를 기준으로 환자의 현재 정서 상태 정보를 판단할 수 있다.
구체적으로, 정보 제공 시스템(100)은 학습된 진단 모델에 음성 데이터, 설문 정보, 수면 정보, 또는, 활동량 정보를 포함하는 현재 감정 데이터를 입력할 수 있다. 정보 제공 시스템은 학습된 진단 모델을 이용하여 현재 감정 데이터에 대한 환자의 정서 상태를 판단할 수 있다. 정보 제공 시스템(100)은 음성 데이터로부터 톤, 발화 속도, 발화 크기, 리듬, 피치, 실수 정보를 포함하는 복수 개의 특징 정보의 변화를 이용하여 환자의 현재 정서 상태 정보를 판단할 수 있다. 예를 들면, 환자의 음성 데이터에 대한 평소의 음성활동 평가 기록이 존재할 수 있다. 환자에 대한 평소의 톤 정보, 발화 속도 정보, 발화 크기 정보, 리듬 정보, 피치 정보, 실수 정보 등의 음성활동 평가 기록이 저장되어 있을 수 있다. 이에, 음성활동 평가 기록에 기초하여 환자에 대한 현재의 음성 데이터에서 목소리의 크기와 속도가 빨라지는 것으로 판단될 경우, 조증으로 유추할 수 있고, 목소리의 크기와 속도가 느려질 경우, 우울증으로 유추할 수 있다. 정보 제공 시스템은 특징 정보의 변화에 따라 정서 상태의 변화 유무를 판단할 수 있다. 다시 말해서, 정보 제공 시스템은 감정 데이터의 변화를 통해 현재 정서 상태를 판단할 수 있다.
정보 제공 시스템(100)은 우울 삽화 및 조증 삽화를 포함하는 기분 삽화를 판단하기 위한 진단 기준을 저장하고 있을 수 있다. 예를 들면, 정보 제공 시스템은 거의 매일 나타나는 정신운동 초조나 지연, 거의 매일 나타나는 피로나 활력의 상실 등에 따라 우울 삽화로 진단할 수 있다. 또한, 정보 제공 시스템(100)은 평소보다 말이 많아지거나 끊기 어려울 정도로 계속 말을 하거나, 사고의 비약 또는 사고가 질주하듯 빠른 속도로 꼬리를 무는 듯한 주관적인 경험, 주관적으로 보고하거나 객관적으로 관찰되는 주의산만(예를 들면, 중요하지 않거나 관계없는 외적 자극에 너무나 쉽게 주의가 분산됨) 등에 따라 조증 삽화로 진단할 수 있다. 이때, 정보 제공 시스템(100)은 각각의 진단 기준에 따른 환자의 현재 정서 상태 정보의 변화를 판단할 수도 있다.
정보 제공 시스템(100)은 판단된 환자의 현재 감정 상태에 기초하여 환자의 기분삽화를 진단할 수 있다. 또한, 정보 제공 시스템(100)에서 판단된 현재 정서 상태와 의사의 의견을 반영하여 환자의 기분삽화를 진단할 수 있다. 이때, 기분 삽화란 지나치게 저조하거나 고양된 기분 상태가 지속되어 현실생활의 적응에 심각한 어려움을 겪는 정신장애를 의미한다. 뇌의 기분을 조절하는 부위에 이상이 생겨 발생하는 증상이다. 우울증, 경조증, 조증, 혼재성 조증, 주요우울장애, 기분부전장애, 미분류형 우울장애, 제1형 양극성 장애, 제2형 양극성 장애, 순환성 장애 등이 이에 속하며, 기분상태에 따라 크게 우울삽화, 조증삽화, 혼재성삽화 등으로 나눌 수 있다. 정보 제공 시스템(100)은 분석된 현재 감정 상태를 종합하여 기분삽화 여부를 확인할 수 있다.
도 6을 참고하면, 기분삽화를 진단한 예이다. 정보 제공 시스템(100)은 기 설정된 기간 동안의 판단된 현재 감정 상태에 기초하여 기분삽화 여부를 확인하고, 진단된 기분삽화가 기 설정된 기간 이상 지속될 경우, 경고 메시지를 전달하고, 전달된 경고 메시지를 통하여 진료를 권유할 수 있다. 정보 제공 시스템(100)은 하루 종일 일치된 정서 상태를 기준으로 기분삽화 여부를 확인할 수 있다. 정보 제공 시스템(100)은 판단된 현재 감정 상태가 4일 이상 경조상태일 경우, 경조 삽화, 5일 이상 조증상태일 경우, 조증삽화, 2주 이상 기분저하 상태일 경우, 우울삽화로 진단할 수 있다. 정보 제공 시스템(100)은 외래 통원기간 중 병원을 내원하지 않은 기간 동안 기분삽화 진단을 위한 평가를 수행할 수 있다. 환자는 기분삽화 진단을 수행할 결과를 통하여 환자의 현재 상태를 확인할 수 있게 된다. 또한, 의사는 환자가 병원을 내원하지 않는 기간 동안 평가된 기분삽화 진단 결과를 통해 환자의 상태를 확인할 수 있다. 정보 제공 시스템(100)은 환자의 현재 감정 상태 상 기분삽화에 해당되고 수면의 변화(증가 또는 감소)가 보고될 경우, 병원 진료를 권고할 수 있다. 예를 들면, 정보 제공 시스템(100)은 경고 메시지에 환자의 담당 의사 또는 의료 기관에 연락할 수 있는 기능을 제공할 수 있다. 환자는 경고 메시지에 표시된 담당 의사 또는 의료 기관을 선택할 수 있고, 선택된 담당 의사 또는 의료 기관으로 연락이 연결될 수 있다. 또한, 연락이 연결됨에 따라 담당 의사 또는 의료 기관으로 축적된 환자 데이터가 전달될 수 있다. 정보 제공 시스템(100)은 음성 인식의 기록을 통해 정서 상태를 측정하고 일자별 종합하여 기분 상태의 확인, 기분삽화의 발생 또는 악화 여부를 진단 정보로 제공할 수 있다.
일 실시예에 따른 정보 제공 시스템은 음성 데이터 중 발화 크기, 속도 등의 변화를 판단함에 있어서, 개인간의 편차가 존재하는 부분이기 때문에, 환자를 대상으로 사전에 개인 내 변산성(variability)을 이용한 삽화 재발의 확인이 가능하다.
도 2는 일 실시예에 따른 정보 제공 시스템의 구성을 설명하기 위한 블록도이고, 도 3은 일 실시예에 따른 정보 제공 시스템에서 음성활동 평가를 이용한 기분삽화 조기 진단을 위한 정보 제공 방법을 설명하기 위한 흐름도이다.
정보 제공 시스템(100)의 프로세서는 모델 학습부(210), 음성 획득부(220), 정서 상태 판단부(230) 및 기분삽화 진단부(240)를 포함할 수 있다. 이러한 프로세서의 구성요소들은 정보 제공 시스템에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서 및 프로세서의 구성요소들은 도 3의 음성활동 평가를 이용한 기분삽화 조기 진단을 위한 정보 제공 방법이 포함하는 단계들(310 내지 340)을 수행하도록 정보 제공 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
프로세서는 음성활동 평가를 이용한 기분삽화 조기 진단을 위한 정보 제공 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 정보 제공 시스템에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 정보 제공 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서가 포함하는 모델 학습부(210), 음성 획득부(220), 정서 상태 판단부(230) 및 기분삽화 진단부(240) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(310 내지 340)을 실행하기 위한 프로세서의 서로 다른 기능적 표현들일 수 있다.
단계(310)에서 모델 학습부(210)는 환자의 정서 상태 데이터를 이용하여 기분삽화 진단을 위한 진단 모델을 학습시킬 수 있다. 모델 학습부(210)는 전자 기기를 이용하여 문구 정보의 낭독을 통하여 획득된 환자의 음성 데이터를 인식하고, 인식된 환자의 음성 데이터와 환자의 정서 상태에 대한 설문 정보를 포함하는 환자의 정서 상태 데이터를 이용하여 진단 모델을 학습시킬 수 있다.
단계(320)에서 음성 획득부(220)는 환자의 기분삽화 진단을 위하여 제공된 문구 정보의 낭독을 통해 음성 데이터를 획득할 수 있다. 음성 획득부(220)는 환자의 기분삽화 진단의 서비스 실행을 위한 푸시를 통해 표준 문구를 제공하고, 제공된 표준 문구에 대한 낭독을 통해 입력되는 환자의 음성 데이터를 획득할 수 있다. 음성 획득부(220)는 푸시에 설정된 주기마다 환자로부터 입력된 음성 데이터, 설문 정보, 수면 정보 또는 활동량 정보를 포함하는 현재 감정 데이터를 획득할 수 있다.
단계(330)에서 정서 상태 판단부(230)는 기분삽화 진단을 위하여 학습된 진단 모델에 획득된 음성 데이터를 입력하여 환자의 현재 정서 상태를 판단할 수 있다. 정서 상태 판단부(230)는 학습된 진단 모델에 획득된 현재 감정 데이터를 입력하여 환자의 현재 정서 상태 정보를 기 설정된 단계의 정서 상태로 구분할 수 있다. 정서 상태 판단부(230)는 음성 데이터로부터 추출된 톤, 발화 속도, 발화 크기, 리듬, 피치, 실수 정보를 포함하는 복수 개의 특징 정보의 변화 유무를 통해 환자의 현재 정서 상태 정보를 판단할 수 있다.
단계(340)에서 기분삽화 진단부(240)는 판단된 환자의 현재 감정 상태에 기초하여 환자의 기분삽화를 진단할 수 있다. 기분삽화 진단부(240)는 기 설정된 기간 동안의 판단된 현재 감정 상태에 기초하여 기분삽화 여부를 확인하고, 진단된 기분삽화가 기 설정된 기간 이상 지속될 경우, 경고 메시지를 전달하고, 전달된 경고 메시지를 통하여 진료를 권유할 수 있다. 기분삽화 진단부(240)는 판단된 현재 감정 상태가 4일 이상 경조상태일 경우, 경조삽화, 5일 이상 조증 상태일 경우, 조증삽화, 14일 이상 기분저하 상태일 경우, 우울삽화로 진단할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (7)

  1. 기분삽화 진단을 위한 정보 제공 방법에 있어서,
    환자의 정서 상태 데이터를 이용하여 기분삽화 진단을 위한 진단 모델을 학습시키는 단계;
    환자의 기분삽화 진단을 위하여 제공된 문구 정보의 낭독을 통해 음성 데이터를 획득하는 단계;
    상기 기분삽화 진단을 위하여 학습된 진단 모델에 상기 획득된 음성 데이터를 입력하여 환자의 현재 정서 상태를 판단하는 단계; 및
    상기 판단된 환자의 현재 감정 상태에 기초하여 환자의 기분삽화를 진단하는 단계
    를 포함하는 정보 제공 방법.
  2. 제1항에 있어서,
    상기 문구 정보는, 환자의 기분삽화 진단을 위하여 환자로부터 따라 읽도록 하기 위한 텍스트로 구성된 표준 문구를 의미하고,
    상기 획득하는 단계는,
    환자의 기분삽화 진단의 서비스 실행을 위한 푸시를 통해 표준 문구를 제공하고, 상기 제공된 표준 문구에 대한 낭독을 통해 입력되는 환자의 음성 데이터를 획득하는 단계
    를 포함하는 정보 제공 방법.
  3. 제1항에 있어서,
    상기 획득하는 단계는,
    상기 푸시에 설정된 주기마다 환자로부터 입력된 음성 데이터, 설문 정보, 수면 정보 또는 활동량 정보를 포함하는 현재 감정 데이터를 획득하는 단계
    를 포함하고,
    상기 현재 정서 상태를 판단하는 단계는,
    상기 학습된 진단 모델에 상기 획득된 현재 감정 데이터를 입력하여 환자의 현재 정서 상태 정보를 기 설정된 단계의 정서 상태로 구분하는 단계
    를 포함하는 정보 제공 방법.
  4. 제3항에 있어서,
    상기 현재 정서 상태를 판단하는 단계는,
    상기 음성 데이터로부터 추출된 톤, 발화 속도, 발화 크기, 리듬, 피치, 실수 정보를 포함하는 복수 개의 특징 정보의 변화 유무를 통해 환자의 현재 정서 상태 정보를 판단하는 단계
    를 포함하는 정보 제공 방법.
  5. 제1항에 있어서,
    상기 환자의 기분삽화를 진단하는 단계는,
    기 설정된 기간 동안의 판단된 현재 감정 상태에 기초하여 기분삽화 여부를 확인하고, 상기 진단된 기분삽화가 기 설정된 기간 이상 지속될 경우, 경고 메시지를 전달하고, 상기 전달된 경고 메시지를 통하여 진료를 권유하는 단계
    를 포함하는 정보 제공 방법.
  6. 제5항에 있어서,
    상기 환자의 기분삽화를 진단하는 단계는,
    상기 판단된 현재 감정 상태가 4일 이상 경조상태일 경우, 경조삽화, 5일 이상 조증 상태일 경우, 조증삽화, 14일 이상 기분저하 상태일 경우, 우울삽화로 진단하는 단계
    를 포함하는 정보 제공 방법.
  7. 제1항에 있어서,
    상기 학습시키는 단계는,
    전자 기기를 이용하여 문구 정보의 낭독을 통하여 획득된 환자의 음성 데이터를 인식하고, 상기 인식된 환자의 음성 데이터와 환자의 정서 상태에 대한 설문 정보를 포함하는 환자의 정서 상태 데이터를 이용하여 진단 모델을 학습시키는 단계
    를 포함하는 정보 제공 방법.
KR1020200085300A 2020-07-10 2020-07-10 음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법 KR102533467B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200085300A KR102533467B1 (ko) 2020-07-10 2020-07-10 음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200085300A KR102533467B1 (ko) 2020-07-10 2020-07-10 음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법

Publications (2)

Publication Number Publication Date
KR20220007275A true KR20220007275A (ko) 2022-01-18
KR102533467B1 KR102533467B1 (ko) 2023-05-17

Family

ID=80052256

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200085300A KR102533467B1 (ko) 2020-07-10 2020-07-10 음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법

Country Status (1)

Country Link
KR (1) KR102533467B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145994A1 (ko) * 2022-01-26 2023-08-03 심심이(주) 음성 분석을 이용하여 우울증을 검사하는 장치
WO2023145992A1 (ko) * 2022-01-26 2023-08-03 심심이(주) 음성 분석을 이용하여 우울증을 검사하는 방법
WO2023211128A1 (ko) * 2022-04-25 2023-11-02 정은 신그래이스 음성 데이터를 이용한 ai 기반의 질병 진단 방법 및 장치
CN117598875A (zh) * 2023-11-20 2024-02-27 广州碧缇维斯健康科技有限公司 一种可实现远程监控和管理的护理舱
WO2024111065A1 (ja) * 2022-11-22 2024-05-30 日本電信電話株式会社 うつ症状推定装置、うつ症状学習装置、うつ症状推定方法、うつ症状学習方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120117041A (ko) * 2011-04-14 2012-10-24 한국과학기술원 개인 운율 모델에 기반하여 감정 음성을 합성하기 위한 방법 및 장치 및 기록 매체
KR20150099638A (ko) * 2014-02-21 2015-09-01 세명대학교 산학협력단 양방향 방송 시스템을 이용한 우울증 방지 시스템 및 방지 방법
KR20190081626A (ko) * 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120117041A (ko) * 2011-04-14 2012-10-24 한국과학기술원 개인 운율 모델에 기반하여 감정 음성을 합성하기 위한 방법 및 장치 및 기록 매체
KR20150099638A (ko) * 2014-02-21 2015-09-01 세명대학교 산학협력단 양방향 방송 시스템을 이용한 우울증 방지 시스템 및 방지 방법
KR20190081626A (ko) * 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145994A1 (ko) * 2022-01-26 2023-08-03 심심이(주) 음성 분석을 이용하여 우울증을 검사하는 장치
WO2023145992A1 (ko) * 2022-01-26 2023-08-03 심심이(주) 음성 분석을 이용하여 우울증을 검사하는 방법
WO2023211128A1 (ko) * 2022-04-25 2023-11-02 정은 신그래이스 음성 데이터를 이용한 ai 기반의 질병 진단 방법 및 장치
WO2024111065A1 (ja) * 2022-11-22 2024-05-30 日本電信電話株式会社 うつ症状推定装置、うつ症状学習装置、うつ症状推定方法、うつ症状学習方法及びプログラム
CN117598875A (zh) * 2023-11-20 2024-02-27 广州碧缇维斯健康科技有限公司 一种可实现远程监控和管理的护理舱

Also Published As

Publication number Publication date
KR102533467B1 (ko) 2023-05-17

Similar Documents

Publication Publication Date Title
US11942194B2 (en) Systems and methods for mental health assessment
US20210110894A1 (en) Systems and methods for mental health assessment
Zucco et al. Sentiment analysis and affective computing for depression monitoring
KR20220007275A (ko) 음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법
US20200365275A1 (en) System and method for assessing physiological state
JP2022180516A (ja) 音声に基づく医療評価
JP2023547875A (ja) 個人化された認知介入システム及び方法
Vuppalapati et al. A system to detect mental stress using machine learning and mobile development
Tressoldi et al. Let your eyes predict: prediction accuracy of pupillary responses to random alerting and neutral sounds
Lim et al. An integrated biometric voice and facial features for early detection of Parkinson’s disease
Yang et al. Phonological competition in Mandarin spoken word recognition
Brennan et al. Predictive sentence comprehension during story-listening in autism spectrum disorder
Parker et al. Inconsistent language lateralisation–Testing the dissociable language laterality hypothesis using behaviour and lateralised cerebral blood flow
Jo et al. Diagnosis of depression based on four-stream model of bi-LSTM and CNN from audio and text information
US10820851B2 (en) Diagnosing system for consciousness level measurement and method thereof
US20230290482A1 (en) Digital Apparatus and Application for Treating Social Communication Disorder
Bakhtiar et al. Categorical perception of speech sounds in adults who stutter
KR102429447B1 (ko) 안면 표정 인식을 이용한 기분장애 진단을 위한 정보 제공 시스템
Kim et al. Discourse performance and related cognitive function in mild cognitive impairment and dementia: A preliminary study
Mallikarjun et al. Manoglanistara-emotional wellness phases prediction of adolescent female students by using brain waves
Dorronzoro-Zubiete et al. Personalized Management of Fatigue in Individuals With Myalgic Encephalomyelitis/Chronic Fatigue Syndrome and Long COVID Using a Smart Digital mHealth Solution: Protocol for a Participatory Design Approach
Diaz-Ramos et al. Using wearable devices and speech data for personalized machine learning in early detection of mental disorders: protocol for a participatory research study
Boehm Half someone else's: discourse and trauma in the PNES patient
US20240071412A1 (en) Method and system for predicting a mental condition of a speaker
Carneiro et al. Using behavioral features in tablet-based auditory emotion recognition studies

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right