KR20230043080A - 대화기반 정신장애선별방법 및 그 장치 - Google Patents

대화기반 정신장애선별방법 및 그 장치 Download PDF

Info

Publication number
KR20230043080A
KR20230043080A KR1020230034772A KR20230034772A KR20230043080A KR 20230043080 A KR20230043080 A KR 20230043080A KR 1020230034772 A KR1020230034772 A KR 1020230034772A KR 20230034772 A KR20230034772 A KR 20230034772A KR 20230043080 A KR20230043080 A KR 20230043080A
Authority
KR
South Korea
Prior art keywords
test subject
voice
response
stimulus
mental disorder
Prior art date
Application number
KR1020230034772A
Other languages
English (en)
Inventor
이준영
Original Assignee
주식회사 이모코그
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이모코그 filed Critical 주식회사 이모코그
Priority to KR1020230034772A priority Critical patent/KR20230043080A/ko
Publication of KR20230043080A publication Critical patent/KR20230043080A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4884Other medical applications inducing physiological or psychological stress, e.g. applications for stress testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Neurology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Epidemiology (AREA)
  • Social Psychology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Neurosurgery (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

대화기반 정신장애선별방법 및 그 장치가 개시된다. 정신장애선별장치는 이야기, 단어, 소리, 그림, 움직임, 색깔 및 방향 중 적어도 하나 이상을 포함하는 자극을 출력하고, 검사대상자로부터 자극에 대한 응답을 수신하면, 응답의 정답률 또는 상기 응답에 포함된 음성특징을 정상군 및 질병군의 정답률 또는 음성특징과 비교하여 정신장애여부를 선별한다.

Description

대화기반 정신장애선별방법 및 그 장치{Method for screening psychiatric disorder based on voice and apparatus therefor}
본 발명의 실시 예는 대화를 통해 정신과 질환을 선별하는 방법 및 그 장치에 관한 것이다.
현재 정신장애(예를 들어, 치매, 주의력결핍장애, 학습장애, 조현병, 기분장애, 중독장애 등) 검사는 전문가에 의해 특정한 공간 및 특정한 시간에 이루어진다. 따라서 정신장애 여부를 검사받고자 하는 자는 검사를 위해 예약을 한 후 그 예약시간에 병원 등의 특정 장소를 방문하여야 하는 불편함이 있다.
본 발명의 실시 예가 이루고자 하는 기술적 과제는, 시공간에 구애받지 않고 병원이 아닌 집 등에서 편하게 대화 기반으로 정신과 질환을 선별할 수 있는 방법 및 그 장치를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 대화기반 정신장애선별방법의 일 예는, 이야기, 단어, 소리, 그림, 움직임, 색깔 및 방향 중 적어도 하나 이상을 포함하는 자극을 출력하는 단계; 검사대상자로부터 상기 자극에 대한 응답을 수신하는 단계; 및 상기 응답의 정답률 또는 상기 응답에 포함된 음성특징을 정상군 및 질병군의 정답률 또는 음성특징과 비교하거나, 대화내용을 분석하여 정신장애여부를 선별하는 단계;를 포함한다.
본 발명의 실시 예에 따르면, 검사대상자는 굳이 병원에 방문하지 않아도 집등 편안한 공간에서 대화 기반으로 정신장애 여부를 검사받을 수 있다. 또한 대화내용과 음성 데이터를 함께 활용하여 정신장애 선별의 정확도를 향상시킬 수 있다.
도 1은 본 발명의 실시 예에 따른 정신장애선별방법을 구현한 전체 시스템의 개략적인 구조의 예를 도시한 도면,
도 2는 본 발명의 실시 예에 따른 정신장애선별방법의 일 예를 도시한 흐름도,
도 3은 본 발명의 실시 예에 따른 정신장애선별을 검사대상자의 정답률을 기초로 파악하는 방법의 일 예를 도시한 도면,
도 4는 본 발명의 실시 예에 따른 정신장애선별을 검사대상자의 음성특징을 기초로 파악하는 방법의 일 예를 도시한 도면,
도 5a 및 도 5b는 본 발명의 실시 예에 따른 정신장애선별에 사용되는 자극 중 이야기 자극의 일 예를 도시한 도면, 그리고,
도 6은 본 발명의 실시 예에 따른 정신장애선별장치의 일 예의 구성을 도시한 도면이다.
이하에서, 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 대화기반 정신장애선별방법 및 그 장치에 대해 상세히 설명한다.
도 1은 본 발명의 실시 예에 따른 정신장애선별방법을 구현한 전체 시스템의 개략적인 구조의 예를 도시한 도면이다.
도 1을 참조하면, 정신장애선별을 위한 시스템은 크게 사용자 단말(100) 및 분석서버(140)를 포함한다. 사용자 단말(100)과 분석서버(140)는 유선망 또는 무선망 등의 통신망(150)을 통해 연결될 수 있다.
사용자 단말(100)은 음성입력장치(110), 데이터출력장치(120) 및 통신부(130)를 포함한다. 여기서 음성입력장치(110)는 마이크 등과 같이 소리를 입력받을 수 있는 장치를 의미하고, 데이터출력장치(120)는 소리를 출력하는 스피커 또는 영상을 출력하는 디스플레이장치 등을 의미하며, 통신부(130)는 분석서버(140)와 데이터를 송수신할 수 있는 각종 통신모듈을 의미한다. 사용자 단말(100)은 이 외에도 프로세서, 메모리 등 본 실시 예의 구현에 필요한 다양한 구성을 더 포함할 수 있다. 다만, 본 실시 예는 설명의 편의를 위하여 정신장애선별을 위해 필요한 구성을 위주로 도시하고 있다.
본 실시 예에서 사용자 단말(100)은 음성입력장치(110), 데이터출력장치(120) 및 통신부(130)를 구비한 단말이면 모두 가능하므로, 일반 컴퓨터, 태블릿PC, 스마트폰, 스마트 냉장고, 스마트 TV, AI 스피커, 각종 IoT(Internet Of Things) 장비 등으로 구현될 수 있는 등 특정 장치에 한정되지는 않는다.
분석서버(140)는 사용자 단말(100)로부터 수신한 데이터를 분석하여 검사대상자의 정신장애(예를 들어, 치매 등) 여부를 판별하는 장치이다. 분석서버(140)는 '서버'라는 용어에 한정되지 아니하며, 서버뿐만 아니라 일반 컴퓨터 또는 클라우드 시스템 등으로 구현될 수 있다.
본 실시 예는, 정신장애선별을 위하여 사용자 단말(100)과 분석서버(140)가 통신망(150)으로 연결된 구조를 도시하고 있으나 반드시 이에 한정되는 것은 아니다. 예를 들어, 분석서버(140)에서 수행하는 기능의 일부 또는 전부가 사용자 단말(100)에서 수행될 수 있다. 분석서버(140)의 기능이 전부 사용자 단말(100)에서 수행된다면 분석서버(140)는 생략될 수 있다. 즉, 분석서버(140) 없이 사용자 단말(100)에서 정신장애선별을 수행하고 그 결과를 표시할 수 있다. 다만, 이하에서는 설명의 편의를 위하여 사용자 단말(100)과 분석서버(140)가 통신망(150)으로 연결된 본 실시 예의 구조를 위주로 설명한다.
도 2는 본 발명의 실시 예에 따른 정신장애선별방법의 일 예를 도시한 흐름도이다.
도 1 및 도 2를 참조하면, 사용자 단말(100)은 데이터출력장치(120)를 통해 자극을 출력한다(S200). 여기서 자극이라고 함은 검사대상자의 시각 또는 청각을 자극할 수 있는 이야기나 소리 또는 이미지 등을 의미한다. 예를 들어, 자극은 이야기, 단어, 소리, 그림, 움직임, 색깔 및 방향 중 적어도 하나 이상으로 구성될 수 있다. 도 5a 및 도 5b은 이야기 자극의 일 예를 도시하고 있다.
일 실시 예로, 사용자 단말(100)은 분석서버(140)로부터 실시간 자극 내용을 수신하여 데이터출력장치(120)를 통해 출력하거나 사용자 단말에 기 저장된 자극 내용을 출력할 수 있다.
다른 실시 예로, 데이터출력장치(120)를 통해 출력되는 자극 내 또는 자극 사이에 간섭자극이 배치될 수 있다. 여기서 간섭자극은 정상군과 질병군의 응답 차이를 크게하여 정신질환 선별의 정확도를 높이기 위하여 검사대상자에게 혼란을 주기 위한 자극이다. 예를 들어, 도 5a와 같은 이야기 자극의 경우에 익숙한 이야기에 나오는 익숙한 단어나 상황을 생소한 단어나 상황으로 바꾸어 출력할 수 있으며, 여기서 생성한 단어나 상황이 간섭자극에 해당한다. 각 자극에 대한 간섭자극의 위치와 내용은 미리 정의되어 있을 수 있다. 또 다른 예로, 검사대상자가 대답하기 전에 좀 전 자극에 대한 기억이 소거될 수 있도록 검사대상자에게 질의하기 전에 다른 이야기나, 소리, 그림 등의 간섭자극을 출력하거나 자극과 자극 사이에 일정 시간의 휴지기를 줄 수도 있다.
또 다른 실시 예로, 사용자 단말(100)은 검사대상자의 응답에 따라 출력하는 자극의 내용을 실시간 바꾸어 출력할 수 있다. 실시간 변경되는 자극 내용은 사용자 단말(100)에서 선택되거나 검사대상자의 응답을 실시간 분석서버(140)에 제공하여 분석서버(140)로부터 실시간 바뀐 자극을 수신하여 출력할 수 있다. 예를 들어, 도 5a 및 도 5b의 이야기 자극에서 질문에 대한 검사대상자의 응답의 정답률이 일정 이상일 경우에 좀 더 어려운 내용의 이야기 자극을 출력하거나 또는 소리나 이미지 등과 같은 다른 종류의 자극을 출력할 수 있다. 검사대상자의 정답률에 따라 다음에 출력한 자극의 종류 등은 미리 정의되어 있을 수 있다.
사용자 단말(100)은 자극에 대한 검사대상자의 응답을 음성입력장치(110)를 통해 수신한다(S210). 예를 들어, 자극은 도 5a와 같은 이야기 자극일 수 있으며, 이 경우 사용자 단말(100)은 데이터출력장치(120)를 통해 이야기를 소리로 출력하거나 화면에 시각적으로 표시하거나 또는 소리와 화면으로 동시에 출력할 수 있다. 자극을 출력한 후 사용자 단말(100)은 도 5b와 같은 질문을 하고 검사대상자의 응답을 음성입력장치(110)를 통해 입력받을 수 있다.
사용자 단말(100)은 자극을 출력하고 그 자극에 대한 검사대상자의 응답을 수신하는 과정을 자극을 달리하면서 반복 수행할 수 있다. 예를 들어, 사용자 단말(100)은 제1 자극을 출력한 후 그에 대한 검사대상자의 응답을 수신하고, 제2 자극을 출력한 후 그에 대한 검사대상자의 응답을 수신할 수 있다. 즉, 사용자 단말은 검사대상자와 일종의 대화를 이어가는 형태로 검사를 수행할 수 있으므로, 이를 위해 종래의 AI 스피커나 각종 스마트 기기가 본 실시 예에 활용될 수 있다.
사용자 단말(100)은 검사대상자로부터 입력받은 응답을 분석서버(140)로 전송하고, 분석서버(140)는 검사대상자의 응답을 분석하여 정신장애를 선별한다(S220,S230). 구체적으로, 분석서버(140)는 검사대상자의 응답 내용을 분석하여 자극에 대한 검사대상자의 응답의 정답률 및/또는 음성특징이 정상군에 가까운지 아니면 질병군에 가까운지 분석하여 정신장애 여부를 판별할 수 있다. 검사대상자의 정답률을 기초로 정신장애를 선별하는 예가 도 3에 도시되어 있고, 검사대상자의 음성특징을 기초로 정신장애를 선별하는 예가 도 4에 도시되어 있다. 다른 예로, 분석서버(140)는 검사대상자의 응답에 포함된 단어수, 문장완성도, 저빈도 단어의 사용 여부, 중의적문장이나 모호한문장의 이해도, 감정단어사용 빈도 등을 정신장애 여부 판별에 함께 고려할 수 있다.
분석서버(140)는 정신장애에 대한 분석이 완료되면 정신장애선별결과를 사용자 단말(100) 또는 기 정의된 단말(예를 들어, 검사대상자의 보호자 또는 의료진의 단말 등)로 제공할 수 있다.
도 3은 본 발명의 실시 예에 따른 정신장애선별을 검사대상자의 정답률을 기초로 파악하는 방법의 일 예를 도시한 도면이다.
도 3을 참조하면, 분석서버(140)는 자극에 대한 검사대상자의 정답률(300)을 파악한 후 정상군과 질병군의 정답률(310,320)과 비교한다. 도 5a 및 도 5b의 이야기 자극인 경우에, 분석서버(140)는 검사대상자의 응답을 종래의 다양한 음성인식기술로 분석하여 각 질문 내용에 대하여 검사대상자의 답변을 파악한 후 그 답변이 정답인지 판별할 수 있다. 여러 자극이 검사대상자에게 출력되는 경우에, 분석서버는 각 자극에 대한 정답여부를 각각 파악할 수 있다.
예를 들어, 도 5a 및 도 5b의 이야기 자극에 대하여 정상군의 정답률(310)과 치매질환의 질병군의 정답률(320)이 정의되어 있는 경우에, 분석서버(140)는 검사대상자의 정답률(300)이 정상군과 질병군 중 어느 군에 더 가까운지 파악하여 치매질환 여부를 파악할 수 있다. 즉, 정상군의 정답률이 70%이고 질병군의 정답률이 30%인 경우에, 검사대상자의 정답률이 20%이면, 검사대상자의 정답률이 질병군보다 작으므로, 분석서버(140)는 치매질환이 있다고 판단할 수 있다. 다른 예로, 검사대상자의 정답률이 30~70% 사이이면, 분석서버(140)는 검사대상자의 정답률이 정상군과 질병군 사이에서 질병군에 더 가까우면 치매질환이 존재할 가능성이 있다고 판단할 수 있으며, 이 경우 검사대상자의 정답률과 정상군과 질병군의 각 정답률 사이의 상대적 거리에 따라 치매질환의 존재 가능성을 확률로 계산하여 제공할 수도 있다.
도 4는 본 발명의 실시 예에 따른 정신장애선별을 검사대상자의 음성특징을 기초로 파악하는 방법의 일 예를 도시한 도면이다.
도 4를 참조하면, 분석서버(140)는 검사대장자의 음성특징(400)을 분석하여 정상군 및 질병군의 음성특징(410,420)과 비교할 수 있다. 분석서버(140)는 음성특징의 예로 포먼트(formant), MFCC(Mel-Frequency Cepstral Coefficient), 음높이, 음길이, 음질(voice quality) 등을 분석할 수 있다.
분석서버(140)는 정상군에 대한 음성특징(410)과 질병군에 대한 음성특징(420)을 미리 파악하여 저장하고 있으며, 검사대상자의 음성특징(400)이 정상군에 가까운지 아니면 질병군에 가까운지를 파악하여 검사대상자의 정신질환 여부를 선별할 수 있다. 예를 들어, 도 5a 및 도 5b의 이야기 자극을 기초로 치매에 대한 정상군과 질병군의 음성특징(410,420)이 정의되어 있다면, 분석서버(140)는 검사대상자의 음성특징(400)이 정상군과 질병군 중 어느 군에 얼마만큼 가까운지 분석하여 치매질환 가능성을 파악할 수 있다. 예를 들어, 검사대상자의 음성특징(400)이 질병군의 음성특징(420)과 80% 유사하다면, 분석서버(140)는 치매가능성이 80%라고 출력할 수 있다.
음성특징의 비교는 다양한 방법으로 수행될 수 있다. 예를 들어, 분석서버(140)는 검사대상자의 응답에서 추출할 음성특징의 값(예를 들어, 포먼트, MFCC, 음높이 등)을 미리 정의하고 있으며, 검사대상자의 응답으로부터 미리 정의된 음성특징의 값을 파악하며 이 값들을 변수로 하는 벡터를 만든다. 정상군과 질별군의 음성특징의 값 또한 미리 벡터로 만들어져 있다. 분석서버(140)는 검사대상자의 음성특징의 벡터와 정산군 및 질병군의 각 벡터 사이의 유사도(예를 들어, 유클리드 거리 등)를 파악하여 어느 것과 더 유사한지 파악할 수 있다.
다른 실시 예로, 분석서버(140)는 대화내용을 분석하여 정신장애선별에 이용할 수 있다. 예를 들어, 분석서버(140)는 검사대상자의 응답으로부터 단어수, 문장완성도, 저빈도 단어(즉, 어려운 단어) 사용, 중의적 문장이나 모호한 문장의 이해도, 감정단어사용 빈도 등을 파악한 후 미리 정의된 정신장애선별의 기준값과 비교하여 정신장애 여부를 판별할 수 있다. 예를 들어, 분석서버(140)는 단어수가 기 정의된 값 이하이면 정신장애로 판별하거나, 저빈도 단어의 사용 빈도가 일정 이상이면 정신장애가 아닌 것으로 판별하거나, 감정단어사용 빈도가 일정 이상이면 정신장애가 아닌 것으로 판별할 수 있다. 또는 인공지능 또는 종래의 다양한 문장 분석 기법을 이용하여 검사대상자의 응답에 대한 문장 완성도나 중의적 문장 또는 모호한 문장의 이해도 등을 파악한 후 이를 기초로 정신장애 여부를 선별할 수도 있다.
또 다른 실시 예로, 분석서버(140)는 인공지능을 이용하여 대화 내용을 분석할 수 있다. 예를 들어, 인공지능모델은 정상군에 속한 사람과의 대화 및 질병군에 속한 사람과의 대화를 통해 정상군과 질병군을 분류하도록 학습될 수 있다. 분석서버(140)는 이렇게 학습된 인공지능모델을 이용하여 검사대상자와의 대화를 통해 정신장애 여부를 판별할 수 있다. 인공지능모델은 AI 스피커 등과 같이 사용자와의 대화가 가능한 모델로 구성될 수 있다. 예를 들어, 분석서버(140)는 인공지능모델을 통해 날씨나 날짜 등과 같은 일상적인 대화를 자극으로 출력하고 이에 대한 검사대상자의 응답을 수신하는 과정을 통해 파악된 대화 내용을 이용하여 검사대상자가 정상군 및 질병군 중 어느 부류에 속하는지 파악할 수 있다.
분석서버(140)는 도 3의 검사대상자의 정답률(300), 도 4의 검사대상자의 음성특징(400) 및 대화내용 중 적어도 하나 이상을 함께 고려하여 정신장애선별의 정확도를 향상시킬 수 있다.
도 5a 및 도 5b는 본 발명의 실시 예에 따른 정신장애선별에 사용되는 자극 중 이야기 자극의 일 예를 도시한 도면이다.
도 5a를 참조하면, 이야기 자극은 미리 정의된 일정 분량의 이야기를 포함한다. 예를 들어, 이야기 자극은 흥부전 등과 같이 널리 알려진 이야기일 수 있다. 사용자 단말(100)은 정신장애선별을 위하여 이야기 자극을 출력할 때 이를 그대로 출력하거나 또는 특정 단어를 기 정의된 다른 단어로 바꾸어 출력할 수 있다. 예를 들어, 흥보가 주걱으로 뺨을 맞는 익숙한 흥부전 이야기에서 익숙한 '주걱'이란 단어를 생소한 '쟁반'으로 바꾸어 출력함으로써 치매환자의 간섭을 극대화할 수 있다.
도 5b를 참조하면, 사용자 단말(100)은 질문을 통해 검사대상자로부터 이야기 자극에 대한 응답을 수신할 수 있다.
도 6은 본 발명의 실시 예에 따른 정신장애선별장치의 일 예의 구성을 도시한 도면이다.
도 6을 참조하면, 정신장애선별장치(600)는 데이터출력부(610), 음성입력부(620) 및 음성/대화분석부(630)를 포함한다.
정신장애선별장치(600)는 도 1과 같이 통신망(150)으로 연결된 사용자 단말(100)과 분석서버(140)로 구현되거나, 또는 사용자 단말(140)로만 구현될 수 있다. 예를 들어, 데이터출력부(610), 음성입력부(620) 및 음성/대화분석부(630)는 애플리케이션으로 구현되어 스마트폰, AI 스피커 등에 탑재되어 수행될 수 있다. 또는 데이터출력부(610) 및 음성입력부(620)는 애플리케이션으로 구현되어 스마트폰, AI 스피커 등에 탑재되어 수행되고, 음성/대화분석부(630)는 분석서버(140)에 구현될 수 있는 등 정신장애선별장치(600)는 실시 예에 따라 다양한 형태로 구현될 수 있다.
데이터출력부(610)는 자극을 출력한다. 예를 들어, 데이터출력부(610)가 AI 스피커나 스마튼 폰 등에 구현된 경우에 데이터출력부(610)는 AI 스피커를 통해 자극을 출력할 수 있다. 실시 예에 따라 데이터출력부(610)는 외부의 분석서버(140)로부터 자극을 수신한 후 이를 AI 스피커를 통해 출력할 수 있다. 또는 데이터출력부(610)는 날짜나 날씨 또는 가족관계 등과 같은 일상적인 질의내용을 자극으로 출력할 수 있다.
음성입력부(620)는 자극에 대한 검사대상자의 응답을 수신한다. 예를 들어, 음성입력부(620)가 AI 스피커에 구현된 경우에 자극에 대한 검사대상자의 대답을 AI 스피커를 통해 입력받을 수 있다.
음성/대화분석부(630)는 음성입력부(620)를 통해 입력받은 검사대상자의 응답을 분석하여 정신장애여부를 선별한다. 예를 들어, 도 5a 및 도 5b와 같이 이야기 자극에 대한 검사대상자의 응답을 수신한 경우에, 음성/대화분석부(630)는 검사대상자의 정답률을 분석하고 또한 검사대상자의 음성특징을 분석할 수 있다. 음성/대화분석부(630)는 실시 예에 따라 사용자 단말(100)에 구현되거나 도 1의 분석서버(140)에 구현될 수 있다. 음성/대화분석부(630)가 도 1의 분석서버(140)에 구현된 경우, 음성입력부(620)는 검사대상자의 응답을 분석서버(140)로 전송할 수 있다.
다른 실시 예로, 음성/대화분석부(630)는 음성입력부(620)를 통해 입력받은 검사대상자의 대화 내용을 분석하여 정신장애여부를 선별한다. 예를 들어, 음성/대화분석부(630)는 검사대상자의 응답에 포함된 단어 수, 저빈도 단어의 사용 여부, 감정단어사용 빈도 등을 분석한후 기 정의된 기준과 비교하여 정신장애여부를 선별할 수 있다. 또는 음성/대화분석부(630)는 정상군과 질병군에 속한 사람과의 대화내용을 학습 데이터로 이용하여 학습시킨 인공지능모델을 이용할 수 있다. 이 경우, 음성/대화분석부(630)는 인공지능모델을 통해 검사대상자와의 대화내용이 정상군과 질병군 중 어느 군에 속하는지 파악할 수 있다. 음성/대화분석부(630)는 정답률, 음성특징 및 대화내용 중 적어도 하나 이상을 이용하여 정신장애 여부를 판별할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (1)

  1. 이야기, 단어, 소리, 그림, 움직임, 색깔 및 방향 중 적어도 하나 이상을 포함하는 자극을 출력하는 단계;
    검사대상자로부터 상기 자극에 대한 응답을 수신하는 단계; 및
    상기 응답의 정답률 또는 상기 응답에 포함된 음성특징을 정상군 및 질병군의 정답률 또는 음성특징과 비교하거나, 대화내용을 분석하여 정신장애여부를 선별하는 단계;를 포함하는 것을 특징으로 하는 대화기반 정신장애선별방법.
KR1020230034772A 2020-07-15 2023-03-16 대화기반 정신장애선별방법 및 그 장치 KR20230043080A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230034772A KR20230043080A (ko) 2020-07-15 2023-03-16 대화기반 정신장애선별방법 및 그 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200087533A KR102512570B1 (ko) 2020-07-15 2020-07-15 대화기반 정신장애선별방법 및 그 장치
KR1020230034772A KR20230043080A (ko) 2020-07-15 2023-03-16 대화기반 정신장애선별방법 및 그 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200087533A Division KR102512570B1 (ko) 2020-07-15 2020-07-15 대화기반 정신장애선별방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR20230043080A true KR20230043080A (ko) 2023-03-30

Family

ID=79291607

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200087533A KR102512570B1 (ko) 2020-07-15 2020-07-15 대화기반 정신장애선별방법 및 그 장치
KR1020230034772A KR20230043080A (ko) 2020-07-15 2023-03-16 대화기반 정신장애선별방법 및 그 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200087533A KR102512570B1 (ko) 2020-07-15 2020-07-15 대화기반 정신장애선별방법 및 그 장치

Country Status (6)

Country Link
US (1) US20220015687A1 (ko)
EP (1) EP4166079A4 (ko)
JP (1) JP2023534799A (ko)
KR (2) KR102512570B1 (ko)
CN (1) CN115916054A (ko)
WO (1) WO2022015005A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102620129B1 (ko) * 2023-08-24 2024-01-03 (주)블라우비트 인공지능 기반의 뇌졸중 초기 예측 진단 시스템 및 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070668A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 음성 통화 정보를 이용한 알츠하이머병 진단 장치 및 방법
WO2014062441A1 (en) * 2012-10-16 2014-04-24 University Of Florida Research Foundation, Inc. Screening for neurologial disease using speech articulation characteristics
KR102064510B1 (ko) 2012-12-14 2020-02-11 한국과학기술원 뇌파를 이용한 자폐 범주성 장애 진단 장치 및 그 방법
US20180078184A1 (en) * 2015-03-16 2018-03-22 Osaka University Dual-task performing ability evaluation method and dual-task performing ability evaluation system
CN110192252A (zh) * 2016-11-14 2019-08-30 科格诺亚公司 用于评估发育状况并提供覆盖度和可靠性控制的方法和装置
KR102235716B1 (ko) * 2016-12-14 2021-04-05 한국전자기술연구원 가상현실을 이용한 학습장애 진단/치유장치, 및 그 방법
GB2567826B (en) * 2017-10-24 2023-04-26 Cambridge Cognition Ltd System and method for assessing physiological state
KR102041848B1 (ko) * 2017-12-29 2019-11-08 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
JP2021529382A (ja) * 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
JPWO2020013302A1 (ja) * 2018-07-13 2021-06-03 株式会社生命科学インスティテュート 精神・神経系疾患の推定システム、推定プログラムおよび推定方法
KR102167804B1 (ko) * 2018-07-23 2020-10-19 경남대학교 산학협력단 치매 테스트장치
KR102064681B1 (ko) * 2018-09-21 2020-01-09 이화여자대학교 산학협력단 비단어 따라 말하기를 이용한 작업 기억능력 측정 방법, 이를 수행하기 위한 장치 및 기록매체
CA3178828A1 (en) * 2020-05-12 2021-11-18 James Pittman Methods and systems for comprehensive patient screening
US20230154575A1 (en) * 2020-06-04 2023-05-18 Healmed Solutions Llc Systems and Methods for Mental Health Care Delivery Via Artificial Intelligence

Also Published As

Publication number Publication date
KR102512570B1 (ko) 2023-03-22
US20220015687A1 (en) 2022-01-20
EP4166079A4 (en) 2023-08-09
WO2022015005A1 (ko) 2022-01-20
KR20220009164A (ko) 2022-01-24
CN115916054A (zh) 2023-04-04
EP4166079A1 (en) 2023-04-19
JP2023534799A (ja) 2023-08-14

Similar Documents

Publication Publication Date Title
US10223934B2 (en) Systems and methods for expressive language, developmental disorder, and emotion assessment, and contextual feedback
US11854550B2 (en) Determining input for speech processing engine
US20190147760A1 (en) Cognitive content customization
US11602287B2 (en) Automatically aiding individuals with developing auditory attention abilities
KR102444012B1 (ko) 말 장애 평가 장치, 방법 및 프로그램
KR20210054800A (ko) 사용자의 음성샘플 수집
JP6729923B1 (ja) 難聴判定装置、難聴判定システム、コンピュータプログラム及び認知機能レベル補正方法
KR20230043080A (ko) 대화기반 정신장애선별방법 및 그 장치
CN112365106A (zh) 一种基于长时序多源数据的学生综合素质分析系统
KR20210063698A (ko) 전자장치와 그의 제어방법, 및 기록매체
US20220230626A1 (en) Creative work systems and methods thereof
CN114913974A (zh) 一种谵妄评估方法、装置、电子设备及存储介质
Rodriguez et al. Prediction of inter-personal trust and team familiarity from speech: A double transfer learning approach
CN113593523A (zh) 基于人工智能的语音检测方法、装置及电子设备
JP2021108843A (ja) 認知機能判定装置、認知機能判定システム及びコンピュータプログラム
US11532300B1 (en) System to determine sentiment from audio data
JP7152825B1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2022180855A1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
Patel et al. Speech with pauses sounds deceptive to listeners with and without hearing impairment
KR20210001636U (ko) 뇌파인식시스템
KR20210001609U (ko) 뇌파인식시스템
Ma Emotion-aware voice interfaces based on speech signal processing
KR20210001685U (ko) 뇌파인식시스템
JP2024060181A (ja) 語彙評価装置、語彙評価方法、および語彙評価プログラム
KR20210001848U (ko) 뇌파인식시스템

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal