KR20220120749A - 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법 - Google Patents

우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법 Download PDF

Info

Publication number
KR20220120749A
KR20220120749A KR1020210023334A KR20210023334A KR20220120749A KR 20220120749 A KR20220120749 A KR 20220120749A KR 1020210023334 A KR1020210023334 A KR 1020210023334A KR 20210023334 A KR20210023334 A KR 20210023334A KR 20220120749 A KR20220120749 A KR 20220120749A
Authority
KR
South Korea
Prior art keywords
depression
artificial intelligence
conversation
subject
treatment
Prior art date
Application number
KR1020210023334A
Other languages
English (en)
Other versions
KR102468833B1 (ko
KR102468833B9 (ko
Inventor
정태명
이종민
최준희
전홍진
Original Assignee
주식회사 히포티앤씨
성균관대학교산학협력단
사회복지법인 삼성생명공익재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 히포티앤씨, 성균관대학교산학협력단, 사회복지법인 삼성생명공익재단 filed Critical 주식회사 히포티앤씨
Priority to KR1020210023334A priority Critical patent/KR102468833B1/ko
Publication of KR20220120749A publication Critical patent/KR20220120749A/ko
Application granted granted Critical
Publication of KR102468833B1 publication Critical patent/KR102468833B1/ko
Publication of KR102468833B9 publication Critical patent/KR102468833B9/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Psychiatry (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Hospice & Palliative Care (AREA)
  • Acoustics & Sound (AREA)
  • Psychology (AREA)
  • Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Developmental Disabilities (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Anesthesiology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Hematology (AREA)

Abstract

본 발명은, 피험자의 대화로 획득되는 음성 데이터를 저장하는 단계, 음성 데이터를 전처리하여 수정 데이터를 생성하는 전처리 단계, 제1 인공지능을 이용하여 수정 데이터를 근거로 음성 특성에 대한 스펙트럼을 분석하여 제1 우울증 수치를 획득하는 단계, 제2 인공지능을 이용하여 수정 데이터를 근거로 대화의 내용에 대한 제2 우울증 수치를 도출하는 단계, 제1 우울증 수치 및 제2 우울증 수치를 취합하여 종합 우울증 수치를 근거로 우울증 여부를 판단하는 단계, 피험자가 우울증인 것으로 판단된 경우 제3 인공지능을 이용하여 긍정적 자기 대화(positive self-conversation) 기법을 포함하는 자기 대화 기법 데이터에 근거한 대화내용을 생성하는 단계 및 대화내용을 소리로 출력하는 단계를 포함하는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에 관한 것이다.
본 발명에 따른 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법은 병원의 내방없이 디바이스를 통하여 우울증을 치료할 수 있어 환자의 부담을 경감시킬 수 있다.
또한, 자기 대화(self-conversation)를 통해 우울증 환자 자신이 궁극적으로 행복해지는 방법을 찾아 나가는 방향을 깨닫게 함으로써 우울증을 유발하는 근본적인 원인을 해결하여 치료효과를 향상시킬 수 있는 효과가 있다.

Description

우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법{Artificial Intelligence-based Mirror Counseling Method for Depression Treatment}
본 발명은 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에 관한 것이며, 보다 상세하게는 환자의 일상생활에서 우울증을 진단하고 이를 치료하기 위해 미러 카운슬링을 수행할 수 있는 방법에 관한 것이다.
우울증이란 흔한 정신질환으로서 생각의 내용, 사고의 과정, 동기, 의욕, 관심, 행동, 수면, 신체활동 등의 전반적인 심신의 기능이 저하된 상태를 뜻한다. 이러한 증상이 단기적 또는 일시적으로 발생하는 경우 우울한기분으로서 정상적이라고 볼 수 있으나, 장기간에 걸쳐서 하루 종일 나타나는 경우 전문적인 치료가 필요하다. 그러나 우울증은 심신의 기능이 저하된 상태에서 스스로 자각하기가 어려워 방치하는 경우가 흔하다. 이러한 우울증에 따른 결과로서, 학습저하, 생산성 저하, 가족과의 갈등, 이혼 등의 문제를 야기할 수 있고, 중증의 경우 자살에 이르기까지 다양한 문제가 발생할 수 있다.
이러한 우울증의 진단과 간련하여 대한민국 등록특허 제2041848 호가 개시되어 있다. 그러나 이러한 종래의 기술은 우울증의 진단에만 그치고 있으며 치료를 위해 의욕이 없는 우울증 환자가 직접 내원하여 전문의의 도움을 받아야 하는 한계가 있었다.
대한민국 등록특허 제2041848 호
본 발명은 종래의 우울증의 진단 및 치료의 한계를 극복할 수 있는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법을 제공하는 것에 그 목적이 있다.
상기 과제의 해결 수단으로서, 피험자의 대화로 획득되는 음성 데이터를 저장하는 단계, 음성 데이터를 전처리하여 수정 데이터를 생성하는 전처리 단계, 제1 인공지능을 이용하여 수정 데이터를 근거로 음성 특성에 대한 스펙트럼을 분석하여 제1 우울증 수치를 획득하는 단계, 제2 인공지능을 이용하여 수정 데이터를 근거로 대화의 내용에 대한 제2 우울증 수치를 도출하는 단계, 제1 우울증 수치 및 제2 우울증 수치를 취합하여 종합 우울증 수치를 근거로 우울증 여부를 판단하는 단계, 피험자가 우울증인 것으로 판단된 경우 제3 인공지능을 이용하여 긍정적 자기 대화(positive self-conversation) 기법을 포함하는 자기 대화 기법 데이터에 근거한 대화내용을 생성하는 단계 및 대화내용을 소리로 출력하는 단계를 포함하는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법이 제공될 수 있다.
한편, 대화내용을 소리로 출력하는 단계는, 피험자의 대화로 획득되는 음성 샘플을 기반으로 피험자의 음성을 모사하여 출력할 수 있다.
또한, 피험자의 대화로 음성 데이터를 저장하는 단계 및 대화내용을 소리로 출력하는 단계는 피험자를 가상현실에 노출시킨 상태에서 수행될 수 있다.
한편, 제1 우울증 수치를 도출하는 단계는, 제1 인공지능을 이용하여, 음성 데이터로부터 히트맵을 생성하는 단계, 히트맵을 CNN 분석하는 단계 및 CNN 분석이후 LSTM 분석으로 학습시킨 후 수행될 수 있다.
또한, 제2 우울증 수치를 획득하는 단계는, 제2 인공지능을 이용하여, 수정 데이터에 포함된 대화의 내용을 LSTM 분석으로 학습시킨 후 수행될 수 있다.
한편, 우울증 여부를 판단하는 단계 이후 종합 우울증 수치를 근거로 수치가 소정 범위에 해당하는 경우 피험자에게 게임 컨텐츠를 제공하는 게임 컨텐츠 제공 단계를 더 포함할 수 있다.
본 발명에 따른 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법은 병원의 내방없이 디바이스를 통하여 우울증을 치료할 수 있어 환자의 부담을 경감시킬 수 있다.
또한, 자기 대화(self-conversation)를 통해 우울증 환자 자신이 궁극적으로 행복해지는 방법을 찾아 나가는 방향을 깨닫게 함으로써 우울증을 유발하는 근본적인 원인을 해결하여 치료효과를 향상시킬 수 있는 효과가 있다.
도 1은 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법이 수행되는 구성 및 화면 시현을 도시한 도면이다.
도 2는 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법이 수행되는 개념도이다.
도 3은 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법의 순서도이다.
도 4는 도 3의 전처리 단계의 상세한 순서도이다.
도 5는 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에서 우울증 수치를 획득하는 과정을 나타낸 개념도이다.
도 6은 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에서 우울증으로 판단된 경우 자기 대화 기법으로 상담 내용을 생성하는 과정에 대한 개념도이다.
도 7은 우울증으로 판단된 경우 게임을 추천하는 과정의 개념도이다.
도 8은 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에서 수행되는 전체적인 데이터 처리의 개념을 도시한 도면이다.
이하, 본 발명의 실시 예에 따른 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에 대하여, 첨부된 도면을 참조하여 상세히 설명한다. 그리고 이하의 실시예의 설명에서 각각의 구성요소의 명칭은 당업계에서 다른 명칭으로 호칭될 수 있다. 그러나 이들의 기능적 유사성 및 동일성이 있다면 변형된 실시예를 채용하더라도 균등한 구성으로 볼 수 있다. 또한 각각의 구성요소에 부가된 부호는 설명의 편의를 위하여 기재된다. 그러나 이들 부호가 기재된 도면상의 도시 내용이 각각의 구성요소를 도면내의 범위로 한정하지 않는다. 마찬가지로 도면상의 구성을 일부 변형한 실시예가 채용되더라도 기능적 유사성 및 동일성이 있다면 균등한 구성으로 볼 수 있다. 또한 당해 기술 분야의 일반적인 기술자 수준에 비추어 보아, 당연히 포함되어야 할 구성요소로 인정되는 경우, 이에 대하여는 설명을 생략한다.
도 1은 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법이 수행되는 구성 및 화면 시현을 도시한 도면이다.
도 1을 참조하면 본 발명에 따른 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법은 피험자가 상담 및/또는 대화를 몰입하기 위해 가상현실(20)에 노출시킨 상태에서 수행될 수 있다.
도 1(a)을 참조하면, 본 발명에 따른 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법은 피험자가 착용하는 장비, 예를 들어 HMD(head Mount Display, 10) 또는 스마트 디바이스, PC 등의 그래픽 기반의 피험자 인터페이스를 갖는 장치가 이용될 수 있다. 전술한 피험자가 착용하는 장비는 피험자로부터 음성 데이터를 획득할 수 있도록 구성되며, 서버와 통신할 수 있도록 구성될 수 있다.
도시되지는 않았으나, 서버에는 복수의 인공지능 알고리즘이 탑재되어 피험자의 대화내용 및 음성 특성을 분석하고 우울증 여부를 판단할 수 있도록 구성된다. 또한 복수의 인공지능 중 적어도 하나는 피험자의 대화 내용을 분석하고 우울증을 치료하기 위한 대화내용을 생성하여 피험자가 착용하는 장비로 전송할 수 있도록 구성될 수 있다.
한편, 도 1(b)를 참조하면, 서버는 우울증을 치료하기 위한 대화 내용은 가상현실 상에서 생성된 캐릭터의 제스쳐와 음성을 동기화 하여 수행될 수 있다. 이를 위하여 서버에는 가상 현실의 물리 엔진이 탑재될 수 있으며, 피험자의 얼굴 데이터를 기반으로 가상 현실의 캐릭터(21)가 생성되고 이를 가상현실 공간에서 시현할 수 있는 데이터를 생성할 수 있다. 또한 어느 하나의 인공지능은 피험자로부터 획득된 음성에서 음성 특성을 추출하고 우울증을 치료하기 위한 대화 내용을 피험자의 음성을 모사하여 생성하고 영상을 시현할 수 있다.
또한 서버 또는 피험자가 사용하는 장비는 하나 이상의 게임 컨텐츠를 포함할 수 있다. 인공지능은 피험자가 우울증의 증상이 있는 것으로 판단되는 경우 필요에 따라 몰입감을 제공하고 집중하여 즐길 수 있는 게임을 피험자에게 추천할 수 있다. 상기의 게임은 우울증 환자에게 효과가 있는 적어도 하나의 플레이 방식을 포함할 수 있다.
본 발명에 따른 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법은 피험자가 병원에 직접 방문하지 않더라도 지속적으로 모니터링이 가능하며, 인공지능에 의해 우울증의 증세 및 심각도를 지속적으로 판단하고 치료를 위한 대화 또는 게임을 제공할 수 있다.
이하에서는 도 2 내지 도 8을 참조하여 본 발명에 따른 일 실시예인 인공지능 기반 미러 카운슬링 방법에 대하여 상세히 설명하도록 한다.
도 2는 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법이 수행되는 개념도이다.
도 2를 참조하면, 본 발명에 따른 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법은 피험자의 대화로부터 획득된 음성 데이터를 기반으로 우울증 정도를 측정하고 지속적으로 모니터링 할 수 있으며, 우울증 정도에 따른 자기 대화 방식의 상담을 진행할 수 있으며, 또한 필요에 따라 우울증 경감을 위한 게임을 수행하도록 안내할 수 있다. 이때 우울증의 정도 측정 및 모니터링, 자기 대화 방식의 상담 진행 및 게임 제공은 딥러닝으로 학습된 인공지능을 이용하여 판단 및 수행이 이루어질 수 있다.
도 3은 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법의 순서도이다.
도 3을 참조하면, 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법은 피험자와의 대화로 획득되는 음성 데이터를 저장하는 단계(S100), 수정 데이터를 생성하는 전처리 단계(S200), 제1 인공지능을 이용하여 음성 특성에 대한 제1 우울증 수치를 획득하는 단계(S300), 제2 인공지능을 이용하여 대화 내용에 대한 제2 우울증 수치를 획득하는 단계(S400), 제1 우울증 수치와 제2 우울증 수치를 취합하여 종합 우울증 수치를 근거로 우울증 여부를 판단하는 단계(S500), 종합 우울증 수치 소정범위에 해당하는지 판단하는 단계(S600), 게임 컨텐츠 제공하는 단계(S700), 피험자가 우울증으로 판단된 경우 제3 인공지능을 이용하여 긍정적 자기 대화 기법에 근거한 대화내용을 생성하는 단계(S800) 및 대화 내용 기반 영상생성 및 시현하는 단계(S900)를 포함하여 구성될 수 있다.
피험자와의 대화로 획득되는 음성 데이터를 저장하는 단계(S100)는 음성 데이터를 획득할 수 있는 전용 장치 또는 스마트 디바이스를 통하여 피험자와의 대화로부터 획득되는 음성 데이터를 획득하는 단계에 해당한다. 피험자와의 대화로 획득되는 데이터에는 말의 속도, 음높이 변화, 음정 등의 음성 특성에 데이터와 대화의 의미기 담긴 내용에 대한 정보가 포함될 수 있다. 음성 데이터에 포함된 음성 특성과 대화 내용에는 심리 상태 또는 우울증의 정도에 따라 나타날 수 있는 특징들을 포함할 수 있다. 예컨대, 음성 특성의 관점에서 피험자의 음성 반응이, 질문에 대한 대답 반응속도가 느려지거나, 말하는 음략이 감소하거나, 음의 높이의 다양성이 감소하여 말하는 톤이 일정한 경우에는 우울증 환자의 증상으로 볼 수 있다. 또한 대화 내용의 관점에서 우울하고 부정적인 단어의 사용, 우울하고 부정적인 단어의 빈도가 높은 경우, 우울하고 부정적인 대화의 흐름, 그리고 이러한 우울한 내용과 관련된 빈도가 오전에 더 심하고 오후로 갈수록 호전되는 경우에 우울증 환자의 증상으로 볼 수 있다.
수정 데이터를 생성하는 전처리 단계(S200)는 전술한 음성 데이터를 인공지능이 학습하고 판단하기 위한 적절한 형태로 처리하기 위한 단계이다. 이때 음성 데이터로부터 음성 특성과 대화 내용을 각각 전처리할 수 있다. 이와 관련하여, 도 4는 도 3의 전처리 단계(S200)의 상세한 순서도이다. 도 4를 참조하면, 음성 특성을 이미지화하는 전처리 단계는 음성 주파수 추출(S211), 주파수 대역별 mel 값 변환(S212), Mel Spectrogram 생성(S213) 및 Filtering을 통한 n * m 행렬화 단계(S214)를 포함할 수 있다. 결국 음성 데이터에 포함된 주파수 데이터로부터 전처리하여 이미지화 하고 히트맵(heatmap)을 생성할 수 있다.
한편, 음성 데이터로부터 내용을 인식시키기 위한 전처리로서, 음성 데이터로부터 문자를 생성하기 위한 전처리가 수행될 수 있다. 구체적으로 음성 데이터를 음성 문서화(S221) 하며, 문서를 토큰화(S222) 하고, 불용어를 제거(S223)하고, 토큰 n * m 행렬로 임베딩(S224)을 수행할 수 있다.
한편, 전술한 전처리 단계(S200)를 수행하여 획득된 데이터를 '수정 데이터'라고 정의하고 이하 설명하도록 한다.
도 5는 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에서 우울증 수치를 획득하는 과정을 나타낸 개념도이다.
도 5를 참조하면, 음성 특성 및 대화 내용이 추출된 수정 데이터를 근거로 인공지능을 이용하여 우울증 수치를 획득할 수 있다. 이때 인공지능은 복수로 구성될 수 있으며, 음성 특성을 기반으로 제1 우울증 수치를 획득하는 인공지능과 대화 내용을 기반으로 제2 우울증 수치를 획득하는 인공지능이 별도로 학습될 수 있다.
제1 인공지능을 이용하여 음성 특성에 대한 제1 우울증 수치를 획득하는 단계(S300)는 수정 이미지 중 히트맵을 입력 데이터로 하여 제1 우울증 수치를 도출하는 과정에 대하여 인공지능을 학습시켜 수행될 수 있다. 이 때 인공지능은 히트맵을 합성곱 신경망(Convolutional Neuron Network, CNN)을 이용하여 학습하고, 이후 LSTM(Long Short-Term Memory) 분석을 수행하여 시계열적인 특성에 대하여 학습한 후 우울증에 대한 수치를 획득할 수 있다.
제2 인공지능을 이용하여 대화 내용에 대한 제2 우울증 수치를 획득하는 단계(S400)는 수정 데이터에 포함된 토큰 행렬을 근거로 인공지능으로 LSTM 분석을 수행하고 학습 데이터에 근거하여 제2 우울증 수치를 획득하는 단계에 해당한다. 학습 데이터에는 정신과에서 사용되는 문진표 및 연구결과에 따라 단어별로 부정적인지 여부에 대한 정보를 포함할 수 있다.
제1 우울증 수치와 제2 우울증 수치를 취합하여 종합 우울증 수치를 근거로 우울증 여부를 판단하는 단계(S500)는 복수의 인공지능으로부터 획득된 제1 우울증 수치와 제2 우울증 수치를 취합하여 종합 우울증 수치를 산출하는 단계이다. 이때 각 우울증 수치별로 가중치가 적용될 수 있다. 한편, 인공지능의 학습시에는 Beck Depression Inventory score 와 비교해 오차를 통해 피드백을 수행하여 산출된 종합 우울증 수치의 정확도를 향상시킬 수 있게 된다.
종합 우울증 수치 소정범위에 해당하는지 판단하는 단계(S600)는 종합 우울증 수치에 따라 게임을 제안할 것인지 대화를 진행할 것인지를 판단하는 단계에 해당한다. 종합 우울증 수치가 소정범위에 해당하여 대화를 진행해야 하는 것으로 판단된 경우 긍정적 자기 대화 기법에 근거한 대화내용을 생성하는 단계(S800) 및 대화 내용 기반 영상생성 및 시현하는 단계(S900)가 수행될 수 있다.
도 6은 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에서 우울증으로 판단된 경우 자기 대화 기법으로 상담 내용을 생성하는 과정에 대한 개념도이다.
도 6을 참조하면, 긍정적 자기 대화 기법에 근거한 대화내용을 생성하는 단계(S800)는 자기 대화 기법의 대화 내용을 생성하기 위하여 인공지능을 학습시켜 수행될 수 있다. 학습 데이터로서 심리 상담 및 정신과 연구에 의해 구축된 카운슬링 데이터가 이용될 수 있다. 전술한 음성 데이터로부터 획득된 피험자가 말하는 내용을 근거로 자기 대화 기법으로 질문하고 긍정적인 대화를 이끌어낼 수 있는 대화의 내용이 생성될 수 있다. 이와 같은 자기 대화 기법을 통해 우울증 환자 자신이 궁극적으로 행복해지는 방법을 찾아 나가는 방향을 깨닫게 함으로써, 우울증을 유발하는 근본적인 원인을 해결할 수 있다. 일 예로서, 피험자가'나 오늘 기분이 우울해' 라고 말한 경우 인공지능에서는 '무슨 일 이 있었나요?'와 같은 대화 내용을 생성할 수 있다. 이때 인공지능에서 생성된 대화 내용은 카운슬링 데이터와 비교하여 피드백하여 인공지능의 대화 내용 생성의 정확도를 향상시킬 수 있다.
대화 내용 기반 영상생성 및 시현하는 단계(S900)는 대화 내용이 결정되면 피험자가 마치 자기 자신과 또는 자기 자신과 유사한 처지로 생각될 수 있는 캐릭터를 생성하여 캐릭터가 말을 하는 방식으로 구현될 수 있다. 이때 캐릭터는 피험자의 외형 특징을 포함하는 아바타 또는 3차원적인 캐릭터가 될 수 있다. 이때 피험자의 음성 데이터로부터 음성 특성을 추출하고 피험자의 목소리를 모사하여 피험자가 마치 자기 자신과 대화하는 느낌을 갖도록 할 수 있어 자기 대화 기법의 효과를 극대화할 수 있다. 또한 가상현실에서 대화가 이루어지므로 피험자에게 실제 상황과 같은 자극을 제시할 수 있어 높은 생태학적 타당도(ecological validity), 개인 맞춤형 치료적 접근, 오류 발생 시 위험 최소화, 용이한 자극통제와 반복적 자극제시, 객관적인 파라미터 추출이 가능함으로 치료효과가 높아지게 된다.
또한 가상현실에서 인지행동치료를 진행하기 때문에, 비교 시술(노출 기반 인지행동치료)과 유사하여 의학적으로 치료 효과가 크게 된다.
도 7은 우울증으로 판단된 경우 게임을 추천하는 과정의 개념도이다.
게임 컨텐츠 제공하는 단계(S700)는 종합 우울증 수치가 즉시 게임을 제안하여 피험자가 임무를 주어 몰입하게 하거나, 가상 현실에서 다양한 행위를 요구하는 게임을 제안하여 우울증을 개선하기 위해 수행된다.
도 7을 참조하면, 게임 데이터 벳으로부터 후보군을 생성하고 종합 우울증 수치에 따라 현재 상태를 개선하기 위해 적절한 게임에 대한 후보군을 생한다. 이후 순위를 부여하고 가장 적합한 게임을 피험자에게 추천할 수 있게 된다. 다만, 이러한 게임 컨텐츠는 다양하게 변형될 수 있고, 다양한 기준에 의하여 선택될 수있으므로 게임 컨텐츠의 내용 및 추천을 위한 선정 과정에 대하여는 그 설명을 생략하도록 한다.
도 8은 본 발명에 따른 일 실시예인 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법에서 수행되는 전체적인 데이터 처리의 개념을 도시한 도면이다.
도 8을 참조하면, 피험자로부터 획득된 음성 데이터를 이용하여 음성 특성과 음성 내용을 전처리하고 딥 러닝으로 인공지능에 학습시켜 현재의 우울증 척도를 생성하는 과정에 대한 개념이 도시되어 있다.
이상에서 설명한 바와 같이, 본 발명에 따른 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법은 병원의 내방없이 디바이스를 통하여 우울증을 치료할 수 있어 환자의 부담을 경감시킬 수 있다.
또한, 자기 대화(self-conversation)를 통해 우울증 환자 자신이 궁극적으로 행복해지는 방법을 찾아 나가는 방향을 깨닫게 함으로써 우울증을 유발하는 근본적인 원인을 해결하여 치료효과를 향상시킬 수 있는 효과가 있다.
S100: 피험자와의 대화로 획득되는 음성 데이터를 저장하는 단계
S200: 수정 데이터를 생성하는 전처리 단계
S300: 제1 인공지능을 이용하여 음성 특성에 대한 제1 우울증 수치를 획득하는 단계
S400: 제2 인공지능을 이용하여 대화 내용에 대한 제2 우울증 수치를 획득하는 단계
S500: 제1 우울증 수치와 제2 우울증 수치를 취합하여 종합 우울증 수치를 근거로 우울증 여부를 판단하는 단계
S600: 종합 우울증 수치 소정범위인지 판단하는 단계
S700: 피험자가 우울증으로 판단된 경우 제3 인공지능을 이용하여 긍정적 자기 대화 기법에 근거한 대화내용을 생성하는 단계
S800: 게임 컨텐츠 제공
S900: 대화 내용 기반 영상생성 및 시현하는 단계

Claims (6)

  1. 피험자의 대화로 획득되는 음성 데이터를 저장하는 단계;
    상기 음성 데이터를 전처리하여 수정 데이터를 생성하는 전처리 단계;
    제1 인공지능을 이용하여 상기 수정 데이터를 근거로 음성 특성에 대한 스펙트럼을 분석하여 제1 우울증 수치를 획득하는 단계;
    제2 인공지능을 이용하여 상기 수정 데이터를 근거로 대화의 내용에 대한 제2 우울증 수치를 도출하는 단계;
    상기 제1 우울증 수치 및 상기 제2 우울증 수치를 취합하여 종합 우울증 수치를 근거로 우울증 여부를 판단하는 단계;
    상기 피험자가 우울증인 것으로 판단된 경우 제3 인공지능을 이용하여 긍정적 자기 대화(positive self-conversation) 기법을 포함하는 자기 대화 기법 데이터에 근거한 대화내용을 생성하는 단계; 및
    상기 대화내용을 소리로 출력하는 단계를 포함하는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법.
  2. 제1 항에 있어서,
    상기 대화내용을 소리로 출력하는 단계는,
    상기 피험자의 대화로 획득되는 음성 샘플을 기반으로 상기 피험자의 음성을 모사하여 출력하는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법.
  3. 제2 항에 있어서,
    상기 피험자의 대화로 음성 데이터를 저장하는 단계 및 상기 대화내용을 소리로 출력하는 단계는 상기 피험자를 가상현실에 노출시킨 상태에서 수행되는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법.
  4. 제3 항에 있어서,
    상기 제1 우울증 수치를 도출하는 단계는,
    상기 제1 인공지능을 이용하여,
    상기 음성 데이터로부터 히트맵을 생성하는 단계;
    상기 히트맵을 CNN 분석하는 단계; 및
    상기 CNN 분석이후 LSTM 분석으로 학습시킨 후 수행되는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법.
  5. 제4 항에 있어서,
    상기 제2 우울증 수치를 획득하는 단계는,
    상기 제2 인공지능을 이용하여,
    상기 수정 데이터에 포함된 대화의 내용을 LSTM 분석으로 학습시킨 후 수행되는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법.
  6. 제3 항에 있어서,
    상기 우울증 여부를 판단하는 단계 이후 상기 종합 우울증 수치를 근거로 상기 수치가 소정 범위에 해당하는 경우 상기 피험자에게 게임 컨텐츠를 제공하는 게임 컨텐츠 제공 단계를 더 포함하는 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법.
KR1020210023334A 2021-02-22 2021-02-22 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법 KR102468833B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210023334A KR102468833B1 (ko) 2021-02-22 2021-02-22 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210023334A KR102468833B1 (ko) 2021-02-22 2021-02-22 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법

Publications (3)

Publication Number Publication Date
KR20220120749A true KR20220120749A (ko) 2022-08-31
KR102468833B1 KR102468833B1 (ko) 2022-11-28
KR102468833B9 KR102468833B9 (ko) 2023-02-23

Family

ID=83061635

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210023334A KR102468833B1 (ko) 2021-02-22 2021-02-22 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법

Country Status (1)

Country Link
KR (1) KR102468833B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492332B1 (ko) * 2022-09-16 2023-01-27 주식회사 브로드씨엔에스 뉴럴 네트워크를 이용하여 단말로부터 획득된 통화 음성 데이터를 기반으로 음악 데이터를 상기 단말에게 제공하는 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130120691A (ko) * 2012-04-26 2013-11-05 주식회사 티움씨앤씨 자기 파일을 이용한 심리 상태 개선 시스템 및 방법
KR101793426B1 (ko) * 2016-10-28 2017-11-03 신옥철 가상현실을 이용한 심리치료장치
KR20190081626A (ko) * 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
KR20190125153A (ko) * 2018-04-27 2019-11-06 아토머스 주식회사 텍스트 기반 사용자심리상태예측 및 콘텐츠추천 장치 및 그 방법
KR102066225B1 (ko) * 2019-03-12 2020-01-14 가천대학교 산학협력단 인공지능 기능의 스마트 진단 장치, 시스템 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130120691A (ko) * 2012-04-26 2013-11-05 주식회사 티움씨앤씨 자기 파일을 이용한 심리 상태 개선 시스템 및 방법
KR101793426B1 (ko) * 2016-10-28 2017-11-03 신옥철 가상현실을 이용한 심리치료장치
KR20190081626A (ko) * 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
KR102041848B1 (ko) 2017-12-29 2019-11-08 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
KR20190125153A (ko) * 2018-04-27 2019-11-06 아토머스 주식회사 텍스트 기반 사용자심리상태예측 및 콘텐츠추천 장치 및 그 방법
KR102066225B1 (ko) * 2019-03-12 2020-01-14 가천대학교 산학협력단 인공지능 기능의 스마트 진단 장치, 시스템 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102492332B1 (ko) * 2022-09-16 2023-01-27 주식회사 브로드씨엔에스 뉴럴 네트워크를 이용하여 단말로부터 획득된 통화 음성 데이터를 기반으로 음악 데이터를 상기 단말에게 제공하는 방법 및 장치

Also Published As

Publication number Publication date
KR102468833B1 (ko) 2022-11-28
KR102468833B9 (ko) 2023-02-23

Similar Documents

Publication Publication Date Title
US10376197B2 (en) Diagnosing system for consciousness level measurement and method thereof
JP2020522028A (ja) 音声に基づく医療評価
CN102149319B (zh) 阿尔茨海默氏症认知使能器
KR102533467B1 (ko) 음성활동 평가를 이용한 기분삽화(우울삽화, 조증삽화) 조기 진단을 위한 정보 제공 방법
JP2007018234A (ja) 感情表現語句辞書自動生成方法及び装置、並びにテキストに対する感情尺度評価値自動付与方法及び装置
Lavan et al. Trait evaluations of faces and voices: Comparing within-and between-person variability.
JP7390268B2 (ja) 認知機能予測装置、認知機能予測方法、プログラム及びシステム
KR20220127471A (ko) 가상현실을 이용한 심리 상담 제공 장치, 방법 및 프로그램
CN117541444B (zh) 一种互动虚拟现实口才表达训练方法、装置、设备及介质
CN114429817A (zh) 一种老年人健康风险预测方法、系统及电子设备
KR102468833B1 (ko) 우울증 치료를 위한 인공지능 기반의 미러 카운슬링 방법
Jo et al. Diagnosis of depression based on four-stream model of bi-LSTM and CNN from audio and text information
Gómez-Zaragozá et al. An online attachment style Recognition System based on Voice and Machine Learning
Baka et al. Social robots and digital humans as job interviewers: A study of human reactions towards a more naturalistic interaction
Jiao et al. Objective intelligibility assessment by automated segmental and suprasegmental listening error analysis
CN116301473A (zh) 基于虚拟现实的用户行为预测方法、装置、设备及介质
US20190374150A1 (en) Diagnosing system for consciousness level measurement and method thereof
Yu et al. Phonemes convey embodied emotion
Gómez-Zaragozá et al. Linguistic Indicators of Depressive Symptoms in Conversations with Virtual Humans
Campbell-Kibler et al. Perceived foreign accent as a predicator of face-voice match
KR102642997B1 (ko) 정신 건강을 위한 자아 활성화 시스템
KR102610273B1 (ko) 메타버스를 활용하여 특정 사용자의 특정 아바타에게 트리거링 아바타와의 인터랙션을 유도하기 위한 컨텐츠를 제공하는 방법 및 장치
KR102610267B1 (ko) 메타버스 내의 아바타 간의 인터랙션을 참조하여 특정 아바타에 대응되는 특정 사용자의 상태를 분석하고 서비스를 제공하는 방법 및 장치
Egorow Accessing the interlocutor: recognition of interaction-related interlocutor states in multiple modalities
Rahman et al. Behavior change analysis due to violent video gaming using deep learning models

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]