KR20200032927A - 감정 상태를 개선시키는 방법 및 그 장치 - Google Patents

감정 상태를 개선시키는 방법 및 그 장치 Download PDF

Info

Publication number
KR20200032927A
KR20200032927A KR1020180112181A KR20180112181A KR20200032927A KR 20200032927 A KR20200032927 A KR 20200032927A KR 1020180112181 A KR1020180112181 A KR 1020180112181A KR 20180112181 A KR20180112181 A KR 20180112181A KR 20200032927 A KR20200032927 A KR 20200032927A
Authority
KR
South Korea
Prior art keywords
user
emotional state
content
item
contents
Prior art date
Application number
KR1020180112181A
Other languages
English (en)
Other versions
KR102100418B1 (ko
Inventor
김신실
이승원
권영욱
송은경
박미진
Original Assignee
메타헬스케어 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 메타헬스케어 주식회사 filed Critical 메타헬스케어 주식회사
Priority to KR1020180112181A priority Critical patent/KR102100418B1/ko
Publication of KR20200032927A publication Critical patent/KR20200032927A/ko
Application granted granted Critical
Publication of KR102100418B1 publication Critical patent/KR102100418B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/0476
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3576Communication with non implanted data transmission devices, e.g. using external transmitter or receiver
    • A61M2205/3584Communication with non implanted data transmission devices, e.g. using external transmitter or receiver using modem, internet or bluetooth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/08Other bio-electrical signals
    • A61M2230/10Electroencephalographic signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2230/00Measuring parameters of the user
    • A61M2230/60Muscle strain, i.e. measured on the user

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychology (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Developmental Disabilities (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Anesthesiology (AREA)
  • Educational Technology (AREA)
  • Primary Health Care (AREA)
  • Hematology (AREA)
  • Acoustics & Sound (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

사용자의 감정 상태를 개선시키는 방법이 개시된다. 사용자의 감정 상태를 개선시키는 방법은, 사용자 단말에서 상기 사용자의 상기 감정 상태의 측정 조건을 설정하는 과정, 상기 설정된 측정 조건에 기초하여 상기 사용자의 제1 감정 상태를 측정하는 과정, 상기 측정된 제1 감정 상태에 기초하여 상기 사용자의 상기 제1 감정 상태를 개선시키기 위한 복수의 컨텐트 중 하나를 선택하여 실행하는 과정, 상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 제2 감정 상태를 측정하는 과정, 1상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 상기 사용자 단말에 대한 이벤트를 판단하는 과정, 상기 제2 감정 상태 및 상기 사용자의 상기 사용자 단말에 대한 상기 이벤트에 기초하여, 상기 제1 감정 상태와 상기 복수의 컨텐트 중 상기 하나의 적합도를 결정하는 과정 및 상기 결정된 적합도에 기초하여, 상기 제1 감정 상태를 개선시키기 위한 상기 복수의 컨텐트에 대한 정보를 업데이트하는 과정을 포함할 수 있다.

Description

감정 상태를 개선시키는 방법 및 그 장치 {METHOD AND APPARATUS FOR IMPROVING MENTAL CONDITION}
본 발명은 사람의 감정 상태를 개선시키는 방법 및 그 장치에 대한 것으로, 보다 상세하게는 사람의 감정 상태에 따른 컨텐트를 제공해주는 방법 및 그 장치에 대한 것이다.
인체의 미세 근육의 떨림을 측정하여 사람의 감정을 분석하는 기법으로는 예를 들어, 바이브라이미지(vibraimage) 기술(특허등록번호 1015008880000, 1015363480000, 1017390580000 등)이 있다. 바이브라이미지 기술은 인체의 미세 근육을 촬영하여 분석하는 방법으로, 측정 대상의 모든 점의 규칙적인 움직임을 매개변수화하여 사람의 감정을 판단한다.
바이브라이미지는 사람의 신체적 특성을 반영하는 이미지를 이용하는 생체의료 방법들 예를 들면, 초음파 검사, 핵자기 공명, 엑스레이와 유사한 점이 있다.
바이브라이미지 기술은 뇌전도(EEG), 전기피부반응(GSR), 심전도(EDG)와 같은 생체 의료 정보를 읽는 방법과 유사한 신호를 획득 가능하게 해준다. 이를 통해, 바이브라이미지 기술은 사람의 감정을 계량화 할 수 있다.
본 발명은 사람의 현재 감정 상태와 사람의 감정 상태를 개선시키기 위한 컨텐트간의 적합도를 향상시켜 사람의 감정 상태를 효과적으로 개선하는 방법 및 장치를 제공한다.
본 발명의 다양한 실시 예에 따른 사용자의 감정 상태를 개선시키는 방법은, 사용자 단말에서 상기 사용자의 상기 감정 상태의 측정 조건을 설정하는 과정, 상기 설정된 측정 조건에 기초하여 상기 사용자의 제1 감정 상태를 측정하는 과정, 상기 측정된 제1 감정 상태에 기초하여 상기 사용자의 상기 제1 감정 상태를 개선시키기 위한 복수의 컨텐트 중 하나를 선택하여 실행하는 과정, 상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 제2 감정 상태를 측정하는 과정, 1상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 상기 사용자 단말에 대한 이벤트를 판단하는 과정, 상기 제2 감정 상태 및 상기 사용자의 상기 사용자 단말에 대한 상기 이벤트에 기초하여, 상기 제1 감정 상태와 상기 복수의 컨텐트 중 상기 하나의 적합도를 결정하는 과정 및 상기 결정된 적합도에 기초하여, 상기 제1 감정 상태를 개선시키기 위한 상기 복수의 컨텐트에 대한 정보를 업데이트하는 과정을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 사용자의 감정 상태를 개선시키기 위한 사용자 단말은, 카메라 및 기 정의된 측정 조건에 기초하여 상기 사용자의 제1 감정 상태를 측정하도록 상기 카메라를 제어하고, 상기 측정된 제1 감정 상태에 기초하여 상기 사용자의 상기 제1 감정 상태를 개선시키기 위한 복수의 컨텐트 중 하나를 선택하여 실행하고, 상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 제2 감정 상태를 측정하도록 상기 카메라를 제어하고, 상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 상기 사용자 단말에 대한 이벤트를 판단하고, 상기 제2 감정 상태 및 상기 사용자의 상기 사용자 단말에 대한 상기 이벤트에 기초하여, 상기 제1 감정 상태와 상기 복수의 컨텐트 중 상기 하나의 적합도를 결정하고, 상기 결정된 적합도에 기초하여, 상기 제1 감정 상태를 개선시키기 위한 상기 복수의 컨텐트에 대한 정보를 업데이트하는 프로세서를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 사람의 감정 상태에 적합도가 큰 컨텐트를 제공함으로써 사람의 현재 감정 상태를 효과적으로 개선할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 앱의 로그인 화면을 도시한다.
도 3은 본 발명의 일 실시 예에 따른 앱의 사용자 정보 선택 화면을 도시한다.
도 4는 본 발명의 일 실시 예에 따른 메인 화면을 도시한다.
도 5는 본 발명의 일 실시 예에 따른 감정 상태 촬영 상태를 도시한다.
도 6은 본 발명의 일 실시 예에 따른 감정 상태 결과 화면을 도시한다.
도 7은 본 발명의 일 실시 예에 따른 이모티콘을 도시한다.
도 8은 본 발명의 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
도 9는 본 발명의 또 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
도 10은 본 발명의 또 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
도 11은 본 발명의 또 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
도 12는 본 발명의 일 실시 예에 따른 결과 아이템을 도시한다.
도 13은 본 발명의 일 실시 예에 따른 감정 상태 결과 이력을 도시한다.
도 14는 본 발명의 일 실시 예에 따른 감정 상태 변화 그래프를 도시한다.
도 15 및 16은 본 발명의 또 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
도 17은 본 발명의 일 실시 예에 따른 특수직업용 앱의 사용자 정보 입력창 도시한다.
도 18은 본 발명의 일 실시 예에 따른 특수직업용 앱의 결과 화면을 도시한다.
도 19는 본 발명의 일 실시 예에 따른 마인드 케어 화면을 도시한다.
도 20은 본 발명의 일 실시 예에 따른 나를 위한 케어 화면을 도시한다.
도 21은 본 발명의 일 실시 예에 따른 나를 위한 음악 케어 화면을 도시한다.
도 22는 본 발명의 다른 실시 예에 따른 마인드 케어 화면을 도시한다.도 23은 본 발명의 일 실시 예에 따른 마인드 케어를 위한 컨텐트 재생 화면을 도시한다.
도 24는 본 발명의 일 실시 예에 따른 사용자 단말의 상세 블록도이다.
도 25는 본 발명의 일 실시 예에 따른 사용자의 감정 상태를 개선시키는 방법을 설명하기 위한 흐름도이다.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대한 동작원리를 상세히 설명한다. 또한, 발명에 대한 실시 예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 하기에서 사용되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 사용된 용어들의 정의는 본 명세서 전반에 걸친 내용 및 이에 상응한 기능을 토대로 해석되어야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 1을 참조하면, 사용자 단말(100)은 카메라(110) 및 프로세서(120)를 포함한다. 일 예로, 사용자 단말(100)은 휴대폰, 테블릿 PC, 랩톱, PC, 웨어러블 기기, TV 등일 수 있다.
카메라(100)는 사용자 단말(100)의 사용자를 촬영할 수 있다. 카메라(100)는 사용자 단말을 촬영하여 이미지를 생성할 수 있다. 이 경우, 카메라(100)는 사용자의 특정 신체 부위를 촬영하도록 기설정될 수 있다. 예를 들어, 카메라(100)는 사용자의 얼굴을 촬영할 수 있다. 여기서, 카메라(100)는 사용자의 얼굴의 미세근육 떨림을 인식하여 사용자의 감정 상태를 파악할 수 있다.
프로세서(120)는 사용자 단말(100)을 전반적으로 제어한다.
프로세서(120)는 사용자를 촬영하도록 카메라(100)을 제어할 수 있다. 이 경우, 프로세서(120)는 사용자가 촬영된 이미지를 처리할 수 있다.
프로세서(120)는 기설정된 측정 조건 또는 외부 입력에 기초하여 사용자의 감정 상태의 측정을 설정할 수 있다. 여기서, 사용자 단말(100)에서 사용자의 감정 상태 측정 조건이 설정될 수 있다. 예를 들면, 사용자의 감정 상태의 측정 조건은, 사용자의 감정 상태가 측정되는 장소, 사용자의 감정 상태가 측정되는 시간, 사용자의 섭식 여부(예를 들어, 식전 또는 식후), 사용자의 수면 시간, 사용자의 취침 시간 및 기상 시간 중 적어도 하나일 수 있다. 여기서, 감정 상태는 뇌피로도, 집중도 및 활력지수 중 적어도 하나일 수 있다.
일 예로, 사용자의 감정 상태는, 카메라(100)에서 촬영된 사용자의 이미지를 통해 사용자의 안면 근육의 움직임에 의해 측정될 수 있다. 일 예로, 사용자의 감정 상태는 바이브라이미지 기술을 이용하여 측정할 수 있다. 바이브라이미지 기술은 공지의 기술이므로 여기서 상세한 설명은 생략한다.
프로세서(120)는 사용자의 감정 상태를 개선시키기 위한 컨텐트를 선택 및 실행할 수 있다. 여기서, 컨텐트는 음악, 영상, 회화, 내래이션, 상담, 동화심리상담 등 사용자의 감정 상태를 개선시키도록 구성될 수 있다. 여기서, 동화심리 상담은 단편 동화를 이용하여 사용자의 감정 상태를 개선시키는 방법이다. 예를 들면, 프로세서(120)가 기저장된 단편 동화를 통해 질문을 출력하고(예를 들어, 카드 섹션 타입의 플립 카드 동화), 상기 질문에 대해 사용자로부터 답변을 입력받는다. 프로세서(120)는 사용자로부터 입력받은 답변에 기초하여 사용자에게 적합한 단편 동화 목록을 업데이트 한다. 동화 심리 상담을 통해, 사용자는 스스로의 감정에 대한 질문에 스스로 답을 찾아가면서 스스로를 이해하여 감정 상태를 개선시킬 수 있다.
일 예로, 프로세서(120)는 측정된 제1 감정 상태에 기초하여 사용자의 제1 감정 상태를 개선시키기 위한 복수의 컨텐트 중 하나를 선택하여 실행할 수 있다.
여기서, 프로세서(120)는 컨텐트를 선택하기 위해 복수의 컨텐트에 대한 정보를 이용할 수 있다. 예를 들면, 복수의 컨텐트에 대한 정보는 사용자의 감정 상태와 사용자의 감정 상태를 개선시키기 위한 컨텐트 간의 매핑 정보를 포함할 수 있다. 이 경우, 프로세서(120)는 상기 매핑 정보를 이용하여 제1 감정 상태를 개선시키기 위한 최적의 컨텐트를 선택 및 실행할 수 있다.
프로세서(120)는 사용자의 제2 감정 상태를 측정할 수 있다. 구체적으로, 프로세서(120)는 복수의 컨텐트 중 하나의 시청에 따른 사용자의 제2 감정 상태를 측정하도록 카메라(110)를 제어할 수 있다. 일 예로, 프로세서(120)는 복수의 컨텐트 중 하나를 사용자에게 제공하면서 제2 감정 상태를 측정할 수 있다. 이 경우, 프로세서(120)는 복수의 컨텐트 중 하나를 실행하여 사용자에게 제공하는 동시에 사용자의 제2 감정 상태를 측정할 수 있다. 따라서, 제2 감정 상태 측정의 결과는 사용자가 컨텐트를 시청하며 반응하는 실시간 감정 상태 데이터가 될 수 있다.
복수의 컨텐트 중 하나의 시청이 완료되는 경우, 프로세서(120)는 사용자에게 컨텐트에 대한 평점 및 설문 중 적어도 하나를 문의하는 GUI를 생성하여 디스플레이할 수 있다. 프로세서(120)는 컨텐트에 대한 평점(예를 들어, 좋아요, 싫어요, 별 개수 선택 등) 및 설문(예를 들어, 내성적, 외향적, 선호도 등을 선택) 중 적어도 하나에 대한 사용자 입력을 받으면 저장부에 이를 기록할 수 있다.
또한, 프로세서(120)는 사용자의 사용자 단말에 대한 이벤트를 판단할 수 있다. 일 예로, 프로세서(120)는 사용자가 복수의 컨텐트 중 하나에 대해 반복 청취 또는 되감기를 한 경우 해당 횟수를 이벤트로 판단할 수 있다. 다른 예로, 프로세서(120)는 사용자가 사용자 단말(100)을 기정의된 횟수만큼 흔들기 하는 경우, 이를 이벤트로 판단할 수 있다. 이 경우, 프로세서(120)는 이벤트 결과를 저장부에 저장할 수 있다.
프로세서(120)는 사용자의 현재 감정 상태와 사용자의 감정 상태를 개선시키기 위한 컨텐트 간의 적합도(또는 컨텐트의 효과)를 결정할 수 있다.
일 예로, 프로세서(120)는 제2 감정 상태 및 사용자의 사용자 단말(100)에 대한 이벤트에 기초하여, 제1 감정 상태와 복수의 컨텐트 중 하나의 적합도를 결정할 수 있다.
예를 들면, 프로세서(120)는 제2 감정 상태에 기초하여 상기 적합도를 판단할 수 있다. 구체적으로, 프로세서(120)는 카메라(110)에 의해 촬영된 영상에 기초하여, 상기 적합도는 뇌피로도, 집중도, 활력지수 각각을 측정할 수 있다. 이 경우, 프로세서(120)는 뇌피로도, 집중도, 활력지수 각각을 수치화할 수 있다. 프로세서(120)는 뇌피로도, 집중도, 활력지수 각각 또는 평균 값이 기 정의된 값 이상인 경우 적합도가 기준치에 부합한다 또는 적합하다고 판단할 수 있다. 또는 프로세서(120)는 기 정의된 값에 따라, 뇌피로도, 집중도, 활력지수 각각 또는 평균 값을 복수 개의 등급(grade)으로 구분하고 이를 적합도로 판단할 수 있다.
예를 들면, 프로세서(120)는 사용자의 사용자 단말(100)에 대한 이벤트에 기초하여 상기 적합도를 판단할 수 있다.
일 예로, 프로세서(120)는 사용자가 복수의 컨텐트 중 하나에 대해 반복 청취 또는 되감기를 한 경우 해당 횟수를 이벤트로 판단할 수 있다. 이 경우, 프로세서(120)는 반복 청취 또는 되감기 횟수가 기 정의된 반복 청취 또는 되감기 횟수를 만족하는 경우, 사용자의 제1 감정 상태와 복수의 컨텐트 중 하나는 적합하다고 판단할 수 있다.
다른 예로, 프로세서(120)는 사용자가 사용자 단말(100)을 기 정의된 횟수만큼 흔들기 하는 경우, 이를 이벤트로 판단할 수 있다. 이 경우, 프로세서(120)는 사용자의 제1 감정 상태와 복수의 컨텐트 중 하나는 적합하다고 판단할 수 있다.
프로세서(120)는 적합도가 결정되면, 결정된 적합도에 기초하여 사용자의 제1 감정 상태를 개선시키기 위한 복수의 컨텐트에 대한 정보를 업데이트할 수 있다.
일 예로, 사용자의 제1 감정 상태를 개선시키기 위해 선택된 복수의 컨텐트 중 하나는 사용자의 질환 정보 및 컨텐트의 색채 정보에 기초하여 선택될 수 있다.
예를 들어, 프로세서(120)는 사용자에게 질환 정보를 설문하기 위한 GUI를 생성하여 디스플레이할 수 있다. 여기서, 질환 정보는 당뇨병, 고혈압, 고지혈증, 뇌혈관질환, 심혈관질환, 비만 등 만성질환에 대한 것일 수 있다.
이 경우, 프로세서(120)는 질환 정보에 기초하여 컨텐트를 선택 및 실행할 수 있다. 예를 들어, 사용자가 고혈압을 체크한 경우, 프로세서(120)는 빨간색 계통의 컨텐트를 배제하고, 파랑색 계통의 컨텐트를 실행할 수 있다. 다른 예로, 사용자가 비만을 체크한 경우, 주황색, 노랑색 등 식욕을 자극하는 색 계통의 컨텐트를 배제하고, 파랑색, 보라색 등 식욕을 억제하는 색 계통의 컨텐트를 실행할 수 있다.
이를 위해, 복수의 컨텐트에 대한 정보는, 복수의 컨텐트 각각에 대하여 색 계통에 대한 정보가 매핑된 매핑 정보를 포함할 수 있다. 이 경우, 프로세서(120)는 상기 매핑 정보 및 사용자의 질환 정보에 기초하여 사용자의 제1 감정 상태에 적합한 컨텐트를 제공해줄 수 있다.
상술한 사용자 감정 상태에 따른 맞춤 컨텐트를 제공하는 방법은 인공지능(AI) 기반 컨텐트 분석을 이용할 수 있다. 여기서, AI 기반 컨텐트 분석 기법은 공지의 그루핑(grouping), 매핑(mapping), 적응(adjustment) 방법을 이용할 수 있다. 또한, 사용자 감정 상태에 따른 맞춤 컨텐트를 제공하는 방법은 빅데이터, 딥러닝 기법을 활용할 수 있다.
상술한 본 발명의 다양한 실시 예에 따르면, 사용자의 현재 감정 상태에 적합한 컨텐트를 효과적으로 제공함으로써, 사용자를 긍정적의고 바람직한 정서로 유도하는 서비스를 제공할 수 있다. 또한, 사용자의 감정 상태를 손쉽게 평가받을 수 있으므로, 심리상담센터나 정신과를 꺼려하는 사용자에 대한 솔루션이 될 수 있다. 또한, 사용자가 평소의 스트레스 수준을 손쉽게 알 수 있기 때문에, 스트레스 관리력을 높일 수 있다. 또한, 집중력 장애나 과잉행동 장애(ADHD)가 나날이 늘어가고 있는데 이에 대한 적절한 조기 대처가 가능하다.
이하에서는, 본 발명의 다양한 실시 예를 통해 사용자 감정 상태를 개선하는 방법을 상세히 설명한다.
본 발명의 다양한 실시 예에 따르면, 사용자 감정 상태를 개선하는 방법은 성인용, 유아용 및 고위험 직종 등 개별 직업용으로 구별될 수 있다. 이하, 도 2 내지 18을 참조하여 사용자 감정 상태를 개선하는 어플리케이션(이하 '앱')에 대해 상세히 설명한다. 여기서, 앱은 성인용, 유아용 및 고위험 직종 등 개별 직업용으로 실행될 수 있다. 또한, 앱은 프로세서의 제어에 의해 실행 및 동작될 수 있다. 이하, 도 2 내지 16을 참조하여 성인용 버전의 앱에 대해 상세히 설명한다. 물론, 이하에서 성인용 버전의 앱의 내용은 유아용 및 고위험 직종 등 개별 직업용으로 이용될 수도 있다.
도 2는 본 발명의 일 실시 예에 따른 앱의 로그인 화면을 도시한다.
도 2를 참조하면, 사용자 단말(200)의 앱('마인드 인(mind in)'으로 지칭될 수 있음)의 로그인 화면(210)을 도시한다. 로그인 화면(210)은 사용자의 ID 정보(identification information)에 대한 아이템(211), 비밀번호 정보(password information)에 대한 아이템(212), '아이디 찾기' 아이템 및 '비밀번호 찾기' 아이템을 포함할 수 있다. 여기서, 로그인 대상이 되는 사용자는 앱의 관리자 또는 감정 상태 체크의 대상이 되는 사용자일 수 있다.
도 3은 본 발명의 일 실시 예에 따른 앱의 사용자 정보 선택 화면을 도시한다.
로그인이 되면, 프로세서(120)는 등록된 사용자 목록(220)을 디스플레이할 수 있다. 사용자 목록(200) 중 하나를 선택하는 입력이 있는 경우, 프로세서(120)는 메인 화면을 디스플레이할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 메인 화면을 도시한다.
도 4를 참조하면, 프로세서(120)는 메인 화면에 사용자의 기저장된 정보 예를 들면, 이름, 나이, 성별을 디스플레이할 수 있다. 또한, 프로세서(120)는 사용자 감정 상태 측정 일시(221), 측정 장소(222) 및 측정 상황(223)을 디스플레이할 수 있다. 여기서, 측정 일시(221)가 선택되는 경우, 프로세서(120)는 해당 측정 일의 감정 상태의 결과화면을 디스플레이할 수 있다.
일 예로, 측정하기 아이템(224)이 선택되는 경우, 프로세서(120)는 사용자 감정 상태 측정 장소 및 측정 상황을 사용자로부터 직접 입력받기 위한 아이템을 디스플레이하고, 사용자로부터 사용자 감정 상태 측정 장소 및 측정 상황을 입력받을 수 있다. 일 예로, 측정하기 아이템(224)이 선택되는 경우, 프로세서(120)는 측정 장소 아이템(222) 및 측정 상황 아이템(223)을 디스플레이할 수 있다. 여기서, 측정 상소 아이템(222) 및 측정 상황 아이템(223)은 팝업 형태로 디스플레이될 수 있다.
일 예로, 이전 결과 보기(225)가 선택되는 경우, 프로세서(120)는 생태상태에 대한 결과 이력을 디스플레이할 수 있다.
도 5를 참조하면, 측정하기 아이템(224)이 선택된 경우, 프로세서(120)는 카메라(110)를 제어하여 사용자를 촬영한다(230). 프로세서(120)는 사용자 촬영 화면의 일 부분에 잔여 촬영 시간에 해당하는 아이템(231)을 디스플레이한다. 프로세서(120)는 전/후방 카메라 전환 아이템(232), 화면 캡쳐 아이템(233), 촬영 아이템(234) 및 이전으로 되돌아가기 아이템(235)을 포함한다. 여기서, 촬영 아이템(234)는 촬영 대기시 회색, 촬영 중일시 빨간색, 촬영 종료시 회색일 수 있다.
촬영 중에 촬영 아이템(234)이 선택되는 경우, 프로세서(120)는 촬영을 정지한다. 촬영 정지 중에 촬영 아이템(234)이 선택되는 경우, 프로세서(120)는 다시 촬영을 재개할 수 있다. 또한, 촬영 종료시, 프로세서(120)는 감정 상태 결과 화면을 디스플레이할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 감정 상태 결과 화면을 도시한다.
프로세서(120)는 뇌피로도 아이템(241), 집중도 아이템(242) 및 활력지수 아이템(243) 중 뇌피로도 아이템(241)이 선택되는 경우 감정 상태 결과 화면(이하, 결과 화면)(240)을 디스플레이할 수 있다.
감정 상태 결과 화면은 예를 들어, 뇌피로도 아이템(241), 집중도 아이템(242), 활력지수 아이템(243), 심리상태 차트 아이템(244), 내마음은 어디쯤 아이템(245), 측정 일시 아이템(246), 사용자 이름 아이템(247), 사용자 나이 아이템(248), 성별 아이템(249), 측정 장소 아이템(250), 측정 상황 아이템(251), 측정 결과 아이템(252), 이모티콘(253) 및 코칭문구 창(254)을 포함할 수 있다.
일 예로, 측정 장소(또는 상황) 아이템(251)이 선택되는 경우, 프로세서(120)는 카테고리 예를 들어, 집, 회사, 카페, 음식점, 도서관, 학교, 야외 및 종교시설 중 적어도 하나를 선택할 수 있는 GUI를 팝업할 수 있다. 여기서, 상기 카테고리는 추가/삭제/수정이 가능하도록 설정될 수 있다.
일 예로, 측정 상황 아이템(251)이 선택되는 경우, 프로세서(120)는 카테고리 예를 들어, 취침전, 기상후, 식사전, 식사후, 운동전, 운동후, 음악감상전, 음악감상후, 게임전, 게임후, 휴식전, 휴식후, 공부전 및 공부후 중 적어도 하나를 선택할 수 있는 GUI를 팝업할 수 있다. 여기서, 상기 카테고리는 추가/삭제/수정이 가능하도록 설정될 수 있다.
도 7은 본 발명의 일 실시 예에 따른 이모티콘을 도시한다.
프로세서(120)는 사용자의 감정 상태에 매핑된 복수의 이모티콘을 디스플레이할 수 있다. 예를 들어, 복수의 이모티콘은 위험 이모티콘(255), 주의 이모티콘(256), 건강 이모티콘(257) 및 매우 건강 이모티콘(258)을 포함할 수 있다.
도 8은 본 발명의 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
프로세서(120)는 집중도 아이템(261)이 선택되는 경우 감정 상태 결과 화면(이하, 결과 화면)(260)을 디스플레이할 수 있다.
프로세서(120)는 집중도의 낮음, 보통, 높음을 나타내는 아이템(262)을 디스플레이할 수 있다. 또한, 프로세서(120)는 낮음, 보통, 높음 중 하나의 레벨을 나타내는 막대 아이템(263)을 디스플레이할 수 있다.
일 예로, 집중도가 가장 낮은 경우를 0, 집중도가 가장 높은 경우를 10으로 하는 경우, 프로세서(120)는 집중도가 50으로 판단되는 경우 보통 아이템의 중간에 막대 아이템(263)의 끝 부분을 위치시켜 디스플레이할 수 있다.
일 예로, 프로세서(120)는 집중도에 대응되는 코칭문구를 디스플레이할 수 있다.
도 9는 본 발명의 또 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
프로세서(120)는 활력지수 아이템(271)이 선택되는 경우, 감정 상태 결과 화면(이하, 결과 화면)(270)을 디스플레이할 수 있다.
프로세서(120)는 집중도의 낮음, 보통, 높음을 나타내는 아이템(272)을 디스플레이할 수 있다. 또한, 프로세서(120)는 낮음, 보통, 높음 중 하나의 레벨을 나타내는 막대 아이템(273)을 디스플레이할 수 있다.
프로세서(120)는 활력지수를 나타내는 그래프(274)를 디스플레이할 수 있다. 여기서, 그래프(274)의 점선은 가이드 라인으로 가이드 라인에 실제 측정치가 포함도면 활력지수는 이상적이다.
일 예로, 프로세서(120)는 집중도에 대응되는 코칭문구를 디스플레이할 수 있다.
도 10은 본 발명의 또 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
프로세서(120)는 심리상태 차트 아이템(281)이 선택되는 경우, 감정 상태 결과 화면(이하, 결과 화면)(280)을 디스플레이할 수 있다.
결과 화면(280)은 적극석/공격성, 스트레스, 불안, 의심, 밸런스, 매력/카리스마, 에너지, 자기조절, 신경증 및 감정변화지수를 포함할 수 있다.
일 예로, 적극성/공격성은 낮음, 보통, 높음(282)으로 디스플레이될 수 있고, 감정변화지수는 매우 불안정, 불안정, 안정, 매우 안정(283)으로 디스플레이될 수 있다. 여기서, 적극성/공격성 및 감정변화지수의 수치는 막대 아이템(284, 285)으로 도시될 수 있다.
도 11은 본 발명의 또 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
프로세서(120)는 내마음은 어디쯤 아이템(291)이 선택되는 경우, 감정 상태 결과 화면(이하, 결과 화면)(290)을 디스플레이할 수 있다.
일 예로, 결과 아이템(292)은 감정적, 안정적, 외향적, 내향적을 나타내는 축을 포함할 수 있다. 이 경우, 결과 아이템(292)은 결과 아이템(292)의 중심에서 일 방향으로 향하는 화살표를 표현할 수 있다. 예를 들어, 상기 화살표는 '변덕스러운' 및 '충동적인'을 가리킬 수 있다. 이 경우, '변덕스로운' 및 '충동적인'은 주변의 다른 문구와 다른 색(예를 들어, 흰색)으로 변환될 수 있다.
또한, 결과 아이템(292)의 각 사분면의 바탕은 서로 다른 색일 수 있다. 여기서, 서로 다른 색은 컬러 테라피와 관련된 색으로, 각 색은 우울한 상태, 공격적인 상태, 무기력한 상태, 낙천적인 상태와 연관될 수 있다. 예를 들어, 우울한 상태는 회색, 공격적 상태는 빨강, 무기력한 상태는 흰색, 낙천적 상태는 노란색으로 표시될 수 있다.
일 예로, 결과 아이템(292)은 도 12와 같이 표시될 수도 있다. 도 12를 참조하면, 현재 사용자의 감정 상태는(67, 26.6)의 위치(293)로 표현될 수 있다.
도 13은 본 발명의 일 실시 예에 따른 감정 상태 결과 이력을 도시한다.
도 13을 참조하면, 결과이력 화면(1300)은 조회 기간 입력 창(1301)을 포함할 수 있다. 조회기간이 입력된 후 변화 그래프 아이템(1303)이 선택되면, 프로세서(120)는 해당 조회기간 내의 사용자 감정 상태 목록(1302)을 생성하여 디스플레이할 수 있다. 일 예로, 사용자 감정 상태 목록(1302)의 4번 및 5번 항목이 선택된 후 변화 그래프 아이템(1303)이 선택되는 경우, 4번 항목에 따른 감정 상태 변화 그래프(마인드 리듬) 및 5번 항목에 다른 감정 상태 변화 그래프가 동시에 디스플레이될 수 있다.
도 14는 본 발명의 일 실시 예에 따른 감정 상태 변화 그래프를 도시한다.
도 14를 참조하면, 변화 그래프는 마인드 리듬이라 칭해질 수 있다. 일 예로, 변화 그래프는 감정 상태 측정 날짜에 따라 표시될 수 있다. 예를 들어, 도 14는 뇌피로도에 대한 변화 그래프(1401) 및 활력지수(1402)에 대한 변화 그래프를 도시한다.
도 15 및 16은 본 발명의 또 다른 실시 예에 따른 감정 상태 결과 화면을 도시한다.
도 15를 참조하면, 감정 상태 결과 화면(1500)은 예를 들어, 카테고리인 뇌피로도, 집중도 및 활력지수에 대한 측정 결과를 포함할 수 있다. 여기서, 감정 상태 결과 화면(1500)은 뇌피로도, 집중도 및 활력지수에 대한 측정치에 따른 코칭 문구 및 설명 문구를 포함할 수 있다.
도 16을 참조하면, 감정 상태 결과 화면(1600)은 예를 들어, 카테고리인 심리상태 및 내마음은 어디쯤에 대한 측정 결과를 포함할 수 있다. 여기서, 감정 상태 결과 화면(1600)은 심리상태 및 내마음은 어디쯤에 대한 측정치에 따른 코칭 문구 및 설명 문구를 포함할 수 있다.
이하에서, 도 17 및 18를 참조하여 사용자 감정 상태를 개선하는 앱 중 개별 직업용 중 특수직업용 앱에 대해 상세히 설명한다.
도 17은 본 발명의 일 실시 예에 따른 특수직업용 앱의 사용자 정보 입력창 도시한다.
도 17을 참조하면, 사용자 정보 입력창(1700)은 이름, 생년월일, 성별, 측정장소, 측정상황을 입력할 수 있는 아이템들(1701)을 포함할 수 있다. 또한, 사용자 정보 입력창(1700)은 측정하기 아이템(1702)을 포함할 수 있다. 여기서, 사용자 정보 입력창(1700)은 사용자가 로그인 후에 디스플레이될 수 있다. 또한, 사용자 정보 입력창(1700)에서, 측정 장소 및 측정 상황은 특수직업에 커스터마이징될 수 있도록 카테고리를 추가/삭제/수정할 수 있다. 여기서, 특수직업이란, 위험도가 높은 직업 예를 들어, 조선소 작업자, 공사장 작업자 등의 직업일 수 있다.
도 18은 본 발명의 일 실시 예에 따른 특수직업용 앱의 결과 화면을 도시한다.
도 18을 참조하면, 결과 화면(1800)은 측정 일시(1801), 이름(1802), 나이(1803), 성별(1804), 측정 장소(1805), 측정 상황(1806), 위험지수(1807), 위험지수 그래프(1808), 심리상태 차트(1809), 활력지수(1810) 및 코칭문구(1811)를 포함한다.
상술한 본원 발명의 다양한 실시 예에 따르면, 사용자의 감정 상태(예를 들면, 정신 상태)를 정확하게 파악할 수 있다. 또한, 사용자의 감정 상태를 개선할 수 있는 컨텐트를 정교하게 선정할 수 있다. 이를 통해, 사용자는 사용자의 감정 상태를 정확히 파악하고 이를 개선 및 관리할 수 있다.
도 19는 본 발명의 일 실시 예에 따른 마인드 케어 화면을 도시한다.
마인드케어 화면(1900)은 본 발명의 일 실시 예에 따른 앱 화면(1900)에 디스플레이될 수 있다. 여기서, 마인드케어 화면(1900)은 앱 화면(1900)의 마인드케어 아이템(1908)이 터치입력되는 경우 디스플레이될 수 있다.
마인드 케어 화면(1900)은 나를 위한 케어 아이템(1901), 명상(meditation) 아이템(1902), 음악(music) 아이템(1903), 색(color) 아이템(1904), 스토리(story) 아이템(1905), 게임(game) 아이템(1906) 및 더보기 아이템(1907)을 포함할 수 있다.
일 예로, 도 20은 나를 위한 케어 아이템(1901)이 터치입력되는 경우 디스플레이되는 화면을 도시한다.
도 20을 참조하면, 나를 위한 케어 아이템 화면(2000)은 명상 아이템(2001), 음악 아이템(2002), 색 아이템(2003), 스토리 아이템(2004), 게임 아이템(2005) 및 더보기 아이템(2006)을 포함한다. 여기서, 나를 위한 케어 아이템 화면(2000)의 각 아이템(2001 내지 2006)은 사용자가 선택하거나 자동 선택된 컨텐트를 실행하기 위한 아이템일 수 있다. 더보기 아이템(2006)은 마인드 케어와 관련된 카테고리가 추가되는 경우, 사용자에 적합한 카테고리를 제공하기 위한 아이템이다.
예를 들어, 음악 아이템(2002)이 터치입력되는 경우, 도 21의 나를 위한 음악 케어 화면(2100)이 디스플레이될 수 있다. 일 예로, 나를 위한 음악 케어 화면(2100)은 나를 위한 음악 목록(2101), 재생 아이템(2102) 및 다운로드 아이템(2103)을 포함할 수 있다.
예를 들어, 다운로드 아이템(2103)은 컨텐트가 다운로드되지 않은 경우 검은색으로 표시될 수 있다. 여기서, 다운로드 아이템(2103)이 터치 입력되는 경우, 프로세서(120)는 데이터 사용량에 대한 경고창을 생성하여 팝업 디스플레이할 수 있다. 또한, 다운로드 아이템(2013)은 컨텐트가 다운로드된 경우 회색으로 표시될 수 있다. 이 경우, 다운로드 아이템(2013)이 터치 입력되는 경우, 데이터 사용량에 대한 경고창 없이 컨텐트가 바로 재생될 수 있다.
일 예로, 마인드 케어를 위한 컨텐트(비디오, 오디오 등)가 실행되는 경우, 데이터 사용량에 대한 경고창이 생성되어 디스플레이될 수 있다. 컨텐트가 다운로드되는 경우, 사용자 단말(100)은 통신망 연결 없이 컨텐트를 재생할 수 있다. 또한, 다운로드된 컨텐트는 앱 실행 후에만 실행이 가능하도록 설정될 수 있다.
도 19에서, 명상 아이템(1902)에 대한 터치 입력되는 경우, 도 22의 마인드 케어 화면(2200)이 디스플레이될 수 있다. 일 예로, 마인드 케어 화면(2200)은 마인드 케어 항목(2201), 재생 아이템(2202), 책갈피 아이템(또는 스크립트 아이템)(2203) 및 다운로드 아이템(2204)을 포함할 수 있다. 여기서, 책갈피 아이템(2203)이 터치 입력되는 경우, 해당 마인드 케어 항목은 나를 위한 케어 항목에 포함될 수 있다. 또한, 다운로드 아이템(2204)이 터치 입력되는 경우, 해당 마인드 케어 항목은 나를 위한 케어 항목에 포함될 수 있다. 일 예로, 책갈피 아이템(2203) 및 다운로드 아이템(2204)은 터치 입력되지 않은 상태의 경우는 검은색, 터치 입력된 경우는 회색일 수 있다.
도 23은 본 발명의 일 실시 예에 따른 마인드 케어를 위한 컨텐트 재생 화면을 도시한다.
도 23을 참조하면, 컨텐트 재생 화면(2300)은 컨텐트 제목 아이템(2301), 책갈피 아이템(2302), 다운로드 아이템(2303), 컨텐트 출력 화면(2304), 재생 제어 아이템(2305), 좋아요 아이템(2306) 및 싫어요 아이템(2307)을 포함할 수 있다.
여기서, 컨텐트 재생 화면(2300)은 별도의 푸시 알림이 디스플레이되는 경우, 사용자의 터치 입력에 의해 디스플레이될 수 있다. 일 예로, 상기 푸시 알림은 오디오, 비디오, 이미지, 텍스트 문구 중 적어도 하나와 관련된 아이템을 포함할 수 있다.
도 24는 본 발명의 일 실시 예에 따른 사용자 단말의 상세 블록도이다.
본 발명의 일 실시 예에 따른 사용자 단말(2400)은 디스플레이(2410), 메모리(2420), 인풋-아웃풋 인터페이스(I/O interface, 2430), 통신 모듈(2440) 및 프로세서(2450) 중 적어도 하나를 포함할 수 있다.
디스플레이(2410)는 메모리(2420)에 저장되어 있거나 통신 모듈(2440)을 통해 획득된 적어도 하나의 이미지를 표시할 수 있다. 디스플레이(2410)는 터치 스크린을 포함할 수 있으며, 터치 스크린을 통해 디스플레이상에 입력되는 터치 입력을 수신할 수 있다.
메모리(2420)는 정보를 저장한다. 메모리(2420)는 읽고 쓰기가 가능하다. 메모리(2420)는 사용자 감정 상태를 측정하기 위한 조건 및 복수의 컨텐트에 대한 정보를 저장할 수 있다. 또한, 메모리(2420)는 제1 감정 상태 및 제2 감정 상태를 저장할 수 있다. 또한, 메모리(2420)는 상술한 예와 같이, 앱을 저장하고, 앱에 의해 디스플레이되는 각종 이미지, 컨텐트 등을 저장할 수 있다.
I/O 인터페이스(2430)는 다양한 입출력 장치와 연결될 수 있다. 예컨대, I/O 인터페이스(2430)는 외부 입력 장치와 연결되어 외부로부터 수신되는 적어도 하나의 신호를 수신할 수 있으며, 수신된 신호는 프로세서(2450)에 의해 처리될 수 있다. 또한, I/O 인터페이스(2430)는 프로세서(2450)에서 생성된 적어도 하나의 신호를 외부로 출력하는 역할을 수행할 수도 있다.
통신 모듈(2440)은 네트워크를 통해 외부 전자 장치와 연결될 수 있다. 예컨대, 통신 모듈(2440)은 블루투스(Bluetooth)나 Wi-Fi 등의 통신 방법을 통해 무선 입력 장치와 연결될 수 있다. 또한, 통신 모듈(2440)을 통해 수신된 신호는 프로세서(2450)에 의해 처리될 수 있다.
프로세서(1950)는 디스플레이(2410), 메모리(2420), I/O 인터페이스(2430) 및 통신 모듈(2440)을 제어할 수 있다. 예를 들어, 프로세서(2450)는 소프트웨어를 구동하여 프로세서(2450)에 연결된 메모리(2420) 또는 통신 모듈(2440)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 또한, 프로세서(2450)는 통신 모듈(2450)로부터 수신된 명령 또는 데이터를 로드하여 처리한 후, 결과 데이터를 메모리(2420)에 저장할 수 있다.
도 25는 본 발명의 일 실시 예에 따른 사용자의 감정 상태를 개선시키는 방법을 설명하기 위한 흐름도이다.
먼저, 사용자의 감정 상태를 개선시키는 방법은, 사용자의 감정 상태의 측정 조건을 설정하고(2510), 설정된 측정 조건에 기초하여 사용자의 제1 감정 상태를 측정하고(2520), 측정된 제1 감정 상태에 기초하여 사용자의 제1 감정 상태를 개선시키기 위한 복수의 컨텐트 중 하나를 선택하여 실행하고(2530), 복수의 컨텐트 중 하나의 시청에 따른 사용자의 제2 감정 상태를 측정하고(2540), 복수의 컨텐트 중 하나의 시청에 따른 사용자의 사용자 단말에 대한 이벤트를 판단하고(2550), 제2 감정 상태 및 사용자의 사용자 단말에 대한 이벤트에 기초하여, 제1 감정 상태와 복수의 컨텐트 중 하나의 적합도를 결정하고(2560), 결정된 적합도에 기초하여, 제1 감정 상태를 개선시키기 위한 복수의 컨텐트에 대한 정보를 업데이트할 수 있다(2570).
여기서, 감정 상태는 사용자의 안면 근육의 움직임에 의해 측정될 수 있다.
또한, 감정 상태는 뇌피로도, 집중도 및 활력지수 중 적어도 하나일 수 있다.
이 경우, 사용자의 사용자 단말에 대한 이벤트는 사용자 단말을 기정의된 횟수만큼 흔드는 이벤트 및 복수의 컨텐트 중 하나에 대한 반복 재생 이벤트 중 적어도 하나일 수 있다.
또한, 제1 감정 상태를 개선시키기 위해 선택된 복수의 컨텐트 중 하나는 사용자의 질환 정보 및 컨텐트의 색채 정보에 기초하여 선택될 수 있다.
여기서, 사용자의 감정 상태의 측정 조건은 사용자의 감정 상태가 측정되는 장소, 사용자의 감정 상태가 측정되는 시간, 사용자의 섭식 여부, 사용자의 수면 시간, 사용자의 취침 시간 및 사용자의 기상 시간 중 적어도 하나일 수 있다.
상술한 예에서, 복수의 컨텐트에 대한 정보는 사용자의 감정 상태와, 사용자의 감정 상태를 개선시키기 위한 컨텐트 간의 매핑 정보를 포함할 수 있다.
상술한 예에서, 사용자 단말(100)의 앱 상에서 마인드 케어 컨텐트가 설정 및 실행됨을 설명하였으나 이에 제한되지 않고, 상기 앱의 기능이 탑재된 멘탈케어로봇에서도 마인드 케어 컨텐트가 설정 및 실행 가능할 것이다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 감정 상태를 개선시키는 방법은 컴퓨터로 실행 가능한 프로그램 코드로 구현되어 다양한 비 일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.
일 예로, 사용자의 감정 상태를 개선시키는 방법은, 사용자의 감정 상태의 측정 조건을 설정하는 과정, 설정된 측정 조건에 기초하여 사용자의 제1 감정 상태를 측정하는 과정, 측정된 제1 감정 상태에 기초하여 사용자의 제1 감정 상태를 개선시키기 위한 복수의 컨텐트 중 하나를 선택하여 실행하는 과정, 복수의 컨텐트 중 하나의 시청에 따른 사용자의 제2 감정 상태를 측정하는 과정, 복수의 컨텐트 중 하나의 시청에 따른 사용자의 사용자 단말에 대한 이벤트를 판단하는 과정, 제2 감정 상태 및 사용자의 사용자 단말에 대한 이벤트에 기초하여, 제1 감정 상태와 복수의 컨텐트 중 하나의 적합도를 결정하는 과정, 결정된 적합도에 기초하여, 제1 감정 상태를 개선시키기 위한 복수의 컨텐트에 대한 정보를 업데이트하는 과정을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.
비 일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
사용자 단말: 100, 200, 1900 카메라: 110
프로세서: 120, 2450 디스플레이: 2410
메모리: 2420 인풋-아웃풋 인터페이스: 2430
통신 모듈: 2440

Claims (14)

  1. 사용자의 감정 상태를 개선시키는 방법에 있어서,
    사용자 단말에서 상기 사용자의 상기 감정 상태의 측정 조건을 설정하는 과정;
    상기 설정된 측정 조건에 기초하여 상기 사용자의 제1 감정 상태를 측정하는 과정;
    상기 측정된 제1 감정 상태에 기초하여 상기 사용자의 상기 제1 감정 상태를 개선시키기 위한 복수의 컨텐트 중 하나를 선택하여 실행하는 과정;
    상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 제2 감정 상태를 측정하는 과정;
    상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 상기 사용자 단말에 대한 이벤트를 판단하는 과정;
    상기 제2 감정 상태 및 상기 사용자의 상기 사용자 단말에 대한 상기 이벤트에 기초하여, 상기 제1 감정 상태와 상기 복수의 컨텐트 중 상기 하나의 적합도를 결정하는 과정; 및
    상기 결정된 적합도에 기초하여, 상기 제1 감정 상태를 개선시키기 위한 상기 복수의 컨텐트에 대한 정보를 업데이트하는 과정;을 포함하는, 방법.
  2. 제1항에 있어서,
    상기 감정 상태는,
    사용자의 안면 근육의 움직임에 의해 측정되는, 방법.
  3. 제1항에 있어서,
    상기 감정 상태는,
    뇌피로도, 집중도 및 활력지수 중 적어도 하나인. 방법.
  4. 제1항에 있어서,
    상기 사용자의 상기 사용자 단말에 대한 상기 이벤트는,
    상기 사용자 단말을 기정의된 횟수만큼 흔드는 이벤트 및 상기 복수의 컨텐트 중 하나에 대한 반복 재생 이벤트 중 적어도 하나인, 방법.
  5. 제1항에 있어서,
    상기 제1 감정 상태를 개선시키기 위해 선택된 상기 복수의 컨텐트 중 하나는 상기 사용자의 질환 정보 및 컨텐트의 색채 정보에 기초하여 선택된, 방법.
  6. 제1항에 있어서,
    상기 사용자의 상기 감정 상태의 측정 조건은,
    상기 사용자의 상기 감정 상태가 측정되는 장소, 상기 사용자의 상기 감정 상태가 측정되는 시간, 상기 사용자의 섭식 여부, 상기 사용자의 수면 시간, 상기 사용자의 취침 시간 및 상기 사용자의 기상 시간 중 적어도 하나인, 방법.
  7. 제1항에 있어서,
    상기 복수의 컨텐트에 대한 정보는,
    상기 사용자의 상기 감정 상태와, 상기 사용자의 상기 감정 상태를 개선시키기 위한 컨텐트 간의 매핑 정보를 포함하는, 방법.
  8. 사용자의 감정 상태를 개선시키기 위한 사용자 단말에 있어서,
    카메라; 및
    기 정의된 측정 조건에 기초하여 상기 사용자의 제1 감정 상태를 측정하도록 상기 카메라를 제어하고,
    상기 측정된 제1 감정 상태에 기초하여 상기 사용자의 상기 제1 감정 상태를 개선시키기 위한 복수의 컨텐트 중 하나를 선택하여 실행하고,
    상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 제2 감정 상태를 측정하도록 상기 카메라를 제어하고,
    상기 복수의 컨텐트 중 상기 하나의 시청에 따른 상기 사용자의 상기 사용자 단말에 대한 이벤트를 판단하고,
    상기 제2 감정 상태 및 상기 사용자의 상기 사용자 단말에 대한 상기 이벤트에 기초하여, 상기 제1 감정 상태와 상기 복수의 컨텐트 중 상기 하나의 적합도를 결정하고,
    상기 결정된 적합도에 기초하여, 상기 제1 감정 상태를 개선시키기 위한 상기 복수의 컨텐트에 대한 정보를 업데이트하는 프로세서를 포함하는, 사용자 단말.
  9. 제8항에 있어서,
    상기 감정 상태는,
    사용자의 안면 근육의 움직임에 의해 측정되는, 사용자 단말.
  10. 제8항에 있어서,
    상기 감정 상태는,
    뇌피로도, 집중도 및 활력지수 중 적어도 하나인. 사용자 단말.
  11. 제8항에 있어서,
    상기 사용자의 상기 사용자 단말에 대한 상기 이벤트는,
    상기 사용자 단말을 기 정의된 횟수만큼 흔드는 이벤트 및 상기 복수의 컨텐트 중 하나에 대한 반복 재생 이벤트 중 적어도 하나인, 사용자 단말.
  12. 제8항에 있어서,
    상기 제1 감정 상태를 개선시키기 위해 선택된 상기 복수의 컨텐트 중 하나는 상기 사용자의 질환 정보 및 컨텐트의 색채 정보에 기초하여 선택된, 사용자 단말.
  13. 제8항에 있어서,
    상기 사용자의 상기 감정 상태의 측정 조건은,
    상기 사용자의 상기 감정 상태가 측정되는 장소, 상기 사용자의 상기 감정 상태가 측정되는 시간, 상기 사용자의 섭식 여부, 상기 사용자의 수면 시간, 상기 사용자의 취침 시간 및 상기 사용자의 기상 시간 중 적어도 하나인, 사용자 단말.
  14. 제8항에 있어서,
    상기 복수의 컨텐트에 대한 정보는,
    상기 사용자의 상기 감정 상태와, 상기 사용자의 상기 감정 상태를 개선시키기 위한 컨텐트 간의 매핑 정보를 포함하는, 사용자 단말.
KR1020180112181A 2018-09-19 2018-09-19 감정 상태를 개선시키는 방법 및 그 장치 KR102100418B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180112181A KR102100418B1 (ko) 2018-09-19 2018-09-19 감정 상태를 개선시키는 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180112181A KR102100418B1 (ko) 2018-09-19 2018-09-19 감정 상태를 개선시키는 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20200032927A true KR20200032927A (ko) 2020-03-27
KR102100418B1 KR102100418B1 (ko) 2020-04-13

Family

ID=69959112

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180112181A KR102100418B1 (ko) 2018-09-19 2018-09-19 감정 상태를 개선시키는 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR102100418B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220163894A (ko) 2022-11-21 2022-12-12 주식회사 세이프티흥우 HMA(Head Micromovement Assessment)를 이용한 산업현장 근로자의 심리검사 및 신체이상 시 디지털 추적 방법
KR102529245B1 (ko) * 2022-10-31 2023-05-04 (주)휴먼아이티솔루션 얼굴 표정 및 환경 분석을 통한 감정 분석에 따른 맞춤형 디지털 헬스케어 명상 컨텐츠 제공 방법, 장치 및 컴퓨터-판독가능 기록매체
WO2023214413A1 (en) * 2022-05-03 2023-11-09 I-Braintech Ltd. System for testing and training a brain capability and method of implementing the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005261792A (ja) * 2004-03-22 2005-09-29 Advanced Telecommunication Research Institute International 刺激提示システム
KR20090064392A (ko) * 2009-03-19 2009-06-18 이재원 색채 치료 서비스 방법
JP2013054447A (ja) * 2011-09-01 2013-03-21 Hitachi Ltd 気分改善システムおよび気分改善方法
JP2016066389A (ja) * 2014-09-22 2016-04-28 ヤマハ株式会社 再生制御装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005261792A (ja) * 2004-03-22 2005-09-29 Advanced Telecommunication Research Institute International 刺激提示システム
KR20090064392A (ko) * 2009-03-19 2009-06-18 이재원 색채 치료 서비스 방법
JP2013054447A (ja) * 2011-09-01 2013-03-21 Hitachi Ltd 気分改善システムおよび気分改善方法
JP2016066389A (ja) * 2014-09-22 2016-04-28 ヤマハ株式会社 再生制御装置及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023214413A1 (en) * 2022-05-03 2023-11-09 I-Braintech Ltd. System for testing and training a brain capability and method of implementing the same
KR102529245B1 (ko) * 2022-10-31 2023-05-04 (주)휴먼아이티솔루션 얼굴 표정 및 환경 분석을 통한 감정 분석에 따른 맞춤형 디지털 헬스케어 명상 컨텐츠 제공 방법, 장치 및 컴퓨터-판독가능 기록매체
KR20220163894A (ko) 2022-11-21 2022-12-12 주식회사 세이프티흥우 HMA(Head Micromovement Assessment)를 이용한 산업현장 근로자의 심리검사 및 신체이상 시 디지털 추적 방법

Also Published As

Publication number Publication date
KR102100418B1 (ko) 2020-04-13

Similar Documents

Publication Publication Date Title
Grünerbl et al. Smartphone-based recognition of states and state changes in bipolar disorder patients
Woodward et al. Beyond mobile apps: a survey of technologies for mental well-being
Miller The smartphone psychology manifesto
Kołakowska et al. A review of emotion recognition methods based on data acquired via smartphone sensors
US20160019813A1 (en) Methods and systems for monitoring and treating individuals with sensory processing conditions
US20180268821A1 (en) Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user
TajDini et al. Wireless sensors for brain activity—a survey
KR102100418B1 (ko) 감정 상태를 개선시키는 방법 및 그 장치
Wohlfahrt-Laymann et al. MobileCogniTracker: A mobile experience sampling tool for tracking cognitive behaviour
US20240012480A1 (en) Machine learning configurations modeled using contextual categorical labels for biosignals
Sarzotti Self-monitoring of emotions and mood using a tangible approach
US11766224B2 (en) Visualized virtual agent
Moontaha et al. Online learning for wearable EEG-based emotion classification
Lete et al. Survey on virtual coaching for older adults
JP6920731B2 (ja) 睡眠改善システム、端末装置及び睡眠改善方法
Nguyen et al. Digital interventions to reduce distress among health care providers at the frontline: protocol for a feasibility trial
Jo et al. MAMAS: supporting parent--child mealtime interactions using automated tracking and speech recognition
Akmandor et al. YSUY: Your smartphone understands you—Using machine learning to address fundamental human needs
Hernandez Rivera Towards wearable stress measurement
Tikadar et al. A novel method to build and validate an affective state prediction model from touch-typing
KR20210150988A (ko) 활력 지수 획득 장치 및 방법
JP2021105993A (ja) 処理装置、プログラム、及び方法
Wohlfahrt-Laymann et al. Enabling remote assessment of cognitive behaviour through mobile experience sampling
JP2020177383A (ja) 高齢者等見守システム
Buimer et al. Opportunities and pitfalls in applying emotion recognition software for persons with a visual impairment: Simulated real life conversations

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant