KR101907598B1 - 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템 - Google Patents

인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템 Download PDF

Info

Publication number
KR101907598B1
KR101907598B1 KR1020160135197A KR20160135197A KR101907598B1 KR 101907598 B1 KR101907598 B1 KR 101907598B1 KR 1020160135197 A KR1020160135197 A KR 1020160135197A KR 20160135197 A KR20160135197 A KR 20160135197A KR 101907598 B1 KR101907598 B1 KR 101907598B1
Authority
KR
South Korea
Prior art keywords
data
motion
user
state
wearable device
Prior art date
Application number
KR1020160135197A
Other languages
English (en)
Other versions
KR20180042702A (ko
Inventor
임경식
김진구
성채민
홍성준
이건영
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020160135197A priority Critical patent/KR101907598B1/ko
Publication of KR20180042702A publication Critical patent/KR20180042702A/ko
Application granted granted Critical
Publication of KR101907598B1 publication Critical patent/KR101907598B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Business, Economics & Management (AREA)
  • Child & Adolescent Psychology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Hospice & Palliative Care (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Tourism & Hospitality (AREA)
  • Primary Health Care (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Psychology (AREA)

Abstract

본 발명은 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템에 관한 것으로, 사용자가 구비한 적어도 하나의 웨어러블 장치와 통신을 수행하는 통신부, 웨어러블 장치로부터 수신된 운동 데이터에서 움직임 데이터, 생체 데이터 및 음성 데이터를 추출하고, 움직임 데이터를 기반으로 사용자의 움직임 상태를 확인하고, 생체 데이터와 음성 데이터를 기반으로 사용자의 감정 상태를 예측하고, 움직임 상태 및 감정 상태를 기반으로 인공지능 모델을 통해 심리 처방 데이터를 확인하는 제어부 및 심리 처방 데이터를 출력하는 표시부를 포함할 수 있고, 다른 실시 예로도 적용이 가능하다.

Description

인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템{Electronic Apparatus, Method and System for using Wearable Apparatus for Prescribing of Psychology associated with Emotion and Behavior of User through Artificial Intelligence Model}
본 발명은 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템에 관한 것으로서, 웨어러블 장치로부터 사용자의 운동 데이터를 획득하여 사용자 상태에 따라 사용자를 독려할 수 있는 심리 처방 데이터를 제공하는 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템을 제공하는 것이다.
최근, 스마트 워치, 활동량 측정 밴드 등 사용자가 착용 가능한 웨어러블 장치를 이용하여 사용자의 움직임에 대한 센싱 정보를 수집하는 기술이 상용화되고 있다. 특히, 웨어러블 장치에서 수집된 센싱 정보를 이용하여 사용자의 심박수, 운동량, 사용자의 스트레스 정도 및 사용자의 감정 상태 등을 확인한다. 사용자는 웨어러블 장치와 연결된 전자장치를 통해 웨어러블 장치에서 확인된 센싱 정보를 시각적으로 또는 청각적으로 확인할 수 있다. 사용자는 자신의 현재 움직임 상태 및 감정 상태를 확인할 수 있다.
그러나, 아직까지는 사용자가 자신의 움직임 상태 및 감정 상태를 직접 확인할 뿐, 이를 이용하여 보다 고차원적인 서비스를 제공받을 수는 없다. 따라서, 사용자의 움직임 상태 및 감정 상태를 이용하여 고차원적인 서비스를 제공하는 기술 개발의 필요성이 요구되고 있다.
본 발명은 상기와 같은 배경 기술에 대응하여 도출된 것으로, 본 발명의 다양한 실시 예들은 웨어러블 장치에서 획득된 사용자의 움직임 상태 및 감정 상태를 기반으로 상담 치료를 대신할 수 있는 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템을 제공하는 것이다.
본 발명의 일 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치는, 사용자가 구비한 적어도 하나의 웨어러블 장치와 통신을 수행하는 통신부, 상기 웨어러블 장치로부터 수신된 운동 데이터에서 움직임 데이터, 생체 데이터 및 음성 데이터를 추출하고, 상기 움직임 데이터를 기반으로 상기 사용자의 움직임 상태를 확인하고, 상기 생체 데이터와 상기 음성 데이터를 기반으로 상기 사용자의 감정 상태를 예측하고, 상기 움직임 상태 및 상기 감정 상태를 기반으로 인공지능 모델을 통해 심리 처방 데이터를 확인하는 제어부 및 상기 심리 처방 데이터를 출력하는 표시부를 포함한다.
또한, 제어부는, 기 저장된 최고 기록 데이터와 상기 움직임 데이터의 비교결과에 따라 확인된 상기 사용자의 움직임 상태를 상기 표시부에 출력한다.
또한, 제어부는, 상기 예측된 감정 상태에 대응하는 모델링 데이터를 생성한다.
또한, 제어부는, 상기 생성된 모델링 데이터와 임계치 이상 유사한 모델링 데이터에 매핑되어 저장된 심리 처방 데이터를 인공지능 모델을 통해 확인한다.
또한, 심리 처방 데이터는, 상기 사용자의 움직임 및 감정 상태를 제어하기 위한 음성 데이터 및 시각 데이터를 포함한다.
또한, 제어부는, 상기 심리 처방 데이터를 상기 적어도 하나의 웨어러블 장치로 전송한다.
또한, 움직임 상태와 상기 감정 상태가 매핑된 모델링 데이터, 상기 모델링 데이터와 매핑된 상기 심리 처방 데이터를 저장하는 메모리를 더 포함한다.
아울러, 본 발명의 일 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 방법은, 적어도 하나의 웨어러블 장치로부터 운동 데이터를 수신하는 동작, 상기 운동 데이터에서 움직임 데이터를 기반으로 상기 사용자의 움직임 상태를 확인하는 동작, 상기 운동 데이터에서 생체 데이터와 음성 데이터를 추출하는 동작, 상기 생체 데이터와 상기 음성 데이터를 기반으로 사용자의 감정 상태를 예측하는 동작, 상기 움직임 상태 및 상기 감정 상태를 기반으로 인공지능 모델을 통해 심리 처방 데이터를 확인하는 동작 및 상기 심리 처방 데이터를 출력하는 동작을 포함한다.
또한, 움직임 상태를 확인하는 동작은, 기 저장된 최고 기록 데이터와 상기 확인된 움직임 데이터를 비교하는 동작 및 상기 비교결과에 따라 상기 사용자의 움직임 상태를 확인하는 동작을 포함한다.
또한, 움직임 상태를 출력하는 동작을 더 포함한다.
또한, 사용자의 감정 상태를 예측하는 동작은, 상기 예측된 감정 상태에 대응하는 모델링 데이터를 생성하는 동작을 더 포함한다.
또한, 심리 처방 데이터를 확인하는 동작은, 상기 생성된 모델링 데이터와 임계치 이상 유사한 모델링 데이터에 매핑되어 저장된 심리 처방 데이터를 인공지능 모델을 통해 확인한다. 또한, 심리 처방 데이터를 확인하는 동작은, 상기 사용자의 움직임 및 감정 상태를 제어하기 위한 음성 데이터 및 시각 데이터를 포함하는 상기 심리 처방 데이터를 확인한다.
또한, 확인된 심리 처방 데이터를 상기 적어도 하나의 웨어러블 장치로 전송하는 동작을 포함한다.
아울러, 본 발명의 일 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 시스템은, 움직임 데이터, 생체 데이터 및 음성 데이터를 포함하는 사용자의 운동 데이터를 획득하는 적어도 하나의 웨어러블 장치 및 상기 적어도 하나의 웨어러블 장치로부터 상기 운동 데이터를 수신하고, 상기 움직임 데이터를 기반으로 상기 사용자의 움직임 상태를 확인하고, 상기 생체 데이터와 상기 음성 데이터를 기반으로 상기 사용자의 감정 상태를 예측하고, 상기 움직임 상태 및 상기 감정 상태를 기반으로 심리 처방 데이터를 확인하여 상기 적어도 하나의 웨어러블 장치로 전송하는 전자장치를 포함한다.
상술한 바와 같이 본 발명의 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템은, 웨어러블 장치에서 획득된 사용자의 움직임 상태 및 감정 상태를 기반으로 상담 치료를 대신할 수 있도록 함으로써, 상담 치료에 대한 거부감을 줄이고, 사용자에게 보다 쉽게 상담 치료를 제공할 수 있는 효과가 있다.
또한, 본 발명의 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템은, 웨어러블 장치에서 획득된 사용자의 움직임 상태 및 감정 상태를 기반으로 상담 치료를 제공함으로써, 상담 치료에 대한 시간 및 공간적 제약을 해소할 수 있는 효과가 있다.
또한, 본 발명의 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템은, 웨어러블 장치에서 획득된 사용자의 움직임 상태 및 감정 상태를 기반으로 운동 중 상담 치료를 실시간으로 제공함으로써, 사용자의 경기 능력을 향상시킬 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치의 주요 구성을 나타낸 도면이다.
도 3은 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 웨어러블 장치를 이용한 전자장치에서의 방법을 설명하기 위한 순서도이다.
도 6은 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 웨어러블 장치를 이용한 전자장치에서의 방법을 설명하기 위한 상세순서도이다.
도 7은 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 웨어러블 장치를 이용한 전자장치에서의 방법을 설명하기 위한 상세순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예들을 보다 상세하게 설명하고자 한다. 이 때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 그리고 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다.
도 1은 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 시스템을 나타낸 도면이다.
도 1을 참조하면, 본 발명에 따른 시스템(10)은 적어도 하나의 웨어러블 장치(100) 및 전자장치(200)를 포함한다.
적어도 하나의 웨어러블 장치(100)는 사용자의 신체에 구비 또는 착용되어 사용자의 운동 데이터를 측정한다. 운동 데이터는, 사용자의 움직임 데이터, 생체 데이터 및 음성 데이터를 포함한다. 이를 위해, 웨어러블 장치(100)는 가속도 센서 또는 자이로 센서 등을 포함하여 사용자의 움직임 데이터를 측정한다. 웨어러블 장치(100)는 심박수 모니터 센서, 심전도 모니터 센서 또는 피부전기저항 센서 등을 포함하여 사용자의 생체 데이터를 측정한다. 웨어러블 장치(100)는 마이크 센서 등을 포함하여 사용자의 음성 데이터를 획득한다.
웨어러블 장치(100)는 실시간으로 획득된 운동 데이터를 전자장치(200)로 전송한다. 이를 위해, 웨어러블 장치(100)는 전자장치(200)와 무선 또는 유선 통신을 수행한다. 웨어러블 장치(100)는 USB케이블 등을 이용하여 전자장치(200)와 유선 통신을 수행한다. 웨어러블 장치(100)는 와이파이(wireless fidelity), 블루투스(Bluetooth), BLE(bluetooth low energy) 및 NFC(near field communications)를 포함하는 근거리 무선 통신 등을 이용하여 전자장치(200)와 무선 통신을 수행한다.
웨어러블 장치(100)는 전자장치(200)로부터 움직임 데이터를 기반으로 하는 사용자의 움직임 상태, 생체 데이터와 음성 데이터를 기반으로 하는 감정 상태를 수신하여 이를 출력한다. 웨어러블 장치(100)는 움직임 상태와 감정 상태를 이용하여 전자장치(200)에서 생성된 심리 처방 데이터를 수신하여 출력한다. 심리 처방 데이터는 사용자의 움직임 및 감정 상태를 제어하기 위한 음성 데이터 및 시각 데이터를 포함하는 데이터로, 심리상담가 등의 전문가가 제공하는 상담 치료의 내용이다. 이를 통해, 사용자는 시간 및 공간적 제약을 최소화한 상태로 상담 치료를 받을 수 있다. 또한, 사용자는 운동 경기 중에 상담 치료를 받을 수 있어 경기 능력을 향상시킬 수 있다.
전자장치(200)는 웨어러블 장치(100)로 제공하기 위한 심리 처방 데이터를 생성하여 저장한다. 아울러, 전자장치(200)는 웨어러블 장치(100)로부터 수신된 운동 데이터에서 웨어러블 장치(100)를 구비한 사용자의 움직임 데이터, 생체 데이터 및 음성 데이터를 추출한다. 전자장치(200)는 움직임 데이터를 기반으로 사용자의 움직임 상태를 확인하고, 생체 데이터와 음성 데이터를 기반으로 사용자의 감정 상태를 예측한다. 전자장치(200)는 인공지능 모델을 통해 움직임 상태 및 감정 상태를 기반으로 심리 처방 데이터를 확인하여 웨어러블 장치(100)로 전송한다. 전자장치(200)의 동작에 대한 상세한 설명은 하기의 도 2에서 설명한다.
도 2는 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치의 주요 구성을 나타낸 도면이다.
도 2를 참조하면, 본 발명에 따른 전자장치(200)는 통신부(210), 입력부(220), 표시부(230), 메모리(240), 오디오처리부(250) 및 제어부(260)를 포함한다.
통신부(210)는 전자장치(200)에서 통신을 수행한다. 통신부(210)는 다양한 방식으로, 웨어러블 장치(100) 등의 외부 장치와 통신을 수행한다. 예를 들면, 통신부(210)는 무선 통신 또는 유선 통신 중 적어도 하나를 수행한다. 통신부(210)는 이동 통신망 또는 데이터 통신망 중 적어도 어느 하나에 접속한다. 이를 위해, 통신부(210)는 와이파이(wireless fidelity), 블루투스(Bluetooth), BLE(bluetooth low energy) 및 NFC(near field communications)를 포함하는 근거리 무선 통신을 수행한다.
입력부(220)는 전자장치(200)의 사용자 입력에 대응하여, 입력데이터를 발생시킨다. 입력부(220)는 적어도 하나의 입력수단을 포함한다. 이러한 입력부(220)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 조그 셔틀(jog and shuttle), 터치 키(touch key) 중 적어도 하나를 포함한다.
표시부(230)는 표시데이터를 출력한다. 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이 등을 포함할 수 있다. 표시부(230)는 다수개의 발광 소자들을 포함할 수 있다. 표시부(230)는 입력부(220)와 결합되어 터치 스크린(touch screen)으로 구현될 수 있다.
메모리(240)는 전자장치(200)의 동작 프로그램들을 저장한다. 메모리(240)는 사용자의 움직임 데이터를 이용한 기록 데이터를 저장한다. 메모리(240)는 모델링 데이터를 저장한다. 모델링 데이터는, 기록 데이터를 기반으로 하는 움직임 상태와, 생체 데이터 및 음성 데이터로부터 추출된 특징 데이터를 기반으로 하는 감정 상태의 매핑에 의해 생성된 데이터이다. 메모리(240)는 사용자의 모델링 데이터와 심리처방 데이터를 매핑하여 인공지능 모델을 위한 인공지능 데이터를 저장한다. 심리 처방 데이터는, 감정 상태에 따른 일반적인 축하, 위로와 같은 감정 동조이거나, 스포츠 심리학과 관련된 전문 상담내용 결과에 대응하는 심리 처방 문장을 포함하는 데이터일 수 있다. 심리 처방 데이터는, 사용자의 움직임 상태 및 감정 상태를 제어하기 위해 심리 처방 문장과 관련된 음성 데이터 및 시각 데이터이다.
오디오처리부(250)는 오디오 신호를 처리한다. 이때, 오디오처리부(250)는 스피커(SPK)와 마이크(MIC)를 포함한다. 오디오처리부(250)는 제어부(260)에서 출력되는 오디오 신호를 스피커를 통해 재생한다. 오디오처리부(250)는 마이크에서 발생되는 오디오 신호를 제어부(260)로 전달한다.
제어부(260)는 적어도 하나의 웨어러블 장치(100)로부터 운동 데이터를 수신하고, 운동 데이터에서 웨어러블 장치(100)를 구비한 사용자의 움직임 데이터, 생체 데이터 및 음성 데이터를 추출한다. 제어부(260)는 움직임 데이터를 기반으로 사용자의 움직임 상태를 확인하고, 생체 데이터와 음성 데이터를 기반으로 사용자의 감정 상태를 예측한다. 제어부(260)는 인공지능 모델을 통해 움직임 상태 및 감정 상태를 기반으로 심리 처방 데이터를 확인하여 웨어러블 장치(100)로 전송한다.
우선적으로, 제어부(260)는 기록 데이터, 모델링 데이터 및 심리 처방 데이터를 생성하여 메모리(240)에 저장한다. 제어부(260)는 적어도 하나의 웨어러블 장치(100)와 페어링을 통해 통신 연결을 수행한다. 제어부(260)는 웨어러블 장치(100)로부터 사용자의 운동 데이터를 수신한다. 제어부(260)는 수신된 운동 데이터를 기반으로 웨어러블 장치(100)를 구비한 사용자의 움직임 데이터를 추출한다. 제어부(260)는 추출된 움직임 데이터를 기록 데이터로 생성하여 저장한다.
제어부(260)는 기 저장된 적어도 하나의 기록 데이터가 메모리(240)에 존재할 경우, 움직임 데이터를 기 저장된 기록 데이터와 비교한다. 움직임 데이터가 최고 기록 데이터이면, 움직임 데이터로 최고 기록 데이터를 갱신한다. 움직임 데이터가 최고 기록 데이터가 아니면, 움직임 데이터를 기록 데이터로 저장한다. 제어부(260)는 움직임 데이터를 기반으로 사용자의 움직임 상태를 확인한다. 움직임 상태는, 사용자의 움직임 방향 및 움직임 속도를 포함하고, 최고 기록 데이터를 기준으로 어느 정도의 강도를 갖는 움직임인지에 대한 수치를 포함한다. 이를 위해, 최고 기록 데이터는 100의 수치를 갖는 정도의 강도에 대한 움직임일 수 있다.
제어부(260)는 운동 데이터를 기반으로 웨어러블 장치(100)를 구비한 사용자의 생체 데이터 및 음성 데이터에 대한 특징 데이터를 추출한다. 제어부(260)는 기록 데이터와 추출된 특징 데이터로부터 예측된 감정 상태를 매핑하여 모델링 데이터로 생성한다. 감정 상태는 생체 데이터, 음성 데이터에서 확인된 파형 및 텍스트 데이터로 감정 상태를 예측할 수 있는 인공지능 모델을 통해 확인할 수 있거나, 사용자로부터의 입력에 의해 확인할 수 있다.
제어부(260)는 심리 처방 데이터를 입력한다. 심리 처방 데이터는, 감정 상태에 따른 일반적인 축하, 위로와 같은 감정 동조이거나, 스포츠 심리학과 관련된 전문 상담내용 결과에 대응하는 심리 처방 문장을 포함하는 데이터일 수 있다. 심리 처방 데이터는 사용자의 움직임 상태 및 감정 상태를 제어하기 위한 심리 처방 문장과 관련된 음성 데이터 및 시각 데이터이다.
메모리(240)에 모델링 데이터와 심리 처방 데이터를 매핑하여 인공지능 데이터를 저장한 이후에 제어부(260)는 적어도 하나의 웨어러블 장치(100)와의 통신 연결을 통해 웨어러블 장치(100)로부터 운동 데이터를 수신한다. 제어부(260)는 수신된 운동 데이터에서 웨어러블 장치(100)를 구비한 사용자의 움직임 데이터를 추출하고, 움직임 데이터를 기반으로 사용자의 움직임 상태를 출력한다. 제어부(260)는 움직임 상태를 사용자가 구비한 웨어러블 장치(100)로 전송한다.
제어부(260)는 운동 데이터에 포함된 데이터 중에서 사용자의 생체 데이터와 음성 데이터를 추출한다. 제어부(260)는 생체 데이터와 음성 데이터를 이용하여 사용자의 감정 상태를 예측한다. 제어부(260)는 생체 데이터와 음성 데이터에서 특징 데이터를 추출하고, 특징 데이터를 인공지능 모델에 입력한다. 제어부(260)는 이를 통해 감정 상태를 예측할 수 있다. 제어부(260)는 예측된 감정 상태를 웨어러블 장치(100)로 전송한다.
제어부(260)는 메모리(240)에 저장된 심리 처방 데이터 중에서 확인된 사용자의 움직임 상태와 예측된 감정 상태에 대응되는 심리 처방 데이터를 인공지능 모델을 통해 확인한다. 제어부(260)는 확인된 심리 처방 데이터를 웨어러블 장치(100)로 전송한다.
도 3은 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 데이터를 생성하는 방법을 설명하기 위한 흐름도이다.
도 3을 참조하면, 본 발명에 따르면 301동작에서 전자장치(200)는 적어도 하나의 웨어러블 장치(100)와 페어링을 통해 통신 연결을 수행한다. 이를 위해, 전자장치(200)는 무선 및 유선 통신을 이용하여 웨어러블 장치(100)와 연결한다. 303동작에서 웨어러블 장치(100)는 사용자의 운동 데이터를 획득한다. 운동 데이터는, 사용자의 움직임 데이터, 생체 데이터 및 음성 데이터에 대한 정보를 포함한다. 이를 위해, 웨어러블 장치(100)는 사용자의 움직임 데이터 및 생체 데이터를 획득하기 위한 센서와 사용자의 음성 데이터를 획득하기 위한 마이크 센서를 구비할 수 있다.
305동작에서 웨어러블 장치(100)는 획득된 운동 데이터를 전자장치(200)로 전송한다. 307동작에서 전자장치(200)는 수신된 운동 데이터에서 웨어러블 장치(100)를 구비한 사용자의 움직임 데이터를 추출한다. 309동작에서 전자장치(200)는 추출된 움직임 데이터가 최고 기록 데이터인지 확인한다. 이를 위해, 전자장치(200)는 기 저장된 적어도 하나의 기록 데이터와 확인된 움직임 데이터를 비교한다. 309동작의 확인결과, 확인된 움직임 데이터가 최고 기록 데이터이면 전자장치(200)는 311동작을 수행한다. 311동작에서 전자장치(200)는 확인된 움직임 데이터로 최고 기록 데이터를 갱신한 후 315동작을 수행한다. 이때, 전자장치(200)는 움직임 데이터를 기반으로 사용자의 움직임 상태를 확인한다. 309동작의 확인결과, 확인된 움직임 데이터가 최고 기록 데이터가 아니면 전자장치(200)는 313동작을 수행한다. 313동작에서 전자장치(200)는 확인된 움직임 데이터를 기록 데이터로 메모리(240)에 저장하고, 315동작을 수행한다.
315동작에서 전자장치(200)는 움직임 데이터를 기반으로 사용자의 움직임 상태를 확인한다. 움직임 상태는, 사용자의 움직임 방향 및 움직임 속도를 포함한다. 전자장치(200)는 최고 기록 데이터를 기준으로 사용자의 움직임 상태로부터 사용자 행동의 격렬함 정도, 안정됨 정도, 평범한 정도, 걸음 수 등의 정보를 확인한다. 전자장치(200)는 확인 결과에 따라 사용자의 움직임이 어느 정도의 강도를 갖는지에 대한 수치를 포함한다. 이를 위해, 최고 기록 데이터는 100의 수치를 갖는 정도의 강도에 대한 움직임일 수 있다.
317동작에서 전자장치(200)는 수신된 운동 데이터에서 웨어러블 장치(100)를 구비한 사용자의 생체 데이터를 추출한다. 생체 데이터는 심박수 모니터 센서, 심전도 모니터 센서 및 피부전기저항 센서로부터 획득된 사용자의 심박수, 심박변이도, 맥박, 체온, 피부 상의 저항 등에 대한 데이터일 수 있다.
319동작에서 전자장치(200)는 수신된 운동 데이터에서 웨어러블 장치(100)를 구비한 사용자의 음성 데이터를 추출한다. 음성 데이터는 마이크 센서로부터 획득된 사용자의 음성 데이터에서 확인된 파형 및 음성 데이터를 기반으로 변환된 텍스트 데이터일 수 있다.
321동작에서 전자장치(200)는 모델링 데이터를 생성한다. 전자장치(200)는 실시간으로 수집된 웨어러블 장치(100)를 구비한 사용자의 생체 데이터 및 음성 데이터에 대한 특징 데이터를 추출한다. 전자장치(200)는 특징 데이터로부터 감정 상태를 예측하고, 예측된 감정 상태와 움직임 상태를 매핑하여 모델링 데이터로 생성한다. 감정 상태는 생체 데이터, 음성 데이터에서 확인된 파형 및 텍스트 데이터로 감정 상태를 예측할 수 있는 인공지능 모델을 통해 확인할 수 있거나, 사용자로부터의 입력에 의해 확인할 수 있다.
323동작에서 전자장치(200)는 심리 처방 데이터를 입력한다. 심리 처방 데이터는, 감정 상태에 따른 일반적인 축하, 위로와 같은 감정 동조이거나, 스포츠 심리학과 관련된 전문 상담내용 결과에 대응하는 심리 처방 문장을 포함하는 데이터일 수 있다. 심리 처방 데이터는 사용자의 움직임 상태 및 감정 상태를 제어하기 위한 심리 처방 문장과 관련된 음성 데이터 및 시각 데이터이다.
325동작에서 전자장치(200)는 생성된 인공지능 데이터를 메모리(240)에 저장한다. 인공지능 데이터는, 모델링 데이터와 심리 처방 데이터를 매핑하여 저장될 수 있다. 아울러, 전자장치(200)는 인공지능 모델의 학습을 통해 심리 처방 데이터를 예측할 수 있게 데이터를 분류하여, 모델링 데이터를 통해 예측된 심리 처방 데이터를 생성한다.
도 4는 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 방법을 설명하기 위한 흐름도이다.
도 4를 참조하면, 401동작에서 웨어러블 장치(100)와 전자장치(200)는 연결을 수행한다. 이를 위해, 웨어러블 장치(100)와 전자장치(200)는 페어링을 수행할 수 있고, 이미 페어링이 완료된 경우, 통신 채널의 연결을 수행할 수 있다. 403동작에서 웨어러블 장치(100)는 웨어러블 장치(100)를 구비한 사용자에 대한 운동 데이터를 획득한다. 운동 데이터는 웨어러블 장치(100)에 구비된 센서들에 의해 획득된 센싱 정보로, 사용자의 움직임 데이터, 생체 데이터 및 음성 데이터를 포함한다. 움직임 데이터는 가속도 센서 또는 자이로 센서로부터 획득된 사용자의 움직임 방향, 움직임 속도 등에 대한 데이터일 수 있다. 생체 데이터는 심박수 모니터 센서, 심전도 모니터 센서 및 피부전기저항 센서로부터 획득된 사용자의 심박수, 심박변이도, 맥박, 체온, 피부 상의 저항 등에 대한 데이터일 수 있다. 음성 데이터는 마이크 센서로부터 획득된 사용자의 음성 데이터일 수 있다.
405동작에서 웨어러블 장치(100)는 획득된 운동 데이터를 전자장치(200)로 전송한다. 407동작에서 전자장치(200)는 운동 데이터에 포함된 데이터 중에서 사용자의 움직임 데이터를 추출한다. 409동작에서 전자장치(200)는 추출된 움직임 데이터를 기반으로 사용자의 움직임 상태를 확인한다. 411동작은 전자장치(200)는 확인된 움직임 상태를 출력한다. 움직임 상태는, 사용자의 움직임 방향 및 움직임 속도를 포함한다. 전자장치(200)는 최고 기록 데이터를 기준으로 사용자의 움직임 상태로부터 사용자 행동의 격렬함 정도, 안정됨 정도, 평범한 정보 및 걸음 수 등의 정보를 확인한다. 전자장치(200)는 최고 기록 데이터를 기준으로 어느 정도의 강도를 갖는 움직임인지에 대한 수치를 포함한다. 이를 위해, 최고 기록 데이터는 100의 수치를 갖는 정도의 강도에 대한 움직임일 수 있다. 413동작에서 전자장치(200)는 확인된 움직임 상태를 사용자가 구비한 웨어러블 장치(100)로 전송한다. 415동작에서 웨어러블 장치(100)는 수신된 움직임 상태를 출력한다. 이와 같이, 움직임 상태는 웨어러블 장치(100)로 전송되기 때문에 411동작은 생략이 가능하다.
417동작에서 전자장치(200)는 운동 데이터에 포함된 데이터 중에서 사용자의 생체 데이터와 음성 데이터를 추출한다. 419동작에서 전자장치(200)는 사용자의 감정 상태를 예측한다. 이를 위해, 전자장치(200)는 사용자의 생체 데이터와 음성 데이터에서 특징 데이터를 추출하고, 추출된 특징 데이터를 인공지능 모델에 입력한다. 421동작에서 전자장치(200)는 예측된 감정 상태를 출력한다. 423동작에서 전자장치(200)는 예측된 감정 상태를 웨어러블 장치(100)로 전송한다. 425동작에서 웨어러블 장치(100)는 수신된 감정 상태를 출력한다. 이와 같이, 감정 상태는 웨어러블 장치(100)로 전송되기 때문에 421동작은 생략이 가능하다.
427동작에서 전자장치(200)는 모델링 데이터를 생성한다. 전자장치(200)는 409동작에서 확인된 움직임 상태와, 419동작에서 확인된 감정 상태를 기반으로 모델링 데이터를 생성한다.
429동작에서 전자장치(200)는 심리 처방 데이터를 확인한다. 전자장치(200)는 생성된 모델링 데이터와 동일 또는 유사한 모델링 데이터에 매핑되어 인공지능 모델에 저장 및 학습되어 있는 심리 처방 데이터를 확인한다. 심리 처방 데이터는, 인공지능 모델을 통해 사용자에게 심리 처방할 데이터가 모델링 데이터와 함께 미리 학습된 인공지능 데이터이다. 심리 처방 데이터는, 감정 상태에 따른 일반적인 축하, 위로와 같은 감정 동조이거나, 스포츠 심리학과 관련된 전문 상담내용 결과에 대응하는 심리 처방 문장을 포함하는 인공지능 데이터일 수 있다. 상담 처방 문장은 동기부여, 감정의 이완, 격려, 칭찬, 동조 등 사용자의 감정을 완화시키거나 증폭시키는 작용을 한다.
431동작에서 전자장치(200)는 확인된 심리 처방 데이터를 출력한다. 심리 처방 데이터는, 음성 데이터 및 시각 데이터일 수 있고, 음성 데이터인 경우, 사용자의 선호도에 따라 성별, 억양 등 여러 종류의 음성 데이터 중 선택될 수 있다. 433동작에서 전자장치(200)는 확인된 심리 처방 데이터를 웨어러블 장치(100)로 전송한다. 435동작에서 웨어러블 장치(100)는 심리 처방 데이터를 출력한다. 이로 인해, 사용자는 심리 처방 데이터를 통해 자신의 움직임 및 감정 상태를 최상으로 유지할 수 있다. 이와 같이, 심리 처방 데이터는 웨어러블 장치(100)로 전송되기 때문에 431동작은 생략이 가능하다.
도 5는 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 웨어러블 장치를 이용한 전자장치에서의 방법을 설명하기 위한 순서도이다.
도 5를 참조하면, 501동작에서 제어부(260)는 웨어러블 장치(100)와 통신을 연결하기 위한 연결신호의 수신여부를 확인한다. 503동작에서 제어부(260)는 웨어러블 장치(100)와 통신을 연결한다. 505동작에서 제어부(260)는 웨어러블 장치(100)로부터 웨어러블 장치(100)를 구비한 사용자의 운동 데이터 수신 여부를 확인한다. 505동작의 확인결과, 사용자의 운동 데이터가 수신되면 제어부(260)는 507동작을 수행하고, 운동 데이터가 수신되지 않으면 제어부(260)는 505동작을 재수행한다.
507동작에서 제어부(260)는 수신된 운동 데이터를 기반으로 사용자의 움직임 상태를 확인한다. 이는 도 6을 이용하여, 보다 구체적으로 설명하기로 한다. 509동작에서 제어부(260)는 수신된 운동 데이터를 기반으로 사용자의 감정 상태를 예측한다. 이는 도 7을 이용하여, 보다 구체적으로 설명하기로 한다.
511동작에서 제어부(260)는 모델링 데이터를 생성한다. 제어부(260)는 507동작에서 수집된 웨어러블 장치(100)를 구비한 사용자의 움직임 데이터로부터의 움직임 상태와, 509동작에서 예측된 감정 상태를 기반으로 모델링 데이터를 생성한다. 513동작에서 제어부(260)는 심리 처방 데이터를 확인한다. 제어부(260)는 생성된 모델링 데이터와 동일 또는 유사한 모델링 데이터에 매핑되어 인공지능 모델에 저장 및 학습된 심리 처방 데이터를 확인한다. 심리 처방 데이터는, 인공지능 모델을 통해 사용자에게 심리 처방할 데이터가 모델링 데이터와 함께 미리 학습된 인공지능 데이터이다. 심리 처방 데이터는, 감정 상태에 따른 일반적인 축하, 위로와 같은 감정 동조이거나, 스포츠 심리학과 관련된 전문 상담내용 결과에 대응하는 심리 처방 문장을 포함하는 인공지능 데이터일 수 있다. 상담 처방 문장은 동기부여, 감정의 이완, 격려, 칭찬, 동조 등 사용자의 감정을 완화시키거나 증폭시키는 작용을 한다.
515동작에서 제어부(260)는 확인된 심리 처방 데이터를 출력한다. 517동작에서 제어부(260)는 확인된 심리 처방 데이터를 웨어러블 장치(100)로 전송한다.
도 6은 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 웨어러블 장치를 이용한 전자장치에서의 방법을 설명하기 위한 상세순서도이다.
도 6을 참조하면, 601동작에서 제어부(260)는 운동 데이터에 포함된 데이터 중 사용자의 움직임 데이터를 추출한다. 움직임 데이터는 가속도 센서 또는 자이로 센서로부터 획득된 사용자의 움직임 방향, 움직임 속도 등에 대한 데이터일 수 있다. 603동작에서 제어부(260)는 추출된 움직임 데이터를 메모리(240)에 기 저장된 최고 기록 데이터와 비교한다. 605동작에서 제어부(260)는 최고 기록 데이터와의 비교 결과에 따라 움직임 데이터에 대한 움직임 상태를 확인한다. 움직임 상태는, 사용자의 움직임 방향 및 움직임 속도를 포함하고, 최고 기록 데이터를 기준으로 어느 정도의 강도를 갖는 움직임인지에 대한 수치를 포함한다.
607동작에서 제어부(260)는 확인된 움직임 상태를 표시부(230)에 출력한다. 움직임 상태는 웨어러블 장치(100)로 전송되기 때문에 607동작은 생략이 가능하다. 609동작에서 제어부(260)는 확인된 움직임 상태를 웨어러블 장치(100)에서 출력할 수 있도록 움직임 상태를 웨어러블 장치(100)로 전송하고 도 5의 509동작으로 리턴한다.
도 7은 본 발명의 실시 예에 따른 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하기 위한 웨어러블 장치를 이용한 전자장치에서의 방법을 설명하기 위한 상세순서도이다.
도 7을 참조하면, 701동작에서 제어부(260)는 운동 데이터에 포함된 데이터 중 사용자의 생체 데이터 및 음성 데이터를 추출한다. 생체 데이터는 심박수 모니터 센서, 심전도 모니터 센서 및 피부전기저항 센서로부터 획득된 사용자의 심박수, 심박변이도, 맥박, 체온, 피부 상의 저항 등에 대한 데이터일 수 있다. 음성 데이터는 마이크 센서로부터 획득된 사용자의 음성 데이터일 수 있다.
703동작에서 제어부(260)는 추출된 사용자의 생체 데이터 및 음성 데이터를 이용하여 사용자의 감정 상태를 예측한다. 705동작에서 제어부(160)는 예측된 감정 상태를 출력하고, 707동작에서 제어부(260)는 예측된 감정 상태를 웨어러블 장치(100)로 전송한다. 감정 상태는 웨어러블 장치(100)로 전송되기 때문에 705동작은 생략이 가능하다. 감정 상태를 예측한 제어부(260)는 도 5의 511동작으로 리턴한다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 즉 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (15)

  1. 사용자가 구비한 적어도 하나의 웨어러블 장치와 통신을 수행하는 통신부;
    상기 웨어러블 장치로부터 수신된 복수의 제1 운동 데이터에 포함된 각각의 제1 움직임 데이터, 제1 생체 데이터 및 제1 음성 데이터를 추출하고, 상기 제1 움직임 데이터를 기반으로 상기 사용자의 움직임 강도를 수치화하여 상기 사용자의 움직임 상태를 확인하고, 상기 제1 생체 데이터와 상기 제1 음성 데이터를 기반으로 상기 사용자의 감정 상태를 예측하고, 상기 움직임 상태 및 상기 감정 상태를 매핑하여 복수의 모델링 데이터를 생성하고, 상기 복수의 모델링 데이터 각각에 제어 데이터를 매핑하여 저장하고,
    상기 사용자가 운동 중에 상기 웨어러블 장치로부터 수신된 제2 운동 데이터에서 추출된 제2 움직임 데이터, 제2 생체 데이터 및 제2 음성 데이터를 기반으로 상기 사용자의 움직임 상태 및 감정 상태를 확인하고, 상기 확인된 움직임 상태 및 상기 감정 상태를 매핑하여 모델링 데이터를 생성하고, 상기 복수의 모델링 데이터 중에서 상기 생성된 모델링 데이터와 동일 및 임계치 이상 유사한 모델링 데이터를 확인하고, 상기 확인된 모델링 데이터에 매핑되어 저장된 제어 데이터를 확인하는 제어부; 및
    상기 제어 데이터를 출력하는 표시부;
    를 포함하는 전자장치.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 제1 움직임 데이터를 기반으로 수치화된 상기 움직임 강도를 기록 데이터로 저장하고, 저장된 복수의 기록 데이터에 포함된 최고 기록 데이터를 기준으로 상기 제2 움직임 데이터에 대한 움직임 강도를 수치화하여 상기 웨어러블 장치로 전송하는 전자장치.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 최고 기록 데이터와 상기 제2 움직임 데이터의 비교결과, 상기 최고 기록 데이터보다 상기 제2 움직임 데이터가 크면 상기 제2 움직임 데이터로 상기 최고 기록 데이터를 갱신하는 전자장치.
  4. 제3항에 있어서,
    상기 움직임 상태와 상기 감정 상태가 매핑된 복수의 모델링 데이터, 상기 복수의 모델링 데이터와 각각 매핑된 복수의 제어 데이터를 저장하는 메모리;
    를 더 포함하는 전자장치.
  5. 삭제
  6. 제4항에 있어서,
    상기 제어 데이터는,
    상기 사용자의 움직임 및 감정 상태를 제어하기 위한 음성 데이터 및 시각 데이터를 포함하는 전자장치.
  7. 제6항에 있어서,
    상기 제어부는,
    상기 제어 데이터를 상기 적어도 하나의 웨어러블 장치로 전송하는 전자장치.
  8. 전자장치가 적어도 하나의 웨어러블 장치로부터 사용자에 대한 제1 움직임 데이터, 제1 생체 데이터 및 제1 음성 데이터를 각각 포함하는 복수의 제1 운동 데이터를 수신하는 동작;
    상기 전자장치가 상기 제1 움직임 데이터를 기반으로 상기 사용자의 움직임 강도를 수치화하여 상기 사용자의 움직임 상태를 확인하는 동작;
    상기 전자장치가 상기 제1 생체 데이터와 상기 제1 음성 데이터를 기반으로 상기 사용자의 감정 상태를 예측하는 동작;
    상기 전자장치가 상기 움직임 상태 및 상기 감정 상태를 매핑하여 복수의 모델링 데이터를 생성하고, 상기 복수의 모델링 데이터 각각에 제어 데이터를 매핑하는 동작;
    상기 전자장치가 운동 중인 사용자가 구비한 상기 웨어러블 장치로부터 수신된 제2 움직임 데이터, 제2 생체 데이터 및 제2 음성 데이터를 포함하는 제2 운동 데이터를 기반으로 상기 사용자의 움직임 상태 및 감정 상태를 확인하는 동작;
    상기 전자장치가 상기 확인된 움직임 상태 및 상기 감정 상태를 매핑하여 모델링 데이터를 생성하고, 상기 복수의 모델링 데이터 중에서 상기 생성된 모델링 데이터와 동일 및 임계치 이상 유사한 모델링 데이터를 확인하는 동작; 및
    상기 전자장치가 상기 확인된 모델링 데이터에 매핑되어 저장된 제어 데이터를 확인하여 출력하는 동작;
    을 포함하는 방법.
  9. 제8항에 있어서,
    상기 사용자의 움직임 상태 및 감정 상태를 확인하는 동작은,
    상기 전자장치가 상기 제1 움직임 데이터를 기반으로 수치화된 상기 움직임 강도가 저장된 복수의 기록 데이터에서 최고 기록 데이터를 확인하는 동작; 및
    상기 전자장치가 상기 최고 기록 데이터를 기준으로 제2 움직임 데이터에 대한 움직임 강도를 수치화하여 상기 웨어러블 장치로 전송하는 동작;
    을 포함하는 방법.
  10. 제9항에 있어서,
    상기 사용자의 움직임 상태 및 감정 상태를 확인하는 동작은,
    상기 전자장치가 상기 최고 기록 데이터와 상기 제2 움직임 데이터의 비교결과, 상기 최고 기록 데이터보다 상기 제2 움직임 데이터가 크면 상기 제2 움직임 데이터로 상기 최고 기록 데이터를 갱신하는 동작;
    을 더 포함하는 방법.
  11. 제9항에 있어서,
    상기 복수의 모델링 데이터 각각에 제어 데이터를 매핑하는 동작은,
    상기 전자장치가 상기 움직임 상태와 상기 감정 상태가 매핑된 상기 복수의 모델링 데이터를 저장하는 동작; 및
    상기 전자장치가 상기 복수의 모델링 데이터와 각각 매핑된 복수의 제어 데이터를 저장하는 동작;
    을 더 포함하는 방법.
  12. 삭제
  13. 제11항에 있어서,
    상기 제어 데이터는,
    상기 사용자의 움직임 및 감정 상태를 제어하기 위한 음성 데이터 및 시각 데이터를 포함하는 방법.
  14. 제13항에 있어서,
    상기 확인된 제어 데이터를 상기 적어도 하나의 웨어러블 장치로 전송하는 동작;
    을 더 포함하는 방법.
  15. 움직임 데이터, 생체 데이터 및 음성 데이터를 포함하는 사용자의 운동 데이터를 복수개 획득하는 적어도 하나의 웨어러블 장치; 및
    상기 적어도 하나의 웨어러블 장치로부터 제1 운동 데이터를 수신하고, 제1 움직임 데이터를 기반으로 상기 사용자의 움직임 강도를 수치화하여 상기 사용자의 움직임 상태를 확인하고, 제1 생체 데이터와 제1 음성 데이터를 기반으로 상기 사용자의 감정 상태를 예측하고, 상기 움직임 상태 및 상기 감정 상태를 매핑하여 모델링 데이터를 생성하고, 상기 모델링 데이터와 관련된 제어 데이터를 상기 모델링 데이터에 매핑하여 저장하고,
    상기 사용자가 운동 중에 상기 적어도 하나의 웨어러블 장치로부터 수신된 제2 운동 데이터에서 추출된 제2 움직임 데이터, 제2 생체 데이터 및 제2 음성 데이터를 기반으로 상기 사용자의 움직임 상태 및 감정 상태를 확인하고, 상기 확인된 움직임 상태 및 상기 감정 상태를 매핑하여 모델링 데이터를 생성하고, 상기 복수의 모델링 데이터 중에서 상기 생성된 모델링 데이터와 동일 및 임계치 이상 유사한 모델링 데이터를 확인하고, 상기 확인된 모델링 데이터에 매핑되어 저장된 제어 데이터를 확인한 후, 상기 적어도 하나의 웨어러블 장치로 전송하는 전자장치;
    를 포함하는 시스템.
KR1020160135197A 2016-10-18 2016-10-18 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템 KR101907598B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160135197A KR101907598B1 (ko) 2016-10-18 2016-10-18 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160135197A KR101907598B1 (ko) 2016-10-18 2016-10-18 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20180042702A KR20180042702A (ko) 2018-04-26
KR101907598B1 true KR101907598B1 (ko) 2018-10-12

Family

ID=62082287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160135197A KR101907598B1 (ko) 2016-10-18 2016-10-18 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR101907598B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102551856B1 (ko) 2023-04-14 2023-07-06 주식회사 플랙스 딥러닝 기반의 예측 모델에 기반하여 보조 보행 장치를 이용하는 피보호자의 감정 상태를 예측하는 전자 장치 및 그 동작 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019216504A1 (ko) * 2018-05-09 2019-11-14 한국과학기술원 인간 감정 인식을 위한 딥 생리적 정서 네트워크를 이용한 인간 감정 추정 방법 및 그 시스템
KR102572701B1 (ko) 2018-08-17 2023-08-31 삼성전자주식회사 사용자의 상태 정보에 기초하여 응답 메시지를 제공하는 전자 장치 및 그 동작 방법
KR102271793B1 (ko) * 2020-12-11 2021-07-02 (주)씨어스테크놀로지 인공지능 기반 복합생체신호 빅데이터 통합처리 플랫폼 제공 시스템 및 이를 이용한 복합생체신호 빅데이터 통합처리 방법
KR102399390B1 (ko) * 2021-04-28 2022-05-18 (주)에이아이딥 인공지능을 이용한 감성 케어 서비스 시스템 및 방법
KR20230089600A (ko) 2021-12-13 2023-06-21 울산과학기술원 심리 상태 예측 시스템 및 이를 이용한 심리 상태 예측 방법
CN114422920A (zh) * 2021-12-28 2022-04-29 歌尔科技有限公司 无线音频设备的控制方法、装置及耳机

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184763A (ja) 2014-03-20 2015-10-22 ヤフー株式会社 感情推定装置、感情推定方法、及び感情推定プログラム
JP2016150118A (ja) 2015-02-17 2016-08-22 日本電信電話株式会社 運動状態と心理状態判定方法、装置、及びプログラム
JP2016165373A (ja) * 2015-03-10 2016-09-15 日本電信電話株式会社 センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184763A (ja) 2014-03-20 2015-10-22 ヤフー株式会社 感情推定装置、感情推定方法、及び感情推定プログラム
JP2016150118A (ja) 2015-02-17 2016-08-22 日本電信電話株式会社 運動状態と心理状態判定方法、装置、及びプログラム
JP2016165373A (ja) * 2015-03-10 2016-09-15 日本電信電話株式会社 センサデータを用いた推定装置、センサデータを用いた推定方法、センサデータを用いた推定プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102551856B1 (ko) 2023-04-14 2023-07-06 주식회사 플랙스 딥러닝 기반의 예측 모델에 기반하여 보조 보행 장치를 이용하는 피보호자의 감정 상태를 예측하는 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
KR20180042702A (ko) 2018-04-26

Similar Documents

Publication Publication Date Title
KR101907598B1 (ko) 인공지능 모델을 통해 사용자의 감정과 행동을 심리 처방하는 웨어러블 장치를 이용한 전자장치, 방법 및 시스템
US11573763B2 (en) Voice assistant for wireless earpieces
US10748448B2 (en) Haptic communication using interference of haptic outputs on skin
CN106956271B (zh) 预测情感状态的方法和机器人
US8730048B2 (en) Earphone-based game controller and health monitor
US10827927B2 (en) Avoidance of cognitive impairment events
US9269119B2 (en) Devices and methods for health tracking and providing information for improving health
CN101198277B (zh) 用于生理学和心理生理学监控的系统
US11508344B2 (en) Information processing device, information processing method and program
CN107209807A (zh) 疼痛管理可穿戴设备
CN104363865A (zh) 用于口吃减轻的方法和装置
CN112805765B (zh) 信息处理装置
US20200282261A1 (en) Automated activity detection and tracking
US20230317217A1 (en) System and Method for Populating Electronic Health Records with Wireless Earpieces
KR102014358B1 (ko) 건강관리 프로그램 제공방법
TWI565501B (zh) 隨身運動提示方法、系統與一運動平台
KR101061771B1 (ko) 놀이치료를 위한 로봇 및 로봇 제어 시스템
KR20190080598A (ko) 생체신호를 이용한 감성 검출 시스템 및 그 방법
US20180359552A1 (en) Wireless Earpieces with a Memory Coach
Qiao et al. An inertial sensor-based system to develop motor capacity in children with cerebral palsy

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
E801 Decision on dismissal of amendment
AMND Amendment
X701 Decision to grant (after re-examination)