KR200265257Y1 - 상황적응적 감성 조정 장치 - Google Patents

상황적응적 감성 조정 장치 Download PDF

Info

Publication number
KR200265257Y1
KR200265257Y1 KR2020010035070U KR20010035070U KR200265257Y1 KR 200265257 Y1 KR200265257 Y1 KR 200265257Y1 KR 2020010035070 U KR2020010035070 U KR 2020010035070U KR 20010035070 U KR20010035070 U KR 20010035070U KR 200265257 Y1 KR200265257 Y1 KR 200265257Y1
Authority
KR
South Korea
Prior art keywords
information
user
emotion
emotional
adjustment
Prior art date
Application number
KR2020010035070U
Other languages
English (en)
Inventor
강세호
Original Assignee
삼성네트웍스 주식회사
유니실버(주)
강세호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성네트웍스 주식회사, 유니실버(주), 강세호 filed Critical 삼성네트웍스 주식회사
Priority to KR2020010035070U priority Critical patent/KR200265257Y1/ko
Application granted granted Critical
Publication of KR200265257Y1 publication Critical patent/KR200265257Y1/ko

Links

Abstract

개시된 본 고안은 사용자의 인체 정보를 분석하여 사용자의 감성 상태를 검출하고 검출된 감성 상태를 분석하여 감성의 조정이 필요한 경우 시각, 청각, 촉각의 자극을 유발하는 물리적 신호를 출력하여 사용자를 자극함으로써 사용자의 감성을 조정하는 상황적응적 감성 조정 장치에 관한 것이다.
상술한 본원 고안의 장치는, 사용자의 기초 감성 상태 정보 및 기준 감성 정보를 저장하는 기초 정보 저장부;와 사용자의 현재 상태 정보를 입력하는 사용자 정보 입력부;와 사용자 정보 입력부에 입력된 환경 정보를 바탕으로 사용자의 감성 상태를 결정하고, 사용자의 감성 상태에 대응되는 감성정보를 상기 기초정보 저장부로부터 검색 결정하고, 결정된 감성정보에 따라 상기 사용자의 감성 조정 대응 정보를 상기 기초 정보 저장부로부터 추출하는 감성 조정 정보 추출부; 및 상기 추출된 감성 조정 정보에 따라 적절한 감성 변화를 유발하기 위한 물리신호를 출력하는 감성 조정 신호 출력부;로 구성된다.
상술한 본원 고안은, 이동통신 단말기, 개인용 컴퓨터 등에 구성되어, 사용자가 가정생활, 직장생활, 사회생활을 하면서 현재의 감성을 스스로 파악하고, 파악된 감성정보에 따라 최적화된 감성 조정 신호를 출력할 수 있도록 함으로써, 자신의 감성에 적절하게 대응할 수 있도록 하고, 더 나아가서는 자신의 감성을 조정할 수 있도록 함으로써 업무능률 향상, 대인 교섭능력 증진, 건전한 가정 및 직장 환경 조성 등 장소와 시간에 구애됨이 없이 스스로를 적절하게 제어할 수 있도록하는 효과를 제공한다.

Description

상황적응적 감성 조정 장치{An adaptive emotion controling apparatus}
본 고안은 상황적응적 감성 조정 장치에 관한 것이다.
더욱 상세하게는 생체 정보에 따라 사람의 감성을 표현할 수 있도록 하는 감성 정보와, 외부의 물리적 신호로서의 소리, 빛, 진동 등에 따라 사람이 느끼는 감성 및 사람의 감성 변화를 데이터화하여 데이터 베이스를 구성하고, 감성 변화를 요구하는 사람의 얼굴 표정 정보, 생체 정보 및 음성 정보를 수집, 분석하여 감성 상태에 대한 값을 추출하고, 결정된 감성 상태 값과 상기 데이터 베이스화된 기 저장된 데이터를 비교함으로써 사용자의 감성 변화를 위한 감성 조정 신호를 생성하여 빛, 소리, 진동 등의 물리적 신호를 발생함으로써 감성을 조정할 수 있도록 하는 상황적응적 감성 조정 장치에 관한 것이다.
종래에 있어서, 인간의 감성을 파악하기 위해서는, 사람의 말씨나 얼굴표정, 기본적인 행동 등을 보고 본능 적으로 파악하거나, 좀 더 과학적인 방법으로서는, 실험실에서 뇌파를 측정하거나, 설문지 조상 방법에 의한 질의 응답식의 감성 인식 방법이 사용되는 것이 일반적인 것이었다.
또한, 상술한 방법에 의해서 대상자의 감성을 파악했다고 해도, 상술한 대상자의 감성을 조정하기 위한 물리적 신호에 대한 정확한 데이터가 구성되어 있지 않아 감성 조정을 위한 정보 입력이 어렵다는 문제점이 있었다.
상술한 종래에 있어서의 문제점을 해결하기 위한 본원 고안은, 생체(인체) 정보에 따라 사람의 감성을 표현할 수 있도록 하는 감성 정보와, 외부의 물리적 요건으로서의 소리, 빛, 진동 등의 조건에 따라 사람이 느끼는 감성 및 사람의 감성 변화를 데이터화 하여 데이터 베이스화하고, 감성 변화를 요구하는 사람의 생체 정보를 수집, 분석하여 감성 상태에 대한 값을 추출하고, 결정된 감성 상태 값과 상기 데이터 베이스화된 기 저장된 데이터를 비교함으로써 사용자의 감성 변화를 위한 감성 조정 신호를 생성하여 빛, 소리, 진동 등의 물리적 신호를 발생함으로써 사람의 감성을 조정할 수 있도록 하는 상황적응적 감성 조정 장치를 제공하는 것을 그 목적으로 한다.
도 1은, 본원 고안에 따르는 상황적응적 감성 조정 장치의 전체 구성을 나타내는 블럭도이다.
도 2는, 도 1의 구성 요소 중 인체정보 검출부의 내부 구성을 나타내는 구성도이다.
도 3은, 본원 고안에 따르는 상황적응적 감성 조정 방법의 전체 처리과정을 나타내는 순서도이다.
*도면의 주요 부호에 대한 설명*
1 : 감성 조정 장치
20 : 환정 정보 입력부
21 : 얼굴 표정 패턴 분석 수단
22 : 생체 신호 감지 수단
23 : 음성 신호 분석 수단
30 : 감성 조정 정보 추출부
40 : 감성 조정 신호 출력부
상술한 목적을 달성하기 위한 본원 고안은, 사용자로부터 입력된 환경정보와 기 저장된 기초 정보를 비교하여, 사용자의 현재 감성 상태를 나타내는 감성상태 정보를 추출하고, 추출된 감성 상태 정보에 따라 사용자의 감성 변화를 유발할 수 있도록 하는 감성 조정 신호를 상기 기초 정보 저장부로부터 추출하여 출력함으로써 감성 조정 신호 출력부를 통해 사용자의 감성 조정에 대응되는 물리적 신호가 출력되도록 함으써 사용자의 감성을 조정하는 것을 특징으로 한다.
이하, 본원 고안의 바람직한 일 실시예를 나타내는 첨부된 도면을 참조하여 본원 고안을 더욱 상세히 설명한다.
도 1과 도 2는 본원 고안에 따르는 상황적응적 감성 조정 장치의 전체 구성을 나타는 블럭도 및 상술한 상황적응적 감성 조정 장치의 내부에 구성되는 감성 조정 정보 추출부(30)의 내부 구성도이다.
먼저, 도 1에 도시된 바와 같이 상술한 동작을 위한 본원 고안의 시스템은,사용자의 기초 감성 상태 정보 및 기준 감성 정보를 저장하는 기초 정보 저장부(10);와 사용자의 현재 상태 정보를 입력하는 사용자 정보 입력부(20);와 사용자 정보 입력부에 입력된 환경 정보를 바탕으로 고객의 감성정보 값에 대응되는 감성정보를 상기 기초정보 저장부로부터 추출한 후 사용자의 감성 조정 대응 정보를 상기 기초 정보 저장부로부터 추출하는 감성 조정 정보 추출부(30); 및 상기 추출된 감성 조정 정보에 따라 적절한 감성 변화를 유발하기 위한 물리신호를 출력하는 감성 조정 신호 출력부(40);로 구성된다.
상술한 장치 구성에서 상술한 기초정보 저장부(10)는 사용자의 감성 상태를 나타내는 기준 상태로서의 표정 정보 데이터, 생체 정보 데이터 및 음성 정보 데이터 등의 사용자 기초 정보와 보통의 일반 사람들이 공통적으로 가지는 표정 정보 데이터, 신체 정보 데이터, 음성정보 데이터로부터 사람의 감성 상태를 표현하도록 특정화된 데이터와, 빛, 소리, 진동 등의 외부의 물리적 신호에 의해 감성의 변화 정도를 나타내는 데이터를 포함하는 기준 감성 정보를 저장하며, 저장된 데이터는 사용자의 감성 상태의 검출, 감성 상태 변화를 위한 감성 조정 신호의 출력을 수행하는 기준 정보가 된다.
상술한 사용자 정보 입력부(20)는, 카메라, 생체 신호 감지 센서, 마이크로 폰으로 구성되어 사용자의 얼굴 표정 정보, 신체 상태를 나타내는 맥박, 호흡, 체온 등의 정보, 음성 정보를 입력받아 데이터 신호로 변환하여 감성 조정 정보 추출부로 출력한다.
상술한 감성 조정 정보 추출부(30)는 상술한 사용자 정보 입력부(20)로 부터수신된 얼굴 패턴 정보, 생체 신호 정보, 음성 특성 정보를 수신한 후, 각각을 독립된 프로세스로 분기하여, 수신된 정보를 바탕으로 상술한 기초 정보 저장부에서 해당 감성 상태에 대한 정보를 추출하여 사용자의 감성 상태 조정 데이터를 출력한다.
상술한 처리과정을 위한 감성 조정 정보 추출부(30)의 내부 구성은 도 2 에 도시된 바와 같이, 얼굴 패턴 분석 수단(31), 생체 신호 분석 수단(32), 음성 특성 분석 수단(33) 및 얼굴 패턴 분석 수단(31), 생체 신호 분석 수단(32), 음성 특성 분석 수단(33)으로부터 출력된 각각의 얼굴 패턴 분석 정보, 생체 신호 분석 정보, 음성 특성 분석 정보를 수신하여 수신된 정보로 부터 각각의 감성 상태를 결정하고, 결정된 감성 상태를 통합한 후, 통합된 감성 상태의 조정이 필요한 경우 감성 조정을 위한 감성 조정 정보를 생성하는 감성 조정 정보 생성 수단(34)을 포함하여 구성된다.
상술한 얼굴 패턴 분석 수단(31)은 사용자 정보 입력부(20)에 구성된 카메라로부터 사용자의 얼굴 영상 이미지 데이터를 수신한 후, 직교, 극 또는 공간 좌표에 의하여 얼굴 영상 이미지를 분할 한 후 얼굴 표정을 특징 짓는 특징점을 검출하고 사용자 기준 정보 중 얼굴 영상 이미지 데이터의 특징점과 비교하여 그 이동 변위를 검출한 후, 상기 사용자의 얼굴 표정을 결정하고 이를 데이터화하여 감성 조정 정보 생성 수단(34)으로 출력한다.
상술한 생체 신호 분석 수단(32)은 사용자 정보 입력부(20)에 구성된 생체 신호 감지 센서로서로부터 맥박, 체온, 호흡 데이터를 수신하고, 수신된 데이터를기준 값으로 하여 기초 저장부(10)로 부터 생체 신호 값에 따른 사용자의 감성 상태를 결정하고 데이터화하여 감성 조정 정보 생성 수단(34)으로 출력한다.
상술한 음성 특성 분석 수단(33)은 사용자 정보 입력부(20)에 구성된 마이크로폰으로부터 입력된 사용자의 음성 정보 데이터에서 주파수, 진폭 등의 음성 특성 데이터를 추출하고, 추출된 음성의 주파수, 진폭에 대응되는 감성 상태를 상기 기초 정보 저장부(10)에서 검색하여 음성에 따른 사용자의 감성 상태를 결정하여 감성 조정 정보 생성 수단(34)으로 출력한다.
감성 조절 정보 생성 수단(34)은, 얼굴 패턴 분석 수단(31), 생체 신호 분석 수단(32) 및 음성 특성 분석 수단(33)으로 부터 수신된 얼굴 패턴에 따른 감성 상태 데이터, 생체 신호에 따른 감성 상태 데이터, 음성 특성에 따른 감성 상태 데이터를 각각의 가중치에 따라 통합하여 사용자의 전체 감성 상태에 대한 종합적 데이터로 변환함으로써 사용자의 전체 감성 상태를 결정하고, 결정된 사용자의 전체 감성 상태의 변화를 필요로 하는 경우, 사용자의 전체 감성 상태에 대한 종합적 데이터에 대응되는 감성 조정 신호를 발생하기 위한 데이터를 기초 정보 저장부(10)로부터 각각 추출하여 감성 조정 신호 출력부(40)로 출력한다.
감성 조정 신호를 수신한 감성 조정 신호 출력부(40)는 상술한 감성 조정 신호에 대응되는 물리적 신호를 각각 생성 출력함으로써 사용자의 감성 변화를 유발할 수 있도록 동작된다.
상술한 감성 조정 신호 출력부(40)는 인터넷과 연동되는 소정 웹 탐색 프로그램을 탑재하여, 인터넷 상에서 해당 조정 신호에 대응되는 음악, 새소리, 물소리등을 저장한 음악 파일을 실시간으로 실행시키거나 기 저장된 음악 파일을 실행하여 오디오 정보를 출력하고, 소정 발광 장치를 구성하여 빛을 출력하며, 소형 구동 모터로 구성된 진동기에 의해 진동을 발생시키고, 상술한 본원 고안의 장치에 구성되어 향료를 저장하고 감성 조정 신호에 따라 구동되어 향료를 발생시킴으로써 사용자의 기분을 안정되게 하도록 하는 등의, 청각, 촉각, 시각, 후각 등을 이용하여 사람의 감성을 조정할 수 있는 물리 신호를 출력할 수 있도록 구성될 수 있으며, 또한, 상술한 물리 신호를 출력이 가능한 수단을 사용자에게 제시함으로써 사용자가 선택적에 의해 작동되도록 할 수 있도록 구성될 수 있다.
본원 고안의 구성의 설명에 기재된 사용자 정보 입력부(20)와 감성 조정 신호 출력부(40)는 사용자 측의 단말기에 구성되고, 상술한 감성 조정 정보 추출부(30) 및 기초 정보 저장부(10)는 인터넷 상에서 웹 서비스를 제공하는 서버에 구성되어, 사용자의 감성 정보 조정을 위한 웹 서비스를 제공하도록 구성될 수 있다.
도 3은 본원 고안에 따르는 상황적응적 감성 조정 방법의 전체 처리과정을 나타내는 순서도이다.
도시된 바와 같이, 본원 고안에 따르는 상황적응적 감성 조정을 위한 전체 처리 과정은,
사용자에 의한 제어 요청 신호가 입력되는 경우 상기 사용자로부터 얼굴 표정 영상 정보, 생체 신호 정보, 및 음성 정보로서의 사용자 정보를 검출하여 출력하는 사용자 정보 입력 단계(S100);와 상술한 사용자 정보 입력 단계(S100)로부터수신된 사용자 정보를 분석하여 각각의 사용자 정보에 대한 사용자의 감성 상태로부터 사용자의 통합된 감성 정보를 결정한 후, 사용자의 감성 변화가 필요한 경우 상기 사용자 감성 조정을 위한 감성 조정 정보를 생성하는 감성 조정 정보 생성 단계(S300); 및 상기 감성 조정 정보 생성 단계(S300)에서 생성된 감성 조정 정보에 따라 사용자의 감성을 조정하기 위한 물리 신호를 출력하는 감성 조정 신호 출력 단계(S400)로 이루어 지는 것을 특징으로 한다.
사용자 정보 입력 단계(S100)는 사용자의 얼굴 영상 정보를 촬상하여 촬상된 사용자 얼굴 영상 정보를 출력하는 과정과 사용자의 생체신호 정보를 감지하여 출력하는 과정 및 사용자의 음성 정보를 수신하여 전기 신호로 변환 출력하는 과정을 포함하며, 이들 과정은 서로 독립적으로 진행되는 것으로서, 동시에 진행될 수도 있고, 선택적으로 진행될 수도 있다.
사용자 정보 입력 단계(S100)로 부터 출력된 사용자 정보는 감성 조정 정보 추출 단계(S200)에서 각각 분석되어 사용자의 감성 상태 정보로 변환되고, 각각의 사용자 정보에 대한 감성 상태 정보는 다시 재 통합되어 사용자의 전체 감성 상태를 나타내는 정보로 변환 된 후, 사용자의 전체 감성 상태를 나타내는 정보로부터 사용자의 감성변화가 필요하다고 판단 된 경우 사용자 감성 변화를 위한 감성 조정 정보를 생성하여 출력한다.
감성 조정 정보를 생성하여 출력하는 감성 조정 정보 추출 단계(S200)는 사용자 정보 입력단계(S100)로 부터 입력된 사용자 얼굴 영상을 분석하여 얼굴 표정에 따른 감성 상태를 결정하는 얼굴 패턴 분석 과정과 생체 신호 정보를 분석하여생체 신호에 따른 사용자의 감성 상태를 결정하는 생체 신호 분석 단계와 음성 정보를 분석하여 음성 정보에 따른 사용자의 감성 상태를 결정하는 음성 정보 분석 단계 및 상술한 각 단계의 감성 정보를 통합하여 사용자의 전체 감성 상태를 결정하고, 결정된 사용자의 전체 감성 상태를 분석하여 감성의 변화를 유발할 필요가 있는 경우 감성 조정 정보를 생성하여 출력하는 감성 조정 정보 생성 단계로 이루어 진다.
이하, 감성 조정 정보 추출 단계의 하부 처리과정을 각각 설명한다.
먼저 얼굴 패턴 분석 과정은 사용자 정보 입력 단계에서 전송된 사용자의 얼굴 영상 이미지 데이터를 수신한 후, 직교, 극 또는 공간 좌표에 의하여 얼굴 영상 이미지를 분할 한 후 얼굴 표정을 특징 짓는 특징점을 검출하고 사용자 기준 정보 중 얼굴 영상 이미지 데이터의 특징점과 비교하여 그 이동 변위를 검출한 후, 상기 사용자의 얼굴 표정을 결정하고 이를 데이터화하여 감성 조정 정보 생성 단계로 출력한다.
다음으로 생체 신호 분석 과정은 사용자 정보 입력 단계로부터 맥박, 체온, 호흡 데이터로서의 사용자 생체(인체) 정보를 수신하고, 수신된 데이터를 기준 값으로 하여 기 저장된 데이터로부터 생체 정보에 대응되는 사용자의 감성 상태를 결정하고 데이터화하여 감성 조정 정보 생성 단계로 출력한다.
음성 특성 분석 과정에서는 사용자 정보 입력 단계에서 마이크로폰 등의 음성 입력 수단에 의해 검출되어 전송된 사용자의 음성 정보 데이터에서 주파수, 진폭 등의 음성 특성 데이터를 추출하고, 추출된 음성의 주파수, 진폭에 대응되는 감성 상태를 기 저장된 기초 데이터로부터 음성에 대응되는 사용자의 감성 상태를 결정하고 데이터화 하여 감성 조정 정보 생성 단계로 출력한다.
얼굴 패턴 분석 과정, 생체 신호 분석 과정 및 음성 특성 분석 과정에서 생성된 각각의 감성 데이터를 수신한 감성 조정 정보 생성 단계에서는, 얼굴 표정, 생체 신호, 음성에 대응되는 감성 상태에 대한 정보를 가중치에 따라 통합하여 사용자의 전체 감성 상태에 대한 종합적 데이터로 변환함으로써 사용자의 전체 감성 상태를 결정하고, 결정된 사용자의 전체 감성 상태의 변화를 필요로 하는 경우, 사용자의 전체 감성 상태에 대한 종합적 데이터에 대응되는 감성 조정 신호를 발생하기 위한 데이터를 기 저장된 데이터로부터 각각 추출한다.
상술한 감성 조정 신호 출력 단계(S300)는 상술한 감성 조정 정보 추출 단계(S200)에서 생성된 감성 조정 정보에 따라, 새소리, 물소리, 음악 등의 청각 신호와, 빛 등의 시각 신호, 및 진동 등의 촉각 신호를 출력하여 사용자가 느끼게 함으로서 사용자의 감성을 조정하고 종료한다.
상술한 본원 고안은 이동통신 단말기, 개인용 컴퓨터 등에 구성되어, 사용자가 가정생활, 직장생활, 사회생활을 하면서 현재의 감성을 스스로 파악하고, 파악된 감성정보에 따라 최적화된 감성 조정 신호를 출력할 수 있도록 함으로써, 자신의 감성에 적절하게 대응할 수 있도록 하고, 더 나아가서는 자신의 감성을 조정할 수 있도록 함으로써 업무능률 향상, 대인 교섭능력 증진, 건전한 가정 및 직장 환경 조성 등 장소와 시간에 구애됨이 없이 스스로를 적절하게 제어할 수 있도록 하는 효과를 제공한다.

Claims (3)

  1. 사용자의 기초 감성 상태 정보 및 기준 감성 데이터를 저장하는 기초정보 저장부;
    상기 사용자의 현재 상태 정보를 입력하는 사용자 정보 입력부;
    상기 사용자 정보 입력부에 입력된 환경 정보를 바탕으로 고객의 감성정보 값에 대응되는 감성정보를 상기 기초 정보 저장부로부터 추출한 후 사용자의 감성 조정 대응 정보를 상기 기초 정보 저장부로부터 추출하는 감성 조정 정보 추출부;
    상기 추출된 감성 조정 정보에 따라 적절한 감성 변화를 유발하기 위한 물리신호를 출력하는 감성 조정 신호 출력부;로 구성된 것을 특징으로 하는 상황적응적 감성 조정 장치.
  2. 제 1 항에 있어서, 상기 기초 정보 저장부는,
    사람의 공통된 감성 정보와 상기 사용자의 기준 감성 정보를 저장하는 것을 특징으로 하는 상황적응적 감성 조정 장치.
  3. 제 1 항에 있어서, 상기 감성 조정 정보 출력부는,
    상기 사용자의 얼굴 영상을 입력받아 전기 신호로 변환하고, 변환된 전기신호로부터 상기 사용자의 얼굴 표정의 특징을 나타내는 값을 분석 출력하는 얼굴 표정 패턴 분석 수단;
    상기 사용자의 생체신호 정보를 분석하여 사용자의 생체 신호에 따른 사용자 감성 상태를 결정하는 생체 신호 분석 과정감지하여 전기 신호로 변환하여 출력하는 생체 신호 분석 수단;
    상기 사용자의 음성신호를 수신하여 전기 신호로 변환하고, 변환된 전기 신호로부터 상기 사용자 음성 특성 정보를 추출하여 출력하는 음성 특성 분석 수단; 및
    상기 얼굴표정 분석 수단, 생체 신호 분석 수단, 및 음성 특성 분석 수단으로 부터 분석된 사용자 감성 상태 정보 수신하여 통합하여 사용자 감성 상태를 결정하고, 사용자의 감성 변화를 유발하기 위한 감성 조정 정보를 생성하여 출력하는 감성 조정 정보 생성 수단을 포함하여 구성되는 것을 특징으로 하는 상황적응적 감성 조정 장치.
KR2020010035070U 2001-11-15 2001-11-15 상황적응적 감성 조정 장치 KR200265257Y1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR2020010035070U KR200265257Y1 (ko) 2001-11-15 2001-11-15 상황적응적 감성 조정 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR2020010035070U KR200265257Y1 (ko) 2001-11-15 2001-11-15 상황적응적 감성 조정 장치

Publications (1)

Publication Number Publication Date
KR200265257Y1 true KR200265257Y1 (ko) 2002-02-21

Family

ID=73112413

Family Applications (1)

Application Number Title Priority Date Filing Date
KR2020010035070U KR200265257Y1 (ko) 2001-11-15 2001-11-15 상황적응적 감성 조정 장치

Country Status (1)

Country Link
KR (1) KR200265257Y1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160004414A (ko) * 2014-07-02 2016-01-13 한국전자통신연구원 네트워크를 이용한 감성 코칭 장치 및 방법
KR20180014195A (ko) * 2015-06-26 2018-02-07 인텔 코포레이션 감정 탐지 시스템

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160004414A (ko) * 2014-07-02 2016-01-13 한국전자통신연구원 네트워크를 이용한 감성 코칭 장치 및 방법
KR101719974B1 (ko) 2014-07-02 2017-03-27 한국전자통신연구원 네트워크를 이용한 감성 코칭 장치 및 방법
KR20180014195A (ko) * 2015-06-26 2018-02-07 인텔 코포레이션 감정 탐지 시스템
KR102611913B1 (ko) * 2015-06-26 2023-12-11 인텔 코포레이션 감정 탐지 시스템

Similar Documents

Publication Publication Date Title
US10019912B2 (en) Providing information to a user through somatosensory feedback
CN106956271B (zh) 预测情感状态的方法和机器人
US20180018985A1 (en) System and method for detecting repetitive speech
US9165216B2 (en) Identifying and generating biometric cohorts based on biometric sensor input
CN106997243B (zh) 基于智能机器人的演讲场景监控方法及装置
KR101749706B1 (ko) 사용자 장치를 사용하여 획득된 상황 정보 및 생체 정보를 기반으로 사용자의 감정을 예측하는 방법 및 시스템
CN107209807A (zh) 疼痛管理可穿戴设备
KR101724939B1 (ko) 뇌파를 이용한 사용자 의도 예측 시스템 및 그 방법
KR20150104345A (ko) 음성 합성 장치 및 음성 합성 방법
CN112016367A (zh) 一种情绪识别系统、方法及电子设备
CN110480656B (zh) 一种陪护机器人、陪护机器人控制方法及装置
CN108320735A (zh) 一种多数据融合的情感识别方法及系统
KR20190136706A (ko) 개인 관심상황 발생 예측/인지 장치 및 방법
US20180240458A1 (en) Wearable apparatus and method for vocabulary measurement and enrichment
KR200265257Y1 (ko) 상황적응적 감성 조정 장치
CN113288145A (zh) 一种用于训练情绪控制能力的示教装置与方法
US20230045064A1 (en) Voice recognition using accelerometers for sensing bone conduction
Mesanza et al. Machine learning based fall detector with a sensorized tip
Mulfari et al. Exploring ai-based speaker dependent methods in dysarthric speech recognition
US10691218B2 (en) Gesture recognition apparatus and components thereof
CN115396769A (zh) 无线耳机及其音量调节方法
Mittal et al. Classification of parkinson disease based on analysis and synthesis of voice signal
CN113764099A (zh) 基于人工智能的心理状态分析方法、装置、设备及介质
EP3454725A1 (en) Diagnosing system for consciousness level measurement and method thereof
Dyson et al. Sequential classification of mental tasks vs. idle state for EEG based BCIs

Legal Events

Date Code Title Description
REGI Registration of establishment
FPAY Annual fee payment

Payment date: 20110121

Year of fee payment: 10

EXPY Expiration of term