KR20160109677A - 감정 공유 시스템 및 방법 - Google Patents

감정 공유 시스템 및 방법 Download PDF

Info

Publication number
KR20160109677A
KR20160109677A KR1020150034518A KR20150034518A KR20160109677A KR 20160109677 A KR20160109677 A KR 20160109677A KR 1020150034518 A KR1020150034518 A KR 1020150034518A KR 20150034518 A KR20150034518 A KR 20150034518A KR 20160109677 A KR20160109677 A KR 20160109677A
Authority
KR
South Korea
Prior art keywords
user
emotion
doll
shared
emotionally
Prior art date
Application number
KR1020150034518A
Other languages
English (en)
Inventor
박신우
Original Assignee
박신우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박신우 filed Critical 박신우
Priority to KR1020150034518A priority Critical patent/KR20160109677A/ko
Priority to CN201610143242.5A priority patent/CN105976254A/zh
Publication of KR20160109677A publication Critical patent/KR20160109677A/ko

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Abstract

감정 공유 시스템 및 방법이 제공된다. 본 발명의 일 실시예에 따른 감정 공유 시스템 및 방법은, 제1 사용자의 사용자 신호를 처리하여 상기 제1 사용자의 감정 상태를 표현하며, 상기 처리된 사용자 신호를 전송하는 제1 감정 공유 인형; 및 상기 처리된 사용자 신호를 전송받아 상기 제1 사용자의 감정 상태를 제2 사용자에게 표현하는 제2 감정 공유 인형을 포함한다.

Description

감정 공유 시스템 및 방법 {SYSTEM AND METHOD FOR SHARING EMOTION}
본 발명은 감정 공유 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 밀접한 연관관계의 사용자들 사이에 각각의 감정 상태를 공유할 수 있는 감정 공유 시스템 및 그 방법에 관한 것이다.
개인과 개인 사이의 감정 공유는 연인, 친구 또는 가족과 같은 밀접한 연관관계에 있는 사람들 사이에서 그러한 인간관계를 유지할 수 있는 가장 핵심적인 요소라 할 수 있다. 근거리에 거주하는 사람들의 경우는 잦은 만남을 통해 이러한 감정을 공유하는 것이 용이하지만, 원거리의 사람들은 거리적 한계 때문에 잦은 만남을 가지기 어렵게 되고, 전화 또는 SNS를 통해 자신의 감정을 표현하는 것에 한계가 있다.
이러한 소셜 네트워크 서비스(SNS) 등을 이용하여 감정 패턴을 분석하고 이를 저장 또는 다른 단말에 제공함으로써 다자간 감정을 공유하는 기술이 있다.
그러나, 이러한 기술은 다자간의 감정 패턴을 추출하고 이를 공유하는 기술에 해당하나 개인과 개인간의 실시간 감정 공유 기술을 포함하고 있지 않다. 또한, 이러한 기술은 문자 등의 분석을 통해 긍정적 감정과 부정적 감정으로 분류함으로써 다양한 감정의 형태를 일률적으로 분류하게 된다.
대한민국 공개특허 2013-0065846호 (2013.06.20. 공개)
본 발명은 상기 문제점을 해결하기 위한 것으로, 밀접한 연관관계에 있는 사용자들 사이에 각각의 감정 상태를 공유할 수 있는 감정 공유 시스템 및 방법을 제공한다.
또한, 사용자의 말, 행동 등을 사용자의 감정 상태로 표현할 수 있는 감정 출력 알고리즘을 포함하는 감정 공유 시스템 및 방법을 제공한다.
그리고, 제1 사용자와 밀접한 연관관계에 있는 제2 사용자에게 제1 사용자의 감정 상태를 표현할 수 있는 감정 공유 인형을 제공할 수 있는 감정 공유 시스템 및 방법을 제공한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 감정 공유 시스템은, 제1 사용자의 사용자 신호를 처리하여 상기 제1 사용자의 감정 상태를 표현하며, 상기 처리된 사용자 신호를 전송하는 제1 감정 공유 인형; 및 상기 처리된 사용자 신호를 전송받아 상기 제1 사용자의 감정 상태를 제2 사용자에게 표현하는 제2 감정 공유 인형을 포함한다.
또한, 상기 제1 감정 공유 인형은, 상기 사용자 신호를 인식하는 제1 인터페이스부와, 감정 출력 알고리즘을 기초로 상기 사용자 신호를 처리하는 제1 처리부와, 상기 처리된 사용자 신호를 전송하는 제1 통신부와, 상기 처리된 사용자 신호를 기초로 상기 제1 사용자의 감정 상태를 표현하는 제1 감정 표현부를 포함하고, 상기 제2 감정 공유 인형은, 상기 처리된 사용자 신호를 전송받는 제2 통신부와, 상기 전송받은 사용자 신호를 기초로 상기 제1 사용자의 감정 상태를 제2 사용자에게 표현하는 제2 감정 표현부를 포함할 수 있다.
또한, 상기 제1 인터페이스부는 상기 제1 사용자의 모션정보를 획득하기 위한 제1 모션 인식 모듈, 음성 정보를 획득하기 위한 제1 음성 인식 모듈 및 상기 제1 사용자의 입력 정보를 획득하기 위한 제1 입력 모듈 중 적어도 하나를 포함할 수 있다.
또한, 상기 감정 출력 알고리즘은 기설정된 상기 제1 사용자에 대한 정보를 기초로 상기 모션 정보, 상기 음성 정보 및 상기 입력 정보 중 적어도 하나를 분석하여 상기 사용자 신호를 처리할 수 있다.
또한, 상기 제1 및 제2 감정 표현부는 모션 정보로 표현하는 동작 모듈, 심볼 정보로 표현하는 디스플레이 모듈, 소리 정보로 표현하는 소리 출력 모듈 중 적어도 하나를 포함할 수 있다.
또한, 상기 제2 감정 표현부는 상기 제1 감정 표현부에 표현된 상기 제1 사용자의 감정 상태를 동일하게 표현할 수 있다.
상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 감정 공유 방법은, 제1 사용자의 감정 상태를 표현하는 제1 감정 공유 인형 및 제2 사용자의 감정 상태를 표현하는 제2 감정 공유 인형을 이용하여 상기 제1 및 제2 사용자의 감정 상태를 공유하는 감정 공유 방법에 있어서, 상기 제1 감정 공유 인형에서 상기 제1 사용자에 의한 사용자 신호를 감지하는 단계; 상기 제1 감정 공유 인형에서 상기 사용자 신호를 감정 출력 알고리즘을 통해 처리하여 상기 제1 사용자의 감정 상태를 표현하는 단계; 상기 처리된 사용자 신호를 상기 제1 감정 공유 인형에서 상기 제2 감정 공유 인형으로 전송하는 단계; 및 상기 전송 받은 사용자 신호를 상기 제2 감정 공유 인형에서 표현하는 단계를 포함한다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면, 밀접한 연관관계에 있는 사용자들 사이에 각각의 감정 상태를 공유하여 밀접한 연관관계를 지속할 수 있다.
또한, 사용자의 말, 행동 등을 사용자의 감정 상태로 표현할 수 있는 감정 출력 알고리즘을 포함할 수 있다.
그리고, 제1 사용자와 밀접한 연관관계에 있는 제2 사용자에게 제1 사용자의 감정 상태를 표현할 수 있는 감정 공유 인형을 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 감정 공유 시스템의 개념도이다.
도 2는 본 발명의 일 실시예에 따른 감정 공유 시스템의 블록 구성도이다.
도 3은 도 1에 있는 감정 공유 인형의 인터페이스부 및 감정 표현부의 상세 구성도이다.
도 4 및 도 5는 각각 본 발명의 일 실시예에 따른 감정 공유 시스템의 구체적인 사용 상태를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 감정을 공유하는 방법의 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "이루어지다(made of)"는 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이때, 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하며, 처리 흐름도 도면들의 각 구성과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 구성(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
또, 몇 가지 대체 실시예들에서는 구성들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 구성들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 구성들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이하, 본 발명에 대하여 첨부된 도면에 따라 보다 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 감정 공유 시스템의 개념도이다.
본 발명의 일 실시예에 따른 감정 공유 시스템(10)은 제1 감정 공유 인형(100)과 제2 감정 공유 인형(200)을 이용하여 떨어져 있는 제1 사용자(101) 및 제2 사용자(201) 사이의 감정 상태를 공유할 수 있다.
도 1을 참고하면, 본 발명의 일 실시예에 따른 감정 공유 시스템(10)은 제1 감정 공유 인형(100)과 제2 감정 공유 인형(200)을 포함한다. 여기에서, 제1 및 제2 감정 공유 인형(100, 200)의 세부적인 구성은 도 2 및 도 3을 참고하여 후술하기로 한다.
제1 감정 공유 인형(100)은 제1 사용자(101)의 감정 상태를 표현하며, 제2 사용자(201)의 감정 상태를 전송받아 제1 사용자(101)에게 표현한다. 이러한 제1 감정 공유 인형(100)은 제1 사용자(101)의 소유, 통제 하에 있는 인형일 수 있다.
제2 감정 공유 인형(200)은 제2 사용자(201)의 감정 상태를 표현하며, 제1 사용자(101)의 감정 상태를 전송받아 제2 사용자(201)에 표현한다.
제1 감정 공유 인형(100)과 제2 감정 공유 인형(200)은 네트워크(예를 들어, 인터넷)를 통해 제1 및/또는 제2 사용자(101, 201)의 사용자 신호를 직접 송수신할 수 있고, 스마트폰 등과 같이 네트워크 기능을 포함하는 외부 단말(미도시)을 통해 간접적으로 제1 및/또는 제2 사용자(101, 201)의 사용자 신호를 송수신할 수 있다.
예를 들어, 제1 및 제2 감정 공유 인형(100, 200)이 스마트폰을 통해 동작되는 경우, 제1 감정 공유 인형에서 감지된 제1 사용자(101)의 사용자 신호가 네트워크를 통해 스마트폰에 송신되며, 송신된 사용자 신호는 스마트폰의 앱을 통해 제2 사용자(201)에 전송될 수 있다. 이 때, 전송된 제1 사용자(101)의 사용자 신호는 제2 사용자(201)의 스마트폰을 통해 제2 감정 공유 인형(200)에 전송되고, 제1 사용자(101)의 사용자 신호가 제2 감정 공유 인형(200)을 통해 제2 사용자(201)에 표현될 수 있다.
여기서, 스마트폰은 제1 및 제2 감정 공유 인형(100, 200) 각각을 경유하여 제1 및 제2 감정 공유 인형(100, 200) 각각 제어하는 것에 한정되지 않고, 제1 및 제2 감정 공유 인형(100, 200) 각각을 직접 제어하는 것도 가능하다.
일례로, 스마트폰에서 제1 감정 공유 인형(100) 및/ 또는 제2 감정 공유 인형(200)에 스마트폰 사용자의 감정을 직접전달하여, 스마트폰 사용자의 감정, 즉 기쁨, 슬픔 및 우울한 감정 상태를 제1 감정 공유 인형(100) 및/ 또는 제2 감정 공유 인형(200)이 표현하게 할 수 있다.
도 2는 본 발명의 일 실시예에 따른 감정 공유 시스템의 블록 구성도이고, 도 3은 도 1에 있는 감정 공유 인형의 인터페이스부 및 감정 표현부의 상세 구성도이다.
도 2 및 도 3을 참고하면, 제1 감정 공유 인형(100)은 제1 인터페이스부(110), 제1 처리부(120), 제1 통신부(130) 및 제1 감정 표현부(140)를 포함하고, 제2 감정 공유 인형(200)은 제2 인터페이스부(210), 제2 처리부(220), 제2 통신부(230) 및 제2 감정 표현부(240)를 포함한다. 단, 제1 감정 공유 인형(100)의 구성 요소는 제2 감정 공유 인형(200)의 구성 요소와 동일한 기능으로 구현되므로 이하에서는 제1 감정 공유 인형(100)의 구성 요소에 대해서만 설명하고, 제2 감정 공유 인형(200)의 구성요소에 대한 설명은 생략하기로 한다.
제1 인터페이스부(110)는 제1 사용자(101)에 의한 사용자 신호를 인식한다. 예를 들어, 제1 인터페이스부(110)는 제1 사용자(101)의 모션, 음성 또는 제1 사용자(101)에 의해 직접 입력된 신호 중 적어도 하나를 인식할 수 있다.
도 3에 도시한 바와 같이, 이러한 사용자 신호를 인식하기 위해, 제1 인터페이스부(110)는 제1 사용자(101)의 모션 정보를 획득하기 위한 제1 모션 인식 모듈(111), 음성 정보를 획득하기 위한 제1 음성 인식 모듈(112) 및 제1 사용자(101)에 의해 직접 입력된 신호(113)를 획득하기 위한 제1 입력 모듈(113) 중 적어도 하나를 포함할 수 있다.
제1 모션 인식 모듈(111)은 제1 사용자(101)의 위치, 제스처, 표정 변화 등을 인식하는 기능을 수반한 모듈(예를 들어, 카메라 모듈 또는 가속도 센서 모듈)에 해당할 수 있다. 제1 감정 공유 인형(100)은 제1 모션 인식 모듈(111)을 통해 제1 사용자(101)의 행동 변화, 표정 변화 등을 인식할 수 있다.
제1 음성 인식 모듈(112)은 제1 사용자(101)의 음성을 인식하는 기능을 수반한 모듈(예를 들어, 마이크 모듈)에 해당할 수 있다. 제1 감정 공유 인형(100)은 제1 음성 인식 모듈(112)을 통해 제1 사용자(101)의 음성 톤, 패턴, 레벨 등을 인식하고, 그 밖에 제1 사용자(101)에 의해 재생되는 음악 등을 제1 사용자(101)의 사용자 신호로서 인식할 수 있다.
제1 입력 모듈(113)은 제1 사용자(101)가 제1 감정 공유 인형(100)에 각종 정보를 직접 입력할 수 있는 모듈에 해당하며, 예를 들어, 마우스, 키보드, 터치 패널 등으로 구현될 수 있다. 제1 입력 모듈(113)은 제1 사용자(101)에 의해 입력되는 문자, 기호 등을 사용자 신호로서 인식할 수 있다.
또한, 제1 인터페이스부(110)는 제1 사용자(101)에 의하지 않은 신호들을 제거하기 위한 필터(미도시)를 더 포함할 수 있다. 예를 들어, 필터는 제1 사용자(101)에 의하지 않은 노이즈 등을 제거할 수 있다.
제1 처리부(120)는 감정 출력 알고리즘을 적용하여 제1 인터페이스부(110)를 통해 인식된 사용자 신호를 처리한다. 즉, 감정 출력 알고리즘은 제1 인터페이스부(110)를 통해 인식된 사용자 신호를 제1 사용자(101)의 감정 상태를 나타내는 사용자 신호로 처리할 수 있다.
보다 구체적으로, 감정 출력 알고리즘은 제1 인터페이스부(110)를 통해 인식되는 사용자 신호의 종류에 따라 각각 다르게 적용될 수 있다.
일례로, 제1 사용자(101)의 사용자 신호가 모션 정보에 해당하는 경우, 제1 인터페이스부(110)를 통해 인식된 제1 사용자(101)의 모션 변화를 추출하고 기설정된 제1 사용자(101)의 모션 패턴과 비교하여 제1 사용자(101)의 감정 상태를 처리할 수 있다. 일례로, 제1 사용자(101)의 입꼬리가 기설정된 제1 사용자(101)의 입꼬리보다 상승되어 있고 제1 사용자(101)의 입면적이 기설정된 제1 사용자(101)의 입면적보다 클 경우, 감정 출력 알고리즘은 제1 사용자(101)의 감정 상태를 "기쁨"으로 처리할 수 있다. 다른 예로, 제1 사용자(101)가 포옹 자세를 취하거나, 제1 감정 공유 인형(100)을 포옹하는 경우, 감정 출력 알고리즘은 제1 사용자(101)의 감정 상태를 "보고싶음"으로 처리할 수 있다.
다른 예로, 제1 사용자(101)의 사용자 신호가 음성 정보에 해당하는 경우, 제1 인터페이스부(110)를 통해 인식된 사용자 신호의 음성 패턴 변화를 추출하고, 기설정된 제1 사용자(101)의 음성 패턴과 비교하여 제1 사용자(101)의 감정 상태를 처리할 수 있다. 일례로, 제1 사용자(101)의 음성을 분석한 주파수 패턴이 기설정된 제1 사용자(101)의 기쁠 때의 주파수 패턴과 유사할 경우, 감정 출력 알고리즘은 제1 사용자(101)의 감정 상태를 "기쁨"으로 처리할 수 있다. 또한, 감정 출력 알고리즘은 제1 사용자(101)가 감상하는 음악의 제목, 가사 등을 분석하여 제1 사용자(101)의 감정 상태를 처리할 수 있다.
또 다른 예로, 제1 사용자(101)의 사용자 신호가 제1 사용자(101)에 의한 입력 정보에 해당하는 경우, 감정 출력 알고리즘은 제1 사용자(101)에 의해 직접 입력된 입력 정보를 분석하여 상기 입력 정보에 상응하는 제1 사용자(101)의 감정 상태를 처리할 수 있다. 일례로, 제1 사용자(101)가 키보드를 통해 "ㅠㅠ"와 같은 문자를 입력할 경우, 감정 출력 알고리즘은 제1 사용자(101)의 감정 상태를 "슬픔"으로 처리할 수 있다. 다른 예로, 제1 사용자(101)가 터치 패널을 통해 "^^"같은 기호를 입력할 경우, 감정 출력 알고리즘은 제1 사용자(101)의 감정 상태를 "기쁨"으로 처리할 수 있다.
제1 처리부(120)의 감정 출력 알고리즘이 제1 인터페이스부(110)에 입력된 사용자 신호가 모션 정보, 음성 정보 또는 사용자의 입력 정보 중 하나의 정보만을 이용하는 것으로 위에서 설명하였으나, 이에 한정하지 않고 두 가지 이상의 사용자 신호 정보를 조합하여 사용자 신호를 처리할 수도 있다.
제1 통신부(130)는 제1 처리부(120)에 의해 제1 사용자(101)의 처리된 사용자 신호를 제1 감정 공유 인형(100)으로부터 제2 감정 공유 인형(200)으로 전송하고, 제2 처리부(220)에 의해 제2 사용자(201)의 처리된 사용자 신호를 제2 감정 공유 인형(200)으로부터 전송받는다.
제1 통신부(130)는 블루투스, 라즈베리 파이, NFC, 와이파이 등과 같이 근거리 또는 원거리에 있는 장치 또는 단말 사이에 데이터를 송수신 하는 기능을 포함하는 통신 모듈을 통해 구현될 수 있다.
제1 감정 표현부(140)는 제1 사용자(101)의 처리된 사용자 신호를 제1 사용자(101)의 감정 상태로서 표현한다. 또한, 제1 감정 표현부(140)는 제2 감정 공유 인형(200)으로부터 전송된 제2 사용자(201)의 사용자 신호를 이용하여 제2 사용자(201)의 감정 상태를 모션, 심볼, 소리 등을 통해 제1 사용자(101)에게 표현한다.
다시 도 3을 참고하면, 다양한 형태로 감정 상태를 표현하기 위해, 제1 감정 표현부(140)는 제1 및/또는 제2 사용자(101, 201)의 감정 상태를 모션 정보로 표현하는 제1 동작 모듈(141), 심볼 정보로 표현하는 제1 디스플레이 모듈(142), 소리 정보로 표현하는 제1 소리 출력 모듈(143) 중 적어도 하나를 포함할 수 있다.
제1 동작 모듈(141)은 제1 사용자(101)의 처리된 감정 상태 및/또는 제 2 사용자(201)의 전송된 감정 상태를 제1 감정 공유 인형(100)의 움직임을 통해 표현한다. 일례로즉, 제1 동작 모듈(141)은 제1 감정 공유 인형(100)을 움직이거나, 자세를 변형시켜킬 수 있는 모터(미도시) 및 PCB(미도시)를 이용하여 제1 및/또는 제2 사용자(101, 201)의 감정 상태를 표현할 수 있다. 즉, 제1 동작 모듈(141)은 모터 및 PCB를 이용하여 제1 감정 공유 인형(100)을 움직이도록 하거나, 자세를 변형 시킬 수 있다.
예를 들어, 제1 사용자(101)의 처리된 사용자 신호 또는 제2 사용자(201)의 전송된 감정 상태가 "기쁨"인 경우, 제1 동작 모듈(141)은 제1 감정 공유 인형(100)의 웃는 동작을 통해 기쁜 감정 상태를 표현한다. 다른 예를 들어, 제1 사용자(101)의 처리된 사용자 신호 또는 제2 사용자(201)의 전송된 감정 상태가 "삐짐"의 상태가 될 경우, 제1 동작 모듈(141)은 제1 감정 공유 인형(100)의 모터 및 PCB를 통해 제1 감정 공유 인형(100)이이 뒤로 돌아서는 동작을 통해 삐진 감정 상태를 표현할 수 있다.
제1 디스플레이 모듈(142)은 제1 사용자(101)의 처리된 감정 상태 또는 제 2 사용자(201)의 전송된 감정 상태를 제1 감정 공유 인형(100)에 장착된 LCD 디스플레이, LED 소자 등을 통해 표현한다. 여기에서, 제1 디스플레이 모듈(142)는 제1 사용자(101)에게 문자나 기호, 문자 및 기호의 조합, LED 색상 변화 등을 통해 제1 및/또는 제2 사용자(101, 201)의 감정 상태를 표현할 수 있다.
예를 들어, 제1 사용자(101)의 처리된 사용자 신호 또는 제2 사용자(201)의 전송된 감정 상태가 "기쁨"인 경우, 제1 디스플레이 모듈(142)는 "기뻐요"와 같은 문자 또는 "^^"와 같은 기호를 통해 제1 및/또는 제2 사용자(101, 201)의 감정 상태를 표현할 수 있다.
제1 소리 출력 모듈(143)은 제1 사용자(101)의 처리된 사용자 신호 또는 제2 사용자(201)의 전송된 감정 상태를 소리 정보로 표현한다. 여기에서, 제1 소리 출력 모듈(143)은 사용자 신호를 소리 정보로 표현할 수 있는 스피커 등에 해당할 수 있다.
예를 들어, 제1 사용자(101)의 처리된 사용자 신호 또는 제2 사용자(201)의 전송된 감정 상태가 "기쁨"인 경우, 제1 소리 출력 모듈(143)은 기설정된 제1 및/또는 제2 사용자(101, 201)의 목소리를 통해 휘파람 소리로 또는 "기뻐요"와 같은 음성으로 제1 및/또는 제2 사용자(101, 201)의 감정 상태를 표현할 수 있다.
또한, 제2 인터페이스부(210)는 제2 사용자(201)의 모션 정보를 획득하기 위한 제2 모션 인식 모듈(211), 음성 정보를 획득하기 위한 제2 음성 인식 모듈(212) 및 제2 사용자(201)에 의해 직접 입력된 신호를 획득하기 위한 제2 입력 모듈(213) 중 적어도 하나를 포함할 수 있으며, 제2 감정 표현부(240)는 제1 및/또는 제2 사용자(101, 201)의 감정 상태를 모션 정보로 표현하는 제2 동작 모듈(241), 심볼 정보로 표현하는 제2 디스플레이 모듈(242), 소리 정보로 표현하는 제2 소리 출력 모듈(243) 중 적어도 하나를 포함할 수 있다. 다만, 제2 모션 인식 모듈(211), 제2 음성 인식 모듈(212), 제2 입력 모듈(213), 제2 동작 모듈(241), 제2 디스플레이 모듈(242) 및 제2 소리 출력 모듈(243)는 상기에서 설명한 제1 모션 인식 모듈(111), 제1 음성 인식 모듈(112), 제1 입력 모듈(113), 제1 동작 모듈(141), 제1 디스플레이 모듈(142) 및 제1 소리 출력 모듈(143)과 동일한 특징으로 구현되므로, 이들 구성요소에 대한 설명은 생략한다.
제1 및 제2 사용자(101, 201)간에 감정을 공유하는 일례를 살펴보면, 제1 인터페이스부(110)가 제1 사용자(101)에 의한 사용자 신호를 인식하고, 제1 처리부(120)는 인식된 사용자 신호를 감정 출력 알고리즘을 통해 처리한다. 처리된 사용자 신호는 제1 감정 표현부(140)에 전송되어 제1 감정 표현부(140)를 통해 제1 사용자(101)의 감정 상태로 표현되고, 제2 통신부(230)에 전송되어 제2 감정 표현부(240)를 통해 제1 사용자(101)의 감정 상태로 제2 사용자(201)에게 표현될 수 있다. 이를 통해, 제1 감정 공유 인형(100)의 제1 감정 표현부(140)에서 표현된 제1 사용자(101)의 감정 상태는 제2 감정 공유 인형(200)의 제2 감정 표현부(240)에서 표현되는 제1 사용자(101)의 감정 상태와 동일하게 표현될 수 있다.
감정 공유 시스템(10)이 제1 및 제2 사용자(101, 201) 간에 감정을 공유하는 다른 예로, 제1 인터페이스부(110)가 제1 사용자(101)에 의한 사용자 신호를 인식하고, 제1 통신부(130)는 인식된 사용자 신호를 제1 처리부(120) 및 제2 통신부(230)에 전송한다. 제1 처리부(120)에 전송된 사용자 신호는 감정 출력 알고리즘을 통해 처리하여 제1 감정 표현부(140)에 의해 제1 사용자(101)의 감정 상태로 표현될 수 있다. 또한, 제2 통신부(230)에 전송된 사용자 신호는 제2 처리부(220)에 수신되어 감정 출력 알고리즘을 통해 처리되고, 처리된 사용자 신호는 제2 감정 출력부(240)에 의해 제2 사용자(201)에 제1 사용자(101)의 감정 상태로서 표현될 수 있다.
도 4 및 도 5는 각각 본 발명의 일 실시예에 따른 감정 공유 시스템의 구체적인 사용 상태를 도시한 도면이다.
도 4를 참고하면, 제1 사용자(101)가 제1 인터페이스부(110)를 통해 "아이 좋아"라는 음성을 사용자 신호로서 입력한 경우, 제1 처리부(120)는 인식된 사용자 신호를 감정 출력 알고리즘을 통해 처리하여 제1 통신부(130) 및 제1 감정 표현부(140)로 처리된 사용자 신호를 전송한다. 처리된 사용자 신호는 제1 사용자(101)의 감정 상태로서 "^^"와 같은 심볼 형태로 제1 감정 표현부(140)를 통해 표현되고, 제2 통신부(230)를 통해 제2 감정 표현부(240)에 전송되어 제2 감정 표현부(240)는 "♥♥"와 같은 기쁨의 이모티콘을 이용해 제1 사용자(101)의 감정 상태를 제2 사용자(201)에게 표현할 수 있다. 여기에서, 제1 인터페이스부(110)에서 인식된 제1 사용자(101)의 사용자 신호의 형태와 제1 및 제2 감정 표현부(140, 240)에서 표현되는 형태는 동일하거나 다를 수 있다.
도 5를 참고하면, 제1 사용자(101)가 제1 인터페이스부(110)를 통해 "v v"와 같이 심볼을 사용자 신호로서 입력한 경우, 제1 처리부(120)는 인식된 사용자 신호를 감정 출력 알고리즘을 통해 처리하여 제1 통신부(130) 및 제1 감정 표현부(140)로 처리된 사용자 신호를 전송한다. 처리된 사용자 신호는 제1 사용자(101)의 감정 상태로서 "v v"와 같은 심볼 형태로 제1 감정 표현부(140)를 통해 표현되고, 제2 통신부(230)를 통해 제2 감정 표현부(240)에 전송되어 제2 감정 표현부(240)는 제2 감정 공유 인형(200)이 돌아서는 동작을 통해 제1 사용자(101)의 감정 상태를 제2 사용자(201)에게 표현할 수 있다.
도 6은 본 발명의 일 실시예에 따른 감정을 공유하는 방법의 순서도이다.
도 6을 참고하면, 본 발명의 일 실시에에 따른 제1 사용자(101) 및 제2 사용자(201) 사이에 감정을 공유하는 방법은, 제1 감정 공유 인형(100)이 제1 사용자(101)에 의한 사용자 신호를 감지하고(S10), 감지된 사용자 신호를 감정 출력 알고리즘을 통해 제1 사용자(101)의 감정 상태를 표현한다(S20). 상기 처리된 사용자 신호는 제1 감정 공유 인형(100)으로부터 제2 감정 공유 인형(200)으로 전송되며(S30), 전송된 사용자 신호는 제2 감정 공유 인형(200)에서 제1 사용자(101)의 감정 상태로서 제2 사용자(201)에게 표현된다(S40).
여기에서, 제1 사용자(101)에 의한 사용자 신호는 제1 감정 공유 인형(100)에서 직접 제2 감정 공유 인형(200)으로 전송된 후 제2 감정 공유 인형(200) 내의 감정 출력 알고리즘을 통해 제2 사용자(201)에게 제1 사용자(101)의 감정 상태를 표현해 줄 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
10: 감정 공유 시스템
100: 제1 감정 공유 인형
110: 제1 인터페이스부 120: 제1 처리부
130: 제1 통신부 140: 제1 감정표현부
200: 제2 감정 공유 인형
210: 제2 인터페이스부 220: 제2 처리부
230: 제2 통신부 240: 제2 감정표현부

Claims (7)

  1. 제1 사용자의 사용자 신호를 처리하여 상기 제1 사용자의 감정 상태를 표현하며, 상기 처리된 사용자 신호를 전송하는 제1 감정 공유 인형; 및
    상기 처리된 사용자 신호를 전송받아 상기 제1 사용자의 감정 상태를 제2 사용자에게 표현하는 제2 감정 공유 인형을 포함하는, 감정 공유 시스템.
  2. 제1 항에 있어서,
    상기 제1 감정 공유 인형은,
    상기 사용자 신호를 인식하는 제1 인터페이스부와, 감정 출력 알고리즘을 기초로 상기 사용자 신호를 처리하는 제1 처리부와, 상기 처리된 사용자 신호를 전송하는 제1 통신부와, 상기 처리된 사용자 신호를 기초로 상기 제1 사용자의 감정 상태를 표현하는 제1 감정 표현부를 포함하고,
    상기 제2 감정 공유 인형은,
    상기 처리된 사용자 신호를 전송받는 제2 통신부와, 상기 전송받은 사용자 신호를 기초로 상기 제1 사용자의 감정 상태를 제2 사용자에게 표현하는 제2 감정 표현부를 포함하는 감정 공유 시스템.
  3. 제2 항에 있어서,
    상기 제1 인터페이스부는 상기 제1 사용자의 모션정보를 획득하기 위한 제1 모션 인식 모듈, 음성 정보를 획득하기 위한 제1 음성 인식 모듈 및 상기 제1 사용자의 입력 정보를 획득하기 위한 제1 입력 모듈 중 적어도 하나를 포함하는 감정 공유 시스템.
  4. 제2 항에 있어서,
    상기 감정 출력 알고리즘은 기설정된 상기 제1 사용자에 대한 정보를 기초로 상기 모션 정보, 상기 음성 정보 및 상기 입력 정보 중 적어도 하나를 분석하여 상기 사용자 신호를 처리하는 감정 공유 시스템.
  5. 제2항에 있어서,
    상기 제1 및 제2 감정 표현부는 모션 정보로 표현하는 동작 모듈, 심볼 정보로 표현하는 디스플레이 모듈, 소리 정보로 표현하는 소리 출력 모듈 중 적어도 하나를 포함하는 감정 공유 시스템.
  6. 제2항에 있어서,
    상기 제2 감정 표현부는 상기 제1 감정 표현부에 표현된 상기 제1 사용자의 감정 상태를 동일하게 표현하는 감정 공유 시스템.
  7. 제1 사용자의 감정 상태를 표현하는 제1 감정 공유 인형 및 제2 사용자의 감정 상태를 표현하는 제2 감정 공유 인형을 이용하여 상기 제1 및 제2 사용자의 감정 상태를 공유하는 감정 공유 방법에 있어서,
    상기 제1 감정 공유 인형에서 상기 제1 사용자에 의한 사용자 신호를 감지하는 단계;
    상기 제1 감정 공유 인형에서 상기 사용자 신호를 감정 출력 알고리즘을 통해 처리하여 상기 제1 사용자의 감정 상태를 표현하는 단계;
    상기 처리된 사용자 신호를 상기 제1 감정 공유 인형에서 상기 제2 감정 공유 인형으로 전송하는 단계; 및
    상기 전송 받은 사용자 신호를 상기 제2 감정 공유 인형에서 표현하는 단계를 포함하는, 감정 공유 방법.
KR1020150034518A 2015-03-12 2015-03-12 감정 공유 시스템 및 방법 KR20160109677A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020150034518A KR20160109677A (ko) 2015-03-12 2015-03-12 감정 공유 시스템 및 방법
CN201610143242.5A CN105976254A (zh) 2015-03-12 2016-03-14 情感共享系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150034518A KR20160109677A (ko) 2015-03-12 2015-03-12 감정 공유 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20160109677A true KR20160109677A (ko) 2016-09-21

Family

ID=56988631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150034518A KR20160109677A (ko) 2015-03-12 2015-03-12 감정 공유 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR20160109677A (ko)
CN (1) CN105976254A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102062759B1 (ko) * 2018-08-14 2020-02-11 주식회사 크라스아이디 얼굴 인식을 이용한 감성 교류가 가능한 완구 장치 및 그 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130065846A (ko) 2011-12-02 2013-06-20 삼성전자주식회사 사용자 감정 공유 장치 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101813973A (zh) * 2009-02-20 2010-08-25 环达电脑(上海)有限公司 情绪共鸣系统
CN201611889U (zh) * 2010-02-10 2010-10-20 深圳先进技术研究院 即时通讯伴侣机器人
KR20140094336A (ko) * 2013-01-22 2014-07-30 삼성전자주식회사 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130065846A (ko) 2011-12-02 2013-06-20 삼성전자주식회사 사용자 감정 공유 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102062759B1 (ko) * 2018-08-14 2020-02-11 주식회사 크라스아이디 얼굴 인식을 이용한 감성 교류가 가능한 완구 장치 및 그 제어 방법

Also Published As

Publication number Publication date
CN105976254A (zh) 2016-09-28

Similar Documents

Publication Publication Date Title
CN108363706B (zh) 人机对话交互的方法和装置、用于人机对话交互的装置
US11430438B2 (en) Electronic device providing response corresponding to user conversation style and emotion and method of operating same
CN105119812B (zh) 在聊天界面更改表情符号的方法、装置及终端设备
US11769492B2 (en) Voice conversation analysis method and apparatus using artificial intelligence
Rossi et al. An extensible architecture for robust multimodal human-robot communication
US20180213339A1 (en) Adapting hearing aids to different environments
JP6292295B2 (ja) 連携システム、装置、方法、および記録媒体
US20190126152A1 (en) Emoji-based communications derived from facial features during game play
CN106203344A (zh) 一种用于智能机器人的情绪识别方法及系统
KR20100062207A (ko) 화상통화 중 애니메이션 효과 제공 방법 및 장치
KR102490916B1 (ko) 전자 장치, 이의 제어 방법 및 비일시적인 컴퓨터 판독가능 기록매체
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
CN113168227A (zh) 执行电子装置的功能的方法以及使用该方法的电子装置
CN106503786B (zh) 用于智能机器人的多模态交互方法和装置
WO2021013255A1 (zh) 一种声纹识别方法及装置
CN104575509A (zh) 语音增强处理方法及装置
CN110830368A (zh) 即时通讯消息发送方法及电子设备
CN115148197A (zh) 语音唤醒方法、装置、存储介质及系统
JP2008125815A (ja) 会話ロボットシステム
KR102599948B1 (ko) 전자 장치 및 그의 와이파이 연결 방법
CN110944056A (zh) 交互方法、移动终端及可读存储介质
KR20110012491A (ko) 영상데이터 및 아바타를 이용한 메시지 전송 시스템, 관리서버, 단말 및 방법
KR20200099380A (ko) 음성 인식 서비스를 제공하는 방법 및 그 전자 장치
KR101337420B1 (ko) 감성대화단말기
KR20160109677A (ko) 감정 공유 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application