KR20050015584A - 감정 표현이 가능한 통신 장치 및 방법 - Google Patents

감정 표현이 가능한 통신 장치 및 방법

Info

Publication number
KR20050015584A
KR20050015584A KR1020030054472A KR20030054472A KR20050015584A KR 20050015584 A KR20050015584 A KR 20050015584A KR 1020030054472 A KR1020030054472 A KR 1020030054472A KR 20030054472 A KR20030054472 A KR 20030054472A KR 20050015584 A KR20050015584 A KR 20050015584A
Authority
KR
South Korea
Prior art keywords
information
avatar
emotion
user
unit
Prior art date
Application number
KR1020030054472A
Other languages
English (en)
Inventor
강성훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020030054472A priority Critical patent/KR20050015584A/ko
Publication of KR20050015584A publication Critical patent/KR20050015584A/ko

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

본 발명은 감정 표현이 가능한 통신 장치 및 방법에 관한 것으로서, 보다 상세하게는 영상 정보, 음성 정보, 문자 정보를 이용하는 사용자의 감정 분류를 통하여 사용자를 대표하는 아바타에 실시간으로 사용자의 감정을 표현할 수 있게 하고, 이 아바타를 매개체로 통신할 수 있는 감정 표현이 가능한 통신 장치 및 방법에 관한 것이다. 본 발명의 일실시예에 따른 감정 표현이 가능한 통신 방법은 사용자의 감정을 분석할 수 있는 정보를 입력받는 단계; 상기 입력받은 정보를 처리하여 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 생성하는 단계; 및 상기 생성된 아바타의 감정 정보를 송신하는 단계를 포함한다. 본 발명의 다른 실시예에 따른 감정 표현이 가능한 통신 방법은 발신측의 아바타의 설정 정보가 저장부에 존재하는지 판단하는 단계; 상기 판단 결과에 따라 상기 발신측의 아바타의 설정 정보를 로딩하는 단계; 상기 발신측의 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 수신하는 단계; 및 상기 아바타의 설정 정보 및 상기 수신된 아바타의 감정 정보를 처리하여 상기 발신측의 아바타를 생성하는 단계를 포함한다. 본 발명의 일실시예에 따른 감정 표현이 가능한 통신 장치는 사용자의 감정 상태를 분류할 수 있는 정보를 입력받는 입력부; 상기 입력받는 정보를 처리하여 사용자의 감정 상태를 분류하는 입력 정보 처리부; 상기 분류된 사용자의 감정 상태로부터 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 생성하는 아바타의 감정 정보 생성부; 및 상기 생성되는 아바타의 감정 정보를 송신하는 통신부를 포함한다. 본 발명의 다른 실시예에 따른 감정 표현이 가능한 통신 장치는 사용자의 감정을 표현할 수 있는 아바타의 감정 정보를 수신하는 통신부; 상기 사용자의 아바타의 설정 정보가 저장되는 저장부; 상기 사용자의 아바타의 설정 정보가 상기 저장부에 존재하는지 판단하는 제어부; 상기 사용자의 아바타의 설정 정보 및 상기 사용자의 감정을 표현할 수 있는 아바타의 감정 정보를 처리하여 아바타를 생성하는 아바타 생성부; 및 상기 생성되는 아바타를 출력하는 출력부를 포함한다.

Description

감정 표현이 가능한 통신 장치 및 방법{COMMUNICATION DEVICE FOR EXPRESSING EMOTION AND COMMUNICATION METHOD FOR THE SAME}
본 발명은 감정 표현이 가능한 통신 장치 및 방법에 관한 것으로서, 보다 상세하게는 영상 정보, 음성 정보, 문자 정보를 이용하는 사용자의 감정 분류를 통하여 사용자를 대표하는 아바타에 실시간으로 사용자의 감정을 표현할 수 있게 하고, 이 아바타를 매개체로 통신할 수 있는 감정 표현이 가능한 통신 장치 및 방법에 관한 것이다.
종래에는 표정을 가지는 아바타를 상대방에게 전달할 수 있지만, 실시간으로 현재 사용자의 감정 상태를 분류하여 반영하지 못하고 미리 사용자가 아바타 서버에 접속하여 저장해 놓은 설정 상태만을 적용하는 아바타만을 이용하여 통신하였다.
종래에도 실시간으로 아바타를 변화시켜 통신할 수도 있었으나, 사용자의 통화 음성 정보의 음색에만 의존하는 단편적인 감정 분류만을 사용하므로 효과적으로 사용자의 감정을 전달하는 것이 어려웠다.
또한 아바타 서버에서 사용자의 통화 음성 정보의 음색 분석을 통해서 감정 분류를 수행하고 이에 따른 아바타의 감정 정보를 생성하기 때문에 사용자가 많을 경우에 아바타 서버에서 모든 사용자에 대한 처리를 수행해야만 하므로 원할한 서비스를 제공받기가 힘든 문제점이 있었다.
그 외에도, 사용자가 표현하기를 원하는 이모티콘을 선택하면 이에 해당하는 아바타를 생성한 뒤에 메일로 발송하는 통신 방법도 있으나, 이는 사용자가 지정하는 제한된 표정 정보만을 아바타에 반영하여 메일로만 전달할 수 있으므로 실시간으로 친근하게 사용자간에 감정을 전달하기는 어려웠다.
따라서 본 발명은 영상 정보, 음성 정보, 문자 정보를 이용하는 사용자의 감정 분류를 통하여 사용자를 대표하는 아바타에 실시간으로 사용자의 감정을 표현할 수 있게 하고, 이 아바타를 매개체로 통신할 수 있는 감정 표현이 가능한 통신 장치 및 방법을 제공하는 것을 그 목적으로 한다.
상기의 목적을 달성하기 위하여, 본 발명의 일실시예에 따른 감정 표현이 가능한 통신 방법은 사용자의 감정을 분석할 수 있는 정보를 입력받는 단계; 상기 입력받은 정보를 처리하여 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 생성하는 단계; 및 상기 생성된 아바타의 감정 정보를 송신하는 단계를 포함한다.
본 발명의 다른 실시예에 따른 감정 표현이 가능한 통신 방법은 발신측의 아바타의 설정 정보가 저장부에 존재하는지 판단하는 단계; 상기 판단 결과에 따라 상기 발신측의 아바타의 설정 정보를 로딩하는 단계; 상기 발신측의 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 수신하는 단계; 및 상기 아바타의 설정 정보 및 상기 수신된 아바타의 감정 정보를 처리하여 상기 발신측의 아바타를 생성하는 단계를 포함한다.
본 발명의 일실시예에 따른 감정 표현이 가능한 통신 장치는 사용자의 감정 상태를 분류할 수 있는 정보를 입력받는 입력부; 상기 입력받는 정보를 처리하여 사용자의 감정 상태를 분류하는 입력 정보 처리부; 상기 분류된 사용자의 감정 상태로부터 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 생성하는 아바타의 감정 정보 생성부; 및 상기 생성되는 아바타의 감정 정보를 송신하는 통신부를 포함한다.
본 발명의 다른 실시예에 따른 감정 표현이 가능한 통신 장치는 사용자의 감정을 표현할 수 있는 아바타의 감정 정보를 수신하는 통신부; 상기 사용자의 아바타의 설정 정보가 저장되는 저장부; 상기 사용자의 아바타의 설정 정보가 상기 저장부에 존재하는지 판단하는 제어부; 상기 사용자의 아바타의 설정 정보 및 상기 사용자의 감정을 표현할 수 있는 아바타의 감정 정보를 처리하여 아바타를 생성하는 아바타 생성부; 및 상기 생성되는 아바타를 출력하는 출력부(350)를 포함한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 감정 표현이 가능한 통신 방법 및 장치를 상세히 설명한다.
도 1은 본 발명에 따른 감정 표현이 가능한 통신 서비스를 제공하기 위한 시스템을 개략적으로 나타내는 구성도이다. 감정 표현이 가능한 통신 서비스를 제공하기 위한 시스템은 사용자의 감정의 상태를 분류하여 감정을 표현할 수 있는 아바타의 감정 정보를 생성하고 상기 아바타의 감정 정보를 수신하여 감정이 표현된 아바타를 생성하여 통신할 수 있는 단말 장치, 사용자가 사용하고자 하는 아바타의 설정 정보를 관리해주는 아바타 서버 및 상기 단말 장치와 상기 아바타 서버 또는 상기 단말 장치들 사이를 연결시켜주는 통신망을 포함한다.
상기 단말 장치는 모바일 환경일 경우에는 스마트폰(화상 전화)이고, 유무선 인터넷 환경일 경우에는 PC(Personal Computer) 또는 PDA(Personal Digital Assistant)가 가능하다.
상기 아바타 서버는 유무선 인터넷(WEB)이나 이동 통신(WAP; Wireless Application Protocol)을 통해서 사용자가 미리 아바타의 종류, 액세서리, 옷, 배경 등을 미리 설정한 설정 정보를 저장하고, 사용자의 단말 장치에 상기 아바타의 설정 정보를 다운로드할 수 있도록 한다.
도 2는 본 발명의 일실시예에 따른 감정 표현이 가능한 통신 방법을 나타내는 플로차트이다.
먼저 발신측의 단말 장치에서 수신측 단말 장치로 통신을 요청(S10)하여 통화호가 설정되면, 수신측 단말 장치는 발신측 단말 장치의 아바타의 설정 정보가 수신측 단말 장치에 존재하는지를 판단(S20)한다.
다음으로, 상기 판단 결과 상기 발신측 단말 장치의 아바타의 설정 정보가 상기 수신측 단말 장치에 존재하는 경우에는 상기 발신측 단말 장치의 아바타의 설정 정보를 로딩(S40)한다.
상기 판단 결과 상기 발신측 단말 장치의 아바타의 설정 정보가 수신측 단말 장치에 존재하지 않는 경우에는 상기 수신측 단말 장치는 상기 통신망을 통하여 상기 아바타 서버에 접속한다. 그리고 상기 발신측 단말 장치의 아바타의 설정 정보의 송신을 요청한다.
상기 아바타 서버는 상기 통신망을 통하여, 상기 수신측 단말 장치의 정보를 수신하여, 상기 수신측 단말 장치가 현재 통신 연결상의 승인자인지를 확인한 뒤에 상기 발신측 단말 장치의 아바타의 설정 정보를 송신하게 되며, 승인자가 아닐 경우에는 송신하게 거부하게 된다.
상기 아바타 서버로부터 송신된 상기 발신측 단말 장치의 아바타의 설정 정보를 상기 수신측 단말 장치에 다운로드(S30)받은 후에 상기 발신측 단말 장치의 아바타의 설정 정보를 로딩(S40)한다.
다음으로, 상기 발신측 단말 장치의 사용자의 영상 정보, 음성 정보, 문자 정보를 상기 발신측 단말 장치에 입력(S50)한다.
다음으로, 상기 발신측 단말 장치는 상기 입력된 영상 정보, 음성 정보, 문자 정보로부터 상기 발신측 사용자의 감정 상태를 분류하여 아바타의 감정 정보를 생성(S60)한다.
다음으로, 상기 발신측 단말 장치는 상기 생성된 아바타의 감정 정보를 상기 발신측 단말 장치에 상기 통신망을 통하여 직접 송신(S70)하다.
다음으로, 상기 수신측 단말 장치는 상기 생성된 아바타의 감정 정보를 수신(S80)하고, 상기 사용자의 아바타의 설정 정보 및 상기 생성된 아바타의 감정 정보를 처리하여 아바타를 생성(S90)한다.
통신이 종료될 때까지, 상기 발신측 단말 장치에 영상 정보 등을 입력하는 단계에서 상기 수신측 단말 장치가 아바타를 생성하는 단계를 반복한다.
도 3은 본 발명의 일실시예에 따른 감정 표현이 가능한 발신측 통신 장치를 나타내는 블록 구성도이다. 상기 감정 표현이 가능한 발신측 통신 장치는 도 3에 도시된 것처럼, 사용자의 감정 상태를 분류할 수 있는 정보를 입력받는 입력부(210), 상기 입력받는 정보를 처리하여 사용자의 감정 상태를 분류하는 입력 정보 처리부, 상기 분류된 사용자의 감정 상태로부터 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 생성하는 아바타의 감정 정보 생성부(230) 및 상기 생성되는 아바타의 감정 정보를 송신하는 통신부(240)를 포함한다.
상기 입력부(210)는 사용자의 음성 정보를 입력받는 음성 정보 입력부(211), 사용자의 영상 정보를 입력받는 영상 정보 입력부(212), 사용자의 문자 정보를 입력받는 문자 정보 입력부(213) 등을 포함한다.
상기 음성 정보 입력부(211)는 마이크로폰이나 스프커폰 등이 있고, 상기 영상 정보 입력부(212)는 사용자의 얼굴 표정과 행동의 영상 정보를 입력받는 카메라 등이 있으며, 상기 문자 정보 입력부(213)는 키패드나 커치 스크린 등이 있다.
상기 입력 정보 처리부(220)는 상기 입력받은 음성 정보를 처리하여 사용자의 감정 상태를 분류하는 음성 정보 처리부(221), 상기 입력받은 영상 정보를 처리하여 사용자의 감정 상태를 분류하는 영상 정보 처리부(222), 상기 입력받은 문자 정보를 처리하여 사용자의 감정 상태를 분류하는 문자 정보 입력부(213) 등을 포함한다.
도 4는 본 발명의 일실시예에 따른 감정 표현이 가능한 수신측 통신 장치를 나타내는 블록 구성도이다. 상기 감정 표현이 가능한 수신측 통신 장치는 도 4에 도시된 것처럼, 사용자의 감정을 표현할 수 있는 아바타의 감정 정보를 수신하는 통신부(310), 상기 사용자의 아바타의 설정 정보가 저장되는 저장부, 상기 사용자의 아바타의 설정 정보가 상기 저장부(320)에 존재하는지 판단하는 제어부(340), 상기 사용자의 아바타의 설정 정보 및 상기 사용자의 감정을 표현할 수 있는 아바타의 감정 정보를 처리하여 아바타를 생성하는 아바타 생성부(330) 및 상기 생성되는 아바타를 출력하는 출력부(350)를 포함한다.
상기 제어부(340)는 상기 사용자의 아바타의 설정 정보가 상기 저장부(320)에 존재하는지를 확인하여, 존재하는 경우에는 로딩하여 사용하고, 존재하지 않는 경우에는 상기 통신망을 통하여 상기 아바타 서버에 요청하여 상기 사용자의 아바타의 설정 정보를 상기 저장부(320)에 다운로드받은 뒤에 로딩하여 사용한다.
도 5는 본 발명의 일실시예에 따른 영상, 음성, 문자 정보 입력을 통한 감정 상태 분류를 이용하여 아바타의 감정 정보를 생성하는 과정을 나타내는 도면이다.
상기 음성 정보 처리부(221)에서 상기 입력받은 음성 정보를 처리하는 방법은 J.F. Cohn와 G.S. Katz가 ACM and ATR Workshop on Face/Gesture Recognition and Their Applications(1998, pp. 41-44에 개시)에 발표한 "Bimodal expression of emotion by face and voice," 논문에 개시되어 있다.
상기의 논문을 요약하면, 목소리의 기본 주파수 및 강도, 리듬 등을 포함하는 음성의 운율 특징(Prosodic features)을 사용하여 감정 상태를 분류한다.
목소리의 기본 주파수의 모형을 정량적인 모델로 모형화하여 측정하며, 이 모형은 16가지로 구성되고, 이것을 7가지의 타입(linear, power, transfer, decay, exponential, bell-shaped, and sinusoidal functions)으로 그룹화한 뒤 평균, 표준 편차, 기본 주파수 주기, 발성 강도 등을 추출하여 감정을 분류한다.
상기 영상 정보 처리부(222)에서 상기 입력받은 영상 정보를 처리하는 방법은 Z. Zhang 등이 Proc. of 3rd IEEE International Conference on Automatic Face and Gesture Recognition(1998, pp. 454-459.에 개시)에 발표한 "Comparison Between Geometry-Based and Gabor-Wavelets-Based Facial Expression Recognition Using Multi-Layer Perception," 논문에 개시되어 있다.
상기의 논문을 요약하면, 얼굴의 표정을 인식하기 위해서 다음과 같은 두 가지 특징들을 사용할 수 있다.
첫 번째는 얼굴을 특징 짓는 특징점 들의 기하학적 위치를 사용하는 것이며, 두번째는 특징점에서의 다중-크기, 다중-방향의 Gabor 웨이블릿 계수들을 추출하여 사용하는 방법이다.
각각의 방법은 독립적으로 사용될 수 있고, 상호 결합되어 사용될 수 있다. 이 방법론에서는 두 계층의 퍼셉트론을 사용하여 표정 인식을 구현하였다. 퍼셉트론의 첫번째 계층은 비선형의 차원 축소를 수행하기 때문에 얼굴 표정을 보다 잘 인식하기 위해 은익 유닛들의 요구 개수를 결정하였다.
상기 문자 정보 처리부(223)에서 상기 입력받은 문자 정보를 처리하는 방법은 문현구와 장병탁이 한국정보과학회 가을 학술발표 논문집 (제28권 2호, pp. 127-129, 2001.)에 발표한 "HMM을 이용한 채팅 텍스트로부터의 화자 감정상태 분석," 논문에 개시되어 있다.
상기 논문을 요약하면, 입력된 문장을 분석하여 미리 정해진 범주에 따라 그 문장의 감정 상태의 천이를 출력해 주는 방법으로 Hidden Markov Model(HMM)을 사용한다.
HMM은 특정 분포로 발생하는 현상에서 그 현상의 원인이 되는 상태의 천이를 찾아내는데 적합한 방법으로서, 하나의 문장에 여러 가지 감정이 표현된다는 가정 하에 감정인식에 관한 이상적인 알고리즘이라 할 수 있다. 이 방법에서는 전처리 모듈을 통하여 입력 문장에서 불필요한 각종 기호를 제거하고, 감정 표현에 결정적인 단서가 되는 그림문자를 검색해서 따로 처리하며 웃음소리와 같이 한글자가 연속되는 패턴 을 찾아 한가지 패턴으로 수정해 준다. 이러한 처리를 거친뒤에, 각 단어가 해당 감정 상태 에 속할 확률을 사람이 수작업으로 한 태깅을 통해 모델을 결정한다. 이렇게 초기화된 모델바탕으로 EM 알고리즘을 사용하여 모아진 채팅 데이터를 학습시킨다. 마지막으로 Viterbi 알고리즘을 사용하여 감정 인식을 테스트한다.
상기 입력된 영상 정보, 음성 정보 및 문자 정보를 통하여 사용자의 감정 상태의 분류 결과는 도 5에 도시된 것처럼, 감정 분류들(기본, 기쁨, 슬픔, 화남, 놀람, 기분상함)에 대한 신뢰도(Confidence Measure)로 표현된다.
상기 신뢰도의 값 중 가장 큰 감정 분류가 최종 감정 분류 결과과 된다. 다수의 입력 정보에 대한 결과를 사용하는 경우에는 각각의 입력 정보(영상 정보, 음성 정보, 문자 정보)의 분류 결과들을 바탕으로 한번의 분류 단계를 더 거치게 된다. 상기 분류 과정의 입력으로 각각 입력 정보에 대한 감정 상태의 분류 결과들(신뢰도의 값)이 이용된다.
영상 정보를 통한 감정 분류 결과값({CM1, …, CM6}), 음성 정보를 통한 감정 분류값({CM7, …, CM12}), 문자 정보를 통한 감정 분류 결과값({CM13, …, CM18})을 하나의 입력 벡터({CM1, …, CM18})로 구성하여 멀티모드 감정 분류(Multimodal Emotion Classilifer)를 실행한다. 상기 분류는 Nearest Neighbor, Neutral Network, Support Vector Machine 등을 사용하여 실행할 수 있다. 그 결과로 하나의 감정 분류로서 분류되어, 아바타의 감정 정보를 생성한다.
아바타의 감정 정보는 도 5에 도시된 것처럼, {HONG:2:2:1}로 표시된다. 상기 HONG은 사용자의 ID를 나타내며, 두번째 값 2는 아바타의 눈의 모양을 나타내는 코드이다. 세번째 값 2는 아바타의 입의 모양을 나타내는 코드이고, 네번째 값 1은 아바타가 표현할 동작을 나타내는 코드이다. 상기 아바타의 감정 정보의 각 항목들은 필요에 따라 얼마든지 확장할 수 있다.
상기 아바타의 감정 정보 {HONG:2:2:1}는 웃는 눈 모양으로, 입을 크게 벌리고 뒤로 젖히며 웃는 아바타를 표현할 수 있다.
도 6은 본 발명의 일실시예에 따른 수신된 아바타의 감정 정보를 이용하여 아바타를 생성하는 과정을 나타내는 도면이다.
수신된 아바타의 감정 정보를 각 항목 별로 나누어 저장한 뒤, 사용자의 ID에 해당되는 아바타의 설정 정보로부터 눈의 모양을 나타내는 코드에 해당하는 눈의 모양, 입술의 모양을 나타내는 코드에 해당하는 입의 모양 및 아바타가 표현할 동작을 나타내는 코드에 해당하는 동작을 조합하여 아바타를 생성한다.
도 6에 도시된 것처럼, 상기 아바타의 감정 정보가 {HONG:2:2:1}인 경우에는 HONG이라는 사용자 ID의 아바타의 설정 정보로부터 상기 눈의 모양을 나타내는 코드 값 2에 해당되는 웃는 눈, 상기 입술의 모양을 나타내는 코드 값 2에 해당되는 크게 벌려 웃는 입 및 상기 아바타가 표현할 동작을 나타내는 코드 값 1에 해당하는 고개를 뒤로 젖히는 동작의 정보를 읽어와 아바타를 생성하게 된다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 당업자(통상의 지식을 가진 자)는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념(Equivalents)으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
상기한 바와 같이 이루어진 본 발명에 따르면, 사용자의 감정을 실시간으로 분석하여 아바타에 반영하고 이를 매개체로 통신함으로써 사용자의 감정을 보다 효과적으로 전달할 수 있으므로, 이를 통하여 상대방과 보다 친근하고 감성적인 의사를 교환할 수 있다.
도 1은 본 발명에 따른 감정 표현이 가능한 통신 서비스를 제공하기 위한 시스템을 개략적으로 나타내는 구성도이다.
도 2는 본 발명의 일실시예에 따른 감정 표현이 가능한 통신 방법을 나타내는 플로차트이다.
도 3은 본 발명의 일실시예에 따른 감정 표현이 가능한 발신측 통신 장치를 나타내는 블록 구성도이다.
도 4는 본 발명의 일실시예에 따른 감정 표현이 가능한 수신측 통신 장치를 나타내는 블록 구성도이다.
도 5는 본 발명의 일실시예에 따른 영상, 음성, 문자 정보 입력을 통한 감정 상태 분류를 이용하여 아바타의 감정 정보를 생성하는 과정을 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따른 수신된 아바타의 감정 정보를 이용하여 아바타를 생성하는 과정을 나타내는 도면이다.
(도면의 주요부분에 대한 부호의 설명)
210: 입력부 211: 음성 정보 입력부
212: 영상 정보 입력부 213: 문자 정보 입력부
220: 입력 정보 처리부 221: 음성 정보 처리부
222: 영상 정보 처리부 223: 문자 정보 처리부
230: 아바타의 감정 정보 생성부 240: 통신부
310: 통신부 320: 저장부
330: 아바타 생성부 340: 제어부
350: 출력부

Claims (7)

  1. 사용자의 감정을 분석할 수 있는 정보를 입력받는 단계;
    상기 입력받은 정보를 처리하여 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 생성하는 단계; 및
    상기 생성된 아바타의 감정 정보를 송신하는 단계를 포함하는 감정 표현이 가능한 통신 방법.
  2. 제1항에 있어서,
    상기 감정을 분석할 수 있는 정보를 입력받는 단계에서 입력받는 정보는 음성 정보, 영상 정보, 문자 정보 중 적어도 하나인 것을 특징으로 하는 감정 표현이 가능한 통신 방법.
  3. 발신측의 아바타의 설정 정보가 저장부에 존재하는지 판단하는 단계;
    상기 판단 결과에 따라 상기 발신측의 아바타의 설정 정보를 로딩하는 단계;
    상기 발신측의 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 수신하는 단계; 및
    상기 아바타의 설정 정보 및 상기 수신된 아바타의 감정 정보를 처리하여 상기 발신측의 아바타를 생성하는 단계를 포함하는 감정 표현이 가능한 통신 방법.
  4. 제3항에 있어서,
    상기 발신측의 아바타의 설정 정보를 로딩하는 단계는,
    상기 판단 결과 상기 발신측의 아바타의 설정 정보가 상기 저장부에 존재하지 않는다고 판단되는 경우에는, 상기 발신측의 아바타의 설정 정보를 아바타 서버로부터 상기 저장부에 다운로드받는 단계를 더 포함하는 것을 특징으로 하는 감정 표현이 가능한 통신 방법.
  5. 사용자의 감정 상태를 분류할 수 있는 정보를 입력받는 입력부;
    상기 입력받는 정보를 처리하여 사용자의 감정 상태를 분류하는 입력 정보 처리부;
    상기 분류된 사용자의 감정 상태로부터 사용자의 감정을 표현하기 위한 아바타의 감정 정보를 생성하는 아바타의 감정 정보 생성부; 및
    상기 생성되는 아바타의 감정 정보를 송신하는 통신부를 포함하는 감정 표현이 가능한 통신 장치.
  6. 제5항에 있어서,
    상기 입력부는 음성 정보를 입력받을 수 있는 음성 정보 입력부, 영상 정보를 입력받을 수 있는 영상 정보 입력부, 문자 정보를 입력받을 수 있는 문자 정보 입력부 중 적어도 하나이고, 상기 입력 정보 처리부는 상기 입력받은 음성 정보를 처리하는 음성 정보 처리부, 상기 입력받은 영상 정보를 처리하는 영상 정보 처리부 또는 상기 입력받은 문자 정보를 처리하는 문자 정보 처리부 중 적어도 하나인 것을 특징으로 하는 감정 표현이 가능한 통신 장치.
  7. 사용자의 감정을 표현할 수 있는 아바타의 감정 정보를 수신하는 통신부;
    상기 사용자의 아바타의 설정 정보가 저장되는 저장부;
    상기 사용자의 아바타의 설정 정보가 상기 저장부에 존재하는지 판단하는 제어부;
    상기 사용자의 아바타의 설정 정보 및 상기 사용자의 감정을 표현할 수 있는 아바타의 감정 정보를 처리하여 아바타를 생성하는 아바타 생성부; 및
    상기 생성되는 아바타를 출력하는 출력부를 포함하는 감정 표현이 가능한 통신 장치.
KR1020030054472A 2003-08-06 2003-08-06 감정 표현이 가능한 통신 장치 및 방법 KR20050015584A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030054472A KR20050015584A (ko) 2003-08-06 2003-08-06 감정 표현이 가능한 통신 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030054472A KR20050015584A (ko) 2003-08-06 2003-08-06 감정 표현이 가능한 통신 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20050015584A true KR20050015584A (ko) 2005-02-21

Family

ID=37226355

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030054472A KR20050015584A (ko) 2003-08-06 2003-08-06 감정 표현이 가능한 통신 장치 및 방법

Country Status (1)

Country Link
KR (1) KR20050015584A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100707089B1 (ko) * 2005-09-28 2007-04-13 주식회사 케이티 호감도 측정 서비스 시스템 및 그 방법
KR100712925B1 (ko) * 2005-05-21 2007-05-02 엘지전자 주식회사 음성의 특징에 따른 벨소리 변경 기능이 구비된 이동통신단말기 및 그 동작방법
KR100792990B1 (ko) * 2006-08-25 2008-01-08 (주) 엘지텔레콤 이동통신망에서의 통화중 감정분석 서비스장치 및 방법
KR100830634B1 (ko) * 2005-07-12 2008-05-20 주식회사 사이넷 감성 메시지 서비스 방법
US11356393B2 (en) 2020-09-29 2022-06-07 International Business Machines Corporation Sharing personalized data in an electronic online group user session
KR20220147150A (ko) * 2014-12-04 2022-11-02 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 인터랙티브 다이얼로그 시스템을 위한 감정 유형 분류

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100712925B1 (ko) * 2005-05-21 2007-05-02 엘지전자 주식회사 음성의 특징에 따른 벨소리 변경 기능이 구비된 이동통신단말기 및 그 동작방법
KR100830634B1 (ko) * 2005-07-12 2008-05-20 주식회사 사이넷 감성 메시지 서비스 방법
KR100707089B1 (ko) * 2005-09-28 2007-04-13 주식회사 케이티 호감도 측정 서비스 시스템 및 그 방법
KR100792990B1 (ko) * 2006-08-25 2008-01-08 (주) 엘지텔레콤 이동통신망에서의 통화중 감정분석 서비스장치 및 방법
KR20220147150A (ko) * 2014-12-04 2022-11-02 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 인터랙티브 다이얼로그 시스템을 위한 감정 유형 분류
US11356393B2 (en) 2020-09-29 2022-06-07 International Business Machines Corporation Sharing personalized data in an electronic online group user session

Similar Documents

Publication Publication Date Title
US11282516B2 (en) Human-machine interaction processing method and apparatus thereof
CN111930940B (zh) 一种文本情感分类方法、装置、电子设备及存储介质
JP2019117646A (ja) パーソナル感情アイコンを提供するための方法及びシステム
CN115205949B (zh) 图像生成方法以及相关设备
CN112069309B (zh) 信息获取方法、装置、计算机设备及存储介质
US20190065498A1 (en) System and method for rich conversation in artificial intelligence
CN109986569B (zh) 具有角色化和性格化的聊天机器人
US20200233908A1 (en) Interactive system and computer program therefor
KR102276951B1 (ko) 목소리 및 얼굴 안면 감정값의 산출 방법 및 이를 이용한 인공지능 스피커의 출력 방법
US10902209B2 (en) Method for content search and electronic device therefor
KR20190117840A (ko) 대화 이해 ai 시스템에 의한 고객 상담의 제공 중에 사람 상담 직원으로 하여금 해당 고객을 위한 이후 상담을 진행하도록 전환하는 방법 및 컴퓨터 판독가능 기록 매체
JP2015069231A (ja) キャラクタ生成装置およびプログラム
KR20050015584A (ko) 감정 표현이 가능한 통신 장치 및 방법
CN112910761B (zh) 即时通讯方法、装置、设备、存储介质以及程序产品
KR101652486B1 (ko) 멀티모달 다중 에이전트 기반의 감정 통신 시스템
KR102193656B1 (ko) 상담 내용 분석을 지원하는 녹취 서비스 제공 시스템 및 방법
US20170026511A1 (en) Indicating the current demeanor of a called user to a calling user
CN109714248B (zh) 一种数据处理方法及装置
JP2022531994A (ja) 人工知能ベースの会話システムの生成および動作
CN111581347A (zh) 语句相似度匹配方法及装置
CN103297611A (zh) 用于在电子设备上屏蔽消息的方法和系统
CN110931002A (zh) 人机交互方法、装置、计算机设备和存储介质
KR20200040625A (ko) 사용자의 발화를 처리하는 사용자 단말 및 그 제어 방법
US11749270B2 (en) Output apparatus, output method and non-transitory computer-readable recording medium
US20210312257A1 (en) Distributed neuromorphic infrastructure

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application