KR20130091364A - 로봇의 학습이 가능한 감정생성장치 및 감정생성방법 - Google Patents

로봇의 학습이 가능한 감정생성장치 및 감정생성방법 Download PDF

Info

Publication number
KR20130091364A
KR20130091364A KR1020110142320A KR20110142320A KR20130091364A KR 20130091364 A KR20130091364 A KR 20130091364A KR 1020110142320 A KR1020110142320 A KR 1020110142320A KR 20110142320 A KR20110142320 A KR 20110142320A KR 20130091364 A KR20130091364 A KR 20130091364A
Authority
KR
South Korea
Prior art keywords
emotion
emotional
distribution
gaussian distribution
robot
Prior art date
Application number
KR1020110142320A
Other languages
English (en)
Inventor
안호석
이동욱
손웅희
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020110142320A priority Critical patent/KR20130091364A/ko
Publication of KR20130091364A publication Critical patent/KR20130091364A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇의 학습이 가능한 감정생성장치 및 감정생성방법에 관한 것으로, 외부 환경정보를 감지하여 감정 좌표계의 한점에 대응하는 감정상태 입력값을 출력하는 감정상태 입력부와; n 차원의 상기 감정 좌표계 상에 J(자연수)종류의 감정에 대한 감정확률 분포가 형성된 감정 모델이 구비되어, 상기 감정상태 입력부의 감정상태 입력값을 상기 감정 좌표계에 매칭시켜 로봇의 감정값을 결정하는 감정결정처리부와; 상기 감정결정처리부로부터 결정된 감정값과 사용자 입력부로부터 입력되는 감정의 종류정보를 입력받아 상기 감정 좌표계의 한점에 대응하는 피드백정보를 생성하며, 상기 피드백정보를 이용하여 상기 감정 좌표계의 감정확률 분포를 변경하는 학습계획부와; 상기 학습계획부로 감정의 종류정보를 입력하는 사용자 입력부를 포함하여 구성된다.
이상과 같은 본 발명에 의하면, 사용자의 학습을 통해 감정 공간상에 배치된 감정들의 분포를 변경함으로써, 사용자가 원하는 감정을 생성할 수 있다. 따라서, 사용자의 성향에 맞게 공감할 수 있는 감정을 나타내도록 하여 로봇에 대한 흥미를 높일 수 있다.

Description

로봇의 학습이 가능한 감정생성장치 및 감정생성방법{Apparatus And Method for Generating Emotion of Robot}
본 발명은 로봇의 학습이 가능한 감정생성장치 및 감정생성방법에 관한 것으로, 상세하게는 학습을 통하여 사용자가 원하는 방식으로 감정을 생성할 수 있는 로봇의 감정생성장치 및 감정생성방법에 관한 것이다.
도 1은 로봇의 감정 공간을 나타낸 개략도로서, 살펴보면 설정된 위치에 만족(contend), 놀람(surprise) 등의 기본 감정이 배치되어 있음을 알 수 있다.
일반적으로 로봇의 감정생성장치는 감정을 생성하기 위해 먼저, 로봇에 설치된 여러 센서 중 로봇의 감정과 관계된 센서의 출력값으로부터 감정 공간, 즉 감정 좌표계에 반영할 수 있는 감정 상태 입력값을 도출한다. 다음으로 감정 좌표계에서 이렇게 도출된 감정 상태 입력값의 좌표에 가장 가까운 기본 감정을 추출함으로써 로봇의 감정을 생성한다. 즉, 로봇의 감정은 추출된 기본 감정이 된다.
도 2는 감정 상태 입력값으로부터 로봇의 감정을 생성하는 과정을 나타낸 개략도로, 설명의 편의를 위해 1차원 감정 좌표계를 사용하였다. 도 2에서는 감정 좌표계에서 좌표 1에 기쁨의 기본 감정을 배치하고, 좌표 -1에 슬픔의 기본 감정을 배치한 경우를 가정한다. 감정 상태 입력값이 0.3이면 0.3에 가장 가까운 기본 감정을 추출한다. 도 2의 경우 0.3은 -1보다 1에 가까우므로 기쁨의 기본 감정이 추출된다. 기쁨의 기본 감정은 감정 좌표계에서 좌표 1이므로, 최종적으로 로봇의 감정은 좌표 1이 된다. 이와 같은 감정 생성 방식에 따르면 감정 상태 입력값이 0.5라 하더라도, 감정 상태 입력값이 0.3인 경우와 마찬가지로 최종 로봇의 감정은 좌표 1이 될 것이다.
그런데, 이와 같이 종래에 따른 로봇의 감정생성장치는 감정공간상에 감정들이 고정설정되어 있으므로, 같은 입력에 대해 항상 같은 감정을 생성하게 된다. 따라서, 사용자의 성향에 따라 원치않는 감정이 나타나는 경우 로봇과 공감하지 못하게 되고, 로봇에 대한 흥미가 반감되는 문제점이 발생하였다.
[ 비특허문헌 ]
(a) Miwa H., et al., "Effective emotional expressions with expression humanoid robot WE-4RII: integration of humanoid robot hand RCH-1," In Proceedings of 2004 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2004), vol. 3, pp. 2203-2208, 2004.
(b) C. Breazeal, "Function meets style: insights from emotion theory applied to HRI, "IEEE Transactions on Systems, Man and Cybernetics, Part C: Applications and Reviews, Vol. 34, no. 2, pp. 187-194, 2004.
(c) Park Jeong-Woo, Lee Hui-Sung, Jo Su-Hun, and Chung Myung-Jin, "Dynamic Emotion Model in 3D Affect Space for a Mascot-Type Facial Robot," In Proceedings of the 2nd Korea Robot Society Annual Conference, 2007.
(d) Christian Becker, Stefan Kopp, and Ipke Wachsmuth, "Simulating the Emotion Dynamics of a Multimodal Conversational Agent, "In Proceedings Tutorial and Research Workshop on Affective Dialogue Systems, pp. 154-165, 2004.
상기와 같은 문제점을 해결하기 위해서, 사용자에 의한 학습을 통해 감정공간상에 배치된 감정들의 분포를 변경함으로써, 사용자가 원하는 감정을 생성할 수 있는 로봇의 학습이 가능한 감정생성장치 및 감정생성방법을 제공하는 데 그 목적이 있다.
상기 목적을 달성하기 위해 본 발명에 따른 로봇의 학습이 가능한 감정생성장치는, 외부 환경정보를 감지하여 감정 좌표계의 한점에 대응하는 감정상태 입력값을 출력하는 감정상태 입력부와; n 차원의 상기 감정 좌표계 상에 J(자연수)종류의 감정에 대한 감정확률 분포가 형성된 감정 모델이 구비되어, 상기 감정상태 입력부의 감정상태 입력값을 상기 감정 좌표계에 매칭시켜 로봇의 감정값을 결정하는 감정결정처리부와; 상기 감정결정처리부에서 결정된 감정값에 따라 감정표현을 수행하는 감정표현처리부와; 상기 감정결정처리부로부터 결정된 감정값과 사용자 입력부로부터 입력되는 감정의 종류정보를 입력받아 상기 감정 좌표계의 한점에 대응하는 피드백정보를 생성하며, 상기 피드백정보를 이용하여 상기 감정 좌표계의 감정확률 분포를 변경하는 학습계획부와; 상기 학습계획부로 감정의 종류정보를 입력하는 사용자 입력부를 포함하여 구성된다. 여기서, 상기 감정확률 분포는 가중치, 중앙값, 분산을 갖는 하나의 가우시안 분포이거나, 또는 복수 개의 상기 가우시안 분포가 합성된 가우시안 분포인 것이 바람직하다.
특히, 상기 학습계획부는 매칭함수를 이용하여 상기 피드백 정보에 대응하는 가우시안 분포를 검색하여 가우시안 분포를 변경하는 것을 특징으로 한다.
한편, 상기 목적을 달성하기 위해 본 발명에 따른 로봇의 학습이 가능한 감정생성방법은, (a) 감정상태 입력부가 외부 환경정보를 감지하여 감정 좌표계의 한점에 대응하는 감정상태 입력값을 출력하는 단계와; (b) n 차원의 상기 감정 좌표계 상에 J종류의 감정에 대한 감정확률 분포가 형성된 감정 모델이 구비된 감정결정처리부가, 상기 감정상태 입력부의 감정상태 입력값을 상기 감정 좌표계에 매칭시켜 로봇의 감정값을 결정하는 단계와; (c) 감정표현처리부가 상기 감정결정처리부에서 결정된 감정값에 따라 감정표현을 수행하는 단계와; (d) 학습계획부가 상기 감정결정처리부로부터 결정된 감정값과 사용자 입력부로부터 입력되는 감정의 종류정보를 입력받아 상기 감정 좌표계의 한점에 대응하는 피드백정보를 생성하며, 상기 피드백정보를 이용하여 상기 감정 좌표계의 감정확률 분포를 변경하는 단계를 포함한다.
이상과 같은 본 발명에 의하면, 사용자의 학습을 통해 감정 공간상에 배치된 감정들의 분포를 변경함으로써, 사용자가 원하는 감정을 생성할 수 있다. 따라서, 사용자의 성향에 맞게 공감할 수 있는 감정을 나타내도록 하여 로봇에 대한 흥미를 높일 수 있다.
도 1은 일반적인 로봇의 감정 모델을 나타낸 개략도이다.
도 2는 종래기술에 따른 감정 공간상에서 감정상태 입력값으로부터 로봇의 감정을 생성하는 과정을 나타낸 일실시예이다.
도 3은 본 발명의 일실시예에 따른 감정생성장치의 구성도이다.
도 4는 본 발명의 일실시예에 따른 1차원 감정공간 상에 동일 감정에 대한 2개의 가우시안 분포가 합성된 감정확률분포를 갖는 감정모델을 나타낸 도이다.
도 5는 본 발명의 일실시예에 따른 1차원 감정공간 상에 다른 감정에 대해 2개의 감정확률분포를 갖는 감정모델을 나타낸 도이다.
도 6(a)는 본 발명의 일실시예에 따른 감정 모델을 나타낸 개략도이고, 도 6(b)는 학습에 의해 변경된 감정 모델을 나타낸 개략도이다.
도 7은 본 발명의 일실시예에 따른 감정생성방법의 순서도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.
도 3에 도시된 바와 같이, 본 발명에 따른 로봇의 학습이 가능한 감정생성장치는, 외부 환경정보를 감지하여 감정 좌표계의 한점에 대응하는 감정상태 입력값을 출력하는 감정상태 입력부(10)와; n(1 이상의 자연수) 차원의 상기 감정 좌표계 상에 J(1 이상의 자연수)종류의 감정에 대한 감정확률 분포가 형성된 감정 모델이 구비되어, 상기 감정상태 입력부(10)의 감정상태 입력값을 상기 감정 좌표계에 매칭시켜 로봇의 감정값을 결정하는 감정결정처리부(20)와; 상기 감정결정처리부(20)에서 결정된 감정값에 따라 감정표현을 수행하는 감정표현처리부(50)와; 상기 감정결정처리부(20)로부터 결정된 감정값과 사용자 입력부(40)로부터 입력되는 감정의 종류정보를 입력받아 상기 감정 좌표계의 한점에 대응하는 피드백정보를 생성하며, 상기 피드백정보를 이용하여 상기 감정 좌표계의 감정확률 분포를 변경하는 학습계획부(30)와; 상기 학습계획부(30)로 감정의 종류정보를 입력하는 사용자 입력부(40)를 포함하여 구성된다. 상기 감정표현처리부(50)는 로봇의 얼굴표정처리, 음성 출력처리, 로봇의 팔, 다리, 몸통 등을 이용한 동작처리 등을 수행할 수 있다. 한편, 감정표현 처리부(50)는 본 발명의 주요한 관점이 아니므로 자세한 설명은 생략하기로 한다.
이 때, 상기 감정모델은 n차원의 감정공간에 감정확률 분포로 구성된다. 감정공간은 1차원 이상의 감정공간으로 구성되며, 감정공간의 각 축은 내부 상태값의 기준을 의미한다. 예를 들어, 2차원 감정 공간에서 두 축이 '활성도'와 '긍정도'를 의미한다면, 내부 상태벡터는 2차원 벡터이며, 두 개의 값을 갖게 된다. 즉, 두 개의 값은 활성도와 긍정도를 의미한다. 이 때, 감정은 사용자가 로봇에 부여한 감정으로 기쁨, 슬픔, 화남, 놀람, 두려움 등과 같이 정의될 수 있다. 이와 같은 기본 감정은 로봇의 감정 좌표계 상의 한 좌표에 설정되는데, 본 발명에서는 한 좌표 대신 감정확률분포를 생성하여 설정하게 된다.
여기서, 상기 감정확률 분포는 가중치, 중앙값, 분산을 갖는 하나의 가우시안 분포이거나, 또는 복수 개의 상기 가우시안 분포가 합성된 가우시안 분포일 수 있다. 특히, 복수 개의 가우시안 분포가 합성된 가우시안 분포는 가우시안 믹스쳐 모델(GMM; Gaussian Mixture Model)이라고 한다. 즉, 가우시안 믹스쳐 모델은 동일한 감정에 대해 다른 크기의 가우시안 분포가 복수개 존재한다는 것을 의미한다.
도 4는 본 발명의 일실시예에 따른 1차원 감정공간 상에 동일 감정에 대한 2개의 가우시안 분포가 합성된 감정확률분포를 갖는 감정모델을 나타낸 도이다. 도 4에서와 같이, 중앙값이 기쁨의 좌표 1을 갖는 가우시안 분포와 중앙값이 기쁨의 좌표 0.5를 갖는 가우시안 분포가 있는 경우, 동일한 감정이 두 개이므로 이를 병합하여 하나의 가우시안 분포 즉 가우시안 믹스쳐모델로 나타낼 수 있다. 이 때, 각 감정에 대해 가우시안 분포의 가중치는 항상 1을 만족해야 한다. 예를 들어, A 감정에 대해 하나의 가우시안 분포만 존재한다면 그 가우시안 분포의 가중치는 1이다. 마찬가지로 A 감정에 대해 2개의 가우시안 분포가 존재한다면 두 가우시안 분포의 가중치는 다를 수 있지만 합은 항상 1을 만족해야 한다. 또한, 다른 실시예로써, 상기 감정확률 분포는 가우시안 분포가 아닌 다양한 형상(예로써, 원형분포, 사각형 분포, 삼각형 분포, 반원형 분포 등)의 분포로 형성될 수 있다.
상기 감정상태 입력부(10)는 로봇에 설치된 감정 관련 센서에 의해 외부 환경정보 즉 외부 자극을 감지하며, 센서의 감지 결과는 로봇이 갖는 감정 좌표계 상에서 표현될 수 있는 데이터로 가공된다. 이렇게 가공된 데이터가 감정 상태 입력값이다. 여기서, 외부 자극은 음성인식(말의 의미, 소리의 크기 등), 영상 인식(사람 인식, 물체 인식, 색상 인식 등), 각종 센서값(터치 센서의 위치값, 강도, 거리 충동여부, 온도, 습도 등) 등 사람이 인지할 수 있는 모든 자극을 사용할 수 있다.
상기 감정결정처리부(20)는 입력값으로서 감정상태 입력값을 감정모델에 적용하여 출력값으로서 감정값을 계산한다.
도 5는 본 발명의 일실시예에 따른 1차원 감정공간 상에 다른 감정에 대해 2개의 감정확률분포를 갖는 감정모델을 나타낸 도로서, 로봇의 감정결정처리부(20)의 동작을 설명하기 위한 개략도이다. 설명의 편의를 위해 도 5와 같이 1차원 감정 좌표계를 나타내었다. 도 5는 1차원 좌표 상에 기본 감정인 기쁨의 좌표 1과 다른 기본 감정인 슬픔의 좌표 -1이 부여되어 있으며, 각 기본 감정에 대하여 가우스 곡선을 형성하는 감정확률분포가 부여되어 있다. 만약, 입력값으로서 감정상태 입력값이 0.3인 경우 기존에는 기쁨의 좌표 1이 로봇의 감정이 되었으나, 본 발명의 감정 생성부에 의하면 0.3의 좌표가 나타내는 각 감정값군의 감정값의 집합인 {0.4, 0.1}이 로봇의 감정이 된다. 물론 이와 같은 표현을 위해서 집합의 원소 순서를 사전에 설정해두어야 할 것이다. 본 실시예에서는 {기쁨의 감정값, 슬픔의 감정값}과 같이 설정된 경우를 나타낸다. 이에 따라, 단순히 기쁨을 나타내는 좌표 1로 로봇의 감정을 표현하는 대신 기쁨의 감정의 크기가 0.4이고, 슬픔의 감정의 크기가 0.1인 복합 감정을 신뢰성 있게 생성할 수 있다. 이때 가우스 곡선의 형상에 따라 복합 감정이 변화하게 되므로 가우스 곡선은 로봇의 성격을 형성하는 셈이 된다. 또한, 차원에 따라서 하나의 감정 상태 입력값이 하나의 감정확률분포에서 복수개의 감정값을 나타낼 경우 가장 큰 값 또는 가장 작은 값 또는 평균에 가까운 값 등을 선택하여 하나의 감정값을 추출할 수 있다. 결과적으로 복수차원으로 감정 좌표계가 확장될 경우 감정 상태 입력값이 나타내는 감정값은 감정당 하나만 추출될 수 있다.
이어서, 학습계획부(30)는 감정모델을 학습하기 위한 구성이며, 입력값으로서 감정결정처리부(20)의 출력값인 감정벡터e(k)와 사용자 입력부(40)를 통한 감정종류 정보ed(k)를 입력받고, 출력값으로서 감정모델 상의 각 가우시안 분포의 가중치, 중앙값 및 분산을 변경하기 위한 피드백 정보x(k+1)를 출력한다. 즉, 학습이란 감정 공간상에서 분포된 가우시안 분포를 변화시키는 것으로, 가우시안 분포의 가중치, 중앙값 및 분산의 값을 변화시킨다는 의미를 갖는다. 특히, 상기 학습계획부(30)는 매칭함수를 이용하여 상기 피드백 정보에 대응하는 가우시안 분포를 검색하여 가우시안 분포를 변경하는 것을 특징으로 한다.
바람직한 실시예로서, 본 발명에 따른 학습이 가능한 감정생성장치가 구비된 로봇에 대해, k시간에 '팔을 벌리며 사랑해라고 말을 함'라는 입력이 들어왔을 때, 감정상태 입력부(10)는 이를 설정된 방식으로 가공하여 상태벡터x(k)를 생성합니다. 예로써, '감정A: 3, 감정B:0, 감정C:9'으로 감정공간의 축수만큼 데이터가 표현됩니다. 상태벡터는 감정 공간상의 한점[3,0,9]을 나타내게 된다. 이에 따라, 감정결정처리부(20)는 상태벡터를 입력받아 그 점에서의 감정확률값이 계산되어 감정벡터를 출력한다. 출력값은 [행복, 슬픔, 놀람]에 대해 [0.4, 0.05, 0.4]과 같은 감정의 확률값을 갖는다. 출력값에 의해 감정표현수단이 감정을 표현한 경우, 이를 본 사용자는 '행복'이라는 교육을 할 수 있다. 따라서, 사용자 입력부(40)를 통해 감정의 종류로서 '행복'을 학습계획부(30)로 입력하면, 설정된 방식에 따라 상태벡터 주변의 가우시안 분포를 학습하게 된다.
이하, 본 발명의 로봇의 감정 생성 장치의 동작을 수학식으로 설명하기로 한다. n차원의 감정 공간을 구성하고, 감정 좌표계 상에 기본 감정을 설정한다. 감정 상태 입력값과 각 기본 감정의 감정확률분포에 의하여 각 감정의 감정값이 결정되며 이들의 집합이 복합 감정이다. 각 감정 확률 분포는 GMM(Gaussian Mixture Model)을 사용하여 형성할 수 있고, 각 감정값의 확률적 표현은 Bayes' rule을 이용하여 계산될 수 있다. 세부 사항은 다음과 같다.
1) 감정 상태 입력값인 상태벡터 x(k) 정의
로봇의 최종 감정은 감정 좌표계 상의 감정 상태 입력값(벡터)를 기반으로 생성된다. 감정 상태 입력값 x(k)는 로봇의 현재 상태로써 주변 환경 또는 센서 입력에 의해 결정된다. 이는 여러 가지 방법으로 결정될 수 있으며, 한 예로 NEO-PI-R(the Revised NEO Personality Inventory) 방법에 의해 결정할 수 있다. 감정 상태 입력값 x(k)는 감정 좌표계의 축의 수와 동일한 차원을 갖는다. 예를 들어, FFM(심리학의 Five Factor Model)을 사용한 5차원의 감정 공간이라면, 감정 상태 입력값 x(k)는 5차 벡터이며, Openness to experience, Conscientiousness, Extraversion, Agreeableness, Neuroticism의 값을 가지고, 각각의 값에 의해서 로봇의 상태가 결정된다.
2) 로봇의 감정값인 감정 벡터 e(k) 정의
최종 감정은 하나의 감정값으로 표현되는 것이 아니라 여러 감정값의 확률값이 반영된 복합 감정으로 생성된다. 이 복합 감정은 감정 벡터 e(k)가 되며, J개의 감정을 사용한다면, 다음의 로봇의 감정 수학식1과 같이 나타낼 수 있다.
Figure pat00001
여기서, J는 기본 감정의 개수이고, ej는 j번째 기본 감정의 감정값이다. 예를 들어 e1=happiness, e2=surprise, e3=sadness, e4=love 등 일 수 있다. []T는 전치 행렬로 표현 방식이 하나이므로 삭제 가능하다.
3) 감정확률 분포 P(x(k)| e j ) 설정
감정 좌표계 상에 각 기본 감정에 대한 감정확률분포를 배치한다. 각 기본 감정에 대한 확률 분포는 GMM(Gaussian Mixture Model)을 사용한다. 이를 이용하면, 각 기본 감정의 분포를 다이나믹하게 만들 수 있으며, 각 감정값을 독립적으로 계산할 수 있다. n차원 감정 좌표계에서 j번째 기본 감정에 대한 감정확률분포(감정 분포, 감정값군). P(x(k)|ej)는 다음의 수학식2와 같이 결정된다.
Figure pat00002
Figure pat00003
Figure pat00004
여기서, ωj,m(k)는 k시간에서 j번째 감정 분포의 m번째 가우시안 분포(또는, 가우시안 모드; Gaussian mode)의 가중치이고, Mj(k)는 k시간에서 j번째 감정 분포가 가진 가우시안 분포의 수이며, μj,m(k)는 k시간에서 j번째 감정 분포의 m번째 가우시안 분포의 중앙값이고, Σj,m(k)는 k시간에서 j번째 감정 분포의 m번째 가우시안 분포의 bandwidth이며, x(k)는 k시간에서의 감정 상태 입력값이다. 또한, 가우시안 분포는 하나의 가우스 곡선을 의미한다.
4) 감정값의 확률적 표현인 P( e j |x(k)) 계산
각 감정값의 확률적 표현(확률값)은 Bayes' rule을 이용하여 수학식3과 같이 계산될 수 있다. 여기서 j번째 감정의 확률값인 P(ej|x(k))는 사후확률(posterior probability)로 사용될 수 있다.
Figure pat00005
여기서,
Figure pat00006
는 우도함수(likelihood function)로 사용될 수 있으며, P(ej)는 ej의 사전확률(prior probability)로 각 감정값이 선택될 수 있는 확률(감정값의 확률적 표현)이며, 각 감정값의 사전 확률의 합은 1이다.
이상의 수학식1 내지 3에 따르면 J개의 기본 감정이 부여된 경우 J개의
Figure pat00007
를 가진 J차원의 감정 벡터 e(k)가 결정된다. e(k)는 J개의 감정값이 확률적 표현으로 반영된 복합 감정이 된다.
이어서, 감정 공간상에 감정확률분포가 가우시안 분포를 따르는 경우, GMM(Gaussian Mixture Model)의 학습방법을 이용하여 감정확률분포를 사용자가 원하는 대로 변경할 수 있다. J종류의 감정을 사용하고, n 차원의 감정 공간을 가지고 있을 때, 사용자는 로봇이 표현하길 바라는 감정을 가르치는 경우, 감정학습 모델로 들어온다. 그리고, 다음의 과정을 거쳐 사용자의 의도대로 학습을 한다.
5) Calculate Matching Function
감정의 현재 상태를 나타내는 상태 벡터 즉, 감정상태 입력값 x(k)의 벡터포인트를 중심으로 사용자의 피드백 정보 x(k+1)를 이용하여 학습하기 위한 감정의 가우시안 모드(또는 가우시안 분포)를 다음과 같이 찾는다.
여기서, 상기 매칭함수(matchj,m(k+1))는 다음 수학식 4을 만족한다.
Figure pat00008
여기서, matchj ,m(k+1)는 k+1시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 매칭함수를 의미하고, δ는 매칭범위를 나타내며(이 때, δ가 크면 많은 가우시안 모드(가우시안 분포)를 학습하기 때문에 학습이 빨라질 수 있다), σj,m(k)는 k시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 표준편차를 나타내고, x(k+1)은 피드백 정보를 나타내며, μj,m(k)는 k시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 중앙값을 나타낸다.
참고적으로, 상기 매칭함수는 유클리디안 거리(Euclidean Distance) 계산법에 의해 정의된 함수이나, 이 밖에도 마할라노비스 거리(Mahalanobis Distance) 계산법 또는 민코우스키 거리(Minkowski Distance) 계산법 등을 이용하여 매칭함수를 정의할 수도 있다.
6) User Feedback Learning on Probability Distribution
매칭 함수를 이용하여 가우시안 모드를 다음과 같이 선별한 후, 사용자의 의도를 반영하여 가우시안 분포를 학습한다.
학습은 두가지 경우로 구분하며, 첫 번째 경우는 매칭 함수를 통해 학습할 가우시안 모드를 찾은 경우(6-1)이며, 두 번째 경우는 찾지 못한 경우(6-1)이다.
6-1) ∃ m ∈ {1, 2, ..., M j (k)} such that match j ,m (k+1)=1의 경우
상기 매칭 함수를 통하여 매칭되는 가우시안 분포를 하나라도 찾은 경우, 가우시안 분포를 학습하게 되는데, 이 때, 선택된 즉 매칭된 가우시안 분포와 선택되지 않은 즉, 매칭되지 않은 가우시안 분포를 구분하여 학습하게 된다.
6-1-1) for each m whose match j ,m (k+1)=1
이에 따라, 선택된 j번째 감정 분포의 m번째 가우시안 모드가 학습된다. 이 경우, 가우시안 분포의 가중치, 중앙값, 분산의 세 가지를 학습한다.
다시 말해, 상기 매칭 함수가 1인 경우, 선택된 j번째 감정 분포 중 m 번째 가우시안 분포는, 상기 피드백 정보를 중심으로 다음의 수학식 5의 가중치(ωj,m(k+ 1)), 중앙값(μj,m(k+1)) 및 분산(σ2 j,m(k+1))을 만족하도록 가우시안 분포가 변경된다.
Figure pat00009
Figure pat00010
,
Figure pat00011
Figure pat00012
여기서, ωj,m(k+1)는 k+1 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 가중치이며, λ은 미리 설정된 기본 가중치이고, ωj,m(k)는 k 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 가중치이며, μj,m(k+1)는 k+1 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 중앙값이며, x(k+1)은 피드백 정보이고, μj,m(k)는 k 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 중앙값이며, σ2 j,m (k+1)는 k+1 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 분산이고, σ2 j,m(k)는 k 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 분산이며, []T는 전치 행렬이고,
Figure pat00013
이다.
이 때, Σj,m(k) 는 k시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 bandwidth이다.
6-1-2) for each m whose match j ,m (k+1)=0
또한, 선택되지 않은 j번째 감정 분포의 m 번째 가우시안 모드가 학습된다. 이 경우 가중치만 학습한다.
다시 말해, 상기 매칭 함수가 1인 경우, 선택되지 않은 j번째 감정 분포 중 m 번째 가우시안 분포는, 상기 피드백 정보를 중심으로 다음의 수학식 6의 가중치(ωj,m(k+1))를 만족하도록 가우시안 분포가 변경된다.
Figure pat00014
(여기서, ωj,m(k+1)는 k+1 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 가중치이며, λ은 미리 설정된 기본 가중치이고, ωj,m(k)는 k 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 가중치이다.)
이어서, 상기 학습 계획부(30)는 가우시안 분포가 변경된 후, 각 감정에 해당하는 모든 가우시안 분포의 가중치를 노멀라이즈(Normalize)한다. 즉, 가중치의 합을 1로 만들어 준다.
6-2) match j ,m (k+1)=0 for ∀ m ∈ {1, 2, ..., M j (k)}의 경우
한편, 매칭되는 가우시안 모드를 찾지 못한 경우, 사용자의 피드백을 중심으로 새로운 가우시안 모드를 세운다. 따라서, k+1 시간에서 j번째 감정 분포가 가진 가우시안 모드의 수 Mj(k+1)는 Mj(k+1)=Mj(k)+1 이 된다.
다시 말해, 상기 학습계획부는 매칭함수가 0인 경우(매칭되는 가우시안 분포가 없는 경우), 상기 피드백 정보를 중심으로 다음의 수학식 7의 가중치(
Figure pat00015
), 중앙값(
Figure pat00016
) 및 분산(
Figure pat00017
)을 만족하는 가우시안 분포를 생성한다.
Figure pat00018
Figure pat00019
,
Figure pat00020
.
여기서,
Figure pat00021
는 k+1 시간에서 j번째 감정 분포를 갖는 가우시안 분포의 가중치이며, λ은 미리 설정된 기본 가중치이고,
Figure pat00022
는 k+1 시간에서 j번째 감정 분포를 갖는 가우시안 분포의 중앙값이며, x(k+1)은 피드백 정보이고,
Figure pat00023
는 k+1 시간에서 j번째 감정 분포를 갖는 가우시안 분포의 분산이고, σ2는 미리 설정된 기본 분산이며, Mj(k+1)은 k+1 시간에서 j번째 감정 분포가 갖는 가우시안 분포의 수이다.
이어서, 상기 학습 계획부(30)는 가우시안 분포가 생성된 후, 각 감정에 해당하는 모든 가우시안 분포의 가중치를 노멀라이즈(Normalize)한다. 즉, 가중치의 합을 1로 만들어 준다.
여기서, 가우시안 분포의 중앙값은 어떤 감정에 영향을 미치는지에 대한 의미를 나타내며, 분산은 해당 가우시안 분포가 얼마나 넓게 영향을 미치는지에 대한 의미를 나타내고, 가중치는 동일한 감정에 관련된 여러 가우시안 분포 중에 해당 가우시안 분포가 얼마나 영향을 미치는지에 대한 의미를 나타낸다. 즉, 가중치가 높으면 그 가우시안 분포의 해당값이 많이 반영됨을 의미한다.
따라서, k시간에서의 가우시안 분포와 k+1 시간에서의 가우시안 분포가 달라지므로 같은 입력에 대해 다른 출력값 즉, 감정값을 생성하게 된다. 이런 과정을 통해, 사용자가 원하는대로 감정 공간 상에 감정 분포가 학습되기 때문에 이 과정을 반복하면 사용자가 가르치는대로 로봇이 감정을 생성하여 표현할 수 있게 된다.
도 6(a)는 본 발명의 일실시예에 따른 감정 모델을 나타낸 개략도이고, 도 6(b)는 학습에 의해 변경된 감정 모델을 나타낸 개략도로서, 도 6(a),(b)에서는 심리학의 Five Factor Model을 기반으로 5차원의 감정 공간을 구성하였다. 따라서, 도 6(a)와 같이 학습전의 가우시안 분포(G1)가 사용자의 교육에 의해 학습후의 가우시안 분포(G2)로 변경되었다. 따라서, 감정결정처리부는 동일한 감정상태 입력값이 입력된다고 가정할 때, 학습 전(도 6(a))과 학습 후(도 6(b))는 다른 감정값을 결정하게 된다.
한편, 도 7에 도시된 바와 같이, 본 발명에 따른 로봇의 학습이 가능한 감정생성방법은, (a) 감정상태 입력부가 외부 환경정보를 감지하여 감정 좌표계의 한점에 대응하는 감정상태 입력값을 출력하는 단계(S 100)와; (b) n 차원의 상기 감정 좌표계 상에 J종류의 감정에 대한 감정확률 분포가 형성된 감정 모델이 구비된 감정결정처리부가, 상기 감정상태 입력부의 감정상태 입력값을 상기 감정 좌표계에 매칭시켜 로봇의 감정값을 결정하는 단계(S 200)와; (c) 감정표현처리부가 상기 감정결정처리부에서 결정된 감정값에 따라 감정표현을 수행하는 단계(S 300)와; (d) 학습계획부가 상기 감정결정처리부로부터 결정된 감정값과 사용자 입력부로부터 입력되는 감정의 종류정보를 입력받아 상기 감정 좌표계의 한점에 대응하는 피드백정보를 생성하며, 상기 피드백정보를 이용하여 상기 감정 좌표계의 감정확률 분포를 변경하는 단계(S 400)를 포함하여 구성될 수 있다.
이상, 본 발명에 대하여 도면과 실시예를 가지고 설명하였으나, 본 발명은 특정 실시예에 한정되지 않으며, 이 기술분야에서 통상의 지식을 가진 자라면 본 발명의 범위에서 벗어나지 않으면서 많은 수정과 변형이 가능함을 이해할 것이다. 또한, 상기 도면은 발명의 이해를 돕기 위해 도시된 것으로서, 청구범위를 한정하도록 이해해서는 아니될 것이다.
10: 감정상태 입력부 20: 감정결정처리부
30: 학습계획부 40: 사용자 입력부

Claims (10)

  1. 로봇의 학습이 가능한 감정생성장치로서,
    외부 환경정보를 감지하여 감정 좌표계의 한점에 대응하는 감정상태 입력값을 출력하는 감정상태 입력부와;
    n 차원의 상기 감정 좌표계 상에 J종류의 감정에 대한 감정확률 분포가 형성된 감정 모델이 구비되어, 상기 감정상태 입력부의 감정상태 입력값을 상기 감정 좌표계에 매칭시켜 로봇의 감정값을 결정하는 감정결정처리부와;
    상기 감정결정처리부에서 결정된 감정값에 따라 감정표현을 수행하는 감정표현처리부와;
    상기 감정결정처리부로부터 결정된 감정값과 사용자 입력부로부터 입력되는 감정의 종류정보를 입력받아 상기 감정 좌표계의 한점에 대응하는 피드백정보를 생성하며, 상기 피드백정보를 이용하여 상기 감정 좌표계의 감정확률 분포를 변경하는 학습계획부와;
    상기 학습계획부로 감정의 종류정보를 입력하는 사용자 입력부
    를 포함하는 로봇의 학습이 가능한 감정생성장치.
  2. 제 1 항에 있어서,
    상기 감정확률 분포는 가중치, 중앙값, 분산을 갖는 하나의 가우시안 분포이거나, 또는 복수 개의 상기 가우시안 분포가 합성된 가우시안 분포인 것을 특징으로 하는 로봇의 학습이 가능한 감정생성장치.
  3. 제 2 항에 있어서,
    상기 학습계획부는 매칭함수를 이용하여 상기 피드백 정보에 대응하는 가우시안 분포를 검색하여 가우시안 분포를 변경하는 것을 특징으로 하는 로봇의 학습이 가능한 감정생성장치.
  4. 제 3 항에 있어서,
    상기 매칭함수(
    Figure pat00024
    )는 다음 식을 만족하는 것을 특징으로 하는 로봇의 학습이 가능한 감정생성장치.
    Figure pat00025

    여기서,
    Figure pat00026
    는 k+1시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 매칭함수를 의미하고, δ는 매칭범위를 나타내며,
    Figure pat00027
    는 k시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 표준편차를 나타내고, x(k+1)은 피드백 정보를 나타내며,
    Figure pat00028
    는 k시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 중앙값을 나타낸다.
  5. 제 4 항에 있어서,
    상기 매칭 함수가 1인 경우, 선택된 j번째 감정 분포 중 m 번째 가우시안 분포는, 상기 피드백 정보를 중심으로 다음의 가중치(
    Figure pat00029
    ), 중앙값(
    Figure pat00030
    ) 및 분산(
    Figure pat00031
    )을 만족하도록 가우시안 분포가 변경되는 것을 특징으로 하는 로봇의 학습이 가능한 감정생성장치.
    Figure pat00032
    ,
    Figure pat00033
    ,
    Figure pat00034

    Figure pat00035

    여기서,
    Figure pat00036
    는 k+1 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 가중치이며, λ은 미리 설정된 기본 가중치이고,
    Figure pat00037
    는 k 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 가중치이며,
    Figure pat00038
    는 k+1 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 중앙값이며, x(k+1)은 피드백 정보이고,
    Figure pat00039
    는 k 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 중앙값이며,
    Figure pat00040
    는 k+1 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 분산이고,
    Figure pat00041
    는 k 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 분산이며,
    Figure pat00042
    는 전치 행렬이고,
    Figure pat00043
    이다.
    이 때,
    Figure pat00044
    는 k시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 bandwidth이다.
  6. 제 4 항에 있어서,
    상기 매칭 함수가 1인 경우, 선택되지 않은 j번째 감정 분포 중 m 번째 가우시안 분포는, 상기 피드백 정보를 중심으로 다음의 가중치(
    Figure pat00045
    )를 만족하도록 가우시안 분포가 변경되는 것을 특징으로 하는 로봇의 학습이 가능한 감정생성장치.
    Figure pat00046

    여기서,
    Figure pat00047
    는 k+1 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 가중치이며, λ은 미리 설정된 기본 가중치이고,
    Figure pat00048
    는 k 시간에서 j번째 감정 분포 중 m번째 가우시안 분포의 가중치이다.
  7. 제 5 항 또는 제 6 항에 있어서,
    상기 학습 계획부는 상기 가우시안 분포가 변경된 후, 각 감정에 해당하는 모든 가우시안 분포의 가중치를 노멀라이즈(Normalize)하는 것을 특징으로 하는 로봇의 학습이 가능한 감정생성장치.
  8. 제 4 항에 있어서,
    상기 학습계획부는 매칭함수가 0인 경우(매칭되는 가우시안 분포가 없는 경우), 상기 피드백 정보를 중심으로 다음의 가중치(
    Figure pat00049
    ), 중앙값(
    Figure pat00050
    ) 및 분산(
    Figure pat00051
    )을 만족하는 가우시안 분포를 생성하는 것을 특징으로 하는 로봇의 학습이 가능한 감정생성장치.
    Figure pat00052
    ,
    Figure pat00053
    ,
    Figure pat00054

    여기서,
    Figure pat00055
    는 k+1 시간에서 j번째 감정 분포를 갖는 가우시안 분포의 가중치이며, λ은 미리 설정된 기본 가중치이고,
    Figure pat00056
    는 k+1 시간에서 j번째 감정 분포를 갖는 가우시안 분포의 중앙값이며, x(k+1)은 피드백 정보이고,
    Figure pat00057
    는 k+1 시간에서 j번째 감정 분포를 갖는 가우시안 분포의 분산이고, σ2는 미리 설정된 기본 분산이며,
    Figure pat00058
    은 k+1 시간에서 j번째 감정 분포가 갖는 가우시안 분포의 수이다.
  9. 제 8 항에 있어서,
    상기 학습 계획부는 상기 가우시안 분포가 생성된 후, 각 감정에 해당하는 모든 가우시안 분포의 가중치를 노멀라이즈(Normalize)하는 것을 특징으로 하는 로봇의 학습이 가능한 감정생성장치.
  10. 로봇의 학습이 가능한 감정생성방법으로서,
    (a) 감정상태 입력부가 외부 환경정보를 감지하여 감정 좌표계의 한점에 대응하는 감정상태 입력값을 출력하는 단계와;
    (b) n 차원의 상기 감정 좌표계 상에 J종류의 감정에 대한 감정확률 분포가 형성된 감정 모델이 구비된 감정결정처리부가, 상기 감정상태 입력부의 감정상태 입력값을 상기 감정 좌표계에 매칭시켜 로봇의 감정값을 결정하는 단계와;
    (c) 감정표현처리부가 상기 감정결정처리부에서 결정된 감정값에 따라 감정표현을 수행하는 단계와;
    (d) 학습계획부가 상기 감정결정처리부로부터 결정된 감정값과 사용자 입력부로부터 입력되는 감정의 종류정보를 입력받아 상기 감정 좌표계의 한점에 대응하는 피드백정보를 생성하며, 상기 피드백정보를 이용하여 상기 감정 좌표계의 감정확률 분포를 변경하는 단계;
    를 포함하는 로봇의 학습이 가능한 감정생성방법.
KR1020110142320A 2011-12-26 2011-12-26 로봇의 학습이 가능한 감정생성장치 및 감정생성방법 KR20130091364A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110142320A KR20130091364A (ko) 2011-12-26 2011-12-26 로봇의 학습이 가능한 감정생성장치 및 감정생성방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110142320A KR20130091364A (ko) 2011-12-26 2011-12-26 로봇의 학습이 가능한 감정생성장치 및 감정생성방법

Publications (1)

Publication Number Publication Date
KR20130091364A true KR20130091364A (ko) 2013-08-19

Family

ID=49216551

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110142320A KR20130091364A (ko) 2011-12-26 2011-12-26 로봇의 학습이 가능한 감정생성장치 및 감정생성방법

Country Status (1)

Country Link
KR (1) KR20130091364A (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018208761A1 (en) * 2017-05-11 2018-11-15 Misty Robotics, Inc. Infinite robot personalities
KR20180135170A (ko) 2017-06-12 2018-12-20 주식회사 아카인텔리전스 컴퓨터의 감정을 결정하는 방법
US10289076B2 (en) 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
KR20190098781A (ko) * 2018-01-29 2019-08-23 삼성전자주식회사 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법
KR20190106890A (ko) * 2019-08-28 2019-09-18 엘지전자 주식회사 감정 정보 기반의 음성 합성 방법 및 장치
WO2020190054A1 (ko) * 2019-03-19 2020-09-24 휴멜로 주식회사 음성 합성 장치 및 그 방법
CN112788990A (zh) * 2018-09-28 2021-05-11 三星电子株式会社 获得情绪信息的电子设备和方法
WO2023199256A3 (en) * 2022-04-13 2023-12-07 Soul Machines Limited Affective response modulation in embodied agents

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10289076B2 (en) 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
WO2018208761A1 (en) * 2017-05-11 2018-11-15 Misty Robotics, Inc. Infinite robot personalities
US10850398B2 (en) 2017-05-11 2020-12-01 Misty Robotics, Inc. Infinite robot personalities
KR20180135170A (ko) 2017-06-12 2018-12-20 주식회사 아카인텔리전스 컴퓨터의 감정을 결정하는 방법
KR20190098781A (ko) * 2018-01-29 2019-08-23 삼성전자주식회사 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법
CN112788990A (zh) * 2018-09-28 2021-05-11 三星电子株式会社 获得情绪信息的电子设备和方法
WO2020190054A1 (ko) * 2019-03-19 2020-09-24 휴멜로 주식회사 음성 합성 장치 및 그 방법
KR20190106890A (ko) * 2019-08-28 2019-09-18 엘지전자 주식회사 감정 정보 기반의 음성 합성 방법 및 장치
WO2023199256A3 (en) * 2022-04-13 2023-12-07 Soul Machines Limited Affective response modulation in embodied agents

Similar Documents

Publication Publication Date Title
KR20130091364A (ko) 로봇의 학습이 가능한 감정생성장치 및 감정생성방법
US8972313B2 (en) Apparatus and method for learning emotion of robot
US7783585B2 (en) Data processing device, data processing method, and program
JP5624100B2 (ja) 人工感情学習装置及び方法
US7725412B2 (en) Identifying temporal sequences using a recurrent self organizing map
Gharavian et al. Audio-visual emotion recognition using FCBF feature selection method and particle swarm optimization for fuzzy ARTMAP neural networks
Taniguchi et al. Cross-situational learning with Bayesian generative models for multimodal category and word learning in robots
EP2112621A2 (en) Apparatus for forming good feeling of robot and method therefor
Liu et al. How to train your robot-teaching service robots to reproduce human social behavior
Di Nuovo et al. The iCub learns numbers: An embodied cognition study
Taniguchi et al. Unsupervised spatial lexical acquisition by updating a language model with place clues
US9324245B2 (en) Apparatus and method for creating artificial feelings
KR20190075416A (ko) 디지털 에이전트 이동 매니퓰레이터 및 그 동작 방법
CN114995657A (zh) 一种智能机器人的多模态融合自然交互方法、系统及介质
Yoon et al. Socially aware path planning for a flying robot in close proximity of humans
CN108229640B (zh) 情绪表达的方法、装置和机器人
Joe et al. Applying human-robot interaction technology in retail industries
He Robotgpt: From chatgpt to robot intelligence
US9117168B2 (en) Apparatus and method for calculating internal state for artificial emotion
KR101284642B1 (ko) 로봇의 감정 생성 장치
CN111027215A (zh) 针对虚拟人的性格训练系统及其方法
JP5521240B1 (ja) 人工情緒表現動作を選択するための装置及び方法
JP6972526B2 (ja) コンテンツ提供装置、コンテンツ提供方法、及びプログラム
Kirandziska et al. Human-robot interaction based on human emotions extracted from speech
Olgun et al. A system to generate robot emotional reaction for robot-human communication

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application