KR20070061054A - 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법 - Google Patents

복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법 Download PDF

Info

Publication number
KR20070061054A
KR20070061054A KR1020060039282A KR20060039282A KR20070061054A KR 20070061054 A KR20070061054 A KR 20070061054A KR 1020060039282 A KR1020060039282 A KR 1020060039282A KR 20060039282 A KR20060039282 A KR 20060039282A KR 20070061054 A KR20070061054 A KR 20070061054A
Authority
KR
South Korea
Prior art keywords
robot
emotion
information
emotions
generating
Prior art date
Application number
KR1020060039282A
Other languages
English (en)
Other versions
KR100825719B1 (ko
Inventor
이승익
박건용
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060039282A priority Critical patent/KR100825719B1/ko
Priority to US11/592,100 priority patent/US7778730B2/en
Publication of KR20070061054A publication Critical patent/KR20070061054A/ko
Application granted granted Critical
Publication of KR100825719B1 publication Critical patent/KR100825719B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 복수 감정 생성 로봇은 외부 환경 정보를 감지하는 센서부, 로봇에게 허용되는 행동, 로봇의 각 행동에 대응되는 사용자 반응, 로봇이 선호하는 사물의 정보를 포함하는 목록을 미리 설정하여 저장하는 데이터베이스부, 센서부에서 감지한 정보가 기설정된 임계값을 초과하는 경우 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 제 1 감정생성부, 센서부에서 감지한 정보, 데이터 베이스부에 저장되어 있는 목록, 로봇 내부 정보 및 시간의 경과를 반영하여 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 제 2 감정 생성부를 포함하며, 인간과 유사한 여러 감정을 동시에 표현할 수 있다.
로봇 감정, 로봇

Description

복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법{Method for generating emotions and emotions generating robot}
도 1 은 복수 감정 생성 로봇의 내부 구성도를 도시한다.
도 2 는 복수 감정 생성 로봇에서 생성되는 감정을 예시하는 도면이다.
도 3 은 복수 감정 생성 로봇의 센서부에서 외부 환경 정보를 평가하여 감정을 생성하는 흐름도를 도시한다.
도 4 는 본 발명의 로봇의 행동에 대한 외부 반응을 평가하여 감정을 생성하는 흐름도를 도시한다.
도 5 는 복수 감정 생성 로봇에서 긍정적 무드, 부정적 무드 및 시간이 감정 생성에 영향을 미치는 영향을 도시한다.
도 6 은 2차 감정 생성시 로봇의 무드가 미치는 영향을 도시한다.
도 7 은 감정 생성부에서 생성된 감정을 표현하는 감정 표현부를 도시한다.
도 8 은 로봇에서 복수 감정을 생성하는 방법을 도시한 흐름도이다.
본 발명은 감정을 생성, 표현하는 로봇에 관한 것으로서, 보다 상세히 인간 과 유사하게 동시에 복수의 감정을 생성 표현하는 로봇에 관한 것이다.
로봇의 적용 분야는 과거의 산업체로부터 현재는 가정 및 공공장소에 서비스를 제공하는 분야로 옮겨지고 있다. 로봇이 사람들에게 원활히 서비스를 제공하기 위해서는 사용자와의 긴밀한 의사소통 방법이 요구된다.
학문적 연구로 로봇과의 의사소통 방법에서 로봇의 감정 인식 및 표현이 매우 중요한 역할을 한다는 점이 밝혀졌다. 하지만, 현재 개발된 많은 로봇이 이 부분을 간과하였고 그 결과 로봇은 감정을 갖지 못하거나 제한적인 감정 표현만을 할 수 있다.
기존 로봇의 감정 모델은 미리 정의된 각각의 감정들 중에서 가장 높은 레벨을 갖는 감정 하나만을 표현하였다. 또한, 감정 생성 방법도 고정된 하나의 방법만을 사용하였기 때문에 다양한 외부 사건들에 대해 적절한 감정을 생성, 표현하지 못했다. 그로 인해 로봇이 표현할 수 있는 감정의 개수가 매우 한정되었을 뿐 아니라, 그 표현도 매우 제한적이었다.
본 발명은 종래의 상기 서술한 제약을 극복하기 위한 것으로서, 로봇과 사람의 자연스러운 의사소통을 위하여 로봇이 인간과 유사하게 복수의 감정을 생성하고 표현하는 방법을 제공하고자 한다.
신경과학의 연구에 따르면, 사람은 다양한 감정을 동시에 가질 수 있으며, 각 감정마다 서로 다른 감정 생성 방법을 지닌다. 예를 들어 놀람이라는 일차 감정은 대뇌 변연계에 의해 생성되며, 학습에 의한 슬픔 같은 이차 감정들은 대뇌 변연 계뿐 아니라 전전두엽, 체성감각피질 등의 다양한 부분에 의해 생성된다.
신경과학의 이론과 같이 제안한 감정 생성 방법은 다양한 기본 감정들 중 문턱 값을 넘는 모든 기본 감정들을 동시에 표현할 수 있으며, 각각의 기본 감정들을 일차,이차 감정으로 분류하여 분류된 감정마다 서로 다른 감정 생성 방법을 적용하였다.
따라서 본 발명에서는 외부 상황이나 인간의 반응에 대하여 로봇이 인간과 유사하게 다양한 감정을 동시에 생성하고 표현하는 방법을 제공하고자 한다.
본 발명의 바람직한 일 실시예에서, 복수 감정 생성 로봇은 외부 환경 정보를 감지하는 센서부; 로봇에게 허용되는 행동, 로봇의 각 행동에 대응되는 사용자 반응, 로봇이 선호하는 사물의 정보를 포함하는 목록을 미리 설정하여 저장하는 데이터베이스부; 상기 센서부에서 감지한 정보가 기설정된 임계값을 초과하는 경우 상기 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 제 1 감정생성부; 상기 센서부에서 감지한 정보, 상기 데이터 베이스부에 저장되어 있는 목록, 로봇 내부의 전력 공급량, 동작의 오류 여부에 대한 정보를 나타내는 로봇 내부 정보 및 시간의 경과를 반영하여 상기 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 제 2 감정 생성부;를 포함한다.
본 발명의 또 다른 바람직한 일 실시예에서, 로봇에게 허용되는 행동, 로봇의 각 행동에 대응되는 사용자 반응, 로봇이 선호하는 사물의 정보를 포함하는 목록을 미리 설정하여 저장하는 데이터베이스부를 포함하는 로봇에서 복수 감정을 생 성하는 방법은 (a)센서를 통해 외부 환경 정보를 감지하는 단계; (b)상기 감지한 정보가 기설정된 임계값을 초과하는 경우 상기 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 단계; (c)상기 센서부에서 감지한 정보, 상기 데이터 베이스부에 저장되어 있는 목록, 로봇 내부의 전력 공급량, 동작의 오류 여부에 대한 정보를 나타내는 로봇 내부 정보 및 시간의 경과를 반영하여 상기 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 단계;를 포함한다.
이하 본 발명의 바람직한 실시예가 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다.
하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
도 1 은 본 발명의 복수 감정 생성 로봇의 내부 구성도를 도시한다.
본 발명의 복수 감정 생성 로봇은 인간과 유사한 다양한 감정을 동시에 생성하여 표현할 수 있다. 이를 위하여 복수 감정 생성 로봇은 센서부(110), 감정 생성부(120), 데이터베이스부(130), 본능부(140), 감정 표현부(150) 및 액츄에이터부(160)로 구성된다.
센서부(110)는 외부 환경 정보를 감지한다. 본 발명에서 외부 환경 정보는 로봇 이용자의 표정, 로봇 이용자의 제스처 및 시각, 청각, 촉각, 후각, 압각을 포함하는 감각 정보를 포함하며 그 외에 센서로 받아 들일 수 있는 일련의 정보를 지 칭한다.
예를 들면, 사용자의 감정 상태와 연관된 표정, 목소리, 제스쳐 등과 사물들(예; 컵, 장난감, 음식물 등), 그리고 기타 물리적인 상태(조도, 습도, 온도 등)을 포함한다.
센서부(110)의 독립성을 위하여, 본 발명에서는 종래의 센서 정보 전송 방식과 달리 XML 형태로 정보를 인터페이스를 통하여 전송한다.
감정 생성부(120)는 1차 감정을 생성하는 제 1 감정 생성부(121)와 감정을 생성하는 2차 감정을 생성하는 제 2 감정 생성부(122)를 포함한다. 1차 감정 및 2차 감정은 도 2와 관련된 부분에서 설명하기로 한다.
제 1 감정 생성부(121)는 센서부(110)에서 감지한 정보가 기설정된 임계값을 초과하는 경우 상기 센서의 특성에 따라 감정을 생성한다. 제 1 감정 생성부(121)에서 감정 생성시에는 데이터베이스부에 설정되어 있는 목록을 기초로 외부 평가등이 반영되지 않는다. 예를 들어, 놀람 감정, 공포 감정 중 일부는 센서부(110)로부터 수신한 정보를 기초로 곧바로 감정을 생성한다.
주변에서 갑자기 큰 소리가 발생하면, 센서부(110)(예; 마이크)에서 감지하여 감정 생성부(120)로 전송한다. 마이크에서 수신한 정보는 놀람 감정에 직접적으로 연결되도록 미리 설정되어 있고, 감지한 거대한 음성 신호의 크기에 따라 놀람 감정의 레벨이 결정된다.
놀람의 감정은 소리를 감지한 센서에서의 임계치를 초과하는 갑작스런 변화, 영상 신호 감지 센서의 임계치를 초과하는 갑작스런 큰 변화, 촉각 센서의 신호 크 기의 임계치를 초과하는 갑작스런 변화 등이 발생할 경우 생성되도록 미리 설정할 수 있다.
이 경우 생성된 놀람 감정의 레벨은 수학식 1과 같이 결정된다.
Figure 112006030741511-PAT00001
수학식 1에서 현재 놀람 감정의 레벨 E놀람(t+1)은 과거 놀람 감정의 크기 E놀람(t)와 놀람 감정과 연관된 신호의 크기 Sj(t)와 그 가중치 wj의 곱으로 결정된다(단, N은 놀람 감정과 연관된 모든 신호의 개수). δ(t)는 감쇄 값을 나타내며 시간이 증가함에 따라 놀람 감정을 억제하는 역할을 한다.
제 2 감정 생성부(122)는 센서부(110)에서 감지한 정보외에 데이터 베이스부(130)에 저장되어 있는 목록에 따른 외부 평가, 로봇 내부 정보 및 시간의 경과 등을 반영하여 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성한다.
기쁨 감정의 발현을 수학식 2를 통해 구체적으로 살펴보면 다음과 같다.
Figure 112006030741511-PAT00002
수학식 2에서, 현재 기쁨 감정의 레벨 E기쁨(t+1)은 과거 기쁨 감정의 레벨 E기쁨(t), 데이터베이스부(130)의 목록에 해당되는지 여부에 따라 생성된 외부 환경 평가 요소 An(t), 로봇 내부 정보에 따라 생성된 로봇의 본능적 감정 Il(t), 그리고 서로 관련이 있는 다른 감정 요소들 Hm(t)의 합으로 표현된다.
이 때, N, L, M 은 각각 데이터베이스부(130)의 목록에 해당되는지 여부에 따라 생성된 평가 요소들의 개수, 연관된 로봇 내부 정보의 개수, 그리고 서로 관련이 있는 다른 감정들의 개수들을 나타낸다. 그리고 β(t)는 시간이 증가함에 따라 기쁨 감정을 억제하는 역할을 하는 감쇄 값을 나타낸다.
계수 An(t)는 센서부(110)를 통해 외부로부터 인지된 사물의 종류, 로봇 행동의 종류, 그리고 사용자의 감정 반응 상태 등이 설정된 데이터베이스부(130)의 목록에 해당되는지 여부에 따라 영향을 받는다.
제 2 감정 생성부는 상기 데이터 베이스부에 저장되어 있는 목록에 해당되는 경우 긍정적인 감정을 강화시키고 상기 목록에 해당되지 않는 경우 부정적인 감정을 강화시킨다. 이와 같은 긍정적인 혹은 부정적인 감정 강화는 실제로 2차 감정들 중 하나 혹은 그 이상 연관되어 2차 감정 생성에 반영된다.
예를 들어, 데이터베이스부(130)의 목록 중 선호하는 사물 목록에 기재되어 있는 사물, 도덕 규범 목록에 있는 행동을 수행하여 긍정적인 감정이 강화되는 경우 2차 감정들(도 2 관련 부분에서 설명) 중 기쁨 감정의 크기를 높이고, 데이터베이스부(130)의 목록에 해당되지 않는 결과로 부정적인 감정 강화되는 경우 2차 감정들 중 슬픔 감정의 크기를 높인다.
데이터베이스부(130)를 기초하여 감정 생성에 영향을 어떻게 미치는지 여부에 대해서는 도 3 및 도 4 부분과 관련하여 보다 상세히 설명하기로 한다.
또한, 계수 An(t)의 크기는 시간과 무드에 영향을 받는다. 이에 대해서는 도 5 및 도 6과 관련하여 보다 상세히 설명하기로 한다.
로봇 내부 정보에 따라 생성된 로봇의 본능적 감정 Il(t)은 본능부(140)에서 생성되어 제 2 감정 생성부(122)에서 감정 생성시 반영된다. 로봇 내부 정보란 로봇 내부의 전력 공급량, 동작의 오류 여부에 대한 정보등을 의미한다.
예를 들어, 본능부(140)에서는 로봇 내부에 전력 공급량이 일정량 이하로 떨어질 경우 전력 공급량에 대응되도록 미리 설정한 피곤이라는 감정을 생성한다.
그 외에 로봇이 인식하고 있는 다른 감정 요소들 Hm(t)도 2차 감정생성에 반영된다. 예를 들어, 기쁨의 감정의 크기 E(t)를 계산할 때, 화남, 슬픔, 거부와 같은 감정의 크기가 고려되고, 마찬가지로 화남의 감정 크기를 계산할 때에는 기쁨의 감정이 고려된다. 제 2 감정 생성부(122)는 Hm(t) 계수를 통해 감정의 종류에 따라 상충 되는 감정을 반영한다.
감정 생성부(120)는 제 1 감정 생성부(121), 제 2 감정 생성부(122) 및 본능부(140)에서 생성된 모든 감정 레벨을 일정 주기로 관찰하여 정해진 임계값을 넘는 모든 감정을 감정 표현부(150)로 전송한다.
데이터베이스부(130)는 로봇에게 허용되는 행동, 로봇의 각 행동에 대응되는 외부 반응, 로봇이 선호하는 사물의 정보를 포함하는 목록을 미리 설정하여 저장한다.
데이터베이스부(130)는 미리 설정되어 있지 않은 행동, 사물 목록, 사용자의 반응 등에 대하여 로봇의 감정 생성부(120)에서 감정 생성시 부정적인 감정을 강화 시키고 미리 설정되어 있는 목록에 해당하는 경우 긍정적인 감정을 강화시키기 위한 기준이 된다. 긍정적인 혹은 부정적인 감정 강화는 실제로 2차 감정들 중 하나 혹은 그 이상 연관되어 2차 감정 생성에 반영된다.
데이터베이스부(130)에서 로봇에게 허용되는 행동 목록의 일 예로서, 도덕 규범 목록은 도덕 규범 상 허가된 행동들을 저장하고 있으며, 로봇의 행동이 도덕 규범 상 문제가 없는 지를 판단하는 기준이 된다.
로봇이 도덕 규범 목록상에 존재하지 않는 '사물에게 손상을 가하는 행동'을 수행시, 이러한 행동은 도덕 규범 목록상에 존재하지 않는 것으로 판단하여, 해당 행동을 실행하게 되었을 때 감정에 부정적인 효과를 입게 된다.
또 다른 일 예로서, 선호하는 사물 목록은 현재 인식된 사물이 로봇이 선호하는 물건인지 아닌지 판단하는 기준을 제공하게 된다. 예를 들어, 사용자가 로봇 에게 물건을 주면, 로봇은 현재 인식된 사물을 좋아하는 사물 목록에 있는지 판단하여, 로봇의 감정 생성시 기준을 제공한다.
또 다른 일 예로서, 사용자 반응의 목록은 센서부(110)를 통해 파악된 사용자의 반응이 기쁨인 경우 로봇에게 긍정적인 감정을 생성하도록 설정하고 사용자의 반응이 슬픔인 경우 로봇에게 부정적인 감정을 생성하도록 설정한다.
도 2 는 복수 감정 생성 로봇에서 생성되는 감정을 예시하는 도면이다.
복수 감정 로봇이 생성하는 감정은 크게 1차 감정(221)과 2차 감정(222)으로 분류되며, 각각 다른 방법으로 감정을 생성한다.
인간의 경우 신경 과학계의 연구에 의하면 놀람이라는 일차 감정은 대뇌 변연계에 의해 생성된다. 또한, 학습에 의한 슬픔 같은 이차 감정들은 대뇌 변연계 뿐 아니라 전전두엽, 체성감각피질 등의 다양한 부분에 의해 생성된다.
인간과 유사하게 본 발명의 복수 감정 로봇의 경우도 1차 감정(221)은 센서부로부터 받은 센서 정보를 기초로 외부의 평가 없이 감정을 생성한다. 이러한 1차 감정으로는 놀람 감정과 공포 감정 중 일부가 해당한다.
2차 감정(222)은 센서 정보외에 데이터베이스부의 목록 기준에 따른 평가, 본능부에서 생성된 감정, 시간등의 영향을 종합적으로 평가한 이후 감정을 생성한다. 이러한 2차 감정으로는 기쁨, 화남, 거부, 중립, 슬픔 그리고 공포의 감정 중 일부가 해당된다.
도 3 은 복수 감정 생성 로봇의 센서부에서 외부 환경 정보를 평가하여 감정을 생성하는 흐름도를 도시한다.
감정 생성부에서 센서부로부터 XML 형태로 센서 정보를 수신한 후 어떤 종류의 센서 정보인지를 판단한다(S310). 그 후 데이터 베이스부에 미리 설정되어 있는지 여부를 판단하고(S321, S331, S341) 데이터 베이스부 내에 설정되어 있는 사용자의 반응 데이터 행동 데이터, 사물 데이터인 경우 각각 긍정적인 감정을 강화시키고(S324, S332, S342) 데이터 베이스부 목록에 존재하지 않는 경우 각각 부정적인 감정을 강화시킨다(S325, S333, S343).
사용자 반응 정보의 경우 로봇이 수행한 행동이 데이터 베이스부 내에 저장되어 있는지를 판단하고(S321) 저장되어 있지 않은 경우 로봇이 수행한 행동 및 그에 대한 사용자 반응을 데이터 베이스부에 새롭게 저장한다(S323). 로봇의 각 행동에 대응되는 사용자의 반응이 존재하는 경우 긍정적인지 부정적인지를 판단하여 이를 반영한다(S322, S324, S325).
다만, 도 3에서 생성된 감정 기쁨, 슬픔, 화남, 거부 등은 본 발명의 일 실시예로서, 이에 제한되는 것은 아님을 주의하여야 한다.
도 4 는 본 발명의 로봇의 행동에 대한 외부 반응을 평가하여 로봇 내에서 감정을 생성하는 흐름도를 도시한다.
새롭게 생성된 로봇의 행동이 데이터 베이스부에서 설정한 목록(예; 도덕 규범 목록)에 있는지 점검한다(S410). 목록 내에 있는 경우 긍정적인 감정을 강화시키고(S411) 그렇지 않은 경우 부정적인 감정을 강화시킨다(S412)
그 후 로봇의 긍정적 감정 또는 부정적 감정의 강화로 새롭게 생성된 감정을 로봇이 실행한 목록으로 임시적으로 저장한다(S420). 로봇이 새롭게 생성된 감정에 대응되는 사용자의 반응이 발생된 경우(S430) 데이터 베이스부에 설정되어 있는 사용자 반응 목록인지를 검토하고 좋은 반응인지에 따라 거부나 기쁨과 같은 감정을 강화한다(S440, S441, S442).
로봇이 새롭게 생성된 감정에 대응되는 사용자의 반응이 일정 시간을 초과한 이후에도 없는 경우 공포와 같은 감정을 강화한다(S451). 다만, 도 4는 2차 감정 생성의 일 예로서 동일한 기술적 사상 내에서 변경, 치환될 수 있음을 주의하여야 한다.
도 5 는 복수 감정 생성 로봇에서 긍정적 무드, 부정적 무드 및 시간이 감정 생성에 영향을 미치는 영향을 도시한다.
무드 M(t)는 도 2에 도시된 2차 감정의 레벨들의 합(EK(t))을 의미한다. 무드 M(t)가 0 보다 클 경우 긍정적인 무드로, 0 보다 작을 경우 부정적인 무드로 분류한다. 수학식 3에서 가중치를 표시하는 ek 는 해당 감정 요소가 긍정적인지 부정적인지에 따라 +1 또는 -1의 값을 갖는다.
Figure 112006030741511-PAT00003
도 6 은 무드 M(t)와 외부 환경 평가 An(t)간의 관계를 도시한다.
센서부에서 감지한 정보, 데이터 베이스부에 기설정된 목록을 기초로 생성된 외부 환경 평가 An(t)는 현재 각각의 감정의 크기 Ek(t)에 영향을 미치고, 각각의 감정의 크기 Ek(t)는 다시 무드 M(t)에 영향을 미친다. 그리고, 다시 무드 M(t)는 외부 환경 평가 An(t)에 영향을 미친다.
예를 들어, 로봇의 무드 M(t)가 0 보다 큰 긍정적인 무드인 경우, 좋아하는 사물을 인지한 경우 An(t)는 도 5(b)와 같이 크기가 증가하고, 싫어하는 사물을 인지한 경우 도 5(c)와 같이 크기가 증가한다.
반면, 로봇의 무드 M(t)가 0 보다 작은 부정적인 무드인 경우, 좋아하는 사물을 인지한 경우 An(t)는 도 5(c)와 같이 크기가 증가하고, 싫어하는 사물을 인지한 경우 도 5(b)와 같이 크기가 증가한다.
결과적으로, 현재 로봇의 무드 M(t)가 긍정적 무드인 경우, 긍정적인 사물이 부정적인 사물보다 감정에 더 큰 영향을 미치고, 현재 로봇의 무드 M(t)가 부정적 무드인 경우, 부정적인 사물이 긍정적인 사물보다 감정에 더 큰 영향을 미친다.
도 6 은 2차 감정 생성시 로봇의 무드가 미치는 영향을 도시한다. 이에 대해서는 도 5에서 관련 설명을 서술하였으므로 생략하기로 한다.
도 7 은 감정 생성부에서 생성된 감정을 표현하는 감정 표현부를 도시한다.
감정 표현부(700)는 언어 데이터 생성부(710)와 저장부(720)를 포함한다. 감정 생성부에서 생성된 복수의 감정을 기초로 감정을 표현하고 이를 XML 형태의 데이터로 액츄에이터부(730)로 전송하여 로봇의 감정에 따라 행동을 생성한다.
언어 데이터 생성부(710)는 로봇의 감정에 적합한 대화 패턴을 생성하여 액 츄에이터부(730)로 전송한다. 언어 데이터 생성부(710)는 방대한 양의 대화 패턴을 미리 저장하고 있으며, 일반적으로 외부 서버에서 실행되고 필요한 경우 로봇과 데이터 송수신을 통해 필요한 대화 정보를 획득한다.
저장부(720)는 각 감정에 연관된 행동을 기억한다. 예를 들어, 기쁨이라는 감정 표현을 할 수 있는 LCD, LED 표현 방식 및 로봇의 모터 구동 정보들을 저장한다. 그리고, 각 감정에 따라 연관된 행동 간에 충돌이 존재하는지를 판단하여 충돌이 예상되는 경우 하나의 행동으로 합치거나 충돌된 행동들 중 가장 큰 감정 레벨을 가지는 행동을 선택한다. 충돌이 존재하지 않는 경우 액츄에이터부(730)로 전송한다.
예를 들어, 서로 다른 두 개의 행동이 동시에 로봇의 바퀴를 제어하려고 경쟁한다면, 감정 표현 모듈은 두 행동을 하나로 합치거나 두 개의 행동들 중 가장 높은 레벨을 갖는 감정의 행동을 선택하여 액츄에이터부(730)로 전송한다.
액츄에이터부(730)는 감정 표현부(700)로부터 수신된 데이터를 기초로 최종적으로 선택된 행동들을 LED, LCD 및 로봇의 구동 모터 등을 통하여 외부 환경에 물리적으로 영향을 주는 행동을 수행한다. 로봇의 모터를 구동하는 행위, LED를 점멸하는 행위, LCD에 로봇의 표정을 표현하는 행위 등이 예가 될 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상 도면과 명세서에서 최적 실시예 들이 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다.
그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
본 발명의 복수 감정 로봇 및 로봇에서 복수개의 감정을 생성하는 방법은 로봇에게 인간과 유사한 감정 생성 및 표현을 가능하게 한다.
따라서, 사용자와 로봇의 자연스러운 상호 작용이 가능하며, 이로 인해 본 발명의 기술적 사상을 교육용, 오락용 로봇 등의 서비스 로봇에 적용이 가능한 효과가 있다.

Claims (12)

  1. 외부 환경 정보를 감지하는 센서부;
    로봇에게 허용되는 행동, 로봇의 각 행동에 대응되는 사용자 반응, 로봇이 선호하는 사물의 정보를 포함하는 목록을 미리 설정하여 저장하는 데이터베이스부;
    상기 센서부에서 감지한 정보가 기설정된 임계값을 초과하는 경우 상기 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 제 1 감정생성부;
    상기 센서부에서 감지한 정보, 상기 데이터 베이스부에 저장되어 있는 목록, 로봇 내부의 전력 공급량, 동작의 오류 여부에 대한 정보를 나타내는 로봇 내부 정보 및 시간의 경과를 반영하여 상기 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 제 2 감정 생성부;를 포함하는 것을 특징으로 하는 복수 감정 생성 로봇.
  2. 제 1 항에 있어서,
    상기 로봇의 내부 정보에 따라 미리 대응해 놓은 감정을 생성하는 본능부;를 더 포함하는 것을 포함하는 것을 특징으로 하는 복수 감정 생성 로봇.
  3. 제 1 항에 있어서, 상기 제 2 감정 생성부는
    상기 데이터 베이스부에 저장되어 있는 목록에 해당되는 경우 긍정적인 감정을 강화시키고 상기 목록에 해당되지 않는 경우 부정적인 감정을 강화시키는 것을 특징으로 하는 복수 감정 생성 로봇.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 제 1 감정 생성부, 상기 제 2 감성 생성부 및 본능부에서 생성된 감정을 외부로 표현하는 감정 표현부;를 더 포함하는 것을 특징으로 하는 복수 감정 생성 로봇.
  5. 제 1 항에 있어서, 상기 센서부가 감지하는 외부 환경 정보는
    로봇 사용자의 표정, 로봇 사용자의 제스처 및 시각, 청각, 촉각, 후각, 압각을 포함하는 감각 정보를 포함하는 것을 특징으로 하는 복수 감정 생성 로봇.
  6. 제 1 항에 있어서,
    상기 센서부에서 감지한 외부 환경 정보는 XML 형태로 제 1 감정 생성부 및 제 2 감정 생성부로 전송되는 것을 특징으로 하는 복수 감정 생성 로봇.
  7. 로봇에게 허용되는 행동, 로봇의 각 행동에 대응되는 사용자 반응, 로봇이 선호하는 사물의 정보를 포함하는 목록을 미리 설정하여 저장하는 데이터베이스부를 포함하는 로봇에서 복수 감정을 생성하는 방법으로서,
    (a)센서를 통해 외부 환경 정보를 감지하는 단계;
    (b)상기 감지한 정보가 기설정된 임계값을 초과하는 경우 상기 감지한 정보 의 특성에 따라 미리 대응해 놓은 감정을 생성하는 단계;
    (c)상기 센서부에서 감지한 정보, 상기 데이터 베이스부에 저장되어 있는 목록, 로봇 내부의 전력 공급량, 동작의 오류 여부에 대한 정보를 나타내는 로봇 내부 정보 및 시간의 경과를 반영하여 상기 감지한 정보의 특성에 따라 미리 대응해 놓은 감정을 생성하는 단계;를 포함하는 것을 특징으로 하는 복수 감정 생성 방법.
  8. 제 7 항에 있어서,
    (d)상기 로봇의 내부 정보에 따라 미리 대응해 놓은 감정을 생성하는 단계;를 더 포함하는 것을 특징으로 하는 복수 감정 생성 방법.
  9. 제 7 항에 있어서, 상기 (c) 단계는
    상기 데이터 베이스부에 저장되어 있는 목록에 해당되는 경우 긍정적인 감정을 강화시키고 상기 목록에 해당되지 않는 경우 부정적인 감정을 강화시키는 것을 특징으로 하는 복수 감정 생성 방법.
  10. 제 7 항 또는 제 8 항에 있어서,
    상기 (b) 단계, 상기 (c) 단계, 상기 (d) 단계에서 생성된 감정을 생성된 감정을 외부로 표현하는 단계;를 포함하는 것을 특징으로 하는 복수 감정 생성 방법.
  11. 제 7 항에 있어서, 상기 센서는
    로봇 사용자의 표정, 로봇 사용자의 제스처 및 시각, 청각, 촉각, 후각, 압각을 포함하는 감각 정보를 감지하는 것을 특징으로 하는 복수 감정 생성 방법.
  12. 제 7 항에 있어서,
    상기 센서에서 감지한 외부 환경 정보는 XML 형태로 전송되는 것을 특징으로 하는 복수 감정 생성 방법.
KR1020060039282A 2005-12-09 2006-05-01 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법 KR100825719B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060039282A KR100825719B1 (ko) 2005-12-09 2006-05-01 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
US11/592,100 US7778730B2 (en) 2005-12-09 2006-11-02 Robot for generating multiple emotions and method of generating multiple emotions in robot

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020050121007 2005-12-09
KR20050121007 2005-12-09
KR1020060039282A KR100825719B1 (ko) 2005-12-09 2006-05-01 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법

Publications (2)

Publication Number Publication Date
KR20070061054A true KR20070061054A (ko) 2007-06-13
KR100825719B1 KR100825719B1 (ko) 2008-04-29

Family

ID=38194957

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060039282A KR100825719B1 (ko) 2005-12-09 2006-05-01 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법

Country Status (2)

Country Link
US (1) US7778730B2 (ko)
KR (1) KR100825719B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100853424B1 (ko) * 2006-12-20 2008-08-21 한국생산기술연구원 인간형 로봇의 동작 및 표정 합성 장치 및 방법
KR100914309B1 (ko) * 2007-08-03 2009-08-27 한양대학교 산학협력단 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성방법
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
US8764656B2 (en) 2009-12-08 2014-07-01 Electronics And Telecommunications Research Institute Sensing device of emotion signal and method thereof
US9324245B2 (en) 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8103382B2 (en) * 2008-04-24 2012-01-24 North End Technologies Method and system for sharing information through a mobile multimedia platform
US9155961B2 (en) * 2009-05-28 2015-10-13 Anki, Inc. Mobile agents for manipulating, moving, and/or reorienting components
US8483873B2 (en) * 2010-07-20 2013-07-09 Innvo Labs Limited Autonomous robotic life form
US20130268119A1 (en) * 2011-10-28 2013-10-10 Tovbot Smartphone and internet service enabled robot systems and methods
US9104231B2 (en) 2012-09-27 2015-08-11 Microsoft Technology Licensing, Llc Mood-actuated device
US9211645B2 (en) * 2012-12-13 2015-12-15 Korea Institute Of Industrial Technology Apparatus and method for selecting lasting feeling of machine
US9046884B2 (en) * 2012-12-31 2015-06-02 Microsoft Technology Licensing, Llc Mood-actuated device
CN114461062A (zh) * 2014-11-07 2022-05-10 索尼公司 信息处理系统、控制方法和计算机可读存储介质
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
WO2018094272A1 (en) 2016-11-18 2018-05-24 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
CN106843463B (zh) * 2016-12-16 2020-07-28 北京光年无限科技有限公司 一种用于机器人的交互输出方法
CN107194151B (zh) * 2017-04-20 2020-04-03 华为技术有限公司 确定情感阈值的方法和人工智能设备
CN107480291B (zh) * 2017-08-28 2019-12-10 大国创新智能科技(东莞)有限公司 基于幽默生成的情感交互方法和机器人系统
CN107967465A (zh) * 2017-12-20 2018-04-27 朱昌霞 一种人脸识别装置
KR20210007965A (ko) * 2018-05-15 2021-01-20 소니 주식회사 제어 장치, 제어 방법 및 프로그램
KR20200077936A (ko) * 2018-12-21 2020-07-01 삼성전자주식회사 사용자 상태에 기초하여 반응을 제공하는 전자 장치 및 그의 동작 방법
US10723017B1 (en) * 2019-04-01 2020-07-28 Shenzhen Wangrui Technology Co., Ltd. Robotic eye systems
CN111797857A (zh) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 数据处理方法、装置、存储介质及电子设备
CN110263904A (zh) * 2019-05-08 2019-09-20 鄢华中 使第三方机器系统获得生存性情感的方法
RU2718868C1 (ru) * 2019-06-19 2020-04-15 Федеральное Государственное Бюджетное Образовательное Учреждение Высшего Образования "Новосибирский Государственный Технический Университет" Способ диагностики психоэмоционального состояния по голосу
CN111191765A (zh) * 2019-12-31 2020-05-22 华为技术有限公司 一种情绪信息的处理方法及装置
CN111203899A (zh) * 2020-03-13 2020-05-29 佛山科学技术学院 一种教育机器人及其控制系统
CN112614400B (zh) * 2020-12-18 2021-08-31 重庆师范大学 一种教育机器人与课堂教学的控制方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1059147A4 (en) * 1998-09-10 2008-01-16 Sony Corp ROBOT, ROBOT CONTROL, AND DISPLAY SYSTEM AND METHOD
KR20010052699A (ko) 1998-11-30 2001-06-25 이데이 노부유끼 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체
JP3501123B2 (ja) 1998-11-30 2004-03-02 ソニー株式会社 ロボット装置及びロボット装置の行動制御方法
JP2001157980A (ja) 1999-11-30 2001-06-12 Sony Corp ロボット装置及びその制御方法
JP2001212783A (ja) 2000-02-01 2001-08-07 Sony Corp ロボット装置及びその制御方法
CN1372506A (zh) * 2000-03-24 2002-10-02 索尼公司 机器人设备行为决定方法和机器人设备
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
KR100578071B1 (ko) * 2003-09-17 2006-05-10 한국과학기술원 퍼스널 로봇의 감정 관리기 및 방법, 그를 이용한 감성합성 장치 및 그 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100853424B1 (ko) * 2006-12-20 2008-08-21 한국생산기술연구원 인간형 로봇의 동작 및 표정 합성 장치 및 방법
KR100914309B1 (ko) * 2007-08-03 2009-08-27 한양대학교 산학협력단 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성방법
KR100953407B1 (ko) * 2008-04-24 2010-04-19 한국과학기술원 로봇의 호감도 형성장치 및 그 방법
US8764656B2 (en) 2009-12-08 2014-07-01 Electronics And Telecommunications Research Institute Sensing device of emotion signal and method thereof
US9324245B2 (en) 2012-12-13 2016-04-26 Korea Institute Of Industrial Technology Apparatus and method for creating artificial feelings

Also Published As

Publication number Publication date
KR100825719B1 (ko) 2008-04-29
US20070150099A1 (en) 2007-06-28
US7778730B2 (en) 2010-08-17

Similar Documents

Publication Publication Date Title
KR100825719B1 (ko) 복수의 감정 생성 로봇 및 로봇에서 복수의 감정 생성 방법
US20110004577A1 (en) Emotion model, apparatus, and method for adaptively modifying personality features of emotion model
US6490570B1 (en) Hardware or software architecture adapted to develop conditioned reflexes
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
CN100509308C (zh) 用于机器人的行为控制系统和行为控制方法及机器人装置
US9824606B2 (en) Adaptive system for real-time behavioral coaching and command intermediation
KR20190123362A (ko) 인공지능을 이용한 음성 대화 분석 방법 및 장치
Yoshikawa et al. A constructivist approach to infants' vowel acquisition through mother–infant interaction
US20120232891A1 (en) Speech communication system and method, and robot apparatus
KR101678018B1 (ko) 감성 모델 장치 및 감성 모델 장치의 행동 결정 방법
Dai et al. Group interaction analysis in dynamic context
JP6892426B2 (ja) 学習装置、検出装置、学習方法、学習プログラム、検出方法、および検出プログラム
US11531881B2 (en) Artificial intelligence apparatus for controlling auto stop system based on driving information and method for the same
US10836044B2 (en) Robot control device and robot control method
KR20190134911A (ko) 전자 장치 및 이의 제어 방법
US10665032B2 (en) Real-time motion feedback for extended reality
Rodriguez Lera et al. Neural networks for recognizing human activities in home-like environments
US20240027977A1 (en) Method and system for processing input values
KR102221963B1 (ko) 화상 정보를 제공하는 인공 지능 장치 및 그 방법
Mruthyunjaya et al. Human-Augmented robotic intelligence (HARI) for human-robot interaction
KR20180046550A (ko) 인공지능을 이용한 대화 장치 및 방법
US20190164548A1 (en) Apparatus for determining speech properties and motion properties of interactive robot and method thereof
US12011828B2 (en) Method for controlling a plurality of robot effectors
KR100914309B1 (ko) 지능형 에이전트 시스템 및 지능형 에이전트의 감정 생성방법
Najjar et al. Intelligent recognition of activities of daily living for assisting memory and/or cognitively impaired elders in smart homes

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110411

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee